Verifique seu gerenciador de pacotes para a versão "rt" da sua imagem linux (kernel). Outra opção seria recompilar seu kernel com o patch "rt".
Para uma explicação muito boa sobre o kernel em tempo real, veja este link .
Eu tenho uma amostra, uma aplicação bastante inútil, que gera sinal (curto pico de alguma frequência, seguido por um período de silêncio mais longo, na cauda), então tenho que escrever na placa de som. Placa de som é apenas loop em si mesmo com cabo minijack-minijack. Assim, meu aplicativo registra apenas o sinal transmitido, para detectar a latência do caminho a seguir:
app- > driver- > dac > lineout > linein > adc > driver > app
Primeiro de tudo, para minha tarefa eu preciso minimizar a latência, ir além do intervalo de sub-milissegundos. 0,01-0,1 ms satisfará, porque esta é a aplicação do sonar na plataforma do PC.E, em segundo lugar, gostaria de poder mudar do buffer inteiro para trabalhar com amostras individuais. Ou, no máximo, para minimizar o tamanho do buffer para torná-lo o mais curto possível. Calculei a necessidade de 16 amostras ou menos a uma taxa de amostragem de 192kHz. Perfeitamente é trabalhar com amostras individuais em tempo real, ouvi dizer que isso é possível.
Então, como posso "ativar em tempo real"? e que tipo de tempo real eu preciso - duro ou mole?
Verifique seu gerenciador de pacotes para a versão "rt" da sua imagem linux (kernel). Outra opção seria recompilar seu kernel com o patch "rt".
Para uma explicação muito boa sobre o kernel em tempo real, veja este link .