Suas webcams têm compressão de hardware? Ou você está fazendo compressão no RPi? Seu processador VideoCore é adequado para este tipo de trabalho, mas .... você deve usar o OpenMAX para descarregar para o VideoCore, já que o coprocessador ARM onde o Linux roda não está nem perto de ser capaz de compactar até mesmo um fluxo de baixa definição. Os programas que carregam os codecs do VideoCore são omxplayer
some gstreamer
plugins.
Mesmo usando o VideoCore, você terá problemas de largura de banda para obter dados brutos de vídeo através da interconexão interna a partir do USB.
Suas opções possíveis são, portanto,
- Copie o vídeo pré-comprimido (dentro da própria webcam) de USB para Ethernet.
- Use o módulo de câmera RPi que faz interface com uma porta de vídeo de alta largura de banda no Raspberry Pi, diretamente no VideoCore para processamento e compactação.
A última opção provavelmente terá uma latência um pouco menor, mas você terá apenas um fluxo. É teoricamente possível intercalar dois fluxos através da porta de vídeo única, mas o codec no VideoCore precisaria ser projetado para aceitar e separar os dois fluxos, e os dados técnicos para isso estão disponíveis somente sob NDA para os maiores clientes da Broadcom. / p>
Você pode encontrar mais informações sobre o processo de desenvolvimento de codecs de vídeo nos fóruns do Rasberry Pi. Versão resumida: a Broadcom faz a maior parte do trabalho, a fundação Raspberry Pi tem acesso aos dados técnicos, mas não há engenheiros suficientes, e o NDA os impede de contratar o trabalho.