Não sei se a quantidade de dados a processar é significativa. Como cada quadro tem exatamente a mesma quantidade de pixels, você só pode gerar "mais dados" se já executou algoritmos complicados de estimativa de movimento e, mesmo assim, o quadro P / B resultante será menor (caso contrário compensação de movimento seria inútil). A largura de banda de memória nos sistemas modernos é tão alta que eu não acho que a quantidade de dados contribua para a velocidade de codificação.
Um codificador deve primeiro executar um algoritmo, para cada quadro, para determinar qual tipo de quadro deve ser usado. Esse algoritmo pode ser complicado, mas a complexidade deve ser aproximadamente a mesma para cada quadro (portanto, não é um fator aqui). No entanto, quando se determina que um P / B é necessário, algoritmos de estimativa de movimento muito complicados devem ser executados com parâmetros diferentes para determinar qual é a melhor maneira de comprimir o movimento no quadro. Quando a seleção de quadros de referência entra em jogo, como em quadros B, a complexidade anterior será multiplicada.
Essas são complexidades adicionais, portanto, o tempo de computação, que só ocorre quando o codificador decide que a compensação de movimento pode comprimir melhor o quadro do que as diferenças simples de pixel, portanto, cenas com movimento pesado demoram mais para serem computadas. Isso também explica por que o tempo de compactação se beneficia mais de processadores mais rápidos do que de armazenamento mais rápido.