Diferença entre downscaling 1080p to 720p em tempo real e downscaling durante a codificação?

1

Suponha que um vídeo não compactado de alta qualidade seja recodificado duas vezes, com configurações de codificação quase idênticas a uma taxa de bits relativamente baixa de 4mbps, mas com resoluções diferentes, primeiro em 1080p e depois em 720p.

Então agora temos dois vídeos: um é 1080p e o outro é 720p. Ambos têm taxas de bits idênticas.

Eu sei que 4mbps é considerado uma baixa taxa de bits para 1080p, e o vídeo ficará ruim em uma tela full-HD devido aos artefatos de compressão.

No entanto, durante a reprodução em um display 720p , o vídeo 1080p será obviamente reduzido para 720p.

A minha pergunta é: No ecrã 720p , o vídeo 1080p (que está a ser reduzido para 720p em tempo real durante a reprodução) é tão bom como o vídeo 720p (que tem a mesma taxa de bits) ? Ou será que o vídeo 720p (que foi reduzido de 1080p para 720p pelo codificador) parece melhor? Ou os dois parecem iguais?

Eu executaria alguns testes para ver isso por mim mesmo, mas meu sistema não é poderoso o suficiente para a codificação de 1080p. Estou procurando por algumas visões de especialistas sobre isso.

    
por Cyber-Logic 17.05.2014 / 12:44

0 respostas