VGA é o único sinal analógico dos mencionados acima, então já é uma explicação para a diferença. Usar o adaptador pode piorar ainda mais sua situação.
algumas leituras adicionais: link
Eu tenho um monitor Dell U2312HM conectado a um laptop Dell Latitude E7440. Quando eu os conecto via laptop -> HDMI cable -> HDMI-DVI adaptor -> monitor
(o monitor não tem um soquete HDMI), a imagem é muito mais nítida do que com laptop -> miniDisplayPort-VGA adaptor -> VGA cable -> monitor
. A diferença é difícil de capturar com uma câmera, mas veja minha tentativa abaixo. Tentei brincar com as configurações de brilho, contraste e nitidez, mas não consigo obter a mesma qualidade de imagem. A resolução é 1920x1080, estou usando o Ubuntu 14.04.
VGA:
HDMI:
Por que a qualidade é diferente? É intrínseco a esses padrões ou devo suspeitar de um cabo VGA defeituoso ou adaptador mDP-VGA?
VGA é o único sinal analógico dos mencionados acima, então já é uma explicação para a diferença. Usar o adaptador pode piorar ainda mais sua situação.
algumas leituras adicionais: link
Assumindo que o brilho, o contrato e a nitidez são os mesmos em ambos os casos, pode haver duas outras razões pelas quais o texto é mais nítido com DVI / HDMI:
O primeiro já foi dito, o VGA é analógico, então será necessário passar por uma conversão analógica para digital dentro do monitor, isso teoricamente irá degradar a qualidade da imagem.
Em segundo lugar, supondo que você está usando o Windows, existe uma técnica chamada ClearType (desenvolvida pela Microsoft), que melhora a aparência do texto, manipulando os sub pixels de um monitor LCD. VGA foi desenvolvido com monitores CRT em mente e a noção de um sub pixel não é a mesma. Devido à necessidade de o ClearType usar uma tela LCD e o fato de que o padrão VGA não informa ao host, as especificações do visor ClearType seriam desativadas com uma conexão VGA.Fonte: Lembro-me de ouvir sobre o ClearType de um de seus criadores em um podcast para This (). Developers (). Life () IIRC, mas link também suporta minha teoria. Também HDMI é compatível com DVI e DVI suporta Electronic Display Identification (EDID)
E ajuste o relógio e a fase do monitor para obter a melhor correspondência e a imagem mais nítida. No entanto, como é analógico, esses ajustes podem mudar ao longo do tempo e, portanto, o ideal é que você use apenas um sinal digital.
Existem algumas respostas indicando um sinal digital versus analógico que está correto. Mas isso não responde ao porquê? Algumas camadas de tradução mencionadas, isso também é verdade, uma conversão convencional de A / D pode causar uma perda de fidelidade, mas você teria que medir isso, pois é difícil ver as diferenças a olho nu. Uma conversão barata e todas as apostas estão desativadas.
Então, por que o digital é melhor que o analógico?
Um sinal RGB analógico (como VGA) usa a amplitude do sinal (pico de 0,7 Volts para pico no caso de VGA). Isso, como todos os sinais, tem ruído que, se for grande o suficiente, fará com que os níveis sejam traduzidos incorretamente.
Reflexos no cabo (incompatibilidade de impedâncias) são na verdade a maior queda de um sinal de vídeo analógico. Isto introduz um ruído adicional e piora com cabos mais longos (ou mais baratos), quanto maior a resolução do vídeo, também aumenta a relação sinal / ruído. Curiosamente, você não poderá ver nenhuma diferença em um sinal de 800x600, a menos que o cabo VGA seja muito longo.
Como um sinal digital evita essas armadilhas? Bem, por um lado, o nível não é mais relevante. Também DVI-D / HDMI usa um sinal diferencial, bem como correção de erros, para garantir que os zeros e uns sejam transmitidos fielmente corretamente. Há também um condicionamento adicional adicionado a um sinal digital que não é prático, adicionado a um sinal de vídeo analógico.
Desculpe pelos caras da caixa de sabão, mas os fatos.
Outra questão é que muitos cabos VGA são lixo. Se o cabo VGA for menor do que 1/4 "de espessura, você irá provavelmente perceber fantasmas em monitores maiores (maior rez, fantasma mais provável). Eu até notei fantasmas no cabo VGA conectado alguns 19 "CRT montadores. Meus cabos VGA têm cerca de 1/3 "de espessura e realmente ajuda com a nitidez (fios mais grossos, mais blindagem)
HDMI e DVI são muito semelhantes. Ambos são digitais; As principais diferenças são que o HDMI suporta áudio e HDCP. Ao alternar entre HDMI e DVI, há pouca conversão real, mas conectando os pinos correspondentes nos conectores. Display Port é um protocolo digital, mas o VGA é analógico, e o conversor provavelmente introduz pequenas falhas e a redução da nitidez no sinal. O monitor provavelmente converte o sinal de volta para digital, incorrendo em outra conversão que afeta negativamente a qualidade.
Acima de tudo, o monitor "HDMI- > DVI- > tem menos conversões reais do que o monitor > DisplayPort > VGA > e nunca converte o sinal para analógico, proporcionando uma imagem mais nítida.
HDMI e DVI são na verdade um e o mesmo (pelo menos no seu contexto). Os conectores DVI são realmente apenas conectores HDMI com uma pinagem diferente (as fileiras de pinos), além de conectores VGA com uma pinagem diferente (os pinos dispostos em torno de uma forma em cruz). Se você olhar para o seu conversor HDMI-para-DVI, provavelmente notará que a peça em forma de cruz está faltando.
Então, você está comparando uma imagem HDMI com uma imagem VGA e, como apontou @Josh, uma que envolve uma conversão real.
Existe realmente uma diferença entre HDMI e DVI, mas não é relevante para você. HDMI pode transportar sinais adicionais, incluindo o sinal de criptografia para proteção de conteúdo, som, Ethernet, etc.