Por que o 1080p através de um cabo VGA se ajusta à minha HDTV, mas é superdimensionado quando através de um cabo HDMI?

6

Eu montei um novo PC com uma placa gráfica XFX GeForce GTX 260 e o conectei à minha HDTV.

Primeiro, usei um cabo VGA antigo com um adaptador DVI para VGA e liguei-o à porta VGA da minha HDTV. Correndo em 1920x1080 cabe perfeitamente na tela.

Agora, para evitar a execução de outro cabo pela sala, conectei-o com um cabo DVI a HDMI à porta HDMI da TV e a área de trabalho em 1920x1080 é cortada pela borda da tela.

Eu "consertei" o corte usando a ferramenta "Ajustar tamanho e posição da mesa" da NVIDIA, que criou uma resolução de 1814x1022 para caber na tela, mas isso não é mais a resolução nativa da TV e confunde algum software (por exemplo, WoW ).

Por que o VGA funciona como esperado, mas o HDMI é dimensionado? Pode ser evitado?

    
por GraemeF 15.10.2009 / 23:16

5 respostas

9

O que você está vendo é chamado de overscan. TVs tê-lo como transmissões no formato NTSC, por vezes, não preenche todo o espaço na tela. Você precisará procurar em seus menus por uma configuração para ajustar a quantidade de overscan para 0%. Você pode até ter que encontrar uma maneira de acessar o menu de serviço da sua TV para fazer esse ajuste.

    
por 16.10.2009 / 01:17
2

Você não menciona o que é a TV, mas provavelmente precisa definir o modo na TV como "Apenas digitalizar" ou algo semelhante no menu de imagem.

    
por 16.10.2009 / 00:01
1

Eu tive o problema oposto com a minha Samsung e uma placa ATI, que foi mostrada com barras pretas na borda por padrão enquanto rodava em 1920x1080 nativo - a TV estava configurada para 'apenas escanear'.

Eu consertei isso no Catalyst Control Center - havia uma opção de underscan que por padrão era configurada para permitir que programas de TV como o seu exibissem a imagem completa - isso escalava a imagem sem alterar o sinal enviado para a TV ainda full HD e uma resolução padrão).

Não tenho certeza se a nVidia tem algo parecido, embora ...

Quanto a 'por que diferente em VGA e HDMI' - acredito que seja a mesma razão que a maioria dos monitores padrão - a VGA é dimensionada com base nos pixels ativos mais distantes em cada direção (por exemplo, 'Ajuste automático' na maioria dos monitores) Considerando que o HDMI contém informações de resolução, o que significa que não há escalonamento de tentativa e erro. Se a pergunta era por que diferente em DVI vs HDMI, eu ficaria perplexo:)

    
por 16.10.2009 / 19:35
1

tínhamos bordas borradas, achamos que o VGA funcionava melhor que o DVI / HDMI, mas precisávamos usar um cabo melhor e mais isolado, mais curto também.

As placas da Nvidia são SLId, então não sei se isso faz alguma diferença, a TV está apenas em scan, mas os menus na TV não eram um problema, estava no computador. Descobrimos que o Samsung 52 é representado apenas como um 46. Nvidia tem uma configuração de escala para isso no painel de controle, e resolveu tudo.

    
por 31.08.2012 / 05:52
1

Tente isto: você está lidando com duas coisas diferentes.

  • O vídeo de origem está em uma resolução específica.
  • O vídeo da TV ou do alvo está em uma resolução específica.

Se você estiver enviando de um computador, tente ajustar o vídeo em 1080p e, em seguida, defina a resolução na TV como 1080p. Combinar as resoluções deve dar a você os melhores resultados.

Descobri que, quando há um processo de conversão de HDMI para DVI, isso pode causar problemas de qualidade. Algo está perdido no processo de conversão e a qualidade da imagem estava ausente. Isto é o que eu vi no meu uso real com um conversor, que quando eu fui para um novo computador com HDMI na placa-mãe que a qualidade de vídeo teve uma melhoria de 100%. No entanto, minha antiga placa-mãe tinha apenas 720p para vídeo integrado.

Tente também atualizar os drivers do chipset ou da placa de vídeo.

    
por 07.12.2012 / 05:31