O que determina quais resoluções um laptop está disposto a gerar em VGA?

3

Sou responsável por várias salas de conferência e configuro projetores de 1080p e forneço conectividade HDMI e VGA. HDMI para DisplayPort e Mini-DisplayPort, e VGA como alternativa, opção universal. Ao contrário do que eu esperava, as pessoas parecem ter muito mais problemas com o HDMI do que com o VGA, então o VGA se utiliza muito mais do que você imagina (mesmo que a maioria dos laptops de estação de trabalho feitos nos últimos 3-4 anos tenham DisplayPort ou Mini- DisplayPort ...). Também para minha surpresa, as saídas VGA acima de 1080p em um cabo de 50 pés funcionam com uma degradação mínima em alguns laptops - outros laptops não oferecem 1080p como uma opção de resolução e atingem 1600x1200 ou qualquer outra coisa. Exemplo específico: um ThinkPad W530 fará 1080p, um W520 não, por VGA. (ambos fazem 1080p sobre displayport / mini-DP)

O que determina quais resoluções um laptop está disposto a gerar em VGA?

Estou pensando que isso vai se resumir a um driver de vídeo que diz que ele suporta apenas certas resoluções de saída, ou limitações do RAMDAC (que não estaria em jogo, pelo menos DAC, em uma saída digital, mas seria em VGA, uma saída analógica).

A razão básica para a pergunta é que eu notei, digamos, um ThinkPad W520 com display embutido de 1080p, vai gerar 1080p em DisplayPort para um projetor 1080p, mas será limitado em 1600x1200 (praticamente a mesma contagem de pixels, apenas um pouco tímido) em VGA. Agora, isso não seria surpreendente, a não ser que ALGUNS laptops não apresentem problemas de saída de 1080p em VGA, mesmo com resoluções nativas menores.

Por que me importo? Bem, se houver alguma maneira de ativá-lo ... para situações em que meus usuários acabam usando o VGA de qualquer maneira, é preferível que o espelhamento de exibição resulte na resolução nativa de seu laptop, que, você adivinhou, costuma ser de 1080p em 15 " modelos.

ISENÇÃO DE RESPONSABILIDADE: Isto é principalmente uma curiosidade, eu não estou afirmando 1080p sobre VGA é ideal por qualquer meio, mas hey, se funciona. Já vi o HDMI começar a artefactar mais com o mesmo comprimento, com o mesmo calibre (até 50 'em alguns quartos). Se você acha que isso é mais adequado ao Superusuário, mova-o, mas isso é enquadrado de um ponto de vista de TI de algo que afeta um pool real de usuários em uma sala de conferência múltipla, mais de 50 cenários de laptop implantados.

    
por Joshua McKinnon 09.08.2013 / 03:36

1 resposta

1

Eu acho que você adivinhou, o que acontece é o driver que verifica o monitor usando o DDC que é uma conexão serial simples (na maioria das vezes ainda não mostrada nos diagramas de conectores VGA!)

A Wikipedia tem uma página muito boa no DDC e nos diferentes protocolos:

link

Como você mencionou o uso de um cabo bastante longo, estou realmente pensando que a conexão serial pode não funcionar corretamente. Em geral, o driver usará um fallback seguro se não puder determinar a resolução do dispositivo de exibição.

Como funciona com alguns computadores, eles podem ter um sinal melhor (voltagem maior que pode levar mais) do que os computadores que falham.

Ter um driver ao qual você pode ensinar o que você está conectando e forçar a saída para X / Y / Z é provavelmente a solução mais fácil no seu caso, embora todas as pessoas precisem instalar esse driver. Caso contrário, seria um repetidor que aumenta o ponto médio do sinal (ou talvez 2 deles em 1/3 de cada ...)

A última coisa, mas eu ficaria surpreso que é o problema, seria que o protocolo usado pelo seu dispositivo de exibição não é conhecido pelo computador ...

    
por 03.11.2013 / 02:30

Tags