Posso usar o aliasing (por exemplo, "4xAA", etc.) fornecido por cartões gráficos 3D para melhorar a aparência da minha área de trabalho?

1

Todas as placas de vídeo 3D modernas suportam alguma forma de "anti-aliasing" baseado em hardware para jogos. A ideia é tornar o quadro maior que a resolução da tela e, em seguida, reduzi-lo para obter imagens mais suaves.

A NVIDIA tem uma pequena descrição aqui .

Agora, isso pode ser caro em um jogo (onde a placa de vídeo tem muito processamento para fazer), mas em um ambiente de desktop (pense no Windows ou em qualquer interface gráfica do Linux (KDE, Gnome, LMDE, XFCE). , etc.) o desempenho não deve ser um problema.

Portanto, é possível desabilitar todos os alias baseados em software e deixar a placa de vídeo fazer o trabalho. Eu acho que em vários casos ficaria melhor.

Embora isso pareça tecnicamente viável, não consegui encontrar em nenhum lugar como fazer isso.

Então, alguma idéia, se isso for possível? Se não, por que não?

    
por E.Z. 15.02.2013 / 17:07

1 resposta

1

Infelizmente, com os sistemas operacionais atualmente disponíveis, você não pode usar sua GPU ("cartão 3D") para melhorar a qualidade de renderização da área de trabalho. A razão simples para isso é que, para usar GPU e multisampling ou supersampling, seu sistema operacional precisaria empurrar os dados originais (ou de alta qualidade) para o pipeline da GPU. Por exemplo, o sistema operacional e as bibliotecas gráficas precisariam renderizar todas as grachics vetoriais como vetores, imagens com resolução mais alta do que a exibição pode renderizar, posicionar todos os elementos com precisão matemática (subpixel) etc. etc. Os sistemas operacionais atualmente disponíveis não o fazem por causa de razões históricas.

Eu acho que o Mac OS X está mais próximo de conseguir renderizar toda a área de trabalho na GPU com melhor qualidade porque suas APIs gráficas estão próximas o suficiente do necessário. Essa renderização de gráficos ainda precisaria ser suportada por aplicativos de terceiros. Qualquer aplicativo de terceiros projetado para enviar pixels na exibição real não fornecerá dados suficientes para a GPU melhorar a qualidade da renderização.

Além disso, a tecnologia de exibição atual ainda é (em média) muito fraca para renderizar, e. matematicamente fontes corretas e ainda precisamos de fontes que se adaptam a pixels, em vez de renderizar formas de letra matematicamente corretas (modificar fontes para coincidir com pixels é chamado de "fonte insinuando"). Uma vez que temos cerca de 300 ppi para uso em desktop, podemos pular a adaptação de fontes para pixels e estamos um passo mais próximos dos desktops acelerados por GPU. Até que tenhamos resolução de exibição alta o suficiente, renderizar formas de fonte matematicamente corretas resultará em texto um pouco desfocado.

Note que a visão humana não está limitada a "300 dpi", apesar do que a Apple diz em seus anúncios. A visão humana é limitada pela combinação da distância do objeto visualizado e o tamanho do objeto visualizado. O "300 dpi" ou "300 ppi" é o limite para uma distância - se você aproximar a cabeça, precisa de uma resolução de tela maior para atingir o limite da visão humana.

    
por 14.07.2014 / 09:43