FPS da GPU vs Hz do monitor

0

Eu tenho pensado em monitores de 144Hz e no FPS da GPU. Um amigo meu está sempre falando como ele precisa de um monitor de 144Hz porque ele não pode suportar 60Hz de baixa qualidade (seu velho monitor quebrou). Isso me fez ouvir toda a conversa sobre ser suave, mas para obter a qualidade certa, você precisa ser 200FSP e ...

Bem, mas por quê? Tudo o que falar "porque é mais suave", não vale nada para mim, como eu aceito o argumento, é, mas por quê? Do ponto de vista digital?

No começo eu estava pensando em um monitor como um dispositivo de amostragem, mas isso é uma lógica falha, porque isso sugere que menos FPS é melhor. Também monitorar não é amostragem!

Então eu pensei em um monitor como uma tomada em uma torneira. Vamos supor um limite de fluxo de, digamos, 1L / s. Quando você abre a torneira, o fluxo começa a aumentar (a GPU aumenta o FPS). Você pode ver uma mudança distinta no fluxo até chegar a 1L / s. Depois disso, não importa o quanto você abra a torneira, o fluxo não será alterado. A pressão será maior, mas o fluxo permanecerá.

Por que mais FPS resultaria em melhores transições?

    
por Patryk Wrzeszcz 23.01.2017 / 19:55

2 respostas

0

Infelizmente, sim, os monitores estão "amostrando" a imagem do quadro na taxa especificada por eles. Essa amostragem pode não ser simultânea em toda a tela e progride de cima para baixo, mas ainda é "amostragem", digitalizando uma imagem no tempo. Quando a imagem está mudando (como em filmes ou emulação de cena de jogo com objetos em movimento rápido), todos os artefatos de digitalização no tempo ainda estão em vigor. Assim, a amostragem mais rápida é sempre melhor, até o ponto em que outras limitações de exibição são acionadas, como uma inerente inerência de troca de pixels.

    
por 23.01.2017 / 21:42
0

Com a v-sync ativada, o FPS está limitado à taxa de atualização. então quando o monitor é 60Hz, você só recebe 60fps:

When VSync is disabled, your FPS and refresh rate have no relationship to each other as such. This lets your graphics card work as fast as it wants, sending frames to the monitor as fast as it can draw them. Whether the monitor can actually show all these frames properly or not is another matter, which we've already discussed above. Clearly if disabling VSync can cause graphical glitches, however minor they may be, wouldn't it make sense to always enable VSync so that your graphics card doesn't wind up wasting its efforts only to generate more tearing? Well once again, things are not as simple as that.

When VSync is enabled, what happens is that your graphics card is told to wait for your monitor to signal when it's ready for a new frame before supplying a single whole frame, each and every time. It can't race ahead, it can't just pump out lots of partially completed frames over old ones whenever it's ready - it has to provide a single whole frame to the monitor whenever the monitor says it's ready to refresh itself during VBI. The first noticeable impact is that your FPS becomes capped at a maximum equal to your current refresh rate. So if your refresh rate is 60Hz for example, your framerate can now only reach a maximum of 60FPS.

Então, se ele quer jogar a 100FPS, ele precisa de um monitor com um número Hz mais alto. O V-Sync tem alguns problemas, de modo que a AMD e a nVIDIA criaram tecnologias para sincronizar a taxa de atualização e o FPS com valores cada vez mais baixos. AMD o chama Freesync e nVIDIA G-Sync .

    
por 24.01.2017 / 20:01