Optirun e Bumblebee pergunta básica

0

Eu tenho um laptop que tem dois GPUs nele, um Intel e um nVidia. Eu tenho usado o Bumblebee para alternar entre as GPUs, por exemplo, executando glxspheres ou glxgears em um terminal da Intel GPU é usado e o terminal me mostra os quadros por segundo, que é cerca de 60FPS e eu entendo que isso é normal porque a taxa de atualização da tela é de 60Hz. Se eu rodar optirun glxspheres ou optirun glxgears o bumblebee mudar para a GPU da nVidia, mas o FPS permanecer em 60FPS porque é limitado pela taxa de atualização da tela.

Então, minha pergunta é a seguinte: se o FPS é limitado pela taxa de atualização de telas e a Intel GPU pode se comportar nesse FPS, qual é a vantagem de usar a GPU da nVidia?

    
por SteveInBavaria 25.11.2017 / 20:18

1 resposta

0

Você parece ter chegado a uma conclusão de que a Nvidia não tem nenhum benefício, mas é baseada em pelo menos dois mal-entendidos sérios sobre o que o (não-brinquedo) teste descrito diz, e eles poderiam ter sido evitados por procurando primeiro!

(A) Testes com vsync ativado e um não-benchmark trivial como glxgears farão com que quaisquer 2 GPUs pouco modernas pareçam "iguais", se a sua definição de "igual" for meramente "pode empurrar 60 FPS usando um renderização extremamente simplista '.

(B) Você poderia pelo menos desativar o vsync, para remover o teto artificial. Consulte Desativar sincronização vertical para glxgears

(C) glxgears pode até mesmo punir injustamente a GPU discreta devido à saturação do barramento PCIe. Você mal está sobrecarregando o maquinário real da GPU, apenas fazendo renderizar quadros de brinquedo em altas taxas e empurrando-os sobre o PCIe para a GPU integrada enviar para a tela. Você precisa fazer benchmark da GPU usando algo que lhe dá trabalho real para fazer - polígonos de processamento e outros, não apenas frames de spam. Veja esta explicação no tracker Bumblebee e porque é que o glxgears é mais rápido sem optirun e etc.

    
por underscore_d 04.03.2018 / 21:14