Como uma máquina escolhe entre duas GPUs diferentes?

0

Atualmente tenho duas GPUs NVidia na minha máquina, uma GTX970 e uma GTX650.

Obviamente, a disparidade impede o SLI. Como minha máquina escolhe qual GPU será renderizada para um determinado software? O driver da GPU tenta escolher o melhor dos dois? O SO escolhe um dispositivo padrão (que eu posso mudar)? Ou é apenas para a parte específica do software para perguntar de forma inteligente para o dispositivo certo?

Eu tenho dois cartões porque eu faço um monte de renderização em 3D, e em esse caso, o software usa os dois explicitamente em segmentos separados, sem SLI. Como essa decisão é tomada no caso de softwares mais convencionais?

    
por mHurley 16.06.2017 / 21:00

1 resposta

1

Para exibir a tela, ele usa a GPU na qual você conectou seu monitor.

Para a renderização 3D, ela usa extensões especiais chamadas CUDA (especificamente para cartões Nividia) ou OpenCL (um wrapper para CUDA e outras interfaces) que permitem usar a GPU para fazer a renderização, e é por isso que seu software de renderização pode usar os dois cartões.

A única vez que uma imagem é renderizada em um cartão e canalizada para o outro é quando você está usando uma configuração de SLI e parte da imagem é renderizada com um cartão e parte da imagem é renderizada com o outro.

    
por 16.06.2017 / 21:44