A substituição de uma placa de exibição on-board por uma placa de exibição independente gera menos calor?

0

Quando executo alguns aplicativos de jogos, meu computador que usa um cartão de exibição on-board fica muito quente muito rapidamente.

Você acha que a substituição de um cartão de exibição on-board por um standalone gerará menos calor?

Como a CPU não é especificamente dedicada para jogos ou aplicativos 3D, esses trabalhos são bastante intensivos para a CPU.

Por ter um cartão de exibição separado, a maior parte da carga de trabalho é transferida para ele e, como é projetado para esses tipos de aplicativos, esses trabalhos podem não ser intensivos.

Em geral, você acha que isso é verdade?

    
por bobo 06.05.2012 / 10:57

2 respostas

1

Isso dependeria inteiramente da placa de vídeo dedicada que você colocou no sistema, mas, em geral, não. Uma placa de vídeo dedicada geraria mais calor, já que seria uma GPU mais potente e trabalharia mais para fornecer uma exibição melhor.

Agora "a maior parte da carga de trabalho é transferida para ela" ... não precisa. Primeiro, estamos falando sobre a mais nova geração de processadores Intel e AMD que possuem GPUs embutidas no CPUS real? Ou estamos falando de sistemas mais antigos, onde há uma GPU integrada no design da placa-mãe? Porque para o propósito do que você está falando, são maçãs e laranjas.

Nos sistemas em que a CPU e a GPU são separadas, mas a GPU faz parte da placa-mãe, ainda existe uma GPU separada que gera seu próprio calor e faz seu próprio trabalho. Há evidências empíricas para sugerir que, em um sistema integrado como esse, a CPU funcionará mais, mas nenhum resultado real de testes de benchmark foi publicado para provar isso.

Então, você tem uma GPU integrada, menor e mais fraca, produzindo calor em uma mão, e você tem a placa de vídeo dedicada, maior e mais poderosa, produzindo calor na outra.

Pense desta maneira. Em sistemas com uma GPU integrada, você pode ver um dissipador de calor, mas raramente vê um ventilador naquele dissipador de calor. Em relação às placas de vídeo, você raramente vê placas de vídeo sem fãs hoje. Por quê? Eles geram uma tonelada de calor.

    
por 06.05.2012 / 17:15
1

Se você está mudando as tarefas de computação da CPU para a GPU, você pode usar menos energia por unidade de trabalho. Mas isso só se aplica a tarefas muito específicas (simulações científicas, principalmente, que incluem Seti @ Home, ou criptografia de força bruta, como BitCoin) e o software tem que ser especialmente escrito com código GPGPU.

Mover tarefas de uma GPU para outra terá efeito insignificante. No entanto, a placa separada tem seu próprio controlador de memória, etc., portanto, há mais uso de energia em modo inativo. Mas não muito, realmente.

A ativação das configurações nos seus jogos, porque a GPU discreta é muito mais eficiente, resultará em um uso de energia muito maior. É por isso que as poderosas GPUs têm a reputação de produzir muito calor. E é aí que sua suposição se quebra. Sim, as CPUs são menos eficientes no processamento de gráficos. Mas isso significa necessariamente que eles fazem menos trabalho, não que consumam mais energia. Mesmo para o GPGPU, a placa de vídeo raramente usa menos energia do que a CPU, apenas faz muito mais trabalho.

É claro que esse calor extra está sendo produzido em uma placa separada, o que pode ser menos problemático em relação ao superaquecimento.

Como regra geral, as GPUs integradas são projetadas com ênfase no baixo consumo de energia, não no desempenho. Placas gráficas discretas usarão mais energia e criarão mais calor.

    
por 06.05.2012 / 17:49