Quando o uso da CPU começa a afetar usuários ou serviços? [fechadas]

1

Eu trabalho com servidores e agora começo a gravitar mais no monitoramento do desempenho do servidor.

Alguns desenvolvedores de aplicativos que conheci recentemente afirmam que os Serviços Windows / Linux e seus aplicativos (serviços da Web, servidores de arquivos, aplicativos matemáticos, BI, bancos de dados etc.) começam a sofrer uma perda considerável de poder de processamento quando o uso da CPU atinge cerca de 75%, mesmo quando ainda resta 25% do poder de processamento.

O uso da CPU realmente afeta o desempenho de um aplicativo depois de atingir 75%?

    
por David Lago 10.02.2016 / 13:14

1 resposta

0

Com o antivírus, você provavelmente está ligado ao IO em vez de estar ligado à CPU. É bastante provável que qualquer processo que requeira recursos adicionais de IO funcione mais lentamente nesse caso. Mesmo que sua CPU seja 100% usada, você não notará necessariamente qualquer lentidão, dependendo do agendador e dos níveis de prioridade dos processos em execução.

Mas vamos imaginar o caso em que todos os processos são totalmente limitados pela CPU. Não há nenhum IO acontecendo, nenhuma interrupção incomum, etc. E, além disso, imaginemos uma única CPU. Nesse caso, se sua CPU estiver 75% ocupada, você absolutamente teria acesso a outros 25% da CPU para processar uma chamada do usuário. A latência seria um pouco maior do que se a CPU estivesse totalmente sem uso; cada custos da mudança de contexto são de dezenas a milhares de nanossegundos. Mas isso é frações de um milissegundo.

Note, no entanto, que muitos processos usam recursos de IO significativos. Se você tiver dois processos competindo por recursos de IO, poderá notar lentidão significativa. Usar um SSD em vez de uma unidade mecânica ajudará consideravelmente. Você também pode escolher um agendador IO diferente, pelo menos no Linux.

    
por 10.02.2016 / 14:02