Otimização de falhas de página simples

1

Atualmente, estou fazendo uma análise de desempenho em um servidor e vejo que um aplicativo está gerando um grande número de falhas de página / s. Depois de verificar as leituras da página / segundo, parece que todas estas falhas de páginas não são falhas de página com problemas (sem atividade de disco).

Eu li on-line que os processadores mais modernos podem lidar com um grande número de falhas de página, mas em nenhum lugar eu posso encontrar um número grande ... esse aplicativo está aumentando entre 3000 e mais de 7000 falhas de página por segundo. / p>

Então, para esse número de falhas de página por segundo, eu preciso me preocupar?
Existe um desempenho perceptível para esse nível de falhas?
Posso fazer alguma coisa para otimizá-lo?

Obrigado antecipadamente

    
por Adam Fox 14.12.2010 / 21:05

1 resposta

1

Com base nos fatos fornecidos, acho que o aplicativo mencionado estava fazendo alocação rápida de memória (por exemplo, malloc ()). Parece que ele alocou um bloco, possivelmente liberando-o e, em seguida, alocar novamente. Normalmente, o alocador de memória manterá os blocos de memória liberados no cache, mas pode ser que, no seu caso, ele tenha sido liberado.

Acho que não há muito o que fazer aqui, já que estamos lidando com o comportamento do aplicativo, não com o kernel ou outro aspecto. No entanto, acho que a situação poderia ser alterada usando um alocador de memória diferente. Tente google "alocador de memória". Por exemplo, no Linux, o alocador de memória padrão é ptmalloc. Exemplo de alternativa é: link

    
por 04.05.2011 / 21:15