Temos instâncias T2 (Linux 4.9.20-11.31.amzn1.x86_64) no AWS EC2, que esgotam seus créditos de E / S devido a leituras de disco. Pode ser que tenhamos leituras excessivas nesses nós, então nada de estranho nisso em si, mas o resultado nos processos no nó é bastante peculiar. atop
(v 1.27) captura um fluxo normal esperado de pequenas leituras até que os créditos de E / S sejam esgotados, quando atop -d 30
começa a ficar assim por longos períodos:
PID TID RDDSK WRDSK WCANCL DSK CMD
10616 - 432.2M 0K 0K 24% consul
27629 - 313.3M 0K 0K 17% chef-client
27795 - 306.5M 0K 0K 17% python
27803 - 132.6M 0K 0K 7% crond
Parece improvável que consul
ou crond
(e em outras amostras named
, dhclient
e mesmo init
) decidissem de repente que queria ler centenas de MBs, tendo lido muito pouco anteriormente por horas No fim. Esse comportamento dura cerca de uma hora e vários processos são exibidos com mais de 100 MB de leitura nesse período.
O que pode explicar esses altos números para processos normalmente bem comportados? Pensei em atop
ler /proc/X/io
read_bytes
para esses números que devem ser razoavelmente precisos para a atividade real do EBS?