A única maneira de medir o tempo de atividade do sistema com, digamos, precisão de um segundo, é usar um sistema externo para medir a resposta - uma vez por segundo, 86400 vezes por dia.
Eu acho que o título fala por si.
Mas, para dar um exemplo: Em um post recente, 37 sinais mostram que é real tempo de inatividade e se compara a outros serviços da web. Eles ficam com muito pouco tempo e provavelmente a maioria das empresas não tem isso. Mas, para medir tudo o que você precisaria, um sistema bullet prof com 100% de tempo de atividade, ou pelo menos algum tipo de heurística para simular isso. Nesse caso, eles usam Pingdom , mas qualquer outro serviço similar deve ser capaz de emular isso.
Então, como eles fazem isso? Eles deixam 2 ou 3 servidores rastreando dados e fazendo e média, não considerando seu próprio tempo de inatividade? É trivial ou complexo?
Ps .: Uma melhor definição para "precisão" seria medir sem erros , ou sem perder tempo de inatividade. Então, se o serviço está inoperante, você sabe, 100% do tempo. Caso contrário, você poderia ter uma medida tendenciosa.
A única maneira de medir o tempo de atividade do sistema com, digamos, precisão de um segundo, é usar um sistema externo para medir a resposta - uma vez por segundo, 86400 vezes por dia.
Tags performance uptime web-server