Em relação à carga do servidor: você não diz qual sistema operacional é esse. Para a maioria dos sabores do Unix (incluindo o Linux), desde que a carga seja menor que o número de CPUs, você provavelmente não deve se preocupar com isso. Nesse cenário, cada processo fica na CPU enquanto pode fazer coisas úteis lá (mais ou menos). Mas quando há uma fila de proceses esperando para chegar à CPU, o sistema operacional interrompe as tarefas antes que elas estejam prontas para render - quando isso acontece, sua taxa de transferência começa a diminuir.
(Eu nunca vi carga expressa como% antes - de onde vem isso?)
Com relação aos tempos de carregamento da página: os logs do servidor não são o local a ser exibido. Se você quiser descobrir se isso está causando um impacto, será necessário consultar a cascata de carregamento da página em um navegador (ferramentas do desenvolvedor no Chrome, Firebug no Firefox ou usar um verificador on-line, como pingdom - lembre-se de usar um proxy para adicionar latência se estiver testando localmente. Você está procurando por lacunas entre os pedidos para o seu site maiores que o keepAliveTimeout.
É minha experiência que intervalos de mais de 1 segundo são muito raros, mesmo em redes muito lentas. E onde ocorrem, ou são resultado de um atraso explícito (por exemplo, carregamento lento de uma nova imagem em um slideshow) ou (ainda mais raro) uma falha patológica na página (por exemplo, recuperar um javascript muito grande e bloqueador de um local muito lento ).
(OK, então estamos realmente procurando lacunas entre os pedidos no mesmo soquete - mas isso é difícil de visualizar).