Sou um profissional de TI trabalhando no meu escritório em casa. Estou tendo alguns problemas de desempenho (cópias de arquivos NAS) que estou tentando isolar, usando o iperf. Minha pergunta é sobre iperf.
Infraestrutura - Switches Gigabit (Netgear), não cruzando comutadores. Todos os adaptadores GigE.
Server 1 - Ubuntu 12.04, executando o Samba
Server 2 - NAS4Free - rodando em VMware ESXi 5.5
Meu problema original - Transferências de arquivos grandes (1GB), particularmente receber (cliente solicita um arquivo do servidor) é muito lento, 10X mais lento na caixa NAS4Free que o servidor Samba. Em geral, estou testando usando um cliente Windows, mas estou obtendo resultados semelhantes de um cliente Linux (também Ubuntu). Isso é fornecido para fins informativos. Acho que os resultados do iperf destacam o problema e é aí que reside a minha pergunta.
Eu corri o iPerf, usando os padrões (TCP). Ambos os servidores são os mesmos, mostrando velocidades de transferência de 690MBytes e 683MBytes. Isso é um rendimento decente e não parece ser o problema.
Eu executei o iPerf configurado para o UDP (servidor e cliente). Eu aumentei a largura de banda em 100 - até 800m (iperf -c ip-addr -u -b 800m). Estes resultados mostram claramente um problema na unidade NAS4Free (em execução no VMware)
No Ubuntu / Samba - posso ver quando atingi os limites de largura de banda. O jitter e o descarte permanecem baixos, com o pior cenário em 700m, onde o jitter era 0,053 e perdi 193 quadros de 527954 para uma perda de 0,037%.
Eu tenho mais duas máquinas virtuais no host ESXi, executando o Ubuntu 12.04. Eles estão executando os mesmos drivers nas NICs virtuais como a caixa NAS4Free. Como a unidade autônoma do Ubuntu / Samba, não houve perda excessiva de pacotes, mesmo quando a transferência está saturando a linha.
Em NAS4Free - É uma história diferente e eu começo a perder pacotes entre 300 me 400 m e isso só piora. Este parece ser o problema.
Performance Table
Bandwidth Jitter Lost/Total Datagrams
-b 100m = 101Mbits/sec 0.030 ms 0 / 85471 (0%)
-b 200m = 202Mbits/sec 0.026 ms 196 /172284 (0.11%)
-b 300m = 301Mbits/sec 0.031 ms 514 /256312 (0.2%)
-b 400m = 390Mbits/sec 0.037 ms 11861/343757 (3.5%)
-b 500m = 391Mbits/sec 0.053 ms 45983/378627 (12%)
-b 600m = 393Mbits/sec 0.061 ms 146109/480261 (31%)
Alguma opinião sobre o que está causando isso? O que eu deveria estar olhando? Quais testes devo executar?
Agradecemos antecipadamente por qualquer ajuda. Desculpas na frente. Eu não costumo postar (em qualquer lugar), então espero ter fornecido a quantidade adequada de informações em um formato razoável.