./iPerf
no modo UDP tem que acompanhar o desempenho de cada pacote UDP, enquanto no modo TCP, a única interação é o resumo final.
800 Mb / s é o limite para as VMs convidadas que vi.
Estou executando um teste de largura de banda simples entre duas VMs usando iperf. Estou recebendo leitura de largura de banda muito diferente para TCP e UDP, onde a largura de banda UDP é terrivelmente menor do que o TCP.
TCP:
root@i-sahmed-node2: ~ # iperf -c 10.160.24.123 ------------------------------------------------------------ Client connecting to 10.160.24.123, TCP port 5001 TCP window size: 85.0 KByte (default) ------------------------------------------------------------ [ 3] local 10.160.24.170 port 48339 connected with 10.160.24.123 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 7.41 GBytes 6.36 Gbits/sec root@i-sahmed-node2: ~ #
UDP:
root@i-sahmed-node2: ~ # iperf -c 10.160.24.123 -u -b 6g ------------------------------------------------------------ Client connecting to 10.160.24.123, UDP port 5001 Sending 1470 byte datagrams UDP buffer size: 208 KByte (default) ------------------------------------------------------------ [ 3] local 10.160.24.170 port 51922 connected with 10.160.24.123 port 5001 [ ID] Interval Transfer Bandwidth [ 3] 0.0-10.0 sec 962 MBytes 807 Mbits/sec [ 3] Sent 686548 datagrams [ 3] Server Report: [ 3] 0.0-10.0 sec 630 MBytes 528 Mbits/sec 0.009 ms 237368/686547 (35%) [ 3] 0.0-10.0 sec 9 datagrams received out-of-order root@i-sahmed-node2: ~ #
Eu posso reproduzir isso quase todas as vezes. Como estou executando em VMs, não tenho acesso direto ao hardware subjacente. Alguém sabe por que isso está acontecendo?
./iPerf
no modo UDP tem que acompanhar o desempenho de cada pacote UDP, enquanto no modo TCP, a única interação é o resumo final.
800 Mb / s é o limite para as VMs convidadas que vi.
Tags performance networking linux