Para um programa executado em um servidor (Linux) em um ambiente de armazenamento conectado à rede (NAS), como posso medir a quantidade de tempo gasto na transferência de dados entre o servidor e a rede?
O comando time
> /usr/bin/time md5sum file_348m
738709b181b52ddfcef3413997f91462 file_348m
0.65user 0.07system 0:00.73elapsed 99%CPU (0avgtext+0avgdata 1524maxresident)k
0inputs+0outputs (0major+80minor)pagefaults 0swaps
Acredito que mede o tempo gasto na transferência de dados entre o disco (local) e a memória do servidor (pagefaults), mas como posso medir o tempo de transferência de dados da rede?