Ao executar testes de velocidade de rede (como speedtest.net), por que servidores distantes oferecem velocidades proporcionalmente mais lentas?
Eu entendo que há mais "saltos" para os pacotes passarem, e que o primeiro pacote levaria mais tempo para chegar do que um servidor mais próximo, mas assim que o primeiro pacote chegar e o "fluxo" for estabelecido, não deveria flui tão rápido quanto um servidor próximo?
A analogia da água eu estou imaginando isso como (talvez erradamente) -
Segurando duas xícaras de água, eu coloco uma delas em um único canudo, levando dois segundos para derramar a outra ponta. Com o segundo copo, despejo-o em uma rota composta de três canudos, levando seis segundos para derramar a outra extremidade. Mas agora que ambos os canudos estão saturados, a velocidade do surto entre eles não deve ser a mesma?
Por que servidores mais distantes levam a velocidades de teste de largura de banda mais lentas? Uma resposta de latência alongada seria compreensível, pois é uma medida de uma quantidade . No entanto, um teste de velocidade de largura de banda é uma medida de uma taxa e, portanto, a menos que seja uma questão de mais saltos que leve a mais chances de perda / desvio de pacotes, não entendo por que seja mais lento.