Se você tem dois computadores, cada um com sua própria conexão independente à Internet (ou seja, duas conexões ISP) e não uma conexão compartilhada, em teoria, usando algo como servidores FTP que suportam a retomada de downloads interrompidos, cada computador poderia simultaneamente baixar metade do arquivo.
No entanto, eu não sei de nenhum software que faz isso (embora talvez wget ou curl possam ser feitos para executar a busca de deslocamento apropriada)
Se o afunilamento for o servidor ftp (ou servidor de protocolo equivalente), ter duas conexões não ajudará.
Atualização: o tipo de coisa que eu tinha em mente era
Computador 1
dd if=/dev/zero bs=10000 count=5 > name-of-big.file
wget -continue http://www.example.com/name-of-big.file
Computador 2 (ao mesmo tempo por conexão de Internet separada)
wget http://www.example.com/name-of-big.file
Pare com isso quando atingir o tamanho do bloco ignorado no Computador 1. Achei que você poderia fazer com que o wget parasse de enviar a saída para uma instrução dd que quebra o pipe, mas isso acaba não funcionando
wget -O - $URL | dd bs=10000 count=5
Wget pára quando o dd quebra o pipe, mas o arquivo resultante não é do tamanho certo. Então, talvez apenas deixe-o rodar, pare manualmente e corte a parte que você precisa (por exemplo, usando dd)
Finalmente, você pode cortar a parte diferente de zero do arquivo no computador 1 (por exemplo, usando dd) copiar para o computador 2 e agrupar as partes.
Isso parece confuso para mim, eu prefiro encontrar ou escrever um cliente HTTP distribuído: -)