- Eu acho que sim. Tenha cuidado com o tamanho do bloco escolhido, pois ele precisará ser maior que o padrão para uma quantidade tão grande de dados
- Não significativo durante a transferência, sua largura de banda será o gargalo não o seu CPU. Gerar o metarquivo de torrent (que envolve o hash de cada bloco e todo o conjunto de dados) em primeiro lugar levará algum tempo, assim como a verificação de hash final após a conclusão da transferência no cliente
- Sim. A menos que seu provedor de conectividade, o provedor do cliente, ou em algum lugar entre, esteja modelando seletivamente o tráfego P2P.
Para atenuar os problemas relacionados aos pontos 1 e 2, se você puder dividir os dados em partes menores e tiver torrents separados para cada fragmento, poderá achar mais fácil lidar com o tamanho dos dados.
Observe também que você precisará regenerar os meta-arquivos de torrent se qualquer dados no (s) arquivo (s) que eles cobrem forem atualizados. Se pequenas partes dos dados mudarem sem o resto mudar, você provavelmente achará o rsync uma solução muito mais eficiente.
Qual é o tamanho dos arquivos no conjunto de dados e como é o spread (vários arquivos multi-gigabyte ?, muitos menores? ...)?