Ferramenta de cópia de arquivo grande em conexão fragmentada

3

Eu estou olhando para copiar alguns arquivos grandes através de uma conexão WAN escamosa. Existe uma ferramenta que eu possa usar, que será retomada automaticamente quando a rede cair brevemente e me permitir continuar manualmente, se eu tiver que corrigi-la manualmente?

    
por jimconstable 17.06.2009 / 01:26

8 respostas

6

As ferramentas nativas do Windows para fazer isso são xcopy / z e usando o BITS. Xcopy / z é bastante auto-explicativo. Bitsadmin é como você gerencia uma transferência de bits no Windows 2003, no entanto, se você pode instalar o powershell v2, ele contém módulos de cmdlet para fazer transferências de bits. Veja Transferindo arquivos (grandes) usando BITs . Minha ferramenta exe favorita é XXcopy.

    
por 17.06.2009 / 02:17
3

Use algo como rar para criar um arquivo que pode ser dividido em partes, digamos 100MB. Use xcopy ou robocopy para copiar os arquivos.

robocopy source dest *.rar /w:30 /r:30 /z

esperará 30 segundos quando a conexão cair e tentar novamente 30 vezes.

Eu usei isso quando precisei copiar um arquivo multi-gig em um link que não ficava alto o suficiente para fazer a cópia.

    
por 17.06.2009 / 04:43
1
O

curl tem várias opções de repetição (além de poder especificar tentativas infinitas).

O rsync não possui nenhum esquema de repetição embutido, você pode envolvê-lo em um script para fazer tentativas infinitas até que seja concluído com êxito.

    
por 17.06.2009 / 01:29
1

Cliente FTP com função de fila (com tentativas automáticas). Experimente o SmartFTP ou o FileZilla.

    
por 17.06.2009 / 01:31
1

Meu amigo sugeriu que eu use KillCopy para essa finalidade. Ele funciona bem - sua interface de usuário é um pouco desajeitada, mas é uma solução de arrastar e soltar (supondo que você esteja usando um destino que você pode acessar no Explorer).

    
por 17.06.2009 / 03:27
0

Quão curtas são as interrupções de rede?

Se não forem longos, o OpenVPN poderá ser útil. Eu o uso em vários lugares por outras razões, mas ao usá-lo em uma conexão GPRS lenta e não confiável em um trem em movimento, descobri que ele sobreviveu às quedas de conexão regulares e, se a interrupção não foi longa o suficiente para causar timeouts, os aplicativos (navegador da Web, principalmente) que transferem material sobre o link também sobreviveram.

Isso em combinação com um cliente que suporta envios parciais e retrys, como sugerido por outros, pode cobrir todas as bases para você.

Se estiver usando o rsync, certifique-se de ter as opções configuradas de tal forma que ele possa reutilizar transferências parciais, caso contrário você poderá perder muita largura de banda se a conexão cair antes do fim da sincronização de um novo arquivo grande (ou muito alterado). >     

por 17.06.2009 / 01:46
0

Pode parecer uma sugestão estranha, mas use uTorrent . Instruções sobre como fazer isso estão aqui:

link

É ótimo com conexões ruins. Eu estou supondo que você pode iniciar o download do outro lado. Se não, então esta ideia não funcionará.

    
por 17.06.2009 / 04:08
0

Se você estiver no Windows, talvez queira dar uma olhada em RichCopy um 'sucessor' do RoboCopy mencionado anteriormente.

Except copying files is not always that simple. What if you're copying thousands of files across a slow connection? What happens if your network hiccups and interrupts the copy? What if you want to make sure that you preserve particular file attributes, such as a Last Modified date, but not other attributes, like security descriptors? What if you want to filter the files you're copying from source to destination based on filename or extension? If any of these apply to you, the simple Ctrl+C/Ctrl+V combination probably won't cut it. And though Robocopy GUI certainly improves on that basic functionality, it still has some limitations in terms of granular control and usability. What you need is RichCopy.

    
por 20.01.2010 / 06:44