Movendo muito grande (~ 100 Gb) de um servidor para o outro

1

Estamos movendo servidores e preciso transferir todos os dados do Servidor A para o Servidor B.

Eu tenho um tar.gz de cerca de 100Gb que contém todos os arquivos do Servidor A.

Eu realmente gostaria de evitar baixar o arquivo localmente no meu computador e fazer o upload para o Servidor B.

Eu só tenho acesso ftp ao Servidor A. Isso significa que não há ssh. No entanto, tenho acesso ssh ao Servidor B.

Qual é a melhor maneira de transferir o arquivo? Eu estava pensando em mover meu arquivo tar.gz para public_html temporariamente e baixá-lo usando o wget. Isso funcionaria ? Caso contrário, eu poderia usar ftp através de uma sessão ssh no Servidor B.

    
por Manuel Lafond 01.07.2015 / 04:35

2 respostas

2

Algo como:

ssh user@serverB
nohup wget -bqc ftp://path/largefile.tar.gz

opções do wget:

-b : run in background
-q : quiet
-c : resume broken download (means you can restart if it breaks)

Isso executa o wget em segundo plano, então (esperançosamente) se você sair do shell ssh, ele continuará. Ok, eu acho que você precisa nohup para garantir que é o caso quando / se você sair

Como você está iniciando o download do servidorB, sua máquina de desktop não está envolvida na transferência de arquivos, exceto para configurá-lo.

    
por 01.07.2015 / 04:42
1

Se não são dados muito sensíveis e sua conexão é segura o suficiente, ssh em B e baixe diretamente de A via ftp. O SSH tornará seu download consideravelmente mais lento devido à sobrecarga de trabalho de criptografia. Se possível, divida o arquivo de 100 GB em vários, especialmente se o servidor de FTP em A não suportar o download de currículos.

    
por 01.07.2015 / 11:18