Usando o wget para obter arquivos do local para o servidor para o servidor remoto

1

Temos um servidor local onde realizamos grande parte do nosso desenvolvimento web e, em seguida, enviamos isso para um ambiente ativo para que os clientes possam acessar.

Muitas vezes acabamos com tarballs enormes (esse em particular é 6.6Gb) que precisamos obter do nosso servidor local para o nosso servidor remoto.

Usamos massa como terminal e WinSCP.

Buscar dados por wget é sempre super rápido, mas existe alguma maneira de usar o wget no terminal do servidor remoto para obter o tarball em nosso servidor local e, em caso afirmativo, qual comando precisamos usar ou o que mais precisamos fazer? configurar / configurar?

Podemos fazer upload via SFTP / FTP, mas com arquivos grandes, isso pode levar horas ou até dias!

    
por zigojacko 03.07.2014 / 14:03

2 respostas

2

é melhor você usar o scp (cópia segura)

scp yourfile [email protected]:/var/www/

e se você usar a autenticação de chave, você também se livra da pergunta de senha (e também é mais segura)

se o seu tarball (como você escreveu em um comentário) tiver o nome * .tar, então o seu 6GB não está compactado, portanto, no seu ubuntu local, ´bzip2 tarball.tar and after transfering a bunzip2 tarball.tar.bz2 'economizará uma chance muito tempo

    
por 03.07.2014 / 15:11
0

Para esclarecer, você deseja transferir um arquivo do seu servidor local para um servidor remoto da Web, não local?

Se for assim, usar ftp ou wget (que é como um download direto) usará a mesma conexão.

Mas se você realmente quiser usar o wget, eu moveria o arquivo no diretório apache (ou equivalente, se instalado) do servidor local e, em seguida, usaria o wget com o link correto no servidor remoto via terminal SSH. Isso significa que seu arquivo será de acesso livre e não protegido.

EDIT1: sugiro que você use o FTP para arquivos senstive

    
por 03.07.2014 / 14:29

Tags