Transfere grande quantidade de imagens (30GB) para o servidor virtual da máquina lenta, velha e linux?

1

Eu preciso transferir 200.000 imagens para uma instância do windows EC2 de uma máquina Linux realmente antiga. Eu não tenho muita experiência com o Linux, então eu não tentei FTPing direto porque eu não acho que temos o software adequado, se é um download rápido e fácil Estou aberto para uma solução, mas essa coisa é muito lento e chato, especialmente para um estrangeiro Linux. Eu tentei transferir as imagens para uma unidade USB para fazer o upload de um PC diferente, mas congela e pára depois de cerca de 1GB. O que você sugeriria a maneira mais eficaz de conseguir isso?

    
por Ryan Gedwill 24.05.2016 / 05:46

3 respostas

2

Não importa qual método atual de cópia / transferência você usa, você deve empacotá-los em um arquivo primeiro. Isso fará com que 2 coisas aconteçam: o novo arquivo que você deseja transferir é adequado (em comparação com muitos arquivos que podem ser ilegíveis) e a transferência em si será muito mais fácil. Arquivos pequenos são uma dor para qualquer tipo de cópia ou transferência. Depois de ter um arquivo grande, você pode usar qualquer método válido, incluindo o scp mencionado acima.

    
por 24.05.2016 / 06:10
1

Não há resposta certa aqui - na maior parte, as transferências de arquivos não usam muitos recursos além da largura de banda, então a velocidade da máquina provavelmente não é grande coisa.

A resposta depende de qual variante do Linux você possui e como você se conecta entre o cliente e o servidor. A solução mais óbvia - se você tem o ssh, é usar o rsync - o Rsync vem com a maioria das distros, ou é trivialmente adicionado por algo como "apt-get install rsync" ou "yum install rsync". A parte interessante sobre o uso do rsync é que, se o download falhar no meio, basta executar o comando e ele continuará de onde parou.

Se o Rsync não for uma opção, a próxima solução lógica seria usar scp - para usar isso, você usaria "scp -r serverip: / path / destpath". Isso funcionará enquanto o servidor tiver ssh.

Se isso não funcionar, tente usar wget ou ncftp para fazer o download via FTP. O FTP não é um ótimo protocolo.

    
por 24.05.2016 / 05:52
0

Relendo o problema, a solução é diferente do que sugeri inicialmente. Precisamos de algo crossplatform, lida com as transferências de arquivos de forma confiável e é muito simples.

sincronização bittorrent deve funcionar. O cliente linux é um simples binário simples com o seu próprio webui. Configure um compartilhamento lá e use o cliente do Windows no outro lado para fazer o download do diretório.

Como o protocolo subjacente é bitorrent, ele deve tratar de todos os problemas e verificar se há erros de forma bastante simples, e não há praticamente nenhuma configuração necessária, fora da criação dos compartilhamentos.

    
por 25.05.2016 / 13:53