melhor maneira de fazer backup de dados em um servidor sftp

0

Nos meus projetos, trabalho em 800 GB de dados (incluindo dados e códigos). Alguma parte dos meus dados é constituída por arquivos um pouco grandes, ~ 1GB, mas eu também tenho uma pasta com milhares de pequenos arquivos dentro.

Eu fiz backup de todos os meus dados em um servidor externo com sftp e usei lftp usando mirror -R <folder> . Descobri que essa maneira de fazer backup dos dados pode não ser ideal, porque sftp funciona melhor com arquivos grandes e leva muito tempo para fazer backup de arquivos pequenos.

Agora que copiei todos os meus dados no servidor externo, gostaria de salvar as alterações todos os dias, já que trabalho constantemente em meus projetos e atualizo várias pastas distintas por vez.

Eu estava acostumado a fazer backup com rsync , mas acredito que isso não seja uma opção no servidor externo que estou usando no momento.

Eu queria saber se há alguma maneira de acelerar esse processo usando sftp , seja em lftp ou outro gerenciador de arquivos.

    
por simona 20.09.2018 / 09:49

0 respostas