Nos meus projetos, trabalho em 800 GB de dados (incluindo dados e códigos). Alguma parte dos meus dados é constituída por arquivos um pouco grandes, ~ 1GB, mas eu também tenho uma pasta com milhares de pequenos arquivos dentro.
Eu fiz backup de todos os meus dados em um servidor externo com sftp
e usei lftp
usando mirror -R <folder>
. Descobri que essa maneira de fazer backup dos dados pode não ser ideal, porque sftp
funciona melhor com arquivos grandes e leva muito tempo para fazer backup de arquivos pequenos.
Agora que copiei todos os meus dados no servidor externo, gostaria de salvar as alterações todos os dias, já que trabalho constantemente em meus projetos e atualizo várias pastas distintas por vez.
Eu estava acostumado a fazer backup com rsync
, mas acredito que isso não seja uma opção no servidor externo que estou usando no momento.
Eu queria saber se há alguma maneira de acelerar esse processo usando sftp
, seja em lftp
ou outro gerenciador de arquivos.