Veja rsnapshot
. Tenho certeza que ele fará tudo o que você quiser, e como um bônus pode ser expandido para manter os arquivos por mais de dois meses, quando você tem uma unidade maior.
Eu tenho uma amiga que é fotógrafa e ela tem muitos arquivos grandes como resultado. Nossa solução atual é onde alguns arquivos são entregues em minha casa. Eu não tenho o recurso de armazenamento para armazenar todos os arquivos dela.
Como estamos falando de Terabytes de dados, um backup completo não pode ser mantido em seu lugar. Atualmente, temos backups dos arquivos pós-processados.
O que eu gostaria de fazer é manter um backup, x -mês, desses arquivos em seu lugar. Eu tenho espaço em uma unidade lá, então eu só preciso de um script. Esse script precisa ser executado pelo menos diariamente e garantir que os 250 GB de espaço disponível nesse disco sejam preenchidos com os arquivos brutos mais recentes, de modo que o disco esteja quase cheio.
Eu estou tentando tar
, pois tem uma opção --newer
incorporada. No entanto, só estou criando um tarfile enorme todos os dias. Quando eu fizer o mesmo trabalho amanhã, estou criando outro tarfile enorme, que pode ser exatamente igual ao de ontem. E assim por diante. Parece muito ineficiente.
Meu pensamento inicial foi rsync
, mas não parece ter suas próprias opções de tempo. Existem maneiras pelas quais você pode usar o comando find
e canalizar os resultados, mas aparentemente isso não preserva a estrutura de diretórios no destino.
Como isso não é apenas "uma coisa" no Unix? Estou esquecendo de algo? Ironicamente, isso seria trivial no Windows: robocopy <source> <destination> /mir /maxage:<date>
.
Para resumir:
Veja rsnapshot
. Tenho certeza que ele fará tudo o que você quiser, e como um bônus pode ser expandido para manter os arquivos por mais de dois meses, quando você tem uma unidade maior.