Cache muito grande de duplicidade

7

Atualmente, estou usando um script de duplicidade para fazer backup do meu servidor 110G / 2T CentOS em um servidor sftp de 2T.

Desde que se passaram 4 dias, a duplicidade fez o backup de apenas 90G. Isso não é um problema. O principal problema é; Eu tenho quase 600G cache que a duplicidade gerada em "/ user / cache /duplicity". Esse tamanho não é normal, então o que devo fazer? A duplicidade diminuirá ou removerá esses arquivos e pastas de cache quando terminar a tarefa? O backup de duplicidade também é cache (não excluí a pasta / user)?

Informação adicional: Estou usando o servidor Hetzner e este é o script de backup que estou usando: link

Além disso, acabei de excluir os diretórios proc, sys e dev da raiz (e fiz o backup de todo o resto a partir da raiz, porque queria um backup completo do servidor).

    
por Bahadir Tasdemir 06.04.2016 / 16:41

2 respostas

6

De acordo com a lista de e-mails

you will have to manually exclude it ..

it holds your backup chains index files (table of contents of the backup repository). Caching them locally accelerates options like status and incremental backup and others. These operations need to know what is already backed up to work. If they are cached they do not need to be transferred and decrypted every time again and again.

.. ede

Para o resto, parece ser um bug de longa data .

No rastreador de bugs do Debian, eles recomendam

duplicity cleanup --extra-clean --force ....

Aviso : a opção --extra-clean sugerida é perigosa e pode ser muito difícil. Ele torna os backups inacessíveis por meios usuais .

    
por 07.04.2016 / 00:54
0

Quando começamos a limpar os backups muito antigos remotamente (S3), os comandos duply começaram a excluir automaticamente os metadados locais antigos.

Ou seja, estamos mantendo backups por apenas x meses agora. E o tamanho do cache de metadados local diminuiu proporcionalmente.

    
por 13.07.2018 / 10:31