Que métodos de backup devo usar em um plano de backup de dois estágios? (PC para NAS para nuvem)

0

Estou no processo de configurar o que espero ser uma solução de backup sensata e redundante para minha casa. Eu tenho um laptop dual boot (Ubuntu e Windows) e um NAS doméstico. A idéia é configurar o software de backup em cada sistema operacional para fazer backup no NAS e, em seguida, fazer o backup do NAS no armazenamento em nuvem.

Os dados envolvidos são documentos e fotos principalmente, acho que o total é entre 50 e 100 GB. Provavelmente haverá outros dispositivos adicionados posteriormente, seguindo as mesmas linhas de como eu faço isso. Além de hospedar esses backups, o NAS também hospedará um repositório maior de fotografias digitais, que também deve ser incluído no backup em nuvem.

Para começar de trás, estou muito confortável com a idéia de executar um script de backup de um Raspberry Pi local (já tenho alguns no local), usando duplicidade para fazer backup de diretórios NAS relevantes para um armazenamento Backblaze B2, com criptografia GPG feita do lado do cliente - muito ao longo do mesmo princípio que os detalhes desta postagem do blog:

link

Isso me forneceria dados criptografados do lado do cliente, transferências eficientes de largura de banda e esperaria um serviço de nuvem confiável a um bom custo. Eu provavelmente gostaria que os backups completos regulares evitassem cadeias de backup excessivamente longas, não tendo certeza se a duplicidade lida com isso sozinha ou se eu preciso permitir isso no meu script, mas acho que posso gerenciar isso.

Quando tenho mais dúvidas sobre como processar, é o estágio PC-to-NAS. Eu comecei com o Deja Dup embutido no Ubuntu, mas percebendo que usa a duplicidade como um backend também, eu me pergunto:

Faz sentido usar algo como duplicidade nas duas etapas de uma solução de backup de dois níveis? Minha preocupação é que, no caso de precisar se recuperar de backups na nuvem, eu precisaria restaurar duas vezes, o que pode ser ineficiente ou, pior, menos robusto, no caso de um único arquivo corrompido na cadeia de backup atrapalhar as coisas. Isso é uma preocupação razoável?

Se for, qual é a melhor maneira de fazer isso? Eu tive a idéia de simplesmente fazer um rsync semanal (ou qualquer outro) do Ubuntu para o NAS, então o NAS simplesmente tem uma cópia 1: 1, e a etapa NAS-para-nuvem poderia lidar com toda a habilidade de restauração de diferentes datas, criptografia e qualquer outra coisa.

A desvantagem disso parece ser a eficiência na primeira etapa, na qual eu teria que copiar muitos dados sempre que fizer backup. Talvez usar a opção --link-dest do rsync funcionaria, ligando-se a quaisquer arquivos existentes em vez de copiá-los novamente, mas não tenho certeza se isso seria robusto ou até mesmo funcionar com um backup de segundo estágio via duplicidade.

Eu percebo que essa pergunta é longa demais e confusa, mas passei algum tempo pensando nos detalhes de como fazer isso de uma maneira boa, e senti que tinha que perguntar no final. Se você leu até aqui, obrigado. Se você tem alguma sabedoria para oferecer, agradeço ainda mais.

    
por anlag 19.02.2018 / 01:31

1 resposta

1

Anlag,

você está certo. sua configuração é redundante. a duplicidade está empacotando um backup de duplicidade na sua segunda etapa.

o que você provavelmente quer é

  1. backups facilmente acessíveis no site (arquivos simples, de preferência instantâneos, para que você possa restaurar um arquivo recém-deletado de ontem)
  2. backup criptografado fora do site, para que seus dados sejam protegidos dos olhos espiões

eu sugeriria

  1. executando backups simples (por exemplo, rsync) no NAS (use btrfs para instantâneos se ele tiver energia suficiente, senão use o rsync w / --link-dest)
  2. use duplicidade para fazer o backup deles para remoto

.. ede / duply.net

    
por 19.02.2018 / 12:08