Qual é a melhor maneira de fazer backup de arquivos via rede em máquinas Linux e Solaris?

2

Eu me pergunto qual é a melhor maneira de fazer backup de arquivos da rede VIA

Tenho máquinas Solaris com o Oracle 10i com cluster VERITAS, máquinas conectadas ao armazenamento EMC

O diretório

/ data / oracle é montado no armazenamento da EMC

O que eu quero é backup / data / oracle diretório (70G) em alguma máquina de backup da rede VIA (incluir arquivos de links), enquanto a confiabilidade de copiar arquivos é muito importante

Eu verifiquei e encontrei algumas ideias para fazer isso

Por exemplo, a primeira opção é usar o rsync

  rsync   -WavH –progress   /data/oracle $backup_server_ip:/Backup_dir

A segunda opção: usar é transferir arquivos com a opção tar, então fazemos os dois lados transferirem arquivos e compactar arquivos

  cd /directory_that_we_want_to_backup
  tar cpf - . | bzip2 -c | ssh  $backup_server_ip  \
     "cd /Backup_dir && bzip2 -d | tar xpf -"and so on

Preciso de conselhos sobre o que é mais confiável a partir das opções abaixo, e talvez haja outras boas opções

    
por Eytan 04.03.2013 / 06:27

3 respostas

1

Apenas para o Solaris, consulte "Envio do ZFS" (assumindo o Solaris 10 atualização 2 ou posterior).

O processo é primeiro tirar um instantâneo e depois "enviá-lo" para outro lugar. Por exemplo:

zfs snapshot POOL/dataset@backup1
zfs send POOL/dataset@backup1 | ssh $USER@$HOST zfs receive $TARGETPOOL/$TARGETDATASET

A solução acima tem confiabilidade sólida.

O rsync é sua segunda melhor opção, mas oferece o benefício adicional de ser multi-plataforma. O rsync não é fornecido com o Solaris por padrão, mas pode ser facilmente instalado, por exemplo, o Solaris Free Ware.

Você deve limpar seus instantâneos quando não os desejar mais. Mantê-los por um tempo é bom - você pode usá-los para enviar fluxos incrementais.

Para fazer fluxos incrementais, seus segundos (e subseqüentes) backups ficarão assim:

zfs snapshot POOL/dataset@backup2
zfs send -i backup1 POOL/dataset@backup2 | ssh $USER@$HOST zfs receive $TARGETPOOL/$TARGETDATASET
zfs destroy POOL/dataset@backup1

Nota: Destrua o penúltimo instantâneo, permitindo que você faça um incremento novamente na próxima vez !!!

Ter muitas centenas ou milhares de instantâneos espalhados pode ser problemático. Em primeiro lugar, afeta severamente o desempenho dos utilitários de gerenciamento, como zfs list . Em segundo lugar, à medida que os dados mudam, eles começam a ocupar espaço (inicialmente não ocupam espaço em disco)

Relacionado com o rsync está usando o cpio (de maneira similar ao uso do tar) ... o cpio manipula mais arquivos estranhos do que o tar. Em particular, ele lida com arquivos esparsos, recriará links físicos, se possível, e manipulará outros tipos de arquivos adequadamente.

find /backup_directory | cpio -o | ssh $USER@$HOST cpio -idm /target_directory

cpio -o = Criar backup (copiar)

cpio -i = Restaurar do backup (copiar) O -d e -m devem recriar a estrutura de diretórios e manter permissões / tempos de modificação, etc., respectivamente.

O alcatrão é o favorito de todos porque ... bem, não há uma boa razão. O tar funciona bem se você sabe que só terá arquivos simples.

    
por 04.03.2013 / 08:23
0

Existem várias soluções de backup possíveis. Não tenho a certeza qual é a plataforma cruzada.

Você pode tentar dar uma olhada na duplicidade que deve ser compatível com qualquer sistema POSIX foi testado principalmente no GNU / Linux.

BackupPC é outro concorrente, escrito em Perl, portanto, espera-se que funcione no Solaris também.

E, finalmente, Bacula , é um programa de backup de rede de código aberto executado em um variedade de SO : Linux, FreeBSD ou Solaris, para citar alguns. Eu realmente recomendaria isso, embora seja um pouco mais difícil do que as outras alternativas anteriores para configurar. Os caras por trás deste produto também oferecem suporte profissional, se necessário.

Outros recursos: veja AskUbuntu

    
por 04.03.2013 / 12:00
0

Eu tive boas experiências usando rdiff-backup por volta de 2005. O desenvolvimento desde 2009 está reduzido a nada, mas isso pode ser apenas porque o projeto está bastante estável: está em desenvolvimento desde 2002. Ainda parece haver atividade na lista de discussão. Isso usa o mesmo algoritmo subjacente do rsync. Embora não seja tão sofisticado e completo quanto algumas outras soluções de backup, ele tem a vantagem de ser bastante flexível e personalizável, e a funcionalidade básica é bastante simples.

    
por 21.06.2013 / 12:36