Hardware e estratégia de backup na rede distribuída do Windows Server 2008

2

Esta pergunta é uma continuação de this .

Temos um domínio do Windows Server 2008 R2 em uma rede que abrange dois prédios diferentes, vinculados por uma linha ponto-a-ponto de 100 Mbps. Mais de 60 usuários trabalham na organização. Estamos planejando usar pastas DFS e replicação DFS para a exibição de arquivos em toda a organização. O volume de dados estimado é superior a 2 TB e crescerá aproximadamente 20% ao ano. A idéia é configurar um servidor de arquivos DFS em cada prédio e usar o DFS para que todo o conteúdo seja replicado pelo link de 100 Mbps.

Agora estamos considerando hardware e estratégias de backup. Somos clientes da Dell e, depois de navegar no catálogo on-line da Dell, vejo várias opções de hardware de backup. Minhas principais dúvidas são as seguintes:

  1. Você usaria uma biblioteca de fitas, um backup em disco ou há outras opções que valem a pena considerar?
  2. Você executaria backups em lote (por exemplo, todas as noites) ou usaria backup contínuo (ou seja, enquanto os usuários estivessem trabalhando)?
  3. Você usaria um servidor de backup dedicado ao qual a biblioteca de fitas (ou qualquer outro dispositivo de backup) está conectado ou há alguma outra maneira alternativa de fazer as coisas?

Minha experiência com hardware de backup e configuração geral é limitada, então eu aprecio qualquer bom conselho que você possa ter. Obrigado.

    
por CesarGon 11.03.2010 / 18:37

2 respostas

3

Primeiro, eu consideraria uma estrutura diferente para a solução. Você quer evitar a situação em que dois usuários acessam as duas versões de um arquivo ao mesmo tempo e fazem alterações conflitantes. A Replicação DFS pode lidar com isso, mas não é bonita e pode exigir intervenção do administrador. Eu sugiro um local principal para compartilhar arquivos, replicados para o outro local para backup. Você tem um pipe enorme, então, a menos que os arquivos sejam grandes, ele deve funcionar bem. Ou, cada local hospeda arquivos usados principalmente nesse local, e esses arquivos são replicados na rede para backup.

A Replicação DFS é muito boa, mas requer cuidado e alimentação, e deixa você aberto para atualizar conflitos. Os usuários terão que aprender a não deixar arquivos abertos ... eles precisam entrar, fazer alterações e sair. Outra alternativa é usar a Replicação DFS, mas migrar arquivos altamente usados para uma biblioteca de documentos do SharePoint, que pode gerenciar o bloqueio eo controle de versão.

Em relação ao backup ... Eu gosto de fita .. para arquivos históricos, se nada mais. A replicação reduz a perda de dados por falha de hardware, incêndio, etc. Assim, as perguntas se tornam:
 Que cenários você está tentando atenuar?
 - Qual impacto desses cenários é tolerável?
 - Quanto você pode gastar?

Essas respostas determinam o que deve ser feito backup e com que frequência, o que, por sua vez, permite definir o que você precisa. A solução pode ser uma biblioteca de fitas, disco-para-disco-para-fita, uma SAN que se replica a cada noite, backup noturno para o Amazon S3, um SunGard Backup Facility , Iron Mountain Online Backup , alguma combinação destes, ou algo completamente diferente.

Se você precisar de um lugar para começar, colocaria uma biblioteca de fitas em um local, faria backup de tudo em fita todas as noites e usaria um serviço de fita externo todos os dias. Eu não me preocuparia com a recuperação do servidor, tanto quanto me certificaria de que todos os dados do usuário sejam salvos todas as noites.

    
por 11.03.2010 / 19:38
2

Como tomjedrz diz em sua resposta, a replicação DFS pode ser problemática com arquivos sendo modificados em vários locais simultaneamente. Se os seus dados forem tais que as modificações para um determinado conjunto de arquivos ocorrem apenas em um prédio (ou seja, em um servidor) a maior parte do tempo, então você pode não ter problemas com a replicação e os conflitos do DFS.

Usar um único servidor de arquivos para compartilhar os arquivos reduz a possibilidade de conflito. O tubo de 100Mb / s certamente não é lento, mas dependendo do tamanho dos arquivos que estão sendo compartilhados e da frequência de acesso, os usuários no prédio sem o servidor de arquivos podem estar sujeitos a atrasos na abertura de arquivos. Você terá que avaliar isso e ver. Documentos do Microsoft Office em um cano de 100Mb / s não são problema. Arquivos de modelo sólido de vários gigabytes em um cano de 100 Mb / s podem ser uma fonte de grande sofrimento para os usuários.

Para resumir: Eu acho que a replicação DFS é definitivamente uma opção, mas você terá que avaliar o "caractere" de sua modificação de arquivo e padrões de acesso para decidir se é uma "vitória". Um único servidor de arquivos também pode ser uma "vitória", mas também pode ser uma "perda" para alguns tipos de acesso a arquivos na construção "remota" em que esse único servidor não está localizado. / p>

A replicação DFS apenas protege contra falhas / destruições catastróficas da réplica. A exclusão acidental ou corrupção de dados exigirá algum outro tipo de proteção. Além disso, se seus prédios estiverem próximos, fisicamente, eu diria que ter uma réplica no outro prédio pode não ser suficiente para a defesa contra desastres físicos (incêndio, inundação, roubo, etc.). Você terá que avaliar o risco e agir adequadamente.

A Cópia de Sombra de Volume pode ser apenas o ticket para a proteção acidental de exclusão / corrupção. Eu não o usei extensivamente na produção, mas certamente parece razoável e tem funcionado adequadamente em configurações de laboratório. (Apenas não se iluda acreditando no marketing hype que tenta caracterizá-lo como um verdadeiro sistema de arquivos versionado e você estará bem ...)

Você ainda precisaria de algum tipo de backup off-site e off-line (idealmente com o recurso de retenção total de vários versículos). A fita provavelmente se encaixa na conta do ponto de vista de custo / desempenho.

Um autoloader LTO-4 faria um curto trabalho de backup desses dados, desde que seus computadores servidores possam alimentar os dados para a unidade com rapidez suficiente. O fato de você executar ou não backups completos todos os dias dependerá da sua janela de backup e da velocidade do backup. O custo por fita é bastante razoável (cerca de US $ 50,00, da última vez que eu olhei) de tal forma que você pode manter um arquivo rotativo de backups antigos a uma despesa gerenciável.

Espero que você consiga agendar coisas em que você exceda sua janela de backup ou a capacidade do autoloader no final da vida planejada para o autoloader. Com um crescimento de 20% / ano, seu volume de 2 TB deve ficar em torno de 3,5 TB no final do ano 3. Um autoloader de 8 slots LTO-4 (capacidade compactada de 800GB natve / 1.6TB por cartucho) ainda teria capacidade. Você pode ter que migrar para backups completos / diferenciais para continuar a caber na sua janela de backup, mas parece possível obter 3 anos de uma solução de autocarregador LTO-4.

Eu também concordo com tomjedrz, re: a possibilidade de fazer disco-para-disco-para-fita se você tiver necessidades freqüentes para executar restaurações acidentais (e se não estiver usando a Cópia de Sombra de Volume ou não estiver obtendo a proteção que você precisa dela). Algo simples como uma matriz RAID-0 ou RAID-10 de discos SATA baratos pode alimentar os dados para o LTO-4 com rapidez suficiente para mantê-lo funcionando e pode servir como um local para executar restaurações incidentais rápidas sem precisar lidar com a montagem fitas (indo para o local de armazenamento off-site para obter fitas, etc).

    
por 23.03.2010 / 14:55