Primeiro, eu consideraria uma estrutura diferente para a solução. Você quer evitar a situação em que dois usuários acessam as duas versões de um arquivo ao mesmo tempo e fazem alterações conflitantes. A Replicação DFS pode lidar com isso, mas não é bonita e pode exigir intervenção do administrador. Eu sugiro um local principal para compartilhar arquivos, replicados para o outro local para backup. Você tem um pipe enorme, então, a menos que os arquivos sejam grandes, ele deve funcionar bem. Ou, cada local hospeda arquivos usados principalmente nesse local, e esses arquivos são replicados na rede para backup.
A Replicação DFS é muito boa, mas requer cuidado e alimentação, e deixa você aberto para atualizar conflitos. Os usuários terão que aprender a não deixar arquivos abertos ... eles precisam entrar, fazer alterações e sair. Outra alternativa é usar a Replicação DFS, mas migrar arquivos altamente usados para uma biblioteca de documentos do SharePoint, que pode gerenciar o bloqueio eo controle de versão.
Em relação ao backup ... Eu gosto de fita .. para arquivos históricos, se nada mais. A replicação reduz a perda de dados por falha de hardware, incêndio, etc. Assim, as perguntas se tornam:
Que cenários você está tentando atenuar?
- Qual impacto desses cenários é tolerável?
- Quanto você pode gastar?
Essas respostas determinam o que deve ser feito backup e com que frequência, o que, por sua vez, permite definir o que você precisa. A solução pode ser uma biblioteca de fitas, disco-para-disco-para-fita, uma SAN que se replica a cada noite, backup noturno para o Amazon S3, um SunGard Backup Facility , Iron Mountain Online Backup , alguma combinação destes, ou algo completamente diferente.
Se você precisar de um lugar para começar, colocaria uma biblioteca de fitas em um local, faria backup de tudo em fita todas as noites e usaria um serviço de fita externo todos os dias. Eu não me preocuparia com a recuperação do servidor, tanto quanto me certificaria de que todos os dados do usuário sejam salvos todas as noites.