Eu administro um ambiente de desenvolvimento com diretórios iniciais compartilhados (nfs e samba) que são muito usados e muito grandes. Eu uso uma partição de 2 TB para cerca de 50 usuários. Eu sei que isso é generoso, mas eu prefiro comprar hardware do que ter cotas estritas e qualquer coisa importante acaba em nossas lojas de repositório ou artefatos git.
O sistema de arquivos é xfs e é executado em um servidor razoavelmente robusto (alguns anos, 16 núcleos, 24 GB de RAM) com ataque externo com bateria. Eu xfsdump para outro servidor com um nível 0 acontecendo a cada quatro semanas e incrementais a cada noite. Após a conclusão do backup, um script é restaurado para uma terceira máquina, que é um hot spare em outro prédio, caso o primário falhe ou o prédio seja queimado.
No entanto, se um usuário me pede para restaurar um monte de arquivos, basta fazer o L0 leva 10 horas. Adicione mais alguns níveis no topo e pode demorar dois dias. Isso é obviamente ridículo, como eu deveria estar fazendo isso?
Do jeito que eu vejo, eu tenho algumas opções:
Qual é a melhor opção? Parece que estou fazendo errado, o que eu perdi?