We are in fact considering running RAID 0 based 30 TB arrays, with each array being mirrored to another array. So in case of any failure the redundant box takes over, giving us ample time to switchover.
A menos que eu esteja sentindo falta de algo aqui, esta é uma configuração perigosa. Uma única falha de disco no segundo array perderá todo o seu conjunto de dados. Este é um cenário muito provável quando você está falando de matrizes com pelo menos 10 discos cada.
A Amazon e o Google têm suas próprias tecnologias de armazenamento dedicadas que são especificamente escritas para funcionar bem com seus loadouts de hardware (muitas unidades diferentes e baratas). Especificamente, seu software detecta falhas em um bloco de armazenamento e garante continuamente que cada item seja armazenado em pelo menos x locais adicionais. Quando um dispositivo de armazenamento falha, todo o seu conteúdo tem imediatamente uma nova duplicata adicionada a algum outro conjunto de armazenamento. A menos que você esteja usando um software personalizado semelhante para sua camada de armazenamento, não será possível usá-los como base para comparação.
Em relação aos fornecedores - É verdade que você pode, potencialmente, ficar sem um array de um dos grandes players empresariais aqui - Netapp / EMC ou similar. Seu armazenamento é projetado para coisas como executar muitas VMs simultâneas diretamente delas. No entanto, você está falando sobre o servidor NAS servindo arquivos simples ... um caso de uso muito mais simples e as sobrecargas e a aleatoriedade do seu IO estão fora do ar. Você ainda vai querer considerar o RAID 6 no mínimo.
Qual é a sua estratégia de backup?