No meu trabalho anterior, tivemos um problema semelhante. Nós estávamos fazendo a produção para planetários e cada quadro era de 64 MegaPixels. Muitas imagens grandes. Estes seriam processados para cada teatro em uma operação de leitura muito agressiva em um cluster de computadores.
O servidor, nesse caso, tinha uma configuração de armazenamento semelhante. Múltiplos arranjos RAID externos conectados diretamente. Cada um deles estava em volumes RAID6 expostos ao host e adicionados a um VG (Grupo de Volume) sob o LVM (Logical Volume Manager). Cada show / produção teria então o seu próprio LV (Logical Volume), formato XFS, que cresceríamos com o projeto conforme necessário.
Se os seus conjuntos de dados são bastante estáticos ou crescem de uma forma previsível como esta, então esta abordagem deve funcionar bem para você. Mas tenha cuidado, essa abordagem tem um lado negativo. Você acaba tendo que micro-gerenciar o LV em seu armazenamento. Alguns administradores preferem assim, mas outros tentariam evitá-lo. Mas isso permite que você desenvolva cada sistema de arquivos LV e XFS à medida que o conjunto de dados cresce. Mantendo seus volumes XFS o menor possível para que você não fique preso a um fsck que leva anos para ser concluído. E pode agir como controle de danos se um sistema de arquivos for para o sul.
Aviso: se eu fosse configurar isso hoje, usaria o OpenSolaris e o ZFS. Principalmente b / c evita os problemas de micro gerenciamento e é um gerenciador de volume / sistema de arquivos superior. Então você pode querer dar uma olhada nisso também.