FWIW Tenho experiência com até 92 discos em um único pool do ZFS e até o momento funciona bem.
Mas se você está realmente falando sobre várias centenas de discos, eu consideraria particionamento deles em um pequeno número de pools disjuntos (mas ainda grandes). Eu não quero saber quanto tempo, por exemplo, um zpool scrub
é executado em um conjunto de discos 3000 (mas você deseja esfregar regularmente). Além disso, a saída de comandos como zpool status
seria desajeitada com um número tão grande de discos. Então, por que colocar todos os ovos em uma única cesta?
(Nota lateral sobre dedup : observe que, embora a dedução possa ser controlada no nível do conjunto de dados, ela encontrará duplicatas no nível do pool. Provavelmente, você obterá resultados de dedução maiores se estiver particionando Por outro lado, você precisará de muito mais memória para armazenar os hashes de dedup de um único pool gigante que pode não caber em ARC + L2ARC se o pool for muito grande. dedup a quantia de memória disponível é provavelmente um bom indicador para o tamanho de piscina prático máximo.)