Eu já fiz 30TB antes. Eles mantinham arquivos grandes, o que ajuda muito a evitar a degradação do desempenho. Não há problemas lá contra volumes menores.
Onde os problemas podem começar a ocorrer é se aquele sistema de arquivos grande construir arquivos e diretórios suficientes para chegar aos grandes intervalos insanos. Estou falando de 20 milhões de arquivos e diretórios ou mais níveis. Nesse ponto, é provável que a MFT seja bastante fragmentada e em servidores restritos de RAM que possam começar a introduzir alguns problemas de desempenho de exibição de diretório. O acesso real aos arquivos não deve ser afetado, apenas as operações fileOpen () e de varredura de diretório.
É uma possibilidade real? Sim, mas o efeito também se aplica a sistemas de arquivos semelhantes em outras plataformas e pelo mesmo motivo. Além disso, as operações mais afetadas pela queda de desempenho podem nem ser aquelas com as quais você está preocupado. Como isso soa como uma nova configuração, não parece que você usará esses 10 TB em um servidor com apenas 1 GB de RAM, portanto não precisa se preocupar.
A origem do WinNT e do Win2K é a provável preocupação com o tamanho, quando as limitações do MBR tornaram grandes os volumes difíceis de criar. Tais precisavam de alguns truques para resolver tudo isso, e na época o truque tinha um custo. Isso ampliou a penalidade de desempenho de muitos pequenos arquivos . O GPT não tem esse problema. Os volumes da GPT foram os primeiros no Windows 2003, mas sua novidade significava que os administradores de sistemas não os usavam muito a princípio.
Atitudes antigas morrem com dificuldade, às vezes. Especialmente se houver trauma reforçando-os.