Até onde sei, o próprio NTFS não tem nenhum problema de desempenho associado a tamanhos de cluster maiores.
Se você realmente quiser explorar toda a velocidade possível, eu recomendaria simulações e benchmarking. A maneira como seu aplicativo lê dados (blocos de 4K, blocos de 8K, etc) vai fazer a diferença, assim como o padrão de acertos do cache no cache do NT e no cache de RAID subjacente. O hardware de disco / armazenamento (layout RAID, configuração SAN, etc) também fará a diferença.
Em última análise, o comportamento do aplicativo será o maior ditador do desempenho. Você vê "guias de planejamento" para vários aplicativos (Exchange, SQL Server, etc) na rede. Todos os sérios são baseados em benchmarking do mundo real com simulação de carga. Você pode escrever "regras básicas", mas com qualquer sistema pode haver peculiaridades na implementação em níveis mais baixos que transformam as regras práticas em seus ouvidos.Se o seu aplicativo é adequado para o trabalho simulado, crie um corpo simulado de arquivos e simule uma carga de trabalho neles, usando várias configurações de sistema de arquivos / RAID / disco. Essa é a única maneira de saber com certeza.
(Além: Alguém mais acha engraçado ouvir um arquivo de 10MB chamado "pequeno"? Deus, eu sou velho ...)