Eu tenho algumas perguntas e algumas possíveis descobertas de gargalos.
Primeiro, este é um sistema CentOS 5 ou 6? Porque em 6, temos uma ferramenta incrível chamada blktrace, que é ideal para medir o impacto neste tipo de situações.
https://access.redhat.com/knowledge/docs/en-US/Red_Hat_Enterprise_Linux/6/html/Performance_Tuning_Guide/ch06s03.html
Podemos, então, analisar a saída com btt e chegar onde o gargalo é, aplicativo, sistema de arquivos, agendador, armazenamento - em qual componente o IO está gastando a maior parte do tempo.
Agora, teoricamente chegando à sua pergunta, obviamente aumentará o número de inodes e conforme você continuar criando ou acessando arquivos novos ou existentes ou diretórios dentro dos diretórios, o tempo de acesso aumentará. O kernel tem que percorrer uma hierarquia de sistema de arquivos mais vasta e, portanto, sem dúvida, é uma sobrecarga.
Outro ponto a ser observado é que, conforme você aumenta o número de diretórios, o uso do cache inode e dentry aumentará o consumo de mais memória RAM. Isto vem sob a memória slab, por isso, se o seu servidor está com pouca memória, esse é outro ponto de pensamento.
Por falar em um exemplo do mundo real, vi recentemente que em um ext3 fs altamente aninhado, criar um subdir pela primeira vez leva cerca de 20 segundos, enquanto que no ext4 ele leva cerca de 4 segundos. Isso ocorre porque a alocação de blocos é estruturada em diferentes sistemas de arquivos. Se você usa XFS ou ext4, é desnecessário dizer que você obterá algum aumento de desempenho, por mínimo que seja.
Então, se você está apenas perguntando qual é a escolha certa do sistema de arquivos, o ext3 está um pouco desatualizado. É tudo o que posso oferecer sem mais dados e benchmark.