Não espere que isso seja executado rapidamente ...
cd para um diretório onde você suspeita que pode haver um subdiretório com muitos inodes. Se esse script levar muito tempo, você provavelmente encontrará o que procurar no sistema de arquivos. / var é um bom começo ...
Caso contrário, se você mudar para o diretório principal nesse sistema de arquivos e rodar isto e esperar que ele termine, você encontrará o diretório com todos os inodes.
find . -type d |
while
read line
do
echo "$( find "$line" -maxdepth 1 | wc -l) $line"
done |
sort -rn | less
Não estou preocupado com o custo da classificação. Fiz um teste e classifiquei a saída não classificada de 350.000 diretórios em 8 segundos. A descoberta inicial levou. O custo real é abrir todos esses diretórios no loop while. (o próprio loop leva 22 segundos). (Os dados do teste foram executados em um subdiretório com 350.000 diretórios, um dos quais tinha um milhão de arquivos, o restante tinha entre 1 e 15 diretórios).
Várias pessoas apontaram que não é ótimo, porque classifica a saída. Eu tentei eco, mas isso também não é ótimo. Alguém havia apontado que o stat fornece essa informação (número de entradas de diretório), mas não é portátil. Acontece que encontrar -maxdepth é realmente rápido em abrir diretórios e contar arquivos. Então ... aqui está .. pontos para todos!