De acordo com esta resposta do Stack Overflow e específica detalhes no site da Apple , uma pasta individual pode conter até 2,1 bilhões de itens.
Dito isso, só porque ele pode armazenar até 2,1 bilhões de itens não significa que ele possa manter o desempenho nesse nível. Segundo a Wikipedia ; ênfase é minha:
The Catalog File, which stores all the file and directory records in a single data structure, results in performance problems when the system allows multitasking, as only one program can write to this structure at a time, meaning that many programs may be waiting in queue due to one program "hogging" the system. It is also a serious reliability concern, as damage to this file can destroy the entire file system.
Portanto, o desempenho é naturalmente degradado graças ao fato de o arquivo de catálogo só poder ser usado por um programa por vez. E se o diretório aumentar de tamanho, o risco / degradação causado por esse problema só aumentará; mais arquivos significa mais uma chance para os programas acessarem arquivos nesse diretório. Mais confirmação da ideia aqui ; mais uma vez a ênfase é minha:
The catalog file is a complicated structure. Because it keeps all file and directory information, it forces serialization of the file system—not an ideal situation when there are a large number of threads wanting to perform file I/O. In HFS, any operation that creates a file or modifies a file in any way has to lock the catalog file, which prevents other threads from even read-only access to the catalog file. Access to the catalog file must be single- writer/multireader.