Isto é principalmente por razões históricas. Em mainframes Linux mais antigos, muitos usuários se conectam e usam os recursos do mainframe. Naturalmente, era necessário limitar e, como operações como manipulações de arquivos e processos foram construídas no kernel, elas eram limitadas ali. Também ajuda a limitar ataques como o fork fork . Uma defesa contra a bomba de formulário usando limites de processo é mostrada aqui .
Ele também ajuda a manter os daemons e serviços complexos sob controle, não permitindo a abertura de arquivos e bifurcações, semelhante ao que a fork fork tenta fazer.
Também devem ser observadas coisas como a quantidade de RAM e CPU disponíveis, e o fato de que um contador de 32 bits pode referenciar muito (apenas 4294967296 entradas que podem ser contadas por um contador de 32 bits), mas Os limites são muito superiores aos normalmente definidos pelos programadores e administradores de sistema. De qualquer forma, muito antes de você ter 4294967296 processos, sua máquina provavelmente teria sido reinicializada, exatamente como planejado, ou quando começou a travar devido à falta de outro recurso.
A menos que você execute o Titan com seus 584 TiB de memória (você não vai, já que o Linux não pode ser executado como uma instância em um supercomputador), você provavelmente não atingirá este limite de processo tão cedo. Mesmo assim, o processo médio teria apenas aproximadamente 146 KB de memória, assumindo que não há memória compartilhada.