Sistema de arquivos, que lida com mais de 2 milhões de arquivos

1

Vou armazenar arquivos em uma pasta no meu servidor. A quantidade de arquivos excederá 2 milhões . Cada tamanho de arquivo terá um intervalo entre 5MB - 100MB .

Que tipo de sistema de arquivos pode lidar com essa quantidade de dados?

Eu sei que o XFS pode lidar com arquivos únicos muito grandes, pode lidar com grande quantidade de arquivos?

    
por Mr.D 29.08.2018 / 15:04

1 resposta

5

O XFS pode aceitar isso, mas será melhor se você planejar o seu uso. O acesso a esses dados (operações STAT e OPEN) será mais rápido se o SO tiver menos inodes para acessar os dados. Se você tiver menos de, digamos, 30K arquivos / diretórios em um determinado diretório, não precisa se preocupar com essa otimização.

Mas se você for maior, convém usar a opção -i size=512 para fornecer um tamanho maior de inode. Isso permitirá mais entradas de diretório por inode, para que o SO tenha que percorrer menos para percorrer uma árvore. Dada SSDs estes dias, isso vai melhorar as coisas menos do que nos dias de ferrugem fiação; mas é uma otimização a considerar.

Uma vez eu gerenciei um sistema de arquivos baseado em XFS que tinha mais de 20 milhões de arquivos, com uma média de tamanho de arquivo de cerca de 100KB. Eu projetei esse sistema de arquivos específico para lidar com mais de 100 milhões, e estava no caminho certo para chegar lá quando saí da empresa. Essa é a versão do sistema que descrevi aqui: O impacto de uma alta taxa de diretório para arquivo no XFS

O XFS é a melhor escolha para isso? Difícil de dizer. Mas confio mais que para grandes sistemas de arquivos como você descreve. As podem ser capazes de aceitá-la, mas a facção mais conservadora dos operadores de sistema não considera a produção pronta ainda.

    
por 29.08.2018 / 15:17