Que sistema de arquivos baseado em Linux para arquivos muito grandes?

3

Estou configurando um sistema de backup em uma unidade externa.

Eu teria ido com o ext4, mas ouvi dizer que o XFS é mais adequado às minhas necessidades. Eu não trabalhei com arquivos dessa magnitude antes, então minha pergunta é:

Qual sistema de arquivos baseado em Linux é melhor para manipular um arquivo tar de ~ 75GB? E existem outros sistemas de arquivos que eu deveria considerar?

Notas: Eu já sei quais ferramentas eu vou usar, ou seja, rsync para a partição / home e tar para a partição do sistema operacional. Muitos outros posts falam sobre os métodos de backup, mas não consigo encontrar nenhum endereço com arquivos muito grandes. O backup será executado quinzenalmente por meio de um script de shell.

Obrigado!

    
por invert 07.01.2010 / 21:43

2 respostas

1

Eu estava envolvido na criação de um Thecus N5500 para backups de arquivos grandes em uma rede (cópias de discos de máquinas virtuais, arquivos de 150 GB + vmdk). Inicialmente, eu formatei o dispositivo como ext3, já que ele é antigo, estável e já o usei antes, mas tive problemas com ele - arquivos que não puderam ser excluídos, pendurados ao tentar acessá-los, etc. Reformatando para O XFS, que é construído para lidar com arquivos grandes, resolveu completamente esses problemas, então, baseado não na minha (admitidamente pequena) experiência, eu iria com isso.

    
por 08.01.2010 / 22:34
5

75Gb não é tão grande assim. Eu sou um pouco conservador quando se trata de sistemas de arquivos, então eu ficaria com ext3; diferentemente do XFS e do ext4, não é conhecido por ter recursos bugs que podem deixar seus dados em um estado inconsistente se houver uma queda de energia

    
por 07.01.2010 / 21:56