Como eu gerencio fscks regulares para grandes quantidades de dados?

0

Eu estou supondo que há um tamanho recomendado que fazer fsck seria contraproducente, digamos se o tamanho é 100TB ou maior fazendo com a configuração padrão de 30 ou 20 montagens ou 180 dias é um pouco excessivo, ambiente de produção pode ' Não fique assim por muito tempo, desde que o backup dos dados estejam lá.

Então existe um limite ou artigo sobre "sim, depois disso (n) tamanho é sugerido que as configurações padrão mudem para outra coisa (80-100 montagens) 300 dias etc".

    
por linuxuser 27.03.2013 / 22:03

1 resposta

0

Um sistema de arquivos de 100 TB soa como uma idéia bastante ruim (como você percebeu claramente). Eu sugiro dividi-lo em sistemas de arquivos menores, se puder, por sanidade. Eu gosto muito do discurso de Val Henson (agora um pouco datado) Escolhendo e Ajustando os Sistemas de Arquivos do Linux , para uma visão geral sobre como fazer o caminhos certos e aproveite ao máximo os sistemas de arquivos.

De qualquer forma, para responder a sua pergunta. Veja as opções tune2fs -c e -i . por exemplo,

sudo tune2fs -i 300d -c 100 /dev/bigfs
    
por tumbleweed 27.03.2013 / 22:28