Um sistema de arquivos perde desempenho quando é preenchido?

2

O contexto da pergunta é um computador Windows (portanto, o sistema de arquivos em questão é NTFS) que está se enchendo de dados que provavelmente podem ser removidos. Mas eu não sei se vale a pena o tempo para eliminá-lo, ou se devemos apenas desfragmentar e seguir em frente.

Basicamente, a 'plenitude' do sistema de arquivos causa uma diminuição no desempenho, ou é apenas fragmentação que atrasa as coisas? E se isso acontecer, isso faz uma diferença significativa?

    
por DarkTygur 18.12.2009 / 21:21

6 respostas

6

Muitas coisas podem afetar o desempenho de exibição de arquivos do servidor. Plenitude do sistema de arquivos é apenas uma das muitas coisas que podem contribuir.

  • Taxa de transferência bruta do disco. Se o número de E / Ss que estão sendo lançados em seus discos exceder sua capacidade de acompanhar, ficará lento.
  • Padrões de E / S de disco. Alguns discos se comportam melhor com E / S massivamente aleatória do que outros. O SATA, por exemplo, não funciona tão bem com E / S massivamente aleatórias quanto as unidades SAS ou SCSI.
  • Esgotamento de recursos do controlador de disco. O que quer que você esteja usando para RAID (presumindo que você é, e isso não é apenas um único disco) tem seus próprios recursos. Se você estiver usando um RAID de paridade, é a CPU do controlador que limita a rapidez com que você pode enviar dados para o disco. Além disso, a maioria dos controladores de hardware tem seu próprio cache onboard. Isso é usado para muitas coisas, mas inclui reordenar gravações para melhorar a eficiência. Se a E / S ficar aleatória demais, sua placa RAID pode não otimizar também.
  • Recursos de memória cache de arquivos. Os servidores de arquivos têm melhor desempenho quando podem armazenar totalmente 100% dos arquivos abertos na memória. Isso permite que eles aceitem gravações de clientes e reordenem os commits no disco de maneira a torná-los mais eficientes. Se você não conseguir ajustar todo o seu conjunto de arquivos abertos na memória, ele terá que ir direto para o disco para essas I / Os e você perderá esse aprimoramento de desempenho.
  • Recursos de memória local do cliente. Por meio do uso de OpLocks, os clientes podem armazenar em cache arquivos abertos localmente em si mesmos. Uma vez que mais de um cliente abre o mesmo arquivo, o servidor informa ao cliente para liberar o cache, e isso desaparece. No entanto, para algumas cargas de trabalho, pode ser uma economia real. Se o cliente não tiver espaço suficiente no cache de arquivos para armazenar em cache os arquivos abertos, o desempenho poderá ser reduzido consideravelmente ao abrir arquivos exclusivamente.
  • Fragmentação do sistema de arquivos. Um sistema de arquivos massivamente fragmentado, por sua própria natureza, induz um padrão de E / S massivamente aleatório no subsistema de disco. Se esse subsistema não puder tolerar esse tipo de padrão de E / S, as coisas ficarão lentas.
  • Padrões de E / S gerados pelo usuário. Se seus usuários estiverem trabalhando em milhões de documentos do Office (geralmente com menos de 2 MB), seus padrões de acesso serão muito aleatórios. Se os usuários estiverem trabalhando em arquivos grandes, como arquivos de vídeo, dados geoespaciais ou arquivos do AutoCAD, seus usuários gerarão muitas operações sequenciais.

Algumas delas se inter-relacionam e muitas vezes serão vários problemas que geram um problema de desempenho. Em geral, a fragmentação do sistema de arquivos NTFS tem um impacto. O impacto é pior ao fazer grandes leituras sequenciais de tal sistema de arquivos, como acontece durante um backup. O impacto no desempenho geral da entrega de arquivos não é tão significativo para os típicos carregamentos do servidor de escritório, uma vez que esses são, em grande parte, E / S aleatória; e, em alguns casos, você pode até ver algumas melhorias de desempenho com um sistema fragmentado sobre um sistema totalmente desfragmentado.

Para um servidor de arquivos que armazena muitos arquivos do AutoCAD, a fragmentação do NTFS será perceptível para os usuários finais. Esse padrão de E / S gerado pelo usuário é significativamente sequencial e, portanto, vulnerável à degradação por fragmentação. O quanto isso será realmente afetado depende da quantidade de RAM que o servidor tem para armazenar em cache e da velocidade do armazenamento subjacente em relação aos padrões de E / S aleatórios. Pode muito bem ser que o armazenamento subjacente seja rápido o suficiente para que os usuários finais não notem um volume com 60% de fragmentação. Ou pode causar saturação de E / S com apenas 15% de frag.

Para um servidor de arquivos que armazena muitos arquivos antigos, a fragmentação do NTFS não será tão perceptível para os usuários finais. Esse padrão de E / S do usuário é significativamente aleatório e é minimamente afetado pela fragmentação. Onde os problemas surgirão no processo de backup, como o tempo de backup de cada GB aumentará conforme a fragmentação aumenta.

O que me leva ao meu ponto final. A única operação de E / S que é mais afetada pela fragmentação é a E / S sequencial. A maioria dos servidores passa por padrões sequenciais de E / S de grande escala como parte do processo de backup. Se você está tendo problemas para ajustar seu backup em sua janela de backup, a desfragmentação pode ajudar a tornar as coisas mais rápidas. Seus sistemas de armazenamento de subjacência determinarão quanto de uma fragmentação de impacto pode ter, e seus números de fragmentação determinarão o impacto que realmente tem. Conheça o seu armazenamento.

    
por 18.12.2009 / 22:19
1

A fragmentação levaria a alguma lentidão. No geral, provavelmente não será nada que seu usuário perceba, a menos que esteja fazendo muito trabalho com vídeo ou trabalhando com arquivos enormes.

Na verdade, acho que seria mais lento se houvesse uma tonelada de operações de busca, milhares de arquivos minúsculos que são muito atingidos.

Na maioria dos casos com memória decente e uma rotina de apenas alguns arquivos em uso, o sistema operacional armazena em cache as coisas na memória e você não notará muita diferença. Apenas os benchmarks dirão.

No final ... isso é outra questão "depende". Depende de arquivos grandes versus padrões de uso pequenos no computador e de quão fragmentado é fragmentado e de quão perceptivos os usuários são em relação a alguns segundos de diferença no desempenho.

Não vai doer nada se você executar o MyDefrag. Freeware; ele também tenta "otimizar" parte do layout dos arquivos para áreas do disco onde o acesso será um pouco mais rápido.

    
por 18.12.2009 / 21:29
0

Defrag e siga em frente. Não vale a pena economizar algumas dúzias de GB. Mas, para responder à sua pergunta, a única coisa que um novo disco tem são todos os arquivos no início, então os tempos de busca são menores. Mas uma vez que tenha sido usado, os arquivos podem estar em qualquer lugar, então a desfragmentação ajudará.

    
por 18.12.2009 / 22:17
0

TL; DR: Não até você ficar mais de 75% cheio.

Para a maioria das intenções e finalidades, o preenchimento de uma unidade não tem implicações de desempenho até que você fique com mais de 75% do total. Isso pode ser um pouco diferente dependendo do uso, mas para uma carga típica de estação de trabalho isso é verdade.

A fragmentação é minimizada quando todos os arquivos têm espaço para serem colocados. Os únicos tipos de arquivos que são fragmentados em uma partição NTFS em grande parte vazia são arquivos de log e metadados de diretório, porque eles estão em constante expansão. Se você pesquisar com frequência por logs ou tiver uma grande taxa de transferência de arquivos criados e excluídos, a desfragmentação regular poderá ser benéfica mesmo quando a unidade estiver menos cheia.

    
por 19.12.2009 / 00:02
0

Se você tem menos de 80% de uso, não se preocupe, apenas desfragmente.

Quando ele começa a ficar próximo de 100%, qualquer sistema de arquivos começará a desacelerar.

    
por 19.12.2009 / 03:08
0

se você estiver usando o Windows 2008, poderá usar o recurso de redução de redundância que pode liberar alguns arquivos desnecessários que arquivam seu disco rígido

    
por 19.12.2009 / 06:37