Muitas coisas podem afetar o desempenho de exibição de arquivos do servidor. Plenitude do sistema de arquivos é apenas uma das muitas coisas que podem contribuir.
- Taxa de transferência bruta do disco. Se o número de E / Ss que estão sendo lançados em seus discos exceder sua capacidade de acompanhar, ficará lento.
- Padrões de E / S de disco. Alguns discos se comportam melhor com E / S massivamente aleatória do que outros. O SATA, por exemplo, não funciona tão bem com E / S massivamente aleatórias quanto as unidades SAS ou SCSI.
- Esgotamento de recursos do controlador de disco. O que quer que você esteja usando para RAID (presumindo que você é, e isso não é apenas um único disco) tem seus próprios recursos. Se você estiver usando um RAID de paridade, é a CPU do controlador que limita a rapidez com que você pode enviar dados para o disco. Além disso, a maioria dos controladores de hardware tem seu próprio cache onboard. Isso é usado para muitas coisas, mas inclui reordenar gravações para melhorar a eficiência. Se a E / S ficar aleatória demais, sua placa RAID pode não otimizar também.
- Recursos de memória cache de arquivos. Os servidores de arquivos têm melhor desempenho quando podem armazenar totalmente 100% dos arquivos abertos na memória. Isso permite que eles aceitem gravações de clientes e reordenem os commits no disco de maneira a torná-los mais eficientes. Se você não conseguir ajustar todo o seu conjunto de arquivos abertos na memória, ele terá que ir direto para o disco para essas I / Os e você perderá esse aprimoramento de desempenho.
- Recursos de memória local do cliente. Por meio do uso de OpLocks, os clientes podem armazenar em cache arquivos abertos localmente em si mesmos. Uma vez que mais de um cliente abre o mesmo arquivo, o servidor informa ao cliente para liberar o cache, e isso desaparece. No entanto, para algumas cargas de trabalho, pode ser uma economia real. Se o cliente não tiver espaço suficiente no cache de arquivos para armazenar em cache os arquivos abertos, o desempenho poderá ser reduzido consideravelmente ao abrir arquivos exclusivamente.
- Fragmentação do sistema de arquivos. Um sistema de arquivos massivamente fragmentado, por sua própria natureza, induz um padrão de E / S massivamente aleatório no subsistema de disco. Se esse subsistema não puder tolerar esse tipo de padrão de E / S, as coisas ficarão lentas.
- Padrões de E / S gerados pelo usuário. Se seus usuários estiverem trabalhando em milhões de documentos do Office (geralmente com menos de 2 MB), seus padrões de acesso serão muito aleatórios. Se os usuários estiverem trabalhando em arquivos grandes, como arquivos de vídeo, dados geoespaciais ou arquivos do AutoCAD, seus usuários gerarão muitas operações sequenciais.
Algumas delas se inter-relacionam e muitas vezes serão vários problemas que geram um problema de desempenho. Em geral, a fragmentação do sistema de arquivos NTFS tem um impacto. O impacto é pior ao fazer grandes leituras sequenciais de tal sistema de arquivos, como acontece durante um backup. O impacto no desempenho geral da entrega de arquivos não é tão significativo para os típicos carregamentos do servidor de escritório, uma vez que esses são, em grande parte, E / S aleatória; e, em alguns casos, você pode até ver algumas melhorias de desempenho com um sistema fragmentado sobre um sistema totalmente desfragmentado.
Para um servidor de arquivos que armazena muitos arquivos do AutoCAD, a fragmentação do NTFS será perceptível para os usuários finais. Esse padrão de E / S gerado pelo usuário é significativamente sequencial e, portanto, vulnerável à degradação por fragmentação. O quanto isso será realmente afetado depende da quantidade de RAM que o servidor tem para armazenar em cache e da velocidade do armazenamento subjacente em relação aos padrões de E / S aleatórios. Pode muito bem ser que o armazenamento subjacente seja rápido o suficiente para que os usuários finais não notem um volume com 60% de fragmentação. Ou pode causar saturação de E / S com apenas 15% de frag.
Para um servidor de arquivos que armazena muitos arquivos antigos, a fragmentação do NTFS não será tão perceptível para os usuários finais. Esse padrão de E / S do usuário é significativamente aleatório e é minimamente afetado pela fragmentação. Onde os problemas surgirão no processo de backup, como o tempo de backup de cada GB aumentará conforme a fragmentação aumenta.
O que me leva ao meu ponto final. A única operação de E / S que é mais afetada pela fragmentação é a E / S sequencial. A maioria dos servidores passa por padrões sequenciais de E / S de grande escala como parte do processo de backup. Se você está tendo problemas para ajustar seu backup em sua janela de backup, a desfragmentação pode ajudar a tornar as coisas mais rápidas. Seus sistemas de armazenamento de subjacência determinarão quanto de uma fragmentação de impacto pode ter, e seus números de fragmentação determinarão o impacto que realmente tem. Conheça o seu armazenamento.