A fragmentação não é a questão há 30 anos. Naquela época, você tinha discos rígidos que eram pouco mais rápidos que disquetes e tamanhos de memória de processador que eram minúsculos. Agora você tem drives muito rápidos e grandes memórias de processador, e às vezes buffering substancial no disco rígido ou no controlador. Tamanhos de setor adicionais ficaram maiores (ou os arquivos são alocados em blocos maiores) para que mais dados sejam inerentemente contíguos.
Os sistemas operacionais ficaram mais inteligentes também. Considerando que o DOS 1.x teria buscado cada setor do disco conforme era referenciado, um SO moderno é capaz de ver que você tem um arquivo aberto para acesso sequencial e pode prever razoavelmente que você estará buscando setores adicionais depois de consumido aqueles que você tem agora. Assim, ele pode "pré-buscar" os próximos vários setores.
E é sempre melhor não ter um arquivo contíguo. Em um sistema (grande) em que o sistema de arquivos é distribuído em várias unidades, um arquivo pode ser acessado mais rapidamente se também estiver "espalhado", já que vários discos podem estar procurando o arquivo simultaneamente.
Eu desfragjo a cada 2-3 anos, quer minha caixa precise disso ou não.
[Vou acrescentar que o importante não é tanto se os dados no disco são desfragmentados como se o espaço livre o faz. O FAT era terrível - a menos que você desfragmentasse as coisas cada vez pior, até que não houvesse dois blocos contíguos de espaço livre. A maioria dos outros esquemas pode coalescer o espaço livre e alocar peças de uma maneira um tanto "inteligente", de modo que a fragmentação atinja um certo limite e depois se estabilize, em vez de se agravar e piorar.]