Eu fiz algo parecido com isso:
$ du -sh /bigdata/stuff
1022G /bigdata/stuff
$ df -h /bigdata
Fileystem Size Used Avail Used% mounted on
/dev/sda5 1,8T 1,7T 140G 93% /bigdata
$ rm -rf /bigdata/stuff/*
$ df -h /bigdata
Fileystem Size Used Avail Used% mounted on
/dev/sda5 1,8T 1,6T 268G 86% /bigdata
o que significa que a exclusão de 1022 G de arquivos só me deu 128 G de espaço livre adicional.
Não há mais sistemas de arquivos montados em / bigdata e não havia arquivos abertos em / bigdata neste momento.
Para recuperar todo o espaço livre, precisei desmontar / bigdata (pegar v ... e ... r ... y long) e montá-lo novamente. Depois disso, tudo voltou ao normal. De acordo com o fsck, não há erros no sistema de arquivos (o fsck foi executado apenas para verificação de erros, não é necessário para recuperar o espaço). De acordo com um S.M.A.R.T. auto-teste estendido, o disco rígido não possui erros de hardware.
Alguém sabe o que há de errado?
Informações do sistema:
Eu estou usando o ext4 no Ubuntu Server 12,04 64bit em um disco rígido comprado há alguns meses, então não há problemas herdados de uma instalação anterior (como não há nenhum). O sistema de arquivos foi criado usando -m 0 (0% reservado para root).
História:
Eu já notei esse problema há alguns anos (no ext3). Até agora, achei que só acontece quando eu acesso / bigdata via NFS e faço a operação do cliente. Mas agora, vi que isso também acontece ao excluir arquivos localmente.