Por que a saída do df não é padronizada para um formato legível por humanos? [fechadas]

1

Quero dizer, os desenvolvedores acham que as pessoas gostam de ler 19478204 ao invés de 19 GB?

Poderia ser que, nos sistemas mais antigos, não houvesse tanto espaço em disco, então era normal contar cada dígito?

    
por D.Zou 04.05.2015 / 03:50

3 respostas

7

É mais preciso gerar a contagem de bytes em vez dos números legíveis por humanos. Eu uso os dois, mas ao copiar dados ou verificar tamanhos de arquivos, não legível para humanos é uma obrigação.

Como o padrão sensível de uma pessoa é o incômodo constante de outra pessoa, não há realmente uma resposta "certa" ou "errada". No entanto, é fácil forçar df a produzir números legíveis:

$ echo "alias df='df -h'" >> ~/.bashrc

Se você quiser usar df em seu modo padrão, escape com \ assim:

$ \df
    
por 04.05.2015 / 04:39
5

Estou apenas supondo, mas a maioria das ferramentas do Unix são criadas para funcionar em pipelines. Visto dessa forma, o número de bytes é provavelmente o mais útil e, portanto, um padrão sensível

    
por 04.05.2015 / 03:53
2

TL; DR : porque os discos rígidos estão em blocos de (principalmente) 512 ou alguma outra potência de 2

Se você dividir a saída de df -k (que é o padrão da versão GNU df) por 1024, você realmente obterá df -h .De leitura Wikipedia , bem como a página man no meu sistema Ubuntu para df , parece que há uma razão histórica para isso, já que o Unix System V estava usando consistentemente blocos de 512 tamanhos. Na verdade, setores de discos são feitos para armazenar 512MB , então eu acho que isso é prático no sentido de entender quantos setores o espaço em disco que sua partição ocupa.

Por outro lado, 1024 blocos estão mais próximos do que entendemos como 1000 bytes, portanto, o GNU provavelmente fez a saída df por padrão. Mas novamente, enquanto nós humanos pensamos em bytes que são potências de 10, discos são criados em setores e computadores falam em potências de 2x.

    
por 04.05.2015 / 06:48

Tags