Os algoritmos de compactação têm taxas de compactação variadas, dependendo das propriedades dos dados que estão sendo compactados. Por exemplo:
$ dd if=/dev/zero of=test.img bs=1m count=1024
$ compress -c test.img > test.img.Z
$ gzip -c test.img > test.img.gz
$ wc -c test.img test.img.gz test.img.Z
1073741824 test.img
4685486 test.img.gz
84781 test.img.Z
1078512091 total
Ter um arquivo composto principalmente de zeros repetidos é provavelmente a melhor situação para esse algoritmo. Como você está obtendo taxas de compactação semelhantes, e como seu arquivo é de tamanho arredondado (1 GB), é provável que a imagem seja muito maior do que o necessário e apenas preenchida com dados repetidos.
É claro que gzip
, compress
, bzip2
e outros terão proporções de compactação diferentes em um determinado arquivo. É por isso que muitos grandes projetos de código aberto oferecem vários downloads compactados por diferentes algoritmos - para que os usuários possam baixar o menor arquivo para o qual possuem um utilitário de descompactação.