Quanto os dados podem ser compactados? [fechadas]

1

Existe um limite científico para quantos dados podem ser compactados?

O que eu quero dizer é que compressão representa essencialmente uma quantidade maior de dados com um menor, como representar a = abc b = def etc ... ou você poderia ter um banco de dados de grandes blocos de dados e representá-los com um hash, escreva os hashes em um arquivo e reconstrua-o substituindo os hashes pelos dados correspondentes, mas aqui o paradoxo de aniversário chega para ser reproduzido muito cedo, por exemplo, se você quisesse representar dois dígitos com apenas um dígito, dígito tem uma combinação máxima de 10, enquanto dois dígitos tem um máximo de 100 dígitos, o que significa que a taxa de compressão aqui seria de apenas 10% na melhor das hipóteses ... existe alguma maneira melhor de compactar arquivos?

Alguma maneira de armazenar um grande banco de dados de combinações de dados, representá-los em um arquivo que totalize menos que o arquivo original, transfira-o e, em seguida, reconstrua-o no destino?

    
por Daniel 14.09.2013 / 02:37

2 respostas

3

Shannon Entropy é o limite para compactação de dados sem perdas.

    
por 14.09.2013 / 02:49
1

Bem, isso depende do seu algoritmo, dos seus dados, do tamanho dos seus dados e do quanto você deseja os dados exatos. Dados com menos padrões serão compactados pior do que os dados com mais padrões.

Eu não tenho nenhuma pesquisa para fazer o backup, mas seu melhor cenário provavelmente será algo como RLE ou algoritmo similar em um arquivo cheio de zeros ou os mesmos bytes.

Com a compactação com perdas, você entra em assuntos subjetivos - ou seja, compactar arquivos em JPEG com configurações de qualidade mais baixas pode produzir imagens com aparência pouco ou nada parecida com a imagem original - mas de acordo com quem?

    
por 14.09.2013 / 03:25