Acontece que o link está correto.
When a file is written, the data is compressed, encrypted, and the checksum is verified. Then, the data is deduplicated, if possible.
Minha suposição com o arquivo aleatório estava incorreta. Parece que o ZFS anula a compactação se não puder atingir uma determinada taxa de compactação mínima.
citação de link
Another particular thing to note is that LZ4's performance on incompressible data is very high. It achieves this by incorporating an "early abort" mechanism which will trigger if LZ4 can't meet the expected minimum compression ratio (12.5% on ZFS).
Para testar, criei um arquivo de texto do meu sistema de arquivos com find / >> tree.txt
.
Após copiar o arquivo para os dois conjuntos de dados e, em seguida, zpool get dedupratio
retornou:
NAME PROPERTY VALUE SOURCE
tank dedupratio 1.00x -
O Dedup é realmente a última parte desta cadeia de escrita. A escolha de algoritmos de compressão diferentes resultará em dedupratio deficiente!
Infelizmente, minha versão ZoL não suporta criptografia. Mas parece que a criptografia de conjuntos de dados diferentes também pode arruinar a dedução. Informações sobre criptografia: link