É exatamente como o marketing da unidade de fita se formou ao longo dos anos. Os algoritmos de compressão são mostrados na compactação de 2: 1 (que é, francamente, muito mais do que as taxas de compressão de 15 a 30% que eu geralmente vejo em dados reais).
Eu reconheço a capacidade nativa, e qualquer outra capacidade que eu possa obter é "bônus", a menos que eu tenha uma idéia muito clara da natureza dos dados. Dada a possibilidade de você se deparar com dados pré-compactados em muitos ambientes (ZIP, JPG, AVI, MPG, MP3, etc.), a menos que tenha certeza de que os dados não compactados serão armazenados em backup, eu Recomendamos não planejar nada além da capacidade nativa.
Descrevo o mundo da compactação 2: 1, para os meus clientes, como uma "terra de fantasia alegre e feliz, onde todos armazenam apenas longas tiragens da letra 'A'".
Editar:
Não se esqueça de que os documentos do Office 2007 já são arquivos ZIP (disfarçados). Se você estiver fazendo o backup de muitos deles, não presuma que você terá alguma compactação.
Editar:
É contra-intuitivo, mas você pode perceber que também obtém um aumento de velocidade em backups com o uso de "Compactação de software" no seu software de backup, versus compactação de hardware. O Backup Exec (pelo menos a versão 11 e mais recente) realiza sua "compactação de software" no host remoto ao executar um backup over-the-wire. Se você estiver fazendo backup de dados que podem ser altamente compactados, talvez seja possível trocar a CPU do host pela largura de banda da rede e acabar com um throughput mais alto. Obviamente, essa é uma das coisas que você precisa "ajustar" e monitorar, mas de modo geral você deve monitorar sua taxa de transferência de qualquer maneira (já que algumas unidades de fita mostram degradação de throughput causada por dano na cabeça de leitura / gravação ou desgaste de fita). pode ser usado como um indicador preditivo ad hoc para falha).