Eu crio arquivos de imagem RAW, além de uma pequena seleção de arquivos JPEG derivados dos mestres RAW. Os JPEGs criados uma vez são muito, muito raramente editados novamente, mas quando estão porque são recomprimidos, todo o arquivo será alterado. Ao editar as imagens RAW eu uso um software que faz alterações de forma não destrutiva. Um arquivo de visualização e um arquivo meta (XMP < 40KB) são criados em conjunto com um catálogo que, em conjunto, rastreia as alterações.
Eu gerencio os backups de arquivos de visualização e de catálogo em um sistema separado. Assim, para essa questão, estou preocupado apenas com os RAWs, XMPs e JPEGs.
Eu quero fazer backup de todos os arquivos RAW, JPEG e XMP fora do local por meio de uma conexão WAN com base em arquivos novos e alterados em um sistema de arquivos que é verificado por alterações uma vez por dia.
A desduplicação parece funcionar lendo partes de arquivos e criando hashes fracos para comparar com todas as outras partes dos arquivos. Se um hash é encontrado para ser o mesmo que outro, um hash mais strong é criado e as partes são comparadas novamente. Se as partes ainda estiverem criando o mesmo hash, a segunda parte não será carregada. Em vez disso, o sistema de backup aponta a parte duplicada do arquivo para a cópia do backup anterior.
Minha pergunta é ...
… vale a pena usar deduplicação?