A resposta acabou sendo sim . A duplicidade modifica o tempo de inodo de cada arquivo durante o processo de backup inicial. Isso aciona uma quantidade copiosa de SSD que reescreve e grava a amplificação.
Em backups subseqüentes (incrementais), um número muito menor (mas ainda substancial) de inodes (e arquivos alterados, é claro) é reescrito.
A duplicidade não tenta preservar o tempo dos arquivos.
Para ser justo, a maneira como o Duplicity aborda essa questão é bastante convencional e não coloca uma carga particularmente grande nos HDDs. A questão de reescrever e escrever amplificação é especificamente uma coisa SSD. Portanto, tudo o que pode ser dito sobre o Duplicity é que ele não é otimizado para SSDs e que (sendo as demais coisas iguais) você gastará SSDs mais rápido do que os HDDs se usar Duplicity.
Como Frostschutz observou nos comentários, esse problema pode ser resolvido montando seu sistema de arquivos com a configuração noatime ... para que ele possa ser mitigado com relativa facilidade.
À medida que os HDDs se extinguem e os SSDs assumem o controle, os sistemas de arquivos serão cada vez mais otimizados para SSDs e podemos esperar que o problema de desgaste / desempenho causado por alterações de atime, reescreva e grave a amplificação seja resolvido. Novos sistemas de arquivos como F2FS estão liderando pelo exemplo.