Se a desduplicação for feita com base em algum tipo de bloco de dados de tamanho fixo, não haverá mais desduplicação, pois você já salva cada bloco idêntico apenas uma vez. (Os blocos podem ser qualquer tipo de bloco lógico que pode ou não mapear diretamente para blocos de hardware)
Se o seu esquema de desduplicação recursiva usa um tamanho de bloco diferente ou se você usa um tamanho de bloco não-fixo, a desduplicação recursiva pode funcionar e pode levar a economias adicionais (em teoria).
É difícil dizer se algum software de hoje suportaria isso. Meu melhor palpite seria ZFS . Lá você pode criar pools de armazenamento que usam arquivos normais como dispositivo de armazenamento. Esses arquivos normais podem ser armazenados em um sistema ZFS em que a desduplicação está ativada. Agora você teria desduplicação recursiva. (com desempenho muito ruim)
A pergunta óbvia é: O que economizará mais espaço? Deduplicação recursiva ou Compactação + Deduplicação. E: a deduplicação de dados compactados + desduplicados salvará alguma coisa?