Usamos o Rackspace Server Backup (também conhecido como JungleDisk Server Backup), que, assim como o Duplicity, faz dedupe e compactação local e, em seguida, faz o upload de "chunks" via HTTP para um provedor de nuvem. Vimos alguns problemas de desempenho, e o motivo subjacente foi que nossos pontos de provisionamento para arquivos em nuvem versus servidores em nuvem eram diferentes. Nossos servidores em nuvem foram criados no datacenter DFW, mas todos os buckets de arquivos em nuvem do JungleDisk estão no datacenter ORD.
A Rackspace atualmente não oferece às pessoas a escolha de qual datacenter elas usarão, porque a instalação DFW está próxima da capacidade. Então, tudo para contas "mais recentes" como provisionadas em ORD. Portanto, você precisa abrir um ticket de suporte para alterar seu ponto de provisionamento.
Além disso, você não pode usar o ServiceNet entre datacenters da Rackspace (ainda).
Dito isso, vemos 40+ Mbps durante os backups, mesmo cruzando datacenters da Rackspace usando o Rackspace Cloud Backup, portanto, suspeito que você tenha alguma forma de problema de configuração com duplicidade ou esteja limitado a disco ou CPU durante o backup. Você já tentou executar o backup para o mesmo destino a partir de arquivos externos da nuvem? Como um simples HTTP PUT de um arquivo grande é executado (isto é, exclui a duplicidade de um teste)?