Depende de qual é o seu objetivo.
Se você estiver procurando por backups para recuperação de desastres (servidor explodido, datacenter incendiado, etc), a resposta curta é que eles podem não fazer backups. Temos um cliente que lida com dados confidenciais do governo, e parte de seu mandato é que não temos permissão para fazer backups ou backups em mídia removível . Somos permitidos a replicação ao vivo para um site de DR e é isso. Ambos os sites são cobertos no mesmo nível de segurança física e lógica. O problema aqui é que, se eu estragar algo no Site A, ele é replicado para o Site B quase instantaneamente.
Se você estiver falando de backups do ponto de vista da integridade de dados (por exemplo, você acidentalmente descartou a tabela Clientes e já foi replicado para o site de DR), as fitas LTO-5 em uma grande biblioteca de fitas geralmente estão em andamento. Com até 3 TB por fita e várias fitas em uma biblioteca de fitas, você pode rapidamente fazer o backup de grandes quantidades de dados (rápido aqui refere-se a Mbps, pode ainda levar muitas, muitas horas para fazer backup de 25 TB de dados).
Qualquer suíte de backup decente fará alta compactação e eliminação de erros, o que reduz enormemente a quantidade de espaço de armazenamento necessário. Eu vi uma estimativa para uma ferramenta de backup do Exchange compactada e de-duped uma vez que reivindicou uma proporção de 15: 1 (15gb de dados armazenados em 1GB de backups).
Eu duvido muito que o Google se preocupe com os backups de muitos dos dados de seus mecanismos de busca, porque a maioria é substituível, e é distribuído tão longe que se eles perdem até mesmo uma parte significativa, ou até mesmo um datacenter inteiro o sistema fica online graças às rotas BGP de failover.
Na verdade, parece que o Google faz backup de uma métrica de dados em fita , que não é bem o que eu esperava: