Práticas recomendadas para fazer backup no Amazon s3 e NAS

5

Eu sou novo no cloudberry.

Eu tenho um cenário em que cerca de 2,5Tb de dados de um servidor local devem ser copiados para um NAS na rede local e para o Amazon S3. Esses dados estão mudando constantemente por vários usuários. Quais seriam as melhores práticas para conseguir algo assim com a edição do servidor cloudberry windows?

Gostaria também de manter algum tipo de capacidade de versão para os arquivos em questão.

    
por Saul 11.01.2017 / 19:15

2 respostas

4

Eu sugiro que você dê uma olhada no AcloudA que pode ser usado como gateway de hardware que apresenta armazenamento em nuvem como DAS local para o seu servidor e descarrega dados para a nuvem.

Ele pode ser instalado no servidor local ou no NAS (depende dos detalhes de hardware que você usa) como HDD SATA / SAS com conectividade com a nuvem (Amazon ou Azure), permitindo a execução de tarefas de backup armazenamento.

    
por 13.01.2017 / 17:48
2

Depende realmente do tamanho do arquivo e do número de objetos. O armazenamento GW da AWS custa mensalmente e você tem a opção de armazenamento em cache, o que é bom.

O CloudBerry Backup possui um backup em nível de bloco no qual objetos enormes podem ser descarregados em uma base de nível de bloco incremental (basicamente as alterações vão para o S3), o que lhe dá outro ponto de recuperação.

Existe também um backup em tempo real que você pode querer experimentar.

    
por 12.01.2017 / 19:51