Enviando um arquivo aparentemente grande (~ 200 GB) para o Amazon Glacier [closed]

1

Estou tentando fazer o upload de um arquivo de mais de 200 GB para o Amazon Glacier, um único .tgz .

Imaginando se alguém já teve experiência com isso, e se isso parece extraordinário para ser realizado sem problemas de tempo limite, etc. Por um lado, 200 GB são muitos dados. Por outro lado, parece que o Glacier foi construído para lidar com esse tipo de demanda.

Eu pretendo usar a biblioteca Python boto . Alguém tem alguma recomendação em contrário?

    
por Dmitry Minkovsky 06.05.2013 / 18:31

1 resposta

1

Como outros já disseram, o Glacier é mais do que capaz de lidar com 200 GB de dados. (Francamente, em termos de Big Data 200GB não é nada - eu rotineiramente movo backups desse tamanho todo mês.)

As duas coisas a ter em conta são as suas limitações de conexão upstream, como foi mencionado nos comentários, e a sua necessidade de obter esses dados de volta (o Glacier é realmente barato para armazenar, mas é realmente caro para recuperar). > Se você não será prejudicado por nenhuma dessas preocupações (e uma revisão do livro / documentação da Glacier não revelar quaisquer outros pontos problemáticos para a sua implantação planejada), você deve estar bem.

    
por 06.05.2013 / 19:44