Cluster do Hadoop baseado em Raspberry Pi [fechado]

2

É pelo menos possível construir um cluster do Hadoop a partir de nós baseados no Raspberry Pi? Esse cluster pode atender aos requisitos de hardware do Hadoop? E, em caso afirmativo, quanto os nós do Raspberry Pi são necessários para atender aos requisitos?

Eu entendo que um cluster de vários nós Raspberry Pi sendo barato não é poderoso. Meu objetivo é organizar o cluster sem a possibilidade de perder dados pessoais do meu desktop ou notebook e usar esse cluster que estuda o Hadoop.

Eu apreciaria se você sugerisse ideias melhores de organizar um cluster Hadoop barato para fins de estudo.

UPD: Eu vi que a quantidade recomendada de memória para o Hadoop é de 16 a 24 GB, processadores multi-core e 1 TB de HDD, mas não se parece com requisitos mínimos.

UPD2: Eu entendi que serverfault.com é um local para perguntas relacionadas a sistemas de produção. Questões relacionadas à configuração de sistemas para uso pessoal e divertido estão fora do escopo. Desculpe por fazer esta pergunta.

    
por Dmitriy Sukharev 08.07.2012 / 15:57

1 resposta

12

Seria incrivelmente ruim. O Hadoop come heap como um elefante. O tamanho de heap padrão é de 1000 MB, mas praticamente todo mundo aumenta. 256 MB de RAM não farão você chegar longe, depois que a GPU e o sistema operacional fizerem o que quiserem, você provavelmente terá que restringir o Java a 128 MB e os menores trabalhos ficarão sem heap.

A JVM também é muito lenta no ARM. A Red Hat planeja trabalhar com a Linaro para melhorar isso com o Red Hat Enterprise Linux 7, mas não espere executar cargas de servidor Java no ARM razoavelmente por um tempo.

    
por 08.07.2012 / 16:22

Tags