Hadoop: Não é possível localizar os scripts start-dfs.sh start-mapred.sh

3

Eu instalei o Hadoop seguindo este tutorial.

Eu instalei usando o ppa.

Quando cheguei ao passo 12 : iniciando o cluster do Hadoop.

Eu fiquei preso.

Quando eu faço cd ~/tasdik/hadoop/bin/ Ele diz que não existe tal arquivo ou diretório .

Alguma sugestão?

    
por Tasdik Rahman 27.02.2015 / 15:11

2 respostas

3

A etapa 2 do tutorial pediu para criar um novo usuário: hduser .

Portanto, se você decidiu adotar este nome de usuário para o usuário do Hadoop, o caminho de start-all.sh deve ser:

cd /home/hduser/hadoop/bin/  
start-all.sh

Ou se instalado em todo o sistema:

/usr/lib/hadoop/bin/ 
    
por Sylvain Pineau 27.02.2015 / 16:09
0

Encontrei o arquivo start-all.sh no diretório /hadoop-x.x.x/sbin .

path/to/hadoop-x.x.x/sbin/start-all.sh

em que hadoop-x.x.x é um diretório que foi criado ao extrair o arquivo hadoop.tar.gz baixado.

Se você iniciar o arquivo, ele mostrará

$ bash /home/foo/hadoop-2.7.0/sbin/start-all.sh
This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh

Então, é melhor invocar, start-dfs.sh localizado no mesmo diretório em si.

bash /home/foo/hadoop-2.7.0/sbin/start-dfs.sh
    
por Avinash Raj 21.06.2015 / 06:15