Instalação do Hadoop no Ubuntu

0

Alguém pode me ajudar na instalação do hadoop no meu ubuntu vm. Estou impressionado com a formatação da etapa namenode Tentei todas as etapas possíveis, mas não consigo entender onde cometi o erro. O seguinte é o erro que estou recebendo ao formatar .

user@ubuntu:/lib/hadoop/hadoop-2.7.1/bin$ hadoop namenode -format

DEPRECATED: Use of this script to execute hdfs command is deprecated.
Instead use the hdfs command for it.

/lib/hadoop/hadoop-2.7.1/bin/hdfs: line 304: /lib/jvm/jdk1.8.0_111/bin/java: Permission denied
/lib/hadoop/hadoop-2.7.1/bin/hdfs: line 304: exec: /lib/jvm/jdk1.8.0_111/bin/java: cannot execute: Permission denied

E quando eu vou começar o namenodes está me dizendo o seguinte erro e repetidamente me perguntando a senha.

user@ubuntu:/lib/hadoop/hadoop-2.7.1/sbin$ start-all.sh

This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh
/lib/hadoop/hadoop-2.7.1/bin/hdfs: line 304: /lib/jvm/jdk1.8.0_111/bin/java: Permission denied
/lib/hadoop/hadoop-2.7.1/bin/hdfs: line 304: exec: /lib/jvm/jdk1.8.0_111/bin/java: cannot execute: Permission denied
Starting namenodes on []
user@localhost's password: 
localhost: starting namenode, logging to /lib/hadoop/hadoop-2.7.1/logs/hadoop-user-namenode-ubuntu.out
localhost: /lib/hadoop/hadoop-2.7.1/bin/hdfs: line 304: /lib/jvm/jdk1.8.0_111/bin/java: Permission denied
localhost: /lib/hadoop/hadoop-2.7.1/bin/hdfs: line 304: exec: /lib/jvm/jdk1.8.0_111/bin/java: cannot execute: Permission denied
user@localhost's password: 
localhost: starting datanode, logging to /lib/hadoop/hadoop-2.7.1/logs/hadoop-user-datanode-ubuntu.out
localhost: /lib/hadoop/hadoop-2.7.1/bin/hdfs: line 304: /lib/jvm/jdk1.8.0_111/bin/java: Permission denied
localhost: /lib/hadoop/hadoop-2.7.1/bin/hdfs: line 304: exec: /lib/jvm/jdk1.8.0_111/bin/java: cannot execute: Permission denied
/lib/hadoop/hadoop-2.7.1/bin/hdfs: line 304: /lib/jvm/jdk1.8.0_111/bin/java: Permission denied
/lib/hadoop/hadoop-2.7.1/bin/hdfs: line 304: exec: /lib/jvm/jdk1.8.0_111/bin/java: cannot execute: Permission denied
starting yarn daemons
starting resourcemanager, logging to /lib/hadoop/hadoop-2.7.1/logs/yarn-user-resourcemanager-ubuntu.out
/lib/hadoop/hadoop-2.7.1/bin/yarn: line 330: /lib/jvm/jdk1.8.0_111/bin/java: Permission denied
/lib/hadoop/hadoop-2.7.1/bin/yarn: line 330: exec: /lib/jvm/jdk1.8.0_111/bin/java: cannot execute: Permission denied
user@localhost's password: 
    
por Rafeeq 12.01.2017 / 17:09

2 respostas

0

Eu apenas executei isso em uma VM (Kubuntu 16.04) com a versão hadoop 2.7.3.

Pré-requisitos:

  1. Ubuntu OS
  2. Usuário não raiz com privilégios de sudo
  3. Java instalado

Etapas:

  1. Faça o download da versão hadoop de aqui por

    • Clicando na opção binária na coluna tarball da versão desejada
    • Clique no link abaixo Sugerimos o seguinte site espelho para o seu download: ou clique direito e salve o link

      • se o link foi salvo, faça o download usando:

        wget http://www-us.apache.org/dist/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz

  2. Verifiqueaintegridadedodownload:

    • Façaodownloaddoarquivo.md5dodownload página

    • Executeshasum-a256hadoop-2.7.3.tar.gzecompareoresultadocomcathadoop-2.7.3.tar.gz.mds,nestalinha

      ...hadoop-2.7.3.tar.gz:SHA256=D489DF3808244B906EB38F4D081BA49E50C4603DB03EFD5E594A1E98B09259C2...
  3. Instaleohadoop:

    • Descomprimaemova:

      tar-xzvfhadoop-2.7.3.tar.gz&&sudomvhadoop-2.7.3/usr/local/hadoop
    • localizeojavanoseusistemacom:

      readlink-f/usr/bin/java|sed"s:bin/java::"
      # result
      /usr/lib/jvm/java-8-openjdk-amd64/jre/
      
    • edite o hadoop-env.sh file sudo nano /usr/local/hadoop/etc/hadoop/hadoop-env.sh :

      • Opção 1 (valor estático):

        #export JAVA_HOME=${JAVA_HOME}
        export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/jre/
        
      • Opção 2 (alterações no valor dinâmico com alteração no java no sistema):

        #export JAVA_HOME=${JAVA_HOME}
        export JAVA_HOME=$(readlink -f /usr/bin/java | sed "s:bin/java::")
        
  4. Executar hadoop:

    • /usr/local/hadoop/bin/hadoop

      • Saída:

        Usage: hadoop [--config confdir] [COMMAND | CLASSNAME]
        CLASSNAME            run the class named CLASSNAME
        or
        where COMMAND is one of:
        fs                   run a generic filesystem user client
        version              print the version
        jar <jar>            run a jar file
                             note: please use "yarn jar" to launch
                                  YARN applications, not this command.
        checknative [-a|-h]  check native hadoop and compression libraries availability
        distcp <srcurl> <desturl> copy file or directories recursively
        archive -archiveName NAME -p <parent path> <src>* <dest> create a hadoop archive
        classpath            prints the class path needed to get the
        credential           interact with credential providers
                             Hadoop jar and the required libraries
        daemonlog            get/set the log level for each daemon
        
  5. Teste:

    mkdir ~/input
    cp /usr/local/hadoop/etc/hadoop/*.xml ~/input
    
    /usr/local/hadoop/bin/hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.3.jar grep ~/input ~/grep_example 'principal[.]*';
    
    • Verifique se há erros no resultado:

       File System Counters
              FILE: Number of bytes read=1247674
              FILE: Number of bytes written=2324248
              FILE: Number of read operations=0
              FILE: Number of large read operations=0
              FILE: Number of write operations=0
       Map-Reduce Framework
              Map input records=2
              Map output records=2
              Map output bytes=37
              Map output materialized bytes=47
              Input split bytes=114
              Combine input records=0
              Combine output records=0
              Reduce input groups=2
              Reduce shuffle bytes=47
              Reduce input records=2
              Reduce output records=2
              Spilled Records=4
              Shuffled Maps =1
              Failed Shuffles=0
              Merged Map outputs=1
              GC time elapsed (ms)=61
              Total committed heap usage (bytes)=263520256
        Shuffle Errors
              BAD_ID=0
              CONNECTION=0
              IO_ERROR=0
              WRONG_LENGTH=0
              WRONG_MAP=0
              WRONG_REDUCE=0
       File Input Format Counters
              Bytes Read=151
       File Output Format Counters
              Bytes Written=37
      

Fonte:

link

Adicione o caminho para .bashrc:

# hadoop executable
export PATH="/usr/local/hadoop/bin:$PATH"
    
por George Udosen 12.01.2017 / 21:32
0

Parece que você perdeu algumas etapas relacionadas à configuração da permissão na configuração do hadoop. Mas isso não deveria ser um problema. Ele pedirá senha para cada componente no Hadoop, portanto, a partir da captura de tela, 3vezes o paswword foi perguntado, um para o namenode, depois o datanode e depois o gerenciador de recursos. Ele perguntará outras duas vezes, uma para o namenode secundário e outra para o Node Manager. Depois de terminar com isso, o resto deve seguir sem problemas.

Por favor, consulte o link abaixo:

Instalação passo-a-passo detalhada do Hadoop no Ubuntu, com capturas de tela detalhadas e Explicação:

link

Este documento foi criado por mim depois de instalar várias versões do Hadoop em várias versões do Ubuntu. Assim, a maioria dos problemas / erros / consultas comuns que uma pessoa enfrenta ao instalar o Hadoop no Ubuntu foi discutida no documento acima.

    
por Soumitra Ghosh 04.09.2017 / 19:12