O Spark shell não será executado

0

Eu tenho tentado executar o Spark no meu subsistema Ubuntu que instalei no Windows.

Eu instalei scala, java (8jdk) e maven e todos eles funcionam bem depois de um pouco de tweeking. Infelizmente eu tenho tentado instalar faísca, parece instalar quando eu executar o código "tar xzfv spark-2.2.0-bin-hadoop2.7.tgz" no entanto, não me deixa executá-lo depois.

Não tenho certeza se precisei definir um caminho para isso, então tentei, mas ainda não funciona. Alguém tem alguma sugestão?

Obrigado antecipadamente.

    
por Joe Stanton 09.06.2018 / 17:37

0 respostas