Eu tenho tentado executar o Spark no meu subsistema Ubuntu que instalei no Windows.
Eu instalei scala, java (8jdk) e maven e todos eles funcionam bem depois de um pouco de tweeking. Infelizmente eu tenho tentado instalar faísca, parece instalar quando eu executar o código "tar xzfv spark-2.2.0-bin-hadoop2.7.tgz" no entanto, não me deixa executá-lo depois.
Não tenho certeza se precisei definir um caminho para isso, então tentei, mas ainda não funciona. Alguém tem alguma sugestão?
Obrigado antecipadamente.