Instalando o Spark no Ubuntu

0

Estou instalando o Spark IM Client para Ubuntu.

O tar.gz não parece estar funcional em TODOS (considerando que o diretório /bin está completamente vazio e não possui itens importantes como unpack200 ), mas eu tenho um .deb para o 2.6.0. Não é a versão mais recente, mas vai fazer.

O problema é que não consigo satisfazer sua dependência de sun-java6-jre . Tenho certeza de que usar o OpenJDK funcionará, só preciso que o deb continue.

Como posso consertar isso? Posso instalar um pacote dummy sun-java6-jre de alguma forma e usar o OpenJDK? Ou existe uma maneira de instalar o sun-java6-jre REALMENTE mesmo depois de toda essa loucura do Ubuntu removendo o Sun / Oracle Java de seus repositórios?

    
por TND 27.06.2012 / 14:06

2 respostas

1

A página wiki java informa como instalar o sun-java6-jre manualmente se você optar por fazê-lo. link

32 bits

$ wget http://download.oracle.com/otn-pub/java/jdk/6u31-b04/jre-6u31-linux-i586.bin
$ chmod u+x jre-6u31-linux-i586.bin
$ ./jre-6u31-linux-i586.bin
$ sudo mv jre1.6.0_31 /usr/lib/jvm/
$ sudo update-alternatives --install "/usr/bin/java" "java" "/usr/lib/jvm/jre1.6.0_31/bin/java" 1
$ sudo update-alternatives --install "/usr/lib/mozilla/plugins/libjavaplugin.so" "mozilla-javaplugin.so" "/usr/lib/jvm/jre1.6.0_31/lib/i386/libnpjp2.so" 1

Então

$ sudo update-alternatives --config java
$ sudo update-alternatives --config mozilla-javaplugin.so
    
por cwill747 27.06.2012 / 14:30
1

Instalei o Spark 2.6.3 no meu sistema Ubuntu 13.10 de 64 bits. Eu instalei o Oracle Java 1.7 usando as instruções para a instalação do Java (Etapa 2) encontradas aqui .

Para fazer o Spark rodar, porque ele vem com um JRE de 32 bits, eu tive que modificar o script ./Spark para encontrar o Oracle JRE, e também para aceitar a versão 1.7.

Muda para a linha 4 (foi comentada, adicionou a localização do oracle JRE):

% bl0ck_qu0te%

Altera para a linha 95 (altere "6" para "7"):

% bl0ck_qu0te%

Essas alterações devem ser feitas corretamente no script de instalação do Spark, para que o Spark ofereça suporte aos computadores mais recentes.

    
por Mr Ed 16.04.2014 / 17:23
___