Установка Spark на Ubuntu

Я устанавливаю Spark IM Client для Ubuntu.

tar.gz, похоже, не работает во ВСЕХ (учитывая, что каталог /bin совершенно пуст и не содержит важных вещей, таких как unpack200), но у меня есть .deb для 2.6.0. Это не последняя версия, но она подойдет.

Проблема в том, что я не могу удовлетворить зависимость от sun-java6-jre. Я вполне уверен, что использование OpenJDK сработает, мне просто нужно пройти через deb.

Как я могу это исправить? Могу ли я как-то установить пакет dummy sun-java6-jre, а затем использовать OpenJDK? Или есть способ НАСТОЯЩЕЙ установки sun-java6-jre даже после всего этого сумасшествия Ubuntu, удаляющего Sun / Oracle Java из их репозиториев?

0
задан 27 June 2012 в 16:06

2 ответа

Вики-страница java расскажет вам, как установить sun-java6-jre вручную, если вы решите это сделать. https://help.ubuntu.com/community/Java

32-разрядная

$ wget http://download.oracle.com/otn-pub/java/jdk/6u31-b04/jre-6u31-linux-i586.bin
$ chmod u+x jre-6u31-linux-i586.bin
$ ./jre-6u31-linux-i586.bin
$ sudo mv jre1.6.0_31 /usr/lib/jvm/
$ sudo update-alternatives --install "/usr/bin/java" "java" "/usr/lib/jvm/jre1.6.0_31/bin/java" 1
$ sudo update-alternatives --install "/usr/lib/mozilla/plugins/libjavaplugin.so" "mozilla-javaplugin.so" "/usr/lib/jvm/jre1.6.0_31/lib/i386/libnpjp2.so" 1

Затем

$ sudo update-alternatives --config java
$ sudo update-alternatives --config mozilla-javaplugin.so
0
ответ дан 27 June 2012 в 16:06

Я установил Spark 2.6.3 на 64-битную систему Ubuntu 13.10. Я установил Oracle Java 1.7, используя инструкции по установке Java (шаг 2), найденные здесь .

Чтобы запустить Spark, поскольку он поставляется с 32-битной JRE, мне пришлось изменить скрипт ./Spark, чтобы он нашел Oracle JRE, а также чтобы он принимал версию 1.7.

Изменения в строке 4 (закомментировано, добавлено местоположение оракула JRE):

INSTALL4J_JAVA_HOME_OVERRIDE = / usr / lib / jvm / java-7-oracle

Изменяется на строку 95 (изменить «6» на «7»):

if ["$ ver_minor" -gt "7"]; затем

Эти изменения должны быть сделаны правильно в сценарии установки Spark, чтобы Spark поддерживал более новые компьютеры.

0
ответ дан 27 June 2012 в 16:06

Другие вопросы по тегам:

Похожие вопросы: