web-dev-qa-db-fra.com

Impossible de lancer Spark

J'ai suivi ceci réponse . Je reçois cette erreur:

classe spark: ligne 86:/usr/lib/jvm/Java-8-Oracle/bin/Java: aucun fichier ou répertoire de ce type

Et à ma grande surprise, j'ai:

gsamaras@gsamaras:/usr/lib/jvm$ ls
Java-1.7.0-openjdk-AMD64  Java-7-openjdk-AMD64
gsamaras@gsamaras:/usr/lib/jvm$ $Java_HOME
bash: /usr/lib/jvm/Java-8-Oracle: No such file or directory

Comment le corriger?

Plus d'informations (de ici ):

gsamaras@gsamaras:~$ which Java
/usr/bin/Java
gsamaras@gsamaras:~$ ls -alh /usr/bin/Java
lrwxrwxrwx 1 root root 22 Feb 10 00:54 /usr/bin/Java -> /etc/alternatives/Java
gsamaras@gsamaras:~$ ls -alh /etc/alternatives/Java
lrwxrwxrwx 1 root root 46 Feb 10 00:54 /etc/alternatives/Java -> /usr/lib/jvm/Java-7-openjdk-AMD64/jre/bin/Java

Dans le ~/.profile j'avais ajouté:

export Java_HOME=/usr/lib/jvm/Java-7-openjdk-AMD64
export PATH=${Java_HOME}/bin:${PATH}
export HADOOP_CLASSPATH=${Java_HOME}/lib/tools.jar

de mon expérience Hadoop . Quand j'ai découvert que j'ai pu lancer Spark.


MODIFIER:

gsamaras@gsamaras:~/spark-1.6.0-bin-hadoop2.6/conf$ ls
docker.properties.template  metrics.properties.template   spark-env.sh.template
fairscheduler.xml.template  slaves.template
3
gsamaras

Je ne sais pas si Spark fonctionnera avec Java 7, mais sinon, la solution évidente consiste à installer Java 8:

Sudo add-apt-repository ppa:webupd8team/Java
Sudo apt-get update
Sudo apt-get install Oracle-Java8-installer

Si vous répondez "oui" aux endroits appropriés, vous obtiendrez par défaut Java 8, sinon

Sudo update-Java-alternatives -s Java-8-Oracle

fera l'affaire.

Mise à jour: Ceci dit, si vous voulez exécuter OpenJDK 7, vous devez savoir où Java_HOME est mal défini conformément au

gsamaras@gsamaras:/usr/lib/jvm$ $Java_HOME
bash: /usr/lib/jvm/Java-8-Oracle: No such file or directory

Puisque vous essayez de corriger cela dans .profile (vous avez utilisé hash -r ou vous vous reconnectez?), Vous souhaiterez peut-être vérifier load-spark-env.sh ou d'autres scripts exécutés avant le lancement de Spark. correct.

À votre santé,

3
Anders R. Bystrup

essayez simplement de localiser le fichier spark-env.sh dans votre dossier et de vérifier le Java_HOME indiqué. L'emplacement donné dans etc/environment doit être identique dans les deux fichiers

0
TechNoob