ClassNotFoundException geworfen Einführung Funke-Shell
Ich versuche zu starten, die Funke-shell für python aus dem Verzeichnis mit ./bin/pyspark
Wenn ich den Befehl ausführen bekomme ich folgende Fehlermeldung:
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/spark/launcher/Main
Caused by: java.lang.ClassNotFoundException: org.apache.spark.launcher.Main
at java.net.URLClassLoader$1.run(URLClassLoader.java:202)
at java.security.AccessController.doPrivileged(Native Method)
at java.net.URLClassLoader.findClass(URLClassLoader.java:190)
at java.lang.ClassLoader.loadClass(ClassLoader.java:306)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:301)
at java.lang.ClassLoader.loadClass(ClassLoader.java:247)
Scheint es, dass ich vermisst werde: org.apache.spark.launcher.main
Ich bin nicht ganz sicher, wie man dieses Problem beheben und Frage mich, wenn jemand irgendwelche Vorschläge hatte oder hatte Sie in ähnliche Probleme.
Dank
- Ein java-Fehler geworfen, der von einer java-Bibliothek in java-code. Warum ist das tagged 'python'?
- pyspark ist ein python-REPL-Treiber auf einem java-Bibliothek/framework/whatever. Die Frage ist nicht völlig losgelöst von python.
- Die spark-distribution hast du?
- welche version von spark sind Sie versuchen, zu laufen? Wenn Sie keine Präferenz, und wollen einfach nur Dinge am laufen, die ich empfehlen würde "Pre-Built for Hadoop 2.6 und höher" spark.apache.org/downloads.html
- Dies bezieht sich auf die neueste Spark-distribution 1.5.1
- Und der Paket-Typ die ich runtergeladen habe, war die "pre-built for Hadoop 2.6 und höher"
Du musst angemeldet sein, um einen Kommentar abzugeben.
Ich lief auch dieses problem (auf meinem Mac).
Ich folgte den Schritten auf dieser Seite:
https://stackoverflow.com/a/14875241/5478610
und war in der Lage zu bekommen Vergangenheit diesen Fehler.
Ich denke, das problem ist, dass, obwohl ich es installiert Java 8 auf meinem Mac, wenn ich lief aus der Befehlszeile-es wurde noch aufrufen von Java 6.
Die jar-Datei mit der Klasse (in ./lib/spark-assembly-1.5.1-hadoop2.6.0.jar) konnten nicht geöffnet werden, die mit Java 6. Aber sobald ich aktualisiert meine die links, so dass der Aufruf von java aus das terminal würde mit Java 8, ich war in der Lage, um pyspark.
Neben David ' s Antwort, verwenden Sie
ändern Sie die java-version wenn Sie mehrere java-Versionen installiert haben und zwischen Ihnen wechseln möchten.
Ich auch dieses problem gelöst durch ändern der Java-version auf 1.8. Die Fehlermeldung ist nicht wirklich relevant in diesem Fall.