Kann nicht geladen main-Klasse aus der JAR-Datei
Ich habe eine Anwendung Spark-scala, ich habe versucht, dispaly eine einfache Nachricht "Hallo, mein App". wenn ich es kompilieren von sbt kompilieren, es ist in Ordnung, auch ich führen Sie es durch den sbt führen, es ist in Ordnung, ich zeigte meine Botschaft mit Erfolg, aber er zeigt einen Fehler an; wie diese:
Hello my application!
16/11/27 15:17:11 ERROR Utils: uncaught error in thread SparkListenerBus, stopping SparkContext
java.lang.InterruptedException
ERROR ContextCleaner: Error in cleaning thread
java.lang.InterruptedException
at org.apache.spark.ContextCleaner$$anon$1.run(ContextCleaner.scala:67)
16/11/27 15:17:11 INFO SparkUI: Stopped Spark web UI at http://10.0.2.15:4040
[success] Total time: 13 s, completed Nov 27, 2016 3:17:12 PM
16/11/27 15:17:12 INFO DiskBlockManager: Shutdown hook called
Kann ich nicht verstehen, es ist in Ordnung oder Nein!
Auch, wenn ich versuche zu laden meine jar-Datei nach den ausführen, er dispaly auch ein Fehler:
meine Befehlszeile so Aussehen:
spark-submit "appfilms" --master local[4] target/scala-2.11/system-of-recommandation_2.11-1.0.jar
Und der Fehler dieser ist:
Error: Cannot load main class from JAR file:/root/projectFilms/appfilms
Run with --help for usage help or --verbose for debug output
16/11/27 15:24:11 INFO Utils: Shutdown hook called
Bitte können Sie mir Antworten!
Haben Sie versucht, zu tun, was die Fehlermeldung sagt? verwenden Sie --help oder --verbose auf der Funke reichen, um zu sehen, was die logs sagen.
AFAIK sollte es vorgelegt werden, mit
können Sie versuchen, diese
wenn weder funktioniert
überprüfen Sie auch meine answer
AFAIK sollte es vorgelegt werden, mit
--jars
option wie ... $SPARK_HOME/bin/spark-submit --driver-class-path your jar[s] --jars your jar[s]
können Sie versuchen, diese
spark-submit \ --verbose --master local[4] \ --class yourclass yourjar.jar
wenn weder funktioniert
jar -tvf system-of-recommandation_2.11-1.0.jar | grep appfilms
zum überprüfen der erwarteten Klasse ist es in der jar-Dateiüberprüfen Sie auch meine answer
InformationsquelleAutor sirine | 2016-11-27
Du musst angemeldet sein, um einen Kommentar abzugeben.
Der Fehler ist aufgrund der Tatsache, dass die SparkContext ist noch nicht beendet, dies ist erforderlich bei Versionen höher als Spark 2.x.
Dies sollte gestoppt werden, um zu verhindern, dass dieser Fehler durch
SparkContext.stop()
odersc.stop()
. Inspiration für die Lösung dieses Fehlers wird gewonnen aus eigenen Erfahrungen und den folgenden Quellen: Spark-Rahmen, Funke Listener-Bus-FehlerInformationsquelleAutor Paul Velthuis
Vergessen --class Parameter
spark-submit "appfilms" --master-lokale[4] target/scala-2.11/system-of-recommandation_2.11-1.0.jar
spark-submit --Klasse "appfilms" --master-lokale[4] target/scala-2.11/system-of-recommandation_2.11-1.0.jar.
Bitte beachten Sie, wenn appfilm gehören zu jedem Paket dont vergessen Paketnamen wie unten
packagename.appfilms
Ich glaube dies wird genügen,
InformationsquelleAutor devD