Fehler: Ungültige oder beschädigte (jar-Datei) sbt/sbt-launch-0.13.5.jar
Habe ich versucht zu installieren Funke mit dem tutorial und jedesmal, wenn ich den Befehl ausführen sbt/sbt Baugruppe, bekomme ich die Fehlermeldung "Fehler: Ungültige oder beschädigte (jar-Datei) sbt/sbt-launch-0.13.5.jar"
Ich habe alles versucht: separat hinzufügen der sbt-Datei, um die sbt-Ordner in den spark-Ordner, installieren sbt individuell, die überprüfung der download und installieren Sie es immer wieder, aber vergeblich. Irgendwelche Ratschläge, was ich falsch mache? Danke.
Ich bin auch in dieses Problem. Ich werde beachten Sie, dass ich mit Ubuntu 15.04 und haben java-version "1.7.0_80" und Scala-code runner version 2.10.4
InformationsquelleAutor user2330778 | 2015-07-23
Du musst angemeldet sein, um einen Kommentar abzugeben.
Ok, Nach dem Spiel, um für eine Weile habe ich es endlich und hoffentlich wird dies für Sie arbeiten auch. Das tutorial baut spark, wo Sie vorgefertigte binaries. Ich bin mit der Funke 1.2.0 nur als Anmerkung (1.4.1 würde nicht für mich arbeiten)
Dies ist auf Ubuntu 15.04, aber sollte funktionieren auf 14.04 das gleiche
1) Entfernen Sie die folgenden Zeilen aus deiner bashrc
2) Entfernen Sie und installieren Sie scala
3) Download Vorgefertigte Funke und extrahieren
4) Führen Sie die spark-shell
Quellen (im Grunde, wo ich gelesen habe aus dieser Lösung wurde mit trial-and-error)
https://chongyaorobin.wordpress.com/2015/07/01/step-by-step-of-installing-apache-spark-on-apache-hadoop/
https://gist.github.com/visenger/5496675
InformationsquelleAutor Frozenfire
Wenn Sie heruntergeladen haben spark-Paket von http://d3kbcqa49mib13.cloudfront.net/spark-1.1.0.tgz dann cross-check Datei - "sbt/sbt-launch-0.13.5.jar". Wenn es nur kleine (5-6lines) html-Inhalte, dann müssen Sie zum herunterladen der jar-Datei manuell. Diese html-Datei einfach nur darauf hinweisen, dass erforderliche jar-Datei wurde nicht gefunden. Sie können verwenden, befolgen Sie folgende Schritte für centos:
wget http://dl.bintray.com/typesafe/ivy-releases/org.scala-sbt/sbt-launch/0.13.1/sbt-launch.jar ./sbt/sbt-launch-0.13.5.jar
sed -i '47,68s/^/#/' sbt/sbt-launch-lib.bash
sbt/sbt assembly
Funktionierte es bei mir ohne Veränderung der scala-installation. Hoffe, es hilft.
InformationsquelleAutor Jyoti Gupta
Den sbt-Skript funktioniert nicht richtig download sbt-launch-0.13.5.jar da muss es etwas falsch mit den URLs ist es. Als Ergebnis wird die Datei, die heruntergeladen wird, enthält nur ein HTML-header (entweder 400 oder 302-codes). Bis eine bessere Lösung verfügbar ist, als workaround würde ich manuell herunterladen sbt-launch-0.13.5.jar vorher.
InformationsquelleAutor Christos Kozanitis
In der SPARK_HOME/sbt/sbt-launch-lib.bash Skript ersetzen Sie die Zeile 53 bis Zeile 57 mit folgenden
Versuchen Sie dann erneut, führen Sie die sbt Baugruppe Befehl
Einfachste Methode ist die Installation der sbt manuell wie folgt
download sbt deb-Datei
Führen
dann bauen Sie mit
sbt assembly
stattsbt/sbt assembly
von spark home-OrdnerInformationsquelleAutor prabeesh
@Frozenfire, ich bin nicht sicher, ob es möglich ist, aber die Spark-Dokumentation im Überblick sagt :
Und ich Frage mich, ob es wäre der Grund, warum Sie dieses problem haben:
Weil Sie tun :
welche heruntergeladen und installiert
scala-2.11.7
.Weiß ich nicht, aber das könnte ein Anhaltspunkt !
PS1: dies ist eher ein Kommentar zu Frozenfire Antwort, aber ich kann nicht kommentieren, weil von einem Mangel an reputation und ich wollte zu teilen.
PS2: Gebäude für Scala 2.11
InformationsquelleAutor Pierre Cordier