ein Fehler in der Funke sbt Baugruppe
Spark installieren, README,ich Schreibe den Befehl './bin/Funke-shell',
Ich bekam einen Hinweis Folgendes:
Gefunden, die mehrere Spark-Montage-jar-Dateien in /opt/Funke-0.9.0-bebrüten-bin-hadoop1/Montage/target/scala-2.10:
spark-assembly-0.9.0-incubating-hadoop1.0.4.jar
spark-assembly_2.10-0.9.0-incubating-hadoop1.0.4.jar
Bitte entfernen Sie alle, aber eine jar.
Ich immer versuchen, entfernen Sie einer von Ihnen ,aber ich nicht zum Erfolg.
Wenn jemand mit Ihr umgehen kann ,bitte mir sagen.
danke.
Du musst angemeldet sein, um einen Kommentar abzugeben.
alles, was Sie tun müssen, ist nur cd, um die Montage/target/scala-2.10 dir, und verwenden Sie die sbt zu kompilieren Sie erneut.
dies ist verursacht durch die nicht kompatibel zwischen den verschiedenen compile-Methode, können Sie verwendet maven und sbt beide?
Das problem ist, dass die Gläser eingebaut sind die Montage von Gläser, wenn Sie Sie ausführen
sbt/sbt saubere Montage
Was ich getan habe ist:
sbt/sbt-sauber-Paket
Diese wird Ihnen nur die kleinen Gläser. Die nächsten Schritte ist die Aktualisierung der CLASSPATH in der
bin/compute-classpath.sh script manuell, anfügen, die alle die Gläser.
Mit :
sbt/sbt Baugruppe
Wir können uns nicht vorstellen, unsere eigene Hadoop-patch, da wird es immer ziehen Sie aus dem Maven-repo, es sei denn, wir
entführen Sie den repository-Pfad, oder muss ein "mvn install" - lokal. Dies ist mehr ein hack, denke ich.