IntelliJ Idea 14: cannot resolve symbol Funke
Machte ich eine Abhängigkeit der Funken, der das funktionierte in meinem ersten Projekt. Aber wenn ich versuche, ein neues Projekt mit Funke, meine SBT nicht importieren Sie die externen jars von org.apache.spark. Daher IntelliJ Idea gibt die Fehlermeldung "cannot resolve symbol".
Ich habe bereits versucht zu machen, ein neues Projekt von Grund auf und verwenden Sie auto-import, aber keiner funktioniert. Wenn ich versuche zu kompilieren, bekomme ich die Nachrichten, dass "Objekt apache ist nicht Mitglied der Paket org". Meine bauen.sbt sieht wie folgt aus:
name := "hello"
version := "1.0"
scalaVersion := "2.11.7"
libraryDependencies += "org.apache.spark" % "spark-parent_2.10" % "1.4.1"
Habe ich den Eindruck, dass es etwas falsch mit meinem SBT-Einstellungen, obwohl es bereits funktionierte eine Zeit. Und außer für die externen Bibliotheken ist alles das gleiche...
Ich habe auch versucht zu importieren pom.xml Datei von meinem spark Abhängigkeit, aber auch dass funktioniert nicht.
Vielen Dank im Voraus!
scalaVersion := "2.11.7"
möglicherweise Konflikte mit "spark-parent_**2.10**"
versuchen spark-parent_2.11
Ich habe auch darüber nachgedacht aber das funktioniert nicht. Und es arbeitete bereits mit spark-Eltern-2.10...
Tut es das kompilieren im terminal? Verwenden Sie Standard-Resolver oder irgendeine Art von proxy (Nexus, Artifactory)? Was ist die log-Ausgabe?
Ich bekomme auch diese Meldung: SBT-Projekt importieren [warnen] [FEHLGESCHLAGEN ] org.apache.spark#Funke-parent_2.11;1.4.1!spark-parent_2.11.jar(doc): (0ms) [warnen] ==== local: versucht [Warnung] C:\Users\Giselle\.ivy2\local\org.apache.spark\spark-parent_2.11\1.4.1\docs\spark-parent_2.11-javadoc.jar [warnen] ==== öffentlich: versucht [Warnung] repo1.maven.org/maven2/org/apache/spark/spark-parent_2.11/1.4.1/... [warnen] [FEHLGESCHLAGEN ] org.apache.spark#Funke-parent_2.11;1.4.1!spark-parent_2.11.jar(src): (0ms)
Ich benutze keine jede Resolver (so weit ich bewusst bin)
InformationsquelleAutor Giselle Van Dongen | 2015-08-28
Du musst angemeldet sein, um einen Kommentar abzugeben.
Dieser arbeitete für mich->
InformationsquelleAutor Yash P Shah
Benutze ich
in meinem
build.sbt
und es funktioniert für mich.InformationsquelleAutor Tobi
Derzeit spark-cassandra-Anschluss kompatibel mit Scala 2.10 und 2.11.
Es funktionierte für mich, wenn ich aktualisiert die scala-version von meinem Projekt wie folgt:
und ich aktualisierte meine Abhängigkeit wie:
Wenn Sie verwenden Sie "%%", sbt wird, fügen Sie Ihrem Projekt die binäre Scala-version, um das Artefakt Namen.
Vom sbt run:
InformationsquelleAutor cell-in
Ihrer Bibliothek dependecy Konflikte mit der scala-version Sie verwenden, müssen Sie die Verwendung von 2.11, für Sie zu arbeiten. Die richtige Abhängigkeit wäre:
beachten Sie, dass Sie sich ändern müssen, spark_parent zu spark_core
%
Betreiber und entfernen_2.11
(gut, außer es gibt keine version 2.11 für die Spark-Eltern am central)InformationsquelleAutor Erik Schmiegelow
Ich hatte ein ähnliches problem. Es scheint, der Grund war, dass die
build.sbt
Datei war die Angabe der falschen version von scala.Wenn Sie
spark-shell
es wird sagen, dass irgendwann die scala version von Spark, z.B.Dann bearbeitete ich die Zeile in der
build.sbt
- Datei zeigen Sie auf, dass version und es funktionierte.InformationsquelleAutor JARS
name := "SparkLearning"
version := "0.1"
scalaVersion := "2.12.3"
//zusätzliche Bibliotheken
libraryDependencies += "org.apache.spark" % "spark-streaming_2.10" % "1.4.1"
InformationsquelleAutor Shyam Gupta