Wie erstellen SQLContext Zündkerzen Einsatz von scala?
Erstelle ich ein Scala-Programm SQLContext
mit sbt. Das ist mein build.sbt:
name := "sampleScalaProject"
version := "1.0"
scalaVersion := "2.11.7"
//libraryDependencies += "org.apache.spark" %% "spark-core" % "2.5.2"
libraryDependencies += "org.apache.spark" % "spark-core_2.11" % "1.5.2"
libraryDependencies += "org.apache.kafka" % "kafka_2.11" % "0.8.2.2"
libraryDependencies += "org.apache.spark" % "spark-streaming_2.11" % "1.5.2"
libraryDependencies += "org.apache.spark" % "spark-sql_2.11" % "1.5.2"
libraryDependencies += "org.apache.hadoop" % "hadoop-common" % "2.6.0"
Und das ist test-Programm:
import org.apache.spark.SparkContext
import org.apache.spark.sql.SQLContext
object SqlContextSparkScala {
def main (args: Array[String]) {
val sc = SparkContext
val sqlcontext = new SQLContext(sc)
}
}
Erhalte ich folgende Fehlermeldung:
Error:(8, 26) overloaded method constructor SQLContext with alternatives:
(sparkContext: org.apache.spark.api.java.JavaSparkContext)org.apache.spark.sql.SQLContext <and>
(sparkContext: org.apache.spark.SparkContext)org.apache.spark.sql.SQLContext
cannot be applied to (org.apache.spark.SparkContext.type)
val sqlcontexttest = new SQLContext(sc)
Kann jemand bitte lassen Sie mich wissen, die Frage ich bin sehr neu in scala und Funke Programmieren?
Du musst angemeldet sein, um einen Kommentar abzugeben.
Müssen Sie
new
IhreSparkContext
und das sollte es lösenEinfach wir erstellen SQLContext in scala
Für neuere Versionen von Spark (2.0+), verwenden Sie
SparkSession
:SparkSession
können alles tun, wasSQLContext
tun können, aber wenn nötig, dieSQLContext
können wie folgt abgerufen werden,