Holen Sie sich JavaSparkContext von einem SparkSession
Im bin mit einem SparkSession
mein spark Anwendung, weil ich eine Menge von Funken-sql-Funktionen. Ich möchte die JavaSparkContext
erstellen Sie eine RDD-aus einer Liste. Aber über die Session kann ich nur bekommen ein gewöhnlichen SparkContext
. Gibt es eine Möglichkeit, den Kontext zu transformieren in diese Richtung?
Du musst angemeldet sein, um einen Kommentar abzugeben.
Nach der Bestimmung der
SparkContext
, den Sie verwenden könnten:Diese Rückkehr wird Sie die neue Instanz von
JavaSparkContext
, aber es ist kein problem, solange Sie halten nur eine aktive Instanz desSparkContext
.Yep, die Sie tun können, die mit der Funken-Sitzung wie diese:
oder in java wäre es: