mehrere SparkContexts Fehler im tutorial

Ich bin versucht zu laufen, der sehr einfachen Funke+Python pyspark tutorial -- siehe http://spark.apache.org/docs/0.9.0/quick-start.html

Wenn ich versuche zu initialisieren einer neuen SparkContext,

from pyspark import SparkContext
sc = SparkContext("local[4]", "test")

Bekomme ich die folgende Fehlermeldung:

ValueError: Cannot run multiple SparkContexts at once

Frage ich mich, ob meine bisherigen versuche, auf dem Beispiel-code geladen, etwas in den Speicher, die nicht klar aus. Gibt es einen Weg, um die Liste der aktuellen SparkContexts, die bereits im Speicher und/oder deaktivieren Sie Sie aus, so dass die Beispiel-code ausgeführt wird?

InformationsquelleAutor der Frage Glenn Strycker | 2014-04-24

Schreibe einen Kommentar