Spark dataframe fügen Sie neue Spalte mit Zufallszahlen

Möchte ich eine neue Spalte hinzufügen, um den dataframe mit den Werten aus entweder 0 oder 1.
Ich benutzt "randint" - Funktion aus,

from random import randint

df1 = df.withColumn('isVal',randint(0,1))

Aber ich bekomme die folgende Fehlermeldung,

/spark/python/pyspark/sql/dataframe.py", line 1313, in withColumn
assert isinstance(Zeile, Spalte), "col sein sollte, Spalte"
AssertionError: col sein sollte, Spalte

wie zu verwenden einer benutzerdefinierten Funktion oder randint Funktion zum erzeugen zufälliger Wert für die Spalte?

InformationsquelleAutor Dilma | 2017-01-04

Schreibe einen Kommentar