Spark AttributeError: 'DataFrame' - Objekt hat kein Attribut 'weekofyear'
Muss ich bekommen die Nummer der Woche des Jahres
from pyspark.sql.functions import weekofyear
dt =sqlContext.createDataFrame([('2015-04-08',)], ['a'])
dt = dt.weekofyear(dt.a).alias('week')
dt.show()
Aber bekam ich diese Fehlermeldung:AttributeError: 'DataFrame' - Objekt hat kein Attribut 'weekofyear'
Irgendeine Idee?
Dank
Du musst angemeldet sein, um einen Kommentar abzugeben.
Folgende funktioniert einwandfrei.
Ich denke, es sollte sein:
statt:
als
weekofyear()
ist eine SQL-Funktion - es ist nicht ein DataFrame Methode...