Spark AttributeError: 'DataFrame' - Objekt hat kein Attribut 'weekofyear'

Muss ich bekommen die Nummer der Woche des Jahres

      from pyspark.sql.functions import weekofyear
      dt =sqlContext.createDataFrame([('2015-04-08',)], ['a'])
      dt = dt.weekofyear(dt.a).alias('week')
      dt.show()

Aber bekam ich diese Fehlermeldung:AttributeError: 'DataFrame' - Objekt hat kein Attribut 'weekofyear'

Irgendeine Idee?
Dank

InformationsquelleAutor newleaf | 2017-01-04
Schreibe einen Kommentar