Schreiben Spark dataframe als CSV mit Partitionen

Ich versuche zu schreiben dataframe in spark zu einem HDFS-Lage, und ich erwarte, dass wenn ich hinzufüge, die partitionBy notation Funke partition erstellen
(ähnlich wie beim schreiben in Parkett-format)
Ordner in form von

partition_column_name=partition_value

( ich.e partition_date=2016-05-03). Dazu habe ich folgenden Befehl ausgeführt :

(df.write
    .partitionBy('partition_date')
    .mode('overwrite')
    .format("com.databricks.spark.csv")
    .save('/tmp/af_organic'))

aber partition Ordner wurde nicht erstellt
jede Idee, was könnte ich tun, um für die spark-DF automatisch erstellen diese Ordner?

Dank,

InformationsquelleAutor Lior Baber | 2016-05-29
Schreibe einen Kommentar