Funke - Gruppe, indem er mit dataframe syntax?

Was ist die syntax für eine groupby-unter Spark ohne sql/hiveContext? Ich weiß, dass ich tun kann,

DataFrame df = some_df
df.registreTempTable("df");    
df1 = sqlContext.sql("SELECT * FROM df GROUP BY col1 HAVING some stuff")

aber wie mache ich es mit einer syntax wie

df.select(df.col("*")).groupBy(df.col("col1")).having("some stuff")

Diese .having() scheint nicht zu existieren.

InformationsquelleAutor lte__ | 2016-08-09
Schreibe einen Kommentar