Funke - Gruppe, indem er mit dataframe syntax?
Was ist die syntax für eine groupby-unter Spark ohne sql/hiveContext? Ich weiß, dass ich tun kann,
DataFrame df = some_df
df.registreTempTable("df");
df1 = sqlContext.sql("SELECT * FROM df GROUP BY col1 HAVING some stuff")
aber wie mache ich es mit einer syntax wie
df.select(df.col("*")).groupBy(df.col("col1")).having("some stuff")
Diese .having()
scheint nicht zu existieren.
Du musst angemeldet sein, um einen Kommentar abzugeben.
Ja, es existiert nicht. Sie drücken die gleiche Logik, mit
agg
gefolgt vonwhere
:Sagen Sie zum Beispiel, wenn ich möchte finden Sie Produkte in jeder Kategorie werden mit Gebühren von weniger als 3200 und Ihre Anzahl darf nicht weniger als 10: