speichern dataframe als externe hive-Tabelle
Benutzt habe ich eine Möglichkeit zum speichern dataframe als externe Tabelle mit Parkett-Datei-format, aber gibt es eine andere Möglichkeit zu sparen dataframes direkt als externe Tabelle in hive-wie haben wir saveAsTable für verwaltete Tabelle
Du musst angemeldet sein, um einen Kommentar abzugeben.
können Sie dies tun auf diese Weise
df.schreiben.format("ORC").Optionen(Map("Pfad"-> "yourpath")) saveAsTable "anubhav"
Für externe Tabelle nicht verwenden
saveAsTable
. Stattdessen speichern Sie die Daten am Speicherort der externen Tabelle angegebenpath
. Dann fügen Sie partition so, dass er registriert ist mit hive-Metadaten. Dies ermöglicht es Ihnen, um die hive-Abfrage partition später.//hc is HiveContext, df is DataFrame.
df.write.mode(SaveMode.Overwrite).parquet(path)
val sql =
s"""
|alter table $targetTable
|add if not exists partition
|(year=$year,month=$month)
|location "$path"
""".stripMargin
hc.sql(sql)
Können Sie auch speichern, dataframe mit Handbuch create table
Unten genannten link ist eine gute Erklärung für die Tabelle erstellen https://docs.databricks.com/spark/latest/spark-sql/language-manual/create-table.html