Holen Liste von Datentypen aus einem schema in Apache Spark
Ich habe den folgenden code in Spark-Python, um die Liste der Namen von dem schema eines DataFrame, welche gut funktioniert, aber wie bekomme ich die Liste der Datentypen?
columnNames = df.schema.names
Zum Beispiel, etwas wie:
columnTypes = df.schema.types
Gibt es eine Möglichkeit, um eine separate Liste der Datentypen, die in einen DataFrame schema?
Du musst angemeldet sein, um einen Kommentar abzugeben.
Hier ist ein Vorschlag:
Referenz:
df.printSchema()
Da der Frage-Titel ist nicht python-spezifisch, ich werde hinzufügen
scala
version hier:Es wird Ergebnis in einem array von
org.apache.spark.sql.types.DataType
.Schema verwenden.dtypes