Spark Zeile JSON

Ich möchte eine JSON von einer Spark-v. 1.6 (mit scala) dataframe. Ich weiß, dass es die einfache Lösung zu tun df.toJSON.

Allerdings ist mein problem etwas anders aussieht. Betrachten Sie zum Beispiel einen dataframe mit den folgenden Spalten:

|  A  |     B     |  C1  |  C2  |    C3   |
-------------------------------------------
|  1  | test      |  ab  |  22  |  TRUE   |
|  2  | mytest    |  gh  |  17  |  FALSE  |

Ich würde gerne am Ende ein dataframe mit

|  A  |     B     |                        C                   |
----------------------------------------------------------------
|  1  | test      | { "c1" : "ab", "c2" : 22, "c3" : TRUE }    |
|  2  | mytest    | { "c1" : "gh", "c2" : 17, "c3" : FALSE }   |

wobei C ein JSON mit C1, C2, C3. Leider habe ich zur compile-Zeit, weiß ich nicht, was das dataframe aussieht (mit Ausnahme der Spalten A und B sind immer "Feste").

Als für der Grund warum brauche ich das: ich bin mit Protobuf für das senden um die Ergebnisse. Leider ist mein dataframe manchmal hat mehr Spalten als erwartet und ich würde immer noch senden Sie diese per Protobuf, aber ich will nicht angeben, werden alle Spalten in der definition.

Wie kann ich das erreichen?

  • noch ein dataframe
  • Nein, sorry, ich meine eher, wie man hinzufügen C1, C2, C3 als JSON-string-Spalte, um die bestehenden dataframe. Ich habe aktualisiert die post zu klären, für die version von Spark und scala als Sprache.
  • Sorry! Sicher, ich gerade aktualisiert die Frage (zusammen mit ein Grund, warum ich möchte, um dies zu erreichen) und fügte ein Beispiel.
InformationsquelleAutor navige | 2016-03-22
Schreibe einen Kommentar