Lesen von Daten aus SQL Server mithilfe von Spark SQL

Ist es möglich, zum Lesen von Daten aus Microsoft Sql Server (oracle, mysql, etc.) in einer rdd in einer Spark-Applikation? Oder brauchen wir zum erstellen einer in-memory-set und parallize, dass in ein RDD?

  • dies ist gonna be unbeantwortete sicher 😛
  • scheint so...irgendeinen Grund, warum? wenn es munge Daten aus alles, warum nicht die gemeinsame Geschäfte?
  • Sie müssen warten, für ein paar Tage, um diese beantwortet wird, wie der tag apache-spark ist sehr feierlich eingesetzt. Warten Sie ein paar Tage für die apache Jungs um Ihre Frage zu beantworten.
  • Sie können sicherlich Lesen die Daten in den Treiber und dann parallelisieren, die in einem RDD. Wenn Sie auf der Suche nach einer skalierbaren Lösung, die Sie wahrscheinlich wollen, zu schauen, mit DBInputFormat mit Spark ' s "Hadoop-API-Methoden. Ich habe nicht dies getan, bevor, aber wie es scheint, etwas gutes zu schauen.
InformationsquelleAutor ashic | 2014-10-07
Schreibe einen Kommentar