Einfachste Möglichkeit zur Installation von Python-Abhängigkeiten auf Spark Testamentsvollstrecker Knoten?

Ich verstehe, dass Sie können senden Sie einzelne Dateien als Abhängigkeiten mit Spark Python-Programme. Aber was ist mit vollwertigen Bibliotheken (z.B. numpy)?

Tut Funke eine Möglichkeit haben, verwenden Sie eine bereitgestellte Paket-manager (z.B. pip) zum installieren von library-Abhängigkeiten? Oder muss das manuell gemacht werden, bevor Spark-Programme ausgeführt werden?

Wenn die Antwort-Handbuch, welches sind dann die "best practice" - Ansätze für die Synchronisierung von Bibliotheken (installation, Pfad, version, etc.) über eine große Anzahl verteilter Knoten?

InformationsquelleAutor trianta2 | 2015-04-07
Schreibe einen Kommentar