Basic-Spark-Beispiel funktioniert nicht

Ich bin zu lernen, Funken und laufen wollten die einfachste möglich-cluster aus zwei physischen Maschinen. Ich habe all das getan, basic setup, und es scheint in Ordnung zu sein. Der Ausgang des automatischen start-Skript sieht wie folgt aus:

[username@localhost sbin]$ ./start-all.sh 
starting org.apache.spark.deploy.master.Master, logging to /home/username/spark-1.6.0-bin-hadoop2.6/logs/spark-username-org.apache.spark.deploy.master.Master-1-localhost.out
localhost: starting org.apache.spark.deploy.worker.Worker, logging to /home/sername/spark-1.6.0-bin-hadoop2.6/logs/spark-username-org.apache.spark.deploy.worker.Worker-1-localhost.out
[email protected].???.??: starting org.apache.spark.deploy.worker.Worker, logging to /home/username/spark-1.6.0-bin-hadoop2.6/logs/spark-username-org.apache.spark.deploy.worker.Worker-1-localhost.localdomain.out

also kein Fehler hier und es scheint, dass ein Master-Knoten ausgeführt wird, sowie zwei Worker-Knoten. Allerdings, wenn ich öffnen Sie die WebGUI an 192.168.???.??:8080, es listet nur ein Arbeiter - die lokale. Mein Problem ist ähnlich wie hier beschrieben: Spark-Cluster: Arbeitnehmer-info-anzeigen nicht auf web-Benutzeroberfläche aber Es ist nichts Los in meiner /etc/hosts-Datei. Allen, die es enthält, ist:

127.0.0.1 localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6 

Was bin ich?
Beide Maschinen sind mit Fedora Workstation x86_64.

Die einfachste mögliche cluster, die in einem eigenständigen cluster. Möchten Sie vielleicht beginnen mit der Lektüre der folgenden Dokumentation.
Sie könnte beginnen mit der Beschreibung Ihrer Netzwerk-Konfiguration und hinzufügen von Protokollen? Auch wenn Sie einige nützliche Informationen, fügen Sie einfach Bearbeiten der Frage.
OK, das problem ist also master-Konfiguration. Seit seiner /etc/hosts bietet nur den localhost-Konfiguration diese Informationen an die remote-Arbeiter. Es versucht, eine Verbindung zum master auf localhost (was ist sichtbar in seinen logs) und natürlich fehlschlägt.
Sie haben entweder machen Sie Ihre master-erreichbar von der remote-Mitarbeiter und die Konfiguration zu aktualisieren oder Sie können versuchen, um alle erforderlichen ports über ssh.
Entweder confiure SPARK_MASTER_IP, so weist es auf einen Zugriff von einem Arbeiter oder bieten Eintrag in der /etc/hosts entspricht hostname und erreichbar (nicht localhost) IP. Dies sollte genug sein.

InformationsquelleAutor Krzysiek Setlak | 2016-02-16

Schreibe einen Kommentar