Spark 1.6-Fehler beim suchen der winutils binary im hadoop binary-Pfad
Ich weiß, dass es einen sehr ähnlichen Beitrag zu diesem(Fehler beim suchen der winutils binary im hadoop binary-Pfad), allerdings habe ich versucht, jeden Schritt, der vorgeschlagen wurde, und der selbe Fehler immer noch angezeigt.
Ich versuche, den Apache-Spark-version 1.6.0 auf Windows 7 zum ausführen der Tutorials auf dieser Seite http://spark.apache.org/docs/latest/streaming-programming-guide.html, speziell mit diesem code:
./bin/run-example streaming.JavaNetworkWordCount localhost 9999
Aber dieser Fehler hält erscheinen:
Nach dem Lesen dieser post
Fehler beim suchen der winutils binary im hadoop binary-Pfad
Erkannte ich, ich brauchte die winutils.exe Datei, so dass ich heruntergeladen habe, eine hadoop binary 2.6.0 mit es definiert eine Umgebungsvariable namens HADOOP_HOME:
with value C:\Users\GERAL\Desktop\hadoop-2.6.0\bin
und platziert es auf einem Pfad wie diesem: %HADOOP_HOME%
Doch immer der selbe Fehler erscheint, wenn ich versuche den code. Weiß jemand, wie man dieses Problem lösen?
- Sollten Sie nicht tun HADOOP_HOME=C:\Users\GERAL\Desktop\hadoop-2.6.0 und fügen Sie %HADOOP_HOME%\bin; PATH variable
- hat nicht funktioniert, trotzdem danke
- Ihr Kommentar arbeitete wie ein Charme für mich. 🙂
Du musst angemeldet sein, um einen Kommentar abzugeben.
Wenn Sie mit Spark auf Windows mit Hadoop, dann brauchen Sie, um sicherzustellen, dass Ihre windows-hadoop-installation ist ordnungsgemäß installiert. zum ausführen von spark, die Sie brauchen, um zu haben winutils.exe und winutils.dll in Ihrem hadoop-home-Verzeichnis in den Ordner bin.
Ich würde Sie bitten, zu versuchen, diese zuerst:
1), die Sie herunterladen können .dll-und .exe-fils aus dem bundle auf den link unten.
https://codeload.github.com/sardetushar/hadooponwindows/zip/master
2) Kopieren winutils.exe und winutils.dll von diesem Ordner, um Ihre $HADOOP_HOME/bin.
3)
HADOOP_HOME
entweder in Ihren spark-env.sh oder auf den Befehl, und fügen SieHADOOP_HOME/bin
zuPATH
.und dann versuchen zu laufen.
Wenn Sie müssen irgendeine Unterstützung für hadoop-installation helfen, es ist ein netter link, können Sie es versuchen.
http://toodey.com/2015/08/10/hadoop-installation-on-windows-without-cygwin-in-10-mints/
Aber das kann warten. Sie können versuchen, die ersten paar Schritte.
HADOOP_HOME/bin
also, wenn Sie einenHADOOP_HOME/bin
im Weg ist, wird es die Suchewinutils.exe
innenHADOOP_HOME/bin/bin
und wirft einen Fehler.Laden Sie die bin-Datei von hier aus Hadoop Bin dann
System.setProperty("hadoop.home.dir", "Desktop\bin");
System.setProperty("hadoop.home.dir", "Desktop\bin");
können Sie versuchen, legen Sie die HADOOP_HOME die environment-variable:
statt
Ich auch konfrontiert mit diesem Problem, wenn Sie versuchen zu starten-Funke-shell von meinem Windows-laptop. Ich löste dies und es funktionierte für mich, hoffe, dass es helfen würde. Es ist ein sehr kleiner Fehler, den ich gemacht - die ich gerettet winutils die ausführbare Datei als "winutils.exe" statt nur winutils.
So, wenn die variable aufgelöst wird und es war die Lösung zu winutils.exe.exe das ist nirgendwo in der Hadoop-Binärdateien. Ich entfernt ".exe" und löste die Schale, es funktionierte. Ich schlage vor, Sie haben einen Blick auf den Namen ist es gespeichert worden ist.
Der folgende Fehler wird durch fehlende winutils binary in den classpath beim ausführen Funke Anwendung. Winutils ist ein Teil von Hadoop-ökosystem und ist nicht enthalten in der Funke. Die eigentliche Funktionalität der Anwendung kann laufen einwandfrei, auch nachdem die exception geworfen wird. Aber es ist besser, es zu vermeiden unnötige Probleme. Um zu vermeiden, dass Fehler, download
winutils.exe
binary und fügen Sie die gleichen, um den classpath.}
Wenn
winutils.exe
kopiertC:\winutil\bin\
dann setProperty wie unten
JDK installieren 1.8, Downloaden Spark-Binary von Apache Spark & Winutils aus dem Git repo
Den Benutzer-Variablen Pfad für JDK, Spark binäre, Winutils
Öffnen Sie die Eingabeaufforderung, und führen spark-shell
Funke-Shell