Hadoop dfs-Fehler : INFO ipc.AUFTRAGGEBER: Wiederholung connect to server: localhost

Habe ich erfolgreich eingerichtet, ein Hadoop-cluster mit 6 Knoten (master, salve<1-5>)

  • Formatiert die namenode -> fertig
  • Starten und Herunterfahren cluster -> funktioniert einwandfrei
  • Ausführen "hadoop dfs -ls /" gibt diese Fehler -> Fehler: INFO ipc.AUFTRAGGEBER: Wiederholung connect to server: localhost

Ich habe versucht zu sehen, die Dienste laufen mit:

sudo netstat -plten | grep java
hduser@ubuntu:~$ sudo netstat -plten | grep java

tcp 0 0 0.0.0.0:50070 0.0.0.0:* LISTEN 1000 93307 11384/java
tcp 0 0 0.0.0.0:44440 0.0.0.0:* LISTEN 1000 92491 11571/java
tcp 0 0 0.0.0.0:40633 0.0.0.0:* LISTEN 1000 92909 11758/java
tcp 0 0 0.0.0.0:50010 0.0.0.0:* LISTEN 1000 93449 11571/java
tcp 0 0 0.0.0.0:50075 0.0.0.0:* LISTEN 1000 93673 11571/java
tcp 0 0 0.0.0.0:50020 0.0.0.0:* LISTEN 1000 93692 11571/java
tcp 0 0 127.0.0.1:40485 0.0.0.0:* LISTEN 1000 93666 12039/java
tcp 0 0 0.0.0.0:44582 0.0.0.0:* LISTEN 1000 93013 11852/java
tcp 0 0 10.42.43.1:54310 0.0.0.0:* HÖREN 1000 92471 11384/java
tcp 0 0 10.42.43.1:54311 0.0.0.0:* HÖREN 1000 93290 11852/java
tcp 0 0 0.0.0.0:50090 0.0.0.0:* LISTEN 1000 93460 11758/java
tcp 0 0 0.0.0.0:34154 0.0.0.0:* LISTEN 1000 92179 11384/java
tcp 0 0 0.0.0.0:50060 0.0.0.0:* LISTEN 1000 94200 12039/java
tcp 0 0 0.0.0.0:50030 0.0.0.0:* LISTEN 1000 93550 11852/java

Seine master-IP-gebunden an port 54310 und 54311 und nicht die localhost(loopback).

Den conf-site.xml richtig konfiguriert wurde:

<configuration>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hduser/hadoop/tmp</value>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://master:54310</value>
</property>
</configuration>

Warum es erwarten localhost gebunden, 54310, anstatt die master-Elche habe ich hier konfiguriert. Hilfe zu schätzen. Wie kann ich dies beheben ??

Cheers

InformationsquelleAutor stholy | 2012-11-08

Schreibe einen Kommentar