Initialisierung fehlgeschlagen für Block-pool <registrieren> (Datanode Uuid zugewiesen)
Was ist die Quelle dieser Fehler und wie konnte es behoben werden?
2015-11-29 19:40:04,670 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for Block pool <registering> (Datanode Uuid unassigned) service to anmol-vm1-new/10.0.1.190:8020. Exiting.
java.io.IOException: All specified directories are not accessible or do not exist.
at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:217)
at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:254)
at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:974)
at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:945)
at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:278)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:220)
at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:816)
at java.lang.Thread.run(Thread.java:745)
2015-11-29 19:40:04,670 WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Ending block pool service for: Block pool <registering> (Datanode Uuid unassigned) service to anmol-vm1-new/10.0.1.190:8020
2015-11-29 19:40:04,771 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Removed Block pool <registering> (Datanode Uuid unassigned)
InformationsquelleAutor Mona Jalal | 2015-11-29
Du musst angemeldet sein, um einen Kommentar abzugeben.
gibt es 2 Mögliche Lösungen zur Behebung
Erste:
Ihrem namenode und datanode cluster-ID nicht übereinstimmt, stellen Sie sicher, um Sie gleich.
In der name-Knoten, ändern ur cluster-id in die Datei befindet sich in:
In Daten-Knoten cluster-id in der Datei gespeichert:
Zweite:
Format der namenode an alle:
InformationsquelleAutor msoliman
Ich traf das gleiche problem und löste es, indem Sie die folgenden Schritte ausführen:
Schritt 1. entfernen Sie die
hdfs
- Verzeichnis (bei mir war es das Standard-Verzeichnis "/tmp/hadoop-root/
")Schritt 2. führen Sie
formatieren Sie das Verzeichnis
es ist nur das Verzeichnis zugewiesen, in der hdfs-site.xml.
InformationsquelleAutor rhtsjz
Root Ursache von dies ist datanode und namenode clusterID anders, bitte vereinheitlichen Sie Sie mit dem namenode clusterID dann neu starten, hadoop, dann sollte es behoben sein.
InformationsquelleAutor Savy Pan
Das Problem entsteht, weil der Konflikt der cluster-ID ' s von datanode und namenode.
Gehen Sie folgendermaßen vor:
InformationsquelleAutor Shwetabh Dixit
Das Problem entsteht, weil der Konflikt der cluster-ID ' s von datanode und namenode.
Gehen Sie folgendermaßen vor:
.
InformationsquelleAutor Lyndà Céline
Dieses problem kann auftreten, wenn es einige Speicher-E/a-Fehler. In diesem Szenario wird die VERSION der Datei ist nicht verfügbar, daher erscheinen als die oben genannten Fehler.
Möglicherweise müssen Sie ausschließen, dass der Speicherort auf diese bösen treibt in
hdfs-site.xml
.InformationsquelleAutor Eric