Tag: hadoop2

Hadoop 2 repräsentiert die zweite generation der sehr beliebten open-source-verteilten Plattform Apache Hadoop.

hdfs-Befehl ist veraltet in hadoop

Anzahl der Antworten 1 Antworten
Als ich bin unten folgenden Verfahren: http://www.codeproject.com/Articles/757934/Apache-Hadoop-for-Windows-Platform https://www.youtube.com/watch?v=VhxWig96dME. Während der Ausführung des Befehls c:/hadoop-2.3.0/bin/hadoop namenode -format bekam ich die Fehlermeldung, die unten gegeben **DEPRECATED:Use of this script to execute hdfs command is deprecated. Instead use the hdfs

Holen Sie sich die Anwendungs-ID während der Ausführung eines MapReduce-job

Anzahl der Antworten 2 Antworten
Gibt es eine Möglichkeit zum abrufen der Anwendungs-ID beim laufen - zum Beispiel - die wordcount Beispiel mit der yarn Befehl? Ich einleiten möchten Sie einen job von einem anderen Prozess mit der yarn Befehl ein, und

org.apache.spark.rpc.RpcTimeoutException: Futures-Zeitüberschreitung nach [120 Sekunden]. Dieser timeout wird gesteuert durch Funken.rpc.lookupTimeout

Anzahl der Antworten 2 Antworten
Immer die folgende Fehlermeldung mit Bezug auf den container, während die Abgabe einer spark-Applikation zu GARN. Die HADOOP(2.7.3)/SPARK (2.1) - Umgebung ausgeführt wird, ein pseudo-distributed mode in einem single-node-cluster. Die Anwendung funktioniert perfekt, wenn gemacht, um die

Wie konvertieren von HEX-Wert nach Dezimal im HIVE HQL

Anzahl der Antworten 1 Antworten
Habe ich Hive 1.1, und ich habe Probleme beim umwandeln eines HEX-Wert in einen Dezimal-oder BIGINT. Mit UNHEX('2BD1BCAE0501250E') zurückgeben sollte= 3157512269357720846 Aber anstatt, ich bin immer so etwas wie WingDings= +Ѽ�% Ich habe versucht DECODE, ENCODE BASE64...aber

Garn ist nicht Ehren-Garn.nodemanager.Ressource.cpu-vcores

Anzahl der Antworten 1 Antworten
Ich bin mit Hadoop-2.4.0 und mein system configs sind 24 cores, 96 GB RAM. Ich bin mit folgenden configs mapreduce.map.cpu.vcores=1 yarn.nodemanager.resource.cpu-vcores=10 yarn.scheduler.minimum-allocation-vcores=1 yarn.scheduler.maximum-allocation-vcores=4 yarn.app.mapreduce.am.resource.cpu-vcores=1 yarn.nodemanager.resource.memory-mb=88064 mapreduce.map.memory.mb=3072 mapreduce.map.java.opts=-Xmx2048m Kapazität Scheduler configs queue.default.capacity=50 queue.default.maximum_capacity=100 yarn.scheduler.capacity.root.default.user-limit-factor=2 Mit den oben genannten

copyFromLocal: unerwartete URISyntaxException

Anzahl der Antworten 2 Antworten
Ich versuche, kopieren Sie einige Dateien von meiner Festplatte zu HDFS , ich bin mit diesem Befehl hadoop fs -copyFromLocal /home/hduser/Pictures/Event\ ordering/* input/ Ist das die korrekte syntax ? PS : ich bin mit linux PPS: ich

pom.xml für Hadoop 2.6.0

Anzahl der Antworten 1 Antworten
Ich versuche zu implementieren, eine app, => suchen Sie sich die maximale Temperatur aus Wetterdaten (exepmle von Tom White ' s Buch Hadoop: Definitive Guide (3rd edition)) Verwendung von Hadoop. Ich habe heruntergeladen und installiert Hadoop 2.6.0

konnte nur repliziert werden, auf 0 Knoten statt minReplication (=1). Es gibt 4 datanode(s) ausgeführt werden und kein Knoten(s) sind nicht in diesem Betrieb

Anzahl der Antworten 1 Antworten
Ich weiß nicht, wie um diesen Fehler zu beheben: Vertex failed, vertexName=initialmap, vertexId=vertex_1449805139484_0001_1_00, diagnostics=[Task failed, taskId=task_1449805139484_0001_1_00_000003, diagnostics=[AttemptID:attempt_1449805139484_0001_1_00_000003_0 Info:Error: org.apache.hadoop.ipc.RemoteException(java.io.IOException): File /user/hadoop/gridmix-kon/input/_temporary/1/_temporary/attempt_14498051394840_0001_m_000003_0/part-m-00003/segment-121 could only be replicated to 0 nodes instead of minReplication (=1). There are 4 datanode(s) running

Konnte nicht gefunden oder geladen werden Hauptklasse com.Sonne.tools.javac.Main hadoop mapreduce

Anzahl der Antworten 3 Antworten
Ich versuche zu lernen MapReduce aber ich bin ein wenig verloren jetzt. http://hadoop.apache.org/docs/r2.6.0/hadoop-mapreduce-client/hadoop-mapreduce-client-core/MapReduceTutorial.html#Usage Besonders diese Anleitung: Compile WordCount.java and create a jar: $ bin/hadoop com.sun.tools.javac.Main WordCount.java Geben, wenn ich in hadoop in meinem terminal bin ich in

Container erschlagen von der ApplicationMaster Exit-code 143

Anzahl der Antworten 2 Antworten
Ich habe immer die folgende Fehlermeldung in mehrere Fälle: 2017-03-23 11:55:10,794 INFO [AsyncDispatcher event handler] org.apache.hadoop.mapreduce.v2.app.job.impl.TaskAttemptImpl: Diagnostics report from attempt_1490079327128_0048_r_000003_0: Container killed by the ApplicationMaster. Container killed on request. Exit code is 143 Container exited with a

Nicht instanziieren org.apache.hadoop.hive.ql.die Metadaten.SessionHiveMetaStoreClient (Ubuntu)

Anzahl der Antworten 2 Antworten
Habe ich erfolgreich installiert, Java, Hadoop, MySQL. Ich bin immer diese Fehlermeldung beim ausführen von hive. Ich war immer die Datei Erlaubnis Fehler, bevor Sie die behoben haben, indem Sie die metastore_db Ordner unter hive-Ordner auf 777

Unterschied zwischen Hadoop 1 und Hadoop 2

Anzahl der Antworten 3 Antworten
Als mein wissen, ich weiß, nur ein Unterschied zwischen Hadoop 1 und 2. Seine aktiven und passiven Sekundären Name-Knoten. Könnte etwa eine Liste mir den Unterschied zwischen Hadoop 1 und 2? InformationsquelleAutor Bala | 2014-07-28

Eclipse-plugin für Hadoop 2.6.0

Anzahl der Antworten 2 Antworten
Möchte ich schreiben MapReduce-jobs in Java. Für die, die ich installiert haben, Hadoop 2.6.0 in Ubuntu 14.04 LTS VM. Das Installationsverzeichnis ist /usr/local/hadoop. Nun nach vielen tutorials, finden Sie ein Eclipse-plugin in /contrib - Verzeichnis und fügen

So aktualisieren Sie eine Datei in HDFS

Anzahl der Antworten 2 Antworten
Ich weiß, dass sich HDFS ist nur einmal schreiben und viele Male gelesen. Nehme an, wenn ich aktualisieren möchten, müssen Sie eine Datei im HDFS gibt es eine Möglichkeit, es zu tun ? Danke im Voraus !

Was ist-direct-Modus in sqoop?

Anzahl der Antworten 4 Antworten
Gemäß meinem Verständnis sqoop verwendet wird zum importieren oder exportieren von Tabellen/Daten aus der Datenbank, die HDFS oder Hive oder HBASE. Und wir direkt importieren können Sie eine einzelne Tabelle oder die Liste von Tabellen. Intern mapreduce-Programm

VERTEILEN BY-Klausel in HIVE

Anzahl der Antworten 2 Antworten
Ich bin nicht in der Lage zu verstehen, was das VERTEILEN VON Klausel tritt in BIENENSTOCK. Ich kenne die definition, die sagt , wenn wir die VERTEILUNG VON (Stadt) , diese senden würde jeder Stadt in einem

Was ist der Ersatz von NULLIF im Bienenstock?

Anzahl der Antworten 2 Antworten
Ich würde gerne wissen, was ist der Ersatz von NULLIF im Bienenstock? Ich bin mit COALESCE aber seinen Dienst nicht meine Anforderung. Meine query-Anweisung ist so etwas wie : COALESCE(A,B,C) AS D COALESCE zurück erste NICHT-NULL-Wert. Aber

Wie zu Beginn hiveserver2 als service

Anzahl der Antworten 3 Antworten
Hallo alle, ich habe setup multi-node-cluster (ich.e 5 Knoten) in meinem Netzwerk, das gut funktioniert. jetzt wollte ich einfügen und abrufen von Daten aus cluster mithilfe von hive-so habe ich das setup hive neueste Version apache-hive-0.14.0-bin.tar.gz (d.h.

Wie optimiert man das mischen/Sortieren phase in ein hadoop job

Anzahl der Antworten 2 Antworten
Ich bin dabei einige der Aufbereitung der Daten mit einem single-node-hadoop-job. Die mapper/combiner in meinem job, Ausgänge viele Tasten (mehr als 5M oder 6M) und natürlich die Arbeit geht langsam, oder sogar ausfällt. Der mapping-phase läuft bis

Hive-Runtime-Fehler während der Verarbeitung der Zeile in Hive

Anzahl der Antworten 2 Antworten
Habe ich Fehler bei der Abfrage auf ORC Datei-format Tabelle Ich versuche folgenden Abfrage. INSERT INTO TABELLE . WÄHLEN SIE AUS . WHERE-BEDINGUNGEN; TaskAttempt 2 gescheitert, info=[Fehler: Fehler beim ausführen der Aufgabe:java.lang.RuntimeException: java.lang.RuntimeException: org.apache.hadoop.hive.ql.die Metadaten.HiveExceptio Hive-Runtime-Fehler während

Import von CSV-Datei in Hadoop

Anzahl der Antworten 1 Antworten
Ich bin neu mit Hadoop, ich habe eine zu importierende Datei in hadoop über die Kommandozeile (ich Zugriff auf die Maschine über SSH) Wie kann ich die Datei importieren in hadoop? Wie kann ich überprüfen, danach (Befehl)?

Standard Praktiken für die Anmeldung in MapReduce-jobs

Anzahl der Antworten 2 Antworten
Ich bin auf der Suche nach dem besten Ansatz für die Anmeldung in MapReduce-jobs. Ich bin mit mit slf4j log4j-appender, wie in meinem anderen Java-Anwendungen, aber da MapReduce-job ausgeführt wird in einer verteilten Weise über die cluster-weiß

Wo ist der classpath-set für hadoop

Anzahl der Antworten 4 Antworten
Wo ist der classpath für hadoop setzen? Wenn ich führen Sie den nachstehenden Befehl gibt mir die classpath. Wo ist der classpath gesetzt? bin/hadoop classpath Ich bin mit hadoop 2.6.0 InformationsquelleAutor Bourne | 2015-02-01

hive 0.13 msck Reparatur Tabelle listet nur die Partitionen nicht im metastore

Anzahl der Antworten 7 Antworten
Ich versuche, mithilfe von Hive(0.13) msck repair table Befehl, um die Partitionen wiederherstellen und es listet nur die Partitionen nicht Hinzugefügt metastore, anstatt Sie zu addieren, um metastore als gut. hier ist die Ausgabe des Befehls partitions

Was ist der maximale container(s) in einem single-node-cluster (hadoop)?

Anzahl der Antworten 1 Antworten
Ich bin neu in hadoop und ich bin noch nicht vertraut auf seine Konfiguration. Ich möchte nur Fragen, die maximale container pro Knoten. Ich bin mit einem single-node-cluster (6GB ram laptop) und unten ist mein mapred und

Erhöhung der Anzahl der Hive-Mapper in Hadoop 2

Anzahl der Antworten 3 Antworten
Erstellte ich eine HBase-Tabelle von Bienenstock und ich bin versucht zu tun, eine einfache aggregation auf. Dies ist mein Hive-Abfrage: from my_hbase_table select col1, count(1) group by col1; Die Karte reduzieren job laicht nur 2 Mapper und

HDFS-Fehler: `input': Keine solche Datei oder Verzeichnis

Anzahl der Antworten 6 Antworten
Habe ich installiert hadoop 2.6.0 und ich Spiele mit ihm um. Ich versuche die Pseudo-distributed setup und ich bin nach den Anweisungen auf http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/SingleCluster.html#Execution Ich bin stecken in der 5. Schritt, d.h. wenn ich den Befehl ausführen

Spark Unable to load native hadoop-Bibliothek für Ihre Plattform

Anzahl der Antworten 2 Antworten
Ich bin ein dummy auf Ubuntu 16.04, die verzweifelt versuchen, Funken zu arbeiten. Ich habe versucht, zu beheben mein problem mit den Antworten hier gefunden auf stackoverflow, aber ich konnte nicht alles beheben. Starten von spark mit

Es sind 0 datanode(s) ausgeführt werden und kein Knoten(s) sind nicht in diesem Betrieb

Anzahl der Antworten 10 Antworten
Ich habe ein multi-node Hadoop Cluster. Der NameNode und die Secondary namenode läuft auf der gleichen Maschine und der cluster nur einen Datanode. Alle Knoten, die konfiguriert sind, die auf Amazon EC2-Maschinen. Folgenden werden die Konfigurations-Dateien auf

Wie funktioniert Hadoop Namenode failover-Prozess funktioniert?

Anzahl der Antworten 1 Antworten
Hadoop defintive guide sagt - Jeder Namenode führt ein leichtes failover-controller Prozess, dessen Aufgabe ist es überwachung der Namenode für Ausfälle (mit einem einfachen heartbeat-Mechanismus) und zum auslösen eines Failovers sollte ein namenode fail. Kommen, wie ein

copyFromLocal: `/user/hduser/gutenberg': Keine solche Datei oder Verzeichnis

Anzahl der Antworten 3 Antworten
Folge ich der Anleitung von michael-noll so weit, aber habe hier hängengeblieben. hduser@ubuntu:/usr/local/hadoop$ bin/hadoop dfs -copyFromLocal /tmp/gutenberg /user/hduser/gutenberg DEPRECATED: Use of this script to execute hdfs command is deprecated. Instead use the hdfs command for it. 13/11/11

DataNode ist Nicht Ab singlenode hadoop 2.6.0

Anzahl der Antworten 10 Antworten
Ich installiert hadoop 2.6.0 in meinen laptop mit Ubuntu 14.04 LTS. Ich nahm erfolgreich an der hadoop daemons laufen start-all.sh und ich einen WourdCount Beispiel erfolgreich, dann habe ich versucht, zum ausführen einer jar-Beispiel, die nicht mit

Hadoop-release fehlt /conf Verzeichnis

Anzahl der Antworten 5 Antworten
Ich versuche zu installieren, die einen einzelnen Knoten einrichten von Hadoop auf Ubuntu. Ich begann nach der Anweisungen, die auf dem Hadoop 2.3 docs. Habe ich aber anscheinend fehlt etwas sehr einfach. Erste, es sagt Um eine

Datanode wird nicht korrekt gestartet

Anzahl der Antworten 9 Antworten
Ich versuche zu installieren Hadoop 2.2.0 in pseudo-distributed mode. Während ich versuche zu starten, das datanode-Dienste zeigt die folgende Fehlermeldung, kann mir jemand bitte sagen, wie man dieses Problem beheben? **2**014-03-11 08:48:15,916 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Block pool <registering>

Name Knoten Vs sekundärer Name Knoten

Anzahl der Antworten 7 Antworten
Hadoop ist Konsistent und partition-tolerant, d.h. Es fällt unter die CP der Kategorie der CAP theoram. Hadoop ist nicht verfügbar, da alle Knoten sind abhängig von der name-Knoten. Wenn die name-Knoten, fällt der cluster ausfällt. Aber in

Wie kann ich über eine lokale Hadoop 2.6-Installation auf S3 / S3n zugreifen?

Anzahl der Antworten 5 Antworten
Ich versuche zu reproduzieren eines Amazon EMR-Clusters auf meiner lokalen Maschine. Für diesen Zweck habe ich installiert die die aktuelle stabile version von Hadoop - 2.6.0. Nun würde ich gerne den Zugriff auf ein S3-bucket, wie ich

So geben Sie AWS Access Key ID und Secret Access Key als Teil einer Amazon s3n URL an

Anzahl der Antworten 3 Antworten
Bin ich vorbei input-und output-Ordner als Parameter, um mapreduce-word-count-Programm aus der Webseite. Immer folgende Fehlermeldung: HTTP Status 500 - Request-Verarbeitung ist fehlgeschlagen; verschachtelte Ausnahme ist java.lang.IllegalArgumentException: AWS Access Key ID und Secret Access Key angegeben werden müssen,

Hadoop-Warnung "Kann native-hadoop-Bibliothek für Ihre Plattform nicht laden"

Anzahl der Antworten 20 Antworten
Ich bin derzeit Konfiguration von hadoop auf einem server mit CentOs. Wenn ich start-dfs.sh oder stop-dfs.shbekomme ich die folgende Fehlermeldung: WARNEN util.NativeCodeLoader: Unable to load native hadoop-Bibliothek für Ihre Plattform... mit dem builtin-java-Klassen gegebenenfalls Ich bin mit

Hadoop-Namenscode: Single Point of Failure

Anzahl der Antworten 4 Antworten
Den Namenode in der Hadoop-Architektur ist ein single point of failure. Wie gehen Menschen, die haben große Hadoop-Cluster mit diesem problem fertig?. Gibt es eine in der Industrie akzeptierte Lösung, die gut funktioniert hat, wobei eine secondary