Tag: hadoop2
Hadoop 2 repräsentiert die zweite generation der sehr beliebten open-source-verteilten Plattform Apache Hadoop.
1
Antworten
Als ich bin unten folgenden Verfahren: http://www.codeproject.com/Articles/757934/Apache-Hadoop-for-Windows-Platform https://www.youtube.com/watch?v=VhxWig96dME. Während der Ausführung des Befehls c:/hadoop-2.3.0/bin/hadoop namenode -format bekam ich die Fehlermeldung, die unten gegeben **DEPRECATED:Use of this script to execute hdfs command is deprecated. Instead use the hdfs
2
Antworten
Gibt es eine Möglichkeit zum abrufen der Anwendungs-ID beim laufen - zum Beispiel - die wordcount Beispiel mit der yarn Befehl? Ich einleiten möchten Sie einen job von einem anderen Prozess mit der yarn Befehl ein, und
2
Antworten
Immer die folgende Fehlermeldung mit Bezug auf den container, während die Abgabe einer spark-Applikation zu GARN. Die HADOOP(2.7.3)/SPARK (2.1) - Umgebung ausgeführt wird, ein pseudo-distributed mode in einem single-node-cluster. Die Anwendung funktioniert perfekt, wenn gemacht, um die
1
Antworten
Habe ich Hive 1.1, und ich habe Probleme beim umwandeln eines HEX-Wert in einen Dezimal-oder BIGINT. Mit UNHEX('2BD1BCAE0501250E') zurückgeben sollte= 3157512269357720846 Aber anstatt, ich bin immer so etwas wie WingDings= +Ѽ�% Ich habe versucht DECODE, ENCODE BASE64...aber
1
Antworten
Ich bin mit Hadoop-2.4.0 und mein system configs sind 24 cores, 96 GB RAM. Ich bin mit folgenden configs mapreduce.map.cpu.vcores=1 yarn.nodemanager.resource.cpu-vcores=10 yarn.scheduler.minimum-allocation-vcores=1 yarn.scheduler.maximum-allocation-vcores=4 yarn.app.mapreduce.am.resource.cpu-vcores=1 yarn.nodemanager.resource.memory-mb=88064 mapreduce.map.memory.mb=3072 mapreduce.map.java.opts=-Xmx2048m Kapazität Scheduler configs queue.default.capacity=50 queue.default.maximum_capacity=100 yarn.scheduler.capacity.root.default.user-limit-factor=2 Mit den oben genannten
2
Antworten
Ich versuche, kopieren Sie einige Dateien von meiner Festplatte zu HDFS , ich bin mit diesem Befehl hadoop fs -copyFromLocal /home/hduser/Pictures/Event\ ordering/* input/ Ist das die korrekte syntax ? PS : ich bin mit linux PPS: ich
1
Antworten
Ich versuche zu implementieren, eine app, => suchen Sie sich die maximale Temperatur aus Wetterdaten (exepmle von Tom White ' s Buch Hadoop: Definitive Guide (3rd edition)) Verwendung von Hadoop. Ich habe heruntergeladen und installiert Hadoop 2.6.0
1
Antworten
Ich weiß nicht, wie um diesen Fehler zu beheben: Vertex failed, vertexName=initialmap, vertexId=vertex_1449805139484_0001_1_00, diagnostics=[Task failed, taskId=task_1449805139484_0001_1_00_000003, diagnostics=[AttemptID:attempt_1449805139484_0001_1_00_000003_0 Info:Error: org.apache.hadoop.ipc.RemoteException(java.io.IOException): File /user/hadoop/gridmix-kon/input/_temporary/1/_temporary/attempt_14498051394840_0001_m_000003_0/part-m-00003/segment-121 could only be replicated to 0 nodes instead of minReplication (=1). There are 4 datanode(s) running
3
Antworten
Ich versuche zu lernen MapReduce aber ich bin ein wenig verloren jetzt. http://hadoop.apache.org/docs/r2.6.0/hadoop-mapreduce-client/hadoop-mapreduce-client-core/MapReduceTutorial.html#Usage Besonders diese Anleitung: Compile WordCount.java and create a jar: $ bin/hadoop com.sun.tools.javac.Main WordCount.java Geben, wenn ich in hadoop in meinem terminal bin ich in
2
Antworten
Ich habe immer die folgende Fehlermeldung in mehrere Fälle: 2017-03-23 11:55:10,794 INFO [AsyncDispatcher event handler] org.apache.hadoop.mapreduce.v2.app.job.impl.TaskAttemptImpl: Diagnostics report from attempt_1490079327128_0048_r_000003_0: Container killed by the ApplicationMaster. Container killed on request. Exit code is 143 Container exited with a
2
Antworten
Habe ich erfolgreich installiert, Java, Hadoop, MySQL. Ich bin immer diese Fehlermeldung beim ausführen von hive. Ich war immer die Datei Erlaubnis Fehler, bevor Sie die behoben haben, indem Sie die metastore_db Ordner unter hive-Ordner auf 777
3
Antworten
Als mein wissen, ich weiß, nur ein Unterschied zwischen Hadoop 1 und 2. Seine aktiven und passiven Sekundären Name-Knoten. Könnte etwa eine Liste mir den Unterschied zwischen Hadoop 1 und 2? InformationsquelleAutor Bala | 2014-07-28
2
Antworten
Möchte ich schreiben MapReduce-jobs in Java. Für die, die ich installiert haben, Hadoop 2.6.0 in Ubuntu 14.04 LTS VM. Das Installationsverzeichnis ist /usr/local/hadoop. Nun nach vielen tutorials, finden Sie ein Eclipse-plugin in /contrib - Verzeichnis und fügen
2
Antworten
Ich weiß, dass sich HDFS ist nur einmal schreiben und viele Male gelesen. Nehme an, wenn ich aktualisieren möchten, müssen Sie eine Datei im HDFS gibt es eine Möglichkeit, es zu tun ? Danke im Voraus !
4
Antworten
Gemäß meinem Verständnis sqoop verwendet wird zum importieren oder exportieren von Tabellen/Daten aus der Datenbank, die HDFS oder Hive oder HBASE. Und wir direkt importieren können Sie eine einzelne Tabelle oder die Liste von Tabellen. Intern mapreduce-Programm
2
Antworten
Ich bin nicht in der Lage zu verstehen, was das VERTEILEN VON Klausel tritt in BIENENSTOCK. Ich kenne die definition, die sagt , wenn wir die VERTEILUNG VON (Stadt) , diese senden würde jeder Stadt in einem
2
Antworten
Ich würde gerne wissen, was ist der Ersatz von NULLIF im Bienenstock? Ich bin mit COALESCE aber seinen Dienst nicht meine Anforderung. Meine query-Anweisung ist so etwas wie : COALESCE(A,B,C) AS D COALESCE zurück erste NICHT-NULL-Wert. Aber
3
Antworten
Hallo alle, ich habe setup multi-node-cluster (ich.e 5 Knoten) in meinem Netzwerk, das gut funktioniert. jetzt wollte ich einfügen und abrufen von Daten aus cluster mithilfe von hive-so habe ich das setup hive neueste Version apache-hive-0.14.0-bin.tar.gz (d.h.
2
Antworten
Ich bin dabei einige der Aufbereitung der Daten mit einem single-node-hadoop-job. Die mapper/combiner in meinem job, Ausgänge viele Tasten (mehr als 5M oder 6M) und natürlich die Arbeit geht langsam, oder sogar ausfällt. Der mapping-phase läuft bis
2
Antworten
Habe ich Fehler bei der Abfrage auf ORC Datei-format Tabelle Ich versuche folgenden Abfrage. INSERT INTO TABELLE . WÄHLEN SIE AUS . WHERE-BEDINGUNGEN; TaskAttempt 2 gescheitert, info=[Fehler: Fehler beim ausführen der Aufgabe:java.lang.RuntimeException: java.lang.RuntimeException: org.apache.hadoop.hive.ql.die Metadaten.HiveExceptio Hive-Runtime-Fehler während
1
Antworten
Ich bin neu mit Hadoop, ich habe eine zu importierende Datei in hadoop über die Kommandozeile (ich Zugriff auf die Maschine über SSH) Wie kann ich die Datei importieren in hadoop? Wie kann ich überprüfen, danach (Befehl)?
2
Antworten
Ich bin auf der Suche nach dem besten Ansatz für die Anmeldung in MapReduce-jobs. Ich bin mit mit slf4j log4j-appender, wie in meinem anderen Java-Anwendungen, aber da MapReduce-job ausgeführt wird in einer verteilten Weise über die cluster-weiß
4
Antworten
Wo ist der classpath für hadoop setzen? Wenn ich führen Sie den nachstehenden Befehl gibt mir die classpath. Wo ist der classpath gesetzt? bin/hadoop classpath Ich bin mit hadoop 2.6.0 InformationsquelleAutor Bourne | 2015-02-01
7
Antworten
Ich versuche, mithilfe von Hive(0.13) msck repair table Befehl, um die Partitionen wiederherstellen und es listet nur die Partitionen nicht Hinzugefügt metastore, anstatt Sie zu addieren, um metastore als gut. hier ist die Ausgabe des Befehls partitions
1
Antworten
Ich bin neu in hadoop und ich bin noch nicht vertraut auf seine Konfiguration. Ich möchte nur Fragen, die maximale container pro Knoten. Ich bin mit einem single-node-cluster (6GB ram laptop) und unten ist mein mapred und
3
Antworten
Erstellte ich eine HBase-Tabelle von Bienenstock und ich bin versucht zu tun, eine einfache aggregation auf. Dies ist mein Hive-Abfrage: from my_hbase_table select col1, count(1) group by col1; Die Karte reduzieren job laicht nur 2 Mapper und
6
Antworten
Habe ich installiert hadoop 2.6.0 und ich Spiele mit ihm um. Ich versuche die Pseudo-distributed setup und ich bin nach den Anweisungen auf http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/SingleCluster.html#Execution Ich bin stecken in der 5. Schritt, d.h. wenn ich den Befehl ausführen
2
Antworten
Ich bin ein dummy auf Ubuntu 16.04, die verzweifelt versuchen, Funken zu arbeiten. Ich habe versucht, zu beheben mein problem mit den Antworten hier gefunden auf stackoverflow, aber ich konnte nicht alles beheben. Starten von spark mit
10
Antworten
Ich habe ein multi-node Hadoop Cluster. Der NameNode und die Secondary namenode läuft auf der gleichen Maschine und der cluster nur einen Datanode. Alle Knoten, die konfiguriert sind, die auf Amazon EC2-Maschinen. Folgenden werden die Konfigurations-Dateien auf
1
Antworten
Hadoop defintive guide sagt - Jeder Namenode führt ein leichtes failover-controller Prozess, dessen Aufgabe ist es überwachung der Namenode für Ausfälle (mit einem einfachen heartbeat-Mechanismus) und zum auslösen eines Failovers sollte ein namenode fail. Kommen, wie ein
3
Antworten
Folge ich der Anleitung von michael-noll so weit, aber habe hier hängengeblieben. hduser@ubuntu:/usr/local/hadoop$ bin/hadoop dfs -copyFromLocal /tmp/gutenberg /user/hduser/gutenberg DEPRECATED: Use of this script to execute hdfs command is deprecated. Instead use the hdfs command for it. 13/11/11
10
Antworten
Ich installiert hadoop 2.6.0 in meinen laptop mit Ubuntu 14.04 LTS. Ich nahm erfolgreich an der hadoop daemons laufen start-all.sh und ich einen WourdCount Beispiel erfolgreich, dann habe ich versucht, zum ausführen einer jar-Beispiel, die nicht mit
5
Antworten
Ich versuche zu installieren, die einen einzelnen Knoten einrichten von Hadoop auf Ubuntu. Ich begann nach der Anweisungen, die auf dem Hadoop 2.3 docs. Habe ich aber anscheinend fehlt etwas sehr einfach. Erste, es sagt Um eine
9
Antworten
Ich versuche zu installieren Hadoop 2.2.0 in pseudo-distributed mode. Während ich versuche zu starten, das datanode-Dienste zeigt die folgende Fehlermeldung, kann mir jemand bitte sagen, wie man dieses Problem beheben? **2**014-03-11 08:48:15,916 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Block pool <registering>
7
Antworten
Hadoop ist Konsistent und partition-tolerant, d.h. Es fällt unter die CP der Kategorie der CAP theoram. Hadoop ist nicht verfügbar, da alle Knoten sind abhängig von der name-Knoten. Wenn die name-Knoten, fällt der cluster ausfällt. Aber in
5
Antworten
Ich versuche zu reproduzieren eines Amazon EMR-Clusters auf meiner lokalen Maschine. Für diesen Zweck habe ich installiert die die aktuelle stabile version von Hadoop - 2.6.0. Nun würde ich gerne den Zugriff auf ein S3-bucket, wie ich
3
Antworten
Bin ich vorbei input-und output-Ordner als Parameter, um mapreduce-word-count-Programm aus der Webseite. Immer folgende Fehlermeldung: HTTP Status 500 - Request-Verarbeitung ist fehlgeschlagen; verschachtelte Ausnahme ist java.lang.IllegalArgumentException: AWS Access Key ID und Secret Access Key angegeben werden müssen,
20
Antworten
Ich bin derzeit Konfiguration von hadoop auf einem server mit CentOs. Wenn ich start-dfs.sh oder stop-dfs.shbekomme ich die folgende Fehlermeldung: WARNEN util.NativeCodeLoader: Unable to load native hadoop-Bibliothek für Ihre Plattform... mit dem builtin-java-Klassen gegebenenfalls Ich bin mit
4
Antworten
Den Namenode in der Hadoop-Architektur ist ein single point of failure. Wie gehen Menschen, die haben große Hadoop-Cluster mit diesem problem fertig?. Gibt es eine in der Industrie akzeptierte Lösung, die gut funktioniert hat, wobei eine secondary