Tag: hadoop

Hadoop ist ein Apache open-source-Projekt, bietet eine software für zuverlässiges und skalierbares verteiltes rechnen. Das Projekt selbst umfasst eine Vielzahl von anderen komplementären Ergänzungen.

Exception in thread "main" org.apache.hadoop.mapred.InvalidJobConfException: Ausgabe-Verzeichnis nicht gesetzt

Anzahl der Antworten 1 Antworten
Hey, kann u bitte helfen Sie mir bei der Klärung folgender Fehler ? Ich bekomme wenn ich auf der Mapreduce-job fopr einfügen von Daten in hbase-Tabellen aus hdfs-Dateien. mit HFileOutputFormat.class , früher lief ich den gleichen mit

Wie kann ich hinzufügen neuer Knoten zu einem live-hbase/hadoop-cluster?

Anzahl der Antworten 2 Antworten
Ich einige batch-jobs mit Daten-Eingängen, die sich ständig verändern und ich habe Probleme bei der Bereitstellung der Kapazität. Ich bin mit wirbeln zu tun, die intial setup, aber sobald ich starten, zum Beispiel, 5 Rechner, die ich

Hadoop: Heap-Speicher und gc Probleme

Anzahl der Antworten 1 Antworten
Ich arbeite derzeit an einem Projekt, wo ich brauche, um eine in-memory-Struktur für meine map-Aufgabe. Ich habe einige Berechnungen, und ich kann sagen, dass ich nicht brauchen, mehr als 600 MB Speicher für jeden map-task. Aber die

Hadoop 0.23.9 Wie zu Beginn datanodes

Anzahl der Antworten 3 Antworten
Wie es scheint, ich kann nicht hadoop zu starten, richtig. Ich bin mit hadoop 0.23.9: [msknapp@localhost sbin]$ hadoop namenode -format ... [msknapp@localhost sbin]$ ./start-dfs.sh Starting namenodes on [localhost] localhost: starting namenode, logging to /usr/local/cloud/hadoop-0.23.9/logs/hadoop-msknapp-namenode-localhost.localdomain.out localhost: starting datanode,

Accesing Hive-Tabellen in spark

Anzahl der Antworten 1 Antworten
Habe ich Hive 0.13 installation und eigene Datenbanken. Ich habe spark 1.1.0 einzelnen Knoten cluster gebaut mit mvn -hive-option. Ich möchte den Zugriff auf Tabellen in dieser Datenbank, in der spark-Anwendung mit hivecontext. Aber hivecontext ist immer

Hadoop 0.20.2 Eclipse-plugin nicht vollständig funktioniert - nicht "Laufen auf Hadoop'

Anzahl der Antworten 3 Antworten
Habe ich gerade fertig mit der Installation von Hadoop 0.20.2 unter Cygwin auf Windows 7 mit Eclipse Helios (3.6). Hadoop ist nun vollständig gestartet ist, und ich versuche, führen Sie eine test-Anwendung in eine neu erstellte MapReduce-test-Projekt

Schienen mit Hadoop

Anzahl der Antworten 1 Antworten
Ich große Daten zu speichern, wie corers für Lebensläufe und möchte auf hadoop als back-end . Ist das möglich, es zu benutzen mit ruby on rails oder einfach nur betrachten müssen, die redis oder mongodb. alle Zeiger

Speichern, JSON, HDFS mit python

Anzahl der Antworten 2 Antworten
Habe ich ein python-script, das derzeit greift auf eine API gibt JSON. Es nimmt dann den JSON-string und speichert es als eine Datei auf dem lokalen Dateisystem, auf dem ich dann verschieben Sie Sie in HDFS manuell.

hdfs kopieren von mehreren Dateien auf ein und dasselbe Ziel-Verzeichnis

Anzahl der Antworten 1 Antworten
Habe ich gelernt, dass, wenn Sie möchten, kopieren Sie mehrere Dateien von einem hadoop-Ordner an einen anderen hadoop-Ordner können Sie besser erstellen einer großen "hdfs dfs -cp' - Anweisung mit vielen Komponenten, erstellen, anstatt mehrere hdfs dfs

Was bedeutet CPU-Zeit für einen Hadoop-Job bedeuten?

Anzahl der Antworten 1 Antworten
Ich fürchte, ich verstehe nicht, das timing Ergebnisse eines Map-reduce-job. Zum Beispiel, ein job, den ich verwende gibt mir folgende Ergebnisse aus der job-tracker. Fertig in: 1mins, 39sec CPU-Zeit ausgegeben (ms) 150,460 152,030 302,490 Den Einträgen in

Debugging in der SCHWEINE-UDF

Anzahl der Antworten 2 Antworten
Ich bin neu in Hadoop/PIG. Ich habe eine grundlegende Frage. Haben wir eine Logging-Funktion in der SCHWEINE-UDF? Ich habe geschrieben eine UDF, die ich brauche, um zu überprüfen, Ich anmelden müssen, bestimmte Aussagen zu überprüfen, die fließen.

hadoop datanode startup fail - Falsche Konfiguration: namenode-Adresse dfs.namenode.servicerpc-Adresse oder dfs.namenode.rpc-Adresse ist nicht konfiguriert

Anzahl der Antworten 6 Antworten
Ich versuche zum einrichten von Hadoop-Cluster mit einem namenode und zwei datanodes(slave1 und slave2) also ich habe die zip-Datei aus dem Apache Hadoop und entpackt es in den namenode und eine(slave1) der datanodes. Also machte ich alle

Erstellen einer HIVE-Tabelle zum Lesen von Semikolon getrennten Werte

Anzahl der Antworten 3 Antworten
Möchte ich zum erstellen einer HIVE-Tabelle wird gelesen Semikolon getrennte Werte, aber mein code gibt mir immer Fehler. Hat jemand irgendwelche Vorschläge? CREATE TABLE test_details(Time STRING, Vital STRING, sID STRING) PARTITIONED BY(Country STRING) ROW FORMAT DELIMITED FIELDS

so laden Sie eine Kafka-Thema zu HDFS?

Anzahl der Antworten 2 Antworten
Ich bin mit hortonworks sandbox. erstellen Thema: ./kafka-topics.sh --create --zookeeper 10.25.3.207:2181 --replication-factor 1 --partitions 1 --topic lognew tailing der apache-access-log-Verzeichnis: tail -f /var/log/httpd/access_log |./kafka-console-producer.sh --broker-list 10.25.3.207:6667 --topic lognew An ein anderes terminal (Franz kafka-bin), start consumer -:

Sortieren eine riesige text-Datei mit hadoop

Anzahl der Antworten 3 Antworten
Ist es möglich, zu Sortieren, eine riesige text-Datei lexikographisch mit einem mapreduce-job die einzige Karte, Aufgaben und keine Aufgaben reduzieren? Datensätze der Textdatei getrennt durch ein neue-Zeile-Zeichen und die Größe der Datei ist rund 1 Terra Byte.

Die Kerberos-Authentifizierung auf Hadoop-Clusters

Anzahl der Antworten 1 Antworten
Vorbereitet habe ich ein 2-Knoten cluster mit schlichten apache Hadoop. Dieser Knoten agiert als Kerberos-client zu anderen Maschinen, die als Kerberos-Server. Der KDC-Db, Schulleiter des hdfs auf den einzelnen Maschinen erstellt werden, mit deren kaytab Dateien mit

Hadoop PIG Max von Tupel

Anzahl der Antworten 2 Antworten
Wie finde ich die MAX eines Tupels in Schwein? Mein code sieht wie folgt aus: A,20 B,10 C,40 D,5 data = LOAD 'myData.txt' USING PigStorage(',') AS key, value; all = GROUP data ALL; maxKey = FOREACH all

hdfs-Befehl ist veraltet in hadoop

Anzahl der Antworten 1 Antworten
Als ich bin unten folgenden Verfahren: http://www.codeproject.com/Articles/757934/Apache-Hadoop-for-Windows-Platform https://www.youtube.com/watch?v=VhxWig96dME. Während der Ausführung des Befehls c:/hadoop-2.3.0/bin/hadoop namenode -format bekam ich die Fehlermeldung, die unten gegeben **DEPRECATED:Use of this script to execute hdfs command is deprecated. Instead use the hdfs

Verwirrung über hadoop job-tracker-api

Anzahl der Antworten 1 Antworten
Ich bin versuchen Sie zu sammeln einige Informationen aus dem job-tracker. Für den Anfang würde ich mag, um mit zu beginnen erste Aufträge, die ausgeführt werden Informationen wie job-id, job oder name etc. Aber bereits fest, hier

Probleme mit starten von Oozie-workflow

Anzahl der Antworten 1 Antworten
Ich habe ein problem beim starten einen Oozie-workflow: Config: <workflow-app name="Hive" xmlns="uri:oozie:workflow:0.4"> <start to="Hive"/> <action name="Hive"> <hive xmlns="uri:oozie:hive-action:0.2"> <job-tracker>${jobTracker}</job-tracker> <name-node>${nameNode}</name-node> <configuration> <property> <name>oozie.hive.defaults</name> <value>hive-default.xml</value> </property> </configuration> <script>/user/hue/oozie/workspaces/hive/hive.sql</script> <param>INPUT_TABLE=movieapp_log_json</param> <param>OUTPUT=/user/hue/oozie/workspaces/output</param> <file>hive-default.xml#hive-default.xml</file> </hive> <ok to="end"/> <error to="kill"/> </action> <kill

hbase setzen, um das ersetzen vorhandener Spalte Wert

Anzahl der Antworten 2 Antworten
Möchte ich ersetzen von Inhalt einer Spalte in eine Zeile mit put aber es ist das hinzufügen neuere version der Daten. Habe versucht, hinzufügen von Zeitstempel, aber immer noch einen neuen Wert mit anderen version wird immer

Wie man Metadaten von hive-Tabellen, Spalten, Ansichten, Einschränkung Tasten und Kommentar-Spalten?

Anzahl der Antworten 4 Antworten
Bitte helfen Sie mir, wie Sie Metadaten von hive-Tabellen, Spalten, Ansichten, Einschränkung Tasten und Kommentar-Spalten. Die ich gefunden habe, einfache Abfragen, wie " desc Tabellenname;zeigt databses. Aber ich muss mit Tabellen und Spalten ,Ansichten zu bekommen metedata.

Be-Daten mit Hive, S3, EMR und Partitionen Wiederherstellen

Anzahl der Antworten 1 Antworten
GELÖST: Siehe Update #2 unten für die 'Lösung' dieses Problems. ~~~~~~~ In s3 habe ich einige log*.gz-Dateien gespeichert, die in einer verschachtelten Verzeichnisstruktur wie: s3://($BUCKET)/y=2012/m=11/d=09/H=10/ Ich bin versucht zu laden, diese in die Hive auf " Elastic

Effiziente Speicherung der Daten in Hive

Anzahl der Antworten 1 Antworten
Wie kann ich effizient speichern von Daten in Hive und auch das speichern und abrufen der komprimierten Daten in hive? Derzeit bin ich der Speicherung als Textdatei. Ich wurde durch Bejoy Artikel und ich fand, dass die

Wie man datanode timeout?

Anzahl der Antworten 3 Antworten
Ich habe ein 3 node hadoop-setup, mit dem Replikations-Faktor als 2. Wenn einer meiner datanode stirbt, namenode auf, wartet 10 Minuten, bevor Sie es zu entfernen aus dem live-Knoten. Bis dann meine hdfs schreibt fail sagen schlecht

hbase.MasterNotRunningException beim erstellen der Tabelle in Hbase

Anzahl der Antworten 5 Antworten
ERROR: org.apache.hadoop.hbase.MasterNotRunningException: Retried 7 times Bekam ich diese Fehlermeldung, wenn ich das erstellen der Tabelle in HBase. Ich gebe, wie im folgenden Weg, um die Tabelle zu erstellen, die durch die Verwendung von HBase. Ich geben Sie

Gibt es eine Möglichkeit zum download einer HDFS Datei mit WebHDFS REST-API?

Anzahl der Antworten 1 Antworten
Gibt es eine Möglichkeit, von der kann ich das herunterladen einer Datei aus dem HDFS mit WebHDFS REST-API?Der nächste, den ich erreicht haben, ist die Verwendung der open-operation zum Lesen der Datei und speichern den Inhalt. curl

Wie haben die lzo-Komprimierung in hadoop mapreduce?

Anzahl der Antworten 1 Antworten
Will ich mit lzo komprimieren, die map-Ausgabe, aber ich kann es nicht benutzen! Die version von Hadoop, die ich verwendet ist 0.20.2. Ich: conf.set("mapred.compress.map.output", "true") conf.set("mapred.map.output.compression.codec", "org.apache.hadoop.io.compress.LzoCodec"); Wenn ich die jar-Datei in Hadoop zeigt es eine Ausnahme,

localhost: ERROR: Cannot set priority von datanode-Prozess 32156

Anzahl der Antworten 4 Antworten
Ich versuche zu installieren hadoop auf ubuntu 16.04 aber beim starten des hadoop-es wird mir folgende Fehlermeldung localhost: ERROR: Cannot set priority of datanode process 32156. Starting secondary namenodes [it-OptiPlex-3020] 2017-09-18 21:13:48,343 WARN util.NativeCodeLoader: Unable to load

Gruppe, die von einer generierten Spalte

Anzahl der Antworten 2 Antworten
Ich versuche, die Gruppe Daten von Minuten, also versuchte ich diese Abfrage: SELECT FROM_UNIXTIME( unix_timestamp (time, 'yyyy-mm-dd hh:mm:ss'), 'yyyy-mm-dd hh:mm') as ts, count (*) as cnt from toucher group by ts limit 10; Dann Bienenkorb sagt mir

Url für das HDFS-Dateisystem

Anzahl der Antworten 2 Antworten
Habe ich einige Daten in HDFS /user/Cloudera/Test/*. Ich bin sehr gut in der Lage, um zu sehen, die Datensätze durch ausführen hdfs -dfs -cat Test/*. Nun die gleiche Datei, die ich brauche, es zu Lesen, als der

Fehler in der Struktur : Zugrunde liegende Fehler: org.apache.hadoop.hive.ql.exec.UDFArgumentTypeException: Ein oder mehrere Argumente erwartet

Anzahl der Antworten 4 Antworten
Ich versuche zu übersetzen, einige PL/SQL-Skript im hive, und ich Stand vor einem Fehler eines HiveQL-Skript. Der Fehler ist dieser : FAILED: SemanticException Failed to breakup Windowing invocations into Groups. At least 1 group must only depend

import org.apache kann nicht aufgelöst werden: Eclipse

Anzahl der Antworten 2 Antworten
Hier ist der hintergrund: Ich bin ein Neuling auf Java und Eclipse. Ich bin versucht zu schreiben, eine Map-reduce-Programm. Ich bin nach Tom White ' s Buch: Hadoop - The definitive guide Das problem: Installiert haben, Hadoop,

Unstrukturierte Daten in strukturierte Daten mit Schwein

Anzahl der Antworten 2 Antworten
Ich versuche, die Struktur der un-strukturierte Daten über SCHWEINE, die für machen einige Verarbeitung. Hier ist das Beispiel der Daten: Nov 1 18:23:34 dev_id=03 user_id=000 int_ip=198.0.13.24 ext_ip=68.67.0.14 src_port=99 dest_port=213 response_code=5 Erwartete Ausgabe: Nov 1 18:23:34, 03 ,

Hadoop JAR-Kommando - Einstellung für java.Bibliothek.Pfad

Anzahl der Antworten 2 Antworten
Ich versuche zum ausführen eines java-Programms auf Hadoop-Clusters. Hier ist der Befehl- export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:/usr/local/lib/*:/home/rgupta/bdAnalytics/lib/* hadoop jar $jarpath bigdat.twitter.queue.TweetOMQSub > $logsFldr/subsHdpOMQ_$1.log 2>&1 & #java -Djava.library.path=/usr/local/lib -classpath class/:lib/:lib/jzmq-2.1.3.jar bigdat.twitter.queue.TweetOMQSub > log/subsFilterOMQ_$1.log 2>&1 & Dies wirft folgende Fehler - Exception

HBASE Fehler: FEHLER beim einrichten der proxy-interface org.apache.hadoop.hbase.ipc.HRegionInterface

Anzahl der Antworten 4 Antworten
Ich bin derzeit versuchen zu arbeiten, die auf HDFS und HBASE. Die Hadoop-und HBASE sind ordnungsgemäß auf einem Computer installiert und meine Anwendung läuft perfekt bei der Bereitstellung auf der gleichen Maschine. Aber beim hosten auf einem

Wenn Sie erstellen Sie eine externe Tabelle in Hive mit einer S3 Lage ist, die Daten übertragen?

Anzahl der Antworten 2 Antworten
Beim anlegen einer externen Tabelle in Hive (Hadoop) mit einem Amazon S3 Quelle Lage ist, die Daten übertragen auf die lokalen Hadoop HDFS auf: externe Erstellung der Tabelle wenn bogenlagen (HERR jobs) ausgeführt werden, die auf die

Wie group by mehrere Spalten und transponieren in Hive

Anzahl der Antworten 1 Antworten
Habe ich einige Daten, die ich will für die Gruppierung nach mehreren Spalten, führen Sie eine Aggregatfunktion auf, und dann transponieren in verschiedene Spalten mit Hive. Beispielsweise angesichts dieser Eingang Eingang: hr type value 01 a 10

Fehler beim starten HDFS-daemons auf hadoop Multinode-cluster

Anzahl der Antworten 1 Antworten
Problem bei Hadoop-multi-node-set-up .Sobald ich Meine hdfs-Dämon auf Master - (bin/start-dfs.sh) erfuhr ich unter Protokolle auf Master starting namenode, logging to /home/hduser/hadoop/libexec/../logs/hadoop-hduser-namenode-localhost.localdomain.out slave: Warning: $HADOOP_HOME is deprecated. slave: slave: starting datanode, logging to /home/hduser/hadoop/libexec/../logs/hadoop-hduser-datanode-localhost.localdomain.out master: Warning: $HADOOP_HOME

HIVE-ODBC-connector-Einstellungen

Anzahl der Antworten 2 Antworten
Konfigurierte ich unixodbc zu verwenden, die hive-Anschluss von cloudera, auf meinem Linux Mint Maschine, aber ich bekomme immer wieder die folgende Fehlermeldung beim Versuch, eine Verbindung zu hive (z.B. mit isql -v hive) S1000][unixODBC][Cloudera][ODBC] (11560) Unable to

Prüfung und monitorying Anzahl der gleichzeitigen map/reduce-Aufgaben im GARN

Anzahl der Antworten 3 Antworten
Habe ich ein Hadoop-cluster 2.2 eingesetzt, die auf eine kleine Anzahl von leistungsstarken Maschinen. Ich habe eine Einschränkung zu verwenden GARN als das Gerüst, das ich bin nicht sehr vertraut mit. Wie kontrolliere ich die Anzahl der

MapReduce-job schlägt mit ExitCodeException exit-Code=255

Anzahl der Antworten 2 Antworten
Ich versuche, führen Sie einen MapReduce-job, der erfordert eine shared library (. a.so Datei). Wenn ich die gemeinsame Nutzung der Bibliothek aus einem standalone Java Programm, das ich keine Probleme habe (das Programm verwendet java.Bibliothek.Pfad zu der

hadoop wordcount Unsuppored-Dur.Minor version 51.0 FEHLER

Anzahl der Antworten 2 Antworten
Erstellte ich eine jar-Datei für wordcount in Hadoop 1.1.1 beim laufen die Welt Graf sein gibt mir folgenden Fehler: hduseros@MT2012018:/usr/local/hadoop$ bin/hadoop jar playground/wordcount.jar org.apache.hadoop.examples.WordCount /user/input/playground /user/output1 Exception in thread "main" java.lang.UnsupportedClassVersionError: org/apache/hadoop/examples/WordCount : Unsupported major.minor version 51.0

Nicht-Hadoop-eher ein Netz als ein cluster?

Anzahl der Antworten 1 Antworten
Ich habe gehört, der Begriff "Hadoop-Clusters", aber es scheint zu sein, im Gegensatz zu dem, was mein Verständnis einer "grid" - und "cluster" sind. Meine Verständnis ist, dass ein grid ist ein verteiltes system, bestehend aus 2+

Für langsam veränderliche Dimensionen - SCD1 und SCD2 Umsetzung in Hive

Anzahl der Antworten 5 Antworten
Ich bin auf der Suche nach SCD1 und SCD2 Umsetzung in Struktur (1.2.1). Ich bin mir bewusst, Abhilfe zu laden, SCD1 und SCD2 Tabellen vor zu Hive (0.14). Hier ist der link für das laden von SCD1

Garn : den Automatischen Ausgleich des filecache & usercache

Anzahl der Antworten 2 Antworten
Läuft ein spark-streaming-Arbeit mit Garn als Ressourcen-manager, zu bemerken, dass diese beiden Verzeichnisse sind immer gefüllt, bis auf die Daten der Knoten und wir laufen aus dem Raum, wenn wir laufen nur für paar min ist /tmp/hadoop/data/nm-local-dir/filecache

Eclipse-setup für die Hadoop-Entwicklung

Anzahl der Antworten 2 Antworten
Ich bin mit hadoop 1.0.3-version . Ich versuchte, konfigurieren von hadoop Eclipse Indigo. Aber Es konnte nicht gestartet werden, dfs und zeigte Fehler failed to login. plz mir empfehlen, was ist das problem in map/reduce? edit :

CompressionTest für LZO ausfällt

Anzahl der Antworten 1 Antworten
Ich danke Ihnen für das Lesen meiner post. Ich versuche zu installieren LZO-2.03-Kompressions-codec auf HBase auf meinem server (mit Xeon Prozessoren). Ich bin aktuell Laufenden Hadoop-0.20.1 mit HBase 0.90.2. Habe ich ja befolgt die Richtlinien von http://wiki.apache.org/hadoop/UsingLzoCompression.

Lesen und Schreiben von CSV-Dateien in eine hadoop-Anwendung

Anzahl der Antworten 1 Antworten
Ich verarbeiten muss, benutzerdefinierte csv-Dateien als Eingabe und schreiben von csv-Dateien zurück auf das HDFS. Kann ich dies direkt innerhalb der Karte zu reduzieren-Klasse, wo die eigentliche aufgestellt? Zur Bearbeitung der csv-Dateien, ich bin mit opencsv library.

java.io.IOException: Initialisierung aller Sammler ist fehlgeschlagen. Fehler im letzten Kollektors war :null

Anzahl der Antworten 2 Antworten
Ich bin ein Neuling in MapReduce und ich bin auf der Suche nach einer Lösung für ein problem.Ich versuche, mich an die Kette zwei Karte reduzieren Arbeitsplätze.Der erste job wird immer ausgeführt, aber auf dem zweiten job,