Tag: cloudera

Cloudera Inc. ist ein Palo Alto-basierte enterprise-software-Unternehmen, das bietet Apache-Hadoop-basierte software und Dienstleistungen.

Sortieren eine riesige text-Datei mit hadoop

Anzahl der Antworten 3 Antworten
Ist es möglich, zu Sortieren, eine riesige text-Datei lexikographisch mit einem mapreduce-job die einzige Karte, Aufgaben und keine Aufgaben reduzieren? Datensätze der Textdatei getrennt durch ein neue-Zeile-Zeichen und die Größe der Datei ist rund 1 Terra Byte.

Url für das HDFS-Dateisystem

Anzahl der Antworten 2 Antworten
Habe ich einige Daten in HDFS /user/Cloudera/Test/*. Ich bin sehr gut in der Lage, um zu sehen, die Datensätze durch ausführen hdfs -dfs -cat Test/*. Nun die gleiche Datei, die ich brauche, es zu Lesen, als der

HIVE-ODBC-connector-Einstellungen

Anzahl der Antworten 2 Antworten
Konfigurierte ich unixodbc zu verwenden, die hive-Anschluss von cloudera, auf meinem Linux Mint Maschine, aber ich bekomme immer wieder die folgende Fehlermeldung beim Versuch, eine Verbindung zu hive (z.B. mit isql -v hive) S1000][unixODBC][Cloudera][ODBC] (11560) Unable to

hadoop-plugin für eclipse

Anzahl der Antworten 1 Antworten
Habe ich heruntergeladen und die setup-hadoop-cdh3u2 von cloudera. in hadoop-0.20.2-cdh3u2/src/contrib fand ich ein Projekt namens "eclipse-plugin", und ich importierte es in eclipse, habe Fehler, und fügte hinzu, hadoop-core.jar runenverzierte als eclipse-Anwendung, aber ich kann nicht fügen Sie

Filtern von input-Dateien mit globStatus in MapReduce

Anzahl der Antworten 2 Antworten
Ich habe eine Menge von input-Dateien und die möchte ich verarbeiten ausgewählte Elemente basierend auf dem Datum, das angefügt wurde, in das Ende. Ich bin jetzt verwirrt, wo muss ich die globStatus Methode zum filtern der Dateien.

Wie Automatisieren Von Hadoop-Trash Cleanup

Anzahl der Antworten 1 Antworten
Kann ich klar Papierkorb unter meinem user-Ordner durch ausführen hadoop fs -expunge Dies ruft entfernen von Dateien, die älter sind als die fs.trash.interval Wert. Gibt es eine für expunge automatisch geschehen, sich zu erholen Festplattenspeicher? Außerdem sehe

Ausgabe des oozie während dem Start job

Anzahl der Antworten 3 Antworten
Den Befehl : oozie job -oozie http://localhost:8080/oozie -config /home/hadoop/Desktop/Cloudera/oozie-2.3.0-cdh3u1/examples/apps/no-op/job.properties -run Fehlermeldung: Error: IO_ERROR : java.net.ConnectException: Connection refused Ist die oozie-Dienst ausgeführt? Ja oozie-Dienst ausgeführt wird . $ oozie admin -oozie localhost:11000/oozie -status im System-Modus: NORMAL $ oozie

Erstellen Von Hive-Metastore-Datenbank-Tabellen-Fehler

Anzahl der Antworten 2 Antworten
Ich bin durch den Cloudera Manager (free edition), und ich den Punkt erreicht, wo die Assistenten ist das erstellen der Hive-Metastore-Datenbank. Dieser Fehler wird angezeigt und Stoppt den Konfigurationsprozess. Verwendung von /var/run/cloudera-scm-agent/Prozess - /40-hive-metastore-erstellen-Tabellen/hadoop-conf als HADOOP_CONF_DIR Ich

Hadoop: die falschen classpath in map reduzieren-job

Anzahl der Antworten 2 Antworten
Bin ich mit einem cloudera-cluster in 3 virtuelle digitalwax Maschinen und versuchen, auszuführen hbase bulk-Ladung über eine Karte, reduzieren den job. Aber ich bekam immer die Fehlermeldung: error: Class org.apache.hadoop.hbase.mapreduce.HFileOutputFormat not found So, es scheint, dass die

Der Zugriff auf HBase läuft in einer VM von einem client auf dem host-system

Anzahl der Antworten 3 Antworten
Ich versuche zu schreiben, einige Daten in hbase mit einem client-Programm HBase @ Hadoop läuft in einer vorkonfigurierten VM von Cloudera @ ubuntu. Dem Client läuft auf dem system-hosting die VM und läuft der client auch direkt

Wie zu beheben 'Datei konnte nur repliziert werden zu 0-Knoten, statt 1' in hadoop?

Anzahl der Antworten 3 Antworten
Habe ich eine einfache hadoop-job crawlt Webseiten und speichert Sie auf dem HDFS. Der mapper prüft, ob eine URL bereits vorhanden ist, in das HDFS und wenn ja, verwendet es sonst lädt die Seite und speichert Sie

Die logs erscheint nicht in der Konsole :( [Hadoop Frage]

Anzahl der Antworten 3 Antworten
Ich versuche zu Debuggen, das WordCount Beispiel Cloudera Hadoop aber ich kann nicht. Ich habe protokolliert die mapper-und reducer-Klasse, aber in der Konsole nicht angezeigt und das log. Lege ich die Bilder. Im ersten Bild, die Java-logs.

Garn ist nicht Ehren-Garn.nodemanager.Ressource.cpu-vcores

Anzahl der Antworten 1 Antworten
Ich bin mit Hadoop-2.4.0 und mein system configs sind 24 cores, 96 GB RAM. Ich bin mit folgenden configs mapreduce.map.cpu.vcores=1 yarn.nodemanager.resource.cpu-vcores=10 yarn.scheduler.minimum-allocation-vcores=1 yarn.scheduler.maximum-allocation-vcores=4 yarn.app.mapreduce.am.resource.cpu-vcores=1 yarn.nodemanager.resource.memory-mb=88064 mapreduce.map.memory.mb=3072 mapreduce.map.java.opts=-Xmx2048m Kapazität Scheduler configs queue.default.capacity=50 queue.default.maximum_capacity=100 yarn.scheduler.capacity.root.default.user-limit-factor=2 Mit den oben genannten

Hadoop, Web-Authentifizierung mit Kerberos

Anzahl der Antworten 1 Antworten
Ich konfiguriert hadoop verwenden von kerberos, funktioniert alles, ich kann surfen hdfs, jobs, etc. Aber fehlgeschlagen http-Authentifizierung. Ich benutze hadoop-0.20.2 in cdh3u2, die unterstützt HTTP SPNEGO. HTTP-Authentifizierung Verwandte Konfigurationen in core-site.xml sind wie folgt: <!-- HTTP web-consoles

Mit Sturm in Cloudera

Anzahl der Antworten 5 Antworten
Bin ich auf der Suche zu verwenden, Sturm ist mit Hortonworks 2.1 installation aber, um zu vermeiden, installieren Hortonworks zusätzlich zu einem Cloudera-installation (hat Funken), ich versuchte, einen Weg finden, um Sturm in Cloudera. Wenn man kann

Error creating temp dir in hadoop.tmp.dir /tmp/hadoop-sha aufgrund Permission denied

Anzahl der Antworten 1 Antworten
Bekam ich folgende Fehlermeldung, wenn ich lief meine java-Karte reduzieren-code auf hadoop-cluster: -sh-3.2$ hadoop jar PearsonSim1.jar PearsonSim.PearsonDriver1 /user/sha/data/rating_sample_item /user/sha/cf/PearsonSim1 "Error creating temp dir in hadoop.tmp.dir /tmp/hadoop-sha aufgrund Permission denied" Hat jemand begegnete, ein solches problem vor? Ich

Reparatur HBase-Tabelle (nicht zugewiesene region in transition)

Anzahl der Antworten 7 Antworten
Ich bin ein bisschen stecken die Reparatur eines Defekten Tabelle (auf Hbase 0.92.1-cdh4.0.0, Hadoop 2.0.0-cdh4.0.0) Gibt es eine region im Wandel, die nicht abgeschlossen: Region State bf2025f4bc154914b5942af4e72ea063 counter_traces,1329773878.35_766a0b4df75e4381a686fbc07db9e333,1339425291230.bf2025f4bc154914b5942af4e72ea063. state=OFFLINE, ts=Tue Jun 12 11:43:53 CEST 2012 (0s ago),

Wie planen Hadoop-Map-Aufgaben, die in den multi-core-8 Knoten-cluster?

Anzahl der Antworten 3 Antworten
Habe ich eine "map-only" (keine Verringerung phase) Programm. Die Größe der input-Datei ist groß genug, um 7 anzeigen Aufgaben, und ich habe überprüft, dass durch den Blick auf die erzeugten (Teil-000 bis part006) . Nun, mein cluster

Kann nicht initialisieren-Cluster. Bitte überprüfen Sie Ihre Konfiguration für mapreduce.Rahmen.Namen und die entsprechen-server-Adressen-bezwingend job2remoteClustr

Anzahl der Antworten 6 Antworten
Habe ich vor kurzem aktualisiert meine cluster von Apache Hadoop1.0 bis CDH4.4.0. Ich habe einen weblogic-server in einer anderen Maschine, wo ich die übergabe von jobs an das remote-cluster über mapreduce-client. Ich will noch verwenden MR1 und

In Hadoop-wo kommt das framework speichern Sie die Ausgabe der Map-Aufgabe in eine normalen-Map-Reduce-Anwendung?

Anzahl der Antworten 3 Antworten
Ich versuche, herauszufinden, wo kommt die Ausgabe einer Map-Aufgabe auf der Festplatte gespeichert werden, bevor es verwendet werden kann, durch eine Verringerung Aufgabe. Hinweis: - version verwendet wird, ist Hadoop 0.20.204 mit der neuen API Beispielsweise beim

AM Container läuft über den virtuellen Speicher begrenzt

Anzahl der Antworten 6 Antworten
Ich spielte mit verteilten shell-Anwendung (hadoop-Version 2.0.0-cdh4.1.2). Dies ist der Fehler, ich erhalte im moment. 13/01/01 17:09:09 INFO distributedshell.Client: Got application report from ASM for, appId=5, clientToken=null, appDiagnostics=Application application_1357039792045_0005 failed 1 times due to AM Container for

hdfs - ls: Fehler beim lokalen Ausnahme: com.google.protobuf.InvalidProtocolBufferException:

Anzahl der Antworten 7 Antworten
Ich bin versucht, die unten auf der Liste meiner dirs in hdfs: ubuntu@ubuntu:~$ hadoop fs -ls hdfs://127.0.0.1:50075/ ls: Failed on local exception: com.google.protobuf.InvalidProtocolBufferException: Protocol message end-group tag did not match expected tag.; Host Details : local host

Herstellen einer JDBC-Verbindung zu Hive aus Eclipse

Anzahl der Antworten 1 Antworten
Ich versuche zum herstellen einer JDBC-Verbindung zu Hive, so dass ich kann anzeigen und Tabellen erstellen und Abfragen von Hive-Tabellen von Eclipse. Ich verwendet HiveClient Beispielcode: https://cwiki.apache.org/confluence/display/Hive/HiveClient Dann fügte ich alle erforderlichen jar-Dateien zum java build path

Kann keine Verbindung zu Cloudera Manager, hört nicht auf port 7180

Anzahl der Antworten 5 Antworten
Ich würde wirklich zu schätzen einige Hilfe zu bekommen, cloudera manager läuft auf AWS EC2. Es ist meine erste Installation und ich bin mit dem Ziel zu nutzen, die das Kostenlose Kontingent für AWS zu drehen, ein

[Simba][ImpalaJDBCDriver](500051) FEHLER bei der Verarbeitung (Abfrage/statement

Anzahl der Antworten 2 Antworten
Bin ich immer die folgende Fehlermeldung beim ausführen von Abfragen für eine Datenbank im impala. Mit anderen Datenbanken seine Arbeitsmethoden in Ordnung. Fehler-trace ist wie folgt. [Simba][ImpalaJDBCDriver](500051) ERROR processing query/statement. Error Code: select * from test_table limit

Habe InterruptedException während der Ausführung von word count mapreduce-job

Anzahl der Antworten 2 Antworten
Habe ich installiert Cloudera VM version 5.8 auf meinem Rechner. Wenn ich führen word count mapreduce-job, wirft es unten Ausnahme. `16/09/06 06:55:49 WARN hdfs.DFSClient: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1281) at java.lang.Thread.join(Thread.java:1355) at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.closeResponder(DFSOutputStream.java:862) at

Wo sind die hadoop-Beispiele* und hadoop-test* Gläser in Cloudera CDH?

Anzahl der Antworten 6 Antworten
Ich bin auf der Suche nach den jar-Dateien ausführen zu können, die hadoop-jobs im Zusammenhang mit der Beispiele und test-Gläser. In der Vergangenheit waren Sie unter /usr/lib/hadoop, aber anscheinend nicht mehr. Zeiger geschätzt. Hinweis: diese Frage wurde

Wie zum ausführen von HBase shell für eine remote-cluster

Anzahl der Antworten 3 Antworten
Ich bin mit HBase in pseudo-distributed mode auf meiner workstation. Wir haben auch HBase in einem cluster ausgeführt. Mit der HBase shell, ich möchte den Zugriff auf die HBase-Instanz, die die im cluster ausgeführt von meiner workstation.

Die Ausführung von java-hadoop-job auf local/remote cluster

Anzahl der Antworten 3 Antworten
Ich versuche zum ausführen von hadoop-Jobs auf local/remote-cluster. Dieser job wird in Zukunft ausgeführt werden, die von web-Anwendung. Ich versuche, führen Sie dieses Stück code von eclipse: public class TestHadoop { private final static String host =

Wie ein ORC Datei in Hive-CDH?

Anzahl der Antworten 1 Antworten
Ich kann einfach erzeugen ein ORC Datei-format von Apache Hadoop oder Hortonworks' HDP: CREATE TABLE ... STORED AS ORC Aber dies funktioniert nicht Cloudera ' s die CDH 4.5. (Überraschung!) Ich: FEHLGESCHLAGEN: SemanticException Unbekannte Datei-format GESPEICHERT Klausel:

Impala: Show tables like Abfrage

Anzahl der Antworten 2 Antworten
Arbeite ich mit Impala und das abrufen der Liste der Tabellen aus der Datenbank mit einige Muster wie unten. Angenommen ich habe eine Datenbank bank und Tabellen unter dieser Datenbank sind wie unten. cust_profile cust_quarter1_transaction cust_quarter2_transaction product_cust_xyz

Farbton WEB-UI nicht laden im browser

Anzahl der Antworten 1 Antworten
Ich habe eine Hue-installation auf meinem lokalen Rechner und der browser lädt Farbton WEB UI sehr gut in den browser, wenn ich geben Sie die URL 10.20.30.40:8888 in meinem browser. Wenn ich das gleiche tun für eine

JsonParseException: Unrecognized token 'http': erwartete ('true', 'false' oder 'null')

Anzahl der Antworten 3 Antworten
Wir haben die folgenden Zeichenkette, die ein gültiges JSON in eine Datei geschrieben, die auf HDFS. { "id":"tag:search.twitter.com,2005:564407444843950080", "objectType":"activity", "actor":{ "objectType":"person", "id":"id:twitter.com:2302910022", "link":"http%3A%2F%2Fwww.twitter.com%2Fme7me4610012", "displayName":"", "postedTime":"2014-01-21T11:06:06.000Z", "image":"https%3A%2F%2Fpbs.twimg.com%2Fprofile_images%2F563125491159162881%2FfypkHK3M_normal.jpeg", "summary":"‏‏‏‏‏‏‏‏ضًـأّيِّعٌهّ أّروٌأّحًنِأّ تٌـشُـتٌـهّـيِّ مًنِ يِّفُـهّـمًهّـأّ فُـقُط حسابي بالإنستقرام lloooo_20", "links":[ {

was bedeutet "Aufgetreten:" <EOF> nach : "" " bedeuten, mit Schwein

Anzahl der Antworten 1 Antworten
Ich bin ein Anfänger auf Hadoop und Pig. Ich untersuchte am Beispiel erwies sich in cloudera virtuelle Bild, und modefied es zählen Top-5-häufige Wörter: Lines = LOAD '/user/hue/pig/examples/data/midsummer.txt' as (line:CHARARRAY); Words = FOREACH Lines GENERATE FLATTEN(TOKENIZE(line)) AS

HBase master nicht mit "Connetion Refused" Fehler

Anzahl der Antworten 2 Antworten
Dies geschieht in pseudo-verteilten sowie verteilten Modus. Wenn ich versuche zu starten, HBase, zunächst alle 3-Dienste - master, region und quorumpeer starten. Doch innerhalb einer minute, der master nicht. In den logs, das ist der trace -

CDH 4.1: Fehler ausführen Kind : java.lang.OutOfMemoryError: Java heap space

Anzahl der Antworten 2 Antworten
Ich habe versucht, Sie zu überwinden plötzliches problem. Befor das problem, das ich habe alte VM. Ich heruntergeladen habe die neue VM und kann immer noch nicht meinen Auftrag ausgeführt. Ich bekomme Java heap space Fehler. Ich

Brauche Hilfe mit dem laufen des WordCount.java zur Verfügung gestellt von Cloudera

Anzahl der Antworten 6 Antworten
Hey Leute also ich versuche zu laufen, die WordCount.java Beispiel bereitgestellt von cloudera. Ich lief den folgenden Befehl ein, und bin immer die Ausnahme, ich habe unten den Befehl. Also, habt Ihr irgendwelche Vorschläge, wie zu Verfahren

Wie, um die Konfiguration in Hive-Site.xml Datei für den hive-metastore-Verbindung?

Anzahl der Antworten 2 Antworten
Möchte ich schließen MetaStore mit dem java-code. Ich habe keine Ahnung, wie set-Konfiguration Einstellung in Hive-Site.xml Datei und wo poste ich den Hive-Site.xml Datei. Bitte helfen Sie. import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; import org.apache.hadoop.fs.Path;

Hive-verbindungen zu MySQL: Access denied for user 'hive'@'localhost' hive

Anzahl der Antworten 2 Antworten
Ich bin einrichten von Hive auf CentOS, und ich installiert haben, hadoop, hive und MySQL auf dem gleichen server. Ich habe auch setup-metastore-DB auf mySQL und Benutzer-ID - hive-Zugriff auf die Datenbank hat. Habe ich die unten

hadoop-Benutzer die Datei-Berechtigungen

Anzahl der Antworten 2 Antworten
ich habe ein problem bei der Einstellung von hadoop-Datei Berechtigungen in hortonworks und cloudera. Meine Forderung ist: 1. create a new user with new group 2. create user directory in hdfs ( ex. /user/myuser ) 3. Now

Ungültige URI für den NameNode-Adresse

Anzahl der Antworten 4 Antworten
Ich versuche zum einrichten einer Cloudera Hadoop-cluster mit einem master-Knoten enthält die namenode, secondarynamenode und jobtracker, und zwei andere Knoten mit der datanode und tasktracker. Die Cloudera version 4.6, OS ist ubuntu precise x64. Auch dieser cluster

Cloudera Manager installation failed to receive heartbeat von agent - hinzufügen von neuen hosts, cluster

Anzahl der Antworten 4 Antworten
Ich versuche zu installieren auf Ubuntu 12.04.1 LTS der cloudera manager mit Hilfe von standard-version und, wenn ich hinzufügen neuer host bekomme ich den nächsten Fehler: Installation failed.Failed to receive heartbeat from agent. Ensure that the host's

Handling Fehler: interface org.apache.hadoop.mapreduce.TaskAttemptContext, aber die Klasse war zu erwarten

Anzahl der Antworten 2 Antworten
Ich bin mit CDH4 und geschrieben haben, eine MapReduce-Anwendung mit dem neuen mapreduce API. Ich habe es kompiliert gegen hadoop-core-1.0.3.jar und wenn ich es auf meinem Hadoop-cluster erhalte ich die Fehlermeldung: Fehler: interface org.apache.hadoop.mapreduce.TaskAttemptContext, aber Klasse wurde

org.apache.hadoop.conf.Konfiguration nicht vorhanden ist hadoop-core.jar

Anzahl der Antworten 1 Antworten
Ich Schreibe eine HBase-client in Java. Die erste Zeile, coz, sieht wie folgt aus: import org.apache.hadoop.conf.Konfiguration; Ich bin mit Cloudera CDH4.3.1, so dass die Paket-Versionen werden sollte: hadoop-2.0.0+1367 hbase-0.94.6+106 ==Aktualisiert== meine pom.xml sieht wie folgt aus: <dependency>

Schnellste Weg, um das setup Hadoop-cluster mithilfe von Cloudera

Anzahl der Antworten 1 Antworten
Benötigen hier etwas Hilfe Jungs. Ich bin neu in Hadoop und ich brauche die Einrichtung eines Hadoop-Clusters schnell mit windows-Rechnern. Ich bin mir bewusst, dass ich verwenden können, Cloudera, aber ich habe mich nur gefragt, statt den

HDFS Unter repliziert Blöcke

Anzahl der Antworten 6 Antworten
Ich bin mit Cloudera Manager Free Edition auf meinem "Cluster" mit allen Diensten auf meinem Rechner. Meine Maschine fungiert als datanode,namenode sowie die sekundären namenode. Einstellungen in HDFS Bezug auf Replikation, dfs.replication - 1 dfs.replication.min, dfs.namenode.replication.min -

Konfigurieren der hosts-Datei für Hadoop-ökosystem

Anzahl der Antworten 3 Antworten
![enter Bild Beschreibung hier][1]Die Frage mag ziemlich offensichtlich, aber ich habe vor es viele Zeiten, durch schlechte Konfiguration der hosts-Datei auf einem hadoop-cluster. Kann mir jemand beschreiben, wie man setup-hosts-Datei und andere zugehörige Netzwerk-Konfiguration für hadoop und

Shell-Skript durch oozie

Anzahl der Antworten 2 Antworten
Ich versuche das ausführen einer shell-Skript durch oozie aber ich habe einige Fragen. Ich habe eine property-Datei wie diese ("importieren".Eigenschaften): startIndex=2000 chunkSize=2000 Die Idee ist, in jeder einzelnen Ausführung, die startIndex-Wert wird aktualisiert, indem Sie die chunk-Größe.

Ändern Hive-Datenbank Lage

Anzahl der Antworten 1 Antworten
Gibt es eine Möglichkeit das zu ändern und den Speicherort einer Datenbank Punkte? Ich habe versucht, die folgenden Möglichkeiten: alter database <my_db> set DBPROPERTIES('hive.warehouse.dir'='<new_hdfs_loc>'); alter database <my_db> set DBPROPERTIES('location'='<new_hdfs_loc>'); alter database <my_db> set location '<new_hdfs_loc>'; Den ersten

cdh4 hadoop-hbase PriviledgedActionException:hdfs (auth:EINFACHE) Ursache:java.io.FileNotFoundException

Anzahl der Antworten 2 Antworten
Habe ich installiert cloudera cdh4 release Und ich bin versucht, führen Sie den mapreduce-job auf. Ich bin immer folgende Fehlermeldung --> 2012-07-09 15:41:16 ZooKeeperSaslClient [INFO] Client will not SASL-authenticate because the default JAAS configuration section 'Client' could