Tag: cloudera
Cloudera Inc. ist ein Palo Alto-basierte enterprise-software-Unternehmen, das bietet Apache-Hadoop-basierte software und Dienstleistungen.
3
Antworten
Ist es möglich, zu Sortieren, eine riesige text-Datei lexikographisch mit einem mapreduce-job die einzige Karte, Aufgaben und keine Aufgaben reduzieren? Datensätze der Textdatei getrennt durch ein neue-Zeile-Zeichen und die Größe der Datei ist rund 1 Terra Byte.
2
Antworten
Habe ich einige Daten in HDFS /user/Cloudera/Test/*. Ich bin sehr gut in der Lage, um zu sehen, die Datensätze durch ausführen hdfs -dfs -cat Test/*. Nun die gleiche Datei, die ich brauche, es zu Lesen, als der
2
Antworten
Konfigurierte ich unixodbc zu verwenden, die hive-Anschluss von cloudera, auf meinem Linux Mint Maschine, aber ich bekomme immer wieder die folgende Fehlermeldung beim Versuch, eine Verbindung zu hive (z.B. mit isql -v hive) S1000][unixODBC][Cloudera][ODBC] (11560) Unable to
1
Antworten
Habe ich heruntergeladen und die setup-hadoop-cdh3u2 von cloudera. in hadoop-0.20.2-cdh3u2/src/contrib fand ich ein Projekt namens "eclipse-plugin", und ich importierte es in eclipse, habe Fehler, und fügte hinzu, hadoop-core.jar runenverzierte als eclipse-Anwendung, aber ich kann nicht fügen Sie
2
Antworten
Ich habe eine Menge von input-Dateien und die möchte ich verarbeiten ausgewählte Elemente basierend auf dem Datum, das angefügt wurde, in das Ende. Ich bin jetzt verwirrt, wo muss ich die globStatus Methode zum filtern der Dateien.
1
Antworten
Kann ich klar Papierkorb unter meinem user-Ordner durch ausführen hadoop fs -expunge Dies ruft entfernen von Dateien, die älter sind als die fs.trash.interval Wert. Gibt es eine für expunge automatisch geschehen, sich zu erholen Festplattenspeicher? Außerdem sehe
3
Antworten
Den Befehl : oozie job -oozie http://localhost:8080/oozie -config /home/hadoop/Desktop/Cloudera/oozie-2.3.0-cdh3u1/examples/apps/no-op/job.properties -run Fehlermeldung: Error: IO_ERROR : java.net.ConnectException: Connection refused Ist die oozie-Dienst ausgeführt? Ja oozie-Dienst ausgeführt wird . $ oozie admin -oozie localhost:11000/oozie -status im System-Modus: NORMAL $ oozie
2
Antworten
Ich bin durch den Cloudera Manager (free edition), und ich den Punkt erreicht, wo die Assistenten ist das erstellen der Hive-Metastore-Datenbank. Dieser Fehler wird angezeigt und Stoppt den Konfigurationsprozess. Verwendung von /var/run/cloudera-scm-agent/Prozess - /40-hive-metastore-erstellen-Tabellen/hadoop-conf als HADOOP_CONF_DIR Ich
2
Antworten
Bin ich mit einem cloudera-cluster in 3 virtuelle digitalwax Maschinen und versuchen, auszuführen hbase bulk-Ladung über eine Karte, reduzieren den job. Aber ich bekam immer die Fehlermeldung: error: Class org.apache.hadoop.hbase.mapreduce.HFileOutputFormat not found So, es scheint, dass die
3
Antworten
Ich versuche zu schreiben, einige Daten in hbase mit einem client-Programm HBase @ Hadoop läuft in einer vorkonfigurierten VM von Cloudera @ ubuntu. Dem Client läuft auf dem system-hosting die VM und läuft der client auch direkt
3
Antworten
Habe ich eine einfache hadoop-job crawlt Webseiten und speichert Sie auf dem HDFS. Der mapper prüft, ob eine URL bereits vorhanden ist, in das HDFS und wenn ja, verwendet es sonst lädt die Seite und speichert Sie
3
Antworten
Ich versuche zu Debuggen, das WordCount Beispiel Cloudera Hadoop aber ich kann nicht. Ich habe protokolliert die mapper-und reducer-Klasse, aber in der Konsole nicht angezeigt und das log. Lege ich die Bilder. Im ersten Bild, die Java-logs.
1
Antworten
Ich bin mit Hadoop-2.4.0 und mein system configs sind 24 cores, 96 GB RAM. Ich bin mit folgenden configs mapreduce.map.cpu.vcores=1 yarn.nodemanager.resource.cpu-vcores=10 yarn.scheduler.minimum-allocation-vcores=1 yarn.scheduler.maximum-allocation-vcores=4 yarn.app.mapreduce.am.resource.cpu-vcores=1 yarn.nodemanager.resource.memory-mb=88064 mapreduce.map.memory.mb=3072 mapreduce.map.java.opts=-Xmx2048m Kapazität Scheduler configs queue.default.capacity=50 queue.default.maximum_capacity=100 yarn.scheduler.capacity.root.default.user-limit-factor=2 Mit den oben genannten
1
Antworten
Ich konfiguriert hadoop verwenden von kerberos, funktioniert alles, ich kann surfen hdfs, jobs, etc. Aber fehlgeschlagen http-Authentifizierung. Ich benutze hadoop-0.20.2 in cdh3u2, die unterstützt HTTP SPNEGO. HTTP-Authentifizierung Verwandte Konfigurationen in core-site.xml sind wie folgt: <!-- HTTP web-consoles
5
Antworten
Bin ich auf der Suche zu verwenden, Sturm ist mit Hortonworks 2.1 installation aber, um zu vermeiden, installieren Hortonworks zusätzlich zu einem Cloudera-installation (hat Funken), ich versuchte, einen Weg finden, um Sturm in Cloudera. Wenn man kann
1
Antworten
Bekam ich folgende Fehlermeldung, wenn ich lief meine java-Karte reduzieren-code auf hadoop-cluster: -sh-3.2$ hadoop jar PearsonSim1.jar PearsonSim.PearsonDriver1 /user/sha/data/rating_sample_item /user/sha/cf/PearsonSim1 "Error creating temp dir in hadoop.tmp.dir /tmp/hadoop-sha aufgrund Permission denied" Hat jemand begegnete, ein solches problem vor? Ich
7
Antworten
Ich bin ein bisschen stecken die Reparatur eines Defekten Tabelle (auf Hbase 0.92.1-cdh4.0.0, Hadoop 2.0.0-cdh4.0.0) Gibt es eine region im Wandel, die nicht abgeschlossen: Region State bf2025f4bc154914b5942af4e72ea063 counter_traces,1329773878.35_766a0b4df75e4381a686fbc07db9e333,1339425291230.bf2025f4bc154914b5942af4e72ea063. state=OFFLINE, ts=Tue Jun 12 11:43:53 CEST 2012 (0s ago),
3
Antworten
Habe ich eine "map-only" (keine Verringerung phase) Programm. Die Größe der input-Datei ist groß genug, um 7 anzeigen Aufgaben, und ich habe überprüft, dass durch den Blick auf die erzeugten (Teil-000 bis part006) . Nun, mein cluster
6
Antworten
Habe ich vor kurzem aktualisiert meine cluster von Apache Hadoop1.0 bis CDH4.4.0. Ich habe einen weblogic-server in einer anderen Maschine, wo ich die übergabe von jobs an das remote-cluster über mapreduce-client. Ich will noch verwenden MR1 und
3
Antworten
Ich versuche, herauszufinden, wo kommt die Ausgabe einer Map-Aufgabe auf der Festplatte gespeichert werden, bevor es verwendet werden kann, durch eine Verringerung Aufgabe. Hinweis: - version verwendet wird, ist Hadoop 0.20.204 mit der neuen API Beispielsweise beim
6
Antworten
Ich spielte mit verteilten shell-Anwendung (hadoop-Version 2.0.0-cdh4.1.2). Dies ist der Fehler, ich erhalte im moment. 13/01/01 17:09:09 INFO distributedshell.Client: Got application report from ASM for, appId=5, clientToken=null, appDiagnostics=Application application_1357039792045_0005 failed 1 times due to AM Container for
7
Antworten
Ich bin versucht, die unten auf der Liste meiner dirs in hdfs: ubuntu@ubuntu:~$ hadoop fs -ls hdfs://127.0.0.1:50075/ ls: Failed on local exception: com.google.protobuf.InvalidProtocolBufferException: Protocol message end-group tag did not match expected tag.; Host Details : local host
1
Antworten
Ich versuche zum herstellen einer JDBC-Verbindung zu Hive, so dass ich kann anzeigen und Tabellen erstellen und Abfragen von Hive-Tabellen von Eclipse. Ich verwendet HiveClient Beispielcode: https://cwiki.apache.org/confluence/display/Hive/HiveClient Dann fügte ich alle erforderlichen jar-Dateien zum java build path
5
Antworten
Ich würde wirklich zu schätzen einige Hilfe zu bekommen, cloudera manager läuft auf AWS EC2. Es ist meine erste Installation und ich bin mit dem Ziel zu nutzen, die das Kostenlose Kontingent für AWS zu drehen, ein
2
Antworten
Bin ich immer die folgende Fehlermeldung beim ausführen von Abfragen für eine Datenbank im impala. Mit anderen Datenbanken seine Arbeitsmethoden in Ordnung. Fehler-trace ist wie folgt. [Simba][ImpalaJDBCDriver](500051) ERROR processing query/statement. Error Code: select * from test_table limit
2
Antworten
Habe ich installiert Cloudera VM version 5.8 auf meinem Rechner. Wenn ich führen word count mapreduce-job, wirft es unten Ausnahme. `16/09/06 06:55:49 WARN hdfs.DFSClient: Caught exception java.lang.InterruptedException at java.lang.Object.wait(Native Method) at java.lang.Thread.join(Thread.java:1281) at java.lang.Thread.join(Thread.java:1355) at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.closeResponder(DFSOutputStream.java:862) at
6
Antworten
Ich bin auf der Suche nach den jar-Dateien ausführen zu können, die hadoop-jobs im Zusammenhang mit der Beispiele und test-Gläser. In der Vergangenheit waren Sie unter /usr/lib/hadoop, aber anscheinend nicht mehr. Zeiger geschätzt. Hinweis: diese Frage wurde
3
Antworten
Ich bin mit HBase in pseudo-distributed mode auf meiner workstation. Wir haben auch HBase in einem cluster ausgeführt. Mit der HBase shell, ich möchte den Zugriff auf die HBase-Instanz, die die im cluster ausgeführt von meiner workstation.
3
Antworten
Ich versuche zum ausführen von hadoop-Jobs auf local/remote-cluster. Dieser job wird in Zukunft ausgeführt werden, die von web-Anwendung. Ich versuche, führen Sie dieses Stück code von eclipse: public class TestHadoop { private final static String host =
1
Antworten
Ich kann einfach erzeugen ein ORC Datei-format von Apache Hadoop oder Hortonworks' HDP: CREATE TABLE ... STORED AS ORC Aber dies funktioniert nicht Cloudera ' s die CDH 4.5. (Überraschung!) Ich: FEHLGESCHLAGEN: SemanticException Unbekannte Datei-format GESPEICHERT Klausel:
2
Antworten
Arbeite ich mit Impala und das abrufen der Liste der Tabellen aus der Datenbank mit einige Muster wie unten. Angenommen ich habe eine Datenbank bank und Tabellen unter dieser Datenbank sind wie unten. cust_profile cust_quarter1_transaction cust_quarter2_transaction product_cust_xyz
1
Antworten
Ich habe eine Hue-installation auf meinem lokalen Rechner und der browser lädt Farbton WEB UI sehr gut in den browser, wenn ich geben Sie die URL 10.20.30.40:8888 in meinem browser. Wenn ich das gleiche tun für eine
3
Antworten
Wir haben die folgenden Zeichenkette, die ein gültiges JSON in eine Datei geschrieben, die auf HDFS. { "id":"tag:search.twitter.com,2005:564407444843950080", "objectType":"activity", "actor":{ "objectType":"person", "id":"id:twitter.com:2302910022", "link":"http%3A%2F%2Fwww.twitter.com%2Fme7me4610012", "displayName":"", "postedTime":"2014-01-21T11:06:06.000Z", "image":"https%3A%2F%2Fpbs.twimg.com%2Fprofile_images%2F563125491159162881%2FfypkHK3M_normal.jpeg", "summary":"ضًـأّيِّعٌهّ أّروٌأّحًنِأّ تٌـشُـتٌـهّـيِّ مًنِ يِّفُـهّـمًهّـأّ فُـقُط حسابي بالإنستقرام lloooo_20", "links":[ {
1
Antworten
Ich bin ein Anfänger auf Hadoop und Pig. Ich untersuchte am Beispiel erwies sich in cloudera virtuelle Bild, und modefied es zählen Top-5-häufige Wörter: Lines = LOAD '/user/hue/pig/examples/data/midsummer.txt' as (line:CHARARRAY); Words = FOREACH Lines GENERATE FLATTEN(TOKENIZE(line)) AS
2
Antworten
Dies geschieht in pseudo-verteilten sowie verteilten Modus. Wenn ich versuche zu starten, HBase, zunächst alle 3-Dienste - master, region und quorumpeer starten. Doch innerhalb einer minute, der master nicht. In den logs, das ist der trace -
2
Antworten
Ich habe versucht, Sie zu überwinden plötzliches problem. Befor das problem, das ich habe alte VM. Ich heruntergeladen habe die neue VM und kann immer noch nicht meinen Auftrag ausgeführt. Ich bekomme Java heap space Fehler. Ich
6
Antworten
Hey Leute also ich versuche zu laufen, die WordCount.java Beispiel bereitgestellt von cloudera. Ich lief den folgenden Befehl ein, und bin immer die Ausnahme, ich habe unten den Befehl. Also, habt Ihr irgendwelche Vorschläge, wie zu Verfahren
2
Antworten
Möchte ich schließen MetaStore mit dem java-code. Ich habe keine Ahnung, wie set-Konfiguration Einstellung in Hive-Site.xml Datei und wo poste ich den Hive-Site.xml Datei. Bitte helfen Sie. import java.sql.Connection; import java.sql.DriverManager; import java.sql.ResultSet; import java.sql.Statement; import org.apache.hadoop.fs.Path;
2
Antworten
Ich bin einrichten von Hive auf CentOS, und ich installiert haben, hadoop, hive und MySQL auf dem gleichen server. Ich habe auch setup-metastore-DB auf mySQL und Benutzer-ID - hive-Zugriff auf die Datenbank hat. Habe ich die unten
2
Antworten
ich habe ein problem bei der Einstellung von hadoop-Datei Berechtigungen in hortonworks und cloudera. Meine Forderung ist: 1. create a new user with new group 2. create user directory in hdfs ( ex. /user/myuser ) 3. Now
4
Antworten
Ich versuche zum einrichten einer Cloudera Hadoop-cluster mit einem master-Knoten enthält die namenode, secondarynamenode und jobtracker, und zwei andere Knoten mit der datanode und tasktracker. Die Cloudera version 4.6, OS ist ubuntu precise x64. Auch dieser cluster
4
Antworten
Ich versuche zu installieren auf Ubuntu 12.04.1 LTS der cloudera manager mit Hilfe von standard-version und, wenn ich hinzufügen neuer host bekomme ich den nächsten Fehler: Installation failed.Failed to receive heartbeat from agent. Ensure that the host's
2
Antworten
Ich bin mit CDH4 und geschrieben haben, eine MapReduce-Anwendung mit dem neuen mapreduce API. Ich habe es kompiliert gegen hadoop-core-1.0.3.jar und wenn ich es auf meinem Hadoop-cluster erhalte ich die Fehlermeldung: Fehler: interface org.apache.hadoop.mapreduce.TaskAttemptContext, aber Klasse wurde
1
Antworten
Ich Schreibe eine HBase-client in Java. Die erste Zeile, coz, sieht wie folgt aus: import org.apache.hadoop.conf.Konfiguration; Ich bin mit Cloudera CDH4.3.1, so dass die Paket-Versionen werden sollte: hadoop-2.0.0+1367 hbase-0.94.6+106 ==Aktualisiert== meine pom.xml sieht wie folgt aus: <dependency>
1
Antworten
Benötigen hier etwas Hilfe Jungs. Ich bin neu in Hadoop und ich brauche die Einrichtung eines Hadoop-Clusters schnell mit windows-Rechnern. Ich bin mir bewusst, dass ich verwenden können, Cloudera, aber ich habe mich nur gefragt, statt den
6
Antworten
Ich bin mit Cloudera Manager Free Edition auf meinem "Cluster" mit allen Diensten auf meinem Rechner. Meine Maschine fungiert als datanode,namenode sowie die sekundären namenode. Einstellungen in HDFS Bezug auf Replikation, dfs.replication - 1 dfs.replication.min, dfs.namenode.replication.min -
3
Antworten
![enter Bild Beschreibung hier][1]Die Frage mag ziemlich offensichtlich, aber ich habe vor es viele Zeiten, durch schlechte Konfiguration der hosts-Datei auf einem hadoop-cluster. Kann mir jemand beschreiben, wie man setup-hosts-Datei und andere zugehörige Netzwerk-Konfiguration für hadoop und
2
Antworten
Ich versuche das ausführen einer shell-Skript durch oozie aber ich habe einige Fragen. Ich habe eine property-Datei wie diese ("importieren".Eigenschaften): startIndex=2000 chunkSize=2000 Die Idee ist, in jeder einzelnen Ausführung, die startIndex-Wert wird aktualisiert, indem Sie die chunk-Größe.
1
Antworten
Gibt es eine Möglichkeit das zu ändern und den Speicherort einer Datenbank Punkte? Ich habe versucht, die folgenden Möglichkeiten: alter database <my_db> set DBPROPERTIES('hive.warehouse.dir'='<new_hdfs_loc>'); alter database <my_db> set DBPROPERTIES('location'='<new_hdfs_loc>'); alter database <my_db> set location '<new_hdfs_loc>'; Den ersten
2
Antworten
Habe ich installiert cloudera cdh4 release Und ich bin versucht, führen Sie den mapreduce-job auf. Ich bin immer folgende Fehlermeldung --> 2012-07-09 15:41:16 ZooKeeperSaslClient [INFO] Client will not SASL-authenticate because the default JAAS configuration section 'Client' could