Tag: yarn

YARN (Yet Another Resource Negotiator) ist eine zentrale Komponente der zweiten generation, die Apache-Hadoop-Infrastruktur. VERWENDEN Sie NICHT DIESES für die JavaScript/Node.js Garn-Paket-manager (verwenden Sie [yarnpkg] statt)!

Ursprünglich beschrieben von Apache als eine überarbeitete Ressourcen-manager, GARN-ist jetzt gekennzeichnet, wie eine groß angelegte, verteilte Betriebssystem für big data-Anwendungen, einschließlich der nächsten generation von MapReduce (MR2).

Hadoop 0.23.9 Wie zu Beginn datanodes

Anzahl der Antworten 3 Antworten
Wie es scheint, ich kann nicht hadoop zu starten, richtig. Ich bin mit hadoop 0.23.9: [msknapp@localhost sbin]$ hadoop namenode -format ... [msknapp@localhost sbin]$ ./start-dfs.sh Starting namenodes on [localhost] localhost: starting namenode, logging to /usr/local/cloud/hadoop-0.23.9/logs/hadoop-msknapp-namenode-localhost.localdomain.out localhost: starting datanode,

Holen Sie sich die Anwendungs-ID während der Ausführung eines MapReduce-job

Anzahl der Antworten 2 Antworten
Gibt es eine Möglichkeit zum abrufen der Anwendungs-ID beim laufen - zum Beispiel - die wordcount Beispiel mit der yarn Befehl? Ich einleiten möchten Sie einen job von einem anderen Prozess mit der yarn Befehl ein, und

Spark-submit / Funke-shell > Unterschied zwischen Garn-client-und-Garn-cluster-Modus

Anzahl der Antworten 3 Antworten
Mir läuft Spark mit GARN. Aus dem link: http://spark.apache.org/docs/latest/running-on-yarn.html Fand ich die Erklärung von unterschiedlichen Garn-Modi, d.h. die --master option, mit der Funke laufen kann: "Es gibt zwei Modi bereitstellen, die verwendet werden können, um zu starten

Wecken kann code ausgeführt werden, auf cluster ohne Funke zu übermitteln?

Anzahl der Antworten 3 Antworten
Ich entwickeln möchte, eine Scala-Anwendung, die verbindet ein master und läuft ein spark-code. Ich möchte um dies zu erreichen, ohne Verwendung von spark-Einreichen. Ist das möglich? Insbesondere würde ich gerne wissen, ob der folgende code kann ausgeführt

Prüfung und monitorying Anzahl der gleichzeitigen map/reduce-Aufgaben im GARN

Anzahl der Antworten 3 Antworten
Habe ich ein Hadoop-cluster 2.2 eingesetzt, die auf eine kleine Anzahl von leistungsstarken Maschinen. Ich habe eine Einschränkung zu verwenden GARN als das Gerüst, das ich bin nicht sehr vertraut mit. Wie kontrolliere ich die Anzahl der

MapReduce-job schlägt mit ExitCodeException exit-Code=255

Anzahl der Antworten 2 Antworten
Ich versuche, führen Sie einen MapReduce-job, der erfordert eine shared library (. a.so Datei). Wenn ich die gemeinsame Nutzung der Bibliothek aus einem standalone Java Programm, das ich keine Probleme habe (das Programm verwendet java.Bibliothek.Pfad zu der

Garn : den Automatischen Ausgleich des filecache & usercache

Anzahl der Antworten 2 Antworten
Läuft ein spark-streaming-Arbeit mit Garn als Ressourcen-manager, zu bemerken, dass diese beiden Verzeichnisse sind immer gefüllt, bis auf die Daten der Knoten und wir laufen aus dem Raum, wenn wir laufen nur für paar min ist /tmp/hadoop/data/nm-local-dir/filecache

Nicht starten Sie node manager auf master

Anzahl der Antworten 2 Antworten
Ich bin die Einrichtung eines Hadoop YARN-cluster, und ich bin mit einer Maschine sowohl eine master-und eine slave. Wenn ich starten Sie das GARN über den folgenden Befehl aus, er startet den nodemanager auf Sklaven, aber nicht

Kann sparklyr verwendet werden, mit spark bereitgestellt Garn-verwaltete hadoop-Clusters?

Anzahl der Antworten 4 Antworten
Ist die sparklyr - R-Paket in der Lage, eine Verbindung zu GARN verwaltete hadoop-Cluster? Dies scheint nicht dokumentiert werden, in dem cluster-deployment Dokumentation. Mit der SparkR - Paket, die Schiffe mit Spark ist es möglich, durch tun:

Pyspark auf Garn-cluster-Modus

Anzahl der Antworten 1 Antworten
Gibt es eine Möglichkeit zu laufen pyspark Skripte mit Garn-cluster-Modus ohne Verwendung der spark-submit-Skript? Ich brauche es auf diese Weise, weil ich integriere diesen code in eine django-web-app. Wenn ich versuche zum ausführen von Skripts in Garn-cluster-Modus

Warum Spark Anwendung auf GARN schlägt mit FetchFailedException durch die Verbindung verweigert?

Anzahl der Antworten 2 Antworten
Ich bin mit spark version 1.6.3 und yarn version 2.7.1.2.3 kommt mit HDP-2.3.0.0-2557. Weil, spark version ist zu alt, das HDP-version, die ich benutze, ich benutze lieber eine andere Funke als Garn-Modus aus der Ferne. Hier ist,

Laufende Garn mit spark funktioniert nicht mit Java 8

Anzahl der Antworten 1 Antworten
Habe ich cluster mit 1 master und 6 slaves verwendet pre-built version von hadoop 2.6.0 und Funken 1.6.2. Ich war laufen, hadoop MR und der Funken Arbeitsplätze, ohne irgendein problem mit openjdk 7 installiert auf allen Knoten.

org.apache.spark.rpc.RpcTimeoutException: Futures-Zeitüberschreitung nach [120 Sekunden]. Dieser timeout wird gesteuert durch Funken.rpc.lookupTimeout

Anzahl der Antworten 2 Antworten
Immer die folgende Fehlermeldung mit Bezug auf den container, während die Abgabe einer spark-Applikation zu GARN. Die HADOOP(2.7.3)/SPARK (2.1) - Umgebung ausgeführt wird, ein pseudo-distributed mode in einem single-node-cluster. Die Anwendung funktioniert perfekt, wenn gemacht, um die

Oozie shell action memory limit

Anzahl der Antworten 2 Antworten
Wir haben ein oozie-workflow mit einem shell-Aktion, die mehr Speicher erfordert als das, was eine map-Aufgabe ist gegeben durch das Garn standardmäßig. Wie können wir es geben, mehr Speicher? Wir haben versucht, indem Sie die folgende Konfiguration

auxService:mapreduce_shuffle existiert nicht auf hive

Anzahl der Antworten 2 Antworten
Bin ich mit hive 1.2.0 und hadoop 2.6.0. Wann immer ich bin mit Bienenkorb auf meinem Rechner... select-Abfrage funktioniert einwandfrei, aber bei count(*) es zeigt folgenden Fehler: Diagnosemeldungen für diese Aufgabe: Container-Einführung für gescheitert container_1434646588807_0001_01_000005 : org.apache.hadoop.Garn.Ausnahmen.InvalidAuxServiceException:

"Kann nicht Kerberos-realm" auf Garn-cluster

Anzahl der Antworten 1 Antworten
Ist die situation wie folgt: Ich bin dabei auf Windows 7, mit der Kerberos-client kfw 4.0.1. Ich bin die Verbindung zu einem GARN-cluster, die über OpenVPN, das ist gesichert mit Kerberos-5. Dieses cluster wurde um für eine

Garn ist nicht Ehren-Garn.nodemanager.Ressource.cpu-vcores

Anzahl der Antworten 1 Antworten
Ich bin mit Hadoop-2.4.0 und mein system configs sind 24 cores, 96 GB RAM. Ich bin mit folgenden configs mapreduce.map.cpu.vcores=1 yarn.nodemanager.resource.cpu-vcores=10 yarn.scheduler.minimum-allocation-vcores=1 yarn.scheduler.maximum-allocation-vcores=4 yarn.app.mapreduce.am.resource.cpu-vcores=1 yarn.nodemanager.resource.memory-mb=88064 mapreduce.map.memory.mb=3072 mapreduce.map.java.opts=-Xmx2048m Kapazität Scheduler configs queue.default.capacity=50 queue.default.maximum_capacity=100 yarn.scheduler.capacity.root.default.user-limit-factor=2 Mit den oben genannten

hadoop - Verbindung verweigert namenode

Anzahl der Antworten 3 Antworten
Ich gesucht habe web-und stackoverflow für eine lange Zeit, aber es war nicht nützlich. Habe ich installiert hadoop yarn 2.2.0 in 2 Knoten-cluster-setup. aber etwas geht schief. wenn ich starten hadoop daemons mit start-dfs.sh und start-yarn.sh auf

Wo kommt Hadoop speichern der Protokolle der GARN-Anwendungen?

Anzahl der Antworten 2 Antworten
Ich für das grundlegende Beispiel der Hortonworks' Garn-Anwendung Beispiel. Die Anwendung fehlschlägt, und ich will in den logs zu Lesen, um herauszufinden, warum. Aber ich finde keine Dateien auf die erwartete Position ( /HADOOP_INSTALL_FOLDER/logs ), wo die

AM Container läuft über den virtuellen Speicher begrenzt

Anzahl der Antworten 6 Antworten
Ich spielte mit verteilten shell-Anwendung (hadoop-Version 2.0.0-cdh4.1.2). Dies ist der Fehler, ich erhalte im moment. 13/01/01 17:09:09 INFO distributedshell.Client: Got application report from ASM for, appId=5, clientToken=null, appDiagnostics=Application application_1357039792045_0005 failed 1 times due to AM Container for

So erhöhen Sie die Anzahl der Behälter in nodemanager im GARN

Anzahl der Antworten 2 Antworten
Einen Knoten in mein GARN-cluster hat 64GB Speicher und 24 Kerne. Ich legen Sie die folgenden Eigenschaften in der yarn-site.xml: <property> <name>yarn.nodemanager.resource.memory-mb</name> <value>32768</value> </property> <property> <name>yarn.nodemanager.resource.cpu-vcores</name> <value>16</value> </property> Aber ich fand noch die nodemanager in der Knoten

Garn JobHistory Fehler: Umleitung für container_1400260444475_3309_01_000001

Anzahl der Antworten 3 Antworten
Mein HERR job wird erfolgreich ausgeführt .Aber wenn ich bin der überprüfung Ihrer Geschichte immer Fehler wie: Failed redirect for container_1400260444475_3309_01_000001 Failed while trying to construct the redirect url to the log server. Log Server url may

Tun, exit-codes und exit-Status bedeutet nichts in der Funke?

Anzahl der Antworten 1 Antworten
Sehe ich exit-codes und der exit-Status die ganze Zeit beim laufen spark auf Garn: Hier sind ein paar: CoarseGrainedExecutorBackend: RECEIVED SIGNAL 15: SIGTERM ...failed 2 times due to AM Container for application_1431523563856_0001_000002 exited with exitCode: 10... ...Exit

Wie umgehen mit Aufgaben, die zu lange läuft (im Vergleich zu anderen in-job) in Garn-client?

Anzahl der Antworten 2 Antworten
Verwenden wir eine Spark-cluster als yarn-client zu berechnen, die mehrere business, aber manchmal haben wir eine Aufgabe ausführen zu lange Zeit: Wir nicht festlegen timeout-aber ich denke, dass Standard-timeout einen Funken Aufgabe ist nicht zu lang, so

konnte nur repliziert werden, auf 0 Knoten statt minReplication (=1). Es gibt 4 datanode(s) ausgeführt werden und kein Knoten(s) sind nicht in diesem Betrieb

Anzahl der Antworten 1 Antworten
Ich weiß nicht, wie um diesen Fehler zu beheben: Vertex failed, vertexName=initialmap, vertexId=vertex_1449805139484_0001_1_00, diagnostics=[Task failed, taskId=task_1449805139484_0001_1_00_000003, diagnostics=[AttemptID:attempt_1449805139484_0001_1_00_000003_0 Info:Error: org.apache.hadoop.ipc.RemoteException(java.io.IOException): File /user/hadoop/gridmix-kon/input/_temporary/1/_temporary/attempt_14498051394840_0001_m_000003_0/part-m-00003/segment-121 could only be replicated to 0 nodes instead of minReplication (=1). There are 4 datanode(s) running

Warum GARN java heap space-Speicher Fehler?

Anzahl der Antworten 2 Antworten
Möchte ich versuchen, über die Einstellung memory im GARN, also werde ich versuchen, konfigurieren Sie einige parameter auf yarn-site.xml und mapred-site.xml. Durch die Art, wie ich mit hadoop 2.6.0. Aber, ich erhalte eine Fehlermeldung, wenn ich einen

Lesen von Dateien von HDFS-Verzeichnis und erstellen Sie eine RDD-Zündkerzen mit Python

Anzahl der Antworten 1 Antworten
Habe ich einige text-Dateien, und ich möchte eine RDD mit diesen Dateien. Die text-Dateien werden gespeichert in "Folder_1" und "Folder_2' und diese Ordner sind in dem Ordner gespeichert, 'text_data' Wenn die Dateien gespeichert sind, in den lokalen

Spark num-Vollzieher

Anzahl der Antworten 2 Antworten
Ich habe setup ein 10-Knoten-HDP-Plattform auf AWS. Unten ist meine Konfiguration 2 Server - Namen, Knoten-und Standby-Name-Knoten 7 Daten-Knoten und jeder Knoten hat 40 vCPUs und 160 GB Speicher. Ich versuche zu berechnen, die Anzahl der Testamentsvollstrecker

hadoop 2.2 ,Word Count Beispiel Versagen Windows 7

Anzahl der Antworten 3 Antworten
Nach der Ausführung des hadoop-jar-Befehl zum ausführen der Standard-word-count-Programm, erhalte ich die folgenden Ausgaben. java.lang.NoClassDefFoundError: org/apache/hadoop/service/CompositeService and Could not find the main class: org.apache.hadoop.mapreduce.v2.app.MRAppMaster Ich glaube, dass ich nicht gesetzt hadoop classpath explizit. Wie ich es eingestellt

Funke an Garn, Container beendet mit einem nicht-null exit-code 143

Anzahl der Antworten 2 Antworten
Ich bin mit HDP 2.5, laufen spark-submit als Garn cluster-Modus. Ich habe versucht, zum generieren von Daten mithilfe dataframe cross join. ich.e val generatedData = df1.join(df2).join(df3).join(df4) generatedData.saveAsTable(...).... df1 storage-Ebene ist MEMORY_AND_DISK df2,df3,df4 storage-Ebene ist MEMORY_ONLY df1 hat

'Garn-Anwendung -Liste' nicht alle Ergebnisse

Anzahl der Antworten 2 Antworten
Habe ich einige Spark-Anwendungen auf eine GARN-cluster. Die Anwendung zeigt sich in der "Alle Anwendungen" - Seite in das GARN UI http://host:8088/cluster aber die yarn application -list Befehl nicht geben keine Ergebnisse. Was könnte die Ursache sein

Funke-Shell mit Garn - Fehler: Garn-Anwendung ist bereits beendet! Es könnte getötet worden sein oder nicht in der Lage zu starten der Anwendung master

Anzahl der Antworten 3 Antworten
Als follow-up von diese Frage, ich bekomme eine neue Fehlermeldung, wenn ich versuche zu verwenden Funke 2.1.1 über Garn (Hadoop 2.8.0) auf meinem single-node-Maschine. Wenn ich starte die Funke-Shell mit spark-shell startet es ohne Probleme. Nach dem

CDH 4.1: Fehler ausführen Kind : java.lang.OutOfMemoryError: Java heap space

Anzahl der Antworten 2 Antworten
Ich habe versucht, Sie zu überwinden plötzliches problem. Befor das problem, das ich habe alte VM. Ich heruntergeladen habe die neue VM und kann immer noch nicht meinen Auftrag ausgeführt. Ich bekomme Java heap space Fehler. Ich

Unterschiede zwischen MapReduce und Yarn

Anzahl der Antworten 4 Antworten
War ich auf der Suche über hadoop und mapreduce mit Bezug auf Nachzügler Probleme und die Papiere in diesem problem aber gestern habe ich festgestellt, dass es hadoop 2 mit Garn, leider kein Papier spricht Nachzügler problem

was ist der Unterschied zwischen GARN-und SPARK-Verarbeitungs-engine, basierend auf Echtzeit-Anwendung?

Anzahl der Antworten 2 Antworten
Habe ich verstanden, GARNE und FUNKEN. Aber ich möchte wissen, wenn ich das GARN und die SPARK-Verarbeitungs-engine. Was sind die verschiedenen Fallstudien, dass ich mich identifizieren kann den Unterschied zwischen Garn und Funken. InformationsquelleAutor chandu kavar |

Wie bekommen können Speicher-und CPU-Nutzung von hadoop yarn-Anwendung?

Anzahl der Antworten 1 Antworten
Möchte ich Fragen, nachdem ich habe meine hadoop-mapreduce-Anwendung, wie kann ich den gesamten Speicher-und CPU-Nutzung der Anwendung. Ich habe gesehen, dass es auf Protokoll und resource-manager-web-Seite, aber ich habe es nicht erhalten. Ist es möglich? Kann ich

Hadoop Nodemanager und Ressourcen-Manager startet nicht

Anzahl der Antworten 2 Antworten
Ich versuche zu setup die neuesten Hadoop 2.2 single-node-cluster unter Ubuntu 13.10 64 bit. das OS ist eine frische installation, und ich habe versucht mit java-6 64 bit und java 7 64 bit. Nachdem Sie die Schritte

Spark läuft auf Garn cluster exit-Code=13:

Anzahl der Antworten 1 Antworten
Ich bin ein spark/Garn Neuling, laufen in exit-Code=13, wenn ich behaupte, dass ein Funke job auf Garn-cluster. Wenn die Funke job läuft im lokalen Modus ist alles in Ordnung. Den Befehl, den ich verwendet ist: /usr/hdp/current/spark-client/bin/spark-submit --class

Spark Garn cluster vs client - wie zu wählen, welche zu benutzen?

Anzahl der Antworten 2 Antworten
Den Funken docs haben folgende Absatz, der desceibes der Unterschied zwischen Garn-client-und-Garn-cluster: Gibt es zwei Modi bereitstellen, die verwendet werden können, um zu starten Spark-Anwendungen auf GARN. Im cluster-Modus, der Funke Treiber läuft in einer Anwendung master-Prozess,

Hive-Runtime-Fehler während der Verarbeitung der Zeile in Hive

Anzahl der Antworten 2 Antworten
Habe ich Fehler bei der Abfrage auf ORC Datei-format Tabelle Ich versuche folgenden Abfrage. INSERT INTO TABELLE . WÄHLEN SIE AUS . WHERE-BEDINGUNGEN; TaskAttempt 2 gescheitert, info=[Fehler: Fehler beim ausführen der Aufgabe:java.lang.RuntimeException: java.lang.RuntimeException: org.apache.hadoop.hive.ql.die Metadaten.HiveExceptio Hive-Runtime-Fehler während

Wie kann ich meine Hadoop job-Historie und-Protokollen mithilfe von CDH4 und Garn?

Anzahl der Antworten 2 Antworten
Ich habe die CDH4 tar für Hadoop mit Garn, und jobs laufen gut, aber ich kann nicht herausfinden, wo Sie zum anzeigen der Protokolle von meinem job. In MRv1, ich ging einfach auf den JobTracker web app,

Wert für HADOOP_CONF_DIR von Cluster

Anzahl der Antworten 2 Antworten
Ich habe setup ein cluster(GARN) mit Ambari mit 3 VMs als Gastgeber. Wo finde ich den Wert für HADOOP_CONF_DIR ? # Run on a YARN cluster export HADOOP_CONF_DIR=XXX ./bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn-cluster \ #

Wie man applicationId von Funke-Anwendung bereitgestellt, um GARN in Scala?

Anzahl der Antworten 3 Antworten
Ich bin mit dem folgenden Scala-code (wie eine benutzerdefinierte spark-submit wrapper) zum senden einer Spark-Applikation zu einem GARN cluster: val result = Seq(spark_submit_script_here).!! Alles, was ich habe, zum Zeitpunkt der Einreichung ist spark-submit und die Spark-application-jar (keine

Spark 1.3.0 GARN: Anwendung konnte nicht 2 mal durch BIN Container

Anzahl der Antworten 4 Antworten
Beim laufen Spark 1.3.0 Pi Beispiel auf GARN (Hadoop 2.6.0.2.2.0.0-2041) mit dem folgenden Skript: # Run on a YARN cluster export HADOOP_CONF_DIR=/etc/hadoop/conf /var/home2/test/spark/bin/spark-submit \ --class org.apache.spark.examples.SparkPi \ --master yarn-cluster \ --executor-memory 3G \ --num-executors 50 \ /var/home2/test/spark/lib/spark-examples-1.3.0-hadoop2.4.0.jar

Einstellen des VCORES im hadoop-mapreduce/Garn?

Anzahl der Antworten 3 Antworten
Sind die folgenden meine Konfiguration : **mapred-site.xml** map-mb : 4096 opts:-Xmx3072m reduce-mb : 8192 opts:-Xmx6144m **yarn-site.xml** resource memory-mb : 40GB min allocation-mb : 1GB die Vcores im hadoop-cluster angezeigt, die 8GB aber ich weiß nicht, wie die

Was ist der maximale container(s) in einem single-node-cluster (hadoop)?

Anzahl der Antworten 1 Antworten
Ich bin neu in hadoop und ich bin noch nicht vertraut auf seine Konfiguration. Ich möchte nur Fragen, die maximale container pro Knoten. Ich bin mit einem single-node-cluster (6GB ram laptop) und unten ist mein mapred und

Hadoop ist nicht zeigen, mein job in der job-tracker, obwohl es ausgeführt wird

Anzahl der Antworten 2 Antworten
Problem:, Wenn ich behaupte, einen job zu meiner hadoop 2.2.0-cluster es nicht zeigen, bis in der job-tracker aber der Auftrag erfolgreich abgeschlossen wurde. Durch dieses kann ich den Ausgang und es läuft korrekt und druckt die Ausgabe,

Hadoop-Ports Klärung

Anzahl der Antworten 3 Antworten
Ich Lerne hadoop und etwas irritiert über die Standard-ports und die Standorte. Wenn ich die URL: localhost:50070 gibt Ergebnis für das hdfs-info. In hadoop-docs folgenden sind einige der genannten Häfen. hdfs-default.xml dfs.datanode.http.address 0.0.0.0:50075 dfs.datanode.address 0.0.0.0:50010 dfs.namenode.http-address 0.0.0.0:50070

Slave-Knoten nicht in Yarn ResourceManager

Anzahl der Antworten 3 Antworten
Ich habe ein 3 node Hadoop-cluster. Auf dem master-Knoten, die ich sehen kann, [hadoop-conf]$ jps 16856 DataNode 17051 SecondaryNameNode 16701 NameNode 21601 ResourceManager 21742 NodeManager 18335 JobHistoryServer und auf der slave-Knoten, sehe ich [fedora20-template dfs]$ jps 28677

Jeder Befehl um aktive namenode für nameservice in hadoop?

Anzahl der Antworten 7 Antworten
Den Befehl: hdfs haadmin -getServiceState machine-98 Funktioniert nur, wenn Sie wissen, den Namen der Maschine. Gibt es eine Befehl wie: hdfs haadmin -getServiceState <nameservice> kann Ihnen sagen, die IP/hostname des aktiv namenode? +1: Gute Frage. Die Antwort