Wie können die standardmäßigen spark-logging-level?
Starte ich pyspark Anwendungen von pycharm auf meinem eigenen Rechner, auf einem 8-Knoten-cluster. Dieser cluster hat auch Einstellungen kodiert spark-defaults.conf und spark-env.sh
Dies ist, wie ich erhalten meine Funke Kontext-variable.
spark = SparkSession \
.builder \
.master("spark://stcpgrnlp06p.options-it.com:7087") \
.appName(__SPARK_APP_NAME__) \
.config("spark.executor.memory", "50g") \
.config("spark.eventlog.enabled", "true") \
.config("spark.eventlog.dir", r"/net/share/grid/bin/spark/UAT/SparkLogs/") \
.config("spark.cores.max", 128) \
.config("spark.sql.crossJoin.enabled", "True") \
.config("spark.executor.extraLibraryPath","/net/share/grid/bin/spark/UAT/bin/vertica-jdbc-8.0.0-0.jar") \
.config("spark.serializer", "org.apache.spark.serializer.KryoSerializer") \
.config("spark.logConf", "true") \
.getOrCreate()
sc = spark.sparkContext
sc.setLogLevel("INFO")
Möchte ich sehen, der effektive config verwendet wird in meinem Logbuch. Diese Linie
.config("spark.logConf", "true") \
sollte dazu führen, dass die Funke-api, um log seine effektive config, um das Protokoll als INFO, aber die Standard-Protokoll-level " zu WARNEN, und als solche sehe ich keine Nachrichten.
Einstellung dieser Linie
sc.setLogLevel("INFO")
zeigt die INFO-Nachrichten, die nach vorn, aber seine zu spät, bis dann.
Wie kann ich die Standard-logging-level, die Funke beginnt mit?
InformationsquelleAutor ThatDataGuy | 2016-11-15
Du musst angemeldet sein, um einen Kommentar abzugeben.
http://spark.apache.org/docs/latest/configuration.html#configuring-logging
Konfigurieren Der Protokollierung
Spark verwendet log4j für das logging. Können Sie konfigurieren, indem Sie hinzufügen einer log4j.properties Datei im conf-Verzeichnis. Eine Möglichkeit zu beginnen ist, kopieren Sie die vorhandene log4j.Eigenschaften.die Vorlage befindet sich dort.
Die folgenden blog über "Wie Sie sich bei spark" https://www.mapr.com/blog/how-log-apache-spark einen Weg vorschlagen, um log4j konfigurieren, und liefern Vorschlag, der beinhaltet, Regie INFO-level-Protokolle in eine Datei.
zusätzliche info wie log4j konfigurieren (und getestet werden, und zwar die Ausgabe-Datei enthält die "INFO" - level-Protokoll). Beachten Sie, dass die Beispiel-Konfiguration direkt in die Datei /var/log - Sie brauchen, um direkt das Protokoll in ein Verzeichnis, das zu schreiben-in der Lage, um die Benutzer ausführen von spark
InformationsquelleAutor Yaron
Müssen Sie Bearbeiten Ihre $SPARK_HOME/conf/log4j.Eigenschaften-Datei (und erstellen, falls Sie noch keins haben). Nun, wenn Sie uns Ihren code über
spark-submit
sind, dann möchten Sie diese Zeile:log4j.rootCategory=INFO, console
Wenn Sie möchten, INFO-level-Protokolle in Ihre
pyspark
Konsole, dann müssen Sie diese Zeile:log4j.logger.org.apache.spark.api.python.PythonGatewayServer=INFO
InformationsquelleAutor Michał Jabłoński