Tag: logstash

Logstash ist ein Werkzeug für die Verwaltung von Veranstaltungen und Protokolle. Sie können es verwenden, um Protokolle zu sammeln, analysieren Sie und senden Sie Sie an die Speicherung zur späteren Verwendung (wie die Suche).

logstash kann nicht finden log4j2.Eigenschaften Datei

Anzahl der Antworten 3 Antworten
Habe ich versucht, das einrichten eines proof-of-concept elasticsearch/kibana/logstash-Umgebung, aber es ist momentan nicht funktioniert. Den LOGSTASH_HOME ist: c:\_work\issues\log4j_socketappender\logstash-5.0.1\ In der Konsole von logstash fand ich die folgende Zeile: Could not find log4j2 configuration at path /_work/issues/log4j_socketappender/logstash-5.0.1/config/log4j2.properties. Using

Log Speicherort ELK-stack

Anzahl der Antworten 2 Antworten
Ich mache zentralisierte Protokollierung mithilfe von logstash. Ich bin mit logstash-forwarder auf die Absender-Knoten-und ELK-stack auf dem collector-Knoten.Ich wollte den Ort wissen, wo die Protokolle gespeichert werden, in elasticsearch ich sehe keine Daten-Dateien erstellt, wo die logs

Logstash ist eine Ausgabe Zustrom DB zur Verfügung?

Anzahl der Antworten 5 Antworten
Möchte ich eine Ausgabe für den Zustrom DB von Logstash, gibt es solche plugins verfügbar? Dieser Ausgang gesetzt ist, um Graphit.. Das ist der Zustrom config: [input_plugins] # Configure the graphite api [input_plugins.graphite] enabled = true port

Extrahieren der Felder aus der Eingabe-Datei Pfad logstash?

Anzahl der Antworten 1 Antworten
Ich Lesen möchte meine log Dateien aus verschiedenen Verzeichnissen, wie: Server1, Server2... Server1 hat Unterverzeichnisse als cron, auth...innerhalb dieser Unterverzeichnisse ist die log file bzw. So, ich bin der Betrachtung von Lesen von Dateien wie diese: input{

Standard-grok Muster Pfad

Anzahl der Antworten 3 Antworten
Habe ich Logstash installiert auf Ubuntu Server 14. Wo finde ich die Standard-grok Muster, Logstash verwendet bei der Filterung der logs ? Danke. InformationsquelleAutor Aymen Chetoui | 2015-08-10

Warum kann ich nicht anzeigen @timestamp zu _timestamp in Elastic Search-Indexerstellung-Vorlage?

Anzahl der Antworten 1 Antworten
Ich bin mit Logstash mit Elasticsearch und als ein Ergebnis, das @timestamp-Feld ist ein verbindliches Dokument-Feld. Der Wert der @timestamp Feld ist immer nach ISO8601-format. Einige der Veranstaltungen/Dokumente aus Logstash nicht über ein spezielles timestamp Feld (bitte

Logstash CSV funktioniert nicht

Anzahl der Antworten 1 Antworten
Ich versuche zu Lesen der CSV-Daten in logstash, aber einige, wie logstash ist nicht in der Lage zu split strings man Sie als csv - logstash config input { file { path => [ "/root/logstash/temp.csv" ] start_position

wie zu verwenden sincedb in logstash?

Anzahl der Antworten 3 Antworten
Habe ich Tausende von log-Dateien und es wird heruntergeladen Alltag. Ich bin mit logstash und ElasticSearch für die Analyse, Indexierung und Suche. Jetzt bin ich mit file-input-plugin zum Lesen von heruntergeladenen Dateien und analysiert. Ich habe nicht

Logstash Ausgabe Elasticsearch auf AWS EC2

Anzahl der Antworten 1 Antworten
Ich habe Probleme bei der Konfiguration von logstash die Ausgabe an einen Elasticsearch-cluster auf AWS EC2. Ich bin mit Logstash-version 1.1.5 und Elasticsearch 1.19.8. Dies ist mein output-Konfiguration in logstash: output { stdout { debug => true

So erstellen Sie einen neuen Felder auf Kibana für die logs?

Anzahl der Antworten 5 Antworten
Konfigurierte ich eine Fortimail-schicken Ihre Nachrichten an Logstash, aber wenn ich die Protokolle anzeigen auf der kibana Dashboard. Ich teilen möchten, auf das Feld Nachricht auf mehrere Felder wie : time, device_id, from, to ... siehe dieses

Logstash entsteht eine enorme lokale log-Dateien und (obwohl es sendet dann an Elasticsearch)

Anzahl der Antworten 3 Antworten
Das problem Ich habe eine Maschine mit logstash auf, und eine andere Elasticsearch-Kibana-Maschine, die speichert die logs geschrieben von logstash auf der ersten Maschine. Natürlich möchte ich keine logs gehalten werden, die auf die Herkunft der Maschine

Kette von filtern in logstash

Anzahl der Antworten 2 Antworten
Ist es möglich, logstash Filter in der Reihenfolge? Zum Beispiel möchte ich parse Nachricht in das json dann neu erstellte Feld aufgeteilt in Zeichen. input => filter => filter => Ausgabe => elasticsearch InformationsquelleAutor Marcin | 2015-11-27

Gewusst wie: anpassen von Schienen-log-Meldungen zu JSON-format

Anzahl der Antworten 1 Antworten
Brauche ich zum anpassen der log-Meldungen an eine JSON-format in meine Rails-app. Veranschaulichen, die derzeit die log-Meldungen, die meine app produziert, die wie folgt Aussehen: I, [2015-04-24T11:52:06.612993 #90159] INFO -- : Started GET "/time_entries" for ::1 at

Logstash Jdbc-Input-plugin für MYSQL

Anzahl der Antworten 1 Antworten
Ich bin mit Logstash in windows. ich war nicht in der Lage zu installieren jdbc-Eingang Stecker, damit ich die zip-Datei heruntergeladen manuell und Stelle die logstash-Ordner vom plugin in mein logstash-1.5.2 Ordner. die Ordner - Struktur "D:\elastic

Verständnis sincedb Dateien von Logstash-Datei input

Anzahl der Antworten 2 Antworten
Bei der Verwendung der Datei-input mit Logstash, ein sincedb-Datei geschrieben, um zu verfolgen die aktuelle position des überwachten log-Dateien. Wie zu verstehen, seinen Inhalt? Beispiel einer sincedb Datei: 286105 0 19 20678374 InformationsquelleAutor Aldian | 2015-01-16

HTTP-Ausgabe in Logstash mit JSON

Anzahl der Antworten 1 Antworten
In Logstash, wenn ein Protokoll von einer bestimmten Zeit verarbeitet wird, möchte ich Logstash zu tun, einen HTTP-POST an einen webserver senden von JSON. Jedoch, es gibt mir Fehler und startet nicht logstsh. Ich gehe davon aus,

Erholung der Zuordnung der elastic search

Anzahl der Antworten 2 Antworten
logstash configIch habe meine index auf elasticsearch und durch kibana und haben die hochgeladenen Daten. Das will ich jetzt ändern Sie die Zuordnung für den index aus und ändern Sie einige Felder, die nicht analysiert .Unten ist

Logstash nicht Lesen Datei input

Anzahl der Antworten 2 Antworten
Ich habe ein seltsames problem mit Logstash. Ich bin die Bereitstellung einer log-Datei als Eingabe zu logstash. Die Konfiguration ist wie folgt: input { file { type => "apache-access" path => ["C:\Users\spanguluri\Downloads\logstash\bin\test.log"] } } output { elasticsearch

Was ist die Verwendung von MongoDB in GrayLog2?

Anzahl der Antworten 1 Antworten
GrayLog2 erfordert sowohl ElasticSearch und MongoDB, während Logstash verwendet nur ElasticSearch zum speichern und durchsuchen der logs. what does mongo provide in graylog2? Dies war das erste Google-suchergebnis für graylog2 mongodb: alexey-palazhchenko.tumblr.com/post/5070526903/... Der link, den Sie teilten

Wie kann ich den backslash escapen in logstash grok pattern?

Anzahl der Antworten 1 Antworten
Dies ist mein log: 68.192.186.96 - - [18/May/2015:12:54:42 +0000] GET http://test.com/sectionId/592/apiVersion/2/type/json HTTP/1.1 200 575 \"-\" \"Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/42.0.2311.152 Safari/537.36\" \"icon_seq=0; PHPSESSID=frmnhfrrc25ullikbv71thc283\" dies ist mein Muster %{IPORHOST:remoteip} \- \- \[%{HTTPDATE:timestamp}\] %{WORD:verb}

Logstash "keine Z-index-Fehler" beim schreiben, um Elasticsearch mit X-Pack

Anzahl der Antworten 2 Antworten
Habe ich eine version 5 ELK-stack (mit X-Pack) und ich verwende die folgenden logstash conf-Datei, die scheint zu grok analysieren der access log korrekt (wie ich es sehe, in der Ausgabe): input { file { path =>

Wie definieren Sie getrennte Indizes für unterschiedliche Protokolle in Filebeat/ELK?

Anzahl der Antworten 4 Antworten
Frage ich mich, wie man erstellen Sie getrennte Indizes für unterschiedliche Protokolle holte in logstash (die später an elasticsearch), so dass in kibana kann ich definieren zwei Indizes für und entdecken Sie. In meinem Fall habe ich

Wie kann ich integrieren Tomcat6 ' s catalina.aus Datei mit Logstash + ElasticSearch + Kibana?

Anzahl der Antworten 3 Antworten
Ich will einen zentralen logging-server. Erstellt habe ich zwei Ubuntu 12.04 LTS-Server basierend auf diese iso. Nach erfolgreich und streng nach dieses tutorial Schritte, die ich habe: Eine Logging-Server mit Logstash + ElasticSearch + Kibana. Und ein

Logstash ersetzen @timestamp syslog Datum

Anzahl der Antworten 2 Antworten
Ich bin ein wenig verwirrt. Ich bin versucht zu ziehen aus der syslog date (backfilling the logstash) und ersetzen Sie die @timestamp mit ihm. Ich habe versucht, fast alles. Dies ist mein filter filter { if [type]

Logstash: Erhielt ein Ereignis, das eine andere Zeichenkodierung

Anzahl der Antworten 2 Antworten
wenn mit logstash ich eine Fehlermeldung wie diese : Received an event that has a different character encoding than you configured. {:text=>"2014-06-22T11:49:57.832631+02:00 10.17.22.37 date=2014-06-22 time=11:49:55 device_id=LM150D9L23000422 log_id=0312318759 type=statistics pri=information session_id=\\\"s617nnE2019973-s617nnE3019973\\\" client_name=\\\"[<IP address>]\\\" dst_ip=\\\"<ip address>\\\" from=\\\"[email protected]\\\" to=\\\"[email protected]\\\" polid=\\\"0:1:1\\\"

wie man zwei Bedingungen check-in logstash und besser schreiben-Konfigurationsdatei

Anzahl der Antworten 1 Antworten
Ich bin mit logstash 1.4.2, Ich habe logstash-forwarder.conf im client-log-server wie dieser { "network": { "servers": [ "xxx.xxx.xxx.xxx:5000" ], "timeout": 15, "ssl ca": "certs/logstash-forwarder.crt" }, "files": [ { "paths": [ "/var/log/messages" ], "fields": { "type": "syslog" }

Logstash SQL Server-Daten Importieren

Anzahl der Antworten 3 Antworten
JS: input { jdbc { jdbc_driver_library => "sqljdbc4.jar" jdbc_driver_class => "com.microsoft.sqlserver.jdbc.SQLServerDriver" jdbc_connection_string => "jdbc:sqlserver://192.168.2.126\\SQLEXPRESS2014:1433;databaseName=test jdbc_password => "sa@sa2015" schedule => "0 0-59 0-23 * * *" statement => "SELECT ID , Name, City, State,ShopName FROM dbo.Shops" jdbc_paging_enabled =>

logstash _grokparsefailure Fragen

Anzahl der Antworten 1 Antworten
Habe ich Probleme mit grok analysieren. In ElasticSearch/Kibana ich die Leitungen match kommen mit der tag-_grokparsefailure. Hier ist mein logstash config : input { file { type => logfile path => ["/var/log/mylog.log"] } } filter { if

Die Serilog Waschbecken verwenden für den Versand an Logstash?

Anzahl der Antworten 4 Antworten
Begannen wir mit Serilog in Kombination mit Elasticsearch, und es ist eine sehr effiziente Möglichkeit zum speichern von Struktur-log-Daten (und später visualisieren Sie Sie mit tools wie Kibana). Allerdings sehe ich den Vorteil, dass keine schreiben von

Logstash EINGANG MySQL

Anzahl der Antworten 3 Antworten
Nicht finden können, jedes input-plugin für Relationale Datenbanken in der Logstash Dokumentation. Was ist die beste Vorgehensweise zum importieren von Daten aus einer Relationalen Datenbank-Tabelle mit logstash? Ist die Verbindung Elastisch-Suche direkt auf der Datenbank per JDBC?

Tagging-die Protokolle, die von Logstash - Grok - ElasticSearch

Anzahl der Antworten 2 Antworten
Zusammenfassung: Ich bin mit Logstash - Grok und elastic search und mein Hauptziel ist es erst akzeptieren die Protokolle, die von logstash, analysieren Sie durch verstehen und zuordnen von tags mit den Nachrichten, die je nach Art

Logstash filter Regex in Feld

Anzahl der Antworten 3 Antworten
Ich bin vor einige Probleme mit der Analyse einer logline. Habe ich tausenden von loglines und jeder logline enthält einen Hostnamen wie ABC123DF Ich Habe geschrieben einen regex, und ich will es anwenden, um die logline und

Verwenden Sie grok hinzufügen der log-Dateinamen als Feld in logstash

Anzahl der Antworten 2 Antworten
Ich bin mit Grok & Logstash zu senden access-logs von Nginx zu Elastic search. Ich gebe Logstash alle meine access-logs (mit einer wildcard funktioniert gut) und ich würde gerne den Dateinamen (ein Teil davon, um genau zu

Einrichtung ElasticSearch Logstash

Anzahl der Antworten 2 Antworten
Ich versuche zu setup ein LogStash/Redis/ElasticSearch-pipeline für die zentralisierte Protokollierung,ich habe ein paar Fragen, Ich glaube, für diese zu arbeiten, müssen Sie eine bestimmte version von elasticsearch & logstash, ist es ein Ort, wo ich finden kann,

Drop log-Zeile mit der Raute

Anzahl der Antworten 2 Antworten
In mein Logstash shipper, ich will heraus zu filtern, Zeilen kommentiert mit dem hash-Zeichen: #This log row should be dropped. But one this should not. Konnte ich grep filter, aber es wird davon abgeraten (wird stillgelegt), ich

Docker-verfassen links vs external_links

Anzahl der Antworten 3 Antworten
Ich glaube, es ist eine einfache Frage, aber ich immer noch nicht bekommen von Docker-verfassen-Dokumentationen. Was ist der Unterschied zwischen links und external_links? Ich mag external_links wie ich will-core-Andockfenster-Komponieren, und ich will es verlängern, ohne überschreiben der

logstash: mehrere logfiles mit verschiedenen Muster

Anzahl der Antworten 1 Antworten
Wollen wir einen server einrichten für logstash für ein paar andere Projekt in unserer Firma. Jetzt versuche ich, um Ihnen zu ermöglichen, in Kibana. Meine Frage ist: Wenn ich verschiedene Muster der log-Dateien, wie kann ich für

Logstash erwartet von #

Anzahl der Antworten 2 Antworten
Ich versuche momentan laufen Lostash mit der folgenden config-Datei: input { stdin { } } output { rabbitmq { exchange => "test_exchange" exchange_type => "fanout" host => "172.17.x.x" } } Ich habe jedoch einen Fehler: logstash agent

Logstash grok filter - name Felder dynamisch

Anzahl der Antworten 2 Antworten
Ich habe log-Zeilen im folgenden format und die zu extrahierenden Felder: [field1: content1] [field2: content2] [field3: content3] ... Ich weder auf dem Gebiet kennen den Namen, noch die Anzahl der Felder. Versuchte ich es mit Rückverweise und

logstash Ausgabe elasticsearch-index und Zuordnung

Anzahl der Antworten 2 Antworten
Ich bin versucht zu haben, logstash Ausgabe elasticsearch, aber ich bin mir nicht sicher, wie die Zuordnung definierte ich in elasticsearch... In Kibana, ich Tat dies: Erstellt einen index und Zuordnung wie dieses: PUT /kafkajmx2 { "mappings":

So erstellen Wert-über-Zeit-Diagramm mit Kibana 3?

Anzahl der Antworten 1 Antworten
Benutze ich logstash zum speichern von log-Dateien, die die Geschwindigkeit von Fahrzeugen über die Zeit. In Kibana 3, wie kann ich erstellen ein panel, das zeigt ein Wert über die Zeit, d.h. die x-Achse zeigt die Zeit

Schreiben Logstash config-Datei

Anzahl der Antworten 1 Antworten
Hallo und vielen Dank für Ihre Zeit. Ich muss Konfigurationsdatei erstellen, das ist der Eingang: 2017-02-14T13:39:33+02:00 PulseSecure: 2017-02-14 13:39:33 - ive - [10.16.4.225] dpnini(Benutzer) - Prüfung-Passwort-realm Einschränkungen fehlgeschlagen für dpnini/Benutzer - und das ist der gewünschte text-Datei

kann keine Verbindung elasticsearch, logstash

Anzahl der Antworten 5 Antworten
Ich versuche zu verbinden, elasticsearch, logstash, die auf einem zentralen logstash-aggregator Ich bin mit den logstash web-interface über port 80 mit kibana. Dies ist der Befehl, den ich bin mit zu beginnen, logstash : /usr/bin/java -jar /etc/alternatives/logstashhome/logstash.jar

LogStash: kibana Alert - Keine Ergebnisse gab Es keine Ergebnisse, weil keine Beweise gefunden wurden passend zu Ihrem gewählten Zeitspanne

Anzahl der Antworten 1 Antworten
Ich bin mit logstash mit elestic-Suche und kibana für meine mining-meine logs. Es war in Ordnung arbeiten, bis gestern aber plötzlich begannen, die folgenden Fehler, die ich bin nicht in der Lage zu verstehen - No results

logstash - verwenden Sie die ruby-code innerhalb eines filters

Anzahl der Antworten 1 Antworten
ist es möglich, ruby-code, der in einem filter? so etwas wie dieses: filter { csv{ ruby { code => " fieldArray = event['message'].split(',') for field in fieldArray event[field] = field end " } } } InformationsquelleAutor mike

logstash add_field und remove_field

Anzahl der Antworten 2 Antworten
Versuche ich zu vereinfachen, mein logstash-Konfiguration. Ich möchte teilen Sie die program-Feld in separate Felder (wie unten angezeigt) aber ich würde es vorziehen, die Verwendung von nur einem grok-Anweisung (wenn es überhaupt möglich ist!) Den zwei folgenden

So ordnen Sie eine variable in logstash config?

Anzahl der Antworten 1 Antworten
Ich versuche zum abrufen der host-Namen der Ereignisse, logstash verarbeitet, und wenn die Ereignisse entspricht den Kriterien möchte ich den host-Namen gesendet werden, um zu einer anderen Datei. Aber mittlerweile ist das Ereignis gesendet werden soll, elasticsearch

Logstash/Grok: Lesen unterzeichenfolge von Feld mit regex

Anzahl der Antworten 2 Antworten
Ich versuche zu extrahieren eines Teilstrings aus meiner request_uri Feld in logstash. Grok teilt meine voran access-log-Zeile in mehrere Feld (funktioniert bereits), so bekomme ich die request_uri in sein eigenes Feld. Jetzt möchte ich, um den root-Kontext

Generieren filebeat benutzerdefinierte Felder

Anzahl der Antworten 2 Antworten
Habe ich ein elasticsearch-cluster (ELK) und einige Knoten senden die Protokolle an den logstash mit filebeat. Alle Server in meiner Umgebung sind CentOS 6.5. Den filebeat.yml-Datei in jedem server erzwungen wird durch ein Puppet-Modul (sowohl meine Produktion-und

Drop log-Meldungen mit einer bestimmten Zeichenfolge

Anzahl der Antworten 2 Antworten
Also ich habe log-Nachrichten im format : [INFO] <blah.blah> 2016-06-27 21:41:38,263 some text [INFO] <blah.blah> 2016-06-28 18:41:38,262 some other text Möchte ich nun löschen Sie alle Protokolle, die nicht einen bestimmten string enthalten "xyz" und alle halten