Tag: logstash
Logstash ist ein Werkzeug für die Verwaltung von Veranstaltungen und Protokolle. Sie können es verwenden, um Protokolle zu sammeln, analysieren Sie und senden Sie Sie an die Speicherung zur späteren Verwendung (wie die Suche).
3
Antworten
Habe ich versucht, das einrichten eines proof-of-concept elasticsearch/kibana/logstash-Umgebung, aber es ist momentan nicht funktioniert. Den LOGSTASH_HOME ist: c:\_work\issues\log4j_socketappender\logstash-5.0.1\ In der Konsole von logstash fand ich die folgende Zeile: Could not find log4j2 configuration at path /_work/issues/log4j_socketappender/logstash-5.0.1/config/log4j2.properties. Using
2
Antworten
Ich mache zentralisierte Protokollierung mithilfe von logstash. Ich bin mit logstash-forwarder auf die Absender-Knoten-und ELK-stack auf dem collector-Knoten.Ich wollte den Ort wissen, wo die Protokolle gespeichert werden, in elasticsearch ich sehe keine Daten-Dateien erstellt, wo die logs
5
Antworten
Möchte ich eine Ausgabe für den Zustrom DB von Logstash, gibt es solche plugins verfügbar? Dieser Ausgang gesetzt ist, um Graphit.. Das ist der Zustrom config: [input_plugins] # Configure the graphite api [input_plugins.graphite] enabled = true port
1
Antworten
Ich Lesen möchte meine log Dateien aus verschiedenen Verzeichnissen, wie: Server1, Server2... Server1 hat Unterverzeichnisse als cron, auth...innerhalb dieser Unterverzeichnisse ist die log file bzw. So, ich bin der Betrachtung von Lesen von Dateien wie diese: input{
3
Antworten
Habe ich Logstash installiert auf Ubuntu Server 14. Wo finde ich die Standard-grok Muster, Logstash verwendet bei der Filterung der logs ? Danke. InformationsquelleAutor Aymen Chetoui | 2015-08-10
1
Antworten
Ich bin mit Logstash mit Elasticsearch und als ein Ergebnis, das @timestamp-Feld ist ein verbindliches Dokument-Feld. Der Wert der @timestamp Feld ist immer nach ISO8601-format. Einige der Veranstaltungen/Dokumente aus Logstash nicht über ein spezielles timestamp Feld (bitte
1
Antworten
Ich versuche zu Lesen der CSV-Daten in logstash, aber einige, wie logstash ist nicht in der Lage zu split strings man Sie als csv - logstash config input { file { path => [ "/root/logstash/temp.csv" ] start_position
3
Antworten
Habe ich Tausende von log-Dateien und es wird heruntergeladen Alltag. Ich bin mit logstash und ElasticSearch für die Analyse, Indexierung und Suche. Jetzt bin ich mit file-input-plugin zum Lesen von heruntergeladenen Dateien und analysiert. Ich habe nicht
1
Antworten
Ich habe Probleme bei der Konfiguration von logstash die Ausgabe an einen Elasticsearch-cluster auf AWS EC2. Ich bin mit Logstash-version 1.1.5 und Elasticsearch 1.19.8. Dies ist mein output-Konfiguration in logstash: output { stdout { debug => true
5
Antworten
Konfigurierte ich eine Fortimail-schicken Ihre Nachrichten an Logstash, aber wenn ich die Protokolle anzeigen auf der kibana Dashboard. Ich teilen möchten, auf das Feld Nachricht auf mehrere Felder wie : time, device_id, from, to ... siehe dieses
3
Antworten
Das problem Ich habe eine Maschine mit logstash auf, und eine andere Elasticsearch-Kibana-Maschine, die speichert die logs geschrieben von logstash auf der ersten Maschine. Natürlich möchte ich keine logs gehalten werden, die auf die Herkunft der Maschine
2
Antworten
Ist es möglich, logstash Filter in der Reihenfolge? Zum Beispiel möchte ich parse Nachricht in das json dann neu erstellte Feld aufgeteilt in Zeichen. input => filter => filter => Ausgabe => elasticsearch InformationsquelleAutor Marcin | 2015-11-27
1
Antworten
Brauche ich zum anpassen der log-Meldungen an eine JSON-format in meine Rails-app. Veranschaulichen, die derzeit die log-Meldungen, die meine app produziert, die wie folgt Aussehen: I, [2015-04-24T11:52:06.612993 #90159] INFO -- : Started GET "/time_entries" for ::1 at
1
Antworten
Ich bin mit Logstash in windows. ich war nicht in der Lage zu installieren jdbc-Eingang Stecker, damit ich die zip-Datei heruntergeladen manuell und Stelle die logstash-Ordner vom plugin in mein logstash-1.5.2 Ordner. die Ordner - Struktur "D:\elastic
2
Antworten
Bei der Verwendung der Datei-input mit Logstash, ein sincedb-Datei geschrieben, um zu verfolgen die aktuelle position des überwachten log-Dateien. Wie zu verstehen, seinen Inhalt? Beispiel einer sincedb Datei: 286105 0 19 20678374 InformationsquelleAutor Aldian | 2015-01-16
1
Antworten
In Logstash, wenn ein Protokoll von einer bestimmten Zeit verarbeitet wird, möchte ich Logstash zu tun, einen HTTP-POST an einen webserver senden von JSON. Jedoch, es gibt mir Fehler und startet nicht logstsh. Ich gehe davon aus,
2
Antworten
logstash configIch habe meine index auf elasticsearch und durch kibana und haben die hochgeladenen Daten. Das will ich jetzt ändern Sie die Zuordnung für den index aus und ändern Sie einige Felder, die nicht analysiert .Unten ist
2
Antworten
Ich habe ein seltsames problem mit Logstash. Ich bin die Bereitstellung einer log-Datei als Eingabe zu logstash. Die Konfiguration ist wie folgt: input { file { type => "apache-access" path => ["C:\Users\spanguluri\Downloads\logstash\bin\test.log"] } } output { elasticsearch
1
Antworten
GrayLog2 erfordert sowohl ElasticSearch und MongoDB, während Logstash verwendet nur ElasticSearch zum speichern und durchsuchen der logs. what does mongo provide in graylog2? Dies war das erste Google-suchergebnis für graylog2 mongodb: alexey-palazhchenko.tumblr.com/post/5070526903/... Der link, den Sie teilten
1
Antworten
Dies ist mein log: 68.192.186.96 - - [18/May/2015:12:54:42 +0000] GET http://test.com/sectionId/592/apiVersion/2/type/json HTTP/1.1 200 575 \"-\" \"Mozilla/5.0 (Windows NT 6.3; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/42.0.2311.152 Safari/537.36\" \"icon_seq=0; PHPSESSID=frmnhfrrc25ullikbv71thc283\" dies ist mein Muster %{IPORHOST:remoteip} \- \- \[%{HTTPDATE:timestamp}\] %{WORD:verb}
2
Antworten
Habe ich eine version 5 ELK-stack (mit X-Pack) und ich verwende die folgenden logstash conf-Datei, die scheint zu grok analysieren der access log korrekt (wie ich es sehe, in der Ausgabe): input { file { path =>
4
Antworten
Frage ich mich, wie man erstellen Sie getrennte Indizes für unterschiedliche Protokolle holte in logstash (die später an elasticsearch), so dass in kibana kann ich definieren zwei Indizes für und entdecken Sie. In meinem Fall habe ich
3
Antworten
Ich will einen zentralen logging-server. Erstellt habe ich zwei Ubuntu 12.04 LTS-Server basierend auf diese iso. Nach erfolgreich und streng nach dieses tutorial Schritte, die ich habe: Eine Logging-Server mit Logstash + ElasticSearch + Kibana. Und ein
2
Antworten
Ich bin ein wenig verwirrt. Ich bin versucht zu ziehen aus der syslog date (backfilling the logstash) und ersetzen Sie die @timestamp mit ihm. Ich habe versucht, fast alles. Dies ist mein filter filter { if [type]
2
Antworten
wenn mit logstash ich eine Fehlermeldung wie diese : Received an event that has a different character encoding than you configured. {:text=>"2014-06-22T11:49:57.832631+02:00 10.17.22.37 date=2014-06-22 time=11:49:55 device_id=LM150D9L23000422 log_id=0312318759 type=statistics pri=information session_id=\\\"s617nnE2019973-s617nnE3019973\\\" client_name=\\\"[<IP address>]\\\" dst_ip=\\\"<ip address>\\\" from=\\\"
[email protected]\\\" to=\\\"
[email protected]\\\" polid=\\\"0:1:1\\\"
1
Antworten
Ich bin mit logstash 1.4.2, Ich habe logstash-forwarder.conf im client-log-server wie dieser { "network": { "servers": [ "xxx.xxx.xxx.xxx:5000" ], "timeout": 15, "ssl ca": "certs/logstash-forwarder.crt" }, "files": [ { "paths": [ "/var/log/messages" ], "fields": { "type": "syslog" }
3
Antworten
JS: input { jdbc { jdbc_driver_library => "sqljdbc4.jar" jdbc_driver_class => "com.microsoft.sqlserver.jdbc.SQLServerDriver" jdbc_connection_string => "jdbc:sqlserver://192.168.2.126\\SQLEXPRESS2014:1433;databaseName=test jdbc_password => "sa@sa2015" schedule => "0 0-59 0-23 * * *" statement => "SELECT ID , Name, City, State,ShopName FROM dbo.Shops" jdbc_paging_enabled =>
1
Antworten
Habe ich Probleme mit grok analysieren. In ElasticSearch/Kibana ich die Leitungen match kommen mit der tag-_grokparsefailure. Hier ist mein logstash config : input { file { type => logfile path => ["/var/log/mylog.log"] } } filter { if
4
Antworten
Begannen wir mit Serilog in Kombination mit Elasticsearch, und es ist eine sehr effiziente Möglichkeit zum speichern von Struktur-log-Daten (und später visualisieren Sie Sie mit tools wie Kibana). Allerdings sehe ich den Vorteil, dass keine schreiben von
3
Antworten
Nicht finden können, jedes input-plugin für Relationale Datenbanken in der Logstash Dokumentation. Was ist die beste Vorgehensweise zum importieren von Daten aus einer Relationalen Datenbank-Tabelle mit logstash? Ist die Verbindung Elastisch-Suche direkt auf der Datenbank per JDBC?
2
Antworten
Zusammenfassung: Ich bin mit Logstash - Grok und elastic search und mein Hauptziel ist es erst akzeptieren die Protokolle, die von logstash, analysieren Sie durch verstehen und zuordnen von tags mit den Nachrichten, die je nach Art
3
Antworten
Ich bin vor einige Probleme mit der Analyse einer logline. Habe ich tausenden von loglines und jeder logline enthält einen Hostnamen wie ABC123DF Ich Habe geschrieben einen regex, und ich will es anwenden, um die logline und
2
Antworten
Ich bin mit Grok & Logstash zu senden access-logs von Nginx zu Elastic search. Ich gebe Logstash alle meine access-logs (mit einer wildcard funktioniert gut) und ich würde gerne den Dateinamen (ein Teil davon, um genau zu
2
Antworten
Ich versuche zu setup ein LogStash/Redis/ElasticSearch-pipeline für die zentralisierte Protokollierung,ich habe ein paar Fragen, Ich glaube, für diese zu arbeiten, müssen Sie eine bestimmte version von elasticsearch & logstash, ist es ein Ort, wo ich finden kann,
2
Antworten
In mein Logstash shipper, ich will heraus zu filtern, Zeilen kommentiert mit dem hash-Zeichen: #This log row should be dropped. But one this should not. Konnte ich grep filter, aber es wird davon abgeraten (wird stillgelegt), ich
3
Antworten
Ich glaube, es ist eine einfache Frage, aber ich immer noch nicht bekommen von Docker-verfassen-Dokumentationen. Was ist der Unterschied zwischen links und external_links? Ich mag external_links wie ich will-core-Andockfenster-Komponieren, und ich will es verlängern, ohne überschreiben der
1
Antworten
Wollen wir einen server einrichten für logstash für ein paar andere Projekt in unserer Firma. Jetzt versuche ich, um Ihnen zu ermöglichen, in Kibana. Meine Frage ist: Wenn ich verschiedene Muster der log-Dateien, wie kann ich für
2
Antworten
Ich versuche momentan laufen Lostash mit der folgenden config-Datei: input { stdin { } } output { rabbitmq { exchange => "test_exchange" exchange_type => "fanout" host => "172.17.x.x" } } Ich habe jedoch einen Fehler: logstash agent
2
Antworten
Ich habe log-Zeilen im folgenden format und die zu extrahierenden Felder: [field1: content1] [field2: content2] [field3: content3] ... Ich weder auf dem Gebiet kennen den Namen, noch die Anzahl der Felder. Versuchte ich es mit Rückverweise und
2
Antworten
Ich bin versucht zu haben, logstash Ausgabe elasticsearch, aber ich bin mir nicht sicher, wie die Zuordnung definierte ich in elasticsearch... In Kibana, ich Tat dies: Erstellt einen index und Zuordnung wie dieses: PUT /kafkajmx2 { "mappings":
1
Antworten
Benutze ich logstash zum speichern von log-Dateien, die die Geschwindigkeit von Fahrzeugen über die Zeit. In Kibana 3, wie kann ich erstellen ein panel, das zeigt ein Wert über die Zeit, d.h. die x-Achse zeigt die Zeit
1
Antworten
Hallo und vielen Dank für Ihre Zeit. Ich muss Konfigurationsdatei erstellen, das ist der Eingang: 2017-02-14T13:39:33+02:00 PulseSecure: 2017-02-14 13:39:33 - ive - [10.16.4.225] dpnini(Benutzer) - Prüfung-Passwort-realm Einschränkungen fehlgeschlagen für dpnini/Benutzer - und das ist der gewünschte text-Datei
5
Antworten
Ich versuche zu verbinden, elasticsearch, logstash, die auf einem zentralen logstash-aggregator Ich bin mit den logstash web-interface über port 80 mit kibana. Dies ist der Befehl, den ich bin mit zu beginnen, logstash : /usr/bin/java -jar /etc/alternatives/logstashhome/logstash.jar
1
Antworten
Ich bin mit logstash mit elestic-Suche und kibana für meine mining-meine logs. Es war in Ordnung arbeiten, bis gestern aber plötzlich begannen, die folgenden Fehler, die ich bin nicht in der Lage zu verstehen - No results
1
Antworten
ist es möglich, ruby-code, der in einem filter? so etwas wie dieses: filter { csv{ ruby { code => " fieldArray = event['message'].split(',') for field in fieldArray event[field] = field end " } } } InformationsquelleAutor mike
2
Antworten
Versuche ich zu vereinfachen, mein logstash-Konfiguration. Ich möchte teilen Sie die program-Feld in separate Felder (wie unten angezeigt) aber ich würde es vorziehen, die Verwendung von nur einem grok-Anweisung (wenn es überhaupt möglich ist!) Den zwei folgenden
1
Antworten
Ich versuche zum abrufen der host-Namen der Ereignisse, logstash verarbeitet, und wenn die Ereignisse entspricht den Kriterien möchte ich den host-Namen gesendet werden, um zu einer anderen Datei. Aber mittlerweile ist das Ereignis gesendet werden soll, elasticsearch
2
Antworten
Ich versuche zu extrahieren eines Teilstrings aus meiner request_uri Feld in logstash. Grok teilt meine voran access-log-Zeile in mehrere Feld (funktioniert bereits), so bekomme ich die request_uri in sein eigenes Feld. Jetzt möchte ich, um den root-Kontext
2
Antworten
Habe ich ein elasticsearch-cluster (ELK) und einige Knoten senden die Protokolle an den logstash mit filebeat. Alle Server in meiner Umgebung sind CentOS 6.5. Den filebeat.yml-Datei in jedem server erzwungen wird durch ein Puppet-Modul (sowohl meine Produktion-und
2
Antworten
Also ich habe log-Nachrichten im format : [INFO] <blah.blah> 2016-06-27 21:41:38,263 some text [INFO] <blah.blah> 2016-06-28 18:41:38,262 some other text Möchte ich nun löschen Sie alle Protokolle, die nicht einen bestimmten string enthalten "xyz" und alle halten