elasticsearch / kibana Fehler "Daten zu groß ist, Daten für [@timestamp] größer wäre als limit
Auf meinem test-ELK cluster, ich bin auf den folgenden Fehler beim Versuch, die Daten aus der letzten Woche.
Data too large, data for [@timestamp] would be larger than limit
Die Warnung über Scherben andernfalls erscheint irreführend, da das elasticsearch-monitoring-tools kopf
und head
zeigen, dass alle Scherben sind ordnungsgemäß funktioniert, und die elastischen cluster ist grün.
Einen Benutzer in die google-Gruppe für elasticsearch schlägt die Erhöhung ram. Ich habe erhöhte meine 3 Knoten zu 8GB mit jeweils 4,7 GB heap, aber das Problem weiterhin besteht.
Ich bin Generierung von über 5 GB und 25 GB Daten pro Tag, mit einer 30-Tage-retention.
Du musst angemeldet sein, um einen Kommentar abzugeben.
Löschen des cache lindert die Symptome für jetzt.
http://www.elastic.co/guide/en/elasticsearch/reference/current/indices-clearcache.html
Klar einem einzigen index
Klar mehrere Indizes
Oder wie empfohlen von einem user im IRC. Dies scheint zu funktionieren am besten.
Update: diese Fehler ging Weg, sobald die cluster verschoben wurde, um eine schnellere hypervisor
Das problem ist die Erinnerung gegeben, um die Elasticsearch durch ES_JAVA_OPTS.
Versuchen zu geben, mehr Speicher mit: ES_JAVA_OPTS="-Xmx2g -Xms2g".
Löschen des cache hat nicht funktioniert für unsere cluster. Bei der überprüfung der verschiedenen Knoten mit http://x.x.x.x:9200/_cat/indices?v&s=index:desc eine Aufgabe, die oben genannten Fehler und die anderen hatten invalid pointer-Fehler. Ich Neustart des elastischen service zum einen geben die rate limit/Daten zu groß Fehler. Als er wieder online war, gab es einige nicht zugeordneten Scherben, die ich behoben, indem die Replikation zählen zu einer niedrigeren Zahl (brauchst dazu nur auf einem der Knoten zu ändern der index-Einstellungen für den cluster):
Auch https://discuss.elastic.co/t/data-too-large/32141 scheint zu erwähnen, es kann ein Problem mit der Größe des JVM-heap.