wie zu entscheiden, ist der Speicherbedarf für meine elasticsearch server

habe ich ein Szenario hier,

Der elasticsearch-DB mit über 1,4 TB Daten,

 _shards": {
     "total": 202,
     "successful": 101,
     "failed": 0
}

Jeder index-Größe ist ungefähr zwischen 3 GB bis 30 GB und in Naher Zukunft es ist zu erwarten, dass 30GB Größe auf einer täglichen basis.

OS Informationen:

 NAME="Red Hat Enterprise Linux Server"
 VERSION="7.2 (Maipo)"
 ID="rhel"
 ID_LIKE="fedora"
 VERSION_ID="7.2"
 PRETTY_NAME="Red Hat Enterprise Linux Server 7.2 (Maipo)"

System mit 32 GB RAM und das filesystem ist mit 2 TB (1.4 TB Genutzt werden). Ich habe konfiguriert maximal 15 GB für elasticsearch-server.
Aber das ist nicht genug für mich, zur Abfrage dieser DB. Der server hängt für eine einzelne Abfrage hit auf dem server.

Ich werden inklusive 1-TB-auf dem Dateisystem, in diesem server, so dass die insgesamt verfügbare Dateisystem Größe 3 TB.
auch ich bin der Planung zu erhöhen, die Speicher bis 128GB, das ist eine Ungefähre Schätzung.

Könnte jemand mir helfen, berechnen, wie, um zu bestimmen, die minimale RAM benötigt, für server-Antworten mindestens 50 Anfrage gleichzeitig?

Es wäre sehr dankbar, wenn Sie vorschlagen kann jedes tool/Formel zu analysieren, diese Anforderung. auch wird es hilfreich sein, wenn Sie mir geben können jedem anderen Szenario mit zahlen, so dass ich verwenden können, um zu bestimmen, meine Ressource benötigen.

  • Die Erhöhung der RAM/heap wird nicht viel helfen, in Ihrem Fall, werden Sie wahrscheinlich brauchen mehr als einen server. Schwer zu sagen, Sie mehr, ohne zu wissen, die Abfrage, die Sie gerade laufen und die Zuordnung der Indizes, wenn.
InformationsquelleAutor siva | 2017-05-17
Schreibe einen Kommentar