Tool zum Analysieren großer Java-Heap-Dumps

Ich habe einen HotSpot JVM-heap-dump, den ich analysieren. Die VM lief mit -Xmx31g, und die heap-dump-Datei ist 48 GB groß.

  • Ich werde nicht einmal versuchen jhat, als es erfordert etwa fünf mal die heap-Speicher (240 GB in meinem Fall) und ist furchtbar langsam.
  • Eclipse MATTE stürzt mit einem ArrayIndexOutOfBoundsException nach der Analyse der heap-dump für mehrere Stunden.

Welche anderen tools gibt es für die Aufgabe? Eine suite von Befehlszeilen-tools, das beste wäre, die aus einem Programm, das wandelt die heap-dump in effiziente Datenstrukturen für Analyse, kombiniert mit einigen anderen tools, die Arbeit an der pre-strukturierten Daten.

Kommentar zu dem Problem - Öffnen
Sind Sie sicher, dass der dump ist nicht beschädigt und dass Sie mit einer neueren version von der DTFJ-Gläser? Die ArrayIndexOutOfBoundsException - Funktionen in atleast zwei bugs. Ich bin besagt dies, weil Sie sich nicht gemeldet haben ein OOME beim laufen-MATTE, die hat einen anderen fix. Kommentarautor: Vineet Reynolds
jhat verwendet heapMap zum speichern der Objekte Lesen, die wächst exponentiell mit der Anzahl der Objekte im heap gespeichert. Eine Möglichkeit ist die änderung der decl ' s aus heapMap, TreeMap, und führen Sie die heap-Größe der jhat mindestens so groß ist wie der Prozess. Kommentarautor: codeDr

InformationsquelleAutor der Frage Roland Illig | 2011-08-31

Schreibe einen Kommentar