Was ist die maximale Anzahl von Dateien in einem HDFS-Verzeichnis?
Was ist die maximale Anzahl von Dateien und Verzeichnissen erlaubt in einem HDFS (hadoop) - Verzeichnis?
Du musst angemeldet sein, um einen Kommentar abzugeben.
Was ist die maximale Anzahl von Dateien und Verzeichnissen erlaubt in einem HDFS (hadoop) - Verzeichnis?
Du musst angemeldet sein, um einen Kommentar abzugeben.
Blöcke und Dateien werden in einer HashMap. So sind Sie verpflichtet, zu Integer.MAX_VALUE.
So ein Verzeichnis ist keine Einschränkung, sondern das gesamte Dateisystem.
In der modernen Apache-Hadoop-Versionen, verschiedenen HDFS Grenzen gesteuert werden, indem Sie configuration properties mit
fs-limits
im Namen, die alle haben sinnvolle Standardwerte. Diese Frage ausdrücklich gebeten, über die Anzahl der Kinder, die in einem Verzeichnis. Das ist definiert durchdfs.namenode.fs-limits.max-directory-items
, und der Standardwert ist1048576
.Finden Sie auf der Apache-Hadoop-Dokumentation in hdfs-default.xml für die vollständige Liste der
fs-limits
Konfigurations-Eigenschaften und Ihre Standardwerte. Kopieren-einfügen hier für die Bequemlichkeit:Alle diese Einstellungen verwenden, vernünftige Standard-Werte beschlossen, die von der Apache Hadoop community. Es wird allgemein empfohlen, dass die Benutzer nicht die Melodie, die diese Werte außer in sehr ungewöhnlichen Umständen.
Vom http://blog.cloudera.com/blog/2009/02/the-small-files-problem/:
Jedes Datei -, Verzeichnis-und block im HDFS ist als ein Objekt dargestellt, in der namenode ist der Speicher, von denen jeder nimmt 150 bytes, als Faustregel. Also 10 Millionen Dateien, die jeweils mit einem block nutzen würde, über 3 Gigabyte Speicher. Scaling-up viel über diese Ebene besteht ein problem mit der aktuellen hardware. Sicherlich ein Milliarden-Dateien ist nicht möglich.
Diese Frage wird insbesondere erwähnt, HDFS, aber eine Verwandte Frage ist, wie viele Dateien können Sie speichern auf einem Hadoop-cluster.
Dass hat eine andere Antwort, wenn Sie MapR Dateisystem. In diesem Fall, die Milliarden von Dateien kann gespeichert werden auf dem cluster ohne ein problem.
in HDFS, die maximale Dateinamenlänge von 255 bytes. also, der Spruch über ein file-Objekt belegt nur 150 Bytes werden nicht richtig oder genau sind. bei der Berechnung der bytes für Speicher, sollten wir die maximale Besetzung eines Objekts.