Tag: batch-normalization

Batch-Normalisierung ist eine Technik zur Verbesserung des Lernens in neuronalen Netzen durch die Normalisierung der Verteilung der einzelnen Eingabe-Features in jeder Ebene auf jeder minibatch N(0, 1).

Batch-Normalisierung in Convolutional Neural Network

Anzahl der Antworten 2 Antworten
Ich bin Neuling in convolutional neural networks und habe nur Ahnung von feature maps und wie Faltung erfolgt auf Bilder zum extrahieren von features. Ich wäre froh, zu wissen, einige details über die Anwendung batch-Normalisierung in der

Was ist die richtige batch-Normalisierung in Tensorflow?

Anzahl der Antworten 2 Antworten
In tensorflow 1.4, fand ich zwei Funktionen, die batch-Normalisierung-und Sie sehen gleich: tf.layers.batch_normalization (link) tf.contrib.layers.batch_norm (link) Welche Funktion soll ich verwenden? Welches ist stabiler? InformationsquelleAutor KimHee | 2017-12-28