Verständnis Neuronalen Netzes Backpropagation

Update: eine bessere Formulierung der Frage.

Ich versuche zu verstehen, der backpropagation-Algorithmus mit einem XOR neuronale Netzwerk als ein Beispiel. Für diesen Fall gibt es 2 eingabeneuronen + 1 Neigung, 2 Neuronen in der hidden-layer + 1 bias-und 1 output-neuron.

 A   B  A XOR B
 1    1   -1
 1   -1    1
-1    1    1
-1   -1   -1

Verständnis Neuronalen Netzes Backpropagation

(Quelle: wikimedia.org)

Ich bin mit stochastische RÜCKFÜHRUNG.

Nach der Lektüre ein bisschen mehr ich haben heraus gefunden, dass der Fehler der die Ausgabe-Einheit weitergegeben wird, um die ausgeblendeten Ebenen... anfangs verwirrend, weil, wenn Sie die input-layer des neuronalen Netzes, dann ist jedes neuron bekommt eine Fehlermeldung Anpassung von sowohl der Neuronen in der versteckten Schicht. In allem die Art, wie der Fehler verteilt ist, ist schwer auf den ersten zu erfassen.

Schritt 1 berechnen der Ausgabe für jede Instanz von Eingabe.

Schritt 2 berechne den Fehler zwischen dem output-neuron(s) (in unserem Fall gibt es nur eine) und der Sollwert(s):

Verständnis Neuronalen Netzes Backpropagation

Schritt 3 verwenden wir die Fehler aus Schritt 2 zur Berechnung des Fehlers für jede hidden unit h:

Verständnis Neuronalen Netzes Backpropagation

Das "Gewicht kh' ist der GEWICHTE zwischen der hidden-unit h und die Ausgabe-Einheit k, auch dies ist verwirrend, da sich die input-Einheit nicht direkt Gewicht im Zusammenhang mit der output-unit. Nach starrte auf die Formel für ein paar Stunden fing ich an zu denken über das, was die Summe bedeutet, und ich fange an, kommen zu dem Schluss, dass jedes input-neuron, das Gewicht, das in Verbindung zu dem verborgenen Schicht Neuronen multipliziert wird, indem der Ausgang Fehler und summiert. Dies ist eine logische Schlussfolgerung, aber die Formel scheint ein wenig verwirrend, da es sagt ganz klar das "Gewicht kh' (zwischen der output-Schicht k und der verdeckten Schicht h).

Verstehe ich alles richtig hier? Kann jemand dies bestätigen?

Was ist O(h) von der input-Schicht? Mein Verständnis ist, dass jeder Eingabe-Knoten hat zwei Ausgänge: einen, der geht in den ersten Knoten der verborgenen Schicht und eine, die geht in die zweiten Knoten der verborgenen Ebene. Welcher der beiden Ausgänge sollten eingesteckt werden in die O(h)*(1 - O(h)) Teil der Formel?

Verständnis Neuronalen Netzes Backpropagation

InformationsquelleAutor Kiril | 2010-02-03
Schreibe einen Kommentar