Tag: backpropagation
RÜCKFÜHRUNG ist eine gängige Methode des Unterrichts künstliche neuronale Netze, wie Sie zur Erfüllung einer bestimmten Aufgabe.
3
Antworten
Baue ich einen test neuronalen Netzwerk und es ist definitiv nicht arbeiten. Mein Hauptproblem ist backpropagation. Aus meiner Forschung weiß ich, dass es einfach zu bedienen ist die sigmoid-Funktion. Also, ich update jedes Gewicht von (1-Ausgang)(Ausgang)(Ziel-Output), aber
2
Antworten
Also meine Frage ist, wenn ich so etwas wie: model = Model(inputs = input, outputs = [y1,y2]) l1 = 0.5 l2 = 0.3 model.compile(loss = [loss1,loss2], loss_weights = [l1,l2], ...) Was bedeutet keras tun, die Verluste zu
2
Antworten
Ich bin mit feedforward, RÜCKFÜHRUNG, mehrschichtiges neuronales Netz, und ich bin mit sigmoid-Funktion als Aktivierungsfunktion, die mit Bereich von -1 bis 1. Aber der minimale Fehler ist nicht unter 5.8 und ich will so weniger, können Sie
3
Antworten
Für neuronale Netze Bibliothek, die ich implementiert einige Funktionen Aktivierung-und-Verlust-Funktionen und deren Ableitungen. Sie können beliebig kombiniert werden und die Ableitung am Ausgang Schichten wird das Produkt von der Verlust-Derivat und die Aktivierung Derivat. Allerdings, ich konnte
3
Antworten
Update: eine bessere Formulierung der Frage. Ich versuche zu verstehen, der backpropagation-Algorithmus mit einem XOR neuronale Netzwerk als ein Beispiel. Für diesen Fall gibt es 2 eingabeneuronen + 1 Neigung, 2 Neuronen in der hidden-layer + 1
1
Antworten
Wollte ich voraussagen, Herz-Krankheit, die mit backpropagation-Algorithmus für neuronale Netze. Dafür habe ich UCI heart disease data set hier verlinkt: verarbeitet cleveland. Um dies zu tun, habe ich das cde finden Sie auf den folgenden blog: Bauen
1
Antworten
Habe ich codiert ein backpropagation-Algorithmus in Matlab basierend auf diesen Notizen: http://dl.dropbox.com/u/7412214/BackPropagation.pdf Mein Netzwerk nimmt die Eingabe/feature-Vektoren der Länge 43, 20 Knoten in der versteckten Schicht (beliebigen parameter Wahl, die ich ändern kann), und hat eine single-output-Knoten.
2
Antworten
Dea Alle, Bin ich versucht zu implementieren, ein neuronales Netzwerk, das backpropagation verwendet. Bisher bekam ich auf die Bühne, wo jedes neuron erhält gewichteten Eingänge von allen Neuronen in der vorherigen Schicht, berechnet die sigmoid-Funktion, die basierend
2
Antworten
Was ist der Sinn des forward pass und backward pass in neuronalen Netzen? Jeder ist zu erwähnen, diese Ausdrücke beim sprechen über RÜCKFÜHRUNG und Epochen. Habe ich verstanden, dass vorwärts gehen und rückwärts-pass zusammen bilden eine Epoche.
2
Antworten
Ich versuche, die Implementierung eines feed-forward neuronalen Netzes in Java. Ich habe drei Klassen NNeuron, NLayer und NNetwork. Die "einfachen" Berechnungen scheinen gut (ich bekomme richtige Summen/Aktivierungen/Ausgaben), aber wenn es um die Ausbildung, die ich nicht scheinen,
3
Antworten
Ich versuche zu verstehen backpropagation in ein einfaches 3-Schichten-neuronales Netz mit MNIST. Es ist die input-Schicht mit weights und ein bias. Die Etiketten sind MNIST es ist also ein 10 Klasse vector. Die zweite Schicht ist ein
3
Antworten
Können Sie mir bitte sagen, der Unterschied zwischen Stochastic Gradient Descent (SGD) und back-propagation? InformationsquelleAutor | 2016-06-21
3
Antworten
Ich habe versucht zu lernen, wie back-propagation arbeiten mit neuronalen Netzen, aber immer noch auf eine gute Erklärung, die von einem weniger technischen Aspekt. Wie funktioniert back-propagation arbeiten? Wie lernt es sich aus einem Trainings-Datensatz zur Verfügung
4
Antworten
Ich versuche zu implementieren, Gradienten-Berechnung, die für neuronale Netzwerke mit backpropagation. Ich kann es nicht für die Arbeit mit cross-entropy Fehler und korrigiert linear unit (aufgrund der Kr) als Aktivierung. Ich es geschafft, meine Implementierung arbeitet für
3
Antworten
Obwohl beide der oben genannten Methoden bessere Punktzahl für eine bessere Nähe der Vorhersage, noch cross-Entropie ist bevorzugt. Ist es in allen Fällen, oder es gibt einige seltsame Szenarien, in denen wir bevorzugen die Kreuz-Entropie über MSE?
2
Antworten
Ich programmiert habe, ein Neuronales Netz in Java und arbeite jetzt auf der back-propagation-Algorithmus. Ich habe gelesen, dass die batch-updates der GEWICHTE bewirkt, dass ein stabiler Verlauf suchen, statt ein online-Gewicht-update. Als test habe ich eine Zeitreihen-Funktion
2
Antworten
Wir schreiben eine kleine ANN, die angeblich zu kategorisieren 7000 Produkte in 7 Klassen, basierend auf 10 input-Variablen. Um dies zu tun, müssen wir mit k-fold cross validation, aber wir sind irgendwie verwirrt. Haben wir diesen Auszug
3
Antworten
Ich bin computing die backpropagation Algorithmus für eine spärliche autoencoder. Ich habe es umgesetzt in python mit numpy und in matlab. Der code ist fast das gleiche, aber die Leistung ist sehr unterschiedlich. Die Zeit, die matlab
5
Antworten
Bin ich versucht zu implementieren neuronales Netz mit aufgrund der Kr. input-layer -> 1 verborgene Ebene -> aufgrund der Kr -> output layer -> softmax Schicht Oben ist die Architektur meines neuronalen Netzwerks. Ich bin verwirrt über
1
Antworten
Ich habe gerade mit der Programmierung von Neuronalen Netzen. Ich arbeite momentan an Verständnis, wie ein Backpropogation (BP) neuronales Netz funktioniert. Während der Algorithmus für die Ausbildung im BP-Netze ist sehr einfach, ich war nicht in der
2
Antworten
Was ist der Unterschied zwischen back-propagation-und feed-forward neuronale Netze? Durch googeln und Lesen fand ich heraus, dass in der feed-forward-es ist nur (vorwärts -) Richtung, aber in der back-propagation einmal müssen wir eine forward-propagation und dann back-propagation.