Tag: recurrent-neural-network
Einem rekurrenten neuronalen Netz (RNN) ist eine Klasse von künstlichen neuronalen Netzwerk, in dem verbindungen zwischen den Einheiten bilden einen gerichteten Zyklus.
1
Antworten
Ich bin derzeit lernen über Convolutional Neural Networks durch das Studium Beispiele wie die MNIST Beispiele. Während des Trainings eines neuronalen Netzes, ich sehe Häufig, Ausgabe: Epoch | Train loss | Valid loss | Train /Val --------
3
Antworten
Ich arbeite seit über Neuronale Netze für verschiedene Zwecke in letzter Zeit. Ich habe großen Erfolg in Ziffer Anerkennung, XOR, und verschiedene andere einfache/Hallo Welt ' ish-Anwendungen. Möchte ich gegen die domain von Zeitreihen-Schätzung. Ich habe kein
3
Antworten
In Tensorflow tutorial von RNN: https://www.tensorflow.org/tutorials/recurrent . Er nennt zwei Parameter: batch-Größe und die Zeit, die Schritte. Ich bin verwirrt durch die Konzepte. Meiner Meinung nach RNN führt batch ist da die Tatsache, dass die um-Zug-Sequenz kann
1
Antworten
Bekam ich die folgende Fehlermeldung, wenn ich versuche den code auszuführen, der am Ende der post. Aber es ist mir nicht klar, was ist Los mit meinem code. Könnte jemand lassen Sie mich wissen, die tricks beim
4
Antworten
Möchte ich wissen, wie vielschichtig die bidirektionale LSTM in Tensorflow. Habe ich bereits implementiert, die den Inhalt des bidirektionalen LSTM, aber ich will vergleichen Sie dieses Modell mit dem Modell Hinzugefügt multi-Schichten. Wie sollte ich code hinzufügen,
2
Antworten
Ich versuche RNN auf eine variable Länge multivariate sequence classification problem. Ich habe folgende Funktion, um die Ausgabe der Sequenz (d.h. die Ausgabe des RNN-Zelle nach der letzten Eingabe von Sequenz zugeführt wird) def get_sequence_output(x_sequence, initial_hidden_state): previous_hidden_state
1
Antworten
Mache ich text-tagger über Bidirektionale dynamische RNN in tensorflow. Nachdem die Maschine auf der Eingabe der dimension, ich habe versucht, führen Sie eine Sitzung. dies ist blstm Einstellung teilen: fw_lstm_cell = BasicLSTMCell(LSTM_DIMS) bw_lstm_cell = BasicLSTMCell(LSTM_DIMS) (fw_outputs, bw_outputs),
2
Antworten
Habe ich codiert ANN-Klassifikatoren mit keras, und jetzt Lerne ich mich zu code RNN in keras für text-und Zeit-Serie Prognose. Nach der Suche ein, während im web fand ich diese tutorial von Jason Brownlee das ist anständig
3
Antworten
Ich versuche für multi-class-Klassifizierung und hier sind die details meines Trainings-Eingang und-Ausgang: train_input.Form= (1, 95000, 360) (95000 Länge Eingabe-array mit den einzelnen element ist ein array von 360 Länge) train_output.Form = (1, 95000, 22) (22 Klassen gibt
3
Antworten
Mein input ist einfach eine csv-Datei mit 339732 Zeilen und zwei Spalten : die ersten 29 Funktion Werte, d.h. X die zweite ist eine binäre label-Wert, d.h. Y Ich versuche zu trainieren, meine Daten auf eine gestapelt
2
Antworten
Ich versuche, mich zu übergeben, das die Ausgabe einer Ebene in zwei verschiedenen Ebenen, und dann kommen Sie wieder zusammen. Allerdings bin ich angehalten zu werden, die von diesem Fehler und sagt mir, dass mein input ist
3
Antworten
Ich bin mit bidirectional_rnn mit GRUCell aber das ist eine Allgemeine Frage bezüglich der RNN in Tensorflow. Konnte ich nicht finden, wie zum initialisieren der Gewichts-Matrizen (input, hidden, hidden, versteckt). Sind Sie zufällig initialisiert? zu Nullen? sind
4
Antworten
Kann mir bitte jemand dies erklären? Ich weiß, bidirektionale LSTMs haben eine forward-und backward-pass, aber was ist der Vorteil, dies über eine unidirektionale LSTM? Was ist jeweils besser geeignet? InformationsquelleAutor shekit | 2017-03-26
2
Antworten
Könnte jemand bitte klären, ob der anfängliche Zustand des RNN in TF-reset für nachfolgende mini-batches, oder der Letzte Zustand der früheren mini-batch verwendet wird, wie erwähnt, in Ilja Sutskever et al., ICLR 2015 ? InformationsquelleAutor VM_AI |
5
Antworten
Ich versuchte zu verwenden RNN (insbesondere LSTM) für Sequenz-Vorhersage. Hier Stand ich vor einigen Problemen. Zum Beispiel: sent_1 = "I am flying to Dubain" sent_2 = "I was traveling from US to Dubai" Was ich versuche zu
1
Antworten
Versucht zu implementieren eines minimalen Spielzeug RNN Beispiel in tensorflow. Das Ziel ist, zu lernen, ein mapping der input-Daten auf die Ziel-Daten, ähnlich wie diese wunderbare prägnante Beispiel in theanets. Update: Wir sind es immer. Der einzige
1
Antworten
In diesem blog-post, Die Unvernünftige Effektivität von Rekurrenten Neuronalen NetzenAndrej Karpathy erwähnt zukünftige Richtungen für neuronale Netze maschinelles lernen: Dem Konzept der Aufmerksamkeit ist die interessante architektonische innovation in neuronalen Netzen. [...] soft-Aufmerksamkeit-Schema für Speicher-Adressierung ist praktisch,
2
Antworten
Weiß wer, ob gibt es ein nettes LSTM-Modul für Caffe? Ich fand eine aus einem github-account von russel91 aber offenbar die Seite mit Beispielen und Erklärungen verschwunden (Ehemals http://apollo.deepmatter.io/ --> jetzt leitet nur die github-Seitedie keine Beispiele
3
Antworten
Ich versuche zu tun, etwas Vanille Mustererkennung mit einem LSTM mit Keras, um vorherzusagen, das nächste element in einer Sequenz. Meine Daten wie folgt Aussehen: wo das Etikett der Trainingseinheit ist das Letzte element in der Liste:
1
Antworten
Ich versuche zu verstehen, LSTMs und wie Sie zu bauen mit Keras. Ich fand heraus, dass es hauptsächlich um die 4 Modi zum ausführen einer RNN (die 4 richtigen im Bild) Bild-Quelle: Andrej Karpathy Nun Frage ich
2
Antworten
Gegeben ausgebildete LSTM-Modell ich möchte Inferenz für die einzelnen Zeitintervallen, D. H. seq_length = 1 im Beispiel unten. Nach jedem Zeitschritt die interne LSTM (Speicher-und ausgeblendet) die Mitgliedstaaten müssen daran erinnert werden, für die nächste charge. Für
7
Antworten
Ich bin neu in das Thema der neuronalen Netze. Ich kam über die beiden Begriffe convolutional neural network und rekurrenten neuronalen Netzwerk. Frage ich mich, ob diese beiden Begriffe beziehen sich auf die gleiche Sache, oder, wenn
5
Antworten
In MNIST LSTM Beispiele, ich verstehe nicht, was "hidden layer" bezeichnet. Ist es das imaginäre-Schicht gebildet, wenn Sie stellen ein entrollt RNN im Laufe der Zeit? Warum ist die num_units = 128 in den meisten Fällen ?