Tag: recurrent-neural-network

Einem rekurrenten neuronalen Netz (RNN) ist eine Klasse von künstlichen neuronalen Netzwerk, in dem verbindungen zwischen den Einheiten bilden einen gerichteten Zyklus.

Was ist Zug-Verlust, Gilt der Verlust und die Zug/Val Mittelwert in NNs

Anzahl der Antworten 1 Antworten
Ich bin derzeit lernen über Convolutional Neural Networks durch das Studium Beispiele wie die MNIST Beispiele. Während des Trainings eines neuronalen Netzes, ich sehe Häufig, Ausgabe: Epoch | Train loss | Valid loss | Train /Val --------

Zeitreihe-Vorhersage mittels Neuronaler Netze

Anzahl der Antworten 3 Antworten
Ich arbeite seit über Neuronale Netze für verschiedene Zwecke in letzter Zeit. Ich habe großen Erfolg in Ziffer Anerkennung, XOR, und verschiedene andere einfache/Hallo Welt ' ish-Anwendungen. Möchte ich gegen die domain von Zeitreihen-Schätzung. Ich habe kein

Zweifel hinsichtlich der batch-Größe und die Zeit, die Schritte im RNN

Anzahl der Antworten 3 Antworten
In Tensorflow tutorial von RNN: https://www.tensorflow.org/tutorials/recurrent . Er nennt zwei Parameter: batch-Größe und die Zeit, die Schritte. Ich bin verwirrt durch die Konzepte. Meiner Meinung nach RNN führt batch ist da die Tatsache, dass die um-Zug-Sequenz kann

Tensorflow: der Versuch, mit nicht initialisierten Wert beta1_power

Anzahl der Antworten 1 Antworten
Bekam ich die folgende Fehlermeldung, wenn ich versuche den code auszuführen, der am Ende der post. Aber es ist mir nicht klar, was ist Los mit meinem code. Könnte jemand lassen Sie mich wissen, die tricks beim

Wie zu verwenden vielschichtigen bidirektionale LSTM in Tensorflow?

Anzahl der Antworten 4 Antworten
Möchte ich wissen, wie vielschichtig die bidirektionale LSTM in Tensorflow. Habe ich bereits implementiert, die den Inhalt des bidirektionalen LSTM, aber ich will vergleichen Sie dieses Modell mit dem Modell Hinzugefügt multi-Schichten. Wie sollte ich code hinzufügen,

In tensorflow, wie der Iteration über eine Sequenz von Eingaben gespeichert in einem tensor?

Anzahl der Antworten 2 Antworten
Ich versuche RNN auf eine variable Länge multivariate sequence classification problem. Ich habe folgende Funktion, um die Ausgabe der Sequenz (d.h. die Ausgabe des RNN-Zelle nach der letzten Eingabe von Sequenz zugeführt wird) def get_sequence_output(x_sequence, initial_hidden_state): previous_hidden_state

ValueError: Tensor muss aus dem gleichen Graphen als Tensor mit Bidirectinal RNN in Tensorflow

Anzahl der Antworten 1 Antworten
Mache ich text-tagger über Bidirektionale dynamische RNN in tensorflow. Nachdem die Maschine auf der Eingabe der dimension, ich habe versucht, führen Sie eine Sitzung. dies ist blstm Einstellung teilen: fw_lstm_cell = BasicLSTMCell(LSTM_DIMS) bw_lstm_cell = BasicLSTMCell(LSTM_DIMS) (fw_outputs, bw_outputs),

Wie zu verwenden keras RNN für die text-Klassifizierung in einem dataset?

Anzahl der Antworten 2 Antworten
Habe ich codiert ANN-Klassifikatoren mit keras, und jetzt Lerne ich mich zu code RNN in keras für text-und Zeit-Serie Prognose. Nach der Suche ein, während im web fand ich diese tutorial von Jason Brownlee das ist anständig

ValueError: Eingang 0 ist nicht kompatibel mit layer lstm_13: erwartete ndim=3, gefunden ndim=4

Anzahl der Antworten 3 Antworten
Ich versuche für multi-class-Klassifizierung und hier sind die details meines Trainings-Eingang und-Ausgang: train_input.Form= (1, 95000, 360) (95000 Länge Eingabe-array mit den einzelnen element ist ein array von 360 Länge) train_output.Form = (1, 95000, 22) (22 Klassen gibt

Fehler bei der überprüfung Modell-input: erwartet lstm_1_input haben 3 Dimensionen, bekam aber-array mit Form (339732, 29)

Anzahl der Antworten 3 Antworten
Mein input ist einfach eine csv-Datei mit 339732 Zeilen und zwei Spalten : die ersten 29 Funktion Werte, d.h. X die zweite ist eine binäre label-Wert, d.h. Y Ich versuche zu trainieren, meine Daten auf eine gestapelt

Layer genannt, mit einem Eingang, der nicht in einer symbolischen tensor keras

Anzahl der Antworten 2 Antworten
Ich versuche, mich zu übergeben, das die Ausgabe einer Ebene in zwei verschiedenen Ebenen, und dann kommen Sie wieder zusammen. Allerdings bin ich angehalten zu werden, die von diesem Fehler und sagt mir, dass mein input ist

Tensorflow RNN Gewicht Matrizen Initialisierung

Anzahl der Antworten 3 Antworten
Ich bin mit bidirectional_rnn mit GRUCell aber das ist eine Allgemeine Frage bezüglich der RNN in Tensorflow. Konnte ich nicht finden, wie zum initialisieren der Gewichts-Matrizen (input, hidden, hidden, versteckt). Sind Sie zufällig initialisiert? zu Nullen? sind

Was ist der Unterschied zwischen einem bidirektionalen LSTM und eine LSTM?

Anzahl der Antworten 4 Antworten
Kann mir bitte jemand dies erklären? Ich weiß, bidirektionale LSTMs haben eine forward-und backward-pass, aber was ist der Vorteil, dies über eine unidirektionale LSTM? Was ist jeweils besser geeignet? InformationsquelleAutor shekit | 2017-03-26

Ist RNN ursprünglichen Zustand zurücksetzen für nachfolgende mini-batches?

Anzahl der Antworten 2 Antworten
Könnte jemand bitte klären, ob der anfängliche Zustand des RNN in TF-reset für nachfolgende mini-batches, oder der Letzte Zustand der früheren mini-batch verwendet wird, wie erwähnt, in Ilja Sutskever et al., ICLR 2015 ? InformationsquelleAutor VM_AI |

Wie man mit batches mit variable-Länge-Sequenzen in TensorFlow?

Anzahl der Antworten 5 Antworten
Ich versuchte zu verwenden RNN (insbesondere LSTM) für Sequenz-Vorhersage. Hier Stand ich vor einigen Problemen. Zum Beispiel: sent_1 = "I am flying to Dubain" sent_2 = "I was traveling from US to Dubai" Was ich versuche zu

Minimal RNN Beispiel in tensorflow

Anzahl der Antworten 1 Antworten
Versucht zu implementieren eines minimalen Spielzeug RNN Beispiel in tensorflow. Das Ziel ist, zu lernen, ein mapping der input-Daten auf die Ziel-Daten, ähnlich wie diese wunderbare prägnante Beispiel in theanets. Update: Wir sind es immer. Der einzige

Soft-Aufmerksamkeit vs. hard Aufmerksamkeit

Anzahl der Antworten 1 Antworten
In diesem blog-post, Die Unvernünftige Effektivität von Rekurrenten Neuronalen NetzenAndrej Karpathy erwähnt zukünftige Richtungen für neuronale Netze maschinelles lernen: Dem Konzept der Aufmerksamkeit ist die interessante architektonische innovation in neuronalen Netzen. [...] soft-Aufmerksamkeit-Schema für Speicher-Adressierung ist praktisch,

LSTM-Modul für Caffe

Anzahl der Antworten 2 Antworten
Weiß wer, ob gibt es ein nettes LSTM-Modul für Caffe? Ich fand eine aus einem github-account von russel91 aber offenbar die Seite mit Beispielen und Erklärungen verschwunden (Ehemals http://apollo.deepmatter.io/ --> jetzt leitet nur die github-Seitedie keine Beispiele

Wie erstelle ich eine variable-Länge-Eingang LSTM in Keras?

Anzahl der Antworten 3 Antworten
Ich versuche zu tun, etwas Vanille Mustererkennung mit einem LSTM mit Keras, um vorherzusagen, das nächste element in einer Sequenz. Meine Daten wie folgt Aussehen: wo das Etikett der Trainingseinheit ist das Letzte element in der Liste:

Viele ein und viele, viele LSTM Beispiele in Keras

Anzahl der Antworten 1 Antworten
Ich versuche zu verstehen, LSTMs und wie Sie zu bauen mit Keras. Ich fand heraus, dass es hauptsächlich um die 4 Modi zum ausführen einer RNN (die 4 richtigen im Bild) Bild-Quelle: Andrej Karpathy Nun Frage ich

TensorFlow: Merken Sie sich den LSTM-Zustand für die nächste Charge (Stateful LSTM)

Anzahl der Antworten 2 Antworten
Gegeben ausgebildete LSTM-Modell ich möchte Inferenz für die einzelnen Zeitintervallen, D. H. seq_length = 1 im Beispiel unten. Nach jedem Zeitschritt die interne LSTM (Speicher-und ausgeblendet) die Mitgliedstaaten müssen daran erinnert werden, für die nächste charge. Für

Was ist der Unterschied zwischen konvolutionellen und rekurrenten neuronalen Netzwerken?

Anzahl der Antworten 7 Antworten
Ich bin neu in das Thema der neuronalen Netze. Ich kam über die beiden Begriffe convolutional neural network und rekurrenten neuronalen Netzwerk. Frage ich mich, ob diese beiden Begriffe beziehen sich auf die gleiche Sache, oder, wenn

Was ist num_units in tensorflow BasicLSTMCell?

Anzahl der Antworten 5 Antworten
In MNIST LSTM Beispiele, ich verstehe nicht, was "hidden layer" bezeichnet. Ist es das imaginäre-Schicht gebildet, wenn Sie stellen ein entrollt RNN im Laufe der Zeit? Warum ist die num_units = 128 in den meisten Fällen ?