Tag: lstm
Long Short-Term Memory. In einem neuronalen Netzwerk-Architektur, enthält wiederkehrende NN Blöcke, die sich erinnern können, einen Wert für eine beliebige Zeitdauer. Ein sehr beliebter Baustein für Tiefe NN.
4
Antworten
Ziel : Identifizierung Klasse label mit Benutzer eingegebene Frage (wie Frage Antwort system). Daten extrahiert, die von Großen PDF-Datei, und brauchen, um vorherzusagen, Seitenzahl basierend auf Benutzereingaben. Hauptsächlich verwendet in der policy-Dokument, wo Benutzer haben Fragen über
1
Antworten
Ich soll mit der Umsetzung einiger LSTM-Modell in Tensorflow. Ich glaube, ich verstehe die tutorials ziemlich gut. In diese input-Daten in form von Worten, die eingebettet waren in ein continous-Vektorraum ist (das hat mehrere Vorteile). Ich möchte
2
Antworten
Möchte ich nutzen, tensorflow zu generieren und text wurden geändert die LSTM-tutorial ( https://www.tensorflow.org/versions/master/tutorials/recurrent/index.html#recurrent-neural-networks ) - code, um dies zu tun, aber meine erste Lösung scheint zu generieren Unsinn, auch nach dem training für eine lange Zeit,
1
Antworten
Die Daten sind 10 videos und jede videos aufgeteilt in 86 frames, und jeder frame hat 28*28 Pixel, video_num = 10 frame_num = 86 pixel_num = 28*28 Möchte ich Conv2D+LSDM, das Modell zu bauen, und bei jeder
2
Antworten
Ich würde gerne die Geschwindigkeit meiner LSTM-Netz, aber wie verwende ich es für eine OCR - (wo-Sequenzen variabler Länge), kann ich nicht einfach LSTM Umsetzung. Das ist der Grund, warum ich "tf.nn.dynamic_rnn". Basierend auf der benchmark der
2
Antworten
Möchte ich nutzen, 1D-Conv Schicht durch LSTM Ebene zu klassifizieren, ein 16-Kanal-400-Zeitschritt-Signals. Den input-Form besteht aus: X = (n_samples, n_timesteps, n_features), wo n_samples=476, n_timesteps=400, n_features=16 sind die Anzahl der Proben, Zeitintervallen und Funktionen (oder den Kanälen) des
3
Antworten
Muss ich implementieren Sie eine bidirektionale LSTM-Netz mit einem CRF-Schicht am Ende. Speziell das Modell in diesem Papier präsentiert, und trainieren Sie es. http://www.aclweb.org/anthology/P15-1109 Will ich es implementieren in Python bevorzugt. Kann mir jemand einige Bibliotheken und
2
Antworten
Ich habe einen Datensatz X besteht N = 4000 samples, jede Probe besteht aus d = 2 Funktionen (kontinuierliche Werte) spanning zurück t = 10 Zeitschritte. Ich habe auch das entsprechende 'Label' der einzelnen Probe, die sind
6
Antworten
Bei Verwendung eines Keras LSTM zur Vorhersage von Zeitreihen Daten, die ich habe immer Fehler, wenn ich versuche zu trainieren, das Modell mit Hilfe einer batch-Größe von 50, und dann zu versuchen, vorherzusagen, die auf das gleiche
1
Antworten
Bekam ich die folgende Fehlermeldung, wenn ich versuche den code auszuführen, der am Ende der post. Aber es ist mir nicht klar, was ist Los mit meinem code. Könnte jemand lassen Sie mich wissen, die tricks beim
4
Antworten
Möchte ich wissen, wie vielschichtig die bidirektionale LSTM in Tensorflow. Habe ich bereits implementiert, die den Inhalt des bidirektionalen LSTM, aber ich will vergleichen Sie dieses Modell mit dem Modell Hinzugefügt multi-Schichten. Wie sollte ich code hinzufügen,
5
Antworten
Gibt es eine Möglichkeit zu berechnen, die Gesamtanzahl der Parameter in einem LSTM-Netz. Ich habe ein Beispiel, aber ich bin mir nicht sicher, wie richtig diese ist oder Wenn ich es richtig verstanden habe. ZB betrachten Sie
4
Antworten
Ich versuche zu implementieren ist eine LSTM based speech recognizer. Bisher konnte ich einrichten bidirektionaler LSTM (ich denke, es funktioniert wie eine bidirektionale LSTM), indem nach dem Vorbild in der Merge-Schicht. Nun will ich versuchen es mit
5
Antworten
Ich lese alle Arten von Texten, und niemand scheint die Antwort auf diese sehr grundlegende Frage. Es ist immer mehrdeutig: In einem stateful = False LSTM-Schicht, hat keras reset Staaten nach: Jeder Sequenz; oder Jede charge? Angenommen
1
Antworten
In Keras, die high-level-deep learning library, gibt es mehrere Arten von wiederkehrenden Schichten; diese gehören LSTM (Long short-term memory) und CuDNNLSTM. Nach der Keras Dokumentation, ein CuDNNLSTM ist ein: Schnell LSTM Umsetzung unterstützt durch CuDNN. Kann nur
3
Antworten
Ich versuche für multi-class-Klassifizierung und hier sind die details meines Trainings-Eingang und-Ausgang: train_input.Form= (1, 95000, 360) (95000 Länge Eingabe-array mit den einzelnen element ist ein array von 360 Länge) train_output.Form = (1, 95000, 22) (22 Klassen gibt
3
Antworten
Mein input ist einfach eine csv-Datei mit 339732 Zeilen und zwei Spalten : die ersten 29 Funktion Werte, d.h. X die zweite ist eine binäre label-Wert, d.h. Y Ich versuche zu trainieren, meine Daten auf eine gestapelt
2
Antworten
was ich habe, ist die folgende, die ich glaube, ist ein Netzwerk mit einer versteckten LSTM-Schicht: # Parameters learning rate = 0.001 training_iters = 100000 batch_size = 128 display_step = 10 # Network Parameters n_input = 13
3
Antworten
Ich war durch dieses Beispiel einer LSTM-Sprache-Modell auf github (link). Was es tut, im Allgemeinen ist ziemlich klar für mich. Aber ich bin immer noch kämpfen, um zu verstehen, was Berufung contiguous() tut, kommt mehrmals im code.
1
Antworten
Ich bin mit keras 1.0.1 ich versuche, fügen Sie eine Aufmerksamkeit-Schicht auf der Oberseite des LSTM. Dies ist, was ich habe, so weit, aber es funktioniert nicht. input_ = Input(shape=(input_length, input_dim)) lstm = GRU(self.HID_DIM, input_dim=input_dim, input_length =
4
Antworten
Kann mir bitte jemand dies erklären? Ich weiß, bidirektionale LSTMs haben eine forward-und backward-pass, aber was ist der Vorteil, dies über eine unidirektionale LSTM? Was ist jeweils besser geeignet? InformationsquelleAutor shekit | 2017-03-26
2
Antworten
Hallo, ich benutze folgende Funktion für lstm rnn Zelle. def LSTM_RNN(_X, _istate, _weights, _biases): # Function returns a tensorflow LSTM (RNN) artificial neural network from given parameters. # Note, some code of this notebook is inspired from
1
Antworten
LSTM/RNN kann verwendet werden, für die Texterstellung. Diese zeigt die Art und Weise zu benutzen, die vor-geschult Handschuh Wort Einbettungen für Keras Modell. Wie Sie pre-geschult Word2Vec Wort Einbettungen mit Keras LSTM Modell? Diese post half. Wie
5
Antworten
Ich versuchte zu verwenden RNN (insbesondere LSTM) für Sequenz-Vorhersage. Hier Stand ich vor einigen Problemen. Zum Beispiel: sent_1 = "I am flying to Dubain" sent_2 = "I was traveling from US to Dubai" Was ich versuche zu
3
Antworten
import torch,ipdb import torch.autograd as autograd import torch.nn as nn import torch.nn.functional as F import torch.optim as optim from torch.autograd import Variable rnn = nn.LSTM(input_size=10, hidden_size=20, num_layers=2) input = Variable(torch.randn(5, 3, 10)) h0 = Variable(torch.randn(2, 3, 20))
3
Antworten
Ich bin derzeit versuchen zu bauen ein einfaches Modell für die Vorhersage von Zeitreihen. Das Ziel wäre, um das Modell zu trainieren, mit einer Sequenz, so dass das Modell in der Lage ist, zur Prognose zukünftiger Werte.
2
Antworten
Weiß wer, ob gibt es ein nettes LSTM-Modul für Caffe? Ich fand eine aus einem github-account von russel91 aber offenbar die Seite mit Beispielen und Erklärungen verschwunden (Ehemals http://apollo.deepmatter.io/ --> jetzt leitet nur die github-Seitedie keine Beispiele
3
Antworten
Ich versuche zu tun, etwas Vanille Mustererkennung mit einem LSTM mit Keras, um vorherzusagen, das nächste element in einer Sequenz. Meine Daten wie folgt Aussehen: wo das Etikett der Trainingseinheit ist das Letzte element in der Liste:
2
Antworten
Gegeben ausgebildete LSTM-Modell ich möchte Inferenz für die einzelnen Zeitintervallen, D. H. seq_length = 1 im Beispiel unten. Nach jedem Zeitschritt die interne LSTM (Speicher-und ausgeblendet) die Mitgliedstaaten müssen daran erinnert werden, für die nächste charge. Für
5
Antworten
In MNIST LSTM Beispiele, ich verstehe nicht, was "hidden layer" bezeichnet. Ist es das imaginäre-Schicht gebildet, wenn Sie stellen ein entrollt RNN im Laufe der Zeit? Warum ist die num_units = 128 in den meisten Fällen ?
3
Antworten
Ich bin versucht zu versöhnen, mein Verständnis von LSTMs und wies darauf hin, hier: http://colah.github.io/posts/2015-08-Understanding-LSTMs/ mit dem LSTM umgesetzt in Keras. Ich bin nach dem blog geschrieben http://machinelearningmastery.com/time-series-prediction-lstm-recurrent-neural-networks-python-keras/ für die Keras tutorial. Was ich bin vor allem
2
Antworten
Ich versuche zu realisieren eine LSTM mit Keras. Ich weiß, dass LSTM in Keras benötigen ein 3D-tensor mit Form (nb_samples, timesteps, input_dim) als input. Allerdings bin ich mir nicht ganz sicher, wie die Eingabe Aussehen sollte wie
6
Antworten
Angesichts der Beispielcode. Ich würde gerne wissen, Wie sich zu bewerben gradient clipping auf dieses Netzwerk auf der RNN, wo es eine Möglichkeit von explodierenden Verläufe. tf.clip_by_value(t, clip_value_min, clip_value_max, name=None) Dies ist ein Beispiel, das verwendet werden