Zeitreihe-Vorhersage mittels Neuronaler Netze
Ich arbeite seit über Neuronale Netze für verschiedene Zwecke in letzter Zeit. Ich habe großen Erfolg in Ziffer Anerkennung, XOR, und verschiedene andere einfache/Hallo Welt ' ish-Anwendungen.
Möchte ich gegen die domain von Zeitreihen-Schätzung. Ich habe kein Uni-account in dem moment, Lesen Sie alle IEEE/ACM papers zum Thema (kostenlos), noch kann ich viele Ressourcen detailliert mit ANN für Zeitreihen forcasting.
Ich würde gerne wissen, ob jemand irgendwelche Vorschläge oder kann empfehlen, alle Ressourcen, über die Verwendung ANN für forcasting über Zeitreihen-Daten?
Ich würde davon ausgehen, dass das trainieren des NN, würden Sie fügen Sie ein paar sofort Zeit Schritte und der zu erwartende Ausgang wäre der nächste Zeitschritt (Beispiel: Eingänge von n-5, n-4, n-3, n-2, n-1 rauskommen sollte mit einer Ausgabe der Ergebnisse im Zeitschritt N. ... und nach unten schieben, eine gewisse Menge von Zeitintervallen und tun es alle wieder.
Kann das jemand bestätigen oder kommentieren? Ich würde es zu schätzen wissen!
Du musst angemeldet sein, um einen Kommentar abzugeben.
Ich denke, du hast die Grundidee: ein "sliding window" Ansatz, bei dem ein Netzwerk ausgebildet wird, die Letzte zu verwenden
k
Werte einer Serie (Tn-k - ... Tn-1), um vorherzusagen, den aktuellen Wert (Tn).Gibt es eine Menge Möglichkeiten, wie Sie dies tun können, jedoch. Zum Beispiel:
Oft Menschen am Ende herauszufinden, der beste Weg, um zu lernen, von Ihren besonderen Daten durch Versuch und Irrtum.
Gibt es eine angemessene Anzahl von öffentlich zugänglichen Papiere gibt über diese Dinge. Beginnen Sie mit diesen, und schauen Sie auf Ihre Zitate und Papiere zitieren, dass Sie über Google Scholar, und Sie sollten viel Lesen:
Es ist eine Art von neuronalen Netzen genannt rekurrenten neuronalen Netzen (RNNs. Ein Vorteil dieser Modelle ist, dass Sie nicht haben, um zu definieren, ein Schiebefenster für die input-Beispiele. Eine Variante des RNNs, bekannt als Long-Short Term Memory (LSTM) können potenziell berücksichtigen viele Instanzen in der bisherigen Zeit-Stempel und ein "vergessen gate" wird verwendet, um zu ermöglichen oder sperren, die Erinnerung an die vorherigen Ergebnisse aus den früheren Zeitstempel.
Technisch ist das das gleiche wie Ihr digit Anerkennung - es ist das erkennen von etwas und der Rückkehr, was es war...
Gut jetzt Ihrer Eingaben werden die vorherigen Schritte (T-5 - ... T-1) - und Ihre Ausgaben sind die vorhergesagten Schritte (T0, T1...).
Mechaniker in der ANN selbst sind die gleichen - Sie werden zu lehren haben, jede Schicht für feature-Erkennung, Korrektur der Rekonstruktion der Sache, so dass es aussieht wie das, was tatsächlich passieren wird.
(ein paar mehr Infos über das, was ich meine: tech-talk )