Tag: word-embedding

Für Fragen zu word einbetten, eine Sprache, die die Modellierung Technik, die in der Verarbeitung natürlicher Sprache. Fragen können sich auf bestimmte Methoden, wie Word2Vec, Handschuh, FastText, etc, – oder word-Einbettungen und deren Einsatz in der machine-learning-Bibliotheken im Allgemeinen.

Verhindern, über-Einbau von text-Klassifikation mit Word einbetten mit LSTM

Anzahl der Antworten 4 Antworten
Ziel : Identifizierung Klasse label mit Benutzer eingegebene Frage (wie Frage Antwort system). Daten extrahiert, die von Großen PDF-Datei, und brauchen, um vorherzusagen, Seitenzahl basierend auf Benutzereingaben. Hauptsächlich verwendet in der policy-Dokument, wo Benutzer haben Fragen über

Die Einbettung in pytorch

Anzahl der Antworten 2 Antworten
Ich check das tutorial pytorch und die simialr Frage. Eigentlich bin ich verwirrt, Ist die Einbettung in pytorch (Einbetten) machen, die ähnliche Wörter nahe beieinander ? Und ich muss einfach geben Sie alle Sätze ? oder ist

Tensorflow embedding_lookup

Anzahl der Antworten 2 Antworten
Ich versuche zu lernen, die word-Darstellung der imdb dataset "from scratch" durch die TensorFlow tf.nn.embedding_lookup() Funktion. Wenn ich es richtig verstehe, ich habe eine Einbettung Ebene, bevor die anderen versteckten Schicht, und dann, wenn ich ausführen, gradient

CBOW v. s. skip-Gramm: warum umkehren, Kontext-und Ziel-Wörter?

Anzahl der Antworten 2 Antworten
In diese Seite, es wird gesagt, dass: [...] skip-Gramm kehrt Kontexte und Ziele, und versucht vorherzusagen jeden Kontext Wort vom Ziel, Wort [...] Jedoch, Blick auf die Trainings-Datensatz produziert, der Inhalt des X-und Y-pair-Mädchen zu sein scheint

Was macht die Funktion tf.nn.embedding_lookup?

Anzahl der Antworten 8 Antworten
tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None) Ich kann nicht verstehen, die Pflicht, diese Funktion. Es ist wie eine lookup-Tabelle? Was bedeutet die Rückkehr der Parameter für jeden entsprechenden id (ids)? Beispielsweise in der skip-gram Modell, wenn wir die tf.nn.embedding_lookup(embeddings,