CBOW v. s. skip-Gramm: warum umkehren, Kontext-und Ziel-Wörter?

In diese Seite, es wird gesagt, dass:

[...] skip-Gramm kehrt Kontexte und Ziele, und versucht vorherzusagen jeden Kontext Wort vom Ziel, Wort [...]

Jedoch, Blick auf die Trainings-Datensatz produziert, der Inhalt des X-und Y-pair-Mädchen zu sein scheint interexchangeable, als diese zwei Paare von (X, Y):

(quick, brown), (brown, quick)

Damit, warum unterscheiden das viel zwischen Kontext und Ziele, wenn es ist die gleiche Sache am Ende?

Auch tun Udacity ist das Deep-Learning-Kurs, übung auf word2vec, ich Frage mich, warum Sie scheinen, um den Unterschied zwischen diesen beiden Ansätzen, dass viel in dieses problem:

Alternative zu skip-Gramm ist ein weiterer Word2Vec Modell genannt, CBOW (Ständige Bag of Words). In der CBOW Modell, anstatt die Vorhersage ein Kontext-Wort-aus einem Wort Vektor, prognostizieren Sie ein Wort aus der Summe aller das Wort Vektoren in seinem Kontext. Implementieren und bewerten zu können, CBOW Modell trainiert auf der text8 dataset.

Wäre nicht dieser liefert dann die gleichen Ergebnisse?

InformationsquelleAutor Guillaume Chevalier | 2016-07-10

Schreibe einen Kommentar