Was macht die Funktion tf.nn.embedding_lookup?

tf.nn.embedding_lookup(params, ids, partition_strategy='mod', name=None)

Ich kann nicht verstehen, die Pflicht, diese Funktion. Es ist wie eine lookup-Tabelle? Was bedeutet die Rückkehr der Parameter für jeden entsprechenden id (ids)?

Beispielsweise in der skip-gram Modell, wenn wir die tf.nn.embedding_lookup(embeddings, train_inputs)dann für jede train_input findet, entsprechen einbetten?

InformationsquelleAutor der Frage Poorya Pzm | 2016-01-19

Schreibe einen Kommentar