In Tensorflow, was ist der Unterschied zwischen sampled_softmax_loss und softmax_cross_entropy_with_logits

In tensorflow, gibt es Methoden genannt softmax_cross_entropy_with_logits und sampled_softmax_loss.

Lese ich die tensorflow Dokument und suchte google nach mehr Informationen, aber ich konnte nicht finden Sie den Unterschied. Es sieht aus wie mir beide berechnet den Verlust mithilfe der softmax-Funktion.

Mit sampled_softmax_loss zur Berechnung der Verlust -

loss = tf.reduce_mean(tf.nn.sampled_softmax_loss(...))

Mit softmax_cross_entropy_with_logits zur Berechnung der Verlust -

loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(P, Q))

Mir, die Berechnung der softmax-Verlust ist die gleiche wie die Berechnung softmaxed cross-Entropie (z.B. cross_entropy(softmax(train_x)))

Könnte jemand mir sagen, warum gibt es zwei verschiedene Methoden, und welche Methode sollte ich verwenden, in dem Fall?

InformationsquelleAutor HongKun Yoo | 2016-02-06
Schreibe einen Kommentar