Was ist logits, softmax und softmax_cross_entropy_with_logits?

Ging ich durch die tensorflow API-docs hier. In der tensorflow Dokumentation, nutzten Sie ein Stichwort genannt logits. Was ist es? In eine Menge von Methoden, die in den API-docs steht geschrieben wie

tf.nn.softmax(logits, name=None)

Wenn das, was geschrieben ist, ist diese logits sind nur Tensors, warum halten Sie einen anderen Namen wie logits?

Andere Sache ist, dass es zwei Methoden, ich könnte nicht differenzieren. Sie waren

tf.nn.softmax(logits, name=None)
tf.nn.softmax_cross_entropy_with_logits(logits, labels, name=None)

Was sind die Unterschiede zwischen Ihnen? Die docs sind mir nicht klar. Ich weiß, was tf.nn.softmax tut. Aber nicht die anderen. Ein Beispiel soll das wirklich hilfreich ist.

InformationsquelleAutor Shubhashis | 2015-12-12
Schreibe einen Kommentar