Neuronale Aktivierung Funktionen - Unterschied zwischen Logistik / Tanh / etc

Schreibe ich einige grundlegende neuronale Netzwerk-Methoden - insbesondere die Aktivierung der Funktionen - und geht auf die Grenzen meiner Müll Kenntnisse der Mathematik. Ich verstehe die jeweiligen Bereiche (-1/1) (0/1) etc, aber die unterschiedlichen Beschreibungen und Implementierungen haben mich verwirrt.

Speziell Sigma, logistic, bipolaren Sigma, tanh, etc.

Tut Sigma einfach beschreiben die Form der Funktion, unabhängig von der Auswahl? Wenn dem so ist, dann ist tanh a 'sigmoid-Funktion'?

Ich habe gesehen, 'bipolare sigmoid' gegenüber, gegen 'tanh' in einem Papier, aber ich habe gesehen, beide Funktionen implementiert, die in verschiedenen Bibliotheken) mit dem gleichen code:

(( 2/(1 + Exp(-2 * n))) - 1). Sie sind genau die gleiche Sache?

Ebenfalls habe ich gesehen, dass logistic und Sigma Aktivierungen umgesetzt mit dem gleichen code:

( 1/(1 + Exp(-1 * n))). Sind diese auch gleichwertig?

Schließlich ist es auch egal, dass viel in der Praxis? Ich sehe auf wiki ein Handlung sehr ähnlich sigmoid-Funktionen - konnte keine dieser genutzt werden? Einige Aussehen, als könnten Sie deutlich schneller zu berechnen als andere.

InformationsquelleAutor Satellite | 2012-08-07
Schreibe einen Kommentar