Was ist der Unterschied zwischen tf.sub und nur minus-operation in tensorflow?

Ich versuche, mit Tensorflow. Hier ist ein sehr einfacher code.

train = tf.placeholder(tf.float32, [1], name="train")
W1 = tf.Variable(tf.truncated_normal([1], stddev=0.1), name="W1")
loss = tf.pow(tf.sub(train, W1), 2)
step = tf.train.GradientDescentOptimizer(0.1).minimize(loss)

Einfach ignorieren die Optimierung Teil (4. Zeile). Es dauert eine floating-Zahl und Zug-W1 so zu erhöhen Quadrat der Differenz.

Meine Frage ist einfach. Wenn ich nur minus-Zeichen anstelle von
tf.sub" als unten, was ist anders? Wird es dazu führen, dass ein Falsches Ergebnis?

loss = tf.pow(train-W1, 2)

Wenn ich es ersetzen, das Ergebnis sieht gleich aus. Wenn Sie gleich sind, warum brauchen wir, um die "tf.hinzufügen/tf.sub" Dinge?

Integrierten Backpropagation-Berechnung kann nur durchgeführt werden, durch die "tf.*" Dinge?

InformationsquelleAutor YW P Kwon | 2016-03-20
Schreibe einen Kommentar