2017-07-31 99 views
0

一個gradent下降算法使對極小幾個步驟。我的問題是,每次調用sess.run時會執行多少個這些步驟。爲了舉例說明一下:TensorFlow:每個session.run()調用有多少梯度步驟?

我在我的網絡使用梯度下降算法(tf.train.AdamOptimizer)。我有這樣一個循環:

for epoch in range(100): 
    sess.run(ops['optimizer'], 
     feed_dict=train_feed_dict 
    )  

這個時代循環運行100次。我的問題是,如果一個sess.run調用向最小值邁出了一小步。或者,是不是每個時代的榮耀體面的一個步驟?

+0

我相信這個答案可能*答案*,這是一個單一的調用導致了梯度下降足下。 https://stackoverflow.com/a/35728022/2184122任何更正或洞察力的讚賞,但我會假設,除非我另有聲明,答覆是正確的。 –

回答

1

如果ops['optimizer']tf.train.AdamOptimizer(some_learning_rate).minimize(some_loss)的單個調用,那麼運行它將執行恰好一個下降步驟。所以你的循環將會有100個步驟。