1
在tf.slim中,我使用了batch_norm。在tf.slim中,是否需要將依賴項添加到損失中
我的問題是:我是否需要明確地添加依賴到損失?
我認爲,苗條知道我已經使用了batch_norm,它是否已經自動添加依賴到損失?我很困擾。
在tf.slim中,我使用了batch_norm。在tf.slim中,是否需要將依賴項添加到損失中
我的問題是:我是否需要明確地添加依賴到損失?
我認爲,苗條知道我已經使用了batch_norm,它是否已經自動添加依賴到損失?我很困擾。
是的,你需要。
你能按照指示here:
注:當訓練時,moving_mean和moving_variance需要更新。默認情況下,更新操作被放置在tf.GraphKeys.UPDATE_OPS
中,所以需要將它們作爲依賴添加到train_op
。例如:
update_ops = tf.get_collection(tf.GraphKeys.UPDATE_OPS)
with tf.control_dependencies(update_ops):
train_op = optimizer.minimize(loss)