2017-04-12 75 views
1

這似乎是一個更理論上的問題,我希望有人知道答案,即時通訊使用張量流來訓練一個完全連接的深度神經網絡,我將丟失應用到我的隱藏層,並在一些情況下調查丟失。正在訓練一個保持概率的神經網絡1與訓練它沒有丟失一樣嗎?

我知道丟失只適用於輸入層和隱藏層,對於網絡的評估,保持概率應該是1.0。對於我想要訓練我的網絡而不丟失的情況....我可以在隱藏層上設置保持概率爲1,還是必須從源代碼中完全刪除它?

問候

回答

1

你可以把你的代碼是,1.0的概率保持確實等於沒有出現下降現象,因爲每個激活被保留。