0
A
回答
3
回答你的問題:是的,這是可能的。
如果您正在使用正規化或隨機訓練,MSE在訓練時會出現一些起伏。
一些可能的原因的問題
您使用的是學習率過高,這讓來過沖成本函數的局部極小的問題。
神經網絡過度擬合。訓練過多,失去推廣能力。
你可以嘗試什麼:
當此開始發生,降低你的學習速度。
在您的網絡上應用某種正則化,如退出,以避免過度配合。
相關問題
- 1. 訓練神經網絡
- 2. 在Ruby中訓練神經網絡
- 3. 嘈雜的神經網絡訓練集
- 4. OCR的訓練前饋神經網絡
- 5. 如何訓練OCR神經網絡?
- 6. 神經網絡訓練方法
- 7. 人工神經網絡PSO訓練
- 8. 神經網絡訓練連續值
- 9. 運行訓練卷積神經網絡
- 10. 訓練字母圖像到全批培訓的神經網絡
- 11. 如何存儲和訪問經過訓練的神經網絡
- 12. 培訓神經網絡 -
- 13. 在CNTK中訓練神經網絡的加權採樣序列
- 14. 如何在直方圖上訓練OpenCV中的神經網絡
- 15. 訓練後在神經網絡中增加更多輸出神經元?
- 16. 如何訓練在python中使用神經網絡?
- 17. 如何用Cifar在Keras中訓練單層神經網絡?
- 18. 在Ruby中爲XOR訓練神經網絡
- 19. 在opencv中訓練神經網絡時出錯
- 20. 如何在keras中同時訓練多個神經網絡?
- 21. 在scikit-learn中訓練神經網絡來計算'XOR'
- 22. 用於神經網絡訓練的數據集
- 23. 如何訓練神經網絡來檢測模式的存在?
- 24. 用deeplearning4j訓練簡單的神經網絡
- 25. 使用keras無法保存訓練過的神經網絡
- 26. 查找用於訓練神經網絡的天氣數據
- 27. 神經網絡訓練的視頻註釋
- 28. 用於神經網絡訓練實驗的隊列管理器
- 29. 帶退出訓練神經網絡的模型選擇
- 30. XOR循環神經網絡的順序訓練數據
謝謝您的回答!我也考慮過學習率。過度配合是一個好點。我沒有想過這件事。你知道有什麼好的方法來調整學習速度嗎? –
您可以手動執行此操作,檢測MSE何時增加並將學習速率降低一位小數。例如,如果使用0.01將其更改爲0.001。如果您使用隨機梯度下降作爲優化函數,則可以搜索優化算法,如Adam https://arxiv.org/abs/1412.6980。 Tensorflow已經實現了Adam優化器。希望能幫助到你。 –
謝謝!我會看看Adam,並儘可能實施它。我經常懶得手動做事:)根據你的經驗:體重衰減是否值得作爲正規化來實施? –