是否有充分了解何時使用退出與簡單獲取更多數據的指導原則?我以前瞭解到,如果有足夠的數據,就不會希望使用丟失。然而,最近我有一個模型(4層LSTM處理音頻輸入),無論我提供多少數據,它都會經驗性地收斂到一定的損失 - 然後當我添加丟失時顯着改善。即使訪問無限數據,退出是否會改進模型?
這個現象很好理解嗎?即使有更多(可能是無限的)數據可用,那麼是否應該始終使用退出?
後續工作:如果是這樣,我還沒有在RL論文中看到很多關於輟學的提及。我認爲這是因爲有無限的可生成數據。還有其他的細節可以在這裏考慮關於所探索的狀態空間的一部分,或者可用的訓練數據的異質性等嗎?
感謝您的答案@Thomas。非常簡潔的權衡描述。這聽起來像是你說在無限完美的訓練集中使用丟失有*沒有*好處,但考慮到在訓練集中依賴的可能性,它可能仍然有用 - 這是正確的嗎? –
是的,這是正確的。 –