3

我正在訓練LSTM網絡,我期望瞭解有關長序列,O(1k)或更長的訓練的最佳做法。選擇小批量尺寸的好方法是什麼?標籤流行率如何影響這一選擇? (在我的情況下,積極因素很少見)。努力重新平衡我的數據是否值得? 謝謝。在長序列上訓練RNN

回答

2

你可能想重新平衡,所以他們是50/50。否則,它會傾向於某個班級或另一個班級。

至於批量大小,我會盡可能大,以適應內存。

我不確定LSTMs能夠學習O(1k)的依賴關係,但值得一試。如果你想要超長的依賴關係,你可以考慮做一些像wavenet一樣的事情。

https://deepmind.com/blog/wavenet-generative-model-raw-audio/