0
A
回答
1
可以只設置時間步長= input_size + output_size-1,和最後(output_size-1)的輸入是全零;在最後層,添加一個掩蔽層來過濾所述第一(input_size -1)的輸出。所以我們可以得到一個input_size到output_size的LSTM架構。
相關問題
- 1. Keras中的一對多LSTM
- 2. Keras LSTM多維輸入
- 3. Keras LSTM:第一個參數
- 4. LSTM多對一預測使用keras輸入形狀
- 5. 如何在Keras中聲明多個輸入LSTM模型?
- 6. 如何實現許多類別的memcache
- 7. 爲keras LSTM
- 8. LSTM with keras
- 9. keras狀態LSTM
- 10. 如何在Pytorch中實現帶有多個單元的LSTM層?
- 11. 在keras中多對一的實現
- 12. 許多到許多實體框架
- 13. Keras的第二層(但不是第一層)的輸入形狀錯誤LSTM
- 14. Laravel雄辯許多到許多如何
- 15. Keras LSTM的多維輸入 - (用於分類)
- 16. Keras LSTM不訓練
- 17. Greendao:如何更新到許多實體
- 18. 如何與多個輸入來實現自定義層Keras
- 19. 如何使用多輸入或多功能RNN或LSTM
- 20. Keras - 使用Tensorflow後端的LSTM
- 21. 哪些版本的LSTM在Keras中實現?
- 22. 如何恢復Keras LSTM狀態
- 23. 如何設置輸入LSTM在Keras
- 24. Keras中的LSTM如何訪問輸入?
- 25. 二元Keras LSTM模型不輸出二進制預測
- 26. Stateful LSTM的實現
- 27. 如何在許多控制器的許多操作中實現一些代碼
- 28. 如何使用,和strchr()多次找到第n次出現
- 29. 帶Keras的LSTM文本生成:什麼是多樣性?
- 30. 多對一的LSTM,Keras上的softmax尺寸錯誤
可能的重複[多對一和多對多KeST的LSTM示例](https://stackoverflow.com/questions/43034960/many-to-one-and-many-to-many-lstm-examples-在-keras) –