有人能夠向我解釋或指出我爲什麼(或情況)在神經網絡中需要或有用多於一個隱藏層的某些資源?神經網絡模型中的隱藏層的數量
9
A
回答
4
- 這更類似於大腦的工作方式(這可能不一定是一個計算的優勢,但很多人都在研究NN深入瞭解有關的思想方法,而不是解決現實世界的問題。
- 它更容易實現一些種使用多層不變性。例如,圖像分類的作品無論在哪裏,圖像中的物體被發現,或對象的大小。看到Bouvrie, J. , L. Rosasco, and T. Poggio. "On Invariance in Hierarchical Models". Advances in Neural Information Processing Systems (NIPS) 22, 2009.
2
每層都以指數方式有效地提高了自適應的潛在「複雜性」(與將單個層添加更多節點的乘法方式相反)。
6
基本上更多的圖層允許表示更多的功能。關於人工智能課程的標準書籍「人工智能,一種現代方法」由羅素和諾維格詳細論述了爲什麼多個層次在第20章中很重要。
一個重要的問題是,如果一個足夠大的單隱層,您可以表示每個連續函數,但您至少需要2個圖層來表示每個不連續函數。
實際上,至少有99%的時間是單層。
相關問題
- 1. 神經網絡:計算隱藏層中的錯誤
- 2. 爲神經網絡計算隱藏和輸出神經元的數量如何?
- 3. 神經網絡迴歸模型輸出層的激活函數
- 4. 神經網絡(無隱藏層)vs Logistic迴歸?
- 5. 單層神經網絡
- 6. 多層神經網絡中的權重
- 7. 神經網絡模型的輸出
- 8. 張量流中的2層神經網絡
- 9. 神經網絡中的樣本量
- 10. 的神經網絡
- 11. VB中的神經網絡
- 12. 神經網絡
- 13. 神經網絡
- 14. TensorFlow:2層前饋神經網絡
- 15. 雙層神經網絡Tensorflow python
- 16. 神經網絡 - 預測輸出層只有一個神經元的MNIST數字
- 17. 用於多模式識別的神經網絡輸出層
- 18. 需要幫助設置神經網絡參數(學習速率,動量,隱藏層大小...)
- 19. sigmoid神經網絡
- 20. H2O.deeplearning神經網絡
- 21. 神經網絡:「InverseLayer」
- 22. Hopfield神經網絡
- 23. 神經網絡[ocr]
- 24. MATLAB神經網絡
- 25. 神經網絡,python
- 26. RBF神經網絡
- 27. 神經網絡MNIST
- 28. Python的神經網絡庫?
- 29. 的BP神經網絡
- 30. 神經網絡的問題