隨機森林是一個強大的算法。在隨機森林中,它訓練幾棵小樹並且具有OOB精度。但是,是否有必要同時使用隨機森林進行交叉驗證?是否需要同時運行交叉驗證的隨機森林
2
A
回答
4
OOB錯誤是隨機森林誤差的無偏估計,所以這很好。但是你使用交叉驗證的是什麼?如果您將RF與其他未使用套袋的算法進行比較,則需要使用較低的方差來比較它們。無論如何,您必須使用交叉驗證來支持其他算法。然後使用交叉驗證樣本分割RF,而其他算法仍然是一個好主意,這樣可以消除分割選擇造成的變化。
如果您將一個RF與另一個RF與不同的功能集進行比較,那麼比較OOB錯誤是合理的。如果您確保兩個RF在訓練期間使用相同的套袋套件,則尤其如此。
4
您不需要需要來執行任何類型的驗證。如果你只是想使用它,並不在乎過度配合的風險。
對於科學出版物(或其他任何地方,你的比較不同分類器的質量),你應該驗證你的結果,交叉驗證是一個最佳實踐。
相關問題
- 1. 隨機森林優化與調整和交叉驗證
- 2. 留出一個ID交叉驗證的隨機均勻森林中的R
- 3. python中的隨機森林
- 4. 隨機森林sklearn變量重要性
- 5. 在WEKA中運行交叉驗證之前是否需要應用過濾器
- 6. 隨機森林是AdaBoost的特例嗎?
- 7. P值爲隨機森林
- 8. 隨機森林分析
- 9. OpenCV - 隨機森林示例
- 10. 加權隨機森林
- 11. Keras回調時運行交叉驗證
- 12. 如何實現交叉驗證和隨機森林分類定功能集作爲字典?
- 13. 我是否需要將名義變量轉換爲sklearn隨機森林的不同字段?
- 14. 如何製作(是/否或1-0)隨機森林決策?
- 15. 具有NaN值的隨機森林
- 16. 隨機森林中的子集
- 17. 隨機森林的高OOB錯誤率
- 18. 隨機森林中的ValueError(Python)
- 19. 隨機森林參數「keep.forest」的含義
- 20. 隨機森林中的套袋和max_feature
- 21. 隨機森林樹的終點
- 22. scikit-learn中的隨機森林解釋
- 23. 隨機森林的二進制數據
- 24. R中的隨機森林算法
- 25. ScikitLearn中的Undersampling vs class_weight隨機森林
- 26. 隨機森林中的樹細節
- 27. 大數據集上的隨機森林
- 28. 隨MLR包隨機調整隨機森林截止點
- 29. 靈敏度R隨機森林
- 30. 監督學習隨機森林通過