我想知道,如果我從訓練和驗證集建立決策樹ID3一樣,但A是未修剪的效果。 與此同時,我還在ID3中生成了另一個決策樹B,它由相同的訓練和驗證集合生成,但B被修剪。 現在我在未來的未標記測試集上測試A和B,修剪後的樹總是會表現得更好? 歡迎任何想法,謝謝。決策樹修剪
Q
決策樹修剪
3
A
回答
3
,我認爲我們需要區分更加清晰:修剪樹木總是執行對驗證一套更好的,但不一定等等測試集(實際上也是等於或性能差的培訓設置)。我假設修剪是在修剪樹後完成的(即:修剪後)。
請記住,使用驗證集的全部原因是爲了避免過度擬合而不是訓練數據集,並且密鑰這裏指的是概括:我們想要一個模型(決策樹),它將在「訓練時間」提供的實例擴展到新的看不見的例子。
1
0
壞修剪可能會導致錯誤的結果。雖然減少決策樹大小通常是需要的,但通常在修剪時您的目標是獲得更好的結果。所以如何是修剪的關鍵。
0
我同意@AMRO第1個答案。 Post-pruning
是決策樹修剪最常用的方法,它在樹建立後完成。但是,Pre-pruning
也可以完成。在pre-pruning
中,通過使用指定的閾值,通過提早停止其構建來修剪樹。例如,通過決定不在給定節點處分割訓練元組的子集。
然後該節點成爲一個葉子。這個葉子可以保存元組子集中最頻繁的類或這些元組的概率。
相關問題
- 1. 修剪決策樹
- 2. 修剪C++決策樹
- 3. Python決策樹迴歸修剪
- 4. 決策樹問題解決
- 5. 執行決策樹
- 6. 決策樹組件
- 7. weka決策樹java
- 8. 建模決策樹
- 9. 決策樹在樹決策中保持使用Y變量
- 10. 數據庫修剪策略
- 11. Weka軟件決策樹
- 12. 快速排序決策樹
- 13. 與sklearn決策樹圖
- 14. 使用決策樹的熵
- 15. 決策樹網站示例
- 16. 如何設置決策樹
- 17. 機器學習,決策樹
- 18. 試圖讓決策樹
- 19. 如何計算決策樹
- 20. 多目標決策樹
- 21. StackOverflowError決策樹生成JAVA
- 22. ID3決策樹說明
- 23. Apache Spark決策樹預測
- 24. 繪製決策樹,graphvizm pydotplus
- 25. 更改樹和修剪
- 26. 二叉樹的修剪數
- 27. 使用Adaboost時訪問和修改OpenCV決策樹節點
- 28. 決策樹中的決策節點和機會節點定義
- 29. Weka中的修剪和未修剪的樹是什麼?
- 30. 決策errorbars不matplotlib剪裁與Python
您是否在尋找特定的情況下修剪樹可能表現更差? – 2010-10-21 22:05:19