我必須使用R軟件和rpart軟件包創建決策樹。 在我的論文中,我應該首先定義ID3算法,然後實現各種決策樹。有人可以解釋我ID3和CART算法之間的區別嗎?
我發現rpart軟件包不支持ID3算法。它使用CART算法。我想了解其中的差異,也許可以解釋我的論文中的差異,但是我沒有找到任何比較雙方的文獻。
你能幫我嗎?你是否知道兩篇文章都有比較的論文,或者你能否向我解釋這種差異?
我必須使用R軟件和rpart軟件包創建決策樹。 在我的論文中,我應該首先定義ID3算法,然後實現各種決策樹。有人可以解釋我ID3和CART算法之間的區別嗎?
我發現rpart軟件包不支持ID3算法。它使用CART算法。我想了解其中的差異,也許可以解釋我的論文中的差異,但是我沒有找到任何比較雙方的文獻。
你能幫我嗎?你是否知道兩篇文章都有比較的論文,或者你能否向我解釋這種差異?
http://www.cs.umd.edu/~samir/498/10Algorithms-08.pdf
讀1 C4.5及以後的文件將明確所有的疑惑,幫我用我的。 不要因標題而感到氣餒,它關於不同樹算法的差異。 反正一個好的紙通過
閱讀我沒有訪問原文1,2但使用一些次要來源,這些遞歸(「貪婪」)分區之間的關鍵差異(「樹」)算法似乎是:
學習類型:
rpart()
,您可以指定method='class'
或method='anova'
,但rpart
可以根據因變量的類型(即因子或數字)來推斷此情況。用於拆分選擇的損失函數。
的子集,作爲一個醫生,我幾乎沒有聽說過使用的術語ID3,而車是經常被用來作爲決策樹的全部術語。 CART在R的rpart
包中有非常流行的實現。 ?rpart
指出「在大多數情況下,它緊跟Breiman等(1984)。」
但是,您可以通過rpart(..., parms=list(split='information'))
覆蓋默認行爲並拆分信息增益。
Quinlan,J.R.1986。歸納決策樹。馬赫。學習。 1,1(1986年3月),81-106
Breiman,Leo; Friedman,J.H。 Olshen,R.A .; Stone,C.J。(1984)。 分類和迴歸樹。蒙特雷,加利福尼亞州:沃茲沃思&布魯克斯/科爾高級圖書&軟件。
他們使用不同的損失函數,請參閱維基百科:http://en.wikipedia.org/wiki/Classification_and_regression_tree#Formulae –
唯一的區別是ID3使用信息增益與Entropie和CART吉尼雜質? – user2988757