機器學習 - 決策樹(下)- CART 以及與 ID3、C4.5的比較
阿新 • • 發佈:2019-01-01
機器學習 - 決策樹(下)- CART 以及與 ID3、C4.5的比較
-
CART
CART(Classification and Regression Tree),分類與迴歸樹。CART假設決策樹為二叉樹,遞迴的二分每個特徵,既可以做迴歸,也可以做分類。
-
迴歸樹
損失函式採用平方誤差最小化。
-
① 選擇最優切分變數 、切分點 ,切分點將資料劃分為 ,求解:
得出最優解
-
② 根據 劃分區域 並計算其相應的輸出值:
,
-
③ 繼續對兩個子區域重複 ① ② 步驟,直至滿足條件
-
④ 將輸入空間劃分為 M 個區域 ,生成決策樹
-
-
分類樹
CART 的分類樹與 ID3,C4.5 類似,但衡量最優特徵的標準有差異。分類樹中使用基尼指數選擇最優特徵,同時決定該特徵的最優切分點。
-
基尼( )指數
分類問題中,假設有 個類,樣本點屬於第 類的概率為 ,則
-