1. 程式人生 > >CART迴歸樹和CART分類樹的區別

CART迴歸樹和CART分類樹的區別

除了概念的不同,CART迴歸樹和CART分類樹的建立和預測的區別主要有下面兩點:
  • 1)連續值的處理方法不同
  • 2)決策樹建立後做預測的方式不同。
  • 對於連續值的處理,CART分類樹採用的是用基尼係數的大小來度量特徵的各個劃分點的優劣情況。這比較適合分類模型,但是對於迴歸模型,使用了常見的和方差的度量方式,CART迴歸樹的度量目標是,對於任意劃分特徵A,對應的任意劃分點s兩邊劃分成的資料集D1和D2,求出使D1和D2各自集合的均方差最小,同時D1和D2的均方差之和最小所對應的特徵和特徵值劃分點。表示式為:

其中,c1為D1資料集的樣本輸出均值,c2為D2資料集的樣本輸出均值。

  • 對於決策樹建立後做預測的方式,CART分類樹採用葉子節點裡概率最大的類別作為當前節點的預測類別。而回歸樹輸出不是類別,它採用的是用最終葉子的均值或者中位數來預測輸出結果。