機器學習_論文筆記_2: bagging predictors ( BREIMAN[1996])
阿新 • • 發佈:2018-12-17
By joey周琦
Bagging predictor可以產生多個版本的predictor, 並把這些predictor聚集(aggregate)為一個。這種策略對於不穩定的系統可以提高其精度。
有一個學習資料集
(x,L)
假設現在我們有一系列資料集合
對於迴歸問題:
對於分類問題,通過投票選擇出初測最多的那個。
但是一般情況下,我們只有一個數據集
- bagging可以提高“不穩定的演算法”精度
- 這裡的不穩定表示,資料集
L 小幅度的改變,就可能大幅度改變predictorφ(x,L) .(詳見Breiman[1994]) - 不穩定的演算法有 神經網路,分類樹,迴歸樹等
- 穩定的演算法有KNN
- 這裡的不穩定表示,資料集
- bagging可能會降低“穩定演算法”的精度
- bagging可以減少variance, 但是會小幅度提高bias