1. 程式人生 > >整合學習 ensemble learning

整合學習 ensemble learning

Stacking

首先我們先訓練多個不同的模型,然後把之前訓練的各個模型的輸出作為輸入來訓練一個新的最終分類器的模型,以得到一個最終的輸出。 但在實際中,我們通常使用logistic迴歸作為組合策略。

Bagging

Bagging是bootstrap aggregating的簡寫 在Bagging方法中,利用bootstrap方法從整體資料集中採取有放回抽樣得到N個數據集,在每個資料集上學習出一個模型,最後的預測結果利用N個模型的輸出得到,具體地:分類問題採用N個模型預測投票的方式,迴歸問題採用N個模型預測平均的方式。

Boost

主要也是學習一系列弱分類器,並將其組合為一個強分類器。 AdaBoost(Adaptive boosting)演算法:剛開始訓練時對每一個訓練例賦相等的權重,然後用該演算法對訓練集訓練t輪,每次訓練後,對訓練失敗的訓練例賦以較大的權重,也就是讓學習演算法在每次學習以後更注意學錯的樣本,從而得到多個預測函式。 見下圖: 在這裡插入圖片描述

GBDT(Gradient Boost Decision Tree)也是一種Boosting的方法

  • Bagging中每個訓練集互不相關,也就是每個基分類器互不相關,而Boosting中訓練集要在上一輪的結果上進行調整,也使得其不能平行計算
  • Bagging中預測函式是均勻平等的,但在Boosting中預測函式是加權的