1. 程式人生 > >整合學習,adaboosting與Gradient Boosting 原理解析

整合學習,adaboosting與Gradient Boosting 原理解析

姓名:Jyx
班級:csdn人工智慧直通車-5期
描述:這是本人在學習人工智慧時的學習筆記,加深理解

整合學習

整合學習將各種不同的學習器聯合起來,以期提高總體的預測效果。為發掘各個學習器的優點,需要一套專門的方案來進行聯合。
1. 幾何平均。將各個分類器的預測結果進行幾何平均。其基本原理是使聯合後的概率與各個學習器預測的概率的KL距離最小化
2. 算術平均。 將各個分類器的預測結果進行算術平均
3. 多數投票 。

並沒有一般的規則來指導該選擇何種方式聯合學習器。另外,在特定的學習案例裡甚至可能出現聯合後的學習器比單個學習器中最好的還要差的情況

boosting

boosting 是一種特殊的整合學習方法。所有的‘基’分類器都是弱學習器,但通過採用特定的方式迭代,每次根據訓練過的學習器的預測效果來更新樣本權值,用於新的一輪學習,最終提高聯合後的學習效果

adaboosting

adaboosting的分類目標是

f(x)=sign(F(x))whereF(x)=k=1Kαϕ(x;θk)
其損失定義如下
(1)J(x)=i=1Nexp(yiF(xi))
adaboosting要求每個‘基’分類器返回二值標記,即
ϕ(x;θ){1,1}
,而且類別標記y{1,1}。因此分類成功是的損失總是exp(1),失敗時的損失總是exp(1),所以失敗時有更多的懲罰,最小化損失即最大化成功率

adaboosting演算法

(1)式的優化是一個NPC問題。我們只能退而尋求次優的解法。實際操作中使用的是分段最優的搜尋方式,從第一個函式開始,每次新增一個函式,並優化此輪的目標。
我們定義

Fm(x)=Fm1(x)+αmϕ(x;θm)顯然有 F(x)=FK(x)
在第m步,我們優化的目標