1. 程式人生 > >R-CNN—雙正則化引數的L2-SVM

R-CNN—雙正則化引數的L2-SVM

一、前言

  • 在單正則化SVM的基礎上,提出雙正則化引數的L2-SVM,獲得它的對偶形式,從而確定最優化的目標函式,結合梯度下降形成:Doupenalty gradient(一種新的SVM引數選擇方法)

  • Doupenalty-Gradient方法在同時尋找 C+C 以及核引數這三個引數的最優值時,SVM的效能得到了極大的改善。

二、SVM演算法

2.1 SVM 原型演算法
(0)min:12||w||2+Ci=1Nξi(1)s.t.yi[(w·xi)+b]1ξi
  • ( 其中
    ξi0,i=1,2,3...N
    )
  • C>0 用來調節錯分樣本的錯誤比重
  • ξi0 為鬆弛因子,代表錯分樣本的錯誤程度
  • yi=±1 為樣本的類別標籤
  • w 最優超平面法向量
  • b 最有超平面的閾值

用對偶理論求解最優化,並引入核函式,求出式(1)的對偶形式:

(2)max12i=1Nj=1Nαiαjyiyjk(xi,x
j)+i=1Nαi(3)s.t.j=1Nαiyi=0,0αiC(4):f(x)=sign(i=1Nαiyik(xi,x)+b)

αi 為Lagrange乘子,k(xi,xj)是核函式。式(3)的判別函式為 (4)

2.2 SVM 改進演算法 L2—SVM

我們把式子 (1) 稱為 L1-SVM,它的改進演算法:二範數軟間隔SVM 稱為 L2-SVM。詳情如下 (