支援向量機SVM(二):基於軟間隔最大化的線性SVM
阿新 • • 發佈:2019-01-22
前言
由上節,線性可分SVM的學習模型為
對於不可分資料集(少量資料不可分),由於約束條件不再成立,不能使用以上線性可分SVM的模型。為此,引入鬆弛變數,使得加上鬆弛變數後的函式間隔不小於1,從而建立起線性不可分資料集的學習模型。
本節主要介紹線性不可分資料集的模型建立、求解,以及等價形式。
基於軟間隔最大化的線性SVM
模型描述
線性不可分資料集,例項特徵向量,例項類別。通常情況下,資料集中僅有少部分特異點,去除特異點的資料集線性可分。
模型建立
軟間隔與正則化
軟間隔 指允許某些樣本的函式間隔小於1(下式第一項);正則化 指使不滿足約束的樣本儘可能少(下式第二項),即
式中為0/1損失函式,即當樣本分類正確,值為0;當樣本分類錯誤,值為1。為大於0的懲罰引數,即當趨於無窮時,迫使所有樣本均滿足約束;取有限值時,允許一些樣本不滿足約束。
函式非連續可導,不利用優化求解。常用的替代損失函式有合頁損失、指數損失以及對率損失,即
三種替代損失函式的曲線:
若採用 合頁損失,即函式間隔大於1時無損失、小於1時有損失,得軟間隔優化問題
引入鬆弛變數
則當,;當,,即始終成立,得優化問題變式
解約束方程得,求得分離超平面,決策函式。
邏輯迴歸與線性SVM
若使用對率機率損失替代0/1損失,則軟間隔優化問題
可見上述軟間隔SVM與邏輯迴歸(使用L2正則化)優化目標相近,通常效能也基本一致。對率迴歸的輸出具有自然的概率意義,而SVM不做處理時,輸出不具有概率意義。此外對率迴歸能直接用於多分類,SVM需加以推廣。由於合頁損失函式有平坦的零區域,使得 支援向量機的解具有稀疏性,具有支援向量的概念,計算開銷較小。
更一般的損失替代形式為