1. 程式人生 > >支援向量機之推導(二)

支援向量機之推導(二)

SVM演算法要解決的是一個最優分類器的設計問題

線性SVM演算法的數學建模

一個最優化問題通常有兩個最基本的因素:
1)目標函式,也就是你希望什麼東西的什麼指標達到最好;---- 分類間隔
2)優化物件,你期望通過改變哪些因素來使你的目標函式達到最優。---決策面

線上性SVM演算法中,目標函式顯然就是那個“分類間隔”,而優化物件則是決策面。所以要對SVM問題進行數學建模,首先要對上述兩個物件(“分類間隔”和“決策面”)進行數學描述

2.1 決策面方程

wx+b=0

2.2 分類“間隔”的計算模型

d=|wx+b|/||w||

2.3 約束條件


2.4 線性SVM優化問題基本描述

三、有約束最優化問題的數學模型 (數學基礎:凸二次優化、拉格朗日乘子法, 拉格朗日對偶、KKT條件、鞍點等等)

SMO演算法:序列最小優化演算法(解決對偶問題),一種解決二次優化問題的演算法,其最經典的應用就是在解決SVM問題上。其基本思路就是一次迭代只優化兩個變數而固定剩餘的變數。直觀地講就是將一個大的優化問題分解為若干個小的優化問題,這些小的優化問題往往是易於求解的

泰勒展開:因為根據高等數學泰勒展開式我們可以知道,任何函式都可以用多項式的方式去趨近,一些基礎的函式如等等都可以去趨近,而不同的函式曲線其實就是這些基礎函式的組合。理解這一點很重要!

硬間隔
軟間隔

整個SMO演算法包括兩部分,求解兩個變數的二次規劃問題和選擇這兩個變數的啟發式方法,SMO演算法難就難在對兩個α變數的選擇過程

SVM問題是一個不等式約束條件下的優化問題

四.線性SVM優化問題求解
4.1 基於拉格朗日乘子法的線性SVM優化問題模型


五。https://sevenold.github.io/2018/07/ml-svm-kernel/

核函式

核函式在SVN演算法中的使用
引入鬆弛變數和懲罰函式的軟間隔分類器