1. 程式人生 > >LR與SVM的異同

LR與SVM的異同

LR與SVM的相同點:

  • *LR和SVM都是分類演算法
  • *如果不考慮核函式,LR和SVM都是線性分類演算法,也就是說他們的分類決策面都是線性的。
  • *LR和SVM都是監督學習演算法
  • *LR和SVM都是判別模型
    –判別模型會生成一個表示p(y|x)的判別函式(或預測模型),
    –生成模型先計算聯合p(y,x)然後通過貝葉斯公式轉化為條件概率。
    –常見的判別模式:KNN、SVM、LR,常見的生成模型有:樸素貝葉斯,隱馬爾可夫模型。
    -*LR和SVM在學術界和工業界都是廣為人知並且應用廣泛。

LR和SVM的不同:

  • *本質上是其loss function不同
    –邏輯迴歸的損失函式:
    這裡寫圖片描述


    –SVM的損失函式:
    這裡寫圖片描述
    調整後為:
    這裡寫圖片描述
    當C很大時:w為引數的向量表示,b為第0個引數
    這裡寫圖片描述
    等價為:
    這裡寫圖片描述
    1,問題就變成了一個凸二次規劃問題,可以利用任何現成的QP(二次規劃)的優化包進行求解。
    2,雖然是一個標準的QP問題,但它也有自己的特殊結構,通過拉格朗日對偶變換成對偶變數的優化問題之後,可以更加有效地求解,也比QP優化包更加高效!
    這裡寫圖片描述

  • *支援向量機只考慮區域性的邊界線附近的點,而邏輯迴歸考慮全域性(遠離的點對邊界線的確定也起作用)。

  • *線性SVM依賴資料表達的距離測度,所以需要對資料先做normalization,LR不受其影響
  • *SVM的損失函式就自帶正則!!!(損失函式中的1/2||w||^2項),這就是為什麼SVM就是結構風險最小化演算法的原因!!!而LR必須另外在損失函式上新增正則項!!!

一般而言,一個點距離超平面的遠近可以表示為分類預測的確信或準確程度。

相關推薦

[機器學習] LRSVM異同

1 為什麼將LR和SVM放在一起來進行比較? 回答這個問題其實就是回答LR和SVM有什麼相同點。 第一,LR和SVM都是分類演算法。 看到這裡很多人就不會認同了,因為在很大一部分人眼裡,LR是迴歸演算法。我是非常不贊同這一點的,因為我認為判斷一個演算法是分類還是迴歸演算法的唯一標準就

LRSVM異同

LR與SVM的相同點: *LR和SVM都是分類演算法 *如果不考慮核函式,LR和SVM都是線性分類演算法,也就是說他們的分類決策面都是線性的。 *LR和SVM都是監督學習演算法 *LR和SVM都是判

LRSVM比較

原文:http://blog.sina.com.cn/s/blog_818f5fde0102vvpy.html 在大大小小的面試過程中,多次被問及這個問題:“請說一下邏輯迴歸(LR)和支援向量機(SVM)之間的相同點和不同點”。第一次被問到這個問題的時候,含含糊糊地說了一些,大多不在點子上,後來

LRSVM的相同點不同點

    Liblinear支援兩個熱門的二元線性分類器:常規邏輯迴歸LR和線性SVM。給出一組例項標籤(xi,yi),i=1,...l,xi∈Rn,yi∈{-1,1},這兩個分類器使用了不同的損失演算法解決下面的約束優化問題。其中,C是大於0的懲罰因子。對於SVM來說,有兩個常用的損失演算法max(1-yiw

LR SVM 的相同和不同

原文地址 在大大小小的面試過程中,多次被問及這個問題:“請說一下邏輯迴歸(LR)和支援向量機(SVM)之間的相同點和不同點”。第一次被問到這個問題的時候,含含糊糊地說了一些,大多不在點子上,後來被問得多了,慢慢也就理解得更清楚了,所以現在整理一下,希望對以後面試機器學習方向

lrsvm如何選擇-面試

我當時的回答:如果要求不僅僅是類別,輸出概率水平大小,要選用lr;因為svm只輸出類別; 網上總結異同: svm是結構風險最小化的函式,因為自帶L2正則函式;svm中取決於支援向量,所以與資料分佈無關,而且計算依賴於距離公式,所以標準化很重要;   lr的決策 平

機器學習中的LR SVM 相同和不同

1.前言 本篇部落格是轉載自LR 與 SVM 的相同和不同,在此感謝此篇部落格的作者。筆者重新排版了一下,以方便日後自己回顧。 2.SVM與LR的相同點的問題 問題1:為什麼將LR和SVM放在一起來進行比較? 第一,LR和SVM都是分類演算法。 看到這裡很多人

機器學習——LRSVM的比較

為什麼把SVM和LR放在一起進行比較? 一是因為這兩個模型應用廣泛。  二是因為這兩個模型有很多相同點,在使用時容易混淆,不知道用哪個好,特別是對初學者。 一、LR與SVM的相同點: 第一,LR和SVM都是分類演算法。 看到這裡很多人就不會認同了,因為在很大一部分人眼

LRSVM、線性迴歸的聯絡區別

LR和SVM的聯絡:都是監督的分類演算法都是線性分類方法 (不考慮核函式時)都是判別模型 判別模型和生成模型是兩個相對應的模型。 判別模型是直接生成一個表示P(Y|X)P(Y|X)或者Y=f(X)Y=f(X)的判別函式(或預測模型) 生成模型是先計算聯合概率分佈P(Y,X)P

StringBufferStringBuilder異同對比分析

ava 但是 原因 碎片 內存碎片 字符 使用字符串 指針 builder Java的字符類String、StringBuffer與StringBuilder異同對比分析    Java String是一個“不可變常量字符串”對象,final屬性定義。之所以這麽說,是從St

機器學習(九)—邏輯回歸SVM區別

ongl 需要 自帶 www. 不理解 就是 clas 決策 技術 1、LR和SVM有什麽相同點   (1)都是監督分類算法;   (2)如果不考慮核函數,LR和SVM都是線性分類算法,也就是說他們的分類決策面都是線性的;   (3)LR和SVM都是判別模型。 2、LR和S

【機器學習--樸素貝葉斯SVM進行病情分類預測】

     貝葉斯定理由英國數學家托馬斯.貝葉斯(Thomas Baves)在1763提出,因此得名貝葉斯定理。貝葉斯定理也稱貝葉斯推理,是關於隨機事件的條件概率的一則定理。 對於兩個事件A和B,事件A發生則B也發生的概率記為P(B|A),事件B發生則A也發生的概率記為P

ArrayArrayList異同

本文是作者在專案過程中做的總結,內容既有借鑑其他大神的地方,也有自己的一點小小思考。若有錯誤的地方,歡迎指正! 參考來源1:https://www.cnblogs.com/skywang12345/p/3308556.html 參考來源2:https://www.cnblogs.com/ku

機器學習~分類迴歸異同

一篇來著外文網站的關於分類與迴歸異同的解釋。 Difference Between Classification and Regression in Machine Learning Fundamentally, classification is about predi

ArrayListVector異同

List是一個介面,裡面宣告有操作“表”這一種資料結構的通用方法,具體實現類實現此介面後,根據實現的不同可對通用方法進行不同程度的擴充套件,它主要有四個實現類:ArrayList,LinkedList,Vector,Stack。ArrayList與Vector基於陣列實現,

python中typeisinstance異同

在python中,經常會使用到type與isinstance兩個內建的函式來判斷變數屬於什麼型別。那麼這兩個函式有什麼區別呢?下面來簡單分析一下。 1.type type函式的原始碼如下: def __init__(cls, what, bases=None, dic

機器學習c12筆記:SVM學習SVM,邏輯迴歸和kNN比較

SVM 摘自百度百科 參考書籍:機器學習實用案例解析 SVM原理 SVM方法是通過一個非線性對映p,把樣本空間對映到一個高維乃至無窮維的特徵空間中(Hilbert空間),使得在原來的樣本空間中非線性可分的問題轉化為在特徵空間中的線性可分的問題.簡單地說,

文字分類SVM

之前做過一些文字挖掘的專案,比如網頁分類、微博情感分析、使用者評論挖掘,也曾經將libsvm進行包裝,寫了一個文字分類的開軟軟體Tmsvm。所以這裡將之前做過一些關於文字分類的東西整理總結一下。 1 基礎知識 1. 1 樣本整理 文字分類屬於有監督的學習,所以需要整理樣

感知器、logisticsvm 區別聯絡

從感知器談起 對於典型的二分類問題,線性分類器的目的就是找一個超平面把正負兩類分開。對於這個超平面,我們可以用下面的式子來表示, ωTx+b=0 感知器是最簡單的一種線性分類器。用f(x)表示分類函式,感知器可以如下來表示。 f(x)=sign(ωTx+

資料探勘—LDA,PCA特徵提取降維SVM多分類在人臉識別中的應用-資料集ORL

@vision 3 @author:馬旭 @tel:13952522076 @email:[email protected] 執行:執行predict.m檔案; 結果:時間一般為0.2秒左右,正確率100%;(因為測試集比較少) 預處理資料preprocess