1. 程式人生 > >Logistic Regression邏輯迴歸的簡單解釋

Logistic Regression邏輯迴歸的簡單解釋

Logistic Regression也叫Logit Regression,在機器學習中屬於引數估計的模型。邏輯迴歸與普通線性迴歸(Linear Regression)有很大的關係。在應用上,它們有所區別:

  • 普通線性迴歸主要用於連續變數的預測,即,線性迴歸的輸出y的取值範圍是整個實數區間(yR
  • 邏輯迴歸用於離散變數的分類,即,它的輸出y的取值範圍是一個離散的集合,主要用於類的判別,而且其輸出值y表示屬於某一類的概率

一個單獨的邏輯迴歸函式只能判別兩個類,這裡用0和1表示. 邏輯迴歸的結果會給出一個概率p,表示屬於類別1的概率。既然是兩類問題,那麼屬於類別0的概率自然就是1p。有沒有發現一點二項分佈(Binomial Distribution)的影子?

邏輯迴歸應用廣泛,而且因為給出的結果是一個概率,比單純的“是”或“不是”包含更多的資訊,因此大受人們喜愛(誤)。我們之前參加Kaggle廣告點選率預測競賽時使用的就是邏輯迴歸。因為使用者要麼點了廣告,要麼沒點,我們給出一個概率,就可以判斷使用者的點選廣告的可能性。這個預測看起來很簡單,的確是,模型很簡單的,難的地方在於features的分析,選取,綜合等,也就是常說的pre-processing。

文章內容

很多文章介紹邏輯迴歸時會直接給出一個叫sigmoid的函式,該函式的值域範圍是(0,1),剛好是概率的取值範圍(也不完全是,因為是開區間)。本文會再稍微往前一點點,從引入sigmoid函式之前介紹一下Logistic Regression。文章只做簡單介紹(真的很簡單),不涉及引數估計的內容。

Odds與Logit函式

邏輯迴歸的輸入是一個線性組合,與線性迴歸一樣,但輸出變成了概率。而且邏輯迴歸用於預測兩類問題,類似一個伯努利試驗。假設在一個伯努利試驗中,成功的概率是p,失敗的概率是1p,我們設邏輯迴歸的輸出是成功的概率p,那麼需要一個函式將邏輯迴歸的輸入(一個線性組合)與p聯絡起來。下面介紹這個函式,它的名字叫Logit.

我們定義:

Odds=p1p(1)
上式很直觀,表示成功的概率是失敗概率的多少倍,中文叫做發生比

對Odds取自然對數:

ln(Odds)=ln(p1p)=ln(p)ln(1p)(2)
上式即為logit函式的定義,引數為p,記為:
l
ogit(p)=ln(Odds)
(3)

logit(p)的影象如下所示,可以看到它的定義域是[0,1],值域是R
Logit函式形態

但我們要的是定義域是R,值域是[0,1]。於是我們求(3)式的反函式,並將引數p用另一個引數α表示,有:

logit1(α)=11+eα=eα1+eα(4)
上式中α可以取全體實數,而該函式的值域變成了(0,1),這正是我們想要的效果。logit(p)的反函式logit1(α)的名稱就是我們常常聽到的sigmoid函式

輸入與輸出

在(4)式中,輸入的引數α可以是任何數,也可以將其作為一個線性組合輸入。例如,另

α=θ0+θ1x1+θ2x2
則(4)式的sigmoid函式可以寫成:
sigmoid(α)=logit1(α)=eθ0+θ1x1+θ2x21+eθ0+θ1x1+θ2x2(5)
上式就是邏輯迴歸的一般用法。注意到它的輸入還是一個線性組合,跟線性迴歸的輸入是一樣的,只不過計算的時候比線性迴歸多了一層函式,因此這就是為什麼會有文章說邏輯迴歸的本質還是線性迴歸,也會看到有一些文章說在特徵到結果的對映中多加了一層函式對映,這個函式對映就是sigmoid。

(5)式是計算概率p的表示式,這個表示式也可以從logit函式來推導。因為logit(p)與一個線性組合是等價的(也再一次說明邏輯迴歸的本質還是線性迴歸)。

logit函式等於一個線性組合(這是可以的,因為logit函式的定義域和值域與一個線性組合的定義域和值域是一樣的),即:

logit(p)=ln(p1p)=θ0+θ1

相關推薦

Logistic Regression邏輯迴歸簡單解釋

Logistic Regression也叫Logit Regression,在機器學習中屬於引數估計的模型。邏輯迴歸與普通線性迴歸(Linear Regression)有很大的關係。在應用上,它們有所區別: 普通線性迴歸主要用於連續變數的預測,即,線性迴歸的

Logistic Regression(邏輯迴歸)

分類是機器學習的一個基本問題, 基本原則就是將某個待分類的事情根據其不同特徵劃分為兩類. Email: 垃圾郵件/正常郵件 腫瘤: 良性/惡性 蔬菜: 有機/普通   對於分類問題, 其結果 y∈{0,1}, 即只有正類或負類. 對於預測蔬菜是否為有機這件事, y = 0表示蔬菜為普通,

LR(Logistic Regression) 邏輯迴歸模型 進行二分類或多分類 及梯度下降學習引數

邏輯迴歸(Logistic Regression, LR)是傳統機器學習中的一種分類模型,由於演算法的簡單和高效,在實際中應用非常廣泛。它的起源非常複雜,可以看參考引用1。具體應用實踐可以看這裡。 問題背景 對於二元分類問題,給定一個輸入特徵向量XX(例

Logistic Regression--邏輯迴歸演算法彙總

1.1邏輯迴歸模型 考慮具有p個獨立變數的向量,設條件概率為根據觀測量相對於某事件發生的概率。邏輯迴歸模型可表示為          (1.1) 上式右側形式的函式稱為稱為邏輯函式。下圖給出其函式圖象形式。 其中。如果含有名義變數,則將其變為dummy變數。一個具有k個取值的名義變數,將變為k-1個d

spark 2.x 原始碼分析 之 Logistic Regression 邏輯迴歸

Logistic Regression 邏輯迴歸 注:第一次寫部落格,希望互相交流改進。如果公式顯示不完整,請看github原文 一、二元邏輯迴歸 1、簡介 迴歸是解決變數之間的對映關係(x->y),而邏輯迴歸則通過sigmoi

Spark MLlib Logistic Regression邏輯迴歸演算法

1.1 邏輯迴歸演算法 1.1.1 基礎理論 logistic迴歸本質上是線性迴歸,只是在特徵到結果的對映中加入了一層函式對映,即先把特徵線性求和,然後使用函式g(z)將最為假設函式來預測。g(z)可以將連續值對映到0和1上。 它與線性迴歸的不同點在於:為了將線性迴歸輸出的

斯坦福Andrew Ng---機器學習筆記(二):Logistic Regression(邏輯迴歸)

內容提要 這篇部落格的主要內容有: - 介紹欠擬合和過擬合的概念 - 從概率的角度解釋上一篇部落格中評價函式J(θ)” role=”presentation” style=”position: relative;”>J(θ)J(θ)為什麼用最

Logistic Regression(邏輯迴歸) +python3.6(pycharm)實現

數學基礎知識略過,可自行查詢探究。遇到的bugs:1.AttributeError: module 'scipy' has no attribute '__version__'解決辦法:installed packages: 'scipy' :左上角File-- settin

Logistic Regression 邏輯迴歸演算法例子,python程式碼實現

轉載自原文 邏輯迴歸 Logistic Regression 雖然名字叫做邏輯迴歸 Logistic regression ,但它是一種分類演算法。對於文字處理方便,邏輯迴歸是一種非常強大的分類器。它主要通過在邏輯函式上執行迴歸來實現,正如其名字。 邏輯迴歸的一個小

【Tensorflow】邏輯斯特迴歸Logistic Regression)的簡單實現

Introduction 為了簡單的介紹和講解一下Tensorflow的基本操作, 我決定做一個簡單的邏輯斯特迴歸實現與程式碼講解, 但不太會用Markdown的方式來展現一個JupyterNotebook, 姑且就按照“說明—例項”的方式來解釋逐個程式碼塊好了

機器學習筆記之七——邏輯迴歸簡單推導、softmax簡單理解以及sklearn中邏輯迴歸常用引數解釋

邏輯迴歸 對邏輯迴歸的理解:對線性迴歸的假設函式的 f(x) 又套上了一層sigmoid函式,即g(f(x)). 然後sigmoid函式是長這樣的: 它的影象長這樣: 對於線性迴歸得到的結果,再經過一層sigmoid函式,以x=0為界限,左邊為0,右邊為1,邏輯迴歸就是這樣一個二分類

Logistic Regression(邏輯斯特迴歸)

Logistic Regression實際上是基於Linear Regression的,與Linear Regression的不同在於輸出增加了一個非線性對映,即應用邏輯斯特函式將回歸結果對映到0到1(能夠將負無窮到正無窮對映到0-1的函式有很多,但是Logistic函式

Logistic Regression 邏輯回歸

維度 擬合 我們 del ble sca con douban label 問題描述 收集到某一地區的房子面積和房價的數據(x, y)42組,對於一套已知面積的房子預測其房價? 由房價數據可視化圖可以看出,可以使用一條直線擬合房價。通過這種假設得到的預測值和真實值比較接

Logistic Regression邏輯回歸

一個 div 新的 損失函數 OS gre gist log 轉化 邏輯回歸 針對二分類問題,若X是特征集合,Y是類別標簽(0,1),假設Y的取值服從伯努利分布,即 \(P(Y=0|X)=1-p\) \(P(Y=1|X)=p\) 再假設p是可以由已知的特征集合X預測的,令(

coursera 機器學習 logistic regression 邏輯回歸的項目

sta expected face useful regular screen see div eth github : https://github.com/twomeng/logistic-regression- ex1. m 1 %% Machine L

機器學習案例——梯度下降與邏輯迴歸簡單例項

梯度下降例項     下圖是f(x) = x2+3x+4 的函式影象,這是初中的一元二次函式,它的導數為g(x) = f’(x) = 2x+3。我們很明確的知道,當x = -1.5時,函式取得最小值。     下面就通過梯度下降法來計算函式取最小值時x的

【原創】Logistic regression邏輯迴歸) 概述

 Logistic regression (邏輯迴歸)是當前業界比較常用的機器學習方法,用於估計某種事物的可能性。比如某使用者購買某商品的可能性,某病人患有某種疾病的可能性,以及某廣告被使用者點選的可能性等。(注意這裡是:“可能性”,而非數學上的“概率”,logis

機器學習實戰(四)邏輯迴歸LR(Logistic Regression

目錄 0. 前言 1. Sigmoid 函式 2. 梯度上升與梯度下降 3. 梯度下降法(Gradient descent) 4. 梯度上升法(Gradient ascent) 5. 梯度下降/上升法的數學推導

演算法學習——邏輯迴歸(Logistic Regression)

1.Logistic Regression 1.1什麼是迴歸? 英文單詞Regression翻譯成中文“迴歸”,那什麼是迴歸呢?事實上,在Logistic迴歸出現以前,人們最先引入的是線性迴歸。瞭解二者之間的來龍去脈將幫助你更深刻地認識Logistic迴歸。 迴歸一詞最早由英國科學家

廣義線性迴歸邏輯斯諦迴歸Logistic Regression

廣義線性模型 邏輯斯諦迴歸概念可以認為是屬於廣義線性迴歸的範疇,但它是用來進行分類的。 線性模型的表示式為: f (