1. 程式人生 > >logistic迴歸和最大熵

logistic迴歸和最大熵

回顧發現,李航的《統計學習方法》有些章節還沒看完,為了記錄,特意再水一文。

0 - logistic分佈

如《統計學習方法》書上,設X是連續隨機變數,X服從logistic分佈是指X具有以下分佈函式和密度函式:

F(x)=P(Xx)=11+e(xμ)/γ
f(x)=F(x)=e(xμ)/γ1+e(xμ)/γ
其中μ是位置引數,γ是形狀引數,logistic分佈函式是一條S形曲線,該曲線以點(μ,12)為中心對稱,即:
F(x+μ)12=F(xμ)+12
γ引數越小,那麼該曲線越往中間縮,則中心附近增長越快

圖0.1 logistic 密度函式和分佈函式

1 - 二項logistic迴歸

我們通常所說的邏輯迴歸就是這裡的二項logistic迴歸,它有如下的式子:

hθ(x)=g(θTx)=11+eθTx
這個函式叫做logistic函式,也被稱為sigmoid函式,其中xiRn,yi{0,1}且有如下式子:
P(y=1|x;θ)=hθ(x)
P(y=0|x;θ)=1hθ(x)
logP(y=1|x;θ)1P(y=1|x;θ)=θTx

即緊湊的寫法為:
p(y|x;θ)=(hθ(x))y(1hθ(x))1y
基於m個訓練樣本,通過極大似然函式來求解該模型的引數:
L(θ)==i=1mp(y(i)|x(i);θ)i=1m(hθ(x(i)))y(i
)
(1hθ(x(i)))1y(i)

將其轉換成log最大似然:
l(θ)==logL(θ)i=1my(i)logh(x(i))+(1y(i))log(1h(x(i)))
而該sigmoid函式的導數為:

相關推薦

logistic迴歸

回顧發現,李航的《統計學習方法》有些章節還沒看完,為了記錄,特意再水一文。 0 - logistic分佈 如《統計學習方法》書上,設X是連續隨機變數,X服從logistic分佈是指X具有以下分佈函式和密度函式: F(x)=P(X≤x)=11+e−(x−

統計學習方法6—logistic迴歸模型

目錄 logistic迴歸和最大熵模型 1. logistic迴歸模型 1.1 logistic分佈 1.2 二項logistic迴歸模型 1.3 模型引數估計

【統計學習方法-李航-筆記總結】六、邏輯斯諦迴歸模型

本文是李航老師《統計學習方法》第六章的筆記,歡迎大佬巨佬們交流。 主要參考部落格: http://www.cnblogs.com/YongSun/p/4767100.html https://blog.csdn.net/tina_ttl/article/details/53519391

李航·統計學習方法筆記·第6章 logistic regression與模型(1)·邏輯斯蒂迴歸模型

第6章 logistic regression與最大熵模型(1)·邏輯斯蒂迴歸模型 標籤(空格分隔): 機器學習教程·李航統計學習方法 邏輯斯蒂:logistic 李航書中稱之為:邏輯斯蒂迴歸模型 周志華書中稱之為:對數機率迴歸模

06_邏輯迴歸演算法模型

  今天是2020年2月12日星期三,現在對學習有點麻木。看了一天的最大熵模型,多少理解了一些內容,在學校看的啥啊真是,要不是寫這個部落格,關鍵的地方真是一點看不出來啊。反思再反思,看書的時候難懂的地方直接翻過去了,現在為了寫出來,多查了很多資料。切忌眼高手低啊,不把模型真正用出來,很難有深入的理解啊。   

統計學習---邏輯斯蒂迴歸模型

邏輯斯蒂迴歸和最大熵模型 邏輯斯蒂分佈 邏輯斯蒂迴歸模型 將權值向量和輸入向量加以擴充後的邏輯斯蒂模型為 模型引數估計 極大似然估計法 最大熵模型 最大熵原理:在所有可能的概率模型中,熵最大的模型是最好的模型。通常用約

《統計學習方法(李航)》邏輯斯蒂迴歸模型學習筆記

作者:jliang https://blog.csdn.net/jliang3   1.重點歸納 1)線性迴歸 (1)是確定兩種或以上變數間相互依賴的定量關係的一種統計分析方法。 (2)模型:y=wx+b (3)誤差函式: (4)常見求解方法 最小

邏輯斯諦迴歸模型-《統計學習方法》學習筆記

 0. 概述: Logistic迴歸是統計學中的經典分類方法,最大熵是概率模型學習的一個準則,將其推廣到分類問題得到最大熵模型,logistic迴歸模型與最大熵模型都是對數線性模型。 本文第一部分主

機器學習筆記(6)-邏輯迴歸模型

Logistic迴歸 Logistic 迴歸雖然名字叫回歸,但是它是用來做分類的。其主要思想是: 根據現有資料對分類邊界線建立迴歸公式,以此進行分類。假設現在有一些資料點,我們用一條直線對這些點進行擬合(這條直線稱為最佳擬合直線),這個擬合的過程就叫做迴歸。

邏輯斯諦迴歸分類模型

1 邏輯斯諦演算法 1.1 工作原理 邏輯斯諦是一種最優化演算法。根據現有資料對分類邊界線建立迴歸公式,相當於找出一些擬合引數,將兩類資料儘可能的分開。為了實現迴歸分類,我們給每個特徵分配一個迴歸係數

統計學習方法 6-邏輯斯諦迴歸模型

邏輯斯諦迴歸模型 邏輯斯諦分佈 二元邏輯斯諦迴歸模型 模型引數估計 多元邏輯斯諦迴歸 最大熵模型 最大熵原理 最大熵原理認為,學習概率模型時,在所有可能的概率模型(分佈)中,熵最大的模型是最好的模型。通常用約束條件來確定概率模型

似然函式似然估計與機器學習中的交叉函式之間的關係

關於似然函式和最大似然估計的詳細說明可以看這篇文章:https://blog.csdn.net/zgcr654321/article/details/83382729 二分類情況和多分類情況下的似然函式與最大似然估計: 二分類情況下的似然函式與最大似然估計: 我們知道按照生活中的常識

OpenNLP框架中各類方法功能註釋

1.BasicContextGenerator類: (1)public String[] getContext(String o) ,將輸入的內容按照空格分割,並存到字串陣列中。 2.GIS類: (1)GISModel trainModel(ObjectStream<

機器學習筆記(十九)——原理模型定義

一、最大熵原理     最大熵原理是概率模型學習的一個準則。最大熵原理認為,在學習概率模型時,在所有可能的概率分佈中,熵最大的模型是最好的模型。通常用約束條件來確定概率模型的集合,所以,最大熵模型也可以表述為在滿足約束條件的模型集合中選取熵最大的模型。   

與邏輯迴歸的等價性

一:前言 update:2015/11/9 獲得了一些新的理解,指數簇分佈的最大熵等價於其指數形式的最大似然界。二項式的最大熵解等價於二項式指數形式(sigmoid)的最大似然,多項式分佈的最大熵等價於多項式分佈指數形式(softmax)的最大似然,因此為什麼用sigmoi

邏輯斯蒂迴歸,模型及其等價性

首先推導二類分類訓練集上的邏輯斯蒂迴歸模型(Logistic Regression), 然後推導最大熵模型(Maximum Entropy Model), 最後給出給出最大熵模型等價於邏輯斯蒂迴歸模型的條件. 1. 邏輯斯蒂迴歸 訓練集T={(xi,

理解交叉似然估計的關係

理解交叉熵作為神經網路的損失函式的意義: 交叉熵刻畫的是實際輸出(概率)與期望輸出(概率)的距離,也就是交叉熵的值越小,兩個概率分佈就越接近,即擬合的更好。 CrossEntropy=H(p)+DKL(p∣∣q)Cross Entropy= H(p)+DKL(p

【機器學習】【邏輯迴歸似然估計的推導求解步驟梯度上升演算法求解

伯努利分佈如果隨機變數X∈{0, 1},並且相應的概率滿足:    P(X=1) = p,0<p<1    P(X=0) = 1 - p則稱隨機變數X服從引數為p的伯努利分佈。則隨機變數X的概率密度函式為:邏輯迴歸    邏輯迴歸卻不是迴歸演算法而是一個分類演算法

深度學習中交叉KL散度似然估計之間的關系

最大似然估計 溢出 效果 hub 了解 互換 穩定 最小 總結 機器學習的面試題中經常會被問到交叉熵(cross entropy)和最大似然估計(MLE)或者KL散度有什麽關系,查了一些資料發現優化這3個東西其實是等價的。 熵和交叉熵 提到交叉熵就需要了解下信息論中熵的定義

學習筆記(一)預備知識

color wrap targe dsm entropy plus 文件 eight 相關鏈接 生活中我們常常聽到人們說“不要把雞蛋放到一個籃子裏”。這樣能夠減少風險。深究一下,這是為什麽呢?事實上,這裏邊包括了所謂的最大熵原理(The Maxim