1. 程式人生 > >ML—廣義線性模型導論

ML—廣義線性模型導論

Andrew Zhang
Tianjin Key Laboratory of Cognitive Computing and Application
Tianjin University
Nov 3, 2015

本文主要講解我對GLM的理解,並將GLM推廣到邏輯迴歸,線性迴歸和Softmax迴歸理論中。

一、指數分佈族(ExponentialFamily)
如果一個分佈密度函式可以寫成如下的形式
p(y,η)=b(y)eηTT(y)a(η)(1-1)


其中, η 被稱為自然引數,標準引數或者規範引數; T(y) 被稱為充分統計量;而 a(η) 一般被稱為對數分函式。 T,a,b 確定了引數為 η 的一種分佈函式。

二、GLM的三個假設
1、線性模型的假設
線性模型有如下三條假設
y=xβ+ϵ
E(ϵ)=0
cov(ϵ,ϵ)=σ2Inn


(2)
2、廣義線性模型的三條假設
廣義線性模型需要滿足y關於x的條件概率和模型設定三個假設:
假設一: y|x;θ ~ ExponentialFamily(η) 對於給定的 x θ , y 的分佈服從引數為 η 的指數分佈族
假設二:對於給定的
x ,目標是預測給定 x T(y) 的期望
假設三:自然引數 η 和輸入 x 是線性關係: η=θTx (如果 η 是向量,那麼 ηi=θTix )
3、對GLM三個假設的說明
3.1 假設1的解釋
假設一講的是廣義線性模型的核心。廣義線性模型廣體現在 y 服從的是一個指數分佈族。簡單來說,就是對於所有的樣本 y 服從的是同一個分佈,只不過不同樣本之間這個分佈的引數不同。例如若所有樣本的 y 都是伯努利分佈,則不同的樣本分別對應與 x 相關的 ϕ (邏輯迴歸),若若所有樣本的 y 都是正態分佈,則不同的樣本分別對應與 x 相關的 μ (最小二乘)。。。。。
3.2 假設2的解釋
主要是說GLM的輸出。輸出的 hθ(x)=E[T(y)|x]
3.3 假設3的解釋
對於假設3,意味著在任何出現 η 的地方,我們都需要用 η=θTx 或者 ηi=θTix 替換,以此轉化為關於輸入 x 的線性關係。

三、GLM引數求解
對於GLM模型引數 θ 的求解,一般都要利用極大似然估計,求解出使得采樣樣本取得最大概率的引數 θ
對於訓練樣本 (x1,y1),(x2,y2),...,(xm,ym) ,似然函式為
L(θ)=mi=1p(yi|xi;θ)(3)
後面只需要對公式(3)進行求解,得到使似然函式達到極大值時對應的 θ 即可。

四、GLM—邏輯迴歸
在邏輯迴歸中,假設類別標籤服從伯努利分佈 Bernouli(ϕ) ,即 p(y=1;ϕ)=ϕ,p(y=0;ϕ)=1ϕ ,在這裡 ϕ x 有關。也就是說不同的輸入 x 可以得到不同的伯努利分佈,這就是邏輯迴歸的伯努利分佈族。
首先我們來推導一下,證明伯努利分佈~ Bernouli(ϕ) 滿足指數分佈族形式(1)。
p(y;ϕ)=ϕy(1ϕ)1y
     =eylogϕ+(1y)log(1ϕ)
     =eylogϕ1ϕ+log(1ϕ)
     (4-1)
對比式(1)可得
η=logϕ1ϕ
T(y)=y
a(η)=log(1ϕ)
b(y

相關推薦

ML廣義線性模型導論

Andrew Zhang Tianjin Key Laboratory of Cognitive Computing and Application Tianjin University Nov 3, 2015 本文主要講解我對GLM的理解,並將GLM推廣到邏輯迴歸,線性迴歸和

廣義線性模型2

nor alt 能夠 ever ... mat rcv shape dwt 1.1.2 Ridge Regression(嶺回歸) 嶺回歸和普通最小二乘法回歸的一個重要差別是前者對系數模的平方進行了限制。例如以下所看到的: In [1]: from sklearn im

廣義線性模型 - Andrew Ng機器學習公開課筆記1.6

sans luci art 能夠 tro ron 便是 import grand 在分類問題中我們如果: 他們都是廣義線性模型中的一個樣例,在理解廣義線性模型之前須要先理解指數分布族。 指數分

廣義線性模型的理解

選擇 現象 one 世界 logistic 是什麽 times 自己 取值 世界中(大部分的)各種現象背後,都存在著可以解釋這些現象的規律。機器學習要做的,就是通過訓練模型,發現數據背後隱藏的規律,從而對新的數據做出合理的判斷。 雖然機器學習能夠自動地幫我們完成很多事情(

分類和邏輯回歸(Classification and logistic regression),廣義線性模型(Generalized Linear Models) ,生成學習算法(Generative Learning algorithms)

line learning nbsp ear 回歸 logs http zdb del 分類和邏輯回歸(Classification and logistic regression) http://www.cnblogs.com/czdbest/p/5768467.html

R語言學習筆記(十一):廣義線性模型

學習筆記 Education 5.0 1.3 style only 可能性 div erro #Logistic 回歸 install.packages("AER") data(Affairs,package="AER") summary(Affairs) a

R語言-廣義線性模型

類別 模型 判斷 table height 函數 on() 手動 res 使用場景:結果變量是類別型,二值變量和多分類變量,不滿足正態分布      結果變量是計數型,並且他們的均值和方差都是相關的 解決方法:使用廣義線性模型,它包含費正太因變量的分析 1.Logisti

線性迴歸_邏輯迴歸_廣義線性模型_斯坦福CS229_學習筆記

前言 之前學習過視訊版本的吳恩達老師CS229的機器學習課程,但是覺得並不能理解很好。現在結合講義,對於之前的內容再次進行梳理,仍然記錄下自己的思考。圖片來源於網路或者講義。話不多說,進入正題吧。 Part I Regression and Linear Regression

深度學習基礎--loss與啟用函式--廣義線性模型與各種各樣的啟用函式(配圖)

廣義線性模型是怎被應用在深度學習中?   深度學習從統計學角度,可以看做遞迴的廣義線性模型。廣義線性模型相對於經典的線性模型(y=wx+b),核心在於引入了連線函式g(.),形式變為:y=g(wx+b)。   深度學習時遞迴的廣義線性模型,神經元的啟用函式,即為廣義線性模型的連結函式

廣義線性模型(Generalized Linear Models)

看了一下斯坦福大學公開課:機器學習教程(吳恩達教授),記錄了一些筆記,寫出來以便以後有用到。筆記如有誤,還望告知。 本系列其它筆記: 線性迴歸(Linear Regression) 分類和邏輯迴歸(Classification and logistic regression) 廣義線性模

廣義線性模型與指數分佈族的理解

在機器學習領域,很多模型都是屬於廣義線性模型(Generalized Linear Model, GLM),如線性迴歸,邏輯迴歸,Softmax迴歸等。 廣義線性模型有3個基本假設: (1) 樣本觀測值

python 機器學習 sklearn 廣義線性模型

廣義的線性模型是最最常用和我個人認為最重要的 最小二乘 class sklearn.linear_model.LinearRegression(fit_intercept=True, normalize=False, copy_X=

機器學習cs229——(三)區域性加權迴歸、邏輯迴歸、感知器、牛頓方法、廣義線性模型

 首先,我們先來討論一下欠擬合(underfitting)和過擬合(overfitting)問題。比如我們同樣採用線性迴歸來對一組房屋價格和房屋大小的資料進行擬合,第一種情況下我們只選取一個數據特徵(比如房屋大小 x)採用直線進行擬合。第二種情況下選取兩個資料特徵(比如房屋大

資料學習(2)·廣義線性模型

作者課堂筆記,有問題請聯絡[email protected] 目錄 指數族,廣義線性模型 1 指數族 如果一種分佈可以寫成如下形式,那麼這種分佈屬於指數族: p(y;η)=b(y)e

廣義線性模型定價模組(PYTHON3.5+)

廣義線性模型定價模組,要求PYTHON3.5+版本。實現的功能如下: 1.按出險頻度和案均賠款分別建立GLM迴歸模型(出險頻度為泊松分佈,案均賠款為伽馬分佈,連線函式均為物件聯接函式)。 2.根據模型結果自動生成費率表和分地區基準純風險保費表。 3.根據模型對保單進行評分,並可按10

線性模型選擇與廣義線性模型

線性模型選擇     如何選擇迴歸模型   當只瞭解一兩種迴歸技術的時候,情況往往會比較簡單。然而,當我們在應對問題時可供選擇的方法越多,選擇正確的那一個就越難。類似的情況下也發生在迴歸模型中。   掌握多種迴歸模型時,基於自變數和

第3章-從線性概率模型廣義線性模型(2)

原文參考 斯坦福機器學習cs229-2-Generative Learning algorithms https://mathdept.iut.ac.ir/sites/mathdept.iut.ac.ir/files/AGRESTI.PDF http://data.princeton.edu

牛頓方法,指數分佈族,廣義線性模型

原文連結 http://blog.csdn.net/dream_angel_z/article/details/46288167 本節內容 牛頓方法指數分佈族廣義線性模型 之前學習了梯度下降方法,關於梯度下降(gradient descent),這裡簡

機器學習筆記五:廣義線性模型(GLM)

一.指數分佈族 在前面的筆記四里面,線性迴歸的模型中,我們有,而在logistic迴歸的模型裡面,有。事實上,這兩個分佈都是指數分佈族中的兩個特殊的模型。所以,接下來會仔細討論一下指數分佈族的一些特點,會證明上面兩個分佈為什麼是指數分佈族的特性情況以及怎麼用到

線性模型廣義線性模型(2)——引數估計、假設檢驗

本文系轉載,原文連結:http://cos.name/2011/01/how-does-glm-generalize-lm-fit-and-test/ 1.GLM引數估計——極大似然法 為了理論上簡化,這裡把GLM的分佈限定在指數分佈族。事實上,實際應用中