1. 程式人生 > >廣義線性模型與指數分佈族的理解

廣義線性模型與指數分佈族的理解

在機器學習領域,很多模型都是屬於廣義線性模型(Generalized Linear Model, GLM),如線性迴歸,邏輯迴歸,Softmax迴歸等。

廣義線性模型有3個基本假設:

(1) 樣本觀測值 y i y_i 滿足帶引數 η

\eta 的指數分佈族。即GLM是基於指數分佈族的,所以我們先來看一下指數分佈族的一般形式:
p ( y ; η )
= b ( y ) e x p ( η
T
T ( y ) a ( η ) ) p(y;\eta)=b(y)exp(\eta^TT(y)-a(\eta))

其中, η \eta 為自然引數,在一般情況下, η \eta 為實數(多項式分佈中 η \eta 為向量)。 T ( y ) T(y) 為充分統計量(一般情況下,如高斯分佈和伯努利分佈中, T ( y ) = y T(y)=y )。 a ( η ) a(\eta) 為累積量函式。給定 T , a , b T,a,b , 通過引數 η \eta ,我們可以得到指數分佈族中的各類分佈。

進一步解釋下什麼是充分統計量: T ( y ) T(y) 是未知分佈 p p 引數 θ \theta 的充分統計量,當且僅當 T ( y ) T(y) 能夠提供 θ \theta 的全部資訊。比如在正態分佈中,樣本均值和方差就是未知的正態分佈的充分統計量,因為這兩個引數可以完全描述整個樣本的分佈特性。

對於假設1,換句話說:給定 x , θ x,\theta , 輸出 y y 滿足引數為 η \eta 的指數族分佈。

(2) 分佈模型引數 η \eta 與輸入樣本 x x 呈線性關係,即 η = θ T x \eta=\theta^{T}x 。(當 η \eta 為變數時, η i = θ i T x \eta_i=\theta_i^Tx

(3) h ( x ) = E [ y x ] h(x)=E[y|x] (線性迴歸和邏輯迴歸都滿足該式,例如邏輯迴歸中, h ( x ) = p ( y = 1 x ; θ ) h(x)=p(y=1|x;\theta) ,數學期望 E [ y x ] = 1 p ( y = 1 x ; θ ) + 0 p ( y = 0 x ; θ ) E[y|x]=1*p(y=1|x;\theta)+0*p(y=0|x;\theta) ,因此 h ( x ) = E [ y x ] h(x)=E[y|x] )

接下來,我們首先證明高斯分佈、伯努利分佈和多項式分佈屬於指數分佈族,然後我們由廣義線性模型推匯出線性迴歸,邏輯迴歸和多項式迴歸。這是因為:線性迴歸假設樣本和噪聲服從高斯分佈,邏輯迴歸假設樣本服從伯努利分佈,多項式迴歸假設樣本服從多項式分佈。

注:關於多項式迴歸,會介紹得稍微詳細點。

文章目錄

一、證明分佈屬於指數分佈族

1.1 證明高斯分佈屬於指數分佈族

因為方差 σ 2 \sigma^2 項對我們最終求 θ \theta h θ ( x ) h_\theta(x) 沒有影響,,因此為了簡化計算,我們令 σ = 1 \sigma=1 :

p ( y ; u ) = 1 2 π σ e x p ( ( y u ) 2 2 σ 2 ) = 1 2 π e x p ( ( y u ) 2 2 ) = 1 2 π e x p ( 1 2 y 2 ) e x p ( u y 1 2 u 2 ) \begin{aligned} p(y;u)&={1\over \sqrt{2\pi}\sigma}exp(-{(y-u)^2\over 2\sigma^2})\\ &= {1\over \sqrt{2\pi}}exp(-{(y-u)^2\over 2})\\ &={1\over \sqrt{2\pi}}exp(-{1\over 2}y^2)*exp(uy-{1\over 2}u^2) \end{aligned}

因此:
b ( y ) = 1 2 π e x p ( 1 2 y 2 ) η = u T ( y ) = y a ( η ) = 1 2 u 2 = 1 2 η 2 \begin{aligned} b(y)&={1\over \sqrt{2\pi}}exp(-{1\over 2}y^2)\\ \eta&=u \\ T(y) &=y\\ a(\eta)&={1\over 2}u^2 ={1\over 2}\eta^2 \end{aligned}

相關推薦

廣義線性模型指數分佈理解

在機器學習領域,很多模型都是屬於廣義線性模型(Generalized Linear Model, GLM),如線性迴歸,邏輯迴歸,Softmax迴歸等。 廣義線性模型有3個基本假設: (1) 樣本觀測值

深度學習基礎--loss啟用函式--廣義線性模型各種各樣的啟用函式(配圖)

廣義線性模型是怎被應用在深度學習中?   深度學習從統計學角度,可以看做遞迴的廣義線性模型。廣義線性模型相對於經典的線性模型(y=wx+b),核心在於引入了連線函式g(.),形式變為:y=g(wx+b)。   深度學習時遞迴的廣義線性模型,神經元的啟用函式,即為廣義線性模型的連結函式

GLM(廣義線性模型) LR(邏輯迴歸) 詳解

GLM 廣義線性模型 George Box said: “All models are wrong, some are useful” 1. 始於 Linear Model 作為 GLM 的基礎,本節 review 經典的 Linear Regress

泊松分佈指數分佈理解

說到泊松分佈,最好是明白:泊松分佈是二項分佈n很大而p很小時的一種極限形式。 二項分佈:已知某件事情發生的概率是p,那麼做n次試驗,事情發生的次數就服從二項分佈。 泊松分佈式某段連續的時間內事情發生的次數。事情發生的時間是可以忽略的。關注的是事件的發生。泊松

機器學習演算法之:指數分佈廣義線性模型

> 翻譯總結By joey周琦 參考NG的lecture note1 part3 本文將首先簡單介紹指數族分佈,然後介紹一下廣義線性模型(generalized linear model, GLM), 最後解釋了為什麼邏輯迴歸(logistic r

牛頓方法,指數分佈廣義線性模型

原文連結 http://blog.csdn.net/dream_angel_z/article/details/46288167 本節內容 牛頓方法指數分佈族廣義線性模型 之前學習了梯度下降方法,關於梯度下降(gradient descent),這裡簡

【機器學習-斯坦福】學習筆記4 ——牛頓方法;指數分佈; 廣義線性模型(GLM)

牛頓方法 本次課程大綱: 1、  牛頓方法:對Logistic模型進行擬合 2、 指數分佈族 3、  廣義線性模型(GLM):聯絡Logistic迴歸和最小二乘模型 複習: Logistic迴歸:分類演算法 假設給定x以為引數的y=1和y=0的概率:

指數分佈廣義線性模型

本節主要是我看了網易公開課上的Andrew Ng的機器學習公開課第四節所做的筆記加上自己的一些整理,將它發上來供參考,由於水平有限,可能有錯誤。 這節視訊中,Andrew Ng主要講了三個方面,分別是牛頓法,指數分佈家族和廣義線性迴歸(GLMS)。 本

各種迴歸全解:傳統迴歸、邏輯迴歸、加權迴歸/核迴歸、嶺迴歸、廣義線性模型/指數

2、從‘廣義線性模型(GLM:generalized linear models)’和‘指數族’說起: (1)指數族(the exponential family) 伯努利分佈: 高斯分佈: (2)GLM 3、為什麼sigma函式可以代表概率? 設y只取0,1 4、邏輯迴歸

廣義線性模型理解

選擇 現象 one 世界 logistic 是什麽 times 自己 取值 世界中(大部分的)各種現象背後,都存在著可以解釋這些現象的規律。機器學習要做的,就是通過訓練模型,發現數據背後隱藏的規律,從而對新的數據做出合理的判斷。 雖然機器學習能夠自動地幫我們完成很多事情(

線性模型選擇廣義線性模型

線性模型選擇     如何選擇迴歸模型   當只瞭解一兩種迴歸技術的時候,情況往往會比較簡單。然而,當我們在應對問題時可供選擇的方法越多,選擇正確的那一個就越難。類似的情況下也發生在迴歸模型中。   掌握多種迴歸模型時,基於自變數和

斯坦福大學公開課機器學習課程(Andrew Ng)四牛頓方法廣義線性模型

本次課所講主要內容: 1、  牛頓方法:對Logistic模型進行擬合 2、 指數分佈族 3、  廣義線性模型(GLM):聯絡Logistic迴歸和最小二乘模型 一、牛頓方法        牛頓方法與梯度下降法的功能一樣,都是對解空間進行搜尋的方法。 假設有函

廣義線性模型2

nor alt 能夠 ever ... mat rcv shape dwt 1.1.2 Ridge Regression(嶺回歸) 嶺回歸和普通最小二乘法回歸的一個重要差別是前者對系數模的平方進行了限制。例如以下所看到的: In [1]: from sklearn im

廣義線性模型 - Andrew Ng機器學習公開課筆記1.6

sans luci art 能夠 tro ron 便是 import grand 在分類問題中我們如果: 他們都是廣義線性模型中的一個樣例,在理解廣義線性模型之前須要先理解指數分布族。 指數分

分類和邏輯回歸(Classification and logistic regression),廣義線性模型(Generalized Linear Models) ,生成學習算法(Generative Learning algorithms)

line learning nbsp ear 回歸 logs http zdb del 分類和邏輯回歸(Classification and logistic regression) http://www.cnblogs.com/czdbest/p/5768467.html

R語言學習筆記(十一):廣義線性模型

學習筆記 Education 5.0 1.3 style only 可能性 div erro #Logistic 回歸 install.packages("AER") data(Affairs,package="AER") summary(Affairs) a

R語言-廣義線性模型

類別 模型 判斷 table height 函數 on() 手動 res 使用場景:結果變量是類別型,二值變量和多分類變量,不滿足正態分布      結果變量是計數型,並且他們的均值和方差都是相關的 解決方法:使用廣義線性模型,它包含費正太因變量的分析 1.Logisti

線性迴歸_邏輯迴歸_廣義線性模型_斯坦福CS229_學習筆記

前言 之前學習過視訊版本的吳恩達老師CS229的機器學習課程,但是覺得並不能理解很好。現在結合講義,對於之前的內容再次進行梳理,仍然記錄下自己的思考。圖片來源於網路或者講義。話不多說,進入正題吧。 Part I Regression and Linear Regression

Java記憶體模型執行緒 深入理解Java虛擬機器總結

在許多情況下,讓計算機同時去做幾件事情,不僅是因為計算機的運算能力強大了,還有一個很重要的原因是計算機的運算速度與它的儲存和通訊子系統速度的差距太大, 大量的時間都花費在磁碟I/O、網路通訊或者資料庫訪問上。 如果不希望處理器在大部分時間裡都處於等待其他資源的狀態,就必須使用一些手段去把處理器

Java內存模型線程 深入理解Java虛擬機總結

物理機 指令重排 join 場景 blog 地方 原子操作 規則 sem 在許多情況下,讓計算機同時去做幾件事情,不僅是因為計算機的運算能力強大了,還有一個很重要的原因是計算機的運算速度與它的存儲和通信子系統速度的差距太大, 大量的時間都花費在磁盤I/O、網