1. 程式人生 > >廣義線性模型 - Andrew Ng機器學習公開課筆記1.6

廣義線性模型 - Andrew Ng機器學習公開課筆記1.6

sans luci art 能夠 tro ron 便是 import grand

技術分享

在分類問題中我們如果:

技術分享

他們都是廣義線性模型中的一個樣例,在理解廣義線性模型之前須要先理解指數分布族。

指數分布族(The Exponential Family)

假設一個分布能夠用例如以下公式表達,那麽這個分布就屬於指數分布族:

技術分享

公式中y是隨機變量;h(x)稱為基礎度量值(base measure);

η稱為分布的自然參數(natural parameter),也稱為標準參數(canonical parameter);

T(y)稱為充分統計量,通常T(y)=y;

a(η)稱為對數切割函數(log partition function);

技術分享本質上是一個歸一化常數。確保技術分享概率和為1。

當T(y)被固定時,a(η)、b(y)就定義了一個以η為參數的一個指數分布。我們變化η就得到這個分布的不同分布。

伯努利分布屬於指數分布族。伯努利分布均值為φ,寫為Bernoulli(φ)。是一個二值分布,y ∈ {0, 1}。所以p(y = 1; φ) = φ; p(y = 0; φ) = 1 ? φ。當我們變化φ就得到了不同均值的伯努利分布。伯努利分布表達式轉化為指數分布族表達式步驟例如以下:

技術分享

當中,

技術分享

技術分享

再舉一個高斯分布的樣例。高斯分布也屬於指數分布族。由高斯分布能夠推導出線性模型(推導過程將在EM算法中解說)。由星型模型的如果函數能夠得知,高斯分布的方差技術分享與如果函數無關,因而為了計算簡便,我們設方差技術分享=1。

高斯分布轉化為指數分布族形式的推導步驟例如以下:

技術分享

當中

技術分享

更多分部也屬於指數分布族。比如:伯努利分布(Bernoulli)、高斯分布(Gaussian)、多項式分布(Multinomial)、泊松分布(Poisson)、伽馬分布(Gamma)、指數分布(Exponential)、β分布、Dirichlet分布、Wishart分布。

構建廣義線性模型(Constructing GLMs)

在分類和回歸問題中,我們通過構建一個關於x的模型來預測y。這樣的問題能夠利用廣義線性模型(Generalized linear modelsGMLs來解決。構建廣義線性模型我們基於三個如果。也能夠理解為我們基於三個設計決策。這三個決策幫助我們構建廣義線性模型:

  1. 技術分享,如果技術分享滿足一個以為參數的指數分布。比如,給定了輸入x和參數θ。那麽能夠構建y關於的表達式。
  2. 給定x。我們的目標是要確定T(y)。即技術分享

    大多數情況下T(y)=y,那麽我們實際上要確定的是技術分享。即給定x,如果我們的目標函數是技術分享。(在邏輯回歸中期望值是。因此目標函數h是φ。在線性回歸中期望值是μ,而高斯分布中技術分享,因此線性回歸中目標函數技術分享)。

  3. 如果自然參數η和x是線性相關,即如果:技術分享

如果有一個預測問題:基於特征商店促銷活動、近期的廣告、天氣、星期幾等特征x。來預測商店在任一小時內的顧客數目y。

依據概率知識可知,x、y符合泊松分布。泊松分布屬於指數分布族。我們能夠利用上面的3個如果。構建一個廣義線性模型來進行構建預測模型。

GLMs構建最小二模型

線性回歸中的優化目標y(損失函數)是由最小二乘法得到的。能夠使用廣義線性模型構建最小二乘模型。三個如果:

  1. 最小二乘法得到的目標變量y是一個連續值,我們如果給定x下y的分布符合高斯分布。

    如果1中的ExponentialFamily(η)就是高斯分布。

  2. 在高斯分布中技術分享目標函數技術分享
  3. 如果:技術分享

推導步驟例如以下:

技術分享

第一步變換依據如果2:技術分享

第二步變換依據y|x; θ N(μ, σ2),高斯分布的期望值是μ

第三步依據如果1:高斯分布中技術分享

第四步依據如果3:技術分享

如今已經使用廣義線性模型構建出了最小二乘模型。接下來的工作就是利用梯度下降、牛頓方法來求解θ。梯度下降、牛頓方法的內容請參考之前的講義。

GLMs構建邏輯回歸

邏輯回歸能夠用於解決二分類問題,而分類問題目標函數y是二值的離散值,技術分享。依據統計知識。二分類問題能夠選擇伯努利分布來構建模型。

在伯努利分布的指數分布族表達式中我們已知:技術分享,從而得到技術分享

構建廣義線性模型的三個如果:

  1. 如果符合伯努利分布,技術分享
  2. 技術分享。伯努利分布中技術分享
  3. 技術分享

推導步驟例如以下:

技術分享

同最小二乘模型一樣。接下來的工作就由梯度下降或牛頓方法來完畢。

註意一下上面的推到結果技術分享,回顧一下,在邏輯回歸中。我們選用Sigmoid函數技術分享

之所以在邏輯回歸中選用這個g(z)作為Sigmoid函數是由一套理論作支持的。這個理論便是廣義線性模型。

廣義線性模型 - Andrew Ng機器學習公開課筆記1.6