1. 程式人生 > >Andrew Ng機器學習課程筆記(十三)之無監督學習之EM演算法

Andrew Ng機器學習課程筆記(十三)之無監督學習之EM演算法

Preface

Jensen’s Inequality(Jensen不等式)
Expectation-Maximization Algorithm(EM演算法)

Jensen’s Inequality

對於凸函式

f(x)為一個凸函式,且如果它有二階導數,其二階導數恆大於等於0(f(x)0)。令x為一個隨機變數,那麼:

E[f(x)]f(EX)
這個不等式的含義如下圖所示:
這裡寫圖片描述
我們可以進一步推匯出,如果f(x)>0,即f(x)為一個嚴格的凸函式。那麼:
E[f(x)]=f(EX)x為常量的概率為1X=EX的概率為1

對於凹函式

如果f(x)0,即f(x)為一個凸函式。那麼:

f(EX)E[f(x)]

Expectation-Maximization Algorithm

問題定義

假設訓練集{x(1),x(2),...,x(m)}是由m個獨立的無標記樣本構成。我們有這個訓練集的概率分佈模型p(x,z;θ),但是我們只能觀察到x。我們需要使引數θ的對數似然性最大化,即:

argmaxθl(θ)=argmaxθmi=1logp(x(i);θ)=argmaxθmi=1logzp(x(i),z(i);θ)

形式化過程

EM演算法的過程大致如下:

首先,初始化θ(0),調整Q(z)使得J(Q,θ(0))θ(0)相等,然後求出J(Q,θ(0))使得到最大值的