資料學習(9)·最大期望演算法·混合高斯模型(上)
阿新 • • 發佈:2019-01-14
作者課堂筆記摘錄,有問題請聯絡 [email protected]
Preview
-
- 高斯混合模型(Mixture of Gaussians)
-
- 最大期望演算法(EM)
-
- 因子分析(Factor Analysis)
1 高斯混合(Mixture of Gaussians)
什麼是高斯混合模型,我們可以簡單理解為資料的生成來自不同的高斯分佈,如上的鳶尾花資料集的例子,我們可以理解資料的生成是通過不同的高斯分佈產生的,可推廣到一般混合模型,只不過高斯分佈我們使用的比較多而已。
一個混合模型假設資料產生於下列步驟:
- <1> 隱變數
,並且
我們可以理解這個 為隱變數,也就是當資料產生時選擇第幾個高斯分佈來產生這個資料。 - <2> 觀測資料
來自分佈
可以理解為觀測資料的產生也取決於隱變數,也就是當我們想要產生該資料時首先以一定的概率選擇適合的高斯分佈,之後在此分佈下產生資料。
怎麼學習所有的引數
- 如果
是已知的:
(監督學習)使用最大似然估計來學習引數,類比之前部落格二次判別分析. - 如果
是未知的:
(無監督學習)使用最大期望演算法。
2 最大期望演算法(EM)
最大期望演算法是一種迭代演算法當模型中還有隱變數時,求最大似然估計的一種方法。
資料的最大似然估計:
我們可以如此理解上式,我們可以用X表示觀測隨機變數的資料,Z表示隱隨機變數的資料。X和Z連在一起稱為完全資料,觀測資料X又稱為不完全資料。假定給出觀測資料X,其概率分佈
其中
是需要估計的模型引數,那麼不完全資料X的似然函式是
,對數似然函式是
;假設X和Z的聯合概率分佈是
,那麼完全資料對數似然函式是
.
EM 演算法通過迭代求 的極大似然估計,每次迭代分為兩步:E步求期望,M步求極大值。
廣義的EM演算法:
- 初始化
- 重複直到收斂{
E-Step:
對於每個 ,使
M-Step:
使