1. 程式人生 > >高斯混合模型(GMM Gaussian Mixture Model)

高斯混合模型(GMM Gaussian Mixture Model)

高斯混合模型是一種業界廣泛使用的聚類演算法,該方法使用了高斯分佈作為引數模型,並使用了期望最大演算法(EM)進行訓練

什麼是高斯分佈

高斯分佈有時也被稱作正態分佈,是一個在數學、物理及工程等領域都非常重要的概率分佈,在統計學的許多方面都有著重大的影響。

若隨機變數X服從一個數學期望為 μ μ 、標準方差為 σ

2 σ^2 的高斯分佈,記作:
X   N ( μ ,
σ 2 ) X~N(μ,σ^2)

則其概率密度函式為:
在這裡插入圖片描述
在這裡插入圖片描述
公式中含有2個引數,引數 μ μ
表示均值,引數 σ σ 表示標準差,均值決定了其位置,標準差決定了分佈的幅度。

有了概率密度函式,在已知引數 μ σ μ,σ 的前提下,輸入變數x,可以獲得其相對應的概率密度。

高斯混合模型

定義:高斯混合模型是指具有如下形式的概率分佈模型:
P ( y θ ) = k = 1 K α k φ ( y θ k ) P(y|θ)=\displaystyle\sum_{k=1}^{K}α_kφ(y|θ_k) (1)

其中, α k α_k 是係數,且 α k 0 k = 1 K α k = 1 α_k≥0,\displaystyle\sum_{k=1}^{K}α_k=1 ; φ ( y θ k ) φ(y|θ_k) 是高斯分佈密度函式,其中 θ k = ( μ k σ k ) θ_k=(μ_k,σ_k)

φ ( y θ k ) = 1 2 π σ k e x p ( ( y μ k ) 2 2 σ k 2 ) φ(y|θ_k)=\frac{1}{\sqrt{2π}σ_k}exp(-\frac{(y-μ_k)^2}{2σ_k^{2}}) (2)

稱為第k個分模型。
一般混合模型可以由任意概率分佈密度函式代替2中的高斯密度函式,現在只介紹最常用的高斯混合模型。

高斯混合模型引數估計的EM演算法

假設觀測資料 y 1 , y 2 y N y_1,y_2……y_N 由高斯混合模型生成,
P ( y θ ) = k = 1 K α k φ ( y θ k ) P(y|θ)=\displaystyle\sum_{k=1}^{K}α_kφ(y|θ_k)

其中 θ = ( α 1 , α 2 α K θ 1 , θ 2 θ K ) θ=(α_1,α_2…α_K;θ_1,θ_2…θ_K) ,我們用EM演算法估計高斯混合模型的引數 θ θ

1明確隱變數,寫出完全資料的對數似然函式

可以設想觀測資料 y j y_j ,j=1,2……N,是這樣產生的:
1)首先依概率 α k α_k 選擇第k個高斯分佈分模型 φ ( y θ k ) φ(y|θ_k)

2)然後依第k個分模型的概率分佈 φ ( y θ k ) φ(y|θ_k) 生成觀測資料 y j y_j

這時,觀測資料 y j y_j 時已知的,反映觀測資料 y j y_j 來自第k個分模型的資料時未知的。以變數 γ j k γ_{jk} 表示。

隱變數 γ j k γ_{jk} ,他的取值只能是1或者0
1)當第j個觀測變數來自第k個高斯分佈時,隱變數 γ j k γ_{jk} =1
2)當第j個觀測變數不是來自第k個高斯分佈時,隱變數 γ j k γ_{jk} =0

那麼對於每一個觀測資料 y j y_j ,都會對應一個向量變數 Γ i = ( γ j 1 , γ j 2 γ j K ) Γ_i=(γ_{j1},γ_{j2}…γ_{jK})

相關推薦

混合模型(GMM Gaussian Mixture Model)

高斯混合模型是一種業界廣泛使用的聚類演算法,該方法使用了高斯分佈作為引數模型,並使用了期望最大演算法(EM)進行訓練。 什麼是高斯分佈 高斯分佈有時也被稱作正態分佈,是一個在數學、物理及工程等領域都非常重要的概率分佈,在統計學的許多方面都有著重大的影響。 若隨機變數X服從一個數學

混合模型Gaussian Mixture ModelGMM

先從簡單的離散型隨機變數看起 離散型隨機變數P{X=ak}=pk,k=1,2,3,...,n 其中:∑i=1npi=1 那麼它的期望值是:E(X)=∑kakpk 以上都是中學數學知識,那麼到了高等數學的概率論與數理統計這門課才開始討論連續隨機變數的情況。

聚類之混合模型Gaussian Mixture Model

k-means應該是原來級別的聚類方法了,這整理下一個使用後驗概率準確評測其精度的方法—高斯混合模型。 我們談到了用 k-means 進行聚類的方法,這次我們來說一下另一個很流行的演算法:Gaussian Mixture Model (GMM)。事實上,GMM

聚類之混合模型Gaussian Mixture Model)【轉】

k-means應該是原來級別的聚類方法了,這整理下一個使用後驗概率準確評測其精度的方法—高斯混合模型。 我們談到了用 k-means 進行聚類的方法,這次我們來說一下另一個很流行的演算法:Gaussian Mixture Model (GMM)。事實上,GMM 和 k-means 很像,不過 GMM 是學習

網格缺陷檢測(混合模型GMM

*此示例程式向您展示如何使用GMM分類器進行新穎性檢測以執行Web檢查任務。 要進行新奇檢測, *計算屬於單個訓練類的所有畫素,然後進行計算從分類ROI中減去以提取錯誤畫素。 對於網路檢查任務,GMM因此可用於檢測紋理與訓練好的物體的紋理不對應。       &nb

05 EM演算法 - 混合模型 - GMM

04 EM演算法 - EM演算法收斂證明 __GMM__(Gaussian Mixture Model, 高斯混合模型)是指該演算法由多個高斯模型線性疊加混合而成。每個高斯模型稱之為component。 __GMM演算法__描述的是資料的本身存在的一種分佈,即樣本特徵屬性的分佈,和預測值Y無關。顯然G

Spark2.0機器學習系列之10: 聚類(混合模型 GMM

       在Spark2.0版本中(不是基於RDD API的MLlib),共有四種聚類方法:      (1)K-means      (2)Latent Dirichlet allocation (LDA)      (3)Bisecting k-m

機器學習讀書筆記(混合模型GMM與EM)(改)

高斯混合模型(Gaussian mixture model,GMM)是單一高斯概率密度函式的延伸。GMM能夠平滑地近似任意形狀的密度分佈。 欲瞭解高斯混合模型,那就先從基礎的單一高斯概率密度函式講起。(數學公式字型太難看了!!!!!!!) 注意:這一一篇致力於詳

R || 混合模型GMM

GMM模型的R實現 預備知識: 友情提示:本程式碼配合GMM演算法原理中的步驟閱讀更佳哦! 本文分為一元高斯分佈的EM演算法以及多元高斯分佈的EM演算法,分別採用兩本書上的資料《統計學習方法》和《機器學習》。 一元高斯混合模型 步驟: 1

混合模型GMM

使用概率模型的原因 k均值等價於假設了球對稱形狀的聚類。使用帶權歐式距離,仍然假設了軸對齊的橢球。沒有考慮聚類的形狀。 促使概率模型的原因:混合模型 提供觀測點到聚類的軟分配soft assig

EM演算法和混合模型GMM介紹

EM演算法 EM演算法主要用於求概率密度函式引數的最大似然估計,將問題$\arg \max _{\theta_{1}} \sum_{i=1}^{n} \ln p\left(x_{i} | \theta_{1}\right)$轉換為更加易於計算的$\sum_{i=1}^{n} \ln p\left(x_{i}

混合模型GMM model)以及梯度下降法(gradient descent)更新引數

關於GMM模型的資料和 EM 引數估算的資料,網上已經有很多了,今天想談的是GMM的協方差矩陣的分析、GMM的引數更新方法 1、GMM協方差矩陣的物理含義 涉及到每個元素,是這樣求算: 用中文來描述就是: 注意後面的那個除以(樣本數-1),就是大括號外面的E求期望 (這叫

K均值聚類(K-means)和混合聚類(Mixture of Gaussian Models)

math del 一個 ans line k-均值聚類 初始化 gaussian 樣本 K-means算法流程 給定條件: ????example set: \((x_1, y_1), (x_2, y_2), \dots, (x_N, y_N)\) 初始化: ????K個簇

混合模型GMM)介紹以及學習筆記

1.高斯混合模型概述 高斯密度函式估計是一種引數化模型。高斯混合模型(Gaussian Mixture Model, GMM)是單一高斯概率密度函式的延伸,GMM能夠平滑地近似任意形狀的密度分佈。高斯混合模型種類有單高斯模型(Single Gaussian Model, S

混合模型GMM)及其EM演算法的理解

一個例子 高斯混合模型(Gaussian Mixed Model)指的是多個高斯分佈函式的線性組合,理論上GMM可以擬合出任意型別的分佈,通常用於解決同一集合下的資料包含多個不同的分佈的情況(或者是同一類分佈但引數不一樣,或者是不同型別的分佈,比如正態分佈和伯

混合模型GMM)及其求解(期望最大化(EM)演算法)

1、高斯混合模型的公式表達 高斯混合模型是指隨機變數x具有如下形式的分佈(概率密度函式): (公式1) 其中,引數θθ代表所有混合成分的引數(均值向量μ與協方差矩陣Σ)的集合: (公式2) 每個混合成分的概率密度函式為:

[R][原始碼]EM演算法實現基於混合模型GMM)的聚類

要求:用EM演算法實現基於GMM的聚類演算法。一、實驗資料參考[1] 3.3.2章節。由兩個二維高斯分佈混合生成1000個數據,混合係數分別是0.4、0.6,均值和方差如下:mu1=[-2,-2]sigma1=[1.2, 0.5, 0.5, 1]mean2=[2,2]sigm

混合模型GMM)的EM演算法實現

在 聚類演算法K-Means, K-Medoids, GMM, Spectral clustering,Ncut一文中我們給出了GMM演算法的基本模型與似然函式,在EM演算法原理中對EM演算法的實現與收斂性證明進行了詳細說明。本文主要針對如何用EM演算法在混合高

EM演算法及GMM(混合模型)的詳解

一、預備知識 1.1、協方差矩陣 在高維計算協方差的時候,分母是n-1,而不是n。協方差矩陣的大小與維度相同。 1.2、黑塞矩陣 1.3、正定矩陣 二、高斯混合模型 點模式的分析中,一般會考察如下五種內容

K-Means(K均值)、GMM(混合模型),通俗易懂,先收藏了!

1. 聚類演算法都是無監督學習嗎? 什麼是聚類演算法?聚類是一種機器學習技術,它涉及到資料點的分組。給定一組資料點,我們可以使用聚類演算法將每個資料點劃分為一個特定的組。理論上,同一組中的資料點應該具有相似的屬性和/或特徵,而不同組中的資料點應該具有高度不同的屬性和/或特徵。聚類是一種無監督學習的方法,是許多