1. 程式人生 > >高斯混合模型(Gaussian Mixture Model,GMM)

高斯混合模型(Gaussian Mixture Model,GMM)

先從簡單的離散型隨機變數看起

離散型隨機變數

P{X=ak}=pk,k=1,2,3,...,n
其中:i=1npi=1
那麼它的期望值是:E(X)=kakpk

以上都是中學數學知識,那麼到了高等數學的概率論與數理統計這門課才開始討論連續隨機變數的情況。

如果隨機變數是連續的,且它的概率密度函式是f(x),那麼它的數學期望值是:

E(X)=xf(x)dx
方差為:D(X)=E[(XE(X))2]

正態分佈也是我們很熟悉的分佈情況了,高中大學數學都進行過學習討論:

正態分佈:

XN(μ,σ2)
概率密度函式為:p(x)=12πσe(xμ)22σ2

其中μ是期望值,σ

是標準差。

協方差

cov(X,Y)=E{[XE(X)][YE(Y)]}=E(XY)E(X)E(Y)其中XY為兩個隨機變數。

下面就要升級到高維正態分佈了:

多維高斯正態分佈:

N(xμ,Σ)=12πn|Σ|exp(12(xμ)TΣ1(xμ))
符號同二位正態分佈的意義差不多,其中Σ是協方差矩陣,Σ1協方差矩陣的逆。

高斯混合模型(GMM)概率密度函式:

p(x)=k=1Kp(k)p(x|k)=k=1KπkN(x|μk,Σk)其中i=1Kπi=1

這個式子可以這樣解釋,假設有一批資料X={X1,X2,...,Xn},假設Xi是由高斯分佈生成的,而且這裡一共有K

個高斯分佈生成器,具體Xi對應的是哪個生成器是不知道的,而且每個生成器在混合模型中所佔的比例πi也是未知的,所以這些未知的東西全部都放在一起,那麼此時的分佈就是高斯混合分佈。

因為這裡面πkμkΣk都是未知的,所以我們首先要估計一下這幾個引數,這時候最大似然法就用上了。最大似然法就是使樣本點在估計的概率密度函式上的概率值最大。為了防止在計算過程中產生溢位現象,我們可以將目標函式取對數進行計算:

maxi=1Nlogp(xi),那麼最大化對數似然函式是:max

相關推薦

混合模型Gaussian Mixture ModelGMM

先從簡單的離散型隨機變數看起 離散型隨機變數P{X=ak}=pk,k=1,2,3,...,n 其中:∑i=1npi=1 那麼它的期望值是:E(X)=∑kakpk 以上都是中學數學知識,那麼到了高等數學的概率論與數理統計這門課才開始討論連續隨機變數的情況。

聚類之混合模型Gaussian Mixture Model

k-means應該是原來級別的聚類方法了,這整理下一個使用後驗概率準確評測其精度的方法—高斯混合模型。 我們談到了用 k-means 進行聚類的方法,這次我們來說一下另一個很流行的演算法:Gaussian Mixture Model (GMM)。事實上,GMM

聚類之混合模型Gaussian Mixture Model【轉】

k-means應該是原來級別的聚類方法了,這整理下一個使用後驗概率準確評測其精度的方法—高斯混合模型。 我們談到了用 k-means 進行聚類的方法,這次我們來說一下另一個很流行的演算法:Gaussian Mixture Model (GMM)。事實上,GMM 和 k-means 很像,不過 GMM 是學習

混合模型GMM model以及梯度下降法gradient descent更新引數

關於GMM模型的資料和 EM 引數估算的資料,網上已經有很多了,今天想談的是GMM的協方差矩陣的分析、GMM的引數更新方法 1、GMM協方差矩陣的物理含義 涉及到每個元素,是這樣求算: 用中文來描述就是: 注意後面的那個除以(樣本數-1),就是大括號外面的E求期望 (這叫

混合模型GMM介紹以及學習筆記

1.高斯混合模型概述 高斯密度函式估計是一種引數化模型。高斯混合模型(Gaussian Mixture Model, GMM)是單一高斯概率密度函式的延伸,GMM能夠平滑地近似任意形狀的密度分佈。高斯混合模型種類有單高斯模型(Single Gaussian Model, S

EM演算法之混合模型

單個高斯模型 如果我們有一堆資料,其分佈屬於一個高斯模型,那麼有 p(X)=N(x|μ,Σ)=1(2π)m|Σ|‾‾‾‾‾‾‾‾√exp[−12(x−μ)TΣ−1(x−μ)](1.1) p(X) = N(x|\mu,\Sigma) = \

混合模型GMM及其EM演算法的理解

一個例子 高斯混合模型(Gaussian Mixed Model)指的是多個高斯分佈函式的線性組合,理論上GMM可以擬合出任意型別的分佈,通常用於解決同一集合下的資料包含多個不同的分佈的情況(或者是同一類分佈但引數不一樣,或者是不同型別的分佈,比如正態分佈和伯

混合模型GMM及其求解期望最大化EM演算法

1、高斯混合模型的公式表達 高斯混合模型是指隨機變數x具有如下形式的分佈(概率密度函式): (公式1) 其中,引數θθ代表所有混合成分的引數(均值向量μ與協方差矩陣Σ)的集合: (公式2) 每個混合成分的概率密度函式為:

[R][原始碼]EM演算法實現基於混合模型GMM的聚類

要求:用EM演算法實現基於GMM的聚類演算法。一、實驗資料參考[1] 3.3.2章節。由兩個二維高斯分佈混合生成1000個數據,混合係數分別是0.4、0.6,均值和方差如下:mu1=[-2,-2]sigma1=[1.2, 0.5, 0.5, 1]mean2=[2,2]sigm

混合模型GMM的EM演算法實現

在 聚類演算法K-Means, K-Medoids, GMM, Spectral clustering,Ncut一文中我們給出了GMM演算法的基本模型與似然函式,在EM演算法原理中對EM演算法的實現與收斂性證明進行了詳細說明。本文主要針對如何用EM演算法在混合高

隱馬爾科夫模型Hidden Markov ModelHMM

【轉自:https://blog.csdn.net/mingzai624/article/details/52399235】 介紹 定義 wiki上有定義: 隱馬爾可夫模型(Hidden Markov Model,HMM)是統計模型,它用來描述一個含有隱含未知引數的馬爾可夫過

混合模型(GMM Gaussian Mixture Model)

高斯混合模型是一種業界廣泛使用的聚類演算法,該方法使用了高斯分佈作為引數模型,並使用了期望最大演算法(EM)進行訓練。 什麼是高斯分佈 高斯分佈有時也被稱作正態分佈,是一個在數學、物理及工程等領域都非常重要的概率分佈,在統計學的許多方面都有著重大的影響。 若隨機變數X服從一個數學

網格缺陷檢測混合模型GMM

*此示例程式向您展示如何使用GMM分類器進行新穎性檢測以執行Web檢查任務。 要進行新奇檢測, *計算屬於單個訓練類的所有畫素,然後進行計算從分類ROI中減去以提取錯誤畫素。 對於網路檢查任務,GMM因此可用於檢測紋理與訓練好的物體的紋理不對應。       &nb

機器學習讀書筆記混合模型GMM與EM

高斯混合模型(Gaussian mixture model,GMM)是單一高斯概率密度函式的延伸。GMM能夠平滑地近似任意形狀的密度分佈。 欲瞭解高斯混合模型,那就先從基礎的單一高斯概率密度函式講起。(數學公式字型太難看了!!!!!!!) 注意:這一一篇致力於詳

【機器學習】機器學習十二、十三:K-means演算法、混合模型

簡介:         本節介紹STANFORD機器學習公開課中的第12、13集視訊中的演算法:K-means演算法、高斯混合模型(GMM)。(9、10、11集不進行介紹,略過了哈) 一、K-means演算法         屬於無監督學習的聚類演算法,給定一組未標定的資料

EM演算法在混合模型中的應用詳細解釋與求解

1、高斯混合模型GMM 是指具有以下概率分佈的模型: P ( y

混合模型的重疊度計算 Overlap Rate, OLR

簡介 關於高斯混合模型(GMM)的相關概念可以參考另一篇博文:高斯混合模型及其EM演算法的理解 使用GMM聚類或分析兩個高斯混合分佈的資料時,我們有時會希望兩個高斯分佈離得越遠越好,這樣表示資料才有可分性。但很多情況下兩個高斯分佈會有重疊。一維和二維的重

估計混合模型參數的三種方式

als .so ons die from ssi object sqrt int 對於如下的兩類別的高斯混合模型 \[ \pi\cdot N(\mu_1,\sigma_1^2)+(1-\pi)\cdot N(\mu_2,\sigma_2^2) \] 參數為\(\theta

CS229 Machine Learning學習筆記:Note 7(K-means聚類、混合模型、EM算法)

learn 不同的 inf ear 公式 course splay alt spa K-means聚類 ng在coursera的機器學習課上已經講過K-means聚類,這裏不再贅述 高斯混合模型 問題描述 聚類問題:給定訓練集\(\{x^{(1)},\cdots,x^{(m

【機器學習】EM演算法在混合模型學習中的應用

前言 EM演算法,此部落格介紹了EMEM演算法相關理論知識,看本篇部落格前先熟悉EMEM演算法。 本篇部落格打算先從單個高斯分佈說起,然後推廣到多個高斯混合起來,最後給出高斯混合模型引數求解過程。 單個高斯分佈 假如我們有一些資料,這些資料來自同一個