1. 程式人生 > >高斯混合模型視訊背景建模的EM演算法與Matlab 實現

高斯混合模型視訊背景建模的EM演算法與Matlab 實現

1.問題描述

影像的背景前景分離.
輸⼊為影像監控的1000 幀 (如下⽅圖中左邊所⽰), 要求輸出是背景和前景 (如下⽅圖中右邊所⽰).
這裡寫圖片描述

2.背景知識

觀察待處理的監控影像,可以發現,前景主要是來來往往的行人,背景始終是攝像頭對準的固定區域,可以認為是始終不變的,所以進行影像背景前景分離的一個思路是先對背景進行建模,獲得對背景的模型描述後,前景也就不難獲得了。
首先,我們做出假設:在整個視訊中,每一幀的背景都是相同的
嚴格的講,視訊每幀之間的背景不可能完全相同的,或多或少都會有一些畫素點灰度發生變化,但是在我們的問題背景下,這種程度的差異是可以忽略的,認為每一幀的背景相同得到的效果是可以接受的。
基於這樣的假設,我們可以對背景建模,並用每一幀減去同一個背景模型,來獲得前景的資訊。

2.1混合高斯模型

背景建模的方法,這裡嘗試經典的混合高斯模型。
混合高斯模型的思想源於單高斯模型。
在單高斯模型方法中,對於每一個畫素,用一個高斯分佈來描述其在不同時刻的灰度分佈情況。
之所以可以用高斯分佈描述,是基於假設:背景在影象序列中總是最經常被觀測到
然而,單一的高斯分佈描述能力是很有限的,面對背景內容中的一些資訊變化是不夠敏感的,混合高斯模型應運而生。
一個高斯分佈不夠,就用多個高斯分佈加權求和來描述一個畫素點在不同時刻的灰度分佈情況。

定義:高斯混合模型:具有如下形式的概率分佈模型

P(y|θ)=k=1Kαkϕ(y|θ)
其中

α

k是係數,Kk=1αk=1;

ϕ(y|θ)是高斯分佈密度,θk=(μk,σ2k)

ϕ(y|θ)=12πσkexp((yμk)22σ2k)

稱為第 k 個分模型。

使用上述公式描述的混合高斯模型理論上可以更準確地對視訊背景進行建模。
確認使用的數學模型後,主要任務就是確認模型引數。
混合高斯模型中,對於任意一個分模型,有三個待確定引數:權值αj ,均值μ,方差σ2,一個混合高斯包含K個分模型,意味著需要確定3K個引數。
對於視訊中尺寸為mn的幀圖片而言,每一個畫素點對應一個混合高斯模型的話,就需要確定mnK3個引數。
引數的選擇對於模型的描述能力起著決定性作用,這裡,我們選擇使用EM演算法迭代進行混合高斯模型的引數估計。

2.2EM演算法

EM演算法,期望極大演算法,expectation maximization algorithm
EM 演算法的每次迭代由兩步組成:E步,求期望(expectation);M 步,求極大(maximization)。
關於EM演算法的具體介紹,參考李航老師的《統計學習方法》第9章

高斯混合模型引數估計的EM演算法
輸入:觀測資料y1,y2,...,yN,高斯混合模型
輸出:高斯混合模型引數
(1)取引數的初始值開始迭代
(2)E步:依據當前模型引數,計算分模型k對觀測資料 yj 的響應度

γ^jk=αkϕ(yj|θk)Kk=1αkϕ(yi|θ),j=1,2,...,N;k=1,2,...,K
(3)M步:計算新一輪迭代的模型引數
μ^k=Nj=1γ^jkyiNj=1γ^jk,k=1,2,...,K
σ^2k=Nj=1γ^jk(yiμk)2Nj=1γ^jk,k=1,2,...,K
α^k=Nj=1γ^

相關推薦

混合模型視訊背景建模EM演算法Matlab 實現

1.問題描述 影像的背景前景分離. 輸⼊為影像監控的1000 幀 (如下⽅圖中左邊所⽰), 要求輸出是背景和前景 (如下⽅圖中右邊所⽰). 2.背景知識 觀察待處理的監控影像,可以發現,前景主要是來來往往的行人,背景始終是攝像頭對準的固定區域,

混合模型引數估計的EM演算法

一、高斯模型簡介       首先介紹一下單高斯模型(GSM)和高斯混合模型(GMM)的大概思想。 1.單高斯模型       如題,就是單個高斯分佈模型or正態分佈模型。想必大家都知道正態分佈,這一分佈反映了自然界普遍存在的有關變數的一種統計規律,例如身高,考試成績等;而且有很好的數學性質,具有各階導數

背景建模混合模型

在運動目標檢測提取中,背景目標對於目標的識別和跟蹤至關重要。而建模正是背景目標提取的一個重要環節。 前景是指在假設背景為靜止的情況下,任何有意義的運動物體即為前景。 運動物體檢測的問題主要分為兩類,攝像機固定和攝像機運動。對於攝像機運動的運動物體檢測問題,比較著名的解決方

CS229 Machine Learning學習筆記:Note 7(K-means聚類、混合模型EM算法)

learn 不同的 inf ear 公式 course splay alt spa K-means聚類 ng在coursera的機器學習課上已經講過K-means聚類,這裏不再贅述 高斯混合模型 問題描述 聚類問題:給定訓練集\(\{x^{(1)},\cdots,x^{(m

【機器學習】EM演算法混合模型學習中的應用

前言 EM演算法,此部落格介紹了EMEM演算法相關理論知識,看本篇部落格前先熟悉EMEM演算法。 本篇部落格打算先從單個高斯分佈說起,然後推廣到多個高斯混合起來,最後給出高斯混合模型引數求解過程。 單個高斯分佈 假如我們有一些資料,這些資料來自同一個

EM演算法混合模型

      由k個高斯模型加權組成,α是各高斯分佈的權重,Θ是引數。對GMM模型的引數估計,就要用EM演算法。更一般的講,EM演算法適用於帶有隱變數的概率模型的估計,即不同的高斯分佈所對應的類別變數。   為何不能使用極大似然估計,如果直接使用極大似然估計

Python中呼叫OpenCV介面中的混合模型實現對運動目標的檢測,並保存錄制視訊

Python中呼叫OpenCV介面中的高斯混合模型(GMM),實現對運動目標的檢測   import numpy as np import cv2 # TODO: 本程式碼使用OpenCV介面中的高斯混合模型,實現對運動目標的檢測 cap = cv2.VideoCapture(

05 EM演算法 - 混合模型 - GMM

04 EM演算法 - EM演算法收斂證明 __GMM__(Gaussian Mixture Model, 高斯混合模型)是指該演算法由多個高斯模型線性疊加混合而成。每個高斯模型稱之為component。 __GMM演算法__描述的是資料的本身存在的一種分佈,即樣本特徵屬性的分佈,和預測值Y無關。顯然G

機器學習讀書筆記(混合模型GMMEM)(改)

高斯混合模型(Gaussian mixture model,GMM)是單一高斯概率密度函式的延伸。GMM能夠平滑地近似任意形狀的密度分佈。 欲瞭解高斯混合模型,那就先從基礎的單一高斯概率密度函式講起。(數學公式字型太難看了!!!!!!!) 注意:這一一篇致力於詳

EM(期望最大演算法)在混合模型中的python實現

以下程式碼僅實現了兩個高斯混合模型在均勻分佈條件下的引數估計,想要實現完全隨機的非均勻分佈的多高斯混合模型,可在上面加以修改。具體參考書中的9.3.2節 ##python實現## import math #import copy import numpy

EM演算法混合模型(二)

EM引數求解 我們將GMM帶入 θ(g+1) \theta^{(g+1)}中 θ(g+1)=argmaxθ∫zln{P(X,z|θ)P(z|X,θ(g))}dz(6.1) \theta^{(g+1)} = {argm

EM演算法混合模型(一)

單個高斯模型 如果我們有一堆資料,其分佈屬於一個高斯模型,那麼有 p(X)=N(x|μ,Σ)=1(2π)m|Σ|‾‾‾‾‾‾‾‾√exp[−12(x−μ)TΣ−1(x−μ)](1.1) p(X) = N(x|\mu,\Sigma) = \

混合模型(GMM)及其EM演算法的理解

一個例子 高斯混合模型(Gaussian Mixed Model)指的是多個高斯分佈函式的線性組合,理論上GMM可以擬合出任意型別的分佈,通常用於解決同一集合下的資料包含多個不同的分佈的情況(或者是同一類分佈但引數不一樣,或者是不同型別的分佈,比如正態分佈和伯

混合模型(GMM)及其求解(期望最大化(EM演算法

1、高斯混合模型的公式表達 高斯混合模型是指隨機變數x具有如下形式的分佈(概率密度函式): (公式1) 其中,引數θθ代表所有混合成分的引數(均值向量μ與協方差矩陣Σ)的集合: (公式2) 每個混合成分的概率密度函式為:

[R][原始碼]EM演算法實現基於混合模型(GMM)的聚類

要求:用EM演算法實現基於GMM的聚類演算法。一、實驗資料參考[1] 3.3.2章節。由兩個二維高斯分佈混合生成1000個數據,混合係數分別是0.4、0.6,均值和方差如下:mu1=[-2,-2]sigma1=[1.2, 0.5, 0.5, 1]mean2=[2,2]sigm

EM演算法混合模型中的應用(詳細解釋求解)

1、高斯混合模型GMM 是指具有以下概率分佈的模型: P ( y

R語言:EM演算法混合模型的R語言實現

本文我們討論期望最大化理論,應用和評估基於期望最大化的聚類。軟體包install.packages("mclust");require(mclust)## Loading required package: mclust## Package 'mclust' version

斯坦福大學機器學習——EM演算法求解混合模型

EM演算法(Expection-Maximizationalgorithm,EM)是一種迭代演算法,通過E步和M步兩大迭代步驟,每次迭代都使極大似然函式增加。但是,由於初始值的不同,可能會使似然函式陷入區域性最優。辜麗川老師和其夫人發表的論文:基於分裂EM演算法的GMM引數

EM演算法原理詳解混合模型

藉助於machine learning cs229和文章【1】中的內容把EM演算法的過程順一遍,加深一下印象。 關於EM公式的推導,一般會有兩個證明,一個是利用Jesen不等式,另一個是將其分解成KL距離和L函式,本質是類似的。 下面介紹Jensen EM的

混合模型(GMM)的EM演算法實現

在 聚類演算法K-Means, K-Medoids, GMM, Spectral clustering,Ncut一文中我們給出了GMM演算法的基本模型與似然函式,在EM演算法原理中對EM演算法的實現與收斂性證明進行了詳細說明。本文主要針對如何用EM演算法在混合高