1. 程式人生 > >最大似然估計、最大後驗估計和貝葉斯估計的關係

最大似然估計、最大後驗估計和貝葉斯估計的關係

        最大似然估計(MLE)

原理:設X1, X2…Xn是取自總體X的一個樣本,樣本的聯合密度(連續型)或聯合概率密度(離散型)為f(X1, X2…Xn; Θ)。當給定樣本X1, X2…Xn時,定義似然函式為L(Θ)= f(X1, X2…Xn; Θ)。

L(Θ)看作引數Θ的函式,極大似然估計法就是用使L(Θ)達到最大值的去估計真實值Θ。L()=,稱為Θ的極大似然估計(MLE)。

最大似然估計中取樣需滿足一個很重要的假設,就是所有的取樣都是獨立同分布的。

基本思想:在已經得到試驗結果(即樣本)的情況下,估計滿足這個樣本分佈的引數,將使這個樣本出現的概率最大的那個引數Θ作為真引數Θ的估計。在樣本固定的情況下,樣本出現的概率與引數Θ之間的函式,稱為似然函式。

一般步驟:

(1)由總體分佈推匯出樣本的聯合概率函式(或聯合密度);

(2)將樣本聯合概率函式(或聯合密度)中自變數看成一直常熟,把引數Θ看作自變數,得到似然函式L(Θ)。

(3)求似然函式L(Θ)的最大值點。

(4)計算過程中,為方便計算,常常先對似然函式取對數,再求導計算極大值點;若無法求導時,要用極大似然原則(即極大似然估計的定義:使L(Θ)最大)來求解。

參考資料:

最大後驗估計(MAP)

最大後驗估計是根據經驗資料,獲得對難以觀察的量的點估計。與最大似然估計不同的是,最大後驗估計融入了被估計量的先驗分佈,即模型引數本身的概率分佈。

估計過程中,需利用先驗概率和貝葉斯定理得到後驗概率,目標函式為後驗概率的似然函式,求得該似然函式最大時的引數值,即MAP的目標結果(利用極大思想)。

求解過程中,可用梯度下降等方法進行。

參考資料:

貝葉斯估計

MLE、MAP和貝葉斯估計都是引數估計的方法,也就是需要預先知道或假設樣本的分佈形式,只是一些引數未知。

最大似然估計是最簡單的形式,其假定引數雖然未知,但是為確定數值,就是找到使得樣本的似然分佈最大的引數。最大後驗估計,和最大似然估計很相似,也是假定引數未知,但是為確定數值,只是目標函式為後驗概率形式,多了一個先驗概率項。

而貝葉斯估計和二者最大的不同在於,假定把待估計的引數看成是符合某種先驗概率分佈的隨機變數,而不是確定數值。在樣本分佈上,計算引數所有可能的情況,並通過計算引數的期望,得到後驗概率密度。

對樣本進行觀測的過程,就是把先驗概率密度轉化為後驗概率密度,這樣就利用樣本的資訊修正了對引數的初始估計值。在貝葉斯估計中,一個典型的效果就是,每得到新的觀測樣本,都使得後驗概率密度函式變得更加尖銳,使其在待估引數的真實值附近形成最大的尖峰。

參考資料:

附:

貝葉斯定理,是描述隨機事件A和B的條件概率和邊緣概率之間關係的定理。

       其中,P(A|B)是指在B發生的情況下A發生的可能性。該公式是由P(A∩B)=P(A)*P(B|A)=P(B)*P(A|B)推匯出來的。

       P(A)是A的先驗概率或邊緣概率,之所以稱為“先驗”是因為它不考慮任何B方面的影響,表示在訓練資料前假設A擁有的初試概率。

       P(A|B)是已知B發生後A的條件概率,也由於得自B的取值,而被稱作A的後驗概率。

P(B|A)是已知A發生後B的條件概率,也由於得自A的取值,而被稱作B的後驗概率。

P(B)是B的先驗概率或邊緣概率,也作標準化常量(normalizing constant)。

       在更一般化的情況,假設{Ai}是事件集合裡的部分集合,對於任意的Ai,貝葉斯定理可用下式表示:

 或

       參考資料:

相關推薦

估計估計估計關係

        最大似然估計(MLE) 原理:設X1, X2…Xn是取自總體X的一個樣本,樣本的聯合密度(連續型)或聯合概率密度(離散型)為f(X1, X2…Xn; Θ)。當給定樣本X1, X2…Xn時,定義似然函式為L(Θ)= f(X1, X2…Xn; Θ)。 L(Θ)

函式(likelihood)函式小二乘解

在英語語境裡,likelihood 和 probability 的日常使用是可以互換的,都表示對機會 (chance) 的同義替代。但在數學中,probability 這一指代是有嚴格的定義的,即符合柯爾莫果洛夫公理

伯努利模型的極大估計估計

  定義隨機變數A為一次伯努利試驗的結果,AAA的取值為[0,1],概率分佈為P(A)P(A)P(A):P(A=1)=θP(A=0)=1−θP(A=1)=\theta\\P(A=0)=1-\thetaP(A=1)=θP(A=0)=1−θ下面分別使用極大似然估計和

估計估計估計理論對比

本文要總結的是3種估計的原理、估計與目標函式之間的關係。這三種估計放在一起讓我暈頭轉向了好久,看知乎,看教材,有了以下理解。以下全部是個人看書後的理解,如有理解錯誤的地方,請指正,吾將感激不盡。 來自教材《深度學習》5.4-5.6… 關於頻率派和貝葉斯派:頻

【轉載】引數估計(Parameter Estimation):頻率學派(估計MLE估計MAP)與學派(估計BPE)

基礎 頻率學派與貝葉斯學派 最大似然估計(Maximum likelihood estimation,MLE) 最大後驗估計(maximum a posteriori estimation,MAP) 貝葉斯估計(Bayesian parameter estimation,BPE) 經典引數估計方

估計估計概率估計

文章作者:Tyan 部落格:noahsnail.com  |  CSDN  |  簡書 1. 引言 貝葉斯估計、最大似然估計(MLE)、最大後驗概率估計(MAP)這幾個概念在機器學習和深度學習中經常碰到,讀文章的時候還感覺挺明白,但獨立思考時經常會傻傻

引數估計

引數估計是指已知分類器結構或函式形式,從訓練樣本中估計引數。以貝葉斯分類為例,假定概率密度分佈符合一維高斯分佈,則引數估計的任務就是根據訓練樣本估計μ和σ。常用的引數估計方法有最大似然估計和貝葉斯引數估計法。 最大似然估計 假設引數為確定值,根據似然度最大進行最

模式識別四--估計估計方法

文章轉自:http://www.kancloud.cn/digest/prandmethod/102846         之前學習了貝葉斯分類器的構造和使用,其中核心的部分是得到事件的先驗概率並計算出後驗概率 ,而事實上在實際使用中,很多時候無法得到這些完整的資訊,因此我們需要使用另外一個重要的工具——引

極大估計概率估計(MAP),估計

1、貝葉斯公式 三種引數估計方法都和貝葉斯公式有關,因此首先從分析貝葉斯公式入手: 貝葉斯公式可以表達為:   posterior:通過樣本X得到引數的概率 likehood:通過引數得到樣本X的概率 prior:引數的先驗概率,一般是根據人的先驗知識來得出的。比如人們傾

模式識別:估計估計方法

之前學習了貝葉斯分類器的構造和使用,其中核心的部分是得到事件的先驗概率並計算出後驗概率 ,而事實上在實際使用中,很多時候無法得到這些完整的資訊,因此我們需要使用另外一個重要的工具——引數估計。 引數估

估計估計估計聯絡與區別

1.什麼是引數 在機器學習中,我們經常使用一個模型來描述生成觀察資料的過程。例如,我們可以使用一個隨機森林模型來分類客戶是否會取消訂閱服務(稱為流失建模),或者我們可以用線性模型根據公司的廣告支出來預測公司的收入(這是一個線性迴歸的例子)。每個模型都包含自己的

估計MLE與估計

大學期間學習數理統計這門課程的時候,沒有特別用心。說實話統計學還是挺枯燥的,而且當時也沒有太多的學習意識,不知道為什麼要學這些貌似八竿子打不著的東西。現在想想,當時真是too simple,sometimes naive啊。。等到越往後面深入,發現需要用的數學知

估計估計估計

這三種方法都是監督學習中的引數估計方法,假定已知data的分佈形式(比如第二章裡介紹的各種分佈),但是需要確定引數。 1 最大似然估計Maximize Likelihood Estimation等價於曲線擬合中的最小二乘法,MLE把待估的引數看作是確定性的量,只是其取值未知

通俗理解估計概率估計估計

以下所有例子都是拋硬幣問題,在兩次試驗中出現正,反兩次結果,求該硬幣出現正面的概率p, 最大似然估計:       假設分佈為伯努利分佈,也就是二項分佈,出現正面的概率是p,則下次出現上述實驗結果現象的概率是:L=P(1-p),如何才能讓下次出現相同結過的概率最大?自然是L

極大估計 極大估計 估計 小二乘法

1 極大似然估計 極大似然估計(Maximum Likelihood Estimation, MLE)/最大似然估計/最大概似估計 是一種引數估計方法,即已知樣本估計出模型的引數。 一般說來,事件A發生的概率與某一未知引數θ有關,θ取值不同,則事件

機器學習筆記(一):極大估計估計的區別

似然函式: 樣本資料的分佈和在引數為下的概率分佈的相似程度 極大似然估計:只要求出符合樣本資料分佈的最優引數即可,不需要考慮先驗。 貝葉斯估計   MAP(最大後驗估計)

估計極大估計到底有何區別

在開始接觸最大似然估計和貝葉斯估計時,大家都會有個疑問:最大似然估計和貝葉斯估計二者很相似,到底有何區別?本文便來說說二者的不同之處以及求參模型的公式推導! 預熱知識必知 如何求類條件概率密度: 我們知道貝葉斯決策中關鍵便在於知道後驗概率,那麼問題便集

極大估計估計

引言 在機器學習任務中,最最經常遇到的一個問題就是給定一組訓練樣本,學習到生成這組樣本的模型的引數,這也是統計學習的根本任務。我們知道統計學上分頻率學派和貝葉斯學派,那麼自然的,對這個問題的解決就有兩種模型,一種是頻率學派推崇的極大似然估計,一種是貝葉斯學派主

關於估計的手ji

點選開啟連結 http://blog.csdn.net/songzitea/article/details/23131609 1.貝葉斯公式:後驗概率 = 標準相似度 * 先驗概率 該式建立起先驗概率和後驗概率相互轉化的橋樑。 關於這個公式的理解,形象點來講,就是通過‘我很餓的情況

聯合概率及其分佈邊緣概率及其分佈條件概率及其分佈定理

文章目錄 聯合概率及其分佈、邊緣概率及其分佈、條件概率及其分佈 聯合概率與聯合概率分佈 邊緣概率與邊緣概率分佈 條件概率與條件概率分佈 聯合概率、邊緣概率、條件概率之間的關係 離散型分佈的情況 連