1. 程式人生 > >貝葉斯法則,先驗概率,後驗概率,最大後驗概率

貝葉斯法則,先驗概率,後驗概率,最大後驗概率

1.貝葉斯法則

機器學習的任務:在給定訓練資料D時,確定假設空間H中的最佳假設。

最佳假設:一種方法是把它定義為在給定資料D以及H中不同假設的先驗概率的有關知識下的最可能假設。貝葉斯理論提供了一種計算假設概率的方法,基於假設的先驗概率、給定假設下觀察到不同資料的概率以及觀察到的資料本身。

2.先驗概率和後驗概率

用P(h)表示在沒有訓練資料前假設h擁有的初始概率。P(h)被稱為h的先驗概率。先驗概率反映了關於h是一正確假設的機會的背景知識如果沒有這一先驗知識,可以簡單地將每一候選假設賦予相同的先驗概率。類似地,P(D)表示訓練資料D的先驗概率,P(D|h)表示假設h成立時D的概率。機器學習中,我們關心的是P(h|D),即給定D時h的成立的概率,稱為h的後驗概率。


3.貝葉斯公式

貝葉斯公式提供了從先驗概率P(h)、P(D)和P(D|h)計算後驗概率P(h|D)的方法

p(h|D)=P(D|H)*P(H)/P(D)

P(h|D)隨著P(h)和P(D|h)的增長而增長,隨著P(D)的增長而減少,即如果D獨立於h時被觀察到的可能性越大,那麼D對h的支援度越小。

4.極大後驗假設

學習器在候選假設集合H中尋找給定資料D時可能性最大的假設h,h被稱為極大後驗假設(MAP)確定MAP的方法是用貝葉斯公式計算每個候選假設的後驗概率,計算式如下:

h_map=argmax P(h|D)=argmax (P(D|h)*P(h))/P(D)=argmax P(D|h)*p(h) (h屬於集合H)


最後一步,去掉了P(D),因為它是不依賴於h的常量。

5.極大似然假設

在某些情況下,可假定H中每個假設有相同的先驗概率,這樣式子可以進一步簡化,只需考慮P(D|h)來尋找極大可能假設。

h_ml = argmax p(D|h)  h屬於集合H

P(D|h)常被稱為給定h時資料D的似然度,而使P(D|h)最大的假設被稱為極大似然假設。

6.舉例

考慮一個醫療診斷問題,有兩種可能的假設:(1)病人有癌症。(2)病人無癌症。樣本資料來自某化驗測試,它也有兩種可能的結果:陽性和陰性。假設我們已經有先驗知識:在所有人口中只有0.008的人患病。此外,化驗測試對有病的患者有98%的可能返回陽性結果,對無病患者有97%的可能返回陰性結果。


上面的資料可以用以下概率式子表示:

P(cancer)=0.008,P(無cancer)=0.992

P(陽性|cancer)=0.98,P(陰性|cancer)=0.02

P(陽性|無cancer)=0.03,P(陰性|無cancer)=0.97

假設現在有一個新病人,化驗測試返回陽性,是否將病人斷定為有癌症呢?我們可以來計算極大後驗假設:

P(陽性|cancer)p(cancer)=0.98*0.008 = 0.0078

P(陽性|無cancer)*p(無cancer)=0.03*0.992 = 0.0298

因此,應該判斷為無癌症。

確切的後驗概率可將上面的結果歸一化以使它們的和為1:
P(canner|+)=0.0078/(0.0078+0.0298)=0.21
P(cancer|-)=0.79

貝葉斯推理的結果很大程度上依賴於先驗概率,另外不是完全接受或拒絕假設,只是在觀察到較多的資料後增大或減小了假設的可能性。

貝葉斯分類具有如下特點:

(1)貝葉斯分類並不把一個物件絕對地指派給某一類,而是通過計算得出屬於某一類的概率,具有最大概率的類便是該物件所屬的類;

(2)一般情況下在貝葉斯分類中所有的屬性都潛在地起作用,即並不是一個或幾個屬性決定分類,而是所有的屬性都參與分類;

(3) 貝葉斯分類物件的屬性可以是離散的、連續的,也可以是混合的。

貝葉斯定理給出了最小化誤差的最優解決方法,可用於分類和預測。理論上,它看起來很完美,但在實際中,它並不能直接利用,它需要知道證據的確切分佈概率,而實際上我們並不能確切的給出證據的分佈概率。因此我們在很多分類方法中都會作出某種假設以逼近貝葉斯定理的要求。

相關推薦

法則,先驗概率,概率,概率

1.貝葉斯法則機器學習的任務:在給定訓練資料D時,確定假設空間H中的最佳假設。最佳假設:一種方法是把它定義為在給定資料D以及H中不同假設的先驗概率的有關知識下的最可能假設。貝葉斯理論提供了一種計算假設概率的方法,基於假設的先驗概率、給定假設下觀察到不同資料的概率以及觀察到的

法則:預測未來

本文節選自《演算法之美:指導工作與生活的演算法》中信出版集團,2018年05月出版人類獲得的所有

公式理解(先驗概率/概率

轉載自https://www.cnblogs.com/ohshit/p/5629581.html (1)條件概率公式         設A,B是兩個事件,且P(B)>0,則在事件B發生的條件下,事件A發生的條件概率(conditional pro

【機器學習】先驗概率概率公式、 似然函式

Original url: http://m.blog.csdn.net/article/details?id=49130173 一、先驗概率、後驗概率、貝葉斯公式、 似然函式 在機器學習中,這些概念總會涉及到,但從來沒有真正理解透徹他們之間的聯絡。下面打算好好從

先驗概率概率以及公式

先驗概率與後驗概率 事情還沒有發生,要求這件事情發生的可能性的大小,是先驗概率. 事情已經發生,要求這件事情發生的原因是由某個因素引起的可能性的大小,是後驗概率. 一、先驗概率是指根據以往經驗和分析得到的概率,如全概率公式,它往往作為“由因求果”問題中的“因”出現。後驗概率是指在得到“結果”的資訊後重新修

先驗概率概率公式

轉自:http://blog.csdn.net/passball/article/details/5859878 先驗概率與後驗概率 事情還沒有發生,要求這件事情發生的可能性的大小,是先驗概率.  事情已經發生,要求這件事情發生的原因是由某個因素引起的可能性的大小,是

公式、先驗概率概率

先驗概率:         在缺少某個前提下的變數概率,在機器學習中就是沒有訓練樣本,在訓練之前的初始概率:P(w) 後驗概率:         在有了樣本資料以後,對變數進行概率的修正,得到的概率就是後驗概率,,例如g是樣本,則後驗概率是:P(w | g) 貝葉斯公式:

先驗概率概率區別與聯絡

先驗概率和後驗概率 教科書上的解釋總是太繞了。其實舉個例子大家就明白這兩個東西了。 假設我們出門堵車的可能因素有兩個(就是假設而已,別當真):車輛太多和交通事故。 堵車的概率就是先驗概率 。 那麼如果我們出門之前我們聽到新聞說今天路上出了個交通事故,那麼我們想算一下堵車的概率,這個就叫做條件概率 。也就是P

[轉] 先驗概率概率&&與似然函數

交通事故 我們 技術分享 math edi 計算機 來看 ima max from: https://blog.csdn.net/shenxiaoming77/article/details/77505549 先驗概率和後驗概率 教科書上的解釋總是太繞了。其實舉個例子大

【機器學習基本理論】詳解似然估計(MLE)、概率估計(MAP),以及公式的理解

總結 ora 二次 判斷 天都 特性 以及 解釋 意思 【機器學習基本理論】詳解最大似然估計(MLE)、最大後驗概率估計(MAP),以及貝葉斯公式的理解 https://mp.csdn.net/postedit/81664644 最大似然估計(Maximum lik

詳解似然估計(MLE)、概率估計(MAP),以及公式的理解

<svg xmlns="http://www.w3.org/2000/svg" style="display: none;"><path stroke-linecap="round" d="M5,0 0,2.5 5,5z" id=

似然估計(MLE)、概率估計(MAP)以及學派和頻率學派

前言 frequentist statistics:模型引數是未知的定值,觀測是隨機變數;思想是觀測數量趨近於無窮大+真實分佈屬於模型族中->引數的點估計趨近真實值;代表是極大似然估計MLE;不依賴先驗。 Bayesian statistics:模型引數是隨機變數,

似然估計和概率估計(引數估計)

舉個例子:偷盜的故事,三個村莊,五個人偷。 村子被不同小偷偷的概率:P(村子|小偷1)、P(村子|小偷2)、P(村子|小偷3) 小偷1的能力:P(偷盜能力)=P(村子1|小偷1)+P(村子2|小偷1)+P(村子3|小偷1)+P(村子4|小偷1)+P(村子5|小偷1) 小

01 EM演算法 - 大綱 - 似然估計(MLE)、演算法估計、概率估計(MAP)

EM演算法的講解的內容包括以下幾個方面: 1、最大似然估計2、K-means演算法3、EM演算法4、GMM演算法 __EM演算法本質__是統計學中的一種求解引數的方法,基於這種方法,我們可以求解出很多模型中的引數。 1、最大似然估計在__求解線性模型__的過程中,我們用到了__最大似然估計(MLE)

通過簡單例子來理解先驗分佈、分佈、似然估計&&公式

這幾個概念可以用“原因的可能性”和“結果的可能性”的“先後順序”及“條件關係”來理解。下面舉例: 隔壁老王要去10公里外的一個地方辦事,他可以選擇走路,騎自行車或者開車,並花費了一定時間到達目的地。在這個事件中,可以

極大似然估計,概率估計(MAP),估計

1、貝葉斯公式 三種引數估計方法都和貝葉斯公式有關,因此首先從分析貝葉斯公式入手: 貝葉斯公式可以表達為:   posterior:通過樣本X得到引數的概率 likehood:通過引數得到樣本X的概率 prior:引數的先驗概率,一般是根據人的先驗知識來得出的。比如人們傾

機器學習筆記(五)續——樸素演算法的概率最大化含義

  上一節中講了樸素貝葉斯演算法將例項分到後驗概率最大的類。這等價於期望風險最小化。 假設使用0-1損失函式: L(Y,f(X))={1,0,Y≠f(X)Y=f(X) 上式中的f(x)是分類決策函式, 這時,期望風險函式是: Rexp(f)=E[L(Y

樸素概率最大化準則意義?

樸素貝葉斯法將例項分到後驗概率最大化的類中。這等價與期望風險最小化。假設選取的是0-1損失函式, L(y,f(x))={10y≠f(x)y=f(x) 這是期望風險函式為 Rexp(f)===∫∫DXYL(y,f(x))P(x,y)dxdy∫DX∫DYL(y,f(x))P(y|

【機器學習】線性迴歸(估計+高先驗

引言 如果要將極大似然估計應用到線性迴歸模型中,模型的複雜度會被兩個因素所控制:基函式的數目(的維數)和樣本的數目。儘管為對數極大似然估計加上一個正則項(或者是引數的先驗分佈),在一定程度上可以限制模型的複雜度,防止過擬合,但基函式的選擇對模型的效能仍然起著決定性的作用。

估計、似然估計、概率估計

文章作者:Tyan 部落格:noahsnail.com  |  CSDN  |  簡書 1. 引言 貝葉斯估計、最大似然估計(MLE)、最大後驗概率估計(MAP)這幾個概念在機器學習和深度學習中經常碰到,讀文章的時候還感覺挺明白,但獨立思考時經常會傻傻