1. 程式人生 > >先驗概率與後驗概率以及貝葉斯公式

先驗概率與後驗概率以及貝葉斯公式

先驗概率與後驗概率 事情還沒有發生,要求這件事情發生的可能性的大小,是先驗概率.
事情已經發生,要求這件事情發生的原因是由某個因素引起的可能性的大小,是後驗概率. 一、先驗概率是指根據以往經驗和分析得到的概率,如全概率公式,它往往作為“由因求果”問題中的“因”出現。後驗概率是指在得到“結果”的資訊後重新修正的概率,如貝葉斯公式中的,是“執果尋因”問題中的“因”。先驗概率與後驗概率有不可分割的聯絡,後驗概率的計算要以先驗概率為基礎。 二、A prior probability is a marginal probability, interpreted as a description of what is known about a variable in the absence of some evidence. The posterior probability is then the conditional probability of the variable taking the evidence into account. The posterior probability is computed from the prior and the likelihood function via Bayes' theorem.
三、先驗概率與後驗概率通俗釋義 事情有N種發生的可能,我們不能控制結果的發生,或者影響結果的機理是我們不知道或是太複雜超過我們的運算能力。新發一個物種,到底是貓,還是小老虎呢(朱道元的經典例子)?是由於我們的無知才不能確定判斷。 先驗概率 ( Prior probability) 先驗概率是在缺乏某個事實的情況下描述一個變數;而後驗概率是在考慮了一個事實之後的條件概率。先驗概率通常是經驗豐富的專家的純主觀的估計。比如在法國大選中女候選羅雅爾的支援率 p,在進行民意調查之前, 可以先驗概率來表達這個不確定性。 後驗概率 ( posterior probability)  Probability of outcomes of an experiment after it has been performed and a certain event has occured. 後驗概率可以根據通過貝葉斯公式,用先驗概率和似然函式計算出來。 四、一道經典概率題的終極解法——後驗事實與先驗概率的關係 經典題目: 有三個門,裡面有一個裡有汽車,如果選對了就可以得到這輛車,當應試者選定一個門之後,主持人打開了另外一個門,空的。問應試者要不要換一個選擇。假設主持人知道車所在的那個門。 經典解法: 第一次選擇正確的概率是1/3,因此汽車在另外兩個門裡的概率是2/3。主持人指出一個門,如果你開始選錯了(2/3概率),則剩下的那個門裡100%有汽車;如果你第一次選對(1/3)了,剩下那個門裡100%沒汽車。
所以主持人提示之後,你不換的話正確概率是1/3*100%+2/3*0=1/3,你換的話正確概率是1/3*0+2/3*100%=2/3。 對於這個解法的詰問就在於,現在主持人已經開啟一個空門了(而且主持人是有意開啟這個門的),在這一“資訊” 出現後,還能說當初選錯的概率是2/3嗎?這一後驗事實不會改變我們對於先驗概率的看法嗎?答案是會的。更具體地說,主持人開啟一扇門後,對當初選擇錯誤的概率估計不一定等於2/3。 從頭說起。假設我選了B門,假設主持人打開了C門,那麼他在什麼情況下會開啟C門呢?
若A有車(先驗概率P=1/3),那主持人100%開啟C門(他顯然不會開啟B);
若B有車(先驗概率P=1/3),那此時主持人有A和C兩個選擇,假設他以K的概率開啟C(一般K=1/2,但我們暫把它設成變數);
若C有車(先驗概率P=1/3),那主持人開啟C的概率為0(只要他不傻。。。) 已知他打開了C,那根據貝葉斯公式——這裡P(M|N)表示N事件發生時M事件發生的概率:
P(B有車|C開啟)= P(C開啟|B有車)* p(B有車)/ P(C開啟) P(C開啟|B有車)* p(B有車) = P(C開啟|A有車)* p(A有車)+ P(C開啟|B有車)* p(B有車) K * 1/3 = 1 * 1/3 + K * 1/3 K = ------- K + 1
該值何時等於1/3 呢(也就是經典解法裡的假設)? 只有 K=1/2 時。也就是一般情況下。但如果主持人有偏好,比方說他就是喜歡開啟右邊的門(假設C在右邊),設K=3/4, 那麼B有車的概率就變成了 3/5,不再是1/3,後驗事實改變了先驗概率的估計! 但這並不改變正確的選擇,我們仍然應該改選A門, 解釋如下: P(A有車|C開啟)= P(C開啟|A有車)* p(A有車)/P(C開啟) P(C開啟|A有車)* p(A有車) = ------------------------------------------------------------ P(C開啟|A有車)* p(A有車)+ P(C開啟|B有車)* p(B有車) = 1 * 1/3/1 * 1/3 + K * 1/3 =1/k+1 而K < 1(假設主持人沒有極端到非C不選的程度),所以永遠有 P(B有車|C開啟) < P( A有車|C開啟).A有車的概率永遠比B大,我們還是應該改變選擇。

相關推薦

先驗概率概率以及公式

先驗概率與後驗概率 事情還沒有發生,要求這件事情發生的可能性的大小,是先驗概率. 事情已經發生,要求這件事情發生的原因是由某個因素引起的可能性的大小,是後驗概率. 一、先驗概率是指根據以往經驗和分析得到的概率,如全概率公式,它往往作為“由因求果”問題中的“因”出現。後驗概率是指在得到“結果”的資訊後重新修

先驗概率概率公式

轉自:http://blog.csdn.net/passball/article/details/5859878 先驗概率與後驗概率 事情還沒有發生,要求這件事情發生的可能性的大小,是先驗概率.  事情已經發生,要求這件事情發生的原因是由某個因素引起的可能性的大小,是

先驗概率概率區別聯絡

先驗概率和後驗概率 教科書上的解釋總是太繞了。其實舉個例子大家就明白這兩個東西了。 假設我們出門堵車的可能因素有兩個(就是假設而已,別當真):車輛太多和交通事故。 堵車的概率就是先驗概率 。 那麼如果我們出門之前我們聽到新聞說今天路上出了個交通事故,那麼我們想算一下堵車的概率,這個就叫做條件概率 。也就是P

[轉] 先驗概率概率&&似然函數

交通事故 我們 技術分享 math edi 計算機 來看 ima max from: https://blog.csdn.net/shenxiaoming77/article/details/77505549 先驗概率和後驗概率 教科書上的解釋總是太繞了。其實舉個例子大

【機器學習基本理論】詳解最大似然估計(MLE)、最大概率估計(MAP),以及公式的理解

總結 ora 二次 判斷 天都 特性 以及 解釋 意思 【機器學習基本理論】詳解最大似然估計(MLE)、最大後驗概率估計(MAP),以及貝葉斯公式的理解 https://mp.csdn.net/postedit/81664644 最大似然估計(Maximum lik

先驗概率概率

常數 www pro tps 不但 tails .html tail htm 先驗:從原因到結果;後驗:從結果到原因。 先驗概率:根據以往經驗和分析得到的概率.。 後驗概率:事情已經發生,要求這件事情發生的原因是由某個因素引起的可能性的大小。 舉例理解(1): 先驗——

ML14先驗概率概率

轉載自GitHub:http://t.cn/E76fhB6 先驗概率與後驗概率 先驗概率,後驗概率,似然概率,條件概率,貝葉斯,最大似然 - CSDN部落格 條件概率(似然概率) 一個事件發生後另一個事件發生的概率。 一般的形式為 P(X|Y),表

詳解最大似然估計(MLE)、最大概率估計(MAP),以及公式的理解

<svg xmlns="http://www.w3.org/2000/svg" style="display: none;"><path stroke-linecap="round" d="M5,0 0,2.5 5,5z" id=

最大似然估計(MLE)、最大概率估計(MAP)以及學派和頻率學派

前言 frequentist statistics:模型引數是未知的定值,觀測是隨機變數;思想是觀測數量趨近於無窮大+真實分佈屬於模型族中->引數的點估計趨近真實值;代表是極大似然估計MLE;不依賴先驗。 Bayesian statistics:模型引數是隨機變數,

最大似然估計,最大估計,估計聯絡區別

1.什麼是引數 在機器學習中,我們經常使用一個模型來描述生成觀察資料的過程。例如,我們可以使用一個隨機森林模型來分類客戶是否會取消訂閱服務(稱為流失建模),或者我們可以用線性模型根據公司的廣告支出來預測公司的收入(這是一個線性迴歸的例子)。每個模型都包含自己的

最大似然估計,最大估計,估計

這三種方法都是監督學習中的引數估計方法,假定已知data的分佈形式(比如第二章裡介紹的各種分佈),但是需要確定引數。 1 最大似然估計Maximize Likelihood Estimation等價於曲線擬合中的最小二乘法,MLE把待估的引數看作是確定性的量,只是其取值未知

最大似然估計、最大估計和估計的關係

        最大似然估計(MLE) 原理:設X1, X2…Xn是取自總體X的一個樣本,樣本的聯合密度(連續型)或聯合概率密度(離散型)為f(X1, X2…Xn; Θ)。當給定樣本X1, X2…Xn時,定義似然函式為L(Θ)= f(X1, X2…Xn; Θ)。 L(Θ)

先驗概率概率、似然函數機器學習中概率模型(如邏輯回歸)的關系理解

集中 並且 結果 概率論 但我 evidence logs 硬幣 之前 看了好多書籍和博客,講先驗後驗、貝葉斯公式、兩大學派、概率模型、或是邏輯回歸,講的一個比一個清楚 ,但是聯系起來卻理解不能 基本概念如下 先驗概率:一個事件發生的概率 \[P(y)\] 後驗概

先驗概率概率、似然函式機器學習中概率模型(如邏輯迴歸)的關係理解

看了好多書籍和部落格,講先驗後驗、貝葉斯公式、兩大學派、概率模型、或是邏輯迴歸,講的一個比一個清楚 ,但是聯絡起來卻理解不能   基本概念如下   先驗概率:一個事件發生的概率 \[P(y)\] 後驗概率:一個事件在另一個事件發生條件下的條件概率 \[P(y|x

公式理解(先驗概率/概率

轉載自https://www.cnblogs.com/ohshit/p/5629581.html (1)條件概率公式         設A,B是兩個事件,且P(B)>0,則在事件B發生的條件下,事件A發生的條件概率(conditional pro

先驗概率概率似然估計--通俗易懂的解釋

本文假設大家都知道什麼叫條件概率了(P(A|B)表示在B事件發生的情況下,A事件發生的概率)。 先驗概率和後驗概率 教科書上的解釋總是太繞了。其實舉個例子大家就明白這兩個東西了。 假設我們出門堵車的可能因素有兩個(就是假設而已,別當真):車輛太多和交通事故。 堵車的概率

先驗概率、似然函式概率

先驗概率 Prior probability 在貝葉斯統計中,先驗概率分佈,即關於某個變數 p 的概率分佈,是在獲得某些資訊或者依據前,對 p 的不確定性進行猜測。例如, p 可以是搶火車票開始時,搶到某一車次的概率。這是對不確定性(而不是隨機性)賦予一個量化的數值的

【機器學習】先驗概率概率公式、 似然函式

Original url: http://m.blog.csdn.net/article/details?id=49130173 一、先驗概率、後驗概率、貝葉斯公式、 似然函式 在機器學習中,這些概念總會涉及到,但從來沒有真正理解透徹他們之間的聯絡。下面打算好好從

公式先驗概率概率

先驗概率:         在缺少某個前提下的變數概率,在機器學習中就是沒有訓練樣本,在訓練之前的初始概率:P(w) 後驗概率:         在有了樣本資料以後,對變數進行概率的修正,得到的概率就是後驗概率,,例如g是樣本,則後驗概率是:P(w | g) 貝葉斯公式:

先驗概率概率

百度 經驗 得到 cnblogs 抽象 .html 結合 block 分析 個人覺得,對於抽象的問題,先舉一個形象的例子,再與抽象的概念相結合,會更方便理解和記憶。 形象例子 [1] :   先驗概率:投擲一個骰子,點數為1的概率是1/6,這就是先驗概率。   後驗概率: