1. 程式人生 > >貝葉斯定理與直覺

貝葉斯定理與直覺

讓我們先來看看生活中的一個小例子。假設有某種疾病D,在10000人中會有1人患此病;又假設對患此病的人進行測試,測試為陽性的比例達到99%,也就是說100名患者中,有99名患者檢測結果皆為陽性(positive)。問題:

在檢測為陽性的情況下,某一個人確定患該病的概率是多少?

不用仔細思考,先用自己的直覺判斷,概率高還是低?再結合資料認真思考,你得到的概率值會是多少呢?我想,或許絕大部分人的第一反應是:在檢測為陽性的情況下,基本就可以確診身患D病了。再結合前面給出的資料進行運算,會非常容易地得到答案為99%。這是顯而易見的吧,100名患者99名都檢測為陽性,那麼,——不是反之亦然麼?

顯然,直覺欺騙了我們。上述資料營造了一種假象,讓我們忽略了未患D病的人檢測為陽性所佔的比例。

讓我們把資料增大,假設有一百萬人。在這個基數下,患D病的人有100人。在這100人中,檢測為陽性的人為99人。現在考慮未患D病的人數,一百萬減去一百,得到的人數為999900。根據檢測陽性的比例,檢測這些人時,會有1%的機率會檢測為陽性,人數為999900*1%等於9999人。於是,我們可以計算出患D病且檢測為陽性的人在所有檢測為陽性的人中所佔的比例為:99/99+9999,結果才不到1%。

這樣結果真讓人莫名驚詫了。換言之,我們可以下結論說:當某個人檢測為陽性時,斷定他(她)患D病的機率僅僅為0.98%。那麼說,這樣的檢測給醫生的參考依據幾乎可以忽略不計啊!為什麼會這樣?——從概率學的角度講,這其實是貝葉斯定理(Bayes's Theorem)的體現。

首先我們將患病的事件記做D,檢測為陽性的事件記做T。如果患病的事件沒有發生,則稱為“Not D”,符號記為:¬D。同理,檢測不為陽性的事件可以記為¬T。

如果記D、T都發生的概率為P(D,T),則有公式:

P(D,T) = P(D|T)/P(T)

其中P(D|T)為當T發生時,D發生的概率,這一概率被稱之為事件D關於事件T的條件概率(Conditional probability)。由於P(D,T) = P(T,D) = P(T|D)/P(D),因而條件概率的公式可以記為:

P(D|T) = P(D,T)/P(T) = P(T|D)P(D)/P(T)

我們再將事件D拆分為D和¬D,則P(T)可以記為:

P(T) = P(T,D) + P(T,¬D)

這個公式是一個公理,因為在具有D、T兩個事件的情況下,P(T)必然只存在兩種情況,要麼在T發生時,D也發生;要麼在T發生時,D沒有發生。那麼貝葉斯定理就可以記為:

P(D|T) = P(T|D)P(D)/[P(T|D)P(D) + P(T|¬D)(P¬D)]

現在我們可以計算P(D|T),即測試為陽性時,患D病的概率值了。我們已知:

P(T|D):當患D病時,檢測為陽性的概率為0.99;
P(D):10000個人有1個人患D病,則概率為1/10000=0.0001;
P(T|¬D):沒有患D病時,檢測為陽性的概率為1-0.99=0.01;
P(¬D):沒有患D病的概率為1-0.0001=0.9999。

計算上面的公式,P(D|T)等於0.98%。符合我們前面的分析。然而我們的直覺呢?簡直潰敗而不成軍了。

注:上面所述D與T之間關係乃理想狀態,判斷一個人是否生病,檢測是否陽性、陰性僅僅為其中一個要素。例如當我們再增加一個症狀事件S後,同時滿足T與S的前提,則D發生的概率值就會顯著增加。

相關推薦

定理直覺

讓我們先來看看生活中的一個小例子。假設有某種疾病D,在10000人中會有1人患此病;又假設對患此病的人進行測試,測試為陽性的比例達到99%,也就是說100名患者中,有99名患者檢測結果皆為陽性(positive)。問題: 在檢測為陽性的情況下,某一個人確定患該病的概率是多少? 不用仔細思考,先用自己的直覺判

極大似然估計定理

lan 說明 概率論 可能性 聯合 訓練樣本 對數 www. 條件 文章轉載自:https://blog.csdn.net/zengxiantao1994/article/details/72787849 極大似然估計-形象解釋看這篇文章:https://www.zhihu

聯合概率聯合分佈、條件概率條件分佈、邊緣概率邊緣分佈、定理、生成模型(Generative Model)和判別模型(Discriminative Model)的區別

在看生成模型和判別模型之前,我們必須先了解聯合概率與聯合分佈、條件概率與條件分佈、邊緣概率與邊緣分佈、貝葉斯定理的概念。 聯合概率與聯合概率分佈: 假設有隨機變數X與Y, 此時,P(X=a,Y=b)用於表示X=a且Y=b的概率。這類包含多個條件且所有條件同時成立的概率稱為聯合概率。聯合概

javascript實現樸素分類決策樹ID3分類

.com 訓練集 this ice map ive sum length roc 今年畢業時的畢設是有關大數據及機器學習的題目。因為那個時間已經步入前端的行業自然選擇使用JavaScript來實現其中具體的算法。雖然JavaScript不是做大數據處理的最佳語言,相比還沒有

通過一個案例分析公式機器識別

機器學習 描述 事件 滿足 image pos div 是個 頻率 貝葉斯公式定義如下, 公式大家都知道,如何理解呢?下面給一個機器識別相關的例子,直觀地說明。 在機器識別中,假設機器要識別“一”所在的這個小圖像塊表示什麽字符(可以想象為拿手機對著一頁書拍了張照片,機器要

Bayes' theorem (定理)

也有 事件 ike 之前 誤差 另一個 nor 條件 一次 前言   AI時代的到來一下子讓人感覺到數學知識有些捉襟見肘,為了不被這個時代淘汰,我們需要不斷的學習再學習。其中最常見的就是貝葉斯定理,這個定理最早由托馬斯·貝葉斯提出。   貝葉斯方法的誕生源於他生前為解決一

機器學習之樸素演算法程式碼實現

                                    樸素貝葉斯演算法與程式碼實現 演算法原理 樸素貝葉斯是經典的機器學習演算法之一,也是為數不多的基於概率論的分類演算法。樸素貝葉斯原理簡單,也很容易實現,多用於文字分類,比如垃圾郵件過濾。 該演算法的優點在於簡單易懂、學習效率高、在某些領

聯合概率及其分佈、邊緣概率及其分佈、條件概率及其分佈和定理

文章目錄 聯合概率及其分佈、邊緣概率及其分佈、條件概率及其分佈 聯合概率與聯合概率分佈 邊緣概率與邊緣概率分佈 條件概率與條件概率分佈 聯合概率、邊緣概率、條件概率之間的關係 離散型分佈的情況 連

基於C#的機器學習--定理-執行資料分析解決肇事逃逸之謎

貝葉斯定理-執行資料分析解決肇事逃逸之謎 ​ 在這一章中,我們將: 應用著名的貝葉斯定理來解決電腦科學中的一個非常著名的問題。 向您展示如何使用貝葉斯定理和樸素貝葉斯來繪製資料,從真值表中發現異常值等等 貝葉斯定理概況      &nb

python樸素實現-1( 定理,全概率公式 )

樸素貝葉斯 (naive Bayes) 法是基於貝葉斯定理與特徵條件獨立假設的分類方法。 在研究樸素貝葉斯 之前,先回顧下:概率論中的條件概率以及貝葉斯定理。 本部分內容基本來源於 盛驟, 謝

淺談定理

接著上面例子進行分析,我想知道自己明年心臟病發作的可能性。流行病學家已經明確了多種影響心臟病發作的風險因素,根據這些因素我的心臟病發作的概率可能低於或高於平均值。帶入我自身的條件(不抽菸喝酒等)進行計算,得到自己明年心臟病發作的概率約為0.2%。這個值就是一個條件概率,因為它是基於一系列前提因素的,這些因素構

先驗概率後驗概率、區別聯絡

先驗概率和後驗概率 教科書上的解釋總是太繞了。其實舉個例子大家就明白這兩個東西了。 假設我們出門堵車的可能因素有兩個(就是假設而已,別當真):車輛太多和交通事故。 堵車的概率就是先驗概率 。 那麼如果我們出門之前我們聽到新聞說今天路上出了個交通事故,那麼我們想算一下堵車的概率,這個就叫做條件概率 。也就是P

公式搜尋引擎

  公式右邊的第二項P(d),是一個網頁滿足使用者需求的概率,它反映了網頁本身的好壞,與查詢無關。假如要向一個陌生人推薦網頁(我們並不知道他需要什麼),那麼P(d)就相當於某個特定的網頁被推薦的概率。在傳統的資訊檢索模型中,這一個量不太被重視,如傳統的向量空間模型、BM25模 型,都試圖只根據查詢與文件的匹

定理及其應用

事實上,貝葉斯決策很少只涉及A和B, 而是內部包含非常關鍵的隱變數(引數),涉及我們對所研究事物的一些基本預設。比如下面這個特別簡單的例子: 拋擲硬幣,一個硬幣被投擲10次9次朝上,那麼根據頻率學派的觀點, 得到第11次投擲的概率不變為0.5 ,如果你回答了0.9, 你經常會被看成一個傻X。 其實不然,天底

深入理解Spark ML:多項式樸素原理原始碼分析

貝葉斯估計 如果一個給定的類和特徵值在訓練集中沒有一起出現過,那麼基於頻率的估計下該概率將為0。這將是一個問題。因為與其他概率相乘時將會把其他概率的資訊統統去除。所以常常要求要對每個小類樣本的概率估計進行修正,以保證不會出現有為0的概率出現。常用到

《統計學習方法》第4章樸素估計

前言 寫本文章主要目的是複習(畢竟之前看紙質版做的筆記), 對於證明比較跳躍和勘誤的地方我都做了註解,以便初學者和以後複習地時候快速閱讀理解不會卡住。 本文原文將書上所有證明給出,由於CSDN的公式編輯

scikit-learn機器學習(五)--條件概率,全概率和定理及python實現

在理解貝葉斯之前需要先了解一下條件概率和全概率,這樣才能更好地理解貝葉斯定理 一丶條件概率 條件概率定義:已知事件A發生的條件下,另一個事件B發生的概率成為條件概率,即為P(B|A) 如圖A∩B那一部分的發生的概率即為P(AB), P(AB)=發

定理簡介

1.貝葉斯定理有什麼用: 為了解決“逆概率”問題,它可以根據過去的資料來預測出概率,在有限的資訊下,能夠預測出概率。 2.什麼是貝葉斯定理: 公式: P(A|B) = P(A) * [P(B|A)/P(B)] 1)P(A):先驗概率,即在不知道B事件的前提下,我們對A事件概

【機器學習--樸素SVM進行病情分類預測】

     貝葉斯定理由英國數學家托馬斯.貝葉斯(Thomas Baves)在1763提出,因此得名貝葉斯定理。貝葉斯定理也稱貝葉斯推理,是關於隨機事件的條件概率的一則定理。 對於兩個事件A和B,事件A發生則B也發生的概率記為P(B|A),事件B發生則A也發生的概率記為P