1. 程式人生 > >關於貝葉斯推理的理解

關於貝葉斯推理的理解

讀《統計學關我什麼事》有感

本質:

當你面對的問題需要你推理,從備選的幾個結果中選一個的時候。你需要根據已有的資訊判斷這幾個備選的結果各自的概率是多少,並選擇概率最大的那一個。那貝葉斯推理是怎麼推的呢。

首先當沒有輔助資訊的時候,咱們對這幾個備選的結果只有一個經驗的概率值。

然後加入一條輔助判斷的資訊時,對應每個備選結果都會有個概率值,即符合輔助判斷資訊的概率值。我們根據這個概率值,就能更進一步的修正幾個備選結果的概率了。

舉個書裡的例子

假設一個顧客來店裡,他可能是來買東西,也可能只是來逛一逛的。我們要判斷是哪種。這個時候沒有輔助資訊,我們只有一個經驗的概率值,學名叫先驗概率

 

買東西的

逛一逛的

概率

0.8

0.2

然後我們加一個輔助條件,會不會詢問店員

這裡就要分兩種情況,買東西的人和不買東西的人詢問店員跟不詢問店員的概率。

 

買東西的

逛一逛的

詢問店員

0.9

0.3

不詢問店員

0.1

0.7

值得注意的是,縱向來看,0.9+0.1 = 1 ,0.3+0.7=1

如果我們把這個輔助資訊的概率跟前面的先驗概率結合一起

 

買東西的

逛一逛的

詢問店員

0.72

0.06

不詢問店員

0.08

0.14

0.72的概率就是說,既是買東西的也是詢問店員的。我們會發現0.72+0.08+0.14+0.06=1

假設這個時候有個人來店裡,並且詢問了店員。

買東西的和逛一逛的概率各自是0.72,0.06。加起來不等於1,因為我們考慮了詢問店員這件事是有概率的。但是此時已經發生。為了做進一步的判斷,我們可以把0.72,0.06理解為0.9,0.1。概率上來說一樣。

此時我們發現,沒有輔助資訊的時候,買東西和逛一逛的概率分別為0.8,0.2但是現在變成了0.9,0.1。這個學名就叫貝葉斯更新。可以看出來,對於判斷來客是買東西的還是逛一逛的,由於加入了輔助資訊,我們的推理更近一步了。

發散思維

貝葉斯這種推理的思維,可以這樣用。比如說我們要判斷一張圖片,它有沒有貓。一開始我們有個先驗概率,按這個概率來給出是不是貓的判斷非常不靠譜。然後我們從圖裡提取特徵值,比如顏色,形狀,等等。然後這些特徵會有概率,比如說菱形的外觀,是貓的概率0.6不是貓的概率0.4。我們讓這個特徵值的概率跟先驗概率結合一下,推理就更進一步,給出的結果就靠譜一丟丟了。如果這個特徵值的數量很多,幾十幾百個,這樣不停更新概率,推進推理,到一定程度,我們就可以給出比較靠譜的結果了。

再發散思維一下,剛剛這些特徵值的概率誰給的。機器學習瞭解一下,可以是監督學習,我們一開始不知道這些特徵值的概率應該是多少,但是我們通過監督反饋,讓機器自己去學習去訓練這個特徵值的概率,其實也就是權重。反覆訓練之後,我們得到一個模型,這個模型包含了很多很多的權重,其實也就是那些特徵值的概率。這個時候,你再輸入一張圖片,我們通過提取特徵值,更新概率,一下就能給出是貓的概率多少,不是貓的概率多少。