1. 程式人生 > >貝葉斯公式、先驗概率、後驗概率

貝葉斯公式、先驗概率、後驗概率

先驗概率:

        在缺少某個前提下的變數概率,在機器學習中就是沒有訓練樣本,在訓練之前的初始概率:P(w)

後驗概率:

        在有了樣本資料以後,對變數進行概率的修正,得到的概率就是後驗概率,,例如g是樣本,則後驗概率是:P(w | g)

貝葉斯公式:

        從形式上講,貝葉斯公式通過先驗概率和似然函式求取後驗概率。

         P(w | g)= P(w) P(g | w)   /   P(g)

R 語言貝葉斯公式計算例子:

        先驗概率: 機器的狀態有兩種,工作working(概率是:0.9),或者損壞broken(概率是:0.1)

        似然概率: 在兩種狀態下,結果有好壞兩種, good or broken

good broken
working 0.95 0.05
broken 0.7 0.3

         然後給出一組結果,"g", "b", "g", "g", "g", "g", "g", "g", "g", "b", "g", "b", 求後驗概率

即 P(w | g), P(w | b), P(b | g), P(b | b)

例如, P(w | g)= P(w) P(g | w) / P(g)

這裡的全概率P(g) = P(g | w)P(w) + P(g | b)P(b)

下面是R程式碼

########################################################
# Illustration of function bayes to illustrate
# sequential learning in Bayes' rule
########################################################

bayes <- function(prior, likelihood, data){
  probs <- matrix(0, length(data) + 1, length(prior))
  dimnames(probs)[[1]] <- c("prior", data)
  dimnames(probs)[[2]] <- names(prior)
  probs[1, ] <- prior
  for(j in 1:length(data))
    probs[j+1, ] <- probs[j, ] * likelihood[, data[j]] /
    sum(probs[j, ] * likelihood[, data[j]])
  dimnames(probs)[[1]] <-
    paste(0:length(data), dimnames(probs)[[1]])
  data.frame(probs)
}

# quality control example
# machine is either working or broken with prior probs .9 and .1

prior <- c(working = .9, broken = .1)

# outcomes are good (g) or broken (b)
# likelihood matrix gives probs of each outcome for each model

like.working <- c(g=.95, b=.05)
like.broken <- c(g=.7, b=.3)
likelihood <- rbind(like.working, like.broken)

# sequence of data outcomes

data <- c("g", "b", "g", "g", "g", "g", "g", "g", "g", "b", "g", "b")

# function bayes will computed the posteriors, one datum at a time
# inputs are the prior vector, likelihood matrix, and vector of data

posterior <- bayes(prior, likelihood, data)
posterior

執行結果:
        working  broken
0 prior  0.9000 0.10000
1 g      0.9243 0.07568
2 b      0.6706 0.32941
3 g      0.7342 0.26576
4 g      0.7894 0.21055
5 g      0.8358 0.16424
6 g      0.8735 0.12649
7 g      0.9036 0.09641
8 g      0.9271 0.07289
9 g      0.9452 0.05476
10 b     0.7421 0.25793
11 g     0.7961 0.20389
12 b     0.3942 0.60578

相關推薦

【機器學習】線性迴歸(最大估計+高先驗

引言 如果要將極大似然估計應用到線性迴歸模型中,模型的複雜度會被兩個因素所控制:基函式的數目(的維數)和樣本的數目。儘管為對數極大似然估計加上一個正則項(或者是引數的先驗分佈),在一定程度上可以限制模型的複雜度,防止過擬合,但基函式的選擇對模型的效能仍然起著決定性的作用。

【機器學習】先驗概率概率公式 似然函式

Original url: http://m.blog.csdn.net/article/details?id=49130173 一、先驗概率、後驗概率、貝葉斯公式、 似然函式 在機器學習中,這些概念總會涉及到,但從來沒有真正理解透徹他們之間的聯絡。下面打算好好從

公式先驗概率概率

先驗概率:         在缺少某個前提下的變數概率,在機器學習中就是沒有訓練樣本,在訓練之前的初始概率:P(w) 後驗概率:         在有了樣本資料以後,對變數進行概率的修正,得到的概率就是後驗概率,,例如g是樣本,則後驗概率是:P(w | g) 貝葉斯公式:

【機器學習基本理論】詳解最大似然估計(MLE)最大概率估計(MAP),以及公式的理解

總結 ora 二次 判斷 天都 特性 以及 解釋 意思 【機器學習基本理論】詳解最大似然估計(MLE)、最大後驗概率估計(MAP),以及貝葉斯公式的理解 https://mp.csdn.net/postedit/81664644 最大似然估計(Maximum lik

詳解最大似然估計(MLE)最大概率估計(MAP),以及公式的理解

<svg xmlns="http://www.w3.org/2000/svg" style="display: none;"><path stroke-linecap="round" d="M5,0 0,2.5 5,5z" id=

概率公式公式(二)

(1)條件概率公式         設A,B是兩個事件,且P(B)>0,則在事件B發生的條件下,事件A發生的條件概率(conditional probability)為:             &n

通過簡單例子來理解先驗分佈分佈似然估計&&公式

這幾個概念可以用“原因的可能性”和“結果的可能性”的“先後順序”及“條件關係”來理解。下面舉例: 隔壁老王要去10公里外的一個地方辦事,他可以選擇走路,騎自行車或者開車,並花費了一定時間到達目的地。在這個事件中,可以

概率公式公式推導過程(在原博文的基礎上有補充)

(1)條件概率公式 設A,B是兩個事件,且P(B)>0,則在事件B發生的條件下,事件A發生的條件概率(conditional probability)為: P(A|B)=P(AB)/P(B) (2)乘法公式 1.由條件概率公式得: P(A

先驗概率概率區別與聯絡

先驗概率和後驗概率 教科書上的解釋總是太繞了。其實舉個例子大家就明白這兩個東西了。 假設我們出門堵車的可能因素有兩個(就是假設而已,別當真):車輛太多和交通事故。 堵車的概率就是先驗概率 。 那麼如果我們出門之前我們聽到新聞說今天路上出了個交通事故,那麼我們想算一下堵車的概率,這個就叫做條件概率 。也就是P

概率公式公式推導過程

(1)條件概率公式         設A,B是兩個事件,且P(B)>0,則在事件B發生的條件下,事件A發生的條件概率(conditional probability)為:                      P(A|B)=P(AB)/P(B) (2)乘法公式          1.由條件概率

聯合概率邊緣概率條件概率之間的關係&公式

前言 有挺長一段時間沒有更新部落格了,一方面是學校期末考試,後來又看了一些很基礎的程式設計數學思想的東西(《程式設計師的數學》第一卷),大多數東西都在之前的學習和使用中都有注意到,所以沒有什麼特別值得更新的。這次看到了卷2《程式設計師的數學2——概率統計》發現

公式理解(先驗概率/概率

轉載自https://www.cnblogs.com/ohshit/p/5629581.html (1)條件概率公式         設A,B是兩個事件,且P(B)>0,則在事件B發生的條件下,事件A發生的條件概率(conditional pro

從一個小例子看公式的應用(學習簡單基礎入門的例子)

從一個小例子看貝葉斯公式的應用 應用Bayesian公式考察如下的例項並回答問題。 張某為了解自己患上了X疾病的可能性,去醫院作常規血液檢查。其結果居然為陽性,他趕忙到網上查詢。根據網上的資料,血液檢查實驗是有誤差的,這種實驗有“1%的假陽性率和1%的

先驗概率概率以及公式

先驗概率與後驗概率 事情還沒有發生,要求這件事情發生的可能性的大小,是先驗概率. 事情已經發生,要求這件事情發生的原因是由某個因素引起的可能性的大小,是後驗概率. 一、先驗概率是指根據以往經驗和分析得到的概率,如全概率公式,它往往作為“由因求果”問題中的“因”出現。後驗概率是指在得到“結果”的資訊後重新修

先驗概率概率公式

轉自:http://blog.csdn.net/passball/article/details/5859878 先驗概率與後驗概率 事情還沒有發生,要求這件事情發生的可能性的大小,是先驗概率.  事情已經發生,要求這件事情發生的原因是由某個因素引起的可能性的大小,是

【概率論】條件概率 & 全概率公式 & 樸素公式

  0. 說明   條件概率 & 全概率公式 & 樸素貝葉斯公式 學習筆記     參考   scikit-learn機器學習(五)--條件概率,全概率和貝葉斯定理及python實現   1. 條件概率   【定義】   已知 事件A 發

分類器:樸素半樸素

貝葉斯分類器在預先給定代價的情況下平均風險最小的分類器。 分類原理:通過某物件的先驗概率,利用貝葉斯公式計算出其後驗概率。 貝葉斯分類器的基礎 貝葉斯公式 P

概率論中的條件概率-全概率-公式

  1、條件概率公式         設A,B是兩個事件,且P(B)>0,則在事件B發生的條件下,事件A發生的條件概率(conditional probability)為:   

多變數條件概率公式的推導(多變數公式)

**對於變數有二個以上的情況,貝式定理亦成立。P(A|B,C)=P(B|A)*P(A)M /(P(B)P(C|B)).則M=(). 我將通過求出M的方式來告訴大家多變數條件概率公式如何推導 首先大家都知道一個耳熟能詳的條件概率公式P(A|B)=P(A,B)/P(

條件概率,乘法公式,全概率公式公式的推導

條件概率,乘法公式,全概率公式及貝葉斯公式的推導 條件概率 乘法公式 全概率公式 貝葉斯公式 推導過程 條件概率 條件概率是指事件A在另外一個事件B已經發生條件下的發生概率。條件概率表示為: