1. 程式人生 > >機器學習基礎--貝葉斯分類器

機器學習基礎--貝葉斯分類器

單純的貝葉斯分類器很簡單,基本上就是一個貝葉斯公式,要理解透徹貝葉斯分類器需要搞清楚兩個概念

似然函式

基本上維基百科講的很清楚,我這裡在重複一下,可以直接去維基百科看
在數理統計學中,似然函式是一種關於統計模型中的引數的函式,表示模型引數中的似然性。似然函式在統計推斷中有重大作用,如在最大似然估計和費雪資訊之中的應用等等。“似然性”與“或然性”或“概率”意思相近,都是指某種事件發生的可能性,但是在統計學中,“似然性”和“或然性”或“概率”又有明確的區分。概率用於在已知一些引數的情況下,預測接下來的觀測所得到的結果,而似然性則是用於在已知某些觀測所得到的結果時,對有關事物的性質的引數進行估計。

在這種意義上,似然函式可以理解為條件概率的逆反。在已知某個引數B時,事件A會發生的概率寫作:

P(AB)=P(A,B)P(B)

利用貝葉斯定理,

P(BA)=P(AB)P(B)P(A)

因此,我們可以反過來構造表示似然性的方法:已知有事件A發生,運用似然函式L(BA),我們估計引數B的可能性。形式上,似然函式也是一種條件概率函式,但我們關注的變數改變了:

bP(AB=b)

注意到這裡並不要求似然函式滿足歸一性: bBP(AB=b)=1。一個似然函式乘以一個正的常數之後仍然是似然函式。對所有α>0,都可以有似然函式:

L(bA)=αP(AB=b
)

例子

考慮投擲一枚硬幣的實驗。通常來說,已知投出的硬幣正面朝上和反面朝上的概率各自是 pH=0.5,便可以知道投擲若干次後出現各種結果的可能性。比如說,投兩次都是正面朝上的概率是0.25。用條件概率表示,就是:

P(HHpH=0.5)=0.52=0.25

其中H表示正面朝上。

在統計學中,我們關心的是在已知一系列投擲的結果時,關於硬幣投擲時正面朝上的可能性的資訊。
我們可以建立一個統計模型:假設硬幣投出時會有 pH的概率正面朝上,而有1pH的概率反面朝上。
這時,條件概率可以改寫成似然函式:

L(pHHH)=P(HHpH=0.5)=0.25

也就是說,對於取定的似然函式,在觀測到兩次投擲都是正面朝上時, p

H=0.5 的似然性是0.25(這並不表示當觀測到兩次正面朝上時pH=0.5的概率是0.25)。

如果考慮 pH=0.6,那麼似然函式的值也會改變。

L(pHHH)=P(HHpH=0.6)=0.36
三次投擲中頭兩次正面朝上,第三次反面朝上時的似然函式

注意到似然函式的值變大了。

這說明,如果引數 pH的取值變成0.6的話,結果觀測到連續兩次正面朝上的概率要比假設 pH=0.5時更大。也就是說,引數 pH取成0.6要比取成0.5更有說服力,更為“合理”。總之,似然函式的重要性不是它的具體取值,而是當引數變化時函式到底變小還是變大。對同一個似然函式,如果存在一個引數值,使得它的函式值達到最大的話,那麼這個值就是最為“合理”的引數值。

在這個例子中,似然函式實際上等於:

L(θHH)=P(HHpH=θ)=θ2,其中0pH1

如果取pH=1,那麼似然函式達到最大值1。也就是說,當連續觀測到兩次正面朝上時,假設硬幣投擲時正面朝上的概率為1是最合理的。

類似地,如果觀測到的是三次投擲硬幣,頭兩次正面朝上,第三次反面朝上,那麼似然函式將會是:

L(θHHT)=P(HHTpH=θ)=θ2(1θ),其中T表示反面朝上, 0pH1

這時候,似然函式的最大值將會在pH=23的時候取到。也就是說,當觀測到三次投擲中前兩次正面朝上而後一次反面朝上時,估計硬幣投擲時正面朝上的概率 pH=23是最合理的。

最大似然估計

我們首先要定義似然函式:

lik(θ)=fD(x1,,xnθ)

並且在θ的所有取值上通過令一階導數等於零,使這個函式取到最大值。這個使可能性最大的 θˆ值即稱為 θ 的最大似然估計

例子

現在假設例子1中的盒子中有無數個硬幣,對於0p1中的任何一個p, 都有一個丟擲正面概率為 p的硬幣對應,我們來求其似然函式的最大值: