1. 程式人生 > >關於最大後驗概率估計就是結構風險最小化的詳解(統計學習方法)

關於最大後驗概率估計就是結構風險最小化的詳解(統計學習方法)

(1)最大似然估計

    這篇文章中提到,關於最大似然估計,使用頻率去估計概率,在拋硬幣問題中會得到正面向上的概率是0.7的結論,其原因是由於樣本數量太小,使用經驗風險最小化會出現過擬合現象

    經驗風險:即模型關於訓練樣本集的平均損失。

(2)最大後驗概率估計:

   為了解決過擬合問題,在拋硬幣例子中加入了先驗概率P(θ),最大後驗概率估計得到正面向上的概率是0.558的結論,對於小樣本來講,效果更好。

下面對最大後驗概率進行分析:

最大後驗估計方法於是估計 \theta 為這個隨機變數的後驗分佈的眾數

\hat{\theta}_{\mathrm{MAP}}(x)= \arg\max_{\theta} \frac{f(x | \theta) \, g(\theta)}  {\int_{\Theta} f(x | \theta') \, g(\theta') \, d\theta'}= \arg\max_{\theta} f(x | \theta) \, g(\theta)\!

後驗分佈的分母與 \theta 無關,所以在優化過程中不起作用。注意當前驗 g 是常數函式最大後驗估計與最大似然估計重合

************************************************************

我們對上式使用對數損失函式(先取負對數,再將對數展開),則上式等價於:

          

對比結構風險最小化公式:

          

 由於f( | )是模型,可以是條件概率分佈模型,那麼便可以看做是對數似然損失函式,而正則化項為,調節因子為1。正則化項對應於模型的先驗概率,複雜的模型,即我們認為越複雜的模型其先驗概率越小,那麼複雜的模型其就越大,很好的扮演了正則化項的角色。

    結構風險最小化就是為了在似然儘可能大的情況下避免模型太過複雜。所以得證。

相關推薦

關於概率估計就是結構風險統計學習方法

(1)最大似然估計    這篇文章中提到,關於最大似然估計,使用頻率去估計概率,在拋硬幣問題中會得到正面向上的概率是0.7的結論,其原因是由於樣本數量太小,使用經驗風險最小化會出現過擬合現象。    經驗風險:即模型關於訓練樣本集的平均損失。(2)最大後驗概率估計:   為了

極大似然估計是經驗風險的理解統計學習方法

看過李航老師的《統計學習方法》的同學都知道,機器學習(統計學習)的三要素為:模型、策略、和演算法。其中,模型就是所要學習的條件概率分佈或者決策函式。模型的假設空間包含所有可能的條件概率分佈或決策函式。統計學習的目標在於從假設空間中選取最優模型。其中的兩種選擇最優模型的策略就是

【機器學習基本理論】似然估計MLE概率估計MAP,以及貝葉斯公式的理解

總結 ora 二次 判斷 天都 特性 以及 解釋 意思 【機器學習基本理論】詳解最大似然估計(MLE)、最大後驗概率估計(MAP),以及貝葉斯公式的理解 https://mp.csdn.net/postedit/81664644 最大似然估計(Maximum lik

似然估計MLE概率估計MAP,以及貝葉斯公式的理解

<svg xmlns="http://www.w3.org/2000/svg" style="display: none;"><path stroke-linecap="round" d="M5,0 0,2.5 5,5z" id=

似然估計MLE概率估計MAP以及貝葉斯學派和頻率學派

前言 frequentist statistics:模型引數是未知的定值,觀測是隨機變數;思想是觀測數量趨近於無窮大+真實分佈屬於模型族中->引數的點估計趨近真實值;代表是極大似然估計MLE;不依賴先驗。 Bayesian statistics:模型引數是隨機變數,

機器學習概念:概率估計似然估計 Maximum posterior probability and maximum likelihood estimation)

joey 周琦 假設有引數 θ \theta, 觀測 x \mathbf{x}, 設 f(x|θ) f(x|\theta)是變數 x x的取樣分佈, θ \th

似然估計概率估計貝葉斯引數估計

舉個例子:偷盜的故事,三個村莊,五個人偷。 村子被不同小偷偷的概率:P(村子|小偷1)、P(村子|小偷2)、P(村子|小偷3) 小偷1的能力:P(偷盜能力)=P(村子1|小偷1)+P(村子2|小偷1)+P(村子3|小偷1)+P(村子4|小偷1)+P(村子5|小偷1) 小

01 EM演算法 - 大綱 - 似然估計(MLE)、貝葉斯演算法估計概率估計(MAP)

EM演算法的講解的內容包括以下幾個方面: 1、最大似然估計2、K-means演算法3、EM演算法4、GMM演算法 __EM演算法本質__是統計學中的一種求解引數的方法,基於這種方法,我們可以求解出很多模型中的引數。 1、最大似然估計在__求解線性模型__的過程中,我們用到了__最大似然估計(MLE)

極大似然估計概率估計(MAP),貝葉斯估計

1、貝葉斯公式 三種引數估計方法都和貝葉斯公式有關,因此首先從分析貝葉斯公式入手: 貝葉斯公式可以表達為:   posterior:通過樣本X得到引數的概率 likehood:通過引數得到樣本X的概率 prior:引數的先驗概率,一般是根據人的先驗知識來得出的。比如人們傾

極大似然估計 概率估計

經驗風險最小化: minf∈F1N∑Ni=1L(yi,f(xi)) 結構風險最小化: minf∈F1N∑Ni=1L(yi,f(xi))+λJ(f) 李航博士《統計學習方法》中第一章第九頁中有兩個論斷 1 當模型是條件概率分佈,損失函式是對數損失函式時

貝葉斯估計似然估計概率估計

文章作者:Tyan 部落格:noahsnail.com  |  CSDN  |  簡書 1. 引言 貝葉斯估計、最大似然估計(MLE)、最大後驗概率估計(MAP)這幾個概念在機器學習和深度學習中經常碰到,讀文章的時候還感覺挺明白,但獨立思考時經常會傻傻

通俗理解似然估計概率估計,貝葉斯估計

以下所有例子都是拋硬幣問題,在兩次試驗中出現正,反兩次結果,求該硬幣出現正面的概率p, 最大似然估計:       假設分佈為伯努利分佈,也就是二項分佈,出現正面的概率是p,則下次出現上述實驗結果現象的概率是:L=P(1-p),如何才能讓下次出現相同結過的概率最大?自然是L

似然估計概率估計的區別

最大似然估計(MLE) 1.似然函式:L(θ|x)=P(X=x|θ) ①物理意義:某次實驗,θ取不同值時,出現X=x的結果的概率; ②似然函式是引數(θ)的函式; ③似然函式是條件轉移概率。 例1:設一枚硬幣正面朝上的概率為p,

似然估計 似然估計 MLE 概率MAP

最大似然估計 (MLE) 最大後驗概率(MAP) 1) 最大似然估計 MLE 給定一堆資料,假如我們知道它是從某一種分佈中隨機取出來的,可是我們並不知道這個分佈具體的參,即“模型已定,引數未知”。例如,我們知道這個分佈是正態分佈,但是不知道均值和方差;或者是二項分佈,但是不知道均值。 最

似然估計vs概率

1) 最大似然估計 MLE 給定一堆資料,假如我們知道它是從某一種分佈中隨機取出來的,可是我們並不知道這個分佈具體的參,即“模型已定,引數未知”。例如,我們知道這個分佈是正態分佈,但是不知道均值和方差;或者是二項分佈,但是不知道均值。 最大似然估計(MLE,Maximum Lik

【模式識別與機器學習】——似然估計 MLE 概率MAP

1) 極/最大似然估計 MLE 給定一堆資料,假如我們知道它是從某一種分佈中隨機取出來的,可是我們並不知道這個分佈具體的參,即“模型已定,引數未知”。例如,我們知道這個分佈是正態分佈,但是不知道均值和方差;或者是二項分佈,但是不知道均值。 最大似然估計(MLE,Maximum Likelihood Esti

似然估計 MLE概率MAP在機器學習中的應用

最大似然估計 MLE 給定一堆資料,假如我們知道它是從某一種分佈中隨機取出來的,可是我們並不知道這個分佈具體的參,即“模型已定,引數未知”。 例如,對於線性迴歸,我們假定樣本是服從正態分佈,但是不知道均值和方差;或者對於邏輯迴歸,我們假定樣本是服從二項分佈,但是不知道

貝葉斯法則,先驗概率,概率,概率

1.貝葉斯法則機器學習的任務:在給定訓練資料D時,確定假設空間H中的最佳假設。最佳假設:一種方法是把它定義為在給定資料D以及H中不同假設的先驗概率的有關知識下的最可能假設。貝葉斯理論提供了一種計算假設概率的方法,基於假設的先驗概率、給定假設下觀察到不同資料的概率以及觀察到的

資料庫設計之概念結構設計---------E-R圖 各種各樣的例項

http://blog.csdn.net/zxq1138634642/article/details/9121363 0、試述採用E-R方法進行資料庫概念設計的過程。 答:採用E-R方法進行資料庫概念設計,可以分成3步進行:首先設計區域性E-R模式,然後把各區域性E-R

MAP ——利用經驗數據獲得對未觀測量的點態估計

rem 外文 密度 分享圖片 正則化 inline sig reg 最大似然估計 Map (最大後驗) 在貝葉斯統計學中,最大後驗(Maximum A Posteriori,MAP)估計可以利用經驗數據獲得對未觀測量的點態估計。它與Fisher的最大似然估計(Maxi