1. 程式人生 > >【機器學習】從貝葉斯角度理解正則化緩解過擬合

【機器學習】從貝葉斯角度理解正則化緩解過擬合

從貝葉斯角度理解正則化緩解過擬合

原始的Linear Regression

假設有若干資料 (x1,y1),(x2,y2),...,(xm,ym),我們要對其進行線性迴歸。也就是得到一個方程

y=ωTx+ϵ

注意,這裡忽略偏置,或者可以認為偏置是在ωTx裡面。

ϵ 可以認為是,我們擬合的值和真實值之間的誤差。
我們將 ϵ 看成是一個隨機變數,其服從高斯分佈,即 p(ϵ)=N(0,δ2) ,即:

p(ϵi)=12πδexp((ϵi)22δ2)

則對於每一個數據點 (xi,yi) ,我們用xi得到yi的概率為:

p(yi|xi;ω)=12πδex
p((yiωTxi)22δ2)

注意,這裡的yi是真實值。

如果我們想要讓這個概率最大,就得到了最大似然:

L(ω)=i=1mp(yi|xi;ω)=i=1m12πδexp((yiωTxi)22δ2)(1)

取對數:

logL(ω)=logi=1m12πδexp((yiωTxi)22δ2)=i=1mlog12πδexp((yiωTxi)22δ2)=mlog12π