1. 程式人生 > >線性迴歸模型的概率解釋

線性迴歸模型的概率解釋

在廣義線性模型中留了個小彩蛋,今天就把這個彩蛋補完啦! 這篇部落格主要解釋了怎麼去構造cost function(損失函式) 回顧線性模型 在廣義線性模型中已經推匯出線性迴歸模型的假設函式(hypothesis):

hΘ(X)=ΘTX+b 其中Θ=[θ1,θ2,θm];X=[x1,x2,,xm],b為偏置單元(bias unit),是一個常數! 這篇部落格就是來解釋為什麼cost function(損失函式)是J(Θ)=1/2i=1
#samples(hΘ(Xi)yi)2

概率解釋 符號說明: yi:第i個訓練樣本的真實值; hΘ(xi): 第i個訓練樣本的預測值,也記為y^; ε^i: 誤差(可能是由各種無法預知的狀況引起的)

假設 yi=hΘ(xi)+εi 也就是說真實值與預測值之間存在有誤差ε 其中ε~N(0,σ2), 均值為0,方差為,σ2的正太分佈! 所以p(εi)=12πσ2e(εi)22σ2, 正態分佈概率公式的啦 那麼為什麼εi(0,σ2)的正態分佈呢??? 重點內容:

有兩個解釋,第一個有點無腦哈哈哈哈哈哈 a. 使用正態分佈便於計算,因為後面計算涉及到極大似然估計,對數化後原來的指數函式會便於計算! b. 中心極限定理證明了許多獨立的隨機變數之和會趨向於服從高斯分佈(正態分佈),而誤差是由多個可認定為獨立因素結合在一起的結果。例如房價預測中,房價可能會取決於房主的心情,房子的位置,房子有沒有帶花園…….這些都可以認為是互不影響的因素,換句話說就是獨立的因素,因此將誤差假設為服從高斯分佈是比較合理的。

:在機器學習中沒有完全正確的假設,只要假設合理,在現實中有足夠的泛化能力即可!

因此(yi|xi;Θ)便可認定為是服從均值為

hΘ(xi)σ2,,這個可以理解為ε均值為0,而y=hΘ(x)+ϵ,因此yi的均值即為hΘ(xi)+0

寫成概率形式即是