1. 程式人生 > >線性分類模型(四)——貝葉斯觀點下的Logistic迴歸

線性分類模型(四)——貝葉斯觀點下的Logistic迴歸

拉普拉斯近似

目標:因為待近似的分佈p(z)p(\pmb{z})不是高斯分佈,故尋找一個高斯近似q(z)q(\pmb{z}),它的中心位於p(z)p(\pmb{z})的眾數的位置。 思路:將待近似的分佈p(z)p(\pmb{z})在眾數z0\pmb{z}_0做泰勒展開,去掉三階項以及更高階。

假設待近似分佈為MMp(z)=f(z)Zp(\pmb{z})=\frac{f(\pmb{z})}{Z},在眾數z0\pmb{z}_0處展開,有 lnf(z)lnf(z0)12(zz0)A(zz0) \ln f(\pmb{z})\simeq \ln f(\pmb{z}_0)-\frac{1}{2}(\pmb{z}-\pmb{z}_0)^\top A(\pmb{z}-\pmb{z}_0)

其中,M×MM\times M的Hessian矩陣A=lnf(z)z=z0A=-\nabla\nabla\ln f(\pmb{z})|_{\pmb{z}=\pmb{z}_0}。兩邊同取指數,有 f(z)f(z0)exp{12(zz0)A(zz0)} f(\pmb{z})\simeq f(\pmb{z}_0)\exp\{-\frac{1}{2}(\pmb{z}-\pmb{z}_0)^\top A(\pmb{z}-\pmb{z}_0)\} 分佈q(z)q(\pmb{z})正比於f(z)f(\pmb{z}),因此 q(z)=A12(2π)M2exp{12(zz0)A(zz0)}=N(zz0,A1) q(\pmb{z})=\frac{|A|^\frac{1}{2}}{(2\pi )^\frac{M}{2}}\exp\{-\frac{1}{2}(\pmb{z}-\pmb{z}_0)^\top A(\pmb{z}-\pmb{z}_0)\}=\mathscr{N}(\pmb{z}|\pmb{z}_0,A^{-1}) 其中,這個高斯分佈well-define的前提為AA是正定的,即駐點z0\pmb{z}_0必須為一個區域性極大值。在實際應用拉普拉斯近似時需計算眾數,一般通過數值優化演算法得到。 缺點: 對於多峰問題會給出較差的結果。 優點: 在資料點較多的情況下,會更有用。

貝葉斯Logistic迴歸

Logistic迴歸不能進行精確的貝葉斯推斷的原因:後驗分佈為先驗分佈與似然函式的乘積的歸一化,而似然函式為一系列sigmoid函式的乘積。

對後驗分佈做拉普拉斯近似

假設引數w\pmb{w}有高斯先驗 p(w)=N(wm0,S0) p(\pmb{w})=\mathscr{N}(\pmb{w}|\pmb{m}_0,S_0) 其中,m0\pmb{m}_0S0S_0為固定的超引數。w\pmb{w}