1. 程式人生 > >[知乎]機器學習中使用正則化來防止過擬合是什麼原理?

[知乎]機器學習中使用正則化來防止過擬合是什麼原理?

Alan Huang

我們相當於是給模型引數w 添加了一個協方差為1/alpha 的零均值高斯分佈先驗。 對於alpha =0,也就是不新增正則化約束,則相當於引數的高斯先驗分佈有著無窮大的協方差,那麼這個先驗約束則會非常弱,模型為了擬合所有的訓練資料,w可以變得任意大不穩定。alpha越大,表明先驗的高斯協方差越小,模型約穩定, 相對的variance也越小。


作者:Alan Huang
連結:https://www.zhihu.com/question/20700829/answer/35306184
來源:知乎
著作權歸作者所有。商業轉載請聯絡作者獲得授權,非商業轉載請註明出處。

知乎使用者

知乎使用者

  • 經典的是bias-variance decomposition,但個人認為這種解釋更加傾向於直觀理解;

  • PAC-learning 泛化界解釋,這種解釋是最透徹,最fundamental的;

  • Bayes先驗解釋,這種解釋把正則變成先驗,在我看來等於沒解釋。