1. 程式人生 > >機器學習中regularization正則化(加入weight_decay)的作用

機器學習中regularization正則化(加入weight_decay)的作用

Regularization in Linear Regression

轉載自:http://blog.sina.com.cn/s/blog_a18c98e5010115ta.html

RegularizationLinear Regression中很重要的一步。

回憶一下上篇內容:

通過使用normal equation,可以找到least square regressionclose form結果:

輸入是X,輸出是Y

新宇教你機器學習之 <wbr>Regularization <wbr>in <wbr>Linear <wbr>Regression

另外:

Overfitting是機器學習中的一個問題。當所構建出的模型的引數個數相對的大於資料的個數的時候,就會發生overfitting舉個例子,如果有一組資料,是二維空間的

5個點。一個4次多項式模型就會完全的fit所有的data points(這已經不是一個好結果了)。如果模型是一個5次或者6次多項式,regression的結果就會更糟糕。因為這5個點的分佈可能只是linear的。

Linear Regression裡,overfitting現象發生的特點就是會帶來非常大的theta值。

假設有下列linear 模型:

新宇教你機器學習之 <wbr>Regularization <wbr>in <wbr>Linear <wbr>Regression

M就是theta的個數,當模型引數過多時,theta的值就會變得很大。

考慮到上面因素,Regularized Regression就是在原有cost function基礎上加入了對於theta值過大的懲罰。

(下面公式的符號變了一下。。

W就是上面的theta。 懶得自己重新寫公式了。。。)

L2-Regularization

新宇教你機器學習之 <wbr>Regularization <wbr>in <wbr>Linear <wbr>Regression

Lambda是根據個人喜好的一個懲罰引數,你想要對overfitting多懲罰一點就調大一點

微分後得到:

新宇教你機器學習之 <wbr>Regularization <wbr>in <wbr>Linear <wbr>Regression
新宇教你機器學習之 <wbr>Regularization <wbr>in <wbr>Linear <wbr>Regression