1. 程式人生 > >正則化L1 regularization、L2 regularization、Dropout

正則化L1 regularization、L2 regularization、Dropout

Regularization

重新定義了目標函式,為了通過是的權重的值都接近於0,使得目標函式更加的平滑減少樣本中的噪聲對訓練的結果所造成的影響。(用於解決overfitting問題zhengzehua)

L(θ)=L(θ)+lambda||θ||θ={w1,w2,...,wn}
其中n為樣本的個數。

1.L1 regularization

L(θ)=L(θ)+λn||θ||1
將沒有正則化之前的損失函式記為L(θ),則採用L1正則化之後待優化的函式為:

||θ||1=|w1|+|w2|+...+|wn|
而當w1=0的時候此時是不可微的,需要做特殊處理,常將其微分的值置為0.
以引數w1的更新為例,求引數wt對於損失函式L’的微分可得:

Lwt=Lwt+λnsgn(wt)Lwt=Lwt+λnsgn(wt)Lwt=Lwt+λnsgn(wt)
(其中sgn(x)為符號函式,其數學表示式如下所示:
f(x)=sgn(x){1,if x > 00,if x = 0 1,if x < 0

則對於引數w1的更新如下所示: