1. 程式人生 > >機器學習中的正則化方法

機器學習中的正則化方法

引數範數懲罰

L1 L2 regularization

正則化一般具有如下形式:(結構風險最小化)

這裡寫圖片描述

其中,第一項是經驗風險,第二項是正則化項,lambda>=0為調整兩者之間關係的係數。

正則化項可以取不同的形式,如引數向量w的L2範數:

這裡寫圖片描述

假設以平方差為損失函式,則優化目標為:

minwi=1m(yiwTxi)2+λ||w||22

正則化項也可以是引數向量w的L1範數:

這裡寫圖片描述

minwi=1m(yiwTxi)2+λ||w||1

L1範數和L2範數都有助於降低過擬合風險,但前者還會代來一個額外的好處:它比厚澤更易獲得“稀疏”(sparse)解,即它求得的w會有更少的非零向量。

這裡寫圖片描述

資料集增強

噪聲魯棒性

Dropout

神經網路

early stopping

提升方法

神經網路

Bagging和其他整合方法