1. 程式人生 > >機器學習與深度學習系列連載: 第二部分 深度學習(六)深度學習技巧3(Deep learning tips- Early stopping and Regularization)

機器學習與深度學習系列連載: 第二部分 深度學習(六)深度學習技巧3(Deep learning tips- Early stopping and Regularization)

深度學習技巧3( Early stopping and Regularization)

本節我們一起探討 Early stopping and Regularization,這兩個技巧不是深度學習特有的方法,是機器學習通用的方法。

在這裡插入圖片描述

1. Early stopping

在訓練過程中,往往會得出訓練的最後的結果還可能不如以前的,原因很有可能出現overfitting。 我們需要提前踩剎車,得出更好的效果。
在這裡插入圖片描述

2. Regularizaton

當我們努力降低Loss函式的數值的時候,我們會發現,我們找到的引數集weights,不僅僅要讓Loss變小,而且weights 自身也需要接近於0,這樣我們的結果會更加理想。
在這裡插入圖片描述

L1 正則化:

在這裡插入圖片描述
新的Loss函式將會被最小化:
在這裡插入圖片描述

L2正則化

在這裡插入圖片描述
新的Loss函式將會被最小化:
在這裡插入圖片描述

到這裡,很多同學會疑問,為什麼weights小了,結果就很更好,我在這裡舉例說明:6歲的時候和14歲的時候,大腦的神經元密度明顯降低,說明一些無效的神經元是阻礙大腦進步的。
在這裡插入圖片描述

本專欄圖片、公式很多來自臺灣大學李弘毅老師、斯坦福大學cs229,斯坦福大學cs231n 、斯坦福大學cs224n課程。在這裡,感謝這些經典課程,向他們致敬!