1. 程式人生 > >神經網絡優化(二) - 正則化

神經網絡優化(二) - 正則化

技術分享 alt 機器 圖片 一個 ont class span style

---恢復內容開始---

在機器學習中,有時候我們基於一個數據集訓練的模型對該模型的正確率非常高,而該模型對沒有見過的數據集很難做出正確的響應;那麽這個模型就存在過擬合現象。

為了緩解或避免過擬合現象,我們通常用的方法是采用正則化方法(Regularization)。

1 正則化基本理解

1.1 正則化公式的引入

正則化在損失函數中引入模型復雜度指標,利用給W加權值,弱化了訓練數據的噪聲(註:一般不正則化 b,僅正則化 w

技術分享圖片

1.2 loss(w)函數的兩種表述方式

# 表達方式1
loss(w) = tf.contrib.l1_regularizer(regularizer)(w)
# 表達方式2 loss(w) = tf.contrib.l2_regularizer(regularizer)(w)

其對應的數學表達式為

技術分享圖片

將正則化計算好的 w 添加到 losses 中

技術分享圖片

---恢復內容結束---

神經網絡優化(二) - 正則化