1. 程式人生 > >深度學習激活函數比較

深度學習激活函數比較

logs 過大 img ima .com 曲線 src pan 貢獻

一、Sigmoid函數

  1)表達式

    技術分享

  2)函數曲線

  技術分享

  3)函數缺點

      •  梯度飽和問題。先看一下反向傳播計算過程:

技術分享

          反向求導:

技術分享

          而其中:

          技術分享

            

          所以,由上述反向傳播公式可以看出,當神經元數值無線接近1或者0的時候,在反向傳播計算過程中,梯度也幾乎為0,就導致模型參數幾乎不更新了,對模型的學習貢獻也幾乎為零。也稱為參數彌散問題或者梯度彌散問題

          同時,如果初始權重設置過大,會造成一開始就梯度接近為0,就導致模型從一開始就不會學習的嚴重問題。

      •  函數不是關於原點中心對稱的。       

    

二、tanh函數

  1)公式

技術分享

技術分享

  2)曲線

技術分享 

  

  tanh 函數同樣存在飽和問題,但它的輸出是零中心的,因此實際中 tanh 比 sigmoid 更受歡迎。

三、ReLU函數

深度學習激活函數比較