1. 程式人生 > >深度學習基礎--loss與啟用函式--好的啟用函式的性質

深度學習基礎--loss與啟用函式--好的啟用函式的性質

好的啟用函式的性質

  1)不會飽和。sigmoid和tanh啟用函式在兩側尾端會有飽和現象,這會使導數在這些區域接近零,從而阻礙網路的訓練。
  2)零均值。ReLU啟用函式的輸出均值不為零,這會影響網路的訓練。
  3)容易計算。

  使用:最好不要用 sigmoid,你可以試試 tanh,不過可以預期它的效果會比不上 ReLU 和 Maxout。
  另外,通常來說,很少會把各種啟用函式串起來在一個網路中使用的。