1. 程式人生 > >人工神經網路中的activation function的作用以及ReLu,tanh,sigmoid激勵函式的區別

人工神經網路中的activation function的作用以及ReLu,tanh,sigmoid激勵函式的區別

Leaky ReLU函式

f(x) = \max(0.01x, x)

人們為了解決Dead ReLU Problem,提出了將ReLU的前半段設為而非0。另外一種直觀的想法是基於引數的方法,即Parametric ReLU:,其中可由back propagation學出來。理論上來講,Leaky ReLU有ReLU的所有優點,外加不會有Dead ReLU問題,但是在實際操作當中,並沒有完全證明Leaky ReLU總是好於ReLU。

ELU (Exponential Linear Units) 函式

f(x)= \begin{cases} x,& \text{if } x > 0\\ \alpha(e^x - 1), & \text{otherwise} \end{cases}

ELU也是為解決ReLU存在的問題而提出,顯然,ELU有ReLU的基本所有優點,以及:

  • 不會有Deal ReLU問題
  • 輸出的均值接近0,zero-centered

它的一個小問題在於計算量稍大。類似於Leaky ReLU,理論上雖然好於ReLU,但在實際使用中目前並沒有好的證據ELU總是優於ReLU。