1. 程式人生 > >深度學習基礎--loss與啟用函式--Relu的變種

深度學習基礎--loss與啟用函式--Relu的變種

Relu的變種

softplus/softrelu

  softplus 是對 ReLU 的平滑逼近的解析函式形式。
  softplus的公式:
  f(x)=ln(1+e^x)

Relu與PRelu

在這裡插入圖片描述
  ai是增加的引數,ai=0;為ReLU,若ai取很小的固定值,則為leaky ReLU,這個啟用函式可以修正ReLU頻繁出現神經元die的情形,至於哪種更好沒有定論。