1. 程式人生 > >機器學習與深度學習系列連載: 第二部分 深度學習(八)可以自己學習的啟用函式(Maxout)

機器學習與深度學習系列連載: 第二部分 深度學習(八)可以自己學習的啟用函式(Maxout)

可以自己學習的啟用函式(Maxout)

在深度學習中啟用函式有sigma, tanh, relu,還有以後會將到的selu,但是有沒有一個啟用函式不是人為設定的,是機器學出來的呢?對抗網路(GAN)之父Goodfellow,給我們一個肯定的答案。Learnable activation function [Ian J. Goodfellow, ICML’13]

我們以兩個輸入的input舉例,當然,input的維度可以更多。 在這裡插入圖片描述 每一層的結果,就是兩兩求最大值。

Relu是一種特殊的maxout

在這裡插入圖片描述

可學習的啟用函式 learnable activation function

除了Relu之外 more than Relu 在這裡插入圖片描述

Maxout的性質

  • 任何在maxout network的都會被piecewise的線性凹函式表示
  • 有多少線段,取決於多少個元素為一組 在這裡插入圖片描述

maxout的訓練: 在這裡插入圖片描述