1. 程式人生 > >深度學習基礎--卷積--1*1的卷積核與全連線的區別

深度學習基礎--卷積--1*1的卷積核與全連線的區別

1*1的卷積核與全連線的區別

  11的卷積核是輸入map大小不固定的;而全連線是固定的。
  1
1卷積的主要作用有以下兩點:
  1)降維( dimension reductionality ),inception中就是這個用。
  2)加入非線性,畢竟有啟用。
  這裡有個八卦是當年FCN得到CVPR’15 best paper honorable mention的時候, Yann LeCun等人出來吐槽這個’FCN’的概念早就有了,AlexNet裡面的fully connected layer (FC)本身就是個誤導,因為FC layer可以看成是1x1的convolution, 本來就可以輸入任意大小的圖片。

更多的,卷積層跟全連線層的區別

  使得網路可以接受任意的輸入的方法就是把全連線層變成卷積層,這就是所謂的卷積化。這裡需要證明卷積化的等價性。
  直觀上理解,卷積跟全連線都是一個點乘的操作,區別在於卷積是作用在一個區域性的區域,而全連線是對於整個輸入而言,那麼只要把卷積作用的區域擴大為整個輸入,那就變成全連線了,我就不給出形式化定義了。所以我們只需要把卷積核變成跟輸入的一個map的大小一樣就可以了,這樣的話就相當於使得卷積跟全連線層的引數一樣多。
  舉個例子,比如AlexNet,fc6的輸入是256x6x6,那麼這時候只需要把fc6變成是卷積核為6x6的卷積層就好了。