1. 程式人生 > >深度學習基礎--卷積--為什麼卷積核時4維的

深度學習基礎--卷積--為什麼卷積核時4維的

為什麼卷積核時4維的

  因為本來就是4維的,input_channelkernel_sizekernel_size*output_channel

  正常來說,引數的個數不是隻和卷積核大小及數量有關嗎,256個1通道的55的卷積核引數應該是256155吧,和輸入的特徵圖數量應該沒有關係吧,請問該怎麼理解????
  你要聯絡BP網路看,BP裡的節點數就是這裡的第三維,而每一個節點的輸入是二維的,權重就是卷積核二維的。
  你可能沒有理解卷積的概念。比如通常我們說5*5的卷積核,其實都忽略了卷積核的第三個通道,該通道是和輸入的feature_map的第3個維度有關的。

例子1

  比如我們data層輸入了一張2242243的圖片,然後我們第一個卷積層裡面引數是kernel_size =5,output=96.那麼我們卷積部分的引數應該是553*96,意思就是一個卷積核要同時“卷積”多個維度。

例子2

  這層卷積層總共設定32個神經元,也就是有32個卷積核去分別關注32個特徵。視窗的大小是5×5,所以指向每個卷積層的權重也是5×5,因為圖片是黑白色的,只有一個顏色通道,所以總共只有1個面,故每個卷積核都對應一組551的權重。
  因此,w權重的tensor大小應是[5,5,1,32],而b權重的tensor大小應是[ 32 ]。