1. 程式人生 > >Tensorflow入門--------計算卷積後的特徵圖尺寸

Tensorflow入門--------計算卷積後的特徵圖尺寸

     在卷積神經網路設計網型的時候,需要對卷積核和池化層進行引數設定。有三個重要的引數,首先是卷積核的大小,其次是設定步長(padding)的大小,最後是是否採用padding。這幾個因素直接影響了卷積、池化後的特徵圖的大小,對於網路形狀的設計非常重要的引數。本部落格將針對這三個引數進行解釋,並且利用tensorflow進行結論的實驗。

一、卷積核

    卷積核這個東西比較好理解,就是卷積濾波器的大小,當然,卷積核也可能是三維的。卷積的過程如如圖2所示,其中的卷積核是3*3的卷積。三維卷積的形狀如圖1。

                                                                                    圖1 三維卷積 

二、步長(stride)

所謂的步長就是卷積核在原始影象上每一次移動的步數,如圖2所示該卷積操作的步長為1,步長用stride來表示。

                                                                                圖2 卷積操作的過程 

三、填充(padding)

當我們用一個卷積核去和一個影像進行卷積操作的時候,我們可以發現,不同位置的畫素利用率是不同的,例如位於影象中心的畫素,它參與了多次的卷積運算,對整個卷積過程的貢獻大。但是想影象四個角的畫素只參與了以此的卷積運算,貢獻就被忽略了。另外,由於卷積操作,使得原始影象的大小不斷地減小。為了避免上述的兩個問題,我們採用填充的方式,就是在原始影象的四周再新增一圈畫素值,這樣就能夠保證每一個原始影象的畫素都參與相同貢獻的卷積操作。

從圖中可以看出,藍色的原始影像進行了一個畫素的padding操作,這樣就使得位於角點的畫素也能參與更多的卷積過程。

四、卷積後特徵圖大小的計算。參考部落格卷積後圖像大小計算

1.卷積後尺寸計算
out_height=(in_height+2pad-filter_height)/strides[1]+1
out_width=(in_width+2pad-filter_width)/strides[2] +1
2.tensorflow中卷積引數same和valid運算之後的維度計算
(1)same
out_height=ceil(float(in_height))/float(strides[1])
out_width=ceil(float(in_width))/float(strides[2])
(2)valid
out_height=ceil(float(in_height-filter_height+1))/float(strides[1])
out_width=ceil(float(in_width-filter_width+1))/float(strides[2])
(3)引數
padding: SAME和VALID兩種形式
filter: [5,5,1,32]表示5*5的卷積核,1個channel,32個卷積核。
strides: [1,4,4,1]表示橫向和豎向的步長都為4

五、實驗

利用tensorflow進行實際的實驗操作。實驗的原始碼如下:

# -*- coding: utf-8 -*-
import tensorflow as tf
import numpy as np 
"""
Created on Tue Jul 17 10:03:21 2018

@author: C.H.
"""
tf.reset_default_graph()#這一句話非常重要,如果沒有這句話,就會出現重複定義變數的錯誤
x = tf.placeholder(tf.float32, shape=(1, 500, 500, 3))
#分別設定3*3,5*5,7*7三種大小的卷積核
weights1 = tf.get_variable('weights1',shape=[3, 3, 3, 16],dtype=tf.float32,initializer=tf.truncated_normal_initializer(stddev=0.1, dtype=tf.float32))
weights2 = tf.get_variable('weights2',shape=[5, 5, 3, 16],dtype=tf.float32,initializer=tf.truncated_normal_initializer(stddev=0.1, dtype=tf.float32))
weights3 = tf.get_variable('weights3',shape=[7, 7, 3, 16],dtype=tf.float32,initializer=tf.truncated_normal_initializer(stddev=0.1, dtype=tf.float32))
#第一組實驗採用步長為1,填充採用SAME,然後採用三種不同大小的卷積核來進行實驗,討論卷積核對卷積後圖像大小的影響。第一組實驗為其他實驗的對照組
conv1 = tf.nn.conv2d(x, weights1, strides=[1, 1, 1, 1], padding='SAME')
conv2 = tf.nn.conv2d(x, weights2, strides=[1, 1, 1, 1], padding='SAME')
conv3 = tf.nn.conv2d(x, weights3, strides=[1, 1, 1, 1], padding='SAME')
#第二組實驗,控制卷積核的大小為3*3,分別採用1,2,3三種步長,padding方式採用SAME,討論步長對卷積後圖像大小的影響。
conv4 = tf.nn.conv2d(x, weights1, strides=[1, 1, 1, 1], padding='SAME')
conv5 = tf.nn.conv2d(x, weights1, strides=[1, 2, 2, 1], padding='SAME')
conv6 = tf.nn.conv2d(x, weights1, strides=[1, 3, 3, 1], padding='SAME')
#第三組實驗,與第一組實驗對照,選擇和第一組實驗相同的卷積核大小和步長,採用padding的填充方式進行測試。討論不同padding方式對卷積後圖像的影響
conv7 = tf.nn.conv2d(x, weights1, strides=[1, 1, 1, 1], padding='VALID')
conv8 = tf.nn.conv2d(x, weights2, strides=[1, 1, 1, 1], padding='VALID')
conv9 = tf.nn.conv2d(x, weights3, strides=[1, 1, 1, 1], padding='VALID')
#池化過程的'VALID','SAME'引數的對照。討論不同引數設定對最大池化過程後圖像大小的影響
pool1 = tf.nn.max_pool(x, [1, 3, 3, 1], [1, 3, 3, 1], padding = 'VALID')
pool2 = tf.nn.max_pool(x, [1, 3, 3, 1], [1, 3, 3, 1], padding = 'SAME')

with tf.Session() as sess: 
    a =  np.full((1, 500, 500, 3), 2)
    sess.run(tf.global_variables_initializer())
    conv1= sess.run(conv1,feed_dict={x: a})
    conv2= sess.run(conv2,feed_dict={x: a})
    conv3= sess.run(conv3,feed_dict={x: a})
    conv4= sess.run(conv4,feed_dict={x: a})
    conv5= sess.run(conv5,feed_dict={x: a})
    conv6= sess.run(conv6,feed_dict={x: a})
    conv7= sess.run(conv7,feed_dict={x: a})
    conv8= sess.run(conv8,feed_dict={x: a})
    conv9= sess.run(conv9,feed_dict={x: a})
    pool1= sess.run(pool1,feed_dict={x: a})
    pool2= sess.run(pool2,feed_dict={x: a})
    print(conv1.shape)
    print(conv2.shape)  
    print(conv3.shape)  
    print(conv4.shape)  
    print(conv5.shape)  
    print(conv6.shape)  
    print(conv7.shape)  
    print(conv8.shape)  
    print(conv9.shape)  
    print(pool1.shape)  
    print(pool2.shape)  

實驗的結果如下:

runfile('E:/Study/研究生文件/深度學習資料/深度學習程式/computeshapeafterconv.py', wdir='E:/Study/研究生文件/深度學習資料/深度學習程式')
(1, 500, 500, 16)#out=ceil(float(in))/float(strides) 
(1, 500, 500, 16)#out=ceil(float(in))/float(strides) 
(1, 500, 500, 16)#out=ceil(float(in))/float(strides) 
(1, 500, 500, 16)#out=ceil(float(in))/float(strides) 
(1, 250, 250, 16)#out=ceil(float(in))/float(strides) 
(1, 167, 167, 16)#out=ceil(float(in))/float(strides) 
(1, 498, 498, 16)#out=ceil(float(in-filter+1))/float(strides) 
(1, 496, 496, 16)#out=ceil(float(in-filter+1))/float(strides) 
(1, 494, 494, 16)#out=ceil(float(in-filter+1))/float(strides) 
(1, 166, 166, 3)#out=floor(float(in))/float(strides)
(1, 167, 167, 3)#out=ceil(float(in))/float(strides)

 另外,在程式中出現了兩個需要注意的語句。

tf.reset_default_graph()#這一句話非常重要,如果沒有這句話,就會出現重複定義變數的錯誤

這句話如果沒有加在程式的最開始,那麼如果你想進行多次程式的執行和除錯的時候,程式就會報錯。

ValueError: Variable weights1 already exists, disallowed. Did you mean to set reuse=True or reuse=tf.AUTO_REUSE in VarScope? Originally defined at:

  File "D:\Anaconda3-5.0.1-Windows-x86_64\RESULT\envs\tensorflow\lib\site-packages\tensorflow\python\framework\ops.py", line 1625, in __init__
    self._traceback = self._graph._extract_stack()  # pylint: disable=protected-access
  File "D:\Anaconda3-5.0.1-Windows-x86_64\RESULT\envs\tensorflow\lib\site-packages\tensorflow\python\framework\ops.py", line 3160, in create_op
    op_def=op_def)
  File "D:\Anaconda3-5.0.1-Windows-x86_64\RESULT\envs\tensorflow\lib\site-packages\tensorflow\python\framework\op_def_library.py", line 787, in _apply_op_helper
    op_def=op_def)

錯誤的原因是第一次執行程式的時候,計算圖中已經存在所有定義的變數,如果再執行程式,就會重複定義變數。加上重置計算圖那個語句就搞定了。

第二個需要注意的地方

conv1= sess.run(conv1,feed_dict={x: a})

在這裡將numpy變數a,feed給變數x的時候,每次只能feed一個變數。不能出現下面的寫法。

conv1,conv2= sess.run(conv1,conv2,feed_dict={x: a})

 如果這樣的話就會出現以下錯誤:

TypeError: run() got multiple values for argument 'feed_dict'

   總結,這篇部落格討論了卷積運算操作時候的三個重要的引數,卷積核大小,步長大小和填充大小。分別進行了對照試驗,驗證了總結的經驗公式。這種基礎操作為網路設計和控制輸出tensor大小做了必要的準備。