1. 程式人生 > >tf.nn.conv2d

tf.nn.conv2d

Language sha and log string python feature style p s

tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None)

  • input:
    指需要做卷積的輸入圖像,它要求是一個Tensor,具有[batch, in_height, in_width, in_channels]這樣的shape,具體含義是[訓練時一個batch的圖片數量, 圖片高度, 圖片寬度, 圖像通道數],註意這是一個4維的Tensor,要求類型為float32和float64其中之一

  • filter:
    相當於CNN中的卷積核,它要求是一個Tensor,具有[filter_height, filter_width, in_channels, out_channels]這樣的shape,具體含義是[卷積核的高度,卷積核的寬度,圖像通道數,卷積核個數],要求類型與參數input相同,有一個地方需要註意,第三維in_channels,就是參數input的第四維

  • strides:卷積時在圖像每一維的步長,這是一個一維的向量,長度4

  • padding:
    string類型的量,只能是”SAME”,”VALID”其中之一,這個值決定了不同的卷積方式(後面會介紹)

  • use_cudnn_on_gpu:
    bool類型,是否使用cudnn加速,默認為true

結果返回一個Tensor,這個輸出,就是我們常說的feature map

name是啥?

strides[1,1,1,1]和strides[1,2,2,1]啥關系?

input = tf.Variable(tf.random_normal([1,5,5,5]))
filter = tf.Variable(tf.random_normal([3,3,5,7]))

op = tf.nn.conv2d(input, filter, strides=[1, 1, 1, 1], padding=‘SAME‘)

此時輸出7張5×5的feature map



input = tf.Variable(tf.random_normal([1,5,5,5])) filter = tf.Variable(tf.random_normal([3,3,5,7])) op = tf.nn.conv2d(input, filter, strides=[1, 2, 2, 1], padding=‘SAME‘)
此時,輸出7張3×3的feature map

http://blog.csdn.net/mao_xiao_feng/article/details/78004522




 

tf.nn.conv2d