1. 程式人生 > >圖示理解卷積運算、逆卷積運算、Tensorflow、tf.nn.conv2d_transpose、Conv2DSlowBackpropInput: Size of out_backprop doesn

圖示理解卷積運算、逆卷積運算、Tensorflow、tf.nn.conv2d_transpose、Conv2DSlowBackpropInput: Size of out_backprop doesn

卷積運算

這裡以二維卷積為例討論:
正方形輸入(i1=i2=i)
正方形卷積核大小(k1=k2=k
相同的步長(s1=s2=s
相同的零填充(p1=p2=p

第一種情況: s=1,p=0,i=4,k=3
這裡寫圖片描述

從輸入影象的最右邊開始,一個步長一個步長直到抵達影象的另外一邊
輸入影象的大小為:

o=(ik)+1

第二種情況:s=1,p=2,i=5,k=3
這裡寫圖片描述
輸入影象的大小為:

o=(ik+2p)+1

第三種情況: 比較特殊,名為Half padding(SAME模式)
即是輸出影象大小與輸入影象大小相同, 假設i=5,s=1,k=2n+1
滿足p=[

k/2]有:

o=i+2[k/2](k1)=i+2n2n=i

這裡寫圖片描述

第四種情況: Full padding,即輸出比原始影象還大的影象,
滿足p=k1,s=1情況:

o=i+2(k1)(k1)=i+k1

這裡寫圖片描述

第五種情況:s1,p=0
s=2,p=0,i=5,k=3

這裡寫圖片描述

這種情況下輸出影象大小為:

o=[iks]+1
注意的是:求下限函式解釋了最後一步並不和卷積層抵達輸入另外一側相一致。也就是會遺漏一些輸入畫素

第六種情況:s1,p0
輸出影象大小為:

o=[ik+2ps]+1
s=2,p=1,i=5,k=3
這裡寫圖片描述

一個有趣的現象是:
假如ik+

2ps=N 那麼 j=i+a,a{0,1,...,s1} 將會輸出相同的大小。

逆卷積過程

第一種情況:卷積操作s=1,p=0,k
這裡寫圖片描述
逆卷積操作k=k,s=s,p=k1 相當於Full padding全填充模式
這裡寫圖片描述
輸出影象大小為:

o=i+(k1)

第二種情況:明白上面非填充卷積等價於一個全零填充的逆卷積操作,因此,一般零填充的卷積操作等價於一個更少零填充的逆卷積操作。

i=5,k=4,p=2
這裡寫圖片描述

開頭結尾都減小p個,也就是:
s=1,k,p 可以描述為:k=k,s=s,p=kp1

o=i+(k1)2p

第三種情況: 半填充的卷積(SAME模式情況下)
卷積k

=2n+1,nN,s=1

相關推薦

圖示理解運算運算Tensorflowtf.nn.conv2d_transposeConv2DSlowBackpropInput: Size of out_backprop doesn

卷積運算 這裡以二維卷積為例討論: 正方形輸入(i1=i2=i) 正方形卷積核大小(k1=k2=k) 相同的步長(s1=s2=s) 相同的零填充(p1=p2=p) 第一種情況: s=1,p=0,i=4,k=3 從輸入影象的最右邊開始,一個

TensorFlowtf.nn.conv2d_transpose是怎樣實現反捲的?

三個月沒更新了啊,回來更一發~~ csdn上主要講一些coding過程中遇到的函式,問題,解決方案。偏實踐 另外,如果你想看一些理論方面的東西,歡迎加我的知乎知乎主頁 csdn私信幾乎不看,有問題交流可以發郵箱:[email protected]或者知乎私

tensorflow隨筆-tf.nn.conv2d運算(2)

#!/usr/bin/env python2 # -*- coding: utf-8 -*- """ Created on Tue Oct 2 13:23:27 2018 @author: myh

tensorflow隨筆-tf.nn.conv2d運算(3)

#!/usr/bin/env python2 # -*- coding: utf-8 -*- """ Created on Tue Oct 2 13:23:27 2018 @author: myha

tensorflow隨筆-tf.nn.conv2d運算(5)

#!/usr/bin/env python2 # -*- coding: utf-8 -*- """ Created on Tue Oct 2 13:23:27 2018 @author: myha

tensorflow隨筆-tf.nn.conv2d運算(1)

#!/usr/bin/env python2 # -*- coding: utf-8 -*- """ Created on Tue Oct 2 13:23:27 2018 @author: myha

tensorflow隨筆-tf.nn.conv2d運算(10)

運動模糊 #!/usr/bin/env python2 # -*- coding: utf-8 -*- """ Created on Tue Oct 2 13:23:27 2018 @author:

個人總結:關於tf.nn.conv2d()與tf.nn.conv2d_transpose(反捲)的區別

官網中對於卷積tf.nn.conv2d的描述 tf.nn.conv2d(     input,     filter,     strides,     padding,     use_cudn

Tensorflowtf.nn.atrous_conv2d如何實現空洞

value:  指需要做卷積的輸入影象,要求是一個4維Tensor,具有[batch, height, width, channels]這樣的shape,具體含義是[訓練時一個batch的圖片數量, 圖片高度, 圖片寬度, 影象通道數] filters: 

Tensorflow函式 tf.nn.atrous_conv2d如何實現空洞

實驗環境:tensorflow版本1.2.0,python2.7 介紹 關於空洞卷積的理論可以檢視以下連結,這裡我們不詳細講理論: 其實用一句話概括就是,在不用pooling的情況下擴大感受野(pooling層會導致資訊損失) 為了閱讀方便再貼一些相關

TensorFlowtf.nn.conv2d是怎樣實現的?

文章出處:http://blog.csdn.net/mao_xiao_feng/article/details/53444333 tf.nn.conv2d是TensorFlow裡面實現卷積的函式,參考文件對它的介紹並不是很詳細,實際上這是搭建卷積神經網路比較

TensorFlowtf.nn.conv2d是怎樣實現的?有1*1(1×1)介紹

除去name引數用以指定該操作的name,與方法有關的一共五個引數: 第一個引數input:指需要做卷積的輸入影象,它要求是一個Tensor,具有[batch, in_height, in_width, in_channels]這樣的shape,具體含義是[訓練時一個batch的圖片數量, 圖片

Tensorflowtf.nn.conv2d理解

tf.nn.conv2d(input, filter, strides, padding, use_cudnn_on_gpu=None, name=None) 除去name引數用以指定該操作的name,與方法有關的一共五個引數:第一個引數input:指需要做卷積的輸入影象,

TensorFlow 入門 第一課--基本函式學習(2):tf.nn.conv2d tf.contrib.layers.flattentf.nn.max_pool 詳解

Tensorflow 提供了一些內建的API實現了CNN網路結構中的卷積,池化,全連線網路等運算操作。tf.nn.conv2d(input,filter, strides, padding, data_

[轉載]對深度可分離分組擴張轉置(反)的理解

mes ise 相關性 區域 nat 1.2 log v操作 深度 1. 深度可分離卷積(depthwise separable convolution) 在可分離卷積(separable convolution)中,通常將卷積操作拆分成多個步驟。而在神經網絡中通常使用的

對深度可分離分組擴張轉置(反捲)的理解

轉自:https://blog.csdn.net/chaolei3/article/details/79374563   參考: https://zhuanlan.zhihu.com/p/28749411 https://zhuanlan.zhihu.com/p/28186

對深度可分離分組空洞轉置理解

參考: https://blog.csdn.net/chaolei3/article/details/79374563 https://blog.csdn.net/jiachen0212/article/details/78548667 https://blog.csdn.net/u0147

邏輯集合運算上的一覽(FMTFWT,……)

\oplus=\and,\or,\veebar 簡介 對於邏輯\(\oplus\)的卷積,而且你不能N方豹草 \[ A_k=\sum_{i\oplus j=k} B_i\times C_k\\ \] 那麼嘗試構造變換\(F_{\oplus}\)和反演\(F_{\oplus}^{-1}\)使滿足 \[ F_{\

Convolution Network及其變種(反擴展卷因果

connected lte 理論 圖像處理 val 場景 了解 tput 實驗 今天,主要和大家分享一下最近研究的卷積網絡和它的一些變種。 首先,介紹一下基礎的卷積網絡。 通過PPT上的這個經典的動態圖片可以很好的理解卷積的過程。圖中藍色的大矩陣是我們的輸入,黃色的小

騰訊技術工程 | 騰訊 AI Lab 11篇論文精選:圖像描述NMT 模型神經網絡等

騰訊 AI 論文 背景:AAAI 2018 將於2月2日至 7日在美國新奧爾良舉行,在本屆大會上,騰訊 AI Lab 有 11 篇論文被錄用,涉及圖像描述、更低計算成本的預測表現、NMT 模型中的特定翻譯問題、自適應圖卷積神經網絡、DNN面對對抗樣本的優化問題等,本文精選了11篇論文的精彩內容。(