卷積和池化順序問題?哪個在前好一些,還是沒有影響?
有一個同學一直以為卷積之後就進行池化,我知道卷積之後是進行啟用函式的,但是真的為什麼這樣做卻沒有想透徹。
所接觸過的網路模型只要有卷積池化啟用函式的,都是conv-activation-pooling這樣的先後順序,比如下面這個torchvision庫裡面的vgg模型:
但是我初步在minist資料集上試驗了一下,發現區別基本沒有。都是百分之99以上的準確率 ,如果單純從準確度上說的話。
而且,直觀看起來,先池化再啟用,會減少啟用操作的數目。
不知道有沒有人知道,這樣做的原因是歷史因素:
卷積操作相當於wx+b,一般都是wx+b之後就進行啟用運算,也就是σ(wx+b),所以卷積之後緊跟著啟用。
但是如果僅僅是習慣問題的話,那麼改成池化在前也完全可以。
有沒有大神知道真實的原因呢?
其他池化和啟用函式的組合,看起來對順序會比較敏感,但是哪個更好呢?
更進一步的,還有bn層等等,有沒有論文詳細討論過層的順序問題?
相關推薦
卷積和池化順序問題?哪個在前好一些,還是沒有影響?
有一個同學一直以為卷積之後就進行池化,我知道卷積之後是進行啟用函式的,但是真的為什麼這樣做卻沒有想透徹。 所接觸過的網路模型只要有卷積池化啟用函式的,都是conv-activation-pooling這樣的先後順序,比如下面這個torchvision庫裡面的vgg模型: 但是我初步
卷積和池化的區別
好的 就是 pool desc max lin 連接 神經元 turn 卷積: ??1. Description: 和全連接的DNN相比, 卷積的網絡參數大大減少, 因此連接權重和神經元個數的比重大大提升, 模型的計算量減少. ??2. 依據: 圖像中往往有大量區域的構造
tensorflow中的卷積和池化層(一)
oat avg 滑動 shape 要求 網絡 vol 加速 ali 在官方tutorial的幫助下,我們已經使用了最簡單的CNN用於Mnist的問題,而其實在這個過程中,主要的問題在於如何設置CNN網絡,這和Caffe等框架的原理是一樣的,但是tf的設置似乎更加簡潔、方便,
深度學習--說一說卷積和池化
hang .com image .html 特性 3*3 方法 pool 維度 卷積是神經網絡的基礎,算是大廈的地基,卷積實際上來說就是兩個數列之間的相互處理。池化的作用我感覺主要就是減小圖像或者說矩陣的大小,並且不同的池化方法選取不同的信息作為保存信息。 轉載:htt
Deep Learning 學習隨記(七)Convolution and Pooling --卷積和池化
分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!  
吳教授的CNN課堂:基礎篇 | 卷積和池化
等了一個月,吳教授的Deeplearning.ai的第四部分,也就是關於卷積神經網路(Convolutional Neural Network,簡寫CNN)的課。 作為吳教授的忠實門徒(自封),除了在課堂上受到吳教授秀恩愛暴擊外,當然也要好好做筆記。雖然之前也有過一些C
pytorch中的卷積和池化計算方式
TensorFlow裡面的padding只有兩個選項也就是valid和same pytorch裡面的padding麼有這兩個選項,它是數字0,1,2,3等等,預設是0 所以輸出的h和w的計算方式也是稍微有一點點不同的:tf中的輸出大小是和原來的大小成倍數關係,不能任意的輸
影象的卷積和池化操作
離散域 卷積分為連續函式卷積及離散函式卷積,因為我們實際工作中多數情況下是數字化的場景,所以我們需要離散域的卷積操作。對於兩個離散函式f和g,卷積運算是將連續函式的積分操作轉換為等效求和: 卷積核 對於影象而言,它屬於二維資料,那麼它對應的就是2D函式,我們可以通過一個過濾器來過濾影象
深度學習中卷積和池化的總結
深度學習中卷積和池化的總結 涉及到padding的設定:https://www.jianshu.com/p/05c4f1621c7e 以及strides=[batch, height, width, channels]中,第一個、第三個引數必須為1的解釋。http://www.itdaa
深度學習中卷積和池化的一些總結
最近完成了hinton的深度學習課程的卷積和池化的這一章節了,馬上就要結束了。這個課程的作業我寫的最有感受,待我慢慢說來。 1:裡面有幾個理解起來的難點,一個是卷積,可以這麼來理解。 這幅圖是對一個5*5的矩陣A進行3*3的矩陣B的卷積,那麼就從最上角到右下角,生成卷積之
卷積和池化
卷積神經網路(CNN)由輸入層、卷積層、啟用函式、池化層、全連線層組成,即INPUT-CONV-RELU-POOL-FC (1)卷積層:用它來進行特徵提取,如下: 輸入影象是32*32*3,3是它的深度(即R、G、B),卷積層是一個5*5*3的filter(感
什麼是卷積和池化
在傳統的神經網路中,比如多層感知機(MLP),其輸入通常是一個特徵向量,需要人工設計特徵,然後將這些特徵計算的值組成特徵向量,在過
Deep Learning基礎--線性解碼器、卷積、池化
sparse pca 過程 條件 連接 移動 .cn 計算過程 htm 本文主要是學習下Linear Decoder已經在大圖片中經常采用的技術convolution和pooling,分別參考網頁http://deeplearning.stanford.edu/wiki/i
卷積中池化的方法與總結
參考連結:https://blog.csdn.net/mao_kun/article/details/50507376https://blog.csdn.net/LIYUAN123ZHOUHUI/article/details/61920796https://www.zhih
卷積、池化後的影象大小計算(附例子)
用CNN網路進行圖片處理,就會遇到卷積、池化後的影象大小問題,一般搜到的答案是這樣的:對於初學者,看到這個公式的唯一疑問是:P值到底是多少?在Tensoflow中,Padding有2個選型,'SAME'和'VALID' ,下面舉例說明差別:如果 Padding='SAME',
Caffe(6)--卷積、池化後輸出影象尺寸計算
在影象卷積和池化操作中有固定的kernel_size和stride,當stride > 1時,邊界上會有可能發生越界的問題。 Caffe中的卷積、池化後輸出影象尺寸計算 (1)卷積 計算定義在conv_layer.cpp中的compute_output_s
cs231n-(7)卷積神經網路:架構,卷積層/池化層
卷積神經網路和普通神經網路非常類似。卷積神經網路由神經元組成,每個神經元包含權重weight和諞置bias;它接收上一層輸入,和權重相乘,通常再經過一個非線性函式(可選)輸出。整個網路擬合一個可微分的score function:從原始影象到每類別得分。在
cnn學習之卷積或者池化後輸出的map的size計算
相信各位在學習cnn的時候,常常對於卷積或者池化後所得map的的大小具體是多少,不知道怎麼算。尤其涉及到邊界的時候。 首先需要了解對於一個輸入的input_height*input_widtht的影象,在卷積或者池化的時候,經常需要加padding,這是為了處理邊界問題時而採用的一種方式,於是原輸入就變
[深度學習]卷積神經網路:卷積、池化、常見分類網路
卷積 全連線層:將卷積層所有的畫素展開,例如得到一個3072維的向量,然後在向量上進行操作。 卷積層:可以保全空間結構,不是展開成一個長的向量。 卷積操作:將卷積核從影象(或者上一層的feature map)的左上方的邊角處開始,遍歷卷積核覆蓋的所有畫素點。在每一個位置
深度學習基礎--卷積計算和池化計算公式
卷積計算和池化計算公式 卷積 卷積計算中,()表示向下取整。 輸入:n* c0* w0* h0 輸出:n* c1* w1* h1 其中,c1就是引數中的num_output,生成的特徵圖個數。 w1=(w0+2pad-kernel_size)/stride+1;