如何得到卷積層輸出的深度--CNN卷積層
w_conv1=weight_variable([5,5,1,32]),一直不明白這個32是怎麼來的,表示的是什麼?
後來看到cs231n-知乎課程翻譯的卷積神經網那一章的一段話:
引數共享:在卷積層中使用引數共享是用來控制引數的數量。就用上面的例子,在第一個卷積層就有55x55x96=290,400個神經元,每個有11x11x3=364個引數和1個偏差。將這些合起來就是290400x364=105,705,600個引數。單單第一層就有這麼多引數,顯然這個數目是非常大的。
作一個合理的假設:如果一個特徵在計算某個空間位置(x,y)的時候有用,那麼它在計算另一個不同位置(x2,y2)的時候也有用。基於這個假設,可以顯著地減少引數數量。換言之,就是將深度維度上一個單獨的2維切片看做深度切片(depth slice)
可以看出,上面的32表示的是卷積層輸出的深度,因為大家都明白width和height都可以通過公式計算得到,但是很多文獻都沒有告訴深度是如何得到的,下面是我的認識:
1. 因為這個深度是沒有公式可以計算出來的,因為深度是一個經驗值,如上面程式碼的32 ,其實是一個經驗值,是通過調整引數發現32是一個最合適的值,可以得到最好的準確率,但是不同的影象的深度是不一樣的。
2.這個深度表示用了多少個卷積核,下面這個圖可以說明一下:
上圖就可以很有效的說明 :卷積層輸出的深度==卷積核的個數。
相關推薦
如何得到卷積層輸出的深度--CNN卷積層
tensorflow程式碼(Tensorflow官方文件)中: w_conv1=weight_variable([5,5,1,32]),一直不明白這個32是怎麼來的,表示的是什麼? 後來看到cs231n-知乎課程翻譯的卷積神經網那一章的一段話:引數共享:在卷積層中使用引數
深度學習基礎(二)—— 從多層感知機(MLP)到卷積神經網路(CNN)
經典的多層感知機(Multi-Layer Perceptron)形式上是全連線(fully-connected)的鄰接網路(adjacent network)。 That is, every neuron in the network is connec
深度學習之cnn中第一層卷積層特徵的顯示
一、前言 本篇文章主要介紹了CNN網路中卷積層的計算過程,欲詳細瞭解CNN的其它資訊可以參考:技術向:一文讀懂卷積神經網路。 卷積神經網路(CNN)是區域性連線網路。相對於全連線網路其最大的特點就是:區域性連線性和權值共享性。因為對一副影象中的某個畫素p來說,一般離畫
【神經網路】卷積層輸出大小計算(長、寬、深度)
先定義幾個引數 輸入圖片大小 W×W Filter大小 F×F 步長 S padding的畫素數 P 於是我們可以得出 N = (W − F + 2P )/S+1 輸出圖片大小為 N×N 轉載: 卷積中的特徵圖大小計算方式有兩種,分別是‘VALID’和‘SAM
【深度學習】基於MatConvNet框架的CNN卷積層與特徵圖視覺化
【題目】 程式設計實現視覺化卷積神經網路的特徵圖,並探究影象變換(平移,旋轉,縮放等)對特徵圖的影響。選擇AlexNet等經典CNN網路的Pre-trained模型,視覺化每個卷積層的特徵圖(網路輸入圖片自行選擇)。其中,第一層全部視覺化,其餘層選
理解CNN卷積層與池化層計算
CNN網絡 卷積層 池化層 深度學習 OpenCV 概述 深度學習中CNN網絡是核心,對CNN網絡來說卷積層與池化層的計算至關重要,不同的步長、填充方式、卷積核大小、池化層策略等都會對最終輸出模型與參數、計算復雜度產生重要影響,本文將從卷積層與池化層計算這些相關參數出發,演示一下不同步長、
【深度學習】Tensorflow——CNN 卷積神經網路 2
轉自https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/5-05-CNN3/ 目錄 圖片處理 建立卷積層 建立全連線層 選優化方法 完整程式碼
【深度學習】Tensorflow——CNN 卷積神經網路 1
轉自https://morvanzhou.github.io/tutorials/machine-learning/tensorflow/5-04-CNN2/ 這一次我們會說道 CNN 程式碼中怎麼定義 Convolutional 的層和怎樣進行 pooling. 基於上一次卷積神經網路的介
由淺入深:CNN中卷積層與轉置卷積層的關系
更多 deep 每次 展開 大禮包 位移 入門 ssg 得出 歡迎大家前往騰訊雲+社區,獲取更多騰訊海量技術實踐幹貨哦~ 本文由forrestlin發表於雲+社區專欄 導語:轉置卷積層(Transpose Convolution Layer)又稱反卷積層或分數卷積層,在
【讀書1】【2017】MATLAB與深度學習——卷積層(4)
圖6-13 當影象矩陣與濾波器不匹配時,較大的重要元素不會起到顯著的作用Whenthe image matrix does not match the filter, the significant elements are notaligned 這是因為影象矩陣與濾波器不匹配,影象矩
CNN卷積層到全連線層的輸入格式變換錯誤 tf.reshape()和slim.flatten()
TypeError: Failed to convert object of type < type ‘list’>to Tensor. Contents: [None, 9216]. Consider casting elements to a supported type.
吳恩達深度學習筆記(deeplearning.ai)之卷積神經網路(CNN)(上)
1. Padding 在卷積操作中,過濾器(又稱核)的大小通常為奇數,如3x3,5x5。這樣的好處有兩點: 在特徵圖(二維卷積)中就會存在一箇中心畫素點。有一箇中心畫素點會十分方便,便於指出過濾器的位置。 在沒有padding的情況下,經過卷積操作,輸出的資
詳細解釋CNN卷積神經網路各層的引數和連線個數的計算
積神經網路是一個多層的神經網路,每層由多個二維平面組成,而每個平面由多個獨立神經元組成。 圖:卷積神經網路的概念示範:輸入影象通過和三個可訓練的濾波器和可加偏置進行卷積,濾波過程如圖一,卷積後在C1層產生三個特徵對映圖,然後特徵對映圖中每組的四個畫素再進行
深度學習 --- 卷積神經網路CNN(LeNet-5網路學習演算法詳解)
上一節我們詳細探討了LeNet-5網路的架構,但是還沒有解釋該網路是如何進行學習的,如何更新權值的,本節將接著上一節進一步CNN的學習機制和權值更新過程,這裡請大家一定要對CNN網路有一個清晰的認識,知道每一層是做什麼的,為什麼這樣設定。原因在哪等。大家在學習的過程中需要多問自己幾個為什麼,這樣
深度學習 --- 卷積神經網路CNN(LeNet-5網路詳解)
卷積神經網路(Convolutional Neural Network,CNN)是一種前饋型的神經網路,其在大型影象處理方面有出色的表現,目前已經被大範圍使用到影象分類、定位等領域中。相比於其他神經網路結構,卷積神經網路需要的引數相對較少,使的其能夠廣泛應用。 本節打算先介紹背景和簡單的基本
由淺入深:CNN中卷積層與轉置卷積層的關係
歡迎大家前往騰訊雲+社群,獲取更多騰訊海量技術實踐乾貨哦~ 導語:轉置卷積層(Transpose Convolution Layer)又稱反捲積層或分數卷積層,在最近提出的卷積神經網路中越來越常見了,特別是在對抗生成神經網路(GAN)中,生成器網路中上取樣部分就出現了轉置卷積層,用於恢復減少的維數。那麼,轉
【深度學習】8:CNN卷積神經網路與sklearn資料集實現數字識別
前言:這個程式碼是自己閒暇無事時候寫的。 因為CNN卷積神經網路用MNIST資料集、sklearn資料集程式碼很多部分都很相似,這一篇就不附詳細說明,原始碼最下。CNN卷積神經網路的工作原理,請詳情參考——【深度學習】5:CNN卷積神經網路原理、MNIST資料
CNN卷積各層的引數和連結個數的計算(整合各路部落格總結)
轉載自:http://blog.csdn.net/dcxhun3/article/details/46878999,但是加入了自己的理解 一、CNN概述 卷積神經網路是一個多層的神經網路,每層由多個二維平面組成(每個層有多個Feature Map,每個Feat
詳細解釋CNN卷積神經網路各層的引數和連結個數的計算
卷積神經網路是一個多層的神經網路,每層由多個二維平面組成,而每個平面由多個獨立神經元組成。 圖:卷積神經網路的概念示範:輸入影象通過和三個可訓練的濾波器和可加偏置進行卷積,濾波過程如圖
乾貨 | 深度學習之卷積神經網路(CNN)的前向傳播演算法詳解
微信公眾號 關鍵字全網搜尋最新排名 【機器學習演算法】:排名第一 【機器學習】:排名第一 【Python】:排名第三 【演算法】:排名第四 前言 在(乾貨 | 深度學習之卷積神經網路(CNN)的模型結構)中,我們對CNN的模型結構做了總結,這裡我們就在CNN的模型基礎上,看看CNN的前向傳播演算法是什麼樣