1. 程式人生 > >Deep Learning 25:讀論文“Network in Network”——ICLR 2014

Deep Learning 25:讀論文“Network in Network”——ICLR 2014

論文Network in network  (ICLR 2014)是對傳統CNN的改進,傳統的CNN就交替的卷積層和池化層的疊加,其中卷積層就是把上一層的輸出與卷積核(即濾波器)卷積,是線性變換,然後再加上一個非線性變換的啟用函式(比如:relu),但是在NIN中並有像CNN中這樣,

1.它們的區別之一是卷積層不一樣:

CNN: 卷積層= 卷積+啟用函式

NIN:卷積層=mlpconv層= 卷積+MLP = 卷積+1*1卷積+1*1卷積=卷積+relu+1*1卷積+relu+1*1卷積+relu

b.問題:我在想如果把NIN的mlpconv層中的relu變成maxout會怎麼樣?有人做這方面工作了嗎?

2.NIN與CNN的區別之二是softmax前一層不一樣:

CNN:全連線層+softmax

NIN:全域性均值池化+softmax

alexnet的引數要230多M,而NIN只要29M,且準確率更高

3.NIN的結構:

data---conv1(96,11,4)=(濾波器數,卷積核大小,stride)---relu0---cccp1---relu1---cccp2---relu2---pool1(3*3,2)=(kernel_size,stride)---

conv2(256,5,1)---relu3---cccp3---relu4---cccp4---relu5---pool2(3*3,2)--

conv3(384,3,1)---relu6---cccp5---relu7---cccp6---relu8---pool3(3*3,2)---dropout(0.5)---

conv4(1024,3,1)---relu9---cccp7---relu10---cccp8---relu11---pool4(6*6,1)---softmax

注意:cccp=conv(1,1)即:“隱隱層”就是一個1×1的卷積層

基礎資料

相關推薦

Deep Learning 25論文Network in Network”——ICLR 2014

論文Network in network  (ICLR 2014)是對傳統CNN的改進,傳統的CNN就交替的卷積層和池化層的疊加,其中卷積層就是把上一層的輸出與卷積核(即濾波器)卷積,是線性變換,然後再加上一個非線性變換的啟用函式(比如:relu),但是在NIN中並有像CNN中這樣, 1.它們的區別之一是卷

Deep Learning 24論文“Batch-normalized Maxout Network in Network”——mnist錯誤率為0.24%

讀本篇論文“Batch-normalized Maxout Network in Network”的原因在它的mnist錯誤率為0.24%,世界排名第4。並且程式碼是用matlab寫的,本人還沒裝cafe……  理論知識 本文是臺灣新竹國立交通大學的Jia-Ren Chang 寫的,其實要說這篇文章有多在

Deep Learning 26論文“Maxout Networks”——ICML 2013

論文Maxout Networks實際上非常簡單,只是發現一種新的啟用函式(叫maxout)而已,跟relu有點類似,relu使用的max(x,0)是對每個通道的特徵圖的每一個單元執行的與0比較最大化操作,而maxout是對5個通道的特徵圖在通道的維度上執行最大化操作 這些論文已經有很多前人幫我們解讀了,所

Deep Learning 33論文“Densely Connected Convolutional Networks”-------DenseNet 簡單理解

1 Model created 2 ____________________________________________________________________________________________________ 3 Layer (type) Output Shape P

Deep Learning 18DBM的學習及練習_論文Deep Boltzmann Machines”的筆記

前言       論文“Deep Boltzmann Machines”是Geoffrey Hinton和他的大牛學生Ruslan Salakhutdinov在論文“Reducing the Dimensionality of Data with Neural Networks”合作後的又一次聯合發表的一篇

Deep Learning 23dropout理解_之論文“Improving neural networks by preventing co-adaptation of feature detectors”

 感覺沒什麼好說的了,該說的在引用的這兩篇部落格裡已經說得很清楚了,直接做試驗吧 注意: 1.在模型的測試階段,使用”mean network(均值網路)”來得到隱含層的輸出,其實就是在網路前向傳播到輸出層前時隱含層節點的輸出值都要減半(如果dropout的比例為p=50%),其理由如下: At

Deep Learning 16用自編碼器對資料進行降維_論文“Reducing the Dimensionality of Data with Neural Networks”的筆記

前言 筆記 摘要:高維資料可以通過一個多層神經網路把它編碼成一個低維資料,從而重建這個高維資料,其中這個神經網路的中間層神經元數是較少的,可把這個神經網路叫做自動編碼網路或自編碼器(autoencoder)。梯度下降法可用來微調這個自動編碼器的權值,但是隻有在初始化權值較好時才能得到最優解,不然就

Deep Learning-TensorFlow (12) CNN卷積神經網路_ Network in Network 學習筆記

環境:Win8.1 TensorFlow1.0.1 軟體:Anaconda3 (整合Python3及開發環境) TensorFlow安裝:pip install tensorflow (CPU版) pip install tensorflow-gpu (GPU版)

課程一(Neural Networks and Deep Learning)總結Logistic Regression

pdf idt note hub blog bsp http learn gre -------------------------------------------------------------------------

論文閱讀筆記(十一)Network In Network

hole orm 後來 entropy function ppr master 3層 上進 該論文提出了一種新穎的深度網絡結構,稱為“Network In Network”(NIN),以增強模型對感受野內local patches的辨別能力。與傳統的CNNs相比,NIN主要

Deep Learning」Notes on Squeeze-and-Excitation Network (SENet)

QQ Group: 428014259 Sina Weibo:小鋒子Shawn Tencent E-mail:[email protected] http://blog.csdn.net/dgyuanshaofeng/article/details/84179554 [1]

Deep Learning」Note on Gather and Excite Network (GENet)

QQ Group: 428014259 Sina Weibo:小鋒子Shawn Tencent E-mail:[email protected] http://blog.csdn.net/dgyuanshaofeng/article/details/84179196 SEN

Network in Network-後筆記

摘要: 提出一個NIN(網路中的網路)的深度網路結構用以增強模型在感知野在區域性影象塊的辨別力。 提出在卷積層使用非線性代替現有的線性模型。 使用一個由MLP組成的micro neural網路作為非線性模型去掃描輸入以提取特徵圖(feature map

On Deep Learning-Based Channel Decoding 論文筆記

摘要 我們重新考慮使用深度神經網路對隨機和結構化碼字(例如極性碼字)進行一次性解碼。 雖然可以為碼字族和短碼字長度實現最大後驗(MAP)誤位元速率(BER)效能,但我們觀察到(i)結構化碼字更容易學習和(ii)神經網路能夠生成在結構化訓練期間從未見過的碼字,而不是隨機碼字。 這些結果提供了一些證據,表明神經

Biotechnology Stocks To Buy Based on Deep Learning: Returns up to 52.38% in 7 Days

Biotechnology to buy: The BioTech Stocks Package is designed for investors and analysts who need predictions of the best stocks to buy for the whole Biotec

Wide & Deep Learning for Recommender Systems 論文閱讀總結

Wide & Deep Learning for Recommender Systems 論文閱讀總結 文章目錄 Wide & Deep Learning for Recommender Systems 論文閱讀總結 Abstract

Deep Learning 36python中的一些函式

snrs, mods = map(lambda j: sorted(list(set(map(lambda x: x[j], Xd.keys())))), [1,0]) 上面這句話的意思是: Xd.keys()取出Xd中的鍵keys,形為('8PSK',-10),故snrs值為:sorted(list(set

Deep Learning 15RBM的學習

RBM是深度學習的核心,所以必須徹底清楚地理解RBM原理、推導及其訓練方法 1.讀學位論文“基於深度學習的人臉識別研究”: 對RBM、DBN的介紹比較詳細,可以作為基礎閱讀,再去讀英文論文。 2.RBM的推導: 講得非常清楚,第一重點推薦! 這個講很直白,感覺非常好!第二重點推薦,也不知道是

Deep Learning入門引數意義及對一些trick理解的總結

以下大部分都是在CIFAR10資料集使用tensorflow時獲得的經驗。 一、batch normalization batch normalization是以一個batch為整體進行歸一化,一般方法是(x-均值)/方差。 由於該方法能將圖片上的值的範圍變換致(-c,c)

機器學習(Machine Learning)與深度學習(Deep Learning)資料 之 相關論文和會議報告

介紹:對深度學習和representationlearning最新進展有興趣的同學可以瞭解一下介紹:主要是順著Bengio的PAMIreview的文章找出來的。包括幾本綜述文章,將近100篇論文,各位山頭們的Presentation。全部都可以在google上找到。介紹:20