1. 程式人生 > >Deep Learning 26:讀論文“Maxout Networks”——ICML 2013

Deep Learning 26:讀論文“Maxout Networks”——ICML 2013

論文Maxout Networks實際上非常簡單,只是發現一種新的啟用函式(叫maxout)而已,跟relu有點類似,relu使用的max(x,0)是對每個通道的特徵圖的每一個單元執行的與0比較最大化操作,而maxout是對5個通道的特徵圖在通道的維度上執行最大化操作

這些論文已經有很多前人幫我們解讀了,所以不需要自己再費心理解,非常好,所以自己也不需要再寫什麼多餘的解讀了,該說的下面的文獻都說了。

基礎資料

論文翻譯:Maxout Networks,這篇博文講得非常仔細非常清楚,必須仔細看

相關推薦

Deep Learning 26論文Maxout Networks”——ICML 2013

論文Maxout Networks實際上非常簡單,只是發現一種新的啟用函式(叫maxout)而已,跟relu有點類似,relu使用的max(x,0)是對每個通道的特徵圖的每一個單元執行的與0比較最大化操作,而maxout是對5個通道的特徵圖在通道的維度上執行最大化操作 這些論文已經有很多前人幫我們解讀了,所

Deep Learning 24論文“Batch-normalized Maxout Network in Network”——mnist錯誤率為0.24%

讀本篇論文“Batch-normalized Maxout Network in Network”的原因在它的mnist錯誤率為0.24%,世界排名第4。並且程式碼是用matlab寫的,本人還沒裝cafe……  理論知識 本文是臺灣新竹國立交通大學的Jia-Ren Chang 寫的,其實要說這篇文章有多在

Deep Learning 33論文“Densely Connected Convolutional Networks”-------DenseNet 簡單理解

1 Model created 2 ____________________________________________________________________________________________________ 3 Layer (type) Output Shape P

Deep Learning 25論文“Network in Network”——ICLR 2014

論文Network in network  (ICLR 2014)是對傳統CNN的改進,傳統的CNN就交替的卷積層和池化層的疊加,其中卷積層就是把上一層的輸出與卷積核(即濾波器)卷積,是線性變換,然後再加上一個非線性變換的啟用函式(比如:relu),但是在NIN中並有像CNN中這樣, 1.它們的區別之一是卷

Deep Learning 23dropout理解_之論文“Improving neural networks by preventing co-adaptation of feature detectors”

 感覺沒什麼好說的了,該說的在引用的這兩篇部落格裡已經說得很清楚了,直接做試驗吧 注意: 1.在模型的測試階段,使用”mean network(均值網路)”來得到隱含層的輸出,其實就是在網路前向傳播到輸出層前時隱含層節點的輸出值都要減半(如果dropout的比例為p=50%),其理由如下: At

Deep Learning 16用自編碼器對資料進行降維_論文“Reducing the Dimensionality of Data with Neural Networks”的筆記

前言 筆記 摘要:高維資料可以通過一個多層神經網路把它編碼成一個低維資料,從而重建這個高維資料,其中這個神經網路的中間層神經元數是較少的,可把這個神經網路叫做自動編碼網路或自編碼器(autoencoder)。梯度下降法可用來微調這個自動編碼器的權值,但是隻有在初始化權值較好時才能得到最優解,不然就

影象隱寫術分析論文筆記Deep learning for steganalysis via convolutional neural networks

好久沒有寫論文筆記了,這裡開始一個新任務,即影象的steganalysis任務的深度網路模型。現在是論文閱讀階段,會陸續分享一些相關論文,以及基礎知識,以及傳統方法的思路,以資借鑑。 這一篇是Media Watermarking, Security, and Forensi

Deep Learning 18DBM的學習及練習_論文Deep Boltzmann Machines”的筆記

前言       論文“Deep Boltzmann Machines”是Geoffrey Hinton和他的大牛學生Ruslan Salakhutdinov在論文“Reducing the Dimensionality of Data with Neural Networks”合作後的又一次聯合發表的一篇

課程一(Neural Networks and Deep Learning)總結Logistic Regression

pdf idt note hub blog bsp http learn gre -------------------------------------------------------------------------

On Deep Learning-Based Channel Decoding 論文筆記

摘要 我們重新考慮使用深度神經網路對隨機和結構化碼字(例如極性碼字)進行一次性解碼。 雖然可以為碼字族和短碼字長度實現最大後驗(MAP)誤位元速率(BER)效能,但我們觀察到(i)結構化碼字更容易學習和(ii)神經網路能夠生成在結構化訓練期間從未見過的碼字,而不是隨機碼字。 這些結果提供了一些證據,表明神經

How to do Deep Learning on Graphs with Graph Convolutional Networks

Observe that the weights (the values) in each row of the adjacency matrix have been divided by the degree of the node corresponding to the row. We apply th

Wide & Deep Learning for Recommender Systems 論文閱讀總結

Wide & Deep Learning for Recommender Systems 論文閱讀總結 文章目錄 Wide & Deep Learning for Recommender Systems 論文閱讀總結 Abstract

Deep Learning 36python中的一些函式

snrs, mods = map(lambda j: sorted(list(set(map(lambda x: x[j], Xd.keys())))), [1,0]) 上面這句話的意思是: Xd.keys()取出Xd中的鍵keys,形為('8PSK',-10),故snrs值為:sorted(list(set

Deep Learning 15RBM的學習

RBM是深度學習的核心,所以必須徹底清楚地理解RBM原理、推導及其訓練方法 1.讀學位論文“基於深度學習的人臉識別研究”: 對RBM、DBN的介紹比較詳細,可以作為基礎閱讀,再去讀英文論文。 2.RBM的推導: 講得非常清楚,第一重點推薦! 這個講很直白,感覺非常好!第二重點推薦,也不知道是

Deep Learning入門引數意義及對一些trick理解的總結

以下大部分都是在CIFAR10資料集使用tensorflow時獲得的經驗。 一、batch normalization batch normalization是以一個batch為整體進行歸一化,一般方法是(x-均值)/方差。 由於該方法能將圖片上的值的範圍變換致(-c,c)

機器學習(Machine Learning)與深度學習(Deep Learning)資料 之 相關論文和會議報告

介紹:對深度學習和representationlearning最新進展有興趣的同學可以瞭解一下介紹:主要是順著Bengio的PAMIreview的文章找出來的。包括幾本綜述文章,將近100篇論文,各位山頭們的Presentation。全部都可以在google上找到。介紹:20

論文deep Learning 深度學習合集

Deep Learning Very Deep Convolutional Networks for Large-Scale Image Recognition ICLR 2015 問題 網路模型不夠深 方法** 用3個 3x3的核 替換

深度學習乳腺論文Deep Multi-instance Networks with Sparse Label Assignment for Whole Mammogram

參考論文解析:https://blog.csdn.net/Coralccccc/article/details/73956702 論文翻譯:https://blog.csdn.net/u014264373/article/details/79581655 標題:Deep Multi-inst

#原始碼+論文# 三維點雲分割Deep Learning Based Semantic Labelling of 3D Point Cloud in Visual SLAM

from Deep Learning Based Semantic Labelling of 3D Point Cloud in Visual SLAM 超體素方法進行預分割,將點雲根據相似性變成表層面片(surface patches)降低計算複雜度。  

Deep Learning讀書筆記(三)Greedy Layer-Wise Training of Deep Networks

        接下來我們來說明下本篇文章的另一個主要工作,就是處理分類目標與輸入資料的分佈並沒有太大關聯的情況。問題的描述是這樣的,一個分類任務,輸入資料x服從分佈p(x),而分類目標可以表示為y=f(x)+noise,其中p與f並沒有特別明顯的關係。在這種設定下,我們並不能指望無監督學習對模型的學習有特別