1. 程式人生 > >[深度學習論文筆記][Image Classification] 影象分類部分論文導讀

[深度學習論文筆記][Image Classification] 影象分類部分論文導讀

[ImageNet]
• Over 15M labeled high resolution images.
• Roughly 22k categories.

• Collected from web and labeled by Amazon Mechanical Turk.

[ILSVRC (ImageNet Large-Scale Visual Recognition Challenge)]
• Annual competition of image classification at large scale.
• 1.2M training images, 50k validation images, and 150k testing images.
• 1k categories.
• Resolution of each image varies.
• Classification: make 5 guesses about the image label (top-5 error).

[Architectures] See Tab. 1.

AlexNet
• Deeper, bigger than LeNet.
• Featured conv layer stacked on top of each other (previously it was common to only have a single conv layer always immediately followed by a pool layer).
• First use of ReLU.
• Heavy data augmentation.

• Dropout.

ZFNet
• Improvement on AlexNet by tweaking the architecture hyperparameters.
• conv1: change from (11 × 11, s4) to (7 × 7, s2).
• conv3,4,5: instead of 384, 384, 256 filters use 512, 1024, 512.

GoogLeNet

• Inception Module that dramatically reduced the number of parameters in the network (4M, compared to AlexNet with 60M).
• Use global average pooling instead of fc.

VGGNet

• Depth of the network is a critical component for good performance.
• 3 × 3 conv and 2 × 2 pool only.
• More parameters (138M).

ResNet

• Skip connections.
• Heavy use of BN.

• Xavier/2 initialization.


相關推薦

[深度學習論文筆記][Image Classification] 影象分類部分論文導讀

[ImageNet] • Over 15M labeled high resolution images. • Roughly 22k categories.• Collected from web and labeled by Amazon Mechanical Turk

[深度學習] Image Classification影象分類之Bag of Tricks for Image Classification with Convolutional Neural Net

論文全稱:《Bag of Tricks for Image Classification with Convolutional Neural Networks》 論文地址:https://arxiv.org/pdf/1812.01187.pdf 這篇文章主要討論最近這些訓練神經網路的tric

[深度學習論文筆記][Visualizing] 網路視覺化部分論文導讀

There are several ways to understanding and visualing CNN 1 Visualizing Activations Show the activations of the network during the forwar

cs231n學習筆記第一天--------影象分類上下、Python基礎、線性分類------Python列表切片和numpy切片的區別

前言: 老規矩,前言的碎碎念還是得有的,cs231n的課之前就想刷來著,室友也一直盯著我,讓我刷,說我基礎太差,不刷不行,好好好,我來重拾一下,看看究竟用什麼方法,才能讓我堅持下去。 雖然自己也曾經呼叫過一些API,整天就是配環境,刷系統,改bug。 但是感覺這

論文筆記2】影象壓縮神經網路在Kodak資料集上首次超越JPEG——Full Resolution Image Compression with Recurrent Neural Networks

一、引言 這篇論文提出了一種基於神經網路的全解析度的有損影象壓縮方法,在變壓縮比的情況下無需重複訓練,所以說整個網路只需要訓練一次。論文的內容主要包括如下三個部分: (1)提出了三種影象壓縮框架,分別是基於LSTM的RNN網路、基於關聯LSTM(associative

深度學習keras的cnn做影象識別分類,準確率達97%

Keras是一個簡約,高度模組化的神經網路庫。可以很容易和快速實現原型(通過總模組化,極簡主義,和可擴充套件性)同時支援卷積網路(vision)和複發性的網路(序列資料)。以及兩者的組合。無縫地執行在CPU和GPU上。keras的資源庫網址為https://github.co

【神經網絡和深度學習筆記 - 第二章 反向傳播算法

討論 固定 特征 array sed 並不會 思想 隨機梯度 相關 上一章中我們遺留了一個問題,就是在神經網絡的學習過程中,在更新參數的時候,如何去計算損失函數關於參數的梯度。這一章,我們將會學到一種快速的計算梯度的算法:反向傳播算法。 這一章相較於後面的章節涉及到的數學

吳恩達-深度學習-課程筆記-3: Python和向量化( Week 2 )

有時 指數 檢查 都是 效果 很快 -1 tro str 1 向量化( Vectorization ) 在邏輯回歸中,以計算z為例,z = w的轉置和x進行內積運算再加上b,你可以用for循環來實現。 但是在python中z可以調用numpy的方法,直接一句z = np.d

吳恩達-深度學習-課程筆記-6: 深度學習的實用層面( Week 1 )

data 絕對值 initial 均值化 http 梯度下降法 ati lod 表示 1 訓練/驗證/測試集( Train/Dev/test sets ) 構建神經網絡的時候有些參數需要選擇,比如層數,單元數,學習率,激活函數。這些參數可以通過在驗證集上的表現好壞來進行選擇

吳恩達-深度學習-課程筆記-8: 超參數調試、Batch正則化和softmax( Week 3 )

erp 搜索 給定 via 深度 mode any .com sim 1 調試處理( tuning process ) 如下圖所示,ng認為學習速率α是需要調試的最重要的超參數。 其次重要的是momentum算法的β參數(一般設為0.9),隱藏單元數和mini-batch的

《Andrew Ng深度學習筆記1

優化 時代 信息 自變量 明顯 如果 特殊 結果 數據表 深度學習概論 1.什麽是神經網絡? 2.用神經網絡來監督學習 3.為什麽神經網絡會火起來? 1.什麽是神經網絡? 深度學習指的是訓練神經網絡。通俗的話,就是通過對數據的分析與計算發現自變量與因變量的映射關系(神

《Andrew Ng深度學習筆記2

時有 求和 計算過程 正是 並行 .com fun 使用 向量 神經網絡基礎 1.圖計算 計算時有兩種方法:正向傳播和反向傳播。正向傳播是從底層到頂層的計算過程,逐步推出所求公式。反向傳播是從頂層到底層,從已知的式子求出因變量的影響關系。 在這裏用到的反向傳播算法就是為

《Andrew Ng深度學習筆記3

過程 也看 9.png 簡化計算 邏輯 並且 str 初步 gpo 淺層神經網絡 初步了解了神經網絡是如何構成的,輸入+隱藏層+輸出層。一般從輸入層計算為層0,在真正計算神經網絡的層數時不算輸入層。隱藏層實際就是一些算法封裝成的黑盒子。在對神經網絡訓練的時候,就是對神經

《Andrew Ng深度學習筆記4

http 特征 span 維度 pac src 隨機 輸出 修正 淺層神經網絡 1.激活函數 在神經網絡中,激活函數有很多種,常用的有sigmoid()函數,tanh()函數,ReLu函數(修正單元函數),泄露ReLu(泄露修正單元函數)。它們的圖形如下: sigmoi

《Andrew Ng深度學習筆記5

學習 定義 模擬 div 思想 tps 軟件 clas class 深層神經網絡 深層神經網絡的組成如圖,這裏主要是深層神經網絡符號的定義。 為什麽要用深層神經網絡,有什麽好處?這裏主要是分層的思想。在軟件工程中,如果問題遇到困難,一般是通過“加多”一層的方法來解決,

TensorFlow-實戰Google深度學習框架 筆記(上)

當我 日誌 不一定 rain 如何 validate .config 存儲 構建 TensorFlow TensorFlow 是一種采用數據流圖(data flow graphs),用於數值計算的開源軟件庫。在 Tensorflow 中,所有不同的變量和運算都是儲存在計算圖

神經網路與深度學習課程筆記(第三、四周)

接著學習吳恩達老師第三、四周的課程。(圖片均來自吳恩達老師課件)   第三週 1. 普通的淺層網路                        

神經網路與深度學習課程筆記(第一、二週)

   之前結束了吳恩達老師的機器學習的15節課,雖然看得很艱辛,但是也算是對於機器學習的理論有了一個入門,很多的東西需要不斷的思考以及總結。現在開始深度學習的學習,仍然做課程筆記,記錄自己的一些收穫以及思考。   第一週 1. ReLU (Rectified

Elam的吳恩達深度學習課程筆記(一)

記憶力是真的差,看過的東西要是一直不用的話就會馬上忘記,於是乎有了寫部落格把學過的東西儲存下來,大概就是所謂的集鞏固,分享,後期查閱與一身的思想吧,下面開始正題 深度學習概論 什麼是神經網路 什麼是神經網路呢,我們就以房價預測為例子來描述一個最簡單的神經網路模型。   假設有6間

《TensorFlow:實戰Google深度學習框架》——6.1 影象識別中經典資料集介紹

1、CIFAR資料集 CIFAR是一個影響力很大的影象分類資料集,CIFAR資料集中的圖片為32*32的彩色圖片,由Alex  Krizhevsky教授、Vinod Nair博士和Geoffrey Hinton教授整理的。 CIFAR是影象詞典專案(Visual Dictionar