1. 程式人生 > >卷積神經網路綜述

卷積神經網路綜述

卷積神經網路綜述

原理

原理參考1
原理參考2

相關模型

模型 年代 特點 結構 概念 相關程式碼
LeNet-5 90年代 LeNet-5 也能使用反響傳播演算法(backpropagation) ]訓練 ,三種類型的神經網路層 在這裡插入圖片描述 卷積層 ,池化層,池化層.1、卷積層、池化層和啟用函式層等操作是將原始資料對映到隱層特徵空間的話,2、全連線層則起到將學到的“分散式特徵表示”對映到樣本標記空間的作用
AlexNet 2012 1、使用了非線性啟用函式ReLu與Dropout方法2、由五層卷積和三層全連線組成,輸入影象為三通道224x224大小,網路規模遠大於LeNet 3、使用了Dropout,可以作為正則項防止過擬合,提升模型魯棒性
ZFNet 1、對AlexNet的改進首先在第一層的卷積核尺寸從11x11降為7x7,2、將卷積時的步長從4降至2。 3、這樣使中間的卷積層擴張從而可以捕捉到更多的資訊。
VGGNet 2014 網路的深度擴充套件到了19層,並且在每個卷積層使用了3x3這種小尺寸的卷積核。結果證明深度對網路效能有著重要影響 在這裡插入圖片描述
GoogleNet 2015 增加了網路的寬度與深度,並且相比於更窄更淺的網路,其在沒有明顯增多的計算量的情況下使網路效能明顯增強。 在這裡插入圖片描述 參考分析
ResNet ILSVRC 2015冠軍 層數變得更多, ResNet是 AlexNet的20多倍,是 VGGNet的8倍多,增加深度,網路便能夠利用增加的非線性得出目標函式的近似結構 , ResNet通過引入shortcut直連來解決梯度消失 在這裡插入圖片描述
DenseNet 每一層輸出都直連到後面的所有層,可以更好地複用特徵,每一層都比較淺,融合了來自前面所有層的所有特徵,並且很容易訓練 在這裡插入圖片描述
ResNeXt 2017 左邊為普通的resnet結構,而右邊為ResNeXt提出的結構,有點像inception+resnet。但是inception最後是拼接,而這裡是加,各個通道也是一模一樣的(很方便之後特徵圖相加)。 而ResNeXt和ResNet的主要區別就在於group操作 在這裡插入圖片描述
DPN 融合了ResNeXt和DenseNet的核心思想。分成左右兩個部分,第一部分類似DenseNet(因為加入了分組卷積,所以說是類似),第二部分是ResNeXt,對與中間的shortcut部分,由左右兩部分的特徵圖經過1x1卷積相加,然後經過3x3卷積,和1x1的卷積(這就是resnet的shortcut部分),然後對獲取的特徵圖分成兩部分,一部分和左邊類DenseNet對應特徵圖拼接,另一部分與右邊ResNeXt的特徵圖進行相加 在這裡插入圖片描述
目的 特點
卷積層 池化層是CNN的重要組成部分,通過減少卷積層之間的連線,降低運算複雜程度
池化層 Lp 池化:Lp池化是建立在複雜細胞執行機制的基礎上,受生物啟發而來
混合池化:受隨機Dropout [16] 和 DropConnect [28], Yu et al.啟發而來
隨機池化:隨機迴圈 [30] 是受 dropout啟發而來的方法
Spatial pyramid pooling:空間金字塔池化[26]可以把任何尺度的影象的卷積特徵轉化成相同維度,這不僅可以讓CNN處理任意尺度的影象,還能避免 cropping和warping操作,導致一些資訊的丟失,具有非常重要的意義
應用場景 應用模型
影象分類
物體檢測
物體追蹤
姿態估計
文字檢測
視覺顯著檢測
動作識別和場景標籤

加速訓練程序

方法 概述
SGD演算法

##問題

如何選擇合適的超引數?比如學習率、卷積過濾的核大小、層數等等