1. 程式人生 > >卷積神經網路(CNN)標準模型分析(四)

卷積神經網路(CNN)標準模型分析(四)

卷積神經網路的變種模型

(一)卷積神經網路可以改變輸入的形式,比如說把一副影象的R、G、B三個通道看做一個整體輸入,並且採用3D的卷積核,建立3D卷積神經網路模型,以處理視訊影象。
(二)卷積神經網路可以採用重疊池化來進行下采樣,比如在AlexNet中就採用了重疊池化的技術。池化就是對矩陣資料進行分塊下采樣。在標準的卷積神經網路中,池化分塊是不允許重疊的。如果允許重疊,那麼將產生更大的下采樣層,學習演算法也要做相應的修改。此外,平均池化可以該用最大池化。

**(三)**CNN可以改變卷積層和下采樣層的交錯排列方式。也就是說,允許卷積層和卷積層相鄰,從而產生新的層間連線和計算方式。
**(四)**CNN可以採用修正線性單元(ReLU)、滲漏修正線性單元(LReLU)和引數化修正線性單元(PReLU)代替sigmoid單元,但在輸出層還可以採用softmax函式代替sigmoid函式以產生偽概率。

**(五)**CNN可以採用較小的卷積核。構造成一個相對較深的模型。eg:VGG網路一般採用大小為1*1和3*3的卷積核,可以使網路的深度達到16層或者是19層。此外,通過使用引數化修正線性單元代替修正線性單元,VGG網路被進一步發展成了MSRANet。CNN還可以採用小型多層感知器代替卷積核,建立更加複雜的網中網(NIN)模型。
CNN通過反覆堆疊具有維數約簡作用的“攝入模組”(其中卷積核的大小限制為1*1,3*3和5*5),可以在合理控制計算總量的條件下增加網路的深度和寬度,從而建立效能更好,但層數很多、結構看似複雜的網路模型,如GoogLeNet模型。
**(六)**CNN在通過某種策略產生足夠數量候選區域的基礎上(如2000個左右與類別獨立的候選區域),再提取每一個候選區域的特徵並進行精細定位和分類,就可以得到區域卷積神經網路(R-CNN或者RCNN)模型。區域卷積神經網路的一個缺點是隻能處理固定大小的輸入影象。為了克服這一個缺點,可以在區域卷積神經網路的最後一個卷積層和全連線層之間插入一個空間金字塔池化(SPP)層,建立空間金字塔池化(SPP-net)網路。···

最後值的一提的是殘差網路(ResNet),其目標是客服極深網路的訓練困難,其基本策略是在普通網路中每隔兩三層插入跨層連線,把原來的函式擬合問題轉化為殘差函式的學習問題。具有殘差結構的卷積神經網路在深度超過150層、甚至1000層時,也能夠得到有效的學習和訓練。

相關推薦

神經網路CNN標準模型分析

卷積神經網路的變種模型 (一)卷積神經網路可以改變輸入的形式,比如說把一副影象的R、G、B三個通道看做一個整體輸入,並且採用3D的卷積核,建立3D卷積神經網路模型,以處理視訊影象。 (二)卷積神經網路可以採用重疊池化來進行下采樣,比如在AlexNet中就採用

使用兩層神經網路來實現手寫數字集面向物件

介紹使用卷積神經網路來實現手寫數字集的識別 主要採用面向物件的變成方法實現, 程式碼可以直接執行,分別有訓練模型,儲存模型,和運用儲存好的模型測試單張圖片 import tensorflow as tf from tensorflow.examples.tutorials.mnist i

神經網路和自注意力機制實現QANet問答網路

歡迎大家關注我們的網站和系列教程:http://www.tensorflownews.com/,學習更多的機器學習、深度學習的知識! 在這篇文章中,我們將解決自然語言處理(具體是指問答)中最具挑戰性但最有趣的問題之一。我們將在Tensorflow中實現Google的QANet。就像它

C++神經網路例項:tiny_cnn程式碼詳解6——average_pooling_layer層結構類分析

  在之前的博文中我們著重分析了convolutional_layer類的程式碼結構,在這篇博文中分析對應的下采樣層average_pooling_layer類:  一、下采樣層的作用  下采樣層的作用理論上來說由兩個,主要是降維,其次是提高一點特徵的魯棒性。在LeNet-5

神經網路時間和空間複雜度分析

在深度學習的發展過程中,有意無意中,很多創新點都與改善模型計算複雜度密切相關。 因而,本文對CNN的時間和空間複雜度做以分析。 首先,明確下FLOPS和FLOPs的區別: FLOPS:注意全大寫,是floating point operations per second的縮寫,意指

Keras學習——CNN神經網路

本文主要介紹使用keras實現CNN對手寫資料集進行分類。 示例程式碼: import numpy as np from keras.datasets import mnist from keras.utils import np_utils from keras.models impo

神經網路CNN在語音識別中的應用

卷積神經網路(CNN)在語音識別中的應用 作者:侯藝馨 前言 總結目前語音識別的發展現狀,dnn、rnn/lstm和cnn算是語音識別中幾個比較主流的方向。2012年,微軟鄧力和俞棟老師將前饋神經網路FFDNN(Feed Forward Deep Neural Network)引入到聲學模

神經網路CNN_相關知識

斯坦福公開課 CS231n Convolutional Neural Networks for Visual Recognition : http://cs231n.stanford.edu/syllabus.html 網路引數初始化:https://www.cnblogs.com/yinheyi

神經網路CNN一之概念原理

  什麼是卷積神經網路呢?這個的確是比較難搞懂的概念,特別是一聽到神經網路,大家腦海中第一個就會想到複雜的生物學,讓人不寒而慄,那麼複雜啊.卷積神經網路是做什麼用的呢?它到底是一個什麼東東呢? 卷積神經網路的靈感源一種生物程序,其中神經元之間的聯結模式和動物視覺皮層組織非常相似。所以發明者把它叫做卷積神經網

DeepLearning.ai作業:(4-1)-- 神經網路Foundations of CNN

title: ‘DeepLearning.ai作業:(4-1)-- 卷積神經網路(Foundations of CNN)’ id: dl-ai-4-1h tags: dl.ai homework categories: AI Deep Learning d

DeepLearning.ai筆記:(4-1)-- 神經網路Foundations of CNN

title: ‘DeepLearning.ai筆記:(4-1)-- 卷積神經網路(Foundations of CNN)’ id: dl-ai-4-1 tags: dl.ai categories: AI Deep Learning date: 2018-09-

【6年人工智慧開發】簡述神經網路CNN

    在百度做了6年人工智慧方面的程式設計開發,也有很多這方面的經驗吧,從古至今,機器人一直承載著人類巨大的夢想。隨著各類感測器、語音互動、機器識別、SLAM等技術的蓬勃發展,機器人開始從科幻作品中走出

機器學習與深度學習系列連載: 第二部分 深度學習十一神經網路 2 Why CNN for Image?

卷積神經網路 2 Why CNN 為什麼處理圖片要用CNN? 原因是: 一個神經元無法看到整張圖片 能夠聯絡到小的區域,並且引數更少 圖片壓縮畫素不改變圖片內容 1. CNN 的特點 卷積: 一些卷積核遠遠小於圖片大小; 同樣的pat

深度學習方法神經網路CNN經典模型整理Lenet,Alexnet,Googlenet,VGG,Deep Residual Learning

歡迎轉載,轉載請註明:本文出自Bin的專欄blog.csdn.net/xbinworld。  技術交流QQ群:433250724,歡迎對演算法、技術感興趣的同學加入。 關於卷積神經網路CNN,網路和文獻中有非常多的資料,我在工作/研究中也用了好一段時間各種常見的model了,就想著

DeepLearning tutorial4CNN神經網路原理簡介+程式碼詳解

分享一下我老師大神的人工智慧教程!零基礎,通俗易懂!http://blog.csdn.net/jiangjunshow 也歡迎大家轉載本篇文章。分享知識,造福人民,實現我們中華民族偉大復興!        

神經網路CNN的前向和後向傳播

卷積神經網路CNN的前向和後向傳播 卷積運算與相關的區別 卷積運算的正向和反向傳播 原文 Forward And Backpropagation in Convolutional Neural Network地址: https://medium.

神經網路CNN的前向和後向傳播

卷積神經網路CNN的前向和後向傳播(二) padding=1,stride=1的情形 輸入為8x8和卷積核3x3 對輸入的求導 對卷積核的求導 本文在卷積神經網路CNN的前向和後向傳播(一)的基礎上做一些擴充套件

搭建簡單圖片分類的神經網路-- CNN模型與訓練

一、首先,簡單來說CNN卷積神經網路與BP神經網路主要區別在於: 1、網路的層數的多少(我這裡的CNN是比較簡單的,層數較少,真正應用的話,層數是很多的)。 2、CNN名稱來說,具有卷積運算的特點,對於大型的圖片或者數量多的圖片,卷積運算可以大量提高計算效能,而BP神經網路大都為全連線層,計

TensorFlow實戰:Chapter-4CNN-2-經典神經網路AlexNet、VGGNet

引言 AlexNet AlexNet 簡介 AlexNet的特點 AlexNet論文分析 引言

神經網路CNN基礎

CNN的基本結構 原文地址:https://www.jianshu.com/p/da0c4cc76a06 CNN分為幾層 CNN一共有卷積層(CONV)、ReLU層(ReLU)、池化層(Pooling)、全連線層(FC(Full Connection))下面是各個層的