1. 程式人生 > >卷積神經網路:Dropout篇

卷積神經網路:Dropout篇

Dropout作用

    在hinton的論文Improving neural networks by preventing coadaptation提出的,主要作用就是為了防止模型過擬合。當模型引數較多,訓練資料較少時候,根據線性代數相關知識可以知道,當前模型可以非常完美的擬合我們的曲線。但該模型對測試資料集可能就沒有很好的表現了,也就是說訓練出的模型泛化能力很弱,我們稱之為過擬合。從文章題目通過阻止特徵檢測器的共同作用來提高神經網路的效能可以看出,網路在提取訓練集特徵時,捨棄掉了一部分特徵來提高網路的泛化能力。

基本認識

   Dropout用網路訓練時工作變化來定義的話,是指在模型訓練時隨機讓某些神經單元的權重停止本次更新,等下次訓練時就有可能更新,對與一層中每個神經單元來說,它們更新的概率是相同的。
   在hinton論文中沒有數學公式,只是作者直觀解釋:

     1. 網路中某層神經單元權值更新是等概率的,因此,不能保證相鄰的神經單元每次都更新,直觀解釋就是有些特徵不必完全依託於其他的特徵。舉個栗子:假如有5兄弟,老大和老二,老二和老三、、、相鄰兩個人才能完成一個任務,現在呢,我們把5兄弟放在黑屋子裡面,每次隨機選擇一個兄弟執行任務,如果完成不了就懲罰其他兄弟,同時被選中的大兄弟當面對自己這次沒有完成任務來自我反思(權值更新),在我們的逼迫下,進行了N次隨機選擇,發現5兄弟都能通過自我努力(權值更新)獨立完成任務。
     2. 論文講,把dropout看作是,針對每次batch_size大的樣本集訓練,對應的網路結構是不同的,但是呢,它們之間還可以共享權重,不同的樣本集合訓練出了不同的網路模型。最後,得出的網路模型是每次訓練的模型的“平均模型”。這種解釋還是不錯的^.^……
     3. 把dropout比作是貝葉斯,貝葉斯有個大前提(不一定對哈)所有的特徵是相互獨立的,訓練樣本較少時候,獨立學習每個特徵,測試時候將所有的特徵相乘。實際效果還不錯。
     4. 仿生物進化。適者生存,不斷適應環境的變化。

參考資料 及相關程式碼

  https://github.com/rasmusbergpalm/DeepLearnToolbox
 【面向程式碼】學習 Deep Learning(一)Neural Network
  http://www.cnblogs.com/tornadomeet/p/3258122.html

相關推薦

神經網路Dropout

Dropout作用 在hinton的論文Improving neural networks by preventing coadaptation提出的,主要作用就是為了防止模型過擬合。當模型引

李理神經網路Dropout

上文介紹了Batch Normalization技術。Batch Normalization是加速訓練收斂速度的非常簡單但又好用的一種實用技術,下面我們介紹可以提高模型的泛化能力的DropOut技術。4. Dropout4.1 Dropout簡介dropout是

機器學習筆記(十五)TensorFlow實戰七(經典神經網路VGG)

1 - 引言 之前我們介紹了LeNet-5和AlexNet,在AlexNet發明之後,卷積神經網路的層數開始越來越複雜,VGG-16就是一個相對前面2個經典卷積神經網路模型層數明顯更多了。 VGGNet是牛津大學計算機視覺組(Visual Geometry Group)和Google

機器學習筆記(十四)TensorFlow實戰六(經典神經網路AlexNet )

1 - 引言 2012年,Imagenet比賽冠軍的model——Alexnet [2](以第一作者alex命名)。這個網路算是一個具有突破性意義的模型 首先它證明了CNN在複雜模型下的有效性,然後GPU實現使得訓練在可接受的時間範圍內得到結果,讓之後的網路模型構建變得更加複雜,並且通過

機器學習筆記(十三)TensorFlow實戰五(經典神經網路 LeNet -5 )

1 - 引言 之前我們介紹了一下卷積神經網路的基本結構——卷積層和池化層。通過這兩個結構我們可以任意的構建各種各樣的卷積神經網路模型,不同結構的網路模型也有不同的效果。但是怎樣的神經網路模型具有比較好的效果呢? 下圖展示了CNN的發展歷程。 經過人們不斷的嘗試,誕生了許多有

機器學習筆記(十七)TensorFlow實戰九(經典神經網路ResNet)

1 - 引言 我們可以看到CNN經典模型的發展從 LeNet -5、AlexNet、VGG、再到Inception,模型的層數和複雜程度都有著明顯的提高,有些網路層數更是達到100多層。但是當神經網路的層數過高時,這些神經網路會變得更加難以訓練。 一個特別大的麻煩就在於訓練的時候會產

機器學習筆記(十六)TensorFlow實戰八(經典神經網路GoogLeNet)

1 - 引言 GoogLeNet, 在2014年ILSVRC挑戰賽獲得冠軍,將Top5 的錯誤率降低到6.67%. 一個22層的深度網路 論文地址:http://arxiv.org/pdf/1409.4842v1.pdf 題目為:Going deeper with convolu

deep learning 吳恩達 第四課第四周 神經網路 Face Recognition for the Happy House - v3

Face Recognition for the Happy House Welcome to the first assignment of week 4! Here you will build a face recognition system. Many of the ideas pre

神經網路常見的啟用函式

注意非線性函式部分(也稱為啟用函式),是神經網路中很重要的一個部分,但是即使我們把非線性函式部分去掉,直接相乘也可以得到類別得分,但是這樣就少了一些擾動(wiggle),影響泛化效能等。   Rectified Linear Unit(ReLU) - 用於隱層神經元輸出 Si

cs231n-(7)神經網路架構,層/池化層

卷積神經網路和普通神經網路非常類似。卷積神經網路由神經元組成,每個神經元包含權重weight和諞置bias;它接收上一層輸入,和權重相乘,通常再經過一個非線性函式(可選)輸出。整個網路擬合一個可微分的score function:從原始影象到每類別得分。在

神經網路Convolutional Neural Networks(CNN)

卷積神經網路是一種多層神經網路,擅長處理影象特別是大影象的相關機器學習問題。 卷積網路通過一系列方法,成功將資料量龐大的影象識別問題不斷降維,最終使其能夠被訓練。CNN最早由Yann LeCun提出並應用在手寫字型識別上(MINST)。LeCun提出的網路稱為LeNet,其網路結構如下: 這是一個最典

[深度學習]神經網路、池化、常見分類網路

卷積 全連線層:將卷積層所有的畫素展開,例如得到一個3072維的向量,然後在向量上進行操作。 卷積層:可以保全空間結構,不是展開成一個長的向量。 卷積操作:將卷積核從影象(或者上一層的feature map)的左上方的邊角處開始,遍歷卷積核覆蓋的所有畫素點。在每一個位置

輕量化神經網路SqueezeNet、MobileNet、ShuffleNet、Xception

一 引言 自2012年AlexNet以來,卷積神經網路(簡稱CNN)在影象分類、影象分割、目標檢測等領域獲得廣泛應用。隨著效能的要求越來越高,AlexNet已經無法滿足大家的需求,於是乎各路大牛紛紛提出效能更優越的CNN網路,如VGG,Goog

理解神經網路的利器9重要的深度學習論文(上)

本文將介紹過去五年內發表的一些重要論文,並探討其重要性。論文1—5涉及通用網路架構的發展,論文6—9則是其他網路架構的論文。點選原文即可檢視更詳細的內容。1.AlexNet(2012)AlexNet是卷積神經網路架構的起源(儘管可能會有人認為,1998年Yann LeCun發表的論文才是真正的開創性出版物)。

神經網路理解(一)濾波器的意義

歡迎大家關注我們的網站和系列教程:http://www.tensorflownews.com/,學習更多的機器學習、深度學習的知識! 荔枝boy 卷積神經網路的發展 卷積神經網路的重要性 卷積神經網路與影象識別 濾波器 一.卷積神經網路的發展

深度學習神經網路,啟用函式,池化

卷積神經網路——輸入層、卷積層、啟用函式、池化層、全連線層 https://blog.csdn.net/yjl9122/article/details/70198357?utm_source=blogxgwz3 一、卷積層 特徵提取 輸入影象是32*32*3,3是它的深度(即R

tensorflow基本教程8手寫體分類神經網路

import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data #number 1 to 10 data mnist=input_data.read_data_sets('MNIST_data'

機器學習與深度學習系列連載 第二部分 深度學習(十二)神經網路 3 經典的模型(LeNet-5,AlexNet ,VGGNet,GoogLeNet,ResNet)

卷積神經網路 3 經典的模型 經典的卷積神經網路模型是我們學習CNN的利器,不光是學習原理、架構、而且經典模型的超引數、引數,都是我們做遷移學習最好的源材料之一。 1. LeNet-5 [LeCun et al., 1998] 我們還是從CNN之父,LeCun大神在98年提出的模

機器學習與深度學習系列連載 第二部分 深度學習(十一)神經網路 2 Why CNN for Image?

卷積神經網路 2 Why CNN 為什麼處理圖片要用CNN? 原因是: 一個神經元無法看到整張圖片 能夠聯絡到小的區域,並且引數更少 圖片壓縮畫素不改變圖片內容 1. CNN 的特點 卷積: 一些卷積核遠遠小於圖片大小; 同樣的pat

機器學習與深度學習系列連載 第二部分 深度學習(十)神經網路 1 Convolutional Neural Networks

卷積神經網路 Convolutional Neural Networks 卷積神經網路其實早在80年代,就被神經網路泰斗Lecun 提出[LeNet-5, LeCun 1980],但是由於當時的資料量、計算力等問題,沒有得到廣泛使用。 卷積神經網路的靈感來自50年代的諾貝爾生物學獎