1. 程式人生 > >深度學習花書學習筆記 第九章 卷積網路

深度學習花書學習筆記 第九章 卷積網路

卷積運算

內積和外積中的內積被通常認為時卷積,可交換性是因為他經過了翻轉。但是神經網路中一般不應用翻轉。而是直接使用互相關函式:

S(i,j) = (I*K)(i,j) =\sum \sum I(i + m,j + n)K(m,n).

動機

三大特性:稀疏互動、引數共享、等變表示。

稀疏互動:核的大小遠小於輸入。相對於全連線,一個輸入項隻影響較少神經元,大大減少運算量。

引數共享:也叫繫結權重,每個核的權重不變,遍歷整個輸入。使我們只需要少量引數,

等變表示:卷積網路具有平移等變的性質。

池化

應用於卷積層和啟用層之後,調整輸出。使其更容易運算並具有一定的平移不變性。並在一些需要處理不同大小的輸入輸出時很有用。

主要有:maxpool、averagepool、ROI池化,前兩個就是取最大值和取均值,還有個取最多值的池化。特殊的是ROI池化,這裡簡單介紹一下:ROI:感興趣區域

ROI池化:將不同大小的ROI池化為相同大小。步驟如下:

  1. 根據輸入,將ROI對映到feature map上
  2. 根據輸出塊大小,將ROI區域劃分為大小相近的塊。比如輸出是2*2,就劃分為2*2塊,每塊大小相近
  3. 每塊進行max pooling

卷積與池化作為一種無限強的先驗

卷積:學得函式只包含區域性連線關係並具有平移不變性。

池化:每個單元都具有對少量平移的不變性。

當先驗不成立時不好用了就。

基本卷積函式的變體

padding方式:對最邊緣的資料進行填充以保持大小不變性。主要三種方式:

  1. valid方式:不填充,最終輸出影象m-k+1.
  2. same:填0保持輸入輸出大小不變。
  3. full:填0足夠多,保持每個畫素在每個方向被訪問k次,最終輸出影象看睹m+k-1.

平鋪卷積:

。。。

結構化輸出

意思就是能力強,可以輸出各種型別吧。。舉例是注意力模型。

資料型別

沒看懂表述的意義,就是說卷積網路可以處理不同尺度的輸入輸出唄。。金字塔模型麼比如。

高效的卷積演算法

一個d維的核可以表示為d個向量的外積時,表示其可分離。可以使用分離後矩陣代替,大大降低引數量,提高預算速度。inception網路採用了此方式。

隨機或無監督的特徵

三種方式:

  1. 簡單隨機化特徵核
  2. 人工設定,如sift特徵,銳化特徵等
  3. 使用無監督標準學習核。

已經不流行了,相對於監督訓練可以提供一些正則化,允許我們訓練更大的結構。

卷積網路的神經科學基礎

V1:初級視覺皮層。卷積網路主要覆蓋其三大特性:空間對映、簡單細胞、複雜細胞。

主流卷積神經網路介紹:

Fast-RCNN

相關推薦

深度學習學習筆記 網路

卷積運算 內積和外積中的內積被通常認為時卷積,可交換性是因為他經過了翻轉。但是神經網路中一般不應用翻轉。而是直接使用互相關函式: 動機 三大特性:稀疏互動、引數共享、等變表示。 稀疏互動:核的大小遠小於輸入。相對於全連線,一個輸入項隻影響較少神經元,大大減少運

Deep Learning 神經網絡

分享 http learn 卷積 網絡 info com alt image Deep Learning 第九章 卷積神經網絡

深度學習學習筆記 十一 實踐方法論

效能度量 根據任務需求,需要有不同的效能度量方式,常規度量方式如下: _ 真 假 認為真 true positive(TP) false positive(FP)

深度學習學習筆記 序列建模:迴圈神經網路

展開計算圖 就是將迴圈圖展開成展開圖而已。 迴圈神經網路   就是如上網路,將某一層不斷重複,輸出重新作為輸入的一部分。 雙向RNN 應用於上下文環境都影響結果的場景,如語音識別,文章翻譯等 基於編碼-解碼的序列到序列架構 可以將可變長度的輸入轉

深度學習學習筆記 十三 線性因子模型

線性因子模型通常用作其他混合模型的組成模組,用於描述資料生成過程。 各種線性因子模型的主要區別在先驗概率不一樣。概率PCA服從高斯先驗。 獨立成分分析不服從高斯先驗。其功能類似em演算法。用於分離特徵。區別? 慢特徵分析(SFA)源於慢性原則。 稀疏編碼可以進行特徵選擇。 PCA

深度學習學習筆記 十二 應用

大規模深度學習 首先深度學習之所以能夠在現在獲得大的突破,主要依靠於硬體技術的進步和大資料的發展。卷積神經網路需要的高併發,依賴於GPU的發展不斷進步,甚至已經有了很多專用裝置,如谷歌TPU,阿里和華為也都有最新針對AI演算法的晶片。 高併發時可能導致梯度下降出問題,目前多采用非同步梯度下降

深度學習學習筆記 深度前饋網路

深度前饋網路又稱多層感知機、前饋神經網路。即只有從x向y方向的傳播,最終輸出y。 主要包括輸入層、隱藏層和輸出層。神經網路的模型可以解決非線性問題。 計算網路的引數通過反向傳播;如果每一層隱藏層都只有wx+b的運算,則多層累加變為w1*(w2*(w3*x))+a = W*

深度學習學習筆記 深度模型中的優化

學習和純優化有什麼不同 我們期望降低的是期望泛化誤差,也叫風險。但是我們平時訓練時是以訓練誤差計算,俗稱經驗風險最小化。可能導致過擬合。 訓練方式: 當原問題較難運算時,可以計算對等問題,使用代理損失函式。但是提前終止演算法使用的是真實的損失函式一般。 當訓練資料過多

深度學習學習筆記 十五 表示學習

本章的表示學習主要就是通過無監督訓練學習特徵的意思。 這種沒有具體的演算法,就是介紹表示學習的應用和大概的分支,至於如何進行表示學習,沒有詳細介紹。感覺可以直接跳過。。 貪心逐層無監督預訓練 貪心演算法在無監督訓練中的應用,每層只關心當前,進行訓練。 無監督指低層訓練

增強學習筆記 On-Policy預測的近似

pro 沒有 線性規劃 學習 表格 定義 問題 symbol 方法 對於狀態空間太大的問題,表格類方法無法存儲這麽大的價值表,也沒有辦法窮盡這麽多的狀態。考慮到很多狀態是相似的,知道一個狀態的價值也就大概知道類似狀態的價值,因此可以采用函數近似的方法,函數近似是監督學習的一

CLR via C#學習筆記--參數和返回類型的設計規範

nbsp 其他 oid class style network ring enum 學習 9.5 參數和返回類型的設計規範 聲明方法的參數類型,應盡量指定最弱的類型,寧願要接口也不要基類。 例如寫方法來處理一組數據項,最好用接口,比如IEnumerable<T>

強化學習(RLAI)讀書筆記On-policy Prediction with Approximation

這一章學習使用on-policy的資料對狀態值函式進行逼近,也就是在策略下估計值函式。這一章的重點在於估計的值函式不是使用表格來表示而是使用引數w的函式形式。一般來說權重引數的數量是遠遠比狀態的數量要小的,而且改變一個權重的大小會影響到很多個狀態值的估計。於是一個值函式的更新會帶來很多其它值函式的改

C++ primer學習筆記—— 順序容器

一個容器就是一些特定型別物件的集合。順序容器為程式設計師提供了控制元素儲存和訪問順序的能力。 一、順序容器概述 順序容器型別 vector 可變大小陣列。支援快速隨機訪問。在尾部之外的位置插入或刪除元素可能很慢 deque 雙端佇列。支援快速隨機訪問。在

斯坦福大學-自然語言處理與深度學習(CS224n)筆記 八課 迴圈神經網路

課程概要 1、傳統語言模型 2、迴圈神經網路 3、例項(python) 4、RNN處理的一些技巧 5、針對其他任務的序列模型 6、總結 一、傳統語言模型 語言模型可以計算一些系列的單詞的概率P(w1,…,wT) 可以用來進行機器翻譯 單詞順序:p(the

深入淺出nodejs學習筆記-- 玩轉程序管理

node的一個最大特性就是單執行緒,單執行緒帶來的好處是不用像多執行緒程式設計那樣去考慮狀態的同步問題,也不用去擔心出現死鎖,也沒有執行緒上下文所帶來的效能的開銷。但是同時也帶來了一些問題,比如無法充分利用的多核CPU,執行緒會阻塞的問題。 但是node真的就

王小草【深度學習筆記四彈--神經網路與遷移學習

標籤(空格分隔): 王小草深度學習筆記 1. 影象識別與定位 影象的相關任務可以分成以下兩大類和四小類: 影象識別,影象識別+定位,物體檢測,影象分割。 影象的定位就是指在這個圖片中不但識別出有只貓,還把貓在圖片中的位置給精確地摳出來今天我們來講

演算法導論 學習筆記 中值和順序統計

本章其實只講了一個問題,那就是如何從一個數組當中用線性時間內找出第i個小的元素。 最小值和最大值 這個就比較簡單了,直接挨個比,執行時間就是線性的,而且這就是最好的辦法。 如何同時找出最小值和最大值咧? 這個其實也簡單,那就記錄兩個資料唄。執行時間是找

吳恩達機器學習)---神經網路

神經網路是非線性的分類演算法。模擬人類的神經系統進行計算。 1、原因 當特徵數很大的時候(比如100個),那麼在假設函式的時候要考慮太多項,包含x1x2,x1x3,x2x3等等,不能僅僅單個考慮x1,x2等,這樣一來,在擬合過程中的計算量就會非常大。 2、基本概念 其中,藍色的

《統計學習方法》 讀書筆記

第五章 決策樹 概述   1.可以認為是if-then的集合,也可以認為是定義在特徵空間與類空間上的條件概率分佈。   2.主要優點是模型具有可讀性,分類速度快。   3.包括三個步驟:特徵選擇、決策樹的生成和決策樹的修剪。 5.1 決策樹模

深度學習()之網路

卷積網路,也叫卷積神經網路(CNN),是一種專門依賴處理具有類似網路結構的資料的神經網路。卷積是一種特殊的線性運算。卷積網路是指那些至少在網路的一層中使用卷積運算來代替一般的矩陣乘法運算的神經網路。 9.1 卷積運算 在通常形式中,卷積是對兩個變體函式的一種數學運算。 假設我們正在用鐳射感測器追蹤一艘宇宙