1. 程式人生 > >Coursera吳恩達《卷積神經網路》課程筆記(1)卷積神經網路

Coursera吳恩達《卷積神經網路》課程筆記(1)卷積神經網路

計算機視覺

計算機視覺問題

  • 圖片分類
    這裡寫圖片描述
  • 目標檢測
    這裡寫圖片描述

  • 畫風遷移
    這裡寫圖片描述

在大圖片上的深度學習

這裡寫圖片描述
如果採用傳統的全連線層,可能會導致引數巨大,導致無法進行計算。卷積神經網路由此產生

邊緣檢測的例子

這裡寫圖片描述
可以設計一些專用的filter來提取圖片的縱向邊緣和橫向邊緣
- vertical edges
這裡寫圖片描述

  • horizontal edges
    這裡寫圖片描述
    這些專用的filters是計算機視覺專家精心設計出來的,往往可以提取一些不錯的特徵,但每次人為去設計,可能不夠靈活。我們應該嘗試讓資料說話。也就說去學習一些filters
    這裡寫圖片描述

Padding元件

為什麼要引入Padding元件

  • 卷積操作會使輸出縮小太快
  • 卷積操作會導致輸出中只有極少數值會受到影象邊緣畫素的影響,這樣相當於丟失了一些邊緣畫素的資訊
    這裡寫圖片描述

Strided 元件

strided卷積的例子

這裡寫圖片描述

strided卷積的總結

這裡寫圖片描述

在立體上的卷積

在RGB影象上的卷積

這裡寫圖片描述

採用多個卷積filters

這裡寫圖片描述

單層卷積神經網路

單層神經網路的例子

這裡寫圖片描述

單層卷積神經網路的符號規定

這裡寫圖片描述

Pooling元件

  • Max Pooling(常用)
    這裡寫圖片描述
  • Average Pooling(不常用)
    這裡寫圖片描述

Pooling層總結

這裡寫圖片描述

  • 池化前後通道的數量不變
  • 池化層沒有需要學習的引數

    卷積神經網路層的型別

  • 卷積層

  • 池化層
  • 全連線層

一個完整的卷積神經網路的例子

這裡寫圖片描述

  • 引數主要集中在全連線層
  • 隨著層數的遞增,nHnW都是遞減的,nC是遞增的

為什麼卷積是有意義的

  • 引數共享:如果一個特徵探測器在影象的某個部分是有用的,那麼他很有可能在影象的另外的部分也是有用的
  • 稀疏連線:在每一層,每一個輸出中的只依賴一小部分的輸入