1. 程式人生 > >Cs231n課堂內容記錄-Lecture 5 卷積神經網路介紹

Cs231n課堂內容記錄-Lecture 5 卷積神經網路介紹

Lecture 5 CNN

課堂筆記參見:https://zhuanlan.zhihu.com/p/22038289?refer=intelligentunit

不錯的總結筆記:https://blog.csdn.net/sugar_girl/article/details/79108709

1.卷積核步長公式:(N-F+2*padding)/stride+1=new_N   

    N:原圖形寬,F:filter寬,padding:填充寬度

2.卷積核引數公式:5*5*3的10個filter:5*5*3+1(權重加上偏置,一個卷積核對應一個偏置,相當於一次wx+b運算),然後76*10

3.有時候我們會使用1*1卷積核,這樣做就是在深度上進行點積。

4.步長跟影象的解析度有關,當我們使用較大的步長,得到的圖片就是一個下采樣的結果,可以說等同於一種池化處理,但有時候比池化的效果更好。

5.步長跟影象的解析度有關,當我們使用較大的步長,得到的圖片就是一個下采樣的結果,可以說等同於一種池化處理,但有時候比池化的效果更好。

6.選用最大池化的原因:卷積結果的每一個值都表示該卷積區域對應神經元的啟用程度,或者該位置經卷積核處理後的啟用程度。那麼最大池化就表示,這組卷積核在影象任意區域的啟用程度(能達到的最大值)。在目標檢測任務中,最大池化是最直觀的,它能將影象最顯著的特徵凸顯出來。

7.全連線層的作用可以理解為回到了之前的樸素神經網路進行分類,我們不再需要空間結構,將卷積得到的結果一維展開然後進行評分和分類。

8.訓練CNN的demo網頁:

   同樣很好用,優點是將各層output以及filter可視化了,整個介面很友好。

   https://cs.stanford.edu/people/karpathy/convnetjs/demo/cifar10.html