1. 程式人生 > >[DeeplearningAI筆記]卷積神經網路1.4-1.5Padding與卷積步長

[DeeplearningAI筆記]卷積神經網路1.4-1.5Padding與卷積步長

4.1卷積神經網路

覺得有用的話,歡迎一起討論相互學習~Follow Me

1.4Padding

  • 一張66大小的圖片,使用33的卷積核設定步長為1,經過卷積操作後得到一個44的影象。

特徵圖大小公式

  • 設定原始影象大小為nn,卷積核大小為ff,則經過卷積操作後特徵圖大小為(nf+1)(nf+1)

不使用Padding的缺點

  • 經過卷積操作後圖像會縮小.
  • 如果你注意角落邊的畫素,則此畫素點只會被卷積核觸碰一次。即只會在第一次卷積操作時被卷積核掃描.這意味著會丟失影象邊緣的很多資訊.
  • 但是對於原始影象中心的畫素點,在每次卷積操作時都會被掃描。卷積核的感受野會掃描此位置多次.

使用Padding進行維度的填充

  • 為了使每次卷積操作後大小不會丟失,使用0填充在原始影象的外圍。
  • 假設p作為填充在原始影象外圍的Padding大小,則經過卷積操作後的特徵圖大小為(n+2pf+1)(n+2pf+1)

Padding填充大小公式

  • 如果需要使經過卷積後的特徵圖大小保持不變,則填充大小需要滿足公式n+2pf+1=np=(f1)2
  • 所以只要f即卷積核的邊長是奇數,則能保證輸出的特徵圖大小與原影象大小相等。

通常使用奇數維度的過濾器大小

  • 通常使用奇數維度的過濾器大小,這樣可以使SAME Padding後的影象有自然的填充而不是出現小數維度。
  • 奇數維度的卷積核具有中心點,便於指出過濾器的位置。

1.5卷積步長

示例

  • 在此例子中選擇77的影象,2作為步長,使用33的卷積核,最終得到一個33的特徵圖。

特徵圖大小公式

(n+2pf)s+1(n+2pf)s+1
* 其中n為原始影象大小,p為Padding填充維度,f為卷積核維度,s為步長
* 當出現得到的結果不是整數時,可以採用向下取整的方式使其維度為整數