1. 程式人生 > >VDCN

VDCN

接受域 idt 很好 方式 png 部分 提高 上采樣 sca

提出SRCNN問題

  • context未充分利用
  • Convergence 慢
  • Scale Factor 訓練指定fator的模型再重新訓練其他fator的模型低效

context

對於更大的scale-fator 需要更大的receptive-field(接受域,也就是過濾器),如果接受域學習了這張圖像模式,也就能把這張圖像重建成超分辨率圖像,所以網絡第一層是過濾器是 3 x 3 *64

往後每層的filter 大小為 (2D+1,2D+1),D為網絡層數,第一層與最後一層的大小相同。

論文指出中央像素受周圍像素所約束,所以類似SRCNN等crop的方法,將會導致邊界信息不能很好的被周圍像素推斷,而作者則對input進行的padding再送入網絡,這樣也使得網絡輸出與輸入相同。

(這裏與SRCNN另外一個預處理方式不同的就是crop時不crop重疊部分)

Convergence

一張高分辨圖片包含了低頻信息(低分辨率圖片)與高頻信息(殘差圖像與圖像細節)

論文指出SRCNN收斂慢的原因可能是SRCNN重建HR(重建高頻信息)圖像時重建了低頻信息與高頻信息,重建低頻信息的過程類似自編碼器,而本文則直接重建高頻信息(殘差圖像與圖像細節)

技術分享圖片

設 x 為 低分辨率圖像, y 為高分辨率圖像 則 f(x) 為預測的 y 值,使用均方差損失函數

技術分享圖片

因為輸入與預測輸出有很大相似,所以定義 r = y - x ,則損失函數 為:

技術分享圖片

為了提高收斂速率,作者將學習速率初始化為 0.1 往後每20個epchos 降低 10倍,還使用了梯度剪枝

Single-Scale

大部分模型由指定的fator訓練,對於特定的fator就重新訓練,這很低效,作者把一個minibatch由不同縮放因子的64個sub-image組成放入網絡訓練,

訓練結果證明了由特定fator訓練的模型再更大的fator上測試性能不佳,而由多個fator上處理再訓練的模型,性能超過Bicubic

技術分享圖片

模型預處理方式與SRCNN大部分相同:bicubic先下采樣,後上采樣作為輸入圖像

VDCN