1. 程式人生 > >影象分割之Light-Weight RefineNet

影象分割之Light-Weight RefineNet

論文:Light-Weight RefineNet for Real-Time Semantic Segmentation

Github:https://github.com/DrSleep/light-weight-refinenet

 

BMVC 2018

 

論文貢獻:

論文提出了RefineNet 的輕量化版本Light-Weight RefineNet ,針對實時分割任務,將速度從20FPS提升到了55FPS(GPU,512*512輸入,Mean IOU 81.1%,PASCAL VOC測試集)

 

網路結構:

(a)RefineNet 的總體網路結構,分為下采樣的encoder部分和上取樣的decoder部分。網路主要包含4個模組,RCU,CRP,FUSION,CLF。為了輕量化該網路,分別使用RCU-LW,CRP-LW。

FUSION-LW替換了原始網路的RCU,CRP,FUSION。通過後續的實驗作者又發現RCU對於網路的精度提升效果微弱,因此將RCU模組也去掉了。

為什麼去掉RCU模組,網路精度影響很小,因為

(1)雖然RCU模組中的3*3卷積使得網路具有更大的感受野,但是通過shortcut結構,底層特徵和高層特徵也可以共享。

(2)CRP模組也可以獲得上下文的資訊

可以從上圖看出,RCU模組對精度提升微弱,而CRP模組對精度提升明顯。

 

(b)RCU模組

(c)CRP模組

(d)FUSION模組

(e)RCU-LW模組,在原始結構的基礎上增加了1*1卷積,使得網路運算量減少

(f)CRP-LW模組,將原始的3*3卷積換為1*1卷積,在分割任務中,影響很小

(g)FUSION-LW模組,將3*3卷積換成1*1卷積

 

 

引數對比:

基於ResNet101的基礎結構的RefineNet,第一個為傳統的RefineNet,第二個為帶RCU的RefineNet,第三個為不帶RCU的RefineNet。可見RefineNet-101-LW相比RefineNet-101將引數量和運算量都大大降低。

 

實驗結果:

 

總結:

對於分割任務,可以使用1*1卷積替換3*3卷積來加速,並保證精度。