1. 程式人生 > >ECCV2018 Deep Regression Tracking with Shrinkage Loss 目標跟蹤收縮損失

ECCV2018 Deep Regression Tracking with Shrinkage Loss 目標跟蹤收縮損失

Deep Regression Tracking with Shrinkage Loss

論文下載地址:http://suo.im/4ThBkK

論文程式碼:https://github.com/chaoma99/DSLT

本論文是2018 ECCV。

 

提出問題:深度迴歸的跟蹤演算法現在得到了長足的發展,但是這些演算法的準確率和魯棒性比判別式相關濾波演算法要差一些。

解決問題:作者發現主要原因是迴歸網路在訓練的過程中前景和背景的資料不平衡造成的。

 

論文的主要貢獻:

1.提出了一個新的收縮損失來解決資料不平衡問題。

2.使用了殘差網路來融合多個卷積層和特徵響應圖。

3.在多個數據集上面測試取得了很好的結果。

 

相關工作:

1. 兩級跟蹤:主要是由兩部分組成,第一部分是候選區域的選取。第二部分是分類將前景和背景分出來。

2.一級跟蹤:直接將搜尋區域傳到網路裡面然後輸出跟蹤結果。

3.資料不平衡:深度迴歸跟蹤演算法很少關注資料不平衡問題,作者通過收縮損失函式來懲罰作用不大的簡單樣本,並保持硬樣本不改變。

 

網路結構:

從圖中可以看出,該演算法主要是由兩部分組成。虛線左邊的是VGG-16的前5 卷積層它的作用主要是用來提取影象特徵。虛線的右側就是殘差網路結構,融合卷積層輸出響應特徵圖。

 

卷積迴歸:

學習迴歸問題是為了最小化下面的公式:

我們通過最小化平方誤差來迭代更新W:

收縮損失:

在輸入的搜尋區域裡面目標的周圍包含了大量的背景資訊,雖然這些背景包含了大量的有價值的上下文資訊。但是背景資訊太多導致了大量簡單樣本的增加。這些容易的樣本會造成大的損失導致在學習過程中無法意識到有價值的樣本靠近目標。

P(大小是m*n)表示每次迭代的對映響應圖。p i,j∈P表示目標物件位置的概率。y表示真實值。

l 表示的是真實值與預測值之間的差別。

平方損失可以表示為:

增加一個調節因子γ來緩解資料不平衡問題:

這個就是focal loss。

我們觀察到效能對此引數不敏感,我們把γ設為1。focal loss就變成了L3 loss。

當 l<0.5 的時候可以用來懲罰簡單樣本。當 l>0.5的時候也會懲罰hard samples。

我們提出的演算法:

我們不使用絕對誤差 l 作為權重,而是提出了一個關於 l 的調整因子來重新加權平方損失,只懲罰簡單的樣本。

a和c是超引數用來控制收縮速度和區域性化。如下圖(a)所示a和b不同取值的情況。

當應用調製因子對平方損失進行加權時,建議的收縮損失如下:

如上圖(b)所示,我們的收縮損失和L2進行比較。當 l<0.5的時候我們的演算法只懲罰簡單樣本。當 l>0.5的時候不會懲罰hard samples。L3也就是focal loss則會對簡單樣本和hard samples都進行懲罰。

我們採用成本敏感的加權策略,並利用軟標籤的值作為重要因素,例如exp(Y),突出有價值的稀有樣本。總之,我們重寫了學習迴歸網路的收縮損失如下:

我們將a的值設為10以快速縮小權重函式,c的值為0.2以適應l的分佈,其範圍從0到1。

通過與其它損失的比較表明,所提出的收縮損失不僅提高了跟蹤精度,而且加快了訓練速度。

 

殘差網路結構:

本文殘差網路結構的詳細說明。

 

評價結果:

有什麼沒講完整的還請大家指出來。