1. 程式人生 > >論文筆記 | R-FCN: Object Detection via Region-based Fully Convolutional Networks

論文筆記 | R-FCN: Object Detection via Region-based Fully Convolutional Networks

Jifeng Dai,Yi Li,Kaiming He,Jian Sun
這裡寫圖片描述
代季峰
程式碼裡還有百度雲盤的連線,為國人考慮的真周到~
(更新,作者又給出了end2end版本,現有三版code 包括mxnet版: https://github.com/daijifeng001/R-FCN

Abstract

本文提供了region-based,fully convolutional networks,用於快速精確的目標檢測。Fast或者Faster在per-region的時候都需要subnetwork很多次,比如region通過fc層,本文希望可以將幾乎所有的計算都可以共享。提出了position-sensitive score maps來處理影象分類時的translation-invariance和目標識別時的translation-variance。R-FCN可以將ResNet等全卷積圖片分類器轉換為目標識別用。可以達到比faster rcnn快2.5-20倍。

1 Introduction

現有的目標檢測網路大多數分為兩部分:全卷積網路+RoIl之後的不再進行計算共享的網路。但是現在的state of the art 圖片分類的網路ResNet,googlenet都是全卷積網路(googLeNet在訓練時不是)。我們想在目標檢測方面也利用全卷積網路,但是之前的嘗試都是精度比較差,在ResNet的文章裡http://blog.csdn.net/bea_tree/article/details/51735788,插入了RoI pooling layer 提高了精度,可是卻降低了速度,因為在計算每一個RoI時計算不共享(下圖是fast的,faster多了RPN)。
這裡寫圖片描述


我們需要設定RoIl-wise subnetwork的原因是影象分類時的translation-invariance和目標識別時的translation-variance的矛盾:
1. 影象分類,希望圖片中的物體無論怎麼變化都可以被識別,深度卷積網路在這方面做的很好;
2. 在object detection中,物體的定位是需要translation-variance,比如目標變動的時候需要產生與candidate box的相應的合理關係。

Locally adaptive learning for translation-variant MRF image priors

而我們推測越深的卷積網路對於translation越不敏感。

本文提出了一種Region-based Fully Convolutional Network (R-FCN),其結構是FCN中的一種,為了將translation variance 包含進FCN,我們用FCN的輸出設計了一組 position sensitive score maps,它包含物體的位置資訊,其頂端設有RoI Poolinglayer 來處理位置資訊,之後再沒有權重層

2 our approach

這裡寫圖片描述
這裡寫圖片描述
骨架:ResNet101去掉global average和分類用的fc層,新增一個1024d的1x1conv layer來降低維度,然後加了k2(C+1)通道的conv layers 來產生 score maps。
Position sensitive score maps and RoI pooling:最後的卷積層對每一個類別都產生k^2個score maps,對於第(i,j)個pool bin裡數值資訊都只對應著第(i,j)個score map:
這裡寫圖片描述
之後計算平均分:這裡寫圖片描述之後計算softmax得分,用於計算cross-entropy loss及RoIs rank。
在之後的Bounding box regression也是類似,對每一個RoI產生一個4k2的向量,類似的最後使用平均voting產生一個4d向量,分別代表左上角座標及長和寬。
靈感來源:

J. Dai, K. He, Y. Li, S. Ren, and J. Sun. Instance-sensitive fully convolutional networks. arXiv:1603.08678,
2016.

Training 和fast rcnn類似,loss 分為兩部分:
這裡寫圖片描述
正例需要是與ground truth iou大於0.5的。
本文這種方法還可以比較容易的運用於online hard example mining。

A. Shrivastava, A. Gupta, and R. Girshick. Training region-based object detectors with online hard example
mining. In CVPR, 2016.

weight decay 0.0005
momentum 0.9
image:600 p
each GPU:1 image and selects B=128 ROIS for backprop
微調:0.001 lr for 20k mini-batches 0.0001 for 10k mini-batches
RPN:4 step alternating
Inference 如Faster rcnn, 我們估計了300個rois每張圖片,最後使用non-maximum suppression來postprocessed(0.3 IoU)
À trous and stride: 由ResNet101的32 p的stride變為16 pixels,增加了score map的解析度,前四個階段的stride不變,第五階段由stride=2變為1,其filter使用hole algorithm修改,其map可提高2.6個百分點:
這裡寫圖片描述

S. Mallat. A wavelet tour of signal processing. Academic press, 1999
L.-C. Chen, G. Papandreou, I. Kokkinos, K. Murphy, and A. L. Yuille. Semantic image segmentation with
deep convolutional nets and fully connected crfs. In ICLR, 2015.

為了便於與faster rcnn比較 其RPN由第4階段的輸出conv來計算。
visualization
這裡寫圖片描述

4 試驗對比

這裡寫圖片描述
VS Faster Rcnn
這裡寫圖片描述
深度的影響
這裡寫圖片描述
region proposals的影響
這裡寫圖片描述

5 conclusion

相關推薦

論文筆記 R-FCN: Object Detection via Region-based Fully Convolutional Networks

插一句,我又回來啦~ 這篇論文主要採用“位置敏感度圖”的方法,將FCN 網路引入到目標檢測中來,將影象分類和目標檢測很好地結合。因此這種方法可以和很多FCN中的影象分類框架結合,比如ResNets等,

論文筆記 | R-FCN: Object Detection via Region-based Fully Convolutional Networks

Jifeng Dai,Yi Li,Kaiming He,Jian Sun 代季峰 程式碼裡還有百度雲盤的連線,為國人考慮的真周到~ (更新,作者又給出了end2end版本,現有三版code 包括mxnet版: https://github.com

【深度學習:目標檢測】 RCNN學習筆記(11):R-FCN: Object Detection via Region-based Fully Convolutional Networks

轉自:http://blog.csdn.NET/shadow_guo/article/details/51767036 作者代季峰 1,14年畢業的清華博士到微軟亞洲研究院的視覺計算組,CVPR 16 兩篇一作的會議主持人同時公佈了原始碼~ 2 1. 簡介

R-FCN】《R-FCN: Object Detection via Region-based Fully Convolutional Networks

NIPS-2016 目錄 目錄 1 Motivation 2 Innovation 3 Advantages 4 Methods

R-FCN:Object Detection via Region-based Fully convolutional Networks && light-head RCNN

一、R-FCN   1、概述 本文作者Jifeng Dai,Yi Li,Kaiming He,Jian Sun。本文主要是在特徵的通道維度上分塊後,每一塊取空間上某一部分組合成新的feature map來解決分類需空間不變性和檢測任務需空間敏感性的矛盾。 R-FCN是在fa

R-FCN: Object Detection via Region-based Fully Convolutional Networks

       R-FCN 是一個two stage的目標檢測方法,先使用RPN(region proposal network)提取proposal資訊,這部分和faster RCNN是同樣的結構。在對物體進行具體分類和定位時,R-FCN在通過提出的位置敏感分數圖(posit

目標檢測--R-FCN: Object Detection via Region-based Fully Convolutional Networks

本文針對目標檢測問題,對候選區域進行分塊處理,以此來解決分類和檢測之間的一個矛盾:分類網路具有一定的平移不變性,而目標檢測需要對位置保持敏感性。a dilemma between translation-invariance in image classif

翻譯《R-FCN: Object Detection via Region-based Fully Convolutional Network》

Abstract 摘要   We present region-based, fully convolutional networks for accurate and efficient object detection. In contrast to p

論文筆記之《Event Extraction via Dynamic Multi-Pooling Convolutional Neural Network》

都是 全連接 級別 語義 泛化能力 最好 實現 相同 2.4 1. 文章內容概述 本人精讀了事件抽取領域的經典論文《Event Extraction via Dynamic Multi-Pooling Convolutional Neural Network》,並作出我的

論文閱讀筆記(六)Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

采樣 分享 最終 產生 pre 運算 減少 att 我們 作者:Shaoqing Ren, Kaiming He, Ross Girshick, and Jian SunSPPnet、Fast R-CNN等目標檢測算法已經大幅降低了目標檢測網絡的運行時間。可是盡管如此,仍然

論文閱讀筆記二十六:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks(CVPR 2016)

論文源址:https://arxiv.org/abs/1506.01497 tensorflow程式碼:https://github.com/endernewton/tf-faster-rcnn 摘要       目標檢測依賴於區域proposals演算法對目標的位置進

論文筆記】Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

寫在前面:      我看的paper大多為Computer Vision、Deep Learning相關的paper,現在基本也處於入門階段,一些理解可能不太正確。說到底,小女子才疏學淺,如果有錯

筆記】Faster-R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

論文程式碼:重要:訓練檔案.prototxt說明:http://blog.csdn.net/Seven_year_Promise/article/details/60954553從RCNN到fast R

[論文學習]《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

faster R-CNN的主要貢獻 提出了 region proposal network(RPN),通過該網路我們可以將提取region proposal的過程也納入到深度學習的過程之中。這樣做既增加了Accuracy,由降低了耗時。之所以說增加Accura

深度學習論文翻譯解析(十三):Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

論文標題:Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks   標題翻譯:基於區域提議(Region  Proposal)網路的實時目標檢測 論文作者:Shaoqing Ren, K

【Faster RCNN】《Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

NIPS-2015 NIPS,全稱神經資訊處理系統大會(Conference and Workshop on Neural Information Processing Systems),是一個關於機器學習和計算神經科學的國際會議。該會議固定在每年的12月舉行

Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

Abstract SPPnet和Fast R-CNN雖然減少了演算法執行時間,但region proposal仍然是限制演算法速度的瓶頸。而Faster R-CNN提出了Region Proposal Network (RPN),該網路基於卷積特徵預測每個位置是否為物體以及

【翻譯】Faster-R-CNN: Towards Real-Time Object Detection with Region Proposal Networks

摘要 目前最先進的目標檢測網路需要先用區域建議演算法推測目標位置,像SPPnet[7]和Fast R-CNN[5]這些網路已經減少了檢測網路的執行時間,這時計算區域建議就成了瓶頸問題。本文中,我們介紹一種區域建議網路(Region Proposal Network, R

顯著性檢測:'Saliency Detection via Graph-Based Manifold Ranking'論文總結

重要 效果 顏色空間 span 底部 圖1 mea gray log 對顯著性檢測的一些了解: 一般認為,良好的顯著性檢測模型應至少滿足以下三個標準: 1)良好的檢測:丟失實際顯著區域的可能性以及將背景錯誤地標記為顯著區域應該是低的; 2)高分辨率:顯著圖應該具有高分辨率或

論文筆記:Deep Attentive Tracking via Reciprocative Learning

  Deep Attentive Tracking via Reciprocative Learning NIPS18_tracking Type:Tracking-By-Detection 本篇論文地主要創新是在將注意機制引入到目標跟蹤 摘要:源自認知神經科學地視覺注意促進人類對相關的內