深度學習物體檢測(九)——物件檢測YOLO系列總結
YOLO ->SSD -> YOLO2路線是基於迴歸檢測進化路線,
一句話來描述 來描述進化過程:
YOLO:RCNN系列物件檢測太慢了,能快點嗎?
SSD :YOLO速度是上來了,可是mAP太低了?
YOLO2:結合YOLO和Faster RCNN網路各自快速和mAP高的優點,能滿足實時和較高的mAP的要求嗎?
YOLO摘要:
效能:22毫秒/張圖片,檢測結果是57.9%(mAP)
技術要點:圖片劃分為7*7的網格,各一個格子預測兩個目標,輸出為物件置信度+位置
SSD摘要:
效能:17毫秒/張圖片,檢測結果是73.9%(mAP)
技術要點:圖片劃分為8*8的網格 + anchors boxes + FCN,在不同層的feature map上使用3*3的滑窗,不同尺度檢測
YOLO2摘要:
效能:
(288*288圖片):11毫秒/張圖片,檢測結果是69%(mAP)
(544*544圖片):25毫秒/張圖片,檢測結果是78.6%(mAP)
技術要點:高解析度預訓練,卷積層上使用Anchor
boxes,先聚類緯度,約束位置預測範圍,細粒度特徵,多尺度訓練
YOLO將目標檢測任務轉換成一個迴歸問題,大大加快了檢測的速度,使得YOLO可以每秒處理45張影象。而且由於每個網路預測目標視窗時使用的是全圖資訊,使得false positive比例大幅降低(充分的上下文資訊)。但是YOLO也存在問題:沒有了region proposal機制,只使用7*7的網格迴歸會使得目標不能非常精準的定位,這也導致了YOLO的檢測精度並不是很高。
SSD結合了YOLO中的迴歸思想和Faster R-CNN中的anchor機制,使用全圖各個位置的多尺度區域特徵進行迴歸,既保持了YOLO速度快的特性,也保證了視窗預測的跟Faster R-CNN一樣比較精準。SSD在VOC2007上mAP可以達到72.1%,速度在GPU上達到58幀每秒。
YOLO2使用一系列的方法對YOLO進行了改進,在保持原有速度的同時提升精度得到YOLOv2。並提出了一種目標分類與檢測的聯合訓練方法,同時在COCO和ImageNet資料集中進行訓練得到YOLO9000,實現9000多種物體的實時檢測。