1. 程式人生 > >深度學習物體檢測(九)——物件檢測YOLO系列總結

深度學習物體檢測(九)——物件檢測YOLO系列總結

YOLO ->SSD  -> YOLO2路線是基於迴歸檢測進化路線,

一句話來描述 來描述進化過程:

YOLO:RCNN系列物件檢測太慢了,能快點嗎?

SSD :YOLO速度是上來了,可是mAP太低了?

YOLO2:結合YOLO和Faster RCNN網路各自快速和mAP高的優點,能滿足實時和較高的mAP的要求嗎?

YOLO摘要:

效能:22毫秒/張圖片,檢測結果是57.9%(mAP)

技術要點:圖片劃分為7*7的網格,各一個格子預測兩個目標,輸出為物件置信度+位置

SSD摘要:

效能:17毫秒/張圖片,檢測結果是73.9%(mAP)
技術要點:圖片劃分為8*8的網格 + anchors boxes + FCN,在不同層的feature map上使用3*3的滑窗,不同尺度檢測

YOLO2摘要:

效能:

(288*288圖片):11毫秒/張圖片,檢測結果是69%(mAP)

(544*544圖片):25毫秒/張圖片,檢測結果是78.6%(mAP)

技術要點:高解析度預訓練,卷積層上使用Anchor boxes,先聚類緯度,約束位置預測範圍,細粒度特徵,多尺度訓練

YOLO將目標檢測任務轉換成一個迴歸問題,大大加快了檢測的速度,使得YOLO可以每秒處理45張影象。而且由於每個網路預測目標視窗時使用的是全圖資訊,使得false positive比例大幅降低(充分的上下文資訊)。但是YOLO也存在問題:沒有了region proposal機制,只使用7*7的網格迴歸會使得目標不能非常精準的定位,這也導致了YOLO的檢測精度並不是很高。

SSD結合了YOLO中的迴歸思想和Faster R-CNN中的anchor機制,使用全圖各個位置的多尺度區域特徵進行迴歸,既保持了YOLO速度快的特性,也保證了視窗預測的跟Faster R-CNN一樣比較精準。SSD在VOC2007上mAP可以達到72.1%,速度在GPU上達到58幀每秒。

YOLO2使用一系列的方法對YOLO進行了改進,在保持原有速度的同時提升精度得到YOLOv2。並提出了一種目標分類與檢測的聯合訓練方法,同時在COCO和ImageNet資料集中進行訓練得到YOLO9000,實現9000多種物體的實時檢測。