1. 程式人生 > >驗證性試驗:yolov3訓練coco資料集

驗證性試驗:yolov3訓練coco資料集

Yolov3 中作者列出了使用coco資料集訓練的資料結果,其中顯示在輸入圖片大小為416x416的時候,模型的mAP大小為31%,當輸入圖片大小為608x608的時候,模型的mAP達到33%,論文中結果截圖如下:

我們做了個實驗,目的是驗證當我們自己訓練的時候能否達到論文中的給出的結果,判斷我們平時訓練的方法是否有問題。

這裡使用了3塊TITAN X顯示卡進行實驗,batch設定為128,subdivision為32,其他max_batches沒有改,按原來的設為500200,其他的不變。計算mAP使用的是cocoAPI(估計作者也是用的這個,使用detector valid這個命令可以直接將測試結果生成為cocoAPI所需要的json格式,thresh設定為0.001)

1、前期訓練:

./darknet detector train cfg/coco.data cfg/yolov3.cfg darknet53.conv.74 -gpus 0,1,2 | tee -a yolov3-coco-log.txt

PS:   儲存log會拖慢訓練的速度 

然後提取log中的loss,解析並畫出loss的曲線,曲線如下:

可以看到訓練到後面的時候loss 基本就不在降低了,但是模型的mAP 只有25左右,遠遠還沒達到論文中寫的31%

2、不儲存log,邊訓練邊測試mAP

測試的結果如下:

Steps AP AP50 AP75 APS
APM APL
105700 26 50.1 24.8 9.3 27.3 40.5
120000 26.7 50 26.6 9.9 28 41.3
123000 26.4 50.3 25.4 9.3 28 40.5
126000 26.9 50.7 26.3 10 28.8 41.3
129000 26.1 49.3 25.2 9.6 28 39.7
132000 26.7 50.5 25.8 10.6 28.7
39.9
135000 26.6 50.8 25.4 9.8 28 41.3
136600 25.8 48.5 24.9 8.9 27.8 40.1
139300 26.8 50.7 25.9 9.9 28.7 41.8
139500 26.6 50.2 25.8 10 27.5 42.3
141000 27.2 50.9 26.8 10.7 28.6 42
144500 26.2 51.5 24.2 11 28.5 39.1
148500 27.1 51.1 26.3 10.2 29.1 41.4
152500 26.7 49.8 26 10.4 27.2 42.5
156500 26.9 50.8 25.8 10.4 27.8 42.2
160500 26.7 49.9 26.3 9.8 28.1 42
164500 27.3 51.3 26.9 10.3 29.7 41.2
168500 27.7 51.4 27.7 10.4 30.1 41.5
172500 27.7 51.3 27.5 10.7 29.7 42.2
176500 27.3 51.7 26.6 10.5 30 41
180500 27.5 51.6 26.7 10.3 29.5 42.4
184500 27.9 51.2 27.5 9.9 30.2 42.9
188500 26.9 50.5 26.2 10 28.8 40.9
192500 28 52.2 27.5 11 29.4 42.1
196500 26.9 50.2 26.2 10.5 29.4 40.5
200500 27.1 50.7 27 9.9 29.8 41.1
204500 27.4 51.8 26.7 10.4 29.4 41.7
208500 27.1 50.5 26.2 10.7 28.9 41.8
212500 26.9 51.5 26 11 28.8 40.8
216500 28 51.5 28.1 10.9 30.1 41.7
220500 27.3 50.2 27 10.2 29.9 41.7
224500 27.6 51.8 27.2 11 30.1 41.9
228500 28.4 52.2 28.1 10.7 31 43.1
232500 27.8 51.4 27.6 10.8 30.4 41.8
236500 28.3 52.1 28.2 11.2 30.8 42.6
240500 28.1 51.1 28.1 11 30.8 42.3
244500 27 50.2 26.7 10 29.2 41.4
248500 27.9 52.2 27.3 11.4 29.3 42.4
252500 27.4 52.1 26.3 11.3 30 41.3
256500 27.9 52.1 27.6 9.8 29.1 44.8
262500 28.2 51.5 28.4 11.1 30.9 43.1
266500 28.3 52.2 27.8 11.2 30.2 43.6
270500 28.5 52.1 28.5 11.6 30.5 43.2
274500 27.9 51.4 27.6 11.1 29.3 43.4
278500 28.7 51.9 29 10.9 31.4 43.4
282500 27.7 51.2 27.2 11 30.2 42.1
286500 29 52.4 29.3 11.4 31 44.3
290500 28.1 51.5 27.6 11.2 30.7 43.2
294500 28.6 52.6 28.7 12.2 30.9 42.4
298500 27.5 50.8 27.1 10.6 30.2 41.8
302500 28.6 52 28.7 12.2 30.8 42.8
306500 28.2 51 28.6 11.2 30.7 42.6
310500 28.1 52.5 27.8 11.3 30.5 42.7
314500 28.6 52.5 28.3 11.9 30.7 44.1
317500 28.1 51.4 28.2 11.4 30.5 42.5
323500 28.7 51.9 29.1 11.8 31.3 43.6
326500 27.3 50.5 27.5 10.6 30.2 41.3
329500 28.9 52 29.3 11.3 30.6 45.1
332500 29 52.8 29.2 11.1 31.2 44.6
335500 28.6 52 29 10.9 31.8 43.6
338500 28.9 53.1 28.9 12.2 30.8 44.1
341500 28.9 52.2 29 11 30.9 44.3
344500 29.6 53 30 11.9 32.1 44.1
347000 28.6 52.8 28.2 10.8 31.5 43.9
351000 28.6 52 28.9 11.2 31.3 43.4
355000 28.7 53.2 28.1 11.6 30.4 43.4
359000 29.3 53.3 29.3 13 30.8 44
363000 28.1 51.3 27.8 11.1 30.2 42.5
367000 29.5 52.6 29.9 11.7 31.7 44.1
369500 28.7 52.8 28.8 11.3 31.7 43.4
372500 28 50.6 28.5 9.8 31.1 43.5
375500 28.8 52.2 29.3 12.3 31.2 43.2
378500 29.2 53.1 29.4 11.9 31 44.4
381500 28.1 50.8 28.3 10.9 30.8 42.2
384500 28.8 52.8 28.9 11.4 31.7 43.1
387500 28.1 52.8 28.2 11.5 31.6 41.1
390500 29.4 52.6 30 11 32.1 45
393500 29.1 52.6 29.3 11.5 31.5

相關推薦

驗證試驗yolov3訓練coco資料

Yolov3 中作者列出了使用coco資料集訓練的資料結果,其中顯示在輸入圖片大小為416x416的時候,模型的mAP大小為31%,當輸入圖片大小為608x608的時候,模型的mAP達到33%,論文中結果截圖如下: 我們做了個實驗,目的是驗證當我們自己訓練的時候

yolov3 訓練coco資料(cuda8.0-gxt1080)

1. train遇到這個問題:已放棄Resizing 608 CUDA Error: out of memory darknet: ./src/cuda.c:36: check_error: Assertion `0' failed.百度的說法是gpu架構和作者預設使用的不一

yolov3訓練自己資料可參考文章

參考部落格原址: https://blog.csdn.net/u012966194/article/details/80004647 這篇文章將介紹編譯darknet框架開始,到整理資料集,到用yolo網路實現一個內部資料集中號碼簿的定

Yolov3訓練自己資料+資料分析

訓練自己到資料集已經在上一篇文中說明過了,這一篇著重記錄一下資料分析過程 資料分析 1. mAP值計算 1)訓練完成後,執行darknet官方程式碼中到 detector valid 命令,生成對測試集到檢測結果,命令如下: ./darknet detector va

【YOLO初探】之 keras-yolov3訓練自己資料

寫在前面 如何使用官方資料集參看上一篇文章《【YOLO初探】之 使用官方資料集做目標分類》 傳送門:https://blog.csdn.net/plSong_CSDN/article/details/85108256 這裡,筆者使用了260張訓練資料,完成了人臉中“眼睛”、“鼻子”、“嘴

YOLOv3訓練WIDER_FACE資料

- 剛開始想訓練的時候忘了百度一下沒有沒可以直接轉換的指令碼。。。就自己寫了。。。- 後來發現網上的轉換指令碼基本都是把 WIDER_FACE先轉換成VOC再用yolo提供的準換工具,轉成yolo所需格式。。。- 自己寫的是直接轉成yolo所需的格式的,版本python3.6

win10 下的YOLOv3 訓練 wider_face 資料檢測人臉

1、資料集下載 (1)wider_face 資料集網址為 http://shuoyang1213.me/WIDERFACE/index.html      下載以上幾項檔案(這裡推薦 google Drive 百度雲在沒有會員的情況下,下載太慢) (2)將檔案解壓到各自獨立的資料夾   

世上最詳細,使用DarknetYolov3訓練資料

這篇文章是markdown的碼,看下一篇文章裡面格式正確:我發現有三篇博文寫的不錯,貼給大家:https://blog.csdn.net/lilai619/article/details/79695109https://blog.csdn.net/hrsstudy/artic

YOLOV3 COCO資料訓練出錯

./src/network.c:402: resize_network: Assertion `0' faileddiff --git a/src/network.c b/src/network.cindex aaab799..ad3b71a 100644--- a/src/

基於keras的YOLOv3在VOC資料訓練測試

一、編譯環境 windows7 Anaconda+python3.6+keras+tensroflow+pyCharm 二、步驟 測試 從上文第二個github上下載工程,並用

使用coco資料,faster rcnn類方法訓練出錯解決

問題:在caffe框架下,使用coco資料集進行faster rcnn類方法訓練,得到如下錯誤:  File "/data/zn/light_head_rcnn/script/py-RFCN-priv/tools/../lib/rpn/anchor_target_layer.

Faster-R-CNN(Python).2COCO資料annotation內容

[{"supercategory": "person", "id": 1, "name": "person"}, {"supercategory": "vehicle", "id": 2, "name": "bicycle"}, {"superca

YOLOv3訓練自己資料時的速度慢問題

YOLOv3以速度快著稱,但是在訓練自己的資料集時發現儘管在命令中同時開啟了多塊gpu,但速度仍舊很慢。按照其他人的訓練日誌可以看出64batch的單gpu訓練,每次迭代大約需要不到1秒但是自己在訓練時卻需要好幾個小時,首先想到的是自己的資料集是否圖片解析度太高,比較之後發現

ML之分類預測之ElasticNet之PLoR在二分類資料上呼叫Glmnet庫訓練PLoR模型(T2)

ML之分類預測之ElasticNet之PLoR:在二分類資料集上呼叫Glmnet庫訓練PLoR模型(T2) 輸出結果         設計思路   核心程式碼 for iStep in range(

深度學習實踐經驗用Faster R-CNN訓練Caltech資料——訓練檢測

前言 前面已經介紹瞭如何準備資料集,以及如何修改資料集讀寫介面來操作資料集,接下來我來說明一下怎麼來訓練網路和之後的檢測過程。 修改模型檔案 faster rcnn有兩種各種訓練方式: Alternative training(alt-opt)

DL之NNNN演算法(本地資料50000張訓練圖片)進階優化之三種引數改進,進一步提高手寫數字圖片識別的準確率

首先,改變之一:先在初始化權重的部分,採取一種更為好的隨機初始化方法,我們依舊保持正態分佈的均值不變,只對標準差進行改動,初始化權重改變前, def large_weight_initializer(self): self.biases = [np.ran

Yolov3程式碼分析與訓練自己資料

   現在要針對我們需求引入檢測模型,只檢測人物,然後是影象能側立,這樣人物在裡面佔比更多,也更清晰,也不需要檢測人佔比小的情況,如下是針對這個需求,用的yolov3-tiny模型訓練後的效果。      Yolov3模型網上也講爛了,但是總感覺不看程式碼,不清楚具體實現看講解總是不清晰,在這分

COCO資料的標註格式

COCO的 全稱是Common Objects in COntext,是微軟團隊提供的一個可以用來進行影象識別的資料集。MS COCO資料集中的影象分為訓練、驗證和測試集。COCO通過在Flickr上搜索80個物件類別和各種場景型別來收集影象,其使用了亞馬遜的Mechanical Tu

處理coco資料-語義分割

PythonAPI/cocoSegmentationToPngDemo.py函式是用來做語義分割的,參考這裡https://blog.csdn.net/qq_33000225/article/details/78985635?utm_source=blogxgwz2 由於我用的是2017資料

【MNIST/Python】手寫體數字訓練/測試資料(圖片格式)下載及分割預處理

MNIST手寫體數字資料集 MNIST是一個手寫數字資料庫,它有60000個訓練樣本集和10000個測試樣本集 由Yann LeCun等人建立,是NIST資料庫的一個子集 官方網址連結:Link 官網上的資料庫檔案形式如下: train-images-idx3-ubyte.