1. 程式人生 > >目標檢測SSD+Tensorflow 訓練自己的資料集

目標檢測SSD+Tensorflow 訓練自己的資料集

對原文的幾點解釋這說明:

1.程式碼地址:https://github.com/balancap/SSD-Tensorflow,下載該程式碼到本地

注:該程式碼是github上tensorflow版的SSD star 最多的程式碼.

2.解壓ssd_300_vgg.ckpt.zip 到checkpoint資料夾下

注:ssd_300_vgg.ckpt.zip在checkpoints資料夾下,直接解壓到checkpoints即可.

3.測試一下看看,在notebooks中建立demo_test.py,其實就是複製ssd_notebook.ipynb中的程式碼,該py檔案是完成對於單張圖片的測試,對Jupyter不熟,就自己改了,感覺這樣要方便一些。

注:建立demo_test.py,將下面的73行程式碼貼上到裡面即可使用.其中,第69行程式碼可以設定具體使用哪張影象進行測試.

4.將自己的資料集做成VOC2007格式放在該工程下面

注:直接將VOC2007資料夾貼上到SSD-Tensorflow資料夾下即可.

5. 修改datasets資料夾中pascalvoc_common.py檔案,將訓練類修改別成自己的

6.  將影象資料轉換為tfrecods格式.

7.執行tf_convert_data.py檔案

注:(1)在SSD-Tensorflow-master資料夾下建立tfrecords_資料夾

(2)在SSD-Tensorflow中執行終端terminal,在其上執行tf_convert_data.py檔案,命令如下:
SSD-Tensorflow$ python3 ./tf_convert_data.py  --dataset_name=pascalvoc  --dataset_dir=./VOC2007/   

--output_name=voc_2007_train --output_dir=./tfrecords_  

(3)其中:./VOC2007/ 為VOC資料儲存的資料夾(VOC的目錄格式未改變);./tfrecords_  為自己建立的儲存tfrecords資料的資料夾       

8.訓練模型train_ssd_network.py檔案中修改

9.通過載入預訓練好的vgg16模型,訓練網路

注:使用百度網盤,先轉存到自己的網盤下,再下載.

10.訓練

注:(1)在SSD-Tensorflow-master資料夾下建立train_model資料夾

在SSD-Tensorflow中執行終端terminal,在其上執行train_ssd_network.py檔案,命令如下:

SSD-Tensorflow$ python3 ./train_ssd_network.py --train_dir=./train_model/ --dataset_dir=./tfrecords_/ --dataset_name=pascalvoc_2007 --dataset_split_name=train --model_name=ssd_300_vgg  --checkpoint_path=./checkpoints/vgg_16.ckpt  --checkpoint_model_scope=vgg_16 --checkpoint_exclude_scopes=ssd_300_vgg/conv6,ssd_300_vgg/conv7,ssd_300_vgg/block8,ssd_300_vgg/block9,ssd_300_vgg/block10,ssd_300_vgg/block11,ssd_300_vgg/block4_box,ssd_300_vgg/block7_box,ssd_300_vgg/block8_box,ssd_300_vgg/block9_box,ssd_300_vgg/block10_box,ssd_300_vgg/block11_box  --trainable_scopes=ssd_300_vgg/conv6,ssd_300_vgg/conv7,ssd_300_vgg/block8,ssd_300_vgg/block9,ssd_300_vgg/block10,ssd_300_vgg/block11,ssd_300_vgg/block4_box,ssd_300_vgg/block7_box,ssd_300_vgg/block8_box,ssd_300_vgg/block9_box,ssd_300_vgg/block10_box,ssd_300_vgg/block11_box --save_summaries_secs=60  --save_interval_secs=600  --weight_decay=0.0005 --optimizer=adam  --learning_rate=0.001   --learning_rate_decay_factor=0.94 --batch_size=24 --gpu_memory_fraction=0.9  

11.其它問題可以參考原文和原始碼網頁上的網友留言.

相關推薦

目標檢測SSD+Tensorflow 訓練自己資料

對原文的幾點解釋這說明: 1.程式碼地址:https://github.com/balancap/SSD-Tensorflow,下載該程式碼到本地 注:該程式碼是github上tensorflow版的SSD star 最多的程式碼. 2.解壓ssd_300_vg

SSD Tensorflow訓練自己資料,遇到報錯absl.flags._exceptions.IllegalFlagValueError: flag --num_classes==: 求助

按照此部落格訓練到“五.訓練”這一步報錯。 連結:https://blog.csdn.net/Echo_Harrington/article/details/81131441   下面是bash 的   train.sh  檔案博主給的內容 D

TX2實現yolov2(目標檢測,計數,訓練自己資料

git clone https://github.com/pjreddie/darknet cd darknet 2.修改Makefile   我們開啟MakeFile檔案:    nano Makefile Makefile內容如下(我們

目標檢測SSD+Tensorflow資料為tfrecord

  用tensorflow做深度學習的目標檢測真是艱難困苦啊! 1.程式碼地址:https://github.com/balancap/SSD-Tensorflow,下載該程式碼到本地 2.解壓ssd_300_vgg.ckpt.zip 到checkpoint資料夾

新手學習使用TensorFlow訓練MNIST資料

前提是對TensorFlow有了基本的瞭解,還有神經網路相關知識最基礎的瞭解,下面直接用程式碼實現 import tensorflow as tf import numpy from tensorflow.examples.tutorials.mnist import input_data mn

使用pytorch版faster-rcnn訓練自己資料

使用pytorch版faster-rcnn訓練自己資料集 引言 faster-rcnn pytorch程式碼下載 訓練自己資料集 接下來工作 參考文獻 引言 最近在復現目標檢測程式碼(師兄強烈推薦F

《錯誤手記-01》 facenet使用預訓練模型fine-tune重新訓練自己資料報錯

環境資訊:windows10+python3.5+tensorflow1.6.0 問題描述: 在自己的訓練集上跑train_softmax.py.  引數: --logs_base_dir F:/work/runspace/log/  --models_base_

Kaldi中thchs30訓練自己資料的步驟

一、資料準備過程 網上下載的thchs-openslr資料集需要換成自己的資料集,包含兩個資料夾:data_thchs30和resource。下面講解如何搞定這一部分。 資料集在data_thchs30檔案中,包含四個部分(data、train、dev、test)。 data資料夾中包

Tensorflow訓練鳶尾花資料

圖片資料集:鳶尾花 (一共五個類別)  { 資料集連結:https://pan.baidu.com/s/1l86AiiVibPI03qWslEyqZA 密碼:oq5d } 程式程式碼如下: # -*- coding: utf-8 -*- from skimage im

TensorFlow訓練MNIST資料(3) —— 卷積神經網路

  前面兩篇隨筆實現的單層神經網路 和多層神經網路, 在MNIST測試集上的正確率分別約為90%和96%。在換用多層神經網路後,正確率已有很大的提升。這次將採用卷積神經網路繼續進行測試。 1、模型基本結構   如下圖所示,本次採用的模型共有8層(包含dropout層)。其中卷積層和池化層各有兩層。   在

深度學習(tensorflow) —— 自己資料讀取opencv

先來看一下我們的目錄: dataset1 和creat_dataset.py 屬於同一目錄 mergeImg1 和mergeImg2 為Dataset1的兩子目錄(兩類為例子)目錄中儲存影象等檔案 核心檔案creat_dataset.py 檔案如下#來生成訓練集和測試集的矩陣 im

yolov3訓練自己資料可參考文章

參考部落格原址: https://blog.csdn.net/u012966194/article/details/80004647 這篇文章將介紹編譯darknet框架開始,到整理資料集,到用yolo網路實現一個內部資料集中號碼簿的定

Yolov3訓練自己資料+資料分析

訓練自己到資料集已經在上一篇文中說明過了,這一篇著重記錄一下資料分析過程 資料分析 1. mAP值計算 1)訓練完成後,執行darknet官方程式碼中到 detector valid 命令,生成對測試集到檢測結果,命令如下: ./darknet detector va

【YOLO初探】之 keras-yolov3訓練自己資料

寫在前面 如何使用官方資料集參看上一篇文章《【YOLO初探】之 使用官方資料集做目標分類》 傳送門:https://blog.csdn.net/plSong_CSDN/article/details/85108256 這裡,筆者使用了260張訓練資料,完成了人臉中“眼睛”、“鼻子”、“嘴

目標檢測演算法SSD_訓練自有資料

基於Caffe框架的目標檢測演算法SSD–進行自有資料替換並訓練 主要步驟: 標籤資料預處理 圖片資料預處理 資料及標籤的VOC格式以及LMDB格式轉化 網路訓練 其他問題分析 1.標籤資料預處理 由於拿到的是YOLOv3格式的訓練集label,

Fast RCNN 訓練自己資料 (1編譯配置)

FastRCNN 訓練自己資料集 (1編譯配置) FastRCNN是Ross Girshick在RCNN的基礎上增加了Multi task training整個的訓練過程和測試過程比RCNN快了許多。別的一些細節不展開,過幾天會上傳Fast RCNN的論文筆記。FastRCNN mAP效能上略有上升。Fa

YOLOv3在訓練自己資料時的速度慢問題

YOLOv3以速度快著稱,但是在訓練自己的資料集時發現儘管在命令中同時開啟了多塊gpu,但速度仍舊很慢。按照其他人的訓練日誌可以看出64batch的單gpu訓練,每次迭代大約需要不到1秒但是自己在訓練時卻需要好幾個小時,首先想到的是自己的資料集是否圖片解析度太高,比較之後發現

FCN訓練自己資料(person-segmentation)、SIFT-FLOW、SBD和VOC實驗總結

最近花了將近一週的時間,基於提供的原始碼,通過參考網上的部落格,跑通了FCN在三個資料集上的訓練以及測試。在這裡寫下總結,即是記錄,又希望能夠對其他剛剛接觸FCN的人有所幫助。 FCN的原始碼地址:https://github.com/shelhamer/fcn.berkeleyvision.o

windows10+GPU下caffe資料Lmdb格式製作+訓練自己資料

最近做人臉識別專案,想用到caffe訓練自己的資料,電腦作業系統為win10+GPU,這裡對caffe-windows配置、資料集製作、訓練資料都做一些介紹。(無GPU配置的看我這個部落格)。如果你用的是vs2015,那麼下面介紹的caffe不適合,要用BVLC wind

如何利用caffe訓練自己資料

這篇博文主要參考了另一位博主https://blog.csdn.net/hellohaibo,在此向他表示感謝 首先,博主今天的caffe崩了,毫無徵兆的崩了,具體表現為博主想做一個更大的資料集,但是在生成lmbd檔案時永遠生成的是一個沒有名字的資料夾,可是博主已經在指定的example目錄裡寫了