1. 程式人生 > >深度學習理論——批量測試自己的圖片

深度學習理論——批量測試自己的圖片

大家猴!

這篇是針對我自己實驗室的一個硬體配置情況的一個教程,其他人看的話可能不太符合。

批量測試首先需要的是st_ssd中的ssd_detect_image.py。點開以後發現要配置的地址資訊為

1. labelmap_file:需要把裡面修改成自己的標籤種類資訊

2. model_def:放置deploy檔案

3. model_weights:放置訓練好的caffemodel

4. src_image_dir:放置需要批量測試的圖片

5.dst_image_dir:放置測試後儲存的圖片

需要注意的是同時需要在labelmap的地址那裡放上test_name_size.txt,裡面含有所有圖片的名字和尺寸資訊,需要提前生成一下。

謹防忘記,我們下期見!

相關推薦

深度學習理論——批量測試自己圖片

大家猴! 這篇是針對我自己實驗室的一個硬體配置情況的一個教程,其他人看的話可能不太符合。 批量測試首先需要的是st_ssd中的ssd_detect_image.py。點開以後發現要配置的地址資訊為 1. labelmap_file:需要把裡面修改成自己的標籤種類資訊

深度學習框架Caffe學習筆記(6)-測試自己的手寫數字圖片

在之前的實驗中我們使用過 $ ./build/tools/caffe.bin test \ -model examples/mnist/lenet_train_test.prototxt \ -weights examples/mnist/lenet_it

深度學習批量圖片資料增強

在之前的文章中,分別對資料增強的方法以及庫函式進行了介紹,本文將結合實際應用進行批量圖片的資料增強。 背景:專案採集的是灰度圖,原資料只有不到20張圖片,因此,選擇資料增強的方法,通過不同變換方法的組合,實現資料增加的百張以上,這樣才可以放入深度學習模型進行訓練(利用遷移學習)。 話不多

深度學習入門專案完整流程——圖片製作資料集、訓練網路、測試準確率(TensorFlow+keras)

首先將訓練的圖片和標籤製作成資料集,我用的是numpy庫裡的savez函式,可以將numpy陣列儲存為.npz檔案(無壓縮,所以檔案較大)。 import cv2 as cv import numpy as np import os import glob #調整影象的大小、製作資

深度學習理論

lan file sta IT 深度 hub target eth pub https://stats385.github.io/readings https://www.nari.ee.ethz.ch/commth//pubs/files/deep-2016.pdf深度

快速入門——深度學習理論解析與實戰應用

1. 前言   說實話,我也是一個美劇迷,特別是一些燒腦的美劇,更是一追再追。前端時間,《西部世界》第二季也完結了。我一鼓作氣,看完之後,大呼過癮,深深地被其中栩栩如生的人工智慧機器人所吸引。不禁感嘆:現實世界真的會出現這樣厲害的人工智慧嗎?   這雖然是一個看似

深度學習(tensorflow) —— 自己資料集讀取opencv

先來看一下我們的目錄: dataset1 和creat_dataset.py 屬於同一目錄 mergeImg1 和mergeImg2 為Dataset1的兩子目錄(兩類為例子)目錄中儲存影象等檔案 核心檔案creat_dataset.py 檔案如下#來生成訓練集和測試集的矩陣 im

深度學習(tensorflow) —— 自己數據集讀取opencv

spa 屬於 有效 測試 大小 打開文件 需要 深度學習 ray 先來看一下我們的目錄: dataset1 和creat_dataset.py 屬於同一目錄 mergeImg1 和mergeImg2 為Dataset1的兩子目錄(兩類為例子)目錄中存儲圖像等

mxnet深度學習實戰:跑自己的資料實驗和一些問題總結

用mxnet跑自己的資料 0 程式碼編譯   git clone https://github.com/dmlc/mxnet.git   git clone https://github.com/dmlc/mshadow.git   git clone https://gi

深度學習(訓練/開發/測試集)的劃分技巧

github部落格傳送門 部落格園傳送門 小資料量時代(100 - 1000 - 10000條左右): 一. 70%訓練集 , 30%測試集 二. 60%訓練集 , 20%交叉驗證集 , 20%測試集 大資料量時代(1000000條左右或更多): 一. 98%訓練集 ,

深度學習理論基礎7-初識神經網路

為了有種儀式感。我給出了神經網路的抽象表示。各層的名字圖上已經給的很清楚了。圖上沒有體現到的知識是,中間層也叫隱藏層。因為這個模型只有2層有權重,所以通常被叫做'2層網路'。 讓我們回到感知機。下面是感知機的數學公式表示: 還是原來的配方,還是原來的味道。接著給你感知機的影象表示

深度學習理論基礎6-多層感知機

廢話不多說,人生甜短,讓我們立即開始多層感知機的學習吧。為了迴圈漸進的理解多層感知機,我們有必要再把閘電路拿出來把玩一番。 這些是閘電路的符號表示,我們馬上就用。你隨便記3秒鐘就好。 吼吼,你是不是在想,難道這就是異或門?沒錯哦。這就是。不信你可以捋一下。 是不是經過翻過來調

深度學習理論基礎1-Numpy

夜夢,語文老師勒令我寫一篇《深度學習入門:基於Python的理論與實現》讀後感。我不敢懈怠,立即翻出我的膝上型電腦,開始寫作文。。。。 --------Numpy-------- 簡介: ---->是一個Python第三方模組 ---->處理陣列,矩陣,多維陣列十分便捷

深度學習理論基礎5-感知機的侷限性

--------------異或門------------- 異或門的文字描述:僅當輸入中的一方為1時,才會輸出1。 現在請閉上眼睛想2兩個星期,怎麼用上節提到的感知機實現異或門呢? 。。。 嗯,相信你在思考的這段時間裡已經嘗試了很多組合。但依然沒有靠譜的引數可用,實際上上文的

深度學習理論基礎4-簡單邏輯電路的感知機實現

  接下來我們小試牛刀,為感知機設定權重及閥值,實現一些簡單的邏輯電路。 ----------------------------------------------------與門--------------------------------------------------

深度學習理論基礎3-什麼是感知機?

感知機的文字描述:     ---->感知機接收多個輸入訊號,輸出一個訊號。     ---->感知機的訊號只有01兩種取值。 感知機的影象描述:   ---->輸入:x1,x2   ----&g

PyTorch(三)——使用訓練好的模型測試自己圖片

PyTorch的學習和使用(三) 在上一篇文章中實現瞭如何增加一個自定義的Loss,以Siamese network為例。現在實現使用訓練好的該網路對自己手寫的數字圖片進行測試。 首先需要對訓練時的權

淺入淺出深度學習理論實踐

全文共9284個字,40張圖,預計閱讀時間30分鐘。前言之前在知乎上看到這麼一個問題:在實際業務

使用深度學習網路SSD識別自己定義的物體

最近在做一些使用深度學習網路SSD(single shot multibox detector)的Caffe版本進行物體識別的工作。具體的實現效果如下圖所示: 解釋一下其中的代號: (1)poc(pocky,百奇餅乾) (2)sti(stick,棉籤)

深度學習caffe平臺--製作自己.lmdb格式資料集及分類標籤檔案

caffe對於訓練資料格式,支援:lmdb、h5py……,其中lmdb資料格式常用於單標籤資料,像分類等,經常使用lmdb的資料格式。對於迴歸等問題,或者多標籤資料,一般使用h5py資料的格式。當然好像還有其它格式的資料可用,本文就主要針對lmdb資料格式的製作方法,進行簡