1. 程式人生 > >自己寫程式利用lenet模型識別手寫數字

自己寫程式利用lenet模型識別手寫數字

自己編寫程式,將手寫圖片送入訓練得到的lenet模型,評估識別結果。
code:https://github.com/lhnows/caffeProjects
如果自己的caffe是用CMakeLists編譯安裝的,這樣的話,可以執行如下的CMakeLists來編譯自己的呼叫了caffe庫的程式

CMakeLists.txt


cmake_minimum_required (VERSION 2.8)

PROJECT (mnistTest)


# Requires OpenCV v2.4.1 or later  
FIND_PACKAGE( OpenCV REQUIRED )  
IF (${OpenCV_VERSION}
VERSION_LESS 2.4.1) MESSAGE(FATAL_ERROR "OpenCV version is not compatible : ${OpenCV_VERSION}. requires atleast OpenCV v2.4.1") ENDIF() find_package(Caffe) include_directories(${Caffe_INCLUDE_DIRS}) add_definitions(${Caffe_DEFINITIONS}) add_executable(${PROJECT_NAME} mnistTest.cpp) include_directories
( /Users/liuhao/devlibs/deeplearning/caffe/install/include /usr/local/include /usr/local/cuda/include ) target_link_libraries(${PROJECT_NAME} ${Caffe_LIBRARIES} ${OpenCV_LIBS} )

mnistTest.cpp


#define USE_OPENCV 1
#define CPU_ONLY 1
//貌似caffe有3種矩陣計算加速方式 mkl  accelerate blas,本人Mac編譯的可能是下面這種(其他會報錯找不到標頭檔案)
//#define USE_ACCELERATE #include <iostream> #include <string> #include <caffe/caffe.hpp> #include <vector> #include <opencv2/core/core.hpp> #include <opencv2/highgui/highgui.hpp> #include <opencv2/imgproc/imgproc.hpp> #include "head.h" #include <algorithm> #include <iosfwd> #include <memory> #include <utility> #include <vector> using namespace caffe; using namespace cv; cv::Point previousPoint(-1, -1), nowPoint(-1, -1); Mat srcimage=Mat::zeros(280,280,CV_8UC1); Mat srcimageori = Mat::zeros(280, 280, CV_8UC1); class Classifier { public: Classifier(const string& model_file, const string& trained_file); int Classify(const cv::Mat& img); private: std::vector<int> Predict(const cv::Mat& img); void WrapInputLayer(std::vector<cv::Mat>* input_channels); void Preprocess(const cv::Mat& img, std::vector<cv::Mat>* input_channels); private: shared_ptr<Net<float> > net_; cv::Size input_geometry_; int num_channels_; }; Classifier::Classifier(const string& model_file, const string& trained_file) { #ifdef CPU_ONLY Caffe::set_mode(Caffe::CPU); #else Caffe::set_mode(Caffe::GPU); #endif /* Load the network. */ net_.reset(new Net<float>(model_file, TEST)); net_->CopyTrainedLayersFrom(trained_file); CHECK_EQ(net_->num_inputs(), 1) << "Network should have exactly one input."; CHECK_EQ(net_->num_outputs(), 1) << "Network should have exactly one output."; Blob<float>* input_layer = net_->input_blobs()[0]; num_channels_ = input_layer->channels(); CHECK(num_channels_ == 3 || num_channels_ == 1) << "Input layer should have 1 or 3 channels."; input_geometry_ = cv::Size(input_layer->width(), input_layer->height()); } /* Return the top N predictions. */ int Classifier::Classify(const cv::Mat& img) { std::vector<int> output = Predict(img); std::vector<int>::iterator iter=find(output.begin(), output.end(), 1); int prediction = distance(output.begin(), iter); return prediction<10 ? prediction:0; } std::vector<int> Classifier::Predict(const cv::Mat& img) { Blob<float>* input_layer = net_->input_blobs()[0]; input_layer->Reshape(1, num_channels_, input_geometry_.height, input_geometry_.width); /* Forward dimension change to all layers. */ net_->Reshape(); std::vector<cv::Mat> input_channels; WrapInputLayer(&input_channels); Preprocess(img, &input_channels); net_->Forward(); /* Copy the output layer to a std::vector */ Blob<float>* output_layer = net_->output_blobs()[0]; const float* begin = output_layer->cpu_data(); const float* end = begin + output_layer->channels(); return std::vector<int>(begin, end); } void Classifier::WrapInputLayer(std::vector<cv::Mat>* input_channels) { Blob<float>* input_layer = net_->input_blobs()[0]; int width = input_layer->width(); int height = input_layer->height(); float* input_data = input_layer->mutable_cpu_data(); for (int i = 0; i < input_layer->channels(); ++i) { cv::Mat channel(height, width, CV_32FC1, input_data); input_channels->push_back(channel); input_data += width * height; } } void Classifier::Preprocess(const cv::Mat& img, std::vector<cv::Mat>* input_channels) { /* Convert the input image to the input image format of the network. */ cv::Mat sample; if (img.channels() == 3 && num_channels_ == 1) cv::cvtColor(img, sample, cv::COLOR_BGR2GRAY); else if (img.channels() == 4 && num_channels_ == 1) cv::cvtColor(img, sample, cv::COLOR_BGRA2GRAY); else if (img.channels() == 4 && num_channels_ == 3) cv::cvtColor(img, sample, cv::COLOR_BGRA2BGR); else if (img.channels() == 1 && num_channels_ == 3) cv::cvtColor(img, sample, cv::COLOR_GRAY2BGR); else sample = img; cv::Mat sample_resized; if (sample.size() != input_geometry_) cv::resize(sample, sample_resized, input_geometry_); else sample_resized = sample; cv::Mat sample_float; if (num_channels_ == 3) sample_resized.convertTo(sample_float, CV_32FC3); else sample_resized.convertTo(sample_float, CV_32FC1); cv::split(sample_float, *input_channels); CHECK(reinterpret_cast<float*>(input_channels->at(0).data) == net_->input_blobs()[0]->cpu_data()) << "Input channels are not wrapping the input layer of the network."; } static void on_Mouse(int event, int x, int y, int flags, void*) { if (event == EVENT_LBUTTONUP || !(flags&EVENT_FLAG_LBUTTON)) { previousPoint = cv::Point(-1,-1); } else if (event == EVENT_LBUTTONDOWN) { previousPoint = cv::Point(x, y); } else if (event == EVENT_MOUSEMOVE || (flags&EVENT_FLAG_LBUTTON)) { cv::Point pt(x, y); if (previousPoint.x<0) { previousPoint = pt; } line(srcimage, previousPoint, pt, Scalar(255), 16, 8, 0); previousPoint = pt; imshow("result", srcimage); } } int main(int argc, char** argv) { ::google::InitGoogleLogging(argv[0]); #ifdef CPU_ONLY Caffe::set_mode(Caffe::CPU); #else Caffe::set_mode(Caffe::GPU); #endif string model_file = "lenet.prototxt"; string trained_file = "lenet_iter_10000.caffemodel"; Classifier classifier(model_file, trained_file); std::cout << "------directed by watersink------" << std::endl; std::cout << "------------enter:退出-----------" << std::endl; std::cout << "--------------1:還原-------------" << std::endl; std::cout << "-------------2:寫數字------------" << std::endl; std::cout << "[email protected]" << std::endl; imshow("result", srcimage); setMouseCallback("result", on_Mouse, 0); while (1) { char c = (char)waitKey(); if (c == 27) break; if (c=='1') { srcimageori.copyTo(srcimage); imshow("result", srcimage); } if (c == '2') { cv::Mat img; cv::resize(srcimage, img, cv::Size(28, 28)); CHECK(!img.empty()) << "Unable to decode image " << std::endl; int prediction = classifier.Classify(img); std::cout << "prediction:" << prediction << std::endl; imshow("result", srcimage); } } waitKey(); return 0; }

head.h

#include <caffe/common.hpp>
#include <caffe/layer.hpp>
#include <caffe/layer_factory.hpp>
#include <caffe/layers/input_layer.hpp>
#include <caffe/layers/inner_product_layer.hpp>
#include <caffe/layers/dropout_layer.hpp>
#include <caffe/layers/conv_layer.hpp>
#include <caffe/layers/relu_layer.hpp>
#include <caffe/layers/pooling_layer.hpp>
#include <caffe/layers/softmax_layer.hpp> 


namespace caffe
{

    extern INSTANTIATE_CLASS(InputLayer);
    extern INSTANTIATE_CLASS(InnerProductLayer);
    extern INSTANTIATE_CLASS(DropoutLayer);
    extern INSTANTIATE_CLASS(ConvolutionLayer);
    //REGISTER_LAYER_CLASS(Convolution);
    extern INSTANTIATE_CLASS(ReLULayer);
    //REGISTER_LAYER_CLASS(ReLU);
    extern INSTANTIATE_CLASS(PoolingLayer);
    //REGISTER_LAYER_CLASS(Pooling);
    extern INSTANTIATE_CLASS(SoftmaxLayer);
    //REGISTER_LAYER_CLASS(Softmax);

}

cmake.. & make

 $ cmake ..
-- The C compiler identification is AppleClang 8.1.0.8020042
-- The CXX compiler identification is AppleClang 8.1.0.8020042
-- Check for working C compiler: /Library/Developer/CommandLineTools/usr/bin/cc
-- Check for working C compiler: /Library/Developer/CommandLineTools/usr/bin/cc -- works
-- Detecting C compiler ABI info
-- Detecting C compiler ABI info - done
-- Detecting C compile features
-- Detecting C compile features - done
-- Check for working CXX compiler: /Library/Developer/CommandLineTools/usr/bin/c++
-- Check for working CXX compiler: /Library/Developer/CommandLineTools/usr/bin/c++ -- works
-- Detecting CXX compiler ABI info
-- Detecting CXX compiler ABI info - done
-- Detecting CXX compile features
-- Detecting CXX compile features - done
-- Found OpenCV: /usr/local (found version "3.2.0") 
-- Configuring done
-- Generating done
-- Build files have been written to: /Users/liuhao/projects/caffeProjects/mnistTest/build


 $ make
Scanning dependencies of target mnistTest
[ 50%] Building CXX object CMakeFiles/mnistTest.dir/mnistTest.cpp.o
[100%] Linking CXX executable mnistTest
[100%] Built target mnistTest

輸入./mnistTests 執行
這裡寫圖片描述

相關推薦

自己程式利用lenet模型識別數字

自己編寫程式,將手寫圖片送入訓練得到的lenet模型,評估識別結果。 code:https://github.com/lhnows/caffeProjects 如果自己的caffe是用CMakeLists編譯安裝的,這樣的話,可以執行如下的CMakeList

第14章 LeNet識別數字

文件包含 ali 2個 程序代碼 cnn 代碼 出了 ieee 隱藏 第14章 LeNet:識別手寫數字 LeNet架構時深度學習社區的一個開創性工作,見論文【1】,作者在實現LeNet的主要創新點是用於OCR上。LeNet架構簡單輕巧(就內存占用而言),這使它

Android 通過 TensorFlow 訓練模型識別數字

隨著機器學習的發展,目前已經湧現出很多不錯的學習框架,其中 Google 推出的 Tensorflow 是最流行的可以說沒有之一,並且越來越多的機器學習成果應用到移動端,例如人臉檢測、語音識別的 App。本場 Chat 將用最簡單的方式,利用 Tensorflo

Tensorflow實戰——利用Softmax Regression識別數字

1. 匯入資料集 2. 檢視資料集(784維【28*28】, label【10維】,訓練集,測試集,驗證集) 3. 定義輸入x,w,  b 4. 使用Softmax Regression模型 5. 使用cross-entropy作為loss-function 6

第一章: 利用神經網路識別數字

人類視覺系統是大自然的一大奇蹟。 考慮下面的手寫數字序列: 大部分人能夠毫不費力的識別出這些數字是 504192。這種簡單性只是一個幻覺。在我們大腦各半球,有一個主要的視覺皮層,即V1,它包含1.4億個神經元以及數以百億的神經元連線。而且人類不只

Tensorflow - Tutorial (7) : 利用 RNN/LSTM 進行數字識別

ddc htm net sets 手寫 n-2 align csdn global 1. 經常使用類 class tf.contrib.rnn.BasicLSTMCell BasicLSTMCell 是最簡單的一個LSTM類。沒有實現clippi

利用卷積神經網路識別數字

1.測試資料準備 1.我們使用的測試資料,可以直接從keras.datasets.mnist匯入 import numpy as np import seaborn as sns import matplotlib.pyplot as plt plt.rcParams['figure

TF之CNN:利用sklearn(自帶圖片識別資料集)使用dropout解決學習中overfitting的問題+Tensorboard顯示變化曲線

import tensorflow as tf from sklearn.datasets import load_digits #from sklearn.cross_validation import train_test_split from sklearn.model_selection import

python 實現識別 MNIST數字集的程式

原英文檢視:http://neuralnetworksanddeeplearning.com/chap1.html 我們需要做的第⼀件事情是獲取 MNIST 資料。如果你是⼀個 git ⽤⼾,那麼你能夠 通過克隆這本書的程式碼倉庫獲得資料,  實現我們的⽹絡來分類數字git

pytorch 利用lstm做mnist數字識別分類

程式碼如下,U我認為對於新手來說最重要的是學會rnn讀取資料的格式。 # -*- coding: utf-8 -*- """ Created on Tue Oct 9 08:53:25 2018 @author: www """ import sys sys.path

利用Python實現k最近鄰演算法 並識別數字(詳細註釋)

    K最近鄰(k-Nearest Neighbor,KNN)分類演算法,是一個理論上比較成熟的方法,也是較為簡單的機器學習演算法之一。該方法的思路是:如果一個樣本在特徵空間中的k個最相似(即特徵空間中最鄰近)的樣本中的大多數屬於某一個類別,則該樣本也屬於這個類別。K最近鄰

吳裕雄 python 神經網絡——TensorFlow實現AlexNet模型處理數字識別MNIST數據集

its iter style 輸出 init 向量 數字 ict sha import tensorflow as tf # 輸入數據 from tensorflow.examples.tutorials.mnist import input_data m

學習筆記TF024:TensorFlow實現Softmax Regression(回歸)識別數字

概率 none nump 簡單 測試數據 python dice bat desc TensorFlow實現Softmax Regression(回歸)識別手寫數字。MNIST(Mixed National Institute of Standards and Techno

[神經網絡與深度學習(一)]使用神經網絡識別數字

線性 部分 logs 結構 這一 可用 調整 重復 http 1.1 感知器 感知器的輸出為: wj為權重,表示相應輸入對輸出的重要性; threshold為閾值,決定神經元的輸出為0或1。 也可用下式表示: 其中b=-threshold,稱為感知器的偏置

TensorFlow實現Softmax Regression識別數字中"TimeoutError: [WinError 10060] 由於連接方在一段時間後沒有正確答復或連接的主機沒有反應,連接嘗試失敗”問題

http 截圖 技術 數字 alt 分享圖片 inf 主機 orf 出現問題: 在使用TensorFlow實現MNIST手寫數字識別時,出現“TimeoutError: [WinError 10060] 由於連接方在一段時間後沒有正確答復或連接的主機沒有反應,連接嘗試失敗”

TensorFlow實戰之Softmax Regression識別數字

一次 說明 基本 過度 pro 分類函數 數值 fun nump 關於本文說明,本人原博客地址位於http://blog.csdn.net/qq_37608890,本文來自筆者於2018年02月21日 23:10:04所撰寫內容(http://blog.csdn.

多層感知器識別數字算法程序

itl cti val shape erb ase 鏈接 n) frame 1 #coding=utf-8 2 #1.數據預處理 3 import numpy as np #導入模塊,numpy是擴展鏈接庫 4 import pan

卷積神經網絡識別數字實例

取出 return hot lte git tensor on() port cross 卷積神經網絡識別手寫數字實例: import tensorflow as tf from tensorflow.examples.tutorials.mnist import i

全連接神經網絡實現識別數據集MNIST

網絡 set com 系統開發 進制 識別 二進制 下載 style 全連接神經網絡實現識別手寫數據集MNIST MNIST是一個由美國由美國郵政系統開發的手寫數字識別數據集。手寫內容是0~9,一共有60000個圖片樣本,我們可以到MNIST官網免費下載。總共4個文件,該

全連線神經網路實現識別資料集MNIST

全連線神經網路實現識別手寫資料集MNIST MNIST是一個由美國由美國郵政系統開發的手寫數字識別資料集。手寫內容是0~9,一共有60000個圖片樣本,我們可以到MNIST官網免費下載。總共4個檔案,該檔案是二進位制內容。 train-images-idx3-ubyte.gz:  trainin