基於tensorflow + Vgg16進行影象分類識別的實驗
影象分類識別目前已經得到了很大的飛躍,特別是15年微軟提出的resnet已經超越人類,能夠對影象中的物體進行更好的識別。
為了初步瞭解一下影象分類識別的過程,學習了一下大牛的主頁,發現還是很有意思的。而且從imagenet的角度來說,這個經度還是可以接受的。
本實驗主要參照了這個網頁https://www.cs.toronto.edu/~frossard/post/vgg16/來進行。
VGG is a convolutional neural network modelproposed by K. Simonyan and A. Zisserman from the University of Oxford in thepaper “Very Deep Convolutional Networks for Large-Scale Image Recognition” . The model achieves 92.7% top-5 testaccuracy in ImageNet , which is adataset of over 14 million images belonging to 1000 classes.
vgg-16是一種深度卷積神經網路模型,16表示其深度,是alexnet後比較有代表性的深度模型之一,在影象分類等任務中取得了不錯的效果。
為了更好地理解Vgg 16的原理,利用tensorflow進行了實踐,發現利用預先訓練好的模型,識別的速度非常之快。大約2秒鐘就能出現結果。
(1) 實驗一,對槍的檢測實驗
分類識別效果比例非常高,可以。
(2)小拼圖的測試
檢測效果也比較強,第一個出來就是。
(3)老虎的檢測
對老虎的檢測,也非常不錯。
(4)多場景的檢測
這裡面居然把高山,教堂,城堡,山谷等都識別出來了,效果非常不錯,雖然各種精度不高,但是類別是齊全的。