1. 程式人生 > >dlib實現人臉識別-python

dlib實現人臉識別-python

所用工具

Anaconda 3——Python 3
Dlib
scikit-image

Dlib

Dlib是基於現代C++的一個跨平臺通用的框架,作者非常勤奮,一直在保持更新。Dlib內容涵蓋機器學習、影象處理、數值演算法、資料壓縮等等,涉獵甚廣。更重要的是,Dlib的文件非常完善,例子非常豐富。就像很多庫一樣,Dlib也提供了Python的介面,安裝非常簡單,用pip只需要一句即可:

pip install dlib

上面需要用到的scikit-image同樣只是需要這麼一句:

pip install scikit-image

注:如果用pip install dlib安裝失敗的話,那安裝起來就比較麻煩了。錯誤提示很詳細,按照錯誤提示一步步走就行了。

人臉識別

之所以用Dlib來實現人臉識別,是因為它已經替我們做好了絕大部分的工作,我們只需要去呼叫就行了。Dlib裡面有人臉檢測器,有訓練好的人臉關鍵點檢測器,也有訓練好的人臉識別模型。

首先先通過檔案樹看一下今天需要用到的東西:
這裡寫圖片描述

準備了六個候選人的圖片放在candidate-faces資料夾中,然後需要識別的人臉圖片test.jpg。我們的工作就是要檢測到test.jpg中的人臉,然後判斷她到底是候選人中的誰。另外的girl-face-rec.py是我們的python指令碼。shape_predictor_68_face_landmarks.dat是已經訓練好的人臉關鍵點檢測器。

dlib_face_recognition_resnet_model_v1.dat是訓練好的ResNet人臉識別模型。ResNet是何凱明在微軟的時候提出的深度殘差網路,獲得了 ImageNet 2015 冠軍,通過讓網路對殘差進行學習,在深度和精度上做到了比 CNN 更加強大。

1. 前期準備

shape_predictor_68_face_landmarks.datdlib_face_recognition_resnet_model_v1.dat都可以在這裡找到。不能點選超連結的可以直接輸入以下網址:http://dlib.net/files/

然後準備幾個人的人臉圖片作為候選人臉,最好是正臉。放到candidate-faces資料夾中。(相當於 訓練資料)

本文這裡準備的是六張圖片,如下:

這裡寫圖片描述

她們分別是

這裡寫圖片描述

然後準備四張需要識別的人臉影象,其實一張就夠了,這裡只是要看看不同的情況:(測試資料)

這裡寫圖片描述

可以看到前兩張和候選檔案中的本人看起來還是差別不小的,第三張是候選人中的原圖,第四張圖片微微側臉,而且右側有陰影。

2.識別流程

資料準備完畢,接下來就是程式碼了。識別的大致流程是這樣的:

  • 先對候選人進行人臉檢測、關鍵點提取、描述子生成後,把候選人描述子儲存起來。
  • 然後對測試人臉進行人臉檢測、關鍵點提取、描述子生成。
  • 最後求測試影象人臉描述子和候選人臉描述子之間的歐氏距離,距離最小者判定為同一個人。

先對訓練資料(事先提供的候選人檔案中資料)進行特徵提取等操作,再對測試資料(用於識別的資料)進行特徵提取等,比較這些特徵之間的歐式距離,判斷是否是同一個人

3.程式碼

以下是girl-face-rec.py

# -*- coding: UTF-8 -*-

import sys,os,dlib,glob,numpy
from skimage import io

if len(sys.argv) != 5:
    print "請檢查引數是否正確"
    exit()


# 1.人臉關鍵點檢測器

predictor_path = sys.argv[1]

# 2.人臉識別模型

face_rec_model_path = sys.argv[2]

# 3.候選人臉資料夾

faces_folder_path = sys.argv[3]

# 4.需識別的人臉

img_path = sys.argv[4]


# 1.載入正臉檢測器

detector = dlib.get_frontal_face_detector()

# 2.載入人臉關鍵點檢測器

sp = dlib.shape_predictor(predictor_path)

# 3. 載入人臉識別模型

facerec = dlib.face_recognition_model_v1(face_rec_model_path)


# win = dlib.image_window()



# 候選人臉描述子list

descriptors = []


# 對資料夾下的每一個人臉進行:


# 1.人臉檢測


# 2.關鍵點檢測


# 3.描述子提取

for f in glob.glob(os.path.join(faces_folder_path, "*.jpg")):
    print("Processing file: {}".format(f))
    img = io.imread(f)
    #win.clear_overlay()
    #win.set_image(img)

    # 1.人臉檢測
    dets = detector(img, 1)
    print("Number of faces detected: {}".format(len(dets)))

    for k, d in enumerate(dets):  
        # 2.關鍵點檢測
        shape = sp(img, d)
        # 畫出人臉區域和和關鍵點
        # win.clear_overlay()
        # win.add_overlay(d)
        # win.add_overlay(shape)

        # 3.描述子提取,128D向量
        face_descriptor = facerec.compute_face_descriptor(img, shape)

        # 轉換為numpy array
        v = numpy.array(face_descriptor)  
        descriptors.append(v)


# 對需識別人臉進行同樣處理


# 提取描述子,不再註釋

img = io.imread(img_path)
dets = detector(img, 1)

dist = []
for k, d in enumerate(dets):
    shape = sp(img, d)
    face_descriptor = facerec.compute_face_descriptor(img, shape)
    d_test = numpy.array(face_descriptor) 

    # 計算歐式距離
    for i in descriptors:
        dist_ = numpy.linalg.norm(i-d_test)
        dist.append(dist_)


# 候選人名單

candidate = ['Unknown1','Unknown2','Shishi','Unknown4','Bingbing','Feifei']


# 候選人和距離組成一個dict

c_d = dict(zip(candidate,dist))

cd_sorted = sorted(c_d.iteritems(), key=lambda d:d[1])
print "\n The person is: ",cd_sorted[0][0]  
dlib.hit_enter_to_continue()

4.執行結果

執行如下命令

python girl-face-rec.py 1.dat 2.dat ./candidate-faecs test1.jpg

由於shape_predictor_68_face_landmarks.datdlib_face_recognition_resnet_model_v1.dat名字實在太長,所以我把它們重新命名為1.dat和2.dat。

這裡需要說明的是,前三張圖輸出結果都是非常理想的。但是第四張測試圖片的輸出結果是候選人4。對比一下兩張圖片可以很容易發現混淆的原因。

機器畢竟不是人,機器的智慧還需要人來提升。

有興趣的同學可以繼續深入研究如何提升識別的準確率。比如每個人的候選圖片用多張,然後對比和每個人距離的平均值之類的。全憑自己了。

補充:人臉檢測

# -*- coding: UTF-8 -*-

import sys,os,dlib,glob,numpy
from skimage import io
import cv2

#predictor_path="shape_predictor_68_face_landmarks.dat"
# 1.載入正臉檢測器

detector = dlib.get_frontal_face_detector()

# 2.載入人臉關鍵點檢測器
# sp = dlib.shape_predictor(predictor_path)

img = io.imread("nba.jpg")
# 1.人臉檢測
dets = detector(img, 1)
print("Number of faces detected: {}".format(len(dets)))

"""
win = dlib.image_window()

for k, d in enumerate(dets):
    # 2.關鍵點檢測
    shape = sp(img, d)
    # 畫出人臉區域和和關鍵點
    win.clear_overlay()
    win.add_overlay(d)
    win.add_overlay(shape)
"""
for d in dets:
    # print(d)
    # print(type(d))
    # 使用opencv在原圖上畫出人臉位置
    left_top=(dlib.rectangle.left(d),dlib.rectangle.top(d))
    right_bottom=(dlib.rectangle.right(d),dlib.rectangle.bottom(d))
    cv2.rectangle(img,left_top,right_bottom,(0,255,0),2,cv2.LINE_AA)

cv2.imshow("img",cv2.cvtColor(img,cv2.COLOR_RGB2BGR)) # 轉成BGR顯示
cv2.waitKey(0)
cv2.destroyAllWindows()