1. 程式人生 > >人體姿態估計Alphapose配置安裝教程(GPU,超詳細,親測有效!)

人體姿態估計Alphapose配置安裝教程(GPU,超詳細,親測有效!)

首先簡單介紹一下Alposepose

該模型提出的論文:《RMPE: Regional Multi-Person Pose Estimation》ICCV 2017,是由上海交通大學提出的,目前在多人自討估計的效果最好。

文章的寫作背景是單人姿態估計的方法不能用在多人上面,而多人姿態估計方法雖然效果不錯,但是太慢了(485 seconds per image)。它對於多人姿態估計的方法採用傳統的自頂向下的方法,即先檢測人,再識別人體姿態。檢測使用的是SSD-512,識別人體姿態使用的是state-of-the-art的Stacked Hourglass方法。致力於解決對於imperfect proposal,通過調整,使得crop的單人能夠被單人姿態估計方法很好的識別,從而克服檢測帶來的定位誤差。

目前的人體檢測方法會產生兩個主要問題:定位錯誤,以及多餘的檢測結果,尤其是SPPE (singal person pose estimation)。這篇文章就是為解決這個問題而來的,提出了RMPE方法。包括了三個模組:Symmetric Spatial Transformer Network (SSTN)用於在不準確的bounding box下仍能提取準確的單個人的範圍,這是組合到SPPE裡面的。NMS是處理多餘的候選框的,它是採用了新的距離量測的方法來計算姿態的相似度,且是資料驅動的,不是預先設定的。PGPG用於增多訓練樣本。

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------

OK,那麼下面介紹如何安裝配置Alphapose模型:

我的電腦:Ubuntu16.04,GPU,NVIDIA184

我們知道Ubuntu自帶兩個版本的python,分別是python2.7和python3.5,我想說github官網給的配置方法是有一定的細節未給出,需要親身實踐才能明白,這裡我先簡單說一下:pytorch必須要裝在系統的python3.5,因為官網給的測試程式和命令是python3的。按照我以下的方法完全可成功配置!!!

1,先下載模型程式碼

git clone -b pytorch https://github.com/MVIG-SJTU/AlphaPose.git

2,給python3.5安裝必要的依賴項

pip install -r requirements.txt

 

3,下載兩個模型: duc_se.pthyolov3-spp.weights,分別將他們放在./models/sppe and ./models/yolo資料夾裡

4,安裝pytorch!!!

先登陸官網

選擇需要的配置條件

 這樣一來我們看到最下面顯示的兩條命令,把命令在Ubuntu終端執行,直接複製貼上即可,複製到終端突然一個問題:

ok,缺什麼我們就安裝唄,簡單

 

成功。

繼續安裝:

這樣我們就在Ubuntu自帶的python安裝好pytorch了。為了驗證我們是否安裝成功,可以這樣:

python3
import torch

5,測試

測試影象:

python3 demo.py --indir ${img_directory} --outdir examples/res 

測試視訊並儲存

python3 video_demo.py --video ${path to video} --outdir examples/res --save_video

測試攝像頭

python3 webcam_demo.py --webcam 0 --outdir examples/res --vis

到此應該就沒問題,我手頭正好有個視訊,想測試一下,期待結果,結果出現一個問題

這個簡單,少啥補啥唄

jieguo

檢測視訊:

結果視訊會儲存來,如圖:

如果先看整體效果圖可以從我的百度雲裡看:

記錄一下配置步驟與各位小夥伴共勉!!!嘿嘿