人體姿態估計Alphapose配置安裝教程(GPU,超詳細,親測有效!)
首先簡單介紹一下Alposepose
該模型提出的論文:《RMPE: Regional Multi-Person Pose Estimation》ICCV 2017,是由上海交通大學提出的,目前在多人自討估計的效果最好。
文章的寫作背景是單人姿態估計的方法不能用在多人上面,而多人姿態估計方法雖然效果不錯,但是太慢了(485 seconds per image)。它對於多人姿態估計的方法採用傳統的自頂向下的方法,即先檢測人,再識別人體姿態。檢測使用的是SSD-512,識別人體姿態使用的是state-of-the-art的Stacked Hourglass方法。致力於解決對於imperfect proposal,通過調整,使得crop的單人能夠被單人姿態估計方法很好的識別,從而克服檢測帶來的定位誤差。
目前的人體檢測方法會產生兩個主要問題:定位錯誤,以及多餘的檢測結果,尤其是SPPE (singal person pose estimation)。這篇文章就是為解決這個問題而來的,提出了RMPE方法。包括了三個模組:Symmetric Spatial Transformer Network (SSTN)用於在不準確的bounding box下仍能提取準確的單個人的範圍,這是組合到SPPE裡面的。NMS是處理多餘的候選框的,它是採用了新的距離量測的方法來計算姿態的相似度,且是資料驅動的,不是預先設定的。PGPG用於增多訓練樣本。
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------
OK,那麼下面介紹如何安裝配置Alphapose模型:
我的電腦:Ubuntu16.04,GPU,NVIDIA184
我們知道Ubuntu自帶兩個版本的python,分別是python2.7和python3.5,我想說github官網給的配置方法是有一定的細節未給出,需要親身實踐才能明白,這裡我先簡單說一下:pytorch必須要裝在系統的python3.5,因為官網給的測試程式和命令是python3的。按照我以下的方法完全可成功配置!!!
1,先下載模型程式碼
git clone -b pytorch https://github.com/MVIG-SJTU/AlphaPose.git
2,給python3.5安裝必要的依賴項
pip install -r requirements.txt
3,下載兩個模型: duc_se.pth 和yolov3-spp.weights,分別將他們放在./models/sppe and ./models/yolo資料夾裡
4,安裝pytorch!!!
先登陸官網
選擇需要的配置條件
這樣一來我們看到最下面顯示的兩條命令,把命令在Ubuntu終端執行,直接複製貼上即可,複製到終端突然一個問題:
ok,缺什麼我們就安裝唄,簡單
成功。
繼續安裝:
這樣我們就在Ubuntu自帶的python安裝好pytorch了。為了驗證我們是否安裝成功,可以這樣:
python3
import torch
5,測試
測試影象:
python3 demo.py --indir ${img_directory} --outdir examples/res
測試視訊並儲存
python3 video_demo.py --video ${path to video} --outdir examples/res --save_video
測試攝像頭
python3 webcam_demo.py --webcam 0 --outdir examples/res --vis
到此應該就沒問題,我手頭正好有個視訊,想測試一下,期待結果,結果出現一個問題
這個簡單,少啥補啥唄
jieguo
檢測視訊:
結果視訊會儲存來,如圖:
如果先看整體效果圖可以從我的百度雲裡看: