1. 程式人生 > >[AI開發]零程式碼分析視訊結構化類應用結構設計

[AI開發]零程式碼分析視訊結構化類應用結構設計

視訊結構化類應用涉及到的技術棧比較多,而且每種技術入門門檻都較高,比如視訊接入儲存、編解碼、深度學習推理、rtmp流媒體等等。每個環節的水都非常深,單獨拿出來可以寫好幾篇文章,如果沒有個幾年經驗基本很難搞定。本篇文章簡單介紹視訊結構化類應用涉及到的技術棧,以及這類應用常見結構,因為是實時視訊分析,因此這類應用基本都是管道(pipeline)設計模式。本篇文章算是科普入門介紹文章,不涉及詳細技術細節,適合這方面的新手。

所謂視訊結構化,就是利用深度學習技術對視訊進行逐幀分析,解析出視訊幀中感興趣的目標、並且進一步推理出每個目標感興趣的屬性,最後將這些目標、屬性儲存成結構化資料(能與每幀關聯起來)。如果是實時類應用,要求實時看到分析結果,那麼整個過程要求能做到實時性,比如單路視訊分析保證FPS能達到原視訊的FPS(常見是25)。當然,還有另外一類結構化類應用並不要求做到實時性,比如分析監控錄影,將視訊錄影檔案進行結構化處理,結果存於資料庫,用於後期快速檢索,這類應用不用做到實時分析,打個比方,每秒處理25幀和處理5幀對於這類應用影響不大,只是處理完一個錄影檔案總耗時不同。本篇文章主要介紹實時(Real-Time)視訊結構化。

上圖中實時將結構化資料疊加在視訊畫面中,圖中紅色多邊形為人工配置檢測區域(ROI),ROI之外的目標可以忽略。

 

視訊結構化常見Pipeline

視訊從接入,到模型推理,再到結果分析、介面呈現,是一個“流式”處理過程,我們可以稱為pipeline,對於實時視訊結構化類應用,要求整個pipeline各個環節均能滿足效能要求,做到實時處理,某個環節達不到實時性,那麼整個pipeline就有問題。下面是我整理出來的視訊結構化處理pipeline,這個設計基本可以滿足要求,有些pipeline可能不長這樣,但是大同小異。

如上圖所示,資料從左往右移動。涉及到的技術有視訊接入、解碼、目標檢測(一次推理)、目標跟蹤、屬性分類(二次推理)、資料分析(目標軌跡分析、目標行為分析、資料儲存)、影象疊加、編碼、rtmp推流。下面詳細說一下每個環節涉及到的技術內容。

 

視訊接入

在處理視訊之前,需要先將視訊接入到系統。常見的接入方式有2種,一種就是直接從攝像機(攝像頭)直接接入,常見IP攝像機都支援RTSP/28181國標/裝置SDK方式接入;第二種就是從視訊管理平臺接入,所謂管理平臺,其實就是管理所有的攝像機視訊資料,攝像機先接入平臺,其他系統如果需要視訊資料,需要通過SDK/協議再從平臺接入,這種方式的好處是平臺已經適配了所有前端攝像機,其他系統找平臺接入視訊時邏輯更簡單。

 

解碼

視訊接入到系統之後,緊接著需要做的是解碼,因為後面深度學習推理的輸入是RGB格式的圖片。常見解碼庫可以採用ffmpeg,ffmpeg入門簡單,但是如果想做好、適配實際現場各種情況卻需要很多經驗。解碼環節的輸入輸出如下圖所示:

上圖左邊輸入視訊流二進位制資料,經過解碼後,輸出單張RGB圖片序列。

 

目標檢測(一級推理)

解碼之後得到每幀RGB格式的圖片,將圖片依次輸入目標檢測模型,GPU加速推理後得到每幀中感興趣的目標。這個環節是一次推理,主要作用是從單幀影象中鎖定感興趣的目標(目標型別、目標可信度、目標位置)。常見目標檢測演算法有yolo系列、ssd、rcnn系列。目標檢測環節的輸入輸出如下圖所示:

上圖左邊輸入RGB圖片序列(可以按batch輸入,batch size可以為1),經過目標檢測環節後,輸出每幀中檢測到的目標(型別, 可行度, 目標位置)。

 

目標跟蹤

目標檢測是單幀處理,視訊幀是連續的,如何將前後幀中的目標一一關聯起來就叫目標跟蹤。目標跟蹤的作用是為了後面的軌跡分析,通過軌跡分析得出目標的行為。目標跟蹤的演算法有很多,最簡單最好理解的是IOU方法,通過計算前後幀每兩目標區域之間的IOU來關聯目標,並賦予該目標唯一ID(識別符號),之後的軌跡分析全部基於該ID。目標跟蹤環節的輸入輸出如下:

上圖左邊輸入前後兩幀的目標(M*N),經過跟蹤環節後,將M和N個目標一一關聯,賦予目標ID。

 

屬性分類(二級推理)

對於檢測得到的目標,有可能需要進一步對某些感興趣的屬性進行推理,比如我們檢測到了一輛車,我們需要進一步確認它是什麼車(轎車、SUV還是皮卡)?還需要知道該車什麼顏色(白色、黑色還是黃色)?因此,對於每個檢測得到的目標,我們需要根據該目標位置(left、top、width、height)裁剪出目標影象,輸入到第二個模型中進行推理,我們稱之為二次推理。二次推理環節的輸入輸出如下:

上圖左邊輸入檢測到的車輛(根據尺寸位置裁剪,可以按batch輸入,batch size可以為1),經過屬性分類環節後,輸出每個目標的各個屬性值。注意:上圖推理模型為多輸出模型(multi-outputs),可以同時為多個屬性分類。

 

結果分析

根據具體的業務邏輯,我們可以在這裡做一些具體的資料分析,比如根據目標軌跡判斷目標行為是否合法(車輛逆行、車輛停車),根據進入畫面行人特徵(年齡、性別、穿著、交通工具)來判斷該目標是否是犯罪嫌疑人(自動告警)。這塊的邏輯根據實際需要可以自行擴充套件,當然前提是前幾個環節可以產生足夠的資料,比如模型能檢測出來充分的屬性值。

 

資料持久化

該環節可以將前面產生的結構化資料存入資料庫(可以將其與幀編號關聯起來,或者與視訊時間戳關聯),後面方便快速檢索。同時,通過行為分析環節,如果發現重要結果(比如發現嫌疑人、比如發現有車輛逆行),可以實時上報伺服器。

 

影象疊加(OSD)

為了便於實時檢視畫面分析結果,我們需要在該環節將前面的結構化資料疊加到原始圖片幀上。該環節很簡單,按照資料格式使用opencv等影象庫將其繪製到圖片即可,同樣我們還可以將目標軌跡疊加在圖片上。

上圖中將前面檢測到的目標,跟蹤軌跡,按照不同的顏色繪製到原始圖片幀上。

 

編碼 + RTMP推流

影象疊加之後,只能在本地看效果,實際工程中通常是將疊加之後的圖片序列進行編碼,然後通過rtmp等方式推送到nginx等流媒體伺服器,其他使用者可以通過rtmp地址檢視實時疊加效果。

上圖中,經過編碼、rtmp推流後,其他使用者可以使用對應地址播放疊加