1. 程式人生 > >深度多目標跟蹤演算法綜述

深度多目標跟蹤演算法綜述

導言

基於深度學習的演算法在影象和視訊識別任務中取得了廣泛的應用和突破性的進展。從影象分類問題到行人重識別問題,深度學習方法相比傳統方法表現出極大的優勢。與行人重識別問題緊密相關的是行人的多目標跟蹤問題。

在多目標跟蹤問題中,演算法需要根據每一幀影象中目標的檢測結果,匹配已有的目標軌跡;對於新出現的目標,需要生成新的目標;對於已經離開攝像機視野的目標,需要終止軌跡的跟蹤。這一過程中,目標與檢測的匹配可以看作為目標的重識別,例如,當跟蹤多個行人時,把已有的軌跡的行人影象集合看作為影象庫(gallery),而檢測影象看作為查詢影象(query),檢測與軌跡的匹配關聯過程可以看作由查詢影象檢索影象庫的過程。如圖1。

圖1:把檢測影象看作查詢影象(query),行人軌跡中的影象看作影象庫(gallery),多目標跟蹤中的匹配過程可以看作為行人重識別。

 

與傳統的行人重識別不同的是,行人多目標跟蹤中的檢測與行人軌跡的匹配關聯問題更加複雜,具體表現在下面三個方面:首先,多目標跟蹤中的目標軌跡是頻繁發生變化的,影象樣本庫的數量和種類並不固定。其次,檢測結果中可能出現新的目標,也可能不包括已有的目標軌跡。另外,檢測影象並不像傳統行人重識別中的查詢影象都是比較準確的檢測結果,通常,行人多目標跟蹤場景下的檢測結果混雜了一些錯誤的檢測(false-alarms),而由於背景以及目標之間的互動,跟蹤中的行人檢測可能出現影象不對齊、多個檢測對應同一目標、以及一個檢測覆蓋了多個目標這些情況。如圖2中所示為ACF行人檢測演算法的結果。

如何擴充套件深度學習在行人重識別問題中的研究成果到多目標跟蹤領域,研究適用於多目標跟蹤問題的深度學習演算法是具有挑戰性的問題。近年來,在計算機視覺頂級會議和期刊上,研究者從各方面提出了一些解決方案,發表了一些新的演算法試圖解決這個問題。在這篇文章中,SIGAI將和大家一起對基於深度學習的視覺多目標跟蹤演算法進行總結和歸納,以幫助理解基於深度學習框架的多目標跟蹤演算法的原理和相對於傳統演算法的優勢,如果對本文的觀點持有不同的意見,歡迎向我們的公眾號發訊息一起討論。

圖2:多目標跟蹤場景下行人的檢測結果,綠色矩形框表示存在的檢測結果不準確的情況。藍色矩形框是檢測結果基本準確的示例。當目標特徵與檢測器模型樣本分佈相差較大時,存在檢測失敗的情況。

 

基於深度學習的多目標跟蹤演算法分類

多目標跟蹤演算法按照軌跡生成的順序可以分為離線的多目標跟蹤和線上的多目標跟蹤演算法。離線方式的多目標跟蹤演算法通常構造為目標檢測關係的圖模型,其中設計和計算檢測之間的相似度或者距離度量是決定圖模型構造正確性的關鍵。線上方式的多目標跟蹤演算法根據當前檢測觀測,計算與已有軌跡的匹配關係,計算合適的匹配度量決定了匹配的正確性。因此,無論是離線方式的多目標跟蹤還是線上方式的多目標跟蹤演算法,學習檢測結果的特徵並計算匹配相似度或者距離度量都是多目標跟蹤演算法的關鍵步驟。

基於深度學習的多目標跟蹤演算法的主要任務是優化檢測之間相似性或距離度量的設計。根據學習特徵的不同,基於深度學習的多目標跟蹤可以分為表觀特徵的深度學習,基於相似性度量的深度學習,以及基於高階匹配特徵的深度學習(如圖3)。

圖3:按照深度學習目標和應用對基於深度學習的多目標跟蹤演算法進行分類。

 

利用深度神經網路學習目標檢測的表觀特徵是簡單有效的提升多目標跟蹤演算法的方法。

例如利用影象識別或者行人重識別任務中學習到的深度特徵直接替換現有多目標跟蹤演算法框架中的表觀特徵[1],或者採用深度神經網路學習光流運動特徵,計算運動相關性[2]。採用深度學習提升多目標跟蹤演算法更加直接的方法是學習檢測之間的特徵相似性,比如設計深度網路計算不同檢測的距離函式,相同目標的檢測距離小,不同目標的檢測距離大,從而構造關於檢測距離的代價函式[3]。也可以設計二類分類代價,使相同目標的檢測特徵匹配型別為1,而不同目標的檢測特徵匹配型別為0,從而學習並輸出(0,1]之間的檢測匹配度[4]。如果考慮已有軌跡與檢測之間的匹配或者軌跡之間的匹配,採用深度學習方法可以用於設計並計算軌跡之間的匹配相似度,這種方法可以認為是基於深度學習的高階特徵匹配方法。採用深度學習計算高階特徵匹配可以學習多幀表觀特徵的高階匹配相似性[5],也可以學習運動特徵的匹配相關度[6]。

下面我們對一些基於深度學習的多目標跟蹤演算法進行概要介紹。

深度視覺多目標跟蹤演算法介紹

3.1 基於對稱網路的多目標跟蹤演算法

一種檢測匹配度量學習方法是採用Siamese對稱卷積網路,以兩個尺寸相同的檢測影象塊作為輸入,輸出為這兩個影象塊是否屬於同一個目標的判別[3]。通常有三種拓撲形式的Siamese網路結構,如圖4。

圖4:三種Siamese網路拓撲結構。第一種結構,輸入A和B經過相同引數的網路分支,對提取的特徵計算他們的距離度量作為代價函式,以使得相同物件的距離接近,而不同物件的距離變大。第二種結構,輸入A和B經過部分相同引數的網路分支,對生成的特徵進行合併,新的特徵進行多層卷積濾波之後輸入代價函式作為

經過實驗表明,第三種網路結構能夠生成更好的判別結果。因此,在文獻[3]中,Lealtaixe等人採用第三種拓撲形式的Siamese網路訓練並計算兩個檢測的匹配相似度,原始的檢測特徵包括正則化的LUV影象I1I2,以及具有x,y方向分量的光流影象O1O2,把這些影象縮放到121x53,並且疊加到一起構成10個通道的網路輸入特徵。卷積網路由3個卷積層(Conv-Layer)、4個全連線層(FC-Layer)以及2元分類損失層(binary-softmax-loss)組成,如圖5。損失函式為:

標題

其中( d_{1} , d_{2} )表示兩個檢測d_{1}d_{2},經過卷積之後的輸出特徵。y表示是否對應相同目標,如果d_{1},d_{2}來自同一個目標的檢測,y=1;否則y=0。

為了學習這個網路,作者從真實跟蹤資料中抽取訓練樣本,從利用檢測演算法得到同一個軌跡的檢測對作為正樣本,從不同軌跡中得到檢測作為負樣本,為了增加樣本多樣性,增強分類器的泛化能力,負樣本還包括從檢測周圍隨機採集的重疊率較小的影象塊。

學習過程採用經典的帶有動量的隨機梯度反向傳播演算法。最小批大小選擇為128,學習率初始為0.01。通過50個回合的訓練,可以得到較為優化的網路引數。

在Siamese網路學習完成之後,作者採用第六層全連線網路的輸出作為表觀特徵,為了融合運動資訊,作者又設計了6維運動上下文特徵:尺寸相對變化,位置相對變化,以及速度相對變化。通過經典的梯度下降提升演算法學習整合分類器。

圖5:採用Siamese對稱網路學習表觀特徵相似度,並通過基於梯度下降提升演算法的分類器融合運動特徵,得到融合運動和表觀特徵的相似度判別。並利用線性規劃優化演算法得到多目標跟蹤結果。

 

多目標跟蹤的過程採用全域性最優演算法框架,通過對每兩個檢測建立連線關係,生成匹配圖,計算他們的匹配狀態。通過最小代價網路流轉化為線性規劃進行求解。

3.2 基於最小多割圖模型的多目標跟蹤演算法

上述演算法中為了匹配兩個檢測採用LUV影象格式以及光流影象。Tang等人在文獻[2]中發現採用深度學習計算的類光流特徵(DeepMatching),結合表示能力更強的模型也可以得到效果很好的多目標跟蹤結果。

在文獻[2]中,作者通過觀察目標跟蹤問題中的檢測結果,發現僅僅考慮兩幀之間的檢測匹配不是最佳的模型表示。如圖6,由於存在很多檢測不準確的情況,同時考慮影象之間以及影象內部的檢測匹配關係,並建立相應的圖模型比僅僅考濾幀間檢測匹配的圖模型具有更廣泛的表示能力。

圖6:上圖是三幀影象中的檢測結果,為了建立更準確的匹配模型,除了建立兩幀之間的匹配關係,還需要考慮同一幅影象內,是否存在同一個目標對應多個檢測的情況。

 

下圖是構造的幀間及幀內連線圖模型。

類似於最小代價流模型求解多目標跟蹤演算法,這種考慮了幀內匹配的圖模型可以模型化為圖的最小多割問題,如下公式所示:

 

上式中 c_{e} 表示每個邊的代價,這裡用檢測之間的相似度計算。x=0表示節點屬於同一個目標,x=1反之。這個二元線性規劃問題的約束條件表示,對於任何存在的環路,如果存在一個連線x=0,那麼這個環上的其他路徑都是x=0。即,對於優化結果中的0環路,他們都在同一個目標中。所以x=1表示了不同目標的分割,因此這個問題轉化為了圖的最小多割問題。對於最小代價多割問題的求解,可以採用KLj演算法進行求解[7]。

現在的問題是如何計算幀內及幀間檢測配對的匹配度量特徵。作者採用了深度學習演算法框架計算的光流特徵(DeepMatching)作為匹配特徵[8]。圖7是採用DeepMatching方法計算的深度光流特徵示例。

圖7: 利用DeepMatching演算法計算的深度光流特徵,藍色箭頭表示匹配上的點對。

基於DeepMatching特徵,可以構造下列5維特徵:

其中MI,MU表示檢測矩形框中匹配的點的交集大小以及並集大小,ξvξw表示檢測信任度。利用這5維特徵可以學習一個邏輯迴歸分類器。並得到是相同目標的概率pe,從而計算公式(2)中的代價函式:

 

為了連線長間隔的檢測匹配,增強對遮擋的處理能力,同時避免表觀形似但是不同目標檢測之間的連線,Tang等人在最小代價多割圖模型的基礎上提出了基於提升邊(lifted edges)的最小代價多割圖模型[9]。基本的思想是,擴充套件原來多割公式(2)的約束條件,把圖中節點的連線分為常規邊和提升邊,常規邊記錄短期匹配狀態,提升邊記錄長期相似檢測之間的匹配關係。除了原來公式(2)中的約束,又增加了2個針對提升邊的約束,即(1)對於提升邊是正確匹配的,應該有常規邊上正確匹配的支援;(2)對於提升邊是割邊的情況,也應該有常規邊上連續的割邊的支援。如圖8。

圖8: (a)和(c)是傳統的最小代價多割圖模型。(b)和(d)是增加了提升邊(綠色邊)的最小多割圖模型。通過增加提升邊約束,圖中(b)中的提升邊可以被識別為割,而(d)中的邊被識別為連結。

同樣,為了計算邊的匹配代價,需要設計匹配特徵。這裡,作者採用結合姿態對齊的疊加Siamese網路計算匹配相似度,如圖9,採用的網路模型StackNetPose具有最好的重識別效能。

圖9: (a),(b),(c)分別為SiameseNet, StackNet, StackNetPose模型。(e)為這三種模型與ID-Net在行人重識別任務上對比。(d)為StackNetPose的結果示例。

綜合StackNetPose網路匹配信任度、深度光流特徵(deepMatching)和時空相關度,作者設計了新的匹配特徵向量。類似於[2], 計算邏輯迴歸匹配概率。最終的跟蹤結果取得了非常突出的進步。在MOT2016測試資料上的結果如下表:

表1:基於提升邊的最小代價多割演算法在MOT2016測試資料集中的跟蹤效能評測結果。

 

3.3 通過時空域關注模型學習多目標跟蹤演算法

除了採用解決目標重識別問題的深度網路架構學習檢測匹配特徵,還可以根據多目標跟蹤場景的特點,設計合適的深度網路模型來學習檢測匹配特徵。Chu等人對行人多目標跟蹤問題中跟蹤演算法發生漂移進行統計分析,發現不同行人發生互動時,互相遮擋是跟蹤演算法產生漂移的重要原因[4]。如圖10。

圖10:當2個目標的運動發生互動的時候,被遮擋目標不能分辨正確匹配,導致跟蹤漂移。

針對這個問題,文獻[4]提出了基於空間時間關注模型(STAM)用於學習遮擋情況,並判別可能出現的干擾目標。如圖11,空間關注模型用於生成遮擋發生時的特徵權重,當候選檢測特徵加權之後,通過分類器進行選擇得到估計的目標跟蹤結果,時間關注模型加權歷史樣本和當前樣本,從而得到加權的損失函式,用於線上更新目標模型。

圖11:用於遮擋判別的STAM模型框架,採用空間注意模型加權檢測結果的特徵,通過歷史樣本、以及圍繞當前跟蹤結果採集的正、負樣本,來線上更新目標模型。

在這個模型中每個目標獨立管理並更新自己的空間時間關注模型以及特徵模型,並選擇候選檢測進行跟蹤,因此本質上,這種方法是對單目標跟蹤演算法在多目標跟蹤中的擴充套件。為了區分不同的目標,關鍵的步驟是如何對遮擋狀態進行建模和區分接近的不同目標。

這裡空間注意模型用於對每個時刻的遮擋狀態進行分析,空間關注模型如圖12中下圖所示。主要分為三個部分,第一步是學習特徵可見圖(visibility map):

 

這裡 f_{vis} 是一個卷積層和全連線層的網路操作。 w_{vis}^{i} 是需要學習的引數。

第二步是根據特徵可見圖,計算空間關注圖(Spatial Attention):

 

其中 f_{att} 是一個區域性連線的卷積和打分操作。w_{t,j}^{i}是學習到的引數。

圖12:採用空間注意模型網路架構學習遮擋狀態,並用於每個樣本特徵的加權和打分。

第三步根據空間注意圖加權原特徵圖:

對生成的加權特徵圖進行卷積和全連線網路操作,生成二元分類器判別是否是目標自身。最後用得到分類打分選擇最優的跟蹤結果。

3.4 基於迴圈網路判別融合表觀運動互動的多目標跟蹤演算法

上面介紹的演算法採用的深度網路模型都是基於卷積網路結構,由於目標跟蹤是通過歷史軌跡資訊來判斷新的目標狀態,因此,設計能夠記憶歷史資訊並根據歷史資訊來學習匹配相似性度量的網路結構來增強多目標跟蹤的效能也是比較可行的演算法框架。

在文獻[5]中,Sadeghian等人設計了基於長短期記憶迴圈網路模型(LSTM)的特徵融合演算法來學習軌跡歷史資訊與當前檢測之間的匹配相似度。如圖13。

 

圖13:軌跡目標與檢測的匹配需要採用三種特徵(表觀特徵、運動特徵、互動特徵)融合(左),為了融合三種特徵採用分層的LSTM模型(中),最終匹配通過相似度的二部圖匹配演算法實現(右)。

文獻[5]中,考慮從三個方面特徵計算軌跡歷史資訊與檢測的匹配:表觀特徵,運動特徵,以及互動模式特徵。這三個方面的特徵融合以分層方式計算。

在底層的特徵匹配計算中,三個特徵都採用了長短期記憶模型(LSTM)。對於表觀特徵,首先採用VGG-16卷積網路生成500維的特徵ϕtA,以這個特徵作為LSTM的輸入計算迴圈

圖14:基於CNN模型和LSTM模型的軌跡與檢測表觀特徵匹配架構。

網路的輸出特徵ϕi,對於當前檢測BB_{j}^{t+1},計算同樣維度的特徵ϕj,連線這兩個特徵並通過全連結網路層計算500維特徵ϕA,根據是否匹配學習分類器,並預訓練這個網路(圖14)。

對於運動特徵,取相對位移vit為基本輸入特徵,直接輸入LSTM模型計算沒時刻的輸出ϕi,對於下一時刻的檢測同樣計算相對位移v_{j}^{t+1},通過全連線網路計算特徵ϕj,類似於表觀特徵計算500維特徵ϕM,並利用二元匹配分類器進行網路的預訓練(圖15)。

圖15:基於LSTM模型的軌跡運動特徵匹配架構。

對於互動特徵,取以目標中心位置周圍矩形領域內其他目標所佔的相對位置對映圖作為LSTM模型的輸入特徵,計算輸出特徵ϕi,對於t+1時刻的檢測計算類似的相對位置對映圖為特徵,通過全連線網路計算特徵ϕj,類似於運動模型,通過全連線網路計算500維特徵ϕI,進行同樣的分類訓練(圖16)。

圖16:基於LSTM模型的目標互動特徵匹配架構。

當三個特徵ϕAϕMϕI都計算之後拼接為完整的特徵,輸入到上層的LSTM網路,對輸出的向量進行全連線計算,然後用於匹配分類,匹配正確為1,否則為0。對於最後的網路結構,還需要進行微調,以優化整體網路效能。最後的分類打分看作為相似度用於檢測與軌跡目標的匹配計算。最終的跟蹤框架採用線上的檢測與軌跡匹配方法進行計算。

3.5 基於雙線性長短期迴圈網路模型的多目標跟蹤演算法

在迴圈網路判別融合表觀運動互動的多目標跟蹤演算法中,作者採用LSTM作為表觀模型、運動模型以及互動模型的歷史資訊模型表示。在對LSTM中各個門函式的設計進行分析之後,Kim等人認為僅僅用基本的LSTM模型對於表觀特徵並不是最佳的方案,在文獻[10]中,Kim等人設計了基於雙線性LSTM的表觀特徵學習網路模型。

如圖17中,除了利用傳統的LSTM進行匹配學習,或者類似[5]中的演算法,拼接LSTM輸出與輸入特徵,作者設計了基於乘法的雙線性LSTM模型,利用LSTM的隱含層特徵(記憶)資訊與輸入的乘積作為特徵,進行匹配分類器的學習。

圖17:三種基於LSTM的匹配模型。(a)利用隱含層(記憶資訊)與輸入特徵乘積作為分類特徵。(b)直接拼接隱含層特徵與輸入特徵作為新的特徵進行分類學習。(c)使用傳統LSTM模型的隱含層進行特徵學習。

這裡對於隱含層特徵ht-1,必須先進行重新排列(reshape)操作,然後才能乘以輸入的特徵向量xt,如下公式:

 

其中f表示非線性啟用函式, m_{t} 是新的特徵輸入。而原始的檢測影象採用ResNet50提取2048維的特徵,並通過全連線降為256維。下表中對於不同網路結構、網路特徵維度、以及不同LSTM歷史長度時,表觀特徵的學習對跟蹤效能的影響做了驗證。

表2:(左)三種網路結構對跟蹤效能的影響, Baseline1和Baseline2分別對應圖17中的中間圖結構和右圖結構。(中)不同網路隱含層維度對效能的影響。(右)不同歷史資訊長度對跟蹤效能的影響。

可以看出採用雙線性LSTM(bilinear LSTM)的表觀特徵效能最好,此時的歷史相關長度最佳為40,這個值遠遠超過文獻[5]中的2-4幀歷史長度。相對來說40幀歷史資訊影響更接近人類的直覺。

作者通過對比遞推最小二乘公式建模表觀特徵的結果,認為雙線性LSTM模型對於表觀模型的長期歷史特徵建模比簡單的LSTM更具有可解釋性,而對於運動特徵,原始的LSTM特徵表現的更好。綜合雙線性LSTM表觀模型和LSTM運動模型,作者提出了新的基於MHT框架的跟蹤演算法MHT-bLSTM,得到的效能如下表:

表3:在MOT2017和MOT2016中多目標跟蹤演算法比較。在IDF1評測指標上,MHT-bLSTM的效能最佳。

 

基於深度學習的視覺多目標跟蹤演算法討論

上文我們討論了視覺多目標跟蹤領域中,深度學習演算法近年來的發展。從直接擴充套件行人重識別任務中深度學習演算法的網路模型,深度學習被證明在多目標跟蹤領域中是確實可行的特徵學習和特徵匹配演算法,對於提升跟蹤效能可以起到非常重要的作用。目前的基於深度學習的多目標跟蹤框架在以下兩個方向取得了較好的進展:(1)結合多目標跟蹤場景的網路設計,比如在文獻[4]中考慮多目標互動的情況設計網路架構,這種考慮跟蹤場景的網路設計對於跟蹤結果有明顯提升。(2)採用迴圈神經網路的深度學習應用,比如文獻[5]和[10],討論歷史資訊對跟蹤中軌跡特徵的描述,是研究跟蹤問題的一個重要方向。

從跟蹤結果來看,即使採用簡單的重識別網路特徵以及光流特徵,如果使用優化的全域性跟蹤框架,也能夠得到比使用複雜的網路架構更好的結果。例如使用提升邊建模長期連結的多割圖模型,對於跟蹤過程中目標的檢測錯誤和檢測不準確具有很好的補償作用,可以提升正確檢測聚類的效能。而使用迴圈網路模型對於運動特徵的長期匹配相似度計算也是非常有效的。比較上文中討論的兩種迴圈網路的使用,由於缺少互動特徵,基於雙線性LSTM的方法比特徵融合的方法具有一定的效能損失。 因此, 嘗試在網路模型中加入互動特徵的建模,對於多目標跟蹤結果具有一定的效能提升。

基於深度學習的視覺多目標跟蹤發展趨勢

近年來,基於深度學習的單目標跟蹤演算法取得了長足的進步。相對來說,深度學習在多目標跟蹤領域的應用,比較多的侷限於匹配度量的學習。主要的原因是,在影象識別領域中,例如影象分類、行人重識別問題中,深度學習取得的進展能夠較好的直接應用於多目標跟蹤問題。然而,考慮物件到之間的互動以及跟蹤場景複雜性,多目標跟蹤問題中深度學習演算法的應用還遠沒有達到充分的研究。隨著深度學習領域理論的深入研究和發展,近年來基於生成式網路模型和基於強化學習的深度學習越來越得到大家的關注,在多目標跟蹤領域中,由於場景的複雜性,研究如何採用生成式網路模型和深度強化學習來學習跟蹤場景的適應性,提升跟蹤演算法的效能是未來深度學習多目標跟蹤領域研究的趨勢。

 

參考文獻

C. Kim, F. Li, A. Ciptadi, and J. Rehg. Multiple Hypothesis Tracking Revisited. In ICCV, 2015.

S. Tang, B. Andres, M. Andriluka, and B. Schiele. Multi-person tracking by multicut and deep matching. In ECCV Workshops, 2016.

L. Lealtaixe, C. Cantonferrer, and K. Schindler, “Learning by tracking: Siamese CNN for robust target association,” in Proceedings of Computer Vision and Pattern Recognition. 2016.

Q. Chu, W. Ouyang, H. Li, X. Wang, B. Liu, N. Yu. "Online Multi-Object Tracking Using CNN-based Single Object Tracker with Spatial-Temporal Attention Mechanism", ICCV 2017.

A. Sadeghian, A. Alahi, and S. Savarese. "Tracking the untrackable: Learning to track multiple cues with long-term dependencies", ICCV2017.

K. Fang, Y. Xiang, X. Li and S. Savarese, "Recurrent Autoregressive Networks for Online Multi-Object Tracking", In IEEE Winter Conference on Applications of Computer Vision 2018.

M. Keuper, E. Levinkov, N. Bonneel, G. Lavou´e, T. Brox, B. Andres. "Efficient decomposition of image and mesh graphs by lifted multicuts", ICCV 2015.

P. Weinzaepfel, J. Revaud, Z. Harchaoui, C. Schmid. "DeepFlow: large displacement optical flow with deep matching", In ICCV 2013.

S. Tang, M. Andriluka, B. Andres, and B. Schiele. Multiple People Tracking with Lifted Multi-cut and Person Re-identification. In CVPR, 2017.

C. Kim, F. Li, and J. M. Rehg, "Multi-object Tracking with Neural Gating Using Bilinear LSTM", in ECCV 2018.

 

 

推薦閱讀

[1]機器學習-波瀾壯闊40年【獲取碼】SIGAI0413.

[2]學好機器學習需要哪些數學知識?【獲取碼】SIGAI0417.

[3] 人臉識別演算法演化史【獲取碼】SIGAI0420.

[4]基於深度學習的目標檢測演算法綜述 【獲取碼】SIGAI0424.

[5]卷積神經網路為什麼能夠稱霸計算機視覺領域?【獲取碼】SIGAI0426.

[6] 用一張圖理解SVM的脈絡【獲取碼】SIGAI0428.

[7] 人臉檢測演算法綜述【獲取碼】SIGAI0503.

[8] 理解神經網路的啟用函式 【獲取碼】SIGAI2018.5.5.

[9] 深度卷積神經網路演化歷史及結構改進脈絡-40頁長文全面解讀【獲取碼】SIGAI0508.

[10] 理解梯度下降法【獲取碼】SIGAI0511.

[11] 迴圈神經網路綜述—語音識別與自然語言處理的利器【獲取碼】SIGAI0515

[12] 理解凸優化 【獲取碼】 SIGAI0518

[13] 【實驗】理解SVM的核函式和引數 【獲取碼】SIGAI0522

[14]【SIGAI綜述】行人檢測演算法 【獲取碼】SIGAI0525

[15] 機器學習在自動駕駛中的應用—以百度阿波羅平臺為例(上)【獲取碼】SIGAI0529

[16]理解牛頓法【獲取碼】SIGAI0531

[17] 【群話題精華】5月集錦—機器學習和深度學習中一些值得思考的問題【獲取碼】SIGAI 0601

[18] 大話Adaboost演算法 【獲取碼】SIGAI0602

[19] FlowNet到FlowNet2.0:基於卷積神經網路的光流預測演算法【獲取碼】SIGAI0604

[20] 理解主成分分析(PCA)【獲取碼】SIGAI0606

[21] 人體骨骼關鍵點檢測綜述 【獲取碼】SIGAI0608

[22]理解決策樹 【獲取碼】SIGAI0611

[23] 用一句話總結常用的機器學習演算法【獲取碼】SIGAI0611

[24] 目標檢測演算法之YOLO 【獲取碼】SIGAI0615

[25] 理解過擬合 【獲取碼】SIGAI0618

[26]理解計算:從√2到AlphaGo ——第1季 從√2談起 【獲取碼】SIGAI0620

[27] 場景文字檢測——CTPN演算法介紹 【獲取碼】SIGAI0622

[28] 卷積神經網路的壓縮和加速 【獲取碼】SIGAI0625

[29] k近鄰演算法 【獲取碼】SIGAI0627

[30]自然場景文字檢測識別技術綜述 【獲取碼】SIGAI0627

[31] 理解計算:從√2到AlphaGo ——第2季 神經計算的歷史背景 【獲取碼】SIGAI0704

[32] 機器學習演算法地圖【獲取碼】SIGAI0706

[33] 反向傳播演算法推導-全連線神經網路【獲取碼】SIGAI0709

[34] 生成式對抗網路模型綜述【獲取碼】SIGAI0709.

[35]怎樣成為一名優秀的演算法工程師【獲取碼】SIGAI0711.

[36] 理解計算:從根號2到AlphaGo——第三季 神經網路的數學模型【獲取碼】SIGAI0716

[37]【技術短文】人臉檢測演算法之S3FD 【獲取碼】SIGAI0716

[38] 基於深度負相關學習的人群計數方法【獲取碼】SIGAI0718

[39] 流形學習概述【獲取碼】SIGAI0723

[40] 關於感受野的總結 【獲取碼】SIGAI0723

[41] 隨機森林概述 【獲取碼】SIGAI0725

[42] 基於內容的影象檢索技術綜述——傳統經典方法【獲取碼】SIGAI0727

[43] 神經網路的啟用函式總結【獲取碼】SIGAI0730

[44] 機器學習和深度學習中值得弄清楚的一些問題【獲取碼】SIGAI0802

[45] 基於深度神經網路的自動問答系統概述【獲取碼】SIGAI0803

[46] 反向傳播演算法推導——卷積神經網路 【獲取碼】SIGAI0806

[47] 機器學習與深度學習核心知識點總結 寫在校園招聘即將開始時 【獲取 碼】SIGAI0808

[48] 理解Spatial Transformer Networks【獲取碼】SIGAI0810

[49]AI時代大點兵-國內外知名AI公司2018年最新盤點【獲取碼】SIGAI0813

[50] 理解計算:從√2到AlphaGo ——第2季 神經計算的歷史背景 【獲取碼】SIGAI0815

[51] 基於內容的影象檢索技術綜述--CNN方法【獲取碼】SIGAI0817

[52]文字表示簡介 【獲取碼】SIGAI0820

[53]機器學習中的最優化演算法總結【獲取碼】SIGAI0822

[54]【AI就業面面觀】如何選擇適合自己的舞臺?【獲取碼】SIGAI0823

[55]濃縮就是精華-SIGAI機器學習藍寶書【獲取碼】SIGAI0824

[56]DenseNet詳解【獲取碼】SIGAI0827

[57]AI時代大點兵國內外知名AI公司2018年最新盤點【完整版】【獲取碼】SIGAI0829

[58]理解Adaboost演算法【獲取碼】SIGAI0831

[59]深入淺出聚類演算法 【獲取碼】SIGAI0903

[60]機器學習發展歷史回顧【獲取碼】SIGAI0905

[61] 網路表徵學習綜述【獲取碼】SIGAI0907

[62] 視覺多目標跟蹤演算法綜述(上) 【獲取碼】SIGAI0910

[63] 計算機視覺技術self-attention最新進展 【獲取碼】SIGAI0912

[64] 理解Logistic迴歸 【獲取碼】SIGAI0914

[65] 機器學習中的目標函式總結 【獲取碼】SIGAI0917

[66] 人臉識別中的活體檢測演算法綜述【獲取碼】SIGAI0919

[67] 機器學習與深度學習常見面試題(上)【獲取碼】SIGAI0921

[68] 淺談動作識別TSN,TRN,ECO 【獲取碼】SIGAI0924

[69] OCR技術簡介【獲取碼】SIGAI0926

[70] 輕量化神經網路綜述【獲取碼】SIGAI1001

[71] 行人重識別PCB-RPP,SGGNN 【獲取碼】SIGAI1001

[72] 人工智慧非技術從業者必知的十件事 【獲取碼】SIGAI1008

[73] 理解生成模型與判別模型 【獲取碼】SIGAI1010s

[74] 目標檢測最新進展總結與展望【獲取碼】SIGAI012

[75] 三維深度學習的目標分類和語義切割【獲取碼】S