1. 程式人生 > >ORB 一種特徵匹配替代方法:對比SIFT或SURF

ORB 一種特徵匹配替代方法:對比SIFT或SURF

ORB: an efficient alternative to SIFT or SURF

Taylor Guo, 2016年3月11日星期五 20:45

寫在前面的話:

繼”ORB-SLAM: Tracking and Mapping Recognizable Features”,”Bags of Binary Words for Fast Place Recognition in Image Sequences”後已經對ORB SLAM的基本框架

和基礎資料結構有了比較清晰的認識,這篇”ORB: an efficient alternative to SIFT or SURF”是對特徵匹配進一步理解。

ORB是Oriented FAST and Rotated BRIEF的簡稱。ORB將在本文中詳細描述。Ethan Rublee and Vincent Rabaud and Kurt Konolige and Gary Bradski,《ORB: an efficient alternative to SIFT or SURF》, ICCV 2011。OpenCV2.3中已經實現。

在翻譯的過程中,為了讓這些工作更有實際意義,我儘可能地將論文和程式碼結合起來、將理論和實際應用結合。文中藍色字型或斜體的部分,是譯者自己新增的部分,讀者可自行選擇。

摘要:

特徵匹配是許多計算機視覺問題的基本問題,如目標(物體)識別或運動分析的三維結構資訊。目前特徵查詢和匹配的特徵向量描述計算代價巨大。本文提出了一種基於BRIEF的快速二進位制特徵向量描述器,稱為ORB。它具有旋轉不變特性和噪音抑制的特性。我們通過各種狀態下的實驗,演示了ORB如何在兩個維度上,運算速度快於SIFT,並且在智慧手機上測試了物體識別和跟蹤的應用程式。

1.   簡介

SIFT關鍵點檢測和特徵向量描述,這項技術的發明已經有超過10多年的歷史,它成功應用於各種使用視覺特徵的場合,包括物體(目標)識別,影象配準與拼接,視覺地圖構建。但由於需要大量運算而受限,尤其是實時應用的系統中,如視覺里程計或像在手機這樣低成本的裝置中。於是出現了較小運算代價,用於大量密集資料的影象畫素查詢演算法的出現,其中最優秀的是SURF。還有一些研究旨在提高SIRF的運算效率,大部分是帶有GPU的裝置。

本文提出了一種高效演算法,與SIFT有相同的特徵匹配效能,同時具有較強的影象噪聲抑制行效能,能夠用於實時系統中。我們的目的是加強通用型影象匹配程式的功能,使得無GPU加速的低功耗裝置能夠處理全景影象拼接和影象塊追蹤,以減少物體識別的運算時間。在這些維度上,我們的特徵向量描述方法和SIFT效能一樣,優於SURF。我們的特徵描述基於FAST關鍵點檢測和BRIEF特徵向量描述器,因此我們把它叫做ORB(Oriented FAST and Rotated BRIEF)。這些技術性能優良、成本較低,非常有吸引力。本文中,相對於SIFT,我們提出了這些技術的侷限性,尤其是BRIEF不具備旋轉不變性。我們的主要貢獻在於:

  • 對於FAST演算法,增加了快速準確的方向指向功能;
  • 高運算效率的具有指向功能的BRIEF特徵;
  • 具有指向功能的BRIEF特徵的方差及相關性分析;
  • 基於旋轉不變且去關聯性的BRIEF特徵的方法,用於減少近鄰取樣(點取樣)應用中。

為了檢驗ORB,我們對ORB,SIFT,SURF的相關特性進行了對比實驗,主要是原始資料匹配能力和影象匹配效能。我們還在智慧手機上演示了ORB影象區塊追蹤的應用。另外,ORB的使用並不會受到SIFT和SURF的使用許可的限制。

2.相關工作

關鍵點  FAST和它的變形方法是實時系統中用於視覺特徵匹配查詢關鍵點的主要方法,比如在PTAM中的使用。儘管仍然需要金字塔模型在尺度上對該方法進行增強,但這個方法還是可以很有效地查詢合理的角關鍵點,在我們的例子中,哈里斯角點檢測濾除邊緣並提供了一個合理的分值。

很多關鍵點檢測模型都包含了定位運算元(比如SIFT和SURF),FAST演算法卻沒有。有很多方法可以描述關鍵點的方向資訊,大多采用方向梯度直方圖計算,比如SIFT或者類似於SURF圖案區塊。這些方法要麼計算量要求大,要麼像SURF那樣只是近似估計。論文22,分析了各種測量角點方向的方法,我們借用了他的質心方法。與SIFT中的定位運算元中單個關鍵點有多個值的狀況有所不同,質心運算元只給出一個主要的結果。

特徵向量描述子  BRIEF是特徵向量描述子,其結果是在平滑影象塊中使用簡單的二進位制比較兩個畫素的值。在很多方面和SIFT的效能非常相近,包括對於光照,模糊,影象變形的魯棒性。但它對於平面旋轉非常敏感。

BRIEF的研究源於用二進位制結果生成一個樹形分類模型。一旦對500個左右的典型關鍵點完成訓練,樹狀模型就可以用於判斷任何關鍵點並返回特徵標記。同樣的方法,我們就可以查詢對方向最不敏感的比較結果。用於查詢不相關比較結果的經典方法是主因分析法,SIFT的主因分析法(PCA)可以去掉大量冗餘資訊。但是,二進位制的比較結果太多佔用大量記憶體不能採用PCA方法,而採用窮舉搜尋演算法。

視覺字典方法採用離線聚類查詢不關聯的樣本用於匹配。這些方法用於搜尋不關聯的二進位制比較結果也有可能有用。

與ORB最相似的方法是論文3,它提出了一種多尺度的哈爾斯關鍵點和圖案方向描述子。這種描述子用於影象配置和拼接,表現出良好的旋轉和尺度不變特性。但計算效率沒有我們的高。

3.  oFAST:FAST關鍵點方向

FAST特徵方法由於運算速度快而被廣泛採用。但FAST特徵卻不具備方向特性。在這一章,我們將為它新增一個高效的方向特性。

3.1 FAST特徵點檢測

我們開始偵測影象的FAST特徵點。FAST演算法的一個引數,是一個亮度閾值判斷中心畫素(目標畫素)和它周圍一圈畫素的比值。我們採用效能最好的FAST-9演算法(半徑為9個畫素)。

FAST演算法並不生成角點,我們發現它在邊緣上有明顯特徵。我們採用Harris角點(也叫特徵點,關鍵點,興趣點) 檢測器演算法來規則化區域性FAST關鍵點。對於N個區域性關鍵點,首先設定一個很低的閾值以足夠獲得N個關鍵點,再根據Harris角點檢測器來把它們規則化,選取前N個點。

FAST演算法並不能產生多尺度的特徵點。我們採用影象金字塔尺度模型,在金字塔的每層採用Harris濾波生成FAST關鍵點。

/*作者寥寥數句話,就把FAST特徵和Harris角點檢測演算法給說完了,這背後巨大的知識量,額,我還沒完全消化。這裡就停下來先搞懂<影象處理>裡面的基於<影象表達>,<影象資料結構>之後的<影象預處理>部分的<影象特徵檢測>中的<角點檢測>。*/

/*說了這麼多,就是希望能夠找到這些東西來龍去脈、前世今生,以便日後用起來輕鬆自如,舉一反三,不用重複勞動,亂讀書、讀爛書。*/

3.2灰度質心定位方法

我們採用灰度質心定位的方法計算角點的方向。灰度質心定位方法的基本假設是角點與中心畫素的亮度不同,這個向量可以推匯出質心的方向。

《Measuring Corner Properties》(1999年)的作者Rosin定義了影象塊的矩:

其中I(x,y)為點(x,y)處的灰度值。

那麼我們可以得到影象區塊的質心為:

那麼我們可以從影象區塊的角點中心O到質心(中心)畫素的方向,構建一個向量 。

那麼影象區塊的方向可以簡單表示為:

其中,atan2是象限相關的arctan函式。

Rosin認為,這跟角點灰度是亮還是暗有關,然而,我們並不關心這些,最重要的是角度的測量。

為了提高方法的旋轉不變性,我們要儘量確保用於計算矩的畫素點(x,y)位於半徑為r的圓形區域內。既然影象區塊的面積是半徑為r的圓形區域,那麼x,y∈[−r,r]。當|C|接近0時,該方法就變得不穩定。但採用FAST角點情況下,這種情況基本不會出現。

我們對比了質心定位法與基於梯度的方法,BIN(直方圖概念相關)和MAX(高等數學方向導數和梯度)。在這兩種方法中,可以通過計算平滑影象的X和Y梯度。MAX選擇影象區塊關鍵點中最大的梯度方向。BIN在10個區間裡面選擇最大的形成直方圖的梯度方向。儘管只選擇了一個方向,但BIN和SIFT演算法比較類似。圖2給出了平面旋轉帶噪聲的影象的資料集上的方差比較。它們的梯度方向測量都沒那麼好,但在有影象噪聲的情況下,質點定位法給你出的方向比較一致。

4.  rBRIEF:具有方向旋轉的BRIEF演算法

在這一章,將介紹Steered BRIEF (轉向BRIEF)特徵描述子,帶有方向旋轉變數後BRIEF效能變差,我們將演示如何有效地改進演算法。我們提供了具有更少關聯性的二值測試方法用來獲得更好的rBRIEF特徵描述子,還與SIFT和SURF做了比較。

4.1BRIEF方向旋轉

BRIEF概覽

BRIEF(BinaryRobust Independent Elementary Features)特徵描述子,是對影象區塊二值字串的描述,影象區塊由二值灰度比較的結果構成。對於平滑的影象區塊P,二值判斷方法τ如下定義:

P(x)是影象區塊p的在點x的灰度值。

特徵定義為具有n個二值的向量:

比較結果有很多種不同的分佈方式,以影象區塊中心進行高斯分佈。選擇向量長度n=256。

在做比較之前,對影象做平滑處理非常重要。這裡採用積分圖對影象做平滑處理,每個測試點是一個包含31x31畫素區塊的5x5子視窗。這些選擇標準來自於我們之前論文6的實驗。

具有方向旋轉的BRIEF

我們希望BRIEF具有旋轉不變的特性。如圖7所示,BRIEF的匹配效能在較小的角度內劇烈下降。

Calonder建議針對一組旋轉和每個區塊的影象形變計算BRIEF特徵描述子,但計算代價昂貴。一個更有效率的方法是根據關鍵點的定位調整BRIEF的方向。對任何在點(Xi, Yi)上的n個二值測試特徵組,定義2xn的矩陣:

採用影象區塊旋轉角度θ和相應的旋轉向量Rθ,我們構建一個可轉向的S版本Sθ:  

那麼具有旋轉方向BRIEF就變成: 

我們將角度分散到2π/30(12度)增量中,構建一個儲存已經計算的BRIEF模式的查詢表。關鍵點方向θ對多檢視具有一致性,校準的點Sθ將被用於計算它的特徵描述子。

4.2方差和相關性

BRIEF的一個最好的特徵就是每個特徵位的方差比較大,均值接近0.5。圖3給出了典型的高斯BRIEF模式包含256bits和100K關鍵點。對一個特徵位,均值0.5的最大樣本方差0.25。另外,一旦BRIEF根據關鍵點方向進行定位形成方向旋轉BRIEF,均值就會呈分散模式,如圖3所示。對這種情況的理解是,具有方向的角點關鍵點對二值比較結果具有更高的均衡性。

由於對資料輸入反饋不同,方差越大,特徵區別越明顯。每個比較都對結果有影響,另一個期望的特性是使二值結果不相關。為了分析BRIEF向量中二值測試結果的相關性和方差,我們考查具有100K關鍵點的BRIEF和具有方向旋轉的BRIEF的反饋情況。測試結果如圖4所示。我們採用PCA演算法對資料分析,繪製了40個最高的特徵值(經過2個特徵描述子的聚類)。BRIEF和旋轉BRIEF都具有很高的初始特徵值,也提供了二值比較結果的相關性------更重要的是這些資訊分佈在前10-15個主成分上。旋轉BRIEF具有明顯的很低的方差,但是特徵值也很低,那麼區別就不明顯。很明顯,BRIEF依賴於關鍵點的隨機方向來獲取更好的效能。圖5所示旋轉BRIEF在有效資料和無效資料的距離上的效果。對旋轉BRIEF,外輪廓向左平移,與內輪廓有重疊。

 

4.3二值特徵

為了使steered BRIEF方差增大,減少二值比較結果的相關性,我們開發了一種方法來選擇一組二值比較結果。一種策略是使用主因分析法或減少其他維度的方法,從二值比較結果的資料組開始,選出256個有大方差,不關聯(通過大量資料訓練)的新特徵。既然新特徵是由大量二值結果組成,可能計算效率要比steered BRIEF要低。那麼,我們就搜尋所有可能的二值結果尋找那些大方差(均值接近0.5),且不相關的二值。

具體方法:首先從PASCAL 2006影象資料集裡提取300K個關鍵點建立訓練資料。通過畫31x31的畫素區塊,列舉所有可能的二值結果。每個測試結果都是一對5x5的影象區塊子視窗。如果影象區塊的寬度wp=31,測試子視窗的寬度wt=5,那麼就有N=(wp-wt2個可能的子視窗。我們從裡面再作配對,那麼我們就有 二值結果。我們去掉那些重疊的結果,那麼我們就有M=205590可能的結果。

具體演算法:

  1. 針對所有的訓練影象區塊,對每個關鍵點做測試。
  2. 根據測試結果到均值為5的距離進行排序形成向量T。
  3. 貪婪演算法搜尋:
    1. 將第一個測試結果放入向量R,並將其從向量T中移除。
    2. 在T裡面進行下一次測試,比較R裡面所有的結果。如果絕對相關值大於閾值,就丟掉;反之就新增到R。
    3. 重複上面的步驟,直到R裡面有256個測試結果。如果少於256個結果,就提高閾值,然後再試。

在均值為0.5左右的一組不相關的測試結果中進行貪婪搜尋。結果稱為rBRIEF。rBRIEF在方差和相關性特性上有明顯增強,如圖4所示。PCA的特徵值也比較高,但它們下降沒那麼快。如圖6所示,演算法產生的高方差二值結果。左圖裡未經訓練的比較結果裡有很明顯的垂直趨向,高度相關;經過訓練的結果表現出更好的多樣性和更低相關性。

4.4評估

我們評估ORB,將oFAST和rBRIEF融合,使用兩個資料集:一組影象經過平面旋轉和高斯去噪聲,另一組是不同視角下真實世界的紋理化平面圖像。對每幅影象,我們都計算oFAST關鍵點和rBRIEF特徵,每幅影象500個關鍵點。對每幅影象(融合旋轉或真實世界視角轉換),我們執行暴力搜尋查詢最好匹配。根據正確匹配的百分比提供測試結果,而不是旋轉角度。

圖7 是融合高斯噪聲的資料集測試結果。標準BRIEF演算法在10度左右急劇下降。SIFT效能優於SURF,由於Haar小波成分在45度角的地方有很大不同。ORB效能最好,優於70%有效資料模型。

與SIFT不同,ORB不受高斯噪聲影響。如果對比有效資料和噪聲,SIFT在噪聲增加5的情況下有10%的緩慢下降。如圖8所示,ORB也有所下降,但下降幅度更小。

為了測試ORB對實時影象的效能,我們用了兩組影象資料集,一組是室內影象有高度紋理化的雜誌放在桌子上,如圖9所示,另一組是室外環境。資料集有尺度、視角、光線變化。

測試之後,我們得到了ORB和SIFT,SURF的效能對比。測試方法如下:

  1. 選擇參考檢視V0.
  2. 對所有檢視Vi,查詢單值對映Hi0,Vià V0.
  3. 以Hi0作為基準,用於特徵描述子匹配,對比SIFT,SURF和ORB。
inlier % N points
Magazines
ORB 36.180 548.50
SURF 38.305 513.55
SIFT 34.010 584.15
Boat
ORB 45.8 789
SURF 28.6 795
SIFT 30.2 714

在室外環境下,ORB效能優於SIFT和SURF。室內環境,效能一樣;論文6提到SIFT斑點偵測的關鍵點在塗鴉型別的影象上效能更好。

5.  二值特徵不同尺度匹配

大量影象資料集下,ORB最近鄰搜尋匹配效能優於SIFT/SURF。ORB的評價標準之一是方差,它使得鄰近搜尋更有效率。

5.1rBRIEF區域性敏感雜湊方法

rBRIEF是二值模式,所以我們選擇區域性敏感雜湊方法作為最近鄰快速查詢。在區域性敏感雜湊方法中,點被儲存到幾個雜湊表裡,被雜湊到不同桶裡。給定一個要檢索的特徵描述子,提取匹配的桶,用暴力匹配的方法匹配裡面的元素。這個方法的作用在於將一個在超大集合內查詢相鄰元素的問題轉化為了在一個很小的集合內查詢相鄰元素的問題,在給定雜湊表的情況下查詢成功概率比較高。

對於二值特徵,雜湊表示超大集合的一個子集:雜湊表對應的桶包含了相同的特徵描述子,它們在同一個子集裡。它們的距離用漢明距離計算。

我們增強了多點探測區域性敏感雜湊方法,來增強傳統區域性敏感雜湊方法,雜湊對映變換後,原始空間中相鄰的資料落入相同的桶內,那麼在該資料集合中進行近鄰查詢就變得容易了,我們查詢特徵描述子落入的相鄰的桶。然而,這可能需要確認更多的匹配,需要的表的數量少一些,更長的子集,因此可以用小一點的桶。

5.2關聯與分層

rBRIEF增強了區域性敏感雜湊方法的速度,它將雜湊表對映的桶分得更平均:二值結果的關聯性更小,雜湊方法能夠更好地劃分資料。如圖10所示,與steered BRIEF和BRIEF相比,雜湊桶平均更小。

5.3評估

我們比較了具有kd樹的rBRIEF LSH和採用FLANN的SIFT特徵描述子的效能。我們基於PASCAL 2009資料集訓練了不同的特徵描述子,測試了仿射變換後的影象。

我們的多點探測區域性敏感雜湊方法採用二值資料加速了對雜湊查詢表的鍵值搜尋。它也可以用來計算兩個特徵描述子的漢明距離。

圖11對比了SIFT kd樹(SURF是一樣的)和rBRIEF LSH的速度和精度。影象資料庫裡面超過50個特徵描述子的時候就會有一個成功的匹配影象。我們發現LSH比kd樹快,主要是由於距離計算上的簡化和加快。LSH對精度的調整也有彈性,可以通過特徵詞袋方法來獲得,如論文21,27。我們也發現steered BRIEF由於不平均的雜湊桶速度更慢。

6.  應用

6.1對比測試

ORB的速度在標準CPU上的計算效率更高。ORB採用oFAST特徵偵測和rBRIEF特徵描述,它們在5個影象尺度上分別計算,尺度因子是 。我們採用區域性差值方法10去1。

ORB系統運算時間劃分如下表所示,典型的影象幀的解析度是640x480。程式碼在單執行緒Intel i7 2.8GHz處理器上處理。

ORB計算5個尺度下的2686張影象,42秒內偵測計算了超過2x106個特徵點。相同尺度的1000個特徵點的對比測試如下:

ORB比SURF快一個數量級,比SIFT快兩個數量級。

6.2紋理化的目標物體偵測

rBRIEF物體識別的方法:先偵測oFAST特徵和rBRIEF特徵描述子,將它們與資料庫匹配,然後執行PROSAC和EPnP演算法得到一個位姿估計。

6.3嵌入式系統特徵追蹤

通過當前幀與之前的影象幀匹配實現手機上的追蹤。關鍵幀裡的特徵描述子,包含平面物體表面紋理。ORB處理新進的影象,通過暴力搜尋匹配特徵描述子。通過PROSAC適配單對映H。

實時的手機影象特徵追蹤在比較小的解析度上執行(比如120x160),特徵點非常少,如論文30所示。ORB可以以7Hz幀率640x480解析度執行在1GHz ARM處理器512MB RAM系統上。在Andriod系統上移植OpenCV。下面是每個影象400個特徵點的對比測試:

7.  結論

我們通過OpenCV 2.3實現了ORB。ORB具有尺度不變特性。

鼓勵譯者

你的鼓勵是我寫作的動力,歡迎光臨,謝謝打賞。:)

參考文獻

[1] M. Aly, P. Welinder, M. Munich, and P. Perona. Scaling object recognition: Benchmark of current state of the art techniques. In First IEEE Workshop on Emergent Issues in Large Amounts of Visual Data (WS-LAVD), IEEE International

Conference on Computer Vision (ICCV), September 2009. 6

[2] H. Bay, T. Tuytelaars, and L. Van Gool. Surf: Speeded up robust features. In European Conference on Computer Vision,May 2006. 1, 2

[3] M. Brown, S. Winder, and R. Szeliski. Multi-image matching using multi-scale oriented patches. In Computer Vision and Pattern Recognition, pages 510–517, 2005. 2

[4] M. Calonder, V. Lepetit, and P. Fua. Keypoint signatures for fast learning and recognition. In European Conference on Computer Vision, 2008. 2

[5] M. Calonder, V. Lepetit, K. Konolige, P. Mihelich, and P. Fua. High-speed keypoint description and matching using dense signatures. In Under review, 2009. 2

[6] M. Calonder, V. Lepetit, C. Strecha, and P. Fua. Brief: Binary robust independent elementary features. In In European Conference on Computer Vision, 2010. 1, 2, 3, 5

[7] O. Chum and J. Matas. Matching with PROSAC - progressive sample consensus. In C. Schmid, S. Soatto, and C. Tomasi, editors, Proc. of Conference on Computer Vision and Pattern Recognition (CVPR), volume 1, pages 220–226,Los Alamitos, USA, June 2005. IEEE Computer Society. 7

[8] M. Everingham. The PASCAL Visual Object Classes Challenge 2006 (VOC2006) Results. http://pascallin.ecs.soton.ac.uk/challenges/VOC/databases.html. 4

[9] M. Everingham, L. Van Gool, C. K. I. Williams, J. Winn, and A. Zisserman. The PASCAL Visual Object Classes Challenge 2009 (VOC2009) Results.http://www.pascalnetwork.org/challenges/VOC/voc2009/workshop/index.html.6, 7

[10] A. Gionis, P. Indyk, and R. Motwani. Similarity search in high dimensions via hashing. In M. P. Atkinson, M. E. Orlowska,P. Valduriez, S. B. Zdonik, andM. L. Brodie, editors,VLDB’99, Proceedings of 25th International Conference onVery Large Data Bases, September 7-10, 1999, Edinburgh,Scotland, UK, pages 518–529. Morgan Kaufmann, 1999. 6

[11] C. Harris and M. Stephens. A combined corner and edge detector. In Alvey Vision Conference, pages 147–151, 1988. 2

[12] Y. Ke and R. Sukthankar. Pca-sift: A more distinctive representation for local image descriptors. In Computer Vision and Pattern Recognition, pages 506–513, 2004. 2

[13] G. Klein and D. Murray. Parallel tracking and mapping for small AR workspaces. In Proc. Sixth IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR’07), Nara, Japan, November 2007. 1

[14] G. Klein and D. Murray. Improving the agility of keyframebased SLAM. In European Conference on Computer Vision,2008. 2

[15] G. Klein and D. Murray. Parallel tracking and mapping on a camera phone. In Proc. Eigth IEEE and ACM International Symposium on Mixed and Augmented Reality (ISMAR’09),Orlando, October 2009. 7

[16] V. Lepetit, F.Moreno-Noguer, and P. Fua. EPnP: An accurate O(n) solution to the pnp problem. Int. J. Comput. Vision, 81:155–166, February 2009. 7

[18] Q. Lv, W. Josephson, Z. Wang, M. Charikar, and K. Li. Multi-probe LSH: efficient indexing for high-dimensional similarity search. In Proceedings of the 33rd international conference on Very large data bases, VLDB ’07, pages 950–961. VLDB Endowment, 2007. 6

[19] M. Martinez, A. Collet, and S. S. Srinivasa. MOPED: A Scalable and low Latency Object Recognition and Pose Estimation System. In IEEE International Conference on Robotics and Automation. IEEE, 2010. 7

[20] M. Muja and D. G. Lowe. Fast approximate nearest neighbors with automatic algorithm configuration. VISAPP, 2009. 6

[22] P. L. Rosin. Measuring corner properties. Computer Vision and Image Understanding, 73(2):291 – 307, 1999. 2

[23] E. Rosten and T. Drummond. Machine learning for highspeed corner detection. In European Conference on Computer Vision, volume 1, 2006. 1

[24] E. Rosten, R. Porter, and T. Drummond. Faster and better:A machine learning approach to corner detection. IEEE Trans. Pattern Analysis and Machine Intelligence, 32:105–119, 2010. 1

[25] S. Se, D. Lowe, and J. Little. Mobile robot localization and mapping with uncertainty using scale-invariant visual landmarks.International Journal of Robotic Research, 21:735–758, August 2002. 1

[26] S. N. Sinha, J. michael Frahm, M. Pollefeys, and Y. Genc.Gpu-based video feature tracking and matching. Technical report, In Workshop on Edge Computing Using New Commodity Architectures, 2006. 1

[28] N. Snavely, S. M. Seitz, and R. Szeliski. Skeletal sets for efficient structure from motion. In Proc. Computer Vision and Pattern Recognition, 2008. 1

[29] G.Wang, Y. Zhang, and L. Fei-Fei. Using dependent regions for object categorization in a generative framework, 2006. 6

[30] A. Weimert, X. Tan, and X. Yang. Natural feature detection on mobile phones with 3D FAST. Int. J. of Virtual Reality, 9:29–34, 2010.

翻譯參考資料:

計算機視覺目標檢測的框架與過程    blog.csdn.net/zouxy09/article/details/7928771

學習OpenCV——ORB & BRIEF(特徵點篇)&Location  blog.csdn.net/yangtrees/article/details/7533988

學習OpenCV——Surf(特徵點篇)&flann      blog.csdn.net/yangtrees/article/details/7482960

structure from motion      blog.csdn.net/sway_2012/article/details/8036863

基於稀疏矩陣的k近鄰(KNN)實現        blog.csdn.net/zouxy09/article/details/42297625

對論文Learning 3-D Scene Structure from a Single Still Image的理解   用單張2D影象重構3D場景    blog.csdn.net/zouxy09/article/details/8083553

Bundler: Structure from Motion (SfM) for Unordered Image Collections     www.cs.cornell.edu/~snavely/bundler/

Fast Approximate Nearest Neighbor Search

Opencv學習筆記(五)Harris角點檢測    blog.csdn.net/crzy_sparrow/article/details/7391511

更多的資源與參考:

Photo Tourism: Exploring Photo Collections in 3D     phototour.cs.washington.edu/Photo_Tourism.pdf

Modeling the World from Internet Photo Collections      phototour.cs.washington.edu/ModelingTheWorld_ijcv07.pdf

理解矩陣      blog.csdn.net/zouxy09/article/details/8004724

數學之美番外篇:平凡而又神奇的貝葉斯方法      blog.csdn.net/zouxy09/article/details/8005109

計算機視覺的一些測試資料集和原始碼站點        blog.csdn.net/zouxy09/article/details/8768561

計算機視覺、機器學習相關領域論文和原始碼大集合--持續更新……    blog.csdn.net/zouxy09/article/details/8550952

影象處理和計算機視覺中的經典論文        blog.csdn.net/zouxy09/article/details/8233198

計算機視覺領域的一些牛人部落格,研究機構等的網站連結      blog.csdn.net/zouxy09/article/details/8233094