超越畫素平面:聚焦3D深度學習的現在和未來

ofollow,noindex" target="_blank">機器之心 翻譯
Mihir Garimella、Prathik Naidu 作者 Geek ai、曉坤 參與
超越畫素平面:聚焦3D深度學習的現在和未來
在過去的 5 年中,3D 深度學習方法已經從使用三維資料的派生表示(二維投影)轉變為直接使用原始資料(點雲)。而在方法上也從將二維卷積神經網路應用到三維資料上轉變為專門為三維場景設計的方法,這大大提高了物體分類和語義分割等任務的效能。這些結果非常有前景,它們證明了通過三維技術觀察和表示這個世界是有價值的。然而,這個領域才剛剛步入發展的快車道。
想象一下,如果你正在建造一輛自動駕駛汽車,它需要了解周圍的環境。為了安全行駛,你的汽車該如何感知行人、騎車的人以及周圍其它的車輛呢?你可能會想到用一個攝像頭來滿足這些需求,但實際上,這種做法似乎效果並不好:你面對的是一個三維的環境,相機拍攝會使你把它「壓縮」成二維的影象,但最後你需要將二維影象恢復成真正關心的三維影象(比如你前方的行人或車輛與你的距離)。在相機將周圍的三維場景壓縮成二維影象的過程中,你會丟掉很多最重要的資訊。試圖恢復這些資訊是很困難的,即使我們使用最先進的演算法也很容易出錯。
相反,用三維資料來增強對世界的二維檢視是非常好的做法。與其試著從一張二維影象中估計你和行人或其它車輛的距離,你不如通過感測器直接對這些物體進行定位。但是,這樣做又會使感知的工作變得十分困難。如何在三維資料中識別人、騎車者和汽車這樣的目標呢?傳統的像 卷積神經網路 (CNN)這樣的深度學習技術,能夠使在二維影象中識別這些目標變得簡單而直接,但是它們也需要進行一些調整從而適應在三維環境下的工作。幸運的是,三維感知問題在過去的幾年中已經被人們廣泛研究,我們在本文中的任務就是對這項工作進行一個簡要的概述。
具體來說,我們將關注最近的三維目標分類和語義分割的深度學習技術。我們將首先回顧一些獲取和表示三維資料的常用方法的背景。接著,我們將介紹三種不同的表示三維資料的基本深度學習方法,最後,我們將介紹未來有前景的新研究方向,並且從我們的視角總結該領域未來的走向。
我們如何獲取並表示三維資料?
顯然,我們需要能夠直接在三維空間進行操作的計算機視覺方法,但是這向我們提出了三個明確的挑戰:感知、表示和理解三維資料。
感知
獲取三維資料的過程是複雜的。雖然二維攝像頭既便宜又隨處可見,但是三維感知通常需要專用的硬體裝置。
Stereo vision 需要使用多個攝像頭,測量感知目標的位置變化,從而計算深度資訊。(來源:愛丁堡大學)
1:立體視覺系統 Stero 需要在相對於待測物體特定的一些位置固定兩個或多個攝像頭,並且利用這樣設定的結構獲取不同場景下的影象,匹配相應的畫素點,計算每個畫素點對應的位置在不同的影象間的差異,從而計算出該畫素點在三維空間中的位置。人類大致上就是像這樣感知這個世界的。我們的眼睛會捕捉到兩個獨立的對於關於我們眼前世界的「影象」,接著大腦會從左眼和右眼的視角來看某個物體的位置有何不同,從而確定其三維位置。Stero 涉及到的硬體系統十分簡單,這正是它吸引人的地方,它僅僅需要兩個或多個普通的攝像頭。然而,這種方法在對準確率和執行速度有要求的應用程式中表現並不好,這是因為使用視覺細節來匹配不同的攝像頭得到的影象之間對應的畫素點不僅具有很高的計算複雜度,而且在缺乏紋理特徵或視覺重複的環境中也很容易出錯。
RGB-D 攝像頭輸出一個四通道影象,該影象包含顏色資訊和每個畫素的深度(來源:九州大學)
2:RGB-D 涉及到對一種特殊攝像頭的使用,這種攝像頭除了顏色資訊(「RGB」),還可以獲取深度資訊(「D」)。具體而言,它能夠獲取通過普通的二維攝像頭得到的彩色影象,而且還能告訴你這些影象中畫素點的某些子集代表的物體離攝像頭有多遠。在系統內部,RGB-D 感測器要麼通過「結構光」技術工作,要麼通過「飛行時間法」(TOF)工作。「結構光」技術能夠將紅外線圖案投射到一個場景上,並且感知這種圖案是如何在幾何表面上變形的;「飛行時間法」會觀察其發出的紅外線返回攝像頭所需要的時間。舉例來說,微軟的 Kinect 以及 Iphone X 的 FaceID 感測器都是 RGB-D 攝像頭。由於這些感測器在尺寸相對較小、成本較低的同時,也能在對視覺匹配錯誤具有免疫性的同時很快地執行,所以 RGB-D 是一種很好的感知手段。然而,RGB-D 攝像頭的深度輸出常常有許多的「孔洞」,這是由於遮擋(前景中的物體遮擋住了其後方物體的投影),模式感知失敗以及感知範圍的問題(在離攝像頭更遠的地方,投影和感知會變得很困難)。
鐳射雷達(LiDAR)使用多個鐳射束(同心圓模式)直接感知環境的集合結構(Giphy)。
3:鐳射雷達會向物體發出快速鐳射脈衝,測量它們返回感測器所需要的時間,這類似於我們在上面描述的「飛行時間法」,但是鐳射雷達的感知範圍更遠,能夠捕獲更多像點,並且抗其它光源干擾的能力更強。目前,大多數的三維鐳射雷達感測器都會發出一些(多達 64 個)垂直排列的光束,會在感測器周圍的各個方向上快速旋轉。出於對準確性、感知範圍以及魯棒性的要求,目前大多數的自動駕駛汽車都會採用這種系統。但是鐳射雷達感測器存在的問題是,它們通常都很大很重並且極其昂貴(大多數自動駕駛汽車使用的 64 束感測器需要花費 7.5 萬美元)!因此,許多公司目前正在嘗試開發更加廉價的「固態鐳射雷達」系統,它無需旋轉就可以在三維場景下進行感知。
三維表示
一旦你獲取了三維資料,你就需要以一種形式來表示它,這種形式將作為你正在構建的處理流程的輸入。以下是四種你應該已經知道的表示方式:
三維資料的不同表示方式。(a)點雲(來源:加州理工學院);(b)體素網格(來源:印度理工學院);(c)三角網格(來源:華盛頓大學);(d)多視角表示(來源:斯坦福大學)。
a. 點雲即三維空間中點的集合;每一點都是由某個(xyz)位置決定的,我們同時可以為其指定其它的屬性(如 RGB 顏色)。它們是鐳射雷達資料被獲取時的原始形式,立體視覺系統和 RGB-D 資料(包含標有每個畫素點深度值的影象)通常在進行進一步處理之前會被轉換成點雲。
b. 體素網格是從點雲發展而來的。「體素(Voxel)」就好比三維空間中的畫素點,我們可以把體素網格看作量化的、大小固定的點雲。然而,點雲在空間中的任何地方能夠以浮點畫素座標的形式涵蓋無數個點;體素網格則是一種三維網格,其中的每個單元(或稱「體素」)都有固定的大小和離散的座標。
c. 多邊形網格由一組帶公共頂點的凸多邊形表面組成,可近似一個幾何表面。我們可以將點雲看作是從基礎的連續集合表面取樣得到的三維點集;多邊形網格則希望通過一種易於渲染的方式來表示這些基礎表面。儘管多邊形網格最初是為計算機圖形學設計的,但它對於三維視覺也十分有用。我們可以通過幾種不同的方法從點雲中得到多邊形網格,其中包括 Kazhdan 等人於 2006 年提出的「泊松表面重建法」。
d. 多視圖表示是從不同的模擬視角(「虛擬攝像頭」)獲取到的渲染後的多邊形網格二維影象集合,從而通過一種簡單的方式表現三維幾何結構。簡單地從多個攝像頭(如立體視覺系統 stereo)捕捉影象和構建多視圖表示之間的區別在於,多檢視實際上需要構建一個完整的 3D 模型,並從多個任意視點渲染它,以充分表達底層幾何結構。與上面的其他三種表示不同,多視圖表示通常只用於將 3D 資料轉換為易於處理或視覺化的格式。
理解
現在,你已經將你的三維資料轉化成了易於理解的形式,你需要做的是真正構建一個計算機視覺處理流程來理解它。這裡的問題在於,傳統的在二維影象上效能良好的深度學習技術(如 CNN)在處理三維資料時可能會很困難,具體情況取決於資料的表示。這使得傳統的如目標檢測或影象分割等任務變得具有挑戰性。
通過多檢視輸入學習
使用三維資料的多視圖表示是將二維深度學習技術應用到三維場景下的最簡單的方式。這是一種將三維感知問題轉化為二維感知問題的明智做法,但它仍然在某種程度上允許你對物體的三維幾何結構進行推理。早期的利用這種思想的基於深度學習的工作是 Su 等人在 2015 年提出的 multi-view CNN。
這是一種簡單卻十分有效的網路架構,它可以從三維物體的多個二維檢視中學到特徵描述符。實現這種方法與對目標分類任務使用單個二維影象相比,提高了模型的效能。這種方法通過將一張張影象輸入在ImageNet上預訓練好的 VGG 網路,從而提取出顯著的特徵、將這些結果向量組合在一起,並且將這些資訊傳遞給其餘的卷積層進行進一步的特徵學習得以實現。
multi-view CNN 架構(來源:multi-view CNN)
然而,multi-view 影象表示仍然有很多的侷限性。主要的問題是你並沒有真正在三維環境下學習,固定數量的二維檢視仍然只是一個對於底層的三維結構的不完美的近似。因此,像語義分割這樣的任務,特別是在跨越更復雜的物體和場景時,就會因為從二維影象中獲得的特徵資訊有限而變得具有挑戰性。此外,這種視覺化三維資料對於像自動駕駛和虛擬現實這樣計算開銷非常大的任務來說是不可擴充套件的。請記住,生成多視圖表示需要渲染一個完整的三維模型並且模擬一些任意的視點。多檢視學習仍然有許多缺陷,這些缺陷促使人們研究直接利用三維資料進行學習的方法。
通過體積式表示學習
通過體素網格進行學習可以解決多視圖表示的主要缺點。體素網格縮小了二維和三維之間的差距,它們是最接近影象的三維表示形式,這使得二維深度學習的概念(比如卷積操作)能夠容易地應用於三維情景。
Maturana 和 Scherer 在 2015 年提出的 VoxNet(2015)是最早在給定體素網格輸入的情況下在物體分類任務上取得優異表現的深度學習方法。VoxNet 使用的是概率佔用網格,其中的每個體素都包含了該體素在空間中被佔用的概率。這樣做的一個好處就是,它允許網路區分已知是自由的體素(例如,鐳射雷達光束經過的體素)和佔用情況未知的體素(例如,鐳射雷達擊中位置後方的體素)。
VoxNet 架構(來源:VoxNet)
VoxNet 的架構本身非常簡單,它由兩個卷積層、一個最大池化層和兩個用於計算輸出的類別得分向量的全連線層組成。這個網路比最先進的影象分類網路要淺得多,引數也少得多,但是它是從上百種可能的 卷積神經網路 架構中挑選出來的。由於體素網格與影象十分相似,它們實際上使用的帶步長的卷積和池化運算都是從二維畫素的工作方式進行調整遷移到三維體素上來的。卷積運算元使用的是 d×d×d×c 的卷積核而不是二維 卷積神經網路 中使用的 d×d×c,池化運算考慮的是不重疊的三維體素塊而不是二維畫素塊。
VoxNet 存在的一個問題是,該架構本質上並沒有旋轉不變性,儘管作者合理地假設感測器保持直立,使體素網格的 z 軸和重力方向保持一致,但是並沒有假設物體會繞著 z 軸旋轉:一個物體從背後看仍然對應相同的物體,即使在體素網格中的幾何形狀與我們所學的卷積核有很大的不同。為了解決這個問題,他們使用了一個簡單的資料增強策略。在訓練中,他們多次對每個體素網格進行旋轉,並且在所得到的副本上進行訓練;接著在測試時,他們將最後的全連線層在輸入的不同方向上得到的輸出進行池化。他們指出,這種方法比 Su 等人使用的多檢視 CNN 在「檢視池化」步驟中所做的對中間卷積層輸出進行池化的方法能更快收斂。通過這種方式,VoxNet 通過在輸入的體素網格的不同旋轉方向上共享相同的學到的卷積核權值來學習這種旋轉不變性。
VoxNet 代表著我們向真正的三維學習邁進了一大步,但是體素網格仍然具有一些缺點。首先,與點雲相比,它們丟失了解析度。因為如果代表複雜結構的不同點距離很近,它們會被被繫結在同一個體素中。與此同時,與稀疏環境中的點雲相比,體素網格可能導致不必要的高記憶體使用率。這是因為它們主動消耗記憶體來表示自由和未知的空間,而點雲只包含已知點。
通過點雲學習
PointNet
考慮到這些使用基於體素的方法存在的問題,近期的工作將重點放在了直接在原始點雲資料上進行操作的架構上。最值得人們注意的是 Qi 等人於 2016 年提出的 PointNet 是最早的處理這種不規則三維資料的方法。然而,正如作者所指出的,點雲僅僅是一組通過 xyz 座標表示位置的點。更具體地說,當我們給定點雲中的 N 個點,網路需要學到相對於這 N 個輸入點的全排列不變的唯一特徵,因為這些輸入給神經網路的點的順序並不會影響底層的幾何形狀。此外,網路應該對點雲的旋轉、平移等轉換有很強的魯棒性,而放縮操作也不應該影響預測結果。
為了保證對於不同的輸入順序的不變性,PointNet 背後的解決方案的關鍵思路是使用一個簡單的對稱函式,該函式為任意順序排列的輸入生成一致的輸出(加法和乘法就屬於這類函式)。在這種直覺的引導下,PointNet 背後的基本架構(稱 PointNet Vanilla)可以定義為:
其中 f 是將輸入點轉換為 k 維向量的轉換函式(用於物體分類)。該函式 f 可以近似表示為另一個存在的對稱函式 g。在方程中,h 是一個多層感知機(MLP),它將單個輸入點(以及它們相應的特徵,如 xyz 位置、顏色、表面法線等)對映到更高維度的潛在空間。最大池化操作則會作為對稱函式 g 起作用,它將學到的特徵聚合為點雲的全域性描述符。這個單一特徵向量會被傳遞給 另一個輸出物體預測結果的多層感知機 γ。
為了應對學習對於點雲的幾何變換具有不變性的表示方式的挑戰,PointNet 使用了一個稱為 T-Net 的小型網路,它將仿射變換應用於輸入點雲。這個概念類似於 Jaderberg 等人於 2016 年提出的空間變換網路(https://arxiv.org/pdf/1506.02025.pdf),但是比它要簡單得多,因為在這裡不需要定義新的型別的層。T-Net 由可學習的引數組成,這些引數使 PointNet 能夠將輸入點雲變換為一個固定的、規範的空間,從而確保整個網路對於即使是最細微的變化都具有很強的魯棒性。
PointNet 的架構(來源:PointNet)
整體的 PointNet 架構繼承了最基本的方法和 T-Net 以及多層感知機層,它們為點雲建立特徵表示。然而,除了物體分類之外,PointNet 還支援對物體和場景進行語義分割。為了實現這一點,該架構將來自最大池化對稱函式的全域性特徵和將輸入資料傳遞給一些多層感知機後學到的點特徵相結合。通過將這兩個向量連線起來,每個點都知道它的全域性語義和區域性特徵,這使網路能夠學習額外的、有助於分割的更有意義的特徵。
使用 PointNet 得到的室內場景的語義分割結果(來源:PointNet)
PointNet++
儘管 PointNet 取得了令人滿意的結果,其最主要的缺點是該架構不能獲取點附近的底層區域性結構,這一思想類似於使用 CNN 從影象中不斷增大的感受野中提取特徵,為了解決這個問題,Qi 等人於 2017 年開發了 PointNet ++。
它是一個從 PointNet 派生出來的架構,但是也能從點雲的區域性區域中學習到特徵。這種方法的基本結構是一個有層次的特徵學習層,它包含三個關鍵步驟:(1)為區域性區域取樣一些點作為質心,(2)根據到質心的距離對這些區域性區域中的相鄰點進行分組,(3)使用一個 mini-PointNet 對這些區域進行特徵編碼。
這些步驟將被不斷重複,從而在點雲中不同大小的點組中學習特徵。這樣做可以使網路更好地理解整個點雲的區域性點集中的底層關係,最終有助於提升泛化效能。這項工作的結果表明,PointNet++ 相對於包括 PointNet 在內的現有方法的效能有顯著提升,並且在三維點雲分析基準測試(ModelNet40 和 ShapeNet)中取得了目前最好的模型效能。
有前景的新研究領域
Graph CNNs
目前關於處理三維資料的深度學習架構的研究主要關注點雲表示,而最近許多的工作擴充套件了從 PointNet/PointNet++ 發展而來的思想,從其它領域獲得靈感,進一步提高了模型效能。舉例而言,Wang 等人於 2018 年提出的動態圖 卷積神經網路 (https://arxiv.org/pdf/1801.07829.pdf),使用了基於圖形的深度學習方法來改進點雲中的特徵提取工作。其思想是,PointNet 和 PointNet++ 不能捕獲各個點之間的幾何關係,因為這些方法需要對不同的輸入順序的排列組合保持不變性。然而,通過將一個點和它周圍最近的鄰居作為一個有向圖來考慮,Wang 等人構建了 EdgeConv 運算元,它能夠生成資料中各點獨特的特徵。如果你有興趣學習更多關於圖結構上的機器學習的知識,可以參閱這篇概述:https://thegradient.pub/structure-learning/
SPLATNet
SPLATNet 架構(來源:SPLATNet)
另一方面,一些研究不同於 PointNet/PointNet++ 中提出的經典特徵提取方法,選擇設計一種新的點雲處理方法。Su 等人於 2018 年提出的 SPLATNet 架構是點雲研究領域這個新的研究熱點的很好例子。SPLATNet 的作者設計了一個新的架構和卷積運算元,它可以對點雲直接進行操作。這篇論文背後的關鍵思想是將「感受野」的概念轉換為了不規則點雲,這使得空間資訊即使在稀疏區域(PointNet/PointNet++ 的一個主要缺陷)中也可以保持。特別吸引人的一點是,SPLATNet 可以將從多檢視影象中提取的特徵投影到三維空間中,將二維資料與原始點雲以一種端到端的可學習的架構進行融合。SPLATNet 通過使用這種二維-三維聯合學習取得了目前最好的語義分割模型效能。
基於截椎體的 PointNet
利用二維邊界框估計生成的三維截椎體視覺化結果(來源:Frustum PointNets)
基於同時使用二維資料和三維資料的思路,Qi 等人的 Frustrum PointNet 於 2017 年提出了一種將 RGB 影象和點雲融合從而提高在大型三維場景中定位物體的新方法。傳統的解決該任務的方法是通過直接在整個點雲上的滑動視窗上執行分類來確定物體可能的三維邊界框,這樣做的計算開銷非常大,並且很難進行實時預測。Qi 等人的工作有兩個主要的貢獻。首先,他們建議首先使用標準的 卷積神經網路 在二維影象上進行物體檢測,提取出一個與待檢測的物體可能從屬點雲區域相對應的三維邊界框,然後在點雲的這個「切片」上進行搜尋。這大大縮小了邊界框估計的搜尋空間,減少了檢測錯誤的可能性,在很大程度上簡化了處理流程,這對自動駕駛應用十分關鍵。其次,Qi 等人設計了一種新穎的基於 PointNet 的架構,它可以直接對例項進行分割(將點雲分割為一個個獨立的物體),並一次性地在整個三維邊界框中進行邊界框估計,而不是在邊界框搜尋過程中執行經典的滑動視窗分類工作。這使得他們的方法對遮擋和稀疏等情況即迅速又魯棒。最終,由於這些改進,這項工作釋出時,它在 KITTI 以及 SUN RGB-D 檢測等對比基準上比之前所有的方法都取得了更好的效能。
結語
在過去的 5 年中,3D深度學習方法已經從使用三維資料的派生表示(多視圖表示)轉變為使用原始資料(點雲)。在這個過程中,我們採用的方法已經從簡單地將二維 卷積神經網路 應用到三維資料上(多檢視 卷積神經網路 、體素網路 VoxNet)轉變為專門為三維場景設計的方法(PointNet 以及其它基於點雲的方法),這大大提高了物體分類和語義分割等任務的效能。這些結果非常有前景,因為它們證明了通過三維技術觀察和表示這個世界是有價值的。然而,這個領域才剛剛步入發展的快車道。當前的工作不僅要著眼於提高這些演算法的準確率和效能,還要確保魯棒性和可擴充套件性。儘管目前大多數研究是由無人駕駛應用驅動的,但直接在點雲上執行的新方法在三維醫學影像、虛擬現實和室內地圖中也將發揮重要的作用。
原文連結:https://thegradient.pub/beyond-the-pixel-plane-sensing-and-learning-in-3d/
理論 3D 深度學習 計算機視覺
相關資料
Autonomous cars
自動駕駛汽車,又稱為無人駕駛汽車、電腦駕駛汽車或輪式移動機器人,是自動化載具的一種,具有傳統汽車的運輸能力。作為自動化載具,自動駕駛汽車不需要人為操作即能感測其環境及導航。
來源: 維基百科
Neural Network
(人工)神經網路是一種起源於 20 世紀 50 年代的監督式機器學習模型,那時候研究者構想了「感知器(perceptron)」的想法。這一領域的研究者通常被稱為「聯結主義者(Connectionist)」,因為這種模型模擬了人腦的功能。神經網路模型通常是通過反向傳播演算法應用梯度下降訓練的。目前神經網路有兩大主要型別,它們都是前饋神經網路:卷積神經網路(CNN)和迴圈神經網路(RNN),其中 RNN 又包含長短期記憶(LSTM)、門控迴圈單元(GRU)等等。深度學習是一種主要應用於神經網路幫助其取得更好結果的技術。儘管神經網路主要用於監督學習,但也有一些為無監督學習設計的變體,比如自動編碼器和生成對抗網路(GAN)。
來源:機器之心
Convergence
在數學,電腦科學和邏輯學中,收斂指的是不同的變換序列在有限的時間內達到一個結論(變換終止),並且得出的結論是獨立於達到它的路徑(他們是融合的)。 通俗來說,收斂通常是指在訓練期間達到的一種狀態,即經過一定次數的迭代之後,訓練損失和驗證損失在每次迭代中的變化都非常小或根本沒有變化。也就是說,如果採用當前資料進行額外的訓練將無法改進模型,模型即達到收斂狀態。在深度學習中,損失值有時會在最終下降之前的多次迭代中保持不變或幾乎保持不變,暫時形成收斂的假象。
Computer Vision
計算機視覺(CV)是指機器感知環境的能力。這一技術類別中的經典任務有影象形成、影象處理、影象提取和影象的三維推理。目標識別和麵部識別也是很重要的研究領域。
來源:機器之心
ImageNet
Convolutional neural network
卷積神經網路(Convolutional Neural Network, CNN)是一種前饋神經網路,它的人工神經元可以響應一部分覆蓋範圍內的周圍單元,對於大型影象處理有出色表現。卷積神經網路由一個或多個卷積層和頂端的全連通層(對應經典的神經網路)組成,同時也包括關聯權重和池化層(pooling layer)。這一結構使得卷積神經網路能夠利用輸入資料的二維結構。與其他深度學習結構相比,卷積神經網路在影象和語音識別方面能夠給出更好的結果。這一模型也可以使用反向傳播演算法進行訓練。相比較其他深度、前饋神經網路,卷積神經網路需要考量的引數更少,使之成為一種頗具吸引力的深度學習結構。 卷積網路是一種專門用於處理具有已知的、網格狀拓撲的資料的神經網路。例如時間序列資料,它可以被認為是以一定時間間隔取樣的一維網格,又如影象資料,其可以被認為是二維畫素網格。
來源:Goodfellow, I.; Bengio Y.; Courville A. (2016). Deep Learning. MIT Press. 維基百科
Machine Learning
機器學習是人工智慧的一個分支,是一門多領域交叉學科,涉及概率論、統計學、逼近論、凸分析、計算複雜性理論等多門學科。機器學習理論主要是設計和分析一些讓計算機可以自動“學習”的演算法。因為學習演算法中涉及了大量的統計學理論,機器學習與推斷統計學聯絡尤為密切,也被稱為統計學習理論。演算法設計方面,機器學習理論關注可以實現的,行之有效的學習演算法。
來源:Mitchell, T. (1997). Machine Learning. McGraw Hill.
Mapping
對映指的是具有某種特殊結構的函式,或泛指類函式思想的範疇論中的態射。 邏輯和圖論中也有一些不太常規的用法。其數學定義為:兩個非空集合A與B間存在著對應關係f,而且對於A中的每一個元素x,B中總有有唯一的一個元素y與它對應,就這種對應為從A到B的對映,記作f:A→B。其中,y稱為元素x在對映f下的象,記作:y=f(x)。x稱為y關於對映f的原象*。*集合A中所有元素的象的集合稱為對映f的值域,記作f(A)。同樣的,在機器學習中,對映就是輸入與輸出之間的對應關係。
來源: Wikipedia
Pooling
池化(Pooling)是卷積神經網路中的一個重要的概念,它實際上是一種形式的降取樣。有多種不同形式的非線性池化函式,而其中“最大池化(Max pooling)”是最為常見的。它是將輸入的影象劃分為若干個矩形區域,對每個子區域輸出最大值。直覺上,這種機制能夠有效的原因在於,在發現一個特徵之後,它的精確位置遠不及它和其他特徵的相對位置的關係重要。池化層會不斷地減小資料的空間大小,因此引數的數量和計算量也會下降,這在一定程度上也控制了過擬合。通常來說,CNN的卷積層之間都會週期性地插入池化層。
來源: cs231n
self-driving
從 20 世紀 80 年代首次成功演示以來(Dickmanns & Mysliwetz (1992); Dickmanns & Graefe (1988); Thorpe et al. (1988)),自動駕駛汽車領域已經取得了巨大進展。儘管有了這些進展,但在任意複雜環境中實現完全自動駕駛導航仍被認為還需要數十年的發展。原因有兩個:首先,在複雜的動態環境中執行的自動駕駛系統需要人工智慧歸納不可預測的情境,從而進行實時推論。第二,資訊性決策需要準確的感知,目前大部分已有的計算機視覺系統有一定的錯誤率,這是自動駕駛導航所無法接受的。
來源: 機器之心
perception
知覺或感知是外界刺激作用於感官時,腦對外界的整體的看法和理解,為我們對外界的感官資訊進行組織和解釋。在認知科學中,也可看作一組程式,包括獲取資訊、理解資訊、篩選資訊、組織資訊。與感覺不同,知覺反映的是由物件的各樣屬性及關係構成的整體。
來源: 維基百科
Virtual reality
虛擬現實,簡稱虛擬技術,也稱虛擬環境,是利用電腦模擬產生一個三維空間的虛擬世界,提供使用者關於視覺等感官的模擬,讓使用者感覺彷彿身歷其境,可以及時、沒有限制地觀察三維空間內的事物。使用者進行位置移動時,電腦可以立即進行復雜的運算,將精確的三維世界視訊傳回產生臨場感。
來源: 維基百科
Deep learning
深度學習(deep learning)是機器學習的分支,是一種試圖使用包含複雜結構或由多重非線性變換構成的多個處理層對資料進行高層抽象的演算法。 深度學習是機器學習中一種基於對資料進行表徵學習的演算法,至今已有數種深度學習框架,如卷積神經網路和深度置信網路和遞迴神經網路等已被應用在計算機視覺、語音識別、自然語言處理、音訊識別與生物資訊學等領域並獲取了極好的效果。
來源: LeCun, Y., Bengio, Y., & Hinton, G. (2015). Deep learning. nature, 521(7553), 436.
Accuracy
分類模型的正確預測所佔的比例。在多類別分類中,準確率的定義為:正確的預測數/樣本總數。 在二元分類中,準確率的定義為:(真正例數+真負例數)/樣本總數

機器之心編輯