1. 程式人生 > >自動駕駛汽車感測器融合系統及多感測器資料融合演算法淺析

自動駕駛汽車感測器融合系統及多感測器資料融合演算法淺析

自動泊車、公路巡航控制和自動緊急制動等自動駕駛汽車功能在很大程度上是依靠感測器來實現的。重要的不僅僅是感測器的數量或種類,它們的使用方式也同樣重要。目前,大多數路面上行駛車輛內的ADAS都是獨立工作的,這意味著它們彼此之間幾乎不交換資訊。只有把多個感測器資訊融合起來,才是實現自動駕駛的關鍵。

現在路面上的很多汽車,甚至是展廳內的很多新車,內部都配備有基於攝像頭、雷達、超聲波或LIDAR等不同感測器的先進駕駛員輔助系統(ADAS)。

這些系統的數量將會隨著新法案的通過而不斷增加,例如在美國,就有強制要求安裝後視攝像頭的法案。此外,諸如車險打折優惠和美國公路交通安全管理局(NHTSA)、歐洲新車安全評鑑協會(Euro-NCAP)等機構做出的汽車安全評級正在使某些系統成為汽車的強制功能;另一方面,這也助長了消費者對它們的需求。

諸如自動泊車、公路巡航控制和自動緊急制動的自動駕駛汽車功能也在很大程度上依靠感測器來實現。重要的不僅僅是感測器的數量或種類,它們的使用方式也同樣重要。目前,大多數路面上行駛車輛內的ADAS都是獨立工作的,這意味著它們彼此之間幾乎不交換資訊。(沒錯,某些高階車輛具有非常先進的自動駕駛功能,不過這些功能還未普及)。後視攝像頭、環視系統、雷達和前方攝像頭都有它們各自的用途。通過將這些獨立的系統新增到車輛當中,可以為駕駛員提供更多資訊,並且實現自動駕駛功能。不過,你還可以突破限制,實現更多功能——參見圖1。

640?wx_fmt=jpeg&wxfrom=5&wx_lazy=1

圖1:ADAS以汽車內單個、獨立的功能存在。

感測器融合

僅僅通過多次使用相同種類的感測器無法克服每種感測器的缺點。反之,我們需要將來自不同種類感測器的資訊組合在一起。工作在可見光譜範圍內的攝像頭CMOS晶片在濃霧、下雨、刺眼陽光和光照不足的情況下會遇到麻煩。而雷達缺少目前成像感測器所具有的高解析度。我們可以在每種感測器中找到諸如此類的優缺點。

感測器融合這一想法的偉大之處在於獲得不同感測器和感測器種類的輸入內容,並且使用組合在一起的資訊來更加準確地感知周圍的環境。相對於獨立系統,這樣可以做出更好、更安全的決策。雷達也許不具有光感測器所具有的解析度,不過它在測距和穿透雨、雪和濃霧方面具有很大優勢。這些天氣條件或光照不足的惡劣情況不利於攝像頭髮揮作用,不過攝像頭能夠分辨顏色(可以想一想街道指示牌和路標),並且具有很高的解析度。目前路面上影象感測器的解析度已經達到1百萬畫素。在未來幾年內,影象感測器的發展趨勢將是2百萬,甚至4百萬畫素。

雷達和攝像頭是兩項感測器技術完美融合、互為補充的典範。採用這種方法的融合系統所實現的功能要遠超這些獨立系統能夠實現的功能總和。使用不同的感測器種類可以在某一種感測器全都出現故障的環境條件下,額外提供一定冗餘度。這種錯誤或故障可能是由自然原因(諸如一團濃霧)或是人為現象(例如對攝像頭或雷達的電子干擾或人為干擾)導致。即使是在一個感測器失效的情況下,這樣的感測器融合系統也可以保持某些基本或緊急的功能。完全藉助報警功能,或者讓駕駛員時刻做好準備,從而接管對車輛的控制,系統故障也許就不那麼嚴重了。然而,高度和完全自動駕駛功能必須提供充足的時間讓駕駛員重新獲得對車輛的控制。在這段駕駛員接管車輛控制之前的時間範圍內,控制系統需要保持對車輛最低限度的控制。

感測器融合系統示例

感測器融合的複雜程度有所不同,並且資料的型別也不一樣。兩個基本的感測器融合示例是:a)後視攝像頭加上超聲波測距;b)前方攝像頭加上多模式前置雷達——參見圖2。現在,我們可以通過對現有系統進行輕微更改和/或通過增加一個單獨的感測器融合控制單元來對其進行實現。

640?wx_fmt=jpeg

圖2:將前方雷達與前方攝像頭融合在一起,以實現自適應巡航控制加車道保持輔助,或者將後視攝像頭與超聲波測距報警組合在一起來實現自動泊車。

• 後視攝像頭+超聲波測距

超聲波泊車輔助技術在汽車市場內被廣泛接受,並且已十分成熟;這項技術在泊車時能對鄰近物體給出聽得見或看得見的報警。正如之前提到的那樣,到2018年,美國所有新出廠的車輛都必須安裝後視攝像頭。將來自二者的資訊結合在一起,才能實現先進的泊車輔助功能,而其靠單一系統是無法實現的。後視攝像頭使駕駛員能很清楚地看到車輛後方的情況,而機器視覺演算法可以探測物體,以及路肩石和街道上的標記。通過超聲波提供的補充功能,可以準確確定識別物體的距離,並且在低光照或完全黑暗的情況下,也能確保基本的接近報警。

• 前視攝像頭+多模前置雷達

另一種強大的組合是將前視攝像頭的功能與前置雷達組合在一起。前置雷達能夠在任何天氣條件下測量高達150米的物體的速度和距離。攝像頭在探測和區分物體方面(包括讀取街道指示牌和路標)十分出色。通過使用具有不同視場角(FoV)和不同光學元件的多個攝像頭感測器,系統可以識別車前通過的行人和自行車,以及150米甚至更遠範圍內的物體,同時,其還可以可靠實現自動緊急制動和城市啟停巡航控制等功能。

許多情況下,在特定的已知外部條件下,僅通過一種感測器或單個系統,就能夠執行ADAS功能。然而,考慮到路面上有很多不可預計的情況,這還不足實現可靠執行。感測器融合除了能實現更復雜和自主的功能外,還可以在現有功能中實現更少的誤報和漏報。說服消費者和立法者,使他們相信汽車可以由“一臺機器”自主駕駛,將會十分關鍵。

感測器融合系統分割

與汽車內每個系統單獨執行各自的報警或控制功能不同,在一個融合系統中,最終採取哪種操作是由單個器件集中決定的。現在的關鍵問題就是在哪裡完成資料處理,以及如何將感測器的資料傳送到中央電子控制單元(ECU)。當對不是集中在一起而是遍佈車身的多個感測器進行融合時,我們就需要專門考慮感測器和中央融合ECU之間的連線和電纜。對於資料處理的位置也是如此,因為它也會影響整個系統的實現。讓我們來看一看可能的系統分割中的兩種極端情況。

·  集中式處理

集中式處理的極端情況是,所有的資料處理和決策制定都是在同一個位置完成,資料是來自不同感測器的“原始資料”——請見圖3。

640?wx_fmt=jpeg

圖3:具有“傳統”衛星式感測器模組的集中處理。

優點:

感測器模組——感測器模組體積小巧,成本低,功耗也低,這是因為其只需要執行檢測和資料傳輸任務。感測器的安裝位置也很靈活,並且所需安裝空間很小。替換成本低。通常情況下,由於無需處理或做決策,感測器模組具有較低的功能安全要求。

處理ECU——中央處理ECU可以獲取全部資料,這是因為資料不會因為感測器模組內的預處理或壓縮而丟失。由於感測器成本較低,並且外形尺寸較小,因此可以部署更多的感測器。

缺點:

感測器模組——實時處理感測器資料需要提供寬頻通訊(高達數Gb/s),因此可能出現較高電磁干擾(EMI)。

處理ECU——中央ECU需要有高處理能力和速度來處理所有輸入資料。對於很多高頻寬I/O和高階應用處理器來說,這意味著更高的電能需求和更大的散熱量。感測器數量增加將大幅增加對中央ECU效能的需要。通過使用FPD-Link III等介面,在一根同軸電纜上傳送感測器及功耗、控制和配置等多種資料(雙向反向通道),有些缺點可以被克服。這樣便可極大降低系統的接線要求。

· 全分散式系統

另一種截然不同的極端情況是全分散式系統。這種情況是由本地感測器模組進行高階資料處理,並在一定程度上進行決策制定的。全分散式系統只將物件資料或元資料(描述物件特徵和/或識別物件的資料)發回到中央融合ECU。ECU將資料組合在一起,並最終決定如何執行或做出反應——請見圖4。

640?wx_fmt=jpeg

圖4:感測器資料由感測器模組處理、決策由中央ECU制定的分散式系統。

全分散式系統既有優點又有缺點。

優點:

感測器模組——感測器模組與中央ECU之間可以使用更低頻寬、更加簡單且更加便宜的介面。在很多情況下,小於1Mb/s的CAN匯流排就足夠用了。

處理ECU——中央ECU只將物件資料融合在一起,因此其所需處理能力更低。對於某些系統來說,用一個高階的安全微控制器就足夠了。模組更小,所需功耗也就更低。由於很多處理都是在感測器內部完成的,感測器數量增加不會大幅增加對中央ECU的效能需求。

缺點:

感測器模組——感測器模組需要有應用處理器,這樣的話就會變得體積更大、價格更高且功耗更大。由於本地處理和決策制定,感測器模組的功能安全要求也就更高。當然,增加更多的感測器,成本也會大幅上升。

處理ECU——中央決策制定ECU只能獲取物件資料,而無法訪問實際的感測器資料。因此,想要“放大”感興趣的區域很難實現。

尋找黃金分割

根據系統中所使用感測器的數量與種類,以及針對不同車型和升級選項的可擴充套件性要求,將兩個拓撲混合在一起就可獲得一個優化解決方案。目前很多融合系統使用帶本地處理的感測器用於雷達和鐳射雷達(LIDAR),使用前置攝像頭用於機器視覺。一個全分散式系統可以使用現有的感測器模組與物件資料融合ECU組合在一起。諸如環視和後視攝像頭的系統中的“傳統”感測器模組可以讓駕駛員看到周圍的環境情況——請見圖5。可以將更多的ADAS功能整合進駕駛員監測或攝像頭監控系統等融合系統中,但是感測器融合的原理還是一樣。

640?wx_fmt=jpeg

圖5:尋找分散式和集中式處理的完美結合。

平臺管理、目標汽車細分、靈活性和可擴充套件性是重要的經濟因素;這些因素也在分割和設計融合系統時發揮著重要作用。對於任一特定情況,所得系統也許不是最佳設計方案,但是從平臺和車隊的角度看,它卻可能是最佳方案。

誰是所有這些感測器資料的“觀看者”?

關於ADAS,我們還有兩個方面沒有討論到:資訊ADAS對功能ADAS。前者就是當駕駛員仍然對汽車完全掌控時,擴大和延伸駕駛員的感官範圍(例如環視和夜視)。第二個是機器視覺,它使汽車能夠感知周圍環境,並做出自我決策以及執行(自動緊急制動、車道保持輔助)。感測器融合自然而然地將這兩個世界合而為一。

正因如此,我們才有可能將同一感測器應用於不同用途,不過這麼做的代價就是在選擇最佳模組間通訊和處理位置方面受到了限制。以環視為例,這項功能最初的設計目的是,通過將視訊傳入到中央顯示屏上,為駕駛員提供360度視場角。為什麼不使用同樣的攝像頭,並將機器視覺應用到其上呢?後視攝像頭可用於實現倒車保護或自動停車,而側視攝像頭可用於實現盲點檢測/報警,也包括自動泊車。

單獨使用的機器視覺在感測器模組內進行本地處理,然後通過CAN匯流排等簡單的低頻寬連線將物件資料甚至是命令傳送出去。然而,這種連線不足以傳送完整的視訊流。視訊壓縮當然可以降低所需頻寬,但是還不足以將所需頻寬降到百兆位範圍內,並且它本身也存在一些問題。隨著高動態範圍(HDR)解析度、幀速率和曝光數增加,這變得更加困難。高頻寬連線和攝像頭模組不參與資料處理解決了視訊的問題,但是現在需要將處理新增到中央ECU,以便在其中執行機器視覺。缺少中央處理能力或散熱控制會成為這種解決方案的瓶頸。

雖然在感測器模組中進行處理並同時使用高頻寬通訊在技術上並不是不可實現,但從總體系統成本、功耗和安裝空間角度來講並不十分有利。

感測器融合配置的可靠執行

由於很多融合系統能夠在沒有駕駛員的情況下執行特定汽車功能(例如轉向、制動和加速)的自主控制,我們需要對功能安全進行認真考慮,以確保在不同條件下和汽車的使用壽命內系統能夠安全和可靠執行。一旦做出決策,並隨後採取自主操作,那麼對於功能安全的要求將會大幅提升。

若採用分散式的方法,每個處理關鍵資料或制定決策的模組必須符合那些增加的標準。與只蒐集和傳送感測器資訊的模組相比,這會增加物料清單(BOM)成本、尺寸、功耗和軟體。在安裝空間不足的環境中,器件很難冷卻,並且其損壞的風險和所需的更換也很高(一次簡單的小事故有可能需要更換保險槓和所有相連的感測器),這可能抵消具有多個感測器模組的分散式系統的優勢。

如果採用“傳統”感測器模組,則需進行自檢和故障報告,以實現整個系統的安全運轉,但是其還未達到智慧感測器模組的程度。

雖然純粹的駕駛員資訊系統可以在它們的功能受到損害時關閉並將其通報給駕駛員,但是高度自主駕駛功能就沒有那麼自由了。想象一下一輛汽車正在執行緊急制動操作,然後又突然解除並鬆開制動器的情況。或者說,汽車在公路上行駛時,整個系統關閉,而此時駕駛員正在汽車“全自動駕駛”狀態下呼呼大睡(未來可能的一個場景)。在駕駛員能夠安全控制車輛之前,系統需要繼續保持工作一段時間,而這至少需要有幾秒到半分鐘。系統必須執行到何種程度,以及如何確保在故障情況下運轉,這些問題在業內似乎還未達成明確共識。具有自動駕駛功能的飛機通常情況下使用冗餘系統。雖然我們一般情況下認為它們是安全的,不過它們造價昂貴並且佔用大量空間。

感測器融合將會是邁向自動駕駛及享受旅途時光和駕駛樂趣的關鍵一步。

多感測器資訊融合演算法

智慧汽車的顯著特點在於智慧,意思就是說汽車自己能通過車載感測系統感知道路環境,自動規劃行車路線並控制車輛到達預定目標。目前而言,車載感知模組包括視覺感知模組、毫米波雷達、超聲波雷達、360°環視系統等,多源感測器的協同作用識別道路車道線、行人車輛等障礙物,為安全駕駛保駕護航。因此,感知資訊也需要融合,感知資訊也需要相互補充。

這裡引出一個重要的概念:多感測器資訊融合(information fusion)。各種不同的感測器,對應不同的工況環境和感知目標。比方說,毫米波雷達主要識別前向中遠距離障礙物(0.5米-150米),如路面車輛、行人、路障等。超聲波雷達主要識別車身近距離障礙物(0.2米-5米),如泊車過程中的路沿、靜止的前後車輛、過往的行人等資訊。兩者協同作用,互補不足,通過測量障礙物角度、距離、速度等資料融合,刻畫車身周邊環境和可達空間範圍。

640?wx_fmt=jpeg

圖6:智慧汽車感知模組

資訊融合起初叫做資料融合(data fusion),起源於1973年美國國防部資助開發的聲納訊號處理系統,在20世紀90年代,隨著資訊科技的廣泛發展,具有更廣義化概念的“資訊融合”被提出來,多感測器資料融合MSDF (Multi-sensor Data Fusion)技術也應運而生。

資料融合主要優勢在於:充分利用不同時間與空間的多感測器資料資源,採用計算機技術按時間序列獲得多感測器的觀測資料,在一定準則下進行分析、綜合、支配和使用。獲得對被測物件的一致性解釋與描述,進而實現相應的決策和估計,使系統獲得比它各組成部分更為充分的資訊。

一般地,多源感測器資料融合處理過程包括六個步驟,如下圖所示。首先是多源感測系統搭建與定標,進而採集資料並進行數字訊號轉換,再進行資料預處理和特徵提取,接著是融合演算法的計算分析,最後輸出穩定的、更為充分的、一致性的目標特徵資訊。

640?wx_fmt=jpeg

圖7:多源資料融合過程

利用多個感測器所獲取的關於物件和環境全面、完整資訊,主要體現在融合演算法上。因此,多感測器系統的核心問題是選擇合適的融合演算法。對於多感測器系統來說,資訊具有多樣性和複雜性,因此,對資訊融合方法的基本要求是具有魯棒性和並行處理能力,以及方法的運算速度和精度。以下簡要介紹三種種常用的資料融合演算法,包括貝葉斯統計理論,神經網路技術,以及卡爾曼濾波方法。

貝葉斯統計理論

640?wx_fmt=jpeg

圖8:文氏圖

英國數學家托馬斯·貝葉斯(Thomas Bayes)在1763年發表的一篇論文中,首先提出了這個定理。貝葉斯統計理論是一種統計學方法,用來估計統計量的某種特性,是關於隨機事件A和B的條件概率的一則定理。所謂"條件概率"(Conditional probability),就是指在事件B發生的情況下,事件A發生的概率,用P(A|B)來表示。根據上述文氏圖,容易推導得到:P(A ∩ B) = P( A | B) * P(B) = P( B | A) * P(A),由此可以推匯出條件概率的公式,其中我們把P(A)稱為先驗概率(Prior probability),即在事件B發生之前,我們對事件A發生概率有一個認識。

640?wx_fmt=jpeg

舉個簡單的例子,視覺感知模組中影象檢測識別交通限速標誌(Traffic Sign Recognition, TSR )是智慧駕駛的重要一環。TSR識別過程中,交通限速標誌牌被樹木,燈杆等遮擋是影響識別的主要干擾。那麼我們關心的,是交通限速標誌被遮擋的情況下,檢出率有多少呢?這裡我們定義事件A為交通訊號標誌正確識別,事件為交通訊號標誌未能識別;B為限速標誌被遮擋,事件為限速標誌未被遮擋。

640?wx_fmt=jpeg

圖9:被遮擋的交通限速標誌

根據現有演算法,可以統計出事件A正確識別交通限速標誌的概率,此處事件A的概率稱為先驗概率。通過檢視視覺感知模組的檢測視訊錄影,我們可以統計檢測出來的交通限速標誌中有多少被遮擋,有多少是沒被遮擋的,還可以統計漏檢的交通限速標誌中,有多少是被遮擋的,有多少是沒被遮擋的。因此,我們可以得到下面值:

640?wx_fmt=jpeg

由此,可以推算出被遮擋的情況下,正確識別限速標誌的概率:

640?wx_fmt=jpeg

那麼,也有人可能會問,如果限速標誌沒有被遮擋,識別率有多高呢?同理,我們這裡也可以一併計算:

640?wx_fmt=jpeg

從以上計算我們可以看到,限速標誌未被遮擋完全暴露出來,識別率是相當高的,但如果限速標記牌被阻擋住,識別率是比未遮擋的低很多。這兩個指標的融合使用,可以用於作為評價目前影象處理演算法識別限速標誌性能的重要參考。當然,實際的融合過程比這複雜得多,小鵬汽車工程師們正努力不斷優化,提高各種工況下的識別率,提供更為舒適的智慧駕駛輔助。

神經網路理論

640?wx_fmt=jpeg

圖9:神經網路

神經網路(Artificial Neural Network,ANN)是機器學習(Machine Learning,ML)的其中一種方式,是人工智慧、認知科學、神經生理學、非線性動力學、資訊科學、和數理科學的“熱點”。

ANN的發展經歷了三個階段

  • 第一個階段是起步階段,從20世紀40年代開始逐漸形成了一個新興的邊緣性交叉學科。1943年,心理學家McCulloch和數學家Pitts合作,融匯了生物物理學和數學,提出了第一個神經計算模型: MP模型。1949年,心理學家Hebb通過對大腦神經細胞、學習和條件反射的觀察與研究,提出了改變神經元連線強度的、至今仍有重要意義的Hebb規則。

  • 第二階段是發展階段,1957年,Rosenblatt發展了MP模型,提出了感知器模型:Perception Model,給出了兩層感知器的收斂定理,並提出了引入隱層處理元件的三層感知器這一重要的研究方向。1960年,Widrow提出自適應線性元件模型:Ada-line model以及一種有效的網路學習方法:Widrow-Hoff學習規則。

  • 第三階段是成熟階段,1982年美國加州工學院的物理學家Hopfield提出了一個用於聯想記憶和優化計算的新途徑——Hopfield網路,使得神經網路的研究有了突破性進展。1984年在Hopfield的一篇論文中,指出Hopfield網路可以用積體電路實現,很容易被工程技術人員和計算機科技工作者理解,引起工程技術界的普遍關注。

上世紀八十年代後期,神經網路的光芒被計算機技術、網際網路掩蓋了,但這幾年計算機技術的發展,恰恰給神經網路更大的機會。神經網路由一層一層的神經元構成。層數越多,就越深,所謂深度學習(Deep Learning)就是用很多層神經元構成的神經網路達到機器學習的功能。辛頓是深度學習的提出者,2006年,基於深度置信網路(DBN)提出非監督貪心逐層訓練演算法,為解決深層結構相關的優化難題帶來希望,隨後提出多層自動編碼器深層結構。目前,深度學習的神經網路技術廣泛用於計算機視覺、語音識別、自然語言處理識別上。

關於神經網路的研究包含眾多學科領域,涉及數學、計算機、人工智慧、微電子學、自動化、生物學、生理學、解剖學、認知科學等學科,這些領域彼此結合、滲透,相互推動神經網路研究和應用的發展。

640?wx_fmt=jpeg

圖10:一個人工神經細胞

接著,簡單介紹下神經網路的基礎。生物的大腦是由許多神經細胞組成,同樣,模擬大腦的人工神經網路ANN是由許多叫做人工神經細胞(Artificial neuron,也稱人工神經原,或人工神經元)的細小結構模組組成。人工神經細胞就像真實神經細胞的一個簡化版,如圖所示,左邊幾個藍色圓中所標字母w代表浮點數,稱為權重(weight,或權值,權數)。進入人工神經細胞的每一個input(輸入)都與一個權重w相聯絡,正是這些權重將決定神經網路的整體活躍性。你現在暫時可以設想所有這些權重都被設定到了-1和1之間的一個隨機小數。因為權重可正可負,故能對與它關聯的輸入施加不同的影響,如果權重為正,就會有激發(excitory)作用,權重為負,則會有抑制(inhibitory)作用。當輸入訊號進入神經細胞時,它們的值將與它們對應的權重相乘,作為圖中大圓的輸入。大圓的‘核’是一個函式,叫激勵函式(activation function),它把所有這些新的、經過權重調整後的輸入全部加起來,形成單個的激勵值(activation value)。激勵值也是一浮點數,且同樣可正可負。然後,再根據激勵值來產生函式的輸出也即神經細胞的輸出:如果激勵值超過某個閥值(作為例子我們假設閥值為1.0),就會產生一個值為1的訊號輸出;如果激勵值小於閥值1.0,則輸出一個0。這是人工神經細胞激勵函式的一種最簡單的型別。

640?wx_fmt=jpeg

圖11:神經網路結構

大腦裡的生物神經細胞和其他的神經細胞是相互連線在一起的。為了建立一個人工神經網路,人工神經細胞也要以同樣方式相互連線在一起。為此可以有許多不同的連線方式,其中最容易理解並且也是最廣泛地使用的,就是如圖所示那樣,把神經細胞一層一層地連結在一起。這一種型別的神經網路就叫前饋網路(feed forward network)。這一名稱的由來,就是因為網路的每一層神經細胞的輸出都向前饋送(feed)到了它們的下一層(在圖中是畫在它的上面的那一層),直到獲得整個網路的輸出為止。

神經細胞通過輸入層、隱含層和輸出層的連結,形成一個複雜的神經網路系統,通過有效的學習訓練,使輸出層的結果與現實越來越靠近,誤差越來越小,當其精度滿足一定的功能需求時,神經網路訓練完畢,此刻構建的神經網路系統即能為我們解決眾多機器學習上的影象識別、語音識別、文字識別上的問題。

在智慧駕駛目前的發展歷程上看,人工神經網路技術,乃至現在最新的深度學習技術,廣泛用於視覺感知模組的車輛識別、車道線識別、交通標誌識別上。通過對中國路況工況的資料採集和處理,廣泛獲取國內不同天氣狀況(雨天、雪天、晴天等),不同路況(城市道路、鄉村道路、高速公路等)的真實的環境資料,為深度學習提供了可靠的資料基礎。此處神經網路的輸入層資料,也即是感測器獲取的資料,是多源多向的,可以是前擋風玻璃片上視覺感知模組的障礙物位置、形狀、顏色等資訊,也可以是毫米波雷達、超聲波雷達檢測的障礙物距離、角度、速度、加速度等資訊,還可以是360°環視系統上採集的車位資料、地面減速帶資料。

卡爾曼濾波

卡爾曼濾波(Kalman filtering)一種利用線性系統狀態方程,通過系統輸入輸出觀測資料,對系統狀態進行最優估計的演算法。簡單來說,卡爾曼濾波器是一個“optimal recursive data processing algorithm(最優化自迴歸資料處理演算法)”。對於解決很大部分的問題,它是最優,效率最高甚至是最有用的。Kalman濾波在測量方差已知的情況下能夠從一系列存在測量噪聲的資料中,估計動態系統的狀態。由於,它便於計算機程式設計實現,並能夠對現場採集的資料進行實時的更新和處理, Kalman濾波是目前應用最為廣泛的濾波方法,在通訊、導航、制導與控制等多領域得到了較好的應用。

卡爾曼濾波是多源感測資料融合應用的重要手段之一,為了扼要地介紹卡爾曼濾波的原理,此處形象地用毫米波雷達與視覺感知模組融合目標位置的過程描述。舉一個簡單的例子,目前高階輔助駕駛系統(Advanced Driver Assistance System,ADAS)上,搭載有毫米波雷達和超聲波雷達模組,兩者均能對障礙物車輛進行有效的位置估計判別。雷達利用主動感測原理,發射毫米波,接收障礙物回波,根據波傳播時間計算角度距離。兩者均能識別出車輛位置,那麼我們該如何融合資訊,如何取捨,計算出具體的車輛位置呢?卡爾曼正是解決這個問題的方法之一。我們獲取的車輛位置在任何時刻都是有噪聲的,卡爾曼濾波利用目標的動態資訊,設法去掉噪聲的影響,得到一個關於目標位置的好的估計。這個估計可以是對當前目標位置的估計(濾波),也可以是對於將來位置的估計(預測),還可以是對過去位置的估計(插值或平滑)。卡爾曼濾波就是這樣一個根據當前時刻目標的檢測狀態,預測估計目標下一時刻目標檢測狀態的一個動態迭代迴圈過程。

高階輔助駕駛系統ADAS是目前智慧汽車發展的重要方向,其手段是通過多源感測器資訊融合,為使用者打造穩定、舒適、可靠可依賴的輔助駕駛功能,如車道保持系統(Lane Keeping Assist, LKA),前碰預警(Forward Collision Warning, FCW),行人碰撞警告(Pedestrian Collision Warning,PCW),交通標記識別(Traffic Sign Recognition,TSR),車距監測報告(Head Monitoring and Warning,HMW)等。多源資訊的融合,目的在於資料資訊的冗餘為資料資訊的可靠分析提供依據,從而提高準確率,降低虛警率和漏檢率,實現輔助駕駛系統的自檢和自學習,最終實現智慧駕駛、安全駕駛的最終目標。

▎本文轉自電子技術設計,知乎小鵬汽車,作者:Hannes Estl德州儀器(TI)汽車ADAS部門的總經理,如需轉載請註明來源。

輕輕一掃  歡迎關注~

640?wx_fmt=jpeg

640?wx_fmt=gif