白林
摘 要:針對智能汽車環(huán)境感知技術(shù)開發(fā)應(yīng)用,從傳感器角度和算法角度分析智能汽車環(huán)境感知算法開發(fā)應(yīng)用存在的問題。根據(jù)智能汽車環(huán)境感知算法開發(fā)的過程,對傳感器標(biāo)定算法、單一傳感器環(huán)境感知算法、多傳感器信息融合環(huán)境感知算法及智能汽車環(huán)境感知算法測試評價方法進(jìn)行分層分析,通過分層分析闡述智能汽車環(huán)境感知算法及測試評價方法的開發(fā)應(yīng)用。展望智能汽車環(huán)境感知算法的未來發(fā)展趨勢。
關(guān)鍵詞:智能汽車;信息融合;環(huán)境感知;測試評價
1 前言
可靠的環(huán)境感知技術(shù)是智能汽車發(fā)展的基礎(chǔ),然而環(huán)境感知技術(shù)到目前為止還存在著大量的技術(shù)瓶頸。從傳感器角度考慮,現(xiàn)有的傳感器都存在一些缺陷;如相機(jī)受光照變化、遮擋等因素影響嚴(yán)重,在沒有光源的夜晚會徹底失效;激光雷達(dá)在雨天受影響很大;基于GPS的定位系統(tǒng)穩(wěn)定性較差。從算法角度考慮,大多數(shù)算法對環(huán)境變化的適應(yīng)性不夠好。綜上,環(huán)境感知技術(shù)目前還存在大量急需解決的問題,基于多源信息融合的環(huán)境感知成為智能汽車環(huán)境感知技術(shù)向可靠、安全方向發(fā)展。
據(jù)智能汽車環(huán)境感知算法開發(fā)的過程,對傳感器標(biāo)定算法、單一傳感器環(huán)境感知算法、多傳感器信息融合環(huán)境感知算法及智能汽車環(huán)境感知算法測試評價方法進(jìn)行分層分析。
2 傳感器標(biāo)定算法分析研究
傳感器標(biāo)定是環(huán)境感知算法開發(fā)的基礎(chǔ),相機(jī)通過標(biāo)定可以解算相機(jī)內(nèi)外參數(shù),利用內(nèi)外參數(shù)可以求解圖像坐標(biāo)系對應(yīng)用的世界坐標(biāo)系,利于進(jìn)行視覺環(huán)境感知算法的開發(fā)。雷達(dá)通過聯(lián)合相機(jī)標(biāo)定可以確定雷達(dá)坐標(biāo)系與相機(jī)坐標(biāo)系之間進(jìn)行旋轉(zhuǎn)和平移的變換關(guān)系,利于多傳感器信息融合,進(jìn)行環(huán)境感知算法開發(fā)。相機(jī)雷達(dá)的外參標(biāo)定是標(biāo)定存在難點, Zhou L等[1]人針對棋盤圖像平面參數(shù)估計誤差之間的質(zhì)量問題,提出了幾何約束,將旋轉(zhuǎn)與平移解耦,以減小這種相互作用的影響。引入表示棋盤平面單位法向量不確定度的權(quán)重,對每對圖像和激光雷達(dá)掃描質(zhì)量進(jìn)行綜合評價。Gong X等[2]人提出了一種解決三維激光雷達(dá)和攝像機(jī)組成的系統(tǒng)外參標(biāo)定問題的方法,根據(jù)三面提物體相關(guān)的幾何約束表示,利用非線性最小二乘(NLS)問題對兩個傳感器之間的相對變換進(jìn)行標(biāo)定。利用多傳感器聯(lián)合標(biāo)定得到的空間變換矩陣[R,T],可對多傳感器信息進(jìn)行融合。
其中PL為雷達(dá)坐標(biāo)系,Pc為相機(jī)坐標(biāo)系,R,T分別為旋轉(zhuǎn)矩陣和平移向量。
3 智能汽車視覺感知算法分析研究
視覺感知本質(zhì)是對圖像中的目標(biāo)進(jìn)行特征提取和分類,并進(jìn)行判斷是否為檢測目標(biāo)。目前基于深度神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測算法是視覺領(lǐng)域的主流之一,主要包括兩方面:基于候選區(qū)域的目標(biāo)檢測算法和基于回歸方法的目標(biāo)檢測算法。在基于候選區(qū)域的目標(biāo)檢測算法方面,Ren, S等[3]人提出區(qū)域提議網(wǎng)絡(luò)(RPN)對輸入圖像進(jìn)行預(yù)處理,預(yù)測目標(biāo)位置和每個對應(yīng)位置的置信度分?jǐn)?shù),并共享卷積特征給檢測網(wǎng)絡(luò)進(jìn)行多目標(biāo)檢測?;趨^(qū)域提議網(wǎng)絡(luò),Cai Z,Vasconcelos N等[4]人提出級聯(lián)RPN改進(jìn)區(qū)域提議質(zhì)量,目標(biāo)識別上修改全局信息模型,提升目標(biāo)檢測的準(zhǔn)確性和檢測速度。雖然基于RPN的目標(biāo)檢測檢測算法提升一定程度的準(zhǔn)確性,但對不同尺度的目標(biāo)檢測仍存在較大問題,應(yīng)用多尺度特征表示結(jié)合卷積神經(jīng)網(wǎng)絡(luò)的算法(MFR-CNN)[5]能有效解決不同尺度大小的目標(biāo)檢測。為提高對交通標(biāo)志等小目標(biāo)的檢測,Habibi Aghdam H等[6]人提出輕量級ConvNet算法,從平均精度、每秒處理數(shù)據(jù)幀數(shù)及穩(wěn)定提升對小目標(biāo)檢測。在基于回歸方法的目標(biāo)檢測算法,主要是通過遞歸思想,將目標(biāo)檢測構(gòu)建為一個回歸問題,利用深度神經(jīng)網(wǎng)絡(luò)預(yù)測目標(biāo)的位置和置信度分?jǐn)?shù),進(jìn)行有效的目標(biāo)檢測[7] [8]。利用文獻(xiàn)[7]采用的方法進(jìn)行環(huán)境感知,實驗結(jié)果如下:
4 基于多源信息融合智能汽車環(huán)境感知算法分析研究
多源信息融合的環(huán)境感知算法能有效彌補(bǔ)單個傳感器或者基于視覺感知算法對環(huán)境感知的不足,有效的對環(huán)境中目標(biāo)進(jìn)行檢測識別。這主要是因為常見的傳感器相機(jī)雖然能夠獲得豐富的顏色和紋理信息,但對于光照和陰影變化非常敏感[9],這對系統(tǒng)魯棒性要求極其高的自主車感知系統(tǒng)并不適用。因此如何融合多源信息,充分挖掘不同傳感器優(yōu)勢并實現(xiàn)更為魯棒的目標(biāo)檢測效果成為許多研究人員的關(guān)注熱點。
激光雷達(dá)因為具有極高的工作穩(wěn)定性和提供精確的物體信息,近年來得到廣泛應(yīng)用。相機(jī)與雷達(dá)等多源信息融合是目前研究的主要熱點之一。在行人檢測方面,汪軍[9]提出融合雷達(dá)與相機(jī)并進(jìn)行行人檢測的方法。將雷達(dá)分割作為弱分類器,將基于視覺的行人分類器作為強(qiáng)分類器,結(jié)合雷達(dá)前后幀關(guān)聯(lián)結(jié)果整合多幀檢測信息,將多幀多傳感器檢測結(jié)果以投票策略的方式共同給出。在動態(tài)目標(biāo)檢測方面,曾湘峰[11]研究激光雷達(dá)深度信息和高分辨率圖像生成致密深度圖的相關(guān)方法,并根據(jù)致密深度圖的深度信息及可見光相機(jī)的顏色等信息,在RGB圖像及致密深度圖下采用稀疏三維場景流的模型實現(xiàn)檢測和跟蹤動態(tài)目標(biāo)。閆光[12]基于毫米波雷達(dá)提供的帶有高誤檢率的動態(tài)目標(biāo)信息、INS/GPS提供的位姿信息和點云提取到的可通行區(qū)域等信息,提出一種基于可通行區(qū)域歷史信息、全局運動補(bǔ)償、混合高斯模型的動態(tài)目標(biāo)檢測方法,有效的融合多源信息進(jìn)行目標(biāo)檢測。融合多源信息的環(huán)境感知算法能有效彌補(bǔ)單傳感器環(huán)境感知存在的不足。在多傳感器聯(lián)合標(biāo)定基礎(chǔ)上的信息信息融合感知算法實驗結(jié)果如下:
基于多源信息融合的環(huán)境感知技術(shù)是智能汽車關(guān)鍵核心技術(shù)之一,進(jìn)行多源信息融合有利于增加環(huán)境感知技術(shù)的準(zhǔn)確性、穩(wěn)定性等,彌補(bǔ)單個傳感器環(huán)境感知技術(shù)的不足,對突破環(huán)境感知技術(shù)發(fā)展的瓶頸具有重要意義。
5 環(huán)境感知算法的測試評價分析研究
環(huán)境感知算法的測試評價研究主要包括兩方面:基于數(shù)據(jù)集的感知算法性能測試評價和基于測評系統(tǒng)的感知算法測試評價。
5.1 基于離線場景數(shù)據(jù)驅(qū)動的感知算法測試評價
張兵,董臻等人[11]提出基于極化目標(biāo)檢測算法, 進(jìn)行極化檢測算法漏警率和檢測概率的性能分析評價。王湘暉,曾明等人[13]提出了一種新的圖像增強(qiáng)質(zhì)量客觀評價算法,算法綜合考慮圖像局部區(qū)域的背景平均亮度和空間復(fù)雜度對視覺分辨力的影響。張學(xué)顯,劉偉等人[14]針對智能車輛目標(biāo)檢測能力測評存在的指標(biāo)體系不完整、量化程度和測評實時性低等問題,進(jìn)行目標(biāo)分類和識別測試評價,并用TOPSIS方法進(jìn)行綜合的評價。
5.2 基于測評系統(tǒng)的感知算法測試評價
Zhu W,Miao J等人[15]基于駕駛模擬器,在虛擬場景進(jìn)行下車輛檢測,并以SVM與BP網(wǎng)絡(luò)作為基準(zhǔn),利用ELM對車輛和道路檢測的實時性與精確性方面進(jìn)行測試評價。通過構(gòu)建虛擬場景和駕駛模擬的集成平臺,能有效搭建不同的交通場景,對車輛感知性能進(jìn)行測試評價[16][17]。
7 結(jié)束語
環(huán)境感知算法作為智能汽車關(guān)鍵和共性技術(shù)之一,單傳感器信息環(huán)境感知發(fā)展受傳感器受其物理條件限制具有局限性,多源信息融合能有效彌補(bǔ)單傳感器環(huán)境感知時存在的不足,并通過場景數(shù)據(jù)驅(qū)動測試與環(huán)境感知算法測評系統(tǒng)測試,更好的驗證算法性能。未來以多源傳感器時間同步和空間配準(zhǔn)為基礎(chǔ),信息融合環(huán)境感知趨向從數(shù)據(jù)融合到特征融合發(fā)展。算法測試評價方法趨向從場景數(shù)據(jù)到測評系統(tǒng)發(fā)展。
參考文獻(xiàn):
[1]Zhou L ,Deng Z . Extrinsic calibration of a camera and a lidar based on decoupling the rotation from the translation[C]// Intelligent Vehicles Symposium. IEEE,2012.
[2]Gong X,Lin Y,Liu J . 3D LIDAR-Camera Extrinsic Calibration Using an ArbitraryTrihedron[J]. Sensors, 2013, 13(2):1902-1918.
[3]Ren,S.,He,K., Girshick,R.,& Sun, J.Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2015,39(6), 1137-1149.
[4]Cai Z ,Vasconcelos N . Cascade R-CNN: Delving into High Quality Object Detection[J]. 2017.
[5] Hui Z ,Kunfeng W,Yonglin T , et al. MFR-CNN:Incorporating? Multi-Scale Features? and? Global Information for Traffic Object Detection[J]. IEEE Transactions on Vehicular Technology,2018:1-1.
[6] Habibi Aghdam H ,Jahani Heravi E , Puig D . A practical approach for detection and classification of traffic signs using Convolutional Neural Networks[J]. Robotics and Autonomous Systems, 2016, 84:97-112.
[7]Redmon J,F(xiàn)arhadi A.YOLO9000: Better, Faster, Stronger[C]// IEEE Conference on Computer Vision & Pattern Recognition. IEEE, 2017:6517-6525.
[8]Liu W , Anguelov D , Erhan D , et al. SSD:Single Shot MultiBox Detector[J]. 2015.
[9]Gavrila D M, Giebel J, Munder S. Vision-based pedestrian detection: The protector system [C]. In Intelligent Vehicles Symposium, 2004 IEEE. 2004: 13-18.
[10]汪君.融合相機(jī)和激光雷達(dá)的行人檢測與跟蹤算法研究[D].國防科學(xué)技術(shù)大學(xué),2015.
[11]曾湘峰.車載多傳感器融合下的動態(tài)目標(biāo)檢測與跟蹤[D].國防科學(xué)技術(shù)大學(xué),2015.
[12]閆光.基于多傳感器信息融合的動態(tài)目標(biāo)檢測與識別[D].北京理工大學(xué),2015.
[13]張兵,董臻,梁甸農(nóng).極化目標(biāo)檢測算法性能評價研究[J].系統(tǒng)工程與電子技術(shù),2001(03):28-30.
[14]王湘暉,曾明.基于視覺感知的圖像增強(qiáng)質(zhì)量客觀評價算法[J].光電子.激光,2008(02):258-262.
[15] 張學(xué)顯,劉偉,余彪,許鐵娟,周鵬飛.數(shù)據(jù)驅(qū)動的智能車輛目標(biāo)檢測能力測試評價方法[J].計算機(jī)系統(tǒng)應(yīng)用,2017,26(11):249-253.
[16] Zhu W , Miao J , Hu J , et al. Vehicle detection in driving simulation using extreme learning machine[J]. Neurocomputing, 2014, 128:160-165.
[17] Punzo, V., & Ciuffo, B. . Integration of Driving and Traffic Simulation: Issues and First Solutions. IEEE Transactions on Intelligent Transportation Systems,2011, 12(2),354-363.