国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于機器視覺篩選GPS衛(wèi)星信號的無人駕駛汽車組合導航方法*

2016-11-30 05:25段建民戰(zhàn)宇辰
電子技術(shù)應用 2016年1期
關(guān)鍵詞:視距車體無人駕駛

段建民,石 慧,戰(zhàn)宇辰

(北京工業(yè)大學 城市交通學院,北京100124)

基于機器視覺篩選GPS衛(wèi)星信號的無人駕駛汽車組合導航方法*

段建民,石慧,戰(zhàn)宇辰

(北京工業(yè)大學 城市交通學院,北京100124)

針對無人駕駛智能車在城市道路環(huán)境中全球定位系統(tǒng)信號以非視距傳播而造成偽距估計偏差,導致定位不準確的問題,提出了一種以視覺信息為篩選條件的組合導航方法。該系統(tǒng)通過攝像頭采集到車體周圍環(huán)境信息圖像并處理,最終得到建筑物上隅角與下隅角的差值,換算出建筑物相對車體所形成的遮擋角度,以此篩選GPS衛(wèi)星有效信息,采用容積卡爾曼濾波對組合導航信息進行濾波估計,提高導航信息準確性。實驗證明,該系統(tǒng)能有效彌補無人駕駛智能車城市道路環(huán)境中GPS信號偏差的缺點,較傳統(tǒng)組合方式相比具有較高的可靠性及實用價值。

組合導航;非視距傳播;機器視覺;城市環(huán)境

0 引言

自主駕駛智能車輛的研究受到許多國家的重視,并成為研究的重要內(nèi)容。車輛實現(xiàn)無人駕駛的前提是其配備的導航系統(tǒng)能夠?qū)崟r、準確地提供車輛的狀態(tài)信息。其中以慣性導航系統(tǒng)(INS)和全球定位系統(tǒng)(GPS)提供信息更為豐富完備。車載導航系統(tǒng)常采用多傳感器進行組合導航,常見組合形式有INS/GPS組合導航。文獻[1]將GPS觀測姿態(tài)信息引入組合導航濾波模型,提高了組合導航系統(tǒng)的估計精度,且提高了方位失準角的估計速度,但是沒顧及在城市化道路中GPS信號易受建筑群遮擋,造成信號丟失或跳變的問題,因此有很多學者提出INS/GPS/視覺的組合方式。文獻[2]采用此方法,但該方法矩陣維數(shù)較高,易出現(xiàn)數(shù)值不穩(wěn)定情況,存在不合理性。針對以上問題,本文提出一種新的組合導航方法,通過攝像頭采集的周圍環(huán)境信息對GPS的衛(wèi)星數(shù)據(jù)進行篩選后再進行組合導航。并通過實車實驗驗證了其可靠的導航性能和突出的容錯性,具有較高的實用價值。

1 基于視覺篩選的組合導航方法系統(tǒng)框架

本文提出的導航系統(tǒng)框架如圖1所示,通過機器視覺采集周圍環(huán)境信息,處理得到周圍建筑物對車體遮擋角度并與GPS接收到的衛(wèi)星與地面夾角信息進行對比,判定GPS衛(wèi)星有效性并篩選。由于GPS基于無線電定位技術(shù),其中視距傳播(Line of Sight,LOS)是準確定位的必要條件。而移動端與基站間大多通過反射、散射、衍射方式到達接收端,多為非視距傳播(Not Line of Sight,NLOS),因此對GPS衛(wèi)星數(shù)據(jù)的準確性篩選很有必要。

圖1 組合導航系統(tǒng)框架

2 基于視覺篩選的GPS衛(wèi)星有效性判定

2.1視覺模塊坐標定義

攝像頭成像變換涉及不同坐標系之間的轉(zhuǎn)換。在視覺系統(tǒng)中需將大地坐標系換算成攝像頭坐標系,大地坐標系原點 Ow在車體重心正下方地面上,zv軸垂直向上,xv軸平行地面指向車體前進方向,yv軸在圖中垂直紙面向外。Oc為攝像機坐標系原點,與Ow點的水平距離為l1,與地面的垂直距離為 l2。α,β,γ分別為攝像頭旋轉(zhuǎn)角度,本文攝像頭只繞 x,y,z軸旋轉(zhuǎn),該軸與水平面傾斜角為α,旋轉(zhuǎn)角度β、γ為0。如圖 2所示,(xc,yc,zc)T為攝像頭坐標系,大地坐標系中點(xw,yw,zw)T換算到(xc,yc,zc)T為攝像頭坐標系采用式(1)的方法[3-5]。

圖2 視覺坐標相對車體坐標換算

其中(tx,ty,tz)T為平移向量,R為旋轉(zhuǎn)矩陣。

本文以大地坐標系為主坐標系,統(tǒng)一其他坐標系[16]。視覺坐標系中X軸的正方向為行駛方向的負方向,Y軸的正方向垂直于X軸,水平向右。建筑物的特征點其在視覺坐標系中的坐標定義為(xpvision,ypvision)。攝像頭在大地坐標系中的位置是由GPS實時獲得的,其坐標為(xv,yv),通過此坐標和智能車航向角可以將視覺坐標系轉(zhuǎn)換到大地坐標系下,求出目標點在大地坐標系下的坐標(xp,yp)。建筑物特征點在大地坐標中的坐標與視覺坐標系中的坐標可表示為:

其中,由 GPS提供車輛行駛航向角 φv。

2.2周圍環(huán)境圖像處理方法

圖像經(jīng)處理后提取出代表建筑物特征的候選點。為了尋找建筑物上下角點,對圖像做Canny變換以累計概率霍夫變換尋找連續(xù)性較高的、近水平和豎直方向的直線簇作為建筑邊緣。尋找水平和豎直方向建筑邊緣的交點作為建筑物上角點,以上角點作垂線,與最大填充域的交點最為建筑物下角點。然后,分別計算各交點到車體的距離。最后求處于同一垂直線上的點(大于一個的)到車體點距離的余弦值[6]。

建筑物的俯仰角換算方法定義如下:

2.3非視距環(huán)境下衛(wèi)星信號可用性檢測

本文采用改進的NLOS識別方法,主要為判斷車體周圍的建筑物是否遮擋了GPS提供的衛(wèi)星信號,原理如圖3所示。

圖3 NLOS情況下信號檢測示意圖

其中,a,b分別表示被建筑物遮擋而進行非視距傳播的衛(wèi)星與未被遮擋直接進行視距傳播的衛(wèi)星。如果衛(wèi)星的高度Ea、Eb以及與航向角夾角 Aa、Ab屬于建筑物Bn遮擋區(qū)域,此衛(wèi)星被定義為NLOS情況。衛(wèi)星高度與車體所在位置水平切線的夾角定義為:

其中,rs為衛(wèi)星軌道半徑,re為地球半徑,Ls為衛(wèi)星所處緯度,Le為參照點所處緯度,ls為衛(wèi)星所處經(jīng)度,le參考點的經(jīng)度。

因此,若 cos(Ea)

經(jīng)過視覺篩選后的GPS數(shù)據(jù)與INS采用松組合模式,狀態(tài)變量取為15維,包括3個相對平面坐標系的位置及速度誤差、姿態(tài)角誤差、加速度計偏差、陀螺漂移[7-8]。

其中F為系統(tǒng)狀態(tài)轉(zhuǎn)移矩陣,u為狀態(tài)過程噪聲向量。

組合導航數(shù)據(jù)融合采用松耦合方式,取GPS/INS輸出的位置和速度之差作為觀測值,構(gòu)造觀測量。

3 實驗分析

本文以無人駕駛智能車BJUT-IV為實驗對象如圖4所示。BJUT-IV實驗平臺安裝應用載波相位技術(shù)的差分GPS,設(shè)備組為 FlexPak-G2系列 GPS接收處理機和PDL4535數(shù)傳電臺及GPS-702-GG接收天線。將攝像機安裝在導航車前端的支架上,距離地面高度為 1.73 m,與水平面平行,距車體中心約1 m。

圖4 北京工業(yè)大學無人駕駛智能車

BJUT-IV組合導航控制系統(tǒng)以 Microsoft VS2008為軟件開發(fā)平臺并引入MapX地圖控件,編寫了導航與定位系統(tǒng)軟件,利用此軟件平臺進行實驗驗證。

實車實驗環(huán)境及周邊環(huán)境情況如圖5所示,試驗路段為一段兩側(cè)有連續(xù)建筑物群遮擋的NLOS路段,如下圖所示。

圖5 行車路線及路線周邊環(huán)境

BJUT-IV采用本文所提出的基于攝像頭的組合導航系統(tǒng),重新定義坐標原點O于北緯39.871 9°,東經(jīng)116.478 9°(即圖6中N8點為原點)。實驗中GPS/INS組合導航處理結(jié)果呈現(xiàn)于一臺移動電腦上,如圖6所示,視覺模塊單獨在一臺移動電腦上運行,如圖7所示。

圖6 組合導航系統(tǒng)軟件界面

圖7 視覺篩選界面

試驗車輛嚴格按照試驗道路中線以低于 20 m/s的速度沿實驗路線低速行駛5次,為未采用視覺篩選法GPS數(shù)據(jù),選取其中一次結(jié)果進行分析討論,如圖 8所示,畫圈部分未有較大偏差,究其原因,由于道路周圍存在較高建筑物,遮擋了部分GPS衛(wèi)星信號,導致其傳播方式為NLOS,即使采用跟蹤強度較高平滑度較好的濾波算法仍造成定位精度下降,圖8中N6到N7段路線出現(xiàn)多處偏差甚至跳變,此種情況和前文分析周圍建筑物群密集情況相符。

圖8 未采用視覺篩選法

如圖9所示,采用本文提出的導航方法對GPS數(shù)據(jù)信號進行篩選后,依舊行駛在建筑物密集的N6至N7路段軌跡,估計數(shù)據(jù)穩(wěn)定準確,且在其他有建筑物遮擋的路段均未發(fā)生大偏差。

圖9 采用視覺篩選法

4 結(jié)論

無人駕駛智能車行駛在城市道路上,其配備導航系統(tǒng)容易受到連續(xù)建筑物群遮擋,進而造成接收機接收到的GPS信號為NLOS傳播方式,最終導致定位偏差甚至跳變的問題。本文提出的基于視覺篩選GPS信號的組合導航方法首先通過攝像頭采集到的車體周圍環(huán)境信息,處理得出周圍建筑物與車體當前位置形成的遮擋角度,并與此時接收機接收到的GPS導航的衛(wèi)星所處俯仰角進行對比,若建筑物的遮擋角度大于衛(wèi)星的俯仰角,則建筑物遮擋了部分衛(wèi)星信號,造成衛(wèi)星信號非視距傳播,導致定位精度下降,因此通過視覺模塊對此類衛(wèi)星信號進行剔除。將經(jīng)過視覺模塊篩選后的GPS衛(wèi)星數(shù)據(jù)信息與慣導進行組合導航,從而最大限度降低由于建筑物群遮擋對車輛定位系統(tǒng)準確性造成的影響。實車實驗表明,無人駕駛汽車采用本文提出的基于機器視覺篩選的組合導航系統(tǒng),能在道路兩側(cè)存在連續(xù)建筑物遮擋的情況下,保證定位信息不發(fā)生跳變,與傳統(tǒng)方法相比定位精度明顯提高,滿足了無人駕駛智能汽車在城市路況下導航需求,方法新穎且具有很高的工程實用價值。

[1]周建軍.車輛自動導航定位與控制方法研究[D].北京:中國農(nóng)業(yè)大學,2009.

[2]Sun Chuanwei,Liu Jingao.The design of low-pass filter based on megacore functions[C].2nd InternationalConference on Education TechnologyandComputer.2010,V1-24-V1-27.

[3]邱茂林,馬頌德,李毅.計算機視覺中攝像機定標綜述[J].自動化學報,2000,26(1):43-55.

[4]楊少榮,吳迪靖,段德山.機器視覺算法與應用[M].北京:清華大學出版社,2008.

[5]趙穎,孫群,王書茂.單目視覺導航智能車輛的自定位方法[J].計算機工程與設(shè)計,2008,29(9):2372-2374.

[6]Jay A F,Tony D G,Matthew J B.Real-time differential carrier phase GPS-aided INS[J].IEEE Transactions on Control Systems Technology,2000,8(4):709-720.

[7]趙其杰,屠大維,高健,等.基于 Kalman濾波的視覺預測目標跟蹤及其應用[J].光學精密工程,2008(5):937-942.

[8]吳鳳柱,何矞,焦旭,等.GPS/SINS緊組合導航系統(tǒng)信息融合技術(shù)研究[J].電子技術(shù)應用,2013(2):67-69,73.

Integrated navigation system for unmanned intelligent vehicle based on vision

Duan Jianmin,Shi Hui,Zhan Yuchen
(Beijing University of Technology,Institute of Urban Traffic,Beijing 100124,China)

In view of the unmanned intelligent vehicles in urban road environment,the global positioning system(GPS)signal to non-line-of-sight(NLOS)propagation caused by the pseudorange deviation,lead to inaccurate positioning problems,puts forward a kind of method for integrated navigation.The system through the camera to process images,finally get the corner on the building and the angle difference of conversion of building block angle,which is formed by the relative body and screening of GPS satellite information effectively.The system adopts the adaptive cubature Kalman filtering for filter estimation,in order to improve the accuracy of navigation information.Experiments show that the system can effectively recluce GPS signal deviation in urban road environment,which has high reliability and practical value.

integrated navigation;non-line of sight;vision;urban road environment

TP39

A

10.16157/j.issn.0258-7998.2016.01.029

北京市教委重點項目;北京市自然科學基金(JJ002790200802);北京市屬高等學校人才強教計劃資助項目(038000543115025)

2015-08-20)

段建民(1959-),男,博士,教授,主要研究方向:汽車電子控制及智能化技術(shù)。

石慧(1990-),通訊作者,女,碩士研究生,主要研究方向:多傳感器融合技術(shù),E-mail:603109545@qq.com。

戰(zhàn)宇辰(1990-),男,碩士研究生,主要研究方向:機器視覺。

中文引用格式:段建民,石慧,戰(zhàn)宇辰.基于機器視覺篩選 GPS衛(wèi)星信號的無人駕駛汽車組合導航方法[J].電子技術(shù)應用,2016,42(1):111-114.

英文引用格式:Duan Jianmin,Shi Hui,Zhan Yuchen.Integrated navigation system for unmanned intelligent vehicle based on vision[J].Application of Electronic Technique,2016,42(1):111-114.

猜你喜歡
視距車體無人駕駛
我們村的無人駕駛公交
無人駕駛車輛
無人駕駛公園
俄羅斯
無人駕駛,先上賽道如何?
一種基于非視距誤差補償?shù)膮f(xié)同定位算法
安全視距應該成為道路安全管理的基礎(chǔ)共識
淺談道路設(shè)計中的停車視距與驗證
KAMAGWIESEL可交換車體運輸車探秘及模型賞析
簡析地鐵車輛—鋁合金車體
松原市| 南丰县| 五家渠市| 泽州县| 三原县| 廉江市| 左贡县| 贡嘎县| 兴义市| 湖州市| 安平县| 綦江县| 嘉义县| 隆化县| 黄浦区| 阳江市| 于田县| 屯门区| 保定市| 鄂温| 淳化县| 山阳县| 仲巴县| 蕉岭县| 汉川市| 诸城市| 邹平县| 东光县| 隆子县| 定南县| 博客| 武汉市| 景东| 蒙山县| 搜索| 高青县| 理塘县| 凤庆县| 措勤县| 泽库县| 潞城市|