国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于空地信息互補(bǔ)的無人車路線規(guī)劃

2022-06-10 08:22:30陸晨飛
關(guān)鍵詞:全局無人機(jī)器人

陸晨飛,張 浩

(1.南京工業(yè)大學(xué) 機(jī)械與動力工程學(xué)院,江蘇 南京 211800;2.江蘇省工業(yè)裝備數(shù)字制造及控制技術(shù)重點(diǎn)實(shí)驗室,江蘇 南京 211800)

人工智能和網(wǎng)絡(luò)通信等技術(shù)的進(jìn)步,推動著無人自主系統(tǒng)的不斷發(fā)展??盏貦C(jī)器人協(xié)作是無人自主系統(tǒng)的關(guān)鍵部分。空地機(jī)器人協(xié)作在進(jìn)行環(huán)境信息感知和任務(wù)規(guī)劃時能夠優(yōu)勢互補(bǔ),空地機(jī)器人能為地面機(jī)器人提供近空環(huán)境信息,同時地面機(jī)器人也能搭載進(jìn)行環(huán)境感知的重要傳感設(shè)備,完成自主導(dǎo)航任務(wù),到達(dá)指定目標(biāo)區(qū)域。因此,在災(zāi)害救援方面,空地機(jī)器人協(xié)作能為惡劣環(huán)境下的救援提供更為安全可靠的解決方案;在軍事領(lǐng)域,空地平臺的構(gòu)建更是提高了人們在地形偵察與野外作戰(zhàn)方面的能力。

對此,國內(nèi)外研究人員提出了不同方案,美國陸軍研究實(shí)驗室構(gòu)建了空地機(jī)器人自主協(xié)作系統(tǒng),通過在特定區(qū)域開展偵察任務(wù),實(shí)現(xiàn)了待搜索目標(biāo)的識別與定位[1]。美國弗吉尼亞理工大學(xué)無人系統(tǒng)實(shí)驗室針對室外的局部地形,通過全球定位系統(tǒng)準(zhǔn)確定位的同時,實(shí)現(xiàn)了地面無人車快速有效地自主導(dǎo)航[2]。蘭州理工大學(xué)在室內(nèi)小范圍實(shí)驗環(huán)境下,基于視覺感知,對空地協(xié)作下的機(jī)器人路徑規(guī)劃展開研究,進(jìn)一步提高了地面機(jī)器人的自主導(dǎo)航性能[3]。以上國內(nèi)外學(xué)者主要是針對空地機(jī)器人的環(huán)境探測、自主導(dǎo)航進(jìn)行研究,但都是針對某個局部特定環(huán)境,對于大范圍室外環(huán)境下的機(jī)器人自主協(xié)作與導(dǎo)航研究較少。在局部小范圍情形下,地面機(jī)器人借助自身搭載的傳感器所能觀測到的環(huán)境特征有限,無法在短時間內(nèi)對周圍環(huán)境實(shí)現(xiàn)完整建模,因而地面機(jī)器人很難在全局上引導(dǎo)路徑規(guī)劃器規(guī)劃合適路徑,使得機(jī)器人在后期進(jìn)行局部路徑規(guī)劃時容易陷入局部極值問題。對于室內(nèi)等特定環(huán)境下的自主導(dǎo)航情形,機(jī)器人能夠觀測到的點(diǎn)、線等特征不易受光照變化和復(fù)雜地形制約,相反,在大范圍室外場景中的點(diǎn)、線及紋理特征易受到光照變化限制,因此地面機(jī)器人在使用激光雷達(dá)等依賴于光反射原理獲取環(huán)境特征數(shù)據(jù)的傳感器對周圍環(huán)境建模時,會引發(fā)錯誤的數(shù)據(jù)關(guān)聯(lián)問題,難以滿足導(dǎo)航要求;同時,大范圍場景中的特征數(shù)量易受復(fù)雜地形影響而大幅下降,進(jìn)而缺少有效的環(huán)境特征用于對周圍環(huán)境建模。但是,機(jī)器人在大范圍室外應(yīng)用場景下的自主規(guī)劃與對環(huán)境建模能力,對執(zhí)行全面的地形偵察或大范圍環(huán)境搜索任務(wù)都十分關(guān)鍵。因此,提升室外地面場景特征的穩(wěn)健性和準(zhǔn)確性,對機(jī)器人執(zhí)行自主規(guī)劃任務(wù)與提高其對周圍環(huán)境進(jìn)行完整觀測的能力有很大幫助。

本文主要針對大范圍室外場景條件下的全局環(huán)境特征提取方法進(jìn)行研究。借助空中機(jī)器人完成目標(biāo)物的檢測定位及全局場景圖像的獲取,通過改進(jìn)圖像配準(zhǔn)算法并借助圖像融合,提升提取場景特征的魯棒性,從而獲得穩(wěn)定有效的全局環(huán)境信息,指導(dǎo)地面無人車在大范圍場景下的路線規(guī)劃。

1 空地機(jī)器人協(xié)作框架

空地機(jī)器人協(xié)作流程如圖1所示。由圖1可知:空中無人機(jī)采集圖像序列及視頻幀圖像,通過無線自組網(wǎng)電臺,實(shí)現(xiàn)無人車和地面計算平臺等節(jié)點(diǎn)的數(shù)據(jù)傳輸共享,地面計算平臺同時負(fù)責(zé)硬件系統(tǒng)與軟件方案的系統(tǒng)集成;通過機(jī)器人操作系統(tǒng)(ROS)實(shí)現(xiàn)基于消息通信的分布式節(jié)點(diǎn)組建與調(diào)用,基于目標(biāo)檢測深度網(wǎng)絡(luò)的YOLO-v3模塊完成對視頻中目標(biāo)物的檢測任務(wù)[4-6];當(dāng)無人機(jī)位于目標(biāo)物上方并成功檢測到目標(biāo)物后,通過建立相機(jī)投影及坐標(biāo)轉(zhuǎn)換模型獲取無人機(jī)全局坐標(biāo)并發(fā)送至地面無人車;由圖像拼接模塊完成對無人機(jī)圖像序列拼接,提取全局場景信息;由地面無人車的全局及局部路徑規(guī)劃模塊,將速度指令輸送至底盤執(zhí)行機(jī)構(gòu),直到無人車到達(dá)目標(biāo)位置。因此,本文主要對大范圍室外場景下的目標(biāo)物檢測與定位、地面場景特征提取及無人車路線規(guī)劃3個模塊展開研究。

2 全局環(huán)境信息獲取

2.1 圖像序列獲取與目標(biāo)檢測定位

在攝影測量方面,無人機(jī)展示出巨大潛力[5]。針對野外環(huán)境拍攝任務(wù),四旋翼無人機(jī)可快速獲取環(huán)境圖像序列,而后對場景中的河流、道路、建筑物等采用數(shù)字圖像處理,快速提取目標(biāo)特征,且無須進(jìn)行幾何及相機(jī)位姿估計與調(diào)整。

根據(jù)無人機(jī)拍攝方式不同,圖像序列的采集大致可分為定點(diǎn)全景圖采集及多視點(diǎn)碎片化采集兩種。由于地面無人車自主導(dǎo)航需要完整的全局環(huán)境,采用搭載有減震云臺相機(jī)的四旋翼無人機(jī)對地面目標(biāo)場景進(jìn)行多次定點(diǎn)拍攝,圖2所示的橢圓ABCD為無人機(jī)能夠覆蓋的最大拍攝區(qū)域,由于拍攝時飛行高度較高,可將所拍攝地面場景看作平面,同時保證了每次取景能夠覆蓋更多場景區(qū)域。

圖2 無人機(jī)航拍圖像獲取Fig.2 Acquisition of images of unmanned aerial vehicle

在室外場景下,地面物體呈現(xiàn)出更多不確定性和復(fù)雜紋理,且易受光照強(qiáng)度變化影響,為目標(biāo)檢測任務(wù)帶來一定困難。目標(biāo)檢測算法可分為基于特征、基于知識和模型及基于神經(jīng)網(wǎng)絡(luò)的算法,其中,基于神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測過程為通過建立目標(biāo)檢測模型,輸入待分類圖像,借助分類器實(shí)現(xiàn)目標(biāo)識別。當(dāng)前基于深度卷積網(wǎng)絡(luò)的目標(biāo)檢測主要有兩大類:一類為基于區(qū)域的檢測方法,如Faster-RCNN(快速卷積神經(jīng)網(wǎng)絡(luò))[7]與Corner-Net[8],該法將特征提取、區(qū)域預(yù)測等整合到一個網(wǎng)絡(luò)中,有利于小目標(biāo)檢測但無法具備較好的實(shí)時性;另一類是基于回歸的目標(biāo)檢測,如SSD[9]與YOLO[4,10-11],可選用基于Darknet框架下的YOLO-v3模塊進(jìn)行一次卷積操作,就可完成目標(biāo)檢測,在保證實(shí)時性的同時可獲取較高準(zhǔn)確率和魯棒性。

YOLO-v3模塊使用維度聚類提取所有類別對象所在邊界框,選擇logistic替代softmax分類器,通過回歸計算每個邊界框中物體類別的置信度。本文所需檢測的物體類別與已有訓(xùn)練模型數(shù)據(jù)集相近,訓(xùn)練數(shù)據(jù)量相對較小,可通過遷移學(xué)習(xí)使用預(yù)訓(xùn)練模型,則改變所需的輸出類別個數(shù),就能在YOLO-v3已有的預(yù)訓(xùn)練權(quán)重基礎(chǔ)上,針對場景中待檢測目標(biāo)數(shù)據(jù)集進(jìn)行訓(xùn)練。將地面車輛作為檢測目標(biāo),通過labellmg工具對所搜集的500張待檢測圖片進(jìn)行標(biāo)注,并生成對應(yīng)注釋文本文件,每張均含有待測圖像邊界框信息。在配備圖形處理器(GPU)加速的Intel i7、主頻3.2 GHz、16 GB內(nèi)存計算機(jī)上訓(xùn)練模型,并進(jìn)行測試,所得檢測結(jié)果如圖3所示。

使用準(zhǔn)確率和召回率評價YOLO-v3的分類性能,在83.15%的準(zhǔn)確率下,YOLO-v3仍有88.23%的較高召回率。同時,檢測速度為每秒20幀,滿足地面計算平臺的實(shí)時性要求。

當(dāng)無人機(jī)檢測到目標(biāo)后,還需根據(jù)像點(diǎn)位置計算地面目標(biāo)物空間位置。在攝影測量學(xué)中,相機(jī)攝影中心與相片的轉(zhuǎn)換關(guān)系由內(nèi)方位元素,即相機(jī)內(nèi)參矩陣(K)給出。描述攝影中心與相片在全局坐標(biāo)系(XG,YG,ZG)(國際通用的以地球質(zhì)心為原點(diǎn)的WGS-84坐標(biāo)系)位姿關(guān)系的參數(shù)為外方位元素,由六自由度旋轉(zhuǎn)與平移變換給出。減震云臺相機(jī)在飛行拍攝過程中的姿態(tài)仍會發(fā)生平移與旋轉(zhuǎn)運(yùn)動,如圖4所示,設(shè)外方位元素的3個角元素為(α,β,γ);3個線元素為(XO,YO,ZO),即相機(jī)光心的空間位置坐標(biāo);相機(jī)坐標(biāo)系為(XC,YC,ZC),則轉(zhuǎn)換關(guān)系如式(1)所示。

(1)

式中:R為由角元素構(gòu)成的3×3旋轉(zhuǎn)矩陣。

圖3 YOLO-v3地面目標(biāo)檢測結(jié)果Fig.3 Ground target detection result by YOLO-v3

(2)

式中:a=cosαcosγ-sinαsinβsinγ,b=-cosαsinγ-sinαsinβcosγ,c=sinαcosγ+cosαsinβsinγ,d=-sinαsinγ+cosαsinβcosγ。

參考點(diǎn)Aref的全局坐標(biāo)(XA,YA,0),在相機(jī)坐標(biāo)系下的坐標(biāo)(XAC,YAC,ZAC),Aref的像點(diǎn)坐標(biāo)在物理成像平面內(nèi)以齊次坐標(biāo)形式表示為(u,v,1)T,由此可得到

(3)

由相機(jī)投影模型中全局坐標(biāo)系與相機(jī)坐標(biāo)系的轉(zhuǎn)換關(guān)系可得矩陣方程(4)。

(4)

由式(2)解算得到無人機(jī)質(zhì)心的全局坐標(biāo),即檢測到目標(biāo)物的實(shí)際空間位置。

圖4 坐標(biāo)轉(zhuǎn)換模型Fig.4 Coordinate transformation model

2.2 場景圖像拼接

四旋翼無人機(jī)在進(jìn)行拍攝時,獲取的原始圖像是按照拍攝時間順序排列的。通過控制無人機(jī)姿態(tài)和飛行速度,設(shè)置相同拍攝間隔,進(jìn)行連續(xù)拍攝,最大程度上保證相鄰圖像之間具有視野重疊區(qū)域[12]。

圖像拼接算法主要用于發(fā)現(xiàn)具有不同重疊程度圖像間的對應(yīng)關(guān)系,分為直接法和基于特征的拼接方法,進(jìn)而融合生成全景圖。直接法是基于灰度不變假設(shè),根據(jù)像素灰度信息,通過最小化光度誤差得到圖像間的變換關(guān)系?;谔卣鞯钠唇臃椒ㄊ峭ㄟ^獲取點(diǎn)、線或圖像中的幾何實(shí)體特征,建立匹配關(guān)系,來完成對圖像的配準(zhǔn),選擇基于特征的拼接策略時,可進(jìn)一步融合配準(zhǔn)后圖像,最終獲取完整的場景信息。

在平面特征匹配中,使用圓柱坐標(biāo)投影建立相機(jī)的純平移模型。通過式(5)和(6)將輸入圖像扭曲為圓柱坐標(biāo)形式,可快速地使用純平移模型配準(zhǔn)圖像。假設(shè)此時攝像頭的光軸與Z軸對齊,相機(jī)焦距為f,則對應(yīng)的圖像某像素點(diǎn)(x,y)的射線形式為(x,y,f),將其投影到如圖5所示的單位半徑圓柱面上,可由角度(θ)和高度(h)參數(shù)化表示為

(5)

(6)

式中:x、y分別為圖像中像素點(diǎn)的橫縱坐標(biāo);x′、y′分別為像素點(diǎn)在圓柱坐標(biāo)系下的橫縱坐標(biāo);h為圖像某像素點(diǎn)在單位半徑圓柱面上的高度;s為尺度因子,通常設(shè)定其值與相機(jī)焦距(f)相等,以最大程度減少圖像中心附近的失真。

圖5 柱面坐標(biāo)投影模型Fig.5 Projection model to cylindrical coordinates

基于特征的拼接方法中,特征點(diǎn)的提取和描述尤為關(guān)鍵。文獻(xiàn)[13]提出了一種基于加速魯棒特征(SURF)的快速概略拼接方法,該方法使用模板匹配獲取匹配點(diǎn)對,具有較高的實(shí)時性,但點(diǎn)對的匹配缺乏一定的魯棒性。文獻(xiàn)[14]將待拼接圖像按照重疊程度分為不同區(qū)域,實(shí)現(xiàn)了較高精度的配準(zhǔn)與圖像拼接,但無法保證每次拼接的穩(wěn)定性。本文首先通過尺度不變特征變換(SIFT)算法提取圖像中的關(guān)鍵點(diǎn),并生成特征描述子[15],同時提出一種基于穩(wěn)健映射函數(shù)模型的誤匹配剔除方法,增強(qiáng)點(diǎn)對匹配的可重復(fù)性,同時為計算上述平移模型參數(shù)提供更多穩(wěn)健的正確匹配點(diǎn)對,最終通過加權(quán)平均融合[16],去除拼接縫隙,進(jìn)一步平滑所拼接圖像。

Lowe[15]提出的SIFT特征點(diǎn)具有尺度及旋轉(zhuǎn)不變性。SIFT在不同尺度的高斯差分圖像上搜索局部極值,同時消除邊緣響應(yīng)值。通過比較局部圖像像素梯度方向,確定關(guān)鍵點(diǎn)的主方向以獲取旋轉(zhuǎn)不變性,使得每一關(guān)鍵點(diǎn)都包含有尺度、位置及方向信息,并生成128維特征描述子,由最近鄰搜索獲得兩幅圖像的初始匹配點(diǎn)對。給定由SIFT獲取的初始匹配點(diǎn)對(p,p′),其中p=(u,v),p′=(u′,v′)。支持向量回歸方法(SVR)在函數(shù)估計等方面顯示出穩(wěn)健特性[17-20],本文首先使用SVR建立匹配點(diǎn)對映射模型,如式(7)所示。

(7)

計算進(jìn)行一次匹配的映射殘差(δi),如式(8)所示。

(8)

為進(jìn)一步剔除誤匹配點(diǎn)對,引入Tukey雙權(quán)估計函數(shù)[9],根據(jù)計算所得的殘差大小,為每一匹配點(diǎn)對分配合理權(quán)重,并設(shè)定閾值,剔除外點(diǎn),完成映射函數(shù)估計的迭代過程。隨著迭代次數(shù)的增加,映射函數(shù)模型將逐漸逼近真實(shí)的點(diǎn)對映射模型,迭代終止時所得點(diǎn)對集合即為提純所得結(jié)果,圖6為使用上述方法所得場景匹配效果,可以看出改進(jìn)算法剔除了絕大部分誤匹配點(diǎn)對。

圖6 基于點(diǎn)對映射模型的場景圖像配準(zhǔn)結(jié)果Fig.6 Registration result of scene images based on correspondence function model

表1為保持SIFT算法中初始匹配點(diǎn)對的距離比值為0.8的情況下,對相同兩幅待匹配圖像連續(xù)提純5次,并與隨機(jī)采樣一致性算法(RANSAC)[21]、M估計方法(M-estimators)[22]及最小中值法(LMedS)[23]的結(jié)果進(jìn)行對比。匹配點(diǎn)對映射模型在保留更多正確匹配點(diǎn)對的同時,具有更好的匹配穩(wěn)定性和可重復(fù)性,為之后變換模型的建立提供了更加準(zhǔn)確的幾何約束。

表1 同一匹配點(diǎn)對圖像連續(xù)提純5次的匹配數(shù)

在完成全景圖初始拼接的過程中,通過改進(jìn)配準(zhǔn)方法,在拼接過程中提供了更多穩(wěn)定匹配點(diǎn)對,提高了拼接的準(zhǔn)確性。然而,由于拍攝場景仍存在光照強(qiáng)度或傳感器誤差等因素,造成融合結(jié)果出現(xiàn)色彩不連續(xù)或圖像模糊。本文采用多頻段圖像融合,一方面該方法具有更加出色的細(xì)節(jié)捕獲能力,另一方面也滿足實(shí)時性要求。多頻段圖像融合將圖像的信號分解為若干不同分辨率下的頻段,然后對應(yīng)在每個頻段進(jìn)行融合[24]。使用上述拼接方法及融合策略,對24張無人機(jī)航拍圖進(jìn)行測試,融合前后的效果對比如圖7所示,可以看出融合后的拼接圖像中局部模糊區(qū)域與拼接裂縫出現(xiàn)較少。

圖7 多頻段融合前后效果對比Fig.7 Comparison of results before and after multi-band fusion

2.3 場景特征提取

無人車在野外環(huán)境下進(jìn)行自主導(dǎo)航的前提是已知場景的全局信息,通過自身搭載的傳感器,進(jìn)一步精確感知周圍環(huán)境,從而完成自主導(dǎo)航。然而,室外場景特征通常都較為復(fù)雜,會隨著場景的亮度變化而發(fā)生變化。Wang[25]提出使用最小二乘法與模板匹配提取特征,該方法可提取到質(zhì)量較高且穩(wěn)定的環(huán)境特征。Wu等[26]針對室外場景下光照變化的情形,提出使用全卷積網(wǎng)絡(luò)訓(xùn)練高分辨率特征圖,進(jìn)行圖像分割與特征提取。本文通過對拼接后的野外地形進(jìn)行區(qū)域分割,通過形態(tài)學(xué)濾除背景噪聲,從而得到全局場景信息。

圖像分割是后期進(jìn)行圖像處理的首要步驟,其中,聚類分割方法是基于被選擇的不同特征和相似性度量準(zhǔn)則[27]建立的,所獲得的每一個類都代表著不同的圖像類別和屬性。本文采用k(聚類中心數(shù))-均值聚類方法對拼接圖像進(jìn)行分割。針對分割后所得圖像仍具有大量噪聲這一情況,對圖像二值化處理后并采用中值濾波濾除噪聲。通過形態(tài)學(xué)處理,采用開操作進(jìn)一步平滑道路邊緣輪廓,由閉操作填補(bǔ)分割過程中留下的圖像間隙及孔洞。

使用無人機(jī)對大學(xué)校園室外場景采集圖像序列,經(jīng)上述拼接算法處理并調(diào)整大小后,所得全景圖及灰度圖如圖8(a)與8(b)所示;由k-均值聚類方法對灰度圖進(jìn)行分割后如圖8(c)所示,當(dāng)聚類中心數(shù)取為4時,能夠較好地將圖中道路與樹木等不同場景分割開來,但仍存在噪聲;圖8(d)為二值化操作后的圖像;圖8(e)為經(jīng)過膨脹和腐蝕處理后的場景特征,可知已去除大部分背景噪聲;圖8(f)為進(jìn)一步使用形態(tài)學(xué)組合運(yùn)算去除細(xì)小物體,使得道路特征更為清晰,且足夠平滑。

圖8 全局場景特征提取Fig.8 Extraction of the global scene features

3 無人車路線規(guī)劃

3.1 基于采樣的路徑規(guī)劃方法

無人車實(shí)現(xiàn)室外自主導(dǎo)航主要分為3個部分:①針對整個全局目標(biāo)區(qū)域的路線規(guī)劃,為無人車提供全局道路信息;②車體自身的路徑規(guī)劃,該過程可將已規(guī)劃完成的全局路線分段處理,再實(shí)現(xiàn)全局路徑規(guī)劃;③動態(tài)規(guī)劃與避障,即通過自身攜帶的傳感器進(jìn)行局部的路徑規(guī)劃與避障操作。文獻(xiàn)[28]提出的MHA*(Multi-heuristic A*)算法及文獻(xiàn)[29]提出的A*-Connect算法均使用了網(wǎng)格搜索方法,并構(gòu)建了啟發(fā)式函數(shù),實(shí)現(xiàn)全局路徑規(guī)劃。然而,基于分辨率完備性的網(wǎng)格搜索算法需要提前對環(huán)境進(jìn)行顯式建模,很難完成復(fù)雜環(huán)境下的規(guī)劃任務(wù);相反,基于采樣的規(guī)劃算法,不需要對環(huán)境的障礙物進(jìn)行精確建模,其狀態(tài)空間為機(jī)器人所有可能出現(xiàn)的平移或旋轉(zhuǎn)運(yùn)動的位姿集合,即構(gòu)成了位形空間,此時,地面機(jī)器人可看作是其中一點(diǎn),則整個運(yùn)動規(guī)劃問題變?yōu)閺臋C(jī)器人的初始位形到目標(biāo)位形中尋找一條無碰路徑。因此,引入基于采樣的規(guī)劃算法,為地面無人車規(guī)劃出全局環(huán)境下的行進(jìn)路線,從而為后期進(jìn)行自主避障與動態(tài)路徑規(guī)劃提供可靠的全局引導(dǎo)信息。

概率路線圖法(PRM)是由Elbanhawi等[30]提出的。傳統(tǒng)PRM方法的實(shí)現(xiàn)主要分為兩個階段:離線學(xué)習(xí)階段及路徑搜索階段。離線學(xué)習(xí)階段完成路線圖的構(gòu)建,對位形空間進(jìn)行一定時間的隨機(jī)采樣,保留自由空間中的采樣點(diǎn),丟棄處于障礙物空間的采樣點(diǎn);在路徑搜索階段采用多查詢策略,所使用的路徑搜索算法可以為A*或其他搜索算法[30]。采樣策略使得PRM方法能夠在復(fù)雜環(huán)境下快速找到可行解,然而由于采樣點(diǎn)存在隨機(jī)性,其生成路徑通常具有較多轉(zhuǎn)折點(diǎn)(圖9),對于具有動力學(xué)約束的地面機(jī)器人,很難滿足其動態(tài)特性。

圖9 多查詢PRMFig.9 Multi-query PRM

3.2 改進(jìn)算法及仿真分析

針對傳統(tǒng)PRM方法在路徑搜索階段存在較多轉(zhuǎn)折點(diǎn)這一問題,同時為了權(quán)衡路徑規(guī)劃效率,本文引入了基于網(wǎng)格搜索的滑動窗口方法(DWA)[31],其軌跡評價函數(shù)的基本形式如式(9)所示。

G(v,w)=k1×heading(e,w)+k2×dist(e,w)+

k3×velocity(e,w)

(9)

式中:G(e,w)為生成路徑的軌跡評分,heading(e,w)為行進(jìn)方位角評價函數(shù),dist(e,w)為當(dāng)前軌跡與最近的障礙物之間的距離,velocity(e,w)為當(dāng)前行進(jìn)軌跡的速度大小,e為搜索時的行進(jìn)速度,w為行進(jìn)方位角,k1、k2、k3分別為各個評價指標(biāo)的權(quán)重系數(shù)。

DWA根據(jù)評價函數(shù)計算一組軌跡中的得分最大值,從而挑選出一條最優(yōu)行進(jìn)軌跡。根據(jù)PRM方法生成路徑,著重針對查詢階段中的啟發(fā)式函數(shù)進(jìn)行改進(jìn)。傳統(tǒng)PRM方法使用節(jié)點(diǎn)間歐氏距離度量一個節(jié)點(diǎn)向下一個節(jié)點(diǎn)搜尋的代價,而改進(jìn)啟發(fā)式函數(shù)通過引入滑動窗口的方法形成評價函數(shù),當(dāng)進(jìn)行下一次路徑搜索時,綜合考慮選擇新節(jié)點(diǎn)加入隊列的目標(biāo)偏向代價、距離代價及路徑轉(zhuǎn)折代價,如式(10)所示。

H(x,y)=k1×bias(x,y)+k2×dist(x,y)+k3×turn(x,y)

(10)

式中:H(x,y)為一個節(jié)點(diǎn)向下一個節(jié)點(diǎn)進(jìn)行路徑搜尋的總代價;bias(x,y)為目標(biāo)偏差函數(shù),該函數(shù)給出所選擇的新節(jié)點(diǎn)與目標(biāo)點(diǎn)的偏差角度θ,偏差越小,該項得分越高,dist(x,y)函數(shù)為新節(jié)點(diǎn)到目標(biāo)點(diǎn)的歐氏距離,距離目標(biāo)點(diǎn)更近,得分越高;turn(x,y)為路徑轉(zhuǎn)折函數(shù),可用于計算在加入新節(jié)點(diǎn)后,與前一個進(jìn)入隊列的節(jié)點(diǎn)形成的路徑轉(zhuǎn)折角度(δ),考慮路徑轉(zhuǎn)折角度的大小,能夠保證路徑存在的同時,減少路徑轉(zhuǎn)折次數(shù)。

為驗證改進(jìn)算法的有效性,使用設(shè)置500×500的像素地圖進(jìn)行仿真,一次采樣數(shù)為50個點(diǎn),3個權(quán)重系數(shù)分別設(shè)置為0.5、0.3、0.5,3種地圖下對比結(jié)果如圖10所示。由圖10可知:在A、B、C 3種模擬場景下,通過改進(jìn)的PRM方法,減少了路徑中不必要的轉(zhuǎn)折點(diǎn),有利于縮短規(guī)劃路徑長度和計算時間。

圖10 3種地圖下的改進(jìn)算法仿真結(jié)果對比Fig.10 Simulation comparison of the improved algorithm under 3 maps

表2列出了針對3種復(fù)雜場景下,分別使用傳統(tǒng)PRM方法、快速搜索隨機(jī)樹(RRT)[32]、Visibility PRM[33]和改進(jìn)PRM方法,連續(xù)進(jìn)行50次路徑規(guī)劃的仿真結(jié)果對比。由表2可知:改進(jìn)啟發(fā)式函數(shù)的規(guī)劃方法在路徑轉(zhuǎn)折點(diǎn)數(shù)量上有所減少,同時,由于改進(jìn)算法進(jìn)一步權(quán)衡了目標(biāo)偏向和節(jié)點(diǎn)間距離度量比重,路徑長度總體上獲得了17%的改進(jìn)效果,轉(zhuǎn)折點(diǎn)數(shù)量的減少也可節(jié)省一部分規(guī)劃時間。

3.3 全局場景路線規(guī)劃

圖11為由上述方法規(guī)劃地面無人車行進(jìn)至目標(biāo)區(qū)域的全局路線,藍(lán)色與紅色星號分別代表地面無人車的起始和目標(biāo)位置。由圖11可知:所用方法選擇了最短路線進(jìn)行規(guī)劃,為地面無人車后期進(jìn)行自主導(dǎo)航提供了一條安全可行的全局路線。

圖11 全局場景下的路線規(guī)劃結(jié)果Fig.11 Route planning result under global scene

表2 50次規(guī)劃仿真對比結(jié)果

4 平臺搭建與測試

硬件平臺由如圖12所示的地面無人車、大疆精靈3A四軸飛行器、無線自組網(wǎng)電臺以及配備Intel i7、3.2 GHz主頻、16 GB內(nèi)存的計算機(jī)等構(gòu)成。地面無人車配備有可實(shí)現(xiàn)自主導(dǎo)航所需的激光雷達(dá)、全球定位系統(tǒng)(GPS)、慣性測量單元及里程計等傳感器,用于控制無人機(jī)的安全飛行高度,環(huán)繞場景區(qū)域飛行的同時,將實(shí)時存儲所拍攝圖像及視頻,并回傳至地面計算機(jī)實(shí)現(xiàn)場景信息的提取及目標(biāo)空間位置解算,可大幅減少空中機(jī)器人計算負(fù)載。

圖12 協(xié)作平臺示意圖Fig.12 Schematic diagram of collaboration platform

在機(jī)器人操作系統(tǒng)(ROS)中,使用WGS-84坐標(biāo)系和geographiclib python庫,能準(zhǔn)確地將導(dǎo)航目標(biāo)點(diǎn)的GPS坐標(biāo)轉(zhuǎn)換為ROS參考系下的坐標(biāo)值,并下發(fā)給無人車move_base導(dǎo)航包。在節(jié)點(diǎn)launch文件中設(shè)定好無人車出發(fā)點(diǎn)經(jīng)緯度坐標(biāo),地面無人車獲取目標(biāo)經(jīng)緯度后下達(dá)gps_goal指令給無人車,驅(qū)動其向目標(biāo)區(qū)域行進(jìn)??紤]到GPS精度,在實(shí)際測試中選取了具有較長路線長度的場景區(qū)域,總長約500 m,確保無人車能夠準(zhǔn)確檢測到從出發(fā)點(diǎn)到目標(biāo)點(diǎn)的經(jīng)緯度讀數(shù)變化。

圖13為測試過程中地面無人車的部分行進(jìn)過程圖,在已規(guī)劃的全局路線下,地面無人車可順利進(jìn)行自主導(dǎo)航并到達(dá)指定目標(biāo)位置。

圖13 地面無人車部分行進(jìn)過程Fig.13 Part of the driving process of unmanned ground vehicle

5 結(jié)論

1)構(gòu)建了空中旋翼無人機(jī)及地面機(jī)器人的協(xié)作框架,根據(jù)無人機(jī)回傳的視頻幀圖像,借助YOLO-v3深度學(xué)習(xí)網(wǎng)絡(luò)完成地面目標(biāo)物的檢測識別,可獲得較高的識別準(zhǔn)確率,同時建立相機(jī)投影與坐標(biāo)轉(zhuǎn)換模型,確定了目標(biāo)物所在地理位置。

2)建立了由SIFT算法獲取到的特征匹配點(diǎn)對之間的穩(wěn)健映射函數(shù)模型,在獲得更多正確匹配點(diǎn)對的同時,增強(qiáng)了所提取到圖像特征點(diǎn)的穩(wěn)健性,減少了全局場景圖的拼接縫隙與拼接圖像模糊區(qū)域的出現(xiàn)頻率,圖像分割算法使得圖像特征間差異更為明顯,從而提升了地面場景特征提取的魯棒性和準(zhǔn)確性。

3)改進(jìn)了基于采樣的路徑規(guī)劃方法,所規(guī)劃路徑的長度整體減少了17%,可為無人車提供一條全局場景下的無碰撞路線。通過對主要模塊的仿真實(shí)驗與測試平臺的構(gòu)建,增強(qiáng)了地面機(jī)器人對大范圍室外場景的適應(yīng)性和自主導(dǎo)航能力。

猜你喜歡
全局無人機(jī)器人
Cahn-Hilliard-Brinkman系統(tǒng)的全局吸引子
量子Navier-Stokes方程弱解的全局存在性
無人戰(zhàn)士無人車
反擊無人機(jī)
落子山東,意在全局
金橋(2018年4期)2018-09-26 02:24:54
詩到無人愛處工
岷峨詩稿(2017年4期)2017-04-20 06:26:43
無人超市會流行起來嗎?
機(jī)器人來幫你
認(rèn)識機(jī)器人
機(jī)器人來啦
迁西县| 盐池县| 六安市| 农安县| 申扎县| 平原县| 垣曲县| 巴东县| 仲巴县| 黎城县| 洱源县| 扬中市| 江门市| 江北区| 马关县| 秦安县| 庆阳市| 三都| 东乡| 紫阳县| 镇安县| 新野县| 静安区| 翼城县| 苏尼特右旗| 增城市| 海林市| 曲阳县| 庆阳市| 宝丰县| 天镇县| 微博| 兰溪市| 乾安县| 乐山市| 通辽市| 三台县| 天全县| 邵东县| 东莞市| 宁德市|