王大軼,徐 超,黃翔宇
(1.北京控制工程研究所,100190 北京; 2.空間智能控制技術(shù)重點(diǎn)試驗(yàn)室,100190 北京)
?
深空探測著陸過程序列圖像自主導(dǎo)航綜述
王大軼1,2,徐 超1,2,黃翔宇1,2
(1.北京控制工程研究所,100190 北京; 2.空間智能控制技術(shù)重點(diǎn)試驗(yàn)室,100190 北京)
基于序列圖像的自主導(dǎo)航作為未來深空探測地外天體精確定點(diǎn)著陸任務(wù)的關(guān)鍵技術(shù),是目前深空探測技術(shù)的重點(diǎn)發(fā)展方向之一.針對未來深空探測地外天體精確著陸自主導(dǎo)航的需求,闡述了發(fā)展深空探測著陸過程序列圖像自主導(dǎo)航的必要性.首先,分別從主動成像和被動成像兩個方向介紹了基于序列圖像的深空探測著陸過程自主導(dǎo)航研究現(xiàn)狀;然后,總結(jié)并分析了基于序列圖像的深空探測著陸過程自主導(dǎo)航涉及到的關(guān)鍵技術(shù);最后,根據(jù)關(guān)鍵技術(shù)分析給出了基于序列圖像的深空探測著陸過程自主導(dǎo)航研究目前存在的主要問題并對其后續(xù)發(fā)展進(jìn)行了展望.
深空探測;自主導(dǎo)航;序列圖像;精確著陸
開展深空探測活動是人類進(jìn)一步了解宇宙、認(rèn)識太陽系、探索地球與生命起源和演化、獲取更多科學(xué)認(rèn)識的必須手段,更是國家發(fā)展、科學(xué)探索、科技創(chuàng)新和開拓疆域的共同需求[1].隨著科學(xué)技術(shù)的快速發(fā)展,地外天體著陸探測成為深空探測的重要內(nèi)容.目前人類已經(jīng)實(shí)現(xiàn)了對月球、火星、小行星和彗星的著陸探測,在這些著陸探測任務(wù)中采用的著陸自主導(dǎo)航方法主要是慣性導(dǎo)航.但由于初始導(dǎo)航誤差、慣性測量誤差以及引力場模型誤差的存在,慣性導(dǎo)航誤差隨時間增加而逐步增大,因此,慣性導(dǎo)航通常需要與其他外部敏感器測量信息相結(jié)合以提高導(dǎo)航精度.目前廣泛使用的是基于慣性導(dǎo)航配以測距測速修正的導(dǎo)航方法,其已在“嫦娥三號”、“阿波羅”等月球著陸任務(wù)以及火星著陸任務(wù)中得到成功應(yīng)用[2-3].盡管測距測速敏感器提供了較高精度的速度和斜距測量信息,能夠有效地抑制慣性導(dǎo)航在速度和高度方向上的誤差發(fā)散,但是單純的測距測速無法為慣性導(dǎo)航系統(tǒng)提供水平位置誤差修正信息,因此這種導(dǎo)航方法只能滿足對著陸精度要求不太高的探測任務(wù)需求.
未來地外天體探測任務(wù)要求探測器具有在較高科學(xué)價(jià)值的特定區(qū)域精確著陸的能力.美國宇航局(NASA)[4]提出的精確定點(diǎn)著陸(pinpoint landing systems, PPL)要求探測器著陸精度在100 m以內(nèi),現(xiàn)有的慣性導(dǎo)航輔以測距測速修正的著陸導(dǎo)航方法難以滿足精確定點(diǎn)著陸的要求.針對未來深空探測地外天體精確著陸自主導(dǎo)航的需求,一種最為可行的技術(shù)手段是引入地外天體表面圖像信息進(jìn)行自主導(dǎo)航.這主要是由于地外天體表面分布著大量形狀各異的隕石坑、巖石和紋理等天然陸標(biāo),利用地外天體表面陸標(biāo)圖像信息能夠獲取完備的探測器位置和姿態(tài)信息.采用序列圖像的自主導(dǎo)航技術(shù),作為未來載人和無人深空探測精確定點(diǎn)著陸任務(wù)的關(guān)鍵技術(shù),NASA和歐空局(ESA)等[5-7]機(jī)構(gòu)都將其作為深空探測技術(shù)的重點(diǎn)發(fā)展方向之一.
根據(jù)我國2030年前深空探測發(fā)展規(guī)劃,2020年前后我國將自主開展火星和小行星等地外天體的著陸探測任務(wù).在這一背景下,本文對基于序列圖像的深空探測著陸過程自主導(dǎo)航進(jìn)行綜述,系統(tǒng)地總結(jié)基于序列圖像的深空探測著陸過程自主導(dǎo)航的研究現(xiàn)狀,概括并分析基于序列圖像的深空探測著陸過程自主導(dǎo)航涉及到的關(guān)鍵技術(shù),提出當(dāng)前研究存在的主要問題并對其后續(xù)發(fā)展進(jìn)行展望,為我國未來的地外天體著陸探測任務(wù)提供參考.
基于序列圖像的自主導(dǎo)航解決的是采用圖像序列的運(yùn)動估計(jì)問題,其指載體利用主動或被動成像敏感器獲取環(huán)境圖像序列,通過對該序列圖像進(jìn)行分析處理獲得載體的位置、速度和姿態(tài)等導(dǎo)航信息的技術(shù),如圖1所示.基于序列圖像的自主導(dǎo)航處于多學(xué)科交叉領(lǐng)域,研究范圍涉及光學(xué)、圖像、模式識別、電子、導(dǎo)航等多個學(xué)科,早期主要應(yīng)用于機(jī)器人導(dǎo)航任務(wù),包括無人地面車輛、無人機(jī)和水下機(jī)器人等[8-10],近年來其在深空探測地外天體精確著陸自主導(dǎo)航中的應(yīng)用研究也越來越多.目前,研究人員已在基于天體表面序列圖像信息的地外天體精確著陸自主導(dǎo)航方面開展了大量研究和飛行試驗(yàn)工作.
圖1 序列圖像自主導(dǎo)航
根據(jù)所采用敏感器的不同,基于序列圖像的深空探測著陸過程自主導(dǎo)航可以分為兩類:主動式和被動式.主動式采用激光雷達(dá)(light detection and ranging, LIDAR)主動成像敏感器感知探測器著陸環(huán)境;被動式采用光學(xué)相機(jī)作為主要導(dǎo)航敏感器來獲取環(huán)境圖像序列.
1.1 采用LIDAR的序列圖像自主導(dǎo)航研究現(xiàn)狀
LIDAR敏感器可直接獲得著陸區(qū)域的三維地形圖,典型的LIDAR圖像如圖2所示[11].LIDAR成像敏感器具有精度高、分辨率高、更新速度快、不受光照條件限制等優(yōu)點(diǎn),是理想的著陸導(dǎo)航敏感器[12].首先LIDAR敏感器對視場內(nèi)的著陸區(qū)域三維成像,獲取著陸器相對著陸區(qū)域的斜距信息,然后LIDAR測量數(shù)據(jù)結(jié)合著陸器當(dāng)前位姿估計(jì)生成數(shù)字高程圖(dight elevation map, DEM),最后利用相關(guān)性方法或模式匹配方法將獲得的DEM與著陸器存儲的著陸區(qū)域參考地形庫進(jìn)行比對從而得到著陸器的絕對位姿估計(jì).當(dāng)著陸器中沒有參考地形庫時,可通過比對由LIDAR敏感器獲得的序列圖像得到局部相對位姿和速度估計(jì),局部相對位姿和速度的準(zhǔn)確估計(jì)是實(shí)現(xiàn)行星著陸自主避障和安全著陸的關(guān)鍵技術(shù)[13-14].
圖2 月球南北極LIDAR圖像[11]
目前,已經(jīng)存在多種采用LIDAR的自主著陸導(dǎo)航方法.20世紀(jì)90年代初期NASA約翰遜航天中心(NASA-JSC)就進(jìn)行了利用LIDAR對著陸區(qū)域掃描成像以實(shí)現(xiàn)障礙檢測和規(guī)避的研究[15],噴氣推進(jìn)試驗(yàn)室(JPL)的Johnson等[16-17]在此基礎(chǔ)上進(jìn)一步深入研究了利用LIDAR實(shí)現(xiàn)火星著陸自主避障和安全著陸的問題,并通過數(shù)學(xué)仿真進(jìn)行了驗(yàn)證.同時,加拿大Sherbrooke大學(xué)的Lafontaine等[18-21]也對采用LIDAR敏感器的行星自主著陸導(dǎo)航和避障問題進(jìn)行了研究.2006年NASA針對實(shí)現(xiàn)探測器自主著陸月球、火星甚至小行星的要求啟動了自主著陸和避障技術(shù)研究項(xiàng)目(autonomous landing and Hazard avoidance technology, ALHAT)[4,22].基于LIDAR的地形相對導(dǎo)航是ALHAT項(xiàng)目的核心技術(shù)之一,NASA為ALHAT項(xiàng)目專門研制了閃光式激光成像雷達(dá)敏感器(flash lidar),并對由該LIDAR敏感器作為主要敏感器的精確著陸自主導(dǎo)航系統(tǒng)進(jìn)行了廣泛的測試驗(yàn)證[23-25],最終經(jīng)過閉環(huán)飛行試驗(yàn)表明基于LIDAR的ALHAT系統(tǒng)達(dá)到甚至超過了NASA六級技術(shù)就緒水平(technology readiness level, TRL)[26].此外,2013年中國“嫦娥三號”月球探測器利用激光三維成像敏感器在世界上首次實(shí)現(xiàn)了地外天體軟著陸精確自主避障[27].
1.2 采用光學(xué)相機(jī)的序列圖像自主導(dǎo)航研究現(xiàn)狀
相較于主動成像敏感器,以光學(xué)相機(jī)為代表的被動成像敏感器具有質(zhì)量和體積小、功耗低、技術(shù)成熟、不受使用高度限制等特點(diǎn),但其受到光照條件約束[12].隨著計(jì)算機(jī)視覺技術(shù)的發(fā)展,基于光學(xué)圖像的運(yùn)動估計(jì)問題得到了廣泛的研究[28-31],其在深空探測著陸過程自主導(dǎo)航中的應(yīng)用研究也越來越多,并在地外天體著陸探測任務(wù)中得到不同程度的測試和驗(yàn)證.當(dāng)前,對基于光學(xué)圖像的深空探測著陸過程自主導(dǎo)航的研究以美國NASA為主.2000年美國NEAR小行星探測器首次進(jìn)行了采用陸標(biāo)光學(xué)圖像的導(dǎo)航,在最后的接近著陸過程中通過跟蹤Eros小行星表面的隕石坑獲得了遠(yuǎn)高于傳統(tǒng)方法的導(dǎo)航精度,但該導(dǎo)航過程主要在地面完成[32].2004年美國的“火星探測漫游者(MER)”火星探測器通過下降圖像運(yùn)動估計(jì)系統(tǒng)(descent image motion estimation system, DIMES)在著陸過程中通過跟蹤3幅序列圖像中的相關(guān)圖像塊實(shí)現(xiàn)對探測器水平方向速度的估計(jì)[33].隨后在DIMES基礎(chǔ)上,JPL提出了一種適用于行星著陸的通用地形相對導(dǎo)航方法,該方法可自主完成下降圖像和參考地形圖中陸標(biāo)特征的識別和匹配以及下降圖像序列中陸標(biāo)特征的識別和跟蹤,并通過擴(kuò)展卡爾曼濾波器(EKF)融合陸標(biāo)圖像測量信息和慣性測量信息實(shí)現(xiàn)著陸器的位姿估計(jì),該方法經(jīng)探空火箭試驗(yàn)表明最終導(dǎo)航精度優(yōu)于10 m[34-37].在上述研究基礎(chǔ)上,NASA開發(fā)了著陸器視覺系統(tǒng)(lander vision system, LVS),并設(shè)計(jì)制造了LVS原型樣機(jī),該系統(tǒng)硬件部分主要由相機(jī)、慣性敏感單元和專用計(jì)算元件組成[38],2014年和2015年NASA使用直升機(jī)和自主下降上升動力飛行試驗(yàn)臺(autonomous descent and ascent powered-flight testbed, ADAPT)成功對LVS進(jìn)行了飛行試驗(yàn)測試[39-40].此外,日本的“隼鳥號”采樣返回探測器在著陸近地小行星過程中采用了基于人造陸標(biāo)圖像的相對導(dǎo)航技術(shù)方案[41];中國的“嫦娥三號”月球著陸器在接近段飛行過程中首次利用光學(xué)相機(jī)觀測預(yù)定著陸區(qū)實(shí)現(xiàn)月球軟著陸粗避障[27].上述深空探測任務(wù)對基于光學(xué)圖像的著陸過程自主導(dǎo)航的應(yīng)用和試驗(yàn)驗(yàn)證表明了基于光學(xué)序列圖像的深空探測著陸過程自主導(dǎo)航的可行性和對提高導(dǎo)航精度的巨大潛能.除上述方法外,研究人員還提出了多種采用光學(xué)序列圖像的著過程自主導(dǎo)航方法.約翰斯-霍普金斯大學(xué)應(yīng)用物理試驗(yàn)室提出采用兩個正交安裝的光學(xué)相機(jī)進(jìn)行導(dǎo)航的精確著陸自主導(dǎo)航(autonomous precision landing navigation algorithm, APLNav)方法[42-43];ESA在行星接近和著陸導(dǎo)航項(xiàng)目(navigation for planetary approach and landing, NPAL)中[44]提出一種基于特征點(diǎn)提取、跟蹤和估計(jì)的視覺導(dǎo)航方法; Janschek等[45]提出利用由導(dǎo)航相機(jī)獲取的光流信息重構(gòu)著陸區(qū)域的三維模型,并與提前存儲的參考數(shù)字高程模型進(jìn)行匹配得到著陸器的位姿估計(jì);Guizzo等[46]提出基于雙目視覺的火星著陸自主導(dǎo)航方法.國內(nèi)對基于序列圖像的深空探測著陸過程自主導(dǎo)航方法也進(jìn)行了廣泛的研究.哈工大、北理工和北京控制工程研究所等[47-51]機(jī)構(gòu)對月球、火星和小天體探測器在軟著陸階段的自主視覺導(dǎo)航與避障的關(guān)鍵技術(shù)方面都進(jìn)行了較為深入的研究.
國內(nèi)外學(xué)者從不同角度和不同側(cè)重點(diǎn)對基于序列圖像的深空探測著陸過程自主導(dǎo)航進(jìn)行了系統(tǒng)深入的研究.從目前研究來看,基于序列圖像的深空探測著陸過程自主導(dǎo)航所涉及的關(guān)鍵技術(shù)包括:天體表面地形的建模和表征技術(shù)、天體表面圖像導(dǎo)航特征的提取、匹配和跟蹤技術(shù)、基于序列圖像的自主導(dǎo)航技術(shù)、基于序列圖像的著陸過程自主導(dǎo)航敏感器技術(shù)和基于序列圖像的深空探測著陸過程自主導(dǎo)航仿真驗(yàn)證技術(shù)等.
2.1 天體表面地形的建模和表征技術(shù)
不管是采用主動式還是被動式成像敏感器的地外天體著陸絕對導(dǎo)航均需要著陸區(qū)域的參考地形數(shù)據(jù)庫,因此利用天體表面地形的建模和表征技術(shù)構(gòu)建天體的三維地形數(shù)據(jù)庫是采用序列圖像信息進(jìn)行絕對自主導(dǎo)航的基礎(chǔ).目前,隨著火星、月球和小行星等地外天體探測任務(wù)的實(shí)施,探測器在軌獲取了大量的天體影像和高程等數(shù)據(jù),通過地面處理,構(gòu)建了火星、月球和小行星等天體的三維地形數(shù)據(jù)庫,可為未來著陸探測任務(wù)的著陸安全分析和導(dǎo)航提供技術(shù)基礎(chǔ).
對于火星,“火星全球勘測者(MGS)”探測器通過線陣相機(jī)和激光測距儀獲取了大量測量數(shù)據(jù),生成了分辨率介于200~300 m,高程精度為5~30 m的全火星三維地形數(shù)據(jù)庫[52].“火星快車(mars express)”探測器利用高分辨率立體測繪相機(jī)(high resolution stereo Camera, HRSC)獲取了分辨率約為10 m的火星表面影像數(shù)據(jù),該高分辨率影像目前已經(jīng)基本覆蓋火星全球,利用該影像數(shù)據(jù)可以獲取分辨率優(yōu)于百米的火星全球地形數(shù)據(jù)[53].“火星偵察軌道器(MRO)”利用高分辨率科學(xué)成像試驗(yàn)相機(jī)(high resolution science imaging experiment, HiRISE)獲取的影像分辨率優(yōu)于0.5 m,是目前為止分辨率最高的火星表面影像圖,但是僅能覆蓋火星表面不足1%的區(qū)域[54].在“好奇號”著陸探測計(jì)劃實(shí)施過程中,MRO利用HiRISE對多個備選著陸區(qū)進(jìn)行了詳細(xì)觀測,獲取了備選著陸區(qū)的精確地形數(shù)據(jù),構(gòu)建了備選著陸區(qū)的三維地形數(shù)據(jù)庫,地面利用該數(shù)據(jù)庫進(jìn)行了大量的著陸仿真驗(yàn)證,確保了“好奇號”著陸探測任務(wù)的成功實(shí)施.此外,JPL的Gaskell利用“海盜號”探測器的測繪數(shù)據(jù)構(gòu)建了高分辨的火星地形和反照率模型,還利用稀少的立體觀測數(shù)據(jù)構(gòu)建了含數(shù)百個陸標(biāo)的火衛(wèi)一地形模型[55].
對于月球,“克萊門汀”月球探測器提供了分辨率為100 m/像素的全月表圖像和精度為7.6 km/像素的數(shù)字高程圖;“月球勘測軌道器”利用相機(jī)和激光測距儀對月球進(jìn)行了全月球觀測,構(gòu)建了月球三維地形數(shù)據(jù)庫,全月球分辨率為100 m,局部區(qū)域分辨率達(dá)到25~35 m、高程精度優(yōu)于1 m[13,56].“嫦娥”系列衛(wèi)星也獲取了全月球的高程和圖像數(shù)據(jù),全月球影像圖分辨率達(dá)到7 m,目前構(gòu)建的月球三維地形數(shù)據(jù)庫平面位置和高程精度分別為192 m和120 m[57-58],為“嫦娥三號”選取著陸區(qū)提供了重要支持.
對于小天體,NEAR任務(wù)利用在軌測量數(shù)據(jù)構(gòu)建了Eros小行星三維形狀、引力等模型[59];Gaskell[60]利用NEAR任務(wù)獲取的大量立體影像數(shù)據(jù),構(gòu)建了平均分辨率為30 m、大部分區(qū)域分辨率介于10~30 m的Eros小行星形狀和地形模型.Gaskell[61]還利用已有小行星Itokawa雷達(dá)觀測模型結(jié)合“隼鳥號”任務(wù)獲取的影像和高程等數(shù)據(jù),構(gòu)建了帶有陸標(biāo)的Itokawa三維仿真模型,并進(jìn)行了初步的陸標(biāo)導(dǎo)航仿真分析.
為提高天體表面三維地形模型的分辨率,國內(nèi)外學(xué)者研究了光束法平差[52,62-64]、密集匹配[65-66]等關(guān)鍵技術(shù).Shan等[52,62]采用二階多項(xiàng)式模型對MGS獲取的火星表面影像數(shù)據(jù)進(jìn)行了光束法平差處理;Li等[63]采用三階多項(xiàng)式建立了MRO任務(wù)影像數(shù)據(jù)的嚴(yán)格平差模型,利用平差后的結(jié)果在“勇氣號”火星車著陸區(qū)生成了1 m網(wǎng)格的高分辨率地形數(shù)據(jù);王任享[64]提出的三線陣CCD影像EFP光束法平差方法已應(yīng)用在“嫦娥一號”獲取的月球影像數(shù)據(jù)處理中.利用立體影像數(shù)據(jù)生成三維地形數(shù)據(jù)庫的核心問題是影像的密集匹配;Kirk等[65-66]通過對MGS獲取的圖像和距離數(shù)據(jù)進(jìn)行密集匹配處理,獲取了“勇氣號”和“機(jī)遇號”著陸區(qū)的高分辨地形模型,利用MRO獲取的觀測數(shù)據(jù)生成的“鳳凰號”著陸區(qū)地形模型分辨率達(dá)到米級.
2.2 天體表面圖像導(dǎo)航特征的提取、匹配和跟蹤技術(shù)
基于序列圖像的深空探測著陸過程自主導(dǎo)航是利用天體表面導(dǎo)航特征的圖像測量信息對著陸器的狀態(tài)進(jìn)行更新估計(jì),因此天體表面圖像導(dǎo)航特征的提取、匹配和跟蹤技術(shù)是基于序列圖像的深空探測著陸過程自主導(dǎo)航的關(guān)鍵技術(shù)之一.
從目前國內(nèi)外的研究情況看,天體表面可用于導(dǎo)航的特征主要有隕石坑、尺度不變特征變換(scale-invariant feature transformation, SIFT)特征點(diǎn)、角點(diǎn)和巖石等.隕石坑是最適用于著陸導(dǎo)航的陸標(biāo)特征,其具有顯著的幾何形狀,可在不同光照條件和無需相機(jī)高度和姿態(tài)信息的情況下實(shí)現(xiàn)特征的提取、匹配和跟蹤[67].目前,天體表面圖像導(dǎo)航特征的提取算法主要就是針對隕石坑特征進(jìn)行的.天體表面圖像隕石坑特征的提取主要有基于模板匹配提取和基于邊緣或陰影信息啟發(fā)式提取兩種思路.Louren等[68]針對天體表面隕石坑特有的形狀,生成相應(yīng)的模板,并通過模板匹配實(shí)現(xiàn)隕石坑的提取.該方法能夠在圖像幀之間對隕石坑進(jìn)行識別,但當(dāng)圖像出現(xiàn)較大的旋轉(zhuǎn)、尺度縮放及形變時,就很難獲得較好的提取效果;Cheng等[67]提出一種實(shí)時隕石坑檢測算法,該算法首先利用Canny算子提取圖像中的邊緣信息,然后利用邊緣分組方法找出屬于同一個隕石坑的邊緣,并將其擬合為閉合橢圓用來表征隕石坑,最后將擬合出的隕石坑橢圓與隕石坑數(shù)據(jù)庫進(jìn)行匹配;丁萌等[69]提出采用KLT特征提取方法對隕石坑可能存在的區(qū)域進(jìn)行搜索,并通過分割、邊緣提取及形狀擬合等處理實(shí)現(xiàn)隕石坑的提取.盡管地外天體上隕石坑非常常見,但并不能保證所有的目標(biāo)著陸區(qū)域都有足夠多的隕石坑用于著陸器位置估計(jì),因此需要一種更普遍的陸標(biāo)特征用于著陸過程導(dǎo)航,SIFT特征點(diǎn)是一種可能的選擇.SIFT可將圖像數(shù)據(jù)轉(zhuǎn)換成與圖像尺度和旋轉(zhuǎn)無關(guān)的特征向量或關(guān)鍵點(diǎn)(key points)信息,利用關(guān)鍵點(diǎn)信息可實(shí)現(xiàn)圖像之間的準(zhǔn)確匹配[70].由于在提取SIFT關(guān)鍵點(diǎn)時計(jì)算量較大,目前基于SIFT的特征點(diǎn)提取和匹配方法在地外天體著陸導(dǎo)航中的應(yīng)用研究還比較少.角點(diǎn)特征是另一種較容易從圖像中提取的陸標(biāo)特征,其通常對應(yīng)于圖像中的紋理區(qū)域,適合用相關(guān)性方法進(jìn)行跟蹤[36].針對巖石等特征點(diǎn),Troglio等[71]提出一種融合分水嶺分割算法(watershed segmentation)、Hough變化等多種圖像處理技術(shù)的圖像特征提取方法;JPL試驗(yàn)室提出利用圖像閾值分割確定陰影區(qū)域,進(jìn)而根據(jù)太陽光的照射角度確定巖石區(qū)域的方法[72].
天體表面圖像特征的匹配方法主要有相關(guān)性方法(correlation approaches)和模式匹配(pattern matching)及其組合方法.相關(guān)性方法是將敏感器獲取的天體表面圖像塊與地形模型庫的每個位置塊進(jìn)行相似性評價(jià),得到相似性最高的位置即為最佳匹配點(diǎn)[13].相關(guān)性方法主要有兩種:平面圖像的相關(guān)性方法[33-34]和三維圖像的相關(guān)性方法[73].與相關(guān)性方法相比,模式匹配是用圖像陸標(biāo)匹配代替了圖像塊的相關(guān)性評估,利用從敏感器觀測圖像中提取出的圖像陸標(biāo)與參考地形庫中的陸標(biāo)進(jìn)行特征匹配,這就要求參考地形庫必須包含陸標(biāo)的明顯特征和位置信息.Cheng等[74]提出從探測器著陸過程拍攝的圖像中提取隕石坑,根據(jù)隕石坑的直徑、相對距離和角度等特征與參考隕石坑數(shù)據(jù)庫進(jìn)行模式匹配,從而獲得探測器絕對位置與姿態(tài)信息,該方法已經(jīng)利用月球、火星和小行星圖像進(jìn)行了測試.Frome等[75]利用三維成像敏感器獲取天體表面三維圖像,并從中提取出形狀特征,與著陸區(qū)數(shù)字地形中的形狀特征進(jìn)行匹配,進(jìn)而估計(jì)著陸器位置和姿態(tài).此外,Gaskell[76]研究了一種圖像模式匹配和相關(guān)性方法相結(jié)合的組合導(dǎo)航特征匹配方法,其利用已獲取的天體表面圖像來構(gòu)建多個地形表面塊的三維模型,將這些三維表面塊作為導(dǎo)航的陸標(biāo),在著陸過程中利用當(dāng)時太陽光照條件和表面塊三維模型生成表面塊平面圖像,利用生成的表面塊平面圖像與敏感器實(shí)際獲取的圖像進(jìn)行相關(guān)性處理,得到最佳匹配點(diǎn)信息,從而估計(jì)探測器位置和姿態(tài).
當(dāng)利用下降過程獲得的序列圖像估計(jì)著陸器局部位置或速度時,導(dǎo)航陸標(biāo)的匹配問題就轉(zhuǎn)變?yōu)楦檰栴}.目前,應(yīng)用最多的圖像特征跟蹤方法是KLT算法[77],其利用梯度下降方法搜索序列圖像間的匹配模板來實(shí)現(xiàn)特征點(diǎn)跟蹤,但該方法在弱光照條件下的效果較差.MER探測器的DIMES系統(tǒng)利用區(qū)域相關(guān)和圖像單應(yīng)性方法在已知姿態(tài)和高度信息的情況下實(shí)現(xiàn)跟蹤3幅下降圖像中的4個特征點(diǎn)[33].Johnson等[34]在DIMES基礎(chǔ)上改進(jìn)特征跟蹤算法,實(shí)現(xiàn)在無外部姿態(tài)和高度敏感器情況下在上百幅圖像中穩(wěn)定跟蹤數(shù)十個特征點(diǎn).
2.3 基于序列圖像的自主導(dǎo)航技術(shù)
如何利用天體表面特征圖像信息以提高著陸導(dǎo)航精度是實(shí)現(xiàn)精確著陸的關(guān)鍵技術(shù)之一.地外天體著陸任務(wù)面對的飛行環(huán)境、地形和光照條件等可能各不相同,利用天體表面特征圖像信息的方式也不盡相同.目前,國內(nèi)外學(xué)者針對不同情況,從不同角度出發(fā),提出了多種利用天體表面圖像信息的導(dǎo)航方法.
第1類是完全不依賴動力學(xué)模型,純粹依靠圖像信息的導(dǎo)航方法,以NASA為MER探測器開發(fā)的DIMES系統(tǒng)為代表.DIMES系統(tǒng)利用導(dǎo)航相機(jī)識別、匹配相鄰兩幀圖像中特征點(diǎn),結(jié)合高度計(jì)測距信息,利用簡單的三角幾何關(guān)系和勻速運(yùn)動假設(shè),完成對探測器水平速度的估計(jì)[33].此外,Sun等[78]的幾何可觀性分析表明,當(dāng)存在3個及3個以上的不共面方向矢量測量時,相機(jī)載體的位姿即可唯一確定.因此,當(dāng)在下降圖像中可檢測到至少3個不共線且位置已知的陸標(biāo)時,即可根據(jù)幾何關(guān)系確定著陸器位姿信息.目前研究人員提出了多種僅利用已知位置陸標(biāo)圖像測量信息計(jì)算相機(jī)載體位姿的算法[67,79-80].該類導(dǎo)航方法雖簡單可靠,但其存在以下兩個不足[36]:1)其要求整個著陸過程中的下降圖像均至少能檢測到3個已知位置的陸標(biāo),但大多數(shù)著陸過程并不能保證滿足該要求;2)該方法只能確定成像時刻著陸器狀態(tài),而這對于著陸過程來說是不夠的.
針對單純依靠圖像信息進(jìn)行導(dǎo)航存在的問題,研究人員提出了利用濾波算法融合天體表面已知位置陸標(biāo)圖像測量信息和慣性測量信息的組合導(dǎo)航方法,利用離散的已知位置陸標(biāo)圖像測量信息對慣導(dǎo)系統(tǒng)進(jìn)行修正,估計(jì)探測器位置、姿態(tài)以及慣性測量單元的漂移[35-36,81-82].這種方法主要適用于引力場模型準(zhǔn)確的大天體的軟著陸任務(wù).
上述方法均是針對參考地形庫中已存在的陸標(biāo)特征進(jìn)行的,當(dāng)下降序列圖像中檢測和跟蹤的陸標(biāo)在參考地形庫中不存在或沒有著陸區(qū)域的參考地形庫,即用于導(dǎo)航的陸標(biāo)位置未知時,上述導(dǎo)航方法將不再適用.目前,針對這種情況主要有兩類處理方法.一類是將陸標(biāo)位置作為系統(tǒng)狀態(tài)進(jìn)行估計(jì),即同時定位與地圖創(chuàng)建(simultaneous localization and mapping, SLAM)方法,該方法在機(jī)器人視覺導(dǎo)航中研究較多[83-84].但目前來看SLAM方法并不適用于探測器在大天體的著陸導(dǎo)航任務(wù),主要原因是當(dāng)陸標(biāo)較多時計(jì)算量太大,難以實(shí)時進(jìn)行,且SLAM方法主要適用于閉合軌道的導(dǎo)航,而著陸過程并不滿足閉合軌道要求[36].盡管如此,SLAM方法仍可用于小天體的著陸導(dǎo)航,Cocaud等[85-87]研究了利用SLAM方法的小行星著陸自主導(dǎo)航方法.另一類是利用陸標(biāo)的圖像測量信息結(jié)合飛行器在陸標(biāo)成像時刻的估計(jì)位姿建立約束方程,以建立的約束方程作為導(dǎo)航系統(tǒng)的測量方程,進(jìn)行飛行器狀態(tài)估計(jì)[88-91].Mourikis等[88]提出一種多狀態(tài)約束卡爾曼濾波算法(multi-state constraint Kalman filter, MSCKF), 該方法對序列圖像中的陸標(biāo)進(jìn)行跟蹤測量,通過最小二乘方法估計(jì)出陸標(biāo)的位置信息,進(jìn)而利用估計(jì)的陸標(biāo)位置進(jìn)行系統(tǒng)狀態(tài)的更新估計(jì);Gurfil等[89]利用子空間約束(subspace constraints)方法對飛行器部分狀態(tài)進(jìn)行估計(jì),該方法通過測量陸標(biāo)在圖像中的運(yùn)動,建立陸標(biāo)圖像運(yùn)動與相機(jī)轉(zhuǎn)動和平移運(yùn)動之間的關(guān)系,并以之作為觀測方程,估計(jì)飛行器的運(yùn)動狀態(tài);Indelman等[90]提出一種基于3幅圖像幾何約束的視覺輔助慣性導(dǎo)航方法,該方法是基于矩陣秩條件提出的利用3個時刻對同一陸標(biāo)的圖像測量信息結(jié)合成像時刻相機(jī)位姿信息建立約束方程作為系統(tǒng)測量方程;Zhao等[91]提出利用序列圖像之間的單應(yīng)性矩陣(homography matrix)為觀測量,對飛行器狀態(tài)進(jìn)行估計(jì).上述各種方法通過利用序列圖像測量信息以及成像時刻相機(jī)的位姿信息建立約束方程作為導(dǎo)航系統(tǒng)測量方程,都避免了要求已知陸標(biāo)位置等先驗(yàn)信息,但這些導(dǎo)航方法只能進(jìn)行相對導(dǎo)航,且系統(tǒng)狀態(tài)不完全可觀,因此通常需要融合其他外部敏感器的測量信息來實(shí)現(xiàn)高精度自主導(dǎo)航.
2.4 基于序列圖像的著陸過程自主導(dǎo)航敏感器技術(shù)
成像敏感器是基于序列圖像的著陸過程自主導(dǎo)航系統(tǒng)的關(guān)鍵部件.地外天體軟著陸自主導(dǎo)航系統(tǒng)要求導(dǎo)航敏感器具有測量精度高、靈敏度高、體積小、質(zhì)量輕、功耗低等特點(diǎn),因此對基于序列圖像的自主導(dǎo)航成像敏感器提出了極其嚴(yán)格的要求.
目前,基于序列圖像的深空探測著陸過程自主導(dǎo)航成像敏感器主要有兩類:主動式和被動式.主動式成像敏感器以NASA-LaRC為ALHAT項(xiàng)目研制的閃光式三維成像激光雷達(dá)為代表.NASA-LaRC研制的閃光式激光成像雷達(dá)敏感器如圖3所示.該敏感器具有如下3個功能:20~0.1 km高度范圍內(nèi)的高度測量、15~5 km高度范圍內(nèi)地形相對導(dǎo)航,1 000~100 m高度范圍內(nèi)的障礙檢測和規(guī)避(hazard detection and avoidance, HDA)和障礙相對導(dǎo)航(hazard relative navigation, HRN)[92].從2008年到2012年該Fish Lidar敏感器經(jīng)過4次直升機(jī)飛行試驗(yàn)、1次固定翼飛機(jī)飛行試驗(yàn)分別對其障礙檢測和規(guī)避、地形相對導(dǎo)航、障礙相對導(dǎo)航等功能進(jìn)行了飛行測試[14,23,92].2014年以來,集成了Flash Lidar敏感器的GNC軟硬件系統(tǒng)作為“夢神號”行星著陸器原型系統(tǒng)(Morpheus)的主要載荷進(jìn)行了多次飛行測試,系統(tǒng)表現(xiàn)良好[26].
圖3 NASA-LaRC研制的Flash Lidar原型樣機(jī)[92]
不同于主動成像式敏感器,被動光學(xué)成像敏感器技術(shù)更成熟,可選擇的敏感器更多.MER的DIMES系統(tǒng)采用了一個分辨率為1 024×1 024,視場角為45°×45°,像平面中心角分辨率每像素0.82 mrad,光譜響應(yīng)范圍為400~1 100 nm的工程相機(jī)[33,93],如圖4所示.JPL開發(fā)的LVS原型系統(tǒng)采用了商業(yè)敏感器組件,其相機(jī)由PhotonFocus公司的DS1-D1024全幀曝光CMOS和Kowa 6M6HC 6 mm鏡頭組成,具有85°視場角,如圖5所示[39].約翰斯-霍普金斯大學(xué)應(yīng)用物理試驗(yàn)室[94]提出的APLNav系統(tǒng)采用了兩個分辨率為256×256,視場角為55°的Sony XCD-SX910光學(xué)數(shù)字相機(jī),如圖6所示[96];Johnson等[34-36]則分別利用商業(yè)相機(jī)Pulnix TM-9701和SonyXC55作為著陸導(dǎo)航系統(tǒng)的成像敏感器在地面利用探空火箭進(jìn)行了飛行試驗(yàn).Pollard等[95]研究了現(xiàn)有月球著陸導(dǎo)航敏感器技術(shù),對其技術(shù)成熟度進(jìn)行了評估,并據(jù)此給出了幾種月球著陸器地形相對導(dǎo)航的敏感器組件配置方案.
2.5 基于序列圖像的深空探測著陸過程自主導(dǎo)航仿真驗(yàn)證技術(shù)
為驗(yàn)證所研究的基于序列圖像的深空探測著陸過程自主導(dǎo)航技術(shù)的有效性、可行性和實(shí)用性,必須針對地外天體著陸任務(wù),建立地面仿真試驗(yàn)驗(yàn)證系統(tǒng).這是突破關(guān)鍵技術(shù)所必須的,也是自主導(dǎo)航系統(tǒng)能夠轉(zhuǎn)入工程實(shí)施的基礎(chǔ).
圖4 MER下降相機(jī)[93]
圖5 LVS系統(tǒng)[39]
圖6 APLNav相機(jī)[96]
從國外的發(fā)展情況看,基于序列圖像的著陸過程自主導(dǎo)航系統(tǒng)的仿真驗(yàn)證大致經(jīng)歷模擬仿真驗(yàn)證、直升機(jī)或固定翼飛機(jī)、探空火箭等飛行試驗(yàn)驗(yàn)證以及采用著陸器模擬平臺的閉環(huán)實(shí)時試驗(yàn)驗(yàn)證.以JPL的LVS系統(tǒng)為例[39]:LVS系統(tǒng)發(fā)展早期研究人員利用在不同地形類型和不同光照條件下收集的地形數(shù)據(jù)對采用地形圖像的地形相對導(dǎo)航算法進(jìn)行了大量的離線仿真測試;完成LVS原型系統(tǒng)設(shè)計(jì)后在試驗(yàn)室利用火星圖片進(jìn)行了測試,驗(yàn)證了其位置、姿態(tài)和速度估計(jì)能力;隨后又利用兩自由度的臺架對LVS系統(tǒng)的校正、對準(zhǔn)和數(shù)據(jù)存儲時間等進(jìn)行了驗(yàn)證,如圖7所示;之后,利用直升機(jī)搭載LVS系統(tǒng)對各種可能的火星EDL情形進(jìn)行了飛行試驗(yàn)驗(yàn)證,如圖8所示;最后,利用ADAPT平臺對LVS系統(tǒng)進(jìn)行了閉環(huán)實(shí)時仿真測試,如圖9所示[40].由于當(dāng)前地外天體探測任務(wù)收集的天體表面地形數(shù)據(jù)有限,因此,在模擬仿真驗(yàn)證階段通常需要解決高精度地外天體表面地形圖像的模擬問題.約翰斯-霍普金斯大學(xué)應(yīng)用物理試驗(yàn)室[56]提出利用低分辨率地形圖像人工添加高分辨率數(shù)據(jù)生成高分辨率地形的月球表面地形建模技術(shù),為ALHAT項(xiàng)目提供符合要求的月球地形數(shù)據(jù).鄧迪大學(xué)[97-98]為ESA開發(fā)了PANGU軟件,用于生成行星和小行星表面模擬地形,目前該軟件已經(jīng)廣泛應(yīng)用于ESA基于視覺導(dǎo)航系統(tǒng)的仿真驗(yàn)證項(xiàng)目.
圖7 LVS系統(tǒng)臺架試驗(yàn)[39]
圖8 LVS系統(tǒng)直升機(jī)飛行試驗(yàn)[39]
圖9 LVS系統(tǒng)ADAPT飛行試驗(yàn)[40]
Quadrelli等[99]指出要實(shí)現(xiàn)精確定點(diǎn)著陸需要進(jìn)入前的導(dǎo)航、加速度測量技術(shù)、基于陸標(biāo)圖像的在線導(dǎo)航、燃料最優(yōu)的大范圍軌跡調(diào)整制導(dǎo)和障礙檢測與避讓等技術(shù)緊密合作.而綜合運(yùn)用這些技術(shù)的在線制導(dǎo)導(dǎo)航與控制系統(tǒng)是作為復(fù)雜系統(tǒng)來運(yùn)行的,要實(shí)現(xiàn)探測器精確定點(diǎn)著陸就需要綜合考慮系統(tǒng)部件、飛行動力學(xué)和物理環(huán)境等的相互影響.因此,需要在各種真實(shí)仿真環(huán)境下從系統(tǒng)層面進(jìn)行閉環(huán)建模、測試和仿真驗(yàn)證.而目前的仿真驗(yàn)證技術(shù)還遠(yuǎn)未達(dá)到該要求,需要進(jìn)一步發(fā)展物理仿真驗(yàn)證方法以提高系統(tǒng)測試能力.
從技術(shù)發(fā)展趨勢看,采用序列圖像信息是提高著陸過程自主導(dǎo)航精度的一種重要的技術(shù)手段,具有良好的發(fā)展和應(yīng)用前景.目前國內(nèi)外學(xué)者從多種角度、側(cè)重不同問題對采用序列圖像的著陸過程自主導(dǎo)航進(jìn)行了探索和研究,在各關(guān)鍵技術(shù)方面都取得一定進(jìn)展.但是,采用序列圖像的地外天體精確定點(diǎn)著陸自主導(dǎo)航仍存在較多難點(diǎn)問題未能很好地解決,其難點(diǎn)問題主要有:針對深空探測著陸過程自主導(dǎo)航實(shí)時性的要求,在星載計(jì)算機(jī)存儲和計(jì)算能力有限的約束下,如何稀疏表征所需要的天體表面三維地形模型庫;如何實(shí)現(xiàn)快速可靠的多尺度圖像特征提取、匹配與跟蹤;如何實(shí)現(xiàn)多維多時空導(dǎo)航信息的快速最優(yōu)融合處理等.因此,需要針對上述難點(diǎn)問題深入開展研究,以滿足地外天體精確定點(diǎn)著陸任務(wù)的需求.
3.1 天體表面導(dǎo)航陸標(biāo)的稀疏表征與優(yōu)化選取
盡管國內(nèi)外相關(guān)研究利用在軌獲取的深空天體各類影像、高程等數(shù)據(jù),經(jīng)過一系列的地形測繪數(shù)據(jù)處理技術(shù)和手段,構(gòu)建了一定精度的天體表面三維地形模型,但由于已實(shí)現(xiàn)的深空天體探測任務(wù)十分有限,因此絕大多數(shù)天體仍無可用于導(dǎo)航的地形表征庫.特別是針對小天體的著陸探測任務(wù)基本也是目標(biāo)天體的首次探測任務(wù),因此需要解決如何利用在軌測量數(shù)據(jù)快速構(gòu)建高精度天體表面地形數(shù)據(jù)庫的問題.深空天體表面地形復(fù)雜多樣,且形態(tài)各異,難以用描述符號表征,且對于深空大天體著陸任務(wù),著陸過程探測器航程可達(dá)數(shù)百公里,導(dǎo)致需要的天體表面區(qū)域三維地形數(shù)據(jù)非常龐大,針對星載計(jì)算機(jī)存儲和計(jì)算能力有限的約束以及著陸導(dǎo)航對實(shí)時性的嚴(yán)格要求,需要解決導(dǎo)航陸標(biāo)特征信息的稀疏表征問題.此外,保證陸標(biāo)導(dǎo)航信息的完備性和最優(yōu)性是實(shí)現(xiàn)高精度導(dǎo)航的關(guān)鍵,因此還需要解決導(dǎo)航陸標(biāo)的優(yōu)化選取與規(guī)劃問題.
3.2 天體表面多尺度多視點(diǎn)圖像陸標(biāo)特征提取與匹配
目前,國內(nèi)外學(xué)者在天體表面圖像導(dǎo)航特征提取、匹配和跟蹤的研究方面已經(jīng)取得了一定的進(jìn)展和效果.但是,對于深空探測著陸過程的特殊任務(wù)背景,探測器的航程、高度和姿態(tài)變化范圍大,光照條件不確定,敏感器獲取的天體表面圖像尺度、視點(diǎn)、陰影等范圍變化大,已有的圖像導(dǎo)航特征提取、匹配和跟蹤算法還無法適應(yīng)深空探測著陸過程的特殊任務(wù)環(huán)境.另外,無論是相關(guān)性方法,還是模式匹配,都需要進(jìn)行大范圍的圖像匹配,很難滿足著陸過程自主導(dǎo)航的實(shí)時性要求.因此,還需要深入開展天體表面多尺度多視點(diǎn)圖像特征的提取、匹配與跟蹤方面的研究工作.
針對可能出現(xiàn)的陸標(biāo)圖像多位置重點(diǎn)以及特征不明顯等問題,需要研究如何觀測獲取最優(yōu)的導(dǎo)航陸標(biāo)圖像.針對敏感器視點(diǎn)等大范圍變化導(dǎo)致圖像變形以及不同光照帶來的陰影變化等問題,需要研究引入導(dǎo)航陸標(biāo)等信息的圖像特征快速提取方法.針對多尺度多視點(diǎn)以及局部特性不明顯圖像可能引起的誤匹配問題,需要研究引入基于信息融合的魯棒導(dǎo)航陸標(biāo)匹配方法.
3.3 基于序列圖像信息的最優(yōu)融合自主導(dǎo)航
從目前的研究情況看,要實(shí)現(xiàn)地外天體精確定點(diǎn)著陸任務(wù),尤其是對于未知環(huán)境下的天體著陸任務(wù),采用序列圖像信息的自主導(dǎo)航系統(tǒng)通常還需要融合慣性測量單元、測距測速敏感器等其他外部敏感器的測量信息以提高導(dǎo)航系統(tǒng)精度和可靠性,這就需要解決測量信息的最優(yōu)融合問題.
針對著陸過程獲取的序列陸標(biāo)圖像、慣性測量和測距測速等導(dǎo)航信息存在時間不同步、空間不一致等問題,需要研究多維測量信息的時空同化與表征方法.導(dǎo)航陸標(biāo)相對目標(biāo)著陸點(diǎn)的位置精度決定了著陸精度,限于目前探測和測量手段,導(dǎo)航陸標(biāo)必然存在一定的位置誤差,需要研究導(dǎo)航陸標(biāo)位置誤差的校正方法.針對精確定點(diǎn)著陸自主導(dǎo)航的需求,需要研究多信息最優(yōu)融合導(dǎo)航理論與分析方法,解決如何選取高品質(zhì)測量信息才能滿足全部導(dǎo)航參數(shù)可快速估計(jì)的需求、如何融合多維信息才能最優(yōu)估計(jì)導(dǎo)航參數(shù)等問題.
采用序列圖像的著陸過程自主導(dǎo)航是未來實(shí)現(xiàn)地外天體精確定點(diǎn)著陸任務(wù)最為可行的技術(shù)手段之一.本文首先對基于序列圖像的深空探測著陸過程自主導(dǎo)航發(fā)展現(xiàn)狀進(jìn)行了總結(jié),然后概括并分析了采用序列圖像的著陸過程自主導(dǎo)航涉及到的關(guān)鍵技術(shù),最后對深空探測著陸過程序列圖像自主導(dǎo)航的難點(diǎn)問題進(jìn)行了總結(jié)分析,并對其后續(xù)發(fā)展進(jìn)行了展望.
目前,國外已經(jīng)對采用序列圖像的深空探測著陸過程自主導(dǎo)航技術(shù)進(jìn)行了大量的飛行試驗(yàn),即將進(jìn)入實(shí)際應(yīng)用階段,而我國也即將開展小行星和火星的著陸探測任務(wù),因此有必要對采用序列圖像的著陸過程自主導(dǎo)航技術(shù)進(jìn)行更為深入的研究,為我國未來的地外天體著陸探測任務(wù)提供必要的技術(shù)儲備.
[1] 葉培建, 彭兢. 深空探測與我國深空探測展望[J]. 中國工程科學(xué), 2006, 8(10): 13-18.
[2] 吳偉仁, 李驥, 黃翔宇, 等. 慣導(dǎo)/測距/測速相結(jié)合的安全軟著陸自主導(dǎo)航方法[J]. 宇航學(xué)報(bào), 2015, 36(8):893-898.
[3] OBERHETTINGER D, SKULSKY E D, BAILEY E S. Assessment of Mars phoenix EDL performance[C]// Proceedings of 2011 IEEE Aerospace Conference. Big Sky, MT: IEEE, 2011:1-6.
[4] EPP C D, SMITH T B. Autonomous precision landing and hazard detection and avoidance technology (ALHAT) [C] // Proceedings of 2007 IEEE Aerospace Conference. Big Sky, MT: IEEE, 2007:1-7.
[5] STEINFELDT B A, GRANT M J, MATZ D A, et al. Guidance, navigation, and control system performance trades for Mars pinpoint landing [J]. Journal of Spacecraft and Rockets, 2010, 47(1): 188-198.
[6] MILLER J K, CHENG Y. Autonomous landmark tracking orbit determination strategy [C]// Proceedings of 2003 AAS Astrodynamics Specialist Conference. Big Sky, MT: AAS, 2003: 1779-1789.
[7] REBORDAO J M. Space optical navigation techniques-an overview [C]// Proceedings of 8thIberoamerican Optics Meeting and 11thLatin American Meeting on Optics, Lasers, and Applications. Porto, Portugal: SPIE, 2013.
[8] SULLIVAN L O, CORKE P, MAHONY R. Image-based visual navigation for mobile robots [C]//Proceedings of IEEE International Conference on Robotics and Automation. Karlsruhe: IEEE, 2013:5277-5283.
[9] CESETTI A, FRONTONI E, MANCINI A, et al. A vision-based guidance system for UAV navigation and safelanding using natural landmarks[J]. Journal of Intelligent and Robotic Systems, 2010, 57(1/2/3/4): 233-257.
[10]GRACIAS N, VICTOR J S. Underwater video mosaics as visual navigation maps[J]. Computer Vision and Image Understanding, 2000, 79(1): 66-91.
[11]MAZARICO E, NEUMANN G A, SMITH D E, et al. Illumination conditions of the lunar polar regions using LOLA topography [J]. Icarus, 2011, 211(2):1066-1081.[12]JOHNSON A E, HUERTAS A, WERNER R A, et al. Analysis of on-board hazard detection and avoidance for safe Lunar landing [C]// Proceedings of 2008 IEEE Aerospace Conference. Big Sky, MT: IEEE, 2008:1-9.
[13]JOHNSON A E, MONTGOMERY J F. Overview of terrain relative navigation approaches for precise Lunar landing [C]// Proceedings of IEEE Aerospace Conference. Big Sky, MT: IEEE, 2008.
[14]JOHNSON A E, IVANOV T I. Analysis and testing of a LIDAR-based approach to terrain relative navigation for precise Lunar landing [C]// Proceedings of AIAA Guidance, Navigation, and Control Conference. Oregon. Portland: AIAA, 2011.
[15]PIEN H. Autonomous hazard detection and avoidance: C.S. Draper Laboratory Report CSDLC-6303 [R]. Cambridge, MA: NASA, 1992.
[16]JOHNSON A E, KLUMPP A, COLLIER J, et al. LIDAR-based hazard avoidance for landing on Mars [J]. Journal of Guidance, Control, and Dynamics, 2002, 25(6):1091-1099.[17]WONG E C, SINGH G, MASCIARELLI J P. Guidance and control design for hazard avoidance and safe landing on Mars [J]. Journal of Spacecraft and Rockets, 2006, 43(2):378-384.
[18]De LAFONTAINE J, NEVEU D, LEBEL K. Autonomous planetary landing with obstacle avoidance: the quartic guidance revisited [C]// Proceedings of 14thAAS/AIAA Space Flight Mechanics Meeting. Maui, Hawaii: AAS/AIAA, 2004.
[19]De LAFONTAINE J, GUEYE O. Autonomous planetary landing using a LIDAR sensor: the navigation function [J]. Space Technology, 2004, 24(1):7-18.
[20]De LAFONTAINE J, NEVEU D, LEBEL K. Autonomous planetary landing using a lidar sensor: the closed-loop system [C]// Proceedings of 6thInternational ESA Conference on Guidance, Navigation and Control Systems. Loutraki: ESA, 2005.
[21]De LAFONTAINE J, ULITSKY A, TRIPP J W, et al. LAPS: the development of a scanning LIDAR system with GNC for autonomous hazard avoidance and precision landing [C]// Proceedings of SPIE Vol.5418. Bellingham, WA: SPIE, 2004.
[22]STRIEPE S A, EPP C D, ROBERTSON E A. Autonomous precision landing and hazard avoidance technology (ALHAT) project status as of May 2010 [C]// Proceedings of International Planetary Probe Workshop 2010. Barcelona: Spain, 2010.
[23]KEIM J A, MOBASSER S, KUANG D, et al. Field test implementation to evaluate a flash lidar as a primary sensor for safe Lunar landing [C]// Proceedings of IEEE Aerospace Conference. Big Sky, MT: IEEE, 2010.
[24]JOHNSON A E, KEIM J A, IVANOV T. Analysis of flashlidar field test data for safe lunar landing [C]// Proceedings of IEEE Aerospace Conference. Big Sky, MT: IEEE, 2010.
[25]ROBACK V, BULYSHEV A, AMZAJERDIAN, et al. Helicopter flight test of a compact, real-time 3-D flash lidar for imaging hazardous terrain during planetary landing [C]// Proceedings of AIAA Space 2013 Conference and Exposition. San Diego, CA: AIAA, 2013.
[26]EPP C D, ROBERTSON E A, CARSON J M. Real-time hazard detection and avoidance demonstration for a planetary lander [C]// Proceedings of AIAA Space 2014 Conference, San Diego, CA: AIAA, 2014.
[27]張洪華, 梁俊, 黃翔宇,等. 嫦娥三號自主避障軟著陸控制技術(shù)[J]. 中國科學(xué):科學(xué)技術(shù), 2014, 44(6): 559-568.
[28]STRELOW D W. Motion estimation from images and inertial measurements [D]. Pittsburgh PA: Carnegie Mellon University, 2004.
[29]PANG C C, GUESALAGA A R, RODA V O. Structural and movement parameter estimation in image sequences [C]// Proceedings of SPIE Vol.4365. Orlando: SPIE, 2001:158-167.
[30]SOATTO S, FREZZA R, PERONA P. Motion estimation via dynamic vision [J]. IEEE Transaction on Automatic Control, 1996, 41(3):393-413.
[31]HYSLOP A M, HUMBERT J S. Autonomous navigation in three-dimensional urban environments using wide-field integration of optical flow [J]. Journal of Guidance, Control, and Dynamics, 2010, 33(1):147-159.
[32]CHENG Y, Miller J K. Autonomous landmark based spacecraft navigation system [C]// Proceedings of Spaceflight Mechanics 2003, Ponce PR: AAS, 2003.
[33]JOHNSON A, WILLSON R, CHENG Y, et al. Design through operation of an image-based velocity estimation system for Mars landing [J]. International Journal of Computer Vision, 2007, 74(3): 319-341.
[34]JOHNSON A E, ANSAR A, MATTHIES L H, et al. A general approach to terrain relative navigation for planetary landing [C]// Proceedings of AIAA Infotech@Aerospace Conference. Rohnert Park: AIAA, 2007.
[35]TRAWNY N, MOURIKIS A I, ROUMELIOTIS S I, et al. Vision-aided inertial navigation for pinpoint landing using observations of mapped landmarks [J]. Journal of Field Robotics, 2007, 24(5): 357-378.
[36]MOURIKIS A I, TRAWNY N, ROUMELIOTIS S I, et al. Vision-aided inertial navigation for spacecraft entry, descent, and landing [J]. IEEE Transactions on Robotics, 2009, 25(2):264-280.
[37]ALEXANDER J, CHENG Y, ZHENG W, et al. A Terrain relative navigation sensor enabled by multi-core processing [C]// Proceedings of 2012 IEEE Aerospace Conference. Big Sky: IEEE, 2012: 104-114.
[38]JOHNSON A, BERGH C, CHENG Y, et al. Design and ground test results for thelander vision system [C]// Proceedings of 36thAnnual AAS Guidance and Control Conference. Breckenridge CO: AAS, 2013.
[39]JOHNSON A, CHENG Y, MONTGOMERY J, et al. Real-time terrain relative navigation test results from a relative environment for Mars landing [C]// Proceedings of AIAA Guidance, Navigation, and Control Conference.Kissimmee: AIAA, 2015.
[40]LANDAU E. Successful test flights for Mars landing technology [EB/OL]. [2015-03-19]. https://www.nasa.gov/jpl/successful-test-flights-for-mars-landing-technology .[41]KUBOTA T, HASHIMOTO T, SAWAI S, et al. An autonomous navigation and guidance system for MUSES-C asteroid landing [J]. Acta Astronautica, 2003, 52(2/3/4/5/6):.125-131.
[42]MCGEE T G, CRISS T B, ROSENDALL P, et al. APLNav: development status of an onboard passive optical terrain relative navigation system [C]// Proceedings of AIAA Guidance, Navigation, and Control Conference. Kissimmee Florida: AIAA, 2015.
[43]CRISS T B, WHITE M J, ADAMS D. APLNav terrain relative navigation airplane field test [C]// Proceedings of AIAA Guidance, Navigation, and Control Conference. Toronto Ontario: AIAA, 2010.
[44]FRAPARD B, POLLE B, FLANDIN G, et al. Navigation for planetary approach and landing [C]// Proceedings of 5thInternational ESA Conference on Spacecraft Guidance, Navigation and Control System. Frascati: ESA, 2002:159-168.[45]JANSCHEK K, TCHERNYKH V, BECK M. Performance analysis for visual planetary landing navigation using optical flow and DEM matching [C]// Proceedings of AIAA Guidance, Navigation, and Control Conference. Keystone Colorado: AIAA, 2006.
[46]GUIZZO G P, VUKMAN I. Autonomous smartlander simulator based on stereo vision for the descent phase on Mars [C]// Proceedings of 54thInternational Astronautical Congress of the International Astronautical Federation, the International Academy of Astronautics, and the International Institute of Space Law. Bremen: IAC, 2003.
[47]姜肖楠. 月球探測器軟著陸視覺導(dǎo)航方法研究[D]. 哈爾濱:哈爾濱工業(yè)大學(xué),2010.
[48]崔平遠(yuǎn), 馮軍華, 朱圣英,等. 基于三維地形匹配的月球軟著陸導(dǎo)航方法研究[J]. 宇航學(xué)報(bào), 2011, 32(3):470-476.[49]田陽, 崔平遠(yuǎn), 崔祜濤. 基于圖像序列的軟著陸小天體自主導(dǎo)航方法[J]. 宇航學(xué)報(bào), 2009, 30(1): 210-259.
[50]王大軼, 李驥, 黃翔宇,等. 月球軟著陸過程高精度自主導(dǎo)航避障方法[J]. 深空探測學(xué)報(bào), 2014, 1(1): 44-51.
[51]李爽. 基于光學(xué)測量的相對導(dǎo)航方法及在星際著陸中的應(yīng)用研究[D]. 哈爾濱: 哈爾濱工業(yè)大學(xué), 2007.
[52]SHAN J, YOON J S, LEE D S, et al. Photogrammetric analysis of the Mars global surveyor mapping data [J]. Photogrammetric Engineering & Remote Sensing, 2005, 71(1): 97-108.
[53]SCHOLTEN F, GWINNWE K, ROATSCH T, et al. Mars express HRSC data processing-methods and operational aspects [J]. Photogrammetric Engineering & Remote Sensing, 2005, 71(10): 1143-1152.
[54]MCEWEN A S, BANKS M E, BAUGH N, et al. The high resolution imaging science experiment(HiRISE) during MRO’s primary science phase(PSP) [J]. Icarus, 2010, 37(2): 2-37.
[55]GASKELL R W. Determination of landmark topography from imaging data [C]// Proceedings of AAS/AIAA Astrodynamics Specialists Conference. Breckenridge: AAS, 2002:167-179.
[56]SHANKAR U J, CRISS T B, SHYONG W, et al. Lunar terrain surface modeling for the ALHAT program [C]// Proceedings of 2008 IEEE Aerospace Conference. Big Sky:IEEE 2008.
[57]李春來. 嫦娥一號三線陣CCD數(shù)據(jù)攝影測量處理及全月球數(shù)字地形圖[J]. 測繪學(xué)報(bào), 2013, 42(6): 853-860.[58]國家航天局. 嫦娥二號7米分辨率全月球影像圖發(fā)布[J]. 中國航天, 2012, 11(2): 10-11.
[59]MILLER J K, KONOPLIV A S, ANTREASIAN P G, et al. Determination of shape, gravity, and rotational state of asteroid 433 Eros [J]. Icarus, 2002, 155(1):3-17.
[60]GASKELL R W. High resolution shape and topography of Eros-preliminary results from NEAR imaging data [C]// Proceedings of AGU Spring Meeting. Montreal: AGU, 2004.[61]GASKELL R W. Landmark navigation and target characterization in a simulated Itokawa encounter [C]// Proceedings of AAS/AIAA Astrodynamics Specialists Conference. Lake Tahoe: AAS, 2005:629-644.
[62]YOON J S, SHAN J. Combined adjustment of MOC stereo imagery and MOLA altimetry data [J]. Photogrammetric Engineering & Remote Sensing, 2005, 71(10): 1179-1186.[63]LI R X, HWANGBO J, CHEN Y H, et al. Rigorous photogrammetric processing of HiRISE stereo imagery for Mars topographic mapping[J]. IEEE Transactions on Geoscience and Remote Sensing, 2011, 49(7):2558-2572.[64]王任享. 月球衛(wèi)星三線陣CCD影像EFP光束法空中三角測量[J]. 測繪科學(xué), 2008, 33(4):5-7.
[65]KIRK R L, KRAUS E H, REDDING B, et al. High-resolution topomapping of candidate MER landing sites with Mars orbiter camera narrow-angle images [J]. Journal of Geophysical Research, 2003, 108(E12):1-38.
[66]KIRK R L, KRAUS E H. Ultra high resolution topographic mapping of Mars with MRO HiRISE stereo images: meter-scale slopes of candidate phoenix landing sites[J]. Journal of Geophysical Research, 2007, 113(E00A24):1-31.
[67]CHENG Y, ANSAR A. Landmark based position estimation for pinpoint landing on Mars [C]// Proceedings of 2005 IEEE International Conference on Robotics and Automation. Barcelona: IEEE, 2005:4470-4475.
[68]LOUREN B, SARA J, PEDRO P. Development of a methodology for automated crater detection on planetary images [J]. Lecture Notes in Computer Science, 2009,4447:193-200.
[69]丁萌,曹云峰,吳慶憲. 一種從月面圖像檢測隕石坑的方法[J]. 宇航學(xué)報(bào), 2009,30(3):1243-1248.
[70]LOWE D G. Distinctive image features from scale-invariantkeypoints [J]. International Journal of Computer Vision, 2004, 2(60):91-110.
[71]TROGLIO G, BENEDIKTSSON J A, MOSER G, et al. Automatic extraction of planetary image features [C]// Proceedings of 2009 IEEE International Conference on Space Mission Challenge for Information Technology. Pasadena CA: IEEE, 2009:211-215.
[72]MATTHIES L, HUERTAS A, CHENG Y, et al. Stereo vision and shadow analysis for landing hazard detection [C]// Proceedings of 2008 IEEE International Conference on Robotics and Automation. Pasadena CA: IEEE, 2008:2735-2742.
[73]SABATA B, AGGARWAL J K. Estimation of motion from a pair of range images: a review [J]. CVGIP: Image Understanding, 1991, 54(3):309-324.
[74]CHENG Y, JOHNSON A, OLSON C, et al. Optical landmark detection for spacecraft navigation [C]// Proceedings of 2003 AAS Spaceflight Mechanics Conference. Ponce PR: AAS, 2003: 1785-1803.
[75]FROME A, HUBER D, KOLLURI R, et al. Recognizing objects in range data using regional point descriptors [C]// Proceedings of 8thEuropean Conference on Computer Vision. Prague: ECCV, 2004:224-237.
[76]GASKELL R W. Automated landmark identification for spacecraft navigation [C]// Proceedings of AAS Astrodynamics Specialists Conference. Quebec QC: AAS, 2001: 1749-1756.
[77]LUCAS B, KANADE T. An iterative image registration technique with an application to stereo vision [C]// Proceedings of 7thInternational Joint Conference on Artificial Intelligence. Vancouver: IJCAI, 1981:674-679.
[78]SUN D, CRASSIDIS J L.Observability analysis of six-degree-of-freedom configuration determination using vector observations [J]. Journal of Guidance, Control, and Dynamics, 2002, 25(6): 1149-1157.
[79]MORTARI D, ROJAS J, JUNKINS J. Attitude and position estimation from vector observations [C]// Proceedings of AAS/AIAA Spaceflight Mechanics Conference. Maui: AAS, 2004.
[80]HARALICK B M, LEE C N, OTTENBERG K, et al. Review and analysis of solutions of the three point perspective pose estimation problem [J]. International Journal of Computer Vision, 1994, 13(3): 331-356.
[81]LI Shuang, CUI Pingyuan, CUI Hutao. Vision-aided inertial navigation for pinpoint planetary landing [J]. Aerospace Science and Technology, 2007, 11(6):499-506.
[82]PHAM B V, LACROIX S, DEVY M. Vision-based absolute navigation for descent and landing [J]. Journal of Field Robotics, 2012, 29(4): 627-647.
[83]KIM J, SUKKARIEH S. Autonomous airborne navigation in unknown terrain environments [J]. IEEE Transactions on Aerospace and Electronic Systems, 2004, 40(3):1031-1045.[84]BONIN-FONT F, ORTIZ A, OLIVER G. Visual navigation for mobile robots: a survey [J]. Journal of Intelligent and Robotic Systems, 2008, 53(3):263-296.
[85]COCAUD C, KUBOTA T. Autonomous navigation near asteroids based on visual SLAM [C]// Proceedings of the 23rd International Symposium on Space Flight Dynamics. Pasadena, CA: JPL, 2012.
[86]COCAUD C, KUBOTA T. SLAM-based navigation scheme for pinpoint landing on small celestial body [J]. Advanced Robotics, 2012, 26(15):1747-1770.
[87]COCAUD C, KUBOTA T. SURF-based SLAM scheme using octree occupancy grid for autonomous landing on asteroids [C]// Proceedings of the International Symposium on Artificial Intelligence, Robotics and Automation in Space. Sapporo: SAIRAS, 2010:275-282.
[88]MOURIKIS A I, ROUMELIOTIS S I. A multi-state constraint Kalman filter for vision-aided inertial navigation [C]// Proceedings of 2007 IEEE International Conference on Robotics and Automation. Roma: IEEE, 2007:3565-3572.[89]GURFIL P, ROTSTEIN H. Partial aircraft state estimation from visual motion using the subspace constraints approach [J]. Journal of Guidance, Control, and Dynamics, 2001, 24(5): 1016-1028.
[90]INDELMAN V, GURFIL P, RIVLIN E, et al. Real-time vision-aided localization and navigation based on three-view geometry [J]. IEEE Transactions on Aerospace and Electronic Systems, 2012, 48(3): 2239-2259.
[91]ZHAO Shiyu, LIN Feng, PENG Kemao, et al.Homography-based vision-aided inertial navigation of UAVs in unknown environments [C]// Proceedings of AIAA Guidance, Navigation, and Control Conference. Minneapolis: AIAA, 2012.[92]AMZAJERDIAN F, PETWAY L B, HINES G D, et al. Lidar sensor for autonomous landing and hazard avoidance [C]// Proceedings of AIAA Space Conference and Exposition. San Diego: AIAA, 2013:172-182.
[93]MAKI J N, BELL J F, HERKENHOFF K E, et al. Mars exploration rover engineering cameras [J]. Journal of Geophysical Research, 2003, 108(E12): ROV12( 1-24).[94]MCGEE T G, SHANKAR U, SHAPIRO S, et al. Performance analysis of the APLNav system for passive optical Lunar navigation [C]// Proceedings of AIAA Guidance, Navigation, and Control Conference. IIIinois: AIAA, 2009.
[95]POLLARD A M, MCGEE T G. Design considerations for a guidance, navigation, and control sensors system for a robotic Lunarlander [C]// Proceedings of 2011 IEEE Aerospace Conference. Big Sky: IEEE, 2011.
[96]WHITE M, CRISS T, ADAMS D.APLNav terrain relative navigation helicopter field testing [C]// Proceedings of AIAA Guidance, Navigation, and Control Conference. IIIinois: AIAA, 2009.
[97]PARKES S, DUNSTAN M, MATTHEWS D, et al. LIDAR-based GNC for planetary landing: simulation with PANGU [C]// Proceedings of DASIA 2003. Prague: ESA Publications Division, 2003:151-162.[98]DUBOISMATRA O, PARKES S, DUNSTAN M. Testing and validation of planetary vision-based navigation systems with PANGU [C]// Proceedings of International Symposium on Space Flight Dynamics. Toulouse: ISSFD, 2009.
[99]QUADRELLI M B, WOOD L J, RIEDEL J E, et al. Guidance, navigation, and control technology assessment for future planetary science missions [J]. Journal of Guidance, Control, and Dynamics, 2015, 38(7): 1165-1186.
(編輯 張 紅)
Overview of autonomous navigation based on sequential images for planetary landing
WANG Dayi1,2, XU Chao1,2, HUANG Xiangyu1,2
(1. Beijing Institute of Control Engineering, 100190 Beijing,China;2.Science and Technology on Space Intelligent Control Laboratory, 100190 Beijing, China)
Autonomous navigation based on sequential images (ANBSI) is the key technology of pinpoint landing missions for future deep space exploration and also is one of the major development directions for deep space exploration technology. The necessity of developing ANBSI for planetary pinpoint landing is elaborated in this paper. Firstly, state-of-art developments of ANBSI are reviewed in terms of active sensing and passive sensing. Then, the key techniques applied in ANBSI for planetary landing are summarized and analyzed. Finally, according to the analysis of the key techniques, the main issues of ANBSI are raised and their future developments are overviewed.
deep space explore; autonomous navigation; sequential images; pinpoint landing
10.11918/j.issn.0367-6234.2016.04.001
2016-01-07.
國家杰出青年科學(xué)基金(61525301).
王大軼(1973—),男,研究員,博士生導(dǎo)師.
王大軼,dayiwang@163.com.
V448.2
A
0367-6234(2016)04-0001-12