摘要:無人機降低飛行高度以節(jié)省時間或擴展航程,會導致航片相幅減小、預測與真實位置重疊不足。為此,文章研究了基于衛(wèi)星圖像匹配的巡檢無人機地面三維目標自動定位方法。首先獲取無人機相機姿態(tài)數據,為后續(xù)處理提供基礎;然后轉換三維目標信息,提取三維目標特征,深度分析無人機圖像;最后利用衛(wèi)星圖像匹配特征實現定位,精準匹配無人機與衛(wèi)星圖像,實現自動定位。實驗證明,該方法定位性能優(yōu)于對比方法,具有較高的準確性和穩(wěn)定性。
關鍵詞:衛(wèi)星圖像匹配;巡檢無人機;地面三維目標;目標定位;自動定位
中圖分類號:TP391.4 文獻標志碼:A
0 引言
在復雜地形和廣闊區(qū)域的巡檢中,巡檢無人機的自主導航和精確定位至關重要。程擎等[1]利用卡爾曼濾波算法估計無人機狀態(tài),提高定位精度,但對模型準確性要求高,偏差會導致軌跡偏差。徐卓君等[2]利用多無人機協同作戰(zhàn),快速搜尋和定位地面目標,但通信延遲或協同算法不優(yōu)可能導致軌跡偏差。本文研究了基于衛(wèi)星圖像匹配的巡檢無人機地面三維目標自動定位方法,該技術精度高、覆蓋廣,彌補了GPS不足,通過匹配無人機捕獲與衛(wèi)星圖像,能實現精準定位。本文的研究有望為無人機巡檢帶來革命性變革,推動技術持續(xù)創(chuàng)新。
1 獲取無人機相機姿態(tài)數據
在巡檢無人機應用中,獲取相機姿態(tài)數據是關鍵,能明確拍攝位置和朝向,進而準確分析處理圖像。
無人機與衛(wèi)星影像因成像原理、高度差異導致分辨率不同,影像信息更詳細豐富[3],衛(wèi)星影像能提供大尺度地理信息和全局視野。處理時須匹配校準,明確地面分辨率計算公式及尺度縮放系數方法[4]。無人機航拍圖像的地面分辨率通常與飛行高度h、像元尺寸a和鏡頭焦距f有關。其計算公式如(1)所示。
v0=h×af(1)
無人機航拍圖像通過圖像重采樣或插值算法可以表示為:
I^=I×v02zd(2)
其中,v0為無人機航拍圖像的地面分辨率,單位是m/pixel。對于特定的衛(wèi)星地圖服務,其計算公式可能是基于2的冪次關系。Z為衛(wèi)星圖像的地面分辨率,通常與衛(wèi)星地圖的級別相關;d為地球赤道周長。經尺度縮放后,無人機航拍圖像通過圖像重采樣或插值算法得到[5],為后續(xù)巡檢任務提供準確可靠的地理信息支持。
2 轉換地面三維目標數據
因各無人機攝像機角度不同,目標坐標在各像元坐標系中各異。每架無人機從同一起飛點出發(fā),建立統(tǒng)一的世界坐標系統(tǒng),不受無人機視角影響。
坐標在像素坐標系與圖像坐標系之間的轉換過程為:用齊次坐標(Wx,Wy,Wz,W)來表達三維空間(x,y,z)的坐標。轉換公式如(3)所示。
x=WxW,y=WyW,z=WzW(3)
因此,無人機坐標系中的目標位置點的直角坐標如(4)所示。
A=[Ax,Ay,Az,1]T(4)
其中,Ax、Ay、Az為目標在無人機坐標系的位置。在不存在三向位姿的情況下,無人機坐標系與無人機航跡坐標系重合。在此基礎上,綜合考慮機身3個方向的姿態(tài)(偏航M1、俯仰M2、橫滾M3),在無人飛行器坐標系中,目標的位置坐標為:
B=M1·M2·M3·A(5)
從公式(5)可以得到物體的世界坐標。最終,地面平臺將目標的全局坐標、目標類別以及目標特性等信息與其他無人機共享。
3 提取巡檢無人機地面三維目標特征
首先須確定參考區(qū)域:
r=R(x,βUh+a,βUw+b)(6)
式中,R為參照衛(wèi)星影像;x為基準衛(wèi)星圖像中攝像機在計算之后的像素位置;β為比例系數;Uh為空中影像的高度;Uw為空中影像的寬度;a、b是閾值。針對特定的二值圖,利用它來表達目標物體的分布特性信息,即:
E=β[q11′,q22′,…,qnn′]T(7)
特征提取主要由對目標物體的分布特性信息上的關鍵點進行檢測。計算公式如下:
H(x,β)=E·Yxx(x,β)Yxy(x,β)
Yxy(x,β)Yyy(x,β)(8)
其中,Yxx(x,β)為這一點的二次高斯卷積微分。在此基礎上,對關鍵點附近的哈爾波小波響應進行分析,得到關鍵點的主要方位,并構建相應的特征矢量完成提取。
在巡檢無人機地面三維目標自動定位中,該算法的應用將有助于提高目標識別的準確性和定位的實時性,為巡檢任務的順利完成提供有力支持。
4 利用衛(wèi)星圖像匹配特征實現定位
利用衛(wèi)星圖像匹配特征實現定位,結合無人機與衛(wèi)星平臺優(yōu)勢,實現高精度自主定位。衛(wèi)星圖像匹配技術起關鍵作用,對噪點和圖像變換具魯棒性。每個提取的特征點,通過比較周圍像素亮度差異生成二進制字符串。對于特征點p,在其周圍選取n對像素點(xi,yi)和(xj,yj),計算這些像素點對的亮度差異并進行二值化處理:
τ(p;xi,yi;xj,yj)=1ifI(xi,yi)>I(xj,yj)
0其他(9)
其中,I(xi,yi)和I(xj,yj)分別為像素點(xi,yi)和(xj,yj)的亮度。二值化處理后,針對某一特定的無人機航拍影像,尋找與該特征點之間的最接近點,通過對特征點間的距離進行對比,找出最優(yōu)匹配點。
5 實驗
5.1 實驗準備
本文依托EOSAT平臺,獲取某市公園衛(wèi)星圖像資料作為無人機航拍基礎數據。為增強數據集多樣性,采用加噪聲、調對比度、水平翻轉等手段,每類樣本增至500張,構建含672000張圖片、1344類區(qū)域的數據集。按8∶1∶1劃分訓練、驗證、測試集,確保訓練有效、評估公正。
為了進一步驗證文中匹配方法的有效性,使用交并比RIoU作為客觀評價指標,對匹配結果進行評價。
RIoU=Be∩BtBe∪Bt(10)
式中,Be為預測的矩形框面積;Bt為地面真實的矩形框面積。其值越大,表明真實值與測試值越接近,從而得到的圖像匹配效果也更好。
5.2 試驗結果與分析
基于圖像的地面真實位置和預測位置之間的重疊率作為試驗評估指標,對本文提出的巡檢無人機地面三維目標自動定位方法、程擎等[1]方法以及徐卓君等[2]方法進行試驗分析。
圖1中,程擎等[1]和徐卓君等[2]方法圖的實線矩形為每個方法的預測位置,虛線矩形為地面真實位置??梢钥闯?,本文方法的匹配結果與地面真實位置最接近,明顯要優(yōu)于其他2種方法。統(tǒng)計所有圖像的定位重疊率,可知:本文方法、程擎等[1]方法、徐卓君等[2]方法的平均重疊率分別為92.3%、85.7%、80.1%;3種方法的標準差分別為2.1%、3.2%、3.8%。這表明本文方法在定位性能上更優(yōu),且標準差低,證明了其穩(wěn)定性和可靠性。綜上所述,本文提出的巡檢無人機地面三維目標自動定位方法重疊率高,定位準確且穩(wěn)定,為實際應用提供了有力支持。
6 結語
本文研究的基于衛(wèi)星圖像匹配的巡檢無人機地面三維目標自動定位方法,能精準匹配衛(wèi)星圖像,迅速識別并定位地面目標,降低人工干預需求,提高巡檢自動化水平。然而,該方法受天氣、云層等自然因素影響,圖像質量下降會影響匹配準確性,但其發(fā)展?jié)摿薮?。隨著遙感技術的進步和衛(wèi)星圖像分辨率的提高,期待更精準高效的定位方法出現。綜上,本文方法雖有不足,但效果和潛力令人矚目,期待未來能得到更完善的發(fā)展,為無人機巡檢領域帶來創(chuàng)新與突破。
參考文獻
[1]程擎,李怡恒,魯合德.基于擴展卡爾曼濾波的無人機輔助定位研究[J].電光與控制,2023(12):93-97,103.
[2]徐卓君,王耀祥,黃興,等.多無人機地面移動目標搜尋和定位[J].吉林大學學報(工學版),2023(3):832-840.
[3]王騫仟,熊源,姜涵,等.支持場景表觀差異的無人機圖像視覺定位方法[J].空間控制技術與應用,2024(1):56-67.
[4]任艷,劉勝男,陳新禹,等.不同季節(jié)下無人機航拍圖像與衛(wèi)星圖像匹配方法研究[J].彈箭與制導學報,2023(5):16-24.
[5]曹子龍,童小華,許雄,等.基于空地影像多層級匹配的火星巡視器定位與地面驗證[J].測繪學報,2023(4):579-587.
(編輯 沈 強)
Automatic positioning method of UAV ground based on satellite image matching
SONG Xianan, SONG Qingmin, WANG Jihong*, ZHAO Mingju, DENG Juxin
(College of Electronic and Electrical Engineering,Zhengzhou University of Science and Technology, Zhengzhou 450064, China)
Abstract: The UAV reduces the flight altitude to save time or expand the range, resulting in the decrease of the aerial phase amplitude and insufficient predicted overlap with the real position. To this end, this paper studies the automatic 3 d target positioning method of inspection UAV based on satellite image matching. Firstly, UAV camera attitude data is acquired to provide the basis for subsequent processing; then convert 3 D target information, extract 3D target features and deeply analyze UAV images; finally, use satellite images to match the UAV and satellite images to achieve automatic positioning. The experiments show that the localization method is better than the comparison method and has high accuracy and stability.
Key words: satellite image matching; UAV inspection; ground 3D target; target positioning; automatic positioning