支健輝,孔星煒,董新民,方園,王旭峰,尹寧寧
(1.空軍工程大學(xué)航空航天工程學(xué)院,陜西西安710038;2.西安建筑科技大學(xué)冶金工程學(xué)院,陜西西安710055)
近年來,無人機(jī)在未來戰(zhàn)爭中的作用受到越來越多專家、學(xué)者的關(guān)注[1]。在保持其小型化、機(jī)動速度快、維護(hù)費(fèi)用低、生存能力強(qiáng)等優(yōu)點(diǎn)的基礎(chǔ)上,無人機(jī)自主空中加油技術(shù)可顯著延長其留空時(shí)間,從而極大地提高有效完成各種作戰(zhàn)/非作戰(zhàn)任務(wù)的能力。因此,自主空中加油技術(shù)的相關(guān)研究成為國內(nèi)外軍事領(lǐng)域研究熱點(diǎn)之一[2-3]。
無人機(jī)自主空中加油方式分為硬管式和軟管式兩種。較之硬管式空中加油,軟管式裝備質(zhì)量輕、改裝簡易、操作相對簡單,因此,開展軟管式自主空中加油研究在軍事領(lǐng)域中具有重大意義[4]。對加油錐套的精確識別和跟蹤技術(shù)是軟管式自主空中加油的關(guān)鍵技術(shù)之一,為實(shí)現(xiàn)受油機(jī)插頭與加油機(jī)錐套的成功對接提供了有力保障[5]。以往的相對導(dǎo)航系統(tǒng)過多地依賴于GPS和慣性導(dǎo)航元件,在空中加油的近距階段,GPS信號容易因機(jī)體的遮擋而失真。隨著先進(jìn)光學(xué)傳感器的迅猛發(fā)展,通過機(jī)器視覺測量解算錐套空間位置已成為該領(lǐng)域的研究熱點(diǎn)[6]。因此,研究高精度加油錐套識別跟蹤技術(shù)對于無人機(jī)自主空中加油具有重要意義。
均值漂移(MeanShift)算法是一種較為典型的無參目標(biāo)跟蹤算法,能夠?qū)崟r(shí)跟蹤非剛性目標(biāo),對目標(biāo)的變形、旋轉(zhuǎn)等有較好的適用性,可以有效提高搜索效率;但其核函數(shù)窗寬固定不變,導(dǎo)致跟蹤準(zhǔn)確性降低,尺度定位失準(zhǔn),甚至丟失目標(biāo)[7]。CamShift算法是在MeanShift算法的基礎(chǔ)上改進(jìn)而來,其搜索窗口大小可以自適應(yīng)地進(jìn)行調(diào)整,即根據(jù)遠(yuǎn)離或者靠近受油機(jī)時(shí)加油錐套的尺寸而自動調(diào)整搜索窗的窗寬[8]。
本文著眼于加油錐套的識別跟蹤問題,充分考慮了CamShift跟蹤算法的優(yōu)缺點(diǎn),提出一種基于CamShift的加油錐套識別跟蹤算法。通過VC與OpenCV相結(jié)合,編寫了位置解算程序,并進(jìn)行了算法的試驗(yàn)驗(yàn)證。
特征提?。?]是運(yùn)動目標(biāo)跟蹤的一個(gè)重要環(huán)節(jié)。一般選擇一個(gè)有區(qū)分度的目標(biāo)特征作為特征提取的標(biāo)準(zhǔn),如目標(biāo)的邊緣、輪廓或其顏色直方圖等;在對復(fù)雜目標(biāo)進(jìn)行跟蹤時(shí),可以聯(lián)合多種特征進(jìn)行目標(biāo)跟蹤。本文設(shè)計(jì)了如圖1所示的一種錐套等比例物理模型,錐套端面為紅色雙環(huán)結(jié)構(gòu),選取顏色和外形兩種特征對錐套進(jìn)行識別。
圖1 加油錐套模型Fig.1 Drogue model
將錐套圖像從RGB空間轉(zhuǎn)換到HSV空間進(jìn)行目標(biāo)識別。將一般數(shù)碼相機(jī)采集到的圖像(即RGB空間圖像)轉(zhuǎn)換為HSV空間圖像需作如下變換[10]:
在式(1)基礎(chǔ)上,對圖像中的目標(biāo)和背景進(jìn)行分割??紤]天空中陽光和云層干擾的問題,采用自適應(yīng)閾值分割提升算法的魯棒性,分割公式為:
式中:Ts為陰影區(qū)域閾值;TT為目標(biāo)區(qū)域分割閾值;μ為圖像灰度均值;σ為圖像灰度方差;k1和k2為調(diào)整因子。則有自適應(yīng)閾值化規(guī)則[11]為:
式中:I(x,y)為圖像像素值。
經(jīng)過圖像分割后,對加油錐套的紅色雙環(huán)特征區(qū)域的邊緣進(jìn)行最小二乘橢圓擬合[12],得到的雙環(huán)中心應(yīng)該重合,擬合得到的兩條橢圓曲線中心距離應(yīng)很小。考慮測量和擬合誤差,可設(shè)為一個(gè)較小值,如5個(gè)像素,即初次檢測時(shí)雙環(huán)中心距離小于5像素。若雙環(huán)運(yùn)動快,圖像出現(xiàn)運(yùn)動模糊,則適當(dāng)放寬。相對移動速度比較快時(shí),可設(shè)雙環(huán)中心距離小于20像素。
對加油錐套的紅色雙環(huán)特征區(qū)域的邊緣進(jìn)行最小二乘橢圓擬合得到的內(nèi)、外橢圓長軸之比要求在一定范圍之內(nèi),當(dāng)內(nèi)、外橢圓長軸之比為在0.6~0.8范圍之內(nèi)時(shí),即可認(rèn)為檢測到的雙環(huán)為加油錐套的紅色雙環(huán)特征區(qū)域;反之,則認(rèn)為不是。
為了描述所跟蹤的目標(biāo),定義目標(biāo)模型和候選目標(biāo)的概率密度函數(shù)為[13]:
目標(biāo)模型:
候選目標(biāo):
式中:qu,pu(y)分別為錐套目標(biāo)模型和候選目標(biāo)的第u級特征概率密度;C,Ch為歸一化常數(shù);k(˙)為剖面核函數(shù);δ(˙)為克羅內(nèi)克δ函數(shù);b為顏色直方圖中的索引值;xi為歸一化后目標(biāo)窗口區(qū)域的像素坐標(biāo);y為“候選目標(biāo)”的中心;h為核半徑。
至此,錐套跟蹤的問題轉(zhuǎn)化為匹配這兩個(gè)概率密度函數(shù)的相似性度量問題。使用巴氏系數(shù)表征相似性,定義為:
式中:ρ(y)表示上一幀中目標(biāo)模型概率密度函數(shù)和當(dāng)前幀中以y為中心的候選目標(biāo)概率密度函數(shù)的相似性。以目標(biāo)模型和候選目標(biāo)之間的距離作為相似性測度函數(shù)的相似性判據(jù),定義如下:
找到當(dāng)前幀中目標(biāo)的位置,即求解式(7)中距離的極小值。dis(y)最小化等價(jià)于巴氏系數(shù)ρ(y)的最大化。在當(dāng)前幀中搜索目標(biāo)新位置從前一幀目標(biāo)的位置y0開始。因此需首先計(jì)算候選目標(biāo)在當(dāng)前幀中 y0位置處的概率密度函數(shù){pu(y0)}u=1,2,…,m。
對ρ(y)在pu(y0)處進(jìn)行泰勒級數(shù)展開,則ρ(y)可以近似為:
高空中大氣紊流、加油機(jī)尾渦以及下洗氣流對加油錐套影響較弱,目標(biāo)位置變化范圍較小,因此,候選目標(biāo){qu(y0)}u=1,2,…,m與目標(biāo)模型 p(y0)之間幾乎沒有突變現(xiàn)象,上式的線性關(guān)系是可以近似滿足的,且通常情況下,相鄰兩幀中目標(biāo)會有部分重疊,則在連續(xù)的相鄰兩幀圖像中,這種假設(shè)條件也是滿足的。將式(5)代入式(8)可得:
其中:
為了最小化式(7),由于式(9)右邊第一項(xiàng)與y無關(guān),故第二項(xiàng)必須最大化。第二項(xiàng)代表核密度估計(jì),核密度的剖面函數(shù)為k(‖˙‖2),樣本數(shù)據(jù)的權(quán)重為 wi。對第二項(xiàng)求偏導(dǎo)數(shù),并令其等于零,可得:
從而得到p(y)最大化的迭代搜索公式:
取核函數(shù)為Epanechnikov函數(shù):
其剖面函數(shù)如下:
式中:cd為單位d維球體的體積;d為向量τ的維數(shù)。當(dāng)τ為二維向量時(shí),Epanechnikov核函數(shù)的剖面函數(shù)如下所示:
由于其核函數(shù)的剖面函數(shù)的導(dǎo)數(shù)g(˙)為常數(shù),則式(11)簡化為:
反復(fù)迭代式(11),使“候選目標(biāo)”沿著使ρ(y)增大的梯度方向不斷移動,直至ρ(y)達(dá)到最大,從而實(shí)現(xiàn)基于均值濾波的錐套跟蹤。
CamShift算法是在MeanShift算法的基礎(chǔ)上改進(jìn)而來,但其在進(jìn)行目標(biāo)跟蹤過程中一般只針對均值漂移向量的方向?qū)δ繕?biāo)位置進(jìn)行跟蹤定位,并不關(guān)注目標(biāo)的實(shí)際運(yùn)動情況,即沒有利用目標(biāo)在空間中的運(yùn)動方向和運(yùn)動速度信息。如果出現(xiàn)目標(biāo)被遮擋或丟失的情況,僅憑顏色信息難以對目標(biāo)繼續(xù)精確定位,因此需要在均值漂移算法中加入目標(biāo)運(yùn)動信息,保證跟蹤效果的穩(wěn)定性和魯棒性。
針對上述問題,為了防止目標(biāo)丟失,本文采用窗寬h自適應(yīng)調(diào)節(jié)規(guī)則[14]:
式中:α為調(diào)節(jié)常數(shù);hini為初始搜索窗口寬度;v為目標(biāo)在像平面的運(yùn)動速度,即:
式中:ΔT為幀率的倒數(shù);k為當(dāng)前圖像幀數(shù),取值范圍為(2,n),其中n為跟蹤軟件結(jié)束時(shí)的圖像幀數(shù)。
目標(biāo)丟失的另一個(gè)主要原因是被其他障礙遮擋,而巴氏系數(shù)表征了當(dāng)前窗口區(qū)域直方圖與目標(biāo)直方圖的相似度,當(dāng)目標(biāo)發(fā)生遮擋時(shí),當(dāng)前窗口區(qū)域的巴氏系數(shù)將急劇減小。因此,可將目標(biāo)是否發(fā)生遮擋的判據(jù)設(shè)置為巴氏系數(shù)。設(shè)定閾值Th,對于圖像中的目標(biāo)區(qū)域,有:
根據(jù)上述判據(jù),跟蹤算法在發(fā)現(xiàn)目標(biāo)發(fā)生部分遮擋后即可采取相應(yīng)的位置估計(jì)算法,使跟蹤算法在目標(biāo)發(fā)生遮擋后依然可估計(jì)目標(biāo)位置,進(jìn)行跟蹤,直至目標(biāo)不再被遮擋。
為了驗(yàn)證本文算法的有效性和準(zhǔn)確性,將VC與OpenCV相結(jié)合,編寫了錐套識別跟蹤軟件[15]。首先,進(jìn)行設(shè)備的選擇以及幀率、視頻輸出和相關(guān)屬性項(xiàng)的設(shè)置,然后進(jìn)行試驗(yàn)驗(yàn)證。加油錐套的灰度圖像以及H通道圖像如圖2所示,錐套捕捉定位圖像如圖3所示。
圖2 加油錐套圖像Fig.2 Drogue image
圖3 加油錐套定位Fig.3 Drogue location
由圖3可知,本文算法得到的目標(biāo)圖像雜光點(diǎn)少,目標(biāo)中心提取精度高,即使錐套快速運(yùn)動也無拖影現(xiàn)象,具有良好的實(shí)時(shí)性。
圖4為存在部分遮擋情況下錐套跟蹤圖像。可以看出,即使在存在部分遮擋的情況下,本文所采用的算法仍然能夠精確地提取加油錐套中心點(diǎn)坐標(biāo),且達(dá)到毫米級定位精度,具有較高的準(zhǔn)確性和魯棒性。
圖4 發(fā)生遮擋時(shí)的錐套跟蹤Fig.4 Drogue tracking in partial occlusion
本文提出了一種基于HSV色彩空間的Cam-Shift加油錐套識別跟蹤方法。由VC結(jié)合OpenCV編寫了位置解算軟件,算法求解精度高,可達(dá)到毫米級,且在目標(biāo)快速運(yùn)動或部分遮擋的情況下,仍能較好地解算目標(biāo)位置。試驗(yàn)結(jié)果充分說明了本文算法的實(shí)時(shí)性、準(zhǔn)確性和魯棒性,能夠滿足空中加油中導(dǎo)航任務(wù)的需求。
[1] 馮琦,周德云.軍用無人機(jī)發(fā)展趨勢[J].電光與控制,2003,10(1):9-13.
[2] Nalepka J P,Hinchman J L.Automated aerial refueling:extending the effectiveness of unmanned air vehicles[R].AIAA-2005-6005,2005.
[3] 董新民,徐躍鑒,陳博.自動空中加油技術(shù)研究進(jìn)展與關(guān)鍵問題[J].空軍工程大學(xué)學(xué)報(bào):自然科學(xué)版,2008,9(6):1-5.
[4] 慕春棣,李波睿.基于視覺的自動空中加油技術(shù)[J].清華大學(xué)學(xué)報(bào):自然科學(xué)版,2012,52(5):670-676,681.
[5] Chen C I,Stettner R.Drogue tracking using 3D flash lidar for autonomous aerial refueling[C]//SPIE Defense,Security,and Sensing.International Society for Optics and Photonics,2011:80370Q-80370Q-11.
[6] Campa G,F(xiàn)ravolini M L,F(xiàn)icola A,et al.Autonomous aerial refueling for UAVs using a combined GPS-machine vision guidance[C]//AIAA Guidance,Navigation,and Control Conference and Exhibit.Providence,RI,2004:1-11.
[7] Tu Jilin,Hai Tao,Huang Thomas.Online updating appearance generative mixture model for meanshift tracking[J].Machine Vision and Applications,2009,20(3):163-173.
[8] 鄔大鵬,程衛(wèi)平,于盛林.基于幀間差分和運(yùn)動估計(jì)的Camshift目標(biāo)跟蹤算法[J].光電工程,2010,37(1):55-60.
[9] 岡薩雷斯,溫茨同.數(shù)字圖像處理[M].李叔梁,譯.北京:北京科學(xué)出版社,1981.
[10] Zulkifley M A,Mustafa M M,Hussain A.On improving CAMSHIFT performance through colour constancy approach[C]//Computer& Information Science(ICCIS),2012 International Conference on.Kuala Lumpeu:IEEE,2012:375-378.
[11]倪維平,嚴(yán)衛(wèi)東,吳俊政,等.MSTAR圖像2D Gabor濾波增強(qiáng)與自適應(yīng)閾值分割[J].光電工程,2013,40(3):87-93.
[12] 韓九強(qiáng),胡懷中,張新曼,等.機(jī)器視覺技術(shù)及應(yīng)用[M].北京:高等教育出版社,2009:170-171.
[13] Tian C,Ge G,Ye S,et al.Researches of scale adaptive Mean Shift target tracking algorithm[C]//Intelligent Control and Automation(WCICA),2010 8th World Congress on.Jinan:IEEE,2010:700-703.
[14]云霄,肖剛.基于Camshift的多特征自適應(yīng)融合船舶跟蹤算法[J].光電工程,2011,38(5):52-58.
[15] Bradski G,Kaehler A.學(xué)習(xí) Opencv[M].于仕琪,劉瑞禎,譯.北京:清華大學(xué)出版社,2009:371-376.