国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

空間機(jī)械臂抓捕動態(tài)目標(biāo)快速穩(wěn)定跟蹤方法

2018-03-20 03:00,,*,,,,
中國空間科學(xué)技術(shù) 2018年1期
關(guān)鍵詞:視場直方圖相似性

,,*,,,,

1. 航天飛行動力學(xué)技術(shù)重點實驗室,北京 100094 2. 北京航天飛行控制中心,北京 100094

利用視覺測量系統(tǒng)測量跟蹤航天器與目標(biāo)航天器之間的相對位置與姿態(tài)是保證空間任務(wù)順利執(zhí)行的重要前提?,F(xiàn)階段,國際上常見的光學(xué)測量系統(tǒng)主要有:中國“神舟八號”飛船上的CCD光學(xué)成像系統(tǒng)[1],美國國家航空航天局“自主交會對接技術(shù)驗證”(Demonstration of Autonomous Rendezvous Technology,DART)衛(wèi)星上的高級視頻制導(dǎo)系統(tǒng)(Advanced Video Guidance Sensor,AVGS)[2],日本的工程試驗衛(wèi)星-Ⅶ(Engineering Test Satellite-Ⅶ,ETS-Ⅶ)和H-II運(yùn)載飛船(H-II Transfer Vehicle,HTV)上的接近相機(jī)系統(tǒng)[3-4],歐洲航天局自動轉(zhuǎn)移飛行器(Automated Transfer Vehicle,ATV)上的視頻測量系統(tǒng)[5]和俄羅斯的光電系統(tǒng)(Optical-Electronic System)[6]等。這些常見的光學(xué)測量系統(tǒng)都是通過CCD相機(jī)對空間目標(biāo)上安裝的合作靶標(biāo)進(jìn)行實時跟蹤定位從而完成自主交會對接任務(wù)[7]。

目前,人類已經(jīng)成功實施了數(shù)百次自主交會對接任務(wù)[8],其中基于視覺的跟蹤算法已經(jīng)取得了較大進(jìn)展。但是以往的交會對接任務(wù)對于對接角度有嚴(yán)格的要求,例如“神舟八號”飛船的對接走廊是以目標(biāo)飛行器對接軸為中心,半錐角為8°的圓錐[9]。因此,當(dāng)需要飛行器進(jìn)行快速交會對接,機(jī)械臂執(zhí)行緊急抓捕時,以往的算法往往難以滿足要求。此外,未來空間機(jī)械臂自由度多,活動范圍大,位置關(guān)系靈活,不僅會出現(xiàn)圖像形變問題,還會發(fā)生目標(biāo)局部從視場中頻繁進(jìn)出的情況。因此,如何進(jìn)一步研究視覺跟蹤方法解決上述問題,是需要繼續(xù)深入探討的內(nèi)容。

視覺跟蹤算法按研究思路可以分為基于學(xué)習(xí)和基于檢測兩種類型?;趯W(xué)習(xí)的方法是建立在對目標(biāo)長距離跟蹤學(xué)習(xí)基礎(chǔ)上實現(xiàn)的,計算量大且非常耗時,難以應(yīng)用于空間目標(biāo)的跟蹤。目前,對空間目標(biāo)的跟蹤主要采用基于檢測的方法,通過對序列圖像進(jìn)行檢測、識別和相似性比對,實現(xiàn)空間目標(biāo)實時跟蹤。文獻(xiàn)[10]提出了一種基于輪廓檢測的目標(biāo)跟蹤算法,該算法根據(jù)最小二乘原理來進(jìn)行輪廓擬合,從而識別出目標(biāo),解決了自主交會對接近距離段的航天器跟蹤問題。文獻(xiàn)[11]提出了一種合作靶標(biāo)快速識別算法,該算法在文獻(xiàn)[12]提出的最快圓檢測算法的基礎(chǔ)上對靶標(biāo)上的直線特征再次進(jìn)行判別,進(jìn)一步提高識別的準(zhǔn)確率。文獻(xiàn)[13]提出了一種基于稀疏直方圖的視覺目標(biāo)跟蹤方法,該方法在粒子濾波目標(biāo)跟蹤框架下,用稀疏直方圖來表示目標(biāo),將目標(biāo)模板和候選目標(biāo)之間的距離作為粒子濾波的觀測模型,進(jìn)而實現(xiàn)序列圖像中目標(biāo)的穩(wěn)定跟蹤。這些算法雖然能夠?qū)μ囟繕?biāo)進(jìn)行檢測與識別但并未考慮因目標(biāo)位姿變化而導(dǎo)致的投影形態(tài)變化和局部遮擋等問題,在機(jī)械臂抓捕空間目標(biāo)的復(fù)雜情況下需要進(jìn)一步開展相關(guān)研究。

本文在CamShift跟蹤框架的基礎(chǔ)上,針對空間機(jī)械臂抓捕的特殊性,提出了一種融合特征選取、模板更新和進(jìn)出場跟蹤策略的跟蹤算法。該算法能夠進(jìn)行多目標(biāo)的連續(xù)跟蹤,解決目標(biāo)形態(tài)變化引起的跟蹤丟失問題,實現(xiàn)對頻繁進(jìn)出視場目標(biāo)的自適應(yīng)跟蹤。

1 機(jī)械臂抓捕過程中的合作目標(biāo)跟蹤算法

1.1 問題描述與算法總體

空間機(jī)械臂視覺系統(tǒng)利用末端安裝的單目相機(jī)檢測航天器上的人工標(biāo)志點,并對標(biāo)志點進(jìn)行實時跟蹤。圖1為機(jī)械臂對動態(tài)目標(biāo)實施抓捕的示意,其中目標(biāo)跟蹤是抓捕導(dǎo)航與目標(biāo)定位的前提和基礎(chǔ),跟蹤算法中涉及到的困難主要包括:

1)多目標(biāo)的區(qū)分。被跟蹤目標(biāo)通常由多個形狀相似的發(fā)光靶標(biāo)組成,外觀形態(tài)上差異較小,在跟蹤過程中容易產(chǎn)生不同目標(biāo)之間的混淆,需要選擇有效目標(biāo)特征,以強(qiáng)化不同目標(biāo)之間的差異,防止跟蹤過程中出現(xiàn)由于錯跟目標(biāo)而導(dǎo)致的位姿跳變問題。

2)形態(tài)改變時的連續(xù)跟蹤。由于視覺相機(jī)與合作目標(biāo)之間的角度變化會導(dǎo)致目標(biāo)形態(tài)發(fā)生改變,從而使得多幀后的目標(biāo)形態(tài)與初始形態(tài)產(chǎn)生較大差異,需要為連續(xù)跟蹤過程設(shè)計自適應(yīng)的模板更新策略。

3)臨近邊界的目標(biāo)檢測與跟蹤。在自主對接與捕獲中,當(dāng)目標(biāo)漸入視場時,算法必須能夠自主進(jìn)行目標(biāo)的檢測與跟蹤,當(dāng)目標(biāo)漸出視場時,算法必須能夠準(zhǔn)確判斷出界的目標(biāo),并對視場內(nèi)目標(biāo)進(jìn)行準(zhǔn)確跟蹤,需要設(shè)計部分靶標(biāo)移入移出視場的拋棄找回策略。

本文將對以上3個方面進(jìn)行詳細(xì)論述,以多個靶標(biāo)構(gòu)成的合作目標(biāo)的邊界跟蹤問題為例,對CamShift算法做了3個方面的改進(jìn),得到新的跟蹤算法框架如圖2所示,分別介紹如下。

1)考慮反向投影圖是一種概率表征,反映了模板出現(xiàn)在圖像中特定位置的概率,本文中選擇概率差異較大的像素部分來表征目標(biāo),使得同一幀中目標(biāo)之間的差異性和同一目標(biāo)在不同幀之間的相似性同時加強(qiáng),這樣能夠有效區(qū)分多目標(biāo),幫助跟蹤算法高效執(zhí)行。

2)CamShift算法的收斂過程中,通過對圖像進(jìn)行矩運(yùn)算來確定目標(biāo)中心的位置,本文設(shè)計了一種通過對比目標(biāo)區(qū)域和模板區(qū)域不變矩特征差異性實現(xiàn)模板更新的機(jī)制,既保證了跟蹤算法的高效性,也提高了跟蹤過程的穩(wěn)定性。

3)在傳統(tǒng)的跟蹤算法中只強(qiáng)調(diào)連續(xù)的跟蹤過程,沒有考慮目標(biāo)移出和移入視場時的目標(biāo)丟失與找回問題。針對由多個目標(biāo)構(gòu)成的合作目標(biāo)的邊界跟蹤問題,本文設(shè)計了一種利用視場內(nèi)的部分靶標(biāo)完成對移入和移出靶標(biāo)的拋棄與找回方法。

后續(xù)將對上述3個方面進(jìn)行詳細(xì)論述,在論述前首先對跟蹤算法基本原理簡述如下。

圖1 機(jī)械臂抓捕示意Fig.1 Sketch of robotic capturing

圖2 改進(jìn)的CamShift算法Fig.2 Flowchart of improved CamShift algorithm

1.2 CamShift跟蹤算法簡述

CamShift算法[14]是一種建立在MeanShift算法[15]之上的跟蹤算法,它將上一幀圖像的跟蹤結(jié)果作為當(dāng)前幀的初始搜索窗口,將目標(biāo)顏色直方圖的反向投影圖作為模板,使用MeanShift算法作為搜索算法,通過計算反向投影圖的質(zhì)心從而得到目標(biāo)的中心位置,實現(xiàn)目標(biāo)的跟蹤。該算法主要通過3個步驟實現(xiàn),下面分別進(jìn)行介紹。

(1)反向投影圖的生成

在跟蹤過程中,對視頻圖像處理區(qū)域中的某一個像素,通過查詢目標(biāo)的顏色直方圖中相應(yīng)的值,得到該像素可能為目標(biāo)的概率,遍歷圖中的每一個像素得到目標(biāo)顏色概率分布圖,也稱之為直方圖的反向投影圖。

設(shè)被跟蹤目標(biāo)的圖像由n個像素組成,{xi}i=1,…,n表示這些像素點的位置,則目標(biāo)圖像的直方圖為:

(1)

(2)

(2)搜索窗口重心及尺寸的計算

目標(biāo)跟蹤主要涉及目標(biāo)兩個方面的變化,第一是目標(biāo)在圖像中位置的移動,第二是目標(biāo)在圖像中尺寸的變化。首先,計算目標(biāo)位置的變化。對于反向投影圖I(x,y),其搜索窗口的重心:

(xc,yc)=(M10/M00,M01/M00)

式中:M00為搜索窗口的零階矩,計算如下:

M10、M01為一階矩,計算如下:

其次,計算目標(biāo)尺寸的變化。通過計算二階矩可以得到搜索窗口的寬和高:

θ=1/2arctan[b/(a-c)],

1.3 多目標(biāo)跟蹤

CamShift算法使用直方圖對目標(biāo)區(qū)域進(jìn)行建模,通過相似性度量實現(xiàn)目標(biāo)的匹配和跟蹤。然而在多目標(biāo)跟蹤時,如果目標(biāo)之間顏色特征分布相近,則易造成目標(biāo)丟失。本文使用了一種改進(jìn)的灰度直方圖對目標(biāo)進(jìn)行建模,既能充分表達(dá)目標(biāo)特征又拋棄了冗余信息,能夠有效提高算法的魯棒性。

圖3 空間模擬目標(biāo)Fig.3 Simulated space target with six LEDs

圖4 同一幀中6個目標(biāo)的直方圖Fig.4 Histograms of six LED targets in the same image frame

圖3為搭載了6個LED燈的空間模擬目標(biāo),由于每個LED燈具有相同的結(jié)構(gòu)、尺寸和光照特性,因而由此得到的直方圖之間的差異性不大,無法準(zhǔn)確進(jìn)行多目標(biāo)區(qū)分,如圖4所示。此外,從直方圖中可以看出,大部分的像素集中在直方圖的兩端,即黑色(灰度值近零)和白色(灰度值為255)兩個部分,導(dǎo)致了直方圖中間部分被嚴(yán)重壓縮。由于全黑或全白的像素不能很好表達(dá)目標(biāo)的特點,在實際跟蹤中,應(yīng)該去除這兩部分的影響。由于每個LED燈相對相機(jī)的位置、角度不同,因而成像后光斑形狀與中心亮度不同,所以每個目標(biāo)輻射出來的灰度漸變區(qū)域也有所不同,因此目標(biāo)的亮度信息主要集中在目標(biāo)輪廓周圍到背景的漸變區(qū)域中。

目標(biāo)特征選擇的算法流程如表1所示。

表1 特征選擇算法

其中f(x,y)為目標(biāo)原始灰度圖像,灰度范圍為[minf(x,y),maxf(x,y)],共有N個灰度級,h(rk)=nk為f(x,y)的直方圖,rk是第k級灰度,nk是圖像中灰度級為rk的像素個數(shù)。I(x,y)為其二值圖像,T為二值化閾值,A為膨脹處理(⊕)的結(jié)構(gòu)元素,iter為循環(huán)標(biāo)識符,c為壓縮比例閾值,G為像素個數(shù)閾值,l表示像素數(shù)少于G的灰度級的個數(shù)。如果算法不是第一次進(jìn)入循環(huán),則用結(jié)構(gòu)元素B(size(B)

圖5所示為特征選取后目標(biāo)直方圖??梢钥闯鼋?jīng)過對特征的篩選,目標(biāo)包含了更豐富的灰度信息,且不同目標(biāo)之間的差異性增強(qiáng),有利于目標(biāo)的檢測與跟蹤。

圖5 基于特征選取的目標(biāo)直方圖Fig.5 Histograms of six LED targets based the feature selectio

1.4 目標(biāo)特征自適應(yīng)更新

在機(jī)械臂抓捕過程中,由于受到光照方向、目標(biāo)姿態(tài)等外界環(huán)境的影響,目標(biāo)特征在整個圖像序列上也會發(fā)生變化,如圖6所示,因此必須使用目標(biāo)特征更新策略來保證長時間跟蹤的穩(wěn)定性和魯棒性。本節(jié)將介紹一種目標(biāo)特征更新機(jī)制,該機(jī)制使用不變矩來度量模板與目標(biāo)之間的相似性,從而實現(xiàn)目標(biāo)特征的自適應(yīng)更新。

圖6 同一目標(biāo)的表觀變化情況Fig.6 Different appearances of one LED target

1.4.1 相似性度量方法

空間目標(biāo)運(yùn)動過程中會受到姿態(tài)偏轉(zhuǎn)或光照條件影響,導(dǎo)致目標(biāo)在圖像中的投影外形發(fā)生變化。我們期望尋找一種對上述變化敏感而對目標(biāo)的平移、縮放和旋轉(zhuǎn)不敏感的相似性度量方法。本節(jié)中使用了HU不變矩[16]作為相似性度量的方法。HU不變矩是圖像二階和三階中心矩的函數(shù)。對于大小為M×N的數(shù)字圖像f(x,y),其二維(p+q)階矩和中心矩分別定義為:

歸一化(p+q)階中心矩定義為:

由此可以得到7個HU不變矩:

φ1=η20+η02

φ3=(η30-3η12)2+(3η21-η03)2

φ4=(η30+η12)2+(η21+η03)2

φ5= (η30-3η12)(η30+η12)[(η30+η12)2-

3(η21+η03)2]+(3η21-η03)(η21+η03)·

[3(η30+η12)2-(η21+η03)2]

φ6= (η20-η02)[(η30+η12)2-(η21+η30)2]+

4η11(η30+η12)(η21+η03)

φ7= (3η21-η03)(η30+η12)[(η30+η12)2-

3(η21+η03)2]+(3η12-η30)(η21+η03)·

[3(η30+η12)2-(η21+η03)2]

本文中,使用了由不變矩構(gòu)成的對比度量標(biāo)準(zhǔn),來計算兩個目標(biāo)之間的相似性[17]。對比度量標(biāo)準(zhǔn)的公式為:

(3)

1.4.2 模板更新機(jī)制

(1)特征選取

通常情況下,對灰度圖像或輪廓圖像進(jìn)行HU不變矩計算,來比對相似性。本文所用的6個發(fā)光合作目標(biāo),其灰度圖像中存在著大量白色區(qū)域(如圖7(a)所示),這些區(qū)域的區(qū)分度不高,對于相似性的度量沒有貢獻(xiàn)。而對于輪廓圖像,則信息過于單一(如圖7(b)所示),只包含了目標(biāo)的形狀特征,尤其是在進(jìn)行矩運(yùn)算時,不同目標(biāo)的矩可能相同。因此,選取了目標(biāo)反向投影圖(如圖7(c)所示)的HU矩特征來比對相似性。

圖7 目標(biāo)特征Fig.7 Features of six LED targets

(2)更新機(jī)制

目標(biāo)在運(yùn)動過程中由于抖動或者干擾,會出現(xiàn)單幀跳變的現(xiàn)象,只有目標(biāo)形態(tài)連續(xù)發(fā)生變化,并且前后幀之間具有相似性,才能判定此次形態(tài)改變?yōu)榉€(wěn)定的,需要進(jìn)行模板更新。本文中利用HU不變矩判斷兩幀之間的相似性,基于模板更新的Camshift跟蹤算法如表2所示。

表2 基于模板更新的CamShift跟蹤算法

圖8為啟用模板更新機(jī)制前后圖像匹配度曲線??梢钥闯觯ㄟ^模板更新機(jī)制,不同幀之間同一目標(biāo)的相似性顯著增加。

圖8 圖像匹配度Fig.8 Matching degree of images

1.5 拋棄找回策略

自主交會對接任務(wù)是無人參與的,跟蹤定位算法應(yīng)當(dāng)具備更加機(jī)動的應(yīng)對策略,來處理相機(jī)視場內(nèi)無目標(biāo)、視場內(nèi)逐漸出現(xiàn)目標(biāo),以及視場內(nèi)若干目標(biāo)消失等情況?;谝陨蠁栴},本節(jié)給出了一種目標(biāo)的發(fā)現(xiàn)、拋棄與找回策略。當(dāng)相機(jī)視場內(nèi)無目標(biāo)時,算法可以讀入視頻,等待目標(biāo)出現(xiàn);當(dāng)目標(biāo)出現(xiàn)以后,算法能夠自動檢測出目標(biāo)個數(shù)及所在位置;當(dāng)目標(biāo)臨近邊界時,算法能夠拋棄即將移出視場的目標(biāo);當(dāng)目標(biāo)逐漸移回視場時,算法也具備找回移入目標(biāo)的功能。

(1)檢測算法

當(dāng)跟蹤開始及有新目標(biāo)移入視場后,都需要對圖像進(jìn)行檢測以確定目標(biāo)的位置及個數(shù)。本文使用了輪廓檢測來實現(xiàn)這一功能。在輪廓檢測之前,首先要對圖像進(jìn)行形態(tài)學(xué)濾波、閾值化等預(yù)處理獲取目標(biāo)區(qū)域的二值圖;然后尋找二值圖的輪廓,如圖9所示。具體的算法為:系統(tǒng)性掃描圖像,當(dāng)遇到連通區(qū)域的一個點時,以該點為起始點進(jìn)行輪廓提取并標(biāo)記邊界上的像素;當(dāng)輪廓完整閉合,掃描回到上一個位置,直到再次發(fā)現(xiàn)新的連通區(qū)域;遍歷所有連通區(qū)域以后,即可得到目標(biāo)的個數(shù)及位置。

圖9 目標(biāo)檢測Fig.9 Targets detection

(2)找回、拋棄策略

首先定義一個目標(biāo)框,使得合作目標(biāo)全部包含在該框中,計算該框與圖像邊界的距離,以此判斷是進(jìn)行目標(biāo)拋棄還是檢測找回。

在找回策略中,當(dāng)目標(biāo)框距離圖像邊界大于閾值d,則將目標(biāo)框擴(kuò)大,并在框內(nèi)進(jìn)行重新檢測,找回目標(biāo)。目標(biāo)框的擴(kuò)大過程如圖10所示,圖10(a)為跟蹤得到的目標(biāo)框。然后算法分別判斷目標(biāo)框距離4個邊界的距離,由于目標(biāo)框距離上、下、右邊界的距離大于設(shè)置的閾值d,所以對目標(biāo)框進(jìn)行相應(yīng)擴(kuò)大,如圖10(b)~(d)所示。擴(kuò)大后的目標(biāo)框中包含了一個剛剛由邊界進(jìn)入圖像的目標(biāo),此時再在目標(biāo)框內(nèi)進(jìn)行目標(biāo)檢測,可以找回在上幀中被拋棄的目標(biāo)。

圖10 找回策略中的目標(biāo)框變化Fig.10 Variations of target box in the retrieve strategy

在拋棄策略中,當(dāng)目標(biāo)框超出圖像邊界時,拋棄距離邊界最近的目標(biāo),目標(biāo)框縮小,再次檢測目標(biāo)框是否超出邊界,如果超出則繼續(xù)刪除目標(biāo),直至拋棄所有臨近邊界的目標(biāo)。目標(biāo)框縮小的過程如圖11所示。圖11(a)中算法檢測到目標(biāo)框已經(jīng)超出圖像上邊界,此時刪除距離上邊界最近的一個目標(biāo),再次進(jìn)行檢測,發(fā)現(xiàn)目標(biāo)框還是超出邊界,繼續(xù)刪除目標(biāo),目標(biāo)框縮小為圖11(b)所示。此時目標(biāo)框在圖像邊界內(nèi),拋棄結(jié)束,進(jìn)入下一幀。

圖11 拋棄策略中的目標(biāo)框變化Fig.11 Variations of target box in the abandon strategy

設(shè)圖像尺寸為H×W,圖像的坐標(biāo)及目標(biāo)框的位置如圖12所示。目標(biāo)拋棄與找回策略算法流程如表3所示。

圖12 圖像的坐標(biāo)及目標(biāo)框的定義Fig.12 Image coordinate and definition of target box

Step1目標(biāo)跟蹤,得到目標(biāo)框x,y,Wf,Hf()。Step2if W-x+Wf()>d,目標(biāo)框向右擴(kuò)。if x>d,目標(biāo)框向左擴(kuò)。if H-y+Hf()>d,目標(biāo)框向下擴(kuò)。if y>d,目標(biāo)框向上擴(kuò)。Step3if 目標(biāo)框擴(kuò)大,目標(biāo)框內(nèi)重新檢測,得到新的目標(biāo)框x',y',W'f,H'f()。Step4if x'>0&&y'>0&&x'+W'f

上述算法分為4個步驟,Step 2根據(jù)目標(biāo)框與圖像邊界之間的距離關(guān)系實現(xiàn)目標(biāo)框的擴(kuò)大,Step 3在擴(kuò)大的目標(biāo)框內(nèi)對目標(biāo)進(jìn)行重新檢測,Step 4則判斷新的目標(biāo)框是否出界,刪除出界的目標(biāo)。算法中變量d為距離閾值。

2 仿真校驗

針對以上方法,本節(jié)將進(jìn)行3個試驗。試驗一驗證目標(biāo)特征選取算法的正確性,試驗二驗證模板更新的正確性,試驗三驗證目標(biāo)處于復(fù)雜運(yùn)動狀態(tài)(目標(biāo)形態(tài)改變,移入移出視場)時跟蹤的正確性與連續(xù)性。此外,還對跟蹤速度進(jìn)行了測量。

本節(jié)中,利用已有的月球車雙目相機(jī)系統(tǒng)中的單個相機(jī)對手動移動的空間模擬目標(biāo)進(jìn)行跟蹤。用Viewworks公司的高性能視覺相機(jī)VA-1MC作為圖像采集設(shè)備,鏡頭加裝濾光片,用臺式電腦(CPU為Intel 2140,主頻達(dá)到1.6 GHz,內(nèi)存為1.93 GB)作為圖像處理計算機(jī)。在微軟Visual Studio 2008軟件平臺上,利用Intel公司提供的用于計算機(jī)視頻處理的OpenCV庫函數(shù),對采集的視頻進(jìn)行運(yùn)動檢測編程實現(xiàn)。錄制的空間模擬目標(biāo)的視頻時長70 s,幀速率24幀/s,圖片大小1 024×1 024。空間模擬目標(biāo)如圖13(a)所示,模擬目標(biāo)為一個同軸環(huán)形光源,6個LED燈均勻分布在直徑為15 cm、內(nèi)徑為7 cm的同軸環(huán)形平面上,濾光后目標(biāo)圖像如圖13(b)所示。目標(biāo)運(yùn)動過程中與相機(jī)之間的夾角在±30°之間。

圖13 空間模擬目標(biāo)Fig.13 Simulated space target

圖14 圖像匹配度Fig.14 Matching degree of images

試驗一,驗證目標(biāo)特征選取算法的正確性。在本試驗中,使用了160幀圖像序列,利用公式(3)分別計算同一幀中不同目標(biāo)之間的相似性與同一目標(biāo)與模板之間的相似性。圖14依次給出了使用特征選擇算法前后6個目標(biāo)圖像匹配度的曲線。點畫線(線Ⅰ)和短虛線(線Ⅱ)分別表示特征選擇前后,同一幀圖像中,不同目標(biāo)之間的匹配度。長虛線(線Ⅲ)和實線(線Ⅳ)分別表示特征選取前后,同一目標(biāo)與模板之間的匹配度。匹配度值越小,說明目標(biāo)之間越相似;反之,說明目標(biāo)之間越不相似。表4給出了四條曲線的均值列表。

表4 匹配度均值

分析表4可以得出:1)線Ⅱ均值高于線Ⅰ均值,說明經(jīng)過特征選取以后,同一幀中,不同目標(biāo)之間的差異性增強(qiáng)。2)線Ⅱ均值大于線Ⅳ均值,說明經(jīng)過特征選取以后,目標(biāo)與模板之間的相似性大于不同目標(biāo)之間的相似性。3)在目標(biāo)1、3、5上線Ⅲ均值顯著高于線Ⅰ均值,說明沒有特征選取時,多個目標(biāo)出現(xiàn)目標(biāo)與模板之間的差異性大于多目標(biāo)之間的差異性。4)在目標(biāo)1、3、5上,線Ⅳ均值小于線Ⅲ均值,說明特征選取算法改進(jìn)了這幾個目標(biāo)與模板之間的相似性;在目標(biāo)2、4、6出現(xiàn)了線Ⅳ均值高于線Ⅲ均值,說明沒有特征選取時,多目標(biāo)之間以及目標(biāo)與模板之間不能明顯地區(qū)分開來。通過上述分析可以看出,特征選取算法能夠顯著提高目標(biāo)與模板之間的相似性,增加多目標(biāo)之間的差異性,從而有利于多目標(biāo)的準(zhǔn)確、穩(wěn)定跟蹤。

試驗二,驗證模板更新的正確性。本試驗中,選取了視頻的前140幀來測試更新機(jī)制的性能。由于6個合作目標(biāo)的更新機(jī)制一樣,以其中一個目標(biāo)為例,對模板更新的結(jié)果進(jìn)行展示。圖15給出了目標(biāo)形態(tài)漸變的過程。以第0幀目標(biāo)圖像的反向投影圖作為模板,分別計算每一幀目標(biāo)圖像的反向投影圖與模板的匹配度,當(dāng)匹配度超過所設(shè)定的閾值,也就是說此時目標(biāo)圖像的反向投影圖與模板的差異較大,隨即啟動模板更新機(jī)制。從圖15可以看出,在第24幀、第92幀、第115幀、第132幀進(jìn)行了模板的更新,而此時圖像的反向投影圖確實是與初始模板有較大差異。

圖15 跟蹤過程中的模板更新Fig.15 Template update in the tracking

試驗三,驗證跟蹤過程穩(wěn)定性、連續(xù)性和實時性試驗。在本試驗中,使用空間模擬目標(biāo)的運(yùn)動視頻檢測跟蹤算法。視頻中關(guān)鍵幀的跟蹤結(jié)果如圖16所示??梢钥闯?,在跟蹤過程中,多個目標(biāo)形態(tài)發(fā)生明顯變化,算法能夠通過及時的模板更新策略,保證了跟蹤過程的穩(wěn)定性。在臨近邊界時,出現(xiàn)多個目標(biāo)出入視場的情況,算法能夠準(zhǔn)確對目標(biāo)進(jìn)行拋棄和找回,保證了跟蹤過程的連續(xù)性。最后,表5給出了98幀圖像的處理速度,結(jié)果表明,算法能夠?qū)崿F(xiàn)10幀/s以上的目標(biāo)穩(wěn)定跟蹤,保證了跟蹤過程的實時性。

圖16 目標(biāo)跟蹤過程Fig.16 Process of targets tracking

幀數(shù)目標(biāo)跟蹤速度/s1^7幀0.110.0940.1090.0940.110.1090.0948^14幀0.0940.1090.0930.1090.0940.0940.09315^21幀0.0940.0940.0940.1090.0940.1090.09422^28幀0.1090.0930.1090.0940.1090.0940.09429^35幀0.0930.0940.0930.110.0940.0940.09336^42幀0.0930.0940.0930.0930.0930.1090.12543^49幀0.0940.0940.0940.1090.1090.0940.10950^56幀0.0930.1090.0930.1090.0930.0940.09357^63幀0.0930.110.0940.110.110.0930.09364^70幀0.1090.0940.1090.0930.1090.0940.09471^77幀0.0940.110.0930.1090.1090.0940.09378^84幀0.0940.0930.0930.1090.0940.1090.09485^91幀0.0940.0940.0940.1090.1090.0930.10992^98幀0.0940.0930.1090.0940.0940.0930.094

3 結(jié)束語

本文針對航天器自主交會對接和機(jī)械臂抓捕空間站艙段或貨運(yùn)飛船過程中基于視覺的跟蹤技術(shù)開展研究,提出了一種基于反向投影模板自適應(yīng)更新的快速跟蹤方法。該算法以CamShift算法為基礎(chǔ),做出了以下3方面的改進(jìn):一是,針對靶標(biāo)中多個相似的發(fā)光目標(biāo)跟蹤問題給出了一種特征選擇算法,該算法能夠有效地提取出具有代表性的目標(biāo)特征,消除隨變性小的信息對跟蹤的影響;二是,針對跟蹤過程中目標(biāo)形變問題給出了一種自適應(yīng)的模板更新算法,該算法能夠解決機(jī)械臂對目標(biāo)漸進(jìn)式捕獲過程中由于光照角度、目標(biāo)姿態(tài)的變化而導(dǎo)致的圖像形變;三是,針對目標(biāo)進(jìn)出視場問題,給出了一種臨近邊界目標(biāo)拋棄、找回策略,解決了由于抖動或運(yùn)動規(guī)劃約束而導(dǎo)致目標(biāo)從相機(jī)視場中移入、移出的情況。最后,通過試驗驗證了算法的有效性與時效性。下一步的工作中,將利用即將建設(shè)完成的空間機(jī)械臂遙操作動態(tài)導(dǎo)航定位地面模擬視覺系統(tǒng)中的6自由度機(jī)械臂模擬系統(tǒng)對目標(biāo)的運(yùn)動狀態(tài)開展深入分析,對目標(biāo)在不同角度與速度下的跟蹤狀態(tài)開展研究并進(jìn)行量化分析。

References)

[1] 周建平.天宮一號/神舟八號交會對接任務(wù)總體評述[J].載人航天,2012,18(1):1-5.

ZHOU J P. A review of Tiangong-1/Shenzhou-8 rendezvous and docking mission[J]. Manned Spaceflight,2012,18(1):1-5(in Chinese).

[2] HOWARD R T,JOHNSTON A S,BRYAN T C,et al. Advanced video guidance sensor (AVGS) development testing[C]∥SPIE Defense and Security Symposium. Orlando:SPIE,2004:50-60.

[3] ODA M. Attitude control experiments of a robot satellite[J]. Journal of Spacecraft and Rockets,2000,37(6):788-793.

[4] YAMANISHI N,SAKASHITA T,KAMIYA T. CFD study for air ventilation optimization in the H-II Transfer Vehicle (HTV) pressurized logistic carrier (PLC)[C]∥40th International Conference on Environmental Systems. Barcelona:AIAA,2010:12-14.

[5] CISLAGHI M,F(xiàn)EHSE W,PARIS D,et al. The ATV rendezvous predevelopment programme (ARP)(AAS 99-024)[J]. Advances in Astronautical Astronautical Sciences,1999,101: 259-280.

[6] SUSLENNIKOV V. Radio system for automatic rendezvous and docking of Soyuz Progress spacecraft and MIR space station[C]∥Proceedings of the Third European In-orbit Operation Technology Symposium. Noordwijk:ESTEC,1993:101-106.

[7] 徐拴鋒,楊保華,張篤周,等. 面向非合作目標(biāo)抓捕的機(jī)械臂軌跡規(guī)劃方法[J]. 中國空間科學(xué)技術(shù),2014,34(4):8-15.

XU S F,YANG B H,ZHANG D Z,et al. Trajectory planning algorithm for manipulators capturing non-cooperative object[J]. Chinese Space Science and Technology,2014,34(4):8-15(in Chinese).

[8] 唐國金,羅亞中,張進(jìn). 空間交會對接任務(wù)規(guī)劃[M]. 北京:科學(xué)出版社,2008:93-94.

TANG G J,LUO Y Z,ZHANG J. Mission planning of space rendezvous and docking[M]. Beijing:Science Press,2008:93-94(in Chinese).

[9] 胡軍,解永春,張昊,等. 神舟八號飛船交會對接制導(dǎo),導(dǎo)航與控制系統(tǒng)及其飛行結(jié)果評價[J]. 空間控制技術(shù)與應(yīng)用,2011,37(6):1-5.

HU J,XIE Y C,ZHANG H,et al. Shenzhou-8 spacecraft guidance navigation and control system and flight result evaluation for rendezvous and docking[J]. Areospace Control and Application,2011,37(6):1-5(in Chinese).

[10] KELSEY J M,BYRNE J,COSGROVE M,et al. Vision-based relative pose estimation for autonomous rendezvous and docking[C]∥27th IEEE Aerospace Conference,Big Sky,MT:IEEE,2006:20.

[11] 溫卓漫,王延杰,邸男,等. 空間站機(jī)械臂位姿測量中合作靶標(biāo)的快速識別[J]. 航空學(xué)報,2015,36(4):1330-1338.

WEN Z M,WANG Y J,DI N,et al. Fast recognition of cooperative target used for position and orientation measurement of space station′s robot arm [J]. Acta Aeronautica ET Astronautica Sinica,2015,36(4):1330-1338(in Chinese).

[12] WU J,LI J,XIAO C,et al. Real-time robust algorithm for circle object detection[C]∥Proceedings of the 9th International Conference for Young Computer Scientists,Zhangjiajie,China,18-21 November,2008:1722-1727.

[13] 高升,袁寶峰,齊哲,等. 基于稀疏直方圖的空間機(jī)械臂視覺目標(biāo)跟蹤方法[J]. 航天返回與遙感,2015,36(3):92-98.

GAO S,YUAN B F,QI Z,et al. Space manipulator visual object tracking method using sparsity-based histogram[J].Spacecraft Recovery and Remote Sensing,2015,36(3):92-98(in Chinese).

[14] GARY R B. Computer vision face tracking for use in a perceptual user interface[C]∥IEEE Workshop on Applications of Computer Vision. Princeton:IEEE,1998:214-219.

[15] CHENG Y. Mean shift,mode seeking,and clustering[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,1995,17(8):790-799.

[16] HU M K. Visual pattern recognition by moment invariants[J]. IRE Transactions on Information Theory,1962,8(2):179-187.

[17] BRADSKI G,KAEHLER A. Learning OpenCV: computer vision with the OpenCV library[M]. Sebastopol:O′Reilly Media Inc.,2008:279-283.

猜你喜歡
視場直方圖相似性
一種晶圓自動光學(xué)檢測系統(tǒng)的混合路徑規(guī)劃算法
大視場日盲紫外告警系統(tǒng)研究
Bp-MRI灰度直方圖在鑒別移行帶前列腺癌與良性前列腺增生中的應(yīng)用價值
基于差分隱私的高精度直方圖發(fā)布方法
基于元數(shù)據(jù)的流程模型相似性度量方法
提高多相機(jī)視場組合精度的調(diào)節(jié)措施
蔡司勝利
12個毫無違和感的奇妙動物組合
例析頻率分布直方圖
基于隱喻相似性研究[血]的慣用句
泰顺县| 长岛县| 永清县| 乐亭县| 巴南区| 金门县| 攀枝花市| 商河县| 鲜城| 泰兴市| 白玉县| 鄂温| 鄢陵县| 射洪县| 沂源县| 姜堰市| 大洼县| 三都| 文安县| 长葛市| 阜新市| 宜昌市| 牡丹江市| 新闻| 格尔木市| 固原市| 进贤县| 改则县| 岢岚县| 嘉祥县| SHOW| 兖州市| 华坪县| 东莞市| 原平市| 上饶县| 新龙县| 江孜县| 定安县| 湘乡市| 福州市|