国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于改進(jìn)HOG特征的空間非合作目標(biāo)檢測(cè)

2016-02-24 07:01:04陳路黃攀峰蔡佳
航空學(xué)報(bào) 2016年2期
關(guān)鍵詞:帆板梯度物體

陳路, 黃攀峰, *, 蔡佳

1. 西北工業(yè)大學(xué) 航天飛行動(dòng)力學(xué)技術(shù)重點(diǎn)實(shí)驗(yàn)室, 西安 710072 2. 西北工業(yè)大學(xué) 航天學(xué)院智能機(jī)器人研究中心, 西安 710072

基于改進(jìn)HOG特征的空間非合作目標(biāo)檢測(cè)

陳路1, 2, 黃攀峰1, 2, *, 蔡佳1, 2

1. 西北工業(yè)大學(xué) 航天飛行動(dòng)力學(xué)技術(shù)重點(diǎn)實(shí)驗(yàn)室, 西安 710072 2. 西北工業(yè)大學(xué) 航天學(xué)院智能機(jī)器人研究中心, 西安 710072

傳統(tǒng)的非合作目標(biāo)檢測(cè)方法大都基于一定的匹配模板,這不僅需要預(yù)先指定先驗(yàn)信息,進(jìn)而設(shè)計(jì)合適的檢測(cè)模板,而且同一模板只能對(duì)具有相似形狀的目標(biāo)進(jìn)行檢測(cè),不易直接用于檢測(cè)形狀未知的非合作目標(biāo)。為降低檢測(cè)過(guò)程中對(duì)目標(biāo)形狀等先驗(yàn)信息的要求,借鑒基于規(guī)范化梯度的物體區(qū)域估計(jì)方法,提出一種基于改進(jìn)方向梯度直方圖特征的目標(biāo)檢測(cè)方法,首先構(gòu)建包含有自然圖像和目標(biāo)圖像的訓(xùn)練數(shù)據(jù)集;然后提取標(biāo)記區(qū)域的改進(jìn)方向梯度直方圖特征,以更好地保持局部特征的結(jié)構(gòu)性,并根據(jù)級(jí)聯(lián)支持向量機(jī)訓(xùn)練模型,從數(shù)據(jù)集中自動(dòng)學(xué)習(xí)目標(biāo)物體的判別特征;最后,將訓(xùn)練后的模型用于檢測(cè)測(cè)試集圖像中的目標(biāo)。實(shí)驗(yàn)結(jié)果表明,算法在由4 953幅和100幅圖像構(gòu)成的測(cè)試集中分別取得94.5% 和94.2%的檢測(cè)率,平均每幅圖像的檢測(cè)時(shí)間約為0.031 s,具有較低的時(shí)間開(kāi)銷,且對(duì)目標(biāo)的旋轉(zhuǎn)及光照變化具有一定的魯棒性。

非合作目標(biāo); 目標(biāo)識(shí)別; 規(guī)范化梯度; 方向梯度直方圖; 局部特征

隨著航天技術(shù)的不斷發(fā)展,各國(guó)對(duì)于故障衛(wèi)星維修、近距離目標(biāo)捕獲、軌道垃圾清理等新型在軌服務(wù)技術(shù)的需求日益迫切。傳統(tǒng)空間機(jī)器人的機(jī)械臂幾乎屬于全剛體系統(tǒng),加上其作用范圍受到機(jī)械臂長(zhǎng)度和剛體靈活性的限制,因此空間機(jī)械臂主要用于合作目標(biāo)的抓捕和操作,不能很好地適應(yīng)未來(lái)的空間碎片清理等任務(wù)??臻g繩系機(jī)器人系統(tǒng)利用柔性系繩代替多自由度剛性機(jī)械臂,在任務(wù)安全性和可靠性等方面有了顯著提高。系繩結(jié)構(gòu)的應(yīng)用不僅減少了平臺(tái)向目標(biāo)移動(dòng)過(guò)程中的能量消耗,而且避免了平臺(tái)與目標(biāo)的直接接觸,從而消除了與目標(biāo)直接碰撞的可能,因而在未來(lái)的空間操作中有著廣泛的應(yīng)用前景。

空間繩系機(jī)器人由空間機(jī)動(dòng)平臺(tái)、空間系繩和捕獲裝置3部分構(gòu)成,如圖1所示。在軌捕獲過(guò)程分為3個(gè)階段:①空間平臺(tái)的繞飛階段,即空間機(jī)動(dòng)平臺(tái)進(jìn)行的遠(yuǎn)程、中近距離的目標(biāo)搜索和監(jiān)測(cè)過(guò)程;②空間繩系機(jī)器人捕獲目標(biāo)階段,即空間機(jī)動(dòng)平臺(tái)到達(dá)作用距離內(nèi)時(shí)(約200 m),操作機(jī)器人被平臺(tái)釋放,自主完成目標(biāo)追蹤、識(shí)別和抓捕的過(guò)程;③空間機(jī)動(dòng)平臺(tái)把目標(biāo)拖入墳?zāi)管壍赖倪^(guò)程,即空間繩系機(jī)器人抓住目標(biāo)衛(wèi)星后,空間機(jī)動(dòng)平臺(tái)將目標(biāo)衛(wèi)星由原軌道拖入墳?zāi)管壍赖倪^(guò)程[1]。

圖1 空間繩系機(jī)器人系統(tǒng)示意圖

Fig. 1 Diagram of tethered space robot system

目標(biāo)特征提取是非合作目標(biāo)位姿測(cè)量的基礎(chǔ),在逼近非合作目標(biāo)的過(guò)程中,機(jī)器人需要對(duì)目標(biāo)進(jìn)行識(shí)別、跟蹤并測(cè)量目標(biāo)的結(jié)構(gòu)、運(yùn)動(dòng)軌跡、空間位置和三維姿態(tài)等信息?;谝曈X(jué)系統(tǒng)的空間目標(biāo)檢測(cè)/識(shí)別是獲取這些信息的重要手段。

因此本文的出發(fā)點(diǎn)是根據(jù)目標(biāo)檢測(cè)/識(shí)別算法確定目標(biāo)的待抓捕區(qū)域,縮減感興趣區(qū)域的尺寸,從而為后續(xù)目標(biāo)特征點(diǎn)等特征的提取排除背景信息的干擾。研究表明,盡管非合作目標(biāo)的結(jié)構(gòu)各不相同,但它們有諸多相似的部件,如用于星箭相連的分離螺栓、對(duì)接環(huán),用于連接太陽(yáng)帆板與衛(wèi)星本體的太陽(yáng)帆板支架等,這些非合作目標(biāo)星共有的特征是機(jī)器人抓捕操作的理想部位。不失一般性,本文選取目標(biāo)星本體與帆板連接處的三角形或多邊形支架作為待識(shí)別區(qū)域。

傳統(tǒng)的衛(wèi)星帆板檢測(cè)算法往往基于一定的先驗(yàn)信息,并針對(duì)具有相似形狀特征的識(shí)別目標(biāo)。徐文福等[2]針對(duì)三角形類衛(wèi)星帆板支架,提出基于立體視覺(jué)的目標(biāo)識(shí)別算法;Wong[3]指出與空間域相比,頻率域的非合作目標(biāo)識(shí)別具有更大的優(yōu)勢(shì),更易區(qū)分不同的飛行器類別;Ramirez等[4]將遺傳算法應(yīng)用于圖像中四邊形的檢測(cè),算法對(duì)高斯噪聲污染和形變具有一定的魯棒性。文獻(xiàn)[5]提出一種基于彈性網(wǎng)稀疏編碼的特征袋模型,能夠較好地識(shí)別目標(biāo);文獻(xiàn)[6]借鑒FAST算法的空心圓環(huán)結(jié)構(gòu)提出一種具有旋轉(zhuǎn)不變性的模板匹配算法,有較強(qiáng)的抗噪聲和抑制光照變化的能力。文獻(xiàn)[7]通過(guò)提出一種光照模糊相似融合不變矩,有效解決了不同位姿和光照條件的航天器目標(biāo)識(shí)別問(wèn)題;文獻(xiàn)[8]通過(guò)網(wǎng)絡(luò)參數(shù)的不斷調(diào)整,將目標(biāo)的特征反映到網(wǎng)絡(luò)結(jié)構(gòu)中,以實(shí)現(xiàn)對(duì)圖像目標(biāo)的識(shí)別,但算法僅突出了目標(biāo)特征,并未對(duì)目標(biāo)的位置信息進(jìn)行預(yù)測(cè)。

上述方法在所假設(shè)的目標(biāo)形狀特征下,具有較好的檢測(cè)效果,但在實(shí)際中,帆板支架的結(jié)構(gòu)各不相同,且帆板的旋轉(zhuǎn)角度也會(huì)隨時(shí)變化,很難找到不同條件下都能得到滿意結(jié)果的檢測(cè)模板。

本文提出一種基于改進(jìn)方向梯度直方圖(Histogram of Oriented Gradient, HOG)特征的目標(biāo)定位算法,首先建立含有標(biāo)記信息的帆板圖像訓(xùn)練集,分別提取帆板目標(biāo)區(qū)域和非目標(biāo)區(qū)域的特征,然后采用級(jí)聯(lián)支持向量機(jī)(Cascaded Support Vector Machine, Cascaded SVM)框架訓(xùn)練特征模型,最后通過(guò)訓(xùn)練模型檢測(cè)測(cè)試集圖像中的帆板支架區(qū)域。實(shí)驗(yàn)結(jié)果表明,在不同視角、不同帆板旋轉(zhuǎn)角度下,文中所提算法均能夠以較低的時(shí)間開(kāi)銷,高準(zhǔn)確度定位帆板支架。

1 區(qū)域提取方法

現(xiàn)有識(shí)別算法的檢測(cè)器大都依賴于圖像的種類,即一種檢測(cè)器只能識(shí)別一類或多類相似的物體,這導(dǎo)致在目標(biāo)檢測(cè)/識(shí)別過(guò)程中,需用不同的檢測(cè)器對(duì)同一物體進(jìn)行檢測(cè),以確定物體是否屬于特定類中的實(shí)例[9],并且采用滑窗的方式定位物體需要在不同尺度和位置下進(jìn)行檢測(cè),搜索區(qū)域較大,因此上述算法的時(shí)間復(fù)雜度較高。為降低待分類區(qū)域的數(shù)目,研究人員提出不依賴于目標(biāo)種類的物體測(cè)量方法。物體度定義為圖像窗口包含有某種物體的概率,而不考慮物體的具體分類,概率越大意味著當(dāng)前窗口中包含有完整物體的可能性越大。

由文獻(xiàn)[10-11],物體可看作圖像中具有閉合邊界的孤立元素,其與周圍背景元素的相關(guān)性較弱。傳統(tǒng)基于空間的理論認(rèn)為人在觀察圖像時(shí),注意力會(huì)從一個(gè)空間位置轉(zhuǎn)移到另一個(gè)空間位置[12],而認(rèn)知學(xué)的研究表明,人類視覺(jué)更傾向于首先識(shí)別圖像中的物體,通過(guò)簡(jiǎn)單的選擇機(jī)制初步確定潛在的物體區(qū)域,這也驗(yàn)證了通過(guò)物體度確定潛在物體區(qū)域的可行性。文獻(xiàn)[13]提出結(jié)合圖像的形狀、顏色和紋理等特征,對(duì)物體的潛在區(qū)域進(jìn)行測(cè)量,從而得到潛在區(qū)域中包含有物體的概率;文獻(xiàn)[14]引入級(jí)聯(lián)形式,提高了潛在區(qū)域評(píng)價(jià)的速度和精度;文獻(xiàn)[15]基于圖像的梯度信息,提出一種非??焖俚臐撛趨^(qū)域評(píng)價(jià)算法。

文獻(xiàn)[15]將標(biāo)記圖像目標(biāo)區(qū)域的規(guī)范化梯度(Normed Gradient, NG)作為區(qū)分物體區(qū)域和非物體區(qū)域的特征。首先選取不同尺度和方向比下的窗口{(W0,H0)},其中W0和H0分別表示窗口的尺寸,且W0,H0∈{10,20,40,80,160,320},計(jì)算其NG特征。然后采用線性模型w評(píng)價(jià)當(dāng)前窗口:

(1)

式中:hl為窗口l所表示的NG特征;fl為w濾波后特征的評(píng)價(jià)值;i和(x,y)分別代表窗口l的尺寸和位置。對(duì)于尺寸i下的潛在區(qū)域,通過(guò)非極大值抑制(Non-MaximalSuppression,NMS)保留局部區(qū)域的最大響應(yīng),以達(dá)到減小搜索區(qū)域的目的。

基于以下事實(shí):相比于由長(zhǎng)寬方向比值較大的矩形包圍的區(qū)域,長(zhǎng)寬比接近于1的區(qū)域中包含有物體的可能性更大,窗口區(qū)域的評(píng)價(jià)指標(biāo)進(jìn)一步修正為

sl=aifl+bi

(2)

式中:ai和bi分別為尺寸i下的訓(xùn)練系數(shù)和偏置項(xiàng);sl為窗口的最終評(píng)價(jià)值,即窗口中包含有物體的概率。

為得到圖像窗口包含物體的概率值,采用文獻(xiàn)[16]的級(jí)聯(lián)SVM方法訓(xùn)練參數(shù):

1) 將標(biāo)記區(qū)域的NG特征看作正樣本,隨機(jī)采樣非標(biāo)記區(qū)域,其特征作為負(fù)樣本,利用線性SVM訓(xùn)練模型w。

2) 采用線性SVM訓(xùn)練參數(shù)ai、bi。對(duì)訓(xùn)練集的已標(biāo)記圖像,利用式(1)和式(2)生成非極大值抑制后的潛在物體區(qū)域,通過(guò)與真實(shí)標(biāo)記的對(duì)比達(dá)到訓(xùn)練參數(shù)的目的。

上述訓(xùn)練方法具有較小的訓(xùn)練時(shí)間開(kāi)銷,并在PASCALVOC2007[17]數(shù)據(jù)集上取得了很好的物體定位效果,但上述算法將圖像梯度值的歐氏距離作為判別特征,如式(3)所示:

hl=min(|Gx|+|Gy|,255)

(3)

式中:Gx和Gy為窗口l對(duì)應(yīng)圖像塊的梯度值。雖然梯度特征具有計(jì)算簡(jiǎn)單、運(yùn)行速度快的優(yōu)點(diǎn),但卻沒(méi)有考慮圖像中廣泛存在的紋理信息,用梯度作為特征忽視了像素間及局部區(qū)域中所包含的方向信息,因此不能很好地作為目標(biāo)區(qū)域的判別特征。

2 基于改進(jìn)HOG特征的特征提取方法

NG特征用于VOC 2007數(shù)據(jù)集取得了較好的目標(biāo)定位效果,但在實(shí)際中,尤其是對(duì)于不包含在數(shù)據(jù)集中的物體類,人工采集的圖像易受光照、噪聲等因素的影響,往往不能夠直接使用,通常要對(duì)其進(jìn)行預(yù)處理,以增強(qiáng)圖像中的顯著特征。實(shí)驗(yàn)表明,NG特征直接應(yīng)用于預(yù)處理圖像其效果并不理想。

為減小衛(wèi)星載荷,衛(wèi)星帆板支架大都具有骨架型結(jié)構(gòu),支架上像素點(diǎn)的梯度變化方向類似,而支架與背景交界處的梯度值波動(dòng)較大,其方向同支架上的梯度變化方向正交,因此在規(guī)范化梯度的基礎(chǔ)上,引入方向信息,不僅可以包含局部區(qū)域中的方向響應(yīng),減小因離散化梯度造成的能量丟失,而且能夠表示物體的基本形狀,從而作為一種較好地判別目標(biāo)區(qū)域的特征。

2.1 方向梯度直方圖

基于如下假設(shè):雖然無(wú)法精確地估計(jì)圖像中局部灰度值的梯度分布,但其中物體的局部外觀和形狀通??梢杂蓪?duì)應(yīng)梯度和邊緣信息很好地表征和描述,文獻(xiàn)[18]提出用于特征提取的方向梯度直方圖算子;文獻(xiàn)[19]將方向梯度直方圖算子應(yīng)用于圖像/視頻行人檢測(cè),只需行人大致保持直立狀態(tài)便可取得較好的檢測(cè)效果;文獻(xiàn)[20]指出HOG算子特別適合于剛體特征的表示。HOG特征是一種梯度方向的直方圖表示,與SIFT特征[21]相比,雖然HOG特征不具備尺度不變性,但其運(yùn)算復(fù)雜度要低得多。首先全局歸一化圖像,減少光照等因素對(duì)物體識(shí)別的影響;然后計(jì)算圖像的梯度信息,捕獲物體的輪廓、紋理等特征,并進(jìn)一步降低光照因素變化的影響;進(jìn)一步,根據(jù)梯度的方向和幅值,得到各連通區(qū)域區(qū)域內(nèi)(稱為細(xì)胞)不同方向下像素分布的一維向量,為增強(qiáng)算子的魯棒性,對(duì)相鄰細(xì)胞組成的集合塊中的特征向量進(jìn)行局部歸一化;最后,將所有集合塊的向量首尾相連,形成對(duì)當(dāng)前圖像的HOG特征表示,特征提取過(guò)程如圖2所示,其中輸入圖像由數(shù)據(jù)集中圖像的標(biāo)記信息獲得。

圖2 HOG特征提取流程

Fig. 2 Flowchart of extracting HOG feature

為表示輸入圖像,HOG算子需提取高維特征表示向量,其維度為

(4)

式中:w、b、c分別為檢測(cè)窗口、塊區(qū)域和細(xì)胞區(qū)域的尺寸;s為塊區(qū)域移動(dòng)的步長(zhǎng);p為細(xì)胞內(nèi)梯度方向的數(shù)目。由于不同圖像塊之間有一定的重疊,導(dǎo)致特征表達(dá)向量存在一定的冗余度,定義r為生成特征表達(dá)向量中重疊部分所占比例,則有

r=

若相鄰塊之間沒(méi)有重疊部分,則定義冗余度為0。以w、b、c、s、p分別取72、16、8、8、9時(shí)為例,特征表示維度和冗余度分別為2 304和0.19,高維的特征表示給分類、檢測(cè)等問(wèn)題帶來(lái)計(jì)算上的壓力,并且冗余度的存在一定程度上降低了算法的執(zhí)行效率。值得注意的是,文獻(xiàn)[19]中指出這種冗余特性能夠提升行人目標(biāo)檢測(cè)效果,但本文試圖通過(guò)對(duì)HOG特征的改進(jìn)提取具有更低維數(shù)和更適合目標(biāo)和非目標(biāo)區(qū)域判別的特征,因此,有必要進(jìn)一步降低維數(shù)及冗余度。

2.2 改進(jìn)的局部特征

HOG特征將圖像塊內(nèi)多個(gè)細(xì)胞區(qū)域的不同方向的梯度響應(yīng)展開(kāi)為向量,作為當(dāng)前圖像塊特征的表達(dá),不同圖像塊之間有一定的重疊,導(dǎo)致特征表達(dá)向量存在一定的冗余,且維數(shù)較高,這使得HOG特征應(yīng)用于較大規(guī)模的數(shù)據(jù)集時(shí)不適合直接作為目標(biāo)區(qū)域和非目標(biāo)區(qū)域的判別特征。

本節(jié)首先以梯度方向?yàn)闃?biāo)準(zhǔn),將圖像塊內(nèi)多個(gè)細(xì)胞區(qū)域的梯度響應(yīng)集中于單個(gè)細(xì)胞區(qū)域,從而獲得局部區(qū)域具有最大響應(yīng)的方向,并作為當(dāng)前區(qū)域的主方向;然后,對(duì)其進(jìn)行極大值池化,使得子采樣后的特征具有一定的平移、旋轉(zhuǎn)不變性,進(jìn)而提出一種改進(jìn)的HOG特征P-HOG(Pooling-HOG)。

如圖3所示,對(duì)于輸入圖像x,首先將其放縮至72×72大小,若x的寬度和高度不相等,則改變其長(zhǎng)寬比;然后計(jì)算每個(gè)細(xì)胞內(nèi)方向梯度的分布,如圖3(b)所示,梯度方向的分布大致刻畫了物體的形狀邊緣;為獲得更好的空間不變性,將連通區(qū)域內(nèi)的多個(gè)細(xì)胞合并,以形成更強(qiáng)的局部方向響應(yīng)(見(jiàn)圖3(c));最后下采樣提取塊區(qū)域中的最大響應(yīng)值,生成對(duì)應(yīng)于原圖像的魯棒特征表達(dá)(見(jiàn)圖3(d))。此時(shí),原圖像x由一個(gè)抽象后的8×8 的判別特征表達(dá),特征的表示維度為64,通過(guò)下采樣操作,特征的冗余度同樣得到降低。

由于圖像的灰度值統(tǒng)計(jì)特性不同,加之容易受亮度、噪聲等外界因素的干擾,因此在對(duì)圖像進(jìn)行特征提取前,通常需要對(duì)其進(jìn)行預(yù)處理。文獻(xiàn)[18]中采用圖像元素求平方根或取對(duì)數(shù)的方法進(jìn)行全局歸一化,雖然降低了光照等因素對(duì)物體識(shí)別的影響,但同時(shí)也降低了物體與背景的對(duì)比度,并且單純采用平方根法或?qū)?shù)法沒(méi)有消除圖像中存在的相關(guān)性,因此本文考慮在不影響物體主要形狀邊緣的基礎(chǔ)上,盡可能抑制背景區(qū)域的光照、對(duì)比度等變化,同時(shí)消除圖像元素間的相關(guān)性。

圖3 不同階段下輸入圖像的特征表示

Fig. 3 Feature representations of input image at different stages

為降低輸入圖像特征間的相關(guān)性,并在增強(qiáng)圖像顯著性特征的同時(shí),有效抑制其他特征,按照如下步驟[22]對(duì)圖像進(jìn)行預(yù)處理。

步驟 1RGB圖像轉(zhuǎn)為灰度圖像,并放縮至固定尺寸。

步驟 2 全局歸一化,使圖像具有均值為0、方差為1的統(tǒng)計(jì)特性:

步驟3 局部歸一化,減弱非顯著性特征的影響:

式中:xi為輸入的圖像塊;mi為高斯濾波器;f(xi,mi)表示用mi對(duì)xi進(jìn)行卷積濾波;yi為局部歸一化后的圖像塊。由于實(shí)際采集到的圖像不可避免地存在一定程度的噪聲,為在圖像的預(yù)處理階段減少噪聲信息的干擾,文中應(yīng)用維納濾波器于局部歸一化過(guò)程,結(jié)果如圖4所示。

圖4 不同預(yù)處理方式下圖像的輸出對(duì)比

Fig. 4 Output comparison of input image with different pre-processing procedures

同只采用全局歸一化的預(yù)處理結(jié)果相比,局部歸一化后的圖像更能突出物體的特征輪廓,并可抑制背景等無(wú)關(guān)信息的干擾;應(yīng)用維納濾波表現(xiàn)為對(duì)原圖像細(xì)節(jié)的模糊,尤其是當(dāng)圖像中噪聲較少時(shí),同時(shí)對(duì)圖像中邊緣等具有局部顯著性的特征加以增強(qiáng)。

2.3 算法流程

在基于二元規(guī)范化梯度的物體區(qū)域估計(jì)框架基礎(chǔ)上,引入改進(jìn)的方向梯度直方圖特征描述算子,能夠保留局部區(qū)域的方向性信息,其中的池化操作為算子提供了一定的空間、旋轉(zhuǎn)不變性。此外,在提取特征之前,對(duì)圖像進(jìn)行預(yù)處理操作以突出其中的顯著性元素同樣有助于提高算法的識(shí)別效果,算法流程如圖5所示。

圖5 基于P-HOG的目標(biāo)識(shí)別算法流程圖

Fig. 5 Flowchart of object detection algorithm based on P-HOG

3 實(shí)驗(yàn)條件及結(jié)果分析

本文方法主要應(yīng)用于繩系抓捕裝置接近非合作目標(biāo)后的視覺(jué)測(cè)量階段,空間平臺(tái)在繞飛階段對(duì)目標(biāo)的跟蹤過(guò)程并不涉及本文的討論范圍,因此圖像目標(biāo)因觀測(cè)距離變化引起的差異并不大,圖像差異主要集中于目標(biāo)本身,如圖6所示。

3.1 實(shí)驗(yàn)條件

訓(xùn)練衛(wèi)星帆板支架的識(shí)別模型依賴于大量的標(biāo)記數(shù)據(jù),由于人工標(biāo)記上千幅圖像的工作量較大,同時(shí)注意到Zitnick和Dollr[10]將物體定義為具有閉合邊界的孤立元素,這和帆板支架的結(jié)構(gòu)形態(tài)相吻合,因此在測(cè)試集中整合其他圖像庫(kù)(如PASCALVOC2007),利用其中的自然圖像學(xué)習(xí)包括帆板支架在內(nèi)的物體基本形態(tài),利用手動(dòng)采集的少量帆板支架圖像提取支架的對(duì)應(yīng)特征。

為驗(yàn)證算法有效性,手動(dòng)采集共126幅不同形狀、角度和光照條件下的衛(wèi)星帆板圖像(見(jiàn)圖6(b)),并進(jìn)行了人工標(biāo)記。

圖6 訓(xùn)練圖像集

Fig. 6 Training image set

處理單元采用CPU為IntelCorei3 3.40GHz,內(nèi)存為2G的主機(jī),操作系統(tǒng)為WindowsXPSP3,開(kāi)發(fā)工具為VS2010IDE。

3.2 結(jié)果分析

物體度被用于預(yù)先選取可能包含有物體的區(qū)域,通過(guò)增加特定目標(biāo)的樣本數(shù),選取更加符合局部結(jié)構(gòu)性的特征算子,將算法直接應(yīng)用于目標(biāo)的檢測(cè)中,其中訓(xùn)練圖像集的大小為1 421,其中1 331幅自然圖像由VOC2007中隨機(jī)選取,90幅衛(wèi)星帆板圖像由手動(dòng)采集得到,能夠使算法學(xué)習(xí)更多關(guān)于衛(wèi)星帆板的特征信息,有效防止欠擬合的發(fā)生。測(cè)試圖像集分成3個(gè)子測(cè)試集,測(cè)試集1由4 953幅VOC2007圖像組成,以驗(yàn)證本文算法的有效性;測(cè)試集2由100幅圖像構(gòu)成,包括90幅自然圖像和10幅衛(wèi)星帆板圖像;測(cè)試集3只含有10幅衛(wèi)星帆板圖像,用以驗(yàn)證模型直接用于目標(biāo)檢測(cè)的效果,不同測(cè)試集下的訓(xùn)練結(jié)果見(jiàn)表1。

表1 NG特征和P-HOG特征在不同測(cè)試集下目標(biāo)檢測(cè)效果的對(duì)比

Table 1 Comparison of object detection performance under different testing sets between features NG and P-HOG

TypeDetectionrate/%Testingset1Testingset2Testingset3NG92.991.680P-HOG94.594.290

可以看出,相比于規(guī)范化梯度特征,P-HOG特征的檢測(cè)效果更好,因?yàn)轭A(yù)處理操作在增強(qiáng)圖像顯著性特征的同時(shí),也改變了圖像中原有梯度值的分布,破壞了視覺(jué)連續(xù)性,單純采用梯度特征會(huì)產(chǎn)生更多的誤判,而P-HOG特征則能很好地保持局部區(qū)域的特性,因此其檢測(cè)效果更好。

其中,目標(biāo)的檢測(cè)效果用檢測(cè)率衡量,定義為測(cè)試集中被正確檢測(cè)的圖像占測(cè)試集中圖像總數(shù)的比例,檢測(cè)率越大表示算法的檢測(cè)效果越好。如果算法對(duì)目標(biāo)的預(yù)測(cè)區(qū)域與已標(biāo)記的實(shí)際區(qū)域之間的交集部分超過(guò)其并集的50%,圖像可以被認(rèn)為是正確檢測(cè)的。圖7(a)所示的衛(wèi)星帆板支架得到正確檢測(cè),而圖7(b)中由于預(yù)測(cè)窗口與實(shí)際區(qū)域未相交(NG)或重疊區(qū)域比例過(guò)低(P-HOG),故判定為檢測(cè)錯(cuò)誤。

圖7 NG特征和P-HOG特征對(duì)衛(wèi)星帆板支架的正確及錯(cuò)誤檢測(cè)結(jié)果

Fig. 7 Correct and incorrect detection results by features NG and P-HOG of satellite panels stents

進(jìn)一步,表2給出了不同特征下每幅圖像的平均訓(xùn)練和測(cè)試時(shí)間對(duì)比,由于規(guī)范化梯度的判別特征計(jì)算簡(jiǎn)單,因此其時(shí)間開(kāi)銷很低。而P-HOG特征雖然能夠有效地保持局部信息,但不可避免地提高了計(jì)算復(fù)雜度,其平均訓(xùn)練時(shí)間為0.046 s(為NG特征的2.421倍),預(yù)測(cè)時(shí)間為0.031 s(為NG特征的2.385倍)。雖然算法運(yùn)行時(shí)間低于NG特征,但相對(duì)于基于模板匹配的檢測(cè)算法仍然具有優(yōu)勢(shì)。

表2 NG特征和P-HOG特征下每幅圖像的平均訓(xùn)練、預(yù)測(cè)時(shí)間開(kāi)銷對(duì)比

Table 2 Comparison of average training and testing time per image between features NG and P-HOG

TypeTotaltrainingtime/sTrainingtimeperimage/sTestingtimeperimage/sNG27.0160.0190.013P-HOG65.7340.0460.031

圖8給出了規(guī)范化梯度特征和P-HOG特征對(duì)衛(wèi)星帆板支架的檢測(cè)結(jié)果對(duì)比,不難看出兩種方法都能夠正確檢測(cè)大部分的圖像,但后者由于利用了更多的結(jié)構(gòu)性信息,因此其預(yù)測(cè)窗口更接近于實(shí)際的標(biāo)記區(qū)域。

特別地,圖8反映了本文算法能夠適應(yīng)一定視角差異下的目標(biāo)檢測(cè)任務(wù)。算法將帆板支架看作具有閉合邊界的元素,這一性質(zhì)是不隨著視角的改變而變化的,因此算法可以適應(yīng)目標(biāo)視角的變化。此外,構(gòu)建的訓(xùn)練集中已經(jīng)包含目標(biāo)在不同視角下的圖像,進(jìn)一步保證了訓(xùn)練后的模型能夠?qū)W習(xí)到不同角度下目標(biāo)的判別特征。

圖9給出了算法在不同光照條件下對(duì)目標(biāo)的檢測(cè)結(jié)果,結(jié)果表明算法在不同光照條件下均能正確檢測(cè)目標(biāo),對(duì)光照影響有一定的魯棒性。

值得注意的是,雖然檢測(cè)算法能夠適應(yīng)不同的光照環(huán)境,但實(shí)際的在軌服務(wù),尤其是交會(huì)對(duì)接任務(wù)一般都在太陽(yáng)入射角恒定的情況下開(kāi)展。因此檢測(cè)過(guò)程中因光照引起的圖像差異并不大。

圖8 NG特征和P-HOG特征對(duì)衛(wèi)星帆板支架的檢測(cè)結(jié)果對(duì)比

Fig. 8 Detection results comparison of bracket images by features NG and P-HOG of satellite panels stents

圖9 本文算法在不同光照條件下的檢測(cè)結(jié)果

Fig. 9 Detection performances of the proposed method under different luminance

從局部來(lái)看,除灰度值較大外,圖像中的光亮部分與其余部分并無(wú)實(shí)質(zhì)的不同,局部歸一化后僅有部分亮光邊緣得以保留,大部分的光亮部分作為非顯著性特征被抑制。而保留的邊緣一般非閉合,且形態(tài)特征與目標(biāo)支架差異較大,因此并不會(huì)對(duì)目標(biāo)的檢測(cè)造成過(guò)多干擾。

4 結(jié) 論

1) 利用局部歸一化方法在突出圖像局部顯著性特征上的優(yōu)勢(shì),結(jié)合維納濾波,對(duì)數(shù)據(jù)集圖像進(jìn)行預(yù)處理,減弱了圖像中光照、噪聲等外界因素對(duì)檢測(cè)過(guò)程的影響,并進(jìn)一步增強(qiáng)物體的邊緣。

2) 利用級(jí)聯(lián)SVM能夠從數(shù)據(jù)集中學(xué)習(xí)目標(biāo)判別特征和HOG特征適用于剛性物體檢測(cè)的特點(diǎn),提出一種改進(jìn)的HOG特征算子,可以有效地保持圖像的局部信息,從而保證目標(biāo)檢測(cè)的精度。

3) 通過(guò)對(duì)標(biāo)準(zhǔn)圖像集的檢測(cè)實(shí)驗(yàn),驗(yàn)證了算法對(duì)物體檢測(cè)精度的提升;通過(guò)對(duì)包含衛(wèi)星帆板支架的圖像應(yīng)用模型,驗(yàn)證了算法能夠適應(yīng)目標(biāo)形狀和尺度的變化,并對(duì)光照條件和旋轉(zhuǎn)具有一定的魯棒性。相比于NG特征,算法的檢測(cè)結(jié)果更接近于實(shí)際標(biāo)記;同基于模板的檢測(cè)方法比,算法的時(shí)間效率更高。

4) 進(jìn)一步,本文算法假定測(cè)試圖像中一定含有目標(biāo)物體,因此模型只考慮目標(biāo)的檢測(cè)定位問(wèn)題,但實(shí)際的場(chǎng)景更為復(fù)雜,測(cè)試圖像中可能并不包含所檢測(cè)的目標(biāo)物體,此時(shí)對(duì)圖像進(jìn)行目標(biāo)檢測(cè)是沒(méi)有意義的。因此未來(lái)工作考慮引入圖像物體的分類過(guò)程,通過(guò)分類模型首先判斷圖像中是否包含待檢測(cè)的目標(biāo)類型,以提高模型的自適應(yīng)性。

[1] HUANG P F, CAI J, MENG Z J, et al. Novel method of monocular real-time feature point tracking for tethered space robots[J]. Journal of Aerospace Engineering, 2014, 27(6): 04014039.

[2] 徐文福, 梁斌, 李成, 等. 空間機(jī)器人捕獲非合作目標(biāo)的測(cè)量與規(guī)劃方法[J]. 機(jī)器人, 2010, 32(1): 61-69. XU W F, LIANG B, LI C, et al. Measurement and planning approach of space robot for capturing non-cooperative target[J]. Robot, 2010, 32(1): 61-69 (in Chinese).

[3] WONG S K. Non-cooperative target recognition in the frequency domain[J]. IEE Proceedings-Radar, Sonar and Navigation, 2004, 151(2): 77-84.

[4] RAMIREZ V A, GUTIERREZ S A M, YANEZ R E S. Quadrilateral detection using genetic algorithms[J]. Computacióny Sistemas, 2011, 15(2): 181-193 .

[5] 史駿, 姜志國(guó), 馮昊, 等. 基于彈性網(wǎng)稀疏編碼的空間目標(biāo)識(shí)別[J]. 航空學(xué)報(bào), 2013, 34(5): 1129-1139. SHI J, JIANG Z G, FENG H, et al. Elastic net sparse coding-based space object recognition[J]. Acta Aeronautica et Astronautica Sinica, 2013, 34(5): 1129-1139 (in Chinese).

[6] CAI J, HUANG P F, WANG D K. Novel dynamic template matching of visual servoing for tethered space robot[C]//2014 4th IEEE International Conference on Information Science and Technology (ICIST). Piscataway, NJ: IEEE Press, 2014: 389-392.

[7] 徐貴力, 徐靜, 王彪, 等. 基于光照模糊相似融合不變矩的航天器目標(biāo)識(shí)別[J]. 航空學(xué)報(bào), 2014, 35(3): 857-867. XU G L, XU J, WANG B, et al. CIBA moment invariants and their use in spacecraft recognition algorithm[J]. Acta Aeronautica et Astronautica Sinica, 2014, 35(3): 857-867 (in Chinese).

[8] 李予蜀, 余農(nóng), 吳常泳, 等. 紅外航空?qǐng)D像自動(dòng)目標(biāo)識(shí)別的形態(tài)濾波神經(jīng)網(wǎng)絡(luò)算法[J]. 航空學(xué)報(bào), 2002, 23(4): 368-372. LI Y S, YU N, WU C Y, et al. Morphological neural networks with applications to automatic target recognition in aeronautics infrared image[J]. Acta Aeronautica et Astronautica Sinica, 2002, 23(4): 368-372 (in Chinese).

[9] 黃凱奇, 任偉強(qiáng), 譚鐵牛. 圖像物體分類與檢測(cè)算法綜述[J]. 計(jì)算機(jī)學(xué)報(bào), 2014, 36(6): 1225-1240. HUANG K Q, REN W Q, TAN T N. A review on image classification and detection[J]. Chines Journal of Computers, 2014, 36(6): 1225-1240 (in Chinese).

[10] ZITNICK C L, DOLLR P. Edgebox: Locating object proposals from edges[C]//Computer vision-ECCV 2014. Zurich: Springer International Publishing, 2014: 391-405.

[11] HEITZ G, KOLLER D. Learning spatial context: Using stuff to find things[C]//Computer vision-ECCV 2008. Marseille: Springer, 2008: 30-43.

[12] YANULEVSKAYA V, UIJLINGS J, GEUSEBROEK J M. Salient object detection: From pixels to segments[J]. Image and Vision Computing, 2013, 31(1): 31-42.

[13] ALEXE B, DESELAERS T, FERRARI V. Measuring the objectness of image windows[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2012, 34(11): 2189-2202.

[14] RAHTU E, KANNALA J, BLASCHKO M. Learning a category independent object detection cascade[C]//2011 IEEE International Conference on Computer Vision (ICCV). Piscataway, NJ: IEEE Press, 2011: 1052-1059.

[15] CHENG M M, ZHANG Z M, LIN W Y, et al. BING: Binarized normed gradients for objectness estimation at 300fps[C]//2011 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE Press, 2014.

[16] ZHANG Z, WARRELL J, TORR P H S. Proposal generation for object detection using cascaded ranking SVMs[C]//2011 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Piscataway, NJ: IEEE Press, 2011: 1497-1504.

[17] EVERINGHAM M, GOOL L V, WILLIAMS C K I, et al. The pascal visual object classes (VOC) challenge[J]. International Journal of Computer Vision, 2010, 88(2): 303-338.

[18] DALAL N, TRIGGS B. Histograms of oriented gradients for human detection[C]//IEEE Computer Society Conference on Computer Vision and Pattern Recognition. Piscataway, NJ: IEEE Press, 2005, 1: 886-893.

[19] DALAL N. Finding people in images and videos[D]. Grenoble: Institut National Polytechnique de Grenoble-INPG, 2006: 33-50.

[20] UIJLINGS J, VAN DE SANDE K E A, GEVERS T, et al. Selective search for object recognition[J]. International Journal of Computer Vision, 2013, 104(2): 154-171.

[21] LOWE D G. Object recognition from local scale-invariant features[C]//Proceedings of the Seventh IEEE International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 1999, 2: 1150-1157.

[22] JARRETT K, KAVUKCUOGLU K, RANZATO M, et al. What is the best multi-stage architecture for object recognition?[C]//2009 IEEE 12th International Conference on Computer Vision. Piscataway, NJ: IEEE Press, 2009: 2146-2153.

陳路 男, 博士研究生。主要研究方向: 目標(biāo)檢測(cè)與識(shí)別, 計(jì)算機(jī)視覺(jué), 機(jī)器學(xué)習(xí)。

Tel: 029-88460366-803

E-mail: chenlu11@mail.nwpu.edu.cn

黃攀峰 男, 博士, 教授, 博士生導(dǎo)師。主要研究方向: 空間機(jī)器人學(xué), 空間遙操作, 導(dǎo)航、制導(dǎo)與控制。

Tel: 029-88460366-801

E-mail: pfhuang@nwpu.edu.cn

蔡佳 男, 博士研究生。主要研究方向: 非合作目標(biāo)檢測(cè), 跟蹤與相對(duì)位姿測(cè)量, 視覺(jué)導(dǎo)航。

Tel: 029-88460366-803

E-mail: caijia@mail.nwpu.edu.cn

Received: 2015-01-04; Revised: 2015-02-07; Accepted: 2015-03-11; Published online: 2015-03-18 14:16

URL: www.cnki.net/kcms/detail/11.1929.V.20150318.1416.002.html

Foundation items: National Natural Science Foundation of China (11272256, 61005062)

*Corresponding author. Tel.: 029-88460366-801 E-mail: pfhuang@nwpu.edu.cn

Space non-cooperative target detection based on improved features of histogram of oriented gradient

CHEN Lu1, 2, HUANG Panfeng1, 2, *, CAI Jia1, 2

1.NationalKeyLaboratoryofAerospaceFlightDynamics,NorthwesternPolytechnicalUniversity,Xi′an710072,China2.ResearchCenterforIntelligentRobotics,NorthwesternPolytechnicalUniversity,Xi′an710072,China

Traditional non-cooperative target detection methods are mostly based on different matching templates which are well-designed with additional prior information. Moreover, one single template can be merely used to detect objects with similar shapes and structures, causing low applicability in detecting non-cooperative targets whose prior information are usually unknown. In order to solve those problems and inspired by the object estimation technique based on normed gradient, an object detection algorithm using improved features of histogram of oriented gradient is proposed. A training data set composed of natural images and target images is first built manually. Secondly, we extract the modified HOG information in the labeled regions to preserve detailed structures of the local features. Then, the cascaded support vector machine is used to train the model autonomously, which does not require prior information. Finally, we design several tests using the trained model to detect targets from the testing images. Numerous experiments demonstrate that the detection rates of the proposed method are 94.5% and 94.2% respectively when applied to testing sets with 4 953 and 100 images. The time consumption of extracting one image is about 0.031 s while it is robust to object rotation and illumination under certain condition.

non-cooperative target; object detection; normed gradient; histogram of oriented gradient; local feature

2015-01-04; 退修日期: 2015-02-07; 錄用日期: 2015-03-11; < class="emphasis_bold">網(wǎng)絡(luò)出版時(shí)間:

時(shí)間: 2015-03-18 14:16

www.cnki.net/kcms/detail/11.1929.V.20150318.1416.002.html

國(guó)家自然科學(xué)基金 (11272256, 61005062)

.Tel.: 029-88460366-801 E-mail: pfhuang@nwpu.edu.cn

陳路, 黃攀峰, 蔡佳. 基于改進(jìn)HOG特征的空間非合作目標(biāo)檢測(cè)[J]. 航空學(xué)報(bào), 2016, 37(2): 717-726. CHEN L, HUANG P F, CAI J. Space non-cooperative target detection based on improved features of histogram of oriented gradient[J]. Acta Aeronautica et Astronautica Sinica, 2016, 37(2): 717-726.

http://hkxb.buaa.edu.cn hkxb@buaa.edu.cn

10.7527/S1000-6893.2015.0072

V412.4+1; TP301.6

: A

: 1000-6893(2016)02-0717-10

*

猜你喜歡
帆板梯度物體
提高帆板競(jìng)技能力的教學(xué)與訓(xùn)練思考
一個(gè)改進(jìn)的WYL型三項(xiàng)共軛梯度法
一種自適應(yīng)Dai-Liao共軛梯度法
深刻理解物體的平衡
一類扭積形式的梯度近Ricci孤立子
我們是怎樣看到物體的
帆板比賽
一種帆板驅(qū)動(dòng)機(jī)構(gòu)用永磁同步電機(jī)微步控制方法
為什么同一物體在世界各地重量不一樣?
國(guó)內(nèi)首臺(tái)擺動(dòng)式太陽(yáng)帆板驅(qū)動(dòng)裝置交付衛(wèi)星使用
准格尔旗| 周至县| 玉屏| 松阳县| 霍邱县| 青铜峡市| 湘潭市| 樟树市| 江津市| 太谷县| 彭泽县| 永昌县| 江华| 广灵县| 太湖县| 古田县| 盈江县| 永仁县| 自治县| 礼泉县| 西贡区| 兴隆县| 油尖旺区| 榆林市| 雷州市| 绍兴县| 卓资县| 海南省| 鹤岗市| 赫章县| 乐清市| 洛隆县| 永定县| 宜兰市| 武鸣县| 龙山县| 镇安县| 姜堰市| 汝南县| 康马县| 彩票|