国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

用于彈載線陣紅外與激光掃描成像引信的輕量化卷積神經(jīng)網(wǎng)絡(luò)目標(biāo)識別方法

2021-10-08 13:52:10武軍安劉榮忠柯尊貴
彈道學(xué)報 2021年3期
關(guān)鍵詞:紅外卷積分類

武軍安,郭 銳,劉榮忠,柯尊貴

(1.南京理工大學(xué) 智能彈藥技術(shù)國防重點(diǎn)學(xué)科實(shí)驗(yàn)室,江蘇 南京 210094;2.西南技術(shù)物理研究所,四川 成都 610041)

末敏彈是一種將復(fù)合探測、穩(wěn)態(tài)掃描與爆炸成形彈丸技術(shù)應(yīng)用于子母彈的靈巧化彈藥,其中的復(fù)合探測技術(shù)是其核心技術(shù)??v觀國內(nèi)外已裝備的末敏彈,主要以點(diǎn)元紅外敏感器、主動毫米波雷達(dá)和被動毫米波輻射計作為探測器,并將幾種探測器進(jìn)行組合實(shí)現(xiàn)復(fù)合探測體制。探測信號大多是以一維的數(shù)據(jù)形式對掃描區(qū)域進(jìn)行描述,對目標(biāo)的細(xì)節(jié)特征描述有限[1]。然而隨著現(xiàn)代戰(zhàn)場環(huán)境的復(fù)雜化以及干擾、隱身等對抗技術(shù)的發(fā)展,基于點(diǎn)元探測器的末敏彈越來越難以滿足現(xiàn)代戰(zhàn)場環(huán)境下的作戰(zhàn)要求。因此需要對掃描區(qū)域進(jìn)行更為精細(xì)化的成像式探測來提高末敏彈在復(fù)雜戰(zhàn)場環(huán)境下的適應(yīng)能力。線陣紅外與激光雷達(dá)探測器是將像元以線列形式排列的探測器,成像需要結(jié)合掃描運(yùn)動才能實(shí)現(xiàn)。而末敏彈工作時恰好做螺旋穩(wěn)態(tài)掃描運(yùn)動,因此利用線陣探測器可以很容易地實(shí)現(xiàn)對地面目標(biāo)的掃描成像,將二者進(jìn)行復(fù)合式探測既能獲取較高分辨率的紅外輻射信息,也能獲取對目標(biāo)三維幾何描述的距離信息,對末敏彈的目標(biāo)判斷和場景分析提供了更加全面、完整和豐富的特征信息[2-3]。

基于卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)的識別算法避免了傳統(tǒng)識別算法中復(fù)雜的目標(biāo)分割、特征提取等過程,是一種將原圖像直接作為輸入的端到端的識別模型。2015年HE等[4]提出的ResNet在ImageNet數(shù)據(jù)集上的分類誤差降低到了3.57%,其性能已經(jīng)遠(yuǎn)遠(yuǎn)超過傳統(tǒng)特征提取的識別算法,由此可見CNN對復(fù)雜環(huán)境下的目標(biāo)識別具有明顯優(yōu)勢,這也為末敏彈在復(fù)雜環(huán)境下的目標(biāo)識別提供了新的研究方向。CNN強(qiáng)大的圖像特征提取能力使其在目標(biāo)識別領(lǐng)域得到了廣泛的運(yùn)用,一些學(xué)者已經(jīng)將CNN運(yùn)用在異源圖像的目標(biāo)識別任務(wù)中。劉峰等[5]在AlexNet基礎(chǔ)上提出了一種CNN融合識別模型,先利用CNN對三波段的可見光圖像、長波紅外圖像和短波紅外圖像分別進(jìn)行特征提取,然后采用基于互信息特征選擇的方法對特征量進(jìn)行壓縮,最后再利用全連接層完成了海上目標(biāo)分類任務(wù)。Gao等[6]同樣利用AlexNet將可見光圖像與激光雷達(dá)上采樣后的距離圖像拼接構(gòu)成4通道的RGB-D數(shù)據(jù),實(shí)現(xiàn)了車輛目標(biāo)分類識別任務(wù)。江澤濤等[7]對可將光圖像與紅外圖像利用加權(quán)融合規(guī)則進(jìn)行融合,將融合后的圖像作為CNN的輸入,實(shí)現(xiàn)了對不同場景的識別,經(jīng)實(shí)驗(yàn)驗(yàn)證,融合后的圖像比單獨(dú)使用源圖像的識別準(zhǔn)確率更高。

雖然利用CNN對異源圖像進(jìn)行目標(biāo)識別取得了較好的效果,但對紅外像和距離像上的研究較少,同時還需滿足彈載對實(shí)時性的要求對CNN網(wǎng)絡(luò)需要輕量化設(shè)計,來減少模型量計算量。因此,本文根據(jù)彈載應(yīng)用場景以及距離像和紅外像的成像特點(diǎn),提出了一種分布式融合輕量級卷積神經(jīng)網(wǎng)絡(luò)(distributed fusion convolutional neural net,DF-Net),通過圖像融合、分布式卷積和深度可分離卷積實(shí)現(xiàn)了CNN的輕量化設(shè)計,并利用縮比場景的自建數(shù)據(jù)集對本文所提方法及網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行實(shí)驗(yàn)分析與討論。

1 末敏彈線陣掃描成像模型

彈載線陣探測器的掃描成像是借助末敏彈的穩(wěn)態(tài)旋轉(zhuǎn)掃描運(yùn)動來實(shí)現(xiàn)的,其成像示意圖如圖1所示。圖中,β為末敏彈的掃描角;γ為線陣探測器俯仰方向上的視場角,線陣紅外與線陣激光的視場角相同并且被像元等分;τ為轉(zhuǎn)動角,即子彈在一段時間內(nèi)繞回轉(zhuǎn)軸轉(zhuǎn)過的角度;ρi為視場中線陣探測器第i個像元光路與鉛錘方向的夾角。

圖1 線陣掃描成像模型示意圖

為了保證兩幅圖像的配準(zhǔn),紅外與激光接收端為同視場,并且在同一時刻采集。線陣激光雷達(dá)通過計算每個像元的激光發(fā)射與接收回波之間的時間差來實(shí)現(xiàn)測距,設(shè)APD的像元數(shù)量為M,當(dāng)掃描線轉(zhuǎn)過τ時會在地面形成一個局部掃描區(qū)域Ω,區(qū)域Ω由N次掃描的掃描線數(shù)據(jù)構(gòu)成,將掃描線數(shù)據(jù)按先后順序進(jìn)行拼接可獲得一個大小為M×N的二維距離矩陣D′:

D′=(dij)M×N

(1)

式中:i=1,2,…,M;j=1,2,…,N。線陣紅外探測器則直接通過接收熱輻射得到紅外輻射灰度信息R:

R=(rij)M×N

(2)

式中:dij和rij分別為第i個激光與紅外像元在第j次采樣時測得的距離值和紅外強(qiáng)度值。

由于獲得的紅外數(shù)據(jù)R本身就是8 bit量化后的灰度值,因此R可直接作為紅外圖像。而對于掃描得到的距離數(shù)據(jù)則需要進(jìn)行一步處理。首先將距離數(shù)據(jù)轉(zhuǎn)換為激光腳點(diǎn)與子彈的相對高度數(shù)據(jù)H′:

H′=D′cosρi

(3)

然后選擇合適的量化區(qū)間S,對H′進(jìn)行8 bit量化即可作為本文CNN與圖像融合算法所需的距離灰度像D:

(4)

式中:“[·]”表示取整,hmax為H′中的最大值,h′ij為H′中的元素。

2 分布式-融合輕量化卷積神經(jīng)網(wǎng)絡(luò)算法模型

2.1 基于導(dǎo)向?yàn)V波的紅外像與距離像融合算法

在本文中將融合圖像作為前級卷積神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù),目的是增加輸入特征的多樣性,提高輕量化CNN對目標(biāo)分類的準(zhǔn)確率,因此對融合圖像,希望能在充分反映互補(bǔ)特征的同時具有較低的算法復(fù)雜度,以滿足彈載環(huán)境對實(shí)時性的要求。本文融合算法的具體過程如下。

①源圖像分解。

首先通過高斯濾波對圖像進(jìn)行平滑處理得到圖像的低頻分量LD和LR:

LD=D*g,LR=R*g

(5)

式中:g為高斯平滑核;“*”表示卷積。高斯核參數(shù)的選取應(yīng)保證盡可能濾除細(xì)節(jié)特征。獲得圖像的低頻分量后得到高頻分量HD和HR:

HD=D-LD,HR=R-LR

(6)

對于小尺寸、紋理特征不豐富的圖像經(jīng)一次低通濾波就可以得到很平滑的低頻圖像,因此本文對源圖像只進(jìn)行了一次分解。

②低頻融合系數(shù)的構(gòu)建。

圖像的低頻子圖保留了原圖像的近似特征,對于本文的低頻子圖而言,由于只進(jìn)行了一次非降采樣的分解,直接使用平均融合容易導(dǎo)致圖像邊緣模糊、對比度降低,因此對低頻融合系數(shù)進(jìn)行如下處理:首先建立2個與源圖像尺寸一致且系數(shù)均為0.5的初始融合系數(shù)矩陣mR和mD;然后將源圖像作為引導(dǎo)圖對初始系數(shù)進(jìn)行導(dǎo)向?yàn)V波,即:

(7)

(8)

根據(jù)導(dǎo)向?yàn)V波的特性可知[12],若圖像中某一區(qū)域的局部方差較小,則認(rèn)為處于引導(dǎo)圖像的平坦區(qū)域,此時濾波器的輸出即為相鄰像素的平均值;若局部方差較大,此時只有一邊的權(quán)重會被平均,從而保證了邊緣不被模糊,因此初始權(quán)重經(jīng)導(dǎo)向?yàn)V波后保證了空間上的連續(xù)性。

③高頻融合系數(shù)的構(gòu)建。

在高頻子圖中主要包含了場景中邊緣特征、目標(biāo)紋理特征、邊界變化特征等灰度值變化較為強(qiáng)烈的區(qū)域,為了在融合圖像中更好地體現(xiàn)上述特征,對于高頻分量通常選用“絕對值取大”的方法進(jìn)行融合,首先構(gòu)建初始融合權(quán)重CR,CD:

(9)

CD=1-CR

(10)

同理,為了讓融合權(quán)重具有空間連續(xù)性,與低頻分量處理一樣,使用導(dǎo)向?yàn)V波對初始權(quán)重進(jìn)行處理,即:

(11)

經(jīng)歸一化后得到高頻融合系數(shù):

(12)

④重建融合圖像。

利用②和③獲得的融合系數(shù)分別對高頻子圖和低頻子圖進(jìn)行加權(quán)求和,則融合后的高頻圖HF和低頻圖LF分別為

(13)

式中:“·”表示矩陣元素點(diǎn)積運(yùn)算。最終的融合圖像F只需將融合高頻圖HF和融合低頻圖LF相加即可獲得,即:

F=HF+LF

(14)

2.2 分布式-融合卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)

本文設(shè)計的DF-Net網(wǎng)絡(luò)框架從整體上將網(wǎng)絡(luò)分為:前級的分布式特征提取網(wǎng)絡(luò)和后級融合網(wǎng)絡(luò)。在前級網(wǎng)絡(luò)中,距離像、紅外像以及融合像各自擁有獨(dú)立的卷積網(wǎng)絡(luò),同時卷積操作并未使用傳統(tǒng)卷積加池化下采樣或者直接利用深度可分離卷積進(jìn)行提取,而是由2組步長為2步長(s=2)的3×3卷積(3×3 Conv)和1×1卷積(1×1 Conv)構(gòu)成。這種方式雖然比深度可分離卷積的計算量大,但學(xué)習(xí)特征能力更強(qiáng);與傳統(tǒng)卷積加池化下采樣的方式相比,省去池化操作(Pool)的同時進(jìn)一步降低網(wǎng)絡(luò)的計算復(fù)雜度。圖2是以上3種結(jié)構(gòu)的實(shí)現(xiàn)方式,設(shè)輸入特征圖為M×N×Cin,輸出特征圖均為(M/2)×(N/2)×2Cin,圖中N1為本文卷積結(jié)構(gòu),N2為深度可分離卷積結(jié)構(gòu),N3為帶有池化下采樣的卷積結(jié)構(gòu),所有網(wǎng)絡(luò)均使用了批次歸一化層(batch normalizing,BN)[11],表1為3種網(wǎng)絡(luò)結(jié)構(gòu)的計算量和參數(shù)量,表中,Cin為輸入的通道數(shù),P為輸入圖像大小。通過表1中計算量與參數(shù)量的對比,本文結(jié)構(gòu)雖然比N2結(jié)構(gòu)計算復(fù)雜度高,但相比N3的傳統(tǒng)結(jié)構(gòu)計算量下降了約79.6%,參數(shù)量下降了37.5%。

表1 不同卷積結(jié)構(gòu)計算復(fù)雜度對比

圖2 3種結(jié)構(gòu)的實(shí)現(xiàn)方式

網(wǎng)絡(luò)的后級則是對上述特征量進(jìn)行融合、提取與壓縮,并最終給出分類結(jié)果。對前級的特征融合,利用雙尺度卷積核進(jìn)行融合,首先對3個通道的特征圖進(jìn)行首尾拼接;然后利用3×3卷積核和1×1卷積核分別對拼接后的特征圖進(jìn)行卷積以實(shí)現(xiàn)特征間的融合。最后再將卷積后的特征圖進(jìn)行拼接并送入后續(xù)卷積層中。對融合后的特征圖利用深度可分離卷積模塊進(jìn)行卷積,根據(jù)文獻(xiàn)[11]指出的深層特征對網(wǎng)絡(luò)性能的貢獻(xiàn)高于淺層網(wǎng)絡(luò)特征,因此在融合卷積層后面又增加了多組深度可分離卷積模塊來提高網(wǎng)絡(luò)對特征的學(xué)習(xí)能力。表2給出了本文DF-Net網(wǎng)絡(luò)具體的結(jié)構(gòu)設(shè)計參數(shù),輸入的距離像、紅外像以及融合圖像先經(jīng)13層CNN卷積得到4×4×528的特征圖,最后利用全局平均池化將特征圖變?yōu)?×528的一維特征向量,并與輸出分類數(shù)量一致的神經(jīng)元構(gòu)成全連接層,并利用SoftMax層得到每種類別的分類概率。網(wǎng)絡(luò)在每個卷積層和激活層之間增加了批次歸一化層,用于加快網(wǎng)絡(luò)的訓(xùn)練收斂速度和防止過擬合的發(fā)生。每個卷積層之間選用RL6作為網(wǎng)絡(luò)的激活函數(shù),即:

RL6=min(max(0,x),6)

(15)

表2中,C表示普通卷積;GC表示可分離卷積;B表示批次歸一化操作;RL6為ReLU6激活函數(shù)層,No為最終的分類數(shù)。

表2 DF-Net 網(wǎng)絡(luò)設(shè)計參數(shù)及計算復(fù)雜度

3 實(shí)驗(yàn)與結(jié)果分析

實(shí)驗(yàn)所用數(shù)據(jù)集通過實(shí)驗(yàn)室搭建的縮比實(shí)驗(yàn)平臺獲得。在模擬場景搭建時考慮了裝甲目標(biāo)在真實(shí)戰(zhàn)場環(huán)境下的工作情況,為了讓數(shù)據(jù)更加真實(shí),模擬了在不同坡度、不同地形、不同高度、目標(biāo)存在局部遮擋以及目標(biāo)周圍存在障礙物情況下的實(shí)驗(yàn)場景。裝甲目標(biāo)選取了主戰(zhàn)坦克、裝甲運(yùn)兵車、自行火炮等多種模擬目標(biāo),目標(biāo)縮比比例為1∶24(平均長、寬、高分別約為36 cm,13 cm,10 cm),探測器最大探測高度3 m,同時為了模擬紅外特征在裝甲目標(biāo)發(fā)熱處內(nèi)部設(shè)計了電子恒溫加熱裝置,保證與地面溫差大于10 ℃。樣本的獲取首先利用縮比模擬場景共獲取4 000組樣本,樣本中圖像大小為64×64,然后利用翻轉(zhuǎn)、平移、旋轉(zhuǎn)和隨機(jī)裁剪等方法對樣本進(jìn)行增廣,最后將樣本數(shù)據(jù)分為4類裝甲目標(biāo)(坦克目標(biāo)、運(yùn)兵車目標(biāo)、自行火炮和導(dǎo)彈車,每類各11 000)和非裝甲目標(biāo)(由不含裝甲目標(biāo)的背景構(gòu)成共44 000)。對裝甲目標(biāo)樣本進(jìn)行分類后,CNN網(wǎng)絡(luò)不僅可以建立目標(biāo)識別的二分類網(wǎng)絡(luò)(裝甲目標(biāo)44 000和非裝甲目標(biāo)40 000),也可建立目標(biāo)分類的五分類網(wǎng)絡(luò)(4類裝甲目標(biāo)各11 000個,非裝甲目標(biāo)從40 000中隨機(jī)抽取11 000作為樣本),從而驗(yàn)證網(wǎng)絡(luò)對裝甲目標(biāo)分類判別的能力。在數(shù)據(jù)集劃分上,選取總數(shù)據(jù)集的80%作為訓(xùn)練集,剩下的20%作為測試集,分別用于網(wǎng)絡(luò)的訓(xùn)練和測試階段。圖3為數(shù)據(jù)集中部分樣本示例,數(shù)據(jù)集中包含裝甲目標(biāo)的部分紅外圖像、距離圖像和融合圖像。

圖3 數(shù)據(jù)集中部分樣本示例

在實(shí)驗(yàn)中所有網(wǎng)絡(luò)均采用了帶動量的小批量隨機(jī)梯度下降算法作為網(wǎng)絡(luò)模型訓(xùn)練的優(yōu)化算法,訓(xùn)練一次的樣本量(Batch size)根據(jù)GPU內(nèi)存容量設(shè)置為100,為了保證網(wǎng)絡(luò)訓(xùn)練的穩(wěn)定收斂,學(xué)習(xí)率的調(diào)整策略選用階梯式(STEP)策略,設(shè)初始學(xué)習(xí)率α0=0.01,每經(jīng)過一次階躍步長k新的學(xué)習(xí)率α衰減為

α=α0×ω?t/k」

(16)

式中:ω為衰減系數(shù);“?·」”為向上取整符號;t為當(dāng)前迭代訓(xùn)練次數(shù)。在本文中k=10 000,ω=0.1,即網(wǎng)絡(luò)每進(jìn)行10 000次的迭代訓(xùn)練,學(xué)習(xí)率衰減為原來的10%,總迭代次數(shù)為50 000次。實(shí)驗(yàn)在PC機(jī)上進(jìn)行,主要配置如下:CPU Intel I7-8700k,GPU NVIDIA GeForce GTX1080Ti(顯存8G),內(nèi)存 DDR4 16G,網(wǎng)絡(luò)模型在Caffe開源架構(gòu)上進(jìn)行訓(xùn)練與測試,操作系統(tǒng)運(yùn)行環(huán)境為Ubuntu 16.04。

實(shí)驗(yàn)結(jié)果如下:

①不同網(wǎng)絡(luò)結(jié)構(gòu)對性能的影響。 將本文網(wǎng)絡(luò)與流行的輕量化網(wǎng)絡(luò)Mobilenet128[10]以及將DF-Net中前級分布式卷積改為N3結(jié)構(gòu)的DF-Net(2)進(jìn)行了性能對比,結(jié)果如表3所示,可以看出:雖然DF-Net準(zhǔn)確率較Mobilenet128降低了1.3%,但計算量僅為Mobilenet128的12%;對本文圖像,前級網(wǎng)絡(luò)使用深度可分離卷積不利于網(wǎng)絡(luò)對特征的學(xué)習(xí),以N1和N3作為網(wǎng)絡(luò)前級效果較好,二者性能相當(dāng),在準(zhǔn)確率上只高了0.3%,但從計算量和參數(shù)量上來看N1結(jié)構(gòu)更具有優(yōu)勢。

表3 測試集準(zhǔn)確率與計算量對比

②融合圖像對網(wǎng)絡(luò)性能的影響。 當(dāng)刪除融合圖像時網(wǎng)絡(luò)在測試集上的準(zhǔn)確率為94%,下降了2.1%,可以看出,引入融合圖像可以提高網(wǎng)絡(luò)對特征的提取能力。

③DF-Net在復(fù)雜環(huán)境下的網(wǎng)絡(luò)性能。 利用模擬場景采集背景環(huán)境較為復(fù)雜的距離圖像和紅外圖像樣本,并利用樣本增強(qiáng)方法將數(shù)據(jù)擴(kuò)充到400組(包含4類裝甲目標(biāo)的樣本每類50組,其余為不含裝甲目標(biāo)的樣本),來驗(yàn)證網(wǎng)絡(luò)模型的泛化能力以及對復(fù)雜背景環(huán)境下的目標(biāo)識別能力,并用混淆矩陣對性能進(jìn)行評估。圖4(a)是五分類預(yù)測的混淆矩陣(TANK坦克,APC運(yùn)兵車,SPG自行火炮,MV導(dǎo)彈車),圖4(b)是二分類混淆矩陣(T裝甲目標(biāo),N無目標(biāo)),混淆矩陣中縱坐標(biāo)表示真實(shí)樣本分類,橫坐標(biāo)表示預(yù)測樣本分類,矩陣中數(shù)字均為百分比。

圖4 DF-Net網(wǎng)絡(luò)模型目標(biāo)分類混淆矩陣

從混淆矩陣可以看出,五分類的總體準(zhǔn)確率為86.8%,二分類為90.5%,相比之前在測試集上的實(shí)驗(yàn)結(jié)果有所降低,但總體上看,DF-Net模型依然具有較強(qiáng)的目標(biāo)識別和分類能力。在圖4(a)中可以發(fā)現(xiàn),五分類任務(wù)的準(zhǔn)確率要低于二分類任務(wù),而且在對4類裝甲進(jìn)行預(yù)測時均出現(xiàn)了少部分目標(biāo)被誤判為非目標(biāo)的情況,同時裝甲運(yùn)兵車(APC)和反坦克導(dǎo)彈車(MV)之間還出現(xiàn)了一定程度的混淆。出現(xiàn)上述情況主要有以下兩方面原因:①實(shí)驗(yàn)環(huán)境的局限使得訓(xùn)練樣本無法包括所有可能性,導(dǎo)致模型訓(xùn)練不夠充分;②不同類裝甲目標(biāo)的車身主體存在相似的情況(例如裝甲運(yùn)兵車和反坦克導(dǎo)彈車),當(dāng)只掃描到目標(biāo)局部或者目標(biāo)遮擋較為嚴(yán)重時,模型無法得到準(zhǔn)確的判定信息從而造成分類混淆,或者探測高度較高時目標(biāo)在低分辨的圖像上特征丟失嚴(yán)重也可能造成分類混淆。

圖5是從數(shù)據(jù)集中選取的8組實(shí)驗(yàn)樣本并利用DF-Net分別進(jìn)行2分類和5分類的結(jié)果,圖5(a)為假目標(biāo)樣本,圖5(b)~圖5(d)為目標(biāo)四周有障礙物或者局部遮擋的情況,圖5(e)、圖5(f)為目標(biāo)局部掃描樣本,圖5(g)為在高處探測時目標(biāo)四周有大量干擾的樣本,圖5(h)為目標(biāo)超過50%被遮擋的樣本。

圖5 部分樣本識別結(jié)果

從實(shí)驗(yàn)結(jié)果上可以看出:網(wǎng)絡(luò)在樣本a~e中均準(zhǔn)確識別出了目標(biāo),樣本a是長寬高與裝甲目標(biāo)相似的矩形偽目標(biāo),由于在訓(xùn)練樣本中加入了此類偽目標(biāo),因而未產(chǎn)生虛警,樣本b~d是目標(biāo)周圍有障礙物或者存在局部遮擋的情況,此時網(wǎng)絡(luò)也做出了正確識別;樣本e和f是車體相似的兩類不同的目標(biāo),由于是局部圖像,兩個目標(biāo)的特征較為相似,因此在五分類任務(wù)中將反坦克導(dǎo)彈車錯誤分類成了運(yùn)兵車,但是在二分類的裝甲目標(biāo)識別任務(wù)中被準(zhǔn)確分類;對樣本e進(jìn)行分類時,雖然此時目標(biāo)在視場中比例較小,周圍還存在熱源與障礙物干擾,但DF-Net依然給出了正確分類;對于樣本h,由于此時目標(biāo)被大面積遮擋,其特征不能被充分描述,從而導(dǎo)致目標(biāo)分類錯誤。

4 結(jié)束語

本文為了提高末敏彈在復(fù)雜背景環(huán)境下對裝甲目標(biāo)的識別能力,利用CNN在圖像處理上的優(yōu)勢,提出了一種適用于低分辨距離像和紅外圖像的融合-分布式輕量化卷積神經(jīng)網(wǎng)絡(luò)模型DF-Net。通過實(shí)驗(yàn)表明:

①融合圖像的引入可以提高網(wǎng)絡(luò)對特征的提取能力,在相同網(wǎng)絡(luò)層數(shù)下能夠獲得更好的識別精度,對于低分辨的紅外圖像和距離像應(yīng)盡可能選取計算量小、更好保留邊緣紋理特征的算法來提高系統(tǒng)的實(shí)時性;

②DF-Net通過前級N1結(jié)構(gòu)的分布式卷積處理和后級的深度可分離卷積,讓網(wǎng)絡(luò)具有更少計算量,同時也具有優(yōu)異的目標(biāo)識別性能;

③CNN具有強(qiáng)大的特征提取能力,因此本文方法適用于背景環(huán)境復(fù)雜以及對抗環(huán)境干擾要求較高的戰(zhàn)場環(huán)境。

猜你喜歡
紅外卷積分類
網(wǎng)紅外賣
基于3D-Winograd的快速卷積算法設(shè)計及FPGA實(shí)現(xiàn)
分類算一算
閃亮的中國紅外『芯』
金橋(2021年4期)2021-05-21 08:19:20
從濾波器理解卷積
電子制作(2019年11期)2019-07-04 00:34:38
分類討論求坐標(biāo)
TS系列紅外傳感器在嵌入式控制系統(tǒng)中的應(yīng)用
電子制作(2019年7期)2019-04-25 13:17:14
數(shù)據(jù)分析中的分類討論
基于傅里葉域卷積表示的目標(biāo)跟蹤算法
教你一招:數(shù)的分類
莫力| 平利县| 胶南市| 钟祥市| 顺平县| 石柱| 花垣县| 沧源| 桃江县| 萨嘎县| 昌黎县| 江山市| 黄梅县| 苍山县| 潮安县| 新丰县| 广州市| 安仁县| 莒南县| 鄂伦春自治旗| 永州市| 钟祥市| 蓬莱市| 泊头市| 乐昌市| 清水河县| 娱乐| 安顺市| 南京市| 巫溪县| 延川县| 卓资县| 襄城县| 德令哈市| 古浪县| 瑞安市| 龙川县| 左贡县| 泾源县| 屏东县| 阿拉尔市|