国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

復(fù)雜對(duì)抗場(chǎng)景下的對(duì)空目標(biāo)混合智能抗干擾研究

2022-03-04 08:27張良李少毅楊曦田曉倩
航空兵器 2022年1期
關(guān)鍵詞:目標(biāo)識(shí)別特征提取深度學(xué)習(xí)

張良 李少毅 楊曦 田曉倩

摘 要:目標(biāo)識(shí)別與抗干擾技術(shù)已經(jīng)成為決定精確制導(dǎo)武器性能優(yōu)劣的關(guān)鍵技術(shù)。 本文針對(duì)復(fù)雜對(duì)抗場(chǎng)景下紅外空空導(dǎo)彈作戰(zhàn)特點(diǎn),分析了其目標(biāo)識(shí)別與抗干擾發(fā)展需求,提出了融合傳統(tǒng)算法與深度學(xué)習(xí)的混合智能抗干擾算法。 該算法充分利用傳統(tǒng)算法在確定場(chǎng)景下的高可靠性優(yōu)勢(shì)與深度學(xué)習(xí)算法在復(fù)雜場(chǎng)景下的高維特征提取能力,最大化挖掘了導(dǎo)彈探測(cè)的場(chǎng)景信息,對(duì)于提高系統(tǒng)抗干擾能力具有重要意義。 在此基礎(chǔ)上,構(gòu)造了算法測(cè)試訓(xùn)練的空戰(zhàn)數(shù)據(jù)集,覆蓋了典型的空戰(zhàn)作戰(zhàn)場(chǎng)景。 實(shí)驗(yàn)結(jié)果表明,相同特征融合條件下,典型場(chǎng)景混合智能抗干擾算法的全程抗干擾概率達(dá)到了71.56%,比傳統(tǒng)算法提高了15.77%,驗(yàn)證了算法的有效性。

關(guān)鍵詞:紅外空空導(dǎo)彈;智能抗干擾;空戰(zhàn)數(shù)據(jù)集;特征提取;目標(biāo)識(shí)別;深度學(xué)習(xí)

中圖分類號(hào):TJ760.2; V271.4 文獻(xiàn)標(biāo)識(shí)碼:?? A 文章編號(hào):1673-5048(2022)01-0022-07[SQ0]

0 引? 言

現(xiàn)代戰(zhàn)爭(zhēng)中,沒(méi)有人工干擾的凈空作戰(zhàn)條件已經(jīng)不復(fù)存在,新型干擾不斷出現(xiàn)、戰(zhàn)場(chǎng)環(huán)境瞬息萬(wàn)變,使傳統(tǒng)基于人工定義特征和邏輯的算法難以應(yīng)對(duì)。 近年來(lái)在導(dǎo)彈型號(hào)研制和部隊(duì)訓(xùn)練中頻繁暴露出的問(wèn)題表明,空空導(dǎo)彈的抗干擾能力已經(jīng)成為能否達(dá)成其作戰(zhàn)意圖的首要性能。 圖1所示為國(guó)外軍機(jī)拋射紅外誘餌彈示意圖。

導(dǎo)引頭抗自然背景和人工誘餌干擾能力的提升主要依賴于目標(biāo)檢測(cè)識(shí)別算法的性能[1]。 目前,導(dǎo)彈抗干擾方法主要通過(guò)強(qiáng)化空中目標(biāo)和誘餌紅外特性認(rèn)識(shí),充分挖掘熱成像視覺(jué)特征,基于特征相似性匹配實(shí)現(xiàn)自動(dòng)目標(biāo)識(shí)別。 傳統(tǒng)基于邏輯規(guī)則的算法由于閾值設(shè)置缺乏靈活性、規(guī)則表達(dá)存在局限性,難以應(yīng)對(duì)瞬息萬(wàn)變的戰(zhàn)場(chǎng)環(huán)境[2-3]。 人工智能技術(shù)的推理、學(xué)習(xí)等能力恰恰能豐富和完善抗干擾過(guò)程中的目標(biāo)與場(chǎng)景定義、特征提取等功能,不僅能提高對(duì)目標(biāo)的檢測(cè)識(shí)別能力,而且能通過(guò)對(duì)環(huán)境及攻防對(duì)抗態(tài)勢(shì)的融合分析生成最佳博弈策略,對(duì)于提高導(dǎo)彈在復(fù)雜環(huán)境下的作戰(zhàn)能力具有重要意義。

自2006年以來(lái),深度學(xué)習(xí)方面的文獻(xiàn)層出不窮[4-6]。 深度學(xué)習(xí)技術(shù)帶來(lái)的進(jìn)步主要體現(xiàn)在能夠從數(shù)據(jù)中學(xué)習(xí)提取出目標(biāo)特征,這些特征無(wú)論從數(shù)量上,還是維度或復(fù)雜度上,都遠(yuǎn)超設(shè)計(jì)人員手工設(shè)計(jì)的特征。 但深度學(xué)習(xí)存在不可解釋的特點(diǎn),這對(duì)于復(fù)雜對(duì)抗、真實(shí)數(shù)據(jù)缺乏的空戰(zhàn)場(chǎng)景應(yīng)用帶來(lái)了較大的不確定性[7-8]。

針對(duì)該問(wèn)題,本文充分利用傳統(tǒng)算法在確定場(chǎng)景下的高可靠性優(yōu)勢(shì)與深度學(xué)習(xí)算法在復(fù)雜場(chǎng)景下的高維特征提取能力,提出一種復(fù)雜對(duì)抗場(chǎng)景下的對(duì)空目標(biāo)混合智能抗干擾算法,最大化挖掘?qū)б^圖像蘊(yùn)含信息,極大提高紅外空空導(dǎo)彈在復(fù)雜場(chǎng)景下的感知對(duì)抗能力。

1 混合智能抗干擾算法

混合智能抗干擾算法是在傳統(tǒng)抗干擾算法框架基礎(chǔ)上,將深度學(xué)習(xí)算法和傳統(tǒng)特征融合算法在彈道階段、特征維度、功能層面結(jié)合的一種智能算法,既保證算法的高準(zhǔn)確率,同時(shí)一定程度上提升了算法的可解釋性。

傳統(tǒng)多特征融合算法以統(tǒng)計(jì)模式識(shí)別算法中的最小距離分類法為核心,使用輸入特征矢量與特征空間中模板的點(diǎn)之間的距離作為分類的準(zhǔn)則。 利用最高灰度、灰度均值、能量、長(zhǎng)寬比、周長(zhǎng)、面積等特征作為分類的依據(jù)。

設(shè)m類中有m個(gè)參考向量R1,R2,…,Rm,分別屬于ω1,ω2,…,ωm。 若輸入特征矢量X與參考向量Ri的距離最小,則認(rèn)為X∈ωi。 X與Ri的距離為

Di(X, Ri)=X-Ri=(X-Ri)T(X-Ri)(1)

式中:當(dāng)Di(X, Ri)<Dj(X, Rj) (j=1, 2, …, m, j≠i)時(shí),X∈ωi。

目前,空空導(dǎo)彈紅外成像導(dǎo)引頭的目標(biāo)探測(cè)識(shí)別與抗干擾策略主要是借助專家知識(shí)進(jìn)行設(shè)計(jì)[9-11],其典型流程是:(1)圖像預(yù)處理,提升信雜比;(2)分割,區(qū)分前景與背景;(3)提取前景區(qū)塊的特征,通常包括灰度、面積、周長(zhǎng)等;(4)根據(jù)特征確定目標(biāo)。 每個(gè)步驟都有多種實(shí)現(xiàn)方法,根據(jù)多個(gè)條件判斷在不同方法之間進(jìn)行切換,實(shí)現(xiàn)多種目標(biāo)檢測(cè)與抗干擾措施之間有規(guī)律的轉(zhuǎn)換。 雖然對(duì)特定類型的場(chǎng)景具有較好的檢測(cè)識(shí)別和抗干擾性能,但很難靈活地適應(yīng)實(shí)戰(zhàn)環(huán)境下瞬息萬(wàn)變的戰(zhàn)場(chǎng)態(tài)勢(shì)。

如圖2所示,不同于傳統(tǒng)算法設(shè)計(jì)的核心思想是將人的認(rèn)識(shí)轉(zhuǎn)化為導(dǎo)彈能夠執(zhí)行的邏輯與規(guī)則集合,融合深度學(xué)習(xí)的混合智能抗干擾算法在此基礎(chǔ)上能夠自動(dòng)從數(shù)據(jù)中學(xué)習(xí)難以直接利用規(guī)則描述的復(fù)雜特征,大大擴(kuò)展可利用的信息維度。

混合智能抗干擾模型原理為

f(Xi)=h{T[Xi, R1i(Xi)], L[Xi, R2i(Xi)],

si(Xi)}(2)

式中:Xi為當(dāng)前圖像;f(Xi)為當(dāng)前算法的輸出結(jié)果;R1i(Xi)為傳統(tǒng)算法特征值;T[Xi, R1i(Xi)]為傳統(tǒng)算法的輸出結(jié)果;L[Xi, R2i(Xi)]為深度學(xué)習(xí)算法的輸出結(jié)果;R2i(Xi)為深度學(xué)習(xí)算法特征值; si(Xi)為當(dāng)前場(chǎng)景分類的結(jié)果。

根據(jù)場(chǎng)景分類si(Xi)的結(jié)果,可以將式(2)變?yōu)橐韵聝煞N形式:

(1) 滿足特征融合要求的形式:

f(Xi)=T[Xi, R1i(Xi)+R2i(Xi)](3)

將傳統(tǒng)特征與深度學(xué)習(xí)特征融合,在傳統(tǒng)多特征融合算法的框架下進(jìn)行目標(biāo)識(shí)別。

(2) 滿足結(jié)果融合要求的形式:

f(Xi)=α·T[Xi, R1i(Xi)]+β·L[Xi, R2i(Xi)](4)

將傳統(tǒng)特征與深度學(xué)習(xí)結(jié)果融合,其中α, β是根據(jù)si(Xi)結(jié)果變化的系數(shù),且α+β=1。

1.1 深度學(xué)習(xí)算法模塊設(shè)計(jì)

深度學(xué)習(xí)本質(zhì)上是構(gòu)建含有多隱層的神經(jīng)網(wǎng)絡(luò),通過(guò)大規(guī)模數(shù)據(jù)進(jìn)行訓(xùn)練,得到大量更具代表性的特征信息。 從而對(duì)樣本進(jìn)行分類和預(yù)測(cè),提高分類和預(yù)測(cè)的精度。 這個(gè)過(guò)程是通過(guò)深度學(xué)習(xí)模型的手段達(dá)到特征學(xué)習(xí)的目的。 深度學(xué)習(xí)模型和傳統(tǒng)淺層學(xué)習(xí)模型的區(qū)別在于:首先,深度學(xué)習(xí)模型結(jié)構(gòu)含有更多的層次,包含隱層節(jié)點(diǎn)的層數(shù)通常在5層以上;其次,明確強(qiáng)調(diào)了特征學(xué)習(xí)對(duì)于深度模型的重要性,即通過(guò)逐層特征提取,將數(shù)據(jù)樣本在原空間的特征變換到一個(gè)新的特征空間來(lái)表示初始數(shù)據(jù),使得分類或預(yù)測(cè)更加容易實(shí)現(xiàn)。

一些人類事先根本沒(méi)注意到的復(fù)雜特征,也能夠被卷積神經(jīng)網(wǎng)絡(luò)提取出來(lái)。 利用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行目標(biāo)檢測(cè)和識(shí)別,不僅大幅提高了圖像識(shí)別的精度,同時(shí)也避免了需要消耗大量時(shí)間進(jìn)行人工特征提取的工作,使得運(yùn)算效率大大提升。

圖3所示為當(dāng)前主要的目標(biāo)檢測(cè)算法。 目前主流的基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法,大致可以分為兩大類別:(1)Two-Stage目標(biāo)檢測(cè)算法。 這類檢測(cè)算法將檢測(cè)問(wèn)題劃分為兩個(gè)階段,第一個(gè)階段產(chǎn)生候選區(qū)域(Region Proposals),包含目標(biāo)大概的位置信息,第二階段對(duì)候選區(qū)域進(jìn)行分類和位置精修。 這類算法的典型代表[12-14]有R-CNN,F(xiàn)ast? R-CNN, Faster? R-CNN等。? (2)One-

Stage目標(biāo)檢測(cè)算法。 這類檢測(cè)算法不需要Region Proposal階段,可以通過(guò)一個(gè)Stage直接產(chǎn)生物體的類別概率和位置坐標(biāo)值。 代表性的算法[15-16]有YOLO,SSD和CornerNet。

目標(biāo)檢測(cè)模型的性能指標(biāo)是檢測(cè)準(zhǔn)確度和速度,其中準(zhǔn)確度主要考慮物體的定位及分類精度。 一般情況下,Two-Stage算法在精度上有優(yōu)勢(shì),而One-Stage算法在速度上有優(yōu)勢(shì)。 不過(guò),隨著研究的發(fā)展,兩類算法都做了改進(jìn),均能在準(zhǔn)確度以及速度上取得較好的結(jié)果。

由于彈載應(yīng)用對(duì)算法實(shí)時(shí)性要求很高。 Two-Stage檢測(cè)算法中,經(jīng)典的檢測(cè)方法生成候選區(qū)域都非常耗時(shí),如R-CNN使用SS(Selective Search)方法生成檢測(cè)框,在Nvidia Titan X上只有0.02 fps的檢測(cè)速度。 即便宣稱極大地提升了檢測(cè)框生成速度的Faster R-CNN在同等條件下也只有7 fps的檢測(cè)速度。 而One-Stage類中的代表算法SSD300,在同等硬件條件下,能夠達(dá)到46 fps,且擁有和Faster R-CNN相當(dāng)?shù)臋z測(cè)精度。 因此,考慮對(duì)空目標(biāo)探測(cè)識(shí)別的高實(shí)時(shí)性要求,本文采用單階段檢測(cè)算法開展算法設(shè)計(jì)。

本文的應(yīng)用場(chǎng)合需要考慮弱小目標(biāo)檢測(cè),選取一個(gè)弱小目標(biāo)檢測(cè)能力強(qiáng)的目標(biāo)分類器是十分必要的,因此,選取了YOLOV3目標(biāo)檢測(cè)算法的尾部分類器[17]。 YOLOV3由華盛頓大學(xué)的Joseph Redmon和Ali Farhadi于2018年提出,旨在提升目標(biāo)檢測(cè)的檢測(cè)效率,試圖使目標(biāo)檢測(cè)達(dá)到實(shí)時(shí)檢測(cè)的程度。 特別在經(jīng)過(guò)改進(jìn)后,YOLOV3能在提升目標(biāo)檢測(cè)效率的同時(shí)保持檢測(cè)精度,是雙贏的算法。

YOLOV3使用的是Darknet-53的網(wǎng)絡(luò)結(jié)構(gòu)(含有53個(gè)卷積層),其借鑒了殘差網(wǎng)絡(luò)的做法,在一些層之間設(shè)置了快捷鏈路(shortcut connections),從而加深了網(wǎng)絡(luò)的深度,使網(wǎng)絡(luò)提取特征的能力更進(jìn)一步加強(qiáng),如圖4所示。

MobileNet是Google提出的一種輕量級(jí)網(wǎng)絡(luò),體積小,計(jì)算量少,適用于移動(dòng)設(shè)備,MobileNetV2[18]在一代基礎(chǔ)上提升了訓(xùn)練速度并有效解決了梯度彌散的問(wèn)題。 雖然MobileNetV2的精度(74.9%)略低于Darknet-53,但由于彈上資源有限,Darknet-53等其他大型網(wǎng)絡(luò)部署起來(lái)會(huì)有困難,權(quán)衡之下,選用MobileNetV2作為YOLOV3的特征提取器。 MobileNetV2網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。

1.2 混合智能抗干擾算法設(shè)計(jì)

從特征級(jí)和決策級(jí)兩個(gè)層面開展傳統(tǒng)目標(biāo)識(shí)別算法與深度學(xué)習(xí)算法的融合設(shè)計(jì)。 決策級(jí):一方面,利用深度學(xué)習(xí)算法輸出結(jié)果輔助傳統(tǒng)算法進(jìn)行執(zhí)行路徑選擇;另一方面,根據(jù)場(chǎng)景對(duì)深度學(xué)習(xí)算法和傳統(tǒng)算法的識(shí)別結(jié)果進(jìn)行融合,在提高目標(biāo)識(shí)別正確概率的同時(shí)保證跟蹤點(diǎn)的穩(wěn)定性。 特征級(jí):通過(guò)深度學(xué)習(xí)算法得到場(chǎng)景所有對(duì)象的態(tài)勢(shì)分布,將該分布態(tài)勢(shì)信息矢量化表示形成特征信息后與傳統(tǒng)算法成像特征進(jìn)行融合。

1.2.1 場(chǎng)景分類

傳統(tǒng)算法在可定義確定場(chǎng)景下能夠取得較好的識(shí)別效果,且具有高可靠性的優(yōu)勢(shì)。 由于場(chǎng)景類別的判斷本身具有一定的難度,而深度學(xué)習(xí)算法可以通過(guò)對(duì)場(chǎng)景中各對(duì)象類型的輸出,綜合得出場(chǎng)景類別[19-21],因此,將深度學(xué)習(xí)算法的場(chǎng)景分類結(jié)果輸出給傳統(tǒng)算法,傳統(tǒng)算法根據(jù)場(chǎng)景類別選擇規(guī)定好的執(zhí)行路徑,提高算法對(duì)于復(fù)雜場(chǎng)景的適應(yīng)能力。

根據(jù)訓(xùn)練好的模型,識(shí)別該時(shí)刻場(chǎng)景所處的分類情況,進(jìn)而選擇更適合的參數(shù)或算法對(duì)圖像進(jìn)行處理,提升處理精度及效率。 如圖5所示,通過(guò)場(chǎng)景分類算法得出目前所處的階段及目標(biāo)態(tài)勢(shì),選擇目標(biāo)態(tài)勢(shì)最適用的算法處理目標(biāo)信息。 如遠(yuǎn)距應(yīng)選擇小目標(biāo)檢測(cè)識(shí)別算法;目標(biāo)若處于復(fù)雜機(jī)動(dòng)條件下,應(yīng)選擇對(duì)應(yīng)的復(fù)雜機(jī)動(dòng)條件下的識(shí)別和跟蹤方法,以確保處理不同場(chǎng)景所依賴的算法及參數(shù)處于最優(yōu)狀態(tài)。

1.2.2 特征融合

目標(biāo)識(shí)別主要基于紅外干擾與真實(shí)空中目標(biāo)在紅外成像上的差異性,充分提取并利用相關(guān)成像特征,構(gòu)建目標(biāo)模型并進(jìn)行識(shí)別判定,抗干擾過(guò)程中存在目標(biāo)特征連續(xù)性被破壞、干擾與目標(biāo)特征相似帶來(lái)的目標(biāo)難以識(shí)別問(wèn)題,而深度學(xué)習(xí)具有極強(qiáng)的特征表示能力,因此,可將卷積神經(jīng)網(wǎng)絡(luò)提取的深度特征與傳統(tǒng)人工特征融合進(jìn)行目標(biāo)識(shí)別。

人工特征的提取主要依賴先驗(yàn)知識(shí),通過(guò)對(duì)圖像分割后的候選區(qū)域進(jìn)行處理,最大程度找出能反映不同樣本間差異的特征變量,通常以能反映能量強(qiáng)度、外形輪廓等的物理量為主。 本文所選的特征有長(zhǎng)寬比、周長(zhǎng)、面積、能量、灰度均值、熵、傅里葉描述子。

深度學(xué)習(xí)網(wǎng)絡(luò)輸出的特征圖反映了像面的對(duì)象分布態(tài)勢(shì),將該分布態(tài)勢(shì)信息矢量化表示形成特征信息后,可以與傳統(tǒng)算法提取的像面成像特征融合,得到更加完整和全面的特征表示。 如發(fā)生目標(biāo)被新的誘餌遮擋情況,利用深度學(xué)習(xí)輸出的分布矢量特征,與傳統(tǒng)算法的成像特征融合,完成當(dāng)前時(shí)刻目標(biāo)與干擾相對(duì)位置矢量的觀測(cè)與估計(jì)。

圖6所示為目標(biāo)與干擾的深度特征圖。 通過(guò)這些抽象程度不高的特征圖可以看出,目標(biāo)與干擾的特征提取較為準(zhǔn)確,其主要輪廓特征可以清晰分辨,特征差別較為明顯,特征描述較為準(zhǔn)確。 不難推斷,高維深度特征也具有此類特性。 所以,對(duì)于目標(biāo)與干擾深度卷積特征,可以用目標(biāo)分類識(shí)別的一項(xiàng)約束,與傳統(tǒng)特征進(jìn)行融合。

圖像經(jīng)過(guò)多次卷積后得到的深度卷積特征維度一般高于傳統(tǒng)特征的維度,通常需將高維卷積特征降維至與傳統(tǒng)特征相同的維度進(jìn)行融合:

Xn=f(Cd, i, j)(5)

式中:Cd, i, j為高維卷積特征;Xn為降維后特征,與傳統(tǒng)特征維度一致;f(x)為降維算法,如主成分分析法(PCA)、線性判別分析法(LDA)等。

1.2.3 識(shí)別結(jié)果融合

導(dǎo)彈作戰(zhàn)需要在識(shí)別出目標(biāo)的同時(shí),測(cè)量目標(biāo)的跟蹤點(diǎn)用于制導(dǎo)系統(tǒng)閉合。 深度學(xué)習(xí)算法可極大提高系統(tǒng)對(duì)于目標(biāo)的識(shí)別分類能力,但對(duì)于跟蹤點(diǎn)的提取并不穩(wěn)定。 故將深度學(xué)習(xí)算法的分類識(shí)別結(jié)果與傳統(tǒng)算法的識(shí)別結(jié)果相結(jié)合,在傳統(tǒng)算法可定義的場(chǎng)景下以傳統(tǒng)算法的識(shí)別結(jié)果為主,輸出跟蹤點(diǎn)供制導(dǎo)系統(tǒng)閉合。

在傳統(tǒng)算法難以識(shí)別出目標(biāo)的場(chǎng)景下,以深度學(xué)習(xí)算法的分類識(shí)別結(jié)果輔助傳統(tǒng)算法進(jìn)行目標(biāo)識(shí)別,并通過(guò)傳統(tǒng)算法輸出目標(biāo)跟蹤點(diǎn),在提高系統(tǒng)目標(biāo)識(shí)別與抗干擾能力的同時(shí),保證跟蹤點(diǎn)的穩(wěn)定性:

xi, j=ti,j, di, j=0α·di, j+β·ti, j, di, j≠0且α+β=1 (6)

式中:xi, j為輸出的目標(biāo)跟蹤點(diǎn);di, j為深度學(xué)習(xí)算法結(jié)果;ti, j為傳統(tǒng)算法識(shí)別結(jié)果;α和β為權(quán)重系數(shù)。

同時(shí),利用深度學(xué)習(xí)算法結(jié)果在目標(biāo)與干擾粘連狀態(tài)下所表現(xiàn)出的對(duì)部分特征依然能精準(zhǔn)鎖定的特性,結(jié)合傳統(tǒng)算法結(jié)果可判定目標(biāo)與干擾的相對(duì)運(yùn)動(dòng)關(guān)系,利用得到的方向特征增強(qiáng)空間約束,提升跟蹤穩(wěn)定性。

混合智能抗干擾算法具體流程如圖7所示。 首先對(duì)輸入的圖像進(jìn)行預(yù)處理,對(duì)處理后的圖像進(jìn)行場(chǎng)景分類識(shí)別,根據(jù)得到的不同階段選用不同的融合算法,最后得到跟蹤目標(biāo)的位置,更新跟蹤框。

1.3 數(shù)據(jù)集構(gòu)造與標(biāo)注

本文采用仿真數(shù)據(jù)集中的復(fù)雜對(duì)抗場(chǎng)景是由導(dǎo)彈發(fā)射初始態(tài)勢(shì)、 載機(jī)機(jī)動(dòng)策略、 誘餌對(duì)抗策略共同耦合生成的。 通過(guò)建立載機(jī)、點(diǎn)源誘餌的運(yùn)動(dòng)、幾何、紅外輻射

模型,導(dǎo)彈的運(yùn)動(dòng)、動(dòng)力學(xué)、制導(dǎo)控制模型及導(dǎo)彈紅外導(dǎo)引頭模型,結(jié)合OSG+GPU實(shí)現(xiàn)紅外場(chǎng)景實(shí)時(shí)動(dòng)態(tài)渲染,構(gòu)成了導(dǎo)彈導(dǎo)引頭彈道數(shù)據(jù)仿真軟件,逼近實(shí)際空戰(zhàn)對(duì)抗環(huán)境的不同彈道數(shù)據(jù)。

構(gòu)建樣本空間,首先進(jìn)行戰(zhàn)場(chǎng)態(tài)勢(shì)想定,彈道中目標(biāo)高度為6 km, 目標(biāo)飛行馬赫數(shù)為0.8;導(dǎo)彈發(fā)射距離為7 km;干擾彈投射距離在2~7 km以500 m為間隔平均劃分為11種投射距離。 樣本集彈道態(tài)勢(shì)如表2所示。

根據(jù)表2,共仿真1 132條彈道,將彈道全過(guò)程輸出格式為256×256的單通道16位灰度圖序列。 提取導(dǎo)引頭圖像序列,分別進(jìn)行目標(biāo)和干擾區(qū)域標(biāo)注,以此作為正、負(fù)樣本構(gòu)造數(shù)據(jù)集,如圖8所示。

2 仿真分析

2.1 實(shí)驗(yàn)條件

仿真測(cè)試數(shù)據(jù)集包括初始發(fā)射條件、目標(biāo)機(jī)動(dòng)、干擾投射策略3個(gè)維度的對(duì)抗條件參數(shù),本實(shí)驗(yàn)所用圖像數(shù)據(jù)集的對(duì)抗條件參數(shù)的量化共包含16個(gè)。

(1) 對(duì)抗態(tài)勢(shì)有7個(gè)參數(shù):目標(biāo)高度、載機(jī)高度、目標(biāo)速度、載機(jī)速度、水平進(jìn)入角、發(fā)射距離、綜合離軸角(可分解為水平離軸角、垂直離軸角);

(2) 目標(biāo)機(jī)動(dòng)有5種類型:無(wú)機(jī)動(dòng)、左機(jī)動(dòng)、右機(jī)動(dòng)、躍升、俯沖;

(3) 紅外干擾投放策略有4個(gè)參數(shù):總彈數(shù)、組數(shù)、彈間隔、組間隔。

本文設(shè)置的測(cè)試集彈道態(tài)勢(shì)如表3所示。 基于表3數(shù)據(jù),使用紅外仿真平臺(tái)產(chǎn)生逼近實(shí)際空戰(zhàn)對(duì)抗環(huán)境的仿真圖像,共生成彈道2 416條。

2.2 實(shí)驗(yàn)結(jié)果

用混合智能抗干擾算法對(duì)多種態(tài)勢(shì)下的飛機(jī)進(jìn)行追蹤,部分結(jié)果如圖9所示。 將飛機(jī)用紅色矩形框標(biāo)出,追蹤點(diǎn)用紅色十字表示。

表4為傳統(tǒng)特征融合算法與混合智能抗干擾融合算法部分詳細(xì)測(cè)試結(jié)果。 測(cè)試方式為相同初始條件下同一條彈道運(yùn)行仿真10次的命中率對(duì)比,脫靶量為20 m。 表5為傳統(tǒng)特征融合算法與混合智能抗干擾融合算法概率指標(biāo)測(cè)試結(jié)果。 實(shí)驗(yàn)結(jié)果表明,在以上測(cè)試條件下,混合智能抗干擾算法具備良好的抗干擾能力,導(dǎo)彈的全程抗干擾概率達(dá)到71.56%,相比傳統(tǒng)算法提高15.77%,驗(yàn)證了算法的有效性與正確性。

3 結(jié)? 論

本文提出了一種復(fù)雜對(duì)抗場(chǎng)景下的對(duì)空目標(biāo)混合智能抗干擾算法, 通過(guò)復(fù)雜對(duì)抗場(chǎng)景構(gòu)成要素分析構(gòu)造了算法的訓(xùn)練和測(cè)試的空戰(zhàn)場(chǎng)景數(shù)據(jù)集,并基于該數(shù)據(jù)集完成了算法的訓(xùn)練和測(cè)試驗(yàn)證。 實(shí)驗(yàn)結(jié)果表明,典型數(shù)據(jù)集下混合智能抗干擾算法的全程抗干擾概率達(dá)到了71.56%,相比傳統(tǒng)算法提高了15.77%,驗(yàn)證了算法的正確性和有效性,對(duì)于提高紅外空空導(dǎo)彈復(fù)雜對(duì)抗場(chǎng)景下的作戰(zhàn)能力具有重要意義。

參考文獻(xiàn):

[1] 樊會(huì)濤, 張蓬蓬. 空空導(dǎo)彈面臨的挑戰(zhàn)[J]. 航空兵器, 2017(2): 3-7.

Fan Huitao, Zhang Pengpeng. The Challenges for Air-to-Air Missile[J]. Aero Weaponry, 2017(2): 3-7.(in Chinese)

[2] 樊會(huì)濤, 閆俊. 自主化: 機(jī)載導(dǎo)彈重要的發(fā)展方向[J]. 航空兵器, 2019, 26(1): 1-10.

Fan Huitao, Yan Jun. The Important Development Direction of Airborne Missile: Autonomization[J]. Aero Weaponry, 2019, 26(1): 1-10.(in Chinese)

[3] 范晉祥,劉嘉.? 精確制導(dǎo)自動(dòng)目標(biāo)識(shí)別智能化的挑戰(zhàn)與思考[J]. 航空兵器,2019,26(1): 30-38.

Fan Jinxiang,Liu Jia. Challenges and Thinking for the Precision Guidance ATR Intelligentization[J].? Aero Weaponry,2019,26(1): 30-38.(in Chinese)

[4] Krizhevsky A,? Sutskever I,? Hinton G E. ImageNet Classification with Deep Convolutional Neural Networks[J].Communications of the ACM,? 2017,? 60(6): 84-90.

[5] Goodfellow I J, Pouget-Abadie J, Mirza M, et al. Generative Adversarial Nets[C]∥Advances in Neural Information Processing Systems, 2014: 2672-2680.

[6] Simonyan K,? Zisserman A. Very Deep Convolutional Networks for Large-Scale Image Recognition[EB/OL].(2014-09-18)[2021-09-12].https:∥arxiv.org/pdf/1409.1556.pdf 2014.

[7] 周飛燕,? 金林鵬,? 董軍. 卷積神經(jīng)網(wǎng)絡(luò)研究綜述[J]. 計(jì)算機(jī)學(xué)報(bào),? 2017,? 40(6): 1229-1251.

Zhou Feiyan,? Jin Linpeng,? Dong Jun. Review of Convolutional Neural Network[J].Chinese Journal of Computers,? 2017,? 40(6): 1229-1251.(in Chinese)

[8] 盧曉,? 梁曉庚,? 賈曉洪. 紅外成像空空導(dǎo)彈智能化抗干擾研究[J]. 紅外與激光工程,? 2021,? 50(4): 29-37.

Lu Xiao,? Liang Xiaogeng,? Jia Xiaohong. Study on Intelligent Counter-Countermeasures of Infrared Imaging Air-to-Air Missiles[J].Infrared and Laser Engineering,? 2021,? 50(4): 29-37.(in Chinese)

[9] Marsiglia G,? Fortunato L,? Ondini A,? et al. Template Matching Techniques for Automatic IR Target Recognition in Real and Simulated Scenarios: Tests and Evaluations[C]∥Automatic Target Re-cognition XIII, 2003, 5094: 159-169.

[10] Berg A C,? Berg T L,? Malik J. Shape Matching and Object Recognition Using Low Distortion Correspondences[C]∥IEEE Compu-ter Society Conference on Computer Vision and Pattern Recognition,? 2005: 26-33.

[11] Ullman S. Object Recognition and Segmentation by a Fragment-Based Hierarchy[J].Trends in Cognitive Sciences,? 2007,? 11(2): 58-64.

[12] Girshick R,? Donahue J,? Darrell T,? et al. Rich Feature Hierarchies for Accurate Object Detection and Semantic Segmentation[C]∥IEEE Conference on Computer Vision and Pattern Recognition, 2014: 580-587.

[13] Girshick R. Fast R-CNN[C]∥IEEE International Conference on Computer Vision, 2015: 1440-1448.

[14] Ren S Q,? He K M,? Girshick R,? et al. Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence,? 2017,? 39(6): 1137-1149.

[15] Redmon J,? Divvala S,? Girshick R,? et al. You Only Look Once: Unified,? Real-Time Object Detection[C]∥ IEEE Conference on Computer Vision and Pattern Recognition,? 2016: 779-788.

[16] Liu W,? Anguelov D,? Erhan D,? et al. SSD: Single Shot MultiBox Detector[M]. Cham: Springer International Publishing,? 2016: 21-37.

[17] Redmon J, Farhadi A.YOLOv3:An Incremental Improvement[EB/OL].(2018-04-08)[2021-09-12].https:∥arxiv.org/pdf/1804.02767.pdf.

[18] Sandler M,? Howard A,? Zhu M L,? et al. Inverted Residuals and Linear Bottlenecks: Mobile Networks for Classification,? Detection and Segmentation[EB/OL]. (2019-03-21)[2021-09-12].https:∥arxiv.org/pdf/1801.04381.pdf.

[19] 郭東恩,? 夏英,? 羅小波,? 等. 基于有監(jiān)督對(duì)比學(xué)習(xí)的遙感圖像場(chǎng)景分類[J]. 光子學(xué)報(bào),? 2021,? 50(7): 87-98.

Guo Dong’en,? Xia Ying,? Luo Xiaobo,? et al. Remote Sensing Image Scene Classification Based on Supervised Contrastive Learning[J]. Acta Photonica Sinica,? 2021,? 50(7): 87-98.(in Chinese)

[20] Mosella-Montoro A,? Ruiz-Hidalgo J. 2D-3D Geometric Fusion Network Using Multi-Neighbourhood Graph Convolution for RGB-D Indoor Scene Classification[J]. Information Fusion,? 2021,? 76: 46-54.

[21] Xu K J,? Huang H,? Deng P F,? et al. Deep Feature Aggregation Framework Driven by Graph Convolutional Network for Scene Classification in Remote Sensing[J]. IEEE Transactions on Neural Networks and Learning Systems,? 1369(99): 1-15.

Research on Hybrid Intelligent Anti-Interference against

Air

Targets in Complex Confrontation Scene

Zhang Liang1, 2,Li Shaoyi3*,Yang Xi3,Tian Xiaoqian3

(1. China Airborne Missile Academy,Luoyang 471009,China;

2. Aviation Key Laboratory of Science and Technology on Airborne Guided Weapons,Luoyang 471009,China;

3. School of Astronautics,? Northwestern Polytechnical University,? Xi’an 710072,? China)

Abstract: Target recognition and anti-interference technology have become key technologies that determine the performance of precision guided weapons. Aiming at the combat characteristics of infrared air-to-air missiles in complex confrontation scene,? this paper analyzes its target recognition and anti-interference development needs,? and proposes a hybrid intelligent anti-interference algorithm that combines traditional algorithms and deep learning. This algorithm makes full use of the high reliability advantages of traditional algorithms in certain scene and the high-dimensional feature extraction capabilities of deep learning algorithms in complex scene,? maximizing the mining of missile detection scene information,? which is of great significance for improving the system’s anti-interference capability. On this basis,? an air combat data set for algorithm testing and training is constructed,? covering typical air combat scene. The experimental results show that under the same feature fusion conditions,? the full anti-interference probability of the hybrid intelligent anti-jamming algorithm in typical scene reaches 71.56%,? which is 15.77% higher than? the traditional algorithm,? which verifies the effectiveness of the algorithm.

Key words:? infrared air-to-air missile; intelligent anti-interference; air combat data set; feature extraction; target recognition; deep learning

收稿日期: 2021-09-14

基金項(xiàng)目: 國(guó)家自然科學(xué)基金項(xiàng)目(61703337);航空科學(xué)基金項(xiàng)目(ASFC20191053002)

作者簡(jiǎn)介:張良(1987-),男,河南洛陽(yáng)人,高級(jí)工程師。

通訊作者:李少毅(1986-),男,陜西西安人,副研究員。

猜你喜歡
目標(biāo)識(shí)別特征提取深度學(xué)習(xí)
同步定位與建圖特征提取和匹配算法研究
基于MED—MOMEDA的風(fēng)電齒輪箱復(fù)合故障特征提取研究
基于曲率局部二值模式的深度圖像手勢(shì)特征提取
全自動(dòng)模擬目標(biāo)搜救系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
動(dòng)態(tài)場(chǎng)景中的視覺(jué)目標(biāo)識(shí)別方法分析
基于PC的視覺(jué)解決方案在 Delta機(jī)器人抓放中的應(yīng)用
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場(chǎng)域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
基于深度卷積網(wǎng)絡(luò)的人臉年齡分析算法與實(shí)現(xiàn)