朱岱寅,耿 哲,俞 翔,韓勝亮,楊衛(wèi)星,呂吉明,葉 錚,閆 賀
(1.南京航空航天大學(xué)電子信息工程學(xué)院,南京 211106;2.南京工程學(xué)院計算機(jī)工程學(xué)院,南京 211167)
目標(biāo)識別是雷達(dá)成像的核心目的之一,其準(zhǔn)確性直接影響作戰(zhàn)人員能否對目標(biāo)敵我屬性及戰(zhàn)場態(tài)勢做出正確判斷。近年來,合成孔徑雷達(dá)(Synthetic aperture radar,SAR)圖像分辨率已經(jīng)提升至亞分米量級,為解決低能見度條件下的目標(biāo)識別和分類問題創(chuàng)造了條件。然而,由于SAR 圖像信噪比隨雷達(dá)作用距離增加而下降,且其幅度值隨目標(biāo)觀測角度變化而發(fā)生隨機(jī)起伏,SAR 目標(biāo)識別在技術(shù)難度上遠(yuǎn)超光學(xué)圖像。SAR 目標(biāo)識別算法的分類準(zhǔn)確性、魯棒性以及遷移、泛化能力主要取決于訓(xùn)練樣本的數(shù)量、質(zhì)量和多樣化程度[1]。
目前,在軍用車輛SAR 圖像目標(biāo)識別領(lǐng)域應(yīng)用最為廣泛的開源數(shù)據(jù)集是美國國防高級研究計劃局(Defense Advanced Research Projects Agency,DARPA)和美國空軍研究實驗室(Air Force Research Laboratory,AFRL)于20 世紀(jì)90 年代中期公布的運(yùn)動和靜止目標(biāo)獲取與識別(Moving and stationary target acquisition and recognition,MSTAR)數(shù)據(jù)集[2]。該數(shù)據(jù)集包含自行榴彈炮、坦克和裝甲車等10 大類22 小類地面軍事目標(biāo)的360°圓周SAR 圖像,俯仰角包含15°、17°、30°、45°四種情況,方位角間隔為1°~5°,圖像分辨率為30 cm×30 cm。雖然MSTAR 數(shù)據(jù)集自公開發(fā)布以來支撐了大量目標(biāo)識別相關(guān)研究,其局限性也日益凸顯,主要包括:目標(biāo)種類少、觀測角度步進(jìn)間距大、成像條件過于理想以及不同俯仰角條件下的觀測樣本雜波背景相關(guān)程度高等[1,3-4]。針對上述問題,部分國外研究機(jī)構(gòu)已經(jīng)針對MSTAR 數(shù)據(jù)集中包含的目標(biāo)自主構(gòu)建了SAR 數(shù)據(jù)集,并在對目標(biāo)識別算法進(jìn)行評估時采用雙數(shù)據(jù)集模式[5-8]。
在民用車輛目標(biāo)SAR 圖像識別方面,最具有代表性的機(jī)載圓周SAR 數(shù)據(jù)集為美國AFRL 和俄亥俄州立大學(xué)的研究人員在2006—2008 年間針對AFRL 內(nèi)部停車場中停放的6 大類59 個車輛目標(biāo)(轎車、皮卡和SUV 等)構(gòu)建的GOTCHA 數(shù)據(jù)集[9]。該數(shù)據(jù)集充分考慮目標(biāo)位姿變化與變形,例如車輛啟動、車門開合、后備箱開閉以及遮陽布覆蓋等[10]。GOTCHA 數(shù)據(jù)集中的目標(biāo)與俄亥俄州立大學(xué)2010 年公布的民用車輛(Civilian vehicle,CV)仿真SAR 數(shù)據(jù)集CV Data Dome 存在對應(yīng)關(guān)系[11],有利于研究人員對實測與仿真SAR 圖像樣本之間的誤差進(jìn)行分析,從而對目標(biāo)CAD 模型及電磁散射模型進(jìn)行修正。
近年來,中國國內(nèi)發(fā)布的SAR 目標(biāo)數(shù)據(jù)集以星載SAR 系統(tǒng)獲取的船舶目標(biāo)圖像為主[12]。2019年起,中國科學(xué)院遙感所、中國科學(xué)院空天信息創(chuàng)新研究院(空天院)、復(fù)旦大學(xué)等研究機(jī)構(gòu)先后公布了基于中國高分國產(chǎn)衛(wèi)星數(shù)據(jù)的SAR 目標(biāo)檢測識別數(shù)據(jù)集。2021 年,空天院的研究人員提出了SAR 目標(biāo)散射拓?fù)涮匦缘谋碚鹘:蛯W(xué)習(xí)計算方法,在星載SAR 圖像飛機(jī)目標(biāo)識別問題中展現(xiàn)出優(yōu)良的性能[13]。2022 年4 月,在上海舉辦的雷達(dá)圖像解譯技術(shù)研討會上,空天院的研究人員宣布該機(jī)構(gòu)已經(jīng)構(gòu)建了一套基于高分國產(chǎn)衛(wèi)星數(shù)據(jù)的SAR目標(biāo)檢測識別數(shù)據(jù)集[13]。
相比于星載SAR,機(jī)載SAR 成本低、機(jī)動性強(qiáng),能夠在短時間內(nèi)對感興趣的地面場景進(jìn)行多角度實時成像。然而,公開發(fā)表的文獻(xiàn)中鮮有針對地面車輛目標(biāo)錄取的機(jī)載圓周SAR 數(shù)據(jù)集。為了填補(bǔ)這一空白,南京航空航天大學(xué)雷達(dá)探測與成像技術(shù)研究團(tuán)隊利用自主研制的多旋翼無人機(jī)(Unmanned aerial vehicle,UAV)機(jī)載高分辨率微小型SAR 系統(tǒng)[14-15]開展了多角度SAR 目標(biāo)回波數(shù)據(jù)的采集工作,構(gòu)建了多種類復(fù)雜地面目標(biāo)SAR 圖像數(shù)據(jù)集。與大型機(jī)載SAR 系統(tǒng)相比,微型SAR 系統(tǒng)具有輕小型化、低功耗、低成本和機(jī)動性強(qiáng)的特點。然而,小型無人機(jī)平臺運(yùn)動軌跡極易受到不穩(wěn)定氣流的影響,且由于載荷限制無法搭載高精度的運(yùn)動和姿態(tài)測量模塊,這些因素所導(dǎo)致的運(yùn)動誤差將嚴(yán)重影響SAR 圖像聚焦質(zhì)量。鑒于此,本文針對運(yùn)動補(bǔ)償及自聚焦處理問題展開研究,提出了基于極坐標(biāo)格式算法(Polar format algorithm,PFA)及后向投影(Back proejction,BP)算法的新型二維自聚焦高精成像算法[15-19]。
2022 年,南航雷達(dá)探測與成像技術(shù)研究團(tuán)隊依托該數(shù)據(jù)集開展了一系列基于人工智能的目標(biāo)識別方法研究。在前期仿真實驗中,主要考慮了4種典型神經(jīng)網(wǎng)絡(luò)模型:VGG-16(大型神經(jīng)網(wǎng)絡(luò))、ResNet-18(中 型 神 經(jīng) 網(wǎng) 絡(luò))、AConvNet[20](小 型 神經(jīng)網(wǎng)絡(luò)-A)以及AlexNet 風(fēng)格的SAMPLE 網(wǎng)絡(luò)[21](小型神經(jīng)網(wǎng)絡(luò)-B)。實驗結(jié)果表明,雖然上述神經(jīng)網(wǎng)絡(luò)在MSTAR 十類目標(biāo)分類問題中均取得了接近100%的分類準(zhǔn)確率,其MiniSAR 數(shù)據(jù)集9 類目標(biāo)分類準(zhǔn)確率尚存在較大提升空間。具體說來,以31°俯仰角數(shù)據(jù)作為訓(xùn)練樣本,37°俯仰角樣本作為測試樣本時,ResNet-18 取得了90%目標(biāo)分類準(zhǔn)確率,略優(yōu)于其他網(wǎng)絡(luò)。而在37°俯仰角數(shù)據(jù)作為訓(xùn)練樣本,45°俯仰角樣本用作測試樣本時,SAMPLE 網(wǎng)絡(luò)獲得的分類準(zhǔn)確率最高,約為80%。上述結(jié)果一方面反映了SAR 圖像聚焦質(zhì)量對于神經(jīng)網(wǎng)絡(luò)目標(biāo)分類準(zhǔn)確率的重要影響,另一方面也驗證了依托單一數(shù)據(jù)集(例如樣本種類數(shù)量有限、成像條件高度理想化的MSTAR 數(shù)據(jù)集)開展SAR 目標(biāo)分類深度學(xué)習(xí)算法研發(fā)及性能評估所存在的缺點。與此同時,ResNet-18 和SAMPLE 網(wǎng)絡(luò)的出色表現(xiàn)也從側(cè)面證實了歐美軍方研究人員近年來提出的一個新的SAR 目標(biāo)分類算法研發(fā)思路:在以低細(xì)粒度為特征的SAR 圖像目標(biāo)分類方面,包含海量參數(shù)的大型神經(jīng)網(wǎng)絡(luò)與中小型網(wǎng)絡(luò)相比并無明顯優(yōu)勢[1,8,21-22],因而不能照搬光學(xué)圖像分類問題的解決方案。本文所提MiniSAR 數(shù)據(jù)集的數(shù)據(jù)錄取環(huán)境與實際應(yīng)用場景較為接近,可以用作MSTAR 數(shù)據(jù)集的輔助數(shù)據(jù)集,為研發(fā)魯棒性高、泛化能力強(qiáng)的SAR 目標(biāo)識別算法提供高質(zhì)量多源SAR 圖像樣本支撐,從而有效規(guī)避訓(xùn)練數(shù)據(jù)有限導(dǎo)致的神經(jīng)網(wǎng)絡(luò)過擬合問題。
無人機(jī)載微型SAR 能夠安全可靠地針對特定目標(biāo)完成圓周SAR 數(shù)據(jù)的錄取工作,且具有成本低、靈活性高和實驗可重復(fù)性好等優(yōu)勢。同固定翼無人機(jī)相比,多旋翼無人機(jī)更適用于圓周成像。國際上比較具有代表性的微型SAR 系統(tǒng)包括美國波音公司、Insitu 公司以及ImSAR 公司2006 年共同研發(fā)的Ku 波段NanoSAR 以及德國弗勞恩霍夫高頻物理與雷達(dá)技術(shù)研究所(FHR)2012 年研發(fā)的W 波段SARape。其中,NanoSAR 質(zhì)量僅為0.9 kg,分辨率0.3 m,而SARape 質(zhì)量為8 kg,分辨率0.15 m。中國針對無人機(jī)載SAR 系統(tǒng)的研制雖然從2010 年前后才開始,但是發(fā)展迅速,中科院電子所、中國電科集團(tuán)38 所、北京理工大學(xué)等多家單位均自主研制出了高分辨率的微型SAR 系統(tǒng)。本實驗使用的X/Ku 波段NUAA MiniSAR 系統(tǒng)為南航雷達(dá)探測與成像技術(shù)研究團(tuán)隊于2017 年自主研發(fā),采用調(diào)頻連續(xù)波體制,分辨率0.1 m,質(zhì)量僅為5 kg,達(dá)到國際領(lǐng)先水平。其主要參數(shù)如表1 所示。搭載平臺為八旋翼無人機(jī),系統(tǒng)近照如圖1(a,b)所示,獲取的紅外圖像、SAR 圖像和光學(xué)圖像在圖1(c)中給出。
表1 X 波段MiniSAR 主要系統(tǒng)參數(shù)Table 1 MiniSAR system parameters of the X band
圖1 南航MiniSAR 實驗系統(tǒng)[15]Fig.1 NUAA MiniSAR system for experiment
圓周模式的微型SAR 數(shù)據(jù)采集幾何關(guān)系如圖2 所示。圖中:θ為方位角;Ra為雷達(dá)到場景中心的距離;φ為俯仰角。由于多旋翼無人機(jī)平臺體積小、質(zhì)量輕,其運(yùn)動軌跡受氣流影響較大,在合成孔徑時間內(nèi)的航跡通常存在非線性問題。鑒于此,針對運(yùn)動補(bǔ)償及自聚焦處理問題展開研究,提出了極坐標(biāo)格式算法(Polar format algorithm,PFA)和反投影(Back projection,BP)算法這兩種新型二維自聚焦高精成像算法。
圖2 基于多旋翼無人機(jī)的微型SAR 圓周軌跡飛行示意圖Fig.2 Circular flight path of multirotor UAV-borne MiniSAR system
(1)自聚焦極坐標(biāo)格式成像算法
PFA 成像不依賴?yán)硐胫本€軌跡假設(shè),非常適合微型SAR 圓周成像處理。然而,PFA 成像質(zhì)量取決于運(yùn)動測量系統(tǒng)是否能提供雷達(dá)平臺與目標(biāo)之間的確切相對位置。由于平臺載荷的限制,小型多旋翼無人機(jī)無法搭載高精度慣性導(dǎo)航系統(tǒng)(Inertial navigation system,INS)和全球定位系統(tǒng)(Global positioning system,GPS),因此位置測量誤差較大。相比于大型機(jī)載平臺,小型無人機(jī)的圓周航跡更為復(fù)雜多變,運(yùn)動誤差在引起方位相位誤差和圖像方位散焦的同時也會導(dǎo)致額外的距離徙動,造成嚴(yán)重的距離向散焦。因此,相位梯度自聚焦算法(Phase gradient autofocus,PGA)等常規(guī)一維自聚焦方法無法滿足無人機(jī)載微型SAR 的高精度成像要求。
針對上述問題,本文提出基于PFA 粗聚焦和多孔徑PGA 精聚焦的信號處理方案。首先利用PFA 對SAR 圖像進(jìn)行粗聚焦處理,然后利用Mapdrift-PGA(MDPGA)算法估計方位向誤差,繼而對距離徙動誤差進(jìn)行估計,最終完成兩維運(yùn)動補(bǔ)償。MDPGA 算法的核心步驟如下:(1)將極坐標(biāo)重采樣后的數(shù)據(jù)在方位向分成多個子孔徑;(2)利用PGA 算法對子孔徑內(nèi)二階及以上高階非線性相位誤差進(jìn)行估計;(3)利用MD 算法對相鄰子孔徑間的相對偏移量進(jìn)行估計,求取相對線性誤差;(4)通過對各子孔徑相對誤差進(jìn)行拼接獲取全孔徑方位相位誤差?;赑FA 算法的圓周軌跡微型SAR高分辨成像處理流程圖如圖3 所示。圖中:f0為載頻;fˉτ為 距 離 頻 率;φ0為 方 位 相 位 誤 差;tˉ為 方 位時間。
圖3 基于PFA 算法的圓周軌跡微型SAR 高分辨成像處理流程圖Fig.3 Flowchart of circular path MiniSAR high-resolution imaging process based on PFA algorithm
圖4 對比了多旋翼無人機(jī)機(jī)載微型SAR 數(shù)據(jù)不同成像處理方法得到的結(jié)果。其中,圖4(a)為未經(jīng)運(yùn)動補(bǔ)償處理的PFA 成像結(jié)果,圖4(b,c)分別為一維和二維運(yùn)動補(bǔ)償處理結(jié)果??梢钥闯觯疚奶岢龅亩S運(yùn)動補(bǔ)償算法擁有更好的高分辨率SAR 圖像聚焦效果。同時,本方法可映射至可編程門陣列(Field programmable gate array,F(xiàn)PGA)技術(shù),實現(xiàn)多組MiniSAR 數(shù)據(jù)高速并行處理與實時成像。
圖4 多旋翼無人機(jī)機(jī)載微型SAR 數(shù)據(jù)不同成像處理方法結(jié)果對比Fig.4 Comparison of results obtained by applying different image processing approaches to the data collected by the multirotor UAV-borne SAR system
(2)自聚焦后向投影成像算法
BP 算法成像的基本原理是對感興趣區(qū)域(Region of interest,RoI)中所有像素點的回波信號沿方位向作相干疊加處理。圓周軌跡飛行對應(yīng)的BP算法流程圖如圖5 所示。圖中:APC 指天線相位中心;Rmn為網(wǎng)格點到雷達(dá)的距離;λ為波長;ta為慢時間。首先,將觀測場景離散成網(wǎng)格并計算每個網(wǎng)格點(即像素點)的坐標(biāo),然后根據(jù)雷達(dá)每個發(fā)射脈沖時刻與每個網(wǎng)格點的距離計算出雙程時延、對應(yīng)距離以及補(bǔ)償相位因子。由于離散采樣,根據(jù)時延估算的距離與采樣點真實位置之間通常存在一定偏差,因此需通過補(bǔ)零插值等手段對距離向匹配濾波信號進(jìn)行細(xì)化。將插值得到像素點信號乘以補(bǔ)償相位,再沿方位向進(jìn)行相干疊加,即可得到每個像素點的值。然而,小型無人機(jī)平臺容易受到氣流擾動影響而偏離理想圓周軌跡,再加上非均勻傳播介質(zhì)所導(dǎo)致的回波時延誤差等因素,高分辨情況下MiniSAR 運(yùn)動測量單元提供的位置信息精度有時無法滿足相干性需求,嚴(yán)重影響SAR 圖像聚焦質(zhì)量。
圖5 圓周軌跡下BP 成像流程圖Fig.5 Flowchart of BP imaging for circular flight path
為了對上述測距誤差和相位誤差進(jìn)行補(bǔ)償,本文提出了特顯點自聚焦算法,算法流程如圖6 所示。該算法基本思路如下:(1)利用距離向脈沖壓縮根據(jù)SAR 平臺理想軌跡實現(xiàn)粗成像,確定特顯點在成像網(wǎng)格中應(yīng)在的位置;(2)對回波信號進(jìn)行距離向傅里葉變換并提取特顯點曲線;(3)求取特顯點實際位置與理想位置之間的距離和相位誤差并進(jìn)行相應(yīng)補(bǔ)償;(4)利用BP 算法對完成特顯點自聚焦處理的SAR 回波數(shù)據(jù)進(jìn)行成像。車輛目標(biāo)和角反射器常規(guī)BP 成像與特顯點自聚焦BP 成像結(jié)果對比圖在圖7 中給出。可以看出,特顯點自聚焦算法能夠有效對距離和相位誤差進(jìn)行補(bǔ)償,顯著改善圖像散焦問題。
圖6 特顯點自聚焦算法流程Fig.6 Flowchart of auto-focusing by exploiting the dominant scatterer
圖7 常規(guī)BP 成像與特顯點自聚焦BP 成像結(jié)果對比Fig.7 Comparison of results of conventional BP imaging and modified BP imaging with auto-focus by exploiting the dominant scatterer
大部分用于目標(biāo)識別的神經(jīng)網(wǎng)絡(luò)都是針對光學(xué)圖像設(shè)計研發(fā)的,與之配套的開源目標(biāo)識別數(shù)據(jù)集十分豐富,包括Places365、80 Million Tiny Images、ImageNet-22k、CIFAR-100、LSUN 等[23]。其中,LSUN 和斯坦福車輛數(shù)據(jù)集共包含200 萬個車輛目標(biāo)光學(xué)圖像樣本。與之相比,可用于SAR圖像目標(biāo)識別的訓(xùn)練樣本十分稀少。從20 世紀(jì)90年代至今,國內(nèi)外車輛目標(biāo)識別相關(guān)研究主要依托美國錄取并公開的少量軍用、民用車輛SAR 數(shù)據(jù)集。另一方面,由于SAR 圖像主要反映目標(biāo)電磁散射特性,肉眼可辨識度較差,再加上SAR 圖像信噪比隨雷達(dá)作用距離增加而下降,且其幅度值隨目標(biāo)觀測角度變化而發(fā)生隨機(jī)起伏,SAR 目標(biāo)識別在技術(shù)難度上遠(yuǎn)超光學(xué)圖像。新興的深度學(xué)習(xí)算法為解決多角度目標(biāo)電磁信息提取過程中的瓶頸問題創(chuàng)造了條件。然而,深度神經(jīng)網(wǎng)絡(luò)的研發(fā)需要大量高質(zhì)量、多角度的訓(xùn)練樣本作為支撐。因此,構(gòu)建擁有自主知識產(chǎn)權(quán)的多角度SAR 目標(biāo)數(shù)據(jù)集是研發(fā)高性能目標(biāo)識別算法的前提。
2021—2022 年間,本文利用前文所述MiniSAR 系統(tǒng)在南京某國防園內(nèi)開展了兩次外場試飛實驗,針對園區(qū)內(nèi)坦克、裝甲車等典型地面軍事目標(biāo)開展了多俯仰角全方位觀測,錄取了大量回波數(shù)據(jù),初步構(gòu)建了包含9 類目標(biāo)的圓周SAR 目標(biāo)數(shù)據(jù)集。MiniSAR 系統(tǒng)成像模式為聚束模式,飛行高度400~500 m,飛行速度5 m/s,方位角覆蓋0°~360°,觀測俯仰 角包含15°、26°、31°、37°和45°,外場實驗觀測場景如圖8 所示。對應(yīng)的軍事目標(biāo)種類在表2 中列出,其中8 類為地面軍事目標(biāo),1 類為飛行器。本數(shù)據(jù)集利用LabelImg 軟件對目標(biāo)進(jìn)行標(biāo)注,結(jié)果保存為XML 格式。
圖8 各類目標(biāo)實拍圖Fig.8 Electro-optical images of targets
表2 數(shù)據(jù)集地面目標(biāo)種類列表Table 2 List of ground targets included in the dataset
圖9(a)給出了數(shù)據(jù)集中單幅圖像的矩形框標(biāo)注示例,圖9(b)給出的是圖9(a)圖中某一目標(biāo)(62輕型坦克)的標(biāo)注信息截圖。每個XML 文件包含圖像中所有目標(biāo)的存儲路徑、文件名、像素大小、目標(biāo)類別以及目標(biāo)錨框位置等信息。
圖9 目標(biāo)標(biāo)注示意圖Fig.9 Image annotation for targets
圖10 給出了課題組利用無人機(jī)平臺搭載光學(xué)相機(jī)、紅外傳感器和MiniSAR 系統(tǒng)獲取的9 類目標(biāo)光學(xué)圖像、紅外圖像以及SAR 圖像樣本對比圖。可以看出,光學(xué)圖像與紅外圖像所包含的信息比SAR 圖像更為直觀。然而,光學(xué)和紅外圖像的分辨率隨傳感器到目標(biāo)距離的增加而降低,SAR 圖像分辨率則不受距離影響,在遠(yuǎn)距離成像時有顯著優(yōu)勢。因此,紅外圖像與SAR 圖像之間的異源信息融合有助于提升復(fù)雜場景中運(yùn)動與靜止目標(biāo)識別的魯棒性。本文利用同一無人機(jī)平臺獲取的SAR 圖像和紅外圖像樣本能夠有效支撐基于異源信息融合的目標(biāo)識別研究。
圖10 各類目標(biāo)光學(xué)圖像、紅外圖像及SAR 圖像切片F(xiàn)ig.10 Electro-optical, infrared and SAR image chips of targets
SAR 目標(biāo)識別常用的統(tǒng)計機(jī)器學(xué)習(xí)方法包括主成分分析(Principal component analysis,PCA)、支持向量機(jī)(Support vector machine,SVM)、K 近鄰(K-nearest neighbor,KNN)、自適應(yīng)增強(qiáng)(Adaptive boosting,AdaBoost)以及基于屬性散射中心(Attribute scattering center,ASC)的目標(biāo)識別方法等。新興的深度學(xué)習(xí)算法在分類準(zhǔn)確性方面優(yōu)于統(tǒng)計機(jī)器學(xué)習(xí)方法,但是存在物理可解釋性較差的問題。
目前,國內(nèi)外目標(biāo)識別方法相關(guān)研究主要依托公開版MSTAR 數(shù)據(jù)集。MSTAR 項目在1995至1997 年間共進(jìn)行過3 次數(shù)據(jù)采集,僅前兩次采集的數(shù)據(jù)就包含36 類目標(biāo),但是開源數(shù)據(jù)集中僅包含10 大類目標(biāo)。在基于深度學(xué)習(xí)的SAR ATR算法研發(fā)方面,15°/17°俯仰角觀測數(shù)據(jù)分別作為訓(xùn)練/測試樣本的標(biāo)準(zhǔn)工作條件(Standard operation condition,SOC)MSTAR 十類目標(biāo)分類準(zhǔn)確率早在2016 年就已突破99%。另一方面,涉及大俯仰角變化、目標(biāo)剛性變形、子型號識別和低信雜比情形的擴(kuò)展工作條件(Extended operation condition,EOC)目標(biāo)分類問題仍亟待解決。具體說來,美國萊特州立大學(xué)及AFRL 的研究人員于2016 年 提 出 了AFRLeNet,取 得 了99.4% 的MSTAR SOC 十類目標(biāo)分類準(zhǔn)確率[24]。同年,復(fù)旦大學(xué)的研究人員提出了新型深度卷積神經(jīng)網(wǎng)絡(luò)A-ConvNets,其SOC 及兩類擴(kuò)展工作條件(EOC-1,EOC-2)的分類準(zhǔn)確率分別達(dá)到了99.1%、96.1%和98.9%[20]。其中,EOC-1 指訓(xùn)練/測試樣本分別為17°/30°俯仰角觀測數(shù)據(jù)時4 類目標(biāo)分類問題,EOC-2 主要關(guān)注15°和17°俯仰角獲取的BMP2 及T72 子型號樣本分類問題。2021 年,國防科技大學(xué)的研究人員提出將目標(biāo)部件模型和深度學(xué)習(xí)算法有機(jī)結(jié)合起來,首先利用雙向卷積循環(huán)網(wǎng)絡(luò)按照目標(biāo)部件ASC 模型提取目標(biāo)局部特征,然后利用全卷積網(wǎng)絡(luò)提取目標(biāo)全局特征,繼而通過融合局部和全局特征對目標(biāo)種類進(jìn)行判決,最終取得了高于99%的EOC-1 識別準(zhǔn)確率[25]。
需要指出的是,由于公開版MSTAR 數(shù)據(jù)集僅有4 類目標(biāo)包含30°俯仰角觀測數(shù)據(jù),文獻(xiàn)[20,25]中所獲得的接近100%的EOC 識別準(zhǔn)確率均由3類/4 類目標(biāo)30°俯仰角標(biāo)準(zhǔn)目標(biāo)形態(tài)相關(guān)數(shù)據(jù)評估得到。在采用45°俯仰角和目標(biāo)剛性變形數(shù)據(jù)(如炮塔旋轉(zhuǎn)等)進(jìn)行測試時,上述深度學(xué)習(xí)算法分類準(zhǔn)確率約為77%。2021 年,本課題組研究人員提出了基于仿真SAR 數(shù)據(jù)先驗知識和元學(xué)習(xí)的目標(biāo)識別方法,3 類目標(biāo)45°俯仰角樣本分類準(zhǔn)確率達(dá)到79.3%,略高于其他深度學(xué)習(xí)算法[26]。17°俯仰角SAR 圖像作為訓(xùn)練樣本時,其他常見深度學(xué)習(xí)網(wǎng)絡(luò)的MSTAR SOC 及EOC-1 目標(biāo)分類準(zhǔn)確率在表3 中給出。其中,文獻(xiàn)[27]中新近提出的EMC2A-Net 在神經(jīng)網(wǎng)絡(luò)模型參數(shù)數(shù)量及分類準(zhǔn)確率上都具有較為明顯的優(yōu)勢。
表3 現(xiàn)有深度學(xué)習(xí)網(wǎng)絡(luò)的時間成本及分類準(zhǔn)確率(MSTAR)Table 3 Time efficiency and classification accuracy provided by existing deep learning networks (MSTAR)
綜上所述,雖然MSTAR 數(shù)據(jù)集SOC 十類目標(biāo)分類準(zhǔn)確率早在2016 年就已突破99%,但是涉及45°俯仰角觀測樣本及目標(biāo)剛性變形的EOC3類/4 類目標(biāo)識別問題仍亟待解決。特別地,單純依賴深度學(xué)習(xí)算法取得的3 類目標(biāo)45°俯仰角識別準(zhǔn)確率最高僅為80%。雖然一些研究人員利用字典學(xué)習(xí)法、稀疏表示法等方法獲得了高于90%的3類 目 標(biāo)45°俯 仰 角 識 別 準(zhǔn) 確 率[28],但 是 由 于MSTAR 相關(guān)樣本種類數(shù)量限制,其泛化能力仍有待驗證。同時,文獻(xiàn)[29]提出的SAR 目標(biāo)分類算法大多單純依托公開版MSTAR 數(shù)據(jù)集評估算法的分類準(zhǔn)確性,對實際工程應(yīng)用環(huán)境中陌生目標(biāo)和雜波背景的潛在影響,以及深度神經(jīng)網(wǎng)絡(luò)模型提取目標(biāo)特征圖的內(nèi)在機(jī)理缺乏系統(tǒng)深入的分析。
為了解決上述問題,南航雷達(dá)探測與成像技術(shù)研究團(tuán)隊依托自主研制的無人機(jī)載高分辨率微小型SAR 系統(tǒng),通過研發(fā)新型高精度微型SAR 成像算法及運(yùn)動誤差補(bǔ)償算法,初步構(gòu)建了擁有自主知識產(chǎn)權(quán)的9 類典型軍事目標(biāo)圓周MiniSAR 數(shù)據(jù)集,并利用該數(shù)據(jù)集開展了一系列目標(biāo)識別方法研究。本文在前期仿真實驗中主要考慮4 種極具代表性的 神 經(jīng) 網(wǎng) 絡(luò) 模 型:VGG-16、ResNet-18、AConvNet[20]以 及AlexNet 風(fēng) 格 的SAMPLE 網(wǎng) 絡(luò)[21]。其中,VGG-16 代表模型訓(xùn)練時間成本高的大型神經(jīng)網(wǎng)絡(luò),ResNet-18 代表中型神經(jīng)網(wǎng)絡(luò),AConvNet和SAMPLE 網(wǎng)絡(luò)代表訓(xùn)練時間成本低的小型神經(jīng)網(wǎng)絡(luò)。這些網(wǎng)絡(luò)模型的框架圖在圖11 中給出。實驗結(jié)果表明,雖然上述經(jīng)典深度神經(jīng)網(wǎng)絡(luò)在MSTAR 數(shù)據(jù)集目標(biāo)分類問題上展現(xiàn)出優(yōu)越的性能,這些網(wǎng)絡(luò)并不能有效地解決MiniSAR 數(shù)據(jù)集目標(biāo)分類問題。31°及37°俯仰角MiniSAR 圖像分別作為訓(xùn)練和測試樣本時,VGG-16、ResNet18、AConvNet、SAMPLE 等4 種 經(jīng) 典 深 度 學(xué) 習(xí) 網(wǎng) 絡(luò)MiniSAR 數(shù)據(jù)集9 類目標(biāo)分類準(zhǔn)確率在表4 中給出。其中,31°和37°俯仰角所對應(yīng)的樣本數(shù)分別為5 009 和4 915??梢钥闯?,ResNet18 取得的準(zhǔn)確率最高,為89.88%。而AConvNet 獲得的分類準(zhǔn)確率最低,為81.35%。作為對比,37°及45°俯仰角MiniSAR 圖像分別作為訓(xùn)練和測試樣本時上述4種神經(jīng)網(wǎng)絡(luò)的識別準(zhǔn)確率也在表4 中給出。AlexNet 風(fēng)格的SAMPLE 網(wǎng)絡(luò)[21]取得的準(zhǔn)確率最高,為80.45%,而擁有上億參數(shù)量的大型神經(jīng)網(wǎng)絡(luò)VGG16 的識別準(zhǔn)確率僅為61.38%。37°及45°俯仰角數(shù)據(jù)分別作為訓(xùn)練和測試數(shù)據(jù)時目標(biāo)分類準(zhǔn)確率較低的主要原因是無人機(jī)平臺在圓周飛行過程中偏離理想航跡的運(yùn)動軌跡并未得到精準(zhǔn)補(bǔ)償,各俯仰角獲得的SAR 圖像樣本聚焦質(zhì)量起伏較大。因此,本文將對所提運(yùn)動補(bǔ)償及二維自聚焦算法進(jìn)行進(jìn)一步改良,以期在后續(xù)外場采樣實驗中提升SAR 圖像樣本的質(zhì)量。
圖11 神經(jīng)網(wǎng)絡(luò)模型框架圖Fig.11 Diagrams of neural network models
表4 現(xiàn)有深度學(xué)習(xí)網(wǎng)絡(luò)MiniSAR 數(shù)據(jù)集分類準(zhǔn)確率Table 4 Classification accuracy for MiniSAR dataset provided by existing deep learning networks
表4 中的結(jié)果充分證明了依托單一種類的SAR 數(shù)據(jù)集對神經(jīng)網(wǎng)絡(luò)進(jìn)行性能評估存在一定的片面性。與此同時,表4 中給出的實驗結(jié)果也從側(cè)面佐證了歐美軍方研究人員在近年來提出并反復(fù)驗證的一個重要觀點:雖然包含海量參數(shù)的大型神經(jīng)網(wǎng)絡(luò)在高細(xì)粒度光學(xué)圖像識別任務(wù)中展現(xiàn)出中小型網(wǎng)絡(luò)無法比擬的優(yōu)越性,在以低細(xì)粒度為特征的SAR 圖像分類方面,小型網(wǎng)絡(luò)的性 能 有 時 優(yōu) 于 大 型 神 經(jīng) 網(wǎng) 絡(luò)[1,8,21-22]。本 領(lǐng) 域 的研究人員應(yīng)該認(rèn)識到,SAR 圖像與光學(xué)圖像在成像原理方面存在本質(zhì)區(qū)別,不能完全照搬光學(xué)圖像識別的研究思路。只有以高質(zhì)量多源SAR 數(shù)據(jù)集作為數(shù)據(jù)支撐,才能針對SAR 目標(biāo)識別問題提出工程實用性強(qiáng)的神經(jīng)網(wǎng)絡(luò)模型設(shè)計方案,有效規(guī)避訓(xùn)練數(shù)據(jù)有限導(dǎo)致的神經(jīng)網(wǎng)絡(luò)過擬合問題。
在實際工程應(yīng)用場景中,地面目標(biāo)不一定處于理想靜止?fàn)顟B(tài)及標(biāo)準(zhǔn)位姿。為了防止目標(biāo)識別算法在訓(xùn)練過程中過于偏重雜波背景信息而忽略目標(biāo)本身的關(guān)鍵特征,筆者計劃后期充分利用無人機(jī)載微型SAR 機(jī)動性強(qiáng)的優(yōu)勢,針對多種可移動目標(biāo)開展不同觀測場景(公路、沙地、草地和泥地等)下的全方位圓周SAR 數(shù)據(jù)錄取,從而構(gòu)建雜波背景及目標(biāo)運(yùn)動狀態(tài)/形態(tài)富于變化的大型地面目標(biāo)SAR 圖像樣本庫,為面向工程應(yīng)用的地面目標(biāo)分類算法研發(fā)提供數(shù)據(jù)支持。其次,筆者擬利用同一無人機(jī)搭載的微型SAR 系統(tǒng)和紅外成像系統(tǒng)針對多類地面目標(biāo)進(jìn)行成像并構(gòu)建平行數(shù)據(jù)集,繼而通過紅外成像與SAR 圖像之間的異源信息融合提升復(fù)雜場景中目標(biāo)識別的魯棒性。
本文介紹了南航雷達(dá)探測與成像技術(shù)研究團(tuán)隊利用自主研制的無人機(jī)載高分辨率MiniSAR 系統(tǒng)針對9 類地面軍事目標(biāo)錄取圓周SAR 數(shù)據(jù)并構(gòu)建數(shù)據(jù)集的主要流程,以及依托該數(shù)據(jù)集所開展的基于人工智能的目標(biāo)識別方法的研究工作。本文通過對一系列實驗結(jié)果進(jìn)行深入分析得到如下結(jié)論:
(1)SAR 圖像聚焦質(zhì)量對于深度神經(jīng)網(wǎng)絡(luò)的目標(biāo)分類準(zhǔn)確率具有重要影響。本文所提基于極坐標(biāo)格式算法及后向投影算法的新型二維自聚焦高精成像算法能夠有效改善無人機(jī)非線性運(yùn)動以及運(yùn)動模塊測量誤差所導(dǎo)致的SAR 圖像散焦問題,有效地提升了SAR 圖像訓(xùn)練樣本質(zhì)量。另一方面,無人機(jī)平臺隨機(jī)抖動而導(dǎo)致的偶發(fā)性運(yùn)動補(bǔ)償誤差及圖像散焦問題仍未能得到徹底解決,表明本文所提自聚焦算法仍存在一定的改進(jìn)空間。
(2)雖然美國90 年代末期公布的MSTAR 數(shù)據(jù)集對SAR 目標(biāo)分類算法的研發(fā)起到了重要的促進(jìn)作用,但是該數(shù)據(jù)集也存在多類目標(biāo)關(guān)鍵角度樣本缺失、成像條件高度理想化等問題。因此,單純依托該數(shù)據(jù)集開展基于深度學(xué)習(xí)的SAR 目標(biāo)算法研究工作存在一定的局限性。與MSTAR 數(shù)據(jù)集相比,本文所提地面目標(biāo)多角度MiniSAR 數(shù)據(jù)集的數(shù)據(jù)錄取環(huán)境與SAR 目標(biāo)識別實際工程應(yīng)用場景更為接近,能夠為研發(fā)魯棒性高、泛化能力強(qiáng)的SAR 目標(biāo)識別深度學(xué)習(xí)算法提供有力的數(shù)據(jù)支撐,有效避免神經(jīng)網(wǎng)絡(luò)模型設(shè)計過程中可能出現(xiàn)的過擬合問題。