国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種多視角SAR圖像目標(biāo)識別方法*

2022-01-04 06:03:50楊小英陳海媚廖志平
電訊技術(shù) 2021年12期
關(guān)鍵詞:門限識別率聚類

陳 婕,潘 潔,楊小英,陳海媚,廖志平

(桂林信息科技學(xué)院 機電工程系,廣西 桂林 541004)

0 引 言

合成孔徑雷達(Synthetic Aperture Radar,SAR)可獲取高分辨率圖像,用于地表觀測、地質(zhì)勘測、情報解譯等應(yīng)用[1-2]。傳統(tǒng)的SAR目標(biāo)識別主要針對單一視角的圖像,通過特征提取和分類器的結(jié)合進行分類確認。文獻[3-5]分別采用主成分分析(Principal Component Analysis,PCA)、單演信號以及屬性散射中心作為基礎(chǔ)特征設(shè)計目標(biāo)識別方法,文獻[6-7]則是基于深度學(xué)習(xí)模型即卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)進行SAR目標(biāo)識別。

與單視角方法相比,多視角SAR目標(biāo)識別方法基于同一目標(biāo)的不同視角圖像,通過它們之間的互補提高識別性能。從現(xiàn)有文獻來看,多視角方法主要采用兩種思路。一種是“獨立分類+決策融合”。這類方法將每個視角視為獨立的信息源,按照單視角決策的過程獲得分類結(jié)果,然后采用決策融合綜合不同視角的結(jié)果獲得最終的決策[8-9]。例如,文獻[8]采用支持向量機(Support Vector Machine,SVM)分別對不同視角SAR圖像進行分類,然后根據(jù)投票機制獲得融合決策結(jié)果。文獻[9]同樣采用SVM作為基礎(chǔ)分類器,但對不同視角的決策結(jié)果進行了可靠性篩選,只有通過篩選的視角進入后續(xù)的貝葉斯融合決策。另一種是“聯(lián)合表征+分類”。得益于多任務(wù)學(xué)習(xí)算法的提出,可在統(tǒng)一表征框架下對不同視角的SAR圖像進行分析,然后進行決策[10-13]。文獻[10]首次將聯(lián)合稀疏表示模型引入SAR圖像多視角分類并驗證其有效性。文獻[11]在此基礎(chǔ)上增加了視角篩選,認為只有鑒別力強的視角才能參加聯(lián)合表征。文獻[12]將多視角與多特征聯(lián)合運用,對不同視角提取不同的特征并通過聯(lián)合稀疏表示進行分類。文獻[13]對多視角SAR圖像進行聚類分析,分別在各個視角子集中進行聯(lián)合稀疏表示,最后對不同視角集的決策結(jié)果進行線性加權(quán)融合。

本文根據(jù)現(xiàn)有多視角SAR圖像目標(biāo)識別方法進行優(yōu)化設(shè)計,主要在文獻[13]方法的基礎(chǔ)上引入多重集典型相關(guān)(Multiset Canonical Correlations Analysis,MCCA)[14-15]特征融合算法。本文在繼承多視角聚類算法的基礎(chǔ)上,相比文獻[13]對后續(xù)的處理過程進行了優(yōu)化處理,可有效提高多視角SAR圖像的利用率。特別地,對于只包含一幅SAR圖像的視角集,則直接采用其特征矢量,無需進行MCCA操作。在MSTAR數(shù)據(jù)集上開展的實驗結(jié)果表明,本文方法具有更好的識別性能。

1 基于相關(guān)準(zhǔn)則的多視角聚類

對于同一目標(biāo)的多視角SAR圖像,由于獲得的隨機性,其中部分相近視角的相關(guān)性更強,而相差較大的視角則相關(guān)性較弱。為此,對多視角的相關(guān)性進行分析十分必要。本文以傳統(tǒng)的圖像相關(guān)性為多視角聚類的準(zhǔn)則,定義如下:

(1)

式中:I1和I2分別代表兩幅不同圖像,m1和m2為它們的灰度均值;Δk和Δl指橫縱坐標(biāo)的偏置,實現(xiàn)滑動匹配的過程。

以式(1)的相關(guān)性準(zhǔn)則為依據(jù),對多視角SAR圖像V={I1,I2,…,IN}進行聚類。首先,分別計算不同視角兩兩之間的相關(guān)性,記錄如表1所示。后續(xù)算法描述如下:

表1 不同視角的相關(guān)矩陣

Step1 設(shè)置相關(guān)性門限Tc,初始化t=1。

Step2 設(shè)置I1為初始聚類中心,記St={1},執(zhí)行以下循環(huán)判斷:

forj={1,2,…,N}

ifc1St≥Tc

St=St∪j

end

end

Step3 得到一組視角集St。

Step4 更新V=VSt,t=t+1;重復(fù)Step 1~3,直到所有視角均獲得聚類。

上述步驟中,“”表示余集操作,c1St≥Tc指的是I1與St中每個視角的相關(guān)系數(shù)均高于門限Tc。門限值的選取一般可采用經(jīng)驗分析加部分測試。在歸一化相似度的條件下,門限取值一般趨于區(qū)間的中間值,保證聚類相關(guān)性和視角獨立性的平衡。同時,結(jié)合部分合作訓(xùn)練和測試集進行測試,觀察不同門限條件下的識別精度,可獲取較為理想的相似度門限。經(jīng)過上述聚類算法,原始的N個視角被重新劃分為若干個子集。對于包含多幅SAR圖像的子集,其中各個視角具有較高的內(nèi)在相關(guān)性。

2 基于MCCA的多視角融合及聯(lián)合表征

2.1 基于MCCA的多視角特征融合

MCCA[14-15]是典型相關(guān)分析(Canonical Correlation Analysis,CCA)的擴展,具備對多個隨機變量的處理能力,主要用于分析它們之間的內(nèi)在相關(guān)性[15-16]。對于n個經(jīng)過中心化后的隨機變量X1,X2,…,Xn,維數(shù)分別為pi(i=1,2,…,n)。設(shè)定p1最小,MCCA定義如式(2)所示的準(zhǔn)則函數(shù):

(2)

(3)

通過Lagrange乘子法進行求解,構(gòu)造如下:

(4)

獲得上式的求解結(jié)果,獲得變換矩陣A=[α1,α2,…,αn]T,其中:

(5)

式中獲得的是不同Xi最佳的投影方向,采用線性疊加的形式即可對它們進行融合處理,如下式所示:

(6)

本文采用MCCA對不同視角子集進行處理。對于同一視角子集中的若干SAR圖像特征矢量,按照MCCA的過程進行融合,獲得單一的特征矢量。融合后的結(jié)果在保持不同視角獨立鑒別力的基礎(chǔ)上,保留了它們之間的內(nèi)在關(guān)聯(lián)特性,因此具有更強的鑒別力。

2.2 聯(lián)合稀疏表示

聯(lián)合稀疏表示是一種多任務(wù)學(xué)習(xí)算法,主要針對多個具有關(guān)聯(lián)性的稀疏表示問題[10-13]。對于多個視角子集融合得到的特征矢量,本文采用聯(lián)合稀疏表示進行表征和分類。記所有SAR圖像經(jīng)過聚類獲得M個視角子集,經(jīng)過融合后對應(yīng)的特征矢量分別為y=[y(1),y(2),…,y(M)],它們獨立的稀疏表示問題如下:

y(k)=D(k)α(k)+ε(k),k=1,2,…,M。

(7)

式中:D(k)、α(k)、ε(k)分別對應(yīng)第k個融合特征的字典、稀疏系數(shù)矢量以及表征誤差。

對M個視角子集的稀疏表示問題進行共同考察,獲得聯(lián)合表征模型如下:

(8)

式中:β=[α(1),α(2),…,α(M)]為所有稀疏系數(shù)矢量的矩陣表達式。

式(8)所示的聯(lián)合表征模型僅僅在形式上進行了統(tǒng)一,并沒有利用不同視角子集之間的關(guān)聯(lián)性。具有關(guān)聯(lián)性約束的聯(lián)合稀疏表示模型通過對稀疏矩陣β進行適當(dāng)約束,提高整體求解精度,表達如下:

(9)

式中:‖·‖2,1為1/2范數(shù)。根據(jù)式(9)獲得的稀疏系數(shù)矩陣,可分別計算不同類別的重構(gòu)誤差,進而生成目標(biāo)所屬類別的決策結(jié)果。

(10)

本文方法的實施流程如圖1所示,主要過程分為多視角的聚類、視角子集的特征融合以及多視角子集特征的聯(lián)合表征。具體過程中,對于每一個視角的SAR圖像均采用主成分分析作為基本特征提取及降維手段,后續(xù)的特征融合及聯(lián)合表征均在此特征基礎(chǔ)上進行。

圖1 方法實施流程圖

3 實驗與分析

3.1 MSTAR數(shù)據(jù)集

采用MSTAR數(shù)據(jù)集開展實驗,對方法的性能進行測試分析。該數(shù)據(jù)集包含圖2所示的10類目標(biāo),它們對應(yīng)SAR圖像相關(guān)信息如表2所列。表3設(shè)置了本文實驗中使用的訓(xùn)練和測試集,包含了10類目標(biāo)的類別、型號、樣本數(shù)、俯仰角等。

表2 MSTAR數(shù)據(jù)集相關(guān)信息

表3 10類目標(biāo)識別的訓(xùn)練和測試集

圖2 MSTAR數(shù)據(jù)集目標(biāo)光學(xué)圖像

實驗中,重點將所提方法與來自文獻[8,11-13]的多視角SAR目標(biāo)識別方法進行對比分析,分別記為“對比方法1”“對比方法2”“對比方法3”“對比方法4”。其中,對比方法1屬于“獨立分類+決策融合”類別,后三種對比方法都屬于“聯(lián)合表征+分類”類別。各類方法均在相同硬件平臺上運行,主頻3.4 GHz,8 GB RAM英特爾i7處理器。采用識別率作為方法性能的評價準(zhǔn)則,定義為正確識別樣本數(shù)占全部測試樣本的比例。

3.2 實驗場景與結(jié)果分析

3.2.1 標(biāo)準(zhǔn)操作條件

按照表3的設(shè)置,采用MSTAR數(shù)據(jù)集中的原始樣本進行識別實驗。此時,可認為實驗場景為標(biāo)準(zhǔn)操作條件,即測試樣本與訓(xùn)練樣本整體相似度較高。當(dāng)前實驗設(shè)置當(dāng)設(shè)置視角數(shù)目為5,相關(guān)門限為0.4。圖3顯示了本文方法和四類對比方法的識別結(jié)果,各個混淆矩陣中對角線元素即為對應(yīng)目標(biāo)的正確識別率。從表3可見,BMP2和T72的測試子型號多于訓(xùn)練子型號,這導(dǎo)致它們的識別率在10類目標(biāo)中相對較低。綜合10類目標(biāo)識別結(jié)果,表4對比了不同方法在當(dāng)前場景下的平均識別率和識別單個測試樣本的平均時間消耗。在識別精度方面,本文方法在當(dāng)前條件下的性能更優(yōu),體現(xiàn)了其有效性。相對采用“獨立分類+決策融合”的對比方法1,后三類基于“聯(lián)合表征+分類”的多視角方法的整體識別率更高,體現(xiàn)了不同視角之間內(nèi)在相關(guān)性的作用。與對比方法3相比,本文通過引入基于MCCA的多視角融合提高了平均識別精度,說明了所提策略的有效性。可見,所提方法在標(biāo)準(zhǔn)操作條件的場景下具有更強有效性。在識別效率方面,本文方法同樣具有優(yōu)勢。與對比方法4相比,本文方法的效率進一步提高,主要是對比方法4需要在各個視角集中進行聯(lián)合稀疏表示,導(dǎo)致整體運算量增加。本文對于各個視角集采用MCCA進行高效融合,最終只需要進行一次聯(lián)合稀疏表示,因此效率上更具優(yōu)勢。

表4 標(biāo)準(zhǔn)操作條件下的平均識別率

圖3 標(biāo)準(zhǔn)操作條件下各類方法的混淆矩陣

根據(jù)視角聚類算法,門限Tc對最終的聚類結(jié)果有著重要影響。因此,選取合適的聚類門限十分重要。表5給出了不同門限條件下所提方法的平均識別率,其在Tc=0.45時效果最佳。門限過小時,對于不同視角之間的相關(guān)性約束過弱,即導(dǎo)致存在較大差異的視角聚入一類;反之,當(dāng)門限過大時,則對不同視角之間的相關(guān)性約束過強,則單個視角都傾向于自稱一類,失去了聚類分析的價值。根據(jù)這一結(jié)果,本文在后續(xù)實驗確定聚類相關(guān)門限為Tc=0.45。

表5 不同聚類相關(guān)門限條件下的平均識別率

3.2.2 噪聲干擾

無論是光學(xué)圖像還是雷達圖像,其在獲取過程中不可避免地受到噪聲污染。在實際應(yīng)用的識別系統(tǒng)中,訓(xùn)練樣本往往經(jīng)過精心挑選和預(yù)處理,具有較高的圖像質(zhì)量和信噪比(Signal-to-Noise Ratio,SNR)。然而,測試樣本則來自相對隨機的獲取條件,存在圖像質(zhì)量差、信噪比低的情形。為此,識別算法的噪聲穩(wěn)健性十分重要。本實驗在表3訓(xùn)練和測試集的基礎(chǔ)上,對10類目標(biāo)的測試樣本進行噪聲添加,獲得多個不同信噪比的測試集[5],然后分別對各類方法進行測試。表6統(tǒng)計了當(dāng)前實驗場景下的識別率結(jié)果。與標(biāo)準(zhǔn)操作條件下的結(jié)果相比,噪聲干擾下各類方法的性能都出現(xiàn)了下降。觀察每個信噪比下的結(jié)果,可見在每個噪聲水平下本文方法均可以取得最高的平均識別率,體現(xiàn)了其噪聲穩(wěn)健性。

表6 噪聲干擾的識別率統(tǒng)計結(jié)果

根據(jù)文獻[10-13],稀疏表示對于噪聲干擾具有一定的穩(wěn)健性,這也反映在表6中后三類對比方法的性能優(yōu)于基于SVM的對比方法1。本文方法在使用聯(lián)合稀疏表示模型的基礎(chǔ)上,對各個視角集采用MCCA進行了融合處理。根據(jù)MCCA的基本原理,其主要是分析和利用不同輸入之間的相關(guān)性,對于噪聲和其他干擾因素,則可以在融合過程中進行有效剔除。因此,本文方法在特征和分類器兩個步驟均考慮了噪聲可能的影響,因此最終對于噪聲干擾的穩(wěn)健性更強。

4.2.3 目標(biāo)遮擋

與噪聲干擾的情形類似,實際獲取的待識別樣本也可能存在目標(biāo)部分遮擋的情形。此時,只有部分目標(biāo)特性能夠體現(xiàn)在測試樣本中并用于分類決策。按照文獻[5]描述的算法,在表3測試集的基礎(chǔ)上,采用目標(biāo)區(qū)域部分遮擋的方式獲得不同遮擋比例下的測試集,進而測試各類方法的性能。圖4顯示了各方法的識別率曲線,直觀可見本文方法在此實驗場景下的穩(wěn)健性更強。與噪聲干擾的情形類似,基于聯(lián)合稀疏表示的方法相比采用SVM的對比方法1整體穩(wěn)健性更強。本文方法在采用MCCA進行多視角融合時,同樣只會保留不同遮擋圖像之間的相關(guān)部分,而對由于遮擋噪聲的樣本差異進行剔除。因此,在后續(xù)的決策階段,基于MCCA融合后的特征對于目標(biāo)遮擋具有更好的適應(yīng)性。

圖4 目標(biāo)遮擋的識別率統(tǒng)計結(jié)果

4 結(jié)束語

本文提出了一種多視角SAR目標(biāo)識別方法。該方法首先基于相關(guān)性準(zhǔn)則對多視角進行聚類,然后通過MCCA分別對各個視角子集進行融合處理。最終,基于聯(lián)合稀疏表示對多特征進行表征和聚類,獲得目標(biāo)類別。通過多視角聚類、融合以及聯(lián)合表征實現(xiàn)對多視角SAR圖像獨立鑒別力和內(nèi)在相關(guān)性的運用,提高了最終決策的可靠性。目前,該方法在多視角聚類的門限自適應(yīng)確定方面主要是依靠經(jīng)驗和部分測試結(jié)果,還存在一定的不足,后續(xù)要重點進行改進。未來,將針對實測多視角SAR圖像數(shù)據(jù)開展應(yīng)用研究,為智能識別決策提供支撐。

猜你喜歡
門限識別率聚類
基于規(guī)則的HEV邏輯門限控制策略
地方債對經(jīng)濟增長的門限效應(yīng)及地區(qū)差異研究
中國西部(2021年4期)2021-11-04 08:57:32
基于類圖像處理與向量化的大數(shù)據(jù)腳本攻擊智能檢測
計算機工程(2020年3期)2020-03-19 12:24:50
隨機失效門限下指數(shù)退化軌道模型的分析與應(yīng)用
基于真耳分析的助聽器配戴者言語可懂度指數(shù)與言語識別率的關(guān)系
提升高速公路MTC二次抓拍車牌識別率方案研究
基于DBSACN聚類算法的XML文檔聚類
電子測試(2017年15期)2017-12-18 07:19:27
高速公路機電日常維護中車牌識別率分析系統(tǒng)的應(yīng)用
基于改進的遺傳算法的模糊聚類算法
生產(chǎn)性服務(wù)業(yè)集聚與工業(yè)集聚的非線性效應(yīng)——基于門限回歸模型的分析
湖湘論壇(2015年3期)2015-12-01 04:20:17
清苑县| 札达县| 九台市| 修水县| 海兴县| 四川省| 无为县| 呼图壁县| 泾源县| 全州县| 丹东市| 芦山县| 巴林右旗| 白玉县| 平泉县| 兴山县| 康乐县| 福海县| 嘉荫县| 淮南市| 周宁县| 广德县| 长兴县| 海门市| 勃利县| 怀安县| 道孚县| 合山市| 远安县| 探索| 邵阳市| 开原市| 华阴市| 亳州市| 巴里| 英吉沙县| 修文县| 定州市| 长宁区| 连云港市| 鄢陵县|