李玉慶,江飛龍,陳 卓,王日新,黃勝全,王瑞星,崔祜濤,徐敏強(qiáng)
(1.哈爾濱工業(yè)大學(xué) 航天學(xué)院,哈爾濱 150090;2.中國船舶工業(yè)系統(tǒng)工程研究院,北京 100094)
隨著無人裝備的發(fā)展以及人工智能技術(shù)的興起,無人集群系統(tǒng)成為當(dāng)今各國武器裝備的發(fā)展熱點(diǎn)[1],但無人集群對抗領(lǐng)域中無人集群的應(yīng)用也導(dǎo)致戰(zhàn)場態(tài)勢信息更加繁雜,極大增加了態(tài)勢感知的難度。在無人集群對抗中,對集群陣型和集群運(yùn)動趨勢等集群態(tài)勢要素的識別是進(jìn)一步實(shí)現(xiàn)意圖判斷和決策制定的前提,準(zhǔn)確識別集群態(tài)勢要素,才能進(jìn)一步認(rèn)知集群態(tài)勢,實(shí)現(xiàn)準(zhǔn)確有效的無人集群對抗智能決策[2],對于無人機(jī)集群、無人艇集群等現(xiàn)代戰(zhàn)爭場景具有至關(guān)重要的意義。
為準(zhǔn)確識別態(tài)勢信息,國內(nèi)、外學(xué)者進(jìn)行了大量的研究。傳統(tǒng)的態(tài)勢識別技術(shù)采用了貝葉斯網(wǎng)絡(luò)[3]、模板匹配[4-5]、專家系統(tǒng)[6]等方法,但面對復(fù)雜的無人集群對抗環(huán)境,傳統(tǒng)的態(tài)勢識別技術(shù)很難從繁雜的集群態(tài)勢信息中快速準(zhǔn)確地識別集群態(tài)勢要素,因此需要采取更加智能有效的方法來實(shí)現(xiàn)無人集群對抗態(tài)勢要素識別[7]。
人工智能技術(shù)的快速發(fā)展為復(fù)雜數(shù)據(jù)的處理提供了新方法,深度學(xué)習(xí)正逐漸被應(yīng)用于態(tài)勢識別問題。文獻(xiàn)[8]提出了一種基于模糊推理方法的空中目標(biāo)態(tài)勢識別特征表示方法。文獻(xiàn)[9]提出一種基于徑向基神經(jīng)網(wǎng)絡(luò)的目標(biāo)意圖識別模型。文獻(xiàn)[10]設(shè)計(jì)了基于深度神經(jīng)網(wǎng)絡(luò)的作戰(zhàn)識別模型,使用深度神經(jīng)網(wǎng)絡(luò)自主學(xué)習(xí)得到特征狀態(tài)與意圖之間的聯(lián)系,提高了模型識別效果。文獻(xiàn)[8-10]提出的方法都是針對于單個(gè)目標(biāo)的態(tài)勢感知方法,主要工作集中在對于態(tài)勢特征和態(tài)勢分類結(jié)果的設(shè)計(jì)與處理,并應(yīng)用了一種現(xiàn)有方法(模糊推理、徑向基神經(jīng)網(wǎng)絡(luò)、深度BP網(wǎng)絡(luò)等)實(shí)現(xiàn)態(tài)勢分類,缺少對所使用的現(xiàn)有方法的分析與改進(jìn)。文獻(xiàn)[11]使用深度Q網(wǎng)絡(luò)模型算法作為無人機(jī)決策模型,以產(chǎn)生空戰(zhàn)時(shí)序數(shù)據(jù),再基于隨機(jī)森林模型獲取影響空戰(zhàn)態(tài)勢較為本質(zhì)的特征表達(dá),但也沒有對深度Q網(wǎng)絡(luò)模型進(jìn)行深入分析和針對性改進(jìn)。文獻(xiàn)[12]使用棧式自編碼器提取深層次的戰(zhàn)場態(tài)勢特征,并分析了網(wǎng)絡(luò)深度對算法性能的影響,但在應(yīng)用棧式自編碼器算法時(shí)也未與特定領(lǐng)域相結(jié)合,只是將棧式自編碼器作為一個(gè)通用特征提取方法使用。文獻(xiàn)[13]面向多單元態(tài)勢感知問題,先采用K-均值聚類算法對單元態(tài)勢信息進(jìn)行聚類,然后使用由深度學(xué)習(xí)模型構(gòu)建的算法架構(gòu)實(shí)現(xiàn)態(tài)勢理解,但是簡單地使用聚類方法對多單元態(tài)勢信息進(jìn)行處理,無法有選擇性地考慮各單元間的態(tài)勢關(guān)聯(lián)關(guān)系,可能使得關(guān)鍵的態(tài)勢信息被掩蓋。
現(xiàn)有的態(tài)勢感知方法在應(yīng)用深度學(xué)習(xí)方法時(shí),大多只是將深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)作為一個(gè)黑盒模塊使用,缺少對于深度學(xué)習(xí)方法的深入理解與分析,也很少根據(jù)實(shí)際應(yīng)用領(lǐng)域?qū)ι疃葘W(xué)習(xí)神經(jīng)網(wǎng)絡(luò)進(jìn)行相應(yīng)改進(jìn)。在將深度學(xué)習(xí)方法應(yīng)用到無人集群對抗問題上時(shí),應(yīng)當(dāng)結(jié)合問題特點(diǎn)改進(jìn)深度學(xué)習(xí)方法,充分發(fā)揮深度學(xué)習(xí)方法的能力。在無人集群對抗問題中,多單位多維度時(shí)序態(tài)勢信息相互混合,形成繁雜的無人集群態(tài)勢信息,使得態(tài)勢要素識別難度顯著提升,但現(xiàn)有的態(tài)勢感知方法很少針對此問題進(jìn)行研究,大都只是對所有態(tài)勢信息進(jìn)行統(tǒng)一處理,這就將明顯提升集群態(tài)勢要素識別的難度。所以,本文考慮引入注意力機(jī)制,在處理集群態(tài)勢信息時(shí),選擇性地關(guān)注更重要的信息,降低集群態(tài)勢信息的復(fù)雜程度,提升集群態(tài)勢感知方法的性能。
基于上述分析, 為解決對于復(fù)雜無人集群對抗態(tài)勢的態(tài)勢要素識別問題,實(shí)現(xiàn)對于集群態(tài)勢要素的正確識別分類,本文提出了一種利用Transformer的無人集群對抗態(tài)勢要素識別方法。首先,利用LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)將集群態(tài)勢序列信息編碼成態(tài)勢時(shí)序特征,壓縮集群態(tài)勢信息中的時(shí)間維度,有效精簡集群態(tài)勢信息;其次,為能有效挖掘和處理集群中多單位態(tài)勢信息之間的內(nèi)在關(guān)聯(lián)關(guān)系,基于Transformer中的decoder模塊設(shè)計(jì)Transformer-Decoder注意力模塊,并設(shè)計(jì)層間注意力結(jié)構(gòu)以進(jìn)一步改進(jìn)其增強(qiáng)特征表達(dá)能力,使用改進(jìn)后的Transformer-Decoder注意力模塊對時(shí)序特征信息進(jìn)行處理,提取綜合高階態(tài)勢信息;然后將綜合高階態(tài)勢信息輸入到多分類網(wǎng)絡(luò)中,結(jié)合softmax層實(shí)現(xiàn)對于多類態(tài)勢要素的分類。最后,與基線方法對比,通過實(shí)驗(yàn)仿真驗(yàn)證本文所提出模型的性能。
在無人集群識別、對抗、情報(bào)分析等領(lǐng)域,對集群陣型和集群運(yùn)動趨勢等集群態(tài)勢要素的準(zhǔn)確識別是十分重要的,集群態(tài)勢要素識別是進(jìn)一步實(shí)現(xiàn)集群作戰(zhàn)意圖識別的必要前提,集群態(tài)勢要素識別是否準(zhǔn)確將會很大程度上影響集群意圖判斷和智能決策,進(jìn)而影響無人集群戰(zhàn)場的勝負(fù)走向,因此集群態(tài)勢要素的準(zhǔn)確識別對現(xiàn)代無人集群對抗作戰(zhàn)至關(guān)重要。
為更準(zhǔn)確地把握本文的研究內(nèi)容及研究界限,在綜合考慮不同文獻(xiàn)中對有關(guān)概念解釋情況的基礎(chǔ)上,本文對相關(guān)概念進(jìn)行定義。
態(tài)勢認(rèn)知就是將當(dāng)前戰(zhàn)場的目標(biāo)信息進(jìn)行組織分析,將戰(zhàn)場目標(biāo)的運(yùn)動特點(diǎn)以及相互關(guān)系等進(jìn)行相互關(guān)聯(lián),從整體出發(fā)預(yù)測未來的活動動向,并對敵方的兵力配置、作戰(zhàn)使命與核心意圖做出判斷,進(jìn)而對整體戰(zhàn)場局勢的變化進(jìn)行預(yù)測。無人集群在執(zhí)行各類任務(wù)時(shí),集群中各單位的整體行動一般不會是雜亂無章的,集群會保持一定形態(tài)協(xié)同行動,集群中各單位在進(jìn)行相對運(yùn)動時(shí)也會遵循一定規(guī)律。
在此基礎(chǔ)上,本文把集群態(tài)勢認(rèn)知的對象定義為集群陣型和集群運(yùn)動趨勢兩大類集群態(tài)勢要素,集群陣型表征的是集群中各個(gè)實(shí)體相互間的位置關(guān)系的約束關(guān)系,而集群運(yùn)動趨勢則表征的是在這種位置約束關(guān)系下各個(gè)實(shí)體位置的總體變化趨勢。其中,集群運(yùn)動趨勢又可分為集群整體運(yùn)動趨勢和內(nèi)部相對運(yùn)動趨勢,集群整體運(yùn)動趨勢表征的是集群中各個(gè)實(shí)體位置變化趨勢中相同或相似的成分,而內(nèi)部相對運(yùn)動趨勢表征的是集群中各個(gè)實(shí)體位置變化趨勢中不同的成分。本文以目標(biāo)集群相對于觀測主體的距離變化和角度變化共同定義集群整體運(yùn)動趨勢,以目標(biāo)集群的聚攏程度變化定義內(nèi)部相對運(yùn)動趨勢。
本文將集群陣型、距離變化、角度變化和聚攏程度變化等4類因素定義為集群態(tài)勢要素,共同表征集群的總體狀態(tài),如圖1所示。本文提出的方法以水面無人艇場景為假定場景,接下來以假定場景為基礎(chǔ),對集群陣型、距離變化、角度變化和聚攏程度變化4類態(tài)勢要素分別進(jìn)行詳細(xì)的定義。
圖1 集群態(tài)勢要素分類
在本文的研究中,集群陣型態(tài)勢要素共定義了5種狀態(tài),分別為一字型、大雁型、弧型、圓型、圓中點(diǎn)型,如圖2所示。一字型集群陣型表征為集群中所有實(shí)體排列為一條直線;大雁型集群陣型表征為集群均分為兩部分,分別排列為兩條形成一定夾角的直線;弧型集群陣型表征為集群中所有實(shí)體排列為一個(gè)半圓?。粓A型集群陣型表征為集群中所有實(shí)體排列為一整個(gè)圓形;圓中點(diǎn)型陣型表征為一個(gè)實(shí)體處于中心,其余實(shí)體圍繞該實(shí)體排列為一個(gè)圓形。
距離變化態(tài)勢要素分別定義了3種狀態(tài),即:距離靠近、距離遠(yuǎn)離、距離不變,如圖3所示。距離靠近表示目標(biāo)集群整體向觀測主體移動,表征為集群中所有實(shí)體與觀測主體的平均距離減?。痪嚯x遠(yuǎn)離表示目標(biāo)集群整體向觀測主體方向的反方向移動,表征為集群中所有實(shí)體與觀測主體的平均距離增加;距離不變表示目標(biāo)集群整體沒有明顯的靠近或遠(yuǎn)離觀測主體的趨勢,表征為集群中所有實(shí)體與觀測主體的平均距離基本保持不變。
圖2 集群陣型態(tài)勢要素
圖3 距離變化態(tài)勢要素
角度變化態(tài)勢要素分別定義了3種狀態(tài),即:角度順時(shí)針變化、角度逆時(shí)針變化、角度不變,如圖4所示。角度順時(shí)針變化表示目標(biāo)集群整體相對于觀測主體的順時(shí)針方向移動,表征為集群中所有實(shí)體在以觀測主體為中心的極坐標(biāo)下的平均方位角增大;角度逆時(shí)針變化表示目標(biāo)集群整體相對于觀測主體的逆時(shí)針方向移動,表征為集群中所有實(shí)體在以觀測主體為中心的極坐標(biāo)下的平均方位角減??;角度不變表示目標(biāo)集群整體相對于觀測主體的方位沒有明顯變化,表征為集群中所有實(shí)體在以觀測主體為中心的極坐標(biāo)下的平均方位角基本保持不變。
圖4 角度變化態(tài)勢要素
聚攏程度變化態(tài)勢要素分別定義了3種狀態(tài),即:聚攏、分散、聚攏程度不變,如圖5所示。聚攏表示目標(biāo)集群向陣型中心收攏,表征為集群中所有實(shí)體與陣型中心的平均距離減??;分散表示目標(biāo)集群向陣型中心方向的反方向擴(kuò)張,表征為集群中所有實(shí)體與陣型中心的平均距離增大;聚攏程度不變表示目標(biāo)集群向陣型中心收攏,表征為集群中所有實(shí)體與陣型中心的平均距離減小。
圖5 聚攏程度變化態(tài)勢要素
本文提出一種利用Transformer和層間注意力的無人集群對抗態(tài)勢要素識別方法,核心為層間注意力Transformer模型(Intel-layer attention transformer,IAT),基于Transformer模型中decoder模塊的結(jié)構(gòu),設(shè)計(jì)了可應(yīng)用于無人集群對抗態(tài)勢要素識別的Transformer-Decoder注意力層模型,能夠有效處理復(fù)雜的無人集群態(tài)勢信息。還針對Transformer網(wǎng)絡(luò)結(jié)構(gòu)中對信息利用不充分的問題設(shè)計(jì)了層間注意力結(jié)構(gòu),進(jìn)一步改進(jìn)Transformer-Decoder注意力層模型并提升模型的特征表達(dá)能力,進(jìn)一步提高無人集群態(tài)勢要素識別準(zhǔn)確率。
首先,利用LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)將集群態(tài)勢序列信息中各單位的時(shí)序態(tài)勢信息分別編碼為各單位的態(tài)勢時(shí)序特征,壓縮無人集群態(tài)勢信息中的時(shí)間維度信息,實(shí)現(xiàn)對復(fù)雜無人集群態(tài)勢信息的有效精簡;其次,為能有效挖掘和處理集群中多單位態(tài)勢信息之間的內(nèi)在關(guān)聯(lián)關(guān)系,基于Transformer中的decoder模塊設(shè)計(jì)Transformer-Decoder注意力模塊,并設(shè)計(jì)層間注意力結(jié)構(gòu)以改進(jìn)增強(qiáng)Transformer-Decoder注意力模塊的特征表達(dá)能力,使用改進(jìn)后的Transformer-Decoder注意力模塊對集群的時(shí)序特征信息進(jìn)行處理,有效提取綜合高階態(tài)勢信息;然后將綜合高階態(tài)勢信息輸入到多分類網(wǎng)絡(luò)中,結(jié)合softmax層實(shí)現(xiàn)對于多類態(tài)勢要素的同時(shí)分類,實(shí)現(xiàn)無人集群對抗態(tài)勢要素識別。
利用層間注意力和Transformer的集群態(tài)勢要素識別方法主要包括:時(shí)序特征提取層、Transformer-Decoder注意力層、層間注意力層、多分類連接層、輸出層。如圖6所示為本文提出方法的模型框架圖。
圖6 集群態(tài)勢要素識別模型框架
原始態(tài)勢序列信息中包含多時(shí)刻多單位的多維態(tài)勢信息,態(tài)勢信息結(jié)構(gòu)復(fù)雜,神經(jīng)網(wǎng)絡(luò)模塊無法直接有效地處理多時(shí)刻多單位態(tài)勢信息,為能夠有效表征集群中多單位之間的態(tài)勢信息內(nèi)在關(guān)系,需要對原始態(tài)勢信息進(jìn)行時(shí)序維度上的預(yù)處理。
循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent neural network,RNN)將循環(huán)結(jié)構(gòu)引入神經(jīng)網(wǎng)絡(luò)中,使得RNN可以處理時(shí)序相關(guān)的數(shù)據(jù),但對于距離較遠(yuǎn)的循環(huán)節(jié)點(diǎn),RNN會出現(xiàn)梯度消失和梯度爆炸的問題。為解決此類問題,長短時(shí)記憶網(wǎng)絡(luò)LSTM被提出[14],其利用特殊的門機(jī)制在一定程度上緩解了梯度消失和梯度爆炸的問題。
本文使用LSTM循環(huán)神經(jīng)網(wǎng)絡(luò)模塊對原始態(tài)勢序列信息的時(shí)間維度進(jìn)行降維處理并提取時(shí)序態(tài)勢向量表達(dá),將集群中各單元的態(tài)勢信息并行輸入LSTM時(shí)序特征提取層進(jìn)行計(jì)算。其中,處理不同單元的信息所使用的模塊是網(wǎng)絡(luò)結(jié)構(gòu)完全相同的多個(gè)LSTM網(wǎng)絡(luò)模塊,這些模塊共享參數(shù)。這種并行結(jié)構(gòu)使得LSTM時(shí)序特征提取層可以學(xué)習(xí)同時(shí)適用于不同單位的時(shí)序特征映射空間,并隨著集群規(guī)模的增加,具備能夠加速學(xué)習(xí)的優(yōu)點(diǎn)。
LSTM結(jié)構(gòu)的核心在于細(xì)胞狀態(tài),其類似于一個(gè)信息傳送帶,能夠在水平方向上傳遞信息,傳送帶上的信息分別經(jīng)過LSTM的輸入門、遺忘門和輸出門,通過記憶或遺忘的方式選擇性地進(jìn)行處理,如圖7所示。
遺忘門決定對細(xì)胞狀態(tài)的遺忘選擇,遺忘門公式為
ft=σ(Wf[ht-1,xt]+bf)
(1)
式中:ft為遺忘門,σ為sigmoid函數(shù),ht-1為前一個(gè)細(xì)胞的輸出值,xt為當(dāng)前細(xì)胞的輸入值。
圖7 LSTM神經(jīng)網(wǎng)絡(luò)模型
輸入門決定細(xì)胞狀態(tài)的輸入選擇以及對輸入信息進(jìn)行處理,輸入門公式為:
it=σ(Wi[ht-1,xt]+bi)
(2)
(3)
式中tanh為雙曲正切激活函數(shù)。
把遺忘門和輸入門得到的信息相結(jié)合,可以得到新的細(xì)胞狀態(tài)為
(4)
輸出門決定細(xì)胞狀態(tài)的輸出選擇以及對輸出信息進(jìn)行處理,輸出門公式為:
Ot=σ(WO[ht-1,xt]+bO)
(5)
ht=Ot·tanh(Ct)
(6)
式中ht即為當(dāng)前細(xì)胞的輸出值。
在集群態(tài)勢識別問題中,目標(biāo)數(shù)量的增加導(dǎo)致了態(tài)勢信息規(guī)模的顯著增加,這使得集群態(tài)勢信息的處理難度急劇上升。在復(fù)雜多變的集群態(tài)勢信息中,每個(gè)單位的態(tài)勢信息應(yīng)與其他單位相關(guān),但依據(jù)各單位間的關(guān)聯(lián)程度的不同,態(tài)勢信息的相關(guān)程度也有所不同;所以觀測主體在評估集群態(tài)勢時(shí),應(yīng)當(dāng)適當(dāng)舍棄相對而言不重要的集群單位的態(tài)勢信息,更關(guān)注于有利于態(tài)勢評估的集群單位。因此,有效篩選和整合集群中各單元的態(tài)勢信息是一個(gè)至關(guān)重要的問題。
注意力(Attention)機(jī)制[15]近幾年被廣泛使用在圖像處理、語音識別、自然語言處理等各個(gè)領(lǐng)域中,注意力機(jī)制模擬了人對于事物投入注意力的特點(diǎn),對不同的處理區(qū)域分配不同的權(quán)重,能夠?qū)τ谥匾獌?nèi)容投入更多的注意力,對次要或無關(guān)的內(nèi)容減少關(guān)注,這樣差異化的分配能夠有效提高了信息提取的效率。
基于注意力機(jī)制,Google于2017年提出了Transformer模型[16],使用注意力機(jī)制構(gòu)造出編碼器-解碼器(Encoder-Decoder)框架。由于具有強(qiáng)大的信息壓縮能力和相關(guān)特征捕獲能力,在機(jī)器翻譯、預(yù)訓(xùn)練語言模型、文本摘要等語言理解任務(wù)中表現(xiàn)出色。
Transformer模型的特性適用于對復(fù)雜信息進(jìn)行篩選和整合,其主要思想是通過注意力機(jī)制提取語句中各單詞之間的關(guān)聯(lián)關(guān)系,通過篩選和融合相關(guān)單詞的語義信息,實(shí)現(xiàn)更準(zhǔn)確可靠的語句層次語義理解。但Transformer模型的框架基于自然語言處理模型,需要編碼部分和解碼部分兩個(gè)部分的輸入,并且適用于有順序關(guān)系的單元信息處理,整體網(wǎng)絡(luò)框架與集群態(tài)勢感知問題并不適配。因此,本文在深入理解與分析Transformer模型的基礎(chǔ)上,改進(jìn)并設(shè)計(jì)一種可應(yīng)用于集群態(tài)勢識別問題的類Transformer模型,使其可接受單部分輸入和無順序關(guān)系的單元信息輸入,可以通過注意力機(jī)制提取集群中各單元之間的關(guān)聯(lián)關(guān)系,篩選和融合相關(guān)單元的態(tài)勢信息,實(shí)現(xiàn)更準(zhǔn)確有效的集群態(tài)勢感知。
為解決集群單元態(tài)勢信息的篩選和整合問題,本文基于Transformer模型提出Transformer-Decoder注意力層模型。Transformer-Decoder注意力層模型能夠動態(tài)地關(guān)注有助于集群態(tài)勢感知的部分集群單元態(tài)勢信息,能夠從復(fù)雜的集群態(tài)勢信息中選擇出對于態(tài)勢感知更加關(guān)鍵的信息,Transformer-Decoder注意力層的結(jié)構(gòu)基于注意力模型,并在其基礎(chǔ)上進(jìn)一步實(shí)現(xiàn)了注意力模型的深度堆疊和并行計(jì)算,使得模型能夠表達(dá)更高階的注意力關(guān)系,并提升了計(jì)算速度。
Transformer由編碼器和解碼器組成,其中解碼器主要包含兩種子層,分別是基于注意力機(jī)制的多頭注意力層和前饋網(wǎng)絡(luò)層,其中每個(gè)子層都還加入了殘差網(wǎng)絡(luò)和歸一化層?;谶@種思想,本文的Transformer-Decoder注意力層由多個(gè)注意力單元堆疊而成,如圖8所示,其中每個(gè)注意力單元都由一個(gè)多頭注意力層、一個(gè)歸一化層和殘差連接組成,結(jié)構(gòu)如圖9所示。多頭注意力層中的多頭注意力模型是由h個(gè)縮放點(diǎn)積注意力(Scaled dot-product attention)單元組成。
縮放點(diǎn)積注意力的計(jì)算公式為
(7)
多頭注意力結(jié)構(gòu)即對矩陣Q、K和V使用不同的線性變換,轉(zhuǎn)換為不同的矩陣,使用h個(gè)縮放點(diǎn)積單元進(jìn)行計(jì)算,然后將h個(gè)縮放點(diǎn)積單元的計(jì)算結(jié)果拼接起來,最后通過一個(gè)線性映射輸出,如圖11所示。這樣的好處是使得模型具備了在不同的表示子空間里學(xué)習(xí)特征信息的能力。
圖8 Transformer-Decoder注意力層結(jié)構(gòu)
圖9 注意力單元結(jié)構(gòu)
圖10 縮放點(diǎn)積注意力結(jié)構(gòu)
圖11 多頭注意力結(jié)構(gòu)
多頭注意力的計(jì)算公式為:
(8)
MultiHead(Q,K,V)=Concat(H1,…,Hh)W0
(9)
輸入值X經(jīng)過多頭注意力計(jì)算后得到輸出值M,增加殘差連接和歸一化層,表達(dá)式為
L=layernorm(M+X)
(10)
在原Transformer結(jié)構(gòu)中,多頭注意力層和前饋層組成一個(gè)解碼單元,多個(gè)解碼單元堆疊形成解碼器,對于每個(gè)解碼單元中的多頭注意力層,其輸入值中的key和value都是不變的,只有query值在堆疊中會發(fā)生改變,相當(dāng)于在每一個(gè)多頭注意力層中,注意力客體是相同的,只是不同的注意力主體對其進(jìn)行注意力感知,因此每個(gè)多頭注意力層的輸出具有一定的并行特性。而原Transformer結(jié)構(gòu)只使用了最后一層輸出,雖然其通過殘差結(jié)構(gòu)把每一層的輸出累加到了下一層,但不斷的累加也會弱化每一層學(xué)習(xí)到的有效表達(dá),降低網(wǎng)絡(luò)的整體性能。因此,本文考慮提取各多頭注意力層的輸出,以多層綜合注意力輸出代替最后一層解碼單元的輸出,更合理地利用每一層學(xué)習(xí)到的有效表達(dá)。
本文提出層間注意力機(jī)制改進(jìn)Transformer-Decoder注意力層結(jié)構(gòu),有效利用各注意力子層的輸出,如圖12所示??紤]到如果只是單純拼接各層的輸出值,會隨層數(shù)增多而增加網(wǎng)絡(luò)計(jì)算負(fù)擔(dān),并且會降低網(wǎng)絡(luò)的通用性,因此本文把各層注意力單元的輸出值進(jìn)行堆疊并使用多頭注意力層進(jìn)行處理,依據(jù)當(dāng)前態(tài)勢有選擇性地關(guān)注于更重要的輸出值,以獲得集群的綜合高階態(tài)勢信息。
圖12 改進(jìn)的Transformer解碼層結(jié)構(gòu)
結(jié)合Transformer-Decoder注意力層的結(jié)構(gòu),式(10)可以重寫為
Li=layernorm(MultiHead(Qi,K,V)+Qi)
(11)
式中:K=V為全部單位時(shí)序態(tài)勢信息,Li為第i層Transformer單元提取到的高階態(tài)勢信息,也是下一層注意力計(jì)算的Q輸入。
原Transformer-Decoder注意力層結(jié)構(gòu)只將最后一層信息Ln傳遞給了后續(xù)網(wǎng)絡(luò),沒有充分利用多層結(jié)構(gòu)中每層輸出的有效信息,層間注意力機(jī)制綜合考慮每一層高階態(tài)勢信息,以注意力機(jī)制分配權(quán)重,融合多層信息得到更有效的綜合高階態(tài)勢信息,層間注意力計(jì)算方法如下:
KL=VL=[L1,L2,…,Ln]
(12)
LL=Attention(QL,KL,VL)
(13)
式中:KL=VL為各層Transformer單元提取到的高階態(tài)勢信息的集合,QL為計(jì)算注意力權(quán)重時(shí)參考的向量,在本文中取值為我方主體信息,LL即為提取到的綜合高階態(tài)勢信息。
對于集群態(tài)勢識別中集群陣型和運(yùn)動趨勢等態(tài)勢要素的識別,需要解決如何同時(shí)對多種態(tài)勢要素進(jìn)行識別分類的問題,現(xiàn)有的態(tài)勢識別方法通常都只針對一個(gè)分類組進(jìn)行分類,對于多個(gè)分類組分類的方法較少。一個(gè)可能的解決方法是使用多個(gè)單獨(dú)的神經(jīng)網(wǎng)絡(luò)分別去學(xué)習(xí)多種態(tài)勢要素的分類,但這種方法會顯著增加計(jì)算資源消耗,并且在面對不同態(tài)勢要素的分類問題時(shí),相應(yīng)的神經(jīng)網(wǎng)絡(luò)模型在處理時(shí)序信息和多單位相關(guān)關(guān)系等部分所實(shí)現(xiàn)的功能是類似的,使用多個(gè)單獨(dú)的神經(jīng)網(wǎng)絡(luò)將增加重復(fù)無用的計(jì)算量。
為解決多類態(tài)勢要素的分類問題,本文使用多維度分類網(wǎng)絡(luò)和softmax層實(shí)現(xiàn)多維度態(tài)勢分類及輸出。如圖13所示,多維度分類網(wǎng)絡(luò)由一個(gè)總?cè)B接網(wǎng)絡(luò)和多個(gè)子全連接網(wǎng)絡(luò)組成???cè)B接網(wǎng)絡(luò)偏重于對于綜合高階態(tài)勢信息的整體處理,子全連接網(wǎng)絡(luò)偏重于對于各類態(tài)勢要素的分類概率計(jì)算。并行的子全連接網(wǎng)絡(luò)均可以對總?cè)B接網(wǎng)絡(luò)的網(wǎng)絡(luò)參數(shù)進(jìn)行反向傳播??梢允沟酶黝悜B(tài)勢要素的分類概率計(jì)算在一定程度上解耦,但又保持相關(guān)性,并且在模型的學(xué)習(xí)能力和訓(xùn)練難度之間尋得平衡。
圖13 多維度分類網(wǎng)絡(luò)及softmax層
為驗(yàn)證模型的有效性,構(gòu)建適用于多態(tài)勢要素分類的水面無人艇場景,場景樣本以無人艇集群在一段時(shí)間內(nèi)的運(yùn)動軌跡變化作為網(wǎng)絡(luò)輸入,以集群陣型、距離變化、角度變化、聚攏程度變化等共4類態(tài)勢要素分類作為樣本標(biāo)簽。依據(jù)不同的態(tài)勢要素分類的任意組合,無人艇集群都有著不同的相對位置關(guān)系和運(yùn)動軌跡。因此,模型需要實(shí)現(xiàn)從多序列態(tài)勢信息到多態(tài)勢要素分類結(jié)果的映射。各類態(tài)勢要素的分類見表1。
表1 水面無人艇場景態(tài)勢要素
使用python對數(shù)據(jù)進(jìn)行仿真,共生成1 000萬組樣本數(shù)據(jù),其中陣型的5種分類在樣本數(shù)據(jù)中各占20%,距離變化、角度變化、聚攏程度變化的3種分類在樣本數(shù)據(jù)中都各占33%左右。
如圖14所示為一個(gè)場景示例樣本的可視化,其中,五角星為我方觀測主體,多條軌跡線分別為無人艇集群中多個(gè)單位的運(yùn)動軌跡,實(shí)心圓點(diǎn)為軌跡初始位置,空心正方形為后續(xù)時(shí)刻位置。在該實(shí)例樣本中,目標(biāo)集群的多個(gè)單位在多個(gè)時(shí)刻下的位置狀態(tài)即為樣本數(shù)據(jù),作為網(wǎng)絡(luò)的輸入;樣本的標(biāo)簽則分別為(陣型)大雁型、(距離變化)靠近、(角度變化)逆時(shí)針、(聚攏程度變化)分散。
圖14 示例場景樣本可視化
使用python對實(shí)驗(yàn)數(shù)據(jù)集進(jìn)行仿真,通過pytorch搭建網(wǎng)絡(luò)模型,使用交叉熵作為損失函數(shù),計(jì)算4類態(tài)勢要素的分類總誤差,對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,訓(xùn)練參數(shù)和網(wǎng)絡(luò)參數(shù)設(shè)置見表2。仿真實(shí)驗(yàn)環(huán)境為Windows 10操作系統(tǒng)、Intel i7-8700處理器和NVIDIA RTX 1060顯卡。
表2 參數(shù)設(shè)置
本文通過與基線方法的識別準(zhǔn)確率比較,評估IAT模型的有效性?;€方法包括:1) IAT w/o Transformer模型,用全連接網(wǎng)絡(luò)替換本文方法中的Transformer-Decoder注意力層模塊(包含層間注意力結(jié)構(gòu)),用于對比驗(yàn)證Transformer-Decoder注意力層結(jié)構(gòu)的性能;2) IAT w/o inter-layer attention模型,用于對比驗(yàn)證層間注意力結(jié)構(gòu)的性能。
基線方法1(IAT w/o Transformer模型)是常見的全連接深度網(wǎng)絡(luò),其與本文方法的區(qū)別在于本文提出的可應(yīng)用于集群態(tài)勢識別問題的類Transformer模型,其仿真性能對比可以體現(xiàn)Transformer-Decoder注意力層模塊的實(shí)際效果;基線方法2(IAT w/o inter-layer attention模型)與本文方法的區(qū)別在于是否應(yīng)用了本文提出的層間注意力機(jī)制,其仿真性能對比可以體現(xiàn)層間注意力機(jī)制的實(shí)際效果。
實(shí)驗(yàn)相關(guān)結(jié)果如圖15、16及表3所示。圖15展示了本文提出的IAT模型對于各態(tài)勢要素的分類準(zhǔn)確率以及整體的平均準(zhǔn)確率。圖16展示了不同模型對于態(tài)勢要素整體的平均分類準(zhǔn)確率的對比。表3列出了不同模型在各態(tài)勢要素下的分類準(zhǔn)確率。
圖15 IAT模型分類準(zhǔn)確率迭代曲線
圖16 不同模型的分類平均準(zhǔn)確率曲線
表3 不同模型在各態(tài)勢要素下的分類準(zhǔn)確率對比
結(jié)合上述實(shí)驗(yàn)結(jié)果進(jìn)行分析:
1)IAT模型能夠很好地實(shí)現(xiàn)多類態(tài)勢要素分類,在迭代訓(xùn)練過程中各態(tài)勢要素分類準(zhǔn)確率穩(wěn)定上升并收斂,在經(jīng)過10 000次迭代后,各態(tài)勢要素分類準(zhǔn)確率都達(dá)到98.0%以上,平均分類準(zhǔn)確率達(dá)到99.2%,驗(yàn)證了IAT模型的有效性。
2)相比于不包含層間注意力結(jié)構(gòu)的IAT模型,包含層間注意力結(jié)構(gòu)的IAT模型的平均分類準(zhǔn)確率上升得更快并收斂于更高的準(zhǔn)確率99.2%,比不包含層間注意力結(jié)構(gòu)的模型的最終準(zhǔn)確率95.8%提升了3.4%,驗(yàn)證了層間注意力結(jié)構(gòu)的有效性。
3)相比于IAT模型的平均準(zhǔn)確率99.2%,不包含Transformer注意力結(jié)構(gòu)的IAT模型的平均準(zhǔn)確率只達(dá)到了81.5%,相差了17.7%,性能明顯較差。這證明了Transformer注意力結(jié)構(gòu)對于集群態(tài)勢感知問題有著更好的適用性,能夠更加高效地表達(dá)和處理集群態(tài)勢信息,以實(shí)現(xiàn)集群態(tài)勢感知。
4)可以看出,在距離變化和角度變化兩類態(tài)勢要素上,IAT模型相比于基線方法沒有明顯的優(yōu)勢,但在陣型和聚攏變化兩類態(tài)勢要素上,IAT模型的性能明顯較強(qiáng),分類準(zhǔn)確率分別大幅提升27.0%和44.0%。距離變化和角度變化這兩類態(tài)勢主要表征了集群整體的絕對運(yùn)動態(tài)勢,而陣型和聚攏變化這兩類態(tài)勢主要表征了集群內(nèi)部的相對位置和相對運(yùn)動態(tài)勢,因此可以看出,IAT模型在對集群內(nèi)部相對態(tài)勢的感知問題上有著明顯的優(yōu)越性,能夠有效應(yīng)用于需要對集群內(nèi)部相對態(tài)勢進(jìn)行感知的問題,并能表現(xiàn)出優(yōu)異的性能。
1)設(shè)計(jì)了一種利用Transformer的無人集群對抗態(tài)勢要素識別方法,實(shí)現(xiàn)了良好的集群態(tài)勢要素識別能力。
2)設(shè)計(jì)了層間注意力結(jié)構(gòu)以改進(jìn)Transformer結(jié)構(gòu)在無人集群對抗態(tài)勢要素識別問題上的性能,進(jìn)一步提高識別準(zhǔn)確率。
3)利用Transformer和層間注意力的模型在針對集群內(nèi)部相對趨勢的態(tài)勢要素的分類問題上,表現(xiàn)出了更為突出的性能。
4)考慮在集群態(tài)勢感知問題的基礎(chǔ)上,加強(qiáng)對機(jī)器學(xué)習(xí)方法的深入分析,進(jìn)一步探究機(jī)器學(xué)習(xí)方法在無人集群對抗問題中的魯棒性和可解釋性。