吳翊愷 胡啟洲 吳嘯宇
(南京理工大學(xué)自動化學(xué)院,南京 210094)
近年來,在交通強(qiáng)國戰(zhàn)略的指導(dǎo)下,交通運輸行業(yè)發(fā)展態(tài)勢穩(wěn)中向好[1].據(jù)中國交通運輸部頒布的2020年統(tǒng)計公報,截至2020年末全國公路總里程數(shù)達(dá)519.81萬km,比2019年末增加3.7%,其中高速公路里程總數(shù)16.10萬km,比2019年末增加7.6%[2].由于高速公路封閉性好、外界干擾少、通行效率高,因此成為“智慧”的路和“智慧”的車優(yōu)先應(yīng)用的場景.在持續(xù)快速加密交通網(wǎng)絡(luò)的同時,如何通過優(yōu)化改革車路網(wǎng)絡(luò)中的信息交互方式來提高道路服務(wù)水平、降低事故率是一項亟待解決的任務(wù).隨著車聯(lián)網(wǎng)技術(shù)的發(fā)展,使得車車、車路之間的通信成為可能.車輛之間可以通過車聯(lián)網(wǎng)系統(tǒng)共享位置、車速等信息,通過對這些信息的監(jiān)控和處理可以實現(xiàn)很多功能,比如對車輛運行狀態(tài)和道路服務(wù)水平的實時診斷[3].這種與車聯(lián)網(wǎng)有機(jī)結(jié)合的車輛被稱為智能網(wǎng)聯(lián)汽車(intelligent connected vehicle,ICV).智能網(wǎng)聯(lián)汽車通過信息交互可以顯著提升行駛的效率、安全性和舒適性.比如智能網(wǎng)聯(lián)汽車在獲取周圍區(qū)域內(nèi)的車輛信息后,如果能夠預(yù)測區(qū)域內(nèi)汽車的行駛軌跡,從而做出決策提前規(guī)避危險場景,就可以大大減少事故率.
為了提高智能網(wǎng)聯(lián)汽車行車安全性、減少事故的發(fā)生,提出一種車輛軌跡預(yù)測方法,使智能網(wǎng)聯(lián)汽車能夠預(yù)測周圍車輛的軌跡,并依此規(guī)避風(fēng)險,提高行車效率.在軌跡預(yù)測模型的建立上,國內(nèi)外學(xué)者使用了隱馬爾可夫模型、卡爾曼濾波模型等工具.毛鶯池等[4]、王澤天等[5]結(jié)合車輛歷史路徑數(shù)據(jù),使用改進(jìn)的馬爾可夫鏈算法預(yù)測車輛軌跡.Ye等[6]提出了一種基于雙層隱態(tài)的隱馬爾科夫模型的車輛軌跡預(yù)測算法,首先挖掘車輛歷史軌跡的雙層隱態(tài),然后利用歷史軌跡數(shù)據(jù)確定隱馬爾可夫模型的參數(shù).上述方法只考慮了歷史軌跡數(shù)據(jù),為了將時間因素也考慮在內(nèi),高建等[7]考慮了不同時間段下道路車流量的差異性,提出了高斯混合時間序列模型,該方法提高了軌跡預(yù)測的長期穩(wěn)定性.考慮復(fù)雜環(huán)境動態(tài)因素對車輛行駛軌跡的影響,Ju等[8]提出了一種包含交互層、運動層、過濾層的交互感知卡爾曼神經(jīng)網(wǎng)絡(luò),對高維復(fù)雜交通環(huán)境下的車輛軌跡有較好的預(yù)測效果.相對于上述方法,神經(jīng)網(wǎng)絡(luò)方法因為在處理大數(shù)據(jù)問題上提取特征的效果較好,被越來越多的學(xué)者用于軌跡預(yù)測.其中長短時記憶(long short-term memory,LSTM)網(wǎng)絡(luò)在長時間序列問題上表現(xiàn)尤為優(yōu)異,韓皓等[9]使用了注意力模型和LSTM網(wǎng)絡(luò)以實現(xiàn)交織區(qū)車輛強(qiáng)制性變道軌跡預(yù)測,并使用碰撞時間和避免碰撞減速度2種指標(biāo)來優(yōu)化模型.金立生等[10]在駕駛視角下使用LSTM算法挖掘歷史軌跡特征,結(jié)合圖空間交互方法和時間注意力模塊預(yù)測車輛智能體軌跡.Xie等[11]融合卷積網(wǎng)絡(luò)和LSTM網(wǎng)絡(luò)基于時間序列預(yù)測車輛軌跡.溫惠英等[12]建立了基于LSTM的生成對抗網(wǎng)絡(luò)模型預(yù)測車輛軌跡,并分析了不同長度的歷史軌跡對預(yù)測精度的影響.隨著車聯(lián)網(wǎng)技術(shù)的發(fā)展,車輛與車輛、車輛與基礎(chǔ)設(shè)施之間高效的信息傳輸成為可能.王仁生等[13]通過將區(qū)塊鏈技術(shù)與LSTM技術(shù)結(jié)合對智能網(wǎng)聯(lián)車隊的協(xié)同軌跡進(jìn)行預(yù)測,對車隊車輛5 s內(nèi)的軌跡有較好的預(yù)測效果.由于LSTM網(wǎng)絡(luò)對于過長的序列特征提取效果有限,本文擬使用Transformer模型來優(yōu)化歷史軌跡的特征處理.Transformer模型由Vaswani等[14]于2017年提出,該模型用注意力層替代了傳統(tǒng)的循環(huán)結(jié)構(gòu),在自然語言處理方面取得了優(yōu)異的效果,隨著研究的深入,Transformer模型被用于更多其他的領(lǐng)域,比如計算機(jī)視覺、語音處理等.由于軌跡預(yù)測模型同樣是一個輸入輸出都為序列(sequence to sequence,seq2seq)的模型,因此本文結(jié)合Transformer在seq2seq領(lǐng)域的優(yōu)異表現(xiàn),提出了一種基于Transformer的機(jī)動車輛軌跡預(yù)測模型,并結(jié)合車聯(lián)網(wǎng)技術(shù)對其進(jìn)行優(yōu)化.首先,使用車聯(lián)網(wǎng)系統(tǒng)中的蜂窩車聯(lián)網(wǎng)(C-V2X,包括LTE-V2X和5G-V2X)車聯(lián)萬物直連通信技術(shù),將給定距離范圍內(nèi)的車輛構(gòu)建成車隊矩陣,為車隊中的所有車輛分別構(gòu)建狀態(tài)向量,使其可以與路側(cè)單元進(jìn)行實時動態(tài)的信息交互;其次,構(gòu)建基于Transformer的編碼器和解碼器,其中編碼器對歷史軌跡數(shù)據(jù)進(jìn)行編碼并與交互模塊得到的車輛上下文向量聯(lián)合后輸入解碼器,得到未來的預(yù)測軌跡;最后,研究模型各個模塊對預(yù)測準(zhǔn)確性的影響,并與同類模型進(jìn)行對比分析.
車聯(lián)網(wǎng)背景下,車輛之間可以很方便地通過車載單元(on board unit,OBU)、路側(cè)單元(road side unit,RSU)等傳遞車輛的速度、加速度、橫向縱向坐標(biāo)、相對距離等信息.將這些指標(biāo)有機(jī)地結(jié)合成一個狀態(tài)向量,便可以用這個向量來描述車輛在該時刻的運行狀態(tài).將機(jī)動車輛狀態(tài)向量序列輸入神經(jīng)網(wǎng)絡(luò)后,經(jīng)過網(wǎng)絡(luò)訓(xùn)練,可以捕捉到車輛的運行特征以預(yù)測車輛的后續(xù)軌跡供駕駛員參考.狀態(tài)向量具體的構(gòu)建過程為:自身車輛在道路行駛時,需要預(yù)測周圍所有車輛的軌跡,假設(shè)車輛R為被檢測車輛,R1~R6為會對被檢測車輛造成影響的周邊車輛(見圖1).圖中,v1~v6分別為周邊車輛R1~R6的速度,m/s;Δx、Δy分別為周邊車輛與被檢測車輛的橫向距離和縱向距離,m;車流方向為從左至右.
圖1 車輛運行環(huán)境示意圖
為了預(yù)測被檢測車輛的軌跡,從車聯(lián)網(wǎng)可獲取的數(shù)據(jù)中篩選出2類信息,將其轉(zhuǎn)換成可以輸入到神經(jīng)網(wǎng)絡(luò)里的表示形式,即
X={x(t-th),…,x(t-1),x(t)}
(1)
(2)
(3)
(4)
(5)
當(dāng)前的軌跡預(yù)測模型大多使用基于LSTM和門控循環(huán)神經(jīng)網(wǎng)絡(luò)(gate recurrent unit,GRU)的框架,并利用自循環(huán)結(jié)構(gòu)記憶歷史數(shù)據(jù)的特征.雖然LSTM和GRU可以實現(xiàn)序列的長期依賴,但是對于過長的序列,LSTM效果仍然不佳.Transformer模型可通過自注意力層自動提取輸入長序列中的特征,由于軌跡預(yù)測模型同樣是一個輸入輸出都為序列的模型,因此結(jié)合Transformer在seq2seq領(lǐng)域的優(yōu)異表現(xiàn),提出一種基于Transformer的車輛軌跡預(yù)測模型.
由于軌跡序列與句子序列具有一定的相似性,比如都存在時序性和連續(xù)性,且某些重點的軌跡段和某些重點詞一樣對整個序列有關(guān)鍵的影響,因此本文擬使用Transformer框架來構(gòu)建車輛軌跡預(yù)測模型,如圖2所示.基于Transformer的車輛軌跡預(yù)測模型主要包括:數(shù)據(jù)預(yù)處理模型、Transformer編碼器、卷積聯(lián)合池化層、基于駕駛意圖的Transformer解碼器等.
圖2 基于Transformer的車輛軌跡預(yù)測模型框架
2.1.1 數(shù)據(jù)預(yù)處理模型
對每一輛車,在t時刻輸入的狀態(tài)信息可由式(3)表示,由于初始的輸入數(shù)據(jù)種類多樣還包括字符類數(shù)據(jù),且噪聲較多,因此需要通過對原始數(shù)據(jù)進(jìn)行預(yù)處理,預(yù)處理過程包括經(jīng)過1個詞嵌入層、1個歸一化算法層和1個數(shù)據(jù)白化層.歸一化和數(shù)據(jù)白化層一方面可以把數(shù)據(jù)統(tǒng)一到一個規(guī)定的均值和標(biāo)準(zhǔn)差,另一方面可以減少數(shù)據(jù)之間的冗余性,提高網(wǎng)絡(luò)訓(xùn)練效率.
2.1.2 Transformer編碼器
通過數(shù)據(jù)預(yù)處理模型獲得了網(wǎng)格中每輛車在t時刻的狀態(tài)s,輸入編碼器,通過編碼器內(nèi)多頭自注意力層及全連接層的處理,可以得到每一個歷史數(shù)據(jù)對應(yīng)的特征向量,這些向量連接后獲得了每輛車的時間序列信息H.
2.1.3 卷積聯(lián)合池化層
提出一種新的聯(lián)合池化層,該層的作用是將環(huán)境中車輛的時間序列信息H按照網(wǎng)格中車輛的位置一一對應(yīng),然后分別通過卷積核大小為3×3,卷積核種類為64個;卷積核大小為3×1,卷積核種類為16個的卷積層和選框大小為2×1的最大池化層逐層運算,將每輛車的重要特征凝練并整合成一個聯(lián)合上下文向量,該向量與目標(biāo)車通過全連接層得到的上下文向量連接起來,得到一個網(wǎng)格中所有車輛的整體特征上下文向量并輸入解碼器.
2.1.4 基于駕駛意圖的Transformer解碼器
整體特征上下文向量首先通過一個softmax層生成駕駛意圖的概率,同時通過解碼器輸出二元高斯參數(shù),結(jié)合生成的駕駛意圖信息,生成未來時刻的軌跡分布.
(6)
式中,m為樣本個數(shù).
對協(xié)方差矩陣C作特征值分解,即
C=UΛUT
(7)
式中,U為C的特征向量矩陣;Λ為C的特征值矩陣.主成分分析(principle component analysis,PCA)白化的定義為
(8)
(9)
由ZCA白化得到的數(shù)據(jù)與原數(shù)據(jù)有相同的維度.經(jīng)過白化后,車輛軌跡數(shù)據(jù)冗余的特征會被去除,特征數(shù)將會保持最精簡,可提高之后機(jī)器學(xué)習(xí)迭代過程的運算速度和可解釋性.
(10)
Transformer網(wǎng)絡(luò)善于挖掘序列的重點所在和特性,本文使用Transformer編碼器來學(xué)習(xí)車輛運動的特征.對每一個瞬間Transformer網(wǎng)絡(luò)讀取最新長度為th的歷史軌跡片段,通過不斷地從歷史軌跡中尋找規(guī)律,Transformer網(wǎng)絡(luò)將每輛車的歷史信息編碼成一個固定長度的上下文向量,這個向量反映了Transformer編碼器對車輛歷史軌跡的理解和記憶.每輛車的Transformer共享權(quán)重,這使得所有車輛的Transformer網(wǎng)絡(luò)的內(nèi)部組件之間相互對應(yīng).
在每一時刻t,輸入量H經(jīng)過嵌入層編碼轉(zhuǎn)化成特征向量,與位置編碼連接使軌跡預(yù)測模型理解序列的順序.隨后由多頭自注意力層計算注意力分布,并通過相加和歸一化得到上下文向量It.為了對車輛之間的相互作用進(jìn)行建模,在被預(yù)測車的周圍定義一個3×13的空間網(wǎng)格,網(wǎng)格長度約為2輛汽車的長度8 m,寬度為1個車道的寬度.在橫向上,以被預(yù)測車輛車道為中心,再考慮左、右2個車道;在縱向上,以被預(yù)測車輛為中心,考慮前后各50 m范圍.然后將考慮范圍內(nèi)的每輛車的上下文向量按車輛在空間網(wǎng)格的位置關(guān)系填充此圖,形成聯(lián)合向量.可以將空間網(wǎng)格看作一張拼圖,每輛車的上下文向量都是拼圖的一部分,將圖片拼好的同時也將周圍車輛的歷史狀態(tài)信息和空間位置引入了軌跡預(yù)測模型中.為了從拼圖中提取特征信息,可以參考圖像的信息常用處理機(jī)制,比如卷積層和最大池化層.卷積層的作用是用一個空間窗口即濾波器去遍歷圖像,與圖像中對應(yīng)的區(qū)域相乘,再把乘積加起來,卷積層能幫助提取圖像的特征(如邊緣特征);最大池化層同樣有一個選窗,通過將選窗內(nèi)的最大值取代選窗內(nèi)的值來降低數(shù)據(jù)維度.本文擬使用2個卷積層和1個最大池化層來處理所有周圍車輛的歷史狀態(tài)信息,將所有上下文向量整合成聯(lián)合上下文向量I.此外,被預(yù)測車輛的Transformer狀態(tài)通過全連接層來獲得車輛上下文向量.將2個上下文向量連接起來,形成完整的軌跡編碼,然后傳遞給解碼器.
由于駕駛行為因人而異,因此在實際公路上車輛的駕駛軌跡往往是不確定的.為了體現(xiàn)未來軌跡的不確定性,使用Transformer解碼器生成車輛位置的概率分布,采用二元高斯分布參數(shù)作為解碼器的輸出.另外,未來實際軌跡的產(chǎn)生與對應(yīng)車輛的駕駛意圖密切相關(guān).如果在進(jìn)行軌跡預(yù)測時僅輸出高斯分布的參數(shù)而不判斷駕駛員的駕駛意圖,則輸出結(jié)果將會趨于不同駕駛意圖軌跡的平均值,這會導(dǎo)致軌跡準(zhǔn)確性下降.因此,為了更好地反映未來的軌跡,引入了一個駕駛意圖模塊來獲得車輛的駕駛意圖,從而輔助軌跡預(yù)測.車輛在行駛時,假設(shè)前車減速剎車,則后車在接近前車時,為了避免碰撞會選擇剎車減速或者變道,因此考慮3項橫向駕駛行為與2項縱向駕駛行為.橫向駕駛行為包括向左換道直行和向右換道,縱向駕駛行為包括正常行駛和制動.綜合考慮2類駕駛行為共可得到3×2即6種駕駛意圖.定義制動行為為縱向加速度絕對值大于2 m/s2,這些駕駛意圖可以通過車輛轉(zhuǎn)向燈和剎車燈相互傳達(dá).
本文使用基于Transformer的解碼器來生成未來在下一幀的軌跡分布,通過預(yù)測上述6個駕駛意圖中每一個的分布以及每個駕駛意圖的概率來描述車輛行駛時的多模態(tài)性.解碼器設(shè)置2個softmax層,輸入聯(lián)合上下文向量I,分別輸出橫向和縱向駕駛意圖概率.設(shè)mi(i=1,2,…,6)分別表示6種駕駛意圖,則softmax層的輸出可表示為P(mi|I).比較6種意圖概率的大小并指定概率最高的類別作為正確的駕駛意圖,基于該駕駛意圖預(yù)測未來軌跡的概率分布.假設(shè)softmax輸出的駕駛意圖概率矩陣為M={ω1,ω2,ω3,ω4,ω5,ω6},其中ω1~ω6分別為向左換道、直行、向右換道、減速下的向左換道、減速直行、減速下的向右換道概率P(mi|I).M只有一個值為1,其余值都為0.得到駕駛意圖向量M后,與卷積池化層輸出的聯(lián)合上下文向量拼接形成一個完整的上下文向量,作為Transformer解碼器的輸入.每個解碼器包括3個子層:① 蒙版多頭自注意力層,它與編碼器不同的是在時刻t時,大于時刻t的沒有結(jié)果,小于時刻t的有結(jié)果,即只關(guān)注前文信息,因此要對這一層加一個蒙版;② 編碼-解碼注意力層,用于接收包含鍵向量和值向量的上下文向量,其查詢向量來自上一個解碼端;③ 第3個子層與編碼器一樣,為了預(yù)防梯度消失增加軌跡預(yù)測模型性能.解碼組件最后會輸出一個實數(shù)向量,線性變換層的作用是將浮點數(shù)變成概率索引,softmax層最終輸出軌跡分布概率P(O|I).計算公式如下:
式中,O為輸出量;Pθ為二元高斯函數(shù);θ為二元高斯函數(shù)的參數(shù),其表示為
θ={θ(t+1),θ(t+2),…,θ(t+th)}
(12)
通過訓(xùn)練,可以確定二元高斯分布的參數(shù),并與P(O|I)結(jié)合便可得到預(yù)測的未來軌跡.
車聯(lián)網(wǎng)技術(shù)屬于一種前沿的新興技術(shù),暫時沒有通過具有智能網(wǎng)聯(lián)系統(tǒng)的車輛和智能路側(cè)設(shè)備進(jìn)行實地實驗的條件,因此基于提出的軌跡預(yù)測模型,利用公開數(shù)據(jù)集進(jìn)行模型的驗證,并通過對比其他軌跡預(yù)測模型來驗證本文基于Transformer的軌跡預(yù)測模型的優(yōu)越性.主要步驟如下:數(shù)據(jù)預(yù)處理、注意力模型網(wǎng)絡(luò)初始化、模型實驗結(jié)果分析、模型性能對比分析等.
為確保數(shù)據(jù)集滿足真實性和車聯(lián)網(wǎng)數(shù)據(jù)的采樣頻率高、數(shù)據(jù)精確度高、數(shù)據(jù)類型全的特點,本文選用了美國NGSIM(next generation simulation)數(shù)據(jù)集,它與車聯(lián)網(wǎng)環(huán)境下采集的數(shù)據(jù)具有一定的相似性,能夠為本文提出的機(jī)動車軌跡預(yù)測模型提供模型驗證的數(shù)據(jù)支撐.數(shù)據(jù)集主要包括US-101、I-80、Peach、Lank四個檢測路段的車輛運行軌跡數(shù)據(jù).其中,Peach和Lank為城市道路,US-101和I-80為高速公路.本文選取I-80和US-101路段作為研究對象.NGSIM數(shù)據(jù)集在車輛變道、交通流演化、車輛跟馳以及車輛軌跡預(yù)測等方面均有著廣泛的應(yīng)用,其主要原始參數(shù)如表1所示.
表1 NGSIM主要參數(shù)含義表
在將數(shù)據(jù)集輸入軌跡預(yù)測模型前,首先對數(shù)據(jù)進(jìn)行預(yù)處理,包括選取高速公路交織區(qū)數(shù)據(jù)(此區(qū)域換道行為較多)、對數(shù)據(jù)進(jìn)行降噪處理等,共得到9 369 328行數(shù)據(jù),部分結(jié)果如表2所示.
車輛位置檢測的誤差將以指數(shù)級的倍數(shù)體現(xiàn)在速度和加速度數(shù)值上,在原數(shù)據(jù)中,有2/3的加速度值超過±3 m/s2,且可能存在短時間內(nèi)出現(xiàn)多次急劇的加速和減速現(xiàn)象,這與實際不符.為了消除數(shù)據(jù)的波動,采用對稱指數(shù)移動平均法進(jìn)行濾波.濾波后將數(shù)據(jù)集的80%用作訓(xùn)練集,20%用作測試集.
表2 高速公路數(shù)據(jù)預(yù)處理結(jié)果表
注意力模型網(wǎng)絡(luò)初始化主要包括層的維度和激活函數(shù)、損失函數(shù)(loss function)與優(yōu)化器(optimizer)、正則化方法選取等.
層的維度和激活函數(shù)中定義Transformer編碼器接收維度64的向量,Transformer解碼器為128維;定義第1個卷積層卷積核大小為3×3及卷積核種類為64個,第2個卷積層核大小為3×1及卷積核種類為16個,定義最大池化層大小為2×1;定義Transformer的multi-head值為8,前饋神經(jīng)網(wǎng)絡(luò)維度為200,嵌入層維度為512;對所有層設(shè)置激活函數(shù)為LeakyReLUs.模型損失函數(shù)與優(yōu)化器中神經(jīng)網(wǎng)絡(luò)的訓(xùn)練目的是使損失盡可能最小化,因此本文使用交叉熵代價函數(shù)作為模型的損失函數(shù);優(yōu)化器的作用是利用損失函數(shù)得出的損失值作為反饋信號對模型的權(quán)重值進(jìn)行微調(diào),以降低當(dāng)前示例對應(yīng)的損失值;本文使用Adam優(yōu)化器,該優(yōu)化器結(jié)合了AdaGrad和RMSProp兩種優(yōu)化算法的優(yōu)點,具有計算高效、適合大規(guī)模數(shù)據(jù)、可自動調(diào)整學(xué)習(xí)率等特點;本文設(shè)定學(xué)習(xí)率為0.001,較小的學(xué)習(xí)率可以防止權(quán)重更新過大.正則化方法選取中本文使用dropout正則化,對軌跡預(yù)測模型的某一層使用dropout,即在訓(xùn)練時隨機(jī)舍棄該層的一些輸出特征,dropout比率是被舍棄的特征所占比例,本文設(shè)置dropout比率為0.2.
對基于Transformer的軌跡預(yù)測模型進(jìn)行訓(xùn)練,訓(xùn)練損失與預(yù)測精度如圖3所示.由圖可知,模型對橫向駕駛軌跡預(yù)測的準(zhǔn)確性高于縱向駕駛軌跡預(yù)測,即模型對于車輛是否要向左或向右變道的預(yù)測非常準(zhǔn)確,最終達(dá)到了97.4%的預(yù)測精度;對于車輛是否減速的預(yù)測精度比前者稍低,預(yù)測精度達(dá)88.4%.
(a) 縱向駕駛軌跡預(yù)測精度
對橫向駕駛軌跡進(jìn)行預(yù)測分析.定義測試集中車輛在時間幀數(shù)15之前的軌跡為歷史軌跡,之后的軌跡為未來軌跡.將軌跡預(yù)測模型部署在測試集上,并把歷史軌跡輸入模型,將輸出的車輛橫向預(yù)測軌跡與測試集中車輛實際的未來軌跡進(jìn)行對比,并選取較為典型的3組軌跡,如圖4所示.3組軌跡對應(yīng)的車輛在數(shù)據(jù)集中的編號分別為0、35和36,由圖可知,軌跡預(yù)測模型輸出的橫向預(yù)測軌跡與實際未來軌跡的誤差可以保持在0.2 m以內(nèi).同時,由于考慮了環(huán)境車輛的影響,軌跡預(yù)測模型還可以預(yù)測出例如車輛先向左避讓后又回到原來位置這樣復(fù)雜的橫向軌跡.
(a) 0號車橫向軌跡
對縱向駕駛軌跡進(jìn)行預(yù)測分析,將軌跡預(yù)測模型在測試集上輸出的車輛縱向預(yù)測軌跡與實際未來軌跡進(jìn)行對比,并選取較為典型的3組軌跡如圖5所示.3組軌跡對應(yīng)的車輛在數(shù)據(jù)集中的編號分別為0、11793和11838.由圖可知,軌跡預(yù)測模型對于車輛的縱向預(yù)測軌跡與實際未來軌跡擬合度好,而且考慮環(huán)境車輛影響后,還可以預(yù)測出例如圖5(c)這樣先加速后減速的縱向軌跡.
(a) 0號車縱向軌跡
為了研究軌跡預(yù)測模型的各個組成部分是否必要和對軌跡預(yù)測起到的作用,將軌跡預(yù)測模型與其去除駕駛意圖識別模塊后的改進(jìn)模型進(jìn)行對比分析.對去除駕駛意圖識別模塊后的軌跡預(yù)測模型進(jìn)行訓(xùn)練,并在測試集上進(jìn)行驗證.在橫向軌跡預(yù)測上,選取較為典型的3組軌跡如圖6所示.3組軌跡對應(yīng)的車輛在數(shù)據(jù)集中的編號分別為1、55和72.由圖6可知,在去除駕駛意圖識別模塊后,軌跡預(yù)測模型輸出的橫向預(yù)測軌跡與實際未來軌跡的誤差增加到0.5 m以上,并且其在未來時段內(nèi)不能準(zhǔn)確預(yù)測出車輛是向左還是向右變道.
(a) 1號車橫向軌跡
在測試集上,用去除駕駛意圖識別模塊的改進(jìn)軌跡預(yù)測模型對縱向軌跡進(jìn)行預(yù)測,選取3組典型軌跡如圖7所示.3組軌跡對應(yīng)的車輛在數(shù)據(jù)集中的編號分別為101、106和11828.由圖7可知,在去除駕駛意圖識別模塊后,軌跡預(yù)測模型對車輛縱向的預(yù)測軌跡較實際未來軌跡出現(xiàn)了±2 m以上的波動,甚至有急剎和急加速的情況.由于去除駕駛意圖識別模塊后的軌跡預(yù)測模型對車輛橫向和縱向軌跡的預(yù)測精度較完整模型均顯著下降,故駕駛意圖識別模塊可以有效提高軌跡預(yù)測模型的預(yù)測精度.
(a) 101號車縱向軌跡
為了驗證上文提出的軌跡預(yù)測模型的有效性和性能,需要與其他基于不同原理的軌跡預(yù)測模型進(jìn)行對比.同時為了驗證軌跡預(yù)測模型中各模塊的有效性,遵循控制變量原則,對不同模塊進(jìn)行組合來設(shè)置對照組.CS-Transformer(M)表示本文提出的包含卷積聯(lián)合池化層、駕駛意圖識別模塊和Transformer解碼器的軌跡預(yù)測模型,CS-Transformer表示在CS-Transformer(M)基礎(chǔ)上去除駕駛意圖識別模塊.本文擬使用均方根誤差(root mean square error,RMSE)和交叉熵代價函數(shù)(negative log-likelihood loss,NLL)的值來評價各軌跡預(yù)測模型的性能.
主要對比了以下軌跡預(yù)測模型:恒定速度模型(constant velocity)、C-VGMM+VIM、Gail-GRU、M-LSTM、VD+DCS-LSTM、CS-Transformer.其中,恒定速度模型使用恒定速度卡爾曼濾波器作為基準(zhǔn);C-VGMM+VIM由Deo等[15]于2018年提出,該模型主要包括了一個基于隱馬爾科夫模型(HMM)的意圖識別模塊,一個基于多交互模型(IMM)和基于駕駛意圖的變分高斯混合模型(VGMM),為了與CS-Transformer(M)進(jìn)行比較,將原始研究里的意圖識別分類修改為上文提出的這6類;Gail-GRU由Kuefler等[16]于2017年提出,該模型將生成對抗性學(xué)習(xí)(generative adversarial imitation learning)應(yīng)用于駕駛行為的建模,且同樣使用了NGSIM數(shù)據(jù)集;M-LSTM是基于駕駛意圖的LSTM模型,該模型由Deo等[17]于2018年提出,使用了基于LSTM的編碼器與解碼器,結(jié)合駕駛意圖進(jìn)行軌跡預(yù)測;VD+DCS-LSTM由Zhang等[18]于2021年提出,該模型是基于車輛描述符的LSTM模型,包括一個擴(kuò)展卷積池(dilated convolutional social pooling).
軌跡預(yù)測模型對比結(jié)果如表3所示.由表可知,在RMSE和NLL值方面,CS-Transformer和CS-Transformer(M)的性能優(yōu)于設(shè)定的基準(zhǔn)模型恒定速度模型,表明了基于Transformer框架的軌跡預(yù)測模型的有效性.如圖8所示,通過折線圖可以更清楚地看到RMSE和NLL值的大小.
表3 軌跡預(yù)測模型性能對比結(jié)果表
圖8中,恒定速度模型的RMSE值和NLL值比其他軌跡預(yù)測模型都大,這是因為恒定速度模型沒有考慮環(huán)境車輛,而其他軌跡預(yù)測模型都使用了一些關(guān)于環(huán)境中車輛運動的信息,所以車輛間的相互作用是車輛軌跡預(yù)測模型構(gòu)建需要考慮的重要因素.C-VGMM+VIM模型的誤差值也比其他軌跡預(yù)測模型大,說明神經(jīng)網(wǎng)絡(luò)模型如循環(huán)神經(jīng)網(wǎng)絡(luò)和Transformer模型能更好地提取車輛歷史數(shù)據(jù)的特征,對未來長時間的預(yù)測性能更好;其次,Gail-GRU的表現(xiàn)比恒定速度模型和C-VGMM+VIM略好,與后續(xù)的模型比仍有差距,說明對抗學(xué)習(xí)表現(xiàn)好于隱馬爾可夫模型,但是弱于長短時記憶網(wǎng)絡(luò)和Transformer網(wǎng)絡(luò),這可能是因為對抗學(xué)習(xí)對歷史數(shù)據(jù)的理解不夠全面.通過比較VD+DCS-LSTM與M-LSTM的預(yù)測誤差值,得出卷積層的引入可以更好地學(xué)習(xí)到車輛歷史數(shù)據(jù)的特征表示.最后,通過比較CS-Transformer(M)與其余軌跡預(yù)測模型可以發(fā)現(xiàn),基于Transformer的軌跡預(yù)測模型對未來軌跡預(yù)測值與實際值的均方根誤差相比C-VGMM+VIM、Gail-GRU和M-LSTM分別降低了26.7%、6.8%、5.8%;相比VD+DCS-LSTM,均方根誤差在預(yù)測時域前4 s平均降低了2.6%,體現(xiàn)了基于注意力機(jī)制的Transformer軌跡預(yù)測模型對長序列歷史軌跡信息良好的并行處理能力和對未來軌跡良好的預(yù)測能力.
(a) RMSE值對比
1) 在車聯(lián)網(wǎng)環(huán)境下,利用C-V2X技術(shù)構(gòu)建車隊中每輛車的狀態(tài)向量,提出了一種基于Transformer架構(gòu)的軌跡預(yù)測模型,主要包括編碼器、卷積聯(lián)合池化層和基于駕駛意圖的解碼器.
2) 使用NGSIM數(shù)據(jù)集對基于Transformer的軌跡預(yù)測模型進(jìn)行驗證分析,結(jié)果顯示模型對橫向未來軌跡和縱向未來軌跡的預(yù)測精度在0.2 m以內(nèi).
3) 通過與基于其他深度學(xué)習(xí)算法的軌跡預(yù)測模型進(jìn)行對比分析發(fā)現(xiàn),卷積聯(lián)合池化層相比于全連接層能更好地捕獲周圍車輛的信息;駕駛意圖識別模塊和注意力機(jī)制的引入可以幫助軌跡預(yù)測模型更準(zhǔn)確地預(yù)測未來軌跡走向,提高軌跡預(yù)測模型的準(zhǔn)確性,Transformer架構(gòu)在長序列信息特征提取和處理效率上優(yōu)于其他軌跡預(yù)測模型.