国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于時間卷積神經(jīng)網(wǎng)絡(luò)的短時交通流預(yù)測算法

2021-01-05 04:12:58袁華陳澤濠
關(guān)鍵詞:交通流檢測器時刻

袁華 陳澤濠

(華南理工大學(xué) 計算機科學(xué)與工程學(xué)院,廣東 廣州 510640)

在智能交通系統(tǒng)(ITS)中,交通控制和交通誘導(dǎo)非常重要,而實時準確的交通流預(yù)測能為交通控制提供有效幫助,是實現(xiàn)交通誘導(dǎo)的基礎(chǔ)。交通流預(yù)測就是根據(jù)大量交通歷史數(shù)據(jù)來預(yù)測未來時刻的交通狀況[1],短時交通流預(yù)測能提供未來交通流信息,提高控制策略的準確性。對于實時交通誘導(dǎo),如果僅僅依靠實時交通信息,引導(dǎo)出行者前往不擁堵的路段,可能導(dǎo)致不擁堵路段一段時間后發(fā)生擁堵,而先前擁堵路段反而已經(jīng)疏通。短時交通流預(yù)測使得誘導(dǎo)具有一定的前瞻性,能更好地解決交通擁堵等問題。因此,短時交通流預(yù)測具有非常重要的現(xiàn)實意義。

本文中研究的交通流特指交通流量,是單位時間內(nèi)通過道路某一斷面的車輛總數(shù)。交通流量是量化交通通行能力的一種有效指標。目前,短時交通流預(yù)測方法可以分為兩大類:模型驅(qū)動方法(Model-base Methods)和數(shù)據(jù)驅(qū)動方法(Data-base Methods)。其中,數(shù)據(jù)驅(qū)動方法又可分為:簡單方法(Na?ve Methods)、參數(shù)方法(Parametric Methods)、非參數(shù)方法(Non-parametric Methods)和混合方法(Hybrid Methods)。

模型驅(qū)動方法依靠理論假設(shè)和軟件模擬來建模,難以應(yīng)付交通所具有的社會性[2];隨機游走(RW)、歷史均值(HA)等簡單方法無需進行復(fù)雜建模計算而直接輸出結(jié)果,沒有考慮交通流的波動性[3],難以應(yīng)付越來越復(fù)雜多變的大型交通系統(tǒng);參數(shù)方法根據(jù)一定的先驗知識假定交通流符合特定的概率分布模型,進而根據(jù)訓(xùn)練集估算出模型參數(shù),交通流預(yù)測上的經(jīng)典參數(shù)方法為求和自回歸移動平均模型(ARIMA),但其計算復(fù)雜度高,難以勝任復(fù)雜多變的短時交通流預(yù)測,且預(yù)測精度明顯不足;由于交通流數(shù)據(jù)的非線性以及隨機性,很難對交通流分布作出任何假設(shè),而非參數(shù)方法對總體分布不作假設(shè),更適合短時交通流預(yù)測任務(wù)。且伴隨數(shù)據(jù)規(guī)模的膨脹以及計算機速度的提升,非參數(shù)方法逐漸表現(xiàn)出優(yōu)越性?;旌戏椒ň褪菍⑸鲜霾煌P偷慕Y(jié)果有機地結(jié)合起來,以達到優(yōu)勢互補的效果。

近年來,短時交通流預(yù)測逐漸傾向于使用深度學(xué)習(xí)(DL)。Huang等[4]首次將深度學(xué)習(xí)應(yīng)用于交通領(lǐng)域,設(shè)計了一個由兩部分組成的深層架構(gòu),即底層的深度信念網(wǎng)絡(luò)(DBN)和頂層的多任務(wù)回歸層(MTL),與當(dāng)時預(yù)測效果最好的方法比有5%的提升,但該深層網(wǎng)絡(luò)結(jié)構(gòu)忽略了交通流時序數(shù)據(jù)之間的依賴關(guān)系;Lü等[5]將路網(wǎng)全部交通流量數(shù)據(jù)直接作為堆疊自編碼器(SAEs)的輸入,成功從交通流數(shù)據(jù)中發(fā)現(xiàn)潛在的交通流特征表示,如非線性時空關(guān)系,最終在中、重度交通狀況下有很好的表現(xiàn);Ma等[6]首次使用長短時記憶網(wǎng)絡(luò)(LSTM)預(yù)測城市干道上的車流速度,LSTM能學(xué)習(xí)具有長時間依賴關(guān)系的時間序列,且無需指定時間延期;Duan等[7]介紹了一種基于多層降噪自編碼器(SDAEs)在交通流數(shù)據(jù)填充上的應(yīng)用;Fu等[8]首次將循環(huán)門控單元網(wǎng)絡(luò)(GRU)應(yīng)用于短時交通流預(yù)測,利用前半個小時的交通流預(yù)測下一個5 min的交通流。實驗表明,GRU預(yù)測效果最好,其次是LSTM,ARIMA效果最差,這是GRU在短時交通流預(yù)測領(lǐng)域的簡單嘗試。

從上述文獻來看,研究人員首先嘗試在交通流預(yù)測領(lǐng)域運用深層網(wǎng)絡(luò)結(jié)構(gòu),進而嘗試使用不同方法來發(fā)現(xiàn)交通流序列中潛在的非線性關(guān)系。LSTM、GRU等循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)確實能很好地對序列進行建模。然而,循環(huán)神經(jīng)網(wǎng)絡(luò)本身存在梯度彌散(Vanishing Gradient)與梯度爆炸(Exploding Gradient)問題,LSTM、GRU等變體也僅僅只是對其梯度彌散問題的緩解。與此同時,循環(huán)神經(jīng)網(wǎng)絡(luò)因其獨特的計算方式難以獲得較高的訓(xùn)練效率。RNN每個時刻的輸出都是對前一時刻輸出執(zhí)行相同操作而產(chǎn)生的,當(dāng)前時刻的計算依賴于上一時刻的計算結(jié)果。這種固有特性使得RNN只能逐個時刻串行計算,難以并行化,更難以在GPU上有較好的加速效果。

Bai等[9]在2018年提出一種新型的時間卷積網(wǎng)絡(luò)(TCN)。實驗表明,盡管理論上RNN可以擁有無限長的“記憶”,但卻難以訓(xùn)練,也難以并行。TCN相對于RNN具有以下優(yōu)勢:1.實際建模過程中可以有更長時“記憶”;2.TCN基于卷積神經(jīng)網(wǎng)絡(luò),因而更易于并行。TCN不是一種單一的網(wǎng)絡(luò)結(jié)構(gòu),而是一類基于卷積神經(jīng)網(wǎng)絡(luò)(CNN)改進的,用于解決序列問題的神經(jīng)網(wǎng)絡(luò)的總稱,如WaveNet[10]是TCN模型的一員。WaveNet結(jié)合了擴張卷積[11](Dilated Convolution)與因果卷積[10](Causal Convolution),使得感受野(Reception Field)變大,更好地對原始語音進行建模。You等[12]將TCN應(yīng)用于推薦系統(tǒng),提出了分層時間卷積網(wǎng)絡(luò)(HierTCN),召回率提高了18%,平均倒數(shù)排名提高了10%。

實際交通流容易受到諸如天氣、賽事、事故等多種因素的干擾,當(dāng)交通流出現(xiàn)明顯上沖或者下跌時,需要及時根據(jù)歷史數(shù)據(jù)調(diào)整模型,這對短時交通流預(yù)測模型的在線更新性能提出了較高要求。CNN允許并行進行卷積計算,使得CNN在GPU上有很好的加速效果。使用以CNN為基礎(chǔ)的TCN,也就可以使用GPU大大加快模型訓(xùn)練過程,以保障模型的在線更新。

本文中首次將TCN應(yīng)用于短時交通流預(yù)測領(lǐng)域,基于TCN的基本思想,保留擴張卷積與因果卷積,剔除殘差網(wǎng)絡(luò)(Residual Connection),提出擴張-因果卷積網(wǎng)絡(luò)(DCFCN),在短時交通流預(yù)測任務(wù)上取得優(yōu)于LSTM、GRU的效果,且在GPU上有明顯的加速效果。

1 網(wǎng)絡(luò)結(jié)構(gòu)

1.1 時間卷積神經(jīng)網(wǎng)絡(luò)

1.1.1 擴張卷積

針對短時交通流預(yù)測等序列任務(wù),需要對前一段時間內(nèi)的交通流進行建模,不能僅僅依靠上一時刻交通流。而傳統(tǒng)全連接神經(jīng)網(wǎng)絡(luò)在相鄰層之間進行全連接,同一層的不同單元之間沒有連接,這樣的全連接結(jié)構(gòu)只能學(xué)到數(shù)據(jù)之間的關(guān)聯(lián)信息,而無法獲取其序列信息。LSTM、GRU等RNN結(jié)構(gòu)的網(wǎng)絡(luò)通過內(nèi)部存儲單元將“記憶”固化,并向后傳遞,學(xué)習(xí)其序列信息。卷積神經(jīng)網(wǎng)絡(luò)可以通過卷積計算形成“記憶”,感受野的大小反映了使用多少數(shù)據(jù)生成“記憶”。在序列預(yù)測任務(wù)上使用卷積神經(jīng)網(wǎng)絡(luò)最大的問題是如何獲取序列的長時記憶。

在卷積神經(jīng)網(wǎng)絡(luò)中,感受野指的是特征圖(Feature Map)上的節(jié)點在輸入圖片上映射區(qū)域的大小。為了更好地獲取長時記憶,關(guān)鍵就是擴大感受野。如圖1所示,深色表示第3層某一節(jié)點可“看到”的區(qū)域。當(dāng)卷積層數(shù)為l,每層卷積核大小為k時,感受野大小為(k-1)×l+1。卷積神經(jīng)網(wǎng)絡(luò)的感受野大小與卷積核大小、卷積層數(shù)呈線性關(guān)系。因此,增加卷積層以及增大卷積核均能擴大感受野。但更深的卷積層數(shù)以及更大的卷積核,使得網(wǎng)絡(luò)參數(shù)量龐大,難以完成訓(xùn)練。將3個3×3卷積核進行堆疊,可以使其感受野與一個7×7卷積核的感受野大小相同,但3個3×3卷積核的參數(shù)量約為27C(C表示常數(shù)),一個7×7卷積核的參數(shù)量是49C。在卷積神經(jīng)網(wǎng)絡(luò)中,通常偏向于使用不太大的卷積核,較大的卷積核會使得網(wǎng)絡(luò)參數(shù)急劇增加,運算復(fù)雜度增加。另外,增大步長(Stride)或者增加池化層(Pooling)也可以更好地獲取長時記憶,但有可能造成嚴重的信息丟失。

圖1 感受野(k=3,l=2)

另外一種方法就是使用擴張卷積,與一般卷積相比,擴張卷積除了卷積核大小外,增加了用來表示擴張大小的擴張系數(shù)(Dilation Rate)。

擴張卷積的計算公式定義為

(1)

式中,d表示擴張系數(shù),k表示卷積核大小。當(dāng)d為1時,擴張卷積退化為普通卷積,通過控制d的大小,從而在計算量不變的前提下拓寬感受野。

圖2中清晰展示了大小為3×3,擴張系數(shù)為2的卷積核在進行卷積計算時,與深色區(qū)域進行卷積計算,而忽略白色“空洞”。此時感受野大小為7×7。

圖2 擴張卷積

顯然,擴張卷積會存在一定問題,當(dāng)多次疊加相同擴張系數(shù)的卷積層時,可能使得部分時刻數(shù)據(jù)沒有參與計算,忽略了這些時刻的信息,稱為“Gridding”問題[13]。如圖3所示,堆疊兩層擴張系數(shù)為2的卷積層,將無法獲取圖中輸入層白色部分信息。

圖3 “Gridding”問題

因此,一般在設(shè)計擴張卷積時,隨著網(wǎng)絡(luò)深度的增加,擴張系數(shù)呈指數(shù)增大,這不僅確保了網(wǎng)絡(luò)覆蓋所有有效信息,也使得深層網(wǎng)絡(luò)能夠獲取更長的有效信息。

1.1.2 因果卷積

擴張卷積很好地解決了“長時記憶”的問題,而因果卷積解決的是信息泄露問題。信息泄露是指針對交通流預(yù)測等序列處理問題,需要確保模型不能顛倒序列順序,在模型預(yù)測t時刻時,不能使用t+1,t+2等未來時刻數(shù)據(jù)。而在傳統(tǒng)的一維卷積神經(jīng)網(wǎng)絡(luò)中,卷積核對前后時刻數(shù)據(jù)進行卷積計算,這就不可避免地使用了未來時刻數(shù)據(jù)進行建模,也就是信息泄露。因果卷積在WaveNet中首次提出,在因果卷積中,t時刻的輸出只與上一層中t時刻及更早時刻的輸入進行卷積,而與t時刻之后的值無關(guān)。如圖4所示。

圖4 因果卷積

與傳統(tǒng)卷積神經(jīng)網(wǎng)絡(luò)相比,因果卷積只能“看”到過去的數(shù)據(jù),而“看”不到未來的數(shù)據(jù),因此很好地解決了信息泄露。一維因果卷積一般通過Padding實現(xiàn),序列前端填充相應(yīng)位數(shù)的零,而序列末端不進行填充。

1.2 網(wǎng)絡(luò)結(jié)構(gòu)

本文基于TCN的基本思想,將上述擴張卷積與因果卷積進行結(jié)合,首次將TCN應(yīng)用于短時交通流預(yù)測領(lǐng)域[14]。圖5為本文中所提出的網(wǎng)絡(luò)結(jié)構(gòu),第1層為交通流序列輸入層,接下來連續(xù)堆疊6層一維卷積層,每層卷積層均通過Padding實現(xiàn)因果卷積,卷積核大小為4,卷積核個數(shù)為32,每層擴張系數(shù)分別為1、2、4、8、16、32,之后接入全連接層,輸出下一時刻的交通流。圖5虛線框內(nèi)表示最后一層隱藏層,隱藏層之后為最終輸出節(jié)點。

圖5 DCFCN結(jié)構(gòu)

具體步驟如下。

步驟1 首先將交通流序列數(shù)據(jù)以滑動窗口的方式進行處理,窗口大小為21,每次向前滑動一個數(shù)據(jù),即時間步為21,預(yù)測下一個時刻的交通流大??;

步驟2 將滑窗處理后的數(shù)據(jù)進行預(yù)處理并劃分訓(xùn)練集與測試集;

步驟3 將訓(xùn)練集輸入DCFCN模型進行訓(xùn)練;

步驟4 利用訓(xùn)練好的模型預(yù)測測試集交通流大小并計算誤差。

圖6中展示了多層擴張-因果卷積堆疊的示意圖,DCFCN擴張系數(shù)分別為1、2、4。擴張系數(shù)呈指數(shù)增長,使得感受野大小也呈指數(shù)增長,即使在少數(shù)卷積層的情況下,也能獲得非常大的感受野,同時還保證了模型的計算效率。

圖6 多層擴張-因果卷積堆疊

卷積神經(jīng)網(wǎng)絡(luò)在卷積級中并行地計算多個卷積并生成一組線性激勵的響應(yīng),因此可以使用GPU進行加速。每個線性激活響應(yīng)都會經(jīng)過一個非線性激活函數(shù),如線性整流激活函數(shù)(ReLU)。本文中在ReLU激活函數(shù)之前進行層正則化(Layer Normalization),將層輸出值限制在0到1的區(qū)間。

2 實驗

2.1 實驗環(huán)境

為了對比不同模型在CPU以及GPU上的表現(xiàn),文中將分別在CPU、GPU上進行實驗,實驗環(huán)境如表1所示。

表1 實驗環(huán)境

2.2 數(shù)據(jù)以及預(yù)處理

本文中實驗數(shù)據(jù)來源于PEMS系統(tǒng),隨機挑選了8個不同位置檢測器,編號分別為VDS 12139 63、VDS 1201453、VDS 1201637、VDS 1201671、VDS 1201705、VDS 1201735、VDS 1201751。獲取每個檢測器在2014年4月1日到2015年6月30日間的交通流量數(shù)據(jù),其時間間隔為5min。圖7為編號VDS 1213963檢測器2015年6月22日到2015年6月28日一周內(nèi)交通流變化情況。

圖7 一周內(nèi)交通流

由于設(shè)備故障、噪聲干擾、存儲不當(dāng)、人為過失等突發(fā)情況的發(fā)生,導(dǎo)致數(shù)據(jù)無法百分之百采集,存在錯誤數(shù)據(jù)和丟失數(shù)據(jù)。所以,在建立預(yù)測模型之前,必須對原始數(shù)據(jù)進行數(shù)據(jù)填充。數(shù)據(jù)填充的方法一般分為3種:預(yù)測、插值和統(tǒng)計學(xué)習(xí)[7]。預(yù)測方法通常是根據(jù)歷史數(shù)據(jù)建立預(yù)測模型,并預(yù)測丟失數(shù)據(jù);插值方法則是直接使用歷史數(shù)據(jù)或相鄰檢測器數(shù)據(jù)填充丟失數(shù)據(jù);統(tǒng)計學(xué)習(xí)方法是根據(jù)統(tǒng)計特征進行填充,通常先假設(shè)數(shù)據(jù)的概率分布模型,然后迭代估計模型參數(shù)。

本文中使用的是插值法,利用交通流的歷史平均值進行填充??紤]到一周內(nèi)不同日期的交通流模式不同,將交通流數(shù)據(jù)按周一到周日劃分為7類,計算每一類中一天所有時刻的平均交通流,使用該平均交通流對缺失值進行填充。填充效果如圖8所示,對編號VDS 1213963檢測器在2014年3月8日的缺失數(shù)據(jù)進行填充,淺色部分表示填充的交通流曲線。

圖8 數(shù)據(jù)填充

本文中采用最小最大歸一化將數(shù)據(jù)映射到[0,1]區(qū)間,歸一化公式如式(2)所示:

(2)

式中,z表示歸一化后的數(shù)據(jù),x表示原始數(shù)據(jù),xmin為x的最小值,xmax為x的最大值。

2.3 評價指標

為了評價交通流預(yù)測模型的優(yōu)劣,本文中將采用均方根誤差(RMSE)為主要評價指標,同時輔以觀察平均絕對誤差(MAE)與平均絕對百分比誤差(MAPE)的變化,在計算MAPE時,剔除零值樣本。

(3)

(4)

(5)

2.4 數(shù)據(jù)劃分

針對單一檢測器,訓(xùn)練數(shù)據(jù)從2014年4月1日到2015年6月20日,預(yù)處理后總共128 361個完整樣本,其中10%作為驗證集,驗證集大小為12 837;測試集從2015年6月20日到2015年6月30日,總樣本量為2 946。

本文中在訓(xùn)練集上進行模型訓(xùn)練,并在驗證集上驗證不同參數(shù)下的模型效果,使得驗證集上的RMSE最低。最后,不同模型在其最優(yōu)參數(shù)下,使用同一測試集進行評測,比較模型性能優(yōu)劣。

2.5 實驗結(jié)果

2.5.1 實驗設(shè)置

本節(jié)實驗所使用的模型有隨機游走、歷史均值、ARIMA、LSTM、GRU、DCFCN,由于不同的超參數(shù)設(shè)置將會影響模型的預(yù)測精度,在保證盡量公平的前提下,文中通過查閱相關(guān)文獻資料或者多次交叉驗證得出不同模型的最佳參數(shù)。其中,LSTM、GRU與DCFCN的時間步均為21,與文獻[15]保持一致。數(shù)據(jù)時間間隔為5 min。

具體參數(shù)設(shè)置如下:

(1) ARIMA分別取p=2,d=1,q=1,為了得到平穩(wěn)的序列,預(yù)先做一次一階差分??紤]交通流存在周周期性,當(dāng)前時刻的交通流與上周同一時刻的交通流相似,差分使用當(dāng)前時刻的交通流減去上周同一時刻的交通流;

(2) LSTM1和LSTM2分別表示使用單層LSTM與雙層LSTM,隱藏層單元數(shù)為64;

(3) GRU1和GRU2分別表示使用單層GRU與雙層GRU,隱藏層單元數(shù)為64;

(4) DCFCN每層的擴張系數(shù)分別為[1,2,4,8,16,32],每層卷積核個數(shù)均為32,卷積核大小為4。

2.5.2 實驗結(jié)果

本文中針對單檢測器的短時交通流預(yù)測實驗結(jié)果如表2所示,其中RMSE、MAE、MAPE均為10次實驗后取平均值,S(RMSE)表示的是RMSE的樣本標準差。

表2 實驗結(jié)果

從表2中可以看出,相對于其他對比模型,本文提出的DCFCN預(yù)測效果最好,在RMSE、MAE、MAPE指標上均為最低。

LSTM與GRU能獲取交通流序列的時序關(guān)系,預(yù)測效果優(yōu)于簡單方法以及傳統(tǒng)的ARIMA模型,但仍不如DCFCN。DCFCN在RMSE上與單層LSTM相比降低了0.38,與雙層LSTM相比降低了0.52,與單層、雙層GRU相比均降低了0.38。說明TCN模型確實可以在序列建模上做得比RNN好。

圖9 不同模型RMSE對比

為了驗證DCFCN模型是否在不同的檢測器上均有效,選取了不同的檢測器進行重復(fù)試驗。表3中展示了不同檢測器上不同模型的RMSE值。從表中可以看出,在隨機選取的全部8個檢測器中,6個檢測器上DCFCN模型有最好的預(yù)測效果,本文中提出的DCFCN模型適用于絕大多數(shù)檢測器。

表3 不同檢測器實驗結(jié)果

盡管在其中2個檢測器上的預(yù)測效果不如LSTM或者GRU,但在保證預(yù)測效果的同時,DCFCN比其他模型有更快的訓(xùn)練速度。

LSTM、GRU等循環(huán)神經(jīng)網(wǎng)絡(luò)每個時刻的輸出都是對前一時刻輸出執(zhí)行相同的操作而產(chǎn)生,這種固有特性使得RNN能具有“長時記憶”。也正是這種特性,使得RNN只能串行進行計算,而難以并行化,也無法使用GPU加速計算。而TCN基于卷積神經(jīng)網(wǎng)絡(luò),不需要更新和保留“記憶”,輸出之間不存在依賴關(guān)系,因此很容易并行化且能在GPU上進行更高效訓(xùn)練。表4中展示了不同模型的訓(xùn)練速度,CPU Time、GPU Time分別表示模型一輪迭代訓(xùn)練所需要的時間。從表中可以看出,LSTM與GRU在GPU機器上沒有任何速度提升,甚至有所下降。原因是本文實驗的GPU機器的CPU硬件資源不如CPU機器。而DCFCN模型在GPU機器上有明顯的加速效果。

表4 訓(xùn)練速度

2.5.3 超參數(shù)分析

為進一步驗證模型的有效性,考慮改變模型的網(wǎng)絡(luò)結(jié)構(gòu)參數(shù),驗證不同超參數(shù)對模型的影響。影響DCFCN模型預(yù)測精度的超參數(shù)主要有:激活函數(shù)、卷積核大小、卷積核個數(shù)、擴張系數(shù)、Dropout系數(shù)。實驗結(jié)果如表5所示,實驗過程中,除了對應(yīng)超參數(shù)相應(yīng)改變外,其他超參數(shù)保持不變,實驗結(jié)果取10次均值。

表5 DCFCN超參數(shù)分析

表5中,Norm_relu表示先對輸出進行層正則化,再使用ReLU激活函數(shù)進行激活;Wavenet表示W(wǎng)avenet模型中使用的激活函數(shù),其本質(zhì)是將神經(jīng)元分別使用Tanh函數(shù)與Sigmoid函數(shù)激活后按位相乘。最終本文中使用的Norm_relu激活函數(shù)效果最好;另外,隨著擴張系數(shù)的逐漸增大,模型精度先提升后下降,原因是擴張系數(shù)增大導(dǎo)致感受野變大,而感受野增大帶來的好處就是能獲取交通流更長的時序依賴關(guān)系。但是,隨著擴張系數(shù)增大,網(wǎng)絡(luò)層數(shù)逐漸加深,計算量與計算復(fù)雜度增加,導(dǎo)致模型更加難以訓(xùn)練,故模型精度反而有所下降。文獻[10]中提及,當(dāng)訓(xùn)練深層TCN模型時,應(yīng)使用殘差網(wǎng)絡(luò)幫助訓(xùn)練。而殘差網(wǎng)絡(luò)的加入必然導(dǎo)致模型更加難以訓(xùn)練,故模型精度反而有所下降。文獻[10]中提及,當(dāng)訓(xùn)練深層TCN模型時,應(yīng)使用殘差網(wǎng)絡(luò)幫助訓(xùn)練。而殘差網(wǎng)絡(luò)的加入必然導(dǎo)致模型訓(xùn)練時間增長且最優(yōu)超參數(shù)更難搜尋。在DNN中引入Dropout可以有效地防止過擬合現(xiàn)象,但在DCFCN中移除神經(jīng)節(jié)點的Dropout方式反而使得模型精度有所下降。

最終,當(dāng)DCFCN激活函數(shù)為norm_relu,卷積核大小為4,卷積核個數(shù)為16,擴張系數(shù)為32,不引入Dropout機制時,取得的預(yù)測效果最好。

3 結(jié)語

本文中基于時間卷積神經(jīng)網(wǎng)絡(luò)基本思想,提出DCFCN模型,并將其應(yīng)用于短時交通流預(yù)測。DCFCN由6層卷積層堆疊而成,每層通過Padding的方式實現(xiàn)因果卷積,擴張系數(shù)逐層呈指數(shù)增長。指數(shù)增長的擴張系數(shù)使得模型可以獲取序列的長時記憶。實驗結(jié)果表明,本文中提出的DCFCN預(yù)測效果優(yōu)于LSTM、GRU等循環(huán)神經(jīng)網(wǎng)絡(luò),證明了時間卷積神經(jīng)網(wǎng)絡(luò)在短時交通流預(yù)測上的可行性。與此同時,由于卷積神經(jīng)網(wǎng)絡(luò)天然易于并行,DCFCN在GPU上訓(xùn)練效率有明顯提升。

猜你喜歡
交通流檢測器時刻
冬“傲”時刻
捕獵時刻
車道微波車輛檢測器的應(yīng)用
交通流隨機行為的研究進展
一種霧霾檢測器的研究與設(shè)計
路內(nèi)停車對交通流延誤影響的定量分析
街拍的歡樂時刻到來了
具有負壓力的Aw-Rascle交通流的Riemann問題
一天的時刻
一體化火焰檢測器常見故障分析
河南科技(2014年22期)2014-02-27 14:18:12
石门县| 建湖县| 丹东市| 潞西市| 洪洞县| 两当县| 龙门县| 浮梁县| 黄龙县| 临武县| 特克斯县| 汉寿县| 鹤山市| 泸定县| 墨竹工卡县| 浦城县| 新化县| 白玉县| 武隆县| 安塞县| 东兰县| 缙云县| 五常市| 巴马| 察哈| 防城港市| 突泉县| 都兰县| 汨罗市| 樟树市| 三江| 常宁市| 海安县| 商河县| 尼勒克县| 怀仁县| 巢湖市| 开鲁县| 阿勒泰市| 大同市| 山东|