国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于EMD與Attention-LSTM的鐵路貨運(yùn)站短期裝車量預(yù)測(cè)研究

2023-12-26 06:30:32汪崗馬亮陳奕霖
鐵道貨運(yùn) 2023年12期
關(guān)鍵詞:貨運(yùn)站裝車分量

汪崗,馬亮,陳奕霖

(1. 國(guó)能包神鐵路集團(tuán)有限責(zé)任公司 調(diào)度指揮中心, 內(nèi)蒙古 包頭 014000;2. 西南交通大學(xué) 信息科學(xué)與技術(shù)學(xué)院, 四川 成都 611756;3. 中國(guó)鐵道科學(xué)研究院集團(tuán)有限公司 國(guó)家鐵路智能運(yùn)輸系統(tǒng)工程技術(shù)研究中心, 北京 100081;4. 西南交通大學(xué) 四川省列車運(yùn)行控制技術(shù)工程研究中心,四川 成都 611756)

0 引言

近年來(lái),隨著我國(guó)產(chǎn)業(yè)結(jié)構(gòu)調(diào)整,各種運(yùn)輸方式之間競(jìng)爭(zhēng)加劇。為防止客戶流失、均衡鐵路運(yùn)力配置和實(shí)現(xiàn)運(yùn)輸效益最大化,鐵路運(yùn)輸企業(yè)需要具備較強(qiáng)的精準(zhǔn)掌握貨運(yùn)需求和動(dòng)態(tài)部署貨運(yùn)資源的能力。鐵路貨運(yùn)站裝車量預(yù)測(cè)研究對(duì)貨運(yùn)調(diào)度人員提前準(zhǔn)確掌握未來(lái)貨運(yùn)需求、實(shí)現(xiàn)空車提前部署、減少空車無(wú)效走行和提高貨運(yùn)效率起到關(guān)鍵作用。

目前關(guān)于鐵路貨運(yùn)站裝車量預(yù)測(cè)的研究較少,但國(guó)內(nèi)外學(xué)者對(duì)鐵路貨運(yùn)量預(yù)測(cè)做了大量研究工作,傳統(tǒng)的預(yù)測(cè)方法有灰色模型預(yù)測(cè)法[1-2]和回歸預(yù)測(cè)法[3],這些方法適合長(zhǎng)期的貨運(yùn)需求量預(yù)測(cè),在以往穩(wěn)定、線性變化的貨運(yùn)量需求預(yù)測(cè)中具有較高的精度。但對(duì)于具有隨機(jī)性、不穩(wěn)定性和非線性特征的歷史數(shù)據(jù),這些方法往往表現(xiàn)不佳。針對(duì)這一問(wèn)題,機(jī)器學(xué)習(xí)、深度學(xué)習(xí)和組合模型等預(yù)測(cè)法被應(yīng)用到鐵路貨運(yùn)量預(yù)測(cè)研究中。例如,梁寧等[4]引入灰色關(guān)聯(lián)分析計(jì)算貨運(yùn)量影響因素權(quán)重,將其作為輸入變量構(gòu)建多項(xiàng)式核函數(shù)與徑向基核函數(shù)線性組合的SVM-mixed預(yù)測(cè)模型,提高了預(yù)測(cè)精度;陳鵬芳等[5]采用PCA和WOA算法對(duì)LSSVM進(jìn)行參數(shù)優(yōu)化,提高了模型的準(zhǔn)確性和穩(wěn)定性;考慮到深度學(xué)習(xí)模型的非線性學(xué)習(xí)能力和數(shù)據(jù)擬合能力,程肇蘭等[6]選用LSTM網(wǎng)絡(luò)對(duì)廣州鐵路(集團(tuán))公司2010—2017年的貨運(yùn)量數(shù)據(jù)進(jìn)行預(yù)測(cè),并與ARIMA模型和BP神經(jīng)網(wǎng)絡(luò)進(jìn)行對(duì)比,結(jié)果表明LSTM模型更佳;歐雅琴等[7]采用蜻蜓算法對(duì)LSTM參數(shù)進(jìn)行優(yōu)化,提升了模型預(yù)測(cè)性能;郭洪鵬等[8]將Bi-LSTM網(wǎng)絡(luò)用于鐵路貨運(yùn)量預(yù)測(cè),驗(yàn)證了該模型在某鐵路企業(yè)月度和日貨運(yùn)量預(yù)測(cè)的準(zhǔn)確度;徐玉萍等[9]將乘積集結(jié)模型與引入注意力機(jī)制的LSTM模型進(jìn)行組合,驗(yàn)證了組合模型用于鐵路貨運(yùn)量的預(yù)測(cè)性能優(yōu)于單一模型。

這些研究對(duì)鐵路貨運(yùn)站裝車量預(yù)測(cè)做出了積極探索,但大多以全路或鐵路局集團(tuán)公司管轄范圍內(nèi)的鐵路貨運(yùn)量為研究對(duì)象,并且以年為時(shí)間粒度進(jìn)行預(yù)測(cè),所得結(jié)果不適合作為鐵路日常工作計(jì)劃編制的依據(jù),而貨運(yùn)站短期裝車量的預(yù)測(cè)結(jié)果更有助于日常工作計(jì)劃編制與貨運(yùn)組織調(diào)整。余姣姣[10]首次以貨運(yùn)站裝車量為研究對(duì)象,但由于相空間重構(gòu)參數(shù)選擇的差異導(dǎo)致SVM模型的不穩(wěn)定,使得該模型對(duì)不同貨運(yùn)站裝車量預(yù)測(cè)的性能不同。張志文等[11]利用結(jié)合注意力機(jī)制的LSTM模型對(duì)國(guó)家能源投資集團(tuán)有限責(zé)任公司某一區(qū)域內(nèi)貨運(yùn)站日裝車量趨勢(shì)展開(kāi)研究,但尚未驗(yàn)證該方法對(duì)具體某一貨運(yùn)站的預(yù)測(cè)性能。

考慮到貨運(yùn)站短期裝車量的波動(dòng)性和隨機(jī)性,研究將模態(tài)分解引入短期裝車量預(yù)測(cè)中,提出EMDAttention-LSTM組合模型。該方法將原本隨機(jī)、波動(dòng)性強(qiáng)的短期裝車量數(shù)據(jù)分解成有限個(gè)固有模態(tài)和趨勢(shì)分量,分解后的分量序列特征各異,再利用引入注意力機(jī)制的LSTM網(wǎng)絡(luò)對(duì)各分量分別進(jìn)行預(yù)測(cè),最后疊加各分量預(yù)測(cè)結(jié)果,完成短期裝車量預(yù)測(cè)工作。結(jié)果表明EMD-Attention-LSTM組合模型相較于其他方法具備更高的預(yù)測(cè)準(zhǔn)確度。

1 鐵路貨運(yùn)站短期裝車量預(yù)測(cè)組合模型構(gòu)建

1.1 鐵路貨運(yùn)站短期裝車量預(yù)測(cè)定義

貨運(yùn)站裝車量預(yù)測(cè)主要目的是為編制和調(diào)整貨運(yùn)日計(jì)劃提供依據(jù),約定短期裝車量預(yù)測(cè)時(shí)間粒度為1 d。預(yù)測(cè)模型表示為

式中:L為歷史數(shù)據(jù)的時(shí)間窗口長(zhǎng)度,歷史天數(shù);P為預(yù)測(cè)步長(zhǎng),未來(lái)天數(shù);t=(L,L+1,…,N)為可選擇的歷史數(shù)據(jù)時(shí)刻值,N為歷史數(shù)據(jù)的長(zhǎng)度;xt-L+1:t=(xt-L+1,xt-L+1,…,xt-1,xt)表示預(yù)測(cè)模型輸入長(zhǎng)度為某貨運(yùn)站L天的歷史裝車量時(shí)間序列,等于歷史每天裝車量形成的序列;表示某貨運(yùn)站未來(lái)P天的裝車量預(yù)測(cè)結(jié)果,等于未來(lái)每天預(yù)測(cè)裝車量形成的序列;f為通過(guò)映射關(guān)系建立鐵路貨運(yùn)站短期裝車量預(yù)測(cè)模型,實(shí)現(xiàn)基于某貨運(yùn)站歷史裝車量時(shí)間序列,對(duì)未來(lái)裝車量序列的預(yù)測(cè)工作。

1.2 經(jīng)驗(yàn)?zāi)B(tài)分解理論

EMD[12]是一種高效的信號(hào)分解方法,該方法不依賴任何基函數(shù),具有良好的自適應(yīng)性,非常適合處理非線性和非平穩(wěn)的數(shù)據(jù)。EMD基于數(shù)據(jù)局部特征時(shí)間尺度,從原信號(hào)中提取固有模態(tài)函數(shù)(IMF),其結(jié)果是將信號(hào)中不同尺度的波動(dòng)和趨勢(shì)分解開(kāi)來(lái),產(chǎn)生一系列具有不同尺度特征的數(shù)據(jù)序列,每一個(gè)序列代表一個(gè)固有模態(tài)函數(shù),這使得每一個(gè)IMF代表了原信號(hào)中所包含的尺度波動(dòng)成分,而剩余項(xiàng)代表原信號(hào)的趨勢(shì)或均值。EMD算法與小波算法相比,可以更準(zhǔn)確地反映原始數(shù)據(jù)的內(nèi)部特征,有更強(qiáng)的局部表現(xiàn)能力,因而在處理非線性、非平穩(wěn)數(shù)據(jù)時(shí),EMD方法更為有效[13]。設(shè)裝車量時(shí)間序列為x(t),其EMD分解步驟如下。

(1)確定x(t)的所有極大值和極小值點(diǎn)。

(2)通過(guò)3次樣條插值連接極大值點(diǎn)構(gòu)成上包絡(luò)線eup(t),連接極小值點(diǎn)構(gòu)成下包絡(luò)線elow(t)。

(3)根據(jù)上、下包絡(luò)線,計(jì)算x(t)的局部均值m1(t),將x(t)與m1(t)相減得到中間序列h1(t)。

(4)以h1(t)代替原始序列x(t),重復(fù)步驟(1)—(3),直到h1(t)=x(t)-m1(t)滿足IMF條件,記c1(t)=h1(t),則c1(t)為裝車量序列的第1個(gè)IMF分量,它包含原始序列中最短的周期分量。

(5)從原始信號(hào)中分離出IMF分量c1(t),得到剩余項(xiàng)r1(t)。

(6)將剩余項(xiàng)r1(t)作為新的原始數(shù)據(jù),重復(fù)步驟(1)—(5),直到rN(t)小于設(shè)定值或者rN(t)變成單調(diào)函數(shù),停止迭代,得到其余IMF分量和1個(gè)余量,如下所示。

至此,裝車量序列x(t)就被分解為rN(t),每個(gè)IMF分量都反映了原序列在不同時(shí)間尺度下的內(nèi)在模態(tài)特征。

1.3 長(zhǎng)短期記憶網(wǎng)絡(luò)

LSTM是循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的變體,解決了RNN存在的長(zhǎng)期信息保存和短期輸入缺失的問(wèn)題。LSTM引入門控機(jī)制來(lái)控制單元內(nèi)容,LSTM單元結(jié)構(gòu)如圖1所示。

圖1 LSTM單元結(jié)構(gòu)Fig.1 Structure of LSTM unit

其中,Ct和Ht分別表示模型t時(shí)刻下的記憶狀態(tài)和隱層狀態(tài),Xt和Yt為模型的輸入和輸出,σ為sigmoid激活函數(shù)。LSTM單元內(nèi)部的計(jì)算過(guò)程如下。首先,將當(dāng)前時(shí)間步的輸入Xt和前一個(gè)時(shí)間步的隱狀態(tài)Ht-1送入3個(gè)具有sigmoid函數(shù)和1個(gè)具有tanh函數(shù)的全連接層分別得到遺忘門Ft、輸入門It、輸出門Ot和候選記憶元的值。其次,通過(guò)遺忘門Ft和輸入門It分別控制保留過(guò)去記憶元Ct-1的內(nèi)容和選用候選記憶元的新數(shù)據(jù)得到當(dāng)前時(shí)刻的記憶元Ct,最后將Ct送入具有tanh激活函數(shù)的全連接層,確保其值在(-1,1)內(nèi),再與輸出門Ot按元素相乘得到新產(chǎn)生的隱狀態(tài)Ht。其計(jì)算公式如下。

式中:Wxi,Wxf,Wxo和Wxc為每一層連接到輸入向量Xt的權(quán)重矩陣;Whi,Whf,Who和Whc為每一層連接到前一隱狀態(tài)Ht-1的權(quán)重矩陣;bi,bf,bo和bc為偏置參數(shù)。

1.4 注意力機(jī)制

注意力機(jī)制最早由Bahdanau等人在機(jī)器翻譯模型中提出[14],注意力機(jī)制從人類視覺(jué)神經(jīng)系統(tǒng)得到啟發(fā),即人類觀察到的所有事物并非同等重要,大腦通過(guò)將注意力引向人類更感興趣的一小部分信息,使得人類能更有效地分配資源。在深度學(xué)習(xí)模型中,注意力機(jī)制通過(guò)注意力評(píng)分函數(shù)f計(jì)算查詢q和鍵k的注意力權(quán)重α,旨在利用注意力權(quán)重α實(shí)現(xiàn)對(duì)值v的選擇傾向,通用的注意力機(jī)制計(jì)算過(guò)程如下。

(1)計(jì)算某一查詢q對(duì)數(shù)據(jù)庫(kù)中第i個(gè)鍵ki的注意力權(quán)重α(q,ki),通過(guò)softmax函數(shù)將其值限制在(0,1)內(nèi)。

(2)將注意力權(quán)重α(q,ki)與鍵ki對(duì)應(yīng)的值vi進(jìn)行加權(quán)求和,得到注意力向量,m為數(shù)據(jù)庫(kù)中鍵值對(duì)k-v的個(gè)數(shù)。

1.5 裝車量預(yù)測(cè)組合模型EMD-Attention-LSTM

EMD-Attention-LSTM預(yù)測(cè)模型首先對(duì)歷史貨運(yùn)站日裝車量數(shù)據(jù)進(jìn)行清洗,整理得到重點(diǎn)貨運(yùn)站歷史裝車量的時(shí)間序列數(shù)據(jù)。由于直接對(duì)全部歷史數(shù)據(jù)進(jìn)行分解會(huì)導(dǎo)致信息泄露的問(wèn)題,因此將歷史數(shù)據(jù)劃分為訓(xùn)練集、驗(yàn)證集和測(cè)試集,采用EMD算法分別進(jìn)行分解。隨后將分解結(jié)果輸入到Attention-LSTM模型進(jìn)行訓(xùn)練,得到各分量預(yù)測(cè)模型并輸出測(cè)試集預(yù)測(cè)結(jié)果,最后進(jìn)行對(duì)比驗(yàn)證,EMD-Attention-LSTM組合模型預(yù)測(cè)流程如圖2所示。

圖2 EMD-Attention-LSTM組合模型預(yù)測(cè)流程Fig.2 Prediction process of EMD-Attention-LSTM

具體步驟如下。

(1)數(shù)據(jù)處理。收集歷史貨運(yùn)站裝車量數(shù)據(jù),采用均值插值法對(duì)缺失數(shù)據(jù)進(jìn)行處理,并將歷史裝車量數(shù)據(jù)按照6∶2∶2劃分為訓(xùn)練集、驗(yàn)證集、測(cè)試集。

(2)經(jīng)驗(yàn)?zāi)B(tài)分解。采用EMD算法將歷史裝車量數(shù)據(jù)分解為N個(gè)固有模態(tài)分量{c1(t),c2(t),…,cN(t)}和1個(gè)剩余項(xiàng)分量rN(t),為減少各分量尺度差異對(duì)預(yù)測(cè)結(jié)果的影響,采用min-max歸一法對(duì)各分量進(jìn)行歸一化處理,將數(shù)值縮放在(0,1)之間,計(jì)算公式如下。

式中:x*為歸一化后的數(shù)據(jù);x為輸入數(shù)據(jù);xmin和xmax為數(shù)據(jù)中的最小值和最大值。

(3)Attention-LSTM模型預(yù)測(cè)。建立基于注意力機(jī)制的LSTM模型,注意力評(píng)分函數(shù)設(shè)為f(q,ki)=qki,以點(diǎn)積操作實(shí)現(xiàn)高效率的注意力機(jī)制。將EMD預(yù)測(cè)分量輸入到Attention-LSTM模型,首先通過(guò)全連接層將時(shí)序輸入信息映射為高維特征,再利用兩層LSTM網(wǎng)絡(luò)提取時(shí)序數(shù)據(jù)的有效信息,最后將各分量預(yù)測(cè)結(jié)果相加,重構(gòu)為最終模型預(yù)測(cè)結(jié)果。Attention-LSTM網(wǎng)絡(luò)流程圖如圖3所示。

圖3 Attention-LSTM網(wǎng)絡(luò)流程圖Fig.3 Flow of Attention-LSTM network

(4)評(píng)價(jià)模型預(yù)測(cè)結(jié)果。通過(guò)預(yù)測(cè)值和實(shí)際值的誤差度量模型精度,選用對(duì)稱平均絕對(duì)百分比誤差(SMAPE)、平均絕對(duì)百分比誤差(MAE)和均方根誤差(RMSE)作為評(píng)價(jià)函數(shù),評(píng)價(jià)函數(shù)值越小表示預(yù)測(cè)值更貼近實(shí)際值,計(jì)算公式如下。

式中:n代表待預(yù)測(cè)裝車量天數(shù);和yi為預(yù)測(cè)第i天裝車量的預(yù)測(cè)值和實(shí)際值。

2 實(shí)例驗(yàn)證

2.1 實(shí)驗(yàn)數(shù)據(jù)

采用某鐵路運(yùn)輸企業(yè)3個(gè)重點(diǎn)貨運(yùn)站從2021年1月1日至2022年6月30日546 d的歷史裝車數(shù)據(jù)進(jìn)行實(shí)驗(yàn)分析與評(píng)估,其中A,B站主要運(yùn)輸煤炭等大宗貨物,C站主要運(yùn)輸非煤產(chǎn)品和集裝箱的零散白貨。煤炭等大宗貨物均為整列運(yùn)輸,非煤產(chǎn)品和集裝箱的零散白貨主要以摘掛列車的方式運(yùn)輸,故采用列數(shù)表示A,B站裝車量,以車輛數(shù)表示C站裝車量。A,B和C貨運(yùn)站日裝車量走勢(shì)圖如圖4所示。

圖4 A,B和C貨運(yùn)站日裝車量走勢(shì)圖Fig.4 Trend of daily loading quantities of freight stations A, B, and C

可以看出A,B和C站日裝車量序列在短期內(nèi)存在波動(dòng),在長(zhǎng)期內(nèi)趨于平穩(wěn),C站的波動(dòng)頻率和幅度比A,B站更劇烈。采用PyEMD庫(kù)中的EMD函數(shù)將原始數(shù)據(jù)的波動(dòng)性和趨勢(shì)性數(shù)據(jù)進(jìn)行分離,EMD算法分解結(jié)果如圖5所示。

圖5 EMD算法分解結(jié)果Fig.5 Decomposition results of EMD algorithm

2.2 模型超參數(shù)設(shè)置

在深度學(xué)習(xí)時(shí)間序列預(yù)測(cè)任務(wù)中,歷史數(shù)據(jù)長(zhǎng)度一般為預(yù)測(cè)步長(zhǎng)的3~7倍[15],考慮A站裝車量預(yù)測(cè),選擇輸入序列長(zhǎng)度L=15 d和預(yù)測(cè)序列長(zhǎng)度P=3 d的數(shù)據(jù)集,構(gòu)建貨運(yùn)站裝車量預(yù)測(cè)模型,并基于Python 3.7實(shí)現(xiàn)了ARIMA,Attention-LSTM,LSTM和SVM的對(duì)比模型。其中,深度學(xué)習(xí)方法使用了torch-1.13.0-cu117框架實(shí)現(xiàn),而SVM模型則采用sklearn框架進(jìn)行編寫,ARIMA模型使用了statsmodels庫(kù)實(shí)現(xiàn)。通過(guò)網(wǎng)格搜索法確定各個(gè)模型的最優(yōu)超參數(shù),A站對(duì)比模型的超參數(shù)設(shè)置如表1所示。

表1 A站對(duì)比模型的超參數(shù)設(shè)置Tab.1 Hyperparameter setting of comparison models at station A

2.3 實(shí)驗(yàn)結(jié)果與評(píng)價(jià)分析

為了比較EMD-Attention-LSTM裝車量預(yù)測(cè)模型與其他經(jīng)典模型在鐵路貨運(yùn)站裝車量預(yù)測(cè)性能上的差異,基于之前的參數(shù)設(shè)置,在同一數(shù)據(jù)集上對(duì)所有模型進(jìn)行了反復(fù)實(shí)驗(yàn)。最終得到了A站裝車量預(yù)測(cè)結(jié)果的趨勢(shì)圖,A站EMD-Attention-LSTM模型與對(duì)比模型預(yù)測(cè)趨勢(shì)圖如圖6所示。

計(jì)算得到EMD-Attention-LSTM與對(duì)比模型在A站裝車量數(shù)據(jù)上的評(píng)價(jià)結(jié)果如表2所示。

表2 EMD-Attention-LSTM與對(duì)比模型在A站裝車量數(shù)據(jù)上的評(píng)價(jià)結(jié)果Tab.2 Evaluation results of EMD-Attention-LSTM and comparison model on the loading quantities of station A

從表2中對(duì)比分析得到:EMD-Attention-LSTM模型在SMAPE指標(biāo)上較ARIMA模型低近3.4%,較LSTM模型低近2.7%;相比于傳統(tǒng)方法,EMDAttention-LSTM模型在MAE和RMSE指標(biāo)上也顯著降低;基于深度學(xué)習(xí)的LSTM與Attention-LSTM模型在SMAPE指標(biāo)上分別比機(jī)器學(xué)習(xí)模型SVM降低了0.4%和1.8%;而基于統(tǒng)計(jì)的時(shí)間序列預(yù)測(cè)模型ARIMA與傳統(tǒng)的機(jī)器學(xué)習(xí)模型SVM的預(yù)測(cè)性能則相差不大;此外,Attention-LSTM模型在3個(gè)指標(biāo)上表現(xiàn)出優(yōu)于經(jīng)典模型LSTM的預(yù)測(cè)性能,但加入EMD分解后的Attention-LSTM模型表現(xiàn)更為優(yōu)異。

為探究EMD-Attention-LSTM模型的通用性,對(duì)同樣主要運(yùn)輸煤炭等大宗貨物的B站和主要運(yùn)輸零散白貨的C站的日裝車量進(jìn)行預(yù)測(cè),B貨運(yùn)站裝車量預(yù)測(cè)結(jié)果如表3所示,C貨運(yùn)站裝車量預(yù)測(cè)結(jié)果如表4所示。該模型在B站同樣表現(xiàn)出最優(yōu)預(yù)測(cè)性能,當(dāng)預(yù)測(cè)步長(zhǎng)分別為P=3 d和P=7 d時(shí),EMD-Attention-LSTM預(yù)測(cè)模型的SMAPE指標(biāo)比最優(yōu)的對(duì)比模型Attention-LSTM下降了6.7%和3.4%,MAE與RMSE同樣優(yōu)于其他對(duì)比模型。在C站該模型比對(duì)比模型預(yù)測(cè)效果要優(yōu),但SMAPE指標(biāo)僅為38.4%。

表3 B貨運(yùn)站裝車量預(yù)測(cè)結(jié)果Table 3 Prediction results of loading quantities of freight station B

表4 C貨運(yùn)站裝車量預(yù)測(cè)結(jié)果Table 4 Prediction results of loading quantities of freight station C

方差可以衡量時(shí)間序列的波動(dòng)性,自相關(guān)系數(shù)則可以反映時(shí)間序列的趨勢(shì)性和隨機(jī)性,計(jì)算A,B和C貨運(yùn)站歷史裝車量時(shí)間序列的方差和一階自相關(guān)系數(shù)如表5所示。

表5 A,B和C貨運(yùn)站歷史裝車量時(shí)間序列的方差和一階自相關(guān)系數(shù)Table 5 Variance and first-order autocorrelation coefficients of loading quantities at freight stations A, B, and C

可以發(fā)現(xiàn)預(yù)測(cè)模型對(duì)自相關(guān)性較強(qiáng)、方差較小的A,B站預(yù)測(cè)效果較好,對(duì)自相關(guān)性較弱、方差大的C貨運(yùn)站預(yù)測(cè)性能較差。

3 結(jié)束語(yǔ)

在分析鐵路貨運(yùn)站歷史日裝車量趨勢(shì)與特點(diǎn)的基礎(chǔ)上,基于EMD時(shí)間序列分解算法和Attention-LSTM神經(jīng)網(wǎng)絡(luò)構(gòu)建了鐵路貨運(yùn)站短期裝車量預(yù)測(cè)組合模型EMD-Attention-LSTM,并將其應(yīng)用于某鐵路運(yùn)輸企業(yè)重點(diǎn)貨運(yùn)站的日裝車量預(yù)測(cè)中。通過(guò)與其他主流機(jī)器學(xué)習(xí)和深度學(xué)習(xí)模型進(jìn)行對(duì)比分析,結(jié)果表明EMD-Attention-LSTM模型具有更佳的預(yù)測(cè)性能。鑒于短期裝車量數(shù)據(jù)存在波動(dòng)大、隨機(jī)性強(qiáng)等特點(diǎn),EMD-Attention-LSTM模型的預(yù)測(cè)能力不穩(wěn)定,如B貨運(yùn)站和C貨運(yùn)站未來(lái)3 d的裝車量預(yù)測(cè)結(jié)果,其SMAPE值分別達(dá)到13.8%和38.4%。在后續(xù)研究中,將進(jìn)一步提升模型的泛化能力以滿足更多實(shí)際預(yù)測(cè)需求。

猜你喜歡
貨運(yùn)站裝車分量
基于多品類物流網(wǎng)絡(luò)的鐵路貨運(yùn)站整合優(yōu)化
帽子的分量
基于西門子S7-1200PLC的桁架裝車系統(tǒng)設(shè)計(jì)
一物千斤
智族GQ(2019年9期)2019-10-28 08:16:21
關(guān)于鐵路貨運(yùn)站標(biāo)準(zhǔn)化規(guī)范化建設(shè)現(xiàn)狀的分析和思考
3月份我國(guó)動(dòng)力電池裝車量5.09GWh,環(huán)比增長(zhǎng)126.98%
論《哈姆雷特》中良心的分量
分量
重載運(yùn)輸裝車區(qū)車流組織的研究與探討
物流貨運(yùn)站場(chǎng)信息管理系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)
惠东县| 永仁县| 辽宁省| 合肥市| 景德镇市| 吉林省| 墨竹工卡县| 中牟县| 迭部县| 伊金霍洛旗| 金堂县| 玛多县| 邯郸市| 二连浩特市| 仁化县| 达尔| 新闻| 塔河县| 开封县| 济阳县| 睢宁县| 呼和浩特市| 徐汇区| 文成县| 鄂托克旗| 永清县| 筠连县| 平果县| 景德镇市| 文成县| 永靖县| 横峰县| 吉木萨尔县| 义马市| 洱源县| 宝坻区| 邹平县| 湘潭县| 怀化市| 湖南省| 巢湖市|