国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

注意力機制下的EMD-GRU短期電力負荷預(yù)測

2021-11-16 03:05:48方娜余俊杰李俊曉陳浩
關(guān)鍵詞:分量模態(tài)內(nèi)涵

方娜,余俊杰,李俊曉,陳浩

(1.湖北工業(yè)大學(xué) 太陽能高效利用及儲能運行控制湖北省重點實驗室,湖北 武漢 430068;2.湖北工業(yè)大學(xué) 湖北省電網(wǎng)智能控制與裝備工程技術(shù)研究中心,湖北 武漢 430068)

電力負荷預(yù)測在電力系統(tǒng)的調(diào)度運行中起著重要作用,根據(jù)預(yù)測時間可分為長期、中期和短期預(yù)測.準確的短期負荷預(yù)測不僅能幫助系統(tǒng)安全可靠地運行,還能減少資源浪費,提高經(jīng)濟效益[1].

目前,短期電力負荷預(yù)測模型主要有統(tǒng)計模型和基于人工智能模型兩大類.統(tǒng)計模型中,指數(shù)平滑法[2]難以鑒別出數(shù)據(jù)之間的轉(zhuǎn)折點,在預(yù)測帶有季節(jié)性的數(shù)據(jù)時,效果不好.自回歸移動平均值(auto regressive moving average,ARMA)[3-4]在本質(zhì)上只能捕捉線性關(guān)系,不能捕捉非線性關(guān)系.這些統(tǒng)計方法雖簡單且速度快,但均無法很好地擬合非線性時序數(shù)據(jù),存在局限性.在人工智能的模型中,人工神經(jīng)網(wǎng)絡(luò)(artificial neural network,ANN)[5-6]可逼近任意非線性函數(shù),但不能挖掘出數(shù)據(jù)間的相關(guān)性,也需人為選擇時間特征.長短期記憶網(wǎng)絡(luò)(long short-term memory,LSTM)[7-11]能更精確地學(xué)習(xí)時間序列間的長期依賴性關(guān)系,解決需要人工提取時序特征和梯度消失的問題,但其收斂速度較慢.門控循環(huán)單元(gated recurrent unit,GRU)[12-13]減少運算單元,改進LSTM,具有更快的收斂速度,并保持與LSTM接近的準確率.GRU能同時兼顧負荷序列的非線性和時序性,但預(yù)測效果會因負荷序列中非平穩(wěn)部分明顯下降.經(jīng)驗?zāi)B(tài)分解(empirical modal decomposition,EMD)[14-16]降低原始電力負荷序列的非平穩(wěn)性,將非平穩(wěn)的負荷序列重構(gòu)成一定數(shù)量、不同尺度和相對平穩(wěn)的信號,當(dāng)輸入的時間序列較長時,GRU在處理數(shù)據(jù)間結(jié)構(gòu)的信息時不易建模,同時,也會出現(xiàn)丟失序列信息的問題,影響模型預(yù)測的準確率.注意力(Attention)機制[17-19]是一種資源分配機制,對輸入負荷序列給予不同的權(quán)重,放大負荷序列中的重要特征,突出更加關(guān)鍵的特征,使其不受序列長短的影響,當(dāng)模型輸入負荷序列較長時,序列間相互依賴的關(guān)系也能更好地被學(xué)習(xí)分析.

為了提高負荷預(yù)測精度,本文構(gòu)建一種基于注意力機制的EMD-GRU混合預(yù)測模型,簡稱EMD-GRU-Attention混合預(yù)測模型.

1 模型原理

1.1 EMD數(shù)據(jù)重構(gòu)

經(jīng)驗?zāi)B(tài)分解不用事先設(shè)立任何基函數(shù),可直接根據(jù)數(shù)據(jù)自身的時間尺度分解信號.理論上,這種方法可分解任何類型的信號,且在分析非線性及非平穩(wěn)數(shù)據(jù)時有顯著的優(yōu)勢,十分適合處理非線性、非平穩(wěn)信號.當(dāng)原始信號被EMD之后,得到內(nèi)涵模態(tài)分量(Ci)和殘余分量(Rn),這些分量可表征數(shù)據(jù)各時間尺度的特征,即

(1)

式(1)中:X(t)為原始時間負荷序列.

過零率(ρ)是分量在時間尺度內(nèi)的過零次數(shù)(n0)與負荷序列長度(l)的比值,計算公式為

(2)

因數(shù)據(jù)量大,為較好地區(qū)分高、低頻分量,定義ρ超過0.1為高頻分量,ρ低于0.1為低頻分量.

1.2 GRU網(wǎng)絡(luò)模型

GRU網(wǎng)絡(luò)模型是一種改進的循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN),能捕獲時間序列長短期之間的依賴關(guān)系,且成功解決RNN存在的梯度消失問題,內(nèi)部結(jié)構(gòu)簡單,減少訓(xùn)練參數(shù)的同時,保證預(yù)測精度.GRU基本單元,如圖1所示.

圖1 GRU基本單元

GRU單元更新門的輸出結(jié)果為

zt=σ(wz×[ht-1,xt]),

(3)

rt=σ(wr×[ht-1,xt]),

(4)

(5)

(6)

1.3 Attention機制

Attention機制對特征向量分配不同的權(quán)重,對重要特征給予足夠的關(guān)注,忽略無關(guān)信息,從而來突出關(guān)鍵特征.在GRU對輸入數(shù)據(jù)分別進行特征提取和時序分析后,與之進行結(jié)合.Attention機制示意圖,如圖2所示.

計算公式為

C=Tanh(ht),

(7)

?=Softmax(wT·C),

(8)

α=ht·?T.

(9)

式(7)~(9)中:wT為權(quán)重矩陣;α為注意力層的輸出.

最后,結(jié)果由全連接層映射,得到預(yù)測結(jié)果.

2 EMD-GRU-Attention混合預(yù)測模型

EMD-GRU-Attention混合預(yù)測模型結(jié)構(gòu),如圖3所示.圖3中:Dense為全連接層.

圖3 EMD-GRU-Attention混合預(yù)測模型結(jié)構(gòu)

負荷序列中異常值與缺失值均以均值替代及補充,歸一化處理后,利用EMD將數(shù)據(jù)重構(gòu)成多個分量,并將盡量多的低頻內(nèi)涵模態(tài)分量和殘余分量疊加組合,以降低模型的時間復(fù)雜度.對各高、低頻內(nèi)涵模態(tài)分量及殘余分量組合分量以同樣方式選取訓(xùn)練集和測試集,再分別將各分量的訓(xùn)練集輸入GRU神經(jīng)網(wǎng)絡(luò)中.同時,引入Attention機制,經(jīng)全連接層線性擬合后,輸出各分量及組合分量的預(yù)測值.采用的損失函數(shù)為均方誤差函數(shù),用Adam優(yōu)化算法對模型參數(shù)進行優(yōu)化,批次為512,訓(xùn)練輪數(shù)為220,進而對模型整體進行訓(xùn)練確定.

運用測試集通過確定后的模型得到各分量及組合分量的預(yù)測值,將各時刻對應(yīng)分量預(yù)測值疊加,得出最終各時刻的預(yù)測值,最后,用誤差指標(biāo)評估模型.基于TensorFlow-GPU框架下設(shè)計網(wǎng)絡(luò)結(jié)構(gòu),調(diào)用Keras中的函數(shù)式模型,根據(jù)上述具體參數(shù)編寫代碼,進行仿真.

3 算例分析與驗證

3.1 數(shù)據(jù)集及數(shù)據(jù)預(yù)處理

數(shù)據(jù)集為丹麥西部2016年(2016年1月1日至2016年12月31日)的負荷數(shù)據(jù),來自著名開源代碼庫GitHub中Gmomo的開源項目,采樣頻率為1點·h-1,共8 784條.對負荷序列進行EMD,選取各分量前90%的數(shù)據(jù)進行訓(xùn)練,各分量后10%的數(shù)據(jù)進行測試,在訓(xùn)練集中取前n個點對應(yīng)n+1的點,即[x1,x2,x3,…,xn]對應(yīng)xn+1,[x2,x3,x4,…,xn+1]對應(yīng)xn+2,依次對訓(xùn)練集進行分割,測試集也做同樣處理.

為便于模型訓(xùn)練,對所選負荷數(shù)據(jù)進行歸一化處理,即

(10)

式(10)中:x′為原始值;xmax為極大值;xmin為極小值.

3.2 誤差評估指標(biāo)

預(yù)測結(jié)果誤差評估指標(biāo)采用平均絕對百分誤差(EMAP)和均方根誤差(ERMS),即

(11)

(12)

式(11),(12)中:yp為預(yù)測值;yr為實際值;n為樣本數(shù)量.

3.3 EMD重構(gòu)

EMD分解結(jié)果,如圖4所示.由圖4可知:內(nèi)涵模態(tài)分量反映負荷數(shù)據(jù)在不同影響因素和不同尺度下的分布規(guī)律,且逐漸由非平穩(wěn)到平穩(wěn);殘差分量(R)反映負荷序列長期的變化規(guī)律,且整體變化趨勢較為一致.

圖4 EMD分解結(jié)果

如果對各分量進行預(yù)測,可以較大降低預(yù)測模型的擬合難度,但同時模型時間復(fù)雜度也極大增加.因此,為降低模型的時間復(fù)雜度,將部分低頻內(nèi)涵模態(tài)分量與殘余分量疊加組合,對確定后的模型進行預(yù)測.分量C1,C2的過零率分別為45.6%,16.9%,是高頻內(nèi)涵模態(tài)分量;分量C3~C10的過零率分別為45.6%,16.9%,8.37%,3.33%,1.53%,0.71%,0.39%,0.20%,0.02%,0,均為低頻內(nèi)涵模態(tài)分量.

將低頻內(nèi)涵模態(tài)分量根據(jù)ρ從小到大依次進行疊加,再與殘余分量組合后進行預(yù)測,對沒有用到的內(nèi)涵模態(tài)分量分別單獨進行預(yù)測,將預(yù)測結(jié)果疊加.不同組合分量的EMAP和訓(xùn)練時間(t),如表1所示.

表1 不同組合分量的EMAP和訓(xùn)練時間

表1中:n為低頻內(nèi)涵模態(tài)分量個數(shù).由表1可知:8個低頻內(nèi)涵模態(tài)分量與殘余分量疊加得到的組合分量與剩余內(nèi)涵模態(tài)分量用EMD-GRU-Attention混合預(yù)測模型進行預(yù)測時,得到的EMAP,ERMS和訓(xùn)練時間分別為1.41%,46.6 MW·h和1 017 s,在很短的時間內(nèi)得到了較高的預(yù)測精度.因此,將7個低頻內(nèi)涵模態(tài)分量和殘余分量設(shè)定為組合分量,對其余2個高頻內(nèi)涵模態(tài)分量與1個低頻內(nèi)涵模態(tài)分量分別進行預(yù)測.

3.4 GRU網(wǎng)絡(luò)模型參數(shù)

通過原始負荷數(shù)據(jù)對引入Attention機制的GRU結(jié)構(gòu)進行調(diào)優(yōu),固定神經(jīng)元數(shù)量、訓(xùn)練輪數(shù)和批次,調(diào)整GRU層數(shù),根據(jù)EMAP,ERMS的大小判斷預(yù)測精度.GRU層數(shù)調(diào)整結(jié)果,如表2所示.由表2可知:當(dāng)GRU層數(shù)為2時,能在短的時間內(nèi)取得更好的預(yù)測精度;當(dāng)GRU層數(shù)為1層時,由于不能很好分析負荷序列及提取特征,效果較差;當(dāng)GRU層數(shù)為3時,雖精度相差不大,但訓(xùn)練時間過長;當(dāng)GRU層數(shù)為4時,則出現(xiàn)了過擬合,訓(xùn)練時間也太長.因此,GRU層數(shù)設(shè)定為2,GRU神經(jīng)元數(shù)量設(shè)置為2n.上述模型將第1層神經(jīng)元數(shù)設(shè)為64,返回全部時間步的隱藏狀態(tài);為減少數(shù)據(jù)流,降低冗余特征的干擾,第2層設(shè)置為32,返回全部時間步的隱藏狀態(tài),輸入Attention機制中,通過計算,分配不同權(quán)重,經(jīng)Dense擬合后,得到更高的精度.

表2 GRU層數(shù)調(diào)整結(jié)果

3.5 仿真結(jié)果對比

分別利用BP網(wǎng)絡(luò)模型,支持向量機(SVR)模型,GRU網(wǎng)絡(luò)模型,EMD-GRU模型和EMD-GRU-Attention混合預(yù)測模型進行仿真實驗,對各模型參數(shù)進行調(diào)優(yōu),以相同訓(xùn)練集訓(xùn)練.確定各個模型參數(shù)后,以相同測試集預(yù)測2016年中1 d(12月31日)及31 d(12月1日至12月31日)的電力負荷,計算EMAP,ERMS.不同模型仿真結(jié)果對比,如表3所示.由表3可知:EMD-GRU-Attention混合預(yù)測模型在1和31 d的EMAP,ERMS均低于其他4種模型;在31 d里EMD-GRU模型的EMAP,ERMS分別為1.75%和60.1 MW·h,而EMD-GRU-Attention混合預(yù)測模型的EMAP,ERMS分別為1.41%和46.6 MW·h,這表明EMD-GRU-Attention混合預(yù)測模型具有更高的預(yù)測精度.

表3 不同模型仿真結(jié)果對比

為了驗證EMD,GRU和Attention之間的組合性能,將GRU網(wǎng)絡(luò),EMD和Attention遞進組合,得出不同組合模型在某一天(2016年11月27日)的預(yù)測值及評估指標(biāo)(EMAP和ERMS),如表4所示.表4中:Pr為實測功率;Pp為預(yù)測功率.由表4可知:GRU網(wǎng)絡(luò)模型,EMD-GRU模型和EMD-GRU-Attention混合預(yù)測模型24 h內(nèi)的EMAP分別為0.15%~7.94%,0.12%~6.75%,0.28%~3.32%,ERMS分別為3.5~157.6 MW·h,3.0~146.8 MW·h,3.3~80.4 MW·h,隨著網(wǎng)絡(luò)模型的遞進組合,其誤差范圍逐漸縮小,整體準確率穩(wěn)步上升;3種模型在1 d內(nèi)的平均EMAP分別為2.13%,1.89%和1.34%,平均ERMS分別為50.4,43.6,31.7 MW·h,這進一步表明EMD-GRU-Attention混合預(yù)測模型具有更高的預(yù)測性能.

表4 不同模型負荷預(yù)測結(jié)果

BP網(wǎng)絡(luò)模型,SVR模型,GRU網(wǎng)絡(luò)模型,EMD-GRU模型和EMD-GRU-Attention混合預(yù)測模型在2016年11月28日和29日的負荷預(yù)測結(jié)果對比,如圖5(a)所示.圖5(a)中:P為功率.由圖5(a)可知:BP網(wǎng)絡(luò)模型,SVR模型在波峰和波谷區(qū)域出現(xiàn)很大幅度的偏差,而GRU網(wǎng)絡(luò)模型,EMD-GRU模型和EMD-GRU-Attention混合預(yù)測模型相對于這兩種模型都能較好地擬合真實曲線.

(a)不同模型預(yù)測

GRU網(wǎng)絡(luò)模型和EMD-GRU模型的負荷預(yù)測結(jié)果對比,如圖5(b)所示.由圖5(b)可知:從整體上看,基于EMD-GRU模型的預(yù)測曲線不僅在波峰波谷區(qū)域與實際變化曲線更貼近,在其他區(qū)域也與實際的變化趨勢更吻合,其原因是序列的非平穩(wěn)性導(dǎo)致GRU網(wǎng)絡(luò)模型不能很好地預(yù)測出序列的變化趨勢,而EMD重構(gòu)序列改善了這一問題,使得預(yù)測精度更好.

EMD-GRU模型與EMD-GRU-Attention混合預(yù)測模型的負荷預(yù)測結(jié)果對比,如圖5(c)所示.由圖5(c)可知:在大多數(shù)波峰和波谷區(qū)域,EMD-GRU-Attention混合預(yù)測模型的預(yù)測精度更高,這體現(xiàn)了Attention機制突出關(guān)鍵特征的能力,使得在預(yù)測轉(zhuǎn)折點時更能擬合真實曲線.

4 結(jié)論

提出一種基于Attention機制的EMD-GRU混合預(yù)測模型用于短期電力負荷預(yù)測.先通過EMD將負荷數(shù)據(jù)重構(gòu);再利用GRU抽取各分量及組合分量中潛藏特征;引入Attention機制突出關(guān)鍵特征,對各分量及組合分量預(yù)測;最后,疊加各分量預(yù)測值得到最終預(yù)測結(jié)果.通過算例仿真及對比,得到以下5個結(jié)論.

1)負荷序列作為輸入,經(jīng)EMD降低序列的非平穩(wěn)性及復(fù)雜度,便于模型預(yù)測.

2)將EMD處理后的向量作為GRU網(wǎng)絡(luò)模型的輸入,通過GRU網(wǎng)絡(luò)模型,能較好地分析負荷數(shù)據(jù)的時序性和復(fù)雜非線性關(guān)系.

3)結(jié)合Attention機制,計算GRU處理后的特征向量,給予不同權(quán)值,突出關(guān)鍵特征,進一步提高負荷預(yù)測精度.

4)EMD-GRU-Attention混合模型結(jié)合了EMD,GRU網(wǎng)絡(luò)和Attention機制的特點,實驗結(jié)果表明:該模型可明顯提升短期電力負荷預(yù)測精度.

5)EMD-GRU-Attention混合預(yù)測模型提高了預(yù)測精度,但模型訓(xùn)練時,時間復(fù)雜度也隨之提高,后續(xù)可對這部分進行改進.

猜你喜歡
分量模態(tài)內(nèi)涵
帽子的分量
活出精致內(nèi)涵
理解本質(zhì),豐富內(nèi)涵
一物千斤
智族GQ(2019年9期)2019-10-28 08:16:21
挖掘習(xí)題的內(nèi)涵
論《哈姆雷特》中良心的分量
分量
要準確理解“終身追責(zé)”的豐富內(nèi)涵
國內(nèi)多模態(tài)教學(xué)研究回顧與展望
基于HHT和Prony算法的電力系統(tǒng)低頻振蕩模態(tài)識別
西乡县| 建阳市| 普兰县| 民乐县| 黎平县| 商城县| 桃园市| 株洲县| 库尔勒市| 疏附县| 固始县| 扶绥县| 潼关县| 西乌珠穆沁旗| 吐鲁番市| 遂昌县| 玉溪市| 综艺| 怀来县| 乌拉特后旗| 建宁县| 宁阳县| 安泽县| 固安县| 策勒县| 温泉县| 隆安县| 南康市| 嘉义市| 金沙县| 阜城县| 平果县| 集贤县| 留坝县| 衡阳市| 涿鹿县| 高青县| 儋州市| 宁远县| 泸水县| 荥经县|