鄧思源,周蘭庭,王 飛,柳志坤
(1.河海大學 水利水電學院, 南京 210098; 2.江蘇省太湖水利規(guī)劃設計研究院有限公司 設計分院,江蘇 蘇州 215103;3.青島市發(fā)展和改革委員會 動能轉換推進處,山東 青島 266000; 4.青島市經(jīng)濟發(fā)展研究院,山東 青島 266000)
我國目前已建有眾多大壩,部分大壩在產(chǎn)生社會經(jīng)濟效益時,帶來了一定安全問題,制約著工程效益的發(fā)揮,甚至威脅人民生命財產(chǎn)安全[1]。因此,對大壩進行可靠、高效的安全監(jiān)控變得更重要,而對大壩變形發(fā)展的準確預報是整個監(jiān)控過程的重要一環(huán)。
針對上述問題,相關學者提出了眾多分析方法。張永光等[2]將灰色系統(tǒng)理論用于分析小浪底水利樞紐大壩壩頂某測點處未來變形,驗證了該理論在變形預測應用中的可行性;周洪波[3]將人工神經(jīng)網(wǎng)絡用于大壩安全監(jiān)控領域的研究,利用加以優(yōu)化的反向傳播神經(jīng)網(wǎng)絡(Back Propagation,BP),達到了較為理想的變形預測效果;任秋兵等[4]將長短期記憶神經(jīng)網(wǎng)絡(Long Short-Term Memory,LSTM)用于大壩變形預測,并通過優(yōu)化算法實現(xiàn)了LSTM在多種典型應用場景下的更高精度的變形預測等。然而,上述研究僅局限于對難以全面分析多因素影響的單一預測模型的構建和優(yōu)化,未充分考慮多方面不確定因素對大壩變形的影響,預測精度有待進一步提高。
為探求更高性能的預測方法,相關學者又試圖將多個單一模型進行組合用以預測大壩未來變形。楊恒等[5]構建了一種支持向量機(Support Vector Machine,SVM)和差分自回歸移動平均模型(Auto-regressive Integrated Moving Average,ARIMA)相結合的大壩變形預測模型;馬佳佳等[6]將長短期記憶神經(jīng)網(wǎng)絡(LSTM)與多元線性回歸(Multiple Linear Regression,MLR)通過引入集合經(jīng)驗模態(tài)分解(Ensemble Empirical Mode Decomposition,EEMD)方法進行結合;周蘭庭等[7]將LSTM和ARIMA通過引入小波分析(Wavelet Analysis,WA)方法進行結合等,均取得了較單一模型更好的預測效果。然而,現(xiàn)有的類似于上述組合模型的研究都只是對各單一模型的預測結果的簡單相加,或者將模型A的預測結果簡單輸入到模型B中的二次預測等,一定程度上呈現(xiàn)出一種“機械組合”的特征,沒有充分實現(xiàn)組合模型間的靈活結合[8]。
基于上述問題,本文引入了一種在殘差賦權的基礎上加以改進的自適應賦權的變權組合方法[9],它既非單一模型的“簡單相加”,也非模型A到模型B的“二次預測”。鑒于極端梯度提升算法(eXtreme Gradient Boosting,XGBoost)[10]和長短期記憶神經(jīng)網(wǎng)絡(LSTM)[11]對于非線性非平穩(wěn)且時序性強的數(shù)據(jù)均具有較高的預測精度,且二者方法原理相差較大而使得預測結果相關性較低,有利于對監(jiān)測樣本數(shù)據(jù)中有用信息的充分挖掘和利用,本文選用XGBoost模型和LSTM模型進行變權組合,提出一種大壩變形的XGBoost-LSTM變權組合預測模型,以期實現(xiàn)更為準確可靠的大壩變形預測。
XGBoost算法是在梯度提升樹(Gradient Boosting Decision Tree,GBDT)的基礎上加以改進的一種集成學習算法,其核心理念在于將弱分類器集成為一個強分類器[12],即將上一步弱學習器訓練的殘差通過引入新的弱學習器加以擬合,當訓練結束后會產(chǎn)生每一樣本對應的預測分數(shù),通過對全部弱學習器產(chǎn)生的預測分數(shù)求和即可得到最終的樣本預測值。
XGBoost的結構如圖1所示。
圖1 XGBoost結構示意圖Fig.1 Schematic diagram of XGBoost structure
對于某變形測點,假設其具有n個樣本,且每個樣本具有m個特征值,將其監(jiān)測資料用M={(xi,yi)}(xi∈Rm,yi∈R,i=1,2,…,n)表示。XGBoost采用CART(Classification and Regression Tree,分類回歸樹)模型作為弱學習器[13],對于第i個樣本的預測,其預測函數(shù)為
(1)
在模型的訓練過程中,將目標函數(shù)定義為
(2)
對式(2)中的損失函數(shù)泰勒二階展開,則可近似求得目標函數(shù)為
(3)
在XGBoost算法中,對于單棵決策樹的復雜度,可由式(4)計算,即
(4)
式中:T和γ分別代表葉子節(jié)點的數(shù)量及其數(shù)量的懲罰項;wk代表第k個節(jié)點的分數(shù);λ代表L2正則懲罰項,L2代表歐氏距離。
基于式(4)即可得到由t棵樹構成的復雜度函數(shù),即
(5)
式中const為一常量,代表前t-1棵樹的復雜度的總和。
鑒于優(yōu)化函數(shù)的過程中常數(shù)項不會造成影響,則目標函數(shù)經(jīng)過t次迭代后可簡化為
(6)
長短期記憶神經(jīng)網(wǎng)絡(LSTM)[14]是對循環(huán)神經(jīng)網(wǎng)絡(Recurrent Neural Network,RNN)的一種改進。與傳統(tǒng)的RNN相比,LSTM在其網(wǎng)絡中的每個記憶神經(jīng)元上均新添了一個記憶單元狀態(tài)以降低信息丟失速度,同時其3個門結構(即遺忘門、輸入門和輸出門)用以對梯度下降時誤差函數(shù)反饋的修正參數(shù)進行選擇性記憶。LSTM通過引入可控自循環(huán)巧妙規(guī)避了RNN在長時間序列學習過程中易產(chǎn)生的梯度消失或梯度爆炸問題,對于處理時序延遲和間隔冗長的任務效果顯著。其單元內(nèi)部結構如圖2所示。
圖2 LSTM單元內(nèi)部結構Fig.2 Internal structure of LSTM unit
LSTM的主體運行步驟如下:
(1)通過遺忘門控制前一單元輸入信息的被遺忘程度,篩選并保留歷史信息中有價值的部分。
具體計算式為
ut=σ(Whuht-1+WxuXt+bu) 。
(7)
式中:ut代表遺忘門限;ht-1和Whu分別代表隱含層前一時刻的輸出和權重矩陣;Xt和Wxu分別代表隱含層當前時刻的輸入和權重矩陣;bu代表偏置值向量;σ代表標準sigmoid激活函數(shù)。
(2)通過輸入門控制流入到單元中的信息量,盡可能地將更高的權重分配給更有價值的信息,以此來更新單元狀態(tài)。
具體計算式為
it=σ(Whiht-1+WxiXt+bi) ;
(8)
(9)
(10)
(3)通過輸出門決定最終的輸出信息。
具體計算式為
ot=σ(Whoht-1+WxoXt+bo) ,
(11)
ht=ottanh(Ct) 。
(12)
式中:ot代表輸出門限;Who和Wxo分別代表前一時刻和當前時刻的權重矩陣;bo代表偏置值向量。
(4)采用誤差反向傳播算法對模型多次訓練,以達到期望的模型指標。
本文分別引入隨機森林模型與ELMAN模型作為后文實例應用分析中模型之間的對比依據(jù),以期驗證XGBoost和LSTM兩種模型在各自領域的優(yōu)越性;同時,加入較為傳統(tǒng)的逐步回歸分析模型進行對比研究,以進一步說明本文模型的先進性。
隨機森林模型是一種基于決策樹(分類回歸樹)建立的集成學習算法,適用于處理大壩變形數(shù)據(jù)分析這類存在復雜交互作用或非線性關系的問題。決策樹采用一種二分遞歸分割方法,遵照既定規(guī)則,對樣本集進行分割以形成2個子樣本集。除了葉節(jié)點,決策樹各節(jié)點擁有2個分支,再依循上述過程,采用遞歸方式對每個分割后的子集進行反復分割,以不可再分為葉節(jié)點為限。隨機森林運用Bagging算法進行決策樹的組合,實質(zhì)上是一個包含一系列決策樹的分類器。其具體介紹及算法流程參見文獻[15],本文不再詳述。
ELMAN模型是一種動態(tài)的反饋神經(jīng)網(wǎng)絡模型,由普通的輸入層、隱含層和輸出層以及一個特殊的隱含層(上下文層或狀態(tài)層)組成。輸入層和輸出層兩單元分別具備信號傳輸和線性加權的功能,可將激活函數(shù)作用于隱含層單元。狀態(tài)層單元則負責對隱含層單元上一時刻的輸出值進行記憶,接收并處理由隱含層得到的反饋信號。若ELMAN網(wǎng)絡通過正切S形隱層和純線性輸出層構成,則可對任一連續(xù)函數(shù)進行逼近。具備反饋連接的ELMAN網(wǎng)絡可生成2種模式,即時間模式和空間模式。ELMAN神經(jīng)網(wǎng)絡僅需運用系統(tǒng)給出的輸入和輸出數(shù)據(jù),即可實現(xiàn)對系統(tǒng)的模型構建,此外還能使效應量與影響因子間的非線性關系得以體現(xiàn)。其具體介紹及建模分析流程參見文獻[16],本文不再詳述。
逐步回歸分析模型是一種可自主通過在眾多變量中尋得最有價值變量,進而構建回歸分析預測或解釋的模型。相較于普通的多元回歸方法,逐步回歸的優(yōu)越性在于其剩余標準差更小,方程更穩(wěn)定,從而確保方程中的全部回歸因子均具備顯著性[17]。其具體介紹及建模分析流程詳見文獻[18],本文不再詳述。
組合預測方法在預測科學中的應用較為廣泛,其理論認為:針對同一預測問題,將多種不同的預測模型進行有機結合可在一定程度上提升模型的擬合能力,進而實現(xiàn)更好的預測效果[19]。組合模型的預測效果與各單一模型權值的分配有密切關聯(lián),這就涉及到對賦權方法的合理使用。常用的賦權方法有固定賦權和自適應賦權,固定賦權又可細分為等值賦權和殘差賦權。
本文對于固定賦權方法不再贅述,而是主要闡述一種在殘差賦權的基礎上加以改進的自適應賦權的變權組合方法,其通過以下步驟進行實現(xiàn)。
(1)將組合模型的預測殘差平方和作為目標函數(shù)以得到組合預測優(yōu)化模型,即
式中:eit代表t時刻第i種模型的擬合殘差;vit代表t時刻第i種模型的權值;n代表單一模型的種數(shù);m代表實測樣本點的數(shù)量。
通過解算該組合預測優(yōu)化模型,即可得到各模型在各樣本點處的最優(yōu)權值vit,進而實現(xiàn)組合預測模型擬合精度的最優(yōu)化。
(2)為了達到預測的目的,根據(jù)上述求得的各樣本點處的最優(yōu)權值vit,推求各預測點處的最優(yōu)權值vi,m+j(i=1,2,…,n;j=1,2,…)(j代表預測點的數(shù)據(jù)),常用方法有以下2種。
第一種:適用于樣本量較少或者各模型在時點序列處的權值無明顯規(guī)律的情況,其推算過程為
第二種:適用于樣本量較多且各模型在時序點處的權值存在一定規(guī)律的情況,其核心思想在于采用回歸法擬合權值函數(shù),再以此為依據(jù)計算各預測點的組合預測權值。然而,由于大壩變形監(jiān)測數(shù)據(jù)的特殊性,各模型在時點序列處的權值不存在明顯規(guī)律,此種方法難以適用于大壩變形分析預測,故本文對該方法不再贅述。
根據(jù)以上內(nèi)容不難得出,變權組合方法的基本思路在于,采用某種最優(yōu)化原則對各單一模型在樣本點處的組合權值進行求解調(diào)配,再利用經(jīng)過上述過程處理得到的組合權值,盡可能地尋求各模型每一預測點處預測值的最優(yōu)權占比。換言之就是通過一種各模型權值不斷滾動優(yōu)化的過程,或者通過一種權值與時間對應的最優(yōu)函數(shù)關系,實現(xiàn)概率意義上的更高精度的預測[20]。
鑒于XGBoost模型和LSTM模型對于處理大壩變形序列這種具有較強時序性和非線性特征的數(shù)據(jù)的優(yōu)越性和先進性,同時分別作為樹模型和神經(jīng)網(wǎng)絡模型,其原理具有較大的差異性而使得模型運行結果的相關性較弱,將二者融合有利于提升預測的準確度[21],本文引入XGBoost和LSTM作為組合模型的構成部分;此外,考慮到大壩變形序列具有典型的非線性和非平穩(wěn)性,且監(jiān)測樣本序列和各模型預測效果可能隨時間而不斷改變,本文采用上述變權組合方法進行XGBoost和LSTM的有機組合,同時由于各模型在時點序列處的權值不具有明顯規(guī)律性,選用2.4節(jié)實現(xiàn)過程中步驟(2)談及的第一種方法。綜上所述,本文基于融合建模的思想,引入變權組合方法,將XGBoost模型和LSTM模型進行有機融合,提出一種大壩變形的XGBoost-LSTM變權組合預測模型,以期實現(xiàn)預報精度的進一步提升。
其主體實現(xiàn)步驟概述如下:
(1)在數(shù)據(jù)預處理的基礎上,分別進行XGBoost模型與LSTM模型的建模分析預測,獲得各單一模型的分析預測結果。
(2)根據(jù)步驟(1)得到的各模型預測結果,采用上述變權組合方法擬定各單一模型的權值,進而推求組合模型的最終預測結果。
(3)引入評價指標進行模型評價,以期驗證各單一模型以及組合模型的預測效果。
其建模分析主體流程如圖3所示。
圖3 XGBoost-LSTM變權組合預測模型建模分析主體流程Fig.3 Flow chart of modeling and analysis of XGBoost-LSTM combinatorial model with variable weight
本文選用某混凝土
重力壩作為研究對象,截取該壩10#壩段的引張線測點EX8處2013年1月1日到2013年12月31日的365個變形觀測樣本數(shù)據(jù)進行分析,以說明本文方法思路的可行性和優(yōu)越性。其變形過程線見圖4。
圖4 變形過程線Fig.4 Process line of deformation
根據(jù)前文論述的理論方法將上述365個樣本數(shù)據(jù)中的前350個數(shù)據(jù)劃作訓練集,后15個數(shù)據(jù)劃作測試集,進行XGBoost-LSTM變權組合預測模型的建模分析預測。為了驗證本文單一模型及其組合模型的預測效果,選用XGBoost模型、LSTM模型、隨機森林模型、ELMAN模型、逐步回歸分析模型以及XGBoost-LSTM等值賦權組合預測模型在同一條件下進行對比實驗。
本文將均方根誤差(Root Mean Square Error,RMSE)作為各模型的評價指標,其計算公式為
(14)
3.2.1 單一模型建模分析與評價
鑒于組合模型的預測性能很大程度上與構成其本身的各單一模型的預測性能有關,本文首先對各單一模型進行建模分析與評價,以驗證其在各自模型類別的優(yōu)越性和大壩變形預測方面的適用性。
3.2.1.1 XGBoost模型、隨機森林模型與逐步回歸分析模型的建模預測及對比分析
XGBoost模型和隨機森林模型均是當下較為成熟的樹模型,作為Boosting算法和Bagging算法的典型代表,在預測科學領域都取得了一定的成功;此外,逐步回歸分析模型作為時下較為傳統(tǒng)的回歸分析模型,在相關領域得到了較為成熟且廣泛的應用,具有深刻的對比研究價值。因此,本文基于上述數(shù)據(jù)集和數(shù)據(jù)劃分,首先進行XGBoost模型、隨機森林模型與逐步回歸分析模型的建模預測及對比分析。
本文主要參考文獻[22],利用Python3.7中的XGBoost庫構建XGBoost大壩變形預測模型,將大壩變形的影響因子(包括水壓因子、溫度因子以及時效因子)作為輸入變量,輸出變量則為該測點處變形,同時采用Scikit-learn中的網(wǎng)格搜索法進行超參數(shù)尋優(yōu)。其主要參數(shù)設置結果見表1,其余參數(shù)采用默認值。
表1 XGBoost模型參數(shù)設置結果Table 1 Parameter settings of XGBoost model
對于隨機森林模型的參數(shù)設置和建模應用主要參考文獻[15]和文獻[23],其主要參數(shù)設置結果見表2,其余參數(shù)采用默認值。
表2 隨機森林模型參數(shù)設置結果Table 2 Parameter settings of random forest model
本文主要參考文獻[18],通過尋求最優(yōu)因子組合,將水壓因子、溫度因子和時效因子作為因子集,進行逐步回歸分析模型的構建及應用。
各模型預測結果對比見圖5,各模型評價指標對比見表3。
圖5 XGBoost模型、隨機森林模型與逐步回歸分析模型預測結果對比Fig.5 Comparison of prediction results among XGBoost model,random forest model and stepwise regression analysis model
表3 XGBoost模型、隨機森林模型與逐步回歸分析模型評價指標Table 3 Evaluation indicators of XGBoost model,random forest model and stepwise regression analysis model
由圖5可見,XGBoost模型和隨機森林模型二者的變化趨勢相較于傳統(tǒng)的逐步回歸分析模型更加趨向真實值;又由表3可得,逐步回歸分析模型的預測均方根誤差RMSE為0.423 9 mm,大于隨機森林模型的0.328 8 mm和XGBoost模型的0.233 9 mm;綜上所述,XGBoost和隨機森林兩種樹模型的預測性能均優(yōu)于傳統(tǒng)的逐步回歸分析模型,具有一定的先進性;進一步地,對兩種樹模型進行對比分析,同樣由圖5可見,雖然隨機森林模型在本次實驗中后半段的預測效果略微優(yōu)于XGBoost模型,但是前半段的預測精度卻明顯低于XGBoost模型,導致其整體預測精度不佳,換言之,從總體來看,XGBoost模型的預測過程線相較于隨機森林模型與實測過程線更為貼合,整體表現(xiàn)更加穩(wěn)定;再由表3可得,XGBoost模型的預測均方根誤差RMSE為0.233 9 mm,低于隨機森林模型的0.328 8 mm,進一步證明了XGBoost模型的預測精度高于隨機森林模型,更適用于大壩變形預測。因此,本文將XGBoost模型用于組合模型的構成模型之一。
3.2.1.2 LSTM模型、ELMAN模型與逐步回歸分析模型的建模預測及對比分析
LSTM模型作為時下較為先進的神經(jīng)網(wǎng)絡模型已在大壩安全監(jiān)控領域取得了一定的成功,ELMAN模型作為一種傳統(tǒng)遞歸神經(jīng)網(wǎng)絡模型也較為成熟地被應用于相關領域的研究。因此,基于上述數(shù)據(jù)集和數(shù)據(jù)劃分,本文再對LSTM模型和ELMAN模型進行建模預測及對比分析;出于相同考慮,引入前文逐步回歸分析模型的分析預測成果進行對比研究。
本文主要參考文獻[24]進行LSTM模型的構建和超參數(shù)設置,參數(shù)尋優(yōu)采用Adam算法[25],其主要參數(shù)設置結果如表4所示,其余參數(shù)采用默認值。
表4 LSTM模型參數(shù)設置結果Table 4 Parameter settings of LSTM model
對于ELMAN模型的參數(shù)設置和建模應用主要參考文獻[16],通過試算法將與模型預測精度密切相關的網(wǎng)絡隱含層節(jié)點數(shù)擬定為3,其余參數(shù)采用參考值和默認值。
各模型預測結果對比見圖6,各模型評價指標對比見表5。
圖6 LSTM模型、ELMAN模型與逐步回歸分析模型預測結果對比Fig.6 Comparison of prediction results among LSTM model,ELMAN model and stepwise regression analysis model
表5 LSTM模型、ELMAN模型與逐步回歸分析模型評價指標Table 5 Evaluation indicators of LSTM model,ELMAN model and stepwise regression analysis model
由圖6可見,LSTM模型和ELMAN模型二者的預測曲線走勢相較于傳統(tǒng)的逐步回歸分析模型更加貼合真實值,且由表5可得,LSTM模型和ELMAN模型的預測均方根誤差RMSE分別為0.107 6 mm和0.210 4 mm,均小于逐步回歸分析模型的0.423 9 mm;綜上所述,LSTM和ELMAN兩種神經(jīng)網(wǎng)絡模型均表現(xiàn)出比逐步回歸分析模型更高的預測性能,具有一定的優(yōu)越性;進一步地,對兩種神經(jīng)網(wǎng)絡模型進行比較分析,同樣由圖6可見,LSTM模型的變形預測值顯然比ELMAN模型更加貼合測點變形真實值,且各點走勢更加符合真實值變化規(guī)律,與工程實際情況更為吻合,肉眼可見其預測效果更優(yōu);同時,由表5得到,LSTM模型的評價指標RMSE為0.107 6 mm,小于ELMAN模型的0.210 4 mm,進一步說明了LSTM模型相較于ELMAN模型具有更高的預測精度,在大壩變形監(jiān)測領域優(yōu)勢更加顯著。因此,本文選擇預測表現(xiàn)更優(yōu)的LSTM模型作為組合模型的構成模型之一。
圖7 XGBoost模型、LSTM模型、等值賦權組合模型、變權組合模型預測結果對比Fig.7 Comparison of prediction results among XGBoost model,LSTM model,equal-weighted combination model,and variable-weighted combination model
3.2.2 組合模型建模分析與評價
綜上所述,基于XGBoost模型和LSTM模型,采用前文談及的自適應賦權的變權組合方法進行組合預測模型的構建,最后,基于同樣的數(shù)據(jù)集和數(shù)據(jù)劃分,進行變形分析預測。為了驗證本文變權組合模型的預測性能,將XGBoost模型、LSTM模型、XGBoost-LSTM等值賦權組合預測模型與XGBoost-LSTM變權組合預測模型的預測結果進行對比分析。各模型預測結果對比見圖7,各模型評價指標對比見表6。
表6 XGBoost模型、LSTM模型、等值賦權組合模型、變權組合模型評價指標Table 6 Evaluation indicators of XGBoost model,LSTM model,equal-weighted combination model,and variable-weighted combination model
由圖7可見,XGBoost-LSTM等值賦權組合預測模型的預測過程線的波動范圍相較于XGBoost模型與LSTM模型更加貼合真實值,基本能更加準確地反映真實值變化趨勢,預測效果得到一定程度的提升,但不足之處在于其權值固定導致賦權之后一些細節(jié)信息的丟失,不能更加真實地反映工程實際情況;而反觀XGBoost-LSTM變權組合預測模型,其預測結果過程線與真實值的吻合程度相較于XGBoost-LSTM等值賦權組合預測模型又有了一定程度的提升,每點處預測值都盡可能地逼近真實值,預測精度改善明顯。同時,XGBoost-LSTM變權組合預測模型更大程度地保留了細節(jié)信息,更能從定量而非定性的層面反映大壩變形趨勢和工程實際情況,預測效果更為理想。此外,表6中的各模型評價指標也進一步驗證了上述內(nèi)容,將表6中的均方根誤差RMSE從小到大依次排列:變權組合預測模型的0.040 0 mm<等值賦權組合預測模型的0.083 3 mm 綜上所述,XGBoost-LSTM變權組合預測模型相較于其余3種預測模型具有更好的預測效果,預測結果更加符合工程實際情況,在大壩變形預測中具有一定的優(yōu)勢和可研究價值。 本文鑒于XGBoost作為樹模型在預測科學領域的先進性以及LSTM作為神經(jīng)網(wǎng)絡模型在分析時間序列方面的優(yōu)越性,應用變權組合預測方法將上述2種模型進行有機融合,構建了一種XGBoost-LSTM變權組合預測模型,并將其用于大壩變形預測。實例應用表明,與傳統(tǒng)的逐步回歸分析模型比較,XGBoost和隨機森林2種樹模型以及LSTM和ELMAN這2兩種神經(jīng)網(wǎng)絡模型在大壩變形預測中均表現(xiàn)出更好的預測效果,具有一定的先進性;而相較于同為樹模型的隨機森林模型,XGBoost模型預測性能更加穩(wěn)定和優(yōu)越;與同為神經(jīng)網(wǎng)絡模型的ELMAN模型相比,LSTM模型則具有更優(yōu)的預測表現(xiàn);進一步地,基于變權組合方法將XGBoost和LSTM進行有機融合可以優(yōu)化各單一模型的預測性能,且相較于基于等值賦權方法的XGBoost和LSTM的簡單組合,預測精度提升更加顯著,預測結果信息顯示更加豐富,更加符合工程實際情況。綜上所述,本文提出的大壩變形的XGBoost-LSTM變權組合預測模型在大壩安全監(jiān)控領域具有一定的適用性和優(yōu)越性,可進行發(fā)展和推廣。4 結 論