袁小凱 李 果 許愛東 張乾坤 張福錚
(南方電網(wǎng)科學(xué)研究院 廣州 510080)
考慮到歷史電力負(fù)荷數(shù)據(jù)、天氣、時(shí)間等信息影響,電力負(fù)荷預(yù)測(cè)用于預(yù)測(cè)未來的電力負(fù)荷,對(duì)于獨(dú)立的系統(tǒng)操作而言,有許多電力負(fù)荷預(yù)測(cè)應(yīng)用向調(diào)度員提供信息和市場(chǎng)操作,比如發(fā)電調(diào)度、系統(tǒng)儲(chǔ)備生成,因此準(zhǔn)確的電力負(fù)荷預(yù)測(cè)模型是規(guī)劃管理和運(yùn)行的必要條件[1~3]。電力負(fù)荷預(yù)測(cè)在幫助電力企業(yè)購(gòu)買和發(fā)電、負(fù)荷開關(guān)、電壓控制、基礎(chǔ)設(shè)施建設(shè)等方面做出重要決策具有重要作用,同時(shí)對(duì)能源供應(yīng)商、金融機(jī)構(gòu)和其他參與發(fā)電、輸電、配電和市場(chǎng)營(yíng)銷的參與者也非常重要。通常根據(jù)預(yù)測(cè)的持續(xù)時(shí)間,將負(fù)荷預(yù)測(cè)分為長(zhǎng)期預(yù)測(cè)和短期預(yù)測(cè)。長(zhǎng)期負(fù)荷預(yù)測(cè)的時(shí)間跨度為幾個(gè)月至數(shù)年,而對(duì)未來一周進(jìn)行的預(yù)測(cè)通常稱為短期負(fù)荷預(yù)測(cè)。隨著預(yù)測(cè)精度的提高,運(yùn)行成本的降低和電力系統(tǒng)運(yùn)行的可靠性也隨著提高。本文主要研究短期電力負(fù)荷預(yù)測(cè),因?yàn)樗c電力系統(tǒng)的經(jīng)濟(jì)和安全運(yùn)行密切相關(guān)。由于電力系統(tǒng)運(yùn)行的經(jīng)濟(jì)性和可靠性受電力負(fù)荷的影響較大,成本節(jié)約主要依賴于負(fù)荷預(yù)測(cè)的準(zhǔn)確性。主要調(diào)度中心的負(fù)荷調(diào)度員負(fù)責(zé)通過購(gòu)買、銷售和調(diào)度電力來維持和控制電力的流動(dòng)。調(diào)度員需要預(yù)先對(duì)負(fù)荷模式進(jìn)行預(yù)估,以便分配足夠的發(fā)電量來滿足客戶的需求。過高估計(jì)未來的負(fù)荷可能導(dǎo)致不必要的發(fā)電機(jī)組啟動(dòng),從而導(dǎo)致儲(chǔ)備和運(yùn)營(yíng)成本的增加。低估未來負(fù)荷將導(dǎo)致為系統(tǒng)提供操作儲(chǔ)備和穩(wěn)定性的失敗,這將導(dǎo)致電力系統(tǒng)網(wǎng)絡(luò)的崩潰。
負(fù)荷預(yù)測(cè)的方法主要包括傳統(tǒng)和人工智能兩種,前者包括時(shí)間序列、多變量回歸和狀態(tài)估計(jì)方法,后者包括模糊邏輯[4]、支持向量機(jī)[5~6]、人工神經(jīng)網(wǎng)絡(luò)(ANN)[7~8]和預(yù)處理訓(xùn)練數(shù)據(jù)的方法,然后利用預(yù)處理后的數(shù)據(jù)使用多個(gè)ANN進(jìn)行負(fù)荷預(yù)測(cè)。傳統(tǒng)的方法具有簡(jiǎn)單性的優(yōu)點(diǎn),而人工智能的方法具有較高的預(yù)測(cè)精度,因?yàn)樗鼈兛梢跃_地模擬所觀測(cè)到的負(fù)載與所觀測(cè)到的負(fù)載與所依賴變量間的高度非線性關(guān)系。
在本文中,通過集成學(xué)習(xí)算法提高了預(yù)測(cè)精度。在集成學(xué)習(xí)算法中,結(jié)合一組預(yù)測(cè)模型來提高預(yù)測(cè)精度。理論和實(shí)驗(yàn)研究表明,當(dāng)群體中的ANN是準(zhǔn)確的,并且每個(gè)網(wǎng)絡(luò)的誤差與該組的其他誤差呈負(fù)相關(guān)時(shí),可以通過投票或平均ANN的輸出得到一個(gè)改進(jìn)的精確泛化。在集成學(xué)習(xí)中,常用的兩種算法是套袋法和增強(qiáng)法[9]。這兩種算法都將單個(gè)預(yù)測(cè)模型的輸出集合起來,以提高總體預(yù)測(cè)的準(zhǔn)確性。已有成果表明,套袋法和增強(qiáng)法技術(shù)均比使用單個(gè)預(yù)測(cè)模型更準(zhǔn)確。與使用單一的ANN相比,應(yīng)用套袋法的ANN可以通過減少負(fù)荷預(yù)測(cè)誤差的方差來提高負(fù)荷預(yù)測(cè)[10]。由于許多研究成果表明它可以產(chǎn)生較低的分類錯(cuò)誤率,并且對(duì)過度擬合具有魯棒性。本文提出了一種改進(jìn)的短期電力負(fù)荷預(yù)測(cè)技術(shù),基于迭代生成大量的ANN模型的增強(qiáng)型ANN(BooNN)算法,在每次迭代中,結(jié)果模型減少了預(yù)期輸出之間的誤差,并且在之前的迭代中得到了經(jīng)過訓(xùn)練的模型所獲得的誤差[11]。同時(shí)使用一個(gè)前向階段的加法模型,通過在前一次迭代中減去目標(biāo)輸出的加權(quán)估計(jì)值來更新每次迭代的目標(biāo)輸出。實(shí)驗(yàn)結(jié)果表明,該技術(shù)可以減少預(yù)測(cè)誤差和預(yù)測(cè)精度的變化,與使用單一的ANN、套袋法ANN和其他技術(shù)相比,采用BooNN方法可減少計(jì)算時(shí)間,提高收斂速度。
由于電力負(fù)荷負(fù)載的情況依賴于多種因素,如天氣、時(shí)間、經(jīng)濟(jì)、電價(jià)、隨機(jī)擾動(dòng)和地理?xiàng)l件,所以提出了許多負(fù)荷預(yù)測(cè)技術(shù),并應(yīng)用于準(zhǔn)確預(yù)測(cè)負(fù)荷模式。負(fù)載的情況多受到幾個(gè)因素的影響,同時(shí)負(fù)載模式與影響因素之間的關(guān)系是非線性的?;谌斯ぶ悄艿乃惴ㄔ谔幚矸蔷€性關(guān)系時(shí)具有很大的優(yōu)勢(shì),如模糊邏輯、支持向量機(jī)和神經(jīng)網(wǎng)絡(luò),進(jìn)行了大量的基于人工智能算法的應(yīng)用負(fù)荷預(yù)測(cè)問題研究,因?yàn)榭梢詧?zhí)行比傳統(tǒng)的短期負(fù)荷預(yù)測(cè)方法,如支持向量機(jī)和ANN,包括類似的小波神經(jīng)網(wǎng)絡(luò)和混合ANN模型等。在這些算法中,由于其易于實(shí)現(xiàn)和良好的性能,ANN模型已經(jīng)廣泛應(yīng)用。
ANN是一個(gè)由人工神經(jīng)元組成的學(xué)習(xí)系統(tǒng),其試圖模擬人腦的功能。通常ANN體系結(jié)構(gòu)包括輸入層、隱含層和輸出層三層。第一層的輸入由不同的因素或特征組成,對(duì)想要的預(yù)測(cè)輸出有顯著影響。隱含層利用這些特性來計(jì)算中間值,最后一層的輸出由預(yù)測(cè)值組成。
ANN的每個(gè)隱含層都由N個(gè)神經(jīng)元組成。每一層的輸入乘以權(quán)重Wl,然后添加到偏差bl中。權(quán)重矩陣將輸出從(l -1)層擴(kuò)展到第lth層。例如在t時(shí)刻的具有F個(gè)特征的輸入如下:
式中,W1是一個(gè)權(quán)重矩陣,b1是一個(gè)偏置向量,ρ1是一個(gè)激活函數(shù)。同時(shí)每一層的輸出都是下一層的輸入,因此,最終的輸出有效地包含了每一層的權(quán)重輸入和增加的偏差。最后一層L的最終輸出是:
在短期電力負(fù)荷預(yù)測(cè)中,需要研究不同的獨(dú)立參數(shù)對(duì)電力負(fù)荷的影響。通過給出在離散時(shí)間t=1,2,…,T內(nèi)的 X過去值,可得到對(duì)應(yīng)的觀測(cè)值y,兩者間可以用模型 f表示如下:
對(duì)應(yīng)該模型函數(shù) f?需要符合如下條件:
1)估計(jì)值有較小的偏差,即前一次觀測(cè)的負(fù)載y和負(fù)載 y?間的偏差應(yīng)該較小。
2)預(yù)測(cè)值有較低的方差。在所有模型的平均預(yù)測(cè)中,不同模型的預(yù)測(cè)之間不應(yīng)該有很大的差異。
3)該函數(shù)應(yīng)避免過度擬合,即模型應(yīng)該能夠忽略觀測(cè)中的隨機(jī)誤差。
模型通過已知的獨(dú)立特征和依賴荷載觀測(cè)得到,以及給出的預(yù)測(cè)的獨(dú)立參數(shù),可以用來預(yù)測(cè)下面的負(fù)荷。需要注意的是X和y可以看作是訓(xùn)練數(shù)據(jù),因?yàn)橥ㄟ^它們可以建立描述兩者之間關(guān)系的函數(shù),并用該函數(shù)來預(yù)測(cè)未來時(shí)間對(duì)應(yīng)的數(shù)據(jù)。
由于 f是一個(gè)高度非線性函數(shù),類似ANN和SVM智能算法多用于快速逼近該函數(shù)。為了進(jìn)一步提高負(fù)荷預(yù)測(cè)精度,本文采用了基于ANN的集成學(xué)習(xí)方法。使用一組ANN模型,通過對(duì)不同的數(shù)據(jù)集進(jìn)行訓(xùn)練,得到每個(gè)ANN模型。將這組集合的模型融合在一起,得到最終的估計(jì)預(yù)測(cè)。
在分類問題上增強(qiáng)法得到了廣泛應(yīng)用,但還沒有應(yīng)用到許多回歸問題[12~13]。利用 ANN提高負(fù)荷預(yù)測(cè)的目的是減少預(yù)測(cè)誤差的偏差和方差,并且對(duì)過度擬合具有很強(qiáng)的魯棒性。在推進(jìn)過程中,通過模型迭代生成目標(biāo)。首先,在迭代中,通過使用獨(dú)立特性和依賴目標(biāo)輸出組成的原始訓(xùn)練數(shù)據(jù),在第ith迭代時(shí)生成初始的模型h?i。在下一個(gè)迭代次數(shù)i+1中,由第一個(gè)模型的預(yù)測(cè)錯(cuò)誤代替輸出目標(biāo)生成第二個(gè)模型。
式中,hi是通過第i個(gè)模型得到的目標(biāo)輸出與實(shí)際輸出之間的誤差,αi是每個(gè)模型的權(quán)值。該過程一直持續(xù)到生成一定數(shù)量的M個(gè)模型,可以將所有這些模型形成一個(gè)集合F,該集合可以由一組估計(jì) f?的預(yù)測(cè)因子表示如下:
隨后,將上述提出的預(yù)測(cè)器進(jìn)行線性組合,可以描述如下:
式中,αi是第ith預(yù)測(cè)器的權(quán)值,該權(quán)值與每個(gè)函數(shù)的輸出相乘并相加得到對(duì)應(yīng)的最終輸出。對(duì)于負(fù)荷預(yù)測(cè)問題,需要研究由獨(dú)立變量Xtr和負(fù)載ytr組成的訓(xùn)練數(shù)據(jù)集。利用增強(qiáng)法的步驟如下:
1)首先,定義以下參數(shù):模型迭代的總數(shù)為常數(shù)值M,在i=1,2,…,M 時(shí),αi=α0,α0是0和1之間常數(shù),
2)每個(gè)模型都是迭代生成。在第一次迭代i=1時(shí),利用一下公式計(jì)算模型
3)從i=2到i=M ,殘差 ?y1
t更新如下:
利用更新后的殘差計(jì)算一個(gè)新的ANN模型,如下:
在每次迭代中使用更新的估計(jì)值的權(quán)值,可避免只使用一部分參數(shù)帶來的過度擬合。
4)在所有迭代的末尾,在每次迭代中將獲得的所有ANN模型定義為集合。
5)結(jié)合給定的獨(dú)立數(shù)據(jù)X,預(yù)測(cè)負(fù)荷以加權(quán)總求和的形式計(jì)算得到集合中所有模型的輸出結(jié)果如下:
為了更好地比較提出算法的優(yōu)越性,結(jié)合具體數(shù)據(jù)分別將BooNN算法與ANN、BNN、ARMA模型、HybANN和BRT算法進(jìn)行比校[14~16]。
為了實(shí)現(xiàn)各算法比較的真實(shí)性,統(tǒng)一選取來自廣州地區(qū)的歷史小時(shí)溫度和負(fù)荷模式,用作比較負(fù)荷預(yù)測(cè)的性能。用在訓(xùn)練和預(yù)測(cè)負(fù)載模式不同的獨(dú)立參數(shù)包括干球溫度、露點(diǎn)溫度、一天的小時(shí)、一星期的天數(shù)、顯示哪些天是假期或周末的標(biāo)志、前一天的平均負(fù)荷,24h內(nèi)負(fù)荷的差別,以及前一周相同天和小時(shí)的負(fù)載。作為短期負(fù)荷預(yù)測(cè)的這些參數(shù),同樣在負(fù)載模式上表現(xiàn)出相關(guān)的特點(diǎn)。對(duì)應(yīng)的訓(xùn)練數(shù)據(jù)集包含由這些變量組成的數(shù)據(jù)向量,以及在這些數(shù)據(jù)所給出的時(shí)間內(nèi)所測(cè)量的電力負(fù)荷對(duì)應(yīng)的目標(biāo)輸出。將2014-2017年的樣本用于訓(xùn)練,同時(shí)為了提高計(jì)算預(yù)測(cè)模型的準(zhǔn)確性,將2018-2019年的樣本也應(yīng)用在短期負(fù)荷預(yù)測(cè)中。
通過不同的實(shí)驗(yàn),得到了最佳性能的神經(jīng)網(wǎng)絡(luò)模型參數(shù)。第一個(gè)實(shí)驗(yàn)分別采用以下訓(xùn)練算法:Levenberg-Marquardt反向傳播(LMB)、貝葉斯正則化反向傳播(BRB)、彈性反向傳播(RB)、梯度下降法和自適應(yīng)學(xué)習(xí)速率反向傳播(GDMAB)。隱含層和輸出層的激活函數(shù)分別選為Sigmoid型和線性函數(shù),因?yàn)檫@樣的配置通過訓(xùn)練近似任何有限數(shù)目不連續(xù)的函數(shù)。輸入層中神經(jīng)元的數(shù)量選為8,該數(shù)目等于輸入訓(xùn)練和測(cè)試數(shù)據(jù)中變量的數(shù)量。輸出層中有一個(gè)神經(jīng)元,因?yàn)樽罱K的預(yù)測(cè)輸出是一個(gè)標(biāo)量。實(shí)驗(yàn)中只有一個(gè)隱含層,初始值從0到1不等。基于LMB和BRB的ANN表現(xiàn)出較好的性能,幾乎與初始值無(wú)關(guān),其次是RB和GDMAB算法。LMB用作接下來的ANN模型的訓(xùn)練算法。
表1 不同時(shí)間、節(jié)點(diǎn)數(shù)和隱含層時(shí)的MAPE值
下一個(gè)實(shí)驗(yàn)比較了ANN的性能,它具有不同的時(shí)間、節(jié)點(diǎn)數(shù)和隱含層數(shù),如表1所示。在表中,N-LH表示在LH隱含層中神經(jīng)元的數(shù)量。對(duì)于時(shí)間節(jié)點(diǎn)大于500,節(jié)點(diǎn)數(shù)大于20和隱含層數(shù)大于1的情形,在性能上沒有顯著提高。在200個(gè)時(shí)間節(jié)點(diǎn)內(nèi),MAPE會(huì)產(chǎn)生一個(gè)突變,其原因在于隨著時(shí)間的減少,ANN可能沒有經(jīng)過適當(dāng)?shù)挠?xùn)練導(dǎo)致輸出結(jié)果不穩(wěn)定。在時(shí)間節(jié)點(diǎn)大于300或更大時(shí),MAPE幾乎保持不變。隨著節(jié)點(diǎn)數(shù)目的增加,MAPE減少,而隨著節(jié)點(diǎn)數(shù)量的增加,減少的百分比也減少了。此外,對(duì)于固定數(shù)目的節(jié)點(diǎn),當(dāng)層數(shù)大于2時(shí),MAPE也增加。當(dāng)節(jié)點(diǎn)數(shù)是20,隱含層從1到2增加時(shí),MAPE的下降百分比非常低,同時(shí)20個(gè)節(jié)點(diǎn)、1隱含層的性能與10個(gè)節(jié)點(diǎn)、2個(gè)隱含層的性能相似?;谏鲜鰧?shí)驗(yàn)結(jié)果,在BooNN中使用的ANN模型,其選取參數(shù)為500個(gè)時(shí)間節(jié)點(diǎn),一個(gè)隱含層中20個(gè)節(jié)點(diǎn)。
不同迭代次數(shù)和訓(xùn)練樣本大小對(duì)負(fù)荷預(yù)測(cè)精度的影響如表2所示。訓(xùn)練樣本的大小從15000到35000,步長(zhǎng)為500。迭代次數(shù)從5到25變化,步長(zhǎng)為5。通過計(jì)算每個(gè)訓(xùn)練樣本的大小/迭代次數(shù)得到的平均絕對(duì)百分比誤差(MAPE)如下:
式中,yt是荷載的實(shí)際值,y?t是荷載的預(yù)測(cè)值,t是荷載樣本的總數(shù)量??傻玫饺缦碌慕Y(jié)論:
1)對(duì)于每個(gè)迭代次數(shù),隨著訓(xùn)練樣本數(shù)量的增加,MAPE減少。
2)從2000后開始的每個(gè)樣本,25次迭代的MAPE比5次迭代的要小。
3)從迭代5次到迭代25次,MAPE漸漸減少,并在最小值附近波動(dòng)。
4)當(dāng)訓(xùn)練樣本不足時(shí),15000個(gè)樣本的特性和迭代次數(shù)表現(xiàn)出不穩(wěn)定。在這種情況下,隨著迭代次數(shù)增加MAPE也增加,在一定數(shù)量的迭代后,容易導(dǎo)致過度擬合。
表2 不同采樣數(shù)目和迭代次數(shù)時(shí)的MAPE值
圖1進(jìn)一步表明25000和35000個(gè)樣本存在的特性。隨著迭代次數(shù)增加,MAPE的波動(dòng)會(huì)減少,特別是迭代次數(shù)大于20。35000個(gè)樣本的MAPE比25000個(gè)樣本的MAPE要小。雖然在最后這個(gè)差異更小,但是在每個(gè)迭代中新的訓(xùn)練模型有助于減少M(fèi)APE的值。
圖1 迭代次數(shù)與MAPE值的關(guān)系
在改變權(quán)重時(shí),MAPE的變化如圖2所示。權(quán)重的變化從0.25到1.5,步長(zhǎng)為0.25。為了便于比較,本文利用BNN進(jìn)行了50次迭代得到MAPE,并給出了最佳的ANN。由于這兩種方法的MAPE不受權(quán)重影響,對(duì)應(yīng)為一個(gè)恒定的值。對(duì)樣本數(shù)量為35000,迭代次數(shù)為25,可以看出在α<1時(shí)BooNN的MAPE值小于ANN和BNN的值,這意味著權(quán)重α應(yīng)該保持小于1。因此,在α<1時(shí)BooNN與使用單一ANN和BNN相比提高了性能。
圖2 權(quán)重與MAPE值的關(guān)系
在改變權(quán)重時(shí),計(jì)算時(shí)間的變化如圖3所示。權(quán)重的變化從0.25到1.5,步長(zhǎng)為0.25。在權(quán)重從0.25到1時(shí),BooNN的計(jì)算時(shí)間逐漸變小。從權(quán)重為1后,BooNN的計(jì)算時(shí)間逐漸增加。此外,從ANN和BNN的MAPE為常數(shù)值可以看出,雖然BooNN的計(jì)算時(shí)間大于單個(gè)ANN的計(jì)算時(shí)間,但比使用BNN少3到8倍。
圖3 權(quán)重與計(jì)算時(shí)間的關(guān)系
在權(quán)重α=0.5時(shí),分別比較了ANN、BNN和BooNN算法的MAPE值,以及權(quán)重α=1時(shí)BooNN算法的MAPE值,如圖4所示??梢灾溃?/p>
1)BooNN的MAPE值與BNN的MAPE值近似或者小,相比于單個(gè)ANN的MAPE要小的多。
2)相比于BNN,BooNN的最大MAPE值較多,相比于ANN,則較少。雖然在權(quán)重α=0.5時(shí),幾乎沒有樣本的MAPE較大。
3)在權(quán)重 α=1時(shí)BooNN的MAPE值比權(quán)重α=0.5時(shí)分布的更廣。在權(quán)重α=0.5時(shí)BooNN相比BNN擁有較低的平均值和相似變化,以及相對(duì)單個(gè)ANN有較低的變化,可以看出BooNN可以減小MAPE的變化。雖然對(duì)α=1而言變化更大,但是相比于ANN該分布已經(jīng)大于一個(gè)更低的值。
圖4 采用不同算法時(shí)MAPE的取值情況
將本文提出的算法與現(xiàn)有技術(shù)進(jìn)行了進(jìn)一步的比較,包括BNN,以及一種基于類似改進(jìn)的小波神經(jīng)網(wǎng)絡(luò)(WNN)和BRT的自適應(yīng)模型。為此,選擇了2014年和2016年的廣州訓(xùn)練和測(cè)試數(shù)據(jù)集。相比較上述算法,使用BooNN計(jì)算的月復(fù)月的MAPE和平均的MAPE均相對(duì)較小。圖5顯示了各種算法12個(gè)月的MAPE值。除了11月和12月,使用BooNN算法的每月MAPE值均小于SIWNN算法,尤其是在6、7和8這三個(gè)月。與BNN和BRT相比,除了7月份,比BNN稍高,BooNN算法的MAPE值總是最少的。使用BooNN算法得到的平均MAPE為1.43%,而BNN、SIWNN和BRT分別為1.5%、1.71%和2.44%。在提高預(yù)測(cè)精度方面,與現(xiàn)有其他技術(shù)相比,可以看出BooNN算法的優(yōu)越性能。
圖5 BooNN和SIWNN,BNN,BRT算法的MAPE值比較
圖6 BooNN和ARMA,HybANN,BNN and BRT算法的MAPE值比較
下面,通過計(jì)算2018年的MAPE,將BooNN算法的性能與傳統(tǒng)的ARMA、HybANN、BNN和BRT進(jìn)行比較。從圖6可以看出,相比上述算法,BooNN的MAPE均較小。雖然與BNN相比,兩種算法的MAPE值相差不大,但是結(jié)合如圖3可以知道,BooNN的計(jì)算時(shí)間比BNN少的多。因此,考慮到BNN的預(yù)測(cè)精度,BooNN在計(jì)算節(jié)省方面也有很大的提高。除ARMA外,其他技術(shù)與BooNN相比需要更少的時(shí)間,但是與BooNN相比,它們的性能要差很多。使用BooNN算法得到的平均MAPE為1.42%,而 ARMA、HybANN、BNN和 BRT分別為2.21%、1.94%、1.47%和1.93%,再次表明BooNN的預(yù)測(cè)精度較高。
本文提出了一種改進(jìn)的增強(qiáng)型神經(jīng)網(wǎng)絡(luò)(BooNN)的短期電力負(fù)荷預(yù)測(cè)算法,該算法包括一系列訓(xùn)練用的人工神經(jīng)網(wǎng)絡(luò)(ANN)。在每一次迭代中,利用訓(xùn)練的ANN模型,實(shí)現(xiàn)從前一次迭代的預(yù)測(cè)模型得到的估計(jì)值和實(shí)際值的之間誤差最小。實(shí)驗(yàn)表明,當(dāng)計(jì)算輸出的模型數(shù)大于或等于20時(shí),可以得到較低的預(yù)測(cè)誤差。與單個(gè)ANN、套袋法ANN、改進(jìn)的小波神經(jīng)網(wǎng)絡(luò)、ARMA、混合不受監(jiān)督的ANN等算法相比,BooNN在降低誤差方面表現(xiàn)較好,與BNN相比,節(jié)省了計(jì)算時(shí)間。使用直方圖的統(tǒng)計(jì)分析進(jìn)一步表明,使用BooNN得到的誤差較低,與使用單一ANN和BNN相比,波動(dòng)更小。