国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

一種改進(jìn)的自適應(yīng)增強(qiáng)-支持向量回歸機(jī)的故障預(yù)測(cè)方法

2012-02-23 06:42:24鄧森景博周宏亮朱海鵬劉小平
兵工學(xué)報(bào) 2012年8期
關(guān)鍵詞:訓(xùn)練樣本權(quán)值權(quán)重

鄧森,景博,周宏亮,朱海鵬,劉小平

(1.空軍工程大學(xué) 工程學(xué)院,陜西 西安710038;2.93050 部隊(duì),遼寧 丹東118000)

0 引言

故障預(yù)測(cè)技術(shù)是系統(tǒng)預(yù)測(cè)與健康管理(PHM)中的關(guān)鍵技術(shù),通過分析與判斷預(yù)測(cè)對(duì)象的結(jié)構(gòu)特性、參數(shù)、環(huán)境條件以及歷史數(shù)據(jù),實(shí)現(xiàn)對(duì)設(shè)備運(yùn)行狀態(tài)的監(jiān)控并預(yù)報(bào)故障發(fā)展的趨勢(shì)。

支持向量機(jī)(SVM)在解決小樣本回歸問題時(shí)具有速度快、精度高以及魯棒性強(qiáng)等方面的優(yōu)勢(shì)。然而當(dāng)系統(tǒng)發(fā)生突變故障時(shí),傳統(tǒng)的支持向量回歸(SVR)故障預(yù)測(cè)方法精度較低。自適應(yīng)增強(qiáng)算法(AdaBoost)可以將弱學(xué)習(xí)算法提升為強(qiáng)學(xué)習(xí)算法,采用AdaBoost 算法可以提升SVR 的預(yù)測(cè)性能。文獻(xiàn)[1]提出了基于分類損失函數(shù)的AdaBoost-SVR 回歸算法,提升了SVR 回歸模型的性能。文獻(xiàn)[2]提出了基于AdaBoost 算法的組合SVM 模型來改善軟測(cè)量模型的估計(jì)精度與泛化能力。文獻(xiàn)[3]提出了基于模糊AdaBoost 算法的SVR 進(jìn)一步提升了預(yù)測(cè)模型的精度。

突變故障發(fā)生時(shí)間短暫、測(cè)量困難、出現(xiàn)故障前無明顯征兆,通常表現(xiàn)為數(shù)據(jù)中的奇異點(diǎn)與突變點(diǎn)。標(biāo)準(zhǔn)SVM 算法中結(jié)構(gòu)風(fēng)險(xiǎn)函數(shù)具有較好的平滑性對(duì)數(shù)據(jù)具有平滑作用,消除了數(shù)據(jù)中部分突變點(diǎn)的影響,導(dǎo)致難以精確預(yù)測(cè)某些突變故障。針對(duì)此問題,本文提出了一種改進(jìn)的AdaBoost-SVR 方法用來提高突變故障的預(yù)測(cè)精度。該方法采用AdaBoost方法獲取突變點(diǎn)的權(quán)值,構(gòu)造加權(quán)SVR 回歸機(jī)來增強(qiáng)對(duì)此類突變點(diǎn)的訓(xùn)練,提高AdaBoost-SVR 對(duì)突變故障的預(yù)測(cè)精度。利用自適應(yīng)權(quán)重裁減的AdaBoost算法剔出權(quán)重較小的樣本點(diǎn),提高算法的訓(xùn)練速度。最后將本文方法與標(biāo)準(zhǔn)SVR 、AdaBoost-SVR 預(yù)測(cè)方法進(jìn)行了對(duì)比,進(jìn)一步驗(yàn)證了該方法的有效性。

1 AdaBoost-SVR 算法原理與分析

AdaBoost 算法可以將弱學(xué)習(xí)算法提升為強(qiáng)學(xué)習(xí)算法,其基本思想是加強(qiáng)對(duì)容易錯(cuò)誤分類樣本的學(xué)習(xí)。近年來通過對(duì)標(biāo)準(zhǔn)算法進(jìn)行改進(jìn),出現(xiàn)了許多改進(jìn)AdaBoost 算法[4-6],使其在分類性能上明顯提高。AdaBoost 算法主要解決分類問題,將其運(yùn)用于回歸問題時(shí)需要引入損失函數(shù)來計(jì)算訓(xùn)練樣本估計(jì)值與真實(shí)值的誤差。在AdaBoost-SVR[7]算法中,將SVR 作為弱學(xué)習(xí)算法,在AdaBoost 算法中通過構(gòu)造損失函數(shù)來更新樣本的權(quán)值,最終得到樣本的估計(jì)值。算法如下:

定義包含m 個(gè)樣本數(shù)據(jù)的訓(xùn)練樣本集S ={(x1,y1),…,(xi,yi)},i=1,2,…,m.給定SVR 的參數(shù),以及最大迭代次數(shù)T.ωt(i)表示第i 個(gè)樣本經(jīng)過SVR 學(xué)習(xí)t 次后獲得的權(quán)值。最大允許誤差的門限值δ >0.

1)初始時(shí)假設(shè)所有樣本的權(quán)值相等,均為ω1(i)=1/m.

2)令t=1,2,…,T.

根據(jù)SVR 算法得到回歸函數(shù)ht(xi),并計(jì)算錯(cuò)誤率errt=∑ωt(i),其中|yi-ht(xi)| >δ.若errt>1/2,則退出循環(huán)。

置αt=log[(1 -errt)/errt]/2,同時(shí)通過下式更新樣本權(quán)值:

至此,循環(huán)結(jié)束。

3)循環(huán)結(jié)束后得到最終的回歸函數(shù)為

2 改進(jìn)的AdaBoost-SVR 算法

突變故障通常表現(xiàn)為訓(xùn)練數(shù)據(jù)中的奇異點(diǎn)與突變點(diǎn),SVR 回歸機(jī)的結(jié)構(gòu)風(fēng)險(xiǎn)函數(shù)具有較好的平滑性,在訓(xùn)練時(shí)對(duì)樣本有平滑作用,剔除了某些奇異點(diǎn)與突變點(diǎn)。AdaBoost-SVR 算法訓(xùn)練樣本時(shí),由于突變點(diǎn)被錯(cuò)誤分類的概率較大,因此突變點(diǎn)在訓(xùn)練時(shí)被賦予較大的權(quán)值。新SVR 回歸機(jī)將重點(diǎn)對(duì)此類突變點(diǎn)進(jìn)行訓(xùn)練,提升回歸機(jī)對(duì)樣本中突變點(diǎn)的敏感程度,從而提高了對(duì)突變故障的預(yù)測(cè)程度。

改進(jìn)的AdaBoost-SVR 算法采用加權(quán)SVR 對(duì)不同的訓(xùn)練樣本賦予相應(yīng)的權(quán)值進(jìn)行訓(xùn)練,不僅能夠提高SVR 的訓(xùn)練精度,同時(shí)增強(qiáng)算法的魯棒性。采用自適應(yīng)權(quán)重裁減的AdaBoost 算法舍去權(quán)重較小的樣本點(diǎn),來提高AdaBoost-SVR 訓(xùn)練速度。

2.1 加權(quán)支持向量回歸機(jī)

在標(biāo)準(zhǔn)SVR 中,所有訓(xùn)練數(shù)據(jù)的權(quán)重都是相同的。但是在訓(xùn)練過程中,不同數(shù)據(jù)的重要性是有所區(qū)別的。在研究突變故障時(shí),需要對(duì)數(shù)據(jù)中的突變點(diǎn)賦予較大的權(quán)值,從而提高對(duì)突變故障數(shù)據(jù)點(diǎn)的訓(xùn)練精度。

本文采用了加權(quán)SVR 方法[8],增加了樣本中突變點(diǎn)的懲罰程度,通過非線性映射φ()構(gòu)建線性回歸函數(shù)h(x)=wTφ(x)+b.加權(quán)SVR 算法如下:

式中:ξi與ξ*i為松弛變量;ε 為線性ε 不敏感損失函數(shù)的參數(shù);C 為懲罰參數(shù)。加權(quán)SVR 的求解方法可參考文獻(xiàn)[8].

與傳統(tǒng)SVR 回歸機(jī)不同,加權(quán)SVR 對(duì)每個(gè)訓(xùn)練樣本定義一個(gè)權(quán)系數(shù)ω(i),其初始值為1/m.在本文算法中,該權(quán)系數(shù)通過AdaBoost 算法迭代更新。

2.2 自適應(yīng)裁剪AdaBoost 算法

AdaBoost-SVR 算法的運(yùn)算速度較慢,運(yùn)算耗時(shí)主要在每次迭代需對(duì)SVR 進(jìn)行訓(xùn)練上。當(dāng)訓(xùn)練樣本數(shù)據(jù)量較大時(shí),算法的訓(xùn)練速度很慢,無法滿足實(shí)時(shí)故障預(yù)測(cè)的要求。

權(quán)重裁減方法可以有效解決此問題,裁減系數(shù)λ 定義為每次剔除的訓(xùn)練樣本權(quán)重之和。靜態(tài)權(quán)重裁剪算法[9]中通過減少每次迭代時(shí)加權(quán)SVR 所采用的訓(xùn)練樣本個(gè)數(shù)來提高算法的速度,但該方法裁剪系數(shù)為恒定值,如果選擇不當(dāng)將無法達(dá)到訓(xùn)練要求。本文提出了自適應(yīng)權(quán)重裁剪算法來克服上述問題,首先計(jì)算當(dāng)前SVR 的錯(cuò)誤率,當(dāng)訓(xùn)練樣本的加權(quán)錯(cuò)誤率較大時(shí),自適應(yīng)減小本次迭代的裁剪系數(shù),即增加當(dāng)前SVR 的訓(xùn)練樣本個(gè)數(shù),從而增強(qiáng)回歸機(jī)的訓(xùn)練效果。具體步驟如下:

1)設(shè)置初始裁剪系數(shù)λ0;

2)利用當(dāng)前賦權(quán)樣本集{S,ωt(i)}以權(quán)重按大小依次排列并計(jì)算回歸錯(cuò)誤率errt.從權(quán)重最小的訓(xùn)練樣本開始,將其權(quán)重依次相加獲得權(quán)重和為λ的樣本集,從樣本集{S,ωt(i)}中剔除這部分樣本得到裁剪后的樣本集{Scut,ωtcut(i)},將其輸入當(dāng)前SVR 進(jìn)行訓(xùn)練,獲得新的回歸函數(shù)ht(xi)';

3)將賦權(quán)樣本集{S,ωt(i)}輸入ht(xi)',計(jì)算錯(cuò)誤率err't= ∑ωt(i),I{|yi-ht(xi)| >δ};

4)當(dāng)回歸錯(cuò)誤率err't=0 或者err't≥0.5 且Scut=S時(shí),停止迭代。當(dāng)err't≥0.5 且Scut≠S 時(shí),采用下式更新裁剪系數(shù)λ,

根據(jù)負(fù)指數(shù)函數(shù)性質(zhì),當(dāng)err't較大時(shí),裁減系數(shù)較小可以增加訓(xùn)練樣本個(gè)數(shù),提高訓(xùn)練精度。err't較小時(shí),裁減系數(shù)較大可以減少訓(xùn)練樣本個(gè)數(shù)提高算法的訓(xùn)練速度。自適應(yīng)裁減AdaBoost 算法不僅提高了訓(xùn)練速度,也避免了系數(shù)選擇不當(dāng)造成的影響。

2.3 算法步驟

基于前述,改進(jìn)的AdaBoost-SVR 算法的步驟如下:

給定訓(xùn)練樣本集S ={(x1,y1),…,(xm,ym)},給定SVR 的參數(shù),以及最大迭代次數(shù)T.ωti表示第i個(gè)樣本經(jīng)過SVR 學(xué)習(xí)t 次后獲得的權(quán)值。最大允許誤差的門限值δ >0.

2)令t=1 到t=T.

根據(jù)2.1 節(jié)所述采用加權(quán)SVR 算法得到回歸函數(shù)ht(xi),計(jì)算錯(cuò)誤率errt= ∑ωt(i),其中|yi-ht(xi)| >δ.

3)根據(jù)2.2 節(jié)采用的自適應(yīng)裁剪算法獲得權(quán)重裁剪后的賦權(quán)樣本集{Scut,ωtcut(i)}以及新的回歸錯(cuò)誤率err't和裁剪系數(shù)λ.

置αt=log[(1 -err't)/err't]/2,同時(shí)通過下式更新樣本權(quán)值:

循環(huán)結(jié)束

4)循環(huán)結(jié)束后得到最終的回歸函數(shù)為

3 故障預(yù)測(cè)模型與步驟

3.1 故障預(yù)測(cè)模型

故障數(shù)據(jù)可以采用時(shí)間序列分析的方法進(jìn)行研究,SVR 方法是非線性系統(tǒng)時(shí)間序列預(yù)測(cè)的重要方法。利用本文算法進(jìn)行故障預(yù)測(cè)的關(guān)鍵是建立歷史量測(cè)數(shù)據(jù)與未來時(shí)刻數(shù)據(jù)之間的映射關(guān)系。即基于加權(quán)支持向量回歸建立預(yù)測(cè)值x(k +1)與歷史數(shù)據(jù)x(k)=[x(k),x(k-1),…,x(k -p +1)]之間的時(shí)間序列映射f:Rp→R,其中p 為嵌入維數(shù)。已知n 個(gè)故障歷史數(shù)據(jù)構(gòu)造改進(jìn)AdaBoost-SVR 算法的學(xué)習(xí)樣本如下,其中輸入樣本為

輸出樣本為

根據(jù)2.1、2.2 節(jié)方法對(duì)學(xué)習(xí)樣本進(jìn)行訓(xùn)練并獲得預(yù)測(cè)函數(shù)F(x),通過預(yù)測(cè)函數(shù)計(jì)算單步預(yù)測(cè)值

3.2 預(yù)測(cè)步驟

基于改進(jìn)AdaBoost-SVR 算法的故障預(yù)測(cè)步驟如下:

1)從故障歷史數(shù)據(jù)中提取時(shí)間序列,將故障數(shù)據(jù)分為訓(xùn)練樣本集與測(cè)試樣本集,并選取嵌入維數(shù)。

2)選擇SVR 的核函數(shù)與核參數(shù),初始化自適應(yīng)裁剪系數(shù)λ0,算法迭代次數(shù)T.

3)根據(jù)2.1 節(jié)構(gòu)造加權(quán)SVR 對(duì)訓(xùn)練樣本集進(jìn)行訓(xùn)練,得到訓(xùn)練樣本的估計(jì)值。

4)根據(jù)2.2 節(jié)自適應(yīng)權(quán)重裁剪AdaBoost 算法更新樣本權(quán)重與計(jì)算加權(quán)錯(cuò)誤率,如需更新裁剪系數(shù)則根據(jù)(3)式計(jì)算。判斷是否滿足訓(xùn)練停止條件,如不滿足,以當(dāng)前裁剪系數(shù)返回步驟3,否則訓(xùn)練完畢。

5)將測(cè)試樣本集輸入訓(xùn)練好的T 個(gè)加權(quán)SVR回歸機(jī),根據(jù)(1)式計(jì)算改進(jìn)Adaboost-SVR 算法的預(yù)測(cè)值,并根據(jù)3.1 節(jié)方法計(jì)算測(cè)試樣本的單步與多步故障預(yù)測(cè)值。

由上述步驟得到預(yù)測(cè)算法流程圖如圖1所示。

4 故障預(yù)測(cè)實(shí)例與分析

SVR 已成功應(yīng)用于航空發(fā)動(dòng)機(jī)金屬含量的時(shí)間序列預(yù)測(cè)中。但由于歷史數(shù)據(jù)中存在突變點(diǎn),對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練時(shí),這些點(diǎn)被SVR 網(wǎng)絡(luò)平滑,造成預(yù)測(cè)精度不高,難以對(duì)某些突發(fā)性金屬含量超標(biāo)故障進(jìn)行預(yù)測(cè)。為驗(yàn)證本文算法的有效性,在某發(fā)動(dòng)機(jī)一次換油到另一次換油之間的完整工作階段內(nèi),選取等時(shí)間間隔采樣得到的66 個(gè)外場(chǎng)滑油光譜分析數(shù)據(jù)。因發(fā)動(dòng)機(jī)滑油監(jiān)控主要以Fe 元素為對(duì)象,因此對(duì)Fe 元素含量的時(shí)間序列進(jìn)行預(yù)測(cè)。當(dāng)Fe 元素的含量超標(biāo)時(shí)認(rèn)為發(fā)動(dòng)機(jī)部件磨損嚴(yán)重,出現(xiàn)故障。通常情況下,F(xiàn)e 的含量達(dá)到1 μg/g 以上時(shí)為告警值,達(dá)到1.4 μg/g 時(shí)以上時(shí)為故障值。

圖1 故障預(yù)測(cè)算法流程圖Fig.1 The flow chart of fault prognostic algorithm

采用文獻(xiàn)[10]中的方法對(duì)Fe 元素光譜分析數(shù)據(jù)序列進(jìn)行預(yù)處理,得到Fe 金屬含量的時(shí)間序列{x(k)}如圖2所示。

圖2 Fe 元素含量的時(shí)間序列Fig.2 The time series of Fe iron content

取時(shí)間序列中的前33 個(gè)樣本作為訓(xùn)練樣本,后33 個(gè)為測(cè)試樣本。根據(jù)3.1 節(jié)方法構(gòu)造時(shí)間序列,其中嵌入維數(shù)p=5,采用標(biāo)準(zhǔn)SVR 方法對(duì)樣本進(jìn)行訓(xùn)練,其中參數(shù)C =100,ε =0.01,核函數(shù)取高斯核函數(shù),其參數(shù)σ 為0.5.將測(cè)試樣本輸入訓(xùn)練好的回歸網(wǎng)絡(luò),得到其一步預(yù)測(cè)結(jié)果如圖3。

從圖3可以看出,測(cè)試樣本中5、22 采樣點(diǎn)的金屬含量達(dá)到故障值,標(biāo)準(zhǔn)SVR 回歸機(jī)的預(yù)測(cè)值為警告值,2、17 采樣點(diǎn)的金屬含量達(dá)到告警值,標(biāo)準(zhǔn)SVR 回歸機(jī)未能預(yù)測(cè)。由于時(shí)間序列中含有多個(gè)突變點(diǎn),標(biāo)準(zhǔn)SVR 回歸機(jī)對(duì)訓(xùn)練樣本的平滑作用減小了訓(xùn)練樣本中的突變數(shù)據(jù)對(duì)當(dāng)前預(yù)測(cè)值的影響,導(dǎo)致對(duì)突變點(diǎn)的預(yù)測(cè)精度不高。

圖3 標(biāo)準(zhǔn)SVR 算法得到的一步預(yù)測(cè)結(jié)果Fig.3 The results of one step forecast using standard SVR

采用本文的改進(jìn)AdaBoost-SVR 算法對(duì)樣本進(jìn)行訓(xùn)練,設(shè)初始裁減系數(shù)λ0=0.3,算法迭代次數(shù)T=20,誤差門限δ =0.01,加權(quán)SVR 的參數(shù)與以上標(biāo)準(zhǔn)SVR 算法的參數(shù)相同。將測(cè)試樣本輸入訓(xùn)練好的回歸網(wǎng)絡(luò),得到本文算法的一步預(yù)測(cè)如圖4所示。分別計(jì)算標(biāo)準(zhǔn)SVR、AdaBoost-SVR 與本文預(yù)測(cè)模型的1~3 步預(yù)測(cè)值,根據(jù)文獻(xiàn)[7]計(jì)算兩種算法各步預(yù)測(cè)的相對(duì)誤差值,如表1所示。

圖4 改進(jìn)Adaboost-SVR 算法得到的一步預(yù)測(cè)結(jié)果Fig.4 The results of one step forecast using Adaboost-SVR

表1 預(yù)測(cè)相對(duì)誤差比較Tab.1 The comparison of relative error in prediction

從圖4、表1的預(yù)測(cè)結(jié)果可以看出,采用本文算法對(duì)樣本進(jìn)行訓(xùn)練,每次迭代時(shí)都對(duì)樣本數(shù)據(jù)中回歸誤差較大的突變點(diǎn)賦予了較大的權(quán)值,在下一次迭代中增加對(duì)突變點(diǎn)訓(xùn)練,從而對(duì)突變故障取得了較好的預(yù)測(cè)效果,但同時(shí)剔除了訓(xùn)練樣本中權(quán)值較小的樣本點(diǎn),使其預(yù)測(cè)精度略低于Adaboost-SVR 算法。

將Adaboost-SVR 與本文預(yù)測(cè)算法對(duì)樣本的訓(xùn)練時(shí)間與故障預(yù)測(cè)總時(shí)間進(jìn)行比較。本文的所有實(shí)驗(yàn)均在英特爾雙核E2140,內(nèi)存1 GB,windows XP和Matlab 7.1 環(huán)境下在完成。結(jié)果如表2所示。

表2 預(yù)測(cè)性能比較Tab.2 The comparison of performance in prediction

本文算法由于采用了自適應(yīng)權(quán)重裁剪的Ada-Boost 算法,通過減少每次迭代時(shí)SVR 所采用的訓(xùn)練樣本個(gè)數(shù),降低加權(quán)SVR 輸入樣本的維數(shù),從而提高算法的速度。能夠在滿足精度的同時(shí)實(shí)現(xiàn)飛機(jī)發(fā)動(dòng)機(jī)的實(shí)時(shí)監(jiān)控與故障預(yù)測(cè)。

5 結(jié)論

本文提出了一種改進(jìn)的自適應(yīng)增強(qiáng)算法提升SVR 的對(duì)突變故障的預(yù)測(cè)性能。將AdaBoost 算法與加權(quán)支持向量機(jī)相結(jié)合,通過AdaBoost 算法獲得突變點(diǎn)的權(quán)重,采用加權(quán)SVR 增強(qiáng)對(duì)其訓(xùn)練,有效地提高了算法對(duì)突變故障的預(yù)測(cè)精度。利用自適應(yīng)權(quán)重裁減的AdaBoost 算法舍去權(quán)重較小的樣本點(diǎn),減少加權(quán)SVR 的訓(xùn)練樣本來提高本文算法的訓(xùn)練速度。結(jié)合航空發(fā)動(dòng)機(jī)金屬含量的時(shí)間序列預(yù)測(cè),驗(yàn)證了算法的有效性與快速性。

References)

[1] Lin G,Peng K,F(xiàn)eng G,et al.Adaboost regression algorithm based on classification type loss[C]∥Proceedings of the 8th Wolrd Congress on Intelligent Control and Automation,Jinan:School of Control Science and Engineering,Shandong University,2010:978 -982.

[2] 楊慧中,鄧玉俊.基于自適應(yīng)增強(qiáng)算法的支持向量機(jī)組合模型[J].控制與決策,2011,26(2):316 -319.YANG Hui-zhong,DENG Yu-jun.Compositional model of SVM based on AdaBoosting algorithm[J].Control and Decision,2011,26(2):316 -319.(in Chinese)

[3] 牛艷慶,胡寶清.基于模糊Adaboost 算法的支持向量回歸機(jī)[J].模糊系統(tǒng)與數(shù)學(xué),2006,20(4):140 -142.NIU Yan-qing,HU Bao-qing.Support vector machines based on fuzzy Adaboost algorithm[J].Fuzzy Systems and Mathematics,2006,20(4):140 -142.(in Chinese)

[4] 蔣焰,丁曉青.基于多步校正的改進(jìn)AdaBoost 算法[J].清華大學(xué)學(xué)報(bào):自然科學(xué)版,2008,48(10):1613 -1616.JIANG Yan,DING Xiao-qing.AdaBoost algorithm using multistep correction[J].Journal of Tsinghua University:Science and Technology,2008,48(10):1613 -1616.(in Chinese)

[5] 付忠良,趙向輝,苗青.AdaBoost 算法的推廣——一組集成學(xué)習(xí)算法[J].四川大學(xué)學(xué)報(bào):工程科學(xué)版,2010,42(6):91 -98.FU Zhong-liang,ZHAO Xiang-hui,MIAO Qing.Ensemble learning algorithms:generalization of AdaBoost[J].Journal of Sichuan University:Engineering Science Edition,2010,42(6):91 -98.(in Chinese)

[6] 方義秋,盧道兵,葛君偉.一種改進(jìn)AdaBoost 算法的方法[J].微電子學(xué)與計(jì)算機(jī),2010,27(7):40 -48.FANG Yi-qiu,LU Dao-bing,GE Jun-wei.One improved method for adaboost algorithm[J].Microelectronics & Computer,2010,27(7):40 -48.(in Chinese)

[7] Guo S H,F(xiàn)eng F Z.Study of integrating Adaboost and weight support vector regression model[C]∥International Coference on Artificial Intelligence and Computational Intelligence.Shanghai:Shanghai University of Electric Power,2009:258 -262.

[8] 刁翔,李奇.基于加權(quán)支持向量機(jī)的在線訓(xùn)練算法及應(yīng)用[J].系統(tǒng)仿真學(xué)報(bào),2007,19(9):3970 -3973.DIAO Xiang,LI Qi.On-line training algorithm and its application based on weighted SVR[J].Journal of System Simulation,2007,19(9):3970 -3973.(in Chinese)

[9] Freund Y,Schapire R E.A decision-theoretic generation of online learning and an application to boosting[J].Journal of Computer and System Science,1997,55(1):119 -139.

[10] 尉詢楷,李應(yīng)紅,王碩,等.基于支持向量機(jī)的航空發(fā)動(dòng)機(jī)滑油監(jiān)控分析[J].航空動(dòng)力學(xué)報(bào),2004,19(6):392 -397.WEI Xun-kai,LI Ying-hong,WANG Shuo,et al.Aeroengine lubrication monitoring analysis via support vector machines[J].Journal of Aerospace Power,2004,19(6):392 -397.(in Chinese)

猜你喜歡
訓(xùn)練樣本權(quán)值權(quán)重
一種融合時(shí)間權(quán)值和用戶行為序列的電影推薦模型
CONTENTS
權(quán)重常思“浮名輕”
人工智能
為黨督政勤履職 代民行權(quán)重?fù)?dān)當(dāng)
基于公約式權(quán)重的截短線性分組碼盲識(shí)別方法
基于權(quán)值動(dòng)量的RBM加速學(xué)習(xí)算法研究
寬帶光譜成像系統(tǒng)最優(yōu)訓(xùn)練樣本選擇方法研究
融合原始樣本和虛擬樣本的人臉識(shí)別算法
基于稀疏重構(gòu)的機(jī)載雷達(dá)訓(xùn)練樣本挑選方法
泽普县| 定襄县| 石城县| 普定县| 探索| 五莲县| 静安区| 杂多县| 台山市| 南陵县| 永昌县| 肥东县| 麻栗坡县| 宁都县| 周口市| 察隅县| 依兰县| 雷州市| 潜江市| 宝丰县| 凤城市| 瑞金市| 临漳县| 乐都县| 禄劝| 温泉县| 雅江县| 来宾市| 龙南县| 手游| 金阳县| 都昌县| 卢湾区| 澄江县| 临桂县| 泰来县| 马龙县| 红桥区| 松桃| 康平县| 平阳县|