国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

引入結(jié)構(gòu)信息的模糊支持向量機(jī)

2017-04-26 05:26:15李凱顧麗鳳張雷
關(guān)鍵詞:結(jié)構(gòu)型正確率聚類(lèi)

李凱,顧麗鳳,張雷

(1.河北大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,河北 保定 071002;2.中國(guó)聯(lián)合網(wǎng)絡(luò)通信有限公司保定市分公司 網(wǎng)絡(luò)與信息安全部,河北 保定 071051)

?

引入結(jié)構(gòu)信息的模糊支持向量機(jī)

李凱1,顧麗鳳1,張雷2

(1.河北大學(xué) 計(jì)算機(jī)科學(xué)與技術(shù)學(xué)院,河北 保定 071002;2.中國(guó)聯(lián)合網(wǎng)絡(luò)通信有限公司保定市分公司 網(wǎng)絡(luò)與信息安全部,河北 保定 071051)

模糊支持向量機(jī)是在支持向量機(jī)的基礎(chǔ)上,通過(guò)考慮不同樣本對(duì)支持向量機(jī)的作用而提出的一種分類(lèi)方法,然而,該方法卻忽視了給定樣本集的結(jié)構(gòu)信息.為此,將樣本集中的結(jié)構(gòu)信息引入到模糊支持向量機(jī)中,給出了一種結(jié)構(gòu)型模糊支持向量機(jī)模型,利用拉格朗日求解方法,將其轉(zhuǎn)換為一個(gè)具有約束條件的優(yōu)化問(wèn)題,通過(guò)求解該對(duì)偶問(wèn)題,獲得了結(jié)構(gòu)型模糊支持向量機(jī)分類(lèi)器.實(shí)驗(yàn)中選取標(biāo)準(zhǔn)數(shù)據(jù)集,驗(yàn)證了提出方法的有效性.

支持向量機(jī);模糊支持向量機(jī);結(jié)構(gòu)信息;類(lèi)內(nèi)離散度

支持向量機(jī)SVM (support vector machine)是由Vapnik等[1]提出的一種機(jī)器學(xué)習(xí)方法,其理論基礎(chǔ)是統(tǒng)計(jì)學(xué)習(xí)理論的VC (vapnik chervonenkis)維和結(jié)構(gòu)風(fēng)險(xiǎn)最小化原理.SVM的基本思想是尋找具有最大間隔且將2類(lèi)樣本正確分開(kāi)的超平面,為此,研究人員對(duì)其進(jìn)行了深入的研究,并提出了很多不同的支持向量機(jī),例如υ-SVM(υ-support vector machines)[2]和LS-SVM(least squares support vector machine)[3].由于支持向量機(jī)對(duì)噪聲或異常點(diǎn)具有較強(qiáng)的敏感性,使得它的訓(xùn)練易產(chǎn)生過(guò)擬合現(xiàn)象,從而導(dǎo)致支持向量機(jī)的泛化性能降低.為了解決該問(wèn)題,研究人員提出了模糊支持向量機(jī)FSVM (fuzzy support vector machine)[4],該方法主要將模糊理論引入到支持向量機(jī)中,通過(guò)考慮不同樣本對(duì)支持向量機(jī)的作用,較好地解決了噪聲或異常點(diǎn)對(duì)支持向量機(jī)的影響.然而,如何確定不同樣本的作用,即合理設(shè)置樣本的模糊隸屬度是模糊支持向量機(jī)的主要問(wèn)題.之后,研究人員依據(jù)訓(xùn)練樣本的分布獲得了模糊隸屬度的確定方法[5-7]. 另外,一些研究人員通過(guò)研究模糊隸屬度的確定方法也獲得了不同類(lèi)型的模糊支持向量機(jī)[8-10]. 可以看到,對(duì)于以上介紹的支持向量機(jī)或模糊支持向量機(jī),主要利用了數(shù)據(jù)集的類(lèi)間的可分性,但忽視了數(shù)據(jù)集中類(lèi)內(nèi)的結(jié)構(gòu)信息,為此,人們提出了結(jié)構(gòu)支持向量機(jī)[11-16],進(jìn)一步提高了支持向量機(jī)的泛化性能.目前,關(guān)于結(jié)構(gòu)支持向量機(jī),人們主要在傳統(tǒng)支持向量機(jī)的基礎(chǔ)上并結(jié)合結(jié)構(gòu)信息進(jìn)行了研究.鑒于模糊支持向量機(jī)的影響之深,本文對(duì)基于結(jié)構(gòu)信息的模糊支持向量機(jī)進(jìn)行了研究,給出了結(jié)構(gòu)型模糊支持向量機(jī)模型,利用拉格朗日方法獲得了結(jié)構(gòu)型模糊支持向量機(jī)分類(lèi)器,實(shí)驗(yàn)驗(yàn)證了提出方法的有效性.

1 模糊支持向量機(jī)

模糊支持向量機(jī)是由Lin等[4]提出的一種分類(lèi)方法,它主要針對(duì)數(shù)據(jù)樣本點(diǎn)的重要性不同,將每個(gè)數(shù)據(jù)樣本點(diǎn)xi賦予一個(gè)合適的模糊隸屬值si(0≤si≤1),以此克服噪聲或異常點(diǎn)對(duì)支持向量機(jī)的影響.為此,在模糊支持向量機(jī)中,給定的數(shù)據(jù)樣本集是具有模糊隸屬度的一個(gè)數(shù)據(jù)集合.假設(shè)X={(x1,y1,s1),(x2,y2,s2),…,(xl,yl,sl)},其中xi∈Rn,yi∈{+1,-1},i=1,2,…,l,si是樣本xi屬于類(lèi)yi的模糊隸屬度.

模糊支持向量機(jī)的優(yōu)化問(wèn)題如下:

s.t yi(wTxi+b)+ξi≥1,i=1,2,…,l,

(1)

ξi≥0,i=1,2,…,l,

其中ξi是松弛變量,ξ=(ξ1,ξ2,…,ξl)是由松弛變量構(gòu)成的向量,C是懲罰因子,siξi度量不同變量的重要性.原優(yōu)化問(wèn)題(1)的對(duì)偶問(wèn)題為

(2)

0≤αi≤Csi,i=1,2,…,l.

2 結(jié)構(gòu)型模糊支持向量機(jī)

2.1 結(jié)構(gòu)型模糊支持向量機(jī)模型

在結(jié)構(gòu)型模糊支持向量機(jī)SFSVM (structural fuzzy support vector machine)中,不僅尋找具有最大間隔的超平面,而且使得每類(lèi)具有較小的離散度,為此,將數(shù)據(jù)集中的結(jié)構(gòu)信息引入到模糊支持向量機(jī)中,從而得到結(jié)構(gòu)型模糊支持向量機(jī)模型,其優(yōu)化問(wèn)題如下:

s.t yi(xi·w+b)+ξi≥1,i=1,2,…,l,

(3)

ξi≥0,i=1,2,…,l.

其中par≥0為參數(shù),Sw為給定數(shù)據(jù)的總類(lèi)內(nèi)離散度矩陣.

令I(lǐng)為單位矩陣,∑=par·Sw+I,則(3)進(jìn)一步變?yōu)槿缦碌膬?yōu)化問(wèn)題:

s.t yi(xi·w+b)+ξi≥1,i=1,2,…,l,

(4)

ξi≥0,i=1,2,…,l.

使用拉格朗日方法求解(4),為此構(gòu)造如下拉格朗日函數(shù):

(5)

其中α≥0和β≥0為拉格朗日乘子向量,即α=(α1,α2,…,αl) ,β=(β1,β2,…,βl),函數(shù)L的極值應(yīng)滿足如下條件:

(6)

(7)

(8)

將式(6)、(7)和(8)帶入(5),由此得到如下優(yōu)化問(wèn)題:

0≤αi≤Csi,i=1,2,…,l.

(9)

可以看到,式(9)為二次規(guī)劃問(wèn)題,可以對(duì)其直接求解,設(shè)獲得的解為α*=(α*1,α*2,…,α*l),將其帶入(6),從而得到最優(yōu)超平面的法線方向w=∑-1·∑li=1α*iyixi,由此進(jìn)一步得到如下的決策函數(shù):

其中b可由K-T條件獲得.

2.2 結(jié)構(gòu)信息的獲取

假設(shè)樣本集X中的2類(lèi)樣本構(gòu)成的集合分別為X+和X-,即X=X+∪X-,m1和m2分別為X+和X-的均值向量,則樣本集X的結(jié)構(gòu)信息,即樣本集X的類(lèi)內(nèi)離散度為

對(duì)于樣本集X的結(jié)構(gòu)信息,除了使用類(lèi)內(nèi)離散度方法獲取外,也可利用聚類(lèi)方法得到. 假設(shè)對(duì)每類(lèi)樣本聚類(lèi)的簇?cái)?shù)為k個(gè),其聚類(lèi)結(jié)果分別為X+和X-,即

其中X+i和X-i(i=1,2,…,k)分別為對(duì)正類(lèi)樣本和負(fù)類(lèi)樣本聚類(lèi)后得到的第i個(gè)簇;然后對(duì)每個(gè)簇X+i和X-i(i=1,2,…,k),分別計(jì)算類(lèi)內(nèi)離散度S+i和S-i,從而獲得每類(lèi)的類(lèi)內(nèi)離散度S+和S-,即S+=∑ki=1S+i,S-=∑ki=1S-i,則樣本集X的結(jié)構(gòu)信息為Sw=S++S-.

可以看到,對(duì)于結(jié)構(gòu)信息的獲取,給出的2種方法可以統(tǒng)一為使用聚類(lèi)方法獲取樣本集的結(jié)構(gòu)信息,也就是說(shuō),當(dāng)聚類(lèi)方法中的簇?cái)?shù)k=1時(shí),則聚類(lèi)方法獲取的結(jié)構(gòu)信息變?yōu)橹苯邮褂妹款?lèi)的類(lèi)內(nèi)離散度方法.

2.3 模糊隸屬度的確定方法

對(duì)于給定的數(shù)據(jù)集,如何確定每個(gè)樣本的隸屬度呢?關(guān)于該問(wèn)題,研究人員提出了一些方法.在本文中,使用了Lin等[4]提出的樣本隸屬度的確定方法,即通過(guò)計(jì)算每個(gè)樣本到其類(lèi)中心的距離來(lái)獲取樣本隸屬度,從而減少異常點(diǎn)或噪聲對(duì)支持向量機(jī)的影響.下面給出計(jì)算樣本模糊隸屬度的具體步驟:

1)分別計(jì)算正類(lèi)和負(fù)類(lèi)樣本的類(lèi)中心,設(shè)為x+和x-.

3)根據(jù)樣本類(lèi)均值和類(lèi)半徑獲得每個(gè)樣本的模糊隸屬度

其中,δ>0主要用來(lái)避免si=0.

3 實(shí)驗(yàn)研究

為了驗(yàn)證提出方法的有效性,實(shí)驗(yàn)中選取了11個(gè)數(shù)據(jù)集,分別來(lái)自于UCI和Statlog數(shù)據(jù)庫(kù),所有數(shù)據(jù)集均為2類(lèi),具體特性如表1所示.值得說(shuō)明的是Wine數(shù)據(jù)集為3類(lèi),但在實(shí)驗(yàn)中將其轉(zhuǎn)換為2類(lèi)數(shù)據(jù)集.在下面的實(shí)驗(yàn)中,對(duì)于每個(gè)數(shù)據(jù)集,使用隨機(jī)方法分別抽取90%和70%比例的數(shù)據(jù)作為訓(xùn)練集,剩余的10%和30%數(shù)據(jù)作為測(cè)試集,實(shí)驗(yàn)結(jié)果為執(zhí)行10次實(shí)驗(yàn)后得到的平均值,結(jié)構(gòu)信息的獲取主要研究了直接計(jì)算每類(lèi)的類(lèi)內(nèi)離散度方法,同時(shí)與使用聚類(lèi)方法獲取結(jié)構(gòu)信息進(jìn)行了比較.

為了表明結(jié)構(gòu)信息對(duì)支持向量機(jī)的影響,實(shí)驗(yàn)中選取參數(shù)par=9.5進(jìn)行了研究,隨機(jī)選取的訓(xùn)練集比例為90%,實(shí)驗(yàn)結(jié)果如圖1所示,其中縱坐標(biāo)表示10次實(shí)驗(yàn)結(jié)果的均值和標(biāo)準(zhǔn)差.另外,與模糊支持向量機(jī)FSVM的實(shí)驗(yàn)結(jié)果進(jìn)行了比較,如圖2所示.

表1 數(shù)據(jù)集的特性

圖1 不同數(shù)據(jù)集的平均正確率與標(biāo)準(zhǔn)差Fig.1 Average accuracy and standard deviation on each data set

圖2 固定參數(shù)后的2種不同方法的平均正確率的比較 Fig.2 Comparison of average accuracy for SFSVM and FSVM on each data set with par=9.5

由圖2可以看到,在選取的11個(gè)數(shù)據(jù)集中,當(dāng)選取參數(shù)par=9.5時(shí),在8個(gè)數(shù)據(jù)集中,提出的方法SFSVM的性能優(yōu)于模糊支持向量機(jī)FSVM,在另外的3個(gè)數(shù)據(jù)集Australian、Bupa和Wpbc的性能劣于模糊支持向量機(jī)FSVM.但是,可以通過(guò)合理設(shè)置參數(shù)par的值,使得提出的方法SFSVM在大部分?jǐn)?shù)據(jù)集上優(yōu)于模糊支持向量機(jī)FSVM,為了表明此種情況,對(duì)參數(shù)par的不同取值進(jìn)行了實(shí)驗(yàn)研究,其取值范圍為[3,10],實(shí)驗(yàn)結(jié)果如圖3與圖4所示,其中圖3標(biāo)出了取得較好結(jié)果的參數(shù)值,圖4給出了對(duì)應(yīng)參數(shù)的10次運(yùn)行結(jié)果的平均值及FSVM的平均值.可以看到,除了Bupa數(shù)據(jù)集稍有下降外,在其他數(shù)據(jù)集都獲得了較好的性能.

圖3 選取較好參數(shù)的每個(gè)數(shù)據(jù)集的平均正確率與標(biāo)準(zhǔn)差Fig.3 Average accuracy and standard deviation on each data set with better parameter value

圖4 選取較好參數(shù)的2種不同方法的平均正確率的比較Fig.4 Comparison of average accuracy for SFSVM and FSVM on each data set with better parameter value

為了表明不同比例的訓(xùn)練數(shù)據(jù)對(duì)分類(lèi)的影響,針對(duì)選取的70%的訓(xùn)練數(shù)據(jù)進(jìn)行了實(shí)驗(yàn),參數(shù)par的取值分別為4,4.5,5,5.5和6,實(shí)驗(yàn)結(jié)果如圖5和圖6所示.由實(shí)驗(yàn)結(jié)果可以看到,在9個(gè)數(shù)據(jù)集中,提出的方法SFSVM的性能優(yōu)于模糊支持向量機(jī),而在Bupa和Wine數(shù)據(jù)集上劣于FSVM,然而對(duì)于Wine數(shù)據(jù)集的性能,2種方法的正確率基本上保持一致.

另外,通過(guò)選取90%的數(shù)據(jù)作為訓(xùn)練集,聚類(lèi)數(shù)目k=3且C=10,利用聚類(lèi)技術(shù)獲取數(shù)據(jù)集的結(jié)構(gòu)信息也進(jìn)行了實(shí)驗(yàn),同時(shí)與FSVM及SFSVM 2種方法進(jìn)行了比較,為了區(qū)分2種不同獲取結(jié)構(gòu)信息的方法,用SFSVM-1和SFSVM-2分別表示直接使用類(lèi)內(nèi)離散度和聚類(lèi)技術(shù)獲取結(jié)構(gòu)信息的SFSVM,實(shí)驗(yàn)結(jié)果如圖7所示. 可以看到,使用結(jié)構(gòu)信息的SFSVM的分類(lèi)正確率在大部分?jǐn)?shù)據(jù)集上優(yōu)于FSVM,而使用2種方法獲取結(jié)構(gòu)信息的分類(lèi)正確率在不同的數(shù)據(jù)集上各有千秋,實(shí)際上,可以針對(duì)不同的數(shù)據(jù)集,通過(guò)設(shè)置合理的參數(shù)獲得較好的分類(lèi)性能.

圖5 SFSVM在不同參數(shù)下的平均正確率Fig.5 Average accuracy for SFSVM on each data set with different parameter value

圖6 選取較好參數(shù)下SFSVM與FSVM的平均正確率比較Fig.6 Comparison of average accuracy for SFSVM and FSVM on each data set with better parameter value

圖7 3種不同方法的平均正確率比較Fig.7 Comparison of average accuracy with three different methods

綜上所述,在模糊支持向量機(jī)中通過(guò)引入結(jié)構(gòu)信息,在一定程度上提高了支持向量機(jī)的泛化性能,然而,在一些數(shù)據(jù)集,例如Bupa等,引入結(jié)構(gòu)信息后反而使得支持向量機(jī)的性能有所下降,這主要是由于實(shí)驗(yàn)中par的參數(shù)取值確定為[3,10],該問(wèn)題的解決可以通過(guò)進(jìn)一步調(diào)整參數(shù)值獲得較好的性能.

4 結(jié)論

模糊支持向量機(jī)是在支持向量機(jī)的基礎(chǔ)上,通過(guò)考慮不同樣本的作用而提出的一種機(jī)器學(xué)習(xí)方法,然而,該方法只關(guān)注了類(lèi)間的可分性,并未考慮樣本集中的結(jié)構(gòu)信息.在本文中,將樣本中的結(jié)構(gòu)信息引入到模糊支持向量機(jī)中,獲得了結(jié)構(gòu)型模糊支持向量機(jī)模型,利用拉格朗日方法,將其轉(zhuǎn)換為一個(gè)具有約束條件的優(yōu)化問(wèn)題,通過(guò)求解該對(duì)偶問(wèn)題,從而獲得結(jié)構(gòu)型模糊支持向量機(jī)分類(lèi)器.通過(guò)選取標(biāo)準(zhǔn)數(shù)據(jù)集,實(shí)驗(yàn)驗(yàn)證了提出方法的有效性,在以后的工作中,進(jìn)一步研究使用聚類(lèi)技術(shù)方法獲取結(jié)構(gòu)信息的模糊支持向量機(jī).

[1] VAPNIK V N. The nature of statistical learning theory [M]. New York:Springer, 1995.

[2] SCHOLKOPF B, SMOLA A J, WILLIAMSON R C, et al. New support vector algorithms [J]. Neural Computation, 2000, 12(5):1207-1245. DOI:10.1162/089976600300015565.

[3] SUYKENS J, VANDEWALLE J. Least squares support vector machine classifiers [J]. Neural Processing Letters, 1999, 9(3):293-300. DOI:10.1023/ A:1018628609742.

[4] LIN C F, WANG S D. Fuzzy support vector machines [J]. IEEE Transaction on Neural Networks, 2002, 13(2):464-471. DOI:10.1109/72.991432.

[5] LIN C F, WANG S D. Fuzzy support vector machines with automatic membership setting [J]. Studies in Fuzziness and Soft Computing, 2005, 177:233-254. DOI:10.1007/10984697_11.

[6] JIANG X F, YI Z, LV J C. Fuzzy SVM with a new fuzzy membership function [J]. Neural Computing and Application, 2006, 15(3-4):268-276. DOI:10.1007/s00521-006-0028-z.

[7] 楊志民.模糊支持向量機(jī)及其應(yīng)用研究[D].北京:中國(guó)農(nóng)業(yè)大學(xué), 2005. DOI:10.7666/d.y773695. YANG Z M. Fuzzy support vector machine and its application [D]. Beijing:China Agricultural University, 2005. DOI:10.7666/d.y773695.

[8] SHILTON A, LAI D T H. Iterative fuzzy support vector machine classification[Z]. IEEE International Conference on Fuzzy Systems, London, UK, 2007. DOI:10.1109/FUZZY.2007.4295570.

[9] HONG D H, HWANG C H. Support vector fuzzy regression machines [J]. Fuzzy Sets and System, 2003, 138(2):271-281. DOI:10.1016/S0165-0114(02)00514-6.

[10] YANG X W, ZHANG G Q, LU J. A kernel fuzzy C-means clustering-based fuzzy support vector machine algorithm for classfication problems with outliers or noises [J]. IEEE Transactions on Fuzzy Systems, 2011, 19(1):105-115. DOI:10.1109/TFUZZ.2010.2087382.

[11] YEUNG D, WANG D, NG W, et al. Structured large margin machines:sensitive to data distributions [J]. Machine Learning, 2007, 68(2):171-200. DOI:10.1007/s10994-007-5015-9.

[12] XUE H, CHEN S C, YANG Q. Structural regularized support vector machine:a framework for structural large margin classifier [J]. IEEE Transactions on Neural Networks, 2011, 22(4):573-587. DOI:10.1109/TNN.2011.2108315.

[13] XIONG T, CHERKASSKY V. A combined SVM and LDA approach for classification[Z]. International Joint Conference on Neural Networks, Montreal, Canada, 2005. DOI:10.1109/IJCNN.2005.1556089.

[14] ZHANG L, ZHOU W D. Fisher-regularized support vector machine [J]. Information Sciences, 2016,343-344:79-93. DOI:10.1016/j.ins.2016.01.053.

[15] HOUTHOOFT R, TURCK F D. Integrated inference and learning of neural factors in structural support vector machines[J]. Pattern Recognition, 2016, 59:292-301. DOI:10.1016/j.patcog.2016.03.014.

[16] HOU Q L, ZHEN L, DENG N Y, et al. Novel grouping method-based support vector machine plus for structured data[J]. Neurocomputing, 2016, 211:191-201. DOI:10.1016/j.neucom.2016.03.086.

(責(zé)任編輯:孟素蘭)

Fuzzy support vector machine based on structural information

LI Kai1, GU Lifeng1,ZHANG Lei2

(1.College of Computer Science and Technology, Hebei University, Baoding 071002, China;2.Department of Network and Information Security,Baoding City Branch of China United Network Communication Corporation Limited,Baoding 071051,China)

By considering the role of different samples on support vector machine, fuzzy support vector machine is presented based on support vector machine. However, it ignores the structural information of the given sample set. To this end, structural information of the given sample set is introduced into fuzzy support vector machine and obtained a structural fuzzy support vector machine model. It is converted to dual problem with quadratic programming using Lagrange method. Through solving this dual problem,the fuzzy support vector machine classifier is obtained. Experimental results in selected standard data sets demonstrate the effectiveness of the proposed method.

support vector machines;fuzzy support vector machine;structure information;within class scatter

10.3969/j.issn.1000-1565.2017.02.013

2016-08-04

國(guó)家自然科學(xué)基金資助項(xiàng)目(61375075)

李凱 (1963—),男,河北滿城人,河北大學(xué)教授,博士,主要從事機(jī)器學(xué)習(xí)、數(shù)據(jù)挖掘和模式識(shí)別研究.E-mail:likai@hbu.edu.cn

TP 319

A

1000-1565(2017)02-0187-07

猜你喜歡
結(jié)構(gòu)型正確率聚類(lèi)
門(mén)診分診服務(wù)態(tài)度與正確率對(duì)護(hù)患關(guān)系的影響
體育社團(tuán)結(jié)構(gòu)型社會(huì)資本的培育研究
基于DBSACN聚類(lèi)算法的XML文檔聚類(lèi)
淺議科技論文結(jié)構(gòu)型英文摘要的句型特點(diǎn)和表達(dá)方式
新時(shí)期計(jì)算機(jī)程序的設(shè)計(jì)模式
生意
品管圈活動(dòng)在提高介入手術(shù)安全核查正確率中的應(yīng)用
生意
基于改進(jìn)的遺傳算法的模糊聚類(lèi)算法
一種層次初始的聚類(lèi)個(gè)數(shù)自適應(yīng)的聚類(lèi)方法研究
东乡族自治县| 新营市| 孝昌县| 交城县| 五指山市| 扎赉特旗| 阿图什市| 沛县| 章丘市| 亚东县| 正定县| 香港| 安泽县| 新干县| 涟水县| 铁岭市| 新和县| 成武县| 磐石市| 班玛县| 巫溪县| 武定县| 张家港市| 江阴市| 琼结县| 宿迁市| 安龙县| 永丰县| 抚松县| 蓬安县| 论坛| 五大连池市| 大厂| 大石桥市| 临邑县| 仙桃市| 合江县| 深圳市| 临安市| 四子王旗| 武定县|