林鈞濤 肖燕珊 劉波
摘 要:
現(xiàn)有的一分類支持向量機(jī)算法基于優(yōu)化最小間隔的思想,只考慮了樣本靠近空間原點(diǎn)一側(cè)的噪聲,對(duì)噪聲信息較為敏感。針對(duì)該問(wèn)題,通過(guò)優(yōu)化間隔分布思想,同時(shí)考慮樣本靠近空間原點(diǎn)和遠(yuǎn)離空間原點(diǎn)兩側(cè)的噪聲,提高一分類支持向量機(jī)算法的抗噪聲能力。為此,提出了一種基于最優(yōu)間隔分布的一分類學(xué)習(xí)方法(one-class optimal margin distribution machine,OCODM),該方法通過(guò)最大化間隔的均值和最小化間隔方差的方式來(lái)優(yōu)化間隔分布。實(shí)驗(yàn)結(jié)果表明,相比于現(xiàn)有的一分類支持向量機(jī)算法,該方法具有更好的魯棒性,是現(xiàn)有一分類支持向量機(jī)方法的有益補(bǔ)充,能夠增強(qiáng)現(xiàn)有方法的抗噪聲能力。
關(guān)鍵詞:一分類學(xué)習(xí);間隔分布;一分類支持向量機(jī)
中圖分類號(hào):TP181?? 文獻(xiàn)標(biāo)志碼:A??? 文章編號(hào):1001-3695(2023)09-028-2749-06
doi: 10.19734/j.issn.1001-3695.2022.12.0798
One-class optimal margin distribution machine
Lin Juntaoa, Xiao Yanshana, Liu Bob
(a. School of Computers, b. School of Automation, Guangdong University of Technology, Guangzhou 510000, China)
Abstract:
The existing one-class support vector machine algorithms are based on the idea of minimum margin. They consider only the noise close to the space origin and are sensitive to noise. To improve the anti-noise ability of the one-class support vector machine through the idea of optimal margin distribution, which considers both of the noise close to the space origin and that far from the space origin, this paper proposed a novel OCODM method. This method maximized the margin and minimized the margin variance to optimize the margin distribution. The experimental results show that compared to the existing one-class support vector machine algorithms, this method has better robustness, and it is a supplement of the existing one-class support vector machine algorithms and can enhance the anti-noise ability of existing methods.
Key words:one-class classification learning; margin distribution; one-class support vector machine
支持向量機(jī)(support vector machine,SVM)是經(jīng)典的二分類學(xué)習(xí)算法之一,其基于結(jié)構(gòu)化風(fēng)險(xiǎn)最小化和經(jīng)驗(yàn)風(fēng)險(xiǎn)最小化原則,具有高泛化性能的優(yōu)點(diǎn)。一分類支持向量機(jī)(OCSVM)是SVM在一分類方面的擴(kuò)展。OCSVM的目標(biāo)是訓(xùn)練一個(gè)分類器,該分類器可以將目標(biāo)類的實(shí)例與非目標(biāo)類的實(shí)例區(qū)分開來(lái)[1]。與SVM不同的是,OCSVM在訓(xùn)練過(guò)程中,只有目標(biāo)類中的實(shí)例可用于訓(xùn)練超平面,它通過(guò)最大化目標(biāo)類中的實(shí)例到原點(diǎn)的最小間隔來(lái)學(xué)習(xí)超平面。到目前為止,OCSVM已經(jīng)取得了眾多應(yīng)用,包括人跌倒檢測(cè)系統(tǒng)、醫(yī)療診斷、自動(dòng)貨幣驗(yàn)證、視頻顯著性檢測(cè)等。
迄今為止,研究人員已經(jīng)提出了很多的OCSVM改進(jìn)算法。例如,Bicego等人[2]提出了加權(quán)OCSVM算法,該算法根據(jù)訓(xùn)練集中每個(gè)實(shí)例的不同重要性,對(duì)實(shí)例進(jìn)行加權(quán)。Yin等人[3]根據(jù)每個(gè)實(shí)例與訓(xùn)練實(shí)例中心之間的距離,修改了每個(gè)實(shí)例的懲罰系數(shù)。Zhu等人[4]提出了加權(quán)OCSVM的加權(quán)策略,在該加權(quán)策略中,權(quán)重由K最近鄰(K-nearest neighbor,KNN)算法決定,即位于目標(biāo)類中心附近的實(shí)例被賦予較大的權(quán)重,而距離目標(biāo)類中心較遠(yuǎn)的實(shí)例則分配較小的權(quán)重。Xiao等人[5]設(shè)計(jì)了一個(gè)Ramp Loss 函數(shù)來(lái)代替OCSVM中的Hinge Loss損失函數(shù),并利用約束凹凸過(guò)程(constrained concave-convex procedure,CCCP)解決了其優(yōu)化問(wèn)題。Xu等人[6]提出了基于重縮放Hinge Loss函數(shù)的OCSVM,并使用半二次優(yōu)化技術(shù)對(duì)其進(jìn)行了求解。
現(xiàn)有的OCSVM算法都是基于優(yōu)化最小間隔的思想,即最大化從目標(biāo)實(shí)例到原點(diǎn)的最小距離。與優(yōu)化最小間隔思想不同,近年來(lái),有研究[7]提出了優(yōu)化間隔分布的思想。例如,Zhang等人[8]提出了面向二分類學(xué)習(xí)問(wèn)題的最優(yōu)間隔分布機(jī)(optimal margin distribution machine,ODM),該方法采取優(yōu)化間隔分布的策略。隨后,ODM被擴(kuò)展到多分類學(xué)習(xí)[9]和多標(biāo)簽學(xué)習(xí)[10]。此外,優(yōu)化間隔分布的思想也被應(yīng)用于聚類學(xué)習(xí)[11]。文獻(xiàn)[8~11]的實(shí)驗(yàn)結(jié)果表明,優(yōu)化間隔分布有助于獲得較好的分類結(jié)果。優(yōu)化間隔分布的思想已被應(yīng)用于二分類、多分類、多標(biāo)簽學(xué)習(xí)和聚類。但是,到目前為止,優(yōu)化間隔分布在一分類學(xué)習(xí)方面還沒(méi)有相關(guān)的工作。為此,本文將優(yōu)化間隔分布的思想引入到一分類學(xué)習(xí)中,并提出了基于最優(yōu)間隔分布的一分類學(xué)習(xí)方法。與傳統(tǒng)的OCSVM不同,OCSVM通過(guò)最大化目標(biāo)實(shí)例和原點(diǎn)之間的最小間隔來(lái)學(xué)習(xí)超平面,而OCODM是通過(guò)最大化目標(biāo)函數(shù)中的間隔均值和最小化間隔方差來(lái)優(yōu)化目標(biāo)類的間隔分布,所得到的目標(biāo)方程可以轉(zhuǎn)換為標(biāo)準(zhǔn)的二次規(guī)劃(quadratic programming,QP)問(wèn)題進(jìn)行求解。在真實(shí)數(shù)據(jù)上的實(shí)驗(yàn)結(jié)果表明,本文OCODM方法具有較好的魯棒性,分類效果良好,是現(xiàn)有OCSVM算法的有益補(bǔ)充。
1 OCODM算法
1.1 OCODM目標(biāo)方程
假設(shè)一分類數(shù)據(jù)集X有m個(gè)目標(biāo)類實(shí)例,數(shù)據(jù)維度為d,X可表示為X=[(x1), (x2), …, (xm)]。在X中的第i個(gè)實(shí)例為(xi),其中,xi∈Euclid ExtraaBpd,(·)表示映射函數(shù),將原始空間中的實(shí)例映射到更高維度的特征空間。那么,間隔方差和間隔均值可以表示為
2 實(shí)驗(yàn)及結(jié)果分析
2.1 對(duì)比方法
為了驗(yàn)證本文方法的有效性,OCODM將和以下幾個(gè)常用的一分類算法進(jìn)行對(duì)比:
a)一分類支持向量機(jī)(OCSVM)[1],其通過(guò)在特征空間中尋找訓(xùn)練實(shí)例和原點(diǎn)之間的最大間隔來(lái)構(gòu)造超平面,將學(xué)習(xí)到的超平面用于預(yù)測(cè)未知實(shí)例。
b)支持向量數(shù)據(jù)描述算法(SVDD)[12],其在特征空間中學(xué)習(xí)一個(gè)緊湊的超球體,該超球體盡可能地將目標(biāo)類的實(shí)例包裹起來(lái),落在超球體以外的實(shí)例則被認(rèn)為是異常類。
c)基于自適應(yīng)損失函數(shù)的最小二乘一分類支持向量機(jī)(ALFLS-OCSVM)[13],該方法是基于最小二乘一分類支持向量機(jī)的方法,其使用自適應(yīng)損失函數(shù)代替平方損失函數(shù),增強(qiáng)了最小二乘一分類支持向量機(jī)的抗離群點(diǎn)能力。
d)加權(quán)OCSVM(WOC-OCSVM)[14] ,該算法基于距離的策略和密度的策略來(lái)對(duì)每個(gè)訓(xùn)練實(shí)例的誤差加權(quán),再將兩種加權(quán)策略在學(xué)習(xí)模型中線性組合形成一個(gè)新的學(xué)習(xí)模型。
e)基于魯棒 AdaBoost的一類支持向量機(jī)集成學(xué)習(xí)算法(RAEOCSVM)[15],它是基于AdaBoost的集成學(xué)習(xí)方法,基分類器是OCSVM。該算法將AdaBoost中的傳統(tǒng)損失函數(shù)用平方損失和修正的指數(shù)損失函數(shù)的組合進(jìn)行替換。
f)孤立森林(iForest)[16],它通過(guò)對(duì)樣本點(diǎn)的孤立來(lái)檢測(cè)異常值。該算法利用孤立樹(iTree)的二叉搜索樹結(jié)構(gòu)來(lái)孤立樣本。由于異常值的數(shù)量較少且與大部分樣本的疏離性,異常值會(huì)被更早的孤立出來(lái),即異常值會(huì)距離iTree的根節(jié)點(diǎn)更近。
2.2 數(shù)據(jù)集
在真實(shí)數(shù)據(jù)集上進(jìn)行實(shí)驗(yàn),數(shù)據(jù)集分別是圖像數(shù)據(jù)集CIFAR[17]、手寫數(shù)據(jù)集MNIST[18]和物體分類數(shù)據(jù)集COIL[19]。
a)CIFAR:它是一個(gè)包含60 000張彩色圖像數(shù)據(jù)集,每張圖像的大小為32×32像素,每個(gè)像素包含大小為0~255的三個(gè)RGB值,該數(shù)據(jù)集有10個(gè)不同的類別。在本實(shí)驗(yàn)中,選取前5個(gè)類別(即飛機(jī)、汽車、鳥、貓和鹿)作為目標(biāo)類,并把這5個(gè)類別轉(zhuǎn)換為一分類數(shù)據(jù)集。具體來(lái)說(shuō),分別將每一個(gè)類別看做目標(biāo)類,其他9個(gè)類別看做非目標(biāo)類,可以得到5個(gè)一分類子數(shù)據(jù)集,即CIFAR-1~CIFAR-5。
b)MNIST:該數(shù)據(jù)集由16 000張手寫數(shù)字0~9的灰色圖像組成。每個(gè)圖像的大小為28×28像素。選擇前5個(gè)類別(即手寫數(shù)字0~4)作為目標(biāo)類。跟CIFAR數(shù)據(jù)集類似,把每一個(gè)類別看做目標(biāo)類,其他9個(gè)類別看做非目標(biāo)類,可以得到5個(gè)一分類數(shù)據(jù)集,即MNIST-1~MNIST-5。
c)COIL:該數(shù)據(jù)集包含1 440張20個(gè)不同物體類別的圖片。每一個(gè)類別有72張圖片,取自于物體的72個(gè)角度,每5°拍攝一張,每張圖片的大小為32×32像素。跟CIFAR和MNIST類似,在實(shí)驗(yàn)中,選取前5個(gè)類別作為目標(biāo)類,將數(shù)據(jù)集劃分為5個(gè)子數(shù)據(jù)集,即COIL-1~COIL-5。
2.3 實(shí)驗(yàn)環(huán)境和算法實(shí)現(xiàn)
在本實(shí)驗(yàn)中,實(shí)驗(yàn)運(yùn)行的計(jì)算機(jī)硬件配置CPU為Intel CoreTM i5-11300H 3.10 GHz,RAM為16.0 GB,操作系統(tǒng)為Microsoft Windows 11,實(shí)驗(yàn)環(huán)境為MATLAB。在實(shí)驗(yàn)中,OCODM優(yōu)化求解后得到的QP問(wèn)題,采用MATLAB的QP工具包進(jìn)行求解。
OCODM和其他六個(gè)對(duì)比算法的參數(shù)設(shè)置如下。在實(shí)驗(yàn)中,采用10折交叉驗(yàn)證來(lái)匯報(bào)實(shí)驗(yàn)結(jié)果,并且所有方法都采用線性核。在OCODM算法中,參數(shù)θ的選擇范圍為{0.1,0.2,…,0.9}, 參數(shù)C在{0.01,0.1,…,1000}中進(jìn)行選擇。在OCSVM算法中,參數(shù)ν的選擇范圍為{0.01,0.05,0.1,0.2,…,1}。在SVDD算法中,參數(shù)C在{2-7,2-6,…,27}中進(jìn)行選擇。在ALFLS-OCSVM算法中,參數(shù)C的選擇范圍為{10-3,10-2,…,103},參數(shù)α在{10-10,10-9,…,0, 0.1,…,1,2,…,10}進(jìn)行選擇,參數(shù)c的選擇范圍為{0.001,0.01,0.1, 0.2,…,1,2,…,10};在WOC-OCSVM算法中,參數(shù)γ的選擇范圍為{0,0,1,…,1},參數(shù)ν在{10-4, 10-3,…,103}
中進(jìn)行選擇,參數(shù)k的選擇范圍為{2,4,6,…,20}。在RAEOCSVM算法中,基分類器參數(shù)ν與OCSVM算法中的ν取值相同,基分類器的權(quán)重為20。在iForest算法中,參數(shù)ψ為256,參數(shù)t為100。
2.4 實(shí)驗(yàn)結(jié)果
表1中匯報(bào)了OCODM算法和其他對(duì)比算法在CIFAR、MNIST和COIL子數(shù)據(jù)集上的AUC值和標(biāo)準(zhǔn)差。從表中可以發(fā)現(xiàn),本文方法OCODM比其他對(duì)比算法在全部數(shù)據(jù)集上都獲得了更好的分類性能。以CIFAR-5子數(shù)據(jù)集為例,OCSVM、SVDD、ALFLS-OCSVM、WOC-SVM、RAEOCSVM和iForest的平均AUC值分別為0.612、0.591、0.646、0.622、0.637和0.591,本文方法OCODM的平均AUC值為0.706。OCODM算法相比于其他對(duì)比算法在AUC值上獲得了0.060~0.115的提升。
WOC-SVM、RAEOCSVM、ALFLS-OCSVM、OCSVM和SVDD都是基于OCSVM模型的一類分類方法。從表1中還可以看出,一方面,WOC-SVM、RAEAOCSVM和ALFLOCSVM的性能優(yōu)于OCSVM和SVDD。例如,在表1中的MNIST-4子數(shù)據(jù)集上,WOC-SVM、RAEOCSVM和ALFLS-OCSVM的平均AUC值分別為0.731,0.772和0.751,高于OCSVM的0.712和SVDD的0.699。WOC-SVM、RAEOCSVM和ALFLS-OCSVM是基于OCSVM提出的,它們通過(guò)設(shè)計(jì)不同的策略來(lái)減少噪聲對(duì)分類器的影響。另一方面,OCODM算法獲得了最高的分類精度,其性能優(yōu)于WOC-SVM、RAEOCSVM和ALFLS-OCSVM算法。以COIL-3子數(shù)據(jù)集為例,OCODM算法的AUC值為0.968,明顯高于WOC-SVM的0.917、RAEOSVM的0.924和ALFLS-OCSVM的0.913。盡管WOCSVM、RAEOCSVM和ALFLS-OCSVM采用了不同的策略來(lái)減少噪聲的影響,但它們都是基于OCSVM提出的。在OCSVM及其變體方法中,通過(guò)優(yōu)化最小間隔來(lái)學(xué)習(xí)分類器,即最大化實(shí)例到原點(diǎn)的最小距離,而目標(biāo)類的總體分布沒(méi)有得到充分考慮。與這些方法不同,OCODM將目標(biāo)類的分布信息融入到一分類分類器的學(xué)習(xí)過(guò)程中,這使得OCODM算法具有更好的泛化性能,并導(dǎo)致更準(zhǔn)確的分類結(jié)果。此外,跟OCSVM類似,本文方法是一個(gè)基礎(chǔ)分類器,可作為WOC-SVM、RAEAOCSVM和ALFLS-OCSVM的基礎(chǔ)分類器來(lái)進(jìn)一步提高它們的泛化性能。
2.5 間隔分布分析
圖2給出了OCODM和經(jīng)典的最大間隔方法OCSVM的間隔分布,可以觀察到OCODM的曲線總是位于OCSVM的右側(cè),OCODM方法比OCSVM方法獲得更大的間隔,這意味著OCODM具有更好的泛化性能。
2.6 參數(shù)敏感度分析
OCODM算法有三個(gè)參數(shù),分別是μ、θ和C。參數(shù)θ與算法的稀疏性相關(guān),參數(shù)C是為了權(quán)衡間隔均值和間隔方差。為了研究OCODM受參數(shù)變化的影響情況,將μ設(shè)置為1,并分析參數(shù)θ和C對(duì)OCODM算法性能的影響。圖3展示了OCODM算法性能在不同參數(shù)組合下的變化情況。本文選擇在COIL-2、COIL-4、CIFAR-5和MNIST-1數(shù)據(jù)集上進(jìn)行參數(shù)敏感性分析。從圖2可以看出,OCODM算法對(duì)參數(shù)C比較不敏感。此外,當(dāng)參數(shù)C選擇相對(duì)大的數(shù)(100或者1 000),并且參數(shù)θ選擇0.4或者0.6時(shí),OCODM算法可以獲得更好的分類性能。
2.7 運(yùn)行時(shí)間分析
表2給出了在CIFAR、MNIST和COIL數(shù)據(jù)集上的平均訓(xùn)練時(shí)間。從表2可以看出:a)OCSVM和SVDD的訓(xùn)練時(shí)間最快。它們只需要求解一個(gè)規(guī)模為m的QP問(wèn)題,這里,m為訓(xùn)練實(shí)例數(shù)量;b)相比于OCSVM和SVDD,WOC-SVM、OCODM和ALFLS-OCSVM方法的訓(xùn)練時(shí)間較長(zhǎng),這是因?yàn)閃OC-SVM方法需要額外的數(shù)據(jù)預(yù)處理時(shí)間,計(jì)算每一個(gè)實(shí)例的K近鄰和權(quán)重,再訓(xùn)練OCSVM分類器。OCODM方法需要求解一個(gè)規(guī)模為2m的QP問(wèn)題。ALFLS-OCSVM方法采用了自適應(yīng)損失函數(shù),需要多次循環(huán)調(diào)整拉格朗日乘子。最后, RAEOCSVM方法的訓(xùn)練時(shí)間最長(zhǎng)。RAEOCSVM采用了循環(huán)迭代的框架,需要多次訓(xùn)練OCSVM分類器,訓(xùn)練時(shí)間較長(zhǎng)。
2.8 不同噪聲水平對(duì)算法性能的影響
為了研究不同噪聲水平對(duì)算法性能的影響,需要對(duì)數(shù)據(jù)集添加額外的噪聲信息。這里,使用Aggarwal 等人[20] 的相同方法來(lái)生成噪聲信息。首先,計(jì)算在第i維中整個(gè)數(shù)據(jù)的標(biāo)準(zhǔn)差為 σ0i;其次,為了模擬不同維度上的噪聲差異,定義第 i 維標(biāo)準(zhǔn)差σi從范圍 [0, 2σ0i] 中獲??;再次,將標(biāo)準(zhǔn)偏差為σ0i的隨機(jī)分布噪聲添加到第 i維;最后,根據(jù)相應(yīng)的噪聲百分比隨機(jī)選擇若干實(shí)例,并將這種噪聲信息添加到被選擇的實(shí)例中。
圖4顯示了在COIL-1、COIL-5、MNIST-2和CIFAR-1數(shù)據(jù)集上,噪聲百分比以5%為步長(zhǎng),從5%變化到30%的過(guò)程中AUC值的變化情況??梢钥闯?,從總體趨勢(shì)來(lái)看,隨著噪聲百分比的增加,7種方法的分類性能均有所下降。此外,OCODM在這些數(shù)據(jù)集上都獲得了更好的抗噪聲效果,具有更好魯棒性。
2.9 在真實(shí)數(shù)據(jù)集上的分析
為了驗(yàn)證OCODM方法的有效性,對(duì)滾動(dòng)軸承實(shí)驗(yàn)臺(tái)上的軸承故障數(shù)據(jù)進(jìn)行分析,實(shí)驗(yàn)數(shù)據(jù)來(lái)自美國(guó) Case Western Reserve University 電氣工程實(shí)驗(yàn)室。該實(shí)驗(yàn)室利用電火花加工的方法在測(cè)試軸承上產(chǎn)生不同故障等級(jí),分別是內(nèi)圈故障、滾動(dòng)體故障和外圈滾道故障。使用加速度傳感器來(lái)收集四種不同工況(即空載、輕載、滿載和超載)下的振動(dòng)數(shù)據(jù)。振動(dòng)信號(hào)通過(guò)一個(gè)16通道的采集器來(lái)記錄,并在MATLAB環(huán)境中進(jìn)行數(shù)據(jù)處理,所有的數(shù)據(jù)文件都被保存成MATLAB格式。在實(shí)驗(yàn)中,選擇采樣頻率為12 kHz的數(shù)據(jù),采樣長(zhǎng)度為 512點(diǎn)。為了達(dá)到較好的分類效果,訓(xùn)練實(shí)例應(yīng)包括多種正常工況下的數(shù)據(jù),以盡可能地代表其真實(shí)分布。因此,訓(xùn)練集包含了四種不同工況(即空載、輕載、滿載和超載)下的120組正常實(shí)例;測(cè)試集包含了四種不同工況下的120組正常實(shí)例、60組內(nèi)圈故障實(shí)例、60組滾動(dòng)體故障實(shí)例和60組外圈故障實(shí)例。
由于測(cè)試集包含了四個(gè)類別的數(shù)據(jù)類型,即正常實(shí)例、內(nèi)圈故障實(shí)例、滾動(dòng)體故障實(shí)例和外圈故障實(shí)例,為了更好地展示不同算法在不同類型數(shù)據(jù)上的分類表現(xiàn),表3給出了在四個(gè)類別數(shù)據(jù)上的識(shí)別率。可以看出,OCODM分類器獲得相對(duì)較好的分類性能,對(duì)正常實(shí)例的識(shí)別率為92.50%,內(nèi)圈故障和外圈故障的識(shí)別率均達(dá)到100%,滾動(dòng)體故障的識(shí)別率為93.33%,較好地識(shí)別了正常實(shí)例和故障實(shí)例,得到了較高的診斷準(zhǔn)確率,在故障診斷中利用該方法能夠有效識(shí)別出設(shè)備的運(yùn)行狀態(tài),從而避免發(fā)生重大損失。
3 結(jié)束語(yǔ)
本文提出了一種基于最優(yōu)間隔分布的一分類學(xué)習(xí)算法,該算法首次將優(yōu)化間隔分布的思想引進(jìn)到一分類的學(xué)習(xí)中。通過(guò)最大化間隔均值和最小間隔方差的思想,將目標(biāo)類的分布信息融入到一分類分類器的學(xué)習(xí)過(guò)程中。與OCSVM類似,OCODM算法是一個(gè)基礎(chǔ)分類器,可以將其結(jié)合到現(xiàn)有的基于OCSVM的方法中,以進(jìn)一步增強(qiáng)其分類性能。在基準(zhǔn)一分類數(shù)據(jù)集和真實(shí)數(shù)據(jù)集上進(jìn)行了實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,OCODM算法分類效果良好,具有較好的魯棒性,是現(xiàn)有一分類支持向量機(jī)算法的有益補(bǔ)充。
但是,OCODM算法存在一定的局限性。該算法需要求解規(guī)模為2m的QP問(wèn)題,因此,其時(shí)間復(fù)雜度為O(4m2),運(yùn)行時(shí)間相對(duì)較長(zhǎng)。為了加快該算法的優(yōu)化求解,在未來(lái)的工作中,將嘗試擴(kuò)展現(xiàn)有的支持向量機(jī)快速優(yōu)化算法,例如dual coordinate descent算法[21]等,用于加快OCODM優(yōu)化問(wèn)題的求解,提高運(yùn)行效率。
參考文獻(xiàn):
[1]羅力維. 基于一分類支持向量機(jī)的無(wú)線傳感器網(wǎng)絡(luò)離群值檢測(cè)算法研究 [D]. 南昌: 南昌大學(xué),2022. (Luo Liwei. Research on outlier detection algorithm for wireless sensor networks based on one classification support vector machine [D]. Nanchang: Nanchang University,2022.)
[2]Bicego M,F(xiàn)igueiredo M. Soft clustering using weighted one-class support vector machines [J]. Pattern Recognition,2009,42(1): 27-32.
[3]Yin Shen,Zhu Xiangping,Chen Chen. Fault detection based on a robust one class support vector machine [J]. Neurocomputing,2014,145(5): 263-268.
[4]Zhu Fa,Yang Jian,Gao Cong,et al. A weighted one-class support vector machine [J]. Neurocomputing,2016,189(12): 1-10.
[5]Xiao Yingchao,Wang Huangang,Xu Wenli. Ramp loss based robust one-class SVM [J]. Pattern Recognition Letters,2017,85(1): 15-20.
[6]Xu Guibiao,Cao Zheng,Hu Baogang,et al. Robust support vector machines based on the rescaled hinge loss function [J]. Pattern Re-cognition,2017,63: 139-148.
[7]張騰. 最優(yōu)間隔分布學(xué)習(xí)機(jī) [D]. 南京: 南京大學(xué),2019. (Zhang Teng. Optimal margin distribution machine [D]. Nanjing: Nanjing University,2019.)
[8]Zhang Teng,Zhou Zhihua. Optimal margin distribution machine [J]. IEEE Trans on Knowledge and Data Engineering,2020,32(6): 1143-1156.
[9]Zhang Teng,Zhou Zhihua. Multi-class optimal margin distribution machine [C]//Proc of the 34th International Conference on Machine Learning. [S.l.]: JMLR.org,2017: 4063-4071.
[10]Tan Z H,Tan Peng,Jiang Yuan,et al. Multi-label optimal margin distribution machine [J]. Machine Learning,2019,109(9): 623-642.
[11]張騰,黎銘,金海. 面向半監(jiān)督聚類的最優(yōu)間隔分布學(xué)習(xí)機(jī) [J]. 中國(guó)科學(xué): 信息科學(xué),2022,52(1): 86-98. (Zhang Teng,Li Ming,Jin Hai. Optimal margin distribution machine for semi-supervised clustering [J]. Chinese Science: Information Science,2022,52(1): 86-98.)
[12]Tax D M J,Duin R P W. Support vector data description [J]. Machine Learning,2004,54(1): 45-66.
[13]Xing Hongjie,He Zichuan. Adaptive loss function based least squares one-class support vector machine [J]. Pattern Recognition Letters,2022,156: 174-182.
[14]Zhao Yongping,Huang Gong,Hu Qiankun,et al. An improved weighted one class support vector machine for turboshaft engine fault detection [J]. Engineering Applications of Artificial Intelligence,2020,94(9): 103796.
[15]Xing Hongjie,Liu Weitao. Robust AdaBoost based ensemble of one-class support vector machines [J]. Information Fusion,2020,55(3): 45-58.
[16]Liu F T,Ting Kaiming,Zhou Zhihua. Isolation forest [C]// Proc of the 8th IEEE International Conference on Data Mining. Piscataway,NJ: IEEE Press,2008: 413-422.
[17]Krizhevsky A,Hinton G. Learning multiple layers of features from tiny images [EB/OL]. (2009). https://learning2hash.github.io/publications/cifar2009learning/.
[18]LeCun Y,Bottou L,Bengio Y,et al. Gradient-based learning applied to document recognition [J]. Proceedings of the IEEE,1998,86(11): 2278-2324.
[19]Nene S A,Nayar S K,Murase H. Columbia university image library (coil-20),Technical Report CUCS-005-96 [R]. [S.l.]:Columbia University,1996.
[20]Aggarwal C,Philip S Y. A framework for clustering uncertain data streams [C]// Proc of the 24th IEEE International Conference on Data Engineering. Piscataway,NJ: IEEE Press,2008: 150-159.
[21]Chou H Y,Lin P Y,Lin C J. Dual coordinate-descent methods for linear one-class SVM and SVDD [C]// Proc of SIAM International Conference on Data Mining. 2020: 181-189.
收稿日期:2022-12-19;修回日期:2023-02-20? 基金項(xiàng)目:國(guó)家自然科學(xué)基金資助項(xiàng)目(62076074)
作者簡(jiǎn)介:林鈞濤(1996-),男,廣東汕頭人,碩士研究生,主要研究方向?yàn)闄C(jī)器學(xué)習(xí)(linjuntao0824@163.com);肖燕珊(1981-),女,廣東中山人,教授,博士,主要研究方向?yàn)闄C(jī)器學(xué)習(xí);劉波(1978-),男,河南鶴壁人,教授,博士,主要研究方向?yàn)橹С窒蛄繖C(jī)