魏峻
摘 要: 對(duì)于癌癥分類(lèi)來(lái)說(shuō),最重要的一個(gè)問(wèn)題就是識(shí)別出對(duì)癌癥分類(lèi)最有貢獻(xiàn)的基因。提出一種新的特征基因選擇方法(ReliefF_DE),選取了4個(gè)公共微陣列基因數(shù)據(jù)集進(jìn)行仿真實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明該方法可以在較少的特征基因下取得較高精度,且所選的特征基因與癌癥密切相關(guān),進(jìn)一步驗(yàn)證了方法的可行性和有效性。
關(guān)鍵詞: DNA微陣列; 支持向量機(jī); 特征基因; 特征選取
中圖分類(lèi)號(hào): TN911.7?34; TP18 文獻(xiàn)標(biāo)識(shí)碼: A 文章編號(hào): 1004?373X(2014)13?0095?04
Method of effective DNA microarray data feature extraction
WEI Jun
(College of Mthematics and Computer Science, Shaanxi University of Technology, Hanzhong 723000, China)
Abstract: As for cancer classification, it is important to identify the genes contributing to cancer classification. A new feature gene selection method (ReliefF_DE) is presented in this paper. Four public microarray gene data sets were selected to carry on the simulation experiment. The experimental results show that the method can achieve high identification accuracy in the case of a few feature genes, and the selected feature genes are closely related to cancers. The feasibility and effectiveness of the method were verified further.
Keywords: DNA microarray; support vector machine; feature gene; feature extraction
0 引 言
微陣列數(shù)據(jù)[1]廣泛而成功地應(yīng)用于生物醫(yī)學(xué)的癌癥分類(lèi)研究。一個(gè)典型的微陣列數(shù)據(jù)集包含大量(通常成千上萬(wàn),甚至數(shù)十萬(wàn))的基因和相對(duì)較少(往往少于一百)的樣本。在這成千上萬(wàn)的基因中,只有一小部分基因有助于癌癥分類(lèi)。因此,對(duì)于癌癥的分類(lèi),如何找到對(duì)于樣本分類(lèi)來(lái)說(shuō)起決定性作用的一組基因作為樣本的分類(lèi)特征基因,是建立一個(gè)有效分類(lèi)模型的關(guān)鍵所在,同時(shí)也是發(fā)現(xiàn)腫瘤分類(lèi)與分型的基因標(biāo)記物及藥物治療潛在靶點(diǎn)的重要手段。
鑒于特征基因的選取在腫瘤分類(lèi)中的重要作用,研究者們針對(duì)該問(wèn)題提出了大量研究方案[2?6]。本文在分析腫瘤基因表達(dá)譜特征的基礎(chǔ)上,提出了基于ReliefF_DE的基因特征選擇方法。首先采用ReliefF算法計(jì)算每個(gè)基因與分類(lèi)屬性的相關(guān)性,并進(jìn)行降序排列,取[N]個(gè)關(guān)聯(lián)性較大的基因作為候選基因子集;再使用差分進(jìn)化算法對(duì)候選基因子集進(jìn)行特征基因選擇。本文選取了4個(gè)公共微陣列基因數(shù)據(jù)集進(jìn)行仿真實(shí)驗(yàn),實(shí)驗(yàn)結(jié)果表明,本文算法不僅可以在特征屬性的選擇上剔除了大量的冗余屬性,而且分類(lèi)精度有較大的提高。
1 ReliefF算法
1992年Kira和Rendell首先提出Relief算法[7],算法首先對(duì)隨機(jī)選擇的[m]個(gè)樣本的假設(shè)間隔進(jìn)行計(jì)算,然后將計(jì)算結(jié)果累加起來(lái)作為屬性的權(quán)值,最后根據(jù)屬性權(quán)值的大小就可以近似地估計(jì)出對(duì)于分類(lèi)最有用的特征子集。
假設(shè)間隔定義為在保持樣本分類(lèi)不變的情況下決策面能夠移動(dòng)的最大距離,可表示為:
[θ=12x-M(x)-x-H(x)] (1)
式中:[H(x),][M(x)]分別是與[x]同類(lèi)和非同類(lèi)最近鄰點(diǎn)。
樣本[x]更新屬性[p]的權(quán)值可表示為:
[Wi+1p=Wip-diff(p,x,H(x))m+diff(p,x,M(x))m] (2)
最初,Relief算法主要針對(duì)兩類(lèi)問(wèn)題。于是1994年Kononenko對(duì)Relief算法進(jìn)行了改進(jìn)[8],提出ReliefF算法。算法的思想是將分類(lèi)問(wèn)題視為一類(lèi)對(duì)多類(lèi)關(guān)系加以解決,使算法可以解決多類(lèi)問(wèn)題和回歸問(wèn)題。其改進(jìn)主要是在權(quán)值更新上,權(quán)值更新公式為:
[Wi+1p=Wip-j=1kdiff(p,x,Hj(x))m×k+C≠class(x)P(C)1-P(class(x))i=1kdiff(p,x,Mj(x))m×k] (3)
ReliefF算法的基本步驟:從訓(xùn)練樣本集中隨機(jī)抽取出一個(gè)樣本[x];從與[x]同類(lèi)的樣本集中找出樣本[x]的[k]個(gè)近鄰樣本;從與[x]每個(gè)不同類(lèi)的樣本集中找出[k]個(gè)近鄰樣本;根據(jù)式(3)更新每個(gè)特征的權(quán)值。
ReliefF算法的優(yōu)點(diǎn):運(yùn)行效率高、多類(lèi)型問(wèn)題處理、特征間的關(guān)系不敏感。缺點(diǎn):不能很好地處理冗余特征,對(duì)與類(lèi)別相關(guān)性高的特征都賦予較高的權(quán)值,而不考慮它們之間是否存在冗余特征。
2 差分進(jìn)化算法
差分進(jìn)化算法(Differential Evolution,DE)[9?10]是基于群體搜索的啟發(fā)式算法,通過(guò)種群內(nèi)個(gè)體間的合作與競(jìng)爭(zhēng)來(lái)實(shí)現(xiàn)對(duì)優(yōu)化問(wèn)題的求解。算法的基本步驟[11?12]如下:
(1) 初始化種群
初始種群[x0i=xLi+rand(0,1)×(xUi-xLi),][i=1,2,…,NP。]其中[x0i]表示種群中第[0]代的第[i]條“染色體”(或個(gè)體),[NP]表示種群的大小,[rand(0,1)]表示在[(0,1)]區(qū)間均勻分布的隨機(jī)數(shù)。
(2) 變異操作
從種群中隨機(jī)選擇4個(gè)不同個(gè)體生成差分矢量對(duì)每代最優(yōu)個(gè)體進(jìn)行變異操作,這樣既能提高算法的收斂速度,又能在一定程度上保持較高的種群多樣性。
變異操作方式為:
[vg+1i=xg+1best+k[(xg+1s1-xg+1s2)+(xg+1s3-xg+1s4)]] (4)
式中:[vg+1i]是對(duì)每一個(gè)[g] 代個(gè)體 [xgi] 利用式(4)進(jìn)行變異操作而得到的變異個(gè)體;[xg+1best]是[g+1]中的最優(yōu)個(gè)體;[g]是當(dāng)前代;[s1,s2,s3,s4∈1,2,…,N] 是互不相同與[i]不同的隨機(jī)數(shù);[k∈0,1.5]為縮放因子,對(duì)差分量進(jìn)行放大和縮小控制。
(3) 交叉操作
為了提高種群的多樣性,交叉操作方式為:
[yg+1i=vg+1i,j,rand(j)≤CRxgi,j,rand(j)>CR] (5)
式中:[yg+1i]是利用式(5)對(duì)[xgi]和由式(4)生成的變異個(gè)體進(jìn)行交叉操作而得到的試驗(yàn)個(gè)體;[rand(j)]是[[0,1]]之間的均勻分布隨機(jī)數(shù);[CR∈[0,1]]為交叉概率。[CR]越大,[vg+1i]對(duì)[yg+1i]的貢獻(xiàn)越多,當(dāng)[CR=1]時(shí),[vg+1i=yg+1i,]有利于局部搜索和加速收斂速率;[CR]越小,[xgi]對(duì)[yg+1i]的貢獻(xiàn)越多,當(dāng)[CR=0]時(shí),[xgi=yg+1i]有利于保持種群的多樣性和全局搜索能力。
(4) 選擇操作
采用“貪婪”搜索策略,經(jīng)過(guò)變異和交叉操作后生成的試驗(yàn)個(gè)體[yg+1i]與[xgi]進(jìn)行競(jìng)爭(zhēng)。只有當(dāng)[yg+1i]的適應(yīng)度比[xgi]更優(yōu)時(shí)才被選作子代;否則,[xgi]直接將作為子代。
選擇操作方式為:
[xg+1i=yg+1i,f(yg+1i) 式中[f]為目標(biāo)函數(shù)。 DE算法具有如下優(yōu)點(diǎn):算法通用,不依賴于問(wèn)題信息;算法原理簡(jiǎn)單,容易實(shí)現(xiàn);群體搜索,具有記憶個(gè)體最優(yōu)解的能力;協(xié)同搜索,具有利用個(gè)體局部信息和群體全局信息指導(dǎo)算法進(jìn)一步搜索的能力;易于與其他算法混合,構(gòu)造出具有更優(yōu)性能的算法。 3 基于ReliefF_DE的基因特征選擇方法 支持向量機(jī)[13?14](Support Vector Machine,SVM)是以結(jié)構(gòu)風(fēng)險(xiǎn)最小為原則的一種機(jī)器學(xué)習(xí)算法,在研究小樣本、高維性的問(wèn)題中具有突出的優(yōu)勢(shì),因此本文使用SVM作為分類(lèi)器。 本文算法的具體步驟為: 步驟1:數(shù)據(jù)的標(biāo)準(zhǔn)化處理。 利用[x*=x-xminxmax-xmin]對(duì)數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化處理,消除量綱等的影響。 步驟2:基于ReliefF算法的基因初選。 采用ReliefF算法計(jì)算每個(gè)基因與分類(lèi)屬性的相關(guān)性,并進(jìn)行降序排列,取[N]個(gè)關(guān)聯(lián)性較大的基因作為候選基因子集。 步驟3:基于DE算法的特征基因選擇。 (1) 設(shè)置參數(shù):種群的大小NP;變量的維數(shù)[D;]放大因子[F;]交叉概率CR;迭代次數(shù)[T;] (2) 初始化種群:[t=0,]利用[xti=round(rand(1,D))],[(i=1,2,…,NP)]隨機(jī)產(chǎn)生NP個(gè)長(zhǎng)度為[D]由0、1組成的向量。其中向量中的‘1代表該位置對(duì)應(yīng)的基因被選擇,‘0代表該位置對(duì)應(yīng)的基因不被選擇; (3) 計(jì)算當(dāng)前種群中個(gè)體適應(yīng)度:根據(jù)[xti]生成對(duì)應(yīng)的訓(xùn)練子集和測(cè)試子集,利用支持向量機(jī)進(jìn)行訓(xùn)練測(cè)試,把在測(cè)試集上的分類(lèi)精度作為這個(gè)個(gè)體的適應(yīng)度值[fti=f(xti);] (4) 利用式(4)進(jìn)行變異操作,產(chǎn)生變異個(gè)體[vg+1i]; (5) 利用式(5)進(jìn)行交叉操作,產(chǎn)生交叉?zhèn)€體[yg+1i]; (6) 利用式(6)進(jìn)行選擇操作,產(chǎn)生新一代種群; (7) 判斷算法是若達(dá)到最大迭代次數(shù)或達(dá)到誤差要求,若達(dá)到終止條件則輸出最優(yōu)個(gè)體;否則回到步驟(3)繼續(xù)執(zhí)行。 4 仿真實(shí)驗(yàn) 4.1 實(shí)驗(yàn)數(shù)據(jù) 為了驗(yàn)證本文算法的有效性和實(shí)用性,選取了4個(gè)公共微陣列基因數(shù)據(jù)集進(jìn)行仿真實(shí)驗(yàn)。數(shù)據(jù)集描述具體見(jiàn)表1。 4.2 實(shí)驗(yàn)結(jié)果及分析 相關(guān)參數(shù)設(shè)置:ReliefF算法中參數(shù)[k=5](近鄰樣本個(gè)數(shù));DE算法中參數(shù)[T=500](最大迭代次數(shù)),[NP=15](種群大小),[F=1](放大因子),CR=0.5(交叉概率)。 (1) 實(shí)驗(yàn)1:利用ReliefF算法所獲得的基因個(gè)數(shù)對(duì)分類(lèi)精度的影響 圖1顯示了排序靠前的基因個(gè)數(shù)與分類(lèi)精度之間的關(guān)系。可以清楚的看到,分類(lèi)精度并沒(méi)有隨著基因個(gè)數(shù)的增加而提高,而是在上升到一定分類(lèi)精度后隨著基因個(gè)數(shù)的增加反而下降很快,這說(shuō)明冗余基因?qū)Ψ诸?lèi)精度的影響很大,對(duì)分類(lèi)有重要貢獻(xiàn)的只是一少部分基因。 (2) 實(shí)驗(yàn)2:本文算法的性能比較 圖2分別顯示了利用本文算法的迭代過(guò)程。從圖上清楚的看到,4個(gè)數(shù)據(jù)集均在500次迭代以內(nèi),算法達(dá)到收斂,并獲得了SVM分類(lèi)的最優(yōu)適應(yīng)度值及其對(duì)應(yīng)的最優(yōu)個(gè)體。 表2給出了本文算法的實(shí)驗(yàn)結(jié)果。 圖1 排序靠前的基因個(gè)數(shù)與分類(lèi)精度之間的關(guān)系
數(shù)據(jù)集Leukemia1的屬性個(gè)數(shù)從4 606個(gè)減少到11個(gè),而分類(lèi)精度從48%提高到100%;數(shù)據(jù)集Leukemia2的屬性個(gè)數(shù)從7 129個(gè)減少到10個(gè),而分類(lèi)精度從55.8%提高到100%;數(shù)據(jù)集MLLLeukemia的屬性個(gè)數(shù)從12 582個(gè)減少到33個(gè),而分類(lèi)精度從68.8%提高到100%;數(shù)據(jù)集ALL的屬性個(gè)數(shù)從12 625個(gè)減少到41個(gè),而分類(lèi)精度從68%提高到98%。這說(shuō)明,本文算法不僅在分類(lèi)精度有較大的提高,而且在特征屬性的選擇上剔除了大量的冗余屬性。
圖2 本文算法的迭代過(guò)程
所以本文算法對(duì)基因?qū)傩缘奶卣鬟x擇是有效的,所獲得的最優(yōu)個(gè)體能較大的提高分類(lèi)精度和減少屬性的個(gè)數(shù)。
5 結(jié) 論
針對(duì)DNA微陣列基因表達(dá)數(shù)據(jù)樣本小、維數(shù)高的特點(diǎn),本文提出了基于ReliefF_DE的微陣列基因特征提出的算法。實(shí)驗(yàn)表明,本文算法不僅可以在特征屬性的選擇上剔除了大量的冗余屬性,而且分類(lèi)精度有較大的提高。說(shuō)明本文算法具有一定的實(shí)用性,值得進(jìn)一步的理論研究。
參考文獻(xiàn)
[1] SCHENA M. Quantitative monitoring of gene expression patterns with a DNA microarray [J]. Science, 1995, 270(5235) : 467?470.
[2] 李凌波,張靜,陳丹.基于SVM和平均影響值的人腫瘤信息基因提取[J].生物信息學(xué),2013(1):72?78.
[3] 李建更,李輝,阮曉鋼.一種有效的腫瘤特征基因篩選方法[J].中南大學(xué)學(xué)報(bào):自然科學(xué)版,2013(z2):284?288.
[4] 秦傳東,劉三陽(yáng),張市芳.一種腫瘤基因的支持向量機(jī)提取方法[J].西安電子科技大學(xué)學(xué)報(bào),2012(1):191?196.
[5] 張靖,胡學(xué)鋼,張玉紅,等.K?split Lasso:有效的腫瘤特征基因選擇方法[J].計(jì)算機(jī)科學(xué)與探索,2012(12):1136?1143.
[6] 于彬,張巖.基于GA?SVM方法的結(jié)腸癌基因表達(dá)譜數(shù)據(jù)分析[J].青島科技大學(xué)學(xué)報(bào):自然科學(xué)版,2012(6):587?592.
[7] KIRA K,RENDELL L A. The feature selection problem: traditional methods and a new algorithm [C]// Proceedings of the 10th National Conference on Artificial Intelligence. Cambridge, MA: The MIT Press, 1992: 129?134.
[8] KONONENKO I. Estimation attributes: analysis and extensions of RELIEF [C]// Proceedings of the 1994 European Conference on Machine Learning. [S. l.]: ACM Press, 1997: 273?324.
[9] STORN R, PDEE K. Differential evolution: a simple and efficient heuristie for global optimization over continuous spaees [J]. Joumal of Global Optsmization, 1997, 11(4): 341?359.
[10] STORN R, PRICE K. Differential evolution: a simple and efficient adaptive seheme for global optimization over continuous spaees,TR?95?012 [R]. Berkeley, USA: International Computer Seienee Institute, University of California, 1995.
[11] 陳濤.基于DE?SVM非線性組合預(yù)測(cè)模型的研究[J].計(jì)算機(jī)工程與應(yīng)用,2011(13):33?36.
[12] 陳濤.基于差分進(jìn)化算法的支持向量回歸機(jī)參數(shù)優(yōu)化[J].計(jì)算機(jī)仿真,2011(6):198?201.
[13] VAPNIK V N. The nature of statistical learning theory [M]. New York: Springer?Verlag Inc, 1995.
[14] CRISTIANINI N, SHAWE?TAYLOR J. An introduction to support vector machines [M]. Cambridge: Cambridge University Press, 2000.
數(shù)據(jù)集Leukemia1的屬性個(gè)數(shù)從4 606個(gè)減少到11個(gè),而分類(lèi)精度從48%提高到100%;數(shù)據(jù)集Leukemia2的屬性個(gè)數(shù)從7 129個(gè)減少到10個(gè),而分類(lèi)精度從55.8%提高到100%;數(shù)據(jù)集MLLLeukemia的屬性個(gè)數(shù)從12 582個(gè)減少到33個(gè),而分類(lèi)精度從68.8%提高到100%;數(shù)據(jù)集ALL的屬性個(gè)數(shù)從12 625個(gè)減少到41個(gè),而分類(lèi)精度從68%提高到98%。這說(shuō)明,本文算法不僅在分類(lèi)精度有較大的提高,而且在特征屬性的選擇上剔除了大量的冗余屬性。
圖2 本文算法的迭代過(guò)程
所以本文算法對(duì)基因?qū)傩缘奶卣鬟x擇是有效的,所獲得的最優(yōu)個(gè)體能較大的提高分類(lèi)精度和減少屬性的個(gè)數(shù)。
5 結(jié) 論
針對(duì)DNA微陣列基因表達(dá)數(shù)據(jù)樣本小、維數(shù)高的特點(diǎn),本文提出了基于ReliefF_DE的微陣列基因特征提出的算法。實(shí)驗(yàn)表明,本文算法不僅可以在特征屬性的選擇上剔除了大量的冗余屬性,而且分類(lèi)精度有較大的提高。說(shuō)明本文算法具有一定的實(shí)用性,值得進(jìn)一步的理論研究。
參考文獻(xiàn)
[1] SCHENA M. Quantitative monitoring of gene expression patterns with a DNA microarray [J]. Science, 1995, 270(5235) : 467?470.
[2] 李凌波,張靜,陳丹.基于SVM和平均影響值的人腫瘤信息基因提取[J].生物信息學(xué),2013(1):72?78.
[3] 李建更,李輝,阮曉鋼.一種有效的腫瘤特征基因篩選方法[J].中南大學(xué)學(xué)報(bào):自然科學(xué)版,2013(z2):284?288.
[4] 秦傳東,劉三陽(yáng),張市芳.一種腫瘤基因的支持向量機(jī)提取方法[J].西安電子科技大學(xué)學(xué)報(bào),2012(1):191?196.
[5] 張靖,胡學(xué)鋼,張玉紅,等.K?split Lasso:有效的腫瘤特征基因選擇方法[J].計(jì)算機(jī)科學(xué)與探索,2012(12):1136?1143.
[6] 于彬,張巖.基于GA?SVM方法的結(jié)腸癌基因表達(dá)譜數(shù)據(jù)分析[J].青島科技大學(xué)學(xué)報(bào):自然科學(xué)版,2012(6):587?592.
[7] KIRA K,RENDELL L A. The feature selection problem: traditional methods and a new algorithm [C]// Proceedings of the 10th National Conference on Artificial Intelligence. Cambridge, MA: The MIT Press, 1992: 129?134.
[8] KONONENKO I. Estimation attributes: analysis and extensions of RELIEF [C]// Proceedings of the 1994 European Conference on Machine Learning. [S. l.]: ACM Press, 1997: 273?324.
[9] STORN R, PDEE K. Differential evolution: a simple and efficient heuristie for global optimization over continuous spaees [J]. Joumal of Global Optsmization, 1997, 11(4): 341?359.
[10] STORN R, PRICE K. Differential evolution: a simple and efficient adaptive seheme for global optimization over continuous spaees,TR?95?012 [R]. Berkeley, USA: International Computer Seienee Institute, University of California, 1995.
[11] 陳濤.基于DE?SVM非線性組合預(yù)測(cè)模型的研究[J].計(jì)算機(jī)工程與應(yīng)用,2011(13):33?36.
[12] 陳濤.基于差分進(jìn)化算法的支持向量回歸機(jī)參數(shù)優(yōu)化[J].計(jì)算機(jī)仿真,2011(6):198?201.
[13] VAPNIK V N. The nature of statistical learning theory [M]. New York: Springer?Verlag Inc, 1995.
[14] CRISTIANINI N, SHAWE?TAYLOR J. An introduction to support vector machines [M]. Cambridge: Cambridge University Press, 2000.
數(shù)據(jù)集Leukemia1的屬性個(gè)數(shù)從4 606個(gè)減少到11個(gè),而分類(lèi)精度從48%提高到100%;數(shù)據(jù)集Leukemia2的屬性個(gè)數(shù)從7 129個(gè)減少到10個(gè),而分類(lèi)精度從55.8%提高到100%;數(shù)據(jù)集MLLLeukemia的屬性個(gè)數(shù)從12 582個(gè)減少到33個(gè),而分類(lèi)精度從68.8%提高到100%;數(shù)據(jù)集ALL的屬性個(gè)數(shù)從12 625個(gè)減少到41個(gè),而分類(lèi)精度從68%提高到98%。這說(shuō)明,本文算法不僅在分類(lèi)精度有較大的提高,而且在特征屬性的選擇上剔除了大量的冗余屬性。
圖2 本文算法的迭代過(guò)程
所以本文算法對(duì)基因?qū)傩缘奶卣鬟x擇是有效的,所獲得的最優(yōu)個(gè)體能較大的提高分類(lèi)精度和減少屬性的個(gè)數(shù)。
5 結(jié) 論
針對(duì)DNA微陣列基因表達(dá)數(shù)據(jù)樣本小、維數(shù)高的特點(diǎn),本文提出了基于ReliefF_DE的微陣列基因特征提出的算法。實(shí)驗(yàn)表明,本文算法不僅可以在特征屬性的選擇上剔除了大量的冗余屬性,而且分類(lèi)精度有較大的提高。說(shuō)明本文算法具有一定的實(shí)用性,值得進(jìn)一步的理論研究。
參考文獻(xiàn)
[1] SCHENA M. Quantitative monitoring of gene expression patterns with a DNA microarray [J]. Science, 1995, 270(5235) : 467?470.
[2] 李凌波,張靜,陳丹.基于SVM和平均影響值的人腫瘤信息基因提取[J].生物信息學(xué),2013(1):72?78.
[3] 李建更,李輝,阮曉鋼.一種有效的腫瘤特征基因篩選方法[J].中南大學(xué)學(xué)報(bào):自然科學(xué)版,2013(z2):284?288.
[4] 秦傳東,劉三陽(yáng),張市芳.一種腫瘤基因的支持向量機(jī)提取方法[J].西安電子科技大學(xué)學(xué)報(bào),2012(1):191?196.
[5] 張靖,胡學(xué)鋼,張玉紅,等.K?split Lasso:有效的腫瘤特征基因選擇方法[J].計(jì)算機(jī)科學(xué)與探索,2012(12):1136?1143.
[6] 于彬,張巖.基于GA?SVM方法的結(jié)腸癌基因表達(dá)譜數(shù)據(jù)分析[J].青島科技大學(xué)學(xué)報(bào):自然科學(xué)版,2012(6):587?592.
[7] KIRA K,RENDELL L A. The feature selection problem: traditional methods and a new algorithm [C]// Proceedings of the 10th National Conference on Artificial Intelligence. Cambridge, MA: The MIT Press, 1992: 129?134.
[8] KONONENKO I. Estimation attributes: analysis and extensions of RELIEF [C]// Proceedings of the 1994 European Conference on Machine Learning. [S. l.]: ACM Press, 1997: 273?324.
[9] STORN R, PDEE K. Differential evolution: a simple and efficient heuristie for global optimization over continuous spaees [J]. Joumal of Global Optsmization, 1997, 11(4): 341?359.
[10] STORN R, PRICE K. Differential evolution: a simple and efficient adaptive seheme for global optimization over continuous spaees,TR?95?012 [R]. Berkeley, USA: International Computer Seienee Institute, University of California, 1995.
[11] 陳濤.基于DE?SVM非線性組合預(yù)測(cè)模型的研究[J].計(jì)算機(jī)工程與應(yīng)用,2011(13):33?36.
[12] 陳濤.基于差分進(jìn)化算法的支持向量回歸機(jī)參數(shù)優(yōu)化[J].計(jì)算機(jī)仿真,2011(6):198?201.
[13] VAPNIK V N. The nature of statistical learning theory [M]. New York: Springer?Verlag Inc, 1995.
[14] CRISTIANINI N, SHAWE?TAYLOR J. An introduction to support vector machines [M]. Cambridge: Cambridge University Press, 2000.