国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

基于粗糙集理論的自動(dòng)機(jī)器學(xué)習(xí)算法

2022-12-07 04:01:38張雪峰林曉飛
關(guān)鍵詞:約簡粗糙集機(jī)器

張雪峰,林曉飛

(東北大學(xué) 理學(xué)院,遼寧 沈陽 110819)

隨著大數(shù)據(jù)時(shí)代的到來,各種各樣的數(shù)據(jù)層出不窮,每組數(shù)據(jù)又有著繁多的特征,這使得數(shù)據(jù)處理成為當(dāng)下的熱點(diǎn)問題。粗糙集理論是一種處理模糊和不確定性數(shù)據(jù)的數(shù)學(xué)工具,其主要思想就是在保持分類能力不變的前提下,通過知識約簡導(dǎo)出問題的決策或分類規(guī)則。目前,粗糙集理論已經(jīng)被成功地應(yīng)用于機(jī)器學(xué)習(xí)、決策分析、過程控制、模式識別與數(shù)據(jù)挖掘等領(lǐng)域[1]。文獻(xiàn)[2]對信用卡欺詐檢測系統(tǒng)中持卡人行為進(jìn)行了分析,使用粗糙集理論進(jìn)行特征選擇、模糊邏輯決策和規(guī)則生成,使得到的結(jié)果更具有說服力。

粗糙集在屬性約簡上雖然有不錯(cuò)的效果,但是弊端還是存在的,針對粗糙集的改進(jìn)理論模糊粗糙集已成功地應(yīng)用于屬性約簡、規(guī)則提取、分類樹歸納[3]等領(lǐng)域。文獻(xiàn)[4]首先基于加權(quán)鄰域關(guān)系構(gòu)建加權(quán)鄰域粗糙集(WNRS);然后定義基于WNRS的依賴關(guān)系評估屬性子集,并通過貪心搜索算法選出相應(yīng)子集,使用等距搜索找到最佳鄰域閾值;最后使用數(shù)據(jù)庫中的數(shù)據(jù)對比此模型與其他模型的性能。實(shí)驗(yàn)表明,WNRS是可行且有效的,并且具有很高的分類精度和壓縮率。

粗糙集理論雖然成果顯著,但是還不足以作為一個(gè)分析數(shù)據(jù)建立模型的工具,而粗糙集和機(jī)器學(xué)習(xí)的有效結(jié)合在數(shù)據(jù)科學(xué)領(lǐng)域取得了更好的成績。文獻(xiàn)[5]提出了基于粗糙集理論、神經(jīng)網(wǎng)絡(luò)和遺傳算法的乳腺癌診斷系統(tǒng)。該系統(tǒng)首先通過訓(xùn)練SOM神經(jīng)網(wǎng)絡(luò)對乳腺癌醫(yī)療數(shù)據(jù)進(jìn)行離散化,然后通過遺傳算法對條件屬性進(jìn)行約簡,最后從決策表中歸納出診斷規(guī)則。利用這些規(guī)則作為分類器來評價(jià)診斷系統(tǒng)的性能。實(shí)驗(yàn)表明,與傳統(tǒng)的診斷方法相比,診斷準(zhǔn)確率大幅度提高。文獻(xiàn)[6]考慮傳統(tǒng)的粗糙集理論不能處理連續(xù)屬性,而且得到的分類規(guī)則大多比較復(fù)雜;又考慮支持向量機(jī)理論能夠得到簡潔的分類規(guī)則,也能處理連續(xù)屬性,但僅適用于小樣本,對大樣本數(shù)據(jù)集有一定的局限性?;谏鲜隼碚撘约爸С窒蛄繖C(jī)分類方法僅與支持向量有關(guān)的特性,提出了一種先由粗糙集進(jìn)行預(yù)處理的支持向量機(jī)分類方法。實(shí)驗(yàn)表明,該方法在縮短訓(xùn)練時(shí)間的基礎(chǔ)上保留了支持向量機(jī)方法所需分類信息,提高了分類精度,克服了其應(yīng)用瓶頸。

機(jī)器學(xué)習(xí)的模型建立、參數(shù)調(diào)整等需要大量的人力和物力,所以可以實(shí)現(xiàn)從模型構(gòu)建到應(yīng)用的全程自動(dòng)化的自動(dòng)機(jī)器學(xué)習(xí)應(yīng)運(yùn)而生。文獻(xiàn)[7]提出了基于自動(dòng)機(jī)器學(xué)習(xí)的水族文字識別,在縮短選擇模型時(shí)間的同時(shí)獲得了很高的識別精確率。文獻(xiàn)[8]提出了基于自動(dòng)機(jī)器學(xué)習(xí)的遷移學(xué)習(xí)方法,它使用來自先前任務(wù)的知識來加速網(wǎng)絡(luò)設(shè)計(jì),通過擴(kuò)展基于遷移學(xué)習(xí)的架構(gòu)搜索方法以支持多個(gè)任務(wù)的并行訓(xùn)練,然后將搜索策略轉(zhuǎn)移到新任務(wù)。在語言和圖像分類數(shù)據(jù)上,基于自動(dòng)機(jī)器學(xué)習(xí)的遷移學(xué)習(xí)將單任務(wù)訓(xùn)練的收斂時(shí)間縮短了1個(gè)數(shù)量級以上。同時(shí)粗糙集也成功應(yīng)用于圖像分割領(lǐng)域并取得了顯著的成果[9-10]。

本文將粗糙集和自動(dòng)機(jī)器學(xué)習(xí)2種數(shù)據(jù)處理方法結(jié)合,該方法的優(yōu)勢在于既可以展示出粗糙集在數(shù)據(jù)降維上的作用,又充分展示了自動(dòng)機(jī)器學(xué)習(xí)在參數(shù)調(diào)整方面的高效性。將粗糙集中的屬性約簡用于數(shù)據(jù)的預(yù)處理之上,通過數(shù)據(jù)降維剔除冗余指標(biāo),盡可能多地保留有用信息的同時(shí)也盡可能多地剔除冗余信息。而后續(xù)自動(dòng)機(jī)器學(xué)習(xí)的準(zhǔn)確調(diào)參也使得模型的分類準(zhǔn)確率更高,模型的運(yùn)行時(shí)間更短,同時(shí)自動(dòng)機(jī)器學(xué)習(xí)根據(jù)當(dāng)前模型會集成一個(gè)更優(yōu)的模型,將精確率再次提高。

1 相關(guān)算法

1.1 K均值聚類

由于粗糙集約簡只適用于離散數(shù)據(jù),本文選擇實(shí)驗(yàn)數(shù)據(jù)為連續(xù)數(shù)據(jù),所以需要對連續(xù)數(shù)據(jù)進(jìn)行離散化處理,而K均值聚類便是常用的離散化數(shù)據(jù)的聚類方法。

K均值聚類是基于樣本集合劃分的聚類算法。K均值聚類將樣本集合劃分為k個(gè)子集,構(gòu)成k個(gè)類,將n個(gè)樣本分到k個(gè)類中,使得每個(gè)樣本到其所屬類的中心距離最小,其中每個(gè)樣本僅屬于1個(gè)類,這就是K均值聚類,同時(shí)根據(jù)1個(gè)樣本僅屬于1個(gè)類,也表示了K均值聚類是一種硬聚類算法。

K均值聚類可歸結(jié)為樣本集合X的劃分,或者從樣本到類的函數(shù)的選擇問題。K均值聚類的策略是通過損失函數(shù)的最小化選取最優(yōu)的劃分或函數(shù)C*。

首先,采用歐氏距離平方作為樣本之間的距離,

然后,定義每個(gè)樣本與其所屬類的中心的距離和為損失函數(shù),即

(1)

K均值聚類就是如何求解此優(yōu)化問題,

相似的樣本被聚到同類時(shí),損失函數(shù)值最小,這個(gè)目標(biāo)函數(shù)的最優(yōu)化能達(dá)到聚類的目的。但是,這是一個(gè)組合優(yōu)化問題,n個(gè)樣本分到k類的所有可能分法的數(shù)目是

(2)

這個(gè)數(shù)字是指數(shù)級的。事實(shí)上,K均值聚類的最優(yōu)解問題是NP(non deterministic ploynomial)困難問題,現(xiàn)實(shí)中采用迭代的方法求解。

K均值聚類算法[11]:

輸入:n個(gè)樣本的集合X和正整數(shù)k。

① 初始化。隨機(jī)選擇k個(gè)樣本點(diǎn)作為初始聚類中心。

② 對樣本進(jìn)行聚類。針對初始化時(shí)選擇的聚類中心計(jì)算所有樣本到每個(gè)中心的距離,默認(rèn)歐氏距離,將每個(gè)樣本聚集到與其最近的中心的類中,構(gòu)成聚類結(jié)果。

③ 計(jì)算聚類后的類中心,計(jì)算每個(gè)類的質(zhì)心,即每個(gè)類中樣本的均值作為新的類中心。

④ 如果迭代收斂或符合停止條件,輸出C*=C(t)。重復(fù)執(zhí)行②,③直到聚類結(jié)果不再改變。

輸出:樣本集合的聚類C。

均值聚類算法的復(fù)雜度是O(mnk),其中m是樣本維數(shù),n是樣本個(gè)數(shù),k是類別個(gè)數(shù)。

1.2 粗糙集約簡算法

由于粗糙集方法在處理不確定信息時(shí),具有不需要提供任何先驗(yàn)信息的特點(diǎn),因而在針對不確定性問題的描述和處理時(shí)較常規(guī)方法更具客觀性[12]。粗糙集約簡理論可以把圖1(a)的不規(guī)則圖形用圖1(b)規(guī)則的小矩形表示。

圖1 粗糙集約簡前后對比Fig.1 Comparison before and after rough set

定義1[1]知識和知識庫。設(shè)U≠?是感興趣的對象組成的有限集合,稱為論域。任何子集X∈U,稱為U中的一個(gè)概念或范疇。為了規(guī)范化起見,認(rèn)為空集也是一個(gè)概念。U中的任何概念族稱為關(guān)于U的抽象知識,簡稱知識。對于那些在U上能形成劃分的知識再進(jìn)行一次劃分,定義為:g=(X1,X2,…,Xn)。則U上的一族劃分稱為關(guān)于U的一個(gè)知識庫。

定義2[1]知識約簡是粗糙集理論的核心內(nèi)容之一,眾所周知,知識庫中的知識(屬性)并不是同等重要的,甚至其中某些知識是冗余的。所謂知識約簡,就是在保持知識庫分類能力不變的條件下,刪除其中不相關(guān)或不重要的知識。

結(jié)合粗糙集理論及K均值聚類算法便可以實(shí)現(xiàn)粗糙集的屬性約簡。

粗糙集約簡算法:

輸入:原始離散決策表,決策表?xiàng)l件屬性個(gè)數(shù)為K,令n=1且n∈。

① 固定條件屬性,保持其中K-1個(gè)條件屬性值不變。

② 改變條件屬性,改變剩余一個(gè)條件屬性值。

③ 判斷決策屬性值是否變化。

④ 若決策屬性值發(fā)生變化,保留此條件屬性;若決策屬性值未發(fā)生變化,剔除此條件屬性。

⑤ 令n=n+1。

⑥ 改變固定條件屬性組合并重復(fù)執(zhí)行②,③,④直到所有組合均作出判斷。

輸出:相對約簡屬性集。

在算法第③步中,判斷決策屬性值是否變化的依據(jù)進(jìn)一步說明如下。

由于固定不同條件屬性篩選到的數(shù)據(jù)表個(gè)數(shù)不同,所以此處用n來表示根據(jù)篩選條件篩選到的數(shù)據(jù)個(gè)數(shù)。如果固定條件屬性X2,X3,X4,X5,X6,X7,X8,X9,X10,X11,X12,X13,X14,X15,X16時(shí),無論X1的值取0還是2,決策屬性的值始終是1,說明變量X1的改變不會影響分類結(jié)果,也就說明變量X1是冗余變量。如果固定條件屬性X1,X2,X3,X4,X5,X6,X7,X8,X9,X10,X11,X12,X13,X14,X15時(shí),無論X16的值取0還是1,決策屬性的值始終在變化,說明變量X16的改變會影響分類結(jié)果,也就說明變量X16是有效變量。

1.3 自動(dòng)機(jī)器學(xué)習(xí)方法

機(jī)器學(xué)習(xí)總的目標(biāo)就是考慮如何學(xué)習(xí)模型和學(xué)習(xí)什么樣的模型,以使模型能對數(shù)據(jù)進(jìn)行準(zhǔn)確的預(yù)測和分析,同時(shí)也要考慮盡可能地提高效率。數(shù)據(jù)準(zhǔn)備、算法選擇和超參數(shù)調(diào)整這些任務(wù)是機(jī)器學(xué)習(xí)任務(wù)最耗時(shí)的階段,調(diào)參和搜索網(wǎng)絡(luò)結(jié)構(gòu)被認(rèn)為是一項(xiàng)極其煩瑣并且耗費(fèi)人力的工作,但是這項(xiàng)工作又極其重要,因?yàn)閰?shù)的好壞會直接影響到網(wǎng)絡(luò)的性能。

經(jīng)驗(yàn)而言,只要有足夠多的時(shí)間并且嘗試足夠多的算法和參數(shù)組合之后,都會達(dá)到一個(gè)預(yù)期的效果,但是缺點(diǎn)就是費(fèi)時(shí)費(fèi)力。這也是之前的機(jī)器學(xué)習(xí)所做的任務(wù)。思考人類發(fā)明計(jì)算機(jī)的初衷,就是讓計(jì)算機(jī)來完成那些重復(fù)且煩瑣的任務(wù),所以這項(xiàng)工作理論上來說也可以交給計(jì)算機(jī)來完成,在解放了人的同時(shí),在模型的準(zhǔn)確率上甚至?xí)懈蟮奶嵘?因而,自動(dòng)機(jī)器學(xué)習(xí)技術(shù)便應(yīng)運(yùn)而生。自動(dòng)機(jī)器學(xué)習(xí)技術(shù)包含自動(dòng)調(diào)節(jié)超參數(shù)、自動(dòng)調(diào)整網(wǎng)絡(luò)結(jié)構(gòu)等,在深度學(xué)習(xí)領(lǐng)域已取得了不錯(cuò)的成績。

圖2 使用2個(gè)疊加層和基礎(chǔ)學(xué)習(xí)器的多層疊加策略Fig.2 Multi-layer overlay strategy using two overlay layers and basic learner

由于自動(dòng)機(jī)器學(xué)習(xí)有著巨大的潛力,在這個(gè)領(lǐng)域已經(jīng)開發(fā)了很多的框架,本文所采用的框架是由亞馬遜公司開發(fā)的AutoGluon框架[13]。該框架的優(yōu)點(diǎn)在于能夠自動(dòng)管理端到端的機(jī)器學(xué)習(xí)流程,融合了機(jī)器學(xué)習(xí)的眾多模型,而且它是一個(gè)處理異構(gòu)數(shù)據(jù)集、神經(jīng)網(wǎng)絡(luò)以及基于多層疊加和重復(fù)K折疊組合的強(qiáng)大模型集成。AutoGluon相較于其他框架而言,優(yōu)勢在于尋找超參數(shù)的策略是自動(dòng)設(shè)置固定的默認(rèn)值,能夠使它在尋找超參數(shù)的過程中加快速度,同時(shí)也不會錯(cuò)過最優(yōu)的超參數(shù)。

AutoGluon框架相比于其他框架的最大優(yōu)勢在于模型集成。將多個(gè)模型的預(yù)測結(jié)合起來的整體效果比單個(gè)模型的效果要好很多,這通常會大大降低最終預(yù)測的方差,不僅可以改進(jìn)單個(gè)基礎(chǔ)預(yù)測的缺點(diǎn),而且可以利用基礎(chǔ)模型之間的相互作用提供增強(qiáng)的預(yù)測能力。

1.4 決策樹模型

決策樹是一種基本的分類與回歸的樹形結(jié)構(gòu),表示基于特征對實(shí)例進(jìn)行分類的過程,如圖3所示。決策樹通常是基于不同特征的信息增益生成的,設(shè)X是一個(gè)取有限個(gè)值的離散隨機(jī)變量,其概率分布為P(X=xi)=pi,i=1,2,…,n,則隨機(jī)變量X的熵定義為

(3)

這時(shí)熵的單位分別稱為比特或者納特。隨機(jī)變量X給定的條件下隨機(jī)變量Y的條件熵定義為

特征A對訓(xùn)練數(shù)據(jù)集D的信息增益定義為

g(D,A)=H(D)-H(D|A),

則信息增益大的特征具有更強(qiáng)的分類能力。

圖3 決策樹模型Fig.3 Decision tree model

圖3中圓和方框分別表示內(nèi)部結(jié)點(diǎn)和葉結(jié)點(diǎn)。用決策樹分類,從根節(jié)點(diǎn)開始對實(shí)例的某一特征進(jìn)行測試,根據(jù)測試結(jié)果,將實(shí)例分配到其子結(jié)點(diǎn),這時(shí),每個(gè)子結(jié)點(diǎn)對應(yīng)著該特征的一個(gè)取值。如此遞歸地對實(shí)例進(jìn)行測試并分配,直到達(dá)到葉結(jié)點(diǎn),最后將實(shí)例分到葉結(jié)點(diǎn)的類中。

本文采用的決策樹模型是LightGBM[14],這是一種梯度增強(qiáng)決策樹(gradient boosting decision tree,GBDT)。LightGBM包含2種新技術(shù):基于梯度的單邊采樣(gradient-based one-side sampling,GOSS)和互斥特征捆綁(exclusive feature bundling,EFB)。

使用GOSS可以排除很大一部分具有小梯度的數(shù)據(jù),而只使用其余的數(shù)據(jù)來估計(jì)信息增益。試驗(yàn)證明具有較大梯度的數(shù)據(jù)實(shí)例在信息增益計(jì)算中起著更重要的作用,GOSS可以在較小的數(shù)據(jù)量下獲得相當(dāng)精確的信息增益估計(jì)。

通常實(shí)際應(yīng)用的中高緯度數(shù)據(jù)是稀疏數(shù)據(jù),使用EFB可以設(shè)計(jì)一種幾乎無損的方法來減少有效特征的數(shù)量,尤其是在稀疏特征空間中許多特征互斥的情況下。這可以安全的將互斥特征綁定在一起形成一個(gè)特征,從而減少特征維度。由于需要將特征劃分為更小的互斥捆綁數(shù)量,但是在多項(xiàng)式時(shí)間內(nèi)不可能去找到準(zhǔn)確的解決辦法,所以EFB使用了一種近似的解決辦法,即特征之間允許存在少數(shù)的樣本點(diǎn)并不是互斥的,允許小部分的沖突可以得到更小的特征捆綁數(shù)量,更進(jìn)一步提高計(jì)算的有效性。

1.5 BP神經(jīng)網(wǎng)絡(luò)模型

圖4 神經(jīng)元Fig.4 Neuron

神經(jīng)網(wǎng)絡(luò)一般可以看作一個(gè)非線性模型,其基本組成單元是具有非線性激活函數(shù)的神經(jīng)元,通過大量神經(jīng)元之間的連接,使得神經(jīng)網(wǎng)絡(luò)成為一種高度非線性的模型,如圖4所示。

假設(shè)一個(gè)神經(jīng)元,接收D個(gè)輸入x1,x2,…,xD,令x=(x1,x2,…,xD)T表示這組輸入,并用凈輸入z∈表示一個(gè)神經(jīng)元所獲得的輸入信號x的加權(quán)和,

式中,ω=(ω1,ω2,…,ωD)T∈D是D維的權(quán)重向量,b∈是偏置。

凈輸入z經(jīng)過一個(gè)非線性函數(shù)f后,得到神經(jīng)元的活性值a,

a=f(z)。

其中,非線性函數(shù)f稱為激活函數(shù),一般選擇如下函數(shù)作為激活函數(shù),

圖5 BP神經(jīng)網(wǎng)絡(luò)Fig.5 BP neural network

反向傳播神經(jīng)網(wǎng)絡(luò)(BP神經(jīng)網(wǎng)絡(luò))是目前在分類問題上應(yīng)用最多的一種神經(jīng)網(wǎng)絡(luò),它是一種單向傳播的多層前向網(wǎng)絡(luò)。其學(xué)習(xí)算法遵循“誤差反向傳播原理”,學(xué)習(xí)的本質(zhì)是對各連接權(quán)重的動(dòng)態(tài)調(diào)整,當(dāng)一組學(xué)習(xí)樣本提供給網(wǎng)絡(luò)后,神經(jīng)元的激活值從輸入層經(jīng)各中間層向輸出層傳播,在輸出層的各神經(jīng)元獲得網(wǎng)絡(luò)的輸入響應(yīng),進(jìn)而按照減少目標(biāo)輸出與實(shí)際誤差的方向,從輸出層經(jīng)過各中間層逐層修正各連接權(quán)值,最后回到輸入層,這樣完成一次權(quán)值修正。最終使誤差函數(shù)減小到極小值,得到最優(yōu)擬合結(jié)果[15]。圖5便是一個(gè)含有輸入層、隱含層和輸出層的BP網(wǎng)絡(luò)。

訓(xùn)練一個(gè)BP神經(jīng)網(wǎng)絡(luò),實(shí)際上就是調(diào)整網(wǎng)絡(luò)的權(quán)重和偏置這2個(gè)參數(shù),分為前向傳輸和逆向反饋。前向傳播時(shí),輸入樣本從輸入層傳入,經(jīng)各隱層逐層處理后傳向輸出層。若輸出層的實(shí)際輸出與期望的輸出不符,則轉(zhuǎn)入誤差的反向傳播階段。反向傳播時(shí),將輸出以某種形式通過隱層向輸入層逐層反傳,并將誤差分?jǐn)偨o各層的所有單元,從而獲得各層單元的誤差信號,此誤差信號即作為修正各單元權(quán)值的依據(jù)。

FastAi[16]和MXNet[17]都是目前非常流行的神經(jīng)網(wǎng)絡(luò)訓(xùn)練框架,本文采用這2種框架實(shí)現(xiàn)數(shù)據(jù)的分類,并比較2種框架下的運(yùn)行時(shí)間和分類準(zhǔn)確率,從而作出更加客觀的判斷。

2 算法設(shè)計(jì)

考慮到數(shù)據(jù)維度大,直接使用數(shù)據(jù)進(jìn)行分類會大大影響效率,所以先進(jìn)行粗糙集屬性約簡。由于粗糙集屬性約簡需要使用離散化數(shù)據(jù),所以使用K均值聚類算法對數(shù)據(jù)先進(jìn)行離散化,得到離散化決策表,然后使用粗糙集屬性約簡得到約簡屬性集。利用引導(dǎo)聚集算法(Bagging)對樣本進(jìn)行隨機(jī)采樣,得到多個(gè)樣本集,分別訓(xùn)練多個(gè)樣本集得到多個(gè)弱分類器,針對弱分類器的分類結(jié)果投票得到強(qiáng)分類器作為預(yù)測模型之一,進(jìn)行多次引導(dǎo)聚集算法得到多個(gè)預(yù)測模型。最后進(jìn)行模型集成,將多個(gè)優(yōu)秀模型集成為一個(gè)模型,根據(jù)不同模型的不同分類準(zhǔn)確率分別賦予不同的權(quán)重,得到最終的集成模型。

基于粗糙集和自動(dòng)機(jī)器學(xué)習(xí)的分類算法:

輸入:原始數(shù)據(jù)(X,Y),分類模型個(gè)數(shù)M,分類聚集算法選取子集個(gè)數(shù)k。

① 對數(shù)據(jù)集的特征進(jìn)行K均值聚類,得到離散的條件屬性。

② 對得到的條件屬性進(jìn)行粗糙集數(shù)據(jù)約簡,篩選出重要特征。

③ 將篩選后的數(shù)據(jù)集隨機(jī)分成k個(gè)子集。

④ 用k個(gè)子集分別對M個(gè)分類模型進(jìn)行訓(xùn)練,得到多個(gè)模型參數(shù)φm,i。

⑤ 使用自動(dòng)機(jī)器學(xué)習(xí)進(jìn)行模型的參數(shù)調(diào)整得到最優(yōu)模型。

⑥ 對模型參數(shù)加權(quán),得到集成模型f(x)=∑ωm,iφm,ix。

輸出:模型準(zhǔn)確率,運(yùn)行時(shí)間,M個(gè)分類模型權(quán)重,集成模型。

算法流程如圖6所示。

3 實(shí)驗(yàn)結(jié)果與分析

3.1 數(shù)據(jù)選擇

原始數(shù)據(jù)如表1所示,數(shù)據(jù)量大導(dǎo)致無法展示全部數(shù)據(jù),所以省略其中的一部分。通過K均值進(jìn)行離散化后的數(shù)據(jù)如表2所示。選擇干豆種類分別是:BARBUNYA、CALI、BOMBAY、SEKER,如圖7所示。

圖6 算法流程Fig.6 Schematic diagram of algorithm flow

表1 原始數(shù)據(jù)Table 1 Raw data

表2 離散化原始數(shù)據(jù)Table 2 Discrete raw data

圖7 不同干豆Fig.7 Different dried beans

3.2 數(shù)據(jù)處理

選擇樣本的原則是在7類干豆中隨機(jī)選擇4個(gè)種類,依據(jù)后續(xù)的K均值聚類分成4類。把這4類干豆中數(shù)量最少的干豆作為每組干豆的樣本量,除最少的一組干豆需要全部選擇之外,其他組干豆選擇遵循隨機(jī)原則。即4種干豆之中數(shù)量最少的為BOMBAY,數(shù)量是522,其他干豆也隨機(jī)抽取522個(gè)樣本,得到的數(shù)據(jù)維度是2 088×16,其中2 088是樣本數(shù),16是樣本的特征。使用K均值聚類的方法對數(shù)據(jù)做離散化處理,之后使用粗糙集的知識約簡算法對數(shù)據(jù)進(jìn)行冗余屬性的剔除,利用分類聚集算法進(jìn)行模型選擇,得到2種框架下的神經(jīng)網(wǎng)絡(luò)模型,分別用FastAi模型和MXNet模型表示,同時(shí)選擇LightGBM模型。接下來使用自動(dòng)機(jī)器學(xué)習(xí)進(jìn)行參數(shù)調(diào)整和模型集成,得到模型運(yùn)行時(shí)間、分類準(zhǔn)確率和模型損失率。

3.3 實(shí)驗(yàn)結(jié)果

決策屬性D對應(yīng)于4類干豆,分為0,1,2,3,屬性約簡之后的條件屬性由原來的16個(gè)變成了8個(gè),見表3。為了驗(yàn)證粗糙集屬性約簡的有效性和自動(dòng)機(jī)器學(xué)習(xí)調(diào)參的準(zhǔn)確性,分別在3種條件下進(jìn)行測試:①不進(jìn)行粗糙集屬性約簡,同時(shí)也不使用自動(dòng)機(jī)器學(xué)習(xí)進(jìn)行參數(shù)調(diào)整(no_tune);②使用自動(dòng)機(jī)器學(xué)習(xí)進(jìn)行參數(shù)調(diào)整,但不使用粗糙集進(jìn)行屬性約簡(AutoML);③既使用粗糙集屬性約簡,又使用自動(dòng)機(jī)器學(xué)習(xí)進(jìn)行參數(shù)調(diào)整(AutoML+RS)。結(jié)果如圖8所示。自動(dòng)機(jī)器學(xué)習(xí)給出的集成模型WeightedEnsemble根據(jù)3個(gè)模型的分類準(zhǔn)確率分別賦予FastAi、MXNet、LightGBM 3個(gè)模型0.3、0.3、0.4的權(quán)重。不同條件下模型準(zhǔn)確率見表4,運(yùn)行時(shí)間見表5。從圖8(a)及表4、表5中可以看到FastAi模型的準(zhǔn)確率從高到低的條件分別是AutoML+RS、AutoML、no_tune,運(yùn)行時(shí)間從低到高的條件分別是AutoML+RS、AutoML、no_tune。隨著迭代次數(shù)的增加,AutoML+RS的準(zhǔn)確率可以達(dá)到98.91%,運(yùn)行時(shí)間可以縮短到9.50 s。從圖8(b)及表4、表5中可以看到MXNet模型的損失率從小到大的條件分別是AutoML+RS、AutoML、no_tune,運(yùn)行時(shí)間從低到高的條件分別AutoML+RS、AutoML、no_tune。隨著迭代次數(shù)的增加,AutoML+RS條件下的MXNet模型損失率可以下降到1.4%,運(yùn)行時(shí)間可以縮短到17.32 s。從圖8(c)及表4、表5中可以看到LightGBM模型的準(zhǔn)確率從高到低的條件分別是AutoML+RS、AutoML、no_tune,運(yùn)行時(shí)間從低到高的條件分別AutoML+RS、AutoML、no_tune。隨著迭代次數(shù)的增加,AutoML+RS的準(zhǔn)確率可以達(dá)到98.55%,運(yùn)行時(shí)間可以縮短到1.52 s。

表3 離散化并約簡后數(shù)據(jù)Table 3 Discrete and reduced data

圖8 不同模型結(jié)果Fig.8 Results of different models

表4 不同條件下模型準(zhǔn)確率Table 4 Accuracy rate of models under different conditions 單位:%

表5 不同條件下模型運(yùn)行時(shí)間Table 5 Running time of models under different conditions 單位:s

4 結(jié) 論

分別將不使用粗糙集約簡的數(shù)據(jù)和使用粗糙集約簡的數(shù)據(jù)應(yīng)用3種模型在不同條件下進(jìn)行了實(shí)驗(yàn)。得出結(jié)論:使用自動(dòng)機(jī)器學(xué)習(xí)進(jìn)行調(diào)參之后,幾乎所有模型的準(zhǔn)確率都有大幅度的提升,同時(shí)使用粗糙集約簡和自動(dòng)機(jī)器學(xué)習(xí)進(jìn)行調(diào)參之后,模型的準(zhǔn)確率有了更大幅度的提升,模型損失率也大幅下降;從運(yùn)行時(shí)間上,幾乎所有模型的運(yùn)行時(shí)間都顯著縮短,也證明了粗糙集的屬性約簡確實(shí)有助于縮短建模時(shí)間;自動(dòng)機(jī)器學(xué)習(xí)不僅對模型進(jìn)行了參數(shù)調(diào)整,而且還對模型進(jìn)行了集成,自動(dòng)機(jī)器學(xué)習(xí)分別給出了3個(gè)模型不同的權(quán)重得到的集成模型,集成模型的準(zhǔn)確率比其他模型更高,運(yùn)行時(shí)間比其他模型更短。

猜你喜歡
約簡粗糙集機(jī)器
機(jī)器狗
機(jī)器狗
基于Pawlak粗糙集模型的集合運(yùn)算關(guān)系
基于二進(jìn)制鏈表的粗糙集屬性約簡
未來機(jī)器城
電影(2018年8期)2018-09-21 08:00:06
實(shí)值多變量維數(shù)約簡:綜述
基于模糊貼近度的屬性約簡
多?;植诩再|(zhì)的幾個(gè)充分條件
雙論域粗糙集在故障診斷中的應(yīng)用
無敵機(jī)器蛛
巴楚县| 天水市| 舒城县| 靖州| 莱芜市| 密云县| 洛浦县| 文成县| 伊吾县| 香河县| 通州市| 阳山县| 灵武市| 三都| 军事| 东光县| 沛县| 汽车| 榆树市| 清水河县| 德清县| 内丘县| 金昌市| 洛隆县| 年辖:市辖区| 商水县| 阿克| 开封县| 班玛县| 福安市| 阿瓦提县| 英德市| 吐鲁番市| 鹤岗市| 新丰县| 凯里市| 洛隆县| 竹北市| 宝坻区| 屏东县| 临桂县|