国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

不完備鄰域粗糙集的不確定性度量和屬性約簡

2018-03-20 00:46:22晟,汪杰,徐風,陳
計算機應(yīng)用 2018年1期
關(guān)鍵詞:約簡粗糙集鄰域

姚 晟,汪 杰,徐 風,陳 菊

(1.安徽大學(xué) 計算智能與信號處理教育部重點實驗室,合肥 230601; 2.安徽大學(xué) 計算機科學(xué)與技術(shù)學(xué)院,合肥 230601)(*通信作者電子郵箱wangjiechn@126.com)

0 引言

粗糙集理論是Pawlak[1]在1982年提出的用于處理不精確和不確定性問題的一種數(shù)據(jù)分析理論,目前已經(jīng)廣泛應(yīng)用于模式識別、機器學(xué)習(xí)、數(shù)據(jù)挖掘、屬性約簡和圖像分割等研究領(lǐng)域[2-5]。

經(jīng)典粗糙集理論基于等價關(guān)系,它適用于處理符號型數(shù)據(jù)。然而在現(xiàn)實應(yīng)用中,數(shù)值型屬性以及數(shù)值型和符號型屬性并存的混合數(shù)據(jù)是普遍存在的,面對這類問題研究人員通常是將數(shù)值型數(shù)據(jù)進行離散化處理[6],這一轉(zhuǎn)換必然會丟失某些信息。Lin[7]提出了鄰域模型的相關(guān)概念。鄰域粗糙集模型通過定義鄰域關(guān)系來粒化論域,可以直接處理數(shù)值型數(shù)據(jù),避免了離散化數(shù)據(jù)帶來的某些損失[8]。

屬性約簡是粗糙集理論中一種基本的數(shù)據(jù)預(yù)處理技術(shù),目的是剔除無關(guān)的冗余屬性來保持原有信息系統(tǒng)或者決策表的分類能力。作為粗糙集領(lǐng)域中一項重要的研究內(nèi)容,目前已經(jīng)得到大量科研人員的研究與探討[9-10]。Hu等[11]將信息論中的互信息引入鄰域粗糙集模型中,提出了以互信息為啟發(fā)式函數(shù)的屬性約簡算法,該方法可以處理數(shù)值型數(shù)據(jù)。Chen等[12]在2014年提出了一種基于鄰域熵的決策表約簡,適用于處理完備信息系統(tǒng)中的數(shù)值型數(shù)據(jù)。然而以上方法都只能處理完備的信息系統(tǒng),卻無法直接處理不完備的信息系統(tǒng)或者具有混合屬性的信息系統(tǒng)。

在現(xiàn)實情況中,由于數(shù)據(jù)獲取和數(shù)據(jù)測量等方面的限制,不完備數(shù)據(jù)廣泛存在,因此,近些年來,研究不完備的信息系統(tǒng)成為熱點[13-16]。Wang等[17]提出數(shù)據(jù)驅(qū)動的模型可以用來處理不完備的符號型數(shù)據(jù),但是卻不能處理數(shù)值型數(shù)據(jù)。姚晟等[18]提出鄰域量化容差關(guān)系用來處理不完備的數(shù)值型數(shù)據(jù),卻不能處理不完備的符號型數(shù)據(jù)。為了同時處理混合型數(shù)據(jù),何松華等[19]提出了鄰域組合測度的屬性約簡方法。然而,在鄰域組合測度方法中,計算對象之間的距離時認為當屬性值存在缺失時兩者之間的距離為0,這種數(shù)據(jù)之間關(guān)系的刻畫顯然較為寬松,沒有考慮數(shù)據(jù)分布特征,存在一定的缺陷。

為克服對象缺失屬性值之間距離刻畫過于寬松的缺陷,本文提出了一種拓展不完備鄰域粗糙集模型,考慮了屬性值的分布情況,利用統(tǒng)計學(xué)中的方法求出所有已知屬性值的頻率,將該頻率作為該對象取該屬性值的概率。當某個已知屬性值的概率越大,某對象的未知屬性值與其相等的可能性就越大,此時兩個對象在當前屬性下的距離為0;相反,概率越小,未知屬性值與其相等的可能性就越小,此時距離為1。這種方式考慮了數(shù)據(jù)的分布特征,因此更具有客觀性,并在此基礎(chǔ)上結(jié)合啟發(fā)式信息定義了鄰域混合熵的概念來評價所選屬性的質(zhì)量。最后根據(jù)鄰域混合熵提出基于鄰域混合熵的不完備鄰域粗糙集屬性約簡(Attribute Reduction of Neighborhood Mixed Entropy, ARNME)算法。該算法不僅可以處理混合數(shù)據(jù),而且適用于不完備信息系統(tǒng)。實驗結(jié)果表明,本文算法能夠獲得較少的約簡屬性和較高的分類精度。

1 背景知識

下面簡單介紹經(jīng)典粗糙集和鄰域粗糙集的相關(guān)性質(zhì)。

1.1 經(jīng)典粗糙集

在粗糙集理論中,知識被認為是分辨對象的能力,并采用等價關(guān)系將論域粒化為若干等價類,利用上下近似逼近的方式刻畫未知概念,通過知識約簡來發(fā)現(xiàn)數(shù)據(jù)當中潛在的知識和規(guī)律[1]。

其中,本文中所有|U|均表示論域U的基數(shù)。當屬性值存在缺失時,DT就叫作不完備決策信息系統(tǒng)或不完備決策表。本文中所有“*”均表示屬性值缺失的情形。

定義2[1]設(shè)DT=(U,A,V,f),對于任意條件屬性子集B?C,B上的不可分辨關(guān)系定義為:

IND(B)={(x,y)∈U×U|?a∈B,

f(x,a)=f(y,a)}

(1)

定義3[1]設(shè)DT=(U,A,V,f),對于任意條件屬性子集B?C,論域上的一個對象子集X?U,定義X在條件屬性子集B上的下近似、上近似和邊界域分別為:

(2)

(3)

(4)

其中:[x]B是x在條件屬性集B上的等價類。

1.2 鄰域粗糙集及其相關(guān)性質(zhì)

定義4[8]給定一個鄰域決策系統(tǒng)NDT=(U,C,D)。條件屬性集B={b1,b2,…,bm},對?x1,x2,x3∈U,Δ滿足:

1)ΔB(x1,x2)≥0,ΔB(x1,x2)=0當且僅當x1=x2;

2)ΔB(x1,x2)=ΔB(x2,x1);

3)ΔB(x1,x3)≤ΔB(x1,x2)+ΔB(x2,x3)

ΔB(x1,x2)表示對象x1和對象x2之間的距離。目前常用的距離函數(shù)有曼哈頓距離、歐氏距離和切比雪夫距離。

歐氏距離定義為:

(5)

定義5[8]給定一個鄰域決策系統(tǒng)NDT=(U,C,D)和B?C。對于U中任意對象xi,定義其關(guān)于B的δ鄰域為:

δ(xi)={x∈U|ΔB(x,xi)≤δ}

(6)

其中,δ≥0,Δ為距離函數(shù)。

定義6[8]給定一個鄰域決策系統(tǒng)NDT=(U,C,D)以及B?C。?X?U,定義X關(guān)于條件屬性的下近似、上近似和邊界域分別為:

(7)

(8)

(9)

2 不完備鄰域粗糙集的不確定性度量

2.1 不完備鄰域粗糙集模型

為了處理不完備的混合屬性數(shù)據(jù),本文在對數(shù)值型屬性和符號型屬性進行距離度量時均考慮用數(shù)據(jù)的概率分布來構(gòu)建距離公式。

對符號型屬性,求出所有已知屬性值的頻率作為該屬性值出現(xiàn)的概率,繼而得出所有已知屬性值的概率分布。假設(shè)一對象x在b屬性下取值為非空且該屬性值出現(xiàn)的概率為p,另一對象y在b屬性下取值為空,則y對象在b下取值與x取值相等的可能性為p,此時對象x,y在b下的距離為0,因此可預(yù)先設(shè)定一個閾值,當p大于等于該閾值時,對象x,y在b下的距離為0,否則距離為1。當對象x,y在b屬性下取值都為空的情況下,則兩者屬性值可能取每一個非空屬性值,計算距離時需要考慮取每一個非空屬性值的概率。

針對數(shù)值型屬性,由于其屬性值取值是具體的數(shù)值,無法通過直接計算屬性值出現(xiàn)的頻率來度量兩個對象在某一屬性下屬性值存在缺失時取相同屬性值的概率,因此可將屬性值的鄰域包含的數(shù)目作為這個屬性值出現(xiàn)的頻率,從而得出該屬性值出現(xiàn)的概率分布。

定義7 給定一個鄰域決策系統(tǒng)NDT=(U,C,D)和一個混合屬性集合B?C,且B={b1,b2,…,bn}。對?x,y∈U,距離函數(shù)定義為:

(10)

且?bl∈B,距離的度量分為兩種情況。

1)當bl為數(shù)值型屬性,預(yù)先設(shè)定一個閾值λ1和鄰域半徑δ。當對象x在屬性bl下屬性值非空時,記nbl(x)為對象x關(guān)于屬性bl的鄰域類,且滿足nbl(x)={y∈U|NPbl(x,y)≤δ∧bl(y)≠*},其中:kbl={x∈U|bl(x)≠*}為屬性bl下的非空對象集,|·|為集合的基數(shù)。

則數(shù)值型屬性距離公式定義為:

NPbl(x,y)=

(11)

NPbl(x,y)=

(12)

定義8 給定一個鄰域決策系統(tǒng)NDT=(U,C,D),B1?C是一個數(shù)值型屬性集合,B2?C是一個符號型屬性集合,B=B1∪B2是一個混合屬性集合,鄰域半徑為δ。?xi∈U,其在混合屬性B下的鄰域類定義為:

(13)

其中:

nB1(xi)={x∈U|NPB1(x,xi)≤δ}

(14)

nB2(xi)={x∈U|NPB2(x,xi)=0}

(15)

定理1 給定一個鄰域決策系統(tǒng)NDT=(U,C,D),M,N?C和鄰域半徑為δ。?xi∈U,有:

證明 1)由題設(shè)可知M?N,設(shè)N=N1∪N2,M=M1∪M2。其中N1,M1為數(shù)值型屬性集合,N2,M2為符號型屬性集合。

由定義8可知:

{x∈U|NPN1(x,xi)≤δ}∧{x∈U|NPN2(x,xi)=0}

又因為M1?N1,M2?N2,由此可得:NPM1(x,xi)≤NPN1(x,xi),NPM2(x,xi)≤NPN2(x,xi)。

定義9 給定一個鄰域決策系統(tǒng)NDT=(U,C,D)和屬性集B?C。?X?U,X關(guān)于B的下近似和上近似分別為:

(16)

(17)

定義10 給定一個鄰域決策系統(tǒng)NDT=(U,C,D)和屬性集B?C。?B?C,X關(guān)于條件屬性集B的依賴度定義為:

(18)

定義11 給定一個鄰域決策系統(tǒng)NDT=(U,C,D)和屬性集B?C,其中U/IND(D)={D1,D2,…,Di}是論域U在決策屬性D下的等價類。決策屬性D關(guān)于條件屬性B的依賴度定義為:

(19)

證明 根據(jù)定理2可得。

2.2 實例分析

例1 給定一個鄰域決策系統(tǒng)NDT=(U,C,D)如表1所示。其中,條件屬性集C={a,b,c,d,e},決策屬性為D,且{a,b,c}為數(shù)值型屬性,{d,e}為符號型屬性,且λ1=λ2=0.5,δ=0.1。

求對象x1的鄰域類中是否包含對象x2。

①x2在數(shù)值型屬性c下屬性值缺失,根據(jù)式(11),x1,x2在屬性c下在同一鄰域類的概率p1=3/4。

因為p1≥λ1,所以對象x1,x2在c下的距離為0。

②x1在符號型屬性e下屬性值缺失,根據(jù)式(12),x1,x2在屬性e下取值相等的概率p2=1/2。

因為p2≥λ2,所以對象x1,x2在e下的距離為0。

③同理根據(jù)定義7求得對象x1,x2的距離為

NPC(x1,x2)=0.1≤δ

所以對象x2對象x1的鄰域類中。

表1 決策表S

2.3 鄰域混合熵及其相關(guān)性質(zhì)

目前常用來評價屬性約簡質(zhì)量的方法主要有基于代數(shù)的方法和基于信息論的方法[9-10]。其中,基于代數(shù)的方法判斷屬性是否是冗余屬性的標準是該屬性是否對集合中確定分類子集產(chǎn)生影響;基于信息論的方法判斷冗余屬性的標準是該屬性是否對集合中的不確定分類子集產(chǎn)生影響[20]?;诖鷶?shù)的定義和基于信息論的定義具有很強的互補性,近些年來已經(jīng)得到了廣泛的研究[21-23]。本文首先將鄰域信息熵應(yīng)用到不完備混合屬性數(shù)據(jù)的處理中,并結(jié)合依賴度提出鄰域混合熵的度量方法,通過代數(shù)視角和信息論視角來評價屬性的重要度。

定義12 給定一個鄰域決策系統(tǒng)NDT=(U,C,D)。其中B1?C是一個數(shù)值型屬性集合,B2?C是一個符號型屬性集合,B=B1∪B2是一個混合屬性集合,對應(yīng)的鄰域半徑為δ,則關(guān)于屬性集B的鄰域信息熵定義為:

(20)

所以Eδ(M)=Eδ(N)。

定理5 給定一個鄰域決策系統(tǒng)NDT=(U,C,D)。如果M?N?C,那么Eδ(M)≤Eδ(N)。

由此可得:Eδ(M)≤Eδ(N)。

證明 由定理5容易得出。

定義13 給定一個鄰域決策系NDT=(U,C,D),B?C和X?U,則X相對于屬性集B的鄰域混合熵定義為:

(21)

定義14 給定一個鄰域決策系統(tǒng)NDT=(U,C,D),B?C和X?U,其中U/IND(D)={D1,D2,…,Di},則決策屬性D關(guān)于條件屬性B的鄰域混合熵定義為:

(22)

通常粗糙集的不確定性度量方法應(yīng)該滿足以下三個條件[24]:1)單調(diào)性;2)非負性;3)不變性。下面分別給出證明。

證明 根據(jù)定理8顯然成立。

證明 不變性顯然成立。

證明 由定理5可得。

定理9~11表明了鄰域混合熵具有單調(diào)性、非負性和不變性,因此,鄰域混合熵可以作為屬性約簡的評價函數(shù)。

定義15 給定一個鄰域決策系統(tǒng)NDT=(U,C,D),其中U/IND(D)={D1,D2,…,Di}。B?C和a∈C-B,則a相對于屬性集B的重要性定義為:

(23)

定義16 給定一個鄰域決策系統(tǒng)NDT=(U,C,D),其中U/IND(D)={D1,D2,…,Di}。B?C為條件屬性集C的一個約簡,如果B滿足:

(24)

(25)

3 屬性約簡算法

算法將鄰域混合熵作為啟發(fā)式函數(shù),構(gòu)造基于鄰域混合熵的屬性約簡算法。算法以空集作為起點,每次計算全部剩余屬性的屬性重要度,從中選擇屬性重要度最大的屬性加入到約簡集中,直到所有剩余條件屬性的重要度為0為止,返回約簡結(jié)果。

算法1 計算鄰域混合熵。

輸入:鄰域決策系統(tǒng)NDT=(U,C,D),B={B1,B2}。其中,B1?C是數(shù)值型屬性集合,B2?C是符號型屬性集合。鄰域半徑為δ,U/IND(D)={D1,D2,…,Dm}。

1)初始化,令Eδ(B)=0;

2)對于每個1≤i≤|U|,循環(huán)執(zhí)行:

①計算xi的鄰域類

②計算鄰域熵

3)對于每個1≤j≤m,循環(huán)執(zhí)行:

4)計算依賴度

5)計算鄰域混合熵

算法2 ARNME算法。

輸入:NDT=(U,C,D);

輸出:約簡red。

1)初始化,令red=?;

2)對條件屬性集C中任意屬性a,計算鄰域關(guān)系Na;

3)對于任意ai∈C-red,循環(huán)執(zhí)行:

//其中γ?(D)=0

②選擇一個屬性ak滿足條件:

SIG(ak,red,D)=max{SIG(ai,red,D)};

③計算ak的屬性重要度SIG(ak,red,D)。

4) ifSIG(ak,red,D)>0

令red=red∪ak

跳轉(zhuǎn)到3);

else

跳轉(zhuǎn)到5);

5)返回約簡red。

4 實驗分析

為了驗證本文提出的算法對處理不完備混合屬性數(shù)據(jù)的有效性,將分別從以下幾點進行實驗分析:首先比較本文算法與其他算法的約簡結(jié)果;然后比較本文算法與對比算法的分類精度。

4.1 實驗準備

本文從UCI數(shù)據(jù)集中選用了7個數(shù)據(jù)集,包括4個不完備數(shù)據(jù)集,3個完備數(shù)據(jù)集,其中4個數(shù)據(jù)集具有混合屬性、2個數(shù)據(jù)集只有符號型屬性、1個數(shù)據(jù)集只有數(shù)值型屬性,具體描述如表2。為了在計算鄰域時消除量綱的影響,實驗所用的所有數(shù)值型數(shù)據(jù)全部被標準化到[0,1]區(qū)間;同時,設(shè)置鄰域半徑為δ=0.1,閾值λ1=λ2=0.5。

本實驗測試環(huán)境為一臺i3 3.7 GHz(4 GB內(nèi)存,Windows 10操作系統(tǒng)),采用Java語言實現(xiàn)算法。將本文算法與基于依賴度的屬性約簡(Attribute Reduction of Dependency, ARD)算法[8]、基于鄰域條件熵的屬性約簡(Attribute Reduction of neighborhood Conditional Entropy, ARCE)算法[25]、基于鄰域組合測度的屬性約簡(Attribute Reduction of Neighborhood Combination Measure, ARNCM)算法[19]進行比較。

表2 數(shù)據(jù)集簡介

4.2 分類屬性數(shù)量比較

首先比較不同算法屬性約簡的情況。表3是4種屬性約簡算法約簡后的屬性數(shù)量與數(shù)據(jù)集原始屬性數(shù)量的比較。從實驗的結(jié)果可以看出,4種算法都可以約簡掉冗余的屬性。其中,ARNME算法和ARNCM算法約簡后的屬性數(shù)量接近一致,都能夠獲得較小的約簡結(jié)果,在大部分數(shù)據(jù)集中ARNME算法的屬性數(shù)量小于ARD算法和ARCE算法。從約簡結(jié)果的平均數(shù)來看,本文的ARNME算法獲得的平均屬性約簡數(shù)為9,而ARD、ARCE和ARNCM算法分別為10,17和9,因此從總體來看,本文算法能夠獲得較少的屬性數(shù)量。

表3 約簡前后屬性數(shù)比較

4.3 分類精度比較

為了更好地驗證算法的有效性,實驗引入經(jīng)典的分類與回歸樹(Classification and Regression Trees, CART)和支持向量機(Support Vector Machine, SVM)兩種分類器,采用十折交叉驗證的分類精度來評估所選屬性的質(zhì)量。實驗結(jié)果如表4所示。

表4是4種約簡算法約簡后的分類精度和原始精度的比較。通過實驗數(shù)據(jù)可以看出約簡后的屬性分類精度并沒有明顯的降低,這說明原始的屬性中包含一些冗余屬性,這4種約簡算法在剔除這些冗余屬性后既能夠降低屬性維度,又能夠保有原有的數(shù)據(jù)信息,因此都適用于屬性約簡。

觀察表4 CART分類器中的數(shù)據(jù)發(fā)現(xiàn),在大部分數(shù)據(jù)集中,本文算法的分類精度略高于其他3種對比算法。從單個數(shù)據(jù)集來看:在Horse和Zoo數(shù)據(jù)集中,ARNME算法的分類精度略低于ARD算法的分類精度,但是高于ARCE算法的分類精度;在Heart和Wdbc數(shù)據(jù)集中,ARNME算法比其他對比算法獲得較高的分類精度;在Credit數(shù)據(jù)集中,ARNME算法的分類精度與其他3種對比算法相等;在Soybean數(shù)據(jù)集中,ARNME算法的分類精度高于其他3種對比算法,說明該算法對具有混合屬性的不完備數(shù)據(jù)的處理有較好的效果。再從分類精度的平均值綜合來看,本文算法的平均精度高于原始精度和其他3種算法的分類精度。這說明本文算法在CART分類器下在不降低分類精度的前提下能夠獲得較好的分類精度。

表4 不同分類器下分類精度比較

通過觀察表4 SVM分類器中的數(shù)據(jù)發(fā)現(xiàn),從單個數(shù)據(jù)集來看,在Heart數(shù)據(jù)集中,ARNME算法的分類精度略低于ARNCM算法,但是高于ARD和ARCE算法。在Horse、Hepatitis、Soybean這3種具有混合屬性的數(shù)據(jù)集中,ARNME算法的分類精度高于其他3種對比算法。在Zoo數(shù)據(jù)集中略低于ARD和ARCE算法,但是高于ARNCM算法。其他的數(shù)據(jù)集中ARNME算法均獲得較高的分類精度。從平均分類精度來看,ARNME算法的平均精度為0.891 6,高于其他3種算法和原始屬性的分類精度。這說明ARNME算法在SVM分類器下也能夠獲得較好的分類精度。

由以上的實驗結(jié)果可知,本文提出的算法不僅可以處理不完備數(shù)據(jù),還可以處理混合屬性數(shù)據(jù);能夠在獲得較小約簡結(jié)果的同時保持較高的分類精度。

5 結(jié)語

本文針對符號型屬性和數(shù)值型屬性共同存在的情況,考慮了數(shù)據(jù)中所隱含的信息,利用已知屬性值的概率分布情況構(gòu)造了拓展不完備鄰域粗糙集模型;分析了基于代數(shù)和基于信息的啟發(fā)式函數(shù)的優(yōu)缺點,定義了鄰域混合熵的啟發(fā)式函數(shù),定義和證明了其在不完備鄰域信息系統(tǒng)中的相關(guān)性質(zhì)和定理,并提出了基于鄰域混合熵的不完備鄰域粗糙集屬性約簡算法。通過實驗將該算法與其他算法進行了比較,實驗結(jié)果表明,本文的算法能夠獲得較少的約簡屬性和較高的分類精度。不同的閾值λ1、λ2會影響屬性約簡個數(shù)和分類精度,本文的閾值是通過考察數(shù)據(jù)的分布特征并結(jié)合概率的相關(guān)知識給出的,可能不適用于其他數(shù)據(jù)集,因此具有一定的局限性,接下來的工作是研究如何通過機器學(xué)習(xí)等方法選擇合適的閾值。

References)

[1] PAWLAK Z. Rough sets [J]. International Journal of Computer and Information Sciences, 1982, 11(5): 341-356.

[2] SARAH V, LYNN D, YVAN S, et al. Applications of fuzzy rough set theory in machine learning: a survey [J]. Fundamenta Informaticae, 2015, 142(1/2/3/4): 53-86.

[3] RAHMAN A, MUHAMMAD H S, SUNGYOUNG L. Rough set-based approaches for discretization: a compact review [J]. Artificial Intelligence Review, 2015, 44(2):235-263.

[4] WANG D L, SONG X F, YUAN J Y. Forecasting core business transformation risk using the optimal rough set and the neural network [J]. Journal of Forecasting, 2015, 34(6): 478-491.

[5] CHEN L F, CHIHTSUNG T. Data mining framework based on rough set theory to improve location selection decisions: a case study of a restaurant chain [J].Tourism Management, 2016, 53: 197-206.

[6] JENSEN R, SHEN Q. Semantics-preserving dimensionality reduction: rough and fuzzy-rough-based approaches [J]. IEEE Transactions On Knowledge and Data Engineering, 2004, 16(12): 1457-1471.

[7] LIN T Y. Granular computing on binary relations [C]// RSCTC 2002: Proceedings of the Third International Conference on Rough Sets and Current Trends in Computing. Berlin: Springer, 2002: 296-299.

[8] 胡清華,于達仁,謝宗霞.基于鄰域?;痛植诒平臄?shù)值屬性約簡[J].軟件學(xué)報,2008,19(3):640-649.(HU Q H, YU D R, XIE Z X. Numerical attribute reduction based on neighborhood granulation and rough approximation [J]. Journal of Software, 2008, 19(3): 640-649.)

[9] XIE J, SHEN X F, LIU H F, et al. Research on an incremental attribute reduction based on relative positive region [J]. Journal of Computational Information Systems, 2013, 9(16): 6621-6628.

[10] WANG C R, QU F F. An attribute reduction algorithm in rough set theory based on information entropy [C]// Proceedings of the 2008 International Symposium on Computational Intelligence and Design. Washington, DC: IEEE Computer Society, 2008: 3-6.

[11] HU Q H, ZHANG L, ZHANG D, et al. Measuring relevance between discrete and continuous features based on neighborhood mutual information [J]. Expert Systems with Applications, 2011, 38(9): 10737-10750.

[12] CHEN Y M, WU K S, CHEN X H, et al. An entropy-based uncertainty measurement approach in neighborhood systems [J]. Information Sciences, 2014, 279: 239-250.

[13] DAI J H. Rough set approach to incomplete numerical data [J]. Information Sciences, 2013, 241: 43-57.

[14] LIANG J, SHI Z, LI D, et al. Information entropy, rough entropy and knowledge granulation in incomplete information systems [J]. International Journal of General Systems, 2006, 35(6): 641-654.

[15] QIAN Y H, LIANG J Y, PEDRYCZ W, et al. An efficient accelerator for attribute reduction from incomplete data in rough set framework [J]. Pattern Recognition, 2011, 44(8): 1658-1670.

[16] 羅豪,續(xù)欣瑩,謝珺,等.基于擴展容差關(guān)系的不完備信息系統(tǒng)屬性約簡[J].計算機應(yīng)用,2016,36(11):2958-2962.(LUO H, XU X Y, XIE J, et al. Attribute reduction in incomplete information systems based on extended tolerance relation [J]. Journal of Computer Applications, 2016, 36(11): 2958-2962.)

[17] WANG G Y, GUAN L H, WU W Z, et al. Data-driven valued tolerance relation based on the extended rough set [J]. Fundamenta Informaticae, 2014, 132(3): 349-363.

[18] 姚晟,徐風,趙鵬,等.基于鄰域量化容差關(guān)系粗糙集模型的特征選擇算法[J].模式識別與人工智能,2017,30(5):416-428.(YAO S, XU F, ZHAO P, et al. Feature selection algorithm based on neighborhood valued tolerance relation rough set model [J]. Pattern Recognition and Artificial Intelligence, 2017, 30(5): 416-428.)

[19] 何松華,康嬋娟,魯敏,等.基于鄰域組合測度的屬性約簡方法[J].控制與決策,2016,31(7):1225-1230.(HE S H, KANG C J, LU M, et al. Attribute reduction method based on neighborhood combination measure [J]. Control and Decision, 2016, 31(7): 1225-1230.)

[20] 王國胤,于洪,楊大春.基于條件信息熵的決策表約簡[J].計算機學(xué)報,2002,25(7):759-766.(WANG G Y, YU H, YANG D C. Decision table reduction based on conditional information entropy [J]. Chinese Journal of Computers, 2002, 25(7): 759-766.)

[21] 江峰,王莎莎,杜軍威,等.基于近似決策熵的屬性約簡[J].控制與決策,2015,30(1):65-70.(JIANG F, WANG S S, DU J W, et al. Attribute reduction based on approximation decision entropy [J]. Control and Decision, 2015, 30(1): 65-70.)

[22] 黃國順,文翰.基于邊界域和知識粒度的粗糙集不確定性度量[J].控制與決策,2016,31(6):983-989.(HUANG G S, WEN H. Uncertainty measures of rough sets based on boundary region and knowledge granularity [J]. Control and Decision, 2016, 31(6): 983-989.)

[23] 唐朝輝,陳玉明.鄰域系統(tǒng)的不確定性度量方法[J].控制與決策,2014,29(4):691-695.(TANG C H, CHEN Y M. Neighborhood system uncertainty measurement approaches[J]. Control and Decision, 2014, 29(4): 691-695.)

[24] 黃國順,曾凡智,文翰.基于條件概率的粗糙集不確定性度量[J].控制與決策,2015,30(6):1099-1105.(HUANG G S, ZENG F Z, WEN H. Uncertainty measures of rough set based on conditional possibility [J]. Control and Decision, 2015, 30(6): 1099-1105.)

[25] ZHAO H, QIN K. Mixed feature selection in incomplete decision table [J]. Knowledge-Based Systems, 2014, 57: 181-190.

This work is partially supported by the National Natural Science Foundation of China (61602004, 61300057), the Natural Science Foundation of Anhui Province (1508085MF127), the Key Project of Natural Science Research of Anhui Higher Education Institutions (KJ2016A041), the Public Bidding Project of Co-Innovation Center for Information Supply & Assurance Technology (ADXXBZ2014- 5, ADXXBZ2014- 6), the Doctoral Scientific Research Foundation of Anhui University (J10113190072).

YAOSheng, born in 1979, Ph. D., lecturer. Her research interests include rough set, granular computing, big data.

WANGJie, born in 1993, M. S. candidate. His research interests include rough set.

XUFeng, born in 1993, M. S. candidate. His research interests include rough set.

CHENJu, born in 1993, M. S. candidate. Her research interests include rough set.

猜你喜歡
約簡粗糙集鄰域
基于Pawlak粗糙集模型的集合運算關(guān)系
稀疏圖平方圖的染色數(shù)上界
基于二進制鏈表的粗糙集屬性約簡
基于鄰域競賽的多目標優(yōu)化算法
實值多變量維數(shù)約簡:綜述
基于模糊貼近度的屬性約簡
多?;植诩再|(zhì)的幾個充分條件
關(guān)于-型鄰域空間
雙論域粗糙集在故障診斷中的應(yīng)用
兩個域上的覆蓋變精度粗糙集模型
定边县| 交口县| 和田市| 紫阳县| 南昌县| 东丰县| 揭西县| 临江市| 繁昌县| 高平市| 盖州市| 喀什市| 宜城市| 鄂伦春自治旗| 沅江市| 山东| 伊川县| 莫力| 青浦区| 万盛区| 辽中县| 云安县| 慈利县| 南召县| 安陆市| 宿州市| 吴旗县| 萨嘎县| 广南县| 施甸县| 河源市| 井冈山市| 平阳县| 武邑县| 伽师县| 鹿邑县| 宁河县| 若尔盖县| 邹城市| 苏尼特左旗| 兴化市|