国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

從人類智能到機器實現(xiàn)模型
——粒計算理論與方法

2016-04-07 05:50:55苗奪謙張清華錢宇華梁吉業(yè)王國胤吳偉志高陽商琳顧沈明張紅云
智能系統(tǒng)學報 2016年6期
關(guān)鍵詞:粗糙集度量不確定性

苗奪謙,張清華,錢宇華,梁吉業(yè),王國胤,吳偉志,高陽,商琳,顧沈明,張紅云

(1.同濟大學 嵌入式系統(tǒng)與服務(wù)計算教育部重點實驗室,上海 201804; 2.重慶郵電大學 計算智能重慶市重點實驗室,重慶 400065; 3.山西大學 計算智能與中文信息處理教育部重點實驗室, 山西 太原 030006; 4. 浙江海洋大學 浙江省海洋大數(shù)據(jù)挖掘與應(yīng)用重點實驗室,浙江 舟山 316022; 5.南京大學 軟件新技術(shù)國家重點實驗室,江蘇 南京 210093)

從人類智能到機器實現(xiàn)模型
——粒計算理論與方法

苗奪謙1,張清華2,錢宇華3,梁吉業(yè)3,王國胤2,吳偉志4,高陽5,商琳5,顧沈明4,張紅云1

(1.同濟大學 嵌入式系統(tǒng)與服務(wù)計算教育部重點實驗室,上海 201804; 2.重慶郵電大學 計算智能重慶市重點實驗室,重慶 400065; 3.山西大學 計算智能與中文信息處理教育部重點實驗室, 山西 太原 030006; 4. 浙江海洋大學 浙江省海洋大數(shù)據(jù)挖掘與應(yīng)用重點實驗室,浙江 舟山 316022; 5.南京大學 軟件新技術(shù)國家重點實驗室,江蘇 南京 210093)

人工智能是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學,是對人的意識、思維過程的模擬。粒計算是當前智能信息處理領(lǐng)域中一種新的概念和計算范式,是研究基于多層次粒結(jié)構(gòu)的思維方式、復雜問題求解、信息處理模式及其相關(guān)理論、技術(shù)和工具的方法論。本文首先分析了人工智能模擬人腦智能的粒計算模式與方法,其次總結(jié)了粗糙集、商空間、模糊集、云模型、三支決策等幾種典型的粒計算基本構(gòu)架與數(shù)學模型,然后分析知識的多粒度解析表示與不確定性度量的研究現(xiàn)狀,最后展望了粒計算求解模式在大數(shù)據(jù)時代所面臨的機遇與挑戰(zhàn)。

人工智能;大數(shù)據(jù);不確定性;粒計算;多粒度;粗糙集;商空間;模糊集;云模型;三支決策

GAO Yang5, SHANG Lin5, GU Shenming4, ZHANG Hongyun1

自從1956年人工智能概念的提出,人工智能已經(jīng)發(fā)展了整整60年。無論是最早的“推理期”、之后的“知識期”,還是目前蓬勃發(fā)展的“學習期”,這些歷史時期都產(chǎn)生了極為璀璨的人工智能理論與技術(shù),有力推動了信息技術(shù)的快速發(fā)展。目前,人工智能研究主要從兩個方面展開:一類著重于感知機理的理解與模擬,包括視覺、觸覺、嗅覺、聽覺等動態(tài)輸入的理解與建模;另一類著重于認知機理的理解與模擬,重點關(guān)注人類較高層次的認知機理與信息處理方法,包括人類的學習能力、求解能力、推理能力、決策能力等。

1 粒計算的發(fā)展及特點

粒計算(granular computing)是當前人工智能領(lǐng)域中一種新的概念和計算范式,是研究基于多層次粒結(jié)構(gòu)的思維方式、問題求解方法、信息處理模式及其相關(guān)理論、技術(shù)和工具的學科,屬于人類較高層次認知機理研究的范疇。自1997年Zadeh[1]第1次提出粒計算的概念以來,涌現(xiàn)出許多關(guān)于粒計算研究的學術(shù)及應(yīng)用成果。從研究水平來看,2016年國際期刊Journal of Granular Computing[2]在Springer創(chuàng)刊;國際學術(shù)會議有每年一次的IJCRS;國內(nèi)會議有每年一次的CRSSC-CWI-CGrC;在近年來的國家自然科學基金申請中,粒計算理論及應(yīng)用已經(jīng)成為信息學部的申請和研究熱點之一[3]。與此同時,Web-of-Science 檢索結(jié)果顯示,以粒計算為主題的文章除了計算機科學學科外,與多個學科具有關(guān)聯(lián)(見表1)。

表1 以粒計算為主題的SCI論文學科及高引論文分布

Table 1 Distribution of disciplines and its highly cited paper count on topic granular computing

研究領(lǐng)域記錄數(shù)所占比例/%高引論文數(shù)計算機科學125647.05926工程91934.4322物理28510.6781材料科學1937.2311機械1897.0810數(shù)學1656.1820地理科學1244.6460

從研究內(nèi)容看,早期粒計算的應(yīng)用研究主要集中在數(shù)據(jù)?;⒍嗔6确治?、知識發(fā)現(xiàn)等方面。自2013年以來,有關(guān)粒計算的研究呈現(xiàn)出較強的應(yīng)用價值。2015年在天津召開的 RSFDGrC 國際會議[4]上,發(fā)表的有關(guān)粒計算研究成果中,超過半數(shù)有關(guān)應(yīng)用研究,如臺灣省的Kao-Yi Shen和Gwo-Hshiung Tzeng將決策粗糙集和粒計算的方法應(yīng)用于壽險公司營銷模式分析。2017年SCI二區(qū)期刊信息科學專輯“大數(shù)據(jù)時代基于粒計算的機器學習”[5]明確指出,除了粒計算理論和模型的研究外,收稿范圍擴展到所有與粒計算相關(guān)的工業(yè)界研究成果。專輯實際收錄推薦系統(tǒng)、入侵檢測等應(yīng)用達一半之多。

當前,互聯(lián)網(wǎng)和大數(shù)據(jù)催生了領(lǐng)域問題的大規(guī)模和復雜化。從人工智能角度來看, 粒計算是模擬人類思考和解決大規(guī)模復雜問題的結(jié)構(gòu)化求解模式, 從實際問題的需要出發(fā), 用可行的滿意近似解替代精確解。該理論改變了傳統(tǒng)的計算觀念,達到對問題的簡化、提高問題求解效率等目的[6]。事實上,粒計算不僅是人類認知的一種天然特性,也是許多智能分析任務(wù)的內(nèi)在需求。揭示和模擬人類的這種粒計算認知機理對人工智能發(fā)展具有重要作用。

1.1 粒化思維的優(yōu)越性

正如張鈸院士[7]所指出的“人類智能的一個公認特點,就是人們能從極不相同的粒度上觀察和分析同一問題,并且很容易地從一個粒度世界轉(zhuǎn)到另一個粒度世界”。這強有力地表現(xiàn)了人類問題求解過程中具備了在多個粒度空間之間進行通信和轉(zhuǎn)換的能力?;诙嗔6鹊臄?shù)據(jù)建模就是通過獲得的信息粒集和多個粒結(jié)構(gòu)進行復雜數(shù)據(jù)分析,從中挖掘可用的知識并形成有效決策。若數(shù)據(jù)建模僅使用一個粒結(jié)構(gòu),則稱其為基于單粒度的數(shù)據(jù)建模;若使用多個粒結(jié)構(gòu),則稱其為基于多粒度的數(shù)據(jù)建模?!皺M看成嶺側(cè)成峰,遠近高低各不同”,由于多粒度分析從多個角度、多個層次出發(fā)分析問題,可獲得對于問題更加合理、更加滿意的求解結(jié)果??傊?,基于多粒度原理的模擬與實現(xiàn)對復雜問題的機器求解具有重要指導價值。

1.2 多粒度結(jié)構(gòu)的普遍性

許多數(shù)據(jù)具有多粒度、多層次特性。比如,對于廣泛存在的生物網(wǎng)絡(luò)數(shù)據(jù),Nir Friedma等[8]在《Science》上發(fā)表的論文就認為在諸如復雜細胞網(wǎng)絡(luò)、蛋白質(zhì)互作用網(wǎng)絡(luò)等生物數(shù)據(jù)中都廣泛存在著多層次、多尺度特性。Clauset等[9]在《Nature》上發(fā)表的論文也指出,在復雜社會網(wǎng)絡(luò)中也存在天然的層次結(jié)構(gòu),而社會網(wǎng)絡(luò)面臨的數(shù)據(jù)自身就是廣泛存在的多模態(tài)數(shù)據(jù)。Ahn等[10]則專門研究了大規(guī)模復雜數(shù)據(jù)的多尺度復雜性特性。在軍事、氣象等領(lǐng)域,由衛(wèi)星獲得的多波段遙感數(shù)據(jù)也是典型的具有多層次、多尺度特性的多模態(tài)數(shù)據(jù)[11]。這些都暗示著反映復雜的模式發(fā)現(xiàn)與推理決策的多模態(tài)數(shù)據(jù)必然隱含著由這些數(shù)據(jù)所決定的局部與整體關(guān)系以及復雜的層次結(jié)構(gòu),即數(shù)據(jù)的多粒度/多層次特性。諸多數(shù)據(jù)異構(gòu)變量之間往往具有天然的多粒度形態(tài)。不同于同構(gòu)變量,它們可以自然地表達為一個線性空間。比如在多模態(tài)數(shù)據(jù)中,異構(gòu)變量之間由于語義的不一致,它的知識表示和運算是挑戰(zhàn)性問題。然而,這也正是人類的重要認知能力之一,人們可以從不同的傳感器收集信息并進行有效融合以形成合理推理與決策。事實上,多模態(tài)數(shù)據(jù)既可以提供互補信息還可以提供協(xié)同信息,這是多模態(tài)數(shù)據(jù)分析的重要優(yōu)勢之一?;パa信息是指多種傳感器觀測到的相互獨立的特征信息,它可以擴展系統(tǒng)的性能;而協(xié)同信息則指的是單一傳感器無法獲得,需要依靠多種傳感器協(xié)同作用才能獲得的信息,它可以進一步擴大系統(tǒng)的控制范圍。從粒計算的觀點來看,在不同變量上對同一數(shù)據(jù)集獲得的粒結(jié)構(gòu)可能是不一樣的,這為該數(shù)據(jù)的理解和認知提供了天然的具有互補性的多粒度結(jié)構(gòu)。

1.3 認知結(jié)構(gòu)的多粒度性

近年來在人工智能領(lǐng)域最受關(guān)注的非深度學習莫屬。自2006年Geoffrey Hinton等[12]在《Science》期刊發(fā)表“Reducing the dimensionality of data with neural networks”開始,深度學習的熱潮從學術(shù)界席卷到了整個工業(yè)界。深度學習正是模擬人類大腦神經(jīng)網(wǎng)絡(luò)潛在地利用事物的底層特征到抽象特征的層次結(jié)構(gòu)模型來認知事物的內(nèi)在機制與原理,這是一種典型的多粒度結(jié)構(gòu)。深度學習提供了一套豐富的、基于連接主義的建模框架,可以表達數(shù)據(jù)內(nèi)在的豐富的粒度關(guān)系和結(jié)構(gòu)。特別是,深度學習在圖像、文字、語音等領(lǐng)域的識別方面取得了巨大成功,這些數(shù)據(jù)類型正是多粒度數(shù)據(jù)的重要組成部分。粒計算與深度學習有機結(jié)合[13]將是非常值得期待的研究方向。

1.4 任務(wù)處理的多粒度性

在實際應(yīng)用中,用戶需求的多粒度特性決定了信息處理任務(wù)的多粒度特性。比如,在視頻分析領(lǐng)域,數(shù)據(jù)挖掘任務(wù)可能是面向視頻主題進行分類的,也可能是面向主角進行分類的,也可能是面向視頻性質(zhì)進行分類的。又如,在網(wǎng)絡(luò)大數(shù)據(jù)領(lǐng)域,社團發(fā)現(xiàn)任務(wù)本身就是不同的粒度水平?jīng)Q定了發(fā)現(xiàn)社團的規(guī)模,不同的粒度水平觀測到的網(wǎng)絡(luò)動力學行為可能都是有所區(qū)別的。這些都使得挖掘任務(wù)可能同時面向不同層次、不同粒度,這個多粒度特性要求數(shù)據(jù)挖掘工具能夠從多個粒度上同時探索數(shù)據(jù)隱含的模式,并進行有效融合,形成對事物的整體客觀認識。

借鑒人類的這種粒計算認知機理,開展數(shù)據(jù)驅(qū)動的人工智能研究,有望誕生新的人工智能理論與方法,對數(shù)據(jù)挖掘、知識發(fā)現(xiàn)、機器學習等領(lǐng)域的發(fā)展具有重要的理論意義,同時對提高海量信息處理的效率具有實際的應(yīng)用價值。需要指出的是,粒計算自然地具有多學科交叉的特性,粒計算的研究與發(fā)展有望推動信息科學、認知科學、數(shù)學等相關(guān)學科的深度融合,為人工智能各領(lǐng)域的共同繁榮、人工智能真正地成為類人智能做出貢獻。

2 粒計算基本理論模型

隨著粒計算研究工作的不斷深入,人們從不同的角度研究得到了不同的粒計算理論模型,主要有模糊集理論模型、粗糙集理論模型、商空間理論模型、云模型和三支決策理論模型等。粒計算理論模型大體分為兩大類:一類是以信息的?;癁槟繕?,如模糊集理論模型;另一類則以多粒度計算為目標,如粗糙集理論模型、商空間理論模型、云模型和三支決策理論模型。下面是它們的簡單介紹。

2.1 模糊集理論模型

模糊集理論[14]是Zadeh于1965年首先提出的,他認為元素總是以一定的程度屬于某個集合,也可能以不同的程度屬于幾個集合。它是對經(jīng)典集合理論的擴展,最主要的貢獻在于引入了集合中元素對該集合的“隸屬度”,從而將經(jīng)典集合理論的特征函數(shù)取值范圍由{0,1}推廣到區(qū)間值[0,1],將經(jīng)典二值邏輯推廣至多值邏輯,而集合中元素對集合本身的“隸屬度”主要通過隸屬函數(shù)來表示。“隸屬度”的相關(guān)定義如下:

而λ強截集定義為

模糊集理論中,隸屬函數(shù)扮演著基石的角色。王國胤教授[16]指出了模糊集是用不精確的方法來刻畫不確定問題,其原因在于獲取隸屬度值是不確定的。在后續(xù)的研究中將精確唯一的隸屬度值進行種種拓展,形成了許多新的理論體系,主要有直覺模糊集、二型模糊集、區(qū)間模糊集和Vague集等。

模糊集理論研究的是一種不確定性現(xiàn)象,主要針對于人類智能的研究,目的是使計算機能夠模擬人的智能,具有能夠在不精確以及部分精確的環(huán)境下給出合理決策的能力,而這一能力的基礎(chǔ)就是對信息的模糊?;?。Zadeh在文獻[17]中將粒定義為一個命題,定義并討論了模糊粒的概率分布及概率的計算方法。隨著模糊集理論的不斷發(fā)展完善,使得以模糊邏輯和信息粒化為基礎(chǔ)的模糊信息?;碚揫1,17-18]得以更好地實現(xiàn),它們?yōu)樵~計算的發(fā)展提供了前提條件。

2.2 粗糙集理論模型

下近似集和上近似集把論域分成3個部分,分別為正區(qū)域(POSR(X))、負區(qū)域(NEGR(X))和邊界域(BNDR(X)):

從圖1可知,在粒度一定的情況下,假設(shè)黑線勾勒出的知識表示概念X,那么概念X的下近似集就是由完全屬于邊界域范圍內(nèi)粒子組成,在圖形中用黑體部分表示;概念X的上近似集包括灰色部分和黑色部分組成;概念X的邊界域由是灰色部分組成。那么由此可以看出,當知識粒度越小,那么下近似集越大,邊界越小。

圖1 粗糙集的上下近似集與邊界域圖Fig.1 Upper approximation, lower approximation and boundary region of rough set

圖1表明,知識是有粒度的,且知識的不確定性與知識的粒度粗細存在正相關(guān)的關(guān)系:知識粒度越粗,它的不確定性越大(邊界域越大)。在粗糙集理論中,知識被表示為對特定空間上的對象的劃分能力,知識粒度被表示為對象的等價類,相同的知識稱為不可分辨。以粗糙集理論為基礎(chǔ)的粒計算研究,就是對知識空間上粒的表示、轉(zhuǎn)換和相互依存等問題進行相關(guān)研究,以期得到更精確的知識表達。

2.3 商空間理論模型

張鈸院士和張鈴教授[20]在研究問題求解時,開創(chuàng)性地提出了商空間理論。商空間理論模型可以用一個三元組(X,f,T)來表示:X表示問題論域,f表示論域的屬性,T是表示論域的拓撲結(jié)構(gòu)。對于一個給定的論域X的等價關(guān)系R,可以得到一個對應(yīng)于R的商集[X],然后將[X]當成新的論域,必有一個對應(yīng)的三元組([X],[f],[T]),稱其為對應(yīng)于R的商空間。商空間理論的推理模型主要依據(jù)兩個重要的性質(zhì):一個是“保真原理”,指若一個命題在兩個較細粒度的商空間中是真的,則(在一定條件下)在其合成的商空間中對應(yīng)的問題也是真的;另一個是“保假原理”,指若一個命題在粗粒度空間中是假的,則該命題在比它細的商空間中也一定為假。

商空間理論的目的是研究不同商空間之間的關(guān)系、商空間的分解、合成和推理規(guī)律。它將復雜問題表示成不同粗細的粒度空間,然后構(gòu)建多粒度的分層遞階商空間結(jié)構(gòu),并通過由粗到細或由細到粗的方式,利用“保真原理”和“保假原理”逐層在多粒度空間中進行多級逼近推理,最后將多粒度空間中粒的解組合成原始問題難題或整體粒的解,從而獲得復雜問題的解。

2.4 云模型

1995年李德毅院士在概率論和模糊數(shù)學的基礎(chǔ)上提出隸屬云和隸屬云發(fā)生器[21],并進一步發(fā)展為云模型[22]。云的定義如下所示:

設(shè)U是一個用精確數(shù)值表示的定量論域,C是U上的定性概念,若定量值x∈U,且x是定性概念C的一次隨機實現(xiàn),x對C的確定度μ(x)∈[0,1]是具有穩(wěn)定傾向的隨機數(shù)。

若μ:U→[0,1], ?x∈U,x→μ(x)則x在論域U上的分布稱為云,每一個x稱為云滴。

云由若干云滴組成,云滴是某個定性概念的一次隨機實現(xiàn),多次產(chǎn)生的云滴可以綜合反映這個定性概念的整體特征。某個概念的整體特征可以用云的3個數(shù)字特征來表示,即期望Ex、熵En和超熵He。云和云的數(shù)字特征如圖2所示。

圖2 高斯云及其數(shù)字特征示意Fig.2 Gaussian cloud and its numerical characteristics

云模型作為用語言值描述的某個定性概念與其數(shù)值表示之間的不確定性轉(zhuǎn)換模型,可以刻畫語言值中大量存在的隨機性、模糊性以及兩者之間的關(guān)聯(lián)性。它主要基于高斯混合模型從原始數(shù)據(jù)中提取概念(?;?,以云滴的方式對概念進行表示(粒度表達),通過云的躍遷構(gòu)建云模型的層次結(jié)構(gòu)(粒的層次構(gòu)建),利用云模型的3個數(shù)字特征進行云運算和云推理(粒計算)。作為粒計算的基本模型之一,云模型具有粒計算從不同的層次、不同的角度觀察和分析問題的特點,具有粒計算將復雜問題分解成若干子問題分別求解,降低計算復雜度的特點。

2.5 三支決策理論模型

三支決策理論[22-24]最初是由加拿大里賈納大學的姚一豫在粒計算和粗糙集理論的研究基礎(chǔ)上提出的。三支決策的主要思想就是將待求解問題通過映射f分解為3個部分:L-域、M-域和R-域,然后對不同的部分采用不同的處理方法進行分析求解,它為復雜問題求解提供了一種有效的策略與方法。根據(jù)映射f的不同,分為定性三支決策和定量三支決策。在定量三支決策模型中,通過映射函數(shù),以及引入的一對閾值(α,β)(一般1≥α≥β≥0),在三支決策空間中進行3個區(qū)域的計算,如下所示[25]:

接受域:ACP(α,β)(E,A)={x∈U|E(A)(x)≥α}

拒絕域:REJ(α,β)(E,A)={x∈U|E(A)(x)≤β}

不確定域:UNC(α,β)(E,A)={x∈U|β

式中:E(A)為論域U上關(guān)于集合A?U的映射函數(shù)。一般情況下,不確定域與M-域相對應(yīng),接受域和拒絕域則根據(jù)實際情況與L-域和R-域相對應(yīng)。

三支決策理論很好地模擬了人類解決實際問題的思維,首先確定了接受域(即明確接受的部分)和拒絕域(即明確拒絕的部分),然后重點研究不確定域的待確認部分。不確定域是不精確對象的集合,對不確定域求解的目的就是降低其不精確性,實際上就是對不確定域進行多粒度挖掘。不確定域的不精確性主要受對象的粒度過粗影響,當我們基于對象的屬性進行粒度變換及多粒度運算后,使得不確定域?qū)ο蟮牧6扔纱植谥鸩郊毣瑥亩覀儗Σ淮_定域?qū)ο笾鸩较蚪邮苡蚝途芙^域轉(zhuǎn)換,使得不確定域的認知愈加清晰。

3 知識的多粒度表示

基于單粒度的粒計算模型雖然具有粒計算的所有要素(粒化、粒層、粒算子、粒度),但是由于只能從某個角度近似求解,潛在地丟失了復雜問題中多角度信息對問題求解的貢獻。構(gòu)造以單粒度為基礎(chǔ)的多粒度可以融合單粒度的信息,充分利用不同粒度之間的關(guān)系,具有更強的表示能力。因此,知識的多粒度表示與信息融合具有內(nèi)在的一致性。

許多研究表明,多粒度表示下的求解在計算復雜度、求解性能等方面具有更好的效果。文獻[26]研究了社會網(wǎng)絡(luò)中的平衡轉(zhuǎn)化與計算問題,實驗證明通過結(jié)合不同社團內(nèi)部和社團之間的結(jié)構(gòu)化信息,提出的算法MOEA/D-SB具有最小的計算代價(Hw),如圖3所示。文獻[27]從圖像和連環(huán)畫兩個本體的結(jié)構(gòu)化設(shè)計出發(fā),實現(xiàn)了對紙質(zhì)連環(huán)畫結(jié)構(gòu)的自動分析,如圖4所示。

(a) GGS網(wǎng)絡(luò)

(b)War Network圖3 不同權(quán)重參數(shù)下無向符號社會網(wǎng)絡(luò)轉(zhuǎn)換代價Fig.3 Transformation cost Hw with the parameter w for undirected signed network

圖4 連環(huán)畫結(jié)構(gòu)的自動分析Fig.4 Automatic analysis of comic structure

3.1 多粒度表示的關(guān)鍵問題

多粒度表示是使用多粒度方法計算復雜問題的前提,可以從多粒度的內(nèi)涵、效果和表示形式3個層面分析。

1) 從內(nèi)涵來看:多粒度的實質(zhì)是通過多個單粒度的粒合成與分解,近似刻畫對數(shù)據(jù)恰當表述的合理結(jié)構(gòu)[28-29]。這種隱藏的結(jié)構(gòu)通常難以直接根據(jù)數(shù)據(jù)特點確定。通常情況下,多粒度的粒層并不是由單個?;瘻蕜t決定,也不是由多個單粒度簡單地通過粒度交運算得到,是單粒度意義下的超粒。

2) 從效果來看:多粒度下不同信息粒的合成,實際上是信息粒對問題求解效果的合成,最終目的是提高問題求解的質(zhì)量。因此,多粒度計算的實質(zhì)是對潛在影響求解的不同信息粒重要性加權(quán),使得相對正向得益強化,相對負向得益弱化。

3) 從表示形式來看:與粒計算模型的選擇相關(guān)。如基于粗糙集的多粒度研究合成的信息粒以集合[30]的形式表達,基于商空間的多粒度研究合成的信息粒以商空間三元組[31-32]的形式表達。針對不同的多粒度表示方式,王國胤等[33]給出了在大數(shù)據(jù)背景下模型選取和多粒度設(shè)計的框架性描述。

3.2 多粒度的主要模型

由于多粒度本身是相對于單粒度而言,其語義解釋方面并沒有任何附加的約束,因而模型中關(guān)于多粒度的解釋也不盡相同。本文將從信息系統(tǒng)角度出發(fā),總結(jié)已有的5種主要的多粒度模型。

3.2.1 多粒度粗糙集

錢宇華等[33]提出的多粒度粗糙集模型能有效模擬人類求解復雜問題時兼顧多個粒度綜合評價的思維方式。不同于經(jīng)典Pawlak粗糙集中從一個屬性集的角度定義基于等價劃分的信息粒,多粒度粗糙集的信息?;谝粋€屬性集序列建立。多個不可分辨關(guān)系確定論域的層次劃分構(gòu)造多粒度的??臻g,其中每個??臻g具有Pawlak意義下的上下近似。基于多粒度論域空間上對目標概念近似逼近。基于多粒度粗糙集可以有效處理單粒度粗糙集無法解決的以下3種情況:

1) 同一個對象在不同決策者下的分類情況存在矛盾或不一致,此時商集不能進行交運算,因而目標概念不能以交運算來近似;

2) 決策者的決策或觀點相互獨立,任何兩個商集的交運算是冗余的;

3) 在特定背景下,如針對分布式信息系統(tǒng)的數(shù)據(jù)分析,沒有必要進行交運算。

由于賦予了商集決策觀點的語義,基于一組對同一個分類概念觀點可以得到不同的概念近似,其中具有最小決策正域的稱為多粒度樂觀粗糙集,具有最大決策正域的稱為多粒度悲觀粗糙集。形象地講,樂觀粗糙集的上下近似具有求同存異的語義,悲觀粗糙集的上下近似具有求同排異的語義。在此基礎(chǔ)上,許多關(guān)于多粒度粗糙集的變種相繼提出。具體包括:

1)在二元關(guān)系的泛化方面:林國平[34]研究了多粒度1型和2型鄰域粗糙集模型;徐偉華[35]提出了基于容差覆蓋信息粒的樂觀多粒度粗糙集和悲觀多粒度粗糙集;Chen等[36]通過對樂觀悲觀算子的模糊化,定義了一種可調(diào)節(jié)的多粒度模糊粗糙集。

2)在信息粒融合策略的泛化方面:吳偉志等[37]基于證據(jù)理論構(gòu)造不完備信息系統(tǒng)下的悲觀多粒度粗糙集;錢宇華等[38]通過將證據(jù)理論用于優(yōu)化聚類集成,提出了一種新的信息融合方法。

3.2.2 多尺度粗糙集

吳偉志等[11]提出的多尺度粗糙集是信息系統(tǒng)條件屬性在偏序結(jié)構(gòu)意義下的推廣。不同于傳統(tǒng)粗糙集中每個條件屬性信息以單一形式表示,多尺度粗糙集的每個條件屬性信息對應(yīng)一個偏序結(jié)構(gòu),而偏序結(jié)構(gòu)本身是由于屬性具有多粒度造成的。通過映射到不同的層次,豐富了決策依據(jù)的同時,可以根據(jù)需要在某一粒度上綜合不同層次的屬性信息綜合決策。

多尺度粗糙集屬性粒度的選取是一個重要的問題。針對屬性層次提升過程中決策一致性的變化,吳偉志等[39]從保持最大決策一致性角度出發(fā),通過定義信息表決策一致性、上近似一致性、下近似一致性給出了最優(yōu)粒度的評價標準。在此基礎(chǔ)上,吳偉志等[40]等研究了決策一致多尺度粗糙集和決策不一致多尺度粗糙集的屬性約簡算法。

3.2.3 覆蓋粗糙集

覆蓋意義下的上下近似語義要求對概念給出最大(最小)描述。由于滿足這一描述的刻畫方式與語義之間是多對一的關(guān)系,為了盡可能準確地基于覆蓋描述概念而對已有覆蓋近似算子的合成,自然地形成了多粒度研究前提。祝峰等[41]給出了拓撲視角下最大(最小)描述方式,總結(jié)出覆蓋粗糙集下上下近似相互依賴關(guān)系。在此基礎(chǔ)上,提出了3種不同的覆蓋粗糙集及其相互近似轉(zhuǎn)化關(guān)系[42]。祝峰等[43]指出,廣義粗糙集模型鄰域化在一定條件下可以構(gòu)造覆蓋粗糙集,但是由于覆蓋粗糙集的多粒度性,兩者并不等價。苗奪謙等[44]通過結(jié)合已有覆蓋粗糙集研究的基礎(chǔ),提出了4種多粒度樂觀覆蓋粗糙集,并分析了多種粗糙集上下近似之間的包含關(guān)系。在此基礎(chǔ)上,Pedrycz等[45]進一步研究了模糊近似空間下多粒度覆蓋粗糙集。

3.2.4 層次粗糙集

人類在復雜問題求解前具有與問題求解相關(guān)的、結(jié)構(gòu)化的先驗知識,先驗知識本身由于個體的差異和對問題的認識,表現(xiàn)為屬性層次的多樣性。苗奪謙等[46]提出了層次粗糙集模型,使得不同屬性擴展為不同的概念層次樹,從而由一個決策表可以衍生出多個局部具有偏序關(guān)系的決策表,不僅有效提升了求解效率,還能在不同層次得到不同的決策知識。錢進等[47]基于MapReduce機制,提出了大數(shù)據(jù)下層次粗糙集屬性約簡算法。李天瑞等[48-49]進一步研究了在不完備動態(tài)環(huán)境下,由于屬性層次的粗化/細化導致的粗糙近似的更新問題及相應(yīng)算法。

3.2.5雙量化粗糙集

粗糙集近似空間的本質(zhì)是二維的,同時考慮概念的相對量化與絕對量化將有助于近似空間的完備化。張賢勇[50]提出了相對和絕對量化可以分別通過概率粗糙集和程度粗糙集構(gòu)造,并提出了一系列基于邏輯運算的雙量化粗糙集及其區(qū)域保持約簡算法。此后,學者從雙量化粗糙集的構(gòu)造方式上開展了一系列研究。徐偉華[51]等提出基于精度程度近似組合的策略;胡寶清[52]等提出統(tǒng)一概率表示策略。隨著研究的深入;張賢勇和苗奪謙[53]提出雙量化粗糙集的關(guān)鍵在于定義一對具有相對、絕對語義的度量,在此基礎(chǔ)上研究了基于重要性-精確度的定性、定量約簡。

4 粒計算不確定性度量與推理

當今世界處在一個信息時代。信息是人類認識世界和改造世界的知識源泉。人們接觸到的各種各樣的信息,有時候是確定的,更多時候是不確定的。進入21世紀以來,不確定性問題的研究工作受到越來越多的關(guān)注[54]。如何對不確定性信息和數(shù)據(jù)進行有效的處理,從而發(fā)現(xiàn)不確定性信息中蘊涵的知識和規(guī)律,是一個重要的研究課題[55]。度量自然現(xiàn)象的不確定性程度稱為不確定性度量[56]。常見的方法有概率論、熵、證據(jù)理論等。

4.1 單粒度下不確定性度量與推理

4.1.1 單粒度下不確定性度量

單粒度下的不確定性度量可以具有不同的語義,是傳統(tǒng)度量在應(yīng)用領(lǐng)域的具體實現(xiàn)。然而一般來說具有以下三點共同的性質(zhì)。

1) 有界性:度量的最大值/最小值對應(yīng)當前粒結(jié)構(gòu)對問題最完美/最不完美的表達,多數(shù)度量的取值范圍為[0,1];

2) 單調(diào)性:如果結(jié)構(gòu)A對問題的描述比結(jié)構(gòu)B對問題的描述更完美,結(jié)構(gòu)C對問題的描述比結(jié)構(gòu)A對問題的描述更完美,則結(jié)構(gòu)C對問題的描述比結(jié)構(gòu)B對問題的描述更完美;

3) 對稱性:如果結(jié)構(gòu)A對問題的度量和結(jié)構(gòu)B對問題的度量在某種程度范圍內(nèi)無差別,那么結(jié)構(gòu)B對問題的度量和結(jié)構(gòu)A對問題的度量在相同程度范圍內(nèi)無差別。

通常意義下,不確定性度量具有語義和計算視角兩個層面。下面從概率論、信息熵、證據(jù)理論3種計算視角出發(fā),簡要回顧單粒度下不確定性度量研究現(xiàn)狀。

1) 基于概率論的度量

1933年前蘇聯(lián)科學家Kolmogorov在提出的公理化的概率論[57]。下面介紹概率論有關(guān)的基本概念。

定義1[57]設(shè)Ω是非空集合,A是由Ω的一些子集(也稱事件)構(gòu)成的σ代數(shù)。若集函數(shù)Pr滿足如下3條公理:

定義 2[57]設(shè)Ω是非空集合,A是由Ω的一些子集構(gòu)成的σ代數(shù)。而Pr為概率測度,則三元組(Ω,A,Pr)稱為概率空間。

定義3[57]一個隨機變量就是從概率空間(Ω,A,Pr)到實數(shù)集的可測函數(shù)。

定義4[57]n維隨機變量就是從概率空間(Ω,A,Pr)到n維實數(shù)向量空間的一個可測函數(shù)。

定義5[57]隨機變量ξ的概率分布定義為Φ(x)=Pr{ω∈ξ|ξ(ω)≤x},也就是說,Φ(x)是隨機變量ξ取值小于或等于x的概率。

定義6[57]設(shè)ξ為一隨機變量,Φ是ξ的概率分布函數(shù)。如果對所有的x∈(-,+),函數(shù)φ:→[0,+)滿足

則稱φ為隨機變量ξ的概率密度函數(shù)。

定義7[57]設(shè)(ξ1,ξ2,…,ξn)是概率空間(Ω,A,Pr)上的隨機向量,如果函數(shù)Φ:(-,+)n→[0,1]滿足Φ(x1,x2,…,xn)=

Pr{ω∈Ω|ξ1(ω)≤x1,ξ2(ω)≤x2,…,ξn(ω)≤xn},則稱Φ為隨機向量(ξ1,ξ2,…,ξn)的聯(lián)合概率分布。

定義8[57]設(shè)(ξ1,ξ2,…,ξn)是概率空間(Ω,A,Pr)上的隨機向量。如果對于所有(x1,x2,…,xn)∈(-,+)n,存在φ:n→[0,+)滿足Φ(x1,x2,…,xn)=

則稱φ為隨機向量(ξ1,ξ2,…,ξn)的聯(lián)合概率密度函數(shù)。

2) 基于熵的度量

隨著通信技術(shù)的發(fā)展,Shannon于1948年提出了信息熵的概念[58]。將粒化后的結(jié)構(gòu)看成論域的不同劃分,并與模糊集、粗糙集等模型相結(jié)合,人們先后提出了模糊熵、粗糙熵等概念。

定義9[59]設(shè)U是論域,P是U上的一個等價關(guān)系,P在U上導出的劃分A={X1,X2,…,Xn},則P在U的子集組成的σ代數(shù)上定義的概率分布為

定義10[59]設(shè)U是論域,P、Q是U上的兩個等價關(guān)系,P、Q在U上導出的劃分分別為A、B,其中A={X1,X2,…,Xn},B={Y1,Y2,…,Ym},則P與Q的聯(lián)合概率分布為

定義11[59]設(shè)U是論域,P是U上的一個等價關(guān)系,P在U上導出的劃分A={X1,X2,…,Xn},則知識P的熵H(P)為

定義12[59]設(shè)U是論域,P、Q是U上的兩個等價關(guān)系,P、Q在U上導出的劃分分別為A、B,其中A={X1,X2,…,Xn},B={Y1,Y2,…,Ym},則知識Q相對于知識P的條件熵為

定義13[60]知識P與Q的互信息為

定義14[61]設(shè)A是論域U上的一個模糊集,xi∈U,μA(xi)是xi的隸屬度函數(shù),值域為[0,1]。則A的模糊熵為

定義15[61]在信息系統(tǒng)(U,A)中,論域U={x1,x2…,xn},屬性集A={a1,a2…,am},X?U,B?A,對象子集X關(guān)于B的近似精度、粗糙度分別定義為

定義16[62]在信息系統(tǒng)(U,A)中,屬性子集B?A對論域的劃分U/B={X1,X2,…,Xm},屬性集B的熵定義如下:

X?U在劃分U/B上的粗糙熵定義為

3) 基于證據(jù)理論的度量

證據(jù)理論是由Dempster首先提出的,后經(jīng)他的學生Shafer發(fā)揚光大,所以也稱D-S理論[63-64]。

定義17 基本概率分配函數(shù)(又稱為mass函數(shù)):對于任意一個屬于U的子集A(命題),對應(yīng)于一個數(shù)m∈[0,1],且滿足

則稱函數(shù)m為冪集2U上的基本概率分配函數(shù),m(A)稱為A基本概率數(shù)。

定義20 證據(jù)的信任函數(shù):對任何命題A?U的信任函數(shù)為

定義21 證據(jù)的似然函數(shù):對任何命題A?U的似然函數(shù)為

Pl(A)=1-Bel(~A)=m(U)+Bel(A)

根據(jù)以上定義,可以看出命題的信任函數(shù)和似然函數(shù)之間滿足下列關(guān)系:

Pl(A)≥Bel(A)

Pl(A)-Bel(A)=m(U)

除了以A[Bel(A),Pl(A)]作為A的不確定性度量外,還可用類概率函數(shù)來度量。

定義22 類概率函數(shù):設(shè)U為有限域,對任何命題A?U,A的類概率函數(shù)為

定義23[65-66]設(shè)K=(U,R)是一個知識庫,R∈為論域U上的等價關(guān)系,稱為知識。知識R∈的粒度,記為GD(R),定義為

定義24[65-66]設(shè)K=(U,R)是一個知識庫,知識R∈的分辨度,記為Dis(R),定義為

Dis(R)=1-GD(R)

梁吉業(yè)和史忠植[62]給出了不完備信息系統(tǒng)中的信息熵的形式,其形式如下:

為了區(qū)別于Shannon信息熵,梁吉業(yè)和史忠植[58]信息熵的另一種形式,即

后來,錢宇華和梁吉業(yè)[68]將粗糙熵引入到不完備信息系統(tǒng)中,給出了不完備信息系統(tǒng)的粗糙熵:

錢宇華和梁吉業(yè)[67]在不完備信息系統(tǒng)中給出了組合熵的定義:

王俊紅等[69]給出了不完備信息系統(tǒng)中知識粒度的定義:

為了對不完備信息系統(tǒng)的知識粒度有更加直觀的理解,錢宇華和梁吉業(yè)[68]在不完備信息系統(tǒng)中提出了組合粒度的概念:

為了更好地理解不確定性度量的本質(zhì),梁吉業(yè)等[68]建立了信息熵、粗糙熵、組合熵、知識粒度和組合粒度之間的如下關(guān)系:

E(A)+GK(A)=1

CE(A)+CG(A)=1

4.1.2 單粒度下不確定性推理[63-71]

1) 基于概率論的不確定性推理

①當不確定性推理的目標是最小化錯誤率時:

②當不確定性推理的目標是最小化決策代價時:

決策粗糙集模型是代價敏感下以最小化代價為目標的三支求解模型。根據(jù)屬性條件獨立性假設(shè)的強弱,可構(gòu)造樸素貝葉斯分類器、半樸素貝葉斯分類器。此外,考慮到對象對粒結(jié)構(gòu)隸屬的不確定性,概率論可與其他策略(如集成學習)組合構(gòu)成新的推理機制。

2) 基于證據(jù)理論的不確定性推理

證據(jù)理論是一種廣義的概率論,天然地具有不同證據(jù)合成的推理方法,表述如下。

①當條件部分為命題的邏輯組合時,整個條件部分的計算:

②結(jié)論部分的計算,即已知f1(A),A→B(c1,c2,…,ck),計算f1(B)。

首先計算基本分配函數(shù)m(B),然后計算結(jié)論部分命題B的信任函數(shù)Bel(B)、似然函數(shù)Pl(B),最后計算類概率函數(shù)和正確性。

③獨立證據(jù)導出統(tǒng)一假設(shè)。

如果有n條規(guī)則支持同一命題時,根據(jù)Dempster組合規(guī)則,總的基本概率分配函數(shù)m為各規(guī)則結(jié)論得到的基本概率分配函數(shù)的正交和。

4.2 多粒度下不確定性度量與推理

4.2.1 多粒度不確定性度量

多粒度不確定性度量可以評價多粒度的分類質(zhì)量以及不同粒度的重要性,是多粒度精準決策的基礎(chǔ)。多粒度不確定性度量方式有多種,目前多以數(shù)字特征的形式表示,是傳統(tǒng)單粒度研究意義下的拓展。常見的度量包括以下幾類:

1) 以近似分類精度為代表的概念近似刻畫不確定性度量;

2) 以屬性重要度為代表的決策知識不確定性度量;

3) 以粒度為代表的多粒度層次不確定性度量。

上述不確定性度量在多粒度研究中因粒計算模型選取、定義角度、多粒度構(gòu)造策略的差異而有所不同。例如徐偉華[72]等研究了多粒度優(yōu)勢粗糙集下的近似分類精度度量;梁吉業(yè)[73]等研究了多粒度近似空間中不確定性度量的粒度單調(diào)性保持;王國胤[74]等分析了多粒度概率粗糙集的粒度變化導致區(qū)域不確定性。

不確定性度量的計算策略可以從不同角度展開。信息熵是一種有效度量不確定性的工具,刻畫了信息粒度的關(guān)于問題求解的信息量。自從苗奪謙[75]等將信息熵引入度量粗糙集不確定性以來,被廣泛用于度量信息系統(tǒng)、知識粒度的不確定性,其變種條件熵、互補熵、拓撲熵、組合熵等提供了不同的度量視角。代表性工作有:張清華[31]提出了用信息熵序列度量分層遞階商空間不確定性;米據(jù)生等[76]引入知識粒改進了已有融合熵中的非單調(diào)性問題;李華雄等[[77]給出了多粒度直覺模糊粗糙集下的粗糙熵和信息熵。

4.2.2 多粒度下不確定性推理

多粒度的推理是實現(xiàn)精準決策的重要方法,根據(jù)粒計算模型選擇的不同,多粒度推理的內(nèi)涵也有所不同。從粗糙集角度來看,多粒度推理的主要任務(wù)是在保持分類能力不變的前提下信息粒和??臻g的約簡,而其關(guān)鍵問題在于對約簡目標的定義。從商空間角度來看,推理的主要任務(wù)在于如何利用不同商空間之間的層次關(guān)系實現(xiàn)基于分層遞階模型的信息粒合成。

多粒度推理代表性工作如下:基于一組對原有信息表覆蓋的子系統(tǒng),梁吉業(yè)等[78]在多粒度視角下對大規(guī)模數(shù)據(jù)進行有效分解,在此基礎(chǔ)上提出了一種針對大規(guī)模數(shù)據(jù)的高效的屬性約簡算法;李進金等[79]基于不同鄰域半徑的屬性約簡效果,提出了基于斯皮爾曼尺距離的約簡排序算法;錢宇華等[80]通過定義多粒度空間中粒度重要性,提出了基于分布約簡的悲觀多粒度粗糙集粒度約簡方法;折延宏等[81]提出了基于局部最優(yōu)屬性粒度的屬性約簡方法;鄧大勇等[82]將信息表劃分為多個相關(guān)聯(lián)的子信息系統(tǒng)簇,提出了基于并行約簡的概念漂移探測方法。

5 粒計算理論應(yīng)用研究展望

粒計算,作為人類對復雜問題求解的一種認知模式,已經(jīng)在知識發(fā)現(xiàn)、數(shù)據(jù)挖掘、圖像處理等方面取得了重要的進展,顯現(xiàn)出重大的應(yīng)用價值。下面將從大數(shù)據(jù)分析、計算生物學、社交網(wǎng)絡(luò)分析、多粒度聯(lián)合計算、認知計算以及粒計算形式化描述6個方面展望未來的研究方向。

5.1 大數(shù)據(jù)分析

大數(shù)據(jù)的挑戰(zhàn)帶來了人工智能技術(shù)、存儲技術(shù)以及下一代網(wǎng)絡(luò)技術(shù)的發(fā)展機遇。大數(shù)據(jù)經(jīng)常具有多層次或多粒度特性。粒計算已經(jīng)成為目前發(fā)展迅速的海量信息處理模式[83]。在已有粒計算方法處理大規(guī)模數(shù)據(jù)的研究中,如Ruan等[84]使用模糊信息粒化方法先對時間序列進行?;?,然后使用SVMs對?;说臅r間序列進行回歸分析和預測,提高了大規(guī)模時間序列分析的速度。

5.2 計算生物學

計算生物學與生物信息學的研究內(nèi)容往往交織在一起,都屬于交叉學科。在對生物學中信息的采集、存儲和分析處理基礎(chǔ)上,計算生物學主要側(cè)重于利用數(shù)學模型和計算仿真技術(shù)對生物學問題進行研究。已有研究工作中,如He等[85]在由聚類算法所智能分割的信息粒上建立各個SVM模型進行蛋白質(zhì)預測,有效地解決了海量數(shù)據(jù)的多分類問題。

5.3 社交網(wǎng)絡(luò)分析

通過分析社交網(wǎng)絡(luò)數(shù)據(jù),建立模型,從而挖掘出有價值的信息。對主觀性文檔的分析和處理,一直是該領(lǐng)域研究的熱點問題。已有工作將多粒度的思想應(yīng)用于特征選擇中,如文獻[86]中提出了一種基于LDA的多粒度主題情感混合模型,它同時考慮兩個粒度上的情感和主題分布——文檔級和局部,局部分布的生成受到文檔級分布的影響。該方法在情感分類準確率和穩(wěn)定性方面都有不錯的提升。苗奪謙[87]等在行人再識別問題上引入了多通道思想獲取圖片在多個不同粒度下的特征信息,并證明基于相互關(guān)聯(lián)的多通道特征能更有效跟蹤和識別行人。

5.4 多粒度聯(lián)合計算

多粒度聯(lián)合計算[88-89]是指將復雜問題的求解分配到數(shù)據(jù)表示的多個粒度層次上成為子任務(wù),各個粒度層次上相對簡單的功能協(xié)同起來,最終完成復雜問題的求解[67]。圍繞該目標,既可以融合已有典型多粒度模型構(gòu)造更全面的多粒度模型,也可以引入機器學習相關(guān)理論構(gòu)建新的多粒度模型,而深度學習正是后一種方式的代表,其實質(zhì)是多粒度聯(lián)合計算,在諸多應(yīng)用均取得了突破性進展。然而,無論是融合已有模型還是構(gòu)建新模型,都必須結(jié)合具體領(lǐng)域背景和數(shù)據(jù)分析需求作相應(yīng)的調(diào)整,以有效解決行業(yè)級應(yīng)用問題。這種趨勢和周志華教授在CNCC2016[90]會議上提出的學件(模型+規(guī)約)思想是一致的。

5.5 認知計算

認知是人工智能研究的重要課題之一。以往對認知的研究往往從某個角度展開,缺乏結(jié)構(gòu)化思維,而這個不足恰恰是粒計算的優(yōu)勢所在。張鈸和張鈴在20 世紀90年代初[13]在其專著《問題求解理論及應(yīng)用》中特別指出“人類智能的一個公認特點,就是人們能從極不相同的粒度上觀察和分析同一問題。人們不僅能在不同粒度世界上進行問題的求解,而且能夠很快地從一個粒度世界跳到另一個粒度世界,往返自如,毫無困難”。多粒度空間的相互轉(zhuǎn)化是認知模型的關(guān)鍵[91]。文獻[92]中,支持人們已形成了一個關(guān)于世界的粒度觀點, 在此觀點下, 人類的觀察、度量、概念化和推理都是在粒度意義下進行的。應(yīng)用粒計算思想, 可以分析語義特征以及形式概念系統(tǒng)模型, 進行不確定性分析,建立與優(yōu)化認知計算模型,從而更好地揭示各種相關(guān)領(lǐng)域成果對認知的協(xié)作原理。

5.6 粒計算形式化描述

盡管目前粒計算研究無論在模型還是應(yīng)用都得到了蓬勃發(fā)展,然而在統(tǒng)一語言描述方面還不夠完備。一些基礎(chǔ)性問題,如基于粒的思想比較不同粒之間的差異,仍然沒有得到很好的解決。最近,劉清等[93]提出以非標準分析作為深入展開粒計算基礎(chǔ)理論研究的思想,并在超實數(shù)意義下定義了不可區(qū)分關(guān)系。這對于深入認識粒計算的內(nèi)在邏輯,豐富粒計算理論體系都具有深遠的意義。

6 結(jié)束語

粒計算理論是一種結(jié)構(gòu)化求解模型,能夠有效處理大數(shù)據(jù)中的不確定性,顯著降低問題求解的復雜程度,其模型的可構(gòu)造性使得在不同數(shù)據(jù)和領(lǐng)域背景下具有豐富的表達形式,與大數(shù)據(jù)研究高度契合,是一條極具發(fā)展?jié)摿Φ男峦緩健1疚幕仡櫫俗粤S嬎阊芯恳詠淼闹饕獢?shù)學模型,強調(diào)了多粒度研究的價值,總結(jié)了典型的不確定性度量,并展望了粒計算在大數(shù)據(jù)時代的重點突破方向。希望能夠?qū)Ω咝Т髷?shù)據(jù)方法的提出以及人工智能領(lǐng)域基礎(chǔ)性問題的研究提供借鑒和啟發(fā)。

[1]ZADEHLA.Towardatheoryoffuzzyinformationgranulationanditscentralityinhumanreasoningandfuzzylogic[J].Fuzzysetsandsystems, 1997, 90(2): 111-127.

[2]http://link.springer.com/journal/41066.

[3]http://www.nsfc.gov.cn/nsfc/cen/xmzn/2016xmzn/04/06xx/004.html.

[4]http://dblp.uni-trier.de/db/conf/rsfdgrc/.

[5]HU Qinghua, MI Jusheng, CHEN Degang. Granular computing based machine learning in the era of big data[J]. Information Sciences, 2017, 378: 242-243.

[6]梁吉業(yè), 錢宇華, 李德玉, 等. 大數(shù)據(jù)挖掘的粒計算理論與方法[J]. 中國科學: 信息科學, 2015, 45(11): 1355-1369. LIANG Jiye, QIAN Yuhua, LI Deyu, et al. Theory and method of granular computing for big data mining[J]. Scientia sinica informationis, 2015, 45(11): 1355-1369.

[7]ZHANG Bo, ZHANG Ling. Theory and applications of problem solving[M]. New York: North Holland, 1992.

[8]FRIEDMAN N. Inferring cellular networks using probabilistic graphical models[J]. Science, 2004, 303(5659): 799-805.

[9]CLAUSET A, MOORE C, NEWMAN M E J. Hierarchical structure and the prediction of missing links in networks[J]. Nature, 2008, 453(7191): 98-101.

[10]AHN Y Y, BAGROW J P, LEHMANN S. Link communities reveal multiscale complexity in networks[J]. Nature, 2010, 466(7307): 761-764.

[11]WU W Z, LEUNG Y. Theory and applications of granular labelled partitions in multi-scale decision tables[J]. Information sciences, 2011, 181(18): 3878-3897.

[12]GEOFFREY E, Ruslan R. Reducing the dimensionality of data with neural networks[J]. Science, 2006, 313(5786): 504-507.

[13]HU Hong, PANG Liang, SHI Zhongzhi. Image matting in the perception granular deep learning[J]. Knowledge-based systems. 2016, 102: 51-63.

[14]ZADEH L A. Fuzzy sets[J]. Information and control, 1965, 8(3): 338-353.

[15]SHANNON C E. A mathematical theory of communication[J]. The bell system technical journal, 1948, 27(3): 379-423.

[16]WANG Guoyin, HU Jun, ZHANG Qinghua, et al. Granular computing based data mining in the views of rough set and fuzzy set[C]//Proceedings of 2008 IEEE International Conference on Granular Computing. Hangzhou, China: IEEE, 2008: 67-78.

[17]ZADEH L A. Fuzzy sets and information granularity[C]//GUPTA N, RAGADE R, YAGER R. Advances in Fuzzy Set Theory and Applications. Amsterdam: North-Holland, 1979: 3-18.

[18]ZADEH L A. Some reflections on soft computing, granular computing and their roles in the conception, design and utilization of information/intelligent systems[J]. Soft computing, 1998, 2(1): 23-25.

[19]PAWLAK Z. Rough sets[J]. International journal of computer & information sciences, 1982, 11(5): 341-356.

[20] 張鈸, 張鈴. 問題求解理論及應(yīng)用[M]. 北京: 清華大學出版社, 1990.

[21]李德毅, 孟海軍, 史雪梅. 隸屬云和隸屬云發(fā)生器[J]. 計算機研究與發(fā)展, 1995, 32(6): 15-20. LI Deyi, MENG Haijun, SHI Xuemei. Membership clouds and membership cloud generators[J]. Journal of computer research & development, 1995, 32(6): 15-20.

[22] 李德毅, 杜鹢. 不確定性人工智能[M]. 北京: 國防工業(yè)出版社, 2014.

[23]YAO Yiyu. An outline of a theory of three-way decisions[C]//Proceedings of the 8th International RSCTC Conference. Chengdu, China: Springer, 2012, 7413: 1-17.

[24]姚一豫. 三支決策研究的若干問題[M]//劉盾, 李天瑞, 苗奪謙, 等. 三支決策與粒計算[M]. 北京: 科學出版社, 2013: 1-13.

[25]HU Baoqing. Three-way decisions space and three-way decisions[J]. Information sciences, 2014, 281: 21-52.

[26]MA Lijia, GONG Maoguo, YAN Jianan et al. A decomposition-based multi-objective optimization for simultaneous balance computation and transformation in signed networks[J]. Information sciences, 2017, 378:144-160.

[27]GUERIN C. RIGAUD C. BERTET K. et al. An ontology-based framework for the automated analysis and interpretation of comic book’s images[J]. Information sciences. 2017, 378: 109-130.

[28]YAO Yiyu, SHE Yanhong. Rough set models in multigranulation spaces[J]. Information sciences, 2016, 327: 40-56.

[29]ZHANG Xiaohong, MIAO Duoqian, LIU Caihui, et al. Constructive methods of rough approximation operators and multigranulation rough sets[J]. Knowledge-based systems, 2016, 91: 114-125.

[30]苗奪謙, 徐菲菲, 姚一豫, 等. 粒計算的集合論描述[J]. 計算機學報, 2012, 35(2): 351-363. MIAO Duoqian, XU Feifei, YAO Yiyu, et al. Set-theoretic formulation of granular computing[J]. Chinese journal of computers, 2012, 35(2): 351-363.

[31]ZHANG Qinghua, WANG Guoyin. The uncertainty measure of hierarchical quotient space structure[J]. Mathematical problems in engineering, 2011, 2011, 513195.

[32]WANG Guoyin, XU Ji, ZHANG Qinghua, et al. Multi-granularity intelligent information processing[C]//Proceedings of the 15th International Conference, RSFDGrC. Tianjin, China: Springer, 2015: 36-48.

[33]QIAN Yuhua, LIANG Jiye, Yao Yiyu, Dang Chuangyin. MGRS: A multi-granulation rough set[J]. Information sciences, 2010, 180:949-970.

[34]LIN Guoping, QIAN Yuhua, LI Jinjin. NMGRS: neighborhood-based multigranulation rough sets[J]. International journal of approximate reasoning, 2012, 53(7): 1080-1093.

[35]XU Weihua, WANG Qiaorong, ZHANG Xiantao. Multi-granulation rough sets based on tolerance relations[J]. Soft computing, 2013, 17(7): 1241-1252.

[36]Chen Yan. An adjustable multigranulation fuzzy rough set[J]. International journal of machine learning and cybernetics, 2016, 7 (2): 267-274.

[37]TAN Anhui, WU Weizhi, LI Jinjin, et al. Evidence-theory-based numerical characterization of multigranulation rough sets in incomplete information systems[J]. Fuzzy sets and systems, 254 (2016):18-35.

[38]LI Feijiang, QIAN Yuhua, WANG Jieting et al. Multigranulation information fusion: a dempster-shafer evidence theory-based clustering ensemble method[J]. Information sciences, 2017, 378: 389-409.

[39]WU Weizhi, LEUNG Y. Optimal scale selection for multi-scale decision tables[J]. International journal of approximate reasoning, 2013, 54(8): 1107-1129.

[40]GU Shenming, WU Weizhi. On knowledge acquisition in multi-scale decision systems[J]. International journal of machine learning and cybernetics, 2013, 4(5): 477-486.

[41]ZHU W. Topological approaches to covering rough sets[J]. Information sciences, 2007, 177(6): 1499-1508.

[42]ZHU W, WANG Feiyue. On three types of covering-based rough sets[J]. IEEE transactions on knowledge and data engineering, 2007, 19(8): 1131-1144.

[43]ZHU W. Relationship between generalized rough sets based on binary relation and covering[J]. Information sciences, 2009, 179(3): 210-225.

[44]LIU Caihui, MIAO Duoqian, QIAN Jin. On multi-granulation covering rough sets[J]. International journal of approximate reasoning, 2014, 55(6): 1404-1418.

[45]LIU Caihui, PEDRYCZ W. Covering-based multi-granulation fuzzy rough sets[J]. Journal of intelligent & fuzzy systems, 2016, 30(1): 303-318.

[46]FENG Qinrong, MIAO Duoqian, CHENG Yi. Hierarchical decision rules mining[J]. Expert systems with applications, 2010, 37(3): 2081-2091.

[47]QIAN Jin, LV Ping, YUE Xiaodong et al. Hierarchical attribute reduction algorithms for big data using MapReduce[J]. Knowledge-based systems. 2015, 73:18-31.

[48]CHEN Hongmei, LI Tianrui, RUAN Da. Maintenance of approximations in incomplete ordered decision systems while attribute values coarsening or refining[J]. Knowledge-based systems, 2012, 31: 140-161.

[49]CHEN Hongmei, LI Tianrui, LUO Chuan, et al. A rough set-based method for updating decision rules on attribute values' coarsening and refining[J]. IEEE transactions on knowledge and data engineering, 2014, 26(12): 2886-2899.

[50]張賢勇. 基于精度與程度邏輯組合的幾類粗糙集模型及其算法研究[D]. 成都: 四川師范大學, 2011. ZHANG Xianyong. Study on several rough set models and their algorithms based on logical combinations of precision and grade[D]. Chengdu: Sichuan Normal University, 2011.

[51]XU Weihua, GUO Yanting. Generalized multigranulation double-quantitative decision-theoretic rough set[J]. Knowledge-based systems, 2016, 105: 190-205.

[52]FANG Bowen, HU Baoqing. Probabilistic graded rough set and double relative quantitative decision-theoretic rough set[J]. International journal of approximate reasoning, 2016, 74: 1-12.

[53]ZHANG Xianyong, MIAO Duoqian. Double-quantitative fusion of accuracy and importance: systematic measure mining, benign integration construction, hierarchical attribute reduction[J]. Knowledge-based systems, 2016, 91: 219-240.

[54]李德毅, 劉常昱, 杜鹢, 等. 不確定性人工智能[J]. 軟件學報, 2004, 15(11): 1583-1594. LI Deyi, LIU Changyu, DU Yi, et al. Artificial intelligence with uncertainty[J]. Journal of software, 2004, 15(11): 1583-1594.

[55]王國胤, 張清華. 不同知識粒度下粗糙集的不確定性研究[J]. 計算機學報, 2008, 31(9): 1588-1598. WANG Guoyin, ZHANG Qinghua. Uncertainty of rough sets in different knowledge granularities[J]. Chinese journal of computers, 2008, 31(9): 1588-1598.

[56]張清華, 王國胤, 胡軍. 多粒度知識獲取與不確定性度量[M]. 北京: 科學出版社, 2013. ZHANG Qinghua, WANG Guoyin, HU Jun. Knowledge acquisition of multi-granular and uncertainty measurements[M]. Beijing: Science Press, 2013. (未找到本條文獻英文信息,請核對)

[57]劉寶碇, 彭錦. 不確定理論教程[M]. 北京: 清華大學出版社, 2005. LIU Baoding, PENG Jin. Tutorial of uncertainty theory[M]. Beijing: Tsinghua Press, 2005.

[58]苗奪謙, 李德毅, 姚一豫, 等. 不確定性與粒計算[M]. 北京: 科學出版社, 2011. MIAO Duoqian, LI Deyi, YAO Yiyu, et al. Uncertainty and granular computing[M]. Beijing: Science Press, 2011.

[59]苗奪謙, 王玨. 粗糙集理論中知識粗糙性與信息熵關(guān)系的討論[J]. 模式識別與人工智能, 1998, 11(1): 34-40. MIAO Duoqian, WANG Jue. On the relationships between information entropy and roughness of knowledge in rough set theory[J]. Pattern recognition & artificial intelligence, 1998, 11(1): 34-40.

[60]DE LUCA A, TERMINI S. A definition of a nonprobabilistic entropy in the setting of fuzzy sets theory[J]. Information and control, 1972, 20(4): 301-312.

[61]張文修, 吳偉志, 梁吉業(yè), 等. 粗糙集理論與方法[M]. 北京: 科學出版社, 2001. ZHANG Wenxiu, WU Weizhi, LIANG Jiye, et al. Rough sets theory and method[M]. Beijing: Science Press, 2001.

[62]LIANG Jiye, SHI Zhongzhi. The information entropy, rough entropy and knowledge granulation in rough set theory[J]. International journal of uncertainty, fuzziness and knowledge-based systems, 2004, 12(1): 37-46.

[63]DEMPSTER A P. Upper and lower probabilities induced by a multivalued mapping[J]. The annals of mathematical statistics, 1967, 38(2): 325-339.

[64]SHAFER G. A mathematical theory of evidence[M]. Princeton: Princeton University Press, 1976.

[65]苗奪謙, 范世棟. 知識的粒度計算及其應(yīng)用[J]. 系統(tǒng)工程理論與實踐, 2002, 22(1): 48-56. MIAO Duoqian, FAN Shidong. The calculation of knowledge granulation and its application[J]. Systems engineering-theory & practice, 2002, 22(1): 48-56.

[66]苗奪謙, 王國胤, 劉清等. 粒計算: 過去、現(xiàn)在與展望[M]. 北京: 科學出版社, 2007.

[67]QIAN Yuhua, LIANG Jiye. Combination entropy and combination granulation in rough set theory[J]. International journal of uncertainty, fuzziness and knowledge-based systems, 2008, 16(2): 179-193.

[67]QIAN Yuhua, LIANG Jiye. Combination entropy and combination granulation in incomplete information system[J]. Lecture notes in computer science, 2006, 4062: 184-190.

[69]WANG Junhong, LIANG Jiye, QIAN Yuhua, et al. Uncertainty measure of rough sets based on a knowledge granulation for incomplete information systems[J]. International journal of uncertainty, fuzziness and knowledge-based systems, 2008, 16(2): 233-244.

[70]梁吉業(yè), 錢宇華. 信息系統(tǒng)中的信息粒與熵理論[J]. 中國科學 E輯: 信息科學, 2008, 38(12): 2048-2065. LIANG Jiye, QIAN Yuhua. Information granules and entropy theory in information systems[J]. Science in China series F: information sciences, 2008, 51(10): 1427-1444.

[71]BAYES T. An essay towards solving a problem in the doctrine of chances[J]. Philosophical transactions of the royal society, 53 (1763): 370-418.

[72]YU Jianhang, ZHANG Xiaoyan, ZHAO Zhenhua et al. Uncertainty measures in multigranulation with different grades rough set based on dominance relation[J]. Journal of intelligent & fuzzy systems, 2016 ,31:1133-1144.

[73]LIN Guoping, LIANG Jiye, QIAN Yuhua. Uncertainty measures for multigranulation approximation space[J]. International journal of uncertainty fuzziness and knowledge-based systems, 2015, 23(3) 443-457.

[74]ZHANG Qinghua, ZHANG Qiang, WANG Guoyin. The uncertainty of probabilistic rough sets in multi-granulation spaces[J]. International journal of approximate reasoning, 2016, 77: 38-54.

[75]苗奪謙. Rough Set 理論及其在機器學習中的應(yīng)用研究[D]. 1997, 北京,中國科學院自動化研究所. MIAO Duoqian. Rough set theory and its application in machine learning[D]. 1997, Beijing, Institute of Automation, Chinese Academy of Sciences.

[76]MA Zhouming, MI Jusheng. A comparative study of MGRSs and their uncertainty measures[J]. Fundamenta informaticae, 2015, 142:161-181.

[77]HUANG Bing, GUO Chunxiang, LI Huaxiong, et al. Hierarhical structures and uncertainty measures for intuitionistic fuzzy approximate space[J]. Information Sciences, 2016, 336: 92-114.

[78]LIANG Jiye, WANG Feng, DANG Chuangyin, et al. An efficient rough feature selection algorithm with a multi-granulation view[J]. International journal of approximate reasoning, 2012, 53(6): 912-926.

[79]LIN Yaojin, LI Jinjin, LI Peirong, et al. Feature selection via neighborhood multi-granulation fusion[J]. Knowledge-based systems, 2014, 67: 162-168.

[80]桑妍麗,錢宇華. 一種悲觀多粒度粗糙集中的粒度約簡算法[J]. 模式識別與人工智能, 2012, 25(3): 361-366. SANG Yanli, QIAN Yuhua. A granular space reduction approach to pessimistic multi-granulation rough sets[J]. Pattern recognition and artificial intelligence, 2012, 25(3): 361-366.

[81]SHE Yanhong, LI Jinhai, YANG Hailong. A local approach to rule induction in multi-scale decision tables[J]. Knowledge-based systems, 2015, 89: 398-410.

[82]鄧大勇, 徐小玉, 黃厚寬. 基于并行約簡的概念漂移探測[J]. 計算機研究與發(fā)展, 2015, 52(5): 1071-1079. DENG Dayong, XU Xiaoyu, HUANG Houkuan. Concept drifting detection for categorical evolving data based on parallel reducts[J]. Journal of computer research and development, 2015, 52(5):1071-1079.

[83]徐計, 王國胤, 于洪. 基于粒計算的大數(shù)據(jù)處理[J]. 計算機學報, 2015, 38(8): 1497-1517. XU Ji, WANG Guoyin, YU Hong. Review of big data processing based on granular computing[J]. Chinese journal of computers, 2015, 38(8): 1497-1517.

[84]RUAN Junhu, WANG Xuping, SHI Yan. Developing fast predictors for large-scale time series using fuzzy granular support vector machines[J]. Applied soft computing, 2013, 13(6): 3981-4000.

[85]HE Jieyue, ZHONG Wei, HARRISON R, et al. Clustering support vector machines and its application to local protein tertiary structure prediction[C]//Proceedings of the 6th International Conference on Computational Science. Reading, UK: Springer-Verlag, 2006: 710-717.

[86]歐陽繼紅, 劉燕輝, 李熙銘, 等. 基于LDA的多粒度主題情感混合模型[J]. 電子學報, 2015, 43(9): 1875-1880. OUYANG Jihong, LIU Yanhui, LI Ximing, et al. Multi-grain sentiment/topic model based on LDA[J]. Acta electronica sinica, 2015, 43(9): 1875-1880.

[87]WANG Xuekuan, ZHAO Cairong, MIAO Duoqian, et al. Fusion of multiple channel features for person re-identification[J]. Neurocomputing, 2016, 213: 125-136.

[88]XU Weihua, YU Jianhang. A novel approach to information fusion in multi-source datasets: a granular computing viewpoint[J]. Information sciences, 2017, 378: 410-423.

[89]LIN Guoping, LIANG Jiye, QIAN Yuhua. et al. A fuzzy multigranulation decision-theoretic approach to multisource fuzzy information systems[J]. Knowledge-based systems, 2016, 91: 102-113.

[90]http://cncc.ccf.org.cn/struct/7.

[91]LI Jinhai, HUANG Chenchen, QI Jianjun et al. Three-way cognitive concept learning via multi-granularity[J]. Information Sciences. 2017, 378 244-263.

[92]YAO Yiyu. Three-way decisions and cognitive computing[J]. Cognitive Computation. 2016, 8(4): 543-554.

[93]劉清, 邱桃榮,劉斕. 基于非標準分析的粒計算研究[J]. 計算機學報. 2015, 38(8):1618-1627. LIU Qing, QIU Taorong, LIU Lan. The research of granular computing based on nonstandard analysis[J]. Chinese journal of computers, 2015, 38(8): 1618-1627.

苗奪謙,男,1964年生,教授,博士生導師, 博士,主要研究方向為機器學習、粒計算、人工智能、大數(shù)據(jù)分析。國際粗糙集學會指導委員會主席,中國人工智能學會常務(wù)理事,粗糙集與軟計算專委會主任、中國計算機學會杰出會員,人工智能與模式識別專委會委員,上海市計算機學會常務(wù)理事,同濟大學嵌入式系統(tǒng)與服務(wù)計算教育部重點實驗室副主任,發(fā)表學術(shù)論文多篇。

張清華,男,1974年生,教授,博士生導師,博士,主要研究方向為粗糙集,粒計算,不確定人工智能。

錢宇華,男,1976年生,教授,博士生導師,博士,主要研究方向為人工智能、數(shù)據(jù)挖掘與機器學習等。

From human intelligence to machine implementation model:theories and applications based on granular computing

MIAO Duoqian1, ZHANG Qinghua2, QIAN Yuhua3, LIANG Jiye3, WANG Guoyin2, WU Weizhi4,

(1. Key Laboratory of Embedded System & Service Computing Ministry of Education, Tongji University, Shanghai 201804, China; 2. Key Laboratory of Computational Intelligence, Chongqing University of Posts and Telecommunications, Chongqing 400065, China; 3. Key Laboratory of Computational Intelligence and Chinese Information Processing of Ministry of Education, Shanxi University, Taiyuan 030006, China; 4. Key Laboratory of Oceanographic Big Data Mining and Application of Zhejiang Province, Zhejiang Ocean University, Zhoushan 316022, China; 5. State Key Laboratory for Novel Software Technology, Nanjing University, Nanjing 210093, China)

Artificial intelligence is a new science of researching and developing theories, methods and technologies to simulate and extend the human intelligence, and is regarded as a simulation of human consciousness and thought processes. Granular computing is a novel concept and a new computing paradigm in the current area of intelligent information processing. It is also a multi-granulation methodology of relevant theories, technologies and tools, which are used to research multi-level thought modes, to solve complex problems and to develop information processing models. First, the related granular computing models or methods, by which artificial intelligence simulates human intelligence, were analyzed in this paper. Also, several classical basic structures and mathematical models on granular computing were briefly summarized. Then, both multi-granulation representations and uncertainty measurements on knowledge were reviewed. Finally, the future opportunities and challenges of solving models using granular computing in the era of big data were discussed and prospected.

artificial intelligence; big data; uncertainty; granular computing; multi-granulation; rough sets; quotient space; cloud model; three-way decisions

10.11992/tis.201612014

http://www.cnki.net/kcms/detail/23.1538.TP.20170111.1705.008.html

2016-12-13.

國家自然科學基金項目(61573255,61673301,61472056,61432011 ,61572091, 61573321, 61272021, U1435212, 41631179).

苗奪謙. E-mail:dqmiao@#edu.cn.

TP391

A

1673-4785(2016)06-0743-15

苗奪謙,張清華,錢宇華,等. 從人類智能到機器實現(xiàn)模型——粒計算理論與方法[J]. 智能系統(tǒng)學報, 2016, 11(6): 743-757.

英文引用格式:MIAO Duoqian, ZHANG Qinghua, QIAN Yuhua, et al. From human intelligence to machine implementation model: theories and applications based on granular computing[J]. CAAI Transactions on Intelligent Systems, 2016, 11(6): 743-757.

猜你喜歡
粗糙集度量不確定性
有趣的度量
法律的兩種不確定性
法律方法(2022年2期)2022-10-20 06:41:56
模糊度量空間的強嵌入
基于Pawlak粗糙集模型的集合運算關(guān)系
迷向表示分為6個不可約直和的旗流形上不變愛因斯坦度量
英鎊或繼續(xù)面臨不確定性風險
中國外匯(2019年7期)2019-07-13 05:45:04
多?;植诩再|(zhì)的幾個充分條件
具有不可測動態(tài)不確定性非線性系統(tǒng)的控制
雙論域粗糙集在故障診斷中的應(yīng)用
地質(zhì)異常的奇異性度量與隱伏源致礦異常識別
南涧| 连山| 阜康市| 元朗区| 铜川市| 汝城县| 响水县| 阿勒泰市| 定安县| 隆林| 五常市| 毕节市| 台东县| 林甸县| 颍上县| 淮北市| 柳州市| 汝城县| 平武县| 浦县| 闽清县| 齐齐哈尔市| 利川市| 芦溪县| 广西| 萍乡市| 巴里| 雷山县| 永新县| 鄂托克前旗| 台东市| 雅江县| 万载县| 澄迈县| 轮台县| 东安县| 花莲县| 佛教| 东港市| 耿马| 四川省|