国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能的適應(yīng)性知識表征與推理

2019-01-22 06:18魏屹東
關(guān)鍵詞:缺省知識庫范疇

魏屹東

關(guān)于表征,一般來說,是指信息在人腦中儲存和呈現(xiàn)的方式,這就是通常所說的心理表征。心理表征的外化往往是通過符號,如自然語言、形式語言、圖形等方式呈現(xiàn)的。以命題形式(陳述句)呈現(xiàn)的知識通常被稱為陳述性知識。相比而言,以純符號如邏輯和數(shù)學(xué)方程呈現(xiàn)的知識被稱為程序性知識。在人工智能中,表征知識的方式通常是抽象的、形式化的或邏輯式的,一階邏輯是最常用的表征工具。然而問題是,人工智能主體是如何通過邏輯推理表征這個真實(shí)世界的最重要方面,如行動、空間、時間、思想以及購物的呢?也就是通過何種途徑表征和推理關(guān)于這個世界的事實(shí),表征與推理是否是適應(yīng)性的?這就是人工智能的適應(yīng)性知識表征與推理問題。關(guān)于這個主題,21世紀(jì)以來國際上曾經(jīng)召開過兩次會議(2005年,[注]International and interdisciplinary conference on adaptive knowledge representation and reasoning, http://research.ics.aalto.fi/events/AKRR05/index.html。關(guān)于適應(yīng)性知識表征與推理(AKRR)的國際和跨學(xué)科會議于2005年6月首次在芬蘭的埃斯波召開,會議提出知識表征和推理是人工智能的傳統(tǒng)領(lǐng)域,在現(xiàn)代社會中它們不僅是各種信息系統(tǒng)和網(wǎng)絡(luò)中的底層結(jié)構(gòu)單元,也是認(rèn)知科學(xué)和認(rèn)識論的核心主題。由于傳統(tǒng)模式是基于謂詞邏輯、語義網(wǎng)絡(luò)和其他符號表征的,因此該會議涉及的相關(guān)問題包括我們?nèi)绾沃牢覀兯赖?,我們?nèi)绾文軌蚴褂糜行评恚覀內(nèi)绾卧谥R表征與推理的模型和應(yīng)用中使用計(jì)算機(jī)。該會議的目的是探討統(tǒng)計(jì)潛在變量模型、向量空間表征、統(tǒng)計(jì)機(jī)器學(xué)習(xí)、人工神經(jīng)網(wǎng)絡(luò)和動態(tài)系統(tǒng)等替代表征和算法。這些挑戰(zhàn)對于生命科學(xué)也非常有意義,因?yàn)樵谏茖W(xué)中,疾病機(jī)制的復(fù)雜性和新藥的開發(fā)過程需要新的方法。此次會議探討了認(rèn)知和社會系統(tǒng)中知識的產(chǎn)生、復(fù)雜性和自組織問題:知識是如何在人類和計(jì)算機(jī)中介網(wǎng)絡(luò)中創(chuàng)造和建立的,以及語言作為知識建構(gòu)的適應(yīng)媒介的作用。2008年[注]International and interdisciplinary conference on adaptive knowledge representation and reasoning, http://research.ics.aalto.fi/events/AKRR08/。第二屆適應(yīng)性知識表征與推理(AKRR)國際和跨學(xué)科會議于2008年9月在芬蘭的波爾沃召開,它雖然在主題上延續(xù)了2005年的,但其目的是將研究經(jīng)驗(yàn)科學(xué)中復(fù)雜現(xiàn)象的科學(xué)家和開發(fā)處理復(fù)雜性的計(jì)算方法的科學(xué)家聚集在一起。經(jīng)驗(yàn)科學(xué)方面包括認(rèn)知科學(xué)、社會學(xué)、教育心理學(xué)、經(jīng)濟(jì)學(xué)、醫(yī)學(xué)等方面的研究人員,方法科學(xué)方面涉及發(fā)展統(tǒng)計(jì)機(jī)器學(xué)習(xí)、動力系統(tǒng)理論和適應(yīng)系統(tǒng)的研究人員。會議還旨在與那些遇到復(fù)雜現(xiàn)象的從業(yè)人員密切聯(lián)系,因?yàn)樗麄冋趯ふ覒?yīng)對管理和戰(zhàn)略決策方面的挑戰(zhàn)的新方法。關(guān)于這個主題的第三次會議至今還沒有召開,原因不詳。),有力地推動了該問題的研究,本文試圖從認(rèn)知哲學(xué)視角探討知識表征與推理在人工智能中的適應(yīng)性問題。

一、表征抽象概念的本體論框架

我們知道,做任何復(fù)雜的事情,如網(wǎng)上購物,在擁堵的路上開車,都需要更普遍和靈活的表征。對于人來說,這并不是什么難事,但對于人工主體(相對于人類主體)這類智能體而言就不那么簡單了。即使是人工主體,它對復(fù)雜活動的表征也會涉及一些普遍概念,如事件、時間、物理客體和信念等,這些概念會出現(xiàn)在許多不同的領(lǐng)域中。在人工智能中,對這些抽象概念的表征有時被稱為本體論工程(ontological engineering),概念的通用框架被稱為上層本體論(upper ontology),也就是一個概念關(guān)系的整體框架。例如,自然世界的上層本體論框架用樹結(jié)構(gòu)可表征為(圖1):[注]Stuart J.Russell,Peter Norvig,Artificial Intelligence: A Modern Approach,清華大學(xué)出版社2011年版,p.438。

圖1 自然世界的上層本體論框架

這種一般或通用本體論有什么作用呢?在筆者看來,它不僅提供了一個總概念框架,也提供了范疇、客體、事件、測量、時間等之間的內(nèi)在關(guān)系。這種通用本體論一般有兩個特征:其一,它或多或少可應(yīng)用于任何專用域,這意味著,在這個通用本體論覆蓋網(wǎng)下,沒有什么表征問題不能夠被巧妙地處理;其二,在任何完全充分的高要求域,知識的不同領(lǐng)域必須是統(tǒng)一的,因?yàn)橥评砗蛦栴}解決能夠同時包括幾個領(lǐng)域,例如,一個機(jī)器人的電路維修系統(tǒng),不僅需要根據(jù)電路的連接和物理分布推出電路故障的原因,還要推出時間,包括電路定時分析和評估勞動成本。因此,描述時間的語句必須能夠結(jié)合那些描述空間分布的語句,必須能夠在納秒和分、埃和米長度之間同樣有效地運(yùn)作。

當(dāng)然,能夠應(yīng)用于所有領(lǐng)域的通用本體論是不存在的,也不存在一個所有人工主體都能夠使用的共同本體論,因?yàn)樯鐣⑽幕?、政治等因素使得通用本體論變得異常困難,正如一個特定文化圈的人很難同時接納不同異域文化傳統(tǒng)和習(xí)俗一樣(如儒家文化圈的人不易接受或適應(yīng)其他文化傳統(tǒng)和習(xí)俗)。人工智能一般使用專用或特定知識工程,它創(chuàng)造專用本體論通常有四個路徑:(1)訓(xùn)練有素的本體論者或邏輯學(xué)家創(chuàng)造本體論并寫出公理,如CYC系統(tǒng);[注]CYC源于encyclopedia(百科全書)。Cycorp是由Douglas Lenat成立并領(lǐng)導(dǎo)的、致力于實(shí)現(xiàn)人工智能的公司。CycL是Cyc的基于一階邏輯的專有知識表征語言。1986年Lenat就預(yù)測過,若想要完成CYC這樣龐大的常識知識系統(tǒng),至少會涉及25萬條規(guī)則,并將要花費(fèi)350個人1年才能完成。CYC知識庫中一般采取三段論推理形式的知識,推出正確結(jié)論。該知識庫中大約有320萬條人類定義的語句,涉及30萬個概念,15000個謂詞。這些資源都采CycL語言和謂詞代數(shù)描述,語法上與Lisp程序設(shè)計(jì)語言類似。(2)從一個或幾個現(xiàn)存的數(shù)據(jù)庫,輸入范疇、屬性和賦值,如從維基百科網(wǎng)絡(luò)輸入結(jié)構(gòu)化事實(shí)建立的DBpedia系統(tǒng);[注]DBpedia是一個特殊的語義網(wǎng)應(yīng)用系統(tǒng),能夠從維基百科詞條里提取結(jié)構(gòu)化的資料,以強(qiáng)化維基百科的搜尋功能。它是世界上最大的多領(lǐng)域知識本體論之一,是Linked Data的一部分。(3)從數(shù)據(jù)庫剖析文本文件,提取信息,如通過大量閱讀網(wǎng)頁建立的TEXTRUNNER系統(tǒng);(4)鼓勵無技能的業(yè)余愛好者進(jìn)入常識知識領(lǐng)域,如用英語提出事實(shí)的志愿者建立的OPENMIND系統(tǒng)。

總之,在通用本體論結(jié)構(gòu)中,范疇、客體(包括心理的)、事件(包括心理的)及其推理系統(tǒng),在其中起到十分重要的適應(yīng)性表征作用。

二、客體范疇化與事件運(yùn)算的適應(yīng)性表征與推理

范疇化是指將概念化的客體歸入某個類,如將虎、獅、豹?dú)w入貓科。在人工智能中,將客體組合到范疇是知識表征的一個重要部分。一方面,盡管我們與世界的相互作用發(fā)生在個體客體的層次,但是大量推理發(fā)生在范疇層次,比如,我想買水果,但不是某類具體的蘋果,蘋果屬于水果范疇。另一方面,一旦客體被分類的話,范疇也提供對客體做出的預(yù)測。你可以從可感知的輸入推出某客體的在場,從所感知的客體的屬性推出范疇身份,然后使用范疇信息做出關(guān)于客體的預(yù)測。例如,從一個客體有綠、黃色相間的皮,20厘米大小的直徑,雞蛋的形狀,紅瓤兒、黑子,擺放在水果攤上,你能夠推知那個客體是一個西瓜,可食用,還能夠推知它可用于做沙拉。

若用一階邏輯來表征范疇,我們有兩個選擇:謂詞和客體。具體說,我們可以使用謂詞fruit(f),或者將這個范疇具體化為一個客體,fruit(水果)。于是,我們能夠得出成員member(f, fruit),可縮寫為f∈fruit,即,f是fruit范疇的一個成員;亞集subset(apple, fruit),可縮寫為apple∈fruit,即,蘋果是水果的一個亞范疇。范疇也可以通過為其成員提供充要條件來定義,比如“a bachelor is an unmarried adult male”(單身漢是沒有結(jié)婚的成年男人),用一階邏輯表達(dá)就是:

x∈bachelor≡unmarried(x)∧x∈adult∧x∈male

當(dāng)然,一個范疇能夠通過繼承組織結(jié)構(gòu)來簡化知識庫。例如,“食物”這個范疇的所有實(shí)例是可食用的。如果說“水果”是食物的一個亞類,“蘋果”是水果的一個亞類,那么我們可以推出,每個蘋果都是可食用的,個體蘋果繼承了可食用性的屬性,因此“蘋果”可歸入“食物”的范疇。

概言之,一個客體,無論是自然類還是人造物,其有些屬性是內(nèi)在的,即屬于那個客體本身的材料(質(zhì)料),而不是那個客體作為整體的屬性(事物)。這意味著一個客體有兩個方面:事物“things”與質(zhì)料(stuffs),如蘋果和蘋果的組成成分。如果將一個質(zhì)料一分為二,兩個部分仍然是同一種質(zhì)料,即保持內(nèi)在屬性,如密度、沸點(diǎn)、色彩、味道等,而它們的外在屬性,如重量、長度、形狀等,已發(fā)生改變。諸客體的一個范疇,包括在其定義內(nèi)的內(nèi)在屬性,是一個物質(zhì)或質(zhì)量名詞;一個類,在其定義內(nèi)包括任何外在屬性,是一個可數(shù)名詞。“質(zhì)料”這個范疇是最普遍的物質(zhì)范疇,具體說明不存在任何內(nèi)在屬性?!笆挛铩边@個范疇是最普遍的離散客體范疇,詳細(xì)說明不存在任何外在屬性。因此,在人工智能中,客體的范疇化是其內(nèi)在屬性與外在屬性的統(tǒng)一,其表征是基于情境的形式主義描述。

對客體的范疇化過程實(shí)質(zhì)上就是認(rèn)知事件的過程,由于事件是行動過程,事件也可以通過運(yùn)算來表征行動及其結(jié)果,這就是事件運(yùn)算(event calculus)。事件運(yùn)算是指一種基于一維動態(tài)性的時間而非情境的形式主義,其目標(biāo)是具體化流動和事件。例如流動(張三,上海)是一個客體,它指張三在上海的事實(shí),但它本身沒有說明這件事是否是真實(shí)的。要斷定一個流動在某時某地是否的確是真實(shí)的,我們可以使用謂詞T,如T(at(張三,上海),t)。事件(系列行動)被描述為事件范疇的實(shí)例。張三從北京飛往上海這個事件E1,被描述為:

E1∈飛行∧飛行(E1,張三)∧起點(diǎn)(E1,北京)∧終點(diǎn)(E1,上海)

這個表征也可簡化為:E1∈飛行(張三,北京,上海)

如果用發(fā)生Happens(E1,i)表示事件E1在時間間隔i發(fā)生,用函數(shù)形式表示就是程度Extent(E1)=i,用時間對(start, end)(開始,結(jié)束)表征時間間隔,即i=(t1,t2),其中t1是開始,t2是結(jié)束,那么事件E1的運(yùn)算的完全謂詞集的一個版本是:[注]Stuart J.Russell,Peter Norvig,Artificial Intelligence: A Modern Approach,p.446.

(真實(shí))T(f,t) 流動f在時間t是真實(shí)的

(發(fā)生)Happens(e,i) 事件e發(fā)生在時間間隔i

(開始)Initiates(e,f,t) 事件e引起流動f在時間t開始

(結(jié)束)Terminates(e,f,t) 事件e引起流動f在時間t結(jié)束

(修整)Clipped(f,i) 流動f在時間間隔i在某點(diǎn)不是真實(shí)的

(恢復(fù))Restored(f,i) 流動f在時間間隔i有時成為真實(shí)的

需要注意的是,這里假定了一個重要事件Start,它描述了初始狀態(tài)通過說明哪個流動在開始時間被啟動或者停止。如果一個流動在過去某時刻由一個事件啟動,并由一個介入事件使其不為假,則可以通過說明該流動及時在一個點(diǎn)的持續(xù)來定義T。如果一個流動由一個事件終止且由另一個事件使其為假,則它不再持續(xù)下去。在一個物理客體是一個時空塊的意義上,物理客體可以被看作普遍的事件。比如“美國總統(tǒng)”這個術(shù)語,若指代一個實(shí)際客體,它在不同時段指代一個不同的客體(人物),也即,它是一個流動的客體。美國第一任總統(tǒng)華盛頓任期是1789—1797年,說他1790年任總統(tǒng)可以寫為:T(Equals(President(USA),George Washington), AD1790)

之所以使用函數(shù)符號Equals(等價)而不是標(biāo)準(zhǔn)邏輯謂詞=,是因?yàn)槲覀儾荒苡幸粋€謂詞作為T的一個論證,也因?yàn)檫@個詮釋不是GeorgeWashington和President(USA)邏輯地同一于1790,邏輯同一不是一直變化的某種東西。同一性是由1790時間定義的每個客體之間的亞事件的關(guān)系。

三、命題態(tài)度與范疇推理的適應(yīng)性表征與推理

盡管人工智能目前建構(gòu)的人工主體(智能體)擁有信念并能夠推出新信念,但還沒有人工主體擁有任何關(guān)于信念的知識,或關(guān)于演繹的知識,以及關(guān)于其他主體的知識。這意味著關(guān)于主體自己知識的知識及推理過程,以及關(guān)于其他主體知識的知識,對于控制推理是非常有用的。因此,我們需要一個居于人心中的心理客體的模型,需要一個操作那些心理客體的心理過程的模型。這種心理模型不必是詳細(xì)的,因?yàn)槲覀儾槐赜心芰︻A(yù)測一個具體主體做演繹所需的精確時間。這關(guān)涉命題態(tài)度問題,命題態(tài)度能夠表征關(guān)于心理事件與心理客體的知識。

所謂命題態(tài)度就是對一個陳述的立場,通常由知道、相信、想要、意圖等表達(dá),比如“我們知道那是一朵花”。命題態(tài)度表明,一個主體能夠指向一個心理客體,如心中的一朵花。命題態(tài)度表征的困難在于,它們不表現(xiàn)為“常態(tài)”謂詞。例如,我們試圖斷言“張三知道超人會飛”,可表達(dá)為:知道(張三,會飛(超人))。問題是,我們一般將會飛(超人)看作一個語句(超人會飛),但在這里似乎是一個術(shù)語。這個問題能夠通過具體化會飛(超人)而得到修正,讓它變得流暢。然而,一個更重要的問題是,若“超人是孫悟空”這個陳述是真的(事實(shí)上為假),那么張三知道孫悟空會飛,這個表達(dá)可表述為:

(超人=孫悟空)∧知道(張三,會飛(超人))

╞知道(張三,會飛(孫悟空))

這是等價推理介入邏輯這個事實(shí)的一個推論。如果人工主體知道2+2=4,和4﹤5,那么我們自然要求人工主體知道2+2﹤5。這種屬性被稱為指示透明性(referential transparency)。這種屬性表明,一種邏輯使用什么術(shù)語指示一個客體并不重要,重要的是這個術(shù)語所命名的客體本身。然而,對于像“相信”和“知道”這些命題態(tài)度來說,我們愿意擁有指示不透明性,這些術(shù)語的確重要,因?yàn)椴皇撬械闹黧w都知道哪種術(shù)語是聯(lián)合指示的(合取的或析取的)。

這個問題可以使用模態(tài)邏輯來闡明。我們知道,普通邏輯關(guān)注單一形式,即真理的形式,允許我們表達(dá)“P是真的”。模態(tài)邏輯包括特殊的模態(tài)算子,它們將語句而不是術(shù)語作為論據(jù)。例如,“A知道P”被表征為KAP,其中K是表示知識的模態(tài)算子,A表示主體,P表示命題。這個原子表達(dá)式有兩個論據(jù),一個主體和一個語句。除語句也能夠用模態(tài)算子形成外,模態(tài)邏輯的句法與一階邏輯完全相同。在一階邏輯中,一個模型包含一組客體和一個解釋項(xiàng),這個解釋項(xiàng)將每個名稱與適當(dāng)?shù)目腕w、關(guān)系或函數(shù)相匹配。在模態(tài)邏輯中,我們要能夠考慮各種可能性,這就需要一個更復(fù)雜的模型——它是由可能世界的組合構(gòu)成的,而不是僅僅由真實(shí)世界構(gòu)成的。可能世界之間可通過可達(dá)性關(guān)系連接起來,這種可達(dá)關(guān)系是每個模態(tài)算子所必須的,它們聯(lián)合構(gòu)成一幅曲線圖。比如,通過模態(tài)算子KA我們可以從世界w0通達(dá)w1,如果w1中的每個事物與A在世界w0中所知道的相一致的話,可以寫為:Acc(KA,w0,w1),其中Acc表示可以通達(dá)。也就是說,一個知識原子KAP在世界w中是真實(shí)的,當(dāng)且僅當(dāng)P在每個世界中可以通達(dá)w。更復(fù)雜語句的真,都源于這個規(guī)則和一階邏輯規(guī)則的遞歸應(yīng)用。這意味著,模態(tài)邏輯能夠被用來推理網(wǎng)狀知識的語句,即一個主體能夠知道關(guān)于另一個主體的知識。

范疇的推理系統(tǒng)就是通過語義網(wǎng)和描述邏輯來表征的。根據(jù)前述的本體論框架,范疇是大規(guī)模知識表征計(jì)劃的基本建筑模塊。運(yùn)用范疇進(jìn)行組織和推理涉及兩個相關(guān)的系統(tǒng),一個是語義網(wǎng),另一個是描述邏輯。前者為形成可見知識庫提供圖形支持,為指明一個客體的屬性在其范疇基礎(chǔ)上提供有效算法;后者為建構(gòu)和結(jié)合范疇定義提供形式語言,為決定范疇之間的子集和父集關(guān)系提供有效算法。

語義網(wǎng)有許多形式,它們都能夠表征個體客體、客體的范疇以及客體之間的關(guān)系。人工智能中一種典型的圖標(biāo)記法是在橢圓形或方框中顯示客體或范疇的名稱,然后用箭頭線連接起來形成語義網(wǎng),例如哺乳動物與人類之間的語義網(wǎng)(圖2)。

圖2 哺乳動物與人類之間的語義網(wǎng)

這個語義網(wǎng)有四個客體(約翰,瑪麗,1,2),四個范疇(哺乳動物,人類,男人,女人)。它們之間的關(guān)系由箭頭線連接:瑪麗和女人、約翰與男人之間是一種Memberof(隸屬)關(guān)系,相應(yīng)的邏輯表述是:瑪麗∈女人;同樣,瑪麗和約翰之間的兄妹關(guān)系相應(yīng)的邏輯表述是:Sisterof(瑪麗,約翰)。四個范疇之間的關(guān)系可以使用Subsetof(亞集)連接,比如任何人都有母親,可以使用HasMother(有母親)連接人類與男人和女人。這樣,我們可以使用這種標(biāo)記的語義網(wǎng)表征推理系統(tǒng)。當(dāng)然也可以用一階邏輯與這種標(biāo)記法的混合來表征,例如前述系統(tǒng):

?x x∈人類 →[?yHasMother(x,y)→y∈女人]

這種標(biāo)記法對于執(zhí)行繼承推理是非常方便的。例如瑪麗和約翰是人類,所以有兩條腿,即?x x∈人類→腿(x,2)。與邏輯原理證明相比,這種推理機(jī)制的簡單性和有效性一直是人工智能語義網(wǎng)的主要魅力之一。

如果說一階邏輯語法使描述客體變得容易,那么描述邏輯使描述定義和范疇的屬性更容易。描述邏輯的主要推理任務(wù)是包含(subsumption)和分類(classification)。包含就是通過比較它們的定義檢驗(yàn)一個范疇是否是另一個范疇的子集;分類就是檢驗(yàn)一個客體是否屬于一個范疇。經(jīng)典邏輯是一個典型的描述邏輯。比如“單身漢是沒有結(jié)婚的成年男性”可以寫作:單身漢=And(未婚,成年,男性),用一階邏輯表示就是:單身漢(x)≡未婚(x)∧成年(x)∧男性(x)。原則上,任何經(jīng)典邏輯的描述都可以轉(zhuǎn)換成一個等價的一階邏輯句,但有些描述使用經(jīng)典邏輯描述更直截了當(dāng)。需注意的是,描述邏輯有一個關(guān)于謂詞的操作代數(shù),這是用一階邏輯不能夠描述的。

描述邏輯的最重要特征或許是它強(qiáng)調(diào)推理的易處理性。如果一個問題能夠通過描述而得到解決,那么就看它是否被歸入幾個可能的解決范疇之中。在標(biāo)準(zhǔn)一階邏輯系統(tǒng)中,一方面,預(yù)測解決時間通常是不可能的事情,這個問題往往留給使用者設(shè)計(jì)表征來繞過一組語句,這組語句似乎引起這個系統(tǒng)花費(fèi)幾周時間來解決問題。另一方面,描述邏輯中的推力就是保證包含—檢驗(yàn)(subsumption-testing)能夠在描述的范圍中以時間多項(xiàng)式形式得到解決。

四、缺省信息的適應(yīng)性表征與推理

在語義網(wǎng)的繼承推理系統(tǒng)中,存在缺省狀態(tài),比如人有兩條腿,這個論斷可以通過更具體的信息如某人有一條腿被推翻。這類似于波普的證偽主義,所有烏鴉都是黑的,但發(fā)現(xiàn)有一只非黑的烏鴉就證偽了這個命題。缺省信息推理可以充實(shí)完善語義網(wǎng)表征。這似乎表明,人往往會草率地得出結(jié)論。比如我們看到一輛小車停在路旁,往往就自然地相信它有四個輪子,即使我們只看到三個或者兩個。盡管概率理論能夠提供一個結(jié)論說,第四個輪子的存在有極高的概率,然而,對于大多數(shù)人而言,那輛小車有四個輪子的可能性并沒有提高,除非有新的證據(jù)出現(xiàn)。

在科學(xué)中,這種情形較為普遍,比如人們往往認(rèn)為重的物體比輕的物體下落速度快,因?yàn)槿藗儗?shí)際看到的情形也是如此。這樣一來,情形似乎是,在缺乏任何理由懷疑這個論斷前,人們通過缺省斷定小車有四個輪子。如果獲得新的證據(jù),比如看到司機(jī)搬一個輪子,注意到小車被千斤頂頂起,此時這個結(jié)論才能被取消。這種推理被認(rèn)為是展示了非單調(diào)性,因?yàn)楫?dāng)新證據(jù)出現(xiàn)時信念集合沒有隨著時間單調(diào)地增長。為了捕獲這種行為,非單調(diào)邏輯已經(jīng)通過修正的真理和推演概念被發(fā)明出來,這就是約束(circumscription)與缺省邏輯(default logic),它們的表征是適應(yīng)性的。

我們首先考察約束表征。約束可以被看作是封閉世界假設(shè)的一個更有力和更精確的版本。這種觀點(diǎn)是詳細(xì)說明被假設(shè)的客體是盡可能假的特殊謂詞,即,對于每個客體,假(false)是除那些被知曉為真以外的東西。例如,假設(shè)我們要斷言鳥會飛這個缺省規(guī)則,可以引入一個謂詞(反常)Abnormal1(x),寫作:鳥(x)∧Abnormal1(x)→飛(x)。如果Abnormal1(x)要被限制的話,一個約束推理者有條件假設(shè)Abnormal1(x),除非Abnormal1(x)被知道是真的,如鴕鳥不會飛。這意味著,結(jié)論飛(鳴叫)是從前提鳥(鳴叫)得出的,但是這個結(jié)論不再堅(jiān)持Abnormal1(鳴叫)是否可以被斷定。

約束也被看作是模型優(yōu)先邏輯的一個例子。在這種邏輯中,一個語句,若在所有知識庫的優(yōu)先模型中是真的,就可以用缺省狀態(tài)推演出來,這與經(jīng)典邏輯中所有模型中的真的必要條件相反。對于約束來說,一個模型優(yōu)先于另一個,如果它有更少的反常客體的話。而對一個封閉世界假設(shè),一個模型優(yōu)先于另一個,如果它有更少的真實(shí)原子,即,優(yōu)先模型是最小的模型。在語義網(wǎng)的多繼承語境中,模型優(yōu)先邏輯是如何起作用的?這里用一個被稱為“尼克松鉆石”的標(biāo)準(zhǔn)例子來說明。[注]Stuart J.Russell,Peter Norvig,Artificial Intelligence: A Modern Approach,p.459.美國前總統(tǒng)尼克松,既是一個教友會信徒,也是一個共和黨黨員,因此,根據(jù)缺省概念,他既是一個和平主義者,也是一個非和平主義者,這似乎是矛盾的。我們可以將這種情形寫作:

共和黨黨員(尼克松)∧教友會信徒(尼克松)

共和黨黨員(x)∧Abnormal2(x)→和平主義者(x)

教友會信徒(x)∧Abnormal3(x)→和平主義者(x)

假設(shè)約束Abnormal2(x)和Abnormal3(x),則有兩個有效模型:一個堅(jiān)持Abnormal2(尼克松)與和平主義者(尼克松)的模型,一個堅(jiān)持Abnormal3(尼克松)與非和平主義者(尼克松)的模型。這樣一來,對于尼克松是否是一個和平主義者,約束推理者仍然是絕對的不可知論者。若我們能斷定宗教信仰優(yōu)先于政治信仰,則我們能夠使用一個被稱為優(yōu)先處理約束的形式主義使模型優(yōu)先,在這種模型里,Abnormal3是最少化的。

接下來我們考察缺省邏輯表征。缺省邏輯是一種形式主義,其中的缺省規(guī)則能夠被寫出來產(chǎn)生依情況而定的、非單調(diào)的結(jié)論。根據(jù)“鳥飛”這個缺省例子,缺省規(guī)則可以寫作:鳥(x):飛(x)/飛(x)。這個規(guī)則的意思是,如果鳥(x)是真的,并且飛(x)與知識庫一致,那么飛(x)可能由缺省得出。一般來說,缺省規(guī)則的形式表達(dá)是:P:J1,…,Jn/C。其中P被稱為先決條件,C是結(jié)論,Ji是確證的證據(jù)。如果任何一個證據(jù)被證明為假,那么結(jié)論就不能被得出。出現(xiàn)在Ji或C中的任何變量,也必須出現(xiàn)在P中。例如“尼克松鉆石”的例子在缺省邏輯中用一個事實(shí)和兩個缺省規(guī)則表征就是:

共和黨黨員(尼克松)∧教友會信徒(尼克松)

共和黨黨員(x):和平主義者(x)/和平主義者(x)

教友會信徒(x):和平主義者(x)/和平主義者(x)

要解釋缺省規(guī)則意味著什么,我們需要一個概念——延展(extension)。一個延展S由最初知道的事實(shí)和源于缺省規(guī)則的一組結(jié)論構(gòu)成,這樣就沒有任何附加結(jié)論能夠從S得出,而且S中的每個缺省結(jié)論的確證與S一致。對于“尼克松鉆石”的例子來說,它有兩個可能的延展:一個延展是他是一個和平主義者;另一個延展是他是一個非和平主義者。這表明優(yōu)先處理計(jì)劃是存在的,其中某些缺省規(guī)則比其他規(guī)則優(yōu)先,這使得某些模糊性得到解決。

需要注意的是,雖然非單調(diào)邏輯在理解其數(shù)學(xué)屬性方面已經(jīng)取得了極大進(jìn)步,但是仍然有許多問題沒有解決,比如,如果“小車有四個輪子”是假的,在其知識庫中解決這個問題意味著什么?什么是一組好的缺省規(guī)則?對每個獨(dú)立的規(guī)則,如果不能決定它是否屬于我們的知識庫,那么我們就會遇到一個嚴(yán)重的非模塊性問題,有缺省狀態(tài)的信念如何能夠被用于做決定?這或許是缺省推理最棘手的問題。決定通常還包括權(quán)衡,人們因此需要在不同的行動結(jié)果中比較信念的力量,權(quán)衡做出錯誤決定的代價。這些問題導(dǎo)致人們探討如何將缺省推理嵌入概率或效用理論。

五、真理保持系統(tǒng)的適應(yīng)性表征與推理

在人工智能表征系統(tǒng)中,許多由知識表征系統(tǒng)得出的推論只有缺省狀態(tài),而不是絕對確定的。這不可避免地使某些推斷的事實(shí)被證明是錯誤的,因而在面對新信息時會被撤銷或證偽。這個過程就是信念修正(belief revision)。當(dāng)知識庫(knowledge base,KB)被修正以反映世界中的變化而不是關(guān)于一個固定世界的新信息時,信念修正就會發(fā)生了。假定一個知識庫KB包含一個語句或命題P,而且我們要執(zhí)行告知Tell(KB,P),為了避免產(chǎn)生矛盾,我們首先必須執(zhí)行撤銷RETRACT(KB,P)。然而,如果任何附加語句是從P推出的,且在這個KB中得到斷定,那么問題就產(chǎn)生了。比如蘊(yùn)含P→Q可能一直被用于增加Q。這個明顯的答案(撤銷所有由P推出的語句)是失敗的,因?yàn)檫@個語句除了P可能還有其他正當(dāng)理由(justification)。比如,如果R和R→Q也在KB之中,那么Q不必被撤銷。因此,真理保持系統(tǒng)(Truth maintenance system, TMS)需要不斷適應(yīng)變化的世界來表征知識。

為了解決這個問題,真理保持系統(tǒng)被設(shè)計(jì)出來精確處理這些混亂。目前,人工智能處理TMS的方法主要有三種:

第一是記錄通過從P1標(biāo)記到Pn而將語句告知知識庫的秩序方法。當(dāng)發(fā)出RETRACT(KB,Pi)的指令時,系統(tǒng)就恢復(fù)到Pi剛剛被添加前的狀態(tài),因此撤銷Pi和任何從Pi推出的推論,語句Pi+1通過Pn能夠再次被添加。這在真理保持系統(tǒng)的操作中是很簡單的方法。這種方法保證知識庫是一致的,但是撤銷Pi需要撤銷和再斷定n-i語句,以及撤銷和改寫從那些語句推出的所有推論。而對于不斷被添加許多事實(shí)的系統(tǒng),如大型商業(yè)數(shù)據(jù)庫、人口普查數(shù)據(jù)庫,這是不切實(shí)際的。

第二是基于正當(dāng)理由的真理保持系統(tǒng)(JTMS)方法,它比第一種方法更有效。在這種系統(tǒng)中,知識庫中的每個語句都由一個正當(dāng)理由注釋,而那個正當(dāng)理由則推出它的語句組成。比如,如果知識庫已經(jīng)包含P→Q,那么Tell(P)會引起Q由正當(dāng)理由{P,P→Q}所添加。一般來說,一個語句能夠擁有任何數(shù)目的正當(dāng)理由。正當(dāng)理由使得撤銷行動有效。給出指令RETRACT(P),JTMS會精確刪除對于P是正當(dāng)理由的一個成員的那些語句。因此,如果一個語句Q有單一的正當(dāng)理由{P,P→Q},它就會被撤銷。如果它有附加的正當(dāng)理由{P,P∨R→Q},它仍然會被撤銷。然而,如果它也有正當(dāng)理由{R,P∨R→Q},那么它會被省掉。這樣一來,自從P進(jìn)入知識庫后,撤銷P所需要的時間僅僅依賴于從P推出的語句的數(shù)量,而不是依賴于被增加的其他語句的數(shù)量。JTMS方法假設(shè),已考慮的語句可能被再次考慮,所以當(dāng)一個語句失去所有正當(dāng)理由時我們不是完全從知識庫刪除它,而只是將這個語句標(biāo)記在知識庫之外。如果一個后續(xù)的斷言恢復(fù)了其中一個正當(dāng)理由,我們將它標(biāo)記為倒進(jìn)入。這樣的話,JTMS保留了它使用的所有推論鏈,而且當(dāng)一個正當(dāng)理由再次成為有效時,不需要再導(dǎo)入語句。這意味著JTMS是依賴已經(jīng)設(shè)置的語境的(即語義庫)。

第三是基于假設(shè)的真理保持系統(tǒng)(ATMS)方法。ATMS使得這類假設(shè)世界之間的語境轉(zhuǎn)化特別地有效。在一個ATMS中,保持正當(dāng)理由允許我們通過做出幾個撤銷和斷言,迅速地從一個狀態(tài)移動到另一個,但是在每個時刻只有一個狀態(tài)被表征。一個ATMS能夠表征所有同時已經(jīng)被考慮的狀態(tài)。當(dāng)語句進(jìn)入或被排出知識庫時,一個JTMS簡單地標(biāo)記每個語句,而一個ATMS與每個語句保持聯(lián)系,其中假設(shè)語句是真實(shí)的。換句話說,每個語句有一個標(biāo)記,該標(biāo)記由一組假設(shè)集合構(gòu)成。不過,這個語句只有在假設(shè)集合之一中的所有假設(shè)都保持的情形下才能保持。

總之,真理保持系統(tǒng)方法提供了做出解釋的一種機(jī)制。具體來說,一個命題P的一種解釋是一組語句E,以至于E推演出P。如果E中的一個語句已知是真實(shí)的,那么E對于證明P也一定真實(shí)提供了充分的基礎(chǔ)。但是,解釋也包括假設(shè),即未知的語句是真實(shí)的,這足以證明P,如果假設(shè)是真實(shí)的話。在大多數(shù)情形中,我們會喜歡那種最小的解釋,意思是,不存在絕對的E的亞集,它也能夠是一種解釋。

六、基于知識的主體在環(huán)境中的適應(yīng)性表征與推理

基于知識的主體(knowledge-based agent)是一種邏輯主體(即邏輯智能體),它能夠形成一個復(fù)雜世界的表征,使用推理過程導(dǎo)出關(guān)于世界的新表征,并使用這些新表征推出要做什么。這種智能主體不是通過人的純粹生物反射機(jī)制獲得智能,而是通過在知識的內(nèi)在表征上操作推理過程獲得智能。因此,基于知識的主體與其環(huán)境的相互作用是產(chǎn)生智能的關(guān)鍵,與構(gòu)成主體的質(zhì)料(生物的還是物理的)沒有關(guān)系。這也進(jìn)一步說明,智能行為不僅僅是有意識的生物特有的,無生命、無意識、無心靈的機(jī)器也能夠產(chǎn)生智能,或者說,有意識不是智能行為產(chǎn)生的必備前提。

基于知識的主體的核心成分是它的知識庫。一個知識庫是一組語句,[注]這里的語句是一個技術(shù)術(shù)語,類似于但不同于英語、漢語等自然語言,是自然語言與形式語言的混用形式。每個語句由一種被稱為“知識表征語言”(knowledge representation language)來表達(dá),表征這個世界的某些斷言。當(dāng)這種語句不是從其他語句給出時,有時也被稱為公理。給知識庫添加新語句的方法叫做TELL(告知),詢問知道什么的方法叫做ASK(詢問)。這兩個操作程序包括推理,即從語句導(dǎo)出新語句。推理必須服從這樣的規(guī)則:當(dāng)問知識庫一個問題時,答案應(yīng)該從先前所告知的知識庫的語句中推出。例如一個類基于知識的主體,給定一個感知對象,主體將這個感知對象添加到它的知識庫,向知識庫要求最佳行動,并告訴知識庫它已經(jīng)采取了哪個行動。

同我們的其他主體一樣,這種基于知識的主體包括一個知識庫作為背景知識,將感知作為輸入,并返回一個行動。每當(dāng)主體程序被喚起時,主體會做三件事:第一,告訴知識庫它感知了什么;第二,問知識庫它應(yīng)該執(zhí)行什么行動。在回答詢問的過程中,關(guān)于世界的當(dāng)下狀態(tài)、可能行動序列的結(jié)果等,可能由外延推理執(zhí)行;第三,主體程序告訴知識庫選擇了哪個行動,主體就執(zhí)行哪個行動。表征語言的細(xì)節(jié)被隱藏在三個函數(shù)中,這些函數(shù)在界面是在一側(cè)實(shí)現(xiàn)感知器與促動器之間的連接,在另一側(cè)執(zhí)行核心表征和推理系統(tǒng)?!爱a(chǎn)生感知語句”(MAKE-PERCEPT-SENTENCE)程序建構(gòu)一個語句說明,人工主體在給定時間感知到給定的對象?!爱a(chǎn)生行動詢問”(MAKE-ACTION-QUERY)程序建構(gòu)一個語句,該語句詢問在當(dāng)下時間什么行動應(yīng)該被執(zhí)行。若“產(chǎn)生行動語句”(MAKE-ACTION-SENTENCE)程序建構(gòu)一個語句斷言,則選擇的行動就被執(zhí)行。推理機(jī)制的細(xì)節(jié)隱藏在TELL和ASK中。

因此,一個基于知識的主體能夠通過告訴它需要知道什么來建構(gòu),從一個空知識庫開始,主體的設(shè)計(jì)者能夠告訴一個接一個的語句,直到主體知道如何在其環(huán)境中操作,這被稱為系統(tǒng)建構(gòu)的陳述性方法。與之相比,程序性方法直接將所期望的行為編碼為程序代碼。一個成功的主體通常將兩種方法結(jié)合在它的設(shè)計(jì)中,陳述性知識能夠被編制為更有效的程序性代碼。

基于知識的主體在什么樣的環(huán)境中才能發(fā)揮作用呢?這種環(huán)境就是所謂的游戲中的“魔獸世界”(the wumpus world),[注]一個典型的魔獸世界由16個方格構(gòu)成,其標(biāo)記方式與坐標(biāo)系相同,即縱向是從下到上1—4,橫向從左到右1—4,用數(shù)字標(biāo)記分別是[1,1][1,2][1,3][1,4][2,1][2,2][2,3][2,4][3,1]3,2[3,3][3,4][4,1][4,2][4,3][4,4],主體位于[1,1]中,魔獸位于[1,3]中,金子在[2,3]中,有坑的房間分別是[3,1][3,3][4,4]。一種由通道連接起來的房間組成的洞穴。在洞穴的某個地方潛伏著可怕的魔獸,凡是進(jìn)入它房間的人都會被吃掉。主體能夠射殺魔獸,但是主體只有一支箭。有些房間有無底的坑,它會困住進(jìn)入這些房間的任何人,但是魔獸例外,因?yàn)樗蟛粫暨M(jìn)去。這個暗淡的環(huán)境的唯一特征是發(fā)現(xiàn)一堆金子的可能性?,F(xiàn)代計(jì)算機(jī)游戲普遍采取“魔獸世界”作為標(biāo)準(zhǔn),這種“魔獸世界”事實(shí)上闡明了智能的某些重要特點(diǎn),用PEAS[注]由性能(Performance)、環(huán)境(Environment)、促動器(Actuator)和感知器(Sensor)組合成的方法,這四個指標(biāo)是設(shè)置人工智能環(huán)境常用的標(biāo)準(zhǔn)。方法可描述如下:

(1)性能指標(biāo):+1000表示帶著金子爬出了洞穴,-1000表示掉進(jìn)洞穴或被魔獸吃掉,-1表示每個采取的行動,-10表示用光了箭。主體死亡或爬出洞穴,游戲結(jié)束。

(2)環(huán)境:一個4×4的16個格子房間。主體總是面向右從標(biāo)記[1,1]的方格開始。金子和魔獸的位置是隨機(jī)選擇的,均勻分布,但不在開始的方格;除開始方格外其他方格可能有坑,概率是0.2。

(3)促動器:主體可以向前、左轉(zhuǎn)90°或右轉(zhuǎn)90°。如主體進(jìn)入有坑或有活的魔獸的方格,就會悲慘地死掉;如魔獸是死的,則主體是安全的。如果主體試圖向前撞到墻,它就停止移動;行動Grab(搶奪)在同一個方格中若作為主體可被用于拿到金子;行動Shoot(射擊)可被用于在主體面對的方向直線射箭。箭要么擊中魔獸,要么擊中墻。主體只有一支箭,所以第一次射擊格外重要。最后,行動Climb(爬)可被用于爬出洞穴,但只能從方格[1,1]爬出。

(4)感知器:主體有5個感知器,每個都有唯一的信息:(a)在有魔獸的方格和直接相鄰(非對角線相鄰)的方格,主體會嗅到臭氣(stench);(b)在與坑直接相鄰的方格,主體會感受到微風(fēng)(breeze);(c)在有金子的方格,主體會感知到閃爍(glitter);(d)當(dāng)主體撞到墻時,會感知到碰撞(bump);(e)當(dāng)魔獸被殺死時,它發(fā)出尖叫(scream),主體在洞穴的任何地方都能感知到。

這些感知對象以5個符號形式寫入主體程序,比如,在魔獸世界中有臭氣、微風(fēng),但沒有閃爍、碰撞或尖叫,主體程序就是[stench,breeze,none,none,none]。其他主體程序也能夠以這種方式描述。

顯然,這個“魔獸世界”是一個離散的、靜態(tài)的、單一主體的世界。它是有序的,因?yàn)檠a(bǔ)償是在許多行動被采取后才產(chǎn)生的。它也是一個部分可觀察的環(huán)境,因?yàn)闋顟B(tài)的某些方面不是直接可以感知的,如主體的位置、魔獸的健康狀況,一支箭的可用性等。至于坑和魔獸的位置,可以看作狀態(tài)的不可觀察部分,在這種情形下,環(huán)境的轉(zhuǎn)換模型完全是可知的?;蛘哒f,轉(zhuǎn)換模型本身是不知道的,因?yàn)橹黧w不知道哪個向前的行動是致命的,在這種情形下,發(fā)現(xiàn)坑和魔獸的位置能夠完善主體的轉(zhuǎn)換模型的知識。

對于一個環(huán)境中的主體來說,主要的挑戰(zhàn)來自它對環(huán)境構(gòu)架的忽視。克服這種缺陷似乎需要邏輯推理?;谥R的主體在“魔獸世界”這個環(huán)境中是通過一階邏輯、命題邏輯、語義學(xué)和推理程序表征實(shí)際世界的。這是人工智能已經(jīng)闡明的問題。

七、兩個典型的適應(yīng)性知識表征與推理:AlphaGo和Master

從適應(yīng)性表征的觀點(diǎn)看,智能機(jī)的發(fā)展表明它是不斷適應(yīng)人類智力而進(jìn)步的。AlphaGo與韓國圍棋高手李世石的對弈是一個典型的例子。2016年3月9—15日在韓國首爾四季酒店舉行的AlphaGo與李世石的“人機(jī)大戰(zhàn)”成為人工智能史上的一個里程碑,舉世關(guān)注。據(jù)說AlphaGo能夠像人類一樣進(jìn)行自主學(xué)習(xí),它依賴的是所謂的“深度學(xué)習(xí)”(Deep Learning)和“增強(qiáng)學(xué)習(xí)”(Reinforcement Learning),統(tǒng)合起來就是深度增強(qiáng)學(xué)習(xí)(Deep Reinforcement Learning)。[注]https://zhuanlan.zhihu.com/intelligentunit這是目前人工智能最前沿的研究方向。作為智能機(jī)代表的AlphaGo是否戰(zhàn)勝了人類智能?[注]關(guān)于這個問題,我的看法是,目前機(jī)器智能沒有超過人類智能。這就看我們?nèi)绾味x“智能”概念了。在我看來,智能應(yīng)該包括計(jì)算力、感知力、預(yù)測力、直覺力、洞見力、情感力、意向力(自我意識)和自語境化力(能夠自動融入語境),這些能力統(tǒng)稱為人類的綜合能力。智能機(jī)顯然還沒有達(dá)到這種綜合能力,雖然它具有計(jì)算力和預(yù)測力,而且這兩種能力可能還遠(yuǎn)遠(yuǎn)超過人類(計(jì)算機(jī)的計(jì)算能力遠(yuǎn)超過人)。目前的智能機(jī)顯然沒有情感和自我意識,更不能隨著語境的變化而自動融入新的語境,因?yàn)橹悄軝C(jī)畢竟還是機(jī)器,它是不依賴語境的,盡管設(shè)計(jì)者可以在一個給定范圍給它設(shè)置語境,如一個特定的語義網(wǎng)構(gòu)成一個語義域。就人機(jī)對弈而言,雖然人輸給了智能機(jī),但這不意味著它超越了人類的智能,理由是:(1)智能機(jī)背后是設(shè)計(jì)它的一群人,這等于是一群人借助機(jī)器與一個人對弈,一個人當(dāng)然敵不過一群人,“三個臭皮匠勝過一個諸葛亮”;(2)以單一能力超強(qiáng)評價是“以偏概全”,狗的嗅覺比人好,鷹的視力比人好,難道我們能夠說狗和鷹超過了人的智能?同樣,計(jì)算機(jī)無疑比人的計(jì)算力強(qiáng),我們不能因此說計(jì)算機(jī)超過了人的智能;(3)一個人的智能(李世石)并不能代表整個人類的智能,集體意識或者智能不是一個人能夠表現(xiàn)出來的;(4)機(jī)器可以連續(xù)工作,而人則不能,所以在“累”的意義上,人類就不如智能機(jī),累會使人體力下降,專注力下降,因而會影響智力的發(fā)揮;(5)在靈活性、應(yīng)變性、綜合性方面,正如前述所說,智能機(jī)遠(yuǎn)不如人類,更不用說情感和自我意識了。它是如何模擬或適應(yīng)性表征人類智能的?讓我們來分析后面這個問題。

根據(jù)目前的人工智能研究,神經(jīng)網(wǎng)絡(luò)技術(shù)發(fā)展出一種稱為“深度神經(jīng)網(wǎng)絡(luò)”組件,它構(gòu)成AlphaGo的模擬程序(類似于人的大腦)。該程序由四部分組成:(1)快速掃描策略(Rollout Policy),用于快速掃描(相當(dāng)于人的感知)棋盤,以獲取較優(yōu)的對弈步驟;(2)深度模仿策略網(wǎng)絡(luò)(SL Policy Network),它能夠通過模擬人類棋手來學(xué)習(xí);(3)自我學(xué)習(xí)策略網(wǎng)絡(luò)(RL Policy Network),它能夠基于深度模仿網(wǎng)絡(luò)來訓(xùn)練提高對弈水平;(4)全局評估網(wǎng)絡(luò)(Value Network),它利用自學(xué)成長網(wǎng)絡(luò)對全局形勢進(jìn)行判斷。如果將“網(wǎng)絡(luò)”比作人類的大腦(神經(jīng)元網(wǎng)),那么AlphaGo的“大腦”實(shí)際上由四個腦區(qū)構(gòu)成,每個腦區(qū)的功能都不同,每個的功能都不能與人類相比擬,但組合起來相當(dāng)于人類大腦不同區(qū)域的整體功能。[注]據(jù)說,與人類棋手相比,快速掃描策略的正確判斷率只有24.2%,深度模仿策略的正確判斷率只有57.0%,網(wǎng)絡(luò)自我學(xué)習(xí)策略的正確判斷率則高達(dá)80%,全局評估網(wǎng)絡(luò)的誤差很低,均方差在0.22—0.23之間。這就是AlphaGo對人類大腦的實(shí)際模擬,通過模擬不斷提升它適應(yīng)新的學(xué)習(xí)環(huán)境的能力。這與人類學(xué)習(xí)對弈的過程是一樣的。

當(dāng)代腦科學(xué)研究揭示,人的大腦有1011個神經(jīng)元,它們相互連接成功能強(qiáng)大的人腦。假如有一天智能機(jī)比如AlphaGo的深度學(xué)習(xí)網(wǎng)絡(luò)的組元(類神經(jīng)元)達(dá)到這個數(shù)量級,其智能水平會怎樣呢?我們不得而知,也不敢去設(shè)想。假如它超過了人類智能,則會產(chǎn)生一系列的社會和倫理問題,比如高智能的機(jī)器人可以代替人做許多工作,甚至取代人類,這勢必對社會結(jié)構(gòu)、經(jīng)濟(jì)規(guī)模、人類隱私,甚至人類的存亡產(chǎn)生不可估量的影響。

由于AlphaGo也能夠像人類那樣擁有強(qiáng)大的神經(jīng)網(wǎng)絡(luò)(人工),能夠自主學(xué)習(xí),所以它對弈時采用蒙特卡洛樹搜索方法(多次模擬未來的棋局,選擇模擬中次數(shù)最多的走法)獲取最佳的落子點(diǎn)。具體思路是:(1)基于深度模仿策略網(wǎng)絡(luò)預(yù)測下一步走法,直到多步;(2)使用全局評估網(wǎng)絡(luò)進(jìn)行評估,判斷棋勢,再使用快速掃描策略做進(jìn)一步的預(yù)測,直到獲得模擬結(jié)果;(3)綜合前述兩者對預(yù)測未來L步走法進(jìn)行評估,將評估結(jié)果作為棋局的下一步走法的估值;(4)結(jié)合下一步走法的估值和深度模仿策略網(wǎng)絡(luò)進(jìn)行再次模擬,若出現(xiàn)同樣的走法,則對走法的估值取平均值,反復(fù)循環(huán)以上步驟直到n次,然后選擇次數(shù)最多的走法作為下一步。這一過程體現(xiàn)了AlphaGo的自主學(xué)習(xí)過程。AlphaGo是通過處理神經(jīng)網(wǎng)絡(luò)中數(shù)量龐大的參數(shù)來學(xué)習(xí)的。

2017年1月4日結(jié)束的Master(AlphaGo的升級版)與人類60位圍棋頂級高手的較量中,以全勝戰(zhàn)績贏得勝利,人類棋手似乎不堪一擊。雖然Master在30秒快棋領(lǐng)域擊敗了人類智能,若是在慢棋領(lǐng)域,Master是否還有優(yōu)勢?不可否認(rèn),智能機(jī)的計(jì)算速度比人快得多,若給人類棋手足夠的思考時間,結(jié)果可能不同或者相反。這還有待進(jìn)一步的人機(jī)較量的驗(yàn)證。

總之,人機(jī)大戰(zhàn)給我們提出的問題是:神經(jīng)網(wǎng)絡(luò)的參數(shù)為什么能夠表現(xiàn)出智能?智能到底是什么?無人操控的智能機(jī)是否能自動產(chǎn)生智能行為?這些問題還有待人工智能專家、認(rèn)知科學(xué)家、認(rèn)知哲學(xué)家做進(jìn)一步的探討。給筆者個人的啟示是:既然人類能夠按照自己的形象創(chuàng)造自己并未見過的上帝,那么人類自己也能夠按照自己大腦的運(yùn)作方式創(chuàng)造出自己以外的智能(盡管大腦對我們自己仍然是個黑箱,盡管是不自覺的),甚至能夠讓智能機(jī)有意識,即實(shí)現(xiàn)人工意識的可能性。正如庫茲韋爾所說,“人類和機(jī)器智能之間的界線越發(fā)顯得模糊,因?yàn)闄C(jī)器智能越來越多地源于其人類設(shè)計(jì)者的智能,而人類智能也因?yàn)闄C(jī)器智能得到了更大提高”。[注]雷·庫茲韋爾:《機(jī)器之心》,胡曉嬌、張溫卓瑪、吳純潔譯,中信出版集團(tuán)2016年版,第289頁。一句話,人類的思維正融入自己創(chuàng)造的機(jī)器智能領(lǐng)域,人機(jī)合體的實(shí)現(xiàn)恐怕為期不會太遠(yuǎn)。

猜你喜歡
缺省知識庫范疇
批評話語分析的論辯范疇研究
正合范疇中的復(fù)形、余撓對及粘合
基于“缺省模式”設(shè)計(jì)平臺的控制系統(tǒng)研發(fā)模式重塑
Clean-正合和Clean-導(dǎo)出范疇
基于TRIZ與知識庫的創(chuàng)新模型構(gòu)建及在注塑機(jī)設(shè)計(jì)中的應(yīng)用
高速公路信息系統(tǒng)維護(hù)知識庫的建立和應(yīng)用
基于條件隨機(jī)場的評價對象缺省項(xiàng)識別
基于Drupal發(fā)布學(xué)者知識庫關(guān)聯(lián)數(shù)據(jù)的研究
觀點(diǎn)句中評價對象/屬性的缺省項(xiàng)識別方法研究
位置與方向測試題
阳春市| 涪陵区| 赣榆县| 云霄县| 家居| 二连浩特市| 旺苍县| 成安县| 安陆市| 泽库县| 新疆| 荥阳市| 罗平县| 肃南| 武隆县| 临高县| 彭泽县| 翁源县| 池州市| 红桥区| 金堂县| 林西县| 纳雍县| 焦作市| 应用必备| 崇左市| 新闻| 建宁县| 吴旗县| 固始县| 澄城县| 密云县| 巴林左旗| 平邑县| 镇远县| 白银市| 固阳县| 台中市| 昭平县| 赣榆县| 阿勒泰市|