[德]克勞斯·邁因策爾(Klaus Mainzer)
(慕尼黑工業(yè)大學(xué) 教育學(xué)院,德國)
人工智能(AI)在很多人不知情的情況下統(tǒng)治我們的生活很久了。與我們說話的智能手機、記錄我們健康數(shù)據(jù)的手表、自動安排的工作程序、自動駕駛的汽車和飛機、有自主邏輯的交通和能量系統(tǒng),以及探測遠(yuǎn)方星球的機器人,都是連接成網(wǎng)的智能系統(tǒng)世界的例證。它們向我們展示了人們的日常生活是如何受到人工智能功能影響的。
艾倫·麥席森·圖靈(1912—1954)在后來以其姓命名的測試中定義一個系統(tǒng)是否具有智能性的判斷校準(zhǔn)為:如果該系統(tǒng)的回答和反應(yīng)與人類的無法區(qū)別時,則該系統(tǒng)是智能的。①這個定義的不足之處是用人類作為測試標(biāo)準(zhǔn)。很多生物體也是智能系統(tǒng)的范例,它們和人類一樣,在進化中出現(xiàn)并能夠或多或少地、獨立有效地解決問題。有時自然是技術(shù)發(fā)展的模板。但是信息科學(xué)和工程技術(shù)科學(xué)也經(jīng)常會找到一些與自然界不同甚至更好、更高效的解決問題的方法。所以,圖靈所定義的智能并不嚴(yán)謹(jǐn),智能應(yīng)是指通過技術(shù)或自然系統(tǒng)有效而自動地解決問題的程度或者等級。因此,筆者為一個系統(tǒng)的智能性提出一個暫時的工作概念,如果一個系統(tǒng)能獨立而有效地解決問題,則它就是智能的。②一個系統(tǒng)的智能度由系統(tǒng)的獨立性程度、問題的復(fù)雜程度以及解決問題過程的效率大小決定:智能度我們能夠測量。據(jù)此,動物(和人類)的意識和感覺對于智能來說并非必需的。
1956年,受到圖靈“機器會思考嗎”這一問題的啟發(fā),約翰·麥卡錫(John McCarthy)、艾倫·紐厄爾(Allen Newell)、赫伯特·西蒙(Herbert Simon)等多位權(quán)威研究人員出席了在達特茅斯舉行的有關(guān)機器智能的會議。人工智能研究的第一階段至少在于形式邏輯中探求解決問題的通用方法上取得了成就。為了證明公式的邏輯上的普遍適用性,設(shè)計了一種機械的處理方法。這種處理方法可以被計算機程序執(zhí)行,也將自動定理證明引入了計算機科學(xué)。
在實踐中論證一個邏輯推論的普遍適用性可能會非常復(fù)雜。因此,1965年魯濱遜(J.A.Robinson)提出了所謂的歸結(jié)方法,借此能夠推導(dǎo)出邏輯駁議過程的證明。③人們從對立的猜測(否定),即邏輯推論不具有普遍適用性開始;接著證明這一假設(shè)的所有可能的應(yīng)用實例都將導(dǎo)致自相矛盾的結(jié)果。否定之否定和邏輯推論的否定是普遍有效的。魯濱遜的歸結(jié)方法使用了邏輯化簡法,據(jù)此人們可以將所有邏輯公式轉(zhuǎn)換成合取范式。在命題邏輯中一個合取范式由可以否定的和不可否定的命題變量(字符串)組成,這些變量由合取(∧)和析取(∨)符號連接起來。一個常規(guī)公式的組成元素被稱為子句。
對于謂詞邏輯的公式來說,也有一個通用的歸結(jié)過程,以便再次從一個公式的一般無效假設(shè)推導(dǎo)出矛盾。為此,一個謂詞邏輯的公式必須被變換為一個常規(guī)形式,從它的子句中可以機械地推斷出矛盾。但是,因為在謂詞邏輯中(不同于命題邏輯)一般不能判斷一個公式的普遍適用性,所以,有可能發(fā)生歸結(jié)過程無法結(jié)束的情況。計算機程序就這樣無限制地運行下去。因此,重要的是找到一些子類,其中的過程不僅有效而且能夠結(jié)束。機器智能提高并加速決定過程的效率,但機器智能像人類智能一樣受制于邏輯決定性的原則界限。
在邏輯學(xué)和數(shù)學(xué)中,公式(也是字符串)是一步步被推導(dǎo)出來的,直到完成一個命題的論證。計算機程序的運行歸根結(jié)底就像論證。程序根據(jù)確定的規(guī)則一步步推導(dǎo)出字符串,直到找到一個解決問題答案的形式表達。類似地,我們想象流水線上某個工件的組裝過程,相應(yīng)的計算機程序規(guī)定了預(yù)設(shè)的零件如何一步步地根據(jù)規(guī)則組裝成這個工件。一個顧客想從一個計算機科學(xué)研究者那里得到一個能解決這樣問題的程序,在一個非常復(fù)雜又不清晰的生產(chǎn)過程中,顧客一定想先得到這個程序能正確運行的證據(jù)??赡馨l(fā)生的錯誤是危險的,也可能帶來巨大的額外費用。計算機科學(xué)研究者依據(jù)一種軟件,這種軟件可以自動從問題的形式特征中提取出證據(jù)。就像被投入到“數(shù)據(jù)挖掘”中尋找數(shù)據(jù)或者數(shù)據(jù)相關(guān)性的軟件一樣,相應(yīng)的軟件也被投入到證據(jù)的自動尋找中。
這就產(chǎn)生了一個問題,軟件自動提取證據(jù)是否可靠。在一個準(zhǔn)確地預(yù)先確定的框架內(nèi),能夠?qū)σ源藶榛A(chǔ)的軟件進行可靠性論證,顧客就能確定這個計算機程序是否能夠正確工作以解決問題。這種“自動證明”不僅對現(xiàn)代軟件技術(shù)有巨大的影響,④還導(dǎo)致了深刻的哲學(xué)問題,即數(shù)學(xué)的思維可以被自動化到什么程度。⑤但是,這種軟件的正確性論證卻是由一個數(shù)學(xué)家進行的。如果我們想要使這種證明自動化,一個基本的認(rèn)識論的問題就產(chǎn)生了:這是否將我們引入一個回歸,它的終點是人類(必須是人類)?
人工智能研究的第一階段大約在20世紀(jì)50年代中期到60年代中期,仍被欣快的期待所刺激著。⑥人們應(yīng)用計算機來設(shè)計通用問題解決方法,但是實踐的結(jié)果令人非常失望。大約在20世紀(jì)70年代中期到80年代中期,以知識為基礎(chǔ)的專家系統(tǒng)進入人們視野,這是人工智能的第一次實際應(yīng)用。有限而明確的人類專家的專業(yè)知識,比如工程和醫(yī)學(xué)等領(lǐng)域的專業(yè)知識被寫進專家系統(tǒng),應(yīng)用到日常生活領(lǐng)域。⑦
以知識為基礎(chǔ)的專家系統(tǒng)作為一種人工智能程序,儲存相關(guān)領(lǐng)域的知識并根據(jù)這些知識自動進行推理,以便找出正確答案或者提供某些情形下的診斷。⑧專家系統(tǒng)與人類專家的不同之處在于,專家系統(tǒng)的知識被限制在專門的信息基礎(chǔ)里,沒有結(jié)構(gòu)化的、關(guān)于世界的常識性知識。要建造一個專家系統(tǒng),必須首先將專家的知識用規(guī)則表達出來,然后翻譯成程序語言,并用問題解決策略進行處理。
以上策略同樣適用于用計算機實現(xiàn)基于自然語言的交流。約瑟夫·魏澤鮑姆(Joseph Weizenbaum)設(shè)計的語言程序ELIZA就是一個例子。⑨ELIZA模擬人類專家中的女精神病醫(yī)師與病人聊天。該程序涉及一些規(guī)則,指揮一個“女精神病醫(yī)師”用怎樣的句子模板對病人的某些特定的句子模板做出反應(yīng),基本上是根據(jù)各種情況對規(guī)則進行識別和分類。最簡單的情況是確定兩個符號結(jié)構(gòu)的等價性,就像它們在符號編程語言LISP中被函數(shù)EQUAL確定一樣。如果常量和變量被包含在符號表達式中,則出現(xiàn)一些擴展。比如:
(xBC)
(ABy)
這兩個項相互匹配,因為變量x和原子A、變量y和原子C互相對應(yīng)。通過引入變量可以使一個模板的結(jié)構(gòu)通過模式比較被識別。
為此,可以在LISP編程語言中定義一個特殊的運算符MATCH。一個數(shù)據(jù)和一個結(jié)構(gòu)對應(yīng)的最簡單的情況是常量的相等性,比如列表AB和AB的相等性:
(MATCH‘(AB)‘(AB))=T
符號“‘”表示后面的列表不是函數(shù)定義,而是應(yīng)當(dāng)理解為符號的排列。
為了實現(xiàn)分類,可以使用各種各樣的生成符號,就像邏輯學(xué)或數(shù)論中的變量那樣。比如可以用符號“?”來引導(dǎo)出任何對象:
(MATCH‘(?B)‘(AB))=T
(MATCH‘(?B)‘((AB)B))=T
這個結(jié)構(gòu)將每一個包含兩個子列A和B的列表與其中的第二個列表B匹配。
生成符號“*”表示任意多個符號構(gòu)成的字符串(包括空串)。比如:
(MATCH‘(*B)‘(B))=T
(MATCH‘(*B)‘(ABCB))=T
這樣給出的結(jié)構(gòu)表示與所有在尾部包含B的列表相匹配。
以上結(jié)構(gòu)就可以說明ELIZA系統(tǒng)的本質(zhì)算法結(jié)構(gòu),它反映了“精神病醫(yī)師”的知識庫內(nèi)容。請看病人P和ELIZA(簡稱E)之間的對話:
P:MEN ARE ALL ALIKE.(男人們?nèi)家粯印?
E:IN WHAT WAY?(在哪些方面?)
P:THEY’RE ALWAYS BUGGING US ABOUT SOMETHING OR OTHER.(他們總找借口躲避我們。)
E:CAN YOU THINK OF A SPECIFIC EXAMPLE?(你能舉個例子嗎?)
P:WELL,MY BOYFRIEND MADE ME COME HERE.(好吧,我的男朋友要我到你這里來。)
E:YOUR BOYFRIEND MADE YOU COME HERE.(你的男朋友要你到我這里來。)
P:YES,I AM VERY SAD.(是的,我很傷心。)
E:YOU ARE VERY SAD.(你很傷心。)
P:SAD AND DEPRESSED.(傷心而沮喪。)
E:PLEASE GO ON.(請繼續(xù)。)
下列規(guī)則可以推導(dǎo)出ELIZA的回答,因為它們可以識別病人和ELIZA使用的某些特定的句子模式:
‘(((*AM*B)→(APPEND‘(YOU ARE)B))
((*ARE*)→‘(IN WHAT WAY))
((*ALWAYS*)→‘(CAN YOU THINK OF ASPECIFIC EXAMPLE))
((*MY*BME*C)→(APPEND‘(YOUR)(APPEND B(CONS‘YOU C))))
((*L)→‘(PLEASE GO ON)))
第二個規(guī)則規(guī)定:當(dāng)在句子中存在ARE這個關(guān)鍵詞,而在其左右的內(nèi)容為任意時,用“IN WHAT WAY”作為回答。在句子“MEN ARE ALL ALIKE”中,ARE前的*是“MEN”,ARE后的是“ALL ALIKE”。
第四個規(guī)則是:當(dāng)病人的句子中單詞MY和ME通過列表*B被分開,并以列表*C結(jié)束時,ELIZA的回答首先由YOU和C部分(CONS‘YOU C)構(gòu)成,然后使用B部分,最后是YOUR。
一段用戶與ELIZA之間的對話,與我們所舉的編程語言LISP中的句法符號列表沒什么不同。在語義學(xué)上要盡量使用與日常聊天習(xí)慣相符的結(jié)構(gòu)。
最后一個規(guī)則是典型的隨機響應(yīng),就像我們在日常聊天中經(jīng)常遇到的一樣:如果專家無法識別一個任意的符號列表(*L),他就說“請繼續(xù)(PLEASE GO ON)”。
自約瑟夫·魏澤鮑姆的ELIZA之后,以模式識別為基礎(chǔ)的文本比較方法被人們熟知?,F(xiàn)在的軟件將句子拆分成單獨的短語進行分析,迅速計算出對于提出的問題合適的答案模式或者在另一種語言中找出合適的翻譯。1993—2000年間由德國人工智能研究中心(DFKI)研發(fā)的VERBMOBIL就是一個高效的翻譯程序。
人類的語言處理過程包括不同的層次。技術(shù)也在這些層次上得到實現(xiàn)。在計算語言學(xué)中,這種處理方式被稱作管道模型,從聲音信息出發(fā)到文本形式,相應(yīng)的字母字符串被概括為單詞和句子。形態(tài)分析要得到單詞的詞根?;趩棠匪够Z法體系的語法學(xué)分析要得到句子的語法組成單元,比如主語、表語、賓語等。語義分析則關(guān)注句子的含義。最后,對話和話語分析則研究文本包含的問題與答案、目的、企圖、意圖等。高效的技術(shù)解決方案并不需要經(jīng)過這個管道模型的所有階段。當(dāng)今強大的計算能力以及機器學(xué)習(xí)和搜索算法可以用于各個層次的語言分析中。人類的語法分析過程通常與意識相關(guān),而這并非必要的。
IBM公司研制的WATSON系統(tǒng)是一個語義層面上的自動問答系統(tǒng)。它基于并行計算機的強大計算能力和維基(Wikipedia)網(wǎng)站所存儲的海量知識,綜合應(yīng)用了語言算法、專家系統(tǒng)、搜索算法、大數(shù)據(jù)處理等多種技術(shù)。與ELIZA不同,WATSON理解某些背景知識和語言的語義,能夠理解自然語言的提問,并快速在海量知識庫中找到相應(yīng)的知識和回答。WATSON一方面是IBM公司發(fā)明的認(rèn)知工具平臺,另一方面也意味著在經(jīng)濟和企業(yè)界的廣泛應(yīng)用可能。按照摩爾定律,WATSON的功能在可以預(yù)計的時期內(nèi)不再需要超級計算機了。一部智能手機上的一個App應(yīng)用就可以具備這樣的功能。不必通過鍵盤輸入來完成這樣的操作,而是通過智能語音程序就可以實現(xiàn)自然語言進行的對話。對話中所包含的人類情感也能夠被程序識別,就像魏澤鮑姆早就擔(dān)心的那樣。
2013年斯派克·瓊斯(Spike Jonze)攝制的美國科幻片《她》(her)描繪了一個內(nèi)向而害羞的男人愛上了一個語言程序。他的職業(yè)是給那些難以向別人解釋他們感受的人寫信。為了減輕工作負(fù)擔(dān),他得到了一個新的操作系統(tǒng),該系統(tǒng)配備了女性身份和愉快的聲音。使用頭戴式耳機和攝像頭,他與這個自稱為薩曼莎(Samantha)的系統(tǒng)交流。薩曼莎很快就學(xué)會了社交互動,并表現(xiàn)得越來越人性化。在頻繁而長期的對話中,親密的情感關(guān)系得以發(fā)展。
智能寫作程序(或稱“寫作機器人”)不僅被媒體和新聞業(yè)用于處理常規(guī)文本,比如商業(yè)新聞、體育報道或小報消息,同樣可以應(yīng)用在行政管理或法律領(lǐng)域的常規(guī)文本寫作中。我們也將體驗到在科研領(lǐng)域中使用智能寫作程序。在醫(yī)學(xué)、技術(shù)和自然科學(xué)領(lǐng)域?qū)I(yè)刊物上的論文出版量已經(jīng)變得如此巨大,以至于各個專業(yè)研究領(lǐng)域的專家都沒有時間詳細(xì)閱讀這些文章。研究結(jié)果必須以極快的速度出版才具有競爭力。完全可以想象,將來科學(xué)家只需要在某個論文結(jié)構(gòu)中輸入數(shù)據(jù)、參數(shù)和結(jié)果,智能系統(tǒng)就能按照其寫作風(fēng)格寫出一篇規(guī)范的論文。
寫作機器人在金融行業(yè)也應(yīng)用得越來越普遍??梢栽趲酌腌妰?nèi)生成多個原來靠人類專家才能完成的報告,比如公司簡介。可以提示客戶、基金經(jīng)理采用何種策略投資股票市場以及基金如何發(fā)展。保險公司使用智能寫作程序來衡量銷售業(yè)績并提出改進建議。自動創(chuàng)建的文本可以確認(rèn)客戶的投資策略是否能夠取得成功。自動編寫程序提供的支持還可以為客戶提供更多的個人建議。人力投資顧問并沒有被取代,但數(shù)字產(chǎn)品的發(fā)展速度與IT工具的指數(shù)增長一樣迅速。
生物體的自組織大腦則與可編程計算機不同。在演化進程中,網(wǎng)絡(luò)最開始以復(fù)雜基因及蛋白質(zhì)網(wǎng)絡(luò)中的亞細(xì)胞供應(yīng)、控制和信息系統(tǒng)的身份出現(xiàn)。基于神經(jīng)化學(xué)信號處理功能的神經(jīng)細(xì)胞的信息、控制和供應(yīng)系統(tǒng)不斷進化。螞蟻種群的發(fā)展就像人類大腦和人類社會的網(wǎng)絡(luò)物理系統(tǒng)一樣。
根據(jù)我們的工作定義,如果一個系統(tǒng)能夠獨立而有效地解決某種問題,那么這個系統(tǒng)就是智能的。傳統(tǒng)上我們把在進化過程中發(fā)展起來的自然系統(tǒng)和在技術(shù)上引入的技術(shù)(“人工”)系統(tǒng)區(qū)分開來。智能度取決于數(shù)學(xué)復(fù)雜性理論中可以測量的問題的復(fù)雜性。
自然進化中產(chǎn)生的有效解決問題的方法并沒有通過計算機模型中的符號方法進行表示。亞細(xì)胞、細(xì)胞和神經(jīng)元自組裝產(chǎn)生適當(dāng)?shù)膹?fù)雜網(wǎng)絡(luò)。神經(jīng)元由圖形網(wǎng)絡(luò)的節(jié)點表示,觸連接由圖形網(wǎng)絡(luò)的連線表示。神經(jīng)化學(xué)連接的強度由連接權(quán)重來表示。學(xué)習(xí)在神經(jīng)元的開關(guān)模式建構(gòu)過程中產(chǎn)生,受到神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)算法指導(dǎo)。強烈的突觸耦合產(chǎn)生了神經(jīng)元的開關(guān)模式,與一個生物體的大腦情感或者肢體動作狀態(tài)相適應(yīng)。這個過程也可以通過計算機模型來模擬,這種模擬基于神經(jīng)網(wǎng)絡(luò)、自動機與計算機之間的基本的數(shù)學(xué)等價性。已經(jīng)得到證明,一個McCulloch-Pitts網(wǎng)絡(luò)可以通過一個能夠終止的自動機模擬??山K止的自動機包括一些簡單的系統(tǒng),比如火車站的自動購票機,它能夠識別一些簡單的指令語言代碼。反過來,一個可終止的自動機的功能也可以由一個McCulloch-Pitts網(wǎng)絡(luò)來實現(xiàn)。數(shù)學(xué)上,這樣的網(wǎng)絡(luò)可以通過實數(shù)加權(quán)。也可以這樣說,一個由McCulloch-Pitts網(wǎng)絡(luò)類型的神經(jīng)網(wǎng)絡(luò)系統(tǒng)構(gòu)成的生物體,只能解決具有這種復(fù)雜性的問題,即能夠被一個可終止的自動機解決的問題。在這個意義上說,一個這樣的生物體的智能與一個可終止的自動機的智能是同等程度的。
不過哪些神經(jīng)網(wǎng)絡(luò)相當(dāng)于圖靈機,也就是相當(dāng)于根據(jù)丘奇(Church)論題可以編程控制的計算機呢?這些機器和神經(jīng)網(wǎng)絡(luò)可以識別哪些語言呢?這些語言涉及某些自然語言,它們可以通過喬姆斯基語法體系推導(dǎo)出來,也就是可以遞歸地建構(gòu)起來??梢宰C明,圖靈機依據(jù)這種語言識別功能能精確地模擬那些突觸權(quán)重為有理數(shù)且有反饋環(huán)的神經(jīng)網(wǎng)絡(luò)。反過來說,圖靈機可以被具有突觸權(quán)重為有理數(shù)的識別遞歸語言的神經(jīng)網(wǎng)絡(luò)精確地模擬出來。
如果我們把圖靈機作為程序控制計算機的原型,那么根據(jù)這個證明,一個具有有限的突觸強度的大腦可以被一個計算機模擬。相反,一個圖靈機(即一個計算機)的工作過程可以被一個具有有限的突觸強度大小的大腦追蹤。換句話說,這種大腦的智能度對應(yīng)于圖靈機的智能度。
這樣的神經(jīng)網(wǎng)絡(luò)原則上可以在適當(dāng)?shù)挠嬎銠C上模擬。事實上實際應(yīng)用(例如模式識別)的大部分神經(jīng)網(wǎng)絡(luò)仍然是在數(shù)字計算機(例如諾伊曼機器)上模擬實現(xiàn)的。只有神經(jīng)形態(tài)的計算機才能直接構(gòu)建神經(jīng)元網(wǎng)絡(luò)。
但是,如果神經(jīng)網(wǎng)絡(luò)的突觸權(quán)重不僅允許是有理數(shù)(即大小有限的數(shù)字,例如2.3715,其中小數(shù)點位數(shù)有限),而且還可以使用任意實數(shù)(即小數(shù)無限多的小數(shù)點,例如2.3715……這也是不可計算的)的話,將導(dǎo)致怎樣的結(jié)果呢?從技術(shù)上講,這樣的網(wǎng)絡(luò)不僅可以執(zhí)行數(shù)字計算,而且可以進行模擬計算。
在信號理論中,模擬信號被理解為具有連續(xù)且不間斷的過程的信號。在數(shù)學(xué)上,模擬信號被定義為無限可微分的連續(xù)的平滑函數(shù)。顯然,這樣一個函數(shù)的圖形沒有不可微分的拐角和斷點。因此一個模擬信號形式的物理量的時間連續(xù)過程可以被描述出來。模擬-數(shù)字轉(zhuǎn)換器將時間連續(xù)的輸入信號離散成單獨的離散樣本。
事實上,在一個自然的有機體中,許多過程可以被認(rèn)為是模擬的。因此,視覺信號處理可以通過觸發(fā)傳感器的連續(xù)電磁場來描述。聽覺的聲學(xué)也是基于穩(wěn)定的聲波的。觸覺上,皮膚傳感器也能提供穩(wěn)定連續(xù)而不是數(shù)字化的感覺。現(xiàn)在有人會爭辯說,在有限的物理世界中的測量值是有限的,因此原則上是可數(shù)字化的。然而對于人工智能具有非常重要意義的是模擬性的神經(jīng)網(wǎng)絡(luò)的理論結(jié)果。在數(shù)學(xué)上,如果擁有關(guān)于實數(shù)的數(shù)學(xué)理論,突觸權(quán)重為任意實數(shù)的模擬神經(jīng)網(wǎng)絡(luò)也可以被明確地定義出來。核心問題是模擬神經(jīng)網(wǎng)絡(luò)是否可以比具有有理數(shù)的神經(jīng)網(wǎng)絡(luò)且因此比圖靈機或數(shù)字計算機做得“更多”。這可能是人工智能辯論中的一個中心論點,也就是說,具有實數(shù)的數(shù)學(xué)比僅具有比特數(shù)的計算機科學(xué)可以做得“更多”。
自動機和機器的核心特征是對形式語言的認(rèn)識和理解。如果一個自動機經(jīng)過有限多的步驟之后進入一個可以接受的狀態(tài)并終止了,它就將一個讀入的單詞識別為某種形式的符號序列。自動機可以接受的語言僅包含可被它識別的詞匯??梢宰C明,有限狀態(tài)自動機正是可以識別規(guī)則語言的簡單符號序列。上下文無關(guān)語言使用的規(guī)則推導(dǎo)出的符號與背景符號無關(guān),它們被更強大的具有特殊存儲結(jié)構(gòu)的自動機識別。遞歸可枚舉語言非常復(fù)雜,只能被圖靈機識別。
具有有理數(shù)突觸權(quán)重的神經(jīng)網(wǎng)絡(luò)(以及圖靈機)也可以識別遞歸可枚舉的語言。這可以是生物體的自然神經(jīng)元系統(tǒng),也可以是符合具有有理數(shù)突觸權(quán)重的遞歸神經(jīng)網(wǎng)絡(luò)的規(guī)律的人造神經(jīng)形態(tài)計算機。現(xiàn)在可以證明:模擬的神經(jīng)網(wǎng)絡(luò)(具有實數(shù)的突觸權(quán)重)原則上可以在指數(shù)大小的時間內(nèi)識別不可計算的語言。通過將自然數(shù)和有理數(shù)的可計算性概念擴展到實數(shù)上,這種證明在數(shù)學(xué)上是可能的。可以用差分方程代替數(shù)字過程,也可以用差分方程來描述連續(xù)的實際過程。換句話說,所有類型的動態(tài)系統(tǒng),例如物理學(xué)中的流動、化學(xué)反應(yīng)和生物界的組織,原則上都可以用相應(yīng)的、擴展了的、具有實數(shù)的模擬系統(tǒng)來表示。
當(dāng)然模擬神經(jīng)網(wǎng)絡(luò)在多項式時間內(nèi)不能解決NP困難問題??梢宰C明,旅行商問題(TSP)也是關(guān)于實數(shù)的NP困難問題。另一方面,根據(jù)邏輯學(xué)家阿爾弗雷德·塔斯基(Alfred Tarski)的證明,任何在實數(shù)域上可以定義的數(shù)量是有確定性的。相反,在整數(shù)域上可定義的集合,是不可確定的。這是哥德爾的算術(shù)不完全性定理的一個結(jié)論。實數(shù)上的可計算性顯然在一定程度上比整數(shù)域上的數(shù)字可計算性“更簡單”。
無論如何,推廣到實數(shù)域的普遍性的(模擬性的)可計算性的優(yōu)點是,它比較客觀地概括了生物體、大腦和神經(jīng)形態(tài)計算機中的模擬過程。在這里可以清晰地觀察到與進化、數(shù)學(xué)和技術(shù)方法非常相近的一個等價說法,它依賴于丘奇推論的擴展性:不僅數(shù)字化上的有效過程可以被計算機模型表示出來,自然過程中模擬有效過程也可以。這是一個關(guān)于復(fù)雜動態(tài)性系統(tǒng)的統(tǒng)一理論的核心。計算機中帶有數(shù)字的符號代碼只是我們的一種信息處理方式,它代表了原子、分子、細(xì)胞和進化的過程。
可以這樣來區(qū)分可計算性的程度:一個非確定性圖靈機在計算過程中,除了使用通常的有效計算的基本操作外,還使用隨機決策。為此,我們借用圖靈定義的Ψ預(yù)言機擴展了圖靈機的概念:對于Ψ預(yù)言機而言,除了一個確定性的圖靈機的命令,一個操作Ψ也是可以的,例如給Ψ(x)的x賦值,盡管我們不知道它是否可以計算。這樣,這種計算就依賴于這個預(yù)言Ψ。大自然中的一個例子是DNA信息有效處理過程中的隨機變化。這就是相對可計算性:一個函數(shù)相對于Ψ是可計算的,如果它通過一個Ψ預(yù)言機是可計算的話。
相應(yīng)地,一個相對化版本的丘奇推論可以這樣來定義:所有相對于Ψ有效的過程可以被一個(通用)Ψ預(yù)言機來模擬。一個擴展的對于實數(shù)的模擬版本的丘奇推論也可以被定義。已經(jīng)證明了:一個模擬神經(jīng)網(wǎng)絡(luò)在多項式時間內(nèi)能夠識別一個合適的Ψ預(yù)言機在多項式時間內(nèi)能夠識別的語言。根據(jù)我們對人工智能的定義,一個具有相應(yīng)的模擬神經(jīng)元的神經(jīng)系統(tǒng)的自然有機體或者一個具有相應(yīng)技術(shù)的神經(jīng)系統(tǒng),和Ψ預(yù)言機一樣地智能。
人類的知識與意識聯(lián)系在一起。來自長期記憶的相應(yīng)數(shù)據(jù)和規(guī)則被放置到短期記憶中,可以被象征性地表示為:我知道我是個知道能夠或做了某事的人。原則上不能排除人工智能系統(tǒng)將來會有類似意識的能力。這樣的系統(tǒng)會創(chuàng)造出與人類截然不同的它們自身的體驗、經(jīng)歷和身份。所以,如果將人工智能研究僅僅局限在具有與人類相似的意識的人工智能系統(tǒng)上,將是進入了一個死胡同。
從2006年開始,隨著所謂“樹搜索”的蒙特卡洛算法的應(yīng)用,人工智能程序已經(jīng)成功地模擬了圍棋走法,但還沒有超過業(yè)余愛好者的水平。只有將下棋走法選擇的統(tǒng)計性的“樹搜索”與深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法(監(jiān)督和強化學(xué)習(xí))結(jié)合,人工智能程序才獲得了成功。2016年,谷歌公司的“阿爾法狗”(Alpha Go)軟件在圍棋比賽中擊敗了人類冠軍,人工智能取得了驚人的突破。谷歌公司的程序員也很驚訝于“阿爾法狗”根據(jù)下棋狀態(tài)學(xué)習(xí)的速度之快。
當(dāng)然,超級計算機消耗發(fā)電廠級別的能量,而人類大腦僅僅消耗白熾燈量級的能量。在進化過程中,更多的具有“較慢”突觸的神經(jīng)元分布在敏感的濕件(細(xì)胞組織+神經(jīng)化學(xué))上,導(dǎo)致聯(lián)網(wǎng)密度增加,在節(jié)能降耗的同時,提高了“自然智能”的性能。技術(shù)上,通過魯棒“硬件”(例如,硅+半導(dǎo)體技術(shù))提高處理速度和存儲容量以增加“人工智能”的性能,但是能量消耗較大。能耗較大的一個原因是計算機傳統(tǒng)的馮·諾依曼體系結(jié)構(gòu),其存儲器和處理器分開,數(shù)據(jù)必須在這些單元之間不斷交換。這種限制(“馮·諾依曼瓶頸”)需要耗費大量的時間和精力。與此相反,大腦是一個多態(tài)系統(tǒng),其中的蜂窩網(wǎng)絡(luò)既能存儲數(shù)據(jù),又可以處理數(shù)據(jù)。神經(jīng)形態(tài)計算機如果能將進化的、模擬的和數(shù)字的技術(shù)融合起來,就可以將計算機技術(shù)上的效率與進化優(yōu)勢(例如節(jié)能)結(jié)合起來。
具有適當(dāng)?shù)耐負(fù)浣Y(jié)構(gòu)和學(xué)習(xí)算法的人工神經(jīng)網(wǎng)絡(luò)的機器學(xué)習(xí)算法模擬大腦信息處理過程:神經(jīng)元(神經(jīng)細(xì)胞)通過傳播神經(jīng)化學(xué)信號的突觸相互連接,連接具有一定的強度,通過連接權(quán)重來表示。由于Hebb規(guī)則,當(dāng)來自相鄰區(qū)域的加權(quán)輸入的總和超過閾值時,神經(jīng)元激發(fā)動作電位。此外,神經(jīng)元排列成層狀,這對應(yīng)于人腦的皮層結(jié)構(gòu)。
在神經(jīng)元層面,學(xué)習(xí)意味著興奮的神經(jīng)元相互連接。在神經(jīng)心理學(xué)中,這種互聯(lián)模式與某些認(rèn)知狀態(tài)如感覺、想象、感情、思維和意識有關(guān)。在神經(jīng)網(wǎng)絡(luò)模型中,這些互聯(lián)過程由學(xué)習(xí)算法建模,該學(xué)習(xí)算法改變突觸的權(quán)重數(shù)值,因為它們表示互聯(lián)模式中突觸連接的各個神經(jīng)元的強度。
有不同類型的學(xué)習(xí)算法。在監(jiān)督學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)首先向一個原型學(xué)習(xí)。例如臉部像素的分布模式。顏色和色調(diào)的局部強度由相應(yīng)的突觸權(quán)重表示出來。一個神經(jīng)網(wǎng)絡(luò)可以通過訓(xùn)練來適當(dāng)調(diào)整權(quán)重。通過與訓(xùn)練好的原型比較,可以在各種臉部照片中識別出訓(xùn)練好的臉部照片。在非監(jiān)督學(xué)習(xí)中,神經(jīng)網(wǎng)絡(luò)能夠獨立地識別數(shù)據(jù)的相似性,以便相應(yīng)地對它們進行分類。所以,這種神經(jīng)網(wǎng)絡(luò)算法就可以識別一只貓的面孔,即使在沒有先學(xué)習(xí)了解過貓是什么的情況下。
在加強學(xué)習(xí)過程中,系統(tǒng)首先被賦予某項任務(wù),然后它應(yīng)該或多或少地獨立解決問題。例如,一個機器人要獨立尋找到一個給定目標(biāo)的路徑。在解決這個問題時,機器人在一定的時間間隔不斷地得到如何找到路徑或者解決問題的反饋。解決方案的策略是優(yōu)化這個反饋序列。
深度學(xué)習(xí)只是指神經(jīng)網(wǎng)絡(luò)的深度,它對應(yīng)于神經(jīng)層的數(shù)量。例如,一個面部識別的神經(jīng)網(wǎng)絡(luò)中,第一層區(qū)分彩色像素,第二層將端點和邊連接起來,第三層負(fù)責(zé)面部部分細(xì)節(jié),最后在第四層得到面部的信息。這種算法的數(shù)學(xué)模型在20世紀(jì)80年代就有了,但是最近幾年在技術(shù)上才可以實現(xiàn),因為需要強大的計算能力,譬如具有100萬個神經(jīng)元和10億個突觸的谷歌“大腦”。這種技術(shù)不能靠少量的神經(jīng)層來實現(xiàn)。神經(jīng)層數(shù)應(yīng)該根據(jù)可以使用的計算能力隨意增加,以提高系統(tǒng)的運算效率。
一個非常熱門的應(yīng)用實例是自行駛車輛:具有各種傳感器(例如距離、燈光、碰撞)和電機設(shè)備的簡單汽車已經(jīng)可以通過自組織神經(jīng)網(wǎng)絡(luò)產(chǎn)生復(fù)雜的行為。如果相鄰的傳感器在與外部物體發(fā)生碰撞時被激發(fā),就會激發(fā)一個相應(yīng)地與傳感器相連的神經(jīng)網(wǎng)絡(luò)的神經(jīng)元。這在神經(jīng)網(wǎng)絡(luò)中產(chǎn)生了一種代表外部對象的連接方式。原則上這個過程類似于生物體對外部物體的感知過程,但是后者更加復(fù)雜。
如果我們現(xiàn)在想象一下,這輛汽車配備了“記憶能力”(數(shù)據(jù)庫),它可以記住危險的碰撞以避免在未來碰到它們,那么,人們會想到汽車行業(yè)未來將如何建立具有自我學(xué)習(xí)能力的車輛。這些系統(tǒng)將與在某些條件下具有預(yù)先編程行為的傳統(tǒng)駕駛員輔助系統(tǒng)顯著不同。它將是一個神經(jīng)學(xué)習(xí)系統(tǒng),就像高度進化的生物體的學(xué)習(xí)功能一樣。
培訓(xùn)能夠自主學(xué)習(xí)行駛的車輛需要多少次的真實事故為代價?如果自動駕駛車輛發(fā)生事故,誰負(fù)責(zé)?其道德和法律的挑戰(zhàn)是什么?對于諸如具有數(shù)百萬的元素和數(shù)十億的突觸連接的神經(jīng)網(wǎng)絡(luò)的復(fù)雜系統(tǒng),盡管允許使用統(tǒng)計物理學(xué)的定律對整個系統(tǒng)的趨勢和收斂行為進行全局性的描述,但是每個元素的經(jīng)驗參數(shù)的數(shù)量可能如此之大,以至于無法確定局部原因。神經(jīng)網(wǎng)絡(luò)對我們來說仍然是一個“黑匣子”。從工程學(xué)的角度來看,奈特(Knight)關(guān)于機器學(xué)習(xí)的核心提到了一個“黑暗的秘密”:“即使設(shè)計基于機器學(xué)習(xí)系統(tǒng)的工程師,可能也很難將任何單一行為的原因分離出來?!?/p>
軟件工程中有兩種不同的方法是可以想象的:1.測試只顯示(隨機)發(fā)現(xiàn)的錯誤,但不是所有其他可能的錯誤。2.為了避免基本的錯誤,必須對神經(jīng)網(wǎng)絡(luò)進行正式的驗證。
自動定理證明的優(yōu)點是可以證明軟件作為數(shù)學(xué)定理的正確性。自動證明的重要性在人工智能誕生之時就已經(jīng)被認(rèn)可了,就像本文之初所介紹的。因此,我建議在機器學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)之上引入一個形式化的元層次,以自動完成形式化的正確性證明。例如,我們設(shè)想一種配備傳感器和作為其大腦的相應(yīng)神經(jīng)網(wǎng)絡(luò)的自行駛汽車,它的學(xué)習(xí)目標(biāo)是交通法所規(guī)定的汽車行為,比如于1968年在《維也納公約》中制定的《公路法》。在第一步,就像一架飛機那樣,這輛汽車配備了黑匣子,以便保存其行為數(shù)據(jù)。這個數(shù)據(jù)量應(yīng)該滿足《維也納公約》所規(guī)定的交通規(guī)則的要求。這種要求保障消除車輛的不當(dāng)行為。在元層次上,這個含義被形式化了,以便通過定理證明來實現(xiàn)自動化證明。
為此,首先必須從黑匣子的數(shù)據(jù)中提取車輛的運動路徑。統(tǒng)計學(xué)提供模型擬合的一種方法。對車輛軌跡的描述必須在下一個步驟以形式語言在元層次上表示出來。這種形式化的描述必須滿足《維也納公約》的相應(yīng)正式條款要求。這個要求的形式化證明是由定理證明器自動化實現(xiàn)的,并且可以憑借當(dāng)今的強大計算能力以閃電般的速度實現(xiàn)。
總之,用神經(jīng)網(wǎng)絡(luò)進行機器學(xué)習(xí)是有效的,但我們無法詳細(xì)理解和控制神經(jīng)網(wǎng)絡(luò)中的過程。機器學(xué)習(xí)技術(shù)類似于統(tǒng)計測試,但對于強調(diào)安全性的系統(tǒng)來說還是不夠的。因此,機器學(xué)習(xí)應(yīng)該與定理證明相結(jié)合,這是一種還未形式化的、基于邏輯的人工智能。正確的行為是由邏輯形式化中的形而上的方法保證的,這些方法是可以自動證明的。
在復(fù)雜的市場中,人們并不是按照“代表性經(jīng)紀(jì)人”(經(jīng)濟人)的公理決定的理性預(yù)期來行動的,而是根據(jù)不完整的知識、情緒和反應(yīng)來決策和行動。因此,美國諾貝爾獎獲得者赫伯特·西蒙(Herbert A.Simon)定義了有限理性。這意味著,面對復(fù)雜的數(shù)據(jù),我們應(yīng)該選擇比較滿意的解決方案,而不是尋求最完美的解決方案。
但是,處在有限理性和算法確定的信息條件下的決策是封閉的嗎?在1997年,IBM公司的超級計算機“深藍(lán)”(Deep Blue)擊敗了當(dāng)時國際象棋的衛(wèi)冕世界冠軍。2016年,谷歌公司推出了基于超級計算機的“阿爾法狗”軟件系統(tǒng)并擊敗了圍棋冠軍。然而,更令人感興趣的是在撲克大賽中擊敗人類冠軍的超級計算機上的軟件系統(tǒng)。不像棋類游戲,撲克是一個不完整的信息決策的例子。日常生活中的很多決策都屬于這種類型,例如商務(wù)談判、法律案例、軍事決策、醫(yī)療計劃和網(wǎng)絡(luò)安全等。相反,國際象棋和圍棋這樣的棋類游戲的決策是完整信息下的決策,其中每個玩家隨時都全面了解全局情況。
在撲克游戲中,人們會利用情緒和感受影響比賽,例如使用基于不完整信息的撲克牌花色來欺騙對手。人工智能專家也認(rèn)為,要讓機器能夠理解甚至產(chǎn)生人類情感還需要很多年的時間。但是,上面提到的撲克程序繞過了情緒問題,通過純粹而復(fù)雜的數(shù)學(xué)計算打敗了人類對手。
人工智能首先是一種想要有效解決問題的工程科學(xué),這一點很清楚,它并不是為人類智能建模、模擬,甚至取代人類智能。即使在過去,某些成功的工程解決方案也不是模仿大自然,如人們試圖飛翔,模仿鳥類扇動翅膀,他們就會墜落下來。只有當(dāng)工程師掌握了空氣動力學(xué)的基本定律時,他們才能提出解決方案,以便能將沉重的飛機移動到云層之上的高度,而這些解決方案在自然界并沒有發(fā)現(xiàn)。與人工智能不同的是大腦研究和神經(jīng)醫(yī)學(xué),它們想要為人類有機體建模,理解人類有機體,比如人類在自然中是怎樣進化發(fā)展的。
圖形上,可以通過一個“博弈樹”來表示一個游戲。一個游戲的情況對應(yīng)于一個分支節(jié)點,從這些節(jié)點出發(fā),根據(jù)規(guī)則不斷發(fā)展游戲,這些游戲進程由“博弈樹”中相應(yīng)的分支來表示。這些樹枝在某些節(jié)點(游戲情境)停止,新的分支(游戲進程)又出現(xiàn)了。這就是復(fù)雜“博弈樹”的產(chǎn)生方式。
人工智能程序在處理游戲的時候,會通過一個有效的過程在“博弈樹”中找到之前走法的不足之處,并試圖在隨后的游戲中避免它們。超級計算機的巨大運算能力可以實現(xiàn)百萬次之多的自身博弈。但是撲克游戲所需要的自身博弈次數(shù)多達10126之量級,即使是目前速度最快的超級計算機也無法在一個可以期待的時間內(nèi)完成?,F(xiàn)在就要使用數(shù)學(xué)知識了:用數(shù)學(xué)概率定理和博弈論可以證明,在某些情形下,后面的走法根本就沒有成功的可能。因此,這些情形可以被忽略,以減少計算時間。
在這樣的背景下,Pokerlibratus程序使用兩種不同的算法:反事實的遺憾最小化(Counterfactual Regret Minimation,簡稱CFR)是信息不完全的、解決零和博弈的一個迭代算法;遺憾的修剪法(Regret-Based Pruning,簡稱RBP)則是進一步的發(fā)展,允許修剪掉在“博弈樹”中不太成功的分支,以便加快CFR算法。在零和博弈中,RBP切斷了所有不是一個“納什均衡”最好響應(yīng)的行動。一個“納什均衡”是一種游戲狀態(tài),此時沒有一個玩家可以通過單方面的策略來改善自己的表現(xiàn)。
人們在信息不完整的博弈中試圖找到“納什均衡”。在少于約108個可能的游戲情形(游戲樹中的節(jié)點)的2人零和博弈中,可以通過線性算法(計算機程序)精確地找到“納什均衡”。對于較大的游戲,可以使用迭代算法(例如CFR)收斂于作為極限值的“納什均衡”。
在每場比賽之后,CFR會計算“博弈樹”中每個決策點行動的“遺憾值”,從而最大限度地減少遺憾,改善游戲策略;“反事實”意味著“怎樣才可以做得更好”,如果行動會帶著負(fù)面的遺憾值,RBP會跳過一定的迭代次數(shù),直到隨后CFR的“遺憾值”變?yōu)檎?。只要修剪完成,跳過的迭代就會在一次迭代中完成。這減少了機器使用的計算時間和存儲空間。
智能產(chǎn)生在與周邊環(huán)境的相互作用中。從石器時代到現(xiàn)在,人類大腦從生理學(xué)上說幾乎沒有改變。通過在目前技術(shù)社會中的互動可能性,我們才能成為21世紀(jì)的人類。與此同時,全球化的知識社會本身也變成了一個復(fù)雜的智能系統(tǒng),這個智能系統(tǒng)整合了各種或多或少的智能功能,具有獨立意識的每個人成為這個系統(tǒng)的一個組成元素。賽博物理系統(tǒng)旨在實施人工智能系統(tǒng)中的社交和情境知識,以改善對人類的服務(wù)功能。因此,它們是具有分布式人工智能的數(shù)字物理系統(tǒng),而不是孤立的個人機器人或計算機具有的人工智能。與具有數(shù)十億相互作用的細(xì)胞、器官、傳感器和神經(jīng)系統(tǒng)的生物體相似,社會體系可以被理解為具有經(jīng)濟代謝周期和體外信息系統(tǒng)的超級生物體。
原則上,這個程序也可以轉(zhuǎn)移到其他應(yīng)用領(lǐng)域,因此不僅僅是某個領(lǐng)域的專家系統(tǒng)。自適應(yīng)算法已經(jīng)以指數(shù)級增長的計算能力來控制網(wǎng)絡(luò)世界的進程。沒有它們,互聯(lián)網(wǎng)上由數(shù)十億傳感器和聯(lián)網(wǎng)設(shè)備產(chǎn)生的海量數(shù)據(jù)將無法管理。傳感器使得現(xiàn)在的所有東西都可以彼此通信,而不僅僅是人。這就是我們談?wù)撐锫?lián)網(wǎng)(Internet of Things,簡稱IoT)的原因。
工業(yè)4.0將物聯(lián)網(wǎng)應(yīng)用于工業(yè)和其他專業(yè)領(lǐng)域。工業(yè)4.0與歷史上工業(yè)化的前3個階段截然不同。工業(yè)1.0是19世紀(jì)蒸汽機的時代。在20世紀(jì)初,工業(yè)2.0是由亨利·福特裝配線的產(chǎn)生而引入的;流水線不過是工作流程的算法化,通過分工,人們按照固定的程序一步步地生產(chǎn)出工業(yè)產(chǎn)品。在工業(yè)3.0中,工業(yè)機器人進入了生產(chǎn)過程,并且自20世紀(jì)末以來一直支配生產(chǎn)線上的工作。但是,這些工業(yè)機器人是固定的,并且一次又一次地為同一個特定的子任務(wù)執(zhí)行相同的程序。在工業(yè)4.0中,人工智能和機器學(xué)習(xí)融入了工作流程。操作人員通過網(wǎng)絡(luò)設(shè)備同智能設(shè)備相互通信,以靈活組織工作流程。根據(jù)客戶的要求,可以在需要的時間內(nèi)單獨定制產(chǎn)品。技術(shù)、生產(chǎn)和市場合并成一個社會技術(shù)系統(tǒng),靈活自動地適應(yīng)不斷變化的外部環(huán)境。
經(jīng)濟數(shù)據(jù)可被視為價值鏈組成部分的產(chǎn)品。數(shù)據(jù)不像食物一樣被消費,但是像原材料一樣,可以通過不同的方式進行轉(zhuǎn)化、合并和回收,從而一次又一次地連接新的商業(yè)模式。例如,一億輛車輛的實時位置數(shù)據(jù)可以通過不同方式被利用起來:車輛類型、出租車公司數(shù)據(jù)、天氣數(shù)據(jù)和交通歷史經(jīng)驗加起來,可以優(yōu)化一個區(qū)域的車輛流動模型。也可以利用同樣的數(shù)據(jù),根據(jù)不同時間的交通負(fù)荷對相關(guān)經(jīng)濟狀況和勞動力市場進行判斷。還可以將數(shù)據(jù)與自動ABS信號結(jié)合起來,以確定一個地區(qū)最安全的道路。
大數(shù)據(jù)不僅在經(jīng)濟上有利可圖,而且在政府和行政管理方面也有優(yōu)勢。通過對大規(guī)模結(jié)構(gòu)化和非結(jié)構(gòu)化管理數(shù)據(jù)進行有針對性的評估,可以做出更好的管理決策,并指導(dǎo)公民行為。例如,通過對經(jīng)濟、氣候變化、人口統(tǒng)計、城市規(guī)劃和交通規(guī)劃的預(yù)測可以促進經(jīng)濟發(fā)展。同樣,網(wǎng)絡(luò)輿情分析可以成為某些基礎(chǔ)設(shè)施缺陷的預(yù)警系統(tǒng)(如大型技術(shù)項目的規(guī)劃審批程序)。
計算能力的指數(shù)級增長加速了社會的算法化。智能算法將逐漸取代機構(gòu)并創(chuàng)建分散的服務(wù)和供應(yīng)結(jié)構(gòu)。區(qū)塊鏈數(shù)據(jù)庫技術(shù)展現(xiàn)了這個新數(shù)字世界的入門級場景。它類似一種分散的記賬系統(tǒng),銀行將經(jīng)紀(jì)人之間的金錢交易用算法代替。這種分權(quán)措施是在2008年全球金融危機后發(fā)明的,這次金融危機主要是由國家和國際中央銀行的人為錯誤造成的。
區(qū)塊鏈可以被視為一個持續(xù)分散記錄的賬本。賬本不是集中存儲的,而是分散在所涉及成員的每臺計算機上。在每個“頁面”(塊)中,參與者和安全代碼之間的交易都會被記錄下來,直到完整并且新頁面出現(xiàn)為止。技術(shù)上說它是一個使用加密技術(shù)連接的可擴展塊的列表。每個塊包含前一個塊的加密安全的“哈?!?、時間戳和事務(wù)數(shù)據(jù)。哈希是一個關(guān)于前一個塊的信息的、由復(fù)雜的數(shù)字和字母組成的加密代碼。
新塊由共識方法生成(例如,工作證明算法)。通過區(qū)塊鏈這個記賬系統(tǒng),數(shù)字商品或資產(chǎn)(貨幣、合同等)可以根據(jù)需要進行隨意復(fù)制:“一切都是復(fù)制!”這就是“價值互聯(lián)網(wǎng)”(Internet of Value,簡稱IoV)。所有以前的交易都在每個塊中再次編碼。由于區(qū)塊鏈中數(shù)據(jù)的積累,單方面的變化將立即被識別。任何相關(guān)參與者都會識別其區(qū)塊鏈副本中的更改,因為相關(guān)的連接區(qū)塊都必須“解包”。除此之外,整個網(wǎng)絡(luò)在“挖礦”過程中的計算能力需要很高,這樣才能使區(qū)塊鏈具有強大的防偽功能。參與者的網(wǎng)絡(luò)越大,哈希表計算就越復(fù)雜。隨著區(qū)塊鏈的增加,哈希的復(fù)雜性也在增加。
分散式加密貨幣按照以下步驟工作:
1.新交易已簽署并發(fā)送給參與者的所有節(jié)點。
2.每個節(jié)點(參與者)在一個塊中收集新的交易。
3.每個節(jié)點(參與者)搜索所謂的隨機值(nonce),它驗證它的塊。
4.節(jié)點(參與者)發(fā)現(xiàn)一個有效的塊時,它將塊發(fā)送給所有其他節(jié)點(參與者)。
5.節(jié)點(參與者)只有當(dāng)下列規(guī)則有效時才接受該塊:
(1)塊的哈希值必須與當(dāng)前難度級別匹配。
(2)所有交易必須正確簽署。
(3)交易必須相應(yīng)地覆蓋前面的塊(無重復(fù)問題)。
(4)新的問題和交易費用必須符合公認(rèn)的規(guī)則。
6.節(jié)點(參與者)通過將其哈希值放入其新塊中來表示它接受該塊。
創(chuàng)建一個新的有效塊(挖掘)對應(yīng)于解決加密任務(wù)(工作證明)。在網(wǎng)絡(luò)中,任務(wù)的難度是以平均每十分鐘生成一個新塊的方式來調(diào)節(jié)的。成功開采的概率與所使用的計算能力成正比。為此,挖掘的難度必須不斷地適應(yīng)網(wǎng)絡(luò)的當(dāng)前計算能力。工作證明算法遵循以下步驟(這里使用的閾值與采礦難度成反比):
1.初始化塊,將根哈希作為交易計算。
2.計算哈希值:H=SHA256(SHA256(塊頭))。
3.如果h≥閾值,更改塊標(biāo)頭并返回步驟2;否則(h<閾值),找到有效塊,停止計算和發(fā)布塊。
新塊中包含的交易最初只由創(chuàng)建塊的參與者確認(rèn)。這只會給其有限的信譽。如果該塊被其他參與者接受為有效,則它們將在其新的塊中創(chuàng)建其哈希值。如果大多數(shù)參與者認(rèn)為這個塊有效,那么這個鏈將以最快的速度從這個塊繼續(xù)增長。如果不認(rèn)為它是有效的,鏈將從目前為止的最后一塊開始增長。這些塊演變成了一棵“樹”。
只有從第一個塊(根)開始的樹中生長的最長的鏈才被認(rèn)為是有效的。因此,這種形式的記賬自動構(gòu)成了大多數(shù)人認(rèn)為有效的那些塊。第一個密碼貨幣開始被稱為創(chuàng)世紀(jì)塊,它是唯一不包含前一個哈希值的塊。
參與者在比特幣軟件幫助下管理所有交易記錄的分布式數(shù)據(jù)庫(區(qū)塊鏈),這是比特幣網(wǎng)絡(luò)的基礎(chǔ)??尚诺牡谌胶蜋C構(gòu)(如銀行、國家貨幣管理機構(gòu)、中央銀行)被需要大量計算和防偽的算法代替(如工作證明算法)。比特幣所有權(quán)的證明可以存儲在個人數(shù)字錢包中。比特幣轉(zhuǎn)換成其他支付方式的比率是由供求決定的。這可能引發(fā)投機性泡沫,目前這仍然是比特幣能否被普遍接受需要解決的一個問題。
與這些“兒童病癥”無關(guān),從長期來看,區(qū)塊鏈在較長時期內(nèi)將進入技術(shù)分散的數(shù)字世界中,其中作為客戶和公民的民眾不通過中介機構(gòu)來直接實現(xiàn)相互的交易和交流。這項技術(shù)的前景絕不僅限于銀行和貨幣交易。未來的發(fā)展也是可以想象的,其他服務(wù)設(shè)施和國家機構(gòu)將被智能算法取代。乍看之下這是非常草根的民主,更嚴(yán)密地分析可以看出這根本就不是民主的。民主的基本思想是,每個人不論其地位和來源如何,只有一票:一人一票!但是比特幣的影響力取決于用戶能夠成功地實現(xiàn)一個新塊的計算能力:可用的計算能力越大,用戶就可以解決必要的加密任務(wù),從而保證安全性(工作證明)的概率和可信度越大。
隨著區(qū)塊鏈的增長,這些任務(wù)變得越來越復(fù)雜,需要消耗越來越多的計算密集能力。計算強度意味著能源密集型。今天,人們很少考慮到計算密集型算法要消耗大量能源這一事實。2017年11月,比特幣的計算網(wǎng)絡(luò)消費在每個小時消耗的電力,與丹麥整個國家的消耗相當(dāng)。因此,擁有廉價能源和能夠為以高溫狀態(tài)運行的超級計算機降溫的國家可以生產(chǎn)出最多的比特幣(如中國)。除非采取對策和改進措施,這種計算只會增加能源問題以及相應(yīng)的環(huán)境問題。數(shù)字化的發(fā)展取決于更好的基礎(chǔ)設(shè)施的整體平衡、較少的能源消耗和更好的環(huán)境。
人工智能研究自誕生之日起就與人類未來的偉大愿景聯(lián)系在一起。人工智能能代替人嗎?有些人已經(jīng)在談?wù)摷磳⒌絹淼摹俺恕?,引發(fā)了人們的憂慮和希望。另一方面,這種貢獻要求人工智能必須證明自己能夠服務(wù)社會。筆者從大學(xué)時期以來就一直著迷于使人工智能成為可能的算法。但我們必須知道人工智能的基本知識,能夠評估其功能和局限性。令人驚訝的是,我所秉持的基本哲學(xué)觀點還是如此,即最快的超級計算機也不會改變?nèi)祟愔悄芩茏C明的邏輯數(shù)學(xué)基礎(chǔ)。只有基于這方面的知識,才能評估其社會效果。我們應(yīng)該抓住人類智能的這個機會!
(北京大學(xué)教育學(xué)院 賈積有 譯校)
注釋:
①Turing, Alan M. (1950): Computing machinery and intelligence. In: Mind 49. S. 433-460.
②Mainzer, Klaus (2016b): Information: Algorithmus -Wahrscheinlichkeit -Komplexit?t -Quantenwelt -Leben -Gehirn -Gesellschaft. Berlin: Berlin University Press,p.3.
③Robinson, J.A. (1965): A machine oriented logic based on the resolution principle. In: Journal of the Association for Computing Machinery 12: 23-41.
④Schwichtenberg, H. (2006): Minlog. In: F. Wiedijk (ed.): The Seventeen Provers of the World. Lecture Notes in Artificial Intelligence vol. 3600. Springer: Berlin:151-157.
⑤Mainzer, Klaus (2018): The Digital and the Real World. Computational Foundations of Mathematics, Science, Technology, and Philosophy. World Scientific Publisher: Singapore.
⑥G?rz, Günther; Schneeberger, Josef (Hrsg.) (2003): Handbuch der Künstlichen Intelligenz. München: Oldenbourg 4. Aufl.Mainzer, Klaus (2003): KI -Künstliche Intelligenz. Grundlagen intelligenter Systeme. Darmstadt: Wissenschaftliche Buchgesellschaft.
⑦Boersch, Ingo; Heinsohn, Jochen; Socher, Rolf (2007): Wissensverarbeitung. Eine Einführung in die Künstliche Intelligenz für Informatiker und Ingenieure. Heidelberg: Springer 2. Aufl.
⑧Mainzer, Klaus (1994): Computer -Neue Flügel des Geistes? Die Evolution computergestützter Technik, Wissenschaft, Kultur und Philosophie. Berlin, New York: De Gruyter,pp.150-185.Puppe, Frank (1988): Einführung in Expertensysteme. Berlin: Springer.
⑨Weizenbaum, Joseph (1965): ELIZA -A computer program for the study of natural language communication between man and machine. In: Communications of the Association for Computing Machinery 9: 36-45.