王天恩
(上海大學 社會科學學部, 上海 200444)
在人類歷史上,從來沒有像人工智能的發(fā)展那樣,于心靈深處“驚動”那么多領(lǐng)域的思想家。人工智能的思想激蕩,注定要成為人類歷史長河最驚心動魄的波瀾。人類進化一直是一個不斷創(chuàng)造工具,延伸自身能力,以不斷深化人類與外部世界及自身交道的過程,而當涉及人工智能,人類和自己的創(chuàng)造物之間關(guān)系的發(fā)展形勢卻在發(fā)生根本性的逆轉(zhuǎn)。作為手段的工具逐漸接近人類能力,日益顯露出與人類平起平坐,甚至超越人類,成為超級智能存在的前景。人類第一次真正面對存在性風險,而且這種存在性風險源自人類自身。作為可以對整個人類的存在構(gòu)成威脅的風險,人工智能存在性風險的應對似乎不應當是倫理的,但作為根源于人類自身的存在性風險,更高層次的倫理應對事實上涉及根本。
關(guān)于人類的“存在性風險”(Existential Risk),已經(jīng)是很多文獻普遍使用的概念,劍橋大學早就成立了“存在性風險研究中心”(Centre for the Study of Existential RiskCSER)。盡管現(xiàn)在看來,自然疾病大流行和地球災難等的可能性也被視為存在性風險,但人工智能所可能帶來的風險才是真正意義上的存在性風險。關(guān)于人工智能發(fā)展的存在性風險,人們早有意識,但“即使在10年左右以前,這種風險意識還不強”(1)Bruce Tonn and Dorian Stiefel,“Evaluating Methods for Estimating Existential Risks”,Risk Analysis,Vol.33,No.10,2013.。首先系統(tǒng)關(guān)注并討論人工智能可能具有毀滅人類風險的是牛津大學“人類未來研究院”(Future of Humanity InstituteFHI)院長波斯特洛姆(Nick Bostrom)。早在上個世紀之交,他就明確闡明這是全球性的、終結(jié)性風險的范疇,因而將其稱之為“存在性風險”。他認為,存在性風險具有一系列特征,使得通常的風險管理失效,因此有必要將其確定為一個特殊類別。這些特征包括存在性災難造成極端嚴重程度的危害,試錯方法無效,進化的生物和文化應對方法缺乏,所有子孫后代為共同利益攸關(guān)方,主題必定是高度思辨和多學科的,等。鑒于存在性風險不同于可承受全球風險,波斯特洛姆得到一個初步定義:存在性風險是一種有害結(jié)果將毀滅地球上起源的智能生命,或者永久地、徹底地大幅縮減其潛能的風險(2)Nick Bostrom,“Existential Risks:Analyzing Human Extinction Scenarios and Related Hazards”,Journal of Evolution and Technology,Vol.9,No.1,2002.。最近他進一步闡明了存在性風險的概念,并提出了一種改進的分類方案,認為“存在性風險是威脅整個人類未來的風險”(3)Nick Bostrom,“Existential Risk Prevention as Global Priority”,Global Policy,Vol.4,No.1,2013.。關(guān)于人工智能的存在性風險,目前為止波斯特洛姆的研究最具代表性。
從倫理學視角審視,人工智能的發(fā)展及其帶來的影響與人的關(guān)系,可以從通用人工智能的發(fā)展和專用人工智能應用兩個方面探索。本文討論的是前一種情況,所針對的是人工智能的發(fā)展可能對整個人類的存在構(gòu)成毀滅性威脅的風險。人工智能的存在性風險是由人類自身的創(chuàng)造物構(gòu)成的,標志著人類在通過制造工具創(chuàng)造自身的過程中,使自身存在受到毀滅性威脅的存在性風險,這正是人工智能存在性風險與其他存在性風險根本不同之處。
在一開始,人類依然習慣性地像對待工具那樣對待人工智能,希望通過植入人類的道德原則,保證人工智能作為人類工具的安全性。自從阿西莫夫1942年在其科幻小說中提出著名的機器人三原則,人工智能發(fā)展風險倫理應對的研究,隨著人工智能本身的發(fā)展而不斷深化。由于主要著眼于在設(shè)計上限制人工智能的發(fā)展,隨著新一代人工智能的到來,人工智能存在性風險有效應對的可能性似乎變得越來越小。現(xiàn)在看來,阿西莫夫的機器人三原則的“安全系數(shù)”的確可疑,但在人工智能及關(guān)于其與人類關(guān)系的認識不斷發(fā)展的形勢下,人類在這方面的努力始終沒有放棄。
“機器倫理學”就試圖以機器倫理來限制智能系統(tǒng)的行為,以確保這些系統(tǒng)的發(fā)展產(chǎn)生積極的社會后果,因此在更深層次涉及智能機器的道德內(nèi)置。在人工智能倫理規(guī)制研究中,美國機器智能研究院(MIRI)人工智能專家尤德科斯基(Eliezer Yudkowsky)不僅在理論上,而且在實踐中探索如何將道德原則內(nèi)置于人工智能。他曾成立人工智能奇點研究院(SIAI),旨在發(fā)展“友好型人工智能”。友好型人工智能,意味著不是簡單地給人工智能植入人類規(guī)則。人類必須明白,對待發(fā)展快速且具有不可預期性的人工智能,必須像對待自己一樣。實際上,面對人工智能,在投射的意義上就是在面對人類自己。因為人類進化事實上就是信息體的進化,人實質(zhì)上就是與人工智能一樣的智能體存在。
人工智能發(fā)展到一定階段,人們似乎注定會困于兩個極端之間,要么面對存在性風險,要么犧牲人工智能的高層次發(fā)展。而人工智能的人類道德原則內(nèi)置,正是試圖超越這種困境。尤德科夫斯基提出,我們給種子人工智能設(shè)定的最終目標應該是實現(xiàn)人類的“一致推斷意愿”(coherent extrapolated volition,CEV)。“一致推斷意愿是我們的這樣一種愿望:如果自己知道更多,思考更快,更是自己期望成為的人,便更會共同成長;這樣,推斷便更趨一致而非分歧,我們的愿望相互一致而非彼此沖突;依照我們所愿去推斷,依照我們所愿去解釋”(5)Eliezer Yudkowsky,“Coherent Extrapolated Volition”,http:intelligence.orgfilesCEV.pdf.。這就涉及人類智能和人工智能的更深層次關(guān)聯(lián),從而涉及更廣闊的視野。
其實,在這一更廣闊視野中,甚至間接規(guī)范也可以不用我們做出,人類的任務(wù)是盡可能開放地把握超級智能的可能發(fā)展,從而明確自己應當怎樣做。不建立在此基礎(chǔ)上,任何超越人類自身能力的愿望都是沒有意義的,包括所謂“一致推斷意愿”。況且,道德規(guī)則是歷史的概念,任何道德原則都只有在特定具體條件下才有意義。因此,必須用發(fā)展的眼光看待道德原則?!叭绻覀円?guī)定一套具體的、不可移易的道德準則,用以指導人工智能,那么我們實際上就將我們現(xiàn)有的道德信念(包括其中的錯誤)固定死了,排除了任何道德發(fā)展的希望”(6)尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,第269頁。譯文稍有改動,參見Nick Bostrom,Superintelligence:Paths,Dangers,Strategies,Oxford:Oxford University Press,2013,p.214。。這本身就表明,任何試圖脫離所處的特定具體條件,為未來超級智能設(shè)置道德原則的做法,都缺乏對道德原則性質(zhì)本身的深入理解。
為人工智能設(shè)置愛護人類的道德程序時,考慮的層次越低,作用越有限。甚至在已具有學科性質(zhì)的“機器倫理學”中,也可以看到其固有的局限性。對于這種局限性,通過對機器倫理學發(fā)展前景的批判性分析,牛津大學人類未來研究院的人工智能政策專家邁爾斯·布倫達格(Miles Brundage)有深刻認識:“雖然機器倫理學在某些情況下存在增進道德行為的可能,但是,由于倫理學的性質(zhì)、計算信息體的計算限制和世界的復雜性,這一點并不能確保。此外,即使在技術(shù)層面得到‘解決’,機器道德也不足以確保智能系統(tǒng)產(chǎn)生積極的社會結(jié)果。”(7)Miles Brundage,“Limitations and Risks of Machine Ethics”,Journal of Experimental & Theoretical Artificial Intelligence,Vol.26,No.3,2014.當我們討論機器道德,所面臨的是前所未遇的特殊性??屏帧ぐ瑐?Colin Allen)等通過對倫理爭論的考察,考慮了“道德圖靈測驗”(Moral Turing Test)的可能性,他們認為,發(fā)展人工道德智能體的理論挑戰(zhàn),既有倫理學家對道德理論本身的爭論,也有對這些理論實施的計算限制。類人表現(xiàn)往往包括不道德的行為,這在機器中也許是不可接受的,但是道德的完美在計算上可能無法實現(xiàn)。具有足以評估自己行為對眾生的影響并采取相應行動的智能機器的發(fā)展,最終可能是人工智能自動機設(shè)計者面臨的最重要任務(wù)(8)Colin Allen,Gary Varner and Jason Zinser,“Prolegomena to Any Future Artificial Moral Agent”,Journal of Experimental & Theoretical Artificial Intelligence,Vol.12,No.3,2000.。道德原則內(nèi)置不僅具有局限性,而且本身隱含著風險。關(guān)于機器倫理學局限和風險的批判性研究表明,要超越道德內(nèi)置的局限和規(guī)避本身的風險,只給人工智能內(nèi)置傳統(tǒng)意義上的道德原則,存在帶有根本性的問題。正是由此,人們意識到必須將道德原則與更剛性的措施相結(jié)合。在承認人工智能道德原則內(nèi)置局限性的基礎(chǔ)上,出現(xiàn)了一種柔性規(guī)則與剛性規(guī)律相結(jié)合的重要努力。這種努力表明,沒有與規(guī)律性的內(nèi)在關(guān)聯(lián),人工智能的道德原則內(nèi)置不足以應對其所帶來的存在性風險。
在人工智能存在性風險的應對中,可以看作是道德原則規(guī)律性關(guān)聯(lián)的策略性嘗試之一,就是從單純通過道德原則內(nèi)置,到結(jié)合強制性遏制手段,以確保人工智能不構(gòu)成對人類的存在威脅。正是沿著這一思路,趙汀陽考慮到一種阻止人工智能發(fā)展越過圖靈奇點后傷害人類的最極端方式,即設(shè)置“哥德爾程序炸彈”。他深刻地看到,對于超圖靈機水平的超級人工智能來說,道德程序恐怕并不可靠。他認為更可靠的辦法是設(shè)置“哥德爾程序炸彈”,它具有類似于哥德爾反思結(jié)構(gòu)的自毀程序,因此,即使人工智能具有了哥德爾水平的反思能力,也無法解決哥德爾自毀程序(9)趙汀陽:《人工智能“革命”的“近憂”和“遠慮”——一種倫理學和存在論的分析》,《哲學動態(tài)》2018年第4期。。這是目前為止為防止人工智能的發(fā)展傷及人類自身,最充分展示人類智慧的策略之一,正像哥德爾不完全性定理,似乎已經(jīng)達到人類理性的邊界。但這一策略的問題在于,如果不能斷絕人類在這方面的好奇心,超越圖靈奇點的人工智能遲早會出現(xiàn),而我們不可能知道在超越人類智能的超級智能那里,“哥德爾程序炸彈”會被怎樣處理。也就是說,人類具體條件下的問題,在超級智能具體條件下會不會是同樣的性質(zhì)?鑒于人工智能超越人類智能后可能性空間的開放性,答案只能是否定的。正因如此,人工智能存在性風險的應對,走向限制人工智能發(fā)展就完全可以理解。
限制人工智能的發(fā)展,只發(fā)展專用人工智能,不讓人工智能發(fā)展越過圖靈奇點,使人工智能永遠只能是人類的工具,意味著不讓人工智能發(fā)展到構(gòu)成存在性風險的水平,這無疑是一種消極應對。這種消極應對事實上是將問題往后推,不僅有一系列消極后果,而且會引出進一步的問題。一方面,怎么限制甚至能不能限制人工智能的發(fā)展,這本身又是一個涉及倫理的更嚴峻問題;另一方面,限制人工智能的發(fā)展,對人類發(fā)展意味著什么,這又涉及一系列同樣甚至更重大的倫理問題。只是這些問題不再屬于人工智能存在性風險討論的范圍。
人工智能道德原則內(nèi)置的研究,始終存在問題,由此人們意識到,所有嵌入式的人工智能人類原則內(nèi)置,都存在具有根本性的問題,必須從作為道德原則的價值觀形成基礎(chǔ)入手,進一步深入探究。
阿莫西林通過與細菌青霉素結(jié)合蛋白(PBPs)結(jié)合,抑制細菌細胞壁合成而發(fā)揮殺菌作用,可使細菌迅速成為球狀體而溶解、破裂。
關(guān)于人工智能的人類原則內(nèi)置,相對比較開放的研究領(lǐng)域是人工智能的價值觀加載。在目前的人工智能研究中,價值觀加載是一個至關(guān)重要同時又是異常艱難的重大課題。人們認識到,通過限制發(fā)展控制人工智能的能力,無論是在可行性方面還是在后果方面,都會帶來更嚴重的問題?!皩δ芰Φ目刂谱疃嗍且粋€暫時和輔助的手段?!瓋r值觀加載的問題很棘手,但一定要面對”(10)尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,第233頁。。問題不在于是消極地還是積極地面對,而在于是情緒化或想象地還是智慧地面對。就目前發(fā)展階段來說,人工智能價值觀加載的思路是清楚的,“人工智能的未來發(fā)展應該關(guān)注它在特殊領(lǐng)域內(nèi)的具體應用,并在建造機器的過程中,重視把價值元素內(nèi)化到技術(shù)創(chuàng)新的各個環(huán)節(jié),從而規(guī)避可能帶來的風險”(11)成素梅:《人工智能研究的范式轉(zhuǎn)換及其發(fā)展前景》,《哲學動態(tài)》2017年第12期。。在這方面,專用人工智能的具體運用沒有問題,而通用人工智能價值元素內(nèi)化的難度,卻像其重要性一樣難以估量。
給通用人工智能加載人類價值觀是一個非常復雜的工程,其復雜性甚至到了我們現(xiàn)在還難以想象的程度。一方面,人工智能價值觀加載的技術(shù)方法非常復雜。在技術(shù)上,人工智能價值觀加載的“效用函數(shù)”方法具有代表性。“效用函數(shù)”是將“決策規(guī)則具體化的正式方法”(12)尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,第234頁。,但這種方法的實際運用,甚至連現(xiàn)有數(shù)學手段都不能勝任,以至有關(guān)專家認為,“解決價值觀加載問題是一個研究上的挑戰(zhàn),需要下一代人最高超的數(shù)學才能”。關(guān)于人工智能的價值觀加載,相對單純的數(shù)學方法尚且如此,涉及具體的內(nèi)容就更為復雜?!拔覀兛雌饋砗芎唵蔚膬r值觀和愿望事實上包含了極大的復雜性”(13)尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,第235頁。。另一方面,價值觀加載的最終結(jié)果很難控制。有些研究表明,人工智能價值觀加載的方案設(shè)計得再精致,也會存在更難以解決的深層次問題。關(guān)于人工智能的人類價值觀加載,有些研究的設(shè)計精致程度已經(jīng)達到極致。比如即使設(shè)計“建造一個超級智能,其最終價值觀只是計算圓周率小數(shù)點后有幾位數(shù)”,“我們也不能輕率地假設(shè)它就會將其活動限制在這個范圍內(nèi),而不去干涉人類事務(wù)”(14)尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,第144頁。譯文稍有改動,參見Nick Bostrom,Superintelligence:Paths,Dangers,Strategies,p.116。。而且這些問題更難以解決,隨著人類自身需要的發(fā)展,這種“最終價值觀”也會向類人智能發(fā)展,從而不可能把人工智能的發(fā)展限制在自主進化的可能之外。而人工智能一旦進入自主進化,其發(fā)展就不是人類所能限制的。在通用人工智能的價值觀加載中,無論數(shù)學方法還是價值觀內(nèi)容,都還不是最復雜的,更復雜的還在于價值觀加載的前提性預設(shè)。通用人工智能應當加載什么樣的價值觀?依據(jù)什么以及誰來做出這樣的價值觀預設(shè)?
很多價值觀加載方案所致力于思考的,大都是人類怎樣將自己現(xiàn)有的價值觀植入到智能機器。而人工智能的發(fā)展,恰恰需要人類超越自己具有特定歷史局限的視角。如果局限于自然人類的立足點,人類和智能機器的關(guān)系就會出現(xiàn)很多悖論性情景。給智能機器內(nèi)置道德原則,正是其中最典型的例子?!霸跒槌壷悄苓x擇最終目標時,我們不得不就整體的道德理論以及關(guān)于它的一系列具體主張下賭注,而我們賭贏的概率簡直小到令人絕望”。于是一個特別但也可以理解的建議就自然而然地被提出:“與其基于我們目前的理解(可能是非常錯誤的理解)作出猜測,不如將價值觀選擇所需的一部分認知工作委托給超級智能?!?15)尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,第265頁。這既是解決人工智能人類價值觀加載問題的建議,同時又提出了一個更深層次的問題:超越人類的自然立場。人工智能發(fā)展到一定階段,人類對超級智能作出直接規(guī)范,顯然不如超級智能自己探索規(guī)則,但是人類不能放棄自己的使命,在廣義智能進化(16)廣義智能進化指的是由兩種智能進化構(gòu)成的更高層次智能進化,即作為人類智能的原生智能進化與作為機器智能的次生智能進化的融合。參見王天恩:《人工智能的信息文明意蘊》,《社會科學戰(zhàn)線》2018年第7期;王天恩:《論人工智能發(fā)展的倫理支持》,《思想理論教育》2019年第4期。過程中,即使是自然意義上的人類智能,也必定具有自己特定的地位和意義。超越人類的自然立場,明確人類在廣義智能進化過程中的歷史使命,不僅對于廣義智能進化,而且對于自然人類本身意義重大。
關(guān)于人工智能的人類價值觀加載,目前人們不僅不能確切地知道應當怎么做,甚至連這事做起來有多么難,都還沒有一個完全清楚的意識。況且,即使“我們知道了如何解決價值觀加載問題,可能就要面對更深入的問題:決定哪種價值觀應該被載入”(17)尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,第259頁。。對于我們自己應當擁有什么樣的價值觀,問題已經(jīng)夠復雜,我們只能在摸索中前行。在摸索中前行,對于人類來說似乎是沒有辦法的辦法,而當涉及智能機器的價值觀加載時,就不是能以同樣方式處理的問題了。
由此可見,與道德原則內(nèi)置一樣,不僅人工智能的內(nèi)嵌式人類價值觀加載也存在同樣的問題,而且其復雜程度遠非內(nèi)嵌可以解決??磥韱栴}的解決還得寄望于對人工智能發(fā)展的更深層次理解。人工智能價值觀加載的問題表明,要深入理解機器智能人類價值觀加載的機制,必須在更深層次理解事實和價值的內(nèi)在關(guān)聯(lián)。這是一個需要哲學介入,甚至是一個必須在哲學層面才能深入探索和解決的問題。因為無論經(jīng)驗科學還是形式科學,在各自學科領(lǐng)域內(nèi)都不可能解決甚至深入探索這樣一個層次的問題。
由于人工智能價值觀加載如此艱難,相關(guān)探索所取得的成果不僅尤其難能可貴,而且意義特殊。人工智能的發(fā)展越是臨近圖靈奇點,其價值觀內(nèi)化越重要,因為正如庫茲韋爾(Ray Kurzweil)所說,“本質(zhì)上不存在能對抗強人工智能的絕對保護措施”,必須為不斷前進的科學和技術(shù)進步維持一個開放自由的市場環(huán)境,“強大的人工智能正隨著我們的不懈努力而深入到人類文明的基礎(chǔ)設(shè)施。事實上,它將緊密嵌入到我們的身體和大腦中。正因為這樣,它反映了我們的價值觀,因為它將成為我們”(18)Ray Kurzweil:《奇點臨近》,李慶誠、董振華、田源譯,北京:機械工業(yè)出版社,2011年,第252頁。譯文稍有改動,參見Ray Kurzweil,The Singularity Is Near:When Humans Transcend Biology,New York:Penguin Books,2005,p.356。。庫茲韋爾在這方面的觀點,已經(jīng)接近價值觀加載的社會性致思,這就拓展了人工智能價值觀加載的視野,呈現(xiàn)出一個可以更深入探索的廣闊空間。正是由于涉及廣闊空間,人工智能的價值觀加載具有典型的開放性。
把價值元素內(nèi)化于人工智能設(shè)計的開放性,就在于價值觀加載既可以類似道德原則內(nèi)置,也可以是社會化的。由于在更深層次涉及與人類的關(guān)系,關(guān)于人工智能價值觀加載的研究是富有啟示性的。正是價值觀加載的社會性,對人工智能存在性風險的應對具有重要倫理啟示。
真正意義上的人工智能價值觀加載必須是一個社會化過程,而其基本根據(jù)正在于:通用人工智能的發(fā)生和發(fā)展是類群進化的產(chǎn)物。類群進化的社會化過程,意味著類親歷意義上的整體性(19)王天恩:《論人工智能發(fā)展的倫理支持》。。正是這種意義上的整體性,要求人工智能存在性風險的倫理應對必須建立在新的前提基礎(chǔ)之上:基于價值和事實內(nèi)在關(guān)聯(lián)的認識,作規(guī)則和規(guī)律一體化探索。而無論價值和事實的關(guān)系還是規(guī)則和規(guī)律一體化,其所意味著的更高層次整體性則表明,人工智能存在性風險的倫理應對,正是一個典型的造世倫理問題。對這一問題的更有效探索,應當在以整體性、類特性和共同性為基本特點的造世倫理層次進行。
力圖通過內(nèi)置道德原則,確保人工智能的安全性,在專用人工智能發(fā)展中是有意義的。面對人工智能發(fā)展的通用化,形勢發(fā)生了根本變化。關(guān)于人工智能人類原則內(nèi)置的研究,盡管直到現(xiàn)在仍大有人在,但人們思考的進一步深入表明,人工智能的存在性風險應對顯然不能寄望于道德原則內(nèi)置。人工智能的價值觀加載,似乎曉示著一條唯一可靠的途徑,但其艱難程度又出乎人類想象。由此,讓超級智能去承擔人類不可能完成的任務(wù)的觀點就自然而然提出。這一觀點既具合理性,又似乎是更明智的。人類會面臨前所未有的艱難選擇,人工智能存在性風險的應對,的確存在一個怎么充分利用超級智能本身能力的問題。人類固然最終主宰自身的命運,但從更合理的角度看問題,似乎還應當把自身的命運主宰,放到更高層次的發(fā)展過程之中。這顯然是人類將要面對、有待探索的重大問題。而怎樣利用人工智能解決其所帶來的存在性風險問題,則典型地反映了造世倫理的性質(zhì)。
在大數(shù)據(jù)基礎(chǔ)上創(chuàng)構(gòu),人類無疑是在扮演上帝的角色。在既存世界生存和發(fā)展,人類主要是適應環(huán)境;而在人工世界的創(chuàng)構(gòu)中,人類越來越不只是適應而是在創(chuàng)造環(huán)境。如果我們把適應這個世界所必須遵循的倫理稱之為“適世倫理”,那么,創(chuàng)構(gòu)世界所涉及的倫理,則可以稱之為“造世倫理”。在大數(shù)據(jù)和人工智能的基礎(chǔ)上,可以清楚地看到造世倫理所具有的不同性質(zhì),其中最基本的,就是造世倫理的整體性、類特性和共同性。世界的自然進化不存在倫理問題,而世界的人為創(chuàng)構(gòu)則不僅涉及倫理問題,而且使倫理問題日益具有整體性,從而將倫理研究提升到造世倫理的層次。關(guān)于自然進化而來的世界,我們沒有辦法也沒有必要為這個世界的造成追責。而人類創(chuàng)構(gòu)的世界則完全不同,造世的倫理問題不僅明顯存在,而且凸顯為最基本最重要的問題。以大數(shù)據(jù)和人工智能為主要標志的創(chuàng)構(gòu)時代,不僅“思想改變世界”已成現(xiàn)實,而且已經(jīng)上升到思想創(chuàng)構(gòu)世界,造世的倫理責任也成了難以承受之重。如果說適世倫理主要涉及人對既存世界的適應,那么造世倫理則更涉及人類自己所創(chuàng)構(gòu)世界層次和人的自我創(chuàng)構(gòu)的倫理后果和責任(20)詳見王天恩:《大數(shù)據(jù)、人工智能和造世倫理》,《哲學分析》2019年第5期。。造世倫理的整體性,不僅意味著價值和事實,而且意味著規(guī)則和規(guī)律內(nèi)在關(guān)聯(lián)的凸顯。一方面,造世倫理具有整體性;另一方面,人工智能之于人類生存發(fā)展的利害深度糾結(jié);兩個方面的內(nèi)在交織,意味著倫理規(guī)則和客觀規(guī)律的一體化。
任何規(guī)則都有一個規(guī)律性的根源,任何合理的規(guī)則都有一個規(guī)律性的根據(jù)。關(guān)于規(guī)則和規(guī)律,人類在兩方面都做了大量工作,大數(shù)據(jù)和人工智能基礎(chǔ)上造世倫理的發(fā)展,為二者發(fā)展的“合龍”創(chuàng)造了時代條件。
人類發(fā)展是在具有自我意識的基礎(chǔ)上進行的,在具備反思自己觀念的能力之前,就已經(jīng)形成了復雜的觀念,因此常常在錯綜的精神領(lǐng)域糾纏,以至在認識領(lǐng)域,規(guī)則離規(guī)律可以很遠甚至相互脫節(jié)。而人工智能的發(fā)展涉及最基本的信息層面,因此規(guī)則和規(guī)律重歸一體化。事實上,所謂“道德物化”就是尋求規(guī)則和規(guī)律關(guān)聯(lián)的重要努力,道德機器本身就涉及規(guī)則的規(guī)律化,而大數(shù)據(jù)和人工智能的進化,則在信息及其進化的基本層次涉及規(guī)則和規(guī)律的一體化理解問題。不在規(guī)則和規(guī)律一體化的基礎(chǔ)上,人工智能存在性風險的倫理應對,就可能不是一個有意義的話題,而在造世倫理層次,這種應對就不僅至為重要,而且不可或缺。
在人工智能發(fā)展風險的應對策略中,規(guī)則和規(guī)律一體化的基本含義有兩個層次:一是通用人工智能特別是超級智能發(fā)展的規(guī)則制定,必須建立在人工智能發(fā)展規(guī)律和人類發(fā)展規(guī)律,特別是二者關(guān)系的規(guī)律性把握基礎(chǔ)之上,以確保相關(guān)規(guī)則制定符合人類的長遠利益;二是專用人工智能發(fā)展的規(guī)則制定,必須建立在人工智能應用相關(guān)的規(guī)律性把握基礎(chǔ)之上,以確保所制定的相關(guān)規(guī)則有效而不會反而掩蓋風險。
人工智能道德原則內(nèi)置的問題和價值觀加載的困難程度,都表明在人工智能存在性風險應對中,規(guī)則的規(guī)律性關(guān)聯(lián)探索至關(guān)重要。探索規(guī)則的規(guī)律基礎(chǔ)之所以至關(guān)重要,基本的原因就在于:對于人工智能這種深及人類未來的科技發(fā)展來說,沒有落實到規(guī)律基礎(chǔ)的規(guī)則制定,本身就是最大的未知風險。這種風險,只能在更高整體層次的理論基礎(chǔ)上才能看到。所處的理論整體層次越高,所看到的可能性就越多,正因為如此,整體觀照事關(guān)重大甚至涉及根本。反過來,相對于特定情景(語境),理論整體層次越低,看到的機會就越少,低到一定程度,可能就看不到任何機會。看不到機會就看不到希望,沒有機會就沒有希望,完全沒有希望就是絕望。也許比絕望更可怕的,還在于將致命威脅當作天賜良機。
人工智能價值觀加載的探索表明,對于類人智能來說,與人類一樣的社會化成長過程,應當是價值觀加載的根本方式。關(guān)于這一點,庫茲韋爾有進一步深入的涉及,在他看來,“在這個領(lǐng)域,純粹的技術(shù)策略是不可行的,因為措施是某一級別智能的產(chǎn)物,但總有與之相比更強大的智能可以找到方法來規(guī)避措施。我們正在創(chuàng)造的非生物體將會在我們的社會扎根并反映我們的價值觀。這種生物變革階段包括將非生物智能和生物智能緊密結(jié)合起來。這將擴展我們的能力,并且這些更強大智能的應用將會受它們的創(chuàng)造者的價值觀所支配。生物變革時代將會被后生物時代所取代,但是我們希望我們的價值觀仍然發(fā)揮作用”(21)Ray Kurzweil:《奇點臨近》,第255頁。。對此,波斯特洛姆也已意識到,“至少有一次,進化產(chǎn)生過帶有人類價值觀體系的有機體。這個事實激勵了這樣一種信念,即相信進化是一種解決價值觀加載問題的途徑”(22)尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,第236頁。。將人工智能的價值觀加載與進化關(guān)聯(lián)起來,無疑是具有更高整體層次的思考。盡管“進化性選擇”方式可能伴隨弱肉強食、優(yōu)勝劣汰的殘酷,“當使用進化的方法來產(chǎn)生類人智能時,意識犯罪看起來尤其難以避免,至少這個過程應該看起來像真正的生物進化”(23)尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,第237頁。。智能進化的生物載體形態(tài)肯定有特定的問題,但那可能是類人智能價值觀形成的唯一可能方式。在這里,波斯特洛姆的思考已經(jīng)超越了智能的自然進化:“我們成人后所最終形成的價值觀還是取決于人生經(jīng)歷。因此我們最終價值觀體系的大部分信息內(nèi)容是從經(jīng)歷中獲得的,而不是基因攜帶的?!?24)尼克·波斯特洛姆:《超級智能:路線圖、危險性與應對策略》,第238頁。價值觀必定由經(jīng)歷而來,只要通用智能進化的類親歷性為類人智能體形成所不可或缺。在根本上說,價值觀加載必須是類群親歷過程中的關(guān)系內(nèi)置,而這就不僅使規(guī)則和規(guī)律關(guān)聯(lián)在一起,而且使人工智能發(fā)展的價值觀加載與廣義智能進化內(nèi)在聯(lián)系了起來。
廣義智能進化是在人類智能進化基礎(chǔ)上的更高層次智能進化,在這一進化層次,人工智能達到類人智能水平。類人智能體形成過程中類親歷性的不可或缺,可以從人類情感關(guān)系的形成得到最典型的說明。人類倫理道德關(guān)系的形成更是如此,而且,由于基于價值觀,由于其特殊性,道德關(guān)系的形成和發(fā)展過程更有利于理解智能關(guān)系的類親歷性,不管是人類智能還是機器智能,抑或人機融合進化的更高層次智能。
總之,造世倫理意味著更高層次的整體性,這是其與適世倫理的根本不同之處。正是造世倫理的更高層次整體性,為人工智能存在性風險的倫理應對呈現(xiàn)了更長遠的前景,開辟了更廣闊的空間。人工智能存在性風險的造世倫理應對是一個需要系統(tǒng)探索的領(lǐng)域。在造世倫理層次探索人工智能存在性風險應對,首先必須明確基本的倫理原則。
近來,友好型和以人為本的人工智能等越來越受到人們關(guān)注。關(guān)于人工智能體的好壞評價,雖然直接決定于人生觀、價值觀甚至生活態(tài)度,但歸根到底決定于認識的整體層次。認識的整體層次越高,人工智能存在性風險的預防就越有效。
在人工智能發(fā)展風險的應對研究中,“預防原則”(precautionary principle)既至關(guān)重要,又至為復雜。作為應對策略,人工智能發(fā)展存在性風險的“預防原則”既可以是消極的,也可以是積極的。正如一些權(quán)威專家所指出的:“我們不能用試錯法來處理存在性危機。對預防原則的解釋還存在爭議(如果一個行為的后果未知,但是據(jù)科學家判斷有極小可能會帶來巨大的負面風險,這一行為最好不要進行)。但很明顯,在我們的戰(zhàn)略中需要盡可能提高自信以對抗這種風險。這就是越來越多的聲音要求我們停止技術(shù)發(fā)展的原因之一,這也是在新的存在性危機發(fā)生之前將其消除的主要戰(zhàn)略。然而放棄并非合適的行為,只會阻止新興技術(shù)帶來的好處,而且實際上還增加了災難性結(jié)果的可能性。”(25)Ray Kurzweil:《奇點臨近》,第244頁。譯文稍有改動,參見Ray Kurzweil,The Singularity Is Near:When Humans Transcend Biology,pp.342-343。因而在很多人那里,考慮的不僅不是放棄,反而是怎樣盡快走向超級人工智能。在麥克斯·摩爾(Max More)的觀念中,甚至預防原則本身都不夠積極而應被取代,他闡明了預防原則的局限性,并且主張用源于歐洲的“行動原則”(The Proactionary Principle)來取代預防原則,以平衡“行動”與“不行動”間的風險(26)Max More,“The Proactionary Principle”,in Max More and Natasha Vita-More,eds.,The Transhumanist Reader,Chichester:John Wiley & Sons,Inc.,2013,p.260.。的確,面對人工智能發(fā)展所帶來的存在性風險,應當是通過積極的行動,在更高層次實現(xiàn)最佳應對。
人工智能發(fā)展對人類的存在性風險,既可能發(fā)生在“人工智能開始自我完善之前”,也可能發(fā)生在其使用各種工具逃避最初限制的起飛期間,或者在它成功接管世界并開始實施其目標系統(tǒng)之后(27)Alexey Turchin and David Denkenberger,“Classification of Global Catastrophic Risks Connected with Artificial Intelligence”,AI & Society:Knowledge,Culture and Communication,No.2,2018.。只要人工智能的發(fā)展越過圖靈奇點,關(guān)于人類命運的悲觀和樂觀兩種觀點,就都是有根據(jù)的。因為其后果不僅完全取決于人類怎么做,而且取決于人類怎么想。即使人類智能和人工智能不是競相發(fā)展,而是二者交融進化,在一定的發(fā)展階段,人工智能的發(fā)展仍然將對人類構(gòu)成存在性風險。
僅就智能載體而言,由于自然進化優(yōu)勢不再,迭代周期優(yōu)劣懸殊,基于生物載體的人類智能必遭淘汰。而且,人類更要警惕的,的確是人類自己;人們更應當擔心的,事實上也是人對專用人工智能的邪惡利用,這也是目前人工智能發(fā)展中人類所面臨的最切近威脅。越是遠離人類的因素,控制相對越容易;越是涉及人自己,風險越可能失控。正因為如此,在這一風險較大的特殊時期,人類一定要在造世倫理的更高層次,制定規(guī)則和規(guī)律一體化的人工智能發(fā)展原則。這個發(fā)展原則就是“道在魔先”,由于就造世倫理層次而言,也可以稱之為造世倫理原則,它不僅適用于人工智能,而且適用于所有造世活動的倫理考量。
在人工智能研發(fā)中,人類必須做到“道”在“魔”先:面對具有存在性風險的研究進展,必須先有防范之道,才能進入實施。以確保在整個危險期內(nèi),對可能出現(xiàn)的威脅做到都有解決預案。潘多拉魔盒打開之前先要有制服之道,解毒劑是毒藥準生證(28)王天恩:《人工智能與人類命運》,《教學與研究》2018年第8期。?!暗涝谀取币馕吨鴮⑽从昃I繆真正落到實處,而面對人工智能發(fā)展的存在性風險,這一點特別重要?!叭绻覀円恢钡鹊酱蟮溑R頭之后,我們也許最終會制定更加嚴格和有傷害性的規(guī)則”(29)Ray Kurzweil:《奇點臨近》,第239頁。。在人類應對威脅的長期歷史過程中,這方面有不少經(jīng)驗可以借鑒。針對將致命毒素的基因注入諸如普通感冒或流行感冒等容易傳播的普通病毒中,阿西羅馬會議在商議如何應對這種威脅時,起草了一系列安全和道德準則(30)Ray Kurzweil:《奇點臨近》,第243頁。。這些安全和道德準則之所以能沿用至今,主要就因為在沒有做到“道在魔先”時,不會有人踏出這一步,除非企圖得到最大自殺滿足的瘋子。但這樣的瘋子不可能掌握這種層次的技術(shù),或者說具有這種創(chuàng)意能力的人不可能處于這樣的需要水平。
人工智能研究的“道在魔先”原則,不僅屬于內(nèi)外兼治的方式,而且建立在造世倫理的整體性致思基礎(chǔ)上。隨著人工智能風險應對研究的深化,這種致思得到越來越明顯的體現(xiàn)。
通過對人工生命具有巨大挑戰(zhàn)問題的梳理和研究,研究人員得出了“需要在一個基本問題上取得重大進展”的結(jié)論,其所探索的途徑的確是“有希望的”(31)Mark ABedau etc.,“Open Problems in Artificial Life”,Artificial Life,Vol.6,No.4,2000.,其中最重要的原因之一,就是它具有造世倫理的性質(zhì),可以通過更深層次的理論和實踐探索,深化目前人工智能存在性風險應對策略的研究。
“道在魔先”原則應當既是可望確保人類整體安全,又是符合任何涉事個人自身安全需要的原則,但一方面必須有更基礎(chǔ)的保證,另一方面還有進一步的問題有待解決。“道在魔先”原則不僅需要有得力措施,防范可能出現(xiàn)但又不可預料的失控需要滿足行為,而且需要進一步探索兩個層次的問題,一是道魔較量,二是人類眼光?!暗涝谀取痹瓌t除了有來自對人類自身擔憂的同樣問題,關(guān)鍵是對人類眼光的高要求。要知道魔的利害所在,必須有盡可能長遠并不斷發(fā)展的眼光,這意味著盡可能高的理論整體層次。理論層次越低,眼光越淺近,越難有到位的整體把握,人類也就越是前途難測?!叭绻斯は到y(tǒng)的智能大大超過人類,這將對人類構(gòu)成重大風險?,F(xiàn)在是考慮這些問題的時候了,這一考慮必須包括人工智能的進步和對人工智能理論的洞察”(32)Vincent C Müller,“Editorial:Risks of artificial intelligence”,in Vincent C Müller,ed.,Risks of Artificial Intelligence,Boca Raton:CRC Press-Taylor & Francis Group,2016,p.1.。關(guān)于人工智能的“理論洞察”,在某種意義上決定了人類在人工智能發(fā)展時代的安身立命甚至前途命運,需要有盡可能高的理論整體層次。
從造世倫理的整體性出發(fā),“道在魔先”原則更需要對人工智能發(fā)展可能出現(xiàn)的最高層次結(jié)果有盡可能長遠的預期。具有遠見地盡可能在最高層次俯瞰人工智能的發(fā)展,既是“道在魔先”原則的事實依據(jù),也是智能時代哲學重要性的更深刻體現(xiàn),涉及人工智能存在性風險應對中哲學的地位,特別是“道在魔先”原則的把握。在人工智能發(fā)展中,釋放出來的“魔”越多,“道”的相應應對挑戰(zhàn)性越大。因為“魔”的出現(xiàn)可以是個體性的,而“道”的應對卻必須具有整體考慮。不過,這種情景所反映的,是人類的基本處境,人類在宇宙中生存,本身就是在這樣的一個處境之中。只是人工智能的發(fā)展,將人類的這一基本處境以風險源自自身的方式呈現(xiàn)出來,從而爆炸式地呈現(xiàn)為一個迫在眉睫的嚴峻問題。進一步深入理解人類處境及其變遷,特別是在盡可能高的整體層次理解人工智能和人類發(fā)展的關(guān)系,對于人工智能存在性風險的應對至關(guān)重要。對于人類而言,人工智能發(fā)展的風險和希望深度交織,與其風險的人類應對效果密切相關(guān)。關(guān)于人工智能發(fā)展風險和希望交織深層機理的理解,不僅關(guān)系到人工智能存在性風險應對策略的有效性,甚至關(guān)乎應對結(jié)果是否事與愿違。而這又在根本上取決于人類所處的倫理應對層次,在人工智能存在性風險的應對中,造世倫理的理論和實踐地位具有根本性。