孫福海,陳思宇,黃甫全,伍曉琪
(1.華南師范大學(xué) 教育科學(xué)學(xué)院,廣東 廣州 510631;2.華南師范大學(xué) 德育神經(jīng)科學(xué)與人工智能實驗中心,廣東 廣州 510631)
在計算機化早期,控制論專家諾伯特·維納(Norbert Wiener)就指出,技術(shù)可以幫助人類成為更好的人,創(chuàng)造更公正的社會,但要做到這一點,人類必須控制技術(shù)[1]。歷史上三大信息技術(shù)變革,最新一次就是人工智能技術(shù)。它帶來諸多道德(倫理)問題。許多國家已經(jīng)或正在制定人工智能領(lǐng)域的倫理框架。英國成立了數(shù)據(jù)倫理與創(chuàng)新中心[2],旨在研究通用人工智能倫理框架。歐盟起草的《可信任人工智能倫理指南》[3],提出了可信任人工智能框架。
人類道德依賴于人類社會文化背景下的道德標(biāo)準(zhǔn)、價值觀和法律法規(guī)等規(guī)則體系,人工智能的“道德”也與之類似。研究者已經(jīng)指出,人工智能在社會中的道德行為主要是規(guī)范性問題,而非描述性問題[4]。道德規(guī)范不僅可以塑造人的道德行為,同樣也可以內(nèi)化為人工智能的自我約束,作為立“德”之本。因此,驗證智能系統(tǒng)是否符合現(xiàn)有法律框架只是第一步,更重要的是確保其能解釋和運用人類道德價值觀,需要弄清楚人工智能的道德意味著什么,以及系統(tǒng)如何遵循道德和堅持某種價值取向。
以軟硬件形式存在的人工智能,通常被認(rèn)為是人類的工具,但其不斷增長的自主智能和交互能力,使得人工智能系統(tǒng)被期望承擔(dān)起本屬于人類的責(zé)任與義務(wù)。而出于道德考量自主決策和行動的人工智能,開始被視為道德主體。有研究根據(jù)自主性和道德敏感性提出了人工智能從低到高的道德層次,分別對應(yīng)操作性、功能性和完全性的道德行為[5]。在最低層次,比如搜索引擎,既沒有自主性也沒有社會意識,因此不具有道德體系,而只是在設(shè)計中融入了設(shè)計者的價值觀,被認(rèn)為僅具有操作性道德。隨著系統(tǒng)自主能力和認(rèn)知能力的增強,系統(tǒng)具有了評估和應(yīng)對道德問題的能力。自主智能可以感知所在環(huán)境的相關(guān)道德特征,從而能根據(jù)人類道德規(guī)范而調(diào)整行為,但仍有許多限制。大多數(shù)具備道德規(guī)范的智能系統(tǒng)都屬于功能性道德層次。發(fā)展到更高層次,人工智能則可以具有所需的完全性道德行為[5]。但無論處于何種層次,傳統(tǒng)倫理學(xué)如何在智能技術(shù)中發(fā)揮作用成為首要的問題。
從理解道德原則并能應(yīng)用于人工智能系統(tǒng)設(shè)計的角度看,規(guī)范倫理學(xué)具有特殊的相關(guān)性。后果論(功利主義)、道義論(義務(wù)論)和美德論(美德倫理學(xué))等,都是規(guī)范倫理學(xué)的典型代表,不僅提出了人類道德行為規(guī)范,試圖解決道德困境,還解釋了道德教育。因此,通過探索已建立的人類道德體系,將規(guī)范倫理學(xué)用于人工智能系統(tǒng)設(shè)計是完全可能的。
后果論認(rèn)為行為道德性取決于行為結(jié)果[6],道德上的正確行為是產(chǎn)生“好”的結(jié)果的行為。因而,行為在道德上是否正確,可以通過檢驗其結(jié)果來確定,這種結(jié)果要么是行為本身導(dǎo)致(行為功利主義),要么是存在需要這種行為的一般規(guī)則所導(dǎo)致(規(guī)則功利主義)[7]。
在后果論模型中,人工智能必須知道一個行為所產(chǎn)生的后果,及其對其本身以及人類和其他事物意味著什么,還需要能夠評估這些后果。對于人類來說,很難確定某項行為更別說規(guī)則的所有實際后果,但通常一項行為(或規(guī)則)會增加或減少一般效用,這對于指導(dǎo)人工智能的設(shè)計意義非凡??紤]到未發(fā)生的各種可能性,道德人工智能對后果的評估主要不是針對實際后果,而是預(yù)期后果。
如果沒有道義論的一套規(guī)范,基于后果論的道德人工智能需要定義明確的問題,能始終完整和確定地了解當(dāng)前狀態(tài),行為結(jié)果是能確定的,并且其他可能影響結(jié)果的因素也是可以預(yù)測的。根據(jù)后果論的效用原則,正確的行動方針是為最大多數(shù)人最大化的效用(功利主義)或快樂(享樂主義)。而考慮到弱人工智能的概念,人工智能算法應(yīng)具有期望效用函數(shù),并將選擇試圖最大化其效用的行為。效用的評估取決于道德人工智能的目標(biāo)和期望。因此,后果論方法在限制條件下非常有效,但當(dāng)面對不完整、不確定和意外情況時,則容易誤判。
基于后果論的道德人工智能通常采用啟發(fā)式搜索算法,由搜索、停止和決策策略組成[8],具有不斷發(fā)展的能力。這在需要快速決策時非常有用,但同時也是局限所在。杰里米·邊沁(Jeremy Bentham)指出,不應(yīng)期望享樂演算過程在每個道德判斷中都被嚴(yán)格遵循[9],因為搜索空間有限,不可能評估所有可能性。
道義論是規(guī)范的道德立場,與行為者品格無關(guān)(相較于美德論)。它根據(jù)規(guī)則判斷行為的道德性,不考慮后果(相較于后果論)。人類有創(chuàng)造和遵守規(guī)則的理性能力。規(guī)則允許基于責(zé)任的道德規(guī)范出現(xiàn),這對人類存在至關(guān)重要。“責(zé)任”在康德倫理學(xué)中非常重要??档抡J(rèn)為負(fù)責(zé)任的行為才具備道德價值[10]。在道義論模型中,責(zé)任是出發(fā)點,可以轉(zhuǎn)化為規(guī)則,分為規(guī)則和元規(guī)則。
道義論堅持道德法則是對主體行為進(jìn)行道德評估的理性框架[11],因此被認(rèn)為可更容易形式化而產(chǎn)生“負(fù)責(zé)任”的人工智能[12]。其基于規(guī)則的道德判斷的算法,非常適合于道德人工智能的構(gòu)建。康德絕對命令應(yīng)用于人工智能的過程被視為一種“自上而下”的構(gòu)造,這種方法基于一組預(yù)定規(guī)則來定義行為的道德性,僅在既定規(guī)則允許下,人工智能才能采取某種行動。因此,可以通過對行為規(guī)則進(jìn)行簡單的一致性檢驗,將預(yù)期行為置于傳統(tǒng)的道義類別中(禁止、允許和強制)[12]。在這里,道德判斷是一致性檢驗的結(jié)果,檢驗是構(gòu)建規(guī)則的方法,那么道德行為就是建立一組規(guī)則。
人工智能最容易做到的就是遵循規(guī)則?;谝?guī)則的系統(tǒng)被實現(xiàn)為形式系統(tǒng),也稱為“公理系統(tǒng)”。道德推理的一個重要問題是需要預(yù)測他人行為以評估自身行為;規(guī)則存在的原因之一就是使他人行為更可預(yù)測,從而協(xié)調(diào)那些遵守規(guī)則的行為。在道德人工智能中,推理機制被用來從一個被稱為公理的小集合中通過組合來推導(dǎo)新的規(guī)則,規(guī)則被用來確定哪些行為在道德上是允許或不允許的。在道義論背景下,還需要考慮尊重人類尊嚴(yán)的道義,需要對人工智能的功能和能力進(jìn)行限制,以防止完全取代人類或人類的思維活動。
精確的道德原則是走向道德推理自動化的第一步[13]?;谝?guī)則的貝葉斯推理機制,可使人工智能根據(jù)抽象道德原則在價值水平上進(jìn)行道德學(xué)習(xí),而非單純的行為模仿。因此,歐盟在《可信任人工智能道德指南》中優(yōu)先考慮了道義論的方法[14]。道義論的最大優(yōu)點,是可以在人工智能中提供理性響應(yīng)能力,且非?!巴该鳌?。人工智能可以簡單地通過引用產(chǎn)生決策或行為的特定規(guī)則來做出解釋。當(dāng)然,基于道義論的人工智能也需要通過一系列被禁止的行為規(guī)則和職責(zé)加以約束,需要一套在行動之前識別出不道德行為的規(guī)范,以維持道德行為。
像道義論這種在足夠小的可預(yù)測系統(tǒng)中產(chǎn)生可接受的道德行為,或者后果論這種對問題定義足夠明確,以及信息完整情況下的道德推理,在現(xiàn)實場景中通常無法完全滿足,因為現(xiàn)實場景中存在著大量不完整信息。而美德論植根于古典道德哲學(xué),在評估、判斷,以及采取與品格相符的行為方面非常有用。美德論關(guān)注人的內(nèi)在特征(節(jié)制、正義、勇敢和智慧等),與道義論和后果論不同,這是一種基于主體的觀點[15]。
亞里士多德的目的論為基于美德論的人工智能研究提供了思路,不僅包含了基于道德行為的總體目標(biāo)取向,還特別關(guān)注價值取向[1]。因此,構(gòu)建基于美德論的道德人工智能的關(guān)鍵,就在于使價值觀與人類保持一致,根據(jù)人類的復(fù)雜價值來選擇目標(biāo)。機器學(xué)習(xí)與美德論之間有很高相似性,目標(biāo)導(dǎo)向是現(xiàn)代人工智能,尤其是高級機器人技術(shù)的核心部分。因此,美德論更為適合基于機器學(xué)習(xí)的自下而上的道德學(xué)習(xí)設(shè)計方法[16]。亞里士多德還認(rèn)為必須通過實踐來發(fā)現(xiàn)和學(xué)習(xí)美德,而機器學(xué)習(xí)也是通過經(jīng)驗來提高機器執(zhí)行任務(wù)的能力。因此,機器在從現(xiàn)實數(shù)據(jù)中學(xué)習(xí)之前,無法擁有實踐智慧和實施道德行為[16]。如果將美德與功能及任務(wù)執(zhí)行較好地結(jié)合,完全可能開發(fā)出基于美德論的人工智能。
美德論是解決控制和價值取向這兩大方面最有潛力的道德理論。擁有“節(jié)制”美德的機器將不會有任何多余的欲望,從而避免了超智能對人類生存構(gòu)成風(fēng)險。“榜樣學(xué)習(xí)”是人類歷史上道德學(xué)習(xí)和價值觀相統(tǒng)一的重要途徑[17]。美德論提供了一個迭代學(xué)習(xí)和成長模型(即道德學(xué)習(xí)設(shè)計方法),以及由環(huán)境和實踐所提供的道德價值,而不僅僅遵從給定的靜態(tài)規(guī)則集。但自下而上的道德學(xué)習(xí)設(shè)計方法的主要挑戰(zhàn)在于,如何提供足夠的保護(hù)措施以防范人工智能學(xué)習(xí)和發(fā)展不道德行為。
基于美德論的人工智能在可解釋性方面也有欠缺,它很難解釋或證明其美德是如何通過經(jīng)驗形成的,而美德是其行動的基礎(chǔ)。如果通過人工神經(jīng)網(wǎng)絡(luò)實現(xiàn)人工智能學(xué)習(xí)美德的能力,則會帶來更大的問題,因為幾乎不可能從眾多網(wǎng)絡(luò)權(quán)重中提取出直觀可理解的原因。因此,美德論需要更多的判斷調(diào)用,需要引入一個全新解釋推理機制來評估概率和風(fēng)險,這本身可能不很可靠。
總之,遵循道義論是實現(xiàn)道德人工智能最簡單的方法,它雖然只是規(guī)則的直接應(yīng)用,但需要更高層次規(guī)則對行為本身進(jìn)行推理。人工智能必須知道自己的行為與規(guī)則的邏輯關(guān)系。后果論可通過啟發(fā)式搜索來實現(xiàn),但當(dāng)信息受到限制并且行為的影響在持續(xù)互動中級聯(lián)時,必須決定道德推理的程度,忽略不相干信息并采取有限搜索的啟發(fā)式算法。美德論則可以使用機器學(xué)習(xí)技術(shù),但需要新的機制對動機進(jìn)行推理,對動機引發(fā)的行為和結(jié)果進(jìn)行考量,這是更復(fù)雜的模式,并需要借助期望效用函數(shù)等算法來處理“后悔”,以創(chuàng)造出新的困境解決方案。其他還有雙重效應(yīng)原則(The Doctrine of Double Effect,DDE)、較小惡原則和人權(quán)倫理等,通常也被看作是上述理論的不同表現(xiàn)。
不同道德理論在人工智能中有著特定算法,但也面臨著共同挑戰(zhàn),即能否收集和比較所有信息,這對于實時應(yīng)用來說非常必要,對于后果論來說尤為重要。由于任何行為所導(dǎo)致的結(jié)果在時空上可能趨于無限,因此必須決定系統(tǒng)評估和推理的程度,做出當(dāng)下最優(yōu)決策。道義論同樣沒有解決這一問題,因為道義之間的一致性通常只能根據(jù)影響來評估。美德論使用機器學(xué)習(xí)可以分析道德行為的學(xué)習(xí)和進(jìn)化,但還需做進(jìn)一步研究。
智能系統(tǒng)開發(fā)中的道德考量正成為人工智能研究的重要領(lǐng)域之一。如果人工智能具有自主行為,而且其行為原因基于道德推理,那么負(fù)責(zé)道德部分的智能代理就被認(rèn)為是道德主體,即道德人工智能(Moral AI)[18]。對于實現(xiàn)道德人工智能這個大問題,目前存在有三重立場:一是意識層面的道德立場,系統(tǒng)被認(rèn)為是意識主體;二是設(shè)計層面的道德立場,系統(tǒng)的目的和行為是按照設(shè)計功能去解釋,系統(tǒng)被認(rèn)為是功能主體;三是物理層面的道德立場,從自然規(guī)律和功能屬性方面加以解釋,系統(tǒng)被認(rèn)為是物理主體[19]?;诋?dāng)前技術(shù)水平,這里優(yōu)先采用設(shè)計層面的道德立場,在設(shè)計層面探尋道德決策的通用機制,研究其構(gòu)建原則和價值導(dǎo)向,進(jìn)而解決特定的道德認(rèn)知和價值判斷。
人類社會通常根據(jù)道德主體如何選擇行為及其后果來判斷是否符合道德規(guī)范,按照預(yù)期,道德主體的行為將在道德上產(chǎn)生良好的結(jié)果。但是,人工智能采取行動仍然有很大的不確定性,有時該行為并不會達(dá)到預(yù)期結(jié)果,甚至做出錯誤選擇。而當(dāng)出錯或違反法律時,意味著責(zé)任問題。因此,道德人工智能必須能夠提供決策和行為的解釋,如果不能解釋其道德推理,不僅意味著系統(tǒng)的不透明,同時也意味著其無法負(fù)責(zé)。
人工智能如果缺乏某種形式的責(zé)任就不會擁有自主能力,沒有問責(zé)制的互動就不會有透明度。因此,道德人工智能的構(gòu)建應(yīng)基于問責(zé)制(Accountability)、責(zé)任制(Responsibility)和透明度(Transparency)原則(即ART)[20]。
首先,問責(zé)制是負(fù)責(zé)任的人工智能的首要條件,是指系統(tǒng)能夠解釋并證明其決策機制。一方面,問責(zé)制意味著系統(tǒng)具有解釋的能力。解釋是將抽象原則(例如公平或隱私)作為具體系統(tǒng)功能的基礎(chǔ)。約翰·朗肖·奧斯丁(John Langshaw Austin)認(rèn)為,對解釋的研究可以多種方式闡明道德規(guī)范[21]。人類社會需要人工智能證明其道德推理能力,或者至少是對決策范圍的保證。解釋可以減少系統(tǒng)不透明性,并支持對系統(tǒng)行為和局限性的理解。另一方面,問責(zé)制意味著系統(tǒng)決策機制必須從算法和數(shù)據(jù)中得以證明。價值敏感設(shè)計方法已在工程和設(shè)計領(lǐng)域廣泛應(yīng)用[22],在保證問責(zé)制方面有很大潛力 。
其次,當(dāng)人工智能對行為有控制權(quán)時就需要承擔(dān)責(zé)任[23],后果論在這方面可以發(fā)揮重要作用。但即使人工智能系統(tǒng)是行動的直接原因,責(zé)任鏈也必須足夠清晰,需要厘清人工智能的決策行為與利益相關(guān)者的關(guān)系。比如,當(dāng)人工智能按照預(yù)期方式工作時,責(zé)任在于用戶,這是它的工具屬性使然[4];或者由于錯誤或意外,出現(xiàn)了不道德行為,在這種情況下,設(shè)計者應(yīng)承擔(dān)責(zé)任。雖然學(xué)習(xí)及適應(yīng)性能力是大多數(shù)人工智能系統(tǒng)的預(yù)期特征,但歸根結(jié)底也是算法造成的。而且基于學(xué)習(xí)的行為后果通常難以完全預(yù)料和保證,因此需要持續(xù)評估,這是道德學(xué)習(xí)設(shè)計方法的關(guān)鍵所在。人工智能的責(zé)任問題很復(fù)雜,同時也屬于立法問題。
最后,行為解釋需要在算法、數(shù)據(jù)來源和利益相關(guān)者的選擇和決策方面保持透明度。也就是說,必須能夠?qū)彶樗惴ǖ脑O(shè)計和工作方式。道義論在這方面具有突出優(yōu)勢。透明度的目標(biāo)是提供足夠信息,以確保人工智能的安全和可控。如果能做到與系統(tǒng)相關(guān)所有方面(即數(shù)據(jù)、設(shè)計流程、算法和利益相關(guān)者等方面)的開放性,則可以保證系統(tǒng)中的透明度。透明度設(shè)計方法是道德人工智能設(shè)計的一種重要方法。機器學(xué)習(xí)中的不透明度,即所謂的“黑匣子”,經(jīng)常被認(rèn)為是透明性的主要障礙之一。因此,需要重新考慮機器學(xué)習(xí)的算法設(shè)計,甚或需要超越深度學(xué)習(xí)模型,創(chuàng)新深度研究模型,開辟算法新天地。
人類道德是普遍的價值觀和行為準(zhǔn)則[24],而價值觀是解釋態(tài)度和行為動機的基礎(chǔ)。技術(shù)與人類之間的作用從根本上說是價值作用,技術(shù)的價值取向是人類應(yīng)用的結(jié)果。能進(jìn)行自主決策的人工智能,無論其能否自我改進(jìn),本身就必然需要一個“價值觀庫”,這是其行為準(zhǔn)則。因此,價值觀是道德人工智能的核心所在。
隨著人工智能在決策和環(huán)境操作方面擁有越來越多的自主權(quán),它必須被設(shè)計成學(xué)習(xí)、采用和遵循所面向群體的道德規(guī)范和價值觀。研究表明,不同文化中的價值觀具有相當(dāng)一致性[25]。這表明人類動機有相似的結(jié)構(gòu)。當(dāng)然,即使價值所表達(dá)的人類動機的類型和結(jié)構(gòu)是普遍的,個人和群體也有著不同的價值“優(yōu)先”或“等級”,考慮順序的差異導(dǎo)致決策和行為的不同。
謝洛姆·施瓦茨(Shalom H.Schwartz)的人類基本價值觀理論是跨文化研究領(lǐng)域的一個重要理論,闡明了價值觀的共同特征及區(qū)別[26]。人類基本價值觀理論的核心為:價值觀形成一個循環(huán)結(jié)構(gòu),反映了每種價值觀所表達(dá)的動機,這種循環(huán)結(jié)構(gòu)涵括了被主要文化認(rèn)可的十種普世價值觀之間的沖突和兼容[25],價值之間具有沖突和一致的動態(tài)關(guān)系。這些價值觀構(gòu)成了更高層次的四個維度:開放、自我提升、保守與自我超越[26]。價值觀可以輕微或強烈地相互對立,這導(dǎo)致價值觀沿著兩極以圓形結(jié)構(gòu)變化。
價值之間動態(tài)關(guān)系的結(jié)構(gòu),表明了追求任何價值的行為都與某些價值沖突但與其他價值一致。施瓦茨的價值觀結(jié)構(gòu)模型為人工智能的價值觀設(shè)定提供了思路。一是價值觀的重要性評級。施瓦茨價值觀調(diào)查問卷(Schwartz Value Survey,SVS)是對價值觀進(jìn)行直接測量,對價值觀的重要性進(jìn)行評分和排序,因此,可以使用權(quán)重來評估和平衡價值觀。二是直接相似性判斷任務(wù)。施瓦茨肖像價值觀問卷(Portrait Values Questionnaire,PVQ)是對價值觀進(jìn)行間接測量,對價值觀的相似性進(jìn)行評分。基于這種人類感知相似性判斷的神經(jīng)基礎(chǔ)可以建立計算模型,比如深度卷積神經(jīng)網(wǎng)絡(luò)(Deep Convolutional Neural Network,DCNN)生成的特征表示。三是群分類。價值觀理論可以預(yù)測價值表達(dá)一致的類行為。四是空間排列?;诙嗑S標(biāo)度(Multi Dimensional Scaling,MDS),價值結(jié)構(gòu)模型將多維空間劃分為包含每個價值項的不同區(qū)域[25]。MDS是人工智能中一種非常有用的利用多維度評估事物的可視化技術(shù)。
這樣,道德人工智能可以通過價值一致性進(jìn)行學(xué)習(xí),根據(jù)元價值來設(shè)定自身價值觀。元價值可使智能代理的道德行為在外部與他人保持一致。
但人工智能的“價值觀”設(shè)定對于開發(fā)者來說仍然有很長的路要走,還需要解決幾個問題:第一,需要建立受人工智能影響的特定群體或個人的價值觀庫,需要確定具體規(guī)范和屬性;第二,規(guī)范具有動態(tài)變化的屬性,這就要求人工智能具有更新和自我改進(jìn)的能力,過程是透明的;第三,在集成到人工智能系統(tǒng)中后,系統(tǒng)可能會有算法偏見并受到多重價值觀的沖突,解決這種沖突需要價值之間的定量加權(quán),因此算法也需要透明。
要開發(fā)出具有道德的人工智能,系統(tǒng)設(shè)計必須考慮道德因素。人工智能需以“負(fù)責(zé)”、“透明”和“學(xué)習(xí)”的方式獲得道德屬性,作出符合倫理道德的決策和行為,并考慮行為后果,同時還需要確保設(shè)計是顯白和透明的,而不是隱含在過程和對象中的。只有這樣,人工智能的目標(biāo)、決策,以及為實現(xiàn)目標(biāo)而采取的行為,才能與人類道德和價值觀相一致。其中,價值敏感設(shè)計、透明度設(shè)計及道德學(xué)習(xí)設(shè)計是開發(fā)道德人工智能的三種重要方法。
理解利益相關(guān)者、任務(wù)和不同用戶群體的價值觀是人機交互的核心任務(wù) 。而將哪些“價值觀”納入設(shè)計中,以及如何將道德理論轉(zhuǎn)移到可操作的技術(shù)手段上,已成為設(shè)計者必須要考慮的問題之一。同時,設(shè)計者在道義上也有責(zé)任創(chuàng)造遵守人類道德價值觀的機器。設(shè)計者的價值觀與設(shè)計過程和結(jié)果密不可分,因此,專家主張在設(shè)計中融合人類價值,對類人機器人采用價值敏感設(shè)計(Value Sensitive Design,VSD)。這可以幫助設(shè)計者在設(shè)計過程中思考其意圖、價值和道德責(zé)任[27]。這種設(shè)計方法超越了工程領(lǐng)域狹窄的倫理價值觀,以包容和形式化的方式將人類價值觀拓展到人工智能的前沿研究。
價值敏感設(shè)計是一種技術(shù)創(chuàng)新方法,旨在以包容和形式化的方式將人類價值納入人工智能系統(tǒng)早期設(shè)計階段。這樣可以平衡廣泛的人類價值觀,被認(rèn)為是解決技術(shù)設(shè)計中融合人類價值觀的比較全面的方法。價值敏感設(shè)計的中心原則是調(diào)查利益相關(guān)者的價值觀,并在早期研發(fā)階段將核心價值觀設(shè)計為具備可操作性的技術(shù)要求。價值敏感設(shè)計需要一個設(shè)計框架來涵蓋價值焦點,尤其是那些具有道德意義的價值觀[28]。這種框架彌合了抽象價值和具體系統(tǒng)之間的差距,目標(biāo)是將價值轉(zhuǎn)化為有形的設(shè)計要求。與人工智能系統(tǒng)設(shè)計特別相關(guān)的是價值的層次結(jié)構(gòu)、一般規(guī)范和更具體的設(shè)計要求或目標(biāo)[29]。價值層次結(jié)構(gòu)提供了規(guī)范的“透明”,描述了價值是如何轉(zhuǎn)化為規(guī)范和需求,從而明確設(shè)計決策。價值的明確結(jié)構(gòu)關(guān)系可以清楚地表明,在給定情景下,哪個目標(biāo)算作規(guī)范,哪個算作價值。
價值敏感設(shè)計采取迭代設(shè)計過程,不斷加以調(diào)整和持續(xù)評估,一般包含概念查驗、實證查驗和技術(shù)查驗三個階段和多個步驟(參見圖1)。
圖1 價值敏感設(shè)計步驟示意圖
價值敏感設(shè)計的目的是通過對各種來源和利益相關(guān)者的徹底調(diào)查,可以將各種設(shè)計要求轉(zhuǎn)化為一組共同的固定價值,并且將明確的價值轉(zhuǎn)化為設(shè)計。這種設(shè)計原型在日常生活和教育中隨處可見,是人們在做重要決定時經(jīng)常使用的一種流程。例如,在高考志愿選擇中,我們會思考對志愿的未來預(yù)期、志愿的選擇都會影響到誰、父母親友對自己的希望、自己讀書的付出,并且上網(wǎng)查閱各種資料加以權(quán)衡,參加高校招生現(xiàn)場咨詢,還要考慮一旦作出最終選擇,有哪些資源可以有助于順利完成學(xué)業(yè)和找到工作。但這種熟悉的流程在系統(tǒng)設(shè)計中卻常常被忽略。
從本質(zhì)上來說,價值敏感設(shè)計的重點是對影響一項技術(shù)的不同利益相關(guān)者的價值問題進(jìn)行解釋,并將其作為設(shè)計過程中的目標(biāo)和約束來嵌入。
對于在人類社會中運作的人工智能來說,從執(zhí)行過程到人機交互中所做出的道德決策,都需要高度可解釋性和可觀察性。道義論基于規(guī)則的推理機制對于提高系統(tǒng)透明度有突出優(yōu)勢。
(1)保持“透明”的方式
讓人工智能系統(tǒng)“透明”并不容易。透明度可以發(fā)生在多個級別,以及面向多個利益相關(guān)者,但對各方保持透明有諸多條件限制,比如在隱私或安全方面[30]。一般來說,人工智能的系統(tǒng)設(shè)計通過這四種方式保持透明:可追溯性、可驗證性、忠實設(shè)計和可理解性。
第一,作為可追溯性的透明度。與“透明”密切相關(guān)的是人工智能系統(tǒng)設(shè)計和執(zhí)行過程的透明度。如果系統(tǒng)允許從最初確定的規(guī)范追溯到最終系統(tǒng),可以對已經(jīng)實施的規(guī)范、環(huán)境以及方式進(jìn)行技術(shù)檢查,那么這個系統(tǒng)從設(shè)計到執(zhí)行過程都是完全“透明”的。執(zhí)行過程中的透明度也可能揭示出系統(tǒng)無意形成的偏見,如搜索引擎或資源推薦算法中隱藏的種族主義或性別歧視等[31]。而這種可追溯性反過來又校準(zhǔn)了人們對人工智能是否符合與其使用環(huán)境相關(guān)的規(guī)范和價值的信任。
第二,作為可驗證性的透明度。驗證系統(tǒng)做出的規(guī)范性決定是否符合所需的規(guī)范和價值觀,對于執(zhí)行中處理規(guī)范性推理的透明度非常重要。這些規(guī)范性決策的明確和準(zhǔn)確的表述可以為一系列強有力的數(shù)學(xué)技術(shù)提供基礎(chǔ),例如形式驗證[32]。即使一個系統(tǒng)不能用可理解的人類術(shù)語來解釋每一個推理步驟,道德推理日志也應(yīng)該可以用于評估。
第三,作為忠實設(shè)計的透明度。忠實設(shè)計指的是不會使產(chǎn)品比實際更創(chuàng)新、更強大或更有價值的設(shè)計。理查德·梅森(Richard O Mason)認(rèn)為道德標(biāo)準(zhǔn)應(yīng)成為設(shè)計者與用戶關(guān)系的基礎(chǔ),主張設(shè)計模型必須忠實于現(xiàn)實和用戶價值觀這兩個方面[33]。人工智能的忠實設(shè)計是其透明度的一個方面,因為它允許用戶“看穿”外表從而準(zhǔn)確推斷人工智能的實際能力。因此,對設(shè)計透明度的要求,讓設(shè)計者有責(zé)任不用無法兌現(xiàn)的承諾來誤導(dǎo)用戶。
第四,作為可理解性的透明度。人類希望能理解人工智能的決定和行動,尤其是道德上有意義的決定和行動。對于符合道德規(guī)范的人工智能,可理解性就是,當(dāng)被審查時,系統(tǒng)能夠解釋道德推理,并且系統(tǒng)應(yīng)該在普通人類推理的水平上進(jìn)行,而不是描述不可理解的技術(shù)細(xì)節(jié)。此外,當(dāng)系統(tǒng)不能解釋某些行為時,技術(shù)人員或設(shè)計人員應(yīng)該能夠使這些行為變得容易理解。
(2)保持“透明”的方法
如前所述,人工智能必須具備高度可解釋性和可觀察性,這也是其保持“透明”的方法。該方法包含兩個階段(參見圖2):
圖2 “透明度”設(shè)計方法示意圖
一是解釋階段。解釋階段是將道德原則和價值觀轉(zhuǎn)化為明確而結(jié)構(gòu)化的設(shè)計要求的過程。里面是一種雙向關(guān)系,其中自上而下的關(guān)系被認(rèn)為是規(guī)范關(guān)系(基于道義論),它描述了如何將較高層的元素轉(zhuǎn)換成較低層的概念。規(guī)范關(guān)系過程,包含兩個步驟:其一,將抽象的價值轉(zhuǎn)換為足夠全面的具體規(guī)范,在這種情況下,實現(xiàn)規(guī)范就被視為是遵循或堅持了道德原則和價值觀;其二,將規(guī)范具體化為明確的系統(tǒng)需求。
而自下而上的關(guān)系被視為目的關(guān)系,這將設(shè)計要求之類的較低層元素與一般規(guī)范和價值之類的較高層元素聯(lián)系起來。解釋階段定義了系統(tǒng)最終構(gòu)建的方式。最低層次由只與智能系統(tǒng)輸入輸出相關(guān)的具有某種顆粒度的具體要求組成,中間級別由趨于抽象的規(guī)范組成,最高層次由價值組成。這種層次結(jié)構(gòu)為系統(tǒng)提供了高水平的透明度,可以精確解釋系統(tǒng)是如何以及在哪里遵循某種道德或某個價值。
二是觀察階段。觀察分析包含智能系統(tǒng)的輸入類型、信息處理方式、輸出方式,以及與設(shè)計層面的比較驗證;需要詳細(xì)說明輸入和輸出方式,以及轉(zhuǎn)換算法;在算法層面定義一套詳細(xì)的信息處理流程,解決在計算層面描述的信息處理問題;最后將行為結(jié)果與設(shè)計層面的規(guī)范和價值對比驗證。有研究提出,系統(tǒng)行為的透明需要滿足兩個條件:其一,可驗證性,在給定所需時間和資源的情況下,底層規(guī)范必須允許驗證;其二可追蹤性,即可以在任何時候快速檢查系統(tǒng)功能是否符合規(guī)范[34]。
因此,在觀察階段通過研究系統(tǒng)與要求的一致性,使用包括形式驗證、模擬或監(jiān)控等不同方法,可以評估系統(tǒng)行為,判斷價值是否符合系統(tǒng)評估。但是,系統(tǒng)內(nèi)部并不總是允許訪問。而通過監(jiān)視輸入和輸出,可以在不了解被觀察系統(tǒng)內(nèi)部機制的情況下實現(xiàn)觀察行為??傊捎谙到y(tǒng)、價值和規(guī)范也在動態(tài)變化,對設(shè)計需求及實現(xiàn)過程檢查的計算處理是一大挑戰(zhàn)。還有一個挑戰(zhàn)就是確定“透明度”所需的顆粒度。過于粗略可能會限制許多潛在的適應(yīng)性行為,而過于詳細(xì)的顆粒度則會限制人工智能系統(tǒng)的適應(yīng)性。
道德學(xué)習(xí)設(shè)計是一種“自下而上”的道德人工智能設(shè)計方法(比如深度神經(jīng)學(xué)習(xí)網(wǎng)絡(luò))[18]。根據(jù)亞里士多德的立場,不能將道德作為聲明性的一般法律和規(guī)則進(jìn)行編程,而必須通過與環(huán)境互動的經(jīng)驗來學(xué)習(xí),這種經(jīng)驗必須來自實踐本身。因此,道德學(xué)習(xí)設(shè)計方法不需要預(yù)先確定道德理論、道德原則或規(guī)則集,而是制定基本參數(shù),以目標(biāo)為導(dǎo)向,人工智能通過自主學(xué)習(xí)成為道德主體,以試錯法等學(xué)習(xí)模式來完成模仿、歸納、演繹、探索、聯(lián)想和調(diào)節(jié)等學(xué)習(xí)過程,不斷積累經(jīng)驗。發(fā)展道德人工智能集中在整個認(rèn)知系統(tǒng)上,包括感知和行動部分,來達(dá)到最佳目標(biāo)。與后果論不同的是,最佳目標(biāo)不是后果,而是對美好生活最有利的東西,這種差異決定了基于美德論的機器學(xué)習(xí)系統(tǒng)獎勵信號的定義。由于這種方法是基于目標(biāo)導(dǎo)向行為和選擇的綜合,因此對于構(gòu)建道德人工智能而言,主要問題在于:自下而上的道德學(xué)習(xí)設(shè)計如何影響系統(tǒng)的總體道德屬性?
道德學(xué)習(xí)設(shè)計方法有進(jìn)化模式(models of evolution)[35]和人類社會化模式(models of human socialization)[36]兩種。進(jìn)化模式是通過機器學(xué)習(xí)積累經(jīng)驗,從而模擬人類的道德學(xué)習(xí)過程。那些有效解決道德問題的策略可以進(jìn)入下一步,進(jìn)行重新組合以解決進(jìn)一步的道德任務(wù)。人類社會化模式則考慮了移情和情感在道德學(xué)習(xí)中的作用,這構(gòu)成了類似兒童前社會行為的基礎(chǔ)。但人類社會化模式的研究還較少。
進(jìn)化模式是一種通用的機器道德快速學(xué)習(xí)框架,目的是解決人工智能在沖突和不穩(wěn)定環(huán)境中的適應(yīng)問題。其中,何塞·卡斯特羅(Jose Castro)提出的測量邏輯機器模型(Measurement Logic Machine)較有代表性[37]。進(jìn)化模式的道德學(xué)習(xí)設(shè)計方法如圖3所示。
圖3 進(jìn)化模式的道德學(xué)習(xí)設(shè)計方法示意圖(注:改編自卡斯特羅MLM[38])
感知是一種使模型與外部世界保持一致的方法,進(jìn)化模式假定傳感器將外部世界與自身內(nèi)部分隔開來。通過傳感器測量外部世界,其自身行為在內(nèi)部進(jìn)行測量,短時存儲(short-term memory,STM)匯聚了內(nèi)外測量。最近一次測量的序列會在STM中不斷更新,在將STM轉(zhuǎn)到長時存儲(long-term memory,LTM)時,進(jìn)化模式積累了經(jīng)驗并根據(jù)當(dāng)前序列和過去序列匹配的情況,將LTM用于生成預(yù)測和策略。通過將提供正確預(yù)測的序列逐漸移到LTM的頂部,降低錯誤預(yù)測序列,并刪除低于某種標(biāo)記的序列,可以使預(yù)測趨于可靠。而預(yù)測要有價值,必須可靠,這也是在行為之前采取“過濾”步驟的原因。
進(jìn)化模式的內(nèi)部測量定義機器的道德品質(zhì),給機器每個可能行為分配從低到高不同等級的“好”“壞”評估。內(nèi)部測量會導(dǎo)致篩選和過濾預(yù)測,這是智能代理道德行為的必要條件,過濾后的預(yù)測會產(chǎn)生被外部觀察者視為符合倫理道德的行為。
進(jìn)化模式的機器學(xué)習(xí)速度很快,因為它堅持所發(fā)現(xiàn)的第一個可靠且結(jié)果“良好”的預(yù)測,而無需關(guān)注優(yōu)化。其在LTM中積累由內(nèi)部測量產(chǎn)生的經(jīng)驗,以逐漸產(chǎn)生非隨機行為。但以空白LTM開始的初始隨機探索將極大地影響后續(xù)行為,同時系統(tǒng)也受到物理特性的限制。對于進(jìn)化模式的研究,除了智能代理個體外,還可以通過實行針對給定問題足夠充分的內(nèi)部評估,將多個代理置于進(jìn)化環(huán)境中。
在道德學(xué)習(xí)設(shè)計中,道德學(xué)習(xí)過程發(fā)生的環(huán)境與使用模擬環(huán)境之間的差異被稱為訓(xùn)練數(shù)據(jù)與測試數(shù)據(jù)之間的偏差。為了最大程度地降低這種偏差,系統(tǒng)必須在現(xiàn)實世界中學(xué)習(xí)。訓(xùn)練階段的體驗需要提供盡可能多樣的樣本,機器才能更好地去概括學(xué)習(xí)模型。機器學(xué)習(xí)必須經(jīng)過很長時間的學(xué)習(xí)才能獲得針對某些情況的穩(wěn)定策略,但對道德某些情況的模擬仍然是訓(xùn)練機器而不產(chǎn)生實際傷害的最佳選擇。某種程度上,學(xué)習(xí)道德行為常常伴隨著道德失敗,因此需要評估在自主機器中允許道德學(xué)習(xí)曲線的潛在風(fēng)險,自下而上的道德學(xué)習(xí)設(shè)計方法尤其需要特別關(guān)注這一點。
美德論可能是獲得道德屬性的最好模型。美德論并不認(rèn)為道德行為是規(guī)則或后果的結(jié)果。良好的行為源于良好的品格,強調(diào)培養(yǎng)良好品格或習(xí)慣的重要性。美德論將品格的發(fā)展視為緩慢的學(xué)習(xí)過程。盡管美德是通過經(jīng)驗和習(xí)慣從下而上獲得的,但獲得美德后就可以自上而下進(jìn)行評估。
上述三種道德設(shè)計方法各有其優(yōu)勢和局限。人類道德具有由進(jìn)化和學(xué)習(xí)形成的自下而上的機制,又具有理論驅(qū)動的推理能力的自上而下的機制。因此,道德人工智能可能需要進(jìn)行類似的融合,由多道德智能代理組成。原則上可以利用模塊化和混合式方法來構(gòu)建人工智能系統(tǒng)。
實現(xiàn)有“道德”的人工智能是一個復(fù)雜的系統(tǒng)工程。人工智能要成為“可信任”和“負(fù)責(zé)任”的人類同伴,就必須在道德理論基礎(chǔ)和預(yù)期價值方面和人類保持廣泛的一致性。
許多道德理論都有這方面的潛力。人工智能整合多種道德理論,通過機器學(xué)習(xí)及多道德智能代理等,可能會產(chǎn)生一個比任何個人更好的道德體系。比如,因為個人犯下的特殊道德錯誤在整合中被標(biāo)記,而且機器學(xué)習(xí)可以從訓(xùn)練集中發(fā)現(xiàn)人類道德的偏見和局限,還可以識別人類以前沒有意識到的道德決策的一般原則,這可以用來提高人類的道德直覺。目前道德人工智能還處于初級階段,多用于特定領(lǐng)域。未來將道德推理由程序員轉(zhuǎn)移到智能系統(tǒng)自主進(jìn)行,從而創(chuàng)造出通用的具有人類水平的道德人工智能,是完全可以預(yù)見和充滿希望的。