●
隨著人工智能技術(shù)的發(fā)展,智能的類人機(jī)器人很有可能在不遠(yuǎn)的將來出現(xiàn)在人類社會中。而它們是否真正具有人的智能,是否真正能夠像人類那樣思考,這還有賴于哲學(xué)層面的探討。但可以肯定的是,它們將能通過英國計(jì)算機(jī)科學(xué)家、數(shù)學(xué)家、邏輯學(xué)家圖靈所提出的人工智慧測試法(圖靈測試法)——也就是說,如果機(jī)器人可以成功誘導(dǎo)和它們對話的人類把它們當(dāng)作人類來看待,那么它們就可以被認(rèn)證為具有智能。也許有一天,智能機(jī)器人將廣泛成為我們社會中的成員,它們會主動(dòng)分擔(dān)我們的工作,照顧我們的老人,在酒店和賓館為我們服務(wù),在導(dǎo)航、軍事甚至醫(yī)療領(lǐng)域替我們做重要的決定。我們是否應(yīng)該為這些機(jī)器人配置道德準(zhǔn)則,教導(dǎo)他們辨明是非?如果回答是肯定的,那么怎樣的道德準(zhǔn)則才能夠塑造出合乎人類社會期許的人工道德主體(artificial moral agents)?
眾多人工智能設(shè)計(jì)者樂觀地認(rèn)為,人工道德主體的發(fā)展總有一天會獲得成功。在此前提之下,本文探究將儒家倫理準(zhǔn)則植入人工智能機(jī)器人是否可以造就能跟人類和平共存的人工道德主體。本文通過援引儒家經(jīng)典《論語》,來思考哪些倫理規(guī)則可被納入機(jī)器人道德。同時(shí)本文也將儒家型人工道德主體對比以康德道德準(zhǔn)則和以功利主義準(zhǔn)則建立的人工道德主體,考察它們各自的優(yōu)劣之處。本文認(rèn)為,盡管機(jī)器人并不具備人類所固有的道德情感,如孟子所捍衛(wèi)的“四端”,但我們能夠借由儒家所強(qiáng)調(diào)的道德準(zhǔn)則來構(gòu)建機(jī)器人,使它們成為我們可以認(rèn)可的道德主體。
對人工智能道德準(zhǔn)則的探究不是僅僅作為未來主義的腦力激蕩。M.安德森(M. Anderson)和S.安德森(S. Anderson)認(rèn)為 :“機(jī)器倫理學(xué)讓倫理學(xué)達(dá)到前所未有的精細(xì)程度,可以引領(lǐng)我們發(fā)現(xiàn)當(dāng)下倫理學(xué)理論中的問題,從而推進(jìn)我們對一般倫理學(xué)問題的思考。”[注]Michael Anderson & Susan Leigh Anderson, “Machine Ethics,” IEEE Intelligent Systems, 2006, 21 (4) :11.本文將證明 :對于機(jī)器人道德的比較研究,可以讓我們看到討論人類倫理的一些理論瑕疵。
讓機(jī)器人預(yù)先考量行為后果,然后自行做出系統(tǒng)性的道德選擇,這一點(diǎn)在目前看來依然遙不可及。然而,現(xiàn)今在人工智能機(jī)器的設(shè)計(jì)上已經(jīng)存在專門為機(jī)器做具體選擇而設(shè)計(jì)的指導(dǎo)原則,因?yàn)闄C(jī)器的一些抉擇會帶來許多道德后果。比如,我們可以對軍用無人機(jī)進(jìn)行編制,要是它偵測到在軍事目標(biāo)周邊地區(qū)有許多平民存在,是應(yīng)該立刻停止攻擊還是持續(xù)發(fā)動(dòng)攻擊。我們也可以對醫(yī)療機(jī)器人進(jìn)行編制,當(dāng)病人已經(jīng)進(jìn)入重癥末期而有突發(fā)情況,是讓它實(shí)施援救措施還是放棄進(jìn)一步的治療。托肯斯(Ryan Tonkens)認(rèn)為 :“自動(dòng)機(jī)器會像人類那樣做出與道德相關(guān)的行為,因此,為慎重起見,我們的設(shè)計(jì)必須保證它們以合乎道德的方式來行動(dòng)?!盵注]Ryan Tonkens, “A Challenge for Machine Ethics,” Mind &Machines, 2009,19(3) : 422.因此,即使暫時(shí)還造不出“有道德的機(jī)器”,我們也必須考慮機(jī)器倫理。此外,我們所制定的機(jī)器倫理的版本,要能夠適用于未來的機(jī)器道德思考主體,而非僅僅應(yīng)用于機(jī)器人的設(shè)計(jì)程序。也就是說,機(jī)器倫理關(guān)心如何將道德準(zhǔn)則應(yīng)用于“人工道德主體”,而不是其設(shè)計(jì)者。
目前設(shè)計(jì)人工智慧機(jī)器有兩種截然不同的進(jìn)路,一種是“自下而上”,另一種是“自上而下”。[注]當(dāng)然也有將這兩種進(jìn)路結(jié)合起來的方法。前者是讓機(jī)器從日常選擇所使用的零碎規(guī)則中逐漸發(fā)展出自己的道德準(zhǔn)則。設(shè)計(jì)者賦予機(jī)器一種處理匯總信息的學(xué)習(xí)能力,這些信息是機(jī)器在不同的情境下,對由自己的行動(dòng)所產(chǎn)生的結(jié)果的匯總。為了讓機(jī)器形成某種行為模式,設(shè)計(jì)者可以建立一個(gè)獎(jiǎng)勵(lì)系統(tǒng),鼓勵(lì)機(jī)器采取某些行為。這樣一種反饋機(jī)制能夠促使機(jī)器及時(shí)發(fā)展出自己的倫理準(zhǔn)則。此種進(jìn)路類似于人類在童年時(shí)期形成道德品性的學(xué)習(xí)經(jīng)驗(yàn)。相比之下,“自上而下”的進(jìn)路則是在機(jī)器身上植入能夠控制其日常選擇與行為的一般抽象的倫理規(guī)則。如果走這種進(jìn)路,設(shè)計(jì)者首先必須選擇一種倫理理論,分析“在計(jì)算機(jī)系統(tǒng)中執(zhí)行該理論所必需的信息和總體程序要求”,然后才設(shè)計(jì)執(zhí)行倫理理論的子系統(tǒng)。[注]Wendell Wallach & Collin Allen, Moral Machines : Teaching Robots Right from Wrong, New York : Oxford University Press, 2009, p.80.不過,即使有預(yù)置設(shè)計(jì),機(jī)器在每個(gè)道德情境中還是需要根據(jù)倫理原則程序,通過推演來選擇最佳的行動(dòng)方案。這種由上而下的設(shè)計(jì)方式將會反映出規(guī)范倫理學(xué)內(nèi)部的爭論,因?yàn)椴煌膫惱砝碚摃圃斐鲆罁?jù)不同的道德準(zhǔn)則而思維的人工道德主體。本文將比較這一研究進(jìn)路中不同的理論模型,而不考慮執(zhí)行過程所需要的實(shí)際算法、設(shè)計(jì)要求以及其他技術(shù)問題。
根據(jù)M.安德森和S.安德森的觀點(diǎn),機(jī)器倫理學(xué)的目標(biāo)在于明確地定義抽象普遍的道德原則,使得人工智能在選擇或是思考自身行為的正當(dāng)性時(shí)可以訴諸這些原則。[注]Michael Anderson & Susan Leigh Anderson, “Machine Ethics : Creating an Ethical Intelligent Agent,” AI Magazine, 2007,28(4) :15-25.他們認(rèn)為我們不可能為每一種可能發(fā)生的情形制定具體的規(guī)則?!盀闄C(jī)器設(shè)計(jì)抽象普遍的道德原則,而不是在每一個(gè)特定的情境中制定機(jī)器如何做出正確的行動(dòng),好處在于機(jī)器能夠在新情境,甚至新領(lǐng)域中做出正確的行動(dòng)?!盵注]Michael Anderson & Susan Leigh Anderson, “Machine Ethics : Creating an Ethical Intelligent Agent,” p.17.易言之,我們希望人工智能夠真正成為人工道德主體,有自己的道德原則,同時(shí)基于這些原則做出道德考量,用這些原則建立自身行為的正當(dāng)性。因此,機(jī)器倫理學(xué)中至關(guān)重要的一步,就是選擇一組能夠植入人工智能的道德原則。
鑒于我們目前還沒有真正有自主性、有意向性的機(jī)器人,對于它們在某種情境會如何行動(dòng)依然還是一種未來的假想,因此我們可以暫借人類倫理討論中的思想實(shí)驗(yàn)來討論不同的倫理原則會造成怎樣的倫理選擇。這個(gè)思想實(shí)驗(yàn)即是著名的電車難題。
標(biāo)準(zhǔn)版電車難題 :
有一輛失控的電車正沿著軌道疾馳,在其前方的軌道上有五人來不及躲避。機(jī)器人安檢員(或司機(jī))可以對此進(jìn)行干預(yù) :拉動(dòng)一個(gè)操作桿,把電車變換到另一軌道上。然而,另一條軌道上也有一個(gè)人。這里面臨的選擇是,犧牲一個(gè)人去救另五個(gè)人,還是不犧牲這個(gè)人而聽?wèi){那五人死去。機(jī)器人安檢員或司機(jī)是否應(yīng)該操作拉桿來制止災(zāi)難,還是應(yīng)該什么也不做?
天橋版電車難題 :
機(jī)器人安檢員正站在電車軌道之上的天橋觀察電車交通情況。它看到橋下的電車正沿著有五人滯留的軌道疾馳,必須立即采取行動(dòng)干預(yù)。而在天橋上,機(jī)器人安檢員旁邊有一位身材魁梧的男子,他也注意到了同樣的情況。如果機(jī)器人把該男子推到軌道上以擋住電車,那五個(gè)人就可能免于一死,但是這男子則必死無疑。機(jī)器人應(yīng)當(dāng)這樣做嗎?
面對這兩種兩難困境,道德主體必須做決定,是認(rèn)為“拯救五個(gè)人的行為是不允許的,因?yàn)檫@一舉動(dòng)會造成傷害”,還是認(rèn)為“這一舉動(dòng)是被允許的,因?yàn)檫@一傷害只是行善導(dǎo)致的一種副作用”[注]Deng Beor, “Machine Ethics : The Robot’s Dilemma,” Nature, 2015,523(7558) :24-26, DOI : 10.1038/523024a.。實(shí)驗(yàn)表明,人們在電車難題中通常會選擇犧牲一人去拯救另五人,卻不會選擇犧牲天橋上的男子去營救軌道上的另五人。在實(shí)驗(yàn)者看來 :“這給心理學(xué)家出了一道難題 :盡管在這兩種情境之間很難找到真正合理的差別點(diǎn),但究竟是什么原因使得幾乎每個(gè)人在電車難題上都選擇犧牲一人去拯救另五人,而在天橋難題中卻未選擇這么做?”[注]Joshua D. Greene, et al., “An fMRI Investigation of Emotional Engagement in Moral Judgment,” Science, 2001,293(5537) :2106.現(xiàn)在我們以這兩種情境作為我們的測試場景,來思考設(shè)計(jì)人工智能的不同倫理學(xué)模型各自會有的后果。
就人類的道德情境而言,電車難題看起來似乎有些夸張而且不切實(shí)際;然而,在人工道德主體的考量上,機(jī)器倫理有可能出現(xiàn)類似的問題。我們不妨設(shè)想未來的特斯拉(Tesla)汽車在自動(dòng)駕駛決定上加了一條主導(dǎo)的道德原則 :如果傷害到人類是個(gè)不可避免的結(jié)果,那么,抉擇必須以盡量減少傷害的人數(shù)為第一原則。[注]這類例子在自動(dòng)駕駛或無人駕駛汽車中不勝枚舉??蓞⒁奐ean-Fran?ois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” Science, 2016,352(6239) :1573-1576, DOI : 10.1126/science,aaf2654;Deng Beor, “Machine Ethics : The Robot’s Dilemma,” Nature, 2015,523(7558) :24-26, DOI : 10.1038/523024a;Larry Greenemeier, “Driverless Cars will Face Moral Dilemmas,” Scientific American, June 23,2016 (https ://www.scientificamerican.com/article/driverlesscars-will-face-moral-dilemmas);William Herkewitz, “The Self-driving Dilemma : Should Your Car Kill You to Save Others?”, Popular Mechanics, June 23,2016 (http ://www.popularmechanics.com/cars/a21492/the-self-driving-dilemma)。如果一輛載滿學(xué)生的校車突然失控沖向一輛特斯拉汽車,而特斯拉汽車無法及時(shí)停車避免相撞,這輛特斯拉汽車應(yīng)該冒著司機(jī)的生命危險(xiǎn)而轉(zhuǎn)向去撞路中間的隔離帶呢,還是應(yīng)該繼續(xù)前行聽?wèi){兩車相沖撞呢?如果特斯拉的道德考量可能最終會犧牲它的駕駛?cè)耍且苍S就沒人愿意購買一輛特斯拉了。這種預(yù)想情況和電車難題有些類似。在設(shè)計(jì)機(jī)器人的道德主體方面我們還可以設(shè)想其他很多跟電車難題類似的情形。因此,電車難題可以用來檢測我們的機(jī)器倫理。
“自上而下”機(jī)器倫理設(shè)計(jì)方向一個(gè)很好的范例就是阿西莫夫(Isaac Asimov)于1942年提出的機(jī)器人三大定律[注]阿西莫夫1942年的科幻小說《轉(zhuǎn)圈圈》(Run around)中首次引入三大定律。瓦拉赫(Wendell Wallach)和艾倫(Colin Allen)認(rèn)為 :“任何討論‘自上而下’式的機(jī)器人道德設(shè)計(jì)不能不談阿西莫夫三大定律?!币奧endell Wallach & Colin Allen, Moral Machines : Teaching Robots Right from Wrong, p.91。:
[A1]機(jī)器人不能以其行動(dòng)傷害人,或因不作為而使得人受到傷害。
[A2]在不違反第一條定律的前提之下,機(jī)器人必須絕對服從人類給予的任何命令。
[A3]在不違反第一和第二定律的前提之下,機(jī)器人必須盡力保存自己的存在。
阿西莫夫后來追加了一條第零定律,優(yōu)先于以上三條定律 :
[A0]機(jī)器人不得傷害人類整體,或因不作為使人類整體受到傷害。[注]Wendell Wallach & Colin Allen, Moral Machines : Teaching Robots Right from Wrong, p.91.
第一定律與第零定律之間的區(qū)別在于,前者關(guān)注人類個(gè)體,而后者關(guān)注人類整體。第零定律優(yōu)先于第一定律,這就意味著 :為了保護(hù)人類整體,機(jī)器人可以傷害人類個(gè)體。科幻小說中有運(yùn)用第零定律的例子 :如果某些人類個(gè)體攜帶足以使人類滅亡的致命性傳染病毒,那么機(jī)器人就有義務(wù)消滅這些個(gè)體。這個(gè)道德原則表面上看來很有道理,然而,在實(shí)際應(yīng)用上則是極度有問題的,因?yàn)槿祟愓w這個(gè)概念作為道德理念極為抽象,在人類歷史上這個(gè)概念曾被用來作為很多邪惡行徑的借口,比如納粹分子以改良人種而殘害猶太民族,或是其他以改良人類整體為名的種族屠殺。因此,第零定律作為最高級別的機(jī)器人定律完全有可能廢除阿西莫夫三大定律。
用阿西莫夫三大定律來處理電車難題也顯然捉襟見肘。在標(biāo)準(zhǔn)版電車難題中,第一定律禁止機(jī)器人拉動(dòng)拉桿,因?yàn)檫@會傷害到另一軌道上的人;但該定律也不容許機(jī)器人袖手旁觀,因?yàn)樗牟蛔鳛闀?dǎo)致軌道上的五人受到傷害。在天橋版中,機(jī)器人將胖男子推下橋的行為是絕對禁止的,因?yàn)檫@直接傷害了人類;但與此同時(shí),明明可以推下男子攔停電車,而機(jī)器人卻袖手旁觀,這就違背了第一定律的后半句要求。無論如何,這個(gè)機(jī)器人會處于沒有道德引導(dǎo)的盲目狀態(tài)。溫菲爾德(Alan Winfield)等人曾進(jìn)行過一系列試驗(yàn),試驗(yàn)中的“阿西莫夫機(jī)器人”肩負(fù)著救人的重任。試驗(yàn)設(shè)計(jì)了三種不同的情景。第一種情景只放置了“阿西莫夫機(jī)器人”,而它的任務(wù)只是保護(hù)自己。這時(shí)“阿西莫夫機(jī)器人”可以百分之百保證自己不掉入坑里。第二種情景增加了代表人類的機(jī)器人H,而第三種情景則包含了兩個(gè)代表人類的機(jī)器人H和機(jī)器人H2。在只有一個(gè)人類的情景中,阿西莫夫機(jī)器人可以成功地完成自己的任務(wù)。然而,如果(機(jī)器人H和機(jī)器人H2所代表的)兩個(gè)人類面臨掉進(jìn)坑中的危險(xiǎn),那么在近一半的嘗試中,“阿西莫夫機(jī)器人躊躇無助,結(jié)果兩個(gè)‘人類’都命歸黃泉”。[注]Deng Beor, “Machine Ethics : The Robot’s Delimma,” pp.24-26.溫菲爾德等人相信,他們所設(shè)計(jì)的這個(gè)試驗(yàn)非常契合阿西莫夫的第一定律。[注]Alan F. T. Winfield, et al., “Towards an Ethical Robot : Internal Models, Consequences, and Ethical Action Selection,” Advances in Autonomous Robotics Systems, 15th Annual Conference, TAROS 2014, Birmingham, UK, September 1-3,2014, Proceedings, Springer, 2014, pp.85-96.因此,阿西莫夫機(jī)器人的失敗,表明阿西莫夫定律不足以處理較為復(fù)雜的道德情境。為了解決這個(gè)問題,我們需要引入其他規(guī)則來指導(dǎo)機(jī)器人如何在道德困境中做出正確的選擇。
在討論人類倫理規(guī)范的種種理論中,除了規(guī)范性道德原則的走向之外,還有品德倫理學(xué)、關(guān)懷倫理學(xué)的種種提案,對人類規(guī)范性道德來說,這也許是目前更普遍被接受的理路。但是機(jī)器人是否可以具有道德品德、道德情懷,或是如何建造有品德、有情感的機(jī)器人,都是很有困難也非常容易引起質(zhì)疑的議題。因此我們姑且不談。在討論機(jī)器人道德準(zhǔn)則的文獻(xiàn)中,康德倫理學(xué)或功利主義倫理學(xué)是最主要的范本。我們不妨對此二者進(jìn)行一番考察。在討論這兩種道德準(zhǔn)則時(shí),我們也不是討論整個(gè)康德道德哲學(xué)或是功利主義的各個(gè)層面,而是專就其理論中的道德準(zhǔn)則運(yùn)用在機(jī)器倫理建構(gòu)的后果作比較研究。
機(jī)器倫理學(xué)中主導(dǎo)的倫理模型之一,便是康德的道德哲學(xué)。許多機(jī)器倫理學(xué)家認(rèn)為康德的道德理論提供了一個(gè)可以讓“我們把倫理學(xué)成功應(yīng)用于自主機(jī)器人的最好機(jī)會”[注]Ryan Tonkens, “A Challenge for Machine Ethics,” p.422.??档碌囊?guī)范倫理學(xué)是一種義務(wù)論,它在進(jìn)行道德判斷時(shí)訴諸人的責(zé)任感而非情感?!柏?zé)任是種規(guī)則或律令,與之相伴的是我們在進(jìn)行選擇時(shí)所感到的約束或動(dòng)因?!盵注]Robert Johnson & Adam Cureton, “Kant’s Moral Philosophy,” The Stanford Encyclopedia of Philosophy, Edward N. Zalta (ed.), Fall, 2017 (https ://plato.stanford.edu/archives/fall2017/entries/kantmoral) .我們不難理解為什么機(jī)器人倫理學(xué)自然會選擇康德道德哲學(xué) :對于康德來說,人類的自身利益、欲望、自然傾向,以及諸如榮譽(yù)感、同情感與憐憫感之類的道德情感,這些都完全沒有道德價(jià)值??档抡J(rèn)為,即使某人在向其周圍傳播幸福時(shí)找到了自己內(nèi)心的喜悅,并且在別人對自己的工作表示滿意時(shí)而感到欣喜,無論上述行為多么正確或令人喜愛,它“依然沒有真正的道德價(jià)值”[注]Immanuel Kant, Grounding for the Metaphysics of Morals(1785), 3rd Edition, trans. James W. Ellington, Indianapolis : Hackett Publishing Company, 1993, p.11.(中譯參考了康德 :《道德形而上學(xué)的奠基》,《康德著作全集》第4卷,李秋零譯,北京 :中國人民大學(xué)出版社,2005年,第405頁?!g者注)。真正的道德行動(dòng)必須純?nèi)灰罁?jù)理性存在者的責(zé)任感。由于缺少感性,不會受到人類情緒和欲望的干擾,機(jī)器人將成為實(shí)現(xiàn)康德純粹理性的道德模式的理想對象。
康德的第一條絕對律令表述如下 :
[D1]我應(yīng)當(dāng)永遠(yuǎn)不會行動(dòng),除非以這樣的方式,即我的行為準(zhǔn)則將成為普遍法則。[注]康德《實(shí)踐理性批判》的表述如下 :“要這樣行動(dòng),使得你的意志的準(zhǔn)則在任何時(shí)候都能同時(shí)被視為一種普遍的立法原則?!眳⒁娍档?:《實(shí)踐理性批判》,李秋零譯,北京 :中國人民大學(xué)出版社,2007年,第29頁?!g者注[另一個(gè)版本 :行為的準(zhǔn)則必須是在選擇當(dāng)下行為準(zhǔn)則時(shí),同時(shí)認(rèn)知這個(gè)行為準(zhǔn)則可以成為普遍法則。]
準(zhǔn)則是一個(gè)人的主觀意志原則,而普遍法則是一種本質(zhì)上約束著一切理性存在者的道德律??档碌摹敖^對律令”基于以下假設(shè) :個(gè)人的道德抉擇不是當(dāng)下的意氣用事,而是在對當(dāng)下特定情境進(jìn)行思量考慮后的結(jié)果,人類的道德選擇是伴隨著對特定情境的考量出現(xiàn)的,且這一考量與個(gè)人在處理臨時(shí)情況時(shí)所采用的個(gè)人原則相一致。也就是說,個(gè)人的道德抉擇是個(gè)理性的過程,而理性的第一條件就是一致性(矛盾是缺乏理性的一個(gè)表征)。康德的“絕對律令”將個(gè)人的主觀意志原則與普遍法則結(jié)合,不僅要求個(gè)人的內(nèi)在一致性(intrapersonal consistency),同時(shí)要求人與人之間的同一性(interpersonal agreement)。這一絕對律令的作用就像一條禁令 :不要選擇不能普遍化的主觀意志原則,不要做出違背普遍法則的行為,比如因遭遇不幸而自殺,明知不能依諾歸還仍去借錢,沉溺于享樂而沒有發(fā)展自身天賦,或是在自身不會遭遇危難的情況下仍然拒絕幫助急需幫助的人。即使這種種行為在當(dāng)下是我們最有意愿去做的事,但從道德理性上考量我們?nèi)圆粦?yīng)該放任自己的行為。這種自律的道德,在康德看來,是人類道德的本質(zhì)。
在機(jī)器人倫理學(xué)方面,我們可以用康德的第一條絕對律令來制定這樣的機(jī)器人道德律 :
[DR1]一個(gè)機(jī)器人的行動(dòng)必須遵守如下法則,即它所做的選擇在原則上應(yīng)能成為其他機(jī)器人的普遍法則。
由于機(jī)器人倫理學(xué)必須設(shè)計(jì)出一種讓機(jī)器人在個(gè)別情況下,能根據(jù)預(yù)定原則而做出決定的行動(dòng)程序,我們必須以情境倫理學(xué)的基礎(chǔ),在行動(dòng)過程中給予個(gè)案考量,但是這些主觀的行為準(zhǔn)則又必須能被普遍化。對人類來說,這種自律的行為是人類道德理性思考的結(jié)果,但是要讓機(jī)器人能做類似的考量才做選擇,而不是僅僅服從僵硬的程序法則,我們必須為機(jī)器人配置搜尋功能,即搜集每一情形中可能后果的數(shù)據(jù),并計(jì)算其結(jié)果,才能決定是否采取行動(dòng)或是采取何種行動(dòng)。換句話說,機(jī)器人倫理不得不接受道德后果論,而不是如康德所要求的道德動(dòng)機(jī)論。
如果說康德的第一條絕對律令可以起到禁令的作用,那么他的第二條絕對律令則給出了更具體的道德引導(dǎo) :
[D2]應(yīng)當(dāng)以這樣的方式行動(dòng),即永遠(yuǎn)不能把人(自己或他人)僅僅當(dāng)成手段,而是永遠(yuǎn)視為目的。
這個(gè)律令表達(dá)人類存在的尊嚴(yán)性。我們永遠(yuǎn)不能把人僅僅看作達(dá)到目的的手段。人們有自由意志。把他們當(dāng)成達(dá)到目的的手段是對他們自主性的否定。(比如說綁架勒索的恐怖主義行為即完全違反這條律令,不管當(dāng)事人如何用政治理由來證明其行為的正當(dāng)性)。
就機(jī)器人倫理學(xué)而言,我們可以運(yùn)用康德的第二條絕對律令制定如下的機(jī)器人行為法規(guī) :
[DR2]一個(gè)機(jī)器人必須如此行事,即永遠(yuǎn)不能把任何人僅僅當(dāng)成手段,而是永遠(yuǎn)視為目的。
前面提過在面臨電車難題困境時(shí),人們的典型反應(yīng)如下 :在標(biāo)準(zhǔn)版中,一般人都選擇犧牲一個(gè)人去救另五個(gè)人,而在天橋版中,大多數(shù)人會拒絕把一個(gè)人從天橋上推下去以救軌道上的五個(gè)人。在標(biāo)準(zhǔn)版中,人們所使用的基本原則似乎更看重5∶1的人命比。但在天橋版中,為了使電車停止而把一個(gè)人推下橋去顯然違背了第二條絕對律令。格林(Joshua Greene)認(rèn)為 :“人們在標(biāo)準(zhǔn)電車難題中的反應(yīng)是典型的后果論思維,而在天橋版本中的反應(yīng)則是典型的道德義務(wù)論?!盵注]Joshua D. Greene, “The Secret Joke of Kant’s Soul,” Moral Psychology, Vol.3 : The Neuroscience of Morality : Emotion, Disease, and Development, W. Sinnott-Armstrong (ed.), Cambridge, MA : MIT Press, 2007, p.42.格林認(rèn)為,人們之所以會有不同的反應(yīng),是因?yàn)椤氨M管后果相似,但在近距離親手殺死一個(gè)人(如在天橋困境中)的想法比起沒那么直接(如在標(biāo)準(zhǔn)電車難題中操作拉桿)的想法具有更大的情緒影響”[注]Joshua D. Greene, “The Secret Joke of Kant’s Soul,” p.43.。格林認(rèn)為,我們自覺的道德判斷其實(shí)是主觀潛意識對當(dāng)下情境的整體回應(yīng) :“我們完全沒有意識到,我們是把潛意識中的覺知、記憶,以及情緒處理為合理的敘事,從而讓它們釋放到顯意識之中并做出回應(yīng)?!盵注]Joshua D. Greene, “The Secret Joke of Kant’s Soul,” p.62.可見理性道德判斷是由內(nèi)在情緒反應(yīng)來驅(qū)動(dòng)的。所以康德的義務(wù)論進(jìn)路其實(shí)不是理性主義,而是更接近情感主義的主張。格林稱其為“康德靈魂的秘密玩笑”。
不過,機(jī)器人或是其他人工智能都沒有潛意識或情感,也不會有來自下意識的情緒影響,所以它們的決定過程會跟人類很不一樣。我們現(xiàn)在可以考慮一下康德倫理學(xué)是否能使得機(jī)器人在面臨電車難題困境時(shí)做出和人類一樣的選擇。
很顯然的,在天橋版本中,機(jī)器人會拒絕把那名男子推下橋,因?yàn)檫@樣做將明顯違背DR2。所以這不必多慮。然而,在標(biāo)準(zhǔn)版本中,機(jī)器人的道德引導(dǎo)就不那么明確了。如果機(jī)器人依照在它看來可以通用于一切機(jī)器人的原則來行動(dòng),那么它可能無力做任何事。人類通常以一種自發(fā)、直覺的方式來判斷他們自身的行為準(zhǔn)則是否能夠成為普遍法則。但是,如果想讓機(jī)器人做出同樣的判斷,那么,在設(shè)計(jì)程式上要么給它裝備一個(gè)巨大的數(shù)據(jù)庫,其中包含了其他機(jī)器人以相同的方式行動(dòng)所造成的一切可能后果(因?yàn)闄C(jī)器人能夠判斷行動(dòng)對錯(cuò)的根本是后果論的思維),要么給它配備人類所擁有的直覺,可以當(dāng)下判斷對錯(cuò)。但是前者會有數(shù)據(jù)龐大而且不完整的困難,后者則要面對技術(shù)瓶頸,因?yàn)槿斯ぶ悄懿豢赡塬@得人類所具有的直覺本能。因此,康德的第一條絕對律令無法為機(jī)器人做道德抉擇提供一個(gè)充分的指導(dǎo)基礎(chǔ)。
在此,設(shè)計(jì)康德式人工道德主體碰到了一個(gè)根本性的悖論??档碌牡谝唤^對律令基于其道德形而上學(xué)的理念,認(rèn)為所有的人都是自主的理性存在者。理性存在者是“目的王國”的公民,分享同樣的“共同法”,并遵守著他們自己所制定的普遍道德法則。他們是自主的,因?yàn)樗麄兪峭耆睦硇灾黧w,“平等參與共同體道德原則的制定”。[注]Robert Johnson & Adam Cureton, “Kant’s Moral Philosophy”.但是從其設(shè)計(jì)本身來看,人工道德主體就是一些服從于程序命令的機(jī)器。它們不會為自己立法,也不會因?yàn)楸舜耸瞧降鹊牧⒎ㄕ叨嗷プ鹬亍4送?,它們還缺乏自由意志,而自由意志對于康德式的道德主體來說必不可缺。因此,托肯斯稱它們?yōu)椤胺纯档碌摹?。他說 :“我們要求康德式的人工道德主體的行為符合道德,但事實(shí)上它們的發(fā)展違背了康德的道德,這使得它們的發(fā)展受到道德上的質(zhì)疑,同時(shí)也使得我們作為它們的創(chuàng)造者有點(diǎn)虛偽?!盵注]Ryan Tonkens, “A Challenge for Machine Ethics,” p.429.因此,不僅將康德的倫理準(zhǔn)則應(yīng)用于人工智能是個(gè)問題,事實(shí)上創(chuàng)造人工道德主體本身從康德的角度來看就是不道德的行為。托肯斯認(rèn)為 :“通過創(chuàng)造康德式道德機(jī)器,我們僅僅是把它們當(dāng)作手段,而不是當(dāng)作目的本身。按照康德哲學(xué),道德主體自身是目的,因此之故,他們應(yīng)當(dāng)被尊為目的。違背這一法則就是將主體僅僅當(dāng)作客體,被用作達(dá)到其他目的的手段?!盵注]Ryan Tonkens, “A Challenge for Machine Ethics,” pp.432-433.換句話說,即使我們能夠創(chuàng)造出遵守DR2的機(jī)器人,即便我們不把機(jī)器人算作人類之成員,這一創(chuàng)造活動(dòng)本身就已經(jīng)違背了康德的道德原則,因?yàn)檫@一活動(dòng)制造出純?yōu)槭侄?,而不以目的存在的人工道德主體。
另一個(gè)常見的方案是將功利主義倫理學(xué)準(zhǔn)則應(yīng)用于人工道德主體。簡單地講,功利主義原則以行為可能的后果來判斷行為的對錯(cuò) :能夠促進(jìn)幸福或快樂的行為是對的,而產(chǎn)生痛苦的行為則是錯(cuò)的。密爾(John Stuart Mill)認(rèn)為,唯有快樂本身具有內(nèi)在價(jià)值。它的價(jià)值在于人們的欲望。換句話說,“好的”等同于“可欲的”。密爾說 :“要證明任何東西是可欲的,唯一可能的證據(jù)是人們實(shí)際上欲求它?!盵注]John Stuart Mill, Utilitarianism, 2nd Edition, George Sher (ed.), Indianapolis : Hackett Publishing Company, 2001, p.81. (中譯參考了約翰·穆勒 :《功利主義》,徐大建譯,上海 :上海人民出版社,2008年,第35頁?!g者注)所謂“好”的結(jié)果不過是人們欲求的事情,而“壞”的結(jié)果則是人們厭惡的事情。這種理論的基礎(chǔ)是古代的快樂論。不過根據(jù)德賴弗(Julia Driver)的看法 :“自二十世紀(jì)初期開始,功利主義經(jīng)歷了多次修正。二十世紀(jì)中葉以后,它更多地被視為一種‘后果論’,因?yàn)閹缀鯖]有哲學(xué)家完全認(rèn)同古典功利主義的觀點(diǎn),尤其是它的快樂主義的價(jià)值理論?!盵注]Julia Driver, Consequentialism, London and New York : Routledge, 2012, p.24.功利主義最大的特征是僅考慮會有多少人受到這個(gè)行為影響,而不考慮行動(dòng)者本人的個(gè)人利益。功利主義原則的標(biāo)準(zhǔn)表述如下 :[注]功利主義可以是這里所表述的“行為功利主義”,也可以是“規(guī)則功利主義”。一個(gè)行為是否正確,是由它所遵循的規(guī)則的后果來決定 :如果這個(gè)規(guī)則比起其他規(guī)則更能夠產(chǎn)生更大的利益或是更小的傷害,那么這個(gè)規(guī)則就是可遵循的,而遵循這個(gè)規(guī)則的行為也就是對的。在人類規(guī)范性倫理學(xué)的討論中,許多功利主義者認(rèn)為功利主義必須被理解為規(guī)則功利主義。但是因?yàn)槿斯ぶ悄苄枰_的規(guī)則和程序來幫助它選擇當(dāng)下的行動(dòng),所以我們在此只討論行為功利主義。
[U]一個(gè)行為正確的充足必要條件就是這個(gè)行為,比起行動(dòng)者可能采取的其他行為來說,能夠?qū)λ袝艿接绊懙娜水a(chǎn)生更大的利益,或是更小的傷害。
對于人工智能,我們可以將U改寫成UR :
[UR]在權(quán)衡了所有可能采用行為的后果之后,機(jī)器人必須選擇的行動(dòng)是對于所有會受到影響的眾人來說,或者能實(shí)現(xiàn)最大的利益,或者能阻止更大的損害。
以上的兩種準(zhǔn)則都是從后果論的角度來衡量行為選擇的正確性?,F(xiàn)在我們來看一下關(guān)于機(jī)器倫理學(xué)的后果論模式的一些研究。
圖盧茲大學(xué)(the University of Toulouse)的本尼馮(Jean-Fran?ois Bennefon)、俄勒岡大學(xué)(the University of Oregon)的謝里夫(Azim Shariff)與麻省理工學(xué)院(MIT)的雷邁(Iyad Rahwan)共同開展了一項(xiàng)研究,要求參與者對以功利主義倫理原則來設(shè)計(jì)的自動(dòng)駕駛汽車做出評價(jià) :在功利主義的倫理準(zhǔn)則設(shè)計(jì)下,這種車子為了避免沖向一群行人而造成更大傷害,會寧愿犧牲自己和開車的主人(司機(jī))。這些學(xué)者的研究發(fā)現(xiàn),盡管參與者普遍肯定這種車輛所帶來的結(jié)果更好,但他們自己并不想購買這樣一種自動(dòng)駕駛汽車。研究的結(jié)論是,參與者“在道德偏好上壓倒性地認(rèn)同功利主義的自動(dòng)駕駛汽車,因?yàn)樗軐鋈藬?shù)降到最低”。[注]“大致說來,參與者都同意如果犧牲自己的乘客能夠挽救更多的生命,那么自動(dòng)駕駛汽車犧牲自己的乘客就是更為道德的抉擇?!币奐ean-Fran?ois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” Science, 2016,352(6293) :1574, DOI : 10.1126/science.aaf2654。但是,當(dāng)被問及他們是否會購買這種功利主義的自動(dòng)駕駛汽車,參與者就沒有多少積極性了。研究者指出,“盡管參與者依然認(rèn)為功利主義的自動(dòng)駕駛汽車是最道德的,但他們更愿意為自己購置具有自我保護(hù)模式的汽車”。[注]Jean-Fran?ois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1574.這種雙重標(biāo)準(zhǔn)產(chǎn)生了一種社會困境 :“一般人傾向于認(rèn)為功利主義式的自動(dòng)駕駛汽車是對社會整體來說最好的設(shè)計(jì),因?yàn)檫@種模式的車子可以減低傷害率,使得社會中每個(gè)人都受益更多。但是人們又同時(shí)出于個(gè)人動(dòng)機(jī),只想乘坐會不計(jì)一切代價(jià)而保護(hù)他們自己的自動(dòng)駕駛汽車。因此,如果具有自我保護(hù)模式的自動(dòng)駕駛汽車和功利主義模式的自動(dòng)駕駛汽車同時(shí)進(jìn)入市場,幾乎沒有人會愿意選擇功利主義模式的自動(dòng)駕駛汽車,盡管他們卻希望別人這樣選擇?!盵注]Jean-Fran?ois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1575.沒有政府的強(qiáng)力推動(dòng)和管制,這種功利主義模式的自動(dòng)駕駛汽車將不會出現(xiàn)在市場上。但是,如果政府采取強(qiáng)力推動(dòng),則可能出現(xiàn)對采用這一模式的更大阻力。換句話說 :“政府管制汽車安全并采取功利主義的模式所引發(fā)的阻力,反而會使得汽車工業(yè)延遲通過推廣更安全技術(shù)的使用,結(jié)果造成的卻是更高的傷亡率?!盵注]Jean-Fran?ois Bonnefon, et al., “The Social Dilemma of Autonomous Vehicles,” p.1573.社會效益和個(gè)人利益之間的矛盾顯示了人工智能的功利主義模式的潛在問題。如果這些研究中的參與者會不情愿去購買功利主義模式的汽車,那么普通大眾也很有可能會因?yàn)樽岳睦矶种瓢压髁x倫理學(xué)應(yīng)用于為我們服務(wù)的道德機(jī)器人。
除了以上所述功利主義人工智能令人不滿意的地方,另外一個(gè)問題是,如果在我們的社會中存在這樣的人工道德主體將會帶來巨大的危險(xiǎn)。一般人在電車?yán)Ь硺?biāo)準(zhǔn)版和天橋版中的不同反應(yīng)表現(xiàn)出人們傾向于避免那些會明顯給他人帶來傷害的行為。一般人并不總是喜歡功利主義的思考方式,尤其是當(dāng)這種思考模式指引他們犧牲少數(shù)人的利益,而這些少數(shù)人包括他們自己、親人和熟人。除了一些個(gè)別的英雄舉動(dòng),很少有人會為了大多數(shù)人更大的利益或是更好的結(jié)果而去犧牲自己或是自己所愛的人。但另一方面,人工智能則沒有這樣的心理障礙。在UR的指導(dǎo)下,只要局部的摧毀可以帶來社會更高的利益,功利主義人工智能的機(jī)器人就可能會選擇摧毀。這個(gè)模式將面臨與阿西莫夫第零定律同樣的困境。
從人類與人工智能的差異,我們也看出功利主義永遠(yuǎn)也不會成為人類主要的道德原則。即使我們的道德思維訴諸功利主義原則,我們的情感、個(gè)人利益和其他考慮都會讓功利主義的思維變得“不純粹”。如果我們像人工道德主體那樣進(jìn)行純粹的功利主義道德考量,那么其結(jié)果對人類社會來說將是巨大的威脅。正如M.安德森和S.安德森所指出,功利主義會“侵犯人權(quán),因?yàn)樗梢誀奚鼈€(gè)人以獲得善的更大凈值。功利主義也違背我們對于正義,即對‘什么是人們所應(yīng)得的’的看法,因?yàn)槿藗兯鶓?yīng)得的是反映其過去行為的價(jià)值,但是功利主義對行為對錯(cuò)的判斷卻完全取決于行為的未來結(jié)果”。[注]Michael Anderson & Susan Leigh Anderson, “Machine Ethics : Creating an Ethical Intelligent Agent,” p.18.功利主義在規(guī)范倫理學(xué)中仍有吸引力,也許正是因?yàn)槿藗儚膩聿粫耆?、絕對地遵從功利主義的規(guī)范。
當(dāng)今儒家學(xué)者具有的共識是,儒家倫理并不是一種規(guī)則引導(dǎo)的規(guī)范倫理,而是一種德性倫理,注重培養(yǎng)道德主體的道德品質(zhì)和善良性格。在設(shè)計(jì)機(jī)器人的道德抉擇過程中,我們必須要把儒家倫理轉(zhuǎn)化為一種可運(yùn)用、可踐行的道德規(guī)則。因此,我們必須對儒家道德規(guī)則進(jìn)行一番新的解讀,從《論語》中提煉出可以加在人工智能設(shè)計(jì)中的道德律令。[注]如無特殊說明,《論語》引文由筆者自己英譯,同時(shí)參考了 Raymond Dawson (trans.), Confucius : The Analects, New York : Oxford University Press, 1993,以及Peimin Ni, Understanding the Analects of Confucius : A New Translation of Lunyu with Annotation, Albany, NY : SUNY Press, 2017。
《論語》中有很多被高度重視的美德,它們可以被轉(zhuǎn)化為儒家機(jī)器人倫理學(xué)的道德規(guī)則。本文挑選了三種主要的美德 :忠(loyalty)、恕(reciprocity[注]這是倪培民的翻譯。“恕”也經(jīng)常翻譯為“empathy”,筆者亦曾如是翻譯。)、仁(humanity)。之所以選擇前兩種美德,是因?yàn)榭鬃又匾牡茏又辉诱f,忠恕是夫子的一以貫之之道(《論語·里仁》[注]為簡明計(jì),下文引述《論語》,只注篇名?!g者注)。之所以選擇第三種美德,是因?yàn)樵谡麄€(gè)儒家傳統(tǒng)中“仁”是最重要的美德,孔孟均重視它,后來的宋明儒家還對此作了進(jìn)一步闡發(fā)。
孔子對于“忠”言之甚詳。它是孔子的“四教”之一(《述而》),并且和“恕”一起構(gòu)成了孔子的一以貫之之道(《里仁》)。在個(gè)人道德培養(yǎng)方面,孔子說君子把“忠”和“信”作為第一原則(《學(xué)而》、《子罕》)。弟子問,如何崇德辨惑,孔子建議說 :堅(jiān)持忠信,“徙義,崇德也”((《顏淵》)?!爸摇睂τ趪抑卫硪埠苤匾?鬃痈嬖V魯國的國君,要想百姓忠,君自身就必須“孝慈”(《為政》)??鬃痈嬖V宋定公,“君使臣以禮,臣事君以忠”(《八佾》)。但“忠”不是盲目順從,而是要向君“提建議”(誨)(《憲問》)。弟子問 :“令尹子文三仕為令尹,無喜色,三已之,無慍色。舊令尹之政必以告新令尹,何如?”孔子回答說 :“忠矣?!?《公冶長》)弟子問政,孔子說 :“居之無倦,行之以忠?!?《顏淵》)上述例子表明,在孔子看來,“忠”既是私德又是公德 :無論是修身,還是參與公共事務(wù),“忠”都是至關(guān)重要的。
筆者曾指出 :“忠并不是一種直接針對他人的關(guān)系;相反,它指向一個(gè)人所承擔(dān)的角色。在這個(gè)意義上,忠可界定為‘做應(yīng)做的’或‘忠于角色’。換句話說,社會角色不只是社會任務(wù);它還是道德任務(wù)。‘忠于某人的角色’意味著,能夠做出與道德義務(wù)相應(yīng)的行動(dòng),而道德義務(wù)則伴隨著社會角色。因此,‘忠’是忠于一個(gè)人的道德義務(wù),履行一個(gè)人的角色所規(guī)定的社會責(zé)任?!盵注]JeeLoo Liu, An Introduction to Chinese Philosophy : From Ancient Philosophy to Chinese Buddhism, Malden, MA : Blackwell, 2006, p.50.這一解釋可以得到進(jìn)一步的支持 :孔子建議弟子“與人忠”(《子路》)。這里的“人”不限于君,還包括朋友和陌生人。《左傳·昭公二十年》記載孔子言 :“守道不如守官。”“道”當(dāng)然是士人知識分子的最高目標(biāo),但是并不是每個(gè)人都可以事事以道為主。如果每個(gè)人都能善盡職守,盡心盡力,那么道行天下也就不是遙不可及的目標(biāo)了?!墩撜Z》里孔子也強(qiáng)調(diào) :“不在其位,不謀其政?!?《泰伯》)儒家強(qiáng)調(diào)名正言順,角色之名定位角色之職。越俎代庖常常造成職責(zé)混亂,是非不明。這個(gè)固守職分,不干預(yù)他事的道德準(zhǔn)則對于人類有用,對于機(jī)器人來說尤其重要。
根據(jù)對“忠”這一美德的上述解釋,我們就有了儒家機(jī)器人倫理的第一條道德原則 :
[CR1]機(jī)器人的首要職責(zé)就是履行指派給它的角色責(zé)任。
表面上看來,這一道德準(zhǔn)則似乎微不足道 :我們設(shè)計(jì)機(jī)器本來就是要它完成任務(wù)的。但是,這個(gè)律令其實(shí)具有第一要位 :我們所討論的是有可能成為全知全能的“機(jī)器神”,在無法由程序員事先預(yù)測所有情境中機(jī)器人所可能做出之判斷的情況下,我們需要對這些可能的情形有所防備。我們不能給予人工智能如神一樣的超人能力,擁有對任何人與事的所有決定權(quán)。我們需要先界定它們的職權(quán)范圍。CR1建立了明確的分工體制 :提供健康服務(wù)的機(jī)器人應(yīng)專門忠于提供健康服務(wù)的角色,而不是去判斷病人的生命值不值得救,或者判斷是否要幫助病人實(shí)現(xiàn)安樂死的愿望。無人自動(dòng)駕駛汽車應(yīng)履行保護(hù)乘客安全的職責(zé),而不應(yīng)該選擇自動(dòng)撞樹、犧牲乘客,以避免沖向一輛校車而發(fā)生災(zāi)難性的悲劇。這樣的決定超出各個(gè)人工智能被設(shè)計(jì)的角色。因此角色定義是建立人工道德主體的第一步。
《論語》中另一個(gè)重要的德行是“恕”。關(guān)于“恕”,孔子稱其“可以終身行之”,并對其作了進(jìn)一步規(guī)定 :“己所不欲,勿施于人。”(《衛(wèi)靈公》)另一處,弟子子貢說 :“我不欲人之加諸我也,吾亦欲無加諸人?!笨鬃痈嬖V他 :“非爾所及也?!?《公冶長》)從這兩處看,恕的內(nèi)涵被具體定義為一種人際交往中所體現(xiàn)的風(fēng)度和心理狀態(tài)。相對于基督教的金律“你們愿意人怎樣待你們,你們也要怎樣待人”,儒家的“恕”觀念經(jīng)常被稱作“負(fù)面形式的金律”,因其禁止人們做什么,而不是具體命令人們做什么。筆者曾指出,“恕”的這種形式優(yōu)于基督教的金律,因?yàn)槿藗兯挥谋热藗兯母哂衅毡榈幕A(chǔ)?!耙话愣?,我們不希望別人羞辱我們,嘲笑我們,偷我們的東西,傷害我們,或者以任何方式虐待我們。因此,我們理應(yīng)不要以這些方式虐待別人。即便我們愿意別人以某種方式對待我們,儒家金律也沒有建議我們以同樣的方式對待別人。因此,它避免了基督教的金律所碰到的將主觀偏好強(qiáng)加于別人的問題?!盵注]JeeLoo Liu, An Introduction to Chinese Philosophy : From Ancient Philosophy to Chinese Buddhism, p.55.
然而,就機(jī)器人倫理而言,我們會遇到機(jī)器人缺乏意愿的問題。若機(jī)器人對于自身沒有任何意愿,那么它們?nèi)绾卧u估自己行為的后果是否是他人(其他人類)不想施諸于己的呢?我認(rèn)為這個(gè)問題可以通過在設(shè)計(jì)時(shí)加入一個(gè)普遍人類偏好的計(jì)算程序來解決。美國哲人普特南(Hilary Putnam)曾經(jīng)建議運(yùn)用功能主義所使用的方法,將一定的偏好作為機(jī)器的“偏好功能”植入機(jī)器中。能夠做這樣判斷的機(jī)器首先應(yīng)該具備對人類偏好的局部排列和一套歸納邏輯(也就是說,機(jī)器必須能夠從經(jīng)驗(yàn)中學(xué)習(xí)),以及某些“痛覺傳感器”(比如,監(jiān)測機(jī)器身體的傷害、危險(xiǎn)溫度或危險(xiǎn)壓力的常態(tài)化工作的傳感器等),而且“某些特定范圍內(nèi)的輸入信號可以在機(jī)器的偏好功能或行動(dòng)指令排列為具有高的負(fù)價(jià)值”。[注]Hilary Putnam, “The Nature of Mental States,” reprinted in Hilary Putnam, Mind, Language, and Reality, Cambridge : Cambridge University Press, 1975, p.435.按照這種方式,人工智能主體可以對傷害其他人類的行為指派負(fù)值,同時(shí)也對傷害自身的行為指派負(fù)值。機(jī)器人儒家倫理學(xué)的第二條規(guī)則便可表述如下 :
[CR2]在有其他選項(xiàng)存在的情況下,機(jī)器人不能選擇會給他人帶來最高的負(fù)值結(jié)果或最低的正值結(jié)果(根據(jù)人類偏好的局部排列)的行動(dòng)。
跟“恕”作為負(fù)面的禁令一樣,如此表述的CR2也是對于“不可做什么”的禁令。在CR2的普遍律令下,除非在特殊情況下有其他更高的道德原則壓過“不可做什么”的禁令,機(jī)器人永遠(yuǎn)不能選擇傷害人類,永遠(yuǎn)不能在沒有正當(dāng)理由的情況下給人類造成痛苦,永遠(yuǎn)不能剝奪某人珍視的財(cái)產(chǎn)或是享受,如此等等。這一道德規(guī)則與阿西莫夫第一定律相類似 :“機(jī)器人不能傷害人類,或看到人類受到傷害而袖手旁觀?!比欢@條道德指令比阿西莫夫第一定律靈活得多,因?yàn)橛锌赡艽嬖谀承┨囟ǖ呢?fù)值偏好會超過一般人對于傷害的負(fù)值偏好。比如說,人們也許對極度不公平的厭惡會遠(yuǎn)遠(yuǎn)超過他們對身體傷害的避免。因此我們不難想象在某些情況下,被設(shè)計(jì)成帶有相應(yīng)的角色任務(wù)和偏好指令的機(jī)器人可能會參與反抗不公與濫權(quán)的革命起義。
最后,儒家機(jī)器人倫理學(xué)選擇的重要德性是“仁”。倪培民認(rèn)為 :“‘仁’是儒家哲學(xué)的核心。它在《論語》中出現(xiàn)了109次?!墩撜Z》全書499章,共有58章討論‘仁’這一主題?!盵注]Pemin Ni, Understanding the Analects of Confucius : A New Translation of Lunyu with Annotation, p.32.在孔子看來,仁德最難培養(yǎng)。他最得意的弟子顏回也只能“其心三月不違仁”,而其他弟子則“日月至焉而已矣”(《雍也》)。當(dāng)被問到某人是否有這一品質(zhì)時(shí),孔子即使承認(rèn)他有其他一些可取的品質(zhì),也很少許之為仁(《公冶長》第五、八、十九章)。同時(shí),孔子認(rèn)為,一個(gè)人能否獲得仁德,純粹取決于意志力。他說 :“仁遠(yuǎn)乎哉?我欲仁,斯仁至矣?!?《述而》)孔子極力表彰“仁”,認(rèn)為“唯仁者能好人,能惡人”,并且“茍志於仁矣,無惡也”(《里仁》)。若說康德的理想是“目的王國”,那么孔子的理想便是“仁的王國”??鬃诱劦健袄锶蕿槊馈?,還談到“君子無終食之間違仁,造次必于是,顛沛必于是”(《里仁》)?!叭省贝_實(shí)是儒家道德教化的核心美德。
然而,孔子大多數(shù)關(guān)于“仁”的言論都是在說仁人可以做什么或不可以做什么,而沒有說到“仁”的內(nèi)容。弟子問仁,孔子說“仁者,其言也讱”(《顏淵》)??鬃釉趧e處也談到“巧言令色,鮮矣仁”(《學(xué)而》)??鬃又辉谏贁?shù)幾處具體描述了何為“仁”。弟子問仁,孔子回答道 :“愛人?!?《顏淵》)孔子還談到,“君子篤于親,則民興于仁”(《泰伯》)。顏回問仁,孔子告訴他 :“克己復(fù)禮為仁”,且要“非禮勿視,非禮勿聽,非禮勿言,非禮勿動(dòng)”(《顏回》)。其他弟子問仁,孔子提了三個(gè)要求 :“居處恭,執(zhí)事敬,與人忠?!?《子路》)此外,孔子還用五德解釋“仁” :“恭、寬、信、敏、惠。”(《陽貨》)然而,對仁德最明確的說明莫過于下面這段話 :“己欲立而立人,己欲達(dá)而達(dá)人。”(《雍也》)換句話說,仁德要求道德主體幫助他人以及其他生物成就自身。不過,孔子對于仁人所要成就的目標(biāo)有進(jìn)一步的限制。他說 :“君子成人之美,不成人之惡?!?《顏淵》)易言之,孔子“仁”的理想是為了使他人成為他更好的自己,或者可以這么講,幫助他人達(dá)到“仁”的境界。這一品質(zhì)將是我們想要在機(jī)器人身上建立的最重要的特性。
將仁德轉(zhuǎn)換為給予人工道德主體的道德準(zhǔn)則,我們就得到CR3 :
[CR3]在不違背CR1或CR2的前提下,機(jī)器人必須幫助其他人類追求道德進(jìn)步。如果有人的計(jì)劃會促進(jìn)其品德的敗壞或道德的墮落,那么機(jī)器人就必須拒絕幫助他們。
這里強(qiáng)調(diào)的提供幫助,意味著機(jī)器人的行為是根據(jù)人類所給出的要求或指令來協(xié)助進(jìn)行的。換句話說,機(jī)器人并不自行決定什么對人類主體來說是好的,或者什么是人類主體應(yīng)當(dāng)成就的。同時(shí),運(yùn)用這個(gè)道德規(guī)則編程,當(dāng)人類的命令是為了作惡時(shí),機(jī)器人會拒絕提供幫助。這樣,我們不但有了不會傷害人類的人工道德主體,而且也可以防范其他人利用人工智能去干壞事。
有了以上三條規(guī)則,我們就有了儒家機(jī)器人倫理學(xué)的基本形式?,F(xiàn)在所列舉的儒家機(jī)器人倫理學(xué)準(zhǔn)則絕對沒有窮盡一切儒家倫理運(yùn)用的可能性??赡苡胁恢挂粋€(gè)版本的儒家機(jī)器人倫理學(xué);選擇不同德行的集合和不同的機(jī)器倫理準(zhǔn)則都有可能與《論語》文本相兼容。有些儒家機(jī)器人倫理學(xué)的版本可能會給我的理論模式帶來巨大挑戰(zhàn)。比如,內(nèi)澤-伍德(Drayson Nezel-Wood)認(rèn)為,《論語》中能解決電車難題的兩個(gè)主要的價(jià)值是“孝”與“和”。[注]2017年夏天,我作為“復(fù)旦學(xué)者”在復(fù)旦大學(xué)訪學(xué)。我邀請了幾位研究生討論用儒家機(jī)器人倫理解決電車難題。一位加拿大學(xué)生內(nèi)澤-伍德(Drayson Nezel-Wood)接受我的挑戰(zhàn),發(fā)給我他的儒家解決方案,并附了一張?jiān)敿?xì)的圖表。他的觀點(diǎn)很有意思,關(guān)于電車難題的圖表也很有幫助,在此謹(jǐn)致謝忱。他認(rèn)為,儒家的愛有差等,始于最親近的家庭成員,進(jìn)而擴(kuò)展到國家,然后才是陌生人及其家庭;這意味著,如果軌道上的那個(gè)人居于差等序列的最高等級,那么儒家式的人工智能就會選擇救這一個(gè)人而不是其他五個(gè)人。內(nèi)澤-伍德所想到的情景包括,救所愛的人(如人工智能的主人)而犧牲皇室成員,救君王而非救另外五個(gè)人(即使這五人都達(dá)到了君子的道德水平),救一個(gè)君子而非救五個(gè)庶民,如此等等。但是我并不認(rèn)為儒家是像他所說的那樣對人的生命價(jià)值進(jìn)行了分級,也不認(rèn)為儒家人工智能會做出如上的倫理判斷。我認(rèn)為儒家“親親”與“孝”的觀念并不意味著所親之人的生命重于其他人的生命。但是,內(nèi)澤-伍德有一點(diǎn)講得很對 :儒家人工智能主體不會自動(dòng)使用功利主義原則去不涉及情感地以人數(shù)多少來作選擇標(biāo)準(zhǔn)。那么,儒家人工智能主體在標(biāo)準(zhǔn)版和天橋版電車難題中究竟會如何行事?
在天橋版本中,執(zhí)行儒家倫理準(zhǔn)則的機(jī)器人永遠(yuǎn)不會采取將人推下橋的行動(dòng),因?yàn)檫@么做顯然把三條道德原則都違背了。在標(biāo)準(zhǔn)版本中,判斷則要復(fù)雜得多。如果機(jī)器人是電車司機(jī)或鐵道管理員,它的職責(zé)會命令它拉動(dòng)操作桿,使得這個(gè)電車在所有可選項(xiàng)中盡可能造成最小的傷害。即使某人與機(jī)器人的設(shè)計(jì)者有特殊的關(guān)系,機(jī)器人也不會對這個(gè)人抱有偏愛,因?yàn)樵跈C(jī)器人的設(shè)計(jì)編程中并沒有加上偏愛或是特別情感。如果機(jī)器人只是一個(gè)路人,那么根據(jù)CR1,它沒有任何義務(wù)采取行動(dòng),而且根據(jù)CR2的禁令,機(jī)器人更傾向于袖手旁觀而非采取行動(dòng)。因此,一個(gè)路人機(jī)器人不應(yīng)采取任何行動(dòng)來使疾馳的電車轉(zhuǎn)向,即使這么做能夠減少傷亡人數(shù)。
在標(biāo)準(zhǔn)版電車難題中,依照儒家倫理律令行事的機(jī)器人,除非是電車司機(jī)或鐵道管理員這類特殊角色,是不會拉動(dòng)操作桿的。在天橋版本中,依照儒家倫理行事的機(jī)器人,不論是什么職分角色,都不會將那名男子推下橋以使電車停止。如此看來,機(jī)器人的決定會不同于大部分人類的直覺選擇,因?yàn)闄C(jī)器人不會像人類在天橋情景中那樣受到無意識的情感掙扎的影響。[注]參閱Joshua D. Greene, et al., “An fMRI Investigation of Emotional Engagement in Moral Judgment”。儒家機(jī)器人不會因自身的“行動(dòng)”而對任何人造成傷害,或強(qiáng)迫任何人接受他們不愿接受的結(jié)果,即使它可能因?yàn)樽陨淼摹安恍袆?dòng)”而沒有防止對別人造成的傷害或發(fā)生別人不情愿接受的后果。在不久的將來,當(dāng)我們的社會中存在可自我管制、自主行動(dòng)的人工道德主體時(shí),當(dāng)不論它是否采取行動(dòng)都會導(dǎo)致對人的傷害和帶來我們不愿看到的后果時(shí),我們寧可它選擇袖手旁觀,而不是采取行動(dòng)。
M.安德森和S.安德森在他們關(guān)于機(jī)器倫理學(xué)的著作中提到 :“機(jī)器倫理學(xué)的終極目標(biāo)……是要?jiǎng)?chuàng)造出一種‘自律’的機(jī)器人,它們會自己遵守一些理想的道德原則;也就是說,它們可以在這些道德原則的指引下自行決定應(yīng)該采取何種行動(dòng)?!盵注]Michael Anderson & Susan Leigh Anderson, “Machine Ethics : Creating an Ethical Intelligent Agent,” p.15-25.他們也認(rèn)為,研究機(jī)器倫理學(xué)的另一個(gè)好處在于這“可能會帶來道德理論上的突破,因?yàn)闄C(jī)器十分適合于我們檢測堅(jiān)持遵循一個(gè)特定的道德理論將會導(dǎo)致何種結(jié)果”[注]Michael Anderson & Susan Leigh Anderson, “Machine Ethics : Creating an Ethical Intelligent Agent,” p.15-25.。本文考察了四類機(jī)器倫理的道德模式,即阿西莫夫定律,兩條康德式的“絕對命令”,功利主義的“效用原則”,以及儒家的忠、恕、仁道德原則。在比較了這些道德模式對于電車難題的標(biāo)準(zhǔn)版和天橋版的解決方案之后,本文認(rèn)為儒家的道德模型要優(yōu)于其他三種道德理論。
當(dāng)然,我們設(shè)計(jì)人工道德主體的初衷不是僅僅為了處理電車難題以及類似的問題。在許多其他實(shí)用方面,儒家的人工道德主體可以成為人類社會很好的補(bǔ)助。首先,我們可以按照分配給儒家道德機(jī)器人的角色來為其設(shè)計(jì)具體的工作,比如,為老年人提供幫助,為病人提供保健服務(wù),為游客提供向?qū)Х?wù),為汽車提供安全導(dǎo)航,等等。它的首要職責(zé)是忠于角色;因此,它在特定情境中所做的其他任何決定都不能違反其職責(zé)。第二,儒家機(jī)器人具有精確計(jì)算出的偏好指令,不會采取將給其他人類帶來極大的負(fù)面價(jià)值(包括傷害)或極不可欲后果的任何行動(dòng)。這一原則要優(yōu)于阿西莫夫第一定律,因?yàn)樗仍试S了更多對負(fù)面價(jià)值的考慮,又讓機(jī)器人在權(quán)衡可允許的行動(dòng)范圍時(shí)更加靈活。而且,它也要優(yōu)于康德原則或功利主義原則,因?yàn)檫@一道德原則基于儒家的“負(fù)面形式的金律”,它的作用是禁止做出錯(cuò)誤行動(dòng),而不是靠主觀意志原則去采取自以為是的行動(dòng)。在可預(yù)見的未來,在我們可能會將主動(dòng)權(quán)交給人工智能的情境中,這一原則可以保護(hù)我們避免受因人工智能故意犧牲人類而帶來的傷害,盡管人工智能或許會考慮它們的行動(dòng)將帶來多大的利益。最后,儒家道德機(jī)器人將是有仁德的機(jī)器人 :在CR3的引導(dǎo)之下,它會協(xié)助而不會阻礙人類去努力行善,去成為更好的人,去建設(shè)更加美好的世界。也許,最終的人工智能發(fā)展會促成人類和人工智能共同生活在孔子理想中的“仁的王國”之中。