任 然, 楊 瓊
(1. 弗林德斯大學(xué) 商政法學(xué)院/南開(kāi)大學(xué) 經(jīng)濟(jì)與社會(huì)發(fā)展研究院,天津 300071;2. 云南師范大學(xué) 馬克思主義學(xué)院,云南 昆明 650500)
道德培育是人類社會(huì)的一項(xiàng)永恒主題。傳統(tǒng)方式,如學(xué)校教育、宗教感化、文學(xué)熏陶、冥想禱告等,往往收效緩慢。小至欺詐、誹謗,大至腐敗、種族主義、謀殺等不良道德或惡性犯罪現(xiàn)象依舊充斥在我們的社會(huì)。有人可能會(huì)反駁,道德水平的差異是人類社會(huì)本身所攜帶的,無(wú)法消除。而且正是這種差異性,某種程度上造就了人格的多樣性。誠(chéng)然,我們并不反對(duì)這樣的觀點(diǎn),也不奢求人人都成為道德圣人,只是希望能探索一種可行的方式輔助我們做出道德決策,間接提升人類的道德水平。我們?nèi)缃衩鎸?duì)的是一個(gè)更加多樣化的世界,全球化愈加深入,科技日新月異,人類道德有限性的后果變得越發(fā)嚴(yán)重。面對(duì)環(huán)境危機(jī),以及最近在基因工程、人工智能和網(wǎng)絡(luò)技術(shù)方面的突破,更加強(qiáng)了人類倫理進(jìn)化的必要性。道德心理發(fā)展規(guī)律通常只在小群體中保持有效性,對(duì)于許多現(xiàn)代問(wèn)題,如氣候變化和環(huán)境治理這類全球集體行動(dòng)問(wèn)題,人類道德還未進(jìn)化到能夠應(yīng)對(duì)如此大規(guī)模的社會(huì)挑戰(zhàn)。人類社會(huì)面臨著前所未有的威脅與挑戰(zhàn),對(duì)道德增強(qiáng)(moral enhancement)(75)道德增強(qiáng)是提高道德認(rèn)知、道德動(dòng)機(jī)和道德行為的一項(xiàng)系統(tǒng)性工程。議題的關(guān)注顯得尤為迫切。因此,人類追求某種形式的道德增強(qiáng)將是一項(xiàng)至關(guān)重要的應(yīng)對(duì)措施。有人認(rèn)為我們可以通過(guò)學(xué)習(xí)道德推理達(dá)成,事實(shí)上,單純調(diào)用我們自身的道德理性似乎有著天然的缺陷,大多數(shù)的道德觀點(diǎn)和決策都建立在即時(shí)的情感反應(yīng)和直覺(jué)反應(yīng)的基礎(chǔ)之上,而非我們所希望的理性和深思熟慮的方式。當(dāng)我們做出道德決策后,所采用的道德推理通常只是用來(lái)合理化直覺(jué)相信的東西。還有人認(rèn)為我們可以利用生物醫(yī)學(xué)技術(shù)增強(qiáng)人類道德,但是目前這一領(lǐng)域還不成熟,采用這種方式風(fēng)險(xiǎn)較大,頗具爭(zhēng)議。那么,我們能否借助外部手段,比如人工智能,輔助我們做出道德決策,進(jìn)而達(dá)成道德增強(qiáng)的目標(biāo),這是一條值得探討的研究進(jìn)路。
道德進(jìn)化心理學(xué)認(rèn)為,人類適合生活在規(guī)模小但關(guān)系緊密的群體中,這樣可以獲得許多繁衍和生存方面的優(yōu)勢(shì),包括公共托兒、共享食物等資源,以及更好地抵御自然災(zāi)害。然而,只有當(dāng)個(gè)人更傾向于合作的時(shí)候,才能享有這些優(yōu)勢(shì)。如果所有的個(gè)體根據(jù)自己的利益行事,個(gè)人利益在短期內(nèi)會(huì)得到滿足,但長(zhǎng)此以往群體利益會(huì)受影響,個(gè)人利益也終會(huì)受損。因此,在最基本的層面上,群體內(nèi)部的分享和合作,將促進(jìn)社群朝著包容性的健康方向發(fā)展。這是道德演化的總體趨勢(shì)[1]。在總體的道德演進(jìn)趨勢(shì)中,有各種各樣的制約因素。例如,我們都反感的“搭便車行為”(free-ride),這種行為有損群體內(nèi)部的長(zhǎng)期合作。搭便車的效果取決于群體的規(guī)模,群體規(guī)模相對(duì)較小,搭便車非明智之舉。隨著群體規(guī)模的擴(kuò)大,個(gè)體的匿名性越來(lái)越強(qiáng),搭便車行為也越來(lái)越難以察覺(jué)[2]。故而在較大規(guī)模的群體中,為了群體利益而合作的道德傾向也會(huì)相應(yīng)地減弱。
由于在小而緊密的群體中,我們更在意所處的直接環(huán)境。這樣便使得我們傾向于更關(guān)心周圍的人,而不是那些在空間或時(shí)間上更遙遠(yuǎn)的人。此外,根據(jù)親緣選擇理論,我們的利他傾向體現(xiàn)在對(duì)家人和朋友的偏愛(ài)。由于生物體的近親擁有一些相同的基因,因此基因可以通過(guò)促進(jìn)相關(guān)個(gè)體或其他類似個(gè)體的繁殖和生存來(lái)提高進(jìn)化的成功率[3]。我們慢慢形成了一個(gè)普遍的共識(shí),不加區(qū)別地幫助陌生人,會(huì)使我們面臨被搭便車者利用或者被受助者敲詐的風(fēng)險(xiǎn)。此外,從群體間競(jìng)爭(zhēng)的角度來(lái)看,建立明確的群體界限,對(duì)于凝聚和疏導(dǎo)群體行為,無(wú)疑是大有助益的[4]。但另一方面,這種強(qiáng)烈的群體認(rèn)同和依戀也會(huì)產(chǎn)生弊端,包括對(duì)外部群體成員的強(qiáng)烈憎恨,導(dǎo)致反社會(huì)行為和仇外心理。
全球化進(jìn)程逐漸將人類社會(huì)變成“地球村”,在這個(gè)超大的社群中,人類道德有限的危害還表現(xiàn)在其他方面。根據(jù)心理學(xué)中“責(zé)任分散效應(yīng)”(旁觀者效應(yīng),by stander effect),當(dāng)要求個(gè)體單獨(dú)完成任務(wù),該個(gè)體就會(huì)表現(xiàn)出很強(qiáng)的責(zé)任感,但如果要求一個(gè)群體共同完成任務(wù),群體中每個(gè)個(gè)體的責(zé)任感就會(huì)變?nèi)?。俗語(yǔ)有云,“一個(gè)和尚挑水喝,兩個(gè)和尚抬水喝,三個(gè)和尚沒(méi)水喝”。所以在那些需要得到幫助的弱勢(shì)群體面前,社群的規(guī)模越是龐大,社群中的個(gè)體往往越發(fā)冷漠。當(dāng)面對(duì)全球性難題時(shí),“責(zé)任分散效應(yīng)”便顯露無(wú)疑。例如,很難讓群體中的單個(gè)主體自愿采取行動(dòng)避免環(huán)境危機(jī),每個(gè)主體對(duì)總體結(jié)果的貢獻(xiàn)變得微不足道或難以察覺(jué)。這使得主體幾乎沒(méi)有利他甚至利己的理由和動(dòng)機(jī)為解決方案作出貢獻(xiàn)。長(zhǎng)此以往,不利于解決環(huán)境危機(jī)和氣候變化難題。
人類道德有限性的后果在現(xiàn)代社會(huì)愈加凸顯。人類在進(jìn)化過(guò)程中已具備的適應(yīng)性,不足以讓我們應(yīng)對(duì)現(xiàn)代全球化所帶來(lái)的技術(shù)挑戰(zhàn)。事實(shí)上,科學(xué)技術(shù)的發(fā)展已經(jīng)從根本上改變了我們的生活條件和生存方式。我們現(xiàn)在生活在一個(gè)人口基數(shù)龐大的社會(huì)中,擁有先進(jìn)的科學(xué)技術(shù),這些技術(shù)使我們能夠?qū)θ澜?,甚至?duì)遙遠(yuǎn)未來(lái)的人類命運(yùn)產(chǎn)生影響。比如,人類在20世紀(jì)研發(fā)并配備了大規(guī)模毀滅性的核武器和生化武器,這些武器可能被主權(quán)國(guó)家用于爭(zhēng)奪日益減少的自然資源而引發(fā)戰(zhàn)爭(zhēng),或者被恐怖分子利用。無(wú)論是何種情況,后果都不堪設(shè)想。很顯然,這類技術(shù)帶來(lái)的問(wèn)題無(wú)法通過(guò)技術(shù)革新來(lái)克服。
我們的道德是一種有限的進(jìn)化方式,有著天然的不足。當(dāng)考慮在特定情況下權(quán)衡利弊并決定采取何種行動(dòng)時(shí),我們無(wú)法克服這些限制。有人可能會(huì)反駁,認(rèn)為可以調(diào)用理性的道德推理來(lái)消除這些缺陷。事實(shí)上,對(duì)于人類而言,系統(tǒng)的道德推理是極其罕見(jiàn)的,往往是一種幻覺(jué)[2]。
綜上,技術(shù)的進(jìn)步擴(kuò)大了我們的行動(dòng)能力,但也帶來(lái)了巨大的風(fēng)險(xiǎn)。人類文明比以往任何時(shí)候都更加脆弱,我們能否在某種程度上提升人類道德水平,也就在某種程度上影響著社會(huì)的安定,甚至影響著人類的命運(yùn)。通過(guò)傳統(tǒng)的道德教化來(lái)增強(qiáng)道德,周期漫長(zhǎng),且收效甚微。因此,我們有必要探討道德增強(qiáng)的其他可能進(jìn)路。
到目前為止,在關(guān)于道德增強(qiáng)的爭(zhēng)論中,焦點(diǎn)主要集中在影響道德增強(qiáng)的生物醫(yī)學(xué)手段上。生物醫(yī)學(xué)道德增強(qiáng)并非僅停留在科幻小說(shuō)的層面,由于神經(jīng)科學(xué)和生物技術(shù)的進(jìn)步,我們現(xiàn)在能夠通過(guò)直接影響或干預(yù)個(gè)體的生物機(jī)制來(lái)影響其道德思考和行為。這些干預(yù)的目的將是促進(jìn)對(duì)他人的信任和培養(yǎng)合作的愿望??茖W(xué)實(shí)驗(yàn)的結(jié)果表明,通過(guò)生物醫(yī)學(xué)手段提高道德水平是可能的。事實(shí)上,許多已經(jīng)在使用的藥物或多或少有道德增強(qiáng)的效果。生物醫(yī)學(xué)干預(yù)可以影響道德決策,這些干預(yù)措施包括使用各種物質(zhì),如催產(chǎn)素和血清素,以及各種技術(shù),包括經(jīng)顱磁刺激和提供神經(jīng)反饋[2]。然而,從目前的報(bào)道來(lái)看,生物醫(yī)學(xué)干預(yù)效果不顯著且持續(xù)時(shí)間短。
在生物醫(yī)學(xué)干預(yù)的問(wèn)題上,一些學(xué)者認(rèn)為,自愿實(shí)施這些干預(yù)措施在道德上是允許的或可取的,主要以牛津大學(xué)的托馬斯·道格拉斯(Thomas Douglas)和華盛頓大學(xué)的戴維·德格拉齊亞(David DeGrazia)為代表。另外一些人則認(rèn)為,這些干預(yù)措施非常緊迫,如果我們作為一個(gè)物種要生存下去,則需要強(qiáng)制性的干預(yù)。主要以英格瑪·佩爾松(Ingmar Persson)和朱利安·薩烏列斯庫(kù)(Julian Savulescu)為代表[5]。
上述兩種觀點(diǎn)代表了生物醫(yī)學(xué)增強(qiáng)的兩條進(jìn)路:自愿道德生物增強(qiáng)(VMBE)與強(qiáng)制道德生物增強(qiáng)(CMBE)形成了鮮明的對(duì)比。還有學(xué)者討論了第三種可能的道德生物增強(qiáng)類型:非自愿道德生物增強(qiáng)(IMBE)。例如,基因組編輯以增強(qiáng)未出生胎兒的道德,這既不是自愿的,也不是強(qiáng)制性的,而是非自愿的。非自愿道德生物增強(qiáng)可能會(huì)使人們變得比原本更有道德,也評(píng)估了旨在提高我們后代道德水平的基因組編輯的可能性。對(duì)我們的后代進(jìn)行基因改造的基因組編輯可能在三個(gè)方面發(fā)揮效果:讓他們更有同理心、更少暴力攻擊、更有可能進(jìn)行復(fù)雜的道德反思[6]。有學(xué)者指出,像基因組編輯這樣的非自愿道德生物增強(qiáng),再結(jié)合自愿道德生物增強(qiáng),可能是人類必須變得更好的最佳選擇。
盡管人類使用生物醫(yī)學(xué)技術(shù)可能會(huì)改變?nèi)祟惖哪承┑赖虑楦?,但要從根本上提高一個(gè)人的道德動(dòng)機(jī),做出更好的道德行為,獲得明顯的道德品質(zhì)提升,道德增強(qiáng)還將面臨著巨大的挑戰(zhàn),甚至是一些無(wú)法逾越的困難。首先,道德情感難以量化的特點(diǎn)使道德增強(qiáng)變得異常困難。其次,道德心理表現(xiàn)出的個(gè)體發(fā)育的復(fù)雜性以及神經(jīng)心理的復(fù)雜性給道德增強(qiáng)準(zhǔn)確的“目標(biāo)干預(yù)”(targeted intervention)帶來(lái)嚴(yán)峻的挑戰(zhàn)。第三,道德多元化使我們對(duì)道德增強(qiáng)的可能性產(chǎn)生懷疑。最后,如果科學(xué)家將來(lái)可以做到安全有效地運(yùn)用生物醫(yī)學(xué)技術(shù)精確地調(diào)節(jié)人的情感,道德增強(qiáng)是不是就沒(méi)有問(wèn)題了呢[7]?
即便這些生物干預(yù)措施不會(huì)對(duì)人體健康造成不利影響,生物醫(yī)學(xué)增強(qiáng)道德也會(huì)引發(fā)一些深層次的哲學(xué)討論。如果說(shuō)器官移植技術(shù)開(kāi)啟了個(gè)人同一性問(wèn)題,那么道德和認(rèn)知增強(qiáng)便將這個(gè)議題引得更遠(yuǎn)。當(dāng)我們選擇認(rèn)知增強(qiáng)技術(shù)和道德增強(qiáng)技術(shù)時(shí),我們的個(gè)人同一性是否受損?即使這種增強(qiáng)技術(shù)的效果是暫時(shí)的,是否會(huì)出現(xiàn)短暫的個(gè)人同一性“紊亂”。長(zhǎng)期且頻繁地使用這類技術(shù),對(duì)個(gè)人同一性將產(chǎn)生異常深遠(yuǎn)的影響[8]。此外,像基因組編輯這樣的非自愿道德生物增強(qiáng)一旦開(kāi)啟,誰(shuí)能保證不會(huì)再次發(fā)生“賀建奎事件”呢?
我們從主體道德神經(jīng)或情緒增強(qiáng)的角度考察道德增強(qiáng),道德主體在某種程度上受到生物醫(yī)學(xué)技術(shù)的影響或促進(jìn),然而生物醫(yī)學(xué)技術(shù)在實(shí)現(xiàn)道德增強(qiáng)方面的技術(shù)風(fēng)險(xiǎn)未知,發(fā)展前景不明。我們將考察一個(gè)鮮有論及的議題:“道德人工智能增強(qiáng)”(moral AI enhancement)。
在我們能夠自信而安全地使用生物醫(yī)學(xué)干預(yù)手段來(lái)提高道德水平之前,科學(xué)家還有大量的工作要做。鑒于此,理論家和科學(xué)家在繼續(xù)研究生物醫(yī)學(xué)增強(qiáng)的同時(shí),還可以探索一條新的研究進(jìn)路——道德人工智能(moral AI)[2]。由于道德人工智能增強(qiáng)的目的不是改變我們動(dòng)機(jī)的生物學(xué)原因,在不使用生物醫(yī)學(xué)技術(shù)干預(yù)的情況下,借助人工智能的最新成果增強(qiáng)人類道德能力,因此風(fēng)險(xiǎn)和爭(zhēng)議將會(huì)減少。
玉敏在和雨落交接,聽(tīng)花奴叫自己,就去了鉆石柜。花奴和玉敏低聲說(shuō)了,玉敏不相信,兩人把所有鉆石又逐個(gè)核對(duì)了一遍,證實(shí)了花奴的猜想。玉敏賣出去的那枚鉆戒,不是三萬(wàn)七千五百八,而是三十七萬(wàn)五千八。就是說(shuō),這件三十多萬(wàn)的鉆戒,被玉敏當(dāng)作三萬(wàn)五賣了。當(dāng)這個(gè)事實(shí)被無(wú)情地證明了時(shí),玉敏傻了,花奴也傻了。連雨落都傻了。羅蘭金店開(kāi)業(yè)這些年,頭一回遇上這么荒唐的事。雨落問(wèn)這單誰(shuí)做的,玉敏剛要開(kāi)口,花奴說(shuō)是玉敏做的。李琳正好走過(guò)來(lái),聽(tīng)花奴這么說(shuō),小聲對(duì)李雪微道,這回不爭(zhēng)了?;ㄅD(zhuǎn)過(guò)臉,朝李琳瞪了一眼。李琳伸伸舌,閉了嘴。雨落數(shù)落玉敏,你二百五啊,鉆戒價(jià)格不都是幾千幾百的,哪有帶八十零頭的?
我們根據(jù)人工智能輔助道德決策的范圍和方式,將其分為“強(qiáng)”道德人工智能(76)借鑒薩烏列斯庫(kù)和馬斯蘭(Hannah Maslen)的“strong moral AI”,謝弗(Owen Schaefer)稱之為“直接道德增強(qiáng)”(direct moral enhancement)。我們采用前者,并在后面相應(yīng)地“制造”和使用了“weak moral AI”。和“弱”道德人工智能。所謂的“強(qiáng)”道德人工智能,就是指將人類的道德決策完全交給機(jī)器來(lái)完成的徹底增強(qiáng)人類道德的方式。這里的“徹底”意味著一勞永逸地解決人類道德增強(qiáng)的問(wèn)題。而“弱”道德人工智能則沒(méi)有那么激進(jìn)。在“弱”層面,道德人工智能將監(jiān)控影響道德決策的生理和環(huán)境因素,識(shí)別偏見(jiàn)并讓主體意識(shí)到自己的偏見(jiàn),然后根據(jù)主體的道德價(jià)值觀,向主體提供行動(dòng)方向的建議?!叭酢钡赖氯斯ぶ悄茉跒橹黧w量身定制的過(guò)程中,不僅能保持道德價(jià)值的多元性,還能促使主體進(jìn)行反思,幫助主體克服自身的自然心理局限,從而增強(qiáng)主體的自主性[2]。
“強(qiáng)”道德人工智能的目標(biāo)是把機(jī)器變成道德決策者。埃里克·迪特里希(Eric Dietrich)是“強(qiáng)”道德人工智能的支持者。他對(duì)人類的道德本性持悲觀態(tài)度,對(duì)人工智能的前景異常樂(lè)觀。迪特里希相信這些機(jī)器人在道德決策方面可能掀起一場(chǎng)“哥白尼式革命”。他把這些機(jī)器人視為智人的改良版,他稱之為“智人2.0”,它們將是“我們本性中更好的天使”[9],絕大多數(shù)人類無(wú)法達(dá)到道德決策機(jī)器的道德水準(zhǔn)和道德推理水平。
雖然迪特里希的建議沒(méi)有受到贊譽(yù),但一些學(xué)者認(rèn)為,道德決策機(jī)器的發(fā)明是為了提升人類道德決策的水平,而不是讓人類變得多余。道德決策機(jī)器的決策將以公正性、一致性和不受情感影響為特征,也不受包括非理性的自我中心或群體偏見(jiàn)等因素的限制。所以人類的決策可以被更擅長(zhǎng)道德推理的機(jī)器糾正或推翻[10]。此外,道德決策機(jī)器不會(huì)厭倦對(duì)正確標(biāo)準(zhǔn)的持續(xù)判斷。
在“強(qiáng)”道德人工智能進(jìn)路中,我們唯一需要做的就是服從道德決策機(jī)器。根據(jù)迪特里希的提議,科學(xué)家試圖通過(guò)創(chuàng)造自主的人工智能來(lái)增強(qiáng)道德行為,這些人工智能將基于系統(tǒng)設(shè)計(jì)者認(rèn)為有效的道德概念,指導(dǎo)人類的信仰、動(dòng)機(jī)和行為。在最初的方案擬訂完成后,所有人員,包括設(shè)計(jì)人員,不需要再發(fā)揮積極的作用。除了把決策權(quán)“外包”給決策系統(tǒng),我們無(wú)需任何心理或行為上的努力來(lái)達(dá)到預(yù)期的改善[11]。人類可以借助直接模式執(zhí)行這些決策直接控制我們的行為,例如通過(guò)人機(jī)耦合的方式植入大腦芯片,指導(dǎo)我們的行動(dòng)?;虿捎瞄g接模式,間接地通過(guò)一臺(tái)制裁任何偏離系統(tǒng)所要求行為的決策機(jī)器[5]。
“強(qiáng)”道德人工智能的設(shè)想在目前看來(lái)有點(diǎn)近乎于理想主義,這種理想面臨著諸多困境,主要表現(xiàn)為以下幾個(gè)方面。首先,由于倫理學(xué)中的多元主義的存在,我們很難就哪一種道德方案應(yīng)成為系統(tǒng)設(shè)計(jì)的標(biāo)準(zhǔn)達(dá)成共識(shí)。我們應(yīng)該使用哪種道德理論作為機(jī)器遵循的標(biāo)準(zhǔn)?應(yīng)該使用義務(wù)論、功利主義、契約主義、德性倫理還是其他倫理理論?無(wú)論選擇哪一種理論,其中一種理論的選擇會(huì)導(dǎo)致系統(tǒng)采取不同于基于另一種理論的行動(dòng),總會(huì)有人持有異議。
其次,即使設(shè)計(jì)者能夠就倫理學(xué)理論達(dá)成共識(shí),我們也可能會(huì)因?yàn)槿藶榛蚍侨藶榈南拗贫鵁o(wú)法建立一個(gè)良好的系統(tǒng)。這主要源于人類或非人類的易錯(cuò)性。系統(tǒng)設(shè)計(jì)人員可能會(huì)犯一些編程錯(cuò)誤,以及系統(tǒng)運(yùn)行的突發(fā)性故障。此外,所謂的“價(jià)值原則”由非常含混的觀念集合而成,何以確保我們要設(shè)立的價(jià)值觀必定是合理不悖。智能系統(tǒng)能否“理解”這些加載的價(jià)值觀[12]?即使是純粹的邏輯和理論論證,在嚴(yán)格理性的條件下,也可能得出愚蠢的結(jié)論。
第三,我們懷疑這個(gè)系統(tǒng)是否能夠成為一個(gè)自主的道德體,能否做出道德決策。目前來(lái)說(shuō),我們不認(rèn)為任何系統(tǒng)可以被視為自主的道德主體。因此,簡(jiǎn)單地按照我們被告知的去做是不可取的。我們承認(rèn)一些計(jì)算機(jī)可以模擬或模擬分析判斷是否可靠,但我們捍衛(wèi)道德的觀點(diǎn)取決于做出綜合判斷的能力,而不僅僅是一些數(shù)據(jù)信息的分析,而綜合判斷能力是機(jī)器難以具備的。自主的道德主體必定是情感敏感性的,夾雜著一些非理性的沖動(dòng)。情感的敏感性是做出道德判斷的必要條件,所以我們甚至懷疑機(jī)器的道德判斷是否可能。
第四,“強(qiáng)”道德人工智能扼殺了道德進(jìn)步的可能性,甚至意味著道德的死亡。如果我們讓系統(tǒng)來(lái)決策,我們就會(huì)得到一個(gè)靜態(tài)的道德解釋,因?yàn)樗荒苣M,而不能做出判斷。所以現(xiàn)在做出的道德判斷在其他時(shí)候可能不再被接受。例如,在19世紀(jì)某些被廣泛傳播的價(jià)值觀,如關(guān)于奴隸制或有色人種的說(shuō)法放在現(xiàn)在肯定不恰當(dāng)。同樣的,如今某些根深蒂固的觀點(diǎn),有一天也有可能會(huì)被視為道德問(wèn)題。因此,如果我們?cè)试S人類的決策由系統(tǒng)來(lái)執(zhí)行,就基本上放棄了道德改進(jìn)的可能性。要使道德進(jìn)步成為可能,道德多元主義就必須存在,從而產(chǎn)生不同意見(jiàn)。我們“外包”道德決策,可能最終會(huì)使我們?cè)谧龀鰝惱頉Q策時(shí)缺乏信心,香農(nóng)·瓦洛(Shannon Vallor)認(rèn)為這會(huì)導(dǎo)致道德技能的喪失。我們就被剝奪了亞里士多德認(rèn)為的美好生活的一個(gè)基本要素:過(guò)一種由道德理解主導(dǎo)的生活,這種道德理解是通過(guò)實(shí)踐而發(fā)展起來(lái)的[13]。
上述分析表明,直接模式宣告道德本身的死亡,系統(tǒng)會(huì)控制人類的行為,人類會(huì)在沒(méi)有實(shí)際參與的情況下做出決策。如果系統(tǒng)阻礙了人類有意識(shí)的推理和理性的思索,人工智能道德徹底增強(qiáng)就是一種短視策略。間接模式也存在類似的問(wèn)題。在這兩種情況下,機(jī)器都可能主宰我們,以至于危及人類的自由和生命。因此,我們認(rèn)為,最終決策主體應(yīng)該始終獨(dú)立于機(jī)器。
與其設(shè)計(jì)一個(gè)人工智能來(lái)規(guī)范我們的行為,不如利用環(huán)境智能的不同功能,比如收集、計(jì)算和更新數(shù)據(jù),來(lái)輔助我們做出更好的決策,從而更好地行動(dòng)。
既然“強(qiáng)”道德人工智能徹底增強(qiáng)人類道德的進(jìn)路失效,我們退而求其次,考察“弱”道德人工智能。與“強(qiáng)”道德人工智能不同的是,“弱”道德人工智能需要主體的參與,我們稱之為輔助增強(qiáng)。隨著普適計(jì)算和環(huán)境智能的發(fā)展,人工智能意味著“無(wú)處不在的計(jì)算”或“環(huán)境智能”,即系統(tǒng)從多個(gè)傳感器和數(shù)據(jù)庫(kù)收集信息,根據(jù)系統(tǒng)用戶訂制需求,進(jìn)行實(shí)時(shí)處理。
依照這個(gè)思路,薩烏列斯庫(kù)提出了兩種方案,主體可以在任何時(shí)候以不同的方式對(duì)系統(tǒng)提供的價(jià)值觀進(jìn)行排序,或者選擇使用不同版本的系統(tǒng)。第一種方案是在道德人工智能系統(tǒng)中嵌入一個(gè)價(jià)值觀列表,主體從這個(gè)價(jià)值觀列表中選擇一些與自己價(jià)值觀較匹配的,并對(duì)它們的重要性予以權(quán)重排序。當(dāng)要做出道德決策時(shí),系統(tǒng)會(huì)推薦最為符合主體價(jià)值觀的道德決策[2]。在第二種方案中,薩烏列斯庫(kù)建議道德人工智能系統(tǒng)能夠提供的不同的價(jià)值觀版本,主體根據(jù)其價(jià)值觀偏好選擇希望采用的版本。這樣更適用特定的人群,能夠反映特定的倫理價(jià)值人類主體的約束性需求。例如,基督教的道德專家可以設(shè)計(jì)一個(gè)“如何成為虔誠(chéng)的基督徒”系統(tǒng),他們可以在這個(gè)系統(tǒng)中設(shè)定約束條件。那些想成為好的基督徒,但又不知道在特定情況下該應(yīng)用什么原則的教眾們,便可以選擇由基督教專家設(shè)計(jì)的人工道德顧問(wèn),而不用采用系統(tǒng)的其他版本。薩烏列斯庫(kù)的方案并非象牙塔中的陳列品,目前已經(jīng)得到了初步的應(yīng)用,如應(yīng)用到醫(yī)學(xué)倫理學(xué)領(lǐng)域的MeEthEx系統(tǒng),該系統(tǒng)納入了JEREMY程序中的邊沁(Jeremy Bentham)功利主義理論,并混合了羅斯(William Ross)的表面義務(wù)理論(prima facie duty)和羅爾斯(John Rawls)的反思平衡理論(reflexive equilibrium)[14]。
我們認(rèn)為薩烏列斯庫(kù)的方案存在三個(gè)問(wèn)題。首先,主體仍缺乏主觀能動(dòng)性。一旦主體選擇了他們希望采用的價(jià)值觀,主體剩下的惟一決策就是決策是否接受機(jī)器給出的建議。我們便又回到了“強(qiáng)”道德人工智能徹底增強(qiáng)的老路子。由于行為人不需要理解他們的價(jià)值觀和系統(tǒng)所做的決策之間的理性聯(lián)系,所以他們的道德技能不會(huì)得到明顯提升。如果機(jī)器停止工作,主體的道德決策能力可能又會(huì)回到初始點(diǎn)。我們認(rèn)為道德人工智能輔助增強(qiáng)重點(diǎn)是幫助決策者成為更好的道德主體,而非僅僅是幫助主體做出正確的決策。其次,主體通過(guò)選擇一個(gè)價(jià)值觀層次結(jié)構(gòu)或通過(guò)選擇確定的價(jià)值觀框架,就會(huì)使主體不再愿意接受更多的可能性。一旦道德主體的價(jià)值觀固定下來(lái),那么系統(tǒng)接下來(lái)只會(huì)推薦符合這些價(jià)值觀的決策,而不是鼓勵(lì)主體去質(zhì)疑反思。薩烏列斯庫(kù)隱約認(rèn)識(shí)到了這一點(diǎn),他寫道,使用機(jī)器可能會(huì)鼓勵(lì)順從,而不是“更深層次的思考”[2]。此外,雖然上述兩個(gè)方案允許多種不同的視角,但我們發(fā)現(xiàn)上述方案存在一個(gè)容易被忽視的問(wèn)題,即在選擇不同版本或系統(tǒng)的人之間如何達(dá)成廣泛的平衡或一致。
為了避免走向徹底增強(qiáng),比起薩烏列斯庫(kù)的方案,“弱”道德人工智能輔助增強(qiáng)系統(tǒng)要更加突出主體在決策中的能動(dòng)作用。我們需要算法來(lái)避免機(jī)器偏向于特定的價(jià)值觀和倫理理論。因此,輔助增強(qiáng)要繞開(kāi)或超越當(dāng)前基于特定價(jià)值理論開(kāi)發(fā)的計(jì)算模型的趨勢(shì),如已經(jīng)應(yīng)用于工程領(lǐng)域的SIROCCO程序。相反,輔助增強(qiáng)的早期程序的意圖是幫助用戶,而不是給他們一個(gè)解決方案。這些早期的程序中,它們的具體目標(biāo)是幫助用戶通過(guò)提出實(shí)際問(wèn)題并進(jìn)行道德推理。他們從這些問(wèn)題的視頻開(kāi)始,試圖邀請(qǐng)用戶進(jìn)行道德探索。例如,由唐納德·瑟林(Donald Searing)設(shè)計(jì)的Ethos項(xiàng)目,旨在配合一份工程倫理手冊(cè),提供有關(guān)某些困境的視頻和采訪,以此激發(fā)用戶提出新問(wèn)題,并反思自己以前的立場(chǎng)。圣克拉拉大學(xué)馬庫(kù)拉應(yīng)用倫理中心(Markkula Center for Applied Ethics)開(kāi)發(fā)的一款“道德決策助理”手機(jī)應(yīng)用,用于指導(dǎo)道德決策[5]。類似的程序應(yīng)用還有很多。
輔助增強(qiáng)的早期程序通過(guò)主體與系統(tǒng)或程序之間的不斷交互,試圖幫助我們自己做出更好的決策,而不是讓我們接受任何預(yù)先設(shè)計(jì)好的倫理觀點(diǎn)。雖然這些早期的人工智能增強(qiáng)的例子關(guān)注的是機(jī)器和人類之間的持續(xù)互動(dòng),但是輔助增強(qiáng)的早期程序與主體的交互性不是十分的密切和頻繁。由于當(dāng)時(shí)的技術(shù)限制,這些早期程序存在著應(yīng)用范圍小、效果欠佳、交互程度低等缺陷。
隨著人工智能的迅猛發(fā)展,人工智能通過(guò)更全面高效的數(shù)據(jù)收集、電子信息化和實(shí)時(shí)數(shù)據(jù)更新,將使主體能夠更好地做出道德決策。這種改進(jìn)主要體現(xiàn)在兩個(gè)方面。首先體現(xiàn)在質(zhì)量上,在人工智能道德輔助增強(qiáng)的程序或系統(tǒng)中,主體的參與程度更高,參與方式多樣化,參與效率顯著提升。其次,把重點(diǎn)放在主體的道德塑造過(guò)程上,而非直接的結(jié)果上。道德人工智能的目的是幫助主體學(xué)習(xí)道德推理,梳理道德決策流程,探索道德判斷的倫理合理性,而不是讓主體受控依附于特定的價(jià)值觀系統(tǒng)或程序。弗朗西斯科·勞拉(Francisco Lara)和簡(jiǎn)·德克爾(Jan Deckers)基于人工智能的當(dāng)前進(jìn)展和未來(lái)發(fā)展趨勢(shì),構(gòu)想了一個(gè)雄心勃勃的系統(tǒng),以輔助人類道德決策,并促進(jìn)實(shí)施道德行為。勞拉和德克爾提出了六項(xiàng)指導(dǎo)性條目,我們精而簡(jiǎn)之,優(yōu)而擇之,強(qiáng)調(diào)在設(shè)計(jì)計(jì)算機(jī)程序時(shí),應(yīng)考慮以下四個(gè)方面的建議。
第一,道德人工智能系統(tǒng)輔助主體進(jìn)行概念梳理,明晰概念定義。道德判斷經(jīng)常使用沒(méi)有明確定義的概念,這些模糊不清的概念會(huì)制約判斷的有效性。倫理論證中的許多基本概念具有很強(qiáng)的規(guī)范性元素,這些元素有多種解釋,其知識(shí)對(duì)于精確捍衛(wèi)道德立場(chǎng)至關(guān)重要。主體并不總能意識(shí)到概念意義的多樣性,系統(tǒng)在他們需要幫助的時(shí)候,可以給予他們提示。該系統(tǒng)可以從大數(shù)據(jù),如詞典、語(yǔ)法教材、語(yǔ)言使用記錄的交叉信息中獲取這些知識(shí)[5]。長(zhǎng)此以往,他們?cè)诖_定任何概念的含義時(shí),都會(huì)保持審慎態(tài)度。
第二,道德人工智能系統(tǒng)助力主體理解邏輯論證的結(jié)構(gòu)。道德判斷建立在必須遵循一定邏輯準(zhǔn)則的論證基礎(chǔ)上。每種類型的論證,如歸納、演繹、類比……都有一些推理規(guī)則,行為人要么是出于無(wú)知,要么是因?yàn)槟承┫热霝橹鞯钠?jiàn),沒(méi)有遵守這些規(guī)則。我們?cè)O(shè)計(jì)的計(jì)算機(jī)系統(tǒng)要讓行為人看到他的論點(diǎn)的邏輯缺陷,向他們展示所犯的錯(cuò)誤,或者通過(guò)使用最常見(jiàn)的謬誤集,希望這可以讓他們明白為什么他們的推理是無(wú)效的。那么它對(duì)道德的增強(qiáng)將是非常有價(jià)值的。此外,如果系統(tǒng)能夠根據(jù)賦予行為人所有判斷意義的終極價(jià)值標(biāo)準(zhǔn),警告行為人他們的特定道德判斷需要在倫理上前后一致,為行為人提供一種使其判決前后一致的元標(biāo)準(zhǔn),而不是將其判決的正當(dāng)性留給不可調(diào)和的理由。
第三,“環(huán)境”監(jiān)測(cè)增強(qiáng)主體對(duì)其個(gè)人局限性的認(rèn)識(shí)。我們可以利用環(huán)境智能的收集、計(jì)算和更新數(shù)據(jù)的功能輔助決策,指導(dǎo)行動(dòng)。還可以起到很大的提醒作用。借助各種穿戴設(shè)備對(duì)施動(dòng)者的生理、心理狀態(tài)和環(huán)境的監(jiān)測(cè),人工智能系統(tǒng)可以對(duì)某些可能影響決策的生物和環(huán)境因素發(fā)出一定的風(fēng)險(xiǎn)預(yù)警。比如道德決策前主體睡眠不足、紊亂的激素和神經(jīng)遞質(zhì)、攝入過(guò)已知有害的精神藥物和酒精制品,以及受到高溫、噪聲等環(huán)境因素影響時(shí),系統(tǒng)應(yīng)該提醒主體暫緩決策[2]。
第四,道德人工智能系統(tǒng)就具體問(wèn)題提出建議。這些軟件或程序可以快速訪問(wèn)大量數(shù)字化信息,一旦添加了特定的搜索標(biāo)準(zhǔn),就可以在必須做出復(fù)雜決策的領(lǐng)域?yàn)槿祟愄峁椭?。一些先進(jìn)的技術(shù)已經(jīng)應(yīng)用到認(rèn)知決策領(lǐng)域,在商業(yè)和醫(yī)學(xué)領(lǐng)域取得了較大進(jìn)展。人工智能的使用產(chǎn)生了一種被稱為臨床決策支持系統(tǒng)的技術(shù),這是一種用來(lái)改善臨床決策信息技術(shù),用來(lái)幫助醫(yī)生制定診斷和做出醫(yī)療決策。該軟件錄入患者的癥狀和病情信息,并與醫(yī)學(xué)數(shù)據(jù)庫(kù)、患者及其家庭病史交叉綜合,得出診斷和相應(yīng)的治療[15]。道德人工智能系統(tǒng)可以參考這個(gè)軟件,幫助道德主體如何運(yùn)用他之前認(rèn)為有效的道德判斷。道德人工智能系統(tǒng)接收有關(guān)已采取的道德決策的信息,并衡量有關(guān)該決策可能如何影響他人和環(huán)境的相關(guān)信息,然后建議主體如何使其行為道德立場(chǎng)相符[6]。更重要的是,該系統(tǒng)可以利用其強(qiáng)大的數(shù)據(jù)庫(kù)資源,讓主體有機(jī)會(huì)參考其他人碰到類似情形是如何處理的。
簡(jiǎn)而言之,道德人工智能系統(tǒng)將通過(guò)計(jì)算機(jī)、虛擬現(xiàn)實(shí)設(shè)備或大腦接口接收來(lái)自科學(xué)、語(yǔ)言學(xué)、邏輯學(xué)等諸多數(shù)據(jù)庫(kù)的信息。在傳感器的幫助下,系統(tǒng)還將監(jiān)測(cè)主體的生理狀況和周遭環(huán)境。然后,系統(tǒng)將按照上述思路處理這些信息,通過(guò)虛擬語(yǔ)音助手與主體進(jìn)行對(duì)話,類似科幻電影《She》中的虛擬聊天助手。在這個(gè)對(duì)話中,系統(tǒng)會(huì)問(wèn)一些問(wèn)題。例如,你使用的這個(gè)詞是什么意思?你知道這兩個(gè)斷言相互矛盾嗎?你知道這個(gè)演繹/歸納/類比論證是無(wú)效的嗎?還有其他可能的情形嗎?你是否意識(shí)到你目前的身體狀況/環(huán)境不是做出重要決策的最佳環(huán)境?你知道嗎,在這種情況下,你的決策可以像這樣得到最好的執(zhí)行……[5]通過(guò)整合虛擬現(xiàn)實(shí),該系統(tǒng)還可以說(shuō)服我們更認(rèn)真地對(duì)待行為的后果。整個(gè)過(guò)程貫穿一個(gè)思路:道德人工智能系統(tǒng)服務(wù)于道德主體,并且確保道德決策最終由主體做出。
日益全球化的趨勢(shì),以及科技的飛速發(fā)展,造福了人類,同時(shí)也帶來(lái)了巨大威脅,我們須重新審視人類自古以來(lái)追求道德提升的愿望。鑒于我們目前對(duì)道德行為的生物決策因素,以及利用生物醫(yī)學(xué)技術(shù)影響這些決策因素的風(fēng)險(xiǎn)尚未明確。我們認(rèn)為,即使道德生物增強(qiáng)是自愿的,為其辯護(hù)還為時(shí)尚早。我們將焦點(diǎn)轉(zhuǎn)移至人工智能。人工智能不直接干預(yù)我們的身體,可以減少危險(xiǎn)和爭(zhēng)議,可能是一個(gè)不錯(cuò)的選擇。我們考察了人工智能的徹底增強(qiáng)和輔助增強(qiáng)兩種進(jìn)路。在徹底增強(qiáng)中,人類的道德決策權(quán)“外包”給了機(jī)器,阻斷了主體道德自我改進(jìn)的可能性。即便是一些輔助增強(qiáng)項(xiàng)目,例如薩烏列斯庫(kù)的方案過(guò)分注重結(jié)果而非過(guò)程,也可能阻礙我們道德能力的發(fā)展。
我們?cè)凇叭酢钡赖氯斯ぶ悄艿目蚣芟聵?gòu)想了一個(gè)新的方案,該方案凸顯了道德人工智能系統(tǒng)輔助主體道德決策的四個(gè)面向,強(qiáng)調(diào)主體和計(jì)算機(jī)輔助之間的交互關(guān)系。在這里,主體的角色是主動(dòng)性的,系統(tǒng)通過(guò)多途徑向主體給予知識(shí)性的幫助,實(shí)時(shí)監(jiān)控主體生理狀況,借助虛擬語(yǔ)言助手向主體提供建議,系統(tǒng)更多起到“專家智庫(kù)”的作用,主體在決策之前綜合衡量這些建議??傊?,主體在任何階段都不會(huì)喪失自主權(quán)。這個(gè)助手以蘇格拉底式的方式提出問(wèn)題并提供相關(guān)信息,幫助人類主體做出更好的道德判斷,鼓勵(lì)實(shí)施與這些判斷相一致的可實(shí)現(xiàn)的行為。通過(guò)這種方式,系統(tǒng)既可以幫助主體學(xué)習(xí)和強(qiáng)化道德決策所要求的認(rèn)知技能,又可以激勵(lì)主體按照他們認(rèn)為正確的方式行事。
我們認(rèn)為人工智能系統(tǒng)比人類對(duì)話者更勝任“道德專家智庫(kù)”。相較于人類,系統(tǒng)具有超凡的運(yùn)行效率和中立的理性立場(chǎng),并且具備隨時(shí)調(diào)取過(guò)去的統(tǒng)計(jì)數(shù)據(jù)以及對(duì)新情況的即時(shí)反應(yīng)的能力,更容易取得用戶的信任[16]。此外,如果對(duì)人工智能系統(tǒng)進(jìn)行定期的重新設(shè)計(jì)、更新數(shù)據(jù)、改進(jìn)算法、提升人機(jī)交互的效率,以增強(qiáng)其認(rèn)知和情感吸引力,比如在系統(tǒng)中加入更多個(gè)性化元素,人們也會(huì)提升對(duì)它們的信任度。
在某種程度上,道德人工智能系統(tǒng)可以幫助人類能夠克服一些自身限制。然而,我們也意識(shí)到該方案的局限性。道德人工智能系統(tǒng)不會(huì)突然把我們變成完美的道德主體,因?yàn)樗荒芟覀兊膭?dòng)機(jī)因素。對(duì)比生物醫(yī)學(xué)增強(qiáng)技術(shù)而言,人工智能系統(tǒng)的首要特征是輔助,用來(lái)彌補(bǔ)我們的認(rèn)知局限性。有了這項(xiàng)技術(shù),主體可以對(duì)什么是正確的做出更精確、嚴(yán)謹(jǐn)、一致的判斷。正因?yàn)樵摲桨溉狈?qiáng)制性,所以如果施動(dòng)者由于強(qiáng)烈的情感或軟弱的意志而拒不接受系統(tǒng)合理的建議,那么人工智能系統(tǒng)就形同虛設(shè)。但我們不可能排除一種可能性,即人工智能的認(rèn)知輔助可能會(huì)間接地改變道德主體的動(dòng)機(jī)和情緒傾向。由于用戶對(duì)系統(tǒng)的信賴關(guān)系,人們可能會(huì)更加敏感地重新思考他們持有的一些情感立場(chǎng)[5]。系統(tǒng)還向我們展示了支持某些價(jià)值觀的論據(jù),讓我們更容易接受新的價(jià)值觀。
總體上看,“弱”道德人工智能輔助增強(qiáng)人類道德的方式類似蘇格拉底式的助產(chǎn)術(shù)。系統(tǒng)充當(dāng)高效的“接生婆”,幫助用戶生出屬于他們自己的“孩子”。而且在不斷生“孩子”的過(guò)程中,提升了用戶的理性“孕育”能力。即便主體的道德“孕育”和“生產(chǎn)”過(guò)程是緩慢的,也勝過(guò)將這種能力直接轉(zhuǎn)手給他者,同時(shí)避免了激進(jìn)速成的未知風(fēng)險(xiǎn)。從這個(gè)層面上說(shuō),人工智能輔助增強(qiáng)人類道德不失為一條可取的方案。