尹 潔
一直以來,神經(jīng)倫理和人工智能倫理關(guān)注的熱點(diǎn)問題并不重合,前者更為關(guān)注諸如藥物增強(qiáng)、大腦干預(yù)、神經(jīng)成像等引發(fā)的倫理問題,而后者的問題則更集中在討論諸如機(jī)器人權(quán)利、算法的透明性、人工智能系統(tǒng)中的偏見等。但一直以來,人工智能的歷史不可避免地與神經(jīng)科學(xué)的歷史糾纏在一起,當(dāng)代人工智能的術(shù)語(yǔ)更是從神經(jīng)科學(xué)和心理學(xué)借鑒良多,比如人工神經(jīng)網(wǎng)絡(luò)(artificial neural networks,ANN)[1]和深度神經(jīng)網(wǎng)絡(luò)(deep neural networks,DNN)[2]等。不僅如此,當(dāng)代技術(shù)發(fā)展引發(fā)的諸多倫理問題出現(xiàn)在這兩個(gè)領(lǐng)域的交叉之處[3-4],例如,在臨床神經(jīng)科學(xué)中人工智能技術(shù)被使用來提高診斷的精確度;來自臨床的數(shù)據(jù)可借助機(jī)器學(xué)習(xí)算法被灌輸給人工智能,由此為精神疾病作出自動(dòng)化的、更為準(zhǔn)確的診斷;更為重要的是,一些必要的試驗(yàn),可借助于人工智能技術(shù)對(duì)于大腦機(jī)制和過程的模擬,而不再需要使用動(dòng)物或人類作為受試者,從而避免了一系列相關(guān)的倫理問題。
經(jīng)由人工智能技術(shù)所達(dá)成的道德增強(qiáng),正是神經(jīng)科學(xué)和人工智能科學(xué)相關(guān)技術(shù)合并應(yīng)用背景下產(chǎn)生的倫理問題關(guān)涉的核心。當(dāng)前的精神醫(yī)學(xué)中,道德增強(qiáng)的應(yīng)用可被落實(shí)到更為具體的領(lǐng)域,即用于改善抑郁癥、焦慮癥、雙相情感障礙甚至精神分裂癥患者的情緒和認(rèn)知。傳統(tǒng)精神醫(yī)學(xué)中基于認(rèn)知行為療法(cognitive behavioral therapy,CBT)的治療成分被整合進(jìn)入人工智能算法的設(shè)計(jì),從而使得特定精神治療用途的聊天機(jī)器人(chatbots)得以產(chǎn)生。盡管目前大部分處于商業(yè)運(yùn)營(yíng)階段,尚未真正被醫(yī)院或診所等臨床機(jī)構(gòu)采用,但有基于實(shí)證的研究[5]表明,人工智能技術(shù)在精神醫(yī)學(xué)領(lǐng)域的應(yīng)用前景已初步顯現(xiàn)。近期,由于人們?cè)谏詈凸ぷ魃系膲毫υ龈撸奶鞕C(jī)器人Wysa (https://www.wysa.io)的下載量一度激增到200萬次,數(shù)字化和人工智能時(shí)代的人們?cè)趯で笮睦韼椭椭С值姆绞缴习l(fā)生了重大的變化。相較于道德生物增強(qiáng)的科幻式遠(yuǎn)景而言,精神醫(yī)學(xué)當(dāng)中的這種人工智能應(yīng)用是一種在目前科技條件下較為可行且已具有初步效果的實(shí)踐。與本文探討主題相關(guān)的是,這種聊天機(jī)器人所完成的恰好是一種弱意義上的道德(信息)增強(qiáng)(moral info-enhancement),而非意圖在改變動(dòng)機(jī)上的、強(qiáng)意義上的道德增強(qiáng)。在承認(rèn)這一精神醫(yī)學(xué)領(lǐng)域的潛在應(yīng)用價(jià)值基礎(chǔ)上,本文試圖探索更為一般性意義上的道德(信息)增強(qiáng),尤其是基于所謂蘇格拉底式助手模型的弱道德人工智能,其自身是否隱含著一個(gè)悖論,以及這個(gè)悖論是否有消除的可能。
為了更好地審視弱道德人工智能,有必要先回顧什么是一般意義上的道德增強(qiáng),以及為什么在一種強(qiáng)意義上的道德增強(qiáng)面臨諸多挑戰(zhàn)。道德增強(qiáng),指的是有意地對(duì)于一個(gè)人的性格、動(dòng)機(jī)或行為等進(jìn)行道德提升。按照這樣的定義,道德增強(qiáng)不是一個(gè)全新的實(shí)踐,在日常生活中人們也常常借助于各種方法,諸如道德模范故事的學(xué)習(xí)和領(lǐng)會(huì)、有意識(shí)的道德反思等來提升道德品質(zhì)或行為。但近年來人們對(duì)于這一道德增強(qiáng)的興趣主要源自神經(jīng)科學(xué)與技術(shù)新進(jìn)展帶來的沖擊,科學(xué)技術(shù)的發(fā)展使得大腦狀態(tài)甚至功能的改變逐漸成為可能,從而給基于生物性改變的道德增強(qiáng)提供了新的契機(jī)。但究竟在什么意義上這種實(shí)踐是可操作的卻不十分明晰,Shook[6]曾寫道:“沒有一個(gè)所謂整合的認(rèn)知系統(tǒng)來為道德判斷的形成和實(shí)施負(fù)責(zé),因?yàn)榭煞蛛x的因素比起其他而言,本身在某種程度上更多地被用于一些類型的道德判斷。”言下之意,關(guān)于大腦產(chǎn)生道德判斷的機(jī)制究竟如何,我們還沒有一個(gè)清晰的答案,而一旦我們連這一自身的生理和心理機(jī)制都所知甚少,更難以想象的是如何進(jìn)行道德增強(qiáng)。
不可否認(rèn),當(dāng)今的神經(jīng)科學(xué)和技術(shù)發(fā)展連同人工智能的進(jìn)展,確實(shí)為人們的未來生活新圖式打開了一扇大門,但盡管人工智能和大數(shù)據(jù)技術(shù)已然在改變甚至改善人類生活,到目前為止現(xiàn)實(shí)中技術(shù)所處的階段離科幻電影中描述的還很遠(yuǎn),即便在新聞報(bào)道中一再看到各種[7]試圖通過對(duì)于腦神經(jīng)的刺激達(dá)到某些治療目的的研究,但真正的臨床應(yīng)用卻較為罕見。這不僅使得人們質(zhì)疑,究竟關(guān)于新興技術(shù),我們是否存在某種認(rèn)知上的偏差或一種盲目的樂觀自信?換句話說,當(dāng)我們?cè)谡務(wù)摰赖律镌鰪?qiáng)的各種論證的時(shí)候,似乎多數(shù)是在談?wù)撈浔旧硎欠窨捎?desirability),而不是在說它本身是否可行(feasibility)。談?wù)搼?yīng)該做什么和需要做什么的這一趨勢(shì)的形成,主要表現(xiàn)為哲學(xué)家專注于討論規(guī)范性問題,而不是聚焦于科學(xué)性問題。遺憾的是,科學(xué)細(xì)節(jié)尚未揭示出有關(guān)如何在現(xiàn)實(shí)中進(jìn)行道德生物增強(qiáng)實(shí)踐的有用信息。盡管Wiseman[8]相信未來可能會(huì)實(shí)現(xiàn)道德增強(qiáng),但他認(rèn)為現(xiàn)有主流的生物學(xué)和神經(jīng)科學(xué)方法(例如采集血樣或使用功能性磁共振成像等)并不能達(dá)到這個(gè)目標(biāo)。他寫道:“目前研究道德功能的大腦-還原方法可能本質(zhì)上無法處理道德功能所涵蓋的一系列復(fù)雜現(xiàn)象……因此,如果道德增強(qiáng)愛好者想在通過藥物或其他手段對(duì)道德行為和判斷進(jìn)行神經(jīng)調(diào)節(jié)上展示出一個(gè)可信的科學(xué)基礎(chǔ)的話,這一大腦-還原的方法會(huì)是相當(dāng)糟糕的一個(gè)奠基?!边@意味著為了使得道德增強(qiáng)成為可能,我們?cè)谘芯咳祟愖陨頇C(jī)制的方法論上都很可能還有很長(zhǎng)的一段路要走。
在考察用于認(rèn)知增強(qiáng)的人工智能,尤其是與道德慎思(moral deliberation)相關(guān)的那些增強(qiáng)技術(shù)應(yīng)用的理論與實(shí)踐之時(shí),文獻(xiàn)中常見的倫理關(guān)涉大都圍繞著這樣兩個(gè)主要的方面:一是對(duì)于隱私侵犯的擔(dān)憂,二是對(duì)于損害自主性的擔(dān)憂[9]。諸如經(jīng)顱磁刺激(transcranial magnetic stimulation)之類的先進(jìn)神經(jīng)技術(shù)的使用往往導(dǎo)致人們對(duì)于隱私侵犯可能性的擔(dān)憂。更多的負(fù)面意見集中在討論道德生物增強(qiáng)對(duì)自主性的影響。例如,Harris[10]認(rèn)為,為了增強(qiáng)道德而使用諸如選擇性血清素再吸收抑制劑之類的生物化學(xué)物質(zhì)剝奪了其接受者選擇墮落的自由(the freedom to fall),因而對(duì)道德行動(dòng)主體本身構(gòu)成了一定的威脅。Huang[11]則從不同的角度提出了相同的觀點(diǎn),聲稱道德生物增強(qiáng)令人反感是因?yàn)樗茐牧巳祟惖牡赖滦袆?dòng)主體性,通過阻礙作為其基礎(chǔ)的準(zhǔn)確的自我反思和選擇。這些反對(duì)理由看似各自從不同的角度出發(fā),但共同點(diǎn)在于否認(rèn)生物醫(yī)學(xué)層面道德增強(qiáng)的可欲求性。
如果說道德生物增強(qiáng)的可行性和可欲求性面臨著諸多挑戰(zhàn),那么道德人工智能作為試圖以人工智能方式來達(dá)到增強(qiáng)目的的嘗試,在本來已經(jīng)復(fù)雜的爭(zhēng)議之上就又多增加了一個(gè)層次上的困難。在構(gòu)想道德人工智能之時(shí)會(huì)發(fā)現(xiàn)它本身具有極大的吸引力,但倘若考察其可行性卻找得出更多反對(duì)的理由或論證,這一點(diǎn)在下面的論證中可窺見一斑。與生物學(xué)方式進(jìn)路的增強(qiáng)不同的是,道德人工智能至少可在一種弱意義上來達(dá)到增強(qiáng),即通過推進(jìn)信息增強(qiáng)來間接達(dá)到道德增強(qiáng)的目的,而不是借由生物增強(qiáng)來直接操控或影響道德主體,就信息增強(qiáng)而言,腦科學(xué)、神經(jīng)科學(xué)、醫(yī)學(xué)等領(lǐng)域的革新起到的作用并不如計(jì)算機(jī)科學(xué)和技術(shù)層面的影響大。所謂弱道德人工智能與以往慣常談?wù)摰牡赖略鰪?qiáng)手段相比,關(guān)鍵差別在于,傳統(tǒng)的道德增強(qiáng)多主張采取生物醫(yī)學(xué)手段的增強(qiáng),直接作用于道德動(dòng)機(jī),而弱道德人工智能試圖通過采取信息增強(qiáng)的方式繞過對(duì)于動(dòng)機(jī)的直接影響,希望借此回避掉隱私侵犯和自主性損害的倫理隱患。
Savulescu等[12]提出了一個(gè)弱道德人工智能模型,他們認(rèn)為通常那些用于針對(duì)道德增強(qiáng)的反駁意見并不適用于此,在他們看來,道德人工智能可以幫助道德行動(dòng)主體克服其自然的心理和生理局限性,從而不僅不會(huì)減少或消解而是會(huì)更有助于確證或增強(qiáng)道德行動(dòng)主體性(moral agency)。人類由于心理和進(jìn)化機(jī)制上的局限,會(huì)傾向于發(fā)展自身群體內(nèi)部的親和力,這一自然趨勢(shì)無法否認(rèn),因此即便道德發(fā)展確實(shí)如同我們預(yù)設(shè)的那樣一直在進(jìn)化,也并不會(huì)將其應(yīng)用擴(kuò)展到自身所屬群體之外的人。Persson等[13]則認(rèn)為,由于人類“道德上的束縛”,社會(huì)文化層面的干預(yù)并不能成為實(shí)現(xiàn)道德進(jìn)步的唯一途徑;生物醫(yī)學(xué)的增強(qiáng)盡管可能不是唯一的途徑,但卻是提高道德的最重要方法之一。盡管Savulescu認(rèn)為人類道德在某種程度上是“硬接連的”(hard-wired),但他也認(rèn)為弱道德人工智能會(huì)很有用,即便它只是在道德慎思方面為人們提供了幫助而對(duì)動(dòng)機(jī)沒有太大影響。Savulescu所參與的西班牙跨學(xué)科研究項(xiàng)目“人工智能和道德生物增強(qiáng)”持有關(guān)于增強(qiáng)的一個(gè)類似的基本構(gòu)想,它的基本假設(shè)是,由于計(jì)算機(jī)可用于增強(qiáng)數(shù)據(jù)的管理和處理,因此人工智能可用于增強(qiáng)我們的邏輯和慎思能力,基于此種假設(shè),他聲稱該項(xiàng)目旨在探索“用道德信息增強(qiáng)來補(bǔ)充不同方式的道德生物增強(qiáng)之可能性,也就是說,計(jì)算機(jī)科學(xué)在道德決策中的新穎應(yīng)用”[14]。
Savulescu等[12]關(guān)于道德人工智能的論點(diǎn)類似于Lara等[15]提出的觀點(diǎn)。他們認(rèn)為,在討論道德增強(qiáng)時(shí),動(dòng)機(jī)不應(yīng)是唯一要考慮的因素。如果我們可以繞過動(dòng)機(jī)并使用所謂的“徹底的增強(qiáng)”(exhaustive enhancement),就可以把所有道德決定留給機(jī)器來做。諸如通過將計(jì)算機(jī)芯片植入大腦并告訴人體遵循指令,或者可以通過設(shè)置好人工智能系統(tǒng)然后讓我們遵循它發(fā)出的指令,或者可以由現(xiàn)實(shí)的某個(gè)政治系統(tǒng)來強(qiáng)制執(zhí)行那些通過人工智能系統(tǒng)輸出的道德推薦意見。不同之處只是在于那種植入芯片的模型迫使人類根據(jù)人工智能系統(tǒng)的輸出采取行動(dòng),但設(shè)置好人工智能系統(tǒng)再由人類執(zhí)行則需要人類的服從。無論哪種模型,都使人成為多余的人,盡管給人們省去了花費(fèi)在復(fù)雜的道德考量和因可能的錯(cuò)誤而造成的重復(fù)、冗余和迂回的勞動(dòng),并且由于道德判斷全盤“外包化”,動(dòng)機(jī)被繞過,由此也避免了破壞隱私和影響自主性的問題。
相對(duì)于Savulescu這樣較為徹底的方案或預(yù)想而言,Lara等[15]提出了較為“適度”的人工智能助手模型,該機(jī)器僅以蘇格拉底式的方式提出問題,也就是使用者與這個(gè)蘇格拉底式的道德助手一直處于對(duì)話之中,道德助手機(jī)器人在對(duì)話中可以質(zhì)疑使用者的假設(shè),或澄清使用者表達(dá)出來的概念,或通過提供最佳推理和決策所需的有用信息,或幫助使用者檢驗(yàn)其論點(diǎn)的連貫性等。一言以蔽之,機(jī)器不會(huì)為代理做出決定,而只是以對(duì)話的形式幫助加強(qiáng)論證本身。以此方式,作為機(jī)器人的道德機(jī)器并不旨在教導(dǎo)或內(nèi)化任何道德學(xué)說。它不同于那種本身自主的道德機(jī)器,后者可以獨(dú)立運(yùn)作而不依賴人類,因此不會(huì)有所謂信任上的問題,因?yàn)樽罱K仍然是由人為主導(dǎo)而不是機(jī)器。事實(shí)上,如果我們對(duì)計(jì)算機(jī)是否可以提供可靠的指導(dǎo)來給道德論證提供支持,那么這種擔(dān)心似乎是多余的,因?yàn)橹灰惴ㄔ诩夹g(shù)上可行,計(jì)算機(jī)在完成分配給它的任務(wù)時(shí)一般而言比起人都更為可靠。按照這樣的模型,人們通過與道德機(jī)器進(jìn)行交互,學(xué)會(huì)如何以一種概念化的、能收集和吸納盡量完整真實(shí)信息的和合乎邏輯的方式來進(jìn)行自己的思考。換句話說,這像是一個(gè)認(rèn)知的“凈化”或“改善”過程。同樣地,在精神醫(yī)學(xué)咨詢和治療中使用的聊天機(jī)器人,無論是否以一種模擬人類的方式存在(即無論是否模擬人的口吻、特定人格或是僅僅作為無人格和情感偏好的對(duì)話機(jī)器),由于僅僅聚焦于信息增強(qiáng),也就在一種類似的蘇格拉底式助手意義上發(fā)揮作用,只不過精神醫(yī)學(xué)的目的不是為了成就更好的道德判斷或造就道德上更好的人,而只是達(dá)到精神治療的特定目的,比如通過促進(jìn)積極樂觀的情緒和正向的思維方式來促進(jìn)精神健康。
Lara等[15]認(rèn)為其蘇格拉底式助手模型比傳統(tǒng)意義上必須通過動(dòng)機(jī)起作用的增強(qiáng)要具有不少優(yōu)勢(shì),最重要的原因是自主性和隱私的問題可以被很好地避免。不僅如此,由于不需要在人腦或體內(nèi)植入計(jì)算機(jī)芯片或設(shè)備,它也會(huì)更安全。它還給道德行動(dòng)主體做出最后的道德判斷留下了空間,尊重了道德多元性。它不僅充當(dāng)?shù)赖律魉嫉闹a(chǎn)士,還可以作為實(shí)現(xiàn)道德進(jìn)步的教育方法。但是,直覺上看,如果道德人工智能模型只是繞過動(dòng)機(jī)的話,似乎不符合道德心理學(xué),換言之,如何構(gòu)想人類在繞過動(dòng)機(jī)的情況下來直接根據(jù)道德判斷采取行動(dòng)呢?注意這里的問題是針對(duì)可行性而不是可欲求性,即,究竟道德人工智能助手在不影響動(dòng)機(jī)的情況下是否有用,是如何起作用的?事實(shí)上這個(gè)問題導(dǎo)向另一個(gè)更為古老的哲學(xué)問題,即道德判斷本身是否可以發(fā)揮作用而不引起任何的動(dòng)機(jī)變化?
盡管Lara等[15]聲稱這個(gè)模型繞過了與動(dòng)機(jī)相關(guān)的問題,例如對(duì)道德主體的自主和隱私的負(fù)面影響,但道德人工智能的信息增強(qiáng)真的能夠在不影響動(dòng)機(jī)的情況下起到預(yù)想的效果嗎?盡管他們承認(rèn),蘇格拉底式的人工智能系統(tǒng)也可能改變動(dòng)機(jī)。通過說“不能排除人工智能的認(rèn)知幫助可能間接改變道德主體的動(dòng)機(jī)和情感傾向的可能性”,它們承認(rèn)了可能性,但關(guān)于如何可能卻語(yǔ)焉不詳,所謂“間接改變動(dòng)機(jī)和情感傾向”的含義是什么并不清楚,而我們需要知道在什么情況下可以改變動(dòng)機(jī)或情感傾向。例如,我們的人類經(jīng)驗(yàn)中到底哪些因素會(huì)導(dǎo)致動(dòng)機(jī)和情感傾向的改變?
此外,人類的道德發(fā)展似乎也不是從自發(fā)產(chǎn)生的道德動(dòng)機(jī)開始,而是通過被養(yǎng)成的道德行為開始,兒童在不完全了解道德意味著什么和要求做什么之時(shí),被家長(zhǎng)和社會(huì)刻意按照某些特定的、基于個(gè)別道德行為疊加起來的習(xí)慣來培養(yǎng)。由此可見,如果這樣的道德人工智能能夠以某種方式促進(jìn)道德行為的培養(yǎng),那么它可能會(huì)促進(jìn)動(dòng)機(jī)和情感傾向的改變。但是,無論是根據(jù)Savulescu等人還是Lara等人的想法,培養(yǎng)道德行為都不是其設(shè)計(jì)的道德人工智能的目標(biāo)。但如果蘇格拉底式助手的道德人工智能,如同他們?cè)鯓?gòu)想的那樣,僅僅旨在為行動(dòng)主體提供選擇上的建議的話,那么它對(duì)行動(dòng)主體的影響似乎是非常外部的,因此在促成道德行為的意義上,極有可能無效。我們可以將這種情況與視頻游戲的情況進(jìn)行比較,例如,倘若有一個(gè)叫“我們都是道德人”的游戲,參與游戲者基于設(shè)計(jì)的特定算法而與道德機(jī)器互動(dòng),從而在游戲中扮演道德人的角色,但在現(xiàn)實(shí)生活中卻拒絕按照算法推薦方案來行事。在大多數(shù)情況下,真正的道德要求犧牲自己的利益,事實(shí)上,由于自己的利益與道德的要求之間經(jīng)常發(fā)生明顯的沖突,如何理解道德動(dòng)機(jī)就更是一個(gè)困難的問題。哲學(xué)家想知道道德判斷和動(dòng)機(jī)之間存在什么樣的關(guān)系,正是因?yàn)橹獣哉_道德判斷的主體不一定有動(dòng)機(jī)去做正確的事情。這種情況是頻繁出現(xiàn)的:不道德的人是完全理性的人,能夠進(jìn)行道德行為,但根本不愿意這樣做。
為了理解道德判斷與動(dòng)機(jī)之間的關(guān)系,哲學(xué)家給出了截然不同的觀點(diǎn)和相應(yīng)的解釋。在元倫理學(xué)中,有著關(guān)于道德動(dòng)機(jī)的經(jīng)典討論,其中,休謨主義和反休謨主義各執(zhí)一詞[16]。雙方討論的目的在于知曉道德判斷與道德動(dòng)機(jī)之間是否存在必要的聯(lián)系。用另一種方式來構(gòu)想這個(gè)問題,就是在問,道德判斷的存在是否會(huì)激發(fā)采取行動(dòng)的動(dòng)力。休謨主義者認(rèn)為道德判斷本身無法激發(fā)行動(dòng)者采取行動(dòng),而是需要一種額外的行動(dòng),該行動(dòng)可以產(chǎn)生欲望,或者存在預(yù)先存在的欲望狀態(tài)(conative),有時(shí)被稱為“贊成的-態(tài)度”(pro-attitude)。柏拉圖最早提出了反休謨主義中最為激進(jìn)的版本,他認(rèn)為對(duì)道德觀念形式的理解應(yīng)該能夠?yàn)樾袆?dòng)主體的行動(dòng)提供壓倒一切其他因素的動(dòng)力。還有一種類似的觀點(diǎn)認(rèn)為,如果道德判斷沒有提供足夠的動(dòng)機(jī)來按照自己的判斷行事,那么道德判斷就不能算作真正的道德判斷,因此,當(dāng)人們談到道德判斷時(shí),她或他必須默認(rèn),將道德判斷歸于某人就已經(jīng)意味著,具有這個(gè)特定道德判斷的人就具有相應(yīng)的道德動(dòng)機(jī)。
但是,我們不必視這種觀點(diǎn)為理所當(dāng)然。關(guān)于道德判斷是否能夠自身提供足夠動(dòng)力去行動(dòng)的核心爭(zhēng)論實(shí)際上揭示了一些有關(guān)道德人工智能算法設(shè)計(jì)的洞見,因?yàn)槿绻葜冎髁x者是對(duì)的,而且我們確實(shí)需要額外的資源來產(chǎn)生動(dòng)機(jī),那么作為蘇格拉底式助手的弱道德人工智能在產(chǎn)生道德行為上就起不到直接的作用,它最多只能提供合理的、第三人稱意義上的道德判斷。作為蘇格拉底式助手的道德人工智能無法處理諸如動(dòng)機(jī)或非認(rèn)知元素之類的問題,但弱道德人工智能目的本身難道不就是僅僅提供道德判斷嗎?為什么要去苛責(zé)它不能作用于動(dòng)機(jī)這一點(diǎn)?休謨主義與反休謨主義之間的區(qū)別似乎正好對(duì)應(yīng)著弱道德人工智能與(強(qiáng)意義上的,或者說作用于動(dòng)機(jī)的)道德增強(qiáng)之間的區(qū)分,然而關(guān)于道德動(dòng)機(jī)的哲學(xué)論爭(zhēng)表明,經(jīng)驗(yàn)研究無法解決某些特定的問題,因?yàn)榈驳赖滦睦韺W(xué)有了確定結(jié)論的話,就不再需要這一哲學(xué)辯論,因?yàn)楸藭r(shí)我們應(yīng)該能夠基于復(fù)雜的人類心理學(xué)知識(shí)構(gòu)建出強(qiáng)道德人工智能,彼時(shí)算法設(shè)計(jì)也不是難題,可以借鑒關(guān)于那些被認(rèn)為具有道德品質(zhì)的人的心理學(xué)研究結(jié)果。話雖如此,哲學(xué)未能使我們就道德判斷本身是否直接帶來動(dòng)機(jī)提供統(tǒng)一的答案,也未能告訴我們?nèi)绻鸢甘欠穸ǖ?,還需要些什么。如果這仍然是一個(gè)尚未得到回答的問題,結(jié)果便是,不僅我們不知道如何達(dá)成強(qiáng)意義上的道德增強(qiáng),即那種能產(chǎn)生影響道德行動(dòng)主體的道德判斷的,更麻煩的是,我們甚至不知道這種所謂弱道德人工智能是否達(dá)到預(yù)期。
道德機(jī)器看起來很像我們參與的那些在線測(cè)試,比如麻省理工學(xué)院媒體實(shí)驗(yàn)室(MIT Media Lab)那個(gè)有關(guān)駕駛的道德決策的研究[17]。其在線調(diào)查由各種設(shè)計(jì)的道德困境組成,要求測(cè)試人員選擇答案。典型的問題一般是這樣:是選擇沿汽車的原始路線行駛并在行人線上撞到A,還是選擇操縱方向盤并在道路另一側(cè)撞到B。該測(cè)試賦予A和B各種值,例如一個(gè)老人和一個(gè)嬰兒,或者一個(gè)具有較高社會(huì)經(jīng)濟(jì)地位的人與另一個(gè)具有較低社會(huì)經(jīng)濟(jì)地位的人的值的組合。這是一個(gè)經(jīng)典的電車難題,大多數(shù)人會(huì)發(fā)現(xiàn)幾乎無法找到滿意的答案。但是測(cè)試的設(shè)計(jì)是迫使參與者在有價(jià)值的事物(包括人類和動(dòng)物)之間進(jìn)行排序。假設(shè)我們確實(shí)有關(guān)于不同人群的選擇構(gòu)成的詳細(xì)描述,并且基于這些數(shù)據(jù),我們能夠根據(jù)生活中有價(jià)值的事物的排名來設(shè)計(jì)算法并構(gòu)建交互式人工智能作為道德助手,模仿實(shí)際人類的反應(yīng)。這樣,我們就有可能通過以下方式與機(jī)器通訊:通過獲取我們的信念和偏好輸入,我們可以進(jìn)行某種對(duì)話,從而提出建議。但是,目前尚不清楚這種對(duì)話是否會(huì)起到激勵(lì)作用。更重要的是,甚至還不清楚,在一種道德推薦的規(guī)范性意義上,哪種答案應(yīng)該被推薦。誠(chéng)然,這樣的實(shí)證研究并不需要就解決道德困境應(yīng)采取的措施作出規(guī)范性的回答,對(duì)于它的探究可能有助于分析人類的道德心理學(xué)。然而,道德推理遠(yuǎn)比當(dāng)前的經(jīng)驗(yàn)研究告訴我們的要復(fù)雜得多。心理學(xué)家有時(shí)認(rèn)為道德判斷是對(duì)矛盾案例的直覺反應(yīng)的一種特殊的合理化,這種觀點(diǎn)認(rèn)可了認(rèn)知和情感處理的相對(duì)獨(dú)立。例如,Greene等[18]認(rèn)為,我們對(duì)道德困境的直觀反應(yīng)取決于在任何給定時(shí)間哪個(gè)子系統(tǒng)具有更大的作用力,但是許多哲學(xué)家認(rèn)為Greene等的論點(diǎn)基于一個(gè)與道德無關(guān)的假設(shè),這種假設(shè)是有問題的,因?yàn)樗诘赖峦评淼纳窠?jīng)生物學(xué)基礎(chǔ)的某種可疑觀點(diǎn)[19]。Greene等再次使用經(jīng)驗(yàn)層面的假設(shè)去解釋了經(jīng)驗(yàn)層面的結(jié)果,并未能就人類道德行為的規(guī)范性框架告訴我們些什么,而這些關(guān)于規(guī)范性框架的知識(shí)是達(dá)到道德增強(qiáng)所必需的前提條件。換句話說,如果沒能明確人類道德性的指向,那么所謂對(duì)于道德增強(qiáng)的設(shè)計(jì)也就失去了目標(biāo)或方向。
然而,弱道德人工智能的捍衛(wèi)者可能會(huì)回應(yīng)這一點(diǎn)質(zhì)疑,認(rèn)為道德機(jī)器并不一定要把壞人變成好人,它只是教會(huì)好人或至少是比較好的人如何提高他們的道德推理能力,而這是以行動(dòng)主體的意圖為前提的。對(duì)于一個(gè)無意進(jìn)行任何道德行為的人來說,道德人工智能肯定是毫無用處的??紤]到弱道德人工智能的目標(biāo),這似乎是正確的。這里暫時(shí)不需引入非常復(fù)雜的道德認(rèn)識(shí)論來論證,但一個(gè)簡(jiǎn)單的問題是,倫理學(xué)機(jī)器是否像他們所聲稱的那樣只是作為蘇格拉底式助手發(fā)揮作用,如果是的話,這種應(yīng)用在多大程度上是可行的并且值得付出代價(jià)?我們是否需要進(jìn)行大量的研究來進(jìn)行這種僅僅完成信息增強(qiáng)而不影響動(dòng)機(jī)的機(jī)器?我們關(guān)于蘇格拉底式道德助手的研究和設(shè)計(jì)的場(chǎng)景中似乎存在一個(gè)悖論,因?yàn)槲覀兗瓤梢韵裎覀儸F(xiàn)在所理解的那樣建造機(jī)器,也就是將它作為蘇格拉底式的助手來建造,這樣的話機(jī)器的應(yīng)用會(huì)非常有限,或者,我們不能從技術(shù)上構(gòu)建真正能夠獨(dú)自解決道德困境的人工智能,僅僅是因?yàn)槲覀儧]有關(guān)于道德推理的足夠的經(jīng)驗(yàn)或科學(xué)證據(jù)。換句話說,為了保障安全性同時(shí)避免影響行動(dòng)主體的自主和侵犯其隱私,這個(gè)弱道德人工智能模型似乎將嬰兒與洗澡水一起倒掉了。除非我們能夠證明,蘇格拉底式道德助手的設(shè)計(jì)是達(dá)成(強(qiáng)意義上的)道德增強(qiáng)的先決條件,也就是說,弱道德人工智能有其自身的工具性效用,但到目前為止,(強(qiáng)意義上的)道德增強(qiáng)自身的可欲求性和可行性也遭到了高度的質(zhì)疑。一個(gè)可能的關(guān)于弱道德人工智能應(yīng)用前景的案例仍是本文第一部分所談到的那種,鑒于目前精神醫(yī)學(xué)治療中聊天機(jī)器人使用的趨勢(shì),我們也許可以說,即便道德增強(qiáng)的目的暫時(shí)無法達(dá)到,我們至少在好的方向上推進(jìn),精神疾病患者或者日常生活中飽受壓力和焦慮困擾的人群,都可以受益于類似Wysa這樣的在線聊天機(jī)器人,這種人工智能的使用促進(jìn)了人們的精神和心理健康。盡管我們可能不知道在這一方向上能走多遠(yuǎn),但這不妨礙當(dāng)前弱道德人工智能的發(fā)展必要性。
弱道德人工智能可能沒法起作用的原因在于,道德行動(dòng)中的那些阻滯性的因素根本無法通過有效或合理的道德論點(diǎn)來消除。Persson等[13]在《道德硬接連與道德增強(qiáng)》中寫道,由于人類道德心理學(xué)的特征,生物醫(yī)學(xué)道德增強(qiáng)可能不是道德進(jìn)步的唯一方法,但卻是最重要的方法之一。針對(duì)鮑威爾和布坎南的觀點(diǎn),即由于社會(huì)文化手段更有效、更安全因此無需生物醫(yī)學(xué)手段的這一觀點(diǎn),Persson等認(rèn)為,盡管有些態(tài)度可以通過理解和接受更好的理性論據(jù)(例如我們?cè)诜N族主義和性別歧視這種例子里面確實(shí)可以因?yàn)槁邮芨鼮楹侠淼恼撟C而肅清原先的偏見),從而確實(shí)可以通過社會(huì)文化干預(yù)而改變,但這些很難解釋乃至撼動(dòng)動(dòng)機(jī)性質(zhì)的或非認(rèn)知性質(zhì)的因素。
換句話說,Persson和Savulescu所說的“道德硬接連”指的是人類在道德發(fā)展環(huán)境中幾乎不變的并且對(duì)理性的說服力不敏感的那部分。與種族主義和性別歧視不同,裙帶關(guān)系這種偏見不能通過社會(huì)文化干預(yù)來消除。困難部分的存在表明人類當(dāng)中確實(shí)存在一些頑固的偏見,而這些偏見不容易糾正。在這種情況下,如果道德人工智能只是提供一些幫助使行動(dòng)主體意識(shí)到隱藏的邏輯謬誤或概念的模糊性,那么它的應(yīng)用將非常有限并且最終無效。對(duì)于某些人來說,指出他們邏輯推理的不一致確實(shí)有用,因?yàn)橛姓J(rèn)知能力的情況下這些人實(shí)際上會(huì)承認(rèn)此類錯(cuò)誤,這樣的話就有可能進(jìn)一步影響他們的動(dòng)機(jī)并可能觸發(fā)道德行為。但是,這并不適用于所有人。有些人完全具有認(rèn)知能力,也能夠在邏輯推理中意識(shí)到自己的錯(cuò),但是不會(huì)改變,或者只會(huì)堅(jiān)持自己的假設(shè),不會(huì)設(shè)身處地為他人著想,這使得任何道德的說服都無濟(jì)于事,更別說道德人工智能助手了。無所謂道德的人(amoralist)也類似,只不過他們不會(huì)按照自己堅(jiān)持認(rèn)為的對(duì)與錯(cuò)的判斷來行事,因?yàn)檫@樣的道德判斷對(duì)于他們沒有意義。
動(dòng)機(jī)之所以重要,不僅是因?yàn)槲覀冎庇X上似乎更珍視那些單純出于道德目的而做出的行為。需要追問的是,與邏輯合理的那種道德慎思相比,我們究竟應(yīng)該在什么程度上重視動(dòng)機(jī)本身。將道德行為和行為者都考慮在內(nèi)的道德理論也許可能有助于理解動(dòng)機(jī)的重要性,以及在弱人工智能那里聲稱的所謂“繞過動(dòng)機(jī)”(bypassing motivation)到底意味著什么。正如Coakley所寫的,常見的道德理論要么只討論道德行動(dòng)主體,要么只注重行為本身。例如,在道德層面評(píng)估對(duì)象時(shí),我們要么評(píng)估人的行為,詢問諸如道德主體的行為對(duì)與錯(cuò)之類的問題,要么我們?cè)u(píng)估道德行動(dòng)主體的道德特征或道德品格[20]。正如人們?cè)趥惱韺W(xué)史中所看到的那樣,大部分倫理學(xué)理論要么討論行為的道德正確性,要么討論道德行動(dòng)主體的正確性。Coakley提出了一個(gè)有趣且有意義的問題,即,假設(shè)在一種道德理論A的框架下,某些行為可以被判斷為正確的行為,這個(gè)結(jié)論是否與另一種就道德主體的特征或品質(zhì)做出判斷的道德理論B相吻合?表面看來這個(gè)答案應(yīng)該很簡(jiǎn)單,因?yàn)槲覀儍A向于假設(shè)不同類型的道德評(píng)估之間存在一致性,但Coakley通過研究諸如結(jié)果論和道義論之類的主要理論揭示出事實(shí)上想要得到一個(gè)一致的答案是相當(dāng)困難的。在他看來,為了解決這種結(jié)論難以調(diào)和的問題,動(dòng)機(jī)倫理可能是替代方案,這一評(píng)價(jià)標(biāo)準(zhǔn)認(rèn)為“道德行動(dòng)主體越有動(dòng)機(jī)去推進(jìn)(整體)的善,那么他在道德意義上就越是更好的人”[20],這樣才能把有關(guān)動(dòng)機(jī)和行為的評(píng)估整合成為一個(gè)。盡管Stonestreet指出Coakley的理論取決于讀者是否接受他將“整體善”(overall good)的概念作為道德意義上的善[21],這似乎是Coakley有必要回應(yīng)的一個(gè)反駁。但是,撇開該假設(shè),Coakley確實(shí)通過“道德主體問題”(moral agent problem)提示了:如果道德理論過分強(qiáng)調(diào)行動(dòng)的評(píng)估,就不足以評(píng)估行動(dòng)本身,從而導(dǎo)致道德評(píng)估的不同途徑之間存在不一致的問題。我們并不一定需要接受Coakley的動(dòng)機(jī)倫理理論本身,但是他建議同時(shí)考慮動(dòng)機(jī)和行為這一點(diǎn)值得注意。對(duì)動(dòng)機(jī)重要性的理論性反思表明,蘇格拉底式助手的道德人工智能可能由于繞過動(dòng)機(jī)而同時(shí)也使得使用者失去了接受此種道德評(píng)價(jià)的資格(eligibility)。這意味著,盡管Savulescu等和Lara等提出的模型通過繞過動(dòng)機(jī)避免了來自以侵犯隱私和損害自主性為名的指責(zé),但他們的弱點(diǎn)也恰恰在于他們放棄了動(dòng)機(jī)這一環(huán)節(jié)。
從一種單純的康德式義務(wù)論角度評(píng)價(jià),動(dòng)機(jī)則是更為重要甚至是評(píng)價(jià)道德價(jià)值的唯一標(biāo)準(zhǔn)。康德認(rèn)為道德價(jià)值僅來自出于義務(wù)動(dòng)機(jī)的行為[22],除了義務(wù)以外其他動(dòng)機(jī)道德上都不正確,即使同情心也被排除在外。雖然看上去有些反常識(shí),康德義務(wù)論卻揭示了道德深層次的本質(zhì)。正如Savulescu和Maslen所設(shè)想的那樣,弱道德人工智能可以發(fā)揮一系列工具性的作用,諸如作為道德環(huán)境的監(jiān)督者、道德組織者、道德促進(jìn)者、道德顧問、保護(hù)免受不道德的影響以及可以維護(hù)道德自主性和群體層面的道德人工智能。但是,以上這些功能,無論如何精心設(shè)計(jì),似乎都無法在使用或與此類人工智能交互的道德行動(dòng)主體中產(chǎn)生出義務(wù)(或與之相關(guān)的,被康德稱為是“敬重”的情感)。這意味著,持有強(qiáng)康德主義立場(chǎng)的話,蘇格拉底式助手類型的道德人工智能將永遠(yuǎn)無法在幫助我們成為“道德”行動(dòng)主體上發(fā)揮直接的作用。換句話說,如果弱道德人工智能可以按預(yù)期成功地工作,那么它最多可以提供幫助來生成較為合理的道德決策,而不是為行動(dòng)主體本人做出實(shí)際決策,更不用說最后是否能導(dǎo)向道德行為。行動(dòng)主體,無論他從所謂的道德人工智能機(jī)器中獲取了多少信息,都必須最終決定自己要做什么,并實(shí)際執(zhí)行他選擇的行為。在這里道德人工智能會(huì)顯得無效,即,如果我們確實(shí)采取動(dòng)機(jī)倫理觀點(diǎn)來評(píng)估行為主體,而不是僅僅關(guān)注行為,那么我們就會(huì)關(guān)注到這種蘇格拉底式助手意義上的弱道德人工智能對(duì)動(dòng)機(jī)沒有任何影響。盡管它肯定會(huì)通過提供各種幫助來影響道德判斷,但卻不能決定行動(dòng)主體的動(dòng)機(jī)(按照康德的表述是“規(guī)定意志”),從一種徹底的康德義務(wù)論觀點(diǎn)來看,任何并非純粹出于義務(wù)動(dòng)機(jī)的行為都沒有道德價(jià)值。只不過,對(duì)于任何僅需要評(píng)估行動(dòng)結(jié)果的情況而言這不是一個(gè)問題,例如,在用群體人工智能來做資源分配決策推薦的情況中,一般會(huì)根據(jù)集體決策而不是根據(jù)針對(duì)個(gè)體進(jìn)行評(píng)估,這里可采用基于結(jié)果論或功利主義的標(biāo)準(zhǔn),不需要一定采取動(dòng)機(jī)倫理的視角。
上述論述質(zhì)疑了弱道德人工智能的實(shí)際效用,即認(rèn)為如果這種弱道德人工智能只能實(shí)現(xiàn)信息增強(qiáng)和在與行動(dòng)主體的對(duì)話中充當(dāng)蘇格拉底式助手的話,這種作用并不能幫助我們成為更好的道德行動(dòng)者。換句話說,弱道德人工智能作為蘇格拉底式助手的應(yīng)用頗為有限,這使得這一層面的信息增強(qiáng)處于尷尬的境地。此外需要注意的是,這仍是在我們首先懸置了另外一個(gè)問題的情況下考慮的,這個(gè)更為深層次的問題是,究竟我們能否定義什么是道德上的善,以及如何評(píng)價(jià)道德上的善。而即便撇開這個(gè)蘇格拉底式助手的弱道德人工智能不考慮,單純道德信息增強(qiáng)本身的可行性尚不清楚,這需要對(duì)科學(xué)事實(shí)有足夠的了解才能知曉,諸如那些關(guān)于大腦如何捕獲那些使功能性大腦狀態(tài)符合道德目的的信號(hào)的知識(shí),而更進(jìn)一步追問什么才是真正的道德目的,也只能說是由道德行動(dòng)主體所在社群共有的價(jià)值觀所蘊(yùn)含的。
一旦解決了可行性問題,弱人工智能可具有良好的教學(xué)應(yīng)用前景,適用于那種處理大量復(fù)雜的信息來進(jìn)行道德決策的場(chǎng)景。此外,蘇格拉底式助手的道德人工智能可以提供虛擬現(xiàn)實(shí)體驗(yàn),通過這種體驗(yàn),人們可能對(duì)根本沒有機(jī)會(huì)體驗(yàn)的事情產(chǎn)生同理心或同情心,這也有助于改變一個(gè)人的道德考量,并具有影響動(dòng)機(jī)的可能性,這一可能性,如前所述,確實(shí)被這一模型的提出者所承認(rèn)。然而,如果這行得通,似乎不再是一個(gè)弱道德人工智能了,那種聲稱可以繞過動(dòng)機(jī)的弱道德人工智能和直接影響動(dòng)機(jī)的道德增強(qiáng)之間的界線被模糊了。這里的關(guān)鍵在于,僅憑提供虛擬現(xiàn)實(shí)這一事實(shí)并不是區(qū)分弱和強(qiáng)的標(biāo)準(zhǔn),按照提出弱道德人工智能模型的人自己給出的定義來看,并不是由一個(gè)增強(qiáng)手段所完成的任務(wù)來定義它究竟是弱還是強(qiáng),而是看是否通過對(duì)于動(dòng)機(jī)的影響來實(shí)現(xiàn)道德增強(qiáng)目的來確定其性質(zhì)。
通過強(qiáng)調(diào)信息增強(qiáng),弱道德人工智能的主張似乎暗示著一些有用的東西。道德信息增強(qiáng)和道德生物增強(qiáng)不一定彼此排斥。道德生物增強(qiáng)強(qiáng)調(diào)的是手段,即只是說使用生物醫(yī)學(xué)手段來增強(qiáng)目的,因此,廣義上來看,藥物、外科手術(shù)和腦機(jī)接口等方式都可以達(dá)到生物增強(qiáng)的目的。道德信息增強(qiáng),則強(qiáng)調(diào)增強(qiáng)的效果究竟在哪個(gè)層面完成,即被增強(qiáng)的維度。相反,這并不是說道德上的生物增強(qiáng)更可行,坦率地說,沒有太多證據(jù)表明道德推理的生化基礎(chǔ)或神經(jīng)生物學(xué)基礎(chǔ)對(duì)于我們而言更簡(jiǎn)單易得,我們碰巧發(fā)現(xiàn)某種可以突然使人更有同情心或無私的藥物這件事的幾率似乎也相當(dāng)?shù)汀倪@個(gè)意義上講,道德信息增強(qiáng)和生物增強(qiáng)必須面對(duì)可行性上類似的挑戰(zhàn),因?yàn)樗鼈兌夹枰鉀Q基本的科學(xué)問題,即如何以某種方式操縱大腦的狀態(tài),以改善人類的行為。兩者之間的聯(lián)系是,由于道德信息增強(qiáng)的側(cè)重點(diǎn)在于這一增強(qiáng)可以在擴(kuò)展信息量和提高信息處理效率方面發(fā)揮作用,因此信息增強(qiáng)也可以通過生物增強(qiáng)方法來完成。例如,通過服藥或接受外科手術(shù)或與腦機(jī)接口連接,我們的大腦可以更快地工作,從而使受體變得極為敏感,我們將能夠處理甚至存儲(chǔ)大量信息。如果人的大腦和身體在生理上能夠進(jìn)行這種生物醫(yī)學(xué)增強(qiáng),那么它將與信息增強(qiáng)的結(jié)果并無二致。通過生物醫(yī)學(xué)增強(qiáng)(包括藥物、腦機(jī)接口和外科手術(shù))實(shí)現(xiàn)信息增強(qiáng)的場(chǎng)景不僅是合理的,而且也是可取的,尤其是在非常復(fù)雜的日常生活或社交生活中,那里有大量我們沒有時(shí)間和精力來熟悉和處理的信息。因此,弱道德人工智能不必僅僅針對(duì)信息增強(qiáng)。換句話說,信息增強(qiáng)這一目的,或者說作為達(dá)到道德增強(qiáng)的階段性目標(biāo),既可以通過信息增強(qiáng)的手段來完成,也可以通過生物醫(yī)學(xué)增強(qiáng)的方式來完成。
由于動(dòng)機(jī)的重要性以及道德判斷與動(dòng)機(jī)之間的鴻溝,作為蘇格拉底式助手的弱道德人工智能方案不具有實(shí)踐上的吸引力,但弱道德人工智能的局限性并不一定意味著強(qiáng)意義上的道德增強(qiáng)一定失敗(當(dāng)然這里我們暫且擱置了對(duì)于它的倫理問題的主要批評(píng)意見)。盡管以信息增強(qiáng)形式的蘇格拉底式助手弱道德人工智能功能有限,但是鑒于前面文字中對(duì)生物增強(qiáng)和信息增強(qiáng)之間的關(guān)系所作的說明,信息增強(qiáng)作為一種階段性或工具性目標(biāo),當(dāng)其與已經(jīng)可行的強(qiáng)意義上的道德增強(qiáng)手段結(jié)合使用時(shí),會(huì)有一定的應(yīng)用空間,但這時(shí)假定強(qiáng)意義上的道德增強(qiáng)的可行就意味著至少我們已具備有關(guān)人類道德心理學(xué)和神經(jīng)生物學(xué)機(jī)制等的足夠知識(shí),并具有改變精神狀態(tài)(mental states)和直接影響動(dòng)機(jī)的能力。考慮到我們?cè)诨蛏系南拗坪驮谏砩蠠o能力存儲(chǔ)和處理海量信息的事實(shí),我們也許能以某種方式將信息存儲(chǔ)或處理的工作外包給第三方,比如說,這個(gè)第三方能在大腦和身體外部完成信息增強(qiáng)。
此外,當(dāng)我們談?wù)摰赖略鰪?qiáng)時(shí),也可以對(duì)其具身(embodiment)的方式再細(xì)化。如果一個(gè)人工智能可以被用于道德增強(qiáng),其結(jié)果既可以是:(1)經(jīng)由任何方法(包括人工智能手段和方法在內(nèi))在道德上得到了增強(qiáng)的道德行動(dòng)主體/人,也可以是:(2)擁有超強(qiáng)道德推理能力的(內(nèi)置了人工智能算法的)機(jī)器,一種能夠在無需人工干預(yù)的情況下解決道德問題的機(jī)器。注意這兩者是極為不同的選擇,而在這兩種選擇之間,具有增強(qiáng)的道德能力的行動(dòng)主體/人更為可行,其原因僅在于,為了使任何形式的道德增強(qiáng)成為可能,對(duì)人的道德心理學(xué)、生化和神經(jīng)生物學(xué)機(jī)制的全面了解是必不可少的,這些知識(shí)包括諸如人腦如何捕獲和處理那些具有道德重要性的信息等,因此在道德上得到增強(qiáng)的行動(dòng)主體/人是制造出具有道德推理能力的機(jī)器的前提,即,后者的可行性取決于前者。這樣,從廣義上講,這里所能得出的思路其實(shí)更接近于腦機(jī)接口(brain-computer interface)模型,在這個(gè)模型中,動(dòng)機(jī)沒有被輕易繞過去,更重要的是,自主性可以在一定程度上得到保留。如果強(qiáng)意義上的道德增強(qiáng)(如果在科學(xué)上可行),以已知的動(dòng)機(jī)影響機(jī)制為前提,再聯(lián)合信息增強(qiáng)手段,那么自主性和隱私的關(guān)涉就會(huì)再度出現(xiàn)。很有可能的是,自主性和隱私問題無法完全避免,但是如果腦機(jī)接口具有增強(qiáng)人類道德的潛力且能夠?yàn)槿祟惐A舯匾淖灾餍院碗[私,這將是有希望的,但如何使得這些要素在一種操作層面上彼此相容仍需要進(jìn)一步在經(jīng)驗(yàn)的層面上確認(rèn)。畢竟,道德增強(qiáng)的弱版本和強(qiáng)版本,無論是通過生物醫(yī)學(xué)手段還是人工智能技術(shù),都被同一個(gè)關(guān)于可行性的問題困擾,要想在真正意義上增強(qiáng)道德功能,就得先在生物化學(xué)和神經(jīng)生物學(xué)機(jī)制以及塑造道德行為和性格的社會(huì)心理環(huán)境方面進(jìn)行大量的實(shí)證性工作。
總之,作為蘇格拉底式助手的弱道德人工智能的悖論在于,通過繞過動(dòng)機(jī),道德信息增強(qiáng)似乎可以避免侵犯隱私和損傷自主性的問題,但是,即便可行性問題先擱置,在沒有對(duì)道德主體產(chǎn)生動(dòng)機(jī)上的直接影響的情況下,僅道德信息增強(qiáng)似乎并不能直接為人類的道德價(jià)值奠基。然而如果我們不對(duì)未來的技術(shù)發(fā)展做獨(dú)斷論式的猜測(cè),那么從目前精神醫(yī)學(xué)和心理治療中所使用的這種聊天機(jī)器人的實(shí)踐和其效果來看,也許相關(guān)科學(xué)與技術(shù)對(duì)于人的認(rèn)知、情緒甚至動(dòng)機(jī)的影響是有希望的,它甚至可以在一種非侵入性操作(這意味著更安全)的方式下完成,正如我們?cè)诹奶鞕C(jī)器人Wysa那里看到的,這種互動(dòng)的、基于人工智能技術(shù)的、以人機(jī)對(duì)話方式進(jìn)行的精神/心理治療實(shí)踐不正是一種蘇格拉底式助手的實(shí)例嗎?由于這一技術(shù)與實(shí)踐剛剛開始,系統(tǒng)性的、關(guān)于市場(chǎng)主流心理治療類聊天機(jī)器人的實(shí)證研究還很少[23]。目前Wysa通過了英國(guó)國(guó)民醫(yī)療服務(wù)體系(National Health Service,NHS)的臨床安全標(biāo)準(zhǔn)(https://www.wysa.io/safety-and-efficacy),但其在隱私保護(hù)、保密性和臨床效果上還沒有確定的結(jié)論。如果說用于精神醫(yī)學(xué)臨床的人工智能助手其臨床效果如何還拭目以待,那么究竟我們離這種由弱道德人工智能完成的道德增強(qiáng)還有多遠(yuǎn)似乎更難以預(yù)測(cè),但是換個(gè)思維方式看,至少目前也沒有證據(jù)表明這一事業(yè)是不可完成的,在生物化學(xué)、神經(jīng)生物學(xué)、人工智能等技術(shù)那里和在社會(huì)與道德心理學(xué)之處的進(jìn)展和會(huì)聚會(huì)告訴我們答案。