胡術(shù)恒, 向玉瓊
溫德爾和科林指出,當(dāng)他們1999年涉足機器道德領(lǐng)域時,如何建構(gòu)人工道德智能體方面的問題,竟然還是未探索的哲學(xué)領(lǐng)域(1)溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M].王小紅,譯.北京:北京大學(xué)出版社,2017:1.,直到2017年這一領(lǐng)域在我國才成為熱點(2)據(jù)中國知網(wǎng)查詢,1986年第6期《中學(xué)政治學(xué)教學(xué)》雜志發(fā)表了方軍的《從機器人帶來的災(zāi)難談起——談道德和科學(xué)技術(shù)的關(guān)系》,從2017年開始,研究相關(guān)問題的文獻(xiàn)迅速增加。。這是因為,道德問題實際上是當(dāng)代元倫理學(xué)的核心結(jié)構(gòu)性難題(3)邁克爾·絲密斯.道德問題[M].林航,譯.杭州:浙江大學(xué)出版社,2011:11.,而在“人機共生”條件下,人工智能技術(shù)倫理變得更加復(fù)雜,在研究方法上,從機器人倫理的實在論進(jìn)路走向機器人倫理的關(guān)系論進(jìn)路又是一個重大轉(zhuǎn)折(4)李小燕.從實在論走向關(guān)系論:機器人倫理研究的方法論轉(zhuǎn)化[J].自然辯證法研究,2016(2):40-44.。近20年來,盡管國外理論界在人工智能技術(shù)道德倫理方面做出了很多探究(5)從《道德機器——如何讓機器人明辨是非》的參考文獻(xiàn)大體可看出國外學(xué)者2007年以前的研究情況。,但如何使機器自身的道德能力逐漸增進(jìn)——依然是一個需要研究的課題(6)溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M].王小紅,譯.北京:北京大學(xué)出版社,2017:II.。
國內(nèi)研究人工智能道德的文獻(xiàn)大都處于“實在論”階段,還未邁入“關(guān)系論”。有文獻(xiàn)探究了人工智能技術(shù)的倫理樣態(tài),包括人機邊界模糊、責(zé)任歸屬困境、價值鴻溝加劇、智能技術(shù)依賴四個方面,并提出了協(xié)同治理的思路(7)譚九生,楊建武.人工智能倫理風(fēng)險及其協(xié)同治理[J].中國行政管理,2019(10):44-50.。有文獻(xiàn)探究了人工智能體倫理建構(gòu)的內(nèi)涵、建構(gòu)的五項原則、基本框架及其實踐進(jìn)路,以此來明確人工智能倫理的基本價值、基本標(biāo)準(zhǔn)及落實人工智能倫理的相關(guān)責(zé)任(8)于雪,段偉文.人工智能的倫理建構(gòu)[J].理論探索,2019(6):43-49.。由于人工智能倫理和信息倫理之間存在一定的聯(lián)系,也有文獻(xiàn)希望從信息倫理中獲取對人工智能倫理的啟示(9)張正清,張成崗.第四次革命:現(xiàn)代性的終結(jié)抑或重構(gòu)——信息倫理對人工智能倫理的啟示[J].武漢大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2018(5):177-184.。還有文獻(xiàn)意識到“人機共生”關(guān)系下人工智能技術(shù)必然會挑戰(zhàn)既有的人類價值,因此提出要堅持以人為本或以人為中心的發(fā)展原則(10)孫偉平.關(guān)于人工智能的價值反思[J].哲學(xué)研究,2017(10):120-126.。
隨著人工智能與人類生活關(guān)系的日益緊密,理論界對于“人機共生”狀態(tài)下人工智能體的道德問題理解得更加深刻。有文獻(xiàn)提出,由于機器人和其他人工智能有自主感知世界并自主選擇行動來實現(xiàn)目標(biāo)的特性,因此在設(shè)計時,需要讓它們遵循人類的社會規(guī)范(11)BENJAMIN K. How can we trust a robot?[J].Communications of the ACM, 2018,61(3):86-95.。從人機互動的角度看,需要考慮人與機器人道德地位的不對稱性,從機器人外觀、社會智能、人工情感等方面入手建構(gòu)機器人的道德能力(12)杜嚴(yán)勇.論機器人道德能力的建構(gòu)[J].自然辯證法研究,2018(5):43-48.。還有文獻(xiàn)強調(diào),未來的研究需要在全球情景條件下,從倫理體系建設(shè)、理論技術(shù)的前瞻性、倫理角色塑造和科學(xué)發(fā)展倫理觀等方面做進(jìn)一步的研究(13)謝洪明,陳亮,楊英楠.如何認(rèn)識人工智能的倫理沖突——研究回顧與展望[J].外國經(jīng)濟管理,2019(10):109-124.。在人工智能時代,“人機共生”意味著人和人工智能“類人”形成了共生共在的社會關(guān)系。因此,在“人機共生”的環(huán)境中,人工智能體的道德判斷更加具有復(fù)雜性。其復(fù)雜性主要表現(xiàn)在兩個方面:一是因為“類人”要面對人類道德生活的復(fù)雜性;二是人類如何賦予“類人”道德判斷能力的復(fù)雜性。
本文根據(jù)溫德爾和科林提出的人工道德智能體(AMAs)的兩維框架“自主性——倫理敏感性”來探索人工智能體道德判斷的復(fù)雜性問題,重點探究三個方面的問題:一是“人機共生”關(guān)系中道德判斷的現(xiàn)實復(fù)雜性;二是“人機共生”關(guān)系中道德判斷理論選擇的復(fù)雜性;三是提出解決人工智能體道德判斷復(fù)雜性的三條思路。
人們對技術(shù)和道德關(guān)系的認(rèn)識和定義會隨著時代的發(fā)展而變化。從農(nóng)業(yè)社會到工業(yè)社會,技術(shù)是工具性、中性,機器的運動是物理運動,既沒有自主性更沒有情感性。所謂技術(shù)的道德是工具性道德,它的主體有兩個,即工具設(shè)計者和使用者。然而,人工智能體“類人”如同人一樣具有自主性,有自主行動和自主決策能力。一旦討論人工智能體自主性問題就會觸及人工智能體的道德判斷問題。如果人工智能時代“人機共生”社會出現(xiàn),那么“人機共生”關(guān)系將會成為認(rèn)識道德判斷復(fù)雜性的起點。
古希臘思想家將人歸為萬物之靈時,其目的是希望徹底將人和物區(qū)分開來,從人類發(fā)展來看,這種區(qū)分的價值和意義巨大。當(dāng)人無需以道德的方式來處理物時,就增強了人開發(fā)自然、獲得資源的能力。盡管,這個過程破壞了自然,但人類仍然難以遏制,今天,技術(shù)依然是人類索取自然的基本工具。但人工智能技術(shù)的發(fā)展呈現(xiàn)出了新的狀態(tài),即“伴隨著日益增強的自主性和敏感性的交互作用進(jìn)行”(14)溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M].王小紅,譯.北京:北京大學(xué)出版社,2017:27.。由此可見,具有自主性和敏感性的人工智能體,將給人類社會增加一種有自主性、敏感性的“人造物”?!邦惾恕钡某霈F(xiàn)促使人類社會形成了“人機共生”的新社會關(guān)系。這種新的社會關(guān)系,對“人是萬物之靈”的哲學(xué)指引提出了挑戰(zhàn)。當(dāng)具有自主性和敏感性的人工智能“類人”進(jìn)入到人類社會,人類就需要改變對自然界和人工智能“類人”地位的看法,否則,作為人造物的“類人”將給人類帶來傷害,人類和人工智能體都不可能獲得可持續(xù)發(fā)展。這就是“人機共生”關(guān)系中最基本的認(rèn)識。基于這樣的認(rèn)識,人類必須賦予、保證人工智能體具有道德判斷能力,將其發(fā)展成為具有道德判斷能力的“類人”。
人類對人工智能道德判斷能力的認(rèn)識是逐步形成的。一方面,通過文藝作品中機器人的意象,即通過科幻小說和電影建構(gòu)“人機共生”的故事,將機器人視為人類一樣有情感、有智慧又超越人類能力的主體,在人們心目中強化其道德的形象,為人類賦予人工智能體道德判斷能力打下了文化基礎(chǔ)。另一方面,通過現(xiàn)實生活的要求。一旦人工智能“類人”步入人類社會,就會影響人的行動空間。隨著技術(shù)的發(fā)展,人工智能體將在教育、醫(yī)療診斷、經(jīng)濟投資、交通駕駛等涉及人類衣食住行的各種領(lǐng)域里,幫助人類提供數(shù)據(jù)、進(jìn)行決策,它們掌握著人類最隱私的信息。因此,人類對人工智能體的道德期待會更加強烈,必然要求它們有道德的行動。如同人類社會中缺乏道德的人將被否定一樣,在“人機共生”社會,“類人”必須成為具有道德能力和道德自我約束力的主體,缺乏道德的“類人”將被人類拒絕、遺棄甚至停止“生命”。
在“人機共生”關(guān)系中,人工智能體的自主性能力越強,人類與它們的合作就越深入。隨著風(fēng)險社會的來臨,人類需要尋求“第二層級的決策支持體系”,來解決具有高度復(fù)雜性和高度不確定性的社會問題(15)溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:25.。人類和“類人”形成了新的合作決策方式,人類需要人工智能程序支持決策,以幫助人類解決超越其決策能力的問題。在解決這些問題時,“這些系統(tǒng)將需要以現(xiàn)代的計算速度來處理復(fù)雜情況,在這些情況下所作出的選擇和采取的行動方案是無法讓設(shè)計者和軟件程序員見到的”(16)溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:25.。人工智能因此將獲得了人類的決策權(quán),“人機共生”的社會這樣的情況會越來越多。
工業(yè)革命以來技術(shù)設(shè)計的目標(biāo)是使機器更快、更有效率、更精確地實現(xiàn)人的需要。在今天,人工智能的目標(biāo)是它們根據(jù)人類的價值體系做出更好的決策(17)ROSSI F. How do you teach a machine to be moral? the Washington post[EB/OL].[2015-09-05].https:∥www.washingtonpost.com/news/in-theory/wp/2015/11/05/how-do-you-teach-a-machine-to-be-moral/.。這就要求人工智能體既有自主性又有倫理敏感性。如果人工智能體從未意識到或者不考慮過人類社會的道德問題,就會帶來嚴(yán)重問題。由于人類依賴人工智能系統(tǒng)的決策,因此需要持續(xù)提升人工智能體的自動化程度,所以,“針對道德學(xué)科來說,挑戰(zhàn)在于怎樣在另一個坐標(biāo)的方向上移動,即道德考量的敏感性”(18)溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:25.。因此,對于人工智能體而言,自主性和倫理敏感性的統(tǒng)一具有決定性意義。
這就需要將人類的道德觀嵌入到人工智能體中,在不斷追求人工智能體道德判斷能力和道德決策能力提升的同時,保證它們的倫理敏感性、安全性和可靠性,使之更好地服務(wù)于人類。在這個意義上,摩爾將人工道德智能體劃分為四類:最底層的是倫理效果智能體,其次是隱含式倫理智能體,第三層是顯現(xiàn)式倫理智能體,第四層是完備倫理智能體(19)MOOR J H.The nature, importance, and difficulty of machine ethics[J].Intelligent system,2006(24):18-21.。這也說明人類賦予、提升人工智能體道德判斷能力的過程是漸進(jìn)性的。
與物相比,除了制造、使用工具和具有語言能力外,人還是自主性和倫理敏感性結(jié)合的主體?!叭说淖灾餍允窃谖幕?、政治以及自我的欲望和要求的綜合作用下生成的”(20)張康之.論社會運行和社會變化加速化中的管理[J].管理世界,2019(2):101-114.;既來源于自身的意識和決定,又來源于人和社會的相互作用。人的倫理敏感性則來源于人需要有道德的生活,所以從“ethic”(倫理)一詞的詞源可以看出(21)“倫理”一詞源自古希臘文ethos,ethos的本意是“本質(zhì)”“人格”;也與“風(fēng)俗”“習(xí)慣”的意思相聯(lián)系。見何懷宏著《倫理學(xué)是什么》,北京大學(xué)出版社2015年版第14頁。,人類社會運行的基礎(chǔ)中的重要部分就是倫理道德(22)倫理和道德兩個詞有區(qū)別,何懷宏先生在《倫理學(xué)是什么》一書中提出,當(dāng)表示規(guī)范、理論的時候,傾向于用“倫理”一詞,而當(dāng)指稱現(xiàn)象、問題的時候,傾向于使用道德一詞。。可以說,是人的倫理敏感性促使人將道德判斷融合在人類行為中。
道德判斷是一個識別道德問題、選擇道德行為和評價道德結(jié)果的過程。沒有道德判斷和道德生活的社會秩序難以維持。用道德觀點去評價別人的行為和態(tài)度,這個是常識(23)邁克爾·絲密斯.道德問題[M].林航,譯. 杭州:浙江大學(xué)出版社,2011:1.。道德生活對個體的影響主要有三個方面。其一,只有以道德主體開展道德判斷并根據(jù)道德規(guī)范行動,個體才能在社會生活中被認(rèn)可;其二,道德判斷會影響個體的行為、價值觀和世界觀;其三,失德的個體經(jīng)常會被社會抵制、制裁甚至懲罰。道德判斷是對個體和社會的建構(gòu)過程。進(jìn)一步而言,人之所以具有倫理敏感性,是因為社會對人的決策具有自主、理性和責(zé)任的要求,社會要求個體考慮自我利益的同時也要考慮他人利益。
在“人機共生”社會,人和“類人”必須要形成一種新的道德關(guān)系,以確保避免人機沖突或“種族斗爭”。培根認(rèn)為,人應(yīng)該通過直接面對世間萬物和利用技術(shù)改造的方法來取得自然的權(quán)威(24)阿明·格倫瓦爾德.技術(shù)倫理學(xué)手冊[M]. 吳寧,等,譯.北京:社會科學(xué)文獻(xiàn)出版社,2017:156.。一直以來,人類被賦予各種復(fù)雜的責(zé)任,人工智能時代同樣需要人來提升人工智能體的道德判斷能力。同樣,由于人工智能有“類人”性,也會與人一樣“類責(zé)任化”,即承擔(dān)和人一樣的責(zé)任。在兩個方面的作用下,倫理敏感性是人工智能體不可缺少的一部分,必須遵守人類的道德原則,具備道德判斷能力。“人機共生”的社會關(guān)系既是思考人工智能體道德判斷的前提,又是思考其道德判斷復(fù)雜性的起點。
目前,人工智能體的道德判斷能力是人賦予的,“人工智能體的道德屬性根源于人類自身的道德認(rèn)識”(25)王東浩.人工智能體引發(fā)的道德沖突于困境初探[J].倫理學(xué)研究,2014(2):68-73.。道德判斷的核心在于人們是基于何種標(biāo)準(zhǔn)作出道德判斷(26)COHEN D J, AHN M. A subject utilitarian theory of moral judgment[J]. Journal of experiment psychology: genera, 2016(145).1359-1381.,所以,在賦予人工智能體道德判斷能力時,人需要選擇理論依據(jù)。由于人是有情感、有理性、有公平正義需求的,是道德動機復(fù)雜性的綜合體,其倫理理論總糾纏在情感、理性、公平正義和動機之中,可以說,人類的倫理道德理論的復(fù)雜性是人工智能道德判斷復(fù)雜性的重要來源。
人是有情感的。人類如果沒有情感,就失去了活著的價值?;趯θ祟惽楦袃r值的深厚考察,休謨成為18世紀(jì)英國倫理學(xué)情感主義的先驅(qū),現(xiàn)在看來,它的理論依然科學(xué)?!靶葜兊膫惱韺W(xué)可以稱之為同情的倫理學(xué),他將道德感稱之為人的自然感情與同情結(jié)合的產(chǎn)物。”(27)孫文玲.同情與道德判斷——由同情概念的變化看休謨的倫理學(xué)[J].世界哲學(xué),2015(4):125-133.他不認(rèn)同將道德感作為道德判斷的基礎(chǔ)。根據(jù)他的判斷,“把道德感歸源于人類心靈原始本源的那些人或許以充分的權(quán)威為德性做了辯護(hù),不過卻沒有那些用人類廣泛的同情來闡釋道德感的人們所具有的優(yōu)勢”(28)大衛(wèi)·休謨.人性論[M].關(guān)天運,譯.北京:商務(wù)印書館,2010:663.。在他看來,同情心能夠超越自利的人而關(guān)注“他者”。“在同情方面,我們自己并非任何情感的對象,沒有任何東西使我們的注意力固定在自我身上。”(29)大衛(wèi)·休謨.人性論[M].關(guān)天運,譯.北京:商務(wù)印書館,2010:377.休謨將同情心視為道德判斷的基礎(chǔ),正是看到了同情心使“自利的人”脫離了自身自私的局限。
休謨不太同意將理性視為道德判斷的基礎(chǔ),這一點與啟蒙學(xué)者對理性的崇拜不同,在理性和情感的結(jié)構(gòu)上,他認(rèn)為理性依附于情感,認(rèn)為理性對道德行為的影響是間接的,它要借助于道德感,理性無法單獨發(fā)生作用(30)孟繁英.道德判斷:情感抑或理性——亞當(dāng)·斯密的公正的旁觀者理論評介[J].蘭州學(xué)刊,2016(12):122-126.。休謨的倫理學(xué)與現(xiàn)實中的道德判斷是相符的,因為,人的道德判斷與人的情緒密切相聯(lián)。道德判斷的結(jié)果包括“錯誤的”“正確的”“更好的”“更糟的”“無法接受”“可以接受”等,表現(xiàn)出了人憤怒或愉悅的情緒。愉悅的情感產(chǎn)生積極努力的道德行動,不愉悅的情緒會產(chǎn)生消極的道德行動。人可以把消極情緒轉(zhuǎn)化為積極情緒,也可以將消極行動轉(zhuǎn)變?yōu)榉e極行動,這恰好說明情緒影響和支配著行為。人的情感表征和情感實質(zhì)之間的關(guān)系復(fù)雜,人在使用同一情感表征時,其情感實質(zhì)存在差異性。同樣是微笑,對敵人和對親人表征時,其情緒完全不同。這也說明人的情感和道德不完全一致。
休謨的同情倫理學(xué)對人工智能體的道德設(shè)計非常重要,尤其是對服務(wù)型人工智能體更有重要價值。這一類人工智能體與人的生活關(guān)系最為密切。人工智能體“讀懂他人情緒的能力對于居家服務(wù)型機器人與人的互動來說十分有幫助”。然而,“除非工程師有意去設(shè)計系統(tǒng),否則,計算機智能就是建立在一個沒有欲望、動機和目標(biāo)的邏輯平臺上”(31)溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:124-125.。但有些觀點認(rèn)為,具有完全理性的人工智能體的道德計算能力比不完全理性的人要更強大,因此應(yīng)對倫理挑戰(zhàn)的時候,電腦可能相比人類大腦更具優(yōu)勢(32)溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:61.。其實,這類判斷沒有認(rèn)識到“人機共生”關(guān)系的復(fù)雜性。
基于情感來設(shè)計人工智能體依然有三方面的困難。其一,從技術(shù)發(fā)展過程來看,要使人工智能體獲得與人一樣復(fù)雜的情感非常困難。其二,即使人工智能體可以獲得人一樣的情感,人也很難對其產(chǎn)生情感認(rèn)同。因為人對情感認(rèn)同有排他性,一般只針對人類本身,甚至還可以縮小為同一國家、同一族群等,因此可能拒絕認(rèn)同人工智能體的情感。其三,“人機共生”的環(huán)境下,如果人類和人工智能體不理解、不認(rèn)同彼此的情感,兩者又如何合作呢?
康德的道德義務(wù)論將道德判斷歸結(jié)為理性選擇。他認(rèn)為人的善良意志由理性決定,將理性視為影響道德判斷的第一要素:“在世界之中,甚至世界之外,不可能設(shè)想一個無條件善的東西了”(33)康德.道德形而上學(xué)[M].苗力田,譯.上海:上海人民出版社,1986:42.。所以,道德判斷是基于絕對命令而進(jìn)行理性思考的結(jié)果。密爾同樣強調(diào)理性是倫理道德的基礎(chǔ),他指出:“我們的倫理能力是我們的理性的一個分支”(34)MILL J S. On liberty and other essays [M]. Oxford:Oxford University Press,2008:330.。如同斯密一樣,康德和休謨的判斷只有一定的合理性。
因為,根據(jù)理性進(jìn)行道德判斷,源于人對道德事實的抽象;但是,道德規(guī)則與道德事實只有形式同一性,而在內(nèi)容上很難直接對接和吻合。當(dāng)?shù)赖率聦嵭枰赖乱?guī)制時,道德規(guī)則不會簡單而嚴(yán)格地吻合道德事實。畢竟,“道德規(guī)則所主張的是一種嚴(yán)格論,它抽離現(xiàn)實中道德的特殊因素,因此,它不能包容不同的道德變化,以此缺少對道德感知和道德敏感性的關(guān)切”(35)何宇白.道德判斷的困境與赫爾曼的康德式變化[J].北方論叢,2016(6):151-155.。從而,在社會生活中,不同地域、不同文化的道德主體的判斷標(biāo)準(zhǔn)存在差異,由于道德情景及道德內(nèi)容的復(fù)雜性,從絕對理性出發(fā)來作出道德判斷存在困境。
從技術(shù)發(fā)展來看,根據(jù)康德的理性選擇論設(shè)計人工智能道德體,自上而下地賦予其道德判斷能力是重要方式。目前,設(shè)計者持有這樣的觀點,“電腦做出的道德選擇從一開始就不受情感所干擾。因此機器就不會受你的暴怒或者性嫉妒這樣的情感所劫持”(36)溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M].王小紅,譯.北京:北京大學(xué)出版社,2017:61.,因此要拋棄情感,使“無人駕駛汽車和其他人工智能道德主體,特別是具有自主決策能力的道德主體必須根據(jù)設(shè)計者賦予的道德原理,依據(jù)所面對的道德問題,形成合理的道德判斷”(37)AMITAI E,OREN E.AI assisted ethics[J]. Ethics information technology,2016(18):149-156.。很明顯,拋棄情感來思考純粹“理性”的道德,是過于簡單的方式。因為,任何道德判斷都在具體情境中進(jìn)行,必不可少地包含著情感等非理性因素。如果不考慮這些,人工智能體很難做出恰當(dāng)?shù)牡赖屡袛唷?/p>
進(jìn)一步而言,在設(shè)計人工智能體道德程序的過程中,“為機器創(chuàng)建一個倫理準(zhǔn)則框架”(38)MICHAEL A, ANDERSON S L. Machine ethics[M]. Cambridge: Cambridge University Press, 2011:1.的設(shè)想,很難實現(xiàn)。因為,針對不同的道德主體、道德賦予主體和道德事實,道德判斷主體的判斷依據(jù)及判斷結(jié)果,都會有很大差異,無法統(tǒng)一在一個“大一統(tǒng)”的倫理框架內(nèi)。只有從宏觀方面和微觀方面仔細(xì)考慮,明確道德的區(qū)域性、差異性和情感性,再將這些普遍性和特殊性的道德規(guī)范設(shè)計成為道德判斷程序,才能幫助它們識別道德問題,形成合理的道德判斷。
在美國物理學(xué)家伯姆看來,人的思維具有情感性、社會性和文化性,基于人的思維的道德判斷,理應(yīng)是情感和理性的結(jié)合。斯密指出:“美德在于服從理性,就某些方面來說是正確的,而就某一意義來說,理性也可以很恰當(dāng)?shù)乇豢醋魇琴澰S與非難以及所有穩(wěn)健的是非判斷的源頭與原理?!?39)亞當(dāng)·斯密.道德情操論[M].謝宗林,譯.北京:中央編譯出版社,2009:317.他認(rèn)為,合理有效的道德判斷過程,是公正的旁觀者、理性和同情共同作用的過程。為了克服理性和情感自身的弱點,道德判斷時內(nèi)心需要有一個“公正的旁觀者”。因為,“沒有同情,理性可能是不人道的或者無力的,但是,沒有這個公正的旁觀者,沒有理性判斷,同情也是徒勞無益的”(40)侯紅霞.亞當(dāng)·斯密的美德理論[M].上海:上海三聯(lián)書店,2013:96.。
公正是衡量一個社會合理性的重要因素,是二元的,它希望建構(gòu)一種平等的關(guān)系。追求公正既是人類道德判斷的重要部分,又是法律判斷的重要部分。這種平等的關(guān)系主要是指人和人之間的平等,而很難擴展到人工智能體之中。如果目前人工智能技術(shù)都沒有足夠的能力賦予人工智能體情感和理性,在此情況下,又如何能再為它設(shè)置“一個公正的旁觀者”角色?而且,公正本身就是人類社會中的復(fù)雜問題,在“人機共生”的關(guān)系中,公正的問題將更為復(fù)雜。
有文獻(xiàn)提出,企業(yè)需要一種新型的人工智能程序監(jiān)督,即人工智能倫理輔助監(jiān)管體。通過這類人工智能體監(jiān)視、審核其他人工智能體的行為,以保證人工智能機器守法律、有道德、負(fù)責(zé)任運行,從而為人類提供更好的服務(wù)(41)AMITAI E,OREN E. AI assisted ethics[J]. Ethics information technology,(2016)18:149-156.。這個觀點,無論從理論還是實踐上看都是一個悖論,因為我們的困難本身在于,難以賦予人工智能體道德判斷力,又如何能進(jìn)一步設(shè)計出以道德判斷力為基礎(chǔ)的監(jiān)督程序呢?此外,在某種程度上,人工智能倫理輔助監(jiān)管體也否定了人對人工智能體完全的道德判斷能力。在“人機共生”的環(huán)境中,使用人工智能程序監(jiān)督,有可能會進(jìn)一步加劇人和人工智能體之間的矛盾。
現(xiàn)代心理學(xué)研究認(rèn)為:“圍繞道德判斷及決策過程的研究越來越深入和細(xì)化,但是道德判斷形成的機制一直是學(xué)術(shù)界爭論的熱點,尚未形成統(tǒng)一的理論?!?42)李良,李路云.直覺還是推理,道德判斷如何形成?[J].心理學(xué)探新,2019(4):300-307.這一研究還存在著很大的爭議。這些爭議也增加了“人機共生”關(guān)系中,賦予人工智能體道德判斷的復(fù)雜性。
其一,在道德動機和道德判斷的關(guān)系上,理論界存在著內(nèi)在主義和外在主義的理論,但是,這兩種理論之間都無法圓滿解釋生活中的不道德現(xiàn)象,即一些人可以做出道德判斷但沒有道德行動(43)楊松.道德判斷與道德動機——內(nèi)在主義與外在主義的理論交鋒[J].哲學(xué)動態(tài),2018(12):75-83.。在“人機共生”的關(guān)系中,人工智能體也會如此嗎?
其二,有文獻(xiàn)提出,“道德判斷和道德動機涉及我們對信念、欲望等概念的理解;而從道德心理學(xué)角度來看,道德動機是否由道德判者決定存在爭議”(44)王奇琦.道德判斷與道德動機[J].求索,2016(12):55-60.。如果人工智能體有了意識、情感和信念,那么,它們和人的意識、情感和意識一樣嗎?
其三,人們的道德標(biāo)準(zhǔn)是不一致的,甚至個人的選擇在不同的具體情境中也不一致(45)李宏翰,溫舒雯.道德判斷研究的歷史、現(xiàn)狀和展望[J].廣西師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2017(4):91-98.,雖然人工智能體中“程序員已經(jīng)敲進(jìn)去了那些重要的關(guān)乎建立信任和合作的價值”(46)溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M].王小紅,譯.北京:北京大學(xué)出版社,2017:23.,由于人們很難理解人工智能體的運行過程,也無法讀懂人工智能體的程序運行過程,這些程序是否真正能達(dá)到道德判斷的作用,依然并不明確,只能通過結(jié)果來體現(xiàn)。這也增加了人類賦予人工智能體道德判斷的復(fù)雜性。
弗羅里迪和桑德斯提出人工智能機器E的倫理標(biāo)準(zhǔn):(1) 交互性,E與環(huán)境互動;(2) 獨立性,E有能力改變自身和它的相互作用,而不受外部條件的直接影響;(3) 適應(yīng)性,E可能會基于(1)的結(jié)果而改變在(2)中的實現(xiàn)方式(47)FLORIDA L,SANDERS J W. On the morality of artificial agents[J]. Minds and machines,2004(3):349-379.。設(shè)計師可以賦予人工智能主體宏觀道德標(biāo)準(zhǔn),然而,在不同道德情景下,宏觀道德標(biāo)準(zhǔn)如何實現(xiàn),則是重要的問題。根據(jù)生活經(jīng)驗,在道德判斷的過程中,個體的人不是教條主義者,很難有一成不變的道德標(biāo)準(zhǔn)。所以,道德標(biāo)準(zhǔn)的選擇與不同的道德情境、道德問題及其道德判斷主體的關(guān)注點有著緊密的聯(lián)系。
總體而言,人的社會活動形成了具有多層次、多功能、多領(lǐng)域、多情感、多態(tài)度、多角色、多動機的系統(tǒng),人的道德判斷是在復(fù)雜性社會活動中的判斷活動;加之,在“人機共生”關(guān)系中,道德判斷不僅和道德問題、道德情景和道德主體相關(guān),而且和道德動機和道德文化相關(guān)。在現(xiàn)實生活中,道德標(biāo)準(zhǔn)既復(fù)雜又充滿差異性:“從某個特定的道德參照系出發(fā),試圖樹立所有人接受的公正觀念,這是一件十分困難之事”。(48)阿明·格倫瓦爾德.技術(shù)倫理學(xué)手冊[M].吳寧,等,譯.北京:社會科學(xué)文獻(xiàn)出版社,2017:296.因此,目前的道德倫理理論,很難直接給人工智能體的道德設(shè)計提供理論依據(jù),而且,以此來尋找合適的理論進(jìn)行道德編碼,同樣是復(fù)雜的選擇問題。正如人總是在情感、理性、公正中徘徊一樣,人的道德動機也是漂浮不定的,這讓人類賦予人工智能體道德判斷能力成為復(fù)雜的問題。
“道德主體是指具有自我意識,能夠進(jìn)行道德認(rèn)知,能夠進(jìn)行推理并形成自我判斷,能夠進(jìn)行道德選擇與實施道德行為且承擔(dān)道德責(zé)任的道德行為體?!?49)閆坤如.機器人倫理學(xué):機器的倫理學(xué)還是人的倫理學(xué)?[J].東北大學(xué)學(xué)報(社會科學(xué)版),2019(4):331-336.人作為道德主體很容易理解,而且每個成年人都被界定為一個道德主體。人工智能體的“道德”不是簡單移植人的道德,機器道德是通過程序編碼形成和運行的,兩者具有本質(zhì)的不同。在“人機共生”關(guān)系中,人們對機器倫理的認(rèn)識越來越清晰,“機器倫理是重要的,我們想要機器對我們更好。因為機器正在變得越來越復(fù)雜,并且使我們的生活更加愉悅,而將來的機器可能自主地去做這些。機器的能力越強就越需要更強的機器倫理”(50)MOOR J H.The nature, importance, and difficulty of machine ethics[J]. Intelligent system,2006,24(4):18-21.。然而,摩爾也認(rèn)為,對人類對機器人倫理能力的期望不能太樂觀。然而,在“人機共生關(guān)系”中,機器倫理又非常重要。因此,為了使人工智能體成為具有道德判斷能力的主體,我們提出三條供參考的思路。
盡管只有當(dāng)一個人工智能體具有充分的自由意志時,才能說它知道什么是倫理沖突,才能是一個真正的道德決策者(51)溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M].王小紅,譯.北京:北京大學(xué)出版社,2017:28.;但是,隨著大面積使用越來越多的人工智能體,其技術(shù)自主性和倫理敏感性的分裂會產(chǎn)生巨大危害。其一,人工智能體的自主性,意味著其行動可能超出程序準(zhǔn)則,脫離了控制,因此產(chǎn)生非道德行為。其二,人工智能自主性能力的發(fā)展速度,可能遠(yuǎn)遠(yuǎn)超過人類賦予其道德判斷標(biāo)準(zhǔn)并確保其成為道德機器的速度。其三,為了提升競爭能力,暫時忽視了對人工智能技術(shù)自主性的倫理監(jiān)管。其四,為了獲得競爭利益,部分企業(yè)可能只關(guān)注發(fā)展它的自主性技術(shù)而忽視其倫理敏感性。但是,如何讓機器融合倫理自主性是一個難題。
《道德機器》一書介紹了“自上而下”和“自下而上”的原則?!白陨隙隆笔侵冈谠O(shè)計AMAs時,選取一個具體的倫理理論,進(jìn)而設(shè)計能夠執(zhí)行這個理論的算法和子系統(tǒng)。“自上而下”的模式隱含地給這些系統(tǒng)嵌入了特定的價值觀(52)溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:24.。這種人造的代碼道德,既受倫理理論的復(fù)雜性的限制,也受道德技術(shù)的提供者、人工智能公司等利益相關(guān)者的限制?!白韵露稀钡倪M(jìn)路則類似于兒童大腦的發(fā)育,是在一個環(huán)境中讓機器自己去學(xué)習(xí),生成一個道德模型。由于人類對道德的理解和將這些理解變成技術(shù)的能力十分有限,因此,在實施中存在諸多困難。因為行為數(shù)據(jù)具有歷史性、社會性,既包含著人類普遍的道德價值,又包含著地域性和文化差異性、道德歧視甚至是道德歪曲等。而且,人的行為數(shù)據(jù)不是簡單的數(shù)字,而是在既有經(jīng)濟、文化和社會背景下的行為,體現(xiàn)了不同的道德認(rèn)知水平。從而,經(jīng)過這些數(shù)據(jù)喂養(yǎng)、學(xué)習(xí)成長的人工智能體,其道德判斷不可避免地會有人的痕跡(53)KATE CRAWFORD K, RYAN C. There is a blind spot in AI research[J]. Nature, 2016(20):311-313.。但是,人工智能體是否能深層次理解這些行為數(shù)據(jù)的意義,并進(jìn)行加工和再現(xiàn),尚未可知。
《道德機器》一書介紹的第三種方式是“混合式”的進(jìn)路。它是“自上而下”和“自下而上”的聯(lián)合,即通過普遍性的倫理規(guī)則,與具體的道德情境相結(jié)合來賦予人工道德智能體道德判斷能力。這種方式實現(xiàn)起來更加困難,畢竟,人類作為有機體是從生物化學(xué)環(huán)境中進(jìn)化而來的,推理的能力形成于有情緒的大腦,而人工智能體在現(xiàn)階段是在邏輯平臺上建立的(54)溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:61.。同時,經(jīng)過漫長進(jìn)化的人,其道德判斷能力來源于鮮活的道德事件,這是目前的人工智能體無法比擬的。所以,人工智能自主性技術(shù)的發(fā)展非常迅速,而獲得倫理敏感性則十分艱難。
從人工智能體技術(shù)的意義看,所有的研究都要立足于使人工智能體成為道德主體。在“人機共生”的社會,確保人工智能體的自主性和倫理敏感性融合非常重要,這是發(fā)展人工智能技術(shù)需要堅持的原則。因為,道德判斷對社會合作有重要意義(55)李明暉,饒儷琳.解釋水平視角下的道德判斷[J].心理科學(xué)進(jìn)展,2017(8):1423-1430.,對“人機共生”關(guān)系的維護(hù)更有重要意義。“隨著自主決策技術(shù)變得更為普遍,我們設(shè)想,未來(軟硬件)機器人專家會認(rèn)識到,他們自己的職業(yè)規(guī)范使AMAs的發(fā)展成為一項勢在必行的工程。”(56)溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:23.這一工程,就是追求人工智能體的自主性和倫理敏感性的融合發(fā)展。
人們都希望與一個有道德的人工智能體為伴,“如何建構(gòu)一個好的人工智能社會已經(jīng)成為技術(shù)引領(lǐng)性國家所共同考慮的事項”(57)CATH C, WACHTER S, et al. Artificial intelligence and “the good society”: the US, EU, and UK approach science and engineering ethics[EB/OL].(2017-03-28)[2018-01-04].http:∥doi.org/10.1007/s11948-017-9901-7.。為了達(dá)成這一目標(biāo),需要堅持對人工智能體進(jìn)行合作治理,具體要注意以下三個方面的問題:
其一,成立由多元主體構(gòu)成的人工智能倫理委員會。盡管,學(xué)術(shù)界和公眾對人工智能風(fēng)險進(jìn)行了激烈討論,但各國政府還沒有將人工智能的道德風(fēng)險放在首位,也沒有對人工智能道德問題開展全球治理。在差異性條件下,對人工智能的倫理道德限制將妨礙技術(shù)創(chuàng)新的觀點也比比皆是。為了消除差異性,達(dá)到自主技術(shù)性和倫理敏感性的融合,有必要成立由多元主體,包括政府、企業(yè)、社會組織和學(xué)者等組成的人工智能道德委員會。委員會經(jīng)常性地就人工智能道德的設(shè)計進(jìn)行公共對話,并將對話機制制度化,以此更好地消除倫理失范。當(dāng)然,這一過程要求多元主體客觀中立嵌入進(jìn)來,理性指引。進(jìn)一步而言,委員會還需要分領(lǐng)域來開展活動。因為,無論是智能教育、服務(wù)、醫(yī)療診斷、無人駕駛還是智能潛水器、水下機器人、礦山機器人、自動飛行器或者遠(yuǎn)程戰(zhàn)爭機器人,正確賦予其道德倫理能力是必不可少的。有研究者提出一個設(shè)想:全世界應(yīng)該建立一個“國際人工智能道德委員會”,并確保該委員會得到應(yīng)有的支持并避免受到不當(dāng)?shù)挠绊?58)Protect AI panel from interference[J]. Nature,2019,572(8):415.。這一提議確有必要。
其二,加強對人工智能體道德偏見的治理。目前,可能導(dǎo)致人工智能體形成道德偏見的主體主要有三個:一是深度學(xué)習(xí)的智能體。人工智能體可以通過深度學(xué)習(xí)來獲得道德能力,而“深度學(xué)習(xí)取決于對一個對代價函數(shù)的優(yōu)化”(59)特倫斯·謝諾夫斯基.深度學(xué)習(xí):智能時代的核心驅(qū)動力量[M].姜悅兵,譯.北京:中信出版集團,2019:320.。由于人類社會到處存在偏見、不平等、歧視、淡漠與對抗,但是,AI不但有強化所習(xí)得的偏見的潛能,而且它們不像人可以有意識地去抵制偏見(60)溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M]. 王小紅,譯.北京:北京大學(xué)出版社,2017:I.。二是智能體設(shè)計師團隊。歸根結(jié)底,人工智能體的道德判斷能力依然取決于“設(shè)計師團隊”。由于利益的驅(qū)動,可能形成部分技術(shù)精英控制人工智能體道德判斷能力的困境。三是公司或政府。公司以營利為取向,它可能采取一些臨時性的舉措來消除產(chǎn)品的不道德取向,比如,用暫停鍵來停止其道德侵害,但企業(yè)的逐利取向會導(dǎo)致其行為的短視性;同樣,一些政府也可能有類似行動。因此,這就要求政府、企業(yè)、行業(yè)能自我規(guī)制;此外人工智能倫理委員會應(yīng)積極治理此類的道德偏見。
其三,充分發(fā)揮政府的監(jiān)督職能。在人工智能體生產(chǎn)的合作治理過程中,政府將起到非常重要的作用。作為社會發(fā)展的穩(wěn)定器,政府有義務(wù)調(diào)整技術(shù)發(fā)展對社會秩序的沖擊,其主要功能是提供法律、規(guī)章和制度來約束人工智能生產(chǎn)企業(yè)、設(shè)計者及其他主體的不良行為;此外,要有效監(jiān)管人工智能體可能造成或者已經(jīng)造成的各種傷害。
人工智能體獲得道德判斷能力的復(fù)雜性不僅有現(xiàn)實緣由,還有理論緣由。不能回避的問題是,賦予人工智能體道德判斷能力時,價值多元問題必然要體現(xiàn)出來。雖然研究和預(yù)測人工智能時代倫理規(guī)范的走向是很難的問題,但是改變目前思考倫理規(guī)范的理論研究思路是一個可探索的路徑。在“人機共生”關(guān)系中,人工智能倫理理論的發(fā)展需要以“關(guān)系型”研究為進(jìn)路。以此為基礎(chǔ),我們提出,人工智能倫理學(xué)引向“智慧倫理學(xué)”是需要探索的問題。
一方面,在多元價值的條件下,智慧倫理學(xué)能夠幫助行為者在技術(shù)范疇中辨別方向(61)阿明·格倫瓦爾德.技術(shù)倫理學(xué)手冊[M].吳寧,等,譯.北京:社會科學(xué)文獻(xiàn)出版社,2017:263.。智慧倫理學(xué)并不創(chuàng)造或建立什么許可和禁令,而是提出看問題的觀點,從而認(rèn)清什么是好的(睿智的和隨機應(yīng)變的)勸告和建議——這里所針對的問題是鑒于特定技術(shù)的使能作用,如何對優(yōu)先權(quán)問題進(jìn)行確定(62)阿明·格倫瓦爾德.技術(shù)倫理學(xué)手冊[M].吳寧,等,譯.北京:社會科學(xué)文獻(xiàn)出版社,2017:263.。
另一方面,智慧倫理學(xué)是一種“使能的倫理學(xué)”,因為它所思考的問題是,什么可以通過技術(shù)來引起我們生活環(huán)境的根本改變或為之所固定化,同時,它還對這些情況是否符合人們的愿望進(jìn)行質(zhì)疑(63)阿明·格倫瓦爾德.技術(shù)倫理學(xué)手冊[M].吳寧,等,譯.北京:社會科學(xué)文獻(xiàn)出版社,2017:263-264.。這些新的思路可能為“人機共生”關(guān)系下倫理學(xué)的發(fā)展提出新的探索方向。人類社會正在走向智慧社會,智慧倫理學(xué)的形成也反映了社會發(fā)展的要求。走向智慧倫理學(xué)是倫理學(xué)研究的巨大轉(zhuǎn)向,也是一個需要理論界著力探索的問題。