簡小烜
“人工智能體的道德責任研究”是人工智能倫理學的一個核心議題,也是技術倫理學關注的一個熱點與難點問題。人工智能技術近些年發(fā)展迅猛,人工智能體(Artifical Agent)越來越具有學習能力和自主能力,雖然目前還處于弱人工智能體階段,但其引發(fā)的道德責任問題已經(jīng)引起學界的廣泛關注和深入探討:誰該為人工智能體所犯錯誤負責?人工智能體能否承擔道德責任?如果能,它在何種意義上承擔,又承擔何種責任?……這些問題頗有爭議,眾說紛紜、莫衷一是。本文試圖從德博拉·約翰遜(Deborah Johnson)和托馬斯·波瓦斯(Thomas Powers)提出的道德代理者(Moral Surrogate Agent)理論出發(fā),運用“道德角色—道德責任”分析框架,以及責任倫理學、他者倫理學等理論,論證人工智能體在“人—機”社會系統(tǒng)中擔負的道德角色及道德責任,以期為人工智能體道德責任的研究提供新的思路與借鑒。
將人工智能體在社會系統(tǒng)中的角色定義為代理者(Surrogate Agent)并非新想法,早已有人將搜索引擎、網(wǎng)絡蠕蟲等稱為軟件“代理者”[1](189-249)。德博拉·約翰遜和托馬斯·波瓦斯正式提出計算機系統(tǒng)作為代理者的理論,他們基于人類代理能動性(Human Surrogate Agency)與計算機系統(tǒng)代理能動性(Computer System Surrogate Agency)在結構、關系上的相似性,以及人類與計算機系統(tǒng)的道德、利益關系,在功能主義的意義上論證了計算機系統(tǒng)可以作為人類的道德代理者。根據(jù)他們的理論,人工智能體作為有限道德代理者具有三大特質:替代人類行動、追求人類道德與利益、實現(xiàn)次級利益而非初級利益。
人類代理者包括律師、股票經(jīng)紀人、地產(chǎn)經(jīng)紀人、演藝經(jīng)紀人等,其中最典型最為大家熟悉的代理者是律師。約翰遜和波瓦斯指出,律師具有專業(yè)知識、能力和專業(yè)資質,他接受客戶的委托后,便代表客戶行動并完成客戶交給的任務,維護和實現(xiàn)客戶的合法利益和目的;而計算機系統(tǒng)被設計與應用的目的是完成用戶交給它們的任務,它們也具有完成任務的專業(yè)知識和能力,可替代用戶的一些行動,代表和追求用戶的合法利益與目的。因此,約翰遜和波瓦斯認為,計算機系統(tǒng)與律師等人類代理者類似,扮演著道德代理者的角色。他們指出:“正如人類代理者和客戶間的關系,計算機系統(tǒng)和用戶之間的關系可以被比喻為一種職業(yè)的服務關系??蛻艄蛡蚵蓭?、會計師和地產(chǎn)經(jīng)理人去代表他們做事,用戶借助各種各樣的計算機系統(tǒng)去代表他們做事?!保?](257)
計算機系統(tǒng)發(fā)展至今越來越具有智能和自主性,我們統(tǒng)稱它們?yōu)槿斯ぶ悄荏w。與最初的計算機系統(tǒng)相比,現(xiàn)如今的人工智能體能夠替代人類完成越來越多的任務,如自動駕駛汽車替代人類駕駛、軍事機器人替代人類開展軍事行動、護理機器人替代護士進行護理行為、醫(yī)療專家診斷系統(tǒng)替代醫(yī)生看病、律師文書系統(tǒng)替代律師撰寫文書,等等。人工智能體還經(jīng)常替代人類完成一些危險系數(shù)高的行為,如在余震不斷的廢墟中尋找幸存者、在核泄漏地區(qū)檢測和記錄數(shù)據(jù)等??梢哉f,人工智能體已替代一部分人類代理,一些智能體甚至替代人類完成了人類無法完成的行動。它們實際上已經(jīng)像律師和股票經(jīng)紀人一樣,作為道德代理者完成人類交給的任務。
人工智能體不但替代人類行動,更代表人類追求著人類的合法利益?!叭祟惖暮戏ɡ妗敝械摹昂戏ā倍忠馕吨鐣到y(tǒng)對于代理者具備道德約束性,這種約束性既有一般的、普遍的社會道德要求,也有基于特定道德角色的要求與約束?!暗赖麓碚呋谧约簩κ澜绲男拍疃プ非髠€體需求和利益,道德則對那些可以去追求的利益進行限制,尤其是從他者利益的角度出發(fā)?!保?](252)“尤其是從他者利益的角度出發(fā)”,意味著他們必須代表被代理人的合法利益,所以代理者在行動中考慮的不是自己想要什么,而是被代理人想要什么。如律師、地產(chǎn)經(jīng)紀人接受客戶的委托后,他們代表的是委托人(第三人/他者)的利益,要維護委托人的合法權益;不能做違規(guī)違法的事情,更不能做與客戶意志相違背的事情。對于人工智能體而言,這個“他者”就是人類,它們必須為人類服務,代表人類完成任務,在行動者網(wǎng)絡中,它們行動的目的就是追求人類尤其是用戶的合法利益。從功利主義角度而言,所有人工智能體皆為人類福祉服務,都被用戶用來獲取自己的利益?!霸趯θ祟惖氖聦嵳J知和價值標準進行算法學習與加工后,智能體體現(xiàn)的仍是人類的意圖和欲望?!保?](137)
傳統(tǒng)道德責任理論認為人工智能體不具備道德人格,不可能擁有道德能力,更不可能成為道德能動者(Moral Agent)。他們認為,智能體只有在具有堪比人類意識、意志、情感與欲望的特性時,才可能擁有道德能力。依照傳統(tǒng)理論,智能體也不可能是道德代理者。但約翰遜和波瓦斯不這么認為,他們指出,正如人類代理者和客戶間的關系一樣,計算機系統(tǒng)和用戶之間的關系既蘊含著深刻的道德因素,也有著很強的代理關系,計算機系統(tǒng)由此具備了道德代理能動性(Moral Surrogate Agency)。他們還指出:“計算機系統(tǒng)的道德代理能動性則在人類行為和計算機行為的相似性,以及計算機系統(tǒng)和人類利益之間的關系中得到呈現(xiàn)。”[2](263)可以說,智能體與人類道德、利益之間的關系是將智能體看作代理者的關鍵所在。
在《計算機作為代理者》一文中,約翰遜和波瓦斯還提出了“次級利益”理論。他們將代理者的利益分為初級利益和次級利益。初級利益意指個體自身利益,即自我利益,或者說第一人稱利益;次級利益意指代理者所代表的用戶的利益,即他者利益,或者說第三人稱利益。當計算機系統(tǒng)“追求用戶的利益時,它承擔并追求次級利益”[2](258)。他們舉例說:“比如,當用戶命令瀏覽器去搜尋某目的地——該目的地是用戶有興趣去游覽的地方——的地圖時,瀏覽器就會彈出那個地方的地圖而不是其他任何人想看的地圖。當瀏覽器搜尋用戶想要的那張地圖時,在這個找地圖的過程中,瀏覽器追求了次級利益?!保?](258)
根據(jù)次級利益理論,人工智能體在研發(fā)之初便被設計成代表人類的利益,當用戶與人工智能體進行互動并為其布置某個任務或者一起達成某目標時,人工智能體就接管了用戶全部或者一部分的利益,人類一旦開啟它,它便開始了次級利益的追尋與實現(xiàn)之旅。比如,當用戶乘坐一輛自動駕駛汽車到達某個想去的地點時,意味著自動駕駛汽車“追求”了次級利益,也實現(xiàn)了次級利益。
約翰遜和波瓦斯認為人工智能體沒有初級利益而只有次級利益,人類代理者則既擁有初級利益也擁有次級利益。因為人類代理者具有第一人稱視角,也就具有從第一人稱出發(fā)的自我欲望和利益,即初級利益。但人工智能體沒有欲望、情感、心理、意識和意志,不存在第一人稱視角,沒有自我利益可言,僅僅代表和追求人類的利益,這是它與人類代理者的最大不同。從它僅具有次級利益而無初級利益的這個角度而言,我們稱它為“有限道德代理者”,以區(qū)別于人類這個“完全道德代理者”。
道德代理者不具備完全民事行為能力,因為不具備意識、意志,缺乏第一人稱視角,它是“二階道德能動者”,而“人類是一階道德能動者”①“二階道德能動者”即不具備自我意識和自由意志的能動者,帶有一定物的屬性,但具備一定的道德能動性,能實現(xiàn)某種程度的自主認知、決策和行動能力的擬主體。參見簡小烜:《人工智能體的道德地位研究——基于責任論視角》,《湘潭大學學報(哲學社會科學版)》2020 年第4 期。。約翰遜認為計算機系統(tǒng)也不需要完全民事行為能力,它只要能代表人類的道德和利益并完成人類交予的任務即可,人類對它的期望與對人類代理者的期望是不一樣的。實際上它目前確實也不具備完全民事行為能力,不過就現(xiàn)實情況而言,道德代理者在某些領域完成的代理任務已得到認可與肯定。它并非積極主動去完成,也不明白自己在其中的身份與作用,大多數(shù)人也不明白它的內部原理,更不清楚它“想什么”,但這并不妨礙它完成任務??蛻粢话悴惶靼兹祟惔碚呷绾喂ぷ?,但這并不妨礙他雇傭人類代理者替他完成任務,正如我們不了解律師具體的工作細節(jié),只要他具備專業(yè)資質,我們就會委托事務于他。人工智能體亦是如此,最重要的是它能否勝任和完成人類交給它的任務,這也是摩爾(James H.Moor)再三強調的[4](13-14)。
按照責任倫理學中的角色責任理論,個體在社會系統(tǒng)中承擔了某種道德角色,就必須承擔相應的角色責任[5](1-7)。角色責任意味著,不管行動者的道德行為類型是什么,也不管行動者是作為還是不作為,他都會因為自身角色責任的存在而承擔相應的道德責任。在第一部分我們將人工智能體界定為有限道德代理者,那么從字面上來理解,它在“人—機”社會系統(tǒng)中至少需要承擔代理責任。但是,它有別于人類代理者,它所承擔的代理責任自然也與其有所差別。
我們先來看代理過程中兩種常見的行為:
第一種,無法勝任導致的失職行為。約翰遜和波瓦斯指出:“個人所得稅會計師和個人所得稅軟件系統(tǒng)都可能無法勝任。會計師不勝任可能由于他對稅法的理解不夠,或者對客戶的情況不是很了解,計算機系統(tǒng)不勝任可能由于它顯示的所得稅代碼不夠準確或者弄錯了用戶的輸入?!保?](260)不勝任導致了失職行為,失職行為則導致了顧客或者用戶的利益不能達成。對于人類代理者的失職行為,顧客一般會起訴和要求追責,會控告代理者,甚至要求賠償或者實施其他追責。對于智能體的失職行為,用戶一般會起訴研發(fā)公司或者制造公司,要求由公司擔責和進行賠付??梢?,在由智能體失職行為導致的損害歸責方案里,人工智能體并未像人類代理者一樣被問責。
第二種,不當行為。不當行為是指代理者利用自己的代理身份為客戶或用戶之外的人謀求利益,損害了客戶或用戶本身的利益。對于人類代理者,這種情況雖說不常見,但并非沒有,如一個地產(chǎn)經(jīng)紀人在代理“你”的同時,可能正在把“你”的相關信息售賣給其他公司。
由于智能體沒有第一人稱視角,很多人認為它不會作出不正當行為,所以,許多個體和企業(yè)相信人工代理者只追求用戶的利益,他們寧愿選擇人工代理者而非人類代理者來代理自己執(zhí)行任務或作出決策。人工道德代理者真的只代表用戶的利益嗎?并非如此,它很可能被設計成服務于他人的利益而非只是用戶的利益,如搜索引擎可能被開發(fā)成代表第三方的利益、瀏覽器可能支持跟蹤程序或者為軟件生產(chǎn)商或黑客的利益服務;算法表面上是推薦用戶所需要的信息,實際上卻是為了追求平臺企業(yè)的利益,并編織了一個個“信息繭房”,損害了用戶的利益。當人工代理者以追求非用戶利益或逐漸損害用戶利益的方式被設計出來之后,不正當?shù)男袨榫统霈F(xiàn)了。
對這種不正當行為導致的負面結果,如果追責,實踐中仍然是追究研發(fā)者或者制造商或者平臺企業(yè)的主體責任。追究人類而非智能體的責任,主要原因在于:人工智能體沒有自我(第一人稱)視角,不存在初級利益,無法被追責與問責;問責與追責于人工智能體是毫無意義的。人類存在初級利益,且“計算機系統(tǒng)是由人類制造的,因此計算機系統(tǒng)中的錯誤或不當行為的來源,原則上可以回溯到對軟件設計作出決定的人”[6](22)??傊?,不管是在由失職行為還是在由不當行為所導致的歸責方案里,智能體均未被問責與追責,所以有人將其承擔的責任稱為“虛擬責任”,我們在此稱為“有限道德責任”?!坝邢薜赖仑熑巍币馕吨袚欢ǖ呢熑危珶o法被問責與追責,它的道德責任是有限的。
這種有限道德責任將“擔責”與“問責”分開。人工智能體作為有限道德代理者在“人—機”社會系統(tǒng)中需要承擔一定的責任,但在道德實踐中,由于它不具備第一人稱視角,無法被獨立問責與追責,因此在它的行為導致了負面結果后,只能問責與追責于人類。那么,問題來了:人工智能體的這種不被問責的道德責任或者說有限道德責任是在何種意義上成立的呢?
自從列維納斯(Emmaunel Lévinas)創(chuàng)立了他者倫理學,他者維度的道德責任隨之出現(xiàn),它最重要的內涵就是“為他者負責”。人工智能體的道德責任充滿了“他者意蘊”:只對人類這個他者負責;被人類這個他者所期望和賦值。正是在他者意義上,它的“擔責”與“問責”被分開的有限道德責任得以確立。
(1)他者維度的道德責任
“他者”和“自我”本是一對相對的概念,“他者”是相對于“自我”而言的,意指“自我”之外的人與事物。對于道德責任的分析也可以從他者和自我這兩個視角進行分析,我們可以看到不一樣的道德責任。
從自我維度來看,道德責任與自我意識、意志、心理因素、情緒狀態(tài)等密切相關。傳統(tǒng)道德責任理論即自我視角的責任理論,強調自由意志和意識,強調生物學意義上的心理、情感、認知和欲望;認為成為道德主體的前提條件是具備自由意志,主張只有發(fā)自內心意愿且可以自我決定的行動者,才是負責任的行動者。這是典型的自我視角的道德責任。
從他者維度來看,道德責任無須關注主體是否具有自我意識與自由意志,更不必關注主體有何心理狀態(tài)與情緒。庫克爾伯克(Mark Coeckelbergh)認為,進行責任追究之時,我們無須深究當時行動者的內心狀態(tài)和心理情緒,我們也不會深入到他們的思想深處,更不依據(jù)他們的精神狀態(tài)[7](181-189)。張正清、黃曉偉也認為,“作為乘客的我們,無法從上帝視角對他者內心進行窺探……乘客此刻眼中的自動駕駛汽車或者司機都是一個他者,他心是不透明的”[8](29),而且,他心里的想法、意愿等對乘客而言都是沒有多大意義的,我們更關注司機的行為是否負責、是否具有擔責的能力。站在人類的角度看,人工智能體是“他者”;站在智能體的角度看,人類又是“他者”。不管誰是“他者”,在對其提出道德要求之時,我們重點關注的是他/它能否及如何為他者負責。
列維納斯的他者倫理學蜚聲遐邇,他對以同化與占有為本質的存在論非常不滿,繼而通過批判胡塞爾和海德格爾等人的存在論,創(chuàng)立了著名的他者倫理學,并將責任哲學定義為一種為他者負責的倫理學。列維納斯認為,倫理產(chǎn)生于“自我”與“他者”對面的關系之中[9](53),具體、獨立、承擔責任的個體存在是倫理關系存在的前提基礎,道德責任的“實質是讓自身之外的存在者將其懇求或命令教導給我”[10](13)?!白陨碇獾拇嬖谡摺奔础八摺保诹芯S納斯看來,道德責任其實是“他者”通過“懇求”或者“命令”等教導給“自我”的。他者維度下,他者將責任賦予自我,責任并非自我的認定。
有學者認為道德責任就是他者視角的,如沃森(Gary Watson)認為“團體或者個體永遠都是因為某件/某些事而為某個/某些人負責”[11](7)。“某件/某些事”“某個/某些人”都是“他者”,責任因“他者”而擔負。庫克爾伯克則直接主張:道德責任的重要內涵是“我們應對他者負責”[12](748-757)。在社會系統(tǒng)中,我們的行動及其后果常常會影響到他者,因此須考慮他者的利益,且本著“對他者負責”的態(tài)度行事。一旦發(fā)生“惡”的結果,“對他者負責”意味著我們還須接受批評或者懲罰等?!拔覀儜獙λ哓撠煛币矎囊粋€側面反映出人類的道德責任包含“他者意蘊”。當然,人類的道德責任既包含了他者視角,也包含了自我視角。帕特里克·林(Patrick Lin)和基思·艾布尼(Keith Abney)等人認為:“從他者視角而言責任是一種期望,主要是對他者責任行為和責任能力的一種期望,希望他者可以作出負責任的行動并能為他的行為后果承擔責任。”[13](37)
綜上可見,他者維度的道德責任包含兩大重要內涵:第一,個體或集體的行為必須“為他者負責”,這是他者維度道德責任最重要的內涵,為列維納斯、沃森和庫克爾伯克等學者所認同。它包含三層意思:個體或集體應該具有一定的責任能力;個體或集體的行為是負責任的行為;個體或集體能為自己的行為后果負責。第二,道德責任是對他者責任行為、責任能力的期望[9](26-33)。個體或集體的道德責任是被“他者”所期望的,也即“他者”對他/他們應該履行什么樣的責任提出了要求、作出了規(guī)定,個體或集體的行為必須符合“他者”的道德規(guī)范和倫理要求。這意味著責任的標準不是來源于自身,而是來源于他者與社會的認定。
(2)對他者負責
人工智能體的道德責任很明顯是他者維度的道德責任。首先,人工智能體應對人類這個他者負責。智能體被人類研發(fā)與制造出來,本為增進人類福祉,應對人類負責,它是為“人類”而生。它只有他者視角而無自我視角,不可能對自己負責,目前也只需對人類這個他者負責。將庫克爾伯克的“我們應對他者負責”這句話換成“人工智能體應對人類這個他者負責”,自然是非常正確的。其次,它的道德責任被人類這個他者所期望和賦值。一方面,我們對人工智能體的言行與能力一直有一種期待,即它應像我們人類一樣,不但具有專業(yè)的行動能力,同時也具有道德能力,能像人類一樣遵守社會規(guī)則和道德規(guī)范。道德責任方面,我們期望它具有一定的責任能力,其行為是負責任的行為,并能為自己的行為后果負責。另一方面,在研發(fā)環(huán)節(jié),我們想方設法對其內置道德原則與規(guī)范,使其行為符合人類道德規(guī)范和倫理要求,使其具有一定的責任能力以“積極向善”“永遠向善”。這里的重點是人希望它做什么、應該如何做,比如我們希望自動駕駛汽車是遵守交通規(guī)則和社會規(guī)范的;我們希望它不要撞到行人,萬一撞到行人,它應為自己的行為負責,它也能為自己的行為負責。
按照列維納斯的理論,“人”和“機”都是“人—機”社會系統(tǒng)中倫理關系存在的前提基礎,不過“人”與“機”的倫理關系最終仍取決于“人”,沒有“人”,就沒有“機”,更不用說“人機關系”了。一切的根源都在于“人”,在于智能體自身之外的“他者”。人類將其設計、研發(fā)出來,同時通過代碼與程序賦予它責任內容和能力,并內嵌于它的體內,使得它不但承擔道德代理者之責任,也具備向善之道德能力。我們完全可以說,人工智能體的責任就是人類“命令”“教導”給它的,它必須也應該能“為他者”即“為人類”負責。人工智能體無須對自己負責,它沒有自我視角,沒有自我愿望與初級利益,也無法對自己負責,更無法擁有自我視角的道德責任。如果從自我視角探尋人工智能體的道德責任問題,目前肯定是無解的。
列維納斯認為在歷時性結構的作用下,自我①由于人工智能體沒有自我意識,它的“自我”僅僅意指“它自身”,是一種與自我意識和自由意志無關的“本體”。獲得了重新確立:“自我在遭遇他者之時實質上就是在承擔重任,在此承擔之中,自我獲得了意義?!保?4](123)自我被他者賦予了責任和意義,他者也被自我賦予了責任和意義,尤其是,“為他者”使得自我獲得了意義,是自我獲得重新確立的根本條件。智能體在遇到人類之時也就擁有了責任——“為人類”之責任,而在人類設計和賦予它道德責任與能力之后,它才真正獲得了存在的意義。
“為人類”,或者說“為他者”,是人工智能體存在的意義之所在。智能體也只有在增進人類福祉和追求人類利益的過程中才能得到人類的認同和接納,它的意義是在人類這個“他者”的意義上得以確立的。人類不認同,它這個有限道德代理者連存在的意義都沒有,更無從談道德責任。這意味著他者維度不但能使智能體得到道德角色和責任的確立,還能使其在承擔責任的過程中得到改造和提升。他者,也即第三人稱,才是人工智能體道德責任產(chǎn)生的基礎。在他者意義維度下,人工智能體的責任被設計、被賦予,也被確立。
(3)他者期望與賦予
庫克爾伯克將產(chǎn)生于“現(xiàn)實經(jīng)驗與實踐”的倫理稱為“外觀倫理”,他認為“外觀”即“表現(xiàn)”,如果機器人“表現(xiàn)”出與人類一樣的行為與能力,我們就應該將道德責任賦予它[7](181-189)。即使人工智能體沒有意識、意志、情感和欲望,沒有第一人稱(自我)視角,但由于它“表現(xiàn)”得與人類一樣,人類就對它寄予希望、賦予責任。阿西莫夫的機器人三定律,從他者維度而言,可以說是人類賦予機器人的重要責任。
在大多時候,對他者責任期望的一個前提,就是已經(jīng)假定了這個“他者”是一個道德能動者。這種假設并不在意“他者”是否為第一人稱意義上的、具備意識和情感的道德能動者,只要“他者”存在,我們都會對其提出內在的道德及其行為預期與要求。即使是行為障礙者、尚未具備完全自主能力的兒童,我們對他們都有著內在的道德要求和道德期望。當然,對于作為有限道德代理者的人工智能體,我們對其的期望與要求不會低于行為障礙者,事實上,我們一直提倡給自主機器人內置道德規(guī)范和道德能力,使人類社會的道德“物化”于機器人身上,甚至想使其成為第一人稱意義上的道德機器人。道德實踐中,機器人的確應該因為自己的行動而為某些人負責,比如為他所護理的老人負責、為它所陪伴的兒童負責。這種負責是他者視角的,是人類因為期望而賦予它們的,所以有學者將人工智能體的道德責任稱為他者期望型道德責任[8](26-33)。
人工智能體在自我視角的傳統(tǒng)道德責任理論里不太可能成為道德能動者,但是,從他者視角來看,人工智能體承載了人類的責任期望,被內置了一定的道德規(guī)范和道德要求,代表人類的道德與利益,并替代人類行動和完成任務,是一個非完全意義上的道德能動者,這也與它作為有限道德代理者的角色身份相符。“道德責任的他者視角也蘊含了兩個基本假設:其一,道德責任是存在于互動關系中的屬性,依賴于行為相關各方之間因道德期望而產(chǎn)生的道德關系;其二,道德責任上的他者視角明確區(qū)分了看待責任的不同角度,因此傳統(tǒng)意義上的道德能動者對于責任的獨占、優(yōu)先地位并不存在。”[8](27)可見,他者視角為我們理解人工智能體的道德責任提供了不同以往的思考方式和分析路徑。
從他者維度而言,我們不必關心人工智能體是否擁有自由意志和自我意識,是否具備心理狀態(tài)、情感需要和欲望滿足等這些因素,我們首先關心的是,它的“言行”是否符合我們社會的道德規(guī)范與行為準則、是否符合人類的道德要求和利益需要,也即它是否“向善”、是否服務于人類。在此意義上,我們說,人工智能體的代理責任就是實現(xiàn)人類福祉的一種責任,最起碼是一種“向善”的責任,或者說是一種“趨善避惡”的責任。代理責任在根本上要求智能體代表人類利益、遵守人類的道德規(guī)范,這自然對其提出了最起碼的“趨善避惡”的道德能力及行動要求。因此,在最基礎的意義層面上,我們可以說,人工智能體的有限代理責任實質上是一種“趨善避惡”的責任。
道德責任承擔是指行為主體對已產(chǎn)生的不良后果承擔“惡”的責任(罰惡),對已產(chǎn)生的有利后果承擔“善”的責任(賞善);對可能產(chǎn)生的不良后果履行“避惡”的責任,對可能產(chǎn)生的有利后果履行“趨善”的責任。其中,“賞善”“罰惡”的責任屬于追溯性道德責任,“趨善”“避惡”的責任屬于預期性或者說前瞻性道德責任。
從責任認定程序來講,道德責任一般分為追溯性道德責任和預期性道德責任。追溯性道德責任往往要追問根由、追查原因和追究責任,進而對行為主體進行譴責(罰惡)或褒獎(賞善),對不良后果進行糾正(如賠付受害對象),對有利后果進行獎勵(如獎勵道德楷模)。一方面,這種責任擔負所涉及的是非判斷必須包含“善惡”和“正當”的價值判斷;另一方面,這種責任擔負須落在實踐層面上才具有實際意義,也即需要理解譴責或褒獎、賠付或獎勵的意義才可行,而只有具有意識、意志、情感和欲望等主觀體驗/感受的人類才能理解和感受這些詞語或措施的意義,因此譴責或褒獎只對人類而言才有價值,賠付或獎勵也只對人類而言才有意義。換言之,被問責和被追責的行動者必須是像人類一樣的道德主體,即傳統(tǒng)道德責任概念中的道德主體??梢姵袚匪菪缘赖仑熑蔚闹黧w必須是人,包括個體、群體等。
因此,“賞善”“罰惡”之追溯性道德責任基本屬于身為一階道德能動者的人類。當然,有朝一日,智能體發(fā)展至通用或者超級智能體階段,那又另當別論。但我們認為這種情況不應出現(xiàn),人類對智能體應該有“最后的控制”,而不是賦予它完全的自主權。而且,本文的研究對象是弱人工智能體,具有第一人稱意義上的智能體既不是本文所提倡的,也不在本文討論范圍內。從一般意義上而言,追溯性道德責任只屬于人類,作為有限道德代理者的人工智能體只在預期性道德責任領域占有一席之地。這既是它自身道德角色的要求,也是人類對它的期望與賦予。以自動駕駛汽車為例,人們總是期待它能夠遵守交通規(guī)則,履行加強流通效率和減少事故發(fā)生率的道德責任。
“趨善”“避惡”的責任屬于預期性道德責任。就實現(xiàn)“趨善”“避惡”這一實際結果而言,所涉及的是非判斷并不需要一定包含真正的“善惡”和“正當”的價值判斷,也不需要第一人稱視角的價值判斷,只需要進行形式判斷和自動推理即可。例如,自動駕駛汽車通過某些算法就能實現(xiàn)避免撞上行人或盡量少發(fā)生碰撞事故,可能還不需要給它設計并置入相應的“道德芯片”。由此可見,履行“趨善避惡”責任的道德能動者可以是只具有次級利益的人工智能體,我們不需要它從第一人稱視角理解意義和評判價值,也不需要它以第一人稱的身份被問責與追責,它只需“向善”即可。
“趨善避惡”的預期性道德責任對于人工智能體而言主要體現(xiàn)為:代表用戶的合法利益與需求;最大限度地體現(xiàn)人類社會的“善”;最大限度地減少風險與負面影響;按照人類社會的道德原則與規(guī)范行動、決策。這些最終體現(xiàn)為人工智能體的安全性、可理解性、可責性、可信任性和公正性。因此,人類在設計和研發(fā)階段應盡量把所有預期性工作做好、做足,以賦予其足夠的“趨善避惡”的責任內容與能力。每一種智能體的“趨善避惡”的內容與能力是有區(qū)別的,不同領域的智能體的道德風險是不同的,這些都需要研發(fā)者認真研究與把握。
人工智能體代表人類的利益、不具備自身的初級利益,對人類負責、無法對自身負責……這些特征決定了人工智能體只能履行“趨善避惡”之預期性道德責任,不能承擔“被問責”和“被追責”的追溯性道德責任。段偉文指出:“目前,這些數(shù)據(jù)驅動的智能體并不具有意識、自我意識和自由意志,更談不上情感、情緒和同理心,它們在道德行為中遠不像人那樣是完全的道德主體,不可能單獨為其行為后果承擔責任?!保?](21)弗洛里迪(Luciano Floridi)等也表示,自動駕駛汽車不能對自身行為進行關于贊成或者反對的討論,也不能像人一樣被問責和追責[15](751-752)。
拉圖爾授予非人類以行動者(actor)角色,并認為它們具有能動性,但他同時認為非人行動者應有代理者(agent)或者代言者(spokesman)為其發(fā)聲。他舉例說:“瓦特發(fā)明的蒸汽機通過瓦特的推廣與說明展現(xiàn)給大家,燈泡則通過愛迪生之口為大眾所接受;如果瓦特沒有發(fā)明蒸汽機,他就沒有資格成為蒸汽機的代理者,如果愛迪生沒有發(fā)明燈泡,他就沒有資格成為燈泡的代言者?!保?6](83)據(jù)此推理,人工智能體的發(fā)言者應當也只能是研發(fā)者。研發(fā)者設計與發(fā)明了智能體,他就是智能體的代言者。這個發(fā)言者只要沒有錯誤行為,就不需要為智能體的行為承擔責任,他需要做的,是賦予智能體以責任內容和能力,使其滿足人們尤其是用戶對智能體的責任要求。
歸根結底,在人工智能體履行預期性道德責任的背后,站著的是人類,人類既是它的設計者,也是它的發(fā)言者。翟振明曾經(jīng)指出:“智能再強大的機器,再像人的機器,也就是人類的一個不鬧情緒的‘超級秘書’而已?!保?7](25)筆者在此套用翟教授的話:“智能再強大的機器,再像人的機器,也就是人類的一個不鬧情緒的‘道德代理者’而已。”這個不鬧情緒的道德代理者履行有限道德代理之責任,這種責任的本質是“趨善避惡”之預期性道德責任。
對人類負責,代表人類的利益,做好人類的道德代理者,是人工智能體最大的“善”。人工智能體所要實現(xiàn)的道德決策必然“只能是致力于實現(xiàn)人所能作出的最好決策,它的決策要為人所規(guī)定、約束、修正甚至是否決”[18](116)。強調人工智能體的代理責任是一種“趨善避惡”的預期性道德責任,也在某種程度上警醒研發(fā)者和制造商:必須負責任創(chuàng)新、必須將智能體打造成“向善”的道德代理者,智能體并非只是工具與機器。
本文將人工智能體界定為“有限道德能動者”,認為其履行“趨善避惡”的道德責任,主要出于兩方面考慮:一方面也許能使更多人認識到,不能再將人工智能體當作純粹工具了,因為它已在替代人類完成一些行動,已具有一定程度上的自主認知、決策和行動的能力。我們應秉持“負責任創(chuàng)新”理念,使之“趨善避惡”,并盡可能預防和預測其可能帶來的風險。另一方面也許能夠警醒我們,不能使智能體具備意識與情感,不能使之成為完全道德代理者和一階道德能動者。智能體已非工具,如果具備意識與情感,也許有朝一日真的會取代人類。我們的研發(fā)與研究,既要“以人類福祉為中心”,“保持人類自身主體性地位”,又要“重視技術物的道德能動性”,“做到人機和諧相處”。
筆者認為他者維度是人工智能體道德責任的真正意蘊,代表了人類對人工智能體的期望與要求。智能體的責任履行并非出自其內心的動機與欲望,更非智能體的自律使然。它“趨善避惡”的責任是他律的,是只有他者利益而無自我利益的。正是他者維度,將人工智能體的道德責任分離成兩部分。他者維度也是人工智能體成為有限道德代理者的核心視角?!八咧S是倫理關系之實踐特征的保障,沒有他者的倫理學難逃理論化窠臼”[10](12-17),他者之維就是要努力革去傳統(tǒng)理論態(tài)度下對人工智能體的工具化理解。