李傳軍
(中國(guó)人民大學(xué) 公共管理學(xué)院,北京 100872)
近年來(lái),人工智能的發(fā)展極大地推動(dòng)了經(jīng)濟(jì)和社會(huì)的發(fā)展,然而,隨著人類對(duì)人工智能依賴程度的提高,隱私泄露、算法黑箱等人工智能的倫理風(fēng)險(xiǎn)也隨之加大。人工智能所帶來(lái)的不確定性和未來(lái)的超人工智能存在的失控風(fēng)險(xiǎn)(1)蔣潔:《風(fēng)險(xiǎn)視域下人工智能倫理的主旨和原則》,《信息通信技術(shù)與政策》2019年第6期。,更加需要人們從倫理的角度強(qiáng)化對(duì)人工智能的約束。確立人工智能倫理原則以及化解倫理原則之間的價(jià)值沖突,就成為一個(gè)極為重要的問(wèn)題。
人工智能是人類的創(chuàng)造物,但是,與其他科技產(chǎn)品相比,由于人工智能的擬人性特征,它能否作為道德主體是一個(gè)需要加以認(rèn)真研究的問(wèn)題。一旦人工智能成為道德主體,人類的本質(zhì)就要重新定義(2)龐金友:《AI治理:人工智能時(shí)代的秩序困境與治理原則》,《人民論壇·學(xué)術(shù)前沿》2018年第10期。。科學(xué)技術(shù)的發(fā)展催生了技術(shù)理性(3)張愛(ài)軍、李圓:《人工智能時(shí)代的算法權(quán)力:邏輯、風(fēng)險(xiǎn)及規(guī)制》,《河海大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版)2019年第6期。,技術(shù)理性在征服自然界的同時(shí),也在征服人類,人類正在陷入技術(shù)迷失,人的主體意識(shí)逐步被消解(4)龍?jiān)?、呂山:《AI時(shí)代媒介治理的倫理體系:內(nèi)涵、特征及實(shí)踐原則》,《現(xiàn)代出版》2021年第4期。。人是一個(gè)復(fù)雜的構(gòu)成,包含物理存在、精神存在和道德存在三個(gè)層次。道德存在也是人區(qū)別于動(dòng)物的本質(zhì)特征。人類社會(huì)的發(fā)展是一個(gè)極為漫長(zhǎng)的過(guò)程,人類社會(huì)的倫理規(guī)則經(jīng)由幾千年才逐步發(fā)展成熟,但是互聯(lián)網(wǎng)及其他相關(guān)信息技術(shù)的發(fā)展則是極其迅猛的,只有短短幾十年的人工智能歷史卻要馬上跟上人類社會(huì)倫理規(guī)則的步伐,況且,道德也是在進(jìn)化之中的,當(dāng)具備自主意識(shí)的人工智能被創(chuàng)造出來(lái)之后,其倫理原則的進(jìn)化方向和內(nèi)容已經(jīng)不是由人類“造物主”來(lái)決定了(5)董思伽、王駿:《關(guān)于〈機(jī)械姬〉中的人機(jī)關(guān)系之探討》,《科學(xué)文化評(píng)論》2018年第6期。,人工智能通過(guò)深度學(xué)習(xí)所得到的結(jié)果即便是人工智能的設(shè)計(jì)者也難以預(yù)測(cè)和控制,人工智能倫理的他律機(jī)制必然要向自律機(jī)制轉(zhuǎn)化(6)季衛(wèi)東:《人工智能開(kāi)發(fā)的理念、法律以及政策》,《東方法學(xué)》2019年第5期。,從這個(gè)意義上來(lái)講,強(qiáng)化人工智能倫理原則的指導(dǎo)作用迫在眉睫。人工智能倫理原則為新興的實(shí)用人工智能領(lǐng)域制定了框架和指導(dǎo)方針。
人工智能倫理原則有著極為重要的價(jià)值。具體地說(shuō),人工智能倫理原則可以提供一個(gè)有用的起點(diǎn),從中制定更正式的標(biāo)準(zhǔn)和條例,并有助于確定研究和政策都應(yīng)重點(diǎn)關(guān)注的優(yōu)先問(wèn)題。然而,目前人工智能倫理原則的定位過(guò)高,可操作性不強(qiáng),反而不利上述目標(biāo)的達(dá)成。在一些實(shí)際的案例中,我們可以發(fā)現(xiàn),人工智能倫理的不同原則之間會(huì)存在著沖突現(xiàn)象。如此一來(lái),這些原則的價(jià)值是有限的:如果不承認(rèn)這些沖突,標(biāo)準(zhǔn)可能被設(shè)定得過(guò)高,或者旨在保護(hù)一種價(jià)值的原則可能會(huì)無(wú)意中損害其他重要目標(biāo)。為了使人工智能倫理原則更好地發(fā)揮作用,應(yīng)將其更多運(yùn)用于識(shí)別和嘗試解決人工智能領(lǐng)域具體案例中所出現(xiàn)的沖突。
曾經(jīng)有一種觀點(diǎn),認(rèn)為科學(xué)技術(shù)是“價(jià)值中立”的,既可為善,亦可為惡,關(guān)鍵看人類如何使用它,但是,現(xiàn)在有越來(lái)越多的人認(rèn)識(shí)到,科學(xué)技術(shù)對(duì)于人類的道德選擇和道德行為會(huì)產(chǎn)生直接的影響(7)杜嚴(yán)勇:《論人工智能研究中的前瞻性道德責(zé)任》,《上海師范大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版)2018年第4期。??茖W(xué)技術(shù)發(fā)展史正反兩個(gè)方面的經(jīng)驗(yàn)和教訓(xùn)告訴我們,科學(xué)技術(shù)領(lǐng)域特別是能夠產(chǎn)生顛覆性影響的領(lǐng)域,必須確立倫理規(guī)則的指導(dǎo),而人工智能就是這樣的領(lǐng)域(8)張建文:《建設(shè)以阿西莫夫機(jī)器人學(xué)法則為基礎(chǔ)的現(xiàn)代人工智能倫理——以〈機(jī)器人學(xué)與人工智能示范公約〉的解讀為基礎(chǔ)》,《山東社會(huì)科學(xué)》2020年第7期。?;谌斯ぶ悄艿募夹g(shù)應(yīng)該用于公共利益,不應(yīng)該被用來(lái)傷害人們或損害他們的權(quán)利,并且應(yīng)該尊重廣泛持有的價(jià)值觀,例如公平、隱私和自治。人工智能倫理研究的目的就在于讓人工智能的行為得到道德上的肯定,換言之,使人工智能的行為有倫理依據(jù)(9)李楠:《機(jī)器倫理的來(lái)源》,《倫理學(xué)研究》2021年第1期。。
原則是應(yīng)用倫理學(xué)的一個(gè)有價(jià)值的部分,而精確的倫理原則也是人工智能實(shí)現(xiàn)道德化的基礎(chǔ),人工智能在倫理原則基礎(chǔ)上的道德學(xué)習(xí)就不再是簡(jiǎn)單的模仿了(10)孫福海、陳思宇、黃甫全、伍曉琪:《道德人工智能:基礎(chǔ)、原則與設(shè)計(jì)》,《湖南師范大學(xué)教育科學(xué)學(xué)報(bào)》2021年第1期。,因此,就高層次的原則達(dá)成一致并在人工智能設(shè)計(jì)過(guò)程中反映已達(dá)成共識(shí)的倫理原則,這是確保人工智能的開(kāi)發(fā)和使用造福于社會(huì)的重要前提。
2016年8月,聯(lián)合國(guó)教科文組織在《關(guān)于機(jī)器人倫理的初步草案報(bào)告》中對(duì)機(jī)器人的責(zé)任問(wèn)題進(jìn)行了界定。2017年,阿西洛瑪人工智能原則概括了研究、使用人工智能必須遵守的倫理和價(jià)值觀以及人工智能遠(yuǎn)期發(fā)展的重要考慮因素。同年,美國(guó)計(jì)算機(jī)械協(xié)會(huì)(ACM)發(fā)表了一份聲明和一套七項(xiàng)算法透明度和責(zé)任原則;日本人工智能學(xué)會(huì)發(fā)布了道德準(zhǔn)則;IEEE發(fā)布了倫理自主和智能系統(tǒng)的一般原則;人工智能伙伴關(guān)系(Partnership on AI)發(fā)布了一套其成員國(guó)同意支持的“信條”;英國(guó)上議院提出了跨部門(mén)人工智能規(guī)范的五項(xiàng)原則;全球工會(huì)聯(lián)合會(huì)提出《合倫理的人工智能十大原則》。2018年9月,騰訊提出人工智能應(yīng)做到“可知”“可控”“可用”和“可靠”(11)司曉:《建造AI倫理“方舟”,承載人類自身責(zé)任》,《互聯(lián)網(wǎng)天地》2018年第12期。。2019年4月8日,歐盟委員會(huì)發(fā)布《可信賴人工智能的倫理準(zhǔn)則》,提出尊重人的自主性、預(yù)防傷害、公平性、可解釋性等四項(xiàng)倫理準(zhǔn)則(12)張霄軍、邵璐:《構(gòu)建可信賴機(jī)器翻譯系統(tǒng)的基本原則——一種基于工程倫理的觀點(diǎn)》,《外國(guó)語(yǔ)文》2021年第1期。。2019年6月17日,我國(guó)首次發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,明確提出“和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開(kāi)放協(xié)作、敏捷治理”等八項(xiàng)原則。據(jù)統(tǒng)計(jì),現(xiàn)在世界各國(guó)發(fā)布的人工智能相關(guān)準(zhǔn)則已經(jīng)超過(guò)40個(gè)(13)王秋蓉、于志宏:《發(fā)展負(fù)責(zé)任的人工智能——訪清華大學(xué)文科資深教授、清華大學(xué)蘇世民書(shū)院院長(zhǎng)薛瀾》,《可持續(xù)發(fā)展經(jīng)濟(jì)導(dǎo)刊》2019年第7期。。
如上所述,人工智能倫理原則較為繁多,總體上可以概括為兩大類:人本主義原則(如自由、公正、安全等)和技術(shù)主義原則(如可持續(xù)、負(fù)責(zé)任的、可信的、可靠的、可治理的等)(14)楊慶峰:《從人工智能難題反思AI倫理原則》,《哲學(xué)分析》2020年第2期。。前者關(guān)乎人類福祉,也就是如何讓人工智能更好地造福人類。后者涉及人工智能的創(chuàng)新和發(fā)展,如何在確保人工智能不偏離正確方向的前提下更快發(fā)展,既不能因噎廢食,也不能削足適履。實(shí)現(xiàn)兩大類原則的平衡是人工智能倫理原則的核心要旨,歸結(jié)為一句話,即遵循倫理原則的人工智能才能成為人類可信任、負(fù)責(zé)任的朋友。
現(xiàn)代社會(huì)治理主要有法治和德治兩種模式,這兩種模式可以相互補(bǔ)充,對(duì)于快速發(fā)展的人工智能領(lǐng)域法治方式往往存在著滯后的問(wèn)題,人工智能倫理原則可以實(shí)現(xiàn)敏捷治理,因而能夠成為人工智能倫理治理的重要工具(15)吳紅、杜嚴(yán)勇:《人工智能倫理治理:從原則到行動(dòng)》,《自然辯證法研究》2021年第4期。。人工智能的規(guī)則體系是建立在人工智能倫理原則基礎(chǔ)之上的,然而,光靠原則是不夠的,而應(yīng)當(dāng)以人工智能倫理原則為指導(dǎo),并在實(shí)踐中具體化。為了讓人工智能倫理原則具備可操作性,必須對(duì)于各原則詳盡闡釋,說(shuō)明它們?nèi)绾芜m用于具體情況,以及在沖突時(shí)如何平衡它們。
人工智能倫理原則中使用的中心術(shù)語(yǔ)往往是模棱兩可的,掩蓋了概念的復(fù)雜性和不同人群在解釋上的差異。正如“正義”原則并沒(méi)有說(shuō)明什么是正義或不公正,原則往往掩蓋了重要的道德分歧。特別是,即便人工智能倫理原則清單得到廣泛支持,但是在不同的人和人群中依然存在著價(jià)值觀差異。雖然每個(gè)人原則上都同意“公平”是重要的,但對(duì)于什么是公平,存在著深刻的分歧。因?yàn)楣绞且粋€(gè)模糊的概念,很難被量化;即便被量化或者算法化,也不可避免地會(huì)存在著歧視現(xiàn)象。在沖突的情況下,群體對(duì)一種價(jià)值觀的重視程度也可能不同。例如,個(gè)人主義文化比集體主義文化更重視個(gè)人隱私。要使原則更加實(shí)用,一個(gè)重要步驟是將其正式化為標(biāo)準(zhǔn)和法規(guī)。
歷史地看,與人類社會(huì)不斷演化相適應(yīng),倫理原則也有一個(gè)不斷演化的過(guò)程。不同時(shí)代對(duì)于同一原則的理解也存在著很大的差異。因此,必須將倫理原則放在特定條件下來(lái)看待,任何脫離時(shí)空的所謂抽象的倫理原則是沒(méi)有任何意義的空洞說(shuō)教。隨著人工智能的發(fā)展,同一倫理原則的內(nèi)涵及其適應(yīng)性也需要做出調(diào)整,以使其能夠更好地承擔(dān)倫理的規(guī)范功能。如果我們使用某種僵化的理解來(lái)解釋某一倫理原則,就會(huì)對(duì)人工智能的發(fā)展造成嚴(yán)重的束縛。要保持人工智能倫理原則與人工智能發(fā)展之間的必要張力,一方面,對(duì)人工智能健康發(fā)展引領(lǐng)、導(dǎo)向,使其運(yùn)行在正確的軌道上,另一方面,也要對(duì)人工智能發(fā)展中的偏差乃至失控進(jìn)行糾偏、規(guī)范與控制。
人工智能倫理原則本質(zhì)上具有高度的普遍性,它們指出了適用于各種場(chǎng)景的重要道德主題。然而,大多數(shù)原則的普遍性也限制了它們指導(dǎo)實(shí)際行動(dòng)的能力。人工智能倫理中提出的許多原則過(guò)于寬泛,不能作為行動(dòng)指南。例如,確保人工智能用于“社會(huì)公益”或“造福人類”是所有原則中的一條共同主線。這些表述絕大多數(shù)人都能同意,但是這些原則缺乏實(shí)質(zhì)性內(nèi)涵。只有更窄、更具體的原則才可能在實(shí)踐中有用。比如,最近工業(yè)界承諾不發(fā)展自主武器技術(shù),就是一個(gè)具體的行為規(guī)范,可以據(jù)此追究違反者的責(zé)任。
人工智能之所以能夠模擬人類智能,其根本原因在于算法設(shè)計(jì)。算法相當(dāng)于人類的價(jià)值觀體系。人工智能倫理原則就其本質(zhì)來(lái)說(shuō),主要是對(duì)算法的約束。這一點(diǎn)在弱人工智能階段尤其重要。即便人工智能發(fā)展到強(qiáng)人工智能乃至超人工智能階段,其最核心的還是算法。因此,研究人工智能倫理原則必須深入剖析算法的運(yùn)作機(jī)理。要實(shí)現(xiàn)對(duì)人工智能的倫理約束,必須確立人工智能倫理的可解釋性原則??山忉屝允侵杆惴ㄍ该鳎唧w而言就是指人工智能系統(tǒng)的源代碼和所依賴的數(shù)據(jù)均應(yīng)公開(kāi)。算法透明是問(wèn)責(zé)的前提條件,人工智能如果算法不透明,相當(dāng)于一個(gè)黑箱,用戶并不了解人工智能的運(yùn)作機(jī)理,人工智能收集了哪些數(shù)據(jù)?得出了什么結(jié)果?將采取何種行動(dòng)?一系列問(wèn)題都無(wú)法讓用戶產(chǎn)生對(duì)于人工智能的信任,引發(fā)人們對(duì)人工智能算法操控、數(shù)字正義等問(wèn)題的擔(dān)憂。算法不透明會(huì)引發(fā)一定的道德后果(16)王娟、葉斌:《“負(fù)責(zé)任”的算法透明度——人工智能時(shí)代傳媒倫理建構(gòu)的趨向》,《自然辯證法研究》2020年第12期。,比如在個(gè)人征信領(lǐng)域中算法黑箱中的偏見(jiàn)與歧視會(huì)直接影響征信系統(tǒng)的公正性(17)吳椒軍、郭婉兒:《人工智能時(shí)代算法黑箱的法治化治理》,《科技與法律》2021年第1期。。讓算法遵循“善法”應(yīng)當(dāng)成為人工智能的基本倫理原則,也即“算法從善”原則(18)田海平、鄭春林:《人工智能時(shí)代的道德:讓算法遵循“善法”》,《東南大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版)2019年第5期。,具體來(lái)說(shuō),就是將屬于責(zé)任倫理的道德算法植入人工智能系統(tǒng),從而讓人工智能成為有道德的機(jī)器人。
在計(jì)算機(jī)科學(xué)領(lǐng)域,對(duì)于非專業(yè)人士或初學(xué)者來(lái)說(shuō),算法往往是令人不知所云的天書(shū),算法透明是通過(guò)可視化(比如動(dòng)畫(huà))來(lái)實(shí)現(xiàn)的,即讓用戶對(duì)于程序代碼的運(yùn)算結(jié)果有一個(gè)直觀的認(rèn)識(shí)。算法透明是一種重要的社會(huì)價(jià)值,它引發(fā)人們關(guān)注社會(huì)公共利益以及對(duì)于人工智能本質(zhì)問(wèn)題的思考。算法透明度的理想狀態(tài)是讓所有信息可追溯,所有算法完全公開(kāi),但是,出于各方面的原因,這種開(kāi)放性難以完全實(shí)現(xiàn)。對(duì)于算法透明,數(shù)據(jù)主體是持支持態(tài)度的,因?yàn)檫@種做法可以消除用戶對(duì)于人工智能的疑慮。從國(guó)家層面來(lái)說(shuō),考慮到國(guó)家安全的需要,對(duì)于數(shù)據(jù)完全透明是不可取的,在一定范圍內(nèi)的透明是比較可行的選擇。而對(duì)于人工智能基本設(shè)施的所有者來(lái)說(shuō),心態(tài)則比較矛盾:提高算法透明度可以消除用戶的顧慮,獲得用戶的支持,也與其所宣稱的道德原則相吻合;但是,算法透明可能意味著削弱其競(jìng)爭(zhēng)優(yōu)勢(shì),也會(huì)影響人工智能系統(tǒng)的安全運(yùn)行。因此,算法透明的初衷是好的,但當(dāng)算法公開(kāi)成為一種強(qiáng)迫性要求時(shí),很可能變成一種走過(guò)場(chǎng)、搞形式。
算法透明所公開(kāi)的信息應(yīng)當(dāng)是公眾可以理解的有用的信息。算法透明不僅應(yīng)當(dāng)披露信息,還要具體說(shuō)明信息的來(lái)源。算法透明的實(shí)現(xiàn)難度是極大的,因?yàn)槿斯ぶ悄艿臄?shù)據(jù)點(diǎn)和程序代碼行數(shù)是百萬(wàn)乃至千萬(wàn)級(jí)別的,對(duì)于一個(gè)門(mén)外漢,即使有解釋程序,也很難明了數(shù)據(jù)之間的關(guān)系。算法透明也意味著用戶要接納超出其注意力范圍的過(guò)量的信息,而信息一旦過(guò)剩,與信息匱乏的結(jié)果是相同的,用戶干脆選擇無(wú)視信息。另外,算法也不是靜止不變的,隨著時(shí)間變化或其他變量的變化,算法也處于變化之中,這樣一來(lái),即便向用戶公開(kāi)算法,也可能是時(shí)過(guò)境遷了。從參與主體來(lái)看,普通用戶雖然對(duì)算法透明提出要求,但是由于各種原因,個(gè)人難以獲得相關(guān)信息,只能求助于第三方機(jī)構(gòu)。而且,公眾也無(wú)法洞悉算法透明背后的倫理問(wèn)題。
基于上述分析,我們可以看出,人工智能倫理原則雖然有一定的作用,但是其局限性依然是很明顯的。因此,對(duì)于人工智能倫理原則的態(tài)度應(yīng)當(dāng)是既要發(fā)揮其應(yīng)有的作用,但又不能完全依賴于它。
人工智能倫理的諸多原則之間有時(shí)存在著重要價(jià)值觀或目標(biāo)之間的沖突。在這種情況下,為了實(shí)現(xiàn)某一原則,似乎必須放棄另一原則。例如,秩序與自由這兩個(gè)原則之間就存在著明顯的沖突,如何平衡二者的關(guān)系值得深入研究(19)商瀑:《從“智人”到“惡人”:機(jī)器風(fēng)險(xiǎn)與應(yīng)對(duì)策略——來(lái)自阿西洛馬人工智能原則的啟示》,《電子政務(wù)》2020年第12期。。人工智能倫理原則中的許多沖突往往是當(dāng)前技術(shù)或社會(huì)限制的結(jié)果。比如,為了社會(huì)利益而使用機(jī)器學(xué)習(xí),并不一定與隱私、透明或公平原則產(chǎn)生沖突,但是,一些人工智能系統(tǒng)開(kāi)發(fā)者為了實(shí)現(xiàn)機(jī)器學(xué)習(xí)的目標(biāo)而采用的許多方法確實(shí)與這些原則相沖突。至少在目前新的技術(shù)或治理方案并未能從根本上解決這些矛盾沖突。人工智能發(fā)展到某一階段,必然存在著要么面臨人類被人工智能代替乃至超越的風(fēng)險(xiǎn),要么犧牲人工智能的發(fā)展這一沖突(20)王天恩:《人工智能存在性風(fēng)險(xiǎn)的倫理應(yīng)對(duì)》,《湖北大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版)2020年第1期。。通過(guò)將人類道德原則預(yù)置入人工智能,似乎是解決這一沖突的不二法門(mén)。然而,當(dāng)人工智能發(fā)展到強(qiáng)人工智能以及超人工智能階段,人工智能已經(jīng)具備道德自主性,它會(huì)否對(duì)預(yù)置的人類道德原則進(jìn)行“格式化”?還有一個(gè)問(wèn)題值得關(guān)注,就是生命在人類和人工智能方面是完全不同的。倫理與生命息息相關(guān),所以儒家的“舍生取義”才具有英雄主義的悲壯色彩。對(duì)于人工智能而言,生命終結(jié)或者說(shuō)“死亡”是指其硬件的解體、軟件的崩潰還是數(shù)據(jù)的清除?人工智能有對(duì)死亡的恐懼嗎?從最終的意義上來(lái)講,人工智能真正擺脫了人類生老病死的困窘。因此,人工智能倫理原則與人類倫理原則并不完全相同,相應(yīng)地,人工智能倫理原則沖突與人類倫理原則沖突也不能簡(jiǎn)單地劃等號(hào)。
人工智能倫理原則就是為了確保人工智能的決策和行為能夠依循人類的道德原則和行為規(guī)范。然而,倫理原則往往是較為抽象的,其與具體實(shí)踐應(yīng)用還存在著一定的差距。彌合抽象倫理原則和具體實(shí)踐之間的差距,是使人工智能倫理原則真正發(fā)揮作用的重要前提。為了達(dá)此目的,我們需要考慮不同的價(jià)值觀和目標(biāo)如何在具體案例中付諸實(shí)踐。例如,在醫(yī)療中運(yùn)用人工智能就遇到保護(hù)患者數(shù)據(jù)的隱私性與提高診斷有效性之間的沖突。再比如,倫理學(xué)對(duì)于“善良”“誠(chéng)信”等方面的原則與人工智能的情感計(jì)算就存在著沖突。人工智能可以通過(guò)遠(yuǎn)程窺測(cè)的方式獲取公眾的情緒并進(jìn)行利用(21)王祿生:《情感計(jì)算的應(yīng)用困境及其法律規(guī)制》,《東方法學(xué)》2021年第4期。。由于類似的沖突可能會(huì)在一系列不同的案例中出現(xiàn),關(guān)注沖突意味著我們既不完全受個(gè)案具體情況的驅(qū)使,也不依賴抽象的高層價(jià)值觀。如果我們能夠通過(guò)觀察一系列案例來(lái)闡明重要的沖突,并找到在特定情況下解決這些問(wèn)題的方法,那么我們從中得到的經(jīng)驗(yàn)教訓(xùn)就可以用來(lái)制定標(biāo)準(zhǔn)和法規(guī)。
不同的價(jià)值觀在不同群體中的解釋和認(rèn)知可能會(huì)有所不同。例如,“公平”“正義”等術(shù)語(yǔ)在道德和政治上存在著重大分歧。正如倫理總是涉及與他者的關(guān)系,“公平”“正義”作為倫理的重要原則也不例外,其所涉及的也是不同個(gè)體或群體之間的關(guān)系。在不同的個(gè)體或群體那里,“公平”“正義”的理解是不同的。正所謂“公說(shuō)公有理,婆說(shuō)婆有理”。這種分歧實(shí)際上在人類社會(huì)中已經(jīng)較為復(fù)雜,那么,如果將“公平”或“正義”推之于人工智能領(lǐng)域,其分歧就會(huì)更大了。這里涉及人工智能與人類之間的關(guān)系、不同人工智能之間的關(guān)系。就前者而言,人工智能能否平等地對(duì)待人類中的每一個(gè)體或不同群體?就后者而言,人工智能會(huì)否像人類社會(huì)一樣有階級(jí)或階層的劃分?之所以出現(xiàn)上述沖突,是因?yàn)閭惱碓瓌t或價(jià)值觀往往是較為抽象的概念,要避免沖突,必須將宏觀層面的抽象倫理原則轉(zhuǎn)化為微觀層面的具體倫理指南。也就是說(shuō),不僅要闡明“應(yīng)當(dāng)做什么”的“大”問(wèn)題,還應(yīng)當(dāng)解決“怎樣做”以及“不應(yīng)做什么”的“小”問(wèn)題。
注意到兩種價(jià)值觀之間的沖突并不一定意味著我們必須在它們之間做出選擇。通常,我們可能會(huì)試圖找到某種方法以實(shí)現(xiàn)“魚(yú)”與“熊掌”兼得。當(dāng)然,若“魚(yú)”與“熊掌”不可兼得,則舍“魚(yú)”而取“熊掌”者也。因此,認(rèn)識(shí)到這些沖突可以突出研究人員和決策者的高度優(yōu)先領(lǐng)域。例如,目前尚不清楚人工智能的進(jìn)步是否會(huì)增強(qiáng)或削弱人類的能力和能動(dòng)性,但將這種沖突明確化,將注意力集中在一個(gè)重要問(wèn)題上,即哪些發(fā)展方向最有可能增強(qiáng)而不是削弱人類的能力和能動(dòng)性。人工智能倫理原則的沖突并不是抵制人工智能發(fā)展的理由,恰恰相反,我們需要在技術(shù)發(fā)展中尋找解決沖突的對(duì)策,不斷改進(jìn)人工智能技術(shù),使之與倫理原則相匹配,在動(dòng)態(tài)發(fā)展中達(dá)到平衡,不斷提升人類應(yīng)對(duì)風(fēng)險(xiǎn)的能力。
由于人工智能和機(jī)器學(xué)習(xí)的本質(zhì),一些倫理原則沖突不可避免地出現(xiàn)了:這些技術(shù)允許我們使用大量(通常是個(gè)人)數(shù)據(jù)并從中得出推論,因此對(duì)隱私的重要概念提出了挑戰(zhàn)。認(rèn)識(shí)到人工智能倫理原則沖突,有助于我們清楚人工智能的應(yīng)用對(duì)于社會(huì)所產(chǎn)生的影響,也有助于我們確定人工智能下一步的研究方向。為了理解許多沖突的本質(zhì),我們需要了解目前技術(shù)上可行的方法。例如,在機(jī)器學(xué)習(xí)中確保數(shù)據(jù)隱私的最佳方法是什么?這些方法的成本是多少?
任何一項(xiàng)科技創(chuàng)新都難免存在利弊得失,人工智能系統(tǒng)也不例外。人工智能在運(yùn)用中可能產(chǎn)生的危害和所創(chuàng)造的利益在不同群體或個(gè)體之間以不同的方式配置,也造成了一定程度上的沖突。自動(dòng)化的影響可能在不同的人群和文化中分布不均,自動(dòng)化給一些群體帶來(lái)了便利,但同時(shí)又搶奪了其他群體的工作崗位,從而威脅到他們的基本需求。人工智能系統(tǒng)的風(fēng)險(xiǎn)和收益也可能隨著時(shí)間的推移而不均衡地分布,短期來(lái)看,人工智能的運(yùn)用可能利大于弊,但長(zhǎng)此以往可能會(huì)損害重要的價(jià)值。比如,智能手機(jī)的普遍使用對(duì)于人們的注意力是一種嚴(yán)重的損耗,人們?cè)絹?lái)越難以靜心閱讀,而更加熱衷于觀看短視頻,讀書(shū)(特別是紙本書(shū)籍)已經(jīng)成為一種需要重新培養(yǎng)的能力了。越來(lái)越多的個(gè)性化信息和服務(wù)可能會(huì)使我們的生活在短期內(nèi)變得更加方便,但隨著時(shí)間的推移,這些信息和服務(wù)反而阻礙了人際交往,有些“低頭族”整天埋頭于網(wǎng)絡(luò)卻疏忽了對(duì)身邊親人的關(guān)照。在信息時(shí)代,人們雖然每天獲得大量信息,但是由于所關(guān)注的信息往往是自己所感興趣的,而且,各種新聞?lì)怉PP也會(huì)根據(jù)用戶的偏好進(jìn)行智能推送,久而久之,人們就困在人工智能為自己所織就的“信息繭房”之中了。
人工智能倫理的本質(zhì)并不是人機(jī)關(guān)系,而是如何在人工智能發(fā)展的背景下確保人的主體性(22)田鵬穎、周鑫:《唯物史觀論域下人工智能的倫理問(wèn)題思考與合倫理設(shè)計(jì)》,《寧夏社會(huì)科學(xué)》2021年第2期。,因此,人工智能倫理依然是社會(huì)倫理的構(gòu)成部分。人工智能作為一種技術(shù)必須造福于人類,決不能用“技術(shù)決定論”來(lái)?yè)p害人的尊嚴(yán)。人工智能不僅僅是一種技術(shù)變革,更是關(guān)乎人類生存與發(fā)展的一場(chǎng)倫理挑戰(zhàn)(23)王東、張振:《人工智能倫理風(fēng)險(xiǎn)的鏡像、透視及其規(guī)避》,《倫理學(xué)研究》2021年第1期。。在應(yīng)對(duì)這一挑戰(zhàn)的過(guò)程中,解決人工智能倫理原則的價(jià)值沖突是當(dāng)務(wù)之急。解決沖突的最佳辦法將取決于有關(guān)沖突的性質(zhì)。關(guān)于人工智能倫理原則的價(jià)值沖突,最根本的還在于是否將人工智能視為道德主體(24)李真真、齊昆鵬:《人工智能——“以人為本”的設(shè)計(jì)和創(chuàng)造》,《科技中國(guó)》2018年第3期。。盡管現(xiàn)在的人工智能尚未發(fā)展到強(qiáng)人工智能和超人工智能階段,人工智能只是人類的附屬物,但是,如果在人工智能倫理原則方面未做出清晰的定位,未來(lái)人類與人工智能都是道德主體,人類與人工智能都是道德意義上的“人”,那么以“人”為本,究竟如何確定?如果那時(shí)仍然不將人工智能視為道德主體,不賦予人工智能與人類同等的權(quán)利,那么,這與在奴隸社會(huì)時(shí)期將奴隸視為“會(huì)說(shuō)話的牲口”一樣是不公正的。而一旦將人工智能視為道德主體,則人類作為一個(gè)物種會(huì)否被人工智能消滅?正是基于這個(gè)方面的考慮,人工智能倫理原則必須具有前瞻性,對(duì)于這一價(jià)值沖突做出預(yù)先防范。比如對(duì)于上面提及的人工智能與人類之間的“公平”“正義”原則沖突問(wèn)題,應(yīng)當(dāng)在人工智能倫理規(guī)范中明確,當(dāng)人工智能與人類整體利益發(fā)生沖突時(shí),必須無(wú)條件地保護(hù)人類利益免受侵害。這也是與人類發(fā)展人工智能的目的相一致的,換言之,人類不可能創(chuàng)造出一個(gè)反對(duì)自身的東西。人工智能倫理原則有多個(gè)層次,但最高層次的原則必須是人類福祉原則。如果人工智能異化為反人類的東西,正如在一些科幻作品中所描述的由機(jī)器人統(tǒng)治人類,豈非滑天下之大稽?人類之所以被稱為萬(wàn)物之靈,在于人類是有理性的。當(dāng)然,并不排除人類中的某些個(gè)體或群體喪心病狂走向反社會(huì)、反人類的歧路,但是,人類中的大多數(shù)必然會(huì)以正義戰(zhàn)勝邪惡,實(shí)現(xiàn)人類的永續(xù)發(fā)展。
從技術(shù)層面來(lái)看,對(duì)于人工智能倫理沖突的權(quán)衡判斷將是一個(gè)復(fù)雜的政治過(guò)程。權(quán)衡不同解決方案的成本和收益是這一過(guò)程的一個(gè)重要部分。比如,在人工智能發(fā)展與技術(shù)可控之間就存在著沖突。如何解決這一沖突取決于人類的掌控能力。這正如對(duì)于一個(gè)未成年人,我們不會(huì)讓他舞槍弄棒,但是對(duì)于一個(gè)肩負(fù)維護(hù)社會(huì)安全責(zé)任的警察則必須賦予其使用警械的權(quán)力。無(wú)論人工智能如何發(fā)展進(jìn)化,人類必須握有“致命一招”,否則,一旦人工智能自我演化到可以完全擺脫人類控制的程度,那時(shí),人類的命運(yùn)就堪憂了。因此,在人工智能研發(fā)之初,必須明確這一倫理原則,即人工智能只能以造福人類為目的,這里所說(shuō)的人類是一個(gè)全稱判斷,是指全人類,而非某一利益集團(tuán)、某一國(guó)家。
其實(shí),一些人工智能倫理原則的沖突并非不可避免。也許我們只是缺乏知識(shí)或工具來(lái)推進(jìn)相互沖突的價(jià)值觀,通過(guò)進(jìn)一步地研究可以找出更好地服務(wù)于所有相關(guān)價(jià)值觀或目標(biāo)的解決方案。例如,工業(yè)機(jī)器人的大規(guī)模運(yùn)用可能會(huì)侵占更多的勞動(dòng)機(jī)會(huì),但是如果將工業(yè)機(jī)器人的運(yùn)用范圍限制在“臟難險(xiǎn)重”類的工作崗位,其所面臨的阻力就會(huì)小得多。再比如,掃地機(jī)器人近年來(lái)在家庭推廣就極為順暢,原因不外乎,它不是對(duì)人的工作崗位的剝奪,而是減輕了人們做家務(wù)的負(fù)擔(dān),所以不會(huì)遇到任何反對(duì)的力量。
然而,人工智能應(yīng)用于自動(dòng)駕駛就面臨著較大的爭(zhēng)議。在倫理學(xué)上有一個(gè)經(jīng)典的兩難選擇“電車?yán)Ь场?,這對(duì)于自動(dòng)駕駛就是經(jīng)常發(fā)生的現(xiàn)象。人工智能是否為了確保乘車人的安全就可以枉顧路人處于危險(xiǎn)之中嗎?或者為了選擇最大多數(shù)人的利益而犧牲乘車人的安全?當(dāng)然,從技術(shù)方面來(lái)看,自動(dòng)駕駛尚未完全成熟,但即便技術(shù)再成熟,上述倫理困境依然是存在的。所以,這類人工智能倫理原則的沖突并不是可以通過(guò)權(quán)衡就能得以化解的。再比如,人工智能運(yùn)用于戰(zhàn)爭(zhēng)中的爭(zhēng)議更是一直不斷。因?yàn)檫@種做法與發(fā)展人工智能的宗旨是為了保障全人類的福祉背道而馳。因此,一些有識(shí)之士提出,人類在開(kāi)發(fā)人工智能時(shí)還是應(yīng)當(dāng)更加謹(jǐn)慎,因?yàn)橐坏┦タ刂?,就意味著打開(kāi)了“潘多拉魔盒”,如果人工智能統(tǒng)治人類,人類將陷入萬(wàn)劫不復(fù)之境地。在對(duì)人工智能預(yù)先置入人類倫理原則時(shí),善良是首先要置入的原則。原因在于,選拔人才應(yīng)當(dāng)“德才兼?zhèn)?,以德為先”,在某些特定情況下,德比才更重要。這一做法推廣到人工智能領(lǐng)域,就是要求人工智能有一顆“良心”,要善良地對(duì)待人類。無(wú)論在何種情況下,都不能做出傷害人類的行動(dòng)。阿西莫夫提出的“機(jī)器人三原則”第一條就是“機(jī)器人不得傷害人類”,其他原則都必須在這一原則的統(tǒng)領(lǐng)之下。
盡管人工智能倫理原則沖突大多無(wú)法直接解決,但是更清楚、更明確地闡明這些沖突是必要的。政府是公共利益的代表者,在解決人工智能倫理原則沖突方面必須發(fā)揮政府的主導(dǎo)作用,防止資本控制技術(shù)從而損害公共利益、破壞社會(huì)秩序。政府應(yīng)采取多種措施確保人工智能倫理原則得到貫徹,并妥善解決人工智能倫理原則沖突。企業(yè)應(yīng)高度重視人工智能倫理問(wèn)題,防范人工智能倫理風(fēng)險(xiǎn)。有些企業(yè)擔(dān)心人工智能倫理會(huì)限制技術(shù)的發(fā)展、影響企業(yè)的經(jīng)濟(jì)利益,然而,事實(shí)上,越是主動(dòng)承擔(dān)社會(huì)責(zé)任的企業(yè)越是能夠得到用戶的認(rèn)可,對(duì)企業(yè)的發(fā)展更加有利。發(fā)展人工智能的目的是造福于民,因此公眾應(yīng)擁有充分的知情權(quán)。人工智能倫理原則中的透明原則,就是為了確保公眾對(duì)于人工智能的算法和數(shù)據(jù)處理能夠在充分知情的基礎(chǔ)上行使監(jiān)督權(quán)。人類的價(jià)值觀不可能完全整齊劃一,但是從構(gòu)建人類命運(yùn)共同體的角度出發(fā),人工智能發(fā)展應(yīng)當(dāng)以全人類利益為旨?xì)w,謀求更多共識(shí),尋求更大公約數(shù),畫(huà)出更大的同心圓。只有吸納更多的參與,人工智能倫理原則的沖突才能得到妥善的解決。
對(duì)沖突的關(guān)注也有助于指導(dǎo)人工智能倫理的研究重點(diǎn)。在人工智能倫理原則中預(yù)防原則應(yīng)當(dāng)具有重要價(jià)值,它不僅是引領(lǐng)人工智能健康發(fā)展的重要原則,也對(duì)解決諸原則沖突發(fā)揮著作用。必須堅(jiān)持倫理高于技術(shù)的原則,在人工智能開(kāi)發(fā)和應(yīng)用之前就應(yīng)設(shè)置基本的倫理規(guī)范,決不允許出現(xiàn)技術(shù)凌駕于倫理規(guī)范之上的現(xiàn)象。只有以前瞻性思維分析人工智能發(fā)展,特別是考慮到其利弊得失,興利除弊,防患于未然,才能確保人工智能造福于人類。
社會(huì)各個(gè)領(lǐng)域的治理充分證明,為了在實(shí)踐中發(fā)揮作用,原則需要在標(biāo)準(zhǔn)、規(guī)范和最終的法規(guī)中正式化。同樣,要真正解決人工智能倫理原則的沖突,使人工智能發(fā)展得到有效規(guī)范,也必須將倫理原則逐步法治化?,F(xiàn)有有關(guān)人工智能約束的規(guī)范主要是在倫理層面(25)王成:《人工智能法律規(guī)制的正當(dāng)性、進(jìn)路與原則》,《江西社會(huì)科學(xué)》2019年第2期。,倫理規(guī)范的約束力要遠(yuǎn)弱于法律規(guī)范。當(dāng)然,由于法律規(guī)范往往較為滯后且保守,面對(duì)人工智能發(fā)展中所出現(xiàn)的一系列問(wèn)題,通過(guò)倫理原則進(jìn)行約束有其必要性,但是,當(dāng)倫理原則較為成熟之后,應(yīng)制定相關(guān)法律予以規(guī)范。只有通過(guò)法律來(lái)劃定底線,才能使人工智能發(fā)展不至于走向造福人類的反面。倫理原則的最終旨?xì)w是對(duì)人類的人文關(guān)懷,人工智能倫理原則必須以人類共同利益為最高追求。只有遵循這一主線,人工智能倫理原則的沖突才能在動(dòng)態(tài)發(fā)展中求得平衡,通過(guò)人類與人工智能的和諧共生,最終實(shí)現(xiàn)全人類的福祉。