內(nèi)容提要 基于“人是目的”的價(jià)值設(shè)定而建立起的“倫理至善”第一原則讓強(qiáng)人工智能設(shè)備的研發(fā)和應(yīng)用首先遭遇道德合法性的論證難題?!坝邢薜牡赖潞戏ㄐ浴睘槠渲\求到了一個(gè)倫理存在空間。以致命性自主武器系統(tǒng)(LAWS)為例,“有限性”的前置條件則讓關(guān)于其“道德責(zé)任代理人”的準(zhǔn)確識(shí)別與劃分成為首要問題。以道德判斷能力為標(biāo)準(zhǔn),將作為“工具”的機(jī)器和作為“具有實(shí)踐智慧”的人做明確劃分是準(zhǔn)確識(shí)別LAWS責(zé)任代理人的邏輯基礎(chǔ)?;诘赖仑?zé)任代理人的邏輯梳理,即使被完美道德編碼的LAWS作為“非道德”的機(jī)器在應(yīng)用中也可能會(huì)遭遇“不道德的人”的倫理難題。這是我們可預(yù)見且對(duì)國(guó)際關(guān)系構(gòu)建和整個(gè)人類社會(huì)發(fā)展可能產(chǎn)生顛覆性影響的倫理威脅。從這個(gè)角度看,謹(jǐn)防出現(xiàn)基于“技術(shù)野蠻”的“寡頭恐怖主義”這一時(shí)代命題要求我們盡快對(duì)相關(guān)強(qiáng)人工智能設(shè)備給出一套有效的、縝密的預(yù)防性倫理應(yīng)對(duì)機(jī)制。
關(guān)鍵詞 強(qiáng)人工智能 致命性自主武器 有限的道德合法性 道德主體 寡頭恐怖主義
張亦佳,河海大學(xué)馬克思主義學(xué)院博士研究生、南京財(cái)經(jīng)大學(xué)助理研究員
20世紀(jì)70年代,塞爾(John Searle)首次提出了“強(qiáng)人工智能”概念,認(rèn)為“計(jì)算機(jī)不僅僅是用來研究人的思維的一種工具,只要運(yùn)行適當(dāng)?shù)某绦?,?jì)算機(jī)本身就是有思維的”[1]。業(yè)界認(rèn)為相對(duì)于弱人工智能,強(qiáng)人工智能的優(yōu)勢(shì)在于“機(jī)器可以全面、綜合地復(fù)現(xiàn)人類的所有思維能力,且聰明程度能夠達(dá)到或超過人類”[2]。2022年9月,AlphaGo Zero被證明能夠獨(dú)立于人類的經(jīng)驗(yàn)知識(shí)與指令,通過感知領(lǐng)域的深度學(xué)習(xí)和決策領(lǐng)域的不斷強(qiáng)化學(xué)習(xí),最終實(shí)現(xiàn)智力的自我進(jìn)化。強(qiáng)人工智能設(shè)備可能帶來的風(fēng)險(xiǎn)又一次引發(fā)廣泛關(guān)注和擔(dān)憂。關(guān)涉到戰(zhàn)爭(zhēng)領(lǐng)域,以智能無人作戰(zhàn)為主導(dǎo)的未來戰(zhàn)場(chǎng)將呈現(xiàn)出“零傷亡、高智能和無人制勝”的特點(diǎn)。隨著自主武器系統(tǒng)的深入研發(fā)與實(shí)踐應(yīng)用,戰(zhàn)爭(zhēng)形態(tài)的范式轉(zhuǎn)變所引發(fā)的道德困境和挑戰(zhàn)將會(huì)是人類未來必須面對(duì)的重大倫理議題。自主武器系統(tǒng)的研發(fā)初衷是減少人類戰(zhàn)士在戰(zhàn)場(chǎng)上的傷亡,但是,近來基于強(qiáng)人工智能的致命性自主武器系統(tǒng)(lethal autonomous weapon systems,LAWS)已經(jīng)被研發(fā)出來甚至出現(xiàn)了實(shí)戰(zhàn)應(yīng)用案例[1],而以此為代表的強(qiáng)人工智能設(shè)備可能帶來的倫理問題也日益凸顯。由于強(qiáng)人工智能的具體表現(xiàn)形式多樣,本文將以LAWS為例來具體分析此類強(qiáng)人工智能設(shè)備可能面臨的倫理挑戰(zhàn)。
一、強(qiáng)人工智能“倫理至善”的道德合法性難題及其可能性辯護(hù)
整體來說,強(qiáng)人工智能設(shè)備應(yīng)該具備以下特征:須達(dá)到或超越人類智能、可實(shí)現(xiàn)“意識(shí)自醒”并形成“自己”獨(dú)特的行動(dòng)目標(biāo)、具備較為完整的認(rèn)知能力序列和情境適應(yīng)性能力等[2]。而依照相關(guān)概念,LAWS指的是“一種基于AI技術(shù)且具有自主決策性能的‘殺手機(jī)器人(killer robots)武器攻擊平臺(tái),可以在不經(jīng)過人類操作員干預(yù)的情況下,獨(dú)立搜索、識(shí)別目標(biāo)并自主性地做出攻擊決策,其設(shè)計(jì)初衷是寄望于以智能機(jī)器人取代人類戰(zhàn)士從事戰(zhàn)場(chǎng)偵察、日常巡邏和執(zhí)行危險(xiǎn)性戰(zhàn)斗任務(wù),從而達(dá)到降低人員傷亡、減少戰(zhàn)爭(zhēng)損耗和實(shí)現(xiàn)精準(zhǔn)打擊之功效”[3]??梢?,“自主性+攻擊性”的疊加性能是其區(qū)別于傳統(tǒng)軍事武器類型的最主要標(biāo)志。由于LAWS具有“能夠在沒有任何人類指令輸入或人機(jī)互動(dòng)操作情形下自主選擇攻擊目標(biāo)并開火”的性能[4],至少?gòu)谋砻嫔峡?,人就已?jīng)完全被排斥于一個(gè)軍事任務(wù)的閉環(huán)之外。目前關(guān)于LAWS的最大倫理爭(zhēng)議,實(shí)際上來自道德責(zé)任的認(rèn)定,即馬蒂亞(Matthias)所提出來的關(guān)于軍用機(jī)器人使用中的“道德鴻溝”[5]問題。
在傳統(tǒng)意義上,正義戰(zhàn)爭(zhēng)一貫秉持“如果有可識(shí)別的戰(zhàn)爭(zhēng)罪行,就一定有可識(shí)別的罪犯”[6]的道德主張,在人工智能高度參與的各項(xiàng)軍事行動(dòng)中,人們也應(yīng)該要求有明確的、可識(shí)別的道德行為主體為各種軍事行動(dòng)的后果和影響承擔(dān)起直接的道德責(zé)任。誰應(yīng)該為L(zhǎng)AWS承擔(dān)道德責(zé)任,LAWS是否要為自己的“自主性”承擔(dān)道德責(zé)任,責(zé)任代理人各方又應(yīng)該承擔(dān)什么樣的道德責(zé)任,以及如何才是真實(shí)有效地承擔(dān)道德責(zé)任等問題,是當(dāng)下最具爭(zhēng)議的倫理話題。在開始討論LAWS的道德責(zé)任之前,我們需要對(duì)LAWS最基本的前置性問題進(jìn)行辨析,即從邏輯上來講,當(dāng)人們提出“LAWS能否被視作一個(gè)獨(dú)立的道德行為主體,并能否成為其行為后果的道德責(zé)任代理者”的問題時(shí),實(shí)際上就已經(jīng)默認(rèn)了這一基本預(yù)置前提——LAWS是被允許研發(fā)并應(yīng)用于現(xiàn)代性軍事行動(dòng)當(dāng)中的。這就涉及對(duì)LAWS應(yīng)用的道德合法性確證問題,如果有充分論證表明,LAWS是應(yīng)該完全被禁止研發(fā)和應(yīng)用于軍事行動(dòng)中的,那么其道德責(zé)任問題也就隨之從根本上被消解而成為一個(gè)無意義的問題。因此,我們無論對(duì)LAWS持支持或反對(duì)意見,都必須首先給出關(guān)于其合法性的嚴(yán)謹(jǐn)而完整的道德哲學(xué)論證。
1.關(guān)于道德責(zé)任詰難的一個(gè)必要澄清
關(guān)于作為強(qiáng)人工智能的LAWS的研發(fā)及應(yīng)用是否具有道德上的合法性問題,無論我們持何種觀點(diǎn)或許都會(huì)招致諸多倫理挑戰(zhàn)。但我們首先要做的是要從一種“責(zé)任鴻溝—道德禁令”互為前提、循環(huán)論證的思維泥潭當(dāng)中擺脫出來。對(duì)LAWS的反對(duì)意見中,最具普遍性的道德理由及其證成邏輯如下:基于一個(gè)道德共識(shí),即作為可以承擔(dān)道德責(zé)任的代理人的一個(gè)條件是有能力通過相應(yīng)的痛苦或報(bào)酬,受到相應(yīng)的懲罰或獎(jiǎng)勵(lì)。因此,道德責(zé)任的一個(gè)必要條件是要將責(zé)任代理人納入懲罰和獎(jiǎng)勵(lì)范圍。機(jī)器人缺乏諸如痛苦、快樂一類的感知能力,這就意味著任何懲罰方式都無意義。所以,強(qiáng)人工智能設(shè)備就不符合負(fù)責(zé)任代理的資格[1]。同樣,LAWS作為強(qiáng)人工智能設(shè)備的一種,任何對(duì)其不道德行為的事后指責(zé)都無意義。如此,在那些已發(fā)生的錯(cuò)誤選擇行為中就沒有任何主體可以公平地去承擔(dān)災(zāi)難性后果的道德責(zé)任。
那么,我們是否可以以此為全部理論依據(jù)而禁止LAWS參與到戰(zhàn)爭(zhēng)領(lǐng)域中呢?我們必須認(rèn)識(shí)到,以上論證根本上隱藏了一種邏輯順序顛倒的無效論證:由于LAWS在道德責(zé)任方面的不確定性,因而不具有研發(fā)和使用上的道德合法性;進(jìn)一步地,又因?yàn)長(zhǎng)AWS不具有道德上的合法性,所以LAWS的道德責(zé)任討論是可以被消解的。因此可以得出一個(gè)結(jié)論:既無法準(zhǔn)確劃分LAWS的道德責(zé)任,其也沒有道德上的合法性。但事實(shí)上,道德責(zé)任的歸屬問題并不能構(gòu)成一個(gè)關(guān)乎終極價(jià)值目的和最高倫理關(guān)懷的道德合法性的說明,它應(yīng)該是一個(gè)基于道德合法性探討而隨之出現(xiàn)的二階倫理問題。因此它也不能成為否定LAWS價(jià)值性存在的根本依據(jù)。對(duì)于上面的論證,一個(gè)很簡(jiǎn)單的邏輯反詰是:如果有人愿意成為或者我們能夠?qū)で蟮揭粋€(gè)道德責(zé)任的實(shí)際承擔(dān)者,LAWS是否就具有完全的道德合法性而可以被不加限制、隨心所欲地使用呢?顯而易見,這里的答案仍然是否定的。
實(shí)際上,現(xiàn)在大多數(shù)反對(duì)LAWS的道德聲音都是出于人們基于“殺人是不對(duì)的”這一基本常識(shí)性道德判斷,對(duì)LAWS可能摧毀生命的天然使命有著一種強(qiáng)烈的道德厭惡和情感抗拒[2]。只要對(duì)LAWS功能和主要軍事用途做一個(gè)大致了解[3],單就“致命性武器”帶給人們的直觀感受而言,就不難理解為什么很多人對(duì)LAWS懷有如此強(qiáng)烈的道德直覺式排斥。這就像一個(gè)和平主義者基于對(duì)戰(zhàn)爭(zhēng)本身的道德厭惡而對(duì)其正義問題嗤之以鼻一樣。如果單純談?wù)摲俏淦骰灾餍詸C(jī)器人(即那些被我們稱之為“朋友機(jī)器人”的人工智能)的道德合法性問題,比如無人駕駛汽車、仿生智能寵物、機(jī)器人醫(yī)生、機(jī)器人服務(wù)員等,可能我們會(huì)寬容很多。因此我們期待更加理性、慎重、嚴(yán)謹(jǐn)?shù)恼軐W(xué)審視和論證。
2.基于戰(zhàn)爭(zhēng)倫理先在規(guī)定的“有限的道德合法性”立場(chǎng)
到目前為止,我們只是說明了強(qiáng)人工智能在軍事應(yīng)用中的邏輯混亂問題,而仍未給出關(guān)于LAWS的任何道德合法性說明。為L(zhǎng)AWS做道德合法性辯護(hù)非常困難的原因很大一部分在于“自主性+致命性武器”的組合而導(dǎo)致的雙重界定難題。從智能性來看,2018年歐盟發(fā)布的由歐委會(huì)人工智能高級(jí)專家組(AIH-LEG)所起草的《可信任人工智能倫理指南》(Ethics Guidelines for Trustworthy AI)[4],對(duì)人工智能所要求的內(nèi)在遵循仍然是“人為自己立法”的規(guī)范性原理。也就是說,包括強(qiáng)人工智能設(shè)備在內(nèi)的所有人工智能的設(shè)計(jì)、制造和應(yīng)用都要符合“人是目的”這一道德合法性根基。因此,就形式而言,我們將“規(guī)范者指引”倫理框架的先行構(gòu)建提煉為可信任人工智能倫理規(guī)范的第一個(gè)基本原則就是讓“算法”遵循“善法”[1]。但同時(shí),按照“致命性武器”用途的先在性設(shè)定,如果LAWS從其開始構(gòu)想設(shè)計(jì)之日,其算法所設(shè)定的目的就是去“針對(duì)和殺害人類”(即“朋友機(jī)器人”的反面——“殺手機(jī)器人”)[2],那么是否基于倫理至善的首要原則為L(zhǎng)AWS留有道德合法性的倫理空間,這才是LAWS道德合法性確證的根本性難題。
關(guān)于這一倫理難題的處理方式大概會(huì)有兩種:一種是懸置,正如一些軍事家所做的;另一種是迎難而上一探究竟,這是倫理學(xué)者的使命。前者如美國(guó)國(guó)防部前副部長(zhǎng)鮑勃·沃克(Bob Work)[3]曾在2016年接受采訪時(shí)公開說道:“未來10年或15年內(nèi),如何授權(quán)機(jī)器人(實(shí)施殺傷行動(dòng))將變得非常清楚……但我非常擔(dān)心美國(guó)經(jīng)常圍繞致命性自主武器的‘道德、法律和倫理問題進(jìn)行討論……我們的競(jìng)爭(zhēng)對(duì)手可從來不這么干”[4]。而事實(shí)上,五角大樓后來的確懸置了這一問題。近年來,美國(guó)多次采用“無人機(jī)+導(dǎo)彈”技術(shù)開展了被其稱之為“定點(diǎn)清除”的斬首行動(dòng)。但是這絕不意味著這些已經(jīng)展開的軍事行動(dòng)具有充分的道德正當(dāng)性,也絕不意味著國(guó)際社會(huì)會(huì)同意這種情況一直發(fā)生下去。
如果繼續(xù)討論下去,關(guān)于LAWS的道德合法性說明似乎陷入了一種僵局:我們既推翻了現(xiàn)有反對(duì)意見的道德論證,似乎又不打算為L(zhǎng)AWS的無限制應(yīng)用做道德合法性辯護(hù)。而一個(gè)更為嚴(yán)峻的事實(shí)是,截至目前,全球已有40多個(gè)國(guó)家被披露正在設(shè)計(jì)、研發(fā)和試圖使用“致命性自主武器”系統(tǒng)[5]。正如有些學(xué)者早已經(jīng)意識(shí)到的,“伴隨著人工智能技術(shù)的進(jìn)步與日臻成熟,基于強(qiáng)人工智能技術(shù)的‘自主性已成為現(xiàn)代武器系統(tǒng)的一個(gè)重要進(jìn)化趨勢(shì),全面禁止致命性自主武器系統(tǒng)在現(xiàn)實(shí)中已不太可能,即便實(shí)施了禁令,也很可能不會(huì)產(chǎn)生效果”[6]。如果我們回到討論LAWS的倫理場(chǎng)域原點(diǎn)——軍事與戰(zhàn)爭(zhēng)領(lǐng)域,就會(huì)發(fā)現(xiàn)如今關(guān)于LAWS道德合法性問題的困境正如我們?cè)谟懻搼?zhàn)爭(zhēng)正義問題時(shí)所遭遇到的道德合法困境一樣——它既無法被全盤否定,又不具有天然的道德合法性[7]。
如果依據(jù)聯(lián)合國(guó)《公民權(quán)利與政治權(quán)利國(guó)際公約》的規(guī)定,“每個(gè)人都有與生俱來的生命權(quán),這項(xiàng)權(quán)利應(yīng)受法律保護(hù),任何人不得隨意剝奪他人的生命”[8],那么戰(zhàn)爭(zhēng)從其出現(xiàn)之日起,就從來沒有獲得過最高的道德合法性辯護(hù)。但事實(shí)卻是一部人類史就是一部戰(zhàn)爭(zhēng)史。因此,從這一意義上講,我們只能基于歷史經(jīng)驗(yàn)與事實(shí),在一定的前提和限制條件下去討論戰(zhàn)爭(zhēng)的道德正當(dāng)問題?!罢x戰(zhàn)爭(zhēng)理論是反對(duì)和平主義的……然而更重要的是它也反對(duì)侵略征服……它是一種限制性的理論。然而,它在限制的同時(shí)也許可以——許可限度之內(nèi)的——武力行為?!盵9]我們將這樣的道德合法性稱之為相對(duì)于“無限”的“有限的道德合法性”。
同樣,如果在有明確的前置條件和限制的嚴(yán)格規(guī)約下,我們或許能為L(zhǎng)AWS找到一個(gè)適存性的倫理空間。回到LAWS關(guān)于“降低人員傷亡、減少戰(zhàn)爭(zhēng)損耗和實(shí)現(xiàn)精準(zhǔn)打擊”的研發(fā)初衷,LAWS有限的道德合法性問題或許值得一辯。當(dāng)然,這種辯護(hù)只能是消極的。或許在更消極意義上,就如核武器研發(fā)的辯護(hù)空間僅剩于“以核制核”的威懾倫理之辯護(hù)一樣,LAWS的研發(fā)也可以被看作是在人類道德文明的發(fā)展高度還不足以使人類自身走出戰(zhàn)爭(zhēng)這樣的時(shí)代背景下應(yīng)運(yùn)而生的,它是被用于實(shí)現(xiàn)國(guó)家之間相互制衡式和平的一種“不得已”手段和方式。無論怎樣,LAWS用途的道德合法性在任何時(shí)候都需經(jīng)過嚴(yán)謹(jǐn)?shù)浇蹩燎蟮恼撟C說明才有足夠的理由有限使用。而比起LAWS的可能性空間的討論,更重要的是要對(duì)諸如以下這些問題時(shí)刻保持一種警醒:人員傷亡的降低、戰(zhàn)爭(zhēng)損耗的減少會(huì)不會(huì)潛藏著戰(zhàn)爭(zhēng)更加輕易被發(fā)動(dòng)的可能?精準(zhǔn)打擊要求的科學(xué)技術(shù)是否會(huì)使更多的包括科學(xué)家、程序員等在內(nèi)的原本屬于非戰(zhàn)斗人員都卷入戰(zhàn)爭(zhēng)當(dāng)中?LAWS的濫用會(huì)不會(huì)使人類社會(huì)進(jìn)入一種高科技野蠻時(shí)代?我們必須清楚地認(rèn)識(shí)到降低戰(zhàn)爭(zhēng)準(zhǔn)入門檻的風(fēng)險(xiǎn)背后所隱藏的都是對(duì)生命無限制的威脅和殺戮之可能。這些可能性也就意味著盡快擬定一整套審慎的、嚴(yán)格的、系統(tǒng)的關(guān)于LAWS的倫理規(guī)約性條款是時(shí)代的召喚和要求。
換言之,所謂“有限的道德合法性”,一定要從“有限性”和“道德合法性”兩方面來看:“道德合法性”的確為L(zhǎng)AWS尋求到了一個(gè)倫理適存空間,但“有限性”的前置性則要求我們對(duì)LAWS的倫理適存空間首先要做出系統(tǒng)的、謹(jǐn)慎的、詳細(xì)的論證說明。限制誰?作何限制?由誰來限制?如何限制?這些問題必須一一去思考、回應(yīng)和解答。當(dāng)然,在這些限制條款中,LAWS除了作為一般原則的“算法遵循‘善法”的倫理原則要得到充分的解釋和認(rèn)可[1],它還需要通過各種具體的法則,如自主程度、部署方式、用途范圍、對(duì)人的傷害程度、后果預(yù)測(cè)、容錯(cuò)率、責(zé)任代理等各個(gè)方面進(jìn)行限制性條款說明。而在所有的這些具體性問題中,道德行動(dòng)者和責(zé)任人的識(shí)別和明確又首當(dāng)其沖,它是所有限制性條款變得有實(shí)際意義的前提條件。這就涉及我們接下來要討論的關(guān)于LAWS最主要的倫理難題:由LAWS自主程度所引發(fā)的關(guān)于行為主體與責(zé)任代理人的道德難題。
二、強(qiáng)人工智能道德編碼與道德判斷:責(zé)任代理人難題及其辨析
在為以LAWS為代表的強(qiáng)人工智能設(shè)備找到一個(gè)可能性倫理空間以后,我們對(duì)LAWS責(zé)任代理人的討論才有意義。但在深入討論“應(yīng)該由誰承擔(dān)什么樣的道德責(zé)任”這個(gè)問題之前,我們首先需要明確一個(gè)最基本劃分:LAWS的道德責(zé)任主體是機(jī)器人自身還是相關(guān)的人或以人為主體的整體性實(shí)體。從一般意義上講,當(dāng)我們將道德責(zé)任置于人工智能的語境中去深入討論時(shí),更多的是想要明確人工智能因?yàn)楦鞣N不確定性因素導(dǎo)致的意外的、災(zāi)難性的后果時(shí)能找到明確的實(shí)際責(zé)任承擔(dān)者并對(duì)其作出相應(yīng)的懲處。因此,在關(guān)于LAWS道德責(zé)任的討論中,如何認(rèn)識(shí)、定義和解讀LAWS的“自主性”就成為一個(gè)關(guān)于道德責(zé)任主體認(rèn)定的首要問題,它具體涉及的一個(gè)問題是:LAWS的“自主性”究竟可以達(dá)到什么程度,它是否會(huì)改變?nèi)嗽谲娛滦袆?dòng)中的決策中心地位?
1.機(jī)器人“自主性”的兩種理解方式
強(qiáng)人工智能已經(jīng)出現(xiàn),學(xué)界也在擔(dān)心未來是否會(huì)出現(xiàn)完全將人屏蔽在閉環(huán)之外的、交由機(jī)器人自主決定的“超人工智能”范式。在強(qiáng)人工智能范式當(dāng)中,雖然AI技術(shù)越發(fā)強(qiáng)大,但機(jī)器人作為“工具”的定義始終是清晰的,人的道德決策中心地位也未發(fā)生實(shí)質(zhì)變化。而在高度自主化的“超人工智能”范式中,人有可能喪失道德決策中的中心地位而淪為旁觀者或“第三人”。
機(jī)器人自主程度可能有多高,LAWS的堅(jiān)決反對(duì)者斯派洛(Sparrow, R.)給出自己的描述:“人工智能武器系統(tǒng)將能夠做出自己的決定,例如確定它們的目標(biāo)或它們接近目標(biāo)的方式,并以一種‘智能方式這樣做?!@些機(jī)器的行動(dòng)是基于某些理由,但這些理由將取決于系統(tǒng)本身的內(nèi)部狀態(tài)——‘欲望、‘信念和‘價(jià)值等的倫理敏感性。此外,這些系統(tǒng)本身將具有形成和修正這些信念的重大能力,他們甚至?xí)袕慕?jīng)驗(yàn)中學(xué)習(xí)的能力。”[1]依據(jù)斯派洛的設(shè)想,高度自主化的機(jī)器人在具體的軍事行動(dòng)過程中可能會(huì)依據(jù)自己的理解,以一種與人類所支持的判斷完全不一致的方式應(yīng)用這些規(guī)則,甚至最終將擁有拒絕人類編程規(guī)則的自主權(quán)。但另一些學(xué)者對(duì)此則有著截然相反的觀點(diǎn):無論如何,“機(jī)器人是機(jī)器,不是人,沒有自由意志,也不可能做出自主的道德抉擇,它可以形式地執(zhí)行人的蘊(yùn)含道德要求的指令,但它自己并不懂得任何道德意義……作為物的機(jī)器人并不明白什么是倫理問題……它不過是機(jī)械地執(zhí)行人的預(yù)制性指令,如只殲滅戰(zhàn)斗人員和摧毀軍事設(shè)施、避開平民百姓等,這里根本就談不上所謂機(jī)器人本身的倫理敏感性……而讓機(jī)器人‘自主地運(yùn)用道德規(guī)則來應(yīng)對(duì)復(fù)雜的道德情景,即將倫理系統(tǒng)嵌進(jìn)機(jī)器人的大腦中,使之可以依據(jù)倫理原則在具體場(chǎng)域中進(jìn)行決策,是一種天真的幻想”[2]。
我們可能無法預(yù)測(cè)人工智能的終極樣態(tài)和用途,就像一百多年前萊特兄弟也無法預(yù)測(cè)到今天的人類僅僅通過“無人機(jī)+機(jī)載導(dǎo)彈”的操作就可以輕易置人于死地一樣。對(duì)于斯派洛的描述,我們無法保證這種情況絕對(duì)不會(huì)發(fā)生。如果機(jī)器人真的能夠?qū)崿F(xiàn)拒絕人類意志的完全自主行動(dòng),那么它可能會(huì)對(duì)人之為“人”的存在方式和存在本質(zhì)產(chǎn)生一種顛覆性影響。其所涉及的討論范圍也就遠(yuǎn)遠(yuǎn)超出本文主題,到時(shí)候可能遠(yuǎn)不止是LAWS的道德責(zé)任問題,而是生物人(自然人)與機(jī)器人如何和平相處的倫理問題。拋開我們的異想和假設(shè)成分,從理性認(rèn)知的角度來看,從本質(zhì)上講,現(xiàn)今的基于強(qiáng)人工智能的LAWS仍然是遵循算法規(guī)則,并執(zhí)行代碼指令的?!白灾魑淦飨到y(tǒng)是一個(gè)邏輯算法框架”[3],這是現(xiàn)今對(duì)以LAWS為代表的強(qiáng)人工智能設(shè)備存在形式的基本認(rèn)知判斷。
2.算法邏輯和道德決策的實(shí)質(zhì)
無論機(jī)器人技術(shù)如何發(fā)展,上面兩種截然不同的觀點(diǎn)所聚焦的同一個(gè)道德問題實(shí)際上是:強(qiáng)人工智能設(shè)備究竟能否獲得道德判斷的自主決策能力而成為承擔(dān)自己行為后果的道德代理人?依據(jù)“自主武器系統(tǒng)是一個(gè)邏輯算法框架”的基本判斷,機(jī)器人獲得道德能力的任務(wù)似乎就落到了程序員身上。將道德規(guī)范或社會(huì)所普遍承認(rèn)的正義原則編寫成代碼并植入程序,這就是人們所說的機(jī)器人的“道德編碼”。“道德編碼”不是一個(gè)技術(shù)難題,很多技術(shù)專家都明確表示機(jī)器人完全能夠滿足人們對(duì)它的社會(huì)道德要求。
關(guān)于“道德編碼”的實(shí)質(zhì)性爭(zhēng)論在于:一種被編纂起來的道德規(guī)范(即所謂“道德法典”)[4]是否可以成為判斷的全部依據(jù)?或者說道德判斷和道德決策的行為依據(jù)是否能夠簡(jiǎn)化為一套道德規(guī)則?實(shí)際上,關(guān)于道德法典化的爭(zhēng)論不是強(qiáng)智能設(shè)備出現(xiàn)后才有的新問題,它早就廣泛存在于人的道德決策的討論之中。麥克道爾(McDowell)在1979年就已經(jīng)引入了“反法典化命題”的觀點(diǎn),他寫道:“任何合理的成人道德觀都不允許這樣的編纂,這似乎是非常難以置信的。正如亞里士多德一貫所說,關(guān)于一個(gè)人應(yīng)該如何行為的最佳概括只適用于大多數(shù)情況。如果一個(gè)人試圖將自己對(duì)美德的概念簡(jiǎn)化為一套規(guī)則,那么無論他在起草規(guī)則時(shí)多么巧妙和深思熟慮,機(jī)械地應(yīng)用規(guī)則的情況都會(huì)不可避免地出現(xiàn),讓他被認(rèn)為是錯(cuò)誤的……”[1]
道德判斷與道德決策的依據(jù)和理由是一個(gè)龐大而復(fù)雜的倫理學(xué)命題,不同立場(chǎng)、派別的學(xué)者在具體的觀點(diǎn)、細(xì)節(jié)的論證以及相關(guān)術(shù)語的運(yùn)用上都不盡相同[2]。盡管如此,目前學(xué)界關(guān)于道德判斷還是達(dá)成了一個(gè)廣泛共識(shí),即它是理性+(直覺式)情感綜合運(yùn)用的結(jié)果?!暗赖屡袛嗍且环N極其復(fù)雜的心智活動(dòng),其驅(qū)動(dòng)力不僅在于理性的反思平衡,也在于直覺的情感體驗(yàn)?!盵3]特別是在一些情況復(fù)雜多變的具體實(shí)踐中,人們?cè)诰o急狀態(tài)下或道德兩難中做出某種道德決策的關(guān)鍵性因素往往不是源自于一般意義上的道德習(xí)得性知識(shí),而是一種道德認(rèn)知和情感體驗(yàn)綜合運(yùn)用的倫理智慧?!暗赖屡袛嗟膶?shí)踐有一個(gè)必要的現(xiàn)象特征或‘它是什么樣的。成功地遵循真正的道德理論可能需要一種廣泛的反思平衡,它要求我們?cè)谝话愕赖略瓌t和我們的道德直覺之間取得適當(dāng)?shù)钠胶?。”[4]
在這一標(biāo)準(zhǔn)下,即便我們不去爭(zhēng)論LAWS的“道德編碼”是否可詳盡所有的道德情景,也不去質(zhì)疑科學(xué)家和程序員對(duì)LAWS進(jìn)行道德編碼的技術(shù)手段和能力,僅基于道德判斷對(duì)反思平衡能力或?qū)嵺`智慧的要求,我們就可以判斷LAWS絕對(duì)無法成為可以為自己行為后果負(fù)責(zé)的道德責(zé)任代理人。那么,在道德責(zé)任代理人的認(rèn)定并制定具體的約束法則之前,必須先在邏輯上做出清楚辨析的一個(gè)道德命題是:機(jī)器人不是道德人。將“機(jī)器”和“人”做一個(gè)最基本的區(qū)隔是明辨道德責(zé)任的一個(gè)重要前提。因此,在軍事戰(zhàn)爭(zhēng)領(lǐng)域,“機(jī)器人對(duì)自己負(fù)責(zé)”觀點(diǎn)絕對(duì)不被接納,將道德責(zé)任歸咎于機(jī)器人的“自主性”是一種極端不負(fù)責(zé)任的行為。
3.去主體化的道德困境:重新審視行動(dòng)閉環(huán)及其道德代理人
不僅如此,如果按照“自主武器系統(tǒng)是一個(gè)邏輯算法框架”的基本判斷,當(dāng)一個(gè)完美的邏輯算法框架被建構(gòu)出來時(shí),LAWS在理論上就會(huì)成為一個(gè)完美的、永不犯錯(cuò)的任務(wù)執(zhí)行者。那么這里可能會(huì)出現(xiàn)一個(gè)非常吊詭的現(xiàn)象,一個(gè)永不犯錯(cuò)的、完美的任務(wù)執(zhí)行者最終會(huì)做出一個(gè)令人指責(zé)的道德行為。熟悉“把槍口向上一厘米”[5]真實(shí)案件情況的人可能會(huì)更容易理解這種吊詭。一個(gè)完全嚴(yán)格聽從命令的邊境衛(wèi)兵依據(jù)國(guó)家相關(guān)法律指引而開槍射殺了一名正在試圖翻墻非法越境的平民,事后我們應(yīng)該如何審判這名士兵呢?
如今的道德難題只不過是將這名完全遵照國(guó)家法律指令的衛(wèi)兵置換成了完全依據(jù)程式指令的LAWS。如果LAWS能夠完美地識(shí)別越境者與意外闖進(jìn)邊界線的其他平民,這里面不存在任何誤殺行為的可能性,那么某種意義上講,LAWS甚至是比邊境衛(wèi)兵更具執(zhí)行力和精準(zhǔn)射擊力的“戰(zhàn)士”。當(dāng)一個(gè)錯(cuò)誤的行為結(jié)果確實(shí)發(fā)生,而作為任務(wù)執(zhí)行者的LAWS在指令接收和整個(gè)任務(wù)行動(dòng)過程中又沒有任何過錯(cuò),那么錯(cuò)誤的根源就應(yīng)該從行為開始的地方向前追溯,而非僅指向行為發(fā)生之后的LAWS去追討道德責(zé)任問題。在LAWS的應(yīng)用中,人是否真的被排除在了軍事行動(dòng)閉環(huán)之外呢?如果LAWS仍然只是指令的執(zhí)行者,那么無論這些指令在邏輯上有多么完美,在設(shè)計(jì)上多么精妙,值得反復(fù)去討論的可能就不是在一個(gè)行動(dòng)“閉環(huán)”中人的道德主體地位的喪失,而是要求我們對(duì)所謂“閉環(huán)”的范圍和路徑重新做出審視和定義。那就是,我們應(yīng)該在一個(gè)可以容納與LAWS有關(guān)的所有道德主體——計(jì)劃部署LAWS的國(guó)家、參與研發(fā)的科學(xué)家、程序員以及啟動(dòng)具體指令有關(guān)的研發(fā)、應(yīng)用群體及政治實(shí)體提出道德責(zé)任上的要求。而我們要做的則是為這種觀點(diǎn)提出足夠全面充分的論證和說明,以便為相關(guān)國(guó)際法準(zhǔn)則的制定、糾正、增補(bǔ)做出理論參考依據(jù)。
現(xiàn)在,我們必須沿著這個(gè)方向朝著一個(gè)更加棘手的倫理難題繼續(xù)深入下去,即以LAWS為代表的強(qiáng)人工智能當(dāng)下面臨的最現(xiàn)實(shí)的道德困境:“非道德的機(jī)器”與“不道德的人”結(jié)合而可能催生的時(shí)代性倫理難題——基于“技術(shù)野蠻”的寡頭恐怖主義。
三、“非道德的強(qiáng)人工智能”與“不道德的人”:“寡頭恐怖主義”的倫理難題
正如前面我們所糾正的邏輯謬誤,如果說道德代理人的“責(zé)任鴻溝”難題不能成為否定強(qiáng)人工智能設(shè)備道德合法性的依據(jù);那么同樣,道德責(zé)任承擔(dān)者的識(shí)別及其道德職責(zé)的明確也不能成為強(qiáng)人工智能設(shè)備被任意使用的充分條件。正如前文的邏輯反詰,關(guān)于LAWS的使用,如果有著十分明確的道德代理人且他(他們)愿意為此承擔(dān)道德后果,LAWS是否就可以被任意使用?答案當(dāng)然是否定的,因?yàn)檫@里潛藏著各種極端恐怖主義的可能??植乐髁x是軍事戰(zhàn)爭(zhēng)領(lǐng)域中“不道德(反道德)的人”的最高存在形式,從手段到目的,恐怖主義活動(dòng)都毫無正義性可言——“漫無目的地殺害無辜者是恐怖主義活動(dòng)的關(guān)鍵特征”,而“摧毀平民的精神”則是其主要目的[1]??植乐髁x根源性的惡在于它從根本上否認(rèn)了“人之為人”的生命尊嚴(yán)與生存價(jià)值。由于恐怖主義無差別殺戮從根本上消解了“人是目的”的最高設(shè)定,所以其行為是對(duì)生命沒有任何敬畏感和道德感的為所欲為,“恐怖主義嚴(yán)重破壞了戰(zhàn)爭(zhēng)規(guī)約和政治法則。它突破了所有的道德限制,以至于根本就不再有限制”[2]。作為一種不具有任何道德限制的極端存在,在恐怖主義的行動(dòng)中,我們就可以看到幾乎所有挑戰(zhàn)人類文明底線的、最為暴力、血腥和殘忍的作惡形式:壓迫、肉體摧殘與毀滅、集體屠殺等。
1.去責(zé)任化的戰(zhàn)爭(zhēng)與“不道德的人”的誕生
雖然從邏輯上講,關(guān)于“不道德的人”的難題是先于智能戰(zhàn)爭(zhēng)形態(tài)的范式轉(zhuǎn)變而存在于軍事、戰(zhàn)爭(zhēng)領(lǐng)域的,但無法否認(rèn)的一個(gè)事實(shí)是LAWS“非道德”的存在形式,加上其無人化、自主性和穩(wěn)定精確性的強(qiáng)大功能的確帶來關(guān)于“不道德的人”的新倫理難題。
首先,LAWS的“非道德”性特征意味著它無法對(duì)其任務(wù)指令作出關(guān)于對(duì)與錯(cuò)的道德判斷,自然也就不會(huì)拒絕錯(cuò)誤的道德指令;其次,它的穩(wěn)定性和精確性大大增加了軍事行動(dòng)成功的可能性;最后,這種無人化的作戰(zhàn)方式使得責(zé)任代理人除了“道德名聲”以外幾乎不需要付出任何實(shí)質(zhì)上的“道德成本”。如果說傳統(tǒng)恐怖分子在實(shí)施恐怖行為時(shí)理論上還存在著良知發(fā)現(xiàn)、畏懼死亡、操作失敗等各種可能性,那么LAWS則更像一個(gè)沒有任何道德情感、冷靜、高效的“死士”,果斷而堅(jiān)決地朝著既定目標(biāo)進(jìn)行攻擊。從某種意義上講,技術(shù)手段上的純熟和道德成本的降低可能意味著“漫無目的地殺人”會(huì)變得更加容易。而更令人擔(dān)憂的是在一種技術(shù)外衣的包裹和政治目的的道德美化下,這種“不道德的人”會(huì)以一種更加隱蔽的方式出現(xiàn)而讓人難以鑒別。因此,盡管可能有人聲稱愿意對(duì)LAWS的可能性后果負(fù)責(zé),我們還必須要去謹(jǐn)慎地考慮和判斷LAWS被使用的政治意圖和道德目的究竟是什么?責(zé)任代理人之間的道德責(zé)任劃分和承擔(dān)是否合理?其所針對(duì)和打擊的軍事行動(dòng)目標(biāo)是否恪守戰(zhàn)爭(zhēng)法則中群體識(shí)別的道德意義?道德代理人憑一己之力是否可以承擔(dān)得起全部的道德責(zé)任?這就像那些采用一種自殺式恐怖襲擊的人,即便他們從表面上看起來已經(jīng)用一種最高的“責(zé)任形式”——以自己的生命為代價(jià)——來宣稱對(duì)自己的行為“負(fù)責(zé)”,但這種無差別傷害生命的行徑仍然不會(huì)獲得任何道德合法性辯護(hù);人們也不會(huì)接受此類行徑僅僅屬于個(gè)人行為范疇的辯解,而常常將行為后果的清算與其背后相關(guān)的政治組織相聯(lián)系。
因此,我們要時(shí)刻對(duì)“不道德的人”保持一種清醒,同時(shí)也要深刻意識(shí)到在廣泛的道德領(lǐng)域,特別是在軍事領(lǐng)域和戰(zhàn)爭(zhēng)領(lǐng)域,總有一些道德行為的后果是任何代理人都沒有能力也沒有資格能放言承擔(dān)的,當(dāng)然也沒有任何一種戰(zhàn)后正義的方式可以進(jìn)行等價(jià)交換、賠償或補(bǔ)救。從這個(gè)角度來看,以LAWS為代表的強(qiáng)人工智能設(shè)備的應(yīng)用不僅沒有削弱人的道德主體地位,反而對(duì)其道德代理人提出更高的道德能力和倫理敏感性要求。當(dāng)操縱、剝奪他人生命不再需要付出任何代價(jià),且在獲取手段上變得日益簡(jiǎn)單可行時(shí),我們就必須嚴(yán)防死守人類靈魂最深處的、隨時(shí)蠢蠢欲動(dòng)的、處于作惡待發(fā)點(diǎn)邊緣的那些權(quán)力、欲望及野心。我們呼吁和主張針對(duì)參與包括LAWS在內(nèi)的強(qiáng)人工智能設(shè)備研發(fā)的個(gè)體建立起一種更加清晰嚴(yán)格的道德評(píng)估、監(jiān)測(cè)及責(zé)任懲罰的倫理和行為規(guī)范約束體系。
2.“技術(shù)野蠻+道德推諉”:新型恐怖主義誕生的可能
有學(xué)者認(rèn)為現(xiàn)階段信息化戰(zhàn)爭(zhēng)的特征主要呈現(xiàn)為體系化對(duì)抗,這也是未來的趨勢(shì)??雌饋硪环N智能化作戰(zhàn)體系的建立與實(shí)施所需要的資金投入、技術(shù)支持、體制結(jié)構(gòu)、機(jī)制流程保障等所需要的投入較大,但隨著高技術(shù)人才不斷向寡頭企業(yè)集聚,全球有高新技術(shù)企業(yè)已經(jīng)具備了建立這種智能化作戰(zhàn)體系的能力,而且此類組織的數(shù)量呈增長(zhǎng)趨勢(shì)。也就是說,擁有智能程度更高作戰(zhàn)體系的組織有可能會(huì)掌握未來戰(zhàn)爭(zhēng)的主動(dòng)權(quán),從而也就更加具有未來軍事部署的戰(zhàn)略性優(yōu)勢(shì)和更多的國(guó)際話語權(quán)力。因此,以先進(jìn)技術(shù)為包裝的外衣下潛藏的“寡頭恐怖主義”只要可能,就必須納入倫理約束機(jī)制的理論視野和討論范圍當(dāng)中。
當(dāng)然,技術(shù)至善是我們的最高道德理想。如果人類文明的發(fā)展可以讓其進(jìn)入一種“自由人聯(lián)合體”的理想社會(huì)形態(tài)當(dāng)中,那么戰(zhàn)爭(zhēng)也就在自我消解中實(shí)現(xiàn)了最高正義,整個(gè)人類社會(huì)內(nèi)部、人類社會(huì)與自然界都呈現(xiàn)出一種和諧共生的理想生命狀態(tài)。但是縱觀人類歷史,人類社會(huì)的發(fā)展歷史實(shí)際上是一直與戰(zhàn)爭(zhēng)相伴的,從遠(yuǎn)古時(shí)代的徒手戰(zhàn)爭(zhēng),到農(nóng)業(yè)社會(huì)的冷兵器戰(zhàn)爭(zhēng),到工業(yè)社會(huì)的熱兵器戰(zhàn)爭(zhēng)、機(jī)械戰(zhàn)、信息戰(zhàn),再到如今智能化程度更高、博弈性更強(qiáng)、功能更豐富、作戰(zhàn)效果更佳的強(qiáng)人工智能戰(zhàn)爭(zhēng)?;谶@樣的現(xiàn)實(shí)考量,軍事技術(shù)毫無疑問地將會(huì)成為影響或者顛覆未來國(guó)際秩序的一種重要手段。而通過技術(shù)制衡來達(dá)到國(guó)際關(guān)系的動(dòng)態(tài)平衡與和平狀態(tài)則是人類社會(huì)在可預(yù)見的時(shí)間范圍內(nèi)的一種相對(duì)理想狀態(tài)。而LAWS的無限制研發(fā)和使用的最糟糕結(jié)局莫過于一種依托LAWS實(shí)現(xiàn)技術(shù)制霸,從而衍生出一種寡頭恐怖主義新形態(tài)。
試想如果寡頭組織和某種國(guó)家形式結(jié)合,將自己的開戰(zhàn)權(quán)與LAWS的自主攻擊性結(jié)合起來,那么一種被寡頭組織和某種國(guó)家形式所支持和默許的機(jī)器暗殺與一種“絕對(duì)不對(duì)稱”的戰(zhàn)爭(zhēng)技術(shù)之把控的現(xiàn)實(shí)環(huán)境相結(jié)合就讓國(guó)家層面的“道德腐敗”有了可滋生的土壤。一個(gè)國(guó)家必須只為其正義而戰(zhàn),有發(fā)動(dòng)戰(zhàn)爭(zhēng)的正確理由是不夠的,發(fā)動(dòng)戰(zhàn)爭(zhēng)背后的實(shí)際動(dòng)機(jī)還必須在道德上是適當(dāng)?shù)?。唯一允許的正確意圖是看到訴諸戰(zhàn)爭(zhēng)的正當(dāng)理由得到鞏固和深化。這種“戰(zhàn)爭(zhēng)和政治的總體性”恐怖主義的現(xiàn)代性表現(xiàn)形式[1]就會(huì)以一種更加具體的、基于“技術(shù)野蠻”的寡頭恐怖主義形式呈現(xiàn)出來。
當(dāng)今世界大國(guó)之間的相互制衡已經(jīng)促成了相對(duì)穩(wěn)定的國(guó)際秩序。但是,“非道德”LAWS研發(fā)和使用則對(duì)國(guó)際社會(huì)提出了更高的道德要求。我們不能將全部希望都寄托于寡頭組織及其潛在的、有可能與某種國(guó)家形式結(jié)合的新形態(tài)有足夠的審慎公正的理性能力和友好共情的情感能力,在LAWS研發(fā)與使用上實(shí)現(xiàn)一種完全合乎國(guó)際正義要求的道德自治,而更期冀于一套具有權(quán)威性的、行之有效的約束機(jī)制能夠盡快建立完善。
四、結(jié)語
近來,以ChatGPT為代表的通用人工智能引發(fā)了廣泛關(guān)注,特別是其語言理解能力和表達(dá)生成能力在得到廣泛贊譽(yù)的同時(shí),也給學(xué)術(shù)界和業(yè)界帶來了“倫理惶恐”。如果說人類對(duì)于強(qiáng)人工智能設(shè)備的研發(fā)和廣泛應(yīng)用應(yīng)該保持一種“倫理上的謹(jǐn)慎”,那么對(duì)于包括軍事機(jī)器人在內(nèi)的可能對(duì)人類“非道德”的強(qiáng)人工智能設(shè)備的倫理態(tài)度則應(yīng)該慎之又慎。未來,強(qiáng)人工智能的深度發(fā)展甚至超人工智能的出現(xiàn)將不斷挑戰(zhàn)人類道德決策中心地位,這在傳統(tǒng)的人文主義倫理觀中幾乎無法找到答案。而從人類社會(huì)發(fā)展來看,技術(shù)上所謂的“道德中立”在與權(quán)力、資本和欲望的角力中是否能夠得以保持,戰(zhàn)爭(zhēng)形態(tài)的智能化對(duì)國(guó)際秩序重構(gòu)將產(chǎn)生怎樣的實(shí)質(zhì)性影響等問題也都深刻地困擾著當(dāng)代學(xué)者。
基于對(duì)LAWS所引發(fā)的倫理問題的思考以及以ChatGPT為代表的新技術(shù)的橫空出世,在不久的將來,技術(shù)裹挾下的各種新型強(qiáng)人工智能設(shè)備將會(huì)不斷出現(xiàn),這是倫理學(xué)界必須去面對(duì)的一個(gè)時(shí)代性命題。我們要從智能化軍事武器的發(fā)展,特別是致命性自主武器系統(tǒng)的研發(fā)和應(yīng)用出發(fā),并從ChatGPT的出現(xiàn),去持續(xù)研究強(qiáng)人工智能時(shí)代人類社會(huì)智力、政治、技術(shù)與人性之間的角逐與較量,其中所涉及的最為根本的道德正當(dāng)性問題及其可能會(huì)對(duì)人類社會(huì)構(gòu)成最大的倫理挑戰(zhàn)和威脅則是當(dāng)代倫理學(xué)家必須要做出審視、思考并予以回應(yīng)的話題。但倫理學(xué)家的使命不僅僅要從現(xiàn)有的倫理困境中去解釋和評(píng)價(jià)它,更需要基于倫理至善的基本價(jià)值立場(chǎng),以一種歷史發(fā)展的哲學(xué)眼光從人類未來發(fā)展的可能性方向去審視和預(yù)判它可能會(huì)對(duì)人類社會(huì)造成的道德威脅和倫理挑戰(zhàn),以提前做出預(yù)防性倫理約束機(jī)制和道德限制原則,避免人類社會(huì)被技術(shù)“反噬”而走向萬劫不復(fù)的深淵。
〔責(zé)任編輯:吳玲〕
本文為國(guó)家社會(huì)科學(xué)基金項(xiàng)目“戰(zhàn)爭(zhēng)形態(tài)智能化的倫理約束機(jī)制研究”(20CZX057)的階段性成果。
[1]J. R. Searle, "Minds, Brains, and Programs", Behavioraland Brain Sciences, 1980, 3(3) , pp.417-457.
[2]王彥雨:《“強(qiáng)人工智能”爭(zhēng)論過程中的“態(tài)度轉(zhuǎn)換”現(xiàn)象研究》,《科學(xué)技術(shù)哲學(xué)研究》2020年第6期。
[1]目前已經(jīng)部署并投入使用的自主武器系統(tǒng)主要有:美國(guó)“宙斯盾”巡洋艦的“方陣”系統(tǒng),它能自動(dòng)發(fā)現(xiàn)、跟蹤和打擊反艦導(dǎo)彈以及飛機(jī)等防空作戰(zhàn)威脅;以色列的“哈比”系統(tǒng),主要用來探測(cè)、攻擊并摧毀雷達(dá)發(fā)射器;英國(guó)“雷神”噴氣式無人戰(zhàn)斗機(jī),可以自主地對(duì)敵人進(jìn)行搜索、識(shí)別和定位,但只有在得到任務(wù)指揮官授權(quán)時(shí)才能攻擊目標(biāo)。同時(shí),美國(guó)在2019年對(duì)伊朗革命衛(wèi)隊(duì)圣城旅指揮官蘇萊曼尼的“斬首行動(dòng)”中,已經(jīng)啟用了高度智能化的、能夠自動(dòng)搜尋鑒別目標(biāo)并發(fā)起攻擊的軍事武器系統(tǒng)——“MQ-9掠食者無人機(jī)+地獄火導(dǎo)彈系統(tǒng)”,直接對(duì)蘇萊曼尼實(shí)施了精準(zhǔn)射殺(美國(guó)稱之為“定點(diǎn)清除”)。
[2]王彥雨:《“強(qiáng)人工智能”爭(zhēng)論過程中的“態(tài)度轉(zhuǎn)換”現(xiàn)象研究》,《科學(xué)技術(shù)哲學(xué)研究》2020年第6期。
[3]董青嶺:《新戰(zhàn)爭(zhēng)倫理:規(guī)范和約束致命性自主武器系統(tǒng)》,《國(guó)際觀察》2018年第4期。
[4]G. P. Noone, D. C. Noone, "The Debate over Autonomous Weapons Systems", InCase Western Reserve Journal of International Law, 2015, 47(1), p.28.
[5]A. Matthias, "The Responsibility Gap", Ethics and Information Technology, 2004 (6-3), pp.175-183.
[6]邁克爾·沃爾澤:《正義與非正義戰(zhàn)爭(zhēng)》,任輝獻(xiàn)譯,社會(huì)科學(xué)文獻(xiàn)出版社2015年版,第261頁(yè)。
[1]R. Sparrow, "Killer Robots", Journal of Applied Philosophy, 2007, 24(1), pp.62-77.
[2]D. Purves, R. Jenkins, B. J. Strawser, "Autonomous Machines, Moral Judgment, and Acting for the Right Reasons", Ethic Theory Moral Practice, 2015, 18(4), pp.851-872.
[3]現(xiàn)在人們所談?wù)摰腖AWS,常常是指具有殺傷力和致命性的自主機(jī)器人系統(tǒng),甚至有學(xué)者預(yù)測(cè),LAWS有朝一日有能力“自行”做出針對(duì)人類生存和死亡的決定。
[4]Ethics Guidelines for Trustworthy AI. URL=http://ec.europa.eu/futurium/ai-alliance-consultation/guidelines.
[1]田海平、鄭春林:《人工智能時(shí)代的道德:讓算法遵循“善法”》,《東南大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2019年第5期。
[2]D. Purves, R. Jenkins, B. J. Strawser, "Autonomous Machines, Moral Judgment, and Acting for the Right Reasons", Ethic Theory Moral Practice, 2015, 18, pp.851-872.
[3]鮑勃·沃克(Bob·Work)致力于人機(jī)協(xié)同和致命性自主武器的研發(fā),他也是推動(dòng)美國(guó)國(guó)防部機(jī)器人領(lǐng)域發(fā)展的領(lǐng)軍人物。
[4]保羅·沙瑞爾:《無人軍隊(duì)——自主武器與未來戰(zhàn)爭(zhēng)》,朱啟超等譯,世界知識(shí)出版社2019年版,第104頁(yè)。
[5][6]董青嶺:《新戰(zhàn)爭(zhēng)倫理:規(guī)范和約束致命性自主武器系統(tǒng)》,《國(guó)際觀察》2018年第4期。
[7]戰(zhàn)爭(zhēng)的正義問題也是一個(gè)極具爭(zhēng)議的問題。從“人是目的”的最高價(jià)值設(shè)定來說,戰(zhàn)爭(zhēng)的正義不具備天然的道德合法性,它必然以犧牲生命為代價(jià),其正義性來源于對(duì)非正義方的辨別。戰(zhàn)爭(zhēng)正義問題的開端,既是反對(duì)和平主義,也是反對(duì)侵略和征服的。因此,無論是在一個(gè)和平主義者、軍國(guó)主義者,還是在一個(gè)馬基雅維利主義者那里,戰(zhàn)爭(zhēng)的正義問題或許都是無解的。
[8]參見《公民權(quán)利與政治權(quán)利國(guó)際公約》第6條第(1)款的規(guī)定。
[9]邁克爾·沃爾澤:《正義與非正義戰(zhàn)爭(zhēng)》,任輝獻(xiàn)譯,社會(huì)科學(xué)文獻(xiàn)出版社2015年版,第2頁(yè)。
[1]在某種程度上,LAWS的倫理之“善”的確可以得到解釋,比如它的無人作戰(zhàn)化和目標(biāo)精準(zhǔn)性可以減少雙方士兵不必要的傷亡,同時(shí)也能避免對(duì)平民和非軍事區(qū)造成不必要的傷害等。
[1]R. Sparrow, "Killer Robots", Journal of Applied Philosophy, 2007, 24(1), pp.62-77.
[2]甘紹平:《自由倫理學(xué)》,貴州大學(xué)出版社2020年版,第255—256頁(yè)。
[3]董青嶺:《新戰(zhàn)爭(zhēng)倫理:規(guī)范和約束致命性自主武器系統(tǒng)》,《國(guó)際觀察》2018年第4期。
[4]J. McDowell, "Virtue and Reason", The Monist, 1979, 62(3), pp.331-350.
[1]J. McDowell, "Virtue and Reason", The Monist, 1979, 62(3), pp.331-350.
[2]在一些論證細(xì)節(jié)上,關(guān)于反思平衡、道德情感、道德直覺等術(shù)語,不同的學(xué)者有不同的理解方式,比如羅爾斯話語體系下的“反思平衡”是理性與情感的綜合運(yùn)用,而有一些學(xué)者則認(rèn)為反思平衡是各種理性思維的結(jié)果,它與道德情感(直覺)是并列的關(guān)系;再如有學(xué)者認(rèn)為道德情感與直覺不同,一種廣泛的反思平衡已經(jīng)包括了一般道德規(guī)則與道德理性、道德情感和道德直覺的平衡,因此道德判斷就是一種反思平衡的結(jié)果。而在一些具體的觀點(diǎn)上,不同的學(xué)者也有不同的看法,比如有學(xué)者同意一般道德原則的規(guī)范性,但是主張要與具體環(huán)境、道德情感、道德直覺相結(jié)合做出道德判斷;而有的學(xué)者則從根本上就反對(duì)道德一般性原則的存在,甚至將其看作是一種妨礙,等等。
[3]甘紹平:《自由倫理學(xué)》,貴州大學(xué)出版社2020年版,第255—256頁(yè)。
[4]J. Griffin, "How We Do Ethics Now", Royal Institute of Philosophy Supplement,1993,35, pp.159-177; Van den Hoven J.,"Computer Ethics and Moral Methodology", Metaphilosophy, 1997, 28(3), pp.234-248.
[5]案件的大致情形可參見柯嵐:《拉德布魯赫公式的意義及其在二戰(zhàn)后德國(guó)司法中的運(yùn)用》,《華東政法大學(xué)學(xué)報(bào)》2009年第4期。這里實(shí)際上涉及“良知”與“惡法”、“服從”與“正義”、國(guó)際法與國(guó)家法的沖突等一種非常復(fù)雜的道德情景。
[1][2]邁克爾·沃爾澤:《正義與非正義戰(zhàn)爭(zhēng)》,任輝獻(xiàn)譯,社會(huì)科學(xué)文獻(xiàn)出版社2015年版,第180—181頁(yè),第186頁(yè)。
[1]邁克爾·沃爾澤:《正義與非正義戰(zhàn)爭(zhēng)》,任輝獻(xiàn)譯,社會(huì)科學(xué)文獻(xiàn)出版社2015年版,第186頁(yè)。