陳 聰
2016年6月,美國辛辛那提大學(xué)研發(fā)的人工智能系統(tǒng)阿爾法駕駛?cè)鷻CF-15,在模擬戰(zhàn)斗中擊敗了具有20多年飛行經(jīng)驗的美空軍上?;鳌だ铖{駛的四代機F-22。2017年11月,在日內(nèi)瓦舉辦的聯(lián)合國特定常規(guī)武器公約會議上,美國伯克利大學(xué)教授羅塞爾通過一段視頻展示了未來的概念武器“殺人蜂”。視頻中,一群外形類似蜜蜂的微型智能機器人,通過人臉定位鎖定目標(biāo),繼而引爆攜帶的炸藥進(jìn)行定點攻擊,瞬間殺死了教室里一群正在上課的學(xué)生。智能的軍事應(yīng)用已經(jīng)不只是停留在實驗室里,美國海軍開發(fā)的X-47B能夠?qū)崿F(xiàn)自主在航空母艦上起飛和降落,引起人們高度關(guān)注。在人工智能快速發(fā)展大潮中,軍事智能正成為一個專門領(lǐng)域,強勢推動武器裝備的發(fā)展演變。
未來戰(zhàn)場,既是能量和力量的比拼,更是科技與智能的較量。自美軍提出第三次“抵消戰(zhàn)略”以來,一直將智能技術(shù)作為其軍事上的優(yōu)先發(fā)展方向。當(dāng)前,隨著人工智能不斷取得技術(shù)突破,各類功能的機器人士兵已經(jīng)逐漸走上戰(zhàn)爭舞臺,成為現(xiàn)代軍事博弈中的重要力量。在遙控武器和自動武器的基礎(chǔ)上,能夠自主決策的智能武器近年來在敘利亞等戰(zhàn)場上已得到應(yīng)用。與普通武器相比,智能武器配置了傳感器和控制器,通過人工智能決策的介入,在運行過程中無須外界人為信息輸入和控制,就可以獨立自主地完成特定軍事任務(wù)。智能武器具有指揮高效化、打擊精確化、操作自動化、行為智能化等特點,有著傳統(tǒng)武器所無法比擬的軍事優(yōu)勢。它不但可以自主尋找、辨別需要打擊的目標(biāo),還具有識別和判斷戰(zhàn)場環(huán)境變化的能力,大大縮短了“偵察—判斷—決策—行動”的作戰(zhàn)回路,可以說是一種“會思考”的武器系統(tǒng)。這不但有利于節(jié)約軍事活動中的人力成本,減少生命損失,而且能夠降低作戰(zhàn)中戰(zhàn)斗員對高速信號的依賴,縮小傳輸過程中可能產(chǎn)生的誤傳風(fēng)險,能夠更及時地應(yīng)對變幻莫測的戰(zhàn)場局勢。智能武器在軍事領(lǐng)域的廣泛應(yīng)用,不但改變了傳統(tǒng)的戰(zhàn)爭模式和作戰(zhàn)樣式,也對現(xiàn)代戰(zhàn)爭中的倫理法律原則直接帶來了深層次的沖擊。
為了協(xié)調(diào)武裝沖突中“軍事需要”和“人道要求”的矛盾,現(xiàn)代國際法形成了一系列規(guī)范武力使用的規(guī)則,如區(qū)分平民與戰(zhàn)斗員、禁止攻擊失去作戰(zhàn)能力的人、禁止造成不必要傷害、軍事必要和相稱性原則等。這些規(guī)則對作戰(zhàn)中的戰(zhàn)斗員及其使用的武器裝備皆有明確規(guī)制,盡可能減少武裝沖突的殘酷性,防止武力使用的失范行為。但是,當(dāng)前武裝沖突法律規(guī)范的框架和具體規(guī)則基本是以人類戰(zhàn)斗員操作武器為標(biāo)準(zhǔn)來設(shè)計的,并未充分考慮武器也有可能具有自主決策能力。智能武器具有高度自主的特點,這一點是其與傳統(tǒng)武器的最大差別。在引入軍事智能技術(shù)之前,武器具有鮮明的工具性特征,它依賴于人的操作和控制,不會完全自主地尋找、鎖定、瞄準(zhǔn)并處理目標(biāo)。即便是較為先進(jìn)的自動武器,也主要是基于預(yù)先設(shè)定特定范式的計算機程序而作出模式化行為,不會自主決策,本質(zhì)上還是遵循人類的預(yù)設(shè)。但是,依賴于成熟的人工智能技術(shù),智能武器具有了自主決策能力,進(jìn)入戰(zhàn)場能夠根據(jù)具體情勢獨立運作,在挑選目標(biāo)和使用殺傷力時具有了自主性。特別是隨著軍事科技的大幅躍進(jìn),智能武器的智能化程度會越來越高,通過模仿人類神經(jīng)元之間的信息傳遞功能,建立人工神經(jīng)元網(wǎng)絡(luò)結(jié)構(gòu),利用計算機模擬人類的認(rèn)知過程和決策過程,可以像人類一樣觀察、學(xué)習(xí)、組織語言、處理數(shù)據(jù)、得出結(jié)論。當(dāng)前部分領(lǐng)域里,人工智能的思維能力甚至可以達(dá)到或者超過人腦。智能武器的這種高度類人化的趨勢,使其與包括自動武器在內(nèi)的傳統(tǒng)武器產(chǎn)生了顯著差異。當(dāng)然我們也需要看到,智能武器又僅僅是“類人”,不是真正的人類戰(zhàn)士,在國際法上尚不具備戰(zhàn)斗員的法律身份,仍然屬于武器的范疇。
智能武器的行為選擇具有“致命決策去人類化”的特點,這對傳統(tǒng)的軍事行動合法性的判斷帶來了根本性的挑戰(zhàn)。智能化的關(guān)鍵在于機器模仿人的智力活動的技術(shù)的發(fā)展與運用,通過智能的模擬生成,使原本需要人的智能完成的一些工作由機器替代從事。智能武器雖然能模仿人類進(jìn)行思考和決策,但行為選擇在本質(zhì)上還是智能化系統(tǒng)通過復(fù)雜精密的運算進(jìn)行行動選擇,其決策的核心是智能運算。這使得其行為受到算法和數(shù)據(jù)的雙重制約,一旦數(shù)據(jù)出錯或者算法遭到敵方攻擊,智能武器甚至可能作出十分荒謬的決策。特別是在軍事領(lǐng)域中,智能的應(yīng)用具有智能環(huán)境的復(fù)雜性、博弈的強對抗性、響應(yīng)的高實時性、信息的不完整性、規(guī)則的不確定性等特點,這使得其所面臨的問題和挑戰(zhàn)比民用領(lǐng)域要多得多。在實戰(zhàn)中,美軍的“利劍”地面機器人就曾經(jīng)出現(xiàn)下列極端情況:三臺“利劍”機器人在進(jìn)攻一個據(jù)點時,由于軟件缺陷,其中一臺機器人竟把槍口瞄準(zhǔn)了該機器人的操作者,操作者對其發(fā)出“行動取消”的指令,失控的機器人仍然停不下來,后來美軍只能用火箭筒將其摧毀。此外,在智能武器作出行為選擇的過程中,其運作過程以軟件和代碼為主,本質(zhì)上看還是數(shù)據(jù)處理,這一過程本身無法真正產(chǎn)生內(nèi)在的尊重生命的人道觀念。雖然智能化可以大大提高軍事打擊的精度,避免戰(zhàn)爭中對平民和非軍事目標(biāo)的附帶損害。但是,將這類武器投入戰(zhàn)場,一定程度上是把人類的人道主義關(guān)切交由系統(tǒng)和軟件來判斷。在戰(zhàn)場復(fù)雜多變的環(huán)境下,不但軍事目標(biāo)與民用目標(biāo)難以區(qū)分,而且軍事需要與附帶損害的程度也是很難權(quán)衡的,加之智能武器具有犯錯和被控制的可能性,很可能會帶來人道主義危機。因此,把判斷權(quán)和開火權(quán)交給機器人,必然對當(dāng)前武裝沖突規(guī)則和國際人道法帶來了新的挑戰(zhàn)。
從根本上講,智能武器是為武器安裝上了“類腦”器官,改變了人與裝備的傳統(tǒng)結(jié)合方式,最終激發(fā)了作戰(zhàn)能力和體系效能的質(zhì)變。因此,智能武器區(qū)別于傳統(tǒng)武器的最大變數(shù)就在于人工智能帶來的自主能力,這既是智能武器在各方面能夠表現(xiàn)良好的優(yōu)勢所在,同時也是帶來不確定性的致命隱患所在。為了克服人工智能缺乏道德約束的倫理缺陷,向人工智能程序灌輸一些道德規(guī)則成為一種選擇。早在上個世紀(jì)中葉的一部科幻小說《轉(zhuǎn)圈圈》中,作者阿西莫夫就產(chǎn)生了在機器人內(nèi)部嵌入“機器倫理調(diào)節(jié)器”的假想,以這種方式讓機器人服從人類賦予的道德律令。他提出了按優(yōu)先順序排列的機器人三定律:定律一,機器人不得傷害人類或坐視人類受到傷害;定律二,在與定律一不相沖突的情況下,機器人必須服從人類的命令;定律三,在不違背定律一與定律二的前提下,機器人有自我保護的義務(wù)。后來,為了克服第一定律的局限性,他還提出了優(yōu)先級更高的定律:機器人不得危害人類整體或坐視人類整體受到危害。阿西莫夫提出的構(gòu)想,其實就是一種“道德準(zhǔn)則嵌入”的倫理嘗試,視圖通過這種方式將人工智能體構(gòu)造為人工倫理智能體。阿西莫夫的定律簡單而凝練,但實際可操作性卻很有限。在阿西莫夫的啟發(fā)下,學(xué)界對“道德準(zhǔn)則嵌入”進(jìn)行了一些探索。比如,費大吉對阿西莫夫的機器人定律作了一些分解,提出了一種區(qū)分倫理類別的分類方案;萊布尼茨提出了建立一種普遍的道德微積分的設(shè)想;霍納瓦主張用類似案例推理的機制來訓(xùn)練人工神經(jīng)網(wǎng)絡(luò),建立道德上可接受的理論框架。這些設(shè)想比阿西莫夫的定律復(fù)雜得多,但解決“人—機”關(guān)系的基本策略是一致的,即試圖通過嵌入道德準(zhǔn)則的方式控制機器的智能。
對智能武器來說,其所面臨的主要國際法障礙就是攻擊行為的人道主義考量問題。國際法禁止不以特定的軍事目標(biāo)為對象的攻擊,禁止無區(qū)別地打擊軍事目標(biāo)和民用物體,也禁止在軍事行動中造成超過必要限度的攻擊和損害。一旦智能武器的決策與行為選擇有可能與相應(yīng)武裝沖突規(guī)則不一致,則必然面臨行動合法性的拷問。那么,在智能武器內(nèi)部嵌入符合人道主義的相關(guān)道德準(zhǔn)則,便成為一種可能的倫理嘗試。通過代碼編寫的算法,將武裝沖突規(guī)則數(shù)字化為邏輯指令,使人類所倡導(dǎo)的人道主義規(guī)范得以內(nèi)嵌于智能武器中,使其像人類戰(zhàn)斗員一樣恪守武裝沖突規(guī)范,從而具備自主倫理抉擇能力。在美國軍方的資助下,美國佐治亞理工學(xué)院的機器人專家阿金設(shè)計了一套名為“倫理管理”的算法,以確保智能武器能夠按照國際武裝沖突法執(zhí)行任務(wù)。該算法采取了倫理控制的形式化方法,用以表述結(jié)構(gòu)中基本的控制流程,然后將倫理內(nèi)容有效地與控制流程相互作用。在無人機模擬打擊的虛擬測試中,該算法能夠決定何時將允許無人機完成它的使命。這就是一種“道德準(zhǔn)則嵌入”的倫理化改造嘗試,通過程序給出清晰的非戰(zhàn)斗人員的定義,設(shè)定區(qū)別戰(zhàn)斗人員和無辜人員的運算系統(tǒng)。阿金甚至認(rèn)為,經(jīng)過倫理化改造后,由機器人與人類戰(zhàn)士所組成的混合型團隊,在行動上要比單由人類士兵組成的團隊更加有道德。
這種倫理化改造的關(guān)鍵在于,通過電腦的程序編碼系統(tǒng)性地建立智能體與人道規(guī)則間的對應(yīng)關(guān)系在技術(shù)層面上是否能夠?qū)崿F(xiàn)。也就是說,倫理化改造難以回避這樣一個基本的前提:人類的倫理原則是否是可計算的?從傳統(tǒng)意義上看,計算指的是運用事先規(guī)定的規(guī)則,將一組數(shù)值變換為另一組數(shù)值的過程。對某一類問題,如果能夠找到一組確定的規(guī)則,按照這組規(guī)則,當(dāng)給出這類問題中的任一具體問題后,就可以完全機械地在有限步內(nèi)求出結(jié)果,則可以說這類問題是可計算的。早在18世紀(jì),邊沁在《道德與立法原理導(dǎo)論》中就討論了如何估算快樂和痛苦的值的問題,他選擇采用了對強度、持續(xù)時間、確定性、鄰近或偏遠(yuǎn)、豐度、純度、廣度等關(guān)鍵要素進(jìn)行賦值的方法。如將這種賦值的方法引入智能武器的倫理設(shè)定,在技術(shù)上將表現(xiàn)為通過語義網(wǎng)絡(luò)擴增道義邏輯,形成義務(wù)與許可概念。這在本質(zhì)上就是對倫理進(jìn)行數(shù)的表達(dá),通過代碼轉(zhuǎn)換使人類的倫理變成程序化和邏輯化的機器倫理。這種邏輯設(shè)定的方式存在一個致命的缺陷,只是簡單地利用邏輯關(guān)系、因果關(guān)系來進(jìn)行形式判斷,難以在量化和計算中準(zhǔn)確和不走樣地表達(dá)與定義倫理范疇,也無法靈活應(yīng)對瞬息萬變的戰(zhàn)場帶來的不確定性,是一種僵硬的邏輯。這實際上就是“波蘭尼悖論”對人工智能發(fā)展所帶來的挑戰(zhàn),即“人類知道的永遠(yuǎn)比人類可言說的多”。我們無法用海量數(shù)據(jù)來準(zhǔn)確表達(dá)我們的善和德性。
但隨著智能技術(shù)的進(jìn)一步發(fā)展,特別是深度學(xué)習(xí)模型的應(yīng)用,智能可以通過捕捉經(jīng)驗甚至更高明的方法來學(xué)習(xí)知識,在復(fù)雜系統(tǒng)中實現(xiàn)非常接近于人類的認(rèn)知方式。這實際上超越了前述形式化的倫理設(shè)定方式,一定程度上有助于解決倫理表達(dá)的簡單化問題。比如,早在1997年“深藍(lán)”計算機戰(zhàn)勝俄羅斯棋王卡斯帕羅夫的時候,“深藍(lán)”的核心優(yōu)勢在于其內(nèi)部植入了百年來國際象棋特級大師的開局和殘局下法,它只要根據(jù)歷史棋譜進(jìn)行邏輯選擇就行了,本質(zhì)上是國際象棋特級大師的集體經(jīng)驗戰(zhàn)勝了卡斯帕羅夫。但是,在“阿爾法狗”戰(zhàn)勝李世石的棋局中,其算法并不是事先由人編寫植入系統(tǒng)的,而是智能通過不斷自主學(xué)習(xí)和研究而形成的?!鞍柗ü贰崩妹商乜逅阉鳂浞治龇▉眚炞C決策的正確程度,能夠通過捕捉“棋感直覺”的方法來下棋,還發(fā)現(xiàn)了人類沒有的圍棋著法。而戰(zhàn)勝了“阿爾法狗”的“阿爾法元”更進(jìn)一步,完全不從人類的經(jīng)驗中學(xué)習(xí),而是僅僅依靠最初的幾條圍棋基本規(guī)則,通過自我對弈的方式自我訓(xùn)練,三天自我對弈500萬盤,實現(xiàn)了圍棋著法的創(chuàng)造創(chuàng)新。技術(shù)的力量呈指數(shù)級的速度迅速增長,人工智能道德抉擇的可能性也隨之增多。美國學(xué)者瓦拉赫與艾倫為道德準(zhǔn)則的嵌入設(shè)計了三種模式:“自上而下的進(jìn)路”,以算法形式的道德準(zhǔn)則作為智能行為的指導(dǎo);“自下而上的進(jìn)路”,通過試錯法讓智能自我進(jìn)化;“混合進(jìn)路”,將倫理的預(yù)設(shè)與智能的學(xué)習(xí)進(jìn)化結(jié)合起來。將深度學(xué)習(xí)模型與智能武器的倫理化改造結(jié)合起來,完全有可能在“道德準(zhǔn)則嵌入”的精準(zhǔn)度和靈活性上實現(xiàn)突破,使智能武器樹立與人類戰(zhàn)斗員相似的人道觀念并付諸行動。
“道德準(zhǔn)則嵌入”的倫理化改造,核心在于將一些倫理規(guī)則作為絕對律令,用代碼的方式寫入人工智能體的源程序中。但這只是一種符合規(guī)范倫理學(xué)的安排,離不開置于軍事活動的開放性情境中進(jìn)行實踐倫理考量,也離不開國際法角度的合法性審視。從法律角度對倫理化智能武器進(jìn)行評價,包括武器審查法和作戰(zhàn)行為法兩個方面。武器審查法主要是從武器本身是否合法的角度進(jìn)行考量,而作戰(zhàn)行為法主要是從作戰(zhàn)手段與方法是否合法的角度進(jìn)行考量。在經(jīng)過了“道德準(zhǔn)則嵌入”的倫理化改造之后,智能武器是否具有國際法上的正當(dāng)性,首先需要從武器的合法性的角度進(jìn)行判斷。《日內(nèi)瓦第一附加議定書》第36條規(guī)定:“在研究、發(fā)展、取得或采用新的武器,作戰(zhàn)手段或方法時,締約一方有義務(wù)斷定,在某些或所有情況下,該新武器、作戰(zhàn)手段或方法,是否在某些或所有情況下,為國際法所禁止”。審查武器是否合法,是每個締約國的義務(wù)。這就需要締約國從設(shè)計、技術(shù)性能、打擊效果等角度對一種新武器進(jìn)行合法性判斷。
首先需要闡明的前提是,由于責(zé)任能力的欠缺,即便是經(jīng)過了倫理化改造的智能武器,其在現(xiàn)行國際法框架下仍然不具備戰(zhàn)斗員的法律身份。也就是說,智能武器仍然屬于武器的范疇,屬于武器審查法的規(guī)制范圍。從武器審查法的角度看,國際社會禁止不分皂白的武器,也禁止引起過分傷害或不必要痛苦性質(zhì)的武器。智能武器的要害在于自主決策,所以主要涉及禁止不分皂白的武器的問題。事實上,任何武器都有可能用來進(jìn)行不分皂白的攻擊,這是由武器的工具屬性所決定的,但并不能說任何武器都屬于不分皂白的武器。國際法禁止的是那些在性能上無法以特定軍事目標(biāo)為對象的武器,比如集束彈藥等。智能武器具有一定的自我控制與決策能力,依賴內(nèi)置程序判斷戰(zhàn)場形勢,選擇打擊目標(biāo)。這種智能化特點一方面有助于提高打擊的精度,同時客觀上也確實存在不分皂白的風(fēng)險。按照國際習(xí)慣法,不可控制和造成不可預(yù)測后果的武器是禁止的。如果一件武器的打擊效果是無法控制的,顯然是不可能符合武器審查法的。但是,當(dāng)智能武器嵌入道德準(zhǔn)則之后,蘊含著武器設(shè)計者限制其濫用武力的指令要求。這種指令要求對該武器的性能和操作產(chǎn)生根本性的影響,以使其在軍事應(yīng)用中能夠區(qū)分目標(biāo)和控制后果。因此,判斷智能武器是否能夠成為合法的武器,關(guān)鍵在于其是否能夠在進(jìn)攻時按照人類的要求區(qū)分目標(biāo)和控制后果。
在這個問題上,不同的智能武器還不能一概而論。按照控制能力和意志能力的強弱,人工智能可以分為弱人工智能與強人工智能。弱人工智能雖然可以在設(shè)計和編制的程序范圍內(nèi)進(jìn)行獨立判斷并自主作出決策,但其不具有全面的控制能力和意志能力,本質(zhì)上實現(xiàn)的是設(shè)計者或使用者的意志。比如,阿爾法狗依靠自主決策戰(zhàn)勝李世石,其自主判斷和決策是在設(shè)計和編制的程序范圍內(nèi)進(jìn)行的,實現(xiàn)的是設(shè)計者和使用者的意志,即戰(zhàn)勝對手。但是,強人工智能則不同,其具備了比較全面的控制能力和意志能力,不但可能在設(shè)計和編制的程序內(nèi)自主決策,甚至可能在人類的設(shè)定之外實現(xiàn)其自我意志。隨著智能技術(shù)的不斷發(fā)展完善和技術(shù)瓶頸突破,強人工智能產(chǎn)品并不遙遠(yuǎn)。人類對于“殺人機器人”的警惕,更多是對強人工智能自我意志和自我覺醒的警惕。對于這類強人工智能的智能武器,即便在其內(nèi)部嵌入道德準(zhǔn)則,其規(guī)制和約束作用仍然是不可靠的,存在變成殺人機器的風(fēng)險,很難通過武器合法性的審查。但是,經(jīng)過倫理化改造,弱人工智能的智能武器如果具備了充分的價值判斷能力,是可以合乎武器審查法的相關(guān)規(guī)則的。當(dāng)然,這還有待于建立更具體的技術(shù)指標(biāo)和判斷標(biāo)準(zhǔn)??梢哉f,“道德準(zhǔn)則嵌入”為智能武器成為合法的武器提供了有限可能。
通過“道德準(zhǔn)則嵌入”的倫理化改造,智能武器具備了成為合法武器的可能性。但是,一件武器是合法的,并不代表使用該武器的行為一定是合法的。在軍事實踐中,智能武器的具體行為還必須受到作戰(zhàn)行為法的規(guī)制。
使用武器的行為是否合法與武器的使用方式及戰(zhàn)場環(huán)境密切有關(guān),具體要從區(qū)分原則和比例原則兩個方面進(jìn)行判斷。這里的區(qū)分原則與比例原則,并不是對武器本身技術(shù)性能進(jìn)行的靜態(tài)的判斷,而是從現(xiàn)實的軍事實踐中考察具體行為和后果,是一種綜合判斷。與傳統(tǒng)戰(zhàn)爭中是否身著制服和公開攜帶武器這種外表判斷不同,現(xiàn)代戰(zhàn)爭中的平民和戰(zhàn)斗員的區(qū)別越來越模糊,且身份隨時有可能發(fā)生轉(zhuǎn)化。根據(jù)《國際人道法中直接參加敵對行動定義的解釋性指南》,戰(zhàn)斗員不僅要“直接參加敵對行動”,還要滿足損害下限、直接因果關(guān)系和交戰(zhàn)聯(lián)系三個構(gòu)成要素。特別是在高科技背景下,作戰(zhàn)人員的機動能力大幅度提升,且作戰(zhàn)人員常混雜于平民之中行動,高度機動與混雜的戰(zhàn)場環(huán)境,進(jìn)一步增加了作戰(zhàn)目標(biāo)的識別難度。對于這類信息不完全帶來的復(fù)雜情況,智能武器按照嵌入的道德準(zhǔn)則作出的倫理選擇,仍然是不可靠的。按照目前人工智能的發(fā)展,其機器學(xué)習(xí)過程有時往往是不可解釋和不可理解的,它的判斷就像在一個黑箱中完成,缺乏透明性。這是因為深度學(xué)習(xí)并不遵循數(shù)據(jù)輸入、特征提取、特征選擇、邏輯推理、預(yù)測的過程,而是直接從事物原始特征出發(fā),自動學(xué)習(xí)和生成高級的認(rèn)知結(jié)果。在智能體輸入的數(shù)據(jù)和其輸出的答案之間,存在著我們無法洞悉的“隱層”。所以,區(qū)分平民和戰(zhàn)斗員、民用物體和軍事目標(biāo),實踐中核心的制約瓶頸并不是智能武器的倫理觀,而是它的決策判斷能力。比例原則的遵守也是如此,戰(zhàn)場形勢瞬息萬變,直接軍事利益與附帶損失的平衡關(guān)系將會隨著戰(zhàn)線形勢的瞬間變化而有著各種可能。在判斷直接軍事利益與附帶損失的平衡性問題時,不同的指揮官可能會得出不同的結(jié)論。智能武器可以按照一定的機理作出判斷和選擇,但能否取得預(yù)期效果卻是不可知的。一旦行為失當(dāng),必然會引發(fā)國際法責(zé)任。
因此,盡管智能武器可能具有學(xué)習(xí)能力,但在這些問題上的處理方式與人類戰(zhàn)斗員還是有著巨大差異的。自然人不僅具有以合理性、可計算性、規(guī)則性、功利性、經(jīng)驗性為存在表現(xiàn)的“智性”,還具有表現(xiàn)為感情、情緒、感覺的“心性”,以及牽涉恐懼感、崇拜、生命傾向、神秘性、神圣性的“靈性”。這些特征使人類在新奇、混亂和不可預(yù)知的環(huán)境中能夠表現(xiàn)良好。也正因為此,任何復(fù)雜的戰(zhàn)場情況對于人類戰(zhàn)斗員而言,在邏輯判斷之外,是存在著開放性解決的可能的,這也是人類戰(zhàn)斗員承擔(dān)戰(zhàn)爭責(zé)任的倫理基礎(chǔ)。但對于智能武器而言,它還是不具備人類的臨機決斷、急中生智和頓悟的涌現(xiàn)能力。在其算法之外,卻難以找到這種開放性解決的可能。在進(jìn)行了“道德準(zhǔn)則嵌入”之后,能不能從康德式道德律令中推演出與人類高度類同的倫理規(guī)范和實踐理性,用以應(yīng)對軍事活動中的各類具體情境,是智能武器能否在軍事實踐中經(jīng)受作戰(zhàn)行為法審查的關(guān)鍵所在。同時,現(xiàn)階段智能武器尚不具備法律人格,也不存在承擔(dān)責(zé)任的倫理基礎(chǔ),相關(guān)法律責(zé)任只能追溯至設(shè)計者或使用者。在復(fù)雜多變的軍事對抗環(huán)境中,“道德準(zhǔn)則嵌入”并不能從根本上保證智能武器的行為必然合法。
戰(zhàn)爭是一個充滿偶然性的領(lǐng)域,是一個充滿不確定性的領(lǐng)域。國際社會通過戰(zhàn)爭規(guī)則的塑造,試圖為戰(zhàn)爭的后果及其殘酷性的控制建立起一種確定性。但是,智能武器的進(jìn)入使得傳統(tǒng)戰(zhàn)爭規(guī)則建立確定性的努力面臨新的挑戰(zhàn)。對智能武器進(jìn)行倫理化改造,關(guān)鍵在于通過“道德準(zhǔn)則嵌入”來塑造武器在規(guī)范內(nèi)的確定性。因此,針對智能武器倫理化改造存在的問題和不足,也需要在確定性的尋找上進(jìn)行努力。
第一,將智能武器倫理化改造與國際武裝沖突規(guī)則的進(jìn)化結(jié)合起來。前已論述,“道德準(zhǔn)則嵌入”的倫理化改造有助于幫助部分智能武器通過武器控制法的審查,但這并不是一個一勞永逸解決智能武器武力使用失范的終極方案。僅僅單向的“道德準(zhǔn)則嵌入”其實并不能從根本上解決智能武器面臨的法律困境,還需同時結(jié)合國際武裝沖突規(guī)則的適應(yīng)與融合。傳統(tǒng)武裝沖突規(guī)則是以人類主體對武器的操作為規(guī)制對象的,著眼的是行為與后果的因果關(guān)系,建立的是操作者主體的責(zé)任承擔(dān)機制。這些傳統(tǒng)規(guī)范很難與智能條件下的軍事行為完全對接,因而必然會產(chǎn)生新的問題。對智能武器的倫理化改造,就是試圖使新生的裝備和戰(zhàn)法盡量能夠適應(yīng)已有的法律規(guī)范。從確定性的尋找來看,智能時代呼喚與之相適應(yīng)的法律和與之相匹配的法律認(rèn)識論和法律方法論。只有通過算法、倫理、規(guī)范相互之間的適應(yīng)融合,才能塑造相對穩(wěn)定的法律關(guān)系與責(zé)任承擔(dān)機制,在智能條件下繼續(xù)維持秩序與變革、守護與創(chuàng)新、價值與事實之間的動態(tài)平衡。因此,解決智能武器的法律困境,不僅應(yīng)該包括在智能體中嵌入武裝沖突規(guī)范,也應(yīng)當(dāng)在武裝沖突規(guī)范中充分反映智能的運作機理和要素。只有將智能武器倫理化改造與國際武裝沖突規(guī)則的進(jìn)化兩相結(jié)合起來,才有可能真正解決智能武器面臨的法律困境。
第二,建立智能武器設(shè)備分級制度,根據(jù)差異化的破壞烈度與智能化程度設(shè)計其算法的倫理性。智能武器是否具有確定性的關(guān)鍵在于其算法。目前,智能領(lǐng)域主要的算法包括符號學(xué)派、聯(lián)結(jié)學(xué)派、進(jìn)化學(xué)派、貝葉斯學(xué)派與類推學(xué)派等五種主要類型。不同算法的運作原理是不一樣的,其智能化的強弱程度也相應(yīng)有所不同。人工智能的發(fā)展是一個過程,很多強人工智能目前尚處于概念階段。而弱人工智能與強人工智能在自主性上的差別是非常大的,這必須進(jìn)行區(qū)分。同時,從另外一個方面看,不同智能武器的破壞力和殺傷力也是有很大差異的。從施用武器的烈度看,包括非致命性武器、短程戰(zhàn)術(shù)性武器、長程戰(zhàn)術(shù)性武器、戰(zhàn)略性兵器等不同類別。所以在理論上,按照排列組合原理,可以出現(xiàn)不同武器類型與不同類型人工智能相互組合的方式。這些不同的組合在面臨法律審查時是完全不同的情況。比如,“弱人工智能+非致命性武器”的組合面臨的倫理和法律挑戰(zhàn)并不嚴(yán)峻,但“強人工智能+戰(zhàn)略性兵器”的組合則嚴(yán)重到幾乎不可能通過倫理化改造使之合法,是必須禁止的。因此,應(yīng)當(dāng)根據(jù)不同智能武器的破壞力與智能化程度,對其進(jìn)行武器設(shè)備分級,在此基礎(chǔ)上進(jìn)行個性化的“道德準(zhǔn)則嵌入”,這才是更具針對性的技術(shù)方案。
第三,智能武器的“道德準(zhǔn)則嵌入”不能僅局限于倫理算法的設(shè)定,而須引入人類戰(zhàn)士的倫理判斷,堅持人的主導(dǎo)作用。目前,實踐中的智能武器還沒有實現(xiàn)完全自主,在開火之前往往需要控制人員的操作。但是,隨著其自主程度的不斷提高,人類逐漸弱化對智能控制的趨勢是不變的。我們還是需要以人類戰(zhàn)士的倫理判斷彌補智能算法的不足,克服“致命決策去人類化”,以幫助智能武器取得人道主義上的正當(dāng)性。人類主體性的生物學(xué)基礎(chǔ)是“神經(jīng)”,而人工智能的主體性是通過“算法”對人類主體性的一種模仿。智能再發(fā)達(dá)再先進(jìn),終究是人類的創(chuàng)造物,其工具屬性對其法律地位有決定性的影響。當(dāng)我們把智能武器定位為一種工具時,就必然呼喚人類主體的道德責(zé)任的回歸。嵌入了道德準(zhǔn)則的智能武器,仍然還只是機器人。即便是在戰(zhàn)爭中,剝奪人的生命的選擇權(quán),也不能完全交給機器。人道觀念歸根到底還是人的觀念,人才會面臨人道觀念的拷問,而再高級的機器智能不可能真正地具有人道觀念。因此,人依然應(yīng)當(dāng)是整條作戰(zhàn)鏈的“開關(guān)”,既應(yīng)當(dāng)擁有最終決定權(quán),也應(yīng)當(dāng)擁有全程監(jiān)督權(quán)。人和智能的交互可能存在三種模式:人在環(huán)內(nèi)、人在環(huán)外、以上兩者相結(jié)合。在偵察、監(jiān)視等低烈度領(lǐng)域,人的介入程度較低是可以的。但在可能造成較嚴(yán)重后果的領(lǐng)域,應(yīng)當(dāng)盡力避免人在環(huán)外的交互模式。對于智能武器使用致命武力的決策的最終執(zhí)行,人類戰(zhàn)士應(yīng)當(dāng)能夠充分介入。這種介入既可以通過人類戰(zhàn)士確認(rèn)的方式,也可以通過系統(tǒng)的互聯(lián)、互通、互操作能力實施共同決策。在人工智能和人機融合技術(shù)不斷進(jìn)步的過程中,人類戰(zhàn)士還需要扮演監(jiān)督者角色,密切觀察智能作戰(zhàn)系統(tǒng)自主開展行動,必要時進(jìn)入作戰(zhàn)鏈進(jìn)行干預(yù),這也是一項法律義務(wù)。軍事智能可靠性和可解釋性的不足,應(yīng)當(dāng)依賴人類的理解力與控制力來加以彌補,才能避免軍事技術(shù)的異化。