李國(guó)輝,孔勐勍,岳憶晨
(山東大學(xué),山東 威海 264200)
人工智能武器化,即在現(xiàn)代及未來(lái)的武器系統(tǒng)中廣泛使用人工智能技術(shù),以實(shí)現(xiàn)武器裝備的“數(shù)智化”。當(dāng)前,人工智能化武器迅猛發(fā)展,其所具有的指揮高效、操作自動(dòng)、行為智能、打擊精準(zhǔn)等特點(diǎn),能夠自主完成偵察、搜索、識(shí)別、瞄準(zhǔn)、攻擊目標(biāo)等任務(wù),有的甚至還具有解讀自然語(yǔ)言的能力[1]。人工智能和武器系統(tǒng)愈加廣泛且深入的結(jié)合,不僅會(huì)對(duì)人類戰(zhàn)爭(zhēng)的模式產(chǎn)生重大影響,更將會(huì)給國(guó)際安全治理帶來(lái)諸多挑戰(zhàn)。本文在概述人工智能武器化應(yīng)用現(xiàn)狀的基礎(chǔ)上,著重分析人工智能技術(shù)武器化所產(chǎn)生的國(guó)際安全影響及當(dāng)前的治理機(jī)制,并嘗試探尋更為優(yōu)化的治理路徑。
美國(guó)是首個(gè)將人工智能運(yùn)用至軍事領(lǐng)域的國(guó)家,早在1972年,美軍便使用“靈巧炸彈”炸毀了越南清化大橋[2]。當(dāng)前,隨著人工智能技術(shù)的發(fā)展,主要軍事大國(guó)均已將人工智能視為顛覆性改變戰(zhàn)爭(zhēng)規(guī)則的關(guān)鍵技術(shù),紛紛投入大量資源,推進(jìn)人工智能武器的研發(fā)與應(yīng)用。
美國(guó)的人工智能武器,不管是其技術(shù)水平還是應(yīng)用規(guī)模均居世界首位。在陸軍方面,美陸軍現(xiàn)已裝備一萬(wàn)余套地面無(wú)人作戰(zhàn)平臺(tái),其中多數(shù)已在伊拉克和阿富汗戰(zhàn)場(chǎng)上投入使用[3]。2030年之前,美國(guó)陸軍計(jì)劃實(shí)現(xiàn)“有人作戰(zhàn)系統(tǒng)”與“無(wú)人作戰(zhàn)系統(tǒng)”相互連通、智能協(xié)作。在空軍方面,美國(guó)在2018年就已經(jīng)擁有8 000多個(gè)空中無(wú)人系統(tǒng),基本覆蓋了世界上現(xiàn)存的所有型號(hào)的空中無(wú)人作戰(zhàn)系統(tǒng),且仍在推進(jìn)算法戰(zhàn)、蜂群作戰(zhàn)、忠誠(chéng)僚機(jī)等項(xiàng)目的開(kāi)發(fā)[4]。2020年12月15日,美國(guó)空軍U-2偵察機(jī)裝上了人工智能系統(tǒng),這也是美國(guó)軍用飛機(jī)首次實(shí)現(xiàn)人工智能自主控制軍用系統(tǒng)。在海軍方面,2020年12月,美國(guó)政府公布了新的海軍長(zhǎng)期發(fā)展計(jì)劃,其中無(wú)人系統(tǒng)的開(kāi)發(fā)是重點(diǎn)。據(jù)悉,2022年至2026年,美國(guó)將撥款43億美元,用于建造12艘大型無(wú)人水面艦艇、1艘中型無(wú)人水面艦艇和8艘超大型無(wú)人潛航器[5]。此外,為進(jìn)一步推進(jìn)在人工智能武器化領(lǐng)域的縱深發(fā)展,美國(guó)在戰(zhàn)略、政策、科研等層面均采取了諸多措施。
除美國(guó)外,俄羅斯的人工智能軍事應(yīng)用也較為成熟。在陸軍方面,俄羅斯已成功研發(fā)出了多種陸用智能化武器及地面作戰(zhàn)系統(tǒng),如“天王星”系列陸戰(zhàn)機(jī)器人及無(wú)人戰(zhàn)車、運(yùn)輸機(jī)器人、鏟車式機(jī)器人、菲多爾人形機(jī)器人等。在海軍方面,俄羅斯已將無(wú)人潛航器列為研發(fā)重點(diǎn),并積極探究將核潛艇與無(wú)人潛航器深度融合的方式。此外,歐洲各國(guó)及日韓等亞洲國(guó)家也在積極研發(fā)、應(yīng)用人工智能武器。中國(guó)亦高度重視人工智能的軍事化發(fā)展,已將無(wú)人系統(tǒng)應(yīng)用于反恐、偵察、軍事訓(xùn)練、邊境巡邏等領(lǐng)域。
當(dāng)前,人工智能武器化的研發(fā)與應(yīng)用主要有以下特點(diǎn)。第一,以深度學(xué)習(xí)為基礎(chǔ)的專家決策系統(tǒng),是人工智能武器化應(yīng)用的一大特色。人工智能能夠通過(guò)經(jīng)驗(yàn)積累和自我學(xué)習(xí)不斷提升以戰(zhàn)場(chǎng)態(tài)勢(shì)的感知和評(píng)估為中心的“戰(zhàn)場(chǎng)思維”。同時(shí),人工智能還可以利用自身所擁有的專家級(jí)推理分析能力,對(duì)各類戰(zhàn)場(chǎng)信息進(jìn)行匯集、融合與分析。未來(lái),人工智能武器被廣泛使用的信息化戰(zhàn)爭(zhēng)在一定程度上可以說(shuō)是算法之爭(zhēng),即誰(shuí)擁有算法優(yōu)勢(shì),誰(shuí)就掌握了戰(zhàn)爭(zhēng)主動(dòng)權(quán)。第二,人工智能武器化意味著各軍種裝備的人工智能化、無(wú)人化、高效化。在空軍領(lǐng)域,作為“數(shù)智化”典型代表的無(wú)人機(jī)系統(tǒng)目前正在向全天候、小型化、集體化作戰(zhàn)方向發(fā)展,其殺傷能力也大幅提高,甚至還催生出了全新的“蜂群戰(zhàn)術(shù)”作戰(zhàn)理論。在“數(shù)智化”的陸軍系統(tǒng)中,單兵系統(tǒng)和地面無(wú)人作戰(zhàn)平臺(tái)(軍用智能機(jī)器人、無(wú)人戰(zhàn)車等)被廣泛用于反坦克、自行搬運(yùn)戰(zhàn)場(chǎng)物資、突擊掃雷、戰(zhàn)場(chǎng)布雷、彈藥補(bǔ)給等方面。例如,英國(guó)的“泰坦”無(wú)人戰(zhàn)車可搭載遙控機(jī)槍武器站和反坦克裝備,進(jìn)行地面戰(zhàn)斗等。海軍領(lǐng)域的“數(shù)智化”應(yīng)用主要集中于水上和水下機(jī)器人、無(wú)人艦艇3個(gè)方面。例如,美國(guó)的“章魚(yú)”機(jī)器人可用以檢測(cè)敵軍水下目標(biāo)等。此外,隨著精確制導(dǎo)武器技術(shù)的不斷進(jìn)步,智能彈藥近年來(lái)也成為人工智能武器化的重要研發(fā)與應(yīng)用領(lǐng)域。第三,人工智能武器化帶來(lái)了軍事網(wǎng)絡(luò)安全等領(lǐng)域的人工智能變革。網(wǎng)絡(luò)安全已成為各國(guó)軍事博弈的核心與焦點(diǎn)。利用人工智能制造病毒,代替人類黑客,可以對(duì)軍方的網(wǎng)絡(luò)通信系統(tǒng)造成巨大破壞。擁有高度智能的作戰(zhàn)指揮系統(tǒng)和武器平臺(tái)一旦被敵方黑客攻擊,將面臨著戰(zhàn)術(shù)失利、機(jī)器故障等后果,甚至使智能化系統(tǒng)因受干擾而失控。
人工智能武器的研發(fā)及應(yīng)用均已取得相當(dāng)程度的發(fā)展。但當(dāng)前,人工智能新技術(shù)存在諸多不確定性,人工智能武器化的治理機(jī)制也尚不完善。在此背景下,人工智能武器化給國(guó)際安全帶來(lái)了許多潛在的風(fēng)險(xiǎn)。
人工智能武器化將使人類愈發(fā)依賴智能化系統(tǒng)所提供的自主性信息及手段,甚至將戰(zhàn)爭(zhēng)的決定權(quán)讓渡給機(jī)器,這最終將導(dǎo)致人類在戰(zhàn)爭(zhēng)中的能動(dòng)性被弱化。盡管人工智能的算法優(yōu)勢(shì)可以實(shí)現(xiàn)預(yù)先感知、預(yù)先決策,但隨著智能武器系統(tǒng)的廣泛使用,人類對(duì)戰(zhàn)爭(zhēng)準(zhǔn)確認(rèn)知的主動(dòng)權(quán)也在遭受著侵蝕。算法優(yōu)勢(shì)的運(yùn)用將會(huì)導(dǎo)致從戰(zhàn)術(shù)決策到執(zhí)行的時(shí)間越來(lái)越短,人類也將越來(lái)越難以適應(yīng)快速的戰(zhàn)場(chǎng)變化,從而在戰(zhàn)爭(zhēng)中愈發(fā)被動(dòng)。
不僅如此,人工智能武器的應(yīng)用或?qū)?dǎo)致戰(zhàn)爭(zhēng)烈度升級(jí),人類將難以控制沖突的規(guī)模與程度。首先,由于人工智能技術(shù)的自我學(xué)習(xí)功能以及其非理智的行為邏輯具有不可預(yù)測(cè)性,因此人類將難以準(zhǔn)確把握人工智能決策的因果機(jī)制。人工智能武器化背景下,算法的安全性和數(shù)據(jù)的可靠性將直接決定人工智能系統(tǒng)的安全性。但目前各國(guó)的人工智能技術(shù)并不成熟,算法和數(shù)據(jù)都具有相當(dāng)程度的脆弱性。例如,在算法方面,算法漏洞問(wèn)題經(jīng)常發(fā)生,這可能會(huì)引發(fā)人工智能武器的戰(zhàn)略誤判,或使人工智能武器遭到敵方的網(wǎng)絡(luò)入侵[6]。在數(shù)據(jù)方面,常見(jiàn)問(wèn)題有數(shù)據(jù)泄露、數(shù)據(jù)污染、數(shù)據(jù)偏差等,這些問(wèn)題都可能會(huì)使系統(tǒng)陷入信息困境、數(shù)據(jù)欺騙等。例如,北約的無(wú)人機(jī)在敘利亞、利比亞等地實(shí)施空襲時(shí),就因算法偏差造成了大量平民的傷亡。其次,人工智能武器化背景下,人類在戰(zhàn)術(shù)層面的影響也將被不斷削弱,以至于人類難以掌控戰(zhàn)爭(zhēng)的發(fā)展走向。在智能化武器集群攻擊中,人類操作員不可能控制每一個(gè)作戰(zhàn)武器,作戰(zhàn)部署系統(tǒng)只能由人工智能來(lái)操縱,人類的介入將越來(lái)越集中于作戰(zhàn)中的最高層環(huán)節(jié),而在戰(zhàn)術(shù)層面的影響與控制能力則將被極大地削弱。
人工智能武器化將會(huì)改變傳統(tǒng)戰(zhàn)爭(zhēng)的規(guī)則,降低戰(zhàn)爭(zhēng)門檻,大大增加戰(zhàn)爭(zhēng)爆發(fā)的可能性。人工智能武器化背景下,消滅敵方有生力量、破壞敵方傳統(tǒng)軍事戰(zhàn)爭(zhēng)體系等作戰(zhàn)法則將失去原有的意義。戰(zhàn)爭(zhēng)規(guī)則也將發(fā)生質(zhì)變,傳統(tǒng)戰(zhàn)爭(zhēng)形態(tài)將演變?yōu)椤皺C(jī)器代理人戰(zhàn)爭(zhēng)”?!皺C(jī)器代理人戰(zhàn)爭(zhēng)”為戰(zhàn)爭(zhēng)決策者提供了更為有效的軍事選擇。有研究認(rèn)為,相較于無(wú)人機(jī)被擊落,軍事決策者更傾向于對(duì)有人駕駛的飛機(jī)被擊落采取激進(jìn)的軍事反應(yīng)[7]。因?yàn)椤皺C(jī)器代理人戰(zhàn)爭(zhēng)”削弱了戰(zhàn)爭(zhēng)規(guī)則和戰(zhàn)爭(zhēng)成本對(duì)決策層的威懾力,降低了決策者的擔(dān)憂,因此,當(dāng)沖突發(fā)生時(shí),決策者將會(huì)更傾向于使用智能化的軍事武器解決爭(zhēng)端。
同時(shí),在智能化武器戰(zhàn)爭(zhēng)的背景下,民意對(duì)決策者動(dòng)用武力的限制作用也將會(huì)被削弱。作戰(zhàn)平臺(tái)、精確制導(dǎo)導(dǎo)彈等技術(shù)的“數(shù)智化”,可以使作戰(zhàn)人員免于暴露于戰(zhàn)火之下,人員受傷概率也將隨之降低。由此,相較于派出作戰(zhàn)人員進(jìn)行軍事行動(dòng),民眾將會(huì)更加支持政府在危險(xiǎn)地區(qū)部署人工智能武器或者使用智能武器介入軍事沖突。
此外,致命性人工智能武器一旦被恐怖組織、極端主義分子所掌握,武裝沖突爆發(fā)的可能性將會(huì)大大增加。由于獲取路徑多樣、操作門檻較低,人工智能武器很容易通過(guò)黑市流入恐怖分子及極端主義分子之手。再加上人工智能武器能夠降低發(fā)動(dòng)恐怖襲擊的風(fēng)險(xiǎn)和人員成本,恐怖極端主義分子或?qū)⒃谌斯ぶ悄芪淦鞯募映窒?,更加肆無(wú)忌憚地發(fā)起武裝行動(dòng)。
羅伯特·吉爾平認(rèn)為,國(guó)家對(duì)科學(xué)技術(shù)的不同反應(yīng)導(dǎo)致了不平衡的發(fā)展,而不平衡發(fā)展最終會(huì)導(dǎo)致權(quán)力的重新分配,進(jìn)而影響國(guó)際體系的變革[8]。隨著全球化的發(fā)展,科技已成為大國(guó)博弈的前沿競(jìng)技場(chǎng)。在人工智能武器化領(lǐng)域,美、英、法、德、日等大國(guó)紛紛制定并出臺(tái)了各種政策規(guī)劃。與此同時(shí),人工智能技術(shù)也沖擊著傳統(tǒng)軍事力量的均勢(shì)格局。在各國(guó)戰(zhàn)略競(jìng)爭(zhēng)的推動(dòng)下,人工智能武器或?qū)⒋呱碌摹皣?guó)際安全困境”。
首先,人工智能技術(shù)強(qiáng)國(guó)在新一輪的科技競(jìng)技中間接獲得了更多的相對(duì)權(quán)力,原有的國(guó)際安全格局受到了挑戰(zhàn)。為化解崛起中的人工智能強(qiáng)國(guó)所帶來(lái)的安全風(fēng)險(xiǎn),其他國(guó)家需要將更多的資源投入到新一代的武器研發(fā)之中。如此,便極有可能引發(fā)新一輪的科技軍備競(jìng)賽,從而沖擊國(guó)際關(guān)系的穩(wěn)定。其次,人工智能武器化將會(huì)加劇國(guó)家間已有的資源不平等狀況,使國(guó)際關(guān)系的權(quán)力分布更加集中甚至極化。研發(fā)和應(yīng)用人工智能武器需要數(shù)據(jù)、技術(shù)、人力、資本等諸多要素的支撐,而當(dāng)前只有部分技術(shù)大國(guó)擁有相應(yīng)的基礎(chǔ)與實(shí)力,弱小國(guó)家則面臨著被永久邊緣化的風(fēng)險(xiǎn)。在軍備競(jìng)賽、技術(shù)鴻溝、權(quán)力分配不平等因素的共同作用下,國(guó)家間的互信將隨之減少,摩擦與沖突則將增加,最終現(xiàn)有國(guó)際秩序?qū)?huì)受到劇烈沖擊。
當(dāng)前國(guó)際法對(duì)人工智能武器試驗(yàn)、應(yīng)用、追責(zé)的界定與規(guī)范尚不清晰,所以人工智能武器化給相關(guān)國(guó)際法及國(guó)際規(guī)范也帶來(lái)了嚴(yán)峻的挑戰(zhàn)。如前所述,“數(shù)智化”作戰(zhàn)系統(tǒng)的發(fā)展目標(biāo)是無(wú)人作戰(zhàn)系統(tǒng),即在大多數(shù)情況下無(wú)須人類的直接干預(yù)。這將導(dǎo)致國(guó)際法難以約束人工智能武器的使用,更難以判定人工智能武器的責(zé)任歸屬。當(dāng)人工智能武器因決策錯(cuò)誤或技術(shù)故障而違反國(guó)際法和國(guó)際規(guī)范時(shí),其責(zé)任到底應(yīng)該由誰(shuí)承擔(dān),是指揮官、士兵還是技術(shù)人員或是武器制造商,針對(duì)這一問(wèn)題,既存的國(guó)際法規(guī)尚未有明確的規(guī)定。此外,人工智能武器尚不具備近人的判斷力,在戰(zhàn)場(chǎng)上無(wú)法有效識(shí)別平民和戰(zhàn)斗人員,從而可能造成大量平民死傷,釀成人道主義災(zāi)難,而這有違于國(guó)際人道法的區(qū)分原則和比例原則。
此外,由于人工智能武器技術(shù)的軍民兩用性,某些人工智能技術(shù)甚至能夠作為民用品出口,這會(huì)導(dǎo)致相關(guān)武器在全球市場(chǎng)上交易與流通的泛濫,對(duì)規(guī)范常規(guī)武器貿(mào)易的《武器貿(mào)易條約》構(gòu)成新的挑戰(zhàn)。如何有效地規(guī)范自主武器的購(gòu)買、轉(zhuǎn)讓、擴(kuò)散,是現(xiàn)有常規(guī)武器貿(mào)易管控機(jī)制所面臨的新問(wèn)題[9]。
人工智能技術(shù)與核武器、生化武器、網(wǎng)絡(luò)技術(shù)的結(jié)合將增加復(fù)合型危機(jī)發(fā)生的可能性。以核武器為例,為提高核武器的情報(bào)分析、輔助決策和對(duì)外反應(yīng)能力,美、俄等核大國(guó)早已將人工智能技術(shù)應(yīng)用到核武器的運(yùn)載、預(yù)警及控制過(guò)程中。
然而,由于人工智能技術(shù)的不成熟、不可靠性,核武器的自動(dòng)化系統(tǒng)暗藏著諸多風(fēng)險(xiǎn)。在發(fā)射權(quán)方面,若將核武器的發(fā)射權(quán)讓渡給人工智能,一旦出現(xiàn)意外事故或戰(zhàn)略誤判,人工智能控制的核武器發(fā)射很有可能產(chǎn)生災(zāi)難性的后果。在日常管理方面,核武器的自動(dòng)化系統(tǒng)涉及多個(gè)部門,難免存在安全漏洞。同理,人工智能技術(shù)若與生化武器結(jié)合,也可能會(huì)因技術(shù)故障、管理失效、風(fēng)險(xiǎn)控制不當(dāng)、技術(shù)濫用等原因,釀成人道主義災(zāi)難。
當(dāng)前,國(guó)際社會(huì)就全面禁止人工智能武器的問(wèn)題尚未達(dá)成全球共識(shí),但人工智能武器化所帶來(lái)的國(guó)際安全問(wèn)題已受到國(guó)際組織、政府等相關(guān)主體的廣泛關(guān)注。在各方共同努力下,人工智能武器化問(wèn)題的相關(guān)治理機(jī)制已初步形成。
3.1.1 聯(lián)合國(guó)層面
首先,《特定常規(guī)武器公約》(Convention on Certain Conventional Weapons,CCW)在限制人工智能武器化問(wèn)題上發(fā)揮著一定的作用。關(guān)于自主武器系統(tǒng)的管控問(wèn)題,《特定常規(guī)武器公約》的締約國(guó)已經(jīng)召開(kāi)了多次會(huì)議。2016年,CCW會(huì)議決定建立由民間專家與國(guó)家代表團(tuán)成員組成的“致命自動(dòng)武器系統(tǒng)監(jiān)管專家組”(Group of Governmental Experts on Lethal Autonomous Weapons Systems,GGE),以便一同交流探討致命性自主武器系統(tǒng)的軍控問(wèn)題。2019年,CCW第八次政府專家組會(huì)議提出了規(guī)范“致命性自主武器系統(tǒng)”開(kāi)發(fā)及應(yīng)用的11條指導(dǎo)原則,涉及技術(shù)、法律規(guī)范、道德倫理等方面。2021年12月,CCW第六次審議大會(huì)討論了限制“致命性自主武器系統(tǒng)”開(kāi)發(fā)的事宜。
除《特定常規(guī)武器公約》機(jī)制外,聯(lián)合國(guó)人權(quán)理事會(huì)(United Nations Human Rights Council,UNHRC)、聯(lián)合國(guó)大會(huì)第一委員會(huì)(即裁軍與國(guó)際安全委員會(huì))、聯(lián)合國(guó)安全理事會(huì)(United Nations Security Council,UNSC)在禁止自主武器方面的作用也不容忽視。2013年5月,聯(lián)合國(guó)人權(quán)理事會(huì)“法外處決、即審即決或任意處決問(wèn)題”調(diào)查員克里斯托夫·海恩斯強(qiáng)調(diào)稱,需要加緊考慮機(jī)器人技術(shù)的發(fā)展及其對(duì)法律、倫理和道德的影響[10]。自2013年以來(lái),聯(lián)合國(guó)大會(huì)第一委員會(huì)每年都將自主武器問(wèn)題作為國(guó)際議題之一展開(kāi)討論。到2019年的年度會(huì)議為止,已有多達(dá)93個(gè)國(guó)家公開(kāi)發(fā)表對(duì)致命性自主武器的觀點(diǎn),有30個(gè)國(guó)家呼吁禁止致命性自主武器。聯(lián)合國(guó)安理會(huì)自2021年起也開(kāi)始探討新興科技的開(kāi)發(fā)利用。2021年5月17日,在中國(guó)的倡議下,“新興科技對(duì)國(guó)際和平與安全的影響”阿里亞模式會(huì)議召開(kāi),與會(huì)各方一致認(rèn)為應(yīng)加強(qiáng)彼此合作交流,充分利用聯(lián)合國(guó)等多邊主義機(jī)制,有效推進(jìn)新興科技全球治理。這也是聯(lián)合國(guó)安理會(huì)首次就新興科技問(wèn)題展開(kāi)討論。
3.1.2 國(guó)際非政府組織
除聯(lián)合國(guó)層面的機(jī)制外,國(guó)際非政府組織也致力于探究人工智能武器化的問(wèn)題,在限制自主武器方面發(fā)揮著自身獨(dú)特的作用。例如,早在2011年,紅十字國(guó)際委員會(huì)(International Committee of the Red Cross,ICRC)就公開(kāi)對(duì)自主武器系統(tǒng)問(wèn)題表示了關(guān)切。2015年以來(lái),紅十字國(guó)際委員會(huì)一直致力于敦促各國(guó)就自主武器系統(tǒng)問(wèn)題確立國(guó)際公認(rèn)的限制標(biāo)準(zhǔn),通過(guò)多種方式在限制自主武器方面發(fā)揮著影響力。首先,紅十字國(guó)際委員會(huì)在人工智能自主武器系統(tǒng)所涉及的相關(guān)法律法規(guī)、道德倫理、技術(shù)發(fā)展及軍事影響等方面發(fā)揮著重要作用。其次,紅十字國(guó)際委員會(huì)還通過(guò)發(fā)布《對(duì)武器系統(tǒng)自主性的限制:明確人類控制的實(shí)踐要素》《國(guó)際人道法及其在當(dāng)代武裝沖突中面臨的挑戰(zhàn)》等一系列與自主武器相關(guān)的報(bào)告,說(shuō)明自主武器系統(tǒng)的獨(dú)特性及風(fēng)險(xiǎn)性,并呼吁國(guó)際社會(huì)關(guān)注人工智能武器化問(wèn)題。再者,紅十字國(guó)際委員會(huì)還積極參與CCW專家會(huì)議。例如,針對(duì)CCW政府專家組所擬定的指導(dǎo)原則的評(píng)注部分,紅十字國(guó)際委員會(huì)就曾提出了其自身的建議[11]。
2013年,國(guó)際“殺手機(jī)器人禁令運(yùn)動(dòng)”組織成立,該組織旨在通過(guò)廣泛開(kāi)展各類運(yùn)動(dòng),給各國(guó)政府形成足夠大的壓力,以促使其就達(dá)成自主武器相關(guān)條約展開(kāi)談判。此外,該組織還主張禁止研發(fā)人類無(wú)法有效控制的武器。目前,“殺手機(jī)器人禁令運(yùn)動(dòng)”已獲得來(lái)自60個(gè)國(guó)家的130多個(gè)團(tuán)體的支持。
3.1.3 知識(shí)共同體
在規(guī)制人工智能武器化問(wèn)題上,由人工智能研究者所組成的知識(shí)共同體也發(fā)揮著重要的作用。2015年7月28日,2 000余名研究人工智能的學(xué)者共同發(fā)表了一封公開(kāi)信,呼吁國(guó)際社會(huì)采取措施防止自主性武器流向黑市、落入恐怖分子之手或引發(fā)軍備競(jìng)賽[12]。此后,越來(lái)越多的來(lái)自不同國(guó)家、不同領(lǐng)域的科學(xué)家、企業(yè)家和工程師加入禁止自主化武器的行列,截至2022年1月,已有4 500多名相關(guān)學(xué)者在這封公開(kāi)信上署名[13]。
2018年7月18日,國(guó)際人工智能聯(lián)合會(huì)議召開(kāi),與會(huì)的2 000多名人工智能領(lǐng)域的知名人士簽署了《致命性自主武器宣言》,誓言不參與也不支持開(kāi)發(fā)、制造、交易或使用致命性自主武器。2020年6月和11月,瑞典斯德哥爾摩國(guó)際和平研究所針對(duì)人工智能武器化的影響以及歐盟所應(yīng)發(fā)揮的作用,發(fā)表了《人工智能對(duì)戰(zhàn)略穩(wěn)定和核風(fēng)險(xiǎn)的影響》《負(fù)責(zé)任的人工智能軍事應(yīng)用》兩份報(bào)告。
3.2.1 地區(qū)層面的治理機(jī)制
與全球?qū)用娴闹卫頇C(jī)制相比,人工智能武器化的區(qū)域治理機(jī)制較少,目前只有區(qū)域一體化程度較高的歐盟嘗試出臺(tái)了相關(guān)方案。在《機(jī)器人民事法律規(guī)則》中,歐盟特別設(shè)定了“機(jī)器人憲章”“研究倫理委員會(huì)準(zhǔn)則”等條款,還提出了成立統(tǒng)一的機(jī)器人技術(shù)和人工智能的監(jiān)管機(jī)構(gòu),為復(fù)雜的自動(dòng)化機(jī)器人創(chuàng)設(shè)“電子人”法律地位等內(nèi)容[14]。2019年,歐盟委員會(huì)制定了《可信任的人工智能道德準(zhǔn)則》,其中就人工智能的倫理規(guī)范做了詳細(xì)說(shuō)明。2020年2月,歐盟發(fā)布了區(qū)域性文件之《人工智能白皮書(shū)》。此外,針對(duì)如何將致命性自主武器系統(tǒng)納入到歐洲法律框架下的問(wèn)題,歐洲議會(huì)在2020年至2021年曾多次進(jìn)行了正式討論。
3.2.2 國(guó)家層面的治理機(jī)制
基于人工智能武器化可能帶來(lái)的諸多問(wèn)題,一些國(guó)家也嘗試從國(guó)內(nèi)立法和政策層面對(duì)人工智能武器的研發(fā)及使用進(jìn)行規(guī)范??傮w來(lái)講,各國(guó)對(duì)人工智能武器管控方案的核心在于保持人類對(duì)武器系統(tǒng)的控制,而其難點(diǎn)在于如何管控完全自主的大規(guī)模致命性武器的研發(fā)與應(yīng)用。
美國(guó)早在2012年就發(fā)布了自主及半自主武器使用方面的政策指南,擬定了一些普遍適用的原則。2019年10月,美國(guó)政府首次回應(yīng)了人工智能武器化所可能導(dǎo)致的倫理問(wèn)題,同時(shí)強(qiáng)調(diào)了在國(guó)防部設(shè)立人工智能指導(dǎo)委員會(huì)的必要性。2020年2月,美國(guó)國(guó)防部正式確立了“負(fù)責(zé)的、公平的、可追溯的、可靠的、可治理的”等5項(xiàng)人工智能軍事化發(fā)展的原則。2021年4月,新美國(guó)安全中心(Center for a New American Security,CNAS)又提出了自主武器作戰(zhàn)使用的原則,強(qiáng)調(diào)了任何自主武器系統(tǒng)的使用須在有責(zé)任的人工指揮和控制鏈的指導(dǎo)下進(jìn)行。
歐洲方面,英國(guó)上議院人工智能特別委員會(huì)于2017年發(fā)布了報(bào)告,討論了統(tǒng)一自主武器國(guó)際概念及如何控制、監(jiān)督自主或完全自主武器的問(wèn)題。法國(guó)于2018年制定了《人工智能技術(shù)國(guó)家標(biāo)準(zhǔn)化委員會(huì)出臺(tái)技術(shù)標(biāo)準(zhǔn)》,試圖通過(guò)研究倫理及實(shí)現(xiàn)標(biāo)準(zhǔn)化來(lái)構(gòu)建可信的人工智能系統(tǒng)。法國(guó)國(guó)防部還于2019年底成立了軍事倫理委員會(huì),對(duì)軍人進(jìn)行國(guó)際人道法和倫理教育,通過(guò)將人的認(rèn)知等要素標(biāo)準(zhǔn)化,使人工智能系統(tǒng)認(rèn)知程序開(kāi)發(fā)更加簡(jiǎn)單化與均質(zhì)化。德國(guó)政府也多次發(fā)表聲明,明確反對(duì)研發(fā)和使用完全自主性武器,提出應(yīng)遵循“有所控制地發(fā)展人工智能武器”的原則。
此外,澳大利亞、加拿大、巴西等國(guó)也紛紛出臺(tái)相關(guān)政策,反對(duì)武器完全自主化,呼吁建立國(guó)際友好、數(shù)據(jù)開(kāi)放的共享環(huán)境,防止人工智能武器的濫用及軍備競(jìng)賽的出現(xiàn)。同時(shí),我國(guó)也一向重視人工智能方面的治理。2019年6月,國(guó)家新一代人工智能治理委員會(huì)提出了“和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開(kāi)放協(xié)作、敏捷治理”等人工智能治理方面的相關(guān)原則。
如前所述,當(dāng)前國(guó)際社會(huì)高度關(guān)注人工智能武器化的治理問(wèn)題,相關(guān)治理機(jī)制也正在建立?;诩扔械闹卫頇C(jī)制,本文將從宏觀的軍控機(jī)制、中觀的官民合作以及微觀的科研人員3個(gè)層面進(jìn)一步探究人工智能武器化的治理路徑。
各國(guó)應(yīng)充分利用現(xiàn)有的軍控機(jī)制及平臺(tái),就人工智能武器化帶來(lái)的國(guó)際安全挑戰(zhàn)開(kāi)展廣泛磋商,提高各方對(duì)人工智能及其所帶來(lái)的國(guó)際安全問(wèn)題的重視,借鑒既有的同質(zhì)軍控框架以早日達(dá)成人工智能武器領(lǐng)域的統(tǒng)一協(xié)定。
關(guān)于人工智能武器化的治理問(wèn)題,國(guó)際社會(huì)已達(dá)成了一些共識(shí),各國(guó)都同意必須始終對(duì)武器系統(tǒng)的關(guān)鍵性能進(jìn)行有效且恰當(dāng)?shù)目刂芠15]?;诂F(xiàn)有共識(shí),各國(guó)政府可在既有軍控機(jī)制下,進(jìn)一步細(xì)化、深化相關(guān)行為準(zhǔn)則。例如,各國(guó)政府可借《特定常規(guī)武器公約》政府專家組會(huì)議為平臺(tái),進(jìn)一步優(yōu)化信任磋商機(jī)制,用制定成本較低的行為準(zhǔn)則來(lái)代替制定成本較高的法律規(guī)范。另外,關(guān)于人工智能化武器的規(guī)制也可借鑒常規(guī)武器的規(guī)約。目前各國(guó)在常規(guī)武器和大規(guī)模殺傷性武器的應(yīng)用方面已達(dá)成了一系列的軍備控制協(xié)議。在人工智能武器的軍控問(wèn)題上,可以嘗試借鑒既有的常規(guī)軍控協(xié)議的框架和思路。
每個(gè)國(guó)家在人工智能領(lǐng)域的發(fā)展程度不同,先發(fā)國(guó)需要深化在人工智能領(lǐng)域內(nèi)的合作。若是僅僅依靠技術(shù)處于相對(duì)弱勢(shì)的國(guó)家,限制人工智能武器的全球性協(xié)議將很難推動(dòng)。即便勉強(qiáng)達(dá)成類似協(xié)議,其效果也極有可能無(wú)法達(dá)到預(yù)期。相反,少數(shù)優(yōu)勢(shì)國(guó)家在維護(hù)全球戰(zhàn)略穩(wěn)定性上有諸多共同利益可尋。出于對(duì)失去技術(shù)強(qiáng)國(guó)地位或軍備競(jìng)賽成本過(guò)高的擔(dān)心,優(yōu)勢(shì)國(guó)家可能更愿意簽訂雙邊軍控條約,以避免大國(guó)之間出現(xiàn)軍備競(jìng)賽。因此,人工智能軍事強(qiáng)國(guó)可通過(guò)協(xié)商會(huì)談率先簽訂軍備控制的公報(bào)或協(xié)議,對(duì)軍備競(jìng)賽加以限制。
政府部門及社會(huì)民眾應(yīng)加強(qiáng)協(xié)作,共同致力于人工智能武器化的國(guó)際治理。各國(guó)政府應(yīng)加強(qiáng)對(duì)于人工智能倫理道德及人工智能行為科學(xué)等問(wèn)題的研究,探討人工智能的人格與數(shù)據(jù)安全問(wèn)題,加大對(duì)武器系統(tǒng)的倫理與法律審查。例如,政府可以設(shè)立專門的倫理與審查委員會(huì),制定統(tǒng)一的審查標(biāo)準(zhǔn)與分類標(biāo)準(zhǔn)。與此同時(shí),各國(guó)還應(yīng)加強(qiáng)公共教育,充分發(fā)揮輿論監(jiān)督、民眾監(jiān)督的作用,督促各國(guó)政府在社會(huì)的監(jiān)督下開(kāi)展武器研究與管控。此外,個(gè)人也應(yīng)轉(zhuǎn)變觀念,充分認(rèn)識(shí)到人工智能武器化對(duì)國(guó)際安全的挑戰(zhàn),積極參與相關(guān)政策的提議與監(jiān)督。在社會(huì)監(jiān)督下,相關(guān)決策者需要充分考慮人工智能戰(zhàn)爭(zhēng)所帶來(lái)的負(fù)面社會(huì)效應(yīng)及政治成本,從而在人工智能武器化議題中做出理性的選擇。
用科技“制衡”科技的本質(zhì)即發(fā)揮“人”在科技應(yīng)用中的決定性作用,使人工智能武器永遠(yuǎn)難以脫離人類的控制。當(dāng)前,在各國(guó)爭(zhēng)相部署自主武器的背景下,民族主義和資本的結(jié)合一定程度上打破了知識(shí)共同體的統(tǒng)一陣線,一些國(guó)家出現(xiàn)了科技研發(fā)人員支持政府升級(jí)軍備的現(xiàn)象。但是,這并不意味著人工智能科技研發(fā)人員的態(tài)度與政府的主張完全一致。人工智能科技研發(fā)人員在國(guó)際治理中可在以下兩個(gè)方面發(fā)揮重要的作用。首先,科研人員可以規(guī)避危險(xiǎn)的技術(shù)路徑,防止出現(xiàn)完全自主的致命性武器。其次,科研人員可以在人工智能武器研發(fā)環(huán)節(jié)遵守相關(guān)規(guī)則,恪守國(guó)際道義。
目前人工智能武器的研發(fā)透明度低,且缺少統(tǒng)一的監(jiān)管標(biāo)準(zhǔn),亟須強(qiáng)化科研人員的責(zé)任意識(shí),明確生產(chǎn)商的權(quán)責(zé),遵循技術(shù)向善的理路。例如,可以為武器研發(fā)的科研人員及制造商制定倫理標(biāo)準(zhǔn)和規(guī)范手冊(cè),對(duì)智能化武器的操作人員實(shí)施必要的道德約束。同時(shí),還應(yīng)提高技術(shù)研發(fā)的信息透明度,要求科研人員和生產(chǎn)商公布實(shí)驗(yàn)數(shù)據(jù),確保人們明晰武器的實(shí)際殺傷力。在技術(shù)研究層面,對(duì)機(jī)器的倫理化改造難以完全實(shí)現(xiàn),但科研人員仍可嘗試將戰(zhàn)爭(zhēng)及武裝沖突的規(guī)則通過(guò)代碼編寫算法的方式轉(zhuǎn)化為人工智能武器的邏輯指令,從而將國(guó)際人道法精神內(nèi)嵌于人工智能武器之中,以建立起人工智能武器與國(guó)際人道法規(guī)則之間的對(duì)應(yīng)關(guān)系,從根本上降低人工智能武器可能帶來(lái)的風(fēng)險(xiǎn)。
百年未有之大變局的時(shí)代背景下,以人工智能為中心的科學(xué)技術(shù)已成為各國(guó)打造新競(jìng)爭(zhēng)優(yōu)勢(shì)的關(guān)鍵。但人工智能不應(yīng)成為一場(chǎng)零和游戲,科技的創(chuàng)新和突破最終應(yīng)更好地造福人類。未來(lái)的戰(zhàn)爭(zhēng)是信息化的戰(zhàn)爭(zhēng),人工智能與武器結(jié)合或已成為不可逆轉(zhuǎn)的時(shí)代趨勢(shì)。人工智能武器化的安全治理任重道遠(yuǎn),需要國(guó)際社會(huì)各參與主體貢獻(xiàn)集體智慧,共同推動(dòng)人工智能武器化的安全發(fā)展。在人類命運(yùn)共同體理念的指引下,各國(guó)應(yīng)秉持全球安全觀,積極尋求人工智能武器化規(guī)范方面的新共識(shí),以早日形成具有普遍適用性的國(guó)際規(guī)范。