国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

意圖孿生:人工智能軍事化的國際安全挑戰(zhàn)與治理路徑

2024-04-09 23:29:59甘鈞先
關鍵詞:軍事化意圖武器

甘鈞先

(浙江大學 馬克思主義學院,浙江 杭州 310058)

一、人工智能的意圖孿生現(xiàn)象及其安全內(nèi)涵

意圖是理解人類威脅的關鍵。根據(jù)意圖的強弱,人類安全威脅可以分為:無意圖威脅、弱意圖威脅和強意圖威脅。無意圖威脅主要包括環(huán)境災難,如地震、海嘯、颶風等,它們具有破壞性,但本身沒有表現(xiàn)出任何的意圖。弱意圖威脅主要包括特定動物和病菌帶來的威脅,它們具有主動攻擊人類的特性,但其意圖是一種生物學設定,表現(xiàn)為生存本能。強意圖威脅主要指人類自身的威脅,即人類個體或群體之間的相互威脅,比如不同民族、國家或文明之間的安全挑戰(zhàn)。

人類彼此的安全威脅是一種強意圖威脅。人類內(nèi)部敵意不僅與民族或國家生存有關,也與權力、利益爭奪和觀念分歧相關。人類內(nèi)部敵意主要表現(xiàn)為主動的敵意,并且不像某些生物攻擊人類的威脅一樣無法避免。人類可以心存善意,選擇合作、協(xié)調(diào)和包容,但某些族群或國家為了更大的利益,選擇排斥、打壓其他群體,從而構成彼此的威脅。人類大多數(shù)安全困境,都是因為在交往過程中產(chǎn)生敵意而引發(fā)的。

技術與敵意的結(jié)合強化了人類安全困境。技術是中性的,其本身并不具有威脅屬性,只有當它與人類意圖結(jié)合在一起時,才會表現(xiàn)出安全內(nèi)涵、表現(xiàn)出善惡。當人類使用技術作為攻擊性武器時,技術的惡就會展現(xiàn)出來。當人類使用技術增進人類福祉時,技術的善就會表達出來。技術進步是人類文明的重要成果,它提高了人類面對自然環(huán)境威脅的能力,但也會引起人類內(nèi)部對安全的憂慮,比如核能技術的運用。技術本身并沒有任何意圖,它只是人類意圖的承載者。人工智能出現(xiàn)之前,人類所有技術都遵循這個邏輯。

人工智能是一項劃時代的技術,它的出現(xiàn)改變了技術載體與意圖的關系。根據(jù)歷史經(jīng)驗,當人類停止使用技術載體作為武器時,技術載體就同時失去了意圖。只有人類和技術載體結(jié)合時,技術載體才會顯示出意圖,但是人工智能改變了技術的中性特征。人工智能的目標是讓機器擁有智能,也就是賦予機器以意圖。當機器擁有類似于人類的意圖之后,人類即使改變了自己的意圖,或者終止了對機器的使用,人類意圖依然可以繼續(xù)存在于機器之中。人工智能可以將人類意圖延續(xù)下去,相當于人類意圖在機器上實現(xiàn)了孿生,它并不需要機器進化出“類人”生命意識就能夠?qū)崿F(xiàn)。本文將此現(xiàn)象視為人工智能的意圖孿生。

按照智能化水平,人工智能可以分為三個階段。第一階段是初級人工智能,機器依然被人類操控,被動執(zhí)行人類給出的任務。第二階段是中級人工智能,機器被設定為脫離了人類控制之后依然可以自主執(zhí)行任務的自動系統(tǒng)。中級人工智能具有一定程度上的環(huán)境適應性,而不再是基于人類的程序設定,基本上實現(xiàn)了意圖孿生。第三階段是高級人工智能,擁有類似于人類的生命意識,能夠擺脫人類的設定自主開展行動。當前,人工智能的發(fā)展水平仍然處于第一階段,它們是可以承載人類的意圖,但無法自主思考、自主選擇的機器,當人類終止意圖或斷開電源時,它們就不再執(zhí)行人類意圖。

人工智能在每一個發(fā)展階段都具有不同等級的風險。第一階段人工智能的風險在于,由于算法的不成熟或系統(tǒng)缺陷,它們可能錯誤地執(zhí)行人類意圖從而帶來不可預期的災難。第二階段人工智能可以基于神經(jīng)網(wǎng)絡在環(huán)境互動中自主作出選擇,人類意圖通過智能機器得到持續(xù)執(zhí)行。它的風險在于,人類意圖復制或?qū)\生到機器上,這意味著人類可能失去對機器的控制。第三階段人工智能的風險在于,它最具威脅性,也最難實現(xiàn)對其的控制。它們擁有一定的自我意識,也就是擁有了專屬機器的自我意圖。

當前,神經(jīng)網(wǎng)絡技術的進展顯示,人工智能也許很難獲得生命意識,但很可能實現(xiàn)意圖孿生。人類生命意識的基礎是對世界的感受,而感受來自神經(jīng)元。人類感受是獨特的、相對的,它以每個人的神經(jīng)元系統(tǒng)為中介,集中表現(xiàn)為各類情感。人類情感(比如,饑餓、恐懼、喜悅、好奇等)是人類意圖或生命活動的原始動力。但與人類情感不同,人類思維并不直接建立在感受性之上,它是理性和邏輯的表達,大腦的計算和推理在很大程度上并不依賴于情感。由于缺乏神經(jīng)元對世界的感受,意識和情感幾乎不可能被復制到機器系統(tǒng)上。但人類意圖跟人類情感不同,它的實現(xiàn)更多地受制于人類理性計算。人類意圖跟人類感受和理性的關系是:人類感受激發(fā)或驅(qū)動人類的意圖,而人類理性策劃實現(xiàn)人類意圖的程序。因此,人類意圖的本質(zhì)是程序,實現(xiàn)人類意圖的過程是算法,它可以被復制或?qū)\生到機器上。讓機器產(chǎn)生意識,如同讓機器獲得對世界的感受,目前看來幾乎很難實現(xiàn),但讓機器產(chǎn)生并實現(xiàn)意圖,如同讓機器進行運算活動,這在技術層面上是能夠?qū)崿F(xiàn)的。人類依靠自身意識對機器進行原始的推動,賦予機器以人類意圖,即程序設計,然后讓機器自動執(zhí)行程序。這個過程就是人類意圖在機器上的孿生過程。

通過讓機器完全自主行動,人類意圖實現(xiàn)了延展。對第一階段人工智能來說,它們不具有或具有很弱的環(huán)境適應性,無法對環(huán)境進行即時回應,必須依靠人類進行判斷,因而不具有主動性。如,在軍事博弈中,它們無法自我選擇防守還是進攻。對第二階段擁有孿生意圖的人工智能來說,它們可以依據(jù)內(nèi)置神經(jīng)網(wǎng)絡自動識別、追蹤目標,自動發(fā)起攻擊。一旦人工智能擁有孿生意圖之后,就意味著它們在一定程度上脫離了人類控制。意圖被賦予到機器上,即便人類放棄了意圖,但機器仍然可以繼續(xù)執(zhí)行先前的意圖。當人工智能發(fā)展到這個階段之時,就達到了庫茲韋爾和博斯特羅姆提出的“技術奇點”[1]。

任何一種實現(xiàn)了意圖孿生的武器系統(tǒng),當它們自主激活、自主進攻時,被進攻方都可能無法判斷威脅來源,從而導致混亂的攻擊和人類外交的失敗[2]。從人工智能的技術發(fā)展來看,盡管第三階段人工智能還不構成現(xiàn)實威脅,但第二階段人工智能的威脅卻近在咫尺,尤其在軍事領域,無人武器的智能化程度正在得到不斷提升。正如非政府組織“禁止殺手機器人運動”所宣稱的,人類“正在逐步接近由機器決定殺死誰”。被譽為人工智能之父的杰弗里 ? 辛頓認為,人類未來需要擔心的不是機器的智能化提升,而是殺手機器人[3]。辛頓的話表明,威脅人類的不是機器不斷提升的意識,而是它們的意圖,尤其是人類孿生在它們身上的可實現(xiàn)的意圖。

人類意圖和孿生在機器上的意圖存在著本質(zhì)區(qū)別。人類意圖,無論是善意的還是敵意的,都基于人類對社會和自我的理解,它們會在社會互動中不斷改變。比如,在世界近現(xiàn)代史中,英法德之間的善意和敵意經(jīng)過數(shù)次轉(zhuǎn)換。但人工智能并不是社會存在物,它們沒在社會環(huán)境之中,它們不理解善意與敵意的根源和意義,它們的意圖是程序的設定。無論是人類意識還是意圖,都指向外部實在的萬物,人類意識是對萬物的意識,人類意圖也是對萬物的意圖。它們的根基是人類基于神經(jīng)元之上的對世界萬物的感受性。人類的價值觀、交互理解、意義領悟、生命覺醒、共情等都建立在人類對萬物的感受基礎之上。因此,人類智能是一種生命感受型智能,而人工智能本質(zhì)上是一種數(shù)據(jù)處理型智能。人工智能處理的是符號世界,即萬物的表征,而非外部實在的萬物。

人類意圖之所以能夠?qū)崿F(xiàn)轉(zhuǎn)變,是因為人類能夠感受到對方的意圖轉(zhuǎn)變或?qū)Ψ降那楦?,如傷痛或恐懼等,也因為人類能夠從生命覺醒中重新審視原有意圖的價值。而孿生在機器上的意圖則沒有任何感受性,也就無法在萬物變化的過程中重置意圖。人類在經(jīng)歷了傷痛之后會改變意圖,比如,兩次世界大戰(zhàn)之后的歐洲改變了互為敵人的沖突狀態(tài)。人類意圖可以在對社會價值和生命意義的學習過程中得到動態(tài)調(diào)整,但人工智能的學習只是數(shù)據(jù)處理、算力增強、算法提升等,無法實現(xiàn)價值和意義的重塑,因而無法實現(xiàn)從敵意到善意的意圖轉(zhuǎn)換。人類的意圖轉(zhuǎn)換是人類獲得和平的關鍵。盡管民用人工智能可以為人類社會帶來解放性的生產(chǎn)力,但軍用人工智能卻天然地具有惡意,孿生在武器上的人類意圖幫助人工智能武器維持了人類敵意。從這個角度來看,人工智能武器具有設計程序上的原罪。

人工智能的意圖孿生現(xiàn)象正在發(fā)生。一方面,從技術轉(zhuǎn)型來看,智能化是人類科技的未來趨勢。人類技術經(jīng)歷了石器、青銅器、鐵器和機器時代。人類科技進步的核心邏輯是:人類繁瑣的生產(chǎn)活動不斷地由工具輔助或交給工具來完成,提高生產(chǎn)效率的同時,把人類自身從生產(chǎn)活動中解放出來。迄今為止,人類的交通工具、通信工具和日常用具等大多實現(xiàn)了機械化。智能化是人類科技進步的趨勢,即人類讓機器直接從事人類不愿意從事的生產(chǎn)活動,尤其是危險性系數(shù)很高的活動。技術的演進邏輯決定了人類必然發(fā)展全自主機器來代替人工勞動。另一方面,從技術的迭代進程來看,只有賦予機器以人類意圖,才能在更大程度上解放人類,因而全自主機器成為當前人工智能的主要努力方向。人類無窮盡的創(chuàng)新渴望,使得技術本身看起來仿佛是有生命的。人工智能最初看起來并非革命性的技術,但它具有進化性[4],它能進化出讓人驚嘆的模樣。當前,生成式人工智能已經(jīng)可以自主生成圖像和文本,可以進行人機對話,而“生產(chǎn)的深處指向創(chuàng)造”[5],即未來人工智能可以根據(jù)環(huán)境自主作出判斷和選擇。2023年8 月,馬斯克開發(fā)的FSD Beta V12 自動駕駛系統(tǒng)可以依據(jù)神經(jīng)網(wǎng)絡對交通環(huán)境獨立作出創(chuàng)造性回應,擺脫了以前的程序設定和固定場景模擬。人工智能的孿生意圖隱藏在機器系統(tǒng)表達的自主性之中。隨著機器神經(jīng)網(wǎng)絡適應性和自主性的增強,人工智能的意圖孿生將會變成現(xiàn)實。

軍事活動是人類意圖表現(xiàn)最為明確的領域,也是人類惡意最為集中的領域。人工智能軍事化,尤其是致命性全自主武器的開發(fā),恰恰是把最危險的人類意圖孿生到機器上的人類實踐,因而給人類帶來的風險也最為緊迫。隨著Chat-GPT 的問世,越來越先進的自然語言處理技術、圖像處理技術和人機互動模型,以及越來越強大的算力平臺和算法優(yōu)化,使得人工智能從人機交互不斷向機器自主發(fā)展。當機器獲得了一定程度的環(huán)境適應性,人工智能就獲得了類似于人類的意圖或意向性。盡管這種意圖是人類構建的,但它可以在無人的情況下繼續(xù)發(fā)揮主動性,自主激發(fā)攻擊程序。一旦到達此臨界點,即便人工智能永遠無法獲得生命意識,但馬斯克所預言的“人工智能魔鬼”就會被喚醒。

二、當前主要大國人工智能軍事化策略與意圖孿生趨向

人類重大技術進步常常被用于增進軍事實力。獲取先進技術及技術軍事化運用是人類競爭的重要動力和表現(xiàn)形態(tài)。如,軍艦是輪船的軍事化運用、戰(zhàn)車是汽車的軍事化運用、戰(zhàn)斗機是飛機的軍事化運用。同樣,增進人類福利、把人類從繁重勞動中解放出來的人工智能也會經(jīng)歷相應的軍事化過程。人工智能正在為全球主要大國的海陸空多個作戰(zhàn)領域的武器賦能。這是否會帶來重大風險,取決于國家之間的意圖,以及人工智能武器的意圖孿生程度。

近年來,全球主要大國都開始規(guī)劃本國的人工智能發(fā)展戰(zhàn)略,并迅速推進其軍事化應用。美國是推動人工智能軍事化最早也最激進的國家,同時也是在該領域擁有最強實力的國家。2015 年,美國國防部實施“第三次抵消戰(zhàn)略”,將人工智能與軍事創(chuàng)新相結(jié)合,以此繼續(xù)維持美國的全球霸權地位[6]。2016 年,美國國防部發(fā)布《為人工智能的未來做好準備》和《國家人工智能研發(fā)戰(zhàn)略規(guī)劃》,積極推動自主武器和半自主武器的研發(fā)。2017 年,美國國防部提出“算法戰(zhàn)”,并成立了“算法戰(zhàn)跨職能小組”[7]。2018 年,美國國防部發(fā)布《無人系統(tǒng)綜合路線圖2017-2042》,聚焦人機協(xié)作、互操作性及自主性,大力提升無人作戰(zhàn)平臺能力[8]。2019 年2月,美國國防部發(fā)布《2018 國防部人工智能戰(zhàn)略概要:利用人工智能促進安全與繁榮》,提出通過產(chǎn)學研結(jié)合、與國際伙伴共同技術研發(fā)等方式提高美國人工智能軍事化水平[9]。2021 年6 月,美國國防部副部長??怂剐纪苿尤斯ぶ悄芎蛿?shù)據(jù)加速計劃,推動實現(xiàn)以人工智能為基礎的作戰(zhàn)模式“聯(lián)合全域指揮和控制”[10]。2018 年以來,美國海軍大力推動“海上幽靈艦隊霸主”計劃,多次在太平洋軍事演習中使用無人艦艇。2023 年9 月,美國兩艘“幽靈艦隊”的無人艦艇“水手”號、“游騎兵”號出現(xiàn)在日本的橫須賀基地。美國使用無人武器系統(tǒng)的目標是貫徹美軍的分布式作戰(zhàn)理念,試圖在海上以最小代價損害其他國家的海洋權益。

俄羅斯也是推動人工智能軍事化的主要大國。針對美國的“第三次抵消戰(zhàn)略”,俄羅斯國防部制定了《2025 年先進軍用機器人技術裝備研發(fā)專項綜合計劃》,提出了人工智能與軍事運用的路線圖[11]。2016 年,俄羅斯政府發(fā)布《2025年前發(fā)展軍事科學綜合體構想》,將無人自主技術作為俄羅斯軍事創(chuàng)新的重點。2019 年,俄羅斯政府制定《俄羅斯2030 年前國家人工智能發(fā)展戰(zhàn)略》,將人工智能武器裝備作為優(yōu)先發(fā)展事項之一[12]。俄羅斯的軍用人工智能戰(zhàn)略非常重視戰(zhàn)斗機器人。普京曾指出,“戰(zhàn)斗機器人系統(tǒng)可以從根本上改變俄羅斯軍隊的運作方式?!盵13]當前,俄羅斯正大力研制“阿爾戈”“鈾-9”等陸戰(zhàn)機器人部隊和納米機器人系統(tǒng),以及“維塔茲”無人艦艇和“波塞冬”無人潛艇等[14]。俄烏沖突期間,俄羅斯更為重視無人機的使用,“牽牛星”“獵戶座”等無人機系統(tǒng)在戰(zhàn)場上得到了大規(guī)模的實踐和運用。

英法日等大國也在積極推動人工智能的軍事化運用。2019 年1 月,英國國防部發(fā)布《國防領域信息技術變革計劃》,開始推動人工智能在軍事領域的運用。2022 年6 月,英國國防部發(fā)布《國防人工智能戰(zhàn)略》,為推動該戰(zhàn)略的實施,英國國防科學技術實驗室與人工智能研究院艾倫 ? 圖靈研究所等機構聯(lián)合成立國防人工智能研究中心。2018 年3 月,法國國防部成立創(chuàng)新防務實驗室,發(fā)布《戰(zhàn)斗機人機編組計劃》,開始利用人工智能集成更新武器系統(tǒng),并在其人工智能規(guī)劃中增加1 億歐元用于未來武器的創(chuàng)新研發(fā)[15]。2016 年,日本發(fā)布《防衛(wèi)技術戰(zhàn)略》,明確提出將人工智能技術與軍事創(chuàng)新結(jié)合起來,表達了其借助智能科技實現(xiàn)軍事力量跨越的野心[16]。

當前,各國人工智能軍事化的主要目標是發(fā)展各類無人系統(tǒng),如無人機、無人艦船、無人潛艇、無人航母等打擊平臺。一些代表性的無人作戰(zhàn)系統(tǒng)包括美國的RQ-4“全球鷹”戰(zhàn)略無人機和無人艦艇“海上獵手”、俄羅斯的“阿爾戈”陸戰(zhàn)機器人和“波塞冬”無人潛艇等。主要大國競相推動的人工智能軍事化戰(zhàn)略,正在構成一場人工智能的軍備競賽。美國國防部海軍部副部長羅伯特 ? 沃克指出,一旦美國的競爭對手將自主性賦予機器系統(tǒng),那么美國也將不得不采用對等的發(fā)展策略[17]。但是,一旦美國越來越激進地發(fā)展人工智能武器,強化軍事霸權,其他大國也不得不參與這場競賽。人工智能軍備競賽使得意圖孿生加速實現(xiàn),進而給人類帶來真正的重大風險。

第一,人工智能軍事化將打破當前的軍事平衡,不僅激發(fā)當前大國之間的人工智能軍備競賽,而且刺激小國將人工智能與大規(guī)模殺傷性武器研發(fā)相結(jié)合,以期實現(xiàn)非對稱性制衡。這兩種情況都將惡化當前的全球安全局勢。人工智能建立在數(shù)學、物理學、計算機科學等基礎學科和強大的信息技術產(chǎn)業(yè)與芯片產(chǎn)業(yè)基礎之上,發(fā)展中國家的經(jīng)濟和教育基礎都相對薄弱,短期內(nèi)無法在科研領域取得較大進展。當前,積極推動人工智能軍事化的大國在軍事力量上已經(jīng)遠遠超過那些無法獲得頂尖人工智能技術的國家。人工智能軍事化將拉大發(fā)達國家和發(fā)展中國家之間的經(jīng)濟差距和軍事差距,使得發(fā)展中國家在國際秩序中處于更加不利的地位。霸權國家對發(fā)展中國家的打壓將有增無減,進而刺激發(fā)展中國家追求獲取非對稱性的軍事能力。對那些感到不安全的小國家來說,它們不僅存在著開發(fā)核武器的安全需求,也存在著開發(fā)人工智能武器系統(tǒng)的需求,還存在著將人工智能與核武器、生化武器等大規(guī)模殺傷性武器結(jié)合的需求。毫無疑問,無論何種武器領域的軍備競賽,都將弱化國家之間的戰(zhàn)略信任,強化國際社會的敵意,從而給人類造成無法預期的后果。

第二,對于實現(xiàn)意圖孿生的人工智能武器來說,它可能脫離人類的控制。當前,人工智能武器大體上屬于半自主武器,仍然需要人類控制,但發(fā)展全自主武器是軍用人工智能開發(fā)的必然邏輯。全自主武器就是無需人類控制的自主激活程序、自動尋找和跟蹤目標、自動發(fā)動攻擊的武器系統(tǒng)。人類對武器的控制主要體現(xiàn)在程序設計、程序激活、機器能源供應、自動攻擊等領域,其中,自動尋找和跟蹤目標在一定程度上已經(jīng)可以實現(xiàn)。全自主武器的關鍵是讓機器自動獲取驅(qū)動能源,如通過太陽能自動激活機器,同時喚醒機器內(nèi)置的識別、跟蹤和攻擊程序。一旦機器實現(xiàn)了全自主行動,也就變成了意圖孿生的武器,就能夠脫離人類的控制。能夠自動喚醒攻擊程序的全自主武器承載著人類的惡意,它將脫離人類控制,變成人類的夢魘。此外,由于地理上的隱蔽性和不可及性,當前人工智能軍事化的熱點區(qū)域在海洋,未來毫無疑問將深入到太空。深空和深海領域的軍用人工智能系統(tǒng)可能會給人類帶來重大風險。深空和深海本來就是人類難以控制的地理區(qū)域,但其恰恰又是人工智能實驗的理想場所,從而可能變成最容易失控的區(qū)域。當前,美國研制的無人武器系統(tǒng)主要聚焦于海洋,如無人航母、無人潛艇等。那些可以自動激活攻擊程序的人工智能武器隱藏在深海、深空、虛擬空間和微型空間中,很容易脫離人類的控制。這些武器一旦脫離人類控制,人類如何搜尋這類具有隱蔽性和攻擊性的武器,以及如何再度控制或銷毀它們,將變成國際社會的巨大挑戰(zhàn)。

第三,實現(xiàn)意圖孿生的人工智能一旦被恐怖主義和極端勢力所掌握,他們將付出更小的成本發(fā)動更大規(guī)模的恐怖襲擊??植婪肿尤绻@得了無人機、自主武器或殺手機器人等人工智能武器系統(tǒng),他們就會利用這些武器進行大規(guī)模的自主殺戮[18]。如,2023 年10 月5 日,敘利亞霍姆斯軍事學院在舉行畢業(yè)典禮時,遭到無人機的恐怖襲擊,造成重大傷亡。至今,沒有任何組織宣布為此負責。恐怖分子發(fā)動恐怖襲擊的意圖是在民眾中制造恐慌,同時又試圖逃避追蹤。人工智能武器系統(tǒng)是恐怖分子實現(xiàn)邪惡意圖的“理想”工具??植乐髁x襲擊的人工智能化,避免了襲擊者與襲擊目標的近距離接觸,增加了其隱蔽性和靈活性,也將使得國際社會追蹤及打擊恐怖主義變得更為艱難[19]。此外,恐怖勢力和極端勢力的威脅不只在于使用自主武器發(fā)動襲擊,還在于它們將人工智能與致命性傳染病毒、生化武器等系統(tǒng)相結(jié)合,制造出更大的恐怖效應。

三、人工智能意圖孿生的全球治理路徑

傳統(tǒng)研究較為關注人工智能是否可以進化出“類人”意識,擔憂其取代人類,但人類安全的核心挑戰(zhàn)是人工智能的意圖選擇,而不是意識進化。即使人工智能將來進化出了超級意識,如果它選擇向善的意圖,那么人工智能不是人類的威脅,而是人類的最佳伙伴。真正威脅人類的是人工智能意圖孿生帶來的不確定性。人類面臨的真正難題是被延伸到機器上的人類惡意能否被發(fā)現(xiàn)和阻止以及如何阻止。惡意是人類絕大多數(shù)威脅的根源,因此,全球人工智能治理需要聚焦人類的意圖管理和軍用人工智能的意圖孿生。

對軍用人工智能來說,它需要在兩個平行層級進行意圖管理。一是國家之間的敵對意圖管理;二是意圖孿生之后的人工智能管理。這是人工智能治理與其他領域全球治理存在的差異。針對國家層面的敵意來說,它的治理思維類似于核武器治理,需要達成國際協(xié)議和國家之間協(xié)議,避免部署人工智能武器或全面削減人工智能武器,控制人工智能軍事武器的規(guī)模化使用等。針對意圖孿生的人工智能武器來說,它根源于科學問題,類似于全球氣候治理,需要更廣泛的科學發(fā)現(xiàn)作為證據(jù)支撐。氣候治理和人工智能治理,都要求科學介入政治。但人工智能治理的特殊性,意味著它與核軍控和氣候治理的路徑都將有所不同。

全球治理的前提是安全化,即該問題變成一個受到國際社會關注的安全議題。一個沒有得到合理安全化的領域,就不會生成有效的治理思路,也不會開展具體的行動。特定問題的安全化,必須經(jīng)過安全話語傳播和安全機制建立的階段。安全話語的傳播可以讓民眾認識到風險,安全機制的建立則可以啟動安全治理的實踐。當前,全球人工智能治理在很大程度上圍繞智能技術帶來的社會影響而展開,多聚焦在算法倫理、數(shù)據(jù)使用和污染、信息安全、勞工規(guī)范等領域,很少觸及人工智能軍事化的管控。在軍用人工智能領域,安全話語供給明顯不足,民眾對人工智能軍事化和意圖孿生的威脅仍限于科幻層面,缺乏專業(yè)話語。同時,國際層面的安全機制也沒有發(fā)揮應有的作用,國家之間的安全機制仍然沒有得到構建,針對人工智能軍事化的安全規(guī)范仍在討論之中。基于以上存在的問題,當前推動人工智能軍事化的治理需要遵循從話語到機制、從科學到政治、從聯(lián)合國到主權國家的安全化路徑。

(一)全球科學共同體合作路徑

全球科學或知識共同體的合作,可以有效供給人工智能意圖孿生的安全話語。與氣候變暖一樣,人工智能軍事化的意圖孿生也處在一個模糊地帶,只有專業(yè)話語才能夠?qū)⑵淇茖W地安全化。專業(yè)話語比政治話語或常人話語更具有權威性和說服力,能夠?qū)⒆h題迅速安全化。例如,全球變暖需要氣候?qū)<野l(fā)表專業(yè)的調(diào)查報告,解釋氣候變暖的形勢以及可能的危害。人工智能軍事化遵循同樣的邏輯。人工智能發(fā)展到意圖孿生的何種程度及其風險,需要強大的專業(yè)解釋和預測。它屬于科學范疇,必須開展相關的科學辯論,需要全球頂尖科學家組成的知識共同體作出判斷。科學家的集體認知是人工智能軍事化治理的話語基礎。

鑒于安全話語的供給不足,國際社會應該推動在聯(lián)合國層面建立監(jiān)管人工智能技術前景的科學機構,其主要成員是全球人工智能領域的科學家。它的功能和職責是發(fā)表人工智能技術應用的風險評估報告,尤其是人工智能意圖孿生的進展情況和前景預測。人工智能技術拐點的態(tài)勢評估對其治理來說非常關鍵。一旦出現(xiàn)意圖孿生的情況,就意味著人工智能即將出現(xiàn)失控態(tài)勢,也意味著需要更緊密的全球合作來應對人工智能危機。此外,權威的態(tài)勢評估也是人工智能分級管控的前提。自主武器系統(tǒng)的分級管控有利于精準控制軍用人工智能,鼓勵民用人工智能的發(fā)展,但人工智能的風險分級只有基于知識共同體的科學評估才具有合理性。

全球科學合作路徑的必要性還體現(xiàn)在科學家和技術人員可以及時發(fā)現(xiàn)人工智能意圖孿生的進展情況及其風險,及時采取行動。人工智能的開發(fā)者基本上都是科學家和技術人員,他們的專業(yè)知識和職業(yè)道德在極大程度上影響著人工智能軍事化的治理進程。他們對技術風險的敏感性和行動力使其處于人工智能治理的最前沿。2015 年10 月,人類未來研究所發(fā)布了一封《邁向強大而有益的人工智能研究》的公開信,呼吁將人工智能研究用于增進人類福祉。此公開信獲得了霍金、馬斯克、黃仁勛等人的支持,至今已有11 251 份簽名,其中大部分簽名者為人工智能領域的教授、專家或從業(yè)者。2017年9 月,馬斯克聯(lián)合116 名科學家致信聯(lián)合國,呼吁禁止使用致命性自主武器[20]。2018 年3月,1 179 名從事人工智能科學的教授和專家,聯(lián)合3 100 多名谷歌公司員工發(fā)表公開信,反對谷歌公司繼續(xù)為美軍國防部Maven 項目提供服務,同時承諾不開發(fā)、不生產(chǎn)自主武器,積極支持國際社會在禁止自主武器方面所作的努力[21]。自主武器本質(zhì)上就是實現(xiàn)了意圖孿生的武器。人工智能專家將目標瞄準自主武器,正是為了預防意圖孿生型武器的出現(xiàn)。

非政府組織等民間知識團體也是推動人工智能全球治理的重要組成部分,它們的積極活動也能夠增加和傳播安全話語。它們的職能是喚醒民眾的安全意識,進而呼吁政府控制意圖孿生型武器的開發(fā)。2012 年10 月,在紐約成立的非政府組織“禁止殺手機器人運動”,其宗旨是“更少的自主,更多的人性”。該組織呼吁制定新的國際法禁止或約束自主武器的開發(fā)和使用。該組織目前在全球擁有180 多個分支機構,其目標是宣傳研發(fā)和部署自主武器的危害性。他們的行動正在全球?qū)用鎲拘衙癖姷陌踩庾R和對自主武器的警惕[22]。

(二)聯(lián)合國軍控路徑

《特定常規(guī)武器公約》締約國會議是當前聯(lián)合國層面針對軍用人工智能的主要治理機制。2016 年,締約國會議設立了專家委員會,迄今為止,舉行了6 次專家咨詢會議。締約國會議討論的焦點是自主武器,也就是實現(xiàn)了意圖孿生的武器。根據(jù)歷次會議的討論,各成員國達成的基本共識是:從自主武器的開發(fā)到使用,必須保證人類對自主武器的全過程控制和監(jiān)管[23]。聯(lián)合國人權理事會在自主武器控制中起到了推動作用。理事會特別報告員邁納 ? 凱提交報告,建議全面禁止無需人類控制的自主武器系統(tǒng)[24]。上述事實表明,聯(lián)合國在阻止自主武器上達成了越來越多的共識。但是截至目前,由于美國等國家對全面禁止人工智能武器持猶豫或反對態(tài)度,國際社會暫時無法就軍用人工智能的研發(fā)和使用達成協(xié)議,也沒有制定相應的國際法來約束軍用人工智能的開發(fā)。

鑒于當前人工智能軍控機制的治理效能不足,而《特定常規(guī)武器公約》締約國會議、聯(lián)合國人權理事會和紅十字會等機構都不是專門的人工智能軍控機構,因此,國際社會需要推動在聯(lián)合國建立專門管控軍用人工智能的機構,協(xié)商制定監(jiān)管人工智能軍事化的綱領性文件。這種機制類似于核武器裁減機制。它必須區(qū)分人工智能民用和軍用的界線,鼓勵推動民用人工智能,但約束其軍事化使用。當前,各國正在積極探索人工智能的軍事化運用,要想阻止這種趨勢非常艱難,但有必要讓各國的人工智能軍事化應用處在相對透明公開的環(huán)境中,盡量將人工智能競賽限制在民用領域,盡最大努力阻止自主武器的開發(fā)與部署。2023 年10 月18 日,中國政府發(fā)布《全球人工智能治理倡議》指出,人工智能治理攸關全人類命運,國際社會必須建立專門的國際機構來監(jiān)管人工智能的軍事化使用[25]。

除了建立和完善針對軍用人工智能的治理機制,聯(lián)合國還需要更深層次地考慮人工智能軍備競賽的意圖,防止軍事實力失衡引發(fā)的沖突和危機。一方面,人工智能軍備競賽的根源與核武器開發(fā)一樣,都源于國家的安全防備。在不安全的國際社會中,國家對待彼此的意圖也會更多地趨于敵意,進而增強自主武器的研發(fā)動力。因此,人工智能的軍控機制需要綜合考慮地區(qū)安全環(huán)境,只有國家處于相對安全的環(huán)境中,才會弱化它們開發(fā)自主武器的動力。對小國家來說,自主武器跟核武器一樣,都屬于非對稱型武器。如果處于不安全的狀態(tài)中,它們就會選擇開發(fā)自主武器以獲得軍事力量的平衡?;诖?,聯(lián)合國軍控的思路是通過弱化國家之間的敵對意圖來阻止自主武器的開發(fā)和部署。聯(lián)合國軍控機制既要控制自主武器的研發(fā),也要控制核武器、導彈防御系統(tǒng)、太空武器等高精尖武器系統(tǒng)的部署,以防止地區(qū)軍事失衡帶來的人工智能武器開發(fā)浪潮。另一方面,聯(lián)合國軍控機構需要與科學知識團體緊密合作,嚴格評估自主武器的智能化程度,控制意圖孿生現(xiàn)象在武器系統(tǒng)上的實現(xiàn)。據(jù)此,聯(lián)合國軍控機構需要嚴密監(jiān)控人工智能武器的資金鏈、產(chǎn)業(yè)鏈、供應鏈和技術專家信息庫,防范自主武器被恐怖分子控制,同時建立對等的、針對所有國家的可持續(xù)核查機制,以及類似于氣候治理中的國家自主評估報告和行動機制,以便聯(lián)合國在最大程度上掌握自主武器的發(fā)展動向。

(三)國家之間的協(xié)調(diào)路徑

大國協(xié)商是國際治理的重要組成部分,尤其是在科學技術領域。頂尖科學技術一般掌握在大國手中,它們是科技進步的主要推動者,也是科技危險的發(fā)現(xiàn)者。在核武器管控領域,美俄核軍控協(xié)議是國際核武器治理的重要支柱,人工智能的軍事管控亦是如此。當前,全球監(jiān)管機制尚未建立,大國之間基于彼此意圖的相互溝通、自我監(jiān)督和相互約束極其重要。中美兩國協(xié)商達成人工智能協(xié)議,可以成為全球人工智能治理的基礎,為其他大國加入治理機制發(fā)揮示范作用。正如前外交部副部長傅瑩所言,中美兩國是在人工智能技術研究和應用領域發(fā)展最快的國家,兩國需要加強協(xié)調(diào)與合作,尤其是討論通過國際法和規(guī)范開展對人工智能武器的監(jiān)管,鼓勵采取克制態(tài)度以限制對人工智能數(shù)據(jù)的軍事化濫用[26]。

2019 年2 月,中國科技部成立了國家新一代人工智能治理專業(yè)委員會,專門負責人工智能的管理。2021 年12 月,中國向《特定常規(guī)武器公約》審議大會提交了《中國關于規(guī)范人工智能軍事應用的立場文件》。該文件旗幟鮮明地指出,人工智能的軍事運用應該遵循以人為本、“智能向善”的倫理原則;呼吁各國不以謀求軍事優(yōu)勢為由開發(fā)人工智能技術,確保人工智能武器系統(tǒng)永遠處在人類控制之下;實施分級、分類管理,避免使用可能產(chǎn)生嚴重消極后果的不成熟技術[27]。2018 年,美國成立“人工智能特別委員會”“人工智能國家安全委員會”,負責監(jiān)管人工智能的開發(fā)與使用。2019 年,美國國防創(chuàng)新委員會發(fā)布的《人工智能原則:國防部人工智能應用倫理的若干建議》指出,人工智能應用必須遵守“負責、公平、可追蹤、可靠、可控”五條原則,同時必須嚴格測試和驗證人工智能和核武器等高危武器的結(jié)合[28]。2018 年,歐盟成立人工智能監(jiān)管機構“人工智能高級別專家組”,推動出臺《人工智能法》[29],負責歐洲范圍內(nèi)人工智能治理政策的制定和實施。2019 年4 月,歐盟發(fā)布《可信賴的人工智能道德準則》,討論全球人工智能軍事化運用的可能風險[30]。目前,在主要西方大國中,美英等國家對克制使用自主武器仍顯猶豫,但法德兩國傾向于嚴厲禁止自主武器系統(tǒng)的開發(fā)[31]。

以上事實表明,全球主要大國在一定程度上愿意管控人工智能的軍事化使用。人工智能向善的本質(zhì)是人類意圖向善,各國對此具有基本的共識,這意味著推動制定軍用人工智能監(jiān)管協(xié)議具有現(xiàn)實基礎。中美等主要大國需要討論人工智能軍備競賽的危害性,推動簽署人工智能武器控制協(xié)議,尤其應該深入探討深海、深空的自主武器部署,不僅要控制自主武器的研發(fā)進度,及時評估自主武器的危險程度,還應及時預防人工智能與大規(guī)模殺傷性武器的結(jié)合?;诖髧莆哲娪萌斯ぶ悄芎诵募夹g的事實,大國之間應該建立嚴密的防擴散機制,防止人工智能技術的全球擴散,阻止自主武器落入恐怖勢力和極端勢力手中。

當前,軍用人工智能監(jiān)管還面臨霸權政治和冷戰(zhàn)思維的強大阻礙。美國為了維持自身霸權地位,對人工智能的軍事化持有極高熱情。美國前防長埃斯珀明確指出,人工智能將改變未來戰(zhàn)爭形態(tài),美國必須贏得與中國和俄羅斯在人工智能領域的競爭[32]。正是這種維持全球霸權地位的錯誤意圖,使得美國很難真心誠意地跟中國協(xié)商削減人工智能武器的部署。基于這樣的安全困境,中國需要與其他發(fā)展中國家一起,以全球安全倡議為價值引領,遵循安全不可分割的原則,既通過中美軍事對話來緩解彼此的意圖和信任困境,也通過全球安全對話來抵制美國的霸權意圖,從人類整體的角度出發(fā),緩解地區(qū)安全困境和中美安全困境,推動構建中美人工智能軍事化的監(jiān)管框架,并逐步接納其他大國共同商討制定針對人工智能軍事化的全球安全協(xié)議。

四、結(jié)語

當前,人工智能技術不斷更新迭代,全球主要大國圍繞人工智能的軍事化趨勢愈加明顯,人工智能意圖孿生變得更加可能,給人類未來帶來巨大的安全風險。據(jù)此,國際社會既要針對人工智能導致的軍事實力失衡展開談判和控制,也需要在科學層面上緊密關注人工智能意圖孿生的臨界點。人工智能軍事化的治理必須以人類共同安全為基本準則,以人類命運共同體為價值依歸,堅持安全話語與安全機制結(jié)合、科學評估與政治合作結(jié)合、聯(lián)合國監(jiān)管與國家自律結(jié)合的多軌并行路徑,以核軍控和氣候治理的歷史經(jīng)驗來指導大國之間的談判與協(xié)商,引領國際社會對人工智能軍事化的協(xié)同治理。

猜你喜歡
軍事化意圖武器
原始意圖、對抗主義和非解釋主義
法律方法(2022年2期)2022-10-20 06:42:20
陸游詩寫意圖(國畫)
制定法解釋與立法意圖的反事實檢驗
法律方法(2021年3期)2021-03-16 05:56:58
單親爸爸育兒經(jīng):軍事化管理收服“公主心”
好日子(2019年4期)2019-05-11 08:48:30
一張圖看懂武器發(fā)展史
走進世紀陽光感受軍事化管理的魅力
中國照明(2016年4期)2016-05-17 06:16:19
請放下你的武器
退役武器去哪兒了?
負荊請罪
燕山秋意圖
乐昌市| 卢湾区| 北流市| 中山市| 新昌县| 黄平县| 曲周县| 屏南县| 萨迦县| 永清县| 吉林市| 怀宁县| 建瓯市| 郎溪县| 高淳县| 土默特右旗| 宁明县| 灵山县| 龙口市| 沾化县| 郁南县| 中江县| 孝昌县| 原平市| 隆回县| 武义县| 武功县| 铜陵市| 海淀区| 九江市| 恩平市| 张家川| 同江市| 田阳县| 固阳县| 高唐县| 和平县| 濮阳市| 肇州县| 鄂托克旗| 娄烦县|