■ 趙瑞琦
在人工智能賦能的網(wǎng)絡(luò)安全領(lǐng)域,已經(jīng)出現(xiàn)了軍備競賽、人工智能攻擊手段擴(kuò)散和技術(shù)失控的苗頭與風(fēng)險(xiǎn),并進(jìn)而成為新興的復(fù)雜、嚴(yán)峻的非傳統(tǒng)安全問題之一。人工智能能否順利應(yīng)用于網(wǎng)絡(luò)安全領(lǐng)域或者是否會利大于弊,很大程度上取決于人類是否有足夠的能力來建構(gòu)適切的治理規(guī)范并確立適切的倫理規(guī)范,以駕馭這種技術(shù)。
本文綜合考慮技術(shù)可能與戰(zhàn)略、政策和倫理的需要,基于人類應(yīng)該對自主系統(tǒng)擁有權(quán)力這一人工智能發(fā)展中不可偏離的原則,嘗試從理論知識和實(shí)踐知識出發(fā),思考在建立普遍遵守的人工智能國際規(guī)范的過程中需要在本階段回應(yīng)與解決的現(xiàn)實(shí)問題的思路,包括:評估錯(cuò)誤或失控的風(fēng)險(xiǎn),探討構(gòu)建共同準(zhǔn)則的可能,解析人工智能發(fā)展的倫理理念等等。本文所述是根據(jù)已經(jīng)發(fā)生的人工智能事件或?qū)W術(shù)界普遍認(rèn)可的發(fā)展趨勢,來分析人工智能對網(wǎng)絡(luò)安全的影響,并初步探討構(gòu)建共同準(zhǔn)則時(shí)的可能路徑及面對倫理困境時(shí)的可能抉擇,具體構(gòu)建的過程和結(jié)果將是開放的,何為適切的倫理抉擇也是有待討論的。
為了在新一輪以科技為主導(dǎo)的國際競爭中掌握更多的主動(dòng)權(quán)、贏得先機(jī),許多國家和區(qū)域,尤其是美國、中國和歐盟,均出臺相關(guān)戰(zhàn)略或政策進(jìn)行總體和全面的布局,以全力推動(dòng)和引導(dǎo)人工智能在網(wǎng)絡(luò)安全領(lǐng)域的發(fā)展與應(yīng)用,全方位重塑網(wǎng)絡(luò)安全模式、優(yōu)化網(wǎng)絡(luò)安全結(jié)構(gòu)、增強(qiáng)網(wǎng)絡(luò)安全能力。
網(wǎng)絡(luò)安全本就是目前全球面臨的最復(fù)雜、最現(xiàn)實(shí)和最嚴(yán)峻的非傳統(tǒng)安全問題之一。而人工智能的嵌入,解鎖了新的攻擊與防御渠道,可能導(dǎo)致網(wǎng)絡(luò)沖突頻繁化、尖端化并日益具有破壞性。有兩種前景特別引人擔(dān)憂:人工智能廣泛、無節(jié)制使用甚至惡意軟件泛濫,會導(dǎo)致新一波的網(wǎng)絡(luò)軍備競賽;人類無法控制網(wǎng)絡(luò)攻防中人工智能勝負(fù)角逐,面臨技術(shù)失控的風(fēng)險(xiǎn),只能任其發(fā)展,而戰(zhàn)爭的流動(dòng)性、聯(lián)網(wǎng)設(shè)備的數(shù)量以及移動(dòng)計(jì)算能力的缺陷,會使得并不成熟的人工智能有引發(fā)現(xiàn)實(shí)的動(dòng)能戰(zhàn)爭的危險(xiǎn)。
在2016年,兩個(gè)預(yù)示人工智能技術(shù)快速進(jìn)步和潛在應(yīng)用的里程碑事件出現(xiàn):其一,美國國防高級研究計(jì)劃局(Defense Advanced Research Projects Agency,簡稱DARPA)網(wǎng)絡(luò)挑戰(zhàn)賽(Cyber Grand Challenge)的獲勝者“Mayhem”證明了自動(dòng)檢測和修補(bǔ)軟件漏洞的潛力——這改變了網(wǎng)絡(luò)安全的防護(hù)規(guī)則;其二,谷歌的AlphaGo戰(zhàn)勝需要出類拔萃直覺和評估技能的圍棋世界頂級選手——這顯示,在一定規(guī)則下的邏輯思維領(lǐng)域,計(jì)算機(jī)的學(xué)習(xí)能力與思考能力至少可以與人類并駕齊驅(qū)。對此中意義,中共中央軍委聯(lián)合參謀部有明確認(rèn)知:“阿爾法圍棋”對韓國圍棋選手李世石的壓倒性勝利“展示了人工智能在作戰(zhàn)指揮、方案推演、輔助決策中的巨大潛能”①。
目前,人工智能進(jìn)展主要涉及機(jī)器的深度學(xué)習(xí)技術(shù),例如涉及計(jì)算機(jī)視覺模式識別和自然語言處理等使用深度神經(jīng)網(wǎng)絡(luò)的技術(shù)領(lǐng)域。在網(wǎng)絡(luò)安全領(lǐng)域,人工智能的應(yīng)用主要體現(xiàn)在兩個(gè)層面:
其一是由人工智能驅(qū)動(dòng)的機(jī)器很可能成為未來戰(zhàn)場上主要的網(wǎng)絡(luò)“戰(zhàn)士”?;谌斯ぶ悄艿膹?fù)雜算法可用來操作惡意軟件,支持其在傳播過程中自我學(xué)習(xí),不斷進(jìn)行改革,并模仿系統(tǒng)中用戶的行為以弄清楚其周邊環(huán)境并隱藏自己,從而盡可能長時(shí)間地隱藏在計(jì)算機(jī)系統(tǒng)中。同時(shí),由人工智能提供支持的自動(dòng)化系統(tǒng)可以探測網(wǎng)絡(luò)和系統(tǒng),搜索可能被利用的未發(fā)現(xiàn)的漏洞。由此,基于人工智能惡意軟件的網(wǎng)絡(luò)釣魚②、基于內(nèi)部人員(包括員工、臨時(shí)員工、承包商和業(yè)務(wù)合作伙伴)的社會工程攻擊(Social Engineering Attack)的比例越來越高。比如,通過人工智能的深度造假(Deepfake)技術(shù),可以創(chuàng)建以假亂真的視頻和音頻或精心設(shè)計(jì)的電子郵件以欺騙目標(biāo)個(gè)體。隨著人工智能驅(qū)動(dòng)攻擊工具的網(wǎng)絡(luò)易得性和技術(shù)平民化,使得即使是個(gè)體罪犯也能夠發(fā)起復(fù)雜的有針對性的攻擊。而且,這種基于人工智能的工具包可以使進(jìn)行每一個(gè)額外目標(biāo)攻擊的邊際成本趨于零。
其二是采用混合人工智能方法,可以提高網(wǎng)絡(luò)安全防御能力,甚至起到革命性作用:利用人工智能來驗(yàn)證密碼、識別漏洞和脆弱性;相應(yīng)的回應(yīng)和反擊將更迅速、更準(zhǔn)確并更具破壞性。由此,威脅將在數(shù)小時(shí)內(nèi)而非數(shù)天或數(shù)周來處理。并且,防御者可以使用人工智能來對自身的網(wǎng)絡(luò)發(fā)動(dòng)模擬攻擊,以找到漏洞識別威脅并在攻擊者發(fā)現(xiàn)之前關(guān)閉或修補(bǔ)漏洞,以更好地加強(qiáng)自身的系統(tǒng)以免受攻擊。
軍事需求歷來是推動(dòng)技術(shù)變革的重要力量,特別是在一些戰(zhàn)略性領(lǐng)域,新技術(shù)與軍事變革之間是個(gè)彼此助推的互動(dòng)過程。美國是世界上第一個(gè)引入網(wǎng)絡(luò)戰(zhàn)概念的國家,它一直在利用信息通信技術(shù)領(lǐng)域的先發(fā)優(yōu)勢及美國企業(yè)在網(wǎng)絡(luò)基礎(chǔ)設(shè)施方面的壟斷地位,監(jiān)視和獲取全球通信數(shù)據(jù)。
同時(shí),美國軍隊(duì)和情報(bào)機(jī)構(gòu)也正在打造堪比其核武力量的全球最大網(wǎng)絡(luò)武器庫。2009年,美國軍方成立網(wǎng)絡(luò)司令部,在2010年正式運(yùn)行并在2017年升級為美軍第十個(gè)聯(lián)合作戰(zhàn)司令部。2013年,美國網(wǎng)絡(luò)空間司令部從900人擴(kuò)編至4900人,并一度宣布3年內(nèi)擴(kuò)建40支網(wǎng)絡(luò)戰(zhàn)部隊(duì)。美國軍隊(duì)和情報(bào)機(jī)構(gòu)還通過打造堪比核武庫的全球最大網(wǎng)絡(luò)武器庫,用于網(wǎng)絡(luò)攻擊甚至網(wǎng)絡(luò)戰(zhàn)?!熬S基解密”根據(jù)代號“穹頂7”(Vault 7)的8761份秘密文件揭露了美國中央情報(bào)局在2013年至2016年間所實(shí)施的一系列高度機(jī)密的全球性網(wǎng)絡(luò)入侵活動(dòng),內(nèi)容涉及攻擊手法、攻擊目標(biāo)、會議記錄、海外行動(dòng)記錄,以及使用的攻擊工具和7億行源代碼。③美國大量開發(fā)網(wǎng)絡(luò)武器所引發(fā)的軍備競賽,已經(jīng)給全球網(wǎng)絡(luò)安全帶來嚴(yán)重的威脅和風(fēng)險(xiǎn)。
計(jì)算能力增長、算法的突破、數(shù)據(jù)的量與質(zhì)的提升為人工智能在網(wǎng)絡(luò)軍備競賽領(lǐng)域的應(yīng)用,提供了新的可能,非常有可能引發(fā)國家間的全球軍備競賽從子彈轉(zhuǎn)向鍵盤:人工智能賦能的網(wǎng)絡(luò)進(jìn)攻使威脅變得更快速也更先進(jìn),這種更新?lián)Q代的威脅迫使被威脅方必須及時(shí)進(jìn)行辨別和反應(yīng),從而助推本就非常危險(xiǎn)的網(wǎng)絡(luò)軍備競賽。更有甚者,由于計(jì)算能力和數(shù)據(jù)可用性的進(jìn)步,機(jī)器得以能夠完成一度需要人類參與或被視為不可能的任務(wù),比如,人工智能可以替人來執(zhí)行那些“骯臟、沉悶和危險(xiǎn)”的戰(zhàn)場任務(wù);人工智能系統(tǒng)可以比人類處理更多的信息,而且速度更快,更精確,也更協(xié)調(diào),這使得它們成為實(shí)時(shí)評估混亂戰(zhàn)況的寶貴工具。最終,人工智能將在現(xiàn)實(shí)操作的基本層面上占據(jù)主導(dǎo)地位。這也許會帶來新的軍事力量,從而引發(fā)軍備競賽,對手之間將開發(fā)對抗或干擾彼此人工智能系統(tǒng)的對策,以歪曲數(shù)據(jù)或攻擊算法本身,從而可能增加國家在危機(jī)中有意或無意間動(dòng)用核武的可能性。④
同時(shí),美國利用技術(shù)優(yōu)勢追求霸權(quán)的作法會惡化國際信任,因?yàn)槌鞍l(fā)展人工智能的“先發(fā)優(yōu)勢”,將會使一國獲得并強(qiáng)化后來者所無法企及的地位和利益。為避免競爭落后而遭遇“降維打擊”的可能性,各國將在人工智能能力建構(gòu)方面增強(qiáng)對彼此追趕迫切性的認(rèn)知和行動(dòng),從而導(dǎo)致國家越來越傾向使用攻擊性的人工智能賦能戰(zhàn)略,并在遭到攻擊時(shí)進(jìn)行更加猛烈的反擊??梢灶A(yù)計(jì),如果無法建立相應(yīng)的國際規(guī)范與法律,任由這種惡性循環(huán)導(dǎo)致的安全困境無限發(fā)展,將導(dǎo)致人工智能軍備競賽的程度遠(yuǎn)高于人工智能合作的可能。
人工智能的軍事應(yīng)用會極大地降低了傷亡風(fēng)險(xiǎn),從而在一定程度上降低戰(zhàn)爭的門檻。這有可能鼓勵(lì)減少自我約束,使各國更傾向于采取進(jìn)攻性的行動(dòng)來達(dá)到相應(yīng)的目的,從而形成國際安全領(lǐng)域新的不穩(wěn)定因素。
基于人工智能的網(wǎng)絡(luò)和物理軍備競賽,可能導(dǎo)致兩種前景:以人工智能為主的防御措施與以人工智能為主的進(jìn)攻手段在網(wǎng)上決一勝負(fù),人類只能站在一邊觀看;目前人工智能的軍事應(yīng)用尚不直接涉及到致命武器,但可能會導(dǎo)致引發(fā)不穩(wěn)定危機(jī)或加劇風(fēng)險(xiǎn)升級的錯(cuò)誤,從而導(dǎo)致物理攻擊并引發(fā)國家間的傳統(tǒng)動(dòng)能戰(zhàn)爭。
雪上加霜的是,目前的人工智能技術(shù)發(fā)展仍然相當(dāng)不成熟且缺陷很多:其一,多數(shù)先進(jìn)威脅檢測技術(shù)都會采用某種形式的人工智能來標(biāo)記某個(gè)潛在事件,但是,這一技術(shù)會造成大量誤報(bào)問題,如果不進(jìn)行適當(dāng)校正,則會導(dǎo)致“威脅疲勞”,形成“狼來了”的局面。例如,一項(xiàng)研究表明,IT和安全組織每周會收到大約1.7萬次惡意軟件告警,但其中只有19%被認(rèn)為是可信的,只有4%需要進(jìn)一步調(diào)查。⑤考慮到戰(zhàn)爭的流動(dòng)性、聯(lián)網(wǎng)設(shè)備的數(shù)量以及移動(dòng)計(jì)算能力的缺陷,機(jī)器學(xué)習(xí)必須進(jìn)一步發(fā)展才能提高在真實(shí)戰(zhàn)場上的預(yù)警能力與實(shí)用性。其二,在當(dāng)前的發(fā)展階段,人工智能尚達(dá)不到人類智能的水平,更非萬無一失。由人編寫的代碼無法確保程序完全安全、可靠、可控、可信,數(shù)據(jù)質(zhì)量獲取、加工、存儲和使用等環(huán)節(jié)都存在著一定的數(shù)據(jù)質(zhì)量和安全風(fēng)險(xiǎn),作為人工智能發(fā)展核心的算法和數(shù)據(jù)都存在著潛在的安全問題,從而往往會犯一些人類不會犯或意想不到的錯(cuò)誤。更有甚者,如果某個(gè)情況超出了算法的預(yù)期參數(shù),可能導(dǎo)致錯(cuò)誤或意外引起的突發(fā)行為,進(jìn)而產(chǎn)生嚴(yán)重的后果。
人工智能其實(shí)很脆弱。通過注入損壞或錯(cuò)誤的數(shù)據(jù),成功的網(wǎng)絡(luò)攻擊可以改變?nèi)斯ぶ悄艿挠?xùn)練數(shù)據(jù),進(jìn)而改變?nèi)斯ぶ悄艿慕Y(jié)論??陀^來看,即便成熟的自動(dòng)武器的使用也可能會導(dǎo)致一系列現(xiàn)實(shí)風(fēng)險(xiǎn),包括在復(fù)雜系統(tǒng)中因新因素的介入而導(dǎo)致的不可避免的失敗,敵方對自主系統(tǒng)的攻擊或破壞(例如欺騙和行為攻擊),或者敵我系統(tǒng)之間發(fā)生不可預(yù)知的交互等等。況且,當(dāng)前的人工智能系統(tǒng)雖然功能強(qiáng)大但并不可靠,許多人工智能設(shè)備很容易受到復(fù)雜攻擊的影響,或者在訓(xùn)練環(huán)境之外使用時(shí)失靈。
更有甚者,對于每一個(gè)參與競爭的國家而言,目前更大的危險(xiǎn)并不是在人工智能領(lǐng)域落后于競爭對手,而是人工智能軍備競賽所帶來的緊迫感將促使各國急于部署不安全的人工智能系統(tǒng)能:即使其他國家還沒有處于重大突破的邊緣,但不前進(jìn)即落后的競爭壓力會帶來“抄近路”的選擇。由此,會導(dǎo)致一國基于未雨綢繆、防患未然的想法而部署一項(xiàng)未經(jīng)測試的甚至是具有瑕疵的人工智能設(shè)備,以迎頭趕上并超越其他國家。這樣的結(jié)果對于每個(gè)入局者而言都將是滅頂之災(zāi)。
除了以上問題,伴隨著人工智能武器的開發(fā),國際社會面臨的另一大難題就是反擴(kuò)散問題:人工智能技術(shù)的擴(kuò)散還會給全球安全帶來新的威脅,比如,恐怖主義組織以及不負(fù)責(zé)任的國家獲取了人工智能武器,將會使人工智能成為產(chǎn)生惡意軟件、勒索軟件及其他各種惡意計(jì)算機(jī)代碼的溫床,從而威脅國際社會的安全與和平。另外,人工智能的軍備競賽還會對技術(shù)邏輯和商業(yè)邏輯產(chǎn)生破壞。人工智能具有軍民兩用性質(zhì),其最初的目的是發(fā)展經(jīng)濟(jì),增加社會福利,而過度地強(qiáng)調(diào)軍事用途會對人工智能的全球研發(fā)體系和產(chǎn)業(yè)鏈造成嚴(yán)重威脅,⑥甚至形成反噬作用。
鑒于人工智能嵌入網(wǎng)絡(luò)攻擊而導(dǎo)致的安全問題具有跨領(lǐng)域和全球性的特點(diǎn),國際社會有必要確立大致原則和可能路徑,通過加強(qiáng)國際合作及威脅情報(bào)和經(jīng)驗(yàn)的分享,以建構(gòu)人工智能在網(wǎng)絡(luò)安全領(lǐng)域的使用規(guī)范,維護(hù)網(wǎng)絡(luò)空間的戰(zhàn)略穩(wěn)定。
清華大學(xué)人工智能與安全項(xiàng)目小組認(rèn)為人工智能的發(fā)展要遵循六點(diǎn)原則,包括:福祉原則、安全原則、共享原則、和平原則、法治原則與合作原則。⑦應(yīng)該說,這些原則可以作為討論和制定人工智能國際規(guī)則的基礎(chǔ),但因沒有具體細(xì)化而略顯空泛和抽象,且沒有具象到網(wǎng)絡(luò)安全領(lǐng)域。在網(wǎng)絡(luò)安全領(lǐng)域,人工智能的使用應(yīng)在如下原則和路徑上進(jìn)行深層次的、有實(shí)際意義的國際規(guī)范建構(gòu)。
就目前大國的不同立場而言,制定一個(gè)全球性網(wǎng)絡(luò)空間條約是不可能的。不過,除了正式條約,對國家的規(guī)范性約束還包括行為準(zhǔn)則、國家的傳統(tǒng)實(shí)踐,以及群體對合理行為的普遍期待(它形成普通法)。在范圍上,這類約束可以有全球、多邊、雙邊等多種形式。⑧
在目前的網(wǎng)絡(luò)沖突中,就目標(biāo)選擇、攻擊范圍和破壞程度而言,各國政府多會嚴(yán)格選擇、謹(jǐn)慎行動(dòng),以避免傷害溢出殃及無辜,要避免沖突擴(kuò)大化。但是,政治審慎、整體考量、綜合判斷的原則,能否在人工智能網(wǎng)絡(luò)武器的現(xiàn)實(shí)使用中得到遵守,或在多大程度上得到遵守,仍需要不斷觀察,目前疑問和不確定性較大。
2019年4月8日,歐盟委員會發(fā)布人工智能倫理準(zhǔn)則,列出“可信賴人工智能”的7個(gè)關(guān)鍵條件——人的能動(dòng)性和監(jiān)督能力、安全性、隱私數(shù)據(jù)管理、透明度、包容性、社會福祉、問責(zé)機(jī)制,以確保人工智能足夠安全可靠。歐盟認(rèn)為“可信賴的人工智能”有兩個(gè)必要的組成部分:一是應(yīng)尊重基本人權(quán)、規(guī)章制度、核心原則及價(jià)值觀;二是應(yīng)在技術(shù)上安全可靠,避免因技術(shù)不足而造成無意的傷害。盡管制定準(zhǔn)則是一個(gè)好主意,部分批評人士也認(rèn)為,“可信賴人工智能”這一概念的定義尚不明確,且目前還不清楚未來的監(jiān)管如何實(shí)施;準(zhǔn)則過分細(xì)化會難以操作,阻礙行業(yè)發(fā)展;準(zhǔn)則中沒有禁止使用人工智能開發(fā)武器也是不恰當(dāng)?shù)摹?/p>
網(wǎng)絡(luò)武器泄露已經(jīng)給全球安全與民心穩(wěn)定造成相當(dāng)大的威脅,類似于 WannaCry 和 NotPetya 這樣源自于美國國家安全局武器庫中網(wǎng)絡(luò)武器泄露再次開發(fā)而成的勒索病毒給國際社會帶來了幾百億美元的經(jīng)濟(jì)損失和重大的公共安全危害。⑨可以想象,更具危害的自主攻擊網(wǎng)絡(luò)武器擴(kuò)散造成的網(wǎng)絡(luò)安全危害將更加嚴(yán)重,尤其是伴隨相關(guān)技術(shù)平民化的發(fā)展,恐怖主義組織完全可能獲得并使用的情況下。
為此,就像核武器的使用那樣,人工智能網(wǎng)絡(luò)武器在存儲和使用時(shí),必須建立嚴(yán)格的加密與解密的規(guī)定和措施。為此,在技術(shù)展開層面,自主攻擊的網(wǎng)絡(luò)武器開發(fā)應(yīng)當(dāng)被嚴(yán)格限制在特定的環(huán)境之下,并且精確地開展測試。在技術(shù)防擴(kuò)散層面,需要設(shè)定攻擊手段的自毀功能,即,加入在泄露后可以自我刪除、取消激活等功能。
這樣的限制性規(guī)范是完全可能的。比如迄今為止發(fā)現(xiàn)的最大規(guī)模和最為復(fù)雜的網(wǎng)絡(luò)攻擊病毒火焰病毒,是迄今為止發(fā)現(xiàn)程序最大的網(wǎng)絡(luò)武器,其復(fù)雜性和功能性已經(jīng)超過其它任何已知的網(wǎng)絡(luò)武器,就內(nèi)置自毀機(jī)制:它在收到指令的情況下,會自我刪除。
在人工智能賦能的網(wǎng)絡(luò)攻防中,指揮官和操作人員要加強(qiáng)安全與倫理考慮,減少錯(cuò)誤或失控的風(fēng)險(xiǎn),首先需要某種原則來決定成比例的反應(yīng),就像要確定明確的門檻或紅線來區(qū)分合法的和非法的網(wǎng)絡(luò)攻擊,并且對非法行動(dòng)進(jìn)行適當(dāng)?shù)闹撇谩"?/p>
“罰當(dāng)其罪”的比例原則,這個(gè)戰(zhàn)爭法的根本原則同樣適用于網(wǎng)絡(luò)空間。在國際爭端中使用武力,必須考慮適當(dāng)性、必要性和相當(dāng)性的問題。適當(dāng)性原則要求武力的使用能夠或有助于正當(dāng)目的的實(shí)現(xiàn);必要性原則要求武力的使用是實(shí)現(xiàn)目的的最后手段;而相當(dāng)性原則是要求使用武力與造成后果的均衡。三項(xiàng)原則分別從“目的導(dǎo)向”“手段選擇”“價(jià)值取向”上規(guī)范目的與武力使用之間的關(guān)系,進(jìn)而成為衡量國際爭端中武力使用是否正當(dāng)?shù)幕疽罁?jù)。
同時(shí),成比例原則也要求避免攻擊關(guān)鍵基礎(chǔ)設(shè)施和傷及無辜,不能進(jìn)行“無區(qū)別的殺戮”。要保障個(gè)人基本權(quán)利,防范因人工智能技術(shù)濫用而造成的負(fù)面影響。戰(zhàn)爭、沖突中的生死決斷必須由人做出,機(jī)器無權(quán)自主決定殺傷目標(biāo),畢竟,算法黑箱或者自主武器失控有可能導(dǎo)致誤殺和誤傷,因此,計(jì)算機(jī)和算法只能對決定起輔助作用。在這方面,戰(zhàn)爭的目的與手段要整體考慮,因?yàn)?戰(zhàn)爭通常被評判兩次,第一次是以結(jié)果評判,第二次是以手段評判,被侵略者并不因?yàn)槠錉奚叩纳矸荻幻獬龑ξ拿鲬?zhàn)爭所應(yīng)擔(dān)負(fù)的責(zé)任。
因此,人類尚需要在許多重要層面達(dá)成一致:區(qū)分合法目標(biāo)和非法目標(biāo)的界線,網(wǎng)絡(luò)防御戰(zhàn)略的成比例反應(yīng)的定義,如何檢查和監(jiān)控基于人工智能的國家網(wǎng)絡(luò)防御行動(dòng)。同時(shí),類似聯(lián)合國安理會那樣有執(zhí)行力的第三方權(quán)威,應(yīng)該監(jiān)控成比例原則和國際規(guī)范是否被違反;如果違反,應(yīng)采取相應(yīng)的經(jīng)濟(jì)與政治制裁措施。
長久以來,科技發(fā)展都影響著世界經(jīng)濟(jì)與國際安全。面對當(dāng)下人工智能引發(fā)的科技大進(jìn)步,其規(guī)模與速度使世界各大國都難以充分利用現(xiàn)實(shí)機(jī)會并應(yīng)對未來挑戰(zhàn)。科技發(fā)展的不同渠道,特別是數(shù)據(jù)使用,威脅著本就分裂的世界,造成錯(cuò)綜復(fù)雜的地緣政治競爭格局;而且,悖逆常理的是,新時(shí)代里的科技可能事實(shí)上反倒會削弱先前突破所帶來的全球影響,使世界處于“自動(dòng)化的沖突”中。過去兩個(gè)世紀(jì)里,西方近乎壟斷了全球的價(jià)值輸出。但如今在數(shù)字領(lǐng)域,人工智能的規(guī)則卻無法定于一尊:迄今為止,世界各地的企業(yè)、政府和民間機(jī)構(gòu)已經(jīng)發(fā)布了大約50套人工智能準(zhǔn)則。騰訊和百度等中國最大的一些科技公司也在此列。然而,單邊主義無法保證網(wǎng)絡(luò)安全,主權(quán)國家政府需要在聯(lián)合國層面、區(qū)域?qū)用婧痛髧献鲗用?用規(guī)范治理的合作性來克服新技術(shù)的分裂性。
研究區(qū)內(nèi)屬暖溫帶季風(fēng)型大陸性氣候,四季分明,氣候溫和,年平均風(fēng)速3.5m/s,多年平均氣溫11.4℃(1979—2017年),多年平均降水量648.27mm(1979—2017年),多年平均蒸發(fā)量1745.7mm,多年平均無霜期199d[1]。
1.聯(lián)合國層面合作的難度很大
2004 年,聯(lián)合國設(shè)立了信息安全政府專家組,以商定國家在網(wǎng)絡(luò)空間中行動(dòng)的自愿性規(guī)則。2017 年,專家組第五次會議以僵局告終,無法就國際人道主義法和現(xiàn)有正當(dāng)防衛(wèi)、國家責(zé)任等的相關(guān)法律是否及如何應(yīng)用于網(wǎng)絡(luò)空間達(dá)成一致。美國認(rèn)為網(wǎng)絡(luò)防御法規(guī)應(yīng)該基于這些法律,而其他國家(包括古巴、俄羅斯和中國)則認(rèn)為這會使網(wǎng)絡(luò)空間軍事化并持否定態(tài)度。最終專家組無法形成報(bào)告,也無法判斷他們是否會再次開會,更不知接下來會發(fā)生什么。2018 年9 月,在聯(lián)合國召開的常規(guī)武器公約討論中,各方同樣未能就制定禁止人工智能驅(qū)動(dòng)的致命性完全自主武器的條約達(dá)成共識:26國支持全面禁止人工智能武器,而絕大多數(shù)國家仍在觀望之中。
實(shí)際上,因?yàn)橹鳈?quán)國家主導(dǎo)的全球治理機(jī)制存在霸權(quán)邏輯和沖突邏輯的特征,這使得某些發(fā)達(dá)國家濫用權(quán)力、不愿自我約束的不負(fù)責(zé)任行為,與發(fā)展中國家因自身的不發(fā)達(dá)而導(dǎo)致的頻繁發(fā)作的全球性問題協(xié)同作用,共同導(dǎo)致一些復(fù)雜性問題,進(jìn)而導(dǎo)致通過聯(lián)合國加強(qiáng)網(wǎng)絡(luò)空間國際合作的進(jìn)程已經(jīng)實(shí)質(zhì)性地?cái)R淺。由于政治、文化、宗教、戰(zhàn)略及后勤方面的諸多障礙,再加上太多的不確定因素,即便國際合作得到加強(qiáng),其最終效果也未可知。因此,人工智能國際規(guī)范方面的合作更有可能是地區(qū)性行為,或者發(fā)生在某些特定國家之間,而非全球任何國家間的合作。
2.區(qū)域共同體先行的原則較為現(xiàn)實(shí)
近年來,基于人工智能進(jìn)行網(wǎng)絡(luò)攻擊軟件的最新、最有創(chuàng)意和最具潛在危險(xiǎn)的使用在不斷出現(xiàn)。因此,為了打破網(wǎng)絡(luò)安全建構(gòu)的聯(lián)合國進(jìn)程僵局,本已形成各級各類協(xié)作的區(qū)域共同體層面的合作就成了必不可少的替代選擇,既可以維護(hù)網(wǎng)絡(luò)安全,也可以為進(jìn)一步在聯(lián)合國層面的合作進(jìn)行探索。
在實(shí)踐層面,區(qū)域共同體之間可以運(yùn)用攻防演習(xí)來測試基于人工智能的防御戰(zhàn)術(shù)并培育合作慣性。演習(xí)可以包括網(wǎng)絡(luò)部隊(duì)的實(shí)戰(zhàn)模擬,也可以包括多國、多部門的聯(lián)合應(yīng)急響應(yīng)演習(xí),以提升區(qū)域國家合作能力。人工智能就是要通過經(jīng)驗(yàn)、練習(xí)來學(xué)習(xí),類似的演習(xí)可以提升區(qū)域的戰(zhàn)略防御水平。在規(guī)范層面,區(qū)域的探索可以為確保人工智能足夠安全可靠的國際共識提供參考。在關(guān)系層面,區(qū)域各國要公布本國的政策框架和戰(zhàn)略路徑,同時(shí)要隨時(shí)公布關(guān)鍵系統(tǒng)和關(guān)鍵基礎(chǔ)設(shè)施的致命缺陷,借此種分享來提升區(qū)域的警戒和安全水平。
3.大國協(xié)調(diào)原則需要克服障礙不斷推進(jìn)
人工智能是典型的軍民兩用技術(shù),國際監(jiān)管或國際條約很難限制甚至是減弱大國人工智能的發(fā)展。然而,像美國、中國和俄國這樣的大國和重要軍事力量,絕不希望因人工智能技術(shù)的擴(kuò)散,給軍事和戰(zhàn)略穩(wěn)定帶來系統(tǒng)性的風(fēng)險(xiǎn)。因此,大國應(yīng)該承諾并采取協(xié)調(diào)行動(dòng),以評估和減輕人工智能在軍事應(yīng)用上的盲目擴(kuò)張,從而規(guī)避類似核擴(kuò)散那樣的風(fēng)險(xiǎn)。
在避免發(fā)展致命的自動(dòng)武器以打開“潘多拉的盒子”釋放“恐怖武器”方面,中美兩國是典型的“能力強(qiáng)、責(zé)任大”。兩國已經(jīng)積聚了足夠多的人才、市場份額和數(shù)據(jù)。在人工智能產(chǎn)品和系統(tǒng)對全球經(jīng)濟(jì)的貢獻(xiàn)中,中美兩國是主導(dǎo)。為避免誤差和誤判,中美應(yīng)采取更符合實(shí)際的行動(dòng),以建立彼此之間和全球?qū)用嫘判牡拇胧T诒舜岁P(guān)系層面,美國應(yīng)減少對中國的攻擊,以示誠意。在這方面,美國有大量誠意需要展示,減少對中國網(wǎng)絡(luò)的干擾和利用——在此方面,美國的行為相當(dāng)惡劣,比如,僅就木馬和僵尸網(wǎng)絡(luò)而言,2018年位于美國的1.4萬余臺木馬或僵尸網(wǎng)絡(luò)控制服務(wù)器,控制了中國境內(nèi)334萬余臺主機(jī),控制服務(wù)器數(shù)量較2017年增長90.8%。在樹立社會信心層面,中美可以在研究如何確保軍事人工智能系統(tǒng)“有意義的人類控制”方面進(jìn)行合作。
作為一種影響面廣的顛覆性技術(shù),人工智能對就業(yè)結(jié)構(gòu)、法律與社會倫理、個(gè)人隱私、國際關(guān)系準(zhǔn)則、政府管理、經(jīng)濟(jì)安全和社會穩(wěn)定乃至全球治理有深遠(yuǎn)的影響。因此,深受影響的各利益攸關(guān)方需要積極參與規(guī)范制定,以作為政府的一種補(bǔ)充或制衡。
2018年6月,谷歌員工成功向該公司施壓,避免與五角大樓續(xù)簽合同。很多技術(shù)專家不愿意為國防項(xiàng)目工作,因?yàn)閾?dān)心自己會造出失去控制、殺人的機(jī)器人來——這使得華盛頓想要在硅谷和軍方之間建立聯(lián)系的努力困難重重。2018年9月,中國信息通信研究院發(fā)布的《人工智能安全白皮書》呼吁中國政府繼續(xù)努力,“避免國家間的人工智能軍備競賽”。馬云在2019年達(dá)沃斯世界經(jīng)濟(jì)論壇上表示,他擔(dān)心全球人工智能軍備競賽可能導(dǎo)致戰(zhàn)爭。這些非政府性質(zhì)的主體,在呼吁建立人工智能使用規(guī)范方面,有重要作用。當(dāng)然,全球民間社會也應(yīng)該減少關(guān)于人工智能軍備競賽的言論,并尋找與其他國家合作的機(jī)會,以減少人工智能帶來的風(fēng)險(xiǎn)。
實(shí)際上,在互聯(lián)網(wǎng)發(fā)展的進(jìn)程中,技術(shù)社區(qū)、大型企業(yè)和個(gè)人都發(fā)揮著重要作用。在人工智能領(lǐng)域,依然如此。這些主體在培養(yǎng)理解人工智能的經(jīng)濟(jì)、道德、政策和法律含義的思想領(lǐng)袖,領(lǐng)導(dǎo)全球數(shù)字道德、數(shù)據(jù)倫理的交流、融通方面,有重要的作用。為此,作為專業(yè)人員的計(jì)算機(jī)專家,也要避免閉門造車的現(xiàn)象,積極發(fā)聲、積極行動(dòng),提升社會對于風(fēng)險(xiǎn)和治理的認(rèn)知,比如,要使利用人工智能進(jìn)行網(wǎng)絡(luò)攻防的問題、局限性和缺點(diǎn)透明化,讓專業(yè)問題大眾化,以引起社會的注意;同時(shí),要主動(dòng)參與,和策略制定者、終端用戶一道,設(shè)計(jì)該技術(shù)的測試和監(jiān)管機(jī)制等。
大國競爭在技術(shù)發(fā)展上的巨量和加速的態(tài)勢與效應(yīng),促使人工智能浪潮到來。由人工智能技術(shù)提供的平臺將助推用戶創(chuàng)造性的發(fā)揮,創(chuàng)造出新事物、新武器和新攻擊模式,因此而引發(fā)的革命性變革,將成為導(dǎo)致地緣戰(zhàn)略和國際格局重大變革的一個(gè)助推因素。茲事體大。然而,人工智能的未來是開放的、不確定的,人工智能的廣泛應(yīng)用無疑放大了網(wǎng)絡(luò)安全的隱患,各利益相關(guān)方能否成功處理潛在問題并制定適切戰(zhàn)略,使其最終演變成一股穩(wěn)定的力量,沒有人可以給出肯定答案,盡管利用國際規(guī)范約束攻擊和非法利用無疑是一條正確路徑。
在涉及人工智能的國際觀念結(jié)構(gòu)中,西方仍然占據(jù)主導(dǎo)地位。英國已逝著名物理學(xué)家史蒂芬·霍金曾表示,人工智能的全面發(fā)展可能會給人類帶來終結(jié):在目前的初級階段,人工智能就已經(jīng)證明了其巨大用處,發(fā)展到高級階段,它有可能趕上或是超過人類,最終可能控制人類?;艚鸩⒎侨斯ぶ悄茴I(lǐng)域的權(quán)威,在尊重其作為理性思維傳播者的同時(shí),對他的觀點(diǎn)和看法不應(yīng)夸大。不過,隨著人工智能技術(shù)的發(fā)展和進(jìn)步,特別是“機(jī)器代替人”的可能與風(fēng)險(xiǎn)不斷展現(xiàn),在相應(yīng)的哲學(xué)、道德與倫理層面,人類應(yīng)該達(dá)到一定程度的共識。
從全球態(tài)勢來判斷,像在2016年美國大選和英國脫歐運(yùn)動(dòng)中那樣,利用假新聞進(jìn)行黑客攻擊的信息戰(zhàn)正有可能變得司空見慣。類似的行為不僅篡改事實(shí),更強(qiáng)有力地改變某些政治觀點(diǎn)和態(tài)度。對此,人工智能可能無能為力:一種算法會從一個(gè)有影響力的賬戶中讀取假新聞,并根據(jù)優(yōu)化的內(nèi)容因素來推廣它,而不是像新聞工作者在發(fā)布前那樣檢查新聞來源或想法。推而廣之,這將日益加劇政治緊張局勢與全球混亂形勢,尤其是通過深度造假技術(shù)(Deepfake)來篡改圖像和視頻可能會對全球秩序造成災(zāi)難性影響,比如,發(fā)布美國總統(tǒng)唐納德·特朗普宣布核戰(zhàn)爭的唇形同步視頻。
在人工智能嵌入網(wǎng)絡(luò)安全這樣的全球安全與情報(bào)領(lǐng)域,也面臨類似的道德風(fēng)險(xiǎn)。目前,像微軟之類的公司已經(jīng)悄悄地宣布他們愿意向五角大樓出售先進(jìn)的自動(dòng)識別系統(tǒng)。無疑,利用人工智能機(jī)器人取代人類士兵或制造自動(dòng)化武器,可能會在一定程度上降低政府防御性力量可能造成的傷害風(fēng)險(xiǎn),但人工智能所造成的倫理困境與核彈相當(dāng)。如果人類研制的人工智能系統(tǒng)擁有與人類不一致的價(jià)值觀,那么,文學(xué)作品中“惡意機(jī)器人霸主”的想象可能會成為現(xiàn)實(shí)。由此引發(fā)的思考是:若沒有了自主權(quán),作為人類的我們還是萬物靈長嗎?當(dāng)機(jī)器人被賦予自主權(quán)時(shí),他們會有怎樣的行動(dòng)邊界或者根本沒有?當(dāng)二者被給予同樣的自由和智慧時(shí),如果面臨一場生存競爭,兩者誰贏誰輸?
實(shí)際上,面臨人類無法控制網(wǎng)絡(luò)攻防中人工智能勝負(fù)角逐導(dǎo)致技術(shù)失控的風(fēng)險(xiǎn),人類社會已經(jīng)逐漸生發(fā)出針對人工智能技術(shù)應(yīng)用前景的兩種不同認(rèn)知與倫理理念,其中的差異與競爭反映了社會基本認(rèn)知的分歧——由此引申出來的不同策略、邏輯和路徑,將影響人類社會未來的發(fā)展軌跡。
第一種理念更傾向于保守主義。這種傾向強(qiáng)調(diào)維持人工智能技術(shù)的可控性即堅(jiān)持人類應(yīng)該對自主系統(tǒng)擁有權(quán)力是技術(shù)發(fā)展不可逾越的界限。伴隨深度學(xué)習(xí)算法對人工智能技術(shù)發(fā)展?jié)摿Φ尼尫?相當(dāng)多領(lǐng)域里的人工智能應(yīng)用系統(tǒng),都可以在短時(shí)間的學(xué)習(xí)后,便能夠超越人們經(jīng)年累月沉淀下的知識與技術(shù)。人類自己曾頗為自得的思維能力,在純粹的科學(xué)力量面前微不足道甚至不堪一擊。尤為甚者,深度學(xué)習(xí)算法的“黑箱”效應(yīng),使人類無法理解神經(jīng)網(wǎng)絡(luò)的思維邏輯。未來世界無法預(yù)知和自身力量有限,使人類產(chǎn)生了雙重焦慮,由此形成的無力感導(dǎo)致對人工智能的恐懼甚至是排斥,以此來降低整個(gè)體系的動(dòng)蕩強(qiáng)度、減少對人類熟悉環(huán)境的干擾。然而,目前大概沒有國家敢于采取這種觀念,因?yàn)槿斯ぶ悄艿臎_擊還只是一種可能性,但放緩對新技術(shù)的研發(fā)和使用將在短時(shí)間內(nèi)使得國家間力量差距被顯著放大,從而在國際經(jīng)濟(jì)和政治競爭中因?yàn)榧夹g(shù)落后陷入非常不利的局面,卻是一種現(xiàn)實(shí)性。
第二種理念更傾向于自由主義?;诳萍歼M(jìn)步會為人類社會帶來積極影響的信念,通過調(diào)整制度和社會基本原則,構(gòu)建一個(gè)更加適應(yīng)技術(shù)發(fā)展特性的人類社會,從而充分釋放人工智能技術(shù)發(fā)展的紅利,進(jìn)而突破人類自身的局限。這種理念的問題在于:面對人工智能這把雙刃劍時(shí),過于關(guān)注實(shí)用性與機(jī)遇,過于忽視破壞性與風(fēng)險(xiǎn),畢竟,如果有人工智能,那么也會有人工愚蠢(artificial stupidity)——人工智能系統(tǒng)的使用導(dǎo)致軍備競賽、戰(zhàn)略誤判和矛盾升級的可能性是相當(dāng)大的。
相較之下,一種比較行得通的路徑是基于建構(gòu)主義的:一方面,要努力促進(jìn)人工智能快速發(fā)展,不必懼怕其成功跨越“奇點(diǎn)”(singularity)從而實(shí)現(xiàn)飛躍甚至成為“超級人類”,因?yàn)槭澜绲倪\(yùn)轉(zhuǎn)不可能永遠(yuǎn)依照摩爾定律,人工智能未必會一路快速前進(jìn)直至呈現(xiàn)爆炸式發(fā)展;另一方面,在人工智能向“奇點(diǎn)”突破的過程中,要未雨綢繆,構(gòu)建人工智能使用的國際規(guī)范,堅(jiān)持人類主權(quán),即應(yīng)在涉人工智能的高層次戰(zhàn)略決策中保持優(yōu)勢和決定權(quán)。這并非不可能:人類在研發(fā)和使用人工智能技術(shù)、軟件與產(chǎn)品時(shí),可以設(shè)計(jì)為一部分功能自主決定,另一部分功能由人類控制。同時(shí),通過一種各利益攸關(guān)方參與的全球協(xié)商機(jī)制對人工智能的發(fā)展節(jié)奏進(jìn)行調(diào)節(jié),將可解釋、安全的人工智能確定為未來發(fā)展方向。如此,就有可能對于人工智能這種既可產(chǎn)生大善也可招致大惡的技術(shù),進(jìn)行實(shí)屬必要的控制。
當(dāng)下,對人工智能進(jìn)行國際規(guī)范、道德約束、倫理建構(gòu)和哲學(xué)反思的時(shí)代已經(jīng)來臨,遷延時(shí)機(jī)將是重大錯(cuò)誤:辨析人工智能技術(shù)對于人類的影響,從而揚(yáng)長避短、創(chuàng)造性地建構(gòu)既能促進(jìn)人工智能的發(fā)展也能體現(xiàn)人類文明與尊嚴(yán)的體系與制度,已經(jīng)刻不容緩。
很多技術(shù)專家與行業(yè)領(lǐng)袖認(rèn)為,人類在21世紀(jì)面臨的最大威脅就是人工智能。面對現(xiàn)實(shí)與未來的人工智能引發(fā)的全球治理問題,傳統(tǒng)治理手段與理念在實(shí)踐中將會越來越失能甚至南轅北轍。
不過,只要人類在全球?qū)用孢_(dá)成一些最低限度的共識并加以實(shí)踐以形成慣習(xí),進(jìn)而建立一套決策制定的知識框架和一個(gè)國際規(guī)范的基本框架,就可概括出在類似網(wǎng)絡(luò)戰(zhàn)和機(jī)器人技術(shù)等場景中運(yùn)用人工智能的可接受方式。由此,即有可能形成對于人工智能發(fā)展過程中所存在技術(shù)風(fēng)險(xiǎn)和倫理隱患的一種制約?!叭祟愂冀K處于控制地位”,不是、更不應(yīng)是一句空話,它既是一種過程性價(jià)值,也是一種目標(biāo)性價(jià)值。
注釋:
① 中央軍委聯(lián)合參謀部:《加快構(gòu)建具有我軍特色的聯(lián)合作戰(zhàn)指揮體系》,《求是》,2016年第16期。
② 釣魚是指把危險(xiǎn)的東西藏在看似無害的信息里的惡意軟件。釣魚軟件是最受歡迎的網(wǎng)絡(luò)攻擊形式之一,雖然它們在很大程度上取決于攻擊者是否能夠編出讓欺騙受害者打開鏈接或附件的信息。
③ 趙瑞琦:《美國中情局網(wǎng)絡(luò)攻擊全球,始作俑者必搬磚砸腳》,觀察者網(wǎng),https://www.guancha.cn/ZhaoRuiQi/2017_04_13_403358.shtml,2017年4月13日。
④ Edward G A,Lohn J:HowMightArtificialIntelligenceAffecttheRiskofNuclearWar? https://www.rand.org/content/dam/rand/pubs/perspectives/PE200/PE296/RAND_PE296z1.zhs.pdf.May 28,2018。
⑤ 唐寧:《美軍探索人工智能在網(wǎng)絡(luò)安全中的應(yīng)用》,《安全內(nèi)參》,https://www.secrss.com/articles/7469,2018年12月28日。
⑥ 魯傳穎:《人工智能安全:挑戰(zhàn)與機(jī)遇》,《光明日報(bào)》,2018年09月19日,第14版。
⑦ 傅瑩:《人工智能變動(dòng)國際格局,中國倡導(dǎo)什么規(guī)則?》,《國際政治科學(xué)》,2019年第1期。
⑧ [美]約瑟夫·奈:《防止網(wǎng)絡(luò)戰(zhàn)的規(guī)范性方法》,http://cn.chinausfocus.com/m/show.php?id=14011,2017年3月27日。
⑨ 封帥、魯傳穎:《人工智能時(shí)代的國家安全:風(fēng)險(xiǎn)與治理》,《信息安全與通信保密》,2018年第10期。
⑩ Taddeo M:CyberConflictsandPoliticalPowerinInformationSocieties,Minds and Machines,No.27,2017,pp.265-268。