闕天舒 張紀(jì)騰
人工智能時(shí)代背景下的國家安全治理:應(yīng)用范式、風(fēng)險(xiǎn)識(shí)別與路徑選擇*
闕天舒 張紀(jì)騰
作為新一輪科技革命和產(chǎn)業(yè)變革的核心驅(qū)動(dòng)力量,人工智能技術(shù)的發(fā)展與應(yīng)用在為社會(huì)提供強(qiáng)大發(fā)展動(dòng)力的同時(shí),也對(duì)國家安全治理造成了一系列影響。實(shí)際上,人工智能技術(shù)與國家安全之間存在一種結(jié)構(gòu)性互動(dòng)的關(guān)系。一方面,人工智能技術(shù)能夠基于進(jìn)化賦能的實(shí)踐應(yīng)用,從傳統(tǒng)安全、非傳統(tǒng)安全以及兩者間的重疊領(lǐng)域,為國家安全提供更為有效的維護(hù)和保障機(jī)制;另一方面,人工智能技術(shù)的應(yīng)用也存在著超出預(yù)期設(shè)想的可能性。因此,人工智能在國家安全治理中的應(yīng)用就極易在“界域與有效性”“效能與可靠性”以及“競(jìng)爭(zhēng)與穩(wěn)定性”之間出現(xiàn)矛盾。尤其是在因人工智能技術(shù)嵌入所導(dǎo)致的力量失衡以及安全格局的轉(zhuǎn)變下,國家安全就極有可能在國家競(jìng)爭(zhēng)的穩(wěn)定性、社會(huì)治理的有序性與技術(shù)應(yīng)用的穩(wěn)定性三方面遭受巨大的沖擊。需要指出的是,目前人工智能技術(shù)所導(dǎo)致的國家安全風(fēng)險(xiǎn)已經(jīng)逐步顯現(xiàn),而全面評(píng)估人工智能技術(shù)對(duì)國家安全治理帶來的機(jī)遇與挑戰(zhàn)將是解決這一技術(shù)安全悖論的關(guān)鍵所在。為此,中國應(yīng)在緊抓人工智能技術(shù)發(fā)展契機(jī)的同時(shí),更要加強(qiáng)對(duì)這一技術(shù)發(fā)展?jié)撛陲L(fēng)險(xiǎn)的研判和預(yù)防,從而維護(hù)好中國的國家安全與人民利益。
人工智能;國家安全;應(yīng)用范式;安全悖論;路徑選擇
一般認(rèn)為,科學(xué)技術(shù)的發(fā)展及應(yīng)用是維護(hù)國家安全的重要基礎(chǔ)之一。實(shí)際上,技術(shù)發(fā)展本身是以一國的綜合實(shí)力為基礎(chǔ),并且技術(shù)應(yīng)用形態(tài)的多樣化、指涉對(duì)象的多元化和涉及領(lǐng)域的廣泛性更是進(jìn)一步擴(kuò)大了各國間的力量對(duì)比。[1]與此同時(shí),技術(shù)應(yīng)用在推動(dòng)社會(huì)發(fā)展的同時(shí)也導(dǎo)致了一系列社會(huì)問題的出現(xiàn),這些問題往往無法在現(xiàn)有的社會(huì)框架下得到妥善解決。隨著互聯(lián)網(wǎng)時(shí)代下計(jì)算機(jī)性能的提升和大數(shù)據(jù)時(shí)代下海量數(shù)據(jù)的積累,人工智能技術(shù)依托算力的提高、數(shù)據(jù)的幾何增長(zhǎng)以及算法的優(yōu)化,終于進(jìn)入到新一輪高速發(fā)展期。事實(shí)上,人工智能的技術(shù)包容度與統(tǒng)攝力使其具備主導(dǎo)技術(shù)發(fā)展和推動(dòng)社會(huì)形態(tài)轉(zhuǎn)變的基本潛質(zhì)。因此,人工智能被世界各國視為推動(dòng)新一輪科技革命的關(guān)鍵力量。
從國家安全治理來看,人工智能技術(shù)在信息收集、決策制定、方案執(zhí)行和監(jiān)控實(shí)施等認(rèn)知域和物理域的應(yīng)用將極大程度地提升國家在安全領(lǐng)域的治理水平,進(jìn)而能夠有效地推動(dòng)國家安全的內(nèi)涵及其治理范式的轉(zhuǎn)型與升級(jí)。正如人工智能領(lǐng)域的先驅(qū)、美國計(jì)算機(jī)科學(xué)家佩德羅?多明戈斯(Pedro Domingos)所言:“人工智能是保護(hù)國家的重要壁壘?!盵2]然而,人工智能技術(shù)的嵌入在提升國家安全治理效能的同時(shí),還將深化國家安全的向度和擴(kuò)展國家安全的維度,進(jìn)而也會(huì)催生一種技術(shù)安全悖論。英國哲學(xué)家、牛津大學(xué)人類未來研究所創(chuàng)始者尼克·博斯特羅姆(Nick Bostrom)指出:“人工智能不僅僅是一種顛覆性技術(shù),它也可能是人類遇到的最具破壞性的技術(shù)?!盵3]
目前,多數(shù)發(fā)達(dá)國家政府不僅相繼出臺(tái)了戰(zhàn)略規(guī)劃和配套政策來促進(jìn)本國人工智能的發(fā)展,也對(duì)人工智能與國家安全的研究同樣給予了高度關(guān)注。例如,2017年7月,美國哈佛大學(xué)肯尼迪政府學(xué)院貝爾弗科學(xué)與國際事務(wù)中心發(fā)布了《人工智能與國家安全》報(bào)告,率先就人工智能與國家安全之間的關(guān)系進(jìn)行了分析,并從隱私、安全、透明、責(zé)任等方面對(duì)人工智能技術(shù)進(jìn)行了評(píng)估。[4]又如,2018年2月,來自英國劍橋大學(xué)、牛津大學(xué)與美國耶魯大學(xué)的26名學(xué)者、專家聯(lián)合撰寫的《人工智能的惡意使用:預(yù)測(cè)、預(yù)防和緩解》報(bào)告,將人工智能技術(shù)可能帶來的風(fēng)險(xiǎn)劃分為“數(shù)字威脅、物理威脅和政治威脅”,并從技術(shù)安全的維度對(duì)這些問題進(jìn)行了具體的分析。[5]近些年,中國學(xué)術(shù)界也開始關(guān)注人工智能在經(jīng)濟(jì)、社會(huì)以及倫理等領(lǐng)域中的應(yīng)用。那么,人工智能將對(duì)國家安全帶來哪些挑戰(zhàn)?又如何有效地應(yīng)對(duì)這些挑戰(zhàn)?為此,本文旨在分析人工智能在國家安全治理中的應(yīng)用范式,剖析國家安全在人工智能時(shí)代可能面臨的風(fēng)險(xiǎn),繼而探討中國在維護(hù)人工智能技術(shù)發(fā)展的路徑選擇。
在正式討論人工智能與國家安全的關(guān)系前,我們需要對(duì)人工智能這一技術(shù)進(jìn)行簡(jiǎn)單的梳理。自約翰·麥卡錫(John McCarthy)、馬文·明斯基(Marvin Minsky)與納撒尼爾·羅切斯特(Nathaniel Rochester)等計(jì)算機(jī)專家于1956 年首次提出“人工智能”(Artificial Intelligent)的概念以來,這一技術(shù)在概念和應(yīng)用上不斷擴(kuò)展和演進(jìn)。[6]然而,在此后的幾十年內(nèi),由于受到諸多主客觀條件的限制,人工智能并未真正在產(chǎn)業(yè)層面實(shí)現(xiàn)技術(shù)應(yīng)用,相關(guān)研究也主要集中于如何運(yùn)用人工智能進(jìn)行模式識(shí)別以及數(shù)據(jù)歸納等基礎(chǔ)層面。例如,盡管機(jī)器學(xué)習(xí)概念和淺層學(xué)習(xí)算法早于多年前就被提出,但是由于當(dāng)時(shí)缺乏海量數(shù)據(jù)的積累以及與之相匹配的高水平計(jì)算能力的支撐,故而這些算法模型始終無法得到持續(xù)的優(yōu)化與突破性的進(jìn)步。[7]
進(jìn)入21世紀(jì)以來,隨著技術(shù)的發(fā)展與突破,人工智能技術(shù)逐漸步入了新一輪蓬勃發(fā)展期。[8]從本質(zhì)上說,本輪人工智能技術(shù)發(fā)展熱潮是建立在圖形處理器通用計(jì)算(General-purpose computing on graphics processing units, GPGPU)高性能運(yùn)算架構(gòu)所形成的計(jì)算資源與移動(dòng)互聯(lián)網(wǎng)興起所產(chǎn)生的大量數(shù)據(jù)的基礎(chǔ)上的,而在這兩者的催化下又形成了基于套嵌式的多層次模式識(shí)別的深度學(xué)習(xí)算法。互聯(lián)網(wǎng)所孕育的大數(shù)據(jù)時(shí)代為深度學(xué)習(xí)算法的優(yōu)化提供了海量、多維度的訓(xùn)練數(shù)據(jù),并且圖形處理器(GPGPU)芯片彌補(bǔ)了中央處理器(CPU)在并行計(jì)算上的短板,為深度學(xué)習(xí)的訓(xùn)練提供了大規(guī)模、高速率的算力支撐。與此同時(shí),深度學(xué)習(xí)能夠通過組合低層特征形成更加抽象的高層屬性與類別,并以自主學(xué)習(xí)數(shù)據(jù)的分布特點(diǎn)進(jìn)行特征判別和邏輯推測(cè),進(jìn)而構(gòu)建了以“數(shù)據(jù)挖掘、自動(dòng)學(xué)習(xí)和自主認(rèn)知”為基本分析路徑的機(jī)器學(xué)習(xí)范式。因此,在“數(shù)據(jù)、算力與算法”三者的共振下,人工智能就逐漸進(jìn)化為一種能夠進(jìn)行自我學(xué)習(xí)、自我推理以及自我適應(yīng)的技術(shù),并具備以近乎“人類思維”處理復(fù)雜問題的能力。
人工智能的進(jìn)一步發(fā)展還催生了強(qiáng)化學(xué)習(xí)、遷移學(xué)習(xí)、生成對(duì)抗網(wǎng)絡(luò)等新型算法,并推動(dòng)了算法模型、圖像識(shí)別、自然語言處理等方面出現(xiàn)迭代式的技術(shù)突破。[9]正如圖靈獎(jiǎng)得主吉姆·格雷(Jim Gray)所言,新的信息技術(shù)推動(dòng)了科學(xué)研究的“第四范式”出現(xiàn)——數(shù)據(jù)密集型科學(xué)發(fā)現(xiàn)(Data-Intensive Scientific Discovery)。[10]而基于數(shù)據(jù)、算法與算力驅(qū)動(dòng)的人工智能技術(shù)是這一范式的典型技術(shù)代表。實(shí)際上,由于人工智能的廣泛應(yīng)用將對(duì)交通、醫(yī)療、教育、法律、金融、傳媒等諸多社會(huì)領(lǐng)域產(chǎn)生巨大影響,因此,多數(shù)研究將人工智能視為第四次工業(yè)革命的引領(lǐng)性技術(shù),也將這次革命稱為“智能革命”。
目前,學(xué)界尚未對(duì)人工智能研究及應(yīng)用的領(lǐng)域形成統(tǒng)一的認(rèn)識(shí),但就當(dāng)前人工智能的技術(shù)研究和應(yīng)用代表來說,可以將其分為以下六個(gè)子研究領(lǐng)域:一是機(jī)器學(xué)習(xí)(machine learning),即通過設(shè)定模型、輸入數(shù)據(jù)對(duì)機(jī)器進(jìn)行訓(xùn)練,讓機(jī)器生成特定的算法,并利用這一經(jīng)由歸納、聚合而形成的算法對(duì)未知數(shù)據(jù)進(jìn)行識(shí)別、判斷與預(yù)測(cè)。[11]二是深度學(xué)習(xí)(deep learning),主要是指一種基于對(duì)數(shù)據(jù)表征學(xué)習(xí)的機(jī)器學(xué)習(xí)方法,強(qiáng)調(diào)使用特定的表示方法從實(shí)例中對(duì)機(jī)器進(jìn)行訓(xùn)練。三是自然語言處理(natural language processing),主要是指實(shí)現(xiàn)人與計(jì)算機(jī)之間用自然語言進(jìn)行有效通信的理論與方法。[12]四是計(jì)算機(jī)視覺(compute version),主要是指使機(jī)器能夠?qū)Νh(huán)境及其中的刺激進(jìn)行可視化分析的學(xué)科。[13]五是過程自動(dòng)化(automation),是指采用自動(dòng)化腳本的方法實(shí)現(xiàn)機(jī)器的自我運(yùn)作,并使表征其工作狀態(tài)的物理參數(shù)盡可能接近設(shè)定值的一項(xiàng)技術(shù)。六是機(jī)器人技術(shù)(robotics),主要是指具備一定程度的人工智能的多軸可編程設(shè)備,是多項(xiàng)人工智能技術(shù)的集成與融合發(fā)展的結(jié)果。基于上述領(lǐng)域,人工智能技術(shù)就形成了以縱向的計(jì)算芯片、數(shù)據(jù)平臺(tái)技術(shù)與開源算法為代表的技術(shù)生態(tài)系統(tǒng)和以橫向的智能安防、智能制造、智能醫(yī)療與智能零售為代表的應(yīng)用生態(tài)系統(tǒng)。
不同于其他領(lǐng)域的高新科技,人工智能技術(shù)具有更強(qiáng)的適用性和前瞻性,并具有以下特性:
第一,通用目的性,即人工智能技術(shù)能夠同其他各類技術(shù)以及物質(zhì)力量相結(jié)合,形成新型綜合性集成解決方案(integrated solution)或場(chǎng)景化的一體化應(yīng)用。因此,作為一種底層的平臺(tái)性技術(shù),人工智能能夠向各類創(chuàng)新性的應(yīng)用場(chǎng)景和不同行業(yè)快速滲透融合。[14]
第二,自我學(xué)習(xí)與進(jìn)化,即人工智能技術(shù)基于規(guī)則系統(tǒng)、思維邏輯模擬系統(tǒng)以及學(xué)習(xí)與交互系統(tǒng),并結(jié)合多類交叉學(xué)科知識(shí),根據(jù)環(huán)境的響應(yīng)和優(yōu)化規(guī)則來實(shí)現(xiàn)自我算法的優(yōu)化。因此,人工智能技術(shù)也是一種自感受、自處理、自反饋與自進(jìn)化的循環(huán)系統(tǒng)集成。
第三,技術(shù)的開源性,即人工智能技術(shù)以通用性較強(qiáng)的開源框架和分布式的數(shù)據(jù)庫為基礎(chǔ),并且廣泛支持Python、Java和Scala等流行開發(fā)語言。當(dāng)然,人工智能技術(shù)的開源性主要集中在基礎(chǔ)的開發(fā)技術(shù)上,多數(shù)的受訓(xùn)模型和數(shù)據(jù)庫仍未實(shí)現(xiàn)廣泛的共享。目前來看,主流的開源機(jī)器學(xué)習(xí)框架有各公司開發(fā)的TensorFlow(谷歌)、Spark(阿帕奇)、CNTK(微軟)以及PyTorch(臉書)等。
第四,研發(fā)的系統(tǒng)性,即人工智能技術(shù)的研發(fā)對(duì)數(shù)據(jù)、人力以及資本有著一定的前期要求,并且人工智能也具備很強(qiáng)的學(xué)科交叉性,涵蓋知識(shí)抽象、學(xué)習(xí)策略以及推理機(jī)制等主題。因此,技術(shù)強(qiáng)國往往在該領(lǐng)域具有一定的先行優(yōu)勢(shì)。
第五,數(shù)字性的依賴,即人工智能技術(shù)的核心驅(qū)動(dòng)要素為算法、算力與數(shù)據(jù),并且這三者要素形成相互融合、優(yōu)勢(shì)互補(bǔ)的良好關(guān)系。這也意味著,哪個(gè)國家擁有的計(jì)算資源越多、研發(fā)的算法越先進(jìn)、掌握的數(shù)據(jù)越多,就越有可能在人工智能領(lǐng)域獲得更大的優(yōu)勢(shì)。
當(dāng)然,人工智能技術(shù)的發(fā)展也存在著特定的階段性。第一,根據(jù)學(xué)習(xí)方式的差異可以將人工智能技術(shù)分為反應(yīng)型的機(jī)器學(xué)習(xí)階段(運(yùn)用一系列初級(jí)算法從事實(shí)經(jīng)驗(yàn)中進(jìn)行歸納學(xué)習(xí))、有限記憶型的機(jī)器智能階段(運(yùn)用一系列高級(jí)算法從歷史經(jīng)驗(yàn)中進(jìn)行預(yù)測(cè)學(xué)習(xí))以及自我意識(shí)型的機(jī)器自主階段(不需要外部數(shù)據(jù)就能從經(jīng)驗(yàn)中進(jìn)行自我學(xué)習(xí))。[15]第二,根據(jù)技術(shù)解決問題的能力可以將人工智能技術(shù)分為弱人工智能(又稱“狹義人工智能”,Artificial Narrow Intelligence)、強(qiáng)人工智能(又稱“通用人工智能”,Artificial General Intelligence)。弱人工智能主要是指針對(duì)特定任務(wù)而設(shè)計(jì)和訓(xùn)練的人工智能技術(shù),強(qiáng)人工智能則是指具備足夠的智能解決不熟悉的問題以及具備通用化應(yīng)用能力的人工智能技術(shù)。[16]第三,根據(jù)應(yīng)用層級(jí)可將人工智能技術(shù)分為推動(dòng)社會(huì)生產(chǎn)力進(jìn)步的通用技術(shù)、改革社會(huì)秩序的信息化技術(shù)以及實(shí)現(xiàn)社會(huì)形態(tài)轉(zhuǎn)變的智能化技術(shù)。當(dāng)然,這一遞進(jìn)式的發(fā)展以人工智能技術(shù)在全行業(yè)、全領(lǐng)域的爆發(fā)性應(yīng)用為基礎(chǔ)。[17]
就當(dāng)下而言,盡管人工智能技術(shù)取得了較大的突破,逐步成為傳統(tǒng)行業(yè)轉(zhuǎn)型與升級(jí)的關(guān)鍵,但是目前的人工智能發(fā)展成果主要集中在弱人工智能域內(nèi),并且在一些重難點(diǎn)問題上仍舊無法形成實(shí)質(zhì)性的突破,能夠跨領(lǐng)域解決問題的通用人工智能的前景仍具有較大的不確定性。因此,人類社會(huì)也將在相當(dāng)長(zhǎng)的一段時(shí)間內(nèi)處于人工智能技術(shù)的初級(jí)階段。與此同時(shí),盡管人工智能技術(shù)已經(jīng)形成了一定的先期能力優(yōu)勢(shì),但這一技術(shù)發(fā)展的范式遷移必然有一個(gè)過程。在這一縱深發(fā)展的過程中,人工智能所造成的社會(huì)影響既有其內(nèi)生的不確定性,又有外部延遞的模糊性。因此,對(duì)于國家安全而言,人工智能的創(chuàng)新性蘊(yùn)涵了高度的戰(zhàn)略價(jià)值,但其演進(jìn)路徑的不確定性則帶來了相應(yīng)的風(fēng)險(xiǎn)。
作為國際政治與軍事戰(zhàn)略領(lǐng)域所關(guān)注的一大重要議題,“國家安全”(National Security)這一概念最初來自世界強(qiáng)國對(duì)于戰(zhàn)爭(zhēng)與外交實(shí)踐的總結(jié)。根據(jù)理論內(nèi)涵與實(shí)踐范疇的差異,國家安全大致經(jīng)歷了“以軍事安全為內(nèi)涵主體的起始階段、以經(jīng)濟(jì)安全為重要關(guān)注的雙軌發(fā)展階段及以實(shí)現(xiàn)綜合安全為要求的全面治理階段”三個(gè)主要階段。[18]盡管不同時(shí)期、不同國家對(duì)于國家安全的界定、認(rèn)識(shí)與需求各不相同,但從整體發(fā)展趨勢(shì)來看,國家安全的關(guān)注點(diǎn)逐步從傳統(tǒng)的軍事領(lǐng)域、經(jīng)濟(jì)領(lǐng)域向上游區(qū)間的科學(xué)與技術(shù)領(lǐng)域轉(zhuǎn)移,其他有形要素在國家安全中的比重則相對(duì)下降。正如英國倫敦政治經(jīng)濟(jì)學(xué)院教授巴里·布贊(Barry Buzan)所言,新技術(shù)演進(jìn)以及它們?cè)谕{、攻擊和穩(wěn)定戰(zhàn)略關(guān)系中的作用與影響不僅是國家安全治理的重要驅(qū)動(dòng)力,并且對(duì)全球戰(zhàn)略關(guān)系與國際安全也同樣有著極為重要的影響。[19]與此同時(shí),國家安全的指涉對(duì)象與關(guān)注領(lǐng)域隨著全球化、現(xiàn)代化等因素的嵌入而發(fā)生了分野。人類安全威脅多層次化的現(xiàn)實(shí)呼喚則是導(dǎo)致這一現(xiàn)象發(fā)生的直接原因,其中又以發(fā)展與和諧為主要議題的非傳統(tǒng)安全不斷凸顯和強(qiáng)化。新現(xiàn)實(shí)主義、新自由主義以及建構(gòu)主義等國際關(guān)系理論均對(duì)國家安全的這一轉(zhuǎn)向予以了密切關(guān)注。[20]
作為下一輪科技革命的引領(lǐng)性技術(shù),人工智能在國家安全治理領(lǐng)域中的討論和應(yīng)用并非一個(gè)新鮮事物。早在20世紀(jì)80年代中后期,就有一批專家學(xué)者對(duì)此進(jìn)行了討論。例如,美國國際關(guān)系學(xué)者史蒂文·希姆巴拉(Stephen Cimbala)、菲利普·施羅特(Philip Schrodt)以及保羅·萊納(Paul Lehner)等人從國家安全的角度對(duì)人工智能技術(shù)可能造成的影響進(jìn)行了分析。[21]實(shí)際上,本輪人工智能技術(shù)的發(fā)展熱潮更是進(jìn)一步深化了其在國家安全中的嵌入程度。筆者認(rèn)為,可以根據(jù)國家安全的主要關(guān)注領(lǐng)域,將人工智能在國家安全中的應(yīng)用范式分為傳統(tǒng)安全與非傳統(tǒng)安全兩個(gè)方面。從傳統(tǒng)安全領(lǐng)域出發(fā),主要關(guān)注人工智能在軍事力量與戰(zhàn)略對(duì)抗中的威脅性使用與控制,非傳統(tǒng)安全領(lǐng)域則主要關(guān)注人工智能在經(jīng)濟(jì)、政治和文化等社會(huì)領(lǐng)域中的應(yīng)用與規(guī)范。當(dāng)然,國家安全治理本身由諸多交叉的治理議題和治理體制組成,結(jié)合人工智能技術(shù)應(yīng)用的特性,這就使得人工智能在國家安全治理中的各類應(yīng)用存在的交叉性更為凸顯。[22]
具體來看,人工智能在國家安全中的應(yīng)用范式主要表現(xiàn)為以下幾個(gè)方面:
第一,從傳統(tǒng)安全來看,人工智能的軍事化應(yīng)用將推動(dòng)形成新的軍事能力和戰(zhàn)略博弈模式。目前來看,人工智能軍事化應(yīng)用最為普遍與最為成熟的便是這一技術(shù)在戰(zhàn)場(chǎng)數(shù)據(jù)收集與分析上的應(yīng)用。與傳統(tǒng)的數(shù)字化、網(wǎng)絡(luò)化等信息化技術(shù)的軍事應(yīng)用不同,基于數(shù)據(jù)信息全方位收集的基礎(chǔ),人工智能可以更為完整地還原全部戰(zhàn)場(chǎng)信息,并據(jù)此全盤推演和模擬分析作戰(zhàn)策略的預(yù)期結(jié)果,進(jìn)而能夠更為全面、準(zhǔn)確地掌握戰(zhàn)場(chǎng)態(tài)勢(shì),并據(jù)此提出更加精確的決策建議。[23]例如,美國國防部成立的“算法戰(zhàn)跨部門小組”(AWCFT)便致力于運(yùn)用人工智能技術(shù)對(duì)無人機(jī)所收集的全動(dòng)態(tài)視頻(FMV)數(shù)據(jù)進(jìn)行自動(dòng)化處理,并據(jù)此為作戰(zhàn)提供全面的數(shù)據(jù)分析及決策支持。[24]在數(shù)據(jù)分析應(yīng)用的基礎(chǔ)上,人工智能還將推動(dòng)傳統(tǒng)的指揮模式向智能化指揮與控制機(jī)制轉(zhuǎn)變,即在態(tài)勢(shì)認(rèn)知、戰(zhàn)略決策以及行動(dòng)主體的智能化、自主化的基礎(chǔ)上,實(shí)現(xiàn)信息力與作戰(zhàn)單元的密切融合。對(duì)此,美國布魯金斯學(xué)會(huì)在《人工智能改變世界》報(bào)告中提出了“極速戰(zhàn)”(hyper war)的概念,即人工智能有助于實(shí)現(xiàn)從搜索發(fā)現(xiàn)目標(biāo)、威脅評(píng)估到鎖定摧毀、效果評(píng)估的智能化處理,形成高效精確的感知、判斷、決策、控制、評(píng)估閉環(huán),從而大幅縮短“感知——決策——行動(dòng)”的周期,提升作戰(zhàn)的整體效率(參見圖1)。因此,人工智能所具備的自我學(xué)習(xí)、認(rèn)知和創(chuàng)造力能顯著強(qiáng)化對(duì)戰(zhàn)場(chǎng)信息的感知與分析能力,打破傳統(tǒng)信息化技術(shù)對(duì)于人工數(shù)據(jù)分析與決策選擇的依賴。
圖1 人工智能技術(shù)在戰(zhàn)場(chǎng)態(tài)勢(shì)感知的路徑——以觀察、調(diào)整、決策與行動(dòng)循環(huán)為例 [25]
資料來源:作者自制。
除智能化的戰(zhàn)場(chǎng)數(shù)據(jù)分析與決策指揮外,人工智能還將推動(dòng)智能無人化武器的大規(guī)模應(yīng)用。針對(duì)這一點(diǎn),新美國安全中心首席執(zhí)行官羅伯特?沃克(Robert Work)與新美國安全中心執(zhí)行副總裁兼研究主任肖恩?布里姆利(Shawn Brimley)指出,“完全實(shí)現(xiàn)機(jī)器人作戰(zhàn)體系有可能使軍事力量與人口基數(shù)以及傳統(tǒng)的潛在軍事力量的有效度量脫鉤”,“消滅敵方有生力量”等作戰(zhàn)法則可能失去原有的實(shí)際意義。[26]美國布魯金斯學(xué)會(huì)高級(jí)研究員邁克爾·漢?。∕ichael Hanlon)更是進(jìn)一步指出,未來戰(zhàn)爭(zhēng)的革命性技術(shù)變化極有可能發(fā)生在計(jì)算機(jī)和機(jī)器人的部分領(lǐng)域,其中人工智能將從機(jī)器人、自主化和網(wǎng)絡(luò)安全三方面推動(dòng)形成新的軍事能力。[27]
人工智能還將催化諸如算法戰(zhàn)、意識(shí)戰(zhàn)等新型戰(zhàn)略對(duì)抗方式的形成。以意識(shí)戰(zhàn)為例,人工智能通過利用算法自主生成內(nèi)容“子彈”(自動(dòng)生成具有誘導(dǎo)性或欺騙性的內(nèi)容)、實(shí)施個(gè)性化的“靶向”鎖定(利用情感篩選鎖定最易受到影響的受眾)和密集的信息“轟炸”組合而成的“影響力機(jī)器”(the Influence Machine)來操縱他國國內(nèi)的社會(huì)輿論。[28]實(shí)際上,這一新型對(duì)抗模式能夠以更為隱蔽的和更具破壞性的方式來加劇敵對(duì)國家社會(huì)內(nèi)部的兩極分化,進(jìn)而干擾其內(nèi)部政治事務(wù)與破壞其現(xiàn)有政府的合法性。例如,劍橋分析公司(Cambridge Analytica)被爆出利用人工智能技術(shù)對(duì)美國民眾的性格特征、政治傾向等特征進(jìn)行估計(jì)及分類,并據(jù)此分別投放不同的、有針對(duì)性的政治廣告新聞,從而達(dá)到干預(yù)民眾的投票等政治行為的目的。[29]
當(dāng)然,人工智能技術(shù)的應(yīng)用的全質(zhì)性還使其能夠同多種物質(zhì)力量相結(jié)合,進(jìn)而能夠在態(tài)勢(shì)感知、威脅分析、策略生成以及攻防對(duì)抗等方面形成更為有效的作戰(zhàn)能力。例如,基于人工智能技術(shù)的優(yōu)化,作為致命性自主武器系統(tǒng)(LAWS)應(yīng)用代表的無人機(jī)就對(duì)戰(zhàn)場(chǎng)數(shù)據(jù)進(jìn)行更為全面的智能化收集、處理與判斷,并據(jù)此實(shí)現(xiàn)自主飛行控制、作戰(zhàn)目標(biāo)識(shí)別、作戰(zhàn)任務(wù)分配與系統(tǒng)自我協(xié)調(diào),組建成“蜂群”式的有機(jī)作戰(zhàn)整體。[30]而這一“蜂群”所具備的智能化與集群化的特性能夠通過數(shù)據(jù)共享而實(shí)現(xiàn)“多中心化”的協(xié)同作戰(zhàn),并使得無人機(jī)群的作戰(zhàn)效能達(dá)到最大程度的飽和,最大限度地發(fā)揮集群作戰(zhàn)的優(yōu)勢(shì)。[31]
可見,人工智能不僅能夠通過強(qiáng)化物理效能、生物效能或者重塑武器能量來源、作用原理等純粹的技術(shù)層面來影響戰(zhàn)爭(zhēng)形態(tài),并且還能夠從戰(zhàn)略決策與作戰(zhàn)指揮等主體選擇層面來推動(dòng)戰(zhàn)爭(zhēng)形態(tài)變革。需要說明的是,當(dāng)前人工智能技術(shù)的軍事化應(yīng)用多數(shù)仍停留在以信息技術(shù)和精確打擊武器為核心的“初智”階段。因此,人工智能技術(shù)的軍事化應(yīng)用還存在著較大的不確定性。[32]但可以明確的是,占據(jù)人工智能技術(shù)高地的國家將在對(duì)抗中獲得更大的主動(dòng)權(quán),并且國家之間對(duì)抗也將不再局限于裝備層面的較量。相反,對(duì)抗與競(jìng)爭(zhēng)領(lǐng)域?qū)㈦S著技術(shù)的發(fā)展而不斷被拓寬,技術(shù)儲(chǔ)備、數(shù)據(jù)知識(shí)、創(chuàng)新實(shí)力、協(xié)同能力的對(duì)抗將達(dá)到傳統(tǒng)戰(zhàn)爭(zhēng)不可想象的高度。當(dāng)然,如果伴隨著技術(shù)的突破,人工智能也有可能推動(dòng)戰(zhàn)爭(zhēng)從“精確化”向“智能化”轉(zhuǎn)變,使其躍升為以整合多項(xiàng)戰(zhàn)略技術(shù)為支撐的“高智”階段,進(jìn)而對(duì)傳統(tǒng)國家安全乃至國際安全領(lǐng)域造成更具顛覆性的影響。
第二,從非傳統(tǒng)安全來看,人工智能技術(shù)能夠?yàn)楦黝惿鐣?huì)風(fēng)險(xiǎn)的應(yīng)對(duì)提供更為有效精準(zhǔn)的預(yù)測(cè)、感知和糾錯(cuò)機(jī)制。與傳統(tǒng)安全不同,人工智能在非傳統(tǒng)安全領(lǐng)域的應(yīng)用主要是從知識(shí)生產(chǎn)與問題分析角度切入的。實(shí)際上,以大數(shù)據(jù)分析為基礎(chǔ)的對(duì)安全態(tài)勢(shì)感知的預(yù)測(cè)本身就著眼于關(guān)聯(lián)共現(xiàn)關(guān)系的沖突特征模式識(shí)別。[33]人工智能技術(shù)的嵌入則有助于實(shí)現(xiàn)這一過程的智能化,進(jìn)而統(tǒng)合安全中的“預(yù)測(cè)、防御、檢測(cè)與響應(yīng)”來構(gòu)建一種自適應(yīng)安全架構(gòu)(Adaptive Security Architecture)。[34]在這一架構(gòu)中,人工智能技術(shù)能夠基于時(shí)間軸自主地對(duì)多源數(shù)據(jù)進(jìn)行全方位的感知、挖掘與清洗,并對(duì)大量模糊的非結(jié)構(gòu)化數(shù)據(jù)進(jìn)行聚合、分類與序列化處理,從而細(xì)粒度、多角度、動(dòng)態(tài)化地對(duì)危險(xiǎn)來源進(jìn)行目標(biāo)檢測(cè)、跟蹤和屬性提取。[35]在此基礎(chǔ)上,人工智能技術(shù)便能夠構(gòu)建相應(yīng)的模型來捕捉各類風(fēng)險(xiǎn)因子的作用路徑及推斷其發(fā)生的概率,并根據(jù)當(dāng)前的分析結(jié)果主動(dòng)快速地選擇應(yīng)對(duì)策略,從而能夠不斷優(yōu)化安全防御機(jī)制和從容應(yīng)對(duì)潛在的安全威脅。[36]
目前,人工智能技術(shù)已在經(jīng)濟(jì)安全、醫(yī)療保護(hù)、環(huán)境安全、網(wǎng)絡(luò)安全、能源安全、打擊恐怖主義和跨境犯罪等諸多領(lǐng)域得到較為廣泛的應(yīng)用,具體如下:
第一,在危機(jī)預(yù)測(cè)方面,人工智能不僅能夠擴(kuò)大危機(jī)預(yù)測(cè)的適用范圍,并且也能提高預(yù)測(cè)的準(zhǔn)確性和時(shí)效性,進(jìn)而為維護(hù)社會(huì)穩(wěn)定構(gòu)建一種預(yù)測(cè)型防護(hù)機(jī)制。[37]對(duì)此,英國艾倫圖靈研究所特別項(xiàng)目主任艾倫·威爾遜(Alan Wilson)及其研究團(tuán)隊(duì)認(rèn)為,人工智能可以通過擴(kuò)大數(shù)據(jù)收集、減少信息未知性以及建立相關(guān)分析模型,更好地預(yù)測(cè)戰(zhàn)爭(zhēng)及其他沖突發(fā)生的可能性,并以此及時(shí)介入其中,以遏制這些社會(huì)沖突可能帶來的負(fù)面影響。[38]當(dāng)然,人工智能技術(shù)同樣可以應(yīng)用于全球范圍內(nèi)的自然災(zāi)害和其他社會(huì)危機(jī)的預(yù)警。例如,公共衛(wèi)生部門能夠利用人工智能技術(shù)來對(duì)實(shí)際疫情數(shù)據(jù)進(jìn)行分析,并更準(zhǔn)確、有效地對(duì)各類傳染疾病進(jìn)行跟蹤和預(yù)防,從而更高效地利用公共衛(wèi)生資源。[39]
第二,在反恐方面,人工智能可以基于已有恐怖活動(dòng)案例的數(shù)據(jù)及社交媒體等其他相關(guān)數(shù)據(jù),對(duì)恐怖組織的優(yōu)先目標(biāo)、網(wǎng)絡(luò)結(jié)構(gòu)及其行動(dòng)路徑進(jìn)行智能化的分析,并據(jù)此來預(yù)測(cè)潛在的恐怖行為、甄別恐怖活動(dòng)嫌疑人以及制定相應(yīng)的反恐方案。[40]例如,美國亞利桑那州立大學(xué)的網(wǎng)絡(luò)社會(huì)學(xué)智能系統(tǒng)實(shí)驗(yàn)室(Cyber-Socio Intelligent Systems Laboratory)便利用機(jī)器學(xué)習(xí)以及神經(jīng)網(wǎng)絡(luò)等人工智能技術(shù)對(duì)2014年6月8日至12月31日間發(fā)生的2 200起“伊斯蘭國”的恐怖襲擊及其軍事行動(dòng)進(jìn)行了分析,并據(jù)此構(gòu)建了一個(gè)模擬該恐怖組織行動(dòng)的模型,以此來推導(dǎo)“伊斯蘭國”各類恐怖活動(dòng)的發(fā)生規(guī)律以及同聯(lián)軍反制行為之間的關(guān)系。[41]
第三,在安防方面,人工智能技術(shù)能夠推動(dòng)被動(dòng)防御安防系統(tǒng)向主動(dòng)判斷與預(yù)警的智能安防系統(tǒng)升級(jí)。一方面,經(jīng)由人工智能算法訓(xùn)練的人臉識(shí)別、圖像識(shí)別與視頻結(jié)構(gòu)化等技術(shù)能夠有效地提高安防部門識(shí)別罪犯的能力,并根據(jù)罪犯的相關(guān)信息給出更優(yōu)的判決結(jié)果;[42]另一方面,公安部門也能夠利用機(jī)器學(xué)習(xí),對(duì)犯罪區(qū)域及其他環(huán)境數(shù)據(jù)集進(jìn)行分析,從而預(yù)測(cè)可能發(fā)生犯罪的地區(qū),并據(jù)此優(yōu)化相應(yīng)警力資源的部署。[43]正如美國斯坦福大學(xué)“人工智能百年研究”(AI100)項(xiàng)目小組所指出的,人工智能技術(shù)不僅可以輔助公安部門及其他安全部門進(jìn)行犯罪現(xiàn)場(chǎng)搜索、檢測(cè)犯罪行為和開展救援活動(dòng),而且還可用于排列警務(wù)任務(wù)的優(yōu)先次序以及分配相關(guān)警力資源。[44]
第四,在網(wǎng)絡(luò)安全方面,人工智能有助于實(shí)現(xiàn)“端點(diǎn)檢測(cè)響應(yīng)”(End-point Detection Response)和“網(wǎng)絡(luò)檢測(cè)響應(yīng)”(Network Detection Response),即人工智能技術(shù)能夠在信息交互的過程中提前對(duì)網(wǎng)絡(luò)威脅進(jìn)行評(píng)估與研判,并智能化地對(duì)不合理的行為進(jìn)行及時(shí)阻斷,實(shí)現(xiàn)防護(hù)邊界泛網(wǎng)絡(luò)化以適應(yīng)網(wǎng)絡(luò)空間安全邊界的擴(kuò)張,進(jìn)而為網(wǎng)絡(luò)安全的機(jī)密性、可用性和完整性提供更為有效的防御工具。[45]美國電氣和電子工程師協(xié)會(huì)(IEEE)便在其發(fā)布的《人工智能與機(jī)器學(xué)習(xí)在網(wǎng)絡(luò)安全領(lǐng)域的應(yīng)用》中指出,基于人工智能技術(shù)所構(gòu)建的網(wǎng)絡(luò)安全系統(tǒng)能夠?qū)W(wǎng)絡(luò)安全漏洞進(jìn)行及時(shí)的檢測(cè),并規(guī)?;?、高速度地對(duì)網(wǎng)絡(luò)安全威脅做出應(yīng)對(duì),進(jìn)而能夠有效提升網(wǎng)絡(luò)安全系統(tǒng)的防護(hù)能力。[46]此外,人工智能技術(shù)還可用于網(wǎng)絡(luò)文本、圖片、視頻和語音內(nèi)容的識(shí)別、檢測(cè)與分類,并且對(duì)于網(wǎng)絡(luò)技術(shù)的各類場(chǎng)景化應(yīng)用提供輔助工具,進(jìn)而從網(wǎng)絡(luò)內(nèi)容安全與物理網(wǎng)絡(luò)系統(tǒng)安全來賦能網(wǎng)絡(luò)安全。[47]
第五,在金融安全方面,人工智能的應(yīng)用有助于提高金融體系的安全度和穩(wěn)定性。一方面,人工智能可以通過構(gòu)建反洗錢、反欺詐以及信用評(píng)估等智能模型,為開展多源金融數(shù)據(jù)整合與交易邏輯校驗(yàn)等金融風(fēng)控業(yè)務(wù)提供更為有效的工具。[48]公認(rèn)反洗錢師協(xié)會(huì)(Association of Certified Anti-Money Laundering Specialists, ACAMS)就高度肯定了人工智能技術(shù)在反洗錢領(lǐng)域的應(yīng)用價(jià)值。[49]目前,摩根士丹利、匯豐銀行和高盛等多家金融機(jī)構(gòu)已將人工智能技術(shù)應(yīng)用于風(fēng)險(xiǎn)評(píng)估、交易篩查、交易監(jiān)控等具體金融風(fēng)險(xiǎn)控制場(chǎng)景。[50]另一方面,人工智能還有助于構(gòu)建金融知識(shí)圖譜或關(guān)聯(lián)網(wǎng)絡(luò),從而提升金融預(yù)測(cè)的效能與延展金融風(fēng)控的覆蓋范圍。針對(duì)這一點(diǎn),金融穩(wěn)定理事會(huì)(FSB)認(rèn)為,監(jiān)管部門可以將人工智能技術(shù)運(yùn)用于監(jiān)測(cè)流動(dòng)性風(fēng)險(xiǎn)、資金壓力、房?jī)r(jià)和失業(yè)率等市場(chǎng)變化趨勢(shì),從而更為準(zhǔn)確地把握當(dāng)下的經(jīng)濟(jì)形勢(shì)與金融環(huán)境。[51]
總的來看,人工智能基于進(jìn)化賦能的實(shí)踐應(yīng)用在國家安全治理中存在著一定的技術(shù)發(fā)展正循環(huán)。這一廣域治理的特征不僅意味著人工智能將成為保障國家安全的重要驅(qū)動(dòng)力,而且也將進(jìn)一步拓展國家安全治理的理念、方式與界域。實(shí)際上,由于傳統(tǒng)安全與非傳統(tǒng)安全往往是相互影響的,因此科技在兩者之間的應(yīng)用也存在著一定的交叉。人工智能技術(shù)在國家安全治理中的應(yīng)用也具有這一特性,并且人工智能所具有的通用性更是模糊了其在傳統(tǒng)安全與非傳統(tǒng)安全中的應(yīng)用邊界。例如,在傳統(tǒng)安全中的無人機(jī)“蜂群”可以用于遙感測(cè)繪、森林防火、電力巡線、搜索救援等非傳統(tǒng)安全類活動(dòng),而用于標(biāo)記照片和識(shí)別商品的圖像識(shí)別算法也被用于分析作戰(zhàn)單元所捕獲的戰(zhàn)場(chǎng)信息。[52]因此,人工智能在傳統(tǒng)安全與非傳統(tǒng)安全兩個(gè)領(lǐng)域之間存在著相互支持的作用。當(dāng)然,由于受到數(shù)據(jù)樣本的不完全、算法優(yōu)化的高要求以及模型構(gòu)建的復(fù)雜性等要素的限制,人工智能在現(xiàn)階段的實(shí)際應(yīng)用過程中仍存在著明顯的缺陷。[53]而我們對(duì)于人工智能在國家安全治理中應(yīng)用的認(rèn)知,多數(shù)還是建立在當(dāng)前已知技術(shù)應(yīng)用的基礎(chǔ)上的,尚且只能根據(jù)現(xiàn)有和能大致預(yù)見到的人工智能技術(shù)及其發(fā)展趨勢(shì),來探討其已經(jīng)和可能在國家安全治理中的應(yīng)用。[54]
科技革命的發(fā)生往往會(huì)對(duì)國家力量對(duì)比、地緣政治結(jié)構(gòu)以及社會(huì)治理等多個(gè)方面產(chǎn)生深遠(yuǎn)影響,進(jìn)而也就會(huì)從多個(gè)領(lǐng)域?qū)野踩卫碓斐筛拘缘奶魬?zhàn)。例如,科技革命所帶動(dòng)的軍事變革可能加劇大國間的戰(zhàn)略競(jìng)爭(zhēng)、擴(kuò)大全球戰(zhàn)略失衡的風(fēng)險(xiǎn),并導(dǎo)致對(duì)抗規(guī)模更大、速度更快以及強(qiáng)度更高;科技革命所推動(dòng)的社會(huì)形態(tài)轉(zhuǎn)變將使得經(jīng)濟(jì)安全、金融安全、信息安全、文化安全、環(huán)境安全等非傳統(tǒng)安全領(lǐng)域面臨新的“安全困境”。[55]如上文所述,隨著人工智能實(shí)現(xiàn)了新一輪的技術(shù)突破,這一技術(shù)極大地提升了國家安全的重要意義。人工智能不僅對(duì)國家安全及其戰(zhàn)略行為模式具有極強(qiáng)的“破壁效應(yīng)”,同時(shí)這一技術(shù)的應(yīng)用也存在著超出預(yù)期設(shè)想的可能。因此,人工智能技術(shù)也將從國家戰(zhàn)略競(jìng)爭(zhēng)的穩(wěn)定性、社會(huì)治理的有序性以及技術(shù)應(yīng)用的穩(wěn)定性等方面對(duì)國家安全產(chǎn)生一定沖擊。此外,人工智能綜合應(yīng)用所存在著的交叉性還將放大這些沖擊所造成的風(fēng)險(xiǎn)。
軍事安全與戰(zhàn)略平衡是國家傳統(tǒng)安全領(lǐng)域探討的首要議題,而科技對(duì)于軍事力量發(fā)展的作用則對(duì)軍事安全與戰(zhàn)略平衡產(chǎn)生直接影響。這是由于某項(xiàng)新科技的軍事化應(yīng)用往往存在打破原有國家間力量對(duì)比的可能,并且各國技術(shù)水平的差異往往容易加劇國家間的軍事與戰(zhàn)略競(jìng)爭(zhēng)。[56]從這一維度出發(fā),人工智能對(duì)于國家安全的影響可以分為以下三個(gè)方面:
第一,從競(jìng)爭(zhēng)領(lǐng)域來看,人工智能作為一項(xiàng)具有通用性的平臺(tái)技術(shù),其軍事化應(yīng)用不會(huì)局限于某類單一的武器或作戰(zhàn)平臺(tái),而是將在各個(gè)軍事領(lǐng)域內(nèi)實(shí)現(xiàn)全面的擴(kuò)散。因此,擁有人工智能技術(shù)優(yōu)勢(shì)的一方將在多領(lǐng)域中研發(fā)出打擊效用更大與預(yù)期風(fēng)險(xiǎn)更低的軍事設(shè)備,而技術(shù)劣勢(shì)方則難以用數(shù)量疊層或策略戰(zhàn)術(shù)等手段進(jìn)行中和或彌補(bǔ)這一力量差距。同時(shí),人工智能還將為各類小規(guī)模、短時(shí)間、低烈度的非傳統(tǒng)的戰(zhàn)法及非戰(zhàn)爭(zhēng)的軍事行動(dòng)提供更為有效的技術(shù)支撐。非常規(guī)的軍事行動(dòng)出現(xiàn)與進(jìn)化本身就可能模糊戰(zhàn)爭(zhēng)與沖突的界限,而人工智能軍事化應(yīng)用圖景的不明確則將進(jìn)一步深化這一不確定性。[57]此外,現(xiàn)有的軍備控制體系與國際裁軍協(xié)議并未將人工智能軍事化應(yīng)用涵蓋在內(nèi),并且各方也尚未就這一議題形成廣泛的共識(shí)。[58]因此,人工智能軍事化應(yīng)用所存在的全域式特性以及對(duì)非常規(guī)軍事行動(dòng)的支撐作用將加劇國家在這一領(lǐng)域內(nèi)的競(jìng)爭(zhēng),并且全球性規(guī)制的缺失還可能導(dǎo)致人工智能軍事化應(yīng)用出現(xiàn)無序競(jìng)爭(zhēng)的格局。
第二,從沖突成本來看,人工智能的軍事化應(yīng)用不僅能夠?qū)崿F(xiàn)作戰(zhàn)效率的全方位提高,并且還能夠以無人化的作戰(zhàn)形式來降低可能造成的傷亡。針對(duì)這一點(diǎn),美國學(xué)者邁克爾·邁耶(Michael Mayer)認(rèn)為,新型無人武器發(fā)展帶來的影響不僅限于提供了可升級(jí)的遠(yuǎn)程精確打擊能力,更為關(guān)鍵的是使用這種武器將會(huì)避免對(duì)己方作戰(zhàn)人員帶來傷亡的風(fēng)險(xiǎn)。[59]這樣來看,人工智能的介入將顯著地降低損益、周期、規(guī)模以及性質(zhì)等諸多因素在內(nèi)的預(yù)期成本對(duì)于戰(zhàn)爭(zhēng)決斷及其進(jìn)程的限制,尤其是原有制衡戰(zhàn)爭(zhēng)的兩大主要因素——軍事成本與國內(nèi)政治代價(jià)——在一定程度上被削弱了(甚至消失)。[60]與此同時(shí),人工智能軍事化應(yīng)用所帶來效用的提高也可能導(dǎo)致國家更傾向于使用這一技術(shù)。喬治梅森大學(xué)教授杰瑞米·拉布金(Jeremy Rabkin)與加州大學(xué)伯克利分校教授約翰·柳(John Yoo)認(rèn)為,在動(dòng)用大規(guī)模的軍事響應(yīng)過于嚴(yán)重的情況下,各國便可能會(huì)更加頻繁采取人工智能等作戰(zhàn)效能更高和戰(zhàn)爭(zhēng)成本更低的新技術(shù)來達(dá)到目標(biāo)。[61]可見,盡管人工智能的軍事化應(yīng)用帶來了一系列戰(zhàn)略收益,但也降低了戰(zhàn)爭(zhēng)的門檻及其負(fù)面效應(yīng),進(jìn)而在技術(shù)層面刺激各行為主體趨向于選擇沖突與對(duì)抗。[62]
第三,從核威懾體系來看,人工智能技術(shù)的介入可能對(duì)這一建立在“確保相互摧毀”原則基礎(chǔ)上的體系造成巨大的沖擊。實(shí)際上,國際行為體間的戰(zhàn)略互動(dòng)往往是一種基于“不完全信息”的博弈過程,這也是核威懾體系存在的前提之一。[63]然而,擁有人工智能技術(shù)優(yōu)勢(shì)的一方能夠?qū)υ胁淮_定的戰(zhàn)略意圖以及復(fù)雜的對(duì)抗情況進(jìn)行全景式的智能化分析,從而能夠在核威懾的決策上做出更加靈活、準(zhǔn)確的戰(zhàn)略判斷與選擇。[64]例如,蘭德公司發(fā)布的《人工智能對(duì)核戰(zhàn)爭(zhēng)風(fēng)險(xiǎn)的影響》報(bào)告顯示,技術(shù)優(yōu)勢(shì)方可以運(yùn)用人工智能技術(shù)對(duì)敵方安全基礎(chǔ)設(shè)施實(shí)行大規(guī)模監(jiān)控,并據(jù)此確定對(duì)手的行為模式與實(shí)施更具針對(duì)性的反制措施。[65]與此同時(shí),人工智能所導(dǎo)致的軍事競(jìng)爭(zhēng)領(lǐng)域的擴(kuò)大還將催生不對(duì)等的戰(zhàn)略威脅手段。例如,人工智能可以實(shí)現(xiàn)天基武器情報(bào)和武力的實(shí)時(shí)整合,并以智能化的方式提升軌道武器的精準(zhǔn)度,進(jìn)而構(gòu)建一個(gè)更為有效的反導(dǎo)防御系統(tǒng)。這一不對(duì)等戰(zhàn)略威脅手段的出現(xiàn)可能導(dǎo)致技術(shù)弱勢(shì)方所具備的威懾戰(zhàn)略趨于低效或者無效,進(jìn)而對(duì)現(xiàn)有的核威懾體系形成一定沖擊。[66]因此,正如美國哈德遜研究所高級(jí)研究員安德魯·克雷皮內(nèi)維奇(Andrew Krepinevich)所言,新興技術(shù)的出現(xiàn)將模糊常規(guī)戰(zhàn)爭(zhēng)與核戰(zhàn)爭(zhēng)間的界限,并且不對(duì)等的軍事能力同樣具有打破核威懾平衡的可能。[67]
從上述三個(gè)角度的分析來看,無論是軍事競(jìng)爭(zhēng)的領(lǐng)域,還是對(duì)抗沖突的意愿,抑或是核威懾體系,人工智能技術(shù)均有可能對(duì)現(xiàn)有的博弈結(jié)構(gòu)造成較大的沖擊。其中,人工智能技術(shù)相對(duì)薄弱的國家將在戰(zhàn)略判斷、策略選擇與執(zhí)行效率等多方面處于絕對(duì)劣勢(shì),占據(jù)技術(shù)優(yōu)勢(shì)的國家則將通過占據(jù)新的技術(shù)制高點(diǎn)來獲得全面超越傳統(tǒng)力量對(duì)抗的能力。在這一狀態(tài)下,各國對(duì)于實(shí)力差距、國家安全與利益沖突的擔(dān)憂將會(huì)更加明顯,進(jìn)而使得各國在人工智能發(fā)展上的不對(duì)稱性逐步放大為國家安全偏好上的差異性:第一,技術(shù)強(qiáng)國在選擇沖突對(duì)抗時(shí)所獲得的收益將不斷增加,技術(shù)弱國則難以憑借常規(guī)的對(duì)抗手段形成有效的對(duì)外制約。[68]因此,技術(shù)強(qiáng)國所具備的“積極幻想”的適應(yīng)性優(yōu)勢(shì)使其更易形成獲取霸權(quán)的進(jìn)攻性需求,即技術(shù)強(qiáng)國在戰(zhàn)爭(zhēng)方面的決策可能變得更加寬松,并傾向于實(shí)現(xiàn)人工智能的大規(guī)模軍事化應(yīng)用以構(gòu)建自身的絕對(duì)優(yōu)勢(shì)。[69]第二,技術(shù)弱國所處的被動(dòng)位置則使其形成獲取維護(hù)安全的防御性需求,即技術(shù)弱國更易于傾向采取激進(jìn)的反制措施,傾向于尋求人工智能武器的擴(kuò)散以獲得新的制衡手段。第三,由于各國無法直觀地判斷相互間在人工智能技術(shù)上的差距,更是可能導(dǎo)致各國不得不做出最為極端的選擇,即將潛在對(duì)手的威脅最大化。[70]
這樣看來,在人工智能軍事化應(yīng)用的影響下,國家安全的客觀外延性(extensionality)與主觀意向性(intentionality)極有可能發(fā)生重疊,即因人工智能技術(shù)發(fā)展的差異性所導(dǎo)致的“生存性焦慮”存在被放大為“生存性威脅”的可能(如圖2所示)。而“客觀安全與主觀安全的喪失將導(dǎo)致國家行為大幅度的偏離理性軌道”,因此無論是技術(shù)強(qiáng)國還是技術(shù)弱國,均有在人工智能軍事化應(yīng)用中強(qiáng)化戰(zhàn)略競(jìng)爭(zhēng)的傾向。[71]人工智能技術(shù)發(fā)展所導(dǎo)致的力量失衡以及安全格局的轉(zhuǎn)變,就將導(dǎo)致國際體系出現(xiàn)更大的不確定性與不穩(wěn)定性。
圖2 人工智能軍事化應(yīng)用之下國家安全偏好的轉(zhuǎn)變
資料來源:筆者自制。
軍事能力與經(jīng)濟(jì)實(shí)力是一國在國際社會(huì)中塑造自身權(quán)力的兩大重要來源,但就現(xiàn)代社會(huì)的發(fā)展而言,后者對(duì)于國家安全的重要性更為凸顯。[72]作為一種生產(chǎn)力革命的手段,人工智能對(duì)于經(jīng)濟(jì)發(fā)展的重要性是不言而喻的。然而,就目前而言,發(fā)達(dá)國家在人工智能技術(shù)的發(fā)展上仍處于絕對(duì)的優(yōu)勢(shì)地位,多數(shù)發(fā)展中國家在這一技術(shù)上則存在著天然的缺陷。因此,盡管人工智能技術(shù)的應(yīng)用能夠有效地推動(dòng)社會(huì)整體的發(fā)展,但是這一內(nèi)嵌的技術(shù)霸權(quán)邏輯則將導(dǎo)致國際競(jìng)爭(zhēng)中出現(xiàn)更多的消極因素,并且還將加劇全球發(fā)展中的不均衡與不公正。[73]
第一,人工智能所推動(dòng)的生產(chǎn)方式變革將對(duì)全球性的整合與現(xiàn)代性的擴(kuò)散產(chǎn)生一定的限制。人工智能在產(chǎn)業(yè)層面應(yīng)用的核心邏輯在于通過智能機(jī)器人來實(shí)現(xiàn)社會(huì)生產(chǎn)的自動(dòng)化與智能化。盡管這一生產(chǎn)方式的轉(zhuǎn)變能夠?qū)崿F(xiàn)社會(huì)生產(chǎn)力的釋放,但同時(shí)也將對(duì)現(xiàn)有的產(chǎn)品生命周期和國際分工模式造成極大的沖擊。尤其是無人化生產(chǎn)方式的應(yīng)用將稀釋發(fā)展中國家在勞動(dòng)力資源上所具備的比較優(yōu)勢(shì),部分制造加工業(yè)回流到自動(dòng)化程度較高的發(fā)達(dá)國家。在這種情況下,發(fā)展中國家就難以通過自身的人口紅利來吸引國際產(chǎn)業(yè)的轉(zhuǎn)移,進(jìn)而就面臨著外資紅利與全球技術(shù)知識(shí)外溢的紅利縮減的風(fēng)險(xiǎn)。同時(shí),人工智能應(yīng)用所導(dǎo)致的全球產(chǎn)業(yè)鏈向價(jià)值鏈的躍升將使得具備技術(shù)優(yōu)勢(shì)的發(fā)達(dá)國家獲得引領(lǐng)新一輪產(chǎn)業(yè)升級(jí)的能力。針對(duì)這一點(diǎn),麥肯錫全球研究院在其報(bào)告中指出,占據(jù)人工智能技術(shù)高地的發(fā)達(dá)國家和地區(qū)將在目前基礎(chǔ)上獲得20%~25%的額外經(jīng)濟(jì)增長(zhǎng),而發(fā)展中國家可能僅僅只能獲得5%~15%的額外經(jīng)濟(jì)增長(zhǎng)。[74]此外,人工智能技術(shù)還將導(dǎo)致發(fā)達(dá)國家與發(fā)展中國家之間出現(xiàn)新的技術(shù)圍墻。例如,以色列耶路撒冷希伯來大學(xué)歷史系教授尤瓦爾·赫拉利(Yuval Harari)指出,在人工智能時(shí)代,技術(shù)強(qiáng)國所“天然”具有壟斷數(shù)據(jù)的能力可能導(dǎo)致少數(shù)幾個(gè)大國掌控全球的數(shù)據(jù)信息,而技術(shù)弱國則極有可能面臨“數(shù)據(jù)殖民”的危機(jī)。[75]這樣看來,盡管發(fā)展中國家也將在智能革命中獲得更好的發(fā)展機(jī)會(huì),但是原有全球化所帶來的“現(xiàn)代性擴(kuò)散”可能難以再為發(fā)展中國家的產(chǎn)業(yè)升級(jí)與社會(huì)轉(zhuǎn)型提供有效的支撐,部分發(fā)展中國家甚至可能面臨被全球價(jià)值鏈淘汰的風(fēng)險(xiǎn)。[76]
第二,人工智能技術(shù)創(chuàng)新與應(yīng)用的高門檻將導(dǎo)致發(fā)展中國家面臨“技術(shù)邊緣化”的風(fēng)險(xiǎn)。[77]從技術(shù)創(chuàng)新來看,多數(shù)發(fā)展中國家在人工智能的技術(shù)創(chuàng)新與投資能力上非常薄弱。根據(jù)加拿大人工智能孵化公司Element AI發(fā)布的《2019年全球人工智能人才報(bào)告》顯示,全球范圍內(nèi)72% 的人工智能技術(shù)人才被美國、中國、英國、德國和加拿大五國包攬,而排名前18強(qiáng)的國家則包攬了94% 的人才;[78]再如,根據(jù)全球知名創(chuàng)投研究機(jī)構(gòu)CB Insights發(fā)布的2019年《人工智能企業(yè)100強(qiáng)榜單》顯示,在百強(qiáng)榜單中有77家企業(yè)來自美國,并且專利申請(qǐng)數(shù)量最多的公司也同樣來自美國。[79]與此同時(shí),人工智能技術(shù)的前期研發(fā)與布局上也需要投入大量的成本,并且其發(fā)展初期存在著“索洛悖論”(Solow Paradox)的難題,即人工智能所推動(dòng)社會(huì)生產(chǎn)率的提升與技術(shù)進(jìn)步之間存在遲滯,并且勞動(dòng)生產(chǎn)率的提升難以同步轉(zhuǎn)化為人們收入的普遍增長(zhǎng)和消費(fèi)成本的普遍下降。[80]對(duì)于發(fā)展中國家來說,人工智能技術(shù)研發(fā)的高昂成本本身就是難以負(fù)擔(dān)的,并且這一技術(shù)應(yīng)用與吸收所需經(jīng)歷緩慢的“燃燒周期”更是加重了其實(shí)現(xiàn)技術(shù)應(yīng)用的負(fù)擔(dān)。從這一角度來看,那些技術(shù)條件和資本基礎(chǔ)薄弱的發(fā)展中國家甚至在人工智能領(lǐng)域喪失實(shí)質(zhì)性的發(fā)展機(jī)會(huì)。[81]
第三,人工智能的過度競(jìng)爭(zhēng)還將催生新的地緣政治風(fēng)險(xiǎn)與技術(shù)風(fēng)險(xiǎn)。由于發(fā)達(dá)國家在人工智能技術(shù)的原發(fā)性創(chuàng)新與價(jià)值定義上具有絕對(duì)的先發(fā)優(yōu)勢(shì),因此這些國家往往能夠在人工智能的標(biāo)準(zhǔn)及治理規(guī)則的制定上也發(fā)揮出極強(qiáng)的主導(dǎo)作用。在這種情況下,技術(shù)強(qiáng)國憑借自身在人工智能技術(shù)上的優(yōu)勢(shì)而成為新的權(quán)力中心,其他技術(shù)弱國則將參與由技術(shù)強(qiáng)國所構(gòu)建的技術(shù)秩序。因此,技術(shù)弱國對(duì)技術(shù)強(qiáng)國就形成了新的技術(shù)性依附。然而,人工智能作為一項(xiàng)集成式的平臺(tái)性技術(shù),本身就涉及算力、數(shù)據(jù)與算法等多方面的技術(shù),這就使得各國在人工智能領(lǐng)域的競(jìng)爭(zhēng)本身就帶有全域式競(jìng)爭(zhēng)的趨向。在這一依附關(guān)系下,這一全域式競(jìng)爭(zhēng)的趨向就從技術(shù)強(qiáng)國之間的局部競(jìng)爭(zhēng)擴(kuò)大為全球性的競(jìng)爭(zhēng),即個(gè)別技術(shù)強(qiáng)國的主觀競(jìng)爭(zhēng)意愿將體現(xiàn)為國家之間的技術(shù)競(jìng)爭(zhēng)現(xiàn)實(shí)。而這種格局一旦形成,就極易導(dǎo)致各國在人工智能領(lǐng)域的競(jìng)爭(zhēng)超出正常的范疇,甚至可能引發(fā)各國采取諸如技術(shù)封鎖、技術(shù)對(duì)抗等更為激進(jìn)的技術(shù)發(fā)展策略。[82]然而,過度競(jìng)爭(zhēng)就會(huì)導(dǎo)致人工智能的發(fā)展出現(xiàn)更為無序的狀態(tài),尤其是技術(shù)割裂所造成技術(shù)生態(tài)的封閉與失序就極易誘發(fā)一系列的新生技術(shù)風(fēng)險(xiǎn)。例如,不同的人工智能系統(tǒng)本身就存在著兼容性的問題,并且這些系統(tǒng)之間安全防護(hù)協(xié)議的差異也可能導(dǎo)致出現(xiàn)一定的安全漏洞。而在技術(shù)對(duì)抗或者封鎖的狀態(tài)下,各國就難以通過合作來共同解決這些問題。[83]
在技術(shù)發(fā)展和治理需求的推動(dòng)下,市場(chǎng)中的結(jié)構(gòu)性權(quán)力往往會(huì)出現(xiàn)持續(xù)性的擴(kuò)張。在人工智能時(shí)代,盡管政府仍將具備一定的數(shù)據(jù)資源優(yōu)勢(shì),但是治理難度的增加及技術(shù)應(yīng)用的不充分也可能導(dǎo)致政府不得不將部分的治理權(quán)力讓渡給科技巨頭企業(yè)。正如美國經(jīng)濟(jì)學(xué)家、諾貝爾經(jīng)濟(jì)學(xué)獎(jiǎng)得主約瑟夫·斯蒂格利茨(Joseph Stiglitz)所言,人工智能技術(shù)的復(fù)雜性以及科技企業(yè)的優(yōu)勢(shì)將導(dǎo)致后者在相關(guān)技術(shù)治理準(zhǔn)則的制定中擁有相當(dāng)大的話語權(quán)。[84]科技巨頭企業(yè)也將憑借自身在人工智能技術(shù)以及產(chǎn)品供應(yīng)上的重要作用,獲得相應(yīng)的社會(huì)治理權(quán)力與能力。因此,人工智能在一定程度上將強(qiáng)化資本權(quán)力的壟斷地位,其中科技巨頭企業(yè)極有可能成為新型的權(quán)力中樞。
目前來看,多數(shù)重要的人工智能領(lǐng)域的突破性成果都是出自Alphabet、IBM、微軟、亞馬遜和蘋果等科技巨頭企業(yè)所支持的研究平臺(tái),并且這些巨頭企業(yè)也通過收購與兼并來強(qiáng)化自己在人工智能技術(shù)生態(tài)的戰(zhàn)略優(yōu)勢(shì)。例如,根據(jù)CB Insights的統(tǒng)計(jì),上述所提及的科技巨頭企業(yè)在過去的17年內(nèi)分別收購了諸如深度思考(DeepMind)、Github、領(lǐng)英(LinkedIn)、Siri、安卓(Android)等200多家人工智能創(chuàng)業(yè)公司。[85]因此,這些科技巨頭企業(yè)極有可能成為人工智能時(shí)代的巨頭企業(yè)??萍季揞^企業(yè)所構(gòu)建的是一種自上而下的全產(chǎn)業(yè)鏈?zhǔn)降娜斯ぶ悄芗夹g(shù)生態(tài),并且這一生態(tài)體系在發(fā)展初期是不同專業(yè)領(lǐng)域的企業(yè)以開放、互動(dòng)的形式共建而成。因此,人工智能技術(shù)的競(jìng)爭(zhēng)要素集中度會(huì)隨著這一過程而不斷集中,因而更易形成“贏者通吃”的寡頭競(jìng)爭(zhēng)格局。例如,盡管當(dāng)前多數(shù)科技巨頭企業(yè)所提供的人工智能算法多是開源的,但這些算法(與Linux等經(jīng)典開源軟件不同)在戰(zhàn)略、設(shè)計(jì)和開發(fā)上仍是封閉的和不透明的,并且初創(chuàng)企業(yè)幾乎難以擺脫對(duì)這些開源算法的依賴。[86]此外,數(shù)據(jù)、算法等人工智能的核心要素在一定程度上可以脫離主權(quán)和地理空間的限制,并且人工智能技術(shù)的諸多特性本身就便利于壟斷行為的實(shí)施。因此,科技巨頭企業(yè)的活動(dòng)空間則將隨著人工智能技術(shù)的發(fā)展而得到持續(xù)性的擴(kuò)張,而相關(guān)部門的監(jiān)管也面臨著更大的挑戰(zhàn)。[87]
與此同時(shí),人工智能的發(fā)展還將推動(dòng)新一輪的“溫特爾主義”(Wintelism)的形成。[88]科技巨頭企業(yè)在數(shù)據(jù)、算力與算法上的優(yōu)勢(shì)地位決定了它們具備操縱全球人工智能產(chǎn)業(yè)結(jié)構(gòu)與技術(shù)實(shí)踐的能力。對(duì)于主權(quán)國家而言,為確保自身在人工智能技術(shù)上處于絕對(duì)領(lǐng)先地位的目的,技術(shù)強(qiáng)國(相對(duì)于技術(shù)弱國)與市場(chǎng)結(jié)構(gòu)性權(quán)力之間形成一種相互利用與共謀的關(guān)系,即兩者極有可能通過制定行業(yè)標(biāo)準(zhǔn)、模塊化生產(chǎn)等策略來主導(dǎo)人工智能技術(shù)的發(fā)展。美國紐約大學(xué)信息法研究所研究員茱莉亞·波爾斯(Julia Powles)將此稱為“因技術(shù)發(fā)展而形成的力量轉(zhuǎn)移與結(jié)合”。[89]然而,對(duì)于人工智能而言,這種技術(shù)發(fā)展的模式卻可能導(dǎo)致兩方面的不良后果:從內(nèi)部視角來看,為了充分搶占人工智能技術(shù)的高地,政府會(huì)予以科技巨頭企業(yè)更多的權(quán)力讓渡,繼而導(dǎo)致這些巨頭企業(yè)的壟斷地位被不斷強(qiáng)化,并對(duì)技術(shù)創(chuàng)新、產(chǎn)業(yè)制造以及社會(huì)治理等方面造成極大的擠出效應(yīng)。[90]從外部視角來看,這一發(fā)展模式極易擴(kuò)大國家利益與企業(yè)利益在人工智能技術(shù)發(fā)展上所具有的一致性,并使得企業(yè)間的商業(yè)性競(jìng)爭(zhēng)上升為國家間的戰(zhàn)略性競(jìng)爭(zhēng),進(jìn)而導(dǎo)致人工智能面臨更多的消極競(jìng)爭(zhēng)因素。[91]顯然,這兩種情況均不利于人工智能技術(shù)的可持續(xù)發(fā)展,并且也容易導(dǎo)致各類主體在這一技術(shù)競(jìng)爭(zhēng)中脫離正常的范疇,進(jìn)而從技術(shù)發(fā)展和競(jìng)爭(zhēng)秩序兩方面對(duì)國家安全造成極為不利的影響。
人工智能技術(shù)的發(fā)展與應(yīng)用將推動(dòng)新一輪的技術(shù)革命和產(chǎn)業(yè)革命,但同樣不可忽視的是,人工智能技術(shù)的介入也將從利益再分配、法律規(guī)范和倫理道德等多個(gè)層面對(duì)社會(huì)治理形成新的沖擊。與此同時(shí),人工智能本身存在運(yùn)作的自主性、參與的多元性和風(fēng)險(xiǎn)的不可預(yù)知性等特征對(duì)于社會(huì)治理也提出了更高的要求。因此,人工智能對(duì)于社會(huì)治理所帶來的一系列新挑戰(zhàn)也是國家安全治理需要重點(diǎn)關(guān)注的領(lǐng)域。
當(dāng)前人工智能對(duì)于社會(huì)治理最為突出的影響便是這一技術(shù)應(yīng)用所可能導(dǎo)致的社會(huì)結(jié)構(gòu)性失業(yè)問題。根據(jù)麥肯錫全球研究院2018年9月發(fā)布的《前沿筆記:人工智能對(duì)全球經(jīng)濟(jì)影響的模擬計(jì)算》顯示,根據(jù)不同的使用場(chǎng)景,到2030年,智能代理和機(jī)器人將取代4億~8億個(gè)工作崗位。其中,重復(fù)性勞動(dòng)與低水平數(shù)字技能為特征的崗位需求在未來20年中下降近10%,而非重復(fù)性活動(dòng)或高水平數(shù)字技能的崗位需求則將獲得相應(yīng)的份額。[92]這就意味著,人工智能將導(dǎo)致依靠勞動(dòng)密集型產(chǎn)業(yè)和依賴信息不對(duì)稱而存在的部分行業(yè)遭受極大的沖擊。[93]實(shí)際上,這種失業(yè)的主要原因并不在于技術(shù)替代,而是人工智能嵌入所導(dǎo)致的社會(huì)技能結(jié)構(gòu)和人才供需之間的不平衡。人工智能技術(shù)本身無法均等地滲透到所有國家、地區(qū)、產(chǎn)業(yè)和經(jīng)營(yíng)主體,其帶來的經(jīng)濟(jì)增長(zhǎng)也同樣難以以涓流的方式惠及所有群體。然而,恰恰是這種不平等與不對(duì)稱擴(kuò)大了人工智能所造成的社會(huì)各產(chǎn)業(yè)間、群體間與階層間在發(fā)展能力、資源占有程度與社會(huì)影響力等方面的失衡。[94]因此,人工智能所導(dǎo)致的這一結(jié)構(gòu)性失業(yè)不僅可能降低勞動(dòng)參與率與加劇收入的“二元”分化,還將擴(kuò)大社會(huì)貧富差距和減弱階層流動(dòng)性。社會(huì)包容度衰減等問題也將因此變得更為突出。
數(shù)據(jù)隱私也是當(dāng)前人工智能發(fā)展急需解決的問題。人工智能技術(shù)對(duì)用戶隱私的侵權(quán)主要表現(xiàn)為個(gè)人數(shù)據(jù)的不當(dāng)收集、數(shù)據(jù)收集方濫用、數(shù)據(jù)二次使用與擴(kuò)散。實(shí)際上,人工智能技術(shù)研發(fā)本身就是以大數(shù)據(jù)技術(shù)為支撐的。然而,數(shù)據(jù)的高度依賴性要求用戶讓渡一定的個(gè)人數(shù)據(jù)使用權(quán),并且人工智能所形成的用戶畫像(profiling)還將對(duì)用戶的隱私進(jìn)行“窺探”。例如,將個(gè)人的瀏覽記錄、聊天內(nèi)容和購物過程等數(shù)據(jù)片段進(jìn)行組合,就可以勾勒出用戶的行為軌跡,并據(jù)此推斷出個(gè)人偏好、性格特征和行為習(xí)慣。此外,在現(xiàn)行的網(wǎng)絡(luò)數(shù)據(jù)安全架構(gòu)下,對(duì)于個(gè)人數(shù)據(jù)的被遺忘權(quán)、攜帶權(quán)等新型數(shù)據(jù)權(quán)利未能形成社會(huì)共識(shí)性的保護(hù)機(jī)制,數(shù)據(jù)跨境流動(dòng)管理等全球數(shù)據(jù)管理更是處于真空地帶。例如,盡管微軟公司近期出于隱私的考慮,刪除了旗下的公開人臉識(shí)別數(shù)據(jù)庫MS Celeb,但這些數(shù)據(jù)早已在業(yè)內(nèi)進(jìn)行了廣泛傳播,并且基于這些數(shù)據(jù)而優(yōu)化的算法更是無法消除其內(nèi)嵌的對(duì)于個(gè)人隱私的破壞。[95]
數(shù)據(jù)質(zhì)量缺陷以及算法平衡價(jià)值觀念缺失所導(dǎo)致的算法歧視也是人工智能對(duì)社會(huì)治理所形成的一大挑戰(zhàn)。實(shí)際上,算法的數(shù)據(jù)運(yùn)用、決策機(jī)制以及結(jié)果表征等仍是基于開發(fā)者的主觀價(jià)值選擇而形成,開發(fā)者的潛在性偏見由此也可能被嵌入其中。此外,人工智能技術(shù)的甄別邏輯來自輸入數(shù)據(jù),如果數(shù)據(jù)本身不完整或者存在某種傾向性,算法就可能把數(shù)據(jù)中的干擾因素或數(shù)據(jù)噪音進(jìn)一步放大或固化,進(jìn)而導(dǎo)致“自我實(shí)現(xiàn)的歧視性反饋循環(huán)”。[96]例如,根據(jù)美國公民自由聯(lián)盟(ACLU)的一項(xiàng)測(cè)試顯示,由亞馬遜公司所開發(fā)的Rekognition圖像識(shí)別技術(shù)錯(cuò)誤地將28名美國國會(huì)議員識(shí)別為嫌疑犯,其中有色人種議員占比達(dá)到了39%;根據(jù)美國麻省理工學(xué)院媒體實(shí)驗(yàn)室的研究顯示,該技術(shù)也無法可靠地識(shí)別“女性和皮膚黝黑的人”,其中19%的女性形象被誤判為男性,而黑皮膚女性在其中占比為31%。[97]這種因數(shù)據(jù)或算法而導(dǎo)致的歧視,就可能引發(fā)種族歧視、性別歧視等社會(huì)偏見得到技術(shù)性的強(qiáng)化,進(jìn)而對(duì)公民的相關(guān)權(quán)利造成一定的威脅,并對(duì)社會(huì)秩序的穩(wěn)定與公平也造成相應(yīng)的破壞。
人工智能自身的技術(shù)自主性、高度復(fù)雜性和風(fēng)險(xiǎn)存續(xù)性導(dǎo)致其技術(shù)失控存在更大的破壞性,從而導(dǎo)致國家安全可能面臨“技術(shù)恐怖”的困境。根據(jù)德勤公司(Deloitte)發(fā)布《懸而未決的人工智能競(jìng)賽——全球企業(yè)人工智能發(fā)展現(xiàn)狀》報(bào)告顯示,當(dāng)前人工智能發(fā)展最突出的三大技術(shù)風(fēng)險(xiǎn)分別是“網(wǎng)絡(luò)安全漏洞、人工智能決策的潛在偏見與基于人工智能的建議做出錯(cuò)誤決策”。[98]其中,前兩者主要是從人工智能技術(shù)本身出發(fā)的。英國牛津大學(xué)人工智能治理中心研究員雷姆科·澤維斯洛特(Remco Zwetsloot)則將人工智能在技術(shù)層面的風(fēng)險(xiǎn)劃分為“事故風(fēng)險(xiǎn)和濫用風(fēng)險(xiǎn)”。[99]實(shí)際上,人工智能不僅存在因惡意使用所導(dǎo)致的技術(shù)外溢風(fēng)險(xiǎn),而且也面臨著因技術(shù)失控或管理不當(dāng)所導(dǎo)致的技術(shù)內(nèi)生風(fēng)險(xiǎn)。
從技術(shù)外溢風(fēng)險(xiǎn)來看,人工智能技術(shù)的成熟以及相關(guān)數(shù)字資源的開放不僅會(huì)催生新的技術(shù)擴(kuò)散風(fēng)險(xiǎn),并且人工智能本身的技術(shù)漏洞也會(huì)增加其被攻擊或利用的可能。一方面,犯罪分子不僅可以更為便捷、隱蔽地進(jìn)行小型無人攻擊系統(tǒng)及武器的自主研發(fā),并且也能通過對(duì)人工智能應(yīng)用的破壞來獲取新型的犯罪能力。[100]例如,機(jī)器學(xué)習(xí)中所使用的神經(jīng)網(wǎng)絡(luò)已在無人駕駛、機(jī)器人等領(lǐng)域得到了廣泛應(yīng)用,但原本無害的神經(jīng)網(wǎng)絡(luò)可能在遭受對(duì)抗樣本(Adversarial Example)攻擊或遭遇數(shù)據(jù)劫持后就極易出現(xiàn)隱藏性的偏差,而犯罪分子就能夠通過這些人工智能裝置來發(fā)動(dòng)非接觸式的攻擊。[101]另一方面,人工智能技術(shù)研發(fā)的秘密性、分散性與不透明性加大了打擊技術(shù)犯罪以及調(diào)控技術(shù)穩(wěn)定性的難度,并且人工智能技術(shù)應(yīng)用邊界的模糊性更是加劇了管控技術(shù)擴(kuò)散的難度。[102]例如,在開源編程逐漸興起的條件下,人工智能技術(shù)的研發(fā)便能夠在相對(duì)秘密的情況下進(jìn)行,相關(guān)研究項(xiàng)目的參與者也具有一定的分散性,進(jìn)而導(dǎo)致監(jiān)管者難以對(duì)公共危險(xiǎn)源進(jìn)行識(shí)別,也無法對(duì)這些參與者進(jìn)行有效的監(jiān)管。[103]
從技術(shù)內(nèi)生風(fēng)險(xiǎn)來看,不確定的技術(shù)缺陷與安全防護(hù)措施的不完善是導(dǎo)致人工智能技術(shù)出現(xiàn)這一風(fēng)險(xiǎn)的主要原因。人工智能所具有“自我學(xué)習(xí)”能力使其能夠在不需要外部控制或者監(jiān)督的情況下,就能自主地完成某些任務(wù)。正如斯坦福大學(xué)人工智能與倫理學(xué)教授杰瑞·卡普蘭(Jerry Kaplan)所言,“機(jī)器學(xué)習(xí)系統(tǒng)能夠發(fā)展出自己的直覺,并依照這一直覺來行動(dòng)”。[104]但是如果人工智能躍升成具有“自主思維”的主體,形成了自身運(yùn)行的“技術(shù)理性”,那么人工智能就將具備去本地化控制的能力。然而,在人工智能的運(yùn)行過程中,算法并不會(huì)對(duì)決策結(jié)果進(jìn)行解釋,也無法確定某個(gè)特定的數(shù)據(jù)實(shí)例是否會(huì)對(duì)決策產(chǎn)生干擾。[105]因此,使用者既無法充分理解算法運(yùn)行的原理,也無法完全掌控智能系統(tǒng)的決策及其實(shí)施進(jìn)程,進(jìn)而被動(dòng)地陷入一種“算法黑箱”(black box)的狀態(tài)。[106]同時(shí),盡管人工智能有助于實(shí)現(xiàn)決策的強(qiáng)理性與概率化的變革,但是情感、道德等主觀性因素?zé)o法被充分嵌入這一決策機(jī)制,甚至有可能被完全排除在外。這意味著,人工智能難以充分地識(shí)別非人道行為,甚至可能自發(fā)制定出既定目標(biāo)之外的非意圖性目標(biāo)(unintended impact)。[107]此外,基于歷史數(shù)據(jù)的算法模型對(duì)潛在的突發(fā)性變化并不具備完全的預(yù)判能力與應(yīng)變能力,并且監(jiān)管環(huán)境、風(fēng)險(xiǎn)環(huán)境或風(fēng)險(xiǎn)策略等基礎(chǔ)條件的變化對(duì)于人工智能也具有一定的實(shí)時(shí)性要求。因此,一旦人工智能不能及時(shí)對(duì)此進(jìn)行調(diào)整,則同樣也可能帶來相應(yīng)的風(fēng)險(xiǎn)。
不難看出,無論是因技術(shù)濫用而導(dǎo)致的技術(shù)外溢風(fēng)險(xiǎn),還是因技術(shù)缺陷而產(chǎn)生的技術(shù)內(nèi)生風(fēng)險(xiǎn),人工智能在某種程度上的確存在失去人為有效控制的可能。“一個(gè)真實(shí)環(huán)境中的人工智能系統(tǒng),會(huì)面臨數(shù)據(jù)安全、模型/算法安全、實(shí)現(xiàn)安全等多方面的安全威脅。”[108]當(dāng)然,人工智能技術(shù)的內(nèi)生風(fēng)險(xiǎn)要比其外溢風(fēng)險(xiǎn)相對(duì)更難以控制,前者所可能造成的危害也比后者相對(duì)更為嚴(yán)重。尤其是當(dāng)人類失去對(duì)人工智能技術(shù)的本地化控制時(shí),就難以再對(duì)人工智能技術(shù)的研發(fā)與應(yīng)用進(jìn)行有效監(jiān)管與控制。在這一狀態(tài)下,國家安全就可能面臨著更多因人工智能技術(shù)濫用及其演進(jìn)路徑不確定所導(dǎo)致的“技術(shù)恐怖”現(xiàn)象。
綜上所述,人工智能技術(shù)的發(fā)展及應(yīng)用將對(duì)國家安全帶來新的挑戰(zhàn)。一方面,人工智能技術(shù)的介入將加速新型軍事能力和戰(zhàn)略博弈模式的形成,打破傳統(tǒng)的戰(zhàn)略對(duì)抗模式及其博弈的平衡,進(jìn)而導(dǎo)致國際體系出現(xiàn)更大的不穩(wěn)定性與不確定性;另一方面,盡管人工智能技術(shù)的應(yīng)用將有力地推動(dòng)新一輪產(chǎn)業(yè)革命,但同時(shí)也將拉大國際行為主體間的能力代差,擴(kuò)大資本壟斷技術(shù)與市場(chǎng)的能力,導(dǎo)致社會(huì)治理面臨諸如算法歧視、數(shù)據(jù)壟斷以及隱私保護(hù)等問題,并催生一系列“技術(shù)恐怖”的現(xiàn)象。需要指出的是,人工智能技術(shù)所導(dǎo)致的國家安全風(fēng)險(xiǎn)已經(jīng)逐步顯現(xiàn),前述所提及的部分風(fēng)險(xiǎn)也是其他新興技術(shù)應(yīng)用的共有特性。因此,國家安全在技術(shù)共振之下更有可能面臨系統(tǒng)性的風(fēng)險(xiǎn)。
在國家目標(biāo)和利益的追求序列中,國家安全應(yīng)是需要國家把握的核心問題,而人工智能技術(shù)發(fā)展浪潮將導(dǎo)致國家安全治理格局的轉(zhuǎn)變。對(duì)于兼具大國與發(fā)展中國家的雙重身份的中國而言,人工智能技術(shù)的發(fā)展及其應(yīng)用所帶來的挑戰(zhàn)與機(jī)遇是尤為突出的。一方面,人工智能技術(shù)不僅是中國抓住新一輪科技革命機(jī)遇的重要性因素,也是保障中國國家安全的重要驅(qū)動(dòng)力。正如習(xí)近平總書記在中共中央政治局第九次集體學(xué)習(xí)時(shí)指出的:“加快發(fā)展新一代人工智能是我國贏得全球科技競(jìng)爭(zhēng)主動(dòng)權(quán)的重要戰(zhàn)略抓手,是推動(dòng)我國科技跨越發(fā)展、產(chǎn)業(yè)優(yōu)化升級(jí)、生產(chǎn)力整體躍升的重要戰(zhàn)略資源。”[109]另一方面,中國國家安全在經(jīng)濟(jì)、政治、軍事、社會(huì)、宗教、網(wǎng)絡(luò)、能源和環(huán)境等各個(gè)領(lǐng)域均面臨著多種威脅與挑戰(zhàn)。[110]人工智能技術(shù)的嵌入則將促發(fā)更多的安全風(fēng)險(xiǎn),技術(shù)研究整體圖像的不明晰以及安全治理機(jī)制的時(shí)滯性還將進(jìn)一步放大這些安全風(fēng)險(xiǎn)。因此,我們既要緊抓人工智能技術(shù)發(fā)展的契機(jī),推動(dòng)、容納和接受這一新興技術(shù)的突破和創(chuàng)新,更要關(guān)注這一技術(shù)對(duì)國家安全所可能造成的系統(tǒng)性風(fēng)險(xiǎn)。
對(duì)于中國而言,人工智能技術(shù)的發(fā)展不僅有助于加快轉(zhuǎn)變經(jīng)濟(jì)發(fā)展方式,更是維護(hù)國家安全與提升國際競(jìng)爭(zhēng)力的關(guān)鍵所在。這一技術(shù)自主性的提升將在一定程度上減少安全領(lǐng)域的外部脆弱性,尤其是當(dāng)技術(shù)競(jìng)爭(zhēng)加劇的時(shí)候,這一自主性的保障將變得更為重要。目前來看,中國已經(jīng)將發(fā)展人工智能上升至國家戰(zhàn)略的高度,并初步構(gòu)建了支持人工智能技術(shù)發(fā)展的政策框架,以期在推動(dòng)新舊動(dòng)能轉(zhuǎn)換中充分發(fā)揮人工智能的作用。然而,中國人工智能的發(fā)展相對(duì)更加偏好于技術(shù)相對(duì)成熟、應(yīng)用場(chǎng)景清晰的領(lǐng)域,對(duì)基礎(chǔ)理論、核心算法、芯片制造、關(guān)鍵設(shè)備等基礎(chǔ)技術(shù)領(lǐng)域的研究和創(chuàng)新卻有所缺失。
中國人工智能發(fā)展戰(zhàn)略還需要對(duì)以下三個(gè)問題進(jìn)行深入思考:第一,如何處理中國人工智能技術(shù)發(fā)展不平衡、不充分的問題?即如何解決中國人工智能發(fā)展在人才、資金、體制和產(chǎn)業(yè)鏈配套上存在的協(xié)調(diào)性問題。第二,如何實(shí)現(xiàn)人工智能發(fā)展過程中的正外部性與負(fù)外部性之間的平衡?正外部性主要是指人工智能的發(fā)展能夠顯著地促進(jìn)其他新技術(shù)的創(chuàng)新和應(yīng)用,而負(fù)外部性則是人工智能發(fā)展導(dǎo)致一系列社會(huì)問題。第三,如何實(shí)現(xiàn)人工智能技術(shù)研發(fā)的成果保障與地位維護(hù)?例如,中國人工智能企業(yè)所采用的基于圖形硬件的編程技術(shù)(GPU)多數(shù)由英特爾、ADM和英偉達(dá)(Nvidia)三大巨頭企業(yè)提供,其所使用的人工智能技術(shù)開源框架也均非自主搭建。
從上述問題來看,人工智能發(fā)展戰(zhàn)略的完善可從以下三方面著手:第一,強(qiáng)化對(duì)人工智能技術(shù)發(fā)展的敏感性與理解力,突出強(qiáng)調(diào)對(duì)人工智能核心技術(shù)的把控,構(gòu)建自主可控、可持續(xù)發(fā)展的人工智能的技術(shù)創(chuàng)新體系和應(yīng)用產(chǎn)業(yè)體系,從而加強(qiáng)人工智能技術(shù)的自主性和掌握發(fā)展的主動(dòng)權(quán)。第二,創(chuàng)新人工智能發(fā)展的生態(tài)布局,在體制機(jī)制、人才培養(yǎng)、產(chǎn)業(yè)扶持和資金保障等方面提供更多更為全面的配套政策,建立更強(qiáng)有力的公私伙伴關(guān)系以推動(dòng)政策與各類社會(huì)資本的共同發(fā)力,從而加強(qiáng)技術(shù)與產(chǎn)業(yè)緊密結(jié)合的相互增益和提升人工智能技術(shù)發(fā)展的可持續(xù)性。第三,克服從研發(fā)端到部署端的功能孤島,將包容性原則(Inclusiveness)和開放性原則(Openness)充分納入到人工智能技術(shù)發(fā)展的戰(zhàn)略規(guī)劃中,從而加快技術(shù)成果轉(zhuǎn)移和促進(jìn)其他前沿技術(shù)的共同發(fā)展。例如,在保護(hù)數(shù)據(jù)隱私和數(shù)據(jù)安全性的前提下,開放衛(wèi)星圖像、交通數(shù)據(jù)、金融數(shù)據(jù)等數(shù)據(jù)集供公眾使用,并制定數(shù)據(jù)集的使用標(biāo)準(zhǔn)、分類標(biāo)準(zhǔn)和共享標(biāo)準(zhǔn),進(jìn)而為人工智能技術(shù)的發(fā)展構(gòu)建開放、靈活的數(shù)據(jù)生態(tài)。
減少國家安全治理體系調(diào)試決策失誤的風(fēng)險(xiǎn)和成本的關(guān)鍵在于安全意識(shí)的強(qiáng)化和風(fēng)險(xiǎn)應(yīng)對(duì)機(jī)制的構(gòu)建。[111]根據(jù)美國國際戰(zhàn)略研究中心(CSIS)發(fā)布的《人工智能與國家安全:人工智能生態(tài)系統(tǒng)的重要性》報(bào)告顯示,安全可靠的技術(shù)基礎(chǔ)是搭建良性人工智能技術(shù)發(fā)展的生態(tài)系統(tǒng)不可或缺的一部分。[112]因此,減少人工智能技術(shù)發(fā)展與應(yīng)用所帶來的社會(huì)風(fēng)險(xiǎn)同樣需要構(gòu)建完整的風(fēng)險(xiǎn)評(píng)估機(jī)制及保障體系,并從安全技術(shù)和安全管理等層面來協(xié)同防范安全風(fēng)險(xiǎn)。為此,我們應(yīng)在綜合考慮人工智能技術(shù)發(fā)展?fàn)顩r、社會(huì)環(huán)境、倫理價(jià)值等因素的基礎(chǔ)上,加強(qiáng)對(duì)數(shù)據(jù)壟斷、算法歧視、隱私保護(hù)以及倫理道德等問題的預(yù)判,為人工智能技術(shù)的發(fā)展制定相應(yīng)的規(guī)范框架。例如,對(duì)于人工智能可能導(dǎo)致的結(jié)構(gòu)性失業(yè)應(yīng)進(jìn)行系統(tǒng)性評(píng)估,據(jù)此及時(shí)、合理地調(diào)整人才技能結(jié)構(gòu),使其適應(yīng)新時(shí)期經(jīng)濟(jì)發(fā)展的需要。
與此同時(shí),針對(duì)人工智能技術(shù)應(yīng)用可能帶來的法律、安全和倫理問題以及各個(gè)發(fā)展階段所存在的潛在風(fēng)險(xiǎn),建立諸如技術(shù)風(fēng)險(xiǎn)評(píng)估機(jī)制、災(zāi)難性風(fēng)險(xiǎn)管理機(jī)制和技術(shù)錯(cuò)誤糾正機(jī)制等相關(guān)可管理安全(managed security)機(jī)制,從算法容錯(cuò)容侵設(shè)計(jì)、漏洞檢測(cè)和修復(fù)、安全配置等方面來增強(qiáng)人工智能技術(shù)自身的安全性。[113]此外,還應(yīng)提高人工智能技術(shù)的可檢驗(yàn)性來加強(qiáng)技術(shù)應(yīng)用的透明度與信任度,即人工智能技術(shù)中的算法與數(shù)據(jù)在一定的條件下應(yīng)當(dāng)被完整保存和查驗(yàn),相關(guān)企業(yè)也應(yīng)為了公眾利益放棄妨礙進(jìn)行問責(zé)的商業(yè)秘密與法律主張,尤其是具有高風(fēng)險(xiǎn)的公共領(lǐng)域內(nèi)應(yīng)盡量減少使用具有黑箱特性的人工智能技術(shù)。[114]當(dāng)然,也要積極地發(fā)展和應(yīng)用各類新型技術(shù)以彌補(bǔ)人工智能技術(shù)所存在的缺陷。例如,區(qū)塊鏈技術(shù)的應(yīng)用便能夠有助于解決人工智能在數(shù)據(jù)隱私、安全等方面的問題,從而打破現(xiàn)有的數(shù)據(jù)寡頭壟斷,助力人工智能技術(shù)的良性發(fā)展。
人工智能技術(shù)本身是中性的,但要避免“技術(shù)的貪欲”帶來的不良后果。而將預(yù)設(shè)的價(jià)值向度嵌入人工智能的算法之中,并制定相應(yīng)人工智能的正義目標(biāo),就能夠在一定程度減少人們對(duì)其的不當(dāng)使用或惡意利用。針對(duì)人工智能的價(jià)值向度,美國皮尤研究中心提出了三點(diǎn)建議:第一,人工智能技術(shù)研發(fā)應(yīng)以全球民眾的利益為第一要義,因此需要加強(qiáng)國際合作以共同推動(dòng)技術(shù)的發(fā)展以及應(yīng)對(duì)可能的挑戰(zhàn)。第二,人工智能的價(jià)值向度必須突出“人性化”,因此必須確保人工智能能夠滿足社會(huì)與道德的責(zé)任。第三,人工智能技術(shù)的使用應(yīng)堅(jiān)持以人為本,需要通過適時(shí)地改革政治與經(jīng)濟(jì)體系,提高人機(jī)合作的效率和解決技術(shù)應(yīng)用所導(dǎo)致的治理赤字問題。[115]
結(jié)合當(dāng)前人工智能的發(fā)展態(tài)勢(shì),我們?nèi)孕枰?guī)范人工智能發(fā)展的技術(shù)倫理和價(jià)值取向,從思想源頭上增強(qiáng)對(duì)人工智能技術(shù)風(fēng)險(xiǎn)的預(yù)警能力和社會(huì)控制能力,確保技術(shù)與人性之間的平衡。一方面,要加強(qiáng)技術(shù)倫理規(guī)范性和建構(gòu)性的統(tǒng)一,通過恰當(dāng)?shù)募夹g(shù)設(shè)計(jì)規(guī)范和制約實(shí)現(xiàn)正面?zhèn)惱韮r(jià)值的“預(yù)防式置入”,將人工智能倫理從抽象準(zhǔn)則落實(shí)到相應(yīng)的技術(shù)研發(fā)與系統(tǒng)設(shè)計(jì)中,進(jìn)而確保技術(shù)管理的“工具主義”性質(zhì)與社會(huì)治理的價(jià)值理念相兼容;[116]另一方面,要努力貫徹“以人為本”的技術(shù)發(fā)展觀,促進(jìn)科學(xué)與人文兩種精神的充分融合與互補(bǔ),以保證人工智能的人性化轉(zhuǎn)向。當(dāng)然,對(duì)人工智能技術(shù)的風(fēng)險(xiǎn)管控應(yīng)該力求在機(jī)會(huì)和風(fēng)險(xiǎn)之間取得平衡,即在人工智能技術(shù)的發(fā)展與國家安全的維護(hù)之間保持平衡,并根據(jù)具體情況對(duì)相應(yīng)監(jiān)督機(jī)制進(jìn)行調(diào)整,避免陷入因泛技術(shù)安全化誤區(qū)而導(dǎo)致“技術(shù)滯漲”困境。[117]
人工智能技術(shù)從思維層面、技術(shù)層面和價(jià)值層面上展示出巨大的包容性、廣泛滲透性和發(fā)展主導(dǎo)性,但越是這樣強(qiáng)大的力量,就越可能面臨慣性束縛與治理困境。美國紐約大學(xué)AI Now研究所指出,對(duì)于人工智能技術(shù)的道德承諾、責(zé)任制度以及實(shí)踐規(guī)范應(yīng)當(dāng)由相關(guān)治理機(jī)制進(jìn)行承接,否則這些規(guī)范和準(zhǔn)則很少能夠得到執(zhí)行。[118]總之,規(guī)范人工智能技術(shù)發(fā)展以及降低其安全風(fēng)險(xiǎn)需要對(duì)政治、經(jīng)濟(jì)和社會(huì)等治理結(jié)構(gòu)進(jìn)行改革。因此,推進(jìn)人工智能的健康發(fā)展,就必須充分把握人工智能的技術(shù)屬性與社會(huì)屬性高度融合的特點(diǎn),協(xié)調(diào)利益關(guān)系、及時(shí)化解沖突,注重激勵(lì)發(fā)展與合理規(guī)制的協(xié)調(diào),進(jìn)而為人工智能的持續(xù)發(fā)展構(gòu)建相應(yīng)的社會(huì)治理機(jī)制和路徑。
從這個(gè)角度出發(fā),構(gòu)建新型治理框架的首要工作就在于構(gòu)建涵蓋技術(shù)開發(fā)、行業(yè)監(jiān)管和公共治理等在內(nèi)的成體系化的法律和規(guī)范,增強(qiáng)技術(shù)風(fēng)險(xiǎn)決策和立法的針對(duì)性與可操作性,并適當(dāng)擴(kuò)大特定部門機(jī)構(gòu)權(quán)力,使其能夠更為充分地對(duì)人工智能技術(shù)進(jìn)行監(jiān)管。同時(shí),明確設(shè)計(jì)者、使用者、監(jiān)管者之間的權(quán)責(zé)關(guān)系,形成“行為——主體——?dú)w責(zé)”的歸責(zé)體系,并將技術(shù)應(yīng)用的公共安全納入現(xiàn)有的監(jiān)管框架,減少因責(zé)任不明確所導(dǎo)致的“追責(zé)缺口”的機(jī)制問題。[119]此外,也應(yīng)搭建起連接“行動(dòng)者網(wǎng)絡(luò)”和“利益相關(guān)者”討論與合作的新平臺(tái),鼓勵(lì)各級(jí)政府與學(xué)術(shù)機(jī)構(gòu)、非營(yíng)利組織和私營(yíng)部門開展廣泛對(duì)話和持續(xù)合作,努力創(chuàng)造一個(gè)政府、技術(shù)專家、公眾等多元一體化的治理決策參與機(jī)制,應(yīng)當(dāng)減少政策制定者、執(zhí)行者與技術(shù)研發(fā)群體間的信息不對(duì)稱,提高相關(guān)部門判別和應(yīng)對(duì)人工智能技術(shù)風(fēng)險(xiǎn)的能力。[120]
國家安全治理本身與全球安全治理之間存在高度的關(guān)聯(lián)性,而且國際組織、非政府組織、企業(yè)、社會(huì)團(tuán)體等多元主體也對(duì)治理過程、議題和效能發(fā)揮著重要的影響。[121]目前來看,人工智能的國際規(guī)則主要由西方發(fā)達(dá)國家的企業(yè)或機(jī)構(gòu)來推動(dòng)制定,這意味著從全球?qū)用嬲w考慮的全球性人工智能治理機(jī)制是缺位的。[122]同時(shí),全球主要國家對(duì)于人工智能技術(shù)開發(fā)與應(yīng)用的具體規(guī)則仍未形成統(tǒng)一的共識(shí),各國在人工智能部署原則及發(fā)展程度上存在的差異還在一定程度上加劇了非理性競(jìng)爭(zhēng)。此外,在當(dāng)前全球貿(mào)易關(guān)系相對(duì)緊張的局勢(shì)下,以美國為首的發(fā)達(dá)國家正逐步加大人工智能軍事化應(yīng)用的研發(fā)力度,還以國家安全為由來限制人工智能技術(shù)在全球范圍內(nèi)的推廣與共享。然而,盡管當(dāng)前各國在人工智能技術(shù)上的競(jìng)爭(zhēng)日趨激烈,但這不應(yīng)被視為一場(chǎng)“零和博弈”。全球科技的進(jìn)步本身需要各國的參與,而技術(shù)風(fēng)險(xiǎn)的防范更是需要各國的合作。對(duì)此,布魯金斯學(xué)會(huì)外交政策研究員瑞安·哈斯(Ryan Hass)和扎克·巴林(Zach Balin)認(rèn)為,盡管人工智能技術(shù)對(duì)國際關(guān)系造成巨大的壓力,但同時(shí)也將為各國提供潛在的合作機(jī)會(huì)。[123]有鑒于此,應(yīng)對(duì)人工智能可能帶來的技術(shù)風(fēng)險(xiǎn)需要國際社會(huì)的共同參與。
根據(jù)當(dāng)前全球人工智能的發(fā)展態(tài)勢(shì),當(dāng)務(wù)之急在于加快制定符合國際關(guān)系準(zhǔn)則和人類道德約束的技術(shù)開發(fā)控制協(xié)議或公約,推動(dòng)國際社會(huì)在一些根本性、原則性的規(guī)則和倫理上達(dá)成共識(shí),進(jìn)而構(gòu)建具有科學(xué)性、系統(tǒng)性、前瞻性的人工智能標(biāo)準(zhǔn)規(guī)范體系,并力促國際認(rèn)同技術(shù)風(fēng)險(xiǎn)的治理框架和協(xié)調(diào)一致的治理機(jī)制的形成。同時(shí),應(yīng)為人工智能技術(shù)的發(fā)展搭建更為廣泛的國際合作與治理網(wǎng)絡(luò),推動(dòng)全球分散的、相對(duì)孤立的治理程序與要素資源的積極整合,構(gòu)建以主權(quán)國家、非政府組織、市民社會(huì)和跨國公司為主體的綜合治理體系。此外,積極推動(dòng)開展持續(xù)、直接、權(quán)威的多邊溝通,對(duì)于人工智能技術(shù)開展合作性與建設(shè)性的管理,確保人工智能技術(shù)的和平開發(fā)和加強(qiáng)對(duì)國際性技術(shù)風(fēng)險(xiǎn)事故的防范能力。[124]當(dāng)然,中國更要明確和堅(jiān)持人工智能技術(shù)發(fā)展的和平導(dǎo)向,即在人工智能技術(shù)的軍事化應(yīng)用中應(yīng)當(dāng)保持極大的克制性,兼顧多方的利益考慮,在技術(shù)發(fā)展和國家競(jìng)爭(zhēng)中實(shí)現(xiàn)適當(dāng)?shù)钠胶?,確保人工智能為人類所用和促進(jìn)全人類平等受益。作為在人工智能發(fā)展上擁有全方位資源優(yōu)勢(shì)的中國與美國,更應(yīng)充分發(fā)揮各自在人工智能領(lǐng)域的優(yōu)勢(shì),積極在這一技術(shù)領(lǐng)域找到合作的出口,為全球人工智能技術(shù)的合作與競(jìng)爭(zhēng)發(fā)揮良性的示范作用。
事實(shí)上,新的科學(xué)技術(shù)發(fā)展與國家安全治理息息相關(guān),隨著技術(shù)的進(jìn)步,持續(xù)動(dòng)蕩與不確定的風(fēng)險(xiǎn)會(huì)不斷累積,國家安全治理格局的轉(zhuǎn)變也將是不可避免的結(jié)果。與此同時(shí),國家安全治理對(duì)于技術(shù)升級(jí)的方向同樣存在著一定的影響,尤其是當(dāng)國家安全壓力增大時(shí),技術(shù)的投入極易向與安全相關(guān)的領(lǐng)域傾斜。但是,安全和發(fā)展是一體之兩翼、驅(qū)動(dòng)之雙輪,發(fā)展是安全的基礎(chǔ),安全是發(fā)展的保障。[125]因此,把握科技的發(fā)展主動(dòng)權(quán)與應(yīng)對(duì)好相應(yīng)的技術(shù)風(fēng)險(xiǎn)是保障未來國家安全的重要命題。
作為一種框架性的底層技術(shù),人工智能將對(duì)國家發(fā)展產(chǎn)生根本性的推動(dòng)作用,也將為國家安全治理帶來廣泛深刻的結(jié)構(gòu)性挑戰(zhàn)。首先,“在未來的技術(shù)競(jìng)賽中,最成功的國家將是那些積極變革并且能夠跟上技術(shù)進(jìn)步的國家”。[126]尤其是在當(dāng)前全球技術(shù)及知識(shí)外溢紅利逐步減弱的趨勢(shì)下,已被嵌入多個(gè)應(yīng)用場(chǎng)景的人工智能極有可能將成為下一輪技術(shù)革命與產(chǎn)業(yè)革命的關(guān)鍵點(diǎn)。其次,人工智能成為國際戰(zhàn)略競(jìng)爭(zhēng)與合作的又一重要領(lǐng)域。但在當(dāng)下國家實(shí)力對(duì)比變化和戰(zhàn)略政策調(diào)整的大背景下,各國在人工智能技術(shù)上的戰(zhàn)略競(jìng)爭(zhēng)的可能性或?qū)⑦h(yuǎn)超合作的可能性。在這兩方面的交叉下,對(duì)于人工智能技術(shù)的發(fā)展需求將優(yōu)先于對(duì)這一技術(shù)安全性的考量。然而,人工智能不僅將對(duì)全球價(jià)值鏈的整合與社會(huì)的公共管理造成極大的影響,并且其演進(jìn)路徑的不確定性也將可能導(dǎo)致諸多的技術(shù)風(fēng)險(xiǎn)。因此,在這一發(fā)展需求優(yōu)先和技術(shù)風(fēng)險(xiǎn)凸顯的狀態(tài)下,人工智能就可能導(dǎo)致國家安全中出現(xiàn)更多的不穩(wěn)定因素。
當(dāng)然,新技術(shù)的正向良性發(fā)展的關(guān)鍵不僅在于推動(dòng)技術(shù)的創(chuàng)新與完善,更取決于人類的有效規(guī)制與引導(dǎo)。因此,對(duì)于中國而言,如何統(tǒng)籌人工智能技術(shù)發(fā)展與國家安全治理,并實(shí)現(xiàn)這兩者綜合成本的明確化、內(nèi)部化與協(xié)調(diào)化將是未來工作的重點(diǎn)之一。在這一過程中,最為重要的仍是保持中國在人工智能技術(shù)領(lǐng)域的領(lǐng)先性與自主性,并通過多樣化方式對(duì)這一技術(shù)發(fā)展?jié)撛陲L(fēng)險(xiǎn)進(jìn)行研判和預(yù)防,進(jìn)而充分維護(hù)好自身的戰(zhàn)略利益。同時(shí),我們應(yīng)積極主持、參與全球人工智能相關(guān)標(biāo)準(zhǔn)的構(gòu)建,提升中國在人工智能技術(shù)發(fā)展上的國際道義制高點(diǎn)、議程設(shè)置能力與話語權(quán)。此外,我們還應(yīng)積極地同各國在人工智能技術(shù)的發(fā)展上展開深度對(duì)話,力促在人工智能的戰(zhàn)略競(jìng)爭(zhēng)與合作上形成“競(jìng)爭(zhēng)性共榮”(competitive coprosperity),進(jìn)而塑造一種能夠推進(jìn)務(wù)實(shí)合作和建設(shè)性競(jìng)爭(zhēng)、有效管控技術(shù)風(fēng)險(xiǎn)與防范重大沖突的國際秩序。
[1] Robert Jervis, “Cooperation under the Security Dilemma,”, Vol. 30, No. 2, 1978, pp. 167-168.
[2] Pedro Domingos,, New York: Basic Books Press, 2015, pp. 24-25.
[3] Nick Bostrom,, Oxford: Oxford University Press, 2014, pp. 8-9.
[4] Gregory Allen and Taniel Chan, “Artificial Intelligence and National Security,”, July 24, 2017, https://statewatch.org/news/2017/jul/usa-belfer-center-national-security- and-ai-report.pdf.
[5] Miles Brundage, Shahar Avin, Jack Clark, et al., “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation,” February 23, 2018, https://arxiv.org/ftp/arxiv/papers/1802/ 1802.07228.pdf.
[6] John MaCarthy, et al., “A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence,”, Vol. 27, No. 4, 2006, pp. 12-14.
[7] Marvin Minsky and Simon Papert,, Cambridge, MA: The MIT Press, 1987, pp. 12-15.
[8] 其標(biāo)志性事件便是“神經(jīng)網(wǎng)絡(luò)之父”杰弗里·辛頓(Geoffrey Hinton)及其研究團(tuán)隊(duì)將神經(jīng)網(wǎng)絡(luò)帶入到人工智能技術(shù)研究之中,并于2006年首次提出深度學(xué)習(xí)(Deep Learning)算法,進(jìn)而使人工智能獲得了突破性進(jìn)展。參見Geoffrey Hinton, Simon Osindero and Yee-Whye Teh, “A Fast Learning Algorithm for Deep Belief Nets,”, Vol. 18, No. 7, 2006, pp. 1527-1554。
[9] [美] 雷·庫茲韋爾:《奇點(diǎn)臨近》,盛楊燕譯,杭州:浙江人民出版社2016年版,第80-82頁。
[10] Tony Hey, Stewart Tansley and Kristin Tolle,, Redmond, WA: Microsoft Research, 2009, pp.1-2.
[11] 機(jī)器學(xué)習(xí)主要分為以下五大類:一是監(jiān)督學(xué)習(xí)(supervised learning):以人為標(biāo)注的數(shù)據(jù)集作為訓(xùn)練集,訓(xùn)練目標(biāo)為從訓(xùn)練集中學(xué)習(xí)出新函數(shù),以對(duì)新的數(shù)據(jù)進(jìn)行標(biāo)注。二是無監(jiān)督學(xué)習(xí)(unsupervised learning):訓(xùn)練集沒有人為標(biāo)注的結(jié)果,但訓(xùn)練目標(biāo)也是對(duì)新的數(shù)據(jù)進(jìn)行標(biāo)注。三是增強(qiáng)學(xué)習(xí)(reinforcement learning):又被稱為強(qiáng)化學(xué)習(xí),訓(xùn)練對(duì)象在特定的環(huán)境進(jìn)行持續(xù)性的自我訓(xùn)練,并根據(jù)周圍環(huán)境的反饋來做出各種特定行為,以實(shí)現(xiàn)最優(yōu)的映射學(xué)習(xí)行為與決策。四是遷移學(xué)習(xí)(transfer learning):將已經(jīng)訓(xùn)練好的源任務(wù)(source tasks)的知識(shí)或模型的參數(shù)遷移到新的目標(biāo)領(lǐng)域(target domain)。五是半監(jiān)督學(xué)習(xí)(semi-supervised learning):是一種介于監(jiān)督學(xué)習(xí)與無監(jiān)督學(xué)習(xí)之間的方法,更強(qiáng)調(diào)讓訓(xùn)練對(duì)象不依賴外界交互、自動(dòng)地利用未標(biāo)記的樣本來提升學(xué)習(xí)性能。關(guān)于機(jī)器學(xué)習(xí)的具體介紹,可以參見Christopher Bishop,, New York: Springer Press, 2007; Kevin Murphy,, Cambridge, MA: The MIT Press, 2012; 周志華:《機(jī)器學(xué)習(xí)》,北京:清華大學(xué)出版社2016年版,第2-18頁。
[12] 自然語言處理的研究主要包括自動(dòng)摘要、指代消解、語篇分析、機(jī)器翻譯、語素切分、命名實(shí)體識(shí)別和詞性標(biāo)注等方向。關(guān)于自然語言處理的具體介紹,參見Steven Bird, Ewan Klein and Edward Loper,, Sebastopol, CA: O’Reilly Media Press, 2009; Daniel Jurafsky and James Martin,, Upper Saddle River, NJ: The Prentice Hall Press, 2018; 吳軍:《數(shù)學(xué)之美(第二版)》,北京:人民郵電出版社2012年版。
[13] 英國機(jī)器視覺協(xié)會(huì)(BMVA)將計(jì)算機(jī)視覺定義為“一種對(duì)單張圖像或一系列圖像的有用信息進(jìn)行自動(dòng)提取、分析和理解的技術(shù)”。常見的計(jì)算機(jī)視覺應(yīng)用主要包括對(duì)數(shù)字化文檔識(shí)別的字符處理技術(shù)、對(duì)圖像進(jìn)行分析的圖像處理技術(shù)(image processing)、從動(dòng)態(tài)視頻獲取有效信息的視頻分析技術(shù)(video analysis)以及支持增強(qiáng)現(xiàn)實(shí)技術(shù)(AR)和虛擬現(xiàn)實(shí)技術(shù)(VR)的虛擬智能技術(shù)。關(guān)于計(jì)算機(jī)視覺的具體介紹,可以參見Simon Prince,, Cambridge: Cambridge University Press, 2012; Richard Hartley and Andrew Zisserman,(Second Edition), Cambridge: Cambridge University Press, 2004。
[14] 麥肯錫全球研究院的研究人員對(duì)涵蓋19個(gè)行業(yè)以及9個(gè)業(yè)務(wù)功能中的400多個(gè)用例進(jìn)行了分析,發(fā)現(xiàn)人工智能可以在69%的潛在用例中改進(jìn)傳統(tǒng)分析技術(shù),并且能夠?yàn)?6%的用例提供“綠燈區(qū)”(greenfield)式的解決方案,即針對(duì)原有無法被解決的難題提供有效的解決方案。參見The McKinsey Global Institute, “The Promise and Challenge of the Age of Artificial Intelligence,” Mckinsey, October 2018, https://www.mckinsey.it/idee/the-promise-and-challenge-of- the-age-of-artificial-intelligence。
[15] Ruslan Bragin, “Understanding Different Types of Artificial Intelligence Technology,”, October 18, 2017, https://www.zeolearn.com/magazine/understanding-different-types-of- artificial-intelligence-technology.
[16] Max Tegmark,, New York: Vintage Books, 2017, pp. 50-51.
[17] Miles Brundage, Shahar Avin, Jack Clark, et al., “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation,” February 23, 2018, https://arxiv.org/ftp/arxiv/papers/1802/ 1802.07228.pdf.
[18] Edward Kolodziej,, Cambridge: Cambridge University Press, 2005, pp. 12-13.
[19] Barry Buzan and Lene Hansen,, Cambridge: Cambridge University Press, 2009, pp. 269-270.
[20] 例如,新自由主義的代表人物羅伯特·基歐漢(Robert Keohane)和約瑟夫·奈(Joseph Nye, Jr.)所提出的“相互依賴”理論就認(rèn)為,在“復(fù)合相互依賴”(complex interdependence)條件下,國際行為主體及聯(lián)系渠道的多元化不僅將加劇一系列非傳統(tǒng)安全威脅對(duì)國際政治的影響,并且國家安全、地區(qū)安全與全球安全間的聯(lián)系將更加密不可分。參見[美] 羅伯特·基歐漢、[美] 約瑟夫·奈:《權(quán)力與相互依賴》,門洪華譯,北京:北京大學(xué)出版社2012年版,第5-6頁。建構(gòu)主義中的哥本哈根學(xué)派則提出了“古典復(fù)合安全”和“安全化”理論,主張?jiān)趯挿鹤h程的基礎(chǔ)上構(gòu)建一種“兼容傳統(tǒng)主義”的安全分析框架,并希望通過“非安全化”來實(shí)現(xiàn)人類社會(huì)的和平。參見[英] 巴瑞·布贊等:《新安全論》,朱寧譯,杭州:浙江人民出版社2001年版,第5-6頁。批判理論的代表人物彼得·卡贊斯坦(Peter Katzenstein)則將文化認(rèn)同原理用于國家安全的分析,并指出國家的安全環(huán)境同樣深受文化和制度因素的影響。參見Peter Katzenstein, ed.,, New York: Columbia University Press, 1996, pp. 11-13。
[21] 參見Stephen Cimbala,, Idaho Falls, Idaho: Lexington Books Press, 1987; Philip Schrodt, “Artificial Intelligence and Formal Models of International Behavior,”, Vol. 19, No. 1, 1988, pp. 71-85; Lehner Paul,, New York: Tab Books, 1989; Adrian Hopgood, “Artificial Intelligence: Hype or Reality?”, Vol. 36, No. 5, 2003, pp. 24-28。
[22] [意] 盧西亞諾·弗洛里迪:《第四次革命:人工智能如何重塑人類現(xiàn)實(shí)》,王文革譯,杭州:浙江人民出版社2016年版,第8-9頁。
[23] 杜國紅、韓冰、徐新偉:《陸戰(zhàn)場(chǎng)指揮與控制智能化技術(shù)體系研究》,載《指揮控制與仿真》2018年第3期,第1-4頁。
[24] Darrell West and John Allen, “How Artificial Intelligence is Transforming the World,” Brookings, April 24, 2018, https://www.brookings.edu/research/how-artificial-intelligence-is-transforming-the-world/.
[25] 觀察、調(diào)整、決策與行動(dòng)(OODA)循環(huán)理論原為信息戰(zhàn)領(lǐng)域的一個(gè)概念,該理論認(rèn)為作戰(zhàn)過程是“觀察(Observe)、調(diào)整(Orient)、決策(Decide)與行動(dòng)(Act)”四個(gè)環(huán)節(jié)的不斷循環(huán)往復(fù)的過程,并且在對(duì)等作戰(zhàn)的前提下獲勝的關(guān)鍵就在于更好地完成這一過程。而人工智能的嵌入將推動(dòng)OODA實(shí)現(xiàn)智能化的轉(zhuǎn)變:第一,態(tài)勢(shì)感知智能化,即采用機(jī)器學(xué)習(xí)等方法,并在先驗(yàn)知識(shí)的支持下,與環(huán)境的不斷交互持續(xù)地學(xué)習(xí)戰(zhàn)場(chǎng)環(huán)境。第二,對(duì)抗措施的自我調(diào)整,即根據(jù)態(tài)勢(shì)感知模塊對(duì)環(huán)境信息的認(rèn)知,自動(dòng)合成最佳對(duì)抗策略和分配作戰(zhàn)資源。
[26] Robert Work and Shawn Brimley, “20YY: Preparing for War in the Robotic Age,” Center for a New American Security, January 22, 2014, https://s3.amazonaws.com/files.cnas.org/documents/ CNAS_20YY_WorkBrimley.pdf.
[27] Michael Hanlon, “Forecasting Change in Military Technology, 2020-2040,” September 2018, http://www.brookings.edu/research/forecasting-change-in-military-technology-2020-2040/.
[28] “影響力機(jī)器”概念由美國陸軍協(xié)會(huì)陸戰(zhàn)研究所最早提出,這一作戰(zhàn)模式的目的在于以更低的成本、更為隱蔽的方式來干擾民眾情緒和操縱社會(huì)輿論,從而在對(duì)手內(nèi)部制造分裂并削弱其民眾的意志。參見Christopher Telley, “The Influence Machine: Automated Information Operations as a Strategic Defeat Mechanism,” Association of the United States Army, September 24, 2018, https://www.ausa.org/publications/influence-machine-automated-information-operations-strategic-mechanism。
[29] Ryan Hass and Zach Balin, “US-China Relations in the Age of Artificial Intelligence,” Brookings, January 10, 2019, https://www.brookings.edu/research/us-china-relations-in-the-age-of- artificial-intelligence/.
[30] Paul Scharre,, New York: W. W. Norton & Company, 2018, pp. 12-15.
[31] Amy McCullough, “Swarms: Why They’re the Future of Warfare,”, Vol. 102, No. 3, 2019, pp. 36-37.
[32] Vincent Boulanin and MaaikeVerbruggen,, Sweden Stockholm International Peace Research Institute, 2017, pp. 16-17.
[33] 董青嶺:《大數(shù)據(jù)安全態(tài)勢(shì)感知與沖突預(yù)測(cè)》,載《中國社會(huì)科學(xué)》2018年第6期,第182頁。
[34] “自適應(yīng)安全架構(gòu)”是由美國顧能咨詢公司(Gartner Group)所提出的面向下一代的安全體系框架,其組成主要分為四個(gè)維度:(一)防御:指一系列用于防御攻擊的策略集、流程和產(chǎn)品,其關(guān)鍵目標(biāo)在于減少被攻擊面。(二)檢測(cè):指用于監(jiān)測(cè)逃過防御網(wǎng)絡(luò)的威脅的工具,其關(guān)鍵目標(biāo)在于降低威脅造成的“停擺時(shí)間”以及其他潛在的損失。(三)響應(yīng):指用于調(diào)查和修復(fù)被檢測(cè)階段所分析出的威脅,其關(guān)鍵目標(biāo)在于提供入侵認(rèn)證和攻擊來源分析,并產(chǎn)生新的防御手段來避免未來事故。(四)預(yù)測(cè):指基于防御、檢測(cè)、響應(yīng)結(jié)果不斷優(yōu)化基線系統(tǒng),其關(guān)鍵目標(biāo)在于精準(zhǔn)預(yù)測(cè)未知的威脅。參見 Neil MacDonald and Peter Firstbrook, “Designing an Adaptive Security Architecture for Protection From Advanced Attacks,” Gartner Group, February 12, 2014, pp. 3-4。
[35] Anna Buczak and Erhan Guven, “A Survey of Data Mining and Machine Learning Methods for Cyber Security Intrusion Detection,”, Vol. 18, No. 2, 2017, pp. 1153-1176.
[36] Lars-Erik Cederman and Nils Weidmann, “Predicting Armed Conflict: Time to Adjust Our Expectations?”, Vol. 355, No. 6324, 2017, p. 474.
[37] David Vergun, “Artificial Intelligence Could Aid Future Background Investigators,” April 8, 2019, https://dod.defense.gov/News/Article/Article/1808092/artificial-intelligence-could-aid-future- background-investigators/.
[38] 英國艾倫圖靈研究所開發(fā)的“全球城市分析彈性防御項(xiàng)目”(Project on Global Urban Analytics for Resilient Defence)、美國洛克希德·馬丁公司開發(fā)的“綜合危機(jī)預(yù)警系統(tǒng)”(Integrated Crisis Early Warning System)以及美國政府資助的政治不穩(wěn)定任務(wù)工作小組(Political Instability Task Force)所研發(fā)的政治風(fēng)險(xiǎn)預(yù)測(cè)模型等,均已將人工智能用于風(fēng)險(xiǎn)預(yù)測(cè)模型的構(gòu)建。參見Weisi Guo, Kristian Gleditsch and Alan Wilson, “Retool AI to Forecast and Limit Wars,”, October 15, 2018, https://www.nature.com/articles/d41586-018-07026-4。
[39] Trang Pham, Truyen Tran, Dinh Phung, et al., “Predicting Healthcare Trajectories from Medical Records: A Deep Learning Approach,”, Vol. 69, No. 3, 2017, pp. 218-229.
[40] Patrick Johnston and Anoop Sarbahi, “The Impact of US Drone Strikes on Terrorism in Pakistan and Afghanistan,”, Vol. 60, No. 2, 2016, p. 204.
[41] Andrew Stanton, Amanda Thart, Ashish Jain, et al., “Mining for Causal Relationships: A Data-Driven Study of the Islamic State,” in the Proceedings of the 21th ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 2015, pp. 2137-2146.
[42] Richard Berk, “Asymmetric Loss Functions for Forecasting in Criminal Justice Settings,”, Vol. 27, No. 1, 2011, pp. 107-123.
[43] Beth Pearsall, “Predictive Policing: The Future of Law Enforcement?”, Vol. 4, No. 266, 2010, p. 16.
[44] One Hundred Year Study on Artificial Intelligence (AI100), “Artificial Intelligence and Life in 2030,” Stanford University, September 9, 2016, https://ai100.stanford.edu/sites/g/files/sbiybj9861/f/ai_ 100_report_0831fnl.pdf.
[45] Jian-hua Li, “Cyber Security Meets Artificial Intelligence: A Survey,”, Vol. 19, No. 12, 2018, pp. 1462-1474.
[46] IEEE, “Artificial Intelligence and Machine Learning Applied to Cybersecurity,” October 9, 2017, https://www.ieee.org/content/dam/ieee-org/ieee/web/org/about/industry/ieee_confluence_report.pdf.
[47] 網(wǎng)絡(luò)內(nèi)容安全是指網(wǎng)絡(luò)環(huán)境中產(chǎn)生和流轉(zhuǎn)的新型內(nèi)容是否合法、準(zhǔn)確和健康;網(wǎng)絡(luò)物理系統(tǒng)安全則是指網(wǎng)絡(luò)技術(shù)的現(xiàn)實(shí)應(yīng)用是否會(huì)對(duì)資產(chǎn)、人身及自然環(huán)境等要素造成潛在的安全威脅。參見騰訊公司安全管理部、賽博研究院:《人工智能賦能網(wǎng)絡(luò)空間安全:模式與實(shí)踐》,2018年9月18日,第10-15頁。
[48] Richard Lowe, “Anti-Money Laundering - the Need for Intelligence,”, Vol. 24, No. 3, 2017, pp. 472-479.
[49] Gurjeet Singh, “How AI is Transforming the Anti-Money Laundering Challenge,”, August 10, 2017, https://www.corporatecomplianceinsights.com/ai-transforming-anti-money-laundering- challenge/.
[50] Aline Dima and Simona Vasilache, “Credit Risk Modeling for Companies Default Prediction Using Neural Networks,”, Vol. 19, No. 3, 2016, pp. 127-143.
[51] Financial Stability Board, “Artificial Intelligence and Machine Learning in Financial Services: Market Developments and Financial Stability Implications,” November 1, 2017, http://www.fsb. org/wp-content/uploads/P011117.pdf.
[52] Michael Mayer, “The New Killer Drones: Understanding the Strategic Implications of Next-Generation Unmanned Combat Aerial Vehicles,”, Vol. 91, No. 4, 2015, p. 778.
[53] 董青嶺:《機(jī)器學(xué)習(xí)與沖突預(yù)測(cè)——國際關(guān)系研究的一個(gè)跨學(xué)科視角》,載《世界經(jīng)濟(jì)與政治》2017年第7期,第116頁。
[54] 傅瑩:《人工智能對(duì)國際關(guān)系的影響初析》,載《國際政治科學(xué)》2019年第1期,第17頁。
[55] John Herz, “The Security Dilemma in International Relations: Background and Present Problems,”, Vol. 17, No. 4, 2003, p. 41.
[56] William McNeill,, Chicago: University of Chicago Press, 1982, pp. 22-23.
[57] 王逸舟:《全球主義視野下的國家安全研究》,載《國際政治研究》2015年第4期,第103頁。
[58] 馮玉軍、陳宇:《大國競(jìng)逐新軍事革命與國際安全體系的未來》,載《現(xiàn)代國際關(guān)系》2018年第12期,第12-20頁。
[59] Michael Mayer, “The New Killer Drones: Understanding the Strategic Implications of Next-Generation Unmanned Combat Aerial Vehicles,”, Vol. 91, No. 4, 2015, p. 767.
[60] Andrea Gilli and Mauro Gilli, “The Diffusion of Drone Warfare? Industrial, Organizational and Infrastructural Constraints,”, Vol. 25, No. 1, 2016, pp. 76-77.
[61] Jeremy Rabkin and John Yoo,, New York: Encounter Books Press, 2017, pp. 3-5.
[62] 徐能武、葛鴻昌:《致命性自主武器系統(tǒng)及軍控思考》,載《現(xiàn)代國際關(guān)系》2018年第7期,第58頁。
[63] 唐世平:《一個(gè)新的國際關(guān)系歸因理論:不確定性的維度及其認(rèn)知挑戰(zhàn)》,載《國際安全研究》2014年第2期,第5-6頁
[64] Pavel Sharikov, “Artificial Intelligence, Cyberattack, and Nuclear Weapons: A Dangerous Combination,”, Vol. 74, No. 6, 2018, pp. 368-373.
[65] Edward Geist and Andrew Lohn, “How Might Artificial Intelligence Affect the Risk of Nuclear War?” Rand Corporation, May 28, 2018, https://www.rand.org/pubs/perspectives/PE296.html.
[66] Kenneth Waltz, “Realist Thought and Neorealist Theory,”, Vol. 44, No. 1, 1990, pp. 21-37.
[67] Andrew Krepinevich, “The Eroding Balance of Terror: The Decline of Deterrence,”, Vol. 97, No. 2, 2018, pp. 62-74.
[68] Perry World House, “Artificial Intelligence beyond the Superpowers,” August 16, 2018, https://thebulletin.org/2018/08/the-ai-arms-race-and-the-rest-of-the-world/.
[69] Dominic Johnson,, Boston: Harvard University Press, 2004, pp. 4-5.
[70] Michael Horowitz, “Artificial Intelligence, International Competition, and the Balance of Power,”, Vol. 1, No. 3, 2018, p. 41.
[71] 美國約翰·霍普金斯大學(xué)教授阿諾德·沃爾弗斯(Arnold Wolfers)將國家安全分為客觀安全與主觀安全,“安全在客觀意義上表現(xiàn)為已獲得的價(jià)值不存在威脅,在主觀意義上則表明不存在一種恐懼——這一價(jià)值受到攻擊的恐懼?!眳⒁夾rnold Wolfers, “National Security as an Ambiguous Symbol,”, Vol. 67, No. 4, 1952, pp. 481-502。
[72] William McNeill,, Chicago: University of Chicago Press, 1982, pp. 22-23.
[73] Alexander Gerschenkron,, Boston: Harvard University Press, 1966, pp. 52-54.
[74] Jacques Bughin, Jeongmin Seong, James Manyika, Michael Chui and Raoul Joshi, “Notes from the AI Frontier: Modeling the Impact of AI on the World Economy,” Mckinsey Global Institute, September 2018, https://www.mckinsey.com/featured-insights/artificial-intelligence/notes-from-the- frontier-modeling-the-impact-of-ai-on-the-world-economy#0.
[75] Yuval Harari, “Who Will Win the Race for AI?”, No. 231, 2019, pp. 52-54.
[76] 劉中民:《西方國際關(guān)系理論視野中的非傳統(tǒng)安全研究》,載《世界經(jīng)濟(jì)與政治》2004年第4期,第32-37頁。
[77] 高奇琦:《人工智能時(shí)代發(fā)展中國家的“邊緣化風(fēng)險(xiǎn)”與中國使命》,載《國際觀察》2018年第4期,第39頁。
[78] Element AI, “2019 Global AI Talent Report,” April 2, 2019, https://www.elementai.com/ news/2019/2019-global-ai-talent-report.
[79] CB Insights Research, “AI 100: The Artificial Intelligence Startups Redefining Industries,” February 6, 2019, https://www.cbinsights.com/research/artificial-intelligence-top-startups/.
[80] 根據(jù)MGI的模擬計(jì)算顯示,人工智能的初創(chuàng)成本將消耗近五年內(nèi)潛在收益的 80%,到2030年則將下降至26%左右。但在技術(shù)創(chuàng)新的累積效應(yīng)和功能互補(bǔ)的影響下,人工智能的中長(zhǎng)期發(fā)展將帶來巨大的收益。MGI預(yù)計(jì)到2030年,人工智能可使全球國內(nèi)生產(chǎn)總值(GDP)增加13萬億美元左右,即為全球GDP年均增速貢獻(xiàn)1.2%。
[81] 封帥:《人工智能時(shí)代的國際關(guān)系:走向變革且不平等的世界》,載《外交評(píng)論(外交學(xué)院學(xué)報(bào))》2018年第1期,第144頁。
[82] Brad Allenby, “Emerging Technologies and the Future of Humanity,”, Vol. 71, No. 6, 2015, pp. 29-38.
[83] Kareem Ayoub and Kenneth Payne, “Strategy in the Age of Artificial Intelligence,”, Vol. 39, No. 6, 2016, pp. 793-819.
[84] Ian Sample, “Joseph Stiglitz on Artificial Intelligence: ‘We’re Going towards a More Divided Society’,”, September 10, 2018, https://www.theguardian.com/technology/2018/sep/08/ joseph-stiglitz-on-artificial-intelligence-were-going-towards-a-more-divided-society.
[85] CBinsights, “The Race for AI: Google, Intel, Apple in a Rush to Grab Artificial Intelligence Startups,” February 27, 2018, https://www.cbinsights.com/research/top-acquirers-ai-startups-ma-timeline/.
[86] Arif Khan, “The Tech Oligopoly: Disrupt the Disruption,” TheDiplomatic Courier,May 14, 2019,https://www.diplomaticourier.com/posts/the-tech-oligopoly-disrupt-the-disruption.
[87] 高奇琦:《人工智能時(shí)代的世界主義與中國》,載《國外理論動(dòng)態(tài)》2017年第9期,第45頁。
[88] “溫特爾主義”(Wintelism)一詞取自微軟的操作系統(tǒng)(Windows)和英特爾(Intel),是指科技巨頭圍繞產(chǎn)品標(biāo)準(zhǔn)在全球范圍內(nèi)有效配置資源,并通過制定結(jié)構(gòu)性的行業(yè)標(biāo)準(zhǔn)和模塊化生產(chǎn)的模式,從而形成標(biāo)準(zhǔn)控制下的產(chǎn)品模塊生產(chǎn)與組合以及對(duì)其他企業(yè)形成在產(chǎn)業(yè)鏈上的控制。參見Jeffrey Hart and Sangbae Kim, “Explaining the Resurgence of U.S. Competitiveness: The Rise of Wintelism,”, Vol. 18, No. 2, 2002, pp. 1-12。
[89] Julia Powles and Hal Hodson, “Google DeepMind and Healthcare in an Age of Algorithms,”, Vol. 7, No. 4, 2017, p. 352.
[90] [美] 詹姆斯·亨德勒、[美] 愛麗絲·穆維西爾:《社會(huì)機(jī)器:即將到來的人工智能、社會(huì)網(wǎng)絡(luò)與人類的碰撞》,王曉、王帥、王佼譯,北京:機(jī)械工業(yè)出版社2017年版,第27頁。
[91] 最為典型的便是當(dāng)下中美兩國在5G技術(shù)上的競(jìng)爭(zhēng),例如WIFI聯(lián)盟、SD存儲(chǔ)卡協(xié)會(huì)、藍(lán)牙技術(shù)聯(lián)盟、JEDEC固態(tài)技術(shù)協(xié)會(huì)等國際技術(shù)組織在美國的行政影響與司法威懾下,暫?;蛘卟糠謺和A巳A為在其組織內(nèi)的會(huì)員資格。
[92] Jacques Bughin, Jeongmin Seong, James Manyika, et al., “Notes from the AI Frontier: Modeling the Impact of AI on the World Economy,” Mckinsey Global Institute, September 2018, https://www.mckinsey.com/featured-insights/artificial-intelligence/notes-from-the-frontier-modeling-the-impact-of-ai-on-the-world-economy#0.
[93] 部分學(xué)者甚至否定了人工智能應(yīng)用對(duì)于長(zhǎng)期的經(jīng)濟(jì)增長(zhǎng)的作用。例如,伊曼紐爾·卡斯特格(Emanuel Gasteiger)和克勞斯·普雷特納(Klaus Prettner)基于“代際交疊模型”(Overlapping Generation Models)對(duì)人工智能應(yīng)用之于經(jīng)濟(jì)長(zhǎng)期的影響進(jìn)行了分析,認(rèn)為“由于機(jī)器人的使用將抑制工資的增長(zhǎng),投資的增長(zhǎng)也由此受到了抑制,而這最終將導(dǎo)致經(jīng)濟(jì)的停滯”。參見Emanuel Gasteiger and Klaus Prettner, “On the Possibility of Automation-Induced Stagnation,” Discussion Papers in Business, Economics and Social Sciences, February 24, 2017, https://www.econstor.eu/ bitstream/10419/155784/1/882225014.pdf。
[94] Samuel Kaplan,, New Haven, CT: Yale University Press, 2015, p. 31.
[95] MS Celeb數(shù)據(jù)庫擁有將近10萬人的面部信息,但其中部分?jǐn)?shù)據(jù)的采集并未得到用戶的授權(quán)。與此同時(shí),在微軟公司刪除該資料庫前,IBM、松下電氣、輝達(dá)、日立、商湯科技、曠視科技等多個(gè)商業(yè)公司均使用了這一數(shù)據(jù)庫。參見Madhumita Murgia, “Microsoft Quietly Deletes Largest Public Face Recognition Data Set,” the FT Group, June 18, 2019, https://www.ft.com/content/ 7d3e0d6a-87a0-11e9-a028-86cea8523dc2。
[96] Richard Berk,, Berlin: Springer-Verlag Press, 2018, pp. 22-23.
[97] Russell Brandom, “Amazon’s Facial Recognition Matched 28 Members of Congress to Criminal Mugshots,” The Verge, January 26, 2018, https://www.theverge.com/2018/7/26/17615634/ amazon-rekognition-aclu-mug-shot-congress-facial-recognition.
[98] Deloitte, “Future in the Balance? How Countries are Pursuing an AI Advantage,” May 28, 2019, https://www2.deloitte.com/content/dam/insights/us/articles/5189_Global-AI-survey/DI_Global- AI-survey.pdf.
[99] Remco Zwetsloot and Allan Dafoe, “Thinking about Risks from AI: Accidents, Misuse and Structure,” LawFare,February 11, 2019, https://www.lawfareblog.com/thinking-about-risks-ai-accidents- misuse-and-structure.
[100] David Hastings Dunn, “Drones: Disembodied Aerial Warfare and the Unarticulated Threat,”, Vol. 89, No. 5, 2013, p. 1243.
[101] Mary Cummings, “Artificial Intelligence and the Future of Warfare,” Chatham House, January 26, 2017, https://www.chathamhouse.org/publication/artificial-intelligence-and-future-warfare.
[102] 秘密性是指人工智能的研究與開發(fā)所需的可見設(shè)施相對(duì)較少;分散性則是指人工智能的研究與開發(fā)無需所有部件、人員同時(shí)就位;不透明性是指人工智能的運(yùn)行可能處于秘密狀態(tài),并且不能被反向工程控制。當(dāng)然,這些特征并不是人工智能技術(shù)所獨(dú)有的,信息時(shí)代的許多科技同樣也具有這些特征。但是,人工智能研究與開發(fā)的分散程度和規(guī)模以及交互程度都遠(yuǎn)遠(yuǎn)超過以往的任何科技。參見Matthew Scherer, “Regulating Artificial Intelligence Systems: Risks, Challenges, Competencies, and Strategies,”, Vol. 29, No. 2, 2016, pp. 363-364。
[103] [美] 馬丁·福特:《機(jī)器人時(shí)代》,王吉美等譯,北京:中信出版社2015年版,第36頁。
[104] Jerry Kaplan, “AI’s PR Problem,”, March 3, 2017, https://www. technologyreview.com/s/603761/ais-pr-problem/.
[105] ENISA, “Towards a Framework for Policy Development in Cybersecurity - Security and Privacy Considerations in Autonomous Agents,” March 14, 2019, https://www.enisa.europa.eu/ publications/considerations-in-autonomous-agents.
[106] Mike Ananny and Kate Crawford, “Seeing without Knowing: Limitations of the Transparency Ideal and Its Application to Algorithmic Accountability,”, Vol. 20, No. 3, 2016, p. 975.
[107] 封帥、周亦奇:《人工智能時(shí)代國家戰(zhàn)略行為的模式變遷——走向數(shù)據(jù)與算法的競(jìng)爭(zhēng)》,載《國際展望》 2018年第10期,第57頁。
[108] Meredith Whittaker, Kate Crawford, Roel Dobbe, et al., “AI Now Report 2018,” AI Now Institute, October 16, 2018, https://ainowinstitute.org/AI_Now_2018_Report.pdf.
[109] 習(xí)近平:《“確保人工智能關(guān)鍵核心技術(shù)牢牢掌握在自己手里”——中共中央政治局舉行第九次集體學(xué)習(xí)》,載《人民日?qǐng)?bào)(海外版)》2018年11月1日。
[110] 復(fù)旦大學(xué)國際關(guān)系與公共事務(wù)學(xué)院“國務(wù)智庫”編寫組:《安全、發(fā)展與國際共進(jìn)》,載《國際安全研究》2015年第1期,第4頁。
[111] 梅立潤(rùn):《人工智能如何影響國家治理:一項(xiàng)預(yù)判性分析》,載《湖北社會(huì)科學(xué)》2018年第8期,第27頁。
[112] 該報(bào)告將人工智能生態(tài)的構(gòu)建分為四個(gè)重要組成部分,除了安全可靠的技術(shù)基礎(chǔ)外,還包括良好的投資環(huán)境和政策體系、熟練的勞動(dòng)力和充分的知識(shí)管理與獲取、處理和利用數(shù)據(jù)的數(shù)字生態(tài)等三個(gè)方面。參見Lindsey Sheppard and Andrew Hunter, “Artificial Intelligence and National Security, The Importance of the AI Ecosystem,” CSIS, November 25, 2018, https://www.csis.org/ events/artificial-intelligence-and-national-security-importance-ai-ecosystem。
[113] Karen Yeung, “Algorithmic Regulation: A Critical Interrogation,”, Vol. 12, No. 6, 2017, p. 22.
[114] Will Bunch, “AI is not a Quick-Fix Solution for Discrimination,” Human Resource Executive, November 7, 2018, http://hrexecutive.com/ai-is-not-a-quick-fix-solution-for-discrimination/.
[115] Janna Anderson, Lee Rainie and Alex Luchsinger, “Artificial Intelligence and the Future of Humans,” Pew Research Center, December 10, 2018, https://www.pewinternet.org/2018/12/10/ concerns-about-human-agency-evolution-and-survival/.
[116] Roger Brownsword, “Technological Management and the Rule of Law,”, Vol. 8, No. 1, 2016, p. 101.
[117] Salil Gunashekar, Sarah Parks, Joe Francombe, et al., “Oversight of Emerging Science and Technology: Learning from Past and Present Efforts around the World,” RAND Corporation, March 2019, https://www.rand.org/pubs/research_reports/RR2921.html.
[118] Meredith Whittaker, Kate Crawford, Roel Dobbe, et al., “AI Now Report 2018,” AI Now Institute, October 16, 2018, https://ainowinstitute.org/AI_Now_2018_Report.pdf.
[119] Bernd Stahl and David Wright, “Ethics and Privacy in AI and Big Data: Implementing Responsible Research and Innovation,”, Vol. 16, No. 3, 2018, p. 30.
[120] 龐金友:《AI治理:人工智能時(shí)代的秩序困境與治理原則》,載《人民論壇·學(xué)術(shù)前沿》2018年第10期,第16頁。
[121] 蔡拓、楊雪冬、吳志成:《全球治理概論》,北京:北京大學(xué)出版社2016年版,第12頁。
[122] 高奇琦:《全球善智與全球合智:人工智能全球治理的未來》,載《世界經(jīng)濟(jì)與政治》2019年第7期,第20頁。
[123] Ryan Hass and Zach Balin, “US-China Relations in the Age of Artificial Intelligence,” January 10, 2019, Brookings, https://www.brookings.edu/research/us-china-relations-in-the-age-of-artificial- intelligence/.
[124] 魯傳穎、[美] 約翰·馬勒里:《體制復(fù)合體理論視角下的人工智能全球治理進(jìn)程》,載《國際觀察》2018年第4期,第73頁。
[125] 馮維江、張宇燕:《新時(shí)代國家安全學(xué)——思想淵源、實(shí)踐基礎(chǔ)和理論邏輯》,載《世界經(jīng)濟(jì)與政治》2019年第4期,第23頁。
[126] 馮昭奎:《科技革命發(fā)生了幾次——學(xué)習(xí)習(xí)近平主席關(guān)于“新一輪科技革命”的論述》,載《世界經(jīng)濟(jì)與政治》2017年第2期,第23頁。
*本文受海國圖智研究院研究基金的資助。作者感謝上海市國際關(guān)系學(xué)會(huì)、上海國際問題研究院及第十一屆“金仲華國研杯”等對(duì)筆者研究的支持,以及《國際安全研究》匿名評(píng)審專家的建設(shè)性修改意見。文中錯(cuò)漏概由筆者負(fù)責(zé)。
闕天舒,華東政法大學(xué)中國法治戰(zhàn)略研究中心副主任、教授;張紀(jì)騰,華東政法大學(xué)政治學(xué)研究院碩士研究生(上海郵編:200042)。
10.14093/j.cnki.cn10-1132/d.2020.01.001
D815.5; TP18; D631
A
2095-574X(2020)01-0004-35
2019-09-20】
2019-07-26】
【責(zé)任編輯:謝 磊】