張興春
(武警黑龍江總隊參謀部綜合信息保障中心 黑龍江哈爾濱 150028)
網(wǎng)絡安全是保障國家安全的核心組成部分,在人工智能背景下,不僅可以提高網(wǎng)絡空間的安全治理水平,還能夠降低網(wǎng)絡安全風險發(fā)生率。在網(wǎng)絡空間安全背景之下,通過準確識別出人工智能安全風險因素,并采取有效的治理措施,可以取得較好效果。故本文主要分析網(wǎng)絡空間安全背景下人工智能安全風險和治理要點。
隨著人工智能技術的全面發(fā)展,此項技術已經(jīng)廣泛運用到各行各業(yè)當中,促進了人類社會的快速化發(fā)展。但是,人工智能技術屬于“雙刃劍”,可能會帶來一系列的安全問題,引起人們的憂慮,例如,無人駕駛汽車出現(xiàn)撞人現(xiàn)象、自主武器殺人等,特別是將人工智能技術應用到軍事領域當中,將會引起更多恐慌。在網(wǎng)絡空間安全背景之下,通過準確識別出人工智能安全風險,并采取針對性的治理措施,可以取得較好效果[1]。
和其他產(chǎn)品與系統(tǒng)不同,人工智能具有自主性與自適應的特點。從客觀層面來分析,可以承擔起人類部分判斷功能與決策功能,而此功能主要是利用人工智能算法實現(xiàn),若智能算法不合理,會明顯降低人工智能系統(tǒng)的可靠性與安全性。從編程層面來分析,任何一個算法都并不是完全可靠、安全的,任何一個算法均可能會引起不良后果。
另外,由于人工智能算法自身可能會存在一定漏洞,具有被利用與攻擊風險,例如,針對人工智能模型的特點進行有效偽裝,進而誤導人工智能作出一系列錯誤判斷。與此同時,人工智能存在“算法黑箱”的缺陷,此種作用機制具有操作難度大的問題,故最終結果無法預測。
當前時期,人工智能主要采取深度學習方法,和人類不同的是,人工智能沒有任何基礎知識可言,其所有知識主要來自之前所接觸到的各項數(shù)據(jù),不管是訓練數(shù)據(jù),抑或是和外界環(huán)境試錯交換而來的數(shù)據(jù)。人工智能系統(tǒng)可以結合數(shù)據(jù)學習如何思考,并開展下一步的行動,所以,用來訓練模型數(shù)據(jù)類型,對其最終的行為方式起到?jīng)Q定作用。不同類型的數(shù)據(jù)集會讓人工智能產(chǎn)生多種訓練結果,此種數(shù)據(jù)的過度依賴可能會帶來較為嚴重的風險,錯誤或偏差比較大的數(shù)據(jù)容易出現(xiàn)帶有一定偏差與偏見的人工智能。
人工智能是主要以數(shù)據(jù)訓練為主的智能,其和人類智能存在較大差異,人類與機器在開展有關任務時,其具體方法存在一定差異。當前階段,通過對算法進行深度學習,僅可以反映出統(tǒng)計特征或者數(shù)據(jù)之間的關聯(lián)關系,沒有真正獲得數(shù)據(jù)本質(zhì)特征及數(shù)據(jù)之間的因果關系。例如,接受過特定對象圖像訓練的計算機視覺算法可以在全新圖像當中準確識別出此類對象,同時對其進行有效的分類,但是,系統(tǒng)無法充分理解出此對象的具體含義與概念,所以可能會犯下嚴重錯誤[2]。
人工智能作為一種全新技術,在實際應用期間,會給不同領域帶來一定的影響與沖擊,進而產(chǎn)生一系列的安全風險,主要包含政治安全風險、軍事安全風險、經(jīng)濟安全風險等。
在技術層面,需要深入學習人工智能賦能技術,并加強安全風險治理力度,可以取得比較好的效果。自2006年以來,研發(fā)人員提出深度學習模型,人工智能的有效運用引入更深層次的學習概念,實現(xiàn)人工智能技術的跨越式發(fā)展目標。在信息化技術與網(wǎng)絡化技術全面發(fā)展的今天,積累海量數(shù)據(jù)信息,這些數(shù)據(jù)信息以圖形處理器處理技術與超算技術為基礎,通過進行深度學習,可以從大數(shù)據(jù)當中提取、發(fā)現(xiàn)各類知識,具備良好的學習能力與推理能力,尤其是Google 公司的人工智能圍棋程序,能夠充分體現(xiàn)出專用人工智能的全面突破,包括深度學習潛力。
第一,通過深度學習技術,可以有效強化網(wǎng)絡空間的威脅感知能力與防御能力。以網(wǎng)絡空間大數(shù)據(jù)作為重要的數(shù)據(jù)資源,通過深度學習技術,可以明顯提高網(wǎng)絡空間感知和防御能力,在多種不確定環(huán)境中,系統(tǒng)的動態(tài)適應能力得到明顯提升,針對海量模糊與非線性數(shù)據(jù)進行自動化分類聚合,并加強關聯(lián)性分析,從多個角度來感知網(wǎng)絡安全威脅,進一步了解網(wǎng)絡空間發(fā)展態(tài)勢。通過有效運用智能化網(wǎng)絡空間攻擊手段,打造更加穩(wěn)定的網(wǎng)絡空間安全防御體系,可以取得比較好的風險防范效果。
第二,提升深度學習技術當中的算法和數(shù)據(jù)安全性。人工智能本體安全,針對網(wǎng)絡安全具備多維依賴關系,現(xiàn)階段,深度學習等一系列人工智能算法的可解釋性比較差,容易受到干擾和欺騙。例如,卷積神經(jīng)網(wǎng)絡與人工神經(jīng)網(wǎng)絡等一系列關鍵算法當中存在較多安全隱患,采取偽造數(shù)據(jù)或者污染樣本的方法,可以干擾深度學習模型的正常運行。深度學習數(shù)據(jù)具有較強的隱私性,可靠性也比較差,缺乏安全密碼的保護,容易引起竊取、破壞等問題,通過加強人工智能本體安全防線,可以有效提高深度學習的穩(wěn)定性與可靠性。
第三,加大深度學習基礎理論和核心算法儲備攻關。通過深度學習人工智能基礎理論和核心算法,能夠有效提高移動網(wǎng)絡空間人工智能安全治理水平,保證網(wǎng)絡空間人工智能更加安全。例如,通過全面加強“Cyber+AI”理論,加強技術儲備,能夠全面發(fā)揮出網(wǎng)絡空間大數(shù)據(jù)與人工智能商業(yè)創(chuàng)新優(yōu)勢,確保國產(chǎn)深度學習平臺能夠更好地投入具體應用中[3]。
從軍事層面來分析,主要關注基于自主網(wǎng)絡攻防武器混合作戰(zhàn)問題。與陸地、海、空等作戰(zhàn)區(qū)域不同,發(fā)生于網(wǎng)絡空間的各項攻防博弈具備速度快、智能水平高等一系列特點,網(wǎng)絡空間作戰(zhàn)具有“秒殺性”特點。與此同時,由于網(wǎng)絡空間對人類的日常生活和生產(chǎn)影響越來越大,讓人們也更為關注網(wǎng)絡攻防對人類社會的政治與經(jīng)濟層面帶來的影響,若單純依賴人類自身的智力與體力,無法滿足網(wǎng)絡空間作戰(zhàn)要求,因此,需要依賴自主化與智能化網(wǎng)絡攻防武器,同時在多個領域進行混合作戰(zhàn)。
3.2.1 自主網(wǎng)絡攻防作為混合作戰(zhàn)的重要作戰(zhàn)樣式
混合作戰(zhàn)屬于一種新型的作戰(zhàn)行動,具備投入比較少、見效比較快、隱蔽性較強等一系列特點,網(wǎng)絡空間作戰(zhàn)是混合作戰(zhàn)的核心內(nèi)容,也是混合作戰(zhàn)典型非對稱作戰(zhàn)模式。
通過加強混合作戰(zhàn)和應對措施理論研究,特別是重視國外敵對勢力利用互聯(lián)網(wǎng)來散布謠言,以及網(wǎng)絡竊密等諸多手段,避免對我國輿情社情與基礎設施襲擾嚴重破壞。
3.2.2 合理運用自主網(wǎng)絡攻防武器
當前時期,在人工智能技術發(fā)展背景之下,具備高度自主性網(wǎng)絡攻防武器。因其內(nèi)部技術具有不成熟的特點,包括外部人員的不合理使用,會明顯增加網(wǎng)絡空間的不確定性。為解決此問題,合理運用自主網(wǎng)絡攻防武器特別重要,具體途徑如下。
第一,全面學習典型人工智能技術等基礎理論,并建立在概率論與數(shù)理統(tǒng)計基礎上,缺乏良好的因果對應關系,而現(xiàn)有的各項技術也無法準確預估出自主網(wǎng)絡攻防武器風險事件與安全邊界。
第二,自主攻擊網(wǎng)絡武器擴散和不規(guī)范的使用,此種情況會給網(wǎng)絡空間安全帶來嚴重危害。從國際層面來分析,通過形成制約自主網(wǎng)絡攻防武器機制,以及相應的公約規(guī)范,并對自主網(wǎng)絡攻防武器實施加密處理,能夠取得較好的安全防控效果[4]。
3.2.3 加快自主網(wǎng)絡攻防發(fā)展步伐
根據(jù)人類戰(zhàn)爭歷史進程和結局可以得知,技術作為戰(zhàn)爭形態(tài)演進的主要推動力,也是戰(zhàn)斗力的重要組成部分。在軍事領域當中,自主化與智能化的網(wǎng)絡攻防具有技術性較強、實施難度高的特點,過于依賴網(wǎng)絡態(tài)勢深度認知等新型技術。與此同時,如何在信息化與網(wǎng)絡化戰(zhàn)場中充分發(fā)揮出網(wǎng)絡攻防的作戰(zhàn)效能,特別是如何通過戰(zhàn)情虛擬仿真實驗等手段設計出合理的自主網(wǎng)絡攻防作戰(zhàn)模式,還有待進一步研究。
對于有關部門來講,通過從技術和軍事等兩個層次入手,促進網(wǎng)絡攻防裝備和手段的研發(fā)進程,通過建立專業(yè)靶場與仿真系統(tǒng)等,實現(xiàn)自主網(wǎng)絡攻防技術的全新突破,為后續(xù)的先進裝備試驗鑒定提供良好的作戰(zhàn)力量。
3.3.1 “AI+社交大網(wǎng)絡”
現(xiàn)階段,各類社交手段正在快速發(fā)展,形成一個動態(tài)化的社交網(wǎng)絡,“AI+社交大網(wǎng)絡”的有效運用不但可以充分反映出個人職業(yè)與愛好,而且能夠促進人與人之間的聯(lián)系。通過有效運用統(tǒng)計機器學習自然語言處理技術,能夠實現(xiàn)多源異構海量網(wǎng)絡輿情實施監(jiān)控采集,以及結構化的提取。通過有效利用大數(shù)據(jù)分析技術,為個性化新聞發(fā)布和推送提供良好依據(jù)。
3.3.2 促進智慧社會轉型
最近幾年以來,由于大數(shù)據(jù)和人工智能技術的全面發(fā)展,以廣域分布社會網(wǎng)絡作為重要基礎,人類在日常的生活與工作中會積累海量數(shù)據(jù)信息,為提升社會綜合管理水平提供了較好支持。通過將人工智能技術和計算社會科學完美結合,可以通過模擬微觀個體互動,以及涌現(xiàn)宏觀社會現(xiàn)象,取得良好的風險防治效果[5]。
3.4.1 加大網(wǎng)絡安全管理力度
網(wǎng)絡安全與信息化與國家安全與發(fā)展水平息息相關,對廣大人民群眾的生活影響較大。在總體安全觀的大力指導之下,通過加強頂層設計,并對既有的規(guī)劃進行有效完善,可以進一步提升人工智能發(fā)展水平。在社會層面,可以獲得比較好的網(wǎng)絡安全風險防范效果。從國家層面來講,通過設置重大科技專項牽引技術,并從政府層面落實相應的配套政策,加大資金投入,可以有效提升人工智能的競爭力。
3.4.2 創(chuàng)設四位一體的安全環(huán)境
通過構建網(wǎng)絡空間人工智能體系,并加強安全風險治理力度,能夠實現(xiàn)多個領域資源的高效利用,進而形成群策群力治理模式,建立政府、高校、企業(yè)與個人等多個類型主體的安全系統(tǒng)。針對政府有關部門來講,需要明確自身的工作職責,構建穩(wěn)定的人工智能治理專業(yè)委員會在內(nèi)的網(wǎng)絡安全人工治理頂層決定機制,促進網(wǎng)絡安全的人工智能治理和國家戰(zhàn)略協(xié)調(diào)發(fā)展。針對各大高校來講,需要主動承擔起“助推器”的作用,明確自身的主體責任,充分發(fā)揮出科研和人才培養(yǎng)優(yōu)勢,以智能化技術與核心,解決人工智能與網(wǎng)絡信息技術應用期間存在的問題。針對企業(yè)來講,需要主動承擔“發(fā)動機”職責,全面發(fā)揮出網(wǎng)絡空間數(shù)據(jù)的各項優(yōu)勢,促進人工智能技術的全面運用,提升網(wǎng)絡安全意識,并加強人工智能素養(yǎng)培養(yǎng)力度,加強個人隱私保護,避免個人隱私與特征數(shù)據(jù)出現(xiàn)嚴重泄漏的情況。政府有關部門還要自覺分辨出虛假社會輿情和網(wǎng)絡輿情,嚴禁傳播不實言論[6]。
3.4.3 加大復合型人才培養(yǎng)力度
要想建設網(wǎng)絡強國與人工智能強國,加強專業(yè)人才培養(yǎng)力度特別重要,政府、高校和企業(yè)之間需要保持密切配合,妥善解決網(wǎng)絡空間背景下人工智能高端人才的培養(yǎng)問題,實現(xiàn)人工和政治學及行政管理等多個學科之間的交叉與融合。網(wǎng)絡空間的人工智能治理涉及的內(nèi)容比較多,主要包含網(wǎng)絡安全、人工智能和政治學等一系列知識,通過全面推動政府、軍隊、高校及各個科研機構之間的聯(lián)系,為復合型人才提供一個較好的政策環(huán)境與科研環(huán)境;同時,從薪資待遇與發(fā)展前景等多個層面入手,加大吸引力度,能夠留住更多人才。針對網(wǎng)絡空間人工智能治理復合型人才,需要制定出特色政策,在不違反法律規(guī)定要求的基礎上,為其提供良好環(huán)境,讓人才可以更好地投入到科研工作當中,真正做到人盡其才。
綜上所述,本文主要對網(wǎng)絡空間安全背景下的人工智能安全風險與治理措施與注意事項進行研究,包括加大網(wǎng)絡安全管理力度、建立四位一體的安全環(huán)境、加大復合型人才培養(yǎng)力度等,取得了比較好的安全風險治理效果,故可以為相關工作人員提供良好的幫助和借鑒。