摘要:[目的/意義]生成式人工智能是推動(dòng)數(shù)據(jù)要素高水平安全的新動(dòng)力,是助力政府?dāng)?shù)據(jù)安全高質(zhì)量發(fā)展的新引擎,是實(shí)現(xiàn)政府?dāng)?shù)據(jù)治理體系和治理能力現(xiàn)代化的新優(yōu)勢。[方法/過程]本文基于政府?dāng)?shù)據(jù)安全治理“黑箱階段—灰箱階段—白箱階段”的全生命周期流程,剖析生成式人工智能賦能各階段所引致的機(jī)遇與風(fēng)險(xiǎn),并提出應(yīng)對策略。[結(jié)果/結(jié)論]生成式人工智能可以最大化發(fā)揮其在事前監(jiān)測預(yù)警、事中應(yīng)急響應(yīng)、事后反饋評估的賦能作用,但也伴隨著可能產(chǎn)生數(shù)據(jù)泄漏、決策失誤、主體性危機(jī)等治理風(fēng)險(xiǎn)。而推動(dòng)生成式人工智能精細(xì)化治理、健全全域政府?dāng)?shù)據(jù)安全治理體系、培育全鏈路政府?dāng)?shù)據(jù)安全治理能力,是保障生成式人工智能良技善治的重要策略。
關(guān)鍵詞:政府?dāng)?shù)據(jù)安全治理 生成式人工智能 全生命周期 數(shù)據(jù)風(fēng)險(xiǎn)防控
分類號:TP18;D63
DOI: 10.19318/j.cnki.issn.2096-1634.2024.04.01
1 引言
近年來,科學(xué)技術(shù)尤其是智能技術(shù)的發(fā)展和應(yīng)用,被認(rèn)為是維護(hù)和保障國家安全的重要手段之一[1]。比如,聯(lián)邦學(xué)習(xí)、區(qū)塊鏈、數(shù)據(jù)匿名化等技術(shù)對于數(shù)據(jù)安全防護(hù)發(fā)揮著重要作用。2022年年末,作為先進(jìn)數(shù)字技術(shù)的階段性代表之一,ChatGPT以其超強(qiáng)的推理能力和信息整合能力為主要運(yùn)作核心[2],被認(rèn)定為具有“人類智力獨(dú)有能力”的高級功能。依靠先進(jìn)算法和強(qiáng)大算力,生成式人工智能具備了部分知識問答、邏輯推理、意見建議等功能,在信息收集、風(fēng)險(xiǎn)預(yù)測、輔助決策、方案執(zhí)行等方面展現(xiàn)強(qiáng)大的應(yīng)用前景。2023年,OpenAI團(tuán)隊(duì)發(fā)布了新一代多模態(tài)預(yù)訓(xùn)練大模型GPT-4,相較于上一代模型,GPT-4在識別能力、應(yīng)用場景、內(nèi)容準(zhǔn)確性與多樣性等方面表現(xiàn)更優(yōu),能夠與數(shù)據(jù)安全治理的諸多環(huán)節(jié)深度鏈接并產(chǎn)生深刻影響,展現(xiàn)了更高的安全屬性[3]。然而,以ChatGPT為代表的生成式人工智能在帶來技術(shù)紅利的同時(shí),也會(huì)異化出“技術(shù)失控”及一系列衍生風(fēng)險(xiǎn),亟須實(shí)務(wù)界與學(xué)術(shù)界的集體警覺、探究論證與尋找出路。
當(dāng)前,學(xué)界有關(guān)生成式人工智能的研究焦點(diǎn)明確、領(lǐng)域分明,已有研究證實(shí)了生成式人工智能對經(jīng)濟(jì)增長、技術(shù)創(chuàng)新、勞動(dòng)力市場、收入分配等諸多方面影響深刻[4-6]。然而,有關(guān)生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的研究仍不豐厚,相關(guān)內(nèi)容散落在數(shù)字政府、行政決策、政務(wù)服務(wù)生態(tài)、智能政務(wù)等領(lǐng)域中。在賦能關(guān)系闡明上,一方面,既有研究肯定了生成式人工智能在提升工作效率、降低行政成本、強(qiáng)化科學(xué)行政、優(yōu)化服務(wù)供給的作用[7],為政府策略制定、風(fēng)險(xiǎn)監(jiān)測、隱患防范、能力提升等方面創(chuàng)造了機(jī)遇[8-11];另一方面,其也客觀地揭示了生成式人工智能所引致的虛假信息泛濫、生成內(nèi)容侵權(quán)、技術(shù)高度依賴、弱勢群體歧視等系列風(fēng)險(xiǎn)[12-14]。在實(shí)際應(yīng)對策略上,既有研究指出應(yīng)重視生成式人工智能的立法監(jiān)管,建議統(tǒng)一算法規(guī)制法律體系[15],強(qiáng)化相關(guān)責(zé)任主體的監(jiān)管義務(wù)[16],不斷培育預(yù)防與應(yīng)對并重的適應(yīng)性治理理念,促進(jìn)包容審慎、以人為本的“善智”理念回歸[17-18],發(fā)揮其他數(shù)智技術(shù)的補(bǔ)充支持作用,通過開放算法或代碼方式打破政府?dāng)?shù)據(jù)多元治理主體間的壁壘[19],以支撐數(shù)字加密、脫敏和甄別工作[20],不斷完善政府?dāng)?shù)據(jù)治理技術(shù)支持平臺(tái)[21]。總體來看,既有研究較少關(guān)注政府?dāng)?shù)據(jù)安全治理領(lǐng)域,部分有關(guān)數(shù)字政府建設(shè)的文獻(xiàn)雖然對此有所涉及,但是針對性不足,不利于回應(yīng)生成式人工智能“如何賦能”政府?dāng)?shù)據(jù)安全治理的時(shí)代性課題。另外,既有研究未深入至政府?dāng)?shù)據(jù)安全治理的各個(gè)階段中,對生成式人工智能賦能政府?dāng)?shù)據(jù)“全棧安全”的過程性與系統(tǒng)性探究仍不豐厚,未能凸顯生成式人工智能對政府?dāng)?shù)據(jù)安全治理的獨(dú)特價(jià)值和帶來的嚴(yán)峻風(fēng)險(xiǎn)。
據(jù)此,本文秉承政府?dāng)?shù)據(jù)安全治理“醒早眺遠(yuǎn)”“全譜掃描”的核心理念,遵循政府?dāng)?shù)據(jù)安全生命周期治理的客觀規(guī)律,剖析生成式人工智能在安全風(fēng)險(xiǎn)潛伏的黑箱階段、危機(jī)爆發(fā)控制的灰箱階段以及致因消退恢復(fù)的白箱階段所帶來的機(jī)遇與風(fēng)險(xiǎn)[22],為全域化政府?dāng)?shù)據(jù)安全落地提供決策參考。
2 應(yīng)許之善:生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的機(jī)遇
依托可擴(kuò)展性、多場景適應(yīng)性和高連貫性的技術(shù)特征,生成式人工智能能夠以強(qiáng)大算力精準(zhǔn)監(jiān)測政府?dāng)?shù)據(jù)安全事件的風(fēng)險(xiǎn)閾值,以知識管理主動(dòng)輔助政府?dāng)?shù)據(jù)安全危機(jī)的響應(yīng)決策,以算法邏輯持續(xù)優(yōu)化政府?dāng)?shù)據(jù)安全治理的效能規(guī)程,形塑“安全監(jiān)測—安全響應(yīng)—安全反饋”的閉環(huán)式政府?dāng)?shù)據(jù)安全治理邏輯??偟膩碚f,生成式人工智能可以最大化發(fā)揮其在事前監(jiān)測預(yù)警、事中應(yīng)急響應(yīng)、事后反饋評估的賦能作用,如圖1所示。
2.1 黑箱階段:事前監(jiān)測預(yù)警
安全態(tài)勢感知是風(fēng)險(xiǎn)因子轉(zhuǎn)化為安全情報(bào)、助力安全決策的關(guān)鍵[23],是政府?dāng)?shù)據(jù)安全治理的發(fā)軔。數(shù)據(jù)安全風(fēng)險(xiǎn)往往具有多源、異構(gòu)、復(fù)雜、多模態(tài)的特征,這要求政府相關(guān)職能部門即使在沒有突發(fā)事件的放松狀態(tài)下,也要做好監(jiān)測預(yù)警工作。然而,面對政府?dāng)?shù)據(jù)安全事件的復(fù)雜性、多變性與耦合性,單純依靠政府部門或?qū)<抑腔垭y以有效研判與揭示不同風(fēng)險(xiǎn)情報(bào)之間的關(guān)聯(lián),極易出現(xiàn)政府?dāng)?shù)據(jù)安全風(fēng)險(xiǎn)監(jiān)測不利而導(dǎo)致的決策研判時(shí)滯。相比之下,生成式人工智能可以快速識別物理世界、人類社會(huì)和信息空間的相關(guān)風(fēng)險(xiǎn)因子,從而實(shí)現(xiàn)數(shù)據(jù)安全事件“大場景、超感知”的智能超鏈接[24]。
黑箱階段的核心任務(wù)是厘清安全風(fēng)險(xiǎn)源、安全風(fēng)險(xiǎn)活動(dòng)區(qū)域和安全風(fēng)險(xiǎn)頻率,并進(jìn)一步形成風(fēng)險(xiǎn)清單。具體而言,政府?dāng)?shù)據(jù)安全風(fēng)險(xiǎn)清單包括風(fēng)險(xiǎn)總覽清單與風(fēng)險(xiǎn)明細(xì)清單。風(fēng)險(xiǎn)總覽清單包括風(fēng)險(xiǎn)監(jiān)測趨勢、風(fēng)險(xiǎn)類型分布、風(fēng)險(xiǎn)分布排名等;風(fēng)險(xiǎn)明細(xì)清單包括風(fēng)險(xiǎn)觸發(fā)條件、風(fēng)險(xiǎn)節(jié)點(diǎn)標(biāo)記、風(fēng)險(xiǎn)場景特征等。政府?dāng)?shù)據(jù)安全治理的黑箱階段具體可以分為前端與后端兩個(gè)部分。前端主要指安全信息的采集與整合,后端則包含政府?dāng)?shù)據(jù)安全應(yīng)急響應(yīng)計(jì)劃的編制與生產(chǎn)。在前端,政府部門工作人員結(jié)合數(shù)據(jù)安全治理需求進(jìn)行任務(wù)設(shè)定與目標(biāo)錨定,生成式人工智能強(qiáng)大的自然語言處理功能可以通過深度學(xué)習(xí)的方式實(shí)現(xiàn)海量信息與數(shù)據(jù)的實(shí)時(shí)收集與動(dòng)態(tài)獲取,并按照工作人員設(shè)置的分類原則與分級規(guī)則對風(fēng)險(xiǎn)因子進(jìn)行聚類分析,有效整合數(shù)據(jù)安全事件的節(jié)點(diǎn)信息;在后端,生成式人工智能可以基于歷史數(shù)據(jù)和最佳實(shí)踐,擬定安全應(yīng)急響應(yīng)計(jì)劃的基本框架和具體步驟,提供關(guān)于威脅模型、漏洞分析、防御策
略等方面的建議。相關(guān)職能部門可以在此基礎(chǔ)上制定包含風(fēng)險(xiǎn)識別、證據(jù)匯總、日常監(jiān)控、信息紕漏、協(xié)同監(jiān)管等內(nèi)容的數(shù)據(jù)安全應(yīng)急響應(yīng)計(jì)劃。比如,上海市有機(jī)整合安全可視化、生成式人工智能、數(shù)字化智能分析平臺(tái)等技術(shù)工具,打造“一網(wǎng)統(tǒng)管”安全底座,針對多云環(huán)境、混合云環(huán)境下的公共數(shù)據(jù)安全管理效率低下的問題,構(gòu)建包含安全態(tài)勢感知、數(shù)據(jù)安全監(jiān)控預(yù)警、數(shù)據(jù)安全風(fēng)險(xiǎn)分析、脆弱性管理等功能在內(nèi)的數(shù)據(jù)安全監(jiān)管平臺(tái),充分掃描出數(shù)據(jù)庫系統(tǒng)的安全漏洞和威脅,幫助數(shù)據(jù)庫保持在最佳安全、健康的狀態(tài),實(shí)現(xiàn)數(shù)據(jù)安全風(fēng)險(xiǎn)隱患的全流程預(yù)測預(yù)防,強(qiáng)化上海市云上應(yīng)用智能化、集約化安全運(yùn)營能力[25]。
2.2 灰箱階段:事中應(yīng)急響應(yīng)
政府?dāng)?shù)據(jù)安全事件常常伴隨聚合性、關(guān)聯(lián)性和衍生性的多米諾效應(yīng)。為了避免初次危機(jī)造成的次生風(fēng)險(xiǎn)或衍生風(fēng)險(xiǎn),責(zé)任主體需錨定數(shù)據(jù)安全危機(jī)事件發(fā)生區(qū)域、應(yīng)急資源使用范圍、災(zāi)害處置核心業(yè)務(wù)及所需資源,并迅速做出應(yīng)急響應(yīng),防止風(fēng)險(xiǎn)因子能量積蓄膨脹造成的“激變”。然而,受傳統(tǒng)集權(quán)化管理模式的影響,縱向政府層級部門與橫向行政區(qū)劃地域常常出現(xiàn)“信息孤島”和“信息壁壘”,在政府?dāng)?shù)據(jù)安全事件應(yīng)急響應(yīng)過程中則是源于信息失真或滯后導(dǎo)致的部門協(xié)同不足,不利于應(yīng)對“非常規(guī)化”與“非程序化”數(shù)據(jù)安全突發(fā)事件的聯(lián)動(dòng)響應(yīng)。
生成式人工智能賦能數(shù)據(jù)安全突發(fā)事件實(shí)現(xiàn)了“權(quán)力運(yùn)行的技術(shù)化”,推進(jìn)了決策結(jié)構(gòu)和內(nèi)容的深層次變革[26]。生成式人工智能作為“外腦”能夠提供智能決策。傳統(tǒng)面向政府?dāng)?shù)據(jù)安全事件的應(yīng)急響應(yīng)工作是以任務(wù)為中心的“機(jī)械化”被動(dòng)響應(yīng)模式,難以應(yīng)對風(fēng)險(xiǎn)多維異構(gòu)、多源交織的復(fù)雜數(shù)據(jù)安全事件。相比之下,生成式人工智能依托智能化邏輯算法將龐雜的數(shù)據(jù)信息轉(zhuǎn)變?yōu)椤爸腔壑R”,并形成智能決策模型庫、智能決策經(jīng)驗(yàn)庫、智能決策規(guī)則庫、智能決策案例庫、智能決策工具庫等智能決策知識庫,用于構(gòu)建包含智能決策支撐系統(tǒng)、智能決策處理系統(tǒng)和智能決策應(yīng)用系統(tǒng)在內(nèi)的政府?dāng)?shù)據(jù)安全事件智能決策系統(tǒng)。一旦發(fā)生數(shù)據(jù)安全突發(fā)事件,生成式人工智能可實(shí)時(shí)跟蹤事件發(fā)展態(tài)勢的節(jié)點(diǎn)信息,根據(jù)“情景畫像”描繪出數(shù)據(jù)安全事件發(fā)展的邏輯鏈條,適時(shí)調(diào)整應(yīng)急響應(yīng)決策的具體內(nèi)容,形成自主適應(yīng)式的“訓(xùn)練—判斷—決策—實(shí)施”循環(huán)響應(yīng)機(jī)制,有效遏制數(shù)據(jù)安全危機(jī)的蔓延與衍生。作為協(xié)作補(bǔ)充,生成式人工智能可以打破“數(shù)據(jù)孤島”、消除“數(shù)據(jù)噪聲”,克服部門協(xié)同不足,整合分散的公共資源。生成式人工智能的有效嵌入驅(qū)動(dòng)著政府?dāng)?shù)據(jù)安全事件應(yīng)急響應(yīng)由“科層式”向“扁平式”,“管理—控制”向“治理—協(xié)同”模式的轉(zhuǎn)變,以人機(jī)協(xié)同的方式逐步克服應(yīng)急決策主體內(nèi)部、應(yīng)急決策主體與應(yīng)急職能主體、應(yīng)急參與主體間協(xié)同不足的現(xiàn)實(shí)困局,促進(jìn)責(zé)任主體、時(shí)空過程、技術(shù)手段的耦合關(guān)聯(lián)與互動(dòng)融合,助力政府?dāng)?shù)據(jù)安全事件智能決策的生成。比如,山東省交通廳打造以安全運(yùn)營為中心的數(shù)據(jù)安全與一體化數(shù)字平臺(tái),聚焦數(shù)據(jù)流動(dòng)和數(shù)據(jù)風(fēng)險(xiǎn)暴露,嘗試?yán)蒙墒饺斯ぶ悄艿葟?fù)雜系統(tǒng)模型算法和大數(shù)據(jù)智能分析等技術(shù)工具,形成數(shù)據(jù)識別、數(shù)據(jù)防護(hù)、安全監(jiān)控、安全響應(yīng)和溯源的安全能力資源池,有效解決并阻斷各類賬號訪問風(fēng)險(xiǎn),為威脅遏制恢復(fù)、安全事件復(fù)審以及事件應(yīng)急響應(yīng)的閉環(huán)處置提供了支撐。
2.3 白箱階段:事后反饋評估
在政府?dāng)?shù)據(jù)安全治理的白箱階段,雖然數(shù)據(jù)安全整體態(tài)勢已趨于穩(wěn)定,但仍然有“余邪復(fù)盛”的風(fēng)險(xiǎn)。責(zé)任主體要保持對殘留威脅的持續(xù)關(guān)注,通過系統(tǒng)評估復(fù)盤來確保治理實(shí)踐與治理目標(biāo)的“關(guān)鍵性對齊”[27]。具體包括:一是保持對數(shù)據(jù)安全風(fēng)險(xiǎn)因子的實(shí)時(shí)監(jiān)測,重點(diǎn)關(guān)注和聚焦響應(yīng)計(jì)劃中的人員、制度與技術(shù)配置,系統(tǒng)分析過往階段所涉及的行為舉措,獲得事后經(jīng)驗(yàn)性、保障性信息;二是客觀評估政府?dāng)?shù)據(jù)安全應(yīng)急響應(yīng)過程中存在的行為與決策偏差,并進(jìn)行持續(xù)調(diào)整與優(yōu)化,為應(yīng)對下一輪數(shù)據(jù)安全危機(jī)時(shí)迅速啟動(dòng)應(yīng)急方案做好保障。
對此,生成式人工智能主要從以下兩個(gè)方面賦能事后反饋評估。
第一,精準(zhǔn)問責(zé)。政府?dāng)?shù)據(jù)安全突發(fā)事件打破了傳統(tǒng)行政區(qū)域與政府部門職能邊界,而跨區(qū)域、跨職能部門的協(xié)同響應(yīng)所帶來的交叉空白區(qū)域,成為一些地方政府“推諉責(zé)任”“不作為”的溫床,為主體問責(zé)帶來難度。生成式人工智能通過算法邏輯匹配數(shù)據(jù)安全事件風(fēng)險(xiǎn)發(fā)生與主體履職盡責(zé)的關(guān)聯(lián)程度,建立同體問責(zé)與異體問責(zé)相協(xié)調(diào)的責(zé)任量化標(biāo)準(zhǔn)與溯源追責(zé)體系,對政府部門的響應(yīng)規(guī)劃、資源調(diào)度、決策流程、力量部署以及組織機(jī)制行為演化等內(nèi)容進(jìn)行評估,綜合考量過程責(zé)任與結(jié)果責(zé)任、事件復(fù)雜程度與主體認(rèn)知能力后進(jìn)行責(zé)任認(rèn)定,防止責(zé)任主體“不作為”“亂作為”“假作為”現(xiàn)象,有效糾正數(shù)據(jù)安全應(yīng)急預(yù)案和落地執(zhí)行過程中存在的疏漏。比如,以杭州市蕭山區(qū)大數(shù)據(jù)管理服務(wù)中心為例,不同服務(wù)模式和部署模式、信息共享平臺(tái)環(huán)境的復(fù)雜性增加了界定數(shù)據(jù)安全責(zé)任的難度,數(shù)據(jù)持續(xù)流動(dòng)導(dǎo)致責(zé)任劃分不清、權(quán)限難以控制、問題難以追責(zé)、風(fēng)險(xiǎn)難以溯源等問題,迫切需要建立終端可信識別,讓數(shù)據(jù)安全事件與安全責(zé)任精準(zhǔn)定義到人。因此,以生成式人工智能為核心的可疑第三方檢測模型算法,能夠利用事件同源分析、樣本同源分析和多種關(guān)聯(lián)分析等自動(dòng)化分析技術(shù),驅(qū)動(dòng)數(shù)據(jù)安全責(zé)任界定有理有據(jù)。
第二,知識學(xué)習(xí)。傳統(tǒng)政府?dāng)?shù)據(jù)安全事件通常采用類別化的知識學(xué)習(xí)模式,不利于經(jīng)驗(yàn)的全面反饋總結(jié),加上一些政府部門的數(shù)據(jù)安全風(fēng)險(xiǎn)調(diào)查報(bào)告宏觀空洞、流于形式,所提出的對策建議針對性不足、操作性不強(qiáng),對避免陷入新的風(fēng)險(xiǎn)陷阱、遭遇新的安全危機(jī)助益不大。相比之下,生成式人工智能基于多源數(shù)據(jù)的綜合集成與語義融合,能夠通過自主建模、圖形化組件和深度學(xué)習(xí)構(gòu)建政府?dāng)?shù)據(jù)安全知識圖譜,打通“數(shù)據(jù)—知識—服務(wù)”的轉(zhuǎn)化路徑。政府?dāng)?shù)據(jù)安全知識圖譜主要包含模式維、事件維和實(shí)體維。模式維,從領(lǐng)域知識庫以及歷史案例庫中提取并抽象出政府?dāng)?shù)據(jù)安全治理模式;事件維,重點(diǎn)關(guān)注政府?dāng)?shù)據(jù)安全事件屬性、邏輯演化規(guī)律和時(shí)空演變狀態(tài);實(shí)體維,涉及政府?dāng)?shù)據(jù)安全事件人員保障、物資保障、技術(shù)保障等資源配置。隨著政府?dāng)?shù)據(jù)安全知識圖譜的豐富,生成式人工智能可以進(jìn)一步厘清模式、事件和實(shí)體之間的關(guān)聯(lián),優(yōu)化政府?dāng)?shù)據(jù)安全知識管理體系。比如,浙江省某政務(wù)服務(wù)數(shù)據(jù)管理局持續(xù)豐富數(shù)據(jù)安全風(fēng)險(xiǎn)反饋評估策略,借助生成式人工智能持續(xù)學(xué)習(xí)、自我進(jìn)化的能力,對看似不相關(guān)的多方位情報(bào)進(jìn)行橫向、縱向關(guān)聯(lián),深度挖掘多維線索之間隱藏的內(nèi)在聯(lián)系,從攻擊、告警、異常中抽取事件、實(shí)體與模式間的關(guān)系,構(gòu)建直觀、明晰、可溯源的數(shù)據(jù)安全知識圖譜;通過對重要數(shù)據(jù)安全風(fēng)險(xiǎn)來源與行為等的“學(xué)習(xí)”,建立訪問來源和訪問行為的安全基線,并以此作為進(jìn)一步發(fā)現(xiàn)數(shù)據(jù)安全風(fēng)險(xiǎn)因子的基礎(chǔ)。
3 溢出之惡:生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的風(fēng)險(xiǎn)
生成式人工智能運(yùn)用算法智慧改變了由人作為單一主體的“鏈?zhǔn)健睌?shù)據(jù)安全風(fēng)險(xiǎn)應(yīng)對模式,不斷形塑“復(fù)合式”“立體式”的政府?dāng)?shù)據(jù)安全“人機(jī)共治”新格局。然而,由于信息技術(shù)內(nèi)嵌于政府治理并非總是產(chǎn)生正向影響,生成式人工智能的應(yīng)用仍然存在一系列可能的風(fēng)險(xiǎn)點(diǎn),需在厘清可能的風(fēng)險(xiǎn)表現(xiàn)之后,有針對性地提出應(yīng)對策略。
3.1 黑箱階段:數(shù)據(jù)泄漏
在黑箱階段,數(shù)據(jù)過度挖掘及其衍生的數(shù)據(jù)泄漏等風(fēng)險(xiǎn)成為生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理所引致的主要風(fēng)險(xiǎn)之一。對于生成式人工智能而言,其強(qiáng)大的內(nèi)容生成能力源于對海量數(shù)據(jù)的深度挖掘。為了通過多信源的相互補(bǔ)充與印證,構(gòu)建政府?dāng)?shù)據(jù)安全風(fēng)險(xiǎn)“感知網(wǎng)”,提升風(fēng)險(xiǎn)監(jiān)測預(yù)警的準(zhǔn)確性與“能見度”,生成式人工智能需要盡可能多地爬取數(shù)據(jù)用于建立巨大的語料庫。然而,目前缺乏對生成式人工智能數(shù)據(jù)收集問題的相關(guān)標(biāo)準(zhǔn)與規(guī)制,在很大程度上容易產(chǎn)生數(shù)據(jù)過度采集和數(shù)據(jù)泄漏的安全隱憂。OpenAI在生成式人工智能訓(xùn)練過程中加入了“人類反饋強(qiáng)化學(xué)習(xí)”的訓(xùn)練方法,能夠根據(jù)工作人員的數(shù)據(jù)對照標(biāo)注進(jìn)行對抗強(qiáng)化訓(xùn)練,不斷糾正反饋模型的偏差,使生成式人工智能的表達(dá)方式與生成內(nèi)容更符合政府工作人員的偏好答案。因此,政府需要運(yùn)用大量數(shù)據(jù)對生成式人工智能進(jìn)行訓(xùn)練,提升其判斷、預(yù)測與輔助決策的能力。在訓(xùn)練數(shù)據(jù)過程中,“未經(jīng)授權(quán)”和“超越授權(quán)”獲得數(shù)據(jù)的情形若發(fā)生,則會(huì)加劇政府?dāng)?shù)據(jù)泄漏、數(shù)據(jù)投毒、逆向攻擊、模型竊取等風(fēng)險(xiǎn)。此外,生成式人工智能已經(jīng)具備了為部分代碼片段提供輔助指導(dǎo)和查缺補(bǔ)漏的功能,這無疑會(huì)降低惡意代碼編寫的技術(shù)門檻和成本時(shí)間,若被不法分子惡意利用,深度造假、竊取機(jī)密情報(bào)、破解驗(yàn)證碼、蜂擁式攻擊等風(fēng)險(xiǎn)則會(huì)加劇,嚴(yán)重者可導(dǎo)致政府?dāng)?shù)據(jù)分類分級發(fā)生錯(cuò)誤、政府?dāng)?shù)據(jù)安全態(tài)勢研判失誤。
3.2 灰箱階段:決策失誤
在灰箱階段,數(shù)據(jù)質(zhì)量難以保證與決策后果不可預(yù)測成為生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的主要風(fēng)險(xiǎn)之一。目前,以“數(shù)據(jù)—算法—算力”為依托的生成式人工智能所使用的方法本質(zhì)上屬于整合、分類、歸納、判斷、試錯(cuò)等經(jīng)驗(yàn)與反饋方法,在方法論層面并不完備。政府?dāng)?shù)據(jù)安全突發(fā)事件應(yīng)急響應(yīng)涉及目標(biāo)、價(jià)值、環(huán)境等客觀事實(shí)。在此期間,生成式人工智能看起來功效顯著,能夠在對特定安全場景的預(yù)測基礎(chǔ)之上,自動(dòng)化編排方案并進(jìn)行比選,根據(jù)前置性安全目標(biāo)確定最優(yōu)決策方案,但實(shí)際上高度依賴政府以往的類似經(jīng)驗(yàn),這意味著歷史數(shù)據(jù)的完整性、有效性和準(zhǔn)確性至關(guān)重要。然而,政府?dāng)?shù)據(jù)范圍與體量的不斷擴(kuò)大會(huì)稀釋有效數(shù)據(jù),這在某種程度上增加了生成式人工智能經(jīng)過合并算法與深度學(xué)習(xí)后得到“滿意解”的難度。另外,政府?dāng)?shù)據(jù)安全突發(fā)事件充滿了變數(shù),應(yīng)急響應(yīng)往往需要跨區(qū)域、跨層級、跨部門的組織與人員協(xié)同,其資源、能力以及認(rèn)知均存在一定差異。這些方面正是生成式人工智能最難以把握的變量。此外,深度學(xué)習(xí)驅(qū)動(dòng)下生成式人工智能具有“幻覺傾向”,容易產(chǎn)生無意義或不真實(shí)的內(nèi)容,極有可能給出一個(gè)“有理有據(jù)”,卻是政府完全沒有考慮過的決策方案。特別是隨著政府工作人員對生成式人工智能逐漸產(chǎn)生信任,這種“幻覺傾向”的有害性會(huì)更加明顯,可能導(dǎo)致政府?dāng)?shù)據(jù)安全決策失誤,削弱政府的公信力。
3.3 白箱階段:主體性危機(jī)
在白箱階段,量責(zé)評估偏差與人的學(xué)習(xí)判斷能力削弱成為生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的主要風(fēng)險(xiǎn)之一。技術(shù)所引致的風(fēng)險(xiǎn)有可能來自系統(tǒng)的使用方式,也有可能來自系統(tǒng)的設(shè)計(jì)方式[28]。生成式人工智能擅長的是利用大量投喂的學(xué)習(xí)資料后的“綜述式輸出”與根據(jù)統(tǒng)計(jì)概率的“查表式回答”[29],其內(nèi)容輸出主要受系統(tǒng)設(shè)定者內(nèi)嵌邏輯的影響。受“算法迷信”“技術(shù)至上”等觀念的影響,部分政府工作人員將模型生成的決策參考視為深思熟慮過的“標(biāo)準(zhǔn)答案”,成為問責(zé)偏差的“龐大贊成基數(shù)”。在這種情況下,當(dāng)系統(tǒng)設(shè)定者以“把關(guān)人”的身份篩選數(shù)據(jù)信息時(shí),若將帶有偏見的信息植入數(shù)據(jù)模型庫,則生成式人工智能生成的量責(zé)結(jié)果或?qū)⒊蔀槟承┬袨槭М?dāng)?shù)呢?zé)任主體規(guī)避責(zé)任、提供掩護(hù)的工具。隨著技術(shù)的深度嵌入與廣泛應(yīng)用,人與機(jī)器的界限更加模糊,基于生成式人工智能獨(dú)立做出的應(yīng)急響應(yīng)決策在實(shí)踐中一旦失靈,則可能引致人與技術(shù)之間推諉責(zé)任的現(xiàn)象。與此同時(shí),政府部門對智能系統(tǒng)熟悉度的日益提高,會(huì)加劇相關(guān)人員對智能設(shè)備的高度依賴,進(jìn)而影響責(zé)任主體治理經(jīng)驗(yàn)的總結(jié)與反饋能力的提升。當(dāng)政府工作人員的治理能力與生成式人工智能的迭代進(jìn)化形成明顯的“能力墮距”時(shí),人的獨(dú)特性主體優(yōu)勢在智能體時(shí)代將以“潤人細(xì)無聲”的方式被邊緣化,引致主體性危機(jī)。
4 生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的應(yīng)對策略
天下之器,馭之以道。隨著認(rèn)知智能、類腦智能、混合智能等人工智能基礎(chǔ)理論與技術(shù)手段的突破發(fā)展,生成式人工智能逐漸成為政府治理可欲和可為的發(fā)展方向[30]。正如“ChatGPT之父”薩姆·奧特曼(Sam Altman)既肯定生成式人工智能的智慧特征,也承認(rèn)這種“力量倍增器”存在的潛在風(fēng)險(xiǎn),當(dāng)前,如何保障生成式人工智能與政府?dāng)?shù)據(jù)安全治理目標(biāo)、價(jià)值、理念的契合統(tǒng)一,在實(shí)現(xiàn)以智聚能與以智釋能的同時(shí),確保生成式人工智能的價(jià)值向善,成為政府?dāng)?shù)據(jù)安全治理的重要議題。本文基于前文分析,主要從技術(shù)、規(guī)則和組織三個(gè)維度提出應(yīng)對策略。
4.1 技術(shù)維度:推動(dòng)生成式人工智能精細(xì)化治理
政府應(yīng)通過“程序正義”與“價(jià)值向善”來降低生成式人工智能所可能引致的安全風(fēng)險(xiǎn)。具體包括兩方面。一是要做好數(shù)據(jù)源頭把關(guān),重點(diǎn)提升訓(xùn)練數(shù)據(jù)與數(shù)據(jù)標(biāo)注的質(zhì)量。在訓(xùn)練數(shù)據(jù)環(huán)節(jié),政府應(yīng)使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型,采用檢索增強(qiáng)的方式提高訓(xùn)練數(shù)據(jù)的實(shí)時(shí)性和真實(shí)性,避免生成涵蓋錯(cuò)誤信息、偏見觀點(diǎn)以及具有誘導(dǎo)傾向的內(nèi)容。在數(shù)據(jù)標(biāo)注環(huán)節(jié),政府應(yīng)嚴(yán)格制定標(biāo)注規(guī)則,適時(shí)開展數(shù)據(jù)標(biāo)注質(zhì)量評估,并對標(biāo)注人員進(jìn)行培訓(xùn)。二是夯實(shí)算法代碼的開源工作,增強(qiáng)算法代碼的可解釋性和透明度。生成式人工智能算法具有“黑箱”特性,表現(xiàn)為設(shè)計(jì)不公開、運(yùn)行不透明、行為不可控以及決策機(jī)制難解釋。對此,應(yīng)進(jìn)一步明確算法備案要求,強(qiáng)化對算法機(jī)理的充分說明和監(jiān)督檢查,建立健全投訴、舉報(bào)機(jī)制,提升算法的透明度與問責(zé)性,以確保生成式人工智能的發(fā)展方向與政府?dāng)?shù)據(jù)安全治理的價(jià)值與目標(biāo)相統(tǒng)一。
4.2 規(guī)則維度:健全全域政府?dāng)?shù)據(jù)安全治理體系
從系統(tǒng)論出發(fā),應(yīng)不斷完善事前可監(jiān)測、事中全留痕、事后可追溯的全域政府?dāng)?shù)據(jù)安全治理體系(圖2),以確保生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的“全棧安全”。在制度層面,深化政府?dāng)?shù)據(jù)安全頂層設(shè)計(jì)與標(biāo)準(zhǔn)規(guī)范,共筑方針、規(guī)范、計(jì)劃等保障機(jī)制。在主體層面,明確政府部門業(yè)務(wù)人員、管理人員、決策人員、運(yùn)維人員以及數(shù)據(jù)分析師、數(shù)據(jù)安全工程師、數(shù)據(jù)科學(xué)家等主體的數(shù)據(jù)安全責(zé)任邊界,合理分配人工智能供應(yīng)鏈中的模型提供者、模型部署者和模型使用者的義務(wù)范圍,健全全流程、可溯源、可追責(zé)治理體系。在平臺(tái)層面,通過高效聯(lián)動(dòng)探針和矩陣產(chǎn)品的安全信息數(shù)據(jù),將多類型的日志、流量數(shù)據(jù)匯聚到平臺(tái)內(nèi),通過平臺(tái)的內(nèi)置模型進(jìn)行綜合分析,建立監(jiān)測預(yù)警平臺(tái)、應(yīng)急響應(yīng)平臺(tái)和安全評估平臺(tái)。在運(yùn)營層面,確保模型、指標(biāo)、威脅情報(bào)的感知與研判,做實(shí)數(shù)據(jù)靜態(tài)脫敏、動(dòng)態(tài)脫敏、分類分級等工作,建立配套的分析研判中心和綜合防控中心,以保障數(shù)據(jù)安全管控平臺(tái)的安全運(yùn)營。在流程層面,建立適應(yīng)數(shù)據(jù)動(dòng)態(tài)流動(dòng)的治理流程,形成安全防護(hù)、監(jiān)測預(yù)警、應(yīng)急響應(yīng)、安全評估的數(shù)據(jù)安全監(jiān)督管理閉環(huán),消解生成式人工智能賦能數(shù)據(jù)匯聚、流動(dòng)及交換共享過程中產(chǎn)生的數(shù)據(jù)安全風(fēng)險(xiǎn)。
4.3 組織維度:培育全鏈路政府?dāng)?shù)據(jù)安全治理能力
生成式人工智能雖然具備“矛”與“盾”的兩面性,但其出現(xiàn)直接對標(biāo)的是人的智慧,這意味著生成式人工智能對政府?dāng)?shù)據(jù)安全治理的影響,本質(zhì)上取決于相關(guān)責(zé)任主體現(xiàn)有的數(shù)據(jù)安全治理能力。據(jù)此,應(yīng)從環(huán)境安全、業(yè)務(wù)安全、訪問安全、傳輸安全及安全管理等多個(gè)維度提升相關(guān)責(zé)任主體的安全防護(hù)能力,不斷細(xì)化數(shù)據(jù)安全管控粒度,實(shí)現(xiàn)全域數(shù)據(jù)集成、高效數(shù)據(jù)開發(fā)、主動(dòng)數(shù)據(jù)共享、全面數(shù)據(jù)安全和精準(zhǔn)應(yīng)急響應(yīng)。在組織建設(shè)方面,不斷完善數(shù)據(jù)安全組織架構(gòu)、權(quán)責(zé)分配和溝通協(xié)作。在制度流程方面,規(guī)范數(shù)據(jù)安全領(lǐng)域的制度設(shè)計(jì)、流程執(zhí)行與法理標(biāo)準(zhǔn),確定業(yè)務(wù)系統(tǒng)內(nèi)、各業(yè)務(wù)系統(tǒng)間以及組織外部活動(dòng)的協(xié)調(diào)機(jī)制。在技術(shù)工具方面,應(yīng)注重政府?dāng)?shù)據(jù)安全治理的技術(shù)協(xié)同,不斷優(yōu)化神經(jīng)網(wǎng)絡(luò)、數(shù)據(jù)探針、多方計(jì)算、貝葉斯網(wǎng)絡(luò)、時(shí)序關(guān)聯(lián)等技術(shù)手段和產(chǎn)品工具,以保障數(shù)據(jù)安全“治理術(shù)”的功能拓展和價(jià)值增值。在人員能力方面,應(yīng)推動(dòng)數(shù)據(jù)安全治理職能部門或機(jī)構(gòu)的技術(shù)能力與專業(yè)素養(yǎng)建設(shè),除了協(xié)同安全監(jiān)管、行業(yè)主管、數(shù)據(jù)責(zé)任單位、使用單位及運(yùn)營單位力量等主體之外,還應(yīng)協(xié)同數(shù)據(jù)安全業(yè)務(wù)系統(tǒng)開發(fā)商、技術(shù)研發(fā)單位、安全治理咨詢企業(yè)、運(yùn)維服務(wù)企業(yè)等多方力量,構(gòu)建多元主體互動(dòng)與耦合聯(lián)動(dòng)的數(shù)據(jù)安全治理共同體,營造數(shù)據(jù)安全治理合作生態(tài)。
5 結(jié)論與啟示
本文基于政府?dāng)?shù)據(jù)安全生命周期治理視角,探索生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的機(jī)遇與風(fēng)險(xiǎn),并有針對性地提出應(yīng)對策略??偟膩碚f,本文的邊際貢獻(xiàn)主要體現(xiàn)在兩個(gè)方面:一方面,區(qū)別于當(dāng)前對政府?dāng)?shù)據(jù)治理與人工智能的宏觀研究,本文重點(diǎn)考察生成式人工智能與政府?dāng)?shù)據(jù)安全治理的內(nèi)在關(guān)聯(lián),推進(jìn)了技術(shù)賦能政府?dāng)?shù)據(jù)治理的研究空間;另一方面,本文搭建了“黑箱階段—灰箱階段—白箱階段”的研究框架,從動(dòng)態(tài)視角明確了生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的內(nèi)在邏輯,從技術(shù)、規(guī)則和組織三個(gè)方面,為數(shù)智時(shí)代以數(shù)據(jù)要素高水平安全保障高質(zhì)量發(fā)展提供了實(shí)踐指導(dǎo)。
本文具有三方面的實(shí)踐啟示。第一,在數(shù)智時(shí)代背景下,隨著數(shù)據(jù)安全風(fēng)險(xiǎn)與治理活動(dòng)的復(fù)雜性逐漸超出人類大腦所能判斷和計(jì)算的最高閾值,傳統(tǒng)單純依靠“人治”的治理模式愈發(fā)“力不從心”。生成式人工智能采用深度學(xué)習(xí)技術(shù)和大型語料庫的訓(xùn)練模式,依托深度學(xué)習(xí)強(qiáng)大的特征學(xué)習(xí)與函數(shù)逼近能力,能夠即時(shí)理解指令、執(zhí)行指令并給予人性化反饋,實(shí)現(xiàn)智能化的人機(jī)交互,其賦能作用為政府?dāng)?shù)據(jù)安全策略制定、風(fēng)險(xiǎn)監(jiān)測、隱患防范等方面提供了新的機(jī)遇。第二,隨著作用范圍的擴(kuò)大與深化,生成式人工智能可以利用評價(jià)性反饋實(shí)現(xiàn)序貫行為學(xué)習(xí)和優(yōu)化控制,在反復(fù)調(diào)適與訓(xùn)練中提升環(huán)境適應(yīng)性能力,在政府?dāng)?shù)據(jù)安全治理過程中實(shí)現(xiàn)“不適應(yīng)—淺適應(yīng)—加深適應(yīng)—契合”的狀態(tài)更新和能力進(jìn)化。第三,與其他技術(shù)人工物一樣,生成式人工智能與人的意向性高度相關(guān),其功能可以被善使用,也可以被惡使用,需要相關(guān)責(zé)任主體的價(jià)值引領(lǐng)與制度規(guī)范,不斷明確生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理的價(jià)值要求與功能限度,緩解技術(shù)賦能和安全防護(hù)之間的內(nèi)在張力,不斷探索二者“更優(yōu)”的融合方式與協(xié)同進(jìn)路。
作為一種建構(gòu)性探索,本文仍存在一些不足:僅從宏觀視角對生成式人工智能賦能政府?dāng)?shù)據(jù)安全治理提供了基于全生命周期、全流程的思路啟示;實(shí)踐檢驗(yàn)與案例分析相對匱乏,等等。未來,應(yīng)結(jié)合具體場景、不同案例、規(guī)制需求進(jìn)行細(xì)化、補(bǔ)充與完善,圍繞提升政府?dāng)?shù)據(jù)安全治理效能開展持續(xù)性研究。
參考文獻(xiàn):
[1] 李貝雷. 人工智能嵌入國家安全的應(yīng)用場景、潛在風(fēng)險(xiǎn)及其應(yīng)對策略研究[J]. 情報(bào)雜志, 2023, 42(4): 20-26, 19.
LI B L. Artificial intelligence embedded in national security: Technology application scenarios, potential risks, and countermeasures[J]. Journal of Intelligence, 2023, 42(4): 20-26, 19.
[2] 張愛軍, 賈璐. 類ChatGPT人工智能語境下網(wǎng)絡(luò)輿情安全的風(fēng)險(xiǎn)樣態(tài)及其規(guī)制[J]. 情報(bào)雜志, 2023, 42(12): 180-187.
ZHANG A J, JIA L. Risk patterns and regulations of online public opinion Security in the context of ChatGPT[J]. Journal of Intelligence, 2023, 42(12): 180-187.
[3] 封帥. 國家安全學(xué)視域下的人工智能安全研究: 議題網(wǎng)絡(luò)建構(gòu)的初步嘗試[J]. 國際安全研究, 2023, 41(1): 26-49, 157.
FENG S. Research on artificial intelligence security from the perspective of national security studies: A preliminary attempt to construct an issue network[J]. Journal of International Security Studies, 2023, 41(1): 26-49, 157.
[4] ACEMOGLU D, AUTOR D. Skills, tasks and technologies: Implications for employment and earnings[M]// Handbook of Labor Economics. Amsterdam: Elsevier, 2011: 1043-1171.
[5] AUTOR D H, LEVY F, MURNANE R J. The skill content of recent technological change: An empirical exploration[J]. The Quarterly Journal of Economics, 2003, 118(4): 1279-1333.
[6] FUMAGALLI E, REZAEI S, SALOMONS A. OK computer: Worker perceptions of algorithmic recruitment[J]. Research Policy, 2022, 51(2): 104420.
[7] 劉瑋. ChatGPT類生成式人工智能嵌入數(shù)字政府建設(shè): 可供、限制與優(yōu)化——基于技術(shù)可供性視角[J]. 情報(bào)理論與實(shí)踐, 2023, 46(10): 69-76.
LIU W. ChatGPT-like generative Al embedded in digital government construction from technology affordance perspective: Affordance, limitation and optimization[J]. Information Studies: Theory & Application, 2023, 46(10): 69-76.
[8] 何振, 彭海艷. 人工智能背景下政府?dāng)?shù)據(jù)治理新挑戰(zhàn)、新特征與新路徑[J]. 湘潭大學(xué)學(xué)報(bào): 哲學(xué)社會(huì)科學(xué)版, 2021, 45(6): 82-88.
HE Z, PENG H Y. New challenges, features and paths of government data governance under the background of artificial intelligence[J]. Journal of Xiangtan University (Philosophy and Social Sciences), 2021, 45(6): 82-88.
[9] 汪玉凱. 數(shù)據(jù)治理的內(nèi)涵、困境及其實(shí)踐路徑[J]. 社會(huì)治理, 2023(3): 4-11.
WANG Y K. The connotation, dilemma, and practical path of data governance[J]. Social Governance Review, 2023(3): 4-11.
[10] 譚必勇, 劉芮. 英國政府?dāng)?shù)據(jù)治理體系及其對我國的啟示: 走向“善治”[J]. 信息資源管理學(xué)報(bào), 2020, 10(5): 55-65.
TAN B Y, LIU R. British government data governance system and its enlightenment to China: “good governance”[J]. Journal of Information Resources Management, 2020, 10(5): 55-65.
[11] VAN DIS E A M, BOLLEN J, ZUIDEMA W, et al. ChatGPT: Five priorities for research[J]. Nature, 2023, 614(7947): 224-226.
[12] 陳潭, 劉璇. 智能政務(wù)ChatGPT化的前景與隱憂[J]. 電子政務(wù), 2023(4): 36-44.
CHEN T, LIU X. The prospects and hidden worries of ChatGPT based intelligent government[J]. E-Government, 2023(4): 36-44.
[13] 汪波, 牛朝文. 從ChatGPT到GovGPT: 生成式人工智能驅(qū)動(dòng)的政務(wù)服務(wù)生態(tài)系統(tǒng)構(gòu)建[J]. 電子政務(wù), 2023(9): 25-38.
WANG B, NIU C W. From ChatGPT to GovGPT: Building a generative artificial intelligence driven government service ecosystem[J]. E-Government, 2023(9): 25-38.
[14] SEBASTIAN G. Do ChatGPT and other AI chatbots pose a cybersecurity risk?: An exploratory study[J]. International Journal of Security and Privacy in Pervasive Computing (IJSPPC), 2023, 15(1): 1-11.
[15] SHARMA A. The escalation of ChatGPT: How ChatGPT will exert influence on the legal profession?[J]. Jus Corpus Law Journal, 2023, (3): 106.
[16] 孔祥承. 國家安全視閾下生成式人工智能的法治應(yīng)對: 以ChatGPT為視角[J]. 法治研究, 2023(5): 61-70.
KONG X C. The rule of law response to generative artificial intelligence from the perspective of national security[J]. Research on Rule of Law, 2023(5): 61-70.
[17] 張凌寒, 于琳. 從傳統(tǒng)治理到敏捷治理: 生成式人工智能的治理范式革新[J]. 電子政務(wù), 2023(9): 2-13.
ZHANG L H, YU L. From traditional governance to agile governance: Innovations in the governance paradigm of generative artificial intelligence[J]. E-Government, 2023(9): 2-13.
[18] 代金平, 覃楊楊. ChatGPT等生成式人工智能的意識形態(tài)風(fēng)險(xiǎn)及其應(yīng)對[J]. 重慶大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版), 2023, 29(5): 101-110.
DAI J P, QIN Y Y. The ideological risks of generative artificial intelligence such as ChatGPT and its response[J]. Journal of Chongqing University (Social Science Edition), 2023, 29(5): 101-110.
[19] 李昊霖, 吳苑菲. 數(shù)字化時(shí)代政府?dāng)?shù)據(jù)協(xié)同安全治理路徑探究[J]. 網(wǎng)絡(luò)空間安全, 2023, 14(3): 35-40.
LI H F, WU Y F. Research on the path of government data a collaborative security governance in the digital age[J]. Cyberspace Security, 2023, 14(3): 35-40.
[20] 佟林杰, 劉博. 信息生態(tài)視域下政府?dāng)?shù)據(jù)開放中的數(shù)據(jù)安全和隱私保護(hù)問題研究[J]. 圖書館理論與實(shí)踐, 2020(5): 67-72.
TONG L J, LIU B. Research on data security and privacy protection in government data opening from the perspective of information ecology[J]. Library Theory and Practice, 2020(5): 67-72.
[21] 曹惠民, 鄧婷婷. 政府?dāng)?shù)據(jù)治理風(fēng)險(xiǎn)及其消解機(jī)制研究[J]. 電子政務(wù), 2021(1): 81-91.
CAO H M, DENG T T. Research on government data governance risks and their resolution mechanisms[J]. E-Government, 2021(1): 81-91.
[22] 胡峰. 基于壓電式理論的政府?dāng)?shù)據(jù)安全治理體系構(gòu)建及實(shí)現(xiàn)路徑研究[J]. 電子政務(wù), 2021(11): 103-116.
HU F. Research on the construction and implementation path of government data security governance system based on piezoelectric theory[J]. E-Government, 2021(11): 103-116.
[23] 王秉, 史志勇, 周佳勝. 安全情報(bào)視域下的安全態(tài)勢感知與塑造模型[J]. 情報(bào)理論與實(shí)踐, 2023, 46(1): 1-6.
WANG B, SHI Z Y, ZHOU J S. A model for safety & security situation awareness and shaping from a perspective of safety & security intelligence[J]. Information Studies: Theory & Application, 2023, 46(1): 1-6.
[24] 高文勇. 人工智能應(yīng)對突發(fā)事件的精準(zhǔn)治理: 基于“結(jié)構(gòu)-過程”維度的要素分析[J]. 學(xué)術(shù)探索, 2021(8): 85-95.
GAO W Y. Accurate governance of artificial intelligence in response to emergencies: Element analysis based on the “structure-process” dimension[J]. Academic Exploration, 2021(8): 85-95.
[25] 徐惠麗. 用安全筑牢上海“一網(wǎng)統(tǒng)管”底座,向世界展 現(xiàn)“中國之治”新境界[EB/OL]. (2021-04-27)[2023-06-02]. http://www.cnr.cn/shanghai/tt/20210427/ t20210427_525473276.shtml.
XU H L. Building the foundation of Shanghai’s “One Network Unified Management” with safety, showcasing a new realm of “Chinese governance” to the world[EB/OL]. (2021-04-27)[2023-06-02]. http://www.cnr.cn/shanghai/tt/20210427/ t20210427_525473276.shtml.
[26] 張龍輝, 肖克. 人工智能應(yīng)用下的特大城市風(fēng)險(xiǎn)治理: 契合、技術(shù)變革與路徑[J]. 理論月刊, 2020(9): 60-72.
ZHANG L H, XIAO K. Risk management of megacities in the application of artificial intelligence: Coincidence, technological changes and paths[J]. Theory Monthly, 2020(9): 60-72.
[27] 劉晨暉, 王能民. 基于壓電式理論的網(wǎng)絡(luò)安全事件應(yīng)急響應(yīng)體系: 美國的實(shí)踐啟示[J]. 情報(bào)雜志, 2021, 40(3): 112-117, 31.
LIU C H, WANG N M. A cyber security incident response system based on piezoelectric theory: The practice in the United States and its implications[J]. Journal of Intelligence, 2021, 40(3): 112-117, 31.
[28] 張璐. 通用人工智能風(fēng)險(xiǎn)治理與監(jiān)管初探: ChatGPT引發(fā)的問題與挑戰(zhàn)[J]. 電子政務(wù), 2023(9): 14-24.
ZHANG L. Preliminary exploration of risk governance and regulation in general artificial intelligence-issues and challenges caused by ChatGPT[J]. E-Government, 2023(9): 14-24.
[29] 陳一, 徐衡. 共識、共舞、共進(jìn): 智聯(lián)社會(huì)的人工智能素養(yǎng)——基于類ChatGPT技術(shù)的討論[J]. 青年學(xué)報(bào), 2023(3): 38-42.
CHEN Y, XU H. Consensus, dance together, and progress together: The artificial intelligence literacy in the smart connected society—A discussion based on ChatGPT-like technology[J]. Youth Research, 2023(3): 38-42.
[30] 曾宇航, 史軍. 政府治理中的生成式人工智能: 邏輯理路與風(fēng)險(xiǎn)規(guī)制[J]. 中國行政管理, 2023, 39(9): 90-95.
ZENG Y H, SHI J. The application of generative artificial intelligence in government governance: Logical approach and risk regulation[J]. Chinese Public Administration, 2023, 39(9): 90-95.
作者貢獻(xiàn)說明:
姚怡帆:確定研究選題,搭建論文框架,撰寫論文初稿;
胡 峰:搜集文獻(xiàn),修改論文;
許正中:修改論文。
Opportunities, Risks, and Countermeasures for Empowering Government Data Security Governance with Generative Artificial Intelligence
Yao Yifan1 Hu Feng2, 3 Xu Zhengzhong4
1National Security School(School of Politics, Law and Public Administration)of Shaanxi Normal University, Xi’an 710119
2 Jiangsu Academy of Science and Technology for Development (Jiangsu Information Institute of Science and Technology), Nanjing 210042
3 National Security and Emergency Management Research Center of Nanjing Normal University, Nanjing 210023
4 Economics Teaching and Research Department of the Central Party School (National School of Administration), Beijing 100091
Abstract: [Purpose/Significance] Generative artificial intelligence serves as a novel driving force for promoting the high-level security of data elements. It acts as a catalyst for the high-quality development of government data security, and provides a strategic advantage in modernizing the government data governance system and its capabilities. [Method/Process] This study examines the full lifecycle process of the black box, gray box, and white box stages of government data security governance, and analyzes the opportunities and risks caused by the empowerment of generative artificial intelligence in each stage, and further propose response strategies. [Result/Conclusion] Generative artificial intelligence can significantly enhance pre-monitoring and early warning, emergency response during events, and post feedback evaluation. However, it also introduces governance risks such as data leakage, decision-making errors, and crisis of subjectivity. To mitigate these risks, it is imperative to advancing the refined governance of generative artificial intelligence, improving the comprehensive government data security governance system, and cultivating the full chain government data security governance capability are important strategies to ensure the good technology and governance of generative artificial intelligence.
Keywords: government data security governance generative artificial intelligence full lifecycle data risk prevention and control
收稿日期:2023-11-07 修回日期:2024-02-09