国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

國家安全視閾下生成式人工智能的法治應(yīng)對(duì)
——以ChatGPT 為視角

2024-01-18 18:07:21孔祥承
法治研究 2023年5期
關(guān)鍵詞:規(guī)制人工智能算法

孔祥承

一、問題緣起:生成式人工智能的勃興

在人類發(fā)展史上,第一次工業(yè)革命將水蒸氣變成動(dòng)力,實(shí)現(xiàn)了生產(chǎn)的機(jī)械化。第二次工業(yè)革命通過電力實(shí)現(xiàn)了大規(guī)模的生產(chǎn)。第三次工業(yè)革命使電子與信息技術(shù)得到普及,實(shí)現(xiàn)了生產(chǎn)自動(dòng)化。①參見商周刊編輯:《聚焦“第四次工業(yè)革命”》,載《商周刊》2016 年第3-4 期。當(dāng)下,人類社會(huì)正在經(jīng)歷第四次工業(yè)革命,此次革命的典型代表便是人工智能。②參見孫繼榮:《責(zé)任時(shí)代:變革與創(chuàng)新》,中國經(jīng)濟(jì)出版社2018 年版,第615 頁。1956 年,美國達(dá)特茅斯學(xué)院“如何用機(jī)器模擬人的智能”研討會(huì)首次提出“人工智能”這一稱謂,標(biāo)志著人工智能學(xué)科的誕生。③參見國家網(wǎng)信辦:《人工智能的歷史、現(xiàn)狀和未來》,http://www.cac.gov.cn/2019-02/16/c_1124122584.htm,2023 年4 月27 日訪問。當(dāng)時(shí),對(duì)人工智能的基本設(shè)想是一種描述智能,并據(jù)此制造仿真機(jī)器。雖然后續(xù)各界對(duì)于人工智能概念的定義不盡相同,如有的學(xué)者將人工智能定義為由人類所制造的智能(機(jī)器的智能)。④參見鐘義信:《人工智能:概念·方法·機(jī)遇》,載《科學(xué)通報(bào)》2017 年第22 期。但是,無論采取何種定義方式,算法、算力與數(shù)據(jù)始終是人工智能的核心要素,在它們不斷迭代的基礎(chǔ)上,人工智能展現(xiàn)出與人類相近的直覺、靈感與想象,對(duì)各類問題能夠作出更為精準(zhǔn)的回答。⑤參見崔鐵軍、李莎莎:《人工系統(tǒng)中數(shù)據(jù)—因素—算力—算法作用及相互關(guān)系研究》,載《智能系統(tǒng)學(xué)報(bào)》2022 年第4 期。

近年來,人工智能技術(shù)快速發(fā)展,深度學(xué)習(xí)技術(shù)被引入人工智能領(lǐng)域,生成式對(duì)抗網(wǎng)絡(luò)(GAN)應(yīng)運(yùn)而生。在此背景下,生成式人工智能開始出現(xiàn)。與傳統(tǒng)人工智能按照預(yù)設(shè)算法運(yùn)行不同,生成式人工智能可以利用海量數(shù)據(jù)進(jìn)行分析,通過機(jī)器學(xué)習(xí)自主地生成具備一定價(jià)值的內(nèi)容。目前,為公眾所熟知的ChatGPT 便是一種典型的生成式人工智能,它可以對(duì)文本等內(nèi)容進(jìn)行分析,并據(jù)此生成學(xué)術(shù)論文、文學(xué)作品、新聞稿件等材料,極大地提升了工作效率。OpenAI 公司的ChatGPT 一經(jīng)問世便吸引了全球目光,并迅速成為人工智能領(lǐng)域的新寵。與此同時(shí),各大科技公司也紛紛跟進(jìn),積極研發(fā)能夠與ChatGPT 競(jìng)爭(zhēng)的產(chǎn)品,例如百度公司的文心一言、谷歌公司的Bard 等產(chǎn)品??梢灶A(yù)見,這類生成式人工智能在未來必將成為新的產(chǎn)業(yè)熱點(diǎn)。隨著ChatGPT 等生成式人工智能的蓬勃發(fā)展,這類技術(shù)所伴生的問題也逐漸浮出水面,數(shù)據(jù)泄露、算法歧視、虛假信息、思想陷阱等問題開始顯現(xiàn)。⑥參見於興中、鄭戈、丁曉東:《生成式人工智能與法律的六大議題:以ChatGPT 為例》,載《中國法律評(píng)論》2023 年第2 期。由于當(dāng)下人工智能的規(guī)制主要針對(duì)的是傳統(tǒng)人工智能,此時(shí)制度秩序與技術(shù)發(fā)展之間產(chǎn)生了脫節(jié),人們?cè)谑褂肅hatGPT 等生成式人工智能時(shí)隨時(shí)面臨技術(shù)“反噬”的風(fēng)險(xiǎn)。

當(dāng)前,多數(shù)國家已經(jīng)意識(shí)到ChatGPT 等生成式人工智能背后潛藏的風(fēng)險(xiǎn),嘗試對(duì)其進(jìn)行規(guī)制。從現(xiàn)有規(guī)制路徑來看,大多以隱私安全或知識(shí)產(chǎn)權(quán)為視角,從算法規(guī)制與數(shù)據(jù)監(jiān)管兩方面入手對(duì)人工智能進(jìn)行監(jiān)管。⑦參見本報(bào)記者:《涉嫌侵犯隱私,意大利禁用ChatGPT》,載《南國早報(bào)》2023 年4 月3 日,第10 版。但是,與傳統(tǒng)人工智能不同,ChatGPT 等生成式人工智能的風(fēng)險(xiǎn)并非僅限于算法或數(shù)據(jù)本身,還涉及到用于訓(xùn)練的基礎(chǔ)數(shù)據(jù)以及生成的內(nèi)容等多個(gè)方面。而且,多數(shù)生成式人工智能并非針對(duì)特定的環(huán)境或使用條件而設(shè)計(jì),它們的開放性和低門檻性使其得以被大規(guī)模使用,其所蘊(yùn)含的風(fēng)險(xiǎn)呈幾何式擴(kuò)張,有時(shí)甚至直接關(guān)涉國家安全。這類基于個(gè)人安全或產(chǎn)業(yè)安全而形成的“算法+數(shù)據(jù)”雙重規(guī)制路徑或許與生成式人工智能的監(jiān)管需求不相匹配。

與此同時(shí),我國對(duì)于ChatGPT 等生成式人工智能的規(guī)制也進(jìn)行了有益嘗試。國家網(wǎng)信辦在2023 年4月發(fā)布《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡(jiǎn)稱《征求意見稿》),開始探索建立生成式人工智能的監(jiān)管體系。需要注意的是,從《征求意見稿》文本來看,這種規(guī)制仍未擺脫基于個(gè)人安全或產(chǎn)業(yè)安全而形成的“算法+數(shù)據(jù)”雙重規(guī)制的基本框架。實(shí)際上,ChatGPT 等生成式人工智能的出現(xiàn)已經(jīng)引發(fā)了新一輪的技術(shù)革新,未來將會(huì)改寫全球產(chǎn)業(yè)格局,重構(gòu)各國科技競(jìng)爭(zhēng)版圖。早在2016 年,美國國家科技委員會(huì)(NSTC)便牽頭起草并發(fā)布了《為人工智能的未來做好準(zhǔn)備》《國家人工智能研究與發(fā)展戰(zhàn)略計(jì)劃》等重要報(bào)告,將人工智能的發(fā)展上升到國家競(jìng)爭(zhēng)層面。⑧參見荊林波、楊征宇:《聊天機(jī)器人(ChatGPT)的溯源及展望》,載《財(cái)經(jīng)智庫》2023 年第1 期。筆者認(rèn)為,國家安全是個(gè)人安全與產(chǎn)業(yè)安全的前提,在討論生成式人工智能的規(guī)制路徑時(shí),應(yīng)當(dāng)跳出個(gè)人安全或產(chǎn)業(yè)安全的固有思維,重點(diǎn)從國家安全的角度平衡發(fā)展和治理問題。按照《征求意見稿》的定義,生成式人工智能含義較廣,遍及文本、圖片、音頻、視頻、代碼等諸多領(lǐng)域,涉及到ChatGPT、Stable Diffusion、Synthesia、MusicLM 等相關(guān)產(chǎn)品。相較于其他生成式人工智能大多應(yīng)用于專業(yè)領(lǐng)域,ChatGPT 以其適用的廣泛性與低門檻性而備受矚目。有鑒于此,筆者嘗試以ChatGPT 為視角拋磚引玉,從歷史、技術(shù)、風(fēng)險(xiǎn)等多個(gè)向度,厘清生成式人工智能的基本特征,并對(duì)其可能帶來的國家安全風(fēng)險(xiǎn)進(jìn)行系統(tǒng)全面剖析,重點(diǎn)從國家安全的角度探索生成式人工智能的法治應(yīng)對(duì)策略,以期為后續(xù)政策制定提供有益參考。

二、ChatGPT 等生成式人工智能的形成及其特征

(一)ChatGPT 等生成式人工智能的歷史沿革

ChatGPT 的發(fā)展并非是一蹴而就的,而是經(jīng)歷了數(shù)個(gè)階段的發(fā)展歷程。自然語言處理是人工智能領(lǐng)域的一個(gè)重要組成部分,包括語音識(shí)別、網(wǎng)絡(luò)搜索、自動(dòng)問答和機(jī)器翻譯等多個(gè)應(yīng)用場(chǎng)景。無論是何種場(chǎng)景,考慮到語言本身充滿歧義,且依賴于語境與交談人的背景,如何理解和使用自然語言成為當(dāng)時(shí)人工智能發(fā)展面臨的一項(xiàng)重要挑戰(zhàn)。在最初的幾十年間,自然語言處理的相關(guān)研究主要集中在符號(hào)化與規(guī)則化等方面,即給定語法和其他語言規(guī)則,要求機(jī)器將這些規(guī)則運(yùn)用到用戶輸入的語句上,達(dá)到機(jī)器能夠“讀懂”語言的效果。從成效來看,這些方法在效果上并不盡如人意。一方面,規(guī)則和語法的輸入難以解決語言中的情感傾向、背景知識(shí)等問題。另一方面,傳統(tǒng)的自然語言處理模型采用一種記住已閱讀上文的同時(shí),理解正在閱讀的下文的方式來進(jìn)行語言讀取,亦即要求機(jī)器通過每一個(gè)單詞的讀取和反饋來提取總結(jié)整個(gè)句子的含義。這種方式使得在處理較長句子時(shí)無法獲取單詞或短語之間的語義關(guān)系,難以捕獲長句的重點(diǎn)。盡管OpenAI 公司在2016 年便提出制造“通用”機(jī)器人的構(gòu)想,但實(shí)際上并未取得實(shí)質(zhì)性的進(jìn)展。⑨參見網(wǎng)易科技:《OpenAI 宣稱將制造“通用”機(jī)器人》,https://www.163.com/tech/article/BQ2HQGHC00097U81.html,2023 年3 月21 日訪問。2017 年谷歌公司推出了Transformer 訓(xùn)練模型才使得該構(gòu)想成為可能。不同于以往的自然語言處理模型,Transformer 引入了自我注意機(jī)制(self-Attention)使得機(jī)器在閱讀過程中能夠進(jìn)行并行化運(yùn)算,擺脫了以往“斷章取義”的尷尬境況。

在Transformer 模型基礎(chǔ)上,2018 年OpenAI 公司推出了GPT-1。該產(chǎn)品主要在算法設(shè)計(jì)思路上有所創(chuàng)新。在GPT-1 之前,傳統(tǒng)的自然語言處理模型通常采取有監(jiān)督學(xué)習(xí)的方式,但是這種學(xué)習(xí)模式存在兩個(gè)缺點(diǎn)。其一,需要大量高質(zhì)量的標(biāo)注數(shù)據(jù),而實(shí)際上這類優(yōu)質(zhì)的標(biāo)注數(shù)據(jù)往往難以獲取,且耗費(fèi)成本較大。其二,任務(wù)方向偏重專業(yè)化,難以推廣至其他相關(guān)領(lǐng)域。GPT-1 則采取了一種類似半監(jiān)督學(xué)習(xí)的方式,利用多層神經(jīng)網(wǎng)絡(luò)技術(shù),通過在大規(guī)模無標(biāo)注數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,形成生成式自然語言處理模型,然后再根據(jù)特定任務(wù)對(duì)其進(jìn)行微調(diào)。⑩參見林懿倫、戴星原、李力、王曉、王飛躍:《人工智能研究的新前線:生成式對(duì)抗網(wǎng)絡(luò)》,載《自動(dòng)化學(xué)報(bào)》2018 年第5 期。在這種模式下,僅需要技術(shù)人員的微調(diào)而非對(duì)數(shù)據(jù)進(jìn)行逐個(gè)標(biāo)注,就能實(shí)現(xiàn)語言訓(xùn)練的效果,極大提升了學(xué)習(xí)效率。不過,此時(shí)的GPT-1 尚不成熟,其處理能力與有微調(diào)的有監(jiān)督學(xué)習(xí)相比并未取得明顯優(yōu)勢(shì)。

2019 年,OpenAI 公司推出了GPT-2,目標(biāo)在于訓(xùn)練一個(gè)適用任務(wù)范圍更為廣泛的模型。GPT-2 并沒有對(duì)GPT-1 的進(jìn)行更多“革命性”的結(jié)構(gòu)創(chuàng)新,只是使用了更多的參數(shù)和更大的數(shù)據(jù)集。?參見鄧莎莎、李鎮(zhèn)宇、潘煜:《ChatGPT 和AI 生成內(nèi)容:科學(xué)研究應(yīng)該采用還是抵制》,載《上海管理科學(xué)》2023 年第2 期。GPT-2 更多強(qiáng)調(diào)通過無監(jiān)督學(xué)習(xí)的預(yù)訓(xùn)練模型,完成有監(jiān)督的任務(wù)。換言之,研發(fā)者認(rèn)為所有的有監(jiān)督學(xué)習(xí)都是無監(jiān)督語言模型的一個(gè)子集,當(dāng)一個(gè)語言模型的容量足夠大時(shí),它就足以覆蓋所有的有監(jiān)督任務(wù)。在海量數(shù)據(jù)集的加持下,GPT-2 確實(shí)比GPT-1 表現(xiàn)的更為出色,甚至可以生成虛假新聞、釣魚郵件或用于在線角色扮演。?參見荊林波、楊征宇:《聊天機(jī)器人(ChatGPT)的溯源及展望》,載《財(cái)經(jīng)智庫》2023 年第1 期。2020 年,OpenAI 公司又推出了GPT-3,其以搶眼的表現(xiàn)成功吸引了人工智能產(chǎn)業(yè)界的關(guān)注。GPT-3 與GPT-2 的架構(gòu)基本一致,但是在參數(shù)、文本長度方面都有了顯著提升,其中參數(shù)高達(dá)1750 億。同時(shí),在機(jī)器自主學(xué)習(xí)的基礎(chǔ)上,加入人工因素來監(jiān)督機(jī)器學(xué)習(xí)。即在機(jī)器給出結(jié)果后,由訓(xùn)練人員對(duì)結(jié)果做出評(píng)價(jià)并展開優(yōu)化,使之更貼合對(duì)話內(nèi)容。在數(shù)據(jù)、算法雙重加持下,GPT-3 在各種測(cè)試中表現(xiàn)優(yōu)異,已經(jīng)可以完成絕大部分自然語言處理任務(wù)。?Brown,et al.Language models are few-shot learners,Advances in neural information processing systems,2020,33。2021 年,OpenAI 公司又推出了GPT-3.5 作為GPT-3 的升級(jí)版本,其在模型大小、語言理解和生成能力等方面都有了較大提升,2022 年OpenAI 公司基于該模型發(fā)布了ChatGPT。不過需要注意的是,GPT-3.5 與GPT-3 并無代際差距,更多是為了未來更為先進(jìn)的GPT-X進(jìn)行預(yù)熱。2023 年,OpenAI 公司又繼續(xù)推出了GPT-4。雖然OpenAI 公司未再透露詳盡的技術(shù)細(xì)節(jié),只是簡(jiǎn)單描述GPT-4 模型與GPT 系列模型一致,使用公開可用的數(shù)據(jù)(例如互聯(lián)網(wǎng)數(shù)據(jù))以及已獲得許可的數(shù)據(jù)進(jìn)行訓(xùn)練。但是,OpenAI 公司也提到了幾個(gè)關(guān)鍵的改進(jìn),如智能程度大幅躍遷可以接受圖片輸入,看圖能力更強(qiáng);輸入文本更長,可以處理文字長度顯著增加;等等。?參見OpenAI 公司:https://openai.com/product/gpt-4,2023 年3 月23 日訪問??梢韵胍姡m然GPT-4 不會(huì)擺脫既有GPT 系列模型框架,但是未來一定會(huì)在理解力、可靠性方面有著更為杰出的表現(xiàn)。

(二)ChatGPT 等生成式人工智能的基本特征

第一,訓(xùn)練數(shù)據(jù)日趨龐大。數(shù)據(jù)是所有人工智能生發(fā)的基本“養(yǎng)料”,只有大量地投喂基礎(chǔ)數(shù)據(jù),才能有效訓(xùn)練人工智能并及時(shí)予以監(jiān)督,以期不斷增進(jìn)其生成能力。一般而言,數(shù)據(jù)量的多寡與生成內(nèi)容的精準(zhǔn)性成正比。前文述及,根據(jù)OpenAI 公司公布的數(shù)據(jù),GPT-3 使用了1750 億的參數(shù)量,只有依靠這種愈發(fā)龐大的基礎(chǔ)數(shù)據(jù)才能使生成式人工智能“見多識(shí)廣”,更好地提升自身精準(zhǔn)度。

第二,訓(xùn)練模式發(fā)生變革。傳統(tǒng)的自然語言處理模型需要對(duì)數(shù)據(jù)進(jìn)行大規(guī)模、高質(zhì)量的標(biāo)注,才能使機(jī)器了解詞語的大概含義。而這種訓(xùn)練成本過高,且生成內(nèi)容效果不佳。而ChatGPT 引入了RLHF(從人類反饋中強(qiáng)化學(xué)習(xí)),該方法通過在大數(shù)據(jù)預(yù)訓(xùn)練下加強(qiáng)人類反饋,通過微調(diào)使得結(jié)果更具效率和針對(duì)性,使得ChatGPT 生成內(nèi)容的范圍、有效性和準(zhǔn)確度都有了大幅提升。?參見蔣華林:《人工智能聊天機(jī)器人對(duì)科研成果與人才評(píng)價(jià)的影響研究——基于ChatGPT、Microsoft Bing 視角分析》,載《重慶大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2023 年第2 期。詳言之,一方面,在初始情況下,它不需要任何人工標(biāo)注的數(shù)據(jù),而是通過對(duì)海量數(shù)據(jù)進(jìn)行預(yù)測(cè)語言規(guī)則和模式來進(jìn)行自我學(xué)習(xí)。另一方面,在自我學(xué)習(xí)的過程中,訓(xùn)練人員會(huì)對(duì)ChatGPT 生成的回答進(jìn)行評(píng)估和反饋,針對(duì)具體回答進(jìn)行微調(diào),以幫助模型進(jìn)行強(qiáng)化學(xué)習(xí)和不斷優(yōu)化。通過這種方式,ChatGPT 能夠逐步學(xué)習(xí)到人類習(xí)慣的語言表達(dá)方式,從而生成更加符合人類期望的回答。當(dāng)然,“投喂”數(shù)據(jù)的質(zhì)量基本依靠研發(fā)者和相關(guān)技術(shù)人員把關(guān)。換言之,ChatGPT“三觀”嚴(yán)重依賴研發(fā)者的形塑。而這種模式也帶來了一些隱藏風(fēng)險(xiǎn),只要任何一個(gè)環(huán)節(jié)發(fā)生問題,都會(huì)使得生成內(nèi)容出現(xiàn)不可控性。

通過對(duì)ChatGPT 的歷史回溯以及其基本特征的梳理不難發(fā)現(xiàn),這類技術(shù)本質(zhì)上是以海量數(shù)據(jù)為基礎(chǔ),依賴相關(guān)算法得出運(yùn)算結(jié)果,在基礎(chǔ)模型方面并不具備較多的創(chuàng)新性。但是,基于這種組合出現(xiàn)的產(chǎn)品卻降低了部分技術(shù)的使用門檻,一些技術(shù)不再是專業(yè)人員的禁臠,而為一般公眾所掌握。?參見張凌寒:《深度合成治理的邏輯更新與體系迭代——ChatGPT 等生成型人工智能治理的中國路徑》,載《法律科學(xué)》2023年第3 期。ChatGPT 等生成式人工智能將在公共管理、教育、司法、醫(yī)療、工業(yè)生產(chǎn)等眾多領(lǐng)域大有作為。就ChatGPT 的具體適用來看,其在私領(lǐng)域,可以輔助公眾進(jìn)行文本寫作,在法律方面則可以為弱勢(shì)群體提供法律幫助,實(shí)現(xiàn)普惠司法。在公領(lǐng)域,其可以為公眾提供一般政府服務(wù),具體到在法律層面,則可以促進(jìn)司法機(jī)關(guān)智慧司法建設(shè),輔助法官從事司法審判工作。同時(shí),這種適用的廣泛性以及使用主體的非特定性,加之其可能帶來的不良影響,加深了公眾對(duì)ChatGPT 等生成式人工智能的使用憂慮,其內(nèi)生的國家安全風(fēng)險(xiǎn)較為突出。

三、ChatGPT 等生成式人工智能的國家安全風(fēng)險(xiǎn)挑戰(zhàn)

(一)ChatGPT 等生成式人工智能的國家安全風(fēng)險(xiǎn)識(shí)別

1.強(qiáng)人機(jī)交互加大政治安全風(fēng)險(xiǎn)

強(qiáng)人機(jī)交互性是ChatGPT 等生成式人工智能的顯著特征,意指用戶使用ChatGPT 等生成式人工智能的過程,同時(shí)也是人工智能自身不斷學(xué)習(xí)的過程。在ChatGPT 等生成式人工智能與用戶對(duì)話的過程中,會(huì)按照用戶的習(xí)慣來改進(jìn)生成內(nèi)容的質(zhì)量,以便能夠更好地滿足用戶的使用習(xí)慣。換言之,ChatGPT 等生成式人工智能會(huì)根據(jù)用戶提出的要求來修正自己的運(yùn)算結(jié)果,這在某種程度上使得每一名用戶都成為潛在的人工智能學(xué)習(xí)訓(xùn)練人員。在使用ChatGPT 的過程中,如果用戶故意向ChatGPT“投喂”虛假、有害的信息,那么之后其他用戶在使用ChatGPT 獲取相關(guān)內(nèi)容時(shí),也會(huì)受到之前虛假、有害信息的影響。例如,如果有足夠數(shù)量的用戶在短時(shí)間內(nèi)向ChatGPT 輸入“魯智深去西天取經(jīng)”的虛假信息,那么ChatGPT 便會(huì)自行修正之前的正確答案,為之后的用戶生成“去西天取經(jīng)的人是魯智深”這類虛假內(nèi)容。

設(shè)若將類似的場(chǎng)景遷移至政治領(lǐng)域,那么后果將不堪設(shè)想??梢灶A(yù)見,在未來國家之間的競(jìng)爭(zhēng)中,如果將ChatGPT 等生成式人工智能作為輿論工具,通過數(shù)據(jù)投毒的方式,生成包含“惡意”的內(nèi)容,那么其帶來的危害將難以估量。實(shí)際上,這一預(yù)想正在逐漸轉(zhuǎn)化為現(xiàn)實(shí)。國內(nèi)部分用戶將涉政治類信息輸入ChatGPT 后,發(fā)現(xiàn)其生成的內(nèi)容以美國價(jià)值觀為導(dǎo)向,極力維護(hù)美國自身利益。如在如何看待朝鮮戰(zhàn)爭(zhēng)的問題上,ChatGPT 生成的內(nèi)容便是褒揚(yáng)美軍的行為,而對(duì)志愿軍持否定意見。?參見網(wǎng)易新聞:《國內(nèi)不能用ChatGPT 是因?yàn)樗:野踩????還真是!!》,https://www.163.com/dy/article/HT586OJV05434Z5U.html,2023 年3 月21 日訪問。從這一點(diǎn)來看,如果不對(duì)其進(jìn)行嚴(yán)格監(jiān)管,必將導(dǎo)致大量有毒信息出現(xiàn),控制輿論導(dǎo)向,甚至影響公共決策。

2.人工智能對(duì)抗引發(fā)軍事安全憂慮

如前所述,世界范圍內(nèi)的第四次工業(yè)革命發(fā)生在人工智能領(lǐng)域,與視覺識(shí)別、無人駕駛相比,可以多場(chǎng)景運(yùn)用的生成式人工智能有著更加明朗的應(yīng)用前景。未來各國無疑會(huì)將生成式人工智能作為軍事、經(jīng)濟(jì)、教育等重要應(yīng)用領(lǐng)域的關(guān)鍵,生成式人工智能的研發(fā)與應(yīng)用程度必將成為衡量國家綜合實(shí)力的關(guān)鍵指標(biāo)。一方面,發(fā)達(dá)國家希望捍衛(wèi)自身的技術(shù)優(yōu)勢(shì),另一方面發(fā)展中國家則期望通過加緊開發(fā)生成式人工智能來實(shí)現(xiàn)彎道超車。這種國家之間的競(jìng)爭(zhēng)態(tài)勢(shì)將進(jìn)一步改變?nèi)蚋鱾€(gè)國家的強(qiáng)弱格局,觸發(fā)人工智能領(lǐng)域的軍事競(jìng)爭(zhēng)。從經(jīng)濟(jì)理性角度來看,各國為占據(jù)競(jìng)爭(zhēng)優(yōu)勢(shì),可能會(huì)忽視其可能帶來的法律政策、科技倫理等問題,徑行將ChatGPT 等生成式人工智能用于情報(bào)戰(zhàn)與信息戰(zhàn)。而且,傳統(tǒng)人工智能本身就蘊(yùn)含侵犯公民隱私等風(fēng)險(xiǎn),在“生存性焦慮”被放大為“生存性威脅”的當(dāng)下,這些固有風(fēng)險(xiǎn)將呈指數(shù)級(jí)增長。?參見張紀(jì)騰:《新局與危局:人工智能的國家安全問題思辨》,載《信息安全與通信保密》2021 年第5 期。甚至在未來,生成式人工智能或?qū)⒈磺度氲綗o人機(jī)、自動(dòng)制導(dǎo)或者其他戰(zhàn)略決策性武器之中,被創(chuàng)造成全新的“智能應(yīng)答型武器”,進(jìn)一步改變戰(zhàn)爭(zhēng)樣態(tài),加劇地區(qū)安全風(fēng)險(xiǎn)。?The National Security Commission on Artificial Intelligence,AI's Final Report,https://digital.library.unt.edu/ark:/67531/metadc1851188/.

3.依靠海量數(shù)據(jù)訓(xùn)練增加數(shù)據(jù)安全風(fēng)險(xiǎn)

數(shù)據(jù)安全風(fēng)險(xiǎn)同樣也是ChatGPT 等生成式人工智能技術(shù)不得不面對(duì)的問題。數(shù)據(jù)安全不僅與每一位公民切身利益相關(guān),影響公民的幸福感與獲得感,更與國家安全息息相關(guān)。前文述及,ChatGPT 等生成式人工智能的學(xué)習(xí)需要依靠海量數(shù)據(jù)支撐,以此才能實(shí)現(xiàn)自身的不斷優(yōu)化。尤其是,ChatGPT 等生成式人工智能具備強(qiáng)人機(jī)交互性,用戶的使用過程同時(shí)也是人工智能對(duì)數(shù)據(jù)的收集過程。傳統(tǒng)人工智能在用戶使用之前,雖然同樣需要使用大量數(shù)據(jù),但是由于其多為“量身定做”,所以通常明確要求用戶需放棄一部分自身數(shù)據(jù)權(quán)利,在用戶同意放棄的基礎(chǔ)上,收集其聊天記錄、賬戶信息、上網(wǎng)記錄等信息,再通過數(shù)據(jù)聚合分析技術(shù)生成用戶畫像。但是,ChatGPT 等生成式人工智能更多的是在無形中收集有關(guān)數(shù)據(jù),因?yàn)橛脩舻氖褂眠^程本身就是向其提供數(shù)據(jù)的過程。在數(shù)據(jù)采集范圍方面,與傳統(tǒng)人工智能必須獲得許可采集數(shù)據(jù)不同,生成式人工智能大都采取“原則+例外”的方式進(jìn)行采集。即默認(rèn)用戶同意在使用過程中采集相關(guān)數(shù)據(jù),如果存在異議,需要單獨(dú)向有關(guān)機(jī)構(gòu)申明。如根據(jù)OpenAI 公司的隱私政策,用戶在使用ChatGPT時(shí),會(huì)被采集有關(guān)用戶訪問、使用或互動(dòng)的信息,ChatGPT 會(huì)使用每個(gè)客戶的一小部分?jǐn)?shù)據(jù)樣本來提高模型性能,用戶若不希望數(shù)據(jù)用于提高性能,需要單獨(dú)通過郵件向OpenAI 公司發(fā)送申請(qǐng)。?參見陳兵、林思宇:《如何看待ChatGPT 爆火背后潛在的法律風(fēng)險(xiǎn)》,https://www.yicai.com/news/101681506.html,2023 年3 月23日訪問。在這種情形下,數(shù)據(jù)安全泄漏的風(fēng)險(xiǎn)急劇增加。例如,向ChatGPT 詢問一道高考題目的解法,就有可能向其暴露了國籍、年齡等信息;要求ChatGPT 寫一篇論文的摘要,就可能暴露所學(xué)專業(yè)、工作單位等信息。而且,這些都是無須許可,在用戶尚未覺察之際已經(jīng)完成數(shù)據(jù)采集。隨著未來ChatGPT 等生成式人工智能用戶數(shù)量的暴增,其采集和存儲(chǔ)的用戶數(shù)據(jù)將變得非常龐大,國家安全風(fēng)險(xiǎn)劇增。具體而言,一方面,數(shù)據(jù)跨境流動(dòng)監(jiān)管失序。如在使用ChatGPT 等生成式人工智能過程中,可以規(guī)避所在國數(shù)據(jù)監(jiān)管機(jī)制,實(shí)現(xiàn)無限制的數(shù)據(jù)自由跨境移動(dòng)。另一方面,泄漏國家重要數(shù)據(jù)。重要國家安全領(lǐng)域的相關(guān)人員使用ChatGPT 等生成式人工智能,可能將直接泄漏國家安全信息。

4.高度語料依賴性帶來文化安全危機(jī)

人工智能大多依賴基礎(chǔ)數(shù)據(jù)進(jìn)行訓(xùn)練,所以本身存在數(shù)據(jù)偏見的問題。所謂數(shù)據(jù)偏見,意指生成式人工智能所使用的基礎(chǔ)數(shù)據(jù)不客觀、不完整的問題,這將嚴(yán)重影響數(shù)據(jù)分析質(zhì)量。?William S.Isaac,Hope,Hype,and Fear: The Promise and Potential Pitfalls of Artificial Intelligence in Criminal Justice,Ohio State Journal of Criminal Law,vol.15,No.2,2018,p553。如果將人工智能的運(yùn)算過程看作“烹飪”,那么向人工智能提供的基礎(chǔ)數(shù)據(jù)就是“食材”,掌握客觀的基礎(chǔ)數(shù)據(jù)后才能烹飪出“色香味俱全”的結(jié)果。?參見王立、楊令一:《大數(shù)據(jù)背景下預(yù)測(cè)性警務(wù)的實(shí)踐樣態(tài)與風(fēng)險(xiǎn)規(guī)制》,載《警學(xué)研究》2022 年第5 期。但是,如果基礎(chǔ)數(shù)據(jù)本身就存在偏見,那么系統(tǒng)運(yùn)行的結(jié)果也必然是歧視性的。如在基礎(chǔ)數(shù)據(jù)提供上,將某些種族、某些膚色或者有過某些經(jīng)歷、較低學(xué)歷者等打上犯罪高發(fā)人群的標(biāo)簽,那么即使算法中立,最終的運(yùn)算結(jié)果也是充滿偏見的?!皩⒇毨?、家庭狀況、種族或民族、社會(huì)經(jīng)濟(jì)地位等維度輸入進(jìn)去……從這個(gè)角度說,犯罪人預(yù)測(cè)是顯失公平正義的,他們被預(yù)測(cè)是危險(xiǎn)的‘犯罪人’并據(jù)此受到懲罰,不是因?yàn)樗麄冏鲞^什么,而是因?yàn)樗麄兪钦l、他們的家庭怎么樣以及他們的口袋里有多少錢。”?Sonja Starr,The Odds of Justice:Actuarial Risk Prediction and the Criminal Justice System,CHANCE,2016,29(1),p49-51.以偏見數(shù)據(jù)為基礎(chǔ)得到的結(jié)果,必然生成存在偏見的內(nèi)容。

事實(shí)上,生成式人工智能在數(shù)據(jù)偏見上存在的問題較之以往可能更為突出。雖然傳統(tǒng)人工智能的發(fā)展也依賴于對(duì)數(shù)據(jù)的占有,但是生成式人工智能所占有的數(shù)據(jù)較之以往呈現(xiàn)出幾何級(jí)增長。?數(shù)據(jù)來源于騰訊《AIGC 發(fā)展報(bào)告 2023》。如果基礎(chǔ)數(shù)據(jù)存在問題,那么即使依據(jù)適當(dāng)?shù)乃惴ㄒ部赡軙?huì)生成有害或者有偏見的內(nèi)容,尤其是這種算法偏見產(chǎn)生的負(fù)面影響會(huì)隨著技術(shù)的廣泛運(yùn)用而不斷擴(kuò)大。譬如,ChatGPT 給予的答復(fù)中存在性別歧視和種族歧視的問題,可能會(huì)誤導(dǎo)使用者將具有歧視性的回答視為“正確答案”而作出錯(cuò)誤的決斷,進(jìn)而對(duì)社會(huì)認(rèn)知和倫理產(chǎn)生負(fù)面影響,甚至沖擊國家主流價(jià)值與文化。?同前注?。特別是在對(duì)基礎(chǔ)數(shù)據(jù)篩選的過程中,由于中西文化的根源及演進(jìn)路徑不同,研發(fā)者可能會(huì)對(duì)體現(xiàn)西方立場(chǎng)的觀點(diǎn)和數(shù)據(jù)持肯定態(tài)度,而忽視來自其他不同立場(chǎng)的數(shù)據(jù),這種源自于研發(fā)者的數(shù)據(jù)偏見會(huì)在生成式人工智能的加持下進(jìn)一步擴(kuò)張。尤其是,當(dāng)這種歧視性觀點(diǎn)延伸至意識(shí)形態(tài)領(lǐng)域,那么這些蘊(yùn)含西方意識(shí)形態(tài)的內(nèi)容將通過隱性的方式傳播,使得我國原本的意識(shí)形態(tài)防范機(jī)制失效,對(duì)國家安全所帶來的危害后果將是難以估量的。?參見鐘祥銘、方興東、顧燁燁:《ChatGPT 的治理挑戰(zhàn)與對(duì)策研究——智能傳播的“科林格里奇困境”與突破路徑》,載《傳媒觀察》2023 年第3 期。

(二)現(xiàn)有規(guī)制模式應(yīng)對(duì)國家安全風(fēng)險(xiǎn)不足

1.域外規(guī)制經(jīng)驗(yàn)

《歐盟人工智能法案》(Artificial Intelligence Act)設(shè)計(jì)了一種基于風(fēng)險(xiǎn)的分級(jí)規(guī)制模式,將人工智能分為禁止、高風(fēng)險(xiǎn)、中風(fēng)險(xiǎn)、低風(fēng)險(xiǎn)等類型,分別采取不同的數(shù)據(jù)與算法的規(guī)制方式。?參見曾雄、梁正、張輝:《歐盟人工智能的規(guī)制路徑及其對(duì)我國的啟示——以〈人工智能法案〉為分析對(duì)象》,載《電子政務(wù)》2022 年第9 期。在算法方面,該法案強(qiáng)化了透明度要求和問責(zé)機(jī)制,要求人工智能的研發(fā)者和使用者必須提供具備透明性與可解釋性的算法,一旦出現(xiàn)問題,相關(guān)人員應(yīng)當(dāng)承擔(dān)責(zé)任。在數(shù)據(jù)方面,該法案則再次重申了數(shù)據(jù)的隱私保護(hù)理念,對(duì)數(shù)據(jù)獲取、數(shù)據(jù)控制、數(shù)據(jù)安全和數(shù)據(jù)刪除等問題都做了較為細(xì)致的要求。

與之相應(yīng),近年來美國對(duì)人工智能的監(jiān)管也采取較為積極的態(tài)勢(shì)。從旨在保護(hù)個(gè)人數(shù)據(jù)和限制監(jiān)控的《人工智能權(quán)利法案》(AI Bill of Rights)到《平臺(tái)問責(zé)制和透明度法案》(Platform Accountability and Transparency Act),再到美國商務(wù)部下屬國家電信與信息管理局(NTIA)《人工智能問責(zé)政策征求意見》(AI Accountability Policy Request for Comment),不難發(fā)現(xiàn)美國與歐盟似乎在此問題的認(rèn)識(shí)正在逐步趨同。?同前注?。特別是美歐貿(mào)易和技術(shù)委員會(huì)(TTC)成立以來,這種監(jiān)管政策同標(biāo)的情形日益明顯。

不過,前述模式在治理生成式人工智能方面的問題也較為突出。以《歐盟人工智能法案》為例,該法案過于倚重企業(yè)自治,強(qiáng)調(diào)對(duì)個(gè)人安全與行業(yè)安全的保障,缺乏從國家層面開展的外部監(jiān)管。?同前注?。再如,該法案采取“數(shù)據(jù)+算法”雙重規(guī)制模式,忽視對(duì)兩者交叉領(lǐng)域的監(jiān)管以及對(duì)生成內(nèi)容的監(jiān)管。

2.我國生成式人工智能規(guī)制現(xiàn)狀

早在2017 年,國務(wù)院便發(fā)布《新一代人工智能發(fā)展規(guī)劃》,明確了我國人工智能發(fā)展的基本框架。其后,為了應(yīng)對(duì)人工智能帶來的治理難題,我國在2022 年出臺(tái)了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡(jiǎn)稱《算法推薦規(guī)定》)《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡(jiǎn)稱《深度合成規(guī)定》)等規(guī)定,通過對(duì)算法推薦以及深度合成技術(shù)的治理,嘗試對(duì)類生成式人工智能進(jìn)行規(guī)制。就現(xiàn)有規(guī)制路徑而言,大都未能超脫以往算法規(guī)制的范疇。

2023 年《征求意見稿》對(duì)生成式人工智能服務(wù)提供者延續(xù)了此前《算法推薦規(guī)定》《深度合成規(guī)定》對(duì)算法推薦服務(wù)提供者以及深度合成服務(wù)提供者相類似的監(jiān)管態(tài)度。與《歐盟人工智能法案》確立的分級(jí)管理不同,《征求意見稿》更多強(qiáng)調(diào)不區(qū)分具體應(yīng)用場(chǎng)景,采取統(tǒng)一規(guī)制模式。雖然從文本來看,《征求意見稿》開始關(guān)切生成式人工智能的生成內(nèi)容問題,但是仍未脫離“數(shù)據(jù)+算法”雙重規(guī)制模式,其重點(diǎn)依然聚焦于個(gè)人安全與行業(yè)安全的保障。然而,對(duì)于ChatGPT 等生成式人工智能而言,單純“數(shù)據(jù)+算法”的雙重規(guī)制模式忽視了數(shù)據(jù)與算法相互交融的階段。而且,單純從個(gè)人安全或行業(yè)安全角度進(jìn)行規(guī)范未免較為狹窄。尤其是,在這種理念影響下,對(duì)于人工智能的監(jiān)管由國家網(wǎng)信部門牽頭,缺乏系統(tǒng)性與體系性,應(yīng)當(dāng)從總體國家安全觀出發(fā)開展頂層設(shè)計(jì),營造一個(gè)良好的人工智能發(fā)展環(huán)境。當(dāng)然,安全與發(fā)展應(yīng)當(dāng)相協(xié)調(diào),未來應(yīng)當(dāng)確立的是一種多元包容的生成式人工智能規(guī)制模式,既要滿足自身經(jīng)濟(jì)發(fā)展需要,又要兼顧國家安全保障要求。?參見李曉楠、宋陽:《國家安全視域下數(shù)據(jù)出境審查規(guī)則研究》,載《情報(bào)雜志》2021 年第10 期。

四、ChatGPT 等生成式人工智能規(guī)制的法治化進(jìn)路

(一)強(qiáng)調(diào)國家安全戰(zhàn)略,謀劃產(chǎn)權(quán)布局

我國高度重視人工智能發(fā)展,早在2017 年便明確提出“到2030 年,人工智能理論、技術(shù)與應(yīng)用總體達(dá)到世界領(lǐng)先水平,成為世界主要人工智能創(chuàng)新中心”的發(fā)展目標(biāo),這充分表明了我國希望通過發(fā)展本國人工智能科技來提升國家綜合實(shí)力,實(shí)現(xiàn)中華民族偉大復(fù)興的美好愿景。?參見徐璐、朱炳元:《人工智能的馬克思主義分析和解讀》,載《廣西社會(huì)科學(xué)》2022 年第11 期。但從整個(gè)行業(yè)來看,目前我國人工智能發(fā)展主要集中在應(yīng)用場(chǎng)域,在底層架構(gòu)上并未有太多創(chuàng)新點(diǎn)出現(xiàn)。尤其是在生成式人工智能領(lǐng)域,國內(nèi)百度、騰訊、科大訊飛等科技公司都跟風(fēng)研發(fā)對(duì)標(biāo)ChatGPT 的人工智能產(chǎn)品。但是無論是現(xiàn)在生成式人工智能最常用的各種訓(xùn)練算法,還是 Transformer 等重要模型,不少都是出自于國外的研發(fā)團(tuán)隊(duì)(尤其是大企業(yè)團(tuán)隊(duì)),對(duì)比之下,我國在這些核心技術(shù)領(lǐng)域的貢獻(xiàn)則較少。?參見陳永偉:《超越ChatGPT:生成式AI 的機(jī)遇、風(fēng)險(xiǎn)與挑戰(zhàn)》,載《山東大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2023 年第3 期。雖然所有的這些算法和架構(gòu)都已作了開源化,可以供全世界研發(fā)者使用,但如果國際形勢(shì)發(fā)生變化,不難想象如今中國半導(dǎo)體行業(yè)所遭遇的“卡脖子”困境會(huì)再次出現(xiàn)。?參見武延軍:《開源軟件供應(yīng)鏈重大基礎(chǔ)設(shè)施建設(shè)勢(shì)在必行》,載《中國科學(xué)報(bào)》2021 年5 月6 日,第3 版。而且,自微軟注資OpenAI 后,最新的技術(shù)已經(jīng)不再進(jìn)行開源共享,這就為我們敲響了警鐘。從整體國家安全戰(zhàn)略來看,如果我國在生成式人工智能領(lǐng)域缺乏核心技術(shù)資源,將難以應(yīng)對(duì)國際競(jìng)爭(zhēng)。如果防范國外技術(shù)壟斷是對(duì)未來風(fēng)險(xiǎn)的未雨綢繆,那么當(dāng)下更加緊迫的問題是,避免陷入路徑依賴,力爭(zhēng)在生成式人工智能領(lǐng)域?qū)崿F(xiàn)彎道超車。?參見黃蕊、徐倩、趙意:《“人工智能+”模式下我國傳統(tǒng)產(chǎn)業(yè)的效率鎖定與解鎖——基于路徑依賴?yán)碚撘曈颉?,載《經(jīng)濟(jì)問題》2020 年第2 期。為此,可以從以下兩個(gè)維度予以完善:

第一,構(gòu)建生成式人工智能研發(fā)許可制度,限定研發(fā)機(jī)構(gòu)資格。應(yīng)當(dāng)避免在科技領(lǐng)域的各自為戰(zhàn),擺脫注重短期激勵(lì)驅(qū)動(dòng)的追趕模式,充分發(fā)揮我們的制度優(yōu)勢(shì),集中力量辦大事,許可部分有能力、可信賴的企業(yè)開展生成式人工智能的研發(fā)。同時(shí),這種限制也可以確保監(jiān)管質(zhì)量,避免出現(xiàn)蜂擁而上、監(jiān)管失序的情形。

第二,建立正向激勵(lì)機(jī)制,聚焦人工智能領(lǐng)域知識(shí)產(chǎn)權(quán)保護(hù)。對(duì)于人工智能發(fā)展而言,最急迫、最為有效的便是知識(shí)產(chǎn)權(quán)保護(hù),因?yàn)楸Wo(hù)知識(shí)產(chǎn)權(quán)就意味著保護(hù)創(chuàng)新。?參見中共中國科學(xué)院黨組:《保護(hù)知識(shí)產(chǎn)權(quán)就是保護(hù)創(chuàng)新》,載《求是》2021 年第3 期。只有在完善的知識(shí)產(chǎn)權(quán)體系的保護(hù)下,才能更好地促進(jìn)生成式人工智能領(lǐng)域的科技研發(fā)。但在人工智能技術(shù)蓬勃發(fā)展的態(tài)勢(shì)下,我國仍存在知識(shí)產(chǎn)權(quán)整體質(zhì)量不佳等問題。?參見易繼明:《新時(shí)代中國特色知識(shí)產(chǎn)權(quán)發(fā)展之路》,載《政法論叢》2022 年第1 期。為此,應(yīng)著力做到以下幾點(diǎn):

首先,要加強(qiáng)知識(shí)產(chǎn)權(quán)保護(hù)工作頂層設(shè)計(jì)。加強(qiáng)關(guān)鍵領(lǐng)域自主知識(shí)產(chǎn)權(quán)創(chuàng)造和儲(chǔ)備,將生成式人工智能領(lǐng)域的產(chǎn)權(quán)保護(hù)作為國家重點(diǎn)工程予以高度重視。其次,要完善現(xiàn)行法律規(guī)范體系。完備的知識(shí)產(chǎn)權(quán)法律法規(guī)體系、高效的執(zhí)法司法體系,是強(qiáng)化知識(shí)產(chǎn)權(quán)保護(hù)的重要保障。要在嚴(yán)格執(zhí)行《民法典》相關(guān)規(guī)定的同時(shí),加快完善相關(guān)法律法規(guī),通過相關(guān)專門性法律的修訂將生成式人工智能的相關(guān)產(chǎn)權(quán)保護(hù)問題納入到保護(hù)當(dāng)中,構(gòu)建完善的知識(shí)產(chǎn)權(quán)保護(hù)體系。?同上注。最后,維護(hù)知識(shí)產(chǎn)權(quán)領(lǐng)域國家安全。要加強(qiáng)事關(guān)國家安全的關(guān)鍵核心技術(shù)的自主研發(fā)和保護(hù),依法管理涉及國家安全的知識(shí)產(chǎn)權(quán)對(duì)外轉(zhuǎn)讓行為。要完善知識(shí)產(chǎn)權(quán)反壟斷、公平競(jìng)爭(zhēng)相關(guān)法律法規(guī)和政策措施,形成正當(dāng)有力的制約手段。?參見習(xí)近平:《全面加強(qiáng)知識(shí)產(chǎn)權(quán)保護(hù)工作 激發(fā)創(chuàng)新活力推動(dòng)構(gòu)建新發(fā)展格局》,載《求是》2021 年第3 期。

(二)強(qiáng)調(diào)國家利益優(yōu)先,打破人工智能算法黑箱

在生成式人工智能的應(yīng)用場(chǎng)域中,強(qiáng)人機(jī)交互特征使得生成式人工智能無時(shí)無刻不面臨著被信息投毒的風(fēng)險(xiǎn),也進(jìn)一步使國家時(shí)刻處于虛假信息傳播的風(fēng)險(xiǎn)當(dāng)中。隨著人工智能的普及,生成式人工智能的用戶將呈現(xiàn)出爆炸性的增長趨勢(shì)。一種可行的規(guī)制路徑便是延續(xù)既有方式,打破目前存在的算法黑箱,對(duì)研發(fā)者的算法進(jìn)行監(jiān)管。自人工智能產(chǎn)生以來,算法黑箱便是一個(gè)不斷被提及的問題,而這次ChatGPT 等生成式人工智能更是將人們對(duì)這一問題的疑慮提到了一個(gè)新的高度。

所謂的算法黑箱是指在人工智能技術(shù)開發(fā)與應(yīng)用過程中,用戶只能獲知運(yùn)算結(jié)果,只有設(shè)計(jì)者本人才能知曉運(yùn)算過程,雙方存在信息鴻溝。?參見[美]弗蘭克·帕斯奎爾:《黑箱社會(huì):控制金錢和信息的數(shù)據(jù)法則》,趙亞見譯,中信出版社2015 年版,第6頁。換言之,由于算法黑箱的存在,用戶只能被動(dòng)接受結(jié)果,但卻不知道結(jié)果是怎么產(chǎn)生的,這樣就使得用戶不易發(fā)現(xiàn)問題并對(duì)結(jié)果進(jìn)行質(zhì)疑和修正。由于算法具備極強(qiáng)的專業(yè)性,一般公眾難以對(duì)算法的正當(dāng)性進(jìn)行檢視。在某種意義上,算法應(yīng)用的深入推廣無疑使得人類已經(jīng)處于一個(gè)被“ 算法吞噬的世界”,不得不面臨算法黑箱帶來的算法歧視、算法偏見等問題。?B.Bodo et al.Tackling the Algorithmic Control Crisisthe Technical,Legal,and Ethical Challenges of Research into Algorithmic Agents,Yale Journal of Law and Technology,vol.19,no.1,2017,p136-138。研發(fā)者結(jié)合自身的經(jīng)歷、主觀感知,在編寫算法的過程中會(huì)不可避免地融入自己的價(jià)值判斷或者偏好,這就使得算法偏見、算法歧視難以避免。?參見李訓(xùn)虎:《刑事司法人工智能的包容性規(guī)制》,載《中國社會(huì)科學(xué)》2021 年第2 期。

在商業(yè)領(lǐng)域,研發(fā)者總是以商業(yè)秘密等理由拒絕公開算法,但是這些理由在國家安全面前都是不成立的。在國家利益面前,必須允許公權(quán)力為代表的國家機(jī)關(guān)對(duì)研發(fā)者的算法進(jìn)行規(guī)制。?參見張凌寒:《算法規(guī)制的迭代與革新》,載《法學(xué)論壇》2019 年第2期。雖然《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《算法推薦規(guī)定》以及《征求意見稿》都提到了算法規(guī)制,但是現(xiàn)有規(guī)范存在法律體系不統(tǒng)一、監(jiān)管行政力量過于單薄的問題。筆者認(rèn)為,為了從國家安全角度實(shí)現(xiàn)有效的算法規(guī)制,應(yīng)當(dāng)做到以下幾點(diǎn):

其一,應(yīng)當(dāng)建立統(tǒng)一的人工智能算法規(guī)制法律體系。目前的法律雖然對(duì)算法問題有所提及,但是各個(gè)條文分散在不同法律當(dāng)中,難免存在相互齟齬之處,無法形成制度合力。未來,應(yīng)當(dāng)制定專門的人工智能算法規(guī)制法律規(guī)范,對(duì)不同領(lǐng)域內(nèi)人工智能的算法進(jìn)行分級(jí)分類評(píng)估,然后按照成文法予以規(guī)范,要求行政部門按照法律對(duì)可能危害國家安全的算法予以監(jiān)管評(píng)估,并有權(quán)要求平臺(tái)修正。?參見丁曉東:《論算法的法律規(guī)制》,載《中國社會(huì)科學(xué)》2020 年第12 期。其二,應(yīng)當(dāng)建立人工智能專責(zé)機(jī)關(guān)。現(xiàn)有生成式人工智能的監(jiān)管主體是網(wǎng)信部門,但是僅僅依靠網(wǎng)信部門力量難免會(huì)力有不逮。應(yīng)當(dāng)確立“一主多輔”的架構(gòu),吸納公安機(jī)關(guān)、市場(chǎng)監(jiān)督管理機(jī)關(guān)、國家安全機(jī)關(guān)等部門參與到算法規(guī)制當(dāng)中。將網(wǎng)信部門作為算法規(guī)制的牽頭部門,啟動(dòng)進(jìn)行各個(gè)領(lǐng)域內(nèi)人工智能的算法規(guī)制。而各個(gè)行政監(jiān)管機(jī)關(guān)也應(yīng)當(dāng)主動(dòng)履行算法監(jiān)管與規(guī)制的責(zé)任,在算法的設(shè)計(jì)、使用、反饋等關(guān)鍵環(huán)節(jié),都要深度參與,對(duì)算法中可能影響國家安全的部分提前予以修正或刪除,防范虛假政治信息的傳播風(fēng)險(xiǎn)。此外,監(jiān)管部門也應(yīng)當(dāng)充分利用行政手段或刑事手段,對(duì)拒不配合或不主動(dòng)配合公開算法且可能危害公共安全的機(jī)構(gòu)和個(gè)人予以嚴(yán)厲處罰,以最大程度地確保研發(fā)者在可能危害國家安全的情況下主動(dòng)公開算法,接受政府監(jiān)督。更為重要的是,未來待時(shí)機(jī)成熟,應(yīng)當(dāng)建立專門人工智能監(jiān)管機(jī)構(gòu)專事人工智能算法監(jiān)管。其三,明確算法審查標(biāo)準(zhǔn)。對(duì)于算法的公開程度應(yīng)當(dāng)采取相對(duì)審慎的態(tài)度。以《征求意見稿》第17 條提供“必要信息”為例,當(dāng)前公眾對(duì)生成式人工智能算法的憂懼大多源于無法探知機(jī)器學(xué)習(xí)的深層邏輯。無論研發(fā)者主動(dòng)公開還是強(qiáng)制公開,其作用都非常有限,一味強(qiáng)調(diào)透明度要求,可能導(dǎo)致對(duì)知識(shí)產(chǎn)權(quán)保護(hù)的失衡。在此情況下,應(yīng)當(dāng)以算法一致性作為標(biāo)準(zhǔn)。即算法備案后,研發(fā)者應(yīng)當(dāng)保障備案算法與后續(xù)算法存在一致性,如有變化,應(yīng)當(dāng)及時(shí)告知有關(guān)部門。?參見劉東亮:《技術(shù)性正當(dāng)程序:人工智能時(shí)代程序法和算法的雙重變奏》,載《比較法研究》2020 年第5 期。

(三)強(qiáng)調(diào)國家監(jiān)管義務(wù),強(qiáng)化數(shù)據(jù)監(jiān)管責(zé)任

首先,應(yīng)當(dāng)明確設(shè)置獨(dú)立、專門的數(shù)據(jù)監(jiān)管機(jī)構(gòu),以使其能夠有效實(shí)施數(shù)據(jù)監(jiān)管行為。目前我國《數(shù)據(jù)安全法》與《網(wǎng)絡(luò)安全法》均規(guī)定,國家網(wǎng)信部門對(duì)數(shù)據(jù)安全工作進(jìn)行統(tǒng)籌協(xié)調(diào)。但是在實(shí)務(wù)中,許多數(shù)據(jù)來自金融、公共衛(wèi)生領(lǐng)域,需要具有較高的專業(yè)知識(shí)才能進(jìn)行識(shí)別和管控,由于網(wǎng)信部門工作人員缺乏這些專業(yè)知識(shí),所以監(jiān)管效果不佳?,F(xiàn)階段,可以考慮依托國家數(shù)據(jù)局進(jìn)行統(tǒng)一監(jiān)管。待未來?xiàng)l件許可,由前文提及的專門人工智能監(jiān)管機(jī)構(gòu)同時(shí)負(fù)責(zé)數(shù)據(jù)與算法的監(jiān)管工作,避免出現(xiàn)相互掣肘的情形。

其次,建立完善的數(shù)據(jù)安全審查標(biāo)準(zhǔn)。在啟動(dòng)方式上,可以采用有權(quán)機(jī)關(guān)依職權(quán)主動(dòng)啟動(dòng)審查與生成式人工智能研發(fā)者依申請(qǐng)被動(dòng)啟動(dòng)審查兩種方式,這樣能夠使啟動(dòng)方式更加靈活,便于管理。另外,數(shù)據(jù)安全審查的啟動(dòng)標(biāo)準(zhǔn)應(yīng)當(dāng)與數(shù)據(jù)安全審查標(biāo)準(zhǔn)相區(qū)分,啟動(dòng)標(biāo)準(zhǔn)應(yīng)當(dāng)較審查標(biāo)準(zhǔn)更加寬松,采取“寬進(jìn)嚴(yán)出”的方式。這樣在審查的啟動(dòng)上,可以盡可能地將數(shù)據(jù)流轉(zhuǎn)、采集行為納入審查范圍,只要認(rèn)為“有可能”侵犯國家安全便可以啟動(dòng)審查程序。但在具體審查程序中,必須嚴(yán)格按照法律提前設(shè)定的標(biāo)準(zhǔn)如敏感信息種類、規(guī)模等進(jìn)行審查,不得籠統(tǒng)地使用“有可能損害”的標(biāo)準(zhǔn)規(guī)制數(shù)據(jù)流通,減損數(shù)據(jù)自身價(jià)值。

最后,應(yīng)當(dāng)進(jìn)一步重視完善數(shù)據(jù)監(jiān)管行政處罰體系。在設(shè)計(jì)數(shù)據(jù)監(jiān)管行政處罰體系時(shí),應(yīng)當(dāng)嚴(yán)格遵循比例原則,明確行政處罰本身不是目的,減少使用刑罰工具,引導(dǎo)生成式人工智能研發(fā)者在數(shù)據(jù)處理中進(jìn)行合規(guī)改造,更好地投入經(jīng)濟(jì)生產(chǎn)才是最終目的。為了規(guī)范生成式人工智能研發(fā)者的數(shù)據(jù)處理行為,可以對(duì)主動(dòng)申請(qǐng)數(shù)據(jù)審查的生成式人工智能研發(fā)者與被動(dòng)接受審查的研發(fā)者予以不同對(duì)待,比如主動(dòng)申請(qǐng)數(shù)據(jù)審查,如果被查出問題便可以通過事后的合規(guī)整改來避免行政處罰結(jié)果,另外也可以在項(xiàng)目建設(shè)、招投標(biāo)等方面對(duì)主動(dòng)接受數(shù)據(jù)合規(guī)審查的研發(fā)者予以適當(dāng)?shù)恼邇A斜,以此來引導(dǎo)研發(fā)者主動(dòng)參與其中。

(四)強(qiáng)調(diào)賦予公民權(quán)利,加強(qiáng)基礎(chǔ)數(shù)據(jù)監(jiān)管

由于生成式人工智能對(duì)海量數(shù)據(jù)的控制,在數(shù)據(jù)方面還會(huì)產(chǎn)生基礎(chǔ)數(shù)據(jù)存在偏見的問題。如果說數(shù)據(jù)泄露、重要數(shù)據(jù)跨境流動(dòng)等屬于動(dòng)態(tài)的風(fēng)險(xiǎn),那么基礎(chǔ)數(shù)據(jù)訓(xùn)練就是數(shù)據(jù)的靜態(tài)風(fēng)險(xiǎn)。如前所述,生成式人工智能的發(fā)展與傳統(tǒng)人工智能一樣依靠大規(guī)模的數(shù)據(jù)進(jìn)行訓(xùn)練,而且所需要的數(shù)據(jù)要遠(yuǎn)遠(yuǎn)超過傳統(tǒng)人工智能所需的數(shù)據(jù)規(guī)模,這也就導(dǎo)致了如果基礎(chǔ)數(shù)據(jù)出現(xiàn)問題,那么人工智能的輸出結(jié)果也會(huì)有問題。對(duì)于基礎(chǔ)數(shù)據(jù)的監(jiān)管不宜采用之前的路徑交給行政部門履行國家義務(wù),而應(yīng)當(dāng)結(jié)合公民私權(quán)利進(jìn)行運(yùn)作。其一,雖然基礎(chǔ)數(shù)據(jù)大多屬于公共領(lǐng)域,公權(quán)力機(jī)關(guān)能夠核實(shí),但是逐一核實(shí)成本過于高昂,而公民因熟悉各自信息,方便行權(quán)。其二,基礎(chǔ)數(shù)據(jù)產(chǎn)生問題會(huì)導(dǎo)致輸出的結(jié)果產(chǎn)生爭(zhēng)議,該爭(zhēng)議在用戶使用的過程中最容易被發(fā)現(xiàn),如果將規(guī)范的義務(wù)交給公權(quán)力機(jī)關(guān)可能產(chǎn)生監(jiān)管不及時(shí)的問題。生成式人工智能需要算法和基礎(chǔ)數(shù)據(jù)相結(jié)合才能生成結(jié)果,對(duì)于用戶而言,也許對(duì)算法這樣“高深”的專業(yè)領(lǐng)域并不了解,無法提出意見,但對(duì)基礎(chǔ)數(shù)據(jù)這種常識(shí)水平的內(nèi)容完全有能力進(jìn)行討論與修正。

當(dāng)然,強(qiáng)調(diào)賦予公民權(quán)利也并非是毫無限制的,過度賦權(quán)有可能會(huì)阻礙生成式人工智能的發(fā)展。所以必須尋找公民權(quán)利與人工智能發(fā)展的一個(gè)平衡點(diǎn)。筆者認(rèn)為應(yīng)當(dāng)將“以人民為中心”的理念貫徹到生成式人工智能發(fā)展的過程當(dāng)中。具體而言,便是著重保障個(gè)人用戶的知悉權(quán)與更正權(quán)。生成式人工智能的用戶作為服務(wù)消費(fèi)者,理應(yīng)有知悉結(jié)果產(chǎn)生過程的權(quán)利。就像購買食品,消費(fèi)者當(dāng)然有權(quán)利知悉購買食品的配料成分表,這樣才能使用戶有信心使用自己所購買的產(chǎn)品或者服務(wù)。如果公民對(duì)于生成結(jié)果存有異議,就有權(quán)利對(duì)人工智能生成的結(jié)果發(fā)起挑戰(zhàn),如果基礎(chǔ)數(shù)據(jù)確實(shí)有問題,就應(yīng)當(dāng)由用戶對(duì)有問題的基礎(chǔ)數(shù)據(jù)進(jìn)行更正??梢哉f知悉權(quán)與更正權(quán)二者是相互聯(lián)系相互依存的。對(duì)于生成式人工智能來說,知悉過程是用戶行使其權(quán)利的基礎(chǔ),也是信息主體充分行使信息權(quán)的前提條件,是信息主體尋求法律救濟(jì)的基礎(chǔ)性權(quán)利。?參見程雷:《大數(shù)據(jù)偵查的法律控制》,載《中國社會(huì)科學(xué)》2018 年第11 期。而更正權(quán)產(chǎn)生于知悉權(quán)之上,是由用戶個(gè)體來確保數(shù)據(jù)質(zhì)量的重要機(jī)制,知悉過程后對(duì)有問題的基礎(chǔ)數(shù)據(jù)予以更正,為此方可保障生成內(nèi)容的質(zhì)量。

猜你喜歡
規(guī)制人工智能算法
主動(dòng)退市規(guī)制的德國經(jīng)驗(yàn)與啟示
基于MapReduce的改進(jìn)Eclat算法
Travellng thg World Full—time for Rree
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
進(jìn)位加法的兩種算法
人工智能與就業(yè)
保護(hù)與規(guī)制:關(guān)于文學(xué)的刑法
刑法論叢(2018年4期)2018-05-21 00:44:30
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
論《反不正當(dāng)競(jìng)爭(zhēng)法》的規(guī)制范疇
法治研究(2016年4期)2016-12-01 03:41:40
下一幕,人工智能!
河津市| 获嘉县| 吐鲁番市| 滨州市| 兰溪市| 斗六市| 南漳县| 徐州市| 六盘水市| 蛟河市| 德保县| 泸西县| 阿克苏市| 鄂尔多斯市| 孝感市| 弋阳县| 西峡县| 汝阳县| 尚志市| 卓资县| 阳城县| 凤翔县| 中山市| 石狮市| 蒙城县| 石泉县| 宿松县| 同仁县| 常州市| 轮台县| 县级市| 灌阳县| 曲周县| 屏南县| 西盟| 密山市| 章丘市| 山东省| 青浦区| 青州市| 霍邱县|