国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能服務(wù)提供者的數(shù)據(jù)安全保護義務(wù)研究

2024-01-25 23:09:41王良順
關(guān)鍵詞:服務(wù)提供者數(shù)據(jù)安全個人信息

王良順 李 想

(中南財經(jīng)政法大學(xué) 刑事司法學(xué)院,湖北 武漢 430073)

一、問題的提出

科技迭代促使人工智能迅猛發(fā)展,生成式人工智能作為一種新的技術(shù)范式應(yīng)運而生。ChatGPT是由Open AI開發(fā)的一種大語言文本智能對話模型,其可以根據(jù)接收到的指令理解和生成文本、圖片、聲音、視頻、代碼等內(nèi)容[1]69。ChatGPT的橫空出世表征人工智能技術(shù)正在發(fā)生快速的升級革新,這項技術(shù)的進一步成熟和落地為元宇宙的普及與應(yīng)用清掃了諸多障礙,將元宇宙的實現(xiàn)至少提前了10年[2]。然而,以ChatGPT為代表的生成式人工智能在推進社會繁榮的同時,由之觸發(fā)的風(fēng)險會接踵而至。2020年3月,中共中央、國務(wù)院印發(fā)的《關(guān)于構(gòu)建更加完善的要素市場化配置體制機制的意見》將數(shù)據(jù)要素與土地、勞動力、資本、技術(shù)四大傳統(tǒng)生產(chǎn)力要素并列,這表明在我國數(shù)據(jù)已成為重塑社會公眾生活、推進各經(jīng)濟實體創(chuàng)新乃至國家經(jīng)濟發(fā)展的重要動力源泉。從生成式人工智能的運行機理來看,其語料庫的數(shù)據(jù)獲取、語言模型的訓(xùn)練與最終文本的輸出等各個環(huán)節(jié)都依賴于大量的數(shù)據(jù)處理,而大規(guī)模數(shù)據(jù)的流動、聚合與分析勢必蘊含巨大的數(shù)據(jù)安全風(fēng)險[3]107。意大利數(shù)據(jù)保護局正是因為ChatGPT存在極大的數(shù)據(jù)安全風(fēng)險,才宣布封禁ChatGPT的使用[4]456。如果生成式人工智能附隨的數(shù)據(jù)安全問題得不到及時解決,不僅會危及個人的人格利益或企業(yè)的經(jīng)濟利益,而且會給公共利益與國家安全造成難以估量的損害。因此,應(yīng)認真審視生成式人工智能的數(shù)據(jù)安全問題,并構(gòu)建合理的數(shù)據(jù)風(fēng)險治理模式予以應(yīng)對。

倘若缺乏明確的責(zé)任主體與義務(wù)約束,貿(mào)然將生成式人工智能大規(guī)模應(yīng)用于公眾的虛擬社交場景,必定會引發(fā)一系列數(shù)據(jù)安全事件。生成式人工智能責(zé)任論認為,生成式人工智能已具有類人化的自主意識和辨認控制能力,具備成為法律責(zé)任主體的資格[5]33。事實上,所謂生成式人工智能的自主意識和辨認控制能力只不過是算法運行的外在表象,它的用戶指定的參數(shù)和它被訓(xùn)練的數(shù)據(jù)最終定義了它的決策和輸出[6]107。由此可見,生成式人工智能僅僅是一種工具,其行為射程和效用狀態(tài)仍然要服務(wù)于服務(wù)提供者和使用者的特定利益需求,故最終可能承擔(dān)法律責(zé)任的主體應(yīng)是與之相關(guān)的服務(wù)提供者或使用者。探究生成式人工智能發(fā)生數(shù)據(jù)安全事件的原因,往往是因為服務(wù)提供者怠于履行數(shù)據(jù)安全保護職責(zé)所致。例如,近期ChatGPT因為一個開源庫中有一個錯誤導(dǎo)致用戶的支付相關(guān)信息意外可見,而Open AI公司在安全事件發(fā)生的九小時后才關(guān)閉服務(wù),致使大量數(shù)據(jù)泄露[7]?;趶脑搭^防范數(shù)據(jù)安全風(fēng)險的治理邏輯,作為在數(shù)據(jù)安全治理格局中發(fā)揮核心角色的服務(wù)提供者在享有相應(yīng)利益的同時也應(yīng)承擔(dān)數(shù)據(jù)安全保護義務(wù)。2023年7月頒布的《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《暫行辦法》)將數(shù)據(jù)安全保護義務(wù)這一積極義務(wù)施予了生成式人工智能的服務(wù)提供者,自此我國正式從制度層面確立起“以服務(wù)提供者義務(wù)為中心”的生成式人工智能數(shù)據(jù)安全治理模式(1)數(shù)據(jù)安全保護義務(wù)是指有關(guān)組織或個人負有的采取必要措施,保護數(shù)據(jù)的安全,從而防止未經(jīng)授權(quán)的訪問以及數(shù)據(jù)的泄露、篡改、丟失,并在已經(jīng)或可能發(fā)生數(shù)據(jù)泄露、篡改、丟失時采取相應(yīng)補救措施的義務(wù)。參見程嘯:《論數(shù)據(jù)安全保護義務(wù)》,《比較法研究》,2023年第2期,第60—61頁?!稌盒修k法》雖然沒有明文規(guī)定生成式人工智能的服務(wù)提供者應(yīng)承擔(dān)數(shù)據(jù)安全保護義務(wù),但依據(jù)《數(shù)據(jù)安全法》第二十七條之規(guī)定,只要實施數(shù)據(jù)處理活動,任何組織和個人均應(yīng)履行相應(yīng)的數(shù)據(jù)安全保護義務(wù);又根據(jù)《暫行辦法》第七條,服務(wù)提供者是開展生成式人工智能數(shù)據(jù)預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等數(shù)據(jù)處理活動的主體,因而讓生成式人工智能的服務(wù)提供者承擔(dān)數(shù)據(jù)安全保護義務(wù)具有實定法依據(jù)。。作為生成式人工智能數(shù)據(jù)安全保護的義務(wù)主體,如果服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù),理應(yīng)承擔(dān)包括刑事責(zé)任在內(nèi)的法律責(zé)任。然而,生成式人工智能的服務(wù)提供者承擔(dān)數(shù)據(jù)安全保護義務(wù)的理據(jù)何在,服務(wù)提供者的數(shù)據(jù)安全保護義務(wù)包括哪些事項,以及服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)的法律責(zé)任又該如何配置,這些關(guān)鍵問題《暫行辦法》都未進行明釋。因此,亟須從理論上明確生成式人工智能服務(wù)提供者的數(shù)據(jù)安全保護義務(wù)及其法律責(zé)任。但是,目前學(xué)界大多是在討論生成式人工智能的技術(shù)風(fēng)險時附帶性提及數(shù)據(jù)安全問題,對生成式人工智能數(shù)據(jù)安全問題的專門性研究略顯薄弱,特別是基于積極義務(wù)視角探討生成式人工智能數(shù)據(jù)安全風(fēng)險的治理策略的理論研究幾乎處于空白。鑒于此,筆者擬以《暫行辦法》為指引,結(jié)合《數(shù)據(jù)安全法》《個人信息保護法》《網(wǎng)絡(luò)安全法》等法律的相關(guān)規(guī)定對前述問題展開分析,以期彌補理論缺憾與對司法實務(wù)有所裨益。

二、服務(wù)提供者承擔(dān)數(shù)據(jù)安全保護義務(wù)的正當(dāng)性基礎(chǔ)

義務(wù)制度構(gòu)建的前提在于找準角色定位,《暫行辦法》的相關(guān)規(guī)定為生成式人工智能服務(wù)提供者承擔(dān)數(shù)據(jù)安全保護義務(wù)提供了規(guī)范依據(jù)支持。理由是將人的行為與規(guī)則聯(lián)系起來的最佳紐帶,如果某個法律規(guī)范系統(tǒng)缺少理由來支持或證成自身行動,它就連被考慮的資格都沒有[8]48。因此,服務(wù)提供者承擔(dān)數(shù)據(jù)安全保護義務(wù)的正當(dāng)性基礎(chǔ)是什么,仍待進一步探究。

(一)服務(wù)提供者處于數(shù)據(jù)控制者的角色地位

海量的高質(zhì)量語料基礎(chǔ)是生成式人工智能技術(shù)突破的關(guān)鍵,而服務(wù)提供者是生成式人工智能語料庫數(shù)據(jù)來源篩選與控制的主體。ChatGPT的語料體系由預(yù)訓(xùn)練語料集和微調(diào)語料集組成,其中預(yù)訓(xùn)練語料集主要來源于Common Crawl數(shù)據(jù)集、英文維基百科數(shù)據(jù)、WebText語料庫、Reddit鏈接、書籍、報紙雜志等。微調(diào)語料集包括代碼微調(diào)語料和對話微調(diào)語料。前者由多種編程語言撰寫的代碼、代碼中的注釋和說明文件構(gòu)成,后者則囊括了生成、問答和聊天等超過九種類型的標(biāo)注數(shù)據(jù)[9]8。依據(jù)數(shù)據(jù)的來源,可以大致將數(shù)據(jù)分為公有領(lǐng)域的數(shù)據(jù)、獲得個人授權(quán)的數(shù)據(jù)與未經(jīng)個人授權(quán)的數(shù)據(jù)。對于不承載個人信息權(quán)益與不影響公共安全、國家安全的公有數(shù)據(jù),服務(wù)提供者可以不受限制地使用和加工。但這類數(shù)據(jù)未必都是準確、真實的數(shù)據(jù),在納入語料庫時,服務(wù)提供者應(yīng)進行嚴格甄別。服務(wù)提供者處理獲得個人授權(quán)的數(shù)據(jù)的正當(dāng)性根據(jù)來自合同約定,在處理過程中應(yīng)推動個人信息的匿名化處理,保障個人數(shù)據(jù)的信息安全和個人隱私。如果服務(wù)提供者利用網(wǎng)絡(luò)爬蟲技術(shù)爬取個人數(shù)據(jù)而未經(jīng)個人授權(quán),由于這類數(shù)據(jù)作為初始數(shù)據(jù)本身就已經(jīng)構(gòu)成侵權(quán),服務(wù)提供者再對其進行加工并訓(xùn)練數(shù)據(jù)語料庫模型的行為就處于非法獲取的延長線上。由此可見,除生成式人工智能服務(wù)提供者之外的其他主體并無任何權(quán)限控制數(shù)據(jù)的來源,僅服務(wù)提供者有權(quán)決定哪些數(shù)據(jù)可以納入語料庫。這種特殊的優(yōu)勢地位要求服務(wù)提供者對于語料庫的數(shù)據(jù)不能局限于被動的事后管理,也要事前積極審查數(shù)據(jù)來源的合法性與真實性,當(dāng)生成式人工智能的數(shù)據(jù)來源出現(xiàn)合法性與真實性偏差時,作為控制數(shù)據(jù)來源主體的服務(wù)提供者就應(yīng)對此負責(zé)。

算法是生成式人工智能得以開展海量數(shù)據(jù)訓(xùn)練的基礎(chǔ),而服務(wù)提供者是生成式人工智能算法設(shè)計或部署的主體。以ChatGPT為代表的生成式人工智能是一種由生成式預(yù)訓(xùn)練和算法語言轉(zhuǎn)換相結(jié)合的內(nèi)容生成式人工智能,其工作的基本原理是:預(yù)先對既有的文本語料進行自主學(xué)習(xí)訓(xùn)練,然后通過Transformer模型構(gòu)建與人類表達方式和邏輯高度類似的語言算法模型,從而在特定場景根據(jù)服務(wù)使用者的指令輸出高質(zhì)量的結(jié)果[10]52。算法作為ChatGPT等生成式人工智能運行的底層邏輯,具有極強的專業(yè)性,使得非專業(yè)人士無法掌握或理解算法的運行和決策原理,很容易在專業(yè)人士與非專業(yè)人士之間形成技術(shù)鴻溝。專業(yè)人士可以借助諸如逆向工程等技術(shù)方法觸摸到算法的底層邏輯,并通過機械可解釋性方法以可視化、可交互的形式顯示其成果[11]。服務(wù)提供者作為生成式人工智能的算法設(shè)計者、部署者,相比于服務(wù)使用者或者其他主體具有更加明顯的專業(yè)技術(shù)優(yōu)勢,實際上直接控制支配了用戶所能接收到的數(shù)據(jù)范圍和內(nèi)容,具有極強的數(shù)據(jù)安全保護能力,能夠從源頭上更為便捷地化解生成式人工智能的數(shù)據(jù)安全風(fēng)險。這迫使政府不得不轉(zhuǎn)變角色,以立法形式構(gòu)建起一套“以服務(wù)提供者義務(wù)為中心”的生成式人工智能數(shù)據(jù)安全治理模式,即通過施予作為數(shù)據(jù)實際控制者的服務(wù)提供者以相應(yīng)的數(shù)據(jù)安全保護義務(wù),確保生成式人工智能的語料體系始終處于有效保護與合法利用的狀態(tài)。

(二)服務(wù)提供者需要履行數(shù)據(jù)財產(chǎn)權(quán)的社會義務(wù)

隨著信息時代的到來與數(shù)字經(jīng)濟的勃興,我國在國家政策層面和立法層面都存在數(shù)據(jù)確權(quán)的需求。自從2020年3月數(shù)據(jù)成為一種新型生產(chǎn)要素后,同年5月公布的《民法典》第一百二十七條便將數(shù)據(jù)原則性地規(guī)定為一項新興的財產(chǎn)權(quán)客體,但具體法律規(guī)則闕如而使得數(shù)據(jù)財產(chǎn)利益仍處于權(quán)利化的進程中。為推動數(shù)據(jù)基礎(chǔ)制度建設(shè)和充分釋放數(shù)據(jù)要素價值,中共中央、國務(wù)院于2022年12月印發(fā)《關(guān)于構(gòu)建數(shù)據(jù)基礎(chǔ)制度 更好發(fā)揮數(shù)據(jù)要素作用的意見》(以下稱“數(shù)據(jù)二十條”),明確提出“建立數(shù)據(jù)資源持有權(quán)、數(shù)據(jù)加工使用權(quán)、數(shù)據(jù)產(chǎn)品經(jīng)營權(quán)等分置的產(chǎn)權(quán)運行機制”。這一政策性文件的出臺標(biāo)志著我國正式確立了“三權(quán)分置”數(shù)據(jù)產(chǎn)權(quán)制度框架。然而,在解讀“數(shù)據(jù)二十條”的過程中,學(xué)界形成了兩種截然相反的立場:反對數(shù)據(jù)確權(quán)與主張確立數(shù)據(jù)產(chǎn)權(quán)是一項新型財產(chǎn)權(quán)[12]1。筆者采取數(shù)據(jù)確權(quán)肯定論的立場,即數(shù)據(jù)之上直接承載的權(quán)益主要體現(xiàn)為一種財產(chǎn)權(quán)益。

《數(shù)據(jù)安全法》第三條將數(shù)據(jù)與信息區(qū)分為兩個不同的事物,借用康德的概念體系,信息沒有被記錄前是一種不可知的“自在之物”,而以電子或者其他方式記錄的信息則是一種感性直觀的“現(xiàn)象之物”[13]47-48。在作出以上區(qū)分之后,可以推斷,以零碎化形態(tài)存在并被人們所捕獲的信息不符合數(shù)字化利用的需要,信息的數(shù)據(jù)化是信息在大數(shù)據(jù)時代成為可用之物的關(guān)鍵。洛克的勞動財產(chǎn)權(quán)理論認為,要使某個事物擺脫自然屬性而變成專屬于他個人的財產(chǎn),他就應(yīng)在這個事物中摻進自己的勞動[14]123。在數(shù)據(jù)處理活動中,數(shù)據(jù)處理者需要長期辛勤勞作和付出巨大成本以將彌散在社會中的原始信息不斷地轉(zhuǎn)化為數(shù)據(jù),同時要在保障數(shù)據(jù)安全、提升數(shù)據(jù)質(zhì)量等方面持續(xù)投入大量資源。數(shù)據(jù)處理者在獲取原始信息后所實施的一系列對數(shù)據(jù)的存儲、保管和清洗加工等勞動行為改變了原始信息的自然狀態(tài),使蘊藏在原始信息中的財產(chǎn)價值不斷凝聚。一如洛克的勞動財產(chǎn)權(quán)理論,沒有以電子或者其他方式記錄的信息以非數(shù)據(jù)形式存在,屬于自然狀態(tài)下的消極共有物(即便不屬于自然狀態(tài)下的消極共有物,但至少不能視為服務(wù)提供者的個人財產(chǎn));服務(wù)提供者利用生成式人工智能而實施的數(shù)據(jù)處理行為將信息數(shù)據(jù)化可被算法利用,應(yīng)歸類為洛克眼中的勞動行為,其通過對原始信息附加自己的勞動而獲得了相應(yīng)的數(shù)據(jù)財產(chǎn)權(quán)。

服務(wù)提供者對生成式人工智能語料庫中的數(shù)據(jù)享有數(shù)據(jù)財產(chǎn)權(quán),同時要負擔(dān)與這種私人財產(chǎn)性權(quán)利相對應(yīng)的社會義務(wù)。古典自由主義的“財產(chǎn)權(quán)絕對”觀念,是近代以來法律保護財產(chǎn)權(quán)的思想基礎(chǔ)。例如,在最具典型性的偉大啟蒙思想家洛克看來,“只要他確定了對財產(chǎn)的所有權(quán),就沒有人能夠從他手中奪走對土地的所有權(quán)”[14]127。但是,讓財產(chǎn)權(quán)走向完全的自由張揚反而會與社會形成對立而最終導(dǎo)致財產(chǎn)自由的毀滅,故“財產(chǎn)權(quán)絕對”觀念引發(fā)了學(xué)界的激烈批駁。例如,“財產(chǎn)權(quán)絕對”觀念雖然得到了《德國民法典》第九百零三條的確認,但在《德國民法典》第一草案的討論中,基爾克、門格等人就指出“此種想法是違反文化的一種荒謬”,會“損害關(guān)于等級、傳統(tǒng)及信念和道德上對家鄉(xiāng)熱愛的穩(wěn)定”[15]243。受社會本位主義的沖擊和影響,以保護私人自由為中心的古典自由主義的財產(chǎn)法理念開始讓位于財產(chǎn)權(quán)的社會關(guān)聯(lián)性。法國《人權(quán)宣言》第十七條規(guī)定“私人財產(chǎn)神圣不可侵犯,除非當(dāng)合法認定的公共需要所顯然必需”,就是“財產(chǎn)權(quán)負有社會義務(wù)”觀念最為生動的體現(xiàn)。目前,我國為了公共利益而讓財產(chǎn)權(quán)人承擔(dān)社會義務(wù)的立法例已不勝枚舉。例如,土地是人類生存不可或缺的資源,具有易破壞性和不易回復(fù)性等特質(zhì),所以《土地管理法》第十條規(guī)定享有土地利益的使用者有保護、管理和合理利用土地的義務(wù),而不能在土地遭受破壞時袖手旁觀。在百年未有之大變局和信息革命的雙重影響下,數(shù)據(jù)已成為我國的國家基礎(chǔ)性戰(zhàn)略資源和新型生產(chǎn)要素,數(shù)據(jù)安全不僅關(guān)系到我國經(jīng)濟高質(zhì)量發(fā)展和國家社會安全,而且在很大程度上會帶來國際格局的變化。在此背景下,《暫行辦法》要求享有數(shù)據(jù)利益的服務(wù)提供者承擔(dān)數(shù)據(jù)安全保護義務(wù),化解生成式人工智能蘊含的數(shù)據(jù)安全風(fēng)險,這種數(shù)據(jù)安全保護義務(wù)即是在履行數(shù)據(jù)財產(chǎn)權(quán)的社會義務(wù)。

(三)服務(wù)提供者處理的數(shù)據(jù)系屬國家基礎(chǔ)性戰(zhàn)略資源

數(shù)據(jù)往往關(guān)系國家安全、經(jīng)濟發(fā)展與社會公共利益,已經(jīng)成為各國的基礎(chǔ)性戰(zhàn)略資源。中國共產(chǎn)黨的第二十次全國代表大會報告明確指出“國家安全是民族復(fù)興的根基”,并對國家安全作了系統(tǒng)性闡述。總體國家安全觀是國家從治國理政總體布局的高度強化對國家安全的保護,對于我們認識和處理新時代變局下的國家安全問題具有重大指導(dǎo)意義,而維護數(shù)據(jù)安全則是總體國家安全觀的題中應(yīng)有之義。在總體國家安全觀方法論這一系統(tǒng)思維的指引下,《數(shù)據(jù)安全法》構(gòu)建了一個包含數(shù)據(jù)基本要素與數(shù)據(jù)基本子制度的數(shù)據(jù)安全制度模型,以為防范與化解數(shù)據(jù)安全風(fēng)險,強化數(shù)據(jù)資源全生命周期安全提供法律支持[16]31。《數(shù)據(jù)安全法》第二十一條依據(jù)數(shù)據(jù)對國家安全、公共安全影響程度以及出現(xiàn)數(shù)據(jù)安全事件后造成的危害后果,對數(shù)據(jù)自上而下地劃定了兩個主要的數(shù)據(jù)類型,即重要數(shù)據(jù)和一般數(shù)據(jù)(2)《數(shù)據(jù)安全法》第二十一條出現(xiàn)“核心數(shù)據(jù)”一詞,但整個《數(shù)據(jù)安全法》僅在此處出現(xiàn)一次。目前學(xué)界存在兩種認識。一是核心數(shù)據(jù)獨立于重要數(shù)據(jù)之外。參見王玎:《論數(shù)據(jù)處理者的數(shù)據(jù)安全保護義務(wù)》,《當(dāng)代法學(xué)》2023年第2期,第43頁。二是核心數(shù)據(jù)是重要數(shù)據(jù)中的重要數(shù)據(jù)。參見洪延青:《國家安全視野中的數(shù)據(jù)分類分級保護》,《中國法律評論》2021年第5期,第75頁。如果持第一種見解,《數(shù)據(jù)安全法》就應(yīng)對核心數(shù)據(jù)設(shè)計相應(yīng)的監(jiān)管規(guī)定,但立法并未如此,因而本文采取第二種觀點。。“重要數(shù)據(jù)”概念雖然是于2016年11月出臺的《網(wǎng)絡(luò)安全法》首次提出,但直到2017年4月,由國家互聯(lián)網(wǎng)信息辦公室頒布的《個人信息和重要數(shù)據(jù)出境安全評估辦法(征求意見稿)》(以下簡稱《數(shù)據(jù)出境安全評估辦法(征求意見稿)》)第十七條才對此作出界定。盡管2022年7月出臺的《數(shù)據(jù)出境安全評估辦法》對“重要數(shù)據(jù)”的定義與《數(shù)據(jù)出境安全評估辦法(征求意見稿)》并不完全一致,但兩者均肯定重要數(shù)據(jù)是指那些與公共利益(包括國家利益與社會利益)緊密相關(guān)的重要數(shù)據(jù)資源,一旦遭受竊取、泄露或非法利用將會給公共利益造成重大損失,嚴重的會危及國家安全。又根據(jù)《數(shù)據(jù)出境安全評估辦法》第四條之規(guī)定,如果一般數(shù)據(jù)達到一定體量,也會與公共利益產(chǎn)生聯(lián)系。生成式人工智能的技術(shù)框架來自境外,技術(shù)模型主要是基于西方價值觀設(shè)計,其所依賴的技術(shù)底層邏輯也即算法在被設(shè)計和編寫的過程中帶有先天性的西方價值偏向[17]6,易受歐美國家行為體、非國家行為體的操控?,F(xiàn)代數(shù)字技術(shù)通過與資本的合流于事實層面加速推進世界由分散向全球化演進,并在這一過程中形成了技術(shù)、經(jīng)濟、政治一體化的復(fù)合型霸權(quán)主義[18]65。這種新型霸權(quán)主義可能會從與傳統(tǒng)不同的維度影響數(shù)字主權(quán),并通過數(shù)據(jù)安全的緩慢滲透繼而危及一國的國家安全。高度智能化的生成式人工智能可能經(jīng)由強大的數(shù)據(jù)檢索和分析能力,通過關(guān)鍵詞提示等方式有針對性地大范圍收集數(shù)據(jù)而生成關(guān)鍵設(shè)施位置、重大政策傾向等國家重要數(shù)據(jù)。例如,生成式人工智能設(shè)計國的政府完全可能借助生成式人工智能技術(shù)有針對性地收集我國軍事、金融、能源、電信、港口運輸?shù)戎匾I(lǐng)域的重要數(shù)據(jù)。一旦我國的這些重要數(shù)據(jù)被他國非法獲取并進行算法技術(shù)分析,將會對我國國家安全、社會安全造成毀滅性打擊。因此,從控制我國的數(shù)據(jù)外泄、保障我國數(shù)據(jù)主權(quán)完整、促進我國經(jīng)濟繁榮等角度,為服務(wù)提供者設(shè)定數(shù)據(jù)安全保護義務(wù)具有充分的正當(dāng)性。

三、服務(wù)提供者數(shù)據(jù)安全保護義務(wù)的類型及其內(nèi)容

根據(jù)《暫行辦法》第七條第(五)項,服務(wù)提供者所需要履行的數(shù)據(jù)安全保護義務(wù)的基本內(nèi)容主要由《數(shù)據(jù)安全法》《個人信息保護法》《網(wǎng)絡(luò)安全法》確定。遺憾的是,這些法律規(guī)范對于數(shù)據(jù)安全保護義務(wù)的規(guī)定不僅表現(xiàn)出較強的抽象特征(例如,《數(shù)據(jù)安全法》第二十七條規(guī)定應(yīng)采取技術(shù)措施保障數(shù)據(jù)安全,但需要采取什么技術(shù)措施該法并沒有明確),而且分散于各個法律規(guī)范中的義務(wù)內(nèi)容還存在一定的交叉與競合。因此,有必要將生成式人工智能服務(wù)提供者應(yīng)當(dāng)履行的數(shù)據(jù)安全保護義務(wù)加以整理并進行類型化。根據(jù)服務(wù)提供者義務(wù)履行的時間節(jié)點,即是否發(fā)生數(shù)據(jù)安全事件,可以將數(shù)據(jù)安全保護義務(wù)劃分為技術(shù)安全保障與數(shù)據(jù)風(fēng)險管理的事前防范義務(wù),以及發(fā)生數(shù)據(jù)安全事件后立即采取處置措施并及時告知報告的事后處置義務(wù)。

(一)事前防范義務(wù):技術(shù)安全保障與數(shù)據(jù)風(fēng)險管理

1.技術(shù)安全保障

生成式人工智能的服務(wù)提供者應(yīng)當(dāng)為數(shù)據(jù)安全提供技術(shù)支持,以有效化解生成式人工智能在數(shù)據(jù)安全保護方面面臨的困境。技術(shù)措施是指服務(wù)提供者為確保生成式人工智能的數(shù)據(jù)處于安全狀態(tài)所需要采取的各種技術(shù)方法或技術(shù)手段?!稊?shù)據(jù)安全法》的相關(guān)規(guī)定、《網(wǎng)絡(luò)安全法》第二十一條和《個人信息保護法》第五十一條都明確規(guī)定保護數(shù)據(jù)安全應(yīng)當(dāng)采取安全技術(shù)措施,并對數(shù)據(jù)安全的技術(shù)治理作出制度性擘畫,這為生成式人工智能的數(shù)據(jù)安全保護提供了規(guī)范依據(jù)。首先,服務(wù)提供者需要對生成式人工智能的語料庫采取加密技術(shù)措施?!毒W(wǎng)絡(luò)安全法》第二十一條第(四)項和《個人信息保護法》第五十一條第(三)項都明確規(guī)定數(shù)據(jù)處理者對數(shù)據(jù)應(yīng)當(dāng)采取加密技術(shù)措施。數(shù)據(jù)加密是將可讀取的數(shù)據(jù)以技術(shù)手段轉(zhuǎn)化為不可讀取的密文之過程,沒有密鑰便不能訪問該數(shù)據(jù),從而確保數(shù)據(jù)安全控制于得到授權(quán)的人員手中,避免他人未經(jīng)授權(quán)訪問或?qū)χM行非法竊取、篡改等。因此,生成式人工智能的服務(wù)提供者需要通過加密技術(shù)的運用實現(xiàn)訪問控制,確定可以讀取數(shù)據(jù)、修改數(shù)據(jù)的主體。此外,《個人信息保護法》第七十三條第(三)項還要求數(shù)據(jù)處理者采取去標(biāo)識化的技術(shù)措施。從我國《信息安全技術(shù) 個人信息安全規(guī)范》(2020年第1號)第3.15條的表述邏輯來看,加密是去標(biāo)識化的主要技術(shù)手段之一。因而加密與去標(biāo)識化之間屬于手段和目的的對應(yīng)關(guān)系,即數(shù)據(jù)加密的目的就是為了去標(biāo)識化,兩者并不位于同一制度層面。其次,服務(wù)提供者需要對生成式人工智能的語料庫采取防范技術(shù)措施。在生成式人工智能進行大規(guī)模的數(shù)據(jù)匯集、流通和分析過程中,語料庫中存儲的大量數(shù)據(jù)很可能會受到其他不法行為人的惡意攻擊。例如,不法行為人可以通過逆向推導(dǎo)生成式人工智能模型的參數(shù)或訓(xùn)練數(shù)據(jù),從而獲取敏感信息或泄露隱私,或者通過訪問生成式人工智能模型的解釋信息來獲取敏感數(shù)據(jù)[19]24。這些攻擊均可能造成生成式人工智能語料庫中的數(shù)據(jù)被竊取、刪除和篡改等。所以,服務(wù)提供者需要采取防范技術(shù)措施提高系統(tǒng)免疫力,防止他人侵入生成式人工智能語料庫中非法獲取、刪除、篡改相應(yīng)的數(shù)據(jù)。最后,服務(wù)提供者需要對生成式人工智能系統(tǒng)采取監(jiān)測技術(shù)措施?!稊?shù)據(jù)安全法》第二十九條規(guī)定“開展數(shù)據(jù)處理活動應(yīng)當(dāng)加強風(fēng)險監(jiān)測”?!毒W(wǎng)絡(luò)安全法》第二十一條第(三)項也作出類似規(guī)定,要求“采取監(jiān)測、記錄網(wǎng)絡(luò)運行狀態(tài)、網(wǎng)絡(luò)安全事件的技術(shù)措施”?;诖?服務(wù)提供者應(yīng)當(dāng)對其提供的生成式人工智能服務(wù)產(chǎn)品采取相應(yīng)的數(shù)據(jù)安全監(jiān)測技術(shù)措施,以便能夠及時發(fā)現(xiàn)并處置生成式人工智能可能潛在的數(shù)據(jù)安全風(fēng)險,從而從源頭提前預(yù)防數(shù)據(jù)泄露等數(shù)據(jù)安全事件的發(fā)生。如果服務(wù)提供者通過監(jiān)測技術(shù)措施發(fā)現(xiàn)生成式人工智能存在數(shù)據(jù)安全隱患問題,其應(yīng)當(dāng)立即采取補救措施防止數(shù)據(jù)發(fā)生泄露或者被竊取、篡改。

2.數(shù)據(jù)風(fēng)險管理

第一,服務(wù)提供者在開展生成式人工智能的預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動前應(yīng)對數(shù)據(jù)處理影響進行評估?!稊?shù)據(jù)安全法》第三十條規(guī)定重要數(shù)據(jù)的處理者應(yīng)對其數(shù)據(jù)處理活動定期開展風(fēng)險評估,這是因為重要數(shù)據(jù)一旦遭受泄露或被非法獲取、利用,就很可能會危及國家安全、公共安全等重要利益。故此,當(dāng)生成式人工智能服務(wù)提供者處理的是重要數(shù)據(jù),應(yīng)定期開展風(fēng)險評估。倘若服務(wù)提供者處理的數(shù)據(jù)包含有個人信息,符合《個人信息保護法》第五十五條規(guī)定的五種特殊情形的,應(yīng)進行事前個人信息保護影響評估。然而,對可能造成什么樣的影響才需要進行評估,法律留下了空白。在此可以根據(jù)影響的對象與形態(tài)進行類型化考察:一是有無對個人產(chǎn)生有形的或無形的影響,前者主要包括個人的身體權(quán)益損害、經(jīng)濟損失等,后者主要包括名譽損害、社會性歧視等;二是有無對社會產(chǎn)生影響,如惡化營商環(huán)境等;三是有無對國家安全產(chǎn)生影響,如危及國家軍事安全、國防安全等。《數(shù)據(jù)安全法》與《個人信息保護法》規(guī)定的數(shù)據(jù)安全風(fēng)險評估制度雖然在功能與內(nèi)容方面存在不同之處,但是兩者的共同目的均是為了保護數(shù)據(jù)安全,在數(shù)據(jù)安全事件發(fā)生前消除可能存在或現(xiàn)實存在的數(shù)據(jù)安全風(fēng)險。

第二,服務(wù)提供者需要對存儲于生成式人工智能語料庫中的數(shù)據(jù)進行分類管理?!毒W(wǎng)絡(luò)安全法》第二十一條第(四)項規(guī)定網(wǎng)絡(luò)運行者要采取數(shù)據(jù)分類措施,且《數(shù)據(jù)安全法》和《個人信息法》均要求數(shù)據(jù)安全風(fēng)險評估報告中應(yīng)當(dāng)包括處理的數(shù)據(jù)種類。數(shù)據(jù)分類是指按照某種標(biāo)準對數(shù)據(jù)進行歸類(如數(shù)據(jù)的重要程度),方便數(shù)據(jù)處理者或者國家采取對應(yīng)的保護措施。之所以要求服務(wù)提供者采取數(shù)據(jù)分類措施,是為了與其數(shù)據(jù)處理所面臨的數(shù)據(jù)安全風(fēng)險相適應(yīng)。高風(fēng)險意味著更重的義務(wù)與責(zé)任,如果服務(wù)提供者從事的是高風(fēng)險的數(shù)據(jù)處理活動,則應(yīng)采取更高規(guī)格的安全保護措施,承擔(dān)更高的注意義務(wù)。例如,對于重要數(shù)據(jù)和敏感個人數(shù)據(jù),服務(wù)提供者應(yīng)當(dāng)采取比一般數(shù)據(jù)更強的技術(shù)措施確保生成式人工智能語料庫中的這類數(shù)據(jù)始終處于安全狀態(tài)。服務(wù)提供者通過對數(shù)據(jù)進行分類,從而有利于在數(shù)據(jù)全生命周期安全內(nèi)構(gòu)建起輕重有別、重點突出的數(shù)據(jù)安全保護體系。

第三,服務(wù)提供者需要確定生成式人工智能的數(shù)據(jù)安全負責(zé)人和數(shù)據(jù)安全管理機構(gòu)。明確數(shù)據(jù)安全負責(zé)人(或者個人信息保護負責(zé)人)和管理機構(gòu)是服務(wù)提供者履行數(shù)據(jù)安全保護義務(wù)的法定內(nèi)容之一:一方面,如果服務(wù)提供者處理的是重要數(shù)據(jù),根據(jù)《數(shù)據(jù)安全保護法》第二十七條第二款之規(guī)定,服務(wù)提供者應(yīng)當(dāng)明確數(shù)據(jù)安全負責(zé)人和管理機構(gòu);另一方面,服務(wù)提供者處理的數(shù)據(jù)含有個人信息的,且個人信息的數(shù)量達到了國家網(wǎng)信部門的有關(guān)規(guī)定,根據(jù)《個人信息保護法》第五十二條第一款,服務(wù)提供者應(yīng)當(dāng)指定個人信息保護負責(zé)人。當(dāng)然,服務(wù)提供者確定的數(shù)據(jù)安全負責(zé)人和個人信息保護負責(zé)人可以是同一主體。確定數(shù)據(jù)安全負責(zé)人(或者個人信息保護負責(zé)人)和管理機構(gòu)的重要意義在于將數(shù)據(jù)安全保護作為一項基本義務(wù)內(nèi)嵌于服務(wù)提供者的組織管理體系,從而讓專職人員或?qū)I(yè)機構(gòu)監(jiān)管服務(wù)提供者的數(shù)據(jù)處理行為,防止數(shù)據(jù)安全事件發(fā)生,推進數(shù)據(jù)安全保護的落地落實?!毒W(wǎng)絡(luò)數(shù)據(jù)安全管理條例(征求意見稿)》第二十八條以有限列舉的形式詳細設(shè)計了重要數(shù)據(jù)處理中數(shù)據(jù)安全負責(zé)人和數(shù)據(jù)安全管理機構(gòu)的六項職責(zé)。但截至目前,并沒有一部法律法規(guī)、部門規(guī)章明確達到國家網(wǎng)信部門規(guī)定的數(shù)量究竟是多少。為緩解這種法律缺失困境,可以在參照《個人信息保護法》第四十條的基礎(chǔ)上結(jié)合《數(shù)據(jù)出境安全評估辦法》第四條第(二)項進行擬定,即服務(wù)提供者處理100萬人以上個人信息的,就應(yīng)指定個人信息保護負責(zé)人。

(二)事后處置義務(wù):立即采取處置措施并及時告知報告

服務(wù)提供者通過監(jiān)測技術(shù)措施發(fā)現(xiàn)生成式人工智能存在數(shù)據(jù)安全風(fēng)險后,應(yīng)立即采取補救措施消除風(fēng)險。這里的補救措施是針對生成式人工智能的數(shù)據(jù)安全缺陷、漏洞等數(shù)據(jù)安全風(fēng)險而言的,既包括技術(shù)措施,如修復(fù)生成式人工智能的系統(tǒng)漏洞、對語料庫的數(shù)據(jù)進行加密;也包括組織措施,如重新確定數(shù)據(jù)安全負責(zé)人或數(shù)據(jù)安全管理機構(gòu)等。這些舉措都屬于一種事前的防范義務(wù)。服務(wù)提供者所需要履行的事后處置義務(wù)與事前防范義務(wù)不同。首先,在生成式人工智能已經(jīng)現(xiàn)實性發(fā)生數(shù)據(jù)安全事件的情況下,服務(wù)提供者應(yīng)立即采取處置措施,防止危害結(jié)果進一步擴大,并及時告知用戶以及向有關(guān)主管部門報告。可見,只有在生成式人工智能出現(xiàn)數(shù)據(jù)安全事件的情況下,服務(wù)提供者方才需要采取處置措施。所謂數(shù)據(jù)安全事件,是指由于人為原因(如工作人員的疏忽或者黑客攻擊)、生成式人工智能的系統(tǒng)缺陷或故障(如ChatGPT的開源庫錯誤)等,導(dǎo)致語料庫的數(shù)據(jù)發(fā)生泄露或被竊取、篡改等對社會造成負面影響的事件。從概念本身進行解讀,生成式人工智能發(fā)生數(shù)據(jù)安全事件的原因歸納起來主要有三類:一是生成式人工智能本身的系統(tǒng)缺陷或故障;二是服務(wù)提供者組織內(nèi)部的人為失誤;三是來自外界的黑客等惡意攻擊。服務(wù)提供者需要立即采取的處置措施包括暫停服務(wù)、修復(fù)程序漏洞等,阻止危害結(jié)果進一步擴大,減少或者消除因數(shù)據(jù)安全事件給他人合法權(quán)益、社會利益和國家安全等帶來的不利影響。其次,如果數(shù)據(jù)中包含有個人信息,還應(yīng)遵守《個人信息保護法》的相關(guān)規(guī)定?!秱€人信息保護法》第五十七條規(guī)定的補救措施應(yīng)作廣義理解,既包括存在數(shù)據(jù)安全風(fēng)險時所需要采取的補救措施,還包括在發(fā)生數(shù)據(jù)安全事件后應(yīng)采取的處置措施,以此才能與“發(fā)生或者可能發(fā)生”的含義相適應(yīng)。最后,與《數(shù)據(jù)安全法》不同,在《個人信息保護法》中,不論是已經(jīng)現(xiàn)實性發(fā)生個人信息安全事件,還是僅存在個人信息安全風(fēng)險,都需要通知履行個人信息保護職責(zé)的部門和個人。此外,如果現(xiàn)實性發(fā)生了個人信息安全事件,《數(shù)據(jù)安全法》要求按照規(guī)定及時告知用戶并向有關(guān)主管部門報告,而依據(jù)《個人信息保護法》并不需要及時告知個人,但履行個人信息保護職責(zé)的部門認為可能造成危害而要求通知個人的除外。從表面看來,兩個法律規(guī)范之間對發(fā)生數(shù)據(jù)安全事件后的通知對象存在矛盾,但事實并非如此。由于《個人信息保護法》相對《數(shù)據(jù)安全法》來說屬特別法,因而在涉及個人信息的場景應(yīng)優(yōu)先適用《個人信息保護法》。賦予生成式人工智能服務(wù)提供者通知義務(wù),意義不僅在于促使服務(wù)提供者認識到發(fā)生數(shù)據(jù)安全事件將提高其經(jīng)營成本,還能反向督促服務(wù)提供者在生成式人工智能發(fā)生數(shù)據(jù)安全事件前采取更為有效的數(shù)據(jù)安全保護措施。

四、服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)的法律責(zé)任

我國現(xiàn)行的民法、行政法、刑法能夠在某種程度上對服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)的法律責(zé)任進行分散追責(zé),但尚未形成周延的法律責(zé)任體系。如果缺乏整體法秩序意義上的理論認識與體系規(guī)制,就容易導(dǎo)致服務(wù)提供者法律責(zé)任的片段化。故在對服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)的法律責(zé)任進行分別性界定的基礎(chǔ)上,還應(yīng)注重不同法律責(zé)任之間的體系銜接與功能協(xié)同。

(一)義務(wù)違反的法律責(zé)任配置

服務(wù)提供者因未履行數(shù)據(jù)安全保護義務(wù)而對個人利益、公共利益造成實質(zhì)危害的場合,其在承擔(dān)侵權(quán)和違約的私法責(zé)任的同時也可能需要承擔(dān)公法責(zé)任。在承認私法與公法二元結(jié)構(gòu)劃分之前提下,民法屬于私法,而行政法與刑法系屬公法,公法與私法對應(yīng)的法律責(zé)任分別是私法責(zé)任與公法責(zé)任。社會和諧是中國特色社會主義的本質(zhì)屬性,法治為社會和諧提供保障,國家為了維護社會安定有序而建構(gòu)的整體法秩序都是以保護法益為己任,公法和私法都概莫能外。依據(jù)《暫行辦法》第二十一條、《數(shù)據(jù)安全法》第五十二條之規(guī)定,服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)而發(fā)生數(shù)據(jù)安全事件的,從法律歸責(zé)的視角出發(fā),服務(wù)提供者可能既要承擔(dān)私法責(zé)任,又要承擔(dān)公法責(zé)任。由此可見,服務(wù)提供者的數(shù)據(jù)安全保護義務(wù)是一個橫跨民法、行政法、刑法領(lǐng)域的問題,各部門法對于服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)的調(diào)整存在多種法律責(zé)任的交叉與競合。因此,在對服務(wù)提供者的具體法律責(zé)任予以分別性界定的同時,應(yīng)注意防止不同法律責(zé)任之間的體系銜接錯位。公法責(zé)任是國家權(quán)力機關(guān)對不法者行為的否定性評價,其主要目的體現(xiàn)在懲罰和預(yù)防,私法責(zé)任是平等民事主體之間因法律規(guī)定而形成的法律關(guān)系,主要是為了實現(xiàn)個人權(quán)益的救濟和補償。由于法律功能的內(nèi)生性差異,對同一行為的公法責(zé)任與私法責(zé)任通常會作并科處理,兩者不存在競合問題。但是,公法責(zé)任通常具有比私法責(zé)任更為鮮明的強制性色彩,對行為人的影響要更加顯著,故而公法責(zé)任通常是對私法責(zé)任的保障。然而,中國國家治理在整體布局上偏愛于有立竿見影效果的公法,對民法等私法的適用關(guān)注度不夠或者相對被動,當(dāng)下大量行政性法律法規(guī)的出臺、積極刑法立法觀的盛行就是最真實的寫照。注重公法治理對于防控社會風(fēng)險、維護社會穩(wěn)定方面固然效果要更加明顯,但權(quán)力的過度膨脹可能會對公民權(quán)利有所損害。為了更好地保障公民權(quán)利,對于各類違法失范行為的治理應(yīng)優(yōu)先啟用私法,而不是動輒入罪入刑[20]45。據(jù)此,應(yīng)從強制力或者調(diào)控手段上使服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)的法律責(zé)任呈現(xiàn)階梯性,即私法責(zé)任具有基礎(chǔ)性地位,公法責(zé)任只是保障,而不能將各種法律責(zé)任置于一種簡單耦合的狀態(tài)。

私法責(zé)任的救濟和補償功能存在先天缺陷,故在私法保護法益不充分的情況下需要動用公法進行保障。其一,生成式人工智能服務(wù)提供者因未履行數(shù)據(jù)安全保護義務(wù)而造成數(shù)據(jù)主體權(quán)益損害的,在民事責(zé)任層面需要承擔(dān)高昂的金錢賠償,其會為自己的不作為付出巨大代價。但針對生成式人工智能龐大體量的數(shù)據(jù)主體來說,個體的權(quán)益救濟往往是象征性的。例如,假設(shè)Open AI公司沒有采取任何防范技術(shù)措施防止他人侵入ChatGPT系統(tǒng),攻擊者通過ChatGPT系統(tǒng)的數(shù)據(jù)安全保護漏洞竊取了大量數(shù)據(jù),造成1000萬人次的個人數(shù)據(jù)泄露。如果最終Open AI公司需要支付的民事賠償金額是1000萬元,但由于群體數(shù)量過于龐大最終均攤到利益受損害的個體手中的金額可能僅有1元,對于個體的權(quán)益救濟幾乎沒有意義。其二,如果服務(wù)提供者所處理的是非個人數(shù)據(jù),在其未履行數(shù)據(jù)安全保護義務(wù)而導(dǎo)致數(shù)據(jù)安全事件發(fā)生,危及社會利益與國家利益的場合,私法對于法益的保護基本上處于失靈狀態(tài)。這是因為不論是侵權(quán)責(zé)任還是違約責(zé)任均是對個人權(quán)益的救濟,私法的觸角延伸不到超個人法益領(lǐng)域。其三,《數(shù)據(jù)安全法》的立法目的不僅是強化個人、組織合法數(shù)據(jù)權(quán)益的法律保護,更在于維護國家主權(quán)、安全和發(fā)展利益(《數(shù)據(jù)安全法》第一條)。即使服務(wù)提供者處理的是個人數(shù)據(jù),但如果這些數(shù)據(jù)涉及國家安全和發(fā)展利益,服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)而導(dǎo)致這些數(shù)據(jù)泄露或被竊取、篡改的,僅讓其承擔(dān)民事責(zé)任未免有失公允。在確定私法責(zé)任擴張的這一基調(diào)后,公法責(zé)任自然就處在服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)法律責(zé)任的保障性地位。在公法責(zé)任內(nèi)部,由于只有當(dāng)其他非刑事懲罰手段在解決社會問題不起作用的情況下,刑法才被允許使用,因而在服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)的公法責(zé)任分配中刑法不宜擔(dān)當(dāng)?shù)谝回?zé)任,其只是一種補充性的制裁手段。由此看來,行政責(zé)任應(yīng)是民事責(zé)任的輔助,當(dāng)行政處罰能夠有效應(yīng)對生成式人工智能的數(shù)據(jù)安全風(fēng)險時,就不要啟用刑事手段干預(yù),刑事責(zé)任是對行政法律保護數(shù)據(jù)安全不周延的最后性補充。

總而言之,在整體法秩序的視野下,對于生成式人工智能服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)的法律責(zé)任體系之構(gòu)建,私法責(zé)任是基礎(chǔ),公法責(zé)任則是保障;而公法責(zé)任中行政責(zé)任是輔助,刑事責(zé)任只是補充。這一梯度性法律責(zé)任配置完全符合《數(shù)據(jù)安全法》第五十二條的條文邏輯,即服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)的不作為行為在不構(gòu)成刑事犯罪的情況下,屬于違反治安管理行為的可以依法給予行政處罰,但不得將行政違法人為拔高為刑事犯罪。而對于服務(wù)提供者行政責(zé)任或者刑事責(zé)任的追究并不影響其民事責(zé)任的承擔(dān),但是當(dāng)承擔(dān)民事責(zé)任已經(jīng)足夠修復(fù)被侵害法益的情況下,就不應(yīng)再追究服務(wù)提供者的行政責(zé)任乃至刑事責(zé)任。

(二)義務(wù)違反的法律歸責(zé)限度

數(shù)據(jù)安全涉及有效保護與合法利用兩個面向?!稊?shù)據(jù)安全法》強調(diào)“國家統(tǒng)籌發(fā)展和安全,堅持以數(shù)據(jù)開發(fā)利用和產(chǎn)業(yè)發(fā)展促進數(shù)據(jù)安全,以數(shù)據(jù)安全保障數(shù)據(jù)開發(fā)利用和產(chǎn)業(yè)發(fā)展”。《網(wǎng)絡(luò)數(shù)據(jù)安全管理條例(征求意見稿)》進一步提出“堅持促進數(shù)據(jù)開發(fā)利用與保障數(shù)據(jù)安全并重”的基本原則。具有數(shù)據(jù)安全風(fēng)險只是表明生成式人工智能的數(shù)據(jù)可能會遭受泄露或被竊取、篡改等,但并不一定會發(fā)生數(shù)據(jù)安全事件,即使發(fā)生數(shù)據(jù)安全事件也不一定產(chǎn)生刑事可罰性,在法益侵害未構(gòu)成犯罪的場合則可能受到民法或行政法調(diào)整。如果服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)就要承擔(dān)相應(yīng)的法律責(zé)任,就會因為法律的管轄范圍過于寬泛而反向限制生成式人工智能服務(wù)提供者對數(shù)據(jù)的獲取、使用或處理,進而影響人工智能產(chǎn)業(yè)的發(fā)展。據(jù)此,對未履行數(shù)據(jù)安全保護義務(wù)的服務(wù)提供者采取結(jié)果主義的違法責(zé)任模式,不僅有助于激勵生成式人工智能產(chǎn)業(yè)的創(chuàng)新發(fā)展,也可以防止陷入“不實施行為即違法”的無邊界法律之困境。以下筆者基于結(jié)果主義的違法責(zé)任模式的邏輯路徑,就服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)的法律歸責(zé)問題展開分析。

1.服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)的民事歸責(zé)

服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)的民事責(zé)任囊括侵權(quán)責(zé)任與違約責(zé)任。由于違約責(zé)任需要服務(wù)提供者與數(shù)據(jù)主體在有效的合同中加以約定,并適用《民法典》“合同編”的相關(guān)規(guī)定,故本部分主要探討服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)而致他人人身利益、財產(chǎn)利益損害的侵權(quán)責(zé)任問題?!皬谋举|(zhì)上講,歸責(zé)是一種法律所確認的價值判斷標(biāo)準,但僅有價值判斷是不夠的,具體的個案還要求將單純的價值判斷轉(zhuǎn)化為法律技術(shù),用以標(biāo)定受害人權(quán)利救濟和行為人行為自由的界限,因此在侵權(quán)的基本范疇內(nèi)就需要更為具體可依的價值判斷原則——侵權(quán)責(zé)任的歸責(zé)原則?!盵21]12《數(shù)據(jù)安全法》第五十二條第一款實際上是一種指引性規(guī)范;而按照《民法典》第一千一百六十五條和第一千一百六十六條,假如法律規(guī)范沒有作出特別規(guī)定,對他人民事權(quán)益造成損害的都應(yīng)適用過錯責(zé)任原則。從我國現(xiàn)行法律框架來看,只有《個人信息保護法》第六十九條第一款對個人信息權(quán)益的侵權(quán)專門性規(guī)定過錯推定責(zé)任。詳言之,個人信息處理者在處理個人信息過程中侵害他人信息權(quán)益的,如果其不能證明自己沒有過錯,就應(yīng)推定存在過錯而承擔(dān)相應(yīng)的民事侵權(quán)責(zé)任。之所以采取過錯推定原則,主要是因為信息權(quán)利人與個人信息處理者存在信息、技術(shù)、資金等能力的不對等,其很難了解個人信息處理者在處理活動中具有何種過錯,更無法提出證據(jù)證明[22]63。因此,當(dāng)生成式人工智能服務(wù)提供者處理的是個人數(shù)據(jù),其未履行數(shù)據(jù)安全保護義務(wù)而導(dǎo)致個人數(shù)據(jù)泄露或被他人竊取、篡改等,應(yīng)適用過錯推定原則。但是,如果服務(wù)提供者所處理的是非個人數(shù)據(jù),其違反數(shù)據(jù)安全保護義務(wù)對他人民事權(quán)益造成損害的,因為沒有法律規(guī)范特別規(guī)定,所以被侵權(quán)人需要依據(jù)《民法典》第一千一百六十五條第一款的規(guī)定證明服務(wù)提供者存在過錯,否則便不能將侵權(quán)結(jié)果歸屬于服務(wù)提供者。

2.服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)的行政歸責(zé)

強調(diào)公法的謙抑性適用對于保護人權(quán)、防止公權(quán)濫用以及推進中國法治事業(yè)建設(shè)具有重要價值?!稊?shù)據(jù)安全法》第四十五條和第五十二條共同規(guī)定了未履行數(shù)據(jù)安全保護義務(wù)的行政責(zé)任。有學(xué)者認為,數(shù)據(jù)安全保護義務(wù)是一項程序性義務(wù),只要行為人未履行數(shù)據(jù)安全保護義務(wù)便違反了行政法律規(guī)范,不論行為是否造成危害后果,其都應(yīng)承擔(dān)行政法律責(zé)任[23]47。按照這種必罰主義的邏輯,只要生成式人工智能的服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)就應(yīng)接受行政處罰。然而,對于危害性闕如的行政違法行為施予行政處罰,或者對輕微行政違法行為予以重罰,勢必會引發(fā)社會公眾對法的正當(dāng)性質(zhì)疑?!缎姓幜P法》第三十三條規(guī)定“違法行為輕微并及時改正,沒有造成危害后果”和“當(dāng)事人有證據(jù)足以證明沒有主觀過錯”兩種不予行政處罰的情形,這表明即使形式上該當(dāng)于行政法律規(guī)范規(guī)定的構(gòu)成要件行為,只要具備這兩種情形之一就能免于行政處罰。一方面,應(yīng)予處罰的行政違法行為都是具有危害性的行為。只要行為違反行政管理秩序,符合行政處罰法律規(guī)范規(guī)定的各種客觀要素,都屬于行政違法行為。但形式上違反行政管理秩序只是違法行為受行政處罰的前置性條件,只要“一個人的行為不具有危害性,那么他的行為就應(yīng)該是自由的”[24]227?;诖?缺乏危害性的行政違法行為,不得予以行政處罰。對于行政違法行為“危害性”的判斷標(biāo)準《行政處罰法》采取了結(jié)果主義的立場,即只有造成危害結(jié)果的行政違法行為才具有應(yīng)罰性。“危害后果”包括“可能的危害后果”與“實際的危害后果”,通常情況下應(yīng)罰行為的危害后果是指可能的危害后果,特殊情況才將實際的危害后果作為必備要件[25]25。另一方面,應(yīng)予處罰的行政違法行為都是有過錯的行為?!胺彩浅鲇谖业墓室獾氖虑?都可歸責(zé)于我”[26]136,即使行為人實施的形式上該當(dāng)于行政處罰法律規(guī)范規(guī)定的構(gòu)成要件行為造成了嚴重的危害后果,但如果其在責(zé)任層面欠缺非難可能性,同樣不能對其施予行政處罰。故而行政機關(guān)只能對具備責(zé)任能力且在主觀上存在過錯的行為人所實施的行政違法行為追究行政責(zé)任。此外,《行政處罰法》第三十三條還規(guī)定對“可以型”不予行政處罰的行政違法行為,即行為人初次違法且危害后果輕微并及時改正的,行政機關(guān)可以不追究其行政責(zé)任?!翱梢圆挥栊姓幜P”意味著行政機關(guān)“能不罰就不罰”,而不是授予行政機關(guān)便宜行事的處罰裁量權(quán)。綜上,如果服務(wù)提供者未履行行政法律法規(guī)規(guī)定的數(shù)據(jù)安全保護義務(wù),但其行為明顯缺乏實質(zhì)危害性,或者主觀上沒有過錯,不得施加行政處罰。

3.服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)的刑事歸責(zé)

根據(jù)刑法學(xué)界的通說,具體結(jié)果應(yīng)歸責(zé)于作出決定或負有監(jiān)督義務(wù)的人[27]79。不作為犯具有違反積極義務(wù)的特質(zhì),在對不作為犯的作為義務(wù)進行實質(zhì)判斷時,只有當(dāng)行為人對于危害結(jié)果的發(fā)生處于保證人地位才可能成立不作為犯罪。換言之,如果服務(wù)提供者對于生成式人工智能數(shù)據(jù)安全事件的發(fā)生處于保證人地位,就負有阻止結(jié)果發(fā)生的作為義務(wù),未履行這種義務(wù)而導(dǎo)致法益侵害結(jié)果發(fā)生的則應(yīng)承擔(dān)刑事責(zé)任。德國學(xué)者納格勒首次提出保證人理論,即某種法益處于危險狀態(tài),負有防止該法益侵害結(jié)果發(fā)生的特別義務(wù)的保證人。德國學(xué)者阿明·考夫曼繼受了納格勒的保證人理論并經(jīng)過完善提出了功能的二分說。功能的二分說依據(jù)社會功能的不同類型將保證人義務(wù)劃分為對特定法益的保護義務(wù)與對特定危險源的監(jiān)督義務(wù),前者是為了避免特定法益不受來自危險源的侵害,后者則是保證特定危險源不侵害他人[28]835。奧拓和他的學(xué)生布拉姆森試圖將保證人位置建立在“社會團結(jié)內(nèi)部的相互期望之上”,即保證人地位就是行為人在某種特定場域被社會期待實施特定作為行為的社會角色,因而不作為犯的處罰基礎(chǔ)在于不為刑法規(guī)范期待應(yīng)為的特定行為,或不著手實行被期待的特定行為[29]537。在高橋則夫看來,功能的二分說所劃分的法益保護義務(wù)與危險源管理義務(wù),歸根結(jié)底都是被社會性期待具有某一社會角色的行為人直接或間接保護該法益[30]140。為了找尋不作為犯的處罰基礎(chǔ),許乃曼采取的是一種與作為犯類比的方式,即處罰不作為犯的理論基礎(chǔ)在于,不作為犯對于法益的侵害類似于作為犯基于犯罪支配所擁有的地位(結(jié)果的原因支配說)。如果人們認為在積極作為之中犯罪支配是正犯構(gòu)成要件實現(xiàn)的核心標(biāo)準,則在與作為同等的不真正不作為中也應(yīng)當(dāng)要求一個支配地位,所以許乃曼從“對結(jié)果基礎(chǔ)的支配”中推導(dǎo)出保證人義務(wù)。存在“對結(jié)果基礎(chǔ)的支配”這樣一種支配關(guān)系的,不僅僅有支配了危險來源的監(jiān)督型保證人,也有將被害人的無助作為結(jié)果基礎(chǔ)予以支配的保護型保證人[31]681-682。筆者贊同結(jié)果的原因支配說,即只要服務(wù)提供者支配了有可能導(dǎo)致結(jié)果的危險的原因,就能肯定其保證人地位,從而肯定其刑事作為義務(wù)。

依照結(jié)果的原因支配說的理論邏輯,只有當(dāng)服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)的行為形成了對導(dǎo)致數(shù)據(jù)安全法益侵害危險的原因的控制支配,才能肯定其保證人地位,從而讓其承擔(dān)刑事責(zé)任。服務(wù)提供者是生成式人工智能語料庫數(shù)據(jù)來源篩選與控制的主體,也是生成式人工智能算法設(shè)計或部署的主體。基于服務(wù)提供者在生成式人工智能應(yīng)用中所扮演的角色地位,其對于生成式人工智能可能存在的數(shù)據(jù)安全風(fēng)險有能力進行事前的評估、監(jiān)測、預(yù)警與在發(fā)生數(shù)據(jù)安全事件后及時進行補救和處置,事實上形成了對生成式人工智能語料庫的數(shù)據(jù)這一特定脆弱法益侵害危險的原因的控制支配,這是生成式人工智能服務(wù)提供者保證人義務(wù)的實現(xiàn)基礎(chǔ)。服務(wù)提供者在自己的管轄領(lǐng)域(生成式人工智能本身)有責(zé)任防止他人侵害數(shù)據(jù)安全法益,而生成式人工智能數(shù)據(jù)安全的保護也強烈依賴于服務(wù)提供者實施特定的行為。因此,服務(wù)提供者應(yīng)積極履行相應(yīng)的數(shù)據(jù)安全保護義務(wù),從而消除生成式人工智能存在的數(shù)據(jù)安全風(fēng)險。當(dāng)其未履行數(shù)據(jù)安全保護義務(wù)并造成嚴重危害結(jié)果的,可能構(gòu)成不作為犯罪。但是,倘若服務(wù)提供者切實履行數(shù)據(jù)安全保護義務(wù)仍不能回避危害結(jié)果,就不宜承擔(dān)該當(dāng)于構(gòu)成要件結(jié)果的不作為刑事責(zé)任。

五、結(jié)語

生成式人工智能的數(shù)據(jù)安全保護是人工智能時代法律治理需要重點關(guān)注的新興問題。生成式人工智能的深度運用與數(shù)據(jù)安全保護產(chǎn)生了博弈,法律的介入要盡可能周全而不能盲目過度,即在不破壞生成式人工智能產(chǎn)業(yè)生態(tài)的情況下實現(xiàn)對數(shù)據(jù)安全的嚴密保護。探究生成式人工智能發(fā)生數(shù)據(jù)安全事件的根源,往往是因為服務(wù)提供者怠于履行數(shù)據(jù)安全保護職責(zé)所致?;趶脑搭^預(yù)防數(shù)據(jù)安全風(fēng)險的治理邏輯,明確生成式人工智能服務(wù)提供者的數(shù)據(jù)安全保護義務(wù)及其法律責(zé)任,對于防范生成式人工智能的數(shù)據(jù)安全風(fēng)險意義重大?!稌盒修k法》確立的“以服務(wù)提供者義務(wù)為中心”的生成式人工智能數(shù)據(jù)安全治理模式具有實質(zhì)合理性,為服務(wù)提供者承擔(dān)數(shù)據(jù)安全保護義務(wù)提供了規(guī)范依據(jù)支持。通過對《數(shù)據(jù)安全法》《個人信息保護法》《網(wǎng)絡(luò)安全法》有關(guān)規(guī)定的詳細梳理,可以確定生成式人工智能服務(wù)提供者需要履行的數(shù)據(jù)安全保護義務(wù)的基本事項,包括技術(shù)安全保障和數(shù)據(jù)風(fēng)險管理的事前防范義務(wù)、發(fā)生數(shù)據(jù)安全事件后立即采取處置措施并及時告知報告的事后處置義務(wù)。在對服務(wù)提供者未履行數(shù)據(jù)安全保護義務(wù)的法律責(zé)任予以分別性界定的基礎(chǔ)上,應(yīng)注重不同法律責(zé)任之間的體系銜接與功能協(xié)同,避免服務(wù)提供者法律責(zé)任的片段化。對未履行數(shù)據(jù)安全保護義務(wù)的服務(wù)提供者采取結(jié)果主義的違法責(zé)任模式,既有助于激勵生成式人工智能產(chǎn)業(yè)的創(chuàng)新發(fā)展,也可以防止陷入“不實施行為即違法”的無邊界法律之困境。在未來,如何構(gòu)建更加符合生成式人工智能產(chǎn)業(yè)鏈特性的法律歸責(zé)模式,仍需持續(xù)不斷地探索。

猜你喜歡
服務(wù)提供者數(shù)據(jù)安全個人信息
如何保護勞動者的個人信息?
工會博覽(2022年16期)2022-07-16 05:53:54
個人信息保護進入“法時代”
網(wǎng)絡(luò)服務(wù)提供者的侵權(quán)責(zé)任研究
法制博覽(2020年11期)2020-11-30 03:36:52
警惕個人信息泄露
綠色中國(2019年14期)2019-11-26 07:11:44
云計算中基于用戶隱私的數(shù)據(jù)安全保護方法
電子制作(2019年14期)2019-08-20 05:43:42
建立激勵相容機制保護數(shù)據(jù)安全
論網(wǎng)絡(luò)服務(wù)提供者刑事責(zé)任的歸責(zé)模式一一以拒不履行網(wǎng)絡(luò)安全管理義務(wù)罪為切入點
大數(shù)據(jù)云計算環(huán)境下的數(shù)據(jù)安全
電子制作(2017年20期)2017-04-26 06:57:48
論網(wǎng)絡(luò)服務(wù)提供者的侵權(quán)責(zé)任
法制博覽(2017年16期)2017-01-28 00:01:59
網(wǎng)絡(luò)服務(wù)提供者第三方責(zé)任的立法審視
湖湘論壇(2015年4期)2015-12-01 09:30:16
中江县| 泰兴市| 南投市| 营山县| 齐河县| 山阳县| 福安市| 花莲市| 洛阳市| 曲水县| 闵行区| 萨嘎县| 武乡县| 张家界市| 朔州市| 成武县| 哈密市| 镶黄旗| 冕宁县| 怀安县| 集贤县| 迁安市| 德令哈市| 赫章县| 柳江县| 麻栗坡县| 黄石市| 朝阳县| 甘孜| 南丹县| 通州市| 怀来县| 宜城市| 南和县| 民乐县| 逊克县| 镇安县| 延庆县| 新余市| 旌德县| 松阳县|