章誠豪 張勇
摘要:生成式AI作為強大的自然語言處理模型,其順暢運行有賴于海量數(shù)據(jù)的訓練、學習、分析等深層次運用?;诰钏惴ǖ募映郑疃冗\用的數(shù)據(jù)會關(guān)涉經(jīng)濟利益、保密利益、使用性能等多重維度,其間不免存在數(shù)據(jù)泄露、算法歧視等潛在風險,甚至引發(fā)傳統(tǒng)犯罪模式之異化。為應(yīng)對刑事規(guī)制空缺、數(shù)據(jù)犯罪法益的技術(shù)性傾向及固有罪名之誤區(qū)等困境,數(shù)據(jù)深度運用的刑事規(guī)制體系應(yīng)當以數(shù)據(jù)技術(shù)分工為指引,及時調(diào)轉(zhuǎn)治理邏輯與重心。為實現(xiàn)數(shù)據(jù)安全保障與技術(shù)正面價值有效釋放之間的平衡,刑法介入需在利益衡量視角下充分考慮生成式AI的附隨風險。刑事治理不應(yīng)拘泥于數(shù)據(jù)采集和數(shù)據(jù)流動等傳統(tǒng)規(guī)制環(huán)節(jié),而是通過增設(shè)數(shù)據(jù)分析等專項罪名予以規(guī)范完善,并注重預防性禁令等非刑事治理手段,為數(shù)據(jù)深度運用技術(shù)的正向發(fā)展提供空間。
關(guān)鍵詞:數(shù)據(jù)深度運用;生成式AI;技術(shù)治理;刑事規(guī)制
中圖分類號:D914? ? ? ? 文獻標識碼:A? ? ? ?文章編號:1003-8477(2023)11-0127-09
以ChatGPT為代表的生成式AI(Generative AI)是當下最火熱的話題之一,并引發(fā)了社會的廣泛關(guān)注。然而,“龐大的‘數(shù)據(jù)池難免將數(shù)字革命中的個體卷入‘數(shù)字化黑洞”,[1](p234)因此,我們不免會省思此類新興大數(shù)據(jù)運用技術(shù)可能附隨的安全隱患。當前,數(shù)據(jù)安全保障已然成為社會治理的重要課題,但我國數(shù)據(jù)刑法保護體系的規(guī)制重點仍落腳于公民個人信息、知識產(chǎn)權(quán)等具有隱私屬性的數(shù)據(jù)靜態(tài)權(quán)屬維護方面,而鮮少考慮數(shù)據(jù)深度運用等動態(tài)環(huán)節(jié)的刑事隱憂與規(guī)制。不同于傳統(tǒng)的分析式AI(Analytical AI),生成式AI的數(shù)據(jù)深度運用不僅可進行數(shù)據(jù)學習、信息提煉、趨勢預測等精細作業(yè),亦可生成不同于學習樣本(數(shù)據(jù)源)的新內(nèi)容,甚至可激發(fā)其對于人類本質(zhì)、認知模式和AI主體性的哲學思考。從生成式AI深度挖掘、分析、處理的數(shù)據(jù)中可獲得個人隱私、商業(yè)秘密、知識產(chǎn)權(quán)等重要、敏感信息,[2](p135)極大豐富了原始數(shù)據(jù)的價值意蘊。伴隨著技術(shù)革新,數(shù)據(jù)深度運用的含義將更迭、擴張,并逐步吸納跨平臺、系統(tǒng)自動化、數(shù)據(jù)可視化、虛擬場景建構(gòu)等新功能,因此不可僅從技術(shù)層面簡單界定,還要考慮到數(shù)據(jù)深度運用行為已實現(xiàn)由技術(shù)概念向法規(guī)范概念的轉(zhuǎn)向。2023年4月11日,國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《生成式人工智能服務(wù)管理辦法(征求意見稿)》內(nèi)容涉及生成式AI的概念明晰、主體責任劃分、義務(wù)認定、數(shù)據(jù)合規(guī)標準、安全評估等具體事項與風險防控措施。2023年8月15日正式實施的《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《辦法》)進一步就治理原則、合規(guī)義務(wù)、部署運用等做出細化規(guī)定。相較技術(shù)概念本身在法規(guī)范層面的早起先行,當下數(shù)據(jù)深度運用的刑事規(guī)制仍采用計算機犯罪維護數(shù)據(jù)安全的傳統(tǒng)方式,無法適應(yīng)“感知智能”向“認知智能”發(fā)展的轉(zhuǎn)型。數(shù)據(jù)、算法、算力分而治之的傳統(tǒng)治理體系也難以適應(yīng)涵蓋多技術(shù)類型的深度運用行為,因此,應(yīng)盡快完善專門化規(guī)制,并注重數(shù)據(jù)保護、算法治理、人工智能立法等關(guān)涉內(nèi)容的“和合共治”。
一、具象考察:數(shù)據(jù)深度運用的刑事風險與規(guī)制困境
生成式AI可利用大量公開數(shù)據(jù)進行深度學習、預測、合成、優(yōu)化預設(shè)文本,其間不免具有超脫合目的性、潛在刑事風險的數(shù)據(jù)利用行為,即使以“技術(shù)中立”自居的預設(shè)型算法在輔助或替代人類決策時亦屢現(xiàn)算法歧視、技術(shù)鴻溝等問題。因此,人類在享受技術(shù)便捷之余,不應(yīng)忽視此類新興技術(shù)的深層隱患。
(一)內(nèi)部隱患:數(shù)據(jù)深度運用過程的內(nèi)生風險
數(shù)據(jù)深度運用有賴于算法模型的自動運行,缺乏對數(shù)據(jù)爬取范圍、訓練方式、限度等細節(jié)的限制,不僅生成內(nèi)容可能涉及刑事風險,其部分不當運用行為本身亦可能觸及刑事紅線。
其一,數(shù)據(jù)深度運用的一般失范行為存在違法風險。主要包括數(shù)據(jù)獲取等前端階段的數(shù)據(jù)來源合法性以及數(shù)據(jù)泄露兩部分。一方面,盡管數(shù)據(jù)深度運用的訓練素材主要來自合法公開的數(shù)據(jù),且原始數(shù)據(jù)大都已實現(xiàn)加密、加噪處理,但在深度運用技術(shù)加持下,數(shù)據(jù)恢復并非難事,因此深度挖掘后很可能獲取隱私和敏感內(nèi)容。如OpenAI“隱私政策”雖保證其只處理日志數(shù)據(jù)、設(shè)備參數(shù)、cookies等技術(shù)信息,但經(jīng)生成式AI深度挖掘后完全可以獲取經(jīng)濟利益等深層信息。而且,OpenAI至今未公開其學習語料的來源,仍屬于算法黑箱,所涉訓練數(shù)據(jù)是否均獲得授權(quán)尚存疑問,加之諸多早已被“遺忘”的數(shù)據(jù)可被發(fā)現(xiàn)并再次利用,不免存在數(shù)據(jù)來源合法性及數(shù)據(jù)“被遺忘權(quán)”等問題。另一方面,為提高生成內(nèi)容的準確性,數(shù)據(jù)深度運用離不開用戶與算法模型的反饋性對話,該過程實質(zhì)是為用戶畫像和訓練模型收集信息,在人機交互中更可能暴露隱私,無形提高數(shù)據(jù)泄露風險。如用戶就生成式AI的預期合成內(nèi)容上傳照片、視頻等關(guān)聯(lián)數(shù)據(jù),無意間輸入個人信息或商業(yè)秘密時,ChatGPT會瞬間捕捉并存儲入庫,可能在他人誘導性提問下全盤托出。[3](p97)同時,生成式AI所普及的云計算也將導致數(shù)據(jù)所有權(quán)和控制權(quán)分離,加劇存儲在云端的數(shù)據(jù)泄露、濫用等風險。[4](p132)
其二,數(shù)據(jù)深度運用的嚴重偏差行為則可能涉及刑事風險。數(shù)據(jù)運用“深度”不僅指技術(shù)層面的專業(yè)深度,亦包括生成結(jié)果的“深度變化”,如人工智能生成物AIGC(AI-Generated Content)與基礎(chǔ)文本的顯著差別可能會達到以假亂真的預期效果。生成式AI流暢句詞的產(chǎn)生依賴海量數(shù)據(jù)(數(shù)據(jù)庫+圖像+詞類提示)的技術(shù)反饋,其運作模型的訓練離不開質(zhì)量參差不齊的大數(shù)據(jù)資源庫。為保證輸出信息的準確性,開發(fā)者可能在數(shù)據(jù)深度訓練時進行具有主觀傾向的數(shù)據(jù)標注、識別工作,以形成具有用戶偏好、符合用戶習慣的訓練激勵模型(Reward Model)。此過程若被犯罪分子所利用,即使數(shù)據(jù)本身是公開、合法的,在激勵模型對抗強化訓練中亦會埋下“毒樹之種”,最終生成違法內(nèi)容。即使對數(shù)據(jù)運用模型進行內(nèi)部檢測、技術(shù)校對,如規(guī)定ChatGPT拒絕回答特定敏感話題,不法分子仍可利用技術(shù)設(shè)置命令和禁止要求,突破原算法模型中的道德倫理及法律底線的內(nèi)置標準。如Walkerspider誘導“越獄”事件中,不法分子意圖通過指令要求ChatGPT扮演DAN的角色,迫使其生成違反OpenAI準則的答案。[5]
(二)外化風險:數(shù)據(jù)深度運用下傳統(tǒng)犯罪模式的異化
生成式AI不僅會改變傳統(tǒng)的工作、生活方式,亦會使傳統(tǒng)犯罪模式在其影響下出現(xiàn)異化。一方面,數(shù)據(jù)深度運用極大降低了犯罪門檻、便利了犯罪手段。基于數(shù)據(jù)的深度加工、挖掘,生成式AI使得專業(yè)知識與特定技能的獲取門檻降低,亦突破了特定犯罪的技術(shù)桎梏。如ChatGPT利用數(shù)據(jù)進行深度學習后即可具備無代碼編程能力,而不再過分依賴操作者的專業(yè)素養(yǎng)。不法分子可通過預訓練大模型的數(shù)據(jù)深度檢索功能輕松獲取犯罪方法、違禁品渠道等違法信息。另一方面,數(shù)據(jù)深度運用可能造成危害后果的擴大化,提升刑事風險級別。既往數(shù)據(jù)信息的生產(chǎn)模式主要遵循PCC(專業(yè)生產(chǎn)內(nèi)容)向UGC(用戶生產(chǎn)內(nèi)容)的輸出路徑,不法內(nèi)容產(chǎn)出有限,國家通過對信息源頭、用戶個人以及網(wǎng)絡(luò)平臺的治理即可控制。而數(shù)據(jù)深度運用在預設(shè)算法支持下自動運行,數(shù)據(jù)獲取、加工等環(huán)節(jié)難有實質(zhì)性篩選和價值判斷。不同于搜索引擎,生成式AI不會提供所用數(shù)據(jù)的出處,隱匿于人工智能背后的犯罪難以追蹤,既往網(wǎng)絡(luò)安全治理的技術(shù)與資源難以為繼。生成式AI的內(nèi)容產(chǎn)出在推送形式上也更為直接,誤導性更大,無形提高了隱私合規(guī)成本。在犯罪后果上,基于生成式AI的規(guī)模效應(yīng),海量數(shù)據(jù)的深度運用使得信息權(quán)益侵害的受眾規(guī)模同頻擴大,并導致技術(shù)類高智商犯罪呈指數(shù)級增長,為賬號管理、人工審核、數(shù)據(jù)標注等傳統(tǒng)監(jiān)管手段帶來挑戰(zhàn)。在AI算法加持下,數(shù)據(jù)深度運用的技術(shù)、人工等成本可無限降低,易出現(xiàn)犯罪群聚效應(yīng)。而技術(shù)本身缺陷所導致的犯罪后果則更加難以預防。有媒體報道,ChatGPT在經(jīng)歷多輪反復且矛盾的用戶指令后可能出現(xiàn)程序紊亂,開始提供犯罪思路或故意做出誤導用戶的錯誤回答。[6]
(三)失衡現(xiàn)狀:數(shù)據(jù)深度運用的刑事規(guī)制困境與誤區(qū)
其一,尚未實現(xiàn)數(shù)據(jù)深度運用的全鏈條式保障,治理體系呈現(xiàn)碎片化傾向。生成式AI使得既往數(shù)據(jù)淺層運用的生成、流轉(zhuǎn)方式、組織形式均發(fā)生改變,[7](p6)但我國刑法保護體系并未隨著數(shù)據(jù)運用的深度化而周延完善?!缎畔踩夹g(shù) 數(shù)據(jù)安全能力成熟度模型》《數(shù)據(jù)安全法》等法規(guī)范對數(shù)據(jù)生命周期作出了明確規(guī)定,①并強調(diào)了各環(huán)節(jié)存在的數(shù)據(jù)風險。當下我國數(shù)據(jù)犯罪的刑事治理重點依然放在非法獲取、編造、傳播虛假數(shù)據(jù)等前端領(lǐng)域,后續(xù)的數(shù)據(jù)挖掘、分析、合成等深度運用環(huán)節(jié)則被忽略。[8](p8)一方面,即使通過合法手段獲取數(shù)據(jù),只要充分利用數(shù)據(jù)挖掘、數(shù)據(jù)清洗、可視分析等深度處理技術(shù),都有獲取重要、敏感信息的可能性。另一方面,后續(xù)數(shù)據(jù)處置環(huán)節(jié)可能發(fā)生應(yīng)銷毀未銷毀、不當公開涉密數(shù)據(jù)、大規(guī)模數(shù)據(jù)泄露等問題。因此,應(yīng)在數(shù)據(jù)刑事治理模式中彌補對數(shù)據(jù)深度運用的規(guī)制空缺,從而未雨綢繆,實現(xiàn)對數(shù)據(jù)新興風險的合理控制與有效治理。
其二,忽視數(shù)據(jù)深度運用的動態(tài)與正向價值。傳統(tǒng)重點治理計算機信息系統(tǒng)紕漏造成的數(shù)據(jù)泄露、篡改、滅失等靜態(tài)風險,強調(diào)數(shù)據(jù)主體對數(shù)據(jù)享有“專有”“排他”的支配性權(quán)力,[9](p63)屬于消極的防御理念,易造成數(shù)據(jù)自身價值被其他犯罪所“稀釋”。如利用數(shù)據(jù)實施的詐騙犯罪中,對具有自然犯罪屬性詐騙行為的評價會沖淡對數(shù)據(jù)利用行為的違法性評價。[10](p86)與物質(zhì)商品不同,數(shù)據(jù)原本價值的內(nèi)涵因聚集而擴充,數(shù)據(jù)使用不會減損它的價值,反而會獲得新信息或知識,賦予新含義。[11](p1408)如ChatGPT可依托RLHF(Reinforcement Learning from Human Feedback)算法進一步強化學習方法并優(yōu)化反饋,使一般文本數(shù)據(jù)在語料庫的投喂下形成近似于復雜人類價值觀。[12](p130-131)以上對既往基于有限體量數(shù)據(jù)的淺層運用而言是難以想象的,若固持數(shù)據(jù)價值全部歸屬于原始權(quán)利主體觀點,難以滿足數(shù)據(jù)運用行為附加的獨立權(quán)利功能,[13](p115)可能導致數(shù)據(jù)主體放棄或暫緩技術(shù)研發(fā)、提升等嚴重后果。因此,數(shù)據(jù)深度運用的刑事治理需要認識到數(shù)據(jù)技術(shù)的動態(tài)變化,在周全考慮數(shù)據(jù)原始階段安全需求的同時,亦要保障數(shù)據(jù)資本階段的流通、利用需求。
二、邏輯更新:數(shù)據(jù)深度運用治理的基本立場
(一)反思考察:傳統(tǒng)數(shù)據(jù)犯罪技術(shù)傾向的適時更新
觀察我國既往實踐情況,數(shù)據(jù)犯罪往往依附于計算機犯罪。與計算機框架式、程序化的運作方式不同,生成式AI的數(shù)據(jù)深度運用展現(xiàn)出類人思維,其具體應(yīng)用具有自然語言的處理、理解能力,二者治理理念、方式不可等同。我國破壞計算機信息系統(tǒng)罪表面上是規(guī)制數(shù)據(jù)破壞(刪除、修改、增加)行為,但計算機類犯罪所涉數(shù)據(jù)僅為數(shù)據(jù)大概念下的特殊小類,只有影響到計算機信息系統(tǒng)正常運行的數(shù)據(jù)破壞行為才應(yīng)以本類罪名論處,通常表現(xiàn)為“手段—目的”關(guān)系,規(guī)范目的仍是保護計算機信息系統(tǒng)安全。如最高法第145號指導案例指出,“通過修改、增加計算機信息系統(tǒng)數(shù)據(jù),對該計算機信息系統(tǒng)實施非法控制,但未造成系統(tǒng)功能實質(zhì)性破壞或者不能正常運行的,不應(yīng)當認定為破壞計算機信息系統(tǒng)罪”。需指出,計算機類罪名強調(diào)規(guī)制計算機系統(tǒng)功能穩(wěn)定與安全,以及遭受攻擊的風險預防與恢復能力,若將其與數(shù)據(jù)運用犯罪雜糅,不僅會導致數(shù)據(jù)本身價值被計算機信息系統(tǒng)安全所掩埋,亦與其作為重要生產(chǎn)要素的地位不匹配。例如,生成式AI對數(shù)據(jù)庫中的車次信息、到站時間等公開商業(yè)數(shù)據(jù)進行再分析、編輯與整合,可為商業(yè)運行帶來可觀效益,實際上已具備無形財產(chǎn)的特征,[14](p27)刑事規(guī)制手段不應(yīng)缺位。因此,不可罔顧數(shù)據(jù)深度運用環(huán)節(jié)的可用性、延展性特征,而只將靜態(tài)計算機系統(tǒng)安全作為數(shù)據(jù)深度運用規(guī)制的主旨。
雖然數(shù)據(jù)犯罪的“最初形態(tài)”可交由非法侵入計算機信息系統(tǒng)罪等純技術(shù)性計算機罪名周延規(guī)制,但此種技術(shù)平移式做法依舊沿襲的是計算機信息時代的思維模式,無法保護數(shù)據(jù)深度加工后獨有的價值意蘊。而且,生成式AI主要依賴算法模型,犯罪重點已不在計算機信息系統(tǒng)的內(nèi)存數(shù)據(jù)或應(yīng)用程序。雖有學者提倡采納“數(shù)據(jù)安全”概念作為過渡,以保護數(shù)據(jù)本身的保密性、完整性和可用性,[2](p137)但規(guī)制重點仍是數(shù)據(jù)類型、結(jié)構(gòu)、生命周期等技術(shù)安全,忽視了數(shù)據(jù)經(jīng)深度挖掘后的多重價值面向。
(二)路徑調(diào)適:基于人工智能面向的敏捷治理
數(shù)據(jù)深度運用受訓練模型、算法機制、擬用場景等多方要素影響,屬多種人工智能技術(shù)的合集,并集成在眾多產(chǎn)品和服務(wù)之中。諸如通用問答系統(tǒng)ChatGPT、可自動測繪動畫的Stable Diffusion等。ChatGPT等生成式AI與檢索類、個性化推送類算法原理相同,①都是通用人工智能基本框架下的子領(lǐng)域。著眼于生成式AI自身算法模型的治理方式固然直觀、便捷,可若僅依賴對算法機制、特征庫、用戶目標等生成式AI內(nèi)置要素的規(guī)制,雖在一定程度上可保護安全價值導向下的數(shù)據(jù)服務(wù)規(guī)范和用戶權(quán)益,但會忽略后續(xù)數(shù)據(jù)深度合成、加工等增值性行為。如雖可將深度合成作為算法服務(wù)種類中高風險、高敏感度的算法進行監(jiān)管,[15](p45)但監(jiān)管對象僅限提供互聯(lián)網(wǎng)信息服務(wù)的算法會存在較大局限。
相較深度運用技術(shù)的專項治理,未來人工智能的基礎(chǔ)性立法作為法律層面的更高位階,可周延涵蓋靜態(tài)算法監(jiān)管、動態(tài)數(shù)據(jù)運用等關(guān)涉問題,實現(xiàn)具有技術(shù)迭代適應(yīng)性、包容性的敏捷治理(agile governance)。在數(shù)據(jù)運用初期,可采取通用性技術(shù)注重對數(shù)據(jù)運用過程的監(jiān)管、調(diào)適,如過濾器和模型調(diào)整,定量偏差評估和基準測試等。具體制度中,在肯定數(shù)據(jù)規(guī)制的同時結(jié)合人工智能的種類特征、機制做聯(lián)動性治理,如算法機制的備案說明、數(shù)據(jù)特征庫和標簽制度等,以順應(yīng)數(shù)據(jù)深度運用的技術(shù)發(fā)展與場景應(yīng)用。[15](p47)在技術(shù)層面積極探索面向人工智能的治理科技,參考人工智能倫理原則、相關(guān)行業(yè)規(guī)范設(shè)置風險紅線,從技術(shù)端指引生成式AI研發(fā)、數(shù)據(jù)運用模型構(gòu)建等風險防控的主動設(shè)計。例如,針對數(shù)據(jù)深度運用產(chǎn)生的虛假信息,關(guān)鍵詞監(jiān)測、人工審核等傳統(tǒng)檢測方式的效果有限,應(yīng)以生成式AI等同等級技術(shù)為基底完成治理革新。數(shù)據(jù)深度運用的規(guī)制模式不能僅承接算法治理的先行經(jīng)驗,也要為未來通用人工智能的全面立法做出有益嘗試,謹防陷入技術(shù)與規(guī)范脫節(jié)的“科林格里奇困境”。
(三)導向指引:科技倫理監(jiān)管的能動性倡導
生成式AI的數(shù)據(jù)深度運用能夠處理跨域任務(wù),并具有良好的通用性和泛化性,任何偏誤和風險都將彌散蔓延至整個數(shù)據(jù)鏈條。而傳統(tǒng)事后救濟有賴于訴訟,可能導致受害方淪為“沉默的大多數(shù)”。因此,數(shù)據(jù)深度運用的治理節(jié)點可適當前置,科技領(lǐng)域良善倫理的監(jiān)管具有相當必要性。與限制性更強的中期風險防控相比,前期倫理監(jiān)管的持續(xù)優(yōu)化可留給研發(fā)、運營企業(yè)更大的操作空間,激勵企業(yè)利用內(nèi)部信息優(yōu)勢進行治理創(chuàng)新,以更為經(jīng)濟高效的方式實現(xiàn)預期實效。與事后懲戒式監(jiān)管相比,深入企業(yè)內(nèi)部的倫理審查機制,如安全獨立的測試環(huán)境、風險評估認證等措施是更為靈活的監(jiān)管方式。我國《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第7條提倡技術(shù)提供者建立健全科技倫理審查機制,《人工智能倫理治理標準化指南》亦以數(shù)據(jù)運用、算法決策等類型化標準具化分析了倫理風險來源。本文認為,可借鑒生命科學和醫(yī)學倫理制度,在參考《關(guān)于加強科技倫理治理的意見》《科技期刊出版?zhèn)惱硪?guī)范》《衛(wèi)生健康領(lǐng)域人工智能倫理與治理指南》等國內(nèi)外行業(yè)倫理規(guī)范的基礎(chǔ)上,推進適用于數(shù)據(jù)深度運用等關(guān)鍵科技領(lǐng)域的倫理框架。還可在設(shè)計階段嵌入基礎(chǔ)倫理原則,設(shè)立數(shù)據(jù)運用的道德底線、法律紅線,引導科技企業(yè)對內(nèi)部研發(fā)、應(yīng)用活動構(gòu)建常態(tài)化的治理約束,避免數(shù)據(jù)運用的先天偏見。即企業(yè)不僅應(yīng)重視人工智能內(nèi)置的自動風險篩查、過濾機制,也應(yīng)完善基于良善倫理的人工審核機制,以合理控制數(shù)據(jù)深度運用的范圍和目的;研發(fā)前端主體則應(yīng)基于社會責任感,開發(fā)符合人類價值觀和倫理的算法,以進一步增強數(shù)據(jù)深度運用技術(shù)的透明度和規(guī)范化管理。
三、合規(guī)治理:技術(shù)分工下數(shù)據(jù)深度運用的類型化治理鏈條
我國現(xiàn)有的技術(shù)治理體系分設(shè):數(shù)據(jù)、算法、主體、場景四類標準,[15](p45)但數(shù)據(jù)深度運用屬于應(yīng)用廣泛的通用性技術(shù),難以被單一類別涵括。當粗略分類難以適用時,應(yīng)采取類型化思維來探討數(shù)據(jù)深度運用的風險管控。由于數(shù)據(jù)深度運用治理的“主體責任”呈多元化、分散化和場景化特征,有必要考察產(chǎn)業(yè)鏈條各主體的現(xiàn)實作用,以類型化方式重塑責任分配。
(一)開發(fā)者層面:事先合規(guī)制度之建構(gòu)
生成式AI研發(fā)機構(gòu)決定了模型數(shù)據(jù)獲取和輸出方式,應(yīng)有較為嚴格的注意義務(wù)與法律責任。如訓練數(shù)據(jù)標注、數(shù)據(jù)庫公開、文件記錄和保存、技術(shù)透明度保障等,而不能僅依賴純良倫理的約束。研發(fā)企業(yè)的社會屬性決定了其社會責任。基于開發(fā)活動而獨有的技術(shù)優(yōu)勢以及管理優(yōu)勢,開發(fā)者在研發(fā)完成后還須承擔“未來風險”責任。數(shù)據(jù)深度運用不單具有以技術(shù)規(guī)則和運算邏輯為基礎(chǔ)的客體屬性,行為所依賴的算法模型正是開發(fā)者價值觀的技術(shù)性體現(xiàn),表現(xiàn)為工具屬性,開發(fā)者應(yīng)置于責任承擔的最前線,故《辦法》第6條要求生成式AI產(chǎn)品提供者進行安全評估、算法備案等預防性措施。研發(fā)方對數(shù)據(jù)庫內(nèi)涉及隱私或機密的非公開信息應(yīng)盡合理注意義務(wù),以佐證其在模型初設(shè)階段并不存在侵犯知識產(chǎn)權(quán)、公民隱私等敏感數(shù)據(jù)的積極態(tài)度,否則應(yīng)為“算法黑箱”承擔法律責任。[16]
數(shù)據(jù)深度運用的事前合規(guī)制度是指根據(jù)《網(wǎng)絡(luò)安全法》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《刑法》等法規(guī)建立的完整、有效的合規(guī)計劃。健全的企業(yè)內(nèi)部監(jiān)測機制包括系統(tǒng)訪問權(quán)限設(shè)置、后臺數(shù)據(jù)監(jiān)測、安全反應(yīng)機制等。如可采取代理理論為創(chuàng)建和終止雇員訪問、獲取企業(yè)數(shù)據(jù)的“授權(quán)”提供依據(jù),以應(yīng)對“內(nèi)部黑客”威脅數(shù)據(jù)安全。對于算法模型創(chuàng)設(shè)、數(shù)據(jù)來源、預期加工方式等數(shù)據(jù)深度運用的關(guān)鍵環(huán)節(jié),應(yīng)設(shè)置精密的監(jiān)測機制。研發(fā)方作為核心信息掌握者,應(yīng)主動為主管機構(gòu)監(jiān)管提供便利。只有明晰算法所選取的數(shù)據(jù)庫來源、算力引擎,才能較好規(guī)制數(shù)據(jù)侵權(quán)問題。因此,在制定合規(guī)計劃時可將上述加密性信息主動讓渡給有關(guān)機關(guān),以便其監(jiān)管。此外,研發(fā)方還要注意對深度運用原始數(shù)據(jù)的隱藏,關(guān)注用戶個人信息的脫敏,通過匿名化處理保證數(shù)據(jù)權(quán)屬安全。如研發(fā)者可加大對人工智能自檢測模型的構(gòu)建力度,不再僅以用戶偏好作為數(shù)據(jù)優(yōu)化訓練的獎勵信號。在擴展數(shù)據(jù)庫容量的同時,引入多來源比照分析模型,訓練人工智能對虛假、爭議數(shù)據(jù)的識別能力。
(二)運營者層面:場景義務(wù)設(shè)置與合規(guī)整改并重
若將產(chǎn)業(yè)鏈上游的開發(fā)者比作服務(wù)下游生態(tài)的“土壤”,生成式AI的運營者便是真正面向終端用戶的主體。傳統(tǒng)網(wǎng)絡(luò)服務(wù)者的義務(wù)設(shè)定都遵循“避風港”原則,并不負有預先審查、實時監(jiān)控數(shù)據(jù)動態(tài)的義務(wù),而僅有事后通知風險、移除數(shù)據(jù)的責任。[17](p100)大數(shù)據(jù)時代,技術(shù)運營者在享受數(shù)據(jù)深度運用帶來的增值紅利時,理應(yīng)履行附隨風險的防范義務(wù)?;诖?,運營者應(yīng)高度重視數(shù)據(jù)來源不合規(guī)、用戶隱私、商業(yè)泄密等問題,定期評估并主動公示生成式AI所依托的學習、訓練數(shù)據(jù)來源,履行重要、敏感數(shù)據(jù)的風險提醒義務(wù)。如斯坦福大學基礎(chǔ)模型研究中心對大型語言模型(LLM)進行整體評估,就技術(shù)性能、人工智能技術(shù)倫理、人工智能治理政策等關(guān)鍵要素做深度剖析,[18]旨在提高語言模型透明度,提升數(shù)據(jù)不法運用的犯罪成本。應(yīng)注意的是,運營者義務(wù)設(shè)置必須符合其商業(yè)模式的合理預期、重視合規(guī)成本,不可拘泥于數(shù)據(jù)安全的維護而阻礙深度運用技術(shù)產(chǎn)業(yè)的發(fā)展。如歐盟《人工智能法案》基于個人權(quán)利保護,要求對所有已知或可預見的數(shù)據(jù)運用風險進行識別,但對潛在風險的全覆蓋監(jiān)管,會導致本屬合理發(fā)展的技術(shù)僅因具有高風險用途而受到刑法的嚴格規(guī)制。對此,歐盟數(shù)據(jù)保護委員會適時調(diào)整立法策略,將從形式上考察具體安全技術(shù)的適用轉(zhuǎn)變?yōu)閺膶嵸|(zhì)上認定個人數(shù)據(jù)的保護實效,①值得參考。面對OpenAl、Stability等商用性AI運營,更應(yīng)權(quán)衡嚴格保護、有效利用、開發(fā)數(shù)據(jù)三者間的關(guān)系。
基于動態(tài)變化的監(jiān)管環(huán)境與技術(shù)迭代,作為預防性舉措,即使在運營商的部署階段,合規(guī)計劃亦應(yīng)設(shè)立定期評測制度,實時更新管理者的知識儲備與認知水平。例如,可督促生成式AI搭載平臺監(jiān)管內(nèi)容傳輸(限制、停止),并采取違法舉報、黑名單、辟謠等措施遏制違法信息產(chǎn)出的負面效果,及時清理過期、冗余或不合法的應(yīng)用數(shù)據(jù)。健全數(shù)據(jù)泄露、侵權(quán)等數(shù)據(jù)安全事件的及時反應(yīng)機制?!稊?shù)據(jù)安全法》第29條規(guī)定,企業(yè)在數(shù)據(jù)處理的全過程中應(yīng)當堅持風險監(jiān)測,及時采取防控措施并報送主管部門、告知用戶。因此,技術(shù)運營者應(yīng)在深度運用風險初顯之際便及時通知相關(guān)權(quán)利主體及主管部門,并開展內(nèi)部自查與整改工作。生成式AI的有序發(fā)展與數(shù)據(jù)的合規(guī)運用,離不開運營方與監(jiān)管機關(guān)的協(xié)同推進。杭州某互聯(lián)網(wǎng)企業(yè)針對敏感數(shù)據(jù)建構(gòu)了“風險核查—數(shù)據(jù)梳理—數(shù)據(jù)保護—監(jiān)控預警”(CAPE)模型,前三項措施著重在前期盡可能明確數(shù)據(jù)處理、使用過程中的刑事風險,[19]具有借鑒意義。
(三)用戶層面:細化運用規(guī)則、合規(guī)使用路徑
數(shù)據(jù)深度運用實質(zhì)上是預設(shè)算法模型與用戶互動的共同成果,因此,在加強技術(shù)本身監(jiān)管外,有必要加強輸入審查、交叉驗證、對抗性評估等針對用戶行為合法性的約束義務(wù)。如普通用戶應(yīng)當避免對生成式AI輸出信息的深度依賴,而要保持必要的信息甄別能力,正視生成式AI存在的知識盲區(qū)、認知偏差等現(xiàn)實問題。專業(yè)用戶在享有數(shù)據(jù)深度運用的成果利益時,作為系統(tǒng)輸出內(nèi)容的控制者,應(yīng)承擔確保生成內(nèi)容合法性的義務(wù)和責任。②如使用ChatGPT便利工作(編寫代碼、撰寫專業(yè)文書等技術(shù)性輔助)、利用人工智能生成內(nèi)容再售賣、加工等經(jīng)營活動時,應(yīng)承擔數(shù)據(jù)運用及其生成物的風險標識與警示義務(wù)。例如,利用ChatGPT通過深度合成技術(shù)模擬生成音視頻等擬真內(nèi)容時,用戶應(yīng)在顯著位置進行警示標識,避免公眾混淆或產(chǎn)生誤認。對涉密、敏感數(shù)據(jù)也應(yīng)及時反饋系統(tǒng)并進行標記,以便后續(xù)使用數(shù)據(jù)時發(fā)揮提示和參考作用。若用戶發(fā)現(xiàn)信息處理者違法或違約時,有權(quán)依據(jù)《個人信息保護法》第47條、第48條規(guī)定,請求刪除并要求信息處理者對其信息使用規(guī)則進行解釋說明,以杜絕不法生成物傳播可能。此外,還可在用戶端強化對機器人賬號的身份識別監(jiān)管和對權(quán)威賬號的特殊認定,減少刷單式批量推送。并可考慮制定數(shù)據(jù)字典,根據(jù)數(shù)據(jù)屬性、標識碼等要素,于數(shù)據(jù)字典中詳細描述數(shù)據(jù)的含義、格式、來源等信息,以便更好地使用數(shù)據(jù)。
四、規(guī)范建構(gòu):數(shù)據(jù)深度運用的刑事規(guī)制體系完善
(一)規(guī)范取向:基于數(shù)據(jù)動態(tài)價值的維護
當前刑法應(yīng)對數(shù)據(jù)深度運用“力所不逮”的主要原因是無法實現(xiàn)對數(shù)據(jù)后續(xù)利用行為的充分評價與制裁。既往屬于規(guī)制重點的非法獲取、泄露數(shù)據(jù)等均為數(shù)據(jù)深度運用的前置環(huán)節(jié),與后續(xù)深度運用相比,現(xiàn)實法益侵害性較低。且通過前端行為的規(guī)制去涵蓋后續(xù)數(shù)據(jù)深度運用行為的社會危害性并不合理。與重要數(shù)據(jù)、核心數(shù)據(jù)不同,未經(jīng)算法深層加工、分析的一般數(shù)據(jù)的價值處于“休眠”狀態(tài),只有經(jīng)過數(shù)據(jù)流通、分析等處理環(huán)節(jié)才可“激活”。生成式AI數(shù)據(jù)深度運用即是將分散的單個數(shù)據(jù)匯集成為體量巨大的數(shù)據(jù)集合,使數(shù)據(jù)脫離原始的自然狀態(tài),實現(xiàn)從分散到集合、從人格利益到財產(chǎn)價值、從“小數(shù)據(jù)”到“大數(shù)據(jù)”等具有價值附加的質(zhì)變。生成式AI正以強大且隱秘的方式重塑數(shù)據(jù)格局。深度運用使數(shù)據(jù)“動態(tài)”價值實現(xiàn)提升,刑法不宜僅承認控制者享有原始數(shù)據(jù)的控制利益??梢?,數(shù)據(jù)深度運用的主要著力點在于分析與再加工環(huán)節(jié),而分析環(huán)節(jié)又是連接原始數(shù)據(jù)與后續(xù)數(shù)據(jù)加工行為(生成內(nèi)容)的橋梁。博弈論觀點認為,風險規(guī)制和數(shù)據(jù)權(quán)益的共存和均衡是數(shù)據(jù)規(guī)制的理性之選。在擬出臺人工智能治理方案的歐洲,正在討論加大面向“生成式AI模型”部署者和用戶的動態(tài)利用行為的直接監(jiān)管力度。任何靜態(tài)化、局部化、個體化的治理措施可能會應(yīng)對乏力,應(yīng)著重就數(shù)據(jù)動態(tài)處理環(huán)節(jié)進行立法嘗試。
(二)階層判斷:數(shù)據(jù)深度運用行為非法性的界定
若仍單純依賴事后責任追究方式來規(guī)制數(shù)據(jù)深度運用的新興技術(shù)風險,可能面臨控制不力、司法資源浪費等困境。應(yīng)盡快設(shè)置明確、統(tǒng)一的違法性判斷標準,以合理限定數(shù)據(jù)深度運用行為的規(guī)范邊界。
1.合理限定:前置性法規(guī)范的違反
數(shù)據(jù)犯罪作為典型的法定犯,具有雙重違法性特征。在面臨數(shù)據(jù)深度運用行為刑事違法性判斷時,應(yīng)充分考量關(guān)涉前置法規(guī)范。嚴苛的刑罰固然能夠推動犯罪人以“經(jīng)濟人”思維規(guī)避風險,但刑法的濫用可能給部分數(shù)據(jù)發(fā)展的商業(yè)實體帶來嚴重阻礙。當前置性法規(guī)范能充分評價、妥善處理數(shù)據(jù)非法運用行為時,則不必強制納入刑法范圍。例如,依據(jù)數(shù)據(jù)犯罪的分級治理機制,可將前文探討的數(shù)據(jù)刑事合規(guī)等自治規(guī)范作為過濾數(shù)據(jù)犯罪的“第一道屏障”,前置性法規(guī)范則作為“第二道屏障”。我國《數(shù)據(jù)安全法》《網(wǎng)絡(luò)安全法》等前置法明確了國家對數(shù)據(jù)采取審慎監(jiān)管的基本立場。①《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》亦明確提出對深度學習、虛擬現(xiàn)實等技術(shù)展開安全評估,對非真實音視頻信息進行標識。這些均是將數(shù)據(jù)風險治理聚焦于前端預防。面對數(shù)據(jù)技術(shù)發(fā)展而衍生的數(shù)據(jù)安全風險,還可充分考慮非刑罰手段介入之可能,以合規(guī)范方式降低刑事風險現(xiàn)實化的可能性。例如,建立以數(shù)據(jù)共享為核心的數(shù)據(jù)運用監(jiān)管機制以便及時、高效獲取數(shù)據(jù)深度運用的動態(tài),從而實現(xiàn)由風險顯現(xiàn)的被動監(jiān)管向主動預防的科技驅(qū)動型監(jiān)管轉(zhuǎn)變。只有數(shù)據(jù)深度運用行為的社會危害性突破一定的程度時,才考慮選用最具嚴苛面向的刑罰手段。預防性禁令作為刑事手段介入前的緩沖,能較妥善地考量數(shù)據(jù)技術(shù)刑事規(guī)制的“雙重適用困境”,可倡導適用。通過發(fā)出預防性禁令(預警方式)使行為人意識到自身行為的違法性,在受到刑事制裁前及時調(diào)整非法運用行為,如限制處理數(shù)據(jù)范圍等。在行為尚未達到違法性標準時,此類非刑罰手段能在事前綜合權(quán)衡風險受益者、受害者和公共利益結(jié)構(gòu),以應(yīng)對數(shù)字科技對刑法提出的新課題——保障數(shù)字技術(shù)發(fā)展的同時抑制風險的發(fā)生。
2.事實判斷:具體法益的切實侵犯
數(shù)據(jù)本身只是以電信號和相應(yīng)字節(jié)組成的比特流。作為價值中立的物理性事實,缺少技術(shù)加工、提煉的數(shù)據(jù)就如同一張白紙。數(shù)據(jù)深度運用所表征的具體權(quán)利需要回溯至數(shù)據(jù)所承載的信息內(nèi)容予以證成,因此,數(shù)據(jù)深度運用的違法性判斷離不開現(xiàn)實層面的法益侵害,只有將數(shù)據(jù)犯罪法益這一較抽象概念還原為可把握的具體利益,才有刑事規(guī)制之必要。
首先,數(shù)據(jù)深度運用犯罪可能侵害以人類安全為中心的綜合性法益?,F(xiàn)代數(shù)據(jù)安全風險源于人類研發(fā)的數(shù)字技術(shù),是人類收集自然界、社會活動的各種留痕。若放任數(shù)據(jù)深度運用技術(shù)野蠻生長,生成式AI憑借其超強的智力優(yōu)勢與效率優(yōu)勢可實現(xiàn)對人類中心的僭越,甚至弱化和動搖人的主體性,或?qū)⑴c機械實體一道產(chǎn)生破壞性替代效應(yīng)。[20](p76)例如,過度使用數(shù)據(jù)深度加工資源承擔教育工作,可能遏制、僵化老師與學生的創(chuàng)造力、推理、批判思維。[21](p58)加之AI生成內(nèi)容可受對話反饋、指令引導等措施的傾向性調(diào)控,可能產(chǎn)出人類邊緣論等侵害人類安全法益的極端內(nèi)容。其次,數(shù)據(jù)犯罪法益涉及國家安全。ChatGPT等數(shù)據(jù)深度運用技術(shù)是基于海量關(guān)聯(lián)數(shù)據(jù)喂養(yǎng)和RLHF強化訓練所產(chǎn)生的,其內(nèi)容輸出看似中立和客觀,但可能包藏設(shè)計偏見,從而裹挾公眾價值觀。網(wǎng)絡(luò)數(shù)據(jù)蘊含大量城市布局、水文地理等敏感且重要信息,經(jīng)過深度加工與分析,足以拼湊或還原成具有完整性、系統(tǒng)性的內(nèi)容,可能危及公共安全與國家安全。最后,數(shù)據(jù)深度運用可能侵犯個人法益。依據(jù)用戶偏好被部署于具體領(lǐng)域的數(shù)據(jù)深度運用行為是對人類價值觀的不完整封裝。隨著大數(shù)據(jù)信息內(nèi)容的多元化、應(yīng)用場景的寬泛化,生成式AI的數(shù)據(jù)利用愈發(fā)個人化和個性化,即使敏感性不強的一般數(shù)據(jù)經(jīng)過處理也可以得出蘊含著個人健康生理信息、財務(wù)信息、生物信息等敏感內(nèi)容。這不僅可能剝奪權(quán)屬主體對數(shù)據(jù)的控制權(quán),亦會導致公民的人身、財產(chǎn)等具體利益遭受侵害。
3.價值評價:遵循利益衡量原則的綜合評判
利益衡量原則旨在保障數(shù)據(jù)刑法系統(tǒng)性、有效性的同時實現(xiàn)對刑法謙抑性的遵守,注重社會治理與科技發(fā)展間的平衡。我國數(shù)據(jù)刑法體系應(yīng)以“嚴而不厲”為基本指導思想,尋求數(shù)據(jù)保護與數(shù)據(jù)利用之間的平衡點,構(gòu)建規(guī)范、完整的數(shù)據(jù)犯罪刑法評價體系。一方面,具體研判數(shù)據(jù)深度運用行為的危害性。通過深度運用行為的罪質(zhì)、罪量兩方面判斷行為附隨后果的嚴重性。若數(shù)據(jù)深度運用行為通過歸納、分析碎片信息得出涉及國家安全的內(nèi)容,此時具有受刑事規(guī)制的傾向;若行為侵犯的是個人、公司的財產(chǎn)、人格等利益,則不宜徑行歸入刑事處罰。因為,侵犯個人利益的多為人臉交互、場景模擬、動作操控、文本創(chuàng)造等技術(shù),這些亦有積極的面向,可廣泛運用于教育、傳媒等領(lǐng)域,不可一刀切式予以刑事制裁。另一方面,刑事規(guī)制還需細致考量數(shù)據(jù)深度運用主體的主觀罪責。例如,手段選擇可反映行為人對待犯罪的態(tài)度,再結(jié)合具體用途、用戶承諾、行業(yè)通常技術(shù)水準等要素,可綜合考量信息的交往安全與利用效率。若行為人明知其所運用的數(shù)據(jù)將被用于灰色產(chǎn)業(yè)或存在源數(shù)據(jù)不明、權(quán)屬爭議等瑕疵,其對危害后果的主觀惡性則不言自明。綜上,面對數(shù)據(jù)深度運用等新興技術(shù)治理,并不需要刑罰權(quán)的積極前伸或?qū)ΡWo功能的單一強調(diào),而應(yīng)在保障數(shù)據(jù)刑法系統(tǒng)性、有效性的同時,遵守刑法謙抑性以促進數(shù)字技術(shù)發(fā)展。即使數(shù)據(jù)深度運用存在潛在刑事風險,也應(yīng)肯定其正向作用(充分釋放數(shù)據(jù)價值),避免數(shù)據(jù)犯罪刑法治理模式由“力所不逮”走向“過猶不及”,注重社會治理同科技發(fā)展間利益的協(xié)調(diào)共存。
(三)對癥規(guī)制:非法分析數(shù)據(jù)罪的增設(shè)與完善
在建立統(tǒng)一、明確的違法性判斷標準后,應(yīng)當探索以數(shù)據(jù)運用為中心的罪名設(shè)置,規(guī)制對象偏重數(shù)據(jù)深度運用本身的關(guān)鍵環(huán)節(jié)(數(shù)據(jù)分析)。非法分析數(shù)據(jù)是指以違法犯罪為目的,利用歧視性算法或其他非正當方式,對數(shù)據(jù)進行非法分析、處理的行為。[22](p34)刑事規(guī)制體系應(yīng)實現(xiàn)對數(shù)據(jù)安全風險的精準化、嚴密化保護,彌補數(shù)據(jù)非法分析環(huán)節(jié)的規(guī)制空白。
筆者以數(shù)據(jù)生命周期為邏輯起點,作出增設(shè)、完善非法分析數(shù)據(jù)罪的構(gòu)想。就制度設(shè)計而言,非法分析數(shù)據(jù)罪的罪狀應(yīng)當是以違法犯罪為主觀目的,借助算法或其他方法對數(shù)據(jù)進行分析處理,但應(yīng)排除技術(shù)發(fā)展、正當商業(yè)運營等合理、合法分析行為。數(shù)據(jù)不僅可成為便利其他犯罪活動的工具,其自身亦可成為受犯罪侵害的對象。因此,在客觀要件邊界上,應(yīng)注意其與非法使用數(shù)據(jù)罪的界分。非法使用數(shù)據(jù)指以數(shù)據(jù)作為犯罪工具便利其他犯罪的行為。而非法分析數(shù)據(jù)罪指在生成式AI等技術(shù)加持下對數(shù)據(jù)深層內(nèi)容的挖掘、價值的添附,較之前者,侵犯法益與數(shù)據(jù)本身具有更多關(guān)涉性。值得強調(diào)的是,數(shù)據(jù)犯罪法益的本質(zhì)是數(shù)據(jù)所表征的信息,如用戶信息安全、數(shù)據(jù)分析管理秩序、市場公平競爭環(huán)境等現(xiàn)實法益。若數(shù)據(jù)深度處理活動無法獲得與具體利益緊密關(guān)聯(lián)的內(nèi)容,或數(shù)據(jù)規(guī)模較小,數(shù)據(jù)處理者很難從中拼湊或提取出重要信息,則沒有納入刑法的必要性。此處可觀察非法分析后,數(shù)據(jù)所蘊含的內(nèi)容敏感性、價值性程度、分布密度等要素的變化,進一步考量行為主體身份與意圖獲取信息內(nèi)容的不匹配性,以及后續(xù)違法犯罪行為。為清晰數(shù)據(jù)初始授權(quán)的合目的性以及保障數(shù)據(jù)交往的動態(tài)價值,應(yīng)確立深度運用主體在數(shù)據(jù)獲取后二次分析、加工等活動的審慎義務(wù),秉持“最小必要”“安全可控”的數(shù)據(jù)使用原則,避免后續(xù)深度運用行為超脫數(shù)據(jù)權(quán)屬主體的同意目的范疇。在宏觀規(guī)范保護層面,非法分析數(shù)據(jù)罪的設(shè)立目的在于保障大多數(shù)“人”享用數(shù)據(jù)資源的“自由”。不可僅因具有抽象風險,便遏制數(shù)據(jù)深度運用等技術(shù)發(fā)展。此外,非法分析數(shù)據(jù)罪的規(guī)制對象不僅包括涉?zhèn)€人信息、商業(yè)秘密、國家機密等現(xiàn)行刑事法規(guī)范已有規(guī)制的重要數(shù)據(jù),亦應(yīng)注意對一般數(shù)據(jù)(特別是海量聚集后)的分析行為。
結(jié)語
數(shù)據(jù)作為ChatGPT等新興技術(shù)發(fā)展的基石,已成為智能社會非常重要的資源。面對ChatGPT等生成式AI潛在的數(shù)據(jù)侵權(quán)、算法歧視等風險,須及時調(diào)整治理理念,理性審視數(shù)據(jù)犯罪樣態(tài)、危害后果并反思現(xiàn)有刑法保護體系。避免“唯技術(shù)主義”所誘發(fā)的盲目技術(shù)崇拜,進而忽視危機防范。數(shù)據(jù)安全法益之內(nèi)涵具有人民群眾的生命健康、財產(chǎn)安全、社會秩序與經(jīng)濟發(fā)展等多層次意蘊,亦是國家安全的重要組成部分。因此,有必要構(gòu)建起具有嚴密性、專門性、體系性的保護體系。應(yīng)當說,就生成式AI的刑法規(guī)制體系而言,我國在立法論層面留存了大量空白亟待填補,希望本文有關(guān)生成式AI的相關(guān)探討能為數(shù)據(jù)安全法益之體系性建構(gòu)以及相關(guān)生成式AI的刑事立法提供些許思路。
參考文獻:
[1]高銘暄.當代刑法前沿問題研究[M].北京:人民法院出版社,2019.
[2]王華偉.數(shù)據(jù)刑法保護的比較考察與體系建構(gòu)[J].比較法研究,2021,(5).
[3]鄧建鵬,朱懌成.ChatGPT模型的法律風險及應(yīng)對之策[J].新疆師范大學學報(哲學社會科學版),2023,(5).
[4]楊志瓊.數(shù)字經(jīng)濟時代我國數(shù)據(jù)犯罪刑法規(guī)制的挑戰(zhàn)與應(yīng)對[J].中國法學,2023,(1).
[5]Synced.微軟ChatGPT版必應(yīng)被黑掉了,全部Prompt泄露![EB/OL].https://mp.weixin.qq.com/s/89KeLjDoS9IyArIr8z6jjg,2023-03-15.
[6]張弛.微軟緊急“救火”限制聊天機器回復次數(shù) 馬斯克稱其不安全應(yīng)關(guān)掉[EB/OL].https://www.caixin.com/101999415.html,2023-02-18.
[7]曹樹金,曹茹燁.從ChatGPT看生成式AI對情報學研究與實踐的影響[J].現(xiàn)代情報,2023,(4).
[8]李玉華,馮泳琦.數(shù)據(jù)合規(guī)的基本問題[J].青少年犯罪問題,2021,(3).
[9]呂炳斌.論網(wǎng)絡(luò)用戶對“數(shù)據(jù)”的權(quán)利——兼論網(wǎng)絡(luò)法中的產(chǎn)業(yè)政策和利益衡量[J].法律科學(西北政法大學學報),2018,(6).
[10]蘇青.認識網(wǎng)絡(luò)犯罪:基于類型思維的二元視角[J].法學評論,2022,(2).
[11]高富平.數(shù)據(jù)流通理論 數(shù)據(jù)資源權(quán)利配置的基礎(chǔ)[J].中外法學,2019,(6).
[12][英]維克托·邁爾-舍恩伯格,肯尼思·庫克耶.大數(shù)據(jù)時代[M].盛楊燕,周濤,譯.杭州:浙江人民出版社,2013.
[13]申衛(wèi)星.論數(shù)據(jù)用益權(quán)[J].中國社會科學,2020,(11).
[14]李帥.網(wǎng)絡(luò)爬蟲行為對數(shù)據(jù)資產(chǎn)確權(quán)的影響[J].財經(jīng)法學,2020,(1).
[15]張凌寒.深度合成治理的邏輯更新與體系迭代——ChatGPT等生成型人工智能治理的中國路徑[J].法律科學(西北政法大學學報),2023,(3).
[16]張亮.算法治理須抓牢主體責任“牛鼻子”[N].法治日報,2022-01-12(05).
[17]蔡士林.我國數(shù)據(jù)安全法益保護:域外經(jīng)驗與立法路徑[J].深圳大學學報(人文社會科學版),2022,(6).
[18]I-AIIG.人工智能國際治理觀察[EB/OL].https://mp.weixin.qq.com/s/hPZ4x0f7WM5N8ybuni0 WMQ, 2023-03-21.
[19]姜濤.數(shù)字安全與刑事合規(guī)建設(shè)[N].檢察日報,2021-11-04(03).
[20]鄒開亮,劉祖兵.ChatGPT的倫理風險與中國因應(yīng)制度安排[J].海南大學學報(人文社會科學版),2023,(4).
[21]Iulia Adelina Ghita , Angela Stan. The Dilemma of Teaching in the Digital Era: Artificial Intelligence[J].Risks and Challenges for Education, 2022, (2).
[22]劉憲權(quán).數(shù)據(jù)犯罪刑法規(guī)制完善研究[J].中國刑事法雜志,2022,(5).
責任編輯? ?王? ?京
收稿日期:2023-07-18
作者簡介:章誠豪(1996—),男,南京大學法學院博士研究生(江蘇南京,210093);張勇(1973—),男,華東政法大學刑事法學院教授、博士生導師(上海,200042)。
基金項目:國家社會科學基金重大項目“數(shù)字經(jīng)濟的刑事安全風險防范體系建構(gòu)研究”(21&ZD209)的階段性研究成果。