国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式AI的法律風(fēng)險(xiǎn)及應(yīng)對(duì)

2023-08-27 00:23:12
關(guān)鍵詞:提供者規(guī)制模型

何 煊

(華東政法大學(xué) 經(jīng)濟(jì)法學(xué)院,上海 200042)

當(dāng)今社會(huì),人工智能(AI)的發(fā)展日新月異,且已被廣泛應(yīng)用于包括金融、醫(yī)療、法律等各個(gè)領(lǐng)域,逐漸成為推動(dòng)社會(huì)進(jìn)步與經(jīng)濟(jì)發(fā)展的重要力量。生成式AI(Generative AI)是一種具有創(chuàng)造性的AI技術(shù),可以模擬人類(lèi)創(chuàng)造性的思維和行為,生成近乎真實(shí)的圖像、音樂(lè)和文本等作品[1]。與傳統(tǒng)的機(jī)器學(xué)習(xí)技術(shù)不同,生成式AI不受人為制定輸出結(jié)果格式和內(nèi)容的限制,而是可以自行決定。生成式AI的出現(xiàn),標(biāo)志著強(qiáng)AI時(shí)代帷幕已徐徐拉開(kāi),人類(lèi)社會(huì)或?qū)⑦~入一個(gè)分水嶺。然而,隨著生成式AI技術(shù)的廣泛應(yīng)用,給人類(lèi)帶來(lái)驚喜的同時(shí),也產(chǎn)生了一系列的法律風(fēng)險(xiǎn)和挑戰(zhàn),特別是在數(shù)據(jù)安全、知識(shí)產(chǎn)權(quán)保護(hù)、個(gè)人信息安全等方面,具有發(fā)生潛在意外的可能。另一方面,生成式AI技術(shù)也將會(huì)對(duì)人類(lèi)社會(huì)的制度、經(jīng)濟(jì)、道德倫理及價(jià)值觀構(gòu)成挑戰(zhàn)。有觀點(diǎn)認(rèn)為,以ChatGPT(Chat Generative Pre-trained Transformer,聊天生成預(yù)訓(xùn)練轉(zhuǎn)換器)為代表的系列應(yīng)用將會(huì)加速公共價(jià)值體系的崩解,有必要針對(duì)潛在風(fēng)險(xiǎn)進(jìn)行應(yīng)對(duì)[2]。而如何在現(xiàn)有法律框架和規(guī)范的基礎(chǔ)上,制定適當(dāng)?shù)膽?yīng)對(duì)策略,是擺在人類(lèi)面前的一項(xiàng)重要課題。我國(guó)網(wǎng)信辦先后于2022年11月25日及2023年4月11日發(fā)布《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡(jiǎn)稱(chēng)《規(guī)定》)與《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》(以下簡(jiǎn)稱(chēng)《辦法》),旨在促進(jìn)技術(shù)的健康發(fā)展與規(guī)范應(yīng)用,具有重要的里程碑意義。歐盟已于2023年6月14日通過(guò)《人工智能法案》(AI Act,以下簡(jiǎn)稱(chēng)《AI法案》),配搭以《數(shù)字服務(wù)法案》(DSA)、《人工智能責(zé)任指令》(AILD)等法律法規(guī),為應(yīng)對(duì)大型平臺(tái)、AI產(chǎn)品等形成規(guī)制體系??梢灶A(yù)見(jiàn)的是,未來(lái)各國(guó)將持續(xù)對(duì)生成式AI監(jiān)管規(guī)則進(jìn)行探索,以形成更為豐富健全的理論體系。本文旨在探討生成式AI的相關(guān)概念及作用機(jī)理,分析其可能帶來(lái)的法律風(fēng)險(xiǎn),對(duì)國(guó)內(nèi)外現(xiàn)有制度進(jìn)行分析,為我國(guó)制度構(gòu)建提出基本的應(yīng)對(duì)策略,以促進(jìn)公民合法權(quán)益的保障及生成式AI產(chǎn)業(yè)的有序發(fā)展。

一、生成式AI的概念及作用機(jī)理

(一)生成式AI的相關(guān)概念

從現(xiàn)有規(guī)定框架以及學(xué)界討論來(lái)看,對(duì)于生成式AI,在概念的使用上就令人目眩。AI生成內(nèi)容(Artificial Intelligence Generated Content,AIGC)[3]與生成式AI(Generative AI)[4]存在區(qū)別,AIGC強(qiáng)調(diào)由AI生成的內(nèi)容,而生成式AI是一種產(chǎn)生或創(chuàng)造AIGC的手段,二者所涉風(fēng)險(xiǎn)并不相同。生成式AI是一種更廣泛、包容的概念,包括多種生成模型和方法,用于實(shí)現(xiàn)內(nèi)容的生成、創(chuàng)造和創(chuàng)新,其中包括深度合成與深度學(xué)習(xí)等[5]。AIGC則與PGC(Professional Generated Content,專(zhuān)業(yè)生成內(nèi)容)、UGC(User Generated Content,用戶(hù)生成內(nèi)容)相對(duì)應(yīng),強(qiáng)調(diào)生成主體為AI?!掇k法》將生成式AI定義為:基于算法、模型、規(guī)則生成文本、圖片、聲音、視頻、代碼等內(nèi)容的技術(shù)。該定義對(duì)生成式AI底層技術(shù)內(nèi)核與生成內(nèi)容類(lèi)型進(jìn)行了概括,較為全面與精確。有學(xué)者提出類(lèi)似觀點(diǎn),認(rèn)為生成式AI是指基于算法、模型、規(guī)則等,在沒(méi)有人為直接參與的情況下,自動(dòng)生成文本、圖片、視頻等內(nèi)容的技術(shù)[6]。從技術(shù)角度來(lái)看,生成式AI又與機(jī)器學(xué)習(xí)(Machine Learning)、深度學(xué)習(xí)(Deep Learning)、深度合成(Deep Synthesis)等存在著密切聯(lián)系,對(duì)此有必要進(jìn)行區(qū)分與厘清。機(jī)器學(xué)習(xí)是AI技術(shù)的一個(gè)分支與子集,主要涉及從輸入數(shù)據(jù)中學(xué)習(xí),并做出預(yù)測(cè)或決策,不斷進(jìn)行改進(jìn)或提高[7]。傳統(tǒng)AI技術(shù)應(yīng)用如自動(dòng)駕駛、人臉識(shí)別等雖然可以對(duì)特征進(jìn)行高效識(shí)別,但輸出結(jié)果系靜態(tài)、固定的,這意味著AI無(wú)法通過(guò)自身進(jìn)化而提高準(zhǔn)確性。而深度學(xué)習(xí)技術(shù)則為機(jī)器學(xué)習(xí)的升級(jí),可以學(xué)習(xí)更復(fù)雜的數(shù)據(jù)表示,并執(zhí)行圖像識(shí)別、自然語(yǔ)言處理等任務(wù)[8]14。通過(guò)在變量之間創(chuàng)建神經(jīng)網(wǎng)絡(luò)(Neural Network)來(lái)輔助預(yù)測(cè)過(guò)程,在數(shù)百個(gè)變量間建立起聯(lián)系,較機(jī)器學(xué)習(xí)更為先進(jìn)。深度合成技術(shù)則是深度學(xué)習(xí)的子集,是側(cè)重于視覺(jué)領(lǐng)域應(yīng)用的分支,如圖片合成、視頻編輯等。正如學(xué)者所言,深度合成在我國(guó)制度框架下不僅是技術(shù)概念,更是法律概念[9]?!兑?guī)定》中明確了深度合成技術(shù)為“利用深度學(xué)習(xí)、虛擬現(xiàn)實(shí)等生成合成類(lèi)算法制作文本、圖像、音頻、視頻、虛擬場(chǎng)景等網(wǎng)絡(luò)信息的技術(shù)”(1)參見(jiàn)《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》第23條。,并以此作為規(guī)制重點(diǎn)。

《AI法案》形成了以“通用AI系統(tǒng)”(General-Purpose AI System,GPAIS)為核心的規(guī)制體系,成為生成式AI監(jiān)管的著力點(diǎn)。歐盟理事會(huì)在2022年12月6日通過(guò)的一般方法現(xiàn)將GPAIS定義為:“提供者意在廣泛開(kāi)展適用的功能,如圖像和語(yǔ)音識(shí)別、音頻及視頻生成、模型檢測(cè)、問(wèn)答、翻譯等;通用AI系統(tǒng)可以在多個(gè)情形中使用,并被整合在多個(gè)其他AI系統(tǒng)中?!?2)See Article 3 AI Act.AI系統(tǒng)(AI System)是幫助理解AI規(guī)制的重要概念,AI系統(tǒng)的工作原理是,通過(guò)獲取輸入數(shù)據(jù)并經(jīng)過(guò)一系列算法運(yùn)行,以進(jìn)行預(yù)測(cè)風(fēng)險(xiǎn)、解釋或解決問(wèn)題,例如對(duì)自動(dòng)駕駛系統(tǒng)的應(yīng)用[10]?!澳P汀?(Model)是指通過(guò)對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行學(xué)習(xí)而得到的一個(gè)函數(shù)或算法。模型可以對(duì)輸入數(shù)據(jù)進(jìn)行處理,并生成有用的輸出或預(yù)測(cè)。模型是機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等重要技術(shù)的基石,通過(guò)函數(shù)與算法對(duì)訓(xùn)練數(shù)據(jù)的加工,模型可以持續(xù)地運(yùn)行與自我完善。ChatGPT是深度學(xué)習(xí)技術(shù)的代表性應(yīng)用產(chǎn)物,而深度學(xué)習(xí)技術(shù)則主要以深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks)模型為核心,其又可被稱(chēng)作“大型生成式AI模型”(Large Generative AI Models,LGAIM)或“大型語(yǔ)言模型”(Large Language Models,LLM)。它們相較于傳統(tǒng)模型能夠處理更為廣泛、復(fù)雜的問(wèn)題,它們的“通用性”建立在功能及性能之上,如任務(wù)類(lèi)型(文本、圖片)、任務(wù)領(lǐng)域(教育、醫(yī)療、金融等)、多功能性(黑白或彩色圖像)[11]。一般而言,人類(lèi)會(huì)審查模型結(jié)果的準(zhǔn)確性,但機(jī)器學(xué)習(xí)技術(shù)的出現(xiàn)幫助AI系統(tǒng)進(jìn)行自主調(diào)整與反饋,使其在脫離人類(lèi)干預(yù)的情況下,在預(yù)測(cè)精準(zhǔn)度方面不斷提升。故此類(lèi)模型具有極強(qiáng)的可塑性,能夠不斷進(jìn)行自我完善與學(xué)習(xí)。

AI系統(tǒng)與AI模型是一對(duì)重要的概念?!禔I法案》主要強(qiáng)調(diào)對(duì)通用AI系統(tǒng)的規(guī)制,進(jìn)而提出了風(fēng)險(xiǎn)分級(jí)概念,所依據(jù)的也正是對(duì)AI系統(tǒng)在多種場(chǎng)景下具體應(yīng)用的評(píng)估,而非僅聚焦于AI模型的性能。AI系統(tǒng)是一個(gè)由多個(gè)組件構(gòu)成的整體,模型作為其中的一個(gè)關(guān)鍵組件,負(fù)責(zé)對(duì)輸入數(shù)據(jù)進(jìn)行處理和分析,作為整個(gè)系統(tǒng)的工具性構(gòu)成而存在。除模型外,AI系統(tǒng)還包括了數(shù)據(jù)存儲(chǔ)與管理、用戶(hù)接口、決策邏輯和反饋機(jī)制等組件[12]1045。模型的訓(xùn)練和推理過(guò)程是AI系統(tǒng)中的重要環(huán)節(jié),它們與其他組件共同協(xié)作,形成完整的AI應(yīng)用。脫離了系統(tǒng)的其他組件,模型便無(wú)法發(fā)揮全部作用,從這個(gè)角度來(lái)看,以ChatGPT為代表的生成式AI可以被視為一個(gè)集成了生成式AI模型和相關(guān)AI系統(tǒng)組件的綜合系統(tǒng)。它不僅具備生成式AI模型的能力,還具備部署、交互和管理的能力,以提供實(shí)際的對(duì)話服務(wù)。AI系統(tǒng)可以與其他系統(tǒng)深度集成,如搜索引擎、辦公程序等,進(jìn)而強(qiáng)化用戶(hù)使用體驗(yàn),形成完整的AI系統(tǒng)價(jià)值鏈條。概言之,模型本身具有工具性,高級(jí)模型的存在旨在提升預(yù)測(cè)效率與精度,是整個(gè)AI系統(tǒng)的最關(guān)鍵部分。AI系統(tǒng)作為更廣泛的概念,涵蓋了不同的類(lèi)型、目的與用途,其設(shè)計(jì)與使用能夠涉及多個(gè)層面的法律問(wèn)題,應(yīng)成為針對(duì)生成式AI的主要規(guī)制對(duì)象。

(二)生成式AI的作用機(jī)理

以ChatGPT為例,以基于深度學(xué)習(xí)的自然語(yǔ)言處理模型為基礎(chǔ),功能是生成具有上下文連貫性和邏輯性的自然語(yǔ)言回復(fù)。作為文本對(duì)話式應(yīng)用,它的機(jī)理可以分為兩個(gè)主要方面:訓(xùn)練和推斷。在訓(xùn)練階段,ChatGPT語(yǔ)言模型使用了大量的文本數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練。它的訓(xùn)練數(shù)據(jù)可以包括從互聯(lián)網(wǎng)上獲取的各種文本資源,例如新聞文章、網(wǎng)頁(yè)內(nèi)容、書(shū)籍等。這些數(shù)據(jù)被用來(lái)訓(xùn)練一個(gè)深度神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)具有多層結(jié)構(gòu),通常采用了Transformer模型[1]。Transformer 模型是一種特殊的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),由多個(gè)編碼器(encoder)與解碼器層(decoder)組成,它在自然語(yǔ)言處理任務(wù)中能發(fā)揮有效作用。在預(yù)測(cè)與輸出階段,GPT模型通過(guò)事先的訓(xùn)練、注意力機(jī)制與神經(jīng)網(wǎng)絡(luò)等對(duì)上下文展開(kāi)理解,經(jīng)“采樣分類(lèi)”技術(shù)最終生成具有多樣性的文本內(nèi)容[13](見(jiàn)圖1)。

圖1 生成式AI模型運(yùn)行機(jī)理

通用AI系統(tǒng)可以完成或適應(yīng)于完成一系列不同任務(wù),其中包括一些它沒(méi)有經(jīng)過(guò)刻意及專(zhuān)門(mén)訓(xùn)練的任務(wù)[11]。生成式AI的用途不僅僅局限于對(duì)話交互、文本生成,除ChatGPT應(yīng)用外,在圖像與語(yǔ)音識(shí)別、音頻及視頻生成方面的應(yīng)用前景也十分廣闊。在自然語(yǔ)言處理(Natural Language Processing,NLP)、計(jì)算機(jī)視覺(jué)(Computer Vision,CV)等領(lǐng)域,生成式AI也有不俗表現(xiàn)。例如谷歌翻譯(Google Translate)、百度翻譯等在線翻譯工具,以及以NLP技術(shù)為基礎(chǔ)的虛擬助手、聊天機(jī)器人等應(yīng)用。人臉識(shí)別為視覺(jué)領(lǐng)域的主要應(yīng)用,其用于對(duì)人臉進(jìn)行分類(lèi)并識(shí)別等操作,在安保、金融服務(wù)及社交網(wǎng)絡(luò)等場(chǎng)景下作用明顯。在我國(guó),如支付寶“刷臉支付”功能的廣泛應(yīng)用,給人們帶來(lái)極大便利。生成式AI系統(tǒng)具有高度的可塑性、自主性與不確定性。ChatGPT基于GPT3.5(Instruct GPT)大規(guī)模預(yù)訓(xùn)練模型,通過(guò)存儲(chǔ)海量數(shù)據(jù)、高效理解設(shè)計(jì)結(jié)構(gòu)與讀取用戶(hù)需求,以近乎于人類(lèi)的語(yǔ)言形式生成具有“較高復(fù)雜度的回應(yīng)文本[14],其運(yùn)行過(guò)程無(wú)關(guān)乎人類(lèi)意志,可以在接受指令后自行獨(dú)立完成任務(wù),生成的結(jié)果也往往具有不可預(yù)測(cè)性。

各類(lèi)生成式AI系統(tǒng)具有普遍類(lèi)似的作用機(jī)理,雖然在文本、圖像、視頻等作用形式上呈現(xiàn)差異化,但無(wú)法脫離生成、比對(duì)、預(yù)測(cè)等功能。通過(guò)對(duì)ChatGPT運(yùn)作的分析,生成式AI的深層運(yùn)行邏輯主要可分為模型訓(xùn)練與采樣推理兩個(gè)階段,分別可稱(chēng)作前端與后端[15]。在前端,AI系統(tǒng)提供者或開(kāi)發(fā)人員通?;谔囟ǖ哪P?如生成對(duì)抗網(wǎng)絡(luò)(GANs)等,經(jīng)海量規(guī)模、類(lèi)型數(shù)據(jù)的“投喂”,使之具備不斷自我完善與進(jìn)化的能力。預(yù)訓(xùn)練(Pretraining)被認(rèn)為是一種用于生成式AI開(kāi)發(fā)與訓(xùn)練的有效方法。預(yù)訓(xùn)練通過(guò)使用大量的訓(xùn)練數(shù)據(jù),如無(wú)標(biāo)簽數(shù)據(jù)(Unlabeled Data),通過(guò)深度神經(jīng)網(wǎng)絡(luò)開(kāi)展共性特征學(xué)習(xí),使其能夠?qū)W習(xí)到常用的知識(shí)與表達(dá),再使用有標(biāo)簽數(shù)據(jù)(Labeled Data)進(jìn)行微調(diào),達(dá)到性能的優(yōu)化效果[16]。在模型實(shí)際應(yīng)用到下游場(chǎng)景時(shí),模型通常脫離最初提供者的控制,需要專(zhuān)業(yè)人員對(duì)其進(jìn)行調(diào)整以適應(yīng)各種變化。對(duì)于后端而言,生成式AI需要體現(xiàn)其創(chuàng)造性與不確定性,其通過(guò)最小化或最大化特定的損失函數(shù)來(lái)優(yōu)化模型。在生成對(duì)抗網(wǎng)絡(luò)中,生成器和判別器之間的對(duì)抗損失函數(shù)驅(qū)使生成器產(chǎn)生更逼真的輸出[17]。通過(guò)對(duì)輸入樣本進(jìn)行插值、操作和采樣,可以生成不同的輸出樣本,實(shí)現(xiàn)創(chuàng)造性的生成。憑借創(chuàng)造性的生成,生成式AI系統(tǒng)往往不局限于日常交互,而向社會(huì)領(lǐng)域各類(lèi)專(zhuān)業(yè)服務(wù)擴(kuò)張,如金融、醫(yī)療、教育等,專(zhuān)業(yè)的行業(yè)工作者通過(guò)對(duì)AI系統(tǒng)的使用,開(kāi)展專(zhuān)業(yè)業(yè)務(wù)工作。

二、生成式AI的法律風(fēng)險(xiǎn)分析及法律規(guī)制反思

(一)生成式AI法律風(fēng)險(xiǎn)分析

與為單一、簡(jiǎn)單化目標(biāo)與任務(wù)而設(shè)計(jì)并服務(wù)的傳統(tǒng)AI相比,生成式AI能夠通過(guò)學(xué)習(xí)人類(lèi)的行為和偏好,產(chǎn)生新的、更加精準(zhǔn)的推斷結(jié)果,從而帶來(lái)對(duì)個(gè)人隱私、知識(shí)產(chǎn)權(quán)、數(shù)據(jù)安全等多個(gè)維度的法律風(fēng)險(xiǎn)。有學(xué)者通過(guò)對(duì)AI技術(shù)原理的剖析,指出生成式AI將帶來(lái)數(shù)據(jù)合規(guī)、生成內(nèi)容濫用、算法濫用以及隱私風(fēng)險(xiǎn)等[18]。也有學(xué)者依據(jù)生成式AI在準(zhǔn)備、運(yùn)算到生成階段的不同表征,提出生成式AI在數(shù)據(jù)、算法偏見(jiàn)及知識(shí)產(chǎn)權(quán)三個(gè)方面的風(fēng)險(xiǎn)[19]。自生成式AI問(wèn)世之日起,以數(shù)據(jù)、隱私、知識(shí)產(chǎn)權(quán)等法律風(fēng)險(xiǎn)的擔(dān)憂(yōu)便延綿不絕,屬于AI模型與系統(tǒng)風(fēng)險(xiǎn)的共同表現(xiàn)形式,此類(lèi)風(fēng)險(xiǎn)均可被認(rèn)為具有同一屬性與特點(diǎn),即對(duì)公民個(gè)人或特定群體的人身、財(cái)產(chǎn)等權(quán)利的風(fēng)險(xiǎn)。對(duì)于以ChatGPT為代表的生成式AI,有學(xué)者不主張單獨(dú)立法規(guī)制,理由在于技術(shù)應(yīng)用場(chǎng)景乃至技術(shù)本身具有的不確定性將帶來(lái)風(fēng)險(xiǎn)的難以預(yù)測(cè),以此為規(guī)制起因與緣由,會(huì)陷入技術(shù)與法律一一對(duì)應(yīng)的謬誤中[20]。本文認(rèn)為,技術(shù)本身是中性的,AI模型的開(kāi)發(fā)目的在于提高生產(chǎn)效率、增進(jìn)社會(huì)福祉,模型的固有缺陷與風(fēng)險(xiǎn)無(wú)法徹底消除,只能夠通過(guò)技術(shù)層面的不斷完善而將風(fēng)險(xiǎn)降至可接受并預(yù)見(jiàn)的范圍內(nèi),法律制度無(wú)法解決技術(shù)問(wèn)題,不當(dāng)介入將對(duì)技術(shù)發(fā)展構(gòu)成阻礙。就目前來(lái)看,生成式AI所帶來(lái)的法律風(fēng)險(xiǎn)仍未形成特殊的風(fēng)險(xiǎn)類(lèi)別,無(wú)需就假設(shè)或猜想中的風(fēng)險(xiǎn)予以單獨(dú)立法。

基礎(chǔ)法律條文可被理解為“行為+要件”的結(jié)合,對(duì)技術(shù)模型的風(fēng)險(xiǎn)的單一討論必將落入籠統(tǒng)、寬泛的困境,而結(jié)合特定應(yīng)用與人的行為則將使問(wèn)題更為清晰與具體,形成針對(duì)實(shí)際風(fēng)險(xiǎn)規(guī)制的探索,構(gòu)建特定主體的權(quán)利義務(wù)規(guī)則,成為生成式AI規(guī)制的邏輯起點(diǎn)。生成式AI應(yīng)用的多樣化決定其風(fēng)險(xiǎn)程度伴隨場(chǎng)景的變化具有顯著差異??紤]到這一基本特征,歐盟《AI法案》提出了具有基石性意義的“風(fēng)險(xiǎn)管理系統(tǒng)”(Risk Management System)分類(lèi)體系,將風(fēng)險(xiǎn)程度進(jìn)行相對(duì)科學(xué)且精細(xì)的劃分。該體系下,依據(jù)AI系統(tǒng)可能對(duì)人的基本權(quán)利產(chǎn)生威脅的等級(jí)將其劃分為四類(lèi),分別是不可接受的風(fēng)險(xiǎn)(Unacceptable)、高風(fēng)險(xiǎn)(High)、有限風(fēng)險(xiǎn)(Limited)與最小風(fēng)險(xiǎn)(Minimal)[21]。凡是使用人工智能系統(tǒng)或技術(shù)操控人類(lèi)行為,對(duì)人類(lèi)造成或可能造成身體、心理傷害,進(jìn)而對(duì)公民的安全、正常生活和基本權(quán)利構(gòu)成明顯危險(xiǎn)的,即屬于“不可接受的風(fēng)險(xiǎn)”,應(yīng)無(wú)一例外地被禁止使用。部分可顯著影響用戶(hù)基本權(quán)利的AI系統(tǒng)可被視為具有高風(fēng)險(xiǎn),如涉及生物識(shí)別、信用評(píng)估、基礎(chǔ)設(shè)施管理等。而大多數(shù)人工智能系統(tǒng),如視頻游戲或垃圾郵件過(guò)濾器,都屬于有限風(fēng)險(xiǎn)或最小風(fēng)險(xiǎn)類(lèi)別,無(wú)須特別規(guī)制。就頗受爭(zhēng)議的高風(fēng)險(xiǎn)系統(tǒng)而言,其使用面臨著法案設(shè)置的諸多強(qiáng)制性要求,只有當(dāng)合規(guī)性要求被滿(mǎn)足并預(yù)先經(jīng)過(guò)有關(guān)部門(mén)評(píng)估合格,這類(lèi)AI系統(tǒng)才能夠真正進(jìn)入市場(chǎng)并投入使用,對(duì)提供者而言較為嚴(yán)苛。提供者作為技術(shù)開(kāi)發(fā)主體,事實(shí)上無(wú)法預(yù)見(jiàn)模型投入使用的所有可能場(chǎng)景,這些在一定程度上由下游使用者所決定,主體權(quán)利義務(wù)關(guān)系與風(fēng)險(xiǎn)等級(jí)隨場(chǎng)景而變化,故此種風(fēng)險(xiǎn)分級(jí)制度亟待完善。我國(guó)法律欲參考?xì)W盟立法對(duì)AI進(jìn)行分級(jí),就必須明確具體應(yīng)用場(chǎng)景及下游主體,對(duì)癥下藥。

從前端的模型架構(gòu)與數(shù)據(jù)訓(xùn)練來(lái)看,模型以網(wǎng)絡(luò)文本、語(yǔ)言學(xué)知識(shí)庫(kù)、對(duì)話數(shù)據(jù)集和科學(xué)論文等主要渠道進(jìn)行訓(xùn)練,雖然這些渠道的數(shù)據(jù)可能涉及個(gè)人信息或隱私,但開(kāi)發(fā)人員會(huì)對(duì)數(shù)據(jù)進(jìn)行篩選和屏蔽,去除其中的個(gè)人信息,僅使用匿名化數(shù)據(jù)用于訓(xùn)練。在篩選過(guò)程中,涉及到數(shù)據(jù)、個(gè)人信息獲取及知識(shí)產(chǎn)權(quán)等方面的法律規(guī)范,以及公平競(jìng)爭(zhēng)和商業(yè)道德等要求。在后端的輸出階段,以文字、圖片、音頻或視頻為主要表現(xiàn)形式的輸出內(nèi)容,將挑戰(zhàn)基于現(xiàn)行法知識(shí)產(chǎn)權(quán)歸屬、轉(zhuǎn)讓以及責(zé)任認(rèn)定等方面的規(guī)定,圍繞著版權(quán)、商標(biāo)權(quán)、專(zhuān)利權(quán)等知識(shí)產(chǎn)權(quán)糾紛將大量出現(xiàn),公眾對(duì)生成信息的誤讀及誤解將引發(fā)負(fù)面社會(huì)影響。例如,OpenAI的政策團(tuán)隊(duì)曾發(fā)布由Irene Solaiman領(lǐng)導(dǎo)的一個(gè)研究小組所取得的成果,該研究小組當(dāng)時(shí)在研究GPT-2等語(yǔ)言處理模型的信息發(fā)布策略、社會(huì)影響及濫用案例。該研究發(fā)現(xiàn),被測(cè)試的讀者錯(cuò)誤地將虛假新聞?wù)`認(rèn)為真正的新聞,對(duì)它的平均信任與對(duì)“紐約時(shí)報(bào)”文章的信任程度相同[22]。然而,技術(shù)可能被用于增進(jìn)社會(huì)福祉的同時(shí),也可遭不法分子的惡意利用,這取決于具體的場(chǎng)合與場(chǎng)景。例如醫(yī)療、金融場(chǎng)景下對(duì)病人、用戶(hù)的隱私泄露,相較一般場(chǎng)景下,如日常問(wèn)答對(duì)話,具有更高的風(fēng)險(xiǎn)程度。而對(duì)應(yīng)用于何種場(chǎng)景與如何應(yīng)用到具體場(chǎng)景,開(kāi)發(fā)人員無(wú)法事先預(yù)測(cè)與知曉,下游主體在此過(guò)程中扮演著重要角色。對(duì)于AI模型而言,提供者扮演類(lèi)似產(chǎn)品責(zé)任法律制度中“生產(chǎn)者”的角色,對(duì)模型性能及質(zhì)量負(fù)有首要責(zé)任,而在實(shí)際應(yīng)用場(chǎng)景中,模型需要經(jīng)過(guò)微調(diào)方可具備適應(yīng)性。

對(duì)于后端生成內(nèi)容的輸出審查,應(yīng)當(dāng)以平臺(tái)為主要規(guī)制對(duì)象。原因在于平臺(tái),尤其是超大型平臺(tái)在模型開(kāi)發(fā)、數(shù)據(jù)訓(xùn)練等方面具備了超越個(gè)體的優(yōu)勢(shì),相較于個(gè)體,其在權(quán)益侵害可能性、范圍、影響等各方面均更勝一籌。在風(fēng)險(xiǎn)程度上,這超越了以個(gè)體非專(zhuān)業(yè)用戶(hù)權(quán)益的侵害,而上升成為對(duì)整個(gè)社會(huì)秩序的威脅。因此,雖然無(wú)法跳脫傳統(tǒng)法律制度就歧視、不當(dāng)言論等風(fēng)險(xiǎn)構(gòu)建的規(guī)則范疇,但仍應(yīng)作為該類(lèi)風(fēng)險(xiǎn)中的極端情形予以特殊規(guī)制。New bing就通過(guò)微軟平臺(tái)對(duì)瀏覽器、word等應(yīng)用進(jìn)行嵌入,完善與優(yōu)化客戶(hù)的服務(wù)體驗(yàn)。以“平臺(tái)+AI”的發(fā)展模式將通過(guò)創(chuàng)造新的權(quán)威知識(shí)重新分配權(quán)力,強(qiáng)化互聯(lián)網(wǎng)寡頭在市場(chǎng)的壟斷態(tài)勢(shì)[23]68。虛假信息、誤導(dǎo)性言論、歧視與偏見(jiàn)等帶來(lái)的威脅將通過(guò)平臺(tái)規(guī)模進(jìn)一步放大,當(dāng)前微軟、Meta、谷歌等對(duì)通用AI系統(tǒng)的開(kāi)發(fā)與收購(gòu)熱潮表明資本對(duì)技術(shù)的充分關(guān)注,隨著技術(shù)與平臺(tái)經(jīng)濟(jì)的深度融合,未來(lái)針對(duì)應(yīng)用于超大在線平臺(tái)的生成式AI系統(tǒng)的監(jiān)管將成為趨勢(shì)。法律應(yīng)當(dāng)專(zhuān)注于法律關(guān)系,只有在法律關(guān)系場(chǎng)景下,制度方可發(fā)揮作用,而法律關(guān)系場(chǎng)景架構(gòu)的前提是AI系統(tǒng)應(yīng)用場(chǎng)景的存在,而真正能夠給公民權(quán)利造成威脅的應(yīng)用場(chǎng)景才是制度的著力點(diǎn),脫離場(chǎng)景客觀風(fēng)險(xiǎn)而存在的規(guī)制如無(wú)本之木。盡管生成式AI模型的固有屬性及缺陷將使數(shù)據(jù)、個(gè)人信息、隱私、知識(shí)產(chǎn)權(quán)等基本權(quán)利侵害形式愈加復(fù)雜化,但站在AI系統(tǒng)應(yīng)用場(chǎng)景的角度看,由各單一個(gè)體積聚的風(fēng)險(xiǎn)將引發(fā)更高維度的社會(huì)整體風(fēng)險(xiǎn),體現(xiàn)為“平臺(tái)+AI”的模式,這是現(xiàn)有法律規(guī)制體系所無(wú)法觸及的。

(二)生成式AI法律規(guī)制反思

在權(quán)利侵害的表征上,傳統(tǒng)法律體系仍存在一定程度上的調(diào)整與因應(yīng)空間,然而該空間已愈發(fā)狹小。

第一,《辦法》系在我國(guó)《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》,以及《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等規(guī)定基礎(chǔ)之上的升華與凝練,對(duì)技術(shù)規(guī)范、主體義務(wù)與責(zé)任作出了細(xì)致安排,強(qiáng)調(diào)技術(shù)開(kāi)發(fā)、提供者的主體責(zé)任,但規(guī)制對(duì)象仍相對(duì)單一。我國(guó)為應(yīng)對(duì)生成式AI法律風(fēng)險(xiǎn)所出臺(tái)的具有針對(duì)性的規(guī)定,如《辦法》《規(guī)定》等,一定程度上存在對(duì)歐盟立法的借鑒。《辦法》通過(guò)參考《AI法案》規(guī)定,將責(zé)任聚焦于AI產(chǎn)品或服務(wù)的提供者,要求其對(duì)數(shù)據(jù)及服務(wù)質(zhì)量負(fù)責(zé),使其負(fù)有某種程度上的“高風(fēng)險(xiǎn)義務(wù)”,然而這一舉措并不能實(shí)現(xiàn)對(duì)生成式AI的有效規(guī)制。事實(shí)上,以《AI法案》為代表的相關(guān)歐盟立法,其靈感有一部分來(lái)源于歐洲相關(guān)產(chǎn)品安全立法,因此所謂的AI“提供者”(Provider)的角色地位很大程度上被等同于現(xiàn)實(shí)中的產(chǎn)品制造商。例如在最新《一般產(chǎn)品安全條例》(General Product Safety Directive,GPSD)中,規(guī)定了制造商、供應(yīng)商及平臺(tái)的盡職調(diào)查義務(wù)(3)See European Parliament:General Product Safety Directive(2021).。對(duì)于GPSD所規(guī)定的“產(chǎn)品”概念,包括日常生活用品,在責(zé)任分配邏輯上,法律自然將其主要分配給上游制造商,因?yàn)樗麄兺ǔJ亲盍私猱a(chǎn)品性能及質(zhì)量的主體,這也合乎一般情況下產(chǎn)品質(zhì)量法律法規(guī)的責(zé)任分配邏輯。然而,AI并非一般的日常生活用品,如玩具、桌椅等,AI是作為更具動(dòng)態(tài)性、復(fù)雜性與成長(zhǎng)性的特殊工具而存在的,下游參與者對(duì)其使用、改造及維護(hù)方式與最初如何建立相比同樣重要,但《AI法案》就其責(zé)任分配及承擔(dān)問(wèn)題卻并未過(guò)多涉及。例如,部署者(Deployer)通常根據(jù)用途目的的不同而對(duì)模型進(jìn)行微調(diào),使其在性能上具有更強(qiáng)的適應(yīng)性。對(duì)于用戶(hù)而言,也存在專(zhuān)業(yè)水平能力與應(yīng)用目的的差別,如日常生活中的疑問(wèn)解答與專(zhuān)業(yè)辦公場(chǎng)景下工作人員的使用。我國(guó)現(xiàn)有規(guī)定偏重于對(duì)上游技術(shù)提供者、供應(yīng)商等主體進(jìn)行規(guī)制,主要試圖解決因提供AI服務(wù)而產(chǎn)生的責(zé)任主體不明、責(zé)任劃分不清晰等問(wèn)題,仍是一種基于“產(chǎn)品”的規(guī)制思路。

第二,現(xiàn)有規(guī)定對(duì)平臺(tái)關(guān)注度不足?!禔I法案》對(duì)大型生成式AI模型開(kāi)發(fā)提供者不加以區(qū)分地課以高風(fēng)險(xiǎn)義務(wù),高昂的合規(guī)成本將部分小型開(kāi)發(fā)者、企業(yè)驅(qū)逐出市場(chǎng),僅剩少量市場(chǎng)巨頭,如谷歌、Meta、Microsoft/Open AI等,可以承擔(dān)因開(kāi)發(fā)模型所帶來(lái)的高昂成本。我國(guó)《辦法》《規(guī)定》等制度所起到的類(lèi)似效果,可能導(dǎo)致AI模型開(kāi)發(fā)的集中化趨勢(shì),這顯然并非是立法者的預(yù)期目的。這就引申出了生成式AI系統(tǒng)與平臺(tái)經(jīng)濟(jì)的關(guān)系,前者能夠嵌入平臺(tái),強(qiáng)化后者的壟斷擴(kuò)張效應(yīng),在與下游應(yīng)用場(chǎng)景結(jié)合的情形下帶來(lái)巨大的市場(chǎng)支配力量,最終導(dǎo)致平臺(tái)權(quán)力的“再中心化”[23]67。而技術(shù)膨脹出的權(quán)力越絕對(duì),人類(lèi)的主體性就越受到威脅,在平臺(tái)經(jīng)濟(jì)所積累的優(yōu)勢(shì)前日漸式微[24]。憑借其優(yōu)勢(shì),大型平臺(tái)迅速超越其他競(jìng)爭(zhēng)對(duì)手,不斷在提高模型性能上加大投入,在數(shù)據(jù)等生產(chǎn)資源的攫取方面愈發(fā)猛烈,為其權(quán)力構(gòu)筑添磚加瓦。因此,促進(jìn)市場(chǎng)競(jìng)爭(zhēng)是實(shí)現(xiàn)創(chuàng)新與規(guī)制的最有效手段,通過(guò)對(duì)個(gè)人、中小企業(yè)等模型研發(fā)者的扶持,降低模型開(kāi)發(fā)所帶來(lái)的積聚效應(yīng),減少對(duì)公民權(quán)益的損害,形成市場(chǎng)良性競(jìng)爭(zhēng)。盡管為應(yīng)對(duì)日益擴(kuò)張的平臺(tái)經(jīng)濟(jì),消除平臺(tái)壟斷給國(guó)民經(jīng)濟(jì)帶來(lái)的嚴(yán)重負(fù)面影響,我國(guó)《反壟斷法》《電子商務(wù)法》等法律制度發(fā)揮著良好作用,但面對(duì)生成式AI仍顯力有未逮。以ChatGPT為例,該類(lèi)大型生成式模型所能夠引發(fā)的最大外部風(fēng)險(xiǎn),在于因其生成內(nèi)容而導(dǎo)致的歧視、偏見(jiàn)、假新聞等一切有害信息所引發(fā)的社會(huì)問(wèn)題。其在未來(lái)將會(huì)全面整合到平臺(tái)中,包括大型搜索引擎及社交媒體,當(dāng)前的微軟、Meta、谷歌等對(duì)生成式AI模型的開(kāi)發(fā)與收購(gòu)熱潮足見(jiàn)一斑。區(qū)分AI模型生成內(nèi)容與人類(lèi)創(chuàng)造內(nèi)容成為平臺(tái)生成式AI規(guī)制的“最后一英里”,有效的措施能夠從根本上杜絕因?qū)﹀e(cuò)誤信息的誤信而產(chǎn)生的消極后果。對(duì)此,有專(zhuān)業(yè)人士提出以加密水印為主要技術(shù)手段,將其應(yīng)用于識(shí)別ChatGPT生成內(nèi)容(4)該文詳細(xì)介紹了加密水印的定義及作用機(jī)理,其被認(rèn)為能夠有效維護(hù)數(shù)據(jù)、隱私與個(gè)人信息安全?!癏ow The ChatGPT Watermark Works And Why It Could Be Defeated”Search Engine Journal,2023-04-28,https://www.searchenginejournal.com/chatgpt-watermark/475366/.,從技術(shù)上解決因內(nèi)容來(lái)源而產(chǎn)生的誤解與誤判。制度上,DSA強(qiáng)調(diào)對(duì)超大在線平臺(tái)的管理與執(zhí)法,如臉書(shū)、推特等需要履行相應(yīng)義務(wù),用戶(hù)也可針對(duì)非法內(nèi)容進(jìn)行投訴,具有一定的借鑒價(jià)值。然而,作為一部主要為因應(yīng)超大型平臺(tái)法律風(fēng)險(xiǎn)而存在的法律制度,在針對(duì)生成式AI系統(tǒng)的規(guī)制上卻存在缺陷。DSA第二條第一款、第二條第二款將規(guī)制范圍局限于中介服務(wù)(Intermediary Service),隨后第三條將引入“純粹通道”(Mere Conduit)概念對(duì)其進(jìn)行定義,以及托管服務(wù)概念(Hosting Service)(如互聯(lián)網(wǎng)接入提供者、社交媒體平臺(tái)等均屬于此)。托管服務(wù)被定義為提供者存儲(chǔ)由用戶(hù)提供或應(yīng)用戶(hù)要求的信息(5)See Article 3(g)(iii) DSA.。當(dāng)用戶(hù)請(qǐng)求AI系統(tǒng)提供信息時(shí),它應(yīng)該說(shuō)是很難做到的。AI系統(tǒng)不屬于這些類(lèi)別中的任何一個(gè),它無(wú)法與為互聯(lián)網(wǎng)提供接入或緩存服務(wù)的提供商相提并論,因?yàn)樯缃幻襟w場(chǎng)景下,生成內(nèi)容來(lái)源于系統(tǒng)本身而非用戶(hù),故DSA并不能適用。

三、生成式AI法律風(fēng)險(xiǎn)的應(yīng)對(duì)之策

法律是社會(huì)中各種利益沖突的表現(xiàn),是人們對(duì)各種沖突的利益進(jìn)行評(píng)價(jià)后制定出來(lái)的,實(shí)際上是利益的安排與平衡[25]。AI立法的首要任務(wù)是處理好創(chuàng)新與規(guī)制的關(guān)系。AI不是一種產(chǎn)品或一次性服務(wù),它在不同的情境下歷經(jīng)多個(gè)生命周期,對(duì)多種個(gè)人或群體產(chǎn)生不同的影響[26]。歐盟立法雖然部分考慮到AI的發(fā)展性與可塑性,但生成式AI系統(tǒng)的出現(xiàn)卻對(duì)諸如風(fēng)險(xiǎn)管理制度等規(guī)則安排提出挑戰(zhàn),迫使法案朝著更為嚴(yán)格的方向前進(jìn)。對(duì)于生成式AI系統(tǒng)的規(guī)制,應(yīng)當(dāng)以一種動(dòng)態(tài)、靈活的視角,強(qiáng)調(diào)生命周期中各主體發(fā)揮能動(dòng)作用,對(duì)此不宜課以較重責(zé)任,進(jìn)而保留模型開(kāi)發(fā)人員的熱情與動(dòng)力,以增強(qiáng)AI市場(chǎng)的競(jìng)爭(zhēng)力。另一方面,必須對(duì)平臺(tái)經(jīng)濟(jì)與生成式AI的深度融合給予足夠的重視,DSA確立的平臺(tái)內(nèi)容審核機(jī)制可為我國(guó)法律所借鑒,但仍需進(jìn)行相應(yīng)的擴(kuò)張與調(diào)整。

(一)AI系統(tǒng)主體間合作機(jī)制

如美國(guó)學(xué)者曼紐爾·卡斯特(Manuel Castells)所定義的,網(wǎng)絡(luò)社會(huì)圍繞用戶(hù)的信息權(quán)力組織起它的制度,人們建立了自己的生活并決定自己的所作所為,這種權(quán)力來(lái)源于人們的心靈[27]117。整個(gè)AI價(jià)值鏈,具體到大型生成式AI模型的價(jià)值創(chuàng)造過(guò)程中,不僅應(yīng)當(dāng)對(duì)前后兩端的提供者和用戶(hù)權(quán)利義務(wù)進(jìn)行規(guī)定,更需要對(duì)過(guò)程中的眾多參與者地位進(jìn)行考量。有學(xué)者提出,應(yīng)當(dāng)依據(jù)生成式AI模型的一般特征,通過(guò)提供者與用戶(hù)間的合同關(guān)系來(lái)對(duì)其預(yù)期目的及使用條件進(jìn)行調(diào)整,更有利于雙方的權(quán)責(zé)利分配。將生成式AI和通用AI系統(tǒng)視為該法案下的一般風(fēng)險(xiǎn)類(lèi)別,課以產(chǎn)品供應(yīng)商對(duì)系統(tǒng)性風(fēng)險(xiǎn)的定期監(jiān)測(cè)義務(wù),關(guān)注供應(yīng)商與用戶(hù)間的合同關(guān)系,建立對(duì)合同條款的監(jiān)管審查機(jī)制[28]。然而,隨著生成式AI侵權(quán)責(zé)任主體、方式、范圍的變化,此種思路已無(wú)法有效因應(yīng)現(xiàn)實(shí)的監(jiān)管需求,仍然在產(chǎn)品責(zé)任的框架下兜轉(zhuǎn)。

生成式AI模型并非經(jīng)一次性制造便可投入后續(xù)長(zhǎng)期使用的產(chǎn)品,而是需要經(jīng)過(guò)反復(fù)打磨與調(diào)整最終適應(yīng)不同目的與用途的工具。在此意義上,讓模型開(kāi)發(fā)人員或提供者承擔(dān)模型全生命周期內(nèi)所引發(fā)的一切風(fēng)險(xiǎn),是不切實(shí)際的。技術(shù)提供者無(wú)法事先排除所有高風(fēng)險(xiǎn)應(yīng)用的可能性,其由生成式AI的特定場(chǎng)景的多個(gè)主體決定,在AI的價(jià)值生成中分別體現(xiàn)相應(yīng)價(jià)值,無(wú)法由單一主體所全權(quán)決定。就語(yǔ)言模型而言,其可被用于總結(jié)或評(píng)價(jià)病人檔案或是對(duì)學(xué)生的工作情況、信用水平及保險(xiǎn)申請(qǐng)環(huán)節(jié)進(jìn)行評(píng)估(6)See Annexes II Section A.No.12,13 and III No.3-5 AI Act.,亦可用于制造輿論、煽動(dòng)仇恨,這與下游主體的作用密不可分。學(xué)者Edwards就提出應(yīng)當(dāng)區(qū)分通用AI系統(tǒng)的開(kāi)發(fā)者、部署者和用戶(hù),通過(guò)分析幾種實(shí)體扮演的不同角色,對(duì)AI系統(tǒng)價(jià)值鏈主體進(jìn)一步切分[26],這與《AI法案》的思路相吻合。模型提供者(開(kāi)發(fā)人員)與部署者在某些情形下會(huì)產(chǎn)生身份的重疊,這就會(huì)引起反壟斷法下的縱向壟斷問(wèn)題[29]。對(duì)于用戶(hù)而言,作為使用AI系統(tǒng)獲取生成結(jié)果的實(shí)體,可依據(jù)對(duì)生成結(jié)果的用途區(qū)分為專(zhuān)業(yè)用戶(hù)和非專(zhuān)業(yè)用戶(hù)。前者根據(jù)歐盟《消費(fèi)者保護(hù)法》(Consumer Protection Law)[30]115以及《法案》中所定義,包括公司、非政府組織、行政機(jī)構(gòu)等(7)See Article 2(8) AI Act.。試想當(dāng)大型企業(yè)在提供如金融、醫(yī)療等服務(wù)時(shí),對(duì)錯(cuò)誤生成內(nèi)容的未予關(guān)注或放任,將會(huì)導(dǎo)致個(gè)人或群體權(quán)益的受損。因此,在此類(lèi)人員運(yùn)用生成式AI系統(tǒng)進(jìn)行專(zhuān)業(yè)活動(dòng)時(shí),如開(kāi)展金融風(fēng)險(xiǎn)評(píng)估、醫(yī)療診斷、學(xué)術(shù)教育等,因故意或過(guò)失導(dǎo)致生成內(nèi)容蔓延而造成損害的,除遵守一般法律法規(guī)及行業(yè)規(guī)章制度外,還應(yīng)該遵守類(lèi)似《AI法案》確立的合規(guī)規(guī)則,負(fù)有額外的合規(guī)義務(wù)。建議我國(guó)法律對(duì)以上主體概念進(jìn)行明確與甄別,以確保在特定場(chǎng)景下的有力追責(zé)。

現(xiàn)行《AI法案》第五條中,就對(duì)提供者與用戶(hù)的合作進(jìn)行了強(qiáng)調(diào),前者應(yīng)為后者提供必要的信息,使后者能夠遵守本法規(guī)下的義務(wù)(8)See Article (5) AI Act:Providers of general purpose AI systems shall cooperate with and provide the necessary information to other providers intending to put into service or place such systems on the Union market as high-risk AI systems or as components of high-risk AI systems,with a view to enabling the latter to comply with their obligations under this Regulation.。而對(duì)于披露過(guò)程中涉及商業(yè)秘密、隱私或知識(shí)產(chǎn)權(quán)保護(hù)等重要信息的保護(hù),《AI法案》第七十條第一款就要求任何涉及AI應(yīng)用的主體,采取適當(dāng)?shù)募夹g(shù)和組織措施,以確保在執(zhí)行其任務(wù)和活動(dòng)中獲得的信息和數(shù)據(jù)的機(jī)密性(9)See Article 70(1) AI Act.。然而,此種合作將引發(fā)矛盾沖突,主要涉及內(nèi)外部?jī)蓚€(gè)維度。內(nèi)部維度主要聚焦于數(shù)據(jù)權(quán)利主體與他人訪問(wèn)權(quán)的沖突。如開(kāi)發(fā)人員以商業(yè)秘密為由,對(duì)部署者的訪問(wèn)權(quán)利進(jìn)行抗辯,用戶(hù)也可能因受到侵害而要求對(duì)部分機(jī)密信息進(jìn)行非正當(dāng)?shù)脑L問(wèn)。因此,該種情形下提供者、部署者與用戶(hù)的利益沖突也將導(dǎo)致合作關(guān)系的脆弱化,三者并非總是存在著共同的利益取向。為鞏固合作關(guān)系,一個(gè)可行的方法是,提供者以及部署者可就模型使用的授權(quán)與專(zhuān)業(yè)用戶(hù)簽訂合同,約定相關(guān)保密條款及非競(jìng)爭(zhēng)條款,從而對(duì)數(shù)據(jù)訪問(wèn)權(quán)利進(jìn)行限制。此外,還可借鑒美國(guó)審前制度(Pretrial Discovery),使法院有權(quán)對(duì)保密協(xié)議賦予保護(hù)令,加重違反者遭受的處罰[31]。在外部維度方面,建議賦予價(jià)值鏈主體以對(duì)外的透明度義務(wù)?!禔I法案》包含了廣泛的披露義務(wù),但它們僅適用于高風(fēng)險(xiǎn)系統(tǒng)(10)See Article 11,Annex IV AI Act.。鑒于生成式AI日益增長(zhǎng)的功能性及行業(yè)發(fā)展?jié)摿?應(yīng)當(dāng)要求生成式AI模型開(kāi)發(fā)及使用的相關(guān)主體遵守一定的披露義務(wù),該種義務(wù)的負(fù)有與AI系統(tǒng)是否被認(rèn)定為高風(fēng)險(xiǎn)無(wú)關(guān),對(duì)于開(kāi)發(fā)人員及部署者而言,可要求其披露訓(xùn)練數(shù)據(jù)的出處、模型運(yùn)行機(jī)制以及應(yīng)對(duì)有害內(nèi)容的應(yīng)對(duì)措施等,以便監(jiān)管機(jī)構(gòu)進(jìn)行比對(duì)和分析。《辦法》中主要以提供者為主要規(guī)制對(duì)象,規(guī)定提供者應(yīng)對(duì)預(yù)訓(xùn)練數(shù)據(jù)、優(yōu)化訓(xùn)練數(shù)據(jù)的合法性負(fù)責(zé),這些規(guī)定為提供者增添了沉重負(fù)擔(dān)且成效不彰。提供者對(duì)于數(shù)據(jù)的作用有限,即使其對(duì)于模型的應(yīng)用有最初預(yù)期與判斷,但實(shí)際上也可能因具體情形下模型的微調(diào)而有所偏差。部署者與用戶(hù)也需要對(duì)生成內(nèi)容負(fù)有一定義務(wù),此時(shí)區(qū)分專(zhuān)業(yè)用戶(hù)的意義就有所體現(xiàn)。具體而言,當(dāng)特定場(chǎng)景下存在部署者參與模型的微調(diào)時(shí),其地位與開(kāi)發(fā)人員類(lèi)似,需就模型性能等基礎(chǔ)信息進(jìn)行披露。專(zhuān)業(yè)用戶(hù)應(yīng)該有義務(wù)披露他們公開(kāi)的內(nèi)容中,哪些部分是由AI模型直接生成,哪些部分是根據(jù)輸出改編加工而來(lái),例如在新聞、學(xué)術(shù)等領(lǐng)域,此種義務(wù)顯得至關(guān)重要??蓪?duì)專(zhuān)業(yè)用戶(hù)定義及范圍進(jìn)行明確,在此基礎(chǔ)上要求其在專(zhuān)業(yè)目的范圍內(nèi)履行披露義務(wù),惡意行為人若刻意無(wú)視該義務(wù),那么將遭受罰款等相應(yīng)處罰。但隨之而來(lái)的問(wèn)題是,我們不能期待現(xiàn)實(shí)中專(zhuān)業(yè)用戶(hù)事無(wú)巨細(xì)地進(jìn)行披露,因?yàn)殡y以對(duì)內(nèi)容的成分進(jìn)行辨別,即使用戶(hù)毫無(wú)作為,監(jiān)管者也無(wú)法采取行動(dòng)。這就需要得到技術(shù)上的支持,例如數(shù)字版權(quán)、水印技術(shù)等,歐盟議會(huì)正就其進(jìn)行討論。當(dāng)內(nèi)容足以為外界識(shí)別,且難以被用戶(hù)刪除或更改時(shí),此種技術(shù)將有效推動(dòng)事前披露義務(wù)的履行,相關(guān)主體將被迫按照法律規(guī)定行事。

(二)平臺(tái)主導(dǎo)下的內(nèi)容審核擴(kuò)張

技術(shù)本身是中性的,無(wú)法期待通過(guò)技術(shù)去解決所有的問(wèn)題,因此制度的供給顯得尤為重要。以“平臺(tái)+AI”的運(yùn)行模式帶來(lái)的再中心化無(wú)可避免,對(duì)數(shù)據(jù)、個(gè)人信息、知識(shí)產(chǎn)權(quán)等權(quán)利的風(fēng)險(xiǎn)愈發(fā)復(fù)雜,不僅要從技術(shù)上實(shí)現(xiàn)人類(lèi)與AI的區(qū)分,更要在制度層面提供相應(yīng)保障。我國(guó)可吸收借鑒歐盟法律,出臺(tái)對(duì)大型互聯(lián)網(wǎng)在線平臺(tái)的完整制度規(guī)則,實(shí)現(xiàn)技術(shù)與制度的共同作用。

歐盟議會(huì)已為因應(yīng)挑戰(zhàn)而作出改變,規(guī)定基礎(chǔ)模型的使用不得違反歐盟法律[32]??梢灶A(yù)見(jiàn)諸如GDPR、DSA的相關(guān)規(guī)則,在未來(lái)將為適應(yīng)AI模型的發(fā)展而發(fā)生變化。這種趨勢(shì)將以超大型在線平臺(tái)為核心,與DSA的適用不謀而合,但需要進(jìn)一步完善以將AI模型生成內(nèi)容納入規(guī)制體系中。我國(guó)在應(yīng)對(duì)以指數(shù)級(jí)擴(kuò)張的生成式AI輿論宣傳效應(yīng)上,當(dāng)前尚未出臺(tái)有效應(yīng)對(duì)之策。對(duì)此,需要在技術(shù)及制度兩個(gè)層面對(duì)生成內(nèi)容進(jìn)行規(guī)范。水印技術(shù)對(duì)原創(chuàng)作者的保護(hù)效果顯著,且能夠增強(qiáng)內(nèi)容可信度及可追溯性,有效遏止有害、虛假信息的蔓延,但也存在一定的局限,例如由于個(gè)體寫(xiě)作風(fēng)格及能力的多變性,導(dǎo)致即使使用水印技術(shù),仍不能完全保證內(nèi)容的來(lái)源。此外,技術(shù)本身的限制導(dǎo)致其可能會(huì)遭受規(guī)避或篡改,例如惡意行為人通過(guò)技術(shù)手段刪除水印或偽造水印,模糊內(nèi)容來(lái)源。《規(guī)定》第十六條、第十七條、第十八條已就深度合成服務(wù)提供者顯著標(biāo)識(shí)行為進(jìn)行規(guī)定,并強(qiáng)調(diào)了此種技術(shù)的不受侵害。建議在此基礎(chǔ)之上,列舉可行的技術(shù)措施種類(lèi),如水印技術(shù)、數(shù)字版權(quán)管理(DRM)、平臺(tái)算法檢測(cè)技術(shù)等,并明確惡意行為人侵害標(biāo)識(shí)行為的責(zé)任??紤]到技術(shù)限制,應(yīng)當(dāng)加強(qiáng)技術(shù)使用的靈活搭配,以最大限度減輕有害言論的繁殖空間。制度與技術(shù)需要進(jìn)一步結(jié)合,歐盟DSA與《AI法案》在規(guī)則上提供了良好示范,但仍需要進(jìn)一步完善,以加強(qiáng)內(nèi)容真實(shí)性審核的力度。除了需要在規(guī)制對(duì)象上進(jìn)行擴(kuò)張,將AI模型納入平臺(tái)輸出的規(guī)制外,仍可在現(xiàn)有規(guī)則下探尋容納空間。DSA第十九條就強(qiáng)調(diào)利用“受信的標(biāo)記者”(Trusted Flaggers),如個(gè)人、政府組織或特定技術(shù)人員,對(duì)可疑的內(nèi)容進(jìn)行標(biāo)記并通知開(kāi)發(fā)人員與部署者(11)See Article 11,DSA.。在AI系統(tǒng)的場(chǎng)景下,該行為模式也可以得到適用,通過(guò)加強(qiáng)主體間交互達(dá)到內(nèi)容審核的目的。對(duì)此,《AI法案》第二十九條中提出的用戶(hù)通知義務(wù)是可以被借鑒的對(duì)象,并納入DSA體系之下。另外,對(duì)開(kāi)發(fā)人員、部署者等專(zhuān)業(yè)技術(shù)人員課以?xún)?yōu)先處理與回應(yīng)的義務(wù),確保他們?cè)谑盏酵ㄖ蠹皶r(shí)地對(duì)AI系統(tǒng)作出修繕,阻止其受到惡意行為人的作用而生成有害內(nèi)容,以建立一個(gè)符合DSA要求的更為安全、合規(guī)的系統(tǒng)。

四、結(jié)語(yǔ)

強(qiáng)人工智能時(shí)代或許已悄然而至,但監(jiān)管永遠(yuǎn)不會(huì)讓技術(shù)獨(dú)行,制度需要在人工智能發(fā)展過(guò)程中不斷完善自身,在豐富多彩的應(yīng)用場(chǎng)景中積極探索靈活的規(guī)制措施。歐盟立法的示范具有開(kāi)創(chuàng)性意義,其中許多典型制度可以為我國(guó)所借鑒,但人工智能產(chǎn)業(yè)的發(fā)展充滿(mǎn)不確定性與挑戰(zhàn),風(fēng)險(xiǎn)的樣態(tài)已經(jīng)發(fā)生了巨大變化,監(jiān)管需要保持相當(dāng)?shù)那罢靶?。在此基礎(chǔ)之上,我國(guó)也要具備符合自身國(guó)情的生成式人工智能規(guī)制模式,發(fā)揮監(jiān)管的積極作用,探索風(fēng)險(xiǎn)規(guī)制與促進(jìn)科技發(fā)展的兩全之策。

猜你喜歡
提供者規(guī)制模型
一半模型
主動(dòng)退市規(guī)制的德國(guó)經(jīng)驗(yàn)與啟示
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計(jì)的漸近分布
網(wǎng)絡(luò)交易平臺(tái)提供者的法律地位與民事責(zé)任分析
法制博覽(2020年2期)2020-04-29 06:45:18
基于隱私度和穩(wěn)定度的D2D數(shù)據(jù)共享伙伴選擇機(jī)制
保護(hù)與規(guī)制:關(guān)于文學(xué)的刑法
刑法論叢(2018年4期)2018-05-21 00:44:30
網(wǎng)絡(luò)言論自由的行政法規(guī)制研究
論《反不正當(dāng)競(jìng)爭(zhēng)法》的規(guī)制范疇
法治研究(2016年4期)2016-12-01 03:41:40
3D打印中的模型分割與打包
万全县| 广汉市| 乌拉特中旗| 东乡族自治县| 鹤壁市| 高唐县| 绥棱县| 朔州市| 陇川县| 滨州市| 永昌县| 吉林市| 南漳县| 陆良县| 永年县| 平阳县| 明溪县| 咸宁市| 涟源市| 尤溪县| 凤城市| 吴旗县| 长乐市| 浦东新区| 黎城县| 武宣县| 隆化县| 江孜县| 田林县| 满城县| 冕宁县| 安丘市| 明光市| 格尔木市| 龙山县| 麦盖提县| 昌乐县| 汉寿县| 中方县| 上高县| 永春县|