摘 要:生成式人工智能利用海量未標(biāo)記數(shù)據(jù)和合成數(shù)據(jù)進(jìn)行持續(xù)訓(xùn)練,依賴深度神經(jīng)網(wǎng)絡(luò)等機(jī)器學(xué)習(xí)技術(shù)逐漸形成自主的行為能力,輸出新穎結(jié)果、應(yīng)用日趨廣泛,正深刻改變著人際間的互動(dòng)方式,其模型開發(fā)的資源密集型特性也促使復(fù)雜價(jià)值鏈條形成。生成式人工智能在運(yùn)行節(jié)點(diǎn)的技術(shù)躍遷,引發(fā)了版權(quán)侵權(quán)、數(shù)據(jù)偏見、能耗過大、風(fēng)險(xiǎn)難測(cè)、虛假信息傳播以及損害認(rèn)定困難等監(jiān)管挑戰(zhàn)。歐盟人工智能法作出緊急回應(yīng),以“通用人工智能模型”為概念中樞,經(jīng)由“通用人工智能系統(tǒng)”過渡,將生成式人工智能納入“人工智能系統(tǒng)”范疇;輸入端從數(shù)據(jù)數(shù)量和數(shù)據(jù)質(zhì)量雙管齊下設(shè)置合規(guī)義務(wù),處理端引入“高影響能力”的自主性程度判斷標(biāo)準(zhǔn),并將“具有系統(tǒng)性風(fēng)險(xiǎn)的人工智能”嵌入風(fēng)險(xiǎn)分類分級(jí)制度,輸出端則設(shè)計(jì)“檢測(cè)、披露和透明度”等義務(wù)來規(guī)制虛假信息傳播,部署端也專門設(shè)計(jì)價(jià)值鏈上的責(zé)任分配專條。雖然歐盟立法為應(yīng)對(duì)生成式人工智能風(fēng)險(xiǎn)作出了努力,但在“抽象定義的確定性”“衡量數(shù)據(jù)訓(xùn)練效果的方法”“高級(jí)模型與小型模型之區(qū)分”“系統(tǒng)性損害的確定”以及“API 接口和開源模式對(duì)價(jià)值分配的影響”等方面仍有繼續(xù)完善的空間。
關(guān)鍵詞:歐盟人工智能法 生成式人工智能 定義范疇 系統(tǒng)性風(fēng)險(xiǎn)
人工智能治理是一項(xiàng)復(fù)雜的系統(tǒng)性工程,歐盟在世界范圍內(nèi)率先嘗試以正式立法推動(dòng)人工智能法律規(guī)制進(jìn)程。然而,隨著GAN、CLIP、Transformer、Diffusion、預(yù)訓(xùn)練模型、多模態(tài)技術(shù)、生成算法等人工智能技術(shù)集成應(yīng)用和迭代升級(jí),催生了以ChatGPT、DALL-E 和Sora 等為代表的生成式人工智能(ArtificialIntelligence Generated Content,簡(jiǎn)稱AIGC)大爆發(fā),對(duì)人工智能規(guī)制形成新挑戰(zhàn)——立足于傳統(tǒng)人工智能的歐盟立法是否還能有效應(yīng)對(duì)此種具有通用屬性的新類型人工智能?與我國針對(duì)生成式人工智能開展專門立法不同,歐盟制定的是一般法意義上的“人工智能法”,即2021 年4 月歐盟委員會(huì)正式公布的“歐洲議會(huì)和理事會(huì)關(guān)于制定人工智能統(tǒng)一規(guī)則(《人工智能法案》)和修訂某些歐盟立法法案的提案”(以下簡(jiǎn)稱“2021 人工智能法提案”)便是歐盟“人工智能法”的雛形。自2022 年底出現(xiàn)人工智能技術(shù)拐點(diǎn)(以O(shè)penAI 推出ChatGPT 為標(biāo)志)之后,歐盟立法在“2021 人工智能法提案”基礎(chǔ)上歷經(jīng)數(shù)次修訂,以應(yīng)對(duì)生成式人工智能帶來的監(jiān)管挑戰(zhàn),其中較為關(guān)鍵的立法修訂程序主要包括2022 年12 月歐盟理事會(huì)通過的“一般立場(chǎng)”(以下簡(jiǎn)稱“2022 人工智能法立場(chǎng)”)以及2023 年5 月歐盟有關(guān)機(jī)構(gòu)通過的“關(guān)于報(bào)告草案的折衷修正案草案”(以下簡(jiǎn)稱“2023 人工智能法草案”);最近的一次重要修訂是歐洲議會(huì)在2024 年3 月13 日發(fā)布的“立法決議”(以下簡(jiǎn)稱“2024 人工智能法”),該法案于2024 年7 月12 日在歐盟官方公報(bào)發(fā)布,2024 年8 月1 日正式生效。
綜觀歐盟人工智能法的變遷過程,該部立法對(duì)生成式人工智能的監(jiān)管態(tài)度和規(guī)制方式實(shí)際上經(jīng)歷了艱難的價(jià)值博弈。為清晰展現(xiàn)歐盟立法對(duì)生成式人工智能的規(guī)制思路,本文首先從人工智能現(xiàn)象談起,在系統(tǒng)論指導(dǎo)下遵循“輸入—處理—輸出—部署”鏈條,相對(duì)客觀地“白描”生成式人工智能較之于傳統(tǒng)人工智能的技術(shù)變化;在此基礎(chǔ)上,繼續(xù)觀察生成式人工智能在進(jìn)入人類社會(huì)生活后因其技術(shù)躍遷引起的“社會(huì)風(fēng)險(xiǎn)變化”和“社會(huì)關(guān)系變化”,正是這些變化構(gòu)成了歐盟“2024 人工智能法”修訂內(nèi)容的敘事背景;接著以歐盟立法史中變動(dòng)的“人工智能法律定義范疇”為切口,初步揭示歐盟立法對(duì)生成式人工智能的規(guī)制模式,這也是人工智能立法應(yīng)對(duì)監(jiān)管挑戰(zhàn)的邏輯前提;其后繼續(xù)遵照系統(tǒng)論鏈條對(duì)歐盟“2024 人工智能法”中涉及生成式人工智能的相關(guān)具體條款進(jìn)行體系解釋,以期勾勒出歐盟立法應(yīng)對(duì)監(jiān)管挑戰(zhàn)的基本方案;最后,反思?xì)W盟生成式人工智能立法的利弊得失,以此作為未來中國人工智能立法之鏡鑒。
一、生成式人工智能的技術(shù)躍遷
(一)輸入端:海量的訓(xùn)練數(shù)據(jù)
生成式人工智能實(shí)現(xiàn)技術(shù)躍遷的關(guān)鍵步驟是“預(yù)訓(xùn)練轉(zhuǎn)換模式”,以提前訓(xùn)練海量和多樣的未標(biāo)簽文本為必要前提,而ChatGPT 要想實(shí)現(xiàn)通用智能,則需要以“少調(diào)整”甚至“不調(diào)整”參數(shù)為目標(biāo),這就意味著“未標(biāo)記數(shù)據(jù)”和“合成數(shù)據(jù)”自然成為生成式人工智能為滿足海量訓(xùn)練數(shù)據(jù)需求的基本選擇。
傳統(tǒng)人工智能以監(jiān)督學(xué)習(xí)為基礎(chǔ),依賴具有預(yù)定義輸入和輸出的“大量標(biāo)記(標(biāo)注)數(shù)據(jù)”(為實(shí)現(xiàn)特定目的而精心策劃的數(shù)據(jù))進(jìn)行訓(xùn)練,需要通過“人工注釋”方式來準(zhǔn)確學(xué)習(xí)并作出預(yù)測(cè),以實(shí)現(xiàn)數(shù)據(jù)訓(xùn)練的高精度和高性能水平;相較之下,生成式人工智能允許系統(tǒng)從非結(jié)構(gòu)化數(shù)據(jù)中學(xué)習(xí),以找到數(shù)據(jù)集的潛在模式和結(jié)構(gòu)特征,并在“沒有明確人工指導(dǎo)”的情況下生成輸出,這種生成新數(shù)據(jù)和新內(nèi)容的能力使生成式人工智能在無監(jiān)督環(huán)境中變得強(qiáng)大。
合成數(shù)據(jù)基于深度學(xué)習(xí)、生成對(duì)抗網(wǎng)絡(luò)(GAN)、3D 渲染等方法形成,外觀與原始數(shù)據(jù)樣本相同,是一種映射真實(shí)世界模式的數(shù)據(jù)形態(tài),其主要功能在于復(fù)制和替換原始數(shù)據(jù),從而作為生成式人工智能的預(yù)訓(xùn)練數(shù)據(jù)以創(chuàng)建不同的機(jī)器學(xué)習(xí)模型。合成數(shù)據(jù)作為預(yù)訓(xùn)練數(shù)據(jù)的重要類型,其主要價(jià)值有四:一是數(shù)據(jù)庫測(cè)試時(shí)“數(shù)據(jù)保真”,處理原始數(shù)據(jù)的合成版本,能夠在不改變真實(shí)數(shù)據(jù)屬性和成分的基礎(chǔ)上獲得相同結(jié)果;二是降低從真實(shí)世界收集原始數(shù)據(jù)的經(jīng)濟(jì)成本和時(shí)間成本;三是生成式人工智能可以通過生成新樣本以增強(qiáng)數(shù)據(jù)集、提高基礎(chǔ)模型的魯棒性和泛化性;四是大型、多樣化的數(shù)據(jù)集有利于強(qiáng)化自然語言處理和計(jì)算機(jī)視覺領(lǐng)域的性能。
(二)處理端:自主的行為能力
傳統(tǒng)人工智能依賴于基于規(guī)則的方法,這些規(guī)則由人類專家根據(jù)他們對(duì)問題域的理解而設(shè)計(jì),通過明確指令和預(yù)定義規(guī)則進(jìn)行編程,使系統(tǒng)能夠執(zhí)行特定任務(wù);生成式人工智能采用數(shù)據(jù)驅(qū)動(dòng)的方法,模型不依賴于顯式規(guī)則,而是使用深度神經(jīng)網(wǎng)絡(luò)等機(jī)器學(xué)習(xí)技術(shù)從大型數(shù)據(jù)集中捕獲基礎(chǔ)模式和結(jié)構(gòu)關(guān)系來生成新內(nèi)容。深度學(xué)習(xí)技術(shù)源于人腦的生物神經(jīng)網(wǎng)絡(luò)機(jī)制,能夠模仿人腦自動(dòng)對(duì)數(shù)據(jù)進(jìn)行特征提取、識(shí)別、決策和生成,其中以“利用人類反饋強(qiáng)化學(xué)習(xí)”(Reinforcement Learning from Human Feedback)為訓(xùn)練方式的Transformer 模型是讓人工智能進(jìn)行自主深度學(xué)習(xí)的核心架構(gòu)。譬如,將大量小說作品輸入生成式人工智能模型,機(jī)器學(xué)習(xí)算法從輸入的信息中學(xué)習(xí)情節(jié)、結(jié)構(gòu)、人物、主題和其他敘事手段等元素,隨著訓(xùn)練時(shí)間增加、生成數(shù)據(jù)增多,基礎(chǔ)模型越來越復(fù)雜,其輸出就越有說服力和人類特性。
生成式人工智能處理端的技術(shù)變化使其具備“自主的行為能力”,這種“自主性”特征體現(xiàn)在基礎(chǔ)模型的運(yùn)行目的、運(yùn)行過程和運(yùn)行結(jié)果的全流程。首先,基礎(chǔ)模型的運(yùn)行目的具有不可知性?;A(chǔ)模型對(duì)“少樣本”“單樣本”和“零樣本”情形進(jìn)行綜合,在沒有案例指引的情況下獨(dú)立完成對(duì)任務(wù)的理解,這就類似于向人類下達(dá)同等任務(wù),體現(xiàn)出高度自主性與問題應(yīng)對(duì)的靈活性。其次,基礎(chǔ)模型的運(yùn)行過程具有不可確定性、不可理解性、不可控制性以及自我統(tǒng)攝性,其在大量未標(biāo)記數(shù)據(jù)上訓(xùn)練,從中推斷出模式而無需人工監(jiān)督,使模型能夠展示超出開發(fā)人員最初設(shè)想的“緊急能力”。最后,基礎(chǔ)模型能夠生成類似人類理性的運(yùn)行結(jié)果,甚至可以作出遠(yuǎn)優(yōu)于自然人的決策。一方面,生成式人工智能不僅僅是信息傳播工具,其在一定程度上也是“信息生成者”,能夠選擇性設(shè)計(jì)信息內(nèi)容、建構(gòu)傳播渠道,進(jìn)而阻礙數(shù)據(jù)共享與完整傳輸,導(dǎo)致政策觀念之間協(xié)商、修正的機(jī)會(huì)大大減少;另一方面,生成式人工智能具備遷移應(yīng)用能力,與通常被訓(xùn)練為執(zhí)行一項(xiàng)特定任務(wù)的非基礎(chǔ)模型不同,基礎(chǔ)模型能夠?qū)⑵湓趫?zhí)行任務(wù)A 時(shí)獲得的知識(shí)應(yīng)用于任務(wù)B。雖然生成式人工智能在理解力、邏輯性和功能化等方面呈現(xiàn)出強(qiáng)人工智能(General AI)特性,并且在解除一定限制的情況下,GPT-4 能夠自主使用各種工具完成工作,具備自我反思和迭代能力,能夠?qū)崿F(xiàn)從感知智能向自主認(rèn)知智能躍遷,但ChatGPT 基于語料喂養(yǎng)和人類反饋強(qiáng)化學(xué)習(xí)所訓(xùn)練出來的認(rèn)知能力仍然有限。在“是否可以脫離人類設(shè)計(jì)和編制的程序自主實(shí)施行為”標(biāo)準(zhǔn)下,生成式人工智能實(shí)際上處于弱智能機(jī)器人與強(qiáng)智能機(jī)器人的臨界點(diǎn)。
(三)輸出端:多樣的輸出結(jié)果
生成式人工智能的底層邏輯為“理解—?jiǎng)?chuàng)作”,它不是對(duì)既有內(nèi)容進(jìn)行簡(jiǎn)單拼接,而是對(duì)輸入的數(shù)據(jù)進(jìn)行演繹式創(chuàng)造,形成多樣的輸出結(jié)果。
其一,生成式人工智能的輸出結(jié)果具有一定“新穎性”。傳統(tǒng)人工智能基于數(shù)據(jù)中的歷史模式來預(yù)測(cè)特定用例的結(jié)果,而生成式人工智能則是在“理解上下文”的基礎(chǔ)上生成新穎的類人內(nèi)容,其擅長創(chuàng)制藝術(shù)類、音樂類和設(shè)計(jì)類等新內(nèi)容,特別是在傳統(tǒng)素材稀缺的情況下提供獨(dú)特解決方案。換言之,生成式人工智能通過輔助藝術(shù)家和創(chuàng)新者探索未知?jiǎng)?chuàng)意領(lǐng)域,將抽象概念轉(zhuǎn)化為有形現(xiàn)實(shí),突破傳統(tǒng)創(chuàng)意的界限,推動(dòng)行業(yè)向前發(fā)展,使其成為激勵(lì)創(chuàng)新的基石。
其二,生成式人工智能的輸出結(jié)果具有廣泛的應(yīng)用場(chǎng)景。傳統(tǒng)人工智能適用于特定用例,例如檢測(cè)欺詐、下棋、識(shí)別圖像中的異常情形;而生成式人工智能適用于各種通用的用例和應(yīng)用程序,例如回答復(fù)雜問題,創(chuàng)建全新的圖像、音頻和視頻等。傳統(tǒng)人工智能的特定用例中使用專用程序,例如BI 報(bào)告、儀表板、呼叫中心屏幕等;而生成式人工智能則有更多的人機(jī)交互界面,例如基于應(yīng)用程序和Web 瀏覽器的聊天界面。
其三,生成式人工智能的輸出結(jié)果能夠改變?nèi)藱C(jī)互動(dòng)方式。隨著技術(shù)進(jìn)步,傳統(tǒng)人工智能和生成式人工智能將協(xié)同工作,生成式人工智能主要用于簡(jiǎn)化人機(jī)交互,并使用傳統(tǒng)人工智能來創(chuàng)建應(yīng)用程序,它們將串聯(lián)使用而不是各自孤立使用,即生成式人工智能的“通用性”(泛在性)也是有限的,其只是工具箱中的另一個(gè)工具。進(jìn)言之,以生成式人工智能為基礎(chǔ)的聊天機(jī)器人可以改變企業(yè)與客戶間的互動(dòng)方式,具備提高效率、參與度和滿意度的優(yōu)勢(shì)。譬如,嵌入生成式人工智能功能的聊天機(jī)器人不斷從每次互動(dòng)中學(xué)習(xí)和適應(yīng),確保它們隨著時(shí)間推移而變得更加有效,這種持續(xù)改進(jìn)的循環(huán)預(yù)示著未來集成式人工智能將提供更加個(gè)性化和高效的客戶服務(wù)。
(四)部署端:復(fù)雜的價(jià)值鏈條
GPAI(General Purpose AI)模型的關(guān)鍵技術(shù)特征是其大尺寸(使用大量參數(shù),即定義模型的數(shù)值)、不透明性(輸出信息的計(jì)算機(jī)制難以解釋),以及具有超出生產(chǎn)者預(yù)期的意外開發(fā)能力。并且,提供GPAI模型不僅需要大量數(shù)據(jù)和計(jì)算能力,還需要高水平的研究人員和技術(shù)工程師,這些都將耗費(fèi)高昂的經(jīng)濟(jì)成本。GPAI 模型開發(fā)的“資源密集型”特性促使其提供商(上游)和面向終端用戶的公司(下游)之間建立相互依賴關(guān)系,表征傳統(tǒng)單一用途人工智能應(yīng)用范式的轉(zhuǎn)變。與必須從頭開始構(gòu)建一個(gè)人工智能系統(tǒng)來執(zhí)行特定任務(wù)不同,尖端GPAI(如Meta、Microsoft 及其合作伙伴OpenAI 等)能夠通過傳統(tǒng)上技術(shù)含量較低的“后臺(tái)”公司為下游公司構(gòu)建多種面向用戶的應(yīng)用程序提供基礎(chǔ)設(shè)施支持,各種參與者負(fù)責(zé)同一過程的不同組件,使GPAI 模型的生命周期變得復(fù)雜。進(jìn)言之,上游和下游公司之間的這種牽連關(guān)系意味著不同參與者對(duì)GPAI 模型的控制水平會(huì)根據(jù)上游GPAI 提供商分發(fā)模型并將其投放市場(chǎng)的策略(目前大部分是開源軟件或通過應(yīng)用程序編程接口)而發(fā)生變化,即他們產(chǎn)生價(jià)值和將GPAI 模型市場(chǎng)化的方式更為復(fù)雜。
二、生成式人工智能引發(fā)監(jiān)管挑戰(zhàn)
海量未標(biāo)記數(shù)據(jù)在提高生成式人工智能性能的同時(shí),也會(huì)出現(xiàn)以下風(fēng)險(xiǎn):一是知識(shí)產(chǎn)權(quán)侵權(quán),大多數(shù)生成式人工智能系統(tǒng)的核心——基礎(chǔ)模型(FM)和大型語言模型(LLM)——是在海量數(shù)據(jù)上訓(xùn)練的神經(jīng)網(wǎng)絡(luò),這些數(shù)據(jù)往往直接從互聯(lián)網(wǎng)爬取,不少內(nèi)容實(shí)際上受版權(quán)法保護(hù),但數(shù)據(jù)使用者卻沒有為此支付對(duì)價(jià)。二是數(shù)據(jù)偏見,用于訓(xùn)練生成式人工智能模型的數(shù)據(jù)中存在歷史偏見和其他形式的偏見,這些模型復(fù)制了刻板印象并可能導(dǎo)致仇恨言論等危險(xiǎn)輸出。三是人工智能事件增加,斯坦?;ヂ?lián)網(wǎng)天文臺(tái)(SIO)的一項(xiàng)調(diào)查在一個(gè)開放數(shù)據(jù)集中發(fā)現(xiàn)了數(shù)百張兒童性虐待材料(CSAM)圖像,而人工智能模型直接在容納了數(shù)十億張圖像的公共數(shù)據(jù)集(LAION-5B)上進(jìn)行訓(xùn)練,該數(shù)據(jù)集由機(jī)器在社交媒體網(wǎng)站、成人視頻網(wǎng)站等直接抓取。此外,生成式人工智能在利用合成數(shù)據(jù)訓(xùn)練時(shí),存在“異常值”問題。一方面,將罕見事件編程到數(shù)據(jù)分發(fā)系統(tǒng)中非常困難;另一方面,合成數(shù)據(jù)因復(fù)制了輸入數(shù)據(jù)的部分統(tǒng)計(jì)特征而忽略某些不可預(yù)測(cè)的真實(shí)數(shù)據(jù),所以變量數(shù)據(jù)質(zhì)量很大程度上取決于輸入數(shù)據(jù)質(zhì)量,嚴(yán)格的質(zhì)量控制對(duì)于避免產(chǎn)生問題數(shù)據(jù)樣本而言至關(guān)重要。
生成式人工智能利用未標(biāo)注數(shù)據(jù)和合成數(shù)據(jù)進(jìn)行訓(xùn)練,除了存在侵權(quán)風(fēng)險(xiǎn)之外,還因消耗大量淡水來發(fā)電供能和冷卻處理器而導(dǎo)致環(huán)境問題等負(fù)外部性。譬如,在美國愛荷華州的西得梅因,一個(gè)巨大的數(shù)據(jù)中心集群為OpenAI 最先進(jìn)的模型GPT-4 提供服務(wù),當(dāng)?shù)鼐用竦脑V訟顯示,2022 年7 月,即OpenAI 完成模型訓(xùn)練的前一個(gè)月,該集群使用了整個(gè)地區(qū)約6% 的淡水;當(dāng)谷歌和微軟訓(xùn)練大型語言模型時(shí),兩家公司的用水量都出現(xiàn)了大幅飆升,環(huán)境評(píng)估報(bào)告顯示其一年內(nèi)分別增加了20% 和34% ;預(yù)計(jì)到2027 年,全球人工智能用水需求可能是英國的一半,F(xiàn)acebook 的人工智能研究人員將該行業(yè)追求規(guī)模所帶來的環(huán)境影響稱為“房間里的大象”。
從處理端的運(yùn)行機(jī)理看,即便生成式人工智能以有限自主性塑造著人類社會(huì),其仍然存在突破預(yù)先設(shè)計(jì)的臨界點(diǎn)而走向失控的潛在風(fēng)險(xiǎn)。一是在風(fēng)險(xiǎn)來源方面,不僅識(shí)別和預(yù)見生成式人工智能使人類社會(huì)受益的方式具有困難,而且預(yù)測(cè)它們何時(shí)會(huì)造成傷害也更加困難。二是在風(fēng)險(xiǎn)內(nèi)容方面,GPT 進(jìn)行數(shù)據(jù)分析時(shí)可能故意利用少數(shù)群體和弱勢(shì)群體,在隱蔽運(yùn)行具有偏見的模型時(shí),對(duì)數(shù)據(jù)進(jìn)行監(jiān)控與編輯,并在后續(xù)的編輯和處理中放大偏見效應(yīng),形成惡性循環(huán)。三是在風(fēng)險(xiǎn)后果方面,生成式人工智能使“自主學(xué)習(xí)類算法共謀”不再停留于理論可能性,各類算法模型也不再受控于經(jīng)營者而實(shí)現(xiàn)自我學(xué)習(xí)和自主決策,在某些情況下可以部分承擔(dān)甚至完全分?jǐn)倢?duì)某個(gè)特定結(jié)果的因果力作用,助推經(jīng)營者之間“無意識(shí)”地達(dá)成更加穩(wěn)定且持久的價(jià)格共謀,最終導(dǎo)致消費(fèi)者福利減損。
由于生成式人工智能輸入數(shù)據(jù)的質(zhì)量良莠不齊,其在人工智能“自主性”加持下,輸出端極易滋生“虛假信息”風(fēng)險(xiǎn)。虛假信息是指制造者故意誤導(dǎo)讀者,并能夠通過其它來源證實(shí)其結(jié)果為假的信息,通常具有故意性(Intent)和可證實(shí)性(Verifiability)特征;利用生成式人工智能輸出的虛假信息主要包括“事實(shí)性虛假”和“幻覺性虛假”兩種類型。隨著ChatGPT、Midjourny 等生成式人工智能系統(tǒng)廣泛部署應(yīng)用,網(wǎng)絡(luò)空間中虛假信息的炮制效率、傳播速度、生成體量和辨識(shí)難度也因技術(shù)迭代而出現(xiàn)倍增效應(yīng),加之大語言模型更符合人類語言表達(dá)習(xí)慣,ChatGPT 極大縮短了傳統(tǒng)人機(jī)交互之間的距離感,在人類個(gè)體與ChatGPT 之間形成相互強(qiáng)化偏見的共軛效應(yīng)。這些虛假信息在網(wǎng)絡(luò)空間中傳播將引發(fā)極大風(fēng)險(xiǎn),除了信息內(nèi)容本身的非真實(shí)性引發(fā)信任衰退,帶來持久性的社會(huì)信任危機(jī),其對(duì)社會(huì)造成的危害還源于傳播行為的負(fù)外部性,主要是擾亂社會(huì)秩序和為不法分子提供犯罪思路。譬如,利用AI 換臉和擬聲技術(shù)實(shí)施電信詐騙、利用ChatGPT 生成虛假新聞牟利、利用深度偽造軟件生成具有侮辱性和誹謗性的內(nèi)容侵害人格權(quán)益、誘導(dǎo)ChatGPT“越獄”而引發(fā)網(wǎng)絡(luò)暴力等,涉及金融、國防、反恐等領(lǐng)域的虛假信息傳播還會(huì)直接威脅國家安全。
在生成式人工智能部署端,GPAI 開發(fā)公司和部署公司之間復(fù)雜的依賴關(guān)系、模型的多功能性,以及這兩個(gè)因素與上游提供商發(fā)布策略之間的糾纏,對(duì)人工智能立法形成獨(dú)特挑戰(zhàn)。首先,從GPAI 上游提供商角度看,其通常在數(shù)據(jù)上研究、設(shè)計(jì)、開發(fā)和預(yù)訓(xùn)練模型,有時(shí)還會(huì)采用不可知的風(fēng)險(xiǎn)管理和質(zhì)量控制模式,然后確定GPAI 模型的發(fā)行和定價(jià)結(jié)構(gòu)。具言之,如果通過API 發(fā)布模型,意味著提供商能夠分析下游使用情況并設(shè)置訪問條件,應(yīng)對(duì)下游濫用,不斷改進(jìn)其模型和商業(yè)策略,并且不會(huì)喪失知識(shí)產(chǎn)權(quán);如果提供商將模型作為開源軟件發(fā)布,其將失去對(duì)下游使用情況的控制而只能利用間接市場(chǎng)化方式,但提供商可以將開源環(huán)境中下游開發(fā)的新功能整合到原始模型。其次,從下游參與者角度看,其可以決定模型的具體用途和訓(xùn)練數(shù)據(jù),通過微調(diào)GPAI 模型來生成更簡(jiǎn)單的人工智能應(yīng)用程序,還可以選擇在特定使用環(huán)境中提供風(fēng)險(xiǎn)和質(zhì)量管理。如果通過API 訪問模型,他們可能會(huì)在評(píng)估或重新訓(xùn)練模型功能時(shí)面臨限制;相反,使用開源模型,他們可以直接檢查提供者最初訓(xùn)練的參數(shù)值并更改數(shù)據(jù)。因此,GPAI 及其發(fā)布策略對(duì)人工智能立法形成挑戰(zhàn)的根源在于上下游參與者之間“復(fù)雜的價(jià)值鏈條”。
三、歐盟立法應(yīng)對(duì)監(jiān)管挑戰(zhàn)的前提
在人工智能立法時(shí),調(diào)整對(duì)象界定、制度框架搭建以及具體規(guī)則設(shè)計(jì),皆需科學(xué)、合理的人工智能法律定義充當(dāng)識(shí)別社會(huì)關(guān)系、定性法律關(guān)系的第一道“濾網(wǎng)”。近三年來,歐盟人工智能法歷經(jīng)數(shù)次修訂,幾乎每個(gè)版本草案都涉及人工智能法律定義的內(nèi)容變遷,特別是在生成式人工智能出現(xiàn)技術(shù)突破并廣泛部署應(yīng)用后,歐盟人工智能法也對(duì)最初版本的人工智能法律定義進(jìn)行“徹底”重構(gòu)以應(yīng)對(duì)這種顛覆性技術(shù)變革。因此,梳理歐盟立法中人工智能法律定義的變動(dòng)歷程,可以據(jù)此窺見歐盟人工智能法對(duì)生成式人工智能的基本立場(chǎng)和規(guī)制模式。
“2021 人工智能法提案”在第3 條第(1)款界定人工智能的法律定義,認(rèn)為人工智能是利用一種或多種技術(shù)和方法開發(fā)的“軟件”,其在人類給定目標(biāo)約束下輸出“內(nèi)容、預(yù)測(cè)、建議或決策”,影響與之交互的環(huán)境;并在附件1 中封閉式列舉出“機(jī)器學(xué)習(xí)方法”“基于邏輯和知識(shí)的方法”以及“統(tǒng)計(jì)方法、貝葉斯估計(jì)、搜索和優(yōu)化方法”共三種系統(tǒng)開發(fā)的技術(shù)和方法基礎(chǔ)??梢?,最初版本的歐盟人工智能法提案并沒有在定義中刻意關(guān)注生成式人工智能并對(duì)其定性,只是概念的部分要素——譬如“輸出內(nèi)容”和“機(jī)器學(xué)習(xí)”等——涉及到生成式人工智能的某些特征而與之產(chǎn)生弱關(guān)聯(lián)。
“2022 人工智能法立場(chǎng)”主要從四個(gè)方面修訂了人工智能的法律定義:一是將人工智能的屬概念從“軟件”更新為“系統(tǒng)”;二是增加“自主性元素”作為種差特征;三是明確了輸入端的內(nèi)容是“機(jī)器或人類給定的數(shù)據(jù)”,將處理端的技術(shù)限定為“機(jī)器學(xué)習(xí)、基于邏輯和知識(shí)的方法”,運(yùn)行目標(biāo)不再強(qiáng)調(diào)“人類給定”,在輸出端新增“系統(tǒng)生成的”限制性表述,并且單獨(dú)列舉“內(nèi)容(生成式人工智能系統(tǒng))”來突出該種輸出類型;四是刪除附件1,在背景條款中增添6a 和6b 兩條新敘述來闡明“機(jī)器學(xué)習(xí)”以及“基于邏輯和知識(shí)的方法”的具體意涵。根據(jù)“2022 人工智能法立場(chǎng)”背景條款第(6)條,該定義基于人工智能的關(guān)鍵功能特征——例如學(xué)習(xí)、推理或建模能力——與更簡(jiǎn)單的軟件系統(tǒng)和編程方法區(qū)分開來;雖然沒有明確界定“生成式人工智能”的概念或者明示其與人工智能的關(guān)系,但背景條款敘述以“生成式人工智能”為例來揭示人工智能輸出“內(nèi)容”的特點(diǎn),已經(jīng)在法律定義層面間接表達(dá)出應(yīng)當(dāng)將生成式人工智能納入“人工智能法”調(diào)整范疇的意圖。
“2023 人工智能法草案”進(jìn)一步將人工智能系統(tǒng)的定義范圍縮小,使其與經(jīng)合組織對(duì)人工智能的定義保持一致。該定義首先明確了人工智能系統(tǒng)運(yùn)行的事實(shí)基礎(chǔ)(載體)是“基于機(jī)器”;其次描述運(yùn)行過程特征——具有“不同程度的自主性”,而運(yùn)行目標(biāo)既可以是“明確的”,也可以是“隱含的”;接著以“不完全列舉+ 等”形式表明“預(yù)測(cè)、建議或決策”三種主要輸出類型;最后指出輸出所影響環(huán)境的特征——“物理或虛擬的”。較之于“2022 人工智能法立場(chǎng)”,該種人工智能定義的關(guān)鍵變化有二:一是刪減“輸入特征”“處理端的技術(shù)基礎(chǔ)”以及“輸出類型”;二是從“基礎(chǔ)”“過程”和“目標(biāo)”三個(gè)方面強(qiáng)化人工智能系統(tǒng)的運(yùn)行特征,凸顯其“自主性”。整體來看,“2023 人工智能法草案”對(duì)人工智能系統(tǒng)的定義更加抽象化,雖然在第3 條第(1)款的人工智能定義中剝離了其與“生成式人工智能”的間接牽連,但在第3 條新增第(1c)款“基礎(chǔ)模型”和第(1d)款“通用人工智能系統(tǒng)”,意在通過定義性條款為規(guī)制生成式人工智能提供清晰依據(jù)?!盎A(chǔ)模型”是在廣泛數(shù)據(jù)上開展大規(guī)模訓(xùn)練的人工智能系統(tǒng)模型,專為輸出的通用性而設(shè)計(jì),并可以適應(yīng)各種獨(dú)特任務(wù),背景條款60h 進(jìn)一步要求,“歐盟委員會(huì)和人工智能辦公室應(yīng)當(dāng)監(jiān)測(cè)、定期評(píng)估這些模型的立法和治理框架,特別是基于基礎(chǔ)模型的生成人工智能系統(tǒng),可能會(huì)引發(fā)與違反歐盟法律、版權(quán)規(guī)則和潛在濫用的內(nèi)容生成相關(guān)的重大問題”,由此形成對(duì)生成式人工智能監(jiān)管的直接關(guān)切,而第28條第(b)款第4 項(xiàng)更是直接闡明了生成式人工智能的意涵——專門用于以不同程度的自主性生成復(fù)雜文本、圖像、音頻或視頻等內(nèi)容,并且明確了“將基礎(chǔ)模型專門用于生成式人工智能系統(tǒng)”的提供商義務(wù)。至此可以認(rèn)為,“2023 人工智能法草案”以“基礎(chǔ)模型”為切入點(diǎn),已初步形成對(duì)生成式人工智能的規(guī)制思路。值得注意的是,雖然第3 條第(1d)款給定了“通用人工智能系統(tǒng)”的定義,但其與人工智能、基礎(chǔ)模型以及生成式人工智能之間存在何種關(guān)聯(lián),在這一立法階段暫時(shí)難以形成確切判斷。
“2024 人工智能法”,在第3 條第(1)款最終明確了人工智能系統(tǒng)的定義。較之于“2023 人工智能法草案”,該定義有以下變化:一是增加了人工智能系統(tǒng)“部署后”的狀態(tài)敘述——“可能表現(xiàn)出適應(yīng)性”,根據(jù)背景條款(12),這種適應(yīng)性是指“自主學(xué)習(xí)能力”,即“允許系統(tǒng)在使用過程中發(fā)生變化”。二是恢復(fù)“輸入端”和“處理端”要素特征描述,將人工智能系統(tǒng)的“輸入—處理—輸出”基本構(gòu)造固定下來,其中處理端揭示出人工智能系統(tǒng)具有“推斷”特性;背景條款(12)指出,該特征不僅是指其“獲得輸出的過程”,而且也指向“從輸入/ 數(shù)據(jù)中推導(dǎo)出模型/ 算法的能力”,這種能力不局限于“基本的數(shù)據(jù)處理、學(xué)習(xí)、推理或建?!?。三是將“內(nèi)容”重新確定為輸出類型之一,不過沒有如同“2022 人工智能法立場(chǎng)”一樣列舉“生成式人工智能”,同時(shí)也刪去了對(duì)“機(jī)器學(xué)習(xí)方法、基于邏輯和知識(shí)的方法”的專條闡釋,將背景條款6a 和6b 簡(jiǎn)化處理后融入背景條款(12)。此外,“2024 人工智能法”在第3 條第(63)款以“通用人工智能模型”概念取代“基礎(chǔ)模型”,并且在第3 條第(66)款重構(gòu)了“通用人工智能系統(tǒng)”的意涵。具言之,“通用人工智能模型”通過增添特征,較之于“基礎(chǔ)模型”而言,其范疇更窄:其一,增加了數(shù)據(jù)訓(xùn)練方式——“自我監(jiān)督”;其二,增加“通用性”的外顯化特征——“集成到各種下游系統(tǒng)或應(yīng)用中”;其三,限制“通用性”特征的存在節(jié)點(diǎn)——“投放市場(chǎng)”,而“投放市場(chǎng)前用于研究、開發(fā)和原型設(shè)計(jì)活動(dòng)的人工智能模型”則不屬于通用人工智能模型之列。同時(shí),“2024 人工智能法”也捋順了“通用人工智能系統(tǒng)”與“通用人工智能模型”兩個(gè)概念之間的內(nèi)在牽連關(guān)系,即“通用人工智能系統(tǒng)是基于通用人工智能模型的人工智能系統(tǒng)”,該類人工智能系統(tǒng)的“通用性”特征表現(xiàn)為“能夠服務(wù)于多種目的,既可以直接使用,也可以集成到其他人工智能系統(tǒng)之中”。需要注意的是,雖然“2024 人工智能法”沒有直接明示生成式人工智能的概念,但可以結(jié)合背景條款97、99 和100 進(jìn)行體系解釋,即“生成式人工智能模型是通用人工智能模型的典型范例”,而“通用人工智能模型集成到一個(gè)人工智能系統(tǒng)中或成為其組件之一時(shí),該系統(tǒng)應(yīng)視為一個(gè)通用人工智能系統(tǒng)”,因此以生成式人工智能模型為基底的生成式人工智能系統(tǒng),可以歸為通用人工智能系統(tǒng)范疇。
四、歐盟立法應(yīng)對(duì)監(jiān)管挑戰(zhàn)的方案
在歐盟“2024 人工智能法”明確將生成式人工智能歸屬于通用人工智能的前提下判斷當(dāng)前歐盟立法能否應(yīng)對(duì)生成式人工智能的監(jiān)管挑戰(zhàn),可以提取“2024 人工智能法”中涉及通用人工智能的相關(guān)條款并運(yùn)用體系化方法重新規(guī)整,進(jìn)而評(píng)估該部立法的系統(tǒng)性風(fēng)險(xiǎn)防范能力。
(一)輸入端“數(shù)據(jù)訓(xùn)練”問題的歐盟立法應(yīng)對(duì)
生成式人工智能語料體系的參數(shù)“數(shù)量”和“質(zhì)量”,是影響數(shù)據(jù)訓(xùn)練效果、決定最終輸出“答案”的基本因素。一是在“數(shù)據(jù)數(shù)量”方面,歐盟立法以“浮點(diǎn)運(yùn)算”來衡量通用人工智能模型訓(xùn)練時(shí)所需的計(jì)算量。這是模型部署前旨在提高模型能力的各項(xiàng)活動(dòng)和方法(如預(yù)訓(xùn)練、合成數(shù)據(jù)生成和微調(diào))中所用計(jì)算量的累計(jì),可以從“訓(xùn)練數(shù)據(jù)集的質(zhì)量或規(guī)?!薄皹I(yè)務(wù)和最終用戶的數(shù)量”“輸入和輸出模態(tài)”“自主程度和可擴(kuò)展性”以及“可使用的工具”等標(biāo)準(zhǔn)進(jìn)行整體性評(píng)估(背景條款111)。如果通用人工智能模型達(dá)到高影響能力閾值,其應(yīng)當(dāng)被推定為具有系統(tǒng)性風(fēng)險(xiǎn),所以通用人工智能模型訓(xùn)練之前需要進(jìn)行大量規(guī)劃,譬如計(jì)算資源的前期分配,以確保提供者能夠在訓(xùn)練完成之前就知道其模型是否達(dá)到閾值,由此在程序上保障通用人工智能模型提供者的可預(yù)期性(背景條款112)。至于閾值判斷的具體標(biāo)準(zhǔn),附件13 在數(shù)據(jù)數(shù)量維度主要設(shè)計(jì)了“模型參數(shù)的數(shù)量”和“數(shù)據(jù)集的質(zhì)量或大小”兩項(xiàng)指標(biāo)。二是在“數(shù)據(jù)質(zhì)量”方面,歐盟立法首先宣示了提高數(shù)據(jù)質(zhì)量的必要性。為避免“歧視或不公正”風(fēng)險(xiǎn),如果人工智能系統(tǒng)沒有經(jīng)過高質(zhì)量數(shù)據(jù)訓(xùn)練,在性能、準(zhǔn)確性或穩(wěn)健性上沒有達(dá)到足夠要求,或者在投放市場(chǎng)、以其他方式投入使用之前,沒有經(jīng)過適當(dāng)設(shè)計(jì)和測(cè)試,這些系統(tǒng)可能會(huì)以歧視性或其他不正確、不公正的方式將人篩選出來(背景條款59)。因此,獲取高質(zhì)量數(shù)據(jù)在提供訓(xùn)練結(jié)構(gòu)、確保人工智能系統(tǒng)性能等方面發(fā)揮著至關(guān)重要的作用,特別是在使用涉及模型訓(xùn)練的技術(shù)時(shí),應(yīng)當(dāng)保障高風(fēng)險(xiǎn)人工智能系統(tǒng)按照預(yù)期安全運(yùn)行,并且不會(huì)成為歐盟立法禁止的歧視來源(背景條款67)。在此基礎(chǔ)上,歐盟立法進(jìn)一步提出提高數(shù)據(jù)質(zhì)量的一般性要求。具言之,用于訓(xùn)練、驗(yàn)證和測(cè)試的數(shù)據(jù)集(包括標(biāo)簽)應(yīng)當(dāng)具有相關(guān)性和足夠代表性,在最大程度上確保沒有錯(cuò)誤,并且在系統(tǒng)預(yù)期目的檢視下應(yīng)當(dāng)是完整的(背景條款67);歐盟委員會(huì)建立歐洲共同數(shù)據(jù)空間,以促進(jìn)各方主體之間為了公共利益共享數(shù)據(jù),為人工智能系統(tǒng)的訓(xùn)練、驗(yàn)證和測(cè)試提供可信、負(fù)責(zé)和非歧視性的高質(zhì)量數(shù)據(jù)(背景條款68)。此外,數(shù)據(jù)訓(xùn)練還應(yīng)當(dāng)遵守歐盟數(shù)據(jù)保護(hù)法——如(EU)2016/679 號(hào)條例——對(duì)數(shù)據(jù)質(zhì)量的要求,數(shù)據(jù)集應(yīng)當(dāng)具有適當(dāng)?shù)慕y(tǒng)計(jì)屬性,注意減輕數(shù)據(jù)集中的偏差和歧視等(背景條款67)。三是進(jìn)一步明確了“數(shù)據(jù)和數(shù)據(jù)治理”的具體規(guī)定。歐盟立法第10 條第1 款提出總體要求,使用數(shù)據(jù)訓(xùn)練模型技術(shù)的高風(fēng)險(xiǎn)人工智能系統(tǒng),應(yīng)當(dāng)在使用“符合第2 款至第5 款所述質(zhì)量標(biāo)準(zhǔn)的訓(xùn)練、驗(yàn)證和測(cè)試數(shù)據(jù)集”的基礎(chǔ)上開發(fā),同時(shí)該條第6 款明確了例外情形。
關(guān)于數(shù)據(jù)訓(xùn)練引發(fā)的知識(shí)產(chǎn)權(quán)侵權(quán)風(fēng)險(xiǎn)、形成的高昂環(huán)境成本,歐盟立法也作出回應(yīng)。關(guān)于版權(quán)保護(hù)問題,歐盟立法首先采用“原則+ 例外+ 例外之例外”模式設(shè)計(jì)版權(quán)保護(hù)的一般要求。使用文本和數(shù)據(jù)挖掘技術(shù)檢索、分析海量訓(xùn)練數(shù)據(jù)時(shí),原則上應(yīng)當(dāng)尊重版權(quán)和相關(guān)權(quán)利,應(yīng)當(dāng)獲得相關(guān)權(quán)利人授權(quán),除非適用相關(guān)的版權(quán)例外和限制條款;歐盟指令(EU)2019/790 引入了例外規(guī)則,允許在某些條件下出于文本和數(shù)據(jù)挖掘目的來復(fù)制、摘錄作品或其他客體,但權(quán)利人可以選擇保留對(duì)其作品或其他客體的權(quán)利以防止文本和數(shù)據(jù)挖掘,除非出于科學(xué)研究目的(背景條款105)。其次,歐盟立法明確了版權(quán)保護(hù)程度——任何提供商都不應(yīng)采用低于歐盟立法的版權(quán)標(biāo)準(zhǔn)在歐盟市場(chǎng)上獲得競(jìng)爭(zhēng)優(yōu)勢(shì)(背景條款106),目的在于確保通用人工智能模型提供商之間的公平競(jìng)爭(zhēng)環(huán)境。最后,歐盟立法設(shè)置“數(shù)據(jù)透明”義務(wù),旨在提高通用人工智能模型預(yù)訓(xùn)練和訓(xùn)練中使用的數(shù)據(jù)透明度,包括受版權(quán)法保護(hù)的文本和數(shù)據(jù);該項(xiàng)義務(wù)要求模型提供者起草并公開用于訓(xùn)練通用模型的足夠詳細(xì)的內(nèi)容摘要,該摘要范圍應(yīng)總體上全面而不是技術(shù)上詳細(xì),并且還需提供所使用的其他相關(guān)數(shù)據(jù)源的敘述性解釋(背景條款107)。關(guān)于數(shù)據(jù)訓(xùn)練帶來的高昂環(huán)境成本,雖然歐盟立法將環(huán)境保護(hù)作為立法目的之一,并在立法背景中提及十余次(譬如背景條款1、2、4、8、27、130、139、142、155、165、176 等),但“環(huán)境可持續(xù)性”要求更多是鼓勵(lì)或宣示性規(guī)定;又如第95條第2 款規(guī)定的“評(píng)估和盡量減少人工智能系統(tǒng)對(duì)環(huán)境可持續(xù)性的影響,包括有效設(shè)計(jì)、培訓(xùn)和使用人工智能的節(jié)能規(guī)劃和技術(shù)”,也只是作為人工智能辦公室和成員國鼓勵(lì)、促進(jìn)制定“自愿適用具體要求”的行為守則,強(qiáng)制性不高。
(二)處理端“自主行為”問題的歐盟立法應(yīng)對(duì)
人工智能系統(tǒng)在設(shè)計(jì)上具備不同程度的自主性,意味著它們的行動(dòng)在一定程度上可以獨(dú)立于人類,并且擁有在沒有人類干預(yù)情況下自主運(yùn)行的能力(背景條款12)。自主性是通用人工智能模型系統(tǒng)性風(fēng)險(xiǎn)的重要成因,這種風(fēng)險(xiǎn)隨著模型能力和模型范圍的增加而增加,可能在模型的整個(gè)生命周期中出現(xiàn),并受到濫用條件、模型可靠性、模型公平性和模型安全性、模型自主性程度、獲取工具的途徑、新穎或組合模式、發(fā)布和傳播策略、移除護(hù)欄的可能性以及其他因素的影響,特別是國際層面已經(jīng)確定需要關(guān)注“模型復(fù)制自身”或“自我復(fù)制”或“訓(xùn)練其他模型”的風(fēng)險(xiǎn)(背景條款110)。
進(jìn)言之,自主性程度也是判斷應(yīng)否將通用人工智能模型歸為具有系統(tǒng)性風(fēng)險(xiǎn)的人工智能的標(biāo)準(zhǔn)。歐盟立法第51 條第1 款規(guī)定,“高影響能力”是衡量通用人工智能自主性程度的指標(biāo),需要結(jié)合附件13 所列標(biāo)準(zhǔn)進(jìn)一步判定;而附件13 將“高影響力”細(xì)分為七個(gè)具體標(biāo)準(zhǔn),其中“模型能力的基準(zhǔn)和評(píng)價(jià),包括考慮未經(jīng)額外培訓(xùn)的任務(wù)數(shù)量,學(xué)習(xí)新的、不同任務(wù)的適應(yīng)性、自主性和可擴(kuò)展性程度,可以使用的工具”則是聚焦于自主性程度的關(guān)鍵標(biāo)準(zhǔn)之一。
此外,自主性程度還是人工智能分類分級(jí)監(jiān)管的基本依據(jù)。一是關(guān)涉應(yīng)當(dāng)予以“禁止”的人工智能類型,譬如歐盟立法第5 條第1 款所列的“采用超出個(gè)人意識(shí)的潛意識(shí)技術(shù)或有目的操縱、欺騙技術(shù)”的人工智能系統(tǒng)致害情形;二是關(guān)涉“高風(fēng)險(xiǎn)”的人工智能類型,譬如歐盟立法第7 條第2 款將“人工智能系統(tǒng)自主行動(dòng)的程度,以及人類推翻可能導(dǎo)致潛在傷害的決定或建議的可能性”作為評(píng)估人工智能高風(fēng)險(xiǎn)性的標(biāo)準(zhǔn)之一;三是關(guān)涉人工智能的“人類監(jiān)督”,譬如歐盟立法第14 條第3 款要求“監(jiān)督措施應(yīng)當(dāng)與高風(fēng)險(xiǎn)人工智能系統(tǒng)的風(fēng)險(xiǎn)、自主程度和使用環(huán)境相稱/ 成比例”。
(三)輸出端“虛假信息”問題的歐盟立法應(yīng)對(duì)
針對(duì)生成式人工智能輸出端的“虛假信息”傳播風(fēng)險(xiǎn),歐盟立法從行為危害、技術(shù)基礎(chǔ)、防治措施等維度展開制度設(shè)計(jì)。通用人工智能模型可能帶來的系統(tǒng)性風(fēng)險(xiǎn)包括但不限于“非法、虛假或歧視性內(nèi)容傳播”(背景條款110)。各種人工智能系統(tǒng)可以生成大量合成內(nèi)容,而人類越來越難以將這些內(nèi)容與人類生成的真實(shí)內(nèi)容區(qū)分開來。這些系統(tǒng)廣泛可用,能力日益增強(qiáng),對(duì)信息生態(tài)系統(tǒng)的完整性和信任度產(chǎn)生重大影響,引發(fā)大規(guī)模誤導(dǎo)、操縱、欺詐、冒名頂替和欺騙消費(fèi)者等新風(fēng)險(xiǎn)(背景條款133),而“深度偽造”技術(shù)便是引發(fā)風(fēng)險(xiǎn)的“罪魁禍?zhǔn)住敝?。這種技術(shù)由人工智能生成或操縱圖像、音頻、視頻內(nèi)容,與現(xiàn)有人員、物體、地點(diǎn)和其他實(shí)體/ 事件相似,讓人誤以為具有實(shí)在性或真實(shí)性(第3 條第60 款)。
為防治利用人工智能生成虛假信息的風(fēng)險(xiǎn),歐盟立法對(duì)提供者設(shè)置兩類主要義務(wù)。一是檢測(cè)和披露義務(wù)。特定的人工智能系統(tǒng)提供者、部署者有義務(wù)檢測(cè)、披露系統(tǒng)的輸出是否由人為生成或操縱,旨在促進(jìn)(EU)2022/2065 條例有效實(shí)施;該項(xiàng)義務(wù)尤其適用于超大型在線平臺(tái)或搜索引擎的提供者,即識(shí)別、降低因傳播人為生成或操縱的內(nèi)容而產(chǎn)生的系統(tǒng)性風(fēng)險(xiǎn),特別是對(duì)民主進(jìn)程、公民言論和選舉進(jìn)程產(chǎn)生實(shí)際或可預(yù)見負(fù)面影響的風(fēng)險(xiǎn),包括虛假信息傳播風(fēng)險(xiǎn)(背景條款136)。為確保連貫一致的執(zhí)法,應(yīng)授權(quán)歐盟委員會(huì)通過執(zhí)行法案,實(shí)施關(guān)于人工生成或篡改內(nèi)容的標(biāo)識(shí)和檢測(cè)規(guī)定,檢測(cè)機(jī)制可以利用并促進(jìn)價(jià)值鏈中其他行為者間合作,傳播內(nèi)容或檢查信息的來源及真實(shí)性,使公眾能夠有效區(qū)分人工智能生成內(nèi)容(背景條款135)。二是透明義務(wù)。某些旨在與自然人互動(dòng)或生成內(nèi)容的人工智能系統(tǒng),無論其是否符合高風(fēng)險(xiǎn)條件,都可能引發(fā)假冒、欺騙等具體風(fēng)險(xiǎn)。因此,在特定情況下,使用這些系統(tǒng)應(yīng)遵守具體的透明度義務(wù),但該種義務(wù)不影響對(duì)高風(fēng)險(xiǎn)人工智能系統(tǒng)的監(jiān)管和相關(guān)義務(wù)履行(背景條款61)。當(dāng)生成內(nèi)容屬于明顯具有創(chuàng)造性、諷刺性、藝術(shù)性或虛構(gòu)性作品的一部分時(shí),透明度義務(wù)不應(yīng)被解釋為使用該系統(tǒng)或其輸出會(huì)妨礙《憲章》所保障的言論自由權(quán)、藝術(shù)與科學(xué)自由權(quán),但需適當(dāng)保障第三方權(quán)利和自由,此時(shí)深度偽造的透明度義務(wù)僅限于“以適當(dāng)方式披露此類生成或篡改內(nèi)容的存在,不得妨礙作品展示或欣賞,包括作品的正常開發(fā)和使用,同時(shí)保持作品的實(shí)用性和質(zhì)量”;當(dāng)然,對(duì)于人工智能生成或篡改的文本,如果其發(fā)布目的是向公眾提供有關(guān)公共利益問題的信息,也應(yīng)承擔(dān)類似披露義務(wù),除非人工智能生成內(nèi)容經(jīng)過人工審查或編輯控制,否則自然人或法人應(yīng)對(duì)內(nèi)容發(fā)布負(fù)有編輯責(zé)任(背景條款134)。此外,歐盟立法第50 條針對(duì)“某些人工智能系統(tǒng)提供者和用戶的透明度義務(wù)”設(shè)計(jì)專項(xiàng)條款,進(jìn)一步細(xì)化了透明度義務(wù)的具體要求。
(四)部署端“價(jià)值分配”問題的歐盟立法應(yīng)對(duì)
歐盟人工智能法最初旨在規(guī)范投放歐盟市場(chǎng)的有形產(chǎn)品,此種敘事幾乎不適用于GPAI 模型。事實(shí)上,在GPAI 的價(jià)值鏈條上,參與者數(shù)量、基于發(fā)布和訪問策略的不同控制級(jí)別,以及模型在整個(gè)生命周期中的創(chuàng)新能力等諸多因素,導(dǎo)致監(jiān)管職責(zé)分配和法律義務(wù)設(shè)計(jì)都比歐盟人工智能法一開始的設(shè)想要復(fù)雜的多。
在2023 年12 月9 日達(dá)成政治協(xié)議之前,是否對(duì)人工智能價(jià)值鏈上游的模型提供者進(jìn)行監(jiān)管,一直是歐洲議會(huì)、歐盟理事會(huì)和歐盟委員會(huì)三方談判時(shí)最具爭(zhēng)議的話題之一?;A(chǔ)模型通過引入新型服務(wù),以應(yīng)用程序編程接口直接促進(jìn)模型開發(fā)人員和最終用戶之間的交互,從而增加了人工智能價(jià)值鏈條的復(fù)雜性;換言之,生成式人工智能的出現(xiàn)擾亂了擬議人工智能法案的立法進(jìn)展,迫使立法者重新評(píng)估模型開發(fā)人員、人工智能系統(tǒng)提供者和人工智能系統(tǒng)部署者(原始提案中稱為用戶)之間的關(guān)系認(rèn)定和責(zé)任分配。事實(shí)上,特定情況下經(jīng)營者可能會(huì)同時(shí)扮演多個(gè)角色,這就要求明確價(jià)值鏈上相關(guān)運(yùn)營商的角色和具體義務(wù),并且應(yīng)當(dāng)累計(jì)履行與這些角色相關(guān)的所有義務(wù)(背景條款83)。
鑒于此,歐盟立法對(duì)人工智能價(jià)值鏈上的牽連行為進(jìn)行調(diào)整,試圖平衡各方主體間復(fù)雜的利益關(guān)系。譬如歐盟立法設(shè)計(jì)出“基于人工智能系統(tǒng)集成性的信息共享義務(wù)”:多方主體在人工智能系統(tǒng)、工具、服務(wù)、組件或流程所集成的高風(fēng)險(xiǎn)人工智能系統(tǒng)供應(yīng)商的價(jià)值鏈中發(fā)揮著重要作用,這些主體應(yīng)當(dāng)通過書面協(xié)議向該供應(yīng)商提供必要的信息、能力、技術(shù)訪問和其他基于公認(rèn)技術(shù)水平的援助,以便供應(yīng)商能夠在不損害知識(shí)產(chǎn)權(quán)或商業(yè)秘密的情況下遵守法律義務(wù)(背景條款88)。又如歐盟立法設(shè)計(jì)的“免費(fèi)和開放許可情況下的責(zé)任減免”:如果集成于人工智能系統(tǒng)的工具、服務(wù)、流程或組件能夠在免費(fèi)和開放許可情況下提供訪問,則不應(yīng)強(qiáng)制要求第三方遵守人工智能價(jià)值鏈上的責(zé)任要求;應(yīng)當(dāng)鼓勵(lì)通用人工智能模型以外的免費(fèi)和開源工具、服務(wù)、流程及人工智能組件的開發(fā)人員實(shí)施廣泛采用的文檔實(shí)踐,例如模型卡和數(shù)據(jù)表,以此加速人工智能價(jià)值鏈上的信息共享(背景條款89)。諸如此類平衡人工智能價(jià)值鏈上各方主體利益的背景條款還有很多,而歐盟立法第25 條更是以“人工智能價(jià)值鏈上的責(zé)任”為條標(biāo),專門針對(duì)分銷商、進(jìn)口商、部署商、第三方主體等設(shè)計(jì)義務(wù)和分配責(zé)任。
五、歐盟生成式人工智能立法鏡鑒
(一)歐盟生成式人工智能立法的反思
通用人工智能是歐盟“2024 人工智能法”的調(diào)整對(duì)象之一,生成式人工智能以“通用人工智能模型”為橋梁,能夠被人工智能系統(tǒng)的法律定義順利涵攝,這種立法模式不僅解決了生成式人工智能規(guī)制的緊迫現(xiàn)實(shí)問題,而且也為規(guī)制未來可能涌現(xiàn)的新類型人工智能預(yù)留了解釋學(xué)空間。事實(shí)上,人工智能并不是某種單一技術(shù),而是以數(shù)據(jù)、網(wǎng)絡(luò)、算法和算力等核心要素為支撐、帶有“輸入—輸出”和“目標(biāo)—反饋”控制結(jié)構(gòu)的有機(jī)系統(tǒng),其中核心要素相互影響、相互作用,共同決定著發(fā)展什么樣的人工智能。可見,歐盟“2024 人工智能法”對(duì)人工智能系統(tǒng)的重新界定雖然沒有在定義中突出各要素之間的有機(jī)聯(lián)系,但至少在定義構(gòu)造上內(nèi)嵌了系統(tǒng)論的基本原理,基本契合人工智能的“事物本質(zhì)”。誠然,歐盟立法利用抽象程度較高的人工智能系統(tǒng)定義來增強(qiáng)“包容性”,并且能夠借助“通用人工智能系統(tǒng)”來擴(kuò)張立法規(guī)制范圍,但問題在于,“通用性”概念本身具有極大的模糊性,很難找到實(shí)證(有現(xiàn)實(shí)證據(jù)支持的)基礎(chǔ)來認(rèn)可這項(xiàng)技術(shù)的廣泛“通用性”。雖然對(duì)GPAI 領(lǐng)域未來的基準(zhǔn)測(cè)試和計(jì)量工作可能會(huì)有幫助,但在其成熟完善之前,或許需要一個(gè)暫時(shí)性的行為準(zhǔn)則以明確裁量尺度、確保法律規(guī)范的可預(yù)見性。
在數(shù)據(jù)訓(xùn)練實(shí)踐中,OpenAI、DeepMind 和Anthropic 等基礎(chǔ)模型提供商目前還未達(dá)到歐盟人工智能法預(yù)期的合規(guī)程度要求。斯坦福大學(xué)計(jì)算機(jī)科學(xué)博士候選人Rishi Bommasani 指出,這些提供商未達(dá)到標(biāo)準(zhǔn)的領(lǐng)域包括“提供用于訓(xùn)練模型的受版權(quán)保護(hù)數(shù)據(jù)的摘要”“能源使用不均衡”“風(fēng)險(xiǎn)緩解披露不充分”以及“缺乏評(píng)估標(biāo)準(zhǔn)或?qū)徲?jì)程序”等,其中采用開源方法的基礎(chǔ)模型開發(fā)者往往在資源披露方面表現(xiàn)較好,而封閉或受限的訪問模型在部署方面表現(xiàn)更好。Bommasani 進(jìn)一步指出,法案沒有充分考慮基礎(chǔ)模型的使用問題,如果ChatGPT 應(yīng)用于醫(yī)療或法律而不是娛樂目的,這會(huì)嚴(yán)重影響透明度評(píng)估;雖然法案考慮了基礎(chǔ)模型的下游使用,但它沒有考慮到供應(yīng)鏈的其他方面,例如數(shù)據(jù)集構(gòu)建和訓(xùn)練方法。還有研究表明,當(dāng)前的大型語言模型(LLM)訓(xùn)練嚴(yán)重不足,這是它們專注于擴(kuò)展語言模型同時(shí)保持訓(xùn)練數(shù)據(jù)量恒定的結(jié)果,當(dāng)使用更廣泛和更高質(zhì)量的數(shù)據(jù)集進(jìn)行訓(xùn)練時(shí),較小的模型已經(jīng)可以勝過具有更多參數(shù)的大型模型,因此法案確定的“浮點(diǎn)運(yùn)算”方法具有不確定性,其閾值將隨著時(shí)間推移而衰減;然而,HELM 項(xiàng)目(語言模型整體評(píng)估)指出,基準(zhǔn)測(cè)試中還存在著“數(shù)據(jù)獲取和成本”問題,這些基準(zhǔn)之所以伴隨著不確定性和批評(píng),源于語言所固有的語境性,而人工智能研究卻普遍對(duì)這種不確定的基準(zhǔn)處于依賴狀態(tài)。
歐盟立法以系統(tǒng)性風(fēng)險(xiǎn)制度來應(yīng)對(duì)通用人工智能的自主性挑戰(zhàn)也存在局限,其確定系統(tǒng)性風(fēng)險(xiǎn)時(shí)忽視了高級(jí)模型與小型模型的區(qū)分。歐盟立法層面的系統(tǒng)性風(fēng)險(xiǎn)是特定于GPAI 模型高影響能力的風(fēng)險(xiǎn),可能對(duì)公共衛(wèi)生、安全、基本權(quán)利和整個(gè)社會(huì)產(chǎn)生實(shí)際或合理可預(yù)見的大范圍負(fù)面影響,在整個(gè)價(jià)值鏈條中大規(guī)模傳播。如果只考慮高影響能力模型特有的風(fēng)險(xiǎn),即使它們成為系統(tǒng)性風(fēng)險(xiǎn),小型模型中許多已知風(fēng)險(xiǎn)是否會(huì)被排除在系統(tǒng)性風(fēng)險(xiǎn)的考慮之外?例如,從OpenAI 的GPT-4 系統(tǒng)卡發(fā)布中可以窺見GPT-4 特有的新興風(fēng)險(xiǎn),假設(shè)這些風(fēng)險(xiǎn)能夠被閾值捕獲,該卡列出了“幻覺、有害內(nèi)容、代表性危害、分配和服務(wù)質(zhì)量(即偏見)、虛假信息和行動(dòng)影響、常規(guī)和非常規(guī)武器的擴(kuò)散、隱私、網(wǎng)絡(luò)安全、風(fēng)險(xiǎn)突發(fā)行為的可能性、與其他系統(tǒng)的互動(dòng)、經(jīng)濟(jì)影響、加速和過度依賴”等風(fēng)險(xiǎn),然而大多數(shù)風(fēng)險(xiǎn)已經(jīng)在更小的(機(jī)器)前身中顯現(xiàn)。在這些高級(jí)模型中新觀察到的風(fēng)險(xiǎn)實(shí)際上是與其他系統(tǒng)交互作用的結(jié)果。通過將這些系統(tǒng)鏈接在一起,該模型能夠找到風(fēng)險(xiǎn)替代模型本身所保護(hù)的系統(tǒng)。隨著模型能力增強(qiáng),其他風(fēng)險(xiǎn)仍然有待證實(shí),只不過其尚未被發(fā)現(xiàn)(譬如自我復(fù)制)。進(jìn)言之,當(dāng)生成式人工智能自身已經(jīng)進(jìn)步到可以自主實(shí)現(xiàn)生產(chǎn)同類或其他類別人工智能技術(shù)的能力階段時(shí),通過“清單式管理”顯然無法應(yīng)對(duì)人工智能衍生的多樣性與復(fù)雜性。
雖然歐盟立法針對(duì)輸出端虛假信息傳播風(fēng)險(xiǎn)為人工智能系統(tǒng)提供者、部署者設(shè)置了檢測(cè)、披露和透明等義務(wù),但人工智能系統(tǒng)輸出結(jié)果所導(dǎo)致的損害往往難以衡量,進(jìn)而適配何種程度的處罰或賠償才符合比例原則,歐盟立法沒有作出有效回應(yīng)。傳統(tǒng)人工智能系統(tǒng)的危害可能與特定預(yù)測(cè)的社會(huì)影響有關(guān),而生成式人工智能的危害則無法輕易界定,當(dāng)人工智能系統(tǒng)輸出不準(zhǔn)確信息時(shí),受害者究竟是誰?如果這些信息是在長期的人機(jī)對(duì)話訓(xùn)練中產(chǎn)生的,那么危害何時(shí)發(fā)生?事實(shí)上,生成式人工智能致害并非微觀問題而是宏觀問題,由系統(tǒng)創(chuàng)建的任何特定輸出——單個(gè)圖像、文本或音頻文件——產(chǎn)生的危害通常很小并且容易被忽視。雖然“概率系統(tǒng)”要為一個(gè)錯(cuò)誤事實(shí)付出代價(jià),但生成式人工智能系統(tǒng)最令人擔(dān)憂的是隨著時(shí)間推移而“累積”形成的危害;換言之,一個(gè)錯(cuò)誤事實(shí)在技術(shù)上可能微不足道,但在社會(huì)層面,不準(zhǔn)確信息會(huì)因傳播效應(yīng)而激增并產(chǎn)生嚴(yán)重后果,譬如從“單純的錯(cuò)誤信息”演變?yōu)椤霸g毀邊緣化群體”。這些危害一旦累加起來,將會(huì)對(duì)整個(gè)社會(huì)產(chǎn)生巨大的負(fù)面影響。遺憾的是,即便人們意識(shí)到生成式人工智能會(huì)帶來系統(tǒng)性風(fēng)險(xiǎn),卻不知道在哪里劃清損害的界限,特別是評(píng)估生成式人工智能系統(tǒng)的具體危害時(shí),“實(shí)際損害”以及“非法行為應(yīng)當(dāng)受到的處罰”的邊界難以厘定。在隱私保護(hù)領(lǐng)域,損害賠償評(píng)估也面臨類似問題。例如,谷歌拍攝了賓夕法尼亞州一棟房子的照片,該房子由Boring 家族擁有,谷歌將照片用于谷歌地圖上的“街景”功能,Boring 家族以侵犯隱私為由提起訴訟并勝訴,但只獲得1 美元賠償金。相較之下,計(jì)算生成式人工智能的損害賠償問題更加困難,即便立法能夠確定哪些類型的輸出可能形成足夠大的危害而構(gòu)成違法行為,那么該種行為應(yīng)該受到何種形式的處罰,以及在因果鏈條的哪個(gè)節(jié)點(diǎn)來施加這些處罰,當(dāng)前的人工智能立法未能給出合理答案。
歐盟立法也試圖在部署端的價(jià)值鏈條上進(jìn)一步平衡各方主體間的權(quán)利義務(wù),但該種努力沒有充分凸顯“提供API 接口”和“開源訪問許可”之間的差異對(duì)利益分配方式的深刻影響。其一,“提供API 接口”和“開源訪問許可”決定了不同參與者對(duì)模型的控制級(jí)別。在API 路線中,GPAI 模型由提供商開發(fā)并在其服務(wù)器上遠(yuǎn)程運(yùn)行,通過持續(xù)交互,將輸入和輸出在下游用戶之間在線傳輸,模型和源代碼的控制權(quán)仍然主要掌握在提供者手中;與之相對(duì),開源訪問是在寬松的許可條款下公開發(fā)布模型或某些元素,并允許任何人下載、修改和分發(fā),在這種情況下只需要GPAI 提供商和下游開發(fā)人員之間一次性交互。其二,計(jì)算能力在GPAI 模型構(gòu)建的難易程度上發(fā)揮重要作用。API 訪問通常與必要的計(jì)算基礎(chǔ)設(shè)施訪問相結(jié)合;使用開源GPAI 時(shí),下游開發(fā)人員需要擁有此類基礎(chǔ)設(shè)施的單獨(dú)訪問權(quán)限,但由于計(jì)算能力昂貴且稀缺,這反而成為修改和加載模型的障礙。其三,選擇API 方式抑或是開源許可模式,對(duì)可訪問性和問責(zé)制度有不同影響。API 介導(dǎo)的訪問可以提供更多護(hù)欄來減少有害內(nèi)容擴(kuò)散,但其將GPAI 模型控制權(quán)集中在價(jià)值鏈上最強(qiáng)大的參與者手中;相反,開源版本被視為促使GPAI 模型訪問和控制更加公平的手段,因?yàn)楦訌V泛的社區(qū)可以研究、調(diào)整或改進(jìn)模型,然而開源版本中缺乏護(hù)欄,已經(jīng)導(dǎo)致性別歧視和種族主義輸出激增,也引發(fā)了大量版權(quán)保護(hù)訴訟。因此,生成式人工智能不同發(fā)布策略帶來的復(fù)雜影響,映射出背后艱難的利益權(quán)衡,這在一定程度上也解釋了某些領(lǐng)先的人工智能實(shí)驗(yàn)室將模型保密的原因。
(二)歐盟生成式人工智能立法的啟示
歐盟并未針對(duì)生成式人工智能進(jìn)行專門立法,而是將其作為通用人工智能系統(tǒng)的典型類型之一,為其適配人工智能監(jiān)管的一般規(guī)則。這種總則式立法的優(yōu)勢(shì)在于保持法律體系的相對(duì)穩(wěn)定性,即便未來新類型的人工智能層出不窮,也能夠通過人工智能法的根本理念、基本原則、基礎(chǔ)制度以及包容性的法律定義進(jìn)行“應(yīng)急”而不至于出現(xiàn)法律漏洞,從而為法律修訂爭(zhēng)取“應(yīng)變”時(shí)間。比較而言,我國《生成式人工智能服務(wù)管理暫行辦法》屬于針對(duì)特定類型人工智能的專門立法,這種“短平快”的立法模式可以就實(shí)踐中爆發(fā)的緊迫問題快速“出擊”,也有利于為人工智能一般法出臺(tái)積累立法經(jīng)驗(yàn),但仍然存在體系性不足、穩(wěn)定性不強(qiáng)、效力層次低等局限。這就要求在“法律”層級(jí)適時(shí)制定一部兼具框架性和包容性的“人工智能法”,該法具有“總體性、保障性、邊界性和統(tǒng)一性”特征,于“金字塔頂端”發(fā)揮基本法的統(tǒng)帥功能。
歐盟立法中法律定義的變遷過程折射出人工智能一般定義的界定并非易事,既要在物理層面彰顯人工智能的技術(shù)特性,又要在事理層面兼容人工智能立法的價(jià)值導(dǎo)向。我國在2023 年4 月公布的《生成式人工智能服務(wù)管理辦法(征求意見稿)》沒有區(qū)分章節(jié),而是在第2 條第2 款直接定義“生成式人工智能”;同年7 月,《生成式人工智能服務(wù)管理暫行辦法》正式出臺(tái),該部規(guī)章將法律用語含義統(tǒng)一安排在第五章“附則”中闡釋,但較之于征求意見稿,正式立法文本不再明確界定“生成式人工智能”的意涵,而是在第22 條第1 款第1 項(xiàng)新增“生成式人工智能技術(shù)”概念。對(duì)比來看,征求意見稿側(cè)重描述生成式人工智能的“發(fā)生學(xué)特征”,而正式文本側(cè)重?cái)⑹錾墒饺斯ぶ悄艿摹肮δ苄蕴卣鳌?。進(jìn)言之,正式文本擴(kuò)大了生成式人工智能的外延,而征求意見稿中的“模型”只是定位為生成式人工智能技術(shù)的某一要素,其并非獨(dú)立的規(guī)制對(duì)象;正式立法重構(gòu)了“模型”性質(zhì),認(rèn)為“模型及相關(guān)技術(shù)”皆是生成式人工智能的技術(shù)類型,由此將“模型”納入生成式人工智能立法的規(guī)制范疇。誠然,中國沒有在《生成式人工智能服務(wù)管理暫行辦法》中直接界定人工智能的意涵,而是在《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》《上海市促進(jìn)人工智能產(chǎn)業(yè)發(fā)展條例》和GB/T 41867—2022《信息技術(shù) 人工智能 術(shù)語》中予以闡明,其中《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》和《上海市促進(jìn)人工智能產(chǎn)業(yè)發(fā)展條例》與歐盟立法的定義思路差異較大,GB/T 41867—2022《信息技術(shù) 人工智能 術(shù)語》則與歐盟立法的定義方式基本一致。未來,中國制定“人工智能法”時(shí),應(yīng)當(dāng)在總則部分設(shè)計(jì)“人工智能”法律定義專條,而其他衍生概念,如“生成式人工智能”“決策式人工智能”“人工智能部署者”“通用人工智能模型”等,可以在附則中闡釋。此種體例安排旨在凸顯人工智能法律定義作為識(shí)別人工智能法律規(guī)范的第一道“濾網(wǎng)”之功能,同時(shí)確保法律定義與立法目的、基本原則等在體系上相互融貫,共同發(fā)揮對(duì)整部立法的統(tǒng)籌作用。
根據(jù)人工智能對(duì)用戶和社會(huì)的潛在影響程度,歐盟立法建構(gòu)以“風(fēng)險(xiǎn)分類分級(jí)”為核心的制度架構(gòu),重在調(diào)整人工智能系統(tǒng)在歐盟上市、部署和使用等人工智能生命周期后端的法律關(guān)系。事實(shí)上,人工智能具有多重意象,立法界定的法律定義只是初步勾勒出一種尚未牽涉到人際關(guān)系的客體形象,在這種抽象客體背后實(shí)際牽涉到人工智能技術(shù)、人工智能產(chǎn)業(yè)、人工智能產(chǎn)品和人工智能系統(tǒng)等不同具體對(duì)象之區(qū)分。并且,對(duì)人工智能的法律控制又可分為兩種模式,一種是具體控制,關(guān)注控制方法的特殊性,主要依據(jù)系統(tǒng)運(yùn)作的現(xiàn)實(shí)情況進(jìn)行逐案分析;另一種是抽象控制,指向一般性范疇,例如風(fēng)險(xiǎn)控制、倫理控制和抽象權(quán)利(人權(quán))保護(hù)等。當(dāng)不同意象的人工智能與不同的控制方式“排列組合”后,具體客體之上便承載著性質(zhì)迥異的法律關(guān)系,由此形成復(fù)雜的價(jià)值鏈條。誠然,風(fēng)險(xiǎn)只有在風(fēng)險(xiǎn)變現(xiàn)時(shí)才能被評(píng)估,風(fēng)險(xiǎn)評(píng)估也會(huì)受評(píng)估主體主觀認(rèn)知的影響,但這并不能否定對(duì)風(fēng)險(xiǎn)進(jìn)行標(biāo)準(zhǔn)化立法的必要性,因?yàn)槿斯ぶ悄芟到y(tǒng)存在的巨大風(fēng)險(xiǎn)迫使立法者基于功利思想或者“成本—效益”分析,必須對(duì)其進(jìn)行事前監(jiān)管。無論是以“條件概率分布”為基底的決策式人工智能,還是以“聯(lián)合概率分布”為核心的生成式人工智能,其基礎(chǔ)邏輯都是“通過海量數(shù)據(jù)對(duì)算法函數(shù)進(jìn)行訓(xùn)練以輸出結(jié)果”。所以人工智能立法體系構(gòu)建一方面應(yīng)當(dāng)遵從“研發(fā)—生產(chǎn)—部署—使用”全生命周期鏈條,另一方面也應(yīng)當(dāng)契合人工智能運(yùn)行的基本邏輯,至少從“訓(xùn)練數(shù)據(jù)、算法處理和內(nèi)容輸出”三個(gè)節(jié)點(diǎn)進(jìn)行類型化規(guī)整,即“生命周期鏈條”和“系統(tǒng)運(yùn)行節(jié)點(diǎn)”縱橫交錯(cuò),共同編織出人工智能法律關(guān)系譜系圖。鑒于此,歐盟“2024 人工智能法”和我國《生成式人工智能服務(wù)管理暫行辦法》,其規(guī)范體系的完整性和內(nèi)在脈絡(luò)的融貫性仍有繼續(xù)優(yōu)化之空間。