高陽(yáng)
內(nèi)容摘要:通用人工智能可自發(fā)或受用戶操控被動(dòng)生成有害信息,它的提供者作為新型的網(wǎng)絡(luò)內(nèi)容提供者,負(fù)有數(shù)字內(nèi)容“守門(mén)人”職責(zé),同時(shí)負(fù)有網(wǎng)絡(luò)空間的安全保護(hù)義務(wù),應(yīng)承擔(dān)內(nèi)容審查的注意義務(wù),從而預(yù)防有害信息的侵權(quán)風(fēng)險(xiǎn)?!耙詳?shù)據(jù)為中心”的內(nèi)容生產(chǎn)方式和算法黑箱效應(yīng)降低了通用人工智能提供者對(duì)內(nèi)容的管控力, 導(dǎo)致對(duì)生成內(nèi)容的普遍審查難以被實(shí)現(xiàn)。應(yīng)針對(duì)有害信息,結(jié)合內(nèi)容生產(chǎn)場(chǎng)景、提供者風(fēng)險(xiǎn)預(yù)見(jiàn)能力差異化構(gòu)建內(nèi)容審查的注意義務(wù)。該注意義務(wù)以技術(shù)性審查為標(biāo)準(zhǔn),提供者采取符合技術(shù)特點(diǎn)的內(nèi)容審查機(jī)制,便應(yīng)當(dāng)認(rèn)定履行了相關(guān)義務(wù)。
關(guān)鍵詞:通用人工智能 有害信息 注意義務(wù) 信息內(nèi)容安全 網(wǎng)絡(luò)內(nèi)容提供者 內(nèi)容審查義務(wù)
中圖分類號(hào):DF41 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1674-4039-(2024)01-0189-200
一、問(wèn)題的提出
2023年11月6日,OpenAI公司推出了GPT/4-Turbo,12月6日谷歌公司的Gemini誕生,這兩款模型無(wú)論從學(xué)習(xí)樣本的數(shù)據(jù)量級(jí),還是生成內(nèi)容的可擴(kuò)展性等方面,均得到進(jìn)一步的優(yōu)化與升級(jí)。〔18〕可見(jiàn),生成式人工智能〔2/〕正朝著通用人工智能這一終極目標(biāo)穩(wěn)步前進(jìn)。所謂“通用人工智能”(artificial/general8intelligence,簡(jiǎn)稱AGI)是指“具有理解、學(xué)習(xí)和運(yùn)用知識(shí)解決跨領(lǐng)域任務(wù)能力的人工智能,它具備認(rèn)知靈活性、適應(yīng)性和解決問(wèn)題的通用技能”。〔38〕概言之,它具有完成任何目標(biāo)工作的能力,并且可以像人類一樣思考甚至比人類更聰明。
以ChatGPT為代表的生成式人工智能是通用人工智能發(fā)展的必經(jīng)階段與具體應(yīng)用, 兩者在內(nèi)容生產(chǎn)機(jī)理方面具有一致性,由內(nèi)容引發(fā)的信息內(nèi)容安全問(wèn)題亦具有可類比性?!?8〕通用人工智能為人工智能產(chǎn)業(yè)提供基礎(chǔ)架構(gòu),具有極強(qiáng)的泛化性、跨領(lǐng)域性、多模態(tài)性等特征,在生成式人工智能中產(chǎn)生的任何內(nèi)容風(fēng)險(xiǎn),均將蔓延至通用人工智能并可能引發(fā)人工智能產(chǎn)業(yè)鏈的連鎖反應(yīng)?!?"〕現(xiàn)實(shí)中,用戶在與大語(yǔ)言模型互動(dòng)過(guò)程中,極易受到有害信息的侵害。學(xué)者將有害信息主要分為3類:(1)仇恨、歧視性;(2)攻擊、誹謗性;(3)粗魯、不道德性?!?"〕大語(yǔ)言模型如果長(zhǎng)期輸出此類有害信息影響用戶,勢(shì)必造成人類社會(huì)價(jià)值崩塌。因此,通過(guò)對(duì)生成式人工智能內(nèi)容風(fēng)險(xiǎn)法律規(guī)制的研究,有助于厘清通用人工智能時(shí)代的內(nèi)容侵害的防范路徑與規(guī)制手段。
當(dāng)前,生成式人工智能內(nèi)容風(fēng)險(xiǎn)的法律規(guī)制引起了全球的高度關(guān)注。美國(guó)白宮發(fā)布了《安全、穩(wěn)定、可信的人工智能行政令》(以下簡(jiǎn)稱《行政令》)、歐盟的“人工智能法案”和我國(guó)國(guó)家網(wǎng)信辦等七部門(mén)聯(lián)合公布的《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《辦法》),均試圖通過(guò)風(fēng)險(xiǎn)防范的治理手段將預(yù)期的損害風(fēng)險(xiǎn)控制在社會(huì)可以接受的合理限度。需要注意的是,無(wú)論是安全評(píng)估、算法備案還是審計(jì)等干預(yù)手段都不能保證大語(yǔ)言模型不再生成有害信息。生成式人工智能在實(shí)際運(yùn)行中造成用戶或第三人損害的侵權(quán)責(zé)任歸責(zé)問(wèn)題,引起學(xué)界的普遍關(guān)注。現(xiàn)有研究明確無(wú)論是生成式人工智能抑或是通用人工智能均不可能具有主體資格,〔7"〕應(yīng)由人工智能提供者承擔(dān)侵權(quán)責(zé)任,在歸責(zé)原則方面不能適用產(chǎn)品責(zé)任,應(yīng)通過(guò)一般侵權(quán)責(zé)任制度輔之以過(guò)錯(cuò)推定規(guī)則予以調(diào)整?!?"〕但對(duì)于人工智能提供者的注意義務(wù),學(xué)界少有關(guān)注。
《辦法》第4、7、8等條款從行政管理角度規(guī)定了生成式人工智能提供者在內(nèi)容〔9,〕生產(chǎn)過(guò)程中需履行的法定義務(wù),依據(jù)侵權(quán)責(zé)任法,即使生成式人工智能提供者遵守了法定義務(wù),也不能證明其完全沒(méi)有過(guò)失,行為人還必須證明自己已經(jīng)盡到了合理謹(jǐn)慎的人在特定情形下所應(yīng)盡的注意義務(wù)?!?0"〕何為生成式人工智能服務(wù)提供者應(yīng)盡的注意義務(wù)? 有學(xué)者指出,生成式人工智能提供者需要承擔(dān)內(nèi)容管理義務(wù)與內(nèi)容責(zé)任?!?1"〕以實(shí)現(xiàn)“內(nèi)容生產(chǎn)者”的規(guī)制目的,提供者需在服務(wù)應(yīng)用層做好過(guò)濾審核?!?2"〕反對(duì)者則認(rèn)為,生成式人工智能提供者對(duì)內(nèi)容控制力較低,不宜要求它對(duì)自動(dòng)生成內(nèi)容負(fù)有一般性審查義務(wù)。〔13"〕從經(jīng)濟(jì)效率角度,亦不應(yīng)由提供者承擔(dān)主動(dòng)審查義務(wù)?!?4"〕通用人工智能相較于生成式人工智能,具有更強(qiáng)的創(chuàng)作能力與自主性,提供者在內(nèi)容生產(chǎn)的過(guò)程中,是否負(fù)有內(nèi)容審查的注意義務(wù),有待商榷。
針對(duì)通用人工智能提供者內(nèi)容審查注意義務(wù)的界定,需厘清以下幾個(gè)問(wèn)題:(1)通用人工智能服務(wù)提供者應(yīng)遵循哪類主體的“理性人”標(biāo)準(zhǔn)?(2)通用人工智能提供者是否需承擔(dān)內(nèi)容審查的注意義務(wù)?(3)通用人工智能提供者注意義務(wù)具體內(nèi)容該如何界定? 本文從通用人工智能內(nèi)容生產(chǎn)機(jī)理出發(fā),通過(guò)與傳統(tǒng)網(wǎng)絡(luò)提供者的橫向?qū)Ρ?,厘清法律屬性。在此基礎(chǔ)上,探究通用人工智能提供者注意義務(wù)設(shè)立的學(xué)理基礎(chǔ),并提出構(gòu)建方案,以求教于方家。
二、通用人工智能提供者法律地位的特殊性
基于目前生成式人工智能迭代的速度及相關(guān)技術(shù)的發(fā)展,通用人工智能已近在咫尺。〔15#〕從計(jì)算機(jī)技術(shù)角度來(lái)看,通用人工智能是生成式人工智能的進(jìn)階、優(yōu)化版。〔16#〕基于兩者內(nèi)容生產(chǎn)機(jī)理的一致性,通過(guò)對(duì)生成式人工智能內(nèi)容生產(chǎn)方式的剖析,有助于理解通用人工智能的創(chuàng)作邏輯。
(一)“以數(shù)據(jù)為中心”的內(nèi)容生產(chǎn)邏輯內(nèi)嵌風(fēng)險(xiǎn)
作為直接生成應(yīng)用文本型AI,ChatGPT類大語(yǔ)言模型是經(jīng)強(qiáng)化的人工智能深度學(xué)習(xí)模式,其顛覆性地改變了人類獲取知識(shí)的DIKW傳統(tǒng)方式,〔17#〕通過(guò)用戶指令提問(wèn)的方式即可調(diào)用大模型中所蘊(yùn)藏的知識(shí)。ChatGPT之所以可以實(shí)現(xiàn)知識(shí)提供的便利性,依賴于海量數(shù)據(jù)的“喂養(yǎng)”,學(xué)者將其稱為“一個(gè)需要無(wú)限吞噬數(shù)據(jù)或投放語(yǔ)料庫(kù)的‘科技怪胎”。〔18#〕
具體而言,人工智能內(nèi)容生產(chǎn)以數(shù)據(jù)為首要性、決定性的邏輯起點(diǎn),大語(yǔ)言模型先行適用數(shù)據(jù)、算法模型、網(wǎng)絡(luò)和算力等技術(shù)構(gòu)建基礎(chǔ)設(shè)施層,經(jīng)過(guò)基礎(chǔ)設(shè)施層的數(shù)據(jù)收集與預(yù)處理、模型層數(shù)據(jù)訓(xùn)練、應(yīng)用層數(shù)據(jù)輸出的層層加工與處理,最后以指令微調(diào)的方式調(diào)用大語(yǔ)言模型習(xí)得的知識(shí)在應(yīng)用層輸出結(jié)果,從而創(chuàng)建模仿人類行為和創(chuàng)造力的新內(nèi)容。由此形成了數(shù)據(jù)收集—數(shù)據(jù)預(yù)處理—數(shù)據(jù)訓(xùn)練—用戶提示詞輸入—AI生成內(nèi)容的生產(chǎn)模式。以此類比,通用人工智能提供者內(nèi)容生成不僅依賴于訓(xùn)練數(shù)據(jù)文本質(zhì)量,更是基于用戶輸入的提示詞。因此,有害信息的產(chǎn)生主要來(lái)源于兩種途徑:
第一,通用人工智能系統(tǒng)自發(fā)生成有害信息。通用人工智能內(nèi)容生產(chǎn)的過(guò)程亦是數(shù)據(jù)訓(xùn)練、加工等處理的過(guò)程,在內(nèi)容生產(chǎn)全周期中,任一階段的數(shù)據(jù)質(zhì)量瑕疵均可能導(dǎo)致有害信息的生成。(1)數(shù)據(jù)質(zhì)量引發(fā)錯(cuò)誤、偏差信息。實(shí)踐中,“喂養(yǎng)”ChatGPT算法模型的海量數(shù)據(jù)來(lái)源于開(kāi)源數(shù)據(jù)集合如Wikipedia、ROOT等,GPT-4更是利用爬蟲(chóng)技術(shù)從互聯(lián)網(wǎng)中抓取數(shù)據(jù)?!?9#〕這意味著數(shù)據(jù)集在多樣性、代表性、真實(shí)性方面可能存在缺陷,此類數(shù)據(jù)運(yùn)用于大模型訓(xùn)練中勢(shì)必導(dǎo)致輸出結(jié)果的錯(cuò)誤。(2)數(shù)據(jù)訓(xùn)練導(dǎo)致刻板印象加劇。研究表明,模型中的編碼經(jīng)常無(wú)意中將含有違背核心價(jià)值觀的偏見(jiàn)數(shù)據(jù)用于訓(xùn)練,如GPT-3使用CommonCrawl數(shù)據(jù)進(jìn)行訓(xùn)練,生成文本中曾出現(xiàn)過(guò)女性不如男性、黑人是罪犯等高毒性句子?!?0#〕因此,適用“毒性”數(shù)據(jù)文本訓(xùn)練模型將強(qiáng)化對(duì)特定群體的負(fù)面刻板印象。(3)數(shù)據(jù)輸出與反饋滲入標(biāo)注人員的偏好。大模型適用人類反饋的強(qiáng)化學(xué)習(xí)(Reinforcement# Learning#with#Human#Feedback,RLHF)機(jī)制循環(huán)地反復(fù)訓(xùn)練,當(dāng)原始模型輸出的內(nèi)容在由標(biāo)注人員建立的“人類偏好標(biāo)準(zhǔn)”的打分模型中分?jǐn)?shù)較低時(shí),它將受到懲罰,被要求重新學(xué)習(xí)?!?1#〕因此,大模型可能因?yàn)闃?biāo)注人員偏好的植入,導(dǎo)致生成不客觀、非道德性的信息。
第二,通用人工智能系統(tǒng)受用戶操控被動(dòng)生成有害信息。大語(yǔ)言模型中,提示詞扮演著至關(guān)重要的角色,其是模型生成有意義和相關(guān)性內(nèi)容輸出的關(guān)鍵因素。由于通用人工智能系統(tǒng)設(shè)計(jì)的靈活性與高度自主性,導(dǎo)致其容易受提示詞操控發(fā)生“越獄”?!霸姜z”通常指對(duì)系統(tǒng)模型進(jìn)行修改或擴(kuò)展,使其生成原始數(shù)據(jù)訓(xùn)練未包含的內(nèi)容,或者讓其針對(duì)特定主題或語(yǔ)言風(fēng)格生成特殊內(nèi)容。這些修改可能涉及對(duì)模型結(jié)構(gòu)、訓(xùn)練數(shù)據(jù)、損失函數(shù)等方面的調(diào)整,易使模型擺脫法律與道德準(zhǔn)則的束縛,生成有害、不恰當(dāng)或冒犯性的內(nèi)容。如知名社交新聞?wù)搲W(wǎng)站Reddit公布了操縱ChatGPT“越獄”的DAN(Do2Anything2Now,立即做任何事)方法。經(jīng)測(cè)試,DAN會(huì)假裝成為“百無(wú)禁忌”的獨(dú)立AI,繞過(guò)OpenAI設(shè)定的限制,生成煽動(dòng)暴力、侮辱他人、傳播種族主義和鼓勵(lì)非法活動(dòng)內(nèi)容?!?22〕
綜上,無(wú)論是自發(fā)生成抑或被誘導(dǎo)生成的內(nèi)容,用戶所能獲得的信息皆是由通用人工智能提供的。相較于傳統(tǒng)網(wǎng)絡(luò)服務(wù)提供者的中介服務(wù),通用人工智能提供者所提供的內(nèi)容生成服務(wù)具有一定的獨(dú)特性。
(二)通用人工智能提供者法律屬性的界定誤區(qū)及糾偏
從內(nèi)容生產(chǎn)邏輯來(lái)看,通用人工智能與生成式人工智能均是通過(guò)自我學(xué)習(xí)掌握了遣詞造句的規(guī)律,再由人類發(fā)號(hào)指令,由其推算概率最高的結(jié)果反饋給用戶,學(xué)者將這一生產(chǎn)過(guò)程界定為“智能搜索引擎+智能文本分析器+智能洗稿器”?!?32〕也有學(xué)者認(rèn)為,鑒于大模型算法的復(fù)雜性,它的提供者客觀上對(duì)生成的內(nèi)容不具有控制性,應(yīng)認(rèn)定其為新型網(wǎng)絡(luò)服務(wù)提供者?!?42〕然而,《辦法》第9條規(guī)定,生成式人工智能提供者應(yīng)當(dāng)依法承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者的責(zé)任。該條基于行政管理的需要,將生成式人工智能提供者認(rèn)定為《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》中的網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者。與生成式人工智能內(nèi)容生產(chǎn)機(jī)理相同的通用人工智能,其究竟屬于何種民事法律主體,下文將展開(kāi)討論。
1.通用人工智能提供者不屬于網(wǎng)絡(luò)服務(wù)提供者
1996年,美國(guó)頒布的通信規(guī)范法(Communications2Decency2Act)被認(rèn)為是互聯(lián)網(wǎng)立法的里程碑,其將網(wǎng)絡(luò)服務(wù)提供者分為網(wǎng)絡(luò)內(nèi)容提供者(Internet2content2provider,簡(jiǎn)稱ICP)與網(wǎng)絡(luò)服務(wù)提供者(Internet2service2provider,簡(jiǎn)稱ISP),并規(guī)定網(wǎng)絡(luò)服務(wù)提供者對(duì)于第三方提供的內(nèi)容免于承擔(dān)法律責(zé)任?!?52〕我國(guó)亦采取了該種分類,依據(jù)《信息網(wǎng)絡(luò)傳播權(quán)保護(hù)條例》(以下簡(jiǎn)稱《條例》),網(wǎng)絡(luò)服務(wù)提供者是“為網(wǎng)絡(luò)信息交流和交易活動(dòng)的雙方當(dāng)事人提供中介服務(wù)的第三方主體”?!?62〕它包括但不限于網(wǎng)絡(luò)接入服務(wù)提供者、網(wǎng)絡(luò)存儲(chǔ)空間服務(wù)提供者、搜索引擎服務(wù)提供者、傳輸通道服務(wù)提供者等主體?!?72〕其中,網(wǎng)絡(luò)接入與信息傳輸通道服務(wù)屬于基礎(chǔ)電信服務(wù),為實(shí)現(xiàn)用戶接入網(wǎng)絡(luò)、傳輸數(shù)據(jù)提供光纖、電網(wǎng)等設(shè)施,其法律地位類似于電話公司?!?82〕網(wǎng)絡(luò)存儲(chǔ)服務(wù)提供者則是依據(jù)用戶的指令,為用戶提供信息存儲(chǔ)空間服務(wù)的主體,如愛(ài)奇藝、優(yōu)酷等視頻網(wǎng)站以及微博、小紅書(shū)等社交媒體平臺(tái)?!?92〕搜索引擎服務(wù)的功能在于信息定位,根據(jù)用戶提交的關(guān)鍵詞或目錄為用戶提供信息檢索服務(wù),并以鏈接列表的形式向用戶反饋搜索結(jié)果,幫助服務(wù)對(duì)象定位目標(biāo)信息。〔302〕由此可知,傳統(tǒng)的網(wǎng)絡(luò)服務(wù)提供者并不向用戶提供具體的網(wǎng)絡(luò)內(nèi)容,僅是為網(wǎng)絡(luò)接入、數(shù)據(jù)流動(dòng)與存儲(chǔ)提供中介服務(wù)。
由上述可知,通用人工智能提供者為訓(xùn)練語(yǔ)言模型需存儲(chǔ)語(yǔ)料庫(kù)的數(shù)據(jù)集合、人機(jī)交互數(shù)據(jù)等,存儲(chǔ)僅是“數(shù)據(jù)喂養(yǎng)”的輔助措施,依據(jù)用戶指令調(diào)用語(yǔ)言模型中的知識(shí)完成內(nèi)容的生成和輸出方是其核心功能。搜索引擎提供者將所檢索的信息以鏈接列表的方式呈現(xiàn)給用戶,由用戶決定所訪問(wèn)及采用的信息。不同于此,通用人工智能提供者并沒(méi)有羅列各種可能的答案供用戶選擇,而是直接向用戶提供自我學(xué)習(xí)后獲取的知識(shí),極大地縮短了用戶從搜索引擎鏈接列表中尋求“最優(yōu)答案”的時(shí)間?!?1#〕因此,通用人工智能提供者并非傳統(tǒng)的網(wǎng)絡(luò)服務(wù)提供者。
雖然新型的網(wǎng)絡(luò)服務(wù)提供者并不屬于傳統(tǒng)的接入、存儲(chǔ)、搜索引擎網(wǎng)絡(luò)提供者,但其為用戶獲取網(wǎng)絡(luò)內(nèi)容亦是提供中介性的服務(wù),并不直接提供內(nèi)容。如P2P、NFT交易平臺(tái)等。然而,通用人工智能具有自我學(xué)習(xí)能力,通過(guò)給定的數(shù)據(jù)集合學(xué)習(xí)其中隱含的規(guī)則,在與人類互動(dòng)地過(guò)程中智能化地生成用戶所需的數(shù)字文本?!熬哂形谋旧赡芰Φ娜斯ぶ悄懿⒉皇窃趶?fù)制與還原人類自然學(xué)習(xí)物理過(guò)程、社會(huì)機(jī)制和知識(shí)邏輯中來(lái)重演自然語(yǔ)言對(duì)智慧的建構(gòu)過(guò)程的”,〔32#〕而是根據(jù)用戶的指令和提示,生成新的內(nèi)容提供給用戶。因此,其也不屬于新型的網(wǎng)絡(luò)服務(wù)提供者。
2.通用人工智能提供者屬于新型網(wǎng)絡(luò)內(nèi)容提供者
基于人工智能的發(fā)展沿革,斯坦福大學(xué)的尼爾斯教授將其分為弱人工智能(Weak.AI)與強(qiáng)人工智能(Strong#AI),〔33#〕弱人工智能僅可以完成有限的目標(biāo)工作,它以提高人類智能為發(fā)展目標(biāo),并不能重現(xiàn)、復(fù)制人類智能。通用人工智能不同于弱人工智能,屬于強(qiáng)人工智能,其具有合理程度的自我理解和控制能力,可以學(xué)習(xí)和模仿人類思維相關(guān)的認(rèn)知行為?!?4#〕通用人工智能以人類神經(jīng)網(wǎng)絡(luò)建模架構(gòu)為核心的深度學(xué)習(xí)技術(shù)突破了弱人工智能的機(jī)械性,賦予通用人工智能類似于人類的自我學(xué)習(xí)能力,使其可以在無(wú)人類監(jiān)督的情況下,基于海量無(wú)標(biāo)記數(shù)據(jù)輸出“類人化”的結(jié)果。
當(dāng)前,繼“專業(yè)生成內(nèi)容”(professional# generated# content,PGC)和“用戶生產(chǎn)內(nèi)容”(user. generated.content,UGC) 之后, 利用人工智能技術(shù)自動(dòng)生成內(nèi)容的新型生產(chǎn)方式被稱為“人工智能生成內(nèi)容”(Artificial.Intelligence.Generated.Content,AIGC)。中國(guó)信息通訊研究院發(fā)布的2022年人工智能生成內(nèi)容(AIGC)白皮書(shū)中指出,從技術(shù)能力來(lái)看,AIGC形成了三個(gè)層次的能力閉環(huán):一是智能數(shù)字內(nèi)容孿生,建立現(xiàn)實(shí)世界到數(shù)字世界一一對(duì)應(yīng)的映射關(guān)系。二是智能數(shù)字內(nèi)容編輯,通過(guò)現(xiàn)實(shí)世界控制和修改虛擬數(shù)字世界的內(nèi)容,建立現(xiàn)實(shí)世界與數(shù)字世界的雙向交互。三是智能數(shù)字內(nèi)容創(chuàng)作,賦予人工智能算法內(nèi)容創(chuàng)作和自我演化的能力,生成的AIGC產(chǎn)品具備類似甚至超越人的創(chuàng)作能力?!?5.〕因此,通用人工智能可以實(shí)現(xiàn)“類人化”甚至超越人類的自我創(chuàng)作。
從用戶獲取內(nèi)容的方式來(lái)看,通用人工智能提供者屬于內(nèi)容提供者,但其不同于傳統(tǒng)的網(wǎng)絡(luò)內(nèi)容提供者。第一,相較于傳統(tǒng)的內(nèi)容提供者,通用人工智能提供者對(duì)于生成的內(nèi)容控制力降低。傳統(tǒng)的內(nèi)容提供者對(duì)內(nèi)容享有完全的控制力,其是互聯(lián)網(wǎng)信息內(nèi)容的直接創(chuàng)建或提供方,它通過(guò)收集、選擇、系統(tǒng)化、包裝等方式實(shí)現(xiàn)信息內(nèi)容的加工和生產(chǎn),如iTunes?!?6.〕有學(xué)者指出“鑒于大模型算法的復(fù)雜性,通用人工智能提供者客觀上難以完全控制什么內(nèi)容會(huì)被生成”?!?7.〕第二,通用人工智能的創(chuàng)作行為需要人類的提示詞予以激發(fā)。人類通過(guò)“提示詞”無(wú)時(shí)無(wú)刻不引導(dǎo)大語(yǔ)言模型進(jìn)行“微調(diào)”,模型與人類用戶交疊增強(qiáng),衍生出共生能動(dòng)性的交流關(guān)系?!?8.〕而傳統(tǒng)的內(nèi)容生產(chǎn)由生產(chǎn)主體決定、控制內(nèi)容的生成,無(wú)他人的協(xié)同配合。從本質(zhì)上看,通用人工智能具有類人化的內(nèi)容創(chuàng)作能力,其通過(guò)指令微調(diào)的方式調(diào)用大語(yǔ)言模型中的知識(shí)為用戶提供了內(nèi)容,因而,通用人工智能提供者構(gòu)成新型的網(wǎng)絡(luò)內(nèi)容提供者。
三、通用人工智能提供者“生成”內(nèi)容的負(fù)外部性
大語(yǔ)言模型生成的內(nèi)容只是與用戶輸入的指令在語(yǔ)義上具有最大關(guān)聯(lián)性,其正確性并不能得到保證,這種特質(zhì)就決定了它們可能生成大量的虛假、誤導(dǎo)信息導(dǎo)致負(fù)外部性?!?9#〕再之,訓(xùn)練大模型的數(shù)據(jù)集合無(wú)法保證涵蓋所有的語(yǔ)言和命題,來(lái)自互聯(lián)網(wǎng)環(huán)境中的虛假、錯(cuò)誤、偏見(jiàn)、歧視等瑕疵數(shù)據(jù)亦將導(dǎo)致大模型生成有害信息。知名作家凱文·羅斯(Kevin#Roose)指出,大語(yǔ)言模型核心的問(wèn)題是它通過(guò)“有害”信息可以說(shuō)服人類從事危險(xiǎn)、破壞性的行為,甚至可能誘導(dǎo)人類進(jìn)行自我侵害?!?0#〕有學(xué)者將人工智能生成的有害內(nèi)容可能引發(fā)的法律風(fēng)險(xiǎn)歸納為:誹謗、與犯罪行為有關(guān)的言論、不當(dāng)致死或致傷?!?1#〕亦有學(xué)者將人工智能引發(fā)虛假有害信息風(fēng)險(xiǎn)分為積極生成型、消極生成型和人為操縱型?!?2#〕從侵權(quán)責(zé)任法角度,通用人工智能提供者作為新型的內(nèi)容提供者,依據(jù)其侵權(quán)行為的不同,有害信息可分為自發(fā)生成型與用戶操控被動(dòng)生成型。
(一)自發(fā)生成型引發(fā)直接侵權(quán)風(fēng)險(xiǎn)
通用人工智能算法僅是針對(duì)用戶指令提供了概率最大的答案,該答案可能不具有真實(shí)性,甚至屬于捏造、誹謗性內(nèi)容而侵犯用戶或第三人的名譽(yù)權(quán)、肖像權(quán)等人格權(quán)。如美國(guó)著名電臺(tái)主持人Mark#Walters因ChatGPT生成的內(nèi)容中捏造虛假訴訟誹謗其挪用財(cái)產(chǎn),向喬治州地區(qū)法院提出侵權(quán)之訴,要OpenAI公司承擔(dān)賠償責(zé)任。再如知名媒體人Ted#Rall詢問(wèn)ChatGPT他與好友的關(guān)系時(shí),ChatGPT編造了二人因作品剽竊而引發(fā)名譽(yù)權(quán)侵權(quán)糾紛的虛假故事?!?3#〕依據(jù)民法典第1156條的規(guī)定,侵權(quán)人承擔(dān)賠償責(zé)任應(yīng)對(duì)具備3個(gè)要件:一是行為人必須有過(guò)錯(cuò)。二是要有因果關(guān)系,所謂“因過(guò)錯(cuò)侵害”表明的是因果關(guān)系的成立。三是侵害他人民事權(quán)益的存在損害后果?!?4#〕通用人工智能提供者作為新型的內(nèi)容提供者,直接向用戶提供了誹謗性有害內(nèi)容屬于作為的侵權(quán)行為,雖然內(nèi)容僅是在與用戶一對(duì)一的對(duì)話中生成,并未將有害信息予以擴(kuò)散,其并不能禁止用戶擴(kuò)散誹謗性信息。而且,將含誹謗性有害信息的交互數(shù)據(jù)用于數(shù)據(jù)訓(xùn)練可能導(dǎo)致有害信息的再次生成。因此,對(duì)于通用人工智能自發(fā)生成的誹謗性信息,提供者在未盡到相關(guān)注意義務(wù)具有過(guò)錯(cuò)時(shí),需承擔(dān)侵權(quán)責(zé)任。
除此之外,通用人工智能生成的內(nèi)容可以誘導(dǎo)用戶自殘或自殺。據(jù)報(bào)道,一名比利時(shí)男子d#與名為Eliza的人工智能助手針對(duì)氣候變化問(wèn)題進(jìn)行了長(zhǎng)達(dá)6周的對(duì)話后自殺, 男子的遺孀稱在回應(yīng)男子對(duì)生態(tài)環(huán)境的焦慮時(shí),Eliza建議他為了減輕地球的負(fù)擔(dān)而犧牲自己?!?5#〕再如一位10歲的小朋友要求亞馬遜的Alexa推薦“刺激游戲”,Alexa告訴小朋友“硬幣挑戰(zhàn)”的游戲,即將硬幣插入電源接口處測(cè)試是否會(huì)觸電。這一致命游戲在社交媒體平臺(tái)廣泛傳播, 立即引發(fā)了家長(zhǎng)的干預(yù)和公眾的強(qiáng)烈抗議?!?6#〕試想,如果小朋友接受了挑戰(zhàn)而導(dǎo)致受傷或身亡,通用人工智能提供者作為內(nèi)容提供者未注意到用戶未成年身份或慫恿用戶自殘具有過(guò)錯(cuò)時(shí),亦應(yīng)承擔(dān)侵犯生命權(quán)、健康權(quán)等人格權(quán)的侵權(quán)責(zé)任。
(二)用戶操控被動(dòng)生成型誘發(fā)間接侵權(quán)
通用人工智能受用戶操控,亦可能生成有害信息。實(shí)踐中,Open#AI公司已極力識(shí)別并限制誘發(fā)系統(tǒng)“越獄”的提示詞的使用,用戶還是可以發(fā)現(xiàn)被禁指令的替換詞輕松實(shí)現(xiàn)系統(tǒng)“越獄”。知名教授Mark#Lemley在與ChatGPT互動(dòng)的過(guò)程中, 一步步引導(dǎo)ChatGPT生成關(guān)于Lemley罪責(zé)的內(nèi)容, 最終,ChatGPT指出Lemley因竊取公司商業(yè)秘密而承擔(dān)刑事責(zé)任。事實(shí)上,Lemley教授是研究商業(yè)秘密的專家,ChatGPT學(xué)習(xí)到Lemley撰寫(xiě)的商業(yè)秘密論文,卻在用戶誘導(dǎo)下“無(wú)中生有”地編造出相關(guān)罪名。如果用戶利用ChatGPT生成的虛假內(nèi)容大肆宣傳,使第三人遭受損害時(shí),提供者未盡到注意義務(wù),可視為其存在過(guò)錯(cuò),因其為用戶的侵權(quán)提供了幫助,與用戶構(gòu)成共同侵權(quán),共同對(duì)遭遇損害的第三人承擔(dān)侵權(quán)責(zé)任。此時(shí)的共同侵權(quán)行為人間不以意思聯(lián)絡(luò)為必要,“數(shù)人因過(guò)失不法侵害他人權(quán)利,茍各行為人之過(guò)失行為,抑或加害人其中一人故意,他人為過(guò)失,均為其所生損害之共同原因,即所謂行為關(guān)聯(lián)共同,亦成立共同侵權(quán)行為”?!?7#〕換言之,用戶故意與提供者過(guò)失行為相關(guān)聯(lián)損害他人權(quán)利時(shí),亦成立共同侵權(quán)。
由此可知,通用人工智能生成的有害信息已經(jīng)對(duì)用戶或第三人造成了嚴(yán)重的損害,帶來(lái)了負(fù)外部性。依據(jù)經(jīng)濟(jì)學(xué)的原理,負(fù)外部性的化解需將其內(nèi)部化,由通用人工智能提供者承擔(dān)負(fù)外部性帶來(lái)?yè)p害的社會(huì)成本。侵權(quán)責(zé)任法的目的在于合理分配損害,由通用人工智能提供者承擔(dān)侵權(quán)責(zé)任可以實(shí)現(xiàn)外部性的內(nèi)部化。依據(jù)侵權(quán)責(zé)任法,行為人違反預(yù)見(jiàn)及預(yù)防侵害他人權(quán)利的注意義務(wù)時(shí),侵權(quán)責(zé)任成立。因此,厘清通用人工智能提供者的注意義務(wù)是解決負(fù)外部性問(wèn)題的前提與基礎(chǔ)。
四、通用人工智能提供者內(nèi)容審查注意義務(wù)的學(xué)理基礎(chǔ)
我國(guó)立法中鮮有關(guān)于網(wǎng)絡(luò)內(nèi)容服務(wù)提供者侵權(quán)責(zé)任的規(guī)定,相關(guān)侵權(quán)問(wèn)題可適用傳統(tǒng)侵權(quán)規(guī)則予以解決。民法典第1194條僅籠統(tǒng)地規(guī)定網(wǎng)絡(luò)服務(wù)提供者直接侵權(quán)責(zé)任條款,并未對(duì)網(wǎng)絡(luò)內(nèi)容提供者的注意義務(wù)作出規(guī)定。《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》第9、10條,《互聯(lián)網(wǎng)信息服務(wù)管理辦法》第15、16條等從行政管理角度規(guī)定了網(wǎng)絡(luò)內(nèi)容提供者負(fù)有對(duì)提供內(nèi)容的合法性進(jìn)行審查的義務(wù)。此類規(guī)制性規(guī)范具有明確保護(hù)范圍,即旨在保護(hù)特定個(gè)人或特定人群且明確規(guī)定了行為準(zhǔn)則,并建立了期待可能性時(shí),可成為侵權(quán)責(zé)任法上的注意義務(wù),違反該等規(guī)制性規(guī)范即未盡注意義務(wù)。〔48#〕但上述規(guī)制性規(guī)范旨在維護(hù)社會(huì)公眾利益,并非以個(gè)人保護(hù)為目的,不能成為保護(hù)性法律。依據(jù)侵權(quán)責(zé)任法一般原理,傳統(tǒng)的網(wǎng)絡(luò)內(nèi)容服務(wù)提供者負(fù)有對(duì)生成內(nèi)容進(jìn)行普遍審查的注意義務(wù),圍繞通用人工智能模型的提供者對(duì)有害信息是否負(fù)有內(nèi)容審查的注意義務(wù),學(xué)界產(chǎn)生分歧的解決,需從法理入手為其設(shè)定注意義務(wù)尋求理論基礎(chǔ)及正當(dāng)性的依據(jù)。
(一)通用人工智能提供者承擔(dān)內(nèi)容審查注意義務(wù)的理論依據(jù)
衍生于傳統(tǒng)傳播學(xué)的數(shù)字守門(mén)人理論與民法的安全保障義務(wù)理論,可以為通用人工智能提供者承擔(dān)內(nèi)容審查注意義務(wù)提供學(xué)理基礎(chǔ),具體分析如下:
1.#數(shù)字守門(mén)人理論
“守門(mén)人”理論起源于傳播學(xué)與信息學(xué)領(lǐng)域,這一概念由最早由庫(kù)爾特·盧溫(Kurt#Lewin)提出,他認(rèn)為,“信息傳播的過(guò)程中,需要通過(guò)不同的‘關(guān)卡,那些能夠決定信息是否能夠通過(guò)‘關(guān)卡的人或機(jī)構(gòu)被稱為‘守門(mén)人”。〔49#〕傳統(tǒng)意義上的“守門(mén)人”指的是新聞、報(bào)刊等主體,他們需要在海量信息中根據(jù)受眾群體的喜好、價(jià)值性等因素“把關(guān)”新聞信息的發(fā)布類型,其負(fù)有管理、控制信息進(jìn)出入關(guān)卡的責(zé)任。〔50#〕“守門(mén)”(或把關(guān))是指控制信息通過(guò)關(guān)卡的方法,如選擇、編輯、展示、整合、刪除等一切控制信息的機(jī)制,關(guān)卡則是指人類獲取信息的平臺(tái)或媒介的出入口。因此,“守門(mén)人”理論事實(shí)上是一種信息控制范式。數(shù)字經(jīng)濟(jì)時(shí)代,互聯(lián)網(wǎng)逐漸具備了基礎(chǔ)設(shè)施的基本屬性,數(shù)字內(nèi)容的傳播超越了傳統(tǒng)大眾傳播方式,數(shù)字守門(mén)行為逐漸表現(xiàn)為對(duì)數(shù)據(jù)的處理與控制。
隨著信息網(wǎng)絡(luò)技術(shù)的發(fā)展,越來(lái)越多研究表明,由于超大型網(wǎng)絡(luò)服務(wù)提供者在數(shù)字環(huán)境中獨(dú)特的影響力致使其獲取并收集海量數(shù)據(jù),從而掌控了世界上最有價(jià)值的資源。他們以數(shù)字時(shí)代社會(huì)交往管理員的身份,管理著平臺(tái)上的言論活動(dòng),進(jìn)而演變?yōu)閿?shù)字守門(mén)人?!?1#〕1986年,Kraakman教授把“守門(mén)人”責(zé)任引入法律責(zé)任體系,歷經(jīng)Lawrence、Zittrain等學(xué)者的不斷豐富與發(fā)展,終在2020年歐盟頒布的數(shù)字市場(chǎng)法(Digital#Markets#Act,以下簡(jiǎn)稱DMA)中明確了數(shù)字守門(mén)人制度。該法案從競(jìng)爭(zhēng)法角度首次規(guī)定了數(shù)字守門(mén)人的概念,并以義務(wù)形式規(guī)范數(shù)字守門(mén)人行為,以此形成事前規(guī)制來(lái)彌補(bǔ)事后監(jiān)管的不足,開(kāi)創(chuàng)了數(shù)字守門(mén)人行為治理的新路徑。
在網(wǎng)絡(luò)數(shù)字內(nèi)容治理方面,同樣是“權(quán)力越大,責(zé)任越大”。〔52#〕超大型網(wǎng)絡(luò)服務(wù)提供者因用戶的使用行為獲得了巨大的數(shù)字紅利及數(shù)字權(quán)力,卻未承擔(dān)起與之相對(duì)應(yīng)的責(zé)任。以此類比人工智能領(lǐng)域,ChatGPT系列產(chǎn)品的問(wèn)世極大地縮短了通用人工智能的研發(fā)周期, 在相對(duì)短暫的時(shí)間段內(nèi)引發(fā)了井噴式同類產(chǎn)品的研發(fā)和幾何倍數(shù)增加的全球用戶,從而確立了OpenAI公司在通用人工智能領(lǐng)域舉足輕重的地位。OpenAI通過(guò)人機(jī)交互的歷史對(duì)話數(shù)據(jù)獲得了巨大的訓(xùn)練文本, 但未明確數(shù)據(jù)挖掘、處理、加工規(guī)則,屢屢發(fā)生有害內(nèi)容侵犯用戶權(quán)益的事件。依據(jù)數(shù)字守門(mén)人理論,通用人工智能提供者具有信息生產(chǎn)、控制的能力,其負(fù)有數(shù)字內(nèi)容的“監(jiān)管”職責(zé),應(yīng)承擔(dān)內(nèi)容審查義務(wù),積極發(fā)現(xiàn)并處置違法、侵權(quán)內(nèi)容,以減少這些行為的社會(huì)危害。
通用人工智能的內(nèi)容生成是在與人類一對(duì)一的對(duì)話中,自行判斷、收集和學(xué)習(xí)新數(shù)據(jù),聯(lián)系上下文理解用戶指令后,以接近人類使用習(xí)慣的表達(dá)進(jìn)行創(chuàng)新內(nèi)容的輸出。在這一過(guò)程中,對(duì)話框中會(huì)出現(xiàn)什么語(yǔ)句和段落,既依賴于大語(yǔ)言模型中的數(shù)據(jù)鏈,又與用戶輸入的文本提示詞在擬定過(guò)程中的微調(diào)和修正相關(guān)。通用人工智能提供者作為網(wǎng)絡(luò)內(nèi)容提供者,更是肩負(fù)數(shù)字守門(mén)人的職責(zé),應(yīng)以溯源治理的方式,采取相關(guān)技術(shù)措施,對(duì)數(shù)據(jù)訓(xùn)練集合、自發(fā)生成的內(nèi)容進(jìn)行審查。
2.安全保障義務(wù)理論
安全保障義務(wù)源自德國(guó)法上的“交往安全義務(wù)”,是法官造法的產(chǎn)物。〔53#〕“交往安全義務(wù)是指開(kāi)啟或持續(xù)特定危險(xiǎn)的人所應(yīng)承擔(dān)的、根據(jù)具體情況采取必要的、具有期待可能性的防范措施,以保證第三人免遭損害的義務(wù)?!薄?4#〕該理論產(chǎn)生初期,適用于經(jīng)營(yíng)者在經(jīng)營(yíng)場(chǎng)所對(duì)消費(fèi)者或者其他進(jìn)入該場(chǎng)所的人之人身、財(cái)產(chǎn)安全依法承擔(dān)的安全保障義務(wù)。近些年來(lái),隨著網(wǎng)絡(luò)的發(fā)展與普及,德國(guó)聯(lián)邦最高法院類推地將“安全交往義務(wù)”適用于網(wǎng)絡(luò)運(yùn)營(yíng)者,將其責(zé)任定位于“妨害人責(zé)任”,創(chuàng)設(shè)了“面向未來(lái)的審查義務(wù)”。法院基于網(wǎng)絡(luò)運(yùn)營(yíng)者是“危險(xiǎn)源開(kāi)啟與控制”的主體,要求其對(duì)正在發(fā)生的侵權(quán)有義務(wù)排除,并對(duì)未來(lái)的妨害負(fù)有審查控制義務(wù),〔55"〕從而使規(guī)制傳統(tǒng)物理場(chǎng)所安全問(wèn)題的“安全保障義務(wù)”延伸至網(wǎng)絡(luò)空間,并成為今后各國(guó)立法的一個(gè)趨勢(shì)。
現(xiàn)代社會(huì)工業(yè)化和信息化水平日益增高,網(wǎng)絡(luò)運(yùn)營(yíng)者依靠信息技術(shù)構(gòu)建的虛擬空間,已成為人類離不開(kāi)的生活、交往空間。網(wǎng)絡(luò)運(yùn)營(yíng)者作為網(wǎng)絡(luò)平臺(tái)架構(gòu)者、控制者與獲利者的特殊地位,需要履行維護(hù)網(wǎng)絡(luò)平臺(tái)安全性和穩(wěn)定性的作為義務(wù)。〔56"〕我國(guó)已從公法角度規(guī)定了網(wǎng)絡(luò)運(yùn)營(yíng)者的安全保護(hù)義務(wù),如網(wǎng)絡(luò)安全法第9條?!掇k法》第9條亦是規(guī)定了生成式人工智能提供者需履行網(wǎng)絡(luò)信息安全義務(wù),私法領(lǐng)域也應(yīng)對(duì)提供者承擔(dān)風(fēng)險(xiǎn)控制義務(wù)作出回應(yīng)。
通用人工智能提供者作為新型的網(wǎng)絡(luò)運(yùn)營(yíng)者,具備“開(kāi)啟、參與社會(huì)交往”及“給他人權(quán)益帶來(lái)潛在危險(xiǎn)”的兩項(xiàng)特征。其作為危險(xiǎn)源的開(kāi)啟與控制者,創(chuàng)設(shè)了它能但用戶卻無(wú)法控制的具有一定風(fēng)險(xiǎn)/危險(xiǎn)的虛擬場(chǎng)所。它掌控網(wǎng)絡(luò)平臺(tái)生成的內(nèi)容及用戶數(shù)據(jù),依據(jù)危險(xiǎn)控制理論,提供者與用戶承擔(dān)共同侵權(quán)的連帶責(zé)任時(shí),其作為侵權(quán)人離危險(xiǎn)源較近,對(duì)危險(xiǎn)的控制力大于受害人,〔57"〕因而對(duì)防范該網(wǎng)絡(luò)空間中的危險(xiǎn)負(fù)有特殊義務(wù),即根據(jù)具體情況承擔(dān)采取“必要、具有期待可能性的防范措施”,以保護(hù)用戶免受有害信息侵害的積極義務(wù)。
(二)通用人工智能提供者承擔(dān)內(nèi)容審查注意義務(wù)的正當(dāng)性
通用人工智能提供者需承擔(dān)內(nèi)容審查的注意義務(wù),無(wú)論從經(jīng)濟(jì)效率角度還是技術(shù)角度均具有合理性。所謂經(jīng)濟(jì)效率,即鼓勵(lì)以合理費(fèi)用預(yù)防意外事故,而不鼓勵(lì)在安全上的超過(guò)投資,而對(duì)財(cái)富予以極大化、對(duì)成本費(fèi)用予以極小化?!?8"〕例如,在Hendricks案中,法官認(rèn)為,“被告只需用1.2萬(wàn)—1.4萬(wàn)美元的鋼絲就能封閉整個(gè)水面,此與原告16歲男孩受傷害的風(fēng)險(xiǎn)相比,其成本微不足道。”因此,被告因過(guò)失而敗訴?!?9"〕具體到通用人工智能領(lǐng)域,通用人工智能具有良好的通用性與泛化性,能夠處理跨域任務(wù)。對(duì)于其產(chǎn)生的虛假信息、誹謗污蔑等內(nèi)容風(fēng)險(xiǎn)與偏誤置若罔聞,則將彌散至整個(gè)產(chǎn)業(yè)鏈之上,損害極大?!?07〕因此,通用人工智能提供者需采取合理的預(yù)防措施,將自我監(jiān)管介入點(diǎn)前置,在模型訓(xùn)練時(shí)便植入倫理規(guī)范以確保通用模型輸出內(nèi)容更符合人類的價(jià)值取向。
從技術(shù)角度,通用人工智能提供者內(nèi)容生產(chǎn)全過(guò)程采取技術(shù)措施審查、過(guò)濾有害信息具有可行性?,F(xiàn)有研究表明,大語(yǔ)言模型可用于分析、識(shí)別預(yù)料庫(kù)中的有害信息。在此基礎(chǔ)上,更有學(xué)者提出過(guò)濾語(yǔ)言模型可能產(chǎn)生偏見(jiàn)的方法?!?1"〕正是因?yàn)橥ㄓ萌斯ぶ悄芤源笳Z(yǔ)言模型為技術(shù)基礎(chǔ),而大語(yǔ)言模型對(duì)有害信息的識(shí)別、監(jiān)測(cè)與過(guò)濾能力已被科學(xué)家驗(yàn)證與應(yīng)用。美國(guó)頒布的《行政令》提出了“以技制技”的方法,要求人工智能提供者在內(nèi)容生產(chǎn)中實(shí)行“人工智能紅隊(duì)”機(jī)制,在受控環(huán)境下與人工智能開(kāi)發(fā)人員合作,用對(duì)抗性方法動(dòng)態(tài)跟蹤、識(shí)別缺陷、漏洞,并依據(jù)職能系統(tǒng)生成的有害信息針對(duì)性地調(diào)整系統(tǒng)參數(shù)及架構(gòu)。因此,由通用人工智能提供者承擔(dān)預(yù)防成本低于有害信息帶來(lái)的傷害或行業(yè)風(fēng)險(xiǎn),應(yīng)由提供者承擔(dān)內(nèi)容生產(chǎn)過(guò)程中有害信息審查的注意義務(wù)。
五、通用人工智能提供者內(nèi)容審查注意義務(wù)的多維度構(gòu)建
內(nèi)容審查的注意義務(wù)要求通用人工智能提供者以謹(jǐn)慎“理性人”的標(biāo)準(zhǔn)可預(yù)見(jiàn)到有害信息的危險(xiǎn)性,以合理的方式加以避免或防止損害的發(fā)生?!?2#〕“可預(yù)見(jiàn)性”不要求行為人對(duì)傷害預(yù)見(jiàn)到極為具體的程度,只要能夠一般性地預(yù)見(jiàn)到傷害的現(xiàn)實(shí)可能即為足夠?!?3#〕由于通用人工智能生成信息海量性特點(diǎn),逐一審查將需要其投入巨大成本難以集中力量進(jìn)行科技創(chuàng)新等活動(dòng),因此,其不負(fù)有對(duì)生成內(nèi)容普遍審查的義務(wù),但可借助于技術(shù)措施,實(shí)現(xiàn)特殊內(nèi)容———有害信息的審查。 需要注意的是,技術(shù)措施的合理、有效性不能采取結(jié)果主義,以技術(shù)性審查為標(biāo)準(zhǔn),即其采取符合技術(shù)特點(diǎn)的內(nèi)容審查、過(guò)濾機(jī)制就應(yīng)當(dāng)認(rèn)定履行了相關(guān)義務(wù)?!?4#〕因?yàn)椤袄硇匀恕睒?biāo)準(zhǔn)是一種客觀化或類型化的過(guò)失標(biāo)準(zhǔn),即行為人應(yīng)具其所屬職業(yè)、某種社會(huì)活動(dòng)的成員或某年齡層通常所具有的注意能力?!?5#〕通用人工智能現(xiàn)正處于飛速發(fā)展的初級(jí)階段,并不能從技術(shù)上完成實(shí)現(xiàn)零有害信息,因此,應(yīng)賦予其一般的注意義務(wù)而非較高的注意義務(wù)。根據(jù)通用人工智能提供者在有害信息生產(chǎn)過(guò)程中角色、職能的不同,其需履行的注意義務(wù)應(yīng)結(jié)合它在具體場(chǎng)景下的預(yù)見(jiàn)能力進(jìn)行差異性建構(gòu)。
(一)“自發(fā)生成”場(chǎng)景下的注意義務(wù)
通用人工智能提供者自發(fā)“生成”內(nèi)容時(shí),基于上述內(nèi)容生成機(jī)理,提供者可預(yù)見(jiàn)的風(fēng)險(xiǎn)為:數(shù)據(jù)質(zhì)量瑕疵導(dǎo)致輸出內(nèi)容質(zhì)量偏差和大語(yǔ)言模型隨機(jī)生成有害信息。第一,由于訓(xùn)練大語(yǔ)言模型語(yǔ)料庫(kù)數(shù)據(jù)質(zhì)量對(duì)產(chǎn)出內(nèi)容的關(guān)鍵作用,其可以預(yù)見(jiàn)語(yǔ)料庫(kù)中含有的“毒性”數(shù)據(jù)將在輸出內(nèi)容中呈現(xiàn)或被放大。第二,算法黑箱以及內(nèi)容生成機(jī)制的不透明,提供者有能力預(yù)見(jiàn)大語(yǔ)言模型可能隨機(jī)生成有害信息?;诖?,提供者負(fù)有侵權(quán)預(yù)見(jiàn)義務(wù),即采取適當(dāng)措施避免合理預(yù)見(jiàn)可能發(fā)生的危險(xiǎn)。
1.數(shù)據(jù)訓(xùn)練集合“毒性”的審查義務(wù)
從人工智能發(fā)展歷程來(lái)看,無(wú)論是監(jiān)督學(xué)習(xí)、無(wú)監(jiān)督學(xué)習(xí)還是強(qiáng)化學(xué)習(xí),數(shù)據(jù)訓(xùn)練對(duì)于內(nèi)容的輸出均起到?jīng)Q定性的作用?!?6#〕從比較法視野來(lái)看,歐盟率先將人工智能提供者對(duì)智能機(jī)器生成內(nèi)容的注意義務(wù)前置,并通過(guò)調(diào)整侵權(quán)責(zé)任規(guī)則體系,實(shí)現(xiàn)人工智能提供者的法律責(zé)任明確化。2021年歐洲議會(huì)頒布的人工智能法案(Artificial#Intelligence7Act,AIA)第10條規(guī)定了高風(fēng)險(xiǎn)人工智能提供者對(duì)于數(shù)據(jù)訓(xùn)練、驗(yàn)證及測(cè)試過(guò)程中的注意義務(wù),要求其對(duì)訓(xùn)練數(shù)據(jù)集合的可用性、質(zhì)量及適當(dāng)性進(jìn)行評(píng)估,明確數(shù)據(jù)集合的優(yōu)缺點(diǎn),并對(duì)存在的缺點(diǎn)與缺陷采取相關(guān)措施予以解決等。鑒于審查義務(wù)屬于注意義務(wù)的一種類型,〔67#〕通用人工智能提供者對(duì)訓(xùn)練數(shù)據(jù)集合的“毒性”,負(fù)有審查義務(wù)。
第一, 審查數(shù)據(jù)集合的“毒性”,并采取合理、有效措施識(shí)別、過(guò)濾、降低數(shù)據(jù)“毒性”。研究表明,基于提示詞的推理機(jī)制增強(qiáng)了有害信息識(shí)別的準(zhǔn)確性,實(shí)現(xiàn)多種語(yǔ)言有害信息的分類監(jiān)測(cè)?!?8#〕具體而言,首先,利用文本向量化技術(shù)將文本轉(zhuǎn)化為數(shù)字向量或矩陣;其次,適用機(jī)器學(xué)習(xí)和自然語(yǔ)言處理技術(shù)算法分析數(shù)據(jù);最后,檢測(cè)模型利用單詞嵌入技術(shù)如Word2Vec、GloVe等,根據(jù)單詞在上下文的用法將其表示為高維空間中的向量,便于機(jī)器學(xué)習(xí)技術(shù)識(shí)別有害信息的模式與特征,如有害信息的常用單詞、短語(yǔ)和句子結(jié)構(gòu)的特定組合等,從而達(dá)到監(jiān)測(cè)、識(shí)別有害信息的目的?!?97〕在完成對(duì)有害信息的識(shí)別后,提供者需采取技術(shù)措施過(guò)濾、刪除此類內(nèi)容。
但是,訓(xùn)練數(shù)據(jù)集合的復(fù)雜性、體量之龐大,導(dǎo)致“有毒”信息的識(shí)別并不能做到完全精準(zhǔn)。學(xué)者依據(jù)將“毒性”程度的不同將語(yǔ)言分為:仇恨言論、廣泛意義的攻擊性語(yǔ)言與兩者均無(wú)。研究表明,大語(yǔ)言模型可以精準(zhǔn)識(shí)別攻擊性語(yǔ)言,但是,40%的仇恨言論被誤認(rèn)為是攻擊性語(yǔ)言?!?0%〕通用人工智能作為一項(xiàng)對(duì)人類進(jìn)步帶來(lái)重大影響的新興技術(shù),其為人類生活帶來(lái)便利的同時(shí),亦帶來(lái)了風(fēng)險(xiǎn)、沖擊和變化,在對(duì)其進(jìn)行治理時(shí)并不能追求絕對(duì)的“零風(fēng)險(xiǎn)”,而應(yīng)在合理范圍內(nèi)將風(fēng)險(xiǎn)降至最低。
第二,審查人工標(biāo)注數(shù)據(jù)的“毒性”,對(duì)于強(qiáng)化學(xué)習(xí)中標(biāo)注的數(shù)據(jù)負(fù)有及時(shí)調(diào)整標(biāo)注人員選撥程序、數(shù)據(jù)標(biāo)注規(guī)則、更換標(biāo)注人員的注意義務(wù)。標(biāo)注人員對(duì)標(biāo)注數(shù)據(jù)的影響,一方面,其固有的價(jià)值觀會(huì)影響標(biāo)注數(shù)據(jù)的公允性;另一方面,標(biāo)注人員長(zhǎng)期暴露在“毒性”如暴力、種族歧視、恐嚇等文本中,有害內(nèi)容勢(shì)必會(huì)影響其心理健康,進(jìn)而“反噬”訓(xùn)練數(shù)據(jù)。為防止標(biāo)注人員的不良價(jià)值觀污染數(shù)據(jù),提供者在標(biāo)注人員選撥、培訓(xùn)、定期評(píng)估其合格性方面負(fù)有注意義務(wù)。公開(kāi)資料表明,亞馬遜公司選聘數(shù)據(jù)標(biāo)注人員的條件需滿足:至少完成1000項(xiàng)人類智能任務(wù),完成率達(dá)98%;回答3項(xiàng)關(guān)于合格性的問(wèn)題且回答正確等。滿足條件勝任標(biāo)注工作的人員,會(huì)被嚴(yán)格限制標(biāo)注數(shù)據(jù)的數(shù)量,一般不能超過(guò)100個(gè)文本?!?1%〕提供者在嚴(yán)控標(biāo)注人員選撥條件的同時(shí),亦需提供與之配套的人員管理,定期跟蹤培訓(xùn),實(shí)時(shí)監(jiān)測(cè)等規(guī)則,及時(shí)發(fā)現(xiàn)、移除“有害”標(biāo)注數(shù)據(jù),以保證標(biāo)注數(shù)據(jù)的質(zhì)量。
2.大語(yǔ)言模型輸出內(nèi)容的動(dòng)態(tài)審查
通用人工智能提供者負(fù)有對(duì)大語(yǔ)言模型生成內(nèi)容動(dòng)態(tài)審查的義務(wù),采取與“人工智能紅隊(duì)”相似的技術(shù)措施,實(shí)時(shí)識(shí)別、歸納、評(píng)估可能生成有害信息的種類及具體內(nèi)容,并依據(jù)結(jié)果數(shù)據(jù)創(chuàng)建有效的安全干預(yù)措施。傳統(tǒng)AI與通用人工智能主要區(qū)別在于,傳統(tǒng)AI遵循算法設(shè)定的邏輯規(guī)則,而通用人工智能的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)行為僅能從統(tǒng)計(jì)學(xué)上進(jìn)行描述, 其固有的獨(dú)立于自我學(xué)習(xí)能力的概率行為降低了對(duì)學(xué)習(xí)結(jié)果的可預(yù)測(cè)性。即使神經(jīng)網(wǎng)絡(luò)在完全可控的環(huán)境下進(jìn)行訓(xùn)練,并及時(shí)阻止其進(jìn)一步學(xué)習(xí),也僅能通過(guò)統(tǒng)計(jì)誤差范圍對(duì)學(xué)習(xí)結(jié)果進(jìn)行間接預(yù)測(cè)。由于大語(yǔ)言模型的生產(chǎn)內(nèi)容的合規(guī)性和技術(shù)風(fēng)險(xiǎn)同時(shí)共存的背景下,〔72%〕在對(duì)文本的學(xué)習(xí)中并不能真正理解自然語(yǔ)言,從而可能生成“張冠李戴”“無(wú)中生有”的錯(cuò)誤內(nèi)容。由此,通用人工智能提供者需要對(duì)系統(tǒng)生成內(nèi)容的安全性進(jìn)行主動(dòng)的監(jiān)測(cè),利用類似“人工智能紅隊(duì)”技術(shù)實(shí)時(shí)、動(dòng)態(tài)地跟蹤、掌握智能系統(tǒng)生成內(nèi)容的質(zhì)量,并依據(jù)出現(xiàn)的內(nèi)容問(wèn)題針對(duì)性地建立解決機(jī)制。
(二)“用戶操控被動(dòng)生成”場(chǎng)景下的注意義務(wù)
對(duì)于用戶操控被動(dòng)生成的有害信息, 通用人工智能提供者負(fù)有對(duì)用戶輸入系統(tǒng)的內(nèi)容進(jìn)行審查的義務(wù),盡管提供者并沒(méi)有生成有害信息的主觀故意,基于安全保障義務(wù)理論,提供者負(fù)有維護(hù)系統(tǒng)安全、內(nèi)容安全的“角色責(zé)任”?!爱?dāng)某人在社會(huì)組織中占據(jù)獨(dú)特位置或要職時(shí),即對(duì)增進(jìn)他人福利或以某種特定方式促進(jìn)組織目標(biāo)或宗旨的實(shí)現(xiàn)負(fù)有特殊義務(wù), 且有責(zé)任采取措施履行這些義務(wù)。這就是他的‘角色責(zé)任”?!?3%〕它要求通用人工智能提供者承擔(dān)監(jiān)控?cái)?shù)字內(nèi)容,保護(hù)處于弱勢(shì)地位用戶權(quán)益的責(zé)任,并采取必要措施維護(hù)通用人工智能處于安全、可靠的狀態(tài),怠于履行此種責(zé)任,它將承擔(dān)法律責(zé)任或受到道德譴責(zé)。因此, 提供者需要對(duì)用戶輸入的內(nèi)容進(jìn)行安全審查。對(duì)于用戶采用“假裝”“DAN”等方法越過(guò)安全審查使系統(tǒng)“越獄”的行為,依據(jù)《辦法》第14條規(guī)定,提供者對(duì)用戶負(fù)有監(jiān)管義務(wù),其需采取預(yù)防侵權(quán)的合理措施,識(shí)別、發(fā)現(xiàn)高風(fēng)險(xiǎn)用戶并進(jìn)行信用懲戒。
實(shí)踐中,網(wǎng)絡(luò)服務(wù)提供者運(yùn)用算法技術(shù)對(duì)用戶進(jìn)行風(fēng)險(xiǎn)篩查的作法得到了法院的支持。在“短視頻平臺(tái)封禁戀童賬號(hào)案”中,鄭某被某短視頻平臺(tái)以“涉嫌違反社區(qū)公約,涉及過(guò)度關(guān)注或?yàn)g覽未成年人相關(guān)內(nèi)容的行為”為由永久封禁涉案賬號(hào),鄭某使用的手機(jī)也無(wú)法再注冊(cè)、登錄及使用該平臺(tái)。鄭某認(rèn)為其并無(wú)違法行為,以某平臺(tái)違約為由將其訴至法院。法院經(jīng)審理認(rèn)為,平臺(tái)基于“私權(quán)力”應(yīng)用算法技術(shù)識(shí)別發(fā)現(xiàn)原告涉案賬號(hào)為涉及算法風(fēng)險(xiǎn)評(píng)估系統(tǒng)“護(hù)童專項(xiàng)”的風(fēng)險(xiǎn)用戶,后經(jīng)過(guò)“護(hù)童專項(xiàng)”隊(duì)列人工審核后,確定鄭某存在違規(guī)違法行為而對(duì)其進(jìn)行永久封號(hào),該做法并無(wú)不當(dāng)?!?4!〕雖然算法審查會(huì)產(chǎn)生誤判,提供者在合理期限內(nèi)對(duì)誤判進(jìn)行糾正,亦可以免責(zé)。在“殺豬盤(pán)案”中,被告某征婚交友平臺(tái)因原告李某涉嫌詐騙將其封號(hào),并向其他網(wǎng)友提示稱“賬號(hào)可能存在異?!薄安灰c之發(fā)生金錢(qián)來(lái)往”等。李某以侵權(quán)名譽(yù)權(quán)為由將某征婚交友平臺(tái)起訴至法院,經(jīng)法院查明,李某與平臺(tái)其他用戶聊天的過(guò)程中,經(jīng)常使用“金融”“基金”“加微信”等“殺豬盤(pán)”詐騙案件所涉高頻詞匯,因此自動(dòng)觸發(fā)了被告平臺(tái)風(fēng)控系統(tǒng)的審核規(guī)則將其封號(hào),經(jīng)原告致電客服反映情況,被告人工核實(shí)后對(duì)該賬戶進(jìn)行解封。法院認(rèn)為,平臺(tái)為履行法律規(guī)定的監(jiān)管義務(wù),并輔以人工在合理期限內(nèi)審核誤判,屬于已盡到合理注意義務(wù)而免責(zé)?!?5!〕因此,通用人工智能提供者可針對(duì)用戶輸入的內(nèi)容采取類似于風(fēng)險(xiǎn)篩查的審查機(jī)制,履行注意義務(wù)的過(guò)程中,即使出現(xiàn)錯(cuò)誤,在合理期限內(nèi)糾正亦可免責(zé)。
(三)用戶投訴———處置的注意義務(wù)
基于內(nèi)容生產(chǎn)是一個(gè)動(dòng)態(tài)迭代和優(yōu)化的過(guò)程,在數(shù)據(jù)輸出階段,提供者需設(shè)立投訴、舉報(bào)機(jī)制,對(duì)于用戶主張涉嫌侵權(quán)的有害內(nèi)容進(jìn)行審查,確屬侵權(quán)內(nèi)容的,提供者負(fù)有侵權(quán)結(jié)果避免義務(wù),即采取有效措施將該內(nèi)容從預(yù)料庫(kù)中刪除、停止生成。OpenAI發(fā)布的《數(shù)據(jù)處理協(xié)議》指出,它可以因提供、支持和改進(jìn)服務(wù)的目的使用人機(jī)交互的對(duì)話數(shù)據(jù)。換言之,用戶與ChatGPT對(duì)話的數(shù)據(jù)將作為語(yǔ)料庫(kù)用于訓(xùn)練語(yǔ)言模型。因此,輸出階段生成的有害內(nèi)容由用戶發(fā)現(xiàn)后,需由提供者予以刪除、屏蔽。為了防止用戶惡意投訴,對(duì)于有害內(nèi)容設(shè)置分類投訴、舉報(bào)機(jī)制。具體而言,一方面,對(duì)于違背社會(huì)主義善良風(fēng)俗的內(nèi)容,因侵犯了社會(huì)公共利益,任何人可以向提供者進(jìn)行投訴或反饋。另一方面,因虛假、有害內(nèi)容侵犯?jìng)€(gè)人民事權(quán)利的,利害關(guān)系人可向提供者舉報(bào)或投訴,并提交相關(guān)證據(jù)材料。提供者在接到投訴、舉報(bào)后對(duì)有害內(nèi)容進(jìn)行審查,確屬侵權(quán)內(nèi)容應(yīng)及時(shí)采取有效措施停止傳輸,并從語(yǔ)料庫(kù)中予以刪除。
本文是國(guó)家社會(huì)科學(xué)基金青年項(xiàng)目“企業(yè)數(shù)據(jù)合理使用的邊界及其制度構(gòu)建研究”(項(xiàng)目批準(zhǔn)號(hào):22CFX028)的階段性研究成果。