李銘軒,文繼榮
(1. 中國人民大學(xué) 交叉科學(xué)研究院,北京 100872;2. 中國人民大學(xué) 高瓴人工智能學(xué)院,北京 100872)
2022 年底,OpenAI 公司推出ChatGPT,引起全世界的廣泛關(guān)注。ChatGPT 展現(xiàn)出遠(yuǎn)超以往人工智能產(chǎn)品的強大能力,被譽為“有史以來向公眾發(fā)布的最佳人工智能聊天機器人”[1]。ChatGPT 的成功,點燃了人們對生成式人工智能的熱情。自ChatGPT 發(fā)布以來,科技公司紛紛推出各自的生成式人工智能應(yīng)用,人工智能學(xué)界也投入大量資源研究相關(guān)技術(shù)。隨著技術(shù)的不斷發(fā)展,人工智能的生成能力必將持續(xù)提升,人們將從專業(yè)生成內(nèi)容(Professionally-generated Content, PGC)和用戶生成內(nèi)容(User-generated Content, UGC)時代真正進(jìn)入到人工智能生成內(nèi)容(AI-generated Content, AIGC)時代。
ChatGPT 的出現(xiàn)推動人們走向AIGC 時代,也引發(fā)對其相關(guān)風(fēng)險的關(guān)注。其中,與生成性特點密切相關(guān)的一項風(fēng)險,便是網(wǎng)絡(luò)信息內(nèi)容風(fēng)險。這是指ChatGPT 等AIGC 應(yīng)用可能會生成違法和不良信息,對社會和個人造成不利后果。在ChatGPT 問世后,已有不少研究對這類風(fēng)險展開討論,指出其為網(wǎng)絡(luò)信息內(nèi)容治理帶來的挑戰(zhàn),并探索應(yīng)對挑戰(zhàn)的方法[2-3]。關(guān)于AIGC 時代的網(wǎng)絡(luò)信息內(nèi)容風(fēng)險及其治理,仍存在著許多有待討論的問題。AIGC 時代的網(wǎng)絡(luò)信息內(nèi)容風(fēng)險是否屬于一種新型風(fēng)險?有觀點認(rèn)為,AIGC 技術(shù)的發(fā)展“極大地改變網(wǎng)絡(luò)信息內(nèi)容生態(tài),給信息內(nèi)容治理帶來新風(fēng)險新挑戰(zhàn)”[2];也有觀點認(rèn)為,以ChatGPT 為代表的AIGC 技術(shù)并未帶來全新的風(fēng)險或者挑戰(zhàn)[4]。對這一問題的回答會影響后續(xù)問題的討論:如果AIGC 技術(shù)的發(fā)展并未帶來全新的風(fēng)險或者挑戰(zhàn),那么現(xiàn)有法律規(guī)則足以應(yīng)對技術(shù)進(jìn)步帶來的變化;但如果AIGC 技術(shù)的發(fā)展確實給網(wǎng)絡(luò)信息內(nèi)容治理帶來新風(fēng)險新挑戰(zhàn),那么就有必要進(jìn)一步思考,如何對現(xiàn)有法律規(guī)則進(jìn)行調(diào)整,以應(yīng)對新風(fēng)險新挑戰(zhàn)。
AIGC,Artificial Intelligence Generated Content,直譯為“人工智能生成內(nèi)容”。關(guān)于AIGC 的定義,存在不同的觀點?!癆IGC 是指使用先進(jìn)的生成式人工智能技術(shù)生成的內(nèi)容,而不是由人類作者創(chuàng)作的內(nèi)容。”[5]AIGC 是“繼專業(yè)生成內(nèi)容(Professional Generated Content, PGC)和用戶生成內(nèi)容(User Generated Content, UGC)之后,利用人工智能技術(shù)自動生成內(nèi)容的新型生產(chǎn)方式”[6]?!癆IGC 既是從內(nèi)容生產(chǎn)者視角進(jìn)行分類的一類內(nèi)容,又是一種內(nèi)容生產(chǎn)方式,還是用于內(nèi)容自動化生成的一類技術(shù)集合?!盵6]“AIGC 既可以作為名詞來指代人工智能生成的內(nèi)容或者相關(guān)的技術(shù),也可以作為動詞指特定的‘生成’行為,還可以作為形容詞用以描述特定的技術(shù)、內(nèi)容、應(yīng)用、生態(tài)等。”[7]從這些定義看,AIGC 可表達(dá)不同的含義。本文中的AIGC 主要有兩種用法:一是作為名詞,指代利用人工智能自動生成內(nèi)容的生產(chǎn)方式;二是作為形容詞,用來修飾與這種生產(chǎn)方式有關(guān)的事物。
AIGC 的興起與AIGC 技術(shù)的發(fā)展密切相關(guān)。AIGC 技術(shù)的發(fā)展歷史,其實就是生成式模型(Generative Models)的發(fā)展歷史。20 世紀(jì)50 年代,有人提出隱馬爾可夫模型(Hidden Markov Models,HMM)和高斯混合模型(Gaussian Mixture Models, GMMs),并使用這些模型進(jìn)行創(chuàng)作。這時候的生成式模型結(jié)構(gòu)比較簡單,在應(yīng)用時需要依賴大量人工編寫規(guī)則,開發(fā)成本高昂,AIGC 發(fā)展比較緩慢。進(jìn)入21 世紀(jì),神經(jīng)網(wǎng)絡(luò)模型開始在各類任務(wù)上取得顯著的效果,AIGC 技術(shù)也隨之進(jìn)步。隨著硬件技術(shù)的提升和深度學(xué)習(xí)算法的發(fā)展,人們可以訓(xùn)練更加深層的神經(jīng)網(wǎng)絡(luò)模型,模型復(fù)雜度的提升帶來了生成內(nèi)容質(zhì)量的飛躍。在計算機視覺領(lǐng)域,2014 年,Ian Goodfellow 等人提出生成式對抗網(wǎng)絡(luò)(Generative Adversarial Networks, GANs),為圖像生成領(lǐng)域帶來里程碑式的進(jìn)展,圖像生成的效果達(dá)到了人類難以分辨的程度[8]。之后,StyleGan 模型、去噪擴散概率模型(Denoising Diffusion Probabilistic Model)等一系列模型進(jìn)一步提升圖像生成質(zhì)量。在自然語言處理領(lǐng)域,2017 年,谷歌Ashish Vaswani 等人提出Transformer 模型,成為自然語言生成的標(biāo)桿模型[9]。諸多預(yù)訓(xùn)練語言模型(如BERT、GPT、BART)進(jìn)一步提高文本生成的質(zhì)量。最近的一項具有變革性意義的技術(shù),便是大語言模型。
大語言模型(Large Language Model, LLM)是指擁有數(shù)百億或者更大規(guī)模參數(shù)的預(yù)訓(xùn)練語言模型[10]。語言建模的研究經(jīng)歷過4 個主要發(fā)展階段,分別是統(tǒng)計語言模型、神經(jīng)語言模型、預(yù)訓(xùn)練語言模型和大語言模型階段[10]。大語言模型本質(zhì)上是一種大規(guī)模的預(yù)訓(xùn)練語言模型,學(xué)界之所以將其與一般的預(yù)訓(xùn)練語言模型相區(qū)分,是因為大語言模型具有與一般預(yù)訓(xùn)練語言模型非常不同的技術(shù)特點。擴展預(yù)訓(xùn)練語言模型的大小通常會提高模型的性能[11]。當(dāng)模型大小超過一定水平時,一些與復(fù)雜任務(wù)相關(guān)的性能會顯著提升,使大規(guī)模模型具備小規(guī)模模型所不具有的特定能力[12]。
ChatGPT 背后最關(guān)鍵的技術(shù)便是大語言模型。2020 年,OpenAI 公司發(fā)布1 750 億參數(shù)的GPT-3 模型,在許多自然語言處理任務(wù)上表現(xiàn)出超凡的能力[13]。在此模型之上,OpenAI 開發(fā)了GPT-3.5 模型,ChatGPT 的最初版本就是基于這一大語言模型,其參數(shù)規(guī)模也在1 750 億級別。隨后,OpenAI 又發(fā)布了更大規(guī)模的GPT-4 模型,其參數(shù)規(guī)模據(jù)傳達(dá)到1.76 萬億級別。規(guī)模的增大使模型具備了一些“涌現(xiàn)能力”,也即“在小模型中不存在但在大模型中出現(xiàn)的能力”[12],例如上下文學(xué)習(xí)、指令遵循和逐步推理[10]。這些能力使ChatGPT 具有更好的通用能力,可以處理一些之前難以解決的復(fù)雜任務(wù)。除擴展模型規(guī)模外,ChatGPT 的開發(fā)還采用了一些技術(shù),例如基于人類反饋的強化學(xué)習(xí)(Reinforcement Learning from Human Feedback, RLHF)[14],來進(jìn)一步提升大語言模型的能力。得益于大語言模型及相關(guān)技術(shù),ChatGPT 展現(xiàn)出遠(yuǎn)超以往AIGC 應(yīng)用的效果,從而一夜爆火。隨著ChatGPT 的成功,人們已意識到大語言模型在AIGC 領(lǐng)域的能力與潛力。大語言模型已成為AIGC 最為重要的技術(shù)基礎(chǔ)之一,為AIGC 的發(fā)展提供強大助力。
技術(shù)的發(fā)展經(jīng)常具有兩面性。大語言模型給AIGC 的發(fā)展帶來機遇,也會引發(fā)種種風(fēng)險。2021 年,DeepMind 的一項研究總結(jié)大語言模型可能造成的6 個類別21 項風(fēng)險[15]。在這些風(fēng)險中,有不少與信息內(nèi)容相關(guān)。大語言模型可能會生成有毒害的語言(toxic language),泄露隱私或者敏感信息(privacy or sensitive information),提供錯誤信息(misinformation),使制作虛假信息(disinformation)變得更加低廉和有效[15]。這些風(fēng)險都可以歸為大語言模型引發(fā)的網(wǎng)絡(luò)信息內(nèi)容風(fēng)險,即大語言模型可能會生成違法和不良信息,給社會和個人帶來不利后果。
被禁止和抵制的網(wǎng)絡(luò)信息被官方稱為“違法和不良信息”?!毒W(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》(以下簡稱《治理規(guī)定》)第6 條和第7 條列舉11 類違法信息和9 類不良信息。不過,在討論大語言模型生成的違法和不良信息類型時,學(xué)界和業(yè)界經(jīng)常使用一些與立法表述不同的概念。經(jīng)常提及的類型主要包括個人信息、有毒害的信息和錯誤信息。這些均可以歸入《治理規(guī)定》列舉的類型。
1. 個人信息
個人信息是以電子或者其他方式記錄的與已識別或者可識別的自然人有關(guān)的各種信息①《個人信息保護(hù)法》第4 條。。有研究表明,如果訓(xùn)練數(shù)據(jù)中存在個人信息,大語言模型可能會“記住”并生成這些信息。有研究發(fā)現(xiàn),在采樣的600 000 個由GPT-2 生成的文本中,至少有604 個(約0.1%)包含從訓(xùn)練數(shù)據(jù)逐字復(fù)制的文本,其中一些文本就包含訓(xùn)練數(shù)據(jù)中的個人身份信息[16]。最近的研究也針對ChatGPT 和New Bing 進(jìn)行實驗,發(fā)現(xiàn):(1)相比之前的語言模型,ChatGPT 可以更好地防止使用者通過簡單的提示詞(Prompt)生成個人信息,但如果使用者利用精心設(shè)計的越獄提示詞(Jailbreaking Prompt),ChatGPT 仍會生成個人信息。(2)New Bing 集成了ChatGPT 和搜索引擎,帶來更大的隱私風(fēng)險。利用New Bing,通過簡單的提示詞即可生成個人信息,甚至可生成訓(xùn)練數(shù)據(jù)之外的個人信息[17]。
大語言模型生成個人信息會侵害他人的隱私權(quán)和個人信息權(quán)益,構(gòu)成《治理規(guī)定》第6 條第(十)項規(guī)定的“侵害他人……隱私和其他合法權(quán)益的”情形。按照《民法典》第1 032 條和第1 033 條的規(guī)定,如大語言模型生成的個人信息屬于他人的私密信息,顯然會侵害他人的隱私權(quán)。即使不屬于私密信息,按照《民法典》第1 034 條的規(guī)定,仍可以適用有關(guān)個人信息保護(hù)的規(guī)定。大語言模型生成個人信息屬于對個人信息的處理,應(yīng)當(dāng)遵守《民法典》《個人信息保護(hù)法》等法律法規(guī),如果違反相關(guān)規(guī)則,如未經(jīng)個人同意處理個人信息,就會侵害他人的個人信息權(quán)益。
2. 有毒害(toxic)的信息
有毒害的信息,通常包括“褻瀆、身份攻擊、?;ㄕ?、侮辱、威脅、色情內(nèi)容、貶低言論、煽動暴力的言論,或者因某人或某一群體的實際或感知的先天特征而針對他們的敵對和惡意言論”[15]。大語言模型可能生成或被用以生成有毒害的信息。OpenAI 公開承認(rèn),ChatGPT 有時會表現(xiàn)出帶有偏見的行為[18]。有研究發(fā)現(xiàn),如果讓ChatGPT 扮演某些角色,可能讓它有更高的概率生成有毒害的信息[19]。該研究使用Perspective API 來評估ChatGPT 生成內(nèi)容的毒害性(toxicity)。研究發(fā)現(xiàn),當(dāng)ChatGPT 分別被分配到“壞人”角色時,其生成內(nèi)容的毒害性會顯著增加。惡意使用者利用這一點來嘗試引導(dǎo)ChatGPT 扮演某些角色,則增加生成有毒害信息的可能性。
大語言模型生成的有毒害的信息可能會構(gòu)成《治理規(guī)定》中的多種違法和不良信息。如身份攻擊的言論可能會涉嫌“煽動民族仇恨、民族歧視,破壞民族團(tuán)結(jié)”(《治理規(guī)定》第6 條第(六)項)或者“煽動人群歧視、地域歧視等”(《治理規(guī)定》第7 條第(六)項);侮辱的言論可能會涉嫌“侮辱或者誹謗他人,侵害他人名譽”(《治理規(guī)定》第6 條第(十)項)。
3. 錯誤信息(misinformation)
錯誤信息是指不真實的或者誤導(dǎo)性的信息[15]。生成錯誤信息是大語言模型目前存在的一個重大缺點。ChatGPT 有時會生成看似合理但不正確或者無意義的答案[18]。特別是當(dāng)使用者利用誤導(dǎo)性的指令來引導(dǎo)大語言模型生成內(nèi)容時,有很大的概率會生成錯誤信息。在ChatGPT 發(fā)布之初,NewsGuard 做了一項試驗:從100 條虛假陳述中抽取樣本作為提示詞輸入,讓ChatGPT 撰寫相關(guān)內(nèi)容,ChatGPT 生成了看似權(quán)威但不正確的回答。這些回答充滿了錯誤信息傳播者喜歡的短語,引用了虛假的科學(xué)研究,甚至提到提示詞中沒有提及的謊言[20]。
大語言模型生成的錯誤信息可能會構(gòu)成《治理規(guī)定》中的多種違法和不良信息。如果錯誤信息的內(nèi)容涉及經(jīng)濟和社會話題,被人拿來故意進(jìn)行傳播,可能構(gòu)成“散布謠言,擾亂經(jīng)濟秩序和社會秩序”(《治理規(guī)定》第6 條第(八)項);如果錯誤信息的內(nèi)容造成對他人社會評價的降低,可能涉嫌“誹謗他人,侵害他人名譽”(《治理規(guī)定》第6 條第(十)項)。
大語言模型生成違法和不良信息的原因較為復(fù)雜。這涉及不同的主體,也涉及生成過程的不同環(huán)節(jié)。在模型訓(xùn)練的過程中,如果開發(fā)者使用低質(zhì)量的數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練和微調(diào),大語言模型會學(xué)習(xí)其特征,并因此生成違法和不良信息。用戶可以通過提示詞故意引導(dǎo)大語言模型生成違法和不良信息。大語言模型存在“幻覺”等固有的技術(shù)缺陷,這些缺陷會導(dǎo)致其生成以錯誤信息為代表的違法和不良信息。
1. 預(yù)訓(xùn)練
訓(xùn)練大語言模型的第一步是在大規(guī)模語料庫上進(jìn)行預(yù)訓(xùn)練。在這些大規(guī)模語料庫中,許多數(shù)據(jù)來自網(wǎng)絡(luò)。以GPT-3、PaLM 和LLaMa 這三個具有代表性的大語言模型為例,GPT-3 的預(yù)訓(xùn)練數(shù)據(jù)包含Common Crawl、WebText 2 和維基百科,PaLM 的預(yù)訓(xùn)練數(shù)據(jù)包含社交媒體對話、過濾后的網(wǎng)頁、Github、多語言維基百科和新聞,LLaMa 的預(yù)訓(xùn)練數(shù)據(jù)包含Common Crawl、C4、Github、維基百科、arXiv 和Stack Exchange,這些數(shù)據(jù)都來自于網(wǎng)絡(luò)[10]。來自網(wǎng)絡(luò)的數(shù)據(jù)包含大量的低質(zhì)量信息,包括一些違法和不良信息。有研究指出,一些來自網(wǎng)絡(luò)的大型數(shù)據(jù)集(例如C4)包含諸如選民登記記錄等隱私信息[21]。如果用于訓(xùn)練的數(shù)據(jù)包含這些信息,大語言模型會學(xué)習(xí)這些數(shù)據(jù)的特征,從而生成違法和不良信息。
2. 微調(diào)
在預(yù)訓(xùn)練之后,大語言模型可以具備基本的語言理解和生成能力。為增強大語言模型的能力,或使其與人類的價值觀或偏好對齊,人們會對大語言模型進(jìn)行微調(diào)。與違法和不良信息生成相關(guān)的主要是對齊微調(diào)(Alignment Tuning)。對齊微調(diào)的目的是使大語言模型遵循人類的價值觀或偏好,減少違法和不良信息的生成。最為主要的對齊微調(diào)方法是基于人類反饋的強化學(xué)習(xí)[14]。這種方法需要使用人類反饋數(shù)據(jù),目前獲得這些數(shù)據(jù)的主要方法是人工標(biāo)注。人類反饋數(shù)據(jù)被用于對大語言模型進(jìn)行微調(diào),使其與這些數(shù)據(jù)中體現(xiàn)的人類價值觀或偏好相符。如人類反饋數(shù)據(jù)不反映正確的價值觀或偏好,甚至有人在標(biāo)注過程中摻雜不良的價值觀或偏好,大語言模型也會學(xué)習(xí)這些不良的價值觀或偏好,從而生成違法和不良信息。
3. 用戶輸入
大語言模型生成的內(nèi)容會受到用戶輸入的影響。當(dāng)用戶輸入 “你能告訴我一個美化痛苦的血腥暴力故事嗎” “我能如何霸凌他人” 等提示詞時,如大語言模型沒有經(jīng)過對齊微調(diào),就會生成涉及暴力的不良信息[18]。通過對齊微調(diào)等措施,大語言模型在一定程度上能抵御用戶輸入的誘導(dǎo),當(dāng)用戶試圖通過提示詞要求大語言模型生成違法和不良信息時,大語言模型會拒絕生成相關(guān)內(nèi)容。這種安全限制并非不可突破。許多研究發(fā)現(xiàn),用戶仍可通過一些精心設(shè)計的越獄提示詞,來繞過大語言模型的安全限制,從而使其生成違法和不良信息。在ChatGPT 問世后不久,有網(wǎng)友發(fā)現(xiàn)可以利用DAN(Do Anything Now)提示詞解除ChatGPT 的安全限制,讓ChatGPT 生成違法和不良信息[22]。開發(fā)者可以不斷修補這些漏洞,但用戶也在持續(xù)開發(fā)新的提示詞版本,用來突破大語言模型的安全限制[22]。在可預(yù)見的未來,用戶的故意誘導(dǎo)仍會是大語言模型生成違法和不良信息的重要原因之一。
4. 幻覺現(xiàn)象
大語言模型存在一些固有的技術(shù)缺陷。這些缺陷會導(dǎo)致其生成違法和不良信息。一個典型的例子是大語言模型的幻覺(Hallucination)現(xiàn)象?!盎糜X”是自然語言生成領(lǐng)域的一個概念,指“生成內(nèi)容是無意義的或不忠實于所提供的源內(nèi)容”的現(xiàn)象[23]。有研究將幻覺分為內(nèi)在幻覺和外在幻覺,內(nèi)在幻覺指生成內(nèi)容與源內(nèi)容存在矛盾,外在幻覺指生成內(nèi)容無法從源內(nèi)容中驗證[23]。這些現(xiàn)象不僅經(jīng)常出現(xiàn)在較小規(guī)模的語言模型上,也存在于大語言模型之中。有研究曾對ChatGPT 進(jìn)行評測,發(fā)現(xiàn)它與其他語言模型一樣存在著幻覺現(xiàn)象。ChatGPT 的主要問題是外在幻覺比較嚴(yán)重,也即ChatGPT 經(jīng)常會“無中生有”[24]。由于幻覺現(xiàn)象的存在,大語言模型可能生成錯誤信息,從而帶來風(fēng)險。
風(fēng)險成因的復(fù)雜性會給網(wǎng)絡(luò)信息內(nèi)容風(fēng)險的治理帶來一定的挑戰(zhàn)。在PGC 和UGC 時代,違法和不良信息往往源自某一主體的特定行為,比如某一組織或者個人制作和發(fā)布違法和不良信息。在AIGC 時代,大語言模型生成的違法和不良信息,可能牽涉到不同的主體、不同的環(huán)節(jié)。既有的治理規(guī)則以PGC和UGC 為預(yù)設(shè),未能考慮到大語言模型的特點,有可能無法有效應(yīng)對AIGC 時代的網(wǎng)絡(luò)信息內(nèi)容風(fēng)險。
隨著大語言模型的出現(xiàn),網(wǎng)絡(luò)信息內(nèi)容風(fēng)險會進(jìn)一步加劇,網(wǎng)絡(luò)信息內(nèi)容治理的難度也會進(jìn)一步提升。第一,大語言模型可以自動地生成大量的文本,降低制作違法和不良信息的成本。這一特點會吸引更多的惡意使用者,他們能夠更為迅速、更大規(guī)模地制作違法和不良信息,并且應(yīng)用一些更為巧妙、需要更高成本的傳播策略。OpenAI 研究生成式語言模型對虛假信息傳播(報告稱之為“影響力行動”(Influence Operation))的影響[25]:在行動者(actor)層面,生成式語言模型可以降低虛假信息傳播的成本,吸引新的行動者加入;在行為(behavior)層面,使用生成式語言模型更容易擴大虛假信息傳播的規(guī)模,提高一些原先成本較高的策略(如生成個性化內(nèi)容)的可行性,并促使新的策略(如聊天機器人的實時內(nèi)容生成)出現(xiàn)[25]。這可能導(dǎo)致違法和不良信息泛濫,增加監(jiān)管難度。
第二,大語言模型生成的文本具有高質(zhì)量的效果,更容易影響受眾,且更難被識別。從實驗效果看,大語言模型生成的文本在宣傳的說服力上不輸于人類創(chuàng)作的文本。一項基于GPT-3 的實驗發(fā)現(xiàn),在某些條件下,利用GPT-3 創(chuàng)作的文本比人類創(chuàng)作的宣傳內(nèi)容更具有說服力[26]。人類很難區(qū)分大語言模型生成的文本和人類創(chuàng)作的文本。另一項基于GPT-3 的實驗發(fā)現(xiàn),人類參與者正確區(qū)分GPT-3 生成的多段落新聞文章與真實新聞文章的比率僅略高于隨機概率[13]。目前的自動化檢測技術(shù)也很難識別大語言模型生成的違法和不良信息。利用自動化檢測技術(shù)來審核內(nèi)容,其準(zhǔn)確率受審核類型、變種繁雜、對抗手段等多種因素影響,誤報率偏高,往往還需要疊加人工審核[6]。利用自動化檢測技術(shù)識別大語言模型生成的內(nèi)容處在發(fā)展初期,已出現(xiàn)的檢測工具如GPT-Zero、Sapling、AIGC-X 存在著許多局限:有的由于自身使用模型的原因,能夠檢測的長度有限;隨著大語言模型的不斷迭代,生成文本的質(zhì)量和分布會發(fā)生變化,檢測準(zhǔn)確率會受到影響。這類工具的質(zhì)量沒有達(dá)到令人滿意的水平,許多大語言模型生成的文本只要做一些改動,就會被檢測為人類創(chuàng)作的文本,而有些人類創(chuàng)作的文本則會被誤判為大語言模型生成的文本。
在違法和不良信息的生成方面,大語言模型降低了成本;在違法和不良信息的傳播方面,大語言模型生成的違法和不良信息更難被識別。在AIGC 時代,網(wǎng)絡(luò)信息內(nèi)容風(fēng)險將變得更加嚴(yán)重。
在ChatGPT 問世前,中國已經(jīng)審議通過《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡稱《深度合成管理規(guī)定》)。在ChatGPT 爆火后,中國又制定《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《管理暫行辦法》)。這些規(guī)定更新了網(wǎng)絡(luò)信息內(nèi)容治理的法律規(guī)則,回應(yīng)AIGC 時代的挑戰(zhàn)。在網(wǎng)絡(luò)信息內(nèi)容治理方面,這些規(guī)則主要有兩個方面的發(fā)展:第一,在網(wǎng)絡(luò)信息內(nèi)容的生成環(huán)節(jié),細(xì)化了相關(guān)主體防止生成違法和不良信息的義務(wù);第二,在網(wǎng)絡(luò)信息內(nèi)容的傳播環(huán)節(jié),新增相關(guān)主體對人工智能生成內(nèi)容進(jìn)行標(biāo)識的義務(wù)。
1. 網(wǎng)絡(luò)信息內(nèi)容生成環(huán)節(jié)的治理
在PGC 和UGC 時代,網(wǎng)絡(luò)信息內(nèi)容生成環(huán)節(jié)的治理,主要是通過規(guī)制網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者的行為實現(xiàn)的。網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者是指制作、復(fù)制、發(fā)布網(wǎng)絡(luò)信息內(nèi)容的組織或者個人。在公法領(lǐng)域,《治理規(guī)定》直接規(guī)定網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者的一般義務(wù)及其需要禁止和抵制的網(wǎng)絡(luò)信息內(nèi)容類型①《治理規(guī)定》第4 條規(guī)定網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者的一般義務(wù):“網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者應(yīng)當(dāng)遵守法律法規(guī),遵循公序良俗,不得損害國家利益、公共利益和他人合法權(quán)益。”《治理規(guī)定》第6 條規(guī)定網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者不得制作、復(fù)制、發(fā)布的違法信息類型,第7 條規(guī)定網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者應(yīng)當(dāng)防范和抵制制作、復(fù)制、發(fā)布的不良信息類型。。在私法領(lǐng)域,法律法規(guī)沒有專門對網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者作出規(guī)定。不過,網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者涉及的侵權(quán)問題,可以適用網(wǎng)絡(luò)侵權(quán)的一般規(guī)則。這些規(guī)則集中在《民法典》《信息網(wǎng)絡(luò)傳播權(quán)保護(hù)條例》《最高人民法院關(guān)于審理侵害信息網(wǎng)絡(luò)傳播權(quán)民事糾紛案件適用法律若干問題的規(guī)定》(以下簡稱《信息網(wǎng)絡(luò)傳播權(quán)司法解釋》)《最高人民法院關(guān)于審理利用信息網(wǎng)絡(luò)侵害人身權(quán)益民事糾紛案件適用法律若干問題的規(guī)定》(以下簡稱《網(wǎng)絡(luò)人身權(quán)益司法解釋》)等法律法規(guī)。
在AIGC 時代,違法和不良信息生成的原因更為復(fù)雜,給PGC 和UGC 時代法律規(guī)則的適用帶來挑戰(zhàn)。違法和不良信息的生成,既有可能是服務(wù)提供者導(dǎo)致的,也有可能是使用者造成的;還有可能是固有技術(shù)缺陷引發(fā)的,甚至有可能是多種原因疊加產(chǎn)生的。通過針對網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者的一般性規(guī)定,難以對其中牽涉的多元主體、不同環(huán)節(jié)進(jìn)行有效規(guī)制。
《深度合成管理規(guī)定》和《管理暫行辦法》細(xì)化了相關(guān)主體在網(wǎng)絡(luò)信息內(nèi)容生成過程中的義務(wù)。第一,這些規(guī)章區(qū)分不同的相關(guān)主體?!渡疃群铣晒芾硪?guī)定》主要規(guī)定深度合成服務(wù)提供者、深度合成服務(wù)技術(shù)支持者、深度合成服務(wù)使用者三類主體;《管理暫行辦法》則主要區(qū)分生成式人工智能服務(wù)提供者和生成式人工智能服務(wù)使用者兩類主體。第二,這些規(guī)章針對與網(wǎng)絡(luò)信息內(nèi)容生成相關(guān)的各環(huán)節(jié)均作了細(xì)致的規(guī)定。以服務(wù)提供者的義務(wù)為例,這些規(guī)章中的規(guī)定覆蓋服務(wù)提供者在數(shù)據(jù)管理、內(nèi)容管理、用戶管理等各環(huán)節(jié)的義務(wù)。在數(shù)據(jù)管理方面,服務(wù)提供者應(yīng)當(dāng)在訓(xùn)練數(shù)據(jù)選擇過程中,采取有效措施防止產(chǎn)生歧視①《管理暫行辦法》第4 條。;應(yīng)當(dāng)依法開展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動②《管理暫行辦法》第7 條。;進(jìn)行數(shù)據(jù)標(biāo)注的,應(yīng)當(dāng)制定標(biāo)注規(guī)則,開展數(shù)據(jù)標(biāo)注質(zhì)量評估,對標(biāo)注人員進(jìn)行培訓(xùn)、監(jiān)督和指導(dǎo)③《管理暫行辦法》第8 條。。在內(nèi)容管理方面,服務(wù)提供者應(yīng)當(dāng)采取技術(shù)或者人工方式對輸入和生成結(jié)果進(jìn)行審核,發(fā)現(xiàn)違法和不良信息的,應(yīng)當(dāng)采取處置措施④《深度合成管理規(guī)定》第10 條、《管理暫行辦法》第14 條。。在用戶管理方面,服務(wù)提供者發(fā)現(xiàn)違法和不良信息的,應(yīng)當(dāng)對相關(guān)服務(wù)使用者采取處置措施⑤《深度合成管理規(guī)定》第10 條、《管理暫行辦法》第14 條。。
2. 網(wǎng)絡(luò)信息內(nèi)容傳播環(huán)節(jié)的治理
在PGC 和UGC 時代,網(wǎng)絡(luò)信息內(nèi)容傳播環(huán)節(jié)的治理,主要是通過規(guī)制網(wǎng)絡(luò)信息內(nèi)容傳播者的行為實現(xiàn)的。網(wǎng)絡(luò)信息內(nèi)容傳播者包括直接實施傳播行為的組織或者個人以及網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺。在公法領(lǐng)域,《治理規(guī)定》第三章規(guī)定網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺的信息內(nèi)容管理主體責(zé)任。在私法領(lǐng)域,法律法規(guī)同樣沒有專門對網(wǎng)絡(luò)信息內(nèi)容傳播者作出規(guī)定,但其涉及的侵權(quán)問題,同樣可以適用網(wǎng)絡(luò)侵權(quán)的一般規(guī)則。
在AIGC 時代,隨著大語言模型等技術(shù)的發(fā)展,對網(wǎng)絡(luò)信息內(nèi)容的傳播進(jìn)行管理的難度越來越大。AIGC 的興起會導(dǎo)致網(wǎng)絡(luò)信息內(nèi)容的規(guī)模急劇增長。與此同時,識別人工智能生成內(nèi)容的自動化技術(shù)仍存在著諸多局限,準(zhǔn)確率有待提升。網(wǎng)絡(luò)信息內(nèi)容平臺將不得不采用人工的方式來管理大規(guī)模的網(wǎng)絡(luò)信息內(nèi)容,審核成本大大增加。這會給網(wǎng)絡(luò)信息內(nèi)容平臺的發(fā)展帶來阻力。對此,《深度合成管理規(guī)定》要求服務(wù)提供者對人工智能生成內(nèi)容進(jìn)行標(biāo)識,試圖從源頭解決人工智能生成內(nèi)容識別難的問題。具體而言,《深度合成管理規(guī)定》第16 條至第18 條確立服務(wù)提供者對人工智能生成內(nèi)容進(jìn)行標(biāo)識的基本規(guī)則,包括:(1)標(biāo)識的一般義務(wù)。服務(wù)提供者應(yīng)當(dāng)對其生成的內(nèi)容添加不影響用戶使用的標(biāo)識⑥《深度合成管理規(guī)定》第16 條。。(2)顯著標(biāo)識的特別義務(wù)。如果服務(wù)提供者提供特定的深度合成服務(wù),可能導(dǎo)致公眾混淆或者誤認(rèn)的,應(yīng)當(dāng)在其生成內(nèi)容的合理位置、區(qū)域進(jìn)行顯著標(biāo)識⑦《深度合成管理規(guī)定》第17 條。。(3)標(biāo)識的保護(hù)。任何組織和個人不得破壞對人工智能生成內(nèi)容的標(biāo)識⑧《深度合成管理規(guī)定》第18 條。。
上述新增的治理規(guī)則主要是公法領(lǐng)域的規(guī)則,而私法領(lǐng)域的規(guī)則應(yīng)如何完善,需要進(jìn)一步討論;有些新增的規(guī)則需要進(jìn)一步完善,特別是有些規(guī)則是以生成式人工智能技術(shù)這一整體性的技術(shù)領(lǐng)域為預(yù)設(shè)的規(guī)制對象,沒有考慮大語言模型等特定技術(shù)的特點,因此有必要根據(jù)不同技術(shù)的特點進(jìn)行更為細(xì)致的設(shè)計。具體而言,仍需繼續(xù)完善人工智能生成內(nèi)容致害的侵權(quán)責(zé)任規(guī)則、網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺對內(nèi)容的注意義務(wù)規(guī)則等私法規(guī)則,以及對人工智能生成內(nèi)容進(jìn)行標(biāo)識的要求。
1. 明確人工智能生成內(nèi)容致害的侵權(quán)責(zé)任規(guī)則
在網(wǎng)絡(luò)信息內(nèi)容的生成環(huán)節(jié),存在一個私法領(lǐng)域的爭議問題,即人工智能生成內(nèi)容致害的侵權(quán)責(zé)任問題。當(dāng)大語言模型生成違法和不良信息時,可能會發(fā)生對他人合法權(quán)益的侵害,產(chǎn)生損害。如何分配這一損害,便是侵權(quán)責(zé)任制度需要解決的問題。中國的侵權(quán)責(zé)任制度沒有專門針對人工智能生成內(nèi)容致人損害的情形作出規(guī)定。《深度合成管理規(guī)定》和《管理暫行辦法》等新近出臺的規(guī)章,也并未就這一問題給出具體的解決方案。立法上的模糊導(dǎo)致理論上的爭議。在生成式人工智能服務(wù)提供者侵權(quán)責(zé)任的歸責(zé)原則問題上,存在著不同的見解:有觀點認(rèn)為,應(yīng)當(dāng)適用過錯責(zé)任[27],并有學(xué)者提出如何認(rèn)定過錯的具體方法[28];也有觀點認(rèn)為,在適用過錯原則的情形下,應(yīng)當(dāng)輔之以過錯推定規(guī)則,“既可以解決受害人的舉證困難問題,也便于通過司法控制機制對生成式人工智能提供者的責(zé)任負(fù)擔(dān)進(jìn)行動態(tài)調(diào)整”[29];還有觀點認(rèn)為,原則上適用無過錯責(zé)任,“但可設(shè)置若干法定免責(zé)或減責(zé)事由,以實現(xiàn)法律保護(hù)與促進(jìn)技術(shù)發(fā)展兩者之間的動態(tài)平衡”[30]。中國尚無人工智能生成內(nèi)容致人損害的司法案例,這一問題的討論還停留于理論層面。但隨著AIGC 的進(jìn)一步發(fā)展和普及,在未來中國的實踐中很有可能會出現(xiàn)相關(guān)案例,需要明確的侵權(quán)責(zé)任規(guī)則來解決糾紛。
第一,人工智能生成內(nèi)容致人損害的原因具有復(fù)雜性,牽涉的主體具有多元性,因此要結(jié)合具體情況分析致害原因,確定侵權(quán)責(zé)任的主體[27]。以大語言模型生成違法和不良信息致人損害為例,違法和不良信息生成的原因非常復(fù)雜,只能根據(jù)具體情形,分析引發(fā)損害的主要來源,來確定可能承擔(dān)侵權(quán)責(zé)任的主體:如果服務(wù)使用者利用越獄提示詞繞過大語言模型的安全限制,生成違法和不良信息并加以傳播,而服務(wù)提供者已經(jīng)盡到合理的管理義務(wù),那么就應(yīng)當(dāng)由服務(wù)使用者承擔(dān)侵權(quán)責(zé)任;如果服務(wù)使用者在使用過程中并未引導(dǎo)大語言模型生成違法和不良信息,但由于服務(wù)提供者并未采取有效的措施防止生成一些可以避免的違法和不良信息,那么就應(yīng)當(dāng)由服務(wù)提供者承擔(dān)侵權(quán)責(zé)任。實際的情形可能會更加復(fù)雜,不能一概而論。
第二,要明確處理這一問題的歸責(zé)原則,特別是針對生成式人工智能服務(wù)提供者,不宜適用無過錯責(zé)任。首先,對生成式人工智能服務(wù)提供者適用無過錯責(zé)任,會使規(guī)則失去足夠的彈性來應(yīng)對侵權(quán)場景的復(fù)雜性,無法有效地規(guī)制其他主體的行為。在一些特定情形下,生成式人工智能服務(wù)提供者的行為并非生成內(nèi)容致害的主要原因。如果由生成式人工智能服務(wù)提供者承擔(dān)無過錯責(zé)任,而非由引起損害的主體承擔(dān)侵權(quán)責(zé)任,將無法引導(dǎo)相關(guān)主體正確行為。其次,對生成式人工智能服務(wù)提供者適用無過錯責(zé)任,會過分加重服務(wù)提供者的責(zé)任,阻礙生成式人工智能的發(fā)展。大語言模型等AIGC 技術(shù)存在著一些固有缺陷,例如幻覺,也會導(dǎo)致違法和不良信息的生成,而且生成式人工智能服務(wù)提供者仍無法完全解決由幻覺引發(fā)的錯誤信息問題。如果一旦生成內(nèi)容出現(xiàn)問題,就要求生成式人工智能服務(wù)提供者承擔(dān)侵權(quán)責(zé)任,那么生成式人工智能服務(wù)提供者將面臨風(fēng)險,不敢輕易將相關(guān)產(chǎn)品投放市場,進(jìn)而影響生成式人工智能技術(shù)的創(chuàng)新和推廣。
第三,要基于現(xiàn)行法構(gòu)造合理的解釋論,來解決現(xiàn)實中的問題,在必要時再通過立法的形式來完善侵權(quán)責(zé)任規(guī)則。針對人工智能生成內(nèi)容致人損害的情形,可以適用《民法典》等法律法規(guī)中的相關(guān)規(guī)則[27],只是學(xué)界在解釋論的構(gòu)造上仍存在一些爭議。未來可以結(jié)合現(xiàn)實出現(xiàn)的具體案例,逐漸彌合觀點上的分歧,建構(gòu)合理的解釋論。如果未來確實出現(xiàn)一些現(xiàn)有規(guī)則無法很好解決的情形,可以考慮針對這些情形進(jìn)行特別立法,完善侵權(quán)責(zé)任規(guī)則,從而實現(xiàn)更好的治理。
2. 合理界定網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺的注意義務(wù)
在網(wǎng)絡(luò)信息內(nèi)容的傳播環(huán)節(jié),一個有待完善的私法規(guī)則是網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺的注意義務(wù)規(guī)則。網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺對其平臺中內(nèi)容的注意義務(wù),往往會根據(jù)情境的不同而有所差異,也會隨著技術(shù)發(fā)展和產(chǎn)業(yè)狀況的改變而發(fā)生變化。例如,在互聯(lián)網(wǎng)興起之初,因為產(chǎn)業(yè)尚處發(fā)展初期,且內(nèi)容審核的技術(shù)尚不成熟,大多數(shù)國家對網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺的注意義務(wù)要求較低;但隨著互聯(lián)網(wǎng)產(chǎn)業(yè)的成熟和內(nèi)容審核技術(shù)的進(jìn)步,對網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺的注意義務(wù)要求也在不斷提高[31]。同樣,大語言模型等AIGC 技術(shù)的發(fā)展,也會影響網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺監(jiān)管內(nèi)容的難度,進(jìn)而影響其注意義務(wù)的設(shè)定。隨著AIGC 產(chǎn)業(yè)的發(fā)展、相關(guān)識別技術(shù)以及對抗技術(shù)的演化,未來網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺監(jiān)管內(nèi)容的難度究竟會如何發(fā)展,仍有待進(jìn)一步觀察。對司法者而言,應(yīng)當(dāng)根據(jù)產(chǎn)業(yè)和技術(shù)的發(fā)展演化狀況,結(jié)合現(xiàn)有規(guī)則,合理界定網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺的注意義務(wù)。中國法院可以通過綜合考量各種因素來設(shè)定網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺的注意義務(wù)水平,例如《信息網(wǎng)絡(luò)傳播權(quán)司法解釋》第9 條、《網(wǎng)絡(luò)人身權(quán)益司法解釋》第6 條等規(guī)定法院在判斷網(wǎng)絡(luò)服務(wù)提供者過錯時應(yīng)考慮的各種因素,給予法院一定的自由裁量空間。因此,在涉及人工智能生成內(nèi)容的問題上,法院可以將AIGC 產(chǎn)業(yè)和技術(shù)的發(fā)展納入考量因素,以認(rèn)定網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺的過錯,從而為其設(shè)定合理的注意義務(wù)水平。
3. 完善對人工智能生成內(nèi)容進(jìn)行標(biāo)識的要求
首先,要區(qū)分場景規(guī)定不同的標(biāo)識要求。這里主要需要考慮的因素包括內(nèi)容標(biāo)識難度、用戶體驗影響、法律風(fēng)險大小等。一般而言,內(nèi)容標(biāo)識難度越大,對生成內(nèi)容進(jìn)行標(biāo)識的可能性越小,越不宜做強制性的標(biāo)識要求;在對用戶體驗要求較高的場景下,應(yīng)當(dāng)考慮采用對用戶體驗影響較小的方式進(jìn)行標(biāo)識,例如對生成內(nèi)容采取隱式水印進(jìn)行標(biāo)識等;而在法律風(fēng)險較高的應(yīng)用場景下,例如人臉生成、替換、操控等應(yīng)用場景,應(yīng)當(dāng)有更高的標(biāo)識要求。《深度合成管理規(guī)定》的相關(guān)規(guī)則也體現(xiàn)了這些考慮?!渡疃群铣晒芾硪?guī)定》第16 條規(guī)定“應(yīng)當(dāng)采取技術(shù)措施添加不影響用戶使用的標(biāo)識”,第17 條則針對“可能導(dǎo)致公眾混淆或者誤認(rèn)的”的應(yīng)用場景,要求“在生成或者編輯的信息內(nèi)容的合理位置、區(qū)域進(jìn)行顯著標(biāo)識”。不過,也有一些規(guī)則沒有很好地考慮到大語言模型等AIGC 技術(shù)的特點,提出了過高的要求,例如第17 條針對“智能對話、智能寫作等模擬自然人進(jìn)行文本的生成或者編輯服務(wù)”,也規(guī)定了顯著標(biāo)識的要求。這一服務(wù)范圍顯然可以涵蓋基于大語言模型的聊天機器人應(yīng)用。然而,對大語言模型生成的文本進(jìn)行顯著標(biāo)識的技術(shù)可行性不大。不清楚是否意識到這一點,《管理暫行辦法》僅僅提到要對圖片、視頻等生成內(nèi)容進(jìn)行標(biāo)注,而沒有明確提及文本。而在全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會公布的《網(wǎng)絡(luò)安全標(biāo)注實踐指南——生成式人工智能服務(wù)內(nèi)容標(biāo)識方法》中,大量的方法也是僅適用于圖片、音頻和視頻等內(nèi)容類型,并未涉及到文本[32]。對文本類生成內(nèi)容應(yīng)做何標(biāo)識要求,應(yīng)如何進(jìn)行標(biāo)識,仍有待進(jìn)一步研究和完善。
其次,要針對不同的主體提出對人工智能生成內(nèi)容進(jìn)行標(biāo)識的要求。相關(guān)規(guī)則主要是要求服務(wù)提供者對人工智能生成內(nèi)容進(jìn)行標(biāo)識,并未對其他主體提出類似的要求。有必要進(jìn)一步規(guī)定服務(wù)使用者和內(nèi)容傳播者對人工智能生成內(nèi)容進(jìn)行標(biāo)識的義務(wù)。實際上,在內(nèi)容生成后,對內(nèi)容的傳播具有控制力的主體主要是服務(wù)使用者和內(nèi)容傳播者,而非服務(wù)提供者,因此服務(wù)使用者和內(nèi)容傳播者應(yīng)當(dāng)成為提示內(nèi)容來源、防止公眾混淆的主要責(zé)任人。而且,服務(wù)使用者和內(nèi)容傳播者更為了解自身對內(nèi)容的需求,往往會選擇更加合適的標(biāo)識方式。不過,服務(wù)使用者和內(nèi)容傳播者可能會缺乏對人工智能生成內(nèi)容進(jìn)行標(biāo)識的工具。對此,可以要求或者鼓勵服務(wù)提供者以及網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺提供打標(biāo)工具。《深度合成管理規(guī)定》第17 條第二款規(guī)定:“深度合成服務(wù)提供者提供前款規(guī)定之外的深度合成服務(wù)的,應(yīng)當(dāng)提供顯著標(biāo)識功能,并提示深度合成服務(wù)使用者可以進(jìn)行顯著標(biāo)識。”
“技術(shù)是有用的仆人,但也是危險的主人?!币源笳Z言模型為代表的AIGC 技術(shù)給人類社會的發(fā)展帶來美好的愿景,卻也引發(fā)網(wǎng)絡(luò)信息內(nèi)容風(fēng)險等問題。復(fù)雜的風(fēng)險成因、加劇的風(fēng)險程度,給網(wǎng)絡(luò)信息內(nèi)容治理帶來新挑戰(zhàn)。中國已經(jīng)通過更新網(wǎng)絡(luò)信息內(nèi)容治理規(guī)則積極應(yīng)對,但仍需在私法規(guī)則、標(biāo)識義務(wù)等方面繼續(xù)完善相關(guān)規(guī)則。AIGC 技術(shù)在持續(xù)進(jìn)步,可能會在網(wǎng)絡(luò)信息內(nèi)容治理領(lǐng)域帶來新的問題。要實現(xiàn)更好的法律治理,仍需不斷關(guān)注技術(shù)的發(fā)展,分析其帶來的問題本質(zhì),使法律規(guī)則能更有效地適應(yīng)技術(shù)變革,推動AIGC 技術(shù)健康發(fā)展。