劉曉春 夏杰
生成式人工智能(AIGC),例如ChatGPT、Midjourney等的飛速發(fā)展,使得人工智能生成物與人類生成物之間的邊界越來越模糊,采取措施分辨這兩者,對于治理假新聞、知識產(chǎn)權保護、避免學術造假和維持人類社會的基本信任,都具有重大的意義。本文從現(xiàn)有法律法規(guī)對于人工智能生成物的標識義務出發(fā),探討這一合規(guī)義務目前的規(guī)制現(xiàn)狀、必要性以及落地展望。
2021年12月,中國國家網(wǎng)信辦發(fā)布的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》首次在法律文件層面規(guī)定了針對人工智能生成物的標識義務,其中第九條規(guī)定,算法推薦服務提供者發(fā)現(xiàn)未作顯著標識的算法生成合成信息的,應當作出顯著標識后,方可繼續(xù)傳輸。隨后的2022年11月,網(wǎng)信辦發(fā)布《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》,細化了這一標識制度,其第16條規(guī)定一般的標識義務;第17條將標識義務進行分類(一類是可能導致公眾混淆或者誤認的深度合成服務,深度合成服務提供者應當在生成或者編輯的信息內(nèi)容的合理位置、區(qū)域進行顯著標識;一類是其他深度合成服務,深度合成服務提供者應當提供顯著標識功能);第18條規(guī)定了其他組織和個人不得刪除、篡改、隱匿標識的義務。2023年6月網(wǎng)信辦發(fā)布《生成式人工智能服務管理辦法》,其第16條對這一標識義務進行了重申。2023年7月網(wǎng)信辦發(fā)布的《關于加強“自媒體”管理的通知》也在其第16條中對自媒體發(fā)布的內(nèi)容進行了規(guī)定,即“使用技術生成的圖片、視頻的,需明確標注系技術生成。”
歐盟《人工智能法案(2021年草案)》在第52條規(guī)定,人工智能提供者應當向自然人確保,其正在與人工智能系統(tǒng)進行交互,除非在某些用戶明顯知曉和使用的場景。而且這一義務不適用于經(jīng)過法律授權的用于偵察、預防、調(diào)查和起訴刑事犯罪的場景,除非這一系統(tǒng)用于公眾舉報刑事犯罪這一場景。生成或操控的圖片、音頻或視頻內(nèi)容容易像存在的人、物體、地方或其他實體/事件以及可能被錯誤地當成真實的人(深度偽造),其人工智能系統(tǒng)的使用者應當披露其生成的內(nèi)容已經(jīng)被人工生成或操縱。然而,上述義務不適用于如下場景:法律授權的偵察、預防、調(diào)查和起訴刑事犯罪;履行言論自由或歐盟基本權利憲章所賦予的藝術和科學自由的權利所必需;對第三方行使言論自由的適當保護。上述義務不區(qū)分人工智能系統(tǒng)的風險程度,屬于普遍適用的相關義務。2023年,歐盟《人工智能法案(2023年草案)》將這一義務專門寫進生成式人工智能的義務條款里。
美國國會眾議員TORRES在2023年6月提出《2023年人工智能披露法》議案,法案要求生成式人工智能應當在其生成物上標注“聲明:本物由人工智能生成(Disclaimer: this output has been generated by artificial intelligence. )”任何違反上述義務的主體,都被認為違反了FTC法案下的不公平或欺詐的行為,F(xiàn)TC有權依據(jù)《聯(lián)邦貿(mào)易委員會法》適用管轄、采取措施或賦予相關的義務。美國國會參議員Michael Bennet也向包括OpenAI、Google公司在內(nèi)的頭部人工智能公司寫信,要求這些頭部的科技公司給人工智能生成物內(nèi)容進行打標(label),并限制具有誤導用戶的相關內(nèi)容的傳播。這一義務并不是全新的要求,在美國加州2018年通過的《提升網(wǎng)絡透明度法(Bolstering Online Transparency Act)》中就有類似的規(guī)定,即任何使用聊天機器人(bot)與用戶進行交互時,如果沒有清晰、明確的披露,而誤導用戶關于其人工的身份而激勵用戶購買,或影響用戶選舉投票,在加州都是非法的行為。
除了法律上的要求之外,全球知名互聯(lián)網(wǎng)公司在其平臺治理實踐中也開始嘗試這一舉措。微軟公司2022年6月發(fā)布其透明度目標,該目標的第三個子項就是AI交互的披露(Disclosure of AI interaction),即微軟的AI系統(tǒng)應當告知用戶其正在與AI系統(tǒng)交互,或其正在使用AI系統(tǒng)生成或操作能以假亂真的圖像、聲音、視頻內(nèi)容。這一義務適用于:(1)與人交互的AI系統(tǒng),除非用戶明顯認知到這一環(huán)境和場景在使用AI系統(tǒng);(2)能生成或操作以假亂真的圖像、音頻或視頻內(nèi)容的AI系統(tǒng)。微軟公司也將這一要求納入到影響評估的一環(huán)。
綜上,中國、歐盟和美國都不約而同開始對人工智能的標識義務提出要求,有些國家是要求對人工智能本身提出標識的要求,例如歐盟;而有些國家是需要對人工智能生成物提出標識的要求,例如中國??梢?,關于人工智能的標識義務可以粗略區(qū)分為兩類:
第一類標識:針對人工智能技術本身的標識義務,例如標識某個產(chǎn)品是使用了人工智能技術的產(chǎn)品,目的是讓使用該產(chǎn)品的用戶明確知曉其中使用了人工智能技術。上述歐盟《人工智能法案(草案)》中的方案,以及微軟公司的行業(yè)實踐屬于此類。
第二類標識:針對人工智能生成物進行標識,例如對某個圖片、聲音或視頻采取技術措施等其進行標識,告知使用者其屬于人工智能生成的產(chǎn)品,當上述生成物傳播到人工智能系統(tǒng)之外時,也能讓其他第三方用戶明確知曉。中國網(wǎng)信辦的部門規(guī)章,以及美國參議員的提議均屬于此種類型。
對第一類涉人工智能技術的產(chǎn)品或服務的標識義務來說,告知用戶產(chǎn)品或服務帶有人工智能的屬性,是滿足消費者知情權的重要內(nèi)容,也對于用戶基本權利的保障具有重要的作用,例如在移民、邊境管理等領域,不論是否使用人工智能,其結果都可能對人類用戶的基本權利(如自由、非歧視、私人生活和個人數(shù)據(jù)的保護等)具有較大的影響,因此在這類領域中強制要求披露人工智能使用情況具有重大意義,而這也成為界定人工智能是否屬于高風險的重要依據(jù)之一。
對第二類人工智能生成物進行標識也具有多重必要性。
首先,目前生成式人工智能帶來的最大挑戰(zhàn)在于以假亂真的信息,例如假新聞、深度偽造信息、詐騙信息等,對人工智能生成物進行標識也成為解決這一問題的主要路徑。AI標識不僅能降低文字等內(nèi)容本身的可信任度,還能緩解人工智能內(nèi)容接收者在遭遇網(wǎng)暴等現(xiàn)象時的情感痛苦(emotional distress)。當網(wǎng)暴受害者了解到辱罵其的信息都是人工智能機器人生成的(例如具有類似群控軟件功能的聊天機器人Chatbot),網(wǎng)暴受害者對上述內(nèi)容的認知僅僅限于背后的機器人,這能極大程度上減少網(wǎng)暴受害者的感情壓力,僅僅將其歸類為某種網(wǎng)絡黑灰產(chǎn)。相反,倘若網(wǎng)暴受害者對于網(wǎng)暴內(nèi)容的認知是每一網(wǎng)暴內(nèi)容背后都代表著一個活生生的人,那這一精神上的壓力極有可能會造成較大的后果。
其次,對人工智能生成物進行標識屬于平臺廣義透明度的一部分,是典型的面向公眾的信息治理工具之一。透明度規(guī)制路徑是治理人工智能帶來的風險和危害的重要路徑之一。透明度規(guī)制路徑包括多種不同的方式,包括向監(jiān)管透明、向公眾透明、向上下游行業(yè)相關方透明,而對人工智能生成物進行標識就是典型的向公眾或消費者受眾透明的一種路徑,這一路徑很難被其他路徑取代,畢竟用戶只有對產(chǎn)品或服務進行親自使用時才會傾注足夠的注意力,單純在隱私政策或用戶協(xié)議里進行提醒或說明本產(chǎn)品是人工智能產(chǎn)品或服務,已經(jīng)不足以達到適當透明度的義務,即第一類標識實踐達不到第二類標識的作用。OECD(經(jīng)濟合作與發(fā)展組織)在2019年通過的報告(目前46個國家已通過)中明確指出,使相關主體知道其正在與AI系統(tǒng)進行交互應當成為AI系統(tǒng)透明度和可解釋性的關鍵一環(huán)。在歐盟最新的《人工智能法案(2023年草案)》中,關于透明度的定義,就包括讓人類用戶明確知曉其正在與人工智能系統(tǒng)進行交流或交互。
對人工智能的透明度是具有多個維度的系統(tǒng)性要求,通常目的是為了讓人們能夠理解人工智能系統(tǒng)是如何開發(fā)、訓練、部署、生成某個特定決策。特別是在某些特定的場景下,例如刑事犯罪、無人駕駛、金融或醫(yī)療、招聘等領域,對其中使用的人工智能系統(tǒng)有更高的透明度要求,甚至要給予相關受眾主體明確拒絕適用上述AI決策的權利。但這一透明度的要求在技術方面面臨較大的問題,主要表現(xiàn)在基于神經(jīng)網(wǎng)絡的機器學習算法在可解釋性上表現(xiàn)很弱,這一技術上的特點使得對于人工智能系統(tǒng)的內(nèi)部透明度遇到較大的阻礙,因此對于人工智能產(chǎn)品或生成物進行外表特征上的透明度成為較合適的替代補充選擇。
再次,對人工智能生成物進行標識,能夠解決AI生成物知識產(chǎn)權法上的相關難題。人工智能生成物是否可版權問題目前成為爭議的焦點問題之一。從最近美國版權局的政策文件來看,完全的人工智能生成物不應當被作為版權法保護的可版權客體,不應受到美國版權法的保護。其他一些知產(chǎn)學者和司法實踐也基本上傾向于這一觀點。倘若人工智能生成物不是可版權的客體,那么下一步的問題顯然是如何區(qū)分人工智能生成物和人工生成物,而當前這一制度能夠恰當?shù)亟鉀Q這一問題。
最后,對于人工智能生成物進行標識,能否明確告知人工智能使用者相關生成物的法律屬性,也是后續(xù)賦予人工智能使用者相關義務的基礎。如果人工智能技術或服務提供者不明確告知人工智能使用者或受眾相關生成物是否完全由人工智能技術產(chǎn)生,那要求人工智能使用者不得刪除、篡改的要求,將是不可能的任務。特別對于專業(yè)領域的使用者,這一標識義務更顯必要性,如新聞、學術或教育等領域的生成式人工智能內(nèi)容,對其進行標識能夠提醒相關專業(yè)研究者采取更多的措施對這一內(nèi)容進行驗證,這一標識能夠明確提醒專業(yè)使用者上述生成物內(nèi)容信息的可信程度。
在此意義上,人工智能生成內(nèi)容和深度合成內(nèi)容添加技術標識的實際落地,一方面固然需要政府的明確規(guī)定和推動執(zhí)行,另一方面,行業(yè)自發(fā)自主的主動作為,也是推動這一舉措全面應用的重要推動力。
近日,抖音作為知名的短視頻和直播平臺,發(fā)布了人工智能生成內(nèi)容治理規(guī)范,為行業(yè)提供人工智能內(nèi)容標識等技術能力和標準,包括為用戶提供人工智能生成內(nèi)容水印功能,可供用戶選取標注,為監(jiān)管措施落地提供了行業(yè)實踐的樣本。
從這一行業(yè)實踐可以看出,對于人工智能生成內(nèi)容的監(jiān)管和治理,通過添加水印標簽幫助用戶直觀分辨內(nèi)容屬性和來源,相對于其他治理手段,是成本較低而效果明顯的技術方式,而且只要設計得當,標識添加可以兼顧用戶體驗和內(nèi)容美觀,并不會影響創(chuàng)意和內(nèi)容呈現(xiàn)。當然,對于技術標簽和水印這一治理方式,也需要根據(jù)實踐應用不斷回應新挑戰(zhàn)并進行完善,相關行業(yè)實踐也可以為完善治理技術和手段,積累重要的實踐素材和經(jīng)驗。例如,針對數(shù)字虛擬人這一新型應用,由于其具有的動態(tài)性和隨機性等特點,除了水印標識之外,有可能還需要提供類似“實名制”的注冊機制對其加以規(guī)范和保護。
從內(nèi)容傳播和行業(yè)發(fā)展的角度,人工智能生成內(nèi)容和深度合成內(nèi)容的精準有效治理,除了內(nèi)容傳播平臺的積極作為之外,還需要行業(yè)內(nèi)各個環(huán)節(jié)各方主體的全面參與。從全社會治理成本與全產(chǎn)業(yè)鏈治理效果考慮,直接面向用戶的平臺已經(jīng)處于內(nèi)容生產(chǎn)和傳播鏈的相對下游位置,僅僅依靠下游平臺和用戶打標,無法實現(xiàn)更好的源頭治理效果。如果人工智能生成工具的技術開發(fā)者和支持者,都能夠積極加入治理行動,響應監(jiān)管要求,從生成技術、工具等源頭上,就對生成圖片、視頻等內(nèi)容進行標識或者提供標識工具,并形成標準化的行業(yè)實踐,與內(nèi)容傳播平臺形成產(chǎn)業(yè)鏈合力,共同培養(yǎng)培育用戶生成、傳播深度合成內(nèi)容的媒介素養(yǎng)和行為倫理,就能標本兼治,推動形成更加健康有序、風清氣朗的網(wǎng)絡內(nèi)容生態(tài)空間。
(作者單位:中國社會科學院大學互聯(lián)網(wǎng)法治研究中心,南開大學·中國社會科學院大學21世紀馬克思主義研究院。本文為教育部新文科研究與改革實踐項目“計算社會科學與國家治理”(2021140027)和北京高等教育本科教學改革創(chuàng)新項目“檢法協(xié)作機制下網(wǎng)絡法治研究型人才培養(yǎng)模式創(chuàng)新研究”的階段性成果。)