国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能的法律風險與規(guī)制

2023-06-05 02:53:49朱溯蓉
長白學刊 2023年6期
關鍵詞:規(guī)制人工智能

鄭 曦,朱溯蓉

(北京外國語大學法學院,北京 100089)

一、問題的提出

2022年11月,美國OpenAI公司發(fā)布了名為“ChatGPT”的聊天機器人程序。較之以往的人工智能,ChatGPT 能夠理解和學習人類的語言進行對話,并根據(jù)上下文進行互動,真正做到像人類一樣交流,甚至能完成撰寫郵件、視頻腳本、文案、翻譯、代碼等任務。以ChatGPT為代表的新一代人工智能,即生成式人工智能(Generative AI),不同于過去的以分類和回歸為目標任務的人工智能,是一種可以創(chuàng)建各種數(shù)據(jù),例如,圖像、視頻、音頻、文本和3D 模型的人工智能系統(tǒng)[1]。

生成式人工智能在實現(xiàn)其潛在創(chuàng)造力的同時,也滋生出諸多風險和問題。例如,部分用戶表示ChatGPT 的生成內(nèi)容存在虛假性,還有用戶表示ChatGPT 存在對個人數(shù)據(jù)進行非法編造與錯誤加工的情況。為了維護社會秩序,保障公民權利和安全,2023年7月,國家互聯(lián)網(wǎng)信息辦公室聯(lián)合七部門發(fā)布了《生成式人工智能服務管理暫行辦法》,旨在對生成式人工智能服務展開全方位的綜合治理。與此同時,一些外國政府、組織也在積極尋找治理生成式人工智能的可行方案。例如,歐盟隱私監(jiān)管機構創(chuàng)建ChatGPT工作組,準備邁出生成式人工智能政策制定的第一步。

此外,國內(nèi)外關于生成式人工智能的相關學術研究也正如火如荼地開展。國內(nèi)相關法律研究呈現(xiàn)出明顯的分段性。第一階段,2017 年至2022 年上半年,該階段的研究較單一且集中,重點探討人工智能生成物的知識產(chǎn)權問題:一方面,討論人工智能生成的內(nèi)容在著作權法中的定位,以及對著作權法的沖擊;另一方面,探究生成式人工智能給專利制度帶來的挑戰(zhàn),以及專利法應該如何修正以應對該種沖擊。第二階段為2022年下半年至今,相關研究呈現(xiàn)出“百花齊放”的態(tài)勢,涵蓋生成式人工智能風險規(guī)制、類案裁判、數(shù)據(jù)和內(nèi)容安全、責任承擔、倫理道德等方面。國外學理研究則圍繞以ChatGPT 為代表的“新一代”生成式人工智能,分析該類人工智能的風險類別、級別,探討其對訴訟律師的影響,以及相關的版權問題、侵權責任追究等。

盡管關于生成式人工智能的法律規(guī)制研究逐漸增多,但仍存在研究深度和廣度不均衡、實踐指導不足、缺乏案例和數(shù)據(jù)支撐等問題,造成整體研究暴露出前瞻性過度、現(xiàn)實性關注不足的缺陷。因此,本文在充分考慮生成式人工智能風險現(xiàn)實化和緊迫性的基礎上,深入剖析其中存在的數(shù)據(jù)、隱私、技術壟斷和知識產(chǎn)權糾紛等問題,并提出相應的治理策略。通過對這些問題的細致探究,提供更全面、實用的指導和解決方案,以應對生成式人工智能帶來的風險。

二、生成式人工智能帶來的風險和挑戰(zhàn)

新一代生成式人工智能的生成機制可以概括為以下三個階段:預訓練、微調(diào),以及強化學習。以ChatGPT為例[2],預訓練階段的核心任務是“學會說話”,即利用自回歸等無監(jiān)督訓練策略,對模型進行海量無標注數(shù)據(jù)的喂養(yǎng),使其學習到數(shù)據(jù)本身蘊含的豐富的語言知識,實現(xiàn)文本續(xù)寫功能。通過這樣的訓練,模型學會了人類語言文本的組織規(guī)律。微調(diào)階段旨在實現(xiàn)“含義理解”,即利用人工標注的數(shù)據(jù)集進行有監(jiān)督訓練,引導人工智能向人類期望的方向作答。強化學習階段進行“反饋優(yōu)化”,首先,收集對比數(shù)據(jù)并訓練獎勵模型(獎勵模型是一個符合人類評價標準的模型);其次,利用獎勵模型不斷迭代優(yōu)化自身輸出結果。通過對生成式人工智能底層邏輯的簡單分析,其所帶來的現(xiàn)實且緊迫的風險與挑戰(zhàn)主要包括以下三類:

(一)數(shù)據(jù)偏差與數(shù)據(jù)濫用風險

第一,生成式人工智能在數(shù)據(jù)收集和標注過程中存在風險。一方面,訓練數(shù)據(jù)來源不均衡,且標注數(shù)據(jù)可能存在偏差。這種情況下,生成式人工智能算法可能會學習到人類偏差,最終損害生成式人工智能模型在種族、性別、年齡、語言、職業(yè)、地理等方面的公平性。例如,ChatGPT 的訓練數(shù)據(jù)集96%來自英語文本[2],這可能導致在響應其他語種指令時存在潛在的意識形態(tài)偏差。此外,用戶與有偏見的生成式人工智能進行交互可能會感到被冒犯或受到傷害。例如,如果用于訓練文本生成模型的數(shù)據(jù)集主要針對男性,此時數(shù)據(jù)集缺乏多樣性,其生成文本可能會表現(xiàn)出對女性的偏見和排斥。這樣的輸出可能會進一步加劇性別不平等、侵害女性權益。另一方面,生成式人工智能通常需要大量的訓練數(shù)據(jù),而這些數(shù)據(jù)集可能包含未經(jīng)授權的數(shù)據(jù),例如,通過爬蟲等方式從互聯(lián)網(wǎng)上獲取的信息,而未經(jīng)授權的網(wǎng)絡爬取行為可能違反《中華人民共和國網(wǎng)絡安全法》中關于網(wǎng)絡安全運行和網(wǎng)絡信息安全的相關規(guī)定。

第二,生成式人工智能在運行和使用過程中存在數(shù)據(jù)濫用和泄漏風險。根據(jù)生成式人工智能的運行機制,不難推知,其會利用交互信息進行迭代學習,以不斷提升和優(yōu)化性能。首先,對個人信息而言,根據(jù)《中華人民共和國個人信息保護法》(下文簡稱個人信息保護法)的規(guī)定,個人信息處理者在符合特定情形時方可處理個人信息,但期望生成式人工智能服務提供者在處理個人信息之前均取得個人同意幾乎是不現(xiàn)實的,知情同意原則無法有效遏制個人數(shù)據(jù)被濫用的風險。其次,潛在的犯罪分子能夠以相對較低的成本收集用戶信息,再利用上述信息實施犯罪。再次,人們可能會在與生成式人工智能交互中不經(jīng)意透漏商業(yè)信息,甚至是商業(yè)秘密。最后,生成式人工智能與搜索引擎的集成式開發(fā)模式將會加劇數(shù)據(jù)濫用風險。以New Bing為例,New Bing是ChatGPT與搜索引擎融合后的生成式人工智能,它引入了新的搜索范式,從單純的搜索任務轉變成搜索與生成式任務相結合的運行模式。在該種模式下,盡管搜索結果的準確性和相關性方面得到了突破式進展,但也增加了個人信息被濫用的風險,因為該種運行機制下使用者更容易獲取他人的公開信息。

第三,生成內(nèi)容的可信度存在偏差。盡管生成式人工智能的生成能力取得了顯著的進步,但其在生成完全準確、真實和可靠信息方面的能力依舊存疑。除此之外,利用生成式人工智能編造虛假信息牟取個人利益的行為也頻頻發(fā)生。例如,在最近偵破的“洪某弟利用科技手段編造虛假謠言信息,并在互聯(lián)網(wǎng)大肆散布”一案中,嫌疑人便是利用了ChatGPT編造虛假信息。

(二)隱私威脅和合規(guī)性問題

生成式人工智能在交互過程中存在隱私泄漏風險。生成式人工智能在交互過程中,可以收集用戶的歷史對話和多模態(tài)意圖,這些信息不僅能供其自身學習和訓練,還可能被用于預測用戶的偏好,繪制個人資料等,由此可能侵害個人隱私。此外,在交互過程中,利用生成式人工智能的“弱點”來套取隱私信息的現(xiàn)象也十分嚴峻。開發(fā)者在部署生成式人工智能模型之前,通常會制定嚴格的規(guī)則,以防止有害內(nèi)容的產(chǎn)生和抵御隱私泄漏的風險,但通過“角色扮演”“提示攻擊”和“反面提問”等方式能夠欺騙生成式人工智能泄漏敏感信息,甚至執(zhí)行未經(jīng)授權的命令[3]。

生成式人工智能在數(shù)據(jù)收集過程中可能會損害個人隱私。生成式人工智能依賴大規(guī)模數(shù)據(jù)集的喂養(yǎng),數(shù)據(jù)來源包括且不限于互聯(lián)網(wǎng)、第三方機構和個人用戶。與傳統(tǒng)的人工智能模型相比,生成式人工智能模型在訓練和部署階段的隱私威脅更加嚴峻。一方面,生成式人工智能為了提供高質量的輸出,通常需要用戶提供多樣態(tài)的輸入數(shù)據(jù),這些數(shù)據(jù)很可能是私密且敏感的。另一方面,互聯(lián)網(wǎng)上留存的公開信息可能存在記錄不準確,更新不及時,以及內(nèi)容涉密等問題。

鑒于生成式人工智能的記憶屬性,個人隱私威脅問題變得更加突出。最先進的語言模型(Language Model,LM),其參數(shù)可擴展到數(shù)萬億個,并且需要在大型文本語料庫上進行預訓練,預訓練得到的模型胚子需要利用特定領域的數(shù)據(jù)集進行微調(diào)以適應下游任務。在訓練過程中生成式人工智能便將上述數(shù)據(jù)留在“記憶深處”,給允許使用敏感數(shù)據(jù)用于模型訓練的數(shù)據(jù)所有者帶來了潛在的隱私威脅。例如,人們可以通過與原始數(shù)據(jù)相關聯(lián)的數(shù)據(jù)反推獲得生成式人工智能記憶中的隱私數(shù)據(jù)和敏感數(shù)據(jù)。此外,生成式人工智能模型具有保留或記憶訓練數(shù)據(jù)信息的能力,導致敏感數(shù)據(jù)所有者無法有效行使數(shù)據(jù)刪除權、被遺忘權等權利。

(三)技術壟斷風險與知識產(chǎn)權糾紛

生成式人工智能可能引發(fā)技術壟斷風險。美國《謝爾曼法》規(guī)定,某公司擁有相關市場的高份額,并且其在相當長的一段時間內(nèi)為其他企業(yè)進入該市場設置壁壘,則推斷該企業(yè)具有壟斷能力。具有壟斷能力的企業(yè),不僅擁有顯著的市場份額,而且處于高市場壁壘之內(nèi),該類企業(yè)通常具有較高的壟斷風險[4]。生成式人工智能的研發(fā)通常需要海量的訓練樣本和強大的計算能力,而這種投入不僅需要雄厚的經(jīng)濟實力,更需要堅實的市場支配力和較強的科技實力,因此生成式人工智能的研發(fā)領域極易出現(xiàn)技術壟斷風險。技術壟斷是指在一定空間時間范圍內(nèi)對某些技術完全占有并享有壟斷收益的狀態(tài)。技術壟斷風險則指單個占主導地位的公司或組織利用其市場力量來控制和操縱技術生產(chǎn)和分配的可能性[5]。以ChatGPT 的開發(fā)為例,OpenAI 公司自成立之初就以GPT 語言模型為研發(fā)中心,但模型性能一直表現(xiàn)不佳。直到2019年,獲得微軟(Microsoft)的投資與合作后,其GPT語言模型如獲新生,此后發(fā)布的GPT-2、3、3.5和GPT-4在準確性和交互性上取得了顯著的優(yōu)化。2023年,微軟將ChatGPT分別融入搜索引擎必應和操作系統(tǒng)windows,開發(fā)了New Bing 和Copilot 等生成式人工智能應用。微軟逐漸在生成式人工智能領域占據(jù)市場優(yōu)勢地位。一方面,微軟自身具有充裕的資金和技術實力,相關市場份額占比極高;另一方面,微軟擁有ChatGPT 的所有接口,可能會為其他企業(yè)開發(fā)相關的生成式人工智能設置市場壁壘。此外,這種壟斷還將滋生個人隱私風險和數(shù)據(jù)安全風險。因為,任何一家以研發(fā)生成式人工智能為目標的企業(yè),一旦占據(jù)市場主導地位,也將獲得對大量數(shù)據(jù)的集中控制權。

生成式人工智能在文本創(chuàng)作、圖像設計、視聽資料編輯等領域中表現(xiàn)突出,對現(xiàn)有的知識產(chǎn)權法律體系帶來了挑戰(zhàn)。在數(shù)據(jù)收集階段,存在侵犯著作權、商標權等知識產(chǎn)權糾紛,如前文所述,不再贅述。此外,隨著大型人工智能生成模型的研發(fā),人工智能生成內(nèi)容的知識產(chǎn)權歸屬面臨新的法律挑戰(zhàn)。生成內(nèi)容通常由預先存在的數(shù)據(jù)和新的創(chuàng)意元素混合而成,但這兩者的界限十分模糊,法律界對究竟應該由誰擁有人工智能生成內(nèi)容的知識產(chǎn)權存在爭議。美國版權局曾于20世紀末提出一項開創(chuàng)性的舉措,就是出版由計算機“創(chuàng)作”的“作品”,并且將Racter 登記為《The Policeman’s Beard is Halfconstructed》的作者[6]。與此相反,北京互聯(lián)網(wǎng)法院審理的“北京菲林律師事務所訴北京百度網(wǎng)訊科技有限公司侵害作品著作權”一案中,該案判決認為由計算機軟件生成的內(nèi)容不能構成作品,計算機軟件研發(fā)者和軟件使用者均不能以作者身份進行署名。

由此可見,盡管生成式人工智能構建了更高智能化的學習模型,但同時也引發(fā)了更多的社會風險和法律挑戰(zhàn)。

三、對生成式人工智能的初步規(guī)范

生成式人工智能具備相當?shù)膭?chuàng)造力、顯著的效率和生產(chǎn)力,但其也滋生出諸多社會風險和法律問題。為了維護社會秩序,保障公民權利和安全,國內(nèi)外有關部門在監(jiān)管層面都對其予以高度重視,并通過一系列的法案規(guī)制其可能滋生的風險。

(一)國外的相關規(guī)定

生成式人工智能在全球范圍內(nèi)急速升溫的同時,包括OpenAI 首席執(zhí)行官薩姆·奧爾特曼(Sam Altman)在內(nèi)的多位人工智能科學家都對生成式人工智能可能存在巨大的社會風險和法律風險表示擔憂,關于生成式人工智能監(jiān)管的討論在世界各地陸續(xù)開展。

歐盟一直十分關注人工智能領域的治理活動。面對生成式人工智能的問世,一方面,歐盟成員國積極采取執(zhí)法措施應對已經(jīng)暴露的現(xiàn)實風險;另一方面,歐盟也在積極推進相關立法工作,以期集思廣益,制定切實有效的監(jiān)管規(guī)定。例如,2023年6月,歐洲議會通過的《人工智能法案》(AI Act)指出,像GPT這樣的生成基礎模型必須遵守額外的透明度要求,以防止其生成非法內(nèi)容。此外,法案還規(guī)定,在生成式人工智能服務的數(shù)據(jù)獲取方面,必須遵守版權保護等相關法律要求的摘要[7]。

美國聯(lián)邦現(xiàn)行立法和行政文件,大多是關于人工智能治理的,而非針對生成式人工智能的規(guī)定,且以自愿性、建議性為基調(diào)。例如,美國商務部下設的國家遠程通信和信息管理局(NTIA)在2023年4月發(fā)布了一項關于人工智能的征求意見稿(AI Accountability Policy Request for Comment),征求意見通知中指出,“推動可信賴的人工智能”一直是聯(lián)邦的一項重要目標,其期望在征求意見的基礎上,起草并發(fā)布一份關于人工智能問責政策的報告,以構建一個人工智能保障的生態(tài)系統(tǒng)[8]。

澳大利亞政府宣布建立負責任的人工智能網(wǎng)絡,以應對包括ChatGPT 和Bard 在內(nèi)的聊天機器人帶來的危害[9]。韓國國會科學、信息通信技術、廣播和通信委員會2023年2月通過了一項擬議立法,旨在制定《人工智能產(chǎn)業(yè)促進法和建立可信賴人工智能的框架》,該法案為建立人工智能道德準則提供了法定基礎[10]。加拿大隱私專員辦公室對生成式人工智能(GAI)對隱私權造成的影響展開調(diào)查,懷疑其未經(jīng)同意收集、使用和披露個人信息[11]。

(二)國內(nèi)的相關規(guī)定

近年來,我國積極推進人工智能領域的相關立法工作,形成了多層級、多維度、軟法和硬法相結合的綜合治理體系。

當前我國對生成式人工智能的監(jiān)管,宏觀上有國家政策、人工智能白皮書、國標及團體標準等引領和指導生成式人工智能健康發(fā)展。如國務院2017年7月8日發(fā)布的《新一代人工智能發(fā)展規(guī)劃》、國家新一代人工智能治理專業(yè)委員會2019年6月17日發(fā)布的《新一代人工智能治理原則——發(fā)展負責任的人工智能》等相關文件,為推進人工智能健康發(fā)展,確保人工智能安全可靠可控,推動經(jīng)濟、社會及生態(tài)可持續(xù)發(fā)展提供了有力支撐。2022 年6 月30 日由中國電子工業(yè)標準化協(xié)會正式發(fā)布的《人工智能深度合成圖像系統(tǒng)技術規(guī)范》確立了深度合成圖像(含視頻)系統(tǒng)的框架、技術要求等內(nèi)容,該標準可有效規(guī)范深度合成圖像系統(tǒng)的功能和性能,有助于推動計算機視覺領域發(fā)展的可靠性、安全性和規(guī)范性。

微觀上,從中央到地方,涵蓋算法、數(shù)據(jù)、深度合成、生成式人工智能等多維度的法律法規(guī),具有中國特色的生成式人工智能治理體系已經(jīng)初具規(guī)模。國家層面,2019年,由國家互聯(lián)網(wǎng)信息辦公室聯(lián)合其他部門發(fā)布的《網(wǎng)絡音視頻信息服務管理規(guī)定》中要求網(wǎng)絡音視頻服務提供者對使用者利用音視頻生成技術制作、發(fā)布、傳播謠言的,應及時采取相應的辟謠措施。同年,國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《網(wǎng)絡信息生態(tài)治理規(guī)定》規(guī)定網(wǎng)絡信息內(nèi)容生產(chǎn)者、網(wǎng)絡信息內(nèi)容服務平臺不得利用網(wǎng)絡和相關信息技術實施侮辱、誹謗、威脅、散布謠言以及侵犯他人隱私等違法行為,損害他人合法權益。2021年通過的《中華人民共和國個人信息保護法》《中華人民共和國數(shù)據(jù)安全保護法》用于規(guī)范和約束相關技術收集、分析、儲存和使用個人信息與數(shù)據(jù)。同年,互聯(lián)網(wǎng)信息辦公室聯(lián)合其他部門發(fā)布的《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》(下文簡稱《管理規(guī)定》)中明確要求利用生成合成類等算法向用戶提供信息應該遵守本法的相關規(guī)定。2022 年國家互聯(lián)網(wǎng)信息辦公室等部門聯(lián)合發(fā)布的《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》(下文簡稱《深度合成管理規(guī)定》),對生成服務的數(shù)據(jù)收集和技術管理方面提出明確要求。2023 年7 月,國家互聯(lián)網(wǎng)信息辦公室發(fā)布了《生成式人工智能服務管理暫行辦法》(下文簡稱《辦法》),針對生成式人工智能展開全面治理。地方層面,2022 年9 月,上海市人大常委會發(fā)布了《上海市促進人工智能產(chǎn)業(yè)發(fā)展條例》,2022年9月,深圳市發(fā)布了我國首部人工智能產(chǎn)業(yè)專項立法《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》(2022 年11 月1 日起施行),標志著各地區(qū)開始積極探索具有地域特色的人工智能治理方案。

(三)目前規(guī)制的不足

近年來,我國發(fā)布了一系列有關人工智能治理的規(guī)范,甚至在特定類型和應用的治理上領先于其他國家,但總體上看,目前的監(jiān)管體系仍存在諸多漏洞與不足。

“垂直”傾向的治理策略,導致監(jiān)管主體過多,難以形成治理生成式人工智能風險的合力。世界范圍內(nèi)治理人工智能的策略大致分為兩類:水平治理和垂直治理。水平治理即橫向方法,是由監(jiān)管機構制定一項法規(guī),涵蓋人工智能可能產(chǎn)生的多種影響,通過該法案實現(xiàn)全面治理。典型的如歐盟制定的《人工智能法案》(AI Act)。垂直治理即縱向辦法,是由政策制定者針對不同類型的人工智能應用和產(chǎn)品制定不同的法規(guī)[12]。我國的規(guī)制體系總體上是“垂直”傾向的,特定領域特殊立法。雖然“垂直”立法能夠確保人工智能立法的專業(yè)性,有效減輕不同人工智能技術和應用造成的特定危害,但“垂直”立法不僅成本過高,而且可能會削弱監(jiān)管合力。一方面,過多主體參與治理,增加了立法、執(zhí)法機構之間的協(xié)調(diào)難度。另一方面,不同主體基于不同的利益驅動,監(jiān)管中可能存在競爭與互相推諉的情形。

迭代式的立法模式下,縱橫交錯的法律規(guī)范之間可能存在一定程度的沖突與抵牾,導致生成式人工智能治理的有效性和適當性大打折扣。迭代式的立法模式[13]是指,當我們發(fā)現(xiàn)一項現(xiàn)行的法律規(guī)范不能有效應對新生的人工智能產(chǎn)品時,就通過發(fā)布新的法規(guī)來填補規(guī)則漏洞或擴大規(guī)制范疇,如通過《辦法》對《深度合成管理規(guī)定》進行填補和擴展。但是,迭代式立法可能會導致適用主體和規(guī)制對象混亂。例如,《辦法》和《深度合成管理規(guī)定》的規(guī)制對象在范圍上存在交叉和重疊,均包含利用算法生成文本、圖片和聲音等內(nèi)容的技術,可能導致被監(jiān)管主體承擔過重的義務。

在具體的治理規(guī)范上,現(xiàn)行立法存在治理規(guī)則粗疏、規(guī)范效力不足、實踐性受限等問題,無法有效應對生成式人工智能治理中存在的數(shù)據(jù)偏差、隱私泄漏等風險。首先,相關治理規(guī)則粗疏,缺乏可行性。例如,根據(jù)《管理規(guī)定》的相關要求,相關主體應該通過備案系統(tǒng)履行備案手續(xù)。通過2022年2月網(wǎng)信辦發(fā)布的《互聯(lián)網(wǎng)信息服務算法備案系統(tǒng)使用手冊》可知算法備案系統(tǒng)要求算法備案填報人員填寫算法基礎屬性信息、算法詳細屬性信息,包括算法數(shù)據(jù)、算法模型、算法策略和算法風險與防范機制等信息。但上述填報信息過于寬泛和宏觀,缺乏實踐性。其次,相關規(guī)范效力位階較低、雜亂無章,導致執(zhí)法約束力受限。當前我國治理生成式人工智能發(fā)展的相關規(guī)范多由政府某一部門或多個部門聯(lián)合頒布,效力層級較低,缺乏法律強制力保障。最后,治理規(guī)則與實踐中的治理行為不匹配,相關規(guī)則的有效性減弱。例如,《辦法》中要求用于生成式人工智能產(chǎn)品的預訓練、優(yōu)化訓練數(shù)據(jù),應滿足真實性、準確性、客觀性要求,但這對于從數(shù)百萬網(wǎng)站抓取大量文本和圖像進行訓練的大語言模型來說,幾乎是不可能達到的要求。又如,我國個人信息保護法和《辦法》中均要求在使用個人數(shù)據(jù)時應征得相應主體的同意,但要求相關企業(yè)每次使用個人數(shù)據(jù)之前均履行“知情-同意”義務,一方面,會大大增加相關企業(yè)的開發(fā)成本;另一方面,由于以ChatGPT為代表的生成式人工智能通常是間接獲取相關數(shù)據(jù)進行訓練的,“知情-同意”原則最終只會淪為空中樓閣和紙上談兵,不能得到有效的貫徹和實行。

四、生成式人工智能風險規(guī)制的完善與優(yōu)化

欲防止應用生成式人工智能時滋生數(shù)據(jù)合規(guī)、隱私侵害和知識產(chǎn)權糾紛等風險,需對其予以必要的規(guī)制。盡管我國已有一些規(guī)制生成式人工智能的法律規(guī)范,但存在監(jiān)管主體錯亂、規(guī)范效力不足等問題,導致立法預期與實踐效果存在較大差異,需增強相關規(guī)范的實踐性,進一步協(xié)調(diào)生成式人工智能可持續(xù)發(fā)展與社會公共利益之間的關系。

(一)生成式人工智能風險規(guī)制的基本理念

在對生成式人工智能所引發(fā)的諸多風險確立具體的規(guī)制路徑之前,有必要明晰基本的規(guī)制理念與原則,以指導具體歸責方案的設計。

首先,秉持風險預防原則,利用風險規(guī)制手段應對生成式人工智能可能引發(fā)的法律和社會風險?,F(xiàn)階段生成式人工智能已經(jīng)暴露出內(nèi)容不真實、侵害個人隱私等問題,但生成式技術的發(fā)展日新月異,法律規(guī)制手段存在一定滯后性,為有效解決生成式人工智能可能帶來的風險,在治理理念上應采納“預防勝于治愈”的風險預防原則。風險預防原則要求政府對“科學上尚不確定”的問題保持特殊注意,即允許行政機關在面對不確定性風險的時候,不能把缺乏充分的科學肯定性作為推遲采取措施的理由[14]。風險規(guī)制手段是典型的針對未知進行決策的管理手段[15],在風險規(guī)制的過程中也并非是靜態(tài)的線性的應對,還要分析成本與收益之間的關系,以及規(guī)制實施過程中可能遇到的次生風險。生成式人工智能的出現(xiàn)一定程度上改變了人類的生活方式,但由于生成式模型的參數(shù)規(guī)模和層數(shù)“爆炸式”激增,其不可解釋性愈發(fā)明顯,生成式人工智能風險呈現(xiàn)出不確定性、多樣性與復合性。因此,在應對生成式人工智能風險時,應該將“預防先行”的理念貫穿于生成式技術研發(fā)、應用和生產(chǎn)的各個環(huán)節(jié),將風險預防原則作為基本原則,發(fā)揮其指導和統(tǒng)帥作用。此外,通過風險規(guī)制手段,即利用風險評估和風險管理方法,輔之以風險信息交流工具,達成對生成式人工智能風險的有效預防和遏制。風險評估旨在對生成式人工智能可能造成的負面影響進行評估和分析,了解該風險可能帶來的后果。通過定性或定量分析生成式技術風險,明確該技術納入規(guī)制日程的必要性和及時性,并為相關主體采取處置手段或措施、制定相關標準提供科學依據(jù)[16]。風險管理是在對生成式技術進行科學評估的基礎上選擇恰當規(guī)制手段并予以執(zhí)行的活動。前者是對生成式技術風險轉化為實質危害的概率性、嚴重性的科學調(diào)查行為,后者是在考量經(jīng)濟、政治、社會等因素基礎上通過民主參與程序,按照民主政治和基本權利保護原則來決定干預措施[17]175。風險信息交流工具則是為了保障管理活動兼具科學與民主,即通過有效的信息交流,一方面,使公眾了解生成式人工智能存在一定的風險,應謹慎使用,但也不必過分恐懼;另一方面,通過該程序獲得有效的公眾意見,作為規(guī)制機構做出決策的考量因素,彌補專家知識和公眾認知之間的信息鴻溝[18]213。

其次,防止過度干預,實現(xiàn)生成式技術發(fā)展與公共利益保護之間的動態(tài)平衡。經(jīng)濟學視野下,回避風險就意味著喪失了承擔風險時所應獲得的利潤[19]。限制生成式人工智能發(fā)展,能夠保障個人權益和社會公益,但同時可能會犧牲部分個體的自由權,甚至打擊開發(fā)人員的積極性,因此明確干預手段的邊界顯得尤為重要。為盡可能減少對基本權利的限制,管理措施的啟動應該符合比例原則。比例原則下轄三性:妥當性、必要性和比例性[20]。妥當性要求相關主體在對生成式人工智能采取約束措施時,應該充分解釋治理目的具有正當性,并且說服相對人接受相關措施。必要性要求相關主體在選擇約束措施時,優(yōu)先選擇對相對人權益損害較小的或較溫和的監(jiān)管措施。比例性要求相關主體在對生成式技術實施監(jiān)管過程中所采取的手段和期望實現(xiàn)的目的符合比例。將比例原則作為干預的邊界,不僅能夠有效約束生成式技術帶來的風險,而且有助于實現(xiàn)技術發(fā)展和權利保障之間的協(xié)調(diào)。

再次,應當要求生成式人工智能技術的開發(fā)和使用遵守一定的倫理和道德準則,實現(xiàn)技術向善。其一,應當要求生成式人工智能的開發(fā)遵守公平公正的倫理準則。生成式人工智能的開發(fā)依賴海量數(shù)據(jù)集,大批多樣化的數(shù)據(jù)盡管可能是對現(xiàn)實世界的準確描述,但是數(shù)據(jù)驅動決策的過程中,數(shù)據(jù)集中的偏見可能會隨著時間的推移而被強化,因此,要求生成式模型的開發(fā)者盡可能地評估數(shù)據(jù)偏見及其影響,減少偏見因子,確保技術中立就尤為重要。其二,應當要求生成式技術的無害性。2016年歐洲議會綠色數(shù)字工作組的《機器人和人工智能的位置》(Position on Robotics and Artificial Intelligence)[21]中的第一原則即“無害”,其規(guī)定“機器人應該作為朋友、助手和伙伴來服從人類,不應該傷害人類”,因此應當要求生成式技術的開發(fā)也以人為本,服務于人類。此外,無害原則中還蘊含著對安全的呼吁,要求人工智能技術不得造成無意傷害,不得惡意攻擊人類。其三,應當要求相關企業(yè)負責任地開發(fā)生成式人工智能。聯(lián)合國教科文組織提倡,人工智能行為者和會員國應根據(jù)國家法律和國際法,以及會員國承擔的人權保障義務,確保人工智能系統(tǒng)的整個生命周期都符合倫理準則。具體而言,會員國應該尊重、保護和促進人權和基本自由,促進對環(huán)境和生態(tài)系統(tǒng)的保護,同時,承擔各自的倫理和法律責任。生成式人工智能技術作為人工智能技術的分支,其發(fā)展自然也應秉持負責任、合法、真實和可審計的態(tài)度。其四,應當要求生成式人工智能的發(fā)展有助于實現(xiàn)“團結”。聯(lián)合國項目事務廳(UNOPS)、世界衛(wèi)生組織(WHO)等政府間組織或微軟等私營公司都在強調(diào)利用人工智能技術維護人類團結,其強調(diào)人工智能的發(fā)展絕不能威脅到現(xiàn)存的道德、情感和人際關系,而應該致力于促進和睦關系的發(fā)展,促進人機合作,減少脆弱性和孤立性。

(二)生成式人工智能風險規(guī)制的具體路徑

盡管我國現(xiàn)行的法律法規(guī)在規(guī)制生成式人工智能風險過程中起到了一定的積極作用,但現(xiàn)有立法策略之下,具象化和現(xiàn)實化問題應對仍舊存在不足,下文就生成式人工智能風險的應對提供具體的規(guī)制路徑。

第一,治理策略上突破“垂直迭代式”的立法模式。根據(jù)上文所述,我國傾向于垂直迭代立法,通過新立法應對新生人工智能。有學者已經(jīng)對該種模式治理的必要性提出質疑,認為“新風險治理之必要”欠缺理論支撐,盡管生成式技術產(chǎn)生了新型的社會治理風險,但是這些新風險本質上并沒有徹底改變既有的法律關系,同樣也沒有突破現(xiàn)有法律規(guī)范的調(diào)整范圍,通過新立法回應新風險欠缺必要性和邏輯性[22]。生成式人工智能歸根究底隸屬于人工智能范疇,其開發(fā)流程均包含數(shù)據(jù)處理、模型設計、訓練優(yōu)化、評估驗證、測試調(diào)整和部署實施階段,均存在數(shù)據(jù)、隱私、知識產(chǎn)權等風險,風險類型并沒有實質性差異,只是風險等級發(fā)生了變化?!掇k法》將生成式人工智能作為獨立的、新型的風險類別進行治理欠缺邏輯自洽性。對比歐盟地區(qū)采用的“且試且走”“先治理后規(guī)范”,穩(wěn)步推動監(jiān)管的水平治理為主的立法策略,我國所采取的重“垂直”、輕“水平”的立法模式不利于維護法律的穩(wěn)定性和權威性。因此,在規(guī)制生成式人工智能等新型人工智能產(chǎn)品和服務帶來的風險時,首先,可利用現(xiàn)有法律法規(guī)對已經(jīng)暴露的風險采取及時、妥當?shù)谋O(jiān)管措施,防止危害進一步擴大。其次,科學評估新型人工智能產(chǎn)品和服務與原有的人工智能之間的風險類別差異、風險等級差異,分析是否存在立法的必要性。具體而言,只有當新風險徹底改變既有法律關系,突破原有規(guī)范調(diào)整范圍時才具備立法的充分且必要條件。最后,基于現(xiàn)有的人工智能治理規(guī)范,醞釀一部綜合性的人工智能法案。

第二,強化生成式人工智能治理機構之間的協(xié)調(diào)性和能動性,建立多元有序的規(guī)制體系。《管理規(guī)定》、《深度合成管理規(guī)定》和《辦法》作為生成式人工智能治理的三個基本準則,共同為生成式技術的發(fā)展保駕護航,但是碎片化治理導致資源分散、部門之間互相推諉、溝通不暢等問題時有發(fā)生,協(xié)調(diào)聯(lián)合行動難以展開,在尚未制定一部統(tǒng)一的人工智能法之前,可以通過科學劃分權力,集中統(tǒng)籌管理,加強部門協(xié)作緩和治理困局。首先,明確網(wǎng)絡信息辦公室在生成式人工智能風險治理中的核心地位,確保其能夠高效地開展指揮、調(diào)配和統(tǒng)籌工作。其次,加強對部門內(nèi)工作人員的專業(yè)素養(yǎng)培訓,確保其制定的規(guī)范、采取的措施具有實踐性和有效性。最后,厘清網(wǎng)絡信息辦公室、公安部等參與治理的其他主體在生成式人工智能治理各個環(huán)節(jié)中的職能邊界,加強部門協(xié)作,建立部門聯(lián)動機制。

第三,加強對生成式服務提供者使用個人數(shù)據(jù)的監(jiān)管,賦予數(shù)據(jù)主體必要的數(shù)據(jù)權利。《辦法》中規(guī)定,生成式人工智能在處理數(shù)據(jù)時,涉及個人信息的,應當取得個人同意或者符合法律、行政法規(guī)規(guī)定的其他情形;換言之,生成式人工智能收集和使用個人數(shù)據(jù)以取得個人單獨同意為原則。根據(jù)上文所述,要求生成式服務提供者嚴格遵守“知情-同意”原則是不現(xiàn)實的,不妨通過強制記錄義務,加強保密措施、泄密后的及時處置措施,加強對生成式服務提供者的監(jiān)管。首先,生成式服務提供者在獲取網(wǎng)站、應用程序等第三方平臺上留存的個人數(shù)據(jù)時,應當將讀取記錄和與第三方簽訂的數(shù)據(jù)提供服務協(xié)議儲存下來,并備案。其次,生成式服務提供者應該加強數(shù)據(jù)流轉和處理過程中的數(shù)據(jù)保密措施,要求其以必要的手段防止數(shù)據(jù)泄漏。最后,生成式服務提供者一旦發(fā)現(xiàn)數(shù)據(jù)泄漏,應及時通知數(shù)據(jù)監(jiān)管機構,告知數(shù)據(jù)當事人,并修復相關漏洞,盡可能減少損失。此外,可通過強調(diào)對個人數(shù)據(jù)權利的保障來防止生成式服務提供者濫用個人數(shù)據(jù)。首先,賦予生成式服務使用者數(shù)據(jù)訪問權。我國個人信息保護法規(guī)定,個人有權向個人信息處理者查閱、復制其個人信息,因此,使用者應該享有數(shù)據(jù)訪問權,以知悉其個人數(shù)據(jù)的使用情況。其次,生成式服務提供者間接獲取的數(shù)據(jù)可能是陳舊的、不準確的,應該賦予使用者更正和補充個人信息的權利,防止數(shù)據(jù)被誤用。最后,當發(fā)生數(shù)據(jù)泄漏等事件時,生成式服務使用者享有知情權,即使用者有權知曉數(shù)據(jù)被竊取,以及被何人竊取等訊息。

第四,在現(xiàn)有法律體系下,保護人工智能生成物,應對新型侵權糾紛。首先,肯定人工智能生成物應受相關法律保護。其次,現(xiàn)階段,可以參照我國著作權法保護人工智能生成物。如,有學者主張參照著作權法上關于職務作品或雇傭作品的相關規(guī)定,將創(chuàng)作過程中真正實施人工干預、人為編排或創(chuàng)制該算法的人認定為作者[23]。再如,英國1988年《版權、外觀設計和專利法案》中規(guī)定,“如果是計算機生成的文學、戲劇、音樂或藝術作品,那么應將為創(chuàng)作作品做出安排的人視為作者”[24],該條所指計算機生成內(nèi)容(Computer-Generated Works)是指在沒有人類作者的情況下由計算機完成的內(nèi)容。最后,通過著作權許可使用的相關規(guī)定,限制生成式服務提供者使用他人享有著作權的作品進行深度學習。

猜你喜歡
規(guī)制人工智能
我校新增“人工智能”本科專業(yè)
主動退市規(guī)制的德國經(jīng)驗與啟示
南大法學(2021年4期)2021-03-23 07:56:10
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
保護與規(guī)制:關于文學的刑法
刑法論叢(2018年4期)2018-05-21 00:44:30
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
論《反不正當競爭法》的規(guī)制范疇
法治研究(2016年4期)2016-12-01 03:41:40
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 16:51:29
下一幕,人工智能!
南風窗(2016年19期)2016-09-21 04:56:22
內(nèi)容規(guī)制
安岳县| 乐都县| 海伦市| 海南省| 宣恩县| 邯郸市| 广州市| 贺兰县| 武夷山市| 连南| 浮梁县| 马边| 手机| 桃园市| 浙江省| 平邑县| 盐亭县| 温宿县| 民勤县| 武乡县| 达尔| 青海省| 曲靖市| 长岛县| 晋州市| 巴林右旗| 偃师市| 商水县| 张北县| 天全县| 兰坪| 瑞昌市| 延川县| 怀柔区| 延寿县| 衡阳市| 新巴尔虎左旗| 沛县| 大悟县| 永德县| 古蔺县|