摘 要:賦權規(guī)制與公共領域規(guī)制作為現(xiàn)有對人工智能生成內(nèi)容保護的規(guī)制邏輯,前者面臨“獨創(chuàng)性”認定標準不一、權利主體及內(nèi)容不明等爭議;后者雖能滿足公共性使用的需求,但存在激勵機制缺失、公共性資源濫用等問題,難以有效維護各方利益。相比之下,采取行為規(guī)制邏輯,不僅能夠有效促進公共利益目標的實現(xiàn)、凝聚社會成員公共性使用的“普遍性共識”,還能有效實現(xiàn)對產(chǎn)業(yè)發(fā)展的合理激勵與利益平衡,在推動技術創(chuàng)新的同時兼顧利益的分配公平。關于人工智能生成內(nèi)容保護的行為規(guī)制路徑建構,應當通過厘清人工智能生成內(nèi)容所蘊含的市場性利益、營業(yè)性利益以及公共性利益三重保護利益,并基于利益指向?qū)崿F(xiàn)人工智能生成內(nèi)容的動態(tài)保護,以此為技術演變與產(chǎn)業(yè)發(fā)展提供更加靈活的空間,實現(xiàn)科技與法律關系的良性互動與邏輯自洽。
關鍵詞:人工智能生成內(nèi)容;法律規(guī)制邏輯;行為規(guī)制;路徑建構
中圖分類號:D 923 文獻標志碼:A 文章編號:2096-9783(2024)05?0100?10
一、問題的提出
進入人工智能生成時代,人工智能以其生成內(nèi)容強烈沖擊著現(xiàn)有人類生產(chǎn)生活關系以及法律環(huán)境,如何選擇恰當?shù)闹卫矸妒揭?guī)制人工智能生成內(nèi)容(Artificial Intelligence Generated Content)成為當下處理人機交互關系亟待解決的問題。理論層面,對人工智能生成內(nèi)容的保護主要存在賦權規(guī)制及公共領域規(guī)制兩種邏輯進路:前者將人工智能生成內(nèi)容所體現(xiàn)的法益涵攝為著作權等民事權益,進而實現(xiàn)人工智能生成內(nèi)容相應的權利保護,包括在人工智能生成內(nèi)容屬性認定上采納“獨創(chuàng)性作品”[1]“鄰接權客體”[2]“知識財產(chǎn)孳息”[3]等觀點;后者基于知識的社會性與私有性之間的矛盾,提出將人工智能生成內(nèi)容歸屬于公共領域[4]。值得注意的是,理論層面的眾說紛紜體現(xiàn)了當下人工智能生成內(nèi)容帶給人們的思考,而這種思考熱潮還體現(xiàn)在司法實務之中。以“AI作品保護第一案”為例,審理法院從相關信息和數(shù)據(jù)的選擇、文章結構及表達邏輯等方面,認定涉案作品體現(xiàn)作者自身的編排設計,具備一定的獨創(chuàng)性并構成作品,在規(guī)制思路上以著作權為主展開裁判論證1。無獨有偶,“AI文生圖案”中的法官同樣持此觀點,認為涉案作品從設計人物的呈現(xiàn)形式、提示詞的選擇與編排以及參數(shù)的設定與選擇等體現(xiàn)了智力投入成本,符合“智力成果”的構成要件,因而認可其可版權性2。然而,“菲林案”的觀點卻截然相反,該案法院認為計算機軟件智能生成的涉案文章內(nèi)容不構成作品,但同時指出其相關內(nèi)容亦不能自由使用,承認了涉案作品蘊含著投資者的投資價值,應當賦予投資者一定的權益保護3。反思上述案件,司法裁判存在不一致之處,表明對人工智能生成物的法律規(guī)制思路未能達成統(tǒng)一的共識。
面對人工智能新類型的案件糾紛,理論及司法實務觀點存在分歧,其本質(zhì)在于對人工智能生成內(nèi)容法律規(guī)制思路的不清晰,雖承認在生成內(nèi)容之中蘊含的法益價值但卻無法實現(xiàn)規(guī)制思路的統(tǒng)一。將人工智能生成內(nèi)容涵攝于著作權法益或者一般民事法益的選擇體現(xiàn)在理論與司法實務中,不同方式的選擇在決定著人工智能生成內(nèi)容價值實現(xiàn)的同時,也蘊含著人工智能所帶來的法律挑戰(zhàn)[5]。本文認為,在關注人工智能生成內(nèi)容本身折射的法益時,應當從行為視角觀察因人工智能生成內(nèi)容保護所產(chǎn)生的一系列風險。尤其當賦權規(guī)制邏輯以及公共領域規(guī)制邏輯存在商榷時,從行為規(guī)制角度對人工智能生成內(nèi)容保護所產(chǎn)生的問題展開分析研究具備更強的必要性。就人工智能生成內(nèi)容的保護而言,無論是賦權規(guī)制邏輯,抑或是公共領域規(guī)制邏輯,均為一個硬幣的兩面,選擇任意一方都難以實現(xiàn)沖突的妥善解決。因而,需要重新審視人工智能技術演變與產(chǎn)業(yè)政策發(fā)展的歷程,回歸知識的社會性與私有性的本質(zhì)內(nèi)涵,在思考人工智能生成內(nèi)容的行為規(guī)制邏輯進路的基礎上分析其正當性依據(jù),通過聚焦人工智能生成內(nèi)容保護的規(guī)制對象指向以及實現(xiàn)效果依歸,在賦權規(guī)制思路與公共領域思路存在商榷的情況下探討行為規(guī)制路徑的可能性。
二、人工智能生成內(nèi)容保護的法律規(guī)制邏輯選擇及不足
通過既有的認知規(guī)律發(fā)現(xiàn)并認識新事物是人類由來已久探索世界的方法,以此種方法認識并規(guī)制人工智能生成內(nèi)容,需要結合既有著作權確權模式以及公共領域規(guī)制模式的基本框架。遵循既有的賦權理念認可人工智能生成內(nèi)容的作品屬性并授予權屬安排是賦權規(guī)制邏輯的基本思路,然而基于此種規(guī)制邏輯認識人工智能生成內(nèi)容卻無法避免“獨創(chuàng)性”的反復詰問,即便在轉向鄰接權規(guī)制思路以及“孳息—所有權”規(guī)制思路之后,仍舊無法脫離“盲目擴大保護范圍”的爭議[6]。在賦權規(guī)制邏輯遭受“滑鐵盧”時,基于知識私有性與公共性特征的公共領域規(guī)制邏輯之說嶄露頭角,但此觀點的偏激以及激勵不足等問題的存在同樣使得該規(guī)制邏輯飽受爭議。
(一)賦權規(guī)制邏輯及其商榷
人工智能生成內(nèi)容作為智能時代下的新事物,人們習慣通過已有的認知邏輯將其納入相應的框架之中[7]。著作權體系是與人工智能生成內(nèi)容聯(lián)系最為密切的認知框架,因而人們常將人工智能生成內(nèi)容之上所體現(xiàn)的知識產(chǎn)品法益類型化或體系化為著作權,并通過認可人工智能生成內(nèi)容的可版權性來實現(xiàn)法律規(guī)制[8]?,F(xiàn)有賦權規(guī)制邏輯主要有狹義著作權、鄰接權以及“孳息—所有權”三種思路,每種思路都充斥著眾多觀點之間的交鋒。
聚焦狹義著作權規(guī)制邏輯,主要集中在“人工智能生成內(nèi)容是否構成作品”問題之上,存在“設計者意志說”“獨創(chuàng)性客觀說”“創(chuàng)作工具說”“擬制作者說”等觀點。然而,無論何種學說均存在一定的爭議之處,“設計者意志說”[9]以及“創(chuàng)作工具說”[10]由于無視著作權法關于“創(chuàng)作”的直接性要求且未能考慮人工智能生成內(nèi)容的復雜性程度,違背了著作權法應有的原理與規(guī)定,因而無法直接得出“人工智能生成內(nèi)容為作品”的結論[11];“獨創(chuàng)性客觀說”[12]則由于側重從形式上符合作品獨創(chuàng)性的要件,而忽略了著作權法上對于作品構成要件中基于創(chuàng)作主體“人”的主體要素,虛化了著作權法中對于作品構成的相關規(guī)定;“擬制作者說”[13]則強行顛倒了作品認定以及作品權利歸屬的邏輯順序,牽強地引入“擬制作者”的概念以對“人工智能生成內(nèi)容是否構成作品”這一問題敷衍解釋,實則顛倒了著作權法中作品與著作權人之間的認定邏輯。
在狹義著作權難以解決因人工智能生成內(nèi)容所造成的問題時,轉向鄰接權與孳息—所有權規(guī)制邏輯則成為理論上可能存在的可行路徑。鄰接權規(guī)制邏輯建立在通過狹義著作權無法認定人工智能生成內(nèi)容構成作品的前提之上,基于鄰接權制度與狹義著作權制度價值追求與功能定位的一致性,以及對人工智能投資者“非創(chuàng)作性投入”的利益考量,認為將人工智能生成內(nèi)容納入鄰接權的制度安排更有利于實現(xiàn)法律保護[2]。此外,“孳息—所有權”模式則是脫離著作權思路的另一種探索選擇,該觀點以傳統(tǒng)“原物與孳息”之間的視角巧妙脫離“作品與作者”的思維定式,認為人工智能生成內(nèi)容屬于人工智能的孳息,并以硬件的所有者即人工智能載體的所有者作為其權利歸屬[3]。然而,以上兩種規(guī)制邏輯雖在學理討論中具備一定的合理性,卻難以避免“盲目擴大保護范圍”的困境[6],在適用上存在挑戰(zhàn)。
就鄰接權的客體而言,對其客體范圍的擴張仍保持謹慎的態(tài)度,盲目擴張鄰接權客體容易導致保護邊界的模糊[14]。如今著作權法所規(guī)定的鄰接權客體主要包括出版物版式設計、表演者的表演結果、錄音錄像制品以及廣播、電視節(jié)目信號,這四類客體的建立都是以相關著作權存在為前提,忽視人工智能生成內(nèi)容在著作權法上的“獨創(chuàng)性”進而轉向鄰接權保護“傳播者”的利益,難免顛倒了狹義著作權制度與鄰接權制度之間的規(guī)范邏輯,并非一種恰當?shù)囊?guī)制辦法;此外,鄰接權制度同樣堅持“主體進路”式立法理念,無論是出版物版式設計者、表演者、錄音錄像制作者以及廣播電臺、電視臺,均體現(xiàn)了以主體為導向、“以用設權”[15]為指引構建鄰接權制度。依照傳統(tǒng)鄰接權“作品傳播者權”的本質(zhì)內(nèi)涵界定人工智能生成內(nèi)容鄰接權主體的做法無法在數(shù)字化時代得以實現(xiàn)[16],即鄰接權規(guī)制邏輯下對于權利主體的界定存在挑戰(zhàn)。
ma0c/khbdW/S/MftJbiUEw==“孳息—所有權”規(guī)制邏輯作為著作權規(guī)制邏輯設置不能之后的選擇,其觀點的建立基于傳統(tǒng)民法物權的孳息理念,認為人工智能生成作品是人工智能相關主體投喂數(shù)據(jù)后所產(chǎn)生的天然孳息[3],此種規(guī)制邏輯跳出了著作權規(guī)制的一般思路,通過引入傳統(tǒng)民法物權規(guī)則解釋人工智能生成內(nèi)容的性質(zhì),為規(guī)制人工智能生成內(nèi)容提供了新見解。然而,該規(guī)制邏輯在客體上未能明確傳統(tǒng)“物”與人工智能生成內(nèi)容之間的本質(zhì)區(qū)別,人工智能生成內(nèi)容作為數(shù)據(jù)則具備了與傳統(tǒng)實物財產(chǎn)不同的特點,如自由流通屬性、可復制性、不發(fā)生物理損耗等[17],這實際上也造成人工智能生成內(nèi)容在適用規(guī)則、性質(zhì)認定以及權益分配上與傳統(tǒng)“物”存在區(qū)別;此外,以硬件所有者作為人工智能生成內(nèi)容的主體也難以滿足人工智能參與主體的多元性以及復雜利益的分配,實踐中人工智能參與主體之間投入成本與貢獻程度的區(qū)分也無法在“孳息—所有權”規(guī)制邏輯得到自洽的解釋。
(二)公共領域規(guī)制邏輯及其商榷
公共領域規(guī)制邏輯于洛克的勞動價值理論中有所體現(xiàn),即洛克在肯定“個人通過施加自己的勞動使得物品從自然存在的狀態(tài)脫離,便可獲得對該物品的所有權”時,也承認取得所有權的前提應建立在“至少在還有足夠多,并且同樣好的東西留給其他人共同享有的情況下”[18]。作為賦權規(guī)制邏輯的對立面,公共領域規(guī)制邏輯以“人工智能生成內(nèi)容屬于公共領域”而站穩(wěn)腳跟,就論證邏輯而言,公共領域規(guī)制邏輯的建立基于“人的主體地位”以及知識私有性與公共性矛盾兩大要點,其本質(zhì)是對人類中心主義思想的堅守以及對“機器人性遮蔽人性”的擔憂[19]。具體而言,公共領域規(guī)制邏輯摒棄了因缺失人之主體性的機器創(chuàng)作成果,認為機器創(chuàng)作成果無法體現(xiàn)社會學意義的主體間性(Intersubjectivity)的價值內(nèi)涵[4],虛化了作為人的主體地位。同時,公共領域規(guī)制邏輯通過將人工智能生成內(nèi)容歸屬于公共領域,堅定人類中心主義的思想,使得人類在人類掌控技術與技術反噬人類之間走向使“人的主體性”在未來占據(jù)主導地位的適當路徑。因而,在人工智能可能侵擾人類主導地位的今天,將人工智能生成內(nèi)容歸屬于公共領域應是破除技術迷信、回歸人類理性的最佳選擇。
然而,公共領域規(guī)制邏輯的應用也并非十全十美,將人工智能生成內(nèi)容完全納入公共領域也將產(chǎn)生一系列難題:第一,大量人工智能生成的內(nèi)容進入公共領域,造成公共領域的擴張,社會成員對于知識的公共性使用需求在得到滿足的同時,也潛移默化地拔高了社會公眾的審美標準,由此容易導致社會整體對于“獨創(chuàng)性”標準的模糊認知,著作權法中最低限度的創(chuàng)造要求將難以實現(xiàn)統(tǒng)一的認知,智力創(chuàng)作的門檻隨之提升,創(chuàng)作者的智力創(chuàng)作負擔加劇。第二,公共領域規(guī)制邏輯下人工智能的內(nèi)容生成將面臨激勵不足的問題,而這無疑極大打擊人工智能投資者、研發(fā)者以及用戶作者創(chuàng)作的積極性。對于人工智能投資者而言,進行資本投入是以獲取更大收益為目的,人工智能生成內(nèi)容的產(chǎn)生蘊含著人工智能投資者自身的投入成本,將人工智能所生成的內(nèi)容全部歸屬于公共領域,難免極大挫傷投資者的投資熱情[20],不利于投資者繼續(xù)投入資本以實現(xiàn)技術的迭代更新。此外,對于作者而言,大量疑似“作品”的人工智能生成內(nèi)容涌入市場,將極大造成智力成果供給與需求的失衡,同時大量人工智能生成內(nèi)容冒充個人作品的行為也將隨之出現(xiàn),這無疑會挫傷真正創(chuàng)作者的創(chuàng)作熱情與創(chuàng)作積極性。第三,過度使用公共領域的人工智能生成內(nèi)容將導致“公地悲劇(Tragedy of the Commons)”[21],個人為追求利益的最大化濫用公共領域的資源,無視公共領域的承受能力。人工智能因其大數(shù)據(jù)分析、認知計算以及深度學習等優(yōu)勢愈發(fā)得到青睞,通過人工智能實現(xiàn)內(nèi)容的產(chǎn)出已是家常便飯之舉,然而這也意味著人們對于技術的依賴程度逐步加深。在此種背景下,將人工智能生成內(nèi)容歸屬于公共領域,將導致人們愈發(fā)無限制地使用人工智能技術,依托人工智能不斷挖掘已有公共資源,最終造成公共領域資源的枯竭,社會整體福利也因此下降。
三、人工智能生成內(nèi)容行為規(guī)制邏輯的正當性基礎
賦權規(guī)制邏輯與公共領域規(guī)制邏輯作為一個硬幣的兩面,從不同視角對人工智能生成內(nèi)容提出保護方案,兩種方案均具備自身的正當性與合理性。然而,以賦權規(guī)制邏輯思路所構建的人工智能生成內(nèi)容保護體系,本質(zhì)上是以財產(chǎn)規(guī)則為核心的權利保護模式,在人工智能參與主體多元且利益復雜的背景下,賦權規(guī)制邏輯的開展卻容易存在界權以及行權成本高昂的問題,同時明確的產(chǎn)權界定也容易侵犯社會公眾對人工智能生成內(nèi)容的公共性使用,不利于社會整體福利的提升。反之,公共領域規(guī)制邏輯側重公共利益的維護,是海量用戶共創(chuàng)知識趨勢下的選擇,但因激勵機制缺失或公共性資源濫用等問題而難以有效維護各方利益。
因此,是否考慮通過引入行為規(guī)制邏輯以避免“非黑即白”式的路徑選擇成為當下急需討論的問題。行為規(guī)制邏輯并非給予權利人排他性的確權,而是通過合同法、反不正當競爭法等法律給予明確的義務以及不履行該義務所導致的法律后果[22]。相比較于賦權規(guī)制邏輯以及公共領域規(guī)制邏輯,行為規(guī)制邏輯的展開具備正當性,即能有效維護公共利益,實現(xiàn)合理激勵以及兼顧創(chuàng)新效率與分配公平。
(一)促進公共利益目標的實現(xiàn)與“普遍性共識”的凝聚
行為規(guī)制邏輯不以賦權作為其規(guī)制手段,而通過設定相應義務底線明確各方主體的行為空間,這意味著私人利益與公共利益之間的關系將得以實現(xiàn)更好的良性互動,有助于促進公共利益目標的實現(xiàn)。行為規(guī)制邏輯與實現(xiàn)公共利益目標之間的關系,建立在人工智能生成內(nèi)容作為大型數(shù)據(jù)集合的邏輯基礎之上。就人工智能生成內(nèi)容而言,其表征體現(xiàn)為大型的數(shù)據(jù)處理系統(tǒng)對相應數(shù)據(jù)的處理與輸出[23],而此類數(shù)據(jù)不僅包含著人工智能投資的“非創(chuàng)作性投入”利益,也承載著公共性使用的需求。相比較于賦權規(guī)制邏輯對于人工智能生成內(nèi)容的排他性保護,行為規(guī)制邏輯的應用能最大程度地發(fā)揮人工智能生成內(nèi)容利用的正外部性作用[22],使得相應數(shù)據(jù)得以自由流通,豐富公共領域的知識供給,典型如“人工智能+”模式的應用成為各行各業(yè)推動經(jīng)濟發(fā)展的新賽道??梢钥闯?,行為規(guī)制邏輯因其規(guī)制模式的特點,可以為公共領域釋放出更大的靈活空間,在規(guī)制人工智能生成內(nèi)容的同時,也促使其以更高效率滿足社會公共性使用的需求,激發(fā)數(shù)據(jù)集合的規(guī)模效應,促進公共利益目標的實現(xiàn)。
此外,不同于公共領域規(guī)制邏輯將人工智能生成內(nèi)容完全歸屬于公共領域,行為規(guī)制邏輯對于公共領域空間的釋放具有更加明確的目的性,即凝聚社會成員公共性使用的“普遍性共識”,以避免濫用公共領域資源造成“公地悲劇”。正如法經(jīng)濟學中對于“公地悲劇”的解釋[21],因有限理性假設的存在,自私的個體將過度剝削不受規(guī)范的公共資源,這意味著把人工智能生成內(nèi)容完全歸屬于公共領域?qū)⒉豢杀苊鈱е聦操Y源的濫用,進而產(chǎn)生類似公共物品的市場失靈效果。對于這一問題的克服,除了明確產(chǎn)權歸屬之外,還可通過強化管制實現(xiàn)公共資源的管理。在行為規(guī)制的邏輯下,法律通過設定責任規(guī)則明確應履行的義務,實則是通過強化監(jiān)管的模式提升社會公共性資源使用的共識。需要明確的是,這種共識的提升與凝聚并非治標不治本的做法,而是基于有效監(jiān)管措施下通過提升社會集體規(guī)范意識從根源上解決可能產(chǎn)生的濫用公共資源問題。進言之,行為規(guī)制邏輯從規(guī)制目的上更加側重對公共利益的維護以及對于公共資源的規(guī)范性使用,根據(jù)這一思路,人工智能生成內(nèi)容所涉及的相關主體將能更好地促進知識的傳播與利用,在提升自身效益的同時兼顧公共利益目標的實現(xiàn)。
(二)實現(xiàn)產(chǎn)業(yè)發(fā)展的合理激勵與利益平衡的維護
行為規(guī)制邏輯關注主體的行為狀態(tài),通過精準規(guī)制各主體的違法行為以及不當行為以實現(xiàn)法益的保護,此種規(guī)制模式同樣能為各商業(yè)主體市場競爭以及產(chǎn)業(yè)發(fā)展提供激勵。不同于賦權規(guī)制邏輯給予明確的產(chǎn)權界定,行為規(guī)制邏輯實則給予各市場主體更加寬泛以及靈活的市場競爭空間,鼓勵以市場競爭實現(xiàn)自身利益的增長。行為規(guī)制邏輯下對于法益的保護具備一定靈活的空間,對于行為對法益的損害也具有一定的容忍度,并不因法益保護的法定性而當然認為“有損害便有救濟”。此外,行為規(guī)制邏輯也對人工智能生成內(nèi)容實現(xiàn)相應的激勵,且此種激勵的程度控制在合理的范圍之內(nèi)。具體而言,行為規(guī)制邏輯鼓勵人工智能投資者參與市場競爭以獲得收益,這種激勵的產(chǎn)生源于“法無禁止即可為”下的靈活空間,即人工智能投資者可在不違反法律所規(guī)定的義務性要求的前提下,實現(xiàn)對自身投資成本的保護,如就數(shù)據(jù)爬取行為設置技術措施或在不違反法律規(guī)定或合同約定的情況下爬取數(shù)據(jù)。然而,行為規(guī)制邏輯下的激勵并不盲目,如主體的行為違反法律規(guī)定或合同約定,則同樣應承擔相應的法律后果。就激勵的程度而言,行為規(guī)制模式下對于產(chǎn)業(yè)發(fā)展的激勵仍然以法律規(guī)定或合同約定為底線,并輔之以相應的法律后果,確保在保護合法權益的同時對產(chǎn)業(yè)自身發(fā)展實現(xiàn)合理且必要的激勵。
深究行為規(guī)制的運行邏輯,除了給予產(chǎn)業(yè)發(fā)展與技術應用合理激勵外,還蘊含著利益平衡的功能。這是由于行為規(guī)制邏輯的運行并非規(guī)則的簡單適用,其目的在于通過規(guī)范各主體之間的行為以實現(xiàn)多元主體間的利益合理分配,確保個人利益與公共利益之間的平衡。行為規(guī)制邏輯對于利益平衡的維護主要體現(xiàn)在對于個人利益與公共利益、多元主體間的利益以及創(chuàng)新激勵與風險控制等方面,具體而言:第一,行為規(guī)制邏輯確保個人利益與公共利益之間保持平衡狀態(tài)。明確的責任規(guī)則以及具體的法律后果將促使各利益主體在法律規(guī)定的范圍內(nèi)實現(xiàn)自身合法利益,對于公共利益的侵犯將因懲罰性措施的存在而有所約束。相關規(guī)則的限制也為公共領域的發(fā)展留足空間,避免主體因追求個人利益最大化而損害公共福祉。第二,行為規(guī)制邏輯保障多元主體間的利益平衡。在人工智能內(nèi)容生成的過程中,參與主體主要包括人工智能投資者、人工智能使用者等成員,涉及不同主體間的個人隱私、數(shù)據(jù)安全等利益。行為規(guī)制邏輯通過明確的行為規(guī)范和責任機制,以靈活的方式調(diào)整各主體間的行為,使得人工智能投資者或所有者的相關利益得到合理的保護。第三,行為規(guī)制邏輯更加關注人工智能技術發(fā)展創(chuàng)新激勵與風險控制的平衡。技術的創(chuàng)新往往蘊含著新的風險與不確定性,行為規(guī)制邏輯基于明確的保護與限制在為技術創(chuàng)新提供充分發(fā)展空間的同時,也以相應的法律后果劃定風險控制的紅線。與賦權規(guī)制邏輯相比,行為規(guī)制邏輯能有效避免因產(chǎn)權“壟斷”而產(chǎn)生的遏制技術創(chuàng)新的危機,同時“底線思維”式的風險控制機制也有助于確保法律規(guī)則的適應性和有效性,防范技術迭代升級所帶來的風險。
(三)兼顧創(chuàng)新效率與分配公平
與其他技術不同,人工智能的發(fā)展不僅涉及人類對技術創(chuàng)新的期待,還牽涉現(xiàn)有技術發(fā)展所帶來的利益分配,尤其是關于人工智能生成內(nèi)容法律保護問題沸沸揚揚時,對于采取何種規(guī)制模式保護基于人工智能所產(chǎn)生的自主成果成為關鍵問題。在此背景下,以行為規(guī)制邏輯展開的保護模式在滿足技術創(chuàng)新效率的合理期待的同時,也以市場主體可預見性和可欲性的方式實現(xiàn)其利益分配的需求。
在行為規(guī)制的邏輯內(nèi),人工智能技術發(fā)展的創(chuàng)新效率以及基于人工智能技術所產(chǎn)生的分配公平可以實現(xiàn)兼顧,此種情況所產(chǎn)生的原因不僅在于現(xiàn)有過度財產(chǎn)權化以及過度財產(chǎn)利益化的思路阻礙了創(chuàng)新效率與分配公平,還在于行為規(guī)制邏輯自身的優(yōu)勢使得創(chuàng)新效率與分配公平具備了實現(xiàn)的可能性。一方面,基于對經(jīng)濟利益的過度保護,人們習慣“將一些本不應當通過設定財產(chǎn)‘利益’和財產(chǎn)權的方式予以救濟的利益,以財產(chǎn)‘利益’和財產(chǎn)權的方式進行保護”[24],人工智能生成內(nèi)容的賦權保護便是這種情況。因而,在對人工智能生成內(nèi)容之上的利益尚未厘清時以過度財產(chǎn)權化或過度利益化的方式保護人工智能生成內(nèi)容,容易造成對既有技術的壟斷以及未來技術發(fā)展的遏制,這無疑不利于技術創(chuàng)新的發(fā)展以及可能利益的分配。另一方面,由于市場主體對于“合法與非法”的邊界具備較高的靈敏度,以及對于信息獲取和溝通的能力較強,行為規(guī)制邏輯的適用并不會給市場主體帶來較強的邊際復雜度以及市場不確定性[25]。在此種判斷下,市場主體將能更好地把握人工智能技術的創(chuàng)新節(jié)奏,在具備可預見性的前提下,對于既有技術成果的分配將能以更加公平的方式實現(xiàn),確保在提升技術創(chuàng)新效率的同時[26],兼顧利益的分配公平。
此外,人工智能生成內(nèi)容作為大型的數(shù)據(jù)集合,在其權利邊界尚未清晰的情況下盲目賦權容易導致大面積的違法行為,而這無疑會使得技術的發(fā)展形格勢禁,對于人工智能生成內(nèi)容的使用以及利益的分配也難以兼顧公平。主要原因在于,人工智能生成內(nèi)容權利邊界的模糊造成保護漏洞,不法分子往往基于這些漏洞提前“占領”相關內(nèi)容并攫取利益,技術的發(fā)展因此受到限制,原本屬于權利人的利益也無法得到有效保護。相比較而言,行為規(guī)制邏輯的引入無疑可以避免因排他性賦權所導致的普遍性侵權現(xiàn)象[22]。易言之,行為規(guī)制邏輯以明確的義務性規(guī)定合理界分合法與非法行為,使得市場主體對自身的行為有所預期,有效防范潛在的侵權風險。在此情況下,技術的創(chuàng)新發(fā)展與利益的分配公平將得以兼顧,對于市場主體的合法利益也能以更加周全的方式得到保護。
四、基于行為規(guī)制視角的人工智能生成內(nèi)容保護路徑建構
在確定以行為規(guī)制邏輯實現(xiàn)對人工智能生成內(nèi)容保護的基礎之上,應進一步明確行為規(guī)制的對象指向,厘清行為規(guī)制所應保護的法益內(nèi)容。同時,基于人工智能生成內(nèi)容的不同屬性以及數(shù)據(jù)本質(zhì),嘗試探索利益指向下的人工智能生成內(nèi)容的動態(tài)保護路徑,確保對人工智能生成內(nèi)容的行為規(guī)制通過在激勵技術創(chuàng)新以及商業(yè)模式應用的同時,兼顧市場主體的權益保護需求,減少規(guī)制者與被規(guī)制者的信息不對稱,實現(xiàn)產(chǎn)業(yè)發(fā)展的動態(tài)激勵并改善創(chuàng)新環(huán)境。
(一)人工智能生成內(nèi)容行為規(guī)制的三重保護利益
基于行為規(guī)制邏輯保護人工智能生成內(nèi)容需要以明確保護的利益內(nèi)容為前提。在現(xiàn)有的民事權利與民事利益二分的框架下,人工智能生成內(nèi)容因其作為數(shù)據(jù)集合的事實屬性4,不可否認在人工智能生成內(nèi)容之上蘊含著不同的利益保護內(nèi)容。在不采取賦權規(guī)制邏輯以及公共領域規(guī)制邏輯的情況下,對于人工智能生成內(nèi)容的行為規(guī)制應以明確其所保護的利益內(nèi)容為落腳點,綜合考慮基于合同關系、營業(yè)關系以及公共性使用需求所產(chǎn)生的相應利益。主要原因在于,人工智能生成內(nèi)容蘊含著人工智能投資者、使用者、所有者以及社會公眾等主體的資本要素投入、公共性使用需求等內(nèi)容。因而,為實現(xiàn)對人工智能生成內(nèi)容的行為規(guī)制,首先應以是否存在相應利益為判斷基礎,在確定相應保護利益后再通過相應行為規(guī)范予以保護,才能確保人工智能生成內(nèi)容得到合理限度范圍內(nèi)的規(guī)制,符合邏輯的正當性。
第一,人工智能生成內(nèi)容之上存在基于人工智能生成內(nèi)容的原生性利益及其衍生利益等市場性利益。市場主體將人工智能生成內(nèi)容置于市場交易的環(huán)境中,無疑是規(guī)制人工智能生成內(nèi)容的重要應用場景。圍繞人工智能生成內(nèi)容所蘊含的非物質(zhì)性利益,市場主體可以基于合同關系產(chǎn)生相應的市場性利益,因而針對損害市場性利益的行為規(guī)制符合人工智能生成內(nèi)容的保護需求。相關市場性利益主要包括基于人工智能生成內(nèi)容原生性利益所產(chǎn)生的兩類利益:第一類利益主要是基于合同關系所產(chǎn)生的直接利益。該利益的產(chǎn)生是市場主體在市場交易場景下利用人工智能生成內(nèi)容所產(chǎn)生的利益結果,用戶就使用人工智能的需求以及技術賣點支付相關許可費或使用費,由此產(chǎn)生的直接性利益[27]。第二類是基于人工智能生成內(nèi)容所產(chǎn)生的衍生利益。目前,人工智能與各個領域相互結合并成為新質(zhì)生產(chǎn)力的動力引擎,市場愈發(fā)青睞于人工智能技術實現(xiàn)廣告投放、市場營銷等市場行為[28]。概言之,人工智能生成內(nèi)容作為數(shù)據(jù)集合,在市場推廣以及傳播的過程因人工智能技術的特性以及內(nèi)容資源的豐富,容易產(chǎn)生流量聚合效應,吸引相應的廣告或推銷需求。本質(zhì)上,此類衍生利益是人工智能生成內(nèi)容使用價值所體現(xiàn)的用益性利益,當此類利益遭受損害時,無疑會對人工智能生成內(nèi)容的市場價值造成影響[23]??陀^而言,人工智能生成內(nèi)容的使用價值在合同關系的場景中具備直接利益以及衍生利益,在不實施賦權規(guī)制邏輯的前提下,行為規(guī)制邏輯能夠更好地對此類市場性利益加以保護。
第二,人工智能生成內(nèi)容涉及人工智能投資者、所有者的資本要素投入,對于人工智能所生成的內(nèi)容實際上蘊含著人工智能投資者基于營業(yè)關系所產(chǎn)生的營業(yè)性利益。本質(zhì)而言,人工智能系統(tǒng)所生成的內(nèi)容屬于數(shù)據(jù),而所生成的數(shù)據(jù)無疑包含在人工智能服務提供者的營業(yè)財產(chǎn)范疇[29]。就人工智能生成內(nèi)容的技術原理而言,人工智能通過對相關數(shù)據(jù)的收集、訓練等處理實現(xiàn)技術應用以及重復迭代,所生成的內(nèi)容是人工智能技術規(guī)則、算法以及模板應用的結果[30]。人工智能技術應用的過程中無疑包含著大量人工智能投資者的“非創(chuàng)作性投入”,是資本要素投入后的結果產(chǎn)出。不僅如此,人工智能使用者基于技術所生產(chǎn)的內(nèi)容是用戶在平臺之上所形成的數(shù)據(jù),該數(shù)據(jù)存儲于人工智能后臺系統(tǒng),包含在人工智能服務提供者的營業(yè)活動范圍之內(nèi)。因而,采用行為規(guī)制邏輯對人工智能生成內(nèi)容予以保護,不可避免地需要考慮對人工智能服務提供者此類營業(yè)性利益的保護,就損害營業(yè)性利益的行為展開規(guī)制。
第三,環(huán)顧人工智能生成內(nèi)容的生成機理,無論是創(chuàng)作素材還是結果產(chǎn)出均涉及對公共性知識的使用,內(nèi)在包含著社會公共性的使用需求以及公共利益。主要原因在于:一方面,人工智能生成內(nèi)容在創(chuàng)作之初涉及對相應公共性知識資源的利用,不僅是人工智能算法的符號與技術,抑或是對所創(chuàng)作素材的公共性使用[4],典型如對相應藝術家創(chuàng)作風格的融合以及對基礎性公共知識的采納,這些均蘊含著社會公共性價值;另一方面,人工智能生成內(nèi)容也包含著對結果產(chǎn)出的價值要求,即不得觸碰法律、行政法規(guī)以及社會公德、倫理道德的底線?!渡墒饺斯ぶ悄芊展芾頃盒修k法》第四條明確規(guī)定了對于生成式人工智能的公共性價值要求,對于所生成的內(nèi)容不得危害國家安全和利益等公共性價值。應當注意的是,人工智能生成內(nèi)容所體現(xiàn)的公共性利益是人工智能技術應用以及內(nèi)容服務的內(nèi)在要求,人工智能作為顛覆性技術在發(fā)展的同時,也應關注其所內(nèi)含的公共利益價值。因而,運用行為規(guī)制邏輯規(guī)范人工智能生成內(nèi)容以確保公共利益得以實現(xiàn)更是技術發(fā)展與應用的題中應有之義。
(二)基于利益指向的人工智能生成內(nèi)容動態(tài)保護路徑
基于行為規(guī)制邏輯實現(xiàn)人工智能生成內(nèi)容的動態(tài)保護,需要以人工智能生成內(nèi)容所蘊含的利益為指向,規(guī)制侵犯人工智能生成內(nèi)容所涉及市場性利益、營業(yè)性利益以及公共性利益的行為。在涉及以上利益的相關行為場景中,通過現(xiàn)有的法律框架對利益主體施以義務性要求,以相對溫和的方式給予市場主體預期,在制止不法行為的同時,實現(xiàn)個人利益與社會公共利益之間的平衡。務實而言,行為規(guī)制邏輯的目的在于實現(xiàn)人工智能生成內(nèi)容的使用行為規(guī)范處理,在保護合法正當?shù)娜斯ぶ悄苌蓛?nèi)容使用行為的同時,就可能存在的涉及人工智能生成內(nèi)容的違法行為施以規(guī)制。在此思路下,以利益為指向的人工智能生成內(nèi)容的行為規(guī)制思路實則以一種更加精準的方式防范潛在的侵權風險,聚焦保護行為背后的利益,能夠有效實現(xiàn)人工智能生成內(nèi)容的靈活、規(guī)范治理。
首先,面向基于合同關系所產(chǎn)生的直接市場性利益,以合同規(guī)則針對性規(guī)制相應行為是市場性利益得以維護的關鍵。合同規(guī)則的展開應綜合適用法定合同規(guī)則與意定合同規(guī)則,就合同約定范圍內(nèi)的義務性事項應優(yōu)先適用意定合同規(guī)則,如不存在相關約定事項時,則以法定合同規(guī)則為補充。在基于合同關系所產(chǎn)生的行為場景中,典型侵犯人工智能生成內(nèi)容的市場性利益的行為主要表現(xiàn)為對合同主給付義務以及附隨義務的違背,主給付義務要求人工智能服務提供者在用戶支付會員費、許可費等使用費用后提供人工智能技術服務,與此相應的是,用戶需要履行給付義務以獲取服務5。在此場景中,行為規(guī)制的主要指向便是對于合同主給付義務的不作為行為,即合同的違約行為。與此類似的是,合同附隨義務的存在要求合同雙方基于誠實信用原則,根據(jù)合同的目的、性質(zhì)以及交易習慣履行相應通知、保密等義務,典型的如人工智能服務提供者不得損害合同相對方的合法利益以及人工智能服務提供者對于信息的保密義務。此時,在存在意定合同規(guī)則的情況下,優(yōu)先適用意定合同規(guī)則以尊重合同雙方意思自治。如不存在合同約定事項,則以法定合同規(guī)則補充適用。關于基于人工智能生成內(nèi)容所產(chǎn)生衍生利益的保護,則應根據(jù)具體場景適用相應行為法依據(jù)以打擊侵犯衍生利益的不法行為。與人工智能生成內(nèi)容相互結合的市場營銷行為應滿足現(xiàn)行法律法規(guī)的要求,基于人工智能生成內(nèi)容所形成的廣告投放、流量聚合等行為不得對人工生成內(nèi)容的使用價值造成損害,同樣需要在合同規(guī)則的框架下履行相應義務性規(guī)定,若對社會公共利益或公共秩序造成侵害時,則需要行政法或刑法等公法介入處理。
其次,面向基于營業(yè)關系所產(chǎn)生的營業(yè)性利益,則應先區(qū)分競爭場景或非競爭場景的規(guī)制前提,根據(jù)不同的場景實現(xiàn)針對性的行為規(guī)制。在不涉及競爭的場景下,可以考慮適用侵權法對人工智能生成內(nèi)容進行行為規(guī)制。此時,侵權法的行為規(guī)制對象則是不特定主體對人工智能生成內(nèi)容的侵害行為,典型如非法破壞計算機系統(tǒng)、惡意侵入人工智能服務系統(tǒng)破壞數(shù)據(jù)、應用程序等。需要注意的是,以侵權法實現(xiàn)行為規(guī)制需考慮不同場景下侵權行為的構成要件,在客觀行為、主觀過錯程度以及因果關系等要件判斷的基礎上實現(xiàn)合理規(guī)制。對于一些可能構成合理使用的行為,如商業(yè)秘密保護中的反向工程、基于學習研究的兼容性或安全性測試等行為,則不構成侵權。
在涉及競爭的場景下,應以反不正當競爭法規(guī)制相關不正當競爭行為,避免人工智能服務提供者營業(yè)性利益的受損。該法的行為指向應明確為基于人工智能生成內(nèi)容的不正當競爭行為,包括但不限于商業(yè)混淆、濫用競爭優(yōu)勢、對人工智能生成內(nèi)容的抄襲行為等。本質(zhì)而言,此類不正當競爭行為的產(chǎn)生違背了市場正常競爭的秩序,損害了作為營業(yè)者的人工智能服務提供者的營業(yè)性利益。在人工智能生成內(nèi)容作為數(shù)據(jù)集合的判斷前提下,適用反不正當競爭法能夠?qū)崿F(xiàn)對法律難以確權且合同、侵權法不便規(guī)制的數(shù)據(jù)的漸進性、場景化保護[30]。需要注意的是,在賦權思路未能明確給予保護救濟時,行為規(guī)制路徑的采取可以有效維護市場秩序的運行及促進產(chǎn)業(yè)的有序競爭,然而行為規(guī)制路徑的采取也需防止因過度泛化一般條款而導致競爭權益向權利的錯誤升級。
因此,在通過反不正當競爭法規(guī)制涉及人工智能生成內(nèi)容的不正當競爭行為時,除了應遵循競爭法適用的法律范式之外,還應考慮市場競爭存在的競爭損害正當性,尤其是應當正確認識不正當競爭所造成的損害性質(zhì)。市場競爭與市場損害相伴相生,市場競爭所造成的損害具有中性色彩[31],對市場競爭損害性質(zhì)的正確認識無疑將有利于合理規(guī)制基于人工智能生成內(nèi)容所引發(fā)的一系列不正當競爭行為,防止過度適用一般條款而侵占了原本屬于市場競爭的空間?;诖?,將人工智能生成內(nèi)容置于人工智能服務提供者的商業(yè)模式[8]與人工智能產(chǎn)業(yè)發(fā)展模式中,并基于商業(yè)模式的運轉以及產(chǎn)業(yè)政策的變動調(diào)整正確評判人工智能服務提供者的市場競爭程度以及損害程度,無疑能準確判斷行為違法性的構成要件,從而避免因技術創(chuàng)新所帶來的信息不對稱造成立法乃至司法裁判觀點的差異。
最后,在涉及侵犯公共利益行為的規(guī)制上應以行政法或刑法作為主要規(guī)制手段,這便要求人工智能生成內(nèi)容的結果產(chǎn)出以及內(nèi)容使用不得違反法律、行政法規(guī)的強制性規(guī)定。在人工智能生成內(nèi)容的結果產(chǎn)出上,應以維護個人合法權益、公共利益以及國家利益為底線,尊重社會倫理公德和道德。對于人工智能所生成的內(nèi)容需滿足行政法與刑法上的義務性要求,尤其是在滿足社會公共性使用需求的過程中不得存在歧視、色情暴力等違法性內(nèi)容。此外,基于人工智能生成內(nèi)容的使用行為同樣需符合公共利益的合理期待,在涉及市場營銷、廣告投放等對外內(nèi)容使用的過程中,如出現(xiàn)傳播淫穢色情、暴力信息等違法使用行為,則應以行政法或刑法及時予以規(guī)制。
(三)人工智能生成內(nèi)容行為規(guī)制的實現(xiàn)效果
行為規(guī)制邏輯所應實現(xiàn)的效果并非僅僅是對行為劃定紅線或?qū)`法行為予以懲罰,這種“純粹”的行為規(guī)制并非人工智能時代下科技與法律關系發(fā)展的最佳選擇。換言之,基于行為規(guī)制邏輯對人工智能生成內(nèi)容的保護應滿足市場對于技術發(fā)展與創(chuàng)新激勵的合理期待,實現(xiàn)產(chǎn)業(yè)發(fā)展的動態(tài)激勵與改善創(chuàng)新環(huán)境的最終效果。這主要是考慮市場競爭的本質(zhì)在于實現(xiàn)私人利益與公共利益的和諧統(tǒng)一,市場競爭的普遍存在使得相關違法行為所造成的損害存在一定“合理”的空間6。人工智能生成內(nèi)容作為前沿技術應用于經(jīng)濟社會的具體體現(xiàn),以獨特的技術功能與社會影響力沖擊著科技與法律之間的關系,在采取行為規(guī)制邏輯保護人工智能生成內(nèi)容時,應謹慎考慮行為規(guī)制所可能造成的影響,給技術的發(fā)展以及市場的培育保留合適的生長空間,防止因過嚴或過寬的規(guī)制手段造成技術和市場發(fā)展的萎縮。
同時,法律滯后性的存在使得法律無法同步適應技術演變帶來的影響,這意味著對于人工智能生成內(nèi)容的行為規(guī)制應盡可能減少規(guī)制者與被規(guī)制者之間的信息不對稱,實現(xiàn)靈活、公平的規(guī)制效果。在人工智能時代,科技以高頻率的創(chuàng)新速度實現(xiàn)技術迭代,與科技緊密相關的經(jīng)濟社會也因此產(chǎn)生巨變,作為規(guī)制者的公權力機關與被規(guī)制者之間的信息匹配水平因技術的演變存在落差。本質(zhì)而言,人工智能是一種“先驗”乃至“超驗”(transcendent)的存在[32],這導致人們無法準確認識人工智能所帶來的各種變化,規(guī)制者與被規(guī)制者之間的信息差距也因此擴大。行為規(guī)制邏輯以清晰的法律邊界界定各方的行為范圍,通過給予行為違法性的判斷指標,縮小因人工智能技術所產(chǎn)生的信息差距,這無疑有利于減少公眾的認知成本以及強化法律適用的準確性,保障相關主體的合法利益。
行為規(guī)制邏輯的采取并非全盤否定人工智能生成內(nèi)容賦權的可能性,而是在賦權規(guī)制邏輯以及公共領域規(guī)制邏輯暫存爭議時,給予人工智能生成內(nèi)容可控、特定的規(guī)制選擇。對于行為規(guī)制邏輯的引入并不會抹殺未來人工智能生成內(nèi)容賦權的發(fā)展空間,其所實現(xiàn)的規(guī)制效果實則與賦權規(guī)制思路呈現(xiàn)出競爭、配合與嵌套等多重復雜關系[25],并非排斥條件成熟下采取賦權規(guī)制邏輯的可能性。與此同時,通過行為規(guī)制邏輯可以有效界定私人利益與公共利益之間的邊界,在一定程度上回應了公共領域規(guī)制邏輯的關鍵需求,滿足公共性知識使用的需求以及公共利益的維護。總體而言,行為規(guī)制邏輯并非屬于“全盤否定”或“一概賦權”的極端選擇,而是將人工智能生成內(nèi)容的規(guī)制控制在相對柔和、可控的范圍之內(nèi),在符合科技與法律發(fā)展關系的同時,也滿足相關主體的利益期待。
五、結語
帕斯卡在其小說《人是一根會思考的蘆葦》之中寫道:“人既高貴又渺小,人因思想而高貴,高貴到知道自己渺小和高貴?!闭\然,人因思想而與人工智能存在本質(zhì)區(qū)別,在應對人工智能技術所造成的影響時,以人為本的治理思維始終貫穿科技與法律之間的互動關系。換言之,討論如何規(guī)制人工智能生成內(nèi)容實則是思考如何在堅持以人為本的前提下實現(xiàn)科技與法律的和諧發(fā)展。以行為規(guī)制的邏輯實現(xiàn)人工智能生成內(nèi)容的保護,實際上是在尊重現(xiàn)有法律規(guī)范與技術演變邏輯的基礎上對科技與法律關系的一次有益的探索。
面對人工智能這一顛覆性的技術,所應思考的問題可能并不僅僅在于如何利用現(xiàn)有法律規(guī)范規(guī)制因技術所造成的影響,而更多的是探索采取何種規(guī)制邏輯才是符合現(xiàn)在技術演變應用與產(chǎn)業(yè)模式發(fā)展的最佳選擇。在賦權規(guī)制邏輯與公共領域規(guī)制邏輯尚存爭議之時,通過厘清人工智能生成內(nèi)容所可能蘊含的三重保護利益,并基于利益指向?qū)崿F(xiàn)人工智能生成內(nèi)容的行為主義保護,不免是另一種具有可能性的思考。在人工智能因數(shù)據(jù)訓練、技術迭代而變得更加“團結”之時,人類應更加積極思考多元化的規(guī)制方案,充分發(fā)揮現(xiàn)有制度規(guī)范的優(yōu)勢與作用,從而避免因思維的“四分五裂”而丟失以人為中心的主導地位。
參考文獻:
[1] 吳漢東. 人工智能生成作品的著作權法之問[J]. 中外法學,2020,32(3):653?673.
[2] 許明月,譚玲. 論人工智能創(chuàng)作物的鄰接權保護——理論證成與制度安排[J]. 比較法研究,2018(6):42?54.
[3] 黃玉燁,司馬航. 孳息視角下人工智能生成作品的權利歸屬[J]. 河南師范大學學報(哲學社會科學版),2018,45(4):23?29.
[4] 江帆. 論人工智能創(chuàng)作物的公共性[J]. 現(xiàn)代出版,2020(6):29?36.
[5] 張平. 人工智能生成內(nèi)容著作權合法性的制度難題及其解決路徑[J]. 法律科學(西北政法大學學報),2024,42(3):18?31.
[6] 齊愛民,楊煜. 人工智能生成內(nèi)容確權模式的嬗變與數(shù)據(jù)財產(chǎn)權的確立[J]. 蘇州大學學報(哲學社會科學版),2024,45(1):91.
[7] 羅伯特·P.莫杰思,辜凌云. 知識產(chǎn)權、投入品市場和無形資產(chǎn)的價值[J]. 網(wǎng)絡法律評論,2022,24(00):3.
[8] 饒先成. 困境與出路:人工智能編創(chuàng)物的保護路徑選擇與構建[J]. 出版發(fā)行研究,2020(11):82.
[9] 熊琦. 人工智能生成內(nèi)容的著作權認定[J]. 知識產(chǎn)權,2017(3):3?8.
[10] 叢立先,李泳霖.生成式AI的作品認定與版權歸屬——以ChatGPT的作品應用場景為例[J]. 山東大學學報(哲學社會科學版),2023(4):171?181.
[11] 王遷. 再論人工智能生成的內(nèi)容在著作權法中的定性[J]. 政法論壇,2023,41(4):24.
[12] 黃匯,黃杰. 人工智能生成物被視為作品保護的合理性[J]. 江西社會科學,2019,39(2):33.
[13] 李偉民. 職務作品制度重構與人工智能作品著作權歸屬路徑選擇[J]. 法學評論,2020,38(3):108?124.
[14] 陳虎. 論人工智能生成內(nèi)容的鄰接權保護——從立論質(zhì)疑出發(fā)的證偽[J]. 電子知識產(chǎn)權,2019(9):18.
[15] 吳漢東. 知識產(chǎn)權法[M]. 北京:北京大學出版社,2014:55.
[16] 易玲,王靜. 論人工智能生成內(nèi)容著作權法保護[J]. 湘潭大學學報(哲學社會科學版),2019,43(6):71.
[17] 刁勝先,秦興翰. 論人工智能生成數(shù)據(jù)法律保護的多元分層模式——兼評“菲林案”與“Dreamwriter案”[J]. 重慶郵電大學學報(社會科學版),2021,33(3):45.
[18] 約翰·洛克.政府論(下篇)[M]. 豐俊功,等譯. 北京:北京大學出版社,2014:36.
[19] 曾白凌. 沒有作者的著作權:ChatGPT對人的反問[J]. 新聞與寫作,2023(9):74.
[20] 易繼明. 人工智能創(chuàng)作物是作品嗎?[J]. 法律科學(西北政法大學學報),2017,35(5):143.
[21] HARDIN G. The tragedy of the commons[J].Science,1969, 162(5364): 1243?1248.
[22] 丁曉東. 新型數(shù)據(jù)財產(chǎn)的行為主義保護:基于財產(chǎn)權理論的分析[J]. 法學雜志,2023,44(2):62.
[23] 馮曉青,潘柏華. 人工智能“創(chuàng)作”認定及其財產(chǎn)權益保護研究——兼評“首例人工智能生成內(nèi)容著作權侵權案”[J]. 西北大學學報(哲學社會科學版),2020,50(2):47.
[24] 孫山. 數(shù)字技術時代作品“過度保護”現(xiàn)象的治理邏輯[J]. 科技與出版,2024(2):104.
[25] 蘇宇,程子洳. 數(shù)據(jù)財產(chǎn)法益保護的行為規(guī)制模式[J]. 鄭州大學學報(哲學社會科學版),2023,56(6):49.
[26] 楊明. 知識產(chǎn)權法學研究應當重視行為選擇視角[N]. 中國知識產(chǎn)權報,2023-08-16(3).
[27] 何煉紅,潘柏華. 人工智能自主生成成果“作品觀”質(zhì)疑與反思[J]. 貴州省黨校學報,2018(5):21.
[28] 何競平. 人工智能在廣告中的應用現(xiàn)狀與展望[J]. 青年記者,2021(22):111.
[29] 周學峰. 網(wǎng)絡平臺對用戶生成數(shù)據(jù)的權益性質(zhì)[J]. 北京航空航天大學學報(社會科學版),2021,34(4):31.
[30] 王遷. 論人工智能生成的內(nèi)容在著作權法中的定性[J]. 法律科學(西北政法大學學報),2017,35(5):148?155.
[31] 孔祥俊. 論反不正當競爭的基本范式[J]. 法學家,2018(1):57.
[32] 劉志毅,張少霆. 智能的啟蒙——通用人工智能與意識機器[M]. 北京:中譯出版社,2023:序言Ⅲ.
Logical Choice and Path Construction of Behavioral Regulation of Artificial Intelligence Generated Content Protection
Liu Weibin
(School of Law, Beihang University, Beijing 100191, China)
Abstract: Empowerment regulation and public domain regulation are the existing regulatory logics for AI-generated content protection, but the former is faced with controversies such as different criteria for the determination of "originality", uncertainty of the subject of the right and its content; although the latter can meet the demand for public use, there are problems such as lack of incentives and misuse of public resources, which makes it difficult to effectively protect the interests of all parties. In contrast,adopting the logic of behavioural regulation can not only effectively promote the realization of the public interest goal and gather the "general consensus" of the public use of the members of the society; it can also effectively achieve reasonable incentives and balance of interests for the development of the industry, and take into account the fair distribution of benefits while promoting technological innovation. With regard to the construction of the path of behavioural regulation of AI-generated content protection, the triple protection interests of market, business and public interests should be clarified, and the dynamic protection of AI-generated content should be achieved based on the interests, so as to provide a more flexible space for the evolution of technology and industrial development, and to achieve the benign interaction and logical self-consistency of the relationship between science and technology and the law.
Keywords: artificial intelligence generated content; logic of legal regulation; behavioral regulation; path construction
作者簡介:劉偉斌(1997—),男,廣東普寧人,博士研究生,研究方向:知識產(chǎn)權法學,人工智能法學。
1 廣東省深圳市南山區(qū)人民法院(2019)粵0305民初14010號判決書。
2 北京互聯(lián)網(wǎng)法院(2023)京0491民初11279號判決書。
3 北京互聯(lián)網(wǎng)法院(2018)京0491民初239號判決書。
4 人工智能生成的內(nèi)容實際上是人工智能模型依據(jù)輸入的數(shù)據(jù)自動生成的結果,本質(zhì)仍為在二進制的基礎上以0和1的組合表現(xiàn)出來的比特形式。
5 ChatGPT用戶協(xié)議中對于付費用戶(Paid Accounts)的約定便能體現(xiàn)這一點。該約定指出當用戶以約定方式完成付款后可以使用相關服務,但當用戶沒有完成付款時,平臺將降低用戶等級(downgrade your account)或暫停服務訪問(suspend your access to our Services)。
6 市場正常競爭所造成的損害具備損害中性,被市場所允許。