林秀芹 郭壬癸
內(nèi)容提要:在機器學(xué)習(xí)與人工神經(jīng)網(wǎng)絡(luò)加持下的人工智能技術(shù)突飛猛進,已逐步發(fā)展出類人智力,具備獨立從事創(chuàng)新活動的能力,傳統(tǒng)的單一人類創(chuàng)新主體分化為人類與人工智能二維創(chuàng)新主體,形成了“三元創(chuàng)新格局”。創(chuàng)新領(lǐng)域的“人類中心主義”岌岌可危,開始向“后人類中心主義”過渡,這將對知識產(chǎn)權(quán)正當(dāng)性理論產(chǎn)生重大沖擊。在人工智能自主創(chuàng)新的背景下,秉持“人類中心主義”的勞動財產(chǎn)理論與人格理論的邏輯前提,與“人”素缺失的事實相悖,因此理論解釋顯失合理性;同樣建立在“機械功利主義”基礎(chǔ)上的激勵理論,不僅存在主體激勵不能的邏輯困境,而且難以消解人工智能技術(shù)的雙刃性,亦無法勝任理論闡釋的任務(wù)。建立在“社會中心主義”理論要旨上,貫徹“平衡主義”,注重“分配正義”與“公共領(lǐng)域豐盈”的社會規(guī)劃理論,契合了人工智能時代的需要,可以有效規(guī)避“人”素缺失陷阱、破解主體激勵不能與技術(shù)雙刃性困境,在激勵創(chuàng)新的同時,均衡知識的傳播與利用,促進人的自我實現(xiàn)以及社會的公平與繁榮發(fā)展。
近年來,隨著機器學(xué)習(xí)與人工神經(jīng)網(wǎng)絡(luò)技術(shù)的突破,人工智能技術(shù)發(fā)展迅速。2021年AlphaFold實現(xiàn)了對人類98.5%的蛋白質(zhì)預(yù)測,①參見查魯·C.阿加沃爾:《人工智能:原理與實踐》,杜博、劉友發(fā)譯,機械工業(yè)出版社2023年版,第3頁。2022年ChatGPT進一步實現(xiàn)了自然語言處理。目前,人工智能正朝著更加“聰明”、反應(yīng)更加迅速的通用型人工智能方向發(fā)展。Elon Musk指出,人工智能作為人類有史以來最具破壞力的技術(shù),②參見蕭雨:《馬斯克:AI可能是有史以來最具顛覆性的技術(shù),人類要小心》,載百家號“觀察者網(wǎng)”2023年7月4日,https://baijiahao.baidu.com/s?id=1768963170234290001&wfr=spider&for=pc.在可預(yù)見的將來將會超過人類。③參見《AI前哨|馬斯克:5年后AI就會比人類更聰明 中國能做到這一點》,載百家號“鳳凰網(wǎng)科技”2023年7月14日,https://baijiahao.baidu.com/s?id=1771347457990738627&wfr=spider&for=pc.有“人工智能教父”之稱的Geoffry Hinton認為,通用型超級人工智能很快將會誕生,它將比人類更加聰明。④參見Tech商業(yè):《“AI教父”Geoffrey Hinton最新演講:當(dāng)機器比我們更聰明時,人類生存會受到威脅》,載騰訊網(wǎng)2023年7月14日,https://new.qq.com/rain/a/20230504A027X400.無獨有偶,Open AI創(chuàng)始人Sam Altman秉持相同觀點并將時間節(jié)點精確為十年內(nèi)。⑤參見頭部科技:《十年內(nèi)將出現(xiàn)超級人工智能!OpenAI CEO首次中國演講(演講實錄)》,載搜狐網(wǎng)2023年7月14日,https://www.sohu.com/a/684674898_120607343.未來雖未至,當(dāng)下現(xiàn)端倪?,F(xiàn)階段人工智能已然參與創(chuàng)新活動,如Stable Diffussion、Midjourney及Optimus等人工智能工具,僅需人類少量的提示便能完成創(chuàng)作,形成客觀上具有獨創(chuàng)性或滿足創(chuàng)造性的成果。隨著人工智能的繼續(xù)發(fā)展,在創(chuàng)新領(lǐng)域可合理預(yù)見創(chuàng)新主體將從單一人類主體向“人類+人工智能”二維并列創(chuàng)新主體格局演變,創(chuàng)新活動將從“人類獨立創(chuàng)新+人機結(jié)合創(chuàng)新”二元創(chuàng)新向“人類獨立創(chuàng)新+人機結(jié)合創(chuàng)新+人工智能獨立創(chuàng)新”的“三元創(chuàng)新格局”發(fā)展。⑥See Pamela Samuelson, Allocating Ownership Rights in Computer-Generated Works, 47 University of Pittsburgh Law Review 1185, 1197 (1985).
人們總是對不確定性充滿恐懼,但實際上“人們所恐懼的并不是不確定本身,而是由于不確定性使我們有可能陷入危險”⑦參見John Frank Weaver:《機器人也是人:人工智能時代的法律》,鄭志峰譯,元照出版公司2018年版,第9頁。。正是由于對未知風(fēng)險的恐懼,人們總在尋求一切可行方式增加確定性概率。⑧參見陳慶超:《德性與永恒:確定性尋求方式及其倫理旨趣》,載《青海社會科學(xué)》2015年第2期,第39頁。理論研究便是賦予人們在不確定性中尋求確定預(yù)期與指導(dǎo)的有效方法。因此,人們往往期待理論研究的適度超前,在面對未來不確定性所生的“未知恐懼”時給予理性支持。隨著人工智能技術(shù)的快速發(fā)展與全方位介入創(chuàng)新領(lǐng)域,“二維并列創(chuàng)新主體格局”與“三元創(chuàng)新活動格局”的發(fā)展趨向,將對建立于“人類中心主義”基礎(chǔ)之上的知識產(chǎn)權(quán)正當(dāng)性理論造成重大沖擊,致使以“人類中心主義”為邏輯基礎(chǔ)的知識產(chǎn)權(quán)正當(dāng)性理論無法對人工智能誘發(fā)的不確定性提供有效理性支持。正是由于相關(guān)理論研究的滯后無法因應(yīng)人工智能的快速發(fā)展,《人類簡史》作者赫拉利等學(xué)者聯(lián)名發(fā)布公開信呼吁暫停通用型超級人工智能的實驗,以待相關(guān)理論研究的完善。⑨參見華夏時報:《馬斯克、圖靈獎得主等千名大佬聯(lián)名呼吁:暫停比GPT-4更強的AI》,載百家號“華夏時報”2023年3月29日,https://baijiahao.baidu.com/s?id=1761696569189476725&wfr=spider&for=pc.然而,人工智能是新一輪技術(shù)革命的核心之一,促進其發(fā)展是產(chǎn)業(yè)勃興之所需與國際時勢之所趨,須臾之隔便可能關(guān)乎整個產(chǎn)業(yè)發(fā)展之成敗,不可常停久滯,因此,相關(guān)理論研究的推進迫在眉睫、不可久待。為因應(yīng)時勢發(fā)展、泯紛爭于未萌,有必要深入檢視人工智能對知識產(chǎn)權(quán)正當(dāng)性理論的挑戰(zhàn),立足“三元創(chuàng)新格局”的未來圖景重塑知識產(chǎn)權(quán)正當(dāng)性理論。
在前人工智能時代,只有人方能從事創(chuàng)新活動的確信從未被質(zhì)疑。隨著人類進入人工智能時代,人們開始反思是否只有人才能從事創(chuàng)新活動,而通用人工智能的發(fā)展進一步放大了對“人是唯一創(chuàng)新主體”的懷疑,傳統(tǒng)的建構(gòu)在“人類中心主義”基礎(chǔ)之上的知識產(chǎn)權(quán)正當(dāng)性理論搖搖欲墜。此種反思懷疑的焦點在于人工智能是否具備智力而能夠獨立從事創(chuàng)新活動。如若認為人工智能具備智力,那么人工智能能夠獨立從事創(chuàng)新活動便不言自明,傳統(tǒng)以“人類中心主義”為論證基礎(chǔ)的知識產(chǎn)權(quán)正當(dāng)性理論勢必岌岌可危;如若反對人工智能具備智力,那么便不會認可人工智能可獨立從事創(chuàng)新活動,以“人類中心主義”為論證基礎(chǔ)的知識產(chǎn)權(quán)正當(dāng)性理論仍具有強適用性。此種爭論分歧持續(xù)不斷,并逐漸演變?yōu)閮纱笾饕髋桑喝跞斯ぶ悄芰髋膳c強人工智能流派。前者認為人工智能永遠不可能具備智力,僅是工具性的技術(shù)綜合體;⑩參見董春雨:《從機器認識的不透明性看人工智能的本質(zhì)及其限度》,載《中國社會科學(xué)》2023年第5期,第149頁。后者認為人工智能可演化為具有類同細胞新陳代謝般自我復(fù)制和升級能力的智能體,不斷地迭代而形成智力,甚至超越人類智能。?參見任曉明、李熙:《自我升級智能體的邏輯與認知問題》,載《中國社會科學(xué)》2019年第12期,第53頁。時至今日,兩派觀點仍在激烈交鋒,交鋒范圍隨著“圖靈測試”與“中文屋測試”等人工智能智力鑒別方法的提出而不斷縮減,但迄今仍未到達彌合“奇點”。
追根究底,此種分歧的根源在于兩千多年的哲學(xué)認識論以主客體二分為基礎(chǔ):人是主體,外部世界是客體,僅擁有智力的人才能作出決定,?同注釋⑦,第7頁?!爸挥腥祟愡@樣的智慧生物才有能力去認識(客觀)世界”?同注釋⑩,第151頁。。人是認識與改造世界的動因和本體,既是認識與改造的起點,也是認識與改造的終點,外部世界是認識與改造的對象。此種主客體二分的認識論在前人工智能時代是站得住腳的,傳統(tǒng)科技問題中能夠明顯區(qū)分出科技的使用者與被使用的科技工具。如飛機,制造與使用者是人類,飛機是被制造與使用的工具,僅作為人類生理器官功能的延伸或補足,服務(wù)于人類的特定需要。但是人工智能的出現(xiàn)使得傳統(tǒng)的主客體二分認知論基礎(chǔ)發(fā)生了動搖。在機器學(xué)習(xí)、人工神經(jīng)網(wǎng)絡(luò)與大數(shù)據(jù)技術(shù)的加持下,人工智能朝著可自我升級(self-improvement)、自主學(xué)習(xí)及自主設(shè)定目標的智能體演變,逐漸擺脫人類大腦器官延伸的功能主義定位,成為了具有類人智力的認知主體,具備了認識與改造世界的主體資格,能夠自主決策。?同注釋?,第54頁。此時,人工智能具備的自主“學(xué)習(xí)”“思考”“設(shè)定目標”與“決策”能力是否屬于智力必然陷入爭議。?參見彭誠信、陳吉棟:《論人工智能體法律人格的考量要素》,載《當(dāng)代法學(xué)》2019年第2期,第52頁。因此,欲研究適用于人工智能時代的知識產(chǎn)權(quán)正當(dāng)性理論,便無法回避何為智力以及人工智能是否具備智力的問題。
如上所述,人工智能是否具備智力問題的紓解,離不開智力為何這個問題的澄清。對于智力的概念,學(xué)者們界定不一。皮亞杰提出的認知發(fā)展理論認為智力是以語言能力和數(shù)理邏輯能力為核心,通過整合方式而存在的能力,具有成功解決問題與良好適用性兩大特征。?See Jean Piaget, The Origins of Intelligence in Children, translated by Margaret Cook, International Universities Press, Inc,1965, p.8-13.加德納認為智力是基于特定社會文化形成的價值標準下,特定主體運用于化解問題與產(chǎn)出有效產(chǎn)品的能力?參見[美]霍華德·加德納:《多元智能》,沈致隆譯,新華出版社1999年版,第10頁。;智力可包括語言、節(jié)奏、數(shù)理、視覺、運動、自省和交往等七元智力結(jié)構(gòu),每個個體擁有的智力結(jié)構(gòu)不同,如有人擅長寫作,有人善于唱歌等。?同注釋?,第18-28頁。雖然學(xué)者們對智力的定義各有差異,但均贊同智力包含解決問題的目的要素和信息加工要素等兩個核心要素,因此智力可表述為在預(yù)先設(shè)定的目標指引下,通過對特定信息的接收與學(xué)習(xí),掌握特定信息背后蘊含的規(guī)律以解決同樣問題的能力。
就解決問題的目的要素而言,目的要素的存在意味著“行為是有目的”,這是一個因果律的描述,與純粹運動相區(qū)分,表征隨機性(Randomness)的排除,行為處在主體的控制之下。就人工智能而言,此種帶有指向性的控制,實際上等同于人工智能的任務(wù)。人工智能的任務(wù)包括內(nèi)在需要型任務(wù)與外部交互型任務(wù),前者是人工智能基于內(nèi)在需要而生,后者是人工智能通過與外部世界交互形成。人工智能基于維護自身運行發(fā)展的用電、存儲等需要,能夠產(chǎn)生內(nèi)在需要型任務(wù),并通過“貪婪算法”或“主動搜索算法”等“人工好奇心”(artificial curiosity)?Jurgen Schmidhuber, Developmental Robotics, Optimal Artificial Curiosity, Creativity, Music, and the Fine Arts, 18 Connection Science 173, 173 (2006).的方式實現(xiàn);而與人類、自然環(huán)境以及其他人工智能進行外部交互時產(chǎn)生的交流、移動與處理需求,則能夠構(gòu)成人工智能的外部交互任務(wù),可通過“效用函數(shù)”等使外部交互“目的因”得以編碼。
就智力的信息加工要素而言,信息加工是外部環(huán)境信息輸入、信息結(jié)構(gòu)中邏輯關(guān)系提取以及邏輯計算后信息輸出等部分的有機組合。其中邏輯關(guān)系的提取主要服務(wù)于目的要素:既可以是同時性提取,也可以是有時間順序的繼時性提取;既可以是無損提取,也可以是主要特征的提取。邏輯計算則是基于邏輯規(guī)則,將輸入信息中提取出來的邏輯結(jié)構(gòu)進行邏輯運算,從而輸出可服務(wù)于目的要素的信息。人類的信息加工,便是眼、耳、鼻、口及皮膚等器官接收外部環(huán)境信息,然后通過神經(jīng)細胞傳遞給大腦,大腦將信息中的邏輯結(jié)構(gòu)提取出來并進行邏輯運算后,經(jīng)過神經(jīng)網(wǎng)絡(luò)借助特定器官(手、腳及口等)輸出信息。人工智能的信息加工模擬人腦進行運作,信息加工流程極其相似,區(qū)別在于人工智能的信息存儲、計算與傳輸是由不同硬件與軟件綜合發(fā)揮作用,而人類的存儲、計算與傳輸則是一體化于人腦之上,然而此種區(qū)別并不影響信息加工效果的類同。
可見,就表征智力本質(zhì)的解決問題的目的要素和信息加工要素等兩個核心要素而言,人工智能能夠滿足智力的核心要素規(guī)定。換言之,人工智能與智力的本質(zhì)相契合。
人工智能對智力的核心要素的滿足,僅是判斷人工智能具備智力的必要非充分條件。人工智能是否具備智力,還應(yīng)當(dāng)考量人工智能是否足以產(chǎn)生智力。人工智能是否能夠產(chǎn)生智力,又取決于人工智能是否擁有自主設(shè)定任務(wù)、自主發(fā)現(xiàn)與修正信息處理方法的能力。一個僅能機械依照特定方法完成任務(wù)目標的物體,無法謂之能夠產(chǎn)生智力。是故,如果主張人工智能具備智力,判斷其可否自主設(shè)定任務(wù)并演化算法便是必經(jīng)過程。可否自主設(shè)定任務(wù)并演化算法,又與算力、邏輯與結(jié)構(gòu)(邏輯結(jié)構(gòu)與數(shù)據(jù)結(jié)構(gòu))緊密相關(guān)。因此,有必要從算力、邏輯和結(jié)構(gòu)等方面判定人工智能可否自主設(shè)定任務(wù)并演化算法,進而判斷人工智能可否產(chǎn)生智力。
算力是指對數(shù)據(jù)進行信息計算處理并輸出結(jié)果的能力。算力是數(shù)據(jù)收集、存儲、計算和分析等能力的綜合。?參見李平、鄧洲、張艷芳:《新科技革命和產(chǎn)業(yè)變革下全球算力競爭格局及中國對策》,載《經(jīng)濟縱橫》2021年第4期,第34頁。算力雖與智力有關(guān),但并不等同于智力,也不決定智力水平高低。算力通常被理解為計算能力,包含計算強度、計算速度和計算效能等三個維度。就計算強度而言,目前人工智能計算強度仍難以與人腦計算強度相當(dāng)。根據(jù)研究表明,計算強度以“每秒浮點運算次數(shù)(FLOPS/s)”為表示方法,?? See Robert Sheldon, Floating-point Operations Per Second (FLOPS), TechTarget, https://www.techtarget.com/whatis/definition/FLOPS-floating-point-operations-per-second, 2023年9月1日訪問。? See Joseph Carlsmith, How Much Computational Power Does It Take to Match the Human Brain?, Open Philanthropy, https://www.openphilanthropy.org/research/how-much-computational-power-does-it-take-to-match-the-human-brain/, 2023年9月11日訪問。人工智能的計算強度達到1013-1017 FLOP/s方能匹配人腦計算強度。?? See Robert Sheldon, Floating-point Operations Per Second (FLOPS), TechTarget, https://www.techtarget.com/whatis/definition/FLOPS-floating-point-operations-per-second, 2023年9月1日訪問。? See Joseph Carlsmith, How Much Computational Power Does It Take to Match the Human Brain?, Open Philanthropy, https://www.openphilanthropy.org/research/how-much-computational-power-does-it-take-to-match-the-human-brain/, 2023年9月11日訪問。目前,神經(jīng)元模擬網(wǎng)絡(luò)的規(guī)模在不斷擴展,日本沖繩工業(yè)大學(xué)研究生院(OIST)和德國于利希研究中心(Forschungszentrum Jülich)的研究人員已成功模擬了一個由1.73億神經(jīng)細胞組成的具有10.4萬億個突觸連接的神經(jīng)網(wǎng)絡(luò),這使得立足peta級人工智能模擬人腦計算強度在技術(shù)上已能夠?qū)崿F(xiàn)。?? See RIKEN, Largest Neuronal Network Simulation to Date Achieved Using Japanese Supercomputer, ScienceDaily, https://www.sciencedaily.com/releases/2013/08/130802080237.htm, 2023年8月2日訪問。? See Melsen, A.G.M.van, The Nature of Logic, 7 Synthese 6, 434 (1948), p.435.? See Grattan-Guinness, I., Bornet, G., The Nature of Logic, In Grattan-Guinness, I., Bornet, G.(eds), Springer Basel AG, 1997, p.1-2.? Lawrence C.Paulson, Computational Logic: Its Origins and Applications, 474 Proc.R.Soc.A.1(2018), p.1.未來隨著光芯片等技術(shù)突破,人工智能計算強度將能夠比擬人腦計算強度。就特定領(lǐng)域計算速度與計算效能而言,人工智能已然超越人類,如AlphaGo下圍棋等。因此,綜合來看,人工智能的算力水平已在快速迫近并局部超越人類的算力水平。
邏輯是指一種進行合理且良好推理的特定思維方式。?? See RIKEN, Largest Neuronal Network Simulation to Date Achieved Using Japanese Supercomputer, ScienceDaily, https://www.sciencedaily.com/releases/2013/08/130802080237.htm, 2023年8月2日訪問。? See Melsen, A.G.M.van, The Nature of Logic, 7 Synthese 6, 434 (1948), p.435.? See Grattan-Guinness, I., Bornet, G., The Nature of Logic, In Grattan-Guinness, I., Bornet, G.(eds), Springer Basel AG, 1997, p.1-2.? Lawrence C.Paulson, Computational Logic: Its Origins and Applications, 474 Proc.R.Soc.A.1(2018), p.1.邏輯表現(xiàn)為一種正確的推論,即提出主張并用理由支持它們,體現(xiàn)著特定對象之間的相關(guān)關(guān)系或順序。?? See RIKEN, Largest Neuronal Network Simulation to Date Achieved Using Japanese Supercomputer, ScienceDaily, https://www.sciencedaily.com/releases/2013/08/130802080237.htm, 2023年8月2日訪問。? See Melsen, A.G.M.van, The Nature of Logic, 7 Synthese 6, 434 (1948), p.435.? See Grattan-Guinness, I., Bornet, G., The Nature of Logic, In Grattan-Guinness, I., Bornet, G.(eds), Springer Basel AG, 1997, p.1-2.? Lawrence C.Paulson, Computational Logic: Its Origins and Applications, 474 Proc.R.Soc.A.1(2018), p.1.邏輯能力是智力的重要表現(xiàn)方面。人工智能可通過邏輯門將人類邏輯推理時的邏輯關(guān)系映射為邏輯計算。邏輯門設(shè)定0為假、1為真,通過邏輯常數(shù)中量詞、命題連接詞與恒等式等,將邏輯關(guān)系基本邏輯計算,如“not”真假互換,“and”一個假為假,“or”一個真為真,“if...then”有異為真、有同為假等進行組合,借助邏輯電路的電平信號,將“真”和“假”等邏輯關(guān)系映射到集成電路上(1為開,0 為關(guān)的開關(guān)網(wǎng)絡(luò))以實現(xiàn)復(fù)雜的邏輯計算。?? See RIKEN, Largest Neuronal Network Simulation to Date Achieved Using Japanese Supercomputer, ScienceDaily, https://www.sciencedaily.com/releases/2013/08/130802080237.htm, 2023年8月2日訪問。? See Melsen, A.G.M.van, The Nature of Logic, 7 Synthese 6, 434 (1948), p.435.? See Grattan-Guinness, I., Bornet, G., The Nature of Logic, In Grattan-Guinness, I., Bornet, G.(eds), Springer Basel AG, 1997, p.1-2.? Lawrence C.Paulson, Computational Logic: Its Origins and Applications, 474 Proc.R.Soc.A.1(2018), p.1.邏輯門的映射關(guān)系表現(xiàn)為人工智能接收數(shù)據(jù),通過調(diào)取數(shù)據(jù)進行分析,然后基于邏輯關(guān)系輸出結(jié)果。
邏輯推理正確與否與邏輯計算速度無關(guān),只與邏輯門結(jié)構(gòu)與輸入數(shù)據(jù)有關(guān)。人腦通過外部環(huán)境以器官細胞為媒介輸入信息,激活腦細胞生物化學(xué)反應(yīng)產(chǎn)生生物電(興奮電位為1,抑制電位為0),腦細胞神經(jīng)突觸在生物電組合下到達特定閾值,激活特定細胞處理與傳遞信息,從而實現(xiàn)神經(jīng)邏輯計算;[27]See J.E.(Hans) Korteling & A.Toet, Cognitive Biases. in Encyclopedia of Behavioral Neuroscience, 2nd Edition Amsterdam-Edinburgh: Elsevier Science, https://doi.org/10.1016/B978-0-12-809324-5.24105-9, 2023年9月2日訪問。人工智能通過外部環(huán)境以物理設(shè)備為媒介輸入數(shù)據(jù),激活晶體管產(chǎn)生物理電流(高電平為1,低電平為0),晶體管在神經(jīng)網(wǎng)絡(luò)參數(shù)組合下達到特定閾值,激活特定晶體管處理和傳遞數(shù)據(jù),從而實現(xiàn)物理邏輯計算。[28]See Robert Turner & Daniel De Haan, Vital Models - The Making and Use of Models in the Brain Sciences Bridging the Gap between System and Cell: The Role of Ultra-high Field MRI in Human Neuroscience, 233 Progress in Brain Research 179, 179 (2017).在邏輯方法上,傳統(tǒng)人工智能使用演繹推理方法構(gòu)建人工智能邏輯計算,如專家系統(tǒng),而現(xiàn)在人工智能引進歸納學(xué)習(xí)方法,如深度學(xué)習(xí)、無監(jiān)督學(xué)習(xí)、遷移學(xué)習(xí)等,使得人工智能邏輯計算更加類似人類推理。因此,就邏輯能力而言,人工智能與人類智能并無二致。[29]See J.E.(Hans) Korteling et al, Human- Versus Artificial Intelligence, Frontier in Artificial Intelligence, 1(2021), p.2.
邏輯推理的過程是邏輯門結(jié)構(gòu)應(yīng)用數(shù)據(jù)計算的過程,推理的結(jié)果是基于邏輯門結(jié)構(gòu)對數(shù)據(jù)進行計算后的輸出。邏輯是特定結(jié)構(gòu)的關(guān)系,不同結(jié)構(gòu)產(chǎn)生不同邏輯計算結(jié)果,結(jié)構(gòu)改變影響邏輯計算過程與結(jié)果。由此可見,結(jié)構(gòu)是人工智能邏輯推理的關(guān)鍵之一。一個物體的功能決定于其內(nèi)部結(jié)構(gòu),結(jié)構(gòu)越復(fù)雜,功能也越豐富。只要能夠設(shè)計一個足夠復(fù)雜的結(jié)構(gòu),那么便可以產(chǎn)生特定目標功能。這意味著只要人工智能具備復(fù)雜結(jié)構(gòu),那么便可以形成自主邏輯推理以及產(chǎn)生合理推理結(jié)果的功能。
此種復(fù)雜結(jié)構(gòu)何以可能呢?首先,就邏輯門結(jié)構(gòu)而言,通過模擬人腦生物神經(jīng)元與神經(jīng)網(wǎng)絡(luò),將人腦結(jié)構(gòu)予以約簡,通過編程建構(gòu)數(shù)學(xué)模型在數(shù)字神經(jīng)元基礎(chǔ)上建立人工神經(jīng)網(wǎng)絡(luò)。[30]See Weinan Sun, Xinyu Zhao & Nelson Spruston, Bursting Potentiates the Neuro-AI Connection, 24 Nat Neurosci 905, 905(2021).同時,模仿人類邏輯推理與歸納推理方法,構(gòu)建專家系統(tǒng)、機器學(xué)習(xí)算法等,使得通用人工智能不僅可以基于事實知識庫運用邏輯規(guī)則進行推理,也可以基于數(shù)據(jù)實例學(xué)習(xí)證據(jù)構(gòu)建假設(shè)用于預(yù)測,從而進行依賴事實的明顯(精確性)推理與依賴數(shù)據(jù)的不明顯(模糊性)推論。[31]同注釋①,第7頁。其次,就數(shù)據(jù)結(jié)構(gòu)而言,利用大數(shù)據(jù)技術(shù),將擁有多維度、巨數(shù)量與高密度的各種實時數(shù)據(jù)進行數(shù)據(jù)匯集,形成邏輯運算的輸入數(shù)據(jù)。通過人工神經(jīng)網(wǎng)絡(luò)與機器學(xué)習(xí)算法的結(jié)合,從大數(shù)據(jù)中實時動態(tài)學(xué)習(xí)數(shù)據(jù)結(jié)構(gòu)中的邏輯關(guān)系(此種邏輯關(guān)系表現(xiàn)為一種概率,是與否的可能性),對學(xué)習(xí)獲得的證據(jù)不斷進行參數(shù)(權(quán)重)調(diào)整,結(jié)合損失函數(shù)中的獎懲機制,人工智能可與人類一樣進行“自主學(xué)習(xí)”[32]Will Douglas Heaven, AI Is Learning How to Create Itself, MIT Technology Review, https://www.technologyreview.com/2021/05/27/1025453/artificial-intelligence-learning-create-itself-agi/, 2023年9月11日訪問。。通過此種方式,人工智能得以從大數(shù)據(jù)中習(xí)得復(fù)雜數(shù)據(jù)結(jié)構(gòu),結(jié)合復(fù)雜人工神經(jīng)網(wǎng)絡(luò)邏輯門結(jié)構(gòu),可實現(xiàn)動態(tài)算法自組織,最終將算法存入邏輯門結(jié)構(gòu)之中,實現(xiàn)推理的自主性。
由此可見,隨著人工智能技術(shù)的發(fā)展,人工智能可基于大數(shù)據(jù)技術(shù)從外部環(huán)境中獲取并輸入海量數(shù)據(jù),通過構(gòu)建高度復(fù)雜的類人人工神經(jīng)網(wǎng)絡(luò),在算力加持下結(jié)合機器學(xué)習(xí)算法與成本函數(shù)等學(xué)習(xí)和存儲數(shù)據(jù)結(jié)構(gòu)中蘊含的邏輯關(guān)系,從而從數(shù)據(jù)中習(xí)得算法,然后結(jié)合人工神經(jīng)網(wǎng)絡(luò)邏輯門結(jié)構(gòu)動態(tài)自組織算法,從而合理解決問題。這表明人工智能的發(fā)展將使其具備自主演化算法、自主設(shè)定任務(wù)并自主解決問題的能力。申言之,人工智能足以產(chǎn)生智力,從而能夠自主從事原獨屬于人類的創(chuàng)新活動。
知識是已知事物的總和,是人類智慧的結(jié)晶。[33]See Bolisani Ettore & Bratianu Constantin, The Elusive Definition of Knowledge, in Emergent Knowledge Strategie,Knowledge Management and Organizational Learning, Springer, Cham, 2018, p.5.知識的作用在于把握理性,傳播智慧,在于實現(xiàn)記憶自我與經(jīng)驗自我在實踐中的統(tǒng)一,促進人的全面發(fā)展。因此,知識具有天然的公益性。但是,新知識的產(chǎn)生與個體的創(chuàng)新緊密相關(guān),凝結(jié)著個體的勞動與智慧,因此又具有私有性。[34]參見江帆:《競爭法對知識產(chǎn)權(quán)的保護與限制》,載《現(xiàn)代法學(xué)》2007年第2期,第85頁。知識是人們對自我與外部世界的認識,并通過人們的表達得以傳播與被理解。正是知識可形成外在表達的特征使其區(qū)分占有成為可能,知識的公益性與私有性逐漸分離。
為了激發(fā)個體智力創(chuàng)造的熱情,防止公地悲劇,保護特定知識私有性的知識產(chǎn)權(quán)應(yīng)運而生。知識產(chǎn)權(quán)賦予特定主體對特定知識的私有性保護,與知識自由傳播的開放公益性沖突,因此該權(quán)利自誕生便飽受詰問。古羅馬法學(xué)家塞爾蘇斯指出:“法乃善良公正之藝術(shù)?!狈傻纳袷バ圆⒉粊碓从谕庠趶娭屏Γ歉灿谄渥陨淼牡赖聦用娴恼?dāng)性。[35]參見[美]羅納德·德沃金:《認真對待權(quán)利》,信春鷹、吳玉章譯,上海三聯(lián)書店2008年版,第40頁。因此,作為法所保護的權(quán)利,知識產(chǎn)權(quán)被人們認可且保護的前提在于其具備內(nèi)在道德正當(dāng)性。為探究知識產(chǎn)權(quán)的正當(dāng)性,當(dāng)前學(xué)者們主要提出了四種理論:勞動財產(chǎn)理論、人格權(quán)理論、激勵理論與社會規(guī)劃理論。[36]See William Fisher, Theories of Intellectual Property, in New Essays in the Legal and Political Theory of Property, Stephen Munzer ed., Cambridge University Press, 2001, p.173.雖然四種理論的理論邏輯各有異殊,但均對知識產(chǎn)權(quán)正當(dāng)性理論體系做出了相應(yīng)的理論貢獻。隨著人工智能技術(shù)的發(fā)展,特別是通用人工智能的出現(xiàn),上述理論的提出背景與論證前提均已發(fā)生變化,傳統(tǒng)知識產(chǎn)權(quán)正當(dāng)性理論的適用性受到了嚴峻挑戰(zhàn)。[37]參見陳兵:《通用人工智能創(chuàng)新發(fā)展帶來的風(fēng)險挑戰(zhàn)及其法治應(yīng)對》,載《知識產(chǎn)權(quán)》2023年第8期,第56頁。
1.勞動財產(chǎn)理論的內(nèi)在邏輯
為論證有形財產(chǎn)的正當(dāng)性,約翰·洛克于17世紀提出了著名的“勞動財產(chǎn)理論”。勞動財產(chǎn)理論的邏輯論證主要由三個部分組成。首先,洛克提出一個前提假設(shè):土地和所有低等生物為人們所共有,且每個人對其人身享有無可爭議的所有權(quán)。[38]參見洛克:《政府論》(下篇),葉啟芳、瞿菊農(nóng)譯,商務(wù)印書館1995年版,第18-19頁。其次,洛克從前提假設(shè)出發(fā),推導(dǎo)出通過身體的勞動屬于個人。如若人們將其勞動或者其所有物添加到任何物體上,使該物脫離了自然所提供或所處的狀態(tài),那么該物便成為人們的財產(chǎn)。[39]同注釋[38],第19頁。最后,洛克由此得出結(jié)論:因為勞動屬于人們無可置疑的財產(chǎn),人們通過添附勞動使物體從自然所處的共有狀態(tài)脫離出來,那么便可以對該物享有財產(chǎn)權(quán),并阻斷其他人對該物享有的共有權(quán)。[40]同注釋[38],第29頁。同時,為了防止人們對易耗的有形財產(chǎn)過度占有造成實質(zhì)的財產(chǎn)浪費,洛克對財產(chǎn)權(quán)的取得設(shè)置了兩個限制條件:其一,留有足夠多且同樣好的東西為他人共有;其二,以自身生存和發(fā)展所需為限度,超過限度的部分歸屬他人所有,即不得浪費。[41]同注釋[38],第25-26頁。綜言之,對于公有公用的公共資源,個人無須他人一致同意,便可通過添附勞動的方式,在滿足不浪費且留有足夠多且好的東西前提下,獲得公共資源的所有權(quán)。
勞動財產(chǎn)理論建設(shè)之初的適用對象主要是有形財產(chǎn)。但伴隨著作權(quán)、專利權(quán)等知識財產(chǎn)權(quán)日漸增多和重要,學(xué)者們開始尋求知識財產(chǎn)權(quán)的正當(dāng)性解釋。賈斯丁·修斯等學(xué)者立足勞動的共性,認為基于體力勞動的有形財產(chǎn)權(quán)正當(dāng)性理論,亦可適用于基于腦力勞動的知識產(chǎn)權(quán)的正當(dāng)性論證,由此將勞動財產(chǎn)理論引入知識產(chǎn)權(quán)正當(dāng)性論證。[42]See Justin Hughes, The Philosophy of Intellectual Property, 77 Georgetown Law Journal 287, 289 (1988).人們可通過對公有領(lǐng)域的知識摻入智力勞動,從而獲得智力勞動的果實——特定的知識產(chǎn)權(quán)。[43]See Ryan Abbott, I Think, Therefore I Invent: Creative Computers and the Future of Patent Law, 57 Boston College Law Review 1079, 1107 (2016).
2.人工智能侵蝕勞動財產(chǎn)理論的推論條件
由勞動財產(chǎn)理論可知,人們要正當(dāng)獲得對特定知識的知識產(chǎn)權(quán),應(yīng)當(dāng)滿足一個前提預(yù)設(shè)和兩大限制條件。前提預(yù)設(shè)是指特定知識中摻入了人們的智力勞動,兩大限制條件則為不浪費與留給他人足夠多且好的東西。但是,勞動財產(chǎn)理論證成的邏輯條件隨著技術(shù)的進步,特別是人工智能技術(shù)的發(fā)展,已被逐漸侵蝕。
首先,勞動財產(chǎn)理論的前提預(yù)設(shè)已被人工智能日漸蠶食。19世紀末期,計算機的發(fā)明進一步減少了人們創(chuàng)作時的智力投入,部分創(chuàng)作活動僅需人們簡單操作便可完成。[44]See Arthur R.Miller, Copyright Protection for Computer Programs, Databases and Computer-Generated Works: Is Anything New Since CONTU, 106 Harvard Law Review 977, 1045 (1993).20世紀中期以降,模擬、延伸與擴展人類智能的人工智能被研發(fā)出來并不斷迭代,人工智能進行創(chuàng)作與創(chuàng)造活動所需要的人類智力勞動已經(jīng)微乎其微,甚至根本不需要人類的參與,“人”素的重要性逐漸降低。[45]United States Congress Office of Technology Assessment, Intellectual Propery Rights in An Age of Electronics and Information, 1986, p.70-73.于自然狀態(tài)的公有物之上摻入智力勞動不再是專屬于人類的“特權(quán)”。此種情況下,建立在“人類中心主義”基礎(chǔ)上的勞動財產(chǎn)理論的前提假設(shè)——摻入人類勞動已被蠶食?!叭恕彼氐氖轿?,導(dǎo)致人的勞動與財產(chǎn)之間的倫理邏輯關(guān)系鏈條斷裂,勞動財產(chǎn)理論的前提預(yù)設(shè)崩塌。
其次,人工智能異質(zhì)高效“勞動”與勞動財產(chǎn)理論的兩大限制條件相沖突?;跈C器學(xué)習(xí)能力與強大的算力,人工智能在大數(shù)據(jù)技術(shù)加持下,能夠利用現(xiàn)有數(shù)據(jù)大批量地生成原來僅能由人類創(chuàng)造的文藝作品與技術(shù)方案等智力成果。這將產(chǎn)生兩個方面問題:其一,劣幣驅(qū)逐良幣效應(yīng)顯現(xiàn)。[46]參見易繼明:《人工智能創(chuàng)作物是作品嗎?》,載《法律科學(xué)》2017年第5期,第143頁。人工智能通過低時間成本、高產(chǎn)出效率地生產(chǎn)大量迎合市場需要的“作品”,致使人類創(chuàng)作者因人工智能的高效競爭而被排擠出創(chuàng)作市場。[47]參見曹源:《人工智能創(chuàng)作物獲得版權(quán)保護的合理性》,載《科技與法律》2016年第3期,第503頁。由此可能導(dǎo)致平庸、低質(zhì)與同質(zhì)的作品充斥市場,思想深邃、審美高雅的作品難尋,“信息繭房”效應(yīng)進一步加深,人們審美情操日益倒退,最終阻礙社會進步。[48]參見劉鑫:《人工智能對知識產(chǎn)權(quán)制度的挑戰(zhàn)與破解——洛克“財產(chǎn)權(quán)勞動學(xué)說”視角下的路徑選擇》,載《云南社會科學(xué)》2020年第6期,第140頁。這將會導(dǎo)致社會資源的極大浪費。其二,新知識的傳播利用受阻。在大數(shù)據(jù)技術(shù)、機器學(xué)習(xí)算法與算力的賦能下,人工智能立足特定知識資源可以有效率地進行窮盡式排列組合,生成海量的作品和新技術(shù)方案。此時,大量的新知識成為知識財產(chǎn),為少數(shù)研發(fā)、運營或使用人工智能的個體所獨占。在稀缺性意味著價值性的前提下,受逐利性的驅(qū)使,人們將會采取一切措施阻斷他人與新知識的廣泛接觸,從而維持新知識的稀缺性,由此新知識的自由傳播與利用受阻,“人類社會面臨抽象物供給的短缺”[49]張平:《市場主導(dǎo)下的知識產(chǎn)權(quán)制度正當(dāng)性再思考》,載《中國法律評論》2019年第3期,第116頁。。這將導(dǎo)致他人獲取足夠多且同樣好的東西的難度急劇增大。因此,人工智能“勞動”的異質(zhì)“高效性”會造成知識產(chǎn)權(quán)生成的“殖民效應(yīng)”、知識產(chǎn)權(quán)獲取的“擠出效應(yīng)”以及優(yōu)質(zhì)知識產(chǎn)權(quán)的“扼殺效應(yīng)”。這違背了財產(chǎn)權(quán)取得的兩大限制條件——不浪費與留給他人足夠多且好的東西,因此與勞動財產(chǎn)理論的推論條件相沖突。
是故,勞動財產(chǎn)理論無法適應(yīng)人工智能時代知識產(chǎn)權(quán)正當(dāng)性的需求。針對人工智能對勞動財產(chǎn)理論邏輯鏈條的沖擊,有學(xué)者提出對勞動財產(chǎn)理論的“共有、勞動與需求”三要素進行適當(dāng)調(diào)試,使其契合人工智能時代知識產(chǎn)權(quán)正當(dāng)性論證的需要。具言之,其一,為了避免權(quán)利的爭奪與沖突,可將公有物從任何人可自由占有而無須他人同意調(diào)適為任何人如欲占有須獲得其他所有人同意,使得人工智能利用公共領(lǐng)域知識生成智力成果時,須滿足其他所有人同意的法律規(guī)則(通過立法將“所有人同意”轉(zhuǎn)化為法律規(guī)則),遏制人工智能知識產(chǎn)權(quán)生成的“殖民效應(yīng)”;其二,擴大解釋“勞動”要素,將數(shù)據(jù)提供者、編程者與使用者的“間接勞動”納入勞動考量范圍;其三,強化需求要素,綜合《著作權(quán)法》中的權(quán)利限制規(guī)則與《專利法》中的強制許可規(guī)則等,形成內(nèi)部限制機制,綜合《反壟斷法》中的濫用市場支配地位行為規(guī)制規(guī)則與《反不正當(dāng)競爭法》中的違反商業(yè)道德行為規(guī)制規(guī)則等形成外部限制機制,使得利用人工智能獲取財產(chǎn)權(quán)符合勞動財產(chǎn)理論。[50]同注釋[48],第143-145頁。此種調(diào)試觀點雖認識到人工智能可自主進行創(chuàng)新的事實,并回應(yīng)了利用人工智能獲取財產(chǎn)權(quán)的限制條件問題,但是回避了應(yīng)如何調(diào)試“人的勞動”的概念范疇以合理容納異質(zhì)于“人的勞動”的“人工智能的勞動”,仍無法解決勞動財產(chǎn)理論論證的邏輯前提——“人素”的缺乏。另外,引入“間接勞動”的嘗試會使得勞動財產(chǎn)理論的正當(dāng)性基礎(chǔ)——通過直接勞動取得財產(chǎn)權(quán)的核心立論自潰。因為如若承認“間接勞動”產(chǎn)生財產(chǎn)權(quán),將會助長不勞而獲,加劇社會資源分配的不公。實際上,勞動財產(chǎn)理論的前提預(yù)設(shè)無法吸納人工智能的“勞動”的原因在于,勞動財產(chǎn)理論是為了擺脫神權(quán)和封建王權(quán)、彰顯人的價值和適應(yīng)保護私有財產(chǎn)的時代需要而構(gòu)建,具有強烈的“人類中心主義”色彩。[51]參見易繼明:《評財產(chǎn)權(quán)勞動學(xué)說》,載《法學(xué)研究》2000年第3期,第102頁。這種“人類中心主義”要求理論論證的出發(fā)點與落腳點均應(yīng)為“人類”,與人工智能獨立進行創(chuàng)新活動時“人素”缺乏的實踐特點隔閡深重。故而,勞動財產(chǎn)理論無法勝任人工智能時代知識產(chǎn)權(quán)正當(dāng)性的論證任務(wù)。
1.激勵理論的證成邏輯
激勵理論是立足功利主義論證知識產(chǎn)權(quán)正當(dāng)性的特定路徑。[52]參見向波:《知識產(chǎn)權(quán)正當(dāng)性之批判解讀——以利益沖突為基本視角》,載《法學(xué)雜志》2015年第8期,第97頁。功利主義將追求個體幸福或社會福祉的最大化作為最終價值。[53]參見何勤華:《西方法律思想史》,復(fù)旦大學(xué)出版社2005年版,第184頁。任何行為應(yīng)根據(jù)其能否增進或多大程度增進這一最終價值,來判斷行為是應(yīng)當(dāng)支持抑或反對。[54]參見[德]博登海默:《法理學(xué):法律哲學(xué)和法律方法》,鄧正來譯,中國政法大學(xué)出版社2004年版,第110頁。創(chuàng)新是新知識的發(fā)現(xiàn)或創(chuàng)造過程。一般來說,新知識的發(fā)現(xiàn)或創(chuàng)造,不僅有助于提升人們的自我認知,促進人們不斷了解和追求真善美;而且有助于人們強化認識世界和改造世界的能力,實現(xiàn)與外部世界的和諧相處,最終促進社會福祉的最大化。因此,創(chuàng)新應(yīng)當(dāng)?shù)玫街С郑魏稳?、任何事或任何行為,凡是有助于?chuàng)新均應(yīng)被贊成。
新知識是事物內(nèi)部或事物之間非已知的、非顯性的以及非一般性的信息。新知識的發(fā)現(xiàn)或創(chuàng)造往往需要花費大量時間、智力和金錢,而且此種時間、智力與金錢的投入并非必然對應(yīng)著新知識的產(chǎn)生,因而能夠產(chǎn)生新知識的創(chuàng)新活動具有明顯的稀缺性。此種稀缺性意味著商業(yè)價值,對其進行不當(dāng)攫取和占有,如同惡魔的低語不斷誘惑著逐利的人心。由于新知識不僅可通過物理載體進行轉(zhuǎn)移,亦可憑借人腦記憶進行傳播,前者在印刷與數(shù)字技術(shù)加持下轉(zhuǎn)移更加便捷,后者則因人腦特殊構(gòu)造致使傳播無法管控,致使不當(dāng)攫取與占有的誘惑被進一步放大,創(chuàng)新成果的剽竊與搭便車等不良行為頻發(fā)。創(chuàng)新所得新知識被不當(dāng)占有會導(dǎo)致創(chuàng)新主體無法收回投資和獲取收益,削弱市場主體投身創(chuàng)新活動的熱情,最終導(dǎo)致原始創(chuàng)新難以產(chǎn)生、后續(xù)創(chuàng)新難以為繼。為了創(chuàng)新的生發(fā)、延續(xù)與可持續(xù),便需要采取措施進行激勵。其中,最有效措施之一便是賦予創(chuàng)新主體對新知識的排他性壟斷權(quán),以法律賦予合理預(yù)期與強制力保護來維護創(chuàng)新主體對新知識的獨占與管控能力,保障其收益期待,從而激勵更多主體投身有益的創(chuàng)新活動。[55]See Shlomit Yanisky-Ravid, Generating Rembrandt: Artificial Intelligence, Copyright, and Accountability in the 3A Era - The Human-like Authors are Already Here - A New Model, 2017 Michigan State Law Review 659, 700 (2017).這便是激勵理論對知識產(chǎn)權(quán)正當(dāng)性的論證邏輯。
由此可知,激勵理論認為,為了實現(xiàn)社會福利的增長,應(yīng)當(dāng)建立知識產(chǎn)權(quán)制度,通過授予創(chuàng)新主體專有性的知識產(chǎn)權(quán),以獨占收益激勵相關(guān)主體進行創(chuàng)新,并反過來促進知識的公開與傳播。[56]See Richard A.Posner, Intellectual Property: The Law and Economics Approach, 2 Journal of Economic Perspectives 57, 61(2005).《與貿(mào)易有關(guān)的知識產(chǎn)權(quán)協(xié)定》第7條規(guī)定的通過設(shè)立知識產(chǎn)權(quán)以促進創(chuàng)新和社會福利的增長,便是激勵理論思想的表達。我國著作權(quán)等知識產(chǎn)權(quán)法律立法目的條款,亦體現(xiàn)了激勵理論思想。
2.人工智能難以匹配激勵理論的基本要件
激勵理論的結(jié)構(gòu)性假設(shè)通過設(shè)立排他性權(quán)利,將特定新知識的管控權(quán)利賦予特定創(chuàng)新主體,使得創(chuàng)新主體可立足該權(quán)利獲得收益可能,從而激發(fā)其收益動機以實現(xiàn)原始創(chuàng)新的生發(fā)與后續(xù)創(chuàng)新的延續(xù),最終促進知識公開與傳播以及社會整體知識量的增長。激勵理論的假設(shè)之所以能夠成立,離不開兩個基本要件:其一,主體具備激勵的可行性;其二,能夠真正促進創(chuàng)新與知識傳播以實現(xiàn)社會福利最大化。然而,隨著人工智能的快速發(fā)展并進入創(chuàng)新領(lǐng)域,激勵理論的兩個基本要件面臨著嚴峻挑戰(zhàn)。
首先,人工智能不需要也不能被激勵。在前人工智能時代,創(chuàng)新活動的主要參與者為人類。根據(jù)激勵理論,理性人類參與創(chuàng)新活動以利己性作為出發(fā)點與內(nèi)在動因。利己性表現(xiàn)為經(jīng)濟、政治、名譽等方面收益偏好,其中以經(jīng)濟收益偏好為主。因此,激勵理論通過賦予創(chuàng)新主體對新知識的排他性專有權(quán)利,使其能夠獲取超過邊際成本的“獨占性收益”(supr-acompetitive profits)[57]Christopher S.Yoo, Copyright and Product Differentiation, 79 New York University Law Review 212, 222 (2004).,進而激勵創(chuàng)新主體積極投身創(chuàng)新活動以獲取更多排他性權(quán)利,既符合人性因而具有倫理意義,也符合邏輯因而具有理論意義。但當(dāng)人工智能獨立進行創(chuàng)新活動時,人類作為創(chuàng)新主體身份的唯一性被打破,激勵理論的倫理意義與理論意義均被動搖。
與碳基人類不同,人工智能是一系列程序、硬件的復(fù)雜硅基組合體,執(zhí)行已編譯的程序并不斷自組織演化,不會被人類占有、競爭、虛榮等交織欲望所牽絆。只要人工智能的預(yù)設(shè)程序包含著輸出特定作品或?qū)@热蝿?wù),那么在數(shù)據(jù)與電力供應(yīng)等充足情況下,人工智能便能自主且持續(xù)產(chǎn)出內(nèi)容,并不需要外部激勵其從事該特定創(chuàng)新活動。因此,無須諱言,人工智能不需要也不能被激勵。激勵理論的主體激勵可行性預(yù)設(shè),在面對人工智能創(chuàng)新時存在嚴重的適用障礙。
其次,人工智能技術(shù)的兩面性,使得“機械功利主義”激勵路徑難以為繼。一方面,人工智能的超高運算速度與效率稟賦具有創(chuàng)新促進的正向效應(yīng),這與“機械功利主義”激勵路徑在短期效率上相耦合。創(chuàng)新本質(zhì)是發(fā)現(xiàn)非已知的、非顯性的、非一般性的信息,此種特殊信息的發(fā)現(xiàn)方式可通過對具有邏輯聯(lián)系的知識進行排列組合、對大量數(shù)據(jù)進行高密度邏輯關(guān)聯(lián)性分析、立足已知知識進行多維技術(shù)可行性嘗試等三維路徑予以實施。但無論創(chuàng)新實施路徑為何,創(chuàng)新路徑實施效果與嘗試次數(shù)緊密相關(guān)。易言之,嘗試次數(shù)越多,創(chuàng)新達致的可能性越大。而創(chuàng)新路徑嘗試次數(shù)與運算速度的支持密不可分。一般而言,運算速度越高,可嘗試的排列組合種類、可分析的數(shù)據(jù)量與可試錯的技術(shù)路徑越多,產(chǎn)生創(chuàng)新可能性也就越大。作為生物組織的人腦,在通常情況下處理與外部環(huán)境的關(guān)系上并不需要高運算速度,而且為減少能量的損耗,人腦絕大多數(shù)情況偏好于依賴低運算需求的壓縮性知識存儲(歸納)與邏輯復(fù)現(xiàn)(演繹)。正是人腦這種低運算速度特性,一定程度限制了人類創(chuàng)新活動的效率。然而,源流于專注計算速度與任務(wù)執(zhí)行效率的計算機,人工智能承繼了高計算速度與效率稟賦,能夠?qū)?shù)據(jù)進行超高速度與效率運算。具有超高運算速度的人工智能在大數(shù)據(jù)技術(shù)加持下能夠海量且快速搜集與分析數(shù)據(jù),不僅可以利用數(shù)據(jù)中蘊含的知識進行有邏輯且符合審美價值的排列組合,而且可以對數(shù)據(jù)內(nèi)部或數(shù)據(jù)之間蘊含的內(nèi)在隱性關(guān)聯(lián)性進行發(fā)掘,以及立足已知知識并將其作為推導(dǎo)條件對后續(xù)可行的技術(shù)方案進行窮盡性探索,從而高效進行藝術(shù)作品創(chuàng)作、技術(shù)發(fā)明創(chuàng)造等創(chuàng)新活動。正是人工智能高效的藝術(shù)作品創(chuàng)作及技術(shù)發(fā)明創(chuàng)造能力,使得藝術(shù)作品與技術(shù)發(fā)明在可預(yù)見的未來大量涌現(xiàn)成為可能。由此,對人工智能的發(fā)展而言,“機械功利主義”激勵路徑粉墨登場,即片面強調(diào)激勵人工智能發(fā)展對創(chuàng)新的促進作用,“一葉障目”式鼓吹人工智能技術(shù)的正向效應(yīng)。
然而,另一方面,人工智能技術(shù)亦具有負面效應(yīng)。無約束地單向激勵人工智能技術(shù)發(fā)展與應(yīng)用,任由人工智能憑借運算稟賦在創(chuàng)新領(lǐng)域的野蠻生長,將會阻滯創(chuàng)新的可持續(xù)。換言之,如若每個細分領(lǐng)域,人工智能均不受約束地釋放其運算稟賦持續(xù)地進行創(chuàng)新活動,將會造成人工智能生成物的泛濫與公共資源的過度利用,嚴重沖擊知識產(chǎn)權(quán)運行秩序。實際上,通過賦予知識產(chǎn)權(quán)專有權(quán)進行創(chuàng)新激勵之旨趣不在于局部的、短期的個體創(chuàng)新促進效應(yīng),而在于實現(xiàn)整體的、長期的社會福利最大化,其最根本的目的與落腳點在于促進社會整體知識量的增長。采用機械功利主義立場激勵人工智能參與創(chuàng)新活動,這固然短期內(nèi)可以促進新知識的增長,增加人們可享受與利用的知識數(shù)量,但是長期來看人工智能無約束發(fā)展與應(yīng)用會導(dǎo)致公共資源利用的“擠占效應(yīng)”、創(chuàng)新可能的“通吃效應(yīng)”、創(chuàng)新競爭的“擠出效應(yīng)”與知識產(chǎn)權(quán)的“累積效應(yīng)”,導(dǎo)致公共資源利用范圍極度收縮、自由創(chuàng)新空間快速收窄、知識產(chǎn)權(quán)壁壘高聳、知識產(chǎn)品同質(zhì)化嚴重,嚴重阻礙創(chuàng)新的可持續(xù),減損社會公共福利。具言之,此種負向效應(yīng)在創(chuàng)新領(lǐng)域存在如下表現(xiàn)。
在版權(quán)領(lǐng)域,人工智能通過對現(xiàn)有可利用知識進行窮盡式排列組合,能夠創(chuàng)作大量可版權(quán)性成果,造成可版權(quán)性的作品泛濫,導(dǎo)致人類獨立創(chuàng)作的空間被擠壓甚至完全覆蓋。同時,利用公共資源進行創(chuàng)新的可能被全部擠占,人類無法獲得自主創(chuàng)作的“呼吸”空間,創(chuàng)作熱情被掐滅,高品質(zhì)和具有人文關(guān)懷的深度審美價值作品生產(chǎn)因缺乏競爭力而逐漸消失,低質(zhì)、平庸、同質(zhì)化的“速食性”作品大行其道,文化發(fā)展窒息并可能荒漠化。
在商標領(lǐng)域,由于商標的設(shè)計本質(zhì)是文字、圖片、聲音等元素的組合,類似于藝術(shù)作品的創(chuàng)作,因此人工智能通過數(shù)據(jù)進行“機器學(xué)習(xí)”后,可將文字、圖片與聲音等元素進行海量組合,進而高效生成大量可用作商標的標識。人工智能此種高效率的標識生成能力,將進一步加劇商標的囤積,擾亂商標申請與使用的正常秩序。
在專利領(lǐng)域,由于人工智能可以高效率對特定技術(shù)問題進行可行路徑的窮盡式探索,那么特定問題的可行技術(shù)解決方案與發(fā)展路徑將可能全部被找到并被申請為專利。大量相似與關(guān)聯(lián)性專利被創(chuàng)造,會導(dǎo)致專利荊棘密集且大范圍分布,形成專利叢林。人類從事新生創(chuàng)新與后續(xù)創(chuàng)新將面臨高聳的人工智能生成專利形成的專利壁壘,繞過專利叢林進行有效研發(fā)的空間被極度壓縮,專利發(fā)明活動的難度幾何式增長。以抗體為例,自人類發(fā)現(xiàn)抗體的結(jié)構(gòu)并著力發(fā)展制造抗體的技術(shù)以來,人類研究人員創(chuàng)造了大量抗體用于疾病診斷與治療目的。[58]See Janice M.Reichert, Marketed Therapeutic Antibodies Compendium, 4 mAbs 413, 413 (2012).從統(tǒng)計角度來看,至少存在億量級抗體類型。[59]See Neil S.Lipman et al., Monoclonal Versus Polyclonal Antibodies: Distinguishing Characteristics, Applications, and Information Resources, 46 ILAR Journal 258, 259 (2005).但即便存在億量級抗體,對于有足夠算力支持與超高運算速度的人工智能來說,按順序逐一排列組合可能的抗體結(jié)構(gòu),從而制造出對人體免疫系統(tǒng)有效的抗體,并不是一項費時且困難的任務(wù);但是,對于人類研究團隊而言,僅依賴人腦逐一探索與解析億量級的抗體結(jié)構(gòu)將是一項漫長又艱巨的任務(wù)。[60]同注釋[43],第1118頁。正是人類與人工智能存在巨大的研發(fā)效率差距,使得如若不限制人工智能在專利領(lǐng)域的應(yīng)用,將會對人類研發(fā)活動形成“擠出”效應(yīng),未來的發(fā)明創(chuàng)造將會陷入人工智能依賴,使得科學(xué)技術(shù)的發(fā)展方向?qū)⑷Q于“異人性”的人工智能的預(yù)測與發(fā)展。這無益于人類智慧的提升與全面發(fā)展。
故而,就激勵對象而言,人工智能不需要也不能被有效激勵;就激勵效果而言,雖然機械激勵人工智能進行創(chuàng)新活動,能夠產(chǎn)生一定程度的邊際收益,但是整體來看對創(chuàng)新活動和社會福利增長的負面效應(yīng)更嚴重。因此,立足于“機械功利主義”的激勵理論無法適配于人工智能時代知識產(chǎn)權(quán)正當(dāng)性的證成。
1.人格理論的邏輯結(jié)構(gòu)
人格理論是從智力成果與人格的緊密聯(lián)系角度展開知識產(chǎn)權(quán)正當(dāng)性論證。人格是人之為人的本質(zhì)要素之一,是人的內(nèi)在規(guī)定性,人格的本質(zhì)內(nèi)涵在于自由意志。[61]參見[德]康德:《法的形而上學(xué)原理——權(quán)利的科學(xué)》,沈叔平譯,商務(wù)印書館1991年版,第53頁。自由意志使人們可以成為獨立的人,而非他人的附庸。如若自由意志受他人支配,那么獨立人格便無從談起。[62]參見[德]黑格爾:《法哲學(xué)原理》,范揚、張企泰譯,商務(wù)印書館1961年版,第35頁。人的生存與發(fā)展離不開財產(chǎn)的占有與使用,如若沒有必要財產(chǎn)的支持,人類保存自我的根本需求都無法得到滿足,更遑論自由意志的實現(xiàn)。因此,擁有穩(wěn)定的私有財產(chǎn),是實現(xiàn)自由意志的前提;保障自由意志的彰顯,是獲得私有財產(chǎn)的基礎(chǔ)。私有財產(chǎn)與人格密不可分,私有財產(chǎn)權(quán)應(yīng)當(dāng)且僅當(dāng)滿足人們生存與發(fā)展需要之目的才能確立。正是由于人格對財產(chǎn)權(quán)的決定性,當(dāng)人將其自由意志內(nèi)化于物上,便可對該物擁有所有權(quán)。[63]同注釋[62],第60頁。申言之,財產(chǎn)權(quán)是人格獨立的保證,人格是財產(chǎn)權(quán)獲取的基石;人格可以轉(zhuǎn)化為財產(chǎn),財產(chǎn)可內(nèi)化入人格。由此,在自由意志的紐帶作用下,人們的自由意志與財產(chǎn)權(quán)相統(tǒng)一,財產(chǎn)權(quán)正當(dāng)性得以從人格角度予以證立。
在自由意志支配下用以滿足人的生存與發(fā)展的有形物,當(dāng)然可轉(zhuǎn)化為財產(chǎn),而同樣能夠固化人的自由意志和滿足人的生存與發(fā)展需要的無形智力成果亦可轉(zhuǎn)化為財產(chǎn)。人們通過對智力成果這種特殊物的占有以及智力成果的財產(chǎn)屬性變現(xiàn)過程,能夠?qū)崿F(xiàn)自由意志的張揚,促進人格的存在與發(fā)展。因此,智力成果是人們自由意志的創(chuàng)造物,是其人格的外化與結(jié)晶,所以人們能夠合乎理性地取得該智力成果的所有權(quán),并在財產(chǎn)變現(xiàn)過程中進一步實現(xiàn)其人格的持續(xù)存在與發(fā)展。[64]參見吳漢東:《法哲學(xué)家對知識產(chǎn)權(quán)法的哲學(xué)解讀》,載《法商研究》2003年第5期,第80頁。
綜上可知,人格理論認為,智力成果是人們基于自身的存在與發(fā)展,將其人格通過自由意志支配下的智力勞動予以固化后的外在表達,是人格的外顯與延伸。[65]參見胡波:《知識產(chǎn)權(quán)法正當(dāng)性理論的批判與重構(gòu)》,載《社會科學(xué)研究》2023年第3期,第92頁。人們通過智力成果的所有,彰顯其人格;同時借由智力成果的財產(chǎn)實現(xiàn),以促進人格的存在與發(fā)展。對資源分配權(quán)利進行創(chuàng)設(shè)或認可的法律,理應(yīng)確認人們對智力成果的所有權(quán),以尊重和保護智力成果中體現(xiàn)的創(chuàng)造者人格。法律確認的智力成果所有權(quán),便是知識產(chǎn)權(quán)。正如吉爾克所述:“一位作者的某個作品屬于該作者人格的勢力范圍,著作權(quán)則保障了作者對這部分人格領(lǐng)域的主宰?!盵66][德]M·雷炳德:《著作權(quán)法》,張恩民譯,法律出版社2005年版,第24頁。
2.人工智能無法契合人格理論的邏輯結(jié)構(gòu)
人格理論主張,智力成果是創(chuàng)新主體人格的外現(xiàn),作為內(nèi)在人格的外在定在,不僅可成為理性占有的對象物,以滿足人格存在的需要;而且其財產(chǎn)性的使用方式與過程,也能夠促進人格的發(fā)展,因此為了保護神圣的人格,便需要對智力成果所有權(quán)進行保護。申言之,為尊重和保護人格,賦予人們對智力成果的知識產(chǎn)權(quán)。從人格理論的論證邏輯可知,人格理論下知識產(chǎn)權(quán)正當(dāng)性依賴于兩個要素:其一,人格要素的存在。即智力成果是人格借由自由意志的外在表達與定在。其二,設(shè)權(quán)目的要素的滿足。保護智力成果知識產(chǎn)權(quán)之目的,在于實現(xiàn)人格的存在與自我發(fā)展。在人工智能自主進行創(chuàng)新活動的背景下,上述人格理論的兩個先決前提均難以邏輯自立。
首先,人工智能自主創(chuàng)新時,人格要素不存在。人格是人之為人的本質(zhì)要素之一,人格為且僅為人類所獨有。[67]參見朱謝群:《知識產(chǎn)權(quán)的法理基礎(chǔ)》,載《知識產(chǎn)權(quán)》2004年第5期,第4頁。人格理論的人格建立在“人類中心主義”的基礎(chǔ)上,強調(diào)人的神圣地位與主體性,超脫于外在于人的外部自然界。賦予人們對智力成果的知識產(chǎn)權(quán),在于認可人們在自由意志支配下進行創(chuàng)新時內(nèi)化于智力成果之上的人格。這存在賦權(quán)前提:智力成果是人們獨立創(chuàng)造或者人們與智力成果的形成存在緊密聯(lián)系。然而,人工智能在自主進行創(chuàng)作與創(chuàng)造活動時不需要人類直接參與,而人類的間接參與作用微乎其微,甚至完全沒有作用,因此難謂人類與人工智能生成物存在緊密聯(lián)系。[68]參見陳景輝:《人工智能的法律挑戰(zhàn):應(yīng)該從哪里開始?》,載《比較法研究》2018年第5期,第144頁。易言之,并不存在一個特定人獨立創(chuàng)造或?qū)嵸|(zhì)促進了人工智能生成物的產(chǎn)生,人的自由意志與人工智能自主形成的生成物未建立外化聯(lián)系。人工智能創(chuàng)造物不是人格的外在定在,其未能從人類的自由意志中獲得靈魂,不是也不能體現(xiàn)和延伸人格。另外,雖然人工智能在進行創(chuàng)新活動時的自主行為,與自由意志支配下的人類進行創(chuàng)新活動時的行為相類同,但是人工智能與人類具有本質(zhì)規(guī)定性的不同,人工智能無法且永遠不能擁有人格。人工智能可為“物格”“電子人格”[69]參見郭少飛:《“電子人”法律主體論》,載《東方法學(xué)》2018年第3期,第40頁。抑或是“人工智能格”等,但絕不是專屬于人類的人格。因此,人工智能自主創(chuàng)新時,不需要也不存在人格要素。
其次,人工智能的生成物賦權(quán),亦難滿足設(shè)權(quán)目的要素。人格理論主張賦予人們對體現(xiàn)其人格的智力成果以知識產(chǎn)權(quán),是為了保障人們對智力成果所指向的外部資源進行掌控,從而通過外部資源的變現(xiàn),保障其人格的存在與發(fā)展。[70]Margaret Jane Radin, Property and Personhood, 34 Stanford Law Review 957, 957 (1982).換言之,通過賦予人們對智力成果擁有知識產(chǎn)權(quán),達到彰顯與發(fā)展其人格的目的。當(dāng)智力成果是人們自由意志支配下獨立形成或與智力成果形成具有緊密聯(lián)系時,彰顯與發(fā)展其人格之目的的實現(xiàn),自在情理之中。但如若智力成果的形成與人們的自由意志無關(guān)或僅是間接聯(lián)系,智力成果便無法內(nèi)化與彰顯人格。人工智能獨立創(chuàng)新形成的生成物,與人的自由意志無關(guān)或聯(lián)系疏遠,因此難以內(nèi)化與彰顯人格。誠然,可強行將人工智能生成物的知識產(chǎn)權(quán)分配給特定人。此種分配方式,能夠使特定人因生成物的財產(chǎn)屬性的實現(xiàn)而獲得更多外部資源,可一定程度促進其人格的發(fā)展。但是,此種分配方式缺乏生成物與特定人之間人格的緊密聯(lián)系,不僅會助長人性中“不勞而獲”的懶惰,使得人格逐漸腐化墮落,與人格發(fā)展目的背道而馳,而且容易誘導(dǎo)資源的肆意分配與尋租,造成社會資源的分配不公,形成滋生社會動蕩的溫床。一旦社會動蕩,外部資源分配的秩序受損,特定人的人格發(fā)展便會陷入停滯甚至倒退,最終難以促進人格發(fā)展的設(shè)權(quán)目標的達成。因此,人工智能生成物賦權(quán),難與人格理論的設(shè)權(quán)目的相一致。
綜上所述,就人格要素而言,人工智能自主創(chuàng)新與人的直接參與無涉,“人”素缺乏致使人格無法內(nèi)化于智力成果之上,人格理論先決前提之人格要素?zé)o法滿足。就設(shè)權(quán)目的要素而言,由于人工智能生成物是人工智能獨立創(chuàng)作或創(chuàng)造,與人類自由意志支配下的智力勞動無關(guān)或不存在緊密聯(lián)系,無法內(nèi)化與彰顯人格,如若強行進行權(quán)利分配會腐化人性、滋生社會動蕩,最終阻礙人格的發(fā)展,因此亦無法實現(xiàn)人格理論的設(shè)權(quán)目的。
作為知識產(chǎn)權(quán)正當(dāng)性證成理論的勞動財產(chǎn)理論、激勵理論與人格理論等均有其可取之處,但面臨人工智能的挑戰(zhàn)又存在相應(yīng)理論適用困境,無法有效滿足人工智能時代知識產(chǎn)權(quán)正當(dāng)性論證需要。
勞動財產(chǎn)理論與人格理論均致力于論證知識產(chǎn)權(quán)作為財產(chǎn)權(quán)是否正當(dāng)以及何以可能,都是從倫理角度尋求知識產(chǎn)權(quán)正當(dāng)性基礎(chǔ)。申言之,論證前提建立在“人”這一特定基石之上,勞動財產(chǎn)理論關(guān)涉“人的智力勞動(創(chuàng)造性勞動)”,人格理論聯(lián)系“人的人格(自由意志)”。然而,正是以人為中心作為論證基石,導(dǎo)致勞動財產(chǎn)理論與人格理論紛紛與人工智能自主創(chuàng)新的圖景難以契合。因為人工智能創(chuàng)新時并不需要人的直接參與,“人”這一重要前提的缺位而導(dǎo)致二者論證的邏輯斷裂。如若為補足“人”素,強行將人的間接參與納入理論前提,則會因間接參與人無法與生成物之間形成自然的、緊密的聯(lián)系,無法關(guān)聯(lián)人的尊嚴、生存、自由與發(fā)展等不言自明的自然真理,導(dǎo)致勞動財產(chǎn)理論與人格理論的推演結(jié)果既無法從倫理角度使得基于生成物產(chǎn)生知識產(chǎn)權(quán)的正當(dāng)性得以確立,又將催生知識產(chǎn)權(quán)生成的“殖民效應(yīng)”、獲取的“擠出效應(yīng)”、優(yōu)質(zhì)成果的“扼殺效應(yīng)”以及“尋租效應(yīng)”等不良后果,危害社會發(fā)展。這并不符合人們尋求自由、有序、安全的社會生活的共同意志。因此,勞動財產(chǎn)理論與人格理論無法適應(yīng)于人工智能自主創(chuàng)新時知識產(chǎn)權(quán)正當(dāng)性論證的需要。
激勵理論通過賦予人們對智力成果的排他性權(quán)利,使人們可以獨占智力成果所生利益,從而激勵人們不斷創(chuàng)新,最終促進社會整體福利增長。因此,激勵理論需要滿足主體激勵的可行性與激勵結(jié)果達成的可能性兩個要件。然而,人工智能是內(nèi)在程序自主運行,異質(zhì)于人類被多樣欲望籠罩,人工智能“六根清凈”,為且僅為程序所指定任務(wù)與自主設(shè)定的任務(wù),因此排他性權(quán)利賦予的獨占性利益并不能對通用人工智能產(chǎn)生激勵。同時,人工智能具有超高運算速度與生產(chǎn)能力,在足夠電力支持下能夠海量且高效地產(chǎn)出藝術(shù)作品與發(fā)明創(chuàng)造等智力成果。如若基于激勵理論無約束地賦予人工智能生成物知識產(chǎn)權(quán),將會導(dǎo)致知識產(chǎn)權(quán)泛濫,出現(xiàn)“作品綠潮”“專利叢林”“商標囤積”等不良現(xiàn)象,導(dǎo)致社會資源過度開發(fā)與高度集中,阻礙創(chuàng)新與社會繁榮。因此,激勵理論亦難契合人工智能時代知識產(chǎn)權(quán)正當(dāng)性論證的需求。
實質(zhì)上,基于人工智能自主獨立創(chuàng)新的圖景以及高效率海量產(chǎn)出的能力,知識產(chǎn)權(quán)正當(dāng)性論證應(yīng)脫離“人類中心主義”的倫理論證路徑,摒棄忽視利益平衡的“機械功利主義”激勵路徑,去尋求一種建立在“非人類中心主義”上能夠有效平衡創(chuàng)新激勵與公共利益保障的新理論路徑。強調(diào)創(chuàng)新激勵與知識傳播和使用之間的有效平衡,致力于實現(xiàn)公平、民主、繁榮、和諧的理想社會的社會規(guī)劃理論,正是此種能夠契合人工智能時代需要的知識產(chǎn)權(quán)正當(dāng)性理論。
相對于勞動財產(chǎn)理論、人格理論與激勵理論而言,社會規(guī)劃理論發(fā)展相對較晚,但卻具有重要理論地位。社會規(guī)劃理論主要以文化建構(gòu)與實現(xiàn)理想社會的角度論證知識產(chǎn)權(quán)的正當(dāng)性,其中代表人物威廉·費希爾提出了公正且有吸引力文化論(或稱烏托邦文化論)、尼爾·W·尼塔尼爾提出了民主文化論等。
社會規(guī)劃理論代表人物費希爾教授是從“人們應(yīng)當(dāng)追求何種社會?”這一宏觀但卻無法回避的基本問題出發(fā),展開其理論建構(gòu)的。[71]William Fisher, Reconstructing the Fair Use Doctrine, 101 Harvard Law Review 1661, 1745 (1988).費希爾以亞里士多德的道德哲學(xué)為基礎(chǔ),主張我們欲求的社會,應(yīng)當(dāng)是能夠促進人們天性得到有效解放的社會。在這樣的社會中,人們可以且被鼓勵實現(xiàn)其所向往的“能夠自決、崇尚奉獻、鼓勵憂患且支持有意義工作”的“美好生活”(good life)。這樣的美好生活有賴于“公正且有吸引力的文化”(a just and attractive culture)的建構(gòu)與保障。[72]同注釋[36],第172頁。因此,社會制度的建構(gòu)與修正均應(yīng)當(dāng)致力于促進與實現(xiàn)“公正且有吸引力的文化”。費希爾進一步指出,一般的有形財產(chǎn)與特殊的知識產(chǎn)權(quán)均應(yīng)當(dāng)且能夠促進公正且有吸引力的文化的實現(xiàn),因此知識產(chǎn)權(quán)制度的建構(gòu)與修正應(yīng)當(dāng)立足形塑與實現(xiàn)該文化而努力。[73]William Fisher, Property and Contract on the Internet, 73 Chicago-Kent Law Review 1203, 1215 (1998).因此,為形成公正且具有吸引力的文化,建構(gòu)與修正的知識產(chǎn)權(quán)制度應(yīng)滿足以下要求:在激勵創(chuàng)新與促進知識傳播使用之間達成平衡,從而實現(xiàn)消費者福利最大化;保證公民獲取廣泛的信息、思想與娛樂內(nèi)容,以提升自我決定與自我表達的能力,促進自我的塑造與發(fā)展;保證公眾可獲得豐富的說明性與比較性藝術(shù)作品庫,增強文化語言共享的復(fù)雜性與共鳴性,促進人們的觀點與交流方式的精細化與創(chuàng)新,從而培育藝術(shù)創(chuàng)新的社會傳統(tǒng);保障分配公平,使得所有人能夠最大程度獲取藝術(shù)性與信息性資源,使得包括弱勢群體在內(nèi)的每個人都能惠益;確保人們能以積極生產(chǎn)者與消極消費者雙重身份參與有意義文化的形成過程,從思想與符號層面形塑賴以生存的社會;提升人們對自我表達屬于自我創(chuàng)新慣常形式這一觀點的認同程度,促進社會尊重他人創(chuàng)新。[74]同注釋[36],第192-193頁。
社會規(guī)劃理論另一個代表人物內(nèi)塔尼爾從知識產(chǎn)權(quán)與民主文化之間的關(guān)系出發(fā),認為知識產(chǎn)權(quán)制度本質(zhì)上是利用市場機制促進市民社會民主發(fā)展的國家政策。[75]Neil Weinstock Netanel, Copyright and A Democratic Civil Society, 106 The Yale Law Review 283, 288 (1996).內(nèi)塔尼爾主張雖然知識產(chǎn)權(quán)制度與市場機制緊密相關(guān),但不隸屬于市場機制,其基本目標并非在于分配效率,而是支持民主文化的形成。以版權(quán)制度為例,在保護作者的市場利益的同時,版權(quán)保護還應(yīng)服務(wù)于兩個民主促進功能:其一,生產(chǎn)性功能。版權(quán)制度不僅應(yīng)激勵政治、社會以及審美主題的創(chuàng)新性表達的生產(chǎn),還應(yīng)當(dāng)促進民主文化與多樣化市民關(guān)系的形成。版權(quán)制度通過激勵作品創(chuàng)造,促進創(chuàng)新性表達及其思想的傳播,從而形塑與發(fā)展民主文化與市民社會。其二,結(jié)構(gòu)性功能。民主的市民社會有賴于有理性思考能力的公民培育與相互聯(lián)合,這需要人類既往積累的知識財富與新創(chuàng)表達的廣泛傳播和有效啟迪。理性公民在學(xué)習(xí)和利用現(xiàn)有知識時,將會對現(xiàn)有知識進行重構(gòu)與轉(zhuǎn)換,而非重復(fù)既有知識與思想。因此,版權(quán)制度在滿足作者有限的財產(chǎn)權(quán)利的同時,還應(yīng)當(dāng)為轉(zhuǎn)換性與教育性使用作品留足空間。
綜上可知,雖然費希爾與內(nèi)塔尼爾追求的理想社會在表征上存在區(qū)別,但只是表述的不同,而非本質(zhì)的差異?!懊裰魃鐣笔菑恼闻c市民社會角度對理想社會的解讀,“公正且有吸引力的社會”是從社會文化角度對可欲社會的闡釋,二者統(tǒng)一在社會的“善”質(zhì)上,均是對理想社會的探求。所以,社會規(guī)劃理論追求的是一個“善”的社會,符合生產(chǎn)力規(guī)律與人性解放的理想社會。其中知識產(chǎn)權(quán)制度與社會規(guī)劃理論欲求實現(xiàn)的理想社會具有統(tǒng)一性,知識產(chǎn)權(quán)處于市場之中但并不隸屬于市場,知識產(chǎn)權(quán)制度應(yīng)以促進達致優(yōu)良社會為目標。具體而言,知識產(chǎn)權(quán)制度建構(gòu)與修改,應(yīng)將創(chuàng)新激勵與知識的傳播和利用視為同等地位,并努力使二者形成合理平衡。知識產(chǎn)權(quán)制度設(shè)計應(yīng)當(dāng)保證社會中每一個人均能夠在秉持尊重他人創(chuàng)新基礎(chǔ)上參與創(chuàng)新活動,進行自我表達與自我實現(xiàn),而不是被動接受和消費知識產(chǎn)品。知識產(chǎn)權(quán)制度的實施,應(yīng)當(dāng)保證知識產(chǎn)品供給的充足性與可行性,不斷促進公共領(lǐng)域知識資源的增長和傳播,保障人們獲取知識產(chǎn)品的便捷性與可能性,使得人們可以相互交流與思想碰撞,以此滿足人們的自我實現(xiàn)與社會文化的繁榮;而不是將知識產(chǎn)權(quán)作為工具與手段,控制既有創(chuàng)新的生產(chǎn)性使用,阻礙知識產(chǎn)品的教育性與轉(zhuǎn)換性等公共利用。知識產(chǎn)權(quán)制度內(nèi)容,不僅包含創(chuàng)新激勵,還應(yīng)容納分配正義,保證每個人均能受惠于創(chuàng)新活動,能夠最大程度獲取創(chuàng)新形成的知識產(chǎn)品。
人工智能的發(fā)展是大勢所趨,不可回避或刻意忽略,否則必將承受技術(shù)落后帶來的苦難。因為歷史已經(jīng)警示,凡是意圖回避或忽略新技術(shù)發(fā)展的,必將親自吞下落后的苦果,鴉片戰(zhàn)爭的苦痛便是最好的歷史注腳。然而,無約束地放縱人工智能的發(fā)展,又會給社會發(fā)展造成嚴重影響,頻發(fā)的“AI換臉”詐騙就是例證。由于人工智能發(fā)展形成的“三元創(chuàng)新格局”[76]參見吳漢東:《人工智能生成作品的著作權(quán)法之問》,載《中外法學(xué)》2020年第3期,第654頁。,與建立在“人類中心主義”基礎(chǔ)上的勞動財產(chǎn)理論與人格理論的邏輯結(jié)構(gòu),以及立足“機械功利主義”的激勵理論的前提預(yù)設(shè)均難以兼容,因此人工智能時代呼喚新的知識產(chǎn)權(quán)正當(dāng)性證成路徑。在“后人類中心主義”[77]參見於興中:《后人類時代的社會理論與科技烏托邦》,載《探索與爭鳴》2018年第4期,第18頁。的人工智能時代,作為知識產(chǎn)權(quán)制度形塑與建構(gòu)基石的知識產(chǎn)權(quán)正當(dāng)性理論,既需要對創(chuàng)新激勵有保障意義,又需要對社會發(fā)展的負向效應(yīng)有約束作用。以“社會中心主義”為理論要旨,目標在于理想社會的建構(gòu),邏輯出發(fā)點在于已建構(gòu)的社會制度,可行路徑在于平衡主義指導(dǎo)下實現(xiàn)知識的創(chuàng)新尊重與有效傳播的平衡、知識的個體占有與公共利用并重、知識的收益獨占與普惠分配并存以及知識利用的有限排他與合理使用共生的社會規(guī)劃理論,可以勝任上述任務(wù),指導(dǎo)知識產(chǎn)權(quán)制度的調(diào)整與重構(gòu),促進社會的發(fā)展繁榮。社會規(guī)劃理論與人工智能時代的契合性,具體表現(xiàn)在以下三個方面。
其一,核心要旨層面的合理性。社會規(guī)劃理論的“社會中心主義”可以規(guī)避人類要素的陷阱。由于人工智能將能夠進行獨立創(chuàng)作,因此“人”素的絕對神圣地位在智力成果的生成活動中已然動搖,并逐漸演化為“人”素與“類人”素共存。人類與類人人工智能二維分化形成的“三元創(chuàng)新格局”,適用“人類中心主義”進行解釋必然面對著“人”素欠缺而導(dǎo)致的邏輯斷崖。如若無法規(guī)避該“人”素缺失導(dǎo)致的邏輯斷崖,任何知識產(chǎn)權(quán)正當(dāng)性理論的論證進路在人工智能時代都將面臨邏輯不周延的困境。而社會規(guī)劃理論的邏輯論證中,其基本目標在于建構(gòu)與調(diào)整社會制度以實現(xiàn)理想社會,表征為宏觀與微觀兩方面:宏觀上,表征為促進知識產(chǎn)品的極大豐富與廣泛傳播、保證社會文化的多樣性;微觀上,表征為保障話語民主,尊重人們進行自我決定與自我表達,促進自我發(fā)展。宏觀層面的實現(xiàn)是核心要旨,微觀層面的滿足是宏觀理想社會實現(xiàn)后的具體映射。但此時微觀層面的“人”是作為目的而存在,不是邏輯論證的前提,更不是實現(xiàn)目的的手段。社會規(guī)劃理論下的知識產(chǎn)權(quán)正當(dāng)性論證并不需要以人類參與創(chuàng)作作為邏輯起點,人的自我實現(xiàn)與發(fā)展是邏輯論證的終點。在“社會中心主義”基礎(chǔ)上建構(gòu)起來的社會規(guī)劃理論,強調(diào)知識產(chǎn)權(quán)制度的工具性,將人工智能的知識產(chǎn)權(quán)保護僅視為促進理想社會實現(xiàn)的手段,注重社會發(fā)展的正效應(yīng),有效規(guī)避了“人”素缺失的邏輯陷阱,能夠有效契合人類與人工智能分化后的“三元創(chuàng)新格局”。
其二,指導(dǎo)方略層面的合理性。社會規(guī)劃理論的“平衡主義”可以應(yīng)對技術(shù)內(nèi)在的兩面效應(yīng)。作為引領(lǐng)新一輪科技與產(chǎn)業(yè)革命的通用技術(shù)[78]參見郭晗:《人工智能培育中國經(jīng)濟發(fā)展新動能的理論邏輯與實踐路徑》,載《西北大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2019年第5期,第21頁。,人工智能技術(shù)具有很強的兩面性。一方面,人工智能不僅可以基于機器學(xué)習(xí),獨立海量生成特定領(lǐng)域僅能由人類形成的復(fù)雜智力成果[79]參見吳漢東:《著作權(quán)合理使用制度研究》(第4版),中國人民大學(xué)出版社2020年版,第234頁。,使得知識產(chǎn)品大量產(chǎn)生,從整體上增加社會知識總量,促進科技進步與經(jīng)濟文化發(fā)展;而且大量替代人類從事簡單重復(fù)性勞動,從而將人們從枯燥的勞動中解放出來,使人們可從事更為復(fù)雜和有意義的藝術(shù)作品創(chuàng)作與技術(shù)研發(fā)工作,按照亞里士多德的道德哲學(xué)“發(fā)展人的天性”的內(nèi)在要求進行自我表達和自我決定,實現(xiàn)馬克思指稱的“人的自由發(fā)展”。[80]參見葉汝賢:《每個人的自由發(fā)展是一切人的自由發(fā)展的條件——〈共產(chǎn)黨宣言〉關(guān)于未來社會的核心命題》,載《中國社會科學(xué)》2006年第3期,第11頁。另一方面,由于人工智能具備“學(xué)習(xí)”能力,在超高運算速度與效率稟賦加持下,能夠高效率、持續(xù)且海量地進行作品創(chuàng)作或技術(shù)創(chuàng)造等創(chuàng)新活動,將會導(dǎo)致作品、商標以及專利的井噴式涌現(xiàn),不僅存在誘發(fā)“作品綠潮”“專利叢林”“商標囤積”等知識產(chǎn)權(quán)亂象之虞,而且窮盡式利用公共領(lǐng)域知識,會使得作為創(chuàng)新源泉的公共知識價值耗盡[81]See Mark A.Lemley, Ex Ante versus Ex Post Justifications for Intellectual Property, 71 The University of Chicago Law Review 129, 142 (2004).,形成無法通過人造稀缺[82]Matthews v.Wozencraft, 15 F.3d 432, 437-38&n2 (5th Cir.1994).性質(zhì)排他權(quán)予以消弭的嚴重“公地悲劇”。因此,就人工智能的正向社會效應(yīng)而言,應(yīng)當(dāng)立足市場機制授予知識產(chǎn)權(quán)專有權(quán)進行激勵。正如基奇教授所言,土地私有化后人們才會更有熱情、有效率地使用土地。[83]See Edmund W.Kitch, The Nature and Function of the Patent System, 2 The Journal of Law & Economics 265, 274 (1977).然而,人工智能技術(shù)的負向社會效應(yīng)同樣不可忽視。那么通過專有權(quán)的賦予與市場收益機制激勵人工智能技術(shù)研發(fā)與產(chǎn)業(yè)發(fā)展,必然需要受到約束。換言之,勞動財產(chǎn)理論與人格理論的當(dāng)然賦權(quán)與“機械功利主義”的單向激勵,均難以平衡人工智能技術(shù)兩面性而應(yīng)當(dāng)被舍棄。這不僅是人工智能技術(shù)雙刃性決定的,亦是社會發(fā)展的現(xiàn)實需求。社會規(guī)劃理論以“平衡主義”為指導(dǎo)方略,強調(diào)創(chuàng)新激勵與公共利益保護的平衡,不僅著眼于市場激勵機制帶來的創(chuàng)新動力,而且關(guān)注知識的可獲取性關(guān)涉的個人實現(xiàn)、知識的公共性產(chǎn)生的創(chuàng)新可能以及知識的可傳播性關(guān)聯(lián)的表達自由,認可公共領(lǐng)域的寬廣和豐盈對于社會文化發(fā)展、創(chuàng)新促進以及人的解放的重要意義。[84]參見李易航:《社會規(guī)劃理論對我國著作權(quán)合理使用制度的啟示》,載《中國版權(quán)》2015年第2期,第43-44頁。因此,在社會規(guī)劃理論“平衡主義”方略指導(dǎo)下,對知識產(chǎn)權(quán)制度進行有效調(diào)整,可以有效消弭人工智能技術(shù)對社會發(fā)展的負面效應(yīng),使得人工智能技術(shù)正向效應(yīng)更為凸顯。具言之,在版權(quán)領(lǐng)域,增設(shè)新型“人工智能生成物權(quán)”鄰接權(quán),其權(quán)利內(nèi)容包括復(fù)制、發(fā)行、展覽、廣播等權(quán)利束??紤]到人工智能生成物低投入成本與高產(chǎn)出效率,可類比我國圖書、期刊版式設(shè)計權(quán)賦予10年的保護期限,在激勵人工智能創(chuàng)新的同時,使得公共領(lǐng)域得到豐盈,促進知識的自由傳播利用。在專利領(lǐng)域,承認人工智能生成技術(shù)方案的可專利性??紤]到人工智能發(fā)明創(chuàng)造的高效率和防止專利壁壘高聳,可參照歐盟外觀設(shè)計保護規(guī)則設(shè)置5年的保護期,[85]See European Parliament, Revision of Directive 98/71/EC on the Legal Protection of Designs and of Regulation(EC)No 6/2002 on Community Designs, https://www.europarl.europa.eu/RegData/etudes/BRIE/2022/730318/EPRS_BRI(2022)730318_EN.pdf, 2023年9月2日訪問。在確有必要的情況下允許延展一次,最長不超過我國外觀設(shè)計的10年保護期。單設(shè)人工智能生成專利的強制開放許可規(guī)則,在通過許可收益激勵創(chuàng)新的同時,限制其控制權(quán)與排他權(quán),從而為新生創(chuàng)新與后續(xù)創(chuàng)新留足空間。在商標領(lǐng)域,認可人工智能生成標識的可商標性,附加人工智能生成標識說明義務(wù)與特定期間內(nèi)同一人工智能生成標識申請注冊總次數(shù)限制規(guī)則,并對違反說明義務(wù)的失信主體適用聯(lián)合懲戒。
其三,資源配置層面的合理性。社會規(guī)劃理論的“分配正義”取向保障了技術(shù)應(yīng)用的倫理正當(dāng)。雖然高效率的人工智能可以海量持續(xù)地形成各種生成物,但是支持人工智能運轉(zhuǎn)的神經(jīng)網(wǎng)絡(luò)系統(tǒng)、算法以及其他軟硬件成本高昂。如若不能通過生成物收回投資,那么人工智能技術(shù)研發(fā)與產(chǎn)業(yè)發(fā)展便難以持續(xù)。只有賦予人工智能生成物知識產(chǎn)權(quán)保護,方能保障相關(guān)主體在人工智能技術(shù)研發(fā)與產(chǎn)業(yè)發(fā)展過程投入的成本得到相應(yīng)的回報,進而激發(fā)其對人工智能技術(shù)及其生成物的投資熱情。[86]參見朱夢云:《人工智能生成物的著作權(quán)保護可行性研究》,載《出版科學(xué)》2019年第3期,第56頁。然而,人工智能的高成本使得人工智能很大可能被掌握在少數(shù)企業(yè)手中,相應(yīng)地人工智能生成物的知識產(chǎn)權(quán)也只會被少數(shù)企業(yè)所獨占。[87]參見曲三強:《論人工智能與知識產(chǎn)權(quán)》,載《知識產(chǎn)權(quán)》2023年第8期,第35-36頁。面對人工智能生成物的商業(yè)價值,作為追求經(jīng)濟利益最大化的企業(yè),其理性選擇便是嚴格控制他人對人工智能生成物的獲取、傳播與利用,使得生成物始終處于合理程度的稀缺狀態(tài)而最大程度變現(xiàn)。這將導(dǎo)致人們占有的知識資源形成顯著差距。由于此種差距的形成,并非人們自身努力勞動所生,而是外在的技術(shù)資本(人工智能)所致,技術(shù)資本所得而非道德應(yīng)得,因此其倫理正當(dāng)性偏弱。隨著時間推移,人工智能高效率持續(xù)產(chǎn)出生成物,知識資源占有的差距不斷累積,人們心中的分配不公感會愈發(fā)明顯。同時,人工智能基于公共領(lǐng)域的知識進行窮盡式利用創(chuàng)新,其形成的海量生成物會全面覆蓋公有知識的可能表達,使得其他社會主體利用公有知識難以回避人工智能生成物覆蓋的表達而陷入創(chuàng)新困境或侵權(quán)泥沼,這是對公共資源的剝削式利用,難謂具備倫理正當(dāng)性。另外,逐利性將使得人工智能生成物的使用對象錨定為主流消費群體,殘疾人群體與少數(shù)族裔獲取最新成果的需求則被忽略,這將導(dǎo)致原處于社會最不利地位的弱勢群體的境況進一步變差。[88]參見龔群:《羅爾斯政治哲學(xué)》,商務(wù)印書館2006年版,第174-175頁。正如羅爾斯所言,“社會制度只有同時能夠使得社會最弱勢群體的處境得以改善”,方能具備正當(dāng)性。[89]參見[美]約翰·羅爾斯:《正義論》,何懷宏、何包鋼、廖申白譯,中國社會科學(xué)出版社1988年版,第292頁。此種知識資源與所獲利益的分配,將削弱人工智能應(yīng)用的倫理正當(dāng)性,使得人工智能的發(fā)展產(chǎn)生道德阻礙。因此,人工智能應(yīng)用需要解決分配不公的倫理瑕疵。社會規(guī)劃理論強調(diào)“公共領(lǐng)域豐盈”與利益均衡,可通過調(diào)整合理使用制度與強化公共領(lǐng)域保留原則,使得人工智能對公共利益的剝削以人們對人工智能生成物的廣泛獲得與利用作為補償,實現(xiàn)公共利益的損益相抵。同時,在“分配正義”取向指導(dǎo)下,通過調(diào)整知識產(chǎn)權(quán)權(quán)利范圍以及法定許可制度等,使得處于社會最不利地位的弱勢群體能得以最大程度獲取創(chuàng)新性成果,克服一味強調(diào)創(chuàng)新保護導(dǎo)致的弱勢群體境況變差難題,進而保障人工智能應(yīng)用具備倫理正當(dāng)性。
人工智能的發(fā)展,特別是通用人工智能的出現(xiàn),一方面補強了人類的生理能力的某些局限,使得搜集、分析與計算等活動變得更為快捷;另一方面也分享了原獨屬于人類的智力能力,可以獨立進行創(chuàng)新活動,使得傳統(tǒng)的主體與工具的二維界分變得極為模糊,人類在創(chuàng)作與發(fā)明領(lǐng)域的獨占地位不復(fù)存在,后人類創(chuàng)新時代已然來臨。如若固守“人類中心主義”,“裝聾作啞”式地忽視人工智能具有的與人類類似的甚至特定方面超越人類的智力能力,“倔強倨傲”或是“自欺欺人”地斷然否定人工智能的創(chuàng)新主體地位,將其認定為純粹的工具,這不僅是對智力本身重要性的貶損,而且是對人類自身獨特理性能力的貶低。人工智能在創(chuàng)新領(lǐng)域攻城略地已難以避免,創(chuàng)新活動的“三元創(chuàng)新格局”近在眼前,慎重且合理的舉措是做好基礎(chǔ)理論與制度變革的準備,以迎接人工智能的沖擊,直面其鋒芒。在人類主體地位不斷弱化的人工智能時代,秉持“人類中心主義”的勞動財產(chǎn)理論與人格理論,注定難以應(yīng)對人工智能帶來的知識產(chǎn)權(quán)正當(dāng)性挑戰(zhàn)。“機械功利主義”的激勵理論,不僅無法回答人工智能的有效激勵問題,而且難以消解人工智能技術(shù)的雙刃性,亦無法背負人工智能帶來的知識產(chǎn)權(quán)正當(dāng)性論證重擔(dān)。以“社會中心主義”為理論要旨,以公平、民主、物質(zhì)豐富、文化繁榮、人性解放的理想社會為最終目標,以“平衡主義”為指導(dǎo)方略,注重“分配公平”與“公共領(lǐng)域豐盈”的社會規(guī)劃理論,方能因應(yīng)后人類主義人工智能時代的創(chuàng)新格局,消解人工智能技術(shù)發(fā)展的兩面性難題,在激勵人工智能創(chuàng)新與鼓勵人工智能生成物傳播和利用之間達致平衡,最終促進人的自我實現(xiàn)和社會公平與繁榮發(fā)展。