国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能生成內(nèi)容的法律主體之問及其解決方案

2020-12-10 16:09
關(guān)鍵詞:主體資格賦權(quán)主體

孫 山

(西北政法大學(xué) 經(jīng)濟法學(xué)院,陜西 西安,710063)

對于人工智能的主體地位,民法學(xué)界觀點分歧較大,總體而言可分為肯定說、否定說和處于過渡階段的有限人格說三大類。肯定說主張應(yīng)以開放態(tài)度迎接科技的發(fā)展,認可人工智能的法律主體資格,[1]“人工智能已經(jīng)具有與人類對等的人格結(jié)構(gòu)”,[2]立法者應(yīng)創(chuàng)設(shè)“電子人”的法律主體;[3]否定說認為人工智能與自然人法律人格在目前存在不可逾越的鴻溝,沒必要賦予主體資格;[4]有限人格說提出人工智能承擔(dān)行為能力的后果有限,適用特殊的法律規(guī)范和侵權(quán)責(zé)任體系安排,因此只具有有限的法律人格。[5]此種認識分歧同樣存在于人工智能生成內(nèi)容的著作權(quán)法保護中。顯然,賦予人工智能以主體資格將引發(fā)現(xiàn)行法律制度的巨大變革,既有立法的價值判斷與規(guī)范設(shè)計都面臨前所未有的挑戰(zhàn)。筆者此前已經(jīng)著文探討人工智能生成內(nèi)容的類別及其成因,[6]分析獨創(chuàng)性判斷的標準選擇,[7]排除“思想”“人格”作為作品的隱藏構(gòu)成要件的可能性,[8]論證人工智能生成內(nèi)容構(gòu)成作品的可能性,本文則集中討論主體資格的賦予。本文認為,人工智能生成內(nèi)容不涉及侵權(quán)問題,自然也就沒有責(zé)任歸屬的可能,主體之問簡化可為財產(chǎn)權(quán)由誰享有。盡可能在現(xiàn)有制度框架下解決問題,窮盡解釋可能后再探討立法變革,嚴格區(qū)分司法問題與立法問題,這是筆者的習(xí)慣,也是本文的研究思路。

一、人工智能生成內(nèi)容主體之問的現(xiàn)象與實質(zhì)

人工智能生成內(nèi)容的著作權(quán)法保護問題是學(xué)界關(guān)注的重點,同時也是產(chǎn)業(yè)界的主要發(fā)力點。相比較尚處于研發(fā)階段的無人駕駛而言,人工智能在著作權(quán)領(lǐng)域的應(yīng)用已經(jīng)走向市場化,微軟小冰、新華社的快筆小新、騰訊的DreamWriter、今日頭條的張小明等都是產(chǎn)業(yè)化的實例。人工智能生成內(nèi)容目前僅限于以下類別作品:以詩歌和新聞報道為代表的文字作品、音樂作品和美術(shù)作品。這些類型的作品均屬于相對簡單的表達,不需要大量的、意義取決于情景的對話,也不需要復(fù)雜結(jié)構(gòu)和生活體驗。[6]從目前涉及的作品類型及其生成原因看,人工智能只能生成特定類型的內(nèi)容,根本不可能影響乃至取代人類的主體地位:“從人工智能在各個門類的創(chuàng)作活動及相關(guān)作品中,至今看不到電腦能夠完全代替人腦的任何可能性”。[9]擔(dān)心人工智能生成內(nèi)容的著作權(quán)保護會影響人類創(chuàng)作的積極性的論調(diào),屬于杞人憂天。

目前來看,人工智能生成內(nèi)容的著作權(quán)法規(guī)制,不會涉及生成內(nèi)容侵犯他人權(quán)利而承擔(dān)相應(yīng)民事責(zé)任的情形。人工智能法律規(guī)制主體之問的實質(zhì),是權(quán)利歸誰所有和責(zé)任由誰承擔(dān)兩類問題。無人駕駛是人工智能的重要應(yīng)用領(lǐng)域,無人駕駛的法律規(guī)制,集中于侵權(quán)行為發(fā)生后的歸責(zé)問題,不同學(xué)說的爭點是由無人駕駛器的擁有者、制造者還是銷售者承擔(dān)初始的賠償責(zé)任。人工智能生成內(nèi)容的主體之問,與無人駕駛不同,既不會侵犯他人著作權(quán),也不會侵犯他人人身權(quán),更不會侵犯包括物權(quán)、債權(quán)等在內(nèi)的其他權(quán)益,根本不存在責(zé)任承擔(dān)問題。第一,基于生成技術(shù)上的限制,人工智能生成內(nèi)容與既有表達不相同,沒有抄襲、剽竊的可能,更不會自主完成未經(jīng)許可的演繹等作品利用行為,生成內(nèi)容不會侵犯他人的著作權(quán)。通過大量訓(xùn)練,人工智能學(xué)會自行判斷、收集和學(xué)習(xí)新的數(shù)據(jù),最終生成不同于既有表達的內(nèi)容。此種結(jié)果,對于人類創(chuàng)作主體而言是很難實現(xiàn)的,人類的記憶力相對于人工智能而言太過于有限,常常會混淆既有內(nèi)容與新創(chuàng)內(nèi)容。但對于以既有數(shù)據(jù)為訓(xùn)練和學(xué)習(xí)前提的人工智能而言,生成內(nèi)容不會與既有內(nèi)容重復(fù),沒有侵犯著作權(quán)的可能。第二,基于生成內(nèi)容上的限制,人工智能生成內(nèi)容不會涉及任何人類形象的評價,自然也就不會侵犯他人的人身權(quán)。目前人工智能的優(yōu)勢主要在存儲記憶和處理速度方面,這種技術(shù)發(fā)展的現(xiàn)狀導(dǎo)致人工智能生成內(nèi)容主要集中于需要大量數(shù)據(jù)分析的領(lǐng)域,而此種領(lǐng)域的生成內(nèi)容是客觀事實的呈現(xiàn),不存在侵犯他人人身權(quán)的可能。除此之外,人工智能生成內(nèi)容與人類作品難以輕易區(qū)分的表達還包括那些不需要復(fù)雜人物關(guān)系和場景的作品類型,也就是一些學(xué)者談及的美術(shù)作品、音樂作品等思想表達連貫性、邏輯性不高的作品類型。[10]這些類型的作品同樣不會涉及人物形象的評價,侵權(quán)一說無從談起。

人工智能生成內(nèi)容主體之問的實質(zhì),是財產(chǎn)權(quán)的歸屬。在認定可能構(gòu)成作品的大前提下,人工智能生成內(nèi)容的主體之問主要存在著以下五種回答:直接賦權(quán)給人工智能;[11]賦權(quán)給人工智能本身,但由人工智能的所有者代為管理;[12]按人工智能發(fā)展的不同階段分別賦權(quán)給人工智能的使用人和設(shè)計者;[13]合同優(yōu)先,無合同情況下賦權(quán)給所有者;[14]賦權(quán)給人工智能的所有者。[15]確認何種主體享有著作權(quán)的直接法律效果,是該種主體可以主張著作人身權(quán)與著作財產(chǎn)權(quán),自然包括行使署名權(quán)、發(fā)表權(quán)、修改權(quán)和保護作品完整權(quán)這四項著作人身權(quán)。當人工智能本身無法理解著作人身權(quán),而人工智能設(shè)計者、所有者也沒有資格主張署名權(quán)、保護作品完整權(quán)等著作人身權(quán)時,人工智能生成內(nèi)容的著作權(quán)主體之問,自然就被簡化為財產(chǎn)權(quán)的歸屬問題了。顯然,人工智能生成內(nèi)容主體之問的部分答案,高估了目前人工智能產(chǎn)業(yè)的發(fā)展水平,摻雜了太多想象在其中。人工智能生成內(nèi)容的商業(yè)化應(yīng)用是現(xiàn)象,法律人所應(yīng)關(guān)注的則是其法律層面的實質(zhì)——對利益相關(guān)者的影響和現(xiàn)實制度的沖擊。

二、主體之變的歷史考察

相當一部分學(xué)者主張賦予人工智能主體資格的重要論據(jù),是法律史上主體資格的演化。在他們看來,法人這種非生命體可以獲得主體資格,同樣沒有生命的人工智能也應(yīng)獲得同等對待。不止于此,人工智能具有智力,可以做出相應(yīng)的行為選擇;和人類從事交易活動,賦予主體資格可以確保交易安全。然而,這些學(xué)者只注意到了主體資格變遷的現(xiàn)象,并未審察現(xiàn)象背后的成因:主體資格賦予的首要考量因素是經(jīng)濟交往的需要,其次才是倫理道德的要求,被納入的主體是否能自主行動始終不是評判的標準,主體資格的賦予奠基于人類趨利避害的生物本性。

法律主體經(jīng)歷了從“人可非人”到“非人可人”的歷史變遷。[16]具有理性的人被排除在法律主體之外,這種現(xiàn)象在人類法律史上很常見。在羅馬法中,奴隸被當作“會說話的工具”,與牛羊無異,所有行為的結(jié)果都被主人的行為所吸收。家子同樣沒有主體資格,完全依附于家父。類似情況在我國、古印度等國家都長期存在,區(qū)別只在于各國文化、宗教、經(jīng)濟等合力所造就的不同操作方式。近代以來,奴隸制度漸次被廢除,從解體的大家庭中走出的家子們獲得了獨立的主體資格,妻子相對于丈夫的獨立地位也得到了立法的承認,“人可非人”被“人可人”所取代。不但如此,各國立法中更是出現(xiàn)了“非人可人”的新變化。其一,人之組合,以法人之名享有權(quán)利、履行義務(wù)和承擔(dān)責(zé)任。出于降低經(jīng)營風(fēng)險的考慮,近代以來各國立法均認可法人的獨立地位,以期實現(xiàn)出資者的有限責(zé)任。其二,胎兒與死者利益的保護,將法律救濟延伸到出生之前與死亡之后,而胎兒和死者與法律意義上的“人”差別明顯。始于出生終于死亡,這是作為主體的人其權(quán)利能力的有效期間,而其主體資格也大致與此相當。略有例外的是胎兒與死者,各國立法對此二者提供的保護并不是以通常語義中“人”的界定為法理前提的。從“人可非人”到“非人可人”,活著出生、具備理性、能夠自主行動的自然人的主體資格得到普遍承認,但活著出生、具備理性、能夠自主行動不再是具備主體資格的必備要件。

“人可非人”和“非人可人”反映了同樣的歷史事實:法律主體的設(shè)定必須服務(wù)于經(jīng)濟交往的需要,倫理道德的要求是次要的考量因素。奴隸被排除在法律主體范圍之外的時代,是商品經(jīng)濟非常不發(fā)達的時代,商品的價值主要取決于勞動量的積累,勞動力之外的附加值基本上可以忽略不計,總體價格偏低,個體單純靠出賣商品維持生存比較困難。此時,受制于嚴格人身依附關(guān)系的奴隸是完成高強度、低收益勞動的首選人群,自由人是無法忍受這種剝奪的。頻繁軍事擴張的需要之外,家子被剝奪主體資格的制度選擇服務(wù)于以家庭為基本單位的生產(chǎn)模式。奴隸與家子依附于家父,由家父與其他家父從事市場交易,這樣才能兼顧奴隸、家子基本生活需求的滿足和經(jīng)濟交往的展開,實現(xiàn)生產(chǎn)力水平的低速前進。一些學(xué)者分析之后認為,篤信自然法的古羅馬帝國采用身份化的人格制度原因主要在于貴族階級的偏見、宗教信仰的影響和軍事擴張的需要。[17]這種認識有一定道理,但欠缺了對最根本原因的揭示:生產(chǎn)力水平和生產(chǎn)方式的限制。所以,這種違背當代人文明共識的制度選擇,是符合當時社會發(fā)展需求的,個體在團體中的結(jié)合方式、各個體之間的關(guān)系本身并不像后來人所想象的那么不合理。[18]

奴隸、家子等獲得獨立主體資格的時代,是商品經(jīng)濟逐步發(fā)達的時代。一些學(xué)者指出:“羅馬法中市民法與萬民法融合的過程,也就是市民法的家庭本位讓位于個人本位的過程”。[19]上述變化的社會實踐基礎(chǔ),是生產(chǎn)力水平提升背景下基本經(jīng)濟單位的變化:由家庭變?yōu)閭€人。生產(chǎn)力水平不斷提升達到一定程度之后商品的價值就由勞動量與技藝、智力等因素共同決定,勞動力之外的附加值構(gòu)成價格的重要組成部分,商品的價格逐漸提高。在此基礎(chǔ)上,奴隸和家子就有了通過自身勞作維持生存的可能,獨立主體資格的承認自此成為一個現(xiàn)實問題。生產(chǎn)力水平的提升伴生著產(chǎn)品數(shù)量的增多,數(shù)量有限的家父此時就無法滿足市場交易的需求了,家子的獨立應(yīng)時而生,奴隸的獨立也逐漸出現(xiàn)。工業(yè)革命需要大量的自由勞動力,產(chǎn)品數(shù)量的大幅度增加導(dǎo)致價格降低,要求更多的市場主體參與到交易活動中,這些合力促成了奴隸的獨立和法律主體資格的承認。女性主體地位的獲得遵循了同樣的邏輯。商品經(jīng)濟逐步發(fā)達的過程中,家子、奴隸等獲得了獨立平等的主體資格,以此服務(wù)于經(jīng)濟交往的需要。

“非人可人”的變化,更加突出了經(jīng)濟交往需求對法律主體設(shè)定的決定作用,也揭示了經(jīng)濟交往需求與倫理道德要求對主體資格賦予的影響力。法人制度奠定了有限責(zé)任的法理基礎(chǔ),顯著降低了經(jīng)營風(fēng)險,而當經(jīng)營者濫用法人的獨立主體資格時,公司法人的獨立人格將被否定,“刺破公司面紗”的制度回應(yīng)隨之而生。胎兒的主體資格之所以需要得到承認,最重要的原因是遺產(chǎn)繼承。只有承認胎兒的主體資格,特別是承認其權(quán)利能力,被繼承人在繼承人出生前所作的遺產(chǎn)處分才是有法律意義的,被繼承人的財產(chǎn)才能按照其真實意志得以傳承,遺產(chǎn)分割保障了胎兒的利益,繼承制度因與倫理價值相合而獲得了其時代正當性。胎兒可能成為未來的法律主體,懷孕期間其所受到傷害后果將延續(xù)于出生之后,胎兒具備主體資格后才能對該階段的傷害尋求損害賠償。死者利益的保護,重點則在于倫理道德的維護,并不涉及財產(chǎn)利益的分配與移轉(zhuǎn)。即便是他人對尸體作有違公序良俗原則的處置,近親屬也只能尋求精神損害賠償,而不是將尸體作為物進行保護。無論是“人可非人”,還是“非人可人”,主體制度關(guān)注的核心問題始終是財產(chǎn),關(guān)注財產(chǎn)歸誰所有,順及考慮倫理道德的維護。歷史告訴我們,非人類實體的主體地位之獲得源于立法者的抽象和虛擬,基于現(xiàn)實中人的需要,[20]胎兒利益與死者利益的保護中奉行著同樣的邏輯,主體資格這一法律概念背后攜帶著具有強烈實用主義色彩的目的,[21]“民法是人法”的“人類中心主義”并沒有成為過去式。法學(xué)研究以實踐為指向,建構(gòu)是法學(xué)研究的目標,解構(gòu)則是法學(xué)研究盡力避免的,“去人類中心主義”的后現(xiàn)代思維不會法學(xué)研究帶來任何有價值的知識增量,是沒有規(guī)范意義的過度想象。

主體之變的歷史變遷中,被納入的主體是否能自主行動始終不是評判的標準。“自主性”是人工智能產(chǎn)業(yè)發(fā)展的目標之一,可以自主處理相關(guān)問題的人工智能能夠?qū)⑷祟悘哪切┓爆?、重?fù)、需要時刻保持高度注意力的工種中解放出來,代替人類做出更有效率的行為選擇。有學(xué)者從“自主性”出發(fā)來論證人工智能的法律主體資格,“人工智能具有自主性、主動性,已非純受支配之客體,在法律上應(yīng)設(shè)定為‘電子人’”。[3]然而,所謂的“自主性”從來都不是法律主體的評判標準:無論是奴隸、女性,還是兒童與法人的排除與接納,都沒有考慮過這些主體是否能自主行動,能夠自主行動不能確保獲得法律主體資格,自主行動能力缺失也不會影響法律主體資格的保有。正如一些學(xué)者所證明的,“自主性”不是決定法律人格賦予的本質(zhì)屬性,人工智能“自主性”與法律人格不可通約。[22]

三、主體之問的求解:基于產(chǎn)業(yè)與法學(xué)的雙重視角

將沒有生理需求和心理感受的人工智能本身設(shè)定為主體,于產(chǎn)業(yè)發(fā)展沒有任何積極意義。賦權(quán)給人工智能本身,并不能在任何意義上激勵內(nèi)容的生成,相反,會影響人工智能設(shè)計者和所有者的投入,進而影響人工智能產(chǎn)業(yè)的發(fā)展。耶林有言:“目的是全部法律的創(chuàng)造者”。[23]著作權(quán)制度的運作機理,是以財產(chǎn)權(quán)的享有、利用和保護為手段,分配由此產(chǎn)生的利益,實現(xiàn)激發(fā)人類創(chuàng)造力、促進文明進步的效果。我們必須清楚認識到:“知識產(chǎn)權(quán)不是創(chuàng)造之因,而是創(chuàng)造與資本結(jié)合之果”。[24]因此,著作權(quán)法的制度設(shè)計,必須充分考慮賦權(quán)結(jié)果對于作品創(chuàng)作與傳播的激勵效果,積極服務(wù)于產(chǎn)業(yè)發(fā)展的需求。除非我們能夠證明賦權(quán)給人工智能本身會激勵人工智能的再創(chuàng)作,否則就不應(yīng)賦權(quán)。而人工智能本身沒有生理需求,也沒有心理感受,即便將其升格為法律意義上的主體,賦權(quán)給人工智能,也不會對內(nèi)容的生成產(chǎn)生任何激勵效果。經(jīng)濟利益上刺激,目前為止只對人類有效果,只能影響人類的行為選擇。因此,著作權(quán)的主體通常都是作者,作者以外的其他主體只在例外情形下才成為著作權(quán)人,而那些例外情形,都是為了方便作品的傳播與再創(chuàng)作。

正是基于激勵論的考慮,國內(nèi)部分學(xué)者主張借鑒“視為作者”的擬制技術(shù),將人工智能生成內(nèi)容的著作權(quán)歸由個人或法人享有。如吳漢東教授認為,可以借鑒雇傭作品或職務(wù)作品的相關(guān)制度,將人工智能擁有者“視為”生成內(nèi)容的作者;[25]熊琦教授則主張借鑒成熟的法人作品制度安排,將人工智能的所有者“視為”著作權(quán)人。[15]“法人或者其他組織視為作者”(1)參見《著作權(quán)法》第11條。的立法技術(shù)選擇,出發(fā)點是為了保護投資?!吨鳈?quán)法》中“作者”的法律意義,在于強調(diào)作品的“來源”,明確權(quán)利主體和責(zé)任主體。我國立法確立了法人作品,法人在特定情形下也可以成為作者。法人作品的界定,完全是模擬自然人作品完成的。“由法人主持、代表法人意志創(chuàng)作”指明了作品的來源,進而明確權(quán)利主體;“并由法人承擔(dān)責(zé)任”則是用來確定由何種主體承擔(dān)責(zé)任?!拔沂謱懳铱凇?,自然人作品當然由其主持并代表自身意志,“文責(zé)自負”,表明由自然人承擔(dān)責(zé)任。將沒有生理需求和心理感受的人工智能界定為著作權(quán)主體,不符合模擬自然人的立法與司法效果,由人工智能本身享有權(quán)利和承擔(dān)責(zé)任不會對人工智能的后續(xù)舉動產(chǎn)生任何直接影響。反過來,對于人工智能的設(shè)計者和所有者而言,賦權(quán)給人工智能,由人工智能承擔(dān)責(zé)任的話,他們就失去了技術(shù)改進與加強監(jiān)管的壓力與動力,進而影響整個產(chǎn)業(yè)的資金、技術(shù)投入與發(fā)展。

將沒有生命、不能真正理解法律規(guī)范之效力的人工智能本身設(shè)定為主體,于司法實踐沒有任何積極效果。人工智能發(fā)展過程中會伴生很多假問題乃至偽問題,學(xué)術(shù)研究必須剔除此類問題,設(shè)定為法律主體即為此類。第一,人工智能不是生物學(xué)意義上的生命體,無法真正理解規(guī)范評價對自身存在的影響。人工智能的邏輯重心是智能,不是生命,這一根本不同決定了人工智能不可能理解以人類個體生命為理論預(yù)設(shè)的規(guī)范評價對其自身存在的影響?!白臃囚~,安知魚之樂”,莊周與惠施兩千多年前的思辨,對于當下人工智能主體資格賦予的問難,同樣適用。正如一些學(xué)者所分析的那樣,只有人類才可以理解“權(quán)利”和“責(zé)任”的含義,機器無法理解規(guī)則,法律規(guī)則無法對機器本身的行為產(chǎn)生影響,我們應(yīng)拒絕沒有現(xiàn)實意義的擬制。[21]沒有生命,是人工智能成為責(zé)任主體過程中無法逾越的生理障礙。第二,人工智能不能真正理解法律規(guī)范對自身的意義與效力。法律是行為規(guī)范,如果立法對行為選擇不產(chǎn)生任何作用,立法必然是失敗的。人工智能能夠閱讀各種法律文本,但它不可能真正理解法律規(guī)范的效力。法律文本有其字面含義,更有其傳達的價值判斷,人工智能所能讀懂的,僅限于法律文本的字面含義。價值判斷,關(guān)乎善與惡,而善惡之分,根植于人類固有的倫理道德觀念,源自于人類社會生活的歷史與現(xiàn)實,這些都是無法通過計算方式獲得答案的。不能理解立法者在法律文本中所傳達的價值判斷,不能與人類形成共同的實踐理性,[26]自然也就無法將遵守法律變成自覺主動的選擇。未來的人工智能可能具有“自主性”,但它無法真正理解法律適用對自身的意義,無法在生命的意義上感受到法律的價值。不能理解法律的價值判斷,是人工智能成為責(zé)任主體過程中無法逾越的法理障礙。分析表明,“承認人工智能的主體地位,步子邁得過于大,遠離法理、邏輯和常識”,[8]是沒有法律意義的建構(gòu)。人工智能無法真正理解法律規(guī)范對自身的意義,不能由其自身承擔(dān)相應(yīng)的法律責(zé)任,自然也就不存在真正意義上的自由意志,區(qū)別于具有自己獨立意志并作為自然人集合體的法人,[25]司法裁判的結(jié)果對其不產(chǎn)生任何法律層面上的指引。

法學(xué)不是玄學(xué),人工智能法律規(guī)制主體之問的求解,應(yīng)當基于產(chǎn)業(yè)和法學(xué)的雙重視角,解決方案必須能促進產(chǎn)業(yè)發(fā)展,同時也有司法實踐的操作可能性和現(xiàn)實的必要性。首先需要明確的是,知識產(chǎn)權(quán)問題的解決思路,不同于物權(quán)。一般意義上的物,都有其物理上的四至界限,與物有關(guān)的利益沖突,發(fā)生于物理空間內(nèi)距離較近的特定主體之間。所以,物權(quán)問題的解決,不需要考慮規(guī)范制定與司法實踐對產(chǎn)業(yè)發(fā)展的影響,利益沖突中涉及主體較少。無論以何種名稱指代知識產(chǎn)權(quán)的對象,非物質(zhì)性都是其根本特征,非物質(zhì)性意味著權(quán)利人很難了解、控制知識產(chǎn)權(quán)對象的復(fù)制發(fā)行等行為。同時,知識產(chǎn)權(quán)對象的生成與傳播,往往不是由同一主體完成的,而是以完整的產(chǎn)業(yè)鏈作為必要支撐的。如果單純從法學(xué)視角來求解知識產(chǎn)權(quán)問題,特別是求解知識產(chǎn)權(quán)的實踐問題,忽視產(chǎn)業(yè)界的需求,容易偏離知識產(chǎn)權(quán)制度本身創(chuàng)設(shè)的目的——以分配財產(chǎn)利益的方式促進創(chuàng)新。有學(xué)者直言:“保護創(chuàng)作者和激勵創(chuàng)作只是支撐著作權(quán)制度正當性的符號性表達,著作權(quán)法的真正目的是保護作者中的投資者”。[27]我們應(yīng)當從產(chǎn)業(yè)、法學(xué)的雙重視角來審視、求解產(chǎn)業(yè)發(fā)展帶來的知識產(chǎn)權(quán)法律問題,兼顧人工智能的設(shè)計者、購買者和社會公眾的利益需求。

將人工智能所有人“視為”人工智能特定行為的實施者,排除其享有著作人身權(quán)的可能,由其享有著作財產(chǎn)權(quán),是解決主體之問的最妥當選擇。是否需要賦權(quán),取決于產(chǎn)業(yè)發(fā)展的需求;究竟賦權(quán)給誰,賦予何種權(quán)利,則要兼顧立法的可能性。將人工智能本身定性為作者的建議,不能解決任何現(xiàn)實的法律問題,人工智能享有著作權(quán)的說法沒有法律意義。賦權(quán)給設(shè)計者,是可選路徑之一,在設(shè)計者未曾轉(zhuǎn)讓人工智能的情形下此種賦權(quán)模式最為簡便明了。而當設(shè)計者轉(zhuǎn)讓人工智能設(shè)備后,此種路徑勢必要在立法中對設(shè)計者是否保留相關(guān)財產(chǎn)權(quán)利作出特別規(guī)定,而后借助合同制度明確權(quán)利的歸屬。相比于賦權(quán)給人工智能的設(shè)計者,賦權(quán)給人工智能的所有人后權(quán)屬規(guī)則更加簡明,更符合產(chǎn)業(yè)發(fā)展的實際,能為生成內(nèi)容的商業(yè)化利用掃清權(quán)利移轉(zhuǎn)上的障礙。賦權(quán)給人工智能的所有人,只是賦予其財產(chǎn)權(quán),人工智能生成內(nèi)容之上不應(yīng)成立著作權(quán)法意義上的人身權(quán):人工智能所有人并非實際的創(chuàng)作者,無從判斷修改行為本身是否符合人工智能的本意,無從主張修改權(quán);無法確定修改內(nèi)容是否歪曲、篡改原意,保護作品完整權(quán)的主張缺乏邏輯基礎(chǔ);以其自身名義發(fā)表相關(guān)內(nèi)容也不符合事實,所有人沒有實施創(chuàng)作行為,不存在署名權(quán)成立的正當性前提;人工智能生成相關(guān)內(nèi)容之后當然會以某種方式發(fā)表出來,其他人不會在人工智能已生成但尚未公開相關(guān)內(nèi)容之前的時間段內(nèi)未經(jīng)許可發(fā)表,沒有侵犯發(fā)表權(quán)的可能,也就沒有配置發(fā)表權(quán)的必要。對于人工智能生成內(nèi)容,所有人應(yīng)當在此類內(nèi)容上標明由何種人工智能生成,其他人也應(yīng)作相同標注,立法應(yīng)規(guī)定人工智能所有人有權(quán)對錯誤標記行為提起訴訟。從總體效果上看,人工智能生成內(nèi)容的權(quán)利歸屬及其行使的規(guī)則設(shè)計,與法人作品非常接近,但不能用法人作品來定性人工智能生成內(nèi)容:“人工智能技術(shù)是人支配、利用的對象,而法人作品和雇傭作品的作者不是法人或雇主支配的對象”。[28]由人工智能的所有者享有相應(yīng)的財產(chǎn)權(quán),根本原因是確保完整產(chǎn)業(yè)鏈的形成,維系產(chǎn)業(yè)的發(fā)展。[8]

人工智能主體之問上歧見紛呈、爭論不休的重要原因,是各方的立足點不同。一些學(xué)者之所以倡導(dǎo)承認人工智能的主體資格,是因為他們的立足點是未來,是人工智能發(fā)展的可能的、而且是非常樂觀的結(jié)果。然而,未來是否如他們所愿,人工智能是否能發(fā)展到相應(yīng)程度,在多長時間內(nèi)發(fā)展到預(yù)期水平,這一切都是不得而知的。換句話說,這些學(xué)者的判斷,都是建立在想象之上的。目前的人工智能是專注于完成某種特定任務(wù)的窄域人工智能(ANI,Artificial Narrow Intelligence),并非可以完成各種任務(wù)的通用人工智能(AGI,Artificial General Intelligence),這是本文立論的時代背景。窄域人工智能時代,人工智能的功能非常單一,而能耗又異常驚人(2)據(jù)斯加魯菲估算,人類大腦每小時消耗約20瓦能量,AlphaGo內(nèi)含的1920塊中央處理器和280塊圖形處理器每小時的能耗達440千瓦,如果機器達到與人類水平相當?shù)哪芰t所需能耗將超過各國能耗之和(每小時15萬億瓦)。參見皮埃羅·斯加魯菲:《智能的本質(zhì):人工智能與機器人領(lǐng)域的64個大問題》,任莉、張建宇譯,人民郵電出版社2017年版,第30頁。,設(shè)定為法律主體完全沒有效率可言。法學(xué)不是未來學(xué),不研究短時間內(nèi)沒有任何實現(xiàn)可能的虛構(gòu)問題,法學(xué)研究更不回答人類命運這一類終極問題。在當下和可以預(yù)見的未來,法律主體只能是個體的人和以組織面目出現(xiàn)的群體的人,人工智能本身不能成為法律主體。以“索菲亞”被沙特阿拉伯授予公民身份之個案論證人工智能主體資格承認的普遍性,不具有任何說服力,“索菲亞”事件傳遞給世人的,更多是其象征意義,是在信息不透明、不對稱情形下的全民娛樂(3)對“索菲亞”本身的審視,可參見《AI大神怒噴機器人索菲亞:這是場徹頭徹尾的騙局》,http://tech.sina.com.cn/it/2018-01-06/doc-ifyqkarr7540244.shtml,2019年12月20日訪問。。只要我們回到現(xiàn)實中來,回到人工智能只能充當工具、尚不具備自我意識的現(xiàn)實中來,人工智能主體之問的答案就是非常清晰的——它們過去、現(xiàn)在是,并且至少在未來的很長一段時間內(nèi)仍然是工具,離與人并列的法律主體,尚有很遙遠的距離。人工智能法律規(guī)制的主體之問,不是單純的邏輯思辨問題,更不是不著邊際的科學(xué)幻想。

四、結(jié)語

人工智能生成內(nèi)容的法律規(guī)制問題,必須直面只能生成特定類型文字作品、音樂作品和美術(shù)作品的現(xiàn)實。正如斯加魯菲所言,已過時、被淘汰的不是人類,而是目前的工作。[29]人工智能的發(fā)展使得部分群體得以從那些近乎重復(fù)、繁瑣無趣而又考驗體力極限的領(lǐng)域中解放出來,將人類的才智投入到更富有挑戰(zhàn)性的領(lǐng)域。法律主體所經(jīng)歷的從“人可非人”到“非人可人”的歷史變遷,無法推導(dǎo)出應(yīng)當賦予人工智能法律主體資格的結(jié)論。立足于技術(shù)發(fā)展現(xiàn)狀和現(xiàn)行法的規(guī)定,本文主張從法學(xué)和產(chǎn)業(yè)的雙重視角出發(fā),將人工智能的所有人視為人工智能生成內(nèi)容的作者,由其享有著作財產(chǎn)權(quán),但排除其享有著作人身權(quán)的可能。法律制度的構(gòu)建與法律解釋的操作,都應(yīng)立足于現(xiàn)實。人工智能法律規(guī)制的研究,不應(yīng)淪為時裝秀,比拼誰更前衛(wèi)、激進。

猜你喜歡
主體資格賦權(quán)主體
強化述職評議 落實主體責(zé)任
超圖結(jié)構(gòu)上合作博弈的賦權(quán)Position值
論碳審計主體
基于賦權(quán)增能的德育評價生態(tài)系統(tǒng)的構(gòu)建
基于賦權(quán)增能理論的健康教育對社區(qū)中老年人艾滋病KAP的影響
家庭賦權(quán)護理干預(yù)方案在肺癌放療患者中的應(yīng)用
何謂“主體間性”
略論意象間的主體構(gòu)架
環(huán)境污染侵權(quán)案件實務(wù)中的問題研究
環(huán)境公益訴訟主體存在問題及對策