李茜舒曼
1950年,阿蘭圖靈在英國雜志《思考》上發(fā)表《計算的機器和智能》一文,該文借助“模仿游戲”的概念提出“機器能否思考”的哲學(xué)問題;1956年“人工智能”術(shù)語首次提出,這一學(xué)科自此誕生。2016年谷歌旗下的“深度思考“(Deepmind)出品的阿爾法狗擊敗世界圍棋冠軍李世石后備受關(guān)注,麥肯錫報告聲稱“人工智能進入突破階段”。2022年底,OpenAI發(fā)布的新一代人工智能系統(tǒng)ChatGPT成為現(xiàn)象級事件,而Open AI的CEO Sam Altman曾表述,AIGC的定位是做一個類似于新時代的搜索引擎,從內(nèi)容輸出質(zhì)量和內(nèi)容形態(tài)覆蓋多維度。
一、人工智能生成物的主客體關(guān)系
歐盟委員會2021年4月21日頒布的《人工智能法案》中將人工智能系統(tǒng)(Artificial Intelligence system)界定為“基于機器的系統(tǒng),旨在以不同程度的自主權(quán)運行,并且可以針對明確或隱含的目標(biāo)生成例如預(yù)測、建議或決策等輸出,影響物理或虛擬的環(huán)境。”
計算機技術(shù)興起之后,各國即已對機器創(chuàng)作作品的法律屬性進行過討論,并在計算機僅作為協(xié)助創(chuàng)作的工具而存在這一點上達成共識,因此,對于依然不能脫離人類控制的人工智能的法律保護問題,可依照計算機衍生作品的邏輯解決,而這僅僅是針對于利用現(xiàn)有數(shù)據(jù)分析推斷其結(jié)果的人工智能的處理方式,對于具有生成創(chuàng)作性質(zhì)的人工智能則不適用。
在討論人工智能創(chuàng)作生成的作品時,應(yīng)根據(jù)創(chuàng)作過程中對人的依賴程度對其進行類型化判定,人工智能研究的一個主要目標(biāo)是使機器能夠勝任一些通常需要人類的智能才能完成的復(fù)雜工作。在此分為兩種情況,人工智能作為人類創(chuàng)作的輔助工具,其創(chuàng)作物可視為傳統(tǒng)的計算機衍生作品;而人工智能創(chuàng)作無需人類事先定義規(guī)則,作為獨立的創(chuàng)作主體,這時就出現(xiàn)了如何看待人類主體和智能機器主體之間關(guān)系的問題。
而這個價值判斷在技術(shù)操作層面往往很難界定,在康德主客體統(tǒng)一認識論和“人是目的”的哲學(xué)命題視角看來, “在人與物的關(guān)系上,物只具有相對價值,因而永遠只能作為手段,而人作為絕對價值則不但是主觀目的,而且也是客觀目的,因為其存在自身就是目的”。黑格爾在《邏輯學(xué)》中進一步論證了目的與手段的關(guān)系,他認為手段從屬于目的,力求使手段體現(xiàn)并實現(xiàn)目的的價值,目的通過手段揚棄客觀而達到主觀、客觀的統(tǒng)一。這說明人作為主體在與客體交往的過程中,主體利用與改造客體,將客體視為工具。馬克思則指出,“人是目的”的實現(xiàn)是一個漫長且曲折的歷史進程,“創(chuàng)造這一切、擁有這一切并為這一切而斗爭的,不是‘歷史,而正是人,現(xiàn)實的、活生生的人,但歷史并不是把人當(dāng)做達成自己目的的工具來利用的某種特殊的人格,歷史不過是追求著自己目的的人的活動而已?!?/p>
基于人類哲學(xué)視角的價值論斷,人工智能生成物的主體地位只能是人類自身,而機器則始終只能作為輔助性工具的客體角色;隨著人工智能的類人化創(chuàng)作,其根基則建構(gòu)在人類智力成果的數(shù)據(jù)基數(shù)上,其創(chuàng)作高度不會超越人類的智力創(chuàng)作上線,但其在思考維度上能夠做到更加廣泛、全面。
二、生成式人工智能政策和法律文件分析
2023年5月23日國家互聯(lián)網(wǎng)信息辦公室審議通過了《生成式人工智能服務(wù)管理暫行辦法》,并于2023年8月15日起實施,制定《辦法》旨在促進生成式人工智能健康發(fā)展。習(xí)近平總書記在主持召開中共中央政治局會議中指示:“要重視通用人工智能發(fā)展,營造創(chuàng)新生態(tài),重視防范風(fēng)險。”
《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱“辦法”)奠定了我國對生成式人工智能服務(wù)的基本態(tài)度及行政監(jiān)管措施,共分為5章24條。其中,辦法第二條規(guī)定了生成式人工智能服務(wù)法律適用的基本范圍包括文本、圖片、音頻和視頻等內(nèi)容,其中不包括新聞出版、影視制作、文藝創(chuàng)作等活動;這一規(guī)定確定了生成式人工智能服務(wù)所規(guī)制的法律客體,即不在客體范圍內(nèi)的作品形式則不屬于人工智能生成物;主體范圍包括研發(fā)、應(yīng)用生成式人工智能技術(shù)的行業(yè)組織、企業(yè)、教育和科研機構(gòu)、公共文化機構(gòu)、有關(guān)專業(yè)機構(gòu)等。其中,未向中國境內(nèi)公眾提供生成式人工智能服務(wù)的主體不在適用范圍內(nèi)。
辦法第三條規(guī)定了分類分級的監(jiān)管措施,根據(jù)人工智能技術(shù)的不同特定,采用不同的監(jiān)管方式和標(biāo)準(zhǔn)進行分類分級監(jiān)管。分類分級監(jiān)管的原則是發(fā)展和安全并重、促進創(chuàng)新與依法治理相結(jié)合;即對于不同類型的人工智能服務(wù)采取不同的監(jiān)管措施,鼓勵創(chuàng)新發(fā)展的同時確保使用人工智能服務(wù)的安全合規(guī);例如,在訓(xùn)練數(shù)據(jù)處理活動和數(shù)據(jù)標(biāo)注方面,對于涉及個人隱私的數(shù)據(jù),應(yīng)嚴格控制其使用范圍;根據(jù)辦法第七條第三款規(guī)定,涉及個人信息的,應(yīng)當(dāng)取得個人同意或者符合法律、行政法規(guī)規(guī)定的其他情形;第九條規(guī)定,涉及個人信息的,依法承擔(dān)個人信息處理者責(zé)任,履行個人信息保護義務(wù);第十一條規(guī)定,不得收集非必要個人信息及非法保存和提供能夠識別使用者身份的輸入信息和使用記錄。
該辦法第四條第一款、第四款對于生成式人工智能服務(wù)的內(nèi)容限制包括政治敏感信息、社會公序良俗、個人合法權(quán)益等方面。這些內(nèi)容在生成式人工智能算法設(shè)計時采取屏蔽關(guān)鍵詞匯的方式,即不提供相關(guān)方面的內(nèi)容反饋,而該限制在軟件使用過程中是顯而易見并極易被觀察到的;辦法第十四條規(guī)定,提供者發(fā)現(xiàn)違法內(nèi)容的,應(yīng)當(dāng)及時采取停止生成和傳輸、消除等處置措施;發(fā)現(xiàn)從事違法活動的,應(yīng)采取警示、限制功能、暫?;蚪K止向其提供服務(wù)。但同時提供者對使用者的輸入信息和使用記錄應(yīng)當(dāng)依法履行保護義務(wù)。這就說明,國家政策在生成式人工智能安全度方面采取“收緊”措施,以監(jiān)管的方式嚴格控制人工智能的發(fā)展不超出社會穩(wěn)定和網(wǎng)絡(luò)安全的合理框架。
該辦法第四條第二款規(guī)定在算法設(shè)計、數(shù)據(jù)訓(xùn)練、生成模型的過程中避免出現(xiàn)“歧視”,這就是首先從采樣數(shù)據(jù)入手,在訓(xùn)練數(shù)據(jù)中納入不同背景和經(jīng)歷的人群,采用具有多樣性和包容性的數(shù)據(jù);同時,在第七條第四款中也提及要提高訓(xùn)練數(shù)據(jù)質(zhì)量,增強訓(xùn)練數(shù)據(jù)的真實性、準(zhǔn)確性、客觀性、多樣性。其次,在算法設(shè)計中采用反偏見算法來檢測和糾正人工智能系統(tǒng)中的偏見,這些算法可以識別和糾正訓(xùn)練數(shù)據(jù)中的非客觀因素,同時在人工智能系統(tǒng)的設(shè)計開發(fā)過程中,研發(fā)專家進行涉入干預(yù),以抽樣方式糾正系統(tǒng)中的計算偏差,以保證數(shù)據(jù)的相對準(zhǔn)確性。
該辦法第四條第三款和第五款規(guī)定尊重知識產(chǎn)權(quán)、商業(yè)秘密,并提高生成式人工智能服務(wù)的透明度和可解釋性,這些措施即可避免算法“黑箱”的存在,以便能了解系統(tǒng)的決策過程和結(jié)果。算法是由商家和技術(shù)公司設(shè)計的,其過程中的不可解釋性就會形成算法黑箱,機器學(xué)習(xí)的思路和結(jié)論目前不完全具備可視性和可解釋性,因此帶來的一部分技術(shù)壁壘使人們無法破譯和解釋人工智能是如何作出決策和判斷的,這與透明性原則相抵觸,其科學(xué)性也就難以令人信服。
預(yù)防或避免算法歧視、不透明等弊端,最大限度減少算法“黑箱”可能造成的負面影響,建立與之配套的監(jiān)管和治理措施,是推動生成式人工智能健康發(fā)展的技術(shù)關(guān)鍵,也是生成式人工智能未來發(fā)展方向的技術(shù)保障基礎(chǔ)。
三、生成式人工智能發(fā)展現(xiàn)狀及態(tài)勢
生成式人工智能的狹義概念是利用AI自動生成內(nèi)容的生產(chǎn)方式,但是生成式人工智能已經(jīng)代表了AI技術(shù)發(fā)展的趨勢,傳統(tǒng)的人工智能偏向于分析已經(jīng)存在的事物,而現(xiàn)在人工智能正在生成新的東西,即所謂人工智能從感知、理解世界已然到了生成“創(chuàng)造”世界的階段。人類的某些創(chuàng)造性工作可能在不久的將來被生成性人工智能完全取代,同時,也有一些創(chuàng)造性工作會加速進入人機協(xié)同時代——人類與生成式人工智能技術(shù)共同創(chuàng)造更高效和優(yōu)質(zhì)的內(nèi)容。生成式人工智能技術(shù)將會把創(chuàng)造和知識工作的邊際成本降至零,打通不同學(xué)科知識的壁壘,形成跨學(xué)科聯(lián)動,實現(xiàn)低成本甚至零成本的自動化內(nèi)容生產(chǎn),這一內(nèi)容生產(chǎn)的范式轉(zhuǎn)變將升級甚至重塑內(nèi)容生產(chǎn)供給,進而給依賴于內(nèi)容生產(chǎn)供給的行業(yè)和領(lǐng)域帶來巨大影響,從而將引起整個應(yīng)用生態(tài)體系的變化和調(diào)整。
當(dāng)前生成式人工智能技術(shù)沉淀、產(chǎn)業(yè)生態(tài)已初步形成。根據(jù)人工智能生成畫作,文字生成圖片是目前人工智能繪畫的主流生成方式。未來五年,10%至30%的圖片內(nèi)容將會由人工智能參與生成,這種方式將被廣泛應(yīng)用于網(wǎng)絡(luò)游戲開發(fā),同時極大限度降低資金投入成本。
互聯(lián)網(wǎng)向下一代技術(shù)升級演進的方向是從平面走向立體,即邁向3D互聯(lián)網(wǎng)時代,在虛擬空間建構(gòu)仿真世界,而生成式人工智能將成為打造虛擬現(xiàn)實集成世界的基石。傳統(tǒng)的3D制作需要大量的時間和人力成本,而生成3D內(nèi)容需要更大信息量的數(shù)據(jù)樣本支撐。例如一張高清平面圖片大概需要400萬像素點,而3D成像的實質(zhì)差別在于其具有幾何立體特征,每個平面如若用400萬像素點表示,其本身蘊含的信息量就是數(shù)量級的差距。除此之外還有比如素材的光線、光源、材質(zhì)等技術(shù)處理條件的制約,而借助人工智能生成高質(zhì)量成像效果的3D成像也具有切實的可行性。英偉達研發(fā)的生成式人工智能模型GET3D可根據(jù)其所訓(xùn)練的建筑物、汽車、動物等平面圖像類別即時合成3D幾何體,并具有高保真的紋理和復(fù)雜的幾何細節(jié),該模型是使用從不同角度拍攝的約100萬張3D幾何體的平面圖像訓(xùn)練而成的,優(yōu)勢在于以常用圖形軟件應(yīng)用格式創(chuàng)建,用戶可以輕松駕馭。從平面圖像生成3D模型的應(yīng)用普及,有望激發(fā)每個人創(chuàng)作3D成像的動力,所產(chǎn)生的內(nèi)容數(shù)據(jù)可以加速游戲和虛擬現(xiàn)實的應(yīng)用開發(fā),同時還需要生成式人工智能技術(shù)更長時間的探索和積累。
基于此,生成式人工智能已基本重構(gòu)了內(nèi)容生成領(lǐng)域的應(yīng)用生態(tài),以新的模式輔助創(chuàng)作者持續(xù)產(chǎn)生、迭代和驗證創(chuàng)意,以更低的成本、高效能的方式“創(chuàng)作”數(shù)字內(nèi)容。
四、生成式人工智能的社會價值及知識產(chǎn)權(quán)風(fēng)險
生成式人工智能的社會價值在于革新數(shù)字內(nèi)容領(lǐng)域,并形成相關(guān)產(chǎn)業(yè)的應(yīng)用生態(tài)結(jié)構(gòu),以更高效和低成本的技術(shù)替代基礎(chǔ)性工作,解放人類大量重復(fù)性、機械化的智力勞作,更多地投入到具有創(chuàng)造性的領(lǐng)域。在生成式人工智能的智能程度測試過程中,其表現(xiàn)超越人類程序員和數(shù)據(jù)集創(chuàng)造者的創(chuàng)造力,這是否能夠證明是其表達、思考、創(chuàng)造等自主意識的投射?答案必然是否定的,其根源在于其創(chuàng)造力是基于深度學(xué)習(xí)的“模仿式創(chuàng)新”,而非全然是從0到1的創(chuàng)造。
正是基于生成式人工智能的“模仿式創(chuàng)新”,其不具有真正意義上的創(chuàng)造性,而在應(yīng)用實踐中極易引發(fā)新型的知識產(chǎn)權(quán)侵權(quán)風(fēng)險。比如2017年的一個人工智能生成物的案例,微軟研發(fā)的生成式人工智能“小冰”通過訓(xùn)練學(xué)習(xí)了中華人民共和國成立前519位詩人的作品集合,生產(chǎn)了第一部人工智能詩集。面對“小冰”可能造成的侵權(quán)風(fēng)險,微軟以該訓(xùn)練數(shù)據(jù)均來自于公開無版權(quán)權(quán)益問題的數(shù)據(jù),或經(jīng)授權(quán)使用的數(shù)據(jù)為由,主張其生成內(nèi)容不具有侵權(quán)風(fēng)險。同時,其生成內(nèi)容同樣不具有通常意義上的獨創(chuàng)性,不構(gòu)成著作權(quán)法意義上的作品。
由此可見,生成式人工智能的著作權(quán)侵權(quán)風(fēng)險不在于其生成內(nèi)容是否具有獨創(chuàng)性,而在于其原始素材或數(shù)據(jù)的取得是否征得著作權(quán)人的授權(quán)許可,其生成過程可能因為損害原著作權(quán)人所享有的修改權(quán)、保護作品完整權(quán)等人身權(quán)利,以及演繹權(quán)等其他權(quán)利而形成侵權(quán)風(fēng)險;例如,2022年P(guān)odcast.ai仿生了已故的史蒂夫喬布斯,有部分觀點認為,該行為侵犯了已故之人的隱私權(quán)及其繼承人的代理權(quán)。
全球范圍內(nèi),在現(xiàn)行著作權(quán)法框架下人工智能生成物均無法受到必要性保護,亦無法在相關(guān)行政部門進行著作權(quán)登記確權(quán);但從保障、激勵創(chuàng)作者權(quán)益的角度出發(fā),具備人類作者充分干預(yù)的人工智能生成物可以參考著作權(quán)法中的演繹作品加以合理保護,而其創(chuàng)作過程應(yīng)標(biāo)注清晰的勞動投入比例,以此證明人類作者的干預(yù)程度。由此可見,人工智能生成物已不在現(xiàn)有著作權(quán)法可調(diào)整的框架范圍之內(nèi),應(yīng)采用《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個人信息保護法》《科學(xué)技術(shù)進步法》等法律、行政法規(guī)進行規(guī)制。
綜上所述,生成式人工智能即將對現(xiàn)有社會結(jié)構(gòu)產(chǎn)生多維度變革,既有加速人類社會發(fā)展進化的方面,也有潛在風(fēng)險和挑戰(zhàn)的方面;面向人工智能時代,需要始終堅守“人是目的”,建立人機協(xié)作的新模態(tài)生產(chǎn)結(jié)構(gòu),形成基于正確價值導(dǎo)向的人機交互關(guān)系,構(gòu)建人類智能和人工智能可持續(xù)發(fā)展的和諧社會。
(作者單位:中國版權(quán)保護中心)