国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能治理的法律回應(yīng)

2024-04-06 18:11:43
關(guān)鍵詞:人工智能算法

袁 曾

(上海大學(xué) 法學(xué)院,上海 200444)

一、引 言

ChatGPT(Chat Generative Pre-trained Transformer)已于2023 年5 月18 日上線蘋果手機程序商店(AppStore),標(biāo)志著生成式人工智能正式投入商業(yè)化應(yīng)用。生成式人工智能(Generative AI),是指通過各種機器學(xué)習(xí)技術(shù)(Machine Learning,ML)從數(shù)據(jù)中學(xué)習(xí)要素,進而生成全新的、原創(chuàng)的、真實的內(nèi)容,其生成的內(nèi)容(AI-Generated Content,AIGC)與訓(xùn)練數(shù)據(jù)可以保持關(guān)聯(lián)性,但絕非復(fù)制。[1]生成式人工智能綜合利用人類反饋強化學(xué)習(xí)、深度學(xué)習(xí)技術(shù)、全域數(shù)據(jù)挖掘技術(shù),已將智能生產(chǎn)力水平提升到了新的階段,人類正式進入通用人工智能(Artificial General Intelligence,AGI)時代的奇點。[2]18例如,操作者可使用Mid-Journey 程序,快速通過輸入單詞指令的方式,要求生成式人工智能在極短的時間內(nèi)輸出符合操作者要求的全新圖像,不具備任何繪畫基礎(chǔ)的人也可以在生成式人工智能的幫助下生成高水準(zhǔn)的圖像“作品”,其強大的圖形渲染能力、理解能力與內(nèi)容產(chǎn)出效率,已經(jīng)開始改變插圖繪制行業(yè)生態(tài)。在傳統(tǒng)人工智能時代,人工智能的模糊性、復(fù)雜性、自主性和無法預(yù)測性等特征,已經(jīng)帶來諸多風(fēng)險和問題。[3]而生成式人工智能具有的顛覆性生產(chǎn)力可能對社會生產(chǎn)關(guān)系產(chǎn)生重大系統(tǒng)性改變,也將引致重大治理風(fēng)險?,F(xiàn)行法律調(diào)整規(guī)制人工智能的框架與范式,很難充分應(yīng)對技術(shù)迭代發(fā)展的現(xiàn)實,需要在考量技術(shù)能力與實際變量的基礎(chǔ)上,重新建構(gòu)生成式人工智能治理的基本架構(gòu),以規(guī)則制定引領(lǐng)技術(shù)變革的正確發(fā)展方向。

二、生成式人工智能引致的治理風(fēng)險

(一)生產(chǎn)工具已具備人類能力特征

勞動,對人和人類社會的形成和發(fā)展具有根本的決定意義,也是人與動物的本質(zhì)區(qū)別。馬克思在《資本論》中指出,勞動首先是人和自然之間的過程,是人以自身的活動來引起、調(diào)整和控制人和自然之間的物質(zhì)變換的過程。生成式人工智能投入規(guī)?;瘧?yīng)用后,傳統(tǒng)勞動的概念與形態(tài)受到了現(xiàn)實挑戰(zhàn)。以ChatGPT 在教育領(lǐng)域的應(yīng)用為例,以往學(xué)生修改畢業(yè)論文需要付出較為繁雜的勞動以滿足論文重復(fù)率要求,但現(xiàn)在操作者可以直接將論文內(nèi)容輸入至程序中,明確指示ChatGPT 按照相應(yīng)要求進行復(fù)寫,在數(shù)分鐘內(nèi)完成論文的重新編寫。在此行為模式下,ChatGPT 的重新加工、輸出內(nèi)容可否被定義為勞動,直接關(guān)涉其法律地位等一系列復(fù)雜問題的認(rèn)定。從與傳統(tǒng)人工智能技術(shù)的區(qū)別分析,生成式人工智能已經(jīng)在圖片等信息識別與人類自然語言的理解上實現(xiàn)了突破,在“理解能力”與“行為能力”上,具備了人類能力的基本特征。在使用Whisper、Boomy、BeatBot 等音樂類生成式人工智能程序時,操作者簡單告知其需要的曲風(fēng)與詞意,人工智能即可自動生成符合樂理與聽眾習(xí)慣的歌曲。在此維度下,很難從客觀上否認(rèn)生成式人工智能具備了推理能力。更為震撼的是,若操作者不滿意此類程序的交互界面或生成效果,就可以在生成式人工智能的幫助下,在按日計算的短時間內(nèi)自行重新搭建一套程序,完成以往中小型互聯(lián)網(wǎng)公司級的煩瑣工作。另外,生成式人工智能技術(shù)使得環(huán)境態(tài)勢感知不再成為計算機識別的障礙,自動駕駛汽車?yán)脤嵕皵z像頭在人工智能的計算下實現(xiàn)真正的實時無人駕駛已成為現(xiàn)實,若汽車在生成式人工智能負(fù)責(zé)駕駛的狀況下造成人員傷亡等侵權(quán)事故,其駕駛的行為能否被定義為法律上的“行為”,這將直接引發(fā)整個汽車行業(yè)保險責(zé)任的顛覆性變化。生成式人工智能在當(dāng)前階段仍屬于為人所使用的工具,但這種生產(chǎn)工具所具備的技術(shù)能力及發(fā)展能力過于強大,已經(jīng)在部分行業(yè)替代了人類的勞動與工作,改變了社會生產(chǎn)生活的形態(tài)。

(二)新生問題超出法律規(guī)制范圍

生成式人工智能的規(guī)模化應(yīng)用已經(jīng)形成了較多亟待法學(xué)研究厘清的重大現(xiàn)實問題。一是從著作權(quán)領(lǐng)域分析,生成式人工智能涉及的知識產(chǎn)權(quán)問題極為復(fù)雜。生成式人工智能的操作者僅需鍵入幾個關(guān)鍵詞,機器就足以實現(xiàn)獨立于預(yù)設(shè)條件的內(nèi)容產(chǎn)出。[4]在此情形下,該種產(chǎn)出是否可以界定為作品?若界定為作品,其作者是操作者還是人工智能本身?特別是在生成式人工智能輸出的內(nèi)容已具備現(xiàn)行著作權(quán)法下的作品特征的客觀狀況下,由于生成式人工智能生成內(nèi)容潛在的利益巨大,由生成式人工智能的研發(fā)者、提供者還是操作者享有內(nèi)容背后的財產(chǎn)權(quán)益均會對未來知識產(chǎn)權(quán)的治理產(chǎn)生關(guān)鍵性導(dǎo)向。二是從刑事領(lǐng)域分析,由于生成式人工智能具備相對獨立的行為能力,若將生成式人工智能作為犯罪手段將無法直接適用現(xiàn)行的犯罪構(gòu)成要件、罪責(zé)刑相適應(yīng)等基礎(chǔ)理論。利用AI 換臉等深度偽造技術(shù)實施詐騙的案例已經(jīng)出現(xiàn),其真正的犯罪主體難以追蹤確定。生成式人工智能可以批量注冊社交賬號,操控相關(guān)程序規(guī)模化地在信息網(wǎng)絡(luò)上跨境發(fā)布大量的煽動性信息。若生成式人工智能被自動設(shè)定用于“網(wǎng)暴”“造黃謠”“抹黑”特定對象,則其很可能造成當(dāng)事人自殺、自殘等嚴(yán)重后果,但查證犯罪將極為困難。[5]三是從數(shù)據(jù)治理領(lǐng)域分析,生成式人工智能對于數(shù)據(jù)具有極強的依賴性,造成了隱私侵權(quán)、數(shù)據(jù)濫用的現(xiàn)實治理風(fēng)險。由于使用全域互聯(lián)網(wǎng)數(shù)據(jù)作為訓(xùn)練樣本,ChatGPT等生成式人工智能在挖掘、使用數(shù)據(jù)的過程中,并不能準(zhǔn)確辨析所利用的海量數(shù)據(jù)的權(quán)利狀態(tài)與知識產(chǎn)權(quán)狀況,潛在的數(shù)據(jù)權(quán)利人也無從知曉、無法辨析自身數(shù)據(jù)信息被大數(shù)據(jù)模型爬取利用,這留下了極大的治理空白。[6]四是從人類文明的傳承分析,當(dāng)前生成式人工智能的底層數(shù)據(jù)以英語數(shù)據(jù)為主,作為國際互聯(lián)網(wǎng)基礎(chǔ)的英文數(shù)據(jù)庫確實具有較高的數(shù)據(jù)質(zhì)量,但生成式人工智能輸出的內(nèi)容也就天然具有了技術(shù)研發(fā)者與數(shù)據(jù)庫擁有者暗含的主觀價值觀、世界觀。與傳統(tǒng)算法定點推薦給用戶的被動接收信息的方式相比,操作者自行設(shè)置變量產(chǎn)生的AIGC具備主動感知的更高信任度。各國民眾在長期接受含有價值偏向的統(tǒng)一標(biāo)準(zhǔn)信息后,很有可能直接改變當(dāng)前多樣性文明的意識形態(tài)。

(三)私人技術(shù)資本成為數(shù)字空間的權(quán)力掌控者

權(quán)力可以被解釋為若干預(yù)期結(jié)果的產(chǎn)生,是一個量的概念,假如有兩個具有相似欲望的人,其中一人除實現(xiàn)了另一人的全部欲望外,還實現(xiàn)了其他一些欲望,則他就比另一人具有更多的權(quán)力。[7]“代碼即法律”意指數(shù)字空間權(quán)力,已經(jīng)成為法學(xué)界探討數(shù)字生態(tài)與現(xiàn)實社會交互發(fā)展中最主要的憂慮。生成式人工智能加大了私人技術(shù)資本在數(shù)字空間乃至社會空間中的系統(tǒng)重要性,并逐步趨于技術(shù)壟斷的地位,掌握了數(shù)據(jù)流向渠道、大模型算法排他性專利、技術(shù)發(fā)展方向等多領(lǐng)域的實際權(quán)力。[8]生成式人工智能規(guī)模化應(yīng)用以后,私人技術(shù)資本的權(quán)力進一步擴張,其獨立于傳統(tǒng)政府公權(quán)力與公民私權(quán)力之外的“第三極”權(quán)力地位進一步突顯。

一是生成式人工智能的技術(shù)開發(fā)投入需要的資本極大,已非一般規(guī)模的市場主體乃至中小型國家可以承擔(dān)。自2019年以來,微軟公司對OpenAI 公司至少投資了30 億美元以訓(xùn)練ChatGPT 的初代模型,2023 年1 月,OpenAI 公司又宣布獲得微軟公司數(shù)十億美元的多年期投資。高昂的長期投入成本與巨大的現(xiàn)實回報,加強了高端技術(shù)領(lǐng)域研發(fā)與應(yīng)用的“馬太效應(yīng)”(即強者恒強),使得數(shù)據(jù)鴻溝不僅在不同發(fā)展程度國家間的公民個體中形成,更在國家與國家、國家與私人技術(shù)資本間產(chǎn)生。二是對于生成式人工智能提供者的監(jiān)管手段與能力匱乏。生成式人工智能使用互聯(lián)網(wǎng)全域數(shù)據(jù)樣本進行運算訓(xùn)練,又實時提供各類AIGC反饋至操作者處,每時每刻在全球網(wǎng)絡(luò)上均有海量的內(nèi)容輸出產(chǎn)生,目前仍無有效的監(jiān)管工具可以實時監(jiān)測與存儲生成式人工智能所產(chǎn)出的全部內(nèi)容。監(jiān)管的缺位又反向固化了私人技術(shù)資本的實際權(quán)力地位。[9]三是私人技術(shù)資本在數(shù)字空間中已居于事實上的領(lǐng)導(dǎo)者地位。無論是前期炒作火熱的元宇宙、還是喧囂甚上的WEB3.0,科技前沿的發(fā)展概念與理念均由私人科技資本提出,并由此影響國家科技投入與發(fā)展的具體技術(shù)路線。由于掌握了新型數(shù)字基礎(chǔ)設(shè)施建設(shè)的硬件標(biāo)準(zhǔn)與大模型算法,私人技術(shù)資本已可以從算力、算法等多維度控制全球數(shù)字產(chǎn)品的供應(yīng)并確定技術(shù)的發(fā)展方向,逐步侵蝕、擠占甚至取代傳統(tǒng)公權(quán)力的地位,為社會發(fā)展帶來不可預(yù)測的風(fēng)險變量。

三、現(xiàn)行治理范式無法涵蓋治理需要

社會治理已經(jīng)邁入人工智能時代,相關(guān)法律、倫理、社會問題的研究氛圍也相當(dāng)活躍。[10]2023 年8 月15 日,國家互聯(lián)網(wǎng)信息辦公室等七部門共同發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》生效,對隱私保護、數(shù)據(jù)訓(xùn)練、不公平競爭等內(nèi)容提出了規(guī)范性意見。但由于生成式人工智能所具備的顛覆性技術(shù)能力,導(dǎo)致其帶來的社會變量,可能遠(yuǎn)超現(xiàn)行控制機制與規(guī)范框架的調(diào)整范圍。結(jié)合技術(shù)迭代發(fā)展的實際,統(tǒng)籌發(fā)展與安全,從數(shù)字治理的高度推動生成式人工智能的法律規(guī)制,已經(jīng)成為一個現(xiàn)實而緊迫的重大研究命題。但是,當(dāng)前對于人工智能的治理聚焦于算法規(guī)制,忽視了生成式人工智能發(fā)展模式與調(diào)整框架的整體建構(gòu),無法適應(yīng)技術(shù)發(fā)展的最新需要,而數(shù)字法學(xué)的方法論集中于概念創(chuàng)造卻又忽視了法學(xué)的實踐應(yīng)用標(biāo)準(zhǔn),導(dǎo)致目前的治理范式無法適應(yīng)于生成式人工智能的未來發(fā)展,因而法律規(guī)制的引導(dǎo)、調(diào)整作用不強。

(一)忽視責(zé)任的整體建構(gòu)

當(dāng)前學(xué)界與實務(wù)界對于人工智能的治理基本以算法規(guī)制為核心展開,特別是以算法的可解釋性為核心展開了包括透明性要求、推薦要求、分級監(jiān)管要求、備案要求等系列的規(guī)則建構(gòu)。[11]客觀地分析,以算法為規(guī)制調(diào)整中心的領(lǐng)域場,符合傳統(tǒng)人工智能的技術(shù)水平。在進入生成式人工智能以前,人工智能以深度學(xué)習(xí)、大數(shù)據(jù)計算為核心建構(gòu)底層技術(shù),算法的控制者可以通過設(shè)置相應(yīng)條件實現(xiàn)算法輸出結(jié)果的目的。人工智能的控制者在使用算法時,應(yīng)使人類能夠理解算法的決策、運行過程和結(jié)果。[12]若控制者無法合理解釋其決策過程和輸出的結(jié)果,則應(yīng)當(dāng)承擔(dān)相應(yīng)責(zé)任。例如,媒體曾經(jīng)報道“攜程”“去哪兒”等行程預(yù)訂程序,可以根據(jù)用戶使用手機品牌的不同實現(xiàn)“同房型不同價”的差異化定價,消費者在使用過程中發(fā)現(xiàn)了隱藏的算法欺詐,即向監(jiān)管部門舉報要求算法控制者予以回應(yīng)??山忉尩乃惴ㄒ?guī)制核心,實際是將算法的解釋與侵權(quán)損害等結(jié)果之間建立了實際的因果關(guān)系,當(dāng)出現(xiàn)了控制者無法解釋的情形時,就應(yīng)承擔(dān)相應(yīng)責(zé)任。[13]但是,生成式人工智能是在操作者輸入的限定條件下進行運算并輸出要求的內(nèi)容,其運行模式直接割裂了算法可解釋與結(jié)果間的因果關(guān)系。例如,操作者使用Mid-Journey 程序,通過特定的表述方式繞過程序的基本限制,生成了有關(guān)兒童色情或明星“換臉”色情圖片,在此條件下繼續(xù)要求生成式人工智能的控制者承擔(dān)嚴(yán)格的責(zé)任顯然有失公平。由于生成式人工智能已經(jīng)被廣泛商業(yè)化應(yīng)用,ChatGPT聲明其不會存儲普通操作者使用該程序時的記錄。①事實上,要求生成式人工智能的控制者對全球范圍內(nèi)同時進行的海量操作進行存儲以備審查,也不符合客觀規(guī)律。在此情形下,如何確定損害結(jié)果與控制者算法義務(wù)間的關(guān)系,已成為無法辨明與調(diào)和的現(xiàn)實矛盾?,F(xiàn)行人工智能的治理規(guī)則過于集中在算法規(guī)制,實際上將技術(shù)發(fā)展的風(fēng)險完全加于算法的研發(fā)者與控制者這兩類主體之上,技術(shù)的持有者具備了事實上的“天然原罪”。從經(jīng)濟收益與風(fēng)險的角度分析,并不利于技術(shù)領(lǐng)域的再投資與創(chuàng)新發(fā)展。[14]而生成式人工智能除了涉及操作者這一重要主體以外,還至少牽涉硬件供應(yīng)商、底層數(shù)據(jù)提供者、大模型設(shè)計者、跨境監(jiān)管者等多層次的參與主體,從整體著手建構(gòu)完善的風(fēng)險調(diào)控機制與相應(yīng)的結(jié)構(gòu)化責(zé)任體系,才有可能適應(yīng)數(shù)字技術(shù)治理的邏輯基礎(chǔ)。

(二)無法回應(yīng)技術(shù)發(fā)展現(xiàn)實

如前所述,生成式人工智能已經(jīng)具備了信息識別能力、邏輯推理能力、自然語言理解能力與行為決策能力,結(jié)合實際確定生成式人工智能的法律地位是解決生成式人工智能治理無法回避的關(guān)鍵性問題。但是,當(dāng)前法律規(guī)制與法學(xué)研究對于進階到新生產(chǎn)力水平的特殊智能體并無統(tǒng)一的地位共識,導(dǎo)致無法建構(gòu)完整的、符合人類共同利益的人工智能道德規(guī)范和行為準(zhǔn)則體系。隨著人工智能時代的到來,各行各業(yè)的決策特別是關(guān)系民眾日常生產(chǎn)生活的決策已經(jīng)大部分由機器自動作出,信用評價、就業(yè)準(zhǔn)入、醫(yī)療服務(wù)、學(xué)位搖號這些傳統(tǒng)由人作出的重大決策已經(jīng)實現(xiàn)由人工智能自行處理,資格認(rèn)證系統(tǒng)、排名算法和風(fēng)險預(yù)測模型決定了何種主體是否可以獲得高度的信用值、獲取正確的對癥治療方法以及受教育的權(quán)利。[15]生成式人工智能的技術(shù)能力強化了機器決策在社會治理中的重要性,由于人口結(jié)構(gòu)老齡化的趨勢以及生產(chǎn)關(guān)系的客觀改變,在可預(yù)見的時期內(nèi),技術(shù)治理將在社會治理中不可避免地占據(jù)更為重要的地位。面對技術(shù)替代人類的客觀實際,應(yīng)當(dāng)通過何種標(biāo)準(zhǔn)、模式給予生成式人工智能的身份以法律層面的回應(yīng),實際體現(xiàn)的是人類自身的反身性,即人類是否可以通過規(guī)則設(shè)定以真正掌控技術(shù)的發(fā)展。這也正是美國前國務(wù)卿基辛格反復(fù)強調(diào)高階人工智能對人類的威脅遠(yuǎn)超核武器的論點基礎(chǔ)。[16]

(三)法哲學(xué)方法論不足

得益于學(xué)界對于人工智能法治理念的前瞻性探索與技術(shù)發(fā)展的時代潮流,當(dāng)前數(shù)字法學(xué)的研究成果涌現(xiàn),但由于缺乏對于數(shù)字治理系統(tǒng)工程的高位建構(gòu),導(dǎo)致當(dāng)前的數(shù)字法學(xué)研究過于集中在某一特定領(lǐng)域的單獨規(guī)則建構(gòu),特別是高度重視概念辨析而忽視了理論指導(dǎo)實踐應(yīng)用的真實價值。[17]一是需要引入交叉學(xué)科改造法哲學(xué)方法論。方法論是人類認(rèn)識、改造世界的方法和理論,法學(xué)屬于社會科學(xué),其研究與應(yīng)用需要方法論的指引。[18]例如,生成式人工智能的運用涉及算力、算法與數(shù)據(jù)這三項主要要素,對其任何單一要素的集中規(guī)制均無法解決生成式人工智能發(fā)展過程中面臨的整體問題。這就需要引入工程學(xué)中系統(tǒng)治理的概念,從體系化規(guī)制的思路重新著手調(diào)整人工智能規(guī)則治理的基礎(chǔ)架構(gòu)。[19]二是當(dāng)前的數(shù)字法學(xué)研究集中于法教義學(xué)研究,從已有經(jīng)驗研究固有問題的解決辦法,顯然無法高效追蹤、及時調(diào)整大量的新生問題。[20]2023 年5月23日,武漢市一小學(xué)男生譚某在校內(nèi)被該校教師駕車碾軋致死,6月2日孩子母親從高處墜樓身亡,根據(jù)有關(guān)報道,孩子母親跳樓與意外事件發(fā)生后的網(wǎng)絡(luò)評論暴力之間存在高度關(guān)聯(lián)。在介入此類重大輿論的引導(dǎo)時,若有人或勢力惡意使用生成式人工智能發(fā)表規(guī)?;谋┝ρ哉摚瑒t極易引發(fā)超出事件本身的不利后果,而這種行為是否屬于犯罪、犯罪行為如何查實、犯罪量刑如何把握、由何種主體承擔(dān)懲戒后果等均需要法律予以現(xiàn)實調(diào)整,而非試圖從法教義學(xué)角度著手予以解釋或回應(yīng)。三是當(dāng)前理論研究成果集中于概念再造,但解決實際所需的價值較弱。[21]例如,國內(nèi)學(xué)界對于數(shù)據(jù)的研究主要從數(shù)據(jù)權(quán)屬等基礎(chǔ)性概念方面進行展開,對數(shù)據(jù)權(quán)利的類型、含義、內(nèi)涵進行了大量的創(chuàng)設(shè)性論證。[22]但是,生成式人工智能需要使用全域數(shù)據(jù)樣本進行模型訓(xùn)練,其直接涉及的是數(shù)據(jù)規(guī)?;瘧?yīng)用問題。對某一主體所屬的數(shù)據(jù)單獨區(qū)分權(quán)屬,意義著實不大。過于微量的數(shù)據(jù)樣本既無法解決數(shù)據(jù)定價、交易等價值交換的現(xiàn)實需要,也對利用數(shù)據(jù)設(shè)定了過高的單獨標(biāo)注、單獨利用標(biāo)準(zhǔn),無法發(fā)揮數(shù)據(jù)集中利用的規(guī)模效應(yīng)。[23]從理論聯(lián)系實際、解決實際問題的角度出發(fā),有關(guān)生成式人工智能治理的法哲學(xué)方法論仍需進一步補強。

四、生成式人工智能的治理原則、方法與架構(gòu)

“法律是行為的規(guī)則和標(biāo)準(zhǔn),人們借此實施行為或限制行為?!保?4]面對生成式人工智能強大生產(chǎn)力水平帶來的社會治理現(xiàn)實問題,法律特別是相關(guān)規(guī)則研究應(yīng)靠前一步,以前瞻性、戰(zhàn)略性、實用性思維建構(gòu)完善治理范式,確保技術(shù)的發(fā)展為人類所掌控。

(一)治理原則

一是風(fēng)險控制首要原則。安全穩(wěn)定是推動高質(zhì)量發(fā)展的重要保障,也是衡量高質(zhì)量發(fā)展的重要標(biāo)尺。關(guān)于生成式人工智能有效利用、規(guī)?;?、安全利用、可控制利用的系統(tǒng)性、框架性法律法規(guī),需要從總體國家安全觀的高度出發(fā)建構(gòu)完善。[25]針對生成式人工智能的立法,必須強化底線思維、極限思維,有效防范化解因生成式人工智能的規(guī)?;瘧?yīng)用形成的系統(tǒng)性重大風(fēng)險。因此,傳統(tǒng)人工智能以算法規(guī)制為核心的“可解釋”規(guī)范體系應(yīng)逐步轉(zhuǎn)向以各要素風(fēng)險“可控制”為核心展開的規(guī)范體系。二是全面監(jiān)管原則。由于生成式人工智能的參與主體眾多,對于單一主體的限制與控制無法涵蓋生成式人工智能運行過程中產(chǎn)生的絕大多數(shù)風(fēng)險,因此,可以將對生成式人工智能發(fā)展具有系統(tǒng)重要性的相關(guān)主體均設(shè)置相應(yīng)的規(guī)制內(nèi)容與明確的評價標(biāo)準(zhǔn),通過結(jié)構(gòu)化控制實現(xiàn)總體可控制。[26]將原有單一的算法義務(wù)主體擴展至所有參與主體,每一主體均具有自身的責(zé)任義務(wù)要求,確保發(fā)展“負(fù)責(zé)任”的人工智能。三是技術(shù)收益與責(zé)任風(fēng)險對應(yīng)的技術(shù)治理原則。根據(jù)唯物辯證法的基本觀點,任何事物都具有兩面性??陀^分析,即使生成式人工智能帶來了極大的治理風(fēng)險與發(fā)展的不確定性,但其對于人類生產(chǎn)力水平的迭代提升作用是明顯的,人工智能依然是未來科技發(fā)展的主要方向。因此,在控制生成式人工智能等新科技風(fēng)險的同時,更需要同步建立更為適應(yīng)新技術(shù)進步與現(xiàn)實發(fā)展的規(guī)則框架與法治生態(tài),確保投資有益的技術(shù)可以獲得相稱的價值回報,避免因為法律法規(guī)的過重限制而造成技術(shù)研發(fā)者與投資者承擔(dān)過強的責(zé)任義務(wù),以鼓勵智能技術(shù)的再投資、再回報、再應(yīng)用。

(二)結(jié)構(gòu)化的體系治理方式

生成式人工智能將改變社會形態(tài)的方方面面。當(dāng)前,生成式人工智能領(lǐng)軍企業(yè)OpenAI 公司已經(jīng)將ChatGPT 的發(fā)展目標(biāo)調(diào)整為發(fā)展與部署負(fù)責(zé)任的人工智能(be developed and deployed responsibly)。結(jié)合技術(shù)發(fā)展的底層邏輯,對生成式人工智能予以結(jié)構(gòu)化調(diào)整規(guī)制,是控制人工智能負(fù)責(zé)任發(fā)展的關(guān)鍵路徑。[2]30生成式人工智能需要算力、算法、數(shù)據(jù)三大類要素共同實現(xiàn),對于單一要素的特別規(guī)制無法涵蓋其帶來的全局性挑戰(zhàn),需要從系統(tǒng)性工程的維度出發(fā),統(tǒng)一調(diào)整、明確標(biāo)準(zhǔn)、綜合控制,從總體國家安全觀的站位系統(tǒng)性建構(gòu)覆蓋全要素的結(jié)構(gòu)化治理體系與能力。

一是在算力方面,從集中力量辦大事的傳統(tǒng)優(yōu)勢與制度優(yōu)勢出發(fā),重點調(diào)配規(guī)?;懔Y源,抓緊推動開發(fā)關(guān)鍵硬件技術(shù)、建設(shè)新型數(shù)據(jù)基礎(chǔ)設(shè)施。當(dāng)前法律對于新科技的調(diào)整并未將重點放在算力布局優(yōu)化等硬件領(lǐng)域,而是聚焦于算法備案等軟件規(guī)制領(lǐng)域。ChatGPT、Mid-Journey 等生成式人工智能底層建構(gòu)均需要使用美國英偉達公司(Nvidia)所生產(chǎn)的顯卡(GPU),其創(chuàng)始人兼CEO 黃仁勛提出,加速計算和生成式人工智能是計算機行業(yè)正在經(jīng)歷的兩大巨變,全球數(shù)據(jù)中心已經(jīng)安裝的萬億美元數(shù)字基建將逐步從通用計算過渡到加速計算。新一代硬件研發(fā)與應(yīng)用的標(biāo)準(zhǔn)將成為爭奪新科技領(lǐng)域標(biāo)準(zhǔn)制定權(quán)的關(guān)鍵,疏于對算力等底層技術(shù)設(shè)施的管控能力與渠道建設(shè),將喪失對于未來生產(chǎn)力提升與發(fā)展先發(fā)優(yōu)勢的管控。當(dāng)前,我國的算力總量居于全球前列,但分布分散,對于引入國外新一代數(shù)字基礎(chǔ)設(shè)施與研發(fā)自主知識產(chǎn)權(quán)替代品的標(biāo)準(zhǔn)與應(yīng)用范圍應(yīng)提前規(guī)劃,既要考慮避免重復(fù)投資,也應(yīng)避免盲目跟風(fēng)、匆忙更新引發(fā)的系統(tǒng)性架構(gòu)風(fēng)險。

二是在數(shù)據(jù)方面,聚焦數(shù)據(jù)規(guī)?;瘧?yīng)用的定價、交易、監(jiān)管等關(guān)鍵領(lǐng)域,形成數(shù)據(jù)規(guī)?;瘧?yīng)用的新標(biāo)準(zhǔn),豐富數(shù)據(jù)高頻流動、高效配置、高速增值的權(quán)屬體系。數(shù)據(jù)是新科技革命時代的礦產(chǎn)資源,生成式人工智能的訓(xùn)練與深度學(xué)習(xí)需要使用規(guī)模龐大的基礎(chǔ)數(shù)據(jù)資源。單一個體所產(chǎn)生的數(shù)據(jù)對于生成式人工智能所需的數(shù)據(jù)資源作用不大,應(yīng)注重將數(shù)據(jù)利用與個人信息保護相區(qū)分。個人信息屬于隱私,其法益受到民法與刑法的明確保護,若利用個人信息自然涉及敏感信息保護等法律的強制性要求。而數(shù)據(jù)無時無刻不在產(chǎn)生,全球網(wǎng)絡(luò)實時同步使用ChatGPT 等程序的用戶達到千萬級規(guī)模,操作生成式人工智能必然產(chǎn)生數(shù)據(jù),但絕大多數(shù)作為字節(jié)存儲的數(shù)據(jù)對于普通用戶個體而言并無區(qū)分或厘清權(quán)屬的客觀意義。只有在數(shù)據(jù)被高密度化、大規(guī)?;褂煤?,才能形成相應(yīng)的決策依據(jù)、情勢感知與內(nèi)容輸出等實際價值。在確定個人信息與數(shù)據(jù)的概念與范圍差異后,法律應(yīng)著重從加強個人信息的保護與促進數(shù)據(jù)規(guī)?;眠@兩個維度分別建構(gòu)其使用與發(fā)展的差異化技術(shù)路線,并完善配套規(guī)則。否則,我國具備的數(shù)據(jù)規(guī)模優(yōu)勢將因過于嚴(yán)苛的數(shù)據(jù)權(quán)屬保護等人為限定條件,導(dǎo)致數(shù)據(jù)交易等規(guī)模經(jīng)濟始終無法成形。數(shù)據(jù)規(guī)?;瘧?yīng)用并不意味著放棄對數(shù)據(jù)的保護或摒棄生成式人工智能操作者的潛在經(jīng)濟利益,可以通過數(shù)據(jù)利用透明度要求,制定生成式人工智能使用數(shù)據(jù)時的侵權(quán)損害賠償規(guī)則,引入數(shù)據(jù)規(guī)?;灰锥愂盏确绞街Ц独靡?guī)?;瘮?shù)據(jù)的對價,實現(xiàn)數(shù)據(jù)的有效保護與高效優(yōu)勢,助力我國數(shù)據(jù)資源體量優(yōu)勢轉(zhuǎn)化為數(shù)字技術(shù)發(fā)展的基礎(chǔ)優(yōu)勢。

三是在算法方面,重點評估建構(gòu)符合客觀規(guī)律與風(fēng)險管控的應(yīng)用辦法,用主流價值導(dǎo)向駕馭生成式人工智能的底層“算法”,全面提高利用的效率與安全性。[27]《新一代人工智能倫理規(guī)范》第十二條規(guī)定,要在算法設(shè)計、實現(xiàn)、應(yīng)用等環(huán)節(jié),提升人工智能的透明性、可解釋性、可理解性。但如前所述,對于算法的單獨規(guī)制實際是在算法無法解釋與侵權(quán)損害賠償間建立了人為的因果關(guān)系,而非基于事實上的考慮。生成式人工智能的出現(xiàn)凸顯了單獨規(guī)制算法的理論弊端,由于生成式人工智能已經(jīng)具備了類似人類大腦神經(jīng)元計算的運行模式,其在操作者的介入下輸出的內(nèi)容往往超出生成式人工智能的研發(fā)者或提供者所預(yù)設(shè)的范圍。這就類似于研究者均可以使用經(jīng)濟學(xué)公式,但因為輸入數(shù)據(jù)變量的不同而得到不同的結(jié)論是極其正常的現(xiàn)象,若因此去苛責(zé)公式的發(fā)明者無法實現(xiàn)統(tǒng)一的結(jié)果,明顯屬于責(zé)任錯配。此類規(guī)制路徑除了加大投資者責(zé)任以外,并無法真正地解決人工智能在真實社會運用中的實際問題。技術(shù)手段本身并不能回答原因問題,將結(jié)果混淆為原因是一種謬誤。[28]需要基于對收益與責(zé)任風(fēng)險合理的考量,逐步調(diào)整算法的規(guī)制路徑與方法,推行算法研發(fā)與使用的負(fù)面清單制度,明確算法使用中不得調(diào)用的數(shù)據(jù)庫、不得違反的倫理、不得侵害他人個人隱私等強制性要求,若違反并被查實,則必須承擔(dān)相應(yīng)的嚴(yán)格責(zé)任。2023 年5 月,新西蘭信息專員辦公室(OPC)發(fā)布《生成式人工智能指南》,指出生成式人工智能對新西蘭公民個人信息的使用應(yīng)遵守其《隱私法》。除要求保證一定范圍內(nèi)的算法透明責(zé)任之外,應(yīng)創(chuàng)設(shè)較為寬松的算法管制生態(tài),為鼓勵技術(shù)投資孕育良好的法治營商環(huán)境。算法的規(guī)制與算力、數(shù)據(jù)的規(guī)制必須從實現(xiàn)一致目標(biāo)著手建構(gòu)整體治理框架與體系,并結(jié)合生成式人工智能的技術(shù)特點與演進規(guī)律,逐步形成清晰完整的系統(tǒng)性治理體系。

(三)鏈?zhǔn)截?zé)任治理架構(gòu)

在明確對于算力、算法、數(shù)據(jù)三大要素結(jié)構(gòu)化治理的體系性方法后,實現(xiàn)發(fā)展負(fù)責(zé)任的人工智能的關(guān)鍵路徑就在于人工智能的發(fā)展有主體負(fù)責(zé)并且具備負(fù)責(zé)的能力。應(yīng)基于技術(shù)應(yīng)用所需的底層要素資源以及生成式人工智能發(fā)展引致的倫理風(fēng)險,從責(zé)任的角度構(gòu)建覆蓋完整產(chǎn)業(yè)鏈與應(yīng)用鏈的生成式人工智能深層次治理架構(gòu),明確相應(yīng)歸責(zé)路徑,通過完善的法律法規(guī)和行業(yè)標(biāo)準(zhǔn)約束生成式人工智能的責(zé)任主體,形成可預(yù)期的風(fēng)險責(zé)任制度,通過各部分的控制達到總體控制的目的,實現(xiàn)對生成式人工智能的全鏈條監(jiān)管。[29]在治理架構(gòu)上,將涉及生成式人工智能使用與發(fā)展的所有重要主體均納入責(zé)任控制范疇。生成式人工智能的使用不僅涉及算法規(guī)制所調(diào)整的智能研發(fā)者、持有者,還涉及數(shù)據(jù)供應(yīng)者、數(shù)據(jù)生產(chǎn)者、智能操作者、智能監(jiān)管者等多類型主體。每一類主體均應(yīng)設(shè)定相應(yīng)的強制性規(guī)范與倫理紅線。在責(zé)任承擔(dān)的機制上,基于損害結(jié)果與事實原因確定因果關(guān)系,當(dāng)無法溯源具體致?lián)p原因時,由違反強制性規(guī)范的主體承擔(dān)嚴(yán)格責(zé)任。[30]在治理的過程中,需要將收益分配制度與責(zé)任風(fēng)險緊密結(jié)合在一起。義務(wù)主體可能承擔(dān)的責(zé)任風(fēng)險應(yīng)與其可以獲取的收益盡可能匹配,并盡可能避免單一主體承擔(dān)無限責(zé)任的情形產(chǎn)生。[31]

其一,在研發(fā)者責(zé)任上,參照算法研發(fā)的強制性要求,設(shè)定明確的不可突破的倫理底線。例如不得要求機器殺死人類、不得設(shè)定歧視性計算模型等,以明確的禁止性規(guī)定對應(yīng)其有限范圍內(nèi)的嚴(yán)格責(zé)任。另外,設(shè)定相應(yīng)技術(shù)開發(fā)管理過程標(biāo)準(zhǔn),要求研發(fā)過程中的關(guān)鍵性環(huán)節(jié)數(shù)據(jù)必須在一定期限內(nèi)保存,以便確定責(zé)任原因時可以溯源。其二,在控制者責(zé)任上,要求其不得傳播顛覆政權(quán)、未經(jīng)甄別的信息等強制性義務(wù),特別是注重生成式人工智能輸出內(nèi)容的特點,要求控制者對AIGC 強制覆蓋底層水印以溯源,以便其他主體可以準(zhǔn)確辨明內(nèi)容來源并判斷是否屬于人類作品。在其他情形下,若其可以滿足合規(guī)并主動保持接受監(jiān)管治理,可給予其相對寬松的發(fā)展環(huán)境。但若其違反強制性規(guī)定,則對其予以嚴(yán)格的懲戒與追責(zé)。其三,在數(shù)據(jù)責(zé)任方面,數(shù)據(jù)供應(yīng)商與數(shù)據(jù)生產(chǎn)者負(fù)有提供高質(zhì)量數(shù)據(jù)的義務(wù),例如中文數(shù)據(jù)供應(yīng)商應(yīng)確保建立高質(zhì)量的中文數(shù)據(jù)庫以優(yōu)化以中文為主的大語言模型訓(xùn)練。若數(shù)據(jù)供應(yīng)商與數(shù)據(jù)生產(chǎn)者使用他人作品涉及侵權(quán)或利用數(shù)據(jù)傳播虛假信息(煽動暴亂)被查實,則應(yīng)承擔(dān)相應(yīng)的損害賠償?shù)蓉?zé)任。其四,在監(jiān)管者責(zé)任方面,由于生成式人工智能的研發(fā)涉及眾多產(chǎn)業(yè)鏈條與互聯(lián)網(wǎng)全域樣本,任何單一國家或企業(yè)均無法建立起覆蓋全球的監(jiān)管鏈條。在生成式人工智能的監(jiān)管上,應(yīng)從國際、國內(nèi)兩個維度著手建立覆蓋其發(fā)展應(yīng)用全鏈條的監(jiān)管機制。在國際層面,可考慮由人工智能主要技術(shù)強國共同參與設(shè)立人類人工智能監(jiān)管議事機構(gòu),吸納大型私人技術(shù)資本、中小技術(shù)企業(yè)、普通民眾等多樣化主體共同參與強人工智能的監(jiān)管框架制定。①2023 年5 月,OpenAI 公司CEO 山姆·奧特曼在美國國會就人工智能技術(shù)的潛在危險參加聽證,呼吁政府對生成式人工智能進行監(jiān)管和干預(yù),開發(fā)減少人工智能潛在危害的框架,提出可以建立類似于國際原子能機構(gòu)(IAEA)的人工智能監(jiān)管機構(gòu),對極其強大的AI訓(xùn)練系統(tǒng)形成全球監(jiān)管。在國內(nèi)層面,應(yīng)著眼國家安全設(shè)定統(tǒng)一的監(jiān)管目標(biāo)并完善相應(yīng)的監(jiān)管手段、標(biāo)準(zhǔn)與能力,從促進生成式人工智能乃至通用人工智能發(fā)展的角度,營造適應(yīng)技術(shù)發(fā)展的完整行業(yè)生態(tài)。對于鏈上的不同參與主體設(shè)定相應(yīng)的監(jiān)管內(nèi)容,例如,對于智能的研發(fā)者與控制者,設(shè)定相應(yīng)治理底線,要求其不得主動識別操作者生物資源信息、不得推廣含有人群歧視的內(nèi)容等。再如,對人工智能的模型設(shè)計、訓(xùn)練與應(yīng)用明確相應(yīng)的準(zhǔn)確率閾值,開展生成式人工智能市場產(chǎn)品的定期與不定期動態(tài)評估等。另外,監(jiān)管者需要特別注意生成式人工智能對于人類知識傳承體系與模式的改變,高度重視生成式人工智能對教育的深刻影響,積極介入生成式人工智能與教育的深度融合,確定生成式人工智能在教育領(lǐng)域利用的標(biāo)準(zhǔn)、機制和模式,以應(yīng)對生成式人工智能可能造成的意識形態(tài)領(lǐng)域風(fēng)險。

五、余論——以治理規(guī)則優(yōu)勢鞏固擴大制度優(yōu)勢

黨的二十大報告指出,要加快建設(shè)網(wǎng)絡(luò)強國、數(shù)字中國。加快發(fā)展新一代人工智能是我們贏得全球科技競爭主動權(quán)的重要戰(zhàn)略抓手,是推動我國科技跨越發(fā)展、產(chǎn)業(yè)優(yōu)化升級、生產(chǎn)力整體躍升的重要戰(zhàn)略資源。法律是保障人工智能可信向善、負(fù)責(zé)任發(fā)展的關(guān)鍵因素與主要手段,《數(shù)字中國建設(shè)整體布局規(guī)劃》明確提出“建設(shè)公平規(guī)范的數(shù)字治理生態(tài)”的要求。在我國已經(jīng)基本形成人工智能產(chǎn)業(yè)高地與理論高地的基礎(chǔ)上,需要繼續(xù)深化治理規(guī)則研究,運用法學(xué)理論研究成果,為發(fā)展負(fù)責(zé)任的生成式人工智能創(chuàng)造一流生態(tài)環(huán)境。[32]當(dāng)ChatGPT 規(guī)模化應(yīng)用以后,有關(guān)“ChatGPT 為什么沒有誕生于中國”的討論日益增多。法律無法直接發(fā)明生成式人工智能技術(shù),但卻可以為技術(shù)的發(fā)展奠定扎實的制度基礎(chǔ)與合適的生長環(huán)境。[33]當(dāng)前,各國均極為重視對于生成式人工智能相關(guān)規(guī)則的研究。2023 年4 月,歐盟提出了針對生成式人工智能的新的版權(quán)規(guī)則。2023 年5 月,美國國家科學(xué)基金會與其他聯(lián)邦機構(gòu)、高等教育機構(gòu)以及相關(guān)者合作,宣布投資約1.4 億美元建立七個新的國家級人工智能研究所,致力于將人工智能實踐從主要由技術(shù)創(chuàng)新驅(qū)動的實踐轉(zhuǎn)變?yōu)橛蓚惱?、人?quán)以及曾經(jīng)被邊緣化的群體的投入和反饋驅(qū)動的實踐。

為確保下一代人工智能技術(shù)可以在中國得到最優(yōu)的應(yīng)用與發(fā)展,法學(xué)研究應(yīng)當(dāng)為技術(shù)迭代提升做好前瞻性準(zhǔn)備。一是需要強化有組織科研與前沿基礎(chǔ)研究,搶占生成式人工智能理論研究高地。特別是聚焦生成式人工智能技術(shù)、生成內(nèi)容、主體責(zé)任、數(shù)據(jù)源和數(shù)據(jù)處理、隱私保護等領(lǐng)域,形成有價值、可利用、可轉(zhuǎn)化的規(guī)?;芯砍晒?。通過增加適應(yīng)生成式人工智能發(fā)展的基礎(chǔ)服務(wù)理論供給,加強人工智能倫理道德、法制保障和社會問題研究,全維度建立保障生成式人工智能健康發(fā)展的制度規(guī)范和倫理道德框架。二是需要以前瞻法治引領(lǐng)推動關(guān)鍵核心技術(shù)自主創(chuàng)新實現(xiàn)突破。除了正視當(dāng)前國內(nèi)在數(shù)字技術(shù)能力上的不足,還應(yīng)堅持系統(tǒng)觀念、整體思路,通過規(guī)則創(chuàng)新優(yōu)化調(diào)動要素優(yōu)勢。[34]同時應(yīng)加大對人工智能新技術(shù)、新業(yè)態(tài)和新模式的知識產(chǎn)權(quán)保護力度。[35]加強符合生成式人工智能發(fā)展實際的標(biāo)準(zhǔn)制定及測試認(rèn)證,支持企業(yè)等多主體參與生成式人工智能綜合標(biāo)準(zhǔn)、基礎(chǔ)共性技術(shù)標(biāo)準(zhǔn)制定,更好服務(wù)建設(shè)以實體經(jīng)濟為支撐的現(xiàn)代化產(chǎn)業(yè)體系。三是法學(xué)研究需要增強緊迫感與使命感,加快生成式人工智能領(lǐng)域的創(chuàng)新立法步伐以解決實踐問題,努力健全數(shù)字治理需要的必備法律制度。[36]將法律規(guī)制融入生成式人工智能發(fā)展全過程,在重組全球要素資源、重塑全球經(jīng)濟結(jié)構(gòu)、改變?nèi)蚋偁幐窬种?,形成人工智能法治的“中國方案”,貢獻新一代人工智能發(fā)展的學(xué)術(shù)智識。

另外值得深入思考的是,生成式人工智能的誕生并不是人類歷史上第一次實現(xiàn)生產(chǎn)工具質(zhì)的提升。數(shù)千年來的人類歷史產(chǎn)生過浩瀚的顛覆性技術(shù),有些直接導(dǎo)致了國家與區(qū)域文明的滅亡,但古老的中華文明未曾中斷,我國古代法學(xué)家、政治家在面對新事物時所遵循的價值態(tài)度與具體做法需要深入研究,并提煉思想為現(xiàn)今治理所用。此觀點并非臆想,美國安德魯·馬歇爾基金會提出,人工智能是中美兩國未來在軍事及其他方面競爭的主要領(lǐng)域,其資助的研究報告從美國、蘇聯(lián)兩國的傳統(tǒng)文化對待新技術(shù)的差異推導(dǎo)了美國取得冷戰(zhàn)勝利的思維邏輯,而受傳統(tǒng)觀念影響,中國與美國在面對新生事物上的差異極有可能體現(xiàn)在競爭優(yōu)勢與戰(zhàn)略方法上。[37]習(xí)近平指出,“在五千多年中華文明深厚基礎(chǔ)上開辟和發(fā)展中國特色社會主義,把馬克思主義基本原理同中國具體實際、同中華優(yōu)秀傳統(tǒng)文化相結(jié)合是必由之路”。[38]面對生成式人工智能引發(fā)的新問題與挑戰(zhàn),探究傳統(tǒng)法治文化在新技術(shù)時代的現(xiàn)實治理意義,也是可以研究并一定能夠取得重大實踐成果的新型法哲學(xué)方法論。

(特別感謝李伯陽、任夢遠(yuǎn)對部分觀點的貢獻。)

猜你喜歡
人工智能算法
我校新增“人工智能”本科專業(yè)
基于MapReduce的改進Eclat算法
Travellng thg World Full—time for Rree
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
進位加法的兩種算法
人工智能與就業(yè)
算法初步兩點追蹤
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
基于增強隨機搜索的OECI-ELM算法
下一幕,人工智能!
天峻县| 玉田县| 象州县| 拜城县| 赫章县| 屏山县| 绥棱县| 玛纳斯县| 乌恰县| 繁昌县| 木里| 哈尔滨市| 德昌县| 山阴县| 平顺县| 遵化市| 石林| 卢龙县| 黑山县| 公安县| 汕头市| 天等县| 商丘市| 昌图县| 曲沃县| 中卫市| 保靖县| 遂昌县| 阿拉尔市| 华池县| 仁化县| 东乌珠穆沁旗| 秦皇岛市| 日喀则市| 阳春市| 二连浩特市| 泸西县| 塘沽区| 天祝| 区。| 江孜县|