国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能法的理論體系與核心議題

2023-07-07 15:27陳吉棟
東方法學(xué) 2023年1期
關(guān)鍵詞:個人信息權(quán)利人工智能

陳吉棟

內(nèi)容摘要:數(shù)字時代的法治圖景應(yīng)以何種名目展開,存在計算法學(xué)、數(shù)據(jù)法學(xué)和人工智能法學(xué)等不同見解。可以確定的是,作為復(fù)雜性科學(xué)技術(shù),人工智能的研發(fā)、生產(chǎn)和應(yīng)用應(yīng)遵循基本人類價值,為相關(guān)活動提供安全、可信、公平、可解釋性并保障主體權(quán)利等基本價值指引。傳統(tǒng)民法學(xué)所形成的精神主線為人工智能法提供了體系框架。在法律主體領(lǐng)域,元宇宙中的數(shù)字身份問題開始起步。如何認定數(shù)字身份的法律地位并構(gòu)建可行的身份認證方案,仍待理論與實踐的融合探索。在法律行為領(lǐng)域,智能合約研究正從理論探索向應(yīng)用分析轉(zhuǎn)變,知情同意規(guī)則呈現(xiàn)出持續(xù)沖突與初步調(diào)適的雙重面貌, 電子簽名效力規(guī)則亟待細化。在權(quán)利領(lǐng)域,新興權(quán)利進入勃興期,以解釋權(quán)為核心的算法權(quán)利研究進一步深入,有關(guān)數(shù)據(jù)權(quán)利的研究眾多卻未取得重大突破,加密正在成為一種權(quán)利,而信用權(quán)等權(quán)利的研究尚有不足。

關(guān)鍵詞:人工智能數(shù)字身份算法新興權(quán)利數(shù)據(jù)權(quán)利元宇宙

中圖分類號:DF0 文獻標識碼:A 文章編號:1674-4039-(2023)01-0062-78

2022年是人工智能法的重要年份。人工智能技術(shù)創(chuàng)新有了新進展,人工智能產(chǎn)業(yè)增添元宇宙等新賽道,自動駕駛等人工智能產(chǎn)品應(yīng)用取得新突破,數(shù)據(jù)、算法和算力等基礎(chǔ)要素流通開始破局,國內(nèi)外人工智能的專門立法開始出現(xiàn)。人工智能法學(xué)釋義學(xué)研究的序幕已經(jīng)緩緩拉開。如何超越碎片化的技術(shù)表象,擺脫科幻化的應(yīng)用猜想,認知技術(shù)及其應(yīng)用的體系性,思考法律應(yīng)對的整體框架,甄別人工智能法的理論體系與核心議題,啟發(fā)更有價值的學(xué)術(shù)討論,已成為理性且可欲的選擇。〔1$〕本文遵循傳統(tǒng)法學(xué)理論所形成的相對清晰的精神主線:法律主體通過法律行為創(chuàng)設(shè)權(quán)利義務(wù),并為自己的行為可能引發(fā)的損害負法律責(zé)任,在當(dāng)事人之間權(quán)利義務(wù)不明確、不周延時,以法律原則予以解釋,嘗試以此精神主線觀察人工智能法的學(xué)術(shù)成果,探析紛繁復(fù)雜的學(xué)術(shù)成果所呈現(xiàn)的新進展與舊問題?!?$〕以此思考人工智能法的基本方法、理論框架和核心議題,描摹人工智能法的未來形態(tài)。

一、定名之爭:計算法學(xué)、數(shù)據(jù)法學(xué)抑或人工智能法學(xué)

為回應(yīng)人工智能時代的法治需求,法學(xué)界出現(xiàn)了互聯(lián)網(wǎng)法學(xué)、信息法學(xué)、認知法學(xué)、人工智能法學(xué)、數(shù)據(jù)法學(xué)、計算法學(xué)、未來法學(xué)、數(shù)字法學(xué)等不同名目主張,在一定程度上出現(xiàn)了“群名競舞”的局面。

馬長山高舉“數(shù)字法學(xué)”的大旗?!?"〕數(shù)字法學(xué)是新法科的重要學(xué)科,是以數(shù)字社會的法律現(xiàn)象及其規(guī)律性為研究內(nèi)容的科學(xué),是對數(shù)字社會的生產(chǎn)生活關(guān)系、行為規(guī)律和社會秩序的學(xué)理闡釋和理論表達,但數(shù)字法學(xué)并非現(xiàn)代法學(xué)的二級學(xué)科,而是其進階升級?!?"〕

計算法學(xué)的討論走向深入。左衛(wèi)民建議推進以實證研究方法為底色的計算法學(xué)學(xué)科建設(shè),〔5"〕認為應(yīng)抓住可供計算的法律數(shù)據(jù)特征,以統(tǒng)計學(xué)為根基的機器學(xué)習(xí)應(yīng)成為法律計算的主要方式。左衛(wèi)民所界定的計算法學(xué)基本是實證方法的進階版本, 大致與我國學(xué)界引入人工智能問題討論時的法律人工智能屬于一路,雖然其本人有意與后者劃清界限?!?"〕相較計算法學(xué)的既有研究,左衛(wèi)民所主張的計算法學(xué)范圍有所限縮。季衛(wèi)東主張,在更為宏大的時空架構(gòu)中定位計算法學(xué),指出法教義學(xué)的推理與概念計算、科學(xué)技術(shù)指向的實驗與制度演算兩條基本思路。通過其以“法律數(shù)學(xué)”構(gòu)想為背景和線索,對計算法學(xué)在通信技術(shù)時代分析,可以發(fā)現(xiàn)其發(fā)掘的五個主要維度:(1)基于統(tǒng)計和預(yù)測模型的計量法律學(xué);(2) 法律推理電腦化和專家系統(tǒng)算法;(3) 法律信息學(xué)的大數(shù)據(jù)挖掘與機器學(xué)習(xí);(4)對法律網(wǎng)絡(luò)結(jié)構(gòu)的圖譜和矩陣演算;(5)包括數(shù)據(jù)倫理和算法公正在內(nèi)的人工智能治理等交叉和相輔相成的關(guān)系。其中,最后這一維度反映了計算法學(xué)的超越性,揭示了深入研究關(guān)于價值排序和價值函數(shù)元算法的重要意義,反映出季衛(wèi)東試圖引入價值議論賦予計算法學(xué)以超越性的努力?!?"〕此外,計算法學(xué)尚未回應(yīng)既有批評,即“計算”作為一種方法,本身是否足以涵蓋其支持者所欲討論的基本問題。

人工智能法學(xué)鮮見新作出現(xiàn)。人工智能法支持者早年所提出的問題意識〔8"〕亦未被認真討論和對待。

相較之下,在基本問題意識上,本體論的數(shù)字法學(xué)與傳統(tǒng)法學(xué)研究志趣更為接近,也更容易被接受,但“數(shù)字”不只是昭示方法,仍需負載內(nèi)容。胡銘將數(shù)字法學(xué)的研究內(nèi)容定位為要素類、平臺類和產(chǎn)出類等內(nèi)容,〔9"〕然而舉凡數(shù)據(jù)、算法等在具體場景下,均可成為既有法律部門調(diào)整的客體。數(shù)字化浪潮改革徹底且宏大,每個傳統(tǒng)的部門法在數(shù)字時代均有不同程度的更新,〔10"〕以致每個部門法都有自身的數(shù)字法學(xué),也都有自身的數(shù)字法理。如此一來,數(shù)字法學(xué)是否會過于泛化而喪失定名的意義,是否存在被歸屬理念或者方法、束之于部門法總論中之風(fēng)險,猶未可知。

如果定名與本體可以相符,就應(yīng)被認真討論。無論選擇怎樣的名目,均應(yīng)承認我們面對的是一個正在迅速變動的信息生態(tài)體系,這個體系至少包括網(wǎng)絡(luò)環(huán)境、虛實界面、數(shù)據(jù)處理、認證機制與內(nèi)容生產(chǎn)等,〔11"〕法學(xué)研究的并非這一系統(tǒng)的數(shù)字表現(xiàn)形式或一部分,而是以涉及數(shù)據(jù)、算法和算力,以及在此基礎(chǔ)上形成的人工智能系統(tǒng)且以之為核心得以展開。因此,名之為“人工智能法”大致仍然可取。而且,歐盟已經(jīng)出臺了人工智能法案,我國上海市、深圳經(jīng)濟特區(qū)等也先后頒行了人工智能產(chǎn)業(yè)條例,這些立法進展已經(jīng)初步顯現(xiàn)了人工智能法的基本內(nèi)容和核心議題;人工智能法回避了更為基礎(chǔ)或者抽象的數(shù)字法學(xué),其名目下的具體資料亦非計算法學(xué)所能涵蓋。當(dāng)然,無論上述任何一種主張,都依賴對事物本質(zhì)的研究和回應(yīng)。在此意義上,人工智能法是否可以超越傳統(tǒng)部門法及其方法在一般意義上作為本體形成與確立,僅能讓未來告訴未來。

二、人工智能法的基本原則初步浮現(xiàn)

法律原則是法律帝國(或者說法律規(guī)范大廈)的基石?;驹瓌t是人工智能法基本價值的沉淀,也是其成型成熟的基本標志,不僅關(guān)系對人工智能法的整體認知,還構(gòu)成了討論人工智能法律關(guān)系的基本價值依歸。在人工智能法尚未成型之時,既有研究已經(jīng)開始注意人工智能作為復(fù)雜科學(xué)技術(shù),其開發(fā)和應(yīng)用應(yīng)遵循人類社會的基本價值,為相關(guān)活動提供安全、可信、公平、可解釋性并保障主體權(quán)利等基本價值指引。

(一)可信

可信是人工智能法的首要原則或“帝王條款”??尚艑?yīng)的是人工智能的不確定或風(fēng)險?,F(xiàn)階段,確保人工智能可信已經(jīng)成為政策制定和學(xué)術(shù)研究的重點議題。技術(shù)上,穩(wěn)定性、泛化能力(可解釋性)、公平性、主體權(quán)利保護等,構(gòu)成了可信人工智能的基礎(chǔ)?,F(xiàn)階段法學(xué)界理論研究尚未足夠重視可信作為原則的基礎(chǔ)作用,主要聚焦算法可信治理和數(shù)據(jù)可信利用的研究。

算法“可信”意指這樣一種狀態(tài),即算法基于其可理解性、可靠性和可控性而能夠獲得人們的信任。既有研究多聚焦于算法可信治理,意在排除有現(xiàn)實和潛在威脅的算法,達至合法性和正當(dāng)性且具有相當(dāng)可信度的算法。有學(xué)者試圖在算法自動化決策問題上通過“信任原則”重構(gòu)算法解釋權(quán),將算法解釋權(quán)定性為一種動態(tài)、溝通、相對性的程序性權(quán)利,而非實體性權(quán)利?!?2#〕但可信作為基本原則,其調(diào)整范圍并不限于算法治理,如徐珉川提出公共數(shù)據(jù)開放可信治理的規(guī)范性架構(gòu),可以通過公共數(shù)據(jù)內(nèi)在信用基礎(chǔ)和開放行為外在信任框架兩個方面展開,討論了開放公共數(shù)據(jù)自身的信用保障和公共數(shù)據(jù)開放的信任交互關(guān)系。〔13#〕

可信內(nèi)涵廣泛,基本含義是透明或“可解釋”。目前涉及的問題主要是透明(用戶或社會公共利益)與不透明(使用者或社會公共利益,如創(chuàng)新)如何權(quán)衡。算法可解釋的確立使其正當(dāng)性論證成為可能,有助于接受算法服務(wù)一方的權(quán)益保護和處理出現(xiàn)錯誤甚至歧視時的責(zé)任分配問題。但當(dāng)前對于“可解釋”的研究進展不大。例如,可解釋性的本質(zhì)、規(guī)范性乃至研究方法均未清晰。一般來說,評估特定的人工智能系統(tǒng)是否可信不僅要通過識別、治理人工智能系統(tǒng)的風(fēng)險平臺,更重要的是在可信原則下設(shè)計人工智能系統(tǒng)規(guī)則體系。這一規(guī)則體系不限于對于人工智能風(fēng)險的分階段尤其是分層級調(diào)整規(guī)則,在廣義上還包括協(xié)調(diào)當(dāng)事人間的權(quán)利義務(wù)(比如平臺與用戶),數(shù)據(jù)上不同主體之間的權(quán)益配置,還可以解釋具體權(quán)利的發(fā)生基礎(chǔ)(比如算法解釋的權(quán)利等)。在根本上,如果將可信作為一種關(guān)系概念,其不僅決定了不同主體間的溝通協(xié)調(diào),還可以打通技術(shù)與法律秩序,事關(guān)未來智慧法治的整體構(gòu)造??尚胚€包括對相關(guān)風(fēng)險的治理?!?4#〕為了實現(xiàn)可信,加強人工智能外部治理已經(jīng)成為共識。有學(xué)者注意到作為極具顛覆性和不可預(yù)見性的新興工具,算法的負外部性不僅容易引發(fā)多重權(quán)益侵蝕風(fēng)險,并易與監(jiān)管權(quán)力合謀形成權(quán)力濫用風(fēng)險?!?5#〕為了應(yīng)對算法的風(fēng)險以及因此引發(fā)的負面影響,有觀點認為應(yīng)實行公權(quán)力賦權(quán)、算法權(quán)力限權(quán)與追加義務(wù)、個體充權(quán)的多元治理路徑?!?6#〕從私權(quán)的視角,有學(xué)者主張打開算法黑箱,披露、解釋算法,以私法保護為基礎(chǔ)解決算法帶來的侵害。例如通過合同法實現(xiàn)對算法侵害精神性一般人格權(quán)益的救濟,通過侵權(quán)法來回應(yīng)侵害行為的事后救濟?!?7#〕這一討論將問題轉(zhuǎn)化為現(xiàn)有的民法規(guī)范能否妥善處理算法權(quán)力給民事法律關(guān)系帶來的風(fēng)險問題,具有重要意義。

在根本上,創(chuàng)建值得信賴和道德的人工智能不僅需要了解技術(shù)本身,還需要了解存在的社會和道德條件,以及如何適當(dāng)?shù)亟忉屌c評估它們對人工智能的設(shè)計、構(gòu)建和測試方式的影響,還有人工智能與人類互動的方式。它必須是可持續(xù)的和環(huán)境友好的,必須確保人工智能系統(tǒng)的可追溯性,個人可以完全控制自己的數(shù)據(jù)。這些基本需求如何轉(zhuǎn)化為規(guī)范研究,或者說,如何將規(guī)范研究建立在上述根本思考之上,仍是未來的課題。

(二)安全

在數(shù)字時代,安全再次從“幕后”走向“臺前”,成為制定法關(guān)注的重要價值與法益,安全原則也因此成為一項法律原則,成為安全與效益之間的法益衡量工具。

趙精武將安全分為三個層面:廣義層面的安全將國家作為描述對象,強調(diào)的是國家在國際社會和所處地區(qū)的主權(quán)和社會安全;中義層面的安全則是側(cè)重社會結(jié)構(gòu)或社會某一領(lǐng)域或行業(yè)的秩序穩(wěn)定、公共安全;狹義層面的安全則是強調(diào)以社會治理過程中某個具體環(huán)節(jié)為對象,既包括傳統(tǒng)的財產(chǎn)與人身安全, 也包括新興的技術(shù)與行業(yè)安全等。狹義層面的安全或可體現(xiàn)在民法保護的根本法益———安全法益上。安全原則在民法中的具體立法形態(tài)呈現(xiàn)為“零散規(guī)則—區(qū)塊化規(guī)則—體系化規(guī)則”三個基本階段。比如,當(dāng)下大數(shù)據(jù)、人工智能、區(qū)塊鏈等新興技術(shù)的高速迭代拉開了私法調(diào)整范疇與實踐立法需求的距離,目前的立法也呈現(xiàn)這三個階段的趨勢。在數(shù)字化和智慧化疊加應(yīng)用的背景下,安全觀念不僅是物理空間中穩(wěn)定的自然狀態(tài),而且涵蓋虛擬空間中民事活動不被他人監(jiān)視、跟蹤與記錄的自由狀態(tài)。因此,當(dāng)下學(xué)界熱議的知情同意規(guī)則、刪除權(quán)益等規(guī)定也歸于信息時代安全原則的調(diào)整范圍。在這一背景下,安全原則的回應(yīng)體現(xiàn)在三個層次的安全法益架構(gòu),分別是主體之間的互動安全、主體心理感知層面的信任安全和主體所處環(huán)境的穩(wěn)定,安全法益的形成會使民法體系內(nèi)部和外部均產(chǎn)生“規(guī)則事域化”的指向性影響,包括規(guī)則重心從“事后規(guī)制”轉(zhuǎn)向“事前預(yù)防”和傳統(tǒng)法律主體、客體的類型有所擴張。根據(jù)安全原則的要求,具體到數(shù)據(jù)安全法秩序,應(yīng)從過去的“權(quán)利人—義務(wù)人”的二元主體結(jié)構(gòu)延伸為“監(jiān)管機構(gòu)—信息處理者—信息主體”的三元主體結(jié)構(gòu)。〔18#〕

此外,隨著數(shù)據(jù)安全法的出臺,學(xué)界掀起了對數(shù)據(jù)安全制度的研究,學(xué)者發(fā)表了若干的初步討論成果,〔19#〕構(gòu)成了研究安全原則的規(guī)則轉(zhuǎn)化例證與基本資料,但限于篇幅在此不再展開討論。從人工智能法的整體視閾來看,安全作為人工智能法的底座,可以從兩方面觀察:一方面,重新發(fā)現(xiàn)安全,即傳統(tǒng)財產(chǎn)的數(shù)字化轉(zhuǎn)型疊加新的數(shù)字財產(chǎn)不斷產(chǎn)生,倒逼對安全的新認知。另一方面,整體安全被提出,虛擬空間架構(gòu)的安全成為新的問題。在此背景下,“安全原則”應(yīng)為人工智能法的基本原則。

(三)公平

公平,在傳統(tǒng)法上雖確有規(guī)則體現(xiàn),但更多的是作為基本原則———理念或者基礎(chǔ)價值存在,并非嚴格意義上法律原則。人工智能在數(shù)據(jù)處理、算法設(shè)計及其系統(tǒng)應(yīng)用階段均可能存在偏差,會導(dǎo)致歧__視、不公平競爭和濫用等,從而產(chǎn)生公平問題。公平尚未作為一種法律原則予以討論,既有研究多聚焦算法歧視帶來的問題。

公正的核心要義是反對歧視。歧視來源于偏見,是人工智能倫理的核心問題。人工智能偏見來源眾多,數(shù)據(jù)本身蘊含的、開發(fā)者的以及算法等偏見?,F(xiàn)階段對歧視的研究,主要聚焦于算法歧視,較少涉及數(shù)據(jù)偏見及其風(fēng)險的研究。算法黑箱使得人類無法理解算法決策的運作機理,對于隱私、知識產(chǎn)權(quán)乃至個人自由等方面都提出了前所未有的挑戰(zhàn)。〔20#〕而營利性實體為了獲取商業(yè)競爭力,報告自身算法的計算表征與決策方式意愿不足?!?1#〕因此,在外圍進行算法審計、算法認證或者核驗成為學(xué)術(shù)研究的新方向。

目前,學(xué)者多將算法偏差分為三種類型:算法歧視、不公平競爭和算法濫用?!?2#〕有學(xué)者認為,算法歧視的認定需要以存在橫向權(quán)力關(guān)系為必要前提。當(dāng)算法控制者以用戶固有的、難以改變的特性對其進行分類,并單方?jīng)Q定適用于用戶的算法規(guī)則,用戶只能被動接受決策結(jié)果而無退出算法系統(tǒng)之自由時,即形成橫向權(quán)力關(guān)系。在算法歧視的具體認定上,算法歧視以區(qū)分決策為行為要件,以用戶遭受差別不利對待為結(jié)果要件。算法控制者若能證明差別對待具有合理性,則不構(gòu)成算法歧視,更重要的是需要進行個案分析?!?3#〕對算法歧視問題的監(jiān)管層面,從最初的監(jiān)管算法技術(shù)深入到監(jiān)管算法權(quán)力,意味著實現(xiàn)對算法歧視的預(yù)防和救濟有賴于對算法權(quán)力的規(guī)制。為此,具有公權(quán)力屬性的算法權(quán)力遵從正當(dāng)程序原則,引導(dǎo)、規(guī)范算法權(quán)力回歸正當(dāng)程序,將市場壟斷與技術(shù)監(jiān)管相結(jié)合以制約算法權(quán)力?!?4#〕在責(zé)任歸屬上,算法歧視應(yīng)追責(zé)到人,算法的開發(fā)者和使用者應(yīng)對算法歧視負責(zé)。〔25#〕

公平原則的意涵豐富,不限于算法歧視問題,但其調(diào)整范圍與具體規(guī)則,仍有待進一步研究。誠如鄭戈所言,數(shù)字化帶來的影響在不激進地改變現(xiàn)有法律結(jié)構(gòu)的情況下,法律上可以做的事情是限制強者、保護弱者,避免“強者為所能為,弱者受所必受”的情況。法律是社會的公器,它必須找到符合公共利益的社會關(guān)系調(diào)整方式?!?6#〕

三、元宇宙視領(lǐng)域下數(shù)字身份研究開始起步

主體是權(quán)利的載體,制度既是法律的起點,也是終點。在既往人工智能法的主體研究中,人工智能體(AI#Agent)以及區(qū)塊鏈去中心化自治組織(DAO)被持續(xù)關(guān)注。元宇宙的興起改變了這一狀態(tài)。元宇宙是人類以技術(shù)手段為自己構(gòu)筑的虛擬世界,〔27#〕其作為新一代全真互聯(lián)網(wǎng)形態(tài),〔28#〕已逐漸成為政府和企業(yè)投資布局的重點領(lǐng)域。如今,“元宇宙”已滲透到人類世界經(jīng)濟和生活的多個方面,技術(shù)的產(chǎn)業(yè)化進展與應(yīng)用推進擴寬了人類生活的虛擬向度。〔29#〕個體以“數(shù)字人”〔30#〕的身份在賽博空間中活__動,〔310〕引發(fā)了因數(shù)字身份產(chǎn)生的各類法律問題。在此背景下,妥善解析數(shù)字身份的法律性質(zhì),探索構(gòu)建可信身份認證體系的可行之道,成為因應(yīng)“元宇宙”法律挑戰(zhàn)的題中之義。

(一)數(shù)字化身的法律性質(zhì)

隨著“元宇宙”應(yīng)用的不斷成熟,現(xiàn)實社會與網(wǎng)絡(luò)社會在物質(zhì)層面的隔閡正不斷被打破,一個虛實相融的數(shù)字世界正在生成?!?20〕“元宇宙”用戶以“數(shù)字化身”進行數(shù)字化行為也開始對現(xiàn)實社會產(chǎn)生直接影響?!?30〕“數(shù)字化身”與“數(shù)字身份”既有聯(lián)系又有區(qū)別,但兩者關(guān)系仍待澄清?!?40〕一方面,典型的數(shù)字化身,譬如利用語音合成和深度學(xué)習(xí)技術(shù)塑造出的具有人類形象的“數(shù)字播音員”,具有一定的財產(chǎn)屬性,有學(xué)者甚至將其定性為一種虛擬財產(chǎn);〔350〕而數(shù)字身份則更多強調(diào)特定主體的識別功能,側(cè)重體現(xiàn)主體的人身權(quán)益。另一方面,兩者在數(shù)字身份認證這一命題上具有緊密的聯(lián)系:數(shù)字身份是元宇宙建設(shè)及其問題的起點與歸宿,而只有通過數(shù)字身份認證,驗證數(shù)字化身背后的自然人的真實身份,才能在元宇宙中破解數(shù)字化身所致的信任難題?!?60〕

在厘清數(shù)字身份與數(shù)字化身關(guān)系的基礎(chǔ)上,分析數(shù)字化身的法律性質(zhì),可發(fā)現(xiàn)學(xué)界就此問題始終未形成明確共識。有觀點認為, 用戶的數(shù)字化身本質(zhì)上屬于民法典第127條規(guī)定的“網(wǎng)絡(luò)虛擬財產(chǎn)”,并不具有獨立的法律地位。只不過,數(shù)字化身與其他人工智能系統(tǒng)并無本質(zhì)區(qū)別,也需通過反饋訓(xùn)練,這一過程類似人工智能體,〔370〕但這并不足以使其獲得獨立人格。有學(xué)者進一步認為,數(shù)字化身作為用戶在平臺、人工智能等交互中創(chuàng)造的事物,屬于美術(shù)作品,應(yīng)當(dāng)被納入版權(quán)法的保護范圍之內(nèi)?!?80〕不過也有學(xué)者提出了數(shù)字化身“人格相對獨立論”,主張數(shù)字化身既非財產(chǎn)又與自然人非同一人格,其自身具有獨立人格?!?90〕區(qū)分兩者的獨立性,亦即采用人格獨立和財產(chǎn)獨立原則,而非將兩者混同,有利于對物質(zhì)世界和元宇宙世界中成員的信賴利益的保護。更為綜合的觀點則認為,數(shù)字化身與“真身”的關(guān)系不能一概而論,而應(yīng)當(dāng)區(qū)分“與真身結(jié)合的智能數(shù)字人”和“與真身分立的智能數(shù)字體人”這兩個概念?!?00〕該觀點進一步提出前者實現(xiàn)了“真身”與“化身”的統(tǒng)一性,其主體地位應(yīng)當(dāng)遵循物質(zhì)世界的主體地位規(guī)則,而后者本質(zhì)是一種“脫離人體獨自進行認知的延展認知技術(shù)”,應(yīng)當(dāng)賦予其獨立的法律主體地位并按照人工智能組織體〔410〕予以規(guī)范。

拋開抽象的法理哲思,妥善確定數(shù)字化身的法律性質(zhì),需要綜合考量數(shù)字化身技術(shù)的既有水平與現(xiàn)實主體參與數(shù)字身份構(gòu)建的具體情形。現(xiàn)階段,元宇宙的核心仍在于增強虛實世界的交互,而非肉身向其中“移民”。不能忽視的事實是,“數(shù)字化身”仍然僅具有工具屬性,不能脫離主體而獨立存在,主體對化身的支配,需要數(shù)據(jù)的“投喂”,甚至情感的投射,需要配備專有算法來處理和分析在自適應(yīng)交互中產(chǎn)生的復(fù)雜信息??梢姡诩扔械臄?shù)字化身技術(shù)下,數(shù)字化身主要體現(xiàn)為一種工具而非主體。因此,強調(diào)數(shù)字化身具有獨立人格或在部分情況下肯定其主體地位的觀點,并不符合現(xiàn)階段人工智能技術(shù)與元宇宙應(yīng)用的發(fā)展現(xiàn)狀。__

(二)可信數(shù)字身份認證的建構(gòu)路徑

身份問題,本質(zhì)是在追問“我是誰”,其形成離不開社會關(guān)系中的人際互動,對身份的控制也成為公民信息權(quán)益的重要表現(xiàn)?!?2@〕網(wǎng)絡(luò)空間拓展了人的身份建構(gòu)的空間,使得每個人都可以根據(jù)自己的選擇形成各種各樣的“數(shù)字身份”。然而,賽博空間中的“數(shù)字人”不斷具有影響現(xiàn)實社會的力量,使得建構(gòu)可信數(shù)字身份認證體系成為人工智能法的起點問題。

身份認證問題的核心在于建立行為與特定主體之間的連接,因而確保數(shù)字身份的真實性、互操作性、安全性與合規(guī)性應(yīng)當(dāng)是可信數(shù)字身份認證體系的基本原則?!?3@〕數(shù)字身份認證系統(tǒng)的構(gòu)建路徑方面,多數(shù)學(xué)者主張建立分布式而非中心化的數(shù)字身份認證體系。于銳認為,中心化的身份認證系統(tǒng)多由互聯(lián)網(wǎng)平臺控制,平臺出于利益驅(qū)使泄露用戶信息和隨意決定終止用戶賬號權(quán)限的情況層出不窮,并進一步提出分布式數(shù)字建設(shè)的兩種思路:一是“傳統(tǒng)數(shù)字身份+區(qū)塊鏈模式”;二是由用戶控制身份,創(chuàng)建全新的區(qū)塊鏈數(shù)字身份系統(tǒng)?!?4@〕類似地,傳統(tǒng)的集中式或聯(lián)合式身份認證系統(tǒng)賦予個人較低的數(shù)據(jù)控制能力,難以迎合數(shù)據(jù)要素市場發(fā)展的需求,采用去中心化的數(shù)字身份系統(tǒng)或可實現(xiàn)數(shù)據(jù)訪問控制的透明度,并可改進既有無效、滯后的同意規(guī)則,為數(shù)字身份系統(tǒng)用戶提供連續(xù)性、實質(zhì)性的同意?!?5@〕

此外,構(gòu)筑可信數(shù)字身份認證體系離不開強有力的監(jiān)管框架。隨著下一代互聯(lián)網(wǎng)的發(fā)展,去中心化身份等可信身份責(zé)任模型應(yīng)用不斷推廣,從驗證層、應(yīng)用層和信息層三個技術(shù)層面完善責(zé)任監(jiān)管正在落地?!?6@〕行政主體是否可以作為元宇宙區(qū)塊鏈中的驗證節(jié)點,將現(xiàn)實世界中已經(jīng)存在的關(guān)于身份和財產(chǎn)的信息與元宇宙中的進行互相驗證,提升數(shù)字身份認證系統(tǒng)的可信性與權(quán)威性,〔47@〕成為制度設(shè)計的選擇之一。

四、法律行為領(lǐng)域研究未取得實質(zhì)進展

法律行為制度是實現(xiàn)主體權(quán)益的執(zhí)行機制。數(shù)字財產(chǎn)權(quán)利的變革,需要依托于新的執(zhí)行機制方可真正實現(xiàn),從而達到虛實空間交互的根本目的。因此,研究法律行為的數(shù)字形式注定是人工智能法最為重要且最為困難的領(lǐng)域。然而,當(dāng)前行為論的研究無論在智能行為的外延抑或內(nèi)涵方面并未有實質(zhì)性的進展。

(一)智能合約研究從理論探索到應(yīng)用分析轉(zhuǎn)變

智能合約是智能行為中最受關(guān)注的部分,智能合約的有關(guān)文獻數(shù)量不斷增加。相關(guān)研究內(nèi)容可大致劃分為三類主題:一是對于智能合約基礎(chǔ)理論的進一步研究,如智能合約的定義、法律性質(zhì)等;二是關(guān)于智能合約在具體領(lǐng)域的應(yīng)用,如著作權(quán)保護、政府采購等應(yīng)用場景;三是聚焦智能合約的適用困境以及可能的解決之道。

1.智能合約的基礎(chǔ)理論研究有待進一步深化

對于智能合約的認知,既有研究從技術(shù)與法律兩個角度進行了論述。從技術(shù)層面來講,智能合約自動執(zhí)行的基本邏輯可以歸納為“若發(fā)生某種情況,則執(zhí)行某項結(jié)果”。從法律層面來講,早前學(xué)說多__主張從廣義和狹義兩個層面對智能合約進行定義,有學(xué)者重提這一分類,但對兩種類型賦予了不同內(nèi)涵。前者所指稱的智能合約包括自動履行、區(qū)塊鏈技術(shù)使用許可、標的、價款、爭議解決方式等一切約定在內(nèi),而后者所謂的智能合約僅指合約中“if.A.then.B”的自動履約條款?!?8.〕

相關(guān)研究成果也對智能合約法律性質(zhì)繼續(xù)展開討論。既有研究大多認為智能合約雖然以代碼而不是文字的形式呈現(xiàn),但其本質(zhì)上仍屬于合同,系電子合同的“升級版”。目前來看,較多學(xué)者仍支持該觀點。〔49.〕夏慶鋒認為,智能合約應(yīng)當(dāng)被定性為一種區(qū)別于傳統(tǒng)合同的數(shù)字合同。〔50.〕這種觀點雖強調(diào)了智能合約與傳統(tǒng)合同的不同,但卻承認其符合合同的本質(zhì),因此仍未脫離“合同說”的范疇。

利用傳統(tǒng)民法理論試圖為智能合約定性的另一嘗試是“負擔(dān)行為說”。該說指出,“合同說”難以解釋智能合約對當(dāng)事人合同撤銷、變更、解除權(quán)利的限制問題,因此將智能合約分為廣義和狹義兩種形態(tài),并認為將狹義上的智能合約(即自動履行條款)定性為一種負擔(dān)行為,負擔(dān)行為不僅可以合理解釋其對當(dāng)事人合同撤銷、變更等權(quán)利限制的問題,亦可以囊括其應(yīng)用匯票承兌、遺囑等更多私法領(lǐng)域的可能性?!?1.〕這種學(xué)說的解釋力究竟如何,恐怕仍有待未來進一步的類型化研究。

2.智能合約的具體應(yīng)用場景不斷豐富

雖然有關(guān)智能合約基礎(chǔ)理論的研究略顯不足,但關(guān)于智能合約的應(yīng)用場景的研究成果增多。在著作權(quán)交易與保護領(lǐng)域,智能合約有助于提高著作權(quán)交易速率、降低成本,維護著作權(quán)交易安全,最大限度地保障著作權(quán)人的合法權(quán)益?!?2.〕在NFT藝術(shù)品保護這一特殊領(lǐng)域,區(qū)塊鏈對于即時權(quán)屬信息變更發(fā)揮著公示的效用?!?39〕本年度至少還有如下智能合約的應(yīng)用場景被觸及:一是在防治保險欺詐領(lǐng)域?!?4.〕二是在政府采購的招投標領(lǐng)域,〔55.〕三是在司法領(lǐng)域?!?6.〕

綜上所述,既有研究多將智能合約作為區(qū)塊鏈法律問題的一個分支,較少文獻能夠從智能合約技術(shù)構(gòu)造、應(yīng)用場景,尤其是未來元宇宙數(shù)字化空間的應(yīng)用前景分析智能合約對法律行為制度的挑戰(zhàn),總體研究水平尚未取得實質(zhì)的提升。是否有必要跳出“合同”和“負擔(dān)行為”的理論紛爭,根據(jù)智能合約的具體類型與應(yīng)用場景論證并驗證其法律屬性,有待后續(xù)研究。隨著智能合約技術(shù)應(yīng)用的進一步推廣,智能合約的法律問題的研究價值將進一步得到凸顯,未來有關(guān)的學(xué)術(shù)研究將逐漸呈現(xiàn)理論與實務(wù)“兩條腿走路”的發(fā)展趨勢。

(二)知情同意規(guī)則爭議與調(diào)適

民事主體的“同意”在私法秩序的建構(gòu)中具有重要意義。進入數(shù)字時代,知情同意規(guī)則成為取得數(shù)據(jù)產(chǎn)品等數(shù)字財產(chǎn)的重要方式之一,〔57.〕個人信息保護法也將個人信息主體對信息處理行為的“知情同意”確立為信息處理行為合法性的基礎(chǔ)之一。當(dāng)前學(xué)界對于知情同意規(guī)則的討論除了涉及知情同意中“同意”的性質(zhì)與有效條件等基礎(chǔ)理論外,還逐步深入該規(guī)則應(yīng)用的具體領(lǐng)域,針對其適用中可能存在的沖突與矛盾開展了有針對性的研究。

1.知情同意規(guī)則中“同意”的性質(zhì)與有效條件

對知情同意規(guī)則中“同意”性質(zhì)的不同認識,將導(dǎo)致知情同意規(guī)則適用的較大差異。然而,目前就同意的性質(zhì)問題,學(xué)界卻仍存在較大分歧,主要可以分為“意思表示說”和“法律行為說”兩類觀點。持__“意思表示說”觀點的學(xué)者目前占多數(shù)。在明確法律效果是否按照主體意思產(chǎn)生是判斷行為屬于意思表示還是事實行為的關(guān)鍵的基礎(chǔ)上,于海防教授指出“同意”行為的法律效果之產(chǎn)生根據(jù)為信息主體的意思自治而非法律的規(guī)定,同意因此應(yīng)當(dāng)被界定為一種“意思表示”。因為法律對個人信息處理“同意”的規(guī)定只是對信息主體“同意”的一種限制,并不能因此認為“同意”欠缺產(chǎn)生法律效果的內(nèi)心意思?!?8-〕夏慶鋒在承認“同意”為意思表示的基礎(chǔ)上,認為網(wǎng)絡(luò)公司應(yīng)當(dāng)充分盡到通知義務(wù),設(shè)置更為嚴格的動態(tài)匿名化方法,以確保用戶“同意”這一意思表示的真實性?!?9-〕在意思表示定性的基礎(chǔ)上,有學(xué)者將個人信息主體的同意界定為一種“單方法律行為”,認為基于主體的“同意”,信息處理者取得了一項“得為的地位”,并由此可在同意范圍內(nèi)對主體的信息利益進行干涉?!?0-〕

然而,也有觀點認為,個人信息處理中的“同意”并非嚴格意義上的法律行為,而應(yīng)當(dāng)被歸為一種準法律行為〔61-〕。其理由在于,知情同意規(guī)則中的“同意”雖然具有行為意思、表示意思,但是在效果意思方面存在缺陷,因此只能被定性為準法律行為而非嚴格意義上的法律行為。

關(guān)于知情同意的有效條件,既有研究多從知情同意的實質(zhì)性和形式性兩個方面進行闡述。王洪亮等認為,“有效同意”的構(gòu)成要件除了信息主體的同意能力、作出同意的自愿性、明確性、充分知情性等實質(zhì)性要件外,還應(yīng)當(dāng)符合一定的形式要件,即同意主體的同意應(yīng)當(dāng)以明示方式作出,默示同意、預(yù)設(shè)同意和不作為都不能構(gòu)成一個有效的同意?!?2-〕但就默示同意是否構(gòu)成有效同意這一問題上,姜曉婧、李士林等則主張不能一概而論,通過引入場景理論,將信息處理行為分為數(shù)據(jù)性和信息性行為,認為“信息性行為”應(yīng)當(dāng)嚴格適用知情同意原則,默示同意不構(gòu)成有效同意,而對于“數(shù)據(jù)性行為”只需信息主體的“知情”,而“同意”則不作為生效要件,更無需討論同意的有效條件問題。〔63-〕姬蕾蕾也認為,默示同意下信息主體在無意思表示的前提下“被簽訂”合同,這種不自由、不真實的承諾呈現(xiàn)效力瑕疵。〔64-〕

2.個人信息提供中“三重授權(quán)原則”的沖突與調(diào)適

“三重授權(quán)原則”〔65-〕在“新浪微博訴脈脈案”判決中被首次明確提出,其經(jīng)典表述為“用戶同意+平臺授權(quán)+用戶同意”,即第三方通過平臺方獲取正常經(jīng)營范圍所需用戶數(shù)據(jù)時,平臺方須經(jīng)用戶授權(quán),第三方既須經(jīng)平臺方授權(quán)也須經(jīng)用戶重新授權(quán)?!?6-〕“三重授權(quán)原則”的法律依據(jù)是個人信息保護法第23條,目的在于促進個人信息保護的同時也對數(shù)據(jù)信息產(chǎn)業(yè)的健康發(fā)展進行適當(dāng)引導(dǎo)。

但“三重授權(quán)原則”的機械適用違背其初衷。學(xué)界從不同角度主張對“三重授權(quán)原則”的適用進行反思。向秦認為,應(yīng)當(dāng)從主體、客體和場景三個方面對三重授權(quán)原則的適用范圍進行限制。〔67-〕具體而言,從主體方面,個人信息保護法第23條中的“個人”僅限于自然人,提供方既可以是商業(yè)領(lǐng)域提供者也可以是國家機關(guān)處理者,而平臺方則僅限于非國家機關(guān)處理者。在客體方面,公開數(shù)據(jù)的處理和提供不適用三重授權(quán)原則,但第三方仍需受到“合理”范圍內(nèi)處理的限制。在適用場景層面,爬蟲和手機系統(tǒng)等場景不適用三重授權(quán)。徐偉認為,個人向信息處理者提供的個人信息若涉及第三人信息,應(yīng)主__要著眼于個人與第三人的法律關(guān)系:在第三人提出異議前,兩者并不存在權(quán)利沖突,此時不構(gòu)成侵權(quán);而當(dāng)?shù)谌颂岢霎愖h后,第三人的信息權(quán)利超越了個人的信息權(quán)利,此時信息處理者應(yīng)當(dāng)按照第三人請求采取刪除等措施?!?8-〕

類型化討論“三重授權(quán)原則”適用成為學(xué)者們努力的方向。類型化有助于達成個人數(shù)據(jù)權(quán)利、數(shù)據(jù)持有企業(yè)的數(shù)據(jù)權(quán)益以及數(shù)據(jù)市場競爭秩序保護三種法益間不同主體利益的“納什均衡”。〔69-〕劉輝主張,將數(shù)據(jù)分為可識別的個人數(shù)據(jù)和衍生數(shù)據(jù),前者的流轉(zhuǎn)無需數(shù)據(jù)持有企業(yè)同意而必須經(jīng)過數(shù)據(jù)主體同意,而后者則恰好相反。謝晨昀則從法律經(jīng)濟學(xué)的角度出發(fā),認為“三重授權(quán)原則”有悖于經(jīng)濟學(xué)中的“卡爾多—希克斯效率”原則,需要通過區(qū)分合規(guī)接入和插件接入的不同條件,分別適用數(shù)據(jù)可攜帶權(quán)和“三重授權(quán)原則”,來保障數(shù)據(jù)的自由競爭,平衡兩者間的價值沖突?!?0-〕

3.具體領(lǐng)域中的知情同意研究

除了對知情同意規(guī)則在理論層面的探究,該規(guī)則在具體情境下的適用問題得到了關(guān)注。人臉識別技術(shù)是將自然人探測圖像(通常為視頻、照片形式)轉(zhuǎn)換為面部數(shù)字模型或模板的技術(shù),具有檢測、驗證和識別等基本功能。目前,學(xué)界普遍認為人臉識別技術(shù)所采集、處理的人臉識別信息屬于敏感個人信息,一經(jīng)泄露導(dǎo)致的損害后果可能伴隨終生,因此需要給予其更高強度的保護對“知情同意”規(guī)則在該領(lǐng)域的適用作出相應(yīng)調(diào)整成為努力的方向?!?1-〕譬如,姜野提出健全人臉識別信息知情同意的動態(tài)擇入和擇出制度,〔72-〕采用以擇入機制為主的“知情同意缺省”規(guī)則,通過同意的“動態(tài)驗證”進一步拓展擇出機制的范圍與方式,同時要求信息處理者承擔(dān)一定的信義義務(wù),以緩解信息主體與信息處理者之間的地位不平等情形,避免數(shù)據(jù)鴻溝的產(chǎn)生。葉濤在區(qū)分人臉識別技術(shù)應(yīng)用的不同場景的基礎(chǔ)上,提出公共場所中的人臉識別技術(shù)可分為絕對應(yīng)用場景、相對應(yīng)用場景和禁止應(yīng)用場景?!?3-〕對于其中的禁止應(yīng)用場景, 當(dāng)技術(shù)應(yīng)用具有安全風(fēng)險或者存在倫理歧視時應(yīng)當(dāng)嚴格禁止技術(shù)應(yīng)用,且排除知情同意規(guī)則作為違法性阻卻事由的可能性,由此防止形式上的知情同意實質(zhì)損害公共利益和個人利益,從而引導(dǎo)科技向善發(fā)展。

隨著數(shù)據(jù)要素市場的不斷完善,個人數(shù)據(jù)作為一種重要的數(shù)據(jù)類型在數(shù)據(jù)交易等過程中不斷得到流通,由此引發(fā)學(xué)界對個人數(shù)據(jù)交易中如何適用知情同意規(guī)則的關(guān)注。林洹民認為,個人數(shù)據(jù)交易由基礎(chǔ)合同關(guān)系和數(shù)據(jù)處理關(guān)系組成,前者受合同規(guī)則調(diào)整,以主體的承諾為生效要件,后者則是個人信息法的保護對象,受到知情同意規(guī)則的限制,應(yīng)當(dāng)分別適用不同的規(guī)范路徑,兩者并行不悖,并可以相互補充、相互影響?!?4-〕苗澤一認為,個人信息主體與數(shù)據(jù)服務(wù)方實質(zhì)上并非平等,用戶為使用數(shù)據(jù)方提供的服務(wù),不得不簽署用戶協(xié)議,然而這種同意僅為獲得精準服務(wù),并不以提供數(shù)據(jù)交易的原始數(shù)據(jù)為目的。對此,需要設(shè)置數(shù)據(jù)個人信息處理特別義務(wù),要求交易數(shù)據(jù)供給方明確提供用戶對數(shù)據(jù)交易的授權(quán)為交易的前置環(huán)節(jié),以避免數(shù)據(jù)供給方利用自身優(yōu)勢地位對于個人信息進行肆意處理?!?5-〕

“知情同意”作為一個專業(yè)的法律術(shù)語最早源于醫(yī)療衛(wèi)生領(lǐng)域,即醫(yī)生通過讓病人了解醫(yī)療行為的目的、手段、性質(zhì)及后果,由病人出于自愿接受醫(yī)療行為。而在個體基因保護領(lǐng)域,由于個人基因信息具有一定的家族延續(xù)性和種族關(guān)聯(lián)性,使得其關(guān)涉的主體不僅僅是本人,還包括其他具有血緣關(guān)__系家庭成員,〔76,〕導(dǎo)致知情同意的主體具有不確定性,因此傳統(tǒng)的知情同意規(guī)則顯然不能適應(yīng)實踐的需要。基于此,有學(xué)者主張在知情同意模式的選擇上,要從“個體的一次性特定同意”走向“共同體的動態(tài)概括同意”,制定匿名化基因信息的再識別規(guī)則,推進知情同意原則的改良創(chuàng)新,實現(xiàn)個人基因信息利用與保護的“良法善治”?!?7,〕

(三)數(shù)字簽名的效力問題

數(shù)字簽名在數(shù)字合同訂立過程中具有“表其主體,示其同意”的雙重功能,其自身的可靠性是合同效力的重要來源?!?8,〕“信任,但需要驗證”,〔79,〕為保障數(shù)字簽名技術(shù)成為當(dāng)事人真實意思表示的傳遞者而非各種欺瞞、詐騙手段的協(xié)助者,需要對有效數(shù)字簽名的認定規(guī)則進行分析。首先,數(shù)字簽名是目前電子商務(wù)、電子政務(wù)中應(yīng)用最普遍、可操作性最強、技術(shù)最成熟的一種電子簽名技術(shù)。〔80,〕邢愛芬提出,可靠的數(shù)字簽名需要同時具備專有性、專控性和防篡改性?!?1,〕專有性需要在給簽名人頒發(fā)數(shù)字證書前驗證簽名人身份,并要求簽名人設(shè)置專屬于自己的密鑰,以此保證數(shù)字證書不被冒用,數(shù)字簽名為簽名人專有;專控性是指在數(shù)字證書申請過程和電子簽名過程中,與此有關(guān)的數(shù)據(jù)電文、申請資料等均由證書申請者、電子簽名人控制,而非被他人控制;防篡改性則是從技術(shù)層面對數(shù)字簽名提出的要求。

其次,也有學(xué)者結(jié)合電子簽名法的最新修改,提出了有效數(shù)字簽名的雙重認證規(guī)則,即在區(qū)分一般數(shù)字簽名和可靠數(shù)字簽名的基礎(chǔ)上,從“識別”和“認可”兩個層面采取一體化的有效性認定規(guī)則。〔82,〕具體來講,在識別視角下,只有當(dāng)電子簽名的制作數(shù)據(jù)與簽名人本人存在“穩(wěn)定且獨特”的聯(lián)系時,我們才能認定這一電子簽名高度穩(wěn)定地發(fā)揮了識別功能;在認可層面,如果電子簽名系簽名人真實的意思表示,那么這就要求相關(guān)數(shù)據(jù)電文與電子簽名必須都具有“完整性”,即必須保證兩者的內(nèi)容自簽名人簽署后不會發(fā)生改動。

綜上所述,目前學(xué)界對數(shù)字簽名效力的討論多局限于物理世界的電子簽名法,尚未充分考慮元宇宙技術(shù)應(yīng)用背景下數(shù)字簽名帶來的新改變,既有的數(shù)字簽名可靠性檢驗規(guī)則能否滿足元宇宙身份驗證的需要,還有待進一步討論。在關(guān)于法律行為的研究上,對于這一問題的基本內(nèi)容、具體表現(xiàn)與理論內(nèi)涵等,尚缺乏基本的梳理與回應(yīng)。

五、新興權(quán)利的勃興及其體系化

權(quán)利是法學(xué)的核心范疇,也構(gòu)成了人工智能法的核心制度。從傳統(tǒng)法律觀察,人工智能法的權(quán)利多屬于“新興權(quán)利”。這些權(quán)利多因人工智能法新的利益產(chǎn)生、確認而生成,尤其以財產(chǎn)權(quán)利最為明顯,但又不限于財產(chǎn)權(quán)利??梢詷酚^地估計,在人工智能法疆域里新興權(quán)利將進入勃興時代。

(一)以解釋權(quán)為核心的算法權(quán)利研究進一步深入

算法是人工智能體系中相對透明和確定的因素,“算法黑箱”并非人為“黑幕”,而是因基本原理所限導(dǎo)致的驗證性和解釋性的不足?!?3,〕界定算法權(quán)利在客觀上有助于規(guī)范算法使用人算法權(quán)力的行使、防御算法權(quán)力濫用風(fēng)險的權(quán)利類型。既有研究一般認為,算法權(quán)利是算法相對人享有的一系列旨在規(guī)范算法權(quán)力行使、防御算法權(quán)力濫用風(fēng)險的權(quán)利類型,本質(zhì)上是一個具有開放結(jié)構(gòu)和規(guī)范彈性的權(quán)利束,具體包括算法解釋權(quán)、理解權(quán)、自動化決策權(quán)和技術(shù)性正當(dāng)決策權(quán)利。算法權(quán)利束之所以能形成,原因在于這些權(quán)利都趨向于促成權(quán)利束的中心價值。〔84+〕因此,如何通過梳理這一系列權(quán)利及其共同指向的中心價值,以此確定算法權(quán)利的束點仍是研究的方向。

現(xiàn)階段,霍費爾德的法學(xué)核心范疇成為學(xué)者分析算法權(quán)利的常用武器,在“要求權(quán)、特權(quán)、權(quán)力、豁免、義務(wù)、無權(quán)利、責(zé)任、無權(quán)力”概念體系下,其中“權(quán)利”是某人針對他人的強制性的請求,特權(quán)則是某人免受他人的權(quán)利或請求權(quán)約束之自由。有學(xué)者提出,算法權(quán)利只是霍氏理論中“要求權(quán)”與“特權(quán)”的組合,其“要求權(quán)”體現(xiàn)在針對義務(wù)承擔(dān)者為特定解釋、更新或糾錯的強制要求,“特權(quán)”則意味著是否行使算法解釋權(quán)是權(quán)利人的自由,屬于“一階權(quán)利”。與之相對的算法權(quán)力則屬于霍氏理論中的“權(quán)力”,是一種可以改變“要求權(quán)”和“特權(quán)”、能夠改變既有狀態(tài)(法律關(guān)系)的“二階權(quán)利”。算法權(quán)利與個人信息權(quán)均為大數(shù)據(jù)、算法技術(shù)發(fā)展催生出的內(nèi)含多個權(quán)利的權(quán)利束,兩者的權(quán)利內(nèi)容難免有許多重復(fù)之處,在立法尚未給予回應(yīng)時,算法權(quán)利理論工作應(yīng)與個人信息權(quán)利束深度結(jié)合、將其融入個人信息權(quán)體系之中?!?5+〕

在算法權(quán)利的諸多權(quán)利內(nèi)容中,“算法解釋權(quán)”是研究熱點。個人信息保護法第24條第3款是算法解釋權(quán)的基本規(guī)范。算法解釋權(quán)意在平衡算法使用者與用戶之間不對等的風(fēng)險負擔(dān)和責(zé)任分配,包括企業(yè)和用戶之間的權(quán)利義務(wù)、以及基于自動化決策產(chǎn)生的風(fēng)險負擔(dān)?!?6+〕一般認為,賦予用戶要求算法使用者對算法解釋權(quán)利〔87+〕的目的在于提高算法透明性與可理解性,提高用戶行使個人信息相關(guān)權(quán)益的可能性,客觀上起到了制約算法權(quán)力的效果?!?8+〕算法解釋權(quán)的功能涵蓋事前的知情、事中的理解、事后的修正、更新以及請求救濟,實則超出了單一權(quán)利能夠容納的權(quán)利功能極限?!?9+〕個人信息保護法第24條第3款適用不要求決定僅由自動決策算法作出,從而將該權(quán)利的適用范圍擴張到?jīng)Q策支持型算法、分組型算法與總結(jié)型算法等類型,全面規(guī)范公私領(lǐng)域中的算法應(yīng)用。然而,該款并未明確規(guī)定算法解釋權(quán)的法律效力。基于這一立法現(xiàn)狀,有學(xué)者認為,目前為算法解釋權(quán)的相對人提供救濟具有必要性和緊迫性,應(yīng)關(guān)注算法解釋權(quán)實施中的具體規(guī)則,使此種權(quán)利能夠盡快落地,實現(xiàn)從權(quán)利到利益的轉(zhuǎn)化。但相反觀點認為,算法“解釋權(quán)”理論無法消除算法決策的“非知”,即不透明性,真正可取的路徑是立足歸責(zé)規(guī)則,在尊重算法決策“非知”的基礎(chǔ)上,要求算法決策控制者承擔(dān)法律責(zé)任?!?0+〕

既有研究將算法解釋權(quán)建構(gòu)為一種權(quán)利框架或權(quán)利群,非單獨的、自然的權(quán)利,鮮少將算法解釋權(quán)置于具體場域。就權(quán)利內(nèi)容而言,算法解釋權(quán)的權(quán)利主張都是程序性的,其實體性邊界應(yīng)根據(jù)具體場景下個人與算法決策者之間的溝通信任關(guān)系而確定,無法抽象化的劃定清晰邊界。就具體解釋方法而言,一方面應(yīng)要求企業(yè)充分了解和掌握算法的系統(tǒng)性解釋;另一方面,應(yīng)當(dāng)根據(jù)算法所處的領(lǐng)域特征和影響力而要求不同程度、類別的算法個案解釋?!?1+〕在算法解釋的時間要求(事前、事中、事后)方面,有學(xué)者認為,在敏感個人信息的自動化決策場合,若算法的事前解釋僅根據(jù)個人信息類型的敏感度進行判斷,準確率低容易導(dǎo)致個人信息的侵權(quán)風(fēng)險。除此之外,單純的事后解釋與相應(yīng)的“拒絕+刪除”模式無法完滿地救濟被侵權(quán)人,還需輔以民法典合同編或者侵權(quán)責(zé)任編中的損害賠償責(zé)任救濟手段,賦予個人信息主體更周延的救濟途徑。進一步地,事前解釋應(yīng)限定于“可能產(chǎn)生重大影響”的敏感個人信息處理場合,事后解釋則發(fā)生在“對個人權(quán)益已經(jīng)產(chǎn)生重大影響”的自動化決策場合?!?2.〕有學(xué)者對該觀點進行補充,認為信息主體應(yīng)滿足“僅通過自動化決策的方式作出決定”和“對個人權(quán)益有重大影響”兩個要件,且需與信息主體的其他權(quán)利配合行權(quán)?!?3.〕

除了私法視閾的討論,因公私法的規(guī)范對象與規(guī)范目標不同,公法和私法上的算法解釋權(quán)相應(yīng)地呈現(xiàn)不同情形,對此應(yīng)當(dāng)通過區(qū)別化、精細化的立法使得算法解釋權(quán)隨場域的更換而差異化地配置成為可能?!?4.〕

(二)數(shù)據(jù)權(quán)利研究的二重維度

相較于算法權(quán)利,數(shù)據(jù)權(quán)利問題研究堪稱學(xué)術(shù)熱點。數(shù)據(jù)是人工智能的核心要素,也構(gòu)成了數(shù)字社會主要財產(chǎn)資料。圍繞數(shù)據(jù),產(chǎn)生了數(shù)據(jù)安全與個人信息保護,產(chǎn)生了數(shù)字資產(chǎn)、數(shù)據(jù)壟斷、算法壟斷與空間隔離,進而產(chǎn)生了數(shù)字社會國家與社會關(guān)系的基本邏輯,權(quán)力與權(quán)利關(guān)系的基本立場?!?5.〕由此我們可以將既有研究劃分為二種不同的維度予以觀察。

1.數(shù)字人權(quán)維度

數(shù)字人權(quán)是第一維度。馬長山認為,信息社會帶來了第四代人權(quán),“以人的數(shù)字信息面向和相關(guān)權(quán)益為表達形式,以智慧社會中人的全面發(fā)展為核心訴求,突破了前三代人權(quán)所受到的物理時空和生物屬性的限制”。〔96.〕也有學(xué)者不贊同第四代人權(quán)的提法,認為數(shù)字人權(quán)的概念可以在既有人權(quán)體系的框架內(nèi)得到合理解釋;個人數(shù)據(jù)信息類權(quán)利未構(gòu)成人權(quán)的代際革新??梢杂稍撚^點觀察所謂數(shù)據(jù)人權(quán)的基本內(nèi)涵:“數(shù)字人權(quán)”是個人享有的人權(quán),義務(wù)主體指向國家和互聯(lián)網(wǎng)平臺、商業(yè)公司等社會組織;其權(quán)利義務(wù)關(guān)系表現(xiàn)為防御型與合作型并存,即當(dāng)國家及其政府部門因公共管理的需要而收集個人數(shù)據(jù)時,應(yīng)當(dāng)履行不得泄露、毀損、濫用個人數(shù)據(jù)等人權(quán)義務(wù);從積極義務(wù)來說,互聯(lián)網(wǎng)平臺、商業(yè)公司等社會組織收集個人數(shù)據(jù)時,國家應(yīng)當(dāng)要求這類社會組織履行不作為的消極義務(wù)和積極保護的作為義務(wù)?!?7.〕數(shù)字人權(quán)界定的關(guān)鍵在于,其是一種新興的權(quán)利還是僅表現(xiàn)為基于數(shù)字的權(quán)利,兩者的區(qū)別在于,在新興的權(quán)利下人權(quán)代際范式發(fā)生根本性的變化,即人權(quán)主體、義務(wù)主體、基礎(chǔ)關(guān)系三要素同時擴展而演變?yōu)樾碌拇H范式,從而容納新興的人權(quán)需求,而基于數(shù)字的權(quán)利則無需該變化。姚尚建傾向于將數(shù)字人權(quán)認定為是一種新興的權(quán)利,因為借助于商業(yè)繁榮帶來的平等關(guān)系以及工業(yè)革命形成的技術(shù)手段,人類可以正視自身的地位并形成權(quán)利的聯(lián)盟。從數(shù)據(jù)出發(fā),形成新的社會結(jié)構(gòu)與社會形態(tài),也形成新的權(quán)利結(jié)構(gòu)。但是由于權(quán)利對于數(shù)字的技術(shù)性依賴,數(shù)字權(quán)利的匱乏往往率先在個體身上得到顯示。數(shù)字權(quán)利因此應(yīng)遵循兩條遞進的路徑:從數(shù)據(jù)出發(fā),共享公共數(shù)據(jù)是權(quán)利破繭的法律基礎(chǔ);從算法出發(fā),個體參與并干預(yù)算法是權(quán)利維持的外部條件?!?8.〕

2.數(shù)據(jù)權(quán)屬的私法構(gòu)造

數(shù)據(jù)權(quán)屬的私法構(gòu)造構(gòu)成了數(shù)據(jù)權(quán)利研究的第二維度。與前一階段學(xué)者聚焦于主張對數(shù)據(jù)賦權(quán),并致力于建構(gòu)數(shù)據(jù)權(quán)利體系不同,2022年度反思賦權(quán)觀點的成果不斷呈現(xiàn),這些成果試圖在不賦權(quán)的背景下探索數(shù)據(jù)利益配置問題。無論對于數(shù)據(jù)賦權(quán)持何種觀點,在促進數(shù)據(jù)流動與發(fā)展數(shù)字經(jīng)__濟,乃至促進數(shù)據(jù)權(quán)益在用戶、數(shù)據(jù)控制者或數(shù)據(jù)使用者等多元主體之間實現(xiàn)最優(yōu)配置,〔99-〕并無二致。問題的關(guān)鍵是,哪種認識更契合數(shù)據(jù)的本質(zhì)特征,正是由于數(shù)據(jù)要素的非競爭性、非排他性/部分排他性、易復(fù)制性、外部性和即時性等經(jīng)濟特征和數(shù)據(jù)資產(chǎn)的多次交易性、價值非線性、交易不一定讓渡所有權(quán)或使用權(quán)的特征導(dǎo)致其確權(quán)困難?!?00-〕

現(xiàn)有賦權(quán)說的觀點聚焦個人、企業(yè)、國家這三個主體之間的利益平衡。從主體角度討論有助于檢視這些觀點的基本問題意識。

在個人層面,基礎(chǔ)性的問題在于能否或應(yīng)否區(qū)分個人信息與個人數(shù)據(jù)。申衛(wèi)星提出,隱私、信息與數(shù)據(jù)之間關(guān)系的界定是數(shù)字時代構(gòu)建個人權(quán)利的前提和起點。個人信息作為與個人相關(guān)的事實狀態(tài)之描述處于內(nèi)容層,私密信息是對隱私事實的信息化描述,個人數(shù)據(jù)作為個人信息的載體處于符號層。三種客體之上應(yīng)分別設(shè)置隱私權(quán)、個人信息權(quán)與個人數(shù)據(jù)所有權(quán)三種不同的框架性權(quán)利。個人信息權(quán)屬于人格權(quán)范疇,個人數(shù)據(jù)所有權(quán)歸為財產(chǎn)權(quán)?!?01-〕

在國家層面,宋方青等提出國家數(shù)據(jù)權(quán),強調(diào)以“整體數(shù)據(jù)”為主的數(shù)據(jù)主權(quán)。整體數(shù)據(jù)是國家主權(quán)范圍內(nèi)部各類數(shù)據(jù)的總和,包含著所有的個人數(shù)據(jù)、企業(yè)數(shù)據(jù)和公共數(shù)據(jù)等。數(shù)據(jù)的“國家所有權(quán)”需要通過具體的行政機關(guān)來加以實現(xiàn),因此政府才是數(shù)據(jù)所有權(quán)的具體代理主體,享有本國范圍內(nèi)對個人集合數(shù)據(jù)占有、使用、收益和處分的權(quán)能?!?02-〕如何由數(shù)據(jù)主權(quán)過渡到國家所有權(quán),仍有待進一步研究。至于數(shù)據(jù)國家所有權(quán)的理論基礎(chǔ)為何,不過,龐琳認為,數(shù)據(jù)資源作為一種“類自然資源”包含著豐富的內(nèi)容,例如數(shù)據(jù)的管轄、利用、許可、賦權(quán)、交易等,具有公共財產(chǎn)的屬性,可推定數(shù)據(jù)資源國家所有。但數(shù)據(jù)資源國家所有屬于憲法意義上的國家所有即“全民所有制”,并非等同于民法意義上的所有權(quán)。因此需通過數(shù)據(jù)分類分級的利用規(guī)則來完成數(shù)據(jù)資源國家所有私法路徑的構(gòu)建?!?03-〕衣俊霖則借助契約主義論證框架,提出公共數(shù)據(jù)國家所有可置換為一個虛擬的公共信托協(xié)議—————國家受全民之托管理公共數(shù)據(jù),但最終收益全民共享?!?04-〕

在企業(yè)層面,一方面,對于企業(yè)數(shù)據(jù)權(quán)利的形成機理,學(xué)者們普遍認為合法收集并加工處理是其權(quán)利基礎(chǔ)。〔105-〕另一方面,對于企業(yè)數(shù)據(jù)利益配置的基本問題意識是促使平臺企業(yè)合法使用數(shù)據(jù),推動平臺經(jīng)濟健康發(fā)展的前提〔106-〕。既有研究多數(shù)贊同企業(yè)作為處理者要尊重并承認信息來源者的權(quán)利,并在此基礎(chǔ)上探究其與個人信息主體之間的關(guān)系。在承認數(shù)字財產(chǎn)的生產(chǎn)者對數(shù)字財產(chǎn)享有合法權(quán)益的基礎(chǔ)上,鄭佳寧試圖以“不損害在先權(quán)利”規(guī)則協(xié)調(diào)數(shù)據(jù)信息生產(chǎn)者和數(shù)字產(chǎn)品生產(chǎn)者之間的利益沖突?!?07-〕

企業(yè)數(shù)據(jù)權(quán)益配置的具體方案。目前多數(shù)成果舍棄了早先的絕對賦權(quán)或者單一的賦權(quán)方案,傾向更綜合的利益平衡體系,即通過階層分類的方式實現(xiàn)數(shù)據(jù)權(quán)益配置,該方式強調(diào)企業(yè)數(shù)據(jù)權(quán)益配置有一定的限制條件,但對于具體的限制條件學(xué)者們各有不同觀點。陳兵主張以數(shù)據(jù)的分類分級制度為基準,結(jié)合具體應(yīng)用場景,根據(jù)特定場景下數(shù)據(jù)的功能與屬性,判斷其荷載的權(quán)益類型,配置對應(yīng)的權(quán)屬關(guān)系?!?08-〕在明確數(shù)據(jù)權(quán)屬后,建立配套的多元利益分配制度。〔109-〕與該觀點相似的還有類型__化表達制度,余筱蘭主張,對數(shù)據(jù)權(quán)益沖突進行類型化表達,首先表達為多元的數(shù)據(jù)利益攸關(guān)者,其次類型表達為豐富的利益內(nèi)容類型,當(dāng)產(chǎn)生利益沖突時,則通過利益衡量方法論的指引有針對性地探索和解沖突的路徑?!?10+〕鎖福濤也主張,構(gòu)建數(shù)據(jù)財產(chǎn)權(quán)的“三元分配”模式,將數(shù)據(jù)財產(chǎn)權(quán)中的個人信息財產(chǎn)權(quán)歸屬于用戶,數(shù)據(jù)財產(chǎn)權(quán)中的數(shù)據(jù)用益權(quán)歸屬于數(shù)據(jù)平臺,數(shù)據(jù)財產(chǎn)權(quán)中的數(shù)據(jù)獲取權(quán)歸屬于第三方主體,從而實現(xiàn)數(shù)字經(jīng)濟時代個人信息保護、數(shù)據(jù)平臺利益維護與數(shù)據(jù)信息自由流通之間的利益平衡?!?11+〕

更為綜合的權(quán)益配置方式被陸續(xù)提出。包曉麗提出數(shù)據(jù)權(quán)益配置應(yīng)當(dāng)遵循“二階序列式”論證規(guī)則:一是公共利益與人格利益一般優(yōu)先,同時,人格利益優(yōu)先于財產(chǎn)利益;二是財產(chǎn)利益按貢獻度分配。判斷貢獻度的總原則是:對資產(chǎn)評價收入影響更大的一方,得到的產(chǎn)權(quán)份額也應(yīng)該更大。由于企業(yè)具有比用戶更強的數(shù)據(jù)增值動力,因此在企業(yè)滿足向用戶提供對價服務(wù)、妥善保護用戶隱私等人格利益、維護數(shù)據(jù)安全的條件下,應(yīng)當(dāng)將數(shù)據(jù)的剩余索取權(quán)分配給企業(yè)。但按貢獻分配的準則應(yīng)當(dāng)與純粹程序正義的觀念相契合,當(dāng)用戶不同意或者撤回對個人信息處理的同意時,用戶的貢獻減少,但平臺服務(wù)商也不得拒絕提供相應(yīng)的產(chǎn)品或者服務(wù),這是機會正義的基本要求,〔112+〕趙鑫認為在數(shù)據(jù)確權(quán)時注重邊際貢獻思維的運用,充分考慮邊際貢獻度,能鼓勵對數(shù)據(jù)價值的挖掘,使相關(guān)主體擁有更強的投資意愿,擴大最終的產(chǎn)出水平?!?13+〕沈健州則提出“二階四層”的數(shù)據(jù)類型體系構(gòu)建,根據(jù)數(shù)據(jù)是否承載個人信息以及是否處于公開狀態(tài),將數(shù)據(jù)區(qū)分為四種類型,即承載個人信息的公開數(shù)據(jù)、不承載個人信息的公開數(shù)據(jù)、承載個人信息的非公開數(shù)據(jù)、不承載個人信息的非公開數(shù)據(jù)?!?14+〕

主張數(shù)據(jù)不賦權(quán)的觀點不應(yīng)被忽略?!安毁x權(quán)說”主張擱置在設(shè)定權(quán)利類型、表達權(quán)利內(nèi)容等方面的爭議,旨在以規(guī)制他人行為的方式間接為數(shù)據(jù)控制者創(chuàng)設(shè)利益空間,從而克服源于權(quán)利客體、權(quán)利主體、權(quán)利內(nèi)容等方面的困境,實現(xiàn)數(shù)據(jù)權(quán)益保護與數(shù)據(jù)流通利用之協(xié)調(diào)?!?15+〕“不賦權(quán)說”的基本問題意識是,數(shù)字經(jīng)濟的發(fā)展并非一定要將數(shù)據(jù)完全歸屬于誰,重要的是定義企業(yè)之間的數(shù)據(jù)使用權(quán)。企業(yè)數(shù)據(jù)使用權(quán)是一種基于責(zé)任規(guī)則理論的相對權(quán),通過企業(yè)之間的合同所定義和分配的,相較企業(yè)數(shù)據(jù)財產(chǎn)權(quán)更為契合數(shù)字經(jīng)濟的發(fā)展?!?16+〕黃東東等提出“責(zé)任規(guī)則+管制規(guī)則”的組合模式以解決數(shù)據(jù)權(quán)益配置問題:用諸如標準合同、企業(yè)數(shù)據(jù)保護信譽機制、技術(shù)標準、數(shù)據(jù)資產(chǎn)和數(shù)據(jù)侵權(quán)賠償定價機制等,對某些重要的剩余控制權(quán)配置予以明確,以支撐相應(yīng)法律規(guī)則的執(zhí)行或彌補其不足。這種類似分散立法的功能,不僅可以積累經(jīng)驗,而且可以降低立法成本和立法失敗的社會成本?!?17+〕“不賦權(quán)說”具有其合理性,但目前有關(guān)“不賦權(quán)說”下權(quán)益配置的觀點仍待充實?!?18+〕

(三)加密的權(quán)益性質(zhì)仍未獲得必要重視

未來數(shù)字資產(chǎn)的權(quán)益內(nèi)容及其實現(xiàn)均依賴于加密,加密必將成為一種新型的權(quán)利。但學(xué)界對于加密的討論較少。既有文獻主要探討了密碼法實施后,加密技術(shù)在保護個人信息的同時,也給個人信息保護的法律機制提出的挑戰(zhàn)。

1.加密對個人信息的保護

劉晗認為,法律賦予公民和法人密碼使用權(quán),將極大改變目前大數(shù)據(jù)時代信息儲存和傳輸過程__中大面積不受加密保護的狀況。2021(年出臺的個人信息保護法將加密技術(shù)與個人信息的法律保護機制相銜接,在具體的法律保護機制(如知情同意等規(guī)則)之外,著重規(guī)定個人信息處理者使用加密技術(shù)的制度,為個人信息的保護提供了一條技術(shù)支撐的路徑。同時,對于個人信息處理者而言,運用加密技術(shù)也是安全性較高而成本較低的一種合規(guī)舉措?!?19(〕劉蓓也贊同此觀點,認為密碼技術(shù)是個人信息與數(shù)據(jù)傳輸、存儲及使用的重要技術(shù)保護手段。在互聯(lián)網(wǎng)安全中通過防火墻或者IDS(等技術(shù)手段設(shè)置的“界”異常關(guān)鍵。數(shù)據(jù)保護同樣需要“界”,密碼技術(shù)可以承擔(dān)起設(shè)立“界”的功能?!?20(〕

2.加密對個人信息保護帶來的挑戰(zhàn)

劉晗指出,加密技術(shù)也給個人信息保護及其法律規(guī)則帶來了新的挑戰(zhàn),甚至對于互聯(lián)網(wǎng)信息和代碼規(guī)制提出了新的問題。第一,一旦數(shù)據(jù)流通之后,其他主體若可以通過解密技術(shù)反推,從而還原原始數(shù)據(jù),突破個人信息去標識化和匿名化的限制,就會使得個人信息權(quán)利重新受到巨大威脅。第二,以隱私計算為代表的新興數(shù)據(jù)處理技術(shù)卻面臨著法律評價上的不確定性。第三,挑戰(zhàn)個人信息保護法體系中預(yù)設(shè)的去標識化和匿名化的二分法。加密解密技術(shù)的發(fā)展完全可能產(chǎn)生一種現(xiàn)象,即原先無法復(fù)原的數(shù)據(jù)可以通過新的技術(shù)予以復(fù)原,從而影響個人信息保護法的適用范圍。該法第4條規(guī)定,匿名化信息不屬于該法保護的個人信息。此時,是否應(yīng)該在密碼法之下的加密規(guī)制體系中限制此類代碼的開發(fā)和技術(shù)的使用,就變成極為關(guān)鍵的問題?!?21(〕

結(jié)語

當(dāng)前人工智能法學(xué)研究在認識事物本質(zhì)與促進規(guī)范研究兩方面均取得了諸多重要進展。人工智能法具有不同的層次,具有公法面向的國家安全、網(wǎng)絡(luò)安全、數(shù)據(jù)安全和個人信息保護為基礎(chǔ)層以及建基于其上的人工智能法內(nèi)容層。這一體系涵蓋了法源論、主體論、行為論、權(quán)利論、原則論與責(zé)任論“六論”。限于篇幅,本文僅綜述近年來權(quán)利主體的變化、權(quán)益及其變動形式變化(法律行為)以及法律原則的四部分內(nèi)容,意在廓清人工智能法的一般性議題,對于有專門法規(guī)范基礎(chǔ)的研究,如個人信息保護、數(shù)據(jù)安全乃至通證問題等并未納入綜述范圍。另外,雖然法律人工智能的研究在本年度取得了可喜進展,但限于篇幅,本文不再綜述其內(nèi)容。

在很長時間內(nèi),人工智能法學(xué)研究仍需依托具體部門法問題意識與研究方法開展,從這個意義上說,所謂的人工智能法仍是“部門法化的人工智能法”。不過正是這些部門法的探索,促進了人工智能法學(xué)研究的規(guī)范轉(zhuǎn)化,描摹了人工智能法的一般議題,促進了人工智能法的研究方法覺醒,拉開了法釋義學(xué)研究序幕。

猜你喜歡
個人信息權(quán)利人工智能
如何保護勞動者的個人信息?
個人信息保護進入“法時代”
我們的權(quán)利
警惕個人信息泄露
2019:人工智能
人工智能與就業(yè)
論不存在做錯事的權(quán)利
數(shù)讀人工智能
下一幕,人工智能!
權(quán)利套裝