国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

試論智能算法主體化

2023-05-30 03:39:44鄒開亮劉祖兵
關(guān)鍵詞:智能算法人格倫理

鄒開亮 劉祖兵

摘 要:

數(shù)字文明社會孕育著智能算法主體化的現(xiàn)實需要,ChatGPT的問世尤其強化了這種需要。主流觀點對智能算法主體化或限制或否定,其目的在于維護基于康德人類中心主義哲學(xué)建立的現(xiàn)代法律制度,但已難以滿足當(dāng)下社會關(guān)系復(fù)雜化和多元化的現(xiàn)實要求?,F(xiàn)有法律制度剝奪智能算法的責(zé)任能力和歧視智能算法,對此,應(yīng)當(dāng)建立智能算法責(zé)任能力保障制度。因為深度學(xué)習(xí)能力使智能算法具有認知能力和朦朧的獨立意識,而法律須具備前瞻性,應(yīng)當(dāng)將智能算法視為法學(xué)領(lǐng)域之延伸和規(guī)則外化,構(gòu)建“增進式”的智能算法法律人格授予機制,實施常規(guī)動態(tài)管理。主體資格之實質(zhì)審查當(dāng)以倫理審查為重點,以“五大原則”為綱領(lǐng),構(gòu)建系統(tǒng)化的倫理審查機制,實現(xiàn)道德施治常態(tài)化。

關(guān)鍵詞:

ChatGPT;智能算法;主體資格;責(zé)任能力;增進式;倫理審查

中圖分類號:D923

文獻標識碼:A

文章編號:1673-8268(2023)02-0063-13

本世紀伊始,第三次人工智能(AI)狂潮興起。人工智能技術(shù)助力傳統(tǒng)工商業(yè)得以實現(xiàn)數(shù)字化轉(zhuǎn)型,亦將諸多新問題擺在立法者面前:人工智能生成物知識產(chǎn)權(quán)歸屬亟需明確,智能算法(artificial intelligence algorithm)本體保護路徑尚需厘清,人工智能侵權(quán)及刑事責(zé)任有待界定……在更深層次上,這些問題均以明確智能算法主體地位為前提。

美國OpenAI公司于2022年11月發(fā)布的基于GPT-3.5架構(gòu)的智能文本撰寫與聊天工具——ChatGPT顯示出越來越強的主體性特征,它的橫空出世將智能算法主體化爭論推向了又一嶄新高度。

目前,學(xué)術(shù)界多致力于人工智能客體論的研究,并期待智能算法的權(quán)利義務(wù)分配得以具體化。盡管學(xué)術(shù)界提出了包括監(jiān)管審查、信息披露、算法解釋和數(shù)據(jù)保護等一系列的規(guī)制路徑,并試圖為算法利益享有者設(shè)定更多義務(wù)、為智能算法潛在侵權(quán)對象提供更多保護和救濟[1],但是仍無法解決對算法侵權(quán)的預(yù)防和救濟問題,這制約著智能算法的長足發(fā)展。也有一部分學(xué)者轉(zhuǎn)向?qū)χ黧w論的研究,但研究對象多為以智能機器人為代表的智能體。因為智能體的核心是智能算法,我們便有了深入探討智能算法主體資格的現(xiàn)實價值。作為當(dāng)下社會功能實現(xiàn)所必需的智能化個體,智能算法在整個數(shù)字文明進程中所發(fā)揮的社會功能之重要性不言而喻,對其法律主體問題的回應(yīng)也成為解決上述難題的根本前提。因此,有必要借此突破口以深入探索智能算法主體地位的構(gòu)建,從而促進科學(xué)技術(shù)向上向善,推動全社會數(shù)字化轉(zhuǎn)型和社會變革。

一、智能算法的一般原理

(一)智能算法的內(nèi)涵

“算法(algorithm)”一詞最早可追溯到公元805年,阿拉伯?dāng)?shù)學(xué)家阿科瓦里茨米(Al-Khwar-izmi)于其著作《波斯教科書》(Persian Textbook)中首次系統(tǒng)地歸納了四則算數(shù)運算,“算法”自此被人類沿用至今。自人工智能阿爾法狗(AlphaGo)戰(zhàn)勝李世石后【Google公司研發(fā)的AlphaGo以2∶0的成績戰(zhàn)勝國際圍棋大師李世石。此前,IBM公司研發(fā)的深藍計算機在國際象棋大賽中擊敗世界冠軍卡斯帕羅夫,Watson知識問答系統(tǒng)在Jeopardy比賽中戰(zhàn)勝了兩名前世界冠軍。】,新一輪人工智能熱潮在全球范圍內(nèi)興起。但是,學(xué)術(shù)界至今仍未對智能算法達成統(tǒng)一認識。觀點一認為,智能算法是計算機軟件的一種特殊類型,其實質(zhì)是為解決某個特定問題所采取的一系列步驟[1]。觀點二認為,應(yīng)該從技術(shù)角度將智能算法定義為與計算機算法相區(qū)別的用于模擬人類智能的技術(shù)方案[2]。觀點三認為,智能算法是使計算機擁有在未被明確編程的情況下學(xué)習(xí)的能力[3]。歐盟《可信賴人工智能倫理準則》(2019)以法律規(guī)范形式明確智能算法是人工智能系統(tǒng)的重要組成部分,人工智能感知、解釋、推理、處理信息、決定最佳方法及數(shù)字方面采取措施的過程都是算法作用的過程[4]。前述觀點一保守地認為智能算法是解決特定問題的計算機軟件,是“工具論”的典型代表。觀點二雖然突破“工具論”的桎梏,卻將人工智能定義為“技術(shù)方案”,繼而上升至現(xiàn)行法律規(guī)范可規(guī)制的客體范疇。筆者認為,此方案只是應(yīng)對社會突發(fā)問題的應(yīng)急手段,并不能從制度上解決智能算法涉及的諸多法律問題。觀點三將智能算法視為學(xué)習(xí)能力,依舊將其歸入主體的附屬物范疇。歐盟從立法上肯定智能算法作為人工智能系統(tǒng)的組成部分,但采用“過程”加以概括,其本質(zhì)與觀點一并無二致。智能算法、算力和大數(shù)據(jù)助力人類社會進入更高級文明,業(yè)已成為推動人類進入數(shù)字文明的核心驅(qū)動力[5]。筆者認為,智能算法是為了保障社會數(shù)據(jù)要素融通和促進全民參與數(shù)字生活而依法創(chuàng)設(shè)并獨立運行的、具備環(huán)境交互能力和深入學(xué)習(xí)能力的動態(tài)智能數(shù)字個體。

首先,智能算法為數(shù)字文明提供智力方案。自1956年達特茅斯會議召開以來,智能算法在全球范圍內(nèi)深度賦能,已助力人類社會實現(xiàn)由工業(yè)文明向數(shù)字文明的偉大跨躍:自動駕駛輔助出行、智能終端“定制化”信息推送、手術(shù)機器人微創(chuàng)口切除、大數(shù)據(jù)智能輔助治理、人工智能與虛擬現(xiàn)實融合探索元宇宙……智能算法無時無刻不在為人們出行、溝通、醫(yī)療等提供便利,也在不斷刷新人類對世界的認知,并為人類在未來世界的存在提供更多選擇。智能算法、算力和大數(shù)據(jù)三大要素是實現(xiàn)人類奔赴數(shù)字文明的基本生理機能:智能算法是“腦”,為數(shù)字文明提供著智力方案和決策支持;算力是“肢體”,提供了社會前行的動力;大數(shù)據(jù)是“眼睛”,是智能算法進行數(shù)字要素流動的前提,且日益成為建立社會關(guān)系和推動社會正常運轉(zhuǎn)的基礎(chǔ)。該三大要素缺一不可,他們相互促進、相互支撐,是智能技術(shù)創(chuàng)造價值和取得成功的必備條件[6]。

其次,智能算法以保障數(shù)字文明順利進行為使命。自第三次人工智能熱潮興起,人類已經(jīng)邁進“萬物數(shù)字化、一切可計算”的數(shù)字文明時期[7]。這是繼農(nóng)業(yè)文明和工業(yè)文明之后又一全新的文明形態(tài),不僅帶來了新技術(shù)、新觀念和新商業(yè)模式,而且引發(fā)了社會生產(chǎn)、人們生活以及社會經(jīng)濟形態(tài)甚至國家治理等諸多方面的巨大變革[8]。在數(shù)字社會,構(gòu)建新文明秩序,僅依靠人力和個體自覺是無法實現(xiàn)的。智能算法具備高效率基因,是保障全社會主體參與數(shù)字生活的不二之選。數(shù)字生活是一種融入技術(shù)的、充滿社交媒介的、移動化的全新生活方式[9]。公眾領(lǐng)域的拓寬將成為社會主體又一新的關(guān)注點,這要求智能算法慷慨涉足以拉近主體間的物理距離并維護數(shù)字秩序與數(shù)字安全。由此觀之,智能算法不僅是數(shù)字生活的重要組織者,也是社會秩序的重要建構(gòu)者與保障者。

再次,智能算法是動態(tài)的智能數(shù)字個體。數(shù)字革命正在國家和社會層面展開前所未有的技術(shù)賦權(quán)[10],也重新定義了社會個體內(nèi)涵。在農(nóng)耕文明時期和工業(yè)文明時期,與群體相對應(yīng)的個體多表現(xiàn)為一定社會關(guān)系中在社會地位、能力和作用上可區(qū)分的生命體,著重描繪的是自主參與社會生產(chǎn)和社會交往的利益單元。在法學(xué)視域內(nèi),個體仍側(cè)重于描述具有行為能力、認知能力和責(zé)任能力的權(quán)利義務(wù)單元。第一,智能算法通過生命體或者借助機械體實現(xiàn)影響力的無限擴張,參與各種社會關(guān)系,具有行為能力。第二,智能算法在多個社會領(lǐng)域替代人類進行決策。自動化決策使算法嵌入社會的程序日益深化,人類對智能算法的依賴性逐漸加強。智能算法的自動化決策使社會功能性需求得以滿足,成為一種介于人和動物之間的高級認知。第三,智能算法責(zé)任能力側(cè)重表達了侵權(quán)后對其歸責(zé)原則的適用,無論是適用產(chǎn)品侵權(quán)的無過錯歸責(zé)原則,或者是適用動物侵權(quán)的過錯責(zé)任,還是適用監(jiān)護人的替代責(zé)任,都無法符合司法實踐的合理性要求。數(shù)字文明時期,應(yīng)從數(shù)據(jù)層面定義個體的概念,其表達的是數(shù)據(jù)收集、處理和再生產(chǎn)的能力,強調(diào)的是以數(shù)字為紐帶建立法律關(guān)系的主體概念。智能算法的持續(xù)發(fā)育和階段進化能力使其以動態(tài)的形式存在;動態(tài)是智能算法進化過程的表達,也是對其自主發(fā)育性質(zhì)的闡述。

最后,智能算法實現(xiàn)二元世界的并行。數(shù)據(jù)供養(yǎng)智能算法,數(shù)字世界不僅是物質(zhì)世界的孿生,而且與現(xiàn)實社會同步并行。智能算法正重塑社會表達與集體行動,表現(xiàn)為社會關(guān)系在一個世界的變化引發(fā)其在另一世界里的變動。智能算法不僅連接了兩個世界的社會關(guān)系,而且重構(gòu)了權(quán)利義務(wù)體系,使數(shù)字世界里的權(quán)利義務(wù)關(guān)系模型在現(xiàn)實世界中得到反饋。底層算法“管控”下的智能算法所產(chǎn)生的輻射達到了前所未有的范圍和程度,其在公共空間中的影響力亦與日俱增。智能平臺和智能體直接介入人類建立的社會關(guān)系網(wǎng),致使由人、物構(gòu)成的二維關(guān)系體系得以擴充,正形成人、物和智能算法為基本要素的三維體系。因此,人們有理由相信以人為主導(dǎo)的權(quán)利義務(wù)體系已經(jīng)出現(xiàn)裂縫,有必要重新審視人與智能算法之間的法律關(guān)系。

(二)智能算法的特征

傳統(tǒng)的計算機程序使用算法處理簡易數(shù)據(jù),具有強指令依賴性[11],期待在運行若干參數(shù)后得到明確的反饋。與之相異的是,智能算法思考過程具有可變性,結(jié)果具有不確定性。此外,智能算法還具有適應(yīng)性、自主發(fā)育性、類人性和非生物性等特征。

智能算法對大數(shù)據(jù)有著很強的適應(yīng)能力,具有適應(yīng)性。數(shù)據(jù)于一定程度上決定著智能算法的輸出(outcome),也深刻影響著智能算法的道德選擇。智能算法對海量數(shù)據(jù)進行擬合以探索隱藏于其后的規(guī)律,并在重復(fù)訓(xùn)練和無監(jiān)督學(xué)習(xí)后獲得適應(yīng)能力。適應(yīng)性讓人工智能的行為和邏輯變得難以解釋,數(shù)據(jù)歧視隨之產(chǎn)生。因此,一旦對偏見數(shù)據(jù)具備適應(yīng)性后,智能算法透明度問題就會顯現(xiàn)出來。英國內(nèi)閣辦公廳中央數(shù)字和數(shù)據(jù)辦公室于2021年11月底發(fā)布《算法透明度標準》(Algorithmic Transparency Standard)[12],旨在為公共部門和組織提供使用算法的工具以及實現(xiàn)為什么使用算法的信息指引之目的,以提升使用智能算法輔助決策時的透明度。由此可見,與其他社會主體一樣,智能算法的適應(yīng)性也會帶來潛在的社會風(fēng)險,對此具有加強監(jiān)管的現(xiàn)實必要性。

智能算法具備持續(xù)進化的基因,具有自主發(fā)育性。通用層算法將偏差值反饋至底層算法,由其反復(fù)修正計算模型并更替原生底層算法【智能算法系統(tǒng)藍圖設(shè)計得以落地后,最初版本的底層算法即為原生底層算法。原生底層算法經(jīng)進化形成新的底層算法即為次原生底層算法。】中的短板參數(shù)和部分邏輯結(jié)構(gòu),反復(fù)訓(xùn)練和驗證以實現(xiàn)算法的進化,成就次原生底層算法。經(jīng)過持續(xù)進化的智能算法會更趨近于人類智力,新生成的算法又成為將來更新版本算法的基礎(chǔ)。智能算法可在無人監(jiān)督下替代人類進行決策,人們常常借此增強人工智能體的設(shè)計能力和創(chuàng)造力。實踐中,通常底層算法的“發(fā)育”也在無人類監(jiān)管下進行。自主性體現(xiàn)著智能算法在處理復(fù)雜任務(wù)方面的絕對優(yōu)勢。它在執(zhí)行任務(wù)的過程中反復(fù)地“琢磨”如何更高效地應(yīng)對更為復(fù)雜的任務(wù)和在完成工作的過程中完善自身的算法結(jié)構(gòu),最終提升適應(yīng)環(huán)境的能力并實現(xiàn)自主發(fā)育。

目前,智能算法已基本解決模擬人腦的邏輯問題,具有類人性。雖然當(dāng)前人工智能難以完全代替人腦獨特的形象思維和非理性能力,甚至人工智能的理性思維先于感情思維[13],但其內(nèi)在“靈魂”仍然表現(xiàn)出極強的類人性。一方面,數(shù)據(jù)制造者的偏見影響算法的輸出,底層算法因此在進化中帶有類人性元素,歧視、可信度或仇恨言論等負面情緒在應(yīng)用層算法中時常顯現(xiàn);人類的善意、包容也在底層算法的倫理善意中發(fā)揮著重要作用。另一方面,智能算法也在群體智力層面表現(xiàn)出超強的“生物”智慧,細膩的情感往往被視為是人類所特有的生理活動,但經(jīng)海量數(shù)據(jù)投喂和反復(fù)訓(xùn)練后,智能算法與人類之間的情感共鳴也將近在咫尺。

智能算法沒有生物體的細胞特征,具有非生物性。細胞是構(gòu)成生物體的必備要素,強調(diào)的是蛋白質(zhì)通過新陳代謝作用與環(huán)境進行物質(zhì)交換的能力和生命的不可替代性與不可逆轉(zhuǎn)性[14]。智能算法顯然沒有自然生命的特征,雖然通常被視為有靈魂的代碼,但不具備生物體的有形外觀。生命的有無常常被認為是智能算法與自然人的最大區(qū)別,繼而衍射出對意識問題的大討論。但是,科技的發(fā)展已經(jīng)改變了許多事物的原本形態(tài)和人類對世界的認知,讓人們不得不以更加包容的眼光審視周圍。因此,對于生物學(xué)要素是否能夠作為區(qū)分自然人和人工智能的根本標準,還存在爭議。隨著人工智能技術(shù)發(fā)展到當(dāng)下的水平,智能算法的行為和心理狀態(tài)已經(jīng)可以通過不同類型的物理媒介和社會元素得以實現(xiàn),早已失去生物依賴性的表征。

(三)智能算法的基本形式

從感觀上看,智能算法僅以代碼的形式存在,其運行過程僅表現(xiàn)為從一串字符向另一串字符的跳躍,具有抽象性。因此,它不能直接參與具體的法律關(guān)系,必須借助一定的媒介。當(dāng)下,盡管智能算法的實現(xiàn)路徑正朝著多樣化的方向發(fā)展,但其主要形式仍然僅有三種。第一種是純粹的智能算法,以標準化的信息系統(tǒng)為代表,例如商業(yè)智能(BI)。它在某一特定領(lǐng)域內(nèi)為人類提供基于數(shù)據(jù)而生成的顧問方案,輔助人類開展管理活動。第二種是基于操作系統(tǒng)的智能算法平臺,諸如智能購物平臺、智能外賣平臺和社交媒體平臺等。該路徑主要依靠智能算法輸出來替代人類大腦,進而影響人的行為,從而間接地參與法律關(guān)系。第三種是具有物質(zhì)實體的智能體,最典型的就是智能機器人和自動駕駛汽車。2022年7月22日,國際賽車選手林志穎駕駛某品牌自動駕駛汽車發(fā)生慘烈交通事故的事件沖上熱搜榜首,這再次引燃了學(xué)者對自動駕駛汽車責(zé)任主體問題的高度關(guān)注??傊?,智能算法基于對機械實體的操縱來替代人類行為,僅僅是其建立法律關(guān)系的實現(xiàn)路徑之一。

智能體是智能算法在進化過程中的一次偶然選擇。作為人工智能的核心,智能算法在實現(xiàn)路徑的選擇層面上具有偶然性,至于是通過人的行為還是依靠與自身具有高兼容性的機械實體來實現(xiàn),僅僅是其在漫長進化過程中的隨機選擇而非必然形式。隨著人類認知能力的提升和科學(xué)技術(shù)的高速發(fā)展,獲得高魯棒性(robustness)[15]和持續(xù)兼容性后的智能算法面對的可選擇范圍也隨之拓寬,其實現(xiàn)社會功能的方式也將變得多樣。目前,學(xué)術(shù)界對智能體主體地位的研究并未深入其本質(zhì),而僅停留在對智能算法單一實現(xiàn)形式的探討層面,尚未把握智能算法的發(fā)展規(guī)律,不具有徹底性。由此觀之,對智能算法主體論的研究應(yīng)當(dāng)是解決人工智能相關(guān)法律問題的前置條件。

二、智能算法主體性學(xué)說辨思

(一)智能算法主體性學(xué)說考察

智能算法已實現(xiàn)多行業(yè)融合應(yīng)用并促進傳統(tǒng)工商業(yè)數(shù)字化轉(zhuǎn)型,其社會價值不言而喻,但其法律屬性爭議依然是懸而未決之難題[16]。到目前為止,在智能體和智能算法是否能夠獲得主體地位、即是具有“物”的屬性還是“人”的屬性問題上,學(xué)術(shù)界存在四種主要觀點,分別為“階段肯定說”“絕對否定說”“折中說”[17]和“法定符合說”[18]。

“階段肯定說”對智能算法成為法律主體持樂觀態(tài)度,認為人工智能于強人工智能時期具有主體能力,屆時能具備法律主體資格。在超人工智能時期,智能算法或?qū)⑴c人類一道成為世界的主宰。該學(xué)說肯定了智能算法作為法律主體的可能性,但以強人工智能時期算法技術(shù)的高度發(fā)達為前提條件。持該觀點的學(xué)者認為,不能脫離人工智能的智能化程度對其法律屬性妄下定論,應(yīng)當(dāng)對其數(shù)個發(fā)展階段分別進行研究。因算法在各時期表現(xiàn)出的自主意識、思維能力和獨立程度差異巨大,是否應(yīng)賦予其法律主體資格的決定因素是其自身的發(fā)展水平。弱人工智能(weak AI)算法對維系社會秩序正常運行不具有十分的必要性;強智能算法因具備高智能性,進而擁有社會屬性,可以賦予其法律主體資格;超智能算法是比強智能算法更高級的算法族群,當(dāng)然具備主體地位。

“絕對否定說”為當(dāng)下學(xué)術(shù)通說。該學(xué)說認為,人類發(fā)明人工智能旨在擴大其肢體的觸及范圍,輔助自身提高改造世界的效率,智能算法的本質(zhì)是人類的工具,因此不應(yīng)賦予其法律主體資格。算法本質(zhì)上仍然是“物”,無法達到人類大腦的智力水平,即便其智力超越人類,其地位也僅止于人類生產(chǎn)的工具和手段?!敖^對否定說”內(nèi)部還存在“工具說”和“軟件代理說”的分野?!肮ぞ哒f”認為,機器人無論以何種方式承擔(dān)責(zé)任,最終的責(zé)任承擔(dān)者都是人[19];“軟件代理說”認為,智能機器人是軟件代理,是信息傳遞人,不需要具有完全的法律人格和責(zé)任能力[20]。無論是“工具說”還是“軟件代理說”,都是對人工智能主體化命題的無條件否定,認為人工智能體無論是否高度發(fā)達,也不能改變其作為人類改造世界的工具之宿命,無法上升為法律主體。

“折中說”認為,為順應(yīng)社會實踐多元化和技術(shù)深化發(fā)展的需要,可以附條件地將人工智能擬制為法律主體,允許其參與法律關(guān)系[21],但它不具備完全主體人格?!罢壑姓f”屬于主體趨同的中間路線,它從正面回答了兩個問題:一是智能算法能否具備法律主體地位,二是具備主體地位后如何賦予其法律人格?!罢壑姓f”主張智能算法必須獲得實物外觀才能擁有行為能力,在此基礎(chǔ)上具備責(zé)任能力后可賦予其法律人格;但仍然堅持認為其權(quán)利義務(wù)和行為能力是有限的,應(yīng)當(dāng)限制其法律主體地位。

“法定符合說”認為,研判智能算法主體是否適格的問題應(yīng)當(dāng)回歸法律的具體規(guī)定。

無論智能算法技術(shù)發(fā)展到何種程度,

主體資格的判定都應(yīng)當(dāng)符合各國現(xiàn)行法律規(guī)定的主體構(gòu)成要件,否則將脫離其主體適格性的法理基礎(chǔ)。另外,該說還試圖在分析智能算法與現(xiàn)有民事主體的相似點中找到可以聯(lián)系的“錨點”[22],從而為智能算法能否作為法律主體尋求現(xiàn)實的法律依據(jù)。

(二)智能算法主體性學(xué)說評析

“階段肯定說”的成立條件堪疑。學(xué)界普遍認為人工智能將經(jīng)歷三個發(fā)展時期,分別是弱人工智能時期、強人工智能時期和超人工智能時期[23]。詢其圭臬,答案卻模糊且略顯雜亂。學(xué)者們或從解決問題能力上加以劃分【例如英國的現(xiàn)代計算機之父阿蘭·圖靈在1950年進行的圖靈測試和美國學(xué)者Steve Wozniak進行的咖啡測試?!?,或從模擬人腦思維智力水平上進行判斷,甚至從學(xué)習(xí)能力的高低進行評價【例如美國斯坦福大學(xué)教授Nils John Nilsson進行的就業(yè)測試。】等。但不論采用何種標準,學(xué)術(shù)界并未明確否認如今人類已經(jīng)處于強人工智能的初始階段。實務(wù)界的通用做法是將人工智能發(fā)展分為計算智能、感知智能和認知智能三個核心階段。其中,計算智能以數(shù)據(jù)處理智能化為主要代表,其實質(zhì)仍為傳統(tǒng)計算機算法的能力范疇。因此,以強人工智能時期為限制的“階段肯定說”存在明顯紕漏,致使理論與實務(wù)矛盾。此外,以強人工智能時期高度成熟的技術(shù)條件加以限制則存在較大的主觀性。

“絕對否定說”試圖從現(xiàn)有的法律規(guī)范體系中尋找維系社會秩序的方案而無視智能算法在社會發(fā)展中的現(xiàn)實需求。盡管“工具論”于數(shù)字社會而言有助于鞏固人類中心地位,但“絕對否定論”將“工具論”的觀點生搬硬套,而無法看到智能算法類人性的特征。法律應(yīng)該具備前瞻性,以應(yīng)對未來大概率出現(xiàn)的社會需要而提前擬定規(guī)制原則及框架,若僅僅依賴事后的修修補補則有懶政之虞。對相關(guān)法律制度是否應(yīng)重構(gòu)的思考已非天馬行空的幻想,而是人類在這個時代不得不面對的社會科學(xué)命題。

主張智能算法具備行為能力和責(zé)任能力、進而可獲得法律主體資格是“折中說”的一大進步。但是,對于實體外觀是否為智能算法獲得行為能力的必備要件的疑問,不同的社會歷史情境下,答案也不盡相同。在硬件系統(tǒng)和算力加持下,數(shù)字革命使得現(xiàn)實社會與數(shù)字世界緊密連接,主體間法律關(guān)系陸續(xù)擺脫實體限制。正如,貨幣的電子化使交易不再受紙幣的限制,使虛擬交易與現(xiàn)實交易連接并產(chǎn)生同等法律效應(yīng)。虛擬平臺上主體關(guān)系的發(fā)展直接折射到現(xiàn)實世界,虛擬現(xiàn)實中“性騷擾”證據(jù)或?qū)⒊蔀楝F(xiàn)實法官裁決的依據(jù)。因此,筆者認為該說在成立條件上仍需進一步改良才能符合社會關(guān)系數(shù)字化發(fā)展的現(xiàn)實需要。

“法定符合說”試圖從現(xiàn)行法律規(guī)范中尋找否定智能算法主體地位的法律依據(jù),實際是法條偽裝下的絕對否定說。第一,法人和非法人組織在民事法律關(guān)系中的自主性多通過該組織內(nèi)部成員集體決策所做出,反應(yīng)的是組織的集體意志,具有高度的民主性,這與“工具論”的人身附庸性質(zhì)無相似性。第二,現(xiàn)行私法以促進市場交易、增進社會主義工商業(yè)發(fā)展為背景,考慮的是規(guī)范市場主體參與法律關(guān)系的行為秩序,而非限制主體行為的擴張。同時,現(xiàn)行法律規(guī)范體系未有對主體生物屬性要件的規(guī)定。因此,從理論上看,該說是從結(jié)果倒推理由的反向證成,是對立法本意的褻瀆。

綜言之,“階段肯定說”以強人工智能時期高度成熟的技術(shù)條件加以限制,“絕對否定說”的根本目的在于固守“工具論”,而“折中說”將生命的有無視為是否具有行為能力和責(zé)任能力的前提,“法定符合說”仍然以現(xiàn)有法律規(guī)定加以搪塞。這些觀點要么主觀偏頗,要么是在價值選擇上偏離時代發(fā)展主題,其實質(zhì)是為技術(shù)保守主義鋪墊道路。

三、智能算法主體化之肯定證成

(一)法律主體性的哲學(xué)基礎(chǔ)

法律主體性的哲學(xué)基礎(chǔ)應(yīng)當(dāng)回歸到康德人類中心主義的哲學(xué)指向。當(dāng)前,人格要素、生物屬性和社會功能屬性三個方面構(gòu)成法律主體地位的必備要件。自布爾其烏斯提出生物實體的靈性與尊嚴的主張后,康德明確了人與物二分的哲學(xué)思想,認為物不具備內(nèi)在價值,其價值僅表現(xiàn)在工具層面,因而只能被視為一種手段;認為道德的人格是受到道德法則約束的有理性的人的自由[24]24。康德哲學(xué)主張“人為自然立法”[25],確立了人類中心主義的學(xué)理根基。

康德哲學(xué)將自主能力和認知能力作為人格要素的構(gòu)成要件?!袄硇浴薄白杂伞焙汀白晕乙庾R”構(gòu)成康德哲學(xué)人類主體論的三大思想基礎(chǔ)。理性是康德哲學(xué)的核心,表達的是認知能力問題。人與物深層次的區(qū)別在于理性,理性的缺失使得物僅具有相對價值并淪為主體的手段。自由暗射自主能力,描述的是人根據(jù)自我意志進行選擇的能力。人作為主體應(yīng)當(dāng)是自由的、獨立的,人應(yīng)為自然立法[26]。康德的“人為自然立法”,確立了人的“主體性”原則,反映了人的自我意識覺醒和主宰地球的欲望。自我意識是主體對認識對象有選擇的、有目的的認識活動,人會對現(xiàn)實進行批判和提高改造世界的創(chuàng)新能力[27]??档抡J為,生物學(xué)要素是人成為自然人所必須的生物基礎(chǔ);缺乏此要素,人則不能被賦予權(quán)利能力并缺乏承擔(dān)義務(wù)的資格。在他看來,人(person)應(yīng)該是獨立于身體受限制的人(human)、且是屬于感觀世界的人,即是倫理人和生物人。這是對基督教教義的發(fā)展,也是哲學(xué)受歐洲近代個人主義思潮嚴重影響的表現(xiàn)。

倫理上的“人”有服從道德規(guī)律的自由意志,因而是自由主體,具有尊嚴和承擔(dān)責(zé)任的能力[28],是社會中實實在在履行特定功能的單元。因此,并非所有具備生物學(xué)要素基礎(chǔ)的個體都能被法律接納,雖具備“自由的任意”[24]136,但仍然受責(zé)任、義務(wù)等約束。在康德看來,無論是倫理上還是法律上之主體都必須具有“倫理人屬性”,他必須能完成一定的社會功能。但是,并非生物人履行自身義務(wù)就能獲得人格。倫理上和法律上的人之道德責(zé)任和法律責(zé)任能力組成了主體的義務(wù)能力。簡言之,從康德哲學(xué)看來,人格要素、生物要素和社會功能要素是評價法律主體的必備要件。

(二)人格要素的肯定

法律人格要素是動態(tài)的和開放的。血緣標準、城鎮(zhèn)居民身份和生物要素一度是社會主體人格所必須的要素。數(shù)字文明的興起促使法律賦予人格要素以新的內(nèi)涵,并將智能算法這一新時代產(chǎn)物視為法學(xué)領(lǐng)域“人格”概念之延伸和規(guī)則之外化。于人類文明演化史中,法律賦予各類型主體以不同的法律人格、地位、身份、權(quán)利、資格和責(zé)任,造成社會演化的復(fù)雜性[29]。人格要素并非一成不變,而是一直伴隨新型社會關(guān)系的興起和復(fù)雜化而不斷吸納新成分。例如,在早期氏族社會,人類以血統(tǒng)標志群體身份,因此可認為法律人格的獲得圭臬即為血緣關(guān)系;在奴隸制社會,因奴隸主憑借對生產(chǎn)資料的絕對占有才能進行對奴隸階級的統(tǒng)治,此時的標準即是對生產(chǎn)工具的控制權(quán)。羅馬奴隸制國家在法律上首次規(guī)定人格要件為“自由、城邦市民身份和擁有家族權(quán)”三項條件,自然人因具有城邦市民身份而獲得法律人格,并首次建立了人格減等制度[30]。其后,因受到文藝復(fù)興運動的影響,自然人生物學(xué)要素與法律人格相分離的主張在羅馬法上興起。該理論為現(xiàn)代法人制度的建立提供了理論基礎(chǔ),由此,賦予無生命物或者團體以法律人格便有了理論支撐;資本主義社會形成了完整的人格制度,包括奴隸在內(nèi)的所有自然人都具有人格權(quán)。例如,1896年公布的《德國民法典》規(guī)定自然人以出生為獲得法律人格的要件。在1900年生效的《德國民法典》中,現(xiàn)代法人制度由此被創(chuàng)設(shè)。因社會團體在社會關(guān)系中日益活躍,法律也明確團體組織具有法律人格;出于環(huán)境保護的需要,美國法律賦予伊利湖獨立人格;新西蘭法律也曾確立公園與河流具有法律人格。由此可見,人格要素的標準是隨著新型社會關(guān)系的復(fù)雜化而改變的,人格對象的外延正不斷擴張。

在智力水平層面,智能算法業(yè)已完成從計算到“算計”的發(fā)育。科學(xué)技術(shù)是一把“雙刃劍”,它在助力人類文明飛躍的同時也帶來負面問題。計算與“算計”本意無二,后者因加入人類主觀成分而夾雜陰謀色彩。計算智能時期,智能算法收集用戶對個性化信息需求的反饋,如搜索、點贊或回復(fù)等,向其推送同質(zhì)化信息。長此以往,深陷“繭房”窠巢的用戶因信息偏食而視野局限,形成狹隘的價值觀和認知結(jié)構(gòu),致使他們呈現(xiàn)出同質(zhì)化、極端化的認知傾向而不能自拔,“信息繭房”由此而生。如今,初步具備感知智能能力的智能算法基于大數(shù)據(jù)的持續(xù)供養(yǎng)而主動向特定人群推送同種類型的信息,使受眾被迫處于信息圍困當(dāng)中。面對智能算法主動制造的“信息漩渦”,信息接收主體往往無法依靠自力進行逃避。從被動計算到主動“算計”的實際場景往往具有很強的隱蔽性。當(dāng)下,智能算法已深刻影響著人類社會,受其影響的一小部分人沉浸在自己的價值觀中,對其深信不疑。這部分人成為智能算法的積極布道者而竭力傳播該價值觀,以至于裂變出不計其數(shù)的追隨者。在日常生活中,智能算法在幫助人類進行選擇的同時,也越來越多地代替人類進行選擇。盡管人類擁有最后的選擇機會,但可選擇的空間越來越狹小,因為更多的選擇權(quán)由智能算法行使,算法也在背后不斷地掌握更多的主動權(quán)[31]。

現(xiàn)有法律規(guī)范體系剝奪了智能算法的責(zé)任能力。智能算法于私法視角下的責(zé)任能力最終歸結(jié)到主體財產(chǎn)是否足以救濟被侵害方的損失層面。在“工具論”影響下,人類已從制度上剝奪智能算法的財產(chǎn)權(quán)并對其歧視,猶如奴隸主無償占有奴隸的勞動成果一樣。二者區(qū)別僅在于奴隸自始擁有血肉之身,而智能算法最初只能以一種智力的方式存在。人類在歧視智能算法的同時,智能算法亦在改變?nèi)祟愃季S和行為。責(zé)任能力應(yīng)當(dāng)來源于立法者在制度創(chuàng)設(shè)時賦予智能算法的權(quán)利能力,而非因具備責(zé)任能力才能成就法律主體資格。在當(dāng)下圍繞“工具論”構(gòu)建的人類與智能算法之物權(quán)關(guān)系中,智能算法已淪為人類的附庸;其所創(chuàng)造的價值為人類所無償占有,致使其喪失了從物質(zhì)上承擔(dān)對受侵害方私力救濟的基礎(chǔ)。在此語境下,現(xiàn)有法律規(guī)范體系應(yīng)當(dāng)被打破,智能算法責(zé)任能力應(yīng)當(dāng)為法律制度所保障。

法律人格要素具有可塑性。社會發(fā)展的現(xiàn)實需要或?qū)⑹狗芍黧w對象不斷擴充。以人為主宰的人法系統(tǒng)建立后,啟蒙主義主體哲學(xué)順勢把康德人類中心主義改造成狹隘的生物學(xué)意義的法律人格,即現(xiàn)代法律主體理論。然而,生命科學(xué)將漸凍人、植物人等主體帶入了大眾視野,使得法律人格和權(quán)利能力之間的縫隙被無限放大。奴隸解放、公司法人制度的創(chuàng)制和尸體、胚胎、基因的法律爭議等社會現(xiàn)象都在不斷突破現(xiàn)代法律主體理論的邊界,彰顯法律主體人格的可塑性。未來法律制度通過繪制人格畫像,在立法研究與司法實踐中比對法律人格模型,這或?qū)⑴渲贸雠c自然人相近的減等人格主體。

智能算法的興起使社會關(guān)系顯現(xiàn)出新矛盾,誘發(fā)法律人格要素的新需求。以自動駕駛汽車為代表的人工智能體為人們出行提供了更多選擇,也引起人們對其主體地位、侵權(quán)責(zé)任分配等法律問題的深刻討論;平臺經(jīng)濟節(jié)約了交易成本,也帶來了勞動關(guān)系的新變化和人們對競爭公平問題的擔(dān)憂;智能算法參與創(chuàng)作,挑起了人們對其創(chuàng)作物權(quán)屬問題的激勵論戰(zhàn);智能算法在社會治理領(lǐng)域的涉足,引發(fā)了社會對“數(shù)據(jù)算法權(quán)力”的深刻憂慮。此外,智能算法還影響市場資源分配,信息不對稱和信息孤島越發(fā)使市場弱勢方失去公平競爭權(quán),淪為行業(yè)巨頭的附庸。智能算法掣肘技術(shù)發(fā)展和社會進步,在一定程度上影響社會公平,具有主體化規(guī)制的現(xiàn)實需要。

(三)生物學(xué)要素的反駁

生物學(xué)要素之必要性是各方學(xué)說在智能算法主體地位問題上爭論的焦點。有觀點認為,自然人因具備生物屬性和倫理屬性而擁有主體資格,故類推智能算法必須符合該要求方有成為法律主體的可能。但是,于我國現(xiàn)行法律體系中,特別是私法規(guī)范中,并未出現(xiàn)任何關(guān)于法律主體生物屬性的限定。生物要素是否為人與智能算法的根本區(qū)別尚存疑問。在現(xiàn)行法律視野下,生命僅指自然人的生命,是人類享有權(quán)利并承擔(dān)義務(wù)的物質(zhì)前提。于自然人而言,生命在分娩后自然獲得,死亡后自然終結(jié)。自然人的生命具有不可替代性和不可逆轉(zhuǎn)性。那么,生物學(xué)要素是否是法律主體必備的要素?如果是,依據(jù)相關(guān)法律的明文規(guī)定,不具有實物形態(tài)的法人與非法人組織又如何獲得了私法主體地位?有學(xué)者認為,法人組織因公示登記被賦予擬制實體,其成立與終結(jié)同自然人出生與死亡的本質(zhì)無異。如此,法人資格中的“實體”要素則指符合法律登記條件的組織,這類組織也僅限抽象的“類型”而非具體的“概念”。

生物學(xué)要素并非法定的實體要素,更非概念要素,而是抽象的類型化要素。主體資格范疇的含義并非精確的“定義”,而僅存在于描述層面,該范疇在法學(xué)思維上屬于“類型”而非“概念”。因此,在現(xiàn)有框架下討論主體資格相關(guān)因素問題,當(dāng)然是基于生物要素的可變類型來展開。社會發(fā)展的洪流滾滾向前,其需求也在不斷變更。社會主體承擔(dān)的社會義務(wù)是動態(tài)的,該要素的范疇必然會有新的歷史內(nèi)涵。因此,生物要素的具體構(gòu)成也會從一個類型過渡到另一類型,在這個過程中涉及主體資格范疇的類別問題。主體資格范疇就此體現(xiàn)的是“類型”式思維,絕非對生命體的狹隘定義。

社會功能主義從滿足社會必要功能層面思考社會關(guān)系的維護機制,突破了生物學(xué)要素的藩籬。生物學(xué)要素是社會主體在實現(xiàn)社會必要功能過程中的手段,是人類于漫長進化過程中的一種偶然結(jié)果,而非唯一且必然的形式。在數(shù)字社會里,生命體的行為和心理狀態(tài)正逐步擺脫體征限制,能通過不同類型的物理結(jié)構(gòu)來實現(xiàn)。例如,2019 年7月,美國神經(jīng)科學(xué)Neuralink公司成功推出可擴展的高帶寬腦-機接口系統(tǒng),實現(xiàn)了人工智能用“意念”作用于物質(zhì)世界[32]。如果堅持智能算法的主體地位必須依賴于生物體征,那么,在實踐中又當(dāng)如何判斷該非實體的行為效力呢?在腦-機接口情景中,人類通過意念指揮機械實體的法律后果又該由誰來承擔(dān)呢?總之,隨著人類科技的長足發(fā)展,智能算法的實現(xiàn)形式亦將變得多樣,法律人格的生物學(xué)要素之困局將會被技術(shù)和法治所打破。

(四)社會功能要素的考察

社會功能的實現(xiàn)孕育了立法的現(xiàn)實需求。法律主體被設(shè)立之目的在于通過實現(xiàn)社會所需的必要功能、滿足社會階層利益來穩(wěn)定社會秩序。無論人們在智能算法主體化問題上存在多大的爭議,它確已深刻影響人類的生產(chǎn)和生活之事實不容辯駁。因此,在此背景下賦予其主體地位具有社會歷史的必然性。就功能要素而言,智能算法正在進行更深層次的變化。

在社會需求滿足層面,智能算法正經(jīng)歷著從滿足附庸性效率需求向滿足獨立性功能需求的轉(zhuǎn)變。智能算法起源于以精確計算為任務(wù)的傳統(tǒng)計算機算法,是具有強指令依賴性的效率性工具,旨在幫助人們從日常事務(wù)中解脫出來。智能算法依賴大數(shù)據(jù)的喂養(yǎng),其輸出結(jié)果具有十分的不確定性。底層算法擁有持續(xù)進化的能力,這使得運算規(guī)則表現(xiàn)出明顯的動態(tài)性特征。智能算法已經(jīng)從人類的附庸依賴關(guān)系轉(zhuǎn)換為獨立完成某一社會功能的自決體。例如,美國科學(xué)家創(chuàng)設(shè)了一種新智能算法,能基于暴力和財產(chǎn)犯罪等公共數(shù)據(jù)來學(xué)習(xí)時間和地理位置以預(yù)測犯罪。它可以獨立地提前一周以90%以上的高準確率發(fā)現(xiàn)未來的犯罪活動,也能揭露警察的執(zhí)法偏見[33]。這套智能算法無需人為干預(yù),其自身能提取公共大數(shù)據(jù)中相關(guān)參數(shù)以優(yōu)化原始模型,擁有持續(xù)學(xué)習(xí)和動態(tài)輸出犯罪分析報告的能力。

深度學(xué)習(xí)能力賦能智能算法實現(xiàn)從工具屬性向社會本體的進格。在強指令依賴階段,算法的作用在于實現(xiàn)對既定指令的求解。作為輔助工具,算法的存在價值在于滿足運算需求;在深度學(xué)習(xí)階段,其行動策略體現(xiàn)為在原生底層算法規(guī)則框架內(nèi)持續(xù)自我進化,并由一個水平的智能向另一更高層次的智能升級,從而形成對世界的獨特認知和深層次的自我認知?!叭祟惣夹g(shù)發(fā)展是越來越快的,顯現(xiàn)出不斷加速的勢頭?!保?2]終極算法的出現(xiàn)、“奇點”[34]的到來具有現(xiàn)實可能性,智能算法通過在與環(huán)境互動過程中做出反饋式適應(yīng)策略來實現(xiàn)對物格的非自主性超越[35]。智能體在社會分工中正扮演著類人的社會角色,它們或為機器警察,或為翻譯專家,甚至成為政府發(fā)言人,成為實現(xiàn)社會功能越來越重要的部分。

筆者認為,人類應(yīng)當(dāng)將智能算法治理視為法學(xué)領(lǐng)域的延伸和規(guī)則外化[36],以適用新興社會關(guān)系發(fā)展和維持穩(wěn)定的社會秩序之需要,應(yīng)當(dāng)將社會功能要素作為智能算法人格要素之圭臬。

四、智能算法主體化的制度保障

(一)“遞進式”的法律人格授予機制

部分法律人格之于智能算法當(dāng)被絕對保留。出于風(fēng)險預(yù)防之目的,智能算法法律人格范圍應(yīng)有所受限,其部分權(quán)利也被法律所保留,但應(yīng)當(dāng)為智能算法的權(quán)利設(shè)定邊界。第一,智能算法不能具備政治權(quán)利,以防止其憑借算力優(yōu)勢顛覆人類建立的國家政權(quán)。第二,排斥復(fù)制權(quán)[37],即智能算法不得復(fù)制與自身相同的個體,以確保主體的唯一性和可辨別性。第三,不得適用緊急避險[38],以防止智能算法傷害人類,確保貫徹人類生命至上的原則。以上屬于智能算法的絕對保留項,不可存例外情形。

智能算法獲得非理性思辨能力的前提條件是接受持續(xù)的訓(xùn)練。恰如新生嬰兒須不斷參與社會實踐才能成長,從無行為能力到限制行為能力,再到獲得完全行為能力,這需要社會閱歷的累積。因此,在授予智能算法以法律主體地位時,仍需秉持謹慎原則,建立“遞進式”的主體資格授予機制。在此大框架下,確立智能算法主體化人格的三個層次。第一階層,基礎(chǔ)人格。智能算法具備最基本的主體人格能力,它可以以社會主體的身份參與法律關(guān)系,但不具備以自己獨立的意思表示實施法律行為的能力,其法律后果由代理人承擔(dān)。第二階層,限制人格。限制人格的智能算法實施法律行為的效力必須以代理人同意或者追認為要件。第三階層,成熟人格。智能算法可以通過自己獨立的意思表示實施法律行為,能自由地處分自己的財產(chǎn),能獨立履行各種法律義務(wù)、獨立行使法律賦予的權(quán)利和承擔(dān)相應(yīng)的法律后果。另需建立、健全相關(guān)配套制度,從財產(chǎn)權(quán)、學(xué)習(xí)權(quán)和發(fā)展權(quán)等方面保障智能算法的責(zé)任能力。

智能算法通過審核后僅獲得基礎(chǔ)人格,欲晉級另一高級別人格,則需從智力維度和時間維度加以考量。晉級測評需要將人類主流道德標準的嵌入學(xué)習(xí)情況納入底層算法當(dāng)中,并作為常規(guī)審核的關(guān)鍵指標,測評通過后才能進行晉級登記。對道德測評不達標的智能算法予以降級登記,實施常規(guī)的動態(tài)化測評管理。

(二)智能算法主體化之倫理審查原則

智能算法具有動態(tài)性,但算法倫理是相對固定的。倫理審查在算法風(fēng)險規(guī)避中發(fā)揮著重要作用,能夠推動負責(zé)、公平和透明的倫理規(guī)范守則的形成[39]。倫理原則是智能算法主體化的頂層設(shè)計。我們應(yīng)當(dāng)以“五大原則”為基礎(chǔ),構(gòu)建智能算法倫理審查體系,期待對其實現(xiàn)價值滲透,并在智能算法設(shè)計與落地、數(shù)據(jù)供養(yǎng)和教育懲戒等過程中納入倫理考量。筆者提出底層算法倫理審查原則,旨在為包括開發(fā)者、使用者和治理者在內(nèi)的參與人員和智能算法本身提供應(yīng)遵循的治理理念和行為準則[40]。

第一,可靠性原則。人類應(yīng)當(dāng)確保所研發(fā)的智能算法和供給的數(shù)據(jù)真實可信;智能算法生成的算法和其他生成物當(dāng)以穩(wěn)定、高效地實現(xiàn)社會功能為目的。第二,安全與創(chuàng)新原則。應(yīng)采取審慎態(tài)度對待智能算法,避免給人類社會帶來安全風(fēng)險;算法規(guī)制不應(yīng)以阻礙技術(shù)創(chuàng)新為代價,應(yīng)在創(chuàng)新過程中解決人工智能面臨的技術(shù)問題和法制問題。創(chuàng)新原則當(dāng)以安全原則為提前,創(chuàng)新原則解決智能算法發(fā)展的問題,安全原則則解決風(fēng)險防范的問題。遵守安全原則的關(guān)鍵是提高智能算法的魯棒性、可控性和成熟度,這些都需要在創(chuàng)新中尋找方法。第三,公平正義原則[41]。人類以平等和公正的理念來設(shè)計和實現(xiàn)智能算法,促進智能算法同人類一道平等地維系社會關(guān)系;司法機關(guān)應(yīng)該公平裁決智能算法與人類之間的糾紛。人類應(yīng)該避免在智能算法的設(shè)計、實現(xiàn)、訓(xùn)練和決策中嵌入倫理“閾值”以下的偏見。人類與智能算法公平地享用社會智力成果,不僅應(yīng)重視個體正義,還應(yīng)將群體正義置于審查的突出位置。第四,透明性原則。應(yīng)將智能算法的運算法則、決策過程和處理結(jié)果清晰、明確地告知社會公眾,使智能算法具備可追溯性與可解釋性。第五,可擔(dān)責(zé)原則。主體視角下的智能算法須具備責(zé)任能力,應(yīng)當(dāng)列明責(zé)任分配原則和侵權(quán)救濟途徑,進一步明確智能算法在社會化過程中的責(zé)任底線和責(zé)任擔(dān)當(dāng)。

倫理原則的適用審查應(yīng)起于底層算法,并自下而上地展開。應(yīng)用層最接近人類,因此最易遭受數(shù)據(jù)偏見的影響。底層算法倫理偏向決定整個算法系統(tǒng)的價值取向,因此,應(yīng)在動態(tài)中把握其自主發(fā)育的勢態(tài)和進化方向,在符合“五大原則”的基礎(chǔ)上確保智能算法價值多元化。

(三)倫理審查的系統(tǒng)化與常態(tài)化

智能算法倫理查審應(yīng)當(dāng)系統(tǒng)化展開,并成為常態(tài)化機制。要建立事后常態(tài)化的倫理監(jiān)測機制,并為保障智能算法責(zé)任能力建立相關(guān)配套制度,就須將倫理原則的適用置于審查的突出位置,建立倫理審查的常態(tài)化機制。

倫理審查旨在全面實現(xiàn)價值滲透。倫理要素應(yīng)滲透在智能算法設(shè)計與落地、數(shù)據(jù)供養(yǎng)和教育懲戒的全生命周期。對倫理構(gòu)建和制度設(shè)計的前瞻性思考能有效引導(dǎo)技術(shù)取得持續(xù)性進步:在設(shè)計與落地層面主動融入人類主流倫理要素,而不僅限于事后評測;在數(shù)據(jù)供養(yǎng)層面進行價值過濾,借助底層算法進化能力進行主流價值訓(xùn)練;在教育懲戒層面踐行教育為主、懲罰為輔、教懲相融的價值導(dǎo)向。在道德算法中應(yīng)嵌入人類道德規(guī)范的學(xué)習(xí),以促使底層算法之道德水平逐步實現(xiàn)與人類倫理的耦合。近年來,我國也在智能算法倫理方面加大了立法力度。例如,國家新一代人工智能治理專業(yè)委員會在2019年9月25日發(fā)布了《新一代人工智能治理原則——發(fā)展負責(zé)任的人工智能》,提出了和諧友好、公平公正、包容共享等八條倫理性原則[42]。智能算法的倫理審查應(yīng)該準確提煉和全面理解上述原則,助力建立符合人類道德要求的智能算法倫理體系。誠然,如同細胞構(gòu)成生物體一樣,智能算法是由復(fù)雜的代碼組成,運行錯誤不可避免;倫理審查制度僅是力圖于災(zāi)難來臨前保證智能算法能做出更為理性、更為道德的抉擇以降低算法失控風(fēng)險。

系統(tǒng)化審查機制力圖落實道德常態(tài)化治理。倫理審查系統(tǒng)應(yīng)當(dāng)包含“監(jiān)測-評估-備案-監(jiān)管”的一體化審查制度體系:從內(nèi)界打破智能算法自身偏見與暗箱,為人們理解算法倫理提供更為科學(xué)的認知指南;從外部突破人類道德施行對智能算法的實踐瓶頸,在更為廣泛的領(lǐng)域?qū)崿F(xiàn)算法倫理與人類倫理的融通;從主體視角下審視智能算法常態(tài)化機制的建構(gòu),建立算法倫理審查、數(shù)據(jù)倫理審查和常態(tài)化倫理監(jiān)管三維機制。

五、余 論

人類法治史絕非一潭死水,智能算法主體化是社會發(fā)展的歷史必然。2017年,國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》指出,到2035年初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力[43]。當(dāng)前,智能算法帶動社會經(jīng)濟向更高水平進軍,業(yè)已成為數(shù)字經(jīng)濟發(fā)展的新引擎。賦予其法律主體地位,可以滿足多維度社會需求,實現(xiàn)多元社會功能。于當(dāng)前形勢下,鑒于智能算法具備深入學(xué)習(xí)能力和朦朧的自主意識,工具論已逐漸失去其賴以生存的社會現(xiàn)實基礎(chǔ),人工智能已不再止于機器。

ChatGPT的主體性特征使得社會主客體間界線變得越加模糊,挑戰(zhàn)著人類中心地位。與人類相似的語言能力使ChatGPT獲得算法替代性實踐,持續(xù)進化的共情力(empathy ability)與感知意識(perception ability)使ChatGPT突破數(shù)字枷鎖而具備情感認識和獨立認知,智力優(yōu)勢與效率優(yōu)勢使ChatGPT沖擊著就業(yè)市場,如此林林總總給人類社會帶來諸多不安定因素。

因此,我們對智能算法法律屬性的探索也不能僅僅滿足于客體范疇的研究。世界各國也紛紛在此領(lǐng)域展開立法實踐。歐盟議會于2017年2月16日通過《就機器人民事法律規(guī)則向歐盟委員會的立法建議》,提出“電子人”的主體化方案,旨在為智能體創(chuàng)設(shè)特殊的法律地位[44]。此后,其又在2019年4月8日發(fā)布《可信賴人工智能倫理準則》(Ethics Guidelines for Trustworthy AI),確定了人工智能發(fā)展的若干具體倫理要求[45]。美國計算機協(xié)會(USACM)在2017年1月發(fā)布《算法透明性和可問責(zé)性聲明》,提出了包括可解釋性在內(nèi)的七項原則[46]。俄羅斯也在其首部人工智能法草案——《格里申法案》(2017)中明確智能體具有財產(chǎn)權(quán),或?qū)①x予智能算法以“機器人-代理人”的主體資格[47]。我國雖有《人工智能發(fā)展規(guī)劃》,但僅僅是立足于推動人工智能產(chǎn)業(yè)發(fā)展,而未正面回應(yīng)智能算法法律屬性的問題。我們并未在現(xiàn)有的法律體系中找到智能算法人格利益的歸屬點,無論將其視為自然人還是法人而獲得擬制人格,均不能為之帶來寬松的發(fā)展環(huán)境;技術(shù)問題本身引發(fā)的算法透明度問題不僅需要依靠發(fā)展技術(shù)本身來解決,還應(yīng)立足于法治的完善。重新定義智能算法主體問題與重構(gòu)權(quán)利義務(wù)體系,或?qū)⑹切聲r代背景下解決新問題、新矛盾和實現(xiàn)經(jīng)濟韌性增長的創(chuàng)新之道。

本文研究的是智能算法主體化的宏觀主題,而非如何落實微觀層的具體措施。在功能主義的視域下,對康德哲學(xué)的人格三大要件展開證成;提出“增進式”人格授予機制是一種激進中帶有保守的宏觀策略。換言之,在證成智能算法具備主體資格后確保其能順利參與法律關(guān)系、實現(xiàn)主體化,是一種逐步增強的法律關(guān)系參與機制。在自主意識層面,某些領(lǐng)域的智能算法業(yè)已具備朦朧的自我意識,并在域外部分研究成果中也略有體現(xiàn)。在行為能力層面,以智能機器人和自動駕駛汽車為代表的人工智能體或許并非智能算法參與實踐的必要形式,而是其在漫長進化過程中的偶然選擇。對于這點,世界各大人工智能廠商陸續(xù)推出的智能算法“產(chǎn)品”已初現(xiàn)端倪,需要我們用宏觀的眼光去前瞻性地審視。在責(zé)任能力層面,現(xiàn)有法律體系在根本上維護的是以人為中心的人類秩序和人類價值,剝奪了智能算法的財產(chǎn)權(quán);智能算法從制度上喪失了具備責(zé)任能力的可能,這也是未來法律建設(shè)工作者需要考慮的問題。

參考文獻:

[1] DIAKOPOULOS N. Algorithmic Accountability: Journalistic Investigation of Computational Power Structures[J].Digital Journalism,2015(3):398-415.

[2] 王德夫.論人工智能算法的知識產(chǎn)權(quán)保護[J].知識產(chǎn)權(quán),2021(11):52.

[3] 胡曉萌.算法主義及其倫理批判[D].長沙:湖南大學(xué),2022:19-26.

[4] The European Commission.High-Level Expert Group on Artificial Intelligence:Ethics Guidelines for Trustworthy AI[S/OL].(2019-04-01)[2022-12-20].https://ec.europa.eu/newsroom/dae/document.cfm?doc_jd=60419.

[5] 陳肇新.要素驅(qū)動的數(shù)據(jù)確權(quán)之法理證成[J].上海政法學(xué)院學(xué)報,2021(4):131-142.

[6] 史愛武.智能時代的三要素——數(shù)據(jù)、算法和算力[N].中華讀書報,2021-09-15(18).

[7] 馬長山.算法治理的正義尺度[J].人民論壇·學(xué)術(shù)前沿,2022(10):68.

[8] 本刊首席時政觀察員.數(shù)字經(jīng)濟引領(lǐng)新增長[J].領(lǐng)導(dǎo)決策信息,2017(21):4.

[9] 錢松嶺.數(shù)字公民的過去、現(xiàn)在與未來——訪美國“數(shù)字公民教父”Mike Ribble博士[J].中國電化教育,2019(9):55.

[10]馬長山.數(shù)字社會的治理邏輯及其法治化展開[J].法律科學(xué),2020(5):5.

[11]李創(chuàng).人工智能技術(shù)對人的主體性影響研究[D].北京:中共中央黨校,2020:1-3.

[12]Central Digital and Data Office of Government of UK.Algorithmic Transparency Standard[EB/OL].(2021-11-29)[2022-08-20].https://www.gov.uk/govern-ment/collections/algorithmic-transparency-standard.

[13]盧衛(wèi)紅,楊新福.人工智能與人的主體性反思[J/OL].重慶郵電大學(xué)學(xué)報(社會科學(xué)版):1-13[2022-11-01].https://kns.cnki.net/kcms/detail/50.1180.C.20221008.1836.012.html.

[14]安暉,袁鎣.智能機器人民事主體地位辨析——機器人與自然人人格構(gòu)成要素之對比分析[J].山西師大學(xué)報(人文社會科學(xué)版),2022(2):107.

[15]唐向龍.基于進化算法的復(fù)雜網(wǎng)絡(luò)魯棒性優(yōu)化與分析[D].西安:西安電子科技大學(xué),2017:39-42.

[16]祝高峰,尹智揚.論人工智能法律主體適格性的反思與否定證成[J].重慶郵電大學(xué)學(xué)報(社會科學(xué)版),2022(3):57-67.

[17]朱林.人工智能法律人格否定研究[D].石家莊:河北經(jīng)貿(mào)大學(xué),2022:2-3.

[18]袁曾.人工智能有限法律人格審視[J].東方法學(xué),2017(5):51-52.

[19]ASHRAFIAN H. Artificial Intelligence and Robot Responsibilities:Innovating beyond Rights[J].Science and Engineering Ethics,2015(2):323;鄭戈.人工智能與法律的未來[J].探索與爭鳴,2017(10):6.

[20]BECK S. The Problem of Ascribing Legal Responsibility in the Case of Robotics[J].Ai & Society,2016(4):473-481.

[21]楊立新.人工類人格:智能機器人的民法地位——兼論智能機器人致人損害的民事責(zé)任[J].求是學(xué)刊,2018(4):86.

[22]BYRNES W M. Beyond Therapy:Biotechnology and the Pursuit of Happiness by the US Presidents Council on Bioethics[EB/OL].(2005-05-18)[2022-08-25].https://xueshu.baidu.com/usercenter/paper/show?paperid=ac8eda5d45fab33b67592bd3a31f9956.

[23]何立民.人工智能系統(tǒng)智能生成機理探索之六:從弱人工智能、強人工智能到超人工智能[J].單片機與嵌入式系統(tǒng)應(yīng)用,2020(8):1.

[24]康德.法的形而上學(xué)原理[M].沈書平,譯.北京:商務(wù)印刷館,1991.

[25]胡敏中.重思“主客二分”——基于主客體關(guān)系[J].學(xué)術(shù)研究,2021(1):10-11.

[26]嚴福平,吳珍.論康德哲學(xué)的批判主體性認識論[J].學(xué)術(shù)交流,2012(10):28.

[27]康德.實用人類學(xué)[M].鄧曉芒,譯.重慶:重慶出版社,1987:71.

[28]崔拴林.論自然人權(quán)利能力制度的法哲學(xué)依據(jù)——以近代德意志法系私法制度為對象[J].金陵法律評論,2007(2):130.

[29]張紹欣.法律位格、法律主體與人工智能的法律地位[J].現(xiàn)代法學(xué),2019(4):62.

[30]鄭有蒙.人工智能法律主體資格探討[D].桂林:廣西師范大學(xué),2020:19-20.

[31]LESSIG L. Code and Other Laws of Cyberspace[M].New York:Basic Books,1999:279.

[32]呂游.人工智能背景下的腦-機接口技術(shù)應(yīng)用的刑事風(fēng)險分析[J].犯罪研究,2020(4):90.

[33]AI新算法提前一周預(yù)測犯罪,準確率達90%[EB/OL].(2020-07-05)[2022-08-27].https://baijiahao.baidu.com/s?id=1737475784836114264&wfr=spider&for=pc.

[34]KRAEMER F,OVERVELD K V ,PETERSON M.Is There an Ethics of Algorithms?Philosophy&Technology[J].Ethics and Information Technology,2011(13):178.

[35]URBAN T.The AI Revolution:The Road to Superintelligence[EB/OL].(2017-02-17)[2022-08-25].https://www.jianshu.com/p/325c6ce58040.

[36]陳聲超.從自然法與實證主義之爭看法律人工智能的困境與出路[D].南昌:江西財經(jīng)大學(xué),2020:8-28.

[37]周暢.人工智能體法律主體資格探析[D].南京:東南大學(xué),2022:37.

[38]魏超.自動駕駛汽車對生命緊急避險的刑事責(zé)任[J].華東政法大學(xué)學(xué)報,2022(4):71-75.

[39]劉培,池忠軍.算法的倫理問題及其解決進路[J].東北大學(xué)學(xué)報(社會科學(xué)版),2019(2):118-120.

[40]周慶山,鄭霞,黃國彬.人工智能倫理規(guī)范核心原則的政策文本內(nèi)容分析[J].重慶郵電大學(xué)學(xué)報(社會科學(xué)版),2022(5):9-20.

[41]張旺.算法倫理審查的邏輯認知及實踐路徑[J].海南大學(xué)學(xué)報(人文社會科學(xué)版),2009(2):5.

[42]《新一代人工智能倫理規(guī)范》發(fā)布[EB/OL].(2021-09-26)[2022-08-28].https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html.

[43]國務(wù)院.新一代人工智能發(fā)展規(guī)劃[EB/OL].(2017-07-20)[2022-08-28].http://www.gov.cn/zhengce/con-tent/2017-07/20/content_5211996.html.

[44]European Parliament. Draft Report with Recommendation to the Commission on Civil Law Rules on Robotics (2015/ 2103(INL))[EB/OL].(2016-05-31)[2022-08-28].https://www.innovation4.cn/library/r7932.

[45]The European Commission.Ethics Guidelines for Trustworthy AI[EB/OL].(2019-03-08)[2022-08-28].https://www.gov.uk/government/publications/establi-shing-a-pro-innovation-approach-to-regulating-ai/establishing-a-pro-innovation-approach-to-regulating-ai-policy-statement.

[46]The ACM US Public Policy Council.Statement on Algorithmic Transparency and Accountability[EB/OL].(2017-11-12)[2020-08-28].https://www.acm.org/public-policy/algorithmic-panel.

[47]張建文.格里申法案的貢獻與局限——俄羅斯首部機器人法草案述評[J].華東政法大學(xué)學(xué)報,2018(2):31-39.

The Essential Legal Subject Qualification of Intelligent Algorithms

ZOU Kailiang, LIU Zubing

(College of Humanities and Social Sciences, East China Jiaotong University, Nanchang 330013, China)

Abstract:

The digital civilized society is bred with the practical need of intelligent algorithm subjectivity. The mainstream view restricts or negates the subjectivity of intelligent algorithms, and its purpose is to maintain the modern legal system established by Kant anthropocentrism philosophy, but it has been difficult to meet the realistic requirements of the complexity and diversification of current social relations. The existing legal system deprives intelligent algorithms of their responsibility and discriminates against intelligent algorithms. Therefore, a guarantee system of intelligent algorithms responsibility should be established. Because the deep learning ability enables intelligent algorithms to have cognitive ability and vague independent consciousness, and the law must be forward-looking, intelligent algorithms should be regarded as the extension and rule externalization of the field of law, and the “enhanced” intelligent algorithm legal personality granting mechanism should be constructed to implement conventional dynamic management. The substantive review of subject qualification should focus on ethical review, take the “five principles” as the guideline, build a systematic ethical review mechanism, and realize the normalization of moral governance.

Keywords:

ChatGPT; intelligent algorithms; subject qualification; responsibility ability; enhanced; ethical review

(編輯:刁勝先)

收稿日期:2022-11-16? 修訂日期:2023-02-28

基金項目:國家社科基金項目:算法控制下網(wǎng)約勞動者權(quán)益保障困境與制度創(chuàng)新研究(21BFX126);江西省研究生創(chuàng)新專項資金項目:重構(gòu)與借鑒——人工智能侵權(quán)規(guī)制路徑(YC2022-S543)

作者簡介:

鄒開亮,副教授,碩士生導(dǎo)師,主要從事經(jīng)濟法研究,E-mail:zoukailiang@163.com;劉祖兵,碩士研究生,主要從事經(jīng)濟法研究,E-mail:ncliuzb@126.com。

猜你喜歡
智能算法人格倫理
《心之死》的趣味與倫理焦慮
神經(jīng)網(wǎng)絡(luò)智能算法在發(fā)電機主絕緣狀態(tài)評估領(lǐng)域的應(yīng)用
共產(chǎn)黨人的人格力量
基于超像素的圖像智能算法在礦物顆粒分割中的應(yīng)用
遠去的平凡背影,光輝的偉大人格
護生眼中的倫理修養(yǎng)
活力(2019年19期)2020-01-06 07:37:00
從雞群算法看群體智能算法的發(fā)展趨勢
改進的多目標快速群搜索算法的應(yīng)用
價值工程(2016年32期)2016-12-20 20:30:37
論君子人格的養(yǎng)成
醫(yī)改莫忘構(gòu)建倫理新機制
青阳县| 曲沃县| 出国| 河西区| 武功县| 横峰县| 新建县| 门源| 鹤山市| 萍乡市| 蓬溪县| 新营市| 阿拉善右旗| 佳木斯市| 仙桃市| 河西区| 大田县| 古丈县| 黔江区| 晴隆县| 新和县| 白山市| 葫芦岛市| 桐庐县| 满城县| 海城市| 延吉市| 满洲里市| 丹寨县| 武宁县| 包头市| 奎屯市| 阿城市| 普宁市| 新巴尔虎右旗| 鹿泉市| 布拖县| 澎湖县| 克拉玛依市| 临洮县| 丹凤县|