●于海防
目前,人工智能法律研究的核心在于如何科學、合理地規(guī)制人工智能。學界現(xiàn)階段的研究多針對具體問題,但研究難以協(xié)同,觀點紛紜,動輒否定傳統(tǒng)法。〔1〕現(xiàn)有的相關研究多針對人工智能在勞動、交通、電子商務、醫(yī)療、金融、武器、生物與機器人等領域的具體問題,一般性的基礎研究相對較少,且多圍繞算法、代碼與法律的關系展開。各方在觀點、研究工具、分析邏輯等方面相去甚遠,遠未達成共識。有些研究以猜測代替推導,以想象超越技術發(fā)展,甚至將科幻作品作為支撐論點的論據(jù),進而激進地否定傳統(tǒng)法,其中又以基于強人工智能或人工智能“意識”論證人工智能具有主體資格的研究為典型。而且,人工智能依托于計算機,但現(xiàn)有的人工智能法律研究卻與之前有關計算機、網絡、電子商務的法律研究差別極大?!?〕人工智能法律問題與計算機、網絡、電子商務法律問題存在重合,而且一些問題的形成邏輯差別不大,但許多人工智能法律研究無視已經成型的計算機、網絡、電子商務法律規(guī)制,另起爐灶,重設規(guī)制,其中的典型是意思表示、電子代理與電子合同等問題。在相當程度上,人工智能研究的紛亂現(xiàn)狀源于其法律規(guī)制的基點未得到確立,而這又可歸因于人工智能基礎法律問題研究的不足?!?〕人工智能法律問題復雜性的根源在于,人工智能的目標是替代人類,其背離了以人為中心的傳統(tǒng)法律理念與規(guī)范邏輯。對人工智能基礎問題的回答決定了人工智能法律規(guī)制的基點或者說出發(fā)點。基礎問題研究不足、基點未得到確定,上層具體問題的研究自然會存在紛亂與不足,傳統(tǒng)法頻頻被否定便在情理之中。從技術背景來看,人工智能領域內部仍存巨大分歧,至今尚未形成統(tǒng)一的理論與技術范式,甚至連人工智能概念的內涵與外延都是不確定的,〔4〕對人工智能進行準確定義是非常困難的,我國人工智能科學家蔡自興教授在《人工智能及其應用》(清華大學出版社2016年版)中對人工智能下了4種定義,還列舉了其他科學家所提出的13種定義。符號主義、聯(lián)結主義與行為主義三大人工智能技術范式雖均以創(chuàng)造“智能”為目標,但分別立基于不同的甚至是對立的認知科學與哲學基礎,各有其假設前提,采取不同的技術進路。本文基于人工智能的核心理念與技術共性展開論述,即便不對人工智能進行定義,也不妨礙本文對人工智能基礎問題的研究。致使新興的人工智能法律研究缺乏共認的研究前提,這不利于順利開展對人工智能基礎法律問題的研究。筆者不揣淺陋,在人工智能技術、認知科學、哲學、倫理學、法學等多學科結合的視角下,梳理機器智能兩大技術陣營的理念紛爭及對法律所生影響,并以此為基礎分析人工智能法律問題的根源、癥結與解決思路,進而嘗試確立人工智能法律規(guī)制的兩個核心基點,以解決人工智能因去人類化屬性而與法律產生的根本性沖突,將人工智能法律規(guī)制融入既定法律體系。
計算機、網絡、電子商務與人工智能法律問題的產生均源于數(shù)字化計算機器的應用。計算機、網絡、電子商務法律問題的產生已有三十余年,相關法律規(guī)制基本定型且已融入傳統(tǒng)法律體系,人工智能發(fā)展六十余年,卻于近年才產生法律問題。此外,雖然在技術、領域與應用上存在耦合與重疊,但人工智能法律研究與計算機、網絡、電子商務等法律研究卻相割裂,國內外均是如此。在筆者看來,這種割裂映射了人工智能與智能增強兩大技術陣營在機器智能領域的長久對立。然而,人工智能與智能增強其實具有一定程度上的辯證統(tǒng)一關系,二者在法律問題上也具有這一特點?;厮菔崂磉@兩種機器智能技術的發(fā)展、分歧及對法律的影響,有助于人工智能法律問題的分析與解決,對于厘清人工智能立法與既定法的關系以避免體系齟齬也具有重要意義。
雖然哲學家、科學家與大眾對人工智能的理解存在系統(tǒng)性差異,〔5〕參見梅劍華:《理解與理論:人工智能基礎問題的悲觀與樂觀》,《自然辯證法通訊》2018年第1期。但可以肯定的是,人工智能是一種機器智能,依存于以計算機為代表的數(shù)字化計算機器,而計算機從產生時起便是具有區(qū)別于以往任何機器的、可發(fā)展的機器智能的?!?〕參見周永林、潘云鶴:《從智能模擬到智能工程——論人工智能研究范式的轉變》,《計算機科學》1999年第7期。計算機從第一代發(fā)展到第四代,推動機器智能水平持續(xù)提升,計算機、網絡、虛擬現(xiàn)實、大數(shù)據(jù)、云計算、物聯(lián)網、區(qū)塊鏈、人工智能等數(shù)字計算技術可以在機器智能的宏觀維度上得到統(tǒng)一。〔7〕本文在廣義上使用“機器智能”的概念,指的是包括計算機、人工智能在內的數(shù)字化計算機器所擁有的區(qū)別于其他機器的計算能力、機器能力。計算機器不能通過圖靈測試只是說明其達不到人類的“智能”水平,而非不具有機器智能。計算機器的根本能力在于數(shù)字化自動計算,不論是計算機簡單的自動計算,還是人工智能復雜的自動計算,均是對任務進行的數(shù)字化計算,本質實無差異,均是機器智能的體現(xiàn)。機器智能具有多樣性、發(fā)展性,智能程度也有強弱之分,目前的人工智能擁有的是弱智能,通常的計算機擁有的是極弱智能。各式數(shù)字化計算機器、技術的發(fā)展史就是機器智能的發(fā)展史,反之亦然。擁有機器智能的計算機器的出現(xiàn)改變了自工業(yè)革命以來的人機關系,并使人類與計算機器之間的關系成為人機關系的核心。〔8〕在計算機出現(xiàn)后,無法再簡單地以工具論、奴役論的思想理解人類與機器的關系,人與機器之間出現(xiàn)了依賴、滲透、嵌入等之前未曾有的復雜關系。(參見于雪、王前:《人機關系:基于中國文化的機體哲學分析》,《科學技術哲學研究》2017年第1期。)隨著計算技術的發(fā)展,人機關系成為計算機科學、控制科學、機械科學、工程學、哲學與倫理學等共同的研究對象。人機關系因計算技術的進步、機器智能的提升而不斷發(fā)展、變化,并向人際關系、社會關系傳遞,迫使法律不斷作出調整,在此過程中產生的法律問題可以統(tǒng)稱為機器智能法律問題。機器智能法律問題的實質是數(shù)字化時代的人機關系在法律上的投射,發(fā)軔于計算機,興盛于網絡。近年來,機器智能因人工智能技術的發(fā)展而進一步提升,對人機關系、人際關系、社會關系以及法律的影響更加激烈,所形成的人工智能法律問題系機器智能法律問題的進一步發(fā)展。需要注意的是,在機器智能與人機關系上,在整體上始終存在人工智能的“替代人類”與智能增強的“增強人類”的理念對立,這種對立投射于技術、社會與法律,對計算機、網絡、電子商務等法律問題與人工智能法律問題的形成與解決具有直接影響,但當前的研究對此少有關注。
1950年,圖靈在《計算機器與智能》中分析了基于計算機創(chuàng)造出具有智能的機器(學習機)的可能性,期待“機器能夠在所有純智能領域同人類競爭”?!?〕[英]A.M.圖靈:《計算機器與智能》,《心靈》1950年第10期。轉引自[英]瑪格麗特?A?博登:《人工智能哲學》,劉西瑞、王漢琦譯,上海譯文出版社2006年版,第72頁。1956年,麥卡錫等科學家在達特茅斯會議上提出了“人工智能”(Artificial Intelligence,以下簡稱AI)的概念與設想,這是一種后來被稱為GOFAI(Good Old Fashioned AI)的采取符號主義范式的“老派AI”,通過使用計算機模擬人類智能創(chuàng)造類人機器智能,〔10〕參見徐英瑾:《心智、語言和機器——維特根斯坦哲學和人工智能科學的對話》,人民出版社2013年版,第14頁、第33頁。目的是通過提升機器智能使機器能夠代替人類從事相關活動,而這同樣也是后來被稱為NFAI(New Fangled AI)的采取聯(lián)接主義范式與行為主義范式的“新派AI”的目標?!?1〕至今,GOFAI與NFAI并存,甚至混合集成。在AI內部,對AI是否必須是類人智能有著不同觀點,但以人類智能為藍本實現(xiàn)類人智能更為現(xiàn)實。AI的發(fā)展過程便是機器替代人類的過程,〔12〕從勞動的角度來看,馬克思指出,“機器的生產率是由它代替人類勞動力的程度來衡量的”。(《馬克思恩格斯文集》第5卷,人民出版社2009年版,第449頁。)與前兩次工業(yè)革命以機器替代工人的體力勞動為核心不同,第三次工業(yè)革命的核心是以AI替代人類的腦力勞動。(參見賈根良:《第三次工業(yè)革命與工業(yè)智能化》,《中國社會科學》2016年第6期。)AI的目標始終是達到甚至超越人類智能,發(fā)展AI就是為了制造智能化的機器替代人類從事各種活動。雖然有觀點認為以往因機器替代人類體力勞動而生成大量其他崗位,在AI上也會如此,但是,AI替代的是人類最引以為傲的腦力勞動,目前難以確定可以由此生成大量其他人類崗位。其間牽涉了諸如主客二分還是主客一體、身心二元還是身心一體、非身認知還是具身認知、唯理論還是經驗論、科學主義還是人文主義等復雜問題,長期受到哲學與倫理學的關注。AI從GOFAI發(fā)展到NFAI,現(xiàn)今在替代人類上更進一步,甚至開始替代律師、醫(yī)生等復雜腦力勞動崗位,這導致人機關系發(fā)生了重大變化,催生出一系列的倫理與法律難題。
1962年,恩格爾巴特(Douglas C.Engelbart)提出了“智能增強”(Intelligence Augmentation,以下簡稱IA)的概念與設想?!?3〕恩格爾巴特在1962年的報告《人類智能增強:一個概念性框架》(Augmenting Human Intellect: A Conceptual Framework)中完整表達了“智能增強”的觀念。此前,Ashby在1956年提出了“智能放大”,Licklider在1960年提出了“人機共生”。IA不認同AI通過計算機模擬人類智能、替代人類的理念,認為計算機應用于改善和增強人類的智慧、能力,強調以人為本,主張人機交互、人機共存,〔14〕參見[美]約翰?馬爾科夫:《人工智能簡史》,郭雪譯,浙江人民出版社2017年版,第2頁。這種理念可以追溯到皮爾士(Peirce)的符號學與實用主義哲學。〔15〕See Joseph Ransdell,The Relevance of Peircean Semiotic to Computational Intelligence Augmentation,3 Semiotics,Evolution,Energy,and Development,5(2002),p.18.由于IA遵循主客二分,以人類為中心,〔16〕參見[美]S.巴恩斯:《社會理論和技術創(chuàng)新在人機界面設計中的融合》,《國外社會科學》2001年第1期。因此受到的哲學、倫理學關注遠較AI為少。〔17〕See Peter Skagestad,Thinking with Machines: Intelligence Augmentation,Evolutionary Epistemology,and Semiotic,2 The Journal of Social and Evolutionary Systems 157(1993),p.163.在幾十年間,IA連續(xù)推動了計算機、操作系統(tǒng)、應用軟件、用戶界面的進步,提升了人機交互水平,開發(fā)了超文本系統(tǒng)(至今仍是網絡的根基),推進了阿帕網(因特網的前身)的形成,虛擬現(xiàn)實、智能網絡搜索及電子商務的發(fā)展也與IA有著密切關系,〔18〕IA技術還包括圖像顯示、電話會議、資源共享、編程、軟件工程、自動化、集體智商、增強現(xiàn)實、網絡等用于增強人類能力的技術。“從恩格爾巴特的觀念到現(xiàn)今的技術有著明確的因果鏈條”?!?9〕同前注〔17〕,Peter Skagestad文,第160頁。
AI與IA在替代人類與增強人類上的理念對立導致二者具有不同的技術思想與設計進路:AI以機器為中心,更關心機器本身,會淡化甚至排除人的參與;IA以人為中心,更關心人與機器的互動,會保證人的參與和控制。現(xiàn)今的無人駕駛與輔助自動駕駛的設計差異便呈現(xiàn)出這種差別?!?0〕例如,特斯拉發(fā)展輔助駕駛系統(tǒng)(IA),谷歌則發(fā)展無人駕駛系統(tǒng)(AI)。在前者,人為駕駛員,擁有駕駛決策權。在后者,機器為駕駛員,人基本沒有駕駛決策權。在谷歌的無人駕駛汽車中,甚至連供人使用的油門和剎車都沒有。AI追求的是可以達到甚至超越人類智能的類人機器智能,可以令機器廣泛替代人類。IA追求的是可增強人類甚至與人類協(xié)作的機器智能,這不是類人智能,而是人類智能在機器領域的延展。自20世紀60年代起,AI陣營與IA陣營在理念與研發(fā)上便是對立的。〔21〕參見李真真、齊昆鵬:《人工智能——“以人為本”的設計和創(chuàng)造》,《科技中國》2018年第3期。然而辯證地看,機器智能技術發(fā)展至今,AI與IA既有對立性,也有統(tǒng)一性。在技術上,AI與IA具有一定的共通性,相互促進,〔22〕例如,在IA最為核心的人機交互領域,在交互界面技術從WIMP向Post-WIMP發(fā)展的過程中,AI起到了推動作用,而自然用戶界面IA技術的進步也推動了AI的發(fā)展?!坝嬎銠C技術的發(fā)展正在消解 AI 和 IA 的邊界”,〔23〕同前注〔21〕,李真真、齊昆鵬文。各種技術交融集成,有時甚至難以判斷某項技術究竟是AI還是IA。〔24〕雖然IBM的AI產品“Watson”應用較為廣泛,但是IBM首席執(zhí)行官Ginni Rometty曾在《華爾街日報》發(fā)表文章“The Natural Side of A.I.”指出,“Watson”既不自主,也不能感知,實屬IA。不過,IBM卻在推廣中仍然使用AI的概念。蘋果公司的“Siri”、微軟公司的“Cortana”經常被例舉為AI,“Siri”“Cortana”從軟件助手發(fā)展成為智能助理,雖使用了自然語言處理等AI技術,但主要還是IA人機交互工具。在自動駕駛、大數(shù)據(jù)、云計算、物聯(lián)網與區(qū)塊鏈等領域,AI與IA也經常呈現(xiàn)出這種交融的特點。在理念上,AI雖秉持替代人類,但其在替代人類的同時也在增強人類;〔25〕事實上,包括計算機器在內,人類所創(chuàng)造的絕大多數(shù)機器都是在增強人類的同時替代人類,在替代人類的同時增強人類。例如,汽車的出現(xiàn)增強了人類的運輸能力,但使得人力運輸崗位減少;無人駕駛可能會導致人力運輸崗位全部消失,但將進一步增強人類的運輸能力。再如,目前的AI手術設備替代了部分手術崗位,但這種替代本身便是對人類醫(yī)生的增強。AI對人類崗位的替代規(guī)模與程度可能遠超以往,但若AI無法實現(xiàn)意向性,在整體上無法與人類智能相比擬,那么這種替代便會維持在一定限度之內。IA雖秉持增強人類,但其在增強人類的同時也在替代人類?!?6〕例如,計算機與網絡技術已令打字員、接線員等職業(yè)消失,自動化技術令許多工業(yè)崗位消失,電子商務令大量商業(yè)環(huán)節(jié)、崗位消失。AI與IA在理念與技術上的迥異及辯證統(tǒng)一關系對法律問題的形成與發(fā)展產生了重要影響。
IA融入了計算機技術的發(fā)展,IA法律問題隨著計算機、網絡、電子商務的發(fā)展而逐步顯現(xiàn)。大約在20世紀80年代,個人計算機技術的成熟催生出計算機法律問題,網絡與電子商務在20世紀90年代的興起催生出網絡與電子商務法律問題,大數(shù)據(jù)、云計算與區(qū)塊鏈等技術在21世紀初的發(fā)展也促生出諸多法律問題。這些領域的機器智能均為極弱智能,均奉行增強人類的理念,法律問題的產生邏輯相似,也正是在此意義上這些法律問題可以統(tǒng)歸為IA法律問題(即智能增強法律問題),包括意思表示、電子合同、數(shù)據(jù)、廣告、侵權、虛擬財產、金融、知識產品、不正當競爭、醫(yī)療、消費者保護、大數(shù)據(jù)、云計算、區(qū)塊鏈、物聯(lián)網、電子證據(jù)、網絡管轄與犯罪等各部門法問題。
AI雖然也與計算機技術協(xié)同發(fā)展,但它的目標、方法、進路與計算機技術不同,并高度融合了哲學、神經科學、心理學、工程學等學科,獨立性較強。AI經歷了從符號主義范式到聯(lián)接主義范式、行為主義范式的不斷自我否定的發(fā)展歷程,數(shù)次陷入寒冬期。21世紀之前的AI智能水平較低,應用范圍較為狹窄,對一般意義上的人際關系、社會關系影響極弱,基本未對法律產生影響。在進入21世紀后,隨著網絡、大數(shù)據(jù)、云計算等技術的成熟,AI獲得了新的驅動力,各技術范式得以集成、混合,進一步推升機器智能。尤其是在2012年之后,AI類人智能水平提升迅速,甚至在人類傳統(tǒng)智能優(yōu)勢領域多次擊敗了人類智能,并向各領域滲透,AI開始替代人類崗位,AI法律問題由此而生。目前AI法律問題涉及主體資格、意思表示、電子合同、數(shù)據(jù)、廣告、侵權、金融、知識產品、不正當競爭、醫(yī)療、消費者保護、大數(shù)據(jù)、云計算、區(qū)塊鏈、無人駕駛、機器人、物聯(lián)網、機器決策、犯罪、行政管理、法律服務、司法審判等,與IA法律問題存在大量重合。
AI與IA的對立性具化于計算機技術,顯現(xiàn)于人機關系,傳遞于人際關系與社會關系,以至于AI法律問題有別于IA法律問題。AI法律問題既與IA法律問題存在重合,也包括大量新問題。在重合問題上,由于兩種法律問題系不同理念與技術的具現(xiàn),除部分問題外,AI法律問題通常無法套用IA法律規(guī)制。例如,以AI為主導的全自動無人駕駛與以人為主導的輔助自動駕駛在責任分配上會存在明顯差異,自主機器人侵權問題的解決也明顯不同于通常的計算機、網絡侵權問題。不過,AI與IA的統(tǒng)一性也使得AI法律問題與IA法律問題相互交融。首先,AI法律問題與IA法律問題均因數(shù)字化機器智能的進步而引發(fā)。其次,意思表示、電子合同、數(shù)據(jù)、消費者保護、廣告與不正當競爭等重合問題的形成邏輯通常不與所使用的技術是增強人類還是替代人類相關,在AI之上大致可以使用既定的IA規(guī)制模式?!?7〕以AI意思表示為例,AI意思表示相對于IA意思表示的特殊性主要表現(xiàn)在意思表示可否歸屬于機器之上,事實上網絡法早已解決這一問題(即電子代理問題)。這兩種意思表示在分類、形式、生效時間、生效地點與效力等方面基本無差別。最后,AI與IA混用于各種場景,AI法律問題與IA法律問題在諸多領域具有橋接關系或混同關系,例如大數(shù)據(jù)、云計算、自動駕駛、證券算法交易等法律問題具有AI與IA的雙重屬性。〔28〕大數(shù)據(jù)、云計算本為典型的IA技術,但目前AI技術已經附加其上。在低級別的輔助駕駛與部分自動駕駛中,機器智能用于增強人類,而在高級別的自動駕駛中,機器智能替代了人類,成為無人駕駛。證券算法交易由美國紐約證券交易所于20世紀70年代率先使用,混用AI技術與IA技術,從之前方便人類交易的半自動發(fā)展到現(xiàn)今替代人類交易的全自動。AI法律問題在承繼部分IA法律問題的基礎上進一步發(fā)展,二者既有區(qū)別,又有聯(lián)系,這意味著二者的法律規(guī)制應當具有一定意義上的協(xié)同性?!?9〕例如在個人數(shù)據(jù)保護上,不宜切割不同場景,而應集成網絡、大數(shù)據(jù)、物聯(lián)網、AI等技術以及電子商務、醫(yī)療、生物等不同領域的需求,進行整體性規(guī)定。當然,協(xié)同并非意味著一致。
鑒于AI法律問題具有特殊性、復雜性,并與IA法律問題存在分離與交融,研究AI的法律規(guī)制應首先分析AI法律問題的根源與癥結,進而對AI法律問題進行歸納,在此基礎上分析其解決思路。
雖然AI尚無公認的統(tǒng)一概念、理論與范式,應用繁亂,但從根本上說,AI為替代人類勞動而生,〔30〕參見何云峰:《挑戰(zhàn)與機遇:人工智能對勞動的影響》,《探索與爭鳴》2017年第10期。以替代人類從事活動為目標。〔31〕人工智能創(chuàng)始人紐厄爾與西蒙提出:“我們試圖讓計算機作我們的代理者,能夠獨自處理自然界中的全部偶發(fā)事件?!保勖溃軦?紐厄爾、H?A?西蒙:《作為經驗探索的計算機科學:符號和搜索》,《計算機協(xié)會通訊》1976年第3期。轉引自前注〔9〕, 瑪格麗特?A?博登書,第245頁。法律為人類而設計,以人與人之間的關系為調整對象,而替代人類的AI是(智能)機器,其在決策邏輯、行為模式以及社會性、可預見性等方面與人類有差異,會超出人類經驗或期望的限制,〔32〕See Jonathan Tapson,Google’s Go Victory Shows AI Thinking Can Be Unpredictable,https://phys.org/news/2016-03-googlevictory-ai-unpredictable.html,last visited on May 20,2018.這導致面向人類的法律難以簡單適用于AI。筆者認為,AI法律問題的產生根源便在于AI對人的替代,無人駕駛、智能投顧、作品定性、責任分擔等系列問題的產生均是因AI替代人類實施本來由人類實施的行為,導致原本適用于人類的法律應對困難。
IA法律問題也有諸多疑難,但大多可以通過對傳統(tǒng)理論、既定規(guī)則的解釋與適度修正得以解決。之所以如此是因為IA奉行增強人類的價值取向,機器的設計是為了改善、提高人類能力,在IA式人機關系中,人處于中心地位,人為主體,機器為客體,這契合法律以人為中心的理念與主客二分的觀念,將IA融入法律便不會存在體系性障礙?!?3〕以功能等同法為代表的法律解釋的方法廣泛運用于IA法律規(guī)制,借助于此,IA法律規(guī)制融入了傳統(tǒng)法律體系。然而,在AI替代人類的理念之下,機器會采取獨立于人類的設計,人的因素會被淡化甚至被消除,在AI式人機關系中,機器處于(技術)中心地位,人類甚至要服從于機器作出的決策,這在根本上與法律以人為中心的理念與主客二分的觀念相悖,將AI融入法律便會存在巨大障礙。因此,AI替代人類的理念、以機器為中心的去人類化觀念與法律以人為中心的理念、主客二分的觀念之間的沖突便是AI法律疑難的癥結所在,在未就如何解決這一根本性沖突達成共識、無法確立AI法律規(guī)制的基點時,針對具體問題的研究便會顯得紛亂。
從與IA相區(qū)別的角度而言,各式AI的共性在于貫徹替代人類的理念,在技術上以機器為中心,在應用上以(全部或部分地)替代人類勞動為目標,而這也正是AI法律問題產生的根源。在此基礎上,可以從與IA法律問題相區(qū)別的角度歸納AI的框架性法律問題,以便于探討其整體法律規(guī)制。
首先,AI法律規(guī)制應當遵循何種價值取向,此系其法律規(guī)制的價值基礎。鑒于替代人類的AI與以人為中心的法律在價值理念上存在巨大沖突,AI法律規(guī)制必然伴隨價值取向問題,即AI法律規(guī)制在替代人類與增強人類之間應如何權衡、取舍,是順應AI替代人類的理念與技術,還是予以矯正。
其次,AI可以替代人類,那么應否賦予AI主體資格,此系AI法律規(guī)制的邏輯前提。AI應否擁有主體資格直接決定其法律地位與規(guī)制路徑,也直接影響對AI系列問題的分析邏輯?!?4〕以責任問題為例,若AI不擁有主體資格,則人仍為責任主體,存在通過解釋的方法適用傳統(tǒng)規(guī)則的余地。若AI擁有主體資格,則AI可以成為責任主體,由此將導致大量的傳統(tǒng)責任規(guī)則失去適用的可能,開創(chuàng)出完全不同于既定法的規(guī)制路徑。大多數(shù)AI法律問題都會涉及這一前提性問題。諸多學者基于強人工智能已經或將要產生,甚至超級人工智能將來也會出現(xiàn)的趨勢,動輒提出法律死亡論,否定傳統(tǒng)法,〔35〕參見吳允鋒:《人工智能時代侵財犯罪刑法適用的困境與出路》,《法學》2018年第5期;李俊豐、姚志偉:《論人工智能的法律人格:一種法哲學思考》,《華僑大學學報》(哲學社會科學版)2018年第6期;張玉潔:《論人工智能時代的機器人權利及其風險規(guī)制》,《東方法學》2017年第6期;劉憲權:《人工智能時代的“內憂”“外患”與刑事責任》,《東方法學》2018年第1期;高奇琦、張鵬:《論人工智能對未來法律的多方位挑戰(zhàn)》,《華中科技大學學報》2018年第1期;張長丹:《法律人格理論下人工智能對民事主體理論的影響研究》,《科技與法律》2018年第2期;陳吉棟:《論機器人的法律人格——基于法釋義學的討論》,《上海大學學報》(社會科學版)2018年第3期。在主張AI擁有主體資格的前提下進行制度設計。但事實上,當前的AI技術條件以及哲學、認知科學上的研究卻根本不足以支撐強人工智能必會出現(xiàn)的假設,遑論超級人工智能。
再次,使用AI替代人類從事各種活動是否正當、適法,應遵循何種規(guī)則,此系AI法律規(guī)制的具體手段。AI的適法性問題表現(xiàn)為其安全性、倫理正當性、敏感領域應用準入與使用規(guī)則等問題。例如,AI在武器領域的運用是否應受限制?無人駕駛中的傷害選擇應如何確定?在何種領域可使用AI進行機器決策以及應遵循何種程序?AI使得馬克思?韋伯提出的自動售貨機式的現(xiàn)代法官的設想成為可能,是否允許實現(xiàn)這種可能?對AI適法性問題的回答決定了各領域AI使用規(guī)則的制定。
最后,AI替代人類實施行為而產生的責任如何認定,此系AI法律規(guī)制的最終落實。AI責任問題的難點主要體現(xiàn)在責任主體、歸責與因果關系的認定疑難上。第一,應當如何確定責任主體以及如何劃定多主體間的責任分擔比例?第二,在歸責上,對不同類型的AI、不同應用場景應采取何種歸責原則?若需考慮過錯,如何確定相關主體的注意義務?在判定過錯的有無與大小時,機器能否成為判斷的對象,應在多大程度上考量AI開發(fā)流程、算法、應用方式與外部環(huán)境等因素的影響?第三,AI使得原本極為復雜的因果關系問題變得更為復雜,是該套用還是突破傳統(tǒng)因果關系理論?如何合理切斷過長的因果關系鏈條?在個案中應當如何進行因果關系認定,可否使用AI代替專家輔助人對標的AI進行邏輯回溯?在法律上如何破解AI固有的不可預見性所造成的難題?在行政法、刑法等領域討論AI法律責任時也會遇到類似疑難。
基于對AI法律問題根源與癥結的分析,AI法律規(guī)制的關鍵在于解決AI與法律的根本性沖突并通過法律規(guī)范AI對人類的替代。從法律體系與立法成本的角度來看,基于前文對AI與IA的辯證統(tǒng)一關系、AI法律問題與IA法律問題承繼關系的分析,對AI法律規(guī)制的探討宜在IA法律規(guī)制的基礎上,圍繞AI替代人類的特性進一步展開。〔36〕在現(xiàn)階段,一些AI的應用只是加載到IA技術之上(典型便是電子交易技術),進一步簡化流程、減少人工介入、提升自動化程度,仍未超出增強人類的范疇,或者說一些AI法律問題的形成邏輯與技術屬性關聯(lián)不大。對于此種情形,AI法律規(guī)制與IA法律規(guī)制并無不同。需要進一步展開的AI法律規(guī)制指向的主要是因AI替代人類而產生的不同于IA法律問題形成邏輯的問題。前文所提煉的AI四項框架性法律問題正是從AI法律問題的產生根源出發(fā),從與IA法律問題相區(qū)別的角度圍繞AI替代人類而歸納得出。AI法律規(guī)制的基本思路應當是分析與解決此四項框架性法律問題,并向各領域延伸。
AI四項框架性法律問題涵蓋了一般問題與具體問題,較為龐雜。其中,AI法律規(guī)制的價值取向與AI是否具有主體資格屬于極為關鍵的一般性基礎問題,關涉AI與法律之間根本性沖突的解決,指向AI法律規(guī)制核心基點的確立。前者回答了應當如何解決AI替代人類的理念與法律以人為中心的理念之間沖突的問題,確定了AI法律規(guī)制的價值基礎。后者回答了應當如何解決AI以機器為中心的去人類化觀念與法律上主客二分的觀念之間沖突的問題,確定了AI法律規(guī)制的邏輯前提。諸多AI法律問題的研究便以這兩項一般性基礎問題為基礎,在對這兩項問題未達成基本共識、規(guī)制基點無法確立的背景下,對包括AI的適法性問題、責任問題以及AI作品、金融、交通與醫(yī)療等問題在內的具體問題的研究便難以深入。受限于問題性質及篇幅,下文僅探討AI法律規(guī)制的價值取向問題與AI的主體資格問題。需要注意的是,AI本身便是多學科交融的產物,除自然科學外,AI與哲學、倫理學等人文科學也存在先天的緊密聯(lián)系,在研究方法上,AI法律研究應當結合其他學科的研究,在許多問題上甚至需要以其他學科研究為基礎,AI的這兩項一般性法律問題便屬此類。
AI與法律的理念沖突決定了從法律上規(guī)制AI首先需要對AI替代人類的理念進行評價,從整體上確定AI法律規(guī)制的價值取向,而不是如IA法律規(guī)制一樣,僅需跟隨技術的發(fā)展而作出調整??茖W、技術具有雙重價值性(正價值與負價值),〔37〕參見肖峰:《作為價值論對象的信息文明》,《中共寧波市委黨校學報》2016年第3期。“AI將造福人類”的樂觀論與“AI將毀滅人類”的悲觀論分別指出了AI因替代人類而產生的雙重價值。在替代人類與增強人類之間,法律不得不進行權衡、選擇。有學者指出,要從人機協(xié)作和人機共生而不是人機對立的角度探尋發(fā)展“基于負責任的態(tài)度的可接受的AI”的可能性,應當意識到發(fā)展AI旨在增強人類而非替代人類。〔38〕參見段偉文:《人工智能時代的價值審度與倫理調適》,《中國人民大學學報》2017年第6期。筆者贊同這種觀點。
AI的正價值在于機器智能的再次提升能夠讓人類的工作與生活更加便利,進一步改造產業(yè)模式、提升效率、推動經濟發(fā)展、擴展對未知世界的探索。隨之而來的問題卻是AI可能會造成社會結構的巨大變革,沖擊勞動力市場,引發(fā)嚴重的倫理困境。AI的本性便是去人類化的,以無人參與的閉環(huán)自動化為技術指向,甚至“將自動化本身予以自動化”,〔39〕[美]佩德羅?多明戈斯:《終極算法:機器學習和人工智能如何重塑世界》,黃芳萍譯,中信出版社2017年版,第13頁。在其技術架構中可以沒有人類的存在。AI勢必繼續(xù)發(fā)展并發(fā)揮更大作用,若其以機器為中心、以替代人類為目標的特性不受約束,那么以人類為中心的社會將走向何方?目前已經出現(xiàn)了將人類事務交由AI進行機器決策的情形,若AI智能水平進一步提升,機器決策大規(guī)模擴張,將可能產生何種后果?人類連現(xiàn)今的非“智能”網絡技術都無法保證安全,何以可能保證具有去人類屬性的、強大的“智能”機器是安全的?哲學上的研究多是從認識論的角度研究AI能否以及如何創(chuàng)造出“智能”等問題,價值論的研究相對較少,但已有的價值論研究基本上都是遵循人文主義?!?0〕參見文祥、易顯飛:《論人本視角下的人工智能技術哲學研究》,《湖南人文科技學院學報》2018年第1期。人文主義強調個人尊嚴、價值,堅持以人為本?!?1〕參見李醒民:《邁向科學的人文主義和人文的科學主義》,《中國政法大學學報》2013年第4期。人工智能倫理學研究也遵循了人文主義,認為應保證AI設計者的倫理性,將符合人類價值的倫理規(guī)范嵌入AI,將AI用于增強人類,〔42〕參見和鴻鵬:《人工智能:在效率和安全中尋求統(tǒng)一——“2017科技倫理研討會”紀要》,《科學與社會》2017年第4期。避免制造出不符合人類價值和利益需求的AI。〔43〕參見于雪、王前:《“機器倫理”思想的價值與局限性》,《倫理學研究》2016年第4期。其中,機器倫理學主要研究如何使AI、機器人在行為上具有倫理性,機器人倫理學主要研究如何對人類設計者進行約束?!?4〕參見徐英瑾:《具身性、認知語言學與人工智能倫理學》,《上海師范大學學報》(哲學社會科學版)2017年第6期。2017年,電氣和電子工程師協(xié)會(IEEE)發(fā)布的《以倫理為基準的設計:利用人工智能和自主系統(tǒng)最大化人類福祉的愿景》指出以人類價值觀為導向的方法論是AI設計的核心。同年,由全球數(shù)千名科學家聯(lián)名簽署的“阿西洛馬人工智能 23 條倫理原則”第1條原則便指出“人工智能的研究目標應當是創(chuàng)造有益(于人類)而不是不受(人類)控制的智能”。2018年,歐洲政治戰(zhàn)略研究中心發(fā)布的《人工智能時代:實施以人為中心的人工智能戰(zhàn)略》明確提出應將AI用于增強而不是替代人類??梢钥闯?,價值哲學與倫理學并不是簡單地跟隨與順應AI技術的發(fā)展,而是堅持以人為本,認為應對AI施加必要限制。在面對人類整體族群利益時,AI法律規(guī)制的價值理念并非一個特別復雜的問題,在以機器為中心與以人為中心的沖突之間應當選擇后者。在法律上,如果只是基于AI的正價值而順應與促進AI的發(fā)展,對AI的負價值卻不予限制,無疑是違背人類整體利益與人文主義精神的。
需要注意的是,“替代人類”“增強人類”在技術語境中多為微觀意義上的,在價值哲學與倫理學語境中則多為宏觀意義上的。從法律上看,堅持AI在宏觀上、整體上用于增強人類,并不是要否定AI在微觀上、局部上對人的技術性替代,AI對人類的貢獻也正在于此。法律應當肯定AI局部性替代人類的積極意義,并預防和避免人類整體性利益被損害。因此,從法律上規(guī)制AI,應當采取局部替代人類、整體增強人類的價值取向,〔45〕局部替代并非僅指AI部分替代人類(如AI輔助自動駕駛),也包括AI在某些崗位上全部替代人類(如AI無人駕駛)。AI對某些人類崗位的替代無損于人類(如交通、醫(yī)療等),但總體而言,在整體增強人類的原則之下,AI在某些領域的應用應當受到限制(如AI不能成為法官)。局部替代、整體增強意味著法律應對AI的領域準入、替代限度、使用規(guī)則等問題作出規(guī)定。適度矯正AI替代人類的理念與技術,對AI前置性地施加以人為本的整體價值負載,提前研判與化解AI對社會結構的沖擊。鑒于AI在技術上具有去人類化的屬性,其應用具有一定程度上的不可預見性、難以理解性,而且沒有任何機構能夠保證AI可以被人完全控制,〔46〕See Christelle Didier etc.,Acknowledging AI’s Dark Side,349 Science 1064 (2015).法律在保障AI整體上不偏離增強人類的方向之外,還需要根據(jù)AI以機器為中心的技術特性制定相應的規(guī)則,從源頭上保證人對AI的控制及其可歸責性,以弱化復雜的倫理困境與責任認定疑難,盡量消解因AI替代人類而產生的不利影響。筆者認為,局部替代人類、整體增強人類的價值取向應當貫徹于AI其他三項框架性法律問題的解決。第一,AI不具有主體資格(容后詳述)。第二,在AI的適法性方面,首先,法律應當確立AI研發(fā)規(guī)則,要求研發(fā)者將倫理代碼寫入AI,盡量預防倫理風險;其次,在AI使用方面,法律尤其需要確立立法、行政管理、司法審判等敏感領域中的AI準入規(guī)則與使用規(guī)則,以保障人類安全、服務人類與防范系統(tǒng)性風險,保證人類的最高決策權;最后,AI法律規(guī)制應采取主動的事前、事中監(jiān)管措施,保障技術安全、可控。第三,在AI責任方面,首先,法律應當要求研發(fā)者盡可能保障AI的技術可回溯性,在代碼層面對AI添加限制,以降低將來認定責任的難度;其次,法律應當強化研發(fā)者責任,迫使研發(fā)者適度矯正AI,在算法上保證AI行為可歸責于相應的人,使AI不偏離整體增強人類的方向;最后,AI責任規(guī)則需要在以機器為中心的技術與以人為中心的責任之間建立合理連接,確定歸責基礎。AI法律規(guī)制在立法技術上面臨的一般性挑戰(zhàn)是,法律規(guī)則需要將以AI為基礎的法律事實與人關聯(lián)起來,將以機器為中心的AI置于以人為中心的法律關系之內。
需要指出的是,機器智能技術是會聚技術(NBIC)中的重要技術,可與納米、生物等技術結合用于改善、增強人類的基因、身體,由此所產生的超(后)人類主義問題超出了本文討論范圍。〔47〕會聚技術的概念在2001年被明確提出,起初由納米技術、生物醫(yī)學技術、信息技術、認知科學四大前沿科技融合而成(簡稱NBIC),后泛指既有的科學技術融合成新的技術系統(tǒng)。NBIC因直接作用于人類自身、試圖改變人類的生物限制而引發(fā)劇烈爭議。以福山、哈貝馬斯為代表的保守主義者強調“自然”與“人性”的神圣性,擔憂技術的濫用,但主張技術進步的超(后)人類主義占據(jù)了上風。超人類主義承襲人文主義,但允許通過技術超越健康的水平改善并增強人類(包括基因改良),并倡導通過民主機制對技術的發(fā)展予以監(jiān)管。后人類主義基于科技發(fā)展的必然性與人的自由,倡導生殖性克隆,產生在智力與生物兩方面大大超越人類的后人類,甚至考慮將人類與機器結合產生新物種,完全與人文主義背道而馳。相關問題參見[法]呂克?費希:《超人類革命》,周行譯,湖南科學技術出版社2017年版。本文所闡述的增強人類,并不包括將機器智能技術直接融入人類身體而增強人類。從對會聚技術的討論中可以看出,應當通過制度防范高新技術的濫用,在AI與IA上亦是如此,即便用于增強人類,也存在限度。法律對此必須加強監(jiān)管,防范技術風險,在必要時應如禁止克隆人一樣設置技術禁區(qū)。在以人為本、增強人類的理念之下,雖然法律需要在短期內作出調整以適應AI的發(fā)展趨勢,但長遠來看,不應當是法律如何迎合AI、而是AI如何迎合法律的問題。
目前法學界有種代表性觀點提出以智能機器人為代表的AI應被賦予主體資格。筆者認為,在現(xiàn)有的科技、哲學、倫理學、社會學與法學背景下,這種觀點只是一種過度超前的想象,AI法律規(guī)制應在AI不具有主體資格的前提下進行設計。
認為應賦予AI以主體資格的觀點大多認同在技術層面AI已經產生或必會產生自主性與意識等類人屬性。例如,認為AI、機器人已經逐步具有一定程度的自我意識和自我表達能力;〔48〕參見王利明:《人工智能時代提出的法學新課題》,《中國法律評論》2018年第2期。認為智能機器人具有精神,應當享有權利;〔49〕參見許中緣:《論智能機器人的工具性人格》,《法學評論》2018年第5期。認為AI具有自主性,非為純受支配的客體;〔50〕參見郭少飛:《“電子人”法律主體論》,《東方法學》2018年第3期。認為AI會發(fā)展到超越工具型的強人工智能階段;〔51〕同前注〔35〕,陳吉棟文。認為智能機器人能夠辨認自己行為的性質、意義與后果,人類創(chuàng)造機器人的技術達到了無與倫比的程度,智能機器人可能產生自主的意識和意志?!?2〕參見劉憲權、胡荷佳:《論人工智能時代智能機器人的刑事責任能力》,《法學》2018年第1期。在筆者看來,這些觀點往往是基于無依據(jù)的斷言與假定,對AI技術的理解出現(xiàn)了嚴重偏差。AI主流技術包括符號主義范式、聯(lián)接主義范式、行為主義范式及貝葉斯網絡、類腦計算等,可以肯定的是,這些技術路徑均未令AI產生類人的自主性、意識或者說“智能”,并且在相當長的將來可能也無法實現(xiàn)這一點?;贏I具有意識、自主性等類人屬性而主張賦予AI主體資格的法律研究在出發(fā)點上可能就是錯誤的。
符號主義范式立基于長久以來的理性主義、形式邏輯傳統(tǒng)以及身心二元論,深受笛卡爾、萊布尼茨、霍布斯等哲學家、數(shù)學家思想的影響,〔53〕例如,霍布斯在《利維坦》中將人的生命看作一種機械的運動,將理性推理活動看作機械模型,對符號主義范式的“物理符號系統(tǒng)假設”形成直接支持。(參見前注〔10〕,徐英瑾書,第83頁。)巴貝奇發(fā)明的差分機、喬治?布爾設計的邏輯運算布爾系統(tǒng)、弗雷格提出的思維符號語言、羅素和懷特海開發(fā)的邏輯語法與形式推理規(guī)則、圖靈提出的圖靈機與學習機等理性主義思想與符號觀念對人工智能具有基礎意義。將智能理解為物理符號系統(tǒng),并通過創(chuàng)造符號系統(tǒng)自上而下地模仿人類思維,〔54〕同前注〔4〕,蔡自興書,第10頁。專長是專家系統(tǒng)、定理證明、棋類博弈等,至今仍是重要的AI技術范式。自20世紀70年代起,符號主義范式受到現(xiàn)象學學者的嚴厲批判。德雷弗斯認為,這是一種為海德格爾和梅洛-龐蒂所批判的理性主義,不可能取得成功,因為人類智能包含有不可形式化的成分,人的軀體在智能行為中的作用更是無法形式化的,AI無法形成人類主體性意義上的智能。〔55〕參見[美]休伯特?德雷福斯:《計算機不能做什么:人工智能的極限》,寧春巖、馬希文譯,三聯(lián)書店1986年版,第243~244頁。轉引自前注〔40〕,文祥、易顯飛文。不過德雷弗斯并未否定AI的整體前景,其提出了AI的具身(embodiment)進路?!?6〕參見徐獻軍:《論德雷福斯、現(xiàn)象學與人工智能》,《哲學分析》2017年第6期。塞爾提出的中文屋思想實驗對符號主義范式以及圖靈測試進行了批判,認為形式化的符號系統(tǒng)不可能產生“智能”?!?7〕參見[美]J?R?塞爾:《心靈、大腦與程序》,《行為和大腦科學》1980年第3期。轉引自前注〔9〕,瑪格麗特?A?博登書,第73~95頁。AI科學家麥克德莫特批評符號主義范式的支持者“對哲學家們昔日的失敗一無所知”?!?8〕參見[美]D?麥克德莫特:《純粹理性批判》,《計算智能》1987年第3期。轉引自前注〔9〕,瑪格麗特?A?博登書,第245頁。符號主義范式在創(chuàng)造“智能”上遭遇了無法解決的困難,其無法將人類知識全部表征,難以具備背景知識與常識,無法處理非線性、非結構的復雜問題。
符號主義范式的假設被聯(lián)接主義范式與行為主義范式所否定。聯(lián)接主義范式受益于認知神經科學的進步,立基于身心二元論,將智能理解為眾多并行分布的神經元相互作用的結果,〔59〕參見周永林、潘云鶴:《從智能模擬到智能工程——論人工智能研究范式的轉變》,《計算機科學》1999年第7期。通過數(shù)學方法模擬人腦神經網絡及其聯(lián)結機制,采取神經網絡算法。行為主義范式受生物進化與遺傳的啟示,立基于身心一體論,認為智能取決于感知和行為,〔60〕參見高華、余嘉元:《人工智能中知識獲取面臨的哲學困境及其未來走向》,《哲學動態(tài)》2006年第4期。存在于人與世界的交互,因此采取進化算法,使用包含傳感器與執(zhí)行器的“機器身體”令AI直接與真實世界交互,產生“感知—行為”的反饋,以模擬生物進化的方式產生智能。〔61〕參見徐心和、么健石:《有關行為主義人工智能研究綜述》,《控制與決策》2004年第3期。聯(lián)結主義范式與行為主義范式突破了傳統(tǒng)的馮?諾伊曼計算結構,在21世紀初開始與數(shù)據(jù)驅動的機器學習相結合,近年來在提升機器智能方面取得了令人矚目的成就。例如,使用深度神經網絡算法的AlphaGo等AI技術獲得了巨大成功,BigDog、Atlas、iCub、ASIMO等機器人在智能方面也取得了重大進展。不過,AI的成就僅限于形式化領域,在意向性領域依然一無所獲。聯(lián)接主義范式與符號主義范式一樣,無法跨越知識表征的障礙,計算機仍然難以將人類所擁有的背景知識、形象思維等以符號方式予以形式化表征。被譽為“神經網絡之父”的科學家杰弗里?欣頓(Geoffrey Everest Hinton)近兩年否定了當下大行其道的深度神經網絡算法對于類人智能的意義。行為主義范式所模擬的其實并非人類智能,而是低等生物智能。采取行為主義范式的機器人在欠缺主體意向驅動或外界命令驅動的情況下,無法實施有意義的行為,這使得行為主義范式局限于對工業(yè)應用領域低層次智能的模擬?!?2〕參見董佳蓉:《語境論視野下人工智能范式發(fā)展趨勢研究》,科學出版社2017年版,第24頁。基于概率進行非確定性推理的貝葉斯網絡算法高度依賴符號表征,雖可在非確定性推理、模糊計算方面取得一定成功,但高度依賴設計者對問題框架的提前設定,距自主性、意向性的實現(xiàn)十分遙遠?!柏惾~斯網絡之父”朱迪亞?珀爾(Judea Pearl)在2018年否定了貝葉斯網絡算法對實現(xiàn)類人智能的意義,認為“因果推理”才是通往類人智能的路線?!?3〕See Pear & Mackenzie,The Book of Why: The New Science of Cause and Effect,http://bayes.cs.ucla.edu/WHY/why-ch1.pdf,last visited on June 17,2018.一些科學家認為類腦計算(神經形態(tài)計算)將是從弱人工智能到強人工智能的主要進路,類腦智能將是人工智能的終極目標?!?4〕參見陳自富:《強人工智能和超級智能:技術合理性及其批判》,《科學與文化》2016年第5期。類腦計算技術從硬件上突破馮?諾伊曼計算結構,借鑒人腦神經元信息處理機制發(fā)展類腦神經芯片與計算平臺,〔65〕參見曾毅、劉成林、譚鐵牛:《類腦智能研究的回顧與展望》,《計算機學報》2016年第1期。試圖實現(xiàn)低能耗、容錯性與無須編程的三大人腦特性?!?6〕參見邢東、潘綱:《神經擬態(tài)計算》,《中國計算機學會通訊》2015年第10期。類腦計算已發(fā)展二十余年,其不是如聯(lián)接主義范式一樣對人腦進行局部模擬,而是對人腦的整體運行機制進行研究、模擬,極可能大幅推動AI的進步,但人類至今仍不清楚人腦的整體運行機制,也不清楚“意識”在智能活動中的作用,更無法確定這種機制可以通過機器實現(xiàn)?!?7〕參見徐英瑾:《人工智能技術的未來通途芻議》,《新疆師范大學學報》(哲學社會科學版)2019年第1期。對于能否創(chuàng)造出真正的“智能”,哲學家即便不予徹底否定,也多持悲觀態(tài)度,〔68〕有哲學家持類似于未來學家的樂觀態(tài)度,但往往只是予以斷言,卻未進行分析,或者是在將“智能”理解為機器對人類的模擬能力的前提下,基于機器智能在部分領域超過人類智能的事實,預言機器“智能”將來會產生,但他們未曾分析通往“智能”的道路究竟在何處。AI科學家、未來學家卻多持樂觀態(tài)度,但也有AI科學家指出,“主流人工智能學界的努力從來就不是朝向強人工智能,現(xiàn)有技術的發(fā)展也不會自動地使強人工智能成為可能”。〔69〕周志華:《關于強人工智能》,《中國計算機學會通訊》2018年第1期。
在法律的向度上,AI是否擁有自主性、意向性與意識,是應否賦予AI自然人格的基礎。AI始終依托計算機,圖靈機是所有計算機的理論模型,但“丘奇—圖靈”論題本身便承認圖靈機并非對所有對象均可計算,存在算法不可解。計算機與AI的出發(fā)點一直建立在“認知可計算”的計算主義基礎上,計算主義建基于一個假定:無法直接觀察人腦中智能的運作,而只能借助于對人智能行為的間接觀察。〔70〕參見任曉明、桂起權:《計算機科學哲學研究——認知、計算與目的性的哲學思考》,人民出版社2010年版,第217~219頁。只有觀察出真正的人腦運作原理并成功模擬,才有可能創(chuàng)造出類人智能,但這兩項條件的滿足困難重重。從最初的符號主義范式到聯(lián)結主義范式、行為主義范式的轉換,已經顯現(xiàn)了計算主義的局限性,計算機器在知識獲取、表達與處理上具有先天局限,人類心智的復雜性機制給機器模擬帶來了極大困難,在通過機器模擬人類自適應、自學習以及與環(huán)境作用時,人類意識的意向性、自指性等重要特征是超越邏輯與算法的,〔71〕參見劉曉力:《計算主義質疑》,《哲學研究》2003年第4期。非形式的、不可表征的智能活動是AI無法達到的極限?!?2〕參見徐獻軍:《人工智能的極限與未來》,《自然辯證法通訊》2018年第1期。AI雖快速發(fā)展,但在難以進行形式化計算的認知活動中始終未獲任何成功便印證了這一點。AI發(fā)展至今只有技術意義上的有限自主性,沒有類人自主性、意向性與意識,將來可能也很難產生這些類人特性,欠缺類比自然人從而被賦予人格的根本基礎。
塞爾按照AI的智能程度提出的弱人工智能、強人工智能的分類得到普遍贊同,但塞爾當初提出的心智性區(qū)分標準卻被替換成對人的局部模仿、全部模仿的技術性區(qū)分標準,〔73〕弱人工智能與強人工智能的區(qū)分是塞爾在《心靈、大腦與程序》(1980年)中提出來的。弱人工智能只是對認知過程的模擬,程序本身并不具有理解、認知的能力,并無“心智”。強人工智能則是一個“心智”,其具有智力、理解、感知、信念和其他通常歸屬于人類的認知狀態(tài)。但此區(qū)分標準后來被代替以新的標準:弱人工智能就是對人的局部模仿,強人工智能就是對人的全部模仿,脫離了心智之判斷標準。參見前注〔5〕,梅劍華文。這對于判斷AI是否是“智能”的、應否擁有主體資格產生了極強的混淆性。事實上,目前的AI仍是“無心”的弱人工智能,并無“智能”,〔74〕路衛(wèi)華:《跨學科視域下的機器智能與人》,《科學技術哲學研究》2017年第3期。不具備賦予主體資格的基礎。如前所述,在相當長的將來,AI可能也只是在不“智能”的弱人工智能的框架內提升機器能力。AI法律研究若過度受到激進觀念與無依據(jù)斷言的影響,會出現(xiàn)危言聳聽的情形。例如,認為AI技術已經發(fā)展到可以作出獨立意思表示的階段;〔75〕參見袁曾:《人工智能有限法律人格審視》,《東方法學》2017年第5期。認為只有承認AI的主體地位,才能進而分析其所締結法律關系的效力問題、舉證問題、責任問題;〔76〕參見徐文:《反思與優(yōu)化:人工智能時代法律人格賦予標準論》,《西南民族大學學報》(人文社會科學版)2018年第7期。認為AI對民法更深層次的挑戰(zhàn)在于對擁有與自然人同等甚至更高智力水平的機器人法律地位的認定;〔77〕同前注〔35〕,張長丹文。認為智能技術的便捷性和適用性會使傳統(tǒng)法律變得沒有用武之地,一系列算法機制會不斷催生出各種類型“私人訂制”的法律,民主機制也會伴隨現(xiàn)實法律空間的瓦解失去用武之地;〔78〕參見余成峰:《法律的“死亡”:人工智能時代的法律功能危機》,《華東政法大學學報》2018年第2期。認為應當參照動物保護、法人擬制以及歐盟議會法律事務委員會《關于機器人的民法規(guī)則》提出的“電子人”,將AI確立為法律主體;〔79〕同前注〔50〕,郭少飛文。甚至還有觀點考慮從機器人的角度來看,若不賦予其公民權,將來可能會出現(xiàn)彌賽亞式的人物對機器人進行救贖?!?0〕同前注〔35〕,高奇琦、張鵬文。
筆者認為,第一,非人工智能的技術與機器早就可以在無人工介入的情況下作出所謂的獨立意思表示、締結電子合同、形成證據(jù),電子商務法已經解決了意思表示的歸屬、效力、責任與證據(jù)等問題,但未賦予機器主體資格。〔81〕例如,自動售貨機早就可以作出獨立的意思表示,但自動售貨機明顯與人工智能無關。在電子商務中,自動電文系統(tǒng)早就可以作出獨立的意思表示(如聯(lián)合國貿法會《電子商務示范法》《國際合同使用電子通信公約》的規(guī)定)。再如犯罪問題,非人工智能的自動技術也可以實施犯罪行為,如木馬病毒。許多與自動化有關的智能增強法律問題在之前的電子商務法研究中已有討論且已解決,并不與人工智能必然相關,卻被一些研究納入人工智能范疇,這體現(xiàn)了當前的人工智能研究與網絡法、電子商務法研究的割裂。第二,認為AI已達到或超越人類智能的觀點是錯誤的,因為目前的AI仍然局限于“大數(shù)據(jù)、小任務”,即便可以局部超越人類智能,但在整體上仍然無法達到人類的智能水平,無法與人類“小數(shù)據(jù)、大任務”的能力相比擬。第三,參照對克隆人的禁止,人類社會根本就不應允許具有危險性的AI技術不受限制地向替代人類的方向發(fā)展,民主機制不僅不應瓦解,而且應當成為限制AI的掣肘。法律的代碼化、算法化也是有限度的,因為自然語義的符號化已經是算法難以跨越的障礙,更何況法律不僅是邏輯的,還是經驗的。第四,動物保護、法人擬制無法與AI主體資格問題相類比,因為所處環(huán)境、背景、價值理念、出發(fā)點以及在人類社會所引發(fā)的后果與連鎖反應是完全不同的。歐盟議會法律事務委員會《關于機器人的民法規(guī)則》第59(f)條聲稱,賦予機器人電子人的地位是為了解決所謂的最先進機器人造成的損害問題及外部互動問題?!?2〕歐盟議會法律事務委員會在《關于機器人的民法規(guī)則》中將先進機器人的自主性界定為“在外部世界中,獨立于外部控制或影響下作出決定并實施的能力”,并指出這種自主性是純粹的技術性質?!蛾P于機器人的民法規(guī)則》中的機器人自主性主要是指機器人為完成指令而自動實施行為,并不是指具有意向性的自主。如前所述,目前的機器人在無主體意向驅動或外界命令驅動時,無法實施有意義的行為,當然不具有自主性。需要注意的是,《關于機器人的民法規(guī)則》中的“電子人”與NBIC會聚技術中的“電子人”不同,前者指的是機器人,后者指的是經過大幅技術改造的人類,如植入芯片等電子設備的人、人機一體化的人。但是,不賦予機器人電子人地位也可以解決這些問題,賦予電子人地位只會使問題變得無謂的復雜。歐盟議會法律事務委員會的這種提議只是一種不成熟的、不成體系的設想,并無堅實的哲學、倫理與法律支撐。在賦予AI主體資格的觀點中,機器人索菲亞被沙特宣布為具有公民身份的事例被廣泛援引,人們普遍對索菲亞的“我將毀滅人類”等言論感到擔憂與恐懼。但明顯的是,目前的技術水平根本不可能使索菲亞作出此種自主性的回答,此事件完全是由商業(yè)利益推動的。索菲亞的公民身份根本不能成為支撐AI應具有主體資格的論據(jù)。AI遠超常人吟詩能力的例子也常被援引,但與其說其在創(chuàng)作,不如說其在制造??梢钥隙ǖ氖牵珹I無法理解其所吟之詩。主張賦予AI主體資格的觀點基本上完全跟隨了AI替代人類的理念,很少顧及AI技術的負價值。
應當承認的是,AI在一定程度上突破了主客二分、人物二分的傳統(tǒng)觀念,較其他人工物更符合“行動者網絡理論”中的非人行動者的特點。拉圖爾提出的“行動者網絡理論”在社會學、人類學、倫理學、科學技術學等學科有著廣泛影響,按照該種理論,主體、客體不是嚴格二分的,環(huán)境、人工物等非人因素與人均為具有能動性的、平權的行動者(actant),組成了相互交織的行動者網絡。在社會學中,拉圖爾“行動者網絡理論”因認為非人行動者擁有與人類行動者完全對等的能動性而被批評為一廂情愿,因為其只能在文本中而不是在實踐中實現(xiàn)非人行動者的能動性。〔83〕參見賀建芹:《非人行動者的能動性質疑——反思拉圖爾的行動者能動性觀念》,《自然辯證法通訊》2012年第3期。AI與人類行動者具有更加密切的交織關系,但其不具備意識與意向性能動,在行動者網絡中不可能與人類行動者對等、平權。從倫理學角度來看,“行動者網絡理論”突破了人工物與道德不相干的傳統(tǒng)倫理學觀念,由此產生了人工物是否為道德行動者的問題。倫理學上大致包括認為人工物是道德行動者、認為人工物不是道德行動者以及折中的三種觀點。折中論是主流觀點,其承認人工物的道德能動性,但認為這種道德能動性只是調節(jié)性的,而人的道德能動性是原發(fā)性的,因此,在行動者網絡中不能將人工物看作像人一樣的道德行動者,而應將其看作對社會信息、關系具有能動調節(jié)作用的“道德調節(jié)者”?!?4〕參見張衛(wèi):《倫理空間的“暗物質”》,《倫理學研究》2018年第2期。這種觀點能夠較好地解釋人類與AI之間的倫理關系以及AI的倫理性,即AI與人并不對等,但具有道德調節(jié)的能動性,AI不具有主體資格并不意味著其不承擔道德負載。認為AI為道德主體(或者說道德行動者)的觀點與認為動物、大自然為道德主體的動物中心主義、生態(tài)保護主義相似,表達的其實是對動物、自然與人工物的尊重,其共同點在于重塑倫理關護對象的道德地位,仍然是立基于以人類為中心的思想。〔85〕參見王紹源、任曉明:《從機器(人)倫理學視角看“物倫理學”的核心問題》,《倫理學研究》2018年第2期。“無論審視動物的權利,還是審視人工智能和機器人的人格,仍然是一種人類中心的視角,一種基于對人自身的反射式關懷。”〔86〕藍江:《人工智能與倫理挑戰(zhàn)》,《社會科學戰(zhàn)線》2018年第1期。若法律賦予AI主體資格,無疑會偏離以人類為中心的思想。
在筆者看來,討論AI主體資格問題的前提是出現(xiàn)了或極可能出現(xiàn)強人工智能,但哲學上多對強人工智能的出現(xiàn)持悲觀態(tài)度,在無法確定人腦運行原理能否被準確認識的背景下,即便是樂觀的AI科學家也不能確定通往強人工智能的突破口究竟在哪里。當然,我們也不能斷言AI絕對不會產生意識、強人工智能一定不會出現(xiàn),但從計算機結構、AI技術范式以及心智哲學的研究來看,機器從當前的“識別”走向“理解”,從邏輯走向思維甚至產生意識,即便人類上下求索,也是長路漫漫,就連看起來最容易突破的、不以“智能”為目標的無人駕駛也需要經過很長時間的完善?!?7〕在2017年12月由中國自動化學會主辦的“中國智能車大會”上,中國工程院鄭南寧院士提出了這種觀點。詳見《鄭南寧院士:完全自主無人駕駛依然面臨艱難挑戰(zhàn)》,http://news.sciencenet.cn/htmlnews/2017/12/396929.shtm,2018年6月15日訪問。此外,即便技術具備內在的發(fā)展邏輯,也不能自主地展開,而是要受到社會的制約和規(guī)范的,〔88〕參見胡明艷、曹南燕:《人類進化的新階段——淺述關于NBIC會聚技術增強人類的爭論》,《自然辯證法研究》 2009年第6期。尤其是具有危險性的技術,AI便屬此列。若法律研究不加思辨地在人類社會允許出現(xiàn)擁有自主意識的AI、廣泛的強人工智能的立場上討論賦予AI主體資格,無疑是過度偏離了人文主義,追隨了技術決定論,毫不顧及制約技術的必要性。試想克隆人是可能的,卻為何被普遍禁止?AI沖擊人類法律,研究AI法律規(guī)制是十分必要的,但提出將AI從客體提升為主體,在AI具有主體資格的前提下進行法律制度設計,脫離技術現(xiàn)狀,過于激進,并無現(xiàn)實意義。況且,AI主體資格問題在更大程度上是哲學、人類學、政治學、倫理學與社會學層面的問題,牽涉極為廣泛,并不是一個單純的法律問題,即便將來出現(xiàn)了強人工智能,也不能簡單地在法律范疇內討論其主體資格問題。筆者認為,對AI系列法律問題應當在AI不具有主體資格的前提下進行研究、解決,這意味著在局部替代人類、整體增強人類的價值取向下,主客二分的傳統(tǒng)法律體系完全可以容納AI。
人工智能的崛起、機器的類人化催生出一系列法律難題,技術的進一步發(fā)展、會聚將對法律產生更深的影響。人工智能的正價值、負價值及法律問題的產生均源于人工智能替代人類的特質,人工智能法律規(guī)制應堅持以人為本,發(fā)揮技術的正價值,規(guī)避技術的負價值,在促進人工智能發(fā)展的同時,又予以矯正、限制。這主要體現(xiàn)為法律應秉持人工智能局部替代人類、整體增強人類的價值理念,保障人工智能符合人類倫理,在人工智能不擁有主體資格的前提下進行制度設計,則可消除人工智能與法律的根本性沖突,將人工智能法律規(guī)制融入既定法律體系。人工智能正處于快速發(fā)展之中,其對人機關系的技術性改造、變革會傳遞至社會關系并引發(fā)連鎖反應,大量法律問題的涌現(xiàn)是可以預見的,但一旦人工智能法律規(guī)制的兩大基點得以確定,立基于其上的具體法律問題研究便不至于紛亂無章。