天津大學(xué) 徐巖
關(guān)鍵字:人工智能;法律主體;法律客體
法律最為核心的功能是維護(hù)社會(huì)規(guī)范性期望的穩(wěn)定,但人工智能潮流來(lái)臨,對(duì)現(xiàn)有的法律制度提出了新挑戰(zhàn),最為核心的問(wèn)題在于人工智能是否具備法律主體資格。主體資格也稱為人格,是法律賦予其成為法律上的“人”,進(jìn)而在法律關(guān)系中享有權(quán)利、承擔(dān)義務(wù)資格,即作為法律主體應(yīng)具備的法律資格。學(xué)界對(duì)于人工智能是否具備法律主體資格觀點(diǎn)不一,當(dāng)前探討該問(wèn)題的代表觀點(diǎn)包括主體說(shuō)、客體說(shuō)和折中說(shuō)。
“人工智能”這一概念于1955年由約翰·麥卡錫首次提出,將人工智能定義為“制造智能機(jī)器的科學(xué)和工程”。隨著科技發(fā)展,人工智能定義愈發(fā)多樣,但可以明確人工智能與智力技能水平直接相關(guān),具有能夠獨(dú)立于開(kāi)發(fā)人員或用戶的理解、學(xué)習(xí)和自主決策的能力。因此本文認(rèn)為,所謂人工智能是與自然智能相對(duì)的機(jī)器智能,能夠感知所處環(huán)境,根據(jù)環(huán)境變化自主作出反應(yīng)。
人工智能以算法程序?yàn)榛A(chǔ),以類似于人類的智能水平運(yùn)行?;诖?,人工智能主要具有但不限于以下特征:一是借助搜索解決問(wèn)題。當(dāng)人工智能解決問(wèn)題時(shí),程序設(shè)計(jì)并未提供具體的方法,而只是給出讓人工智能能夠識(shí)別解決方案的描述。二是能夠獨(dú)自進(jìn)行機(jī)器學(xué)習(xí)。人工智能通過(guò)數(shù)據(jù)進(jìn)行事實(shí)學(xué)習(xí),并用學(xué)到的知識(shí)去適應(yīng)新情況。比如新一代的阿爾法狗,不需要學(xué)習(xí)歷史棋譜,更不需要參考人類現(xiàn)有知識(shí),只借助自身就可完成強(qiáng)化學(xué)習(xí)和參悟。三是能夠“理解”自然語(yǔ)言。通過(guò)對(duì)人類語(yǔ)言的理解、加工和啟發(fā)來(lái)進(jìn)行人機(jī)交互,進(jìn)而實(shí)現(xiàn)人工智能與人類的實(shí)時(shí)對(duì)話。四是擁有強(qiáng)大的人工神經(jīng)網(wǎng)絡(luò)。人工神經(jīng)網(wǎng)絡(luò)是一個(gè)復(fù)雜的自適應(yīng)系統(tǒng),可以根據(jù)外界環(huán)境變化、信息流動(dòng)等作出相應(yīng)的反應(yīng)和調(diào)整。
持法律主體說(shuō)觀點(diǎn)的學(xué)者認(rèn)為,隨著人工智能在各領(lǐng)域的應(yīng)用,為了迎接人工智能社會(huì)化應(yīng)用的趨勢(shì),應(yīng)當(dāng)肯定人工智能的法律主體資格。在民事領(lǐng)域方面,非自然人早已突破了自然人的范圍局限,“非人可人”趨勢(shì)日益明顯,也為人工智能取得法律主體資格提供了理論基礎(chǔ)。
應(yīng)當(dāng)指出,在法律主體資格的問(wèn)題上,只存在“是”或者“不是”兩種回答,并不存在模糊的中間地帶。對(duì)于某個(gè)實(shí)體而言,即使其只享有部分權(quán)利義務(wù),或者是享有的主體地位不充分,這一邏輯的前提,都在本質(zhì)上承認(rèn)了其本身的法律主體資格,而對(duì)于存在的部分瑕疵,則只是程度問(wèn)題,并不影響對(duì)本質(zhì)的判斷。因此,基于上述思考,本文認(rèn)為將這種觀點(diǎn)放于主體說(shuō)的討論中較為恰當(dāng)。
1.有限人格說(shuō)
有限人格說(shuō)認(rèn)為,人工智能目前雖然應(yīng)用于諸多領(lǐng)域,但其水平和人類智慧相比遠(yuǎn)遠(yuǎn)不在一個(gè)層級(jí)。但在實(shí)際應(yīng)用中,人工智能已具備部分法律主體的必備要素,因此人工智能只能在有限的范圍內(nèi)享有權(quán)利、履行義務(wù),是有限的法律主體。郭萬(wàn)明在其文章中指出,隨著智能程度的提高,人工智能獨(dú)立性增強(qiáng),具有獲得法律人格的可能性和法理基礎(chǔ)。第一,“非人可人”的功利主義表明,法律承認(rèn)主體地位是基于經(jīng)濟(jì)生活的客觀要求;第二,承認(rèn)人工智能的人格,能避免具體人格缺乏帶來(lái)的現(xiàn)實(shí)問(wèn)題;第三,人工智能有獨(dú)立享有權(quán)利、承擔(dān)義務(wù)的必要,其法律人各有獨(dú)立的存在價(jià)值。因此,不應(yīng)局限于自然人和法人這兩種法律人格,而應(yīng)該以更為多元的主體設(shè)計(jì),賦予不同程度的權(quán)利、責(zé)任。袁曾指出,不同于以往的傳統(tǒng)工具,人工智能具有高度智慧性和獨(dú)立的行為決策能力,性質(zhì)上可以定性為能獨(dú)立表示意思的特殊主體。隨著人工智能侵權(quán)事件頻發(fā),人工智能有必要設(shè)計(jì)成具有可責(zé)性和可驗(yàn)證性的實(shí)體,不能夠因人工智能非人類,就可以逃脫法律制裁。但是,即使人工智能發(fā)展到了具備自主意志的程度,其內(nèi)部構(gòu)造、生產(chǎn)方式等方面與人類仍有本質(zhì)差別,本質(zhì)上是人類創(chuàng)造的工具,因此只能賦予其有限人格。
2.擬制人格說(shuō)
持有擬制人格說(shuō)觀點(diǎn)的學(xué)者認(rèn)為,人工智能具備人類思維能力,因而超越了一般的“物”的概念,但又不同于生物學(xué)意義上的人,本質(zhì)上不能擺脫為人類服務(wù)的工具角色,因此對(duì)人工智能來(lái)說(shuō),其既不是工具也不是人,就可以像法人一樣,為其在法律上擬制一個(gè)新的主體,賦予其類似于自然人的法律地位。
張紹欣從法律主體概念回歸到法律位格概念,論述了古典羅馬法中從上到下的“位格減等”制度。羅馬公民享有三類身份權(quán):自由權(quán)、市民權(quán)、家族權(quán),其中的一種或者兩種喪失便成為法律位格上不完整的人,在法理上以“位格減等”的方式把人轉(zhuǎn)化為喪失三類身份權(quán)的自動(dòng)化工具。接著以“位格減等”的反向邏輯“位格加等”為視角,解讀現(xiàn)代法人制度如何實(shí)現(xiàn)法律主體意義上的“位格加等”:擬制人設(shè)組織的法律人格,賦予其一定法律位格的主體地位,進(jìn)而明確其法律責(zé)任,享有既區(qū)別于自然人又有別于法人組織的法律位格。當(dāng)然,人工智能作為人造物,實(shí)定法律地位也必然低于人類。
基于法釋義學(xué)的討論,陳吉棟分析了如何運(yùn)用“擬制”這門(mén)法律技術(shù),將實(shí)為權(quán)利客體的人工智能認(rèn)定為民事主體,在“擬制”技術(shù)的運(yùn)用下,具體問(wèn)題也不應(yīng)一概而論,比如,對(duì)于知識(shí)產(chǎn)權(quán)歸屬的實(shí)際問(wèn)題就應(yīng)交由現(xiàn)行法規(guī)進(jìn)行分析,只要人工智能創(chuàng)作的作品符合知識(shí)產(chǎn)權(quán)法的作品要求,便無(wú)需進(jìn)行智能測(cè)試,即可將其視為法律主體。
3.電子人格說(shuō)
韓國(guó)制定了《機(jī)器人基本法案》,規(guī)定政府制定機(jī)器人倫理,政策賦予人工智能電子人格地位,從而享有相應(yīng)的權(quán)利義務(wù),進(jìn)而確認(rèn)人工智能致害的責(zé)任承擔(dān)方案,人工智能設(shè)計(jì)方、制造商以及用戶都應(yīng)遵守這一政策,從而提升對(duì)于人工智能的倫理關(guān)懷。
郭少飛在其文章中認(rèn)為,人工智能法律主體一方面擁有人類的智能特征,另一方面本質(zhì)上是電子化技術(shù)構(gòu)建的機(jī)器設(shè)備,因而可命名為“電子人”,其主體性通過(guò)權(quán)利能力來(lái)體現(xiàn),而智能程度、理性程度影響權(quán)利能力的范圍。“電子人”人格本質(zhì)上是“人工類人格”,體現(xiàn)的是其輔助人類的工具價(jià)值,因并不具備自然血親關(guān)系,亦不會(huì)產(chǎn)生社會(huì)結(jié)構(gòu),因此目前可享有物質(zhì)性人格權(quán)和較為完全的財(cái)產(chǎn)權(quán),而沒(méi)有必要具備精神性人格權(quán)和身份權(quán)。類似于法人的設(shè)立與終止,“電子人”獲得法律主體資格也需要經(jīng)過(guò)嚴(yán)格規(guī)范的程序。作者在文章中給出的思路是,“電子人”以登記設(shè)立為主,由制造商等監(jiān)管者提出設(shè)立申請(qǐng),經(jīng)過(guò)登記機(jī)關(guān)審核登記方可成立。
主體說(shuō)的論證思路是由未知探需知、從結(jié)果推原因。學(xué)者對(duì)是否賦予人工智能法律主體資格進(jìn)行了價(jià)值判斷,認(rèn)為應(yīng)將人工智能納入到法律體系中,進(jìn)而在價(jià)值判斷的前提下進(jìn)行了選擇,強(qiáng)調(diào)賦予人工智能法律主體地位的必要性,并探索人工智能成為法律主體的可能性。這也可以看出,主體說(shuō)很大程度上是價(jià)值判斷的選擇結(jié)果,而忽略了從價(jià)值判斷到得出結(jié)論這中間的論證過(guò)程和解釋方法,因此論證并不完善。人工智能的活動(dòng)本質(zhì)是自身算法決定行為,并不具備人類所特有的自主思考能力,所以如何認(rèn)定其獨(dú)立人格?在一定時(shí)期,現(xiàn)有法律體系可以解決人工智能的致害糾紛,那是否有必要將人工智能納入民事主體法律體系?這些都是主體說(shuō)需要完善的問(wèn)題。
持有客體說(shuō)觀點(diǎn)的學(xué)者認(rèn)為,人工智能在本質(zhì)上是人類的輔助工具,不具有法律的人格屬性,因而不能賦予其法律主體資格。人工智能不具備人類肉體的生理構(gòu)造,因而無(wú)法獨(dú)立承擔(dān)責(zé)任,無(wú)法獨(dú)立擁有財(cái)產(chǎn),亦不能像法人一樣被“擬制”為法律主體。同時(shí)考慮到“人類中心主義”和“智能機(jī)器人工具論”,應(yīng)在法律上將人工智能定位為客體。
1.絕對(duì)客體說(shuō)
劉練軍在其文章中指出,法律主體是人且只能是人。即使是法人,其本質(zhì)也是一種有意識(shí)的人組成的集合體,而非隨機(jī)生成的松散產(chǎn)物,作為一種目的性存在物,其權(quán)利義務(wù)具有獨(dú)立性,享有權(quán)利承擔(dān)義務(wù)的社團(tuán)本身而非全體成員,此乃法人取得法律人格的基本條件。而人工智能缺乏基本的認(rèn)知能力,作為其“大腦”的算法本質(zhì)上是一套符號(hào)運(yùn)算程序,其所有動(dòng)作不是源于心理認(rèn)知意志,而是來(lái)自大數(shù)據(jù)和算法的機(jī)械指令,因而不屬于法律意義上的行為。時(shí)方通過(guò)檢驗(yàn)刑罰目的實(shí)現(xiàn)與否,反面論證得出了人工智能沒(méi)有必要認(rèn)定為刑事主體的結(jié)論。從刑法懲治與安撫的功能來(lái)看,人工智能本身既無(wú)生命也無(wú)財(cái)產(chǎn),亦無(wú)對(duì)行動(dòng)自由、積累財(cái)富的客觀需求,同時(shí)也無(wú)法產(chǎn)生類似于人類的肉體痛苦感和心理負(fù)罪感,故無(wú)法通過(guò)刑罰懲罰手段達(dá)到對(duì)被害人安撫的目的。從刑罰矯正功能來(lái)看,犯罪是行為人主客觀要件相統(tǒng)一的結(jié)果,而人工智能的行為是程序運(yùn)行的結(jié)果,其主觀惡性難以認(rèn)定,自然無(wú)法作出社會(huì)危險(xiǎn)性和再犯可能性的判斷,教育改造的目標(biāo)也難以談起。
2.特殊物說(shuō)
劉洪華認(rèn)為,人類之外者,本質(zhì)皆是人類之工具。人工智能不具備人之理性,不能取得類似于自然人的人格,賦予其主體地位也無(wú)實(shí)際益處,故不能取得類似于法人的獨(dú)立地位。鑒于人工智能的自主性和智能性,人工智能應(yīng)被定義為法律上的特殊物而處于法律客體地位,同時(shí)根據(jù)智能程度對(duì)人工智能進(jìn)行分類規(guī)制。
與主體說(shuō)相反,持有客體說(shuō)觀點(diǎn)的學(xué)者更注重解釋作出價(jià)值判斷的過(guò)程,即從已知條件推導(dǎo)結(jié)果。人工智能在根本上不符合法律主體的成立條件,因而不應(yīng)納入現(xiàn)有法律主體體系,亦沒(méi)有納入法律主體體系的必要。但是在客觀說(shuō)結(jié)論的推導(dǎo)過(guò)程中,存在的邏輯疏漏是自然人、法人、非法人組織是我國(guó)現(xiàn)行民事法律制度下的三類主體,而這三種民事主體何以成為民事主體?三種之外的主體何以不能成為民事主體?在民法規(guī)定中,并未對(duì)自然人、法人、非法人組織的民事主體參與資格作出解釋,導(dǎo)致“民事主體成立根據(jù)”存在空白,也直接關(guān)乎到人工智能法律主體資格的最終答案。
雖然人工智能的法律主體資格尚存爭(zhēng)議,但我們應(yīng)在研究分析其法律主體資格的基礎(chǔ)之上,為人工智能選擇進(jìn)行合理有序的制度設(shè)計(jì),形成以人工智能技術(shù)發(fā)展與保障為主題的社會(huì)治理體系,筆者提出以下構(gòu)想:
根據(jù)人工智能發(fā)展的階段性特征,推進(jìn)其權(quán)利、義務(wù)、責(zé)任的法制化。一方面,根據(jù)人工智能研發(fā)應(yīng)用的現(xiàn)實(shí)需要,創(chuàng)制人工智能的基礎(chǔ)性法律,以彌補(bǔ)現(xiàn)有法律體系的缺失。另一方面,對(duì)于已在專門(mén)領(lǐng)域如自動(dòng)駕駛等領(lǐng)域成熟應(yīng)用的機(jī)器人,制定專門(mén)的管理規(guī)定,以明確法律責(zé)任。同時(shí),也應(yīng)制定一套完整的人工智能行業(yè)規(guī)范,作為內(nèi)部約束的行為準(zhǔn)則,為人工智能的研發(fā)與應(yīng)用確定框架性制度,實(shí)現(xiàn)人工智能法律標(biāo)準(zhǔn)一體化。
就現(xiàn)有監(jiān)管體系而言,我國(guó)是領(lǐng)域性的分類監(jiān)管模式,監(jiān)管力量分散于專門(mén)行業(yè)。人工智能監(jiān)管對(duì)專業(yè)知識(shí)的要求程度較高,因此可設(shè)立獨(dú)立的人工智能監(jiān)管機(jī)構(gòu),統(tǒng)一對(duì)人工智能研發(fā)、應(yīng)用等方面進(jìn)行監(jiān)管,從而避免職能推諉,提升監(jiān)管效率。綜合考慮人工智能的智能水平、社會(huì)風(fēng)險(xiǎn)和論題難題等因素,對(duì)生產(chǎn)型機(jī)器人、服務(wù)型機(jī)器人等進(jìn)行分級(jí)分類監(jiān)管,從而實(shí)現(xiàn)分級(jí)監(jiān)管、重點(diǎn)治理。