張圣強
(安徽大學法學院 安徽·合肥 230601)
人工智能的發(fā)展和廣泛運用給人們的生活帶來了便利,但是也從道德、法律等層面對人類社會造成了沖擊,因而我們要對人工智能進行合適的規(guī)制。人工智能的法律人格問題一直是法學界重點關(guān)注的問題,基于解決實際法律爭議以及維護社會秩序、法律秩序穩(wěn)定的考量,我們有必要對人工智能的法律人格進行探究并謀求合適的規(guī)制路徑。
自1956年問世以來,人工智能實現(xiàn)了長足的發(fā)展,并廣泛地被運用于金融、醫(yī)療、即時通訊、無人自動駕駛等領(lǐng)域,極大地促進了社會生產(chǎn)力和社會效率的提高。但近年來,無論是人工智能生成物的著作權(quán)歸屬問題,還是自動駕駛的侵權(quán)責任問題,亦或是人臉識別的隱私侵權(quán)問題,都引發(fā)了對人工智能法律人格問題的深思。“在人工智能發(fā)展處于低谷且沒有高級人工智能實物的背景下,應(yīng)當按照現(xiàn)行法進行相對保守的處理,人工智能真正普及之后就需要考慮是否賦予法律人格的問題?!盵1]這是學界對人工智能法律人格的最初提及。機器人“索菲亞”人類公民身份的授予,再次引發(fā)了關(guān)于人工智能法律人格的熱議。著眼于國內(nèi),人工智能法律人格問題也未有定論??傮w而言,到底是否明確人工智能的法律人格,如何劃分其與自然人主體間法律人格的界限,采用怎樣的法律規(guī)則去進行規(guī)制,權(quán)利義務(wù)如何具體地去明確等都是亟待解決的問題。
人工智能的法律人格問題是法律界的熱門話題,學者們從法哲學、法理學、社會風險、道德規(guī)范等層面入手,在人工智能是否能夠取得法律主體資格問題上持不同觀點。
1.否定說
否定說堅持不應(yīng)該將人工智能視為法律主體。否定說可以進行進一步的劃分。具體來看,一是工具說,強調(diào)人工智能的“人工”特性、工具性,即堅持認為,再智能的科技也只不過是人類用來認識和改造世界的工具。人工智能體生產(chǎn)物的歸屬,應(yīng)當屬于雇主或者委托人,人工智能體本身不能成為真正意義上的“作者”,僅僅是被利用的工具[2]。二是法律客體說。“現(xiàn)階段的人工智能體的智能并未超出人類理性,仍屬于人類的工具性范疇,且隱含著巨大的風險,應(yīng)當作為法律客體中的特殊物予以保護與規(guī)制。 ”[3]
2.法律人格說
一是代理說,將人工智能視為代理人,其所有人或使用人為被代理人,主張適用代理的法律效果來解決相關(guān)法律爭議。二是電子人格說,即給人工智能特設(shè)一種“電子人”的身份,這主要是來自于歐洲的做法?!霸趯θ斯ぶ悄苓M行科學分類后,對強人工智能賦予法律主體地位具有一定科學性,但需要在實際操作中施加一定限制,即先分類、再確認。”[4]“在分析了智能機器人的認知與行為理性后,有必要在刑事責任層面確認其主體地位與法律人格,并應(yīng)當將其理性程度作為標準,分為無刑事責任能力、相對有刑事責任、完全刑事責任三類主體,即先確認,再分類”。[5]
3.有限人格說
有限人格說承認人工智能有限的法律主體地位??紤]到與自然人主體在行為能力、意思能力、思維、情感、理性認識等方面的實質(zhì)差異,其法律人格必然有別于自然人法律人格,只能在一定程度內(nèi)承認其法律人格。存在觀點主張,傳統(tǒng)法律人格不能當然地套用到人工智能體之上,從人類主體原則出發(fā),運用法律擬制的手段賦予人工智能體特殊的法律地位,借鑒法人制度、運用登記備案制度完善人工智能體的責任體制[6]。從法律規(guī)制的層面上講這是具備實際意義的。
1.人工智能法律人格否定觀之回應(yīng)
否定者的理由還是主要集中于認為人工智能與自然人主體間存在著本質(zhì)差異。機器人固然具有高度的智能,但是不具有自然人的思維能力、情感、欲望、心性與靈性。此外,賦予人工智能法律主體地位,那么在智力方面部分甚至全面超過人類的人工智能是否會威脅自然人的社會主體地位甚至控制人類,這些亦是當下反對賦予人工智能法律人格者的憂慮與不安。誠然上述理由雖然具有一定的合理性,但決不足以否定人工智能的法律主體地位。傳統(tǒng)民法是以自然人為中心構(gòu)建法律主體制度,自然人主體以理性為判斷標準,非自然人主體的判斷標準則為擬制,我們將法人擬制成為法律主體。當然,將人工智能擬制成法律主體亦是解決相關(guān)法律爭議的合適途徑,或者說至少是一種選擇。人類基于合目的性的選擇,將人工智能擬制成法律主體并不意味著人類的貶值,更不代表著人類將被人工智能所控制甚至被替代。從目的角度來看,賦予人工智能法律人格最終還是以為人類服務(wù)為目的。之所以將人工智能擬制為法律主體,其核心依然是自然人的權(quán)利保護問題。說到底人工智能法律人格的賦予是實現(xiàn)法律目的的技術(shù)手段,不存在對人類的威脅和控制。
2.人工智能法律人格構(gòu)成要件的合理性
楊立新教授認為民事主體人格構(gòu)成有三要素:第一要有健全的人體和人腦;第二要有獨立的意志;第三能夠充當特定的社會角色[7]。人工智能在社會生活中得到了廣泛地運用,已經(jīng)擔當了一定的社會角色,第三點已無爭議。人工智能在外在機體方面類似于人類,內(nèi)部軟件運行與人腦的運作也存在高度相似。在獨立意志方面,誠然人工智能的意志主要是通過設(shè)計者編程過程中的代碼輸入,但是偶爾的人工智能中也會出現(xiàn)不符合預(yù)先程序設(shè)計的意志,雖然這是難以說明和解釋的,但是至少我們不能去完全否定人工智能本身獨立意志存在的可能性。因此,從構(gòu)成要件層面來看,人工智能具備被賦予法律人格的條件。
1.侵權(quán)責任分配的明確
人工智能引發(fā)的侵權(quán)責任要進行類型化、場景化的具體分析。當人工智能是獨立地、完全封閉地運行,人工智能產(chǎn)品引發(fā)的侵權(quán)責任由產(chǎn)品制造商承擔不會引發(fā)爭議?!岸嘀黧w間的協(xié)同與開放式支撐的人工智能是更為常見的形式,硬件制造商、軟件提供商、系統(tǒng)運行維護商、基礎(chǔ)網(wǎng)絡(luò)提供商、改造利用的用戶和網(wǎng)絡(luò)侵入者都會實質(zhì)性地影響人工智能的運行,人工智能在運行過程中也會自我優(yōu)化和發(fā)展,此時責任主體認定困難重重。”[8]明確人工智能的獨立法律人格是為了讓智能機器人獨立承擔責任,避免出現(xiàn)制造者、使用者、不同控制者間的責任不清與互相推諉。責任賠償方面,要求設(shè)立人注入責任資本,購買責任保險,并通過調(diào)高責任資本金額,增加責任保險保金的方式來解決責任賠償不足的問題。通過設(shè)立人責任資金、責任保險以及補充賠償責任等的設(shè)定,幫助受害人實現(xiàn)快速理賠,也有益于實現(xiàn)人工智能行業(yè)的良性發(fā)展與維護法律秩序的穩(wěn)定。
2.行為能力與權(quán)利能力的塑造
鑒于人工智能技術(shù)的愈發(fā)成熟,尤其是具備高度智能甚至超智能的自動化機器人的出現(xiàn)及廣泛應(yīng)用,我們不得不考慮的是該賦予其怎樣的權(quán)利,該怎樣設(shè)定其行為邊界,為了塑造人工智能的行為能力和權(quán)利能力,我們也必須考量賦予其法律人格的必要。介于人工智能與自然人主體的不同,同時適應(yīng)智能社會治理的需求來規(guī)制其行為能力與權(quán)利能力的邊界。
在商事交易高度繁榮的今天,人工智能能否代替自然人締結(jié)合法有效的合同是值得研究的問題。在人工智能的運用中,從締約需求的提出到最終合同的締結(jié)都可以由機器來執(zhí)行,但是很容易出現(xiàn)人工智能執(zhí)行的行為與當事人真實意思不一致的情形。傳統(tǒng)解釋論并非總是有效,也并非每次都可以歸結(jié)到現(xiàn)有法律主體身上,那么將人工智能擬制為一個中間的法律主體就很有必要??傊?,為了規(guī)避不必要風險,維持合同交易的安全與穩(wěn)定,考慮直接賦予人工智能法律人格并保障其締約能力。
3.社會治理新模式的構(gòu)建
智能時代即將到來,人類必須考慮的是如何在道德與法律的基礎(chǔ)上去妥善地對待人工智能等非生物實體,一方面要恰當?shù)芈男邢嚓P(guān)的道德義務(wù),另一方面又要從法律的維度出發(fā)去構(gòu)建智能時代社會治理的新模式。智能社會的發(fā)展,要求我們樹立正確的價值觀,不能將機器人當成單純的奴隸,要避免殘酷地對待人工智能。法律面對人工智能的沖擊如果是消極保守或僅做有限反應(yīng),將可能導致更大的不確定。為了適應(yīng)人工智能帶來的沖擊,構(gòu)建新的社會治理模式,有必要承認人工智能法律主體地位。
根據(jù)推理能力的強弱,麥卡錫將人工智能進行了強弱之分,即存在著強人工智能與弱人工智能之區(qū)別。人工智能技術(shù)發(fā)展至今,當然不乏“圍棋天才ALphaGo”及“國象大佬深藍”這樣的高度智能體,同時也存在類似掃地機器人這樣的生活輔助工具體。人工智能呈現(xiàn)出主體性差別大和多層次的發(fā)展特點,那么就要求我們根據(jù)區(qū)分原則進行不同處理。
1.賦予強人工智能擬制法律人格
對于強人工智能,我們在有限的程度內(nèi)承認其法律人格,將其擬制成法律主體。存在兩點要求,首先,能被賦予法律人格的人工智能必然是屬于強人工智能類型,其主體性程度要高,也就是說其滿足能動性、受動性、自主性等的主體性原則,因而和單純作為工具的弱人工智能區(qū)分開來的要求。其次,也是更關(guān)鍵的,必須在滿足法律實際需要的前提下才能承認人工智能法律人格,就是說人工智能必須牽扯到侵權(quán)責任、締約責任等民事責任或者刑事責任的歸責之中,或者存在對其地位無法判斷且牽扯多方利益的情形。
在具體的規(guī)則設(shè)定方面,可作以下具體設(shè)想:首先,專屬于自然人的如生育權(quán)、婚姻的締結(jié)及解除權(quán)等,人工智能不能享有,否則不僅是對道德觀念的挑戰(zhàn)與沖擊,也會造成社會秩序的混亂。其次,公民的政治權(quán)利即參與國家管理活動、參與國家政治生活、發(fā)表相關(guān)言論等權(quán)利不能賦予人工智能,以免人工智能被有心之人利用成政治斗爭的工具,產(chǎn)生不公正的現(xiàn)象,危害國家政治安全和管理安全,阻礙國家發(fā)展。要注重合理設(shè)定人工智能的義務(wù)范圍,保證生產(chǎn)者、設(shè)計者等研發(fā)人員的謹慎義務(wù)并對其進行有效的制度約束。特別要注重明確權(quán)責一致,有效設(shè)定人工智能的權(quán)利,合理限定其責任范圍尤其是細化與所有者、使用者間的責任分擔。當然,強人工智能的登記注冊要加強,并且非常有必要成立專門的監(jiān)管機構(gòu)以及專門的審計機構(gòu)來進行管理和監(jiān)督。
2.將弱人工智能劃歸法律客體
相較于強人工智能,如掃地機器人之類的弱人工智能,其主體性程度甚微,完完全全地可以當作人類的工具來看待。當涉及法律爭議時,無論是權(quán)利義務(wù)的分配還是法律后果的承擔都可歸結(jié)到其制造者、所有者、使用者等實際控制者之上,賦予其法律人格不具社會實效性。故而可以將其劃分到法律客體之范疇,將其視為法律客體、法律上的物更能促進其工具價值的發(fā)揮。更具體地可以劃分成一般物和特殊物,相較而言技術(shù)含量低的人工智能可歸于一般物的范疇適用物權(quán)、侵權(quán)等的規(guī)定。而針對級別高一點的弱人工智能,可將其作為特殊物予以重點關(guān)注,重點仍放在其制造者、所有者、使用者等的權(quán)益保護上。
3.制定倫理和法律相結(jié)合的調(diào)控體系
人工智能自問世以來對于人類倫理、道德的沖擊不可謂不大。從道德倫理的角度出發(fā)對人工智能進行規(guī)制和調(diào)控自人工智能問世就一直是理論界研究的熱點之一。倫理規(guī)范可以對未來出現(xiàn)的問題進行先行預(yù)設(shè),起到先導性的作用,同時立法本身難免的滯后性也要求我們從道德倫理的維度對人工智能的運用進行調(diào)控。從國家層面來看,歐美等許多國家已經(jīng)很注重對人工智能進行倫理學方面的研究,因而,從倫理上對人工智能進行規(guī)范是理論和實踐必然的要求。
人工智能的發(fā)展給法律帶來了諸多的挑戰(zhàn),從法律的角度出發(fā),我們需要在立法、執(zhí)法、司法等綜合維度上對人工智能的法律人格予以完備規(guī)制。明確人工智能的擬制法律人格后要做到與現(xiàn)行法律體系相適應(yīng),鑒于如果對現(xiàn)有法律進行增加或修改,工作過為繁雜和瑣碎,未來在立法上我們可以針對人工智能的運用創(chuàng)制專門的法律,完善關(guān)于人工智能法律人格,相關(guān)權(quán)利義務(wù)、責任歸結(jié)、行政監(jiān)管、司法救濟等的完備規(guī)定,對人工智能在法律上的運用進行統(tǒng)一的規(guī)范和引導。在立法、執(zhí)法、司法的隊伍建設(shè)中,要注意人工智能相關(guān)技術(shù)人才的培養(yǎng),增強法律隊伍的專業(yè)性??偟膩碚f,要注重從法律整體上對于人工智能法律人格及相關(guān)問題的把控,維護法律秩序的穩(wěn)定。
因人工智能而引發(fā)的相關(guān)法律爭議時引起了理論界對于人工智能法律人格問題的關(guān)注。綜合眾家學說和相關(guān)分析,人工智能法律人格的賦予是大勢所趨,這不僅僅是法律實踐的需要更是社會發(fā)展的要求,但必須要對其進行明確的法律規(guī)制,促進科技和法律的和諧發(fā)展。