徐悅偉
摘要:人工智能法律屬性的討論應(yīng)立足于理性本位,試圖突破客體結(jié)構(gòu)限制而將人工智能人格化的觀點(diǎn)混淆了人類自主性與工具自動(dòng)化的本質(zhì)區(qū)別。不同于自然人或者法人,人工智能未能發(fā)展出社會(huì)學(xué)意義上的理性意識(shí),也不具備遵守和解釋法律規(guī)范的能力,賦予其法律人格理由不足且沒有必要。但人工智能與民法上的物仍有較大區(qū)別,鑒于其類人性、技術(shù)性的特征,應(yīng)當(dāng)界定為法律意義上的特殊物格。規(guī)制方面,以侵權(quán)歸責(zé)原則為主,同時(shí)參考著作權(quán)、產(chǎn)品責(zé)任等具體責(zé)任認(rèn)定規(guī)則,以回應(yīng)人工智能科技發(fā)展與法律規(guī)制的現(xiàn)實(shí)需要。
關(guān)鍵詞:人工智能;法律人格;理性主義;特殊物格
中圖分類號(hào):D923
文獻(xiàn)標(biāo)識(shí)碼:A
文章編號(hào):1673-5595(2021)04-0084-08
2010年以來,人工智能發(fā)展的狂熱遍及全球,應(yīng)用層面一路高歌猛進(jìn),相關(guān)話題更是層出不窮。2017年5月,AlphaGO以3:0擊敗人類頂尖棋手柯潔,世界為之一震。當(dāng)然,棋盤上的“耀武揚(yáng)威”只是冰山一角,人工智能在各行各業(yè)均有亮眼的表現(xiàn):特斯拉無人駕駛汽車顛覆了傳統(tǒng)道路規(guī)則,沙特授予機(jī)器人“索菲亞”全球首個(gè)公民身份,微軟“小冰”創(chuàng)作的新聞與專業(yè)編輯的新聞毫無差異。以上種種無不標(biāo)志著人工智能正大踏步地走進(jìn)人們的生產(chǎn)、生活。當(dāng)然,人工智能不僅是科學(xué)的話題,更是一個(gè)法律的話題。當(dāng)科技日益成熟,法學(xué)家往往比科學(xué)家更有發(fā)言權(quán),其中,賦予人工智能法律人格便成為學(xué)者們孜孜以求的目標(biāo)。
實(shí)踐中,國內(nèi)外學(xué)者紛紛就賦予人工智能法律人格的可行性各抒己見,歐盟、日本、美國、俄羅斯以及我國也相繼開展相關(guān)的立法探索。2016年,歐盟法律事務(wù)委員會(huì)制定的《歐盟機(jī)器人民事法律規(guī)則》將智能化機(jī)器人界定為“電子人”,并建議賦予其著作權(quán)等法律權(quán)利與義務(wù)。[1]2016年2月,美國加州公路安全管理局將發(fā)生交通事故的人工智能系統(tǒng)認(rèn)定為“司機(jī)”。[2]2017年,俄羅斯學(xué)者起草第一部機(jī)器人法草案——《格里申草案》,該草案提出對(duì)機(jī)器人的法律調(diào)整適用動(dòng)物或者法人的調(diào)整規(guī)則,進(jìn)而增設(shè)專業(yè)的辦理主管機(jī)關(guān)。[3]2017年,我國發(fā)布《新一代人工智能發(fā)展規(guī)劃》,要求“建立追溯與問責(zé)機(jī)制,明確人工智能法律主體以及相關(guān)權(quán)利、義務(wù)和責(zé)任”①。如此看來,賦予人工智能法律人格似乎已是大勢(shì)所趨。
傳統(tǒng)法學(xué)理論與新興事物發(fā)生碰撞時(shí),如何進(jìn)行理性的辨別與論證至關(guān)重要。事實(shí)上,當(dāng)前部分學(xué)者僅憑一腔熱血便著書立說,缺乏冷靜的思考與嚴(yán)謹(jǐn)?shù)耐评?,由此得出的結(jié)論自然前后矛盾、漏洞百出,而這無疑偏離了法學(xué)研究的基本立場(chǎng)與方法。因此,筆者在總結(jié)學(xué)界現(xiàn)有研究成果的基礎(chǔ)上,對(duì)人工智能法律人格進(jìn)行針對(duì)性的否定辨析,明確人工智能的特殊物格定位,進(jìn)而構(gòu)建人工智能的法律規(guī)制路徑,以期對(duì)我國人工智能法學(xué)研究有所裨益。
一、人工智能法律人格的學(xué)界論爭
長久以來,以智能機(jī)器人為代表的人工智能理所當(dāng)然地被人們歸為“物”的一種。然而,隨著強(qiáng)化學(xué)習(xí)、仿真模擬、生物識(shí)別等技術(shù)的發(fā)展及交互融合,人工智能類人化程度不斷提高,越來越多的學(xué)者表達(dá)出對(duì)其作為法律客體的質(zhì)疑,并提議對(duì)其解禁,使之具有法律上的人格。而在否定人工智能法律人格的學(xué)者看來,人工智能的理性意識(shí)并不具有社會(huì)學(xué)意義上的價(jià)值,也無法與現(xiàn)有的法律規(guī)范體系兼容,因此,賦予人工智能法律人格有待商榷。兩派學(xué)者各執(zhí)一詞,爭論頗為激烈。
對(duì)人工智能的法律人格持“肯定說”的學(xué)者數(shù)量較為可觀,與此相關(guān)的論著也較多。劉憲權(quán)通過對(duì)“強(qiáng)人工智能”辨認(rèn)能力與控制能力的分析,主張擁有自我意識(shí)的人工智能與自然人并非涇渭分明,也就是說在自主意識(shí)支配下的“冰冷”的機(jī)器人與有生命的自然人無異。[4]郭少飛以人工智能所具備的規(guī)范性和自主性為邏輯起點(diǎn),同時(shí)考量社會(huì)、文化、倫理以及哲學(xué)等法外因素,主張賦予人工智能以“電子人”身份。[5]袁曾認(rèn)為強(qiáng)人工智能所具有的獨(dú)立自主意識(shí)決定了其法律人格,但這種法律人格顯然與自然人或法人無法相提并論,人工智能責(zé)任承擔(dān)能力、范圍是有限的,因此可以認(rèn)定為“有限法律人格”。[6]除此之外,學(xué)界關(guān)于人工智能法律定位的理論還有“次等法律人格說”②“位格加等說”③和“人工類人格說”④等,在此不再一一贅述。
當(dāng)前持“否定說”的學(xué)者們多運(yùn)用法律實(shí)證主義的方法論證人工智能不具有法律人格。皮勇認(rèn)為受人類控制的人工智能根本不具有獨(dú)立的主體性,并不能為現(xiàn)行法律中的責(zé)任與刑罰所規(guī)制,賦予其法律主體地位極易與現(xiàn)有法律體系產(chǎn)生“排異反應(yīng)”。[7]時(shí)方則根據(jù)意志自由的認(rèn)識(shí)要素與意志要素進(jìn)行分析,主張法律規(guī)范只對(duì)具有社會(huì)評(píng)價(jià)意義的目的性舉動(dòng)施加要求或者禁止,人工智能并不符合法律主體認(rèn)定的本質(zhì)內(nèi)涵。[8]冀洋指出“肯定說”學(xué)者對(duì)人工智能辨認(rèn)與控制能力的認(rèn)識(shí)存在誤解,而且當(dāng)前的法律責(zé)任體系仍應(yīng)以人類為中心,完全沒有必要因科技的進(jìn)步而試圖重構(gòu)原有的責(zé)任體系。[9]
綜觀兩派學(xué)者的主張,筆者以為,當(dāng)前贊同賦予人工智能法律人格的觀點(diǎn)不僅缺乏基礎(chǔ)理論的支持,在論證邏輯上也難以自洽。
第一,“肯定說”學(xué)者對(duì)人與物的區(qū)分存在誤讀。“有限法律人格說”一方面強(qiáng)調(diào)人工智能本質(zhì)上為工具,明顯屬于客體范圍;另一方面卻極力證明其具有獨(dú)立思考能力,應(yīng)當(dāng)賦予法律人格??梢?,“肯定說”學(xué)者的主張并沒有勾畫出完整統(tǒng)一的論證體系,反而陷入前后矛盾的邏輯誤區(qū)。同樣,“人工類人格說”“電子人格說”也認(rèn)為人工智能具有人類倫理意識(shí),而這種倫理意識(shí)又是基于人類的制造,因此被稱為“人工類人格”或“電子人格”。但是,“人工”的附屬性與“人格”的獨(dú)立性存在天生的矛盾。更有甚者,有學(xué)者將人工智能定位為“人工類人格”的同時(shí),又將其歸入“倫理物格”的范疇,[10]此種論證過程不僅難以說服其他學(xué)者,反而增加了對(duì)其自身主張的合理懷疑。
第二,“肯定說”學(xué)者對(duì)法律主體的擴(kuò)張邏輯認(rèn)識(shí)不足。觀古今中外,盡管法律主體的外延不再局限于生物學(xué)意義上的人,但人格的擴(kuò)展并不是一個(gè)無限的過程,而是有一定規(guī)律的。這種規(guī)律表現(xiàn)為人格的擴(kuò)展沿著自然人以及社會(huì)組織兩個(gè)向度進(jìn)行,前者從自由民擴(kuò)展到異鄉(xiāng)人、奴隸乃至黑人、婦女,后者則由最初的自然人擴(kuò)展到法人、其他組織。[11]總體來看,便是“倫理性—經(jīng)濟(jì)性—工具性”的轉(zhuǎn)化過程。而“肯定說”學(xué)者僅根據(jù)人工智能具有遠(yuǎn)超人類的智識(shí)便主張賦予人工智能法律人格,其理想色彩與功利主義過于濃厚。更何況,人工智能法律人格的賦予必然引起更多人格類型的“覺醒”。例如,自20世紀(jì)70年代以來,賦予動(dòng)物法律主體資格的呼聲日益高漲,倘若動(dòng)物被賦予了法律人格,那植物呢?其他生命呢?彼時(shí),人類的生存空間或許要因自己設(shè)定的規(guī)則而萎縮??梢姡瑑H在技術(shù)假想之上作過于細(xì)致的制度設(shè)計(jì),并不能為人工智能法律人格之賦予提供充足的理由。
第三,“肯定說”學(xué)者忽略了人工智能人格化后的社會(huì)風(fēng)險(xiǎn)。暫且不談立法成本問題,一旦賦予人工智能法律人格,即意味著允許其自負(fù)責(zé)任,這顯然會(huì)偏離人工智能的正常發(fā)展方向。倘若如此,制造者、研發(fā)者不必為人工智能的行為負(fù)責(zé),甚至在設(shè)計(jì)、制造階段便不會(huì)考慮技術(shù)風(fēng)險(xiǎn)與社會(huì)風(fēng)險(xiǎn),這不僅違反法律規(guī)范中權(quán)義責(zé)建構(gòu)的意義,有失公平正義之價(jià)值,更會(huì)為社會(huì)安全穩(wěn)定增加諸多不確定因素。
可見,人工智能法律人格“肯定說”學(xué)者的主張似乎并未遵循嚴(yán)謹(jǐn)?shù)姆ㄕ軐W(xué)意義上的理性與意志之證成,也絕非人權(quán)保護(hù)的需要,更像是單純的“去人類中心化”的理念使然。[12]如果一味追求對(duì)人工智能法律人格“偽命題”的解答,不假思索擴(kuò)張法學(xué)理論反而會(huì)走入形而上的學(xué)術(shù)誤區(qū)。
反觀人工智能法律人格“否定說”的觀點(diǎn),已注意到了人工智能缺乏社會(huì)學(xué)意義上的自我意識(shí),且其本身無法與法律規(guī)范中的權(quán)利義務(wù)相統(tǒng)一。而且,“否定說”學(xué)者并沒有沉迷于強(qiáng)人工智能的烏托邦里,而是立足實(shí)際,通過實(shí)證推理與解釋技術(shù)實(shí)現(xiàn)了人工智能與現(xiàn)有法律的契合。例如,某些人工智能軟件可視為智力成果的一種,從而歸入《中華人民共和國民法典》(以下簡稱《民法典》)第115條中列明的物的范疇,同時(shí)成為著作權(quán)的保護(hù)客體;人工智能致害則可堅(jiān)持解釋論視角,適用產(chǎn)品責(zé)任規(guī)則或者類推適用動(dòng)物飼養(yǎng)人、管理人責(zé)任??梢?,現(xiàn)有的法律規(guī)范面對(duì)人工智能并非無可奈何,這亟待“肯定說”學(xué)者們的深思與警醒。
二、人工智能法律人格否定之再審視
盡管人工智能法律人格“否定說”更符合公眾認(rèn)知與理性邏輯,但事實(shí)上,“肯定說”學(xué)者的主張一直處于優(yōu)勢(shì)地位。究其原因,有兩點(diǎn)值得反思:其一,“否定說”學(xué)者過于關(guān)注人工智能理性思維、獨(dú)立意識(shí)等哲學(xué)甚至是玄學(xué)理論的應(yīng)用,而沒有找到一種可修改、可證偽、可操作的論證方式,以至于雖有的放矢,卻千篇一律,毫無新意;其二,即便部分學(xué)者憑借豐富的哲學(xué)、社會(huì)學(xué)、法學(xué)、心理學(xué)等知識(shí)推翻了“肯定說”的主張,但其忽略了更為重要的后續(xù)問題,那就是人工智能應(yīng)該如何定位,若籠統(tǒng)地歸為民事法律關(guān)系客體的大類范疇,則會(huì)加劇理論的脆弱性。要妥善解決以上兩個(gè)問題,不僅要在自然法意義上討論人工智能是否符合人的定義,還應(yīng)從實(shí)證法角度觀察人工智能是否具備成為法律人格的條件。最重要的是,在數(shù)字法治時(shí)代下,為實(shí)現(xiàn)對(duì)人工智能的有效規(guī)制,亟待為人工智能尋找具體的法律框架。
自然人是無可爭議的法律人格主體,法人以及其他組織在漫長的法治進(jìn)程中也被賦予了“鮮活的生命”。對(duì)比人工智能與自然人、法人法律人格的生成邏輯,便可驗(yàn)證其法律人格的虛假性。
(一)人工智能不符合法律對(duì)“理性人”的定義
盡管學(xué)界對(duì)“理性人”的表述各有不同,但最終殊途同歸,基本都落到了認(rèn)知理性、行為理性、權(quán)責(zé)義的享有等范疇。因此,對(duì)于人工智能法律人格的辨析可從兩個(gè)方面尋找思路,分別是理性意識(shí)和遵守與解釋法律規(guī)范的能力。
1.人工智能不具備“人之魂”——理性意識(shí)的缺失
美國大法官霍姆斯曾言:法律的生命在于經(jīng)驗(yàn)而不是邏輯。[13]霍姆斯的觀點(diǎn)說明法律不僅是規(guī)范體系,還是價(jià)值與倫理體系,這種體系下的主體預(yù)設(shè)便是理性人。理性人的設(shè)定在我國法律規(guī)范中同樣有所體現(xiàn),我國《民法典》總則編中的民事主體主要包括自然人和法人、非法人組織等,其主體地位主要通過民事權(quán)利能力與民事行為能力予以確認(rèn)。其中自然人民事權(quán)利能力始于出生終于死亡,民事行為能力則更多考慮到年齡、智力、精神健康狀態(tài)等因素??梢姡睹穹ǖ洹分械拿袷轮黧w認(rèn)定傾向于對(duì)理性的考量,而這種理性可以簡化為認(rèn)知理性與行為理性。前者內(nèi)化于人的感性認(rèn)識(shí)與邏輯推理,是透過現(xiàn)象看本質(zhì)的思維過程;后者則是基于前者認(rèn)知,權(quán)衡利弊后對(duì)行為結(jié)果的預(yù)測(cè)與選擇。
人工智能只是人類感官與智能的機(jī)械延伸,本身沒有欲望與感情,可以說人工智能的理性屬于數(shù)字理性,其算法程序與運(yùn)行規(guī)則都是人類預(yù)先設(shè)計(jì)的(至少現(xiàn)在是這樣的)。具體而言,一方面,人工智能缺乏認(rèn)識(shí)理性。廣義的認(rèn)識(shí)包括識(shí)別與感情。盡管智能機(jī)器人早已具備遠(yuǎn)超人類的識(shí)別能力,但感情的證明頗為艱難。人類之所以作為道德對(duì)待的對(duì)象,正是因?yàn)槿祟愑懈星?,這種感情體現(xiàn)在對(duì)快樂的追求、對(duì)痛苦的逃避、對(duì)可憐人的同情。雖然機(jī)器人完全可以在高溫或者極寒的環(huán)境中表現(xiàn)出痛苦、恐懼的狀態(tài),但這種狀態(tài)并非內(nèi)發(fā)形成的,不排除人類指令控制的可能。[14]另一方面,人工智能缺乏行為理性。在行為理性方面,人類總是能夠自動(dòng)根據(jù)特定的情景設(shè)定階段性目標(biāo),即人類并不會(huì)直接去執(zhí)行總目標(biāo),而是將過程分為數(shù)個(gè)階段性目標(biāo),逐一達(dá)成;而人工智能的運(yùn)行機(jī)理在于通過在海量數(shù)據(jù)庫中“暴力窮舉”式的搜索找出最佳答案,這一過程目的唯一、方式單一,以至于有學(xué)者曾言:“凡是可以描述的、重要的、有固定規(guī)則和標(biāo)準(zhǔn)答案的工作崗位,都有被智能機(jī)器人取代的可能。”[15]因此,從理性本位考量,人工智能缺少成為人的“靈魂”,完全沒有理由賦予其法律人格。
2.人工智能不具備“人之能”——解釋與遵守法律規(guī)范能力的缺乏
阿西莫夫在科幻小說《我,機(jī)器人》中曾提出“機(jī)器人三定律”:第一,不傷害定律,機(jī)器人不得傷害人類,也不能對(duì)受到傷害的人類袖手旁觀;第二服從定律,機(jī)器人必須服從指令,但不得違反第一定律;第三自保定律,機(jī)器人應(yīng)盡可能保護(hù)自己,但不得違反第一第二定律。同時(shí),為了阻止人類彼此傷害,也為了避免前述定律的自相矛盾,后人又補(bǔ)充了“第零定律”,即機(jī)器人不得傷害人類整體,或者坐視人類整體受到傷害。檢視人工智能與法律規(guī)則的“碰撞”,人工智能沒有服從法律規(guī)范的期待可能性,也無法感知違法行為對(duì)社會(huì)造成的消極后果,自然欠缺將其納入法律主體范圍的可行性。即使在未來,人工智能突破了技術(shù)“奇點(diǎn)”,能夠做到遵從法律規(guī)范,但對(duì)法律規(guī)范的解釋又會(huì)成為難題?;诜ń塘x學(xué)的視角,人類遵守規(guī)則最好的方式是解釋規(guī)則。對(duì)于人類、機(jī)器人、命令、保護(hù)、傷害等法言法語的解釋,人與人之間尚有不同理解,機(jī)器人與人、機(jī)器人與機(jī)器人之間更會(huì)大相徑庭。也許人工智能錯(cuò)誤理解保護(hù)人類的含義,算法自主加劇認(rèn)知危機(jī),最終演化為算法戰(zhàn)爭。
綜上,人類創(chuàng)設(shè)人工智能的直接目的是讓人從勞動(dòng)中解放出來,最終目的是提高人類社會(huì)的整體福利,其必然不具備獨(dú)立意識(shí)與自然理性。如果人類賦予人工智能獨(dú)立意識(shí),無疑如造物主般創(chuàng)設(shè)了新的物種,這顯然與人工智能的設(shè)計(jì)初衷相背離。同時(shí),人工智能無論如何都無法取得社會(huì)學(xué)意義上的身份與財(cái)產(chǎn),不具備成為法律主體的物質(zhì)性條件,更無法做到理解與遵守規(guī)則。因此,人工智能難以符合法律所接受和關(guān)懷的理性人的定義。
(二)人工智能難以契合擬制主體法理
既然人工智能無法比照自然人獲得法律人格,那么能否另辟蹊徑,借助“非人可人”的法律擬制技術(shù),轉(zhuǎn)而走外部賦權(quán)的路徑呢?筆者以為此種解釋同樣存在問題。
第一,法人屬于人的集合。雖然法人與人工智能都難以與自然人的生理構(gòu)造與倫理觀念相契合,既沒有可譴責(zé)的靈魂也沒有可受罰的身軀。法人作為組織體,無論是社團(tuán)法人還是財(cái)團(tuán)法人,均是基于人的意志而設(shè)立的特定組織。也正因?yàn)榉ㄈ说臎Q策是由自然人做出、法人的意志體現(xiàn)著自然人整體的意志,所以我國對(duì)單位犯罪采取雙罰制。雙罰制的設(shè)計(jì)邏輯又反證法人的責(zé)任并非其獨(dú)立承擔(dān),而是與背后的自然人共同承擔(dān),這更加印證了法人所謂的“生命”與“靈魂”源于人腦。反觀人工智能,其作出的決定是基于數(shù)據(jù)與算法的集合,缺乏人格集合的事實(shí)基礎(chǔ),無法發(fā)揮法律擬制的技術(shù)價(jià)值。[16]因此,僅單純地觀察法人的運(yùn)行邏輯完全無法得出人工智能具有法律人格的結(jié)論,更難以掙脫以倫理觀念為中心的歸責(zé)桎梏。
第二,賦予法人擬制人格是社會(huì)發(fā)展的必然結(jié)果。古羅馬法曾就生物人和人格人作出區(qū)分,強(qiáng)調(diào)了“homo”(生物人)、“persona”(身份、面具)與“caput”(權(quán)利義務(wù)主體)的區(qū)別,并設(shè)計(jì)人格減等制度對(duì)市民的人格進(jìn)行限制與規(guī)范,這表明法律對(duì)象的評(píng)價(jià)逐漸由市民中心轉(zhuǎn)向社會(huì)中心。正是顧及法人在社會(huì)中的獨(dú)立地位與獨(dú)立價(jià)值才使得其成為法律主體有了可能。這種社會(huì)價(jià)值體現(xiàn)在兩個(gè)方面:其一,分離個(gè)人財(cái)產(chǎn)與團(tuán)體財(cái)產(chǎn),使責(zé)任相互獨(dú)立,有利于規(guī)避風(fēng)險(xiǎn)投資,推動(dòng)資本主義發(fā)展;其二,將個(gè)人與法人兩種人格的地位獨(dú)立,節(jié)約了司法成本,便利了交易與訴訟。而人工智能依靠大數(shù)據(jù)與算法運(yùn)行,不具備控制自身行為的意志能力,其本身的歸屬并不明確,更枉談獨(dú)立地位之證成。而且,人工智能法律人格宣示意義遠(yuǎn)勝于實(shí)際作用,其不會(huì)為解決社會(huì)運(yùn)作中的問題帶來突破性方案,更不會(huì)像法人一般產(chǎn)生巨大的社會(huì)效益。
第三,法人的目的仍是服務(wù)自然人。法人本質(zhì)上屬于自然人個(gè)體人格的群體化,即便“非人可人”,那也是對(duì)自然人能力的順從與周延,擬制技術(shù)的目的仍是服務(wù)于自然人。因此,基于法人與自然人的同質(zhì)性,將法人納入民事主體中無可厚非。如果將人工智能擬制為“法人”或者“電子法人”,不但在實(shí)踐中缺乏可操作性,更重要的是會(huì)喪失“服務(wù)人”的擬制目的,有導(dǎo)致人的“貶值”之虞。
三、人工智能的法律定位:特殊物格
前文提到,造成“否定說”主張劣勢(shì)的另一大原因是其沒有為人工智能尋找到精準(zhǔn)適宜的法律框架。筆者以為,人工智能只是人類智商與行為簡單地、機(jī)械地延伸,本身不具備成為法律意義上主體的可能性,不應(yīng)當(dāng)賦予法律人格,而應(yīng)在民法客體的范圍內(nèi)尋找歸宿,特殊物格便是其中頗為適宜的選擇。
(一)特殊物格的邏輯起點(diǎn)
在羅馬法中作為社會(huì)主體的人與權(quán)利客體的物,在幾千年的發(fā)展歷程中趨向兩極化,即人格的類型逐漸單一化,以人格減等為聯(lián)系紐帶的多元人格走向單一的平等人格;而物的發(fā)展卻因人對(duì)社會(huì)認(rèn)識(shí)與支配范圍的提高而有了極大擴(kuò)展,呈現(xiàn)出多樣化的樣態(tài),[17]這就使得物的種類增加、共性減弱、個(gè)性凸顯,物格的內(nèi)涵逐漸豐富。
物格,顧名思義,是指物的資格或標(biāo)準(zhǔn)。法律意義上的物格是相對(duì)于人格而言的概念,強(qiáng)調(diào)物作為權(quán)利客體的資格、規(guī)格或格式。[18]當(dāng)前我國并沒有明確物格的法律定義,而是以財(cái)產(chǎn)作為替代。[19]但法律概念的缺失并不代表現(xiàn)實(shí)需求的虛無,相反,以人工智能為代表的新興事物正期待著物格理論的回歸。一方面,通過借鑒歷史上法律人格的創(chuàng)設(shè)邏輯塑造民法物格的基本結(jié)構(gòu),可以實(shí)現(xiàn)物的類型化保護(hù)。質(zhì)言之,將不同的物賦予不同的物格,方便立法者依據(jù)法律主體支配力、物格特性等因素確定不同的保護(hù)力度,最終制定不同的規(guī)制方法。另一方面,特殊物格的結(jié)構(gòu)設(shè)計(jì)為以人工智能為代表的新事物預(yù)留了制度空間。特殊物格并不是封閉的系統(tǒng),而是始終保持著開放的態(tài)勢(shì),這就意味著即便未來出現(xiàn)了顛覆人們傳統(tǒng)認(rèn)知的事物,也可以在現(xiàn)有法律框架中找到規(guī)制方法,避免了無法可依的尷尬局面。
通說認(rèn)為,根據(jù)物格利益的不同,可將其分為倫理物格、一般物格及特殊物格。倫理物格是指具有生命倫理價(jià)值之物的資格,包括與人體或者人格利益有關(guān)的物,如死胎、尸體、脫離人體的器官等;也包括其他生命類型的物,如寵物、野生動(dòng)物、植物。一般物格是指民法中的物的統(tǒng)稱,也就是傳統(tǒng)的動(dòng)產(chǎn)或不動(dòng)產(chǎn)。特殊物格指具有特殊法律屬性并應(yīng)以特殊規(guī)則加以規(guī)范的物的資格,如證券、作品、電子貨幣、虛擬財(cái)產(chǎn)等。在理解物格類型的基礎(chǔ)上,接下來要做的便是為人工智能尋找適宜的規(guī)制框架。
(二)人工智能特殊物格的理性證成
人工智能不同于民法上一般的物,也與人類生理構(gòu)造、思維邏輯有著本質(zhì)區(qū)別,不宜歸入倫理物格或一般物格的范疇。具言之,一方面,倫理物格始終伴隨著生命與人格利益,可謂是民法客體體系中地位最高、支配力最強(qiáng)的首要物格。如此,對(duì)于此類物格的規(guī)制與保護(hù)力度應(yīng)盡可能趨同于法律主體上的自然人。而如前文所述,人工智能無論如何都不具備成為人的物質(zhì)性條件,更無法產(chǎn)生理性意識(shí)與解釋能力,這與倫理物格所概括的物的屬性格格不入。另一方面,一般物格是民法中最基本、支配力最低的物的資格,屬于兜底的物的資格。傳統(tǒng)民法對(duì)一般物格內(nèi)容的劃分僅局限于有體物,顯然無法應(yīng)對(duì)當(dāng)前高端的科技產(chǎn)物與復(fù)雜的社會(huì)關(guān)系。因此,若將人工智能籠統(tǒng)的歸為一般物格的范疇,難免有牽強(qiáng)附會(huì)之嫌。
將人工智能歸為倫理物格或者一般物格均有一定的局限性。參考人工智能的構(gòu)造、運(yùn)行機(jī)理以及與人類的關(guān)系,宜塑造為特殊物格,從而確定其法律地位、權(quán)利規(guī)則以及保護(hù)措施。將人工智能定位于特殊物格有多重意義。首先,確立人工智能特殊物格制度,有利于厘清人機(jī)定位。人工智能是法律客體上的物,更準(zhǔn)確地說是法律客體中特殊的物;而人作為法律主體中的自然人,享有權(quán)利并承擔(dān)義務(wù)。主客體分類可以明確人與機(jī)器人的法律地位,對(duì)當(dāng)前法學(xué)界人工智能的研究指引頗有益處。其次,明確人工智能特殊物格定位,有利于為人工智能提供區(qū)分化保護(hù)。從成本-效益角度來看,與人類關(guān)系密切、技術(shù)設(shè)計(jì)復(fù)雜的人工智能應(yīng)得到最為完善的保護(hù),而對(duì)被廣泛應(yīng)用、操作簡單的人工智能的保護(hù)力度則稍遜一籌。最后,明確人工智能特殊物格定位,有利于人工智能的可控發(fā)展。將人工智能歸為客體范疇,意味著設(shè)計(jì)者、制造者、使用者仍應(yīng)盡必要的注意義務(wù),同時(shí)人工智能致害事件發(fā)生后也須承擔(dān)相應(yīng)的責(zé)任。這將有助于政府建立和維護(hù)人工智能的管理秩序,從而實(shí)現(xiàn)安全可控的發(fā)展。
四、特殊物格視野下人工智能的法律規(guī)制構(gòu)想
行文至此,至少可以明確人工智能特殊物格的法理歸屬,而且該構(gòu)想亟待在當(dāng)前的立法規(guī)范中予以體現(xiàn)?;诖?,如何實(shí)現(xiàn)《民法典》等法律規(guī)范的補(bǔ)充與完善,如何構(gòu)建與人工智能有關(guān)的責(zé)任承擔(dān)機(jī)制,便成為下文構(gòu)思的重點(diǎn)。
(一)人工智能特殊物格的宏觀立法建議
利用特殊物格的理論框架,能夠很好地解決人工智能的屬性定位與規(guī)制問題。遺憾的是,現(xiàn)行立法并無對(duì)特殊物格的表述,使得人工智能的法治化建設(shè)缺乏明確的指引。因此,筆者認(rèn)為,基于人工智能與生產(chǎn)生活高度融合以及數(shù)字法治穩(wěn)步推進(jìn)的社會(huì)背景,賦予人工智能特殊物格的法律定位正當(dāng)其時(shí),這種特殊物格屬性不僅應(yīng)當(dāng)反映在《民法典》總則編中,而且各分編乃至部門法律也應(yīng)該進(jìn)行規(guī)則的構(gòu)建與銜接。
第一,在《民法典》總則編中,為特殊物格預(yù)留充分的制度空間。無論是原來的《民法總則》還是《民法典》總則編對(duì)私權(quán)客體均無統(tǒng)一的規(guī)定,這顯然不利于人工智能的法律定位與規(guī)制。當(dāng)然,筆者無意構(gòu)建統(tǒng)一的民事法律客體體系,唯想在民法視閾下明確人工智能的物格屬性,如此,方可為人工智能提供規(guī)范的法治框架。誠如前文所述,人工智能不具備成為法律主體的理性意識(shí)與守法能力,也無法通過解釋技術(shù)賦予其擬制人格,因此,人工智能只能在民法客體范圍內(nèi)尋找歸宿。筆者建議,在民法客體層面無須改變現(xiàn)有學(xué)理對(duì)物的分類序列,而應(yīng)在細(xì)節(jié)上加以補(bǔ)充。例如,按照人工智能的具體形態(tài)可分為有體物和無體物,前者如智能機(jī)器人,后者如自動(dòng)駕駛系統(tǒng)等;基于公共安全視角,可將人工智能分類為流通物、限制流通物以及禁止流通物;另外,人工智能與人工智能生成物可看作原物與孳息。
第二,在《民法典》各分編以及其他部門法中,應(yīng)當(dāng)完善內(nèi)部規(guī)則設(shè)計(jì)與制度機(jī)制。首先,在物權(quán)領(lǐng)域,明確人工智能特殊物格的定位之后,法律主體對(duì)其享有的權(quán)利便可稱為物權(quán)。在整個(gè)物權(quán)體系中,立法者不僅要關(guān)注形式意義上的物權(quán)規(guī)范,還要關(guān)注包含各種特殊物權(quán)制度的實(shí)質(zhì)意義上的物權(quán)規(guī)范。如《中華人民共和國網(wǎng)絡(luò)安全法》《中華人民共和國道路交通安全法》等對(duì)特殊物格的規(guī)制都需要明確與《民法典》物權(quán)編的關(guān)系并做好制度銜接。其次,在債權(quán)領(lǐng)域,主要涉及合同標(biāo)的物及侵權(quán)責(zé)任。前者物之屬性定位完全可以使之成為合同交易的標(biāo)的,對(duì)合同成立、生效以及履行不會(huì)造成沖擊;后者則須參考產(chǎn)品責(zé)任、著作權(quán)等規(guī)范適用,同時(shí)保持規(guī)則張力,以應(yīng)對(duì)人工智能的持續(xù)發(fā)展。最后,在侵權(quán)責(zé)任領(lǐng)域,尤其應(yīng)關(guān)注人工智能侵害自然人生命權(quán)、健康權(quán)、隱私權(quán)以及個(gè)人信息保護(hù)等情形。
(二)人工智能特殊物格的微觀規(guī)則設(shè)計(jì)
前文涉及特殊物格法律框架的表述略顯籠統(tǒng),不足以應(yīng)對(duì)復(fù)雜的司法實(shí)踐。鑒于人工智能造成的糾紛多集中在人身侵權(quán)、人格權(quán)、著作權(quán)等領(lǐng)域,因此,法律規(guī)制的具體細(xì)節(jié)設(shè)計(jì)也應(yīng)當(dāng)從這幾個(gè)方面展開。
1.人工智能著作權(quán)規(guī)制構(gòu)想
《中華人民共和國著作權(quán)法》(以下簡稱《著作權(quán)法》)第11條規(guī)定:在沒有法律規(guī)定以及合同約定的情況下,作品的著作權(quán)歸屬于作者,此處的作者為自然人、法人或非法人組織。人工智能的創(chuàng)作物完全具備相當(dāng)?shù)膭?chuàng)作水準(zhǔn)與藝術(shù)價(jià)值,形式上符合作品的外在要求,但由于其不存在自主創(chuàng)作成分,本質(zhì)上仍是人類智能的應(yīng)用與延伸,因此不存在成為作者的可能。質(zhì)言之,人工智能創(chuàng)作之內(nèi)容,實(shí)質(zhì)上是人機(jī)合作的成果,并沒有脫離《著作權(quán)法》的人格主義基礎(chǔ)。
在理解上述邏輯的基礎(chǔ)上,筆者建議可從兩個(gè)方面構(gòu)建規(guī)制路徑。一方面,人工智能生成物的歸屬。人工智能本身就是作為設(shè)計(jì)者的知識(shí)產(chǎn)權(quán)而存在,人工智能生成的“作品”也屬于衍生品,可以視作職務(wù)作品或者雇傭作品,應(yīng)當(dāng)為著作權(quán)法所保護(hù),由投資者、設(shè)計(jì)者、開發(fā)者、制造者享有和行使權(quán)利。另一方面,人工智能生成物的保護(hù)。對(duì)于人工智能生成物的保護(hù)須重點(diǎn)考察著作權(quán)的取得方式以及保護(hù)期限。著作權(quán)的取得方式,是指著作權(quán)人通過何種方式取得著作權(quán)。目前我國采用自動(dòng)取得規(guī)則,即創(chuàng)作完成便可自動(dòng)取得,無須履行相關(guān)手續(xù)??紤]到人工智能在文學(xué)藝術(shù)創(chuàng)作中的廣泛應(yīng)用,未來將涌現(xiàn)海量的人工智能生成“作品”,為便于證明權(quán)益,解決糾紛,可采用登記備查的方式加以確權(quán)。對(duì)于保護(hù)期限,著作權(quán)法規(guī)定了兩種保護(hù)期限計(jì)算方式:一為“有生之年+死亡后50年”,主要針對(duì)作者為自然人的情形;一為“發(fā)表后50年”,主要適用于法人、其他組織或特殊作品。前文提到,人工智能理論上不死不滅,參考自然人保護(hù)期限難以契合現(xiàn)有實(shí)踐,因此,可以采取“發(fā)表起算主義”,一方面符合社會(huì)理性常識(shí),另一方面可以節(jié)省公眾使用成本。
2.人工智能致害責(zé)任規(guī)制構(gòu)想
當(dāng)前,人工智能已經(jīng)作為消費(fèi)品“飛入尋常百姓家”,同時(shí),人工智能因設(shè)計(jì)缺陷等原因造成的人類財(cái)產(chǎn)、生命受損的情形也屢見不鮮,其中最為熟知的便是自動(dòng)駕駛汽車引發(fā)的交通事故。全球首例自動(dòng)駕駛汽車致死事件于2018年3月發(fā)生在美國亞利桑那州,這也使得其他州的上路測(cè)試計(jì)劃擱淺。⑤事實(shí)上,現(xiàn)有交通規(guī)則往往無法認(rèn)定駕駛者的過失,算法“黑箱”也會(huì)導(dǎo)致解密過程需要付出極大代價(jià)?;诔杀?效益原則,對(duì)此類侵權(quán)問題,應(yīng)當(dāng)首先在產(chǎn)品規(guī)則體系內(nèi)考察,即人工智能若因缺陷造成人類財(cái)產(chǎn)、生命受損時(shí),由產(chǎn)品的設(shè)計(jì)者、制造者、銷售者對(duì)此承擔(dān)無過錯(cuò)責(zé)任;如果是因銷售者的過失造成產(chǎn)品缺陷,則由銷售者承擔(dān)責(zé)任;如果銷售者沒有過錯(cuò),其承擔(dān)責(zé)任后,可以向制造者、設(shè)計(jì)者追償。法理邏輯在于,自動(dòng)駕駛汽車所展現(xiàn)出的自主性,正是前期編程對(duì)程序的開放性設(shè)計(jì)所致,而此種設(shè)計(jì)完全可被生產(chǎn)商控制,此為產(chǎn)品責(zé)任的合理基礎(chǔ)。而且,無過錯(cuò)責(zé)任可以規(guī)制生產(chǎn)行為,倒逼生產(chǎn)者和設(shè)計(jì)者盡最大注意義務(wù)保證產(chǎn)品安全。[20]
當(dāng)然,為了保障人工智能侵權(quán)責(zé)任的落實(shí),有必要建立相應(yīng)的配套機(jī)制。
第一,健全人工智能產(chǎn)品授權(quán)審批及登記備案制度。通過建立嚴(yán)格的審批與登記備案制度,可以實(shí)現(xiàn)事前危機(jī)預(yù)防與事后精準(zhǔn)追責(zé)雙重目的。
第二,建立人工智能責(zé)任技術(shù)認(rèn)定機(jī)構(gòu)。高度智能化、技術(shù)化以及隱蔽化人工智能無法適用原本屬于自然人的鑒別思維與方式,亟待建立專業(yè)機(jī)構(gòu)對(duì)人工智能的倫理價(jià)值、算法邏輯以及運(yùn)行機(jī)理進(jìn)行解釋。
第三,完善人工智能強(qiáng)制保險(xiǎn)制度。人工智能侵權(quán)責(zé)任保險(xiǎn)制度可以滿足大部分被侵害人的基本賠償請(qǐng)求,同時(shí)減少人工智能生產(chǎn)者的經(jīng)濟(jì)壓力,在具體制度設(shè)計(jì)層面,保險(xiǎn)費(fèi)率、承保范圍、免責(zé)條款等可依據(jù)不同的人工智能產(chǎn)品區(qū)別對(duì)待。
3.人工智能侵害人格權(quán)規(guī)制構(gòu)想
人工智能對(duì)人格的侵害集中在隱私權(quán)領(lǐng)域。以當(dāng)下某些流行的網(wǎng)紅App(如抖音、今日頭條、快手等)為例,基于信息與技術(shù)的不對(duì)稱,平臺(tái)利用大數(shù)據(jù)與算法偏好瘋狂攫取用戶個(gè)人信息,增加了信息泄露與違規(guī)使用的風(fēng)險(xiǎn),而用戶對(duì)此毫不知情或者明知道卻無能為力。盡管我國《民法典》中人格權(quán)獨(dú)立成編,足以顯示出國家對(duì)人格保護(hù)的重視,但對(duì)于人工智能信息侵權(quán)的規(guī)范尚處于起步階段,難以起到充分保護(hù)用戶隱私的作用。因此,有必要在《民法典》人格權(quán)編、侵權(quán)責(zé)任編加以落實(shí)與補(bǔ)充。對(duì)此,筆者有如下建議。
第一,強(qiáng)化人工智能制造者、數(shù)據(jù)控制者的責(zé)任。健全通知機(jī)制,即數(shù)據(jù)控制者應(yīng)當(dāng)以清晰、明顯的方式通知用戶;保障用戶知情權(quán),完善同意機(jī)制,對(duì)于人工智能直接或間接使用個(gè)人信息,均須得到用戶同意;確立最低限度原則,數(shù)據(jù)控制者對(duì)于用戶個(gè)人信息的搜集、使用、分析均應(yīng)本著最低限度的原則,防止信息的濫用。
第二,豐富用戶權(quán)利。如增加個(gè)人信息的刪除權(quán)(被遺忘權(quán)),用戶可以向平臺(tái)主張刪除自身遺留的包括瀏覽信息、身份信息、出行信息在內(nèi)的隱私信息,當(dāng)然,此處刪除的內(nèi)容不僅包含用戶所能看得見的,還應(yīng)包括看不見的后臺(tái)存儲(chǔ)的一切有關(guān)數(shù)據(jù);增加數(shù)據(jù)控制者自動(dòng)化處理的解釋權(quán),該權(quán)利強(qiáng)調(diào)用戶可以向人工智能設(shè)計(jì)者質(zhì)詢個(gè)人信息的處理過程,也即算法運(yùn)行機(jī)理的解釋;增加信息處理的拒絕權(quán),若用戶經(jīng)解釋發(fā)現(xiàn)算法規(guī)則存在信息泄露的危險(xiǎn),法律應(yīng)當(dāng)賦予個(gè)人拒絕人工智能自動(dòng)化處理的權(quán)利。
五、結(jié)語
法學(xué)研究固然要與社會(huì)發(fā)展同步,但追逐熱點(diǎn)的同時(shí)切記放緩腳步,甚至要駐足反思。無論人工智能在體能、智能方面如何“碾壓”人類,最終仍逃脫不掉工具范疇,其必然不具備理性意識(shí),更沒有必要賦予其法律人格。人工智能的法律地位應(yīng)當(dāng)界定為客體范疇,無論這種客體具體內(nèi)涵是筆者主張的特殊物格還是其他類型,相信這都是一條正確的道路。
注釋:
① 參見《國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》(國發(fā)〔2017〕35號(hào)),http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm20。
② 參見張紹欣《從法律人類學(xué)視角論智能機(jī)器人與人類的關(guān)系》一文,載于《中國法理學(xué)會(huì)2017年年會(huì)論文集》。
③ 參見Gabriel Hallevy, The Criminal Liability of Artificial Intelligence Entities From Science Fiction to Legal Social Control. Akron Intellectual? Proporty Journal, 2010(4)。
④ 參見Hubbard F P. "Sophisticated Robots":Balancing Liability, Regulation, and Innovation(2015)。
⑤ 全球首例無人車致死案宣判Uber公司無刑責(zé),參見http://news.sina.com.cn/sf/news/hqfx/2019-03-07/doc-ihsxncvh0587667.shtml。
參考文獻(xiàn):
[1] 孫占利.智能機(jī)器人法律人格問題論析[J].東方法學(xué),2018(3):10-17.
[2] 無人駕駛汽車歷史性的一刻:美國官方機(jī)構(gòu)認(rèn)定谷歌自動(dòng)駕駛機(jī)器人為“司機(jī)”[EB/OL].(2016-02-11)[2020-06-29].http://www.ittime.com.cn/news/news_10179.shtml.
[3] 張建文.格里申法案的貢獻(xiàn)與局限——俄羅斯首部機(jī)器人法草案述評(píng)[J].華東政法大學(xué)學(xué)報(bào),2018,21(2):32-41.
[4] 劉憲權(quán).人工智能時(shí)代刑法中行為的內(nèi)涵新解[J].中國刑事法雜志,2019(4):60-72.
[5] 郭少飛.“電子人”法律主體論[J].東方法學(xué),2018(3):38-49.
[6] 袁曾.人工智能有限法律人格審視[J].東方法學(xué),2017(5):50-57.
[7] 皮勇.人工智能刑事法治的基本問題[J].比較法研究,2018(5):149-166.
[8] 時(shí)方.人工智能刑事主體地位之否定[J].法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2018,36(6):67-75.
[9] 冀洋.人工智能時(shí)代的刑事責(zé)任體系不必重構(gòu)[J].比較法研究,2019(4):123-137.
[10] 楊立新.人工類人格:智能機(jī)器人的民法地位——兼論智能機(jī)器人致人損害的民事責(zé)任[J].求是學(xué)刊,2018,45(4):84-96.
[11] 楊立新,朱呈義.動(dòng)物法律人格之否定——兼論動(dòng)物之法律“物格”[J].法學(xué)研究,2004(5):86-102.
[12] 李琛.論人工智能的法學(xué)分析方法——以著作權(quán)為例[J].知識(shí)產(chǎn)權(quán),2019(7):14-22.
[13] E·博登海默.法理學(xué)—法哲學(xué)及其方法[M].鄧正來,姬敬武,譯.北京:華夏出版社,1987:478.
[14] Woodward J,Emotion versus Cognition in Moral Decision-Making: A Dubious Dichotomy[M]// Matthew Liao S. Moral Brains: The Neuroscience of Morality. Oxford: Oxford University Press,2016:87-116.
[15] 吳漢東.人工智能時(shí)代必須關(guān)注的社會(huì)風(fēng)險(xiǎn)與四大問題[EB/OL].(2017-12-21)[2020-05-22].http://www.tisi.org/4967.
[16] 張力,陳鵬.機(jī)器人“人格”理論批判與人工智能物的法律規(guī)制[J].學(xué)術(shù)界,2018(12):53-75.
[17] 楊立新,王竹.論物權(quán)法規(guī)定的物權(quán)客體中統(tǒng)一物的概念[J].法學(xué)家,2008(5):71-77.
[18] 楊立新.民法物格制度研究[M].北京:法律出版社,2008:38.
[19] 梁慧星,陳華彬.物權(quán)法[M].北京:法律出版社,2007:36.
[20] 劉洪華.人工智能法律主體資格的否定及其法律規(guī)制構(gòu)想[J].北方法學(xué),2019,13(4):56-66.
責(zé)任編輯:曲 紅、康雷閃
The Negation of the Qualification of Legal Personality of Artificial Intelligence and Its Legal Regulation Design
XU Yuewei
(Legal Affairs Office, China University of Petroleum (East China), Qingdao, Shandong 266580, China)
Abstract: The discussions on the legal personality of Artificial Intelligence(AI) should be established in the rational standard. The attempt to break through the limitations of object structure and personify artificial intelligence will confuse the difference between human autonomy and tool automation. Different from natural person or legal person, AI lacks rational consciousness in the sociological sense and does not have the ability of observance and interpretation of law. Therefore, its unwarranted and unnecessary to endow AI legal personality. However, there are huge distinctions between AI and objects in civil law. In view of its human-analogy and technicality, it should be regarded as special legal object. In the legal regulation, we should focus on principle of imputation. At the same time, we can refer to copyright and product liability in response to AI development and legal regulation.
Key words: Artificial Intelligence; legal personality; rationalism; special legal object