国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能主體地位之否定及其法理芻議

2024-06-20 06:14梅智超金曉紅
景德鎮(zhèn)學院學報 2024年2期
關鍵詞:主體資格人工智能

梅智超 金曉紅

※ 投稿時間:2023-10-29

作者簡介:梅智超(1997-),男,安徽六安人,在讀碩士研究生,主要從事民商法學的理論與實務研究。

通信作者:金曉紅(1963-),女,江西奉新人,教授,主要從事民商事糾紛、知識產(chǎn)權法律保護的理論和實務研究。

摘? ?要:在主體—客體二分模式的基本框架下,法律制度的構建與運行皆是以“人”為中心。人工智能作為人造物,其本質(zhì)屬性在于工具性。雖然,在客觀上人工智能擁有近乎甚至超越人腦存在的智能系統(tǒng),但這并不能代表其已經(jīng)具備“人”的獨立意識和理性思維,沒有為自己立法的現(xiàn)實可能性,無法取得類似于自然人的主體地位,而法人擬制主體的取得,看似為賦予人工智能以主體地位,提供了現(xiàn)實可行性。但人工智能與法人主體構成的實體性要素和價值性要素的不適配性,決定了其也無法取得類似于法人的擬制主體地位。究其實質(zhì),作為人類社會的手段工具,人工智能應當作為法律關系中的客體,予以對待。

關鍵詞:人工智能;主體資格;獨立責任;意志能力

中圖分類號:D913 文獻標志碼:A 文章編號:2095-9699(2024)02-0069-06

引言

在1956年達特茅斯會議上,“人工智能”這一概念首次為世人所知曉,而它的出現(xiàn)是社會進程發(fā)展的必然?,F(xiàn)階段,學術界對于能否賦予人工智能以主體法律資格的立場和觀點,主要分為兩類:在主體說領域內(nèi),人工智能獲得擬制主體法律資格的目的在于解決因人工智能所產(chǎn)生的致害責任承擔及“作品”權益歸屬等問題;[1]基于“人可非人”到“非人可人”的影響,非自然人以外的“人”即可具備主體法律資格。[2]但在客體說領域內(nèi),基于主體—客體二分模式的架構,人工智能尚不具備獨立的理性思維和意識能力,不宜成為法律關系的主體,同時也有別于具備獨立意識并作為自然人集合體的法人,故不應賦予其主體法律資格;[3]人工智能的本質(zhì)是受到自身特定算法系統(tǒng)的規(guī)制,不具備自然人所獨有的意識能力;[4]在主體資格證成路徑上,人工智能并不具備法人組織成立的事實基礎,因此不具備賦予其主體資格的現(xiàn)實必要。[5]雖然主體說拓寬了現(xiàn)行主體—客體二分模式下法律主體的認定范圍,具有一定的創(chuàng)新性。然而,由于主體資格證成路徑的限定性,人工智能難以在社會現(xiàn)實活動中合理界定其主體地位。于此,本文以人工智能主體資格說的觀點及其省察為切入點,在人工智能主體法律資格分析的基礎上,對其客體地位的必要性和可行性進行探究。

一、人工智能“主體資格說”及其省察

現(xiàn)階段,學術界支持人工智能主體法律資格的學者認為,隨著人工智能技術的不斷完善發(fā)展,在其深度融入人類社會生活的進程中,特定算法系統(tǒng)也會衍生出與碳基生命體相類似的“獨立意識”。有鑒于此,在現(xiàn)行法律體系下,立法者應當賦予人工智能以主體資格,合理劃定其權利與義務的界限范圍。其中主要包括擬制人格說、有限人格說以及工具人格說:

(一)擬制人格說

該學說認為,人工智能應當具備主體法律資格,如同團體法人一樣,具備法律擬制上的主體資格。其目的在于解決人工智能在法律關系中權利、義務與責任等方面的分配關系。為此,尤瓦爾·赫拉利則認為,既然團體法人作為非自然人組織,能夠得到法律的認可,獲得主體資格,那么人工智能理應得到法律上的確認,具備主體資格。[6]值得注意的是,擬制人格說在實踐中已有相關的實際依據(jù),即美國國家公路交通安全管理局在2016年就谷歌公司關于自動駕駛系統(tǒng)是否符合美國聯(lián)邦機動車安全標準的回函中表示,該系統(tǒng)可視為“駕駛員”。[7]但是在擬制人格的學說體系構成中,擬制人格的獲得系屬于應然狀態(tài)下的立法技術問題,并非實然狀態(tài)下的法律適用問題。而權利與義務賦予的初衷在于實然狀態(tài)下的適用,這就意味著行為主體在民事活動中取得了行使權利與履行義務的資格,并且該資格的取得又以行為主體具備獨立的意識能力為前提。目前,人工智能尚處于發(fā)展的初期階段,倘若過于草率地通過類比法人制度來賦予其獲得法律擬制上的主體資格,是否能夠真正切合人工智能的發(fā)展性?其權利與義務設定以后是否能夠行使以及如何行使,才能實現(xiàn)實然狀態(tài)下的具體適用?此外,也有心理學實驗曾表明,人類很容易將具備擬人化屬性的物體視為他們主觀認知范疇下有生命的東西。[8]

(二)有限人格說

該學說認為,雖然人工智能具備主體資格,但與自然人、法人相比,卻又存在著一定的限制。其目的在于合理劃分弱人工智能與強人工智能間的主體資格界限:在弱人工智能階段,人工智能尚不具備獨立的意志能力,仍屬于法律關系的客體。 當進入強人工智能階段時,人工智能理應獲得有限主體法律資格,[9]但人工智能主體資格的有限性又該如何明確界定。如前所述,主體資格的取得不僅是行為主體取得權利與承擔義務的前提,而且還是行為主體在民事活動中責任承擔的前提所在。故而,主體資格的受限必然會引起法律主體在行使權利、履行義務等方面的限定,但在該學說的體系構成中,并未明確表明人工智能有限人格的規(guī)范標準,即是參照無民事行為能力人的有限性標準還是參照限制民事行為能力人的有限性標準?此外,主體資格的受限亦必然會影響其在民事活動中的法律效力問題,那又該采取何種措施來有效規(guī)避因主體資格受限所產(chǎn)生的法律效力問題?最后,在責任承擔方面,主體資格的受限也必然會影響到權利能力與行為能力的完整性。主體資格的完整性是行為主體對外獨立承擔侵權責任的前提要件之一,而人工智能主體資格的有限性就決定了人工智能無法像法人制度一樣,獨立對外承擔責任。亦有學者曾指出,在責任承擔方面人工智能可以參照法人人格否認制度,采取“刺破人工智能面紗”的歸責原則。[10]

(三)工具人格說

該學說認為,主體資格由“人可非人”向“非人可人”的過渡轉變,其意在表明,法律對主體資格賦予與轉變是基于社會需求演變發(fā)展的現(xiàn)實需要。在該學說邏輯構成中,主張人工智能應當具備主體資格,但其主體資格的第一要義是工具性,而非主體性。[11]并且,有學者認為,對于人工智能是否具備“智”的判定,則應當是以人為參照標的,且無論如何界定,人工智能主體資格的認定均在工具性的范疇以內(nèi)。[12]那是否可以認為在未來,即使進入了強人工智能階段,人工智能的價值本質(zhì)仍然是人類意識思維在客觀物質(zhì)世界的工具延伸。鑒于此,工具視角下的主體資格說并未對主體—客體二分模式下的主體制度造成實質(zhì)性的損害。

二、人工智能主體資格的否定

在主體資格說領域內(nèi),諸多學者為證明賦予人工智能主體資格的必要性與可行性,分別從人工智能的發(fā)展現(xiàn)狀、主體資格的演變歷程以及域外具體實踐等方面進行證成,為人工智能在具體實踐層面提供了看似明確可行的方向指引,但卻忽略了對人工智能主體資格是否具備現(xiàn)實可行性的證成。

(一)人工智能體尚不具備自然人的主體法律資格

人工智能作為經(jīng)濟社會發(fā)展的工具,其本身尚不具備類似自然人的理性思維和價值判斷?,F(xiàn)有學者曾認為:“可將人工智能體的法律資格區(qū)分兩類:弱人工智能和強人工智能”,前者作為日常社會生活中人類的輔助性工具,其運行和操作大多是依賴于事先早已設定的程序規(guī)則,視為法律關系中的客體,而后者則是綜合深度學習、自主行為、認知系統(tǒng)、演進算法等要素,有可能突破程序所編排運行的局限,[13]應當視為法律關系中的主體。但值得注意的是,無論是何種強度之下的人工智能體,其運行和操作系統(tǒng)都是基于邏輯演繹的規(guī)則,而非是基于獨立自主的理性判斷能力。申言之,人工智能的自主性并不等于自主意識的誕生。[14]雖然人工智能具備某些獨立判斷和自主學習的能力,但它不可能產(chǎn)生與人類那樣具備不同屬性的理性判斷。

在司法領域內(nèi)注重強調(diào)主體間的意思自治,而意思自治的前提是建立在雙方主體處于相對平等的社會狀態(tài)之下。倘若賦予人工智能以主體法律資格,那是否可以認為是在變相承認人工智能具備了僅自然人才具備的理性能力和情感意志。退一步說,此時賦予人工智能類似于法人的主體資格,成立法律擬制上的獨立主體,那在將來當人工智能因其自身的發(fā)展通過其他方面彌補了與人類在思維意識境界內(nèi)的差距甚至是超越了人類,智能機器人是否會與人類平等地共處于一個生態(tài)環(huán)境之中?當雙方主體地位不具備平等性時,其意識自治也就不太可能實現(xiàn)了。譬如,作為靈長類動物的黑猩猩,無論是內(nèi)在腦部生理構造,還是外在形體,均與人類都十分地相像,但它們具有法律上的人格權嗎?具有與人類相同的主體資格嗎?具備相應的權利和義務嗎?……同理,當人工智能與人類的地位不對等的時候,人工智能究竟是將人類看作是主體,還是客體?是否還存在著意思自治?

(二)人工智能無法獲得類比團體法人的擬制主體資格

法人制度確立的本質(zhì)在于為了更好地實現(xiàn)其作為服務于“人”的目的或手段。與自然人不同的是,法人團體想要獲得法律擬制的主體資格,需同時滿足實體性要素、價值性要素以及法技術性要素[15]:

實體性要素,即具備獨立意志能力與財產(chǎn)能力。在獨立意志層面,團體本身所代表的意識不是內(nèi)部某些組織、某些派系的個體意識,也不是這些意識的簡單相加,而是整體意識和共同意識,這就意味著團體本身所代表的整體意識和共同意識類似于自然人本身的獨立理性意志。并且,法人的實質(zhì)目的在于趨利避害,是即合理規(guī)避商業(yè)風險,實現(xiàn)共同利益最大化。在法人財產(chǎn)能力層面,財產(chǎn)的獨立性是法人對外從事活動的前提,也是其他行為主體與之進行交易的信任保障。作為一個團體組織,財產(chǎn)來源于其內(nèi)部成員私有財產(chǎn)的匯聚或者是社會公共財產(chǎn)的捐贈。本質(zhì)上,該筆財產(chǎn)既不屬于某個成員的個別財產(chǎn),也不屬于成員內(nèi)部的共有財產(chǎn)。基于平等性原則,此時的團體法人在法律層面上僅僅是一個“擬制的自然人”而非是一個團體,而該筆財產(chǎn)的所有權則屬于擬制個體的獨立財產(chǎn)。

價值性要素,即具備實現(xiàn)經(jīng)濟活動交易價值與主體責任有限承擔的社會價值考量。法人制度的演變是基于商品經(jīng)濟在社會經(jīng)濟發(fā)展中合理訴求的真實寫照。對人工智能而言,主體資格的取得,不僅意味著人工智能實現(xiàn)了權利與義務的獨立性,而且因其財產(chǎn)上的獨立性必然會促使其對外責任承擔的獨立性,這既有助于合理分攤各類主體在因人工智能產(chǎn)生致害結果時的責任承擔范圍,降低開發(fā)者、制造者、管理者以及所有者所面臨的商業(yè)風險,推動實現(xiàn)人工智能技術在未來的高質(zhì)量發(fā)展。但在主體責任有限承擔的角度上,法人制度模式下主體責任有限性的本質(zhì)在于分攤團體內(nèi)部各成員間的商業(yè)風險,促進各類經(jīng)濟主體參與經(jīng)濟活動的積極性與主動性。就人工智能的責任承擔而言,有學者主張,可參照適用法人制度模式下的人格否認制度,即適用“刺破人工智能面紗”的歸責原則。殊不知,主體責任承擔的有限性是法人歸責體系下的一般性規(guī)定,而人格否認制度則是其在適用過程中的例外性規(guī)定。若將法人責任承擔的例外性規(guī)定作為人工智能責任承擔的一般性規(guī)定,難免會造成人工智能背后各類主體間責任分配比例不均的窘境。

法技術性要素,即具備“人”與“人格”相分離的特性。羅馬法中的“人”與“人格”的分離為法人制度的確立提供了必要的理論支撐?!叭恕迸c“人格”的相互分離,使得社會團體具備主體資格,可以向自然人一樣參與各種民事活動。自商品經(jīng)濟以來,法人制度得以確認,逐漸成為商事活動中權利、義務與責任的獨立承擔者,以此降低投資者所面臨的商業(yè)風險。根據(jù)“人”與“人格”相分離的法技術構成可知,人工智能是完全有可能在民事活動中獲得主體資格。

三、人工智能客體地位的合理性探究

市民社會中的實體形態(tài)主要包括兩種類型:人和物。[16]凡獨立于人身之外,為人類所能控制支配并滿足社會發(fā)展實際的自然物及人造物均符合民法中物的構成。人工智能作為科技時代下的衍生物,將其作為法律關系中客體的存在,不僅體現(xiàn)了對現(xiàn)代民法體系下主體—客體二分模式的基本遵循,而且也能夠有效解決人工智能發(fā)展規(guī)制與完善保護之間的對立沖突。

(一)人工智能客體地位的學理證成

1.人工智能客體地位歸屬的明確性

如前所述,人工智能作為在科技時代下的產(chǎn)物,符合民法中物的構成而應處于法律客體的范疇。然而經(jīng)過半個多世紀的發(fā)展,由于其技術構成分布等級的不同,促使人工智能在社會各個領域內(nèi)呈現(xiàn)出多元化的適用格局。在實踐中,俄羅斯《格里申法案》設置了類似法人的“機器人一代理人”地位,并構建了登記制度使其獲得權利能力,但是在責任承擔上明確規(guī)定,因機器人一代理人的行為產(chǎn)生的責任由其所有權人或占有人承擔(第127.4條第1款);[17]而這一舉措無疑是對人工智能客體地位的間接承認,這也就意味著在現(xiàn)有主體—客體二分模式的法律體系下,關于物的分類規(guī)制手段儼然滿足人工智能在今后的發(fā)展需求。并且,俄羅斯《格里申法案》也對人工智能提出了兩類規(guī)制標準:類似于動物的財產(chǎn)與類似于法人的“機器人—代理人”,[18]再依據(jù)各自適用領域的不同,進行更為細致的分類。有鑒于此,在人工智能客體地位的分類標準上,可以人工智能技術水平高低為參照標的,借以區(qū)分一般性人工智能與特殊性人工智能:在實踐中具備普遍適用性的人工智能可以適用法律規(guī)范中關于物的一般性規(guī)定:如在因普通智能產(chǎn)品缺陷而引起致害結果時,被侵權人可基于產(chǎn)品責任來追究相關責任主體的侵權責任;對于智能化水平較高、自主行為較強的人工智能應以功能用途與人類情感交互程度高低為參照標的區(qū)別對待:智能化程度高、情感交互程度低的人工智能仍可適用法律規(guī)范中關于物的一般性規(guī)定;智能化程度高、情感交互程度較高的人工智能應予適用法律規(guī)范中關于物的特殊性規(guī)定。

2.人工智能侵權責任承擔的歸責機制

基于人工智能多元適用的現(xiàn)實考量,人工智能侵權往往不僅涉及產(chǎn)品責任,而且還會涉及《中華人民共和國民法典》侵權責任編體系下其他具體侵權類型。對于前者而言,因人工智能存在缺陷而引起致害結果時,被侵權人可請求產(chǎn)品設計者、生產(chǎn)者以及銷售者對其所造成的損害承擔無過錯責任。對于那些在實踐中具備普遍適用性的人工智能而言,其操作執(zhí)行程序大多是通過數(shù)以千計的數(shù)據(jù)堆砌或特定領域下模擬仿真訓練獲得的,這就決定了該類人工智能在具體適用范圍上具備專門性、特定性以及機械性等特征,對于該種類型的人工智能可按照產(chǎn)品責任的歸責機制追究相關責任人員的侵權責任。就后者而言,人工智能侵權并非一種全新的侵權類型,其原因在于在實踐中人工智能適用范圍的多元性就決定了人工智能侵權形式多樣化。譬如:因無人駕駛汽車所引起的交通事故,除了需要考慮產(chǎn)品責任以外,還需考慮機動車交通事故責任背景下的歸責原則,借以確定相關責任人以及承擔責任的范圍大小;因醫(yī)療智能機器人所引發(fā)的醫(yī)療事故,還需參照醫(yī)療事故侵權責任背景的歸責原則細化各方主體間的過錯責任。此外,如前文所述,智能化程度較高、與人類情感交互程度密切的人工智能應適用民法中關于物的特別性規(guī)定,這就要求因該類智能體所產(chǎn)生的侵權事由,還需采用一些特殊的制度規(guī)定予以必要的法律規(guī)制。

(二)人工智能客體地位的現(xiàn)實證成

1.客體定位有利于現(xiàn)有法律體系的良性運轉

康德的名言“我頭上的星空和我心中的道德律”道出了人的主體地位的界定:從人與自然規(guī)則的關系來看,確定了為自然立法的主張;從人與社會秩序的關系來看,確定了為人類立法的主張。[19]

就人工智能而言,其背后帶有十分濃厚的人的意識的色彩,本身不具備自然人的理性意識。雖然,自主行為和深度學習是人工智能最核心的兩個特征,但即便是裝有特定法律知識編程系統(tǒng)的智能體,在實踐中也是被動地接受相應的指令性命令,而不是自主選擇的結果。在實踐中我們所探求的是對人的行為進行必要的法律規(guī)制。以刑罰為例,其本質(zhì)在于以社會勞動的方式給罪犯帶來肉體上痛苦的同時借以喚醒其內(nèi)心深處對主觀惡性的救贖。如此,自然人往往都會趨利避害。人工智能作為社會發(fā)展所必備的手段工具,其自身的自主進化過程未必會按照人進化歷程發(fā)展出類似于生物疼痛的神經(jīng)網(wǎng)絡,[20]也就不會產(chǎn)生相應的情感價值需要,更不會引起智能機器人生理和精神上的痛苦,而這就在一定程度上失去了刑罰的本質(zhì)和機能所蘊含的社會意義。

2.客體地位有助于推動倫理道德的良性循環(huán)

人工智能系統(tǒng)作為人類認識世界和改造世界的手段工具,在未來無論是發(fā)展到哪個階段,其定位仍然是物,以其作為法律關系客體的存在切合社會發(fā)展的實際需要。自啟蒙運動以來,自我意識的覺醒,這就意味著人類在精神領域內(nèi)關注的重點逐漸從神靈轉向自我,而將人工智能置于法律關系客體的存在,在一定程度上凸顯出對人這一主體的肯定,人類之外,皆為工具。人工智能的出現(xiàn)不僅僅意味著生產(chǎn)效率的提高,而且還有助于促進生產(chǎn)方式的人性化,幫助人類從繁重的社會勞動之中解脫出來,實現(xiàn)人性的解放。機器人作為人類感知器官在物質(zhì)世界延伸的手段工具,人的社會目的決定了工具的手段方式,人類在改造世界的過程中最大的目標是實現(xiàn)人的全面發(fā)展。作為輔助性工具的人工智能,唯有在人的支配與控制之下,才能滿足自然人價值的個性化需求和社會發(fā)展的多樣化需求。基于現(xiàn)實因素的考量,將其置于客體地位,既可以保證人工智能在今后能夠沿著既定的軌道繼續(xù)發(fā)展,有效地避免一些潛在的社會風險,也是尊重人的主體性,踐行“人是目的,而非手段”的哲學理念。

結語

法律體系的構建、運行及發(fā)展皆是以理性自然人為制度中心。主體—客體二分模式的形成與奠定,既是自然人本我意識覺醒的制度顯化,也是民法體系得以形成和發(fā)展的關鍵所在。人工智能的自主行為性與深度學習性的構成特征,在客觀上為賦予其以主體地位,提供了看似可行的學理必然性。但是,人工智能作為時代背景下的非自然造物,其價值本質(zhì)在于工具性。法律的前瞻性應當是在可視且可控的范圍內(nèi),促發(fā)展,防風險。無論是何種學說背景下的主體地位論,均不可避免地會涉及權利與義務的取得和分配、行權是否受到限制及又該受到何種程度的限制、與其他自然人主體的權利義務邊界又該如何區(qū)分界定等制度設計。而現(xiàn)階段,若是賦予人工智能以主體既是對客觀既存事實狀態(tài)的選擇性漠視,也在法理邏輯構成上缺乏切實可行的理論支撐。法律是穩(wěn)定的、保守的,任何超越現(xiàn)行社會關系的法律是毫無意義的。對于人工智能而言,今后應當以社會現(xiàn)實為立足點,探索自然人與人造物間的法理關系,對人工智能本身以及背后相應具體個人的行為進行必要的行為規(guī)制。社會發(fā)展的目的是以人類為中心,人工智能的客體地位,不僅可以有效保障人工智能沿著良性方向繼續(xù)發(fā)展,也能夠更好地實現(xiàn)人類所期盼的社會進步。

參考文獻:

[1]吳高臣.人工智能法律主體資格研究[J].自然辯證法通訊,2020(06):20-26.

[2]張志堅.論人工智能的電子法人地位[J].現(xiàn)代法學,2019(05):75-88.

[3]吳漢東.人工智能時代的制度安排與法律規(guī)制[J].法律科學(西北政法大學學報),2017(05):128-136.

[4]王利明.人工智能時代對民法學的新挑戰(zhàn)[J].東方法學,2018(03):4-9.

[5]張力,陳鵬.機器人“人格”理論批判與人工智能物的法律規(guī)制[J].學術界.2018(12):53-75.

[6]尤瓦爾·赫拉利.未來簡史:從智人到神人[M].北京:中信出版社.2017.

[7]彭誠信,陳吉棟.論人工智能法律人格的考量要素[J].當代法學,2019(02):52-62.

[8]溫德爾·瓦拉赫,科林·艾倫.道德機器:如何讓機器人明辨是非[M].王小紅,等,譯.北京;北京大學出版社,2017.

[9]孫占利.智能機器人法律人格問題論析[J].東方法學,2018(03):10-17.

[10]彭誠信.人工智能的法律主體地位[J].人民法治,2018(18):98-100.

[11]許中緣.論智能機器人的工具性人格[J].法學評論,2018(05):153-164.

[12]鄭戈.人工智能與法律的未來[J].探索與爭鳴,2017(10):78-84.

[13]韓旭至.人工智能法律主體批判[J].安徽大學學報(哲學社會科學版)2019(04):75-85.

[14]楊易川,李娜.主客體二分視角下人工智能法律主體地位之否定[J].重慶理工大學學報(社會科學),2019(11):118-128.

[15]劉洪華.人工智能法律主體資格的否定及其法理規(guī)制構想[J].北方法學,2019(04):56-66.

[16]劉洪華.論人工智能的法律地位[J].政治與法律,2019(01):11-21.

[17]康德.實踐理性批判[M].鄧曉芒,譯,北京:人民出版社,2016.

[18]皮勇.人工智能刑事法治的基本問題[J].比較法研究,2018(05):149-166.

責任編輯:周瑜

Denial of the Subject Status for the AI Product and the Legal Theory Behind It

MEI Zhichao1, JIN Xiaohong2

(1.Jingdezhen Ceramic University, Jingdezhen 333403, Jiangxi, China;

2.Jingdezhen University, Jingdezhen 333400, Jiangxi, China)

Abstract: Under the framework of the subject-object dichotomy model, the construction and operation of legal system are people-centered. The essential attribute of AI products, being artifacts after all, lies in their instrumentality. Although objectively AI product has intelligent system that is close to or even more sophisticated than human brain, this does not mean that it has the independent-to-be awareness and rational thinking ability that is unique to humans. So there is no realistic conditions for them to legislate for themselves, and it is impossible for them to achieve the subject status similar to that of the natural human being. The current achievements in subject status pursuing for the AI product seems to provide practical feasibility for giving the AI product such position. However, the incompatibility between the AI and the legal person in the substantive and value elements determines that the AI product cannot obtain the subject position of legislator like the legal person, because as a tool of human society in essence, AI product should be treated as the object when dealing with legal relations.

Keywords: artificial intelligence; subject qualification; independent responsibility; will power

猜你喜歡
主體資格人工智能
我校新增“人工智能”本科專業(yè)
2019:人工智能
人工智能與就業(yè)
數(shù)讀人工智能
環(huán)境公益訴訟主體資格探析
環(huán)境污染侵權案件實務中的問題研究
公司設立中發(fā)起人的主體資格該如何認定?
死者權益維護與法律適用
環(huán)境公益訴訟主體存在問題及對策
下一幕,人工智能!