劉麗
人工智能已成為近幾年的熱門詞匯,發(fā)展勢頭迅猛,這也同時引發(fā)了人們對人工智能可能造成的法律風險的熱烈討論,其中一個非常重要的理論問題就是人工智能是否應被視為法律主體。法律主體是能夠締結(jié)法律關(guān)系的“人”,因各個國家法律制度的差異,大致包括自然人、法人、非法人團體,甚至是一些非生命物體,如河流、公園、生態(tài)環(huán)境等。法律主體的確定對解決任何爭議都至關(guān)重要,因為只有先確定法律主體,才能接下來討論法律責任的分配問題。對人工智能應否被承認為法律主體的討論也因此而起。
然而,并非所有人工智能都具備成為法律主體的特征。按照目前普遍接受的分類方式,人工智能分為弱人工智能和強人工智能。弱人工智能系統(tǒng)只能執(zhí)行為其設計好的任務,如語言翻譯、導航等,除了其既定程序之外做不了別的事情,因此其能力范圍很窄。目前應用的所有人工智能,包括最復雜的通過機器學習以及深度學習來自主提升的人工智能,都屬于弱人工智能的范疇。強人工智能可以完全像人類一樣學習、認知、理解并行動,能夠完成多個目標,甚至可以在不確定或者模糊的情況下獨立設定新目標。事實上,強人工智能就是我們在電影、文學作品中所熟悉的機器人和人工智能的形象。但是,目前強人工智能還不存在,也有人對強人工智能究竟是否可能出現(xiàn)持懷疑態(tài)度。
因為目前應用的各類人工智能都屬于弱人工智能,也就是專注于且只能解決特定領(lǐng)域問題的人工智能,例如我們所熟知的AlphaGo。這些人工智能因能力所限,還屬于工具的范疇,是法律上的客體,人們對此定位并無爭議,也不在我們這里的討論范圍之內(nèi)。人們爭議的焦點是強人工智能,即能勝任人類所有工作的人工智能。雖然目前技術(shù)上還無法實現(xiàn)強人工智能,但是很多科學家都很樂觀,認為這一天很快會到來,因此針對此類人工智能的法律主體地位問題開展前瞻性的討論非常有必要。我們后面所提到的人工智能都是指強人工智能。
目前,國內(nèi)外不少人認為應考慮賦予人工智能或者與法人主體類似或者具有一定限制的法律主體地位,主要基于以下幾點理由:一是人工智能可以自主決策,具備和人類一樣的“理性”和“自由意志”。持此觀點的人認為,法律上主客體的根本區(qū)別在于是否具有“自由意志”,人工智能可以自主決策,表現(xiàn)出與人類似的行為,能力與人類已經(jīng)無異,符合法律主體的“自由意志”的要件,應賦予其主體地位。況且,人工智能表現(xiàn)得與人如此類似,人類很容易與之共情,再將其視為工具或者為人類服務的電子奴隸,倫理上和感情上都難以接受,賦予其法律主體地位才更為恰當。
二是人工智能可以享受權(quán)利。人工智能成為法律主體可以解決目前人工智能創(chuàng)造物的知識產(chǎn)權(quán)權(quán)利分配的難題。事實上,人工智能創(chuàng)作出來的歌曲、詩歌等已經(jīng)達到了讓普通人類受眾難以將之與其他人類作品區(qū)分開來的水平,不少人認為應將這樣的作品視為知識產(chǎn)權(quán)意義上的“作品”。但是這種做法卻難以在由誰來擁有這個作品的問題上達成共識。目前認為由算法設計者或者人工智能所有者擁有作品,或者甚至使此類作品進入公共流通領(lǐng)域的解決方案都難以自圓其說,若承認人工智能為法律主體,則此類問題立即迎刃而解。
三是人工智能可以承擔法律責任,從而解決人工智能致害的責任分配問題。在人工智能可以享受權(quán)利的情況下,其既可以擁有知識產(chǎn)權(quán)權(quán)利,也可以擁有其他財產(chǎn)權(quán)利以及獲得報酬等。因此,在對其他法律主體造成損害的情況下,人工智能可以用其所擁有的財產(chǎn)提供金錢上的救濟。從這個意義上來講,人工智能與法人非常類似:獨立決策、擁有財產(chǎn)并承擔法律責任。而且因為人工智能自主決策,其導致的損害如果讓設計者、生產(chǎn)者或者擁有者其中任何一方或者共同來承擔責任都有失公平,讓人工智能獨立承擔責任更為恰當。
盡管人工智能成為法律主體可以解決上述諸多問題,但是此種做法帶來的不利后果卻應更加重視。首先,人工智能的自主決策能力是算法運行的結(jié)果,是對人類行為的模擬,而非其自發(fā)產(chǎn)生的能力。實際上,人工智能是人造出來的產(chǎn)物,其生命產(chǎn)生機理以硅基為基礎(chǔ),與人類這樣的碳基生物完全不同。因此,盡管人工智能可以學習、思考、決策,卻不會與人類一樣感受痛苦,也不必面臨死亡。如果人工智能成為法律主體,因為其能力已經(jīng)與人類無異,將來甚至有可能迅速過渡到超人工智能時代。屆時整個社會將不再以“人類為中心”。人工智能也許可以與人類和平共處,但其更有可能成為人類的強大競爭對手,而且因其不會死亡,無法感知痛苦,允許人工智能成為和人類一樣的法律主體,人類很可能失去主體地位,淪為客體,甚至滅亡。
其次,權(quán)利對人工智能可能具有與人類不同的意義。人工智能作為法律主體,可以享有大部分其他法律主體享有的權(quán)利,如包括知識產(chǎn)權(quán)在內(nèi)的財產(chǎn)權(quán)利,締約權(quán)利,甚至言論自由權(quán)利等。但是人工智能作為人造物,其價值追求與人類并不一定相同,這些權(quán)利對其而言可能并不具備與對人類相同的價值。比如人工智能無需積累財富,提升生活水平,追求幸福等。人工智能也可能不像人類那樣有各種各樣的消費需求。因此,人工智能在對其財產(chǎn)作出處分決定的時候可能并不會遵循人類社會的經(jīng)濟規(guī)律。如果為了規(guī)避這一問題而給人工智能配備監(jiān)護人,則人工智能的“自主決策”能力就失去了意義,也為人類主體侵犯人工智能的財產(chǎn)權(quán)利留下了空間。
最后,人工智能承擔的法律責任有限。人工智能致人損害時,僅能通過金錢賠償?shù)姆绞教峁┚葷诖朔N救濟方式不充分的情況下,通常適用于人類的懲罰方式如緩刑、監(jiān)禁、死刑等都不適用于人工智能,因為人工智能既不會感知痛苦,也不會死亡,有些甚至沒有固定的實體,這些刑罰方式對人工智能沒有震懾作用。雖然人工智能可以比較充分地承擔民事責任,但是其作為與人類一樣擁有“自由意志”的法律主體,自主決策,并非像其他非人類主體一樣由人類代表其意志,卻可以不受懲罰地侵害其他法律主體的利益,或者更確切地說,懲罰方式對人工智能失去了效用,就會形成一塊法律責任的“真空地帶”。這就造成了一個局面,即能力上人工智能與人類相同,行為后果上,人工智能比人類承擔的責任要少。在這種情況下,承認人工智能的法律主體地位,人類相當于主動把自己置于一個劣勢的不平等位置,可能導致人類受到人工智能的欺壓,甚至直接面臨生存危機。
從上面的討論中,我們可以看出:人工智能不應被承認為法律主體,因為人類將為此承擔不必要的風險,甚至有可能威脅全體人類的生存。但是人工智能技術(shù)的發(fā)展不容忽視,未來必將更多地融入并影響人類的生活。應對人工智能引發(fā)的法律問題,一方面需要深入研究如何規(guī)范人工智能算法的倫理,使設計者、生產(chǎn)者和使用者都成為利益相關(guān)者,盡量增強算法的透明度和可解釋性,確保人工智能技術(shù)的發(fā)展與人類的價值和愿望相符合。另一方面,可能需要我們打破傳統(tǒng)的主客體二元范式,不再局限于傳統(tǒng)的人類以及非人類法人實體的討論,創(chuàng)造出新的可以適用于人工智能的規(guī)則。
【注:本文系北京市社科基金青年項目“首都人工智能發(fā)展中的民事責任研究”(項目編號:18FXC019)的研究成果】
【參考文獻】
①吳漢東:《人工智能時代的制度安排與法律規(guī)制》,《法律科學》(西北政法大學學報),2017年第5期。
②潘文軒:《人工智能技術(shù)發(fā)展對就業(yè)的多重影響及應對措施》,《湖湘論壇》,2018年第4期。
責編/于洪清? ? ?美編/王夢雅