陳 莉
(南陽理工學(xué)院,河南 南陽 473004)
人工智能(Artificial Intelligence),英文縮寫為AI。它是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新技術(shù)科學(xué)。[1]根據(jù)現(xiàn)在大多數(shù)科學(xué)家的觀點,人工智能可以分為弱人工智能和強人工智能。弱人工智能是指擅長處理某種單一認知任務(wù)的人工智能,和強人工智能的區(qū)別點在于被人所控制,是工具的一種,屬于工具型智能。強人工智能是指脫離了人所控制的,具有獨立的推理能力和解決問題的能力,具有知覺和自主意識的智能機器。強人工智能并不是對人類的簡單模仿,而是具有與人類對等的人格結(jié)構(gòu),是超越工具型智能而達到第一人稱主體世界內(nèi)容的涌現(xiàn)的新型主體。[1]
隨著人工智能技術(shù)的飛速發(fā)展,可以預(yù)見人工智能將在農(nóng)業(yè)、工業(yè)和服務(wù)業(yè)各個領(lǐng)域被廣泛應(yīng)用。例如在交通運輸、醫(yī)療健康、對話看護方面的人工智能產(chǎn)品將以成本低效率高的優(yōu)勢在不遠的將來替代大多數(shù)人類職業(yè)崗位。在這種局面下,跟人工智能產(chǎn)品有關(guān)的侵權(quán)責(zé)任應(yīng)該如何承擔(dān),已經(jīng)成為一個亟待解決的法律問題。
由于弱人工智能和強人工智能之間的區(qū)別有著根本的界限,即其從性質(zhì)上看是屬于人類的工具還是屬于獨立于人類的全新型人類是不同的,因此在應(yīng)對的責(zé)任承擔(dān)方面,也有必要分別討論。
侵權(quán)責(zé)任的承擔(dān)主體是以該主體屬于民事主體為前提的,侵權(quán)責(zé)任是民事主體因自己行為對他人造成了損害后果所要承擔(dān)的民事責(zé)任。因此若人工智能產(chǎn)品不屬于民事主體,則其也不能成為侵權(quán)責(zé)任主體。
1.從科技領(lǐng)域看,人工智能產(chǎn)品暫無成為民事主體的可能性
(1)人工智能產(chǎn)品技術(shù)上尚無實現(xiàn)成為平行人類的可能性。目前科技領(lǐng)域,很多人在探討人工智能在應(yīng)用方面,有無實現(xiàn)強人工智能,甚至和自然人一樣成為平行人類的可能性。大多數(shù)人還是持保守的看法,因為從目前人類已掌握的科技看,在技術(shù)上尚無機器人發(fā)展成平行人類的可能性。從人工智能目前的發(fā)展方向看,無論它再怎么“自動學(xué)習(xí)”“自我改善”,都不會有“征服”的意志,不會有“利益”訴求和“權(quán)利”意識[2]。
(2)讓人工智能產(chǎn)品擁有自主意識在倫理上缺乏支持?;艚鹪?jīng)表達過對機器人擁有自主意識后會對人類產(chǎn)生威脅的擔(dān)憂。盡管人工智能的短期影響取決于誰在控制人工智能,而它的長期影響則取決于人工智能到底能否受到任何控制[3]。
所以允不允許人工智能擁有自主意識的產(chǎn)生和延續(xù)涉及到人類倫理問題,是如何避免人工智能產(chǎn)品的不當(dāng)使用和發(fā)展威脅到人類生存的問題。所以讓人工智能產(chǎn)品擁有自主意識還缺乏統(tǒng)一有力的支持。
2.從法律領(lǐng)域看,人工智能產(chǎn)品不應(yīng)具有法律人格
(1)人工智能沒有在法律關(guān)系中享有權(quán)利承擔(dān)義務(wù)的必要性。法律規(guī)定民事主體享有民事權(quán)利,是為了在保障民事主體生存和發(fā)展的前提下,保護民事主體的財產(chǎn)權(quán)和人身權(quán)。對人工智能產(chǎn)品的保護可以將其看作財產(chǎn)的一部分,以法律關(guān)系中的客體形式予以保護。如果法律規(guī)定的義務(wù)人工智能機器人沒有自主意識選擇是否遵守,那么法律也沒有調(diào)整機器人行為的必要性,其就是一個工具型產(chǎn)品,只能是法律關(guān)系的客體。如果法律規(guī)定的義務(wù)機器人有選擇是否遵守的自主意識,那么這種人工智能的破壞力是存在的,對人類的威脅也是存在的。智能機器人的研發(fā)者應(yīng)該避免出現(xiàn)這種情況。應(yīng)該用法律去調(diào)整機器人研發(fā)的方向,而不是用法律約束機器人。
(2)人工智能產(chǎn)品沒有獨立的意思能力。要想成為民事主體具有獨立的法律人格,需要具有獨立自主地作出意思表示的能力。在現(xiàn)有技術(shù)條件下,人工智能的發(fā)展雖然表現(xiàn)到Alphago可以擊敗圍棋世界冠軍,能夠獨立自主判斷路況進行自動駕駛,甚至可以給出醫(yī)療方案,但這并不代表其具有作出意思表示作為民事主體參與民事法律關(guān)系的能力。例如有機器人針對提問者的問題能夠?qū)Υ鹑缌?,但是這些是設(shè)計者提前針對該問題設(shè)置好了回答程序,其并沒有自主意識,并不具有成為民事主體的內(nèi)在需求。
民事主體獨立進行民事行為是以對將要進行的行為性質(zhì)具有判斷能力及對該行為所帶來后果具有認識能力為前提的,弱人工智能時代顯然不具備這一特質(zhì)。
人工智能產(chǎn)品侵權(quán)責(zé)任是指因人工智能產(chǎn)品的應(yīng)用造成他人損害時,侵權(quán)責(zé)任該如何承擔(dān)的問題,目前學(xué)界對此并沒有統(tǒng)一認識,我國也沒有相關(guān)的法律規(guī)定。
1.人工智能產(chǎn)品侵權(quán)責(zé)任的責(zé)任主體
人工智能產(chǎn)品不能成為民事主體,也不能成為侵權(quán)責(zé)任的責(zé)任主體。人工智能產(chǎn)品有關(guān)的責(zé)任主體應(yīng)該包括人工智能產(chǎn)品的生產(chǎn)者、銷售者及使用者。因為正如物品致人損害的原因,要么是設(shè)計、制造環(huán)節(jié)上存在問題,要么是使用和管理環(huán)節(jié)上存在問題。因此由生產(chǎn)者、銷售者及使用者作為責(zé)任主體是合適的。
2017年5月德國通過了一項關(guān)于無人駕駛汽車的法律,并對無人駕駛汽車發(fā)生交通事故責(zé)任的分配進行了規(guī)定:如果事故發(fā)生在人工駕駛階段,由駕駛?cè)顺袚?dān)責(zé)任;如果事故發(fā)生在自動駕駛階段,或由于系統(tǒng)失靈釀成的事故,則由汽車制造商承擔(dān)責(zé)任[4]。由此我們可以看出德國對無人駕駛汽車發(fā)生交通事故的處理實際上是不同情況下對產(chǎn)品責(zé)任和機動車交通事故責(zé)任的分別適用。
德國關(guān)于無人駕駛汽車的侵權(quán)責(zé)任劃分還是有借鑒意義的,但是無人駕駛汽車并不能適用于所有人工智能產(chǎn)品。
(1)由人工智能產(chǎn)品的生產(chǎn)者和銷售者承擔(dān)侵權(quán)責(zé)任。若人工智能產(chǎn)品發(fā)生侵權(quán)的原因可以確定是因為產(chǎn)品的設(shè)計或制造存在一定的可能致人損害的風(fēng)險,即人工智能產(chǎn)品存在缺陷,則根據(jù)《侵權(quán)責(zé)任法》第43條的規(guī)定,即被侵權(quán)人可以選擇由產(chǎn)品的生產(chǎn)者或者銷售者的任一方承擔(dān)責(zé)任。產(chǎn)品的生產(chǎn)者或銷售者先行承擔(dān)責(zé)任后可以向有過錯的另一方追償。
(2)由人工智能產(chǎn)品的使用者承擔(dān)侵權(quán)責(zé)任。若人工智能產(chǎn)品本身并沒有致人損害的風(fēng)險,損害的發(fā)生可以確定是由于人工智能產(chǎn)品的使用者造成的,則應(yīng)由人工智能產(chǎn)品的使用者承擔(dān)侵權(quán)責(zé)任。
(3)由生產(chǎn)者、銷售者和產(chǎn)品使用者之間承擔(dān)連帶責(zé)任。若人工智能產(chǎn)品侵權(quán)責(zé)任無法確定是什么原因引起的,為了使被侵權(quán)人能夠行使賠償請求權(quán),比較合理的責(zé)任分配方式應(yīng)當(dāng)由生產(chǎn)者、銷售者和產(chǎn)品使用者之間承擔(dān)連帶責(zé)任。即被侵權(quán)人可以要求產(chǎn)品的生產(chǎn)者、銷售者或者產(chǎn)品的使用者共同承擔(dān)侵權(quán)責(zé)任。
首先,連帶責(zé)任有利于被侵權(quán)人行使賠償請求權(quán)。對于被侵權(quán)人來說,要界定清楚損害發(fā)生的原因是由人工智能產(chǎn)品本身的性能引起的,還是由使用者不當(dāng)操作引起的,并不是件容易的事。而被侵權(quán)人若要請求賠償,必須能夠確定引起損害發(fā)生的具體的侵權(quán)人。因此為了使被侵權(quán)人能夠及時的行使賠償請求權(quán),有必要要求人工智能產(chǎn)品的生產(chǎn)者、銷售者和使用者共同承擔(dān)責(zé)任。
其次,關(guān)于連帶責(zé)任是否對生產(chǎn)者、銷售者、使用者過于嚴苛的問題。在損害的發(fā)生是由于人工智能產(chǎn)品的使用者的過錯引起的情況下,要求生產(chǎn)者、銷售者承擔(dān)責(zé)任,會不會使生產(chǎn)者、銷售者的責(zé)任過于嚴苛。正如有些觀點認為即使是最細心的設(shè)計者、編程者以及制造者都沒有辦法控制或者預(yù)測人工智能系統(tǒng)在脫離之后將會經(jīng)歷些什么,將法律責(zé)任歸于開發(fā)者顯然是違背公理的。
科技的發(fā)展在給產(chǎn)品生產(chǎn)者銷售者帶來利潤,給產(chǎn)品使用者帶來便捷的同時,也通常以犧牲社會資源、安全、環(huán)境等為代價的,因此要求產(chǎn)品的生產(chǎn)者、銷售者和使用者承擔(dān)連帶責(zé)任,以使被侵權(quán)人所遭受的損失有更大的幾率得到補償,也是法律公平的體現(xiàn)。
2.人工智能產(chǎn)品侵權(quán)責(zé)任的歸責(zé)原則
(1)人工智能產(chǎn)品的生產(chǎn)者和銷售者承擔(dān)責(zé)任時適用無過錯責(zé)任原則。從《中華人民共和國侵權(quán)責(zé)任法》(以下簡稱《侵權(quán)責(zé)任法》)第41條可以看出對于缺陷產(chǎn)品生產(chǎn)者、銷售者承擔(dān)的是無過錯責(zé)任。普通產(chǎn)品責(zé)任以無過錯責(zé)任原則作為歸責(zé)原則,是因為缺陷產(chǎn)品本身具有一定的致人損害的危險性,當(dāng)損害發(fā)生時,實際上是損害發(fā)生危險性的現(xiàn)實化,作為缺陷產(chǎn)品的生產(chǎn)者和銷售者有義務(wù)為這種危險承擔(dān)侵權(quán)責(zé)任。
人工智能產(chǎn)品作為一種新型的人類工具,雖然本身具有深度學(xué)習(xí)能力,及在某些領(lǐng)域有著人類不可比擬的優(yōu)勢,但究其性質(zhì)而言,仍然屬于被人類支配,由人類制造的產(chǎn)品。且由于人工智能產(chǎn)品本身的高度智能化,通常不需要使用者一直控制操作,因此人工智能產(chǎn)品的安全性要求不僅不比普通產(chǎn)品低,甚至要比普通產(chǎn)品更高。因此在人工智能產(chǎn)品有關(guān)的侵權(quán)責(zé)任方面,也以無過錯責(zé)任原則作為歸責(zé)原則是比較妥當(dāng)?shù)?。這可以促使人工智能產(chǎn)品的制造者對人工智能產(chǎn)品的安全性負有高度注意義務(wù)。
(2)人工智能產(chǎn)品的產(chǎn)品使用者承擔(dān)責(zé)任時適用歸責(zé)原則應(yīng)視情況而定。人工智能產(chǎn)品的使用者承擔(dān)侵權(quán)責(zé)任的情形,是否需要使用者對損害的發(fā)生主觀上有過錯為前提條件,應(yīng)當(dāng)考慮人工智能產(chǎn)品的危險性而定。若該產(chǎn)品本身或者產(chǎn)品的操作行為具有一定的危險性,如無人駕駛汽車,那么產(chǎn)品使用者承擔(dān)責(zé)任的歸責(zé)事由主要是因為危險可能現(xiàn)實化而給他人帶來損害,則此時就不用考慮產(chǎn)品使用者主觀上是否有過錯,而適用無過錯責(zé)任原則。若該人工智能產(chǎn)品的使用不具有危險性,如銀行使用人工智能技術(shù)幫助核對帳目,此時產(chǎn)品使用者承擔(dān)責(zé)任的歸責(zé)事由應(yīng)當(dāng)是產(chǎn)品使用者對損害的發(fā)生具有主觀上的故意或者過失。
3.人工智能產(chǎn)品侵權(quán)責(zé)任的構(gòu)成要件
(1)造成了他人損害。損害自然應(yīng)該包括財產(chǎn)損害和人身損害。這里值得探討的是“他人”是否應(yīng)包括人工智能產(chǎn)品的使用者。凡是因該產(chǎn)品的使用所有損害的人都應(yīng)當(dāng)包括在內(nèi),不用區(qū)分是否為人工智能產(chǎn)品的使用者。因為若損害的發(fā)生非因使用者的過錯造成的,應(yīng)當(dāng)適用《侵權(quán)責(zé)任法》產(chǎn)品責(zé)任的規(guī)定,當(dāng)然要賠償商品使用者的損失。若損害的發(fā)生是由使用者自己的過錯造成的,則該損失由使用者承擔(dān)或分擔(dān)。
(2)人工智能產(chǎn)品在應(yīng)用中。人工智能產(chǎn)品侵權(quán)責(zé)任應(yīng)該發(fā)生在該產(chǎn)品已經(jīng)由生產(chǎn)者交付到使用者手中后,若尚未進入流通領(lǐng)域時發(fā)生損害,則不能按產(chǎn)品責(zé)任標準要求該產(chǎn)品的生產(chǎn)者和銷售者承擔(dān)無過錯責(zé)任。
(3)因果關(guān)系。被侵權(quán)人的損害應(yīng)當(dāng)是由于人工智能產(chǎn)品的應(yīng)用引起的。即該損害或者由于人工產(chǎn)品本身具有一定的危險性,該危險現(xiàn)實化導(dǎo)致了被侵權(quán)人的損害;或者由于該人工智能產(chǎn)品使用人在使用過程中的不當(dāng)使用造成了被侵權(quán)人的損害??傊磺謾?quán)人的損害和人工智能產(chǎn)品的應(yīng)用之間存在因果關(guān)系。
如前所述,人工智能產(chǎn)品的快速發(fā)展,仍局限于弱人工智能領(lǐng)域,即本質(zhì)屬性仍屬于人類控制的工具;以現(xiàn)有人類掌握的科技尚不能突破人工智能產(chǎn)品可以具有自主意識和真實情感成為平行人類的界限,故本文對人工智能產(chǎn)品具有法律人格持否定態(tài)度,對因人工智能產(chǎn)品產(chǎn)生的侵權(quán)責(zé)任也以產(chǎn)品的生產(chǎn)者、銷售者和使用者為責(zé)任主體;并針對人工智能產(chǎn)品侵權(quán)責(zé)任分配的有關(guān)問題提出了自己的看法。
參考文獻:
[1]溫正.精通MATLAB智能算法[M].北京:清華大學(xué)出版社,2015(5).
[2]翟振明.“強人工智能”將如何改變世界——人工智能的技術(shù)飛躍與應(yīng)用倫理前瞻[J].人民論壇(學(xué)術(shù)前沿),2016(7):22-33.
[3]http://www.huffingtonpost. com/stephenhawking/artificial-intelligence_b_5174265.html.
[4]德國通過首部關(guān)于自動駕駛汽車的法律[N].環(huán)球網(wǎng)國際新聞 http://world.huanqiu.com/hot/2017-05/10663821.htm.2017-10-27.