齊恩平,曹一夔
(天津商業(yè)大學(xué)法學(xué)院,天津300134)
人工智能技術(shù)作為科技的未來發(fā)展方向,對(duì)于其所進(jìn)行的研究和應(yīng)用將迎來爆發(fā)式的增長(zhǎng)。為保障人工智能技術(shù)能夠平穩(wěn)且快速地融入社會(huì)之中,在發(fā)展人工智能技術(shù)的同時(shí),于民法層面對(duì)于人工智能技術(shù)所進(jìn)行的引導(dǎo)和規(guī)范也需要同步開展,不能形成“先發(fā)展而后治理”的形式。盡管相較于歐美國家,我國因?yàn)槭苤朴谌斯ぶ悄芗夹g(shù)的發(fā)展水平和普及程度,對(duì)于人工智能民法問題的關(guān)注相對(duì)較晚,但是,我國對(duì)于引導(dǎo)和調(diào)整人工智能民法問題必要性的認(rèn)識(shí)成熟度卻相對(duì)較高。在國務(wù)院2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中,將建設(shè)人工智能法律法規(guī)、倫理規(guī)范和政策體系視為在發(fā)展人工智能技術(shù)的過程中所必須同步完成的工作。
人工智能技術(shù)的發(fā)展水平和普及程度會(huì)受制于諸多因素,包括科技水平和倫理道德觀念等,卻很難受制于民法理論的內(nèi)容。而伴隨著人工智能的技術(shù)發(fā)展和產(chǎn)品普及,極有可能出現(xiàn)人工智能民法問題不適用于當(dāng)前民法理論調(diào)整的現(xiàn)象。其具體表現(xiàn)為,作為民法理論調(diào)整的新對(duì)象,當(dāng)前民法理論對(duì)于人工智能民法問題的調(diào)整能力不足或調(diào)整范圍未曾涉及。因此,在討論人工智能民法問題時(shí),首先需要厘清人工智能民法問題的特殊性,明確各類人工智能民法問題的具體表現(xiàn),為人工智能民法問題的討論和解決提供基礎(chǔ)。
由于人工智能所涉民法問題很多,不同問題之間存在共性的同時(shí),也存在著明顯的差異。因此,本文將僅對(duì)人工智能代理、人工智能與隱私權(quán)保護(hù)、人工智能侵權(quán)責(zé)任等具有典型意義的問題展開討論,梳理這三種傳統(tǒng)民法問題在涉及人工智能技術(shù)時(shí)所展現(xiàn)出的特殊性。
“人工智能代理”盡管名為代理,但實(shí)際上并不是一個(gè)嚴(yán)謹(jǐn)?shù)姆▽W(xué)概念,也不是法學(xué)領(lǐng)域內(nèi)對(duì)于代理的傳統(tǒng)分類方式。“人工智能代理”只是通過對(duì)具體行為的特征進(jìn)行抽象或總結(jié),從而得出的一種定義或稱謂。其與“電子代理人”概念相類似,最初均屬于工學(xué)中特有的概念,隨著技術(shù)的普及逐漸為其他領(lǐng)域所吸收并加以使用。在工學(xué)領(lǐng)域內(nèi),對(duì)于“人工智能代理”有著這樣的描述:“協(xié)助人們工作并代表其辦事的軟件,智能代理人使人們將本可以自己辦理的事情交由代理軟件辦理,代理人可以做到如同助手一樣,自動(dòng)處理重復(fù)的工作,記憶人們可能忘記的事項(xiàng),聰明地匯總復(fù)雜的數(shù)據(jù),向人們學(xué)習(xí),甚至可以向人們提出建議?!盵1]基于該描述,可以認(rèn)為“人工智能代理”的工作模式與法學(xué)中的代理行為有著相似地方,但并不能據(jù)此就將“人工智能代理”簡(jiǎn)單地認(rèn)定為民法上的代理行為。
討論“人工智能代理”的本質(zhì),應(yīng)將其與民法中代理行為的概念進(jìn)行比對(duì)。民法理論中的代理行為一般會(huì)滿足四項(xiàng)內(nèi)容,即代理關(guān)系的三方當(dāng)事人、以被代理人的名義從事法律行為、代理行為的結(jié)果由本人承擔(dān)、代理委托授權(quán)。對(duì)于以被代理人的名義從事法律行為、代理行為的結(jié)果由本人承擔(dān)這兩項(xiàng)內(nèi)容,通過前文對(duì)“人工智能代理”的工作模式的梳理,可以判斷其符合民法中代理行為的要求。而代理權(quán)問題則是在明確“人工智能代理”為真正的代理行為之后所需要討論的問題。但是,對(duì)于代理關(guān)系的三方當(dāng)事人問題,即無法從“人工智能代理”的工作模式進(jìn)行直觀的比對(duì),因此,判斷“人工智能代理”是否符合民法中代理行為的條件,必須對(duì)該問題加以討論。
民法中的代理行為一般包含三方當(dāng)事人,即代理人、被代理人和第三人。在“人工智能代理”中,最需要討論的是有關(guān)代理人的問題。人工智能并不是民法上的獨(dú)立的主體,而是屬于自然人或法人所有的財(cái)產(chǎn)。在這一前提之下,人工智能缺乏成為被代理人的可行性。而能否賦予人工智能獨(dú)立的主體資格,本身也是一個(gè)十分具有爭(zhēng)議性的法學(xué)問題。因此,仍需立足于人工智能作為財(cái)產(chǎn)的前提,對(duì)于“人工智能代理”中的代理人進(jìn)行討論。
在將人工智能看作財(cái)產(chǎn)的前提之下,對(duì)于“人工智能代理”中的代理人需要進(jìn)行分類分析。若人工智能為被代理人所有的財(cái)產(chǎn),那么盡管人工智能具有自主性和智能性,但是在“人工智能代理”中仍然缺乏作為代理人而存在的可能性。此種情況下,“人工智能代理”更有可能被認(rèn)定為被代理人借助人工智能所進(jìn)行的一種直接行為。
還有一種情況是,人工智能屬于獨(dú)立于代理關(guān)系之外的自然人或法人所有。在此種情形下,人工智能的所有者不再是被代理人本身,可以滿足代理行為對(duì)于三方當(dāng)事人的要求。但是,當(dāng)被代理人通過代理合同與“人工智能代理”就某項(xiàng)代理工作達(dá)成一致時(shí),對(duì)于被代理人是對(duì)人工智能授予了代理權(quán),還是對(duì)人工智能的所有者授予了代理權(quán)則會(huì)存在爭(zhēng)議。如果將此種情形視作被代理人與人工智能所有者之間就某項(xiàng)代理行為達(dá)成了一致,那么“人工智能代理”就只能作為一種混淆視聽的錯(cuò)誤概念而被予以摒棄。
除了“人工智能代理”的本質(zhì)以及代理人的問題之外,還有很多涉及“人工智能代理”的問題值得討論,例如,如何判斷人工智能的行為能力,人工智能代理權(quán)的來源,“人工智能代理”能否構(gòu)成表見代理、構(gòu)成條件以及被代理人的抗辯事由,被代理人在進(jìn)行(使用)“人工智能代理”時(shí)所應(yīng)承擔(dān)注意義務(wù),以及人工智能在進(jìn)行代理行為時(shí)侵權(quán)責(zé)任的歸屬。但是,這些問題的討論基礎(chǔ)在于確定“人工智能代理”是否屬于民法理論中的代理行為,以及代理人的歸屬問題。
人工智能技術(shù)并沒有對(duì)現(xiàn)有的隱私權(quán)理論或隱私權(quán)保護(hù)體系造成變革性的影響,其對(duì)于隱私權(quán)保護(hù)的影響,主要體現(xiàn)在其加劇了隱私權(quán)保護(hù)的難度。因此,本文認(rèn)為,開展人工智能與隱私權(quán)保護(hù)問題的討論,首先需要梳理人工智能技術(shù)加劇隱私權(quán)保護(hù)難度的具體表現(xiàn),然后才能夠討論在民法上如何對(duì)這些新的不利因素進(jìn)行有效的調(diào)整和規(guī)范。
保護(hù)隱私權(quán)不受侵犯的最根本的方式在于遏制他人獲取個(gè)人隱私的途徑。在沒有人工智能,甚至是沒有互聯(lián)網(wǎng)之前,對(duì)于個(gè)人隱私的獲取方式,往往是直接窺探涉及他人個(gè)人隱私的信息或者行為。但是,人工智能技術(shù)的信息搜集能力和處理能力,使得獲取他人隱私的途徑不再只是直接的窺探行為。人工智能所有者或使用者能夠借助人工智能技術(shù),在大量的信息之中快速地搜集到與特定人相關(guān)的個(gè)人信息。盡管這些個(gè)人信息沒有向搜索者直接展現(xiàn)權(quán)利人的隱私內(nèi)容,但是,在搜索者掌握足夠充分的個(gè)人信息,并利用人工智能對(duì)這些個(gè)人信息進(jìn)行進(jìn)一步處理之后,這些原本單一的個(gè)人信息內(nèi)容會(huì)揭示有關(guān)特定人的生活規(guī)律、個(gè)人偏好,以及極其私隱的個(gè)人信息內(nèi)容。原本存在于對(duì)特定人龐雜信息進(jìn)行搜集和處理的困難,隨著人工智能技術(shù)的發(fā)展和普及得到了解決。面對(duì)這樣的情況,需要我們重新審視衡量侵犯他人隱私的標(biāo)準(zhǔn),對(duì)于此種通過搜集并分析他人的個(gè)人信息,進(jìn)而推導(dǎo)出他人隱私的行為加以約束。
隨著人工智能技術(shù)的快速普及,許多涉及日常生活的服務(wù)都引入了人工智能技術(shù)。在某些情況下,個(gè)人為了能夠享受到后續(xù)的服務(wù),不得不使用服務(wù)提供商所提供的人工智能服務(wù)。在此過程中,個(gè)人無法依照自己的意愿將人工智能服務(wù)和自己所希望獲取的服務(wù)行為進(jìn)行分割,也就無力阻止個(gè)人信息被他人大量搜集。而大量個(gè)人信息的泄露,就會(huì)導(dǎo)致前文所說的通過搜集個(gè)人信息從而推導(dǎo)出個(gè)人隱私的情況的發(fā)生。
當(dāng)然,并不是所有的使用帶有人工智能服務(wù)的行為,均非出于個(gè)人意愿。人工智能中的個(gè)人搜索服務(wù)便捷了個(gè)人的生活。但是,智能搜索服務(wù)需要了解搜索者在某一時(shí)刻的個(gè)人需求才能完成搜索服務(wù)。甚至,智能搜索需要通過不斷地搜集、記錄、分析搜索服務(wù)用戶的搜索歷史、搜索偏好和搜索興趣,才能為搜索者或具有相同需求的人群提供更為優(yōu)質(zhì)的智能服務(wù)。
因此,無論是出于被迫的還是自愿的使用行為,人工智能都不可避免地要對(duì)使用者在使用人工智能服務(wù)過程中所瀏覽或輸入的信息進(jìn)行搜集、記錄、分析,甚至是學(xué)習(xí)。而使用者所提供的與個(gè)人相關(guān)的大量信息可以使人工智能或他人據(jù)此推測(cè)出與使用者相關(guān)的個(gè)人隱私,甚至使用者所瀏覽或輸入的某些信息可能會(huì)直接涉及到個(gè)人隱私。因此,需要為人工智能的搜集行為設(shè)定必要的前提和界限,避免在享受人工智能服務(wù)的過程中被侵犯隱私權(quán)。
相較于互聯(lián)網(wǎng)等相關(guān)科技,人工智能技術(shù)的特點(diǎn)之一在于其所具有的深度學(xué)習(xí)能力。而這種深度學(xué)習(xí)能力也是我們大力發(fā)展人工智能技術(shù)所希望獲得的成果之一,可以說對(duì)于人工智能學(xué)習(xí)能力的研究符合我們的公共利益。但是,人工智能進(jìn)行深度學(xué)習(xí),甚至是完成對(duì)人類行為活動(dòng)的模仿,都離不開對(duì)于不特定人群的個(gè)人信息甚至是隱私內(nèi)容的搜集。盡管人工智能技術(shù)符合公共利益的發(fā)展,但是,個(gè)人讓渡私權(quán)利去滿足公共利益是有一定界限的,甚至在某些情形下是完全取決于個(gè)人的選擇。
因此,在發(fā)展人工智能的過程中,如何平衡公共利益和個(gè)人權(quán)利之間的界限,需要我們進(jìn)行更進(jìn)一步的探討。無論我們進(jìn)入哪一種極端的情況,對(duì)于人工智能技術(shù)的發(fā)展或個(gè)人隱私的保護(hù)都會(huì)造成重大的影響。
隨著互聯(lián)網(wǎng)的快速發(fā)展,個(gè)人能夠在更為公開化的平臺(tái)上發(fā)布涉及個(gè)人身份、出行,甚至是各種敏感信息,而此種行為往往伴隨著一種主動(dòng)性和不理智性。但是,被分享的這些能夠使他人推導(dǎo)出個(gè)人隱私,或本就涉及個(gè)人隱私的內(nèi)容,在權(quán)利人向他人公開后,是否仍然能夠被納入隱私權(quán)的客體范圍內(nèi)本身就存在著爭(zhēng)議。并且,權(quán)利人發(fā)布的內(nèi)容極有可能會(huì)被他人進(jìn)一步轉(zhuǎn)發(fā)或擴(kuò)散,從而被更多人所獲知。在這一過程中,無論是權(quán)利人所做的初次發(fā)布,還是其他人的瀏覽和轉(zhuǎn)發(fā)行為,都使人工智能有可能獲取到涉及權(quán)利人隱私的內(nèi)容,并且就這些被獲取的隱私進(jìn)行分析和學(xué)習(xí)。而對(duì)于這些已經(jīng)由權(quán)利人向特定主體或不特定主體所公開的個(gè)人隱私,或可以推導(dǎo)出個(gè)人隱私的信息,法律是否仍然應(yīng)該進(jìn)行保護(hù),以及應(yīng)在何種程度上去追究侵權(quán)人的責(zé)任都需要進(jìn)行具體討論。
在利用人工智能進(jìn)行某種活動(dòng)的時(shí)候,一般存在三方不同主體,分別是人工智能的研發(fā)者、運(yùn)營(yíng)者和使用者。人工智能的研發(fā)者、運(yùn)營(yíng)者和使用者在人工智能運(yùn)轉(zhuǎn)過程中的權(quán)利義務(wù)分配,是確定人工智能侵權(quán)責(zé)任歸屬的重要前提。
在分配人工智能技術(shù)所涉及的三方主體的權(quán)利義務(wù)時(shí),需要結(jié)合人工智能的相關(guān)屬性,即智能性、自主性以及高度專業(yè)性。首先,要對(duì)權(quán)利義務(wù)的分配方式進(jìn)行討論。一般而言,權(quán)利義務(wù)的分配方式包括法定分配、格式合同分配和意定分配等方式。對(duì)于這幾種分配方式,選擇哪一種方式或配合使用對(duì)于分配人工智能三方主體的權(quán)利義務(wù)能夠更為合理,以及在使用格式合同分配和意定分配時(shí)所能自由規(guī)定的內(nèi)容,都需要進(jìn)行具體討論。其次,要明確權(quán)利義務(wù)的分配標(biāo)準(zhǔn),在人工智能的研發(fā)者、運(yùn)營(yíng)者和使用者之間進(jìn)行權(quán)利與義務(wù)的分配,要兼顧公平、正義和效率的原則。但是,在公平、正義和效率三者之間往往又會(huì)有所側(cè)重,受限于人工智能的高度專業(yè)性,以及當(dāng)前人工智能技術(shù)發(fā)展階段和普及水平,在分配研發(fā)者、運(yùn)營(yíng)者和使用者的權(quán)利與義務(wù)時(shí),要考慮側(cè)重于哪種原則更能有利于人工智能技術(shù)的發(fā)展,以及有利于保護(hù)人工智能的研發(fā)者、運(yùn)營(yíng)者、使用者和其他人的合法權(quán)益。
討論人工智能侵權(quán)責(zé)任的認(rèn)定問題,需要根據(jù)被侵權(quán)人的不同而進(jìn)行分類討論??梢苑譃閮煞N,第一種是討論被侵權(quán)人為使用者時(shí)的侵權(quán)責(zé)任認(rèn)定問題,第二種則是要討論使用者在使用過程中對(duì)他人造成侵權(quán)時(shí)的責(zé)任認(rèn)定問題。對(duì)于這兩種情況,都需要從侵權(quán)責(zé)任構(gòu)成要件和歸責(zé)原則兩方面進(jìn)行討論。
首先,需要討論人工智能侵權(quán)責(zé)任的歸責(zé)原則。當(dāng)被侵權(quán)人為使用者時(shí),承擔(dān)侵權(quán)責(zé)任的主體一般應(yīng)是人工智能的研發(fā)者和運(yùn)營(yíng)者。而當(dāng)被侵權(quán)人為使用者以外的主體時(shí),承擔(dān)侵權(quán)責(zé)任的主體一般應(yīng)是人工智能的研發(fā)者、運(yùn)營(yíng)者和使用者。但是,基于人工智能的智能性、自主性以及高度專業(yè)性,是否能夠在這兩種情況下均要求侵權(quán)責(zé)任的潛在承擔(dān)者承擔(dān)無過錯(cuò)責(zé)任和連帶責(zé)任是需要探討的。
如果讓人工智能的研發(fā)者、運(yùn)營(yíng)者和使用者在各種情況下,均承擔(dān)無過錯(cuò)責(zé)任和連帶責(zé)任,或許可以充分保護(hù)被侵權(quán)人的利益,但是對(duì)于侵權(quán)人的利益以及人工智能的發(fā)展均有可能造成不利影響。因此,應(yīng)對(duì)不同主體承擔(dān)責(zé)任時(shí)所適用的歸責(zé)原則進(jìn)行分類討論,并明確不同主體所享有的免責(zé)事由。在明確了歸責(zé)原則之后,就能為應(yīng)采納侵權(quán)責(zé)任中的“三要件”說還是“四要件”說提供理論支持。
在認(rèn)定人工智能侵權(quán)責(zé)任的具體類型時(shí),有可能出現(xiàn)兩種侵權(quán)責(zé)任類型的競(jìng)合。這一問題的根本原因在于人工智能的自主性和智能性,使用者在操作人工智能的過程中,往往不會(huì)下達(dá)非常具體的命令,更多地是選擇人工智能運(yùn)行模式或基本設(shè)定。此時(shí),人工智能在使用過程中的具體行為往往無法由使用者做出提前的預(yù)判,并加以干涉。因此,使用者在使用人工智能的過程中出現(xiàn)侵權(quán)行為,會(huì)出現(xiàn)與產(chǎn)品責(zé)任的競(jìng)合。因?yàn)闊o法區(qū)分兩種責(zé)任,或是同時(shí)涉及到使用者與研發(fā)者、運(yùn)營(yíng)者共同侵權(quán)的可能性。
例如,當(dāng)無人駕駛汽車造成交通事故的時(shí)候,如果認(rèn)為是作為產(chǎn)品的無人駕駛汽車存在瑕疵,則需要追究產(chǎn)品研發(fā)者和運(yùn)營(yíng)者的產(chǎn)品責(zé)任。但是,若在無人駕駛汽車使用過程中,使用者存在操作不當(dāng)或違規(guī)操作的問題,則應(yīng)認(rèn)定為交通事故責(zé)任。此種情形下,被侵權(quán)人尚能清晰地辨明自己所主張的對(duì)象。但是,假如無法區(qū)分責(zé)任歸屬,或是既存在產(chǎn)品瑕疵又存在操作不當(dāng)?shù)男袨椋蜁?huì)產(chǎn)生產(chǎn)品責(zé)任和交通事故責(zé)任的競(jìng)合問題。再如,人工智能醫(yī)療器械在進(jìn)行診療行為時(shí)所發(fā)生的醫(yī)療損害,也有可能如上述無人駕駛汽車的侵權(quán)問題一樣,導(dǎo)致產(chǎn)品責(zé)任和醫(yī)療事故責(zé)任的競(jìng)合。因此,為了使被侵權(quán)人獲得充分的保護(hù),也為了保護(hù)不應(yīng)承擔(dān)侵權(quán)責(zé)任的一方主體的利益,需要針對(duì)此類具有特殊性的人工智能侵權(quán)問題的責(zé)任類型進(jìn)行討論,進(jìn)一步分析其是否能夠真正構(gòu)成侵權(quán)責(zé)任的競(jìng)合,討論在適用不同侵權(quán)責(zé)任時(shí)為同一人工智能侵權(quán)行為所帶來的不同結(jié)果,以及應(yīng)如何界定此類人工智能侵權(quán)責(zé)任更為合理。
人工智能民法問題的種類具有多樣性,遠(yuǎn)不是本文所論述的有關(guān)人工智能代理問題、人工智能和隱私權(quán)保護(hù)問題以及人工智能侵權(quán)責(zé)任問題所能涵蓋的。本文僅僅是以代理、隱私權(quán)保護(hù)和侵權(quán)責(zé)任為例,對(duì)當(dāng)前對(duì)人工智能民法問題中,利用傳統(tǒng)民法理論進(jìn)行調(diào)整時(shí)所產(chǎn)生的不適用的突出表現(xiàn)進(jìn)行了簡(jiǎn)要的梳理。同時(shí),本文的主要目的在于,梳理具體類型的人工智能民法問題在適用傳統(tǒng)民法理論進(jìn)行調(diào)整時(shí)所表現(xiàn)出的不適。對(duì)于如何合理地解決這些問題,則需要進(jìn)行進(jìn)一步的討論。
[1]瑪麗蓮·格林斯坦,托德M.法因曼.電子商務(wù):安全、風(fēng)險(xiǎn)管理與控制[M].北京:機(jī)械工業(yè)出版社,2002:330.
[2]DAHIYAT E A R.Intelligent agents and liability:is it a doctrinal problem or merely a problem of explanation[J].Artificial Intelligence and Law,2010(18):103-121.
[3]BROZEK B.On the legal responsibility of autonomous machine[J].Artificial Intelligence and Law,2017(25):293-304.
[4]ALLEN A L.Protecting one’s own privacy in a big data economy[J].Harvard Law Review Forum,2016(130):71-78.
[5]CALO R.Robotics&the Law:Liability for Personal robots[J/OL].[2017-11-25]https://cyberlaw.stanford.edu/blog/2009/11/robotics-law-liability-personal-robots.