蔡曉淇 付嘉偉 田笑宇
東北大學文法學院,遼寧 沈陽 110169
當今社會,人工智能技術(shù)高速發(fā)展,伴隨著人工智能技術(shù)不斷市場化、產(chǎn)品化、普及化,它將漸進地改變?nèi)藗兊纳?,也將改變傳統(tǒng)社會的各行各業(yè)。但是,萬物皆有兩面性,人工智能技術(shù)也是一把雙刃劍,它造福社會,提高整體社會的勞動效率,便捷人們的生活;伴隨著其智能程度的上升,未來可能難以被人類所掌控,會造成許多風險。我們應(yīng)該正視其好與壞,也應(yīng)該未雨綢繆,關(guān)注它的變化,適時而變,促進其朝向好的方向發(fā)展。綜上,我們的當務(wù)之急就是要對人工智能進行合理可行、高效的風險評測、防控以及未來用法律的手段去解決它的風險。
根據(jù)《巴塞爾新資本協(xié)議》,法律風險是一種特殊類型的操作風險,包括但不限于因監(jiān)管措施和民商事糾紛解決而產(chǎn)生的罰款或懲罰性賠償所帶來的風險敞口。在本文章中人工智能技術(shù)法律風險的定義為:人工智能技術(shù)在飛速發(fā)展中,由于弱人工智能在逐漸向強人工智能、超人工智能進化,從而讓人工智能技術(shù)徘徊于法律邊界周圍更有甚者超出法律邊界而造成的一系列法律問題,這其中包含著人工智能法律風險發(fā)生的可能性及危險性,也包含著這種法律風險導致的不確定性后果。
人工智能技術(shù)為了提升自身的發(fā)展速度并與此同時不斷完善自己,盡可能減少自身可能產(chǎn)生的錯誤,將人工智能技術(shù)市場化、產(chǎn)品化是必由之路。但是,在其市場化、產(chǎn)品化、普及化的過程中,它侵權(quán)責任的法律風險則隨之而來,其中有人工智能技術(shù)產(chǎn)品自身質(zhì)量不合格而侵權(quán),也有在使用者層面造成的不當使用而侵權(quán)。不同的方式促使著我們必須對其侵權(quán)而造成的法律風險進行進一步的分類以便更好地預防。(見表1)
表1 人工智能技術(shù)的法律風險的主要形式
1.難以確定人工智能的法律地位
目前我國民法對民事主體的界定為:有獨立的名義,獨立的意志,獨立的財產(chǎn),包括自然人、法人和其他社會組織。顯然根據(jù)民法的定義,人工智能產(chǎn)品不算是民事主體。但是由于人工智能技術(shù)有自我學習的特性,會在不斷學習中產(chǎn)生自己的獨立行為,進而難以控制、難以判斷、難以預測?;诖朔N特性,一個問題擺在我們面前:一旦人工智能產(chǎn)品侵害他人權(quán)益時,是否可以用現(xiàn)有的法律地位將其類比為獨立的民事主體,從而承擔應(yīng)該承擔的侵權(quán)責任?
2.難以確定人工智能侵權(quán)行為
我國《民法典》規(guī)定侵權(quán)責任的一般構(gòu)成要件,即:(1)違法行為;(2)損害事實;(3)因果關(guān)系;(4)主觀過錯[1]。因為人工智能的法律地位目前尚未有一個明確的答案,也就不能明確人工智能侵權(quán)主體。同時人工智能可以通過后天的不斷學習,擁有獨立決策、獨立行為的能力,不能判斷其行為的初衷,這也就很難看出是否其行為受到算法設(shè)置者的干預。據(jù)《民法典》,只擁有違法行為和損害事實,并不能判斷其因果關(guān)系和主觀過錯的情況,是不能輕易追究其侵權(quán)責任的,也就存在著相對應(yīng)的法律風險。
3.難以確定人工智能的歸責原則
《民法典》規(guī)定的過錯責任以侵權(quán)人存在主觀過錯為前提要件[2]。如今,沒有法律承認人工智能可以作為侵權(quán)人,即人工智能并未擁有法律意義上的主體地位,所以即使人工智能侵害他人權(quán)益也很難套用哪套過錯的責任法案來懲罰人工智能。沒有相對應(yīng)人工智能的法律規(guī)則來審判也是目前的法律風險。
1.個人信息和隱私數(shù)據(jù)的不正當收集風險
在現(xiàn)在的大數(shù)據(jù)時代,人工智能正在不斷地以不正當?shù)氖侄问占總€上網(wǎng)人的信息和隱私。過去,我們主要通過注冊個人賬戶來以主動的方式被互聯(lián)網(wǎng)收集個人信息和隱私數(shù)據(jù),現(xiàn)在人工智能的生活化發(fā)展讓我們的個人隱私更輕而易舉地被獲取,更甚者是在我們并不在意甚至毫不知情的情況下,人工智能就將我們個人的信息和隱私數(shù)據(jù)收取了。就像:自動駕駛汽車技術(shù),它從某種程度上可以作為人工智能收集我們的移動地點的工具,這使得私家車這一本為很私人的空間,變成無論去哪里都會被記錄下來的“筆記本”。[3]
2.個人信息和隱私數(shù)據(jù)的泄露擴散風險
2012年云存儲公司Dropbox泄露幾千萬用戶郵箱賬號信息;2016年全國30個省份約270名的艾滋病患者信息泄露受到不法分子打來的騷擾電話[4]。許多例子告訴我們,我們的個人信息并不安全,也沒有相關(guān)的法律來切實地保護我們的利益。這樣的隱私數(shù)據(jù)都會被大范圍的泄露,我們又如何去談?wù)撾[私權(quán)呢?我們又怎么去保護我們的個人信息和個人隱私不被泄露呢?
在現(xiàn)在的自然界,能夠比人類更強的也就只能是未來的人工智能科技了。當真正的強人工智能時代到來之時,人類的各行各業(yè)也將經(jīng)歷一次人工智能侵入的大洗牌,人工智能大批量、高質(zhì)量地涌入勞動力市場必將占據(jù)大量勞動力席位,使得勞動力市場的結(jié)構(gòu)大變,從而減少大量原有的工作崗位,引發(fā)勞動者大批量失業(yè)。
當我們想要給人工智能侵權(quán)行為進行責任劃分時,由于人工智能的智能程度不同決定著其是否能擁有法律意義上的主體地位,就必須針對這進行分類討論、區(qū)別對待。
1.弱人工智能:此類人工智能產(chǎn)品只會一味地按照設(shè)定好的算法運算,只是輔助人類工作的工具,沒有自主的意識,在這樣的前提條件下,弱人工智能沒有條件去具備法律意義上的主體地位,“也就是說,人類對人工智能的態(tài)度還處于人工智能薄弱的階段。大數(shù)據(jù)雖然在發(fā)揮作用,但本質(zhì)上仍處于工具化階段,與傳統(tǒng)產(chǎn)品并無區(qū)別”[5]。正因為這樣,即使這樣的人工智能產(chǎn)品造成了侵權(quán)行為,它的設(shè)計者、研發(fā)者也并不應(yīng)該承擔相應(yīng)的責任,而應(yīng)該判定是否與使用者有關(guān)。若有,則使用者承擔主要責任;若無,這應(yīng)該追究生產(chǎn)方與銷售方的責任。此時各方應(yīng)遵守“誰的行為誰承擔”的原則。
2.強人工智能和超人工智能:人工智能產(chǎn)品可以通過大量數(shù)據(jù)的分析、處理與學習,擁有獨立決策、獨立行為的能力,擁有獨立的自我思維和意識。擁有智慧的前提使得其脫離了單純的“物”的范疇。此類人工智能產(chǎn)品應(yīng)當獲得法律主體地位。此時的區(qū)別則是,相比超人工智能,強人工智能的主體地位相對較低。強人工智能侵權(quán)時,設(shè)計者和研發(fā)者負主要責任,使用者更像是“監(jiān)護人”起到監(jiān)管的職責。若使用者并無過錯則無需承擔責任。而超人工智能,應(yīng)具備完全的法律地位,此時對于使用者來說,二者相互獨立。追究過錯時應(yīng)當追究設(shè)計、研發(fā)人員,讓他們與人工智能產(chǎn)品共同承擔侵權(quán)責任。
1.明確個人信息與個人隱私的保護范圍
在《民法典》中對隱私權(quán)和個人信息的內(nèi)容分別給予了詳細的規(guī)定。個人信息和個人隱私并未被等同,而是對個人信息的定義加以擴展,將這樣的定義明確,能輔助我們更好地保護個人隱私,我們更應(yīng)該明確它們受保護的范圍。
2.完善個人信息與個人隱私保護的法律體系
如今我們國家并未建立起完善健全的保護個人信息和個人隱私的法律體系。近十年來,國家才一點點地加強對公民個人信息和隱私權(quán)保護的重視。國家應(yīng)該針對時勢,出臺一部針對新時代人工智能等高科技竊取公民個人信息和隱私的劣跡行為。而制定在相關(guān)法律中應(yīng)當著重注意以下方面:完善用戶同意機制[6],即在使用公眾信息目的正當且必要的大前提下,充分告知公眾相關(guān)信息使用和用途并得到公眾個人的自愿同意。這也就要求數(shù)據(jù)控制者必須經(jīng)過數(shù)據(jù)擁有者的本人同意才能夠處理其信息。這樣設(shè)置能夠給予用戶更多的權(quán)利,如知情權(quán)、拒絕權(quán)等,減少個人信息與個人隱私的泄露風險。
3.提高個人對于自身信息和個人隱私的掌控能力
在人工智能產(chǎn)品化、市場化、普遍化的今天,儲存時間長、收集方式多等詞匯成了個人的信息的標簽,個人的隱私也具有持久性、易得性等特性。為了解決個人信息泄露的問題,可以依靠法律的力量,給予自然人對于自己的個人信息和個人隱私更多的掌控能力,例如:徹底刪除、控制個人信息傳播等。與此同時,當信息所有者在合理合法的前提下行使這種權(quán)利,任何人不得干涉與拒絕,這樣可以提高個體對于個人信息和隱私的控制能力和主動防御能力,也可以有效減少人工智能對于個人自身的信息和隱私的控制強度。(見圖1)
圖1 個人信息與個人隱私泄露風險的解決途徑
人工智能技術(shù)不斷涌入勞動力市場,在資本家以利益為前提的視角下,勞動者的劣勢地位會逐漸被放大。故若人工智能大批量、高質(zhì)量地進入勞動力市場,需要通過法律層面來維護勞動者的利益,著重關(guān)心勞動者自身工作的穩(wěn)定性以及勞動者和資本方的利益和視角的協(xié)調(diào)。
我們應(yīng)重塑和諧價值,在從前的勞資關(guān)系之中,和諧的價值也僅僅在于不起矛盾,互相體諒,和睦相處??僧斎斯ぶ悄軙r代到來之后,為了減少人工智能對于勞動者就業(yè)方面的法律風險,社會應(yīng)該重塑出一個新的和諧價值。這個和諧代表著建立勞動者和資本方的協(xié)調(diào)的利益“命運共同體”。在法律的制定角度,應(yīng)該將勞動者和資本方當做“和諧”關(guān)系的兩端終點,人工智能技術(shù)僅僅是二者相互共通、相互合作的工具,給予勞動者足夠的尊重,并不能夠替代勞動者的存在。重塑和諧價值,有助于讓勞資雙方共贏:勞動者通過學習、利用人工智能技術(shù)從而更好地服務(wù)于資本方,獲得自我價值;資本方可以通過人工智能技術(shù)降低成本,更好地獲得勞動者的價值。
人工智能的應(yīng)用對于人類社會是存在于各個方面。例如,日常的信息處理、自動駕駛汽車的進入市場、代替簡單重復勞動的人工智能機器人等。面對這些智能化、創(chuàng)新化的事物,現(xiàn)有的法律體系難以面面俱到,人工智能出現(xiàn)法律風險的可能性很大。這種風險,有人工智能技術(shù)對現(xiàn)存法律的挑戰(zhàn),還有人工智能給社會帶來的不可預測性等。對于我們?nèi)祟悂碚f,對于人工智能發(fā)展的底線就是人工智能的存在應(yīng)該是服務(wù)于人類,當人工智能的行為越過法律的邊界,損傷了人類的利益,那么我們就需要對這種技術(shù)進行限制甚至停止使用。