国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能領(lǐng)域的法律風(fēng)險(xiǎn)控制

2021-11-26 14:51
法制博覽 2021年13期
關(guān)鍵詞:設(shè)計(jì)者人工智能責(zé)任

王 玥 吳 妍

(南陽師范學(xué)院法學(xué)院,河南 南陽 473061)

隨著社會(huì)生活的不斷發(fā)展,人工智能被廣泛運(yùn)用到我們的日常生活中。從加速物流產(chǎn)業(yè)到智能家居產(chǎn)業(yè),從提供醫(yī)療到改善教育,人工智能讓我們的社會(huì)生活有了更深刻的變革?,F(xiàn)在的人工智能還處于弱人工智能階段,即利用統(tǒng)計(jì)學(xué)和擬合函數(shù)的知識(shí)解決簡(jiǎn)單問題,代替重復(fù)勞動(dòng)的人工智能階段。隨著科學(xué)技術(shù)的快速革新,人工智能的理論技術(shù)日益成熟,未來極有可能出現(xiàn)區(qū)別于弱人工智能的強(qiáng)人工智能,甚至是更為超人工智能。隨著人工智能的快速發(fā)展,它所產(chǎn)生的法律問題逐漸增多,人工智能的法律人格的確認(rèn)和法律倫理困境、人工智能進(jìn)一步發(fā)展而產(chǎn)生的侵權(quán)責(zé)任值得我們進(jìn)一步深入探討和研究。

一、人工智能侵權(quán)責(zé)任

在人類歷史上每一次的科技進(jìn)步發(fā)展都會(huì)對(duì)社會(huì)生活產(chǎn)生巨大影響,與此相對(duì)應(yīng)的就是對(duì)人類法律領(lǐng)域提出了相對(duì)應(yīng)的新要求和挑戰(zhàn),人工智能在科技高速發(fā)展的當(dāng)下,其所涉及的民事責(zé)任,通常都表現(xiàn)在無人駕駛汽車或人工智能機(jī)器人等對(duì)他人人身或財(cái)產(chǎn)造成侵害而引起的侵權(quán)責(zé)任。

在2016年舉辦的中國(guó)國(guó)際高新技術(shù)成果交易會(huì)上,在沒有指令和違規(guī)操作的情況下,一個(gè)名為“小胖”的機(jī)器人突然失去控制,內(nèi)部發(fā)生故障導(dǎo)致其砸壞部分展臺(tái),且使一人受傷。

在這個(gè)案例中,我們很清楚地看到,人工智能是存在失控和算法出現(xiàn)錯(cuò)誤的可能性的,在人工智能應(yīng)用范圍逐漸普及的今天,這樣的人工智能失控事件只會(huì)越來越多,而由此引發(fā)的侵權(quán)責(zé)任認(rèn)定和承擔(dān)的問題,則是我們討論的重中之重。

作為一個(gè)計(jì)算機(jī)學(xué)科的分支,人工智能的實(shí)質(zhì)是生產(chǎn)出一種新的,能以人類相似的方式作出相應(yīng)反應(yīng)的智能機(jī)器,人工智能本質(zhì)是使計(jì)算機(jī)對(duì)人的意識(shí)和思維的信息過程進(jìn)行模擬,模仿人的思考方式,甚至超過人的智力。而在這種情況下,人工智能風(fēng)險(xiǎn)主要是來自人類對(duì)其缺乏控制或是無法控制。雖然人類是人工智能的發(fā)明者,但受到當(dāng)前技術(shù)的制約,容易對(duì)人工智能缺乏完整的全面的控制。而隨著人工智能的進(jìn)一步發(fā)展,發(fā)展到了新的階段,產(chǎn)生了自我意識(shí),人工智能的風(fēng)險(xiǎn)就更加難以控制?,F(xiàn)在的強(qiáng)人工智能發(fā)展面臨瓶頸,所以當(dāng)前人工智能侵權(quán)行為主要是弱人工智能引發(fā)的侵權(quán)行為。其原因主要有兩個(gè),一是人工智能在研發(fā)時(shí)期存在程序和編碼上存在缺陷,致使發(fā)明出來的人工智能在操作時(shí)行為紊亂,不受指令控制,從而產(chǎn)生侵權(quán)行為。二是后期使用者未按照正確的指令或者說明進(jìn)行操作,導(dǎo)致人工智能行為不受控制,產(chǎn)生侵權(quán)行為。

由于侵權(quán)責(zé)任中的主體為民法上的“人”,侵權(quán)責(zé)任構(gòu)成要件中的“過錯(cuò)”是指“行為人”應(yīng)受責(zé)難的主觀狀態(tài),“行為”也是指“行為人”侵害他人合法權(quán)益的行為,“因果關(guān)系”也是指“行為人”的行為與侵權(quán)后果的因果關(guān)系。而現(xiàn)階段的人工智能大多出于對(duì)編程指令的遵循階段,即使是能做出判斷和決定的人工智能,也只不過是在嵌入的數(shù)據(jù)庫內(nèi)依照篩選程序做出判斷和決策。由此可知,現(xiàn)階段的人工智能沒有自主意識(shí),無法作出意思表示,屬于弱人工智能。因此,現(xiàn)階段的人工智能不具備民事主體資格,人工智能侵權(quán)責(zé)任主體的認(rèn)定依舊是其相關(guān)人。

既然人工智能不具有法律上的主體資格,那么它在法律上的屬性就定義為“物”。人工智能的侵權(quán)責(zé)任也就可以歸為產(chǎn)品責(zé)任。人工智能因其高智力投入和復(fù)雜的研發(fā)過程區(qū)別于一般的產(chǎn)品,其侵權(quán)責(zé)任的歸屬可以根據(jù)侵權(quán)行為產(chǎn)生的不同情形合理劃分至研發(fā)設(shè)計(jì)人員、生產(chǎn)者、銷售者和使用者這些不同主體身上。

在人工智能的研發(fā)階段,研發(fā)階段的人工智能侵權(quán)責(zé)任歸屬有兩個(gè)主體,一個(gè)是設(shè)計(jì)者,一個(gè)是生產(chǎn)者。設(shè)計(jì)者對(duì)人工智能進(jìn)行基礎(chǔ)性的設(shè)計(jì)工作,生產(chǎn)者按照設(shè)計(jì)者的方案投入生產(chǎn)。生產(chǎn)者和設(shè)計(jì)者均承擔(dān)無過錯(cuò)責(zé)任。

在設(shè)計(jì)階段發(fā)生的侵權(quán)行為,無論設(shè)計(jì)者是否故意,都應(yīng)當(dāng)由設(shè)計(jì)者承擔(dān)侵權(quán)責(zé)任,賠償侵權(quán)損失。而在人工智能投入生產(chǎn),進(jìn)入流通領(lǐng)域后。設(shè)計(jì)者只有被證明是由于設(shè)計(jì)者的過失導(dǎo)致侵權(quán)行為的產(chǎn)生,才承擔(dān)侵權(quán)責(zé)任。同樣的,在生產(chǎn)階段,也無論生產(chǎn)者是否故意,有無過錯(cuò),均由生產(chǎn)者承擔(dān)侵權(quán)責(zé)任,賠償受害人的財(cái)產(chǎn)或人身傷害。

在銷售階段,人工智能進(jìn)入商品流通領(lǐng)域。銷售者從生產(chǎn)者手中接過人工智能產(chǎn)品,介紹并銷售給使用者。根據(jù)《民法典》第一千二百零三條,因銷售者的過錯(cuò)使產(chǎn)品存在缺陷,造成他人損害的,銷售者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。銷售者不能指明缺陷產(chǎn)品的生產(chǎn)者也不能指明缺陷產(chǎn)品的供貨者的,銷售者應(yīng)當(dāng)承擔(dān)侵權(quán)責(zé)任。

二、人工智能的法律倫理困境

人工智能快速進(jìn)入人的生活,給人類社會(huì)帶來深刻的變化。人工智能的出現(xiàn)和發(fā)展必定會(huì)帶來復(fù)雜的法律倫理問題。

(一)人工智能對(duì)法律理論的挑戰(zhàn)

人工智能在法律理論上的挑戰(zhàn)在其法律性質(zhì)上,最大的挑戰(zhàn)就是人工智能法律主體地位的確定。人工智能分為弱人工智能和強(qiáng)人工智能。由于弱人工智能暫且并不具備自我意識(shí),其主體地位的確認(rèn)更為明晰。弱人工智能不過是人類創(chuàng)造出來的,借鑒人類的智能行為,代替人類進(jìn)行復(fù)雜瑣碎的勞動(dòng)的機(jī)器。當(dāng)前的弱人工智能與人類智能有本質(zhì)上的不同,它本質(zhì)上是一個(gè)工具,是人類為了方便勞動(dòng)、減輕勞累而創(chuàng)造出來的無意識(shí)工具。弱人工智能最復(fù)雜的工作也只不過是依據(jù)輸入的編程代碼對(duì)復(fù)雜龐大的數(shù)據(jù)進(jìn)行機(jī)械性的選擇、分析、計(jì)算和判斷。不同的人工智能,只要是在相同的數(shù)據(jù)庫下對(duì)同一個(gè)數(shù)據(jù)進(jìn)行分析,其結(jié)果也是相同的。弱人工智能對(duì)法律的挑戰(zhàn)以其特征來看主要集中在著作權(quán)、人格權(quán)、濫用等方面。比如,最近很火的智能小說生成器,只要填入姓名并且選擇需要怎樣的故事便能從數(shù)據(jù)庫中生成一篇小說。其著作權(quán)的歸屬給《著作權(quán)法》帶來了挑戰(zhàn)。還有,大數(shù)據(jù)時(shí)代下,隱私的概念已經(jīng)由傳統(tǒng)法律中的權(quán)利,逐漸擴(kuò)大到也可以成為一種商品,即為了得到一些服務(wù)和產(chǎn)品,我們會(huì)讓渡一些隱私和信息。[1]所以,弱人工智能對(duì)法律的挑戰(zhàn)主要就是其引發(fā)的法律問題無法在現(xiàn)行法律上直接找到答案,是對(duì)法律空白區(qū)的挑戰(zhàn)。因此,法律的滯后性要求我們不斷根據(jù)新情況,對(duì)人工智能可能出現(xiàn)的問題進(jìn)行倫理評(píng)估,以保障相關(guān)法律的填補(bǔ)和相關(guān)政策的及時(shí)跟進(jìn)。

而強(qiáng)人工智能區(qū)別于弱人工智能的工具屬性,它更具獨(dú)立性,核心芯片模仿人的大腦進(jìn)行運(yùn)轉(zhuǎn),控制人工智能。這種情況下,人工智能極可能產(chǎn)生自我意識(shí),擁有獨(dú)立的思維。因此,對(duì)強(qiáng)人工智能法律地位的承認(rèn)就極為必要。但是由于現(xiàn)階段的人工智能發(fā)展尚未突破瓶頸,對(duì)強(qiáng)人工智能的探討受制于人工智能技術(shù)的限制,僅僅停留在暢想的現(xiàn)狀,缺乏研究的基礎(chǔ)。

(二)人工智能歧視問題

人工智能在使用的過程中很有可能形成無意識(shí)的歧視。人工智能在開發(fā)階段存在不透明性,盡管人工智能并不知道其歧視和偏見,由于研發(fā)人員帶著這種思想,在設(shè)計(jì)算法和訓(xùn)練數(shù)據(jù)的過程中會(huì)帶有明顯的指向性偏見。帶有歧視觀念的設(shè)計(jì)者在輸入算法和設(shè)計(jì)編程的過程中,很有可能附帶上了設(shè)計(jì)者本人的歧視觀念?,F(xiàn)實(shí)世界中的種族歧視、性別歧視和偏見都有可能被嵌入到人工智能當(dāng)中,通過帶有歧視性算法的訓(xùn)練和學(xué)習(xí),延續(xù)設(shè)計(jì)者的歧視和偏見。那么這些人工智能在其數(shù)據(jù)庫中執(zhí)行帶有偏見的算法指令對(duì)數(shù)據(jù)進(jìn)行篩選、分析、計(jì)算,其作出的決策也是帶有歧視和偏見的,就會(huì)致使特定人群的正常權(quán)益受到損失,受到不公正待遇,造成社會(huì)倫理問題,影響社會(huì)的公平公正。比如,COMPAS是美國(guó)的一種常用的預(yù)測(cè)再次犯罪的可能性來指導(dǎo)判刑的算法,COMPAS算法存在明顯的偏見,其預(yù)測(cè)的黑人再次犯罪的可能性遠(yuǎn)高于白人,甚至達(dá)到了白人的兩倍。[2]另外,有科學(xué)家研究,銀行利用人工智能算法來方便決策,幫助提供接受房貸的名單,在檢查審查神經(jīng)網(wǎng)絡(luò)決策制定流程的結(jié)果時(shí)發(fā)現(xiàn),同意黑人房貸申請(qǐng)的人遠(yuǎn)遠(yuǎn)低于白人。[3]人工智能偏見,會(huì)隨著算法的不斷訓(xùn)練,深入各個(gè)應(yīng)用領(lǐng)域。

三、法律應(yīng)對(duì)措施

在以上我們討論了由人工智能發(fā)展所帶來的各種新型法律問題,包括人工智能的侵權(quán)責(zé)任歸屬及其法律倫理困境的問題,而針對(duì)以上可能會(huì)出現(xiàn)的問題,法律的作用無疑是非常重要的。在社會(huì)不斷發(fā)展進(jìn)步的同時(shí),法律要繼續(xù)起到維系社會(huì)穩(wěn)定的作用,勢(shì)必需要對(duì)人工智能進(jìn)行更加具有可操作性的規(guī)范。

(一)對(duì)人工智能進(jìn)行歸類,建立人工智能倫理價(jià)值體系

對(duì)人工智能的歸類劃分,有助于對(duì)不同類型的人工智能產(chǎn)生的法律問題進(jìn)行探討。從大體上來看,人工智能可以分為弱人工智能和強(qiáng)人工智能兩大類,而這兩大類之下又可以再細(xì)化分成各小類,如按人工智能的使用范圍,可分為生活類、商業(yè)類、輔助制造類等。關(guān)于人工智能主體問題的探討集中在更為遙遠(yuǎn)的強(qiáng)人工智能身上,弱人工智能產(chǎn)生的法律風(fēng)險(xiǎn)則更具有現(xiàn)實(shí)意義,只要具體問題具體分析,善用各種法學(xué)解釋方法,即可在現(xiàn)行法律上找到依據(jù)。

在對(duì)人工智能細(xì)化歸類的基礎(chǔ)上,還有助于對(duì)不同類型的人工智能嵌入不同的倫理價(jià)值體系,讓不同智能程度的人工智能適用相應(yīng)的人工智能倫理道德規(guī)范。人工智能必須與人類的價(jià)值觀和規(guī)范準(zhǔn)則一致,在更多的時(shí)候,人工智能的存在是由人類編程和設(shè)計(jì)制造了對(duì)應(yīng)的程序和規(guī)則而產(chǎn)生的,這仍然是相應(yīng)的制造者的意識(shí)體現(xiàn),是其制造者的意志寄托或是使用者的要求與意識(shí)表現(xiàn),因此,要求建立更為科學(xué)合理有效的行業(yè)制度,建立完善的人工智能行業(yè)的規(guī)范,以保障人工智能和諧穩(wěn)定發(fā)展。

(二)建立健全人工智能生產(chǎn)發(fā)展制度,明確人工智能責(zé)任劃分

人工智能在生產(chǎn)之前要對(duì)其硬件和軟件進(jìn)行合格性檢查和安全性檢查。由于人工智能的硬件和軟件是分開進(jìn)行制造,有較強(qiáng)的技術(shù)壁壘且軟件制造趨于壟斷,這就需要政府對(duì)其分別加強(qiáng)管制,如需明令禁止生產(chǎn)反人類的人工智能、開發(fā)犯罪程序、生產(chǎn)容易傷人的硬件等。此外,還要重視立法。隨著人工智能進(jìn)一步發(fā)展完善,相應(yīng)的新型職業(yè)和行業(yè)產(chǎn)業(yè)無疑會(huì)應(yīng)運(yùn)而生,這是社會(huì)發(fā)展的必然結(jié)果,而法律需要對(duì)具體的人工智能違法犯罪行為進(jìn)行規(guī)定,構(gòu)建人工智能刑法違法機(jī)制,進(jìn)一步保障人工智能發(fā)展的穩(wěn)定,維護(hù)人民的人身權(quán)和財(cái)產(chǎn)權(quán)。

除此之外,需建立一套完善的人工智能責(zé)任制度體系,從而并明確AI設(shè)計(jì)者、生產(chǎn)者、使用者等相關(guān)法律主體的權(quán)責(zé)內(nèi)容。無論是生產(chǎn)者還是使用者,都要遵紀(jì)守法,嚴(yán)禁對(duì)人工智能進(jìn)行違法性生產(chǎn)和利用人工智能進(jìn)行違法犯罪活動(dòng)。責(zé)任的歸屬需要明確責(zé)任主體,根據(jù)具體情況,誰的過錯(cuò)由誰承擔(dān),合理分配侵權(quán)責(zé)任。

隨著人工智能技術(shù)的高歌猛進(jìn),越來越多人工智能產(chǎn)品更加深入地融入我們的社會(huì)生活中。人工智能給我們帶來享受的同時(shí),也產(chǎn)生了各種挑戰(zhàn)。人工智能發(fā)展迅速,產(chǎn)生的社會(huì)問題及法律問題正在不斷革新,這就要求我們?cè)谌斯ぶ悄懿粩喟l(fā)展的同時(shí),對(duì)人工智能發(fā)展進(jìn)行預(yù)測(cè),對(duì)人工智能法律風(fēng)險(xiǎn)研究也應(yīng)該同步進(jìn)行,從實(shí)際出發(fā),解決實(shí)際發(fā)展問題,尊重人工智能發(fā)展規(guī)律,逐步完善人工智能健康發(fā)展的政策法規(guī),建立完善的行業(yè)機(jī)制,讓人工智能更好地服務(wù)人類社會(huì),更好地推動(dòng)社會(huì)變革和人類發(fā)展。

猜你喜歡
設(shè)計(jì)者人工智能責(zé)任
使命在心 責(zé)任在肩
2020德國(guó)iF設(shè)計(jì)獎(jiǎng)
每個(gè)人都該承擔(dān)起自己的責(zé)任
2019德國(guó)IF設(shè)計(jì)大獎(jiǎng)
2019:人工智能
人工智能與就業(yè)
數(shù)讀人工智能
楊敬:深水區(qū)醫(yī)改設(shè)計(jì)者
深水區(qū)醫(yī)改設(shè)計(jì)者
期望囑托責(zé)任
那曲县| 五大连池市| 土默特左旗| 汉阴县| 阳信县| 砀山县| 军事| 定结县| 莱芜市| 故城县| 安丘市| 合作市| 溧阳市| 龙山县| 海晏县| 江山市| 南部县| 鄂尔多斯市| 北碚区| 昌吉市| 密山市| 潢川县| 偃师市| 舞钢市| 安福县| 开封市| 荥阳市| 湖南省| 恩平市| 镇康县| 五家渠市| 紫阳县| 沂源县| 洪洞县| 牟定县| 徐汇区| 陕西省| 闵行区| 进贤县| 广东省| 涟源市|