国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能的法律人格

2018-03-05 04:46黃博劉麗榮
法制博覽 2018年11期
關(guān)鍵詞:弊端人工智能

黃博 劉麗榮

摘要:隨著人工智能時(shí)代的到來(lái),智能機(jī)器人也逐漸走入我們的生活。其廣泛運(yùn)用于公、檢、法系統(tǒng)的日常工作中,極大地提高國(guó)家公職人員的司法作風(fēng)及辦案效率。社會(huì)各界對(duì)人工智能是否具備法律人格的討論日益熱烈。本文基于對(duì)人工智能的法律人格的合理性及其本身存在的弊端問(wèn)題展開(kāi)分析。若將人工智能賦予法律人格,會(huì)導(dǎo)致責(zé)任劃分困難、阻礙人工智能的發(fā)展,從而抑制研發(fā)者的積極性,也會(huì)與當(dāng)前法律理念相矛盾的弊端出現(xiàn)。各界人士對(duì)人工智能的法律人格問(wèn)題進(jìn)行探討,會(huì)促進(jìn)社會(huì)主義法制建設(shè),但倉(cāng)促的賦予其法律人格,弊大于利。

關(guān)鍵詞:人工智能;法律人格;弊端

中圖分類號(hào):D923.42文獻(xiàn)標(biāo)識(shí)碼:A文章編號(hào):2095-4379-(2018)32-0078-03

作者簡(jiǎn)介:黃博(1998-),女,漢族,吉林長(zhǎng)春人,長(zhǎng)春財(cái)經(jīng)學(xué)院,本科生,研究方向:法律;劉麗榮(1980-),女,漢族,吉林長(zhǎng)春人,碩士研究生,長(zhǎng)春財(cái)經(jīng)學(xué)院,講師,研究方向:憲法行政法學(xué)。

1956年的特茅斯會(huì)議標(biāo)志著"人工智能"學(xué)術(shù)概念的誕生,從此開(kāi)辟了利用智能機(jī)器代替人類從事腦力勞動(dòng)的新紀(jì)元。此后,顯著減輕腦力勞動(dòng)和實(shí)現(xiàn)生產(chǎn)過(guò)程智能化成為可能。人工智能不但在社會(huì)、經(jīng)濟(jì)、文化等諸多方面產(chǎn)生不可或缺的作用,而且在法律層面也產(chǎn)生重要的影響。一、人工智能的概述

人工智能的概念從被提出至今,沒(méi)有一個(gè)精準(zhǔn)的定義。但學(xué)者普遍認(rèn)為人工智能技術(shù)是研究、開(kāi)發(fā)用于模擬、延伸和發(fā)展人類智能的理論方法、技術(shù)及應(yīng)用系統(tǒng)的一門新技術(shù)學(xué)科。①美國(guó)麻省理工學(xué)院的維斯頓教授對(duì)人工智能的定義是:人工智能就是研究如何使計(jì)算機(jī)去做過(guò)去只有人才能做的智能的工作。若計(jì)算機(jī)去做以前人類去做的事,那么,人工智能人格問(wèn)題也就此產(chǎn)生了。二、人工智能的法律人格

人工智能是否應(yīng)被賦予法律人格,即未來(lái)人工智能是否可成為法律上的主體,我持有否定的態(tài)度。我認(rèn)為這不但妨礙人工智能領(lǐng)域的發(fā)展,而且受損害者則是機(jī)器人的擁有者,進(jìn)而使人工智能科研家們喪失對(duì)其制造商品的積極性。但凡事都具有兩面性,在人工智能是否應(yīng)被賦予”法律人格”的問(wèn)題上,也同樣具有它對(duì)人類的有益之處。

(一)將人工智能賦予“法律人格”的合理性

1.方便于人類,促進(jìn)法律職業(yè)的改革

人工智能在法律上的作用也不容忽視,近年“智能律師”的出現(xiàn)給法律咨詢者提供極大的方便,咨詢者可以用最短的時(shí)間獲取更多的有用信息,而且與一個(gè)小時(shí)要幾百元的人工律師相比,簡(jiǎn)直是即經(jīng)濟(jì)又方便。若是給人工智能賦予法律人格,即機(jī)器人可具有等同律師的法律責(zé)任和義務(wù),與律師“平起平坐”,例如法學(xué)界中“法小淘”的產(chǎn)生,它是中國(guó)第一個(gè)應(yīng)用于法律行業(yè)的機(jī)器人,咨詢者可通過(guò)簡(jiǎn)單的手機(jī)語(yǔ)言對(duì)話方式將實(shí)際案例描繪出來(lái),法小淘能可快速的得出法律相關(guān)損害事實(shí),賠償依據(jù)及事實(shí),并且可在30萬(wàn)律師中分析出3位于此案例相關(guān)的開(kāi)庭律師。這對(duì)人類未來(lái)的法律發(fā)展無(wú)疑起到促進(jìn)的作用,人們可以廉價(jià)且快速的使用人工智能通行法律咨詢。

隨著人工智能時(shí)代的到來(lái),智能機(jī)器人已逐漸被引入到法院、檢察院,參與到司法人員的工作中,可謂將法律相關(guān)工作引入一個(gè)改革時(shí)代。比如檢察院的檢務(wù)智能語(yǔ)言系統(tǒng),該系統(tǒng)具備較強(qiáng)的語(yǔ)言識(shí)別功能,可以將不同的聲音甚至方言信息轉(zhuǎn)化為較為精準(zhǔn)的電子文本,而且隨著系統(tǒng)的不斷升級(jí),文字轉(zhuǎn)換的準(zhǔn)確率也不斷地提升。針對(duì)智能語(yǔ)言系統(tǒng)開(kāi)發(fā)的智能詢問(wèn)系統(tǒng)、會(huì)議系統(tǒng),都經(jīng)過(guò)智能語(yǔ)言試點(diǎn)逐批引入檢察機(jī)關(guān),此語(yǔ)言系統(tǒng)的發(fā)明,不但在很大程度上減輕檢察人員的書(shū)寫(xiě)、記錄的工作量,在案件繁瑣量大時(shí),也可以提高工作人員的工作效率。與此系統(tǒng)可以媲美的還有近年研發(fā)的案管機(jī)器人,它是現(xiàn)今檢察院在整個(gè)司法辦案活動(dòng)中的一個(gè)非常重要的平臺(tái),其中有智能績(jī)效考核、智能大數(shù)據(jù)應(yīng)用等多個(gè)子系統(tǒng)多個(gè)應(yīng)用平臺(tái)。他不但能完成上述對(duì)海量的數(shù)據(jù)進(jìn)行總結(jié),還可以幫助案件處理人員提供準(zhǔn)確的案件有關(guān)資料、案件相關(guān)人員,并對(duì)這些數(shù)據(jù)進(jìn)行大數(shù)據(jù)采集,可以說(shuō)便利了檢察人員整個(gè)辦案流程。案管智能系統(tǒng)除了對(duì)案件進(jìn)行分析處理,還可對(duì)檢察院各部門,甚至各檢察官的工作進(jìn)行監(jiān)管,通過(guò)對(duì)各檢察人員,部門錄入相應(yīng)的工作要求,例如辦案數(shù)量、工作作風(fēng)、司法技能等各工作指標(biāo),案管機(jī)器人會(huì)將工作人員、各部門日常工作情況記錄下來(lái),最后兩者進(jìn)行比較,通過(guò)生成業(yè)務(wù)報(bào)表的形式對(duì)每一位檢察人員、檢察部門生成各個(gè)的綜合考核結(jié)果,從而形成了前所未有的良好監(jiān)督管理機(jī)制,從很大程度上提高檢察官的司法作風(fēng)和工作質(zhì)量。可見(jiàn),智能系統(tǒng)被引入檢察院,參與進(jìn)檢察工作的作用不容忽視。隨著信息科技的不斷發(fā)展,法律行業(yè)也隨之進(jìn)入大數(shù)據(jù)時(shí)代,那么將人工智能引入法院將成為大多數(shù)人關(guān)注的問(wèn)題,在現(xiàn)實(shí)生活中法院代表著國(guó)家的權(quán)威,是為公民贏得公平的圣地,但仍存在一些“同案不同罪”,也會(huì)有少數(shù)貪污受賄的法官為了一舉私利而作出顯失公平的判決,這嚴(yán)重影響當(dāng)事人的利益和國(guó)家的信譽(yù)。因此,將人工智能系統(tǒng)引入法院,將會(huì)促進(jìn)法院對(duì)案件的公平審理。針對(duì)案件的處理,人工智能可在裁判文書(shū)網(wǎng)生成的大數(shù)據(jù)中找到相似案件的裁判情況,并分析出此案件應(yīng)適用的規(guī)則、原則。這在很大程度上為法官分析案件提供了便利條件,也促進(jìn)案件審理的公平正義。倘若法官審判案件的結(jié)果與數(shù)據(jù)分析得出結(jié)論相差巨大,系統(tǒng)會(huì)自動(dòng)提示此法官是否對(duì)本次判決不做改動(dòng),若法官選擇“確定不做改動(dòng)”的情況時(shí),系統(tǒng)會(huì)自動(dòng)將該案件及審判結(jié)果移送給法官聯(lián)合會(huì)議,并要求每位法官提出自己的看法,這避免“同案不同判”的情況發(fā)生。

2.方便通過(guò)法律手段加以規(guī)范和管制

若將人工智能賦予“法律人格”,不但在很大程度上促進(jìn)法律職業(yè)的改革,而且會(huì)更加方便法律對(duì)人工智能的規(guī)劃與管制。規(guī)范律師行為可適用《律師法》等行業(yè)道德規(guī)范等一切法律都將適用于人工機(jī)器人。這樣,無(wú)論是像“法小淘”,“阿爾法狗”這樣的人工機(jī)器人,還是提供語(yǔ)言咨詢的手機(jī)“助理”,都將會(huì)被人類的法律規(guī)范。若人工智能違法,則會(huì)按照人類的法律對(duì)其進(jìn)行管制。這樣,則不用再擔(dān)心人工智能的“肆無(wú)忌憚”從而威脅人類生活。賦予人工智能以法律人格給人類帶來(lái)的利益是值得肯定的,但它所帶來(lái)的弊端也不容忽視。(二)人工智能賦予“法律人格”的弊端

1942年伊薩克.阿莫夫在短篇小說(shuō)《轉(zhuǎn)圓圈》中提出機(jī)器人應(yīng)遵守的三條法則“第一:一個(gè)機(jī)器人不得傷害一個(gè)人類也不能因不作為而允許一個(gè)人類被傷害;第二:一個(gè)機(jī)器人必須遵守人類施加給他的規(guī)則,除非一些規(guī)則與第一條規(guī)則相沖突;第三:一個(gè)機(jī)器人必須保護(hù)自己的存在,只要這種自我保護(hù)不與第一或第二條相沖突”。但發(fā)現(xiàn),機(jī)器人無(wú)法同時(shí)遵守二、三兩條規(guī)則,從而不斷重復(fù)他先前的行為,形成“轉(zhuǎn)圓圈”的狀況?;舨妓拐f(shuō)過(guò):“自我保護(hù)是第一自然法則?!比魏我粋€(gè)人類都不會(huì)發(fā)生這些怪異行為。因?yàn)槿祟愂亲兺ǖ?,無(wú)論何時(shí)遇到危險(xiǎn)其第一生理現(xiàn)象應(yīng)是自我保護(hù),只有這種強(qiáng)行的規(guī)則才會(huì)使機(jī)器人陷入到這個(gè)“轉(zhuǎn)圓圈”當(dāng)中。從此可見(jiàn),機(jī)器人完全像人類一樣遵守規(guī)則,沒(méi)有獨(dú)立自主辨別事物的能力顯然是不能做到的。

1.造成損害責(zé)任劃分困難

2016年,歐洲會(huì)議向歐盟委員會(huì)提出報(bào)告,為規(guī)范機(jī)器人的生產(chǎn)及市場(chǎng)的流通要制定相應(yīng)的民事規(guī)范。也就是說(shuō),賦予機(jī)器一定的“法律人格”,即“電子人格”,這是對(duì)機(jī)器人獨(dú)立與第三人交往的案例中所要遵守的法律,但報(bào)告中并沒(méi)有提出明確的處罰方法,若是機(jī)器人違法,是像人類法律中規(guī)定的那樣罰款?繳費(fèi)?若機(jī)器人觸犯到人類的生命安全,是予機(jī)器人一定的刑罰?還是判處死刑?還是由它的生產(chǎn)者、制造商或是它的使用者來(lái)承擔(dān)應(yīng)有的法律責(zé)任?我認(rèn)為這都不是最合適、有效的方法。

首先機(jī)器本身沒(méi)有生命,從何談及“生命權(quán)”?而它所謂的“生命權(quán)“也是歸他的擁有者所有的;作為一個(gè)機(jī)器人,不會(huì)有獨(dú)立的個(gè)人財(cái)產(chǎn),因此對(duì)它進(jìn)行罰款也是不可能的。

其次,如果讓人工智能的生產(chǎn)者、制造商對(duì)其的行為而擔(dān)責(zé),這雖然在一定程度上的確會(huì)促進(jìn)生產(chǎn)商對(duì)機(jī)器人產(chǎn)品的質(zhì)量嚴(yán)格把關(guān),但如果真的將此規(guī)則寫(xiě)入法律,就等于鞭炮制造商要對(duì)因顧客不當(dāng)使用鞭炮而傷害他人的行為承擔(dān)責(zé)任;槍支的生產(chǎn)商可因謀殺而造成的損害被起訴。現(xiàn)是人工智能發(fā)展的初步階段,因技術(shù)和經(jīng)濟(jì)的問(wèn)題對(duì)人工機(jī)器人潛在危險(xiǎn)性存在尚不明確的情況,對(duì)此有待探明。因此,其生產(chǎn)者、制造商一味對(duì)其產(chǎn)品統(tǒng)攬其責(zé),可能造成機(jī)器人的高價(jià),從而導(dǎo)致購(gòu)買者的數(shù)量隨之下降。

再次,換一種問(wèn)責(zé)角度,讓人工智能的消費(fèi)者承擔(dān)損害責(zé)任,消費(fèi)者購(gòu)買機(jī)器人后獨(dú)立承擔(dān)其風(fēng)險(xiǎn),其法律問(wèn)責(zé)與生產(chǎn)者、銷售商都無(wú)關(guān),是一種消費(fèi)者風(fēng)險(xiǎn)自負(fù)方式。這種方式的優(yōu)點(diǎn)在于促進(jìn)人工智能的設(shè)計(jì)者對(duì)機(jī)器人的定價(jià)下調(diào),也是大多數(shù)顧客可以承擔(dān)得起對(duì)機(jī)器人的購(gòu)買,促進(jìn)商品經(jīng)濟(jì)的發(fā)展。但不可忽視的是會(huì)有一些人工智能的生產(chǎn)者和開(kāi)發(fā)商因不需承擔(dān)任何法律責(zé)任,而忽略產(chǎn)品的質(zhì)量,從而給消費(fèi)者帶來(lái)不可估量的損失。

最后,如果責(zé)任由生產(chǎn)者和消費(fèi)者雙方分擔(dān),那么,又將涉及到歸責(zé)比例問(wèn)題。對(duì)于歸責(zé)原則,依照我國(guó)目前法律體系來(lái)看,有過(guò)錯(cuò)責(zé)任制和嚴(yán)格責(zé)任制兩種,而兩種責(zé)任方式都要求生產(chǎn)商在設(shè)計(jì)人工智能的過(guò)程中盡可能各個(gè)環(huán)節(jié)都謹(jǐn)慎、考慮周全,制造者能夠保障機(jī)器的質(zhì)量、功能的健全,人工智能的所有者在轉(zhuǎn)讓他物權(quán)時(shí)有提醒義務(wù),保障其能夠正常使用的義務(wù)。但人工智能與我們?nèi)粘J褂玫挠陚?、背包不同,機(jī)器人更像我們使用的電子產(chǎn)品,例如手機(jī)、電腦等,簡(jiǎn)單的從外觀很難辨別其好壞,也許在使用以后的某個(gè)時(shí)間節(jié)點(diǎn)出現(xiàn)問(wèn)題,甚至有些問(wèn)題究竟是因?yàn)橄M(fèi)者使用不當(dāng)所造成的還是因?yàn)樯a(chǎn)者在生產(chǎn)過(guò)程中的過(guò)錯(cuò)而造成的,難以分辨。綜上,從責(zé)任界定角度來(lái)看,若想給予人工智能以法律人格目前難以實(shí)現(xiàn)。

2.阻礙人工智能的發(fā)展,抑制研發(fā)者的積極性

在當(dāng)今科技發(fā)展如此迅速的社會(huì),毫無(wú)疑問(wèn),人工智能給人類帶來(lái)的好處遠(yuǎn)大于弊端。但倘若倉(cāng)促的賦予人工智能以法律人格,不但不能有效的對(duì)人工智能領(lǐng)域起到很好的規(guī)范作用,還會(huì)抑制研發(fā)者對(duì)人工智能創(chuàng)新研發(fā)的積極性。因?yàn)槿斯ぶ悄芊扇烁竦馁x予,會(huì)將機(jī)器人的研發(fā)與市場(chǎng)銷售都規(guī)定在義務(wù)范圍內(nèi),這種規(guī)定的局限性在于沒(méi)有把因機(jī)器人自身不可避免的缺陷和消費(fèi)者使用不當(dāng)?shù)脑蚩紤]在內(nèi)。這會(huì)導(dǎo)致就算科技研發(fā)者有了新的創(chuàng)新思維,但因?yàn)橹悄苤黧w擁有主體資格,懼怕于新產(chǎn)品的出現(xiàn)會(huì)導(dǎo)致新風(fēng)險(xiǎn)的產(chǎn)生,從而被追究法律責(zé)任,進(jìn)而降低新產(chǎn)品的研發(fā),這在一定程度上也阻礙了智能技術(shù)的發(fā)展。因此,法學(xué)界對(duì)此問(wèn)題的充分討論是有必要的,但盲目對(duì)人工智能賦予則是不正當(dāng)行為。

3.與當(dāng)前的法律理念相矛盾

弱人工智能是指例如在我們?nèi)粘I钪须S處可見(jiàn)的搜索引擎、自動(dòng)駕駛、室內(nèi)智能體溫計(jì)等,多數(shù)是在某一領(lǐng)域有實(shí)用價(jià)值的人工智能;強(qiáng)人工智能是指具有類似人一樣的自我意識(shí)和較高的創(chuàng)新思維,可完全支配自己的行為和思想,可達(dá)到"人類認(rèn)知"水平,并在處理問(wèn)題的速度上遠(yuǎn)高于人類;超強(qiáng)人工智能是指人工智能達(dá)到可以像人一樣去思考問(wèn)題,去社交,甚至可以利用以儲(chǔ)備的知識(shí)完成自主的學(xué)習(xí)、去發(fā)掘新技術(shù)、新領(lǐng)域。而我國(guó)目前處于弱人工智能階段,可以說(shuō)是弱人工智能的初步發(fā)展階段。從我國(guó)當(dāng)前的法律領(lǐng)域來(lái)看,“獨(dú)立認(rèn)知能力”和“表意能力”是擁有法律主體資格的前提。機(jī)器人經(jīng)不斷的自主學(xué)習(xí)和深度學(xué)習(xí),在一定程度上可超過(guò)人類的認(rèn)知能力。例如,近幾年研發(fā)的“法小淘”、“阿爾法圍棋”等智能機(jī)器人。但單單用認(rèn)知能力去衡量法律人格問(wèn)題是不全面的,我國(guó)目前還處于弱人工智能階段,現(xiàn)階段的機(jī)器人還未達(dá)到完全擁有人類的思維,而是缺乏人類的情感和感性思想。因此,倉(cāng)促的賦予人工智能以法律人格顯然與我國(guó)立法原則相違背,存在一定的矛盾。三、結(jié)語(yǔ)

目前,人工智能還處于初步發(fā)展階段,雖然現(xiàn)在其人格問(wèn)題還沒(méi)有在法律層面對(duì)人類構(gòu)成太大的威脅,但未雨綢繆,人工智能是未來(lái)社會(huì)發(fā)展的必然結(jié)果,“強(qiáng)人工智能”在不久的將來(lái)定會(huì)走進(jìn)我們的生活。因此,人工智能是否具有法律人格是我們應(yīng)該面對(duì)的問(wèn)題,我們應(yīng)如何控制并合理分配對(duì)機(jī)器人潛在危險(xiǎn)的預(yù)防;怎樣制定法律規(guī)則既不與法律根本原則相違背又能達(dá)到規(guī)范機(jī)器人行為的目的,是立法者在目前需要解決的問(wèn)題。

我認(rèn)為,要從根本上解決對(duì)人工智能法律問(wèn)責(zé)的問(wèn)題,盲目的賦予其法律主體資格顯然局限,我們應(yīng)從以下三個(gè)方面對(duì)人工機(jī)器人進(jìn)行法律上的防控:第一,在機(jī)器人發(fā)生危險(xiǎn)時(shí),應(yīng)明確法律問(wèn)責(zé)的主體,調(diào)整人工智能的生產(chǎn)者、銷售商以及其擁有者之間責(zé)任劃分的矛盾;第二,在有關(guān)人工智能的法律規(guī)則的制定中,要充分的保護(hù)人工智能科技研發(fā)者的利益,使其對(duì)新技術(shù)的開(kāi)發(fā)具有積極性,進(jìn)而促進(jìn)我國(guó)人工智能技術(shù)早日向“強(qiáng)人工智能”發(fā)展。第三,立法者在法律制定的過(guò)程中,要注意其立法規(guī)則不能與傳統(tǒng)的法律原則相違背,更不能與《憲法》發(fā)生抵觸,違憲即無(wú)效。

法學(xué)界對(duì)人工智能問(wèn)責(zé)的相關(guān)問(wèn)題進(jìn)行充分的討論是一個(gè)好的趨勢(shì),但盲目的對(duì)其立法、設(shè)規(guī)顯然局限,也不能解決實(shí)時(shí)性問(wèn)題。因此,對(duì)人工智能法律人格應(yīng)如何設(shè)定的問(wèn)題,還要在我們未來(lái)的法律學(xué)習(xí)中繼續(xù)摸索。[注釋]

①趙梓含.人工智能與法律的未來(lái)[J].法治與社會(huì),2018.2(上).[參考文獻(xiàn)]

[1]楊燾.人工智能在司法領(lǐng)域運(yùn)行的現(xiàn)狀及完善對(duì)策研究[J].科技與法律,2018.

[2]昕航,武文芳.法律人工智能對(duì)檢察類職業(yè)的挑戰(zhàn)與應(yīng)對(duì)[J].政治與法律,2017.

[3]鄭戈.人工智能與法律的未來(lái)[J].時(shí)事觀察,2017.

[4]詹可.人工智能法律問(wèn)題研究[J].信息安全研究,2018.

猜你喜歡
弊端人工智能
我校新增“人工智能”本科專業(yè)
跟蹤導(dǎo)練(四)
人工智能與就業(yè)
論專利侵權(quán)糾紛行政處理的弊端:歷史的選擇與再選擇
淺談融媒體時(shí)代新聞報(bào)道存在的弊端
探討微博在新聞傳播中的弊端及改進(jìn)方法
偵鑒一體的弊端與改造
“新農(nóng)合”縣級(jí)統(tǒng)籌弊端多
白玉县| 兴隆县| 巴里| 镇安县| 咸宁市| 琼中| 徐汇区| 武鸣县| 同仁县| 孝义市| 祁东县| 西充县| 小金县| 曲水县| 汕尾市| 韶山市| 伊川县| 神农架林区| 中方县| 蚌埠市| 文水县| 苍梧县| 任丘市| 高要市| 临猗县| 大余县| 措美县| 邯郸市| 广州市| 德格县| 伊金霍洛旗| 兴安县| 河东区| 南陵县| 济宁市| 登封市| 兴国县| 邵武市| 南平市| 南宫市| 东阿县|