国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能發(fā)展的社會(huì)風(fēng)險(xiǎn)及監(jiān)管路徑研究

2019-07-23 01:16臧阿月
關(guān)鍵詞:人工智能

臧阿月

摘 ?要:人工智能技術(shù)的出現(xiàn)和發(fā)展必然會(huì)引發(fā)一系列潛在風(fēng)險(xiǎn),包括倫理道德危機(jī)、技術(shù)濫用隱患、極化異化風(fēng)險(xiǎn)以及軍事戰(zhàn)爭(zhēng)災(zāi)難等。與此同時(shí),人工智能時(shí)代的到來(lái)也使得諸多法律問題陷入困境,如法律主體資格的確定、著作權(quán)的歸屬、侵權(quán)責(zé)任的認(rèn)定、人格權(quán)的保護(hù)以及無(wú)人駕駛汽車和替代勞工的相關(guān)問題等。對(duì)此,必須深入探究未來(lái)人工智能發(fā)展的監(jiān)管路徑,采取塑造多元價(jià)值目標(biāo)、構(gòu)建倫理規(guī)范體系、建立法律監(jiān)管制度和加強(qiáng)國(guó)際協(xié)同合作等措施,有效規(guī)避人工智能帶來(lái)的社會(huì)風(fēng)險(xiǎn)和法律挑戰(zhàn),從而最大程度發(fā)揮人工智能的積極作用。

關(guān)鍵詞:人工智能;社會(huì)風(fēng)險(xiǎn);法律挑戰(zhàn);監(jiān)管路徑

中圖分類號(hào):D922.17 ???????文獻(xiàn)標(biāo)識(shí)碼:A ?????????文章編號(hào):1671-9255(2019)02-0047-05

近年來(lái),人工智能(Artificial Intelligence,AI)技術(shù)日趨成熟,已經(jīng)逐漸從封閉的科學(xué)實(shí)驗(yàn)領(lǐng)域進(jìn)入開放的商業(yè)應(yīng)用領(lǐng)域,人工智能產(chǎn)品也充斥于人們的日常生活,如智能手機(jī)、智能電視以及智能汽車等智能硬件和深度學(xué)習(xí)、圖像識(shí)別以及語(yǔ)言處理等智能軟件。雖然中外學(xué)界早已對(duì)AI技術(shù)的研究和運(yùn)用問題給予高度關(guān)注,各國(guó)政府也紛紛出臺(tái)相應(yīng)的人工智能發(fā)展戰(zhàn)略和政策,但人工智能存在的潛在風(fēng)險(xiǎn)和面臨的法律困境卻并沒有得到足夠重視,盡管已有不少著名學(xué)者、科學(xué)家和企業(yè)家一再發(fā)出警告,如斯蒂芬·霍金、埃隆·馬斯克和比爾·蓋茨一直堅(jiān)持認(rèn)為的“人工智能惡魔論”或“人工智能威脅論”。因此,基于人工智能技術(shù)的發(fā)展現(xiàn)狀,當(dāng)務(wù)之急便是探索多元化的監(jiān)管路徑來(lái)應(yīng)對(duì)人工智能技術(shù)引發(fā)的社會(huì)風(fēng)險(xiǎn)和法律挑戰(zhàn)。

一、當(dāng)下人工智能發(fā)展?fàn)顩r

自21世紀(jì)初以來(lái),人工智能浪潮以極其驚人的速度席卷全球。在IBM、Google、Facebook、Microsoft等國(guó)際領(lǐng)軍科技企業(yè)和百度、阿里巴巴、騰訊等國(guó)內(nèi)知名科技企業(yè)的帶領(lǐng)下,我國(guó)人工智能水平急速提升。根據(jù)《2018-2024年中國(guó)人工智能行業(yè)市場(chǎng)深度調(diào)研及未來(lái)發(fā)展趨勢(shì)報(bào)告》的數(shù)據(jù)顯示,在AI市場(chǎng)規(guī)模方面,2015年全球約為74億美元,預(yù)計(jì)到2024年將達(dá)到406億美元,我國(guó)約為12億美元,預(yù)計(jì)到2020年將達(dá)到91億美元。[1]另外,根據(jù)《烏鎮(zhèn)指數(shù):全球人工智能發(fā)展報(bào)告(2017)》的數(shù)據(jù)顯示,自2000年至2016年,在AI企業(yè)數(shù)量方面,全球新增8107家,我國(guó)新增1477家;在AI企業(yè)融資方面,全球約為288億美元,我國(guó)約為27億美元。[2]由此可見,人類將正式進(jìn)入新的社會(huì)時(shí)代

——人工智能時(shí)代。

(一)國(guó)際社會(huì)高度重視

1956年,在由約翰·麥卡錫、赫伯特·西蒙、艾倫·紐厄爾、馬文·閔斯基以及克勞德·香農(nóng)等眾多科學(xué)家參加的“達(dá)特茅斯(Dartmouth)會(huì)議”上,“人工智能”這一全新的標(biāo)志性概念被首次提出,正式宣告著人工智能的誕生。[3]后經(jīng)半個(gè)多世紀(jì)的發(fā)展,美國(guó)Google公司生產(chǎn)的AI機(jī)器人——“阿爾法狗(AlphaGo)”分別于2016年、2017年接連擊敗人類頂尖棋手李世石(韓國(guó))、 柯潔(中國(guó)),將人工智能技術(shù)推向了迄今為止的歷史最高點(diǎn),引起了國(guó)際社會(huì)的廣泛關(guān)注。隨后,歐美等國(guó)和歐盟、聯(lián)合國(guó)等國(guó)際組織順應(yīng)人工智能時(shí)代潮流,相繼出臺(tái)了新一輪的人工智能發(fā)展戰(zhàn)略。

美國(guó)作為目前全球科技發(fā)展的頭號(hào)強(qiáng)國(guó),正在全面加強(qiáng)對(duì)人工智能技術(shù)的研究與開發(fā)。2016年,美國(guó)陸續(xù)發(fā)布了《為人工智能的未來(lái)做好準(zhǔn)備》(下稱《準(zhǔn)備》)、《國(guó)家人工智能研究和發(fā)展戰(zhàn)略計(jì)劃》(下稱《計(jì)劃》)以及《人工智能、自動(dòng)化與經(jīng)濟(jì)報(bào)告》(下稱《報(bào)告》)等多份與人工智能相關(guān)的政策文件。其中,《準(zhǔn)備》詳細(xì)闡述了人工智能的現(xiàn)狀、趨勢(shì)、影響和對(duì)策;《計(jì)劃》全面構(gòu)建了美國(guó)人工智能未來(lái)的研發(fā)框架、戰(zhàn)略和方式;《報(bào)告》深度剖析了AI技術(shù)自動(dòng)化對(duì)經(jīng)濟(jì)和就業(yè)產(chǎn)生的影響。[4]繼美國(guó)之后,歐洲各國(guó)也都紛紛著手部署人工智能戰(zhàn)略。英國(guó)發(fā)展人工智能最為積極,分別于2016年、2017年、2018年發(fā)布了《機(jī)器人技術(shù)和人工智能》、《人工智能:未來(lái)決策的機(jī)會(huì)和影響》、《在英國(guó)發(fā)展人工智能》以及《人工智能行業(yè)新政》等諸多報(bào)告,旨在成為全球人工智能技

術(shù)的領(lǐng)導(dǎo)者;法國(guó)人工智能發(fā)展勢(shì)頭十分強(qiáng)勁。最新發(fā)布的《法國(guó)人工智能發(fā)展戰(zhàn)略》將重點(diǎn)放在了未來(lái)幾年法國(guó)人工智能技術(shù)的投資規(guī)模和應(yīng)用領(lǐng)域方面;德國(guó)人工智能發(fā)展具有極強(qiáng)的前瞻性。2011年率先提出的“工業(yè)4.0”戰(zhàn)略對(duì)人工智能發(fā)展做了基礎(chǔ)預(yù)判。2018年發(fā)布的《聯(lián)邦政府人工智能戰(zhàn)略要點(diǎn)》更是表示要將人工智能技術(shù)提升到世界領(lǐng)先水平。

另外,國(guó)際組織尤為重視人工智能發(fā)展。早在2014年,歐盟便發(fā)布了《2014-2020歐洲機(jī)器人技術(shù)戰(zhàn)略》來(lái)促進(jìn)AI機(jī)器人行業(yè)的快速發(fā)展。由于該戰(zhàn)略具有局限性,無(wú)法完全適用于整個(gè)人工智能行業(yè)的發(fā)展,歐盟于2018年4月發(fā)布《歐盟人工智能》報(bào)告,較為具體地制訂了日后的AI行動(dòng)計(jì)劃。2016年,聯(lián)合國(guó)發(fā)布了《關(guān)于機(jī)器人倫理的草案報(bào)告》,呼吁世界各國(guó)在AI領(lǐng)域加強(qiáng)合作,共同應(yīng)對(duì)機(jī)器人引發(fā)的倫理問題和法律難題。

(二)國(guó)內(nèi)持續(xù)蓬勃發(fā)展

現(xiàn)階段,我國(guó)人工智能的發(fā)展速度相當(dāng)迅猛,發(fā)展?jié)摿O其巨大。

首先,在國(guó)家政策方面,我國(guó)近幾年先后制訂了若干人工智能戰(zhàn)略規(guī)劃以此來(lái)支持人工智能技術(shù)研發(fā)和產(chǎn)業(yè)發(fā)展。伴隨《“十三五”國(guó)家科技創(chuàng)新規(guī)劃》、《新一代人工智能發(fā)展規(guī)劃》、《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動(dòng)計(jì)劃(2018—2020年)》以及《人工智能標(biāo)準(zhǔn)化白皮書(2018版)》等文件的陸續(xù)出臺(tái)和落地實(shí)施,我國(guó)人工智能已經(jīng)迎來(lái)了政策紅利期和發(fā)展黃金期。[5]其次,在技術(shù)研發(fā)方面,我國(guó)目前的數(shù)據(jù)資源十分豐富,計(jì)算機(jī)運(yùn)算速度非常迅速。人工智能技術(shù)是對(duì)大量數(shù)據(jù)進(jìn)行分析,通過不斷調(diào)整尋求最佳結(jié)果的過程,數(shù)據(jù)資源豐富與否對(duì)于人工智能技術(shù)研發(fā)至關(guān)重要。21世紀(jì)初以來(lái),我國(guó)互聯(lián)網(wǎng)技術(shù)的廣泛應(yīng)用使得數(shù)據(jù)信息能夠得以快速有效收集和儲(chǔ)存,這為人工智能技術(shù)研發(fā)提供了海量的數(shù)據(jù)資源。此外,我國(guó)早在2013年就擁有了全球運(yùn)算速度最快的計(jì)算機(jī)——“天河二號(hào)”,這為人工智能技術(shù)研發(fā)提供了有力的技術(shù)支撐。再次,在人才儲(chǔ)備方面,我國(guó)AI領(lǐng)域的技術(shù)人才總量在國(guó)際上位居第二,僅次于美國(guó)。多年以來(lái),我國(guó)特別重視教育發(fā)展,通過科教興國(guó)、人才強(qiáng)國(guó)等戰(zhàn)略的實(shí)施,培養(yǎng)了眾多有著良好數(shù)理基礎(chǔ)的研究型人才,為人工智能發(fā)展奠定了人才基礎(chǔ)。最后,在市場(chǎng)需求方面,我國(guó)經(jīng)濟(jì)發(fā)展亟待人工智能這一新興科技提供動(dòng)力支撐。近年來(lái),我國(guó)勞動(dòng)力成本逐年上升,傳統(tǒng)人口紅利正在面臨消失危機(jī),產(chǎn)業(yè)結(jié)構(gòu)轉(zhuǎn)型升級(jí)已經(jīng)刻不容緩,人工智能的崛起能夠有效促進(jìn)我國(guó)部分產(chǎn)業(yè)的自動(dòng)化生產(chǎn),從而有助于降低生產(chǎn)成本、解決人口紅利危機(jī)、促進(jìn)經(jīng)濟(jì)快速發(fā)展。

二、人工智能存在的社會(huì)風(fēng)險(xiǎn)

(一)倫理道德危機(jī)

人工智能技術(shù)的發(fā)展給人類社會(huì)崇尚的倫理道德帶來(lái)諸多危機(jī)。一方面,人工智能產(chǎn)品在自主化運(yùn)行過程中極容易出現(xiàn)妄言、亂舉等違反人道主義的惡性事件。主要包括以下三種情形:第一,算法歧視現(xiàn)象。從表面上看,人工智能算法似乎僅僅只是一種由輸入到輸出的客觀數(shù)學(xué)表達(dá),與人類的價(jià)值觀毫無(wú)關(guān)聯(lián),但實(shí)際上卻內(nèi)在隱含著各種主觀歧視,包括性別歧視、種族歧視和職業(yè)歧視等,如在Google網(wǎng)站輸入黑人名字進(jìn)行搜索時(shí),犯罪相關(guān)信息出現(xiàn)的概率要比搜索白人名字高得多。[6]與個(gè)人歧視的局部性不同,算法歧視是系統(tǒng)化的,一旦形成將對(duì)整個(gè)社會(huì)的公正倫理道德觀造成嚴(yán)重影響。第二,人類情感危機(jī)。從現(xiàn)有研究成果看,已經(jīng)出現(xiàn)了可以感知人類情緒包括分享人類快樂和撫慰人類悲傷的陪伴型機(jī)器人,未來(lái)還會(huì)出現(xiàn)伴侶型或性愛型機(jī)器人,這無(wú)疑是對(duì)人類情感需求和社會(huì)倫理道德的重大顛覆。第三,人文精神危機(jī)。從目前發(fā)展趨勢(shì)看,互聯(lián)網(wǎng)正在使人類變得愈發(fā)孤立、冷漠,可以預(yù)見,人類的自主行為在不久的將來(lái)會(huì)逐漸被人工智能的模擬行為所取代,人類生存和發(fā)展的意義將不復(fù)存在,人文精神也會(huì)日漸衰落。另一方面,人類與生俱來(lái)的優(yōu)勢(shì)心態(tài),使其在使用人工智能產(chǎn)品過程中極容易出現(xiàn)侮辱、謾罵,甚至毆打、虐待等暴力行為,特別是當(dāng)智能機(jī)器人無(wú)限接近于人類時(shí),人類錯(cuò)誤的價(jià)值取向必然很難堅(jiān)守住社會(huì)倫理道德底線。

(二)技術(shù)濫用隱患

當(dāng)人工智能技術(shù)逐步成為社會(huì)發(fā)展的主導(dǎo)力量時(shí),一旦被肆意濫用,引發(fā)的社會(huì)危機(jī)則不可小覷。例如,AI機(jī)器人出現(xiàn)帶來(lái)的失業(yè)危機(jī)和經(jīng)濟(jì)動(dòng)蕩,AI創(chuàng)作平臺(tái)廣泛應(yīng)用造成的文化坍塌,甚至發(fā)展到一定程度后與人類生活息息相關(guān)的AI技術(shù)或?qū)?dǎo)致的政治變革。另外,人工智能技術(shù)濫用還會(huì)滋生信息泄露、安全風(fēng)險(xiǎn)、侵權(quán)行為以及網(wǎng)絡(luò)犯罪等一系列社會(huì)問題。對(duì)此,OpenAI和Oxford、Cambridge等世界頂尖學(xué)府和其他多家知名機(jī)構(gòu)聯(lián)合發(fā)布了一份預(yù)警AI惡意使用的報(bào)告,報(bào)告中深刻分析了AI在未來(lái)5年內(nèi)遭到濫用的各項(xiàng)風(fēng)險(xiǎn),并提出了多種防范措施。[7]由此可見,人工智能技術(shù)濫用隱患必須引起人類足夠重視,勢(shì)必將其扼殺于搖籃。

(三)極化異化風(fēng)險(xiǎn)

對(duì)于極化風(fēng)險(xiǎn),互聯(lián)網(wǎng)背景下大數(shù)據(jù)時(shí)代的到來(lái)雖然給人工智能技術(shù)的研發(fā)提供了海量數(shù)據(jù)資源,但它帶來(lái)的惡性現(xiàn)象或?qū)⑹秦毟粯O化。具體來(lái)說(shuō),未來(lái)人類社會(huì)地位和金錢財(cái)富的獲得更多的是依靠占有數(shù)據(jù)信息和運(yùn)用智能算法,而不再是僅僅依賴于勞動(dòng)和投資,例如國(guó)外Google、Microsoft和國(guó)內(nèi)阿里、騰訊等大型企業(yè)掌握的數(shù)據(jù)信息和算法技術(shù)是創(chuàng)業(yè)公司和小微企業(yè)無(wú)法望其項(xiàng)背的,它們就能夠通過信息壟斷和算法活用等手段在非常短的時(shí)間內(nèi)獲得巨額財(cái)富。

對(duì)于異化風(fēng)險(xiǎn),國(guó)內(nèi)外不少專家學(xué)者認(rèn)為,人類目前正在無(wú)比積極、主動(dòng)地創(chuàng)造一個(gè)比自身更為先進(jìn)的強(qiáng)大物種,也就是說(shuō)未來(lái)人工智能的智力水平或?qū)⑦h(yuǎn)遠(yuǎn)超越人類。可以預(yù)見,隨著技術(shù)不斷成熟,人工智能的智商和情商發(fā)生異化與畸變的可能與日俱增,那時(shí)人類將無(wú)法完全預(yù)測(cè)其自主獨(dú)立化的思維方式,一旦出現(xiàn)技術(shù)失控,對(duì)人類造成的影響和破壞將是毀滅性的。

(四)軍事戰(zhàn)爭(zhēng)災(zāi)難

不難想象,成熟之日的人工智能必然要應(yīng)用到軍事戰(zhàn)爭(zhēng)領(lǐng)域,它將改變傳統(tǒng)的軍事戰(zhàn)爭(zhēng)方式,對(duì)人類造成的危險(xiǎn)性和破壞性絲毫不遜于如今的核武器。也就是說(shuō),未來(lái)的戰(zhàn)場(chǎng)上會(huì)有一批“智能武器”,如作戰(zhàn)冷血、毫無(wú)惻隱之心的戰(zhàn)爭(zhēng)機(jī)器人,人類彼此之間正面交戰(zhàn)的幾率會(huì)逐漸減少直至為零,只需通過一個(gè)簡(jiǎn)單指令就能遠(yuǎn)程操控“智能武器”,各國(guó)摩擦?xí)兊糜宇l繁,戰(zhàn)爭(zhēng)門檻會(huì)變得更低。[8]從表面上看,智能武器在軍事戰(zhàn)爭(zhēng)領(lǐng)域的應(yīng)用貌似很大程度上降低了士兵傷亡的比率,但實(shí)際上智能戰(zhàn)爭(zhēng)的殘忍程度和毀滅程度是傳統(tǒng)戰(zhàn)爭(zhēng)根本無(wú)法比擬的。另外,“人工智能恐怖主義”或?qū)⑾砣颉?/p>

三、人工智能面臨的法律挑戰(zhàn)

(一)法律主體資格問題

在民法理論中,民事主體必須具有獨(dú)立人格,也就是說(shuō),民事主體要么是具有自然屬性的自然人,要么是具有法律屬性的法人,因而在微觀層面上,很難將智能機(jī)器人認(rèn)定為民事主體。[9]從宏觀層面看,智能機(jī)器人不具備法律主體資格的原因有以下幾點(diǎn):首先,智能機(jī)器人通常都是作為輔助角色存在于人類生活中。即便日后它具有了超強(qiáng)的自主學(xué)習(xí)能力,但就獨(dú)立思維和價(jià)值判斷來(lái)說(shuō),智能機(jī)器人只能是無(wú)限接近于人類,永遠(yuǎn)無(wú)法超越人類,因而賦予其人類享有的法律主體資格并不合理。其次,法律主體除了具有權(quán)利能力外,還應(yīng)當(dāng)具有責(zé)任能力,智能機(jī)器人根本沒有經(jīng)濟(jì)能力去承擔(dān)任何的法律責(zé)任。最后,在智能機(jī)器人還未實(shí)現(xiàn)完全自主化之前,其啟動(dòng)運(yùn)行都是基于研發(fā)者的設(shè)定或使用者的操控,若將此種情況下產(chǎn)生的否定性法律后果直接歸于智能機(jī)器人,即讓智能機(jī)器人作為法律主體承擔(dān)法律責(zé)任并不妥當(dāng)。

(二)著作權(quán)問題

2017年,“微軟小冰”(人工智能機(jī)器人)創(chuàng)作出人類歷史上首部人工智能作品——《陽(yáng)光失了玻璃窗》。由此引出一個(gè)新問題:人工智能生成作品能否受到《著作權(quán)法》保護(hù)?具體須作以下分析。

第一,智能機(jī)器人創(chuàng)作的作品是否享有著作權(quán)?答案是肯定的?!吨鳈?quán)法》保護(hù)的作品勢(shì)必要具有獨(dú)創(chuàng)性特征,并且該特征僅針對(duì)作品的表現(xiàn)形式,至于作品內(nèi)在蘊(yùn)含的信息、技法、思想以及價(jià)值等在所不問。[10]也就是說(shuō),智能機(jī)器人創(chuàng)作的作品,只要是由其獨(dú)立完成,而非抄襲或剽竊他人作品,就應(yīng)當(dāng)受《著作權(quán)法》保護(hù),即享有著作權(quán)。第二,著作權(quán)應(yīng)歸屬于智能機(jī)器人還是智能機(jī)器人的研發(fā)者或所有者?毫無(wú)疑問應(yīng)當(dāng)歸屬于后者。由于智能機(jī)器人主要是依靠數(shù)據(jù)分析和算法技術(shù)進(jìn)行創(chuàng)作,因而創(chuàng)作的技術(shù)路徑完全都是由人類設(shè)定。據(jù)此,可以借鑒雇傭作品或職務(wù)作品的相關(guān)法律規(guī)定,將著作權(quán)歸屬于研發(fā)者或所有者。

(三)侵權(quán)責(zé)任問題

以智能機(jī)器人為例。一方面,如果是人類侵害智能機(jī)器人,就必須首先認(rèn)定智能機(jī)器人是否具備法律主體資格。若持肯定觀點(diǎn),則侵權(quán)人必須承擔(dān)民事侵權(quán)責(zé)任,達(dá)到犯罪程度應(yīng)以故意傷害罪或故意殺人罪追究其刑事責(zé)任;若持否定觀點(diǎn),則侵權(quán)人亦須承擔(dān)民事侵權(quán)責(zé)任,達(dá)到犯罪程度應(yīng)以毀壞財(cái)物罪追究其刑事責(zé)任。另一方面,如果是智能機(jī)器人致人損害,可分兩種情形:一是人類故意操控智能機(jī)器人給他人造成損害,此時(shí)侵權(quán)責(zé)任毫無(wú)疑問應(yīng)由侵權(quán)人承擔(dān);二是智能機(jī)器人自主行為直接給他人造成損害,如工業(yè)機(jī)器人在生產(chǎn)中造成工人死亡,手術(shù)機(jī)器人在治療中造成病人死亡等,這種情況下要看智能機(jī)器人的設(shè)計(jì)者、制造者以及使用者是否存有過失。若有,則可按照產(chǎn)品侵權(quán)追究相關(guān)人員的責(zé)任;若無(wú),也就是說(shuō)完全是智能機(jī)器人的“擅自所為”,此時(shí)可參照替代責(zé)任(如雇傭關(guān)系中的雇主替代責(zé)任)追究相關(guān)人員的責(zé)任。[11]

(四)人格權(quán)問題

人工智能技術(shù)的發(fā)展對(duì)人格權(quán)中隱私權(quán)的侵害最為嚴(yán)重。據(jù)報(bào)道,2017年5月,Google公司旗下的DeepMind(人工智能企業(yè))大規(guī)模獲取了英國(guó)三家醫(yī)院數(shù)百萬(wàn)名萬(wàn)病人的隱私數(shù)據(jù)(包括艾滋病、吸毒、墮胎等信息),引起軒然大波。[12]由此可見,未來(lái)人類社會(huì)必然是“互聯(lián)網(wǎng)+大數(shù)據(jù)+人工智能”的時(shí)代,人類將毫無(wú)隱私可言,就如作家洛麗·安德魯斯在書中所述,未來(lái)社會(huì)將不再僅僅是無(wú)隱私或零隱私社會(huì),而是負(fù)隱私社會(huì)。在傳統(tǒng)社會(huì),人類隱私泄露是個(gè)體性的,但在未來(lái)甚至現(xiàn)在隱私泄露就是集體性的、社會(huì)性的。因而,人工智能時(shí)代的隱私保護(hù)至少要做到以下三點(diǎn):一為增強(qiáng)自我隱私保護(hù)意識(shí);二為強(qiáng)化企業(yè)隱私保護(hù)責(zé)任;三為加快隱私保護(hù)立法進(jìn)程。

(五)無(wú)人駕駛汽車問題

無(wú)人駕駛汽車給現(xiàn)有的交通法律體系帶來(lái)諸多挑戰(zhàn)。主要有以下三方面。 第一,規(guī)制對(duì)象發(fā)生轉(zhuǎn)變。無(wú)人駕駛汽車的出現(xiàn)使得駕駛?cè)烁拍钪饾u消失。駕駛?cè)说鸟{駛技能(是否通過駕駛證考試)亦不再是交通法律規(guī)定的準(zhǔn)入資格。也就是說(shuō),交通法律規(guī)制對(duì)象不會(huì)局限于駕駛?cè)?,智能汽車的研發(fā)者或制造者也會(huì)被納入規(guī)制對(duì)象范圍。第二,責(zé)任體系面臨重構(gòu)。在傳統(tǒng)的交通法律體系中,交通事故的責(zé)任認(rèn)定一般以過錯(cuò)責(zé)任為原則。對(duì)于無(wú)人駕駛汽車造成的交通事故,根本無(wú)從考察人工智能汽車的主觀過錯(cuò),其責(zé)任認(rèn)定只能看造成的結(jié)果。第三,監(jiān)管重心出現(xiàn)變化。在傳統(tǒng)駕駛中,駕駛?cè)说鸟{駛技能是交通管理部門監(jiān)管的重中之重,另外還包括汽車裝置的安全性能。在智能駕駛中,交通管理部門的監(jiān)管重心變成了智能汽車內(nèi)部的一系列軟硬件,如傳感器系統(tǒng)、緊急避險(xiǎn)系統(tǒng)以及智能感知技術(shù)(通過語(yǔ)音、視像識(shí)別“理解”駕駛?cè)艘庠福┑取?/p>

(六)替代勞工問題

未來(lái),智能機(jī)器人將大規(guī)模進(jìn)入各個(gè)行業(yè)領(lǐng)域,雖然可以極大地提高社會(huì)生產(chǎn)效率,降低社會(huì)生產(chǎn)成本,但也會(huì)引發(fā)一系列社會(huì)問題,如最直接的失業(yè)率急速上升問題和嚴(yán)重威脅社會(huì)穩(wěn)定問題。牛津大學(xué)的一份調(diào)研報(bào)告顯示,未來(lái)智能機(jī)器人將會(huì)取代數(shù)以萬(wàn)計(jì)的非技術(shù)工種,包括收銀員、快遞員、信貸員、司機(jī)、文秘、工人、農(nóng)民等。目前智能分揀技術(shù)已經(jīng)進(jìn)入快遞行業(yè)。[13]智能機(jī)器人能否納入勞動(dòng)法調(diào)整范疇?這是肯定的。歐盟早在2016年就已經(jīng)提交動(dòng)議,要求賦予智能機(jī)器人以“工人”身份,享有勞動(dòng)權(quán)。同時(shí),又該如何保護(hù)大批下崗職工的合法權(quán)益?下崗職工更多的是依靠微薄的社會(huì)保障金維持生活,因此完善社會(huì)保障法律制度成為保護(hù)下崗職工合法權(quán)益的應(yīng)有之義。

四、人工智能未來(lái)的監(jiān)管路徑

(一)塑造多元價(jià)值目標(biāo)

塑造多元價(jià)值目標(biāo)是制定人工智能監(jiān)管措施的最本質(zhì)追求。首先,塑造正義的普適價(jià)值目標(biāo)。正義價(jià)值內(nèi)在蘊(yùn)含人格正義、秩序正義、法律正義、道德正義等。它是人工智能時(shí)代下構(gòu)建倫理道德規(guī)范體系和建立法律監(jiān)管制度的正當(dāng)性基礎(chǔ),能夠幫助消滅算法歧視和大數(shù)據(jù)“殺熟”等惡性事件。其次,塑造安全的核心價(jià)值目標(biāo)。人工智能技術(shù)雖還未完全成熟,但人類對(duì)其即將引發(fā)的安全問題已經(jīng)充滿擔(dān)憂,擬人之禍、濫用之患、異化之險(xiǎn)以及軍工之孽等都嚴(yán)重威脅著人類社會(huì)的安全與穩(wěn)定,因而塑造以安全為核心的價(jià)值目標(biāo)對(duì)監(jiān)管人工智能發(fā)展極為重要。[14]再次,塑造創(chuàng)新的靈魂價(jià)值目標(biāo)。面對(duì)人工智能革命,創(chuàng)新理念必須貫穿其中。無(wú)論是謀劃宏觀層面上的人工智能國(guó)家發(fā)展戰(zhàn)略,還是制定微觀層面上的人工智能產(chǎn)業(yè)促進(jìn)政策,創(chuàng)新激勵(lì)機(jī)制的構(gòu)建必不可少。最后,塑造和諧的終極價(jià)值目標(biāo)。人工智能產(chǎn)品的性能安全、人工智能技術(shù)的良性發(fā)展以及人工智能社會(huì)的安定有序都要求所有的人工智能監(jiān)管措施都必須將和諧價(jià)值作為指引方向。

(二)構(gòu)建倫理規(guī)范體系

近年來(lái),由于各國(guó)針對(duì)人工智能監(jiān)管的配套法律法規(guī)尚未成型,因而亟須構(gòu)建一套切實(shí)可行的倫理規(guī)范體系。第一,各國(guó)應(yīng)當(dāng)在中央和地方分別設(shè)立“人工智能倫理委員會(huì)”,由其制定統(tǒng)一《人工智能倫理章程》,為人工智能技術(shù)研發(fā)預(yù)設(shè)道德標(biāo)準(zhǔn);第二,人工智能行業(yè)組織(如日本人工智能學(xué)會(huì))和公司企業(yè)(如Google)要在內(nèi)部設(shè)置相應(yīng)的倫理委員會(huì),制定科學(xué)規(guī)范的倫理管理規(guī)章制度,包括對(duì)科研人員和專家學(xué)者道德約束,對(duì)技術(shù)研發(fā)和產(chǎn)品應(yīng)用道德指引等,同時(shí)還應(yīng)定期主動(dòng)召開人工智能安全研發(fā)例會(huì),并及時(shí)向政府人工智能倫理委員會(huì)匯報(bào)。

(三)建立法律監(jiān)管制度

對(duì)于人工智能技術(shù)引發(fā)的一系列潛在風(fēng)險(xiǎn)和法律難題,必須建立全方位的法律監(jiān)管制度。第一,事前應(yīng)預(yù)防。構(gòu)建前瞻性的安全監(jiān)測(cè)預(yù)警機(jī)制,將未來(lái)人工智能技術(shù)可能造成的惡性事件量化為“特別重大、重大、較大、一般”四個(gè)等級(jí),當(dāng)惡性事件突發(fā)時(shí)立即對(duì)其發(fā)展動(dòng)向和不良影響進(jìn)行研判、評(píng)估和預(yù)防,并及時(shí)向社會(huì)發(fā)布預(yù)警信息。[15]第二,事中須管控。開發(fā)新型的人工智能測(cè)試平臺(tái),對(duì)人工智能系統(tǒng)和產(chǎn)品的各項(xiàng)性能(主要是安全性能)進(jìn)行實(shí)時(shí)監(jiān)測(cè);建設(shè)動(dòng)態(tài)的人工智能評(píng)價(jià)機(jī)制,對(duì)人工智能系統(tǒng)和產(chǎn)品的風(fēng)險(xiǎn)性、危害性等進(jìn)行定期評(píng)估;實(shí)施全面的人工智能監(jiān)管結(jié)構(gòu),對(duì)人工智能從研發(fā)到應(yīng)用進(jìn)行全程監(jiān)管,包括設(shè)計(jì)問責(zé)、制造監(jiān)督和使用管控。第三,事后必監(jiān)督。新設(shè)專門的人工智能監(jiān)管機(jī)構(gòu)——“人工智能監(jiān)管委員會(huì)”(可與“人工智能倫理委員會(huì)”合并為“人工智能發(fā)展委員會(huì)”)對(duì)人工智能技術(shù)進(jìn)行監(jiān)督,加大對(duì)技術(shù)濫用(如算法合謀、侵犯隱私)行為的處罰力度,同時(shí)督促行業(yè)和企業(yè)采取自律監(jiān)管措施。

(四)加強(qiáng)國(guó)際協(xié)同合作

世界各國(guó)政府和全球國(guó)際組織應(yīng)在未來(lái)人工智能監(jiān)管中扮演組織機(jī)構(gòu)的角色,協(xié)調(diào)各方利益沖突,構(gòu)建全球治理聯(lián)盟。[16]一方面,世界各國(guó)在不斷加大人工智能研發(fā)投入力度的同時(shí),也應(yīng)劃撥專項(xiàng)資金用于研究人工智能極化異化、技術(shù)濫用等國(guó)際安全問題,鼓勵(lì)引導(dǎo)企業(yè)、公眾(包括專家學(xué)者和普通百姓)等多方社會(huì)主體參與人工智能監(jiān)管;另一方面,國(guó)際組織就人工智能發(fā)展方向與應(yīng)用領(lǐng)域問題必須制定統(tǒng)一的國(guó)際條約,做出明確禁止性規(guī)定(負(fù)面清單),形成全球性的人工智能技術(shù)風(fēng)險(xiǎn)控制機(jī)制。另外,在人工智能時(shí)代下須強(qiáng)化“人類命運(yùn)共同體”意識(shí)。各國(guó)都應(yīng)在謀求本國(guó)人工智能發(fā)展利益的同時(shí)合理兼顧他國(guó)利益,最大限度防范人工智能技術(shù)的不可逆危機(jī),共同推進(jìn)人工智能社會(huì)安定有序發(fā)展。

五、結(jié)語(yǔ)

站在人工智能時(shí)代的風(fēng)口,我國(guó)必須牢牢抓住發(fā)展機(jī)遇,積極主動(dòng)作為,全面推動(dòng)人工智能經(jīng)濟(jì)快速發(fā)展,但同時(shí)人工智能技術(shù)帶來(lái)的諸多社會(huì)風(fēng)險(xiǎn)和法律挑戰(zhàn)也不容我們忽視。因此,為了確保人工智能能夠健康持續(xù)發(fā)展,必須做好前瞻預(yù)防和后續(xù)監(jiān)管工作,其中,塑造多元價(jià)值目標(biāo)是前提,德治(構(gòu)建倫理規(guī)范體系)與法治(建立法律監(jiān)管制度)相結(jié)合是關(guān)鍵,構(gòu)建全球人工智能治理聯(lián)盟是保障。總之,只有對(duì)人工智能技術(shù)發(fā)展采取多元化的監(jiān)管措施,才能迎來(lái)一個(gè)美好安全的嶄新時(shí)代。

參考文獻(xiàn):

[1]智研咨詢.2018-2024年中國(guó)人工智能行業(yè)市場(chǎng)深度調(diào)研及未來(lái)發(fā)展趨勢(shì)報(bào)告[EB/OL].[2019-01-02]. http://www.

chyxx.com/research/201807/657002.html.

[2]烏鎮(zhèn)智庫(kù).烏鎮(zhèn)指數(shù):全球人工智能發(fā)展報(bào)告2017 [EB/OL].[2017-08-10].https://www.useit.com.cn/thread-16182-1-1.html.

[3]閆坤如.人工智能的道德風(fēng)險(xiǎn)及其規(guī)避路徑[J].上海師范大學(xué)學(xué)報(bào),2018(2):40-47.

[4]尹昊智,劉鐵志.人工智能各國(guó)戰(zhàn)略解讀:美國(guó)人工智能報(bào)告解析[J].電信網(wǎng)技術(shù),2017(2):52-57.

[5]潘敬萍.我國(guó)人工智能發(fā)展現(xiàn)狀與應(yīng)對(duì)策略研究[J].現(xiàn)代商業(yè),2018(21):25-28.

[6]周程,和鴻鵬.人工智能帶來(lái)的倫理與社會(huì)挑戰(zhàn)[J].人民論壇,2018(2):26-28.

[7]搜狐網(wǎng).OpenAI等機(jī)構(gòu)發(fā)布《人工智能惡意使用》報(bào)告,利用AI來(lái)犯罪只是時(shí)間問題[EB/OL].[2018-02-24].

http://www.sohu.com/a/223853051_651893.

[8]張敏,李倩.人工智能應(yīng)用的安全風(fēng)險(xiǎn)及法律防控[J].西北工業(yè)大學(xué)學(xué)報(bào),2018(3):108-115.

[9]王利明.人工智能時(shí)代提出的法學(xué)新課題[J].中國(guó)法律評(píng)論,2018(2):1-4.

[10]吳漢東.人工智能時(shí)代的冷思考[J].中國(guó)報(bào)業(yè),2018(3):60-61.

[11]雷悅.人工智能發(fā)展中的法律問題探析[J].北京郵電大學(xué)學(xué)報(bào),2018(1):17-24.

[12]搜狐網(wǎng).即將進(jìn)入手機(jī)人工智能時(shí)代,你的隱私安全誰(shuí)來(lái)保護(hù)?[EB/OL].[2018-10-10].http://www.sohu.com/

a/197491521_610727,2017-10-11.

[13]199IT.牛津大學(xué):預(yù)測(cè)2035年美國(guó)數(shù)百萬(wàn)勞動(dòng)力將被機(jī)器人取代[EB/OL].[2018-10-10].http://www.199it.com/

archives/591916.html.

[14]吳漢東.人工智能時(shí)代的制度安排與法律規(guī)制[J].法律科學(xué),2017(5):128-136.

[15]黨家玉.人工智能的倫理與法律風(fēng)險(xiǎn)問題研究[J].信息安全研究,2017(12):1080-1090.

[16]馬治國(guó),徐濟(jì)寬.人工智能發(fā)展的潛在風(fēng)險(xiǎn)及法律防控監(jiān)管[J].北京工業(yè)大學(xué)學(xué)報(bào),2018(6):65-71.

Abstract: The emergence and development of AI technology will inevitably lead to a series of potential risks, including ethical and moral crisis, hidden dangers of technology abuse, risk of polarization and alienation, military war disaster, etc. At the same time, the advent of the AI era has caused many problems related to law, such as the determination of the qualification of legal subject, the copyright ownership, and the determination of tort liability, the protection of personality rights, issues related to driverless cars and substitute workers and so on. Therefore, it is necessary to deeply explore the supervision path for AI development in the future, and take measures to effectively avoid the potential AI-related social risks and legal challenges, such as setting up goals with diversified values, building a system of ethical norm, establishing a legal supervision system and strengthening international cooperation, so as to maximize the positive role of AI.

Key Words: AI (artificial intelligence); social risk; legal challenge; supervision path

猜你喜歡
人工智能
人工智能AI
人工智能
人工智能之父
2019:人工智能
人工智能
人工智能與就業(yè)
China’s Artificial Intelligence Revolution
數(shù)讀人工智能
人工智能時(shí)代,就業(yè)何去何從
下一幕,人工智能!