国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能的負(fù)外部性及其經(jīng)濟(jì)法規(guī)制

2020-04-27 12:07:02聰,
關(guān)鍵詞:外部性經(jīng)濟(jì)法主體

胡 元 聰, 廖 娟

(西南政法大學(xué) 經(jīng)濟(jì)法學(xué)院,重慶 401120 )

一、問題的提出

2017年7月,國(guó)務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》提出,人工智能是一項(xiàng)引領(lǐng)未來的戰(zhàn)略性技術(shù),旨在以科技創(chuàng)新引領(lǐng)開拓發(fā)展新境界。2019年3月,李克強(qiáng)總理在《政府工作報(bào)告》中又明確提出,要“深化大數(shù)據(jù)、人工智能等研發(fā)應(yīng)用……壯大數(shù)字經(jīng)濟(jì)”[1]。因此,可以說人工智能的發(fā)展已經(jīng)進(jìn)入新階段,成為國(guó)際競(jìng)爭(zhēng)的新焦點(diǎn)和經(jīng)濟(jì)發(fā)展的新引擎。美國(guó)、日本、歐盟等都在近3年內(nèi)制定并實(shí)施了人工智能發(fā)展規(guī)劃。對(duì)比之下,我國(guó)目前缺乏與人工智能快速發(fā)展完全相配套的法律法規(guī)??萍嫉牟淮_定性加上法律制度的不確定性導(dǎo)致人工智能“?!薄皺C(jī)”并存,我們?cè)跉g享人工智能發(fā)展給我們帶來的“福利”等正外部性時(shí),也要警惕其給我們帶來的“危機(jī)”等負(fù)外部性,包括但不限于沖擊現(xiàn)有的社會(huì)經(jīng)濟(jì)秩序、弱化法律的調(diào)整功能、增加社會(huì)管理主體的治理成本等,所以,要注意人工智能演化給現(xiàn)有法律關(guān)系帶來的影響[2]。人工智能的良性發(fā)展能帶動(dòng)制度的進(jìn)步,反過來合理的制度實(shí)現(xiàn)人工智能的價(jià)值?;谶@種關(guān)系,本文擬從制度層面探討解決人工智能負(fù)外部性的可行性方式。諸多負(fù)外部性是多種因素共同作用所導(dǎo)致的,而其中不容忽視的因素之一即為法律缺位和制度不足。從經(jīng)濟(jì)法視域來看,人工智能市場(chǎng)準(zhǔn)入制度、人工智能市場(chǎng)監(jiān)管制度、人工智能信息披露制度和人工智能主體責(zé)任制度大都存在不健全的情形。經(jīng)濟(jì)法律制度的不健全不但影響對(duì)約束人工智能負(fù)外部性的規(guī)范,甚至可能進(jìn)一步加劇人工智能的負(fù)外部性。經(jīng)濟(jì)法的主要調(diào)整對(duì)象(包括市場(chǎng)主體規(guī)制法律關(guān)系、市場(chǎng)秩序規(guī)制法律關(guān)系、宏觀經(jīng)濟(jì)調(diào)控法律關(guān)系和經(jīng)濟(jì)監(jiān)管法律關(guān)系等),決定了其不可能對(duì)人工智能負(fù)外部性視而不見。因此,圍繞人工智能負(fù)外部性的經(jīng)濟(jì)法規(guī)制亟需在法治框架下探討以下問題:人工智能負(fù)外部性有哪些表現(xiàn)?其制度原因體現(xiàn)在哪些方面?如何完善經(jīng)濟(jì)法規(guī)制路徑?本文在人工智能發(fā)展對(duì)經(jīng)濟(jì)法的需求以及審視經(jīng)濟(jì)法存在不足的基礎(chǔ)上,主張完善人工智能市場(chǎng)準(zhǔn)入制度、人工智能市場(chǎng)監(jiān)管制度、人工智能信息披露制度和人工智能主體責(zé)任制度,以期為解決人工智能負(fù)外部性問題提供一些新的思路。

二、人工智能負(fù)外部性的影響及制度因素分析

1.人工智能及其負(fù)外部性的界定

人工智能(AI)是研究、開發(fā)用于模擬、延伸和擴(kuò)展人的智能的理論、方法、技術(shù)及應(yīng)用系統(tǒng)的一門新的技術(shù)科學(xué),是一門涉及計(jì)算機(jī)、信息科學(xué)、系統(tǒng)科學(xué)、控制論、語(yǔ)言學(xué)、認(rèn)知學(xué)等多學(xué)科的綜合性技術(shù)[3]。1956年,“人工智能”這個(gè)詞首次出現(xiàn)在達(dá)特茅斯會(huì)議上,標(biāo)志著其正式成為一個(gè)新的研究領(lǐng)域。關(guān)于人工智能的分類,有不同的劃分標(biāo)準(zhǔn)和具體表現(xiàn)。目前科學(xué)界一般認(rèn)為人工智能的發(fā)展可以分為弱人工智能、強(qiáng)人工智能和超級(jí)人工智能3個(gè)階段;也有的將人工智能分為弱人工智能和強(qiáng)人工智能[4]。弱人工智能是指各種模擬人或動(dòng)物智能解決各種問題的技術(shù),包括機(jī)器人學(xué)、專家系統(tǒng)、人工神經(jīng)網(wǎng)絡(luò)等。強(qiáng)人工智能是指有自我意識(shí)、自主學(xué)習(xí)能力和自主決策能力的技術(shù)。波斯特姆在美國(guó)《連線》上提出所謂的“超級(jí)人工智能”,其區(qū)別于當(dāng)前已經(jīng)廣泛應(yīng)用的“弱人工智能”。據(jù)相關(guān)權(quán)威人士分析,中國(guó)人工智能研究在安保、金融、生物醫(yī)學(xué)、能源、城市管理、交通管理等領(lǐng)域的應(yīng)用非常關(guān)鍵[5]。在云計(jì)算、大數(shù)據(jù)、深度學(xué)習(xí)的孕育催化下,人工智能模擬和表現(xiàn)了人類的智慧力,并以高于人類的工作速度、優(yōu)于人類的工作精度、勝于人類的工作態(tài)度,協(xié)助人類解決各種各樣的問題[6]。然而,人工智能也同樣給人類帶來了各種棘手的問題,如個(gè)人隱私可能被侵犯,人身安全可能難以得到保障等。囿于篇幅和主題,本文主要探討人工智能的負(fù)外部性及其經(jīng)濟(jì)法解決之道。

什么是負(fù)外部性?不同領(lǐng)域的研究角度不同,其定義也不盡相同。從經(jīng)濟(jì)學(xué)角度來看,外部性指未被市場(chǎng)交易所體現(xiàn)的額外成本或額外收益。區(qū)別于經(jīng)濟(jì)學(xué)對(duì)負(fù)外部性的定義,從法學(xué)角度上看,負(fù)外部性是指經(jīng)濟(jì)主體在行使權(quán)利時(shí),表現(xiàn)為權(quán)利義務(wù)不對(duì)等以至于利益的失衡。具體而言,負(fù)外部性是一個(gè)經(jīng)濟(jì)主體在行使其權(quán)利時(shí)將本應(yīng)該由自己承擔(dān)的義務(wù)施加給其他經(jīng)濟(jì)主體[7]。最典型的負(fù)外部性例子就是環(huán)境污染。一個(gè)化工廠將本應(yīng)該由自己處理的污水隨意排放,無(wú)形中給周圍其他主體施加了污水處理義務(wù),造成兩者之間的權(quán)利義務(wù)失衡。人工智能負(fù)外部性就是以人工智能為中心的市場(chǎng)生產(chǎn)、經(jīng)營(yíng)主體在行使其權(quán)利時(shí)將本應(yīng)該由自己承擔(dān)的義務(wù)施加給其他主體,由此引發(fā)的負(fù)面影響。人工智能是科技發(fā)展的結(jié)果,也是信息演進(jìn)的結(jié)果。人工智能作為一項(xiàng)科學(xué)技術(shù)本該是中性的。但是,在實(shí)際的社會(huì)生活中,人工智能研發(fā)者、生產(chǎn)者和銷售者壟斷信息、無(wú)視數(shù)據(jù)風(fēng)險(xiǎn),使得消費(fèi)者和他們?nèi)咧g的權(quán)利義務(wù)失衡,此乃本文探討的人工智能負(fù)外部性。歸根結(jié)底,從經(jīng)濟(jì)法視域來看,人工智能負(fù)外部性是由于準(zhǔn)入制度的匱乏、市場(chǎng)監(jiān)管的低效、信息披露的不足和法律責(zé)任的模糊所造成的。為此,我們必須建立健全相關(guān)的經(jīng)濟(jì)法律法規(guī)。通過矯正和抑制上述各個(gè)主體的負(fù)外部性行為,各自的權(quán)利義務(wù)才能在合法范圍內(nèi)重新達(dá)到均衡狀態(tài)。

2.人工智能負(fù)外部性的具體影響

(1)沖擊現(xiàn)有的法律秩序

美國(guó)法理學(xué)家博登海默認(rèn)為,秩序指“在自然進(jìn)程和社會(huì)進(jìn)程中都存在某種程度的一致性、連續(xù)性和確定性”。社會(huì)秩序是建立在一定經(jīng)濟(jì)基礎(chǔ)上,以人為中心的動(dòng)態(tài)平衡的社會(huì)狀態(tài),表征社會(huì)關(guān)系的穩(wěn)定性、進(jìn)程的連續(xù)性、行為的規(guī)則性以及財(cái)產(chǎn)和心理的安全性[8]。人工智能負(fù)外部性在這里則體現(xiàn)為沖擊現(xiàn)有社會(huì)秩序的有序性、連續(xù)性和確定性,體現(xiàn)在增加法律制度風(fēng)險(xiǎn)和引發(fā)社會(huì)道德危機(jī)方面,從而加劇了人類社會(huì)未來發(fā)展的不確定性。

第一,挑戰(zhàn)既有法律制度。制度風(fēng)險(xiǎn)指向制度結(jié)局或結(jié)果的風(fēng)險(xiǎn),人工智能負(fù)外部性既沖擊民法、刑法、經(jīng)濟(jì)法等正式制度,也沖擊行業(yè)規(guī)范等非正式制度。作為社會(huì)秩序現(xiàn)實(shí)表現(xiàn)——社會(huì)結(jié)構(gòu)功能的功能失調(diào)、反功能、潛功能的存在,預(yù)示著制度風(fēng)險(xiǎn)具體表現(xiàn)為功能失調(diào)、反功能和潛功能[9]。進(jìn)入人工智能時(shí)代后,法律制度本身就存在滯后性而不適應(yīng)新形勢(shì)的情形。這就產(chǎn)生了法律制度的不確定風(fēng)險(xiǎn)。 無(wú)人駕駛汽車的研發(fā)者、生產(chǎn)者、銷售者目前均享受著國(guó)家政策的紅利,但其享受的權(quán)利與承擔(dān)的義務(wù)相對(duì)不匹配,其負(fù)外部性正挑戰(zhàn)著我國(guó)現(xiàn)有的包括《中華人民共和國(guó)道路交通安全法》等在內(nèi)的法律制度[10]。人工智能的負(fù)外部性破壞了法律調(diào)整對(duì)象的穩(wěn)定性、規(guī)制方法的有效性、主體資格的確定性,進(jìn)而使多個(gè)部門法出現(xiàn)重復(fù)規(guī)制或無(wú)效規(guī)制情形,由此增加法律制度風(fēng)險(xiǎn)發(fā)生的概率。

第二,引發(fā)社會(huì)道德危機(jī)。人與人、人與社會(huì)、人與自然之間存在不同維度、不同位階的權(quán)利義務(wù)關(guān)系,而這來源于人類自身在發(fā)展過程中總結(jié)的善惡標(biāo)準(zhǔn)。人工智能時(shí)代,“人機(jī)關(guān)系”將躍升為新型關(guān)系。伴隨著無(wú)人駕駛汽車的突然出現(xiàn),空中無(wú)人機(jī)的普遍存在,以及自動(dòng)化機(jī)器開始在更為復(fù)雜的情況下進(jìn)入日常生活,諸如倫敦、哥本哈根的地鐵系統(tǒng)[11]。而基于此,處于道德兩難困境的倫理學(xué)家虛構(gòu)的“失控電車案例”[12]代表了人工智能體道德在現(xiàn)階段承受的全新挑戰(zhàn)。人類社會(huì)目前已經(jīng)存在惡意竊取別人隱私、誠(chéng)信滑坡等顯性問題,而弱人工智能體階段的智能體因不存在顯性道德約束機(jī)制和有效的法律約束機(jī)制,就更容易被有不良道德的人利用而從事?lián)p害他人利益或者公共利益等沖擊社會(huì)秩序的行為。

(2)弱化法律的調(diào)整功能

由于資源的稀缺性、機(jī)會(huì)的不平等性、信息的不完全性和風(fēng)險(xiǎn)的不確定性,初次分配的結(jié)果一般都是不公平的[13]。因此,國(guó)家必須通過稅法、財(cái)政法等宏觀調(diào)控法來調(diào)整各類經(jīng)濟(jì)主體的初次分配結(jié)果,注重對(duì)信息主體權(quán)利義務(wù)的調(diào)整,進(jìn)而強(qiáng)化法律對(duì)社會(huì)治理的調(diào)整。而人工智能的負(fù)外部性卻在一定程度上對(duì)法律調(diào)整功能產(chǎn)生一定的沖擊,即使這種沖擊不一定產(chǎn)生直接的負(fù)面影響。

第一,弱化法律對(duì)初次分配的調(diào)整功能。我國(guó)現(xiàn)有的與社會(huì)主義市場(chǎng)經(jīng)濟(jì)相適應(yīng)的初次分配制度還不完善,還不能完全適應(yīng)市場(chǎng)經(jīng)濟(jì)的發(fā)展。人工智能的出現(xiàn)或許將使現(xiàn)有初次分配制度更難以發(fā)揮作用。與前幾次工業(yè)革命不同的是,人工智能可能使得人類就業(yè)崗位呈現(xiàn)爆發(fā)性和徹底性的消失態(tài)勢(shì)。麥肯錫的一項(xiàng)研究結(jié)論表明,在60%的不同職業(yè)中,會(huì)有30%的工作被機(jī)器所取代[14]。其另一項(xiàng)報(bào)告指出,到2030年機(jī)器人將取代8億人的就業(yè),而中國(guó)將面臨最大規(guī)模(最多可達(dá)1億人)的就業(yè)變遷[15]。因此,人工智能不僅會(huì)淘汰“工作崗位”,還會(huì)淘汰“工作技能”,故“無(wú)論你的領(lǐng)子是什么顏色,機(jī)器都會(huì)毫不留情”[16]。這就逼迫一些經(jīng)濟(jì)主體不僅要和其他經(jīng)濟(jì)體競(jìng)爭(zhēng),更要和機(jī)器人等人工智能競(jìng)爭(zhēng)。不可否認(rèn),人工智能的研發(fā)、推廣及應(yīng)用會(huì)減少人類在駕駛員、保安等職業(yè)領(lǐng)域獲得初次分配的機(jī)會(huì),尤其是在重復(fù)性、標(biāo)準(zhǔn)化的工作中。而這部分人就業(yè)機(jī)會(huì)的減少使得其收入相應(yīng)減少,但是生存成本卻維持不變。原本應(yīng)由個(gè)體承擔(dān)生存成本的義務(wù)間接轉(zhuǎn)嫁給了整個(gè)社會(huì)整體,再次分配制度不得不側(cè)重維護(hù)這部分個(gè)體的權(quán)利而減少其義務(wù)。因此,從個(gè)體而言,就業(yè)機(jī)會(huì)的相對(duì)減少,生產(chǎn)和消費(fèi)將可能出現(xiàn)不均;從社會(huì)整體而言,經(jīng)濟(jì)主體的初次分配將可能更加不公。

第二,弱化法律對(duì)信息主體權(quán)利義務(wù)的調(diào)整功能。在生產(chǎn)力發(fā)展進(jìn)步的過程中,資金力量和人才儲(chǔ)備雄厚的大企業(yè)可能很快即可實(shí)現(xiàn)自身的工業(yè)模式轉(zhuǎn)型,并且享受技術(shù)革新的紅利,而中小企業(yè)則可能因?yàn)樽陨韺?shí)力不足而無(wú)力承擔(dān)“極高的初創(chuàng)成本”,從而導(dǎo)致行業(yè)壟斷的事實(shí)形成[17]。為適當(dāng)解決信息主體權(quán)利義務(wù)嚴(yán)重失衡的問題,反壟斷法等經(jīng)濟(jì)法律法規(guī)正發(fā)揮著不可或缺的重要作用。在人工智能、海量數(shù)據(jù)與產(chǎn)業(yè)日益深度融合的社會(huì)背景之下,數(shù)據(jù)量和準(zhǔn)確度也必將成為影響社會(huì)分配的重要因素。與人工智能相關(guān)的生產(chǎn)者、經(jīng)營(yíng)者擁有的數(shù)據(jù)量越大,數(shù)據(jù)信息越準(zhǔn)確,數(shù)據(jù)更新越快速,那么其越有獲得更多社會(huì)初次分配成果的可能性。加之,我國(guó)在人工智能領(lǐng)域發(fā)展較早且具有壟斷地位的企業(yè)占據(jù)著社會(huì)大部分信息資源,可能使其權(quán)利義務(wù)不匹配。在某種程度上,信息優(yōu)勢(shì)主體在人工智能信息方面的權(quán)利未變但義務(wù)實(shí)際上減少,使得權(quán)利與義務(wù)更加不匹配。經(jīng)濟(jì)主體本來就存在權(quán)利義務(wù)不平衡的問題,加上信息失靈的雙重影響,人工智能的發(fā)展或許會(huì)繼續(xù)拉大社會(huì)分配的差距,從而加劇現(xiàn)有信息主體權(quán)利義務(wù)不匹配的主要矛盾,降低法律對(duì)其的調(diào)整功能。

(3)增加社會(huì)治理成本

弗朗西斯·福山認(rèn)為治理是政府制定和執(zhí)行規(guī)則、提高公共服務(wù)的能力[18]。社會(huì)治理既包括政府提供的公共產(chǎn)品,又包括社會(huì)的自我服務(wù)。當(dāng)代社會(huì)治理已突破傳統(tǒng)的線性模式[19],政府主要依靠法律制度來實(shí)施社會(huì)經(jīng)濟(jì)治理,但是包括稅法、反不正當(dāng)競(jìng)爭(zhēng)法、反壟斷法等在內(nèi)的經(jīng)濟(jì)法律制度大都具有天然的滯后性,無(wú)法及時(shí)對(duì)人工智能時(shí)代到來所產(chǎn)生的新現(xiàn)象、新問題做出及時(shí)有效的規(guī)制。進(jìn)一步說,經(jīng)濟(jì)法律制度的制定者缺乏對(duì)人工智能的及時(shí)了解和提前謀局,使得法律不可能快速回應(yīng)相關(guān)的社會(huì)治理的現(xiàn)實(shí)需要。由此可見,以法律為主要手段的社會(huì)治理本身就需要耗費(fèi)很大成本。人工智能負(fù)外部性則增加了政府進(jìn)行社會(huì)治理的成本,具體主要表現(xiàn)為:

第一,增加社會(huì)治理的信息成本。以信息不充分、信息不準(zhǔn)確及信息不對(duì)稱為主要表現(xiàn)的信息失靈直接增加社會(huì)治理決策主體的成本。決策者在對(duì)人工智能的信息掌握不充分時(shí)只能自行收集信息,這無(wú)疑會(huì)增加信息成本;當(dāng)人工智能信息不準(zhǔn)確或存在錯(cuò)誤時(shí),社會(huì)治理者則會(huì)耗費(fèi)成本去判斷信息真?zhèn)涡浴.?dāng)前,信息擁有者可以被劃分為3個(gè)層次:信息的絕對(duì)擁有者、相對(duì)擁有者和不擁有信息者。信息絕對(duì)擁有者將既有信息看作是自己的私有資產(chǎn),阻礙其他主體對(duì)信息的收集和使用,進(jìn)一步增加了信息劣勢(shì)者獲得信息的成本。同時(shí),信息所有者基于隱私權(quán)保護(hù)之故也不愿意將自己的信息公之于眾。如此,信息的不對(duì)稱導(dǎo)致社會(huì)治理主體難以獲得治理對(duì)象的有效信息。掌握人工智能優(yōu)勢(shì)信息主體權(quán)利義務(wù)的失衡或許會(huì)進(jìn)一步加劇信息失靈,由于此類信息失靈,從而會(huì)增加社會(huì)治理的信息成本。

第二,挑戰(zhàn)社會(huì)的法律治理模式。人工智能以大數(shù)據(jù)為基礎(chǔ),以深度學(xué)習(xí)的方式不斷進(jìn)行自我學(xué)習(xí)和自我突破。人工智能的出現(xiàn)使得法律的調(diào)整對(duì)象變得更加復(fù)雜。在某些方面,人工智能已經(jīng)遠(yuǎn)遠(yuǎn)超過人類的能力,非現(xiàn)有的法律調(diào)整方式可以規(guī)制。以經(jīng)濟(jì)法為例,我國(guó)當(dāng)前的《中華人民共和國(guó)產(chǎn)品質(zhì)量法》不能完全有效地解決基于人工智能產(chǎn)品產(chǎn)生的法律糾紛。雖然不能把傳統(tǒng)治理模式的不適應(yīng)和轉(zhuǎn)變看成人工智能的負(fù)外部性,但事實(shí)上這在某種程度上加劇了人工智能的負(fù)外部性。因此,人工智能正挑戰(zhàn)著原有基于法律的社會(huì)治理方式、程序和手段。權(quán)利義務(wù)不匹配的傳統(tǒng)經(jīng)濟(jì)社會(huì)治理方式和程序不僅不能有效地解決人工智能負(fù)外部性,而且可能使人工智能負(fù)外部性愈演愈烈,從而增加潛在的社會(huì)治理成本。

3.人工智能負(fù)外部性的經(jīng)濟(jì)法檢視

人工智能在本質(zhì)上是科技發(fā)展的結(jié)果。現(xiàn)實(shí)中不健全的法律制度在某種程度上“誘使”了人工智能負(fù)外部性的溢出,引發(fā)了人們對(duì)其安全問題的普遍擔(dān)憂??疾飕F(xiàn)行有效的經(jīng)濟(jì)法律制度,可以發(fā)現(xiàn)只有《中華人民共和國(guó)中小企業(yè)促進(jìn)法》這1部法律對(duì)“人工智能”進(jìn)行了粗略的規(guī)定(第33條)。隨著人工智能對(duì)社會(huì)經(jīng)濟(jì)關(guān)系的影響日益深入,以市場(chǎng)主體規(guī)制法律關(guān)系、市場(chǎng)秩序規(guī)制法律關(guān)系、宏觀調(diào)控法律關(guān)系和經(jīng)濟(jì)監(jiān)管法律關(guān)系等為主要調(diào)整對(duì)象的經(jīng)濟(jì)法,無(wú)疑發(fā)揮著激勵(lì)人工智能正外部性與解決人工智能負(fù)外部性的關(guān)鍵作用?!芭畈l(fā)展的人工智能產(chǎn)業(yè)尤其需要經(jīng)濟(jì)法的有效規(guī)制……對(duì)于其消極效應(yīng),應(yīng)加以限制或禁止”[20]。但問題是,現(xiàn)有相對(duì)滯后的經(jīng)濟(jì)法難以有效解決人工智能的負(fù)外部性。所以,有必要從經(jīng)濟(jì)法視域來檢視人工智能負(fù)外部性產(chǎn)生的具體原因。

首先,基于經(jīng)濟(jì)法立法思維缺陷視角的分析。引起解決人工智能負(fù)外部性的經(jīng)濟(jì)法供給不足的因素之一即為經(jīng)濟(jì)法立法思維的供給不足。反過來,經(jīng)濟(jì)法立法思維的缺陷又可能使人工智能負(fù)外部性進(jìn)一步加劇,進(jìn)而導(dǎo)致人工智能負(fù)外部性難以有效地受到現(xiàn)實(shí)經(jīng)濟(jì)法的規(guī)制?,F(xiàn)行的經(jīng)濟(jì)法滲透著單向度和滯后性的立法思維,沒有對(duì)將來可能發(fā)生的人工智能問題作出該有的前瞻性和預(yù)判性的因應(yīng),如當(dāng)人工智能產(chǎn)品侵害消費(fèi)者的合法權(quán)益時(shí),人工智能本身是否應(yīng)承擔(dān)法律責(zé)任。因此,如果經(jīng)濟(jì)法的立法思維跟不上人工智能的發(fā)展速度,必然無(wú)法有效解決人工智能負(fù)外部性問題,而只會(huì)進(jìn)一步導(dǎo)致分配不公平、信息不平衡、秩序不穩(wěn)定等社會(huì)問題。

其次,基于經(jīng)濟(jì)法適用領(lǐng)域視角的分析。現(xiàn)有經(jīng)濟(jì)法不是因人工智能而生,因此不會(huì)、也不可能完全適用于規(guī)制人工智能。而問題在于,對(duì)人工智能能進(jìn)行有效規(guī)制的經(jīng)濟(jì)法尚處于缺位狀態(tài)。例如:不完善的人工智能市場(chǎng)準(zhǔn)入制度使得部分市場(chǎng)主體無(wú)法進(jìn)入人工智能領(lǐng)域,從而導(dǎo)致市場(chǎng)競(jìng)爭(zhēng)不足,最終會(huì)出現(xiàn)社會(huì)初次分配不公平的負(fù)外部性;不健全的人工智能市場(chǎng)監(jiān)管制度無(wú)法適用到人工智能領(lǐng)域,也無(wú)法抑制人工智能負(fù)外部性;不健全的人工智能信息披露制度,使得原有的信息不對(duì)稱的負(fù)外部性更加突顯;不清晰的人工智能市場(chǎng)主體責(zé)任制度可能導(dǎo)致人工智能相關(guān)主體出現(xiàn)系統(tǒng)性規(guī)避責(zé)任的情形,如當(dāng)服務(wù)型機(jī)器人對(duì)第三人侵權(quán)時(shí),不論是機(jī)器人、所有者、銷售者、生產(chǎn)者還是研發(fā)者都可能出現(xiàn)相互推諉法律責(zé)任的情形。

三、人工智能負(fù)外部性經(jīng)濟(jì)法規(guī)制的路徑選擇

法律作為控制社會(huì)的主要手段,對(duì)歷史發(fā)展的影響絕對(duì)不亞于歷史發(fā)展對(duì)法律的影響[21]。對(duì)于人工智能的目前現(xiàn)狀來說,立法宜粗不宜細(xì)。人工智能涉及眾多社會(huì)關(guān)系,不可能由某一部具體的法律就可以進(jìn)行有效的規(guī)制,而只能由多個(gè)法律部門共同調(diào)整,最大程度地發(fā)揮各個(gè)部門法規(guī)制的邊際效應(yīng),保障人工智能朝著有益于人類安全的方向發(fā)展。在鼓勵(lì)人工智能發(fā)展的當(dāng)下,立法應(yīng)當(dāng)樹立開新意識(shí),以發(fā)展開放的思維為指導(dǎo),以中立審慎的態(tài)度持續(xù)推動(dòng)經(jīng)濟(jì)法對(duì)人工智能負(fù)外部性的規(guī)制進(jìn)程。從經(jīng)濟(jì)法視域來看,當(dāng)前應(yīng)該重點(diǎn)完善人工智能的市場(chǎng)準(zhǔn)入制度、市場(chǎng)監(jiān)管制度、信息披露制度和主體責(zé)任制度。

1.完善人工智能市場(chǎng)準(zhǔn)入制度

(1)完善人工智能市場(chǎng)準(zhǔn)入主體制度

從市場(chǎng)準(zhǔn)入主體制度上抑制人工智能負(fù)外部性是一個(gè)極具有實(shí)踐操作性的路徑選擇。人工智能市場(chǎng)準(zhǔn)入主體制度解決了哪些市場(chǎng)主體可以進(jìn)入該市場(chǎng)的問題,進(jìn)而可以避免由于不當(dāng)進(jìn)入人工智能市場(chǎng)引起的人工智能負(fù)外部性強(qiáng)烈沖擊現(xiàn)有法律和社會(huì)秩序的情形發(fā)生。從現(xiàn)行的法律來看,市場(chǎng)準(zhǔn)入的主體一般是法人、其他組織和個(gè)人。對(duì)于一般的人工智能市場(chǎng),只要符合法律的一般性規(guī)定,即法人、其他組織和個(gè)人都可以進(jìn)入。為激勵(lì)人工智能的正向發(fā)展,這種人工智能市場(chǎng)準(zhǔn)入主要有賴于民商事法律制度的寬泛確認(rèn)。而對(duì)于經(jīng)濟(jì)性市場(chǎng)、社會(huì)性市場(chǎng)和壟斷市場(chǎng)等特殊人工智能市場(chǎng),如類腦研發(fā)、高級(jí)醫(yī)療智能器械等,立法應(yīng)該制定更高的市場(chǎng)準(zhǔn)入標(biāo)準(zhǔn)(參見表1)[22],以保證現(xiàn)有企業(yè)的正外部性供給即鼓勵(lì)公共產(chǎn)品的生產(chǎn)。如此一來,人工智能市場(chǎng)主體資格的明確可以有效地減少“經(jīng)濟(jì)人”帶來的道德危機(jī)。

表1 市場(chǎng)準(zhǔn)入種類、部門法及具體法律規(guī)制

人工智能所依賴的大數(shù)據(jù)可分為公共數(shù)據(jù)庫(kù)和私人數(shù)據(jù)庫(kù)。政府主要承擔(dān)公共數(shù)據(jù)庫(kù)資料的收集以及接口的完善,一般市場(chǎng)主體都可以進(jìn)入公共數(shù)據(jù)庫(kù),同時(shí)要求使用公共數(shù)據(jù)的主體進(jìn)行時(shí)進(jìn)行即時(shí)電子化登記。涉及國(guó)防、金融安全等敏感數(shù)據(jù)的使用時(shí),相關(guān)主體需要到實(shí)體經(jīng)營(yíng)所在地獲得許可并且備案,便于人工智能監(jiān)管主體進(jìn)行常規(guī)檢查和臨時(shí)抽查。這樣既可以有效保證一般市場(chǎng)主體在同等條件下進(jìn)入并進(jìn)行市場(chǎng)競(jìng)爭(zhēng),防止帶來社會(huì)初次分配不公,又可以降低社會(huì)治理信息成本。

(2)完善人工智能市場(chǎng)準(zhǔn)入范圍制度

符合國(guó)內(nèi)人工智能一般市場(chǎng)準(zhǔn)入主體資格的,除非按要求需強(qiáng)制行政許可外,市場(chǎng)主體可以根據(jù)法律規(guī)定自由進(jìn)入人工智能交易市場(chǎng),以實(shí)現(xiàn)自由交易和人工智能資源共享。對(duì)于國(guó)內(nèi)經(jīng)濟(jì)性市場(chǎng)準(zhǔn)入、社會(huì)性市場(chǎng)準(zhǔn)入和壟斷性市場(chǎng)準(zhǔn)入,除非法律有明確禁止性規(guī)定,立法應(yīng)該允許部分主體先進(jìn)入適當(dāng)?shù)娜斯ぶ悄苁袌?chǎng)領(lǐng)域。在法律允許的范圍內(nèi),人工智能市場(chǎng)主體應(yīng)當(dāng)積極提供就業(yè)崗位。這樣可以有效解決就業(yè)機(jī)會(huì)減少帶來的負(fù)外部性,進(jìn)而化解社會(huì)分配不公導(dǎo)致的矛盾。

充分的國(guó)際合作為我國(guó)有效應(yīng)對(duì)人工智能國(guó)際市場(chǎng)的負(fù)外部性營(yíng)造了有利的環(huán)境。人工智能立法不僅要建立科學(xué)合理的國(guó)內(nèi)市場(chǎng)準(zhǔn)入制度,更應(yīng)該加強(qiáng)國(guó)際合作。在國(guó)際人工智能市場(chǎng)準(zhǔn)入方面,應(yīng)當(dāng)盡快完善《中華人民共和國(guó)對(duì)外貿(mào)易法》等配套法律法規(guī),如《中華人民共和國(guó)對(duì)外貿(mào)易法》第十六條第四款規(guī)定:“國(guó)內(nèi)供應(yīng)短缺或者為有效保護(hù)可能用竭的自然資源,需要限制或者禁止出口的”,應(yīng)當(dāng)動(dòng)態(tài)調(diào)整并且及時(shí)公布限制進(jìn)出口的貨物、技術(shù)項(xiàng)目。我國(guó)應(yīng)當(dāng)積極加入國(guó)際性人工智能協(xié)會(huì),主動(dòng)參與人工智能市場(chǎng)準(zhǔn)入規(guī)則的制定。通過劃定國(guó)內(nèi)人工智能一般市場(chǎng)、特殊市場(chǎng)以及國(guó)際人工智能市場(chǎng)準(zhǔn)入范圍,使得某一個(gè)具體的人工智能市場(chǎng)主體能夠準(zhǔn)確找到對(duì)應(yīng)的市場(chǎng)領(lǐng)域。這樣,人工智能研發(fā)者、生產(chǎn)者和銷售者既能減少不必要的要素支出,又能從側(cè)面降低人工智能市場(chǎng)負(fù)外部性。進(jìn)而,搶抓人工智能之“機(jī)”即激勵(lì)其正外部性和轉(zhuǎn)化人工智能之“?!奔唇鉀Q其負(fù)外部性。

(3)完善人工智能市場(chǎng)準(zhǔn)入程序制度

(2)計(jì)劃全面引入BEPS第8項(xiàng)至第10項(xiàng)行動(dòng)計(jì)劃成果關(guān)于轉(zhuǎn)讓定價(jià)的定義。轉(zhuǎn)讓定價(jià)是中國(guó)在BEPS成果轉(zhuǎn)化中關(guān)注的重點(diǎn),2015年9月17日,國(guó)家稅務(wù)總局政策法規(guī)司發(fā)布《特別納稅調(diào)整實(shí)施辦法(征求意見稿)》,對(duì)《特別納稅調(diào)整實(shí)施辦法》進(jìn)行修訂,它包含了與無(wú)形資產(chǎn)交易相關(guān)的全新章節(jié),其中無(wú)形資產(chǎn)的規(guī)定完全對(duì)接了BEPS第8項(xiàng)至第10項(xiàng)行動(dòng)計(jì)劃成果相同的寬泛定義,但為適應(yīng)中國(guó)實(shí)際情況,某些方面的規(guī)定還是與BEPS報(bào)告中的意見有差異。

要解決人工智能市場(chǎng)準(zhǔn)入法律問題,準(zhǔn)入程序是關(guān)鍵環(huán)節(jié)。人工智能市場(chǎng)準(zhǔn)入程序應(yīng)當(dāng)根據(jù)人工智能市場(chǎng)的準(zhǔn)入范圍而靈活構(gòu)建。除了法律規(guī)定的保留事項(xiàng)之外,應(yīng)當(dāng)對(duì)我國(guó)現(xiàn)行的500項(xiàng)行政審批項(xiàng)目進(jìn)行仔細(xì)篩查與分析。對(duì)于其中確需行政審批的人工智能項(xiàng)目,應(yīng)當(dāng)繼續(xù)實(shí)施強(qiáng)制許可制度;對(duì)于不適宜保留的行政許可則可以改為普通登記備案。同時(shí),我國(guó)法律應(yīng)當(dāng)鼓勵(lì)人工智能市場(chǎng)相關(guān)主體主動(dòng)申請(qǐng)備案,例如法律可以對(duì)主動(dòng)備案的市場(chǎng)主體簡(jiǎn)化準(zhǔn)入程序環(huán)節(jié)并給予政策優(yōu)惠等激勵(lì)。一般的人工智能附屬產(chǎn)品可不經(jīng)審批或者登記備案直接推廣使用及自由交易。這樣,主動(dòng)優(yōu)于被動(dòng)的準(zhǔn)入程序制度就能發(fā)揮其激勵(lì)功能,有效抑制人工智能市場(chǎng)主體準(zhǔn)入程序中的負(fù)外部性。

涉及社會(huì)型、經(jīng)濟(jì)型等特殊人工智能市場(chǎng),我國(guó)應(yīng)當(dāng)實(shí)施特殊強(qiáng)制許可制度。即使符合準(zhǔn)入資格的人工智能市場(chǎng)主體,也必須經(jīng)過相關(guān)審核主體的最終審核才能進(jìn)入特殊人工智能市場(chǎng)。同時(shí),嚴(yán)格規(guī)范這種類型的人工智能市場(chǎng)主體的準(zhǔn)入程序,嚴(yán)格禁止不符合法律規(guī)定硬性指標(biāo)的市場(chǎng)主體進(jìn)入特殊人工智能市場(chǎng)。同時(shí),寬松的一般準(zhǔn)入程序與嚴(yán)格的特殊準(zhǔn)入程序相輔相成,不可隨意變更。另外,建立健全人工智能市場(chǎng)準(zhǔn)入分流程序制度,提高人工智能市場(chǎng)準(zhǔn)入制度的規(guī)制效率,也是解決人工智能負(fù)外部性的有效路徑之一。

2.完善人工智能市場(chǎng)監(jiān)管制度

所謂市場(chǎng)監(jiān)管,是指市場(chǎng)監(jiān)管主體對(duì)市場(chǎng)活動(dòng)主體及其行為進(jìn)行限制、約束等直接干預(yù)活動(dòng)的總和[23]。我國(guó)《“十三五”市場(chǎng)監(jiān)管規(guī)劃》對(duì)人工智能市場(chǎng)做出的整體監(jiān)管規(guī)劃,給廣大市場(chǎng)主體一個(gè)清晰的信號(hào)和穩(wěn)定的預(yù)期。綜合監(jiān)管與行業(yè)領(lǐng)域?qū)I(yè)監(jiān)管、社會(huì)協(xié)同監(jiān)管分工協(xié)作、優(yōu)勢(shì)互補(bǔ)、相互促進(jìn)的市場(chǎng)監(jiān)管格局對(duì)于解決人工智能負(fù)外部性具有非常重要的意義。在上述法律監(jiān)管之下,政府應(yīng)鼓勵(lì)企業(yè)在法律允許的范圍內(nèi)發(fā)展人工智能產(chǎn)業(yè),主動(dòng)內(nèi)化人工智能發(fā)展過程中的負(fù)外部性。因?yàn)榉杀O(jiān)管既涉及制度風(fēng)險(xiǎn)的消解和道德危機(jī)的化解,又涉及社會(huì)治理成本降低和社會(huì)公平的維護(hù),所以,我國(guó)更應(yīng)該注重人工智能監(jiān)管體系的建立健全。

(1)完善人工智能行業(yè)的監(jiān)管制度

人工智能的飛速發(fā)展給人類社會(huì)帶來的負(fù)外部性使得我國(guó)不得不抓緊進(jìn)行法律層面的頂層設(shè)計(jì)。當(dāng)前,我國(guó)對(duì)人工智能的法律監(jiān)管是否處于完全空白狀態(tài)呢?如前所述,我國(guó)并非完全沒有可以對(duì)人工智能進(jìn)行有效監(jiān)管的法律法規(guī),只是數(shù)量少,而且不具體系性。因此,現(xiàn)實(shí)可行的方法之一就是在既有法律法規(guī)基礎(chǔ)上,以人工智能法律監(jiān)管為中心,分行業(yè)有步驟地進(jìn)行配套法律法規(guī)建設(shè)。因?yàn)?,人工智能已?jīng)不同程度地深入滲透到不同的行業(yè)領(lǐng)域,而各行業(yè)領(lǐng)域又具有不同的特殊性,所以不可能適用統(tǒng)一的監(jiān)管制度。因此,應(yīng)當(dāng)根據(jù)人工智能與行業(yè)耦合程度、風(fēng)險(xiǎn)大小程度、算法成熟程度實(shí)行包容審慎性監(jiān)管制度。如在醫(yī)療領(lǐng)域,國(guó)家食品藥品監(jiān)督管理局出臺(tái)了《醫(yī)療器械分類目錄》以監(jiān)管該領(lǐng)域的人工智能。在一定條件下,全國(guó)人民代表大會(huì)可以授權(quán)國(guó)務(wù)院根據(jù)實(shí)際情況先行對(duì)人工智能進(jìn)行宏觀性立法,優(yōu)先考慮對(duì)人們生活已經(jīng)產(chǎn)生重大影響的人工智能領(lǐng)域,待人工智能監(jiān)管立法條件成熟再正式立法,最終形成法律監(jiān)管合力并實(shí)現(xiàn)系統(tǒng)監(jiān)管。

(2)完善人工智能多元化監(jiān)管制度

建立具有可操作性的多元化、綜合性預(yù)防監(jiān)管體系,有助于降低新型制度風(fēng)險(xiǎn)帶來的人工智能負(fù)外部性。綜合性預(yù)防監(jiān)管體系需要實(shí)行多元化的法律監(jiān)管制度,而監(jiān)管方式又是監(jiān)管制度中不可或缺的重要組成部分?,F(xiàn)有法律監(jiān)管的主要方式涉及取締營(yíng)業(yè)執(zhí)照或資格、要求繳納保證金、納入負(fù)面清單和交納保險(xiǎn)等。但現(xiàn)有監(jiān)管方式并不能直接運(yùn)用到人工智能領(lǐng)域的監(jiān)管。人工智能監(jiān)管制度的主要目的是防范人工智能的風(fēng)險(xiǎn),而風(fēng)險(xiǎn)主要來自兩個(gè)方面:產(chǎn)品本身的風(fēng)險(xiǎn)和制造者的風(fēng)險(xiǎn)。針對(duì)制造者產(chǎn)生的風(fēng)險(xiǎn),可以繼續(xù)沿用傳統(tǒng)的監(jiān)管方式;而對(duì)于人工智能產(chǎn)品產(chǎn)生的風(fēng)險(xiǎn),可以在傳統(tǒng)監(jiān)管方式的基礎(chǔ)上,嘗試性采用預(yù)先強(qiáng)制性認(rèn)證、保險(xiǎn)等。例如對(duì)于無(wú)人駕駛機(jī)動(dòng)車,可將汽車的銷售與責(zé)任保險(xiǎn)捆綁在一起,保險(xiǎn)費(fèi)則依生產(chǎn)商、汽車類型、所有者或者使用者的情況來定[24]。使用者和保險(xiǎn)方則可以對(duì)“無(wú)人駕駛汽車”這類人工智能產(chǎn)品進(jìn)行外部性監(jiān)督,這樣就可以在一定程度上解決人工智能負(fù)外部性。另外,還需要?jiǎng)?chuàng)新人工智能的監(jiān)管模式,即充分利用人工智能企業(yè)的技術(shù)和數(shù)據(jù)分析優(yōu)勢(shì),積極開展合作,不斷強(qiáng)化事中事后監(jiān)管[25]。還可適當(dāng)賦予人工智能自治組織自治權(quán),允許人工智能協(xié)會(huì)或者行業(yè)組織積極建立統(tǒng)一的監(jiān)管標(biāo)準(zhǔn)和行業(yè)道德標(biāo)準(zhǔn),從而引導(dǎo)人工智能企業(yè)在符合人類整體利益和道德倫理基礎(chǔ)上,研發(fā)和應(yīng)用人工智能技術(shù)。

3.完善人工智能信息披露制度

法律不僅為私人經(jīng)濟(jì)活動(dòng),也為國(guó)家對(duì)經(jīng)濟(jì)的干預(yù)設(shè)定規(guī)范,既提供渠道又施加限制。信息披露制度是經(jīng)濟(jì)法規(guī)制人工智能負(fù)外部性的重要內(nèi)容。拓寬人工智能的信息披露渠道是人工智能相關(guān)者獲取關(guān)鍵信息的重要途徑,也是降低人工智能信息失衡負(fù)外部性不可或缺的重要一環(huán)。要使人工智能負(fù)外部性透明化,健全與人工智能相關(guān)的信息披露制度無(wú)疑是經(jīng)濟(jì)法解決人工智能負(fù)外部性必須考慮的關(guān)鍵問題。因此,隨著大數(shù)據(jù)的廣泛傳播,我國(guó)有必要出臺(tái)專門的人工智能企業(yè)信息披露制度。

(1)確立人工智能信息披露原則

社會(huì)整體利益要求義務(wù)主體合法披露人工智能產(chǎn)品的即時(shí)信息,即告知社會(huì)公眾人工智能產(chǎn)品的操作方法、產(chǎn)品參數(shù)等信息。人工智能信息的披露義務(wù)主體必須在信息披露原則的指導(dǎo)下,以合適的方式披露人工智能產(chǎn)品有關(guān)信息來保障社會(huì)公眾的知情權(quán)。社會(huì)公眾一旦有完整準(zhǔn)確的人工智能產(chǎn)品信息,那么其就有更多機(jī)會(huì)監(jiān)督人工智能企業(yè)。人工智能信息披露原則主要包括及時(shí)性原則和真實(shí)性原則。第一,及時(shí)性原則。人工智能信息披露的首要原則就是及時(shí)性原則,這根源于人工智能信息的快速傳播。人工智能的特殊性要求相關(guān)義務(wù)主體披露的信息必須完整及時(shí),以解決人工智能信息不及時(shí)的負(fù)外部性。在借鑒銀行監(jiān)管的及時(shí)性要求時(shí)務(wù)必明確,只有及時(shí)的信息才具有法律監(jiān)管的相關(guān)性,因此應(yīng)該以足夠的頻率和及時(shí)性提供信息。第二,真實(shí)性原則。人工智能信息披露義務(wù)主體應(yīng)當(dāng)基于對(duì)人類整體安全真實(shí)披露涉及的真實(shí)數(shù)據(jù)。研發(fā)生產(chǎn)人工智能相關(guān)產(chǎn)品的主體都是信息披露義務(wù)主體,披露的信息必須與人工智能實(shí)際使用的參數(shù)一致,不得虛假記載、誤導(dǎo)和欺騙。同時(shí),政府作為人工智能主要的監(jiān)管主體,務(wù)必將人工智能的基礎(chǔ)信息準(zhǔn)確告知社會(huì)公眾。

(2)建立人工智能信息分類披露制度

可以將人工智能相關(guān)的產(chǎn)權(quán)信息、研發(fā)信息等按照一定的可以分為一般信息和特殊信息,法律應(yīng)當(dāng)明確規(guī)定這兩類信息各自的披露義務(wù)主體、披露內(nèi)容和披露程序。信息披露義務(wù)人可以定期披露特殊信息,但是對(duì)一般信息則必須履行連續(xù)披露義務(wù)。比如無(wú)人駕駛汽車的智能技術(shù)備案屬于一般信息,生產(chǎn)廠商應(yīng)當(dāng)在機(jī)動(dòng)車進(jìn)入消費(fèi)市場(chǎng)后連續(xù)披露相關(guān)參數(shù)。按照人工智能涉及的信息與社會(huì)價(jià)值、環(huán)境價(jià)值、經(jīng)濟(jì)價(jià)值的重要性,可以將其分為3層(如表2所示)[26]。按照這3層信息涉及的信息擁有者來設(shè)計(jì)分類分層的信息披露制度。

表2 信息分層、信息擁有者及核心價(jià)值評(píng)判標(biāo)準(zhǔn)

基礎(chǔ)信息具有廣泛性、全面性的特點(diǎn),而且?guī)в小肮珯?quán)”色彩,該部分主要由政府、政府組織和非政府組織收集,具有一定公共性。針對(duì)第一層信息,政府可以建立公共數(shù)據(jù)庫(kù),明確政府和非政府組織的披露義務(wù)。第二層信息的擁有者在一定程度上帶有“經(jīng)濟(jì)人”性質(zhì),如算法等關(guān)乎商業(yè)秘密的核心信息不必主動(dòng)向社會(huì)公眾披露,但是應(yīng)當(dāng)建立嚴(yán)密的資料信息庫(kù)。第三層信息的披露義務(wù)主體是各類營(yíng)利性組織,允許其保留核心信息,但涉及人工智能使用者的產(chǎn)品參數(shù)、操作方法等應(yīng)當(dāng)標(biāo)注清楚。通過要求不同的信息擁有者從不同程度按照法律法規(guī)的要求進(jìn)行信息披露,從而達(dá)到分層解決人工智能系統(tǒng)信息失衡負(fù)外部性的目的。

4.完善人工智能主體責(zé)任制度

弱人工智能引發(fā)的法律責(zé)任是其負(fù)外部性所致的最終結(jié)果,實(shí)質(zhì)上仍然是人類的法律責(zé)任,大部分類似于當(dāng)前的產(chǎn)品質(zhì)量責(zé)任或產(chǎn)品侵權(quán)責(zé)任。因此,明確各主體的法律責(zé)任是維護(hù)社會(huì)公平秩序,優(yōu)化社會(huì)治理模式的最后一道防守線。強(qiáng)人工智能基于深度學(xué)習(xí)和大數(shù)據(jù)能獨(dú)立做出決定,這使得社會(huì)主體很難識(shí)別法律責(zé)任主體。所以,關(guān)于強(qiáng)人工智能的責(zé)任分擔(dān)問題,我國(guó)首先應(yīng)當(dāng)借助既有的法律制度,同時(shí)前瞻性地對(duì)部分內(nèi)容進(jìn)行調(diào)整以應(yīng)對(duì)人工智能的發(fā)展之需,待到條件成熟后再建立全新的系統(tǒng)的法律規(guī)則體系,從法律責(zé)任的分擔(dān)規(guī)則上真正解決強(qiáng)人工智能的負(fù)外部性。

(1)完善弱人工智能責(zé)任制度

弱人工智能的責(zé)任分擔(dān)類似于產(chǎn)品質(zhì)量責(zé)任或產(chǎn)品侵權(quán)責(zé)任。首先需要明確相關(guān)主體的法律責(zé)任分擔(dān),以便保障受損消費(fèi)者的合法權(quán)益和維護(hù)人工智能市場(chǎng)的良好秩序?,F(xiàn)有的人工智能技術(shù)大部分規(guī)定是依附在具體的實(shí)物上,即為實(shí)物的構(gòu)成部分,因此可將其法律責(zé)任的分擔(dān)視作產(chǎn)品質(zhì)量責(zé)任的分擔(dān)。現(xiàn)行的《中華人民共和國(guó)產(chǎn)品質(zhì)量法》大部分是對(duì)生產(chǎn)者和銷售者的義務(wù)性規(guī)定,該部分規(guī)定可以繼續(xù)適用。在歸責(zé)原則上,對(duì)生產(chǎn)者仍然可以繼續(xù)適用嚴(yán)格產(chǎn)品責(zé)任原則,而對(duì)銷售者適用過錯(cuò)責(zé)任倒置原則。銷售者在對(duì)銷售附有人工智能技術(shù)的產(chǎn)品進(jìn)行舉證時(shí),法律不應(yīng)該太嚴(yán)苛,只要符合一般人的產(chǎn)品注意義務(wù)即可。是否有必要將獨(dú)立的研發(fā)主體納入產(chǎn)品責(zé)任原則的適用體系中,需要進(jìn)一步的探究。另外,筆者認(rèn)為立法上可以考慮將人工智能侵權(quán)作為獨(dú)立的侵權(quán)形式補(bǔ)充到《中華人民共和國(guó)侵權(quán)責(zé)任法》中。若與《中華人民共和國(guó)產(chǎn)品質(zhì)量法》重合,則采用特殊法優(yōu)于普通法方式來確定最終適用的法律法規(guī)。在責(zé)任的承擔(dān)方面,可以繼續(xù)沿用《中華人民共和國(guó)民法總則》第一百七十九條的規(guī)定,而違反刑法的,還應(yīng)當(dāng)承擔(dān)相應(yīng)的刑事責(zé)任。

(2)建立強(qiáng)人工智能責(zé)任制度

強(qiáng)人工智能雖然并沒有完全出現(xiàn)于當(dāng)前社會(huì)中,也沒有弱人工智能階段的社會(huì)關(guān)系復(fù)雜,但它客觀上形成了部分需要法律調(diào)整的特殊社會(huì)關(guān)系。因此,對(duì)強(qiáng)人工智能發(fā)展過程中可能產(chǎn)生的負(fù)外部性,立法者在分配法律責(zé)任時(shí),應(yīng)當(dāng)堅(jiān)持下列原則:一是立法者應(yīng)當(dāng)保持一定的克制,不宜倉(cāng)促地出臺(tái)法律以免阻礙智能制造的動(dòng)態(tài)發(fā)展,畢竟人工智能產(chǎn)業(yè)屬于國(guó)家發(fā)展戰(zhàn)略而不是一般產(chǎn)業(yè);二是嚴(yán)格責(zé)任或者連帶責(zé)任的適用與否必須在考慮人工智能對(duì)經(jīng)濟(jì)影響的基礎(chǔ)上進(jìn)行進(jìn)一步的論證,即初期應(yīng)當(dāng)有所限制,甚至在必要時(shí)可以選擇適用產(chǎn)品質(zhì)量責(zé)任之發(fā)展風(fēng)險(xiǎn)抗辯制度;三是智能制造網(wǎng)絡(luò)的參與者必須可以被識(shí)別,這是判斷合適的責(zé)任承擔(dān)者的前提和基礎(chǔ)[27]。為了人類社會(huì)的長(zhǎng)遠(yuǎn)發(fā)展,立法應(yīng)當(dāng)根據(jù)本階段人工智能負(fù)外部性的實(shí)際情況,可以在法律上將人工智能主體擬制為限制行為能力人以承擔(dān)相應(yīng)的法律責(zé)任。這種行為歸責(zé)類似于將公司擬制為獨(dú)立的法人主體行為。還可以用法律形式為高級(jí)階段的人工智能體創(chuàng)設(shè)監(jiān)護(hù)人(比如使用者)。若發(fā)生人工智能體對(duì)監(jiān)護(hù)人侵害權(quán)益時(shí),監(jiān)護(hù)人是否可以直接適用既有的產(chǎn)品質(zhì)量責(zé)任,這有待于深層次探討。如果人工智能體實(shí)際發(fā)生對(duì)監(jiān)護(hù)人以外的第三人侵權(quán)時(shí),先規(guī)定主要由監(jiān)護(hù)人承擔(dān)法律責(zé)任。當(dāng)監(jiān)護(hù)人無(wú)力承擔(dān)法律責(zé)任時(shí),限制或剝奪該人工智能體的自由可能也是一種可行的法律責(zé)任承擔(dān)方式。這樣就從責(zé)任分擔(dān)上解決了強(qiáng)人工智能負(fù)外部性。

四、結(jié) 論

人工智能不僅是科技創(chuàng)新,更是第三次工業(yè)革命核心技術(shù)驅(qū)動(dòng)力的科技革命。人工智能既給人類社會(huì)帶來新機(jī)遇也帶來新挑戰(zhàn),因此,人工智能的不確定性導(dǎo)致其“?!薄皺C(jī)”并存。發(fā)展人工智能時(shí)成果與代價(jià)同在,利益與風(fēng)險(xiǎn)并存。弱人工智能應(yīng)用和產(chǎn)業(yè)已經(jīng)在多個(gè)領(lǐng)域取得重大發(fā)展。根據(jù)目前的發(fā)展態(tài)勢(shì),強(qiáng)人工智能時(shí)代也可能快速來臨。我們應(yīng)當(dāng)以開放的心態(tài)、審慎的態(tài)度正視智能革命時(shí)代的到來,在享受其帶來的正外部性時(shí)也應(yīng)當(dāng)透徹分析和解決人工智能的負(fù)外部性。因此,為搶抓人工智能之“機(jī)”即激勵(lì)其正外部性和轉(zhuǎn)化人工智能之“?!奔唇鉀Q其負(fù)外部性,需要完善的經(jīng)濟(jì)法進(jìn)行因應(yīng)。

就目前而言,人工智能的負(fù)外部性的主要影響體現(xiàn)為沖擊現(xiàn)有法律秩序、弱化制度的調(diào)整功能、增加社會(huì)治理主體的信息成本、挑戰(zhàn)既有社會(huì)治理模式等。因此,深入了解人工智能負(fù)外部性產(chǎn)生的根源,對(duì)人工智能負(fù)外部性進(jìn)行經(jīng)濟(jì)法檢視及經(jīng)濟(jì)法規(guī)制路徑的完善和創(chuàng)新,是當(dāng)前研究機(jī)構(gòu)和實(shí)務(wù)部門的迫切任務(wù)。充分發(fā)揮經(jīng)濟(jì)法的激勵(lì)功能和約束功能,有助于人工智能負(fù)外部性的良性解決。當(dāng)然,法律方式只是倫理方式、道德方式等眾多對(duì)人工智能負(fù)外部性規(guī)制手段中的一種,僅僅依靠法律方式既不可取,也不可能全面實(shí)現(xiàn)其初衷。因此,為了充分發(fā)揮經(jīng)濟(jì)法對(duì)人工智能負(fù)外部性的規(guī)制功能,法律制度需要和道德、倫理相結(jié)合。另外,經(jīng)濟(jì)法對(duì)人工智能負(fù)外部性的轉(zhuǎn)化過程并非一蹴而就,匆忙立法也非明智之舉。因此,應(yīng)當(dāng)尋求理論張力與現(xiàn)實(shí)約束下的允執(zhí)厥中,在檢視現(xiàn)有經(jīng)濟(jì)法的基礎(chǔ)上,本著中道務(wù)實(shí)的態(tài)度,因時(shí)制宜地重點(diǎn)完善人工智能市場(chǎng)準(zhǔn)入制度、市場(chǎng)監(jiān)管制度、信息披露制度以及主體責(zé)任制度。人工智能只有在法治軌道上循序發(fā)展,才能確保其安全、可靠、可控并實(shí)現(xiàn)基于“人機(jī)命運(yùn)共同體”的符合人類社會(huì)根本利益的發(fā)展,也才能實(shí)現(xiàn)國(guó)家戰(zhàn)略與包容發(fā)展、商業(yè)利益與社會(huì)責(zé)任、國(guó)際競(jìng)爭(zhēng)與人類安全的平衡與協(xié)調(diào),也才能為以完善的法律制度提升全球人工智能治理制度性話語(yǔ)權(quán)提供中國(guó)智慧和中國(guó)方案。

猜你喜歡
外部性經(jīng)濟(jì)法主體
采暖區(qū)既有建筑節(jié)能改造外部性分析與應(yīng)用研究
論自然人破產(chǎn)法的適用主體
環(huán)境負(fù)外部性的環(huán)境法新解析
論經(jīng)濟(jì)法的憲法性
法大研究生(2019年1期)2019-11-16 00:37:50
經(jīng)濟(jì)法在我國(guó)經(jīng)濟(jì)轉(zhuǎn)型中的作用分析
活力(2019年21期)2019-04-01 12:16:32
公安高等院校經(jīng)濟(jì)法課程教學(xué)改革研究
關(guān)于遺產(chǎn)保護(hù)主體的思考
消費(fèi)者權(quán)益保護(hù)法的經(jīng)濟(jì)法解讀
論多元主體的生成
既有商品住宅節(jié)能改造外部性及其測(cè)算研究
桂平市| 英山县| 韩城市| 西乌| 西盟| 商城县| 南通市| 乌拉特后旗| 垫江县| 溧阳市| 遂宁市| 鲜城| 大石桥市| 洱源县| 佛教| 栾川县| 江北区| 安平县| 桓台县| 兰州市| 新龙县| 凤凰县| 青田县| 沛县| 米脂县| 竹北市| 阿坝县| 屏南县| 五大连池市| 沛县| 铜川市| 巢湖市| 大兴区| 绥宁县| 嫩江县| 犍为县| 澄城县| 白河县| 武宣县| 新宁县| 尉氏县|