□文/曹建峰
10大建議!看歐盟如何預(yù)測(cè)AI立法新趨勢(shì)
□文/曹建峰
法律,是人類(lèi)社會(huì)正常運(yùn)行的規(guī)范,當(dāng)然對(duì)于AI也不例外。相對(duì)于人工智能的發(fā)展速度,法律總是略顯緩慢,這使得人們開(kāi)始擔(dān)心缺少法律規(guī)范的AI是否對(duì)人類(lèi)社會(huì)產(chǎn)生不可預(yù)測(cè)的影響。因此,提前制定AI趨勢(shì)的法律規(guī)范對(duì)AI發(fā)展具有良好的推動(dòng)作用,而在這一方面,歐盟快人一步,率先開(kāi)始考慮人工智能民事立法,并提出十項(xiàng)立法建議,旨在建立良好的AI發(fā)展環(huán)境。下面,跟隨這十項(xiàng)建議,讓我們一起解讀AI立法新趨勢(shì)。
2016年以來(lái),人工智能不僅受到科技公司熱捧,人工智能在智力游戲、自動(dòng)駕駛、語(yǔ)音和圖像識(shí)別、翻譯等諸多領(lǐng)域取得重大突破,谷歌、臉書(shū)、微軟等科技巨頭收購(gòu)人工智能創(chuàng)業(yè)公司的速度已經(jīng)快趕上這些公司的創(chuàng)立速度。而且,各國(guó)政府(比如美國(guó)、英國(guó)等)以及一些社會(huì)公共機(jī)構(gòu)(比如UN、IEEE等)開(kāi)始積極關(guān)注人工智能的法律、倫理、社會(huì)、經(jīng)濟(jì)等影響,密集出臺(tái)戰(zhàn)略文件和報(bào)告。
在人工智能法律和倫理研究方面,以UN和IEEE最為突出。2016年8月,UN下屬COMEST(科學(xué)知識(shí)和科技倫理世界委員會(huì))發(fā)布《機(jī)器人倫理初步報(bào)告草案》,認(rèn)為機(jī)器人不僅需要尊重人類(lèi)社會(huì)的倫理規(guī)范,而且需要將特定倫理準(zhǔn)則編寫(xiě)進(jìn)機(jī)器人中。2016年12月,IEEE發(fā)布《合倫理設(shè)計(jì):利用人工智能和自主系統(tǒng)(AI/AS)最大化人類(lèi)福祉的愿景(第一版)》,就一般原則、倫理、方法論、通用人工智能(AGI)和超級(jí)人工智能(ASI)的安全與福祉、個(gè)人數(shù)據(jù)、自主武器系統(tǒng)、經(jīng)濟(jì)/人道主義問(wèn)題、法律等八大主題給出具體建議。
歐盟走得更遠(yuǎn),開(kāi)始考慮針對(duì)機(jī)器人和人工智能出臺(tái)民事法律規(guī)則,并為人工智能研發(fā)和審查人員制定倫理守則,確保在整個(gè)研發(fā)和審查環(huán)節(jié)中,將人類(lèi)價(jià)值予以考慮,使最終面向消費(fèi)者和社會(huì)的機(jī)器人能夠符合人類(lèi)利益。
早在2015年1月,歐盟議會(huì)法律事務(wù)委員會(huì)(JUR I)就決定成立一個(gè)工作小組,專(zhuān)門(mén)研究與機(jī)器人和人工智能發(fā)展相關(guān)的法律問(wèn)題。2016年5月,法律事務(wù)委員會(huì)發(fā)布《就機(jī)器人民事法律規(guī)則向歐盟委員會(huì)提出立法建議的報(bào)告草案》(Draft R eport with R ecommendations to the Commission on Civil Law R ules on R obotics,簡(jiǎn)稱(chēng)《報(bào)告草案》);同年10月,發(fā)布研究成果《歐盟機(jī)器人民事法律規(guī)則》(European Civil Law R ules in R obotics)。
在這些報(bào)告和研究的基礎(chǔ)上,2017年1月12日,法律事務(wù)委員會(huì)以12票贊成、2票反對(duì)、2票棄權(quán),通過(guò)一份決議(resolution),在其中提出了一些具體的立法建議,要求歐盟委員會(huì)就機(jī)器人和人工智能提出立法提案(在歐盟只有歐盟委員會(huì)有權(quán)提出立法提案)。當(dāng)然,歐盟委員會(huì)并無(wú)義務(wù)遵守這一要求,但如果其拒絕這么做,就必須陳述其理由。2017年2月16日,歐盟議會(huì)以396票贊成、123票反對(duì)、85票棄權(quán),通過(guò)這份決議??梢灶A(yù)見(jiàn),推進(jìn)人工智能法律和倫理研究,包括可能的立法和監(jiān)管措施,未來(lái)將成為歐盟立法議程的一個(gè)核心。
曹建峰 碩士,騰訊研究院研究員,主要研究方向?yàn)榫W(wǎng)絡(luò)安全、網(wǎng)絡(luò)隱私、人工智能、網(wǎng)絡(luò)知識(shí)產(chǎn)權(quán)等
1、成立歐盟人工智能監(jiān)管機(jī)構(gòu)
人工智能的發(fā)展將會(huì)帶來(lái)很多新問(wèn)題。法律事務(wù)委員會(huì)呼吁成立一個(gè)專(zhuān)門(mén)負(fù)責(zé)機(jī)器人和人工智能的歐盟機(jī)構(gòu),負(fù)責(zé)就技術(shù)、倫理、監(jiān)管等問(wèn)題提出專(zhuān)業(yè)知識(shí),以更好抓住人工智能的新機(jī)遇,并應(yīng)對(duì)從中產(chǎn)生的挑戰(zhàn)。
考慮到人工智能的當(dāng)前發(fā)展和投資,需要給予這一新機(jī)構(gòu)充分預(yù)算,配備監(jiān)管人員以及外部的技術(shù)和倫理專(zhuān)家,對(duì)人工智能應(yīng)用開(kāi)展跨領(lǐng)域、跨學(xué)科的監(jiān)測(cè),確認(rèn)行業(yè)最佳實(shí)踐,并適時(shí)提出監(jiān)管措施。
2、需要人工智能倫理準(zhǔn)則
人工智能雖然可能賦能于人,帶來(lái)效率的提高;但是,相伴而來(lái)的人類(lèi)安全、隱私、尊嚴(yán)、正義、自治、數(shù)據(jù)所有權(quán)等風(fēng)險(xiǎn),卻也不容忽視。因此,在機(jī)器人和人工智能的設(shè)計(jì)、研發(fā)、生產(chǎn)和利用過(guò)程中,需要一個(gè)指導(dǎo)性的倫理框架,確保其以符合法律、安全、倫理等標(biāo)準(zhǔn)的方式運(yùn)作。比如,機(jī)器人設(shè)計(jì)者應(yīng)當(dāng)考慮一個(gè)“一鍵關(guān)閉”功能,以便可以在緊急情況下將機(jī)器人關(guān)閉。
在其《報(bào)告草案》中,法律事務(wù)委員會(huì)提出了所謂的“機(jī)器人憲章”(Charter onR obotics)。這一憲章針對(duì)人工智能科研人員和研究倫理委員會(huì)(R EC),提出了在機(jī)器人設(shè)計(jì)和研發(fā)階段需要遵守的基本倫理原則。對(duì)機(jī)器人科研人員而言,諸如人類(lèi)利益、不作惡、正義、基本權(quán)利、警惕性、包容性、可責(zé)性、安全性、可逆性、隱私等都是需要認(rèn)真對(duì)待的事項(xiàng)。
此外,需要倫理審查委員會(huì)對(duì)人工智能設(shè)計(jì)和研發(fā)進(jìn)行把關(guān),確保機(jī)器人符合人類(lèi)社會(huì)的倫理、法律等規(guī)范;這個(gè)委員會(huì)應(yīng)當(dāng)是跨學(xué)科的,同時(shí)吸納男性和女性參與者。
3、重構(gòu)責(zé)任規(guī)則:強(qiáng)制保險(xiǎn)機(jī)制和賠償基金
自動(dòng)駕駛汽車(chē)、工業(yè)機(jī)器人、護(hù)理機(jī)器人等類(lèi)型的人工智能產(chǎn)品可能完全或者部分脫離人類(lèi)的控制,在這些人工智能產(chǎn)品具有自主學(xué)習(xí)、判斷和完善的能力的情況下,一旦對(duì)人類(lèi)和財(cái)產(chǎn)造成損害,其設(shè)計(jì)者和開(kāi)發(fā)者是否應(yīng)當(dāng)承擔(dān)嚴(yán)格責(zé)任,抑或承擔(dān)有限責(zé)任?當(dāng)具有自主學(xué)習(xí)能力的人工智能系統(tǒng)造成損害,讓其設(shè)計(jì)者和開(kāi)發(fā)者承擔(dān)責(zé)任可能遭遇原因力(因果關(guān)系)和可預(yù)見(jiàn)性這兩大難題,這給既有的民事侵權(quán)責(zé)任規(guī)則帶來(lái)了挑戰(zhàn)。
對(duì)此,法律事務(wù)委員會(huì)提出了兩個(gè)建議:
第一個(gè)建議是,對(duì)機(jī)器人適用強(qiáng)制保險(xiǎn)機(jī)制,這類(lèi)似于針對(duì)機(jī)動(dòng)車(chē)的強(qiáng)制險(xiǎn),由機(jī)器人的生產(chǎn)者或者所有者負(fù)責(zé)購(gòu)買(mǎi),以便對(duì)機(jī)器人造成的損害進(jìn)行責(zé)任分配。
第二個(gè)建議是,設(shè)立賠償基金。這一制度有兩大目的,其一,對(duì)強(qiáng)制險(xiǎn)未予覆蓋的損害進(jìn)行賠償;其二,讓投資人、生產(chǎn)者、消費(fèi)者等多方主體參與這一機(jī)制,從而形成賠償基金。
4、長(zhǎng)期來(lái)看,考慮賦予復(fù)雜的自主機(jī)器人法律地位(電子人,electronic onic persons)的可能性
界定監(jiān)管對(duì)象(即智能自主機(jī)器人)是機(jī)器人立法的起點(diǎn)。對(duì)于智能自主機(jī)器人,法律事務(wù)委員會(huì)提出了四大特征:(1)通過(guò)傳感器或借助與其環(huán)境交換數(shù)據(jù)(互聯(lián)性)獲得自主性的能力,以及分析那些數(shù)據(jù);(2)從經(jīng)歷和交互中學(xué)習(xí)的能力;(3)機(jī)器人的物質(zhì)支撐形式;(4)因其環(huán)境而調(diào)整其行為和行動(dòng)的能力。
此外,應(yīng)當(dāng)提出機(jī)器人分類(lèi)標(biāo)準(zhǔn),并建立高級(jí)機(jī)器人登記制度,目的在于實(shí)現(xiàn)可追溯性,并促進(jìn)進(jìn)一步推薦性規(guī)范的落實(shí)。
在主體地位方面,機(jī)器人應(yīng)當(dāng)被界定為自然人、法人、動(dòng)物還是物體?是否需要?jiǎng)?chuàng)造新的主體類(lèi)型(電子人),以便復(fù)雜的高級(jí)機(jī)器人可以享有權(quán)利,承擔(dān)義務(wù),并對(duì)其造成的損害承擔(dān)責(zé)任?未來(lái),隨著更復(fù)雜的機(jī)器人的出現(xiàn),需要就機(jī)器人的法律地位問(wèn)題展開(kāi)更多探討。
5、知識(shí)產(chǎn)權(quán)方面,明確人工智能的“獨(dú)立智力創(chuàng)造”(own intellectuuaall creattiioonn)
第一,法律事務(wù)委員會(huì)建議歐盟委員會(huì)就與軟硬件標(biāo)準(zhǔn)、代碼有關(guān)的知識(shí)產(chǎn)權(quán)提出一個(gè)更平衡的路徑,以便在保護(hù)創(chuàng)新的同時(shí),也促進(jìn)創(chuàng)新。
第二,對(duì)于計(jì)算機(jī)或者機(jī)器人創(chuàng)作的可版權(quán)作品,需要提出界定人工智能的“獨(dú)立智力創(chuàng)造”的標(biāo)準(zhǔn),以便可以明確版權(quán)歸屬。
6、注重隱私和數(shù)據(jù)保護(hù)
在針對(duì)人工智能和機(jī)器人制定政策時(shí),應(yīng)當(dāng)按照必要性原則和比例原則,保障隱私和數(shù)據(jù)保護(hù)。在這一方面,需要進(jìn)一步完善通過(guò)設(shè)計(jì)保護(hù)隱私(privacy by design)、默認(rèn)保護(hù)隱私(privacy by default)、知情同意、加密等概念的標(biāo)準(zhǔn)。
此外,當(dāng)個(gè)人數(shù)據(jù)成為“流通物”,各種服務(wù)可以就其進(jìn)行交易,更頻繁的數(shù)據(jù)流動(dòng)將成為可能,這可能帶來(lái)數(shù)據(jù)所有權(quán)等需要明確的新問(wèn)題。需要特別強(qiáng)調(diào)的是,將個(gè)人數(shù)據(jù)作為“流通物”使用,在任何情況下都不得規(guī)避涉及隱私和數(shù)據(jù)保護(hù)的基本原則。
7、推進(jìn)標(biāo)準(zhǔn)化工作和機(jī)器人的安全可靠性
一是標(biāo)準(zhǔn)化。國(guó)際層面,歐盟委員會(huì)應(yīng)繼續(xù)致力于技術(shù)標(biāo)準(zhǔn)的國(guó)際統(tǒng)一。歐盟層面,需要建立相應(yīng)的標(biāo)準(zhǔn)化框架,以免造成歐盟各成員國(guó)之間標(biāo)準(zhǔn)的不統(tǒng)一以及歐盟內(nèi)部市場(chǎng)的分裂。
二是機(jī)器人的安全可靠性。在現(xiàn)實(shí)場(chǎng)景中測(cè)試自動(dòng)駕駛汽車(chē)等機(jī)器人技術(shù),對(duì)于識(shí)別和評(píng)估其潛在風(fēng)險(xiǎn)是至關(guān)重要的。
8、針對(duì)具有特定用途的機(jī)器人和人工智能出臺(tái)特定規(guī)則
法律事務(wù)委員會(huì)呼吁就特定類(lèi)型的機(jī)器人出臺(tái)特定監(jiān)管規(guī)則,也即,進(jìn)行特殊立法。需要采取特殊立法的機(jī)器人類(lèi)型包括,自動(dòng)駕駛汽車(chē)、護(hù)理機(jī)器人、醫(yī)療機(jī)器人、無(wú)人機(jī)、人類(lèi)修復(fù)和增強(qiáng)(human repair and enhancement,即,為修復(fù)和補(bǔ)足受損器官和人體功能而存在的機(jī)器人)。
9、關(guān)注人工智能的社會(huì)影響
機(jī)器人和人工智能的發(fā)展將導(dǎo)致重大社會(huì)變革,諸如工作崗位和結(jié)構(gòu)的變遷、人機(jī)交互對(duì)人類(lèi)道德的影響(比如護(hù)理機(jī)器人和被看護(hù)者之間的情感關(guān)系)、教育等。法律事務(wù)委員會(huì)督促歐盟委員會(huì)密切追蹤這些趨勢(shì),包括新的就業(yè)模式、稅收和社會(huì)系統(tǒng)(比如收入分配制度)的可行性等。
10、加強(qiáng)國(guó)際合作
當(dāng)前,機(jī)器人和人工智能在全球都是熱點(diǎn)中的熱點(diǎn),被推到了投資和創(chuàng)業(yè)的風(fēng)口浪尖。在這樣的背景下,加強(qiáng)國(guó)際合作是十分可取的,一方面,諸如《維也納道路交通公約》《海牙交通事故公約》等相關(guān)國(guó)際協(xié)議需要修改。另一方面,需要針對(duì)機(jī)器人和人工智能尋求并確立新的國(guó)際標(biāo)準(zhǔn),以促進(jìn)其更好地造福于人類(lèi)。
手機(jī)掃碼閱讀
當(dāng)前,人工智能不僅是以互聯(lián)網(wǎng)為首的產(chǎn)業(yè)界競(jìng)相追逐的對(duì)象,而且是世界范圍內(nèi)的公共政策熱議的焦點(diǎn)。無(wú)論是產(chǎn)業(yè)界領(lǐng)袖發(fā)出生存危機(jī)等擔(dān)憂,還是政府針對(duì)人工智能的法律、倫理、社會(huì)影響等問(wèn)題頻發(fā)官方報(bào)告,抑或是學(xué)術(shù)界對(duì)人工智能歧視、偏見(jiàn)、不公正、責(zé)任等問(wèn)題的熱議,都足以表明,人們?cè)谌斯ぶ悄艿谌伟l(fā)展浪潮之際,對(duì)人工智能對(duì)人類(lèi)社會(huì)影響的擔(dān)憂幾乎超過(guò)了對(duì)以往任何科技(包括原子核技術(shù))的擔(dān)憂。
2017年1月,人工智能研究機(jī)構(gòu)Future of Life Institute召集人工智能、法律、倫理、哲學(xué)等領(lǐng)域眾多專(zhuān)家和學(xué)者召開(kāi)2017阿西洛馬會(huì)議(2017 Asilomar conference),并形成了23條AI原則,作為AI研究、開(kāi)發(fā)和利用的指南,截至目前,已經(jīng)有接近1000名人工智能研究人員為這些原則背書(shū)。而在此前,美國(guó)白宮、英國(guó)、IEEE、斯坦福大學(xué)(即AI100)等都嘗試出臺(tái)AI指南,確保人工智能以符合人類(lèi)社會(huì)規(guī)范的方式運(yùn)作,并服務(wù)于人類(lèi)利益。此外,政府和企業(yè)背書(shū)并提供研究資金支持的人工智能法律、倫理等研究項(xiàng)目也在不斷增多。如前所述,歐盟等國(guó)家和地區(qū)針對(duì)機(jī)器人、人工智能或者自動(dòng)駕駛汽車(chē)、無(wú)人機(jī)等特殊人工智能系統(tǒng)的立法和監(jiān)管也在緊鑼密鼓地進(jìn)行著。
國(guó)外和國(guó)際上所有這些討論、研究、指南和立法都有助于幫助人們更好地認(rèn)知人工智能技術(shù)對(duì)諸如法律、道德、價(jià)值、稅收、收入分配、教育、就業(yè)等人類(lèi)社會(huì)制度的影響,但是,正如對(duì)所有新興技術(shù)的恐慌和擔(dān)憂一樣,對(duì)人工智能的擔(dān)憂和規(guī)制也不能走過(guò)了頭,以免法律等規(guī)則成為阻礙人工智能創(chuàng)新和發(fā)展的桎梏。在這方面,美國(guó)白宮的人工智能報(bào)告就明智地認(rèn)識(shí)到,現(xiàn)在就對(duì)人工智能進(jìn)行廣泛的監(jiān)管是不可取的。一方面,沒(méi)必要進(jìn)行激進(jìn)的監(jiān)管變革,另一方面,在必要性的前提下,以及在充分考慮人工智能的影響的基礎(chǔ)上,對(duì)人工智能進(jìn)行漸進(jìn)式監(jiān)管。