郝家杰
(西北政法大學(xué) 涉外法治研究中心,陜西 西安 710063)
新一代信息技術(shù)取得巨大進(jìn)步,但伴隨而生的人工智能“黑匣子”問(wèn)題使得人們無(wú)法理解和運(yùn)用人工智能系統(tǒng),以致于在監(jiān)管方面受限,尤其是在國(guó)際合作方面存在極大阻力。為此,在學(xué)界、企業(yè)、機(jī)構(gòu)層面乃至政府組織層面亟需建立可解釋的人工智能,這也逐漸發(fā)展為以人為中心的人工智能重要研究板塊,比如,部分國(guó)際會(huì)議如International Conference on Machine Learning(簡(jiǎn)稱ICML)、Conference and Workshop on Neural Information Processing Systems(簡(jiǎn)稱NeurIPS)等會(huì)議將可解釋的人工智能納入研討會(huì)的討論主題中。目前,由于“黑匣子”問(wèn)題轉(zhuǎn)向可解釋的人工智能已是大勢(shì)所趨,亦對(duì)以人為中心的人工智能提出前瞻性挑戰(zhàn)。人工智能可解釋性的意義不僅在于證明其決策結(jié)果的合理性,使人們可以明智而果斷地行動(dòng),更在于監(jiān)控因數(shù)據(jù)偏差導(dǎo)致的道德問(wèn)題和違規(guī)行為,為其提供更好的機(jī)制進(jìn)行監(jiān)管或其他目的。為此,本文擬從比較法的視角出發(fā)討論美國(guó)、歐盟以及中國(guó)人工智能監(jiān)管政策發(fā)展現(xiàn)狀及人工智能治理未來(lái)走向,總結(jié)因技術(shù)缺陷產(chǎn)生的可解釋性問(wèn)題,結(jié)合各國(guó)國(guó)情,對(duì)人工智能國(guó)際合作監(jiān)管理念的塑造與監(jiān)管機(jī)制的構(gòu)建提出可行性建議。
從全球范圍分析,各國(guó)人工智能發(fā)展的戰(zhàn)略博弈愈發(fā)清晰明了——將可解釋性作為人工智能研發(fā)的一項(xiàng)基本原則用以指導(dǎo)國(guó)家政策,以此應(yīng)對(duì)因人工智能技術(shù)引發(fā)的潛在風(fēng)險(xiǎn);與此同時(shí),為避免人工智能技術(shù)對(duì)社會(huì)結(jié)構(gòu)、社會(huì)風(fēng)險(xiǎn)帶來(lái)的沖擊和人工智能重復(fù)監(jiān)管導(dǎo)致監(jiān)管資源配置不均衡的尷尬局面,迫切需要各國(guó)政府將人工智能技術(shù)監(jiān)管體系的構(gòu)建融入到主權(quán)國(guó)家之間或區(qū)域性國(guó)際組織的人工智能發(fā)展戰(zhàn)略布局之中,平衡創(chuàng)新發(fā)展與規(guī)制需求,以此競(jìng)逐監(jiān)管實(shí)踐創(chuàng)新的主導(dǎo)地位。比如,2017年4月,美國(guó)國(guó)防部高級(jí)研究計(jì)劃署(Defense Advanced Research Projects Agency,簡(jiǎn)稱DARPA)啟動(dòng)了“可解釋的人工智能” (Explainable Artificial Intelligence,簡(jiǎn)稱XAI)項(xiàng)目,旨在提高AI系統(tǒng)的可解釋性;同年5月,XAI計(jì)劃正式開(kāi)始。有11個(gè)研究小組被選中,開(kāi)發(fā)可解釋學(xué)習(xí)(TA1),另一個(gè)小組則被選中開(kāi)發(fā)解釋的心理學(xué)模型。2018年5月,歐洲聯(lián)盟(European Union,簡(jiǎn)稱EU)發(fā)布了《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,簡(jiǎn)稱GDPR),提出了公民“解釋權(quán)”的概念,規(guī)定歐盟公民有權(quán)檢查所享受的特定服務(wù)是如何依據(jù)特定的算法決策作出的,強(qiáng)制要求人工智能算法對(duì)其提供明確解釋。2019年6月,我國(guó)國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布的《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》提出“人工智能系統(tǒng)應(yīng)不斷提升透明性、可解釋性、可靠性、可控性,逐步實(shí)現(xiàn)可審核、可監(jiān)督、可追溯、可信賴”,這是我國(guó)首個(gè)官方發(fā)布的人工智能治理框架和行動(dòng)指南,而“可解釋”便是其中的要求之一。
自2017年以來(lái),全球已有30多個(gè)國(guó)家和地區(qū)提出優(yōu)先發(fā)展人工智能的國(guó)家戰(zhàn)略,爭(zhēng)相投身于人工智能全球競(jìng)爭(zhēng)行列。關(guān)于人工智能可解釋性的國(guó)際規(guī)則及標(biāo)準(zhǔn)亟需完善,并且國(guó)家間需要通過(guò)互利合作方能補(bǔ)齊發(fā)展短板,消除分歧,以此滿足國(guó)際合作、共同進(jìn)步、共同發(fā)展。因此,不少關(guān)于人工智能的倡議應(yīng)運(yùn)而生,比如國(guó)際倡議、國(guó)際論壇以及國(guó)際標(biāo)準(zhǔn)等紛紛響應(yīng),將有關(guān)人工智能的議題納入?yún)f(xié)議之中,逐步推動(dòng)人工智能國(guó)際合作。比如,《二十國(guó)集團(tuán)(G20)國(guó)家人工智能戰(zhàn)略》系列報(bào)告中,第一份報(bào)告于2018年公布于世,闡述了12個(gè)國(guó)家的國(guó)家戰(zhàn)略;2022年,第二份報(bào)告《G20.AI:國(guó)家戰(zhàn)略,全球雄心》隨之問(wèn)世,概述了G20國(guó)家的人工智能發(fā)展戰(zhàn)略。IP5,由來(lái)自中國(guó)、美國(guó)、日本、韓國(guó)和歐盟的5個(gè)世界上最大的知識(shí)產(chǎn)權(quán)局論壇推動(dòng)人工智能知識(shí)產(chǎn)權(quán)保護(hù)和國(guó)際合法性,促進(jìn)人工智能技術(shù)的應(yīng)用和創(chuàng)新。
1.1.1 雙邊合作相互協(xié)調(diào)
近年來(lái),美國(guó)、英國(guó)、法國(guó)、日本等國(guó)家陸續(xù)加強(qiáng)交流,促進(jìn)國(guó)家之間的人工智能合作。如,2020年9月,美國(guó)同英國(guó)正式簽署《人工智能研究與開(kāi)發(fā)合作宣言》,試圖通過(guò)加強(qiáng)人工智能協(xié)同合作的方式,確保雙方在人工智能合作發(fā)展方面能夠規(guī)劃優(yōu)先事項(xiàng)。同年10月23日,日本與英國(guó)在東京正式簽署《全面經(jīng)濟(jì)伙伴關(guān)系協(xié)定》(EPA),允許數(shù)據(jù)跨國(guó)自由流動(dòng),此舉使得英日歐的數(shù)字經(jīng)濟(jì)有趨向一致的可能性。由此觀之,各國(guó)目前意識(shí)到雙邊合作的方式可作為人工智能國(guó)際合作發(fā)展的一條重要路徑。
1.1.2 多邊合作全面聯(lián)動(dòng)
2019年5月22日,經(jīng)濟(jì)合作與發(fā)展組織經(jīng)(OECD)批準(zhǔn)了全球首個(gè)政府間人工智能標(biāo)準(zhǔn)——《OECD人工智能原則》,確立5項(xiàng)基本原則、5項(xiàng)公共政策以及國(guó)際合作建議。37個(gè)經(jīng)濟(jì)合作與發(fā)展組織成員國(guó)及5個(gè)非成員國(guó)參與,涉及AI標(biāo)準(zhǔn)和原則、數(shù)據(jù)共享、研發(fā)合作、數(shù)字基礎(chǔ)設(shè)施等倡議內(nèi)容。同年5月25日,《人工智能北京共識(shí)》針對(duì)人工智能的研發(fā)、使用、治理三方面,提出了系統(tǒng)的人工智能治理原則,有助于實(shí)現(xiàn)對(duì)人類和自然有益的人工智能。同年8月,美國(guó)、歐盟以及日本等國(guó)相繼加入首個(gè)全球人工智能合作伙伴組織(Global Partnership on AI, 簡(jiǎn)稱GPAI),旨在基于共同價(jià)值觀,推動(dòng)負(fù)責(zé)任、以人為本的人工智能發(fā)展。2021年,美國(guó)人工智能國(guó)家安全委員會(huì)通過(guò)的《人工智能最終報(bào)告》提出,加強(qiáng)與盟友的合作發(fā)展,提升人工智能創(chuàng)新潛力和應(yīng)用能力。美國(guó)高頻率聯(lián)動(dòng)英國(guó)、G7、G20等國(guó)家或國(guó)際組織,試圖主導(dǎo)全球人工智能技術(shù)標(biāo)準(zhǔn)和價(jià)值原則。
另外,在倫理層面,歐盟委員會(huì)的人工智能高級(jí)專家組(High-Level Expert Group on Artificial Intelligence, AI HLEG)于2018年12月發(fā)布了《可信人工智能倫理指南草案》(Ethics Guidelines for Trustworthy AI),該指南提出一個(gè)可信人工智能框架將可解釋性作為可信人工智能的4個(gè)倫理原則之一。2021年11月25日,聯(lián)合國(guó)教科文組織正式通過(guò)全球首份有關(guān)人工智能倫理問(wèn)題的具有廣泛共識(shí)的協(xié)議《人工智能倫理問(wèn)題建議書》(Recommendation on the Ethics of Artificial Intelligence),提出了十大原則之一,“透明度和可解釋性”,以此確保人權(quán)、基本自由和倫理原則得到尊重、保護(hù)和促進(jìn)。
中美歐三方利益體均考慮到人工智能的不透明性和不可解釋性等特征,采取的人工智能監(jiān)管方向趨向一致,僅在創(chuàng)新與監(jiān)管的傾向上各有權(quán)重,并且希望繼續(xù)保持監(jiān)管路徑的獨(dú)有特色[1]。
自從2015年美國(guó)國(guó)防高級(jí)研究計(jì)劃局(DARPA)提出XAI研究項(xiàng)目以來(lái),XAI已日漸成為人工智能領(lǐng)域的重要研究方向,通過(guò)采取輕監(jiān)管、促創(chuàng)新的發(fā)展路徑,允許個(gè)人和企業(yè)自主發(fā)展,確?!岸嗬嫦嚓P(guān)方”自由參與的美國(guó)價(jià)值觀。
歐盟則注重通過(guò)可解釋性原則指導(dǎo)具體立法和嚴(yán)格監(jiān)管以降低潛在風(fēng)險(xiǎn),彰顯注重保障個(gè)人權(quán)利等歐盟基本價(jià)值觀。
2021年9月25日,中國(guó)新一代人工智能治理專業(yè)委員會(huì)發(fā)布了《新一代人工智能倫理規(guī)范》,旨在將透明性和可解釋性等在內(nèi)的多項(xiàng)倫理道德要求融入人工智能全生命周期,凸顯“人類命運(yùn)共同體”理念,整合多元主體價(jià)值觀的差異,以確保人工智能有益于人類和自然,協(xié)調(diào)人工智能技術(shù)的創(chuàng)新發(fā)展與監(jiān)管規(guī)制。
近年來(lái),人工智能技術(shù)在世界范圍內(nèi)的發(fā)展日新月異,全球各國(guó)紛紛響應(yīng),通過(guò)指導(dǎo)人工智能政策,加速各行各業(yè)智能化、數(shù)據(jù)化、數(shù)字化轉(zhuǎn)型。與此同時(shí),囿于人工智能技術(shù)可解釋性要求,諸多新型負(fù)面影響隨之產(chǎn)生,如滯后的監(jiān)管理念無(wú)法適應(yīng)新環(huán)境、新的社會(huì)性風(fēng)險(xiǎn)、監(jiān)管資源供需不均衡等問(wèn)題亟待解決,以此完善未來(lái)深度學(xué)習(xí)的可解釋性研究。
從全球發(fā)展趨勢(shì)來(lái)看,人工智能技術(shù)的開(kāi)發(fā)和應(yīng)用得到迅速發(fā)展,將深刻改變?nèi)藗兊纳罘绞健H欢?由于人工智能解釋性要求的落實(shí)難以滿足,人工智能產(chǎn)品、技術(shù)問(wèn)題與人類普世價(jià)值觀存在一定分歧,這是意識(shí)形態(tài)領(lǐng)先現(xiàn)實(shí)世界的必然結(jié)果,終將導(dǎo)致決策者陷入創(chuàng)新發(fā)展與審慎監(jiān)管的困局。監(jiān)管規(guī)制與創(chuàng)新需求之間相互制約又相互促進(jìn)。監(jiān)管規(guī)制介入潛在利益相關(guān)方的時(shí)機(jī)是個(gè)較為棘手的難題:其一,過(guò)早監(jiān)管可能不利于創(chuàng)新,甚至阻礙創(chuàng)新,在一定程度上破壞人工智能給人類社會(huì)帶來(lái)的潛在巨大好處。其二,放縱創(chuàng)新也可能繞過(guò)監(jiān)管,將技術(shù)帶入歧途,增加人類社會(huì)和經(jīng)濟(jì)風(fēng)險(xiǎn)。針對(duì)早期有關(guān)人工智能的監(jiān)管理念仍處于起步階段,且相關(guān)政策如歐盟《通用數(shù)據(jù)保護(hù)條例》第22條在技術(shù)創(chuàng)新與監(jiān)管規(guī)制之間存在失衡。滯后的監(jiān)管理念可能會(huì)限制“新”的人工智能技術(shù)創(chuàng)新發(fā)展,甚至加深“人機(jī)沖突”的尷尬局面。隨著時(shí)間的推移,監(jiān)管理念亦需審時(shí)度勢(shì),與智能化、數(shù)字化的社會(huì)相適應(yīng),與時(shí)俱進(jìn)[2]。
人工智能行業(yè)的創(chuàng)新成果大量涌現(xiàn),人們?cè)谙硎苋斯ぶ悄芗t利的同時(shí),社會(huì)不穩(wěn)定風(fēng)險(xiǎn)因素伴隨而生,正如“我們無(wú)法真正預(yù)測(cè)未來(lái),因?yàn)榭萍及l(fā)展并不會(huì)帶來(lái)確定的結(jié)果”[3],給人類社會(huì)帶來(lái)全新的挑戰(zhàn)。
2.2.1 隱私問(wèn)題
人工智能隱私問(wèn)題一直是各界、各國(guó)以及國(guó)際社會(huì)的關(guān)注焦點(diǎn)。人工智能技術(shù)通過(guò)大數(shù)據(jù)采集和算法運(yùn)用等技術(shù)來(lái)記錄每個(gè)人的日常行為軌跡,使得個(gè)人隱私無(wú)法得到有效保護(hù)。為此,可解釋的人工智能終將成為保障用戶個(gè)人隱私相關(guān)權(quán)益的前提[4]?,F(xiàn)代社會(huì)的工作和生活愈發(fā)離不開(kāi)人工智能,諸如,學(xué)校、車站和機(jī)場(chǎng)等公共場(chǎng)所遍布監(jiān)控設(shè)備用以采集人像資料,并且個(gè)人手機(jī)存在的眾多APP同樣會(huì)廣泛搜集個(gè)人信息,這使得用戶隱私無(wú)處遁形。除此以外,在法律層面,大數(shù)據(jù)時(shí)代的個(gè)人信息數(shù)據(jù)保護(hù)問(wèn)題存在法律空白或泛化規(guī)則,關(guān)于隱私保護(hù)的相關(guān)法律規(guī)制也遠(yuǎn)遠(yuǎn)滯后于人工智能技術(shù)的更新迭代。
2.2.2 倫理風(fēng)險(xiǎn)
由于人工智能可解釋性要求無(wú)法落地,人工智能系統(tǒng)在抉擇困境中面臨難題。進(jìn)入大數(shù)據(jù)時(shí)代,人工智能的可解釋性問(wèn)題相較于以往沒(méi)有靈性的機(jī)器人而言,人工智能可通過(guò)深度學(xué)習(xí)模擬出人的智性、靈性和心性,進(jìn)而取代人類一些重復(fù)性工作,營(yíng)造一種“人機(jī)協(xié)作”的社會(huì)氛圍。然而,人工智能技術(shù)卻隱含著諸多不確定性因素,在無(wú)形中引發(fā)了價(jià)值權(quán)衡等倫理風(fēng)險(xiǎn)[5]。即便人工智能技術(shù)可解釋性要求無(wú)法滿足,一些關(guān)于倫理的前瞻性立法卻可先行繞過(guò)可解釋性問(wèn)題,從而使人工智能有益于人類和自然。在具體設(shè)計(jì)人工智能監(jiān)管體系框架時(shí),人工智能系統(tǒng)會(huì)陷入價(jià)值權(quán)衡的兩難困境之中,比如,當(dāng)人工智能行車駕駛路遇行人闖紅燈時(shí),它是遵循生命健康至上原則停車等待還是遵守交通規(guī)則“紅燈不停車”?由此觀之,抉擇時(shí)刻的價(jià)值權(quán)衡將會(huì)是人工智能技術(shù)推廣普行中亟待解決的倫理挑戰(zhàn)。
各國(guó)政府雖然出臺(tái)了不少有關(guān)人工智能監(jiān)管的指導(dǎo)性政策,但由于人工智能技術(shù)蓬勃發(fā)展以及可解釋性問(wèn)題無(wú)法解決,監(jiān)管機(jī)構(gòu)的協(xié)調(diào)性以及監(jiān)管規(guī)范的合理性在現(xiàn)代社會(huì)中難以靈活適用。
2.3.1 監(jiān)管機(jī)構(gòu)重疊
毫無(wú)疑問(wèn),各國(guó)政府若能對(duì)人工智能系統(tǒng)的每一個(gè)決策作出合理解釋,人工智能的合理監(jiān)管造福于國(guó)際社會(huì)將是題中之意。然而,監(jiān)管規(guī)范的制定并非輕易完成,其中需要考慮多方綜合因素。人工智能涵蓋一系列多維度、多視角、多領(lǐng)域的范疇,近乎所有關(guān)于機(jī)器學(xué)習(xí)和數(shù)據(jù)的領(lǐng)域都可被認(rèn)為屬于人工智能范疇。質(zhì)言之,人工智能涉及范圍之廣,若在缺乏倫理道德要求的情況下,統(tǒng)一監(jiān)管無(wú)法短時(shí)間形成,其原因在于可能需要花費(fèi)大量時(shí)間對(duì)人工智能系統(tǒng)輸出的每一個(gè)決策提供合理解釋。因此,監(jiān)管機(jī)構(gòu)的統(tǒng)一性有助于對(duì)人工智能發(fā)展提供清晰明確的監(jiān)管指導(dǎo),協(xié)調(diào)各監(jiān)管機(jī)構(gòu)之間的交流,同時(shí)加強(qiáng)其與被監(jiān)管者之間的溝通,有效避免重復(fù)監(jiān)管的尷尬局面。倘若監(jiān)管機(jī)構(gòu)與被監(jiān)管者之間缺乏共識(shí),必將加深雙方的顧慮和誤解,進(jìn)一步激化雙方存在的分歧。
2.3.2 監(jiān)管資源浪費(fèi)
囿于深入的高層交流和統(tǒng)一的頂層設(shè)計(jì),政府無(wú)法提供合理的人工智能監(jiān)管政策指引,監(jiān)管標(biāo)準(zhǔn)無(wú)法統(tǒng)一、監(jiān)管職權(quán)不明以及監(jiān)管機(jī)構(gòu)臃腫等現(xiàn)象隨之產(chǎn)生。不僅如此,虛耗的監(jiān)管資源配置同樣無(wú)法落在實(shí)處。目前,各國(guó)政府關(guān)于人工智能的政策尚處于空白領(lǐng)域或規(guī)則泛化的情形,各監(jiān)管機(jī)構(gòu)可能在監(jiān)管重疊范圍內(nèi)虛耗大量監(jiān)管資源。因此,提升監(jiān)管效率將是各國(guó)政府間監(jiān)管合作的重要議題。
國(guó)際制度能降低談判成本,為機(jī)制化解決國(guó)際合作監(jiān)管問(wèn)題提供交流平臺(tái)。質(zhì)言之,通過(guò)處理可解釋性問(wèn)題以完善人工智能技術(shù),或許是目所能及的最優(yōu)解之一,但大數(shù)據(jù)、生物識(shí)別、區(qū)塊鏈等新一代信息技術(shù)的蓬勃發(fā)展,誘發(fā)的多種負(fù)面因素使得可解釋性要求難以滿足,各國(guó)政府自然需要對(duì)人工智能國(guó)際合作監(jiān)管規(guī)范進(jìn)行科學(xué)的頂層設(shè)計(jì),重塑人工智能監(jiān)管理念,構(gòu)成與人工智能可解釋性要求相適的監(jiān)管體系。
鑒于人工智能的發(fā)展已經(jīng)涉及到全球各個(gè)國(guó)家、地區(qū)、組織等多方層面,關(guān)系錯(cuò)綜復(fù)雜,并且人工智能技術(shù)是一種待完善的高新技術(shù),伴隨而生的部分問(wèn)題難以解決,如可解釋性的要求。因此,以解決可解釋性問(wèn)題為導(dǎo)向,協(xié)調(diào)多方利益關(guān)系的監(jiān)管理念自然成為人工智能國(guó)際合作的共同訴求。具體包括以下3種監(jiān)管理念:
3.1.1 “協(xié)調(diào)性”監(jiān)管理念
在信息大爆炸的現(xiàn)代社會(huì),技術(shù)、政策、知識(shí)、風(fēng)險(xiǎn)等具有全球化特征,正因如此,人工智能技術(shù)的治理需要多領(lǐng)域、多部門、多維度乃至多國(guó)共同參與。人工智能國(guó)際合作監(jiān)管需要協(xié)調(diào)各利益相關(guān)方,通過(guò)重塑理念引導(dǎo)國(guó)家之間的動(dòng)態(tài)協(xié)同,積極推動(dòng)區(qū)域性組織或全球性機(jī)構(gòu)等進(jìn)行交流與協(xié)作,降低可解釋性難題引起的具有世界波及性的潛在風(fēng)險(xiǎn)[6]。
3.1.2 “包容性”監(jiān)管理念
人工智能技術(shù)是一種待完善的新興技術(shù),正如美國(guó)DARPA關(guān)于可解釋人工智能的報(bào)告所言,可解釋性要求的發(fā)展進(jìn)程十分緩慢。因此,當(dāng)前最重要的是鼓勵(lì)技術(shù)創(chuàng)新,秉持“包容性”理念,給予可解釋性人工智能技術(shù)創(chuàng)新容錯(cuò)的空間,同時(shí)施加相應(yīng)懲罰規(guī)制作為補(bǔ)充。
3.1.3 “開(kāi)放性”監(jiān)管理念
人工智能的技術(shù)發(fā)展需要全球相關(guān)利益方高度協(xié)作,其可解釋性問(wèn)題需要世界各國(guó)取長(zhǎng)補(bǔ)短,協(xié)同解決。倡導(dǎo)“開(kāi)放性”監(jiān)管理念,集合各國(guó)智慧與經(jīng)驗(yàn),及時(shí)調(diào)整監(jiān)管政策和監(jiān)管制度共同促進(jìn)技術(shù)發(fā)展,進(jìn)而構(gòu)建相關(guān)利益方之間的平等對(duì)話、技術(shù)交流。
目前,國(guó)內(nèi)外立法嘗試從數(shù)據(jù)、風(fēng)險(xiǎn)等方面對(duì)人工智能的可解釋性進(jìn)行規(guī)制,提出對(duì)技術(shù)應(yīng)用、隱私保護(hù)、倫理道德、法律法規(guī)等維度進(jìn)行體系化研究,統(tǒng)籌推進(jìn)立法監(jiān)管,構(gòu)建完善的可解釋性監(jiān)管規(guī)制體系。
3.2.1 健全立法引領(lǐng)
有觀點(diǎn)認(rèn)為技術(shù)應(yīng)用能解決一切問(wèn)題,著重強(qiáng)調(diào)技術(shù)的絕對(duì)性。眾所周知,技術(shù)應(yīng)用不可能潔白無(wú)瑕。未來(lái)的人工智能治理需要“硬性的立法指引”和“柔性的技術(shù)標(biāo)準(zhǔn)”協(xié)同推進(jìn)?!傲⒎ㄖ敢毙枰獙?duì)人工智能的總體布局作出概括性引領(lǐng),旨在監(jiān)管人工智能技術(shù)適用的基礎(chǔ),而“技術(shù)標(biāo)準(zhǔn)”的國(guó)際統(tǒng)一和兼容則是監(jiān)管人工智能技術(shù)應(yīng)用的前提[7]。因此,可在立法與標(biāo)準(zhǔn)層面尋求突破。首先,在立法層面積極借鑒國(guó)際規(guī)則和經(jīng)驗(yàn),深入研究人工智能新情況新場(chǎng)景,推動(dòng)區(qū)域性國(guó)際組織、國(guó)際聯(lián)盟等利益相關(guān)方共同參與全球人工智能規(guī)則制定;其次,通過(guò)規(guī)范國(guó)際標(biāo)準(zhǔn),聯(lián)動(dòng)國(guó)際組織在國(guó)際標(biāo)準(zhǔn)方面的合作,尋求共識(shí),推動(dòng)形成“國(guó)際標(biāo)準(zhǔn)頂層設(shè)計(jì)引導(dǎo),國(guó)際組織高頻率協(xié)作,國(guó)際技術(shù)標(biāo)準(zhǔn)協(xié)同推進(jìn)”的良好局面。
3.2.2 細(xì)化監(jiān)管規(guī)范
建議積極加強(qiáng)各類標(biāo)準(zhǔn)規(guī)范,不斷完善國(guó)際層面的監(jiān)管法律法規(guī),以其靈活性的特質(zhì)對(duì)倫理、隱私等問(wèn)題作出細(xì)致安排,推動(dòng)人工智能發(fā)展規(guī)則落地,保障人權(quán):其一,倫理方面。人工智能倫理治理的實(shí)施難點(diǎn)之一,就是構(gòu)建可行的人工智能倫理監(jiān)管準(zhǔn)則,有效避免“人工智能倫理與可解釋性要求撞車”的尷尬局面,發(fā)展易懂的可信人工智能[8],比如,2017年12月,電氣與電子工程師協(xié)會(huì)(IEEE)發(fā)布《合倫理設(shè)計(jì)》報(bào)告,在五條倫理原則中,第四條即為透明性,指出透明性意味著可以發(fā)展人工智能系統(tǒng)如何、為何做出某個(gè)特定的決策。同時(shí),IEEE強(qiáng)調(diào)透明性對(duì)不同的利益相關(guān)者有著不同的內(nèi)涵,對(duì)于用戶來(lái)說(shuō),透明性意味著它為用戶提供某種簡(jiǎn)單的方式,用以理解人工智能系統(tǒng)正在做什么,以及為何這樣做。其二,隱私方面。建議各國(guó)充分尊重和保護(hù)隱私權(quán),考慮按照國(guó)際法準(zhǔn)則制定監(jiān)管法律法規(guī),完善個(gè)人信息等方面的數(shù)據(jù)保護(hù)法規(guī),充分考量侵犯女性以及兒童隱私權(quán)的救濟(jì)[9]。
3.2.3 基于風(fēng)險(xiǎn)的監(jiān)管規(guī)制體系
人工智能帶給人類眾多福祉的同時(shí),也可能產(chǎn)生潛在風(fēng)險(xiǎn)。對(duì)人工智能進(jìn)行有效的風(fēng)險(xiǎn)防控和法治化應(yīng)對(duì)成為當(dāng)務(wù)之急。第一,技術(shù)合規(guī)。技術(shù)完善是人工智能系統(tǒng)風(fēng)險(xiǎn)防控的基礎(chǔ)和前提。人工智能系統(tǒng)的風(fēng)險(xiǎn)多半是因技術(shù)滯后等問(wèn)題產(chǎn)生。因此,建議政府專業(yè)部門、業(yè)界人員等權(quán)威專家共同制定技術(shù)合規(guī)標(biāo)準(zhǔn)以適應(yīng)技術(shù)創(chuàng)新發(fā)展,并且大力發(fā)展人工智能、區(qū)塊鏈等新技術(shù),與時(shí)俱進(jìn);第二,風(fēng)險(xiǎn)分級(jí)分類監(jiān)管規(guī)制。風(fēng)險(xiǎn)無(wú)法完全根除,但可轉(zhuǎn)而對(duì)其進(jìn)行適度處理,采取風(fēng)險(xiǎn)分級(jí)分類監(jiān)管方式,平衡創(chuàng)新發(fā)展與規(guī)制需要。比如,2021年4月21日歐盟發(fā)布了《人工智能法案》,這是世界范圍內(nèi)第一份綜合性人工智能法案,為人工智能治理提供“硬法”支持。該法案采取風(fēng)險(xiǎn)分級(jí)方法,突出人工智能治理的道德優(yōu)勢(shì),其中分為四類風(fēng)險(xiǎn)分級(jí)方法,分別是不可接受的風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)和最低風(fēng)險(xiǎn),對(duì)以上不同風(fēng)險(xiǎn)級(jí)別的人工智能系統(tǒng)采取不同的限制措施。
在全球發(fā)展治理中,充分考慮各國(guó)人工智能監(jiān)管的基礎(chǔ)條件、相關(guān)政策的發(fā)展?fàn)顩r以及全球競(jìng)爭(zhēng)情況等,努力識(shí)別監(jiān)管機(jī)制的現(xiàn)存缺陷;通過(guò)倡導(dǎo)新型共識(shí)性合作、搭建算法治理平臺(tái)和法律與技術(shù)的綜合運(yùn)用,逐步減輕各國(guó)監(jiān)管負(fù)擔(dān),填補(bǔ)利益相關(guān)方的合作空白,真正建立全球化服務(wù)平臺(tái),擴(kuò)散機(jī)制。具體而言:其一,推動(dòng)國(guó)際社會(huì)在一些根本性原則和道德倫理要求上達(dá)成共識(shí),努力創(chuàng)造一個(gè)具有共識(shí)性的治理決策機(jī)制[10];其二,算法、模型等解釋方法的創(chuàng)新適用,有利于滿足人工智能可解釋性要求,因此,積極推動(dòng)開(kāi)展持續(xù)、明確的多邊算法合作,確保人工智能技術(shù)的穩(wěn)步創(chuàng)新[11];其三,技術(shù)控制是風(fēng)險(xiǎn)防范的基礎(chǔ)和前提,法律控制又為技術(shù)發(fā)展提供法治保障,二者結(jié)合共同提升智能化、數(shù)字化的市場(chǎng)監(jiān)管便利[12]。
堅(jiān)持國(guó)際視野、全球思維和全球化道路,以問(wèn)題為導(dǎo)向,秉持協(xié)同主義監(jiān)管理念強(qiáng)化國(guó)際合作,呼吁世界各國(guó)搭建全球化服務(wù)平臺(tái),促進(jìn)國(guó)際交流,廣泛組織人工智能國(guó)際合作。鑒于單一化發(fā)展的局限與不足,通過(guò)借助國(guó)際合作的監(jiān)管機(jī)制和平臺(tái),重塑人工智能國(guó)際合作的監(jiān)管理念,形成一套與可解釋性要求相適應(yīng)的監(jiān)管體系,突破監(jiān)管困境。伴隨大數(shù)據(jù)、云計(jì)算和區(qū)塊鏈等新技術(shù)革命浪潮,各界有必要思考人工智能時(shí)代可解釋性問(wèn)題的可行性解決方案。人工智能行業(yè)的未來(lái)發(fā)展離不開(kāi)多舉措、多維度、長(zhǎng)周期的跨越式國(guó)際合作監(jiān)管。