朱力宇 胡曉凡
科學(xué)技術(shù)作為一柄“雙刃劍”,有利有害,這是世人皆知的常識(shí)性共識(shí)。隨著人工智能和云計(jì)算的快速發(fā)展,如何確保人工智能向善、造福人類,已成為全球幾乎每個(gè)國家都面臨的議題。2018年10月31日,習(xí)近平總書記在中共中央政治局第九次集體學(xué)習(xí)時(shí)強(qiáng)調(diào):“要加強(qiáng)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判和防范,維護(hù)人民利益和國家安全,確保人工智能安全、可靠、可控。要整合多學(xué)科力量,加強(qiáng)人工智能相關(guān)法律、倫理、社會(huì)問題研究,建立健全保障人工智能健康發(fā)展的法律法規(guī)、制度體系、倫理道德?!?《習(xí)近平主持中共中央政治局第九次集體學(xué)習(xí)并講話》,載中華人民共和國中央人民政府門戶網(wǎng)站2018年10月31日, http://www.gov.cn/xinwen/2018-10/31/content_5336251.htm。由于人工智能動(dòng)態(tài)發(fā)展的特點(diǎn)及不同國家和地區(qū)發(fā)展水平的差異,保證人工智能的發(fā)展符合法律和倫理要求離不開國際合作,所以國務(wù)院于2017年在《新一代人工智能發(fā)展規(guī)劃》中明確指出,積極參與人工智能全球治理,加強(qiáng)人工智能重大國際共性問題研究,深化在人工智能法律法規(guī)等方面的國際合作。2參見國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》,國發(fā)〔2017〕35號(hào),2017年7月8日發(fā)布。
在此背景下,亟需從全球視角統(tǒng)籌協(xié)調(diào)國家以及國際和區(qū)域性組織之間關(guān)于人工智能倫理的政策和法律3有關(guān)國家的法律和政策,如德國2002年頒布的《聯(lián)邦數(shù)據(jù)保護(hù)法》、美國聯(lián)邦政府2016年發(fā)布的《國家人工智能研發(fā)戰(zhàn)略計(jì)劃》、英國政府2017年發(fā)布的《發(fā)展英國人工智能產(chǎn)業(yè)》報(bào)告等;有關(guān)區(qū)域性國際組織的法律和政策,如歐盟2018年頒布的《通用數(shù)據(jù)保護(hù)條例》(GDPR)、歐盟2019年4月發(fā)布的《人工智能倫理準(zhǔn)則》等。,制定出一套國際社會(huì)普遍認(rèn)可且能有效應(yīng)對(duì)人工智能倫理問題的準(zhǔn)則。聯(lián)合國教育、科學(xué)及文化組織(UNESCO,以下簡稱聯(lián)合國教科文組織)正是制定這一準(zhǔn)則的權(quán)威機(jī)構(gòu)。它充分發(fā)揮全球性、多元化的優(yōu)勢(shì),借鑒長期制定科技倫理規(guī)則的經(jīng)驗(yàn),歷時(shí)兩年左右,于2021年批準(zhǔn)通過了《人工智能倫理問題建議書》(以下簡稱《建議書》)?!督ㄗh書》體現(xiàn)了人工智能與人權(quán)的緊密關(guān)聯(lián),為在數(shù)字世界確立充分尊重人權(quán)和法治的原則及行動(dòng)奠定了國家間的合作基礎(chǔ)。
本文旨在通過梳理《建議書》制定的背景、過程和主要內(nèi)容,分析其重要意義、作用與亮點(diǎn),總結(jié)我國對(duì)《建議書》形成作出的貢獻(xiàn);以此為基礎(chǔ),借鑒《建議書》中相關(guān)價(jià)值觀和原則的啟示,進(jìn)一步推動(dòng)我國在人工智能倫理領(lǐng)域的立法和政策實(shí)施,實(shí)現(xiàn)國際社會(huì)和我國人工智能倫理治理的融合發(fā)展。
聯(lián)合國教科文組織中期戰(zhàn)略強(qiáng)調(diào),制定有關(guān)準(zhǔn)則和標(biāo)準(zhǔn)是其重要的職能之一。4參見聯(lián)合國教科文組織《2014—2021年中期戰(zhàn)略》,37 C/4,2013年,第12段,https://unesdoc.unesco.org/ark:/48223/pf0000227860_chi。值得注意的是,聯(lián)合國教科文組織在《建議書》出臺(tái)后的《2022—2029年中期戰(zhàn)略》(41 C/4)中明確提到,它將在聯(lián)合國系統(tǒng)中牽頭開展人工智能倫理問題方面的工作,一方面在《建議書》的框架下制定國際規(guī)范和準(zhǔn)則,另一方面將為有意落實(shí)這項(xiàng)建議書的成員國提供政策制定和能力建設(shè)活動(dòng)支持。聯(lián)合國教科文組織在生物倫理和科技倫理領(lǐng)域進(jìn)行了持續(xù)的思考,就人類基因組與人權(quán)、生物倫理與人權(quán)等領(lǐng)域的科技倫理問題提出了許多規(guī)范性建議。5這些建議包括《世界人類基因組與人權(quán)宣言》(1997年)、《世界生物倫理與人權(quán)宣言》(2005年)、《與氣候變化有關(guān)的倫理原則宣言》(2017年)以及《關(guān)于科學(xué)和科學(xué)研究人員的建議書》(2017年)等。參見聯(lián)合國教科文組織:《關(guān)于擬訂人工智能倫理問題準(zhǔn)則性文書之適宜性的技術(shù)和法律方面的初步研究》,206 EX/42,2019年,第5段,https://unesdoc.unesco.org/ark:/48223/pf0000367422_chi?!督ㄗh書》是聯(lián)合國教科文組織從全球?qū)用嫣岢龅牡谝徊拷鉀Q人工智能倫理困境的準(zhǔn)則性文書1See UNESCO Member States Adopt the First Ever Global Agreement on the Ethics of Artifi cial Intelligence, para. 1, UNESCO (25 November 2021), https://www.unesco.org/en/articles/unesco-member-states-adopt-fi rst-ever-globalagreement-ethics-artifi cial-intelligence.,為有關(guān)科技工作者和人權(quán)學(xué)者提供了研究的倫理“指南針”和“路線圖”。
聯(lián)合國教科文組織及其世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)(COMEST)和國際生物倫理委員會(huì)(IBC)十分關(guān)注人工智能的發(fā)展,多年來持續(xù)探尋起草人工智能倫理框架的可行性。由聯(lián)合國教科文組織舉辦的人工智能倫理相關(guān)會(huì)議2早在2017年,聯(lián)合國教科文組織國際生物倫理委員會(huì)和世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)就對(duì)人工智能進(jìn)行了討論思考,并通過了《大數(shù)據(jù)與健康》以及《機(jī)器人倫理》的報(bào)告;2018年,聯(lián)合國教科文組織主辦了一系列與人工智能倫理有關(guān)的會(huì)議;2019年3月,聯(lián)合國教科文組織舉行以人工智能和可持續(xù)發(fā)展為重點(diǎn)的“人工智能的原則:采用人文主義方法?”全球會(huì)議和“教科文組織 2019 年移動(dòng)學(xué)習(xí)周”,進(jìn)一步推進(jìn)了上述思考;2019 年5月,人工智能與教育國際會(huì)議在北京舉行。參見聯(lián)合國教科文組織:《關(guān)于擬訂人工智能倫理問題準(zhǔn)則性文書之適宜性的技術(shù)和法律方面的初步研究》,206 EX/42,2019年,第4段,https://unesdoc.unesco.org/ark:/48223/pf0000367422_chi。,不僅為《建議書》的起草提供了思想與內(nèi)容的支持,而且確立了由聯(lián)合國教科文組織提出解決人工智能倫理問題方案的可行性和權(quán)威性。為了籌備和起草《建議書》的文本,聯(lián)合國教科文組織在充分征求成員國意見的基礎(chǔ)上組建了特設(shè)專家組(AHEG),并與相關(guān)組織緊密合作,出臺(tái)了一系列關(guān)于人工智能倫理的背景性文件,對(duì)“人工智能”的定義、人工智能與倫理的關(guān)系和人工智能倫理與人權(quán)的關(guān)系等進(jìn)行了全面且深入的研究闡釋。
世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)于2019年2月編寫的《人工智能倫理問題初步研究》(以下簡稱《初步研究》),定義了“人工智能”的內(nèi)涵,認(rèn)為人工智能在最寬泛層面上可以分為“理論型”或“科學(xué)型”以及“實(shí)用型”或“技術(shù)型”兩大類別3“理論型”或“科學(xué)型”人工智能指“使用人工智能的概念和模型來幫助回答與人類和其他生物相關(guān)的問題”,涉及形而上學(xué)或精神層面的問題,本身具有十分嚴(yán)肅的倫理內(nèi)涵;而“實(shí)用型”或“技術(shù)型”人工智能以工程學(xué)為導(dǎo)向,創(chuàng)造機(jī)器或程序,使其獨(dú)立執(zhí)行本需依靠人類的行動(dòng)。參見聯(lián)合國教科文組織:《關(guān)于擬訂人工智能倫理問題準(zhǔn)則性文書之適宜性的技術(shù)和法律方面的初步研究》,206 EX/42,2019年,附件《人工智能倫理問題初步研究》,第12—14段,https://unesdoc.unesco.org/ark:/48223/pf0000367422_chi。。而聯(lián)合國教科文組織最終采納的意見不再區(qū)分《建議書》草稿中的“科學(xué)型”及“技術(shù)型”人工智能,而是保留“人工智能系統(tǒng)”(AI system)這一廣義的表述。4UNESCO, Final Report by the Rapporteur of the Intergovernmental Meeting Related to a Draft Recommendation on the Ethics of Artificial Intelligence, SHS/IGM-AIETHICS/2021/JUN/INF.5 Rev. (2021), para. 10, https://unesdoc.unesco.org/ark:/48223/pf0000377572.因此,《建議書》中的“人工智能”定義在最大程度上涵蓋了人工智能的整個(gè)體系。
此外,由于人工智能倫理框架與人權(quán)有緊密的關(guān)聯(lián),所以聯(lián)合國教科文組織還從多學(xué)科、普遍性和整體性的角度出發(fā),在《初步研究》中指出了兩個(gè)現(xiàn)有的可供借鑒的人權(quán)框架和倡議。一個(gè)是2003年信息社會(huì)世界峰會(huì)(WSIS)通過的《日內(nèi)瓦原則宣言》所提出的倡議,即“人們?cè)谑褂眯畔⒑屯ㄐ偶夹g(shù)以及創(chuàng)造內(nèi)容時(shí),應(yīng)按照相關(guān)的國際法規(guī),尊重人權(quán)和他人的基本自由(包括個(gè)人隱私),尊重思想、信仰和宗教自由的權(quán)利”5World Summit on the Information Society, Declaration of Principles—Building the Information Society: A Global Challenge in the New Millenium, WSIS-03/GENEVA/DOC/4-C (2003), para. 58, http://www.itu.int/net/wsis/docs/geneva/official/dop.html.。此外,該宣言還提出應(yīng)重視多利益攸關(guān)方的合作。1Ibid., para. 19.另一個(gè)是2015年聯(lián)合國教科文組織大會(huì)第三十八屆會(huì)議批準(zhǔn)的“互聯(lián)網(wǎng)普遍性”框架(R.O.A.M.)原則2聯(lián)合國教科文組織:《“點(diǎn)點(diǎn)相連:未來行動(dòng)選擇”會(huì)議成果文件》,38 C/53,2015年,第8—9段,https://unesdoc.unesco.org/ark:/48223/pf0000234090_chi。,其涵蓋了人權(quán)、開放性、可獲取性和多利益攸關(guān)方參與等方面。在本屆會(huì)議的成果文件中,聯(lián)合國教科文組織承諾針對(duì)新興技術(shù)的現(xiàn)有影響及其潛在的社會(huì)影響,開展立足人權(quán)的倫理思考,促進(jìn)研究和公眾對(duì)話。3參見同上注,附件《成果文件》,第5.1段。
《建議書》以上述兩個(gè)框架為基礎(chǔ),考察了教育、科學(xué)知識(shí)、文化多樣性、傳播等領(lǐng)域的人工智能倫理問題4參見聯(lián)合國教科文組織:《關(guān)于擬訂人工智能倫理問題準(zhǔn)則性文書之適宜性的技術(shù)和法律方面的初步研究》,206 EX/42,2019年,附件《人工智能倫理問題初步研究》, https://unesdoc.unesco.org/ark:/48223/pf0000367422_chi。,提出了人工智能倫理的價(jià)值觀和原則。結(jié)合這些價(jià)值觀和原則,《建議書》對(duì)于人工智能運(yùn)用于不同的政策領(lǐng)域的情況提出了具體的建議與政策行動(dòng)指引。
2019年3月,聯(lián)合國教科文組織執(zhí)行局第二〇六屆會(huì)議通過《關(guān)于擬訂人工智能倫理問題準(zhǔn)則性文書之適宜性的技術(shù)和法律方面的初步研究》,對(duì)就科技倫理和生物倫理方面專門知識(shí)擬定文書的必要性以及文書形式、擬定時(shí)間安排等進(jìn)行了闡釋。2019年12月,聯(lián)合國教科文組織大會(huì)第四十屆會(huì)議通過了擬定關(guān)于人工智能倫理的國際準(zhǔn)則文書的決議,并確定文書形式為“建議書”5聯(lián)合國教科文組織:《關(guān)于擬訂人工智能倫理問題準(zhǔn)則性文書之適宜性的技術(shù)和法律方面的初步研究》,206 EX/42,2019年,第14段, https://unesdoc.unesco.org/ark:/48223/pf0000367422_chi。而非“公約”或“宣言”。2020年2月,聯(lián)合國教科文組織總干事公布了人工智能倫理問題特設(shè)專家組成員。同年4月,聯(lián)合國教科文組織召開特設(shè)專家組首次會(huì)議,擬定了《建議書》第一份草案;同年8月,第二份草案形成。2021年4月,政府間專家特別委員會(huì)第一次會(huì)議召開,在兩份草案的基礎(chǔ)上擬定了《建議書》的最終文本,并于2021年11月由聯(lián)合國教科文組織大會(huì)第四十一屆會(huì)議審議通過。
《建議書》基于聯(lián)合國教科文組織及其相關(guān)委員會(huì)對(duì)“人工智能”的定義及人工智能與倫理關(guān)系的探討,圍繞與算法透明度、問責(zé)制和隱私相關(guān)的問題,提出了人工智能發(fā)展涉及的價(jià)值觀與原則,構(gòu)建了涉及人工智能數(shù)據(jù)管理、教育、文化、勞工、醫(yī)療保健、經(jīng)濟(jì)等多個(gè)領(lǐng)域的倫理框架。價(jià)值觀問題是《建議書》確立的倫理規(guī)范的核心,也是采納《建議書》中政策行動(dòng)領(lǐng)域的每項(xiàng)決定和構(gòu)建人工智能倫理相關(guān)的法律框架的基本道德依據(jù);同時(shí),《建議書》提出的各項(xiàng)原則也更具體地闡明了這種價(jià)值觀??傮w而言,《建議書》是通過這些相互依存的價(jià)值觀、原則和行動(dòng)構(gòu)成的倫理框架來防止人工智能對(duì)人的尊嚴(yán)與福祉的損害。
《建議書》旨在提供使人工智能系統(tǒng)造福人類、個(gè)人、社會(huì)、環(huán)境和生態(tài)系統(tǒng)的基礎(chǔ),同時(shí)防止其可能產(chǎn)生的危害,促進(jìn)人工智能系統(tǒng)的和平利用;其目標(biāo)是“在全球現(xiàn)有人工智能倫理框架之外,再提供一部全球公認(rèn)的準(zhǔn)則性文書,不僅注重闡明價(jià)值觀和原則”,而且在著重強(qiáng)調(diào)包容、性別平等以及環(huán)境和生態(tài)系統(tǒng)保護(hù)等原則的同時(shí),著力于通過具體的政策建議切實(shí)落實(shí)這些價(jià)值觀和原則。1參見聯(lián)合國教科文組織:《人工智能倫理問題建議書》,SHS/BIO/REC-AIETHICS/2021,2021年,第5—6段,https://unesdoc.unesco.org/ark:/48223/pf0000380455_chi。毫無疑義,上述宗旨和目標(biāo)蘊(yùn)含并彰顯了人工智能倫理與人權(quán)保障的關(guān)系。
《建議書》從以下幾個(gè)方面分層次提出了與人權(quán)相關(guān)的人工智能倫理價(jià)值觀:尊重、保護(hù)和促進(jìn)人權(quán)和基本自由以及人的尊嚴(yán),促進(jìn)環(huán)境和生態(tài)系統(tǒng)蓬勃發(fā)展,確保多樣性和包容性,以及人們生活在和平、公正與互聯(lián)的社會(huì)中。上述價(jià)值觀的核心可以分為以下三個(gè)部分。
首先,《建議書》重申了與人權(quán)保障有關(guān)的基本價(jià)值觀,即“每個(gè)人與生俱來且不可侵犯的尊嚴(yán),構(gòu)成了人權(quán)和基本自由這一普遍、不可分割、不可剝奪、相互依存又彼此相關(guān)的體系的基礎(chǔ)。……人的尊嚴(yán)系指承認(rèn)每個(gè)人固有和平等的價(jià)值”2同上注,第13段。。因此,尊重、保護(hù)和促進(jìn)包括國際人權(quán)法在內(nèi)的國際法確立的人的尊嚴(yán)和權(quán)利,在人工智能系統(tǒng)的整個(gè)生命周期內(nèi)都至關(guān)重要。
其次,《建議書》創(chuàng)新地提出了保障全人類人權(quán)免受人工智能不利影響的價(jià)值觀,即“在人工智能系統(tǒng)生命周期的任何階段,任何人或人類社群在身體、經(jīng)濟(jì)、社會(huì)、政治、文化或精神等任何方面,都不應(yīng)受到損害或被迫居于從屬地位。在人工智能系統(tǒng)的整個(gè)生命周期內(nèi),人類生活質(zhì)量都應(yīng)得到改善,而‘生活質(zhì)量’的定義只要不侵犯或踐踏人權(quán)和基本自由或人的尊嚴(yán),應(yīng)由個(gè)人或群體來決定”3同上注,第14段。。
最后,《建議書》還特別提出了防止某些特定群體人權(quán)免受人工智能不利影響的價(jià)值觀,即當(dāng)人與人工智能系統(tǒng)互動(dòng)、接受其提供的幫助時(shí),例如照顧兒童、老年人、殘障人士或病人等弱勢(shì)者或處境脆弱的群體時(shí),“人絕不應(yīng)被物化,其尊嚴(yán)不應(yīng)以其他任何方式受到損害,人權(quán)和基本自由也不應(yīng)受到侵犯或踐踏”4同上注,第15段。。
《建議書》重申或創(chuàng)造性地提出的以上價(jià)值觀,在應(yīng)對(duì)人工智能系統(tǒng)不斷發(fā)展過程中產(chǎn)生的新型倫理問題方面發(fā)揮著重要作用。這些新型倫理問題包括但不限于人工智能對(duì)決策、就業(yè)和勞動(dòng)、教育、媒體、信息獲取、數(shù)字鴻溝、個(gè)人數(shù)據(jù)和消費(fèi)者保護(hù)、環(huán)境及人權(quán)和基本自由(包括表達(dá)自由、隱私和非歧視)等的影響。
由于人工智能系統(tǒng)有能力完成此前只有生物才能完成,甚至在有些情況下只有人類才能完成的任務(wù),因此人工智能系統(tǒng)在人類的社會(huì)實(shí)踐中以及在人類與環(huán)境和生態(tài)系統(tǒng)的關(guān)系中具有重大且深遠(yuǎn)的創(chuàng)新作用。但是《建議書》同時(shí)也指出,“從長遠(yuǎn)看,人工智能系統(tǒng)可能挑戰(zhàn)人類特有的對(duì)于經(jīng)驗(yàn)和能動(dòng)作用的感知”,在人類的自我認(rèn)知,與社會(huì)、文化和環(huán)境的互動(dòng),以及自主性、能動(dòng)性、價(jià)值和尊嚴(yán)等方面可能出現(xiàn)有害的結(jié)果,并引發(fā)人們更多的關(guān)切。1參見同上注,第2(c)段。因此,本文著重強(qiáng)調(diào)的是保障全人類人權(quán)及某些特定群體人權(quán)免受人工智能不利影響的價(jià)值觀。
《建議書》基于上述價(jià)值觀確立的原則包括:相稱性和不損害;安全和安保;公平和非歧視;可持續(xù)性;隱私權(quán)和數(shù)據(jù)保護(hù);人類的監(jiān)督和決定;透明度和可解釋性;責(zé)任和問責(zé);認(rèn)識(shí)和素養(yǎng);以及多利益攸關(guān)方與適應(yīng)性治理和協(xié)作。2參見同上注,第25—47段。可以說,《建議書》確立的這十項(xiàng)原則,都直接或間接與人權(quán)、人權(quán)保障和法治有關(guān)。《建議書》在該部分的總領(lǐng)段落著重強(qiáng)調(diào),這些原則可能對(duì)人權(quán)和基本自由施加限制,而任何相關(guān)的限制必須具有合法基礎(chǔ),而且必須合理、必要和相稱,符合各國依據(jù)國際法所承擔(dān)的義務(wù)。要做到明智而審慎地處理這些情況,通常需要運(yùn)用倫理盡職調(diào)查和影響評(píng)估等措施,并且確保出現(xiàn)超過該必要和相稱性標(biāo)準(zhǔn)的行為時(shí),能夠向相應(yīng)的主體追責(zé)。因此,本文主要以相稱性和不損害原則,以及責(zé)任和問責(zé)原則為例加以闡釋。
“相稱性”和“不損害”是《建議書》中“Proportionality”和“Do No Harm”術(shù)語的中文譯文。該原則在行政法學(xué)中也被稱為比例原則,包含適當(dāng)性、必要性和狹義的比例原則三項(xiàng)子原則。適當(dāng)性子原則指所采取的措施必須運(yùn)用正確的手段,并且能夠?qū)崿F(xiàn)行政目的或至少有助于行政目的達(dá)成。必要性子原則指在已滿足適當(dāng)性要求后,在能達(dá)成法律目的的諸方式中,應(yīng)選擇對(duì)人的權(quán)利侵害最小的方式。狹義的比例原則,是指權(quán)衡方法與目的之關(guān)系后,采取與其所達(dá)到的目的更合比例或相稱的措施。3參見馬懷德主編:《行政法與行政訴訟法》,中國法制出版社2007年版,第54—56頁。就此而言,《建議書》將確定的原則稱為相稱性和不損害原則,是頗為貼切的。根據(jù)上述原則,《建議書》要求成員國在遵守國際法的基礎(chǔ)上,通過修訂現(xiàn)行政策、法律或制定新的政策、法律,促進(jìn)價(jià)值觀和原則的實(shí)現(xiàn)。這為成員國在國內(nèi)立法中確立相稱性和不損害原則,以及考察人工智能限制或影響人的尊嚴(yán)、隱私的合法性提供了思路。4關(guān)于相稱性和不損害原則,本文還將結(jié)合“軟法”理論在下文進(jìn)一步闡釋。
責(zé)任與問責(zé)(Responsibility and Accountability)是《建議書》規(guī)定的另一重要原則。根據(jù)《建議書》出臺(tái)前的有關(guān)背景文件,對(duì)“責(zé)任”(responsibility)的法學(xué)理論理解至少有四種類型:角色責(zé)任、因果關(guān)系責(zé)任、法律責(zé)任和能力責(zé)任。對(duì)于《建議書》制定較為重要的兩類責(zé)任是因果關(guān)系責(zé)任和法律責(zé)任,前者將某一行為歸因于事件或原動(dòng)力(event or agent),將該事件或原動(dòng)力作為造成特定結(jié)果的原因;后者將某一結(jié)果歸因于事件或原動(dòng)力。1See UNESCO, Working Document: Toward a Draft Text of a Recommendation on the Ethics of Artificial Intelligence, SHS/BIO/AHEG-AI/2020/3 REV. (2020), para. 38, https://unesdoc.unesco.org/ark:/48223/pf0000373199; H.L.A. Hart, Punishment and Responsibility: Essays in the Philosophy of Law, 2nd Editon, Oxford University Press, 2008, p. 210-237.世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)將“責(zé)任”規(guī)定為“發(fā)展自動(dòng)化智能系統(tǒng)時(shí),技術(shù)開發(fā)者和公司需要考慮倫理因素”,將“問責(zé)”定義為“可以使人工智能驅(qū)動(dòng)的決策和人工智能系統(tǒng)行為的責(zé)任歸屬成為可能的制度安排”。2See UNESCO, Working Document: Toward a Draft Text of a Recommendation on the Ethics of Artificial Intelligence, SHS/BIO/AHEG-AI/2020/3 REV. (2020), para. 38, https://unesdoc.unesco.org/ark:/48223/pf0000373199.若人工智能行為者違反了相稱性和不損害等原則,或依據(jù)人工智能系統(tǒng)作出的決定造成了損害結(jié)果,則人工智能行為者需要根據(jù)國內(nèi)法和國際法,特別是成員國的人權(quán)義務(wù),以及在人工智能系統(tǒng)整個(gè)生命周期中的倫理規(guī)范來承擔(dān)相應(yīng)的責(zé)任。3參見聯(lián)合國教科文組織:《人工智能倫理問題建議書》,SHS/BIO/REC-AIETHICS/2021,2021年,第42—43段,https://unesdoc.unesco.org/ark:/48223/pf0000380455_chi。需要注意的是,《建議書》中提到了問責(zé)的主要情形是人工智能與人權(quán)規(guī)范和標(biāo)準(zhǔn)之間存在沖突,以及對(duì)環(huán)境和生態(tài)系統(tǒng)正常運(yùn)行造成威脅。為了有效實(shí)施問責(zé),需要從技術(shù)設(shè)計(jì)和制度設(shè)計(jì)兩方面確保人工智能系統(tǒng)的可審計(jì)和可追溯,并建立適當(dāng)?shù)谋O(jiān)督、影響評(píng)估、審計(jì)和盡職調(diào)查機(jī)制。
基于上述價(jià)值觀和原則,《建議書》規(guī)定了具體政策領(lǐng)域的內(nèi)容,以指導(dǎo)人工智能倫理的實(shí)踐。這些政策領(lǐng)域包括:1.倫理影響評(píng)估;2.倫理治理和管理;3.數(shù)據(jù)政策;4.發(fā)展與國際合作;5.環(huán)境和生態(tài)系統(tǒng); 6.性別;7.文化;8.教育和研究;9.傳播和信息;10.經(jīng)濟(jì)和勞動(dòng);11.健康和社會(huì)福祉。
上述領(lǐng)域的政策行動(dòng)是對(duì)《建議書》提出的價(jià)值觀和原則的具體落實(shí)。這些行動(dòng)要求成員國出臺(tái)政策或建立機(jī)制,并通過開展多種行動(dòng)確保私營部門公司、學(xué)術(shù)和研究機(jī)構(gòu)以及社會(huì)組織等其他利益攸關(guān)方遵守這些框架或機(jī)制。具體行動(dòng)包括:首先,在數(shù)據(jù)政策領(lǐng)域,《建議書》提議成員國依據(jù)國際法制定合理保護(hù)數(shù)據(jù)安全的立法框架,其保護(hù)需考量人工智能在實(shí)施行為或進(jìn)行決策過程中的數(shù)據(jù)使用與目標(biāo)的相稱性以及是否損害數(shù)據(jù)所有者的隱私權(quán)。該框架所規(guī)范的主要問題包括人工智能對(duì)數(shù)據(jù)處理的透明度、有效和實(shí)際的問責(zé)方案與機(jī)制、適當(dāng)程度的數(shù)據(jù)保護(hù)、切實(shí)有效的獨(dú)立監(jiān)督等。成員國需確保個(gè)人擁有的與隱私數(shù)據(jù)相關(guān)的權(quán)利受到倫理框架的保護(hù)。此外,《建議書》還提倡人工智能行為者在遵守現(xiàn)行國際標(biāo)準(zhǔn)的前提下,在系統(tǒng)設(shè)計(jì)中貫徹保護(hù)隱私的原則,并開展作為倫理影響評(píng)估之一的隱私影響評(píng)估。4參見同上注,第72—73段。
其次,在倫理治理和管理領(lǐng)域,《建議書》明確指出,成員國應(yīng)在人工智能系統(tǒng)生命周期的不同階段對(duì)倫理評(píng)估和監(jiān)管框架的內(nèi)容及結(jié)果實(shí)施問責(zé)制和責(zé)任制。在確定責(zé)任和問責(zé)時(shí),首先必須考慮到自然人或法人才是承擔(dān)人工智能最終責(zé)任和接受問責(zé)的主體,且“人工智能系統(tǒng)本身不應(yīng)被賦予法人資格”。因此,該監(jiān)管框架應(yīng)符合人類監(jiān)督原則,并在人工智能生命周期的不同階段均著眼于人工智能行為以及與行為相關(guān)的技術(shù)流程。此外,人工智能治理機(jī)制需要具備“包容、透明、多學(xué)科、多邊(包括跨界減輕損害和作出補(bǔ)救的可能性)和多利益攸關(guān)方等特性”,并且采取“包括預(yù)測(cè)、有效保護(hù)、監(jiān)測(cè)影響、執(zhí)行和補(bǔ)救等方面”的措施。為了保證人工智能本身的行為和結(jié)果在確定責(zé)任歸屬方面的準(zhǔn)確性,成員國應(yīng)在必要時(shí)出臺(tái)責(zé)任框架或?qū)ΜF(xiàn)有框架的解釋進(jìn)行澄清。1參見同上注,第68、54段。此外,在倫理影響評(píng)估這一政策領(lǐng)域,《建議書》提出,成員國應(yīng)出臺(tái)倫理影響評(píng)估框架,“以確定和評(píng)估人工智能系統(tǒng)的惠益、關(guān)切和風(fēng)險(xiǎn)”,包括成員國的人權(quán)法義務(wù),并“酌情出臺(tái)預(yù)防、減輕和監(jiān)測(cè)風(fēng)險(xiǎn)的措施以及其他保障機(jī)制”。通過評(píng)估,各國政府應(yīng)確立需采用的監(jiān)管框架和監(jiān)督機(jī)制,對(duì)算法、數(shù)據(jù)和設(shè)計(jì)流程進(jìn)行有效評(píng)價(jià),并對(duì)人工智能系統(tǒng)實(shí)施外部審查,確保其可審計(jì)性、可追溯性和可解釋性。這為在確定人工智能責(zé)任主體之后認(rèn)定傷害程度和歸責(zé)奠定了重要基礎(chǔ)。2參見同上注,第50、52、53段。
再次,在環(huán)境和生態(tài)系統(tǒng)領(lǐng)域,雖然《建議書》已經(jīng)提出了“促進(jìn)環(huán)境和生態(tài)系統(tǒng)蓬勃發(fā)展”的價(jià)值觀,3參見同上注,第17、18段。但沒有提出具體的實(shí)施建議,僅從宏觀層面規(guī)定了參與人工智能系統(tǒng)生命周期的所有行為者都必須遵守、適用有關(guān)旨在保護(hù)環(huán)境和促進(jìn)可持續(xù)發(fā)展的國際法以及國內(nèi)立法、標(biāo)準(zhǔn)和慣例?!督ㄗh書》在政策行動(dòng)領(lǐng)域又再次提到了環(huán)境和生態(tài)系統(tǒng),不僅從實(shí)踐層面著重強(qiáng)調(diào)國家和工商企業(yè)需要針對(duì)人工智能對(duì)環(huán)境產(chǎn)生的直接和間接影響開展評(píng)估,減少人工智能系統(tǒng)和數(shù)據(jù)基礎(chǔ)設(shè)施造成的環(huán)境影響;而且與相稱性原則結(jié)合,強(qiáng)調(diào)人工智能行為者應(yīng)根據(jù)相稱性原則使用數(shù)據(jù)節(jié)約型、能源節(jié)約型和資源節(jié)約型人工智能方法。若沒有適當(dāng)證據(jù)表明一項(xiàng)人工智能應(yīng)用程序?qū)a(chǎn)生這種預(yù)期效果,或一項(xiàng)人工智能應(yīng)用程序的附加保障措施可以為使用該應(yīng)用程序的合理性提供支撐,則必須遵循預(yù)防原則;若可能對(duì)環(huán)境造成極其嚴(yán)重的負(fù)面影響,不得使用人工智能。4參見同上注,第84—86段。
最后,在教育與研究領(lǐng)域,相關(guān)主體需要負(fù)責(zé)任地運(yùn)用人工智能技術(shù)以避免人工智能適用于教育領(lǐng)域可能產(chǎn)生的數(shù)據(jù)泄露或?yàn)E用的風(fēng)險(xiǎn)。具體而言,《建議書》規(guī)定,成員國應(yīng)鼓勵(lì)開展研究,探討如何“以負(fù)責(zé)任和合乎倫理的方式將人工智能技術(shù)應(yīng)用于教學(xué)、教師培訓(xùn)和電子學(xué)習(xí)等”領(lǐng)域,以“增加就業(yè)機(jī)會(huì),并減輕這一領(lǐng)域的挑戰(zhàn)和風(fēng)險(xiǎn)”?!叭斯ぶ悄軕?yīng)依照相關(guān)的個(gè)人數(shù)據(jù)保護(hù)標(biāo)準(zhǔn)支持學(xué)習(xí)過程,既不降低認(rèn)知能力,也不提取敏感信息”,不得濫用、挪用在學(xué)習(xí)者與人工智能系統(tǒng)互動(dòng)過程中收集到的數(shù)據(jù),也不得將這些數(shù)據(jù)用于犯罪目的或商業(yè)目的。5參見同上注,第104段。
如前所述,相較于其他關(guān)于人工智能倫理的規(guī)范框架,《建議書》的重大意義在于其全球性,即為世界各國制定人工智能相關(guān)的規(guī)范提供了統(tǒng)一參考,并促使利益攸關(guān)方在國際社會(huì)之間和不同文化之間對(duì)話的基礎(chǔ)上共同承擔(dān)責(zé)任,由此保證數(shù)字轉(zhuǎn)型促進(jìn)人權(quán)發(fā)展,推動(dòng)實(shí)現(xiàn)可持續(xù)發(fā)展目標(biāo)。
《建議書》還依據(jù)人工智能倫理,從動(dòng)態(tài)包容的角度提出應(yīng)對(duì)人工智能已知和未知影響的建議。1參見聯(lián)合國教科文組織:《關(guān)于人工智能倫理問題建議書草案文本的最后報(bào)告》,SHS/IGM-AIETHICS/2021/APR/INF.1,2021年,第24段,https://unesdoc.unesco.org/ark:/48223/pf0000376712_chi。已有學(xué)者指出,不同于網(wǎng)絡(luò)的普遍性及網(wǎng)絡(luò)規(guī)范標(biāo)準(zhǔn)的統(tǒng)一性,人工智能處于動(dòng)態(tài)發(fā)展的狀態(tài),且難以預(yù)測(cè)技術(shù)影響。這一特點(diǎn)更易引發(fā)深層次的倫理問題,并且導(dǎo)致國家、團(tuán)體缺少遵循統(tǒng)一標(biāo)準(zhǔn)的動(dòng)力。2參見趙駿、李婉貞:《人工智能對(duì)國際法的挑戰(zhàn)及其應(yīng)對(duì)》,載《浙江大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版)》2020年第2期,第20頁。因此,發(fā)展和運(yùn)用人工智能應(yīng)遵循的原則及倫理準(zhǔn)則需要始終以保護(hù)人的尊嚴(yán)、人權(quán)和福祉為目標(biāo),并且需要確立在技術(shù)進(jìn)步的同時(shí)能夠靈活調(diào)整現(xiàn)有框架的機(jī)制,以確保上述目標(biāo)在發(fā)展中得以實(shí)現(xiàn)?!督ㄗh書》提出的人工智能倫理框架即具有此種靈活性與動(dòng)態(tài)性。
同時(shí),《建議書》也與聯(lián)合國及其他國際組織制定的人工智能倫理框架有效地保持了一致,例如與經(jīng)濟(jì)合作與發(fā)展組織及二十國集團(tuán)等國際組織已經(jīng)制定的有關(guān)框架在內(nèi)容和宗旨方面保持了一致。作為聯(lián)合國規(guī)范科技倫理的重要文書,這種一致性不僅有力地推動(dòng)了各種框架形成協(xié)同增效,也擴(kuò)大了《建議書》的影響力。
筆者認(rèn)為,《建議書》至少有兩個(gè)亮點(diǎn)。亮點(diǎn)之一在于其內(nèi)容?!督ㄗh書》不僅從理論層面提出了人工智能倫理的價(jià)值觀和原則,而且從實(shí)踐角度緊密契合聯(lián)合國教科文組織所關(guān)注的重點(diǎn)領(lǐng)域,提出了落實(shí)這些價(jià)值觀和原則的具體政策行動(dòng)。例如,《建議書》將人工智能關(guān)注的總體優(yōu)先事項(xiàng)——性別平等作為一個(gè)獨(dú)立的政策領(lǐng)域提出,并且關(guān)注了環(huán)境和生態(tài)系統(tǒng)保護(hù),以及中低收入國家的人工智能發(fā)展情況。3參見聯(lián)合國教科文組織:《關(guān)于人工智能倫理問題建議書草案文本的最后報(bào)告》,SHS/IGM-AIETHICS/2021/APR/INF.1,2021年,第21段, https://unesdoc.unesco.org/ark:/48223/pf0000376712_chi。而上述領(lǐng)域往往被類似性質(zhì)的其他科技倫理框架所忽視。聯(lián)合國教科文組織總干事在《建議書》發(fā)布會(huì)上表示:在《建議書》批準(zhǔn)通過后,聯(lián)合國教科文組織將持續(xù)推進(jìn)務(wù)實(shí)的評(píng)估落地工作,呼吁各成員國政府、民眾和企業(yè)等行動(dòng)起來踐行《建議書》中的價(jià)值觀和原則;目前已有二十余個(gè)成員國表明態(tài)度,將根據(jù)《建議書》開啟對(duì)本國相關(guān)領(lǐng)域的評(píng)估。4參見田瑞穎、張雙虎:《人工智能倫理邁向全球共識(shí)新征程》,載《中國科學(xué)報(bào)》2021年12月23日,第3版。
亮點(diǎn)之二在于《建議書》的形式及其“軟法”性質(zhì)。依據(jù)《組織法第 IV 條第 4 款所述向成員國提出建議書和國際公約之程序規(guī)則》以及《制定、審查、通過與跟進(jìn)大會(huì)通過的宣言、章程及類似標(biāo)準(zhǔn)制定文書的多階段程序規(guī)范》的規(guī)定,聯(lián)合國教科文組織有權(quán)通過大會(huì)制定宣言、建議書或公約。1See UNESCO, Rules of Procedure concerning Recommendations to Member States and International Conventions Covered by the Terms of Article IV, Paragraph 4, of the Constitution, Art. 1, https://www.unesco.org/en/legalaffairs/rules-procedure-cr; Multi-Stage Procedure for the Elaboration, Examination, Adoption and Follow-Up of Declarations, Charters and Similar Standard-Setting Instruments Adopted by the General Conference, Stage 3, UNESCO (9 November 2022), https://www.unesco.org/en/legal-affairs/standard-setting/procedure-declarationsgenconf.在人工智能倫理領(lǐng)域,相較于形式固定且具有約束力的公約,建議書可以根據(jù)人工智能發(fā)展進(jìn)行靈活調(diào)整,有利于促使成員國就發(fā)展前景尚不明確或利益有所區(qū)別的問題達(dá)成一致。并且,相較于概括抽象的宣言,建議書的形式更加具體,符合初步確立人工智能倫理規(guī)則階段的現(xiàn)實(shí)情形,更易于為各國所接受。
此外,由《建議書》的形式可知,其屬于“軟法”范疇?!败浄ā彪m然不具有法律約束力,但被視為生命科技領(lǐng)域國際規(guī)范形成的最佳形式選擇。2參見郝靜:《生命倫理問題的國際軟法規(guī)制》,載《理論與現(xiàn)代化》2015年第2期,第50頁?!败浄ā毙偷慕ㄗh書緩解了各國歷史文化、倫理道德、宗教傳統(tǒng)與國際法律規(guī)范之間的巨大沖突,漸進(jìn)式地推動(dòng)國家在自己能力所及的范圍內(nèi),針對(duì)進(jìn)一步完善人工智能倫理規(guī)則作出承諾,可以為人工智能倫理規(guī)則在將來發(fā)展為習(xí)慣國際法奠定基礎(chǔ)。3參見聯(lián)合國教科文組織:《關(guān)于擬訂人工智能倫理問題準(zhǔn)則性文書之適宜性的技術(shù)和法律方面的初步研究》,206 EX/42,2019年,附件《人工智能倫理問題初步研究》,第104段,https://unesdoc.unesco.org/ark:/48223/pf0000367422_chi。需要注意的是,《建議書》的最終目的仍是希望通過指導(dǎo)各國制定與該專題有關(guān)的立法、政策或其他文書,將某些具有“軟法”性質(zhì)的建議轉(zhuǎn)化為具有“硬法”性質(zhì)的法律,或公共和私營部門在人工智能方面的具體行動(dòng)。
總之,《建議書》是第一部從倫理視角約束人工智能發(fā)展應(yīng)用的國際性規(guī)范文件。雖然是“軟法”,但是《建議書》為未來將人工智能倫理規(guī)則由勸導(dǎo)性、鼓勵(lì)性轉(zhuǎn)向制度性、強(qiáng)制性奠定了基礎(chǔ)。
中國作為聯(lián)合國教科文組織的成員國,積極參與《建議書》的制定及磋商過程,為《建議書》的價(jià)值觀、原則和有關(guān)建議的確立貢獻(xiàn)了中國智慧和力量。例如,中國科學(xué)院自動(dòng)化研究所中英人工智能倫理與治理研究中心主任、國家新一代人工智能治理專委會(huì)委員曾毅,作為聯(lián)合國教科文組織人工智能倫理問題特設(shè)專家組成員參與了《建議書》的起草,代表專家組向亞太地區(qū)各國政府專家代表宣講了《建議書》草案。同時(shí),曾毅還作為政府間磋商的中方代表參與磋商。4參見田瑞穎、張雙虎:《人工智能倫理邁向全球共識(shí)新征程》,載《中國科學(xué)報(bào)》2021年12月23日,第3版。
更為重要的是,在《建議書》出臺(tái)前,我國政府制定的有關(guān)人工智能的政策性文件也為《建議書》中人工智能倫理的價(jià)值觀、原則和政策的形成提供了重要參考。例如,我國國務(wù)院2017年發(fā)布的《新一代人工智能發(fā)展規(guī)劃》,作為聯(lián)合國教科文組織人工智能倫理問題特設(shè)專家組確定《建議書》主要宗旨的重要參考文件,被列入專家組工作文件附件五《需考慮的資料來源》的清單中。1See UNESCO, Working Document: Toward a Draft Text of a Recommendation on the Ethics of Artificial Intelligence, SHS/BIO/AHEG-AI/2020/3 REV. (2020), Annex 5, https://unesdoc.unesco.org/ark:/48223/pf0000373199.此外,我國關(guān)于人工智能倫理的政策性文件所確立的“和諧友好”以及“可持續(xù)性”原則,也通過曾毅委員的提議,部分或全部被采納為《建議書》中人工智能發(fā)展的倫理原則。曾毅委員指出,“和諧友好”原則是我國發(fā)展人工智能技術(shù)、規(guī)范人機(jī)關(guān)系、處理技術(shù)與社會(huì)關(guān)系以及共建人類命運(yùn)共同體的總體綱領(lǐng)。我國提議將“和諧共生”納入《建議書》的價(jià)值觀,意在強(qiáng)調(diào)謀求發(fā)展需要秉持和而不同、求同存異的思想。2參見田瑞穎、張雙虎:《人工智能倫理邁向全球共識(shí)新征程》,載《中國科學(xué)報(bào)》2021年12月23日,第3版。在談到“和諧友好”與“和諧共生”思想的關(guān)系時(shí),曾毅告訴記者:“‘和諧共生’的思想在由國家新一代人工智能治理專委會(huì)制定的《新一代人工智能治理原則》以及《新一代人工智能倫理規(guī)范》中以‘和諧友好’等形式和內(nèi)容體現(xiàn)相似表述,是我國發(fā)展人工智能技術(shù),處理技術(shù)與社會(huì)關(guān)系的總綱?!绷韰⒁姟栋l(fā)展負(fù)責(zé)任的人工智能:新一代人工智能治理原則發(fā)布》,載中華人民共和國科學(xué)技術(shù)部網(wǎng)站2019年6月17日,http://www.most.gov.cn/kjbgz/201906/t20190617_147107.html。最終,聯(lián)合國教科文組織雖未能直接采納“和諧共生”“人類命運(yùn)共同體”等提法,但在《建議書》中確立了“生活在和平、公正與互聯(lián)的社會(huì)中”的價(jià)值觀,即“人工智能系統(tǒng)在整個(gè)生命周期內(nèi)都有可能為所有生物之間及其與自然環(huán)境之間的互聯(lián)作出貢獻(xiàn)”3聯(lián)合國教科文組織:《人工智能倫理問題建議書》,SHS/BIO/REC-AIETHICS/2021,2021年,第22段,https://unesdoc.unesco.org/ark:/48223/pf0000380455_chi。,因此實(shí)際上部分保留并采納了“和諧共生”的核心內(nèi)涵。各國專家認(rèn)為,這是《建議書》融入非西方價(jià)值觀的重要體現(xiàn)。4參見田瑞穎、張雙虎:《人工智能倫理邁向全球共識(shí)新征程》,載《中國科學(xué)報(bào)》2021年12月23日,第3版。
相比之下,“可持續(xù)性”原則得到了聯(lián)合國教科文組織成員國更廣泛的接受與認(rèn)可??沙掷m(xù)發(fā)展目標(biāo)是我國新一代人工智能發(fā)展規(guī)劃的指導(dǎo)思想,也是聯(lián)合國及其專門機(jī)構(gòu)全球發(fā)展的共同愿景。5參見同上注;另參見國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》,國發(fā)〔2017〕35號(hào),2017年7月8日發(fā)布,第二部分“總體要求”之(一)。我國提議將“可持續(xù)性”作為人工智能倫理原則納入《建議書》,并密切關(guān)注將人工智能應(yīng)用于與可持續(xù)發(fā)展相關(guān)的目標(biāo)領(lǐng)域時(shí)可能產(chǎn)生的阻礙目標(biāo)實(shí)現(xiàn)的風(fēng)險(xiǎn)。最終,各成員國在擬定《建議書》時(shí)采納了“可持續(xù)性”原則,將其體現(xiàn)在“環(huán)境和生態(tài)系統(tǒng)蓬勃發(fā)展”這一人工智能倫理價(jià)值觀中,以及“環(huán)境和生態(tài)系統(tǒng)”的政策領(lǐng)域中,6參見聯(lián)合國教科文組織:《人工智能倫理問題建議書》,SHS/BIO/REC-AIETHICS/2021,2021年,第18、85段,https://unesdoc.unesco.org/ark:/48223/pf0000380455_chi。從而對(duì)人工智能在環(huán)境和生態(tài)系統(tǒng)領(lǐng)域賦能的實(shí)現(xiàn)和發(fā)展提出了具體建議。
目前,我國面臨的人工智能倫理治理的難題主要包含以下幾個(gè)方面:可控性和安全性,可靠性、精確性和穩(wěn)定性,可解釋性和透明度,以及問責(zé)追責(zé)的問題。針對(duì)上述問題,仍缺乏具體的人工智能倫理立法和規(guī)范。1參見宋婧:《人工智能倫理之爭》,載《中國電子報(bào)》2022年4月1日,第1版;金葉子:《中辦國辦發(fā)文加強(qiáng)科技倫理立法研究 壓實(shí)管理主體責(zé)任》,載《第一財(cái)經(jīng)日?qǐng)?bào)》2022年3月22日,第A02版。因此,需要繼續(xù)加強(qiáng)針對(duì)相關(guān)問題的研究,制定人工智能倫理相關(guān)的法律規(guī)范。在這一意義上,作為全球性的人工智能倫理準(zhǔn)則性文書,《建議書》為我國的人工智能倫理治理提供了值得借鑒的寶貴經(jīng)驗(yàn)與重要啟示。
我國于1993年頒布了《科學(xué)技術(shù)進(jìn)步法》,并于2021年對(duì)該法進(jìn)行了修訂。該法規(guī)定我國建立科技倫理委員會(huì),明確國家應(yīng)當(dāng)承擔(dān)完善科技倫理制度規(guī)范的責(zé)任,并規(guī)定了科學(xué)技術(shù)研究開發(fā)機(jī)構(gòu)和科學(xué)技術(shù)人員應(yīng)當(dāng)遵守的科技倫理規(guī)范。2例如,《科學(xué)技術(shù)進(jìn)步法》(2021年修訂)第103條、第51條、第67條、第82條。此外,我國還出臺(tái)了一系列政策性文件,推動(dòng)科技倫理治理取得積極進(jìn)展。2016年《國家信息化發(fā)展戰(zhàn)略綱要》鼓勵(lì)開發(fā)信息資源,同時(shí)要求確保社會(huì)化交易型數(shù)據(jù)可追溯、可恢復(fù)。此外,該綱要還要求加強(qiáng)信息采集管理和標(biāo)準(zhǔn)制定,提高信息資源準(zhǔn)確性、可靠性及可用性,依法保護(hù)個(gè)人隱私、企業(yè)商業(yè)秘密,確保國家安全。3《國家信息化發(fā)展戰(zhàn)略綱要》,2016年7月27日中共中央辦公廳、國務(wù)院辦公廳發(fā)布,第三部分“大力增強(qiáng)信息化發(fā)展能力”之(三),第10—12段。2017年《新一代人工智能發(fā)展規(guī)劃》規(guī)定了人工智能發(fā)展的指導(dǎo)思想、基本原則、重點(diǎn)任務(wù)、保障措施等,明確提出人工智能立法的三步走戰(zhàn)略4根據(jù)規(guī)劃,三步走戰(zhàn)略包括如下內(nèi)容:第一步,到2020年,“部分領(lǐng)域的人工智能倫理規(guī)范和政策法規(guī)初步建立”;第二步,到2025年,“初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評(píng)估和管控能力”;第三步,到2030年,“建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系”。參見國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》,國發(fā)〔2017〕35號(hào),2017年7月8日發(fā)布。,為人工智能產(chǎn)業(yè)發(fā)展提供了戰(zhàn)略高度的指引以及全方位的工作部署。在此基礎(chǔ)上,2019年6月,國家新一代人工智能治理專業(yè)委員會(huì)印發(fā)的《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》(以下簡稱《人工智能治理原則》),提出了人工智能治理需遵循的八項(xiàng)原則:和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理,5《發(fā)展負(fù)責(zé)任的人工智能:新一代人工智能治理原則發(fā)布》,載中華人民共和國科學(xué)技術(shù)部網(wǎng)站2019年6月17日,http://www.most.gov.cn/kjbgz/201906/t20190617_147107.html。為平衡科技發(fā)展和社會(huì)公平正義提供了重要的價(jià)值觀和原則考量。2021年9月,由國家新一代人工智能治理專業(yè)委員會(huì)印發(fā)的《新一代人工智能倫理規(guī)范》(以下簡稱《人工智能倫理規(guī)范》)再次強(qiáng)調(diào)了上述倫理原則,且新增“提升倫理素養(yǎng)”一項(xiàng),并針對(duì)在管理、研發(fā)、供應(yīng)和使用四個(gè)方面可能出現(xiàn)的倫理問題提出規(guī)制方案。6參見《新一代人工智能倫理規(guī)范》第3條、第4條,載中華人民共和國科學(xué)技術(shù)部網(wǎng)站2021年9月26日,http://www.most.gov.cn/kjbgz/202109/t20210926_177063.html。2021年12月,中央全面深化改革委員會(huì)第二十三次會(huì)議提出,建立科技倫理審查和監(jiān)督制度,提高科技倫理治理的法治水平。7參見《加強(qiáng)科技倫理治理務(wù)求“系統(tǒng)性”推進(jìn)》,載《經(jīng)濟(jì)參考報(bào)》2021年12月27日,第A01版。
2022年3月,中共中央辦公廳、國務(wù)院辦公廳聯(lián)合印發(fā)了《關(guān)于加強(qiáng)科技倫理治理的意見》(以下簡稱《科技倫理治理意見》)。作為我國“首個(gè)國家層面的科技倫理治理指導(dǎo)性文件”1參見胡喆、田曉航、張泉:《科技向善 造福人類——解讀〈關(guān)于加強(qiáng)科技倫理治理的意見〉》, 載新華網(wǎng)2022年3月31日, http://www.news.cn/politics/zywj/2022-03/31/c_1128521515.htm。,《科技倫理治理意見》以更加廣泛的“科技倫理治理”為主題,突出強(qiáng)調(diào)監(jiān)管與問責(zé),并系統(tǒng)化、全局化地總結(jié)了科技倫理規(guī)范和治理的舉措。此外,該意見還肯定了科技倫理治理的多元化主體,并鼓勵(lì)“自律”和“他律”相結(jié)合。2同上注;另參見《關(guān)于加強(qiáng)科技倫理治理的意見》,2022年3月20日中共中央辦公廳、國務(wù)院辦公廳發(fā)布。由于人工智能倫理是從屬于科技倫理的下位概念,所以該意見同樣適用于我國人工智能倫理治理領(lǐng)域。
除了上述政策性文件,人工智能侵犯隱私權(quán)的倫理問題規(guī)范還散見于我國已出臺(tái)的《網(wǎng)絡(luò)安全法》《個(gè)人信息保護(hù)法》等法律中。例如,《網(wǎng)絡(luò)安全法》禁止個(gè)人或組織利用網(wǎng)絡(luò)“侵害他人名譽(yù)、隱私、知識(shí)產(chǎn)權(quán)和其他合法權(quán)益”,并且規(guī)定“負(fù)有網(wǎng)絡(luò)安全監(jiān)督管理職責(zé)的部門及其工作人員……對(duì)在履行職責(zé)中知悉的個(gè)人信息、隱私和商業(yè)秘密嚴(yán)格保密”。3《網(wǎng)絡(luò)安全法》第12條、第45條。又如,《個(gè)人信息保護(hù)法》規(guī)定了“處理個(gè)人信息應(yīng)當(dāng)遵循合法、正當(dāng)、必要和誠信原則”,收集個(gè)人信息“應(yīng)當(dāng)限于實(shí)現(xiàn)處理目的的最小范圍”,并且“處理敏感個(gè)人信息”或“利用個(gè)人信息進(jìn)行自動(dòng)化決策”時(shí),需要事先進(jìn)行“個(gè)人信息保護(hù)影響評(píng)估”。4《個(gè)人信息保護(hù)法》第5條、第6條、第55條、第56條。但是應(yīng)該說,在人工智能和隱私權(quán)的領(lǐng)域,我國目前仍然缺乏人工智能倫理的專項(xiàng)立法和規(guī)范。
《建議書》的目標(biāo)之一,就是為各成員國提供人工智能倫理立法的指導(dǎo)。所以,作為聯(lián)合國教科文組織的重要成員國,我國有關(guān)政策的實(shí)施和立法應(yīng)該率先借鑒《建議書》提出的價(jià)值、原則、基本政策和具體建議,為世界各國作出示范。同時(shí),由于《建議書》從具體的政策行動(dòng)領(lǐng)域闡釋了人工智能倫理原則在實(shí)踐中的體現(xiàn),也啟發(fā)了我國在進(jìn)行人工智能倫理立法時(shí)需要結(jié)合國情,針對(duì)實(shí)踐中可能產(chǎn)生的問題加以考量。以下將對(duì)照本文第二部分具體列舉并闡釋的《建議書》之價(jià)值觀、原則及政策行動(dòng)領(lǐng)域,并與我國現(xiàn)行的人工智能倫理政策以及與人工智能相關(guān)的法律法規(guī)相對(duì)比,找出其與《建議書》的關(guān)聯(lián)與區(qū)別。主要分析對(duì)比的內(nèi)容為《建議書》確立的“相稱性與不損害”原則和“責(zé)任與問責(zé)”原則與我國科技和人工智能立法和人工智能倫理政策中的相關(guān)規(guī)定,以及這兩項(xiàng)原則在我國環(huán)境和教育有關(guān)的政策行動(dòng)領(lǐng)域之體現(xiàn)。
《建議書》中的相稱性和不損害原則在我國現(xiàn)行的人工智能倫理政策性文件中,特別是涉及數(shù)據(jù)保護(hù)的政策、法律文件中多有提及。相比于《建議書》,我國人工智能相關(guān)政策法律還需要將相稱性原則具體化,體現(xiàn)為正當(dāng)?shù)亍⒈匾厥占幚韨€(gè)人信息的原則,以保障個(gè)人隱私與數(shù)據(jù)安全。這符合我國數(shù)據(jù)安全和隱私權(quán)保護(hù)的特點(diǎn)和實(shí)際需要。例如,《人工智能倫理規(guī)范》第3條將尊重隱私作為人工智能倫理的原則之一,強(qiáng)調(diào)依照合法、正當(dāng)、必要和誠信原則處理個(gè)人信息。又如,《網(wǎng)絡(luò)安全法》第40條規(guī)定了運(yùn)營者對(duì)用戶信息的保密義務(wù)以及用戶信息保護(hù)制度;第41條規(guī)定,收集、使用個(gè)人信息應(yīng)當(dāng)遵循合法、正當(dāng)、必要的原則,明示收集、使用信息的目的、方式和范圍。但是,我國尚未通過立法構(gòu)建專項(xiàng)數(shù)據(jù)安全保護(hù)的倫理框架,仍需制定相應(yīng)的政策,并開展針對(duì)數(shù)據(jù)保護(hù)、人工智能數(shù)據(jù)處理透明度相關(guān)領(lǐng)域的隱私影響評(píng)估。
就責(zé)任與問責(zé)這一原則而言,我國《人工智能治理原則》對(duì)“責(zé)任”的規(guī)定與世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì)定義的“責(zé)任”涵義近似,強(qiáng)調(diào)人工智能技術(shù)開發(fā)者、使用者及其他相關(guān)方應(yīng)具有高度的社會(huì)責(zé)任感和自律意識(shí)。此外,《人工智能倫理規(guī)范》第3條提出應(yīng)建立人工智能問責(zé)機(jī)制,需要堅(jiān)持自然人或法人作為責(zé)任主體,明確各個(gè)利益攸關(guān)方的責(zé)任。同時(shí),在研發(fā)過程中,需要增強(qiáng)安全透明度,逐步實(shí)現(xiàn)人工智能系統(tǒng)的可驗(yàn)證、可審核、可監(jiān)督、可追溯、可預(yù)測(cè)及可信賴。該規(guī)定與《建議書》中倫理治理和管理這一政策領(lǐng)域的規(guī)定相同。然而,我國構(gòu)建人工智能問責(zé)機(jī)制的具體內(nèi)容和方式尚未明確,因此可以參照《建議書》,加入多利益攸關(guān)方、多邊、透明等特點(diǎn)的規(guī)定,并采納預(yù)測(cè)、有效保護(hù)、補(bǔ)救等措施。在初步構(gòu)建問責(zé)機(jī)制后,作為成員國,我國可通過出臺(tái)更具體的責(zé)任框架、行政法規(guī)或司法解釋進(jìn)一步補(bǔ)充或澄清其內(nèi)容。此外,《科技倫理治理意見》著重規(guī)范科技倫理管理體制和審查制度,同時(shí)也規(guī)范創(chuàng)新科技倫理管理的主體責(zé)任,明確了國家、地方和相關(guān)行業(yè)主管部門的職責(zé)與責(zé)任承擔(dān),對(duì)科技倫理違法違規(guī)行為依法追責(zé)問責(zé)。1參見《關(guān)于加強(qiáng)科技倫理治理的意見》,2022年3月20日中共中央辦公廳、國務(wù)院辦公廳發(fā)布。上述規(guī)定與《建議書》在倫理影響評(píng)估這一政策領(lǐng)域提出的人工智能倫理的監(jiān)管框架和監(jiān)督機(jī)制相似,但《建議書》強(qiáng)調(diào)形成該監(jiān)督框架前需要通過風(fēng)險(xiǎn)評(píng)估機(jī)制進(jìn)行評(píng)估,并對(duì)人工智能進(jìn)行審查和審計(jì)。所以,我國可以通過法律或行政法規(guī)細(xì)化風(fēng)險(xiǎn)評(píng)估的程序、主體、結(jié)果與影響,建立有效的人工智能倫理風(fēng)險(xiǎn)-收益評(píng)估模式(risk-benefi t assessment),評(píng)估數(shù)據(jù)密集型人工智能和僅需有限數(shù)據(jù)的人工智能對(duì)人權(quán)、環(huán)境和倫理的影響,以保證歸責(zé)的準(zhǔn)確性及有效性。
從政策行動(dòng)領(lǐng)域來看,《建議書》批準(zhǔn)通過后,人工智能倫理治理的原則在我國環(huán)境和生態(tài)系統(tǒng)領(lǐng)域以及教育與研究領(lǐng)域?qū)?huì)產(chǎn)生重要影響。本文第二部分曾經(jīng)提到,“環(huán)境和生態(tài)系統(tǒng)蓬勃發(fā)展”是《建議書》確立的指導(dǎo)人工智能倫理治理的重要價(jià)值觀之一,也是《建議書》闡釋的重要政策行動(dòng)領(lǐng)域。我國雖然將生態(tài)環(huán)境保護(hù)列入《人工智能倫理規(guī)范》的“增進(jìn)人類福祉”倫理原則和《人工智能治理原則》的“包容共享”倫理原則之中,但尚未作為一項(xiàng)獨(dú)立的價(jià)值原則予以確立,也沒有論述相稱性和不損害原則在人工智能與生態(tài)保護(hù)中如何體現(xiàn)。目前,生態(tài)環(huán)境保護(hù)日益成為世界各國面臨的重大課題。我國人工智能倫理治理的指導(dǎo)思想和原則與《建議書》的基本價(jià)值觀和原則是完全相符的,可以在未來的人工智能倫理立法中借鑒《建議書》的規(guī)定,增強(qiáng)對(duì)該領(lǐng)域價(jià)值觀和原則以及權(quán)利義務(wù)設(shè)定的研究。此外,還可以結(jié)合我國環(huán)境保護(hù)的現(xiàn)狀,加強(qiáng)人工智能對(duì)生態(tài)環(huán)境及與環(huán)境相關(guān)的人權(quán)影響的評(píng)估立法,以避免人工智能對(duì)人類生存的不利影響。
在教育與研究領(lǐng)域,雖然我國尚未就人工智能適用于教育領(lǐng)域應(yīng)遵循的必要性和相稱性原則,以及責(zé)任主體、歸責(zé)與追責(zé)等問題出臺(tái)相關(guān)政策或法律法規(guī),但是在《建議書》通過后,我國已經(jīng)開始積極響應(yīng)其在教育領(lǐng)域的政策行動(dòng)要求。例如,我國教育部部長懷進(jìn)鵬出席了2021年12月舉辦的國際人工智能與教育會(huì)議,這是聯(lián)合國教科文組織通過《建議書》等重要文件后,人工智能領(lǐng)域舉行的首個(gè)國際會(huì)議。1《創(chuàng)新技術(shù)服務(wù)教學(xué)進(jìn)步 人工智能助力未來教育——2021國際人工智能與教育會(huì)議舉行》,載中華人民共和國教育部網(wǎng)站2021年12月8日,http://www.moe.gov.cn/jyb_xwfb/gzdt_gzdt/moe_1485/202112/t20211208_ 585822.html。懷進(jìn)鵬部長在會(huì)上致辭指出,新冠肺炎疫情為“教育與人工智能等新技術(shù)的有機(jī)融合提出了更新更高的要求”,中國政府將“加大人工智能教育政策供給,推動(dòng)人工智能與教育教學(xué)深度融合,利用人工智能促進(jìn)全民終身學(xué)習(xí),致力推動(dòng)教育數(shù)字轉(zhuǎn)型、智能升級(jí)、融合創(chuàng)新,加快建設(shè)高質(zhì)量教育體系”。2同上注。因此,未來的立法可著重關(guān)注人工智能對(duì)教育權(quán)及相關(guān)倫理規(guī)范的影響。
綜合考量《建議書》在人工智能倫理治理領(lǐng)域的重要地位及內(nèi)容和形式上的亮點(diǎn),結(jié)合我國現(xiàn)行的人工智能倫理相關(guān)政策與《建議書》的關(guān)聯(lián)和區(qū)別,我國今后的立法可以在內(nèi)容和形式上從以下四個(gè)方面進(jìn)一步細(xì)化相應(yīng)的人工智能倫理治理措施。
1. 強(qiáng)調(diào)倫理治理對(duì)發(fā)展權(quán)、教育權(quán)的保護(hù)
《人工智能倫理規(guī)范》明確規(guī)定,充分尊重并保障人工智能相關(guān)主體的隱私、自由、尊嚴(yán)、安全等權(quán)利;《科技倫理治理意見》也將尊重生命權(quán)利作為科技倫理的重要原則之一。我國的人工智能倫理治理及立法可以進(jìn)一步借鑒《建議書》保障全人類人權(quán)和保護(hù)某些特定群體人權(quán)免受人工智能負(fù)面影響的價(jià)值觀,以及在數(shù)據(jù)政策、環(huán)境和生態(tài)系統(tǒng)、教育與研究等領(lǐng)域的人工智能倫理原則,在人工智能倫理規(guī)范中更加具體地規(guī)定如何保護(hù)我國公民的發(fā)展權(quán)及教育權(quán)。例如,可以整合現(xiàn)有政策法律中關(guān)于數(shù)據(jù)保護(hù)的相關(guān)規(guī)定,制定規(guī)范人工智能數(shù)據(jù)安全和隱私的倫理框架和政策,使其符合數(shù)據(jù)使用的合理性及必要性。此外,還可以通過加強(qiáng)人工智能在生態(tài)環(huán)境保護(hù)、教育領(lǐng)域的倫理影響評(píng)估,確保人工智能技術(shù)使用的必要性和相稱性,最大程度避免人工智能對(duì)人權(quán)產(chǎn)生的負(fù)面影響。
2. 細(xì)化人工智能倫理的評(píng)估監(jiān)管和責(zé)任機(jī)制
《人工智能倫理規(guī)范》與《科技倫理治理意見》均規(guī)定,地方、行業(yè)主管部門和各單位對(duì)人工智能倫理問題有監(jiān)管義務(wù),需要建立倫理審查制度,完善監(jiān)管體制,并且明晰監(jiān)管職責(zé)。3參見《新一代人工智能倫理規(guī)范》第2條、第8條,載中華人民共和國科學(xué)技術(shù)部網(wǎng)站2021年9月26日,http://www.most.gov.cn/kjbgz/202109/t20210926_177063.html;《關(guān)于加強(qiáng)科技倫理治理的意見》,2022年3月20日中共中央辦公廳、國務(wù)院辦公廳發(fā)布,第四部分“加強(qiáng)科技倫理治理制度保障”之(二),第五部分“強(qiáng)化科技倫理審查和監(jiān)管”之(一)(二)。今后的立法可以進(jìn)一步借鑒《建議書》規(guī)定的責(zé)任與問責(zé)原則,建立人工智能問責(zé)機(jī)制。具體方式和堅(jiān)持的原則包括明確將人工智能研發(fā)者、使用者等自然人或法人作為問責(zé)對(duì)象,綜合考慮不同政策領(lǐng)域的情形,加入多利益攸關(guān)方和透明度等特點(diǎn),采取預(yù)測(cè)、有效保護(hù)等措施。此外,還需要加強(qiáng)人工智能倫理影響評(píng)估,以確保歸責(zé)與責(zé)任主體認(rèn)定的準(zhǔn)確性。評(píng)估類別可以分為算法、數(shù)據(jù)和設(shè)計(jì)流程,標(biāo)準(zhǔn)包括能夠確定可審計(jì)性、可追溯性和可解釋性;若發(fā)現(xiàn)人工智能可能對(duì)人權(quán)和人的尊嚴(yán)構(gòu)成潛在威脅,或?qū)嶋H造成了損害,需要監(jiān)督人工智能行為者提供有效的補(bǔ)救。上述內(nèi)容均可以在法律層面進(jìn)行規(guī)定。此外,我國還可以納入公眾和多元化視角下的利益攸關(guān)方作為人工智能倫理治理的法律監(jiān)督主體,從而鼓勵(lì)公共實(shí)體、私營部門公司、社會(huì)組織及利益攸關(guān)方參與人工智能倫理的治理和監(jiān)督,充分調(diào)動(dòng)多方積極性,以取得良好的治理成效。
3.實(shí)現(xiàn)對(duì)人工智能倫理的“硬法”“軟法”協(xié)同治理
《建議書》不僅從內(nèi)容上,同時(shí)也從形式上為我國的人工智能倫理治理提供了重要借鑒與啟示?!督ㄗh書》以“軟法”的形式規(guī)定了人工智能倫理治理的價(jià)值觀、原則和政策行動(dòng)領(lǐng)域,有效地協(xié)調(diào)了各方的利益沖突,為未來制定人工智能倫理相關(guān)的有約束力的法律法規(guī)奠定基礎(chǔ)。同樣,上文提到的我國涉及人工智能倫理的政策性文件是行政立法以外的規(guī)范性文件,屬于“軟法”范疇,與《建議書》在國際法中的“軟法”地位相互呼應(yīng)。在今后一段時(shí)間里,中國的人工智能倫理治理很大程度上需要通過“軟法”“硬法”協(xié)同治理的方式開展并推進(jìn)。
已故的中國人權(quán)研究會(huì)前會(huì)長羅豪才教授對(duì)于“軟法”理論的研究有極高深的造詣。他曾經(jīng)指出:“軟法在制定和實(shí)施過程中體現(xiàn)了對(duì)社會(huì)多元主體的尊重,強(qiáng)調(diào)平等協(xié)商、自律互律,對(duì)法治政府建設(shè)具有重要作用?!?羅豪才:《發(fā)揮軟法效用》,載《人民日?qǐng)?bào)》2015年10月26日,第7版?!犊萍紓惱碇卫硪庖姟分幸蔡岬?,人工智能倫理立法要以國家科技倫理委員會(huì)為主導(dǎo),與各地方及相關(guān)行業(yè)主管部門、高等學(xué)校、科研機(jī)構(gòu)、企業(yè),以及科技類社會(huì)團(tuán)體(學(xué)會(huì)、協(xié)會(huì)、研究會(huì))協(xié)調(diào)統(tǒng)籌。2《關(guān)于加強(qiáng)科技倫理治理的意見》,2022年3月20日中共中央辦公廳、國務(wù)院辦公廳發(fā)布,第三部分“健全科技倫理治理體系”之(一)至(三)。所以,當(dāng)政府主體之間上下級(jí)關(guān)系不明顯時(shí),我國出臺(tái)的人工智能倫理政策可以發(fā)揮“軟法”的重要作用,即通過相關(guān)政府主體平等協(xié)商、自律互律來達(dá)成目標(biāo);而“具體的組織機(jī)制、協(xié)商機(jī)制、激勵(lì)機(jī)制、責(zé)任機(jī)制、糾紛解決機(jī)制等也都有賴于軟法規(guī)范的運(yùn)用和功能的發(fā)揮”3羅豪才:《發(fā)揮軟法效用》,載《人民日?qǐng)?bào)》2015年10月26日,第7版。。
羅豪才教授的觀點(diǎn)對(duì)于人工智能倫理治理是發(fā)人深省的。例如,如果說科技工作者需要遵守人工智能倫理價(jià)值觀和原則是自律的要求,那么社會(huì)多元主體特別是相關(guān)政府主體的平等協(xié)商形成的各種“軟法”形式,則是互律的體現(xiàn);而通過立法形成的“硬法”,規(guī)范有關(guān)的法律關(guān)系主體的權(quán)利與義務(wù)、權(quán)力與責(zé)任等,就是他律的規(guī)定。因此,結(jié)合“軟法”理論進(jìn)行有關(guān)研究,是十分有意義的。我國在未來人工智能倫理治理的立法和政策實(shí)施中,既要重視發(fā)揮“硬法”的基礎(chǔ)性、框架性作用,又要充分利用“軟法”的延伸性、輔助性功能,推動(dòng)實(shí)現(xiàn)人工智能倫理治理“硬法”“軟法”協(xié)同治理。
4. 獲取人工智能倫理領(lǐng)域的國際話語權(quán)
近年來,中國在聯(lián)合國各組織中的影響力,尤其是在教科文組織中的影響力日益增強(qiáng)。同時(shí),中國在尊重和保障人權(quán)等方面的巨大發(fā)展和進(jìn)步也得到了國際社會(huì)的公認(rèn)。我國的人工智能倫理治理一貫堅(jiān)持開放發(fā)展的理念,建立多方協(xié)同合作機(jī)制進(jìn)行治理,這與《建議書》中“發(fā)展與國際合作”的政策領(lǐng)域要求是完全一致的。因此,我國可以依據(jù)和借鑒《建議書》的相關(guān)建議,通過在相關(guān)國際論壇上討論科技倫理議題,提出中國觀點(diǎn),設(shè)置議題,從而獲取中國人權(quán)的話語權(quán),維護(hù)多邊的國際人權(quán)法體系。
聯(lián)合國教科文組織通過的《建議書》是第一部從倫理視角規(guī)范人工智能發(fā)展應(yīng)用的國際性準(zhǔn)則文件,其根本價(jià)值判斷標(biāo)準(zhǔn)為基本人權(quán)與人的尊嚴(yán)。《建議書》采取的“軟法”形式可以有效地協(xié)調(diào)各成員國觀點(diǎn),促進(jìn)利益攸關(guān)方共同合作,從而維護(hù)多邊主義。我國積極參與了《建議書》的制定及磋商過程,為人工智能技術(shù)造福人類貢獻(xiàn)了中國的智慧,并且促使“和平、公正與互聯(lián)的社會(huì)”以及“可持續(xù)性”的價(jià)值觀被聯(lián)合國教科文組織成員國廣泛認(rèn)可并接納。同時(shí),《建議書》確定的價(jià)值觀、原則和政策行動(dòng)領(lǐng)域?qū)ξ覈_展人工智能倫理治理提供了許多借鑒啟示,從規(guī)范基礎(chǔ)和具體政策實(shí)施框架兩個(gè)方面為我國繼續(xù)踐行人工智能倫理領(lǐng)域的融合發(fā)展奠定了人權(quán)保障的法律基礎(chǔ)。
習(xí)近平主席在博鰲亞洲論壇2018年年會(huì)開幕式講話中提出:“世界已經(jīng)成為你中有我、我中有你的地球村,各國經(jīng)濟(jì)社會(huì)發(fā)展日益相互聯(lián)系、相互影響,推進(jìn)互聯(lián)互通、加快融合發(fā)展成為促進(jìn)共同繁榮發(fā)展的必然選擇?!?《習(xí)近平在博鰲亞洲論壇2018年年會(huì)開幕式上的主旨演講》,載新華網(wǎng)2018年4月10日,http://www.xinhuanet.com/politics/2018-04/10/c_1122659873.htm。黨的十八大以來,我國已經(jīng)形成了融合發(fā)展思想和政策的完整體系。有學(xué)者提出:“體系、規(guī)劃、政策、模式、協(xié)調(diào),是實(shí)現(xiàn)融合發(fā)展的關(guān)鍵環(huán)節(jié)。用體系思維,定總體目標(biāo),做局部定性、定量。做好頂層設(shè)計(jì),不僅要考慮體系的完整性,而且要考慮現(xiàn)實(shí)條件、實(shí)施的可操作性、推進(jìn)的步驟。制定相應(yīng)政策?!?艾豐:《新時(shí)代更加重視融合發(fā)展》,載《學(xué)習(xí)時(shí)報(bào)》2018年5月30日,第1版。人工智能倫理治理,亦是如此。
中國特色社會(huì)主義進(jìn)入新時(shí)代后,融合發(fā)展將具有更加重要的作用和意義。包括人工智能在內(nèi)的我國科技倫理治理體系的構(gòu)建,應(yīng)當(dāng)以習(xí)近平新時(shí)代中國特色社會(huì)主義思想為指導(dǎo),堅(jiān)持以人民為中心。人工智能倫理問題的根本價(jià)值判斷標(biāo)準(zhǔn)是生命、隱私等基本人權(quán)和人的尊嚴(yán),人工智能倫理框架遵循的原則均應(yīng)圍繞保護(hù)人權(quán)不受到人工智能技術(shù)的負(fù)面影響,以及針對(duì)侵犯隱私權(quán)、人的尊嚴(yán)和其他人權(quán)的人工智能決策和行動(dòng)進(jìn)行有效歸責(zé)與追責(zé)。因此,在人工智能倫理領(lǐng)域還需要根據(jù)融合發(fā)展思想,結(jié)合具體領(lǐng)域和問題細(xì)化治理的思路,制定規(guī)范人工智能發(fā)展與應(yīng)用的法律法規(guī)和相關(guān)的政策文件。一方面,可以進(jìn)一步完善已有的政策文件和法律法規(guī)的相關(guān)規(guī)定。這包括收集和使用數(shù)據(jù)的正當(dāng)性及必要性;構(gòu)建具有透明度且可驗(yàn)證、可監(jiān)督和可信賴的人工智能問責(zé)機(jī)制;針對(duì)人工智能發(fā)展產(chǎn)生的違法違規(guī)行為實(shí)施有效問責(zé);構(gòu)建與人權(quán)保護(hù)相關(guān)的環(huán)境保護(hù)、隱私保護(hù)等評(píng)估機(jī)制,并進(jìn)一步修訂國內(nèi)有關(guān)的規(guī)范性文件和司法解釋等。另一方面,我國在未來還可以進(jìn)一步借鑒《建議書》中的政策行動(dòng)內(nèi)容,強(qiáng)調(diào)人工智能倫理治理對(duì)人權(quán),特別是對(duì)發(fā)展權(quán)和教育權(quán)的保護(hù),細(xì)化人工智能倫理影響的評(píng)估、監(jiān)管和責(zé)任機(jī)制,運(yùn)用“硬法”“軟法”協(xié)同治理,繼續(xù)為人工智能技術(shù)造福人類貢獻(xiàn)中國的智慧和力量。