孫麗文 李少帥
[摘 要] 人工智能在釋放巨大潛能、產(chǎn)生經(jīng)濟價值和帶動廣泛的產(chǎn)業(yè)變革同時,也產(chǎn)生了諸多風險。而現(xiàn)有治理體系難以適應(yīng)人工智能的高度開放性和不確定性,無法滿足風險治理需求,同時人工智能技術(shù)應(yīng)用引發(fā)的新興風險治理議題超越了既有治理體系范圍,傳統(tǒng)風險治理體系急需向以倫理嵌入為關(guān)鍵支撐的新興風險治理體系遷移。從倫理嵌入視角出發(fā),構(gòu)建了新型風險治理體系,摒棄了傳統(tǒng)以政府為絕對主導的弊端,采取多主體參與的協(xié)同治理模式,強調(diào)風險治理主體之間的“垂直連通”和“水平協(xié)商”,并充分發(fā)揮倫理道德能動作用,將治理觸角滲透進人工智能技術(shù)創(chuàng)新到規(guī)模化應(yīng)用的諸多階段,治理范圍更加寬泛,治理方式更加靈活多樣。同時,倫理道德通過內(nèi)嵌于人工智能技術(shù)研發(fā)、技術(shù)測試、技術(shù)轉(zhuǎn)移和技術(shù)產(chǎn)業(yè)化四個階段,形成兼具分段治理和整體協(xié)同的風險治理路徑。研究旨在降低人工智能風險等級,為發(fā)展負責任的人工智能提供理論指導和有益啟示。
[關(guān)鍵詞]風險治理;倫理嵌入;責任式創(chuàng)新;科技向善;人工智能
[中圖分類號] F204[文獻標識碼]A[文章編號]1673-0461(2021)07-0022-07
一、引 言
作為21世紀最具深遠影響的新興技術(shù)[1],人工智能無疑擁有巨大的潛力和價值。人工智能技術(shù)的整體突破性創(chuàng)新使其跨越工業(yè)化應(yīng)用紅線,被廣泛地應(yīng)用于人類的生產(chǎn)生活實踐,持續(xù)催生新商業(yè)模式、新經(jīng)濟業(yè)態(tài),與實體經(jīng)濟融合程度也持續(xù)加深,成為極具發(fā)展前景的經(jīng)濟新動能。但在人工智能與社會生態(tài)系統(tǒng)交互性持續(xù)加深的同時,極具變革性的人工智能也引發(fā)了數(shù)據(jù)安全、隱私保護、算法歧視等風險問題 [2-3],加劇了人類和人工智能技術(shù)之間的矛盾。如何應(yīng)對和化解人工智能風險危機,避免其陷入“科林格里奇困境”[4],實現(xiàn)經(jīng)濟效益和風險防范的合理平衡,成為目前對實踐與研究都具有挑戰(zhàn)性和突破性的議題。
現(xiàn)實層面,由人工智能引致的數(shù)據(jù)安全、隱私保護、算法歧視等風險已經(jīng)成為國際社會近幾年關(guān)注的焦點問題,并引發(fā)了全球范圍內(nèi)對人工智能技術(shù)創(chuàng)新及其產(chǎn)業(yè)化應(yīng)用影響的倫理反思和討論 [5-6],基于倫理嵌入的風險治理開始從幕后走向前臺,成為應(yīng)對和化解人工智能風險的關(guān)鍵考慮。在此背景下,從政府到企業(yè)界再到學術(shù)界,掀起探索制定人工智能倫理原則與框架的高潮。歐盟、OECD、G20、IEEE、英國、德國、谷歌、微軟等均從各自的角度提出了相應(yīng)的人工智能倫理原則或框架,共同加強人工智能知識的共享和可信人工智能的構(gòu)建。雖然各界已經(jīng)達成基于倫理觀的人工智能風險治理共識,但是由于既有治理方法、治理工具等在面向人工智能等新興技術(shù)風險治理時存在倫理缺失,對于基于倫理嵌入的風險治理原則、主體、模式、工具等關(guān)鍵問題仍缺乏系統(tǒng)性實踐探索。
理論層面,人工智能技術(shù)創(chuàng)新及產(chǎn)業(yè)化應(yīng)用的風險雖然同樣引起了道德倫理和風險治理的相關(guān)討論,但是整體理論研究進程明顯滯后,難以成為風險治理實踐的“及時雨”。當學者們將目光停留在如何將現(xiàn)有治理經(jīng)驗“移植”和“嫁接”于人工智能風險治理時,基于倫理嵌入視角的相關(guān)研究正不斷開辟風險治理新空間,勾勒出適用于人工智能風險治理體系的新圖景,由此可見,從理論而言,倫理嵌入下的風險治理是構(gòu)建人工智能新型風險治理體系的關(guān)鍵支撐。目前,學者們圍繞風險治理流程開展了探索性研究,閆坤如從技術(shù)研發(fā)與設(shè)計理論出發(fā),認為人工智能風險與技術(shù)設(shè)計存在較強關(guān)聯(lián),當設(shè)計不完備、設(shè)計目的與實際結(jié)果和使用者需求不相符時都會產(chǎn)生風險,因此人工智能的研發(fā)設(shè)計應(yīng)思索其是不是具有道德行動者地位和“道德嵌入”(moral embedding)合理性等問題,應(yīng)強調(diào)設(shè)計者的責任意識和體現(xiàn)“科技向善”(technology for good)[7]。蔣潔認為需要從算法、數(shù)據(jù)和社會影響方面對人工智能風險進行系統(tǒng)性的評估,并且強化倫理對于風險治理的作用[8]。張富利基于復雜性范式,認為人工智能技術(shù)產(chǎn)業(yè)化過程因與資本的耦合而規(guī)避了深層次的倫理探討,帶來了硬規(guī)則的普遍適用,導致建立在創(chuàng)新與安全之上的傳統(tǒng)治理范式難以應(yīng)對,因此人工智能風險治理急需探索能容納多維度的倫理治理范式[9]。雖然上述研究成果反映出風險治理不同節(jié)點需要關(guān)注的重點問題,但是依然無法形成完整且清晰的體系框架。對于倫理嵌入下的新型風險治理體系包含哪些要素?各要素主要功能是什么?新型風險治理體系如何發(fā)揮其作用?風險治理路徑如何?諸多此類問題亟待深入研究。
基于此,本文從倫理視角出發(fā),探索和構(gòu)建基于倫理嵌入的人工智能新型風險治理體系,并且深度解析風險治理路徑,促進人工智能經(jīng)濟效益與風險防控的動態(tài)平衡,以回應(yīng)上述問題。
二、基于倫理嵌入的風險治理體系構(gòu)建
(一)人工智能風險引發(fā)的治理挑戰(zhàn)
作為引領(lǐng)新一輪科技革命和產(chǎn)業(yè)變革的戰(zhàn)略性支撐力量,人工智能本身擁有溢出帶動性極強的“頭雁”效應(yīng),能夠為眾多行業(yè)領(lǐng)域帶來深刻變革,同時在隱私、歧視、安全、責任、就業(yè)等方面的負外部性也引發(fā)了風險治理領(lǐng)域的嚴峻挑戰(zhàn)[2]。
首先,人工智能具有極強的開放性,數(shù)字和智能時代的降臨更使得基于代碼的生產(chǎn)門檻大幅度降低 [10],這是人工智能技術(shù)創(chuàng)新與應(yīng)用規(guī)律的必然,但同時高度的開放性也帶來了風險的極大不確定性,而既有治理體系對此難以給出有效的具體方案。一方面,人工智能高度開放性的生產(chǎn)模式使得現(xiàn)有監(jiān)管機構(gòu)難以找到明確的監(jiān)管實體,政府試圖照搬先前全范圍覆蓋的事前管控方式已經(jīng)不可能。另一方面,自上而下的科層制的治理結(jié)構(gòu)既不能有效地將信息傳遞到相應(yīng)的技術(shù)產(chǎn)業(yè)化主體,而且信息的不對稱性還可能使得施力方向和監(jiān)管方式難以把控,甚至導致風險治理的異化??梢?,傳統(tǒng)治理體系的僵化性難以應(yīng)對人工智能開放性和不確定性所帶來的嚴峻挑戰(zhàn),甚至可能導致人工智能成為公共危險的源頭,釀成大規(guī)模的連鎖性傷害,急需調(diào)整現(xiàn)有治理結(jié)構(gòu)和治理邏輯,以加快形成能夠匹配高度開放性和不確定性內(nèi)在需求的新型風險治理體系。
其次,以因果關(guān)系為主線的治理邏輯極難適應(yīng)以算法和數(shù)據(jù)為主體的人工智能應(yīng)用情境。長期以來,人類通過實踐總結(jié)建立起基于對自身行為因果的法律、行為規(guī)范等多種規(guī)制體系構(gòu)成了現(xiàn)代治理的核心邏輯,即通過評估行為結(jié)果的影響性來對以后發(fā)生的行為進行定性和規(guī)制[11]。但是,因果關(guān)系邏輯卻不能完全適用于人工智能風險治理,這是因為人工智能的真正價值并不在于模仿人類行為,而在于所具備的自主學習和決策能力,即人工智能技術(shù)并不是人類意志的充分表達,程序設(shè)計者給出的只是學習規(guī)則,最終決策權(quán)卻在于海量規(guī)模數(shù)據(jù)訓練后的人工智能算法,而該結(jié)果與程序設(shè)計者本身意志之間并不存在較強的直接因果關(guān)系,由此通過探究行為與后果之因果關(guān)系來規(guī)范人類行為的法律等規(guī)制體系遭遇窘境。
最后,人工智能風險治理挑戰(zhàn)不僅體現(xiàn)在與既有治理體系的不匹配,更有新興風險治理議題的模糊甚至空白,如數(shù)據(jù)隱私保護、算法安全、算法歧視以及濫用等新興風險治理議題,在人工智能興起之前這些問題并不存在,或者說并不突出,但是伴隨人工智能技術(shù)創(chuàng)新和產(chǎn)業(yè)化應(yīng)用的快速發(fā)展,新興風險日漸凸顯。既有治理體系在應(yīng)對和化解人工智能風險時滯后和乏力,迫切需要發(fā)展新型治理工具和構(gòu)建與之相適應(yīng)的風險治理體系,以確保新興技術(shù)朝著有利于人類發(fā)展的方向演進。
(二)倫理嵌入下人工智能風險治理體系構(gòu)建
隨著技術(shù)創(chuàng)新與科技政策交互性增強,科學和社會之間的關(guān)系從“科學與社會”(science and society)、“社會中的科學”(science in society)逐步向“科學伴隨社會”(science with society)和“科學為了社會”(science for society)轉(zhuǎn)變[12]。人工智能等新興技術(shù)創(chuàng)新與應(yīng)用的風險治理也逐漸從科學共同體的內(nèi)部自治轉(zhuǎn)向更加寬泛的社會道德倫理層面的治理[13]。21世紀以來,美國召開了一系列有關(guān)“科學與治理”的會議并發(fā)布了相關(guān)文件,將“治理”理念引入科技政策領(lǐng)域,用以描述科學、技術(shù)和政治間的不同特性、流動合作和互惠影響。此后,在生物醫(yī)學技術(shù)的治理議題研究過程中,“倫理治理”(ethical governance)理念被提出,希望通過吸收“治理”的公正、民主的多元對話和協(xié)商機制,促使有關(guān)的各利益相關(guān)者都參與到努力解決科技發(fā)展和風險治理議題的過程中。
與之相關(guān),國際社會各界也紛紛制定相應(yīng)的倫理準則或者框架。如英國已經(jīng)成立數(shù)據(jù)倫理和創(chuàng)新中心(CDEI),視倫理為人工智能創(chuàng)新管理的核心之一并考慮制定普適的人工智能倫理框架。歐盟人工智能三大支柱之一就是確保自身具備與人工智能發(fā)展應(yīng)用相匹配的倫理及法律框架,為此歐盟委員會已經(jīng)草擬了人工智能倫理指南(AI ethics guidelines)[14]。中國的人工智能頂層設(shè)計政策也要求制定促進人工智能發(fā)展的倫理規(guī)范。目前,國際社會組織已經(jīng)達成了兩個影響廣泛的人工智能倫理共識:“阿西洛馬人工智能原則”(Asilomar AI Principles)和國際電氣電子工程師協(xié)會(IEEE)組織倡議的人工智能倫理標準,其中“阿西洛馬人工智能原則”倡導安全、失敗透明、審判透明、負責、與人類價值觀一致性、保護隱私等倫理價值和倫理原則。2017年3月,IEEE在《IEEE機器人與自動化》雜志發(fā)表了名為“旨在推進人工智能和自治系統(tǒng)的倫理設(shè)計的 IEEE全球倡議書”,倡議建立人工智能倫理的設(shè)計原則和標準,并提出人權(quán)(human rights)、福祉(wellbeing)、問責(accountability)、透明(transparent)和慎用(use with caution)五原則。中國新一代人工智能治理原則也于2019年6月17日發(fā)布,提出和諧友好、公平公正、包容共享等八項基本原則,發(fā)展負責任的人工智能。通過對國內(nèi)外人工智能主要倫理原則的論述,本文認為現(xiàn)有人工智能智能倫理原則雖然具體內(nèi)容相異,但是其本質(zhì)卻相通,都強調(diào)維護人類根本利益和主體地位,借鑒其核心思想,同時結(jié)合人工智能風險治理的內(nèi)在需求,本文認為倫理嵌入下人工智能風險治理需遵循以人為本、開放合作和互動協(xié)商的基本原則。
作為新興風險治理范式 [15-16],基于倫理嵌入的風險治理不僅是對治理效果的短期考慮,更是對面向未來治理結(jié)構(gòu)和治理邏輯的高屋建瓴,引導人工智能技術(shù)創(chuàng)新與應(yīng)用向負責、安全、普惠的實踐道路前進[17]。倫理嵌入下,風險治理不再以政府為絕對主導,而強調(diào)更廣泛的風險治理主體參與,雖然政府在一定程度上依然發(fā)揮著重要作用,但是社會組織、企業(yè)、社會公眾等逐漸成為風險治理的基本力量,以政府主導、社會協(xié)同、公眾參與的治理體系格局正在形成 [18-19]。與傳統(tǒng)科層制“自上而下”的風險治理不同,倫理嵌入的風險治理更加關(guān)注治理的上下融通和橫向聯(lián)結(jié),因此主張采取“自上而下”和“自下而上”相聯(lián)合,以及多主體參與的“水平協(xié)商”治理模式 [20]。倫理嵌入風險治理范式下,不再將法律規(guī)范等作為核心治理工具,而是在吸收“法治”(rule of law)的合理性基礎(chǔ)上,進一步將風險治理重心轉(zhuǎn)移至“人治”(rule of human),即以提升和規(guī)范利益相關(guān)者的倫理道德為出發(fā)點,充分激發(fā)倫理道德對風險治理的能動作用,其治理方式涵蓋預測式治理、公眾參與治理、響應(yīng)式治理等 [21-22],更加靈活多樣。同時,通過基于倫理嵌入的風險治理,可將治理觸角滲透到從人工智能技術(shù)創(chuàng)新到產(chǎn)業(yè)化應(yīng)用的諸多階段,治理范圍同既有風險治理體系相比更加寬泛?;诖?,本文歸納出基于倫理嵌入的人工智能新型風險治理體系如圖1所示。
三、基于倫理嵌入的風險治理路徑解析
人工智能技術(shù)本身雖然并沒有倫理道德品質(zhì),但技術(shù)研發(fā)者可通過算法設(shè)計、數(shù)據(jù)選擇、模型優(yōu)化等方式賦予其倫理價值,因此人工智能技術(shù)并非中立,其中飽含了人類太多對于現(xiàn)在和未來的思考及決定,為以倫理嵌入實施風險治理指明了方向,因此非常有必要對人工智能風險治理過程進行更加全面和深刻的倫理思考,將倫理嵌入到人工智能技術(shù)創(chuàng)新與應(yīng)用的每個階段。即在人工智能技術(shù)研發(fā)、技術(shù)測試、技術(shù)轉(zhuǎn)移和技術(shù)產(chǎn)業(yè)化的每個階段,根據(jù)其階段性特征實施相應(yīng)的規(guī)約方式,對其風險進行有效防范和控制。
(一)技術(shù)研發(fā)階段的倫理設(shè)計
通過技術(shù)研發(fā)階段的倫理設(shè)計能夠使人工智能技術(shù)從誕生便負載一定的價值傾向,并符合特定的倫理道德考慮,讓具體價值導向和倫理道德規(guī)范內(nèi)化于人工智能技術(shù)結(jié)構(gòu)之中,并通過相應(yīng)的功能展現(xiàn)出來。不僅技術(shù)領(lǐng)先可行,能夠?qū)崿F(xiàn)經(jīng)濟效益的大幅增加,而且還要滿足社會期望、道德倫理可接受,即實施責任式創(chuàng)新范式下的技術(shù)研發(fā)與創(chuàng)新。當技術(shù)的調(diào)解作用及其倫理對于風險治理的價值被發(fā)掘之后,技術(shù)研發(fā)能力較強的企業(yè)可對人工智能技術(shù)進行明確的倫理設(shè)計。菲貝克(Fi beck)認為道德化設(shè)計可分成隱性道德設(shè)計和顯性道德設(shè)計,隱性道德設(shè)計努力避免不合理的調(diào)解作用,防止非道德的技術(shù)研發(fā),顯性道德設(shè)計則通過設(shè)計具有特定調(diào)解作用的技術(shù),使倫理道德融于技術(shù)功能。由于隱性調(diào)解設(shè)計無法實施技術(shù)概念分析和技術(shù)原型開發(fā),因此顯性調(diào)解設(shè)計成為人工智能技術(shù)研發(fā)階段的必要選擇[23]。首先,對即將嵌入人工智能的目標價值進行分析,即技術(shù)概念解析。企業(yè)中的技術(shù)研發(fā)人員和倫理學家通過跨領(lǐng)域合作對人工智能技術(shù)研發(fā)進行全局性考慮,明晰技術(shù)研發(fā)過程中的價值合理性、規(guī)范沖突、人類主體地位以及其他潛在風險等問題,同時界定利益相關(guān)者,分析人工智能目標價值對其影響性,并且探討倫理嵌入所引起道德領(lǐng)域的積極變化[24]。其次,把人工智能技術(shù)價值落實到具體架構(gòu)內(nèi),包括物理載體、算法和接口,即技術(shù)原型開發(fā)。具體操作過程可借鑒洛克頓(Lockton)所提出的建筑模式、放錯模式、勸導模式等6種技術(shù)道德化設(shè)計模式[25]。再次,把人工智能技術(shù)研發(fā)與應(yīng)用場景相結(jié)合,確保經(jīng)由倫理設(shè)計的價值規(guī)范能夠充分發(fā)揮其風險防范作用??赏ㄟ^企業(yè)技術(shù)研發(fā)人員的合理性想象、擴展建構(gòu)性技術(shù)評估和應(yīng)用場景模擬的方式提高風險防范能力[26]。最后,對經(jīng)由倫理設(shè)計的人工智能技術(shù)價值規(guī)范的合理測評。需要注意和強調(diào)的是,人工智能技術(shù)研發(fā)設(shè)計必須保持治理主體之間的互動協(xié)商和開放合作,以便發(fā)揮各自的獨特優(yōu)勢并結(jié)合實際應(yīng)用情況不斷對研發(fā)設(shè)計方案進行適應(yīng)性調(diào)整優(yōu)化。
(二)技術(shù)測試階段的倫理評估
與技術(shù)研發(fā)階段由企業(yè)的研發(fā)設(shè)計者主導并面向個體不同,技術(shù)測試階段的倫理評估往往是由社會組織(如倫理委員會等)主導并面向社會群體層面,探討如何以負責任的方式進行技術(shù)創(chuàng)新及風險治理[27-28]。因此,該階段人工智能技術(shù)倫理評估本質(zhì)上是對其道德倫理進行積極的分析和建構(gòu),并形成對風險治理具有實際操作意義的倫理評估準則。通常情形下倫理評估需要組建倫理委員會,預測和識別潛在風險、分析與澄清風險問題、開發(fā)與確定倫理解決方案,以及通過同行評議對解決方案進行審議,并就方案與政府機構(gòu)、社會公眾相互溝通以確定倫理評估結(jié)果。倫理評估需要如下具體環(huán)節(jié):
首先,最大化預測和識別人工智能技術(shù)潛在風險危害。由于算法與數(shù)據(jù)是人工智能發(fā)展邏輯形成的根源,也是引發(fā)風險的重要因素,因此為全面合理地進行風險預測和識別,本文提出面向數(shù)據(jù)和算法的人工智能風險評估指標體系(見表1),該體系包括數(shù)據(jù)風險(數(shù)據(jù)安全風險、數(shù)據(jù)偏見風險)和算法風險(算法安全風險、可解釋性風險和決策風險)在內(nèi)的11項具體風險指標,用以輔助倫理委員會進行風險預測和識別,在實踐中可根據(jù)實際情景設(shè)置各指標權(quán)重,靈活運用。其次,對已經(jīng)識別出的風險進行倫理追溯,探索風險背后的價值沖突和倫理困境。再次,形成人工智能技術(shù)的共識框架并以此為基礎(chǔ)提供倫理導向準則。在對風險背后價值沖突與倫理困境的追溯和確定后,需要進一步在不同利益相關(guān)者中形成基于倫理的風險治理共識框架。在此過程中,尋找開放、公平的協(xié)商平臺或者對話空間成為關(guān)鍵舉措。最后,通過同行評議的方式對框架的合理性以及新出現(xiàn)的風險進行實際考察和修正,并與政府機構(gòu)、社會公眾持續(xù)溝通。可見,該環(huán)節(jié)是風險信息不斷增加和利益相關(guān)者逐步深度參與和反復協(xié)商的過程,需要保持倫理共識框架與實踐的持續(xù)動態(tài)反饋。同時,整個技術(shù)測試階段的倫理評估也為技術(shù)轉(zhuǎn)移階段的倫理調(diào)適營造了更加適宜的環(huán)境氛圍。
(三)技術(shù)轉(zhuǎn)移階段的倫理調(diào)試
技術(shù)與社會之間是雙向建構(gòu)的,技術(shù)對社會道德倫理觀念的調(diào)試沒有明確導向性,本質(zhì)上是適應(yīng)和自適應(yīng)相結(jié)合的過程,但是社會倫理可通過明確的導向性,造就技術(shù)的倫理角色[23]。因此,在人工智能技術(shù)轉(zhuǎn)移階段所采用的倫理調(diào)試
第一,由政府機構(gòu)參與的制度調(diào)試。即通過國家法律強制手段推進和規(guī)范人工智能技術(shù)轉(zhuǎn)移。制度調(diào)試需以風險治理為基本導向,采取“分級分類”和“標準認證”相聯(lián)合的思路,一方面,人工智能技術(shù)創(chuàng)新及風險的快速迭代使專門的立法很難跟上風險治理步伐,因此應(yīng)遵循分級分類的方式,在技術(shù)轉(zhuǎn)移階段建立法律約束與風險危害程度相匹配的監(jiān)管機制,如避免過于嚴格和細致的法律要求,而應(yīng)該采取先行先試、事后追責等輕監(jiān)管模式;另一方面,制定和頒布人工智能技術(shù)及應(yīng)用的標準和認證體系。如中國信息安全標準化技術(shù)委員會頒布的《信息安全技術(shù) 指紋識別系統(tǒng)技術(shù)要求》和《信息安全技術(shù) 虹膜識別系統(tǒng)技術(shù)要求》標準。在歐盟的《人工智能白皮書:通往卓越與信任的歐洲之路》中也明確提出對滿足特定倫理標準的產(chǎn)品和服務(wù)提供監(jiān)管部門的標簽認證,以提高其在消費者心中的信譽。
第二,由社會組織和社會公眾參與的輿論調(diào)試。在技術(shù)轉(zhuǎn)移過程中,社會公眾對技術(shù)的態(tài)勢通常是一項新興技術(shù)被倡導或禁止的重要因素[29]。社會組織和社會公眾通過營造優(yōu)良價值導向的社會氛圍和輿論環(huán)境,使那些具有可用(available)、可靠(reliable)、可知(comprehensible)、可控(controllable)性質(zhì)的人工智能技術(shù)能夠?qū)崿F(xiàn)更高程度和更高效率的轉(zhuǎn)移效果,其相應(yīng)智能產(chǎn)品和服務(wù)同樣也會獲得更好的社會評價和經(jīng)濟效益,從而實現(xiàn)良性增值循環(huán)。輿論調(diào)試可細分為輿論宣傳和輿論監(jiān)督兩種方式,其中輿論宣傳指的是借助公共媒體對社會價值(如可信、公正、透明等)宣揚,推動人工智能技術(shù)轉(zhuǎn)移和應(yīng)用的科技向善。輿論監(jiān)督指的是通過公共媒體等以信息公開為核心的輿論引導,形成由社會公眾參與的輿論監(jiān)督氛圍,對明顯有悖于社會主導價值(如歧視、侵犯隱私等)的人工智能技術(shù)及轉(zhuǎn)移進行遏制。
第三,由學界參與的教育調(diào)試。學界(教育、科研)通過建立健全覆蓋全社會的技術(shù)安全認知和培訓體系,為人工智能技術(shù)高質(zhì)量轉(zhuǎn)移提供智力和倫理道德保障。教育調(diào)試的具體方式可分為學校調(diào)試和學者調(diào)試,其中學校調(diào)試指建立適用于不同人群的有關(guān)人工智能科學認知的教育體系;學者調(diào)試指在學術(shù)界充分認識人工智能技術(shù)創(chuàng)新在理論和產(chǎn)業(yè)化應(yīng)用層面的雙重性,聚焦人工智能的風險治理議題,倡導“責任式創(chuàng)新”(responsible innovation),為人工智能技術(shù)創(chuàng)新可持續(xù)發(fā)展提供借鑒[22]。
(四)技術(shù)產(chǎn)業(yè)化階段的倫理建構(gòu)
該階段是人工智能技術(shù)邁向大規(guī)模商業(yè)化進程中,對以倫理嵌入進行風險治理的實戰(zhàn)化檢驗和體系建立。企業(yè)把經(jīng)由倫理設(shè)計的人工智能技術(shù)廣泛應(yīng)用于研發(fā)設(shè)計、生產(chǎn)建造、供應(yīng)管理、服務(wù)營銷等具體流程之中,而作為人工智能產(chǎn)品和服務(wù)的終端使用者(社會公眾等),既可以遵循經(jīng)設(shè)計的使用規(guī)劃,也可按照自身的道德倫理認知體系使用智能產(chǎn)品和接受智能服務(wù)。同時,政府機構(gòu)、相關(guān)社會組織和學界也對人工智能技術(shù)應(yīng)用實踐中引發(fā)的風險進行審視和反思??梢姡夹g(shù)產(chǎn)業(yè)化階段的倫理建構(gòu)具有雙重性,既有終端使用者、政府機構(gòu)、社會組織和學界對具有明確道德指向性的人工智能產(chǎn)品和服務(wù)的認同和遵守,又有對人工智能技術(shù)基于特定道德理想與倫理追求的創(chuàng)造性建構(gòu)。在此過程中,以基于倫理嵌入的風險治理體系通過理論和實踐之間的正向迭代和多次循環(huán)得以持續(xù)改進優(yōu)化,最終實現(xiàn)經(jīng)濟效益和風險防范的動態(tài)平衡。
通過上述分析發(fā)現(xiàn),基于倫理嵌入的風險治理路徑可歸結(jié)為倫理設(shè)計、倫理評估、倫理調(diào)試和倫理建構(gòu),整體降低人工智能的風險等級,使人工智能更加安全和可控。本文歸納基于倫理嵌入的人工智能風險治理具體路徑如圖2所示。
四、結(jié) 語
在經(jīng)歷曲折發(fā)展后,人工智能技術(shù)終于突破工業(yè)化紅線走向產(chǎn)業(yè)化應(yīng)用。然而其產(chǎn)生的數(shù)據(jù)安全、隱私保護、算法歧視等風險問題,引發(fā)了深刻的風險治理挑戰(zhàn)[9,11],傳統(tǒng)風險治理體系急需向以倫理嵌入為關(guān)鍵支撐的新興風險治理體系遷移。本
研究的價值體現(xiàn)在:聚焦人工智能風險治理體系與治理路徑,從倫理嵌入視角出發(fā),構(gòu)建了囊括治理原則、主體、模式、工具及方式等在內(nèi)的人工智能新型風險治理體系,并系統(tǒng)解析了基于倫理嵌入的風險治理路徑,從而為風險治理體系遷移提供了有益啟示。本文具體研究結(jié)論如下。
第一,基于倫理嵌入的新型風險治理體系更加適用于人工智能技術(shù)創(chuàng)新及治理。具體而言,基于倫理嵌入的風險治理摒棄了傳統(tǒng)以政府為絕對主導的弊端,而采取多主體參與的協(xié)同治理模式,強調(diào)風險治理的“垂直連通”和“水平協(xié)商”,并充分發(fā)揮倫理道德能動作用,而非將訴諸立法作為治理重心,將治理觸角滲透到人工智能技術(shù)創(chuàng)新到規(guī)?;瘧?yīng)用的諸多階段,治理范圍更加寬泛,治理方式也更加靈活多樣,更加匹配人工智能風險治理需求。第二,基于倫理嵌入的風險治理不僅作為有效的工具手段,更是風險治理的價值追求和美好愿景,即堅持人類利益至上、體現(xiàn)人文關(guān)懷,最大程度地實現(xiàn)治理的正義性及平等性,推動負責任的研究和確??萍枷蛏芠30]。第三,基于倫理嵌入的風險治理路徑具有階段性特征。①在技術(shù)研發(fā)階段進行倫理設(shè)計,倫理學家和技術(shù)研發(fā)人員通過跨領(lǐng)域合作,通過“價值分析-框架內(nèi)嵌-場景結(jié)合-評估設(shè)計”,使價值導向和倫理道德規(guī)范內(nèi)化于人工智能技術(shù)結(jié)構(gòu)之中,并通過相應(yīng)的功能展現(xiàn)出來;②在技術(shù)測試階段進行倫理評估,由社會組織(倫理委員會等)對風險進行預測和識別、倫理追溯并達成共識性框架,以及同行評議對防范風險框架的及時修訂;③在技術(shù)轉(zhuǎn)移階段進行倫理調(diào)試,通過以政府機構(gòu)參與的制度調(diào)試,以社會組織和社會公眾參與的輿論調(diào)試、以學界參與的教育調(diào)試共同推動人工智能技術(shù)的責任式創(chuàng)新,實現(xiàn)人工智能產(chǎn)品及服務(wù)與社會價值系統(tǒng)的深度融合;④在技術(shù)產(chǎn)業(yè)化階段進行倫理建構(gòu),政府機構(gòu)、企業(yè)、社會公眾、社會組織和學界共同參與,通過對具有明確道德指向性的人工智能產(chǎn)品及服務(wù)的認可和基于特定道德理想與倫理追求的創(chuàng)造性建構(gòu),以及理論和實踐循環(huán)迭代持續(xù)優(yōu)化風險治理體系,實現(xiàn)經(jīng)濟效益和風險防范的平衡。
[參考文獻]
[1]TEECE DAVID J. Profiting from innovation in the digital economy: enabling technologies, standards, and licensing models in the wireless world[J]. Research policy,2018,47(8):1367-1387.
[2]張成崗.人工智能時代:技術(shù)發(fā)展、風險挑戰(zhàn)與秩序重構(gòu)[J].南京社會科學,2018(5):42-52.
[3]李俠.基于大數(shù)據(jù)的算法殺熟現(xiàn)象的政策應(yīng)對措施[J].中國科技論壇,2019(1):3-5.
[4]JUTTA WEBER. Making worlds: epistemological, ontological and political dimensions of technoscience[J]. Poiesis & praxis, 2010, 7(1-2):17-36.
[5]EUROBAROMETER S. Social values, science and technology[R]. Eurobarometer Special Report,2005.
[6]ASHRAFIAN HUTAN. Artificial intelligence and robot responsibilities: innovating beyond rights[J]. Science & engineering ethics, 2015, 21(2):317-326.
[7]閆坤如.人工智能設(shè)計的風險及其規(guī)避[J].理論探索,2018(5):22-26.
[8]蔣潔.人工智能應(yīng)用的風險評估與應(yīng)對策略[J].圖書與情報,2017(6):117-123.
[9]張富利.全球風險社會下人工智能的治理之道——復雜性范式與法律應(yīng)對[J].學術(shù)論壇,2019,42(3):68-80.
[10]BENKLER YOCHAI. The wealth of networks: how social production transforms markets and freedom[M]. Yale University Press, 2006.
[11]賈開,蔣余浩.人工智能治理的三個基本問題:技術(shù)邏輯、風險挑戰(zhàn)與公共政策選擇[J].中國行政管理,2017(10):40-45.
[12]MEJLGAARD N, BLOCH C. Science in society in Europe[J]. Science and public, policy, 2012,39(6):695-700.
[13]CSONKA A L. Responsible science in societies[J]. Responsible innovation, 2014(57):12-35.
[14]THE EUROPEAN COUNCIL, THE COUNCIL, et al. Artificial intelligence for Europe [R]. European Commission, 2018.
[15]HESSEN J. Computer and communication ethics:encyclopedia of applied ethics[M]. Academic Press, 2012.
[16]程現(xiàn)昆.科技倫理研究論綱[M].北京:北京師范大學出版社,2011.
[17]梅亮,陳勁,吳欣桐.責任式創(chuàng)新范式下的新興技術(shù)創(chuàng)新治理解析——以人工智能為例[J].技術(shù)經(jīng)濟,2018,37(1):1-7,43.
[18]樊春良,張新慶,陳琦.關(guān)于我國生命科學技術(shù)倫理治理機制的探討[J].中國軟科學,2008(8):58-65.
[19]王立,胡平.新時期下的倫理治理理念、內(nèi)涵及路徑分析[J].社會科學研究,2017(6):118-123.
[20]魯傳穎,約翰·馬勒里.體制復合體理論視角下的人工智能全球治理進程[J].國際觀察,2018(4):67-83.
[21]STILGOE J, OWEN R, MACNAGHTEN P. Developing a framework for responsible innovation[J]. Research policy, 2013, 42(9):1568-1580.
[22]梅亮,陳勁,李福嘉.責任式創(chuàng)新:“內(nèi)涵-理論-方法”的整合框架[J].科學學研究,2018,36(3):521-530.
[23]王鈺,程海東.人工智能技術(shù)倫理治理內(nèi)在路徑解析[J].自然辯證法通訊,2019,41(8):87-93.
[24]JEROEN V D H, MANDERSHUITS N. Valuesensitive design[J]. Interactions, 2009, 3(6):16-23.
[25]LOCKTON D, HARRISON D, STANTON N A. The design with intent method: a design tool for influencing user behavior [J]. Applied ergonomics, 2010, 41(3):382-392.
[26]VERBEEK P. Materializing moralitydesign ethics and technological mediation[J]. Technology and human values, 2006, 31(3):361-380.
[27]梅亮,陳勁.責任式創(chuàng)新:源起,歸因解析與理論框架[J]. 管理世界, 2015(8):39-57.
[28]VAN DEN HOVEN J. Options for strengthening responsible research and innovation: report of the expert group on the state of art in Europe on responsible research and innovation[R]. Publications office of the European Union, 2013.
[29]JONAS H. The imperative of responsibility: in search of an ethics for the technological age [M]. University of Chicago Press, 1984.
[30]張成崗.人工智能的社會治理:構(gòu)建公眾從 “被負責任”到 “負責任”的 理論通道[J].中國科技論壇,2019(9):1-4.
Study on Avoiding New Risks of Artificial Intelligence and Analysis
on the Management Systems of AI on the Basis of Ethics
Sun? Liwen,? Li? Shaoshuai
(School of Economics and Management,Hebei University of Technology, Tianjin 300401,China)
Abstract: Artificial intelligence is fulfilling its enormous potential, generating economic value, and even bringing a wide range of industrial evolution. At the same time, it also creates many risks. The existing management system cannot cope with the uncertainty and the endless possibilities of the AI, so it cannot meet the needs of minimizing the risks. Whats more, managing the new risks triggered by the application of artificial intelligence technology goes beyond the scope of the existing management system. So it is high time that the traditional riskmanagement system shift to a new way of management on the basis of ethics. The authors propose that the new management systems of AI application risks should be established on the basis of the ethics; the traditional system which relied too much on the government should be replaced by a collaborative management system participating by various parties; it should be emphasized that the participants should cooperate within one field as well as in transfield ways; professional ethics should be put into practice not only in technological innovation process but also in the mass application of the AI, therefore the ethics can be used in broader range and in a more flexible way. In this way, the new management system can be formed where ethics is used in the four different stages of AI development, such as the research and development, testing, technological conversion, and technological industrialization. The paper can help reduce the risk level of AI and provide theoretical guidance and enlightenment for developing responsible artificial intelligence.
Key words: risk management; ethics; responsible innovation; technology for good;
artificial intelligence
(責任編輯:李 萌)