孫麗文,李少帥
(河北工業(yè)大學(xué)經(jīng)濟管理學(xué)院,天津 300401)
在移動互聯(lián)網(wǎng)、云計算等新興理論和技術(shù)共同驅(qū)動下,人工智能跨越應(yīng)用紅線,與實體經(jīng)濟深度融合,對社會經(jīng)濟發(fā)展和產(chǎn)業(yè)轉(zhuǎn)型升級產(chǎn)生深刻影響[1]。但是人工智能的數(shù)據(jù)依賴性、算法黑箱性、自主決策性及高度開放性技術(shù)特征使其在為人類社會帶來好處和便利、推動社會經(jīng)濟持續(xù)發(fā)展同時,也引發(fā)了數(shù)據(jù)安全、隱私保護、算法歧視等風(fēng)險問題[2],給社會、企業(yè)和個人層面均帶來嚴重風(fēng)險挑戰(zhàn)。這些風(fēng)險問題多與技術(shù)信任密切相關(guān)、相互交織,在很大程度上可歸結(jié)為技術(shù)信任挑戰(zhàn),如由于算法運行存在 “黑箱”,可能連設(shè)計者也難以完全理解其具體過程,更無從知曉算法運行最終結(jié)果以及潛在風(fēng)險性,導(dǎo)致對人工智能技術(shù)置信鏈條斷裂,迫切需要通過技術(shù)信任修復(fù)和重構(gòu)置信鏈條。
當(dāng)前學(xué)界對人工智能風(fēng)險及技術(shù)信任探討可歸結(jié)為兩個方面:①以風(fēng)險為分析重點,討論人工智能如何引發(fā)技術(shù)風(fēng)險、社會風(fēng)險、道德風(fēng)險及法律風(fēng)險等[3-4]。②以技術(shù)信任為分析重點,探討人工智能對信任的沖擊。如Marcus等[5]認為隨著越來越多決策權(quán)力逐漸向不可靠的機器轉(zhuǎn)移,人類無法充分相信狹義的AI系統(tǒng)。孟筱筱[6]從風(fēng)險理論出發(fā),認為人工智能信任問題與它所蘊含的技術(shù)風(fēng)險、社會風(fēng)險、道德風(fēng)險和法律風(fēng)險密切相關(guān),因此需要加強人工智能風(fēng)險治理和信用體系建設(shè)。整體看,現(xiàn)有研究依然呈現(xiàn)碎片化并缺乏深度性,且鮮有將技術(shù)信任置于風(fēng)險情景下的詳細探討。人工智能作為最具變革性的新興技術(shù),其獨特的技術(shù)信任機制尚未形成。關(guān)于人工智能技術(shù)信任機制該如何建構(gòu)?應(yīng)涵蓋哪些具體內(nèi)容?又該如何解析該技術(shù)信任機制及運行規(guī)律?以上問題都亟待深入研究。
可見,無論是實踐運用還是理論研究,人工智能風(fēng)險都與技術(shù)信任共生依存,鑒于其強烈的系統(tǒng)破壞性和長期影響性,探索風(fēng)險情景下人工智能技術(shù)信任機制顯得更加緊迫和必要?;诖耍疚膶θ斯ぶ悄芗夹g(shù)信任這個極具前沿性和重要研究價值的問題進行探討,嘗試建構(gòu)人工智能技術(shù)信任機制,并進一步對該技術(shù)信任機制深度解析,以回應(yīng)上述問題。
技術(shù)信任文獻研究表明其內(nèi)涵要視技術(shù)創(chuàng)新發(fā)展和實際應(yīng)用情景而定。一方面,以McKnight等[7]為代表的學(xué)者認為技術(shù)信任指對技術(shù)本身或者技術(shù)功能的信賴。Paul[8]認為技術(shù)信任具有多維結(jié)構(gòu),包括機密性、身份認證性等7個維度。袁勇等[9]進一步將技術(shù)信任從技術(shù)本身拓展至技術(shù)功能,認為技術(shù)信任體現(xiàn)為技術(shù)創(chuàng)新發(fā)展使人們對特定領(lǐng)域或者事物所形成的更高程度信賴,如區(qū)塊鏈技術(shù)能夠為保障信息不被刪除和篡改提供解決方案。
另一方面,不同情景下的技術(shù)信任都有具體含義。Markus等[10]認為共享經(jīng)濟情境下,技術(shù)信任是消費者對共享平臺的技術(shù)設(shè)施與控制機制在支撐溝通、交易和協(xié)作中重要意義的高度認可。技術(shù)信任源于消費者與技術(shù)的交互過程,本質(zhì)上屬于依賴關(guān)系。而在電子商務(wù)情景下,技術(shù)信任與控制信任類似,都屬于非雙方信任形式,但與控制信任以提供治理結(jié)構(gòu)為根本保證不同,技術(shù)信任主要提供情景規(guī)范和促進條件,更加關(guān)注技術(shù)溝通平臺的安全性。嚴中華等[11]認為技術(shù)信任是主體相信能夠通過技術(shù)設(shè)施安全和控制機制實現(xiàn)交易的信念。風(fēng)險情景下,技術(shù)信任既是化解特定風(fēng)險的戰(zhàn)略導(dǎo)向和具體方法,也是對風(fēng)險外部因素的內(nèi)心估量。實際上技術(shù)信任不僅體現(xiàn)為與風(fēng)險緊密相連性,且更體現(xiàn)為技術(shù)安全可控和科技向善性。基于以上分析,本文將風(fēng)險情景下技術(shù)信任界定為 “技術(shù)透明度較高、可解釋性較強,技術(shù)風(fēng)險責(zé)任明確,符合人類倫理道德,及由此獲得的社會公眾對技術(shù)的肯定和認同?!?/p>
探索技術(shù)信任影響因素是建構(gòu)技術(shù)信任機制的前提和基礎(chǔ)。本文通過對相關(guān)研究成果梳理和核心觀點提煉,發(fā)現(xiàn)技術(shù)信任主要受技術(shù)進步和環(huán)境規(guī)制兩大因素影響。①雖然人工智能風(fēng)險愈演愈烈,但同時風(fēng)險治理技術(shù)手段也在不斷突破創(chuàng)新。作為精準高效的治理工具,技術(shù)的嵌入使風(fēng)險治理更加安全透明[12],同時在該過程中正向反饋不斷積累,置信鏈條得以重構(gòu), “需求-基礎(chǔ)-效果”的正向循環(huán)持續(xù)強化[13]。此外,人工智能本身也是重塑技術(shù)信任的利器,領(lǐng)先企業(yè)開始通過數(shù)據(jù)篩選、算法設(shè)計及模型優(yōu)化等方式著力解決隱私泄露、算法偏見等問題,以切實發(fā)展可信任人工智能??梢?,技術(shù)作為相對穩(wěn)定的 “著力點”,能夠匹配技術(shù)信任內(nèi)在需求,成為影響技術(shù)信任的重要因素;②倫理道德、行業(yè)共識和法律規(guī)范等成為環(huán)境規(guī)制體系的有機構(gòu)成,將技術(shù)信任深深烙印于人工智能,持續(xù)調(diào)試和矯正人工智能技術(shù)演進方向[6],同時環(huán)境規(guī)制體系還明確了風(fēng)險治理失效后的責(zé)任主體及懲處措施,以確保相關(guān)主體為其行為承擔(dān)責(zé)任,從而進一步強化社會公眾的心理認同。
對技術(shù)信任影響因素的相關(guān)探討為人工智能技術(shù)信任機制構(gòu)建與解析提供了思路,即技術(shù)信任建立不僅需要設(shè)定明確的性能指標(biāo),努力提升技術(shù)安全性、透明性等,且需要外部環(huán)境的有效監(jiān)管。當(dāng)然僅從現(xiàn)有文獻出發(fā)難以獲得技術(shù)信任的完整理論解釋,還要進一步結(jié)合人工智能的技術(shù)屬性和實際發(fā)展情況予以具體考慮。
縱觀現(xiàn)有技術(shù)信任研究并考慮人工智能風(fēng)險深刻而長遠的影響,本文認為人工智能技術(shù)信任機制構(gòu)建屬于復(fù)雜的系統(tǒng)性工程,既需要明確主導(dǎo)范式、厘清重要參與者,又要落實提升技術(shù)性能的目標(biāo),同時也要建立切實有效的規(guī)制體系。但已有研究尚不能全面深刻地詮釋人工智能技術(shù)信任機制的本質(zhì),對于技術(shù)信任范式如何選擇?技術(shù)信任參與主體如何構(gòu)成?技術(shù)信任目標(biāo)是什么?技術(shù)信任環(huán)境體系如何建立等問題缺乏研究。因此,本文圍繞以上問題,在梳理和凝練既有技術(shù)信任相關(guān)文獻基礎(chǔ)上,擬從主導(dǎo)范式、能動主體、核心愿景和規(guī)制體系4個維度構(gòu)建人工智能技術(shù)信任機制模型。
技術(shù)信任主導(dǎo)范式主要回應(yīng) “根據(jù)什么實施技術(shù)信任”的問題。人工智能技術(shù)在與社會生態(tài)系統(tǒng)交互過程中引發(fā)了嚴峻的風(fēng)險挑戰(zhàn),加劇了雙方的矛盾。傳統(tǒng)創(chuàng)新更多聚焦于技術(shù)先進性、可行性,以及由技術(shù)商業(yè)化帶來的巨額收益和效率提高,市場成功被視為重要評價標(biāo)準,但由于對創(chuàng)新過程中的人身危害、倫理道德沖突等風(fēng)險的忽視,無法滿足創(chuàng)新可持續(xù)發(fā)展和社會公共價值實現(xiàn)。不同于傳統(tǒng)創(chuàng)新范式將技術(shù)創(chuàng)新驅(qū)動經(jīng)濟發(fā)展的正向推演邏輯為基本假定,責(zé)任式創(chuàng)新認為在創(chuàng)新初期就應(yīng)引入有關(guān)風(fēng)險及其危害的批判性探討,并在深入推進技術(shù)商業(yè)化過程中實現(xiàn)風(fēng)險治理和對技術(shù)的信任[14]。因此,風(fēng)險情景下人工智能技術(shù)信任迫切需要以責(zé)任式創(chuàng)新為 “羅盤”,讓技術(shù)接受價值引導(dǎo)。
責(zé)任式創(chuàng)新首次在國家層面提出源于對納米科學(xué)領(lǐng)域的風(fēng)險管控和信任需求[15],并由歐盟委員會在 “地平線2020框架計劃”中將其確定為 “責(zé)任式創(chuàng)新”[15]。針對新興技術(shù)引發(fā)的風(fēng)險,責(zé)任式創(chuàng)新以科技創(chuàng)新活動雙重性、結(jié)果不確定性為基本假定[16],在關(guān)注技術(shù)先進性、可行性和經(jīng)濟效益基礎(chǔ)上,更加重視對新興技術(shù)的風(fēng)險防范,同時承認創(chuàng)新主體能力局限并主張更廣泛利益相關(guān)者的共同參與[17]。責(zé)任式創(chuàng)新作為構(gòu)建人工智能技術(shù)信任機制的起點,為應(yīng)對化解風(fēng)險,加快實現(xiàn)人類對人工智能的技術(shù)信任提供了方向性指引。
技術(shù)信任能動主體主要回應(yīng) “人工智能技術(shù)信任機制的參與主體是誰”的問題。首先,技術(shù)信任機制需要頂層制度框架搭建。國家和政府具有最強權(quán)威和公信力,不僅從國家層面統(tǒng)領(lǐng)人工智能技術(shù)研發(fā)與治理框架搭建,而且通過設(shè)立專業(yè)管理機構(gòu),政策發(fā)布和法律規(guī)制等進行防控[2],在人工智能技術(shù)信任機制構(gòu)建過程中具有領(lǐng)導(dǎo)和監(jiān)管作用;其次,技術(shù)信任機制需要行業(yè)組織的推動和協(xié)調(diào)。行業(yè)組織能夠參與到多方服務(wù)、促進溝通、關(guān)系協(xié)調(diào)等諸多環(huán)節(jié),發(fā)揮橋梁作用;再次,技術(shù)信任機制需要行業(yè)相關(guān)企業(yè)自律。企業(yè)以聯(lián)盟、行業(yè)規(guī)范等方式履行行業(yè)自律,綜合實力強大的科技型企業(yè)更以強烈使命感投身信任機制構(gòu)建,成為人工智能技術(shù)信任機制建立的中堅力量;第四,技術(shù)信任機制需要學(xué)界的支持。作為教育者和反思者,學(xué)界在在承擔(dān)知識生產(chǎn)和傳播同時,積極倡導(dǎo) “責(zé)任式創(chuàng)新”,更加關(guān)注廣泛情景下的新興技術(shù)風(fēng)險治理[17],為人工智能技術(shù)信任提供智力支持;最后,技術(shù)信任建立還需要社會公眾的廣泛參與。通過多種正式和非正式渠道對人工智能技術(shù)信任具體內(nèi)容進行監(jiān)督、討論和反饋。
技術(shù)信任核心愿景主要回應(yīng) “技術(shù)信任目標(biāo)是什么”的問題。人工智能技術(shù)信任核心愿景直接決定了技術(shù)能力提升的施力方向?;诩夹g(shù)信任對技術(shù)能力從低級到高級的需求邏輯,即技術(shù)蘊含的經(jīng)濟價值得到充分釋放[18],技術(shù)具備較強魯棒性,即使在異常和危險情況下,依然能夠安全平穩(wěn)運行[19],技術(shù)及運行原理能夠被認知和理解[20],人類能夠在較大程度上掌控技術(shù)創(chuàng)新與應(yīng)用發(fā)展趨勢[21],人類有能力明確技術(shù)責(zé)任主體并予以督促和監(jiān)管[22]。本文提出人工智能技術(shù)信任的5個核心愿景,即技術(shù)可用性、技術(shù)可靠性、技術(shù)可知性、技術(shù)可控性和技術(shù)可追責(zé)。
(1)技術(shù)可用。人工智能首要目的是增加人類社會福祉。因此,一方面,技術(shù)可用性意味著人工智能技術(shù)發(fā)展及應(yīng)用要體現(xiàn)人類根本利益至上的原則,其研發(fā)和應(yīng)用應(yīng)維護人類尊嚴、保障人類權(quán)利及自由,促進技術(shù)紅利得到合理分配,縮小數(shù)字鴻溝,同時也要降低技術(shù)風(fēng)險和對社會的負向影響,以及提倡和平使用人工智能,避免致命性智能武器的軍備競賽[23];另一方面,技術(shù)可用性意味著人工智能與人類應(yīng)是和諧共生關(guān)系,人工智能應(yīng)以保障和改善民生為根本出發(fā)點,創(chuàng)造出更大數(shù)字福祉,使人類更加健康、快樂和幸福。此外,技術(shù)可用性還意味著包容性和公平正義性。即需要賦能予人,讓弱勢群體也能共享人工智能技術(shù)帶來的巨大紅利。
(2)技術(shù)可靠性。人工智能技術(shù)可靠性體現(xiàn)為在模擬和實際應(yīng)用情景都能夠抵御惡意網(wǎng)絡(luò)攻擊等突發(fā)因素,實現(xiàn)運行的安全與穩(wěn)定。模擬測試情景下,需要足夠多的硬件系統(tǒng)測試和算法風(fēng)險測試,尤其針對醫(yī)療等可能造成人身傷害的行業(yè)領(lǐng)域,不僅必須通過極端的器械可靠性測試,而且要通過對可能的算法特征引起風(fēng)險的針對性測試;實際應(yīng)用情景下,不僅要考慮正常算法和數(shù)據(jù)輸入情形,也要考慮異常情形下人工智能是否具有較強的容錯能力,確保數(shù)字網(wǎng)絡(luò)安全、生命財產(chǎn)安全及社會秩序穩(wěn)定。
美國國際互聯(lián)網(wǎng)安全系統(tǒng)公司在20世紀曾經(jīng)提出了P2DR (Policy Protection Detection Response)、P2DR2 (P2DR + Restore)等安全模型,把信息系統(tǒng)安全解釋為在安全策略引導(dǎo)下,打造以防護、檢測、響應(yīng)及恢復(fù)為一體的動態(tài)循環(huán)。這些模型能夠為技術(shù)可靠性提供很好的思路借鑒,本文將P2DR模型引入人工智能技術(shù)可靠性分析,結(jié)合人工智能特點對各要素內(nèi)涵進行了重新界定并構(gòu)建適用于人工智能的技術(shù)可靠性模型,如圖1所示。①安全策略是人工智能技術(shù)可靠性的核心,是所有防護、檢測和響應(yīng)實施的根本依據(jù)。安全策略的最終目的在于實現(xiàn)自主性決策和風(fēng)險治理的平衡,找到兩者的最優(yōu)動態(tài)解。②安全檢測是人工智能技術(shù)系統(tǒng)動態(tài)響應(yīng)和增強防護的依據(jù),能夠洞察技術(shù)危險和漏洞并通過循環(huán)反饋進行響應(yīng)。③安全防護通過定期檢查、訪問控制、監(jiān)視等手段發(fā)現(xiàn)人工智能技術(shù)存在的系統(tǒng)脆弱性等潛在風(fēng)險,常用手段包括數(shù)據(jù)加密、VPN、安全掃描等。④安全響應(yīng),即當(dāng)人工智能算法決策超出人類理解范圍甚至可能產(chǎn)生失控時,需要人類及時且有效地介入和接管,當(dāng)風(fēng)險程度極高甚至有可能導(dǎo)致不可逆后果時必須設(shè)置 “切斷開關(guān)”,以迅速終止人工智能算法。
(3)技術(shù)可知性。人們對技術(shù)的信任在很大程度上源于對技術(shù)本身的理解。然而新一代人工智能屬于多層神經(jīng)網(wǎng)絡(luò),不同變量之間關(guān)系千絲萬縷,算法呈現(xiàn)涌現(xiàn)性和自主性的復(fù)雜特征,有時連研發(fā)人員都無法理解其運行方式,導(dǎo)致 “黑箱”現(xiàn)象。 《Science》雜志也認為算法 “黑箱”可能會導(dǎo)致嚴重的系統(tǒng)性風(fēng)險并將破解 “黑箱”視為人工智能領(lǐng)域的重大難題[24]。
提升技術(shù)可知性需要兼顧不同主體對于認知性的需求差異。其中研發(fā)人員對人工智能技術(shù)原理有著最為深層和強烈的認知需求,需要深耕可理解、可解釋的算法模型并借助技術(shù)手段將 “機器理解層次”降維至 “人類理解層次”,使人工智能重回 “人類尺度”,從技術(shù)層面部分解決 “黑箱”問題。其他主體對技術(shù)可知性需求集中體現(xiàn)為對人工智能技術(shù)關(guān)鍵環(huán)節(jié)的理解,為此需要政府、學(xué)界及領(lǐng)先企業(yè)共同探索制定技術(shù)操作和解釋標(biāo)準,同時也應(yīng)為社會公眾參與創(chuàng)造機會,確保社會公眾切實成為提升技術(shù)可知性的積極參與者。此外,提升技術(shù)可知性也需要對可能產(chǎn)生較大風(fēng)險的環(huán)節(jié)提供必要且適當(dāng)?shù)恼f明或解釋 (包括背后的邏輯和數(shù)據(jù)),但同時應(yīng)避免因過渡透明化或片面強調(diào)技術(shù)的完全可知性,影響甚至阻礙人工智能技術(shù)創(chuàng)新和社會進步,即遵循適度的公開透明性原則。
(4)技術(shù)可控性。技術(shù)可控意味著人工智能創(chuàng)新及規(guī)?;瘧?yīng)用應(yīng)置于人類合理控制之下,能夠根據(jù)技術(shù)及其對社會經(jīng)濟發(fā)展的影響衡量或評估風(fēng)險性,并及時采取技術(shù)管控措施,防止因人工智能對社會經(jīng)濟結(jié)構(gòu)的深度嵌入而無法被有效治理,即出現(xiàn) “科林格里奇”困境[25]。在技術(shù)層面,技術(shù)可控性要求勇闖科技前沿的 “無人區(qū)”、攻克由人工智能高度開放性、自主決策性等形成的 “卡脖子”技術(shù)難關(guān),構(gòu)建技術(shù)風(fēng)險評估框架,把風(fēng)險指標(biāo)化、定量化,為技術(shù)風(fēng)險測度及方案制定提供借鑒。同時,要通過技術(shù)手段對高風(fēng)險人工智能技術(shù)實施最高等級管控,如在人工智能技術(shù)系統(tǒng)中嵌入具有可中斷性能力的程序命令或技術(shù)模塊等。在實踐層面,技術(shù)可控性要求提前制定完備的技術(shù)應(yīng)對方案和響應(yīng)策略,在最短時間內(nèi)精準鎖定風(fēng)險的技術(shù)根源,將風(fēng)險損失降至最低。雖然,目前還無法預(yù)測強人工智能能否實現(xiàn)以及如何實現(xiàn),但依然不能掉以輕心,應(yīng)謹慎對待和預(yù)防,因此技術(shù)可控還意味著建立風(fēng)險警示體系,超前布局對未來可能形成的強人工智能風(fēng)險的防范。
(5)技術(shù)可追責(zé)。技術(shù)追責(zé)不僅作為風(fēng)險治理失敗時的懲罰機制,更重要意義在于通過技術(shù)追責(zé)追溯隱患原因并明確責(zé)任,尤其當(dāng)風(fēng)險侵害導(dǎo)致倫理與法律產(chǎn)生較大沖突時,能通過技術(shù)對相關(guān)責(zé)任主體實施問責(zé)并且建立賠償體系,促進風(fēng)險治理的公平合理性并完善技術(shù)信任機制。 《人工智能白皮書-通往卓越與信任的歐洲之路》中明確指出 “技術(shù)追責(zé)是高風(fēng)險人工智能監(jiān)管的重要措施,同時也是構(gòu)建可信任生態(tài)系統(tǒng)的必要環(huán)節(jié)”[26]。實際中需要政府秉持 “權(quán)責(zé)一致性”的原則,塑造 “成果共享、責(zé)權(quán)同擔(dān)”的責(zé)權(quán)體系[27]。這意味著權(quán)利覆蓋范圍即是風(fēng)險責(zé)任范疇,如設(shè)計者需要對開發(fā)階段的風(fēng)險隱患擔(dān)責(zé),使用者需要對使用階段的風(fēng)險隱患負責(zé),同時也意味著即使無法解釋人工智能產(chǎn)生的結(jié)果,使用該人工智能技術(shù)的主體同樣需要對此負責(zé)。此外,歐盟 《人工智能白皮書》和國家人工智能標(biāo)準化總體組 《人工智能倫理風(fēng)險分析報告》都要求責(zé)任主體在合理期限內(nèi)留存人工智能設(shè)計和使用的算法、數(shù)據(jù)等信息,以利于在形成侵害時審查和明確責(zé)任歸屬[28]。
技術(shù)信任規(guī)制體系主要回應(yīng)技術(shù)信任的外部環(huán)境如何監(jiān)管的問題。監(jiān)管方式囊括社會習(xí)俗、倫理道德、行業(yè)共識、法律規(guī)范 (公司法、刑法等)及國際公約等。根據(jù)作用性質(zhì)差異可分為柔性規(guī)則和剛性規(guī)則兩種約束體系,倫理和法律分別成為柔性規(guī)則和剛性規(guī)則的核心內(nèi)容。 “柔性的倫理”和 “剛性的法律”共同構(gòu)成人工智能技術(shù)信任規(guī)制體系兩大支柱。同時,因法律和倫理均存在缺陷,因此需要持續(xù)完善和暢通現(xiàn)有規(guī)制體系,切實發(fā)揮其風(fēng)險防范和管控的應(yīng)有作用。
(1)以法律為保障的風(fēng)險防控體系。法律以國家強制力劃定底線,在大力破除人工智能發(fā)展現(xiàn)實障礙同時,進一步聚焦對人工智能風(fēng)險的化解,推動發(fā)展負責(zé)任的人工智能。以法律為保障的風(fēng)險防控體系需要充分考慮國際競爭、社會經(jīng)濟價值等因素,保證技術(shù)紅利最大化釋放,以形成較強的人工智能產(chǎn)業(yè)競爭力,避免因偶發(fā)性的負面問題而采取激進監(jiān)管。由于法律以風(fēng)險為導(dǎo)向,其監(jiān)管力度與風(fēng)險危害等級相匹配,同時將人工智能在具體領(lǐng)域 (自動駕駛、醫(yī)療等)的風(fēng)險特征視為技術(shù)溯源依據(jù)和法律制定之根本。因此,采取 “分級分類”和 “場景規(guī)制”相結(jié)合的監(jiān)管思路成為實施法律約束、推動技術(shù)信任的最佳拍檔。
數(shù)據(jù)和算法既是推動人工智能技術(shù)蓬勃發(fā)展的關(guān)鍵 “燃料”,也是引發(fā)風(fēng)險的 “導(dǎo)火索”,因此數(shù)據(jù)和算法成為立法監(jiān)管重點對象,而算力的純技術(shù)性使其較少受到法律關(guān)注。數(shù)據(jù)立法與監(jiān)管方面,新興技術(shù)的運用使數(shù)據(jù)富含價值越來越大,但同時海量數(shù)據(jù)的收集、深度分析及應(yīng)用觸動了人類隱私權(quán)、知情權(quán)等根本利益,為此歐盟于2018年頒布 《通用數(shù)據(jù)保護條例》,不僅直接推動人工智能數(shù)據(jù)風(fēng)險治理的立法進程,而且成為美國、印度等國家制定數(shù)據(jù)保護法律的重要范本。同時,鑒于生物數(shù)據(jù)的特殊性及戰(zhàn)略意義,包括中國、美國等在內(nèi)的許多國家尤其重視針對生物數(shù)據(jù)的監(jiān)管和風(fēng)險防范,中國信息安全標(biāo)準化技術(shù)委員會頒布 《信息安全技術(shù) 指紋識別系統(tǒng)技術(shù)要求》[29]和 《信息安全技術(shù) 虹膜識別系統(tǒng)技術(shù)要求》[30]。算法立法與監(jiān)管方面,透明和責(zé)任成為關(guān)鍵內(nèi)容,美國、法國和加拿大分別制定法律對算法透明性和問責(zé)性等內(nèi)容予以規(guī)范。
本文根據(jù)中國信息通信研究院與中國人工智能產(chǎn)業(yè)發(fā)展聯(lián)盟發(fā)布的 《人工智能治理白皮書》[31],從監(jiān)管維度、法律條文和監(jiān)管內(nèi)容3個方面歸納人工智能法律監(jiān)管框架,見表1。由于人工智能風(fēng)險法律風(fēng)險防控體系初步形成,存在法律條例沖突、違法行為難認定、量刑分歧及整體立法進程緩慢等問題,需持續(xù)修訂與改進。
表1 人工智能的法律監(jiān)管框架
(2)以倫理為導(dǎo)向的社會規(guī)范體系。由于人工智能具有數(shù)據(jù)依賴性、算法黑箱性及自主決策性等特征[31],加之法律滯后性、 “一刀切”的極端性、作用范圍有限等局限,使技術(shù)信任規(guī)制體系建立不能僅依靠法律規(guī)范,而需要法律和倫理的同心戮力。人工智能本身雖沒有倫理道德品質(zhì),但技術(shù)研發(fā)者可通過算法設(shè)計、數(shù)據(jù)選擇、模型優(yōu)化等方式賦予其倫理價值,因此人工智能技術(shù)并非中立,其中飽含人類對于現(xiàn)在和未來的思考及決定,非常有必要通過充分發(fā)揮倫理道德作用使其接受價值引導(dǎo),使技術(shù)從誕生便承載一定價值傾向,讓倫理道德內(nèi)化于人工智能技術(shù)結(jié)構(gòu)之中,釋放向善潛力。
目前,人工智能數(shù)據(jù)安全、算法歧視等風(fēng)險已成為國際社會的焦點問題,引發(fā)對風(fēng)險治理和技術(shù)信任的倫理反思和討論[32]。國際組織、國家機構(gòu)及領(lǐng)先企業(yè)紛紛提出倫理原則或框架,以促進知識共享和可信AI構(gòu)建。在國際層面,為確保歐盟具有與人工智能發(fā)展相適應(yīng)的倫理框架,起草了人工智能倫理指南 (AI Ethics Guidelines)[33];在國家層面,英國已經(jīng)成立數(shù)據(jù)倫理和創(chuàng)新中心 (CDEI),視倫理為人工智能創(chuàng)新管理的核心之一并考慮制定普適的倫理體系。中國頂層設(shè)計政策也要求制定促進人工智能發(fā)展的倫理規(guī)范,并于2019年6月份頒布 《新一代人工智能治理原則》,發(fā)展負責(zé)任的人工智能[34];在企業(yè)層面,Google、騰訊等領(lǐng)先企業(yè)針對人工智能負外部性影響,紛紛提出各自的AI價值觀,并通過設(shè)立內(nèi)部監(jiān)管機構(gòu)、履行倫理使命,竭盡全力贏得社會公眾對人工智能和企業(yè)的信任。本文同樣在 《人工智能治理白皮書》基礎(chǔ)上,從倫理發(fā)布層次、發(fā)布者、倫理原則名稱及核心內(nèi)容4個方面歸納人工智能倫理規(guī)范體系,見表2。與風(fēng)險防控體系相比,社會規(guī)范體系更加靈活,但仍需在打通多層面的倫理認知、強化倫理共識、注重倫理實際效能等方面付出努力。
表2 人工智能多層次倫理規(guī)范體系
人工智能技術(shù)信任機制需要以 “責(zé)任式創(chuàng)新”為主導(dǎo)范式,以國家政府、行業(yè)組織、企業(yè)、學(xué)界及社會公眾為能動主體,將可用、可靠、可知、可控和可追責(zé)作為人工智能技術(shù)信任的核心愿景,同時充分發(fā)揮法律規(guī)范和倫理約束的功能。本文歸納構(gòu)建了人工智能技術(shù)信任機制模型,如圖2所示。
圖2 人工智能技術(shù)信任機制——1P3W模型
以貝克[35]和吉登斯[36]為代表的風(fēng)險社會理論認為風(fēng)險和信任相互交織,技術(shù)信任的實現(xiàn)得益于主體、技術(shù)、環(huán)境3個要素的共同發(fā)力,但人工智能引致的風(fēng)險破壞了人與機器之間的置信鏈條,現(xiàn)有主體、技術(shù)和環(huán)境的 “三重奏”既不能為風(fēng)險情景下人工智能技術(shù)信任重建提供明確且合適的范式依據(jù),亦不能滿足技術(shù)信任機制研究的細化與深化,而必須從宏觀層面的要素構(gòu)成深入微觀層面的內(nèi)在交互。為此,需要以責(zé)任式創(chuàng)新為首要導(dǎo)向,充分激活能動主體、核心愿景和規(guī)制體系的內(nèi)在交互屬性,釋放科技向善潛能。責(zé)任式創(chuàng)新范式滲透于能動主體、核心愿景和規(guī)制體系,促進能動主體通過協(xié)同克服自身局限,并引導(dǎo)愿景目標(biāo)的相互聯(lián)結(jié)和規(guī)則體系融合。
風(fēng)險情景下人工智能技術(shù)信任要在治理過程中實現(xiàn),但由于人工智能屬于綜合性和交叉性極強的復(fù)合型前沿學(xué)科,涉及領(lǐng)域極為廣泛,需要計算機科學(xué)、神經(jīng)科學(xué)、社會科學(xué)等多學(xué)科的深度融合[37]。同時,技術(shù)信任也更加依賴于多元化主體的相互協(xié)同。責(zé)任式創(chuàng)新范式為探索多元主體參與的協(xié)同共治提供了關(guān)鍵性行為準則:基于主體功能局限性和治理需求 (專業(yè)化、多元化、敏捷化)的多元主體密切合作。
盡管目前許多國家都設(shè)立了相應(yīng)的政府監(jiān)管機構(gòu),但這些監(jiān)管機構(gòu)本質(zhì)上屬于政治實體,難以全面和深刻理解人工智能風(fēng)險及治理的復(fù)雜性,因此國家政府需要與具備專業(yè)知識的共同體形成有效聯(lián)動,打造專業(yè)治理團隊,以促進技術(shù)信任和提升公信力。同樣地,行業(yè)組織、企業(yè)、學(xué)界以及社會公眾由于知識儲備、思維方式等方面的局限,也難以憑借一己之力力挽狂瀾,而唯有通過相互協(xié)同,在風(fēng)險治理過程中深化交流與合作,進一步鞏固和拓展既有知識體系,才能克服自身局限性并滿足人工智能專業(yè)化、多元化和敏捷化的風(fēng)險治理需求,從而形成可信賴的治理群落,通過信任于人增強技術(shù)信任。
從純技術(shù)創(chuàng)新和技術(shù)功能升級而言,由于人工智能技術(shù)創(chuàng)新和功能升級的內(nèi)在聯(lián)系性,各愿景目標(biāo)并不是孤立存在,而是本質(zhì)上相聯(lián)結(jié)。風(fēng)險情景下更需要將責(zé)任式創(chuàng)新范式作為實施愿景目標(biāo)聯(lián)結(jié)的方向,以明晰其內(nèi)在邏輯關(guān)系,形成安全負責(zé)的人工智能技術(shù)體系。①可用性是其他目標(biāo)實現(xiàn)的首要前提,唯有可用才能創(chuàng)造價值,即責(zé)任式創(chuàng)新范式所強調(diào)的技術(shù)領(lǐng)先可行和經(jīng)濟效益增加[17]。技術(shù)特征、應(yīng)用領(lǐng)域和實施路徑都對可靠性、可知性、可控性及追責(zé)產(chǎn)生深刻影響;②可靠性是其他目標(biāo)實現(xiàn)的安全屏障。一方面從技術(shù)層面防范惡意網(wǎng)絡(luò)攻擊等風(fēng)險,確保人工智能在可用性的基礎(chǔ)上更加安全穩(wěn)定[38];另一方面可靠性往往需要通過足夠多的、嚴格的、多情景的軟硬件測試以建立相應(yīng)安全模型,同時其實施過程也為可知性和可控性奠定了操作基礎(chǔ);③可知性是其他目標(biāo)實現(xiàn)的關(guān)鍵環(huán)節(jié)??芍院推渌妇澳繕?biāo)均存在聯(lián)系,對技術(shù)信任具有全局性影響,很大程度決定了人類對AI的整體信任;④可控性是其他目標(biāo)實現(xiàn)的應(yīng)有之意。與可知性更多聚焦技術(shù)層面的論述不同,可控性不僅體現(xiàn)在對人工智能的技術(shù)控制能力,而且體現(xiàn)在對其風(fēng)險具有較強的防范治理能力[21]。提升可控性有助于優(yōu)化技術(shù)安全模型、增加可靠性,同時可控性屬于高級認知性,該過程也必然伴隨認知能力的顯著提升;⑤可追責(zé)是其他目標(biāo)實現(xiàn)的補充和完善。追責(zé)機制能夠在風(fēng)險治理失敗時明確責(zé)任和賠償,迫使各利益相關(guān)者重新審視自身責(zé)任與使命[22],反思如何更好實現(xiàn)可用、可靠、可知和可控,從而持續(xù)完善技術(shù)信任機制。
風(fēng)險情景下,以法律為保障的風(fēng)險防控體系和以倫理為導(dǎo)向的社會規(guī)范體系作為技術(shù)信任規(guī)制體系的架海金梁,本質(zhì)上代表著以法律為中心的 “剛性規(guī)則”和以倫理為中心的 “柔性規(guī)則”。責(zé)任式創(chuàng)新認為新興技術(shù)的治理和信任獲取需要法律規(guī)范的約束與道德倫理的認同[39]。在此基礎(chǔ)上,本文進一步認為這兩種規(guī)則都有各自的適用范圍和獨特的作用方式,并在推動技術(shù)信任形成的過程中互相配合、促進和補充。
一方面,在人工智能技術(shù)發(fā)展的關(guān)鍵要素 (數(shù)據(jù)和算法)和發(fā)展較充分、風(fēng)險相對確定的領(lǐng)域 (如自動駕駛和醫(yī)療)形成了以法律為主導(dǎo)的融合路徑。法律通過將某些倫理道德法律化,并使之規(guī)范化、制度化,并以國家強制力為背書,運用國家強制力來保障規(guī)則體系融合的內(nèi)容能夠順利實施。如歐盟 《通用數(shù)據(jù)保護條例》第35條就明確要求數(shù)據(jù)使用者在應(yīng)用人工智能進行自動化決策處理時,必須評估數(shù)據(jù)可能帶來的風(fēng)險影響;另一方面,在人工智能技術(shù)尚不充分、風(fēng)險錯綜復(fù)雜的領(lǐng)域形成了以倫理為主導(dǎo)的融合路徑。倫理將遵守法律作為倫理道德要求來倡導(dǎo),對違法亂紀的行為加以譴責(zé),如包括歐盟委員會高級專家組發(fā)布的 《可信人工智能倫理指南》、IEEE發(fā)布的 《人工智能設(shè)計倫理準則》及 《G20人工智能原則》等許多現(xiàn)行AI倫理都明確指出法律對倫理作用的充分發(fā)揮有極強的催化效應(yīng)。此外,脫離法律局限性的倫理更易引發(fā)能動主體對風(fēng)險情景下技術(shù)信任的共鳴與深刻探討,不僅有助于形成發(fā)展負責(zé)任人工智能的倫理環(huán)境,而且為實驗性規(guī)范立法的起草積攢經(jīng)驗[40]。
(1)從主導(dǎo)范式、能動主體、核心愿景和規(guī)制體系4個維度構(gòu)建人工智能技術(shù)信任機制模型,為風(fēng)險情景下深入開展人工智能技術(shù)信任研究提供分析框架。由于人工智能技術(shù)信任涉及范圍較廣且高度復(fù)雜,現(xiàn)有研究難以全面深刻反映其邊界和關(guān)鍵構(gòu)成,本文所建立的1P3W模型以責(zé)任式創(chuàng)新為主導(dǎo)范式,在充分借鑒現(xiàn)有責(zé)任式創(chuàng)新研究成果基礎(chǔ)上[15-17],進一步把技術(shù)引發(fā)的風(fēng)險治理納入分析范疇。以國家政府、企業(yè)等為能動主體,在明確各自職能的同時,更注重能動主體的共同參與及整體效能;以對技術(shù)能力從低級到高級的需求邏輯為依據(jù),將技術(shù)信任的核心愿景歸結(jié)為可用性、可靠性、可知性、可控性和可追責(zé);以環(huán)境監(jiān)管的作用性質(zhì)為依據(jù),將技術(shù)信任規(guī)制體系分為以法律為保障的風(fēng)險防控體系和以倫理為導(dǎo)向的社會規(guī)范體系。本文所構(gòu)建的技術(shù)信任模型從多個維度厘清技術(shù)信任邊界,突出技術(shù)信任關(guān)鍵構(gòu)成,為人工智能技術(shù)信任提供評估準則和分析框架,有效彌補現(xiàn)有研究的不足,為實現(xiàn)人工智能技術(shù)信任提供方向性指引。
(2)解析人工智能技術(shù)信任機制的運行過程,揭示技術(shù)信任內(nèi)在交互規(guī)律,對于豐富和細化人工智能技術(shù)信任的現(xiàn)有研究成果,促進人工智能技術(shù)信任的深入研究具有重要意義。雖然現(xiàn)有研究已經(jīng)涉足人工智能技術(shù)信任的主體、技術(shù)和環(huán)境要素[2,16,32],但是尚未深入探索各維度的內(nèi)在交互性,同時也缺乏將各要素納入整體分析范疇的相關(guān)研究。本文將責(zé)任式創(chuàng)新范式引入人工智能技術(shù)信任研究,并詳細探討各維度如何通過內(nèi)部互動推動人工智能技術(shù)信任實現(xiàn),研究發(fā)現(xiàn):責(zé)任式創(chuàng)新范式貫穿整個技術(shù)信任機制運行過程,滲透于能動主體、核心愿景和規(guī)制體系,可充分激活主體、愿景和規(guī)制體系內(nèi)在交互屬性,釋放科技向善潛能。多元主體之間通過相互協(xié)同,共同塑造值得信賴的風(fēng)險治理群落;五大核心愿景通過相互聯(lián)結(jié),形成安全負責(zé)的技術(shù)體系;以法律為核心的 “剛性規(guī)則”和以倫理為核心的 “柔性規(guī)則”相互配合、促進和補充,通過規(guī)則體系融合為人工智能技術(shù)信任提供剛?cè)岵沫h(huán)境保障。