国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能治理原則的實踐導(dǎo)向:可靠性、問責(zé)制與社會協(xié)同

2023-10-19 01:20:44周江偉
治理研究 2023年5期
關(guān)鍵詞:問責(zé)原則人工智能

□ 周江偉 趙 瑜

一、通過原則治理:從倫理聲明到行動框架

隨著人工智能技術(shù)的迅速發(fā)展與應(yīng)用,如何實現(xiàn)對人工智能的有效治理成為國際社會面臨的共同問題。技術(shù)變革與制度調(diào)適之間存在的步調(diào)差異(1)Wallach W. and Marchant G.E., “Toward the Agile and Comprehensive International Governance of AI and Robotics”, Proceedings of the IEEE, vol.107, no.3(March 2019), pp.505-508.造成了不可忽視的治理鴻溝,對現(xiàn)有的監(jiān)管體系和治理結(jié)構(gòu)提出了嚴(yán)峻的挑戰(zhàn)。制度調(diào)適有著明顯的滯后性?,F(xiàn)有的立法、監(jiān)管和司法框架往往基于一種靜態(tài)的社會和技術(shù)觀點,(2)Marchant G.E., “The Growing Gap Between Emerging Technologies and the Law”, International Library of Ethics, Law and Technology, vol.7, no.1(April 2011), pp.19-33.對于可能出現(xiàn)的變革缺乏預(yù)見性和靈活性。而即便公共部門能夠以某種方式迅速響應(yīng),及時為新興技術(shù)制定和調(diào)整法規(guī),也可能因為無法充分預(yù)測技術(shù)的發(fā)展趨向而產(chǎn)生阻滯創(chuàng)新或強化風(fēng)險的負(fù)作用,或是在“墨水沒干的時候”就已經(jīng)失去現(xiàn)實效力。不過,正如美國前最高法院首席大法官沃倫·伯杰所說,“應(yīng)該理解,完全跟上科學(xué)的步伐并不是法律的作用和功能”,(3)Burger W.E., “Reflections on Law and Experimental Medicine”, UCLA Law Review, Vol.15, no.2(February 1968), pp.475-493.法律系統(tǒng)在設(shè)計上被賦予了保守性,其關(guān)鍵功能之一就是在快速變革中維系社會穩(wěn)定并提供制動能力。(4)Van Alstine M.P., “The Costs of Legal Change”. UCLA Law Review, vol.49, no.3(February 2001), pp.789-871.

為了填補持續(xù)存在且難以避免的治理缺口,在人工智能領(lǐng)域,通過“原則”進(jìn)行治理成為一種趨勢。在過去的幾年里,出現(xiàn)了大量被冠以“原則”“指南”“戰(zhàn)略”的文件,它們由不同的行動者撰寫并發(fā)布,在極短的時間內(nèi)井噴式地出現(xiàn)在公共領(lǐng)域。這些文本圍繞如何對人工智能的部署和應(yīng)用進(jìn)行有效治理,提出了一系列綱領(lǐng)性的建議和要求,這些文本往往是倡議性的,也有著較高的抽象層次。一些學(xué)者將這類實踐統(tǒng)稱為對人工智能治理的原則方法(Principled Approach)(5)Mittelstadt B., “Principles Alone Cannot Guarantee Ethical AI”, Nature Machine Intelligence, vol.1, no.11(October 2019), pp.501-507.或原則主義(Principlism)路徑,(6)Seger E., “In Defence of Principlism in AI Ethics and Governance”,Philosophy &Technology, vol.35, no.2(April 2022), p.45.因而在下文中,我們也將這些文本統(tǒng)稱為“原則”。相較于由國家強制力保障實施的、結(jié)構(gòu)完整且規(guī)范清晰的“硬法”,這些原則文本往往被歸類為“軟法”。

“軟法”是指那些效力結(jié)構(gòu)未必完整,缺乏強制力和執(zhí)行力保障,但能夠在社會運轉(zhuǎn)過程中發(fā)揮實效的規(guī)范。(7)羅豪才、宋功德:《認(rèn)真對待軟法》,《中國法學(xué)》,2006年第2期。相對于“硬法”,“軟法”具有更好的敏捷性,往往可以繞開官僚機構(gòu)的流程和授權(quán)限制,較快地實現(xiàn)應(yīng)用和修訂。盡管“軟法”缺少直接的執(zhí)行力,但通過保險、行業(yè)協(xié)作、媒體監(jiān)督等方式實現(xiàn)了間接執(zhí)行,(8)Marchant G.E., “‘Soft Law’Mechanisms for Nanotechnology: Liability and Insurance Drivers”, Journal of Risk Research, vol.17, no.6(February 2014), pp.709-719.能在“硬法”缺位的情況下發(fā)揮一定的現(xiàn)實效力。而“軟法”在經(jīng)過實地測試后具有被納入政府監(jiān)管體系的潛力,因此“軟法”也被視為在必要時頒布“硬法”的準(zhǔn)備階段。

這些具有“軟法”性質(zhì)的原則文本,往往是倫理聲明和實踐準(zhǔn)則的混合體。其中,倫理聲明注重價值理性,回應(yīng)著一系列價值問題,包括珍視誰的價值(價值立場),珍視何種價值(價值目標(biāo)),如何正確對待有價值的事物(正義原則),特別是如何對其進(jìn)行合理的分配。(9)趙瑜、周江偉:《人工智能治理原則的倫理基礎(chǔ):價值立場、價值目標(biāo)和正義原則》,《浙江社會科學(xué)》,2023年第1期。而實踐準(zhǔn)則通?;趯嵺`理性,關(guān)注通過怎樣的手段或行動方式來實現(xiàn)給定的倫理目標(biāo)。由于這些原則在發(fā)布時通常將倫理聲明內(nèi)容置于首位,學(xué)術(shù)界在討論這些文本時,也表現(xiàn)出對倫理問題的關(guān)注傾向。雖然這些倫理聲明積極地回應(yīng)了人工智能技術(shù)引起的倫理爭議,為社會成員識別并概念化倫理挑戰(zhàn)提供了共同話語,幫助缺乏系統(tǒng)倫理學(xué)知識的人形成道德判斷。但是,僅僅建立有關(guān)技術(shù)的倫理期望或評估技術(shù)的道德后果還不足以幫助我們實現(xiàn)期望或應(yīng)對后果。倫理學(xué)反思的中心目標(biāo)不是“從外部”評價技術(shù)的發(fā)展,而是“從內(nèi)部”伴隨技術(shù)發(fā)展。(10)Verbeek P.P., “Designing the Public Sphere: Information Technologies and the Politics of Mediation”, the Onlife Manifesto, edited by Floridi L., Berlin: Springer Nature, 2015, p.223.一味地進(jìn)行倫理承諾可能使原則文本成為“道德的遮羞布”和利益相關(guān)方的“避風(fēng)港”,用于回避真正的問題。

為了在倫理聲明和治理實踐之間搭建橋梁,使原則成為具有操作性的治理工具,本研究將聚焦于原則文本中的實踐準(zhǔn)則。通過對原則文本的分析,研究發(fā)現(xiàn)對人工智能進(jìn)行治理的實踐準(zhǔn)則可以歸納為三項:可靠性原則、問責(zé)制原則、社會協(xié)同原則。它們分別回應(yīng)了三個有關(guān)治理實踐的問題:一是能夠勝任倫理期望的技術(shù)系統(tǒng)應(yīng)該具備怎樣的品質(zhì);二是如何應(yīng)對技術(shù)的社會后果,特別是那些非預(yù)期的后果;三是應(yīng)該以怎樣的社會組織形式開展治理實踐。

二、研究方法

研究涉及的原則文本具有“軟法”性質(zhì),與其敏捷性和過渡性相伴而來的,是文本形式的靈活性和多樣性。這意味著我們的研究對象是一個構(gòu)成復(fù)雜、邊界模糊的合集。許多研究也是采用更加務(wù)實與靈活的方式,即通過給出示例、沿用慣例或說明共有特征來說明研究對象的范圍。例如曾毅等人在“連結(jié)人工智能原則”中對研究范圍的描述:“我們將研究限制在與人工智能治理有關(guān)的不同原則,包括指南、準(zhǔn)則和倡議。這些原則通常被逐項列舉,表達(dá)提議者對人工智能的理解、開發(fā)和利用的價值觀和態(tài)度?!?11)Zeng Y., Lu E. and Huangfu C., “Linking Artificial Intelligence Principles”,arXiv preprint: 1812.04814(December 2018).本研究在搜集和篩選文本的過程中也延續(xù)了這樣的方式。研究涉及的原則文本具有以下特征:(1)以如何對人工智能的部署和應(yīng)用進(jìn)行治理為主題,有時針對特定的應(yīng)用領(lǐng)域(如勞動、司法、金融等)或核心要素(如數(shù)據(jù)、機器人、算法等);(2)通常以清單化的方式逐項列出建議和主張,這意味著它們通常是多條原則的集合而不是對單一事項的陳述;(3)在形式和性質(zhì)上區(qū)別于正式的、具有強制約束力的法律、法規(guī)和政策,通常是發(fā)布者對自身態(tài)度的公開表達(dá)和對特定事項的公共倡議;(4)內(nèi)容具有較高概括性和一定的抽象水平,通常以短句、短語或關(guān)鍵詞表達(dá)核心意旨并隨附一段內(nèi)容闡釋。

為了盡可能全面地搜集文本,研究組合檢索了三類數(shù)據(jù)源,分別是主題數(shù)據(jù)庫、元分析文獻(xiàn)和互聯(lián)網(wǎng)搜索引擎。具體而言:首先,發(fā)現(xiàn)并檢索三個人工智能治理的主題數(shù)據(jù)庫,分別是: “AI Governance Database”“AI Ethics Guidelines Global Inventory”“Linking Artificial Intelligence Principles”。將檢索范圍設(shè)定在2010年后,通過對數(shù)據(jù)庫中收錄的文本進(jìn)行逐一查閱,依據(jù)上文所述特征進(jìn)行判斷,篩除不符合條件的文本后形成文本清單。其次,發(fā)現(xiàn)了三篇有關(guān)人工智能治理原則的元分析文獻(xiàn),(12)Hagendorff T., “The Ethics of AI Ethics: An Evaluation of Guidelines”, Minds and Machines, vol.30, no.1(February 2020), pp.99-120.(13)Jobin A., Ienca M. and Vayena E., “The Global Landscape of AI Ethics Guidelines”,Nature Machine Intelligence, vol.1, no.9(September 2019), pp.389-399.(14)Floridi L. and Josh C., “A Unified Framework of Five Principles for AI in Society”, Machine Learning and the City: Applications in Architecture and Urban Design, edited by Carta S., Hoboken: Wiley, 2022, pp.535-545.根據(jù)它們給出的文本清單進(jìn)行了整合、對比和補充。最后,根據(jù)從主題數(shù)據(jù)庫和元分析文獻(xiàn)中獲得的文本名稱,確定了一個檢索關(guān)鍵詞清單,在谷歌搜索進(jìn)行補充檢索。這個關(guān)鍵詞清單主要由兩類構(gòu)成,其一是主題性的關(guān)鍵詞,包括“人工智能”(Artificial Intelligence,AI)“機器智能”(Machine Intelligence, MI)“算法”(Algorithm)“機器學(xué)習(xí)”(Machine Learning)等,其二是描述文本性質(zhì)的關(guān)鍵詞,包括“原則”(Principle)“準(zhǔn)則”(Code)“指南”(Guideline)“宣言”(Manifesto)等。在檢索過程中,分別組合使用兩類關(guān)鍵詞,在輸入搜索指令時,通過“OR”連結(jié)同類關(guān)鍵詞,“+”連結(jié)兩類關(guān)鍵詞,以實現(xiàn)組合檢索的目標(biāo)。其中,檢索以英文和中文分別進(jìn)行。檢索前清除瀏覽器cookie文件,并采用無痕模式確保此前的使用記錄不會影響檢索結(jié)果;檢索時間也被設(shè)定在2010年之后,檢索的結(jié)果選項為“所有結(jié)果”(模糊匹配);對檢索結(jié)果的前15頁鏈接進(jìn)行人工訪問和篩選。此外,前述數(shù)據(jù)庫中存在一些無法訪問的鏈接時,研究也相應(yīng)地根據(jù)其文件名稱和關(guān)鍵詞進(jìn)行了補充檢索。在檢索完成后,我們對結(jié)果進(jìn)行比對,在去除無關(guān)項和重復(fù)項后,獲得了88份原則文本。(15)具體文本參見后文附表,研究遵循三篇元分析文獻(xiàn)的慣例,將研究涉及的原則文本在附錄中逐一列出,既為本研究的結(jié)論設(shè)定了邊界,也以開放的態(tài)度接受其它潛在文本的檢驗。

現(xiàn)有的元分析類文章普遍采取了“議題公約數(shù)”的分析策略,不論是通過算法進(jìn)行關(guān)鍵詞聚類或是人工進(jìn)行內(nèi)容分析,都試圖通過提煉特定的關(guān)鍵概念來概括原則內(nèi)容,進(jìn)而實現(xiàn)對文本的歸類與整合。由于原則中的許多關(guān)鍵概念具有較高的語境依賴性,這意味著每個概念背后都存在多重的解釋空間。一些概念的邊界在使用過程中日漸擴張,試圖涵蓋過多的涵義,成為了“概念傘”(Concept Umbrella)。而現(xiàn)有的分析路徑在一定程度上忽視了語境差異,分析結(jié)果也不能很好地處理概念之間的關(guān)系,使得彼此重疊或不同層次的原則被不恰當(dāng)?shù)夭⒘性谝黄?。其結(jié)果常常是將多個原則清單匯總為一個更全面的清單,而通過計量和列舉關(guān)鍵詞的方式也難以建立對特定事項的系統(tǒng)理解,更無法洞見文本間實際的共識和分歧。

為了克服現(xiàn)有分析路徑的局限,研究采用了以下分析步驟:首先,在各個學(xué)科和專業(yè)領(lǐng)域的文獻(xiàn)中定位文本中的關(guān)鍵概念,厘清領(lǐng)域內(nèi)與之相關(guān)的基本共識和分歧,理解不同范疇間的關(guān)系,并由此建立了初步的編碼框架。其次,對原則文本進(jìn)行逐條錄入和編目,每個原則作為一個分析單位,分析的內(nèi)容包括原文中對該原則的概述和相應(yīng)闡釋。在完成數(shù)據(jù)整理后,進(jìn)行逐條人工編碼。首先分離倫理聲明和實踐準(zhǔn)則的內(nèi)容(二者常常交織在單一原則中),隨后對實踐準(zhǔn)則進(jìn)行編碼,主要分為兩個方面:一是提煉主題,二是提煉有關(guān)該主題的關(guān)鍵陳述并加以概括。這些主題由上述的文獻(xiàn)研究過程初步得出。由于編碼過程中會不斷涌現(xiàn)出無法被涵蓋的新內(nèi)容,研究者也會根據(jù)實際文本內(nèi)容動態(tài)調(diào)整編碼框架。因此編碼的過程更像是修補結(jié)構(gòu),在先驗的結(jié)構(gòu)和現(xiàn)實的材料之間往復(fù),而不是單向“按圖索驥”。這樣的動態(tài)編碼過程也意味著,分析的結(jié)果和用于分析的框架往往會在最后同時浮現(xiàn)出來。因而在某種意義上,這個研究的核心就在于建立這樣一個用于分析與整合的編碼框架,促進(jìn)不同原則文本之間的有效對話,并把握其中的共識與分歧。

三、可靠性原則:構(gòu)建符合預(yù)期的技術(shù)系統(tǒng)

(一)作為術(shù)語集的可靠性

在科學(xué)和工程領(lǐng)域,可靠性(Reliability)是一個復(fù)雜、多義的概念,在寬泛意義上指技術(shù)系統(tǒng)按照其設(shè)計目標(biāo)持續(xù)運行的能力。(16)Dhillon B.S., Design Reliability: Fundamentals and Applications, New York: CRC press, 1999, pp.1-8.可靠性作為一個術(shù)語集(70)(17)即附表70號文件《可信賴的人工智能應(yīng)用》,簡寫為文件序號“(70)”,下文涉及相關(guān)原則文本的表述同理。通常是對各類技術(shù)系統(tǒng)的總體性要求,囊括了一系列評價指標(biāo)。我們對原則文本中與可靠性相關(guān)的術(shù)語進(jìn)行了梳理,形成一個相對完整的概念框架,它包括有效性、穩(wěn)健性和優(yōu)化三個維度(見下表)。

有效性指系統(tǒng)實現(xiàn)其既定目標(biāo)的能力,它通常指向難以割裂的兩個方面:一是可驗證性(Verification),即是否可以證明系統(tǒng)滿足了預(yù)期目標(biāo);二是準(zhǔn)確性(Validity),即確保系統(tǒng)在滿足既定目標(biāo)的同時不會產(chǎn)生意料之外的行為與后果。(18)Russell S., Dewey D. and Tegmark M., “Research Priorities for Robust and Beneficial Artificial Intelligence”,AI Magazine, vol.36, no.4(December 2015), pp.105-114.在現(xiàn)有原則中有效性的兩個維度均有所體現(xiàn)。一些原則主張應(yīng)該建立用于持續(xù)監(jiān)測和檢驗的系統(tǒng),在充分了解系統(tǒng)運行情況的基礎(chǔ)上,驗證它們是否與設(shè)計者預(yù)期保持一致(38)。而那些偏離設(shè)計者期望的運行過程也應(yīng)該受到持續(xù)的監(jiān)控和處理,確保系統(tǒng)不會以意想不到的方式運轉(zhuǎn)(46)。人工智能的兩大支柱是算法和大數(shù)據(jù),(19)趙瑜:《人工智能時代新聞倫理研究重點及其趨向》,《浙江大學(xué)學(xué)報(人文社會科學(xué)版)》,2019年第2期。系統(tǒng)的有效性不僅依賴于算法設(shè)計,往往還受到數(shù)據(jù)質(zhì)量的影響。因而也有原則認(rèn)為有效性的前提是高質(zhì)量的數(shù)據(jù)輸入(21),而抽樣過程所造成的偏差,往往是數(shù)據(jù)質(zhì)量不足的首要原因(39)。

可靠性原則構(gòu)成及內(nèi)容示例表

穩(wěn)健性(Robustness)通常被翻譯為“魯棒性”,最早是統(tǒng)計學(xué)概念,用于表示計算方法中關(guān)于誤差的靈敏性。(20)Saleh J.H. and Marais K., “Highlights from the Early (and Pre-) History of Reliability Engineering”, Reliability Engineering &System Safety, vol.91, no.2(March 2006), pp.249-256.隨著控制論的興起和發(fā)展,穩(wěn)健性的概念被遷移到各類系統(tǒng)的設(shè)計中,用于表示系統(tǒng)受到外部擾動或內(nèi)部參數(shù)攝動等不確定因素干擾時,保持其結(jié)構(gòu)和功能穩(wěn)定的特性。在人工智能領(lǐng)域,特別是對機器學(xué)習(xí)算法而言,穩(wěn)健性通常會被理解為算法對數(shù)據(jù)變化的容忍度有多高。但人工智能系統(tǒng)也往往涉及傳感器和執(zhí)行器等實體設(shè)施,因此穩(wěn)健性也意味著它們在物理環(huán)境的變化中保持穩(wěn)定。

相較于穩(wěn)定性,穩(wěn)健性被認(rèn)為是一個更廣泛的概念,前者通常指系統(tǒng)隨時間流逝或在微小擾動下自我維持的特性,而穩(wěn)健性還意味著系統(tǒng)在多種功能之間切換以適應(yīng)環(huán)境的能力,因此也被稱為“復(fù)雜自適應(yīng)性”。(21)Jen E., Robust Design: A Repertoire of Biological, Ecological, and Engineering Case Studies, Oxford: Oxford Press, 2005, pp.7-20.通常而言人們無須擔(dān)心石頭的魯棒性。因為石頭僅僅具有一種在時間和環(huán)境的擾動中維持自身原有狀態(tài)的能力(穩(wěn)定性),而不具備在多個應(yīng)對策略之間做出適應(yīng)性選擇的能力(穩(wěn)健性)。廣義上看,穩(wěn)定性可以被視為穩(wěn)健性的一個方面。

安全性(Security)描述了特定情況下的穩(wěn)健性,即一個系統(tǒng)在面對惡意攻擊或?qū)剐愿蓴_時能否有效抵御攻擊、維持系統(tǒng)正常運轉(zhuǎn)的能力。技術(shù)系統(tǒng)的穩(wěn)健性水平往往在惡意攻擊和惡劣環(huán)境下才能得到充分評估,例如通過精心設(shè)計的樣本來“毒害”訓(xùn)練模型,通過研究輸出來竊取模型,或是借助對抗性擾動來愚弄算法。因此有時候自行創(chuàng)建攻擊也是提高穩(wěn)健性的重要手段(66)。

穩(wěn)健性常常也被認(rèn)為與有效性相關(guān),但二者通常被區(qū)分使用。有效性的關(guān)鍵在于實現(xiàn)既定目標(biāo),而穩(wěn)健性的關(guān)鍵在于持續(xù)運行和對抗干擾,因此一個系統(tǒng)可能是有效的,但卻不是穩(wěn)健的,甚至一些研究指出穩(wěn)健性和有效性(準(zhǔn)確性)在神經(jīng)網(wǎng)絡(luò)中不可兼得。(22)Yang Y.Y., et al., “A Closer Look at Accuracy vs. Robustness”, the 33th Advances in Neural Information Processing Systems, article no.720(December 2020), pp.8588-8601.有學(xué)者在概念范圍上對二者進(jìn)行了區(qū)分,認(rèn)為有效性通常指在規(guī)約范圍內(nèi)的系統(tǒng)活動,而穩(wěn)健性則關(guān)注規(guī)約之外的系統(tǒng)活動。(23)接婧:《國際學(xué)術(shù)界對魯棒性的研究》,《系統(tǒng)工程學(xué)報》,2005年第2期。但不可否認(rèn),這兩個概念也常常彼此混用。有原則指出算法隨著環(huán)境改變而具有的“有效性半衰期”(5),如在證券交易的應(yīng)用場景下,算法在變化的市場環(huán)境中預(yù)測行情的有效性會隨著時間而減弱。該原則所描述的特征更多地側(cè)重于穩(wěn)健性而非有效性。

面對系統(tǒng)內(nèi)部和外部的變化,穩(wěn)健性并不是唯一的要求,在維持自身狀態(tài)和選擇適應(yīng)策略之外,系統(tǒng)還應(yīng)該被持續(xù)優(yōu)化,特別是遞歸式的自我優(yōu)化。但這種自我優(yōu)化往往依賴于大量數(shù)據(jù)輸入和人類的反饋與訓(xùn)練。系統(tǒng)獨立的自我優(yōu)化,在現(xiàn)在看來仍然是一種面向未來的想象,正如有原則表示“下一代人工智能系統(tǒng)可能會變得越來越有‘自我意識’,具有發(fā)現(xiàn)和糾正錯誤、不準(zhǔn)確或不道德決策的內(nèi)置能力”(64)。人類主要通過兩種方式促進(jìn)系統(tǒng)優(yōu)化:一是要求人類通過評估輸入和輸出來改進(jìn)系統(tǒng)(45),這同時還涉及到將用戶及利益相關(guān)者納入溝通和反饋的信息傳播過程(79);二是要求人類動態(tài)地確定行業(yè)最佳實踐(1,23,41),并通過設(shè)立行業(yè)標(biāo)準(zhǔn)將其制度化,以更廣泛地促進(jìn)系統(tǒng)迭代升級。

(二)人類處于循環(huán)中

可靠性原則并不單一地指向技術(shù)物,它更根本地著眼于人和技術(shù)互動模式。隨著人工智能的自主性和可靠性日益增長,我們已經(jīng)看到許多自動系統(tǒng)在沒有人為干預(yù)的情況下實現(xiàn)正常工作,甚至在一定程度上,人類的介入正在被視為多余,比如在安全系統(tǒng)領(lǐng)域的一些研究者通常將人類視為“鏈條中最薄弱的環(huán)節(jié)”。(24)Schneier B., Secrets Lies: Digital Security in a Networked World, Hoboken: Wiley, 2000, pp.255-270.而過多的干預(yù)也被認(rèn)為會阻礙人工智能的應(yīng)用效率,正如有原則指出“對每一個決策進(jìn)行人工審核和干預(yù),意味著限制或阻止某些人工智能或算法的應(yīng)用”(22)。但在現(xiàn)有的技術(shù)水平下,完全脫離人類的人工智能系統(tǒng)尚未實現(xiàn),人類參與人工智能的訓(xùn)練、監(jiān)督和調(diào)試依然是必要環(huán)節(jié)。而根據(jù)保障人類自治的倫理要求,被置于工具地位的人工智能系統(tǒng)也必須要受到人類的控制。

出于不同原因,人類處于循環(huán)(Human in the Loop)的設(shè)計思路正在成為主流模式。這種設(shè)計思路提供了對人工智能系統(tǒng)的另一種理解方式,并不主張將自動化視為從任務(wù)中去除人類參與,而是將其想象為選擇性地包含人類參與,(25)Wang G., “Humans in the Loop: The Design of Interactive AI Systems”, Journal of Artificial Intelligence Research, vol.64(February 2019), pp.243-252.在利用自動化技術(shù)提升效率的同時,保持它對人類的反饋和服從,這在一定程度上還減輕了構(gòu)建“完美算法”的壓力。但是將人類置于循環(huán)必須保障人類的知情同意,人類需要了解自己正處在與機器的互動中(51),而這種告知必須清晰且明確(2)。

從某種意義上來說,這種設(shè)計思路在兩個層面保障了人類控制:其一是在系統(tǒng)運行過程中人類的有限控制,通常是持續(xù)的監(jiān)督,并在必要時予以反饋、調(diào)整和干預(yù)。這意味著超越單個決策范圍進(jìn)行干預(yù)并考察其效用,從而將審核與干預(yù)的焦點從單一決策擴展到系列決策(22),這也被認(rèn)為是一種“適當(dāng)?shù)娜祟惪刂啤蹦J?41)。其二是人類對于系統(tǒng)所擁有的最終的控制權(quán)以及人類對相關(guān)事務(wù)的最終決策權(quán)和處置權(quán)。這要求人類能夠從根本上為系統(tǒng)設(shè)置目標(biāo),并保持干預(yù)和終止系統(tǒng)的能力,同時要求人類能夠挑戰(zhàn)和質(zhì)疑系統(tǒng)給出的結(jié)果,并有權(quán)從人工智能系統(tǒng)中退出,轉(zhuǎn)交人類決策(35)。而保障這種人類控制的前提是人類對人工智能系統(tǒng)的持續(xù)監(jiān)督,以及對其運行狀態(tài)、決策和行動結(jié)果的知情。

人類處于循環(huán)的設(shè)計思路往往也體現(xiàn)在可靠性的其他原則中,成為實現(xiàn)它們的路徑,比如人類需要持續(xù)地檢驗系統(tǒng)運行和自身期望之間的一致性,根據(jù)檢測和評估的結(jié)果來給予系統(tǒng)反饋或調(diào)整算法和數(shù)據(jù)集,從而實現(xiàn)對人工智能系統(tǒng)的持續(xù)優(yōu)化。而可靠性的技術(shù)指標(biāo)也應(yīng)該充分考慮置入其中的人類行動者。正如有原則提到的,人工智能應(yīng)用程序的可靠性都應(yīng)該根據(jù)使用它的人的能力進(jìn)行配置(70)。特別是當(dāng)人類不再有能力對人工智能施加控制的時候,系統(tǒng)便應(yīng)該自己終止運行(32)。

四、問責(zé)制原則:對技術(shù)的后果負(fù)責(zé)

可靠性要求技術(shù)以符合期望的方式發(fā)揮作用,而問責(zé)制則著眼于這些效用的社會后果,關(guān)注與之相關(guān)的責(zé)任問題。如今,問責(zé)制已然成為人工智能治理領(lǐng)域的重要工具。在搜集到的88份原則文本中,有37份明確將問責(zé)制列為一項原則,另有33份提及了責(zé)任分配、追溯和承擔(dān)等與問責(zé)制相關(guān)的內(nèi)容。

(一)問責(zé)概念的最簡范式

問責(zé)(Accountability)在歷史語義上和會計(Account)密切相關(guān),核算賬目就是問責(zé)最早的意義。根據(jù)杜布尼克的說法,問責(zé)的概念最早可以追溯到英王威廉一世統(tǒng)治時期,他要求領(lǐng)地內(nèi)所有的財產(chǎn)持有者對他們的財產(chǎn)進(jìn)行計算并上報,經(jīng)過皇室評估后將其列在所謂的末日審判書中。(26)Dubnick M.J., “Seeking Salvation for Accountability”, the Annual Meeting of the American Political Science Association, vol.29(August 2002), pp.7-9.隨著現(xiàn)代國家的形成,問責(zé)逐漸在語義上脫離了賬目核算的意義,演變?yōu)樘岣吖仓卫碛行院托实墓ぞ?。再后?問責(zé)成為了一種治理目標(biāo),表達(dá)出對公正治理的強烈承諾,被奉為“善治”的標(biāo)志。隨著問責(zé)的概念不斷擴張,有學(xué)者也認(rèn)為它變成一個“概念傘”,涵蓋諸如透明、公平、民主、效率、負(fù)責(zé)和誠信等多個方面。(27)Behn R.D., Rethinking Democratic Accountability, Washington D.C: Brookings Institution Press, 2001, pp.1-21.

為了防止概念過度擴張而致使其實際意義失效,有學(xué)者主張采取最簡概念范式來理解和構(gòu)建問責(zé)制。問責(zé)就最基本意義而言是指“對其他人負(fù)責(zé),有義務(wù)解釋和論證作為或不作為的正當(dāng)性”。(28)Olsen J.P., “Accountability and Ambiguity”, The Oxford Handbook of Public Accountability, edited by Bovens M., Robert E.G. and Thomas S., Oxford: Oxford University Press, 2014, pp.106-124.博文斯對此做了更具結(jié)構(gòu)化的說明,將狹義的問責(zé)制理解為一種存在于行動者(Actor)和問責(zé)者組成的公共論壇(Forum)之間社會關(guān)系,其中,行動者有義務(wù)對其行為進(jìn)行解釋和辯護(hù),問責(zé)者則需要提出問題并做出判斷,行動者最終可能面臨某種后果。(29)Bovens M., “Analysing and Assessing Accountability: A Conceptual Framework”, European Law Journal, vol.13, no.4(June 2007), pp.447-468.在這個定義結(jié)構(gòu)里,問責(zé)制至少包含了以下方面:責(zé)任的分配,包括由誰負(fù)責(zé),對誰負(fù)責(zé),負(fù)有何種責(zé)任;問責(zé)的必要過程,包括提供信息、影響評估、開展討論和做出判斷;問責(zé)的結(jié)果,包括懲罰、糾錯和補償?shù)取?/p>

(二)責(zé)任分配

大多數(shù)原則主張在責(zé)任分配時采用分布式的責(zé)任結(jié)構(gòu),使責(zé)任在參與人工智能設(shè)計、開發(fā)、制造、部署、運營、操作等各環(huán)節(jié)的行動者之間進(jìn)行分配。而分配的結(jié)果,特別是責(zé)任和主體之間的匹配關(guān)系,應(yīng)該是明確并可識別的(76),換言之是一種“大聲說出來的責(zé)任”(58)?,F(xiàn)有原則就具體的行動者所負(fù)有的責(zé)任進(jìn)行了不同程度的規(guī)約,但治理的焦點落在了技術(shù)專家或?qū)I(yè)群體上。他們被要求明確自身的資質(zhì)、專業(yè)知識和局限性(8),告知利益相關(guān)方技術(shù)目的和潛在影響(87),降低風(fēng)險和預(yù)防不當(dāng)后果(82),向社會發(fā)出通知和警告(17),并在損害發(fā)生時能夠有效減輕其程度,共享和發(fā)展行業(yè)標(biāo)準(zhǔn)和最佳實踐(38)等。但這種責(zé)任聲明顯得十分寬適,幾乎是對通用原則的重申。

規(guī)范的模糊性同樣存在于有關(guān)問責(zé)主體及負(fù)責(zé)對象的表述里。最常見的問責(zé)主體是“利益相關(guān)方”和“受不利影響者”,在由企業(yè)發(fā)布的原則中也表述為“用戶”或“客戶”,而在公共部門的主張中則往往是“公眾”。但在這些寬泛的主張中,鮮有與上述社會角色相匹配的權(quán)利和義務(wù)聲明。另一些原則主張通過代理機構(gòu)進(jìn)行問責(zé),包括獨立的外部審計機構(gòu)、公共部門或是多方組建的倫理委員會等(38,8,28,49)。當(dāng)利益相關(guān)方和受不利影響者不具備問責(zé)能力時,通過這些代理機構(gòu),他們可以更有效地參與問責(zé)過程,維護(hù)自身的權(quán)益。而在科技和工程領(lǐng)域,專業(yè)同行成為了一類重要的問責(zé)主體,作為共享特定實踐標(biāo)準(zhǔn)和倫理規(guī)范的共同體能夠?qū)ζ涑蓡T的行為產(chǎn)生實際約束力,特別是在復(fù)雜技術(shù)的情境里,往往只有專業(yè)同行才具備問責(zé)所需的各種知識和能力。

(三)問責(zé)過程

問責(zé)的程序首先涉及信息的披露和獲取,特別是與行動者行為及其后果相關(guān)的信息。只有改變問責(zé)者和行動者之間的信息不對稱的處境,問責(zé)流程才能有效運轉(zhuǎn)。一方面,這構(gòu)成了被問責(zé)者的義務(wù)。被問責(zé)方需要記錄過程數(shù)據(jù)并保證結(jié)果的可追溯性(10),以便向問責(zé)方提供及時、準(zhǔn)確和完整的信息(75),同時這些信息還必須易于訪問和理解(44),因此解釋也成為了必要環(huán)節(jié)(72),這些信息披露的方式往往被要求以制度化的方式確定下來,以構(gòu)成問責(zé)制鏈條的一環(huán)(82)。另一方面則是對問責(zé)方的能力提出要求。對于個體而言,提高對人工智能技術(shù)的理解是有效參與問責(zé)過程的基礎(chǔ),一些原則甚至將之視為智能時代的新型“公民素養(yǎng)”(55)。對于公共部門而言,為了持續(xù)地評估和審查行動者,應(yīng)該擴展政策工具箱,組合利用監(jiān)管和非監(jiān)管方法實現(xiàn)敏捷和靈活的問責(zé)行動(83)。

在信息充分披露的基礎(chǔ)上,問責(zé)有賴于對行動的實際或潛在影響進(jìn)行評估?,F(xiàn)有的原則中,既有基于功利主義的利弊衡量或風(fēng)險與收益評估,也涉及對人權(quán)影響與社會公平的評估,關(guān)注人工智能的技術(shù)后果在多元群體間的分配?;谟绊懙脑u估和特定的評判標(biāo)準(zhǔn),問責(zé)者往往會在充分辯論后做出判斷。但問責(zé)評估所依據(jù)的標(biāo)準(zhǔn)并不總是明確的,問責(zé)實踐涉及到對相互競爭的目標(biāo)、主張和規(guī)范標(biāo)準(zhǔn)以及內(nèi)部和外部期望之間的復(fù)雜權(quán)衡。(30)Busuioc M. and Lodge M., “Reputation and Accountability Relationships: Managing Accountability Expectations Through Reputation”, Public Administration Review, vol.77, no.1(August 2017), pp.91-100.在現(xiàn)有的原則中出現(xiàn)的問責(zé)依據(jù)也各不相同,但大體可以分為四類,一是科學(xué)技術(shù)自身的規(guī)律,如“依據(jù)科學(xué)和信息技術(shù)的流程”(83)“最佳技術(shù)實踐”(87);二是現(xiàn)有的法律框架,如“法律應(yīng)當(dāng)明確責(zé)任和設(shè)計問責(zé)制”(20)“遵守法律(如《通用技術(shù)條例》)是對數(shù)據(jù)和隱私進(jìn)行道德評估的良好起點”(82);三是各類規(guī)范,如“國際社會、國家、行業(yè)和團(tuán)體制定的標(biāo)準(zhǔn)規(guī)范”(73);四是社會的道德原則,如“符合道德責(zé)任……使這些原則具有可操作性”(64)。盡管現(xiàn)有的原則注意到了當(dāng)前問責(zé)依據(jù)的多樣性,但卻并沒有進(jìn)一步討論如何化解這些相互競爭的問責(zé)依據(jù)間的內(nèi)在張力。這些問責(zé)依據(jù)似乎和不斷擴張的問責(zé)制一樣成為了治理合法性的話語資源,在一個結(jié)構(gòu)完整的治理框架中承擔(dān)著象征性功能。

(四)問責(zé)結(jié)果

問責(zé)的最終目的是要構(gòu)成一種治理實踐,基于判斷結(jié)果對責(zé)任方和受影響者采取行動,或者在預(yù)防意義上避免特定行為及其影響的產(chǎn)生。就事后處置的角度而言,通常包括對責(zé)任方做出懲戒,對受不利影響者予以補償,或在非個體層面對損害進(jìn)行修復(fù)或補救,并對既有的行動策略和技術(shù)系統(tǒng)進(jìn)行調(diào)整與修正。基于“設(shè)計出的問責(zé)制”思路,將訴訟和糾紛解決機制嵌入在智能系統(tǒng)中也體現(xiàn)在現(xiàn)有原則中,成為了問責(zé)結(jié)果兌現(xiàn)的一種路徑,如“機器人的決策路徑必須以訴訟和糾紛解決為目的進(jìn)行重構(gòu)”。(3)另一種兌現(xiàn)路徑則是通過創(chuàng)新保險機制以在社會范圍內(nèi)分?jǐn)傂袆映杀?73),在保證救濟和補償?shù)耐瑫r,又避免行動的責(zé)任成本過高而使智能技術(shù)的發(fā)展和應(yīng)用受到限制。就事前預(yù)防的角度而言,問責(zé)制本身就對行動者構(gòu)成了一種常規(guī)的約束,促使他們?yōu)榱吮苊鈶土P而預(yù)先防范。不僅如此,防范不良后果和向社會預(yù)警等事前預(yù)防行為本身就是問責(zé)制框架下相關(guān)行動者應(yīng)該承擔(dān)的責(zé)任和義務(wù)。

五、社會協(xié)同原則:治理的行動結(jié)構(gòu)

不論是建構(gòu)符合期望的人工智能系統(tǒng),還是對技術(shù)的社會后果負(fù)責(zé),這些治理行動都有賴于特定社會行動結(jié)構(gòu)的支持。我們應(yīng)該以怎樣的社會組織模式來促進(jìn)技術(shù)的發(fā)展和應(yīng)用,應(yīng)對技術(shù)造成的一系列后果?社會協(xié)同成為了具有共識基礎(chǔ)的答案。在我們搜集的文本中,有53份主張在人工智能治理中促進(jìn)社會協(xié)同。而在具體的語境中,社會協(xié)同原則指向了以下兩個方面。

(一)社會協(xié)同作為信任基石

社會協(xié)同首先作為一種信任培育機制發(fā)揮著作用,在認(rèn)知和控制能力始終難以臻于完備的情況下,為技術(shù)的發(fā)展和應(yīng)用提供必要的文化準(zhǔn)備和制度安排。對技術(shù)失控的畏懼構(gòu)成了一種“現(xiàn)代性”的恐慌。對此,科林格里奇提出了“技術(shù)控制困境”進(jìn)行闡述。(31)Collingridge D., The Social Control of Technology, New York: St. Martin’s Press, 1980, p.13.他認(rèn)為,一方面技術(shù)信息始終處于一種時序上的不對稱狀態(tài),即只要新技術(shù)沒有廣泛的發(fā)展和應(yīng)用,就難以對其社會影響做出預(yù)測,另一方面則是新技術(shù)一旦得到廣泛使用就很難控制和改變其社會影響。這種困境要求我們在潛在影響難以預(yù)測和失控風(fēng)險不可消除的情境下妥善處理技術(shù)的發(fā)展和應(yīng)用問題,并避免陷入“技術(shù)放任”和“技術(shù)拘禁”的極端情況?,F(xiàn)代社會通過“脫域”機制得以急劇延伸,我們不可避免地被卷入到一系列賴以生活的專家系統(tǒng)中。(32)安東尼·吉登斯:《現(xiàn)代性的后果》,田禾譯,譯林出版社2000年版,第24頁。由于個體無法詳盡地驗證這些專家系統(tǒng)背后的專業(yè)知識的可靠性,于是出現(xiàn)了普遍的安全感缺失。這就涉及到了社會信任的問題,正如吉登斯指出尋求信任的首要原因本就是“缺乏完整的信息”。(33)安東尼·吉登斯:《現(xiàn)代性的后果》,田禾譯,譯林出版社2000年版,第29頁。在這個意義上信任并不是要完全消除潛在風(fēng)險,反而往往與風(fēng)險交織在一起,通過對風(fēng)險的估算與之達(dá)成一種平衡。換言之就是我們在何種程度上可以信任技術(shù),這種信任如何通過一種社會制度的安排得以實現(xiàn)?

按照吉登斯的觀點,現(xiàn)代制度中的信任模式就其性質(zhì)而言,實際上是建立在知識基礎(chǔ)的模糊和片面理解之上的。盡管信息缺失和不對稱的情況難以消解,但許多原則依然主張有效的信息交換和社會溝通。

一些原則的制定者依然沒有放棄縮減知識鴻溝和打開技術(shù)黑箱的嘗試,對于從根本上緩解技術(shù)恐懼并將信任建立在充分理解的基礎(chǔ)上抱有持續(xù)的期望。但更多的情況下,這種主張的目的是促成一種對技術(shù)-社會環(huán)境的默認(rèn)。對盧曼而言信任是社會復(fù)雜性的簡化機制,用于解決社會復(fù)雜性在個體層面帶來的無所適從的選擇困境,從而使個體能夠投入社會生活,驅(qū)動社會行動。(34)尼克拉斯·盧曼:《信任:一個社會復(fù)雜性的簡化機制》,瞿鐵鵬、李強譯,上海世紀(jì)出版集團(tuán)2005年版,第3-11頁。在這個意義上溝通并不是制造理解而是促成適應(yīng)。所以這種溝通傳遞的往往是一些印象或承諾,這包括了專家系統(tǒng)能力的可靠性,公共部門監(jiān)管的有效性,以及人工智能系統(tǒng)的道德一致性。甚至有的原則還要求制造一種參與感來增強信任,“改善與人工智能有關(guān)的溝通,這樣人們才會覺得自己是人工智能發(fā)展進(jìn)程中的一部分,而不是被動的接受者,甚至是受害者”(39)。

有時候保持溝通的態(tài)度本身就可以帶來信任。吉登斯認(rèn)為對特定抽象體系的信任或不信任態(tài)度很容易受到在抽象體系入口處經(jīng)驗的強烈影響。(35)安東尼·吉登斯:《現(xiàn)代性的后果》,田禾譯,譯林出版社2000年版,第79頁。保持溝通的態(tài)度在一定程度上傳遞了尊重和友好,為非專業(yè)人群提供了更為良好的“入口處”體驗,有助于促進(jìn)信任關(guān)系的形成。盡管信任始終存在一定盲目性,但這并不意味著專家系統(tǒng)對非專業(yè)人士的單方面操縱。荷蘭學(xué)者瑞普提出了建設(shè)性技術(shù)評估方法,他主張增強開發(fā)者與社會行動者之間的互動,從而將否證性技術(shù)社會學(xué)的價值批判帶入技術(shù)研發(fā)共同體內(nèi)部,迫使技術(shù)開發(fā)者嚴(yán)肅對待相關(guān)批評,與批評者合力尋求更好的解決方案。(36)Johan Schot B. and Arie Rip A.,“The Past and Future of Constructive Technology Assessment”,Technological Forecasting &Social Change, vol.54, no.2 (February 1997), pp.251-268.在這個意義上,“入口處”的這些經(jīng)驗也在一定程度上更新了知識,并促成了彼此間實質(zhì)的互動和共同的行動,正如有原則所說的:“在人工智能科學(xué)家和工程師之間創(chuàng)造一種合作、信任和開放的文化,以幫助我們更好地實現(xiàn)這些目標(biāo)?!?6)

(二)社會協(xié)同作為治理模式

人工智能作為一項系統(tǒng)工程,其開發(fā)、部署和應(yīng)用往往涉及到社會多層次的協(xié)作。隨著人工智能治理所面對的現(xiàn)實情境日益復(fù)雜,參與治理實踐的主體也日益多元。而治理這一概念本身也包含著權(quán)力下放、多方參與和去中心化的意涵。多元協(xié)作的治理模式正在成為人工智能領(lǐng)域的共識,要求積極開展合作建立跨學(xué)科、跨領(lǐng)域、跨部門、跨機構(gòu)、跨地域、全球性、綜合性的人工智能治理生態(tài)系統(tǒng)(77)。通過對原則文本的整理和分析,我們發(fā)現(xiàn)多元協(xié)作治理的主張建立在三個制度邏輯上:

其一是突破局部的制度或技術(shù)壁壘,促進(jìn)全局治理。人工智能技術(shù)與信息通信技術(shù)高度重疊,具有“去疆域化”(37)Floridi L., “Hyperhistory and the Philosophy of Information Policies” ,The Onlife Manifesto: Being Human in a Hyperconnected Era, edited by Floridi L., Berlin: Springer Nature, 2015, P.56.的特征,民族國家在其主權(quán)范圍之內(nèi)難以有效行動,因此有原則呼吁一個跨國家和跨區(qū)域的全球治理體系(73)。另一方面人工智能技術(shù)應(yīng)用的廣泛性使之牽涉到不同的社會領(lǐng)域,局部管轄權(quán)和行動能力無法跨越制度和技術(shù)的壁壘應(yīng)對全局性的治理需求。為了保障治理的有效性,需要通過構(gòu)建共同規(guī)范和協(xié)同制度促進(jìn)跨領(lǐng)域和跨部門的治理活動(83)。

其二是共享知識和經(jīng)驗的需求。這一方面要求在人工智能技術(shù)領(lǐng)域開放行業(yè)經(jīng)驗,特別是有關(guān)錯誤、缺陷(11)、網(wǎng)絡(luò)攻擊或黑客行為(19)的經(jīng)驗,以促進(jìn)行業(yè)共同面對挑戰(zhàn),尋求最佳治理實踐。正如有原則指出的“訪問代碼的人越多,越有可能解決程序漏洞,化解潛在風(fēng)險并獲得長期機會”(39)。另一方面則要求人工智能專業(yè)領(lǐng)域之外的各種文化、專業(yè)、學(xué)科進(jìn)行組合,以廣泛的知識、視角、理念為基礎(chǔ)用于識別和解決數(shù)據(jù)處理的社會和道德后果,最大限度地減少未經(jīng)考慮的風(fēng)險(75)。

其三是人工智能的開發(fā)和應(yīng)用過程廣泛影響了多元人群,基于對自治價值的尊重,在人工智能治理的進(jìn)程中引入多利益相關(guān)方機制,能夠有效地保障人們自我管理和自主決定的權(quán)利。在這個意義上,協(xié)作治理還意味著民主制度和公共秩序的調(diào)整,避免因市場、技術(shù)和信息資源的壟斷而帶來權(quán)力的壟斷,摧毀民主協(xié)商的公共秩序,同時也充分尊重不同人群的價值和需求,避免由代表性不足造成的歧視和壓迫。例如有原則指出,在人工智能應(yīng)用開發(fā)與實施的所有階段,都應(yīng)該支持弱勢群體和邊緣化個體作為創(chuàng)造者、利益相關(guān)者、領(lǐng)導(dǎo)者和決策者參與其中(37)。從而確保人工智能技術(shù)與公民對美好生活的各種觀念相適應(yīng)(42)。

治理主體的多樣性意味著需要更有效地進(jìn)行協(xié)調(diào)與統(tǒng)合。因此元治理的理念也被引入到了人工智能領(lǐng)域。元治理被認(rèn)為是對治理的治理,是一種二階治理的形式,涉及到為其它治理行動者制定規(guī)則和規(guī)范,創(chuàng)造治理行動開展所需的條件(38)Jessop B., “The Rise of Governance and the Risks of Failure: The Case of Economic Development”, International Social Science Journal, vol.50, no.155(March 1998), pp.29-45.,對不同治理方式進(jìn)行協(xié)調(diào),減少碎片化和重疊性。許多公共部門正在改變自己在治理框架中扮演的角色,通過在內(nèi)部促進(jìn)部門間協(xié)同,在外部構(gòu)建治理網(wǎng)絡(luò)的形式承擔(dān)元治理的功能。不過也有觀點認(rèn)為公共部門也僅僅是治理網(wǎng)絡(luò)中的節(jié)點,應(yīng)該構(gòu)建一個更加超越性的元治理機構(gòu),如多利益攸關(guān)方組建倫理委員會(55),以推動多元治理主體間的協(xié)同。在某種意義上,這些原則文件本身就意味著元治理的嘗試,通過建構(gòu)倫理共識和行動框架來促進(jìn)參與和協(xié)同。不過激增的原則文本也是當(dāng)下治理實踐多元化和碎片化的寫照,顯示了不同治理主體和治理范式之間的競爭。

六、結(jié)語

結(jié)合對88份治理原則的整合與分析,研究為人工智能治理領(lǐng)域勾勒出了一幅具有整體性視角的圖景。通過聚焦原則文本中蘊含的實踐導(dǎo)向,研究發(fā)現(xiàn)在激增的文本和多元化的主張之下,雖然觀點張力依然存在,但一個具有共識基礎(chǔ)的行動框架已經(jīng)初具雛形(見下圖)。

人工智能治理原則的共識框架圖

這個框架建立在三項實踐準(zhǔn)則之上:可靠性原則、問責(zé)制原則、社會協(xié)同原則。可靠性作為對人工智能系統(tǒng)的總體性要求而提出,它包含了有效性、穩(wěn)健性和優(yōu)化三個彼此關(guān)聯(lián)的技術(shù)指標(biāo)。而可靠性原則在更深層次上著眼于人和技術(shù)互動模式,要求在設(shè)計和部署人工智能系統(tǒng)時將人類置于循環(huán)中,這一方面意味著人類行動者的參與是實現(xiàn)可靠性的重要條件,另一方面則回歸到了以人為本和尊重人類自主性的倫理主張上,要求技術(shù)系統(tǒng)最終由人類所控制。盡管我們希望人工智能系統(tǒng)能夠以符合期望的方式持續(xù)運轉(zhuǎn),但也必須抱以現(xiàn)實的態(tài)度考慮如何應(yīng)對非預(yù)期的技術(shù)后果。由此,問責(zé)制原則被提出,成為與可靠性原則相互補充的重要維度。問責(zé)意味著行動者要接受公開的審查并為自己的行為承擔(dān)相應(yīng)的責(zé)任,它建立在行動者和問責(zé)者之間的社會關(guān)系之上,依靠信息告知、質(zhì)疑與辯護(hù)、評估與判斷等必要過程來促進(jìn)責(zé)任的追溯和承擔(dān)。然而,不論是構(gòu)建可靠的人工智能還是應(yīng)對它產(chǎn)生的社會后果,這些治理行動都離不開特定社會行動結(jié)構(gòu)的支持,而社會協(xié)同原則就回應(yīng)了這個層面的問題。在技術(shù)風(fēng)險難以根絕的現(xiàn)實之下,充分且有序的社會互動和信息交換被認(rèn)為是社會信任的基石,能夠幫助我們避免陷入技術(shù)放任和技術(shù)拘禁的極端境地。而面對人工智能治理系統(tǒng)化、全局性的特征,多元協(xié)作的治理模式也日益成為共識。

此外,不可忽視的是這三個原則都內(nèi)在地指向了另一項被頻頻提及的重要原則——透明性。在人工智能的語境下,透明性是一個頗具相對性的復(fù)雜概念,涵蓋了可觀測、可解釋和可預(yù)測等方面。(39)Chen J.Y., et al., “Situation Awareness-Based Agent Transparency and Human-Autonomy Teaming Effectiveness”, Theoretical Issues in Ergonomics Science, vol.19, no.3(February 2018), pp.259-282.在不同的治理目標(biāo)和現(xiàn)實語境下,透明性的內(nèi)涵也各不相同。也正是因此,雖然透明性在許多原則文本中被單獨列出,但往往是踐行其他原則的必要條件。佛洛里迪在其統(tǒng)一框架中就表示要“通過可解釋性原則實現(xiàn)其他原則”。(40)Floridi L. and Josh C., “A Unified Framework of Five Principles for AI in Society”, Machine Learning and the City: Applications in Architecture and Urban Design, edited by Carta S., Hoboken: Wiley, 2022, pp.535-545.在可靠性的要求下,對機器效用的檢驗需要有效評估機器的運行狀態(tài),而人類處于循環(huán)中的原則同樣也要求人機之間進(jìn)行有效的信息交換以確保人類參與。在可問責(zé)的要求下,信息告知和解釋是一切問責(zé)制的前提,外部審計的過程本身就帶有逆向工程學(xué)破解黑箱實現(xiàn)系統(tǒng)透明的意味。在社會協(xié)同的要求下,社會信任的議題本身就圍繞著透明度能在何種程度上實現(xiàn),以及基于這種隨時被校準(zhǔn)的信任來調(diào)整人機關(guān)系。而去除人為的信息壟斷,積極地推進(jìn)信息共享,也是多元協(xié)作治理的基礎(chǔ)。在這個意義上,透明性原則成為了內(nèi)在于這一行動框架的核心,支撐起了構(gòu)成框架的三項原則。

對于這一框架的理解也應(yīng)該置于人工智能發(fā)展的現(xiàn)實背景下進(jìn)行。當(dāng)下人工智能正在經(jīng)歷第三次發(fā)展浪潮,基于大數(shù)據(jù)的深度學(xué)習(xí)是當(dāng)下人工智能發(fā)展的“引擎”,大數(shù)據(jù)、超級計算能力和新的數(shù)學(xué)方法被認(rèn)為是深度學(xué)習(xí)取得突破性進(jìn)展的基礎(chǔ)。(41)徐雷:《人工智能第三次浪潮以及若干認(rèn)知》,《科學(xué)》,2017年第3期。以GPT-4為代表的萬億級參數(shù)的大模型正是這一技術(shù)進(jìn)展的代表,并將人工智能技術(shù)推向了變革前夜。不同于早期邏輯主義關(guān)注證明、推理過程和抽象邏輯表達(dá),深度學(xué)習(xí)依賴于大量高質(zhì)量的數(shù)據(jù)進(jìn)行訓(xùn)練。這意味著人們不再定義運算的規(guī)則,而是通過持續(xù)的輸入和輸出訓(xùn)練,使算法自己形成判斷。人們往往無法完全評估算法的“黑箱”是如何得出特定答案的,這也使得“可解釋”問題成為第三次人工智能浪潮的核心困境和討論焦點。研究中涉及的文本大多伴隨著深度學(xué)習(xí)的浪潮而生,有關(guān)數(shù)據(jù)科學(xué)和數(shù)據(jù)應(yīng)用領(lǐng)域的探討成為原則文本的焦點和熱點,有15份原則文件直接將其作為主題。正如上文所述,對數(shù)據(jù)質(zhì)量的評估和維護(hù)成為可靠性原則的重要方面,通過優(yōu)化數(shù)據(jù)集來優(yōu)化人工智能也成為行業(yè)共識,而算法的穩(wěn)健性也越來越多地被理解為應(yīng)對數(shù)據(jù)變化的能力。對數(shù)據(jù)的追溯和對算法結(jié)果的解釋也成為問責(zé)制面臨的主要問題。而以GPT為代表的“大模型”和“大算力”的發(fā)展模式,正在使人工智能技術(shù)的開發(fā)中心化,僅有資源雄厚的大公司才能夠參與這場“軍備競賽”,這也意味著資源的共享和流動可能受到前所未有的挑戰(zhàn)。但另一方面大數(shù)據(jù)本身并不產(chǎn)生于大公司,而是來自豐富的人類數(shù)字活動,移動互聯(lián)網(wǎng)挑戰(zhàn)了萬維網(wǎng)的開放結(jié)構(gòu),通過獨立APP構(gòu)建起數(shù)據(jù)壁壘,而這也將成為當(dāng)下人工智能發(fā)展的結(jié)構(gòu)性約束。第三次浪潮之下,社會協(xié)同的重要性也空前凸顯。

2017年中國發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中確立了倫理規(guī)范、法律法規(guī)、政策體系“三步走”的整體戰(zhàn)略。如何邁出步伐,走通治理之路不僅是中國,也是全世界面臨的重要挑戰(zhàn)。在一定程度上,一個凝聚共識的行動框架是宏觀的倫理主張轉(zhuǎn)化為治理實踐和制度體系的橋梁?,F(xiàn)有的治理原則文本不僅圍繞以人為本,福祉與尊嚴(yán),效益與公平的價值主張構(gòu)建了一個倫理框架,(42)趙瑜、周江偉:《人工智能治理原則的倫理基礎(chǔ):價值立場、價值目標(biāo)和正義原則》,《浙江社會科學(xué)》,2023年第1期。為治理行動賦予了目標(biāo),其中還包含著一系列有關(guān)如何實現(xiàn)這些目標(biāo)的實踐準(zhǔn)則。這項研究通過嵌入語境的分析與跨文本的整合,提煉出這個具有共識基礎(chǔ)的行動框架,希望能使它成為從倫理規(guī)范邁向法律法規(guī)和政策體系的踏板與橋梁。

附表 研究涉及的人工智能治理原則文本

猜你喜歡
問責(zé)原則人工智能
讓事故問責(zé)生威
監(jiān)督執(zhí)紀(jì)問責(zé)如何“備豫不虞”
“濫問責(zé)”的6幅畫像
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
堅守原則,逐浪前行
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
對“數(shù)字脫貧”要問責(zé)
下一幕,人工智能!
無罪推定原則的理解與完善
定日县| 许昌县| 合阳县| 赞皇县| 乌什县| 乌鲁木齐市| 贡山| 富平县| 南昌县| 龙胜| 涡阳县| 得荣县| 论坛| 临桂县| 吉木萨尔县| 罗平县| 上虞市| 新宁县| 淳化县| 石林| 扎鲁特旗| 阳新县| 衢州市| 庆元县| 苏尼特右旗| 颍上县| 栖霞市| 兰西县| 玛纳斯县| 台东县| 伊吾县| 巴东县| 顺平县| 四会市| 右玉县| 仪陇县| 玛多县| 沅江市| 黎平县| 西乡县| 故城县|