摘要:企業(yè)是重要的人工智能實(shí)踐主體,監(jiān)督問責(zé)機(jī)制的缺位和企業(yè)對倫理原則內(nèi)在承諾的缺失,導(dǎo)致倫理原則難以約束企業(yè)在該領(lǐng)域的前沿實(shí)踐。命令控制型規(guī)制作為對企業(yè)行為的直接規(guī)制模式,無法有效滿足人工智能倫理治理的現(xiàn)實(shí)要求。元規(guī)制作為一種對企業(yè)自我規(guī)制的間接規(guī)制模式,能夠以實(shí)驗(yàn)性的自我規(guī)制積累治理經(jīng)驗(yàn),以民主協(xié)商凝聚規(guī)范性共識,以激勵性問責(zé)激發(fā)企業(yè)對原則的內(nèi)在承諾,從而推動企業(yè)將人工智能倫理原則付諸實(shí)踐。建構(gòu)人工智能倫理治理的元規(guī)制機(jī)制,應(yīng)以風(fēng)險(xiǎn)為導(dǎo)向設(shè)定類型化和場景化的規(guī)制目標(biāo),通過執(zhí)法金字塔和企業(yè)的分類監(jiān)管,提升人工智能企業(yè)自我規(guī)制的意愿和能力,并建立對人工智能企業(yè)自我評估的元評估機(jī)制。
關(guān)鍵詞:人工智能倫理;企業(yè)監(jiān)管;自我規(guī)制;元規(guī)制
中圖分類號:DF37;F27" " 文獻(xiàn)標(biāo)志碼:A" " 文章編號:1001-862X(2024)05-0148-008
一、人工智能倫理的共識性原則及元規(guī)制的提出
隨著人工智能技術(shù)的發(fā)展,社會各界對其引發(fā)的算法偏見、隱私泄露、技術(shù)濫用等倫理風(fēng)險(xiǎn)的擔(dān)憂也日漸增加。人們紛紛呼吁對人工智能展開倫理治理,使其應(yīng)用符合人類的價(jià)值觀,實(shí)現(xiàn)“人機(jī)價(jià)值對齊”[1]。在此背景下,各國政府、國際組織、行業(yè)協(xié)會和科技公司等近年來發(fā)布了一系列人工智能倫理建議、準(zhǔn)則、指南等規(guī)范性文件。(1)截至2023年,全球人工智能倫理治理的規(guī)范性文件已有200余部。[2]各類人工智能倫理文件中的原則已經(jīng)逐漸趨同,大體可歸納為行善(Beneficence)、無害(Non-Maleficence)、正義/公平(Justice,Fairness)、隱私保護(hù)原則(Privacy)、透明/可解釋原則(Transparency,Explicability)、責(zé)任/問責(zé)原則(Responsibility,Accountability)自由/自主(Freedom,Autonomy)等七項(xiàng)。[3]隨著社會各界對于人工智能應(yīng)遵循什么樣的倫理原則已經(jīng)形成基本共識,下一步人工智能倫理治理的重點(diǎn)應(yīng)轉(zhuǎn)向如何在實(shí)踐中貫徹這些原則。[4]2141-2168
企業(yè)作為推動新一代人工智能發(fā)展的重要主體,對人工智能倫理原則的實(shí)踐有著重要影響。在國際上,AlphaGo、ChatGPT等突破性的算法應(yīng)用,均來自于DeepMind、OpenAI等人工智能企業(yè)。我國在政策上也多次強(qiáng)調(diào)企業(yè)在人工智能發(fā)展中的主體地位。2017年國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》指出:“突出企業(yè)在技術(shù)路線選擇和行業(yè)產(chǎn)品標(biāo)準(zhǔn)制定中的主體作用?!?022年科技部等六部門印發(fā)的《關(guān)于加快場景創(chuàng)新 以人工智能高水平應(yīng)用促進(jìn)經(jīng)濟(jì)高質(zhì)量發(fā)展的指導(dǎo)意見》也指出,推動人工智能場景創(chuàng)新應(yīng)以企業(yè)為主導(dǎo),“堅(jiān)持企業(yè)在場景創(chuàng)新全過程中的主體地位”。
身處產(chǎn)業(yè)一線的企業(yè)在人工智能治理方面擁有信息和技術(shù)上的優(yōu)勢,但天然的趨利性使其缺少足夠的動力貫徹人工智能倫理原則。針對這一難題,政府可采用元規(guī)制(Meta-Regulation)的監(jiān)管模式推動企業(yè)對原則的遵從。所謂元規(guī)制是指對規(guī)制本身的規(guī)制,具體而言即由監(jiān)管部門對企業(yè)自我規(guī)制實(shí)施的規(guī)制。因此,元規(guī)制是一種由多元主體構(gòu)成的二階監(jiān)管模式,其中,企業(yè)實(shí)施著自我規(guī)制,而監(jiān)管部門則在二階層次上對企業(yè)的自我規(guī)制進(jìn)行規(guī)制。[5]與之相對的監(jiān)管模式是一階的命令控制型規(guī)制,即監(jiān)管部門通過具體命令對企業(yè)行為的直接管控。在分析人工智能倫理原則實(shí)效性缺失表現(xiàn)和成因基礎(chǔ)上,本文剖析對比了命令控制型規(guī)制和元規(guī)制的治理邏輯,并試圖論證命令控制型規(guī)制難以化解人工智能倫理原則實(shí)效性缺失的問題,而元規(guī)制可為此提供一套可行的制度方案。
二、企業(yè)監(jiān)管視角下人工智能倫理原則的實(shí)效性缺失問題
從功能的角度來看,規(guī)范具有實(shí)效性意味著它能夠指引人們的行為。規(guī)范的指引功能既包括積極的指導(dǎo),即明確人們應(yīng)當(dāng)做什么,也包括消極的約束,即阻止人們實(shí)施越軌行為。因此,從企業(yè)監(jiān)管的視角來看,人工智能倫理原則實(shí)效性的缺失集中體現(xiàn)在其難以指導(dǎo)和約束企業(yè)實(shí)踐。
人工智能企業(yè)可以通過多種方式規(guī)避原則的要求。其中一種典型的規(guī)避方式就是所謂的“倫理選購”(ethics shopping),這是指人工智能企業(yè)從諸多倫理原則中挑選出部分原則,用它們來正當(dāng)化企業(yè)當(dāng)前的行為,而不是根據(jù)原則糾正和改進(jìn)既有的行為。企業(yè)從“原則市場”中挑選出最契合自己原有行為的各項(xiàng)原則,將該行為予以正當(dāng)化。人工智能倫理原則由此淪為一種企業(yè)在事后用于正當(dāng)化既有行為的幌子,而不再是一種可以敦促企業(yè)改變現(xiàn)狀的、批判性的評價(jià)標(biāo)準(zhǔn)。另一種規(guī)避原則的方式被稱為“倫理洗白”(ethics washing),這是指企業(yè)通過采取營銷、贊助等公關(guān)手段或者沒有實(shí)際作用的倫理審查措施,包裝出其遵守人工智能倫理的正面形象,但其實(shí)際的行為卻與之相反。[6]186-188此外,倫理原則與產(chǎn)業(yè)實(shí)踐存在著嚴(yán)重脫節(jié)。在設(shè)計(jì)符合倫理的人工智能產(chǎn)品時(shí),AI從業(yè)者能夠獲得的工具、方法等資源,遠(yuǎn)遠(yuǎn)少于他們認(rèn)為有用的資源。例如,接近30%的被訪者都認(rèn)為倫理設(shè)計(jì)細(xì)則是有用的,但是卻只有不足15%的被訪者可以獲得此類細(xì)則。[7]
人工智能倫理原則在實(shí)踐中效果不佳,其成因可以從原則的實(shí)體內(nèi)容和約束機(jī)制兩個(gè)方面進(jìn)行分析。在原則內(nèi)容方面,人工智能倫理原則高度抽象且模糊不清,這削弱了其對具體產(chǎn)業(yè)實(shí)踐的指導(dǎo)性;在約束機(jī)制方面,目前的人工智能倫理治理既缺少外部的監(jiān)督和問責(zé)機(jī)制,也缺少人工智能企業(yè)對原則的內(nèi)在承諾,故而難以對企業(yè)的行為產(chǎn)生約束。
首先,對于企業(yè)的算法開發(fā)和運(yùn)用實(shí)踐而言,過于抽象、籠統(tǒng)的倫理原則難以提供具體可操作的技術(shù)指引和行為規(guī)范。其一,規(guī)制對象具有高度的異質(zhì)性。[8]503人工智能并不是某種單一的技術(shù),而是問題求解、知識推理、機(jī)器學(xué)習(xí)等多種不同算法技術(shù)的集合。這些算法可以服務(wù)于內(nèi)容生成、人臉識別、機(jī)器翻譯等不同目的,并應(yīng)用于金融、醫(yī)療、司法等不同場景。技術(shù)和應(yīng)用的多樣性使得人工智能涉及的行業(yè)和利益群體具有高度異質(zhì)性,從而增加了倫理原則具體化的難度。其二,人工智能倫理缺少充足的實(shí)踐經(jīng)驗(yàn)基礎(chǔ)。就深度學(xué)習(xí)等塑造今天人工智能面貌的技術(shù)而言,其蓬勃發(fā)展僅僅是近二十年的事。在其短暫的歷史中,人工智能并未像醫(yī)學(xué)、法律那樣成為一個(gè)獨(dú)立的職業(yè),也沒有基于職業(yè)實(shí)踐而形成一套完備的職業(yè)倫理規(guī)范。[9]因此,目前的人工智能倫理原則主要是一種自上而下的人為建構(gòu)。它們只是抽象地表達(dá)了人們對于負(fù)責(zé)任人工智能的理想愿景,而沒有充足的實(shí)踐經(jīng)驗(yàn)作為支撐,所以難以具體化。
其次,內(nèi)容的模糊性是人工智能倫理原則缺乏實(shí)效的另一原因。原則內(nèi)容的模糊性體現(xiàn)在人們可以從不同的政治、利益和倫理立場出發(fā),對各原則的含義做出不同乃至于對立的解釋。[10]和抽象性問題不同,人工智能倫理原則的模糊性并不緣于技術(shù)的復(fù)雜性,而是緣于公平、正義、人類福祉等倫理價(jià)值本身的爭議性。例如在美國“威斯康辛州訴盧米斯”案中,Northpointe公司設(shè)計(jì)的一款用于預(yù)測罪犯累犯風(fēng)險(xiǎn)的算法將種族要素納入考量,這是否有違公正原則?一種觀點(diǎn)認(rèn)為,因?yàn)榉擅媲叭巳似降龋赃@是一種不當(dāng)?shù)姆N族歧視,違反了公平原則。另一種觀點(diǎn)則主張,如果有充足的統(tǒng)計(jì)學(xué)證據(jù)表明種族要素能夠預(yù)測罪犯的累犯風(fēng)險(xiǎn),那么這種差別對待就沒有違反公平;反之如果為迎合政治正確而刻意將種族要素從模型的變量中剔除,則構(gòu)成對白人的反向歧視。[11]因此一旦涉及具體問題的評判,被抽象的原則所掩蓋的價(jià)值分歧就會暴露出來。這種分歧不是技術(shù)層面的,而是價(jià)值層面的。它們反映了人們對倫理原則本身的理解分歧,而人工智能只是展現(xiàn)這些分歧的一個(gè)具體場景。
再次,人工智能倫理原則作為一種軟法,缺少有力的監(jiān)督和問責(zé)機(jī)制,因而難以對行為施加有效的外部約束。根據(jù)規(guī)制理論的基本原理,一套完整的規(guī)制機(jī)制應(yīng)當(dāng)包含標(biāo)準(zhǔn)制定、監(jiān)督執(zhí)行和問責(zé)懲戒三大要素。[12]然而,目前的人工智能倫理治理尚未建立完備監(jiān)督評估機(jī)制,對于違反倫理原則的行為亦缺少相應(yīng)的懲戒機(jī)制。雖然在正式監(jiān)管之外還有市場可以發(fā)揮規(guī)制功能,但事實(shí)上市場的約束往往難以奏效。因?yàn)槿鄙賴?yán)格的監(jiān)督,企業(yè)可以利用其與消費(fèi)者之間的信息不對稱,包裝自己在倫理治理方面的努力和成績,從而騙取良好的市場聲譽(yù),由于缺少正式有力的問責(zé),消費(fèi)者短期的抵制對于科技巨頭的影響十分有限,難以形成實(shí)質(zhì)性的懲戒。
強(qiáng)制懲戒機(jī)制的缺失,導(dǎo)致了人工智能倫理原則的貫徹基本依靠企業(yè)自律,取決于企業(yè)對倫理原則的內(nèi)在承諾,即出于認(rèn)同而踐行倫理原則的意愿。在現(xiàn)實(shí)中,有的企業(yè)卻缺少這種對原則的內(nèi)在承諾。這意味著當(dāng)遵守倫理原則與企業(yè)的商業(yè)利益相悖時(shí),企業(yè)往往會選擇原則妥協(xié)而非利益妥協(xié),尤其是在外部監(jiān)管缺位的情況下。
三、元規(guī)制提高人工智能倫理原則實(shí)效性的理據(jù)
從傳統(tǒng)法律規(guī)制的視角看,人工智能倫理原則缺乏實(shí)效性很大程度上緣于軟法規(guī)制的固有缺陷,即缺少具體明確的規(guī)則和有力的懲罰措施。因此,對于人工智能企業(yè)的監(jiān)管而言,應(yīng)當(dāng)從軟法規(guī)制轉(zhuǎn)向硬法規(guī)制,通過倫理原則的法律化提高其實(shí)效性,即根據(jù)原則制定具體的法律規(guī)則,對違反規(guī)則的行為設(shè)置法律責(zé)任,并投入執(zhí)法力量監(jiān)督企業(yè)是否守法。以命令和控制(command and control)為特征的規(guī)制模式,已經(jīng)難以滿足當(dāng)代人工智能倫理治理的需求,相比之下,元規(guī)制則能夠提供一種更為合理的規(guī)制方案。
(一)元規(guī)制與命令控制型規(guī)制的治理邏輯
命令控制型規(guī)制是一種對企業(yè)行為的直接規(guī)制。它將規(guī)制者和被規(guī)制者之間設(shè)想為一種科層式的“命令—服從”關(guān)系:由立法機(jī)關(guān)、政府等正式規(guī)制者發(fā)布法規(guī)和命令,而企業(yè)則予以遵照執(zhí)行。于是企業(yè)就被簡單地視為對法規(guī)和命令被動的服從者,其不需要進(jìn)行能動的自我規(guī)制,而只需嚴(yán)格甚至機(jī)械地遵守規(guī)則即可。然而,在環(huán)境治理、網(wǎng)絡(luò)治理和人工智能治理等新興的規(guī)制領(lǐng)域,命令控制型規(guī)制卻難以奏效,因?yàn)檫@些領(lǐng)域的治理問題往往具有很高的技術(shù)性、動態(tài)性和復(fù)雜性,而正式的監(jiān)管部門缺少必要的信息和資源去制定解決問題的合理對策。[13]169-170
企業(yè)對于新興領(lǐng)域的治理問題有著更為深入的了解,而且憑借其信息和技術(shù)上的優(yōu)勢,也更有能力找到解決問題的方案,但是企業(yè)作為營利主體,本身缺少動力實(shí)現(xiàn)公共性的規(guī)制目標(biāo)。元規(guī)制的治理邏輯在于,一方面利用被規(guī)制者的信息和技術(shù)優(yōu)勢,把尋找問題解決方案的責(zé)任從監(jiān)管部門轉(zhuǎn)移給企業(yè),另一方面通過執(zhí)法和問責(zé)機(jī)制,敦促其通過自我規(guī)制對規(guī)制目標(biāo)和監(jiān)管要求予以回應(yīng)。按照這一治理邏輯,元規(guī)制不再直接規(guī)制被規(guī)制者的行動,而是要間接地對其自我規(guī)制的過程實(shí)施規(guī)制。[14]
命令控制型規(guī)制和元規(guī)制治理邏輯的差異具體體現(xiàn)在以下兩個(gè)方面。一是,在命令的形式方面。命令控制型規(guī)制采用的是具體的指令性標(biāo)準(zhǔn)(prescriptive standard)或績效標(biāo)準(zhǔn)(performance standard),要求被規(guī)制者必須采取某種解決問題的手段,或者達(dá)到特定的績效。[15]151例如,為防止算法歧視,監(jiān)管部門要求人工智能企業(yè)采用特定的數(shù)據(jù)集缺陷檢測工具,或者要求算法輸出的錯誤率不得高于某一指標(biāo)。而在元規(guī)制中,規(guī)制者只會對被規(guī)制者提出一般性的目標(biāo),要求其通過自我規(guī)制,自行采取措施實(shí)現(xiàn)該目標(biāo)。例如,我國《生成式人工智能服務(wù)管理暫行辦法》第4條規(guī)定,生成式人工智能服務(wù)的提供和使用者應(yīng)當(dāng)“采取有效措施防止產(chǎn)生民族、信仰、國別、地域、性別、年齡、職業(yè)、健康等歧視”。這一規(guī)定就具有元規(guī)制的屬性,因?yàn)樗鼉H僅一般性地要求被規(guī)制者采取措施防止算法歧視,而沒有對具體的手段或達(dá)到的績效做出硬性規(guī)定。相比命令控制型規(guī)制,元規(guī)制賦予了被規(guī)制者更大的裁量空間以及自我規(guī)制的余地,允許它們根據(jù)實(shí)際情況采取最有利于解決問題的措施。[13]166
二是,在監(jiān)管的取向方面。傳統(tǒng)的命令控制型規(guī)制以規(guī)則為導(dǎo)向,這意味著企業(yè)監(jiān)管的重點(diǎn)在于確保其對規(guī)則的嚴(yán)格遵守,相應(yīng)的執(zhí)法活動也是以具體的規(guī)則為標(biāo)準(zhǔn),檢查企業(yè)行為是否符合相應(yīng)的規(guī)則。然而,很多時(shí)候單純形式上的守法并不能保證規(guī)制目標(biāo)的實(shí)現(xiàn)。例如,大型公司可以雇傭法務(wù)和律師,通過各種法律技術(shù)將實(shí)質(zhì)上的違法行為包裝成合法的。[16]與之相對,元規(guī)制以實(shí)現(xiàn)規(guī)制目標(biāo)為導(dǎo)向,其重點(diǎn)在于推動企業(yè)對規(guī)制價(jià)值的實(shí)質(zhì)遵從。體現(xiàn)在監(jiān)管方式上,在元規(guī)制中監(jiān)管部門的職責(zé)并不是檢查企業(yè)的行為是否在形式上符合規(guī)則,而是要監(jiān)督和評估其自我規(guī)制體系是否在實(shí)質(zhì)上有助于實(shí)現(xiàn)規(guī)制目標(biāo)。換言之,規(guī)制者不僅僅監(jiān)督企業(yè)紙面上建立的自我規(guī)制體系,更要監(jiān)督該體系是否實(shí)際運(yùn)作,并且在相應(yīng)的規(guī)制事項(xiàng)上切實(shí)取得了成效。[15]151
(二)元規(guī)制如何推動人工智能企業(yè)貫徹倫理原則
根據(jù)前文的分析,人工智能倫理原則缺乏實(shí)效性緣于目前的人工智能倫理治理缺少四種要素:人工智能治理經(jīng)驗(yàn)、對原則內(nèi)容的規(guī)范性共識、有力的監(jiān)督和問責(zé)機(jī)制以及企業(yè)對原則的內(nèi)在承諾。元規(guī)制之所以有望提升人工智能倫理原則的實(shí)效性,正是因?yàn)樗軌驈浹a(bǔ)這四項(xiàng)缺失。
1.通過實(shí)驗(yàn)性的自我規(guī)制積累經(jīng)驗(yàn)
命令控制型規(guī)制采用了一種自上而下的規(guī)制進(jìn)路。它假定規(guī)制者對于規(guī)制事項(xiàng)擁有充足的經(jīng)驗(yàn)和信息,已經(jīng)知道解決特定問題或者實(shí)現(xiàn)特定目標(biāo)的合理方案是什么。[17]然而,由于經(jīng)驗(yàn)和信息的欠缺,規(guī)制者在若干倫理原則中勾勒出的理想愿景,難以在具體的算法設(shè)計(jì)與監(jiān)管實(shí)踐中貫徹,更難以將倫理原則轉(zhuǎn)譯為具體的法律規(guī)則。
元規(guī)制則允許人工智能企業(yè)開展實(shí)驗(yàn)性的自我規(guī)制,由此為貫徹倫理原則積累經(jīng)驗(yàn)。與正式的監(jiān)管部門相比,人工智能企業(yè)因?yàn)樯硖幃a(chǎn)業(yè)一線,在信息、知識和技術(shù)等方面往往更具優(yōu)勢,所以更有能力找到貫徹倫理原則的可行方案。元規(guī)制恰恰利用了企業(yè)在信息和知識方面的優(yōu)勢,將制定規(guī)制方案的任務(wù)交給企業(yè),讓他們在自我規(guī)制的過程中,摸索出實(shí)現(xiàn)規(guī)制目標(biāo)的可行舉措。在具體規(guī)制措施方面,元規(guī)制采取了自下而上的進(jìn)路。不同于命令控制型規(guī)制,解決規(guī)制問題和實(shí)現(xiàn)規(guī)制目標(biāo)的具體措施,不是監(jiān)管部門在法規(guī)中事先確定下來的,而是企業(yè)在自我規(guī)制的實(shí)踐中,經(jīng)過反復(fù)試錯、總結(jié)經(jīng)驗(yàn)而摸索出來的。這種自下而上的規(guī)制進(jìn)路契合了當(dāng)下人工智能倫理規(guī)制的現(xiàn)實(shí)。[8]505并且,對于人工智能這種具有高度異質(zhì)性的規(guī)制對象而言,元規(guī)制相比命令控制型規(guī)制也具有顯著優(yōu)勢。因?yàn)橐?guī)制者不必就行為不同的技術(shù)、場景和行業(yè)制定不同的標(biāo)準(zhǔn),或是實(shí)施一刀切式的僵化管理,而是可以要求不同領(lǐng)域和行業(yè)的企業(yè)制定自己的自我規(guī)制方案。相應(yīng)地,規(guī)制者的角色就從制定和執(zhí)行具體的規(guī)制方案,轉(zhuǎn)為監(jiān)督企業(yè)為回應(yīng)監(jiān)管要求而進(jìn)行的自我規(guī)制。
2.通過民主協(xié)商凝聚規(guī)范性共識
在價(jià)值多元的現(xiàn)代社會,不同群體從各自的立場和價(jià)值觀出發(fā)對原則的解釋產(chǎn)生分歧,這本就是十分正常且無可避免的事。合理的解決方式只能訴諸自下而上的民主協(xié)商,讓企業(yè)和利益相關(guān)者在民主程序中,通過協(xié)商和妥協(xié)達(dá)成各方可以接受的人工智能倫理治理意見。
命令控制型規(guī)制所依賴的民主立法程序,在規(guī)制人工智能企業(yè)方面存在諸多局限。一是,正式的立法程序啟動困難、流程繁復(fù)且歷時(shí)漫長,無法對人工智能日新月異的技術(shù)發(fā)展做出敏捷回應(yīng)。二是,在傳統(tǒng)的立法程序中,代表是從特定地區(qū)、職業(yè)和民族等人群中選舉產(chǎn)生的,而不直接來自受算法影響的利益群體。如此產(chǎn)生的代表難以有針對性地表達(dá)受算法影響的利益群體的訴求,并在立法審議、表決等程序中維護(hù)其權(quán)益。三是,命令控制型規(guī)制的民主參與僅限于正式的立法決策,也就是讓民意代表參與法規(guī)的制定,而缺少了利益相關(guān)者對企業(yè)內(nèi)部決策的民主參與。因此,一旦規(guī)則制定完畢,剩下的工作便只是要求企業(yè)遵照執(zhí)行,利益相關(guān)者從此便與企業(yè)決策過程相隔離,不再能對其決策進(jìn)行直接的參與和監(jiān)督。
為了提高人工智能倫理治理的民主性,有必要使利益相關(guān)者能夠參與和影響企業(yè)決策,元規(guī)制恰為此提供了可行的制度方案。其一,信息披露制度。這要求企業(yè)向受算法影響的利益相關(guān)者披露有關(guān)自我規(guī)制的信息,包括自我規(guī)制的內(nèi)容、運(yùn)作情況和效果等等。這有助于企業(yè)為算法用戶和其他利益相關(guān)者提供信息,使之就如何實(shí)施倫理原則與企業(yè)管理者展開對話。其二,利益相關(guān)者協(xié)商制度。企業(yè)收集有關(guān)利益相關(guān)者訴求的信息,并在其內(nèi)部決策中加以考量;在部署和執(zhí)行企業(yè)的算法自我規(guī)制體系時(shí),設(shè)置相應(yīng)的協(xié)商程序,讓利益相關(guān)者和企業(yè)管理者共同商議監(jiān)管體系的具體內(nèi)容。其三,企業(yè)正義計(jì)劃(corporate justice plan)。這是讓企業(yè)考慮利益相關(guān)者訴求最為直接的方式,即賦予利益相關(guān)者質(zhì)疑、挑戰(zhàn)企業(yè)決策的權(quán)利和法律手段。這要求企業(yè)內(nèi)部建立處理算法用戶及其他利益相關(guān)者申訴的糾紛解決機(jī)制,并在無法妥善解決爭議時(shí),賦予利益相關(guān)者起訴請求否決企業(yè)決策的權(quán)利。[18]222-227
3.通過激勵性問責(zé)助推企業(yè)建立對原則的內(nèi)在承諾
缺少監(jiān)督問責(zé)機(jī)制和對原則的內(nèi)在承諾,是人工智能倫理原則難以約束企業(yè)行為的兩個(gè)主要原因。命令控制型規(guī)制可以提供前者,卻無法實(shí)現(xiàn)后者。命令控制型規(guī)制對企業(yè)的問責(zé),采用的是指令性或績效性標(biāo)準(zhǔn),即如果企業(yè)未能履行相應(yīng)的義務(wù)或者達(dá)到績效,就會受到懲罰。所以問責(zé)僅僅指向企業(yè)的外在行為,而不指向企業(yè)對規(guī)制目標(biāo)的內(nèi)在承諾。換言之,它只關(guān)心企業(yè)是否遵守規(guī)則,而不關(guān)心其是否內(nèi)化了規(guī)則背后的價(jià)值目標(biāo),以及遵守規(guī)則能否實(shí)現(xiàn)該目標(biāo)??梢哉f,在命令控制型規(guī)制中,監(jiān)管的起點(diǎn)也是它的終點(diǎn)。然而,這種規(guī)制模式對于人工智能倫理治理而言卻是不適宜的。原因主要有兩方面,一方面,由于缺少實(shí)踐經(jīng)驗(yàn)和規(guī)范性共識,倫理原則難以被轉(zhuǎn)譯為具體的指令性或績效性標(biāo)準(zhǔn);另一方面,即便制定和實(shí)施了具體的規(guī)則,也無法確保倫理原則所追求目標(biāo)的實(shí)現(xiàn)。事實(shí)上,在企業(yè)缺少內(nèi)在承諾的情況下,過于具體和技術(shù)化的規(guī)則反而會誘使企業(yè)實(shí)施法律規(guī)避,通過形式上的守法逃避其對規(guī)制目標(biāo)的實(shí)質(zhì)責(zé)任。[18]10
元規(guī)制可以通過激勵性的問責(zé)機(jī)制,助推企業(yè)建立對倫理原則的內(nèi)在承諾。當(dāng)企業(yè)的自我規(guī)制不符合監(jiān)管要求時(shí),元規(guī)制也會對企業(yè)進(jìn)行問責(zé)和懲戒。但是元規(guī)制的問責(zé)遵循恢復(fù)正義的價(jià)值,更強(qiáng)調(diào)激勵性而非懲罰性,旨在推動企業(yè)建立和完善其自我規(guī)制機(jī)制。要求企業(yè)通過自我規(guī)制對規(guī)制目標(biāo)做出回應(yīng),可以促使企業(yè)將規(guī)制目標(biāo)予以內(nèi)化,從而建立對目標(biāo)的內(nèi)在承諾。[27]27在人工智能倫理治理中,元規(guī)制問責(zé)的目的就不只是敦促企業(yè)實(shí)施自我規(guī)制,而是要借此使企業(yè)將倫理原則內(nèi)化到自身的決策前提和組織文化中,最終讓企業(yè)“想去做它們應(yīng)該做的事”。[19]102因此,元規(guī)制問責(zé)的終點(diǎn)超越了其起點(diǎn)。盡管問責(zé)直接指向的是企業(yè)的自我規(guī)制,但其最終的目標(biāo)在于“超越問責(zé)”,在于通過問責(zé)使企業(yè)建立對倫理原則的內(nèi)在承諾。[19]29由此可見,在倫理原則和法律的關(guān)系問題上,元規(guī)制和“法律化”模式的處理迥然不同。在元規(guī)制的框架中,倫理原則并未被法律規(guī)則所替代;法律既不是倫理原則具體化的產(chǎn)物,也不是強(qiáng)制執(zhí)行倫理原則的手段。毋寧說,法律在此發(fā)揮著類似于反思型法(2)的功能,它并不負(fù)責(zé)具體地執(zhí)行倫理原則,而是通過程序性和組織性的間接規(guī)制手段,助推企業(yè)對倫理原則的內(nèi)化和學(xué)習(xí)。[20]
四、人工智能倫理治理元規(guī)制的制度建構(gòu)
元規(guī)制旨在讓被規(guī)制者以自我規(guī)制對規(guī)則目標(biāo)做出回應(yīng),并通過對自我規(guī)制的監(jiān)督評估完成企業(yè)監(jiān)管的閉環(huán)。對于人工智能倫理治理而言,元規(guī)制模式的制度建構(gòu)應(yīng)依次圍繞以下三方面展開:首先以風(fēng)險(xiǎn)為導(dǎo)向設(shè)定類型化的規(guī)制目標(biāo),其次推動人工智能企業(yè)開展自我規(guī)制,最后對企業(yè)的自我規(guī)制進(jìn)行元評估。
(一)以風(fēng)險(xiǎn)為導(dǎo)向設(shè)定類型化、場景化的規(guī)制目標(biāo)
共識性的人工智能倫理原則為設(shè)定規(guī)制目標(biāo)提供了基本的參照。元規(guī)制作為貫徹倫理原則的制度工具,其目標(biāo)應(yīng)與這些共識性的倫理原則保持一致。
根據(jù)人工智能倫理原則設(shè)定規(guī)制目標(biāo),首先需要識別每個(gè)原則所針對規(guī)制的問題或風(fēng)險(xiǎn)。倫理原則是高度抽象的規(guī)范,而規(guī)制目標(biāo)則體現(xiàn)為特定領(lǐng)域內(nèi)需要解決的問題或者需要防范的風(fēng)險(xiǎn)。因此,倫理原則無法直接作為規(guī)制目標(biāo)。只有通過識別每項(xiàng)原則所針對的問題或風(fēng)險(xiǎn),才能將倫理原則轉(zhuǎn)譯為規(guī)制目標(biāo),并要求企業(yè)為解決相應(yīng)的問題而展開自我規(guī)制。就此而言,公正、隱私、自治、可問責(zé)和可解釋原則都具有較為明確的問題指向。例如,公正原則主要指向算法偏見和歧視問題,隱私原則指向個(gè)人信息的不當(dāng)處理問題,可解釋原則是算法黑箱問題等等。而行善和無害原則指向的問題則較為籠統(tǒng):行善原則涉及算法設(shè)計(jì)目的失范、能源消耗、侵犯個(gè)人尊嚴(yán)等;無害原則涵蓋了網(wǎng)絡(luò)攻擊、硬件物理安全等外部安全(Security)風(fēng)險(xiǎn),算法的可靠性、穩(wěn)健性和數(shù)據(jù)質(zhì)量等內(nèi)部安全(Safety)風(fēng)險(xiǎn),以及防控人工智能對人身或財(cái)產(chǎn)的侵害風(fēng)險(xiǎn)。[4]2151
在識別出各個(gè)倫理原則對應(yīng)的規(guī)制目標(biāo)后,還需要根據(jù)算法的技術(shù)類型、設(shè)計(jì)目的、應(yīng)用場景等要素,識別具體領(lǐng)域的風(fēng)險(xiǎn)類型,從而將規(guī)制目標(biāo)進(jìn)一步類型化。例如,對于自動駕駛算法而言,自治原則對應(yīng)的規(guī)制目標(biāo)是保證人類司機(jī)對駕駛的及時(shí)接管[21];而對于司法的自動化決策系統(tǒng)而言,相應(yīng)的目標(biāo)則在于防止算法侵犯法官的獨(dú)立裁判權(quán)[22]。此外,針對不同類型的算法技術(shù),倫理原則及其規(guī)制目標(biāo)的側(cè)重也有所不同。例如,對于人臉識別算法,重在規(guī)制不當(dāng)收集和泄露個(gè)人信息、數(shù)據(jù)歧視等風(fēng)險(xiǎn);而對于生成式人工智能,重在規(guī)制生成虛假和不當(dāng)內(nèi)容、侵犯知識產(chǎn)權(quán)等風(fēng)險(xiǎn)。
(二)人工智能企業(yè)自我規(guī)制的意愿激發(fā)與能力提升
良好的自我規(guī)制并不是僅憑規(guī)制者的一紙命令就可以實(shí)現(xiàn)的,而是需要配套的規(guī)制工具,激發(fā)企業(yè)建立對倫理原則的內(nèi)在承諾,使其獲得自我規(guī)制的知識和能力,從而使企業(yè)有意愿且有能力開展自我規(guī)制。
1.以執(zhí)法金字塔激發(fā)企業(yè)自我規(guī)制意愿
對于激發(fā)人工智能企業(yè)自我規(guī)制的意愿而言,可以采取執(zhí)法金字塔的規(guī)制策略。執(zhí)法金字塔自下而上的各層中,分別包含了由輕到重的各種規(guī)制和懲罰措施。當(dāng)監(jiān)管部門發(fā)現(xiàn)企業(yè)違法違規(guī)行為時(shí),應(yīng)當(dāng)首先采取金字塔最底層的勸誡、約談等柔性的規(guī)制措施,責(zé)令企業(yè)限期整改。[23]如果企業(yè)拒不配合,監(jiān)管部門就會逐步升級更加嚴(yán)厲的措施,依次采取警告、民事賠償、刑事處罰、停業(yè)整頓等措施,直到最終吊銷企業(yè)的營業(yè)執(zhí)照。與傳統(tǒng)執(zhí)法模式相比,執(zhí)法金字塔為企業(yè)的自我規(guī)制提供了更多正向激勵。相比傳統(tǒng)法條主義的執(zhí)法方式,這種逐級匹配的執(zhí)法策略,能夠?qū)θ斯ぶ悄芷髽I(yè)自我規(guī)制的意愿和程度做出回應(yīng),從而激勵那些具有守法意愿的企業(yè)及時(shí)糾正錯誤,推動企業(yè)建立根據(jù)倫理原則自我規(guī)制的內(nèi)在意愿。對于不能自主規(guī)制的違法者,執(zhí)法金字塔還保留了頂端最嚴(yán)厲的懲罰措施,從而確保其問責(zé)機(jī)制擁有足夠的威懾。
2.以分類監(jiān)管促進(jìn)企業(yè)自我規(guī)制能力提升
對于具有不同自我規(guī)制能力的人工智能企業(yè),應(yīng)當(dāng)進(jìn)行分類并采取差異化監(jiān)管措施。
第一類是以科技巨頭為代表的人工智能領(lǐng)域的領(lǐng)軍企業(yè)。這類企業(yè)不僅擁有雄厚的技術(shù)實(shí)力,還擁有高于行業(yè)平均水平的自我規(guī)制能力。領(lǐng)軍企業(yè)可以憑借他們在算法治理方面的知識和技術(shù)優(yōu)勢,設(shè)計(jì)出貫徹倫理原則的制度和技術(shù)措施。例如,在制度措施方面,谷歌設(shè)計(jì)的算法審計(jì)框架“SMACTR”,按照范圍界定、映射、文件收集、測試和反思五個(gè)步驟對算法進(jìn)行系統(tǒng)的倫理評估[24];在技術(shù)措施方面,微軟開發(fā)的“InterpretML”框架可用于訓(xùn)練可解釋的機(jī)器學(xué)習(xí)模型和解釋黑箱系統(tǒng),人們可以借此審查算法是否符合倫理要求。對于領(lǐng)軍企業(yè),元規(guī)制的目標(biāo)在于激勵它們進(jìn)行實(shí)驗(yàn)性的自我規(guī)制,不斷探索和創(chuàng)新人工智能的倫理治理方案,并由監(jiān)管部門將這些方案作為實(shí)踐案例向其他企業(yè)推廣。
第二類是占行業(yè)大多數(shù)的、具有基本自我規(guī)制能力的人工智能企業(yè)。對于這類企業(yè),監(jiān)管部門可以采用過程性規(guī)制的方式,通過強(qiáng)制企業(yè)進(jìn)行風(fēng)險(xiǎn)管理,促進(jìn)其自我規(guī)制能力的提升。人工智能風(fēng)險(xiǎn)管理是企業(yè)自我規(guī)制的重要制度,已成為世界各國算法治理普遍采用的規(guī)制機(jī)制,例如歐盟《人工智能法案》第9條規(guī)定,高風(fēng)險(xiǎn)人工智能系統(tǒng)提供者應(yīng)當(dāng)建立、實(shí)施、記錄和維護(hù)與系統(tǒng)有關(guān)的風(fēng)險(xiǎn)管理體系;美國國家標(biāo)準(zhǔn)與技術(shù)研究院(NIST)2023年發(fā)布了《人工智能風(fēng)險(xiǎn)管理框架》,指導(dǎo)人工智能企業(yè)按照治理、映射、衡量和管理四個(gè)模塊,構(gòu)建風(fēng)險(xiǎn)管理框架。[25]在元規(guī)制中,企業(yè)首先需要制定完善的算法風(fēng)險(xiǎn)管理方案,這要求企業(yè)系統(tǒng)地識別和評估其所面對的算法倫理風(fēng)險(xiǎn),開發(fā)相應(yīng)的應(yīng)對措施,確保在可行范圍內(nèi)將風(fēng)險(xiǎn)降到最低。
第三類是少數(shù)欠缺基本自我規(guī)制能力的人工智能企業(yè)。對于這類企業(yè),監(jiān)管部門應(yīng)通過指導(dǎo)和建議等方式幫助他們獲得自我規(guī)制基本的知識技能。例如,將由領(lǐng)軍企業(yè)開發(fā)的成熟的算法審計(jì)方案轉(zhuǎn)為實(shí)踐指南,向該類企業(yè)推廣;通過短期課程、研討班等方式對企業(yè)的管理人員進(jìn)行培訓(xùn)。此外,還可以鼓勵發(fā)展人工智能監(jiān)管領(lǐng)域的咨詢公司,由它們?yōu)槠髽I(yè)提供自我規(guī)制策略的咨詢服務(wù)。
(三)建立對人工智能企業(yè)自我評估的元評估機(jī)制
元規(guī)制的最后一個(gè)環(huán)節(jié)是對人工智能企業(yè)自我規(guī)制的監(jiān)督評估,其目的在于審查企業(yè)的倫理自我規(guī)制體系是否良好運(yùn)轉(zhuǎn),并且在實(shí)現(xiàn)規(guī)制目標(biāo)方面是否切實(shí)取得成效。與元規(guī)制的二階治理結(jié)構(gòu)相對應(yīng),元評估也是一種二階的監(jiān)督機(jī)制,它首先要求企業(yè)對其自我規(guī)制的情況進(jìn)行自我評估(self-evaluation),而后由監(jiān)管部門對企業(yè)的自我評估進(jìn)行元評估。在人工智能倫理治理中,元評估具體由以下三項(xiàng)機(jī)制組成。
1.人工智能企業(yè)的自我評估
自我評估重在審查以下四個(gè)方面。其一,算法倫理自我規(guī)制體系的設(shè)計(jì)是否與規(guī)制目標(biāo)相一致,并有助于防控相關(guān)風(fēng)險(xiǎn);其二,自我規(guī)制體系的要求是否得到了貫徹執(zhí)行;其三,自我規(guī)制體系是否對企業(yè)的決策和行動產(chǎn)生了影響;其四,是否事實(shí)上有助于實(shí)現(xiàn)規(guī)制目標(biāo)。[18]238-239在這四個(gè)方面中,前兩者是基于過程標(biāo)準(zhǔn)審查企業(yè)算法倫理自我規(guī)制的行動過程。例如,企業(yè)是否制定了完善的個(gè)人信息管理制度,相關(guān)的信息處理活動是否嚴(yán)格按照權(quán)限規(guī)范實(shí)施。后兩者則應(yīng)按照一定的績效標(biāo)準(zhǔn)進(jìn)行審查,重點(diǎn)在于評估企業(yè)倫理自我規(guī)制體系的成效。例如,企業(yè)對大語言模型的訓(xùn)練方式,是否提高了其生成內(nèi)容的正確率,且使內(nèi)容更加符合人類價(jià)值觀。在收集了這四個(gè)方面的信息之后,企業(yè)一方面應(yīng)當(dāng)對違反倫理原則要求的行為進(jìn)行內(nèi)部問責(zé)懲戒,另一方面應(yīng)當(dāng)針對自我規(guī)制的缺陷,對自我規(guī)制體系本身進(jìn)行改進(jìn)和完善。
2.人工智能倫理治理自評估報(bào)告
為了使人工智能企業(yè)的自我規(guī)制具有可問責(zé)性,需要將企業(yè)內(nèi)部的倫理治理與來自監(jiān)管部門、第三方機(jī)構(gòu)和社會公眾的外部監(jiān)督聯(lián)系起來,人工智能倫理治理自評估報(bào)告制度恰好充當(dāng)了二者之間的橋梁。該制度要求,人工智能企業(yè)應(yīng)當(dāng)定期發(fā)布自評估報(bào)告,向受算法影響的利益相關(guān)者以及更廣泛的社會公眾,披露有關(guān)其算法自我規(guī)制體系的內(nèi)容、運(yùn)作情況和成效的高質(zhì)量信息。一方面,自評估報(bào)告為相關(guān)主體提供了進(jìn)一步監(jiān)督問責(zé)的基礎(chǔ),例如,報(bào)告中的負(fù)面信息將影響企業(yè)的聲譽(yù),促使利益相關(guān)者通過抵制行為對企業(yè)實(shí)施問責(zé);監(jiān)管部門和第三方機(jī)構(gòu)還可以基于自評估報(bào)告,對企業(yè)的算法自我規(guī)制體系進(jìn)行審計(jì)。[26]另一方面,發(fā)布自評估報(bào)告的要求也反過來推動了企業(yè)的自我規(guī)制,企業(yè)必須為自我評估收集有關(guān)其自我規(guī)制情況的信息,并采取相應(yīng)的糾錯和改進(jìn)措施。[18]219人工智能倫理自評估報(bào)告作為一種向社會披露企業(yè)自我評估信息的機(jī)制,其內(nèi)容原則上也應(yīng)當(dāng)與企業(yè)自我評估的內(nèi)容保持一致,涵蓋人工智能倫理自我規(guī)制體系的目標(biāo)、治理措施、實(shí)施情況、取得的成效等方面。監(jiān)管部門還可以對自評估報(bào)告的內(nèi)容和信息質(zhì)量制定統(tǒng)一標(biāo)準(zhǔn),以便于公眾對不同企業(yè)的算法自我規(guī)制情況進(jìn)行比較。
3.監(jiān)管部門的元評估
在人工智能倫理自評估報(bào)告的基礎(chǔ)上,監(jiān)管部門可以對企業(yè)的自我評估進(jìn)行元評估。元評估作為二階的監(jiān)督評估機(jī)制,遵循和企業(yè)自我評估一貫的邏輯,即基于過程標(biāo)準(zhǔn)和績效標(biāo)準(zhǔn),考察企業(yè)自我規(guī)制體系的執(zhí)行和成效。在評估標(biāo)準(zhǔn)方面,監(jiān)管部門可以參考目前國內(nèi)外已經(jīng)制定的標(biāo)準(zhǔn)文件(3),也可以將領(lǐng)軍企業(yè)先進(jìn)的管理制度和規(guī)制技術(shù),以及行業(yè)內(nèi)成熟的自我規(guī)制機(jī)制轉(zhuǎn)化為一般性的評估標(biāo)準(zhǔn)。在評估方法方面,監(jiān)管部門在書面審查企業(yè)的人工智能倫理治理自評估報(bào)告的同時(shí),也應(yīng)當(dāng)實(shí)際檢查企業(yè)自我規(guī)制體系的部署和執(zhí)行情況,并通過專業(yè)的算法審計(jì)驗(yàn)證報(bào)告所披露的績效信息的真實(shí)性。元評估的結(jié)果一方面可以作為對企業(yè)問責(zé)的前提,另一方面也為監(jiān)管部門對其治理成效的自我評估提供了信息,促使其反思相應(yīng)的規(guī)制政策和措施是否合理、是否需要改進(jìn)。[18]288-291
注釋:
(1)我國高度重視人工智能的倫理治理,相繼發(fā)布了《新一代人工智能治理原則:發(fā)展負(fù)責(zé)任的人工智能》(2019年)、《新一代人工智能倫理規(guī)范》(2021年)、《關(guān)于加強(qiáng)科技倫理治理的意見》(2023年),對人工智能等技術(shù)的研發(fā)活動,提出增進(jìn)人類福祉、尊重生命權(quán)利、堅(jiān)持公平公正、合理控制風(fēng)險(xiǎn)、保持公開透明五項(xiàng)科技倫理原則。
(2)反思型法是一種純粹的過程性規(guī)制,相比之下,元規(guī)制更加強(qiáng)調(diào)規(guī)制的目標(biāo)導(dǎo)向,主張過程性規(guī)制必須服務(wù)于實(shí)質(zhì)規(guī)制目標(biāo)的實(shí)現(xiàn)。
(3)在評估企業(yè)算法倫理自我規(guī)制體系方面,可參照國際標(biāo)準(zhǔn)《信息技術(shù)—人工智能—風(fēng)險(xiǎn)管理指南》(ISO/IEC 23894)、國內(nèi)標(biāo)準(zhǔn)《信息技術(shù) 人工智能 風(fēng)險(xiǎn)管理能力評估》(T/CESA 1193-2022);在具體算法的評估方面,可參照《人工智能 深度學(xué)習(xí)算法評估規(guī)范》(AIOSS-01-2018)、《信息安全技術(shù) 機(jī)器學(xué)習(xí)算法安全評估規(guī)范》(GB/T 42888-2023)等。
參考文獻(xiàn):
[1]Iason Gabriel. Artificial Intelligence,Values,and Alignment[J]. Minds and Machines,2020(3):411-437.
[2]Nicholas Kluge Corrêa et al. Worldwide AI ethics:A review of 200 guidelines and recommendations for AI governance[J]. Patterns,2023(10):1-14.
[3]Anna Jobin,Marcello Ienca,Effy Vayena. The global landscape of AI ethics guidelines[J]. Nature Machine Intelligence,2019(1):389-399.
[4]Jessica Morley et al. From What to How:An Initial Review of Publicly Available AI Ethics Tools,Methods and Research to Translate Principles into Practices[J],Science and Engineering Ethics,2020(26):2147-2168.
[5]Peter Grabosky. Using Non-Governmental Resources to Foster Regulatory Compliance[J]. Governance:An International Journal of Policy and Administration, 1995(8):527-550.
[6]Luciano Florid. Translating Principles into Practices of Digital Ethics:Five Risks of Being Unethical[J]. Philosophy amp; Technology,2019(32):185-193.
[7]Jessica Morley et al. Operationalising AI Ethics:Barriers,Enablers and Next Steps[J]. AI amp; SOCIETY, 2023(38/1):411-423.
[8]Brent Mittelstadt. Principles alone cannot guarantee ethical AI[J]. Nature Machine Intelligence,2019(4):501-507.
[9]Julia Black,Andrew Murray. Regulating AI and Machine Learning:Setting the Regulatory Agenda[J]. European Journal of Law and Technology, 2019(3):1-17.
[10]Jess Whittlestone et al. The Role and Limits of Principles in AI Ethics:Towards a Focus on Tensions[C]. Jess Whittlestone. AIES’19:Proceedings of the 2019 AAAI/ACM Conference on AI,Ethics,and Society January 2019:197.
[11][奧]馬克·考科爾伯格.人工智能倫理學(xué)[M].周薇薇,陳海霞,譯. 上海:上海交通大學(xué)出版社,2023:94-96.
[12][英]科林·斯科特.規(guī)制、治理與法律:前沿問題研究[M]. 安永康,譯. 北京:清華大學(xué)出版社,2018:5-10.
[13][美]卡里·科格里安內(nèi)斯,[美]埃文·門德爾松,著. 安永康,譯. 第八章:元規(guī)制與自我規(guī)制[M]. [英]羅伯特·鮑德溫. 牛津規(guī)制手冊.上海:三聯(lián)書店,2017.
[14]Bronwen Morgan. The Economization of Politics:Meta-Regulation As a Form of Nonjudicial Legality[J]. Social amp; Legal Studies, 2003(12):490.
[15][澳]尼爾·甘寧漢,著. 安永康,譯. 第七章:執(zhí)法與守法策略[M]. [英]羅伯特·鮑德溫. 牛津規(guī)制手冊. 上海:三聯(lián)書店,2017.
[16]Doreen McBarnet. When compliance is not the solution but the problem:From changes in law to changes in attitude[M]. Valerie Braithwaite. Taxing Democracy:Understanding Tax Avoidance and Evasion,Ashgate.2003:229.
[17] Rapha l Gellert. The Risk-Based Approach to Data Protection[M]. Oxford: Oxford University Press,2020: 109.
[18]Christine Parker. The Open Corporation:Effective Self-regulation and Democracy[M].New York:Cambridge University Press,2002.
[19]Philip Selznick.The Communitarian Persuasion[M]. Washington,D.C.:Woodrow Wilson Center Press.,2002.
[20][德]貢塔·托依布那. 反思性的法:比較視角中法律的發(fā)展模式[M]. 祁春祎,譯. 魔陣·剝削·異化:托依布納法律社會學(xué)文集. 北京:清華大學(xué)出版社,2012:276-277.
[21]曹劍峰.論自動駕駛汽車的算法安全規(guī)制[J].華東政法大學(xué)學(xué)報(bào),2023(2):22-33.
[22]鄭曦.人工智能技術(shù)在司法裁判中的運(yùn)用及規(guī)制[J].中外法學(xué),2020(3):674-696.
[23]盧超.互聯(lián)網(wǎng)信息內(nèi)容監(jiān)管約談工具研究[J].中國行政管理,2019(2):41-46.
[24]Inioluwa Deborah Raj et al. Closing the AI Accountability Gap:Defining an End-to-End Framework for Internal Algorithmic Auditing[C]// Mireille Hildebrandt. FAT* ′20:Proceedings of the 2020 Conference on Fairness,Accountability,and Transparency. 2020:33-44.
[25]National Institute of Standards and Technology.Artificial Intelligence Risk Management Framework (AI RMF 1.0)[EB/OL].[2023-1-26](2024-10-7).https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf.
[26]張欣,宋雨鑫. 算法審計(jì)的制度邏輯和本土化構(gòu)建[J]. 鄭州大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版),2022(6):31-42.
(責(zé)任編輯 吳 楠)