鐘曉雯
(華南農(nóng)業(yè)大學(xué)人文與法學(xué)學(xué)院,廣東廣州 510642)
當(dāng)前已進(jìn)入以人工智能技術(shù)為核心驅(qū)動力的第四次科技革命時代,人類社會也漸趨從網(wǎng)絡(luò)社會轉(zhuǎn)向以算法為主導(dǎo)的“計(jì)算社會”,算法的核心地位愈發(fā)凸顯。從技術(shù)層面來看,算法是一種在數(shù)據(jù)采集與訓(xùn)練的基礎(chǔ)上,依據(jù)特定的運(yùn)算規(guī)則輸出結(jié)果以完成目標(biāo)任務(wù)的計(jì)算機(jī)程序,是“程序設(shè)計(jì)+數(shù)學(xué)規(guī)則”的集合。算法的運(yùn)行包括“數(shù)據(jù)輸入—模型運(yùn)算—決策輸出”三個步驟,但人們至多可以觀察到算法的數(shù)據(jù)輸入與決策輸出兩個步驟,無法完全掌握算法的內(nèi)部運(yùn)算或決策程序,于是便形成了算法“黑箱”?!昂谙洹笔顷P(guān)于“不透明”的一個隱喻,其原本是控制論的概念,指的是“只能得到它的輸入值和輸出值,而不知道其內(nèi)部結(jié)構(gòu)”(1)王雨田主編:《控制論、信息論、系統(tǒng)科學(xué)與哲學(xué)》,中國人民大學(xué)出版社1988年版,第93頁。的系統(tǒng)。一般認(rèn)為,算法“黑箱”的形成原因有三種:一是公司或國家保密,即公司或國家為保護(hù)算法而導(dǎo)致的不透明,如視算法為商業(yè)秘密;二是技術(shù)文盲(technical illiteracy),即機(jī)器學(xué)習(xí)算法與人類認(rèn)知存在差異,人類難以理解;三是技術(shù)“黑箱”,即機(jī)器學(xué)習(xí)的技術(shù)原理所固有的“黑箱”性質(zhì)。(2)Jenna Burrell, How the Machine “Thinks”:Understanding Opacity in Machine Learning Algorithms, Big Data &Society, Vol.3:1, p.1(2016).
之所以用“黑箱”形容算法不透明的特性,不僅是因?yàn)樗峡刂普摰摹昂谙洹碧卣?更在于它帶給人類的潛在風(fēng)險乃至社會恐懼。算法“黑箱”最直接的表現(xiàn)就是極易侵犯用戶的知情權(quán)和個人隱私。算法“黑箱”使得諸多算法流程處于不透明狀態(tài),用戶無法完全掌握算法的設(shè)計(jì)意圖、內(nèi)部運(yùn)算以及決策程序等,這種信息不對稱和不公開導(dǎo)致用戶無法從外部直接觀察和驗(yàn)證算法的數(shù)據(jù)收集、分析和挖掘行為,即便用戶個人隱私在這些算法行為中受到侵害也難以察覺。除社會個體外,政府公共部門也難以回避算法“黑箱”帶來的挑戰(zhàn)。數(shù)字化時代的資源核心是信息技術(shù),掌握了信息技術(shù)的主體在社會中更能擁有支配力,信息技術(shù)的歸屬有可能會打破現(xiàn)有的權(quán)力分配結(jié)構(gòu)和社會秩序。(3)參見[美]丹尼爾·貝爾:《后工業(yè)社會的來臨:對社會預(yù)測的一項(xiàng)探索》,高铦、王宏周、魏章玲譯,新華出版社1997年版,第480-498頁。如此一來,掌握并操縱算法的私人技術(shù)公司實(shí)際上憑借這種技術(shù)資源在社會運(yùn)行秩序中占據(jù)了優(yōu)勢地位,逐漸取得了對其他社會主體乃至政府公共部門的支配力。相反,政府公共部門逐漸失去了算法監(jiān)督權(quán)和控制權(quán),面臨著被“算法社會”邊緣化和去中心化的挑戰(zhàn)。(4)參見譚九生、范曉韻:《算法“黑箱”的成因、風(fēng)險及其治理》,載《湖南科技大學(xué)學(xué)報(bào)(社會科學(xué)版)》2020年第6期,第95頁。總的來說,隨著算法廣泛、深度的融合應(yīng)用,算法“黑箱”往往與算法歧視、算法壟斷、算法合謀等負(fù)面評價綁定在一起,并逐漸形成一種隱性規(guī)訓(xùn)和統(tǒng)治空間:算法作為數(shù)字社會的主宰,借助“黑箱”效應(yīng)伸出無形之手,逐漸架空人類在現(xiàn)實(shí)世界中的主體地位并控制人們的生活。因此,算法“黑箱”雖然并非算法風(fēng)險的唯一原因,但卻是規(guī)制算法風(fēng)險必須要解決的問題。
烏爾里希·貝克(Ulric Beck)的社會風(fēng)險理論指出,技術(shù)不僅是推動人類步入風(fēng)險社會的動因,也是風(fēng)險社會的主要表征。(5)參見[德]烏爾里?!へ惪?《風(fēng)險社會》,何博聞譯,譯林出版社2004年版,第190-224頁。現(xiàn)代對于諸多因技術(shù)發(fā)展引起的問題需要在風(fēng)險社會的邏輯背景下探究其法律規(guī)制理念和路徑。在“計(jì)算社會”下,因算法“黑箱”具有不確定性與不可預(yù)知性、損害后果具有累積性與擴(kuò)散性等復(fù)雜情景,人類不得不窮盡可能手段對其進(jìn)行治理。但一方面,算法“黑箱”衍生的社會風(fēng)險是一種新型的社會風(fēng)險,窮盡中國既有法律制度也難以充分治理;另一方面,傳統(tǒng)政府治理遵循的是對抗、威懾和法律服從的制度邏輯,在治理算法“黑箱”時會陷入兩難境地:或因缺乏公眾參與而難以在制度和手段上回應(yīng)公眾意見;或在強(qiáng)調(diào)開放性和自愿性的同時被邊緣化而難以發(fā)揮其應(yīng)有的功能。因此,算法“黑箱”的治理手段需要兼顧法律控制性和開放自愿性。強(qiáng)調(diào)開放與控制并重的“硬法—軟法”范式或可為算法“黑箱”的治理提供一種新的立法框架。
以法律規(guī)范的強(qiáng)制力為依據(jù),法律規(guī)范可以被分為硬法和軟法。硬法是依賴國家強(qiáng)制力保障實(shí)施的,具有較強(qiáng)穩(wěn)定性的規(guī)范類型;軟法則指效力結(jié)構(gòu)未必完整,無須依靠國家強(qiáng)制力保障實(shí)施但能夠產(chǎn)生社會實(shí)效的,具有較強(qiáng)靈活性的規(guī)范類型。(6)參見羅豪才、宋功德:《認(rèn)真對待軟法——公域軟法的一般理論及其中國實(shí)踐》,載《中國法學(xué)》2006年第2期,第3-5頁。從理論層面來看,“硬法—軟法”范式不僅能夠通過建立“軟硬并重”的二元法模式完成算法“黑箱”治理的合法性論證,而且能夠借助靈活的調(diào)整機(jī)制,適應(yīng)不同的算法“黑箱”治理場域,并為政府的算法“黑箱”治理行為提供內(nèi)在參照標(biāo)準(zhǔn);從實(shí)證層面來看,借助“硬法—軟法”范式治理算法“黑箱”在國外已有先例且取得了不錯的實(shí)效,可資中國借鑒。
算法“黑箱”雖然是一種技術(shù)邏輯,但放置于公共治理領(lǐng)域來討論其規(guī)制問題,歸根結(jié)底其仍然是一個法律問題,首當(dāng)其沖的應(yīng)當(dāng)是承認(rèn)實(shí)體法體系的有效性,充分利用以命令與控制性為主的硬法規(guī)范加以治理。但法律發(fā)展到了今天,諸多沒有國家強(qiáng)制力的軟法規(guī)范已經(jīng)在消費(fèi)者保護(hù)、環(huán)境保護(hù)、技術(shù)風(fēng)險規(guī)制等公共治理領(lǐng)域發(fā)揮了重要作用,甚至正在重塑國家公域之治的法理基礎(chǔ)。(7)參見沈巋:《軟硬法混合治理的規(guī)范化進(jìn)路》,載《法學(xué)》2021年第3期,第69-83頁??梢哉f,軟硬法混合在公共治理領(lǐng)域中普遍存在不僅是一個既定事實(shí),更是政府公共部門應(yīng)當(dāng)堅(jiān)持的治理立場和方法。
1.“硬法—軟法”范式下算法“黑箱”治理的合法性基礎(chǔ)
規(guī)范主義模式的合法性基礎(chǔ)是憲法至上和法律中心主義,即行政機(jī)關(guān)的治理行為必須依據(jù)法律作出,且不得對憲法中的基本權(quán)利造成減損。采用“軟硬并重”的二元法治理模式治理算法“黑箱”同樣依據(jù)這一合法性基礎(chǔ)。一方面,無論是硬法規(guī)范抑或是軟法規(guī)范,行政機(jī)關(guān)的算法“黑箱”治理行為都必須以憲法為根據(jù),不得與憲法相違背;另一方面,為了防止因公權(quán)力濫用而對基本權(quán)利造成減損,基于硬法的算法“黑箱”治理行為可以通過權(quán)力制約和司法審查的方式予以監(jiān)督,基于軟法的算法“黑箱”治理行為可以通過明晰軟法制定的公共目的、出臺與軟法實(shí)施相關(guān)的規(guī)范性文件等方式予以監(jiān)督。
更為重要的是,在硬法的司法中心主義下,算法“黑箱”治理無可避免地會面臨訴訟主體、舉證責(zé)任等法律形式主義的適用局限。相反,軟法在不違背法律中心主義的前提下,能夠克服司法中心主義的局限,將算法“黑箱”治理問題引向司法程序以外,并在更大的認(rèn)同基礎(chǔ)上取得合法性基礎(chǔ)。這是因?yàn)?軟法規(guī)范雖然不是基于政治性投票形成的,但卻在自由市場上經(jīng)過了公眾的充分辯論和調(diào)整,是基于自由市場投票而形成的。據(jù)此,軟法規(guī)范的合法性基礎(chǔ)可以理解為是國家將專屬于自身的公共權(quán)力讓渡給了自由市場,從而賦予來源于自由市場的軟法規(guī)范以法律權(quán)威。
2.“硬法—軟法”范式下算法“黑箱”治理的邏輯機(jī)理
目前,“硬法—軟法”范式已不僅僅是存在于學(xué)理中的范式構(gòu)想,軟法規(guī)范在當(dāng)下的法律實(shí)踐中已經(jīng)發(fā)揮了重要作用,我們需要將視角聚焦于各類軟法規(guī)范與硬法規(guī)范相互作用,混合治理公共領(lǐng)域的邏輯機(jī)理上。一方面,“硬法—軟法”范式能夠借助靈活的調(diào)整機(jī)制,適應(yīng)不同的算法“黑箱”治理場域;另一方面,軟法規(guī)范能夠?yàn)檎乃惴ā昂谙洹敝卫硇袨樘峁﹥?nèi)在參照標(biāo)準(zhǔn)。
算法“黑箱”的治理需要有公眾的參與,但缺乏法律控制的公眾參與容易導(dǎo)致規(guī)制俘獲和有組織的利益壓倒,(8)參見董正愛:《環(huán)境風(fēng)險的規(guī)制進(jìn)路與范式重構(gòu)——基于硬法與軟法的二元構(gòu)造》,載《現(xiàn)代法學(xué)》2023年第2期,第118頁。對此,“硬法—軟法”范式能夠給出解決方案。硬法通過配置算法“黑箱”所涉各方主體的權(quán)利義務(wù)和責(zé)任關(guān)系來展開初次治理,奠定算法“黑箱”規(guī)制的合法性基礎(chǔ);軟法則通過法律原則、國家政策、行業(yè)標(biāo)準(zhǔn)等手段進(jìn)行二次治理,確保公眾參與算法“黑箱”治理以實(shí)現(xiàn)公平公正。例如,許多國家都將透明度作為一項(xiàng)原則性規(guī)定納入國家政策或?qū)嵲诜w系,并以此為基礎(chǔ)開展算法“黑箱”治理的立法活動。這是因?yàn)?一方面,透明度原則的基本精神是明確的,內(nèi)在蘊(yùn)含著算法“黑箱”治理的法治立場和價值取向;另一方面,透明度原則作為一項(xiàng)原則性規(guī)定,可以根據(jù)實(shí)際需要,通過立法技術(shù)的運(yùn)用彈性調(diào)整法律規(guī)則的規(guī)制邊界,從而適應(yīng)不同的算法“黑箱”治理場域。
另外,軟法規(guī)范通過國家性政策、法律原則、法律標(biāo)準(zhǔn)與一系列自我約束的規(guī)范性文件能夠?yàn)檎乃惴ā昂谙洹敝卫硇袨樘峁﹥?nèi)在的參照標(biāo)準(zhǔn)。(9)參見[美]羅斯科·龐德:《通過法律的社會控制》,沈宗靈譯,商務(wù)印書館2010年版,第27-29頁。從本質(zhì)上看,政府的算法“黑箱”治理行為是法律意志借助行政方式得以實(shí)現(xiàn)的過程,屬于行政法治。行政法治的實(shí)現(xiàn)不僅需要司法機(jī)關(guān)的事后裁斷與救濟(jì),更需要行政機(jī)關(guān)的事前防范與引導(dǎo)。(10)參見張莉:《行政裁量指示的司法控制——法國經(jīng)驗(yàn)評析》,載《國家行政學(xué)院學(xué)報(bào)》2012年第1期,第115頁。因此,政府的算法“黑箱”治理行為不僅應(yīng)當(dāng)遵循法律規(guī)則的要求,同時應(yīng)當(dāng)將法律原則、法律標(biāo)準(zhǔn)作為考慮因素。這里的法律標(biāo)準(zhǔn)既包括風(fēng)險識別意義上的算法“黑箱”治理標(biāo)準(zhǔn),也包括執(zhí)法意義上的政府裁量標(biāo)準(zhǔn)。在行政公共部門的科層式管理體制下,上級行政公共部門的裁量基準(zhǔn)能夠直接影響到下級行政公共部門的實(shí)際決策,且這種行政裁量指示不得違背憲法和法律,這就能夠促使憲法與軟法規(guī)范對政府的算法“黑箱”治理行為進(jìn)行雙重控制,從而防止公權(quán)力濫用。此外,作為軟法規(guī)范的一系列自我約束的規(guī)范性文件雖然不具有法律強(qiáng)制力,但可以為政府的算法“黑箱”治理行為提供政策性參照與技術(shù)指導(dǎo)。
上述論證表明,“硬法—軟法”范式下的算法“黑箱”治理不僅是鼓勵公眾參與的,而且是法治化的,能夠平衡算法研發(fā)與應(yīng)用過程中所涉及的多元利益和價值。其中,硬法規(guī)范的初次治理是一種外在規(guī)制,其決定了算法“黑箱”治理的裁量邊界;軟法規(guī)范的二次治理是一種內(nèi)在規(guī)制,能夠?yàn)檎乃惴ā昂谙洹敝卫硇袨殚_放公眾參與機(jī)制和提供內(nèi)在參照標(biāo)準(zhǔn)。
在新興科技領(lǐng)域采用“硬法—軟法”范式已經(jīng)是國際通行做法,并且取得了較好的實(shí)踐效果。國外的相關(guān)法律規(guī)范多以算法治理或人工智能治理涵括算法“黑箱”治理,且歐盟與美國在此方面走在前列,可以為中國提供相關(guān)借鑒。
1.歐盟
歐盟的算法治理雖然以行政機(jī)構(gòu)為主導(dǎo),以硬法為核心依據(jù),但也通過多方面配置軟法以促使利益攸關(guān)者參與治理。在算法硬法治理方面,歐盟目前沒有單獨(dú)的算法立法,但基于現(xiàn)代人工智能技術(shù)和網(wǎng)絡(luò)科技的發(fā)展,算法無處不在,在算法可能引發(fā)問題的個人信息保護(hù)、人工智能、消費(fèi)者權(quán)益保護(hù)、數(shù)字市場等領(lǐng)域,歐盟出臺了相關(guān)法律法規(guī)。這些法律法規(guī)涉及到風(fēng)險評估、數(shù)據(jù)隱私保護(hù)、透明度和可解釋性、人權(quán)和倫理原則以及監(jiān)管和合規(guī),包括《通用數(shù)據(jù)保護(hù)條例》(GeneralDataProtectionRegulation,簡稱GDPR)、《電子隱私指令》(PrivacyandElectronicCommunications)、《數(shù)字服務(wù)法》(DigitalServicesAct)以及《數(shù)字市場法》(DigitalMarketAct)等。此外,歐盟還推動制定《人工智能法案》(ArtificialIntelligenceAct),旨在對人工智能技術(shù)進(jìn)行更具體的監(jiān)管,其中必然涉及算法“黑箱”治理。
在算法軟法治理方面,歐盟聚焦于制定人工智能的倫理準(zhǔn)則。例如,歐盟委員會2019年發(fā)布的《可信任人工智能倫理準(zhǔn)則》(EthicsGuidelinesforTrustworthyAI)提出了七個核心原則:人類代理和監(jiān)督,技術(shù)的魯棒性和安全性,隱私和數(shù)據(jù)治理,透明度,多樣性、非歧視和公平,社會和環(huán)境福祉,問責(zé)制。(11)European Commission, Ethics Guidelines for Trustworthy AI, European Commission(8 April 2019), https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.這些原則旨在為人工智能系統(tǒng)的設(shè)計(jì)和應(yīng)用提供指導(dǎo)和規(guī)范,確保人工智能系統(tǒng)是可信任、可靠和可持續(xù)發(fā)展的。類似的軟法還有《歐盟人工智能戰(zhàn)略》(ArtificialIntelligenceforEurope)、《機(jī)器人法規(guī)白皮書》(WhitePaperonRobotics)等。
2.美國
在算法領(lǐng)域,美國重視公共部門、私營部門、相關(guān)行業(yè)等不同主體的力量,通過綜合運(yùn)用法律法規(guī)、自治規(guī)則、道德規(guī)范,形成了多元主體協(xié)同、軟硬法混合治理的格局。
在算法硬法治理方面,美國采用了“州和地方政府率先立法、聯(lián)邦政府持續(xù)推進(jìn)”的方式。美國州和地方政府是推動算法治理的先行者,尤其是紐約市,其在2018年通過的《算法問責(zé)法》開創(chuàng)了美國算法立法治理的先河。紐約市《算法問責(zé)法》旨在通過監(jiān)管政府使用的各類算法以解決算法歧視問題,并推動政府決策算法開源和建立算法問責(zé)制。在紐約市率先立法的影響下,2019年美國國會也引入《算法問責(zé)法案》,旨在促進(jìn)算法開發(fā)和應(yīng)用中的透明度、公平性和問責(zé)制。隨后,美國國會又在2019年《算法問責(zé)法案》的基礎(chǔ)上提出了2022年《算法問責(zé)法案》。與2019年的版本相比,2022年的法案不僅更加強(qiáng)調(diào)算法的透明度、可解釋性、公平性和非歧視性,而且要求算法企業(yè)定期報(bào)告和審計(jì)。(12)H.R.6580—Algorithmic Accountability Act of 2022,Congress.gov(3 February 2022), https://www.congress.gov/bill/117th-congress/house-bill/6580/text.
在算法軟法治理上,美國采用了“企業(yè)行業(yè)自治自律、學(xué)術(shù)組織/研究機(jī)構(gòu)積極參與”的方式。企業(yè)作為算法系統(tǒng)的直接研發(fā)和應(yīng)用主體,社會要求其應(yīng)當(dāng)積極履行算法治理責(zé)任。為此,微軟、谷歌、Facebook、IBM等科技企業(yè)均制定了人工智能倫理原則。例如,2018年谷歌發(fā)布了“對社會有益、避免建立或加劇不公與偏見、保障建立與測試中安全性、對人類負(fù)責(zé)、建立并體現(xiàn)隱私保護(hù)原則、支持并鼓勵高標(biāo)準(zhǔn)的技術(shù)品格、提供并保障上述原則的可操作性”七項(xiàng)人工智能倫理原則。(13)Sundar Pichai, AI at Google: Our Principles,Google(7 June 2018), https://blog.google/techno-logy/ai/ai-principles.在行業(yè)方面,亞馬遜、微軟、谷歌、IBM和Facebook聯(lián)合成立了人工智能合作組織,對算法技術(shù)的合規(guī)應(yīng)用提出了行業(yè)要求。
學(xué)術(shù)組織/研究機(jī)構(gòu)也作為第三方參與算法治理。例如,2017年美國電氣和電子工程師協(xié)會發(fā)布《人工智能設(shè)計(jì)的倫理準(zhǔn)則》(第2版),提出了“人權(quán)、福祉、問責(zé)、透明、慎用”五項(xiàng)基本原則。(14)IEEE Standards Association, Ethically Aligned Design, IEEE(12 November 2017), https://standards.ieee.org/content/dam/ieee-standards/standards/web/documents/other/ead_v2.pdf.該準(zhǔn)則目前已成為國際上最具影響力的人工智能倫理原則的版本之一。同年,美國公共政策委員會計(jì)算機(jī)協(xié)會也發(fā)布了《關(guān)于算法透明和責(zé)任制的聲明》(StatementonAlgorithmicTransparencyandAccountability),確定了算法透明和問責(zé)制的七項(xiàng)原則,包括“意識、獲取和補(bǔ)救機(jī)制、問責(zé)制、可解釋性、可溯源性、可審核性、驗(yàn)證和測試”。(15)Association for Computing Machinery US Public Policy Council, Statement on Algorithmic Transparency and Accountability, Association for Computing Machinery(12 January 2017), https://www.acm.org/binaries/content/assets/public-policy/2017_usacm_statement_algorithms.pdf.
總的來說,國外基本形成了算法軟硬法混合治理的格局(有的國家以硬法為主,有的國家以軟法為主)。面對公共部門,強(qiáng)調(diào)建立保護(hù)制度和強(qiáng)化監(jiān)管力度,以及時發(fā)現(xiàn)算法漏洞和問題并加以解決;面對私營部門,強(qiáng)調(diào)研發(fā)和應(yīng)用過程中對技術(shù)倫理和后果進(jìn)行反思,要求其主動承擔(dān)倫理和社會責(zé)任,以實(shí)現(xiàn)負(fù)責(zé)任創(chuàng)新;面對技術(shù)人員,引入標(biāo)準(zhǔn)化的算法研發(fā)、應(yīng)用和披露準(zhǔn)則,以敦促算法系統(tǒng)的技術(shù)開發(fā)和使用人員合理研發(fā)、應(yīng)用算法系統(tǒng)并主動披露算法系統(tǒng)的邏輯、目的、潛在影響等;面對社會公眾,強(qiáng)調(diào)提高算法素養(yǎng)以塑造良好的算法治理環(huán)境。這為中國對算法“黑箱”采用“硬法—軟法”的二元法治理模式提供了具有參考價值的樣本。
軟法規(guī)范主要表現(xiàn)為基于公眾討論和行業(yè)共識而形成的治理準(zhǔn)則或行為準(zhǔn)則,如各式各樣的“人工智能治理準(zhǔn)則”,體現(xiàn)了行業(yè)最佳實(shí)踐,為算法治理提供了改善治理的樣板。具體而言,構(gòu)成算法“黑箱”治理的軟法規(guī)范應(yīng)包括增強(qiáng)算法模型的可解釋性,向社會披露算法參數(shù)以及向社會公開算法源代碼。但傳統(tǒng)理論框架下,是否遵守任意性規(guī)范完全由被規(guī)范主體自行決定,這顯然無法發(fā)揮治理算法“黑箱”的效能。對此,公司治理領(lǐng)域發(fā)展出了“遵守或解釋”機(jī)制,即在任意性規(guī)范的基礎(chǔ)上結(jié)合強(qiáng)制披露義務(wù)——不遵守任意性規(guī)范時須作出合理的解釋性說明,從而在保持任意性規(guī)范的靈活性和自主性的同時使其具有一定的約束力。(16)參見安晉城:《算法透明層次論》,載《法學(xué)研究》2023年第2期,第61頁。這值得算法治理領(lǐng)域借鑒。
“增強(qiáng)算法模型的可解釋性”這一規(guī)范在中國已有立法雛形——《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第12條鼓勵算法推薦服務(wù)提供者綜合運(yùn)用算法設(shè)計(jì)、優(yōu)化等方式提高算法模型的透明度,增強(qiáng)算法模型的可解釋性。(17)《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》第12條規(guī)定:“鼓勵算法推薦服務(wù)提供者綜合運(yùn)用內(nèi)容去重、 打散干預(yù)等策略,并優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性,避免對用戶產(chǎn)生不良影響,預(yù)防和減少爭議糾紛?!痹鰪?qiáng)算法模型的可解釋性的技術(shù)路線大體上包括兩種,一是直接采用可解釋性較強(qiáng)的算法模型,二是采用事后解釋的方法增強(qiáng)算法模型的可解釋性。需要解釋的一點(diǎn)是,增強(qiáng)算法模型的可解釋性的技術(shù)路線為何不包括采用諸如事先披露數(shù)據(jù)、算法模型等方法,主要原因是涉及商業(yè)秘密保護(hù),下文也會就類似問題展開論述。
就直接采用可解釋性較強(qiáng)的算法模型而言,某些算法模型屬于自解釋模型,其內(nèi)置解釋生成模塊,能夠?qū)ψ陨淼念A(yù)測結(jié)果進(jìn)行自解釋。人類可以從外界較為輕易地觀察、檢驗(yàn)?zāi)酥聊M這些算法模型的運(yùn)行過程和邏輯。例如,線性回歸模型就是一種典型的自解釋模型。線性回歸模型的求解方法是中國高中數(shù)學(xué)必修課內(nèi)容中的“最小二乘法”,具有極高的透明度。(18)Alejandro Barredo Arrieta &Natalia Díaz-Rodríguez, et al., Explainable Artificial Intelligence (XAI): Concepts, Taxonomies, Opportunities and Challenges Toward Responsible AI,Information Fusion, Vol.58: 82, p.85(2020).當(dāng)然,除了自解釋模型外,還有其他可解釋性較強(qiáng)的算法模型,如膠囊網(wǎng)絡(luò)、多粒度級聯(lián)森林等。
就采用事后解釋的方法增強(qiáng)算法模型的可解釋性而言,事后解釋的技術(shù)方法并不是唯一的,可以大體上分為算法模型相關(guān)解釋和算法模型無關(guān)解釋兩大類。(19)Vaishak Belle &Ioannis Papantonis, Principles and Practice of Explainable Machine Learning, Frontiers in Big Data, Vol.4: 1, p.1(2021).顧名思義,算法模型相關(guān)解釋的對象是特定的算法模型,而算法模型無關(guān)解釋則不針對某一特定算法模型,可以適用任何算法模型。因此,算法模型無關(guān)解釋這一技術(shù)方法更具靈活性和通用性。對于算法模型無關(guān)解釋又可進(jìn)一步分類為規(guī)則解釋、基于特征解釋、局部解釋和可視化解釋。(20)參見靳慶文、朝樂門、孟剛:《AI治理中的算法解釋及其實(shí)現(xiàn)方法研究》,載《情報(bào)資料工作》2022年第5期,第16-18頁。其中,局部解釋(包括局部近似、反事實(shí)解釋等)是識別算法偏私與歧視的重要技術(shù)方案,其有助于披露特定樣本與模型輸出之間的相互關(guān)系,能夠有效評價算法自動化決策的公平性。LIME算法就是一種典型的局部近似的解釋方法,其目標(biāo)是在模型預(yù)測的鄰域上找到一個可近似代替復(fù)雜“黑箱”模型的自解釋模型(如線性回歸模型),以一種可理解且具有魯棒性的方式來解釋目標(biāo)模型的預(yù)測結(jié)果。(21)Marco T. Ribeiro, Sameer Singh &Carlos Guestrin, Why Should I Trust You? Explaining the Predictions of Any Classifier, in Balaji Krishnapuram &Mohak Shah, et al. eds., Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining, 2016, p.1135-1144.古德(Goode)等人就曾采用了LIME算法來解釋目標(biāo)模型的預(yù)測結(jié)果,同時還借助數(shù)據(jù)可視化中的散點(diǎn)圖、評價度量圖和熱力圖來評估LIME算法的解釋實(shí)效。(22)Katherine Goode &Heike Hofmann, Visual Diagnostics of an Explainer Model: Tools for the Assessment of LIME Explanations,Statistical Analysis and Data Mining: The ASA Data Science Journal,Vol.14: 185, p.185-200(2021).
因此,增強(qiáng)算法模型可解釋性的路徑是多元化的,包括采用自解釋模型、采用可解釋性較強(qiáng)的算法模型、提供有效的事后解釋(局部近似、反事實(shí)解釋等)方法。
基于技術(shù)中立和技術(shù)自由發(fā)展原則,“增強(qiáng)算法模型的可解釋性”只能設(shè)置為軟法規(guī)范,由算法開發(fā)者/運(yùn)營者依據(jù)其實(shí)際情況自行作出選擇,同時,要求未遵守該規(guī)范的算法開發(fā)者/運(yùn)營者作出合理解釋說明。
治理算法“黑箱”,提高算法透明度的最激進(jìn)的解決方案莫過于向社會公開算法源代碼(也被稱為“算法開源”(23)“算法開源”意味著任何人都可以公開訪問、查看、修改和重新分發(fā)算法源代碼。)。在網(wǎng)絡(luò)世界里,代碼/架構(gòu)的設(shè)計(jì)者能夠建立網(wǎng)絡(luò)空間的默認(rèn)規(guī)則,決定著網(wǎng)民的自由程度和范圍,相當(dāng)于網(wǎng)絡(luò)空間的立法者。(24)參見[美]勞倫斯·萊斯格:《代碼2.0:網(wǎng)絡(luò)空間中的法律》(第2版),李旭、沈偉偉譯,清華大學(xué)出版社2018年版,第152頁。因此,對于是否應(yīng)當(dāng)規(guī)制代碼,一直存在爭議。在早期互聯(lián)網(wǎng)發(fā)展中,互聯(lián)網(wǎng)傳輸遵循的是端對端交互的規(guī)律,沒有規(guī)制代碼的空間,且那些為搭建互聯(lián)網(wǎng)而編寫了代碼的作者出于維護(hù)自身利益的目的,也會對政府公共部門的代碼規(guī)制行為加以抵制。(25)參見汪慶華:《算法透明的多重維度和算法問責(zé)》,載《比較法研究》2020年第6期,第170頁。但當(dāng)前代碼的編寫已經(jīng)日益商業(yè)化并集中于少數(shù)私人資本控制的大型互聯(lián)網(wǎng)公司中,這就意味著這些私人資本控制的大型互聯(lián)網(wǎng)公司借助代碼成為了網(wǎng)絡(luò)空間的立法者。此種情形下,若再不對代碼加以規(guī)制,網(wǎng)絡(luò)空間就會產(chǎn)生商業(yè)利益驅(qū)逐公共利益的隱患。在中國已經(jīng)步入算法社會的當(dāng)下,政府的職責(zé)是要確保私人資本控制的商業(yè)機(jī)構(gòu)在設(shè)計(jì)代碼/架構(gòu)時能夠納入公共利益。盡管政府公共部門無法直接規(guī)制代碼,但可以通過規(guī)制私人技術(shù)公司來實(shí)現(xiàn)間接規(guī)制代碼的目的。另外,算法源代碼的公布雖然只是暴露了算法運(yùn)行所采用的機(jī)器學(xué)習(xí)方法,尚無法解釋算法決策的過程,但相關(guān)專業(yè)技術(shù)人員可以通過檢驗(yàn)算法源代碼,判斷算法運(yùn)行和決策過程中是否存在算法歧視、算法決策缺陷等問題,從而達(dá)致“魚缸透明”的效果。(26)Joshua A. Kroll &Joanna Huey, et al., Accountable Algorithms, University of Pennsylvania Law Review,Vol.165: 633, p.638(2017).這些現(xiàn)實(shí)情況都為算法開源奠定了基礎(chǔ)。
在互聯(lián)網(wǎng)開放共享的精神下,一些大型互聯(lián)網(wǎng)公司已經(jīng)在網(wǎng)絡(luò)世界的開源社區(qū)中公開了相關(guān)項(xiàng)目以及算法組件的源代碼。(27)參見安晉城:《算法透明層次論》,載《法學(xué)研究》2023年第2期,第62-63頁。算法源代碼的公開不僅能夠增強(qiáng)普通公眾與專業(yè)技術(shù)人員對算法系統(tǒng)的信任,而且有利于算法企業(yè)借助社會上大量專業(yè)人士和愛好者對源代碼的優(yōu)化,從而迅速在市場競爭中占據(jù)優(yōu)勢。比如Linux操作系統(tǒng)的代碼就是開源的,公眾不僅可以公開訪問、查看、復(fù)制源代碼,甚至可以通過特定的電子郵件列表參與到對源代碼的修改和重新分發(fā)環(huán)節(jié)中。集公眾之長對Linux操作系統(tǒng)的源代碼進(jìn)行迭代更新也成為了該操作系統(tǒng)長期保持安全穩(wěn)定,進(jìn)而占據(jù)服務(wù)器市場超過80%份額的重要原因之一。長期以往,開源社區(qū)、開源項(xiàng)目和開源代碼逐漸會形成一個競爭性的算法代碼市場,而自由競爭的算法代碼市場也會“倒逼”私人技術(shù)公司公開算法源代碼。因此,國家不必強(qiáng)制算法開源,借助自由市場的力量亦可達(dá)到算法開源的效果。
更為重要的是,強(qiáng)制算法開源會面臨商業(yè)利益和公共利益的沖突問題。早在2016年,紐約市就曾經(jīng)欲借助立法強(qiáng)制政府公共部門披露算法源代碼,但相關(guān)立法議案一經(jīng)提出即遭致多方反對:企業(yè)認(rèn)為源代碼是算法技術(shù)的核心,披露算法源代碼會侵犯企業(yè)的核心商業(yè)秘密;一些網(wǎng)絡(luò)安全專家也指出算法源代碼的公開很有可能會為不法分子侵害公共安全提供技術(shù)便利,甚至可能衍生“戲耍”算法的風(fēng)險。在這些反對的干預(yù)下,強(qiáng)制政府公共部門披露算法源代碼的提議并未出現(xiàn)在紐約市最后通過的算法立法要求中。這足以反映出算法開源內(nèi)在潛藏的商業(yè)利益與公共利益之間的緊張關(guān)系。因此,出于調(diào)和商業(yè)利益和公共利益之間的沖突的目的,國家不宜強(qiáng)制要求算法企業(yè)向社會公開算法源代碼。(28)參見汪慶華:《算法透明的多重維度和算法問責(zé)》,載《比較法研究》2020年第6期,第170-171頁。當(dāng)然,這并不與政府公共部門規(guī)制算法源代碼相悖,蓋因法律規(guī)范除了包括具有強(qiáng)制力的硬法規(guī)范外,還包括具有靈活性的軟法規(guī)范。
因此,中國應(yīng)在現(xiàn)有的開源實(shí)踐、公眾討論和行業(yè)共識基礎(chǔ)上制定算法開源準(zhǔn)則,(29)參見安晉城:《算法透明層次論》,載《法學(xué)研究》2023年第2期,第63頁。同時要求未遵守算法開源準(zhǔn)則的算法開發(fā)者/運(yùn)營者作出合理的解釋說明。
除軟法規(guī)范外,算法“黑箱”的治理必然離不開硬法規(guī)范的支持,否則其治理功能很有可能會被架空,甚至淪落為“倡導(dǎo)性條款”,無法實(shí)現(xiàn)透視算法“黑箱”的目的。對于算法“黑箱”的硬法控制,可以從算法權(quán)利和算法問責(zé)兩方面展開論述。算法權(quán)利是對算法“黑箱”的前端法律控制,其主要是借助權(quán)利對抗中的制約以及權(quán)利平衡中的合作,形成對算法開發(fā)者/運(yùn)營者的約束和對算法相對人自身行為模式的調(diào)適,從而改變算法關(guān)系中的力量對比和利益結(jié)構(gòu),達(dá)到提高算法透明度,治理算法“黑箱”的效果。算法問責(zé)是對算法“黑箱”的后端法律控制,其目的是建立適用于算法研發(fā)與應(yīng)用過程中各方主體的責(zé)任體系,以便在算法運(yùn)行過程中出現(xiàn)精確性與公平性偏差時,政府公共部門得以依據(jù)相關(guān)信息及時確定責(zé)任歸屬。
當(dāng)前法學(xué)界對于算法權(quán)利的研究與嘗試頗為豐富,算法解釋權(quán)、算法自動化決策拒絕權(quán)、算法排他權(quán)、人工接管權(quán)等權(quán)利類型不斷豐富和完善。(30)參見袁康:《可信算法的法律規(guī)制》,載《東方法學(xué)》2021年第3期,第17頁。在算法權(quán)利的配置中,與算法“黑箱”治理最為密切的是算法解釋權(quán)和算法自動化決策拒絕權(quán)。
關(guān)于算法解釋權(quán)。算法解釋權(quán)的核心功能是保障算法相對人能夠針對算法的設(shè)計(jì)目的、功能邏輯、決策結(jié)果來源等關(guān)鍵信息獲悉算法開發(fā)者/運(yùn)營者解釋的權(quán)利,從而提高算法的透明度。(31)參見許可、朱悅:《算法解釋權(quán):科技與法律的雙重視角》,載《蘇州大學(xué)學(xué)報(bào)(哲學(xué)社會科學(xué)版)》2020年第2期,第67-68頁。利用算法解釋權(quán)可以在算法相對人與算法開發(fā)者/運(yùn)營者之間構(gòu)造對抗型法律關(guān)系,促使算法相對人能夠借助算法解釋權(quán)盡可能發(fā)現(xiàn)和排除因算法“黑箱”引起的算法偏私與歧視。同時,算法解釋權(quán)的相關(guān)立法也可以“倒逼”私人技術(shù)公司探索透明度更高的算法技術(shù)。
對于算法解釋權(quán)的立法與實(shí)踐,最為關(guān)鍵的一點(diǎn)是明確算法解釋的技術(shù)標(biāo)準(zhǔn),即算法開發(fā)者/運(yùn)營者需要向算法相對人解釋什么內(nèi)容和解釋到什么程度。算法解釋原則上不要求向算法相對人充分解釋算法從輸入到輸出的全過程,而是側(cè)重于以可理解的方式向算法相對人解釋決策結(jié)果以及決策時可能影響相對人合法權(quán)益的相關(guān)因素。(32)參見鐘曉雯:《算法推薦網(wǎng)絡(luò)服務(wù)提供者的權(quán)力異化及法律規(guī)制》,載《中國海商法研究》2022年第4期,第70頁。這是因?yàn)?有效的機(jī)器學(xué)習(xí)算法模型會對其內(nèi)在決策模型和代碼內(nèi)容進(jìn)行實(shí)時動態(tài)調(diào)整或迭代更新,并通過自主學(xué)習(xí)實(shí)現(xiàn)持續(xù)復(fù)雜化和深度擬人化,即便是算法開發(fā)者/運(yùn)營者也難以詳細(xì)解釋算法運(yùn)行和決策的全過程。(33)Joshua A. Kroll &Joanna Huey, et al., Accountable Algorithms, University of Pennsylvania Law Review, Vol.165: 633, p.638-639(2017).因此,算法解釋的技術(shù)標(biāo)準(zhǔn)可以總結(jié)為:算法開發(fā)者/運(yùn)營者應(yīng)通過可理解的解釋方式,達(dá)到打消算法相對人對決策結(jié)果、決策時可能影響其合法權(quán)益的相關(guān)因素的疑慮之效果。
關(guān)于算法自動化決策拒絕權(quán)。算法自動化決策拒絕權(quán)能夠保障算法相對人有擺脫算法“黑箱”影響的選擇自由,也能夠?qū)λ惴ㄩ_發(fā)者/運(yùn)營者提高算法透明度給予制度激勵。前者是需求側(cè)的影響,本質(zhì)上是算法相對人對缺乏透明度或透明度不高的算法自動化決策“用腳投票”(34)“用腳投票”是一個通俗的表述,用來形容人們對于某個產(chǎn)品、服務(wù)、政策或觀點(diǎn)等的抵觸、放棄或反對。,以規(guī)避因算法“黑箱”可能給其合法權(quán)益帶來的潛在不利影響。后者是供給側(cè)的考量,旨在促使算法開發(fā)者/運(yùn)營者有足夠的動力提高算法的透明度,最大程度減少算法“黑箱”的影響。蓋因算法開發(fā)者/運(yùn)營者要避免算法相對人擺脫和拒絕算法自動化決策,維持其在算法市場上的占有份額,就只能盡可能提高算法透明度并以可理解的方式向公眾解釋算法的運(yùn)行和決策過程。
鑒于算法自動化決策拒絕權(quán)針對的是“算法決策”,而非“算法決策的結(jié)果”,立法應(yīng)當(dāng)從事前和事中兩個階段為個體提供履行算法自動化決策拒絕權(quán)的保障措施。在事前階段,事前知曉是個體對抗算法自動化決策的源頭途徑?!吨腥A人民共和國個人信息保護(hù)法》(簡稱《個人信息保護(hù)法》)第14條、第17條、第44條賦予了信息主體知情權(quán)和決定權(quán),其中第14條是規(guī)定信息主體知情權(quán)的原則性條款;第17條則在第14條的基礎(chǔ)上進(jìn)一步細(xì)化了個人信息處理者應(yīng)當(dāng)告知信息主體的具體事項(xiàng)范圍,包括處理的目的、方式、個人信息種類和保存期限,但立法所明確的告知的具體事項(xiàng)范圍尚無法完全滿足信息主體對算法自動化決策的知情需求,且這些事項(xiàng)范圍僅為常規(guī)性事項(xiàng),無法對標(biāo)對個人權(quán)益有重大影響的算法自動化決策;第44條僅簡略規(guī)定信息主體的知情權(quán)和決定權(quán),明確信息主體有權(quán)限制、拒絕他人對其個人信息的處理,但尚未闡明如何知情和決定,如何限制和拒絕。除前述條文外,《個人信息保護(hù)法》第48條還賦予信息主體獲取解釋說明的權(quán)利,但同樣地,如何獲取解釋說明仍然語焉不詳。故后續(xù)立法應(yīng)當(dāng)為信息主體的知情權(quán)和決定權(quán)配套相關(guān)細(xì)則,從事前知曉的角度為個體拒絕算法自動化決策提供源頭保護(hù)。
在事中階段,應(yīng)借助《個人信息保護(hù)法》第44條至第47條所形成的包括刪除限制、查閱復(fù)制、更正補(bǔ)充等權(quán)利在內(nèi)的權(quán)利束,為個體提供拒絕算法自動化決策的多樣化路徑。此外,《個人信息保護(hù)法》第24條第2款還要求進(jìn)行算法自動化決策的行為者在信息推送、商業(yè)營銷的場景下,應(yīng)當(dāng)向個體提供不泄露個人信息的選項(xiàng)設(shè)置以及便捷的拒絕方式。(35)《個人信息保護(hù)法》第24條第2款規(guī)定:“通過自動化決策方式向個人進(jìn)行信息推送、商業(yè)營銷,應(yīng)當(dāng)同時提供不針對其個人特征的選項(xiàng),或者向個人提供便捷的拒絕方式?!鄙鲜鰴?quán)利一定程度上在事中階段為個體對自動化決策施加人為限制因素提供了基礎(chǔ)。但中國對刪除限制、查閱復(fù)制、更正補(bǔ)充等權(quán)利的立法規(guī)定在條文設(shè)計(jì)上仍略顯粗糙,還可再行精細(xì)化處理。同時,特定場景下的為個體提供不泄露個人信息的選項(xiàng)設(shè)置以及便捷的拒絕方式的立法設(shè)計(jì)尚不具有普適性,可將此項(xiàng)規(guī)定向普適性條款的方向作進(jìn)一步完善。
實(shí)踐中,不少私人資本通過算法以“作為”的形式實(shí)施了諸多違法行為。例如,今日頭條旗下的“內(nèi)涵段子”應(yīng)用程序及公眾號的推薦算法就堅(jiān)持“只要價值,不要價值觀”,肆意傳播充斥著色情、暴力、低俗的內(nèi)容。但傳統(tǒng)的追責(zé)邏輯遵循的是“主體—行為—責(zé)任”,而算法運(yùn)行所致危害后果的根源通常是多方面的,例如數(shù)據(jù)來源和質(zhì)量、代碼變量選擇、權(quán)重設(shè)定、架構(gòu)設(shè)計(jì)等的偏差均有可能造成損害結(jié)果。對此,政府公共部門在啟動事后追責(zé)機(jī)制時,囿于算法“黑箱”的影響,將會難以確定責(zé)任來源的根源,更無從考究算法開發(fā)者/運(yùn)營者是否具有過錯。由此,國內(nèi)外立法實(shí)踐(36)國內(nèi)外關(guān)于算法問責(zé)制的立法實(shí)踐包括2019年歐盟的《算法問責(zé)及透明度監(jiān)管框架》、2022年美國的《算法問責(zé)法案》等。和理論研究(37)國內(nèi)外關(guān)于算法問責(zé)制的理論研究參見Joshua A. Kroll &Joanna Huey, et al., Accountable Algorithms,University of Pennsylvania Law Review, Vol.165: 633, p.638-705(2017);汪慶華:《算法透明的多重維度和算法問責(zé)》,載《比較法研究》2020年第6期,第163-173頁;張凌寒:《網(wǎng)絡(luò)平臺監(jiān)管的算法問責(zé)制構(gòu)建》,載《東方法學(xué)》2021年第3期,第22-40頁。紛紛提出應(yīng)啟動算法問責(zé)。美國的《算法問責(zé)法案》、歐盟的《算法問責(zé)及透明度監(jiān)管框架》等都是推動算法問責(zé)相關(guān)立法的重要體現(xiàn)。
算法問責(zé)的責(zé)任主體應(yīng)為算法開發(fā)者/運(yùn)營者。算法運(yùn)行造成的危害后果也許并非是算法開發(fā)者/運(yùn)營者的主觀過錯所致,而是多方作用的結(jié)果,甚至可能算法開發(fā)者/運(yùn)營者也無法預(yù)測這些危害后果。但這不足以免除算法開發(fā)者/運(yùn)營者的算法責(zé)任,蓋因無論算法如何基于深度學(xué)習(xí)自主演變,算法開發(fā)者/運(yùn)營者都對算法演變負(fù)有一定義務(wù),包括在算法系統(tǒng)中嵌入審計(jì)日志,對算法系統(tǒng)進(jìn)行備案、評估、測試、監(jiān)督,甚至在算法運(yùn)行過程中增加權(quán)限控制等,以盡可能避免損害結(jié)果發(fā)生。(38)Luciano Floridi, Distributed Morality in an Information Society, Science and Engineering Ethics, Vol.19: 727, p.728(2013).
一方面,算法開發(fā)者/運(yùn)營者的主觀意圖對算法決策結(jié)果存在著根源性影響。算法開發(fā)者/運(yùn)營者或多或少會利用代碼內(nèi)嵌規(guī)則在算法開發(fā)和運(yùn)營過程中嵌入自身的價值觀念或主觀意圖。在“SearchKingv.Google案”(39)Search King, Inc. v. Google Technology, Inc., Case No.CIV-02-1457-M(W.D.Okla.May 27, 2003).中,Google就毫不避諱地承認(rèn)其是有意篡改網(wǎng)頁排名算法。另外,即便算法的運(yùn)行規(guī)則與方式導(dǎo)致輸出結(jié)果可能無法為開發(fā)者/運(yùn)營者所控制,但算法通過深度學(xué)習(xí)后輸出結(jié)果的整體技術(shù)路線依然是遵循目標(biāo)導(dǎo)向原則,即以無限接近算法開發(fā)者/運(yùn)營者所設(shè)定的輸出目標(biāo)為指引。
另一方面,算法開發(fā)者/運(yùn)營者對算法決策結(jié)果負(fù)有注意義務(wù)。算法開發(fā)者雖然無法完全預(yù)測和控制算法輸出結(jié)果,但其在開發(fā)過程中應(yīng)當(dāng)能夠預(yù)設(shè)合理的數(shù)據(jù)集選取和質(zhì)量變量選擇、權(quán)重設(shè)定、架構(gòu)設(shè)計(jì)等因素的偏差范圍,以及應(yīng)當(dāng)具備應(yīng)對不良算法決策的必要反應(yīng)能力,從而最大限度確保算法能夠應(yīng)對潛在的風(fēng)險。算法運(yùn)營者雖然未參與算法的開發(fā)設(shè)計(jì),但依據(jù)《中華人民共和國網(wǎng)絡(luò)安全法》(簡稱《網(wǎng)絡(luò)安全法》)、《中華人民共和國數(shù)據(jù)安全法》(簡稱《數(shù)據(jù)安全法》)等法律法規(guī)的要求,算法運(yùn)營者負(fù)有采取必要手段(備案、審查、復(fù)核、驗(yàn)證等)確保算法決策結(jié)果合法合規(guī)的義務(wù)。例如,在“螞蟻金服訴企查查案”(40)參見浙江省杭州市中級人民法院(2020)浙01民終4847號民事判決書。中,一審法院與二審法院均認(rèn)為:大數(shù)據(jù)企業(yè)有確保其收集、發(fā)布的數(shù)據(jù)質(zhì)量的義務(wù),尤其是對于重大負(fù)面敏感數(shù)據(jù),應(yīng)當(dāng)通過改進(jìn)算法技術(shù)、數(shù)據(jù)復(fù)核、交叉驗(yàn)證等手段,提高數(shù)據(jù)推送質(zhì)量,避免不當(dāng)?shù)男畔⑼扑托袨椤?/p>
當(dāng)然,有效的算法問責(zé)還有賴于清晰的主觀過錯認(rèn)定,需要借助算法備案、影響評估與合規(guī)審計(jì),從算法開發(fā)/運(yùn)營的目的、風(fēng)險評估以及風(fēng)險控制能力三方面固定算法問責(zé)點(diǎn)。
關(guān)于算法開發(fā)/運(yùn)營的目的的問責(zé),算法開發(fā)者/運(yùn)營者對自己開發(fā)/運(yùn)營的算法負(fù)有注意義務(wù),應(yīng)對算法開發(fā)/運(yùn)營的目的及其應(yīng)用作必要性評估并備案。尤其是當(dāng)一個算法系統(tǒng)有多個價值目標(biāo)時,鑒于算法系統(tǒng)缺乏價值判斷能力,無法自主協(xié)商有沖突的價值目標(biāo),算法開發(fā)者/運(yùn)營者在開發(fā)/運(yùn)營算法系統(tǒng)時需要明確這些價值目標(biāo)的順位,并將這些不同價值目標(biāo)的優(yōu)先級進(jìn)行評估與備案。(41)James Mcgrath &Ankur Gupta, Writing a Moral Code: Algorithms for Ethical Reasoning by Humans and Machines, Religions, Vol.9: 240, p.240-259(2018).自動駕駛汽車面臨的“電車難題”反映的就是算法價值目標(biāo)的順位與取舍問題。
關(guān)于算法開發(fā)/運(yùn)營的風(fēng)險評估的問責(zé),其關(guān)鍵是要確定應(yīng)實(shí)現(xiàn)何種程度的風(fēng)險評估。算法開發(fā)/運(yùn)營的風(fēng)險評估最起碼應(yīng)包括算法風(fēng)險的來源,性質(zhì),級別,不同風(fēng)險級別的算法對公民權(quán)利、社會公共利益可能產(chǎn)生的影響。當(dāng)然,域外一些法律文件也提出了更廣泛意義上的,包括對人權(quán)、隱私和數(shù)據(jù)保護(hù)等方面的算法影響評估。(42)紐約大學(xué)AI Now研究所、2022年美國的《算法問責(zé)法案》、2019年歐盟的《關(guān)于先進(jìn)數(shù)字技術(shù)的人權(quán)影響框架》提出的算法影響評估框架中包括評估對人權(quán)的影響;歐盟GDPR蘊(yùn)含了需評估算法自動化決策對隱私的影響,同時要求啟動“數(shù)據(jù)保護(hù)影響評估”。相關(guān)法律文件還有歐盟的《可信賴的人工智能倫理準(zhǔn)則》《算法問責(zé)及透明度監(jiān)管框架》、聯(lián)合國教科文組織的《機(jī)器人倫理報(bào)告》等。因此,應(yīng)在基礎(chǔ)性評估內(nèi)容的基礎(chǔ)上,根據(jù)算法的功能和場景應(yīng)用進(jìn)一步確定風(fēng)險評估的要求。
關(guān)于算法開發(fā)/運(yùn)營的風(fēng)險控制能力的問責(zé),合規(guī)的算法開發(fā)/運(yùn)營的風(fēng)險控制能力要求算法開發(fā)者/運(yùn)營者應(yīng)當(dāng)在風(fēng)險評估后確定相應(yīng)的風(fēng)險防控方案和措施并進(jìn)行備案,其中應(yīng)當(dāng)涉及算法系統(tǒng)的技術(shù)邏輯、風(fēng)險級別與影響評估、風(fēng)險處理等措施的置備及相關(guān)信息的留存。此外,無論算法開發(fā)/運(yùn)營的風(fēng)險評估為何,算法開發(fā)者/運(yùn)營者均應(yīng)當(dāng)事前設(shè)置算法的“緊急制停預(yù)案與措施”——當(dāng)算法運(yùn)行過程中面臨公民合法人身權(quán)益或重大財(cái)產(chǎn)權(quán)益損害的風(fēng)險時,算法開發(fā)者/運(yùn)營者能夠緊急中斷算法運(yùn)行與輸出的預(yù)案與措施。
誠然,強(qiáng)調(diào)開放與控制并重的“硬法—軟法”范式能夠?yàn)樗惴ā昂谙洹钡闹卫硖峁┮环N新的立法框架,但在“硬法—軟法”范式下除了需要明確算法“黑箱”治理的硬法規(guī)范和軟法規(guī)范外,還需要在兩種規(guī)范中建立雙向溝通機(jī)制,確保兩種規(guī)范的銜接與協(xié)調(diào)。此外,硬法是由國家強(qiáng)制力保障實(shí)施,而軟法是不具有國家強(qiáng)制力支持的法律規(guī)范,如何使軟法能夠在算法“黑箱”治理中得到有效實(shí)施,也需要進(jìn)一步研究。為此,需要重點(diǎn)考慮以下幾個問題。
第一,將技術(shù)標(biāo)準(zhǔn)作為軟法與硬法的溝通機(jī)制。算法本質(zhì)上是一種技術(shù)工具,其“黑箱”治理在軟法規(guī)范上應(yīng)包括增強(qiáng)算法模型的可解釋性和向社會公開源代碼,那么,無法回避的是技術(shù)標(biāo)準(zhǔn)問題,包括達(dá)到何種標(biāo)準(zhǔn)才滿足增強(qiáng)算法模型可解釋性之要求,向社會公開源代碼的具體技術(shù)要求是什么等問題。技術(shù)標(biāo)準(zhǔn)作為一種典型的軟法,由國家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)、企業(yè)標(biāo)準(zhǔn)等構(gòu)成,是技術(shù)與法治的耦合,是科學(xué)技術(shù)與價值判斷相融合的合理化過程,可以作為規(guī)制與自治之間的銜接點(diǎn)和緩沖區(qū)。(43)參見陳偉:《作為規(guī)范的技術(shù)標(biāo)準(zhǔn)及其與法律的關(guān)系》,載《法學(xué)研究》2022年第5期,第86-87頁。國家部委及地方政府等監(jiān)管機(jī)構(gòu)牽頭制定的技術(shù)標(biāo)準(zhǔn)可被視為硬法的觸手,用以約束或引導(dǎo)生產(chǎn)生活;另有相當(dāng)數(shù)量的技術(shù)標(biāo)準(zhǔn)源于對最佳實(shí)踐的總結(jié),具有自下而上的自治色彩。(44)參見衣俊霖:《數(shù)字孿生時代的法律與問責(zé)——通過技術(shù)標(biāo)準(zhǔn)透視算法黑箱》,載《東方法學(xué)》2021年第4期,第88頁。因此,技術(shù)標(biāo)準(zhǔn)適合作為溝通機(jī)制,用以建立算法“黑箱”的軟硬法治理體系。
從比較法視野看,國外對于借助技術(shù)標(biāo)準(zhǔn)將軟法嵌入硬法并形成利益導(dǎo)向機(jī)制已具備規(guī)模且形成體系化的經(jīng)驗(yàn)。國際標(biāo)準(zhǔn)化組織與國際電工委員會聯(lián)合發(fā)布的ISO/IEC 27701標(biāo)準(zhǔn)就是可資借鑒的典型示例。制定ISO/IEC 27701標(biāo)準(zhǔn)的目的是為了通過附加要求增強(qiáng)現(xiàn)有的信息安全管理系統(tǒng),建立、實(shí)施、維護(hù)和持續(xù)改進(jìn)隱私信息管理系統(tǒng),以便遵守GDPR并滿足其他數(shù)據(jù)隱私要求。ISO/IEC 27701標(biāo)準(zhǔn)的附錄D主要闡述其與GDPR的映射關(guān)系,表明相關(guān)主體遵守標(biāo)準(zhǔn)中的要求和控制措施與其履行GDPR的相關(guān)性,甚至明確表示遵守標(biāo)準(zhǔn)中的單個隱私控制點(diǎn)可以滿足GDPR中的多項(xiàng)要求。雖然ISO/IEC 27701標(biāo)準(zhǔn)附錄D所闡述的與GDPR的映射關(guān)系僅具有指引作用,但這些映射關(guān)系的制定是由GDPR的立法委員會參與的,具有一定的權(quán)威性。由此可見,GDPR與ISO/IEC 27701標(biāo)準(zhǔn)之間形成了成文法與技術(shù)軟法的嵌入互動機(jī)制,鏈接了“技術(shù)”與“法律”兩個話語體系。因此,中國可借鑒GDPR與ISO/IEC 27701標(biāo)準(zhǔn)的經(jīng)驗(yàn),借助技術(shù)標(biāo)準(zhǔn)鏈接算法“黑箱”治理的軟法與硬法,建立符合中國國情的算法“黑箱”軟硬法治理體系。
第二,在立法上塑造技術(shù)標(biāo)準(zhǔn)生成的硬法環(huán)境。欲在算法“黑箱”治理中充分發(fā)揮軟法的獨(dú)特功能,中國需形成完整的算法治理法律規(guī)范體系,否則沒有明確硬法映射的軟法也將失去其規(guī)范優(yōu)勢。當(dāng)前中國針對算法治理的立法散見于《中華人民共和國民法典》(簡稱《民法典》)、《中華人民共和國電子商務(wù)法》《個人信息保護(hù)法》《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等法律、行政法規(guī)和部門規(guī)章中?!墩憬?shù)字經(jīng)濟(jì)促進(jìn)條例》《深圳經(jīng)濟(jì)特區(qū)數(shù)據(jù)條例》《深圳經(jīng)濟(jì)特區(qū)人工智能產(chǎn)業(yè)促進(jìn)條例》等地方性法規(guī)也有相關(guān)規(guī)定。這些法律法規(guī)都可以直接或間接治理算法“黑箱”。
然而,現(xiàn)行立法尚無法為算法“黑箱”治理的軟法規(guī)范提供充分的硬法映射:《民法典》的規(guī)定具有概括性,能夠奠定算法規(guī)制的基本框架,但主要通過賦權(quán)的方式從數(shù)據(jù)、個人信息保護(hù)的角度間接規(guī)制算法,義務(wù)要素結(jié)構(gòu)有所缺乏;《數(shù)據(jù)安全法》和《網(wǎng)絡(luò)安全法》雖然具備一定的義務(wù)要素結(jié)構(gòu),但二者主要聚焦宏觀的網(wǎng)絡(luò)安全和數(shù)據(jù)安全,與算法“黑箱”治理并非完全對應(yīng)關(guān)系,難以直接作為硬法來映射;《個人信息保護(hù)法》具備一定的義務(wù)要素結(jié)構(gòu),且明確對算法自動化決策加以規(guī)制,并形成了算法影響評估、審計(jì)和備案制度的雛形,但仍然缺乏配套措施。即便是與算法“黑箱”治理最密切相關(guān)的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,其規(guī)制對象也限于互聯(lián)網(wǎng)信息服務(wù)算法推薦技術(shù),且主要圍繞算法安全主體責(zé)任、用戶權(quán)利以及算法分類分級安全管理制度,并未有增強(qiáng)算法模型可解釋性以及向社會公開源代碼的相關(guān)規(guī)范,同樣難以直接作為硬法來映射。因此,需要完善中國算法“黑箱”治理的法律規(guī)范體系,從立法的角度塑造技術(shù)標(biāo)準(zhǔn)生成的硬法環(huán)境。
第三,在司法上明確技術(shù)標(biāo)準(zhǔn)嵌入的可能方式。技術(shù)標(biāo)準(zhǔn)可通過法律適用與事實(shí)認(rèn)定兩方面嵌入司法。在法律適用層面,技術(shù)標(biāo)準(zhǔn)可在法律存在空白時起到間接適用功能,在法律不確定時起到解釋補(bǔ)充功能;在事實(shí)認(rèn)定層面,技術(shù)標(biāo)準(zhǔn)可作為書證。技術(shù)標(biāo)準(zhǔn)嵌入司法在中國已有先例。例如,在“葛明君訴中國銀行股份有限公司成都科華街支行案”(45)參見四川省成都市中級人民法院(2021)川01民終字18180號民事判決書。中,被告中國銀行科華街支行證明中國銀行手機(jī)客戶端已經(jīng)過專門的認(rèn)證機(jī)構(gòu)進(jìn)行安全性認(rèn)證且符合監(jiān)管規(guī)定及行業(yè)標(biāo)準(zhǔn),并以此作為已履行安全保障義務(wù)的充足證據(jù),避免了責(zé)任承擔(dān)。在“北京金星鴻業(yè)電梯有限公司訴北京市朝陽區(qū)質(zhì)量技術(shù)監(jiān)督局案”(46)參見北京市第二中級人民法院(2011)二中行終字第937號行政判決書。中,法院根據(jù)《JG135—2000雜物電梯》和《TSG T5001—2009電梯使用管理與維護(hù)保養(yǎng)規(guī)則》輔助認(rèn)定電梯維護(hù)保養(yǎng)單位的維保義務(wù)??偟膩碚f,在事實(shí)認(rèn)定層面,技術(shù)標(biāo)準(zhǔn)可以作為一種書面證據(jù),用以證明算法開發(fā)者/運(yùn)營者在事實(shí)層面具備算法開發(fā)/運(yùn)營的資質(zhì)且體系化地履行了現(xiàn)有法律規(guī)定的注意義務(wù)(如遵守ISO/IEC 27701一定程度上即遵守了GDPR)。在法律適用層面,技術(shù)標(biāo)準(zhǔn)可以在法律規(guī)定的義務(wù)內(nèi)容、過錯認(rèn)定條件較模糊導(dǎo)致自由裁量空間過大時,作為規(guī)則的補(bǔ)充釋明,例如,可以根據(jù)技術(shù)標(biāo)準(zhǔn)的規(guī)定判斷義務(wù)履行主體的過錯程度,酌定賠償數(shù)額等。