林洹民
2021 年11 月1 日生效的《個人信息保護法》(下文簡稱《個保法》)第24 條第3 款規(guī)定,通過自動化決策方式作出對個人權(quán)益有重大影響的決定,個人有權(quán)要求個人信息處理者予以說明,并有權(quán)拒絕個人信息處理者僅通過自動化決策的方式作出決定。該款正式規(guī)定個人的算法解釋權(quán),對打破“算法黑箱”實現(xiàn)算法透明具有明顯的積極意義。但是,《個保法》規(guī)定的算法解釋權(quán)的構(gòu)成要件與法律后果都較為模糊,可能會引發(fā)法律適用的障礙。例如,在構(gòu)成要件層面,算法解釋權(quán)是否限于決定“僅”由自動決策算法做出的情形,是否只要存在人工干預(yù)即不能請求解釋算法?在法律后果層面,個人得請求解釋的是具體的算法決定,還是一般性的運作邏輯?為了細化《個保法》的相關(guān)規(guī)則,也為了搭建更為全面的算法治理框架,2021 年12 月31 日國家網(wǎng)信辦發(fā)布《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(下文簡稱《算法推薦管理規(guī)定》),該規(guī)定已于2022 年3 月1 日正式生效?!端惴ㄍ扑]管理規(guī)定》圍繞算法解釋權(quán)作出規(guī)定,但在制定過程中爭議較大,且最終版本相對于征求意見稿有較大幅度的修改。無論是《個保法》相關(guān)規(guī)范的模糊性還是《算法推薦管理規(guī)定》具體規(guī)則的反復(fù)修改,均表明算法解釋權(quán)規(guī)范設(shè)計的復(fù)雜性。法律一旦生效,即面臨執(zhí)行的問題。隨著《個保法》與《算法推薦管理規(guī)定》的陸續(xù)生效,如何“落地”算法解釋權(quán),必將成為互聯(lián)網(wǎng)執(zhí)法的一大難點。有鑒于此,本文欲結(jié)合《個保法》與《算法推薦管理規(guī)定》的相關(guān)規(guī)范,圍繞算法解釋權(quán)的構(gòu)成要件和法律后果展開分析,著重討論算法解釋權(quán)在公私場景中不同的意義與構(gòu)造,希冀為算法解釋權(quán)的適用提供充分的理論依據(jù)和具體的操作指引。
《個保法》第24 條第3 款規(guī)定,通過自動化決策方式作出對個人權(quán)益有重大影響的決定,個人有權(quán)要求個人信息處理者予以說明,并有權(quán)拒絕個人信息處理者僅通過自動化決策的方式作出決定。據(jù)此,算法解釋權(quán)的適用前提是:(1)決定通過自動化決策方式作出;(2)對個人權(quán)益有重大影響。
根據(jù)《個保法》第73 條第2 項,自動化決策,是指通過計算機程序自動分析、評估個人的行為習(xí)慣、興趣愛好或者經(jīng)濟、健康、信用狀況等,并進行決策的活動。自動化決策方式即為處理個人信息并做出決策的算法。問題在于,是否決策必須僅通過算法做出,個人才能行使算法解釋權(quán)。換言之,是否只要存在人工干預(yù)即不得請求解釋算法?
歐盟《通用數(shù)據(jù)保護條例》(GDPR,下文簡稱《歐盟條例》)第22 條第1 款明確要求決策必須“僅”由算法做出。與之不同,我國只是要求決定通過自動決策方式作出,并未要求不存在人工干預(yù)?!稓W盟條例》在生效之后,圍繞第22 條的適用范圍產(chǎn)生過激烈的討論。如果整個決策流程當中的決定完全由算法做出,那么當然適用第22 條;如果人工干涉發(fā)生在所有流程當中,那么原則上不適用第22 條。但是如果既有人工干涉也有算法決策,有時難以判斷決定是否僅由算法做出。一般認為,輔助型算法并非自動決策算法。輔助型算法大致包括決策支持型算法、分組型算法與總結(jié)型算法(decision-support, triaging, and summarization algorithm)。①Reuben Binns and Michael Veale, Is that your final decision? Multi-stage profiling, selective effects, and Article 22 of the GDPR, International Data Privacy Law, 2021, Vol. 00, No. 0, p.3.對于決策支持型算法而言,算法僅僅提供支持作用,看似還是由人作出決策的。但是,個人可能完全依賴算法的建議決策。德國學(xué)者因此指出,雖然存在人為干預(yù),但若僅是例行公事式的檢驗,算法決定構(gòu)成決策的“實質(zhì)性基礎(chǔ)”,此時該類算法就屬于“自動決策算法”。②Simitis/Hornung/Spiecker, Datenschutzrecht, Nomos Verlag, 1. Aufl., Baden-Baden 2019, S. 714.對于分組類型而言,雖然也有人工參與,但算法可能已經(jīng)事先地影響決策的選擇。例如算法可能將申請者分為A 和B 兩個群組,每個群組雖然都由人最終決定結(jié)果,但群組A 只能得到H1 和H2 兩種結(jié)果,群組B 則只能得到H3 和H4。此時我們不由地要問:這種程度的人工干預(yù)是否足以排斥算法解釋權(quán),此時自動決策算法難道沒有實質(zhì)上影響決策嗎?對于總結(jié)型算法而言,算法可能根據(jù)眾多個人的評價做出評價。例如Ebay、Uber 或淘寶、滴滴根據(jù)用戶的反饋為店鋪或司機打分,不同等級對應(yīng)不同的商業(yè)機會。此時,決策是否完全由算法做出?《歐盟條例》第22 條之所以強調(diào)決定必須僅由算法作出,源于歐洲人對自動化的不安。③Margot E Kaminski, Binary Governance: Lessons from the GDPR’s Approach to Algorithmic Accountability, 92 Southern California Law Review 1529 (2019).德國聯(lián)邦憲法法院于1983 年提出個人信息自決權(quán)的重要理由之一就在于,在自動化信息處理的時代,不存在不重要的個人信息。④BVerfGE 65, 1 (43).歐盟格外警惕自動化決策,因此強調(diào)對自動化算法的規(guī)制。但若以此強調(diào)決策必須僅由算法做出,法律才應(yīng)當規(guī)制,則有些過猶不及的。只要決策實質(zhì)受到自動決策算法影響,均應(yīng)有規(guī)范的必要。
更為重要的是,如果我們強調(diào)算法解釋權(quán)的適用前提是決策“僅”由算法做出,那么行政決策算法就不會被納入自動化算法規(guī)則的射程范圍。以行政處罰裁量輔助系統(tǒng)為例,該系統(tǒng)根據(jù)執(zhí)法人員勾選或者輸入的案情要素提供裁量建議,最終的裁量由執(zhí)法人員結(jié)合個案情形作出。目前已投入使用的行政處罰裁量輔助系統(tǒng),包括南京的“環(huán)保行政處罰自由裁量輔助決策系統(tǒng)”、甘肅的“環(huán)境行政處罰裁量輔助決策系統(tǒng)”、北京的“睿法官”智能研判系統(tǒng)、上海的“206”刑事案件智能輔助辦案系統(tǒng)、湖北的“智能量刑輔助系統(tǒng)”等等。此類算法僅僅提供輔助性建議,最終的決定仍然由人作出,但是卻對行政行為產(chǎn)生重要影響。鑒于我國尚不存在專門針對全自動行政行為的法律規(guī)范,《個保法》規(guī)則查漏補缺,彌補法律制度闕如的不足。借助《個保法》中的算法條款,能夠有效地拘束行政機關(guān)借助算法的行政行為。
承上,《個保法》第24 條第3 款規(guī)定的算法解釋權(quán)的適用對象,并非限于決定僅由自動決策算法做出的情況。即便存在人工干預(yù),只要算法對決策產(chǎn)生實質(zhì)性影響,即應(yīng)當屬于算法解釋權(quán)的適用對象。
1.重大影響并不限于對個人不利的決定。有利或者不利,是主觀性極強的概念。如果將適用范圍限于對個人的不利影響,個人需要證明決定對其利益構(gòu)成侵害,這不一定能夠順利實現(xiàn)。歐盟在制定《個人數(shù)據(jù)保護指令》當中,曾試圖將適用條件限定為不利的法律影響或類似的不利影響。⑤Commission of the European Communities, Amended proposal for a Council Directive on the protection of individuals with regard to the processing of personal data and on the free movement of such data (15 October 1992, COM(92) 422 final - SYN 287), p. 26.但后來考慮到可能增加個人的負擔(dān),因此并未做限制。第29 條工作組在其指導(dǎo)意見中指出,重大影響可以是積極的,也可以是消極的。⑥Article 29 Working Party, Guidelines on Automated individ ual decision-making and Profiling for the purposes of Regulation 2016/679, 17/EN WP 251 rev. 01, as last revised and adopted on 6 February, 2018.
2.重大影響并不存在明確的判斷標準。重大影響這一標準具備一定的模糊性。立法者有意識地采納模糊性的表達,以交由監(jiān)管機關(guān)和司法機關(guān)判斷何為“重大影響”。但一般認為,合同締結(jié)或終止應(yīng)屬于該款指涉的不利狀態(tài)。個體如果因為自動決策算法而未能締結(jié)合同,應(yīng)認定屬于遭受了重大影響。⑦BeckOK DatenschutzR/ DS-GVO Art. 22 Rn. 39.此外,當繼續(xù)性合同內(nèi)容因自動決策算法的結(jié)果而被要求終止時,數(shù)據(jù)主體也可以行使算法結(jié)果拒絕權(quán)。⑧Simitis/Hornung/Spiecker, a.a.O. S.716.再者,算法結(jié)果雖不影響當事人的法律狀態(tài),但事實上影響了當事人合同目的實現(xiàn),此時個體仍然有獲得法律保護的可能。例如,個人如果只能按照不利的條款才能締結(jié)合同,也應(yīng)被認定法律狀態(tài)遭受不利影響。⑨Mendoza/Bygrave, The Right Not to Be Subject to Automated Decisions Based on Profiling, University of Oslo Faculty of Law Research Paper No. 2017-20, p. 12.具體而言,個人雖然與企業(yè)確立了合同關(guān)系,但卻不能如同他人一樣享受靈活的支付選擇——個人被要求必須提前付款,不能享受貨到付款待遇,亦或者個人不得使用信用卡支付等等。⑩BeckOK DatenschutzR/v. Lewinski BDSG § 6 a Rn. 40.
《個保法》第24 條第3 款規(guī)定,“個人有權(quán)要求個人信息處理者予以說明”。但說明或解釋一詞有高度模糊性,英國信息委員會辦公室就指出,解釋包括六種情況:理性解釋、責(zé)任解釋、數(shù)據(jù)解釋、公平解釋、安全與執(zhí)行解釋和影響力解釋。?Information Commissioner's Office & The Alan Turing Institute, Explaining decisions made with Artificial Intelligence/Part 1 The basics of explaining AI/What goes into an explanation?, available from
支持事后的、對具體決定的算法解釋權(quán)的學(xué)者認為:鑒于合同法、侵權(quán)法和消費者保護法等都沒法充分救濟當事人,法律應(yīng)當賦予個人事后的算法解釋權(quán);當自動化決策算法的具體決定對相對人有法律上或者經(jīng)濟上的顯著影響時,相對人有權(quán)向算法使用人提出異議,要求提供對具體決策的解釋。?參見張凌寒:《商業(yè)自動化決策的算法解釋權(quán)研究》,載《法律科學(xué)(西北政法大學(xué)學(xué)報)》2018 年第3 期;張恩典:《大數(shù)據(jù)時代的算法解釋權(quán):背景、邏輯與構(gòu)造》,載《法學(xué)論壇》2019 年第4 期。支持說受到牛津大學(xué)網(wǎng)絡(luò)研究中心研究助理古德曼和倫敦帝國學(xué)院數(shù)學(xué)系講師弗萊斯曼觀點的影響。二人通過分析《歐盟條例》相關(guān)規(guī)范指出,《歐盟條例》已經(jīng)明確規(guī)定了個人的算法解釋權(quán):鑒于《歐盟條例》第13 條和第14 條要求使用數(shù)據(jù)畫像技術(shù)的數(shù)據(jù)控制者提供數(shù)據(jù)主體和算法邏輯有關(guān)的有意義的信息,數(shù)據(jù)主體實質(zhì)上享有自動決策算法解釋請求權(quán)。?Bryce Goodman, Seth Flaxman, European Union regulations on algorithmic decision-making and a ‘‘right to explanation’’, in 2016 ICML Workshop on Human Interpretability in Machine Learning, New York, NY: ArXiv e-prints.古德曼和弗萊斯曼認為《歐盟條例》規(guī)定了個人對算法決策的事后的、針對具體決定的解釋請求權(quán)。國外也有一些學(xué)者同樣持此觀點。?See Francesca Rossi, Artificial Intelligence: Potential Benefits and Ethical Considerations, (European Parliament: Policy Department C: Citizens’ Rights and Constitutional Affairs 2016), Briefing PE 571, p.380.
反對說認為,立法不應(yīng)創(chuàng)設(shè)事后的、針對具體決定的算法解釋權(quán),而僅應(yīng)規(guī)定事前的、針對算法基本情況的解釋請求權(quán)。?參見沈偉偉:《算法透明原則的迷思——算法規(guī)制理論的批判》,載《環(huán)球法律評論》2019 年第6 期;林洹民:《個人對抗商業(yè)自動決策算法的私權(quán)設(shè)計》,載《清華法學(xué)》2020 年第4 期。核心理由在于:(1)事后的、具體的算法解釋權(quán)擾亂商業(yè)模式。企業(yè)出于節(jié)省成本、降低技術(shù)難度等考慮傾向于將業(yè)務(wù)外包,借助外部數(shù)據(jù)公司的輔助,在控制風(fēng)險的同時實現(xiàn)收益的最大化。以金融公司為例,銀行從外部數(shù)據(jù)公司獲知評分結(jié)果,進而作出授信決定;信用卡公司甚至完全依賴外部評分機制(externes Scoring)決定信用卡的發(fā)放與否。?在大數(shù)據(jù)時代,金融機構(gòu)往往求助于專門的數(shù)據(jù)分析公司,借助這些公司的數(shù)據(jù)分析技術(shù)風(fēng)險評估。例如,德國Kreditech 貸款評分公司、美國Movenbank 移動銀行、中國香港Lenddo 網(wǎng)絡(luò)貸款公司以及TrustCloud 、Connect.Me、Briiefly、Reputate 等新型中介機構(gòu),試圖設(shè)計大數(shù)據(jù)金融的信用平臺,打造能反映 LinkedIn、Facebook 或其他社交網(wǎng)絡(luò)的開放平臺,整合用戶活動記錄,進而通過算法實時地將社交網(wǎng)絡(luò)產(chǎn)生的種種資料直接轉(zhuǎn)化成個人的互聯(lián)網(wǎng)信用。金融機構(gòu)因無法查看外部數(shù)據(jù)公司的算法和使用的數(shù)據(jù),因此沒有機會解釋算法。在以外部信用評分為代表的外包模式下,算法解釋缺乏實質(zhì)意義。信用卡公司員工最多只能根據(jù)申請人提交的資料重新作出決策,若結(jié)果與基于算法做出的結(jié)果一致,員工也只能解釋自己的判斷依據(jù)。?Simitis/Hornung/Spiecker, a.a.O. S. 714.(2)深度學(xué)習(xí)算法決策結(jié)果的不可解釋性。深度學(xué)習(xí)算法自我分析數(shù)據(jù),自我遴選標準,自我評估結(jié)果,根本不存在“每種指標的功能權(quán)重,機器定義的特定案例決策規(guī)則和起參考輔助作用的信息”的解釋可能。深度學(xué)習(xí)算法的特征設(shè)定不再必要,機器將在深度學(xué)習(xí)算法的指引下自行選定特征,設(shè)計評估和決策算法。深度學(xué)習(xí)算法依賴于大量的數(shù)據(jù)和強大硬件的支撐,但設(shè)計者也沒法解釋決策產(chǎn)生的依據(jù)。算法設(shè)計者并沒有設(shè)計考慮因素、權(quán)重等,而是任由數(shù)據(jù)畫像技術(shù)自行發(fā)現(xiàn)影響因素及權(quán)重,算法設(shè)計者自身也不清楚被算法考慮的因素及其權(quán)重。反對說也否定《歐盟條例》第22 條規(guī)定了事前的、針對具體決定的算法解釋權(quán)。他們指出,《條例》序言第71 條明確提到了算法決定解釋權(quán),但《歐盟條例》前言不能創(chuàng)設(shè)新的權(quán)利;第13-15 條僅要求提供事前的、一般性的說明,并非事后的、具體的算法解釋權(quán)。?Sandra Wachter, Brent Mittelstadt, Luciano Floridi, Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation, International Data Privacy Law, 2017, Vol. 7, No.2.但也需注意,第29 條工作小組起初認為《歐盟條例》第13 條至第15 條要求告知“和邏輯相關(guān)的有意義的信息”僅提供一個一般性的洞察,而非針對具體決定的解釋請求權(quán),?Article 29 Working Party, Guidelines on Automated individ ual decision-making and Profiling for the purposes of Regulation 2016/679, 17/EN WP 251, adopted on 3 October 2017, 24.后來卻改弦更張,認為提供的信息應(yīng)當足夠個人理解具體的決定。?Article 29 Working Party, Guidelines on Automated individ ual decision-making and Profiling for the purposes of Regulation 2016/679, 17/EN WP 251 rev. 01, as last revised and adopted on 6 February, 2018, 27 (A29WP Guidelines)第29 條工作小組的觀點也展示了該問題的復(fù)雜性。
鑒于我國學(xué)者對該問題遠未達成共識,我國立法者設(shè)計了相對模糊的法律規(guī)范。較為籠統(tǒng)的規(guī)則設(shè)計雖然在操作層面不夠清晰,但卻為不同場景中不同的算法解釋權(quán)提供棲身之地?!秱€保法》屬于領(lǐng)域法,既含有私法色彩,也具有公法屬性。21參見周漢華:《論互聯(lián)網(wǎng)法》,載《中國法學(xué)》2015年第3期;張新寶:《互聯(lián)網(wǎng)生態(tài)“守門人”個人信息保護特別義務(wù)設(shè)置研究》,載《比較法研究》2021 年第3 期;龍衛(wèi)球:《〈個人信息保護法〉的基本法定位與保護功能——基于新法體系形成及其展開的分析》,載《現(xiàn)代法學(xué)》2021 年第5 期。《個保法》第24 條既規(guī)范公權(quán)力機關(guān)的算法應(yīng)用,也規(guī)范企業(yè)與個人之間的算法決策。但公私法的理念并不相同,前者強調(diào)依法行政原則、正當程序、尊重與保障人權(quán)等原則,后者則更加關(guān)注誠實信用、意思自治與合同正義。規(guī)范對象與規(guī)范理念的不同,導(dǎo)致不存在統(tǒng)一適用于公私法場景的算法解釋權(quán)。
國務(wù)院于2017 年印發(fā)的《新一代人工智能發(fā)展規(guī)劃》強調(diào),應(yīng)促進人工智能技術(shù)在行政管理領(lǐng)域的運用。人工智能的本質(zhì)即是算法、數(shù)據(jù)和算力的系統(tǒng)結(jié)合。目前自動決策算法已經(jīng)開始在行政管理領(lǐng)域推廣使用。“秒批”為全自動行政的典型代表。所謂的“秒批”,是指行政主體事先根據(jù)審批的條件和流程設(shè)定自動化程序,申請人提交申請信息后,系統(tǒng)將通過自有的和共享的數(shù)據(jù)庫自動比對以及核驗材料,無人工干預(yù)地瞬時完成自動審批并將結(jié)果反饋給申請人,完成審批流程。22參見查云飛:《行政裁量自動化的學(xué)理基礎(chǔ)與功能定位》,載《行政法學(xué)研究》2021 年第3 期。但需注意,行政機關(guān)使用自動決策算法作出的決策可能存在錯誤,國外的算法行政實踐已經(jīng)暴露出了種種瑕疵。例如,密歇根融合數(shù)據(jù)自動化系統(tǒng)存在著93%的出錯率,40000 人可能受害;澳大利亞社會保障部的智能催債系統(tǒng)發(fā)生了幾乎類似的算法裁決錯誤,成千上萬的福利申請者收到了系統(tǒng)的郵件,要求他們證明未冒用資格獲得社會福利。23參見汪慶華:《算法透明的多重維度和算法問責(zé)》,載《比較法研究》2020 年第6 期。即便算法僅為輔助手段,行政機關(guān)也可能“惰于思考”,借助自算法轉(zhuǎn)嫁決策風(fēng)險,逃避問責(zé)。
自動決策算法在行政管理領(lǐng)域的應(yīng)用雖然有利于提高工作效率,但可能侵犯公民的知情權(quán)、申訴權(quán),甚至發(fā)生錯誤處罰等直接侵犯公民人身自由和財產(chǎn)安全的情況。知情權(quán)是確保規(guī)范性期望不被動搖的關(guān)鍵。如果人們不了解行政決定的原因,不理解自身為什么會敗訴,公權(quán)力行為的正當性和合法性將會遭受質(zhì)疑。24茲舉一例,如果新書發(fā)布會前四排不允許自由落座,人們可能會對此表示不滿。但如果主辦方說明前幾排是留給殘障人士的,人們不僅不會不滿,反而會贊賞主辦方的細心與熱心。我國《行政許可法》第38 條第3 款規(guī)定,行政機關(guān)依法作出不予行政許可的書面決定的,應(yīng)當說明理由,并告知申請人享有依法申請行政復(fù)議或者提起行政訴訟的權(quán)利?!缎姓幜P法》第44 條規(guī)定,行政機關(guān)在作出行政處罰決定之前,應(yīng)當告知當事人擬作出的行政處罰內(nèi)容及事實、理由、依據(jù),并告知當事人依法享有的陳述、申辯、要求聽證等權(quán)利。為了防止行政機關(guān)借助算法侵犯公民的基本權(quán)利,公民應(yīng)有權(quán)請求解釋行政自動決策算法的具體決定。下文以健康碼為例詳述之。
健康碼是算法處理個人信息之后的電子健康憑證。我國利用自動化算法分析健康數(shù)據(jù)、地理位置數(shù)據(jù)、社交數(shù)據(jù)等個人數(shù)據(jù),判斷個人是否有可能已經(jīng)感染新冠病毒。根據(jù)算法處理結(jié)果,人們將會獲得紅黃綠三種顏色之一的健康碼。紅碼和黃碼持有者得分別實施14 天和7 天的集中或居家隔離,只有綠碼持有者才免于隔離,享有通行自由。
健康碼僅僅展示感染新冠肺炎的可能性,紅碼者并非當然感染新冠肺炎。但源于政府依據(jù)健康碼限制公民行為自由,健康碼成為某種行政行為。生成健康碼,在行政法上的行為類型屬于行政評級。25參見查云飛:《健康碼:個人疫情風(fēng)險的自動化評級與利用》,載《浙江學(xué)刊》2020 年第3 期。行政評級是指行政機關(guān)設(shè)定一些簡明的評價標準,結(jié)合相對人的相關(guān)信息或者過往的行為予以定性評價,在此基礎(chǔ)上可進行相應(yīng)分類監(jiān)管。26參見王瑞雪:《論行政評級及其法律控制》,載《法商研究》2018 年第3 期。生成健康碼并非行政確認,在性質(zhì)上與酒駕檢測和車輛年檢接近,應(yīng)當屬于“行政評級”。行政評級已被廣泛運用于各個領(lǐng)域,例如餐飲業(yè)的衛(wèi)生等級評定、納稅人的納稅信譽等級評定、行政審批中介機構(gòu)等級評定以及備受爭議的社會信用評價等。27參見吳元元:《信息基礎(chǔ)、聲譽機制與執(zhí)法優(yōu)化——食品安全治理的新視野》,載《中國社會科學(xué)》2012 年第6 期。
當健康碼成為一種可以限制出行自由的行政行為時,法秩序應(yīng)當給于公民一定的保障。即便公民經(jīng)過核酸檢測后并認定未感染新冠肺炎,也會因為健康碼是黃碼或紅碼而被限制出行自由。然而,技術(shù)后臺基于哪些數(shù)據(jù)比對分析,對各類數(shù)據(jù)如何賦值,在數(shù)據(jù)沖突時如何處理,風(fēng)險等級的評定標準具體如何以及動態(tài)調(diào)整有哪些依據(jù),這些由行政機關(guān)設(shè)定的標準卻并未公開。人民缺乏對政府部門使用健康碼的法定知情權(quán)。盡管《行政處罰法》《行政強制法》《行政許可法》等法律已經(jīng)規(guī)定知情權(quán),但是健康碼的性質(zhì)為行政評級,并非行政處罰、行政強制或行政許可。當然,也可以借助正當程序保護公民的知情權(quán)。但正當程序這一標準頗具模糊性,這使得行政機關(guān)使用算法的行為缺乏直接的法律拘束。
《個保法》第24 條第3 款前半句規(guī)定,通過自動化決策方式作出對個人權(quán)益有重大影響的決定,個人有權(quán)要求個人信息處理者予以說明。健康碼是計算機程序處理個人信息的結(jié)果,屬于通過自動化決策方式做出的決定;健康碼顏色直接影響出行自由,應(yīng)屬于“對個人權(quán)益有重大影響的決定”。因此,在《個保法》生效之后,個人得據(jù)此請求公權(quán)力機關(guān)解釋健康碼。疑問在于,個人得請求解釋具體的健康碼決定,還是健康碼的運行邏輯?
我國行政法要求行政主體在作出行政決定時,特別是做出對當事人不利的決定時,負有說明理由的義務(wù),包括說明作出行政決定的法律原因和事實原因,并指出此為程序公證的必然要求。28參見應(yīng)松年主編:《行政法與行政訴訟法學(xué)》,高等教育出版社2017 年版,第44 頁。理由說明義務(wù)受到德國與美國學(xué)說的影響?!兜聡痉ā返? 條第1 款雖然沒有直接規(guī)定知情權(quán),但被認為已蘊含了“知情權(quán)”的因素;美國的知情權(quán)也對我國行政法產(chǎn)生深遠影響。29參見章劍生:《現(xiàn)代行政法基本理論》(下卷),法律出版社2014 年版,第640 頁。要求行政機關(guān)具體說明決策理由,有助于防止行政裁量權(quán)濫用、減少人民的對抗,并且能夠構(gòu)成司法審查的基礎(chǔ)。30同上注,第643-646 頁。借助算法的行政行為也應(yīng)滿足告知義務(wù)。尤其值得注意的是,法國行政法雖然不存在普適的行政告知義務(wù),但2017 年修改的《法國行政法典》規(guī)定每個獨立的個體可以從行政機關(guān)獲得下列信息:算法模型對決策的貢獻程度和貢獻方式;算法模型所依賴的數(shù)據(jù)及其來源;對參數(shù)的處理方式以及對各項指標的加權(quán)幅度;算法模型導(dǎo)致的結(jié)果。31Edwards L & Veale M, Enslaving the Algorithm: From a “Right to an Explanation” to a “Right to Better Decisions”, 16(3) IEEE Security & Privacy 46 (2018).
就健康碼這一行政行為而言,行政機關(guān)應(yīng)當說明健康碼的法律依據(jù)和事實依據(jù)。法律依據(jù)是指,行政機關(guān)為什么可以未經(jīng)個人的同意處理個人信息?!睹穹ǖ洹返?036 條將“維護公共利益”作為處理個人信息不予承擔(dān)民事責(zé)任的事由之一;《個保法》第13 條第1 款第4 項也進一步明確為應(yīng)對突發(fā)公共衛(wèi)生事件構(gòu)成個人信息處理的合法性依據(jù)。兩部法律為行政機關(guān)使用算法處理個人信息提供法律依據(jù)。事實依據(jù)則在于,健康碼處理哪些個人數(shù)據(jù),又依據(jù)何種邏輯作出判斷。結(jié)合《個保法》第35 條前半句和第17 條,國家機關(guān)為履行法定職責(zé)處理個人信息的,也應(yīng)當告知個人信息的處理目的、處理方式,處理的個人信息種類、保存期限等信息。
在個人與公權(quán)力場景,公權(quán)力不得以商業(yè)秘密為由拒絕解釋具體的決定。欲解釋具體的算法決定,難免要深入到“黑箱”內(nèi)部,說明算法的邏輯、運行原理。在個人與公權(quán)力關(guān)系當中,基本權(quán)利保護居于優(yōu)位。如果解釋具體決定為侵犯商業(yè)秘密,公權(quán)力機關(guān)即不應(yīng)使用算法為行政行為。公權(quán)力機關(guān)負有解釋算法決定的義務(wù),如果擔(dān)心算法解釋影響第三方的商業(yè)秘密,即不應(yīng)使用該算法作出決定。此外,公權(quán)力也不得以解釋不能拒絕解釋具體的決定。一些復(fù)雜的算法難以解釋,深度學(xué)習(xí)算法的決定也尚不具備解釋可能性。如果公權(quán)力不能解釋算法,即不得運用算法。無論如何,公民的知情權(quán)都應(yīng)居于優(yōu)位。
需注意,并非在社會治理的所有領(lǐng)域均不得使用不具備解釋可行性的自動決策算法。在一些領(lǐng)域當中,算法的不透明性不但無害,反而有利:一旦算法公開,算法相對人可能有針對性地與算法對抗。例如,當美國聯(lián)邦高速公路管理局拒絕披露對運營商安全等級評級的算法時,聯(lián)邦法院只是要求政府部門公布影響算法結(jié)果的各因素的權(quán)重,而并未要求政府完整地公布算法設(shè)計,原因即在于算法透明可能帶來的執(zhí)法規(guī)避風(fēng)險。32Don Ray Drive-A-Way Co. v. Skinner, 785 F. Supp. 198 (D.D.C. 1992).再者,如果算法運用合理,不透明的算法可以彌補社會裂痕,維持社會共識。在我國社會的實踐中,已經(jīng)有不少案例充分發(fā)揮了不透明的算法的正面功能。例如,有的大學(xué)采取了以學(xué)生在食堂的消費情況為評定依據(jù)的算法發(fā)放助學(xué)金,這種算法既相對有效地確定了貧困學(xué)生的群體,又避免了貧困學(xué)生公開“比窮”、傷害貧困家庭孩子自尊心等問題。33參見丁曉東:《算法與歧視 從美國教育平權(quán)案看算法倫理與法律解釋》,載《中外法學(xué)》2017 年第6 期。只是在何種情境之下可以不解釋算法決定,應(yīng)由法律明確規(guī)定。行政機關(guān)有依法行政的義務(wù),目前僅有《個保法》第35 條后半句允許公權(quán)力機關(guān)在特定情況不履行告知義務(wù)。除此之外,公權(quán)力機關(guān)應(yīng)負有解釋算法決定的義務(wù)。
在個人與企業(yè)場景當中,算法不透明已然引發(fā)諸多糾紛。在“全國首例消費者因檢索服務(wù)狀告電商平臺違約案”當中,原告以“我搜索的是國美冰箱,為什么出來的不全是國美牌冰箱?”為由起訴被告淘寶公司,認為淘寶公司的行為“辜負”了消費者的信賴,構(gòu)成違約。在該案庭審當中,原告要求被告解釋算法,但被告以商業(yè)秘密為由拒絕。34《為啥搜出來的不全是國美牌冰箱?女研究生告電商平臺,全國首例“搜索服務(wù)”違約案判了》,載網(wǎng)易新聞,https://3g.163.com/dy/article/G2D205CM0512GTK3.html,2021 年5 月25 日訪問。該案中的原告不相信不透明的算法,認為自己遭受不公平的待遇。在我國確實出現(xiàn)過借助算法歧視和大數(shù)據(jù)殺熟的案例。例如某公司在運用算法篩選簡歷時,因閆某某為“河南人”而拒絕其應(yīng)聘。35《女孩因“河南人”應(yīng)聘被拒案開庭 浙江喜來登被判道歉賠償1 萬元》,https://www.thepaper.cn/newsDetail_forward_5064609, 2021 年5 月31 日訪問。歧視是一個雜糅了文化、社會和道德觀念、歷史和時間的因素,對于何種行為構(gòu)成歧視并不存在統(tǒng)一的標準。但如果算法僅僅根據(jù)地域拒絕應(yīng)聘者,那么便構(gòu)成歧視。再比如,消費者在某應(yīng)用程序預(yù)訂賓館,使用不同的手機搜索同一酒店、同一日期、同一房型價格在169 元到217 元之間波動。36《大數(shù)據(jù)殺熟,為什么越來越肆無忌憚?》,https://m.21jingji.com/article/20201221/herald/c49f8dc4b126badd76b8c400b478e5c5_zaker.html,2021 年5 月31 日訪問。大數(shù)據(jù)殺熟已然引起人們的不滿。如果個人有權(quán)請求解釋算法的具體決定,有助于打破算法黑箱,實現(xiàn)算法正義。
但也需注意,在個人與企業(yè)關(guān)系當中,并不存在優(yōu)位價值。與公民知情權(quán)保護不同,消費者保護與企業(yè)發(fā)展同為法律所欲促成的目標。歐盟部長委員會早在2010 年就指出,自動決策算法有利于更好地細分市場和提供更好的服務(wù),能夠?qū)崿F(xiàn)消費者和企業(yè)的雙贏,可為用戶、經(jīng)濟體和整個社會帶來益處。自動決策算法能夠降低商業(yè)風(fēng)險和消費者負擔(dān)。37Recommendation CM/Rec (2010) 13 of the Committee of Ministers to member states on the protection of individuals with regard to automatic processing of personal data in the context of profiling.例如金融機構(gòu)借助自動決策算法分析海量替代數(shù)據(jù),不但在控制風(fēng)險的同時極大地降低了運營成本,而且也使得沒有存款記錄、借貸歷史的人能夠獲得貸款,推動“普惠金融”的實現(xiàn);信用卡公司采用自動決策算法審核信用卡申請,極大地降低信用卡公司的管理成本,“免年費”成為可能;保險行業(yè)早于17 世紀就已經(jīng)使用算法控制風(fēng)險——保險本就是由精算科學(xué)發(fā)展而來的,保險使得人們可以拿所在群體的集體風(fēng)險為賭注,換取不幸發(fā)生時的自我保護——保險行業(yè)目前可以借助算法和大數(shù)據(jù)將人們分為更小的群體,提供更合適的產(chǎn)品和服務(wù)。因此,法律對商業(yè)自動決策算法的規(guī)范,應(yīng)當致力于實現(xiàn)個人利益和商業(yè)利益之間的平衡,既鼓勵商業(yè)自動決策算法發(fā)揮積極作用,同時又避免算法侵犯私權(quán),造成實質(zhì)不公。
商業(yè)自動決策算法降低了商業(yè)風(fēng)險和消費者負擔(dān),但也使得用戶有淪為信用評分算法客體的危險。為了防止算法歧視和大數(shù)據(jù)殺熟,應(yīng)當確保算法一定程度上的透明性。但算法透明并不意味著事后的、具體的算法決定解釋權(quán)。
如果我們要求算法使用人事后解釋算法的具體決定,可能會嚴重侵犯企業(yè)的知識產(chǎn)權(quán)。要解釋算法決定,難免要深入設(shè)計層面。如果要求企業(yè)解釋算法的設(shè)計,將使得企業(yè)的智慧成果暴露在競爭對手的視線當中。通過保守算法的秘密,企業(yè)得以維持自身的競爭優(yōu)勢和商業(yè)秘密,進而在激烈的市場競爭當中占據(jù)優(yōu)勢地位。38Bernardo Huberman, Sociology of Science: Big Data Deserve a Bigger Audience, 482 Nature 308, 2012.無論如何強調(diào)算法監(jiān)管,不扼殺行業(yè)的創(chuàng)新力和競爭力應(yīng)是管理的底線。《歐盟條例》序言第63 條明確強調(diào),知情權(quán)不能損害企業(yè)的商業(yè)秘密、其他知識產(chǎn)權(quán),特別是軟件的著作權(quán)。即使在格外強調(diào)人權(quán)保障的德國,數(shù)據(jù)主體要求企業(yè)解釋算法邏輯的主張也沒有得到認可。德國2009 年版《聯(lián)邦數(shù)據(jù)保護法》第34 條第4 款第4 項曾規(guī)定,信用評分機構(gòu)必須應(yīng)數(shù)據(jù)主體的要求以容易理解的方式解釋每一個個案概率值的產(chǎn)生和意義;該條第2 款規(guī)定,信用評分機構(gòu)必須以完全能夠理解的方式告知概率值的產(chǎn)生和意義。從文義上看,數(shù)據(jù)主體似乎有權(quán)請求告知算法的邏輯。然而,德國聯(lián)邦最高法院2014 年在對上述法條的解釋中明確指出,數(shù)據(jù)主體不得請求披露權(quán)重、評分公式、統(tǒng)計值和參考組的信息等信息,因為這觸犯了企業(yè)的商業(yè)秘密;披露企業(yè)的商業(yè)秘密也明顯不符合立法目的。39BGH, Urteil vom 28.01.2014 - VI ZR 156/13, BGHZ 200, 38 Rn. 24ff.為了增加法的清晰性和確定性,德國2017 年新《聯(lián)邦數(shù)據(jù)保護條例》(BDSG)直接廢除了原第34 條。我國司法實踐也采納保護知識產(chǎn)權(quán)的立場。在廈門某脈技術(shù)有限公司與廈門市某睿信息科技有限公司的糾紛中,某脈公司主張算法的核心參數(shù)特征(Gabor 參數(shù))是其技術(shù)秘密,該主張得到法院的支持;40參見福建省高級人民法院(2019)閩民終19 號民事裁定書。在凌某某訴北京某播視界科技有限公司隱私權(quán)、個人信息權(quán)益網(wǎng)絡(luò)侵權(quán)責(zé)任糾紛案當中,北京互聯(lián)網(wǎng)法院認為,算法確實會涉及被告的商業(yè)秘密,告知和公開算法不屬于對原告的個人信息進行保護的必要措施。41參見北京互聯(lián)網(wǎng)法院(2019)京0491 民初6694 號民事判決書。2020 年8 月《最高人民法院關(guān)于審理侵犯商業(yè)秘密民事案件適用法律若干問題的規(guī)定》也將算法列入了技術(shù)信息范疇,使其正式成為我國知識產(chǎn)權(quán)法保護的對象。
再者,企業(yè)對復(fù)雜算法尤其是深度學(xué)習(xí)算法可能會出現(xiàn)解釋不能的情況——企業(yè)沒法解釋具體的決定是怎么做出的。目前國際正在研究算法的可解釋性問題,但尚未在技術(shù)上有根本性的突破。規(guī)范上的期望,倘若沒有附帶注意到可執(zhí)行性問題,那么就無法獲得實行。如果我們執(zhí)意要求企業(yè)解釋他們本就無法解釋的算法決定,那么等同于限制復(fù)雜算法應(yīng)用的推廣。
值得注意的是,《算法推薦管理規(guī)定》(征求意見稿)第12 條要求算法推薦服務(wù)提供者“應(yīng)當”優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性。正式通過的《算法推薦管理規(guī)定》并未規(guī)定算法推薦服務(wù)提供者的解釋算法決定的義務(wù),而是“鼓勵”算法推薦服務(wù)提供者實現(xiàn)算法透明和可解釋性。征求意見稿第17 條第3 款規(guī)定,用戶認為算法推薦服務(wù)提供者應(yīng)用算法對其權(quán)益造成重大影響的,有權(quán)要求算法推薦服務(wù)提供者予以說明并采取相應(yīng)改進或者補救措施?!端惴ㄍ扑]管理規(guī)定》第17 條第3 款放棄權(quán)利式設(shè)計,而是規(guī)定算法推薦服務(wù)提供者“應(yīng)當依法予以說明并承擔(dān)相應(yīng)責(zé)任”。42《算法推薦管理規(guī)定》第17 條第3 款:算法推薦服務(wù)提供者應(yīng)用算法對用戶權(quán)益造成重大影響的,應(yīng)當依法予以說明并承擔(dān)相應(yīng)責(zé)任。算法推薦服務(wù)提供者說明算法決定的,應(yīng)當“依法”進行,這也表明算法使用人并不負有全方位的算法解釋義務(wù)。鑒于《算法推薦管理規(guī)定》主要規(guī)范商業(yè)算法,該規(guī)定試圖柔化商業(yè)算法相對人的權(quán)利和算法使用人的義務(wù)。
最后,算法使用人應(yīng)告知的是算法處理的個人信息,而非解釋具體的算法決定。《個保法》第44 條規(guī)定個人信息主體的知情權(quán),第46 條規(guī)定個人請求更正、補充個人信息的權(quán)利。數(shù)據(jù)的不完整、不準確將影響算法的最終決定。借助知情權(quán),個人能夠請求告知算法決定所依據(jù)的個人數(shù)據(jù),從而借助更正權(quán)和補充權(quán)防止個人遭受算法錯誤決定的不利影響。
根據(jù)《個保法》第17 條第1 款第2 項,個人信息處理者在處理個人信息前,應(yīng)當以顯著方式、清晰易懂的語言真實、準確、完整地向個人告知個人信息的處理目的、處理方式,處理的個人信息種類、保存期限。算法本質(zhì)上屬于處理個人信息的代碼,因此算法使用人有義務(wù)向算法相對人告知算法的基本情況。據(jù)此,個人有權(quán)向算法使用人請求說明算法的基本情況。值得關(guān)注的是,《算法推薦管理規(guī)定》第16 條規(guī)定,算法推薦服務(wù)提供者應(yīng)當以顯著方式告知用戶其提供算法推薦服務(wù)的情況,并以適當方式公示算法推薦服務(wù)的基本原理、目的意圖和主要運行機制等。公示算法的基本原理、主要運行機制,可能會侵犯算法使用人的知識產(chǎn)權(quán)。監(jiān)管部門對算法的規(guī)范有過重的嫌疑。更何況,披露算法邏輯和運行原理可能會引發(fā)個人的博弈行為。例如,谷歌公開搜索排序算法后,很多網(wǎng)站就開始利用此類算法,在自己的網(wǎng)頁內(nèi)嵌套符合該算法的具有隱藏內(nèi)容的網(wǎng)頁,以此達到提高網(wǎng)站在谷歌搜索結(jié)果頁面排名靠前的目的。我國網(wǎng)絡(luò)“水軍”盛行,他們通過人工或機器的方式不正當?shù)馗淖兡承┰u分,以此影響消費者的消費行為。如果法律強行要求公開算法邏輯,“水軍”就可以更快地調(diào)整刷分策略,更精準地利用網(wǎng)站的算法漏洞。43參見丁曉東:《論算法的法律規(guī)制》,載《中國社會科學(xué)》2020 年第12 期。
再者,算法解釋權(quán)的目標在于保障個人的知情權(quán)。但對于個人而言,真正想要了解的不是算法的構(gòu)造、運行原理,而是對自己的可能的不利影響?!稓W盟條例》第13 條第2 款第f 項、第14 條第2 款第g 項和第15 條第1 款第h 項規(guī)定個人信息控制者應(yīng)當告知個人信息主體算法的“相關(guān)邏輯的有意義信息,包括此類處理對于數(shù)據(jù)主體的重要意義和預(yù)期后果”,并未要求披露算法的基本原理和運作機制等核心信息?!稓W盟條例》將告知重點明確為“對于數(shù)據(jù)主體的重要意義和預(yù)期后果”,因為算法規(guī)范的重點是確保算法相對人的知情權(quán),使其在真正了解算法影響的基礎(chǔ)上做出選擇。算法使用人真正應(yīng)當披露的是個性化推薦算法的使用目的、使用的數(shù)據(jù)類型和信息處理的可能后果以及預(yù)期影響等信息,而非算法邏輯和運行原理。
最后,算法結(jié)果拒絕權(quán)也可以幫助化解算法解釋權(quán)之價值沖突困境。法律不要求解釋算法的具體決定,并非就等于放任算法霸權(quán)的威脅。算法的不利影響還可以被其他制度化解,我們不能過于倚重算法解釋權(quán)。《個保法》第24 條第3 款還規(guī)定了算法應(yīng)用拒絕權(quán):只要算法決策對個人產(chǎn)生重要影響,個人有權(quán)拒絕接受自動決策算法的決定,要求人工替代算法做出決定。即便個人不理解算法決定,也可以徑自拒絕接受算法決定,從而避免受到算法的不利影響。與《歐盟條例》相比,我國的算法應(yīng)用拒絕權(quán)并無例外條款的限制。這使得中國的算法應(yīng)用拒絕權(quán)相較于歐盟而言更為強大。
綜上所述,個人對商業(yè)自動決策算法的解釋請求權(quán)原則上限于事前的、對算法基本情況的說明。算法解釋應(yīng)著重說明對于算法相對人可能的不利影響,而非解釋算法的基本原理與運作模型,以免侵犯算法使用人的知識產(chǎn)權(quán)。
在大數(shù)據(jù)和人工智能時代,“算法+應(yīng)用場景”這一模式正在快速席卷社會的各個領(lǐng)域。在這一結(jié)構(gòu)當中,算法為賦能方式,應(yīng)用場景為賦能領(lǐng)域,由此形成了一套“方式”與“領(lǐng)域”的疊加關(guān)系或結(jié)合關(guān)系。44參見龍衛(wèi)球:《人工智能立法規(guī)范對象與規(guī)范策略》,載《政法論叢》2020 年第3 期。算法本身僅是一項計算法程序,正是因為其與具體應(yīng)用場景相結(jié)合,人們結(jié)合應(yīng)用需求有針對性地開發(fā)算法產(chǎn)品,算法才表現(xiàn)出強大的賦能性,由此引發(fā)應(yīng)用失范的現(xiàn)象。因此,當我們討論算法規(guī)范時,我們不能只談技術(shù),而必須考慮到算法在不同應(yīng)用場景中的不同影響。
應(yīng)用場景當中存在多元價值,疊加價值的存在使得設(shè)計統(tǒng)一的規(guī)則格外艱難。公共安全、個人權(quán)利、經(jīng)濟效率等價值相互交疊,使得算法治理舉步維艱。算法解釋權(quán)的規(guī)則設(shè)計應(yīng)能夠涵蓋不同應(yīng)用場景中的多元價值沖突?!秱€保法》第24 條不要求決策“僅”由算法做出,也不明確規(guī)定算法解釋權(quán)的法律效力,就是為了滿足場景化治理的多樣需求,給不同場景不同的算法解釋權(quán)留出彈性空間。
在個人與公權(quán)力關(guān)系當中,政府機關(guān)借助算法從事行政行為的,不能侵犯公民的知情權(quán)。個人有權(quán)請求政府機關(guān)解釋具體的算法決定。政府部門解釋算法決定的,應(yīng)盡可能以通俗易懂的方式為之。因為個人沒有能力閱讀算法、分析算法,沒有算法使用人的幫助個人沒法理解算法決定。只有充分理解算法決定,個人才可能會接受算法決定。再者,當個人提起行政訴訟時,法院也只有在了解算法決定的理由的基礎(chǔ)上,才能判斷行政行為的合法性。45Filip Geburczyk, Automated administrative decision-making under the influence of the GDPR - Early reflections and upcoming challenges, Computer Law & Security Review 41 (2021) 105538, P.10.如果政府機關(guān)無法解釋具體的算法決定,那么就不應(yīng)使用自動化算法。知識產(chǎn)權(quán)保護或解釋不能等事由,不能成為公權(quán)力機關(guān)不解釋算法決定的理由。只有充分保障個人對公權(quán)力的事后的、針對具體決定的算法解釋權(quán),才能使得個人免受法律規(guī)則轉(zhuǎn)換為計算機語言時帶來的風(fēng)險。46Danielle Keats Citron, Technological Due Process (2008), 85 Washington University Law Review 1249, 1261.最后,公權(quán)力機關(guān)僅有在法律明確規(guī)定“告知豁免”的情況下,才可以不解釋具體的決定理由。德國《行政程序法》第39 條第2 款就規(guī)定五種情況下可以不說理由。不說明理由的原因在于,雖然行政相對人獲得更充分的保護,但行政機會可能會喪失必需的效率。47同前注?,第652 頁。目前我國提供的告知豁免僅有《個保法》第35 條,我國應(yīng)進一步完善豁免例外制度。在缺乏明確法律規(guī)定的情況下,政府不得拒絕解釋具體的算法決定的請求。
在個人與企業(yè)關(guān)系當中,我們一方面要防止個人淪為算法的純粹客體,保障人的主體性,另一方面也要避免算法解釋權(quán)阻礙復(fù)雜算法的商業(yè)應(yīng)用,扼殺技術(shù)進步與商業(yè)模式的創(chuàng)新。因此,個人原則上僅得請求解釋算法的基本情況,不得請求解釋具體的算法決定?!端惴ㄍ扑]管理規(guī)定》第16 條要求算法推薦服務(wù)提供者公示算法推薦服務(wù)的基本原理和主要運行機制,雖然體現(xiàn)出保護算法相對人的立法態(tài)度,但也有過度侵犯企業(yè)商業(yè)秘密的嫌疑。對于個人而言,最重要的信息是算法對自己可能的不利影響。算法使用人應(yīng)有義務(wù)提供該信息,以使得個人對是否接受算法處理個人信息做出基本的判斷。更何況,《個保法》第24 條第3 款后半句賦予算法相對人算法結(jié)果拒絕權(quán)。即便個人不理解算法決定,也能夠直接拒絕接受算法決定,要求人工審核材料并做出判斷。對于消費者而言,“給一個說法”的目的也是表達對于算法決定的不滿。與其解釋算法,不如允許消費者直接拒絕算法決定,一勞永逸地擺脫算法的影響。因此,即便商業(yè)機構(gòu)以保護知識產(chǎn)權(quán)為由拒絕解釋算法,也不會損害消費者的合法權(quán)益。
另需注意,在金融、社交傳媒、超大型平臺管理等特殊的個人-企業(yè)領(lǐng)域,法秩序基于特殊的風(fēng)險控制的需求,創(chuàng)設(shè)了特殊的算法備案制度。最后,分場景地調(diào)整算法解釋權(quán)的效力并不會影響算法透明目標的實現(xiàn)。算法透明作為一種信息監(jiān)管機制,是數(shù)字社會化和社會數(shù)字化趨勢下的必然選擇,它有助于打消
個人對決策自主性喪失的憂慮。48參見汪慶華:《算法透明的多重維度和算法問責(zé)》,載《比較法研究》2020 年第6 期。算法解釋權(quán)僅為實現(xiàn)算法透明的一種手段,《個保法》還設(shè)計算法評估、算法應(yīng)用拒絕權(quán)、個人信息保護負責(zé)人、平臺守門人規(guī)則等規(guī)則規(guī)范算法。因此,即便我們在一些場景當中調(diào)整算法解釋權(quán)的效力,也未必會嚴重影響個人的利益?!秱€保法》第24 條第3 款規(guī)定的算法解釋權(quán)應(yīng)在不同場景、不同價值沖突當中尋找合理的平衡點,以此實現(xiàn)算法良治與算法效率的動態(tài)平衡。