魏遠(yuǎn)山
因算法可模式化處理事件降低了事件處理成本而被運(yùn)用到社會(huì)的方方面面,儼然形成了算法社會(huì)(Algorithmic Society)。(1)算法社會(huì)是Jack M. Balkin提出的概念。其意指算法(人工智能或機(jī)器人)不僅制定與社會(huì)經(jīng)濟(jì)相關(guān)的決策,而且該決策的落實(shí)也由算法完成,機(jī)器人或人工智能的使用只是算法社會(huì)的一個(gè)實(shí)例而已。參見(jiàn)Jack M. Balkin.2016 Sidley Austin Distinguished Lecture on Big Data Law and Policy: The Three Laws of Robotics in the Age of Big Data, Ohio St. L.J.78, 2017, p.1219.算法在帶來(lái)便利的同時(shí),算法的黑箱屬性與算法使用者的刻意遮掩,導(dǎo)致算法決策(Algorithmic Decision-Making)或自動(dòng)化決策(Automatic Decision-Making)過(guò)程及原理難以為人所知悉,使算法使用者處于事實(shí)上的支配地位,形成“算法霸權(quán)”。算法使用者的“算法暴政”極易損害算法相對(duì)人(2)“算法相對(duì)人”與“算法使用者”相對(duì)應(yīng),以審查貸款算法為例,銀行為算法使用者,申請(qǐng)貸款的人為算法相對(duì)人。的合法權(quán)益,加上算法妨害極具隱秘性,導(dǎo)致算法相對(duì)人難以獲得救濟(jì)。例如,在State of Wisconsin v. Eric L. Loomis一案中(3)State of Wisconsin v. Eric L. Loomis, 881 N.W. 2d 749 (Wis. 2016).或者參見(jiàn)Iigo De Miguel Beriain.Does the use of risk assessments in sentences respect the right to due process A critical analysis of the Wisconsin v. Loomis ruling, Law, Probability and Risk, Volume 17, Issue 1, 2018, pp.45-53.,被告認(rèn)為一審法院在量刑期間對(duì)COMPAS風(fēng)險(xiǎn)評(píng)估報(bào)告的認(rèn)定與采納違反了正當(dāng)法律程序,遂向威斯康星州上訴法院提起訴訟。但上訴法院認(rèn)為一審法院使用COMPAS風(fēng)險(xiǎn)評(píng)估報(bào)告并無(wú)不當(dāng),加之Northpointe公司對(duì)COMPAS系統(tǒng)算法享有專有權(quán),遂駁回了被告的訴訟請(qǐng)求。為撬開(kāi)“算法黑箱”,有學(xué)者提出應(yīng)賦予算法相對(duì)人“算法解釋請(qǐng)求權(quán)”(4)有學(xué)者提出“通過(guò)賦予算法相對(duì)人算法解釋權(quán)來(lái)抗衡算法使用者的算法霸權(quán)”。參見(jiàn)張凌寒:《商業(yè)自動(dòng)化決策的算法解釋權(quán)研究》,載《法律科學(xué)》2018年第3期;Bryce Goodman. Discrimination, Data Sanitisation and Auditing in the European Union's General Data Protection Regulation, Eur. Data Prot. L. Rev. 2, 2016, p.493; Bryce Goodman & Seth Flaxman. EU regulations on algorithmic decision-making and a "right to explanation", AI Magazine. 38, 2016, p.28.本文以“算法解釋請(qǐng)求權(quán)”而非“算法解釋權(quán)”進(jìn)行闡述,只因“算法解釋權(quán)”易引起權(quán)利主體的混淆,“算法解釋請(qǐng)求權(quán)”更清晰地表明算法相對(duì)人是權(quán)利主體,算法使用者是義務(wù)主體。(right to explanation)以對(duì)抗“算法霸權(quán)”,而關(guān)于算法解釋請(qǐng)求權(quán)的定義、是否應(yīng)獨(dú)立成權(quán)均存在爭(zhēng)議,算法解釋請(qǐng)求權(quán)的權(quán)利構(gòu)造與權(quán)利范疇尚需明確,而這正是本文存在的意義。本文第一部分主要梳理算法解釋請(qǐng)求權(quán)可能的起源及其發(fā)展過(guò)程,并分析其產(chǎn)生的時(shí)代背景與現(xiàn)實(shí)必要性;第二部分則嘗試構(gòu)造算法解釋請(qǐng)求權(quán)的權(quán)利內(nèi)容并劃定權(quán)利邊界;第三部分注重分析算法解釋請(qǐng)求權(quán)與知情權(quán)、訪問(wèn)權(quán)的區(qū)別,以論證算法解釋請(qǐng)求權(quán)屬于獨(dú)立權(quán)利。
欲合理界定算法解釋請(qǐng)求權(quán)的權(quán)利范疇、科學(xué)劃定與相關(guān)權(quán)利的邊界,必先知曉其為何物。
有關(guān)算法解釋請(qǐng)求權(quán)的規(guī)定最早可追溯到1972年法國(guó)頒布的《關(guān)于信息技術(shù)、數(shù)據(jù)文件和公民自由1978年1月6日第N°78-17號(hào)信息自由法案》(Loi Informatique et Libertes Act N°78-17 of 6 January 1978 on Information Technology, Data Files and Civil Liberties)。該法案第10條、第39條分別規(guī)定(5)Commission Nationale de l'Informatique et des Libertés. Act n°78-17 of 6 January 1978 on information technology, data files and civil liberties,https://www.cnil.fr/sites/default/files/typo/document/Act78-17VA.pdf,2019年10月2日最后訪問(wèn)。:無(wú)論是政府還是私人作出的涉及評(píng)價(jià)個(gè)人行為的決定,不能僅根據(jù)自動(dòng)化處理的與公民個(gè)性或側(cè)寫相關(guān)的數(shù)據(jù)做出;基于自動(dòng)化處理做出的決策對(duì)數(shù)據(jù)主體造成法律影響時(shí),數(shù)據(jù)主體有權(quán)知道該自動(dòng)化處理的邏輯信息并有權(quán)反對(duì)自動(dòng)化處理。隨后,1978年《法國(guó)數(shù)據(jù)保護(hù)法》延續(xù)了此類規(guī)定,同時(shí),該規(guī)定也被少數(shù)歐洲國(guó)家所采納,并影響了歐盟層面的數(shù)據(jù)保護(hù)規(guī)則。
歐盟《歐盟數(shù)據(jù)保護(hù)指令》(Directive 95/46/EC)(以下簡(jiǎn)稱《95指令》)第15條規(guī)定算法相對(duì)人有權(quán)拒絕僅基于數(shù)據(jù)的自動(dòng)化處理便對(duì)其某些個(gè)人方面作出的可能產(chǎn)生法律后果或重大影響的評(píng)價(jià)(6)高富平:《個(gè)人數(shù)據(jù)保護(hù)和利用國(guó)際規(guī)制:源流與趨勢(shì)》,法律出版社2016年版,第152頁(yè)。,但并未要求算法使用者就算法決策的相關(guān)信息(除個(gè)人數(shù)據(jù)收集和使用目的等之外的信息)告知算法相對(duì)人。2012年,歐盟委員會(huì)發(fā)布的《一般數(shù)據(jù)保護(hù)條例(2012草案)》(以下簡(jiǎn)稱“《12草案》”)第10條在《95指令》的基礎(chǔ)上增加了一些條款,旨在提高對(duì)算法相對(duì)人的保護(hù)水平,并在第4款規(guī)定要求告知算法相對(duì)人“自動(dòng)化處理的方法及該處理可能對(duì)算法相對(duì)人造成的影響?!?7)European Commission. Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on the protection of individuals with regard to the processing of personal data and on the free movement of such data (General Data Protection Regulation) (52012PC0011),https://eur-lex.europa.eu/legal-content/EN/TXT/?qid=1542275232764&uri=CELEX:52012PC0011,2019年10月2日最后訪問(wèn)。隨后,2018年5月生效的《一般數(shù)據(jù)保護(hù)條例》(以下簡(jiǎn)稱“《條例》”)承續(xù)了《12草案》中“算法相對(duì)人有權(quán)拒絕完全自動(dòng)化算法決策”的規(guī)定,新增“算法相對(duì)人有權(quán)要求算法使用者向其提供與非完全自動(dòng)化算法決策的目的、處理邏輯以及可能產(chǎn)生的影響等相關(guān)信息”的規(guī)定。(8)丁曉東:《〈一般數(shù)據(jù)保護(hù)條例〉(General Data Protection Regulation)中文版》,http://www.tisi.org/5029,2019年10月2日最后訪問(wèn)?;騾⒁?jiàn)General Data Protection Rule § 13(2)f, § 14(2)g, § 15(1)h and §22(3).
《條例》中的規(guī)定旨在規(guī)范算法使用者的數(shù)據(jù)處理行為,要求算法使用者就其作出的對(duì)算法相對(duì)人(數(shù)據(jù)主體)具有法律影響或類似嚴(yán)重影響的決策進(jìn)行解釋,避免損害算法相對(duì)人的合法權(quán)益。(9)參見(jiàn)《一般數(shù)據(jù)保護(hù)條例》序言第71部分、正文第22條。因此,有學(xué)者將《條例》賦予數(shù)據(jù)主體可要求算法使用者提供自動(dòng)化決策相關(guān)的邏輯、自動(dòng)化決策對(duì)數(shù)據(jù)主體可能產(chǎn)生的影響等有價(jià)值的信息的權(quán)利,被稱為“算法解釋請(qǐng)求權(quán)”。(10)Bryce Goodman & Seth Flaxman, p.28; Guido Noto La Diega.Against the Dehumanisation of Decision-Making, J. Intell. Prop. Info. Tech. & Elec. Com. L., 9, 2018, p.3.不過(guò),也有學(xué)者認(rèn)為《一般數(shù)據(jù)保護(hù)條例》并沒(méi)有賦予算法相對(duì)人這樣一種權(quán)利,雖然在《一般數(shù)據(jù)保護(hù)條例》序言第71部分有“a right of explanation”的表達(dá),但是在第22條無(wú)法找到,序言的效力并不當(dāng)然影響正文的適用。參見(jiàn)Malgieri Gianclaudio & Comandé Giovanni. Why a Right to Legibility of Automated Decision-Making Exists in the General Data Protection Regulation, International Data Privacy Law, 4, 2017, p.243; Julia Powles & Hal Hodson.Google DeepMind and healthcare in an age of algorithms, Health Technol, 7, 2017, p.351; Tal Zarsky.The Trouble with Algorithmic Decisions: An Analytic Road Map to Examine Efficiency and Fairness in Automated and Opaque Decision Making, Science, Technology, & Human Values 1, 2016, p.118; Mireille Hildebrandt.”The New Imbroglio - Living with Machine Algorithms”, in Liisa Janssens (ed) ,The Art of Ethics in the Information Society,Noord-Holland, Prov.:Amsterdam University Press 2016, p.57;杭州師范大學(xué)孫益武副教授在2019年4月13日于“第二屆法律人工智能研究前沿問(wèn)題國(guó)際學(xué)術(shù)研討會(huì)”中所做“消費(fèi)者如何打開(kāi)人工智能算法的黑箱”主題發(fā)言認(rèn)為GDPR中不存在算法解釋請(qǐng)求權(quán)。不過(guò),2016年歐盟法院依據(jù)《95指令》序言審理了Breyer v Bundesrepublik Deutschland一案,可知僅是《95指令》的序言即可作為裁判依據(jù),那么作為《條例》的序言當(dāng)然可作為審理依據(jù)與正文具有同等效力。參見(jiàn)Judgment in Case C-582/14,Breyer v Bundesrepublik Deutschland, Judgment ECLI:EU:C:2016:779, 19/10/2016,http://curia.europa.eu/juris/document/document.jsf;jsessionid=E388B20F46B02C715D82D094A0C1CBF0?text=&docid=184668&pageIndex=0&doclang=EN&mode=req&dir=&occ=first&part=1&cid=5604394,2019年10月2日最后訪問(wèn)。此外,有學(xué)者也認(rèn)為《條例》序言的效力與正文效力相同。參見(jiàn)方禹:《GDPR前言強(qiáng)調(diào)個(gè)人信息保護(hù)與自由流動(dòng)的平衡》,載《法治周末報(bào)》2018年6月24日。由此拉開(kāi)了算法解釋請(qǐng)求權(quán)研究的序幕。但不同學(xué)者對(duì)算法解釋請(qǐng)求權(quán)的界定略有不同。有學(xué)者認(rèn)為算法解釋請(qǐng)求權(quán)是“當(dāng)自動(dòng)化決策的具體決定對(duì)算法相對(duì)人產(chǎn)生法律上或者經(jīng)濟(jì)上的顯著影響時(shí),算法相對(duì)人向算法使用者提出異議,要求其提供對(duì)具體決策的解釋,并要求更新數(shù)據(jù)或更正錯(cuò)誤的權(quán)利”。(11)同前注〔4〕,張凌寒文。也有學(xué)者認(rèn)為算法解釋請(qǐng)求權(quán)就是要求算法使用者解釋算法決策或自動(dòng)化決策機(jī)理的權(quán)利。(12)Wachter Sandraet al.Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation, International Data Privacy Law, Volume 7, Issue 2, 2017, p.80-82.
雖然學(xué)者們對(duì)何為算法解釋請(qǐng)求權(quán)尚未達(dá)成共識(shí),但定義中仍具有共性,即算法解釋請(qǐng)求權(quán)旨在約束算法使用者運(yùn)用算法及算法決策的行為,以提高算法決策的透明度和可責(zé)性。因此,結(jié)合算法解釋請(qǐng)求權(quán)的目的可對(duì)其作下如下定義:當(dāng)算法使用者擬用算法作出對(duì)算法相對(duì)人具有法律上或者經(jīng)濟(jì)上顯著影響的決策時(shí),需對(duì)該決策的制定原理及相關(guān)目的、可能產(chǎn)生的預(yù)期影響等作出解釋,以便算法相對(duì)人知曉算法決策的作用,便于尋求救濟(jì)。
算法解釋請(qǐng)求權(quán)作為新時(shí)代的產(chǎn)物,具有獨(dú)特的時(shí)代背景:
算法技術(shù)備受青睞且使用廣泛。算法技術(shù)(13)算法指解決某一特定問(wèn)題而采取的有限且明確的操作步驟,多用于數(shù)學(xué)和計(jì)算機(jī)領(lǐng)域。我們通常指的算法多屬于計(jì)算機(jī)領(lǐng)域。參見(jiàn)(美)科爾曼等:《算法導(dǎo)論(原書第3版)》,殷建平等譯,機(jī)械工業(yè)出版社2013年版,第3頁(yè)。并不是一種新興技術(shù),其在上世紀(jì)末就已經(jīng)出現(xiàn),因數(shù)據(jù)量等因素的限制歷經(jīng)了“過(guò)山車式”的發(fā)展。一方面,計(jì)算機(jī)與大數(shù)據(jù)等技術(shù)的迅猛發(fā)展為算法技術(shù)打開(kāi)了技術(shù)枷鎖;另一方面,進(jìn)入數(shù)字時(shí)代后,社會(huì)的數(shù)字化為算法技術(shù)的發(fā)展提供了充足的“養(yǎng)料”,使算法技術(shù)迎來(lái)了發(fā)展的黃金期。在技術(shù)相對(duì)成熟后,算法的優(yōu)勢(shì)逐漸凸顯,更多地出現(xiàn)在人們的視線中并備受青睞。算法受到推崇的主要原因是算法自身的特征及其與大數(shù)據(jù)技術(shù)結(jié)合所具有的優(yōu)勢(shì)。一是算法作為一種類型化處理的工具,能夠做到“同案同判”和“類似案件類似處理”,在很大程度上節(jié)約了事件處理成本。而且,隨著機(jī)器學(xué)習(xí)技術(shù),尤其是無(wú)監(jiān)督學(xué)習(xí)技術(shù)的興起,學(xué)習(xí)算法可隨著數(shù)據(jù)庫(kù)的豐富自我優(yōu)化,減少了編程成本。(14)劉友華、魏遠(yuǎn)山:《機(jī)器學(xué)習(xí)著作權(quán)問(wèn)題及其解決》,載《華東政法大學(xué)學(xué)報(bào)》2019年第2期。二是利用大數(shù)據(jù)技術(shù)可清楚地對(duì)每個(gè)人“貼標(biāo)簽”,掌握用戶偏好和傾向。這兩個(gè)特征相結(jié)合極大程度上削弱了信息不對(duì)稱帶來(lái)的不利影響。在商業(yè)領(lǐng)域,算法技術(shù)的出現(xiàn)催生了新的商業(yè)模式,利用大數(shù)據(jù)技術(shù)可知曉消費(fèi)者的喜好和購(gòu)買能力,利用算法做到“千人千面”的推送、選擇或行銷可帶來(lái)更大的經(jīng)濟(jì)利益和商業(yè)成功。在公共政策領(lǐng)域,利用大數(shù)據(jù)技術(shù)可清晰知曉公民對(duì)政策的傾向,提高政策的可接受度,避免“劣質(zhì)”政策與民意相悖。
算法黑箱難被算法相對(duì)人理解。算法的復(fù)雜性使絕大多數(shù)人無(wú)法理解算法的工作原理,因而有“算法黑箱”之稱。算法不可被理解主要由四個(gè)方面因素導(dǎo)致:算法或數(shù)據(jù)的保密性、技術(shù)盲點(diǎn)、算法自身的復(fù)雜性以及算法使用者的刻意隱瞞。(15)Joshua A. Krollet al.Accountable Algorithms, U. Pa. L. Rev. 165, 2017, p.633.首先,算法或數(shù)據(jù)的保密性隔絕了人們的感官。商業(yè)秘密制度為算法使用者提供了天然的保護(hù)傘,他人難以獲悉算法或相關(guān)數(shù)據(jù)信息。其次,計(jì)算機(jī)技術(shù)涉及高等數(shù)學(xué)、編程語(yǔ)言等專業(yè)性知識(shí),一般人在沒(méi)有接受專業(yè)訓(xùn)練的情況下,無(wú)法理解數(shù)據(jù)處理、編程等專業(yè)知識(shí),這使算法相關(guān)知識(shí)成為非計(jì)算機(jī)領(lǐng)域者的技術(shù)盲點(diǎn)。再次,智慧算法的成熟須賴以機(jī)器學(xué)習(xí)技術(shù)的助推,而機(jī)器學(xué)習(xí)技術(shù)通常被稱為“維度的詛咒”(curse of dimensionality)(16)Domingos P. A few useful things to know about machine learning,Communications of the ACM, Volume 55, 10,2012, p.78.,再加上算法規(guī)模效應(yīng),即使是計(jì)算機(jī)領(lǐng)域?qū)I(yè)人士也未必完全明白算法的工作原理。最后,算法使用者為了自身利益的最大化,可能會(huì)故意隱瞞算法決策的存在或營(yíng)造算法的神秘性。(17)Frank Pasquale. The Black Box Society: The Secret Algorithms that Control Money and Information. Cambridge, MA: Harvard University Press,2015, pp.102-115.
算法霸權(quán)加劇了既有的不平衡格局。第一,算法決策改變了算法主體之間的平等關(guān)系。在算法被廣泛使用之前,算法使用者與算法相對(duì)人之間尚處于相對(duì)平等的地位。雖格式合同的存在使合同雙方之間出現(xiàn)了力量不對(duì)等的情況,但《合同法》第41條規(guī)定,格式合同的解釋需遵照一定的規(guī)則(以非格式條款解釋優(yōu)先、通常理解解釋規(guī)則和不利解釋規(guī)則)在一定程度上平衡了格式合同雙方的權(quán)利與義務(wù)關(guān)系,緩解了二者之間的沖突。但算法決策的出現(xiàn)加劇了這種不平等關(guān)系。第二,算法使用者依賴算法決策處理其與算法相對(duì)人的事務(wù),獲得了事實(shí)上的支配權(quán)力。再加上算法僅注重相關(guān)性而不重合理性,算法運(yùn)行過(guò)程復(fù)雜難以被理解,致使業(yè)已成熟的人與人之間的互通理論(18)人類文明演化至今,業(yè)已出現(xiàn)較為成熟的人類互通理論,能使不同自然人之間能相互理解,意會(huì)彼此之意。這些互通理論包括心理學(xué)、哲學(xué)、倫理學(xué)、經(jīng)濟(jì)學(xué)等學(xué)科理論。被擱淺,原有的博弈或磋商難以有實(shí)質(zhì)進(jìn)展,加劇了算法使用者與算法相對(duì)人之間的不對(duì)等。另一方面,在公共事業(yè)領(lǐng)域,算法決策可能壓縮公民權(quán)利空間。人類決策雖也呈現(xiàn)出黑箱化特征,但業(yè)已成熟的互通理論可幫助人們了解決策制定者的意圖。即使未能理解,尚有信息公開(kāi)、復(fù)議等制度輔助解決。但算法決策的復(fù)雜性挑戰(zhàn)了人類理解能力,使既有制度難以發(fā)揮作用,限制了社會(huì)公眾權(quán)利的行使。
算法決策缺乏配套制度的約束。正如巴爾金教授(Jack Balkin)所言,“算法通過(guò)分類(Classification)和風(fēng)險(xiǎn)評(píng)估(Risk Assessment)來(lái)構(gòu)建身份和聲譽(yù),因缺乏透明度、問(wèn)責(zé)機(jī)制、監(jiān)測(cè)制度以及正當(dāng)程序的約束,為歧視、歸一化和操縱創(chuàng)造了機(jī)會(huì)”。(19)同前注〔1〕,Jack M. Balkin文。素有“維度的詛咒”之稱的機(jī)器學(xué)習(xí)算法,不僅因自身的復(fù)雜性難以被人理解,還因其使用者和開(kāi)發(fā)者的主觀意圖以及訓(xùn)練數(shù)據(jù)富含的歧視或偏見(jiàn)而不中立。隨著算法技術(shù)、大數(shù)據(jù)技術(shù)的快速發(fā)展與廣泛使用,算法決策的影響范圍逐漸擴(kuò)大,隱藏在算法紅利下的風(fēng)險(xiǎn)與侵害已愈發(fā)普遍。雖然《憲法》第4條、第33條、第48條等分別規(guī)定民族平等、法律面前人人平等、男女平等,但這些規(guī)定過(guò)于原則化、缺乏可操作性。同時(shí),現(xiàn)行合同法、侵權(quán)責(zé)任法以及消費(fèi)者權(quán)益保護(hù)法等救濟(jì)規(guī)則難以提供有效救濟(jì)(20)同前注〔4〕,張凌寒文。,算法使用者利用算法打造的算法王國(guó)逐漸成為神秘的灰色地帶。當(dāng)算法決策侵害算法相對(duì)人的合法權(quán)益,或造成其他顯著影響時(shí),因必要的配套制度闕如導(dǎo)致算法決策的負(fù)外部性難以被控制或消除。
算法黑箱難以破除,政策導(dǎo)向性算法(policy-oriented algorithm)(21)政策中立性算法和政策導(dǎo)向性算法的劃分是由Tene Omer和J. Polonetsky提出的。筆者認(rèn)為,結(jié)合機(jī)器學(xué)習(xí)類型可作劃分,監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí)訓(xùn)練出的是政策導(dǎo)向性算法;無(wú)監(jiān)督學(xué)習(xí)得到的是政策中立性算法。不過(guò),這兩種分類并不是絕對(duì)的二元對(duì)立型的分類,而是一種范圍上的劃分。劃分的意義在于因人力編碼的程度不同,由于政策中立性算法的人力編碼程度低于政策導(dǎo)向性算法,因此著重規(guī)制的應(yīng)當(dāng)是政策導(dǎo)向性算法。參見(jiàn)Tene Omer&J. Polonetsky. Taming the Golem: Challenges of Ethical Algorithmic Decision Making, North Carolina Journal of Law & Technology, Volume 19, Issue 1,2017, p.137-142.的以及數(shù)據(jù)自身的歧視與偏見(jiàn),將導(dǎo)致算法決策可能并不像想象中那般中立、客觀。算法使用者利用算法處于事實(shí)上的支配地位,容易利用算法暗箱操作制定出不利于算法相對(duì)人的算法決策。并且,因算法的黑箱化導(dǎo)致算法相對(duì)人無(wú)法理解算法的工作原理,即使算法決策對(duì)算法相對(duì)人造成不利影響,算法相對(duì)人也難以知道為何會(huì)出現(xiàn)這樣的算法決策。為此,確有必要科學(xué)地構(gòu)造算法解釋請(qǐng)求權(quán),提高算法決策的透明度,以期消減或根除算法黑箱帶來(lái)的負(fù)外部性。
一是保護(hù)算法相對(duì)人的合法權(quán)益。算法不僅受到數(shù)據(jù)所含偏見(jiàn)或歧視的影響,還因算法開(kāi)發(fā)者的主觀價(jià)值判斷減損算法自身的中立性,容易進(jìn)行差別對(duì)待。再加之算法自身的復(fù)雜性和算法使用者刻意將算法黑箱化,算法相對(duì)人難以知曉算法決策的制定過(guò)程及相關(guān)數(shù)據(jù)的權(quán)重,極易導(dǎo)致本處于弱勢(shì)地位的算法相對(duì)人的合法權(quán)益受到侵害。從商業(yè)算法決策角度看,商業(yè)活動(dòng)中的算法決策加劇信息不對(duì)稱,易造成交易雙方地位不平等。從公共事業(yè)領(lǐng)域看,算法決策仍扮演重要角色。比如,福利分配、貧困認(rèn)定、司法輔助量刑等系統(tǒng)均有算法的介入。倘若算法決策不透明、不公平,那么將嚴(yán)重影響機(jī)會(huì)公平與社會(huì)正義。而且,算法解釋請(qǐng)求權(quán)關(guān)系到公民權(quán)利行使的正當(dāng)性。因此,通過(guò)構(gòu)造算法解釋請(qǐng)求權(quán),要求算法使用者就算法決策作出解釋,一方面是為了規(guī)范算法使用者的行為,避免算法使用者通過(guò)算法謀取不正當(dāng)利益而擾亂社會(huì)秩序;另一方面也可保障算法相對(duì)人的知情權(quán),來(lái)糾正算法使用者與算法相對(duì)人之間的信息不對(duì)稱,重新調(diào)適算法使用者與算法相對(duì)人的不平等關(guān)系,盡量保證算法相對(duì)人有足夠的力量對(duì)抗算法使用者的“暴政”,避免算法相對(duì)人的合法權(quán)益受到不當(dāng)侵害。
二是促進(jìn)算法技術(shù)的良性發(fā)展與應(yīng)用。算法技術(shù)雖不是新興技術(shù),但其在當(dāng)下得到長(zhǎng)足發(fā)展。因其可將事件處理模式化,極大程度上節(jié)約了成本而備受青睞,然算法決策的負(fù)外部性,已成為一個(gè)重要問(wèn)題。諸如算法偏見(jiàn)、算法歧視和算法操控等社會(huì)問(wèn)題已頻頻出現(xiàn),這些算法妨害將阻礙算法技術(shù)的發(fā)展與應(yīng)用。通過(guò)構(gòu)造算法解釋請(qǐng)求權(quán),減少算法決策的負(fù)外部性,在制度上為算法技術(shù)的發(fā)展留下必要且合理的空間,以促進(jìn)算法技術(shù)的發(fā)展與應(yīng)用。(22)張吉豫:《司法領(lǐng)域人工智能算法可解釋性的促進(jìn)》,載《中國(guó)人工智能學(xué)會(huì)通訊》2018年第3期。
三是塑造與發(fā)展新時(shí)代的技術(shù)倫理?!翱茖W(xué)技術(shù)發(fā)展既能促進(jìn)倫理道德進(jìn)步,也能導(dǎo)致其退步?!?23)朱艷莉:《論科學(xué)技術(shù)與倫理道德》,載《現(xiàn)代商貿(mào)工業(yè)》2009年第6期??茖W(xué)技術(shù)是人類社會(huì)發(fā)展的重要推動(dòng)力,技術(shù)在推進(jìn)社會(huì)發(fā)展時(shí),也會(huì)影響人類道德演進(jìn)的基本方向,催化新道德觀念的形成;與此同時(shí),社會(huì)道德也會(huì)影響科學(xué)技術(shù)的發(fā)展軌跡,二者相互作用。在智能時(shí)代,人工智能技術(shù)、算法技術(shù)、機(jī)器學(xué)習(xí)技術(shù)造就了與傳統(tǒng)技術(shù)迥異的新時(shí)代尖端技術(shù),超越了既有的技術(shù)倫理范疇,出現(xiàn)既有技術(shù)倫理無(wú)法滿足算法技術(shù)需求的問(wèn)題。(24)張吉豫:《人工智能良性創(chuàng)新發(fā)展的法制構(gòu)建思考》,載《中國(guó)法律評(píng)論》2018年第2期。通過(guò)構(gòu)造算法解釋請(qǐng)求權(quán),推演算法技術(shù)對(duì)應(yīng)的倫理需求,有助于為算法技術(shù)的發(fā)展與應(yīng)用提供倫理指導(dǎo),避免算法倫理缺失導(dǎo)致技術(shù)夢(mèng)魘。
作為一項(xiàng)新型權(quán)利,算法解釋請(qǐng)求權(quán)的權(quán)利主體、客體和內(nèi)容至關(guān)重要。從算法應(yīng)用場(chǎng)景可知,算法解釋請(qǐng)求權(quán)的權(quán)利主體較為明確,即算法相對(duì)人是算法解釋請(qǐng)求權(quán)的權(quán)利主體,算法使用者是義務(wù)主體。算法解釋請(qǐng)求權(quán)的權(quán)利客體是算法使用者的一種積極或消極行為,即算法使用者應(yīng)算法相對(duì)人之請(qǐng)求作出或不作出一定行為,以避免算法妨害的出現(xiàn)。
雖算法解釋請(qǐng)求權(quán)的權(quán)利主體和客體較為清晰,但算法解釋請(qǐng)求權(quán)的權(quán)利內(nèi)容具體為何尚有爭(zhēng)議。有學(xué)者認(rèn)為算法解釋請(qǐng)求權(quán)的內(nèi)容可分為事后解釋與更新解釋。其中,事后解釋主要是算法使用者向算法相對(duì)人披露算法決策的意義、邏輯、決策樹(shù)、可能對(duì)算法相對(duì)人產(chǎn)生的影響等有價(jià)值的信息;更新解釋則指當(dāng)算法存在錯(cuò)誤時(shí),算法使用者應(yīng)優(yōu)化算法;若決策所依據(jù)的數(shù)據(jù)存在錯(cuò)誤,算法使用者或算法相對(duì)人有權(quán)更新數(shù)據(jù),必要時(shí)算法相對(duì)人可退出算法決策。(25)同前注〔4〕,張凌寒文。也有學(xué)者歸納《條例》中的規(guī)定,認(rèn)為算法解釋請(qǐng)求權(quán)的權(quán)利內(nèi)容可概括為完全自動(dòng)化決策的拒絕權(quán)、有價(jià)值信息的獲取權(quán)。(26)同前注〔12〕,Wachter Sandraet al.文。相較于后一種觀點(diǎn),本文更贊同第一種觀點(diǎn),但應(yīng)當(dāng)予以修正,即算法解釋請(qǐng)求權(quán)分為事前公示、事后解釋與錯(cuò)誤更正三個(gè)方面的內(nèi)容。
1.事前公示
在智能時(shí)代,算法決策作為一種新型技術(shù)應(yīng)用,仍具有工具屬性。在弱智能時(shí)代,智慧算法無(wú)法獨(dú)立于人存在,算法依舊是人類參與或管理社會(huì)事務(wù)的工具。人類利用算法來(lái)處理事務(wù),旨在提高效率、謀取更大的利益。而且算法的形成或多或少受到人類的干涉。在(半)監(jiān)督學(xué)習(xí)算法的設(shè)計(jì)之初,算法設(shè)計(jì)者需對(duì)擬解決的問(wèn)題進(jìn)行定義、確定變量等,這直接關(guān)系到算法的走向;在無(wú)監(jiān)督學(xué)習(xí)算法訓(xùn)練數(shù)據(jù)的選擇上依然體現(xiàn)了人類的價(jià)值判斷??芍惴ㄊ侨祟愃枷氲耐饣?,只不過(guò)在智能時(shí)代因機(jī)器學(xué)習(xí)技術(shù)的出現(xiàn),算法可在人類設(shè)定目標(biāo)后,自行學(xué)習(xí)和自我完善。但算法的復(fù)雜性和難以理解性要求算法使用者對(duì)其有較高的注意義務(wù),以防出現(xiàn)算法妨害。
正是因?yàn)樗惴ǖ奶刭|(zhì)及其工具的屬性決定了算法使用者應(yīng)當(dāng)事先公示算法決策的應(yīng)用場(chǎng)景。算法作為人類管理和參與社會(huì)的工具,由算法得到的結(jié)果只能成為人類行為的延伸,而不能脫離于人類行為單獨(dú)存在,算法使用者必須對(duì)算法運(yùn)行的全過(guò)程負(fù)責(zé)。考慮到算法的復(fù)雜性,提高算法透明度應(yīng)當(dāng)事先將算法應(yīng)用場(chǎng)景向社會(huì)公開(kāi),比如,在哪些環(huán)節(jié)或部分會(huì)使用算法進(jìn)行自動(dòng)化決策、哪些決策可能是算法作出的、在決策中將使用哪些種類的數(shù)據(jù)等,以保證算法相對(duì)人了解其可能受到算法決策的影響并知曉對(duì)其具有影響的決策是由算法作出的。
2.事后解釋
事后解釋是指在算法決策作出后,算法相對(duì)人要求算法使用者對(duì)算法決策的制作過(guò)程予以解釋或說(shuō)明。因算法本就復(fù)雜且難以理解,通過(guò)算法得到的決策更是如此,其復(fù)雜程度非一般人所能理解。這時(shí)算法使用者須應(yīng)算法相對(duì)人的請(qǐng)求就算法決策相關(guān)的信息進(jìn)行披露或解釋。算法使用者的解釋分為以下方面:
第一、算法自身相關(guān)信息的解釋或披露。一方面,算法的黑箱特征導(dǎo)致他人難以理解算法的具體工作原理,為了保證算法相對(duì)人的知情權(quán),算法使用者應(yīng)當(dāng)就算法相關(guān)信息進(jìn)行披露或解釋。另一方面,算法作為一種數(shù)據(jù)處理的方法或工具,只關(guān)注相關(guān)性而不注重合理性,難以保證算法決策的公平性。為此,《條例》第22條第3款(27)《一般個(gè)人數(shù)據(jù)保護(hù)條例》第22條第3款規(guī)定“……在第2款所規(guī)定的(1)和(2)兩種情形中,數(shù)據(jù)控制者應(yīng)當(dāng)采取適當(dāng)措施保障數(shù)據(jù)主體的權(quán)利、自由、正當(dāng)利益,以及數(shù)據(jù)主體對(duì)控制者進(jìn)行人工干涉,以便表達(dá)其觀點(diǎn)和對(duì)決策進(jìn)行異議的基本權(quán)利……”。、第13條第2款第6項(xiàng)、第14條第2款第7項(xiàng)、第15條第1款第8項(xiàng)(28)《一般個(gè)人數(shù)據(jù)保護(hù)條例》第14條第2款第7項(xiàng)和第15條第1款第8項(xiàng)兩項(xiàng)規(guī)定相同,即“存在自動(dòng)化的決策,包括第22(1)和(4)條所規(guī)定的用戶畫像,以及在此類情形下,對(duì)于相關(guān)邏輯、包括此類處理對(duì)于數(shù)據(jù)主體的預(yù)期后果的有效信息?!本妥詣?dòng)化算法決策的情形作出了規(guī)定,要求算法使用者應(yīng)當(dāng)向算法相對(duì)人提供與算法相關(guān)的邏輯等有價(jià)值的信息。鑒于“有價(jià)值的信息”的模糊性,算法使用者對(duì)算法相關(guān)信息進(jìn)行披露或解釋應(yīng)聚焦于:一是擬解決的問(wèn)題,即算法要解決的問(wèn)題或要達(dá)到的效果;二是算法決策所需的個(gè)人數(shù)據(jù)類型,旨在告知算法相對(duì)人哪些個(gè)人數(shù)據(jù)被用于算法決策;三是數(shù)據(jù)權(quán)重,告知算法相對(duì)人不同類別的個(gè)人數(shù)據(jù)所占的比重;四是算法決策樹(shù)(29)決策樹(shù)算法是一種逼近離散函數(shù)值的方法。它是一種典型的分類方法,首先對(duì)數(shù)據(jù)進(jìn)行處理,利用歸納算法生成可讀的規(guī)則和決策樹(shù),然后使用決策對(duì)新數(shù)據(jù)進(jìn)行分析。本質(zhì)上決策樹(shù)是通過(guò)一系列規(guī)則對(duì)數(shù)據(jù)進(jìn)行分類的過(guò)程。,告知算法相對(duì)人數(shù)據(jù)處理的規(guī)范和標(biāo)準(zhǔn);五是其他必要的信息。
第二,算法決策相關(guān)信息的披露或解釋。算法自身相關(guān)信息的披露或解釋主要解決算法自身的合理性問(wèn)題,但無(wú)法保證算法決策的合理性,故有必要對(duì)算法決策作出一定解釋。對(duì)算法決策的解釋應(yīng)當(dāng)從以下幾方面進(jìn)行:首先,算法決策的目的應(yīng)符合現(xiàn)實(shí)需要。對(duì)算法相對(duì)人進(jìn)行算法決策,若不是出于平衡算法使用者與算法相對(duì)人之間權(quán)利義務(wù)關(guān)系、履行法定義務(wù)等目的,應(yīng)當(dāng)禁止對(duì)算法相對(duì)人進(jìn)行算法決策。其次,修正信息的告知。(30)算法作為一種工具,必然易受到人為控制,為了避免算法被惡意操縱,除非必要應(yīng)禁止算法使用者對(duì)算法決策的結(jié)果進(jìn)行更改;若更改了就應(yīng)當(dāng)予以說(shuō)明。如利用算法進(jìn)行不正當(dāng)競(jìng)爭(zhēng)。某互聯(lián)網(wǎng)公司的搜索引擎服務(wù)主要依賴于兩種算法,即“通用搜索算法”(Generic Search Algorithms)和“專業(yè)搜索算法”(Specialized Search Algorithms)。該互聯(lián)網(wǎng)公司的購(gòu)物比價(jià)服務(wù)就是專業(yè)搜索算法業(yè)務(wù)之一,通過(guò)返回某一請(qǐng)求,可展示不同商業(yè)網(wǎng)站的商品供消費(fèi)者比較。同時(shí),該公司所擁有的一種名為PageRank的算法能夠依據(jù)跳轉(zhuǎn)至某網(wǎng)頁(yè)的鏈接數(shù)量與質(zhì)量來(lái)判定該網(wǎng)頁(yè)的重要性。當(dāng)該公司購(gòu)物服務(wù)業(yè)務(wù)進(jìn)入歐洲市場(chǎng)后,該公司購(gòu)暗中將自己旗下的商品排除在PageRank算法、X算法(保密信息)和Panda算法等網(wǎng)頁(yè)排序算法作用范圍之外,并將自己旗下產(chǎn)品的信息置于搜索請(qǐng)求返回頁(yè)面的顯眼位置。最終,該公司被處以天價(jià)罰單。算法使用者運(yùn)用算法得到的結(jié)果并不一定符合預(yù)期,為了追求更好的效果,算法使用者可會(huì)對(duì)算法決策進(jìn)行修正。如谷歌公司推出新的搜索功能,若谷歌自有的工具能夠直接給出搜索答案,谷歌將取消傳統(tǒng)的網(wǎng)頁(yè)搜索結(jié)果。(31)晨曦:《谷歌搜索大調(diào)整:如有精準(zhǔn)答案不再顯示網(wǎng)頁(yè)結(jié)果》,https://xw.qq.com/tech/20181127000114/TEC2018112700011400,2019年10月2日最后訪問(wèn)。在魏則西事件后,聯(lián)合調(diào)查組要求百度采用以信譽(yù)度為主要權(quán)重的排名算法,在嚴(yán)格限制商業(yè)推廣信息比例的同時(shí)對(duì)商業(yè)推廣信息加注醒目標(biāo)識(shí),予以風(fēng)險(xiǎn)提示。(32)王嘉源:《網(wǎng)信辦公布調(diào)查結(jié)果百度月底前改變競(jìng)價(jià)排名》,載《法制晚報(bào)》2016年5月10日。在這種情況下,算法使用者應(yīng)就算法決策修正的程度或原因進(jìn)行公示,以便算法相對(duì)人了解相關(guān)的事實(shí),能更好地看待和接受算法決策。
第三,算法決策對(duì)算法相對(duì)人的影響。當(dāng)算法使用者欲將算法決策適用于算法相對(duì)人時(shí),算法使用者應(yīng)當(dāng)就算法決策可能對(duì)算法使用人造成的影響或意義予以說(shuō)明,提請(qǐng)算法相對(duì)人注意。
3.錯(cuò)誤更正
算法相對(duì)人自行發(fā)現(xiàn)算法決策存在錯(cuò)誤,或經(jīng)算法使用者作出解釋后知道算法決策的錯(cuò)誤或瑕疵究竟來(lái)自何方時(shí),若導(dǎo)致算法決策錯(cuò)誤或瑕疵的原因是可以更正的,那么算法使用者應(yīng)當(dāng)為算法相對(duì)人提供更正的機(jī)會(huì)和渠道。
算法決策的生成依賴于算法和數(shù)據(jù),故錯(cuò)誤原因可能是算法因素,也可能是數(shù)據(jù)因素。因此,更正的主體分為算法使用者和算法相對(duì)人。算法使用者應(yīng)就算法自身錯(cuò)誤或瑕疵進(jìn)行修正;算法相對(duì)人可更新相關(guān)數(shù)據(jù)以完善或修正算法決策。當(dāng)因算法因素導(dǎo)致自身瑕疵或錯(cuò)誤無(wú)法被更正時(shí),算法相對(duì)人有權(quán)拒絕算法決策,并請(qǐng)求自然人處理。
算法解釋請(qǐng)求權(quán)旨在平衡算法使用者與算法相對(duì)人之間權(quán)利義務(wù)不對(duì)等的狀態(tài),保護(hù)算法相對(duì)人的合法權(quán)益。當(dāng)算法決策導(dǎo)致現(xiàn)實(shí)損害時(shí),算法解釋請(qǐng)求權(quán)將難以提供有效的保護(hù),這時(shí)需要按照傳統(tǒng)維權(quán)方式訴諸既有法律以尋求保護(hù)。
算法解釋請(qǐng)求權(quán)作為平衡算法使用者與算法相對(duì)人權(quán)利與義務(wù)的制度安排,旨在回塑原有的公平狀態(tài),重在利益平衡。這就要求算法解釋請(qǐng)求權(quán)應(yīng)具有一定的限度,不至于出現(xiàn)利益傾倒的現(xiàn)象。算法解釋請(qǐng)求權(quán)的行使必須注重算法相對(duì)人與算法使用者的利益平衡,具體表現(xiàn)在:
1.算法解釋請(qǐng)求權(quán)的解釋標(biāo)準(zhǔn)
算法解釋請(qǐng)求權(quán)賦予算法相對(duì)人要求算法使用者對(duì)算法決策進(jìn)行解釋的權(quán)利,這就涉及到算法使用者應(yīng)當(dāng)解釋到何種程度的問(wèn)題。對(duì)算法來(lái)說(shuō),一般算法運(yùn)算的量級(jí)越高,算法輸出結(jié)果的準(zhǔn)確率越高;運(yùn)算的量級(jí)越低,準(zhǔn)確率越低。(33)Jason Brownlee. “Model Prediction Accuracy Versus Interpretation in Machine Learning”, MachineLearning Mastery,https://www.itread01.com/content/1547268331.html,2019年10月2日最后訪問(wèn)。因此,有學(xué)者認(rèn)為要求算法決策的可解釋性是不合理的,算法解釋請(qǐng)求權(quán)舍本逐末地犧牲了算法的準(zhǔn)確性。(34)Joshua New& Daniel Castro. “How Policymakers Can Foster Algorithmic Accountability, Center for Data Innovation”,https://itif.org/publications/2018/05/21/how-policymakers-can-foster-algorithmic-accountability,2019年10月2日最后訪問(wèn)。但算法解釋請(qǐng)求權(quán)并不是要求完全的可解釋性,而是有限度的可解釋性。算法解釋請(qǐng)求權(quán)要求保證算法相對(duì)人的知情權(quán),知曉其受到算法決策及其可能帶來(lái)的影響,當(dāng)存在錯(cuò)誤時(shí)可以要求修正或拒絕算法決策。基于上述目的,算法解釋請(qǐng)求權(quán)要求算法使用者解釋的標(biāo)準(zhǔn)應(yīng)限定在相關(guān)性、可理解性和可救濟(jì)性的范圍內(nèi)。
算法解釋標(biāo)準(zhǔn)之相關(guān)性。算法解釋請(qǐng)求權(quán)是具體的算法相對(duì)人就與其相關(guān)的算法決策要求算法使用者進(jìn)行解釋的權(quán)利,這就必然要求算法使用者應(yīng)當(dāng)就與具體的算法相對(duì)人相關(guān)的算法決策進(jìn)行解釋;否則,構(gòu)成對(duì)算法解釋請(qǐng)求權(quán)課于其義務(wù)的消極不作為。
第一,算法解釋標(biāo)準(zhǔn)之可理解性。算法解釋請(qǐng)求權(quán)要求算法使用者的解釋應(yīng)當(dāng)能夠被算法相對(duì)人理解,但可理解性并不是要求算法使用者將算法的所有技術(shù)細(xì)節(jié)全部告知算法相對(duì)人,而是以算法相對(duì)人可理解為限,即知曉算法決策是如何作出的以及其存在的意義。因此,可理解性的要求可細(xì)化為:一是可理解性與透明性兼具。算法解釋請(qǐng)求權(quán)旨在提高算法的透明度,保護(hù)算法相對(duì)人的合法權(quán)益,規(guī)范算法的使用行為??衫斫庑詷?biāo)準(zhǔn)應(yīng)能使算法相對(duì)人知曉算法決策是如何作出的以及為何會(huì)出現(xiàn)這樣的結(jié)果。二是保障算法相對(duì)人知情,但不必披露全部算法技術(shù)細(xì)節(jié)??衫斫庑圆⒉灰髮⑺惴ㄏ嚓P(guān)的全部技術(shù)細(xì)節(jié)告知算法相對(duì)人,一方面將全部技術(shù)細(xì)節(jié)告訴算法相對(duì)人不僅超出了算法決策可理解性的要求,還徒添算法使用者的解釋成本;另一方面,告知全部技術(shù)細(xì)節(jié)意味著不特定人將獲悉算法技術(shù)秘密,打破了算法的商業(yè)秘密屬性與算法決策透明性之間的平衡,不當(dāng)降低了算法解釋請(qǐng)求權(quán)的可行性。
第二,算法解釋標(biāo)準(zhǔn)之可救濟(jì)性。算法解釋請(qǐng)求權(quán)要求滿足算法相對(duì)人可尋求救濟(jì)的要求。救濟(jì)分為兩個(gè)層面:第一個(gè)層面為前述的錯(cuò)誤更正,即若是算法自身存在問(wèn)題,應(yīng)當(dāng)由算法使用者進(jìn)行完善;若是算法相對(duì)人提供的數(shù)據(jù)存在問(wèn)題,則由算法相對(duì)人更新數(shù)據(jù)。第二個(gè)層面為訴諸現(xiàn)有法律規(guī)則,即當(dāng)算法解釋請(qǐng)求權(quán)難以有效保護(hù)算法相對(duì)人的合法權(quán)益時(shí),應(yīng)當(dāng)為算法相對(duì)人訴諸法律提供必要的信息。因此,算法解釋應(yīng)將可救濟(jì)性作為解釋的標(biāo)準(zhǔn)之一,以幫助算法相對(duì)人尋求前述兩個(gè)層面的救濟(jì)。
2.算法解釋請(qǐng)求權(quán)的觸發(fā)機(jī)制
算法解釋請(qǐng)求權(quán)并非一項(xiàng)自然權(quán)利,而是一種調(diào)適因算法技術(shù)導(dǎo)致算法使用者與算法相對(duì)人之間權(quán)利與義務(wù)不平衡的“游碼”。基于此,算法解釋請(qǐng)求權(quán)不僅要考慮到解釋標(biāo)準(zhǔn)的問(wèn)題,還需要重視權(quán)利負(fù)擔(dān)問(wèn)題。這在現(xiàn)實(shí)操作中,主要體現(xiàn)在算法相對(duì)人可在何時(shí)行使算法解釋請(qǐng)求權(quán):一方面,隨著算法技術(shù)的廣泛應(yīng)用,算法決策會(huì)出現(xiàn)在各個(gè)領(lǐng)域,若允許算法相對(duì)人無(wú)限制地行使算法解釋請(qǐng)求權(quán),會(huì)增加算法使用者的運(yùn)營(yíng)成本,不利于算法技術(shù)的發(fā)展與應(yīng)用。另一方面,若嚴(yán)格限制算法相對(duì)人算法解釋請(qǐng)求權(quán)的行使,不僅無(wú)法有效保護(hù)算法相對(duì)人的合法權(quán)益,也無(wú)益于算法透明度的提高??梢?jiàn),算法解釋請(qǐng)求權(quán)的觸發(fā)機(jī)制涉及到算法解釋請(qǐng)求權(quán)能在何種程度上平衡算法使用者與算法相對(duì)人的權(quán)利與義務(wù)。為此,算法解釋請(qǐng)求權(quán)的行使條件必須注重算法相對(duì)人的利益、算法使用者的利益和技術(shù)發(fā)展的平衡,由此衍生出的問(wèn)題有:
第一,是以“只要有算法決策的存在”為算法解釋請(qǐng)求權(quán)行使的前提,還是以“當(dāng)算法決策造成顯著影響時(shí)”為觸發(fā)條件?
反思算法解釋請(qǐng)求權(quán)構(gòu)造的功能,便可發(fā)現(xiàn),以“只要有算法決策的存在”作為算法解釋請(qǐng)求權(quán)行使的前提是不合理的。當(dāng)算法決策被廣泛使用時(shí),不特定的用戶會(huì)成為算法相對(duì)人,若每個(gè)算法相對(duì)人只要經(jīng)歷了算法決策就可要求算法使用者作出解釋,雖為算法相對(duì)人提供了足夠的保護(hù),但不合理劃定了算法解釋請(qǐng)求權(quán)的邊界,導(dǎo)致算法使用者將因算法解釋耗費(fèi)大量人力、物力和財(cái)力,不合理地加重了算法使用者的運(yùn)營(yíng)成本,最終迫使算法使用者放棄算法,阻礙了算法技術(shù)的發(fā)展與應(yīng)用。
以“當(dāng)算法決策造成顯著影響時(shí)”為觸發(fā)條件能較好平衡各方利益。算法解釋請(qǐng)求權(quán)的設(shè)置不可導(dǎo)致利益不當(dāng)失衡,應(yīng)考慮算法使用者與算法相對(duì)人的利益是否均衡或是否相對(duì)均衡。從上可知,“只要有算法決策的存在”并不符合算法解釋請(qǐng)求權(quán)的制度預(yù)設(shè),需要對(duì)算法相對(duì)人的權(quán)利予以限制,為算法使用者利益的保護(hù)和算法技術(shù)的發(fā)展留下必要空間。在算法決策未導(dǎo)致算法相對(duì)人的利益受損時(shí),算法相對(duì)人的算法解釋請(qǐng)求權(quán)處于“休眠”狀態(tài),只有算法決策“可能導(dǎo)致顯著影響時(shí)”或“算法決策已經(jīng)造成顯著影響時(shí)”,算法相對(duì)人才可行使算法解釋請(qǐng)求權(quán)?!翱赡軐?dǎo)致顯著影響時(shí)”是一種主觀判斷,以算法相對(duì)人的判斷為基準(zhǔn),如個(gè)人信用評(píng)分算法的錯(cuò)誤決策可能導(dǎo)致被征信人無(wú)法獲得授信,這時(shí)可認(rèn)為算法決策“可能導(dǎo)致顯著影響”,但應(yīng)要求算法相對(duì)人提供必要的證明材料。
第二,是否應(yīng)當(dāng)排除無(wú)人為干預(yù)的完全自動(dòng)化算法決策?《條例》第22條禁止完全自動(dòng)化算法決策(35)“完全的算法決策”是指算法決策完全由算法系統(tǒng)自主作出,沒(méi)有人為干預(yù)。的使用,在有人為干預(yù)的算法決策中才可獲得解釋或說(shuō)明。對(duì)此,需要考慮的是算法解釋請(qǐng)求權(quán)是否應(yīng)當(dāng)區(qū)分完全自動(dòng)化算法決策和有人為干預(yù)的算法決策。《條例》將完全自動(dòng)化算法決策排除在外,是因?yàn)榧词故蔷ㄋ惴ㄏ嚓P(guān)專業(yè)技術(shù)的人士也難以解釋該類算法決策。有人為干預(yù)的算法決策融合了算法使用者的價(jià)值判斷,在一定程度上降低了算法的黑箱程度,但算法解釋請(qǐng)求權(quán)是否要將完全自動(dòng)化算法決策排除在外呢?其實(shí)大可不必。原因有:一是完全自動(dòng)化算法決策和有人工干預(yù)的算法決策的現(xiàn)實(shí)區(qū)分較難。算法決策本就是算法使用者獨(dú)立進(jìn)行的行為,他人難以了解算法決策作出的具體過(guò)程,如何識(shí)別完全自動(dòng)化算法決策將是一個(gè)困難的問(wèn)題。而且,算法使用者會(huì)偽造人為干涉的跡象導(dǎo)致完全自動(dòng)化算法決策難以被認(rèn)定。(36)Frank Pasquale, “Secret algorithms threaten the rule of law”, MIT Technology Review, https://www.technologyreview.com/s/608011/secret algorithms thr eaten the rule of-law/,2019年10月2日最后訪問(wèn)。二是完全自動(dòng)化算法決策既然無(wú)法被完全禁止,那么就應(yīng)當(dāng)要求算法使用者對(duì)其進(jìn)行解釋。排除完全自動(dòng)化算法決策的原因是因其難以被理解。質(zhì)言之,要對(duì)完全自動(dòng)化算法決策進(jìn)行解釋必然要耗費(fèi)更多的成本。如果不能禁止算法使用者使用完全自動(dòng)化算法決策,那么應(yīng)當(dāng)要求使用者負(fù)有更高的注意義務(wù)避免妨害發(fā)生。算法解釋請(qǐng)求權(quán)正是限制算法使用者使用算法的一種制度安排,要求算法使用者對(duì)完全自動(dòng)化算法決策進(jìn)行解釋恰好符合更高注意義務(wù)的要求,可起到限制算法使用者使用完全自動(dòng)化算法決策的作用。
從上可知,算法解釋請(qǐng)求權(quán)的構(gòu)造與行使應(yīng)受到比例原則的限制,表現(xiàn)在:在權(quán)利構(gòu)造方面,應(yīng)當(dāng)協(xié)調(diào)算法相對(duì)人、算法使用者和社會(huì)公共利益的平衡;在解釋標(biāo)準(zhǔn)方面,對(duì)算法決策的解釋應(yīng)以相關(guān)性為前提,以滿足算法相對(duì)人可理解性和可救濟(jì)性為限度,而不可一味追求可解釋性犧牲了算法決策的準(zhǔn)確性;在權(quán)利行使方面,應(yīng)當(dāng)保證算法解釋請(qǐng)求權(quán)行使的相對(duì)克制,避免為算法使用者造成過(guò)重的負(fù)擔(dān),影響算法技術(shù)的發(fā)展與應(yīng)用。
算法解釋請(qǐng)求權(quán)是否有獨(dú)立成權(quán)之必要尚處爭(zhēng)議之中。有觀點(diǎn)認(rèn)為算法解釋請(qǐng)求權(quán)可被既有權(quán)利所囊括(37)王錫鋅教授認(rèn)為,無(wú)論是算法可解釋性,還是其他新型科技帶來(lái)的新型法律問(wèn)題,首先應(yīng)當(dāng)將其置放于傳統(tǒng)的法律分析框架當(dāng)中。就算法可解釋性而言,其是可以被納入到現(xiàn)有的法律框架中的,即政策制定者要求算法技術(shù)的運(yùn)行是以理性化的方式展開(kāi)的,避免運(yùn)行過(guò)程的非理性問(wèn)題。該觀點(diǎn)由王錫鋅教授于2018年12月26日在騰訊研究院與對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心聯(lián)合舉辦的第七期C-Law午餐會(huì)“算法可解釋性治理路徑探究”研討會(huì)中提出。相關(guān)報(bào)道參見(jiàn)騰訊研究院:《第七期C-Law午餐會(huì)“算法可解釋性治理路徑探究”成功舉辦》,https://mp.weixin.qq.com/s/50zxqRdkz3DeN5r1bVItKw,2019年10月2日最后訪問(wèn)。(如算法解釋請(qǐng)求權(quán)可被知情權(quán)或訪問(wèn)權(quán)所囊括),無(wú)需單獨(dú)設(shè)權(quán);也有觀點(diǎn)認(rèn)為算法解釋請(qǐng)求權(quán)與既有權(quán)利不同,應(yīng)屬獨(dú)立權(quán)利(38)同前注〔4〕,張凌寒文;賈章范:《法經(jīng)濟(jì)學(xué)視角下算法解釋請(qǐng)求權(quán)的制度構(gòu)建》,載《黑龍江省政法管理干部學(xué)院學(xué)報(bào)》2018年第4期。。為此,有必要分析算法解釋請(qǐng)求權(quán)與知情權(quán)、訪問(wèn)權(quán)之間的關(guān)系,以明確算法解釋請(qǐng)求權(quán)是否應(yīng)獨(dú)立成權(quán)。
知情權(quán)(the right to know或right to be informed)作為特指一種權(quán)利主張的法學(xué)概念,是由美國(guó)新聞編輯肯特·庫(kù)泊(Kent Copper)在1945年1月的一次演講中首次提出的,之后美國(guó)在20世紀(jì)50年代和60年代興起“知情權(quán)運(yùn)動(dòng)”中,“知情權(quán)”一詞被廣泛援用并很快被作為公民的政治民主權(quán)利得到各國(guó)法律確認(rèn)。(39)黃德林、唐承敏:《公民的“知情權(quán)”及其實(shí)現(xiàn)》,載《法學(xué)評(píng)論》2001年第5期。廣義的知情權(quán)泛指公民知悉、獲取信息的自由與權(quán)利;狹義的知情權(quán)僅指公民知悉、獲取官方信息的自由與權(quán)利。在公民權(quán)利發(fā)展史上,知情權(quán)概念的主要貢獻(xiàn)在于:它以簡(jiǎn)約、明了的形式及時(shí)地表達(dá)了現(xiàn)代社會(huì)成員對(duì)信息資源的一種普遍的利益需求和權(quán)利意識(shí),從而為當(dāng)代國(guó)家的公民權(quán)利建設(shè)展示了一個(gè)重要的、不容回避的認(rèn)識(shí)主題。(40)宋小衛(wèi):《略論我國(guó)公民的知情權(quán)》,載《法律科學(xué)》1994年第5期。因此,有學(xué)者將知情權(quán)視為一種由憲法所賦予的基本權(quán)利(41)杜鋼建:《知情權(quán)制度比較研究——當(dāng)代國(guó)外權(quán)利立法的新動(dòng)向》,載《中國(guó)法學(xué)》1993年第2期;章劍生:《知情權(quán)及其保障——以〈政府信息公開(kāi)條例〉為例》,載《中國(guó)法學(xué)》2008年第4期。;也有學(xué)者將知情權(quán)視為一種基本人權(quán),公民只有充分地享有和行使知情權(quán),才能據(jù)以合理地安排自己的生活,并最大限度地保護(hù)自己的權(quán)利和利益。(42)汪習(xí)根、陳焱光:《論知情權(quán)》,載《法制與社會(huì)發(fā)展》2003年第2期。步入信息社會(huì)后,信息成為人們生產(chǎn)生活所必需的要素,而信息不對(duì)稱導(dǎo)致人們?nèi)粘I罟ぷ魇艿讲焕绊懀绕涫窃谏唐方?jīng)濟(jì)交易中,信息不對(duì)稱導(dǎo)致消費(fèi)者處于弱勢(shì)地位且利益易被侵害,甚至威脅到整個(gè)商品經(jīng)濟(jì)市場(chǎng),造成劣幣驅(qū)逐良幣的不良后果。(43)董文軍:《消費(fèi)者的知情權(quán)》,載《當(dāng)代法學(xué)》2004年第3期。為此,知情權(quán)的外延不斷擴(kuò)張,逐漸由公法領(lǐng)域延伸至私法領(lǐng)域,拓展出被確定為塑造消費(fèi)者人格的基本權(quán)利——消費(fèi)者知情權(quán)。
隨著社會(huì)信息化程度的加劇,知情權(quán)外延得以不斷擴(kuò)充,橫跨公法與私法之界,諸多權(quán)利可由此推演而來(lái)。正因此,有觀點(diǎn)認(rèn)為,算法解釋請(qǐng)求權(quán)可被知情權(quán)涵蓋而無(wú)需單獨(dú)設(shè)權(quán)。(44)劉元興:《智能金融的“算法可解釋性”問(wèn)題》,http://news.hexun.com/2018-07-18/193498271.html,2019年10月2日最后訪問(wèn)。知情權(quán)真可囊括算法解釋請(qǐng)求權(quán)進(jìn)而保護(hù)算法相對(duì)人之合法權(quán)益?本文認(rèn)為雖然知情權(quán)與算法解釋請(qǐng)求權(quán)有天然的聯(lián)系,但知情權(quán)仍無(wú)法完全囊括算法解釋請(qǐng)求權(quán),理由如下:
算法解釋請(qǐng)求權(quán)是知情權(quán)的具體化。為了滿足生存和發(fā)展所需,公民有權(quán)利也有自由獲得必要的信息。作為基本人權(quán)的知情權(quán)應(yīng)運(yùn)而生,為人們的生存發(fā)展之需提供了保障。“三權(quán)說(shuō)”是知情權(quán)的主流學(xué)說(shuō),即知情權(quán)包括知政權(quán)、社會(huì)知情權(quán)、個(gè)人信息知情權(quán)。(45)張玉蘭:《公民隱私權(quán)與個(gè)人信息知情權(quán)的沖突與平衡》,https://www.chinacourt.org/article/detail/2004/03/id/109791.shtml,2019年10月2日最后訪問(wèn)。知政權(quán)和社會(huì)知情權(quán)更多體現(xiàn)一種公法層面的權(quán)利與自由,由此催生出政府的信息公開(kāi)義務(wù)與社會(huì)公眾的信息公平訴求;個(gè)人信息知情權(quán)則更關(guān)注個(gè)人層面,強(qiáng)調(diào)個(gè)人有權(quán)知道自己的個(gè)人信息。在步入“評(píng)分社會(huì)”(46)Danielle Keats Citron&Frank Pasquale.The Scored Society: Due Process for Automated Predictions, WASH. L. REV. Volume 89, 1, 2014, p.1.后,決策算法被算法使用者作為商業(yè)秘密保護(hù),當(dāng)算法決策造成或?qū)⒁斐蓳p害時(shí),算法相對(duì)人為了保護(hù)自己的合法權(quán)益應(yīng)當(dāng)有權(quán)獲知與其算法決策相關(guān)的信息。算法解釋請(qǐng)求權(quán)恰好要求算法使用者以“簡(jiǎn)明、透明、易懂和易于訪問(wèn)的形式,使用清晰、明了的語(yǔ)言”告知算法相對(duì)人與算法決策相關(guān)的有意義的信息。(47)《一般數(shù)據(jù)保護(hù)條例》第12條第1款“對(duì)于和個(gè)人信息處理相關(guān)的第13和第14條規(guī)定的所有信息、或者第15條至22條以及34條所規(guī)定的所有交流,控制者應(yīng)當(dāng)以一種簡(jiǎn)潔、透明、易懂和容易獲取的形式,以清晰和平白的語(yǔ)言來(lái)提供;對(duì)于針對(duì)兒童的所有信息,尤其應(yīng)當(dāng)如此。信息應(yīng)當(dāng)以書面形式或其他形式提供,包括在合適的情況下通過(guò)電子方式提供。若數(shù)據(jù)主體的身份可通過(guò)其他途徑得到證實(shí),那么控制者可依主體申請(qǐng)以口頭方式提供相關(guān)信息?!彼惴ń忉屨?qǐng)求權(quán)賦予算法相對(duì)人的權(quán)利正是知情權(quán)在算法決策中的具體體現(xiàn),或者說(shuō)算法解釋請(qǐng)求權(quán)是知情權(quán)中個(gè)人信息知情權(quán)的細(xì)化。
算法解釋請(qǐng)求權(quán)超越了知情權(quán)構(gòu)架。知情權(quán)的構(gòu)造旨在保障公民獲得必要的信息來(lái)滿足生存發(fā)展需要。廣義上的知情權(quán)是更多偏向宣示性的權(quán)利,狹義的知情權(quán)保證的是公民獲取信息的自由。隨著社會(huì)信息化程度的加深,知情權(quán)的重要性日益彰顯,尤其是在商品經(jīng)濟(jì)發(fā)達(dá)的今天,信息不對(duì)稱問(wèn)題導(dǎo)致消費(fèi)者合法權(quán)益受到不利影響,發(fā)展出了消費(fèi)者的知情權(quán)(48)《消費(fèi)者權(quán)益保護(hù)法》第8條“消費(fèi)者享有知悉其購(gòu)買、使用的商品或者接受的服務(wù)的真實(shí)情況的權(quán)利。消費(fèi)者有權(quán)根據(jù)商品或者服務(wù)的不同情況,要求經(jīng)營(yíng)者提供商品的價(jià)格、產(chǎn)地、生產(chǎn)者、用途、性能、規(guī)格、等級(jí)、主要成份、生產(chǎn)日期、有效期限、檢驗(yàn)合格證明、使用方法說(shuō)明書、售后服務(wù),或者服務(wù)的內(nèi)容、規(guī)格、費(fèi)用等有關(guān)情況?!?,要求經(jīng)營(yíng)者告知消費(fèi)者所購(gòu)買的商品或服務(wù)的相關(guān)情況,重在經(jīng)營(yíng)者的告知義務(wù)和消費(fèi)者獲得商品或服務(wù)信息的權(quán)利。而算法解釋請(qǐng)求權(quán)的構(gòu)造重在通過(guò)賦予算法相對(duì)人一種要求算法使用者對(duì)算法決策進(jìn)行解釋的權(quán)利,告知算法相對(duì)人為何會(huì)經(jīng)歷算法決策、算法決策的作出過(guò)程及可能產(chǎn)生的影響等信息,消弭算法使用者和算法相對(duì)人之間因算法使用出現(xiàn)的權(quán)利鴻溝。因此,算法解釋請(qǐng)求權(quán)與知情權(quán)略有不同:知情權(quán)更多注重公民獲取信息的權(quán)利與自由,講求公民知悉信息的狀態(tài);而算法解釋請(qǐng)求權(quán)不僅超越了知情權(quán)所要求的信息知悉狀態(tài),還要求算法使用者對(duì)算法相對(duì)人個(gè)人數(shù)據(jù)收集、處理的正當(dāng)性,保證算法決策的使用不會(huì)影響到算法相對(duì)人的合法權(quán)益,否則應(yīng)當(dāng)作出修正或算法相對(duì)人有權(quán)退出算法決策。
據(jù)《條例》第15條規(guī)定(49)《一般數(shù)據(jù)保護(hù)條例》第15條數(shù)據(jù)主體的訪問(wèn)權(quán):1.?dāng)?shù)據(jù)主體應(yīng)當(dāng)有權(quán)從控制者那里得知,關(guān)于其個(gè)人數(shù)據(jù)是否正在被處理,如果正在被處理的話,其應(yīng)當(dāng)有權(quán)訪問(wèn)個(gè)人數(shù)據(jù)和獲知如下信息:(1)處理的目的;(2)相關(guān)個(gè)人數(shù)據(jù)的類型;(3)個(gè)人數(shù)據(jù)已經(jīng)被或?qū)⒈慌督o接收者或接收者的類型,特別是當(dāng)接收者屬于第三國(guó)或國(guó)際組織時(shí);(4)在可能的情形下,個(gè)人數(shù)據(jù)將被儲(chǔ)存的預(yù)期期限,或者如果不可能的話,確定此期限的標(biāo)準(zhǔn);(5)數(shù)據(jù)主體要求控制者糾正或擦除個(gè)人數(shù)據(jù)、限制或反對(duì)對(duì)數(shù)據(jù)主體相關(guān)的個(gè)人數(shù)據(jù)進(jìn)行處理的權(quán)利;(6)向監(jiān)管機(jī)構(gòu)進(jìn)行申訴的權(quán)利;(7)當(dāng)個(gè)人數(shù)據(jù)不是從數(shù)據(jù)主體那里收集的,關(guān)于來(lái)源的任何信息;(8)存在自動(dòng)化的決策,包括第22(1)和(4)條所規(guī)定的數(shù)據(jù)分析,以及在此類情形下,對(duì)于相關(guān)邏輯、包括此類處理對(duì)于數(shù)據(jù)主體的預(yù)期后果的有效信息。2.當(dāng)個(gè)人數(shù)據(jù)被轉(zhuǎn)移到第三國(guó)或一個(gè)國(guó)際組織,數(shù)據(jù)主體應(yīng)當(dāng)有權(quán)獲知和轉(zhuǎn)移相關(guān)的符合第46條的恰當(dāng)?shù)谋U洗胧?.控制者應(yīng)當(dāng)對(duì)進(jìn)行處理的個(gè)人數(shù)據(jù)提供一份備份。對(duì)于任何數(shù)據(jù)主體所要求的額外備份,控制者可以根據(jù)管理花費(fèi)而收取合理的費(fèi)用。當(dāng)數(shù)據(jù)主體通過(guò)電子方式而請(qǐng)求,且除非數(shù)據(jù)主體有其他請(qǐng)求,信息應(yīng)當(dāng)以通常使用的電子形式提供。,訪問(wèn)權(quán)(Right to Access)是指數(shù)據(jù)主體從數(shù)據(jù)處理者或控制者處獲知其個(gè)人數(shù)據(jù)是否正在被處理的權(quán)利。若是,則有權(quán)獲知個(gè)人數(shù)據(jù)來(lái)源、類型、數(shù)據(jù)處理的目的、數(shù)據(jù)接收者的身份等信息。訪問(wèn)權(quán)旨在使數(shù)據(jù)主體獲悉其數(shù)據(jù)處理的情況,以此來(lái)審查數(shù)據(jù)處理者處理個(gè)人數(shù)據(jù)是否合法、合理,若侵權(quán)可便于尋求救濟(jì)。
有學(xué)者認(rèn)為算法解釋請(qǐng)求權(quán)被包含在數(shù)據(jù)主體的訪問(wèn)權(quán)中,不具有獨(dú)立成權(quán)的必要。(50)同前注〔12〕。這種觀點(diǎn)所依據(jù)的理由主要是《條例》第15條所規(guī)定的要求數(shù)據(jù)處理者向數(shù)據(jù)主體說(shuō)明算法決策可能產(chǎn)生的“預(yù)期影響”之規(guī)定?!邦A(yù)期影響”意味著面向未來(lái),即對(duì)算法決策的解釋不是事后解釋而是在算法決策作出之前進(jìn)行,甚至應(yīng)在收集數(shù)據(jù)階段作出。并且,《條例》第15條第1款第8項(xiàng)所規(guī)定的算法相對(duì)人有權(quán)獲得與算法決策相關(guān)的“有意義的信息”在訪問(wèn)權(quán)的權(quán)能覆蓋范圍內(nèi)。在此意義上,算法解釋請(qǐng)求權(quán)實(shí)質(zhì)就是要求算法使用者向算法相對(duì)人告知數(shù)據(jù)處理的存在、目的和邏輯,以及這種處理可能造成的法律后果。通過(guò)掌握這些信息,算法相對(duì)人應(yīng)當(dāng)能夠?qū)彶閿?shù)據(jù)處理的合法性并有助于其尋求法律救濟(jì)。
算法解釋請(qǐng)求權(quán)和訪問(wèn)權(quán)的權(quán)能確有一定的重合,即二者均可從數(shù)據(jù)處理者處獲得相關(guān)信息。訪問(wèn)權(quán)允許數(shù)據(jù)主體從數(shù)據(jù)處理者處獲得必要的信息,審查數(shù)據(jù)處理行為的合法性,保證個(gè)人數(shù)據(jù)的自決。算法解釋請(qǐng)求權(quán)賦予算法相對(duì)人獲得必要的信息來(lái)知曉算法決策的正當(dāng)性與合理性,避免因有誤或瑕疵的算法決策造成算法妨害。
雖然算法解釋請(qǐng)求權(quán)與訪問(wèn)權(quán)具有一定相似性或存在部分重合,但二者也存在差異,不可混為一談。首先,二者的目的不同。訪問(wèn)權(quán)旨在確保數(shù)據(jù)主體有權(quán)獲悉其數(shù)據(jù)被處理的相關(guān)情況,審查數(shù)據(jù)處理行為是否合法,重在保證個(gè)人數(shù)據(jù)處理的合法性。算法解釋請(qǐng)求權(quán)的目的在于約束算法使用者的行為,確保算法決策是合理正當(dāng)?shù)?,避免算法決策造成損害,填平因算法導(dǎo)致的算法使用者與算法相對(duì)人之間的權(quán)利鴻溝??梢?jiàn),訪問(wèn)權(quán)強(qiáng)調(diào)數(shù)據(jù)主體的知情權(quán),保證數(shù)據(jù)處理的合法性;而算法解釋請(qǐng)求權(quán)重在保證與數(shù)據(jù)主體相關(guān)的算法決策的合理性和正當(dāng)性,回塑算法使用者與算法相對(duì)人之間的平等狀態(tài)。其次,算法解釋請(qǐng)求權(quán)不可忽略事后解釋。訪問(wèn)權(quán)雖有要求數(shù)據(jù)處理者應(yīng)向數(shù)據(jù)主體告知數(shù)據(jù)處理行為的“預(yù)期影響”,但這并不能涵蓋算法解釋請(qǐng)求權(quán)所要求的事后解釋。從算法決策的過(guò)程看,只有算法決策被使用方可確定對(duì)算法相對(duì)人產(chǎn)生的影響,在此之前只能以“預(yù)期影響”稱之,但并不能以此否定算法解釋請(qǐng)求權(quán)獨(dú)立成權(quán)的必要性和可能性。此外,在數(shù)據(jù)收集階段根本無(wú)法確定算法決策將會(huì)造成何種影響,要求在數(shù)據(jù)收集階段告知數(shù)據(jù)主體算法決策的“預(yù)期影響”是不尊重他人數(shù)據(jù)權(quán)利的表現(xiàn)。
因此,本文認(rèn)為算法解釋請(qǐng)求權(quán)是從知情權(quán)中衍生出的一個(gè)新型權(quán)利,并獨(dú)立于訪問(wèn)權(quán)而具有特殊的權(quán)利內(nèi)涵。
隨著算法社會(huì)的臨近,算法應(yīng)用場(chǎng)景日益豐富,伴隨而來(lái)的必然是算法決策的風(fēng)靡。但算法黑箱隔絕他人感知,使算法使用者享有“算法權(quán)力”,改變了算法使用者與算法相對(duì)人原有的相對(duì)平等的狀態(tài)。權(quán)力的天然擴(kuò)張屬性和算法使用者的利益最大化追求,將使算法相對(duì)人遭受算法妨害。為合理限制算法使用者的算法權(quán)利,賦予算法相對(duì)人算法解釋請(qǐng)求權(quán)以避免算法妨害的出現(xiàn),進(jìn)而平衡算法相對(duì)人與算法使用者的利益,最終促進(jìn)算法技術(shù)的發(fā)展確有必要。本文粗略梳理了算法解釋請(qǐng)求權(quán)的起源與發(fā)展脈絡(luò),并在初步構(gòu)造的算法解釋請(qǐng)求權(quán)的權(quán)利內(nèi)容和限度的基礎(chǔ)上,對(duì)算法解釋請(qǐng)求權(quán)與知情權(quán)和訪問(wèn)權(quán)進(jìn)行了區(qū)分,在一定程度上廓清了算法解釋請(qǐng)求權(quán)的權(quán)利范疇。但囿于筆者能力有限,未能對(duì)算法解釋請(qǐng)求權(quán)進(jìn)行全面細(xì)致的雕刻,后續(xù)研究仍可對(duì)此問(wèn)題進(jìn)一步挖掘。