摘 要:《中華人民共和國個人信息保護法》第二十四條第三款將對個人信息的利益保護轉(zhuǎn)變?yōu)閷λ惴Q策的行為規(guī)制,并賦予個人拒絕算法決策的權(quán)利?;谠摲ǖ墓▽傩约捌湓谛姓I(lǐng)域的適用性,相對人享有在自動化行政中的算法決策拒絕權(quán)。面對算法決策方式對行政法治的技術(shù)挑戰(zhàn),拒絕權(quán)能夠豐富相對人在自動化行政中的權(quán)利體系,發(fā)揮對抗算法決策異化的功能。算法決策拒絕權(quán)具有保障相對人參與自動化行政過程,并在設(shè)置與改造的程序裝置中予以實現(xiàn)的程序?qū)傩?,以及在?quán)利地位上能夠請求利益實現(xiàn)與法律保護,在權(quán)利內(nèi)涵上能夠主動選擇的積極屬性。相對人算法決策拒絕權(quán)的實現(xiàn),需要結(jié)合該權(quán)利的程序?qū)傩院头e極屬性,構(gòu)造在自動化行政不同環(huán)節(jié)的具有即時性特征的行使規(guī)則,包括算法決策方式選擇規(guī)則、算法決策過程脫離規(guī)則和算法決策結(jié)果抵抗規(guī)則。
關(guān)鍵詞:自動化行政;算法決策;算法決策拒絕權(quán);個人信息保護
中圖分類號:D922.1文獻標志碼:A文章編號:1009-055X(2024)02-0088-11
doi:10.19366/j.cnki.1009-055X.2024.02.009
進入信息化時代以來,以移動互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能、云計算等為驅(qū)動的數(shù)字技術(shù)變革,深刻地影響著優(yōu)化管理和服務(wù)的公共行政改革進程,體現(xiàn)在行政活動開展方式的變化之上,即促成了自動化行政方式的誕生[1]。在發(fā)展階段和具體類型上,自動化行政包括通過算法進行決策的完全自動化行政[2],此時,技術(shù)應(yīng)用從行政程序環(huán)節(jié)擴展到實體決定層面,形成算法獨立分析與決斷的行政方式。算法決策給行政系統(tǒng)帶來高效的技術(shù)優(yōu)勢,也引發(fā)行政相對人對算法存在黑箱與歧視等弊病的擔憂。為相對人配置算法決策拒絕權(quán)的賦權(quán)路徑,成為應(yīng)對自動化行政中算法決策弊端的可行方案之一?!吨腥A人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)第二十四條第三款規(guī)定了個人面對算法決策時的拒絕權(quán)①。但從個人信息保護領(lǐng)域到自動化行政領(lǐng)域,相對人的算法決策拒絕權(quán)需要進行規(guī)范證成和功能分析,并放置在行政場景下研究拒絕權(quán)的權(quán)利屬性與行使規(guī)則,以期使之成為規(guī)范算法決策方式和保障相對人合法權(quán)益的有效舉措。
一、算法決策拒絕權(quán)的規(guī)范依據(jù)
算法決策的概念在與自然人決策的對比中產(chǎn)生,其是指利用算法技術(shù)進行自動分析而得出決策結(jié)果的決策方式。通過對《個人信息保護法》公法屬性的規(guī)范解讀,并關(guān)注其中從個人信息利益保護到算法決策行為規(guī)制的思路轉(zhuǎn)變,結(jié)合自動化行政中算法決策方式的運行特征,可以將《個人信息保護法》作為行政領(lǐng)域中算法決策拒絕權(quán)的規(guī)范依據(jù),使之完成從新型權(quán)利到法定權(quán)利的證成。
(一)個人信息保護中的算法決策拒絕權(quán)
相較于依賴有限經(jīng)驗與理性進行利益權(quán)衡的自然人決策,算法決策在決策主體方面表現(xiàn)為由技術(shù)主導(dǎo)而非人工決定,在決策基礎(chǔ)方面則建立在數(shù)字時代和網(wǎng)絡(luò)環(huán)境中的相關(guān)個人信息之上。算法決策以高效算法為技術(shù)依托,以高速運轉(zhuǎn)為技術(shù)樣態(tài),能夠應(yīng)對數(shù)據(jù)海量化和用戶個性化的信息社會的決策需求,因此逐漸被用于社會生活的各個領(lǐng)域,也成為行政決策的重要方式。
算法決策不僅擁有橫跨公私法領(lǐng)域的技術(shù)優(yōu)勢,也不斷塑造著數(shù)字化與算法化的個人生存環(huán)境,繼而產(chǎn)生一系列的法律風(fēng)險:一是在利益誘導(dǎo)下,算法決策的應(yīng)用主體缺乏全面考慮而單方?jīng)Q定將應(yīng)用范圍無序擴張,甚至未經(jīng)個人同意而處理敏感個人信息;二是存在于算法決策中的技術(shù)黑箱不具備透明性和可解釋性,致使個人在決策過程面臨知情難的問題;三是算法的設(shè)計偏見和技術(shù)缺陷,經(jīng)過算法決策過程將放大為侵害個人權(quán)益的歧視或錯誤決策結(jié)果。
隨著我國數(shù)字經(jīng)濟的快速崛起,體現(xiàn)保護個人信息之時代需求和民眾訴求的《個人信息保護法》于2021年8月20日正式出臺,成為我國個人信息保護領(lǐng)域具有綜合性與專門性特征的法律基石?!秱€人信息保護法》第二十四條采取算法透明化要求和個體賦權(quán)的方式對算法決策進行規(guī)范,成為該法的一大亮點[3]。其中,該法第二十四條第三款賦予個人在其權(quán)益受到重大影響時對算法決策的請求說明權(quán)和拒絕權(quán)。該條款并未拘束于對個人信息的利益保護,而是轉(zhuǎn)變?yōu)閷λ惴Q策的行為規(guī)制,即只要采用的算法決策方式對個人權(quán)益產(chǎn)生重大影響,個人就有權(quán)予以拒絕。
歐盟《通用數(shù)據(jù)保護條例》也對算法決策方式進行了規(guī)范,其中第二十二條第一款規(guī)定,數(shù)據(jù)主體有權(quán)拒絕完全依靠自動化處理方式對其作出的具有法律影響或其他嚴重影響的決策。為解釋該條款,第29條數(shù)據(jù)保護工作組(WP29)制定的《為實施第2016/679號條例的自動化決策和分析指南》中明確,拒絕權(quán)并非僅在數(shù)據(jù)主體積極援引時才能適用,而是對完全自動化決策的普遍禁止。因此,歐盟采取“嚴格禁令”方式對待算法決策,形成了以“禁止為常態(tài),應(yīng)用為例外”的基本態(tài)度。相較而言,結(jié)合我國算法決策的應(yīng)用實踐和《個人信息保護法》的規(guī)范文本,我國對于算法決策的規(guī)制不應(yīng)解釋為“嚴格禁令”方式,而傾向于一種“主動權(quán)利”方式,即當滿足算法透明和公正要求時,個人信息處理者可以采取算法決策方式,而算法決策拒絕權(quán)由個體主動行使,以此來平衡算法決策的應(yīng)用和個人權(quán)益的保護。
(二)自動化行政中的算法決策拒絕權(quán)
屬于領(lǐng)域立法的《個人信息保護法》采取兼容公法保護和私法保護進路的統(tǒng)一立法保護模式[4],這使得該法成為公私法交融、超越單一部門法的個人信息保護立法?!秱€人信息保護法》對國家機關(guān)處理個人信息的規(guī)定能夠體現(xiàn)該法的公法屬性。具體而言,該法要求國家尊重個人信息主體,通過規(guī)范國家機關(guān)對個人信息的處理行為,使之符合法律規(guī)定的權(quán)限與程序,以防范侵害個人信息權(quán)益的公權(quán)行為[5]。據(jù)此,《個人信息保護法》中規(guī)制算法決策的內(nèi)容理應(yīng)適用于行政領(lǐng)域,其賦予個人對算法決策的拒絕權(quán)也具有公法上的權(quán)利形態(tài)。由此出發(fā),自動化行政中相對人享有的算法決策拒絕權(quán)能夠以《個人信息保護法》為規(guī)范依據(jù)。
討論自動化行政中相對人的算法決策拒絕權(quán),一個必要前提是認識自動化行政的算法決策方式。在行政領(lǐng)域分析算法決策的運行特征,需要建立在完全自動化行政的發(fā)展階段和類型基礎(chǔ)之上。自動化行政作為開展行政活動的新型方式,其產(chǎn)生與發(fā)展和數(shù)字技術(shù)引入公共行政的歷史進程緊密相關(guān),根據(jù)技術(shù)變革與應(yīng)用程度的差異可以劃分為部分自動化行政和完全自動化行政[2]。在完全自動化行政中,技術(shù)系統(tǒng)不再局限于發(fā)揮程序性或輔助性的功能,而是涉足行政活動的實體決定層面,取代人成為決策的主導(dǎo)者,從而使行政活動的實體決策過程呈現(xiàn)自動化特征。通過算法決策方式開展行政活動,需要以個人信息作為資源要素和以算法技術(shù)作為行為要素:一方面,通過對由個人信息構(gòu)成的數(shù)據(jù)化基礎(chǔ)的分析,行政機關(guān)實現(xiàn)治理對象的可計算性和行政活動的可預(yù)測性要求;另一方面,隨著人工智能算法的產(chǎn)生與應(yīng)用,算法決策所依賴的算法并非人工編寫而是系統(tǒng)生成,決策結(jié)果也是由人工智能算法根據(jù)輸入數(shù)據(jù)而自主作出,真正在功能上形成脫離人的參與或控制的自動化決策[6]57。
因此,在自動化行政中,行政主體依賴個人信息與算法技術(shù)開展行政活動,自動化行政行為與個人信息處理行為高度契合,但屬于權(quán)力的擴張本質(zhì)讓個人信息面臨來自行政機關(guān)處理行為的安全威脅,作為個人信息處理者的行政主體“本身也需要被納入監(jiān)管”[7]。此外,算法決策方式的引入,不僅會削弱正當程序制度防范與矯正傳統(tǒng)決策失當?shù)墓δ?,還將引發(fā)技術(shù)權(quán)力異化侵犯個人權(quán)益的新風(fēng)險。此時,面臨減損威脅的不僅是個人信息權(quán)益,還包括個人信息載體之外的其他人身權(quán)益與財產(chǎn)權(quán)益?!秱€人信息保護法》第二十四條第三款將對個人信息的利益保護轉(zhuǎn)變?yōu)閷λ惴Q策的行為規(guī)制,并將規(guī)制算法決策的目的由保護個人信息權(quán)益擴展到個人權(quán)益,符合在自動化行政中應(yīng)用算法決策時保護相對人合法權(quán)益的需求。
當然,拒絕權(quán)并不等于拒絕數(shù)字化[8],賦予相對人算法決策拒絕權(quán)也絕非以“退回到一個前數(shù)字時代的方式”[9]來抵制數(shù)字政府建設(shè)的發(fā)展趨勢。算法決策拒絕權(quán)與數(shù)字政府建設(shè)的平衡策略在于:第一,《個人信息保護法》以“主動權(quán)利”而非“嚴格禁令”方式規(guī)制算法決策,即自動化行政中的算法決策并非為立法所完全禁止,而是相對人能夠主動拒絕的權(quán)利對象。因此,賦予相對人以算法決策拒絕權(quán),具有行政系統(tǒng)引入數(shù)字技術(shù)應(yīng)當契合相對人利益訴求的意蘊,符合數(shù)字政府建設(shè)應(yīng)當“堅持以人民為中心”的基本原則【參見《國務(wù)院關(guān)于加強數(shù)字政府建設(shè)的指導(dǎo)意見》(國發(fā)〔2022〕14號)?!俊5诙?,算法決策是脫離人的控制與參與的決策方式,這意味著算法決策拒絕權(quán)并非針對所有的自動化行政活動,其權(quán)利行使場景被限定為完全自動化行政。第三,鑒于自動化行政所承載的公共利益需要,相對人算法決策拒絕權(quán)的享有與行使應(yīng)當具有一定的條件限制,需要在特定情形下認同行政機關(guān)對算法決策的選擇與安排,包括在已具備技術(shù)普及條件與社會認同基礎(chǔ)時僅提供自動化行政方式,如通過電子技術(shù)監(jiān)控設(shè)備進行的非現(xiàn)場執(zhí)法,以及在特殊場景中適用自動化行政方式,如突發(fā)公共衛(wèi)生事件中“健康碼”的應(yīng)用等。
二、自動化行政中算法決策拒絕權(quán)的功能
自動化行政方式的興起,關(guān)鍵在于其具有效率與公正價值。然而,自動化行政在將技術(shù)優(yōu)勢引入行政系統(tǒng)的同時,算法決策也給行政法治帶來了實體公正和程序正當方面的技術(shù)挑戰(zhàn)。對此,賦權(quán)是應(yīng)對算法風(fēng)險的有效方式,算法決策拒絕權(quán)的功能在與其他權(quán)利的對比中得到彰顯。
(一)算法決策對行政法治的技術(shù)挑戰(zhàn)
人類決策不全是理性的過程,常因夾雜情感因素而在認知和處理上出現(xiàn)偏見。算法“技術(shù)中立”的研發(fā)初衷,使其能夠排除行政過程中人為偏見而促進行政結(jié)果的公正[10]。但技術(shù)中立的命題僅能起到在法律場景下呼吁關(guān)注技術(shù)專業(yè)性的作用,其本身并不具有價值中立的內(nèi)涵[11]。在行政活動中發(fā)揮決策功能的算法從設(shè)計到應(yīng)用都存在價值判斷,因此需要揭開技術(shù)中立的偽命題,關(guān)注其帶來的挑戰(zhàn)人的平等、固化社會不公和減損人的價值等歧視性后果[12]。
自動化行政中存在不同的算法歧視類型。其一,在“輸入垃圾,輸出垃圾(garbage in, garbage out)”的計算機程序運行規(guī)則中,當算法決策所依賴的數(shù)據(jù)存在偏見性內(nèi)容或不相關(guān)因素,經(jīng)由算法分析得出的結(jié)果也將呈現(xiàn)歧視性內(nèi)容。實際上,這是算法技術(shù)對社會現(xiàn)實中歧視的復(fù)現(xiàn)[13],即自動化系統(tǒng)僅是發(fā)揮著對歧視的傳輸功能。其二,人工智能算法的自主性是經(jīng)過海量數(shù)據(jù)訓(xùn)練后的結(jié)果,因此,當算法將社會歧視內(nèi)化為自身的偏見規(guī)則,即便輸入正常數(shù)據(jù)也可能得到歧視性結(jié)果。此時,算法對數(shù)據(jù)進行關(guān)聯(lián)、歸納與推導(dǎo),形成帶有歧視的決策結(jié)果。算法本身就是歧視的來源。其三,算法作為人為技術(shù)產(chǎn)物,在設(shè)計之初便不可避免地包含設(shè)計主體的主觀認知和價值理念。當前自動化行政的技術(shù)架構(gòu)主要通過合作行政方式完成,其中,技術(shù)設(shè)計內(nèi)容由行政委托或行政協(xié)議確定的技術(shù)公司完成。這意味著自動化行政中的算法決策模型,在產(chǎn)生伊始就可能被注入來自技術(shù)公司的脫離行政機關(guān)控制的偏見內(nèi)容,進而引發(fā)對相對人的歧視性結(jié)果。
除了算法歧視對行政公正的挑戰(zhàn),算法決策更為嚴重的技術(shù)問題在于算法黑箱與正當程序之間的沖突。從傳統(tǒng)官僚制行政邁進現(xiàn)代民主制行政的進程中,行政機關(guān)和相對人之間形成了一種互動的行政法律關(guān)系,互動性體現(xiàn)為對行政過程開放性和相對人參與性的正當程序要求[14]。算法中夾雜的偏見性內(nèi)容理應(yīng)放置在開放與反思的正當程序中進行即時修正。然而,自動化行政通過技術(shù)邏輯營造封閉式的行政系統(tǒng),排斥相對人參與行政活動。由于算法專業(yè)性的技術(shù)因素、算法秘密保護的設(shè)計因素或算法理解能力的應(yīng)用因素,算法主導(dǎo)的行政決策環(huán)節(jié)處于缺乏透明與開放的技術(shù)“黑箱”之中,這與行政法治的正當程序原則相悖。
相對人知悉行政活動開展的依據(jù)和程序是其參與行政的必要前提,行政機關(guān)需要通過履行行政公開和行政告知義務(wù)來滿足相對人的知情需求。但算法決策的算法技術(shù)原理和算法運行過程并不對相對人實質(zhì)性公開,決策環(huán)節(jié)前后關(guān)聯(lián)的秘密信息收集和行政結(jié)果通知,由于依賴技術(shù)程序進行,同樣可能致使相對人陷入知情困境。一旦獲悉行政活動的相關(guān)信息,相對人就可以通過行政程序裝置表達意見,與行政機關(guān)溝通互動,以表示其主體地位和確保所交涉內(nèi)容的合理性。但在自動化行政的封閉技術(shù)程序中,相對人的陳述意見難以轉(zhuǎn)化為技術(shù)語言并影響決策結(jié)果[15]。算法決策方式對數(shù)據(jù)資源的依賴性,讓行政機關(guān)選擇忽視相對人的意見表達及其對行政行為的補充與糾錯功能。而行政機關(guān)對算法決策中技術(shù)要素應(yīng)盡的說明理由義務(wù),則表現(xiàn)出因行政機關(guān)缺乏算法技術(shù)知識而說理不能或說理不清,以及以技術(shù)標準或合格證明進行機械答復(fù)而難以令人信服的局限[16]。
(二)算法決策拒絕權(quán)功能的對比分析
面對算法決策方式給行政法治帶來的技術(shù)挑戰(zhàn),通過為相對人配置新型算法權(quán)利以對抗算法決策異化風(fēng)險的賦權(quán)進路,較之行政系統(tǒng)內(nèi)部對算法決策進行行政自治,被視為更加長效的矯正方案[17]。規(guī)制算法決策的賦權(quán)進路需要從尊重相對人的主體地位出發(fā),傳統(tǒng)官僚制行政將相對人完全視作管理對象,忽視其作為行政法律關(guān)系一方的平等主體地位。邁向現(xiàn)代化行政的改造方案,內(nèi)容包含配置并保障相對人程序性權(quán)利,確保相對人在行政活動中的參與性,以此平衡行政機關(guān)的行政優(yōu)先權(quán)。而在數(shù)字化時代,算法技術(shù)不斷對人進行分類、分析與評估,通過這一存在偏見與缺乏透明的過程將人馴化為可計算、可預(yù)測、可控制的客體,從而使相對人的主體地位面臨新的技術(shù)難題[12]。反映到行政領(lǐng)域中,算法主導(dǎo)的決策模式,改變了傳統(tǒng)行政權(quán)力與相對人權(quán)利的平衡格局,造成相對人運用傳統(tǒng)行政權(quán)力應(yīng)對算法決策的不足。因此,為避免人的主體性與平等性被算法技術(shù)侵蝕,在相對人所享有的傳統(tǒng)行政權(quán)力基礎(chǔ)上,確認其有關(guān)數(shù)據(jù)與算法的新型技術(shù)權(quán)利,成為對抗算法權(quán)力附加的行政權(quán)力的基本要求。
從個人信息保護領(lǐng)域到自動化行政領(lǐng)域,將規(guī)制算法決策的賦權(quán)進路展開,可以將相對人應(yīng)對算法決策方式的權(quán)利體系予以類型化,包括針對個人信息處理行為的各項新型權(quán)利、針對算法決策的要求說明權(quán)以及本文所論證的算法決策拒絕權(quán)。這些權(quán)利皆在規(guī)制算法決策方式中發(fā)揮重要作用,但相較于前兩類權(quán)利而言,相對人享有的算法決策拒絕權(quán)具有獨特功能。
《個人信息保護法》第四章規(guī)定了個人在個人信息處理活動中享有的一系列權(quán)利,其中與相對人的算法決策拒絕權(quán)密切相關(guān),甚至被認為存在功能混同可能性的權(quán)利,包括對個人信息處理的限制權(quán)、更正權(quán)和刪除權(quán)。上述各項權(quán)利建立在個人對其個人信息的自決與控制基礎(chǔ)之上,但應(yīng)用到自動化行政中以應(yīng)對算法決策方式時,出現(xiàn)了適應(yīng)性和功能性問題。首先,《個人信息保護法》第四十四條規(guī)定了個人信息權(quán)利行使的“法律、行政法規(guī)另有規(guī)定的除外”的例外條款【 《個人信息保護法》第四十四條:個人對其個人信息的處理享有知情權(quán)、決定權(quán),有權(quán)限制或者拒絕他人對其個人信息進行處理;法律、行政法規(guī)另有規(guī)定的除外?!?,而行政領(lǐng)域的個人信息收集,往往由于履行行政職責的必要,被規(guī)定為無須相對人的授權(quán)同意,甚至在某些場景中,提供個人信息被視作相對人的義務(wù)[18]。因此,由于適用例外條款,相對人無法行使針對行政機關(guān)個人信息處理行為的限制權(quán)。其次,在發(fā)現(xiàn)行政機關(guān)掌握的個人信息不準確或不完整時,相對人可以行使更正權(quán),這既未突破行政機關(guān)實現(xiàn)行政目的的基本職責,也有助于相對人得到公正的行政結(jié)果。但更正權(quán)的權(quán)利對象僅是決策環(huán)節(jié)之前的個人信息,雖然此舉可以對基于個人信息的算法歧視予以糾偏,但無法針對性地糾正更具危害性的算法決策中的錯誤算法邏輯[19]。最后,當認為行政機關(guān)處理無關(guān)個人信息時,相對人行使刪除權(quán)具有正當性,但若想通過刪除個人信息達到拒絕算法決策方式的目的[20],則面臨可刪除的個人信息范圍有限的弊端,也無法改變其像更正權(quán)一樣并未直接針對算法決策方式的功能不足。
《個人信息保護法》第二十四條第三款規(guī)定了個人要求個人信息處理者對算法決策予以說明的權(quán)利,通過類比自動化行政中算法決策拒絕權(quán)的證成方式,相對人亦享有對算法決策的要求說明權(quán)。面對算法決策中存在的技術(shù)黑箱及其在行政活動中的衍生風(fēng)險,算法的公開透明和可解釋性成為打開算法黑箱、促進程序正義和追究相應(yīng)主體責任的必然要求[21]。賦予相對人對算法決策的要求說明權(quán),有利于其主動參與自動化行政活動,縮小自動化行政過程中的信息不對稱差距。但相對人行使要求說明權(quán)的效果因算法技術(shù)的解釋性難題而飽受質(zhì)疑[22],具體表現(xiàn)在:一是解釋后的算法內(nèi)容可能并未脫離專業(yè)技術(shù)范疇,仍在技術(shù)黑箱的范圍內(nèi)兜轉(zhuǎn),無法為相對人所實質(zhì)理解;二是人工智能算法的運行是一種“概率統(tǒng)計”邏輯[23],即便通過在自然語言下對算法功能進行解釋,其所揭示的僅是導(dǎo)入數(shù)據(jù)和決策結(jié)果之間的相關(guān)關(guān)系,難以滿足揭示技術(shù)行為和決策結(jié)果之間因果關(guān)系的說理性要求;三是由于相對人對算法技術(shù)應(yīng)用于行政活動的天然不信任,無論對算法決策進行何種解釋以及達到怎樣效果,都難以在影響個人權(quán)益時拭去相對人的主觀質(zhì)疑。
自動化行政中算法決策拒絕權(quán)的功能特征在與上述權(quán)利的對比中得以彰顯。相較于針對個人信息處理行為的限制權(quán)、更正權(quán)和刪除權(quán),算法決策拒絕權(quán)的權(quán)利對象直接為算法決策方式,這意味著該權(quán)利的行使場景并不局限于自動化行政的信息收集環(huán)節(jié),而是基于保護個人權(quán)益的目的關(guān)注整個算法決策過程。相較于針對算法決策的要求說明權(quán),由于要求對算法決策予以說明并非拒絕算法決策的必要前提,相對人可以直接行使算法決策拒絕權(quán),規(guī)避算法解釋的技術(shù)可行性和設(shè)置必要性爭議,從而將其意志控制范圍擴展到影響算法決策方式能否應(yīng)用,進而對算法決策方式和結(jié)果起到?jīng)Q定性作用。當然,針對個人信息處理行為的各項新型權(quán)利以及對算法決策的要求說明權(quán)都有其特定的權(quán)利功能和行使場景,將算法決策拒絕權(quán)與二者進行比較的目的,并非否定二者的作用,而是意在描述算法決策拒絕權(quán)的功能,從而豐富相對人在自動化行政中應(yīng)對算法決策方式的權(quán)利體系。
三、自動化行政中算法決策拒絕權(quán)的屬性
在面對算法決策的異化風(fēng)險時,通過個人信息權(quán)益保護到算法決策行為規(guī)制的模式轉(zhuǎn)變,并采取“行為規(guī)制權(quán)利化”[24]的技術(shù)路徑,在個人信息權(quán)益擴大到個人權(quán)益的保護基礎(chǔ)上,《個人信息保護法》賦予個人以算法決策拒絕權(quán),并與要求說明權(quán)等組成個人應(yīng)對算法決策的權(quán)利體系。在個人信息保護領(lǐng)域,這些權(quán)利確保個人能夠參與到個人信息處理活動中[25]。而當算法拒絕權(quán)被引入行政領(lǐng)域時,其既表現(xiàn)出相對人能夠參與自動化行政活動的程序?qū)傩?,也表現(xiàn)出相對人能夠主動選擇決策方式的積極屬性。
(一)算法決策拒絕權(quán)的程序?qū)傩?/p>
為了確保相對人請求的實質(zhì)化和實效性,需要通過行政法律規(guī)范構(gòu)建規(guī)范行政主體活動的客觀行政秩序,其中就包括具有約束功能的行政程序。在傳統(tǒng)行政法治中,相對人的參與性與互動性要求,通過包含行政公開、陳述意見、說明理由等具體內(nèi)容的法定程序裝置實現(xiàn)。而從動態(tài)意義上來看,法律程序是當事人特定程序權(quán)利義務(wù)的實現(xiàn)過程,因而從中產(chǎn)生相對人的知情權(quán)、陳述權(quán)、申辯權(quán)和聽證權(quán)等程序性權(quán)利[26]。
隨著數(shù)字技術(shù)對行政系統(tǒng)的改造,約束行政行為和保障相對人權(quán)益的傳統(tǒng)行政程序出現(xiàn)適用性障礙,給相對人通過程序裝置行使程序性權(quán)利造成困境[27]。為了平衡技術(shù)要素導(dǎo)致的行政權(quán)力和相對人權(quán)利的失衡狀態(tài),自動化行政中的技術(shù)程序愈發(fā)受到關(guān)注,被視作克服傳統(tǒng)行政程序?qū)λ惴Q策規(guī)制不足的突破口。其中,圍繞技術(shù)程序的規(guī)制路徑為:通過對算法技術(shù)程序的功能優(yōu)化,提高自動化行政的公開性與透明性,使之達到技術(shù)程序正當化標準[28]。在技術(shù)程序正當化的基礎(chǔ)上,將行政規(guī)范中的法定程序要求內(nèi)化為對算法決策的技術(shù)規(guī)范要求,并通過行政規(guī)范的認定使技術(shù)規(guī)范得以法律化,運用法律規(guī)則來增強技術(shù)規(guī)范的合法性與強制力[29]。
行政決策的自動化,源于提升行政效率和服務(wù)的算法應(yīng)用價值,以及在人工智能環(huán)境下的算法技術(shù)變革,而自動化行政方式擴展到某一具體行政場景的動機,更多的是出于行政機關(guān)在大數(shù)據(jù)環(huán)境下履行行政職責的需要。但算法的技術(shù)優(yōu)勢不僅要體現(xiàn)在行政機關(guān)完成行政任務(wù)的單方需求中,還要適應(yīng)相對人在行政活動中的身份地位與利益訴求,能夠發(fā)揮減輕相對人負擔的便民效果。然而,當算法決策方式的應(yīng)用未考慮相對人的客觀能力與主觀意愿時,將會給相對人帶來現(xiàn)實處境和主觀心理方面的負面效果。因此,相對人享有拒絕算法決策的程序性權(quán)利,并能夠通過自動化行政中拒絕算法決策的程序規(guī)則加以實現(xiàn)。
規(guī)制算法決策的目的從保護個人信息權(quán)益到個人權(quán)益的延伸,為相對人通過行使算法決策拒絕權(quán)來維護自身合法權(quán)益奠定了基礎(chǔ)。算法決策拒絕權(quán)作為相對人參與自動化行政的程序性權(quán)利,通過程序性裝置發(fā)揮著對抗得到算法權(quán)力增強的行政權(quán)力,以實現(xiàn)在維護與救濟相對人實體性利益方面的工具性價值。算法決策作為行政決策的方式轉(zhuǎn)變,當通過其作出的行政行為在客觀上仍可歸屬于具體的行政主體[1],或被確認為行政機關(guān)“自己的”行政行為時[30]438,并未超出行政法治的控權(quán)范圍,但可能產(chǎn)生不同的行為結(jié)果。為避免算法決策中隱含的算法弊端對相對人實體權(quán)益造成不公正影響,相對人通過行使算法決策拒絕權(quán),為自動化行政中的個人權(quán)益尋求程序性保護。
算法決策拒絕權(quán)的配置與行使,體現(xiàn)了相對人在面對算法決策方式時的主體地位。即便該權(quán)利本身并未給相對人增添人身性或財產(chǎn)性的實體性利益,但僅認可算法決策拒絕權(quán)能夠保障實體權(quán)益的工具價值,未能揭示其程序?qū)傩缘谋倔w價值,這將在自動化行政中形成對該權(quán)利主張、行使和保障的輕視氛圍。在程序正義理論中,行政程序具有獨立于實體結(jié)果的公正、平等、參與等程序價值。同樣,程序性權(quán)利行使過程中體現(xiàn)的交往理性,使其擺脫對相對人實體利益的依附性而具有獨立地位[31]120,這其中蘊含著維護程序利益和表達自由意志的獨立功能。就自動化行政中的算法決策拒絕權(quán)而言,該權(quán)利表達了相對人拒絕算法決策的程序主張,能夠發(fā)揮從相對人立場批判算法決策的功能,促使行政機關(guān)反思對算法決策的選擇及其效果,從而尊重與保障相對人的程序利益。
(二)算法決策拒絕權(quán)的積極屬性
相對人依據(jù)《個人信息保護法》而享有的算法決策拒絕權(quán),在公法領(lǐng)域的自動化行政中同樣適用。這意味行政機關(guān)在適用算法決策方式時,需要通過創(chuàng)制或改造的客觀程序規(guī)則,將算法決策拒絕權(quán)納入相對人的程序性權(quán)利體系。由于行政法律關(guān)系中行政主體的優(yōu)先權(quán)和強制力,相對人被迫放棄建立在實體性權(quán)益之上的自衛(wèi)權(quán),通過程序性權(quán)利的防御功能對抗來自行政權(quán)力的侵害[32]15。算法決策拒絕權(quán)體現(xiàn)的相對人消極地位,對應(yīng)著行政機關(guān)應(yīng)當履行尊重該權(quán)利的消極義務(wù),即禁止于相對人算法決策拒絕權(quán)之上強加未經(jīng)法律規(guī)范認可的否定性或限制性的命令與強制[33]92。
現(xiàn)代行政廣泛地建立在個人利益基礎(chǔ)之上,相對人擁有區(qū)別于反射性利益的要求行政機關(guān)履行義務(wù)的法律請求權(quán)[34]154。因此,算法決策拒絕權(quán)不僅包括不受行政機關(guān)妨害的消極地位,而且呈現(xiàn)出在受到妨害時請求利益實現(xiàn)和法律保護的積極屬性。在自動化行政中,對算法決策拒絕權(quán)的妨害具體表現(xiàn)為:一方面,嵌入自動化行政中的算法決策方式,使得行政任務(wù)在相對人不知情的情況下瞬時完成,行政機關(guān)對于公開義務(wù)與告知義務(wù)的履行懈怠,阻礙著相對人算法決策拒絕權(quán)的行使;另一方面,出于方便行政任務(wù)的單方需求,行政機關(guān)在行政過程或技術(shù)程序中對相對人拒絕方式進行限定與變相強制,干預(yù)相對人行使算法決策拒絕權(quán)的自愿心理,從而使相對人被動地放棄權(quán)利。
作為程序性權(quán)利的算法決策拒絕權(quán),蘊含著相對人獨立的程序性利益,與之對應(yīng)的是行政機關(guān)提供拒絕方式和設(shè)置相應(yīng)程序的義務(wù)。相對人能夠主動要求行政機關(guān)履行程序義務(wù)和遵循程序規(guī)范,通過拒絕算法決策的程序性調(diào)整,有效制約得到算法技術(shù)增強的行政權(quán)力的恣意運行。此外,根據(jù)《中華人民共和國行政復(fù)議法》和《中華人民共和國行政訴訟法》的規(guī)定,違反法定程序是行政行為的違法情形之一。因此,通過程序裝置實施的程序性權(quán)利在法律規(guī)范上被賦予了救濟可能性。當行政權(quán)限和程序中制度性的自我統(tǒng)制裝置被破壞時,相對人拒絕算法決策的程序性利益無法得到滿足抑或受到侵害,對于算法決策拒絕權(quán)的保護將成為相對人通過行政復(fù)議與行政訴訟進行權(quán)利救濟的契機[32]15。
配置算法決策拒絕權(quán)的預(yù)設(shè)前提是行政主體單方?jīng)Q定采用算法決策方式,預(yù)設(shè)過程是相對人通過拒絕與否的方式表達對算法決策的應(yīng)用態(tài)度,預(yù)設(shè)結(jié)果是通過否認算法決策的應(yīng)用以引入人工決策方式。然而,這一套算法決策拒絕權(quán)的預(yù)設(shè)邏輯存在問題。一方面,相對人出于算法弊端或選擇意志而行使算法決策拒絕權(quán),建立在行政主體應(yīng)用算法決策方式的基礎(chǔ)之上,因而該權(quán)利并未在行政機關(guān)選用算法決策方式時發(fā)揮功能。這意味著在自動化行政的瞬時性特征下,算法決策拒絕權(quán)演變成只針對算法決策結(jié)果的拒絕權(quán)。另一方面,即便相對人能夠在自動化行政過程中積極行使算法決策拒絕權(quán),但“拒絕”體現(xiàn)出消極與被動的行為內(nèi)涵,其并不等同于默示同意或主動選擇。相反,只有在直接與正面的意思表達而非被動拒絕中才能體現(xiàn)相對人的同意與選擇[35]。換言之,相對人的拒絕行為并不能顯示其選擇算法決策方式的自由意志,也并不必然包含對人工決策方式的主動訴求。因此,分析相對人算法決策拒絕權(quán)的屬性,不僅需要強調(diào)權(quán)利行使中的積極屬性,也需要拓展權(quán)利內(nèi)涵中的積極屬性,在自動化行政興起、算法決策方式和人工決策方式并存的背景下,使相對人能夠通過算法決策拒絕權(quán),達到對行政決策方式積極選擇的效果。
自動化行政中的算法決策拒絕權(quán)肇始于個人信息保護領(lǐng)域,個人信息處理必須經(jīng)個人充分知情并取得其同意的“知情同意原則”,被視作該領(lǐng)域的“帝王條款”[36]58。這一原則產(chǎn)生于醫(yī)學(xué)領(lǐng)域,是指患者在充分知情和理解醫(yī)護人員披露相關(guān)醫(yī)療信息的基礎(chǔ)上,作出是否接受治療的決定。正如從醫(yī)學(xué)領(lǐng)域推廣適用到個人信息保護領(lǐng)域,自動化行政領(lǐng)域中的算法決策方式也需要符合知情同意原則,并通過制定算法決策的知情同意規(guī)則,來滿足相對人的知情同意需求[37]。在數(shù)據(jù)與算法驅(qū)動的自動化行政中,行政行為與個人信息行為處理高度契合,相對人享有的算法決策拒絕權(quán),也應(yīng)以“知情同意”為前提。在對算法決策方式充分知情的基礎(chǔ)上,算法決策拒絕權(quán)的拒絕對象能夠從算法決策結(jié)果延伸到算法決策程序,因而權(quán)利行使場景從算法決策后的結(jié)果輸出環(huán)節(jié),擴展到包含信息輸入環(huán)節(jié)、算法分析環(huán)節(jié)和結(jié)果輸出環(huán)節(jié)的自動化行政全流程。在自動化行政的算法決策中貫徹知情同意原則,意在將適用算法決策的正當性建立在相對人的同意基礎(chǔ)之上[38],通過清晰和明確的同意,算法決策拒絕權(quán)的內(nèi)涵從對算法決策方式的被動拒絕轉(zhuǎn)變?yōu)榉e極選擇,真正發(fā)揮其作為一項權(quán)利而非相對人義務(wù)的功能,從而減輕行政機關(guān)施加給相對人對算法決策方式的風(fēng)險控制負擔,形成對相對人權(quán)益的強保護[39]。
四、自動化行政中算法決策拒絕權(quán)的行使規(guī)則
從《個人信息保護法》規(guī)制算法決策的規(guī)范分析,以及其在行政領(lǐng)域中的適用性出發(fā),可以實現(xiàn)自動化行政中算法決策拒絕權(quán)從新型權(quán)利到法定權(quán)利的證成。但對算法決策拒絕權(quán)內(nèi)容的探討,并未超越其作為相對人應(yīng)然權(quán)利的理想化狀態(tài),也未能實現(xiàn)從權(quán)利享有到權(quán)利行使的過渡。因此,將算法決策拒絕權(quán)轉(zhuǎn)變?yōu)橄鄬θ说膶嵢粰?quán)利,需要結(jié)合算法決策拒絕權(quán)能夠保障相對人參與,并在設(shè)置與改造的程序裝置中予以實現(xiàn)的程序?qū)傩?,以及在?quán)利地位上能夠請求利益實現(xiàn)與法律保護,并在權(quán)利內(nèi)涵上能夠主動選擇的積極屬性,構(gòu)建在自動化行政不同環(huán)節(jié)的具有即時性特征的權(quán)利行使規(guī)則。
(一)算法決策方式的選擇規(guī)則
信息輸入環(huán)節(jié)是從技術(shù)程序視角下拆分自動化行政后得出的首個環(huán)節(jié),此時行政系統(tǒng)通過技術(shù)設(shè)備進行信息收集或通過政府平臺進行信息共享,完成算法決策前的信息準備。若信息輸入環(huán)節(jié)是在相對人不知情的情況下進行的,相對人就無法獲知自動化行政開展的必要事項內(nèi)容,無法監(jiān)督和判斷對其個人信息的處理是否符合必要性限度。作為算法決策前的環(huán)節(jié),秘密進行的信息輸入過程將導(dǎo)致相對人算法決策拒絕權(quán)的落空,無法發(fā)揮該權(quán)利的防御性價值,難以通過權(quán)利行使來影響行政主體的決策方式。因此,從自動化行政的信息輸入到算法分析,需要人為在環(huán)節(jié)過渡之間架設(shè)程序公開與告知環(huán)節(jié),以滿足相對人對行政活動所獲取信息和行政主體所采取方式的知情和同意需求。
根據(jù)《個人信息保護法》第二十四條第二款的規(guī)定【《個人信息保護法》第二十四條第二款:通過自動化決策方式向個人進行信息推送、商業(yè)營銷,應(yīng)當同時提供不針對其個人特征的選項,或者向個人提供便捷的拒絕方式?!浚瑐€人信息處理者在應(yīng)用算法決策時,需要履行“同時提供不針對其個人特征的選項”或“向個人提供便捷的拒絕方式”的義務(wù),前者已有將規(guī)制算法決策的反對性內(nèi)涵轉(zhuǎn)變?yōu)檫x擇性功能的趨勢,即個人有權(quán)在個人信息處理者提供的針對其個人特征和不針對其個人特征的選項中進行選擇。沿此思路出發(fā),在行政領(lǐng)域中,具體行政行為建立在相對人利益之上,因此難以區(qū)分針對個人特征或不針對個人特征的選項,但相對人的算法決策拒絕權(quán)可以延伸為對算法決策方式和人工決策方式的選擇權(quán)利,即由行政機關(guān)在決策方式上提供算法決策和人工決策的選項,由相對人根據(jù)其主觀意愿和客觀能力進行選擇。此時,相對人能夠擺脫行政主體單方?jīng)Q定算法決策應(yīng)用時的被動地位,既可以出于效率等技術(shù)優(yōu)勢考慮而適用算法決策方式,也可以從信息安全等角度出發(fā)而選擇人工決策方式[40]。
對于決策方式的公開或告知,應(yīng)當成為自動化行政中后續(xù)程序進行的必要條件,行政機關(guān)需要以獲得相對人對決策方式的選擇或?qū)λ惴Q策的同意,作為其行政行為的正當性基礎(chǔ)。為保障相對人知情的充分性和實質(zhì)化,需要將行政公開、說明理由和聽取意見的法定程序要求內(nèi)化為算法透明與算法解釋的技術(shù)規(guī)范要求,通過技術(shù)程序正當化來增強相對人選擇決策方式的認知水平。在對決策方式充分知情的前提下,相對人行使算法決策拒絕權(quán)來選擇行政決策方式,應(yīng)當在預(yù)設(shè)的時間范圍內(nèi)進行,一旦超出這一時間范圍,權(quán)利將喪失原有意義[41]。超過行使期限的算法決策拒絕權(quán)所產(chǎn)生的變化,表現(xiàn)為從相對人選擇決策方式的主動性,轉(zhuǎn)變?yōu)閷π姓C關(guān)所適用決策方式的服從性,并最終達到在知情基礎(chǔ)上默示同意的效果。
(二)算法決策過程的脫離規(guī)則
當自動化行政的程序從信息輸入環(huán)節(jié)順利過渡到算法分析環(huán)節(jié),意味著相對人已通過明示或默示方式行使了算法決策拒絕權(quán),發(fā)揮其選擇權(quán)能而適用算法決策方式。但所要構(gòu)建的算法決策拒絕權(quán)行使規(guī)則,應(yīng)使該權(quán)利的行使具有動態(tài)化與即時性,能夠在自動化行政全流程中發(fā)揮長效作用機制。因此,相對人可以在算法分析過程中主張要求脫離算法決策方式。但相較于信息輸入環(huán)節(jié),算法分析環(huán)節(jié)中算法決策拒絕權(quán)的行使,不再僅是建立在相對人的主觀意愿之上,還需要自動化行政中出現(xiàn)客觀違法事由。此時,算法決策方式尚未得出于相對人而言具有終局性效果的結(jié)論,并未產(chǎn)生有關(guān)其實體利益的決定性影響。因此,相對人拒絕算法決策的主要依據(jù)為算法分析過程中可能存在的程序性違法事由,表現(xiàn)為對相對人知情、陳述、申辯和聽證等程序性權(quán)利的損害。
在自動化行政的信息輸入環(huán)節(jié),相對人行使算法決策拒絕權(quán)建立在對決策方式的充分知情基礎(chǔ)上,然而一旦行政機關(guān)所披露內(nèi)容出現(xiàn)片面與錯誤,將在適用算法決策方式進行算法分析的過程中引發(fā)連鎖反應(yīng)。在算法分析環(huán)節(jié),相對人可以向行政機關(guān)積極表達意見,并有權(quán)要求就算法決策方式作出進一步公開和說理,從而在該環(huán)節(jié)中架設(shè)行政機關(guān)與相對人之間的信息溝通機制[42]。這既是作為對信息輸入環(huán)節(jié)中相對人認知算法決策方式的內(nèi)容補充,也是作為在算法分析過程中相對人脫離算法決策方式的前置條件與必要步驟,從而在通過一系列程序性權(quán)利的積極主張和有效行使后,使相對人能夠在自動化行政中表達利益訴求,消弭算法決策可能對相對人權(quán)益產(chǎn)生的負面效應(yīng)。
當選擇算法決策時的程序性利益未能在算法分析環(huán)節(jié)得到彌補,或是適用算法決策過程中程序性權(quán)利受到侵害,相對人可以行使算法決策拒絕權(quán),主張對算法決策方式的脫離。脫離意味著在程序權(quán)益受損或算法風(fēng)險存在的情況下,相對人要求行政機關(guān)停止算法決策方式。而考慮到行政活動仍需繼續(xù)進行,脫離算法決策方式的進階效果是將決策方式變更為人工決策,通過申請人工介入形成對算法決策的替代或修正。即便在保障公正、效率與準確等功能方面人工干預(yù)并不一定能發(fā)揮更好的效果[43],但將完全自動化行政轉(zhuǎn)變?yōu)椴糠肿詣踊姓饶軌蜃尲夹g(shù)要素繼續(xù)發(fā)揮輔助性功能,也可以增強相對人對行政活動的信任。
(三)算法決策結(jié)果的抵抗規(guī)則
通過瞬時完成輸入信息到輸出結(jié)果的時間性能力,以及減少與相對人物理接觸的空間性能力,算法決策方式彰顯效率優(yōu)勢。因此,最終呈現(xiàn)在相對人面前的多為算法決策后的結(jié)果。當在信息輸入和算法分析環(huán)節(jié),相對人未能有效行使算法決策拒絕權(quán)脫離算法操控,對于算法決策結(jié)果的抵抗可以作為行政過程中消除算法決策風(fēng)險的又一重保障措施。
在傳統(tǒng)行政法理論中,相對人享有對無效行政行為的抵抗權(quán)[44]。當行政行為出現(xiàn)重大且明顯瑕疵時,該行政行為自始至終不發(fā)生法律效力,即喪失其自作出就推定合法有效的公定力,成為無效行政行為[45]。一旦行政行為無公定力,相對人不必先行服從,因此可以進行抵抗。這是在相對人通過行政復(fù)議或行政訴訟救濟自身權(quán)益前設(shè)置的一種權(quán)益保障方式,但出于維護行政主體權(quán)威性和行政行為功能性的考慮,相對人能夠抵抗的范圍僅針對行政主體的無效行政行為。
若以無效行政行為理論為算法決策拒絕權(quán)的理論基礎(chǔ),將限制相對人抵抗算法決策的范圍。在個人信息保護領(lǐng)域中,信息自決權(quán)理論是個人抵抗算法決策的理論依據(jù)。信息自決權(quán)理論強調(diào)信息主體對其信息的積極控制,信息主體具有決定其信息處理時間、地點與方式的能力,從而能夠防御國家對其信息的不當干預(yù)與操縱[46]。因此,借助信息自決權(quán)理論,相對人能夠抵抗通過處理信息實現(xiàn)的自動化行政行為。但追溯信息自決權(quán)的起源,德國1983年“人口普查案”的憲法判決主張,在自動化處理面前并不存在不重要的個人信息,此時個人對所有信息都享有支配權(quán)[47]。這將導(dǎo)致信息自決權(quán)在自動化處理中的絕對化傾向。因此,以信息自決權(quán)理論作為自動化行政中相對人抵抗算法決策結(jié)果的理論依據(jù),又將極大地泛化抵抗范圍。
在自動化行政中,算法決策蘊含的算法權(quán)力是傳統(tǒng)權(quán)力與技術(shù)權(quán)力的結(jié)合,算法的自主性令算法決策中甚至存在行政主體都難以控制的外來影響和技術(shù)因素[17]。經(jīng)由算法決策方式呈現(xiàn)的行政行為,即便是一般性違法,也并非行政主體應(yīng)用算法進行決策的初衷。然而,通過算法決策作出的合法行政行為,又是自動化行政領(lǐng)域中技術(shù)優(yōu)勢的體現(xiàn)。因此,區(qū)別于傳統(tǒng)行政中對無效行政行為的抵抗,在自動化行政中,相對人行使算法決策拒絕權(quán)而對算法決策結(jié)果予以抵抗的范圍,包括由算法決策方式作出的所有違法行政行為。此舉既可以形成相對人在面對違法行政行為時的初步防御機制,來獲得及時和正確的行政決策結(jié)果,又能夠喚起行政主體對算法決策錯誤結(jié)果的自我糾正程序,以調(diào)適高效率追求下的公正性問題。
為使相對人對算法決策結(jié)果的抵抗得到行政主體的有效答復(fù),避免演化出采取激進方式進行抵抗的負面影響[48],在自動化行政的結(jié)果輸出環(huán)節(jié)應(yīng)當設(shè)置回應(yīng)算法決策拒絕權(quán)的行政程序。相對人在拒絕算法決策結(jié)果的同時,可以要求行政機關(guān)暫停自動化行政行為并對此予以說明。雖然相對人可對算法決策形成的所有違法行政行為予以抵抗,但是抵抗的效果將根據(jù)行政行為的違法程度而有所區(qū)分。當算法決策過程僅具有輕微的程序違法,如忽視相對人的公開請求,并未影響實體結(jié)果的正確性,出于程序經(jīng)濟的考慮,可以在事后對算法決策過程中的瑕疵內(nèi)容予以補正[49]94。而一旦算法決策中出現(xiàn)重大且明顯的程序違法,如將歧視性內(nèi)容引入算法決策中,此時行政機關(guān)應(yīng)當以人工決策方式替代算法決策方式,重啟行政程序并重新作出行政行為。
五、結(jié) 語
伴隨數(shù)字技術(shù)的自身發(fā)展及其被引入行政領(lǐng)域,行政決策迎來從自然人決策到算法決策的模式轉(zhuǎn)變。在充分發(fā)揮算法決策帶來的技術(shù)優(yōu)勢之余,還需要警惕與治理其對行政法治的技術(shù)挑戰(zhàn)。以算法決策拒絕權(quán)為代表的賦權(quán)路徑能夠豐富相對人在數(shù)字時代的權(quán)利體系,對抗與平衡得到算法權(quán)力增強的行政權(quán)力。通過構(gòu)建與完善算法決策拒絕權(quán)在自動化行政過程中的行使規(guī)則,相對人能夠在信息輸入環(huán)節(jié)選擇算法決策方式,在算法分析環(huán)節(jié)脫離算法決策過程,在結(jié)果輸出環(huán)節(jié)抵抗算法決策結(jié)果,充分發(fā)揮算法決策拒絕權(quán)的防范算法技術(shù)風(fēng)險與保障自身合法權(quán)益的功能。
將算法決策拒絕權(quán)應(yīng)用到自動化行政并作為相對人的公法權(quán)利,符合《個人信息保護法》在行政領(lǐng)域的適用性及其規(guī)范算法決策的功能性。但將拒絕算法決策放置在行政程序中并予以權(quán)利化的改造,在當前至少還面臨著如下難題:第一,無論是在個人信息保護領(lǐng)域還是自動化行政領(lǐng)域,算法決策拒絕權(quán)僅是得到規(guī)范證成,但具體的行使規(guī)則仍有待立法回應(yīng)。第二,在自動化行政中,算法決策拒絕權(quán)作為相對人享有的程序性權(quán)利,僅具有權(quán)利化的名義而并不具備完整的權(quán)利形態(tài),實質(zhì)上屬于在行政程序中被賦予的權(quán)能,而尚未達到權(quán)利地位,尤其表現(xiàn)為缺失作為獨立訴求而請求法律保護的功能。第三,當個人權(quán)利和公共利益之間出現(xiàn)緊張關(guān)系時,就會產(chǎn)生限制權(quán)利的討論。近年來,算法決策方式的巨大推動力為突發(fā)事件中的技術(shù)治理需求,此時相對人行使算法決策拒絕權(quán)將不利于有效預(yù)防、及時控制和消除風(fēng)險與危害,并與相對人在應(yīng)急狀態(tài)下所需承擔的配合義務(wù)和風(fēng)險責任相悖。因此,當出現(xiàn)突發(fā)公共事件時,常態(tài)下的算法決策拒絕權(quán)將被限制。當然,對相對人算法決策拒絕權(quán)的限制不僅要求具有正當化目的,還需要合法化依據(jù)與合理化手段。這些算法決策拒絕權(quán)所面臨的難題,或需要獲得法治實踐的回應(yīng),或有待進一步展開研究。
參考文獻:
[1] 展鵬賀.數(shù)字化行政方式的權(quán)力正當性檢視[J].中國法學(xué),2021(3):114-138.
[2] 馬顏昕.自動化行政的分級與法律控制變革[J].行政法學(xué)研究,2019(1):80-92.
[3] 程嘯.十大亮點彰顯個人信息全面保護[J].法治與社會,2021(11):48-50.
[4] 程關(guān)松.個人信息保護的中國權(quán)利話語[J].法學(xué)家,2019(5):17-30,191-192.
[5] 王錫鋅.個人信息國家保護義務(wù)及展開[J].中國法學(xué),2021(1):145-166.
[6] 卡洛,弗魯姆金,克爾.人工智能與法律的對話[M].陳吉棟,董慧敏,杭穎穎,譯.上海:上海人民出版社,2018.
[7] 蔣紅珍.《個人信息保護法》中的行政監(jiān)管[J].中國法律評論,2021(5):48-58.
[8] 韓旭至.認真對待數(shù)字社會的個人拒絕權(quán)[J].華東政法大學(xué)學(xué)報,2023(1):22-34.
[9] 藍江.智能算法下人的數(shù)字異化與生存變革[J].人民論壇,2021(Z1):20-22.
[10] 張恩典.人工智能算法決策對行政法治的挑戰(zhàn)及制度因應(yīng)[J].行政法學(xué)研究,2020(4):34-45.
[11] 鄭玉雙.破解技術(shù)中立難題——法律與科技之關(guān)系的法理學(xué)再思[J].華東政法大學(xué)學(xué)報,2018 (1):85-97.
[12] 洪丹娜.算法歧視的憲法價值調(diào)適:基于人的尊嚴[J].政治與法律,2020(8):27-37.
[13] 曹博.算法歧視的類型界分與規(guī)制范式重構(gòu)[J].現(xiàn)代法學(xué),2021(4):115-126.
[14] 程關(guān)松.論民主制行政法治范式[J].武漢大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2009(1):22-27.
[15] CITRON D K, PASQUALE F. The scored society: due process for automated predictions[J]. Washington Law Review, 2014, 89(1): 1-33.
[16] 謝明睿,余凌云.技術(shù)賦能交警非現(xiàn)場執(zhí)法對行政程序的挑戰(zhàn)及完善[J].法學(xué)雜志,2021(3): 48-58.
[17] 蔡星月.算法決策權(quán)的異化及其矯正[J].政法論壇,2021(5):25-37.
[18] 陳曉勤.公共行政領(lǐng)域中的個人信息保護[J].法學(xué)雜志,2013(10):134-140.
[19] 唐林垚.《個人信息保護法》語境下“免受算法支配權(quán)”的實現(xiàn)路徑與內(nèi)涵辨析[J].湖北社會科學(xué),2021(3):134-142.
[20] 唐林垚.“脫離算法自動化決策權(quán)”的虛幻承諾[J].東方法學(xué),2020(6):18-33.
[21] STOHL C, STOHL M, LEONARDI P M. Digital age managing opacity: Information visibility and the paradox of transparency in the digital age[J]. International Journal of Communication, 2016(10):123-134.
[22] 辛巧巧.算法解釋權(quán)質(zhì)疑[J].求是學(xué)刊,2021(3): 100-109.
[23] 鄭智航.人工智能算法的倫理危機與法律規(guī)制[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2021(1):14-26.
[24] 呂炳斌.個人信息權(quán)作為民事權(quán)利之證成:以知識產(chǎn)權(quán)為參照[J].中國法學(xué),2019(4):44-65.
[25] 丁曉東.基于信任的自動化決策:算法解釋權(quán)的原理反思與制度重構(gòu)[J].中國法學(xué),2022(1):99-118.
[26] 王錫鋅.行政過程中相對人程序性權(quán)利研究[J].中國法學(xué),2001(4):75-90.
[27] 劉東亮.技術(shù)性正當程序:人工智能時代程序法和算法的雙重變奏[J].比較法研究,2020(5):64-79.
[28] CITRON D K. Technological due process[J]. Washington University Law Review, 2007, 85(6): 1249-1313.
[29] 程關(guān)松,苗運衛(wèi).相對人參與算法行政的困境與出路[J].東南法學(xué),2021(2):43-57.
[30] 毛雷爾.行政法學(xué)總論[M].高家偉,譯.北京:法律出版社,2000.
[31] 哈貝馬斯.交往行為理論[M].曹衛(wèi)東,譯.上海:上海人民出版社,2004.
[32] 孫祥生.程序性基本權(quán)利法律保障研究[M].北京:法律出版社,2018.
[33] 耶利內(nèi)克.主觀公法權(quán)利體系[M].曾韜,譯.北京:中國政法大學(xué)出版,2012.
[34] 小早川光郎.行政訴訟的構(gòu)造分析[M].王天華,譯.北京:中國政法大學(xué)出版社,2014.
[35] KOSTA E. Construing the meaning of Opt-Out-An analysis of the European, UK and German Data Protection Legislation[J].European Data Protection Law Review, 2015(1): 16-31.
[36] 齊愛民. 信息法原論[M]. 武漢: 武漢大學(xué)出版社,2010.
[37] 楊立新,趙鑫.利用個人信息自動化決策的知情同意規(guī)則及保障——以個性化廣告為視角解讀《個人信息保護法》第24條規(guī)定[J].法律適用,2021(10):22-37.
[38] SU J. Google book search and Opt-Out procedures[J]. Journal of the Copyright Society of the USA, 2008, 56(4): 947-965.
[39] 馮愷.個人信息“選擇退出”機制的檢視和反思[J].環(huán)球法律評論,2020(4):148-165.
[40] 宋華琳.電子政務(wù)背景下行政許可程序的革新[J].當代法學(xué),2020(1):79-88.
[41] 熊賴虎.時間觀與法律[J].中外法學(xué),2011(4):681-694.
[42] 張凌寒.算法自動化決策與行政正當程序制度的沖突與調(diào)和[J].東方法學(xué),2020(6):4-17.
[43] 張欣.免受自動化決策約束權(quán)的制度邏輯與本土構(gòu)建[J].華東政法大學(xué)學(xué)報,2021(5):27-40.
[44] 王錫鋅.行政行為無效理論與相對人抵抗權(quán)問題探討[J].法學(xué),2001(10):16-20.
[45] 南博方.行政法[M].楊建順,譯.北京:商務(wù)印書館,2020.
[46] 趙宏.信息自決權(quán)在我國的保護現(xiàn)狀及其立法趨勢前瞻[J].中國法律評論,2017(1):147-161.
[47] 楊芳.個人信息自決權(quán)理論及其檢討——兼論個人信息保護法之保護客體[J].比較法研究,2015(6):22-33.
[48] 張旭勇.權(quán)利保護的法治限度——無效行政行為理論與制度的反思[J].法學(xué),2010(9):111-121.
[49] 沃爾夫,巴霍夫,施托貝爾.行政法:第2卷[M].高家偉,譯.北京:商務(wù)印書館,2002.
On the Right to Refusing Algorithmic Decision-making in Automated Administration
MIAO Yunwei
(School of Law, Southeast University, Nanjing 211189, Jiangsu, China)
Abstract:Article 24 (3) of Personal Information Protection Law in China transforms the protection of personal information interests into the behavioral regulation of algorithmic decision-making, and gives individuals the right to refusing algorithmic decision-making. Based on the public law attribute of the law and its applicability in the administrative field, the counterpart enjoys the right to refuse algorithmic decision-making in the automated administrative mode. In terms of the technical challenges posed by algorithmic decision-making methods to the rule of administrative law, the right to refuse algorithmic decision-making can enrich the counterparts rights system in automated administration and plays a role in combating algorithmic decision-making alienation. The right to refuse algorithmic decision-making has the procedural attribute of ensuring relative participation in automated administrative processes and implementing them in the set up and modified procedural devices, as well as the positive attributes of being able to request benefits and legal protection in terms of rights status and actively choose the content of rights. To realize the counterparts right to refuse algorithmic decision-making, it is necessary to combine the procedural attribute with positive attribute of the right to construct the exercise rules with immediate characteristics in different links of automated administration, including the selection rules of algorithmic decision-making methods, the separation rules of algorithmic decision-making processes and the resistance rules of algorithmic decision-making results.
Key words: automated administration; algorithmic decision-making; right to refuse algorithmic decision-making; personal information protection