□陳 亮,薛 茜
(1.西南政法大學(xué) 人工智能法學(xué)院,重慶401120;2.西南政法大學(xué) 經(jīng)濟(jì)法學(xué)院,重慶401120)
隨著人工智能技術(shù)的不斷發(fā)展,行政決策交由人工智能處理的場(chǎng)景日趨廣泛。當(dāng)下,多地政府開(kāi)始借鑒企業(yè)的經(jīng)驗(yàn),將大數(shù)據(jù)、區(qū)塊鏈等智能技術(shù)應(yīng)用于行政審批、公共管理、生態(tài)環(huán)境保護(hù)、應(yīng)急管理等多個(gè)公共領(lǐng)域。在國(guó)內(nèi),典型代表如天津市建立的“政務(wù)一網(wǎng)通”政務(wù)服務(wù)平臺(tái)、深圳市的“落戶秒批”以及百分百公司最新推出的智能政府決策系統(tǒng)(Deep Governor)。在域外,如在美國(guó),通過(guò)檢索和收集天氣預(yù)報(bào)中的實(shí)時(shí)天氣信息,利用人工神經(jīng)網(wǎng)絡(luò)技術(shù)能有效提升灌溉用水需求的預(yù)測(cè)精準(zhǔn)度,為政府部門(mén)合理安排灌溉水資源提供科學(xué)支撐[1](p163)。與商業(yè)決策不同,在公共領(lǐng)域應(yīng)用算法決策具有利用機(jī)器的智能性來(lái)提升行政治理效能以及利用技術(shù)的中立性來(lái)防止行政恣意的雙重目的。但由于技術(shù)的兩面性,算法決策所帶來(lái)的算法歧視、算法獨(dú)裁、算法黑箱等固有“基因”也為現(xiàn)行法律制度帶來(lái)了挑戰(zhàn)。目前,行政決策領(lǐng)域面對(duì)人工智能技術(shù)的強(qiáng)勢(shì)融入導(dǎo)致現(xiàn)行行政法中的正當(dāng)程序原則被架空。正當(dāng)程序作為行政法的一項(xiàng)基本原則承載著現(xiàn)代行政程序的基本價(jià)值追求——程序正義,往往具體化為中立性、參與性和公開(kāi)性三項(xiàng)最低要求。然而,在行政決策日趨算法化的場(chǎng)景中,經(jīng)過(guò)深度學(xué)習(xí),系統(tǒng)自動(dòng)生成的算法模型使得正當(dāng)程序中的三項(xiàng)最低要求難以踐行,從而對(duì)算法決策的正當(dāng)化提出了嚴(yán)重的挑戰(zhàn)。從實(shí)踐經(jīng)驗(yàn)上看,與中立性和參與性相比,對(duì)公開(kāi)性的侵蝕更為嚴(yán)重,以公開(kāi)性問(wèn)題為中心進(jìn)行針對(duì)性討論具有現(xiàn)實(shí)意義。
在法治社會(huì)中,作為行使公共權(quán)力的人,無(wú)論其權(quán)力性質(zhì)如何,都必須得到法律的授權(quán)。例如《行政許可法》第23 條規(guī)定:“法律、法規(guī)授權(quán)的具有管理公共事務(wù)職能的組織,在法定授權(quán)范圍內(nèi)以自己的名義實(shí)施行政許可。被授權(quán)的組織適用本法有關(guān)行政機(jī)關(guān)的規(guī)定?!雹賲⒁?jiàn)《行政許可法》全文釋義,http://www.ccdi.gov.cn/djfg/fgsy/201401/t20140107_114270_1.html.最后訪問(wèn)于2020年11月12日。而針對(duì)那些不僅會(huì)涉及國(guó)家,也會(huì)對(duì)公民合法權(quán)益造成影響的行政行為,要求對(duì)行使行政權(quán)的主體進(jìn)行法律授權(quán)的同時(shí)也應(yīng)要求行政權(quán)行使在陽(yáng)光下。
為加強(qiáng)行政的透明度,20 世紀(jì)中期西方各國(guó)行政發(fā)展出一個(gè)普遍趨勢(shì)即行政公開(kāi)。行政公開(kāi)是行政主體在行使行政職權(quán)時(shí),除涉及國(guó)家機(jī)密、個(gè)人隱私和商業(yè)秘密外,必須向行政相對(duì)人及其社會(huì)公開(kāi)與行政職權(quán)有關(guān)的事項(xiàng)[2](p100-106)。廣義地理解“與行政職權(quán)有關(guān)的事項(xiàng)”,包括行政權(quán)力運(yùn)行的主體、依據(jù)、過(guò)程和結(jié)果向行政相對(duì)人公開(kāi),即行政主體行使行政權(quán)的行為以公開(kāi)為原則,不公開(kāi)為例外。行政公開(kāi)作為現(xiàn)行行政程序法的一項(xiàng)基本原則,它不僅是行政主體的法定職責(zé),同時(shí)也是行政相對(duì)人的一項(xiàng)保障性權(quán)利。而行政決策公開(kāi)作為行政公開(kāi)的一個(gè)側(cè)面,是行政決策合法性不可或缺的程序性保障。在行政公開(kāi)視域下,行政決策的公開(kāi)是為了讓公眾更有效地參與決策,使決策者獲得更加詳實(shí)、準(zhǔn)確的信息,讓各方利益能夠得到充分整合,推動(dòng)決策機(jī)關(guān)不斷調(diào)整和完善其決策草案,促使最終的決策方案能夠體現(xiàn)盡可能多元和均衡的法益[3](p64)。因此,為了達(dá)到?jīng)Q策公開(kāi)性的目標(biāo),現(xiàn)行的行政程序法對(duì)決策公開(kāi)性的要求主要體現(xiàn)在決策主體公開(kāi)、決策程序公開(kāi)以及決策內(nèi)容公開(kāi)三個(gè)方面:
現(xiàn)行行政程序法中所規(guī)定的出示證件、身著制服以及有固定的辦公場(chǎng)所等措施在于實(shí)現(xiàn)決策者的身份公開(kāi)透明。從立法目的上看,一方面,這一制度要求不僅是為了防止假冒、詐騙,也是為了防止行政機(jī)關(guān)超越職權(quán)、濫用職權(quán)[4](p552)。從歷史角度看,對(duì)于傳統(tǒng)法中的決策主體公開(kāi)的制度設(shè)計(jì)來(lái)源于一直以來(lái)世界各國(guó)對(duì)“責(zé)任政府”的普遍共識(shí)。正如奧斯本和高伯勒在他們的暢銷書(shū)《重塑政府》中所描述的那樣:“政府應(yīng)轉(zhuǎn)型為精簡(jiǎn)、反應(yīng)迅速、以客戶為中心的企業(yè)?!闭^“有權(quán)必有責(zé)”,被法律明確授權(quán)的決策主體才是承擔(dān)決策結(jié)果責(zé)任的主體。因此,為實(shí)現(xiàn)決策主體公開(kāi)這第一層次的目的,我國(guó)現(xiàn)行法律中對(duì)不同公共決策場(chǎng)景下的行政主體公開(kāi)進(jìn)行了具體規(guī)定。但殊途同歸,表明行政決策主體身份是決策主體公開(kāi)的題中之義。例如,我國(guó)《行政處罰法》第34 條規(guī)定:“執(zhí)法人員當(dāng)場(chǎng)作出行政處罰決定的,應(yīng)當(dāng)向當(dāng)事人出示執(zhí)法身份證件……行政處罰決定書(shū)中應(yīng)包含行政機(jī)關(guān)名稱,并由執(zhí)法人員簽名或者蓋章”②參見(jiàn)《中華人民共和國(guó)行政處罰法》全文,https://duxiaofa.baidu.com/detail?searchType.最后訪問(wèn)于2020年12月1日。。另一方面,行政公開(kāi)在公民的知情權(quán)、參與權(quán)、表達(dá)權(quán)以及監(jiān)督權(quán)等權(quán)益保護(hù)上具有重要意義,而具體到行政主體的公開(kāi)上,要求決策者表明身份則是為了讓公民可以準(zhǔn)確地識(shí)別權(quán)源,為建立權(quán)責(zé)一致的責(zé)任追究機(jī)制提供前提條件。在實(shí)踐中,決策主體的這種公開(kāi)性含有防御性的價(jià)值[5](p232-233),即決策對(duì)象在決策者不表明身份時(shí),可拒絕其作出的決策甚至進(jìn)行一定程度的抵抗行為,而排除違法的可能性。
在利益多元的社會(huì)形態(tài)下,任何行政決策都會(huì)涉及資源和利益的調(diào)整和分配,為滿足“讓權(quán)力在陽(yáng)光下運(yùn)行”的新需求,程序公開(kāi)對(duì)于行政決策過(guò)程的透明度有一個(gè)高標(biāo)準(zhǔn)的要求,這不僅應(yīng)該包括對(duì)靜態(tài)的決策信息公開(kāi),也應(yīng)包括動(dòng)態(tài)的公眾參與。因此,為滿足決策程序的高透明度要求,具體應(yīng)該體現(xiàn)為對(duì)決策信息的公開(kāi)以及在公眾參與上進(jìn)行“度”的把握。
一是要保障決策過(guò)程中信息的公開(kāi)程度。一方面,現(xiàn)行法律規(guī)定,在決策過(guò)程中公開(kāi)其權(quán)利行使依據(jù)是行政主體的職責(zé)之所在。具體包括兩方面內(nèi)容:首先,關(guān)于一般職權(quán)依據(jù)事項(xiàng)的公開(kāi)。一般性職權(quán)依據(jù)指的是由法定的國(guó)家機(jī)關(guān)制定,發(fā)布的不具有直接執(zhí)行性的規(guī)范性文件?!缎姓幜P法》第4條第3款規(guī)定:“對(duì)違法行為給予行政處罰的規(guī)定必須公布;未經(jīng)公布的,不得作為行政處罰的依據(jù)?!边@是事先公開(kāi)職權(quán)依據(jù)行政公開(kāi)的基本內(nèi)容在我國(guó)《行政處罰法》中的具體體現(xiàn)。其次,關(guān)于具體職權(quán)依據(jù)的公開(kāi)。行政主體在沒(méi)有實(shí)施行政權(quán)或者作出最終行政決策之前,應(yīng)該將作為行使自由裁量權(quán)的依據(jù)向社會(huì)或者行政相對(duì)人公開(kāi)展示,使行政相對(duì)人可以知曉,而這里所說(shuō)的依據(jù)應(yīng)該做廣義的理解,包括法律依據(jù)也包括事實(shí)依據(jù)。另一方面,賦予利益相關(guān)人申請(qǐng)公開(kāi)信息的請(qǐng)求權(quán),但是也做出了一定的法律保留。例如,我國(guó)的行政資訊獲取制度規(guī)定:“除法律規(guī)定不得公開(kāi)外,行政主體根據(jù)行政相對(duì)人的申請(qǐng),應(yīng)當(dāng)及時(shí)、迅速地提供其所需要的行政資訊?!睆倪m用范圍上看,該制度雖然可適用于抽象行政行為,也可適用于具體行政行為,但在相對(duì)人可以獲取資訊的范圍上受到國(guó)家安全與個(gè)人隱私的限制。從實(shí)踐中看,對(duì)于決策過(guò)程中信息的公開(kāi)問(wèn)題,我國(guó)一般采取列舉的方式列舉出行政相對(duì)人不能獲取的范圍,列舉之外的信息行政相對(duì)人都有權(quán)獲取,以最大限度地保障決策過(guò)程的透明。例如我國(guó)《行政復(fù)議法》第23條規(guī)定:“申請(qǐng)人、第三人可以查閱被申請(qǐng)人提出的書(shū)面答復(fù)、作出具體行政行為的證據(jù)、依據(jù)和其他有關(guān)材料,除涉及國(guó)家機(jī)密、商業(yè)秘密或者個(gè)人隱私外,行政復(fù)議機(jī)關(guān)不得拒絕。”
二是要保障決策過(guò)程中公眾的參與程度。公眾參與是協(xié)商民主理論的要求在行政決策領(lǐng)域的應(yīng)用??傮w上看,行政程序法中所要求的公眾參與是對(duì)決策過(guò)程的一個(gè)深度參與,一方面,對(duì)于與公民自身利益相關(guān)的行政決策,應(yīng)當(dāng)提供利益博弈機(jī)制,即讓公民參與決策的討論、協(xié)商或?qū)嵤?。另一方面,?duì)于無(wú)特殊相關(guān)人的公共事項(xiàng)的決策,也應(yīng)當(dāng)構(gòu)建廣泛的社會(huì)公眾參與機(jī)制,以實(shí)現(xiàn)行政決策的合理性、回應(yīng)性和有效性。為滿足行政決策過(guò)程的高透明度,讓公眾參與到?jīng)Q策過(guò)程中來(lái)一直是各國(guó)行政法治的重要內(nèi)容,高參與度帶來(lái)高透明度也一直是立法者的共識(shí)。從目前的法律法規(guī)來(lái)看,為保證決策主體與決策對(duì)象的這種雙向互動(dòng),我國(guó)現(xiàn)行行政程序法以及相關(guān)法律法規(guī)進(jìn)行了一系列的制度設(shè)計(jì)。如行政聽(tīng)證制度作為行政程序法的核心,通過(guò)聽(tīng)證使利害關(guān)系人各方在一個(gè)平等的空間上進(jìn)行對(duì)話成為保障公眾參與度最重要的通常手段。在實(shí)踐中,我國(guó)的《行政許可法》《行政處罰法》中都已經(jīng)確立了行政聽(tīng)證制度,它要求行政主體在作出行政決策前,在聽(tīng)取意見(jiàn)、接受證據(jù)的過(guò)程中作出最為理性的選擇。
決策過(guò)程中的信息公開(kāi)是簡(jiǎn)單的信息披露,而決策內(nèi)容的公開(kāi)還應(yīng)包含對(duì)于信息的解讀。決策內(nèi)容的公開(kāi)不僅僅是披露決策相關(guān)信息,公開(kāi)決策內(nèi)容的主體還有義務(wù)對(duì)信息進(jìn)行解讀,從而使信息轉(zhuǎn)化為行政決策參與者所必需的知識(shí)[6](p172)。行政決策的內(nèi)容公開(kāi)應(yīng)當(dāng)遵循“釋明原則”是由行政公開(kāi)的目的所決定的,為此,“說(shuō)明理由”要求成為行政決策內(nèi)容公開(kāi)中的一項(xiàng)普適性制度設(shè)計(jì)。整體來(lái)看,行政行為說(shuō)明理由是制約權(quán)力的要求,是行政合作的趨勢(shì),也是司法審查的基礎(chǔ)[7](p41-48)。因此,雖然我國(guó)一直以來(lái)都存在著“重實(shí)體、輕程序”的法律傳統(tǒng),但是,“說(shuō)明理由”作為行政程序法的一項(xiàng)制度安排,我國(guó)已在諸多行政領(lǐng)域中確立了該項(xiàng)制度。從適用范圍上看,凡是對(duì)行政相對(duì)人權(quán)益造成影響的一切行政行為都應(yīng)當(dāng)說(shuō)明理由,僅以法律法規(guī)明確作排除性規(guī)定為例外。從實(shí)現(xiàn)方式上看,行政主體說(shuō)明理由的時(shí)間應(yīng)該確定在行政行為成立生效之前并以書(shū)面說(shuō)明為主,以口頭說(shuō)明為補(bǔ)充。從說(shuō)明內(nèi)容上看,目前法律規(guī)定說(shuō)明理由的內(nèi)容應(yīng)包含事實(shí)依據(jù)與法律依據(jù)兩方面,對(duì)于事實(shí)依據(jù),行政機(jī)關(guān)做出行政決定前必須要以事實(shí)為依據(jù),沒(méi)有這種對(duì)事實(shí)的收集、整理和印證,行政機(jī)關(guān)就不可能做出一個(gè)公正的裁決。對(duì)于法律性依據(jù)及其選擇理由的說(shuō)明,除要求指明適用的某法某條之外,必須要求行政主體說(shuō)明它為什么要選擇適用該法律,即要求其說(shuō)明根據(jù)事實(shí)性依據(jù)選擇該法律的邏輯推理過(guò)程。從法律后果上看,目前我國(guó)雖然對(duì)說(shuō)明理由的及時(shí)性與準(zhǔn)確性沒(méi)有規(guī)定具體可行的法律救濟(jì)方式,但是也籠統(tǒng)地規(guī)定了不說(shuō)明理由的法律后果。例如,《行政處罰法》第41 條規(guī)定了不說(shuō)明理由的法律后果,即不依據(jù)本法規(guī)定向當(dāng)事人說(shuō)明理由的行政決定不能成立。
目前,我國(guó)在沒(méi)有統(tǒng)一的行政程序法的現(xiàn)狀之下,散見(jiàn)于各層級(jí)的法律法規(guī)為滿足行政程序公開(kāi)的要求進(jìn)行了一系列的制度設(shè)計(jì),在控制行政主體自由裁量權(quán)以及保障公民權(quán)益方面發(fā)揮著重要功能。隨著人工智能時(shí)代的到來(lái),不僅一些私營(yíng)機(jī)構(gòu)使用算法進(jìn)行商業(yè)活動(dòng),以自動(dòng)化系統(tǒng)與深度學(xué)習(xí)系統(tǒng)為基礎(chǔ)的計(jì)算機(jī)程序也在不斷地滲透進(jìn)公共領(lǐng)域。例如2020 年年初,我國(guó)在疫情防控中使用的“健康碼”便是利用大數(shù)據(jù)分析技術(shù)進(jìn)行公共決策的一次大規(guī)模嘗試。但是,算法決策的方式并沒(méi)有改變這些決策的行為性質(zhì),現(xiàn)行法律法規(guī)中關(guān)于行政決策公開(kāi)性的要求也應(yīng)當(dāng)適用于算法決策的不同場(chǎng)景之下。然而,伴隨著利用計(jì)算機(jī)程序進(jìn)行行政決策的行為日漸普遍,算法代替規(guī)則時(shí)有發(fā)生,從而使傳統(tǒng)法律規(guī)制與算法規(guī)則之間的兼容性問(wèn)題一直被討論。同樣,在行政決策領(lǐng)域,部分環(huán)節(jié)的算法化使得一些現(xiàn)有程序制度未能在算法決策中得到完全的貫徹,也正是由于算法的特定屬性對(duì)現(xiàn)行行政決策的公開(kāi)性造成愈益嚴(yán)重的挑戰(zhàn)。
國(guó)務(wù)院發(fā)布的《新一代人工智能發(fā)展規(guī)劃》中曾提到人工智能進(jìn)入新的發(fā)展階段,呈現(xiàn)出算法自主操控特征。而行政決策領(lǐng)域中算法模型的應(yīng)用從決策樹(shù)模型到神經(jīng)網(wǎng)絡(luò)模型的轉(zhuǎn)變是算法自主性日益增強(qiáng)的典型實(shí)例[8](p16-17)。與之前的決策樹(shù)模型不同,具備深度學(xué)習(xí)能力的神經(jīng)網(wǎng)絡(luò)模型模仿大腦擁有自己的計(jì)算和學(xué)習(xí)方式。如果這些模型被應(yīng)用到行政決策場(chǎng)景中,接受過(guò)特定決策任務(wù)的培訓(xùn),它就可以得出自己的決策方法。這雖然與我們對(duì)智能系統(tǒng)的期望差不多,但是不可忽視的是在神經(jīng)網(wǎng)絡(luò)中,這些過(guò)程都是獨(dú)立于人為控制而自主運(yùn)行的。
在法治社會(huì)中,為保障公民對(duì)權(quán)源的準(zhǔn)確識(shí)別要求決策者公開(kāi)其詳細(xì)信息,如機(jī)構(gòu)名稱、職權(quán)依據(jù),并以此促進(jìn)對(duì)結(jié)果的問(wèn)責(zé)。然而,在算法決策場(chǎng)景下,當(dāng)算法代替公務(wù)人員進(jìn)行行政決策時(shí),傳統(tǒng)上基于行政人員職務(wù)行為建立的身份識(shí)別制度很難發(fā)揮作用?,F(xiàn)實(shí)中,行政機(jī)關(guān)是一種擬制的存在,本身不具備意思表達(dá)和行為的能力。因此,法律中一般將其所屬的正式工作人員(行政人員)的行為和意思推定為行政主體的行為和意思,并通過(guò)職務(wù)行為和個(gè)人行為的區(qū)隔,明確行政主體承擔(dān)責(zé)任的情形和方式[9](p4-5)。而如今,我們可以引入并遵循越來(lái)越多的算法體系,首先是相對(duì)易于遵循的體系,但后來(lái)演變?yōu)閺?fù)雜得多的體系并且超出了人類理性的上限。雖然算法決策涉及計(jì)算機(jī)程序開(kāi)發(fā)者、使用者以及決策制定者等多方主體的參與,但其外在表征被一張二維碼、一個(gè)電子眼甚至是我們?nèi)庋鬯荒茏R(shí)別的“機(jī)器”所代替,如上海市食品藥品監(jiān)督管理局探索運(yùn)用人工智能圖像識(shí)別技術(shù)自動(dòng)識(shí)別食品監(jiān)控拍攝的違法行為①參見(jiàn)騰訊新聞網(wǎng),http://k.sina.com.cn/article_1914880192_7222c0c0020008zrv.html.最后訪問(wèn)于2020年10月18日。。在這種模式下,決策主體隱藏于機(jī)器后方,行政機(jī)關(guān)的行為意思不能借由公務(wù)人員的行為加以推定,而是通過(guò)“機(jī)器系統(tǒng)”做出,傳統(tǒng)的決策主體公開(kāi)制度將原本規(guī)制人的行為的法律逐漸異化成規(guī)制機(jī)器行為。因此,傳統(tǒng)的決策主體公開(kāi)制度并不能有效地規(guī)制算法權(quán)力在行政決策領(lǐng)域的隱蔽性問(wèn)題,從而引發(fā)了技術(shù)性的“權(quán)力異化”風(fēng)險(xiǎn)[10](p60-62),具體表現(xiàn)為以下兩個(gè)方面。
一方面,對(duì)這些設(shè)備的公開(kāi)使公民無(wú)法準(zhǔn)確地識(shí)別作出決策的權(quán)力主體,使得傳統(tǒng)法上決策主體公開(kāi)的防御性價(jià)值無(wú)法體現(xiàn)。現(xiàn)行法律規(guī)定,決策主體行使決策權(quán)力來(lái)源于法律的授權(quán),決策主體超越法律范圍行使行政權(quán)力則構(gòu)成違法,并且需要承擔(dān)法律責(zé)任。比如,證券法將公開(kāi)發(fā)行股票的核準(zhǔn)權(quán)授予中國(guó)證券監(jiān)督管理委員會(huì),中國(guó)證券監(jiān)督管理委員會(huì)就可以用自己的名義作出是否核準(zhǔn)的決定?,F(xiàn)行法律授予行政主體的權(quán)力并不具有延伸性,當(dāng)行政決策完全或者部分依托算法作出時(shí),那么這樣的一種算法決策系統(tǒng)的運(yùn)行必須也要得到法律的授權(quán)。然而,在目前廣泛應(yīng)用的股票交易算法系統(tǒng)中,系統(tǒng)可以自主工作,不斷地對(duì)收集到的數(shù)據(jù)進(jìn)行分類,識(shí)別出重要的信息,并自動(dòng)發(fā)布審批意見(jiàn)。在這樣的算法主導(dǎo)的決策場(chǎng)景中,公眾并不能從所公開(kāi)的“機(jī)器決策者”被設(shè)計(jì)過(guò)的算法系統(tǒng)中準(zhǔn)確地識(shí)別出法律所授權(quán)的決策者是中國(guó)證券監(jiān)督管理委員會(huì)。而且,面對(duì)這些具有自主性的算法在行政決策領(lǐng)域的適用,使得算法本身在沒(méi)有法律授權(quán)的情況下也出現(xiàn)具備了權(quán)力屬性的現(xiàn)實(shí)情況。除了該算法系統(tǒng)的設(shè)計(jì)者,不管是算法決策的使用者還是作為接受決策結(jié)果的相對(duì)人都根本無(wú)法察覺(jué),也就不可能有機(jī)會(huì)糾正算法權(quán)力的錯(cuò)誤并維護(hù)自身合法權(quán)。另一方面,算法決策所帶來(lái)的權(quán)力行使的隱蔽性問(wèn)題不僅意味著算法系統(tǒng)有我們不能察覺(jué)的“隱層”,也意味著我們無(wú)法理解用于公共決策場(chǎng)景下的算法邏輯。這種情況下,身份表明的主體公開(kāi)要求不僅不能防止權(quán)力的濫用,而且還會(huì)為行政恣意提供合法化空間。以滬首例聲吶電子警察執(zhí)法糾紛案為例,交警支隊(duì)在針對(duì)行政相對(duì)人提出的質(zhì)疑時(shí),更多的是強(qiáng)調(diào)聲吶“電子警察”違法鳴喇叭抓拍設(shè)備均已通過(guò)國(guó)家權(quán)威機(jī)構(gòu)檢測(cè)合法,同時(shí)解釋了該聲吶“電子警察”的工作原理以體現(xiàn)其科學(xué)性,并得到了法院的支持。這表明,當(dāng)將傳統(tǒng)的行政程序法中的決策主體公開(kāi)要求適用于規(guī)制算法場(chǎng)景時(shí)存在明顯的合法不合理現(xiàn)象。當(dāng)作為行使自由裁量權(quán)的法律依據(jù)和政策轉(zhuǎn)化為代碼被植入決策系統(tǒng)中時(shí),不僅對(duì)于受其處罰的行政相對(duì)人來(lái)說(shuō)是無(wú)法理解的,而且算法決策系統(tǒng)的使用者也會(huì)沉浸在這種科學(xué)性的體驗(yàn)之中,計(jì)算機(jī)程序員無(wú)形地承擔(dān)起所適用實(shí)體法的準(zhǔn)確性的責(zé)任。算法決策系統(tǒng)使用上述所說(shuō)的“超級(jí)推理”,能夠以微妙而有效的方式塑造用戶的感受和行為,破壞作為真正決策者的獨(dú)立判斷力[11](p118-136)。在這樣的情況下,傳統(tǒng)法上的公開(kāi)要求只能讓我們看到數(shù)據(jù)輸入過(guò)程和輸出結(jié)果,行政決策由誰(shuí)作出以及如何作出的問(wèn)題,也只有少數(shù)“圈內(nèi)人”可以掌握,這也無(wú)形中增加了受算法操縱的決策主體濫用行政權(quán)力的可能性。
算法的價(jià)值全部體現(xiàn)在它的速度上。算法是為解決一個(gè)或一組問(wèn)題而設(shè)計(jì)的一組指令,而算法系統(tǒng)是由多種不同類型的算法集結(jié)而成的。一般來(lái)說(shuō),應(yīng)用于行政決策領(lǐng)域的算法決策系統(tǒng)由成千上萬(wàn)條命令組成,這些命令可以輸出數(shù)億條指令,決策結(jié)果被瞬間完成[10](p66-70)。例如,在“秒批”“智能審批”等算法決策應(yīng)用場(chǎng)景下,一個(gè)需要作出某種決策的決策者依賴于機(jī)器系統(tǒng)的輸出,而整個(gè)過(guò)程中沒(méi)有或者很少有人的投入。不可否認(rèn),這樣的算法系統(tǒng)大幅提高了行政決策的效率,然而算法決策在帶來(lái)便利與高效的同時(shí),也引發(fā)了決策過(guò)程中公眾參與要求的懸置。
行政決策的科學(xué)性和民主性是現(xiàn)代行政法治的必然要求,亦直接關(guān)系著政府政策及政府行為的公信力,而公眾參與是行政決策合法化的重要途經(jīng)[13](p110)。決策公開(kāi)程序上要求公眾參與決策過(guò)程以保障其合法權(quán)益不受侵害并增加整個(gè)決策過(guò)程的透明度。當(dāng)下,由于算法的復(fù)雜性和專業(yè)性,行政決策過(guò)程中的信息不對(duì)稱可能會(huì)更加嚴(yán)重,這種信息不對(duì)稱加重不只發(fā)生在使用算法決策的行政主體與接受算法決策結(jié)果的行政相對(duì)人之間,更發(fā)生在人類和機(jī)器之間,所以算法決策應(yīng)用下更應(yīng)該強(qiáng)調(diào)公眾參與要求的重要性。在傳統(tǒng)行政決策場(chǎng)景中,法律為行政決定的相對(duì)人和利益相關(guān)者提供了提出申辯、表達(dá)利益訴求的機(jī)會(huì),并設(shè)置了相應(yīng)的程序性裝置[14](p36)。但是,隨著算法的自動(dòng)化程度越來(lái)越高,程序公開(kāi)因算法決策瞬時(shí)性的存在而無(wú)法保障公眾的參與,也造成對(duì)公民陳述、申辯和聽(tīng)證等程序性權(quán)力的損害。例如,根據(jù)《行政處罰法》規(guī)定,對(duì)處罰應(yīng)當(dāng)履行告知義務(wù),讓當(dāng)事人有一個(gè)陳述申辯的機(jī)會(huì)。而反觀發(fā)生在2005 年的“杜寶良案”中,杜寶良連續(xù)違章105 次,并沒(méi)有人來(lái)履行告知義務(wù)??梢灶A(yù)見(jiàn)的是“杜寶良案”是新技術(shù)帶來(lái)的新問(wèn)題。以行政處罰領(lǐng)域?yàn)槔覀冊(cè)械姆芍贫榷际墙⒃谛姓C(jī)關(guān)與行政相對(duì)人這種面對(duì)面處罰的基礎(chǔ)上的,當(dāng)算法代替人類作出某項(xiàng)處罰決定時(shí),不僅提高了作出決策的效率,也壓縮了決策的過(guò)程,使得公眾參與被迫排除在決策程序之外,決策過(guò)程的透明度問(wèn)題遭到公眾的質(zhì)疑。
另外,行政決策過(guò)程之所以要保障公眾的參與是因?yàn)樵S多行政決策涉及行使自由裁量權(quán)進(jìn)行評(píng)估性決斷。例如,一個(gè)人“是否品行良好”“是否有重大威脅”等。不可否認(rèn),算法下的行政決策效率更高,并且更符合政府對(duì)這種效率日益增長(zhǎng)的需求。但是,也有學(xué)者提出:“自主決策的前提是要應(yīng)用的規(guī)則不容易被解釋,并且決策者在做出決策時(shí)沒(méi)有太多或任何自由裁量權(quán)的前提下進(jìn)行?!逼湓蛴卸浩湟?,在算法自動(dòng)決策場(chǎng)景中,決策的控制權(quán)實(shí)則由算法模型的設(shè)計(jì)者和使用者掌握著,“控制權(quán)的分布是極其不對(duì)稱的。公民將被評(píng)測(cè),但他們不能反過(guò)來(lái)去評(píng)測(cè)那些評(píng)測(cè)他們的機(jī)構(gòu)”[15](p125)。其二,由于行政決策是由算法模型在瞬間作出,行政相對(duì)人和利益相關(guān)者在決定作出前,無(wú)法透過(guò)法定的程序裝置參與到行政決策的過(guò)程中,充分行使法律所賦予的陳述、申辯、要求聽(tīng)證等各項(xiàng)程序性權(quán)利,而只能接受冷冰冰的算法決策結(jié)果[13]。簡(jiǎn)言之,合法的決策程序必須允許公眾參與和理解這些進(jìn)行決策的程序,然而,不區(qū)分具體場(chǎng)景對(duì)算法系統(tǒng)的廣泛應(yīng)用以及日益依賴限制了人們積極參與和理解決策程序的廣度與深度,從而因泛化應(yīng)用與過(guò)度依賴算法系統(tǒng)對(duì)決策程序公開(kāi)要求構(gòu)成了實(shí)質(zhì)性威脅。
事實(shí)上,陳述理由既可以提高決策的透明度也可能會(huì)降低決策的透明度,其關(guān)鍵在于規(guī)制的對(duì)象本身是否可以被解釋。在實(shí)踐中,對(duì)于算法的不可解釋性來(lái)說(shuō),主要來(lái)源于兩個(gè)方面:一方面,決策公開(kāi)之保留上的限制,即傳統(tǒng)法中的行政決策公開(kāi)為國(guó)家安全、商業(yè)秘密、個(gè)人隱私作出的例外規(guī)定。然而,在算法決策應(yīng)用場(chǎng)景中使得這些保留條款功能和作用出現(xiàn)異化。另一方面,算法決策會(huì)產(chǎn)生“黑箱效應(yīng)”。例如,在AlphaGo大戰(zhàn)柯潔一戰(zhàn)中,AlphaGo 被輸入的指令是“贏得比賽”,但是它在比賽過(guò)程中思考下一步棋應(yīng)該怎樣走的原理,我們不得而知。具體到目前在行政決策場(chǎng)域下應(yīng)用最為廣泛的機(jī)器學(xué)習(xí)領(lǐng)域,這種輸入的數(shù)據(jù)和輸出答案之間的不可觀察的空間就是人們所說(shuō)的“黑箱”。綜上,這兩種算法決策的不可解釋性導(dǎo)致決策公開(kāi)中說(shuō)明理由無(wú)法達(dá)到現(xiàn)行法律所要求的披露效果,也因此引發(fā)了算法透明性的危機(jī)。
1.算法黑箱導(dǎo)致的算法決策披露不能。簡(jiǎn)單的“自動(dòng)化”決策時(shí)期,機(jī)器的透明度不會(huì)對(duì)決策背后的邏輯解釋造成特殊問(wèn)題。例如,如果一個(gè)攝像頭檢測(cè)到司機(jī)的速度,并告知行政機(jī)關(guān)超過(guò)了限速,超速罰單就會(huì)自動(dòng)發(fā)出。在這樣的場(chǎng)景下,決策背后的邏輯以及決策依據(jù)的規(guī)則可以很容易地向數(shù)據(jù)主體解釋,即如果超速,就會(huì)開(kāi)出超速罰單。不同的是,基于復(fù)雜算法的自動(dòng)決策在解釋決策背后的原因時(shí)會(huì)面臨許多復(fù)雜的問(wèn)題。從目前的技術(shù)發(fā)展來(lái)看,機(jī)器深度學(xué)習(xí)系統(tǒng)的應(yīng)用增加了算法的復(fù)雜性。與自動(dòng)化機(jī)器不同,機(jī)器深度學(xué)習(xí)系統(tǒng)是一個(gè)開(kāi)放的系統(tǒng),對(duì)于絕大部分機(jī)器學(xué)習(xí)的輸出結(jié)果,無(wú)論輸入和輸出的因果關(guān)系在表面上看起來(lái)多么直觀,這種因果關(guān)系都很可能根本無(wú)法被解釋,其動(dòng)態(tài)的變化也更難以把握[16](p1147,1156-1157)。
目前,基于機(jī)器深度學(xué)習(xí)技術(shù)所構(gòu)建的算法模型正廣泛應(yīng)用于行政決策之中,并造成公眾無(wú)法了解決策主體的決策過(guò)程,也無(wú)法監(jiān)督政府權(quán)力運(yùn)行的現(xiàn)實(shí)情況,究其原因主要在于決策主體將算法不具有解釋性作為抗辯理由。行政機(jī)關(guān)與算法開(kāi)發(fā)者由此達(dá)成了共識(shí),一致認(rèn)為人類可能無(wú)法預(yù)測(cè)應(yīng)用機(jī)器學(xué)習(xí)技術(shù)的結(jié)果,也無(wú)法理解某些結(jié)果是如何達(dá)到的,計(jì)算機(jī)完全可以自主學(xué)習(xí)某些人類根本沒(méi)有教過(guò)的東西。不僅如此,當(dāng)兩個(gè)完全相同的決策相隔一段時(shí)間時(shí),機(jī)器學(xué)習(xí)技術(shù)可能會(huì)在第二次因其“學(xué)習(xí)”過(guò)程出現(xiàn)問(wèn)題時(shí)而產(chǎn)生不同的結(jié)果。因此,上述這些情況都有可能讓決策主體在說(shuō)明理由上出現(xiàn)困難,以此而主張不具備對(duì)算法決策進(jìn)行說(shuō)明理由的能力。
2.法律保留豁免說(shuō)明理由義務(wù)。即使在現(xiàn)行的決策公開(kāi)制度下,也并不是所有的決策都必須公開(kāi),法律為涉及國(guó)家秘密、商業(yè)秘密以及個(gè)人隱私的行政決策設(shè)置了法律保留條款,以解決行政決策公開(kāi)與國(guó)家安全、社會(huì)秩序以及私主體權(quán)力之間的法益沖突問(wèn)題。例如,在個(gè)人隱私公開(kāi)的豁免上,美國(guó)《信息自由法》明確規(guī)定,對(duì)于人事和醫(yī)療檔案及其他透露出去會(huì)明顯構(gòu)成侵犯?jìng)€(gè)人隱私權(quán)的檔案免于公開(kāi)[17](p154)。但是,在算法自動(dòng)決策場(chǎng)景中,行政機(jī)關(guān)和算法模型的開(kāi)發(fā)者基于算法模型涉及商業(yè)秘密、國(guó)家安全等理由而拒絕對(duì)其決策結(jié)果予以說(shuō)明并公開(kāi)[13]已經(jīng)成為決策主體逃避法律責(zé)任所慣用的一種手段。從域外實(shí)踐中看,早期跡象表明,決策機(jī)構(gòu)會(huì)尋求在業(yè)務(wù)規(guī)則或技術(shù)助理守則方面依賴任何豁免[18](p21-23)。例如,在Cordover案中,行政上訴法庭支持澳大利亞選舉委員會(huì)(AEC)拒絕公布一個(gè)計(jì)算機(jī)程序的代碼,該程序是用于讀取和計(jì)算選票記錄在底線以下的參議院選票。澳大利亞選舉委員會(huì)辯稱,由于委員會(huì)公益與私益并存的雙重職能性質(zhì)導(dǎo)致該程序也會(huì)應(yīng)用到一些以盈利為目的的商業(yè)領(lǐng)域,如在為一些私營(yíng)組織進(jìn)行選舉的場(chǎng)景中也使用相同的代碼和程序,以此主張?jiān)摮绦驊?yīng)屬于“商業(yè)機(jī)密”范疇,對(duì)此法院也表示了采納。由于大多數(shù)行政機(jī)關(guān)的職能性質(zhì),從事行政決策的機(jī)構(gòu)不太可能在其收費(fèi)服務(wù)職能和公共職能之間面臨與澳大利亞經(jīng)濟(jì)委員會(huì)同樣的緊張關(guān)系。行政主體雖然對(duì)其他機(jī)構(gòu)的技術(shù)源代碼沒(méi)有基于商業(yè)秘密的豁免權(quán),但也可以在現(xiàn)有法律框架中尋求其他豁免。例如,行政機(jī)關(guān)可能會(huì)尋求依賴與機(jī)構(gòu)審議過(guò)程有關(guān)的豁免,聲稱算法所依據(jù)的準(zhǔn)則或業(yè)務(wù)規(guī)則構(gòu)成對(duì)行政機(jī)關(guān)的“意見(jiàn)或建議”,并且披露將違反公共利益等,從而形成了對(duì)算法可解釋上的阻礙。
在全球范圍內(nèi),歐盟《數(shù)據(jù)保護(hù)通用條例》(General Data Protection Regulation,GDPR)在算法決策領(lǐng)域的規(guī)制上具有前沿性和先進(jìn)性。“博觀而約取”,歐盟《數(shù)據(jù)保護(hù)通用條例》的制定與實(shí)施對(duì)我國(guó)今后在算法規(guī)制的立法實(shí)踐上有著重要意義。歐盟《數(shù)據(jù)保護(hù)通用條例》回應(yīng)了由于算法決策領(lǐng)域產(chǎn)生算法適用危機(jī)以及算法架構(gòu)上的行為主體責(zé)任分配問(wèn)題,使得人們對(duì)算法決策的“透明性”和“可解釋性”逐漸增加了需求。從決策績(jī)效的視角來(lái)看,盡管人腦的決策過(guò)程也是一種黑箱,但是傳統(tǒng)的行政決策公開(kāi)制度構(gòu)造下已經(jīng)構(gòu)建完備的事前、事中、事后約束機(jī)制。以我國(guó)為例,為保障行政決策的公開(kāi)性,設(shè)置了告知制度、聽(tīng)證制度以及說(shuō)明理由制度等。這些制度使得人們一定程度上可以避免武斷決策并保證決策的可信性和正當(dāng)性。
隨著“互聯(lián)網(wǎng)+政務(wù)”的全面推行,傳統(tǒng)行政程序法中的公開(kāi)原則被延伸到算法決策領(lǐng)域,形成了算法透明原則,并且在適用范圍上走向私法領(lǐng)域而不再局限于公法領(lǐng)域。從表面上來(lái)看,算法透明就是打開(kāi)黑箱將陽(yáng)光灑落整個(gè)自動(dòng)化決策過(guò)程的理想手段[19](p22)。目前,在算法決策的背景下,為滿足算法透明原則,要求一個(gè)負(fù)責(zé)任的決策主體必須向其決策對(duì)象提供其算法決策系統(tǒng)的設(shè)計(jì)和運(yùn)行的理由成為業(yè)界共識(shí)。雖然一些學(xué)者認(rèn)為解釋一個(gè)算法幾乎是不可能的,因?yàn)榧词故撬拈_(kāi)發(fā)者也不能確切地指出作出某一特定決定的原因。但是也有一些算法透明性的支持者們對(duì)此抱有樂(lè)觀的態(tài)度,采用某種決策算法背后的邏輯成為這些支持者們的基本任務(wù),甚至提出了技術(shù)視角下的解決方案[11],以提高算法的透明度。從整體上看,算法解釋權(quán)仍是一種用于質(zhì)疑算法決策的重要法律工具,其中,最為典型的實(shí)例應(yīng)屬歐盟《數(shù)據(jù)保護(hù)通用條例》所規(guī)定的可解釋權(quán)。
歐盟《數(shù)據(jù)保護(hù)通用條例》的立法思路是希望借助賦予數(shù)據(jù)主體在算法架構(gòu)內(nèi)的控制權(quán),以個(gè)體權(quán)益的路徑,形成對(duì)數(shù)據(jù)控制者應(yīng)用自動(dòng)化決策的治理。一般來(lái)說(shuō),《數(shù)據(jù)保護(hù)通用條例》禁止實(shí)體使用“純粹”自動(dòng)分析用來(lái)作出具有法律效力的決策,不得對(duì)人們的法律權(quán)利或法律地位產(chǎn)生影響①GDPR第22條:“當(dāng)政府要求個(gè)人使用自動(dòng)或個(gè)人干預(yù)的決策時(shí),提供個(gè)人使用自動(dòng)或個(gè)人干預(yù)的能力?!?。并且在其第13 條第2 款和第14 條第2 款中規(guī)定了數(shù)據(jù)控制者應(yīng)向數(shù)據(jù)主體提供關(guān)于自動(dòng)化決策的“從邏輯上來(lái)講有意義的信息,包括自動(dòng)決策對(duì)于數(shù)據(jù)主體的明顯預(yù)期后果的信息”的義務(wù)②第13條、第14條討論了使用自動(dòng)決策產(chǎn)生的各種透明度權(quán)利,包括解釋權(quán)。第13條規(guī)定了從個(gè)人收集信息時(shí)的要求,第14條側(cè)重于從第三方收集信息時(shí)的要求。這些條款涉及“完全基于自動(dòng)化處理”的決策,決策對(duì)其產(chǎn)生法律效力或類似的重大影響,應(yīng)使他們了解自動(dòng)決策的存在,并提供關(guān)于自動(dòng)決策所涉及的邏輯的有意義的信息。。該規(guī)定與其前言第71項(xiàng)結(jié)合,被認(rèn)為是算法可解釋權(quán)的確權(quán)條款。從《數(shù)據(jù)保護(hù)通用條例》的這些具體條文中看,很可能需要解釋整個(gè)機(jī)器學(xué)習(xí)模型的邏輯,而不是它產(chǎn)生預(yù)測(cè)的子集。如果是這樣的話,《數(shù)據(jù)保護(hù)通用條例》比其他任何法律所要求的算法決策規(guī)制都更廣泛。例如,美國(guó)《平等信貸機(jī)會(huì)法》(ECOA)中的要求,即向申請(qǐng)人提供“采取行動(dòng)的具體原因聲明”。ECOA 要求只關(guān)注個(gè)人結(jié)果,而GDPR可以說(shuō)需要更廣泛的解釋形式。因此,歐盟《數(shù)據(jù)保護(hù)通用條例》被稱為迄今為止為規(guī)制算法決策所制定的最全面的立法。然而,對(duì)于該立法的接受度也主要存在于對(duì)可解釋權(quán)的爭(zhēng)論。
有學(xué)者認(rèn)為:“GDPR關(guān)注的不是決策,而是隱私,這種隱私視角扭曲了對(duì)《數(shù)據(jù)保護(hù)通用條例》規(guī)制算法決策方法的解釋?!睂?duì)于算法決策的規(guī)制正當(dāng)性應(yīng)該是首先被考量的,而不是用簡(jiǎn)單的解釋性一并概括。正當(dāng)化的形式應(yīng)該是誰(shuí)向誰(shuí)證明什么是正當(dāng)?shù)?,故?yīng)該確定適當(dāng)?shù)慕忉屝问?。這就意味著應(yīng)更注重系統(tǒng)的責(zé)任,而不是對(duì)孤立的、有權(quán)利的個(gè)人進(jìn)行模式化的技術(shù)解釋。
筆者認(rèn)為,在《數(shù)據(jù)保護(hù)通用條例》的法律框架下,關(guān)于算法決策規(guī)制的爭(zhēng)論由于其過(guò)分關(guān)注隱私而受到了不小的阻礙。稅務(wù)機(jī)關(guān)根據(jù)數(shù)據(jù)主體的收入計(jì)算的納稅申報(bào)決定,是一項(xiàng)在GDPR意義上具有法律效力的決定。但是,行政領(lǐng)域的公共決策不一定都能與特定個(gè)人的個(gè)人數(shù)據(jù)相聯(lián)系,也很容易基于匿名數(shù)據(jù)產(chǎn)生,這將使歐盟數(shù)據(jù)保護(hù)立法不適用。因此,對(duì)于公共領(lǐng)域的算法決策不能在隱私保護(hù)的框架內(nèi)進(jìn)行,超越隱私框架的方式需要讓我們更加關(guān)注整個(gè)決策的系統(tǒng)而不是算法技術(shù)的內(nèi)部運(yùn)行程序,而對(duì)《數(shù)據(jù)保護(hù)通用條例》中“可解釋權(quán)”的改造應(yīng)確保在算法決策過(guò)程中進(jìn)行系統(tǒng)問(wèn)責(zé)機(jī)制的實(shí)現(xiàn)為目標(biāo),而不是過(guò)度關(guān)注算法內(nèi)部運(yùn)行的技術(shù)邏輯。
從理論上看,傳統(tǒng)法上責(zé)任制的構(gòu)建,其優(yōu)勢(shì)在于保證了那些有決策權(quán)力的人必須向他們將要影響的人證明他們的決策是正確的,而將這種問(wèn)責(zé)制的觀點(diǎn)應(yīng)用于使用深度學(xué)習(xí)等技術(shù)的算法決策程序中也可以確保一系列工具性利益。不論是在傳統(tǒng)決策模式還是算法決策場(chǎng)景下,公眾對(duì)行政決策的接受程度除了取決于決策者的獨(dú)立性以外,更為重要的是關(guān)注決策是公開(kāi)的還是私下進(jìn)行的,公開(kāi)是為了解決透明度問(wèn)題。不可否認(rèn),決策的公開(kāi)透明一直被認(rèn)為是重要的,因?yàn)橥该鞫忍峁┝酥卫砗捅O(jiān)管所需要的信息。在傳統(tǒng)的行政決策中,因?yàn)樾枰该鞫葋?lái)推進(jìn)系統(tǒng)問(wèn)責(zé)的目標(biāo),所以透明度就變得很重要。與透明度一樣,算法解釋也是工具性的。然而,雖然系統(tǒng)有效的問(wèn)責(zé)也是目前指導(dǎo)算法決策規(guī)制方法的基本目標(biāo),但在行政決策算法化的背景下,目前的可解釋權(quán)僅對(duì)個(gè)人質(zhì)疑決策或識(shí)別偏見(jiàn)和歧視具有工具性的重要意義,并不能達(dá)到公法領(lǐng)域決策公開(kāi)所要求的問(wèn)責(zé)價(jià)值目標(biāo)。為了使“可解釋權(quán)”更好地服務(wù)于公共領(lǐng)域中算法決策的應(yīng)用場(chǎng)景,就需要對(duì)《數(shù)據(jù)保護(hù)通用條例》中的“可解釋權(quán)”進(jìn)行改造。
1.關(guān)于決策主體公開(kāi)上的解釋。隨著這些有自主性的算法模型被應(yīng)用于治安、信貸等各種決策場(chǎng)景之中,受算法決策影響的主體也在不斷擴(kuò)大,算法的這種自主性使越來(lái)越多的人要求算法決策者對(duì)其活動(dòng)負(fù)責(zé)①Finale Doshi-Velez&Mason Kortz.“Accountability of AI under the law:The role of explanation”,https://cyber.harvard.edu/publications/2017/11/AIExplanation.最后訪問(wèn)于2020年8月22日。。然而,在現(xiàn)有法律體系中,如果將決策公開(kāi)性作為算法可歸責(zé)性的重要工具,就必須以明確算法決策的主體性為前提。
與傳統(tǒng)的決策主體公開(kāi)不同,算法決策中的主體公開(kāi)是揭示算法技術(shù)輔助決策的可能性,即公開(kāi)決策過(guò)程中是否受到了算法系統(tǒng)的幫助。算法場(chǎng)景下的行政決策,在要求決策主體表明身份的基礎(chǔ)上也要求對(duì)其決策過(guò)程中所依賴“機(jī)器”的程度進(jìn)行披露是非常有必要的,其原因在于:一是不披露由算法決策或者由算法輔助決策可能會(huì)構(gòu)成遺漏與誤導(dǎo)。這是因?yàn)椋谕ǔG闆r下除非另有說(shuō)明,大多數(shù)人都會(huì)認(rèn)為決策是由人類決策者作出的。二是目前雖然算法系統(tǒng)的應(yīng)用可能會(huì)增加披露事實(shí)調(diào)查結(jié)果、這些調(diào)查結(jié)果所依據(jù)的信息和推理過(guò)程的容易程度,但是這些事項(xiàng)最終還需要算法系統(tǒng)向人類決策者進(jìn)行確認(rèn)。因此,不管對(duì)于人類決策者還是算法的程序設(shè)計(jì)來(lái)說(shuō),將這些事情記錄在算法解釋中并不是一項(xiàng)繁重的任務(wù)。
從目前來(lái)看,鑒于實(shí)踐中算法應(yīng)用于行政決策是被允許的,而且在某些情況下甚至可能是可取的。但是,依據(jù)現(xiàn)行法律的規(guī)定,單憑從主體公開(kāi)的角度披露算法決策的這一事實(shí),不太可能成功地對(duì)一項(xiàng)決策提出質(zhì)疑,從而在某種程度上造成人們不信任算法的情況進(jìn)一步加劇。從這一層次上看,問(wèn)題不在于對(duì)算法本身的公開(kāi)性,而在于公眾對(duì)算法決策的信心。因此,如果要讓受行政決策影響的人真正有機(jī)會(huì)決定是否以及如何質(zhì)疑這一行政決策,不僅要在算法決策時(shí)的主體公開(kāi)要求中披露算法系統(tǒng)的存在,并且應(yīng)該公開(kāi)解釋由算法系統(tǒng)提出并由人類決策者采納的任何調(diào)查結(jié)果、建議或結(jié)論。這種解釋?xiě)?yīng)該包含人類決策者在多大程度上考慮了算法決策的推理,而不僅僅是采納建議的結(jié)論。此制度設(shè)計(jì)的根本原因在于受算法決策影響的人如果知道算法技術(shù)有助于決策者考慮必要的問(wèn)題以及與這些問(wèn)題有關(guān)的信息,他們就不太可能對(duì)決策提出質(zhì)疑。因此,對(duì)決策主體以外的算法決策主體的公開(kāi)及解釋為運(yùn)用算法決策的行政機(jī)關(guān)提供了一個(gè)機(jī)會(huì),使公眾對(duì)其決策主體建立信心,有助于傳統(tǒng)法律中行政決策公開(kāi)目標(biāo)的實(shí)現(xiàn)。
2.技術(shù)不應(yīng)該成為說(shuō)明理由的最終解釋。現(xiàn)行法律制度在算法決策的場(chǎng)景下未能達(dá)到?jīng)Q策披露應(yīng)有的法律效用是因?yàn)閷⒓夹g(shù)作為法律所要求說(shuō)明理由的最終解釋。但是,在算法決策場(chǎng)景下,算法本身也是一種技術(shù),將技術(shù)的科學(xué)性作為理由進(jìn)行說(shuō)明解釋并不能合理化該決策的正當(dāng)性。一方面,技術(shù)需要被解釋。正如政府在作出重大的行政決策之前要對(duì)決策中的法律術(shù)語(yǔ)進(jìn)行解釋一樣,算法決策中對(duì)內(nèi)容的公布不應(yīng)該只局限在對(duì)算法系統(tǒng)的披露上,也應(yīng)考慮利用“技術(shù)”界的專業(yè)知識(shí),發(fā)布針對(duì)使用算法系統(tǒng)應(yīng)遵守的規(guī)則,并將其交給具有監(jiān)管職責(zé)的機(jī)構(gòu)進(jìn)行測(cè)試和審查。另一方面,技術(shù)需要針對(duì)不同情形作出不同的解釋。由于這些用于行政決策的算法處于不斷迭代的狀態(tài),故技術(shù)解釋也不能一成不變。如果在技術(shù)解釋中使用模板或標(biāo)準(zhǔn)段落,當(dāng)決策受到影響時(shí),此類模板只會(huì)使決策看起來(lái)符合法律規(guī)定。這時(shí)的理由陳述也會(huì)使人們產(chǎn)生質(zhì)疑,即技術(shù)將提供一個(gè)準(zhǔn)確和客觀的外表,掩蓋有缺陷的決策。這種算法決策的解釋要求會(huì)讓受決策影響的相對(duì)人產(chǎn)生對(duì)決策的不信任——算法決策不會(huì)導(dǎo)致事實(shí)上更好的決定,而僅僅會(huì)增強(qiáng)合法決策的外觀,從而影響決策的法律效力。因此,筆者建議在陳述理由時(shí)也應(yīng)及時(shí)公布所使用的技術(shù)、程序或應(yīng)用程序的版本(例如,eTax 版本2.1)以及該版本的有效日期。各機(jī)構(gòu)應(yīng)公布決策所用技術(shù)的登記冊(cè),包括版本、版本日期和每一版本所包含的變更說(shuō)明。這些信息將有助于受決策影響的人和審查者評(píng)估算法程序納入所有相關(guān)立法和政策變化的可能性。
3.決策程序公開(kāi)中算法解釋權(quán)的合理定位?,F(xiàn)行行政程序法對(duì)于行政決策程序公開(kāi)最為重要的要求便是公眾參與,而公眾參與的核心理念是“聽(tīng)取公眾意見(jiàn)”[20](p13)。例如,《中華人民共和國(guó)環(huán)境影響評(píng)價(jià)法》規(guī)定:“制定環(huán)境規(guī)劃和作出可能對(duì)環(huán)境造成重大影響的建設(shè)決定前,規(guī)劃編制機(jī)關(guān)和建設(shè)單位須公開(kāi)信息,征求公眾意見(jiàn)?!币虼?,傳統(tǒng)法上的程序公開(kāi)不僅僅是工具性的,其體現(xiàn)了自身的最終目的或民主價(jià)值,即知情權(quán)。然而,在算法決策場(chǎng)景下,算法解釋權(quán)并不能達(dá)到知情權(quán)的法律效果?;诤?jiǎn)單決策樹(shù)作出決策的原因或許仍然可以解釋①?zèng)Q策樹(shù)(decisiontrees)是一種推理或決策支持的形式,它使用類似于樹(shù)的圖來(lái)得出結(jié)論,直到20世紀(jì)80年代,它仍然是主要的決策工具,至今仍在使用。參見(jiàn):Stuart J Russell&Peter Norvig:《人工智能,現(xiàn)代方法》(第三版),P638。。但是,如果決策所用的算法是一個(gè)神經(jīng)網(wǎng)絡(luò),易于進(jìn)行非??焖俚臋C(jī)器學(xué)習(xí),則幾乎沒(méi)有時(shí)間在算法運(yùn)行的過(guò)程中進(jìn)行解釋而且在過(guò)程之外也很難解釋其決策背后的原因。因此,有學(xué)者主張,算法解釋權(quán)其實(shí)質(zhì)是一種請(qǐng)求權(quán)。作為算法解釋請(qǐng)求權(quán)的制度核心即為反對(duì)完全由機(jī)器操作的自動(dòng)化決策,要求特定情形下人為因素的適當(dāng)干預(yù),避免使特定個(gè)人的命運(yùn)完全由機(jī)器操縱,甚至出現(xiàn)無(wú)法預(yù)測(cè)的極端風(fēng)險(xiǎn)[21](p88)。不可否認(rèn)的是,解釋也是有必要的,如果行政相對(duì)人不理解決策背后的原因,例如逮捕行政相對(duì)人的決定,行政相對(duì)人也無(wú)法對(duì)此類決定采取有效的補(bǔ)救措施。即使決策是在人為干預(yù)下作出的,人類仍然需要向數(shù)據(jù)主體提供理由,讓其有機(jī)會(huì)有效地質(zhì)疑決策。從目前的規(guī)制來(lái)看,算法解釋權(quán)的構(gòu)建更多關(guān)注要求事先解釋系統(tǒng)如何運(yùn)作,而不是事后解釋決策背后的原因。然而,對(duì)系統(tǒng)或算法功能的抽象理解對(duì)決策對(duì)象來(lái)說(shuō)沒(méi)有多大用處,尤其是處于算法決策拒絕了當(dāng)事人的請(qǐng)求時(shí)的場(chǎng)景下,比如,貸款或信用卡審批?;诖耍瑢?duì)于算法解釋權(quán)應(yīng)解釋的合理定位便應(yīng)該回歸到如何解釋才能讓公眾易于理解而有效地提出質(zhì)疑上來(lái)。
想象我們生活在一個(gè)所有算法都是“白盒”的理想世界中,公眾參與決策時(shí)最想要了解的信息是:(1)作為算法決策輸入的數(shù)據(jù)的信息,(2)關(guān)于影響決策的因素的信息,以及(3)關(guān)于為什么作出某項(xiàng)決定的合理解釋,而不是系統(tǒng)輸出結(jié)果的技術(shù)性信息。在現(xiàn)實(shí)中,鑒于存在的技術(shù)障礙問(wèn)題,除非基于法律的規(guī)則非常明確和精確,如凡超速者都將被罰款,否則基于法律的算法決策必須面對(duì)法律依據(jù)與事實(shí)依據(jù)雙重的開(kāi)放性和需要解釋概念的挑戰(zhàn)。因此,雖然目前以GDPR為首的算法規(guī)制都認(rèn)為算法透明性是涵蓋了從揭示源代碼到解釋其功能的不同透明度。但是,算法決策的過(guò)程中的解釋權(quán)可能只包含解釋決策關(guān)鍵原因這一“唯一”信息,與其將這項(xiàng)權(quán)利指定為“解釋權(quán)”,不如充實(shí)其內(nèi)容,并稱之為了解算法決策原因的權(quán)利與傳統(tǒng)法上的說(shuō)明理由制度進(jìn)行兼容,以保障公眾參與的實(shí)際效用。
2018 年,IBM 發(fā)布了一份白皮書(shū)宣稱:“人工智能技術(shù)不僅會(huì)讓政府在履行職責(zé)和滿足公民需求方面反應(yīng)更加靈敏、更有效,而且會(huì)讓政府在運(yùn)作中更加透明?!泵鎸?duì)政府轉(zhuǎn)型的新呼聲,技術(shù)的進(jìn)步讓算法在行政決策中的應(yīng)用呈指數(shù)級(jí)增長(zhǎng),這使得在人工智能領(lǐng)域和法律領(lǐng)域都需要進(jìn)一步的研究,以達(dá)到理解算法決策的最佳解決方案。人工智能領(lǐng)域的研究人員需要嘗試找到技術(shù)解決方案,以便更容易解釋此類決策,而法律研究人員應(yīng)努力在算法強(qiáng)勢(shì)融入行政決策過(guò)程中所產(chǎn)生的利益碰撞之間再次找到適當(dāng)?shù)钠胶?,首先正?dāng)程序上的保障必不可少。