劉佳明
在公共決策領域,人們對算法的認識主要從制度性規(guī)范角度展開,或是認為算法是在以互聯(lián)網(wǎng)、大數(shù)據(jù)和人工智能為代表的數(shù)字技術驅動下,促進行政方式發(fā)生數(shù)字化變革的一種新范式,[1](p114)或是認為算法治理機制具備面向全社會的控制能力,從而產(chǎn)生了一種新的數(shù)字治理形式。[2](p37-40)算法以其強大的數(shù)據(jù)分析與信息整合能力,在具備替代甚至超越政府做出決策選擇能力的同時,也會面臨一些新的問題。例如在智慧城市建設過程中,大數(shù)據(jù)“黑名單”的建立雖然在一定程度上能夠降低政府的社會監(jiān)管成本,但它同樣有可能使那些被歸類為“黑名單”的人由于數(shù)字所產(chǎn)生的可能懷疑而遭受不公平對待。在算法治理過程中,所有被標記可疑的數(shù)字數(shù)據(jù)以及經(jīng)數(shù)據(jù)庫篩選的結果都由算法主體控制產(chǎn)生,而那些因被列入數(shù)字黑名單導致其權利遭受侵犯的人通常會喪失必要的申訴或救濟途徑。因此,本文將有權機關所制定的、能夠對公民的利益甚至是權利義務產(chǎn)生實質性影響的公共決策算法視為立法性算法。作為算法與法律的結合體,它既內(nèi)含了傳統(tǒng)法律的一般特性,同時也兼具算法的獨特魅力,但由于算法具有非中立性和封閉性,使其應用于公共決策時遭遇一系列問題,從而降低了傳統(tǒng)立法的民主性、科學性等要求。對此,應當首先明確立法性算法的合法性地位,通過算法審查和風險評估使立法性算法在法律規(guī)范的范圍內(nèi)運行,與此同時,保障公眾對算法程序的參與和監(jiān)督,以及強化行政機關對算法應用的監(jiān)管和問責也至關重要。
一般認為,立法主要包括“形式立法”與“實質立法”。從形式上來看,立法是權力機關創(chuàng)制法律的專門活動。立法的功能在于向社會主體提供“一般性行為規(guī)范”。[3](p285)從實質上來看,立法不是在創(chuàng)制法律,而是在發(fā)現(xiàn)法律和陳述法律,它假定存在一種至高無上的原則,體現(xiàn)的是一種實質的、永恒不變的正義,而人法只不過是這些原則的記錄和摹本,制定人法的行為只是發(fā)現(xiàn)和宣布這些原則的行為。[4]{pV}“形式立法”與“實質立法”之間的區(qū)別主要在于,“形式理論聚焦于合法律性(legality)的恰當淵源和形式,而實質理論則進一步包含關于法律內(nèi)容方面的要求(通常要求法律必須符合正義或道德原則)”。[5](p1)二者基于不同角度對立法做出不同定義,從某種程度上來講都是合理的。但是,立法既不是一種唯理主義式的機械化創(chuàng)造存在,也不是一種虛無縹緲式的烏托邦理想。而是以現(xiàn)實人的日常生活世界為前提和疆域,必須依賴于現(xiàn)實的人的具體生活場景。[6](p1)現(xiàn)實人的日常生活需要通過一定的社會交往或行為活動來獲取必要的物質資源基礎,并滿足一定的利益需求,其中包括物質利益和非物質利益。利益最終通過轉換形成法益乃至上升為權利,從而反映主體訴求的社會承認。[7](p82)所以,本文所要討論的立法,實質上就是對不同群體之間利益矛盾和權利沖突進行化解和協(xié)調(diào)的行為秩序安排。如果用以表示此行為秩序安排的是規(guī)則化的法律語言,那么此立法就是成文法。如果是裁判,則是判例法。如果是算法程序,那么就是立法性算法。
如果不拘泥于“立法”的概念,而是著眼于內(nèi)容,只要將某一行為是為了一般性地確定抽象的行為規(guī)則,而不管采取該行動的是立法機關還是行政機關、司法機關或其他的組織,都可以視為立法范疇的話,[8](p4)那么,從廣義上理解,立法性算法則指的是,有權機關所制定的、能夠對公民的利益甚至是權利義務產(chǎn)生實質性影響的決策算法。①根據(jù)算法主體的不同,可以將其劃分為公權力算法和私權力算法。前者是指公權力機關所運用的算法,后者一般是指平臺企業(yè)、數(shù)據(jù)服務公司等私人主體所運用的算法。而“公權力算法”根據(jù)程序性標準又可以劃分為“立法性算法”和“非立法性算法”。參見劉佳明:《公共決策算法的程序規(guī)范——以立法性算法為例》,載《財經(jīng)法學》2022年第5期,第18頁。例如,在行政管理領域,立法性算法無處不在。在經(jīng)濟調(diào)控層面,人工神經(jīng)網(wǎng)絡算法能夠對經(jīng)濟發(fā)展態(tài)勢進行檢測和評估,并對經(jīng)濟發(fā)展形勢進行精確性、預測性分析,從而為政府的宏觀經(jīng)濟形勢分析決策提供技術支撐;在政府規(guī)劃層面,行政管理部門能夠利用機器學習算法編制財政預決算規(guī)劃以及決定重大投資事項等等。這些算法的運用既會影響到社會資源的分配格局和公民的行為活動空間,甚至還會對公民的權利義務產(chǎn)生實質性影響。因此,基于算法在不斷自我學習和重復訓練中與整個社會、尤其是與國家權力融合過程中,逐漸發(fā)展成為一種管理、判斷、調(diào)節(jié)、影響或者以其他方式約束公民行動的強大實體,從而使算法具備相應的權力屬性。與此同時,在算法普遍應用空間范圍內(nèi),總會包含一些有規(guī)律性或統(tǒng)一性的行為,人們會反復遵守和執(zhí)行這些算法,并將其視為社會生活和行動的指南。算法因而也就具有了明確的法律傾向,在這里,所謂的法律傾向不僅指算法這種行為規(guī)則與傳統(tǒng)法律具有相同的屬性,而且還指算法作為一種特殊之法,它的產(chǎn)生并不是由任意機關單方面主觀臆造的,也不是依照特定機關的主觀接受為依據(jù)而存在的,它是由有權機關依照一定程序所制定的,必須符合立法的一般標準。
但是,本文所要討論的“立法性算法”與純粹的“立法算法”仍然存在較大的不同。對此有必要進行區(qū)分:一方面,真正的“立法算法”應當是算法造法,這主要出現(xiàn)在判例法制度國家。例如,在英美法系國家,司法先例具有造法功能,即通過形成司法先例創(chuàng)制普通法與衡平法規(guī)則。[9](p51)而一旦司法先例是由法官依據(jù)自動化算法裁判系統(tǒng)所作出,并且該判例對以后遇到的相同案件法律問題的解決具有拘束力或說服力,能成為相同或同類案件的判決依據(jù),那么這一判決就構成了立法算法。例如,在美國法院,法官在案件的量刑裁判中使用了COMPAS 風險評估算法的評估結果,并基于此項評估結果對案件當事人作出判決,一旦該判決對以后的案件具有拘束力,那么該算法就將成為真正的立法算法。另一方面,本文的“立法性算法”與國內(nèi)立法機關的立法也有所不同。后者特指全國人大及其常委會在法定職權和程序范圍內(nèi)所專門創(chuàng)造的法律。立法機關的職權法定和程序法定決定了其立法行為具有天然的正當性和合法性,人們因而也會主動遵守并執(zhí)行立法機關所制定的法律。但是,立法性算法的主體是算法程序設計者,作為普通主體,如果沒有法律授權作為依據(jù),由他們來“立法”,其合法性值得人們質疑。因此,具有立法性的算法既不能像英美法系國家一樣通過適用自動化算法作出的司法裁判直接成為判決依據(jù),也不能像國內(nèi)立法機關一樣通過正式的立法程序直接形成法律。所以,這就決定了立法性算法需要在改變?nèi)藗儗鹘y(tǒng)法律和算法認知的差異,以及在遵循法定程序和實體要求的基礎之上,積極主動地參與國家治理和公共治理,從而達到“立法”的目的,并獲得“合法性”地位。
事實上,人們?nèi)绾慰创⒎ㄐ运惴ㄈQ于怎么看待法律。正如前文所言,立法應當是一種實在的,能夠體現(xiàn)為對現(xiàn)實人的生活關懷的行為秩序安排。而利益是實在的,它同人們的現(xiàn)實生活直接融合在一起,并與人們的生活密切相關,是人們可以直接感知的事物,其中包括獲取某種滿足生活需要的資源,而這種資源滿足的程度以客觀規(guī)律、社會環(huán)境和社會制度所認可的范圍為限度。[10](p24-25)所以,法律應當以社會為基礎,是社會共同的、以一定物質生產(chǎn)方式所產(chǎn)生的利益和需求的具體表現(xiàn)。法律秩序也就代表了調(diào)和彼此利益對立的重要制度安排。[11](p66)但是,主體的行為難免會與法律規(guī)范不一致,從而對法律所確定的利益關系造成障礙或破壞,繼而引發(fā)社會矛盾和沖突,因而必須建立相應的社會沖突解決機制來保障利益主體所實際享有的利益。[12](p76)國家行政和司法機構就充當了社會沖突法律解決機制的兩種基本運作形態(tài),成為具體執(zhí)行和適用法律的保障者。當然,此處的法律不僅包括形式意義上的由全國人大及其常委會所專門制定的法律,同時還包括由行政、司法和其他社會組織所制定的具有實質性內(nèi)容的法律,這些都構成了廣義上的“法”。
另外,人們?nèi)绾慰创⒎ㄐ运惴ㄟ€取決于怎么看待算法。從技術角度分析,“算法是任何良定義的計算過程,該過程取某個值或值的集合作為輸入并產(chǎn)生某個值或值的集合作為輸出”。[13](p30)人類經(jīng)驗的逐步數(shù)字化,加上計算機引擎的設計,使算法的科學性得以無限擴展。算法在促進人類實踐理性的同時,也在無形之中拓寬了人類的生存和思維空間。隨著人工神經(jīng)網(wǎng)絡技術的研發(fā)和改進,基于大數(shù)據(jù)集的自我學習過程能夠形成規(guī)則集并應用于不同場景需求之下的感知和決策任務,從而使算法與社會關系不斷融合,并逐漸發(fā)展成為影響社會資源配置格局和公民行為活動空間,甚至能夠對公民的權利和義務關系造成實質性影響的重要行為規(guī)范。例如在公共領域,包括風險評估算法、行為識別算法以及排序算法等諸多算法規(guī)則的運用已經(jīng)成為全體社會成員共同的行為規(guī)范標準,并實際影響了公民的權利和利益。隨著算法與國家權力的進一步融合,算法還能對社會主體施加不亞于國家權力的影響力和控制力,從而實現(xiàn)對社會進行無孔不入的構建、干預、引導和改造。[14](p66)在此基礎上,有關算法的認識不只是一種特殊程序、指令和邏輯,還是一種新的技術規(guī)范或行為秩序,算法也就成為一種能夠對傳統(tǒng)法律體系和法律秩序造成深刻沖擊的重要力量。[15](p13-15)
事實上,對立法性算法的確認,我們不一定非得追溯至該算法是否由國家權力機關通過明確的立法活動所產(chǎn)生。相反,我們只需要證明那些能夠影響公民權利義務的關系本應由法律來調(diào)整,卻受到算法的調(diào)整,并且在算法調(diào)整過程中,不存在影響該算法有效性的任何因素。當人們越來越服從公共領域中的算法決策,并且對逃離算法控制所感受的壓力愈加強大之時,此時算法可以被認為是具有立法性的。在哈特看來,“凡存在法律的地方,人們的行為在某種意義上已成為非任意性和必為的?!盵16](p84)事實上,在許多重要問題上,社會關系是受算法所調(diào)整的,而且這些關系還具有非任意性和必為性,那么此種算法實際上就是一種立法性算法。但是,算法不等于抽象的數(shù)學,任何算法都包含著特定群體的價值判斷,這種價值判斷必然受到諸多現(xiàn)實利益的影響。[17](p17)因此,立法性算法的實現(xiàn)仍然需要通過法律對其加以規(guī)范和引導,需要借助現(xiàn)代立法中的程序正義和實體正義來促成立法性算法的理性發(fā)展。
立法性算法作為算法與法律的結合體,既內(nèi)含傳統(tǒng)法律的一般特性,同時也兼具算法的獨特魅力。作為影響社會主體利益需求表達的另一種方式,算法主要通過海量數(shù)據(jù)運算來配置社會資源,或形成特殊規(guī)范來影響或控制人的行為,但是,與傳統(tǒng)法律相比,算法又具有自身獨特的價值。對此,可以將其歸納為以下三個方面:
其一,在信息傳遞上,算法由程序構成,傳統(tǒng)法律由文本構成。法律必須通過一定的中間媒介(物理媒介),方能予以記錄、固定、公布和保存。從古至今,法律文本經(jīng)歷了從石碑、泥板、銅鼎再到紙張等一系列媒介的記載過程。在近代社會,紙張已經(jīng)成為最主要的法律文本載體,幾乎所有社會制度的重要變革都需借助明確的立法形式并記載于紙張之上,它是公民接觸和了解法律信息的主要渠道。隨著互聯(lián)網(wǎng)技術的發(fā)展,法律文本“無紙化”傾向愈加明顯,程序員通過建模方法將人類語言轉變?yōu)橐幌盗袡C器可以識別的數(shù)字并存放于計算機系統(tǒng)。在物質空間和網(wǎng)絡物理空間的融合中,數(shù)字世界的物體因此獲得了物質價值,而物質對象則轉化為數(shù)字代碼。[18](p148)
其二,在推理模式上,算法采用的是形式符號邏輯主義,傳統(tǒng)法律是論證推理主義。長期以來,法律推理主要包括兩種模式——形式符號邏輯和論證理論。[19](p177)前者是機器邏輯(又稱“形式邏輯”),后者是人腦邏輯(又稱“非形式邏輯”)。算法采用的推理模式是形式邏輯主義,專家系統(tǒng)(Expert Systems)就是算法在形式推理上深度發(fā)展的具體表現(xiàn)。①專家系統(tǒng)通常包含三個特征:透明性、啟發(fā)性和靈活性。參見Richard E.Susskind,Expert Systems in Law:A Jurisprudential Approach to Artificial Intelligence and Legal Reasoning,ModernLaw Review,1986,(49),p172-178.美國蘭德公司民事司法研究中心唐納德·沃特曼和馬克·彼得森早期通過實證方法研究了專家系統(tǒng)作為一種實用工具方法在法律推理應用中的具體表現(xiàn),并對其建模進行了詳細論證。他們建立了名為“法律判決輔助系統(tǒng)”的程序來評估產(chǎn)品責任案件中機器解決問題的實際價值。該程序使用基于規(guī)則的嚴格責任、比較過失和損害賠償?shù)扔嬎隳P陀嬎愠鲋С诌^失結論背后所應用的推理,并能夠模擬和解與談判。雖然實驗證明了形式推理在法律領域的適用性,但也發(fā)現(xiàn)了一些不足,如它掩蓋了用不精確的術語進行推理所固有的困難,并且低估了法律推理模式中的對抗性。[20](p1966)與此同時,基于形式符號邏輯的法律推理模式在涉及一些“常識性”知識或感知任務之時也存在諸多困難。
其三,在表現(xiàn)形式上,算法具有動態(tài)性和不確定性。通過對海量數(shù)據(jù)進行深度挖掘、分析和整理,算法能夠自動對社會主體生成量身定制的指令。在算法世界里,這些指令被認為是算法主體依據(jù)治理目標以及個體行為來進行校準的。[21](p1424)例如,行政機關可能越來越依賴于由算法支持的方法定制微觀指令,或通過算法進行自動化監(jiān)管,而不是依據(jù)法律或一般規(guī)則。這種算法有兩個特點:第一,算法根據(jù)一個預測模型所產(chǎn)生,它是高度適合個人和環(huán)境的定律;第二,通過將法律風險或行為預測聯(lián)系起來,算法可以及時、有效地實現(xiàn)對公民行為的預測和預判,從而對其進行個性化、動態(tài)化的監(jiān)管。[22](p1010)與傳統(tǒng)法律治理方式相比,算法能夠幫助政府對紛繁復雜且多變的社會現(xiàn)象進行持續(xù)、準確的預測和監(jiān)控,有利于提升公共治理的靈活性和有效性。
隨著算法不斷嵌入公共治理領域,基于人類傳統(tǒng)認知的治理模式正受到算法技術前所未有的科學化審視。在民主化進程中,作為工具理性的算法在實現(xiàn)既定公共治理目標的實踐手段和行為方式上與傳統(tǒng)法律相比具有更多的優(yōu)越性,但民主進程的推進以及合法性政治地位的獲取還必須依靠特定社會所固有的價值原則,例如正義、公平與秩序,這些都必須建立在工具理性和價值理性協(xié)同作用的基礎之上。但是,針對立法性算法而言,一個過度依賴數(shù)據(jù)統(tǒng)計的治理模式會偏離傳統(tǒng)法律所遵循的固有價值體系。而現(xiàn)代立法理念的價值理性在于,立法能夠以其公開和透明的程序讓普通民眾參與其中,并通過合理的利益整合機制有效化解矛盾和沖突。
一方面,立法公開能夠保障公眾參與從而實現(xiàn)程序正義。程序正義既是法律制度的基本價值,也是實現(xiàn)立法公正的先決條件。羅爾斯將程序視為構建正義理論的基礎,他認為正義是保障法治公正的首要條件,而法治的形成則取決于一定的正當程序過程。程序正義一直以來被用于研究人們關于法律制度的公平感受。社會心理學研究揭示,當法律權威無法讓人們得到所期望的結果時,通過一個公平的程序來做出決定,更有可能獲得人們的認可和接受,并保證人們自愿執(zhí)行決定、遵守法律和樹立法律權威。[23](p63)
另一方面,“法律對社會的控制是通過調(diào)整利益來實現(xiàn),利益規(guī)律是法律的基礎”。[24](p31)但是,法律本身并不創(chuàng)造、發(fā)明利益,而是對利益關系的社會選擇。立法作為調(diào)整利益關系的一種有效方式,在面對形形色色的利益需求時,如何將不同社會成員的、不同利益主體的利益要求反映在立法過程中,不僅僅是不同社會成員的利益所在,也是制定出“良法”的前提條件。[25](p26)在傳統(tǒng)立法模式下,立法者不僅需要根據(jù)既定標準對不同主體的利益訴求進行權衡和判斷,還需要全面、客觀、真實地揭示社會利益結構,避免立法者個人目的、情感、偏好等主觀因素,力求客觀反映社會的真實利益表達構成,從而實現(xiàn)利益的有效整合。
算法與傳統(tǒng)法律之間的差異遠非僅限于形式,算法所做的立法選擇可能比人類的選擇更具有自我延續(xù)性和路徑依賴性。當算法決策代替人類傳統(tǒng)立法選擇時,我們應當認真思考算法對現(xiàn)行法律制度的價值、內(nèi)容將產(chǎn)生什么樣的實質性影響。由于算法系統(tǒng)具有封閉性,這意味著算法程序是不透明的,人們不能從系統(tǒng)外部去理解算法決策是如何產(chǎn)生的,也不能用傳統(tǒng)的應用于統(tǒng)計的直觀和因果語言對其進行邏輯解釋。另外,算法“黑箱”的存在還為行政機關強化對算法應用的控制提供了便利,行政機關可以在缺乏公眾參與的情況下對算法程序的設計產(chǎn)生實質性影響,從而影響或控制利益分配目標的實現(xiàn)。相反,傳統(tǒng)立法受到程序的約束和控制,在立法過程中能夠接受公眾參與和監(jiān)督,因而與現(xiàn)代法治文明相符。也正是在這一層面上,立法性算法的產(chǎn)生和運用存在諸多問題。
首先,立法性算法會面臨合憲/合法性問題。在我國《憲法》《立法法》等相關規(guī)定中,授權立法的主體主要包括全國人大及其常委會,以及地方各級人大及其常委會等,這從客觀上排除了行政機關授權其他主體從事立法行為的可能。因此,立法性算法的存在使我們當下面臨兩種可能:第一,行政機關是否有權授權其他主體來從事立法性算法的程序設計。第二,若非授權,行政機關能否借助其他主體設計的立法性算法程序來行使立法性權力。第二種情況提出了不同的法定解釋問題,即授予某一行政機關某些立法權力的法規(guī)是否排除了該機關將其權力再次授權或委托給其他主體的可能。這些都會導致立法權力在違背法定的情形下發(fā)生轉移。
其次,算法程序設計的非中立性會影響科學立法目標的實現(xiàn)。由于算法的運行邏輯是經(jīng)驗的,所有判斷都從數(shù)據(jù)中產(chǎn)生,并通過應用程序轉化為決策結果。雖然算法主體所設計的每一個算法程序可能都遵循相同的程序規(guī)則,但它同樣能夠強化系統(tǒng)中業(yè)已存在的偏見和誤差。例如社會上的某些群體因其身份而受到不公平對待,那么通過數(shù)據(jù)化分析作為立法考量因素的決策算法則會進一步加劇原有的不平等現(xiàn)象,這可能是數(shù)據(jù)收集過程中的一些無意識偏見,也可能是算法程序設計中固有的偏見,或者,這可能是由算法程序中某個地方的隨機技術故障所引起的。因此,那種將算法視為客觀中立的想法實質上掩蓋了算法內(nèi)部運行的復雜情況,它忽視了算法所產(chǎn)生的系統(tǒng)性和結構性不公平等因素。此外,作為一組接受輸入并輸出的特殊機制,算法主體對輸入數(shù)據(jù)所做的假設并非總是正確的,而算法程序也并非總是按照設計者的預期運行。無論這些因素是故意還是偶然所致,算法總是會或多或少受到特定群體價值偏見的影響,這種影響既可能是程序員分配某些因素不恰當權重的結果,也可能是數(shù)據(jù)挖掘本身出錯的產(chǎn)物。[26](p96)
再次,算法程序的設計因缺乏公眾參與和監(jiān)督而降低了立法的民主性要求。在算法程序的設計過程中,公民對算法程序設計的參與過程往往具有被動性與間接性,他們無法充分控制自己的價值需求和偏好,也無法將其轉化為立法選擇。即使公民能夠通過指定平臺直接參與算法程序設計的全過程,也無法就算法程序所涉問題發(fā)表自己的意見,并就這些問題與之進行合理的辯論。而且社會弱勢群體成員所獲得數(shù)字設備、技術和網(wǎng)絡的機會相對更少,加之許多受教育程度不高的人并不擁有能夠創(chuàng)建與算法程序相關數(shù)字內(nèi)容的權力資源,因此,算法程序的設計可能會帶有專斷性。此外,算法決策的產(chǎn)生還取決于所輸入數(shù)據(jù)的全面性和多樣性,一旦數(shù)據(jù)缺失或錯誤,基于數(shù)據(jù)輸入所做出的立法選擇將使社會不平等的現(xiàn)象長期存在,從而導致反饋循環(huán),并最終引發(fā)“二階性偏見”①如果輸入的數(shù)據(jù)本身是不平等或有偏見的,那么輸出的結果有可能會強化這一特點,由此導致的結果是強者越強,弱者越弱?,F(xiàn)象。
最后,算法“黑箱”的特性還會給治理帶來不可預測性。一方面,算法運行通常包含隨機過程,當一個給定的變量因子進入分類時,不同變量之間往往存在復雜的、不可預測的交互作用效應,這意味著相關變量的加入會導致算法結果差異的增加,也可能會減少。[27](p1224)另一方面,由于人類自然語言系統(tǒng)與其所表示內(nèi)容之間的聯(lián)系是固定的,而構成算法程序的人工語言系統(tǒng)則過于簡單,在面對社會關系背后種種復雜和不確定性因素時,算法程序難以及時、有效地改進和應對。程序員將人類語言翻譯成計算機代碼時通常會改變原有語言的實質內(nèi)容,由此產(chǎn)生的缺陷治理規(guī)則可能會構成新的行為規(guī)范,從而影響到廣泛的社會群體。
在公共治理領域,算法以其強大的數(shù)據(jù)分析與信息整合能力在不斷自我設定目標并進行優(yōu)化的同時,難以避免本身存在的內(nèi)在缺陷以及人類對其的不當運用。因此,面對立法性算法帶來的問題,必須尋求從算法運行的內(nèi)在邏輯和外部規(guī)制策略著手,通過程序和實體雙重規(guī)范路徑推動算法設計與立法制度的有效銜接,從而使其成為一種配置社會資源、調(diào)整行為空間的有效方式。
立法性算法與傳統(tǒng)法律在形式上存在差別,但仍有許多相同的本質特征,即算法能夠配置社會資源格局以及調(diào)整人們的行為活動空間,甚至還能對公民的權利義務產(chǎn)生實質性影響。與此同時,在算法決策運用的范圍內(nèi),它還具有普遍性和強制性。因此,針對立法性算法而言,應當先將算法程序設計過程視為一項正式立法過程,從而明確公共決策算法產(chǎn)生的立法屬性,并將其納入立法程序的規(guī)范范圍。
我國《立法法》第9 條規(guī)定全國人大及其常委會可以授權國務院制定行政法規(guī)。第12 條規(guī)定:“授權決定應當明確授權的目的、范圍。被授權機關應當嚴格按照授權目的和范圍行使該項權力。被授權機關不得將該項權力轉授給其他機關?!泵绹堵?lián)邦憲法》第1 條第1 項指出,憲法所授予的立法權均屬于參議院與眾議院所組成的美國國會。②參見U.S.CONST.ART.1&1:all legislative Powers herein granted shall be vested in a Congress of the United States,which shall consist of a Senate and House of Representatives.美國傳統(tǒng)的禁止授權原則經(jīng)歷了長時間的發(fā)展,并根據(jù)現(xiàn)代社會的需要調(diào)整原則的內(nèi)涵,形成了所謂的“新禁止授權原則”,即要求行政機關在行使授權時提供明確說明的原則。[28](p61)如此既可以力求國會科學授權,也可以限制行政機關的裁量權。而在人工智能與立法學研究中,美國有學者將非人類決策工具與禁止授權原則以及關于正當程序、反歧視和政府透明度的規(guī)則相結合來研究算法與立法的關系,認為對于行政機關來說,機器學習是一種人類判斷的進化,它融合了基本上相似的決策過程,依靠算法決策不僅準確,而且通常更實用。[27](p1150)通過立法明確立法性算法的授權主體及其功能定位,并對算法程序設計的目的和使用權限范圍進行劃定,對規(guī)范立法性算法的產(chǎn)生及其應用具有重要作用。
因此,從制度層面來看,明確立法性算法的合法性地位,還需要立法機關制定一部統(tǒng)一的公共算法決策法。為保障算法程序設計的合法性和正當性,以及保證算法程序設計過程中的公開透明,亟須在立法中明確確認立法性算法的合法地位。對于涉及社會公共福利和公民權利等重要核心領域的公共決策事項應當嚴格規(guī)定由有權機關進行。算法在公共決策中仍然是輔助性的地位,不能代替或超越有權機關直接作出立法性決策。對于其他一般性決策或治理事項,為了提升決策效率和減少成本,有權機關可以適當借鑒算法技術進行,但前提是這種算法模型的設計經(jīng)過了事前的審查和風險評估,否則,對算法所作出的公共決策仍需要持謹慎態(tài)度。
我國《行政訴訟法》第53 條、第64 條專門規(guī)定了司法機關對行政立法性文件進行的附帶審查裝置,從而彌補了傳統(tǒng)行政訴訟框架只審查行政行為合法性的缺陷,并擴展了司法裁判的觸及疆域。2018 年2 月施行的《最高院關于適用〈中華人民共和國行政訴訟法〉的解釋》第148 條更是直接對立法性文件附帶審查的程序與標準進行了更為細致的規(guī)定,主要從“超越職權”“上位法抵觸”“權益受損”以及“制定程序違法”這幾個角度設定了具體的司法審查標準,這些同樣可以用于審查公共領域中的立法性算法。具體而言,可以從算法程序的設計和使用主體、算法的使用程序、算法的程序和決策內(nèi)容等方面對被訴請對象的可審查性、與爭訟決策算法的關聯(lián)性和合法性進行詳細調(diào)查。但是,由于立法性算法與立法性文件的形式具有相似性,所以立法性文件附帶審查的標準、方法及其相關研究對立法性算法的審查研究皆有幫助。不過,受制于算法與傳統(tǒng)法律在信息傳遞、推理模式以及表現(xiàn)形式上的差異性,也不能簡單地將二者類比套用。
對此,應當通過算法審查和風險評估的方式來保障立法性算法的合法性。從方法上來講,算法審查主要包括非侵入用戶式審查(Noninvasive User Audit)、借助傀儡審查(SockPuppet Audit)、層層打開式審查(Scraping Audit)與聯(lián)合審查(Collaborative Audit)等三種手段。[29](p1-18)目前,國外已經(jīng)采用相關技術手段來審查算法的應用,例如靜態(tài)測試和動態(tài)測試,前者通過審查程序公開的源代碼,以便監(jiān)管人員能夠確定算法程序的運行行為;后者能夠幫助系統(tǒng)開發(fā)和操作人員確定如何監(jiān)控其操作,甚至對軟件系統(tǒng)進行結構化審查,以便可以及時地發(fā)現(xiàn)和糾正偏離預期的行為。[30](p648)而在算法審查過程中,為了保證算法是依照一套特定的程序標準和自動決策過程所產(chǎn)生的,算法控制者還必須對實現(xiàn)決策的軟件進行加密處理,并承諾已確定并記錄了所擁有源代碼、輸入數(shù)據(jù)或計算結果,這將有助于證明軟件和決策策略都不受后期信息或事件的影響。但是,加密承諾本身并不能防止提交者撒謊并生成一個它根本無法打開的虛假承諾,也不能破壞(或拒絕披露)允許打開有效承諾的信息。由于審查機構并不知道錯誤行為的性質,因此,待正式披露承諾內(nèi)容時,無論是提交人沒有正確地打開密鑰,或是隱瞞原始文件中的內(nèi)容,都可以視為承諾人存在不端行為。[30](p648)
而在風險評估上,評估算法對個人造成的潛在不利后果,需要確立以風險為中心的算法規(guī)制框架。[31](p186)例如歐盟《通用數(shù)據(jù)保護條例》第35 條的數(shù)據(jù)影響評估就規(guī)定了當數(shù)據(jù)能對自然人的權利帶來高風險時,就必須要求數(shù)據(jù)控制者對個人數(shù)據(jù)的影響進行評估,其中包括對自然人產(chǎn)生法律影響或具有類似重大影響、定罪或違法相關數(shù)據(jù)以及可能會對私人空間進行監(jiān)控等三種具體情形作出了強制性的風險評估規(guī)定。為了保證監(jiān)管機構對風險的管控,該條例第36 條還規(guī)定了當評估表明數(shù)據(jù)控制者如果不采取有效措施或無法識別和減輕風險時,應事先向監(jiān)管機構進行咨詢,從而使監(jiān)管機構能做出客觀的風險決策。通過建立健全相應的算法審查和風險評估制度的配套機制,使其能與數(shù)據(jù)保護影響評估進行有效銜接。此外,還可以廣泛吸取不同利益相關方以及其他社會力量的意見,來對算法決策存在的可能風險進行協(xié)商,從而實現(xiàn)管理和控制有爭議的風險,推動立法性算法的產(chǎn)生及其良好運行。
事實上,大多數(shù)人沒有能力審查算法是如何產(chǎn)生的,即使這些算法是以透明的方式產(chǎn)生的。通過設立專業(yè)的司法審查部門或委托其他專業(yè)性評估機構來審查算法,也不失為一條有效之策。對此,算法審查和風險評估義務的主體應當由第三方機構代理執(zhí)行,該機構至少包含以下特征:專業(yè)性,即該機構的人員應當由具有不同學科知識背景的專家組成,以保證算法審查和評估的專業(yè)化;獨立性,即該機構應當與公共部門和私營主體分離,不受其他部門的干涉,確保審查和評估結果的公正可靠;合法性,即該機構的設立必須由法律授權產(chǎn)生,其職責范圍由法律明確規(guī)定;公平性,即該機構應當依照法定的要求和程序來審查算法,確保審查和評估結果的公平。[32](p93)
一方面,通過公開算法程序來保障公眾的全過程參與和監(jiān)督。根據(jù)《立法法》第5 條關于立法公開原則規(guī)定之要求,有權機關需要披露設計的相關算法規(guī)則,其中包括正在優(yōu)化的目標函數(shù)、用于優(yōu)化的方法、算法的輸入變量以及開放源代碼,這樣公眾就可以據(jù)此參與立法性算法程序設計的全過程。[33](p25)算法公開是一套精密化的流程,它不僅包含著告知、向主管部門報備參數(shù)、向社會公開參數(shù)、存檔數(shù)據(jù)和公開源代碼等不同形式,同時還需結合場景和目標選擇適當?shù)耐该骰x務,通過多重維度的算法透明機制的構建來實現(xiàn)算法問責目標。[34](p163)
另一方面,通過專家輔助和重大事項聽證、論證的形式來保障公眾對算法程序的實質參與和監(jiān)督。鑒于算法技術的專業(yè)性和算法語言的特殊性,缺乏必要專業(yè)知識基礎的普通公眾很難參與算法程序設計,導致公眾參與算法決策的實質性效果大大降低。為此,可以通過引入“交流型專家”來協(xié)助技術內(nèi)核部分,“在專家和公眾之間實現(xiàn)知識傳遞和共識達成,并在決策過程中細化和具化公眾參與的能力,從而保障公眾的實質參與”。[35](p220)對于一些涉及重大事項的算法程序設計還需要廣泛征求各方意見,可通過采取專家座談會、聽證會、論證會以及向社會公布算法程序、公開征求意見等多種形式和要求,最終該算法程序才能正式投入使用。[33](p25)
行政機關對算法的監(jiān)管主要包括算法程序的設計、部署以及事后評估等三個階段。一方面,在算法程序的設計階段,程序員需要對嵌入其中的價值類型進行規(guī)范和道德反思,使算法可以通過遵循、實施和提升某些主流價值來符合特定場景的社會需求,而監(jiān)管人員則需要審查程序員是否遵循了相應的技術規(guī)范和法律規(guī)范,保障算法的應用能夠符合基本的合法性和公共性要求。在算法程序正式被應用到公共治理領域之前,行政監(jiān)管人員還必須圍繞算法程序應用的社會效果和風險進行事前評估,對算法程序可能產(chǎn)生的道德風險、倫理風險、政治風險和文化風險進行全面、客觀的評價。另一方面,建立有效的可預測性和可解釋性度量標準,并為開發(fā)符合這些標準的算法程序制定行動指南。該指南可以基于對算法程序的預期用途、可能產(chǎn)生的關鍵錯誤、可接受錯誤的類型以及可能產(chǎn)生的預期法律后果和解釋原則等方面,為算法程序的應用提供可行的指導規(guī)劃,使立法性算法程序的設計和應用有章可循。此外,還應當合理限制算法在公共決策領域的運用范圍。即使算法決策運用效果明顯,也要對其持一定的謹慎態(tài)度,不能將整個公共決策過程完全交由算法程序去執(zhí)行,行政監(jiān)管機構要對算法技術的嵌入程度、程序操作標準以及民主性內(nèi)容進行相應的程序化規(guī)定,并將立法性算法程序的應用和操作控制在一定合憲/法性、程序性和公共性范圍內(nèi)。
在算法問責問題上,國內(nèi)有研究者主張將算法責任視為一種嚴格責任,即只要算法在應用過程中產(chǎn)生了風險或給相對人造成了實際損害,算法的研發(fā)者和應用者都應當被要求承擔相應的算法責任,即便他們事先已經(jīng)取得了利益相關者的同意,或者即便是由于純粹的技術缺陷所引起的傷害,也不能成為算法主體推責和逃脫懲罰的阻卻理由。[36](p66)此外,算法問責的實現(xiàn)還需通過完善相應的問責程序,從而保障問責能夠有效執(zhí)行,其中包括設立專門的算法問責受理機關來統(tǒng)一接受投訴、檢舉、控告,明確算法責任的處理期限,規(guī)定算法問責的啟動程序等等。鑒于算法技術高度復雜的運算方式和特殊的語言表達形式,以及算法決策社會影響的廣泛性和嚴重性,有必要成立由專家、技術工作者和特定管理人員共同組成的大數(shù)據(jù)算法決策問責委員會,來對算法決策造成的傷害進行評估和認定,并為相對人出具相關證據(jù)和書面報告。[37](p126)