国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能算法輔助行政決策的法治風(fēng)險及其化解路徑

2023-04-29 14:31:16杜昕怡肖澤晟
學(xué)習(xí)論壇 2023年3期
關(guān)鍵詞:依法行政人工智能算法

杜昕怡 肖澤晟

[摘要]人工智能算法輔助行政決策契合行政決策體制改革方向,能夠應(yīng)用于行政決策的全過程和多領(lǐng)域。其意義在于通過輔助公眾參與、識別公眾需求、自動收集數(shù)據(jù)、深度學(xué)習(xí)自主推導(dǎo)、評估風(fēng)險預(yù)測行為、全面收集和深度分析大數(shù)據(jù),以提升行政決策的民主性、科學(xué)性。但人工智能算法輔助行政決策可能存在法治風(fēng)險:算法隱匿和算法偏差可能危及利害關(guān)系人的實體權(quán)利,包括利害關(guān)系人的真實權(quán)益關(guān)切、隱私保護和平等對待要求;算法代表和算法至上可能危及利害關(guān)系人的程序權(quán)利,包括不符合正當(dāng)程序原則的基本要求、不利于利害關(guān)系人的真實意愿表達、不利于利害關(guān)系人的真實程序性參與;當(dāng)出現(xiàn)算法決策錯誤時責(zé)任承擔(dān)主體不明確。這在一定程度上違背了行政法治原理中的良法善治要求。因此,應(yīng)當(dāng)圍繞人工智能算法問題,從人工智能算法自身、行政機關(guān)、利害關(guān)系人三個方向?qū)ふ曳ㄖ纬雎?,完善人工智能算法的合法化設(shè)計,加強行政機關(guān)對人工智能算法的合法性、倫理性和合規(guī)性審查,完善算法公開制度,健全算法輔助決策的行政責(zé)任制度,從而契合行政法治原理的要求。

[關(guān)鍵詞]人工智能;算法;行政決策;依法行政

[中圖分類號]? D922.1[文獻標(biāo)識碼]? A[文章編號]1003-7608(2023)03-0122-08

一、問題的提出

行政決策是政府依據(jù)既定政策和法律,面對要解決的問題,收集信息、擬定方案、作出決定的行為過程。我國的行政決策模式幾經(jīng)嬗變,已由以權(quán)力集中、運作封閉和內(nèi)部協(xié)調(diào)為特征的傳統(tǒng)決策模式轉(zhuǎn)為現(xiàn)代決策模式,更加注重決策過程的民主參與和專家參與,增強決策的開放性、合法性和科學(xué)性[1]。黨的十九大強調(diào)了科學(xué)決策、民主決策和依法決策的重要性,推進重大行政決策的科學(xué)化、民主化和法治化更成為推進行政決策體制變革的基本目標(biāo)。

在這一目標(biāo)的指引下,如何完善行政決策體制成為熱點議題[2],人工智能算法在行政決策中的應(yīng)用逐漸成為現(xiàn)實。人工智能算法是一系列計算機指令組成的程序[3],其相比一般算法的特殊之處在于,人工智能算法能夠模仿人類在解決問題時所表現(xiàn)出來的智能行為,進而推動特定問題的解決[4]。行政決策和人工智能算法在概念上具有內(nèi)在親緣性,但是囿于“弱人工智能”發(fā)展階段的桎梏、算法設(shè)計的種種問題以及責(zé)任承擔(dān)能力的欠缺,人工智能算法嵌入行政決策時只能處于輔助性地位[5]。但不論人工智能算法的發(fā)展階段及其在行政決策中的地位如何,行政法治原理總是行政決策智能化的邊界,也是人工智能算法輔助行政決策應(yīng)當(dāng)遵循的首要標(biāo)準(zhǔn)。學(xué)界亟須回應(yīng)的問題是,如何化解人工智能算法輔助行政決策與行政決策的法治化要求之間的張力。

概括來說,行政決策的法治化要求既包括形式要求,也包括實質(zhì)要求。一方面,在最基礎(chǔ)意義上,行政決策應(yīng)當(dāng)實現(xiàn)決策的依法化,決策的程序與內(nèi)容應(yīng)當(dāng)符合法律法規(guī)的指引。出于這個原因,人工智能算法輔助行政決策的法治化風(fēng)險,首先可能體現(xiàn)為對依法化原則性的僭越。除此以外,決策的形式法治要求還包括決策對明晰、確定等合法性原則的滿足,以及決策程序上的民主化與科學(xué)化。另一方面,在實質(zhì)要求上,行政決策應(yīng)當(dāng)尊重并考慮個人權(quán)利、正義與社會福祉[6]。只有當(dāng)人工智能算法輔助行政決策同時滿足法治的形式要求與實質(zhì)要求時,它才是不與法治相背離的、可接受的技術(shù)進步。

結(jié)合目前既有研究文獻來看,人工智能算法輔助行政決策的法治化問題尚未成為關(guān)注和討論的焦點,失焦表現(xiàn)為兩點。第一,學(xué)界多是對人工智能的主體地位和權(quán)利問題[7]、人工智能算法的風(fēng)險問題和規(guī)制問題[8]展開討論。這些宏觀探討有助于我們理解人工智能的一般特征及其在其他具體領(lǐng)域中的應(yīng)用,但尚未步入行政領(lǐng)域。第二,在行政領(lǐng)域,現(xiàn)有研究主要圍繞人工智能參與行政執(zhí)法[9]、公共治理[10]及其法治風(fēng)險應(yīng)對展開[11]。這些研究探討了人工智能有可能造成的歧視問題、公平問題和行政相對人權(quán)利保護問題,在此基礎(chǔ)上提出具體應(yīng)對措施。總體而言,現(xiàn)有研究對人工智能算法輔助行政決策這一更為具體的現(xiàn)象關(guān)注較少,僅有的數(shù)篇文獻研究焦點主要集中在以下方面:在人工智能對行政決策的作用上,趙友華、蔡振華認(rèn)為,其有助于決策的智能化[12];張恩典認(rèn)為,其有助于提升行政規(guī)制效能,促進決策公正[13];李進華認(rèn)為,智能技術(shù)保障了多元主體參與,實現(xiàn)了決策全過程管理[14];燕曉婕認(rèn)為,其有助于提升決策的民主性和科學(xué)性[15]。在人工智能算法輔助行政決策的法治風(fēng)險上,趙友華、蔡振華認(rèn)為,其容易產(chǎn)生歧視、算法專權(quán)問題[16];陳飏、裴亞楠[17]、張恩典[18]認(rèn)為,其侵害了行政法治原理;燕曉婕認(rèn)為,其可能導(dǎo)致歧視問題、政府決策能力問題和法律倫理問題[19]。在風(fēng)險應(yīng)對上,趙友華、蔡振華認(rèn)為,應(yīng)當(dāng)加強算法治理,明確人工智能的輔助定位,約束資本權(quán)力[20];張恩典認(rèn)為,應(yīng)當(dāng)加強行政相對人的權(quán)利,加強對算法決策的評估[21];陳飏、裴亞楠認(rèn)為,應(yīng)當(dāng)明確行政機關(guān)的主體地位,確定算法解釋責(zé)任,完善行政相對人權(quán)利救濟[22];燕曉婕認(rèn)為,應(yīng)當(dāng)完善人工智能輔助行政決策體系,制定針對風(fēng)險的防范措施[23]。

這些研究構(gòu)成了我們理解人工智能算法輔助行政決策的法治風(fēng)險與出路的理論背景,但是,在人工智能對行政決策的作用上,現(xiàn)有研究并未按照行政決策體制改革目標(biāo)加以評價,在人工智能算法輔助行政決策的法治風(fēng)險上,并未結(jié)合行政法治原理進行統(tǒng)一論述,在風(fēng)險應(yīng)對上,并未給出體系性應(yīng)對措施。在此基礎(chǔ)上,本文對于這一主題的探討尤其注意以下幾點。第一,行政決策不是靜態(tài)的,而是一個問題設(shè)定、收集信息、擬定方案、作出決定的動態(tài)行為過程,并且行政決策最終指向行政相對人和利害關(guān)系人的權(quán)利義務(wù)。第二,人工智能算法輔助行政決策是在我國行政決策體制改革這一大背景下產(chǎn)生的,人工智能算法的設(shè)計和應(yīng)用直接關(guān)系行政相對人和利害關(guān)系人的權(quán)益。第三,在探討人工智能輔助行政決策時,應(yīng)當(dāng)結(jié)合行政決策體制改革目標(biāo)和行政法治原理,尤其是對行政相對人權(quán)利保護予以系統(tǒng)論述。

因而,本文首先指出目前人工智能算法輔助行政決策對于促進現(xiàn)代行政決策體制發(fā)展的應(yīng)用與作用;其次以行政法治原理與行政相對人權(quán)利保護為標(biāo)準(zhǔn),厘清其所引發(fā)的對行政法治原理的沖擊風(fēng)險;再次以行政機關(guān)、行政相對人、人工智能算法三者結(jié)合的系統(tǒng)視角指出化解風(fēng)險的出路。

二、人工智能算法何以輔助行政決策

當(dāng)前,人工智能算法在行政決策中的應(yīng)用已經(jīng)逐漸深入。人工智能算法的輔助作用具有時間上的全程性與結(jié)果上的優(yōu)越性。因此,若想探尋人工智能算法輔助行政決策面臨的風(fēng)險,就應(yīng)回答人工智能算法是如何應(yīng)用于行政決策以及人工智能算法是如何輔助行政決策行為的問題。

(一)人工智能算法輔助行政決策的階段與領(lǐng)域

基于現(xiàn)代行政決策的動態(tài)性,行政決策中人工智能算法的應(yīng)用體現(xiàn)在行政決策過程的前、中、后期。

第一,在行政決策前期,人工智能算法收集信息、篩選信息和處理信息。在傳統(tǒng)決策模式下,受制于信息不足或信息過載,往往難以有效獲取和加工信息,造成了諸如廈門PX項目決策的問題。在算法設(shè)定之下,智能信息決策系統(tǒng)將決策對象所涉主體視作信息數(shù)據(jù)的生產(chǎn)者和發(fā)布者,輔助公眾參與,不間斷收集海量數(shù)據(jù),對這些信息進行匯總分析和分類處理,捕捉特定信息,精準(zhǔn)篩選所需數(shù)據(jù),留待政府決策取用。

第二,在行政決策中期,人工智能算法提供決策咨詢并評估決策方案。實際決策協(xié)商過程受制于成本、程序和多變性問題,而人工智能算法依賴自身的推理能力預(yù)測問題,快速響應(yīng)問題,模擬專家決策,實現(xiàn)精準(zhǔn)求解,模擬政策試驗,權(quán)衡利益沖突,提供決策咨詢服務(wù),研判不同政策方案預(yù)期,靈活調(diào)整政策方案,相當(dāng)于為行政機關(guān)提供了智囊團[24]。如在疫情防控的特殊時期,人工智能算法更凸顯其應(yīng)用于行政決策的獨特優(yōu)勢。正如習(xí)近平所指出:“要鼓勵運用大數(shù)據(jù)、人工智能、云計算等數(shù)字技術(shù),在疫情監(jiān)測分析、病毒溯源、防控救治、資源調(diào)配等方面更好發(fā)揮支撐作用?!保?5]

第三,在行政決策后期,人工智能算法監(jiān)督行政決策的執(zhí)行。人工智能算法在評估決策后果和決策風(fēng)險上具有天然技術(shù)優(yōu)勢,通過后果預(yù)測,人工智能算法建立起了行政決策與決策效果的因果關(guān)系[26]。智能設(shè)備實時監(jiān)控決策效果是否偏離原定計劃,實現(xiàn)了決策執(zhí)行的動態(tài)調(diào)整[27],依靠評估決策的數(shù)字指標(biāo),實現(xiàn)對行政決策的“數(shù)目字式管理”。此外,人工智能算法在輔助行政決策中的細(xì)分領(lǐng)域也應(yīng)用廣泛,具體而言,包括輔助食品安全決策、輔助環(huán)境保護決策、輔助公共安全決策等。借助人工智能算法收集決策信息、評估決策方案、監(jiān)督?jīng)Q策執(zhí)行,促進行政決策朝著民主性、公正性和科學(xué)性提升的方向進步??梢?,行政領(lǐng)域的數(shù)字化轉(zhuǎn)型日益深化,行政決策與人工智能算法在全過程和多領(lǐng)域進行緊密結(jié)合,促進行政決策體制改革進步。

(二)人工智能算法輔助行政決策的優(yōu)越性

1.提升親民性,助力行政決策民主性改革

行政決策體制改革目標(biāo)之一是民主決策。解決傳統(tǒng)行政決策中公眾難以參與和“一把手”決策問題,民主決策的關(guān)鍵是要精準(zhǔn)識別民眾需求,提升決策的親民性。人工智能算法在這方面具有優(yōu)越性。

第一,人工智能算法傳達民眾真實意愿。親民意味著民眾的真實意愿得到真實表達,傳統(tǒng)民主決策形式是聽證會、論證會和座談會等,收集信息困難,樣本數(shù)量有限,信息匯總緩慢,親民性質(zhì)不高,難以將民眾真實意愿傳達至政府。人工智能算法以優(yōu)化數(shù)據(jù)收集、傳輸、運用的方式,通過大數(shù)據(jù)支撐、個性化指標(biāo)設(shè)計、細(xì)分的場景應(yīng)用,可以讓行政決策在民主性的基礎(chǔ)上,體現(xiàn)決策的親民性。

第二,人工智能算法精準(zhǔn)識別需求。在海量數(shù)據(jù)產(chǎn)生的今天,可以在依法合規(guī)的基礎(chǔ)上,通過對算法的設(shè)計,就某一決策需要抓取特定人群特定種類信息,推導(dǎo)公眾的行為特征和意愿,實現(xiàn)對數(shù)據(jù)的精準(zhǔn)篩選和輔助行政智能決策,從而給政府決策提供更有價值的參考數(shù)據(jù),使得行政決策更加符合公眾意愿,提高行政決策的親民性。

第三,人工智能算法自動收集數(shù)據(jù)。通過設(shè)計算法在法律法規(guī)授權(quán)下進行自動數(shù)據(jù)收集,也可以為今后的決策建立“數(shù)據(jù)?!?,在實現(xiàn)社會人群“橫向”數(shù)據(jù)搜索之外,實現(xiàn)時間軸意義上的“縱向”數(shù)據(jù)搜索,讓決策在時間、空間兩個維度上最大限度地體現(xiàn)親民性,便于決策的落實與公民的接受。

2.提升智識性,助力行政決策科學(xué)性改革

行政決策作為行政機關(guān)作出行政行為的前端行為,需要民主的程序、科學(xué)的方法,必要時需要其他智力支持。

第一,人工智能算法可以深度學(xué)習(xí)自主推導(dǎo)。在傳統(tǒng)模式下,科學(xué)決策要求組織專家進行論證,而人工智能算法輔助行政決策能夠做到用算法模型模擬人類決策過程,通過對收集的信息加以深度學(xué)習(xí),不斷提高決策模型的復(fù)雜程度。此外,傳統(tǒng)專家論證有時也會受專家的專業(yè)背景和利益所限,出現(xiàn)專家意見不協(xié)調(diào)、不中立和不客觀的問題。人工智能算法不僅通過深度學(xué)習(xí)模仿專家決策,而且在知識儲備上將超過專家,更為重要的是,人工智能算法因其無利益和專業(yè)背景的限制,其得出的結(jié)果更加科學(xué)統(tǒng)一。

第二,人工智能算法可以評估風(fēng)險預(yù)測行為。行政決策在作出的同時,也需要進行風(fēng)險評估。如何進行風(fēng)險評估便是一個事關(guān)科學(xué)的問題,科學(xué)性是風(fēng)險評估的規(guī)范要求[28]。一般而言,評估決策后果和決策風(fēng)險需要運用科學(xué)技術(shù)和科學(xué)方法進行后果預(yù)測,風(fēng)險評估一般只解決事實問題,風(fēng)險評估的目的在于建立概率性的因果關(guān)系[29]。引入人工智能算法來開展數(shù)據(jù)分析或行為預(yù)測,有助于研判復(fù)雜的政策問題,促進評估風(fēng)險[30]。

第三,人工智能算法有助于幫助審查決策過程、決策結(jié)果是否科學(xué)。人工智能算法不僅能夠輔助政府決策,提高行政機關(guān)作出決策的科學(xué)性,還能夠檢驗行政機關(guān)的決策科學(xué)性,即實時監(jiān)控行政機關(guān)決策的施行是否偏離原定計劃與原定目標(biāo),并將民眾的新訴求傳遞給行政機關(guān),以期實現(xiàn)決策執(zhí)行過程中的動態(tài)調(diào)整[31]。當(dāng)這一過程不斷被重復(fù)時,便能夠形成一套成熟的行政決策執(zhí)行監(jiān)控系統(tǒng),建立一套評估決策科學(xué)性的數(shù)字指標(biāo),實現(xiàn)對政府的“數(shù)目字式管理”,大大提高了行政決策的科學(xué)性。

三、人工智能算法輔助行政決策的法治風(fēng)險

行政決策體制改革的目標(biāo)之一是依法決策。從廣義來看,人工智能算法輔助行政決策所展現(xiàn)的效能有助于實現(xiàn)依法決策,但行政法治原理要求行政機關(guān)在作出行政決策時充分尊重利害關(guān)系人的實體權(quán)利與程序權(quán)利。在此標(biāo)準(zhǔn)的審視下,人工智能輔助行政決策存在法治風(fēng)險。

(一)算法隱匿與算法偏差危及利害關(guān)系人實體權(quán)利

算法隱匿是指算法自身自主運作后相對于行政機關(guān)和利害關(guān)系人具有封閉性和不可解釋性[32]。算法偏差是指算法的運作偏離預(yù)定目的。目標(biāo)設(shè)定、數(shù)據(jù)收集、算法設(shè)計一旦存在不合理,其程序運行偏離公正時就很難由技術(shù)人員自身從技術(shù)角度進行糾正。算法隱匿和算法偏差的結(jié)合將對利害關(guān)系人的實體權(quán)利造成損害。

第一,危及利害關(guān)系人的真實權(quán)益關(guān)切。盡管算法本身抓取數(shù)據(jù)的能力已經(jīng)十分強大,但它還是無法把握所有能夠由人把握的因素。換言之,算法無法體驗豐富的世界,其得到的數(shù)據(jù)無論有多么海量,終究也是有限的。例如,算法難以捕捉人們的社會地位、情感需求、道德上的接受水平、人們的期望和對于自身利益的認(rèn)知等,而這些無法量化的感性因素也是行政機關(guān)進行行政決策時應(yīng)當(dāng)考慮的相關(guān)因素,也是決定行政相對人評判決策結(jié)果公正與否的重要因素。

第二,不利于利害關(guān)系人的隱私保護。在數(shù)字化的今天,隱私的保護成為公民關(guān)注的重大課題,傳統(tǒng)行政決策一般不涉及社會大范圍的公民信息收集、運用,而人工智能算法的優(yōu)勢就在于海量數(shù)據(jù)的收集與運用,特別是為各項決策準(zhǔn)備的“大數(shù)據(jù)”,其具有“大”(功能強大)、“數(shù)”(數(shù)字化存儲便于計量和統(tǒng)計)、“據(jù)”(功能性強)[33]的特點,雖然是在法律授權(quán)下長時間、大范圍的搜集數(shù)據(jù),但一旦出現(xiàn)算法設(shè)計以外的人為數(shù)據(jù)泄露等問題,則公民的隱私權(quán)就會難以保護。同時,算法的設(shè)計如何規(guī)避不必要的數(shù)據(jù)收集,也依賴技術(shù)人員的職業(yè)操守與監(jiān)督程序的建立完善。人工智能算法不同于一般的數(shù)字算法,其具有的深度學(xué)習(xí)、智能決策的屬性,也增加了保護公民隱私的難度,即使技術(shù)人員依法合規(guī)地設(shè)計了算法,在人工智能自主運行后,甚至可能連設(shè)計者也不知道算法如何決策[34],公眾更是無從了解算法決策的依據(jù)與數(shù)據(jù)碰撞的具體情況。

第三,危及利害關(guān)系人的平等對待訴求。任何行政決策的內(nèi)容制定與方案實施都不能背離社會公正性的規(guī)范要求[35]。公正性要求不歧視、平等、公開。但是,由于當(dāng)前人工智能算法的設(shè)計、建立需要技術(shù)人員進行設(shè)定,而技術(shù)人員設(shè)定方面存在的數(shù)據(jù)選擇、運用偏差,在人工智能算法輔助決策運行中會造成無法逆轉(zhuǎn)的、持續(xù)性的不合理結(jié)果,最常見的是由于某些難以察覺的原因而對相同的人造成不同的結(jié)果,或者對不同的人造成相同的結(jié)果[36]。上述不合理結(jié)果的產(chǎn)生即算法歧視,包括但不限于算法性別歧視、算法用工歧視等,甚至在經(jīng)濟領(lǐng)域,針對用戶個性化的定制也會帶來算法價格歧視[37]。此外,機器學(xué)習(xí)本身也存在缺陷,技術(shù)人員自身的價值判斷會在設(shè)計算法中體現(xiàn),導(dǎo)致算法一定程度上成為機器化的技術(shù)人員,行政決策需要的公正中立就難以完全實現(xiàn)。

(二)算法代表與算法至上危及利害關(guān)系人程序權(quán)利

算法代表是指算法設(shè)計的指標(biāo)和數(shù)值成為民眾真實意愿的數(shù)字化指征。算法至上是指算法設(shè)計目的取代其他目的成為算法運行的必然目的。算法代表和算法至上與民眾真實的程序性參與和真實意愿表達不符,將對利害關(guān)系人的程序性權(quán)利造成損害。

第一,不符合正當(dāng)程序原則的具體要求。行政決策需要一套行之有效、合法合規(guī)的程序,而作為決策的程序,正當(dāng)程序原則是其基本的價值遵循。公平、公正、公開則是行政程序正當(dāng)原則的三個面向[38]。通過設(shè)置正當(dāng)行政程序規(guī)范行政權(quán),為行政相對人提供最低限度的程序正義,驅(qū)使行政機關(guān)在實現(xiàn)行政目的時采取善良手段,從而提高行政決策的可接受度。正當(dāng)程序原則要求充分保障行政相對人行使陳述、申辯、聽證的權(quán)利,關(guān)注行政相對人的訴求,對行政行為作出的依據(jù)和理由進行解釋說明。但人工智能算法輔助行政決策在一定程度上與上述要求存在抵觸。由于算法行政決策在一定程度上的自主性、瞬時性以及不可解釋性等因素的多重共同作用,正當(dāng)程序原則所要求的決策公開可能被架空[39],進而,由于程序正當(dāng)性的缺失,決策的可接受度與信服力也將下降。

第二,不符合利害關(guān)系人的真實意愿表達。人工智能算法的基礎(chǔ)在于大數(shù)據(jù)的收集、應(yīng)用,而對于何種數(shù)據(jù)信息才是行政相對人的真實意愿表達,本來是由行政相對人所決定的,但人工智能算法的應(yīng)用使得其所選取的數(shù)據(jù)、設(shè)計的應(yīng)用模式成為行政相對人表達意愿的“代表”,該“代表”有無獲得行政相對人授權(quán)、何種程度上體現(xiàn)行政相對人真實意愿,則有賴于技術(shù)人員在設(shè)計算法前收集、了解的情況。由于行政決策所面對的社會情況復(fù)雜多變,技術(shù)人員設(shè)計算法前收集、了解的情況與社會情況總是難以一一對應(yīng),設(shè)計的深度學(xué)習(xí)方向也可能存在偏離,導(dǎo)致人工智能算法輔助行政決策中提供的數(shù)據(jù)支撐并不能充分保障行政相對人的程序權(quán)利。

第三,不符合利害關(guān)系人的真實程序性參與。人工智能算法輔助行政決策會進行決策模型的建構(gòu),計算哪一模型更能取得良好的收益,但在最高效益與最真實的參與之間存在一定的張力。一方面,真正重要的是行政相對人真實的意愿表達,當(dāng)其把真實意愿反映到行政決策之中時,行政決策便具備了民主基礎(chǔ),不應(yīng)再對該決策進行修改,否則便違背了民主原則,漠視行政相對人的真實意愿,行政相對人的知情權(quán)、聽證權(quán)和監(jiān)督權(quán)可能因此而遭到破壞[40];另一方面,實際作出的行政決策未必總是最好的決策,有時決策的作出需要參考專家意見,需要運用科學(xué)技術(shù)和科學(xué)方法,以提升決策的質(zhì)量。這便意味著多數(shù)人的真實意愿應(yīng)當(dāng)受到一定的限制,行政決策不完全是根據(jù)真實意愿做出的,其應(yīng)當(dāng)在最高效益與最真實的參與之間找到平衡,但是如果偏向了一方便意味著對另一方的侵害,人工智能算法輔助行政決策偏向于最高效益這一向度,同時意味著行政相對人真實參與的分量在行政決策中的降低。

(三)人工智能算法風(fēng)險的責(zé)任分配難題

人工智能算法輔助行政決策的法治風(fēng)險既表現(xiàn)在對利害關(guān)系人實體權(quán)利與程序權(quán)利的可能侵害上,也表現(xiàn)為當(dāng)出現(xiàn)算法決策錯誤時,行政責(zé)任承擔(dān)主體配置不明的問題。行政責(zé)任的存在是確保政府“負(fù)責(zé)任”治理的最終保障[41]。然而,與傳統(tǒng)行政決策體制機制不同,人工智能算法輔助決策過程,涉及行政組織主體、算法運營主體、算法系統(tǒng)本身以及利害關(guān)系人的多方互動。算法決策錯誤的行政責(zé)任無法像傳統(tǒng)行政責(zé)任一樣,原則上概由行政組織體承擔(dān),這是因為算法隱匿、算法偏差等問題的存在,并不來源于行政主體的過錯與失職。此外,交由算法運營主體承擔(dān)行政責(zé)任也不妥,因為它們不具有行政主體的資格能力。再者,算法系統(tǒng)本身是沒有責(zé)任意識與責(zé)任能力的,因此人類之間的責(zé)任關(guān)系也不應(yīng)當(dāng)被轉(zhuǎn)移到機器與人類[42]。同時,算法行政決策中還可能出現(xiàn)第三方開發(fā)者介入的情況,開發(fā)者在算法實際運作過程中扮演著相當(dāng)程度的行政管理者角色,但如果由此而課予其行政責(zé)任,又將面臨混淆行政行為與市場行為的困境[43]。

四、人工智能算法輔助行政決策法治風(fēng)險的化解路徑

為了應(yīng)對人工智能輔助行政決策可能造成的法治風(fēng)險,必須結(jié)合行政法治原理,以保護行政相對人和利害關(guān)系人的合法權(quán)益為底線,約束人工智能算法在行政決策中的應(yīng)用。為此,有必要圍繞人工智能算法問題,從人工智能算法自身、行政機關(guān)、利害關(guān)系人三個方向?qū)ふ曳ㄖ纬雎?,強調(diào)完善人工智能算法的合法化設(shè)計、加強行政機關(guān)對人工智能算法的合法性審查、保障利害關(guān)系人對人工智能算法的合法權(quán)利主張,從而契合行政法治原理的要求。

(一)完善人工智能算法的合法化設(shè)計

第一,明確設(shè)計人工智能算法的合法性要求。人工智能算法的合法性要求與利害關(guān)系人的權(quán)利在法律中的宣示是一體兩面的。就實體權(quán)利保護而言,主要涉及個人信息保護和隱私泄露問題,但當(dāng)前對于公民隱私權(quán)的保護仍處于發(fā)展階段,完善的法律法規(guī)尚未形成。因此,當(dāng)人工智能算法輔助行政決策時,為了避免泄露公民隱私引發(fā)行政爭議,應(yīng)當(dāng)主動在設(shè)計算法階段進行合法審核。在法律法規(guī)不完善情況下,對公民隱私權(quán)保護設(shè)定除了參照憲法、民法典等法律法規(guī),還應(yīng)當(dāng)在符合法律原則的基礎(chǔ)上設(shè)計算法??梢酝ㄟ^參照行政合理性原則、比例原則等最低限度獲取必要公民信息,完成決策所需要的大數(shù)據(jù)支撐。必要時,行政決策者可以通過競爭選擇算法,可以通過構(gòu)建大數(shù)據(jù)基礎(chǔ)上的算法推薦系統(tǒng)[44],讓決策者在合法性考量基礎(chǔ)上進行選擇。

第二,增強人工智能算法的合法性設(shè)計與運作。人工智能算法輔助行政決策在算法設(shè)計之初,應(yīng)當(dāng)鼓勵、支持公眾參與設(shè)計討論,通過聽取公眾意見,完善信息采集范圍、使用方式、后期深度學(xué)習(xí)智能運行的控制模式。在輔助行政決策的過程中,也應(yīng)堅持行政法上的合理性原則,說明決策理由、聽取公眾意見,從而實現(xiàn)行政機關(guān)自我約束,以后行政機關(guān)在處理類似事務(wù)時就承擔(dān)一旦偏離“一致性”原則就負(fù)有更沉重說理負(fù)擔(dān)的義務(wù)[45]。當(dāng)人工智能算法輔助行政決策產(chǎn)生了對行政相對人不利的影響時,如過度收集相對人隱私信息等,必須要求行政機關(guān)對此說明理由。

第三,注重人工智能算法基于情境的識別技術(shù)的開發(fā)與運用。人工智能算法運算看似中立,卻可能潛藏著不平等對待,造成算法下的歧視風(fēng)險。背后的原因是,在行政決策過程中,算法系統(tǒng)將某些不相關(guān)因素不恰當(dāng)?shù)丶{入考慮,使這些因素推導(dǎo)出差異化的決策結(jié)果。無論是在行政決策還是在司法裁判或者其他價值判斷領(lǐng)域,同等情況同等對待、不同情況區(qū)別對待的平等原則,都標(biāo)示著決策的合理性與正當(dāng)性。關(guān)鍵在于,判斷者應(yīng)當(dāng)熟悉掌握區(qū)別同等情況與不同情況的技藝。參考司法裁判中“同案同判”的理論探討和實踐經(jīng)驗,可以總結(jié)出可能影響情境異同比較的標(biāo)準(zhǔn)。首先,分享同一條法律規(guī)范的構(gòu)成要件的,構(gòu)成相同情境[46];其次,關(guān)鍵性事實的相同,是獲得相同處理的必要前提;再次,如果存在與待決策的情境相同的已決情境,那么后者的存在可能構(gòu)成前者應(yīng)當(dāng)獲得相同處理的理由[47]。換言之,在已決情境中影響決策作出的因素,如果沒有更強理由,在待決情境的決策中也應(yīng)當(dāng)獲得相同的評價。當(dāng)人工智能算法可以正確地學(xué)習(xí)哪些情境是相同的、相似的或者不同的,就可以對相同情境作相同處理,對相似情境作類比推理,對不同情境作差異化決策,從而避免算法歧視和算法偏差的出現(xiàn)。

(二)加強人工智能算法的合法性、倫理性和合規(guī)性審查

第一,加強行政機關(guān)對人工智能算法合法性的規(guī)制。對于人工智能算法一系列問題的規(guī)制需要秉持審慎的規(guī)制原則,在效率與公平之間把握平衡??梢酝ㄟ^對產(chǎn)生算法歧視的原因進行分析和分類,針對性地解決不同類型的算法歧視問題。針對算法隱匿問題,要求算法設(shè)計者在不違背商業(yè)秘密的前提下作出解釋;針對算法代表和算法至上的問題,要求人工智能算法指標(biāo)設(shè)置充分合理;針對算法偏差問題,要求人工智能算法完善自我審查與自我糾錯機制。

第二,加強行政機關(guān)對人工智能算法行業(yè)的倫理性審查。針對技術(shù)人員自身的價值判斷不一的問題,可以建立算法研發(fā)行業(yè)準(zhǔn)入和監(jiān)管制度。進行算法研發(fā)的人員須通過一定的倫理測試方可進入該職業(yè),旨在最大化消解算法研發(fā)人員的道德傾向?qū)τ谒惴ㄖ辛⑿缘那趾?。在進行倫理測試時,尤其要注意算法研發(fā)人員對于少數(shù)群體的倫理態(tài)度。建立算法研發(fā)行業(yè)監(jiān)管制度,要不斷強化對算法研發(fā)的審查工作,要求算法本身必須符合一定的倫理標(biāo)準(zhǔn)方可投入使用。

第三,加強行政機關(guān)對人工智能算法收集運用數(shù)據(jù)的合規(guī)性審查。一方面,要求人工智能算法設(shè)計者通過技術(shù)手段,篩選和“過濾”歧視性信息,或通過算法設(shè)計之初,在反歧視領(lǐng)域?qū)崿F(xiàn)規(guī)范整合[48],對歧視因素設(shè)置不同權(quán)重,采用算法監(jiān)測的技術(shù),分級分類進行信息收集、運用規(guī)制,避免社會交往空間中的偏見、某些群體的弱勢地位以及權(quán)利不平等等信息代入行政決策信息系統(tǒng)[49];另一方面,要求盡可能擴大輔助決策的數(shù)據(jù)集成范圍,更加注重代際公平,減少“數(shù)字鴻溝”,采取一定的糾偏手段來應(yīng)對數(shù)據(jù)收集中的問題,避免對“少數(shù)數(shù)據(jù)”和弱勢群體的忽視。

第四,探索與建立人工智能算法輔助行政決策的偏離機制。已如前述,算法代表與算法至上是人工智能輔助行政決策過程中可能出現(xiàn)的法治風(fēng)險。這兩類風(fēng)險都基于“唯算法論”,即不加反思地信任與運用人工智能算法提供的決策方案。因此,風(fēng)險的化解尤其需要警惕“唯算法論”。決策人員在得益于算法帶來的巨大便捷的同時,仍然應(yīng)當(dāng)審查人工智能運算所依據(jù)的前提是否合理、可靠,反思是否存在算法未予考慮的其他因素。除此以外,建立算法可偏離的機制是必要的。當(dāng)工作人員經(jīng)過審慎研究,主張人工智能算法提供的決策方案有違法理人情時,即應(yīng)當(dāng)啟動機制,重新(通過另一套人工智能算法系統(tǒng)或者通過傳統(tǒng)決策程序)敲定決策內(nèi)容。人工智能算法輔助行政決策的可偏離機制,是既能確保算法決策的巨大優(yōu)勢,又能避免算法減損行政機關(guān)決策的自主化與理性化的體制機制。

(三)完善算法公開制度,保障利害關(guān)系人的合法化主張

第一,明確利害關(guān)系人對人工智能算法的知情權(quán)。人工智能算法輔助行政決策讓公民難以如同過去那樣通過政策民意懇談會、聽證會等傳統(tǒng)路徑參與決策過程,又鑒于算法依賴于數(shù)據(jù)的收集,公民產(chǎn)生對自身權(quán)利保護的自然需求,因而可能對行政決策需要收集公民信息的行為產(chǎn)生心理抵制。針對現(xiàn)實的需要,提升算法透明度,讓公民理解決策需要的數(shù)據(jù)限度,增進政府與公民之間的互信,是完善人工智能算法的題中應(yīng)有之義。

第二,依法公開算法內(nèi)容。人工智能算法收集與處理的數(shù)據(jù)顯然構(gòu)成2019年修訂的《中華人民共和國政府信息公開條例》第二條規(guī)定的政府信息內(nèi)容,因此也應(yīng)當(dāng)堅持以公開為常態(tài)、不公開為例外的原則。尤其值得注意的是,通過人工智能算法獲取的數(shù)據(jù)材料,不應(yīng)當(dāng)簡單被當(dāng)作過程性信息而免于公開。雖然算法決策建議作為過程性信息可能與最終的行政決策存在偏差,但是算法運算的結(jié)果并不體現(xiàn)出典型過程性信息所擁有的主體間磋商的特征。此外,如果人工智能算法具有公眾性,那么決策機關(guān)還應(yīng)當(dāng)依法主動予以公開;反之,則需要依當(dāng)事人的申請而公開。當(dāng)然,并非算法的所有內(nèi)容以及通過算法獲取的所有數(shù)據(jù)都需要被完整地公開。公開過程要考慮不同主體間法益沖突的可能性,并盡可能小地減損次要法益[50]。例如,技術(shù)性算法是可公開的,涉及商業(yè)秘密、個人隱私的數(shù)據(jù)則原則上不予公開。

第三,建立保障利害關(guān)系人知情權(quán)的算法公開與解釋制度。為提升算法透明度,應(yīng)當(dāng)在算法公開與知識產(chǎn)權(quán)保護之間進行權(quán)衡,建立完善算法公開制度,公開算法流程、數(shù)據(jù)收集與運用的原理和實際應(yīng)用記錄。技術(shù)人員應(yīng)當(dāng)鼓勵社會公眾、社會組織等各方參與,應(yīng)當(dāng)在設(shè)計及應(yīng)用人工智能算法輔助行政決策之前對算法如何決策向公眾作出解釋,包括該算法的技術(shù)原理、該算法獲取和加工數(shù)據(jù)的方式以及該算法的技術(shù)局限等,行政機關(guān)也應(yīng)當(dāng)為輔助決策進行必要的行政公開。此外,還須對人工智能算法運行過程予以完整記錄,方便之后的溯源管理。機器學(xué)習(xí)的記錄也必須完整地保存并適時公開。這些數(shù)據(jù)記錄乃是解釋算法何以如此決策的重要證據(jù)。通過上述的努力,可以加深公眾對算法的了解,進而提升公眾對算法的接受度。

(四)健全人工智能算法輔助行政決策的行政責(zé)任承擔(dān)制度

一方面,傳統(tǒng)行政責(zé)任配置方式是算法決策行政責(zé)任制度的基礎(chǔ)與底色。建立健全人工智能算法輔助行政決策的責(zé)任制度,并不是拋棄傳統(tǒng)的行政責(zé)任機制而另起爐灶。在傳統(tǒng)責(zé)任機制中,當(dāng)出現(xiàn)了行政決策錯誤而需要承擔(dān)責(zé)任時,首先依據(jù)行政法律法規(guī)向行政主體施加責(zé)任,再由行政主體在內(nèi)部向致使錯誤發(fā)生的公務(wù)人員個體課以責(zé)任。在算法決策錯誤中,原則上同樣應(yīng)當(dāng)由行政主體承擔(dān)責(zé)任。這不僅因為它是決策過程中唯一出場的行政主體,而且因為行政決策最終是以它的名義作出的,是它的行政權(quán)力行使的結(jié)果,對外代表的是它的決斷。行政主體對決策結(jié)果擁有相當(dāng)大程度的控制能力,應(yīng)當(dāng)意識到算法至上和算法代表的陷阱,進而決定是否有必要補充算法提供的數(shù)據(jù)、偏離算法的決策方案。當(dāng)其他參與主體不存在過錯之時,由行政主體來賠償或補償利害關(guān)系人,是較為公平合理的做法。除此以外,如果內(nèi)部的公務(wù)人員存在失職,也應(yīng)該按照傳統(tǒng)的責(zé)任分配機制來承擔(dān)相應(yīng)責(zé)任。

另一方面,原則上不應(yīng)由人工智能算法的第三方開發(fā)者承擔(dān)行政責(zé)任。但是人工智能算法作為第三方開發(fā)者的產(chǎn)品,如果存在缺陷或瑕疵,那么行政機關(guān)仍然可以依據(jù)委托開發(fā)的合同、行政合同法以及民事法律法規(guī),來主張開發(fā)者的違約責(zé)任并要求相應(yīng)的救濟。為了保證追責(zé)的有效性,責(zé)任承擔(dān)內(nèi)容可以包括經(jīng)濟賠償、合同單方解除權(quán)利、納入政府采購黑名單等[51]。如果開發(fā)者基于合同而將應(yīng)當(dāng)承擔(dān)的責(zé)任全部履行,那么行政機關(guān)由此獲得的經(jīng)濟賠償可以作為向利害關(guān)系人予以賠償或補償?shù)慕?jīng)濟來源。

五、結(jié)語

依法行政是實現(xiàn)國家治理體系和治理能力現(xiàn)代化的題中應(yīng)有之義,面對人工智能算法日益嵌入社會治理的現(xiàn)狀,回避與放任其參與行政決策之事實都是不可取的態(tài)度。我們應(yīng)當(dāng)檢視現(xiàn)狀,科學(xué)分析利弊,在此基礎(chǔ)上作出回應(yīng),將人工智能算法輔助行政決策納入科學(xué)化、法治化軌道。與大多數(shù)技術(shù)進步一樣,目前正在探索的人工智能算法輔助行政決策,機會與風(fēng)險同行。一方面,假如我們審視“輔助”這個概念,擺正人工智能算法的“輔助”地位,就會發(fā)現(xiàn),政府運用數(shù)據(jù)庫檢索、整理和分析材料,早已經(jīng)不是什么新鮮事。換言之,通過科學(xué)和技術(shù)的發(fā)展,我們提升了行政決策的能力和效率,這是我國行政事業(yè)發(fā)展的長期規(guī)律,人工智能算法的參與只是在這個基礎(chǔ)上更上了一層樓。另一方面,我們也不應(yīng)當(dāng)過度依賴人工智能算法,或者說完全輕信算法運算結(jié)果,否則,人工智能算法就不是輔助而是替代行政機關(guān)的決策全過程。

人工智能算法輔助行政決策有助于決策結(jié)果的針對性、親民性,也為決策提供了智力支持,但由于其自身的算法問題,對利害關(guān)系人的實體權(quán)利和程序權(quán)利可能帶來損害,對強調(diào)公平、公正、公開的行政法治原理論造成沖擊。針對上述風(fēng)險,可能的出路在于對算法設(shè)計、運用上進行合法規(guī)制,通過合法性審查、倫理審查、技術(shù)手段避免算法歧視,提升算法自身透明度。當(dāng)然,上述完善路徑是現(xiàn)階段的學(xué)術(shù)探索,如何協(xié)調(diào)人工智能算法與公共行政決策、理順“法律之治”與“算法之治”的相互關(guān)系,仍是值得進一步探討的課題,還有待學(xué)界與實務(wù)界的共同努力。

[參考文獻]

[1][2][14][35]李進華.基于“大數(shù)據(jù)+區(qū)塊鏈”技術(shù)應(yīng)用的重大行政決策模式變革研究[J].大連干部學(xué)刊,2021(8):53-59.

[3][17][22]陳飏,裴亞楠.論自動化行政中算法決策應(yīng)用風(fēng)險及其防范路徑[J].西南民族大學(xué)學(xué)報,2021(1):74-81.

[4][5][15][19][23]燕曉婕.人工智能時代行政決策的法治化進路[J].哈爾濱師范大學(xué)社會科學(xué)學(xué)報,2020(1):37-40.

[6]雷磊.法教義學(xué)與法治:法教義學(xué)的治理意義[J].法學(xué)研究,2018(5):58-75.

[7]張玉潔.論人工智能時代的機器人權(quán)利及其風(fēng)險規(guī)制[J].東方法學(xué),2017(6):56-66.

[8]馬長山.人工智能的社會風(fēng)險及其法律規(guī)制[J].法律科學(xué),2018(5):47-55.

[9]李飛達.人工智能在公安行政執(zhí)法中的應(yīng)用、風(fēng)險及其規(guī)制[J].北京警察學(xué)院學(xué)報,2022(1):21-28.

[10]秦小建,周瑞文.人工智能嵌入政府治理的探索及啟示[J].國外社會科學(xué),2022(2):30-45.

[11]徐輝.人工智能在社會治理協(xié)同中的應(yīng)用、問題與對策[J].科學(xué)管理研究,2021(5):32-40.

[12][16][20][27][31][32][49]趙友華,蔡振華.人工智能時代行政決策體制優(yōu)化的技術(shù)范式與風(fēng)險因應(yīng)[J].理論月刊,2020(2):60-68.

[13][18][21][26]張恩典.人工智能算法決策對行政法治的挑戰(zhàn)及制度因應(yīng)[J].行政法學(xué)研究,2020(4):34-45.

[24]林敏,陳潔宏.海關(guān)行政執(zhí)法自由裁量權(quán)人工智能輔助決策初探[J].中國口岸科學(xué)技術(shù),2020(1):63-65.

[25]習(xí)近平主持召開中央全面深化改革委員會第十二次會議強調(diào):完善重大疫情防控體制機制 健全國家公共衛(wèi)生應(yīng)急管理體系[EB/OL].http://www.gov.cn/xinwen/2020-02/14/content_5478896.htm.

[28][29]趙鵬.風(fēng)險社會的行政法回應(yīng):以健康、環(huán)境風(fēng)險規(guī)制為中心[M].北京:中國政法大學(xué)出版社,2018:173、173.

[30][34]宋華琳,孟李冕.人工智能在行政治理中的作用及其法律控制[J].湖南科技大學(xué)學(xué)報(社會科學(xué)版),2018(6):82-90.

[33]顧理平.大數(shù)據(jù)時代公民隱私數(shù)據(jù)的收集與處置[J].中州學(xué)刊,2017(9):161-167.

[36]劉友華.算法偏見及其規(guī)制路徑研究[J].法學(xué)雜志,2019(6):55-66.

[37]許身健,郜慶.反壟斷視閾下的算法價格歧視問題[J].中國法律評論,2022(3):105-116.

[38]章劍生.現(xiàn)代行政法基本理論:上卷[M].北京:法律出版社,2014:106-108.

[39]陳亮,薛茜.行政公開視域下行政決策算法化的法律規(guī)制[J].理論月刊,2021(3):119-129.

[40]程關(guān)松,苗運衛(wèi).相對人參與算法行政的困境與出路[J].東南法學(xué),2021(2):43-57.

[41][43][50][51]王懷勇,鄧若翰.算法行政:現(xiàn)實挑戰(zhàn)與法律應(yīng)對[J].行政法學(xué)研究,2022(4):104-118.

[42]Luís Greco.沒有法官責(zé)任的法官權(quán)力:為什么不許有機器人法官[J].鐘宏彬,譯.月旦法學(xué)雜志,2021(8):170-195.

[44]王天恩.人工智能算法發(fā)展的人類演化效應(yīng)[J].華東師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2022(3):21-30.

[45]章劍生.面向司法審查的行政行為說明理由:郴州飯壟堆礦業(yè)有限公司與國土資源部等國土資源行政復(fù)議決定再審案評析[J].交大法學(xué),2020(2):184-192.

[46]雷磊.如何理解“同案同判”?——誤解及其澄清[J].政法論叢,2020(5):28-38.

[47]朱振.從依據(jù)到理由:邁向一種實質(zhì)性的同案同判觀[J].浙江社會科學(xué),2022(4):36-44.

[48]張欣,宋雨鑫.人工智能時代算法性別歧視的類型界分與公平治理[J].婦女研究論叢,2022(3):5-19.

[責(zé)任編輯:向長艷]

猜你喜歡
依法行政人工智能算法
基于MapReduce的改進Eclat算法
Travellng thg World Full—time for Rree
依法行政 推進外匯領(lǐng)域“放管服”改革
中國外匯(2019年6期)2019-07-13 05:44:06
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
進位加法的兩種算法
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
依法行政 執(zhí)法為民
——湖南省工局2016年工作掠影
下一幕,人工智能!
一種改進的整周模糊度去相關(guān)算法
怀远县| 墨竹工卡县| 荣昌县| 延长县| 恩平市| 宜兴市| 白朗县| 武邑县| 蓬莱市| 潼关县| 固镇县| 祁阳县| 驻马店市| 通道| 富阳市| 团风县| 天门市| 宜宾县| 堆龙德庆县| 新源县| 巴林右旗| 松原市| 漠河县| 曲水县| 耒阳市| 宣城市| 紫云| 昌邑市| 红桥区| 民县| 陕西省| 宣城市| 合阳县| 如皋市| 彝良县| 兴城市| 鱼台县| 霍邱县| 汾西县| 临城县| 延长县|