張小寧
(武漢理工大學,湖北武漢430070)
人工智能時代的到來使社會發(fā)展走上了機器化、智能化道路。近年來,人工智能在知識處理、模式識別、自然語言處理、博弈、自動程序設計、知識庫、智能機器人等多個領域取得了非凡成就并形成了多元化發(fā)展趨勢。具體而言,隨著信息技術的快速發(fā)展,人工智能在金融、計算機科學等領域智能化水平已經(jīng)達到了相當高的程度,同時作為兼具理論性和實踐性的法律行業(yè)也正在經(jīng)歷智能化的嘗試與運用①例如:“雙子星”“法律谷”“iCourt”等法律人工智能產(chǎn)品以及“科大訊飛”研發(fā)的“人工智能 +法院”系統(tǒng)等。。人工智能的發(fā)展具有漸進性,當前人工智能還沒有實現(xiàn)理想中的完美狀態(tài)。根據(jù)人工智能的發(fā)展程度不同,可將其劃分為弱人工智能、強人工智能和超人工智能②弱人工智能(ANI)是指不真正擁有智能,也沒有自由思考能力和意識;強人工智能(AGI)是指可以獨立思考問題并制定解決問題的最優(yōu)方案,同時擁有價值觀和世界觀體系;超人工智能(ASI)是指擁有超越人類認知和思考的能力。三個發(fā)展階段。目前,人類已經(jīng)掌握了弱人工智能,正在不斷開發(fā)新技術新成果。每一項弱人工智能的創(chuàng)新,都是為向強人工智能、超人工智能邁進做出的鋪墊,但是,每一次前進也會面臨更多的新問題,出現(xiàn)更多的新矛盾。
法治不僅僅是考慮當下,也要考慮未來[1]。弱人工智能時代人類完全處于支配和控制地位,人工智能帶來的風險和挑戰(zhàn)可以在現(xiàn)有的技術和法治框架內(nèi)予以規(guī)避。展望強人工智能時代,高度擬人形態(tài)機器人將擁有完全獨立自主的意識從事社會活動、理性參與社會生活,此時,機器人是否能夠被賦予獨立的法律人格承擔法律責任,是否能夠參與國家管理、代表公權力履行行政職責值得思考。針對上述問題,法學理論界進行了較為激烈的討論。法哲學、法理學學者注重從法律倫理、法律人格方面討論人工智能是否具有法律主體資格等問題;民法、知識產(chǎn)權法學者注重從人工智能生成物的產(chǎn)權屬性以及人工智能侵權問題方面展開論述;刑法學者則偏向于研究機器人能否作為承擔刑事責任的主體,如何具體設置新的刑罰種類等問題。值得注意的是,上述的部門法學者在討論人工智能法律問題時或多或少地將語境聚焦到偏強人工智能方向,將弱人工時代初現(xiàn)端倪的種種風險作為研究跳板,充分體現(xiàn)了法學研究的高度自覺性和創(chuàng)新性。相較于以上法學學科研究,行政法學者似乎對人工智能表現(xiàn)得較為慢熱,尤其是對強人工智能時代機器人在行政治理和執(zhí)法中的運用研究涉獵者寥寥,研究重心仍然停留在自動化行政、弱人工智能背景下具體行政行為等領域,未跳出弱人工智能的話語體系。
當前,盡管弱人工智能背景下執(zhí)法機器人已經(jīng)得到廣泛運用,但是展望強人工智能時代,機器人將擁有類似于人的獨立思考和判斷能力,“技術有變,法理有?!保磥頇C器人將在行政執(zhí)法中扮演重要角色。為了規(guī)范和控制政府權力,防止行政機關濫用行政權侵害公民權益,行政執(zhí)法的權限和手段應當有明確的法律依據(jù),特別是在機器人執(zhí)法從“輔助”滑向“自主”的橫軸上,更應當標出清晰、具體的刻度,否則可能使機器人執(zhí)法陷入“不作為”或者“亂作為”的泥沼。故此,本文在總結和反思弱人工智能背景下機器人執(zhí)法所面臨的理論和現(xiàn)實桎梏,立足當下展望未來,兼顧強人工智能語境,探討以下主要問題:一是強人工智能時代機器人是否有獨立的行政執(zhí)法權以及行政責任的承擔方式;二是機器人執(zhí)法在理論和現(xiàn)實上會面臨哪些壁壘和阻滯,如何從法律上予以規(guī)制。
一般而言,人工智能在行政活動中的應用分為以下幾個階段:首先在行政活動中出現(xiàn)利用網(wǎng)絡、電腦應用平臺等電子政務新形式處理電子化審批、申請和許可等事項;然后進入自動化行政階段,即人工智能能夠根據(jù)數(shù)據(jù)和資料自動生成相關結果和決策;最后進入到真正意義上的智能化階段,即人工智能在行政活動中能夠獨立執(zhí)法,并且無需依靠人為控制便能選擇最佳方案和形式[2]。從目前人工智能發(fā)展的階段來看,智能化行政活動仍處于第一階段向第二階段的過渡時期,更確切地說尚處于過渡的初始階段,遠未能達到強人工智能化水平。
隨著2018年11月底首個“智能動態(tài)交通違法審核機器人”在溫州市公安局交警支隊正式啟用上線[3],全國各地開始普遍運用執(zhí)法機器人從事行政執(zhí)法活動。例如,近日河北省邯鄲市機器人交警正式上崗作業(yè),執(zhí)法機器人通過24小時全天巡邏執(zhí)法實現(xiàn)了車管咨詢、事故警戒、交通指揮等多種功能[4]。當前執(zhí)法機器人已經(jīng)廣泛運用于交通違法審查、商事登記、行政審批和檢驗檢疫等領域,但是上述執(zhí)法機器人雖然打著“智能”的概念,從實際情況來看仍屬于“輔助系統(tǒng)”的范疇,不是 AI(人工智能),而是 IA(智能助理)。一方面,真正做出執(zhí)法決策的是人而不是機器,機器提供的結果只起到參考作用,該結果既可以被完全采納,也可以被部分采納甚至不被采納。另一方面,執(zhí)法人員根據(jù)監(jiān)管目的運用機器的相關功能獲取分析結果,以此作為執(zhí)法參考,而不是由機器自主調(diào)用、分析數(shù)據(jù);系統(tǒng)提供的只是某一部分的決策信息,而不是全面的決策依據(jù),更不是直接從事執(zhí)法行為。
1.機器人執(zhí)法的自動化屬性
盡管當前機器人執(zhí)法仍然停留在無裁量能力的自動化執(zhí)法階段,但是相較于人工執(zhí)法而言,已經(jīng)大異其趣。具體而言,其一,兩者在適用領域和范圍上存在實質(zhì)差別。盡管機器人可以最大程度地模仿人腦的思考方式,但畢竟不具備主觀能動性,不能在沒有提前設定好程序和算法之前靈活處理特殊情形和突發(fā)狀況,更不能與行政相對人實現(xiàn)即時溝通與信息交互,這些因素限定了機器人行政執(zhí)法中的適用范圍。由此,在涉及有關不確定的法律概念需要解釋的問題上不能使用或者應當謹慎使用人工智能。立法者在制定法律時無法將全部社會現(xiàn)象納入考慮范圍之內(nèi),因此需要借助諸如公共利益、社會危害程度、情節(jié)嚴重程度等不確定因素的法律概念進行整體上的概括,以便行政主體在執(zhí)法時能夠根據(jù)具體情形進行裁量,將抽象的法律規(guī)定予以細化解釋,從而實現(xiàn)個案正義。但是,智能化執(zhí)法系統(tǒng)或機器不能包羅社會萬象,只能在類型化明顯、法律事實和權利義務關系明確的案件中根據(jù)事前設定的數(shù)據(jù)或者算法做出相應的執(zhí)法行為。其二,兩者對于行政執(zhí)法結果的著重點不同。對于一般意義上行政執(zhí)法而言,行政主體追求的最終目的在于通過執(zhí)法行為匹配立法者的立法原意,保障相對人利益,兼顧行政執(zhí)法的合法性與合理性。對于機器人執(zhí)法行為來說,其追求的重點應該在于提高行政執(zhí)法的效率,減輕行政主體工作量的同時節(jié)省相對人的時間成本。當然,兩者追求的重點絕不是對立存在,而是相輔相成的矛盾統(tǒng)一體,前者也需要提高行政效率,后者更應該保持合理判斷。其三,兩者在使用程序上大相徑庭。由于機器人執(zhí)法自動化程度高而且在某些情形下排除了人工干預,使得某些程序被省略。例如有關調(diào)查、說明理由、聽證等法定程序在執(zhí)法過程中或多或少被淡化甚至被完全忽視,而一般執(zhí)法行為卻應當遵守法律一般規(guī)定,嚴格按照程序執(zhí)行。
2.機器人執(zhí)法的歸責誤區(qū)
如前所述,盡管弱人工智能時代機器人執(zhí)法與人工執(zhí)法存在一定的差異,但其并未脫離人類掌控,由其作出的行政行為的認定、性質(zhì)和責任承擔與人工執(zhí)法沒有本質(zhì)上的差別,可能出現(xiàn)的執(zhí)法安全風險和公民隱私保護風險均可在當前法治與技術框架內(nèi)予以避免和解決。但是,關于機器人的法律性質(zhì)及地位等問題在理論上概念不清,易陷入傳統(tǒng)思維的窠臼,可能在強人工智能時代被進一步放大,因此亟需進一步說明。誠然,不管是人工執(zhí)法行為還是機器人執(zhí)法行為,其真正的執(zhí)法主體仍是行政機關。公務員和機器人都只是行政活動的載體,載體的不同不會改變行政機關和行政相對人之間的法律關系,也即無論人工還是機器人在行政執(zhí)法過程中因不當行為造成損害后果,行政機關都應該作為行政行為的法律主體,對相對人承擔責任。進而言之,行政機關承擔的責任是屬于物產(chǎn)生的損害還是人產(chǎn)生的損害賠償?大陸法系的行政賠償制度將行政賠償?shù)脑蚍譃椤肮锕芾龛Υ秘熑巍焙汀靶袨殍Υ秘熑巍?,兩者適用的構成要件和責任形式不盡相同。前者屬于民事侵權而非公法責任,以機器的設置或管理有欠缺造成相對人權益受損為責任要件;后者屬于公法責任,以機器人執(zhí)法行為的違法性和有責性為前提。應當注意到這一區(qū)分在我國審判實踐中往往被忽視,審判機關只注重機器人“物”的屬性,而忽略了其具有的職權屬性。將兩種責任形式混淆會導致責任承擔主體認定錯誤,使得行政責任“遁入”私法范疇。
在當前弱人工智能的時代背景下,行政主體在行政執(zhí)法過程中占據(jù)主導地位。展望強人工智能時代,機器人等人工智能設備將脫離人工控制,獨立進行行政執(zhí)法工作。從人工智能發(fā)展的速度與趨勢來看,完全有理由假定這樣一幅場景:在行政許可中,機器人根據(jù)行政相對人的申請材料自主審核、判斷,并且在分析申請材料真實性的基礎上,綜合預測實施許可后的結果、模式,及時跟進監(jiān)督檢查;在行政處罰中,機器人能夠根據(jù)案件事實、情節(jié)嚴重程度,是否有從輕、減輕或免予處罰情節(jié)等條件在法定幅度內(nèi)選擇罰責相當?shù)奶幜P形式;在其他執(zhí)法活動中,機器人也近乎成為一般意義上的行政主體,具有獨立自主意識和自主判斷能力[5]。行政執(zhí)法的主體由人類過渡到機器人,社會治理結構發(fā)生根本性的變化,行政執(zhí)法過程演變成人與機器人之間的交際。
IntelliJ IDEA,在業(yè)界被公認為最好的Java開發(fā)工具之一,尤其在智能代碼助手、代碼自動提示、重構、J2EE支持、各類版本工具(git、svn、github等)、JUnit、CVS整合、代碼分析、創(chuàng)新的GUI設計等方面的功能強大。
不同于民事主體平等性和單一性的特質(zhì),行政主體在行政法律關系中占據(jù)主導地位,尤其在行政執(zhí)法過程中行政主體相較于行政相對人具有管理與被管理的關系。正是基于這種不對等性,行政主體在行使公權力時應格外慎重,否則將產(chǎn)生危害極大的負面影響。此外,在行政執(zhí)法實踐中,公務人員或者執(zhí)法人員承擔具體的執(zhí)法任務和職責,因此本文討論的機器人是否具有行政執(zhí)法主體資格即是討論機器人能否成為“公務人員”的問題。由此,從行政法的角度而言,探討機器人是否具有行政執(zhí)法的主體地位需要回答三個方面的問題:一是機器人是否具備行政執(zhí)法能力;二是機器人是否具備行政執(zhí)法權力;三是機器人能否承擔違法執(zhí)法導致的法律責任。
其一,機器人具備了人類管理社會的大部分能力,能夠通過自主學習快速便捷地讀取、學習和應用相關信息,從而做出優(yōu)秀的管理決策和規(guī)劃,甚至可以超越大部分自然人管理者所具有的信息收集能力和決策判斷能力。另外,機器人以其自身不同于人類生理特點的機械電子構造,可以精確適應不同的執(zhí)法場景和環(huán)境,人工執(zhí)法難以覆蓋的地點、時間和難以勝任的工作強度,對機器人來講都可以做到游刃有余。最后,基于強人工智能所具有的天然的無偏性和中立性,對于大部分被管理者而言,或許更能體現(xiàn)執(zhí)法者的公平和公正,更能夠體現(xiàn)行政法高效便民和誠實信用原則,也更有利于建設服務型政府。因此,在行政執(zhí)法能力上,機器人無疑是勝任的。
其二,“法無明文規(guī)定不得為之”。行政法定原則作為現(xiàn)代法治國家行使行政權的基本準則之一,決定了行政執(zhí)法活動必須符合法的形式正義。換言之,機器人能夠參與行政執(zhí)法的權力來源必須具有明確的法定依據(jù),否則不僅行為無效還應當承擔相應的法律責任。誠然,在當前弱人工智能背景下由立法來規(guī)定機器人具有獨立執(zhí)法權力是不合時宜的,但是,未來一旦條件成熟,通過立法將機器人納入“智能公務員”序列,與人類公務員序列構成并行不悖的獨立運行模式也不失為一種可行之道。在此運行模式下,國家和政府構成最高的公權力機關,通過法律等形式確認機器人的法律地位,使其以對等的地位與人類共同行使執(zhí)法職責。聚焦其他部門法,已經(jīng)開始承認機器人具備民事和刑事主體資格和地位,從本質(zhì)上說已經(jīng)將機器人視為人類的對等主體,放棄了此前狹義的“工具說”“代理說”等以人類為中心的方式,極大地縮短了將機器人納入公法主體的路徑;下一步只需要穿過公權力的保護屏障,獲得法律的授權即可。因此,在行政執(zhí)法權力上,機器人是有被授權的條件和可能性的。
其三,狹義的行政責任指行政機關及其公務人員違法行使職權侵犯行政相對人合法權益而應當承擔的法律責任。行政責任分為外部責任和內(nèi)部責任,就外部行政責任而言,倘若機器人的不當執(zhí)法行為造成相對人利益受損,其責任承擔方式是由其代表的行政機關承擔相應的撤銷、變更、履行其具體行政行為或確認其違法、無效,責令賠償相對人損失等,此時機器人執(zhí)法與人工執(zhí)法產(chǎn)生的客觀責任效果無異,不存在理論上的矛盾;就內(nèi)部行政責任而言,行政機關在對外承擔責任后,再根據(jù)?公務員法?等法律法規(guī)對相關責任人員給予相應的懲戒措施。對于機器人而言,傳統(tǒng)的警告、記過、降職等處分手段仍然能夠得到適用,原因在于行政法意義上的行政責任與刑事責任存在較大差別,后者基于刑法的謙抑性原則,強調(diào)即使對智能機器人苛以刑責也需嚴格按照犯罪構成要件予以判定。如果承認智能機器人具有超越人類的自主辨認能力和控制能力,必須符合?刑法?第17條規(guī)定的構成要件。內(nèi)部行政責任只是在公務員體系內(nèi)對相關人員給予的處分措施,其重心在于通過職位高低、福利多寡等要素的變化在有限范圍內(nèi)對公務人員予以懲處,不同于刑事責任必須以滿足主客觀條件為限的要求。故而,既然已經(jīng)將執(zhí)法機器人納入“智能公務員”范疇,也勢必會按照特定順序劃定其行政級別,所以上述懲戒措施仍得以適用。至于執(zhí)法機器人觸犯刑法的情形,則可通過增設刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰種類予以解決[6]。因此,在法律責任上,機器人符合承擔責任的要件。
在機器人具有執(zhí)法能力、權力以及能夠承擔相應法律責任的前提下,如何將這些基礎條件轉(zhuǎn)化成未來可具體運作的實體制度需要我們進一步思考和落實。技術發(fā)展對法律制度的影響不能脫離體系化思維,現(xiàn)實和未來社會紛繁復雜,法律制度又存在著天然的滯后性,因此必須利用現(xiàn)有概念、原則、體系框架,透過現(xiàn)象之新把握本質(zhì)之常,將未來可能發(fā)生的各情況納入自己的解釋框架內(nèi),盡量在現(xiàn)有制度構架內(nèi)尋求解決之道[7]。由此,如何將機器人納入行政執(zhí)法隊伍,又如何保證其能夠秉公執(zhí)法,保障和維護社會秩序,推進社會治理體系和治理能力現(xiàn)代化是現(xiàn)階段需要解決的重要問題。
1.構建機器人執(zhí)法的準入制度
所謂機器人準入制度類似于公務員選拔或者聘用制度,目的在于通過確立執(zhí)法機器人的準入門檻和方式,形成一套規(guī)?;?、類別化、要素化的智能機器人隊伍建設模式。現(xiàn)代公務員制度起源于英國的文官制改革,其中一些制度經(jīng)過移植與吸收仍然可以借鑒在機器人執(zhí)法隊伍的制度設計上,例如創(chuàng)設管理文官的事務部、區(qū)分智力工作和機械性工作、通過考試和功績?nèi)斡玫萚8]。但是,執(zhí)法機器人的產(chǎn)生原理和方式與人類不同,決定了執(zhí)法機器人的選拔不能依靠智力和能力因素來進行劃分,必須對癥下藥尋找幕后的根源——機器人的研發(fā)者。具體而言,執(zhí)法機器人的準入應當由專門的事務管理部門負責,并且制定嚴格而清晰的標準,將執(zhí)法機器人的職位要求、能力素質(zhì)一一設定歸類,確保研發(fā)者生產(chǎn)制造的執(zhí)法機器人符合崗位需求;政府部門應當對生產(chǎn)研發(fā)者實施嚴格的行業(yè)準入和登記備案制度,注意區(qū)分普通機器人和執(zhí)法機器人在算法、結構和行業(yè)特性上的區(qū)別。此外,“智能公務員”序列應當與普通人類公務員序列作出區(qū)分,制定兩套不同的職位評定標準和體系,前者應著重強調(diào)執(zhí)法的技術和細節(jié)標準,出現(xiàn)考核不合格的情況應當返廠重新設定程序或者予以開除處理。
2.明確機器人執(zhí)法的程序原則
學界一直致力于行政程序法典化研究,以此防止行政權力濫用,促進行政機關積極作為,避免侵犯公民權利,以更好地為人民提供服務并有效提高行政效率。但是,基于種種原因,至今仍未真正實現(xiàn)這一目標,有關行政執(zhí)法程序性規(guī)定零散規(guī)定于行政許可法、行政處罰法和行政強制法等法律法規(guī)當中,尚未形成集中統(tǒng)一規(guī)范。作為行政執(zhí)法的核心內(nèi)容,如何在上述法律法規(guī)的基礎上建構機器人執(zhí)法的程序性原則便顯得尤為關鍵??梢灶A見的是,未來機器人執(zhí)法可能會面對兩個維度的模式:“機器人(按行政主體論)—自然人、法人(行政相對人)”和“機器人(按行政主體論)—機器人(行政相對人)”。一方面,執(zhí)法機器人在執(zhí)法過程中首要的執(zhí)法對象是自然人和法人組織,此時兩者雖然在構造屬性上存在差異,但是本質(zhì)上仍然未對傳統(tǒng)“人對人”的執(zhí)法模式形成根本性沖擊。原因在于此時具有高度自主意識和能力的執(zhí)法機器人已經(jīng)通過不斷學習模仿強化了行政執(zhí)法過程,在自動化行政階段所省略的程序性步驟反而在該階段得到了強化,有關聽證、說明理由等必要程序也得以保留。但是,由于執(zhí)法機器人的參與,使原本行政法律關系的不對等性得以放大,極易在執(zhí)法密度、證據(jù)收集、法律儲備等方面產(chǎn)生超越合理限度的差別。因此,有必要確立必要性原則,即機器人在執(zhí)法過程中不應明顯或者過度超越人工執(zhí)法所不能涉及的情形,在不必要、不明顯的案件中謹慎使用執(zhí)法機器人。另一方面,若執(zhí)法機器人的執(zhí)法對象是具有高智能的機器人,則二者的差異性就可以忽略不計,但是要謹防同質(zhì)化傾向,堅持同等待遇原則,即對機器人的執(zhí)法偏向性不應超出“人工(按行政主體論)—自然人、法人(行政相對人)”模式,否則就應轉(zhuǎn)化模式,以保持執(zhí)法程序的公平合理。
3.建立機器人執(zhí)法的追責途徑
行政賠償?shù)那疤崾切姓黧w違法行使行政職權,侵犯行政相對人的合法權益并造成損害。因此,若執(zhí)法機器人的不當執(zhí)法行為造成行政相對人利益受損,相對人完全有理由依法獲得賠償。問題的關鍵在于,行政主體在對外承擔賠償責任后,如何對執(zhí)法機器人進行內(nèi)部追責。正如前文所述,對機器人給予行政處分等措施具有可能性和必要性,但是依何種標準、何種手段使其擔責仍是需要思考的問題。一方面,構造再追償制度或者雙重追責制度,通俗地說就是行政主體在對執(zhí)法機器人進行追償后,還可以依照雙方約定抑或法律規(guī)定對機器人生產(chǎn)制造者進行追償。當然,這種追償?shù)姆秶鷥H限于執(zhí)法機器人在設計和編制的程序范圍所作出的違法行為,因為該種行為是機器人在被生產(chǎn)制造時無法自主選擇的部分,超越編制程序的部分則屬于機器人后期自主學習的情形,無法追究其責任。另一方面,除了現(xiàn)有處分手段之外,還應當制定其他適應機器人特性的懲戒手段,例如強制更改執(zhí)法機器人的程序或者刪除其從事某執(zhí)法領域行為的功能,抑或直接開除出“智能公務員”序列等。
科技革命給行政法學研究帶來了無限可能,行政法學的開放性也將接納更多的新型行政行為。具體而言,在行政執(zhí)法過程中融入智能化因素,不僅將提高行政效率,而且會降低行政成本、減少行政偏見、保持客觀中立,極大地提高行政執(zhí)法的準度和精度,保證執(zhí)法質(zhì)量的同時兼顧了執(zhí)法速率。但是“居安思危,思則有備,有備無患”,執(zhí)法機器人作為一種新興產(chǎn)物,技術運用并不能保證萬無一失。無論當下還是未來,仍然可能出現(xiàn)難以預知的風險和困境。
當前,弱人工智能觀念下的執(zhí)法機器人始終受到人類的控制。由于機器、系統(tǒng)的自動性和智能性,行政主體出于對其的信賴,幾乎不會質(zhì)疑由人工智能收集和作出的判斷結果。但是,人工智能并不是絕對精確無誤的,也可能存在技術漏洞。一旦數(shù)據(jù)收集、輸入、處理、輸出的某一環(huán)節(jié)出現(xiàn)了算法性錯誤,就會出現(xiàn)執(zhí)法結果不合理甚至不合法的情況。雖然執(zhí)法結果可能會受到人工審查或者復核,但是出于對人工智能的充分信任,行政主體一般不會改變其輸出的意見,從而導致錯誤的執(zhí)法結果。未來,機器人真正成為執(zhí)法主體,獨立從事行政活動,可以自主裁量法律和事實要素而無需人工干預,由此可能引發(fā)更為嚴重的后果。具體來說,這種錯誤可能表現(xiàn)在以幾個方面:
1.數(shù)據(jù)處理和系統(tǒng)運轉(zhuǎn)錯誤
人工智能作為一種科學技術,在數(shù)據(jù)處理過程中不可避免會存在漏洞,在系統(tǒng)運轉(zhuǎn)過程中可能會出現(xiàn)系統(tǒng)崩潰等情形。另外,執(zhí)法機器人作為一種“金屬+電子技術”載體,可能會出現(xiàn)物理損壞、電子干擾損壞等,這些客觀的損壞可能導致數(shù)據(jù)收集本身并不正確;也可能出現(xiàn)數(shù)據(jù)和信息收集正確,但是卻出現(xiàn)不相關偏差的現(xiàn)象,從而導致結果錯誤。
2.價值判斷錯誤
行政執(zhí)法的過程包含價值判斷的過程,當前人工智能技術尚不具備價值判斷的能力,不能根據(jù)具體情形作出理性判斷。但是,從目前實際運行的過程來看,如果沒有被設定特定情節(jié)、特定事實的選擇事項,人工智能在執(zhí)法過程中就無法根據(jù)實際情況隨機應變作出獨立判斷,或者作出的判斷與預期結果相差甚遠。即使在未來,人工智能擁有了獨立執(zhí)法能力,但是其是否能夠真正對人類復雜的生物學特質(zhì)——情感、情緒、倫理等因素加以判斷同樣存疑。
人工智能背景下的行政執(zhí)法可以通過數(shù)學和代碼的計算實現(xiàn)對一定社會問題的解決,但這種數(shù)碼算法的編制顯然是不透明的并且受到設計者主觀能動性的極大影響,一旦數(shù)碼算法設定嵌入了含有偏見、歧視的價值判斷,那么由其作出的執(zhí)法結果很難實現(xiàn)公平公正。公平本身是一個不確定的、需要衡量的概念,如何將算法的量化和形式化指標轉(zhuǎn)譯為具有可操作性的系統(tǒng)且保證輸出結果的公平性值得思考。另外,在機器人算法制定的過程中,一個重要步驟就是錄入與存儲類型化信息。從某種程度上說,數(shù)據(jù)越全面,算法就越精確。如果數(shù)據(jù)缺失或者不具有代表性,人工智能的執(zhí)法結果就將失去準度[9]。
在強人工智能時代,算法對機器人執(zhí)法的沖擊可能會更為明顯。那時的機器人算法可能設計預測性的模型,之后該機器人便獨立根據(jù)其被設定的預測程序進行執(zhí)法。當然,未來機器人肯定具備深度學習能力,但是這種學習能力的未知超過了一定的可控范圍便會失去算法設計的初衷,可能引發(fā)新的危機。與此同時,執(zhí)法機器人在突破設計者最初設定的程序之后,鑒于其代表的是公權力,若對相對人權益造成普遍性侵害,則可能會顛覆人類對自我社會的整體控制權。
弱人工智能背景下,機器人被越來越多地運用于行政執(zhí)法過程中,某種程度上弱化了行政主體的行政裁量權,甚至極易出現(xiàn)行政主體怠于行使裁量權的不良現(xiàn)象,不僅違背了依法治國的基本原則,更不利于服務型政府的建設。一方面,人工智能的設計和使用程序可能由市場主體開發(fā),行政主體只是被動地運用智能化機器系統(tǒng)進行政治考量、政策決斷和個案處理。在行政裁量過程中則表現(xiàn)為行政機關機械使用智能化機器系統(tǒng),不對其運行原理和使用模式進行深入研究,導致裁量結果偏離預期。另一方面,由于人工智能在處理案件過程中專業(yè)、智能、迅速的優(yōu)點,行政主體往往盲目信任其輸出的裁量結果或者是將本不應該由人工智能裁量的事項交由機器人進行裁量,進而造成裁量怠慢的行政不作為現(xiàn)象,甚至助長因執(zhí)法便利導致的權力尋租。
強人工智能背景下,機器人以其高度擬人狀態(tài)和強大的自主學習能力具備了成為“智能公務員”的可能性,由此機器人正式成為公權力機關的實體組成要素之一,代表政府行使管理社會的職權。此時,可能引發(fā)的爭議是執(zhí)法機器人的出現(xiàn)導致人工行政執(zhí)法生存空間的極度壓縮,機器人愈發(fā)明顯的自主性以及人類對其的高度依賴性,最終演變?yōu)槭Э匦?。尤其是當機器系統(tǒng)自帶深度學習能力而進行指數(shù)升級的情況下,人類失去本地化控制或者全方位控制只是時間問題。雖然失控并不必然帶來風險,但當執(zhí)法機器人目標與人類終極福祉背道而馳時,風險就會不可避免地出現(xiàn)。
如前所述,現(xiàn)階段機器人已經(jīng)運用于行政主體的執(zhí)法活動中,未來人工智能可能會獨立從事行政執(zhí)法工作。因此,必須建立一個可行的法律框架,促進行政執(zhí)法在人工智能時代背景下最大程度地實現(xiàn)公平、合理、良性和效率。
弱人工智能背景下遵循“最小化原則”,盡量避免通過制定新的法律大幅度修改現(xiàn)有法律體系??v觀我國關于智能化行政的法律規(guī)范,大多集中在電子申請許可、電子送達等方面,有關行政執(zhí)法智能化的具體法律規(guī)制很少。與此相矛盾的是,現(xiàn)實中行政機關已經(jīng)運用智能機器或者系統(tǒng)來進行行政執(zhí)法。考慮到智能化執(zhí)法行為具有極強的專業(yè)性和自動性,使用程序上也與一般人工執(zhí)法大相徑庭,因此有必要在相關法律法規(guī)中單獨設置機器人執(zhí)法的適用領域、程序規(guī)定和責任認定等內(nèi)容。雖然我國目前沒有一般的行政程序法典,但是隨著人工智能在行政主體執(zhí)法過程中的廣泛運用,可以在特殊程序法中補充有關人工智能執(zhí)法行為的相應條款。
強人工智能背景下應當遵循“全面性原則”,形成以點到面的全方位立法體系??梢灶A見的是,機器人正式成為行政執(zhí)法主體會對整個社會治理結構產(chǎn)生顛覆式?jīng)_擊,僅僅依靠公務員法和行政程序法的跟進和修訂將不足以遏制巨大變革后可能出現(xiàn)的風險??傮w來講,在憲法和法律層面,需要以立法或者授權立法的形式對機器人執(zhí)法的總體布局和規(guī)劃作出具有概括意義的規(guī)制;行政法規(guī)則需要以其專業(yè)性和靈活性的特質(zhì)對具體法律風險問題作出細致安排,例如不同領域執(zhí)法機器人的準入門檻、執(zhí)行標準、責任追究等;地方立法則應結合本地區(qū)出現(xiàn)的特殊性、片面性問題,對中央立法予以消化。
弱人工智能背景下注意區(qū)分執(zhí)法程序的更新變化,盡量將程序限定在可控幅度內(nèi)。如前所述,在智能化執(zhí)法過程中,省去了聽證、說明理由等重要程序,使得行政相對人的程序權利受到了極大限縮??紤]到人工智能的現(xiàn)實能力,行政機關在運用人工智能進行執(zhí)法活動時至少應該保證相對人最基本的程序權利。首先,必須保障相對人的知情權,即行政主體在運用人工智能進行執(zhí)法時有義務將這一事實告知相對人,必要時還需說明理由;其次,若執(zhí)法過程中系統(tǒng)或者機器出現(xiàn)錯誤或者故障,行政主體應主動放棄使用人工智能而轉(zhuǎn)為人工執(zhí)法;再次,使用機器人進行執(zhí)法時必須出具與一般執(zhí)法相同的具有法律效力的書面憑證,以保證相對人救濟權;最后,相對人因不滿機器人作出的執(zhí)法結果而申請行政復議,則復議程序應當禁止人工智能設備介入。
強人工智能背景下應當重點區(qū)分行政相對人的性質(zhì)屬性,將弱勢一方利益至于前列。強人工智能時代,行政相對人的范疇已經(jīng)不再局限于傳統(tǒng)自然人、法人,機器人作為高智能的一方,相較于普通自然人和法人擁有天然優(yōu)勢,對兩者適用同一執(zhí)法標準勢必產(chǎn)生社會整體意義的公正問題。對此,有必要建立執(zhí)法程序雙軌制,即根據(jù)相對人生理和能力特性,通過行政裁量基準的可操作控制、配套監(jiān)督管理制度和執(zhí)法后救濟的復核等方式,對不同相對人作出差別劃分。
弱人工之智能背景下明確執(zhí)法機器人是行政主體的手段與治理工具,意在借助數(shù)據(jù)和人工智能對需要執(zhí)法的事項作出判斷,從而為行政執(zhí)法提供數(shù)據(jù)分析和政策支持。當前,在機器人執(zhí)法的過程中,必須堅持行政機關的主體地位,保證行政機關的執(zhí)法活力和積極性。具體可以從以下幾個方面著手:一是行政機關或者行政執(zhí)法人員必須提高自身對智能化執(zhí)法機器和系統(tǒng)的認知水平,擁有對人工智能形式的掌控權;二是必須明確和厘清機器人執(zhí)法和人工執(zhí)法的界限,在前者不能觸及的執(zhí)法領域,行政主體應當保持相應的獨占意識,合理把握雙方適用的執(zhí)法范圍;三是機器人執(zhí)法的結果若不適當,行政主體應該主動變更。
強人工智能背景下通過事前登記備案和事后安全審查,將執(zhí)法機器人與人類的“顛覆”對抗風險降至最低。執(zhí)法機器人雖然在當時獲得了執(zhí)法的主體地位,但是國家不能將社會治理的任務完全交由可能產(chǎn)生異化進而構成巨大威脅的機器人完成,所以執(zhí)法機器人在出廠前應嚴格按照設定風險評估指標進行事前行政許可,生產(chǎn)制造者也應當通過政府部門的認證。一旦發(fā)生侵權事件,則轉(zhuǎn)入特殊審查階段,通過設立人工智能審查專員制度對執(zhí)法機器人進行安全審查,即對機器人是否符合安全等級保護制度、是否適宜繼續(xù)承擔執(zhí)法工作以及是否需要在后續(xù)研發(fā)和使用中進一步改進等問題作出綜合判斷。
有關機器人算法的歧視無論是在強人工智能時代還是弱人工智能時代都構成機器人執(zhí)法風險的核心內(nèi)容,前者表現(xiàn)為機器人算法設計者對機器人在出廠前設定的歧視算法,后者則表現(xiàn)為無自主學習能力的機器人在執(zhí)法過程中始終無法變更的運作內(nèi)容。機器人出現(xiàn)于行政執(zhí)法活動的重要原因在于其數(shù)據(jù)存儲和信息傳遞能力強,能夠根據(jù)設定的程序算法快速輸出結果。如何保證這個結果最大程度合法、合理,關鍵在于對機器人算法精準度的把控。其一,算法的設定主體不僅應該具備計算機方面的專業(yè)知識,還應具備專業(yè)法律素養(yǎng)和較高道德品質(zhì);其二,機器人算法的數(shù)據(jù)庫建設應該盡可能囊括不同情形的案例,提高人工智能的信息匹配與查找能力,從而減少其執(zhí)法不當?shù)目赡苄裕黄淙?,必須加強人工智能?zhí)法安全保障的配套措施建設,開發(fā)周邊防火墻技術,嚴格保護相關信息安全,保障相對人和行政主體的隱私數(shù)據(jù);其四,向公眾披露如何開發(fā)機器人算法以及開發(fā)機器人算法的考量,公開機器人算法流程和驗證機器人算法時所生成的適當記錄,公開范圍應限于安全的限度內(nèi)。
行政法的價值在于迅速而有效地適應不斷變化的現(xiàn)實[10]。從實踐來看,雖然目前僅停留在自動化行政階段,但是機器人已經(jīng)在行政執(zhí)法過程中得到廣泛運用且大有繼續(xù)發(fā)展趨勢。“宜未雨而綢繆,毋臨渴而掘井”,本文試圖突破現(xiàn)有研究的固定范式,將目光聚焦于強人工智能時代機器人執(zhí)法的制度構建,從現(xiàn)實出發(fā),初步勾勒當下和未來機器人在行政執(zhí)法中的風險,在解決現(xiàn)有危機的情況下,對未來可能出現(xiàn)的危機加以管窺。
未來,機器人在行政執(zhí)法中究竟將扮演什么角色、承擔何種責任,依然存在許多未知的問題。例如,機器人執(zhí)法與人工執(zhí)法如何合理分工合作;機器人在執(zhí)法過程中的程序性規(guī)定如何進一步細化;機器人若成為執(zhí)法主體,會對傳統(tǒng)行政治理模式產(chǎn)生何種沖擊;其他部門法又會作出何種回應,等等。這些問題都有待學界根據(jù)實踐和理論的進一步發(fā)展進行發(fā)掘、作出思考。
總之,機器人執(zhí)法是時代發(fā)展和科技進步大勢所趨,也是我國發(fā)展電子政務、建設法治國家過程中的重要環(huán)節(jié)。行政主體只有以掌控者的姿態(tài),合理利用人工智能機器和系統(tǒng),才能更好地實現(xiàn)執(zhí)法結果的公平公正,促進社會治理能力和治理體系的現(xiàn)代化。因此,探求法律與技術的進一步結合將是我們的不懈追求和莊嚴使命。