摘 要:是否有助于實(shí)現(xiàn)裁量正義關(guān)系到司法算法系統(tǒng)的應(yīng)用上限和最終走向。形式正義和實(shí)質(zhì)正義共同構(gòu)成了裁量正義。司法算法決策通過(guò)提升裁量的一致性、中立性、客觀性和高效性水平助力形式正義的實(shí)現(xiàn),通過(guò)提升裁量的理性化水平助力實(shí)質(zhì)正義的實(shí)現(xiàn)。但受科技應(yīng)用自反性影響,司法算法決策會(huì)引發(fā)有違裁量正義要求的新風(fēng)險(xiǎn):其一,和司法裁量權(quán)專屬性相沖突;其二,引發(fā)正當(dāng)程序制度被虛置;其三,無(wú)法合理開(kāi)展價(jià)值判斷;其四,司法責(zé)任難以適當(dāng)分配。為此,需要遵循技術(shù)改進(jìn)、實(shí)現(xiàn)人類法官和司法人工智能系統(tǒng)有機(jī)融合的進(jìn)路,以提升司法算法裁量的優(yōu)質(zhì)性和可信性。具體而言,應(yīng)將“明確適用司法算法決策的裁量模塊,提升民眾和法官對(duì)司法算法系統(tǒng)建構(gòu)的實(shí)質(zhì)參與性,建立完善的監(jiān)督制度,充分保障當(dāng)事人的訴訟權(quán)利以及建立合理的責(zé)任分配制度”作為應(yīng)對(duì)司法算法決策背離裁量正義目標(biāo)風(fēng)險(xiǎn)的主要方案。
關(guān)鍵詞:算法決策;人工智能;算法裁判;裁量正義;裁量權(quán);權(quán)利保障
中圖分類號(hào):D926;TP18 文章標(biāo)志碼:A 文章編號(hào):1006-6152(2024)06-0016-12
DOI:10.16388/j.cnki.cn42-1843/c.2024.06.002
近年來(lái),隨著大數(shù)據(jù)、深度學(xué)習(xí)、區(qū)塊鏈、云計(jì)算等技術(shù)取得突破性發(fā)展,人工智能算法開(kāi)始被應(yīng)用到政府治理、商業(yè)競(jìng)爭(zhēng)、治安維護(hù)、環(huán)境保護(hù)等諸多領(lǐng)域,并推動(dòng)了這些領(lǐng)域的變革性發(fā)展。同樣的,人工智能算法也被應(yīng)用到司法領(lǐng)域,并被視為推動(dòng)司法現(xiàn)代化、高效化、公正化改革的重要契機(jī)。我國(guó)政府和法院也積極擁抱此次人工智能應(yīng)用潮流,出臺(tái)了一系列政策文件以推動(dòng)智慧法院、智慧司法轉(zhuǎn)型目標(biāo)的實(shí)現(xiàn)。如最高人民法院發(fā)布的《關(guān)于加快建設(shè)智慧法院的意見(jiàn)》《人民法院第五個(gè)五年改革綱要(2019—2023)》,國(guó)務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》等文件都提出了要?jiǎng)?chuàng)新發(fā)展信息技術(shù)和智能系統(tǒng),通過(guò)打造智慧平臺(tái)、智慧法院應(yīng)用體系等方式推動(dòng)司法審判體系和審判能力現(xiàn)代化改革目標(biāo)的實(shí)現(xiàn)。
當(dāng)前,積極探索和應(yīng)用人工智能算法的主要?jiǎng)右蛑辉谟谕苿?dòng)司法正義的實(shí)現(xiàn)[1],而裁量正義無(wú)疑是司法正義最重要的組成部分,能否有助于裁量正義的實(shí)現(xiàn)在一定程度上決定著司法人工智能系統(tǒng)的應(yīng)用上限和最終走向。但通過(guò)對(duì)現(xiàn)有研究的分析和總結(jié)可以發(fā)現(xiàn):一方面,當(dāng)前關(guān)于司法人工智能的絕大多數(shù)研究都主要討論人工智能算法在司法領(lǐng)域的應(yīng)用限度[2]和可能前景[3]問(wèn)題,而將和裁量相關(guān)的內(nèi)容作為研究例證。這類宏觀研究往往會(huì)因?yàn)楹鲆曀痉ú昧康莫?dú)有特質(zhì)而造成應(yīng)對(duì)司法算法和裁量正義相沖突困境的方案缺乏針對(duì)性和可行性。另一方面,還有少數(shù)學(xué)者的研究涉及人工智能算法在司法裁量領(lǐng)域內(nèi)的一些具體應(yīng)用,如價(jià)值判斷[4]、推理輔助[5]等。這樣的微觀研究雖然關(guān)注到了司法裁量的某些具體特質(zhì),但裁量正義的實(shí)現(xiàn)是一個(gè)系統(tǒng)性工程,只關(guān)注其某一側(cè)面可能會(huì)造成片面評(píng)價(jià)司法人工智能算法發(fā)展前景的問(wèn)題。因此,本文將以司法算法決策和裁量正義之間的沖突與融合為主題,對(duì)司法人工智能在實(shí)現(xiàn)裁量正義上的相關(guān)優(yōu)勢(shì)、可能風(fēng)險(xiǎn)以及應(yīng)對(duì)策略展開(kāi)系統(tǒng)化和全面性的分析,從而希望能夠彌補(bǔ)現(xiàn)有宏觀和微觀研究的不足,為我們更加客觀、理性地對(duì)待司法人工智能算法的發(fā)展前景提供助益。
一、司法算法決策在實(shí)現(xiàn)裁量正義上的優(yōu)勢(shì)
對(duì)于裁量正義而言,主要包含形式正義和實(shí)質(zhì)正義兩個(gè)方面的內(nèi)容。形式正義就是要求裁決者在最短的時(shí)間內(nèi),站在中立的立場(chǎng)以具有一致性的裁量標(biāo)準(zhǔn)得出裁量結(jié)論。其中裁量的高效性保障了正義的實(shí)現(xiàn)是及時(shí)的,裁量遵循一致性原則保障了裁量的平等性,裁決者立場(chǎng)的客觀性保障了裁量是符合公正要求的。實(shí)質(zhì)正義則要求裁量是基于理性而展開(kāi),進(jìn)而才能保障裁量的結(jié)果是契合社會(huì)正義認(rèn)知、能夠得到社會(huì)公眾認(rèn)同和接受的[6]。當(dāng)前,對(duì)于人工智能算法可以全面提升司法裁決的高效性,理論界和實(shí)務(wù)界已經(jīng)基本達(dá)成共識(shí),并展開(kāi)了較為全面的探索和論述。而對(duì)于人工智能算法在提升司法裁量的一致性、中立性和理性化方面,相關(guān)研究則較為薄弱。因此,本部分將對(duì)人工智能算法相較于傳統(tǒng)人類法官在這三個(gè)方面的裁量?jī)?yōu)勢(shì)展開(kāi)論述,以深化我們對(duì)人工智能算法在提升裁量正義方面的有益價(jià)值的認(rèn)知。
其一,司法算法決策有助于實(shí)現(xiàn)裁量的一致性。同案同判原則通過(guò)法律統(tǒng)一適用的方式保障了司法裁判具有重復(fù)性、可預(yù)測(cè)性、權(quán)威性和平等性,能夠向社會(huì)釋放穩(wěn)定的行為規(guī)則信號(hào),實(shí)現(xiàn)社會(huì)運(yùn)行在可預(yù)期維度上的有序化,因而被視作實(shí)現(xiàn)裁量正義的基本要求。但由于受地域、文化、習(xí)俗、經(jīng)濟(jì)水平、法官知識(shí)背景等差異的影響,不同法官在展開(kāi)裁量時(shí)常會(huì)得出不同的裁量結(jié)論。因而,排除案外因素干擾,在“依法裁判”的維度上,法官不同裁量尺度的選擇是造成同案不同判的內(nèi)在原因。歐文·費(fèi)斯就指出,即便面對(duì)相同或類似的案件,每個(gè)裁判者的裁量都會(huì)有所差異,他們能夠輕易地,甚至是無(wú)意識(shí)地在發(fā)現(xiàn)法律規(guī)則原意的名義下,將自身的偏好施加于裁量結(jié)果之中[7]。
司法算法的應(yīng)用便可以有效克服司法裁量同案不同判的頑疾。司法人工智能算法的基本運(yùn)作原理是通過(guò)算法對(duì)海量裁判數(shù)據(jù)展開(kāi)分析,發(fā)掘其中裁判要素之間的關(guān)系,并以此為基礎(chǔ)得出有關(guān)糾紛的確切描述。隨后,人工智能算法便能建立裁判模型,這一模型可以根據(jù)特定的描述得出與之相關(guān)的裁判結(jié)論。此外,當(dāng)模型建構(gòu)完成后,司法人工智能算法還會(huì)根據(jù)新的數(shù)據(jù)集不斷自動(dòng)調(diào)試、自主學(xué)習(xí)、自我迭代,從而持續(xù)提升決策模型的精準(zhǔn)性、魯棒性、科學(xué)性和可靠性[8]。由于擁有一致的要素抽取標(biāo)準(zhǔn)、統(tǒng)一的算法建模、流水化的操作程式,司法人工智能便可以憑借統(tǒng)一的裁量邏輯和標(biāo)準(zhǔn),對(duì)相同或類似的裁量信息輸入給出相同或類似的信息輸出。這一決策邏輯可以有效避免因不同法官對(duì)法律規(guī)則和事實(shí)理解上的差異而引發(fā)裁量尺度不一致的風(fēng)險(xiǎn),從而全面提升司法裁量的一致性,確保法律統(tǒng)一適用目標(biāo)的實(shí)現(xiàn)[9]。此外,“人工智能算法的一個(gè)主要特征就是可以詳盡地描述組成最終結(jié)論的每一個(gè)細(xì)小的決定所依照的具體規(guī)則”[10],對(duì)由于法律的概括性和事實(shí)的多樣性而造成法官在涵攝過(guò)程中不可避免地引發(fā)同案不同判的難題而言,司法人工智能則可以通過(guò)充分發(fā)掘先例中裁量因子與裁量結(jié)論的相關(guān)組合,實(shí)現(xiàn)案件事實(shí)要素和法律規(guī)范之間的具體對(duì)應(yīng),以對(duì)法律規(guī)范和法律現(xiàn)象極致分解和細(xì)化的方式,消解對(duì)法律規(guī)范和案件事實(shí)之間的涵攝過(guò)程。法律涵攝過(guò)程的壓縮意味著司法裁量的空間和方向都被先例進(jìn)一步固化,有助于全面提升司法裁量結(jié)論的一致性、確定性和可預(yù)測(cè)性。實(shí)踐中,貴州法院就通過(guò)對(duì)大數(shù)據(jù)的挖掘和分析,建立了以關(guān)鍵要素為基礎(chǔ)的裁判標(biāo)準(zhǔn)數(shù)據(jù)庫(kù),并以此為基礎(chǔ)對(duì)類案和關(guān)聯(lián)案件展開(kāi)預(yù)測(cè),架構(gòu)起了相應(yīng)的裁判偏離預(yù)警機(jī)制。如若法官的裁判偏離預(yù)測(cè)結(jié)果達(dá)到一定程度,系統(tǒng)便會(huì)提醒法官或合議庭展開(kāi)自查,院長(zhǎng)、庭長(zhǎng)等也可以對(duì)偏離度較高的案件展開(kāi)審查,從而避免類案非類判現(xiàn)象的發(fā)生,充分保障了裁判尺度的統(tǒng)一性[11]。
其二,司法算法決策可以保障裁量的中立性和客觀性。司法裁量擔(dān)負(fù)著解釋、補(bǔ)充、校正和發(fā)展法律,引領(lǐng)社會(huì)正義,回應(yīng)不同時(shí)期社會(huì)訴求的能動(dòng)功能。此時(shí),裁決者立場(chǎng)的中立性就關(guān)系到裁量結(jié)論的公正性和可接受性。對(duì)此,達(dá)瑪什卡指出,理想的裁決者應(yīng)當(dāng)處于白板狀態(tài),如果決策者對(duì)于當(dāng)事人的法律辯論是一種保持開(kāi)放狀態(tài)的空白接收器,那么糾紛解決的程序就會(huì)更加純粹,并且裁量也將在一個(gè)更高的水平上運(yùn)轉(zhuǎn)[12]。然而,傳統(tǒng)法官在裁量時(shí)不但會(huì)受到個(gè)體認(rèn)知、道德、直覺(jué)、偏見(jiàn)等主觀因素影響,還會(huì)受到上級(jí)干涉、社會(huì)輿論、人情關(guān)系等案外因素影響而偏離客觀、中立的立場(chǎng)。為此,我們?cè)O(shè)計(jì)了庭審公開(kāi)制度、裁判文書公開(kāi)制度、法官宣誓制度、司法責(zé)任制度、法官任職保障制度等,希望能夠提升法官裁量的獨(dú)立性和公正性。另一方面,由于裁量行為是在法律允許范圍內(nèi)展開(kāi)的,這也會(huì)造成法官的偏見(jiàn)或偏私往往在合法外衣的掩護(hù)下而難以察覺(jué)。所以,希望通過(guò)精密的外在制度建構(gòu)監(jiān)督法官裁量立場(chǎng)的方法,因缺乏內(nèi)在規(guī)制能力而陷入了困境。
司法人工智能則憑借自動(dòng)化決策的優(yōu)勢(shì),可以將外界干擾排除在司法裁量的循環(huán)過(guò)程之外,通過(guò)徹底改變裁量運(yùn)轉(zhuǎn)流程的方式,保障了相關(guān)裁量過(guò)程的中立性和客觀性。自主學(xué)習(xí)、自動(dòng)決策、全程留痕等特質(zhì)都決定了司法人工智能在面對(duì)需要裁量的法律爭(zhēng)議和事實(shí)爭(zhēng)議時(shí),會(huì)最大限度地以當(dāng)前數(shù)據(jù)展現(xiàn)的、具有客觀性的法律語(yǔ)境和事實(shí)語(yǔ)境為參照,自主選擇出其中最具正當(dāng)性和可靠性的裁量結(jié)論,有效排除了法官可能會(huì)因受案外因素影響而做出偏離中立立場(chǎng)的裁決的風(fēng)險(xiǎn)。對(duì)此,塔妮婭·索丁指出,法官會(huì)受到一系列主體因素,如進(jìn)食時(shí)間和內(nèi)容、是否疲勞、個(gè)體價(jià)值理念、對(duì)直覺(jué)的依賴程度、無(wú)意識(shí)的假定、個(gè)體情緒等的影響而做出不公正或武斷的裁量,而AI法官的引入將使這些問(wèn)題不復(fù)存在[13]。
其三,司法算法決策可以提升裁量的理性化水平。司法裁量整合和對(duì)接法律與事實(shí)的過(guò)程也是一個(gè)法律意涵、事實(shí)信息、正義維度、知識(shí)證立的選擇過(guò)程,為了保障所得出的結(jié)論是契合社會(huì)正義期待的最優(yōu)解,這就要求司法裁量是基于理性而展開(kāi)的。然而,受制于個(gè)體閱歷和精力的有限性、裁量的期限性、事實(shí)和法律的限定性以及認(rèn)知的偏向性,法官的裁量往往是在特定時(shí)空內(nèi)、特定信息獲取水平下展開(kāi)的具有節(jié)制性和片面性的決斷。人工智能算法的使用則能夠通過(guò)聚合與分析海量案件裁量過(guò)程和結(jié)果的數(shù)據(jù)信息的方式,彌補(bǔ)法官信息獲取數(shù)量不足、數(shù)據(jù)分析能力不足、經(jīng)驗(yàn)累積程度不足以及社會(huì)影響預(yù)見(jiàn)不足等問(wèn)題,從而全面提升司法裁量的科學(xué)性、周全性和系統(tǒng)性。
首先,借助于數(shù)學(xué)模型和強(qiáng)大算力的支持,人工智能算法可以實(shí)現(xiàn)多維矩陣運(yùn)算,高效、準(zhǔn)確地處理海量數(shù)據(jù),并對(duì)復(fù)雜和分散的數(shù)據(jù)進(jìn)行結(jié)構(gòu)性重組。這也就意味著它可以輕易學(xué)習(xí)和掌握蘊(yùn)含于上億份裁判文書中的司法經(jīng)驗(yàn)和司法規(guī)律。并且,通過(guò)系統(tǒng)聯(lián)動(dòng)和互通,司法人工智能還可以學(xué)習(xí)和累積跨學(xué)科、跨地域、跨文化的裁量知識(shí),能夠有效彌補(bǔ)人類法官因知識(shí)獲取和分析能力不足而產(chǎn)生的裁量視野受限的困境。
其次,司法人工智能可以通過(guò)最大限度擬合先例中蘊(yùn)含的法官裁量規(guī)律和經(jīng)驗(yàn)的方式,為案件提供基于法官群體理性和共同體背景的裁量結(jié)論,以法官整體理性的方式回應(yīng)和化解法官在新型、疑難、復(fù)雜等案件裁量中可能存在的知識(shí)結(jié)構(gòu)缺陷、思維方式固化和裁量理念滯后等問(wèn)題。此外,盡管當(dāng)前司法人工智能還處于初級(jí)發(fā)展階段,被定位為裁量輔助工具,但仍可以通過(guò)事先提供裁量結(jié)論的方式幫助法官回歸到論證機(jī)器裁量是否周全的“論證—決策”這一理性思維模式上,從而可以有效避免“決策—論證”模式加劇法官證實(shí)性偏見(jiàn)的風(fēng)險(xiǎn)[14]。
最后,具備預(yù)測(cè)能力的司法算法模型可以通過(guò)預(yù)測(cè)不同裁量結(jié)論可能引發(fā)的司法后果的方式,在多種可能的裁量結(jié)論假設(shè)中作出最契合社會(huì)正義理念和民眾正義認(rèn)知的選擇,充分提升司法裁量的社會(huì)回應(yīng)和社會(huì)引導(dǎo)能力。如馮蘭萍等人就基于EGM(1,1)模型和簡(jiǎn)化粒子群算法(SPSO)建構(gòu)了一種基于“政府干預(yù)—主流情緒引導(dǎo)”的群體情緒演化模型。實(shí)驗(yàn)結(jié)果表明,這一模型可以刻畫不同情緒和政府干預(yù)強(qiáng)度對(duì)主流情緒的影響力,從而為政府干預(yù)決策提供可靠依據(jù)[15]。在熱點(diǎn)案件中,可以將這一模型用于司法裁量結(jié)論的輿情演化預(yù)測(cè)中,提升司法裁量對(duì)輿論的回應(yīng)能力和引導(dǎo)能力。
二、司法算法決策和裁量正義的沖突
我們?cè)趹?yīng)用算法技術(shù)以提升司法裁量理性化和科學(xué)化水平的同時(shí),還需要面對(duì)因科技應(yīng)用的自反性特質(zhì)而引發(fā)的有違裁量正義要求的新風(fēng)險(xiǎn)。由于司法算法決策在技術(shù)發(fā)展、知識(shí)結(jié)構(gòu)、權(quán)力形態(tài)、應(yīng)用場(chǎng)景、認(rèn)知理性等方面的內(nèi)在限度,使得它在實(shí)現(xiàn)裁量正義目標(biāo)上還存在諸多的缺陷與問(wèn)題。因而我們有必要在技術(shù)發(fā)展還未產(chǎn)生“鎖定效應(yīng)”之前及時(shí)對(duì)司法算法決策可能給實(shí)現(xiàn)裁量正義目標(biāo)帶來(lái)的危害予以梳理和分析,為我們更加理性和客觀地看待司法算法裁量的可能空間與發(fā)展前景,提出更具有針對(duì)性和可行性的風(fēng)險(xiǎn)應(yīng)對(duì)方案奠定基礎(chǔ)。
(一)和司法裁量權(quán)的專屬性相沖突
司法人工智能的應(yīng)用可能引發(fā)司法裁量權(quán)被技術(shù)公司俘獲,進(jìn)而危及裁量權(quán)專屬原則的風(fēng)險(xiǎn)。一方面,由于算法技術(shù)的復(fù)雜性、專業(yè)性、先進(jìn)性,司法機(jī)構(gòu)人員往往缺乏相關(guān)專業(yè)知識(shí),所以,當(dāng)前絕大多數(shù)司法人工智能系統(tǒng)都是由商業(yè)技術(shù)公司單獨(dú)或與法院合作開(kāi)發(fā)的。實(shí)踐中,在簡(jiǎn)單將司法人工智能系統(tǒng)仍視為輔助工具而不是重塑系統(tǒng)的慣性思維下,司法機(jī)關(guān)人員往往較少參與司法人工智能系統(tǒng)的需求提煉、方案設(shè)計(jì)、產(chǎn)品研發(fā)、審核修正甚至是試點(diǎn)運(yùn)行等工作之中[16],這就造成技術(shù)公司實(shí)際上主導(dǎo)了司法人工智能系統(tǒng)的設(shè)計(jì)、運(yùn)行和維護(hù)工作,技術(shù)公司在對(duì)裁量邏輯的編訂、規(guī)則要旨的提煉、數(shù)據(jù)要素的標(biāo)注、知識(shí)圖譜的繪制、證據(jù)認(rèn)定標(biāo)準(zhǔn)的制定、價(jià)值沖突的選擇過(guò)程中實(shí)際上行使了部分法官的裁量權(quán),成為司法裁量的實(shí)際控制者之一。
另一方面,相關(guān)實(shí)證研究表明,“雖然我們明確地表達(dá)了將機(jī)器決策系統(tǒng)視為輔助性工具的想法,但在對(duì)自動(dòng)化決策模型的信任、節(jié)省時(shí)間、減少思考負(fù)擔(dān)以及避免擔(dān)責(zé)風(fēng)險(xiǎn)等心理的影響下,即便參與者明確知曉自動(dòng)化決策系統(tǒng)并不是完美無(wú)缺的,人們還是不自覺(jué)地傾向于信任自動(dòng)化決策系統(tǒng)的結(jié)論”[17]。雖然當(dāng)前司法人工智能系統(tǒng)被定義為法官裁量的輔助性工具,但在案多人少壓力、司法數(shù)字化管理壓力、社會(huì)輿論壓力、道德責(zé)任壓力等因素影響下,法官往往更加傾向于接受人工智能系統(tǒng)的裁量結(jié)論,而不是耗費(fèi)更多的精力論證偏離機(jī)器裁量的理由以及承擔(dān)更加嚴(yán)格的裁量偏離審查風(fēng)險(xiǎn)。
在技術(shù)外包和依賴心理的雙重作用下,便會(huì)形成部分司法裁量權(quán)被技術(shù)公司所俘獲的事實(shí)。而技術(shù)公司俘獲司法裁量權(quán)是和司法裁量權(quán)專屬原則相沖突的,存在引發(fā)司法裁量權(quán)被濫用、人文關(guān)懷缺失、裁量標(biāo)準(zhǔn)離散化等風(fēng)險(xiǎn)。首先,司法裁量的權(quán)威性和合法性來(lái)自經(jīng)過(guò)民眾或法律通過(guò)嚴(yán)格公開(kāi)的程序授權(quán)。一方面,商業(yè)算法平臺(tái)裁量權(quán)的獲得不但并未經(jīng)過(guò)民眾或法律通過(guò)嚴(yán)格、公開(kāi)的程序授權(quán),而且算法設(shè)計(jì)人員在相關(guān)法律的運(yùn)作、糾紛的解決、社會(huì)正義理念的理解等司法專業(yè)技能方面往往也是缺失的,這就會(huì)造成商業(yè)平臺(tái)裁量權(quán)的行使缺乏正當(dāng)性與規(guī)范性,其裁量結(jié)論的合法性和權(quán)威性也將面臨挑戰(zhàn)。另一方面,由于算法黑箱的存在以及與司法監(jiān)管制度的脫鉤,傳統(tǒng)監(jiān)管司法裁量的制度往往難以對(duì)算法商業(yè)平臺(tái)予以監(jiān)管,這就會(huì)造成受算法商業(yè)平臺(tái)所影響的裁量行為脫離監(jiān)管的問(wèn)題。在權(quán)力濫用法則的影響下,缺失了監(jiān)管的裁量權(quán)的行使便極易受到外界干擾而偏離客觀、公正的軌道。
其次,司法裁量往往需要對(duì)法律規(guī)則進(jìn)行解釋以契合案件特質(zhì),這一過(guò)程實(shí)際上就是對(duì)法律的發(fā)展、對(duì)社會(huì)正義理念的修正和引領(lǐng)的過(guò)程。這就要求司法裁量始終以社會(huì)正義理念為引領(lǐng),以實(shí)現(xiàn)和保護(hù)人的尊嚴(yán)和價(jià)值為基本參照,以讓人民群眾在每一個(gè)司法案件中都感受到公平正義為目的。而商業(yè)平臺(tái)的行動(dòng)邏輯則與之不同,它是以效率和經(jīng)濟(jì)利益為主要價(jià)值追求的,這就可能會(huì)使商業(yè)算法平臺(tái)在對(duì)司法人工智能系統(tǒng)展開(kāi)設(shè)計(jì)時(shí)簡(jiǎn)單地將提升裁量效率和社會(huì)效益作為參照,從而引發(fā)司法裁量的公共屬性和人文關(guān)懷被損害的風(fēng)險(xiǎn)。
最后,算法商業(yè)平臺(tái)掌控司法裁量權(quán)還可能會(huì)引發(fā)司法裁量標(biāo)準(zhǔn)不一致的問(wèn)題。實(shí)踐中,有學(xué)者就將同一起交通事故案件數(shù)據(jù)分別輸入兩個(gè)量刑輔助系統(tǒng),二者給出的刑期卻相差了四個(gè)月[18]。其原因在于,一方面,和法院統(tǒng)一領(lǐng)導(dǎo)的縱向管理模式不同的是,為不同法院設(shè)計(jì)算法系統(tǒng)的商業(yè)平臺(tái)之間對(duì)數(shù)據(jù)的篩選、對(duì)數(shù)據(jù)要素的標(biāo)注、對(duì)決策模型的選取等不可避免地會(huì)存在一定的差異性;另一方面,為了保障在商業(yè)競(jìng)爭(zhēng)中的優(yōu)勢(shì),盡可能多地向不同法院出售司法人工智能系統(tǒng),商業(yè)平臺(tái)還會(huì)對(duì)所設(shè)計(jì)的司法人工智能算法的決策邏輯嚴(yán)格保密,通過(guò)強(qiáng)化算法黑箱的方式營(yíng)造技術(shù)壁壘。這就會(huì)進(jìn)一步加劇司法人工智能系統(tǒng)法律適用不統(tǒng)一、裁量標(biāo)準(zhǔn)不一致的難題。
(二)正當(dāng)程序制度被虛置
裁量是一個(gè)辯駁和疏導(dǎo)的過(guò)程,需要遵循適當(dāng)?shù)某绦蛞?guī)定以保障當(dāng)事人能夠深度參與到法官?zèng)Q策的過(guò)程中,通過(guò)表達(dá)自身訴求、監(jiān)督裁量行為、參與裁量過(guò)程、影響法官?zèng)Q策、獲得合理解釋等方式消除內(nèi)心的疑慮和困惑。然而,受技術(shù)的復(fù)雜性、算法迭代的自主性以及保護(hù)商業(yè)秘密需求的影響,司法人工智能算法系統(tǒng)運(yùn)轉(zhuǎn)不可避免地呈現(xiàn)出黑箱化的特點(diǎn)。在司法人工智能算法黑箱的阻隔下,傳統(tǒng)程序正義制度也將面臨被虛置的命運(yùn)。
一方面,雖然司法人工智能裁量具有中立性的特質(zhì),但研究表明,對(duì)程序公正是否認(rèn)可以及對(duì)裁量結(jié)論的接受程度還和當(dāng)事人的參與程度具有緊密聯(lián)系。“當(dāng)事人看重自己在決策的過(guò)程中是否被重視,他們的社會(huì)地位和應(yīng)有權(quán)利是否得到尊重,一旦當(dāng)事人認(rèn)為他們的語(yǔ)言或行為會(huì)對(duì)爭(zhēng)議結(jié)果產(chǎn)生影響時(shí),相關(guān)參與效應(yīng)就會(huì)顯現(xiàn),當(dāng)事人也將更加樂(lè)意認(rèn)可裁決者作出的決定?!保?9]而封閉的司法算法裁量卻會(huì)將當(dāng)事人排除于決策過(guò)程之外,當(dāng)事人既無(wú)法通過(guò)對(duì)證據(jù)展開(kāi)質(zhì)證、對(duì)行為予以辯解、對(duì)裁量幅度發(fā)表意見(jiàn)等方式表述自己的觀點(diǎn)和立場(chǎng),也無(wú)法通過(guò)主體間對(duì)話、互動(dòng)、協(xié)調(diào)等方式展開(kāi)有意義的溝通和交流。
另一方面,司法裁量實(shí)際上是一種說(shuō)理、論證的過(guò)程,只有將關(guān)涉裁量結(jié)論選擇的相關(guān)法理、事理、文理、情理予以詳盡說(shuō)明,才能充分保障裁量結(jié)論的正當(dāng)性、可接受性。然而司法人工智能系統(tǒng)的裁量是以大數(shù)據(jù)要素之間的相關(guān)關(guān)系而不是因果關(guān)系作為決策基礎(chǔ)邏輯的,這種數(shù)據(jù)要素聯(lián)結(jié)僅僅是以計(jì)量的方式將事件和法律后果相聯(lián)系,并不是在因果推理意義上以“理由—結(jié)論”的方式對(duì)待二者的,因而司法人工智能系統(tǒng)往往只能給出裁量的結(jié)論,卻無(wú)法解釋結(jié)論背后的理由[20]。正如舍恩伯格等人所指出的,人工智能時(shí)代,機(jī)器只會(huì)告訴我們“是什么”,卻無(wú)法告知我們“為什么”。我們只能讓數(shù)據(jù)自己發(fā)聲,而無(wú)須知道隱含于現(xiàn)象背后的原因[21]。但法治是理由之治,一旦當(dāng)事人無(wú)法獲悉支撐裁量結(jié)論的理由,那么就意味著當(dāng)事人對(duì)相關(guān)結(jié)論提出異議的權(quán)利也被一并剝奪,進(jìn)而裁量結(jié)論的說(shuō)服力和可接受性都將會(huì)因無(wú)法提供理由和論據(jù)而被嚴(yán)重削弱。
(三)價(jià)值判斷難題
需要裁量的案件往往是那些事實(shí)和法律不清,需要裁量者發(fā)揮主觀能動(dòng)性展開(kāi)事實(shí)還原和法律解釋從而彌合事實(shí)和法律之間間隙的案件。而在這一彌合的過(guò)程中,需要司法機(jī)關(guān)結(jié)合案件的具體內(nèi)容、社會(huì)環(huán)境、常識(shí)、常情、常理等開(kāi)展適當(dāng)?shù)膬r(jià)值選擇、價(jià)值確認(rèn)和價(jià)值引導(dǎo),因而裁量活動(dòng)是具有鮮明價(jià)值導(dǎo)向的司法活動(dòng)。然而擅長(zhǎng)于數(shù)據(jù)計(jì)量的司法人工智能在面對(duì)難以量化的價(jià)值選擇問(wèn)題時(shí),時(shí)常是無(wú)能為力的,其原因主要有以下幾點(diǎn):
其一,司法裁量中的價(jià)值決斷是具有高度綜合性、系統(tǒng)性、社會(huì)性的事項(xiàng),所遵循的圖譜是“法—理—情”相關(guān)聯(lián)的多維圖譜。因而,為了保障價(jià)值選擇的合理性和社會(huì)可接受性,裁量者在開(kāi)展價(jià)值決斷時(shí),時(shí)常需要考量社會(huì)情感、道德文化、風(fēng)俗習(xí)慣、公共利益等價(jià)值因素。這些因素由于具有開(kāi)放性、多元性、流動(dòng)性、模糊性等特質(zhì),往往難以通過(guò)數(shù)據(jù)化的方式予以展現(xiàn)。這也就決定了以數(shù)字計(jì)量為基礎(chǔ)的司法人工智能對(duì)于這些案件往往是力所不逮的。
其二,由于法律價(jià)值具有多樣性、分層性和流動(dòng)性,在具體個(gè)案的司法裁量中,難免會(huì)出現(xiàn)自由、平等、公正、人權(quán)等不同法律價(jià)值之間的沖突問(wèn)題。由于不同價(jià)值準(zhǔn)則之間并非存在天然的位階排序,個(gè)案的具體實(shí)情、當(dāng)事人的不同立場(chǎng)、社會(huì)的不同發(fā)展階段等都有可能引發(fā)個(gè)案中相關(guān)價(jià)值排序的重大波動(dòng),因而,司法裁量中的價(jià)值選擇是一項(xiàng)充滿權(quán)益平衡策略的活動(dòng)。由于司法人工智能算法的價(jià)值選擇位階排序是通過(guò)先例學(xué)習(xí)和人為選擇而被預(yù)先設(shè)定的,往往難以應(yīng)對(duì)不同個(gè)案具體價(jià)值沖突中不斷變動(dòng)的價(jià)值選擇需求。對(duì)此,托馬斯·F·戈登甚至認(rèn)為,當(dāng)前涉及法律推理的所有關(guān)系模型都無(wú)法取代法官的權(quán)宜平衡,并不存在可以解決所有價(jià)值沖突的終極算法[22]。實(shí)踐中,楊延超通過(guò)實(shí)證研究發(fā)現(xiàn),司法人工智能決策的正確率和判定事項(xiàng)的價(jià)值判斷占比呈反相關(guān),人工智能更加擅長(zhǎng)于諸如評(píng)價(jià)證據(jù)和客觀事實(shí)真?zhèn)蔚母呔S運(yùn)算,而對(duì)于需要進(jìn)行復(fù)雜推理的價(jià)值決斷事項(xiàng),人工智能則表現(xiàn)出了較高的錯(cuò)誤率[23]。
其三,受到算法設(shè)計(jì)人員價(jià)值取向、大數(shù)據(jù)中蘊(yùn)含的社會(huì)偏見(jiàn)等因素影響,司法人工智能的裁量還不可避免地會(huì)產(chǎn)生歧視風(fēng)險(xiǎn)①。首先,雖然司法人工智能算法決策的過(guò)程是客觀中立的,但是負(fù)載價(jià)值判斷的裁量代碼確是被制造和選擇的。這也就意味著司法人工智能決策模型的選擇實(shí)質(zhì)上是可控的,算法設(shè)計(jì)人員會(huì)有意無(wú)意地將自身的價(jià)值傾向通過(guò)編碼的方式嵌入司法人工智能系統(tǒng)之中,從而影響司法人工智能系統(tǒng)裁量的價(jià)值選擇傾向。如僅用于分類的算法就有神經(jīng)網(wǎng)絡(luò)(BP)、模糊神經(jīng)網(wǎng)絡(luò)(FNN)、自主適應(yīng)神經(jīng)網(wǎng)絡(luò)(ANFIS)等多種神經(jīng)網(wǎng)絡(luò)模型[24],每種模型在不同場(chǎng)景下的決策邏輯和決策優(yōu)勢(shì)都存在一定的差異性,個(gè)體喜好、知識(shí)背景、認(rèn)知范圍和情感偏好都有可能影響算法設(shè)計(jì)者的選擇,造成相關(guān)司法決策模型在裁量時(shí)偏離本應(yīng)遵循的客觀中立立場(chǎng)。其次,因?yàn)榉从成鐣?huì)運(yùn)行狀態(tài),司法裁量選擇的大數(shù)據(jù)不可避免地會(huì)內(nèi)涵人類社會(huì)所蘊(yùn)含的偏見(jiàn)因子,在“偏見(jiàn)進(jìn)則偏見(jiàn)出”定律[25]的影響下,司法人工智能算法也會(huì)挖掘和學(xué)習(xí)內(nèi)涵于相關(guān)司法數(shù)據(jù)中的歧視要素,作出具有歧視性的裁量選擇。最后,司法人工智能系統(tǒng)的裁量歧視還具有系統(tǒng)性和反復(fù)性的特質(zhì),可能造成少數(shù)群體、數(shù)字弱勢(shì)群體被鎖定于算法決策循環(huán)之中,遭受反復(fù)歧視的風(fēng)險(xiǎn)。一方面,與在法官個(gè)體裁量中相關(guān)歧視的發(fā)生是個(gè)體的、局部的、分散的不同,司法人工智能決策歧視往往會(huì)呈現(xiàn)出規(guī)模化、體系化和自動(dòng)化的特質(zhì),所造成的危害后果具有長(zhǎng)期性、規(guī)模性和反復(fù)性。另一方面,由于算法機(jī)制的互通性和擴(kuò)散性,分享和學(xué)習(xí)類似數(shù)據(jù)的算法可能會(huì)對(duì)少數(shù)群體形成類似的歧視傾向,而一旦被困在算法決策循環(huán)之中并不斷被印證決策結(jié)果的正確性,那么少數(shù)弱勢(shì)群體便會(huì)被算法結(jié)構(gòu)性鎖定,從而難以逃出被反復(fù)歧視的困境[26]。
(四)責(zé)任分配困境
司法人工智能介入案件裁量還會(huì)引發(fā)相關(guān)責(zé)任難以明確分配的困境。首先,司法人工智能的介入會(huì)引發(fā)責(zé)任主體多元化、責(zé)任分配復(fù)雜化的問(wèn)題。一旦司法人工智能介入司法裁量活動(dòng),那么裁量結(jié)論出現(xiàn)違法或不當(dāng)?shù)沫h(huán)節(jié)鏈便會(huì)被拉長(zhǎng),在這一決策鏈上,司法數(shù)據(jù)收集人員、算法設(shè)計(jì)人員、算法商業(yè)平臺(tái)、算法審計(jì)機(jī)構(gòu)、司法機(jī)關(guān)、法官均有因自身過(guò)錯(cuò)而導(dǎo)致錯(cuò)判、誤判的可能性。由于算法決策系統(tǒng)的疊加性、交互性以及各主體對(duì)裁量結(jié)論影響力的分散性和隱蔽性,如何在復(fù)雜且多元的鏈條上界定擔(dān)責(zé)主體、分配相關(guān)責(zé)任將成為難題。
其次,在規(guī)避責(zé)任心態(tài)的影響下,不當(dāng)?shù)呢?zé)任分配方案還存在加劇法官對(duì)司法人工智能系統(tǒng)裁量結(jié)論過(guò)度依賴或過(guò)度排斥心理的風(fēng)險(xiǎn):如若完全要求司法人工智能系統(tǒng)設(shè)計(jì)者、生產(chǎn)者承擔(dān)全部責(zé)任,那么便可能會(huì)進(jìn)一步加劇法官對(duì)人工智能系統(tǒng)的依賴性,危及司法裁量結(jié)論的可接受性和可信賴性。而如若要求法官承擔(dān)全部責(zé)任,則又存在加劇法官對(duì)司法人工智能系統(tǒng)的不信任性,阻礙智慧司法建設(shè)進(jìn)程的風(fēng)險(xiǎn)[27]。
最后,由于虛置了裁量程序制度,司法算法裁量還存在無(wú)法依照程序規(guī)則展開(kāi)追責(zé),架空程序責(zé)任的問(wèn)題。由于裁量正義具有浮動(dòng)性和難以量化性,因而依照形式正義標(biāo)準(zhǔn),通過(guò)審查裁量行為是否符合具有確定性、公開(kāi)性、流程性的程序正義要求,是界定裁量責(zé)任的重要標(biāo)準(zhǔn)。當(dāng)司法人工智能介入裁量過(guò)程之后,原有階段性的裁量決策程序便被具有自動(dòng)化、瞬時(shí)性的機(jī)器裁量所取代,這也就意味著我們無(wú)法再參照程序規(guī)則這一具有明確性和可操作性的標(biāo)準(zhǔn)去界定裁量過(guò)程是否存在瑕疵,進(jìn)一步加劇了相關(guān)責(zé)任認(rèn)定、分配的復(fù)雜性和困難性。
三、司法算法決策實(shí)現(xiàn)裁量正義的前景展望
對(duì)于司法算法決策在實(shí)現(xiàn)裁量正義方面的缺陷,我們要做的不是悲觀地否定司法人工智能的應(yīng)用,因?yàn)槿祟惙ü偻瑯訒?huì)持有偏見(jiàn)、同樣也會(huì)犯錯(cuò)[28],我們要做的是在最大限度發(fā)揮司法人工智能在實(shí)現(xiàn)裁量正義方面優(yōu)勢(shì)的同時(shí),有效預(yù)防司法算法決策可能給裁量正義帶來(lái)的損害。對(duì)此,相關(guān)研究進(jìn)路是清晰的:一方面,我們需要通過(guò)技術(shù)改進(jìn)的方式,不斷優(yōu)化人工智能裁量的可靠性和科學(xué)性;另一方面,我們還需要加快人類法官和司法人工智能系統(tǒng)相互融合的進(jìn)程,使二者能夠相互配合、相互補(bǔ)充,全面提升司法裁量的優(yōu)質(zhì)性與可信賴性。
(一)明確適用司法算法決策的裁量模塊
將簡(jiǎn)單案件交由司法人工智能處理,將疑難、新型、復(fù)雜案件仍交由人類法官處理已經(jīng)基本上成為當(dāng)前人工智能司法決策的共識(shí)[29]。然而對(duì)于需要開(kāi)展裁量的案件而言,情況又有所不同。由于部分需要裁量的案件仍屬于簡(jiǎn)單案件以及即便被歸屬為疑難、復(fù)雜的案件仍然有司法算法裁量的應(yīng)用空間,因此,我們應(yīng)當(dāng)進(jìn)一步精細(xì)化建構(gòu)人機(jī)共同裁量的混合模式,通過(guò)分類化和模塊化的方式充分發(fā)揮和融合司法算法系統(tǒng)和人類法官各自的優(yōu)勢(shì),最終為司法人工智能的精細(xì)化發(fā)展指明更具可行性的方向。
其一,我們應(yīng)根據(jù)不同裁量案件的特質(zhì)而列出清單,明確哪些案件更契合司法算法決策的特質(zhì)。為此,本文嘗試給出一些基礎(chǔ)性標(biāo)準(zhǔn)。首先,那些更具結(jié)構(gòu)化和計(jì)量化特質(zhì)的案件更適宜由人工智能算法做出裁量,因?yàn)橐环矫妫@些案件的相關(guān)數(shù)據(jù)信息往往因能夠計(jì)量而更加完善和全面,另一方面,這些案件也更契合人工智能的計(jì)算化特質(zhì)。典型的如金融糾紛、網(wǎng)絡(luò)購(gòu)物糾紛等數(shù)字化程度較高的案件就可以更多地依賴司法人工智能展開(kāi)裁量。其次,當(dāng)事雙方爭(zhēng)議不大的案件也可交由司法人工智能裁量。因?yàn)檫@類案件的事實(shí)和相關(guān)法律依據(jù)都較為清晰,雙方對(duì)裁量結(jié)論都有比較穩(wěn)定的預(yù)期,相關(guān)司法裁量也將承擔(dān)更少的說(shuō)服、教育、引導(dǎo)等需要人類共情能力才能完成的說(shuō)理任務(wù)。因而將此類案件交由人工智能裁量不但不會(huì)顯露出在價(jià)值判斷上的缺陷,而且即便出現(xiàn)誤差也很容易被發(fā)現(xiàn)和糾正。其中較為典型的,如認(rèn)罪認(rèn)罰從寬的案件就可以交由人工智能算法展開(kāi)裁量。最后,對(duì)于那些糾紛金額較小或刑期較輕的案件可以交由人工智能裁量。不同于多數(shù)大額糾紛或重刑案件具有較強(qiáng)的個(gè)性化特征,諸如小額借貸、醉駕等糾紛金額較小或刑期較輕的案件往往具有多發(fā)性、類似性等特征,并且因?yàn)閿?shù)量較多,其相關(guān)數(shù)據(jù)基數(shù)也更大,因而借助于機(jī)器學(xué)習(xí)對(duì)這些案件架構(gòu)的裁判模型往往具有較高的魯棒性和容錯(cuò)性[30]。
其二,我們還應(yīng)結(jié)合技術(shù)發(fā)展的特質(zhì),通過(guò)模塊組合的方式,積極推動(dòng)人類法官和司法人工智能系統(tǒng)相互配合開(kāi)展裁量,以“司法產(chǎn)品生產(chǎn)線”的形式優(yōu)化案件的裁量工作。實(shí)際上在具體的裁量中,人類法官和司法算法以“全有或全無(wú)”的方式參與其中并不科學(xué),在得出裁量結(jié)論的“生產(chǎn)線”上,我們可以充分挖掘和發(fā)揮人類法官和司法人工智能各自的優(yōu)勢(shì)而將之應(yīng)用到不同的模塊之中,最終通過(guò)模塊組合的方式“生產(chǎn)出”當(dāng)前技術(shù)背景下的裁量最優(yōu)解。如在刑事案件中,可以將定罪工作交由人類法官處理,而將那些具有結(jié)構(gòu)化、可計(jì)算化特質(zhì)的量刑工作交由主要通過(guò)量化賦值展開(kāi)決策的司法人工智能系統(tǒng)來(lái)決定②。
其三,為了保障裁量結(jié)果的可靠性和可信賴性,我們可以通過(guò)優(yōu)化司法人工智能系統(tǒng)設(shè)計(jì)和應(yīng)用的方式為法官創(chuàng)造友好、清晰、簡(jiǎn)潔的裁量支撐界面,在保障司法裁量由法官主導(dǎo)下展開(kāi)的同時(shí),又能充分發(fā)揮司法人工智能的留痕、監(jiān)管、輔助、引導(dǎo)等作用。一方面,在案件裁量分類化、模塊化的模式下,司法人工智能系統(tǒng)的應(yīng)用應(yīng)當(dāng)具有便捷性、操作界面應(yīng)當(dāng)具有簡(jiǎn)潔性、裁量結(jié)論依據(jù)應(yīng)當(dāng)具有清晰性和可獲得性,才能在不過(guò)多增加法官額外學(xué)習(xí)、操作、修正系統(tǒng)工作量的同時(shí),為法官的裁量提供豐富的、具有實(shí)質(zhì)意義上的支撐。另一方面,司法人工智能系統(tǒng)還應(yīng)當(dāng)發(fā)揮引導(dǎo)法官展開(kāi)理性裁量的功能。在相關(guān)裁量數(shù)字選擇環(huán)境的設(shè)計(jì)中,我們可以利用視覺(jué)的偏向性改變視覺(jué)選擇架構(gòu)策略、選項(xiàng)介紹方式、選擇內(nèi)容分布甚至是字體設(shè)計(jì)等,打造個(gè)性化的選擇環(huán)境,讓相關(guān)裁量完成的過(guò)程不再過(guò)于簡(jiǎn)單化和直覺(jué)化,從而提醒甚至引導(dǎo)法官在自主理性的指引下做出更加穩(wěn)妥和明智的裁量選擇[31]。
(二)提升民眾和法官對(duì)司法算法系統(tǒng)建構(gòu)的實(shí)質(zhì)參與性
司法人工智能裁量的可控性不足以及司法人工智能系統(tǒng)建構(gòu)過(guò)程中相關(guān)主體的參與度不足是司法算法裁量可信賴性不足的重要誘因。為此,一方面,我們可以通過(guò)完善論證、聽(tīng)證制度等方式將相關(guān)程序性事項(xiàng)前置,從而提升民眾和司法人員對(duì)司法人工智能算法模型建構(gòu)的參與度。雖然由于算法黑箱的存在,司法人員和民眾無(wú)法有效參與到算法決策的過(guò)程之中,但通過(guò)提升司法人員和民眾對(duì)算法設(shè)計(jì)過(guò)程參與度的方式可以實(shí)現(xiàn)參與程序的前移,彌補(bǔ)司法算法決策所引發(fā)的民眾和司法人員對(duì)裁量過(guò)程的感知和控制能力不足的缺陷。具體而言,在司法人工智能系統(tǒng)建構(gòu)過(guò)程中以及投入使用前,可以通過(guò)召開(kāi)專家論證會(huì)、聽(tīng)證會(huì)等方式,廣泛要求民眾代表、專家代表、司法機(jī)構(gòu)代表等對(duì)司法人工智能系統(tǒng)的可靠性、科學(xué)性、準(zhǔn)確性等展開(kāi)聽(tīng)證。為了保障聽(tīng)證人員對(duì)司法人工智能系統(tǒng)建構(gòu)的實(shí)質(zhì)參與性,應(yīng)當(dāng)予以算法設(shè)計(jì)機(jī)構(gòu)或人員解釋說(shuō)明義務(wù)。相關(guān)設(shè)計(jì)人員或機(jī)構(gòu)應(yīng)當(dāng)就算法模型類型的選擇、訓(xùn)練數(shù)據(jù)集的選擇與標(biāo)注、算法裁量基準(zhǔn)的選定、算法決策邏輯的設(shè)定、法律規(guī)則代碼的轉(zhuǎn)譯方式、算法準(zhǔn)確性的測(cè)試結(jié)果、算法決策結(jié)論是否存在歧視風(fēng)險(xiǎn)等以普通民眾可以理解的方式予以說(shuō)明。
另一方面,我們還應(yīng)當(dāng)通過(guò)提升司法機(jī)關(guān)人員算法認(rèn)知能力的方式進(jìn)一步強(qiáng)化司法人員對(duì)相關(guān)算法建構(gòu)、運(yùn)行和維護(hù)流程的參與度。強(qiáng)化司法機(jī)關(guān)對(duì)司法人工智能系統(tǒng)設(shè)計(jì)和運(yùn)行的參與度不但是減輕法官對(duì)算法系統(tǒng)的技術(shù)依賴、防范司法權(quán)被不當(dāng)攫取、保障司法機(jī)關(guān)主導(dǎo)司法裁量的重要方案,也是保障司法人工智能系統(tǒng)的裁量符合司法理念、契合司法目的、遵循司法規(guī)律的重要方面。短期來(lái)看,我們可以通過(guò)技術(shù)培訓(xùn)的方式,提升司法機(jī)關(guān)人員對(duì)司法人工智能系統(tǒng)的認(rèn)知和操作能力,保障司法人員擁有最低限度的識(shí)別、應(yīng)用、監(jiān)督和糾正能力。長(zhǎng)遠(yuǎn)來(lái)看,我們需要通過(guò)積極培育計(jì)算機(jī)專業(yè)和法律專業(yè)復(fù)合型人才的方式,推動(dòng)法律工程師等人才的培養(yǎng)。只有大量的復(fù)合型人才進(jìn)入司法系統(tǒng)并主導(dǎo)和監(jiān)管司法人工智能算法的建構(gòu)、維護(hù)工作,才能夠保障司法人工智能算法契合司法運(yùn)行的規(guī)律,同時(shí)也是體現(xiàn)司法系統(tǒng)主導(dǎo)司法裁量、避免司法裁量權(quán)被商業(yè)算法平臺(tái)俘獲的重要方式。
(三)建立完善的監(jiān)管制度
在司法人工智能系統(tǒng)已經(jīng)開(kāi)始被大規(guī)模應(yīng)用于司法審判、管理工作的背景下,當(dāng)前有必要建構(gòu)一個(gè)統(tǒng)一、權(quán)威的司法人工智能系統(tǒng)審查機(jī)構(gòu)對(duì)相關(guān)司法人工智能系統(tǒng)的研發(fā)、應(yīng)用展開(kāi)監(jiān)管,保障司法人工智能系統(tǒng)法律適用的統(tǒng)一性、裁量標(biāo)準(zhǔn)的一致性、裁量結(jié)論的科學(xué)性。此外,由法院主導(dǎo)設(shè)立的司法人工智能審查機(jī)構(gòu)制定審查標(biāo)準(zhǔn)、決定算法系統(tǒng)能否投入使用,實(shí)質(zhì)上也意味著司法裁量權(quán)最終歸屬于法院,從而緩解司法人工智能系統(tǒng)外包建構(gòu)有違司法裁量權(quán)專屬性的困境。
在借鑒相關(guān)實(shí)踐經(jīng)驗(yàn)的基礎(chǔ)上,為了保障人工智能裁量正義的實(shí)現(xiàn),本文將嘗試就司法人工智能審查機(jī)構(gòu)的基本運(yùn)轉(zhuǎn)方式展開(kāi)架構(gòu):其一,在審查啟動(dòng)的方式上,當(dāng)司法人工智能系統(tǒng)設(shè)計(jì)完成后,都應(yīng)當(dāng)事先交由統(tǒng)一的司法人工智能審查機(jī)構(gòu)展開(kāi)審查,只有通過(guò)相關(guān)審查的系統(tǒng)才能夠被投入到司法裁量實(shí)踐應(yīng)用中去。此外,我們還應(yīng)當(dāng)建立常態(tài)化的監(jiān)管機(jī)制,在相關(guān)算法投入使用后,審查機(jī)構(gòu)仍應(yīng)當(dāng)通過(guò)定期檢測(cè)、隨機(jī)抽樣的方式對(duì)相關(guān)司法算法裁量的正義性展開(kāi)監(jiān)管。其二,在審查的內(nèi)容上,審查機(jī)構(gòu)可以事先制定相應(yīng)的審查標(biāo)準(zhǔn),對(duì)相關(guān)算法展開(kāi)審查,統(tǒng)一的、事先確定的審查標(biāo)準(zhǔn)有助于避免不同司法人工智能系統(tǒng)裁量標(biāo)準(zhǔn)不一致性的問(wèn)題。在審查中,監(jiān)管機(jī)構(gòu)既要審查相關(guān)司法算法系統(tǒng)的設(shè)定是否契合算法設(shè)計(jì)目標(biāo)、是否存在算法歧視、是否過(guò)于追求效率而忽視公平、是否有違司法裁量規(guī)律等事項(xiàng),還應(yīng)當(dāng)通過(guò)黑盒測(cè)試的方式,隨機(jī)選取數(shù)據(jù)庫(kù)中的數(shù)據(jù)對(duì)系統(tǒng)的裁量結(jié)論是否在合理的誤差范圍內(nèi)進(jìn)行審查。其三,在審查的后果上,對(duì)于那些有違裁量正義要求的司法人工智能系統(tǒng)應(yīng)當(dāng)及時(shí)停止使用,并要求相關(guān)算法設(shè)計(jì)機(jī)構(gòu)對(duì)算法漏洞、算法錯(cuò)誤、算法誤差等予以補(bǔ)正。只有待相關(guān)問(wèn)題解決并經(jīng)過(guò)復(fù)查之后,司法人工智能系統(tǒng)才能夠被投入到司法裁量實(shí)踐應(yīng)用之中。其四,監(jiān)管機(jī)構(gòu)還應(yīng)當(dāng)善于使用技術(shù)手段提升對(duì)相關(guān)算法裁量公正性的監(jiān)管效果。又如,監(jiān)管機(jī)構(gòu)可以在算法決策的關(guān)鍵節(jié)點(diǎn)設(shè)置“倫理安全閥”,當(dāng)司法人工智能算法可能做出有違倫理安全準(zhǔn)則或處理不屬于它應(yīng)對(duì)的裁量事項(xiàng)時(shí),便會(huì)自動(dòng)觸發(fā)熔斷機(jī)制。此時(shí),系統(tǒng)便只能將裁量事項(xiàng)交由人類法官處理,從而保障了司法算法決策是在可控的倫理安全范圍內(nèi)展開(kāi)的[32]。
(四)充分保障當(dāng)事人的訴訟權(quán)利
為了緩解原有程序制度失靈造成當(dāng)事人合理訴權(quán)被侵害的困境,我們還應(yīng)當(dāng)圍繞司法算法決策的新動(dòng)向建構(gòu)相應(yīng)的訴訟程序制度以保障當(dāng)事人能夠充分參與司法裁量過(guò)程、獲得明晰的裁量結(jié)論解釋以及得到有效的救濟(jì)。在具體的制度建構(gòu)上,其一,應(yīng)當(dāng)保障當(dāng)事人對(duì)司法人工智能裁量的選擇權(quán)、上訴權(quán)和申請(qǐng)審查權(quán)。首先,如若在一審案件中使用司法人工系統(tǒng)進(jìn)行裁量,應(yīng)當(dāng)事先將這一系統(tǒng)的使用告知當(dāng)事人。此時(shí),當(dāng)事人可以選擇是否接受由人工智能做出裁量,如若當(dāng)事人拒絕,則應(yīng)當(dāng)由人類法官做出裁量。其次,如若一審由司法人工智能做出裁量后,當(dāng)事人提起二審或法院依程序啟動(dòng)再審,此時(shí)則只能由人類法官做出裁量。這是由于司法人工智能系統(tǒng)具有一致性,如若二審或再審中還使用這一系統(tǒng),在決策邏輯不變的情形下仍然會(huì)得出相同的裁量結(jié)論,這就違背了二審或再審糾偏的用意。由法官掌控二審裁量的決策權(quán)也保障了裁量權(quán)最終仍然是歸屬于司法機(jī)關(guān)而不是算法商業(yè)平臺(tái)的。最后,當(dāng)事人如若對(duì)司法人工智能系統(tǒng)裁量的公正性和合理性有質(zhì)疑,還可以要求算法審查監(jiān)管機(jī)構(gòu)對(duì)相關(guān)算法進(jìn)行審查。算法審查監(jiān)管機(jī)構(gòu)在收到相關(guān)審查申請(qǐng)后,有義務(wù)對(duì)相關(guān)算法展開(kāi)審查,并將審查結(jié)果告知申請(qǐng)人。
其二,保障當(dāng)事人獲得人工智能裁量結(jié)論解釋的相關(guān)權(quán)利。一方面,我們應(yīng)當(dāng)提升人工智能系統(tǒng)的交互性和可視化水平。在司法人工智能系統(tǒng)設(shè)計(jì)的過(guò)程中,應(yīng)當(dāng)充分考慮到對(duì)于社會(huì)公眾尤其是對(duì)于那些學(xué)習(xí)、掌控、認(rèn)知數(shù)字技術(shù)能力不足的數(shù)字弱勢(shì)群體的友好性程度,積極幫助他們更好地將自身的訴求、辯解反饋到司法人工智能系統(tǒng)之中,保障相關(guān)算法決策的可接近性、可控制性和可參與性。另一方面,司法人工智能系統(tǒng)在給出裁量結(jié)論的同時(shí),還應(yīng)當(dāng)通過(guò)圖表、思維導(dǎo)圖等方式一并給出影響裁量結(jié)論的相關(guān)要素考量比重,使當(dāng)事人理解算法的決策邏輯和依據(jù)。如我們可以借助研究者開(kāi)發(fā)的“概念激活向量定量測(cè)試算法”(TCVA),將影響裁量結(jié)果的相關(guān)因素通過(guò)量化賦值的方式予以顯示,幫助當(dāng)事人直觀地了解司法人工智能系統(tǒng)內(nèi)部的運(yùn)行狀態(tài)[33]。
其三,我們還應(yīng)當(dāng)保障當(dāng)事人能夠得到專家?guī)椭?,獲得平等訴訟地位的權(quán)利。無(wú)論是在民事訴訟還是刑事訴訟中,處于知識(shí)、經(jīng)濟(jì)、認(rèn)知等方面弱勢(shì)地位的當(dāng)事人都可能因難以了解和掌握相關(guān)算法的裁量邏輯而處于訴訟劣勢(shì)之中,這就造成了當(dāng)事人訴訟能力之間的不平衡,違背了裁量正義實(shí)現(xiàn)的基本要求。為此,一方面,我們應(yīng)當(dāng)積極強(qiáng)化對(duì)律師的培訓(xùn),幫助律師群體熟悉和掌握司法人工智能裁量的基本原理和可能風(fēng)險(xiǎn),通過(guò)提升律師辯護(hù)能力的方式保障當(dāng)事人的訴訟權(quán)利[34];另一方面,我們還可以借鑒法律援助制度,為需要獲取技術(shù)指導(dǎo)和技術(shù)支持而又無(wú)法支付費(fèi)用的當(dāng)事人提供專家援助。一旦當(dāng)事人在司法審判過(guò)程中申請(qǐng)專家輔助以避免因自身缺乏司法人工智能裁量相關(guān)知識(shí)而處于不利地位時(shí),便可以由監(jiān)管機(jī)構(gòu)派出相關(guān)專家予以支持。
(五)建立合理的責(zé)任分配制度
責(zé)任分配制度是避免責(zé)任推諉、推動(dòng)裁量主體認(rèn)真對(duì)待裁量行為的重要制度,合理的責(zé)任分配制度可以有效提升裁量結(jié)論的可信賴性。對(duì)此,本文認(rèn)為,首先應(yīng)當(dāng)將裁量違法或不當(dāng)?shù)呢?zé)任交由法院承擔(dān)。其一,由法院首先擔(dān)責(zé)契合裁量權(quán)專屬原則,無(wú)論是誰(shuí)主導(dǎo)了裁量結(jié)論的形成,最終都是以法院名義發(fā)出并由法院的權(quán)威作為裁量結(jié)論合法性和強(qiáng)制性背書的,因而由法院擔(dān)責(zé)更具正當(dāng)性和合法性;其二,和算法設(shè)計(jì)機(jī)構(gòu)以及算法設(shè)計(jì)人員擔(dān)責(zé)相比,要求法院擔(dān)責(zé)無(wú)疑能夠減少受害人舉證或辨析擔(dān)責(zé)主體的負(fù)擔(dān),從而提升維權(quán)成功的概率;其三,法院既是使用人工智能算法裁量的最大獲利者,也擁有著更強(qiáng)的經(jīng)濟(jì)實(shí)力,由法院擔(dān)責(zé)更具經(jīng)濟(jì)上的合理性[35]。
法院承擔(dān)相應(yīng)的責(zé)任并不意味著責(zé)任分配的完結(jié),為此,我們可以通過(guò)在算法系統(tǒng)中預(yù)先埋入審計(jì)線索的方式,以保障司法人工智能系統(tǒng)能夠全程記錄法官和系統(tǒng)的裁量過(guò)程,進(jìn)而以此為基礎(chǔ)確定人類法官、司法人工智能系統(tǒng)以及司法人工智能系統(tǒng)設(shè)計(jì)者的相關(guān)工作對(duì)裁量結(jié)論的貢獻(xiàn)比例,應(yīng)對(duì)混合裁量可能造成的相關(guān)責(zé)任比例無(wú)法確定的難題。此外,在人工智能系統(tǒng)已經(jīng)被大規(guī)模使用的今天,我們也應(yīng)當(dāng)適時(shí)引入保險(xiǎn)制度。對(duì)于參與司法裁量的人工智能系統(tǒng)而言,法院在購(gòu)買相關(guān)系統(tǒng)時(shí),應(yīng)當(dāng)要求算法供應(yīng)商購(gòu)買一定數(shù)額的保險(xiǎn),在出現(xiàn)需要損害賠償?shù)膯?wèn)題時(shí),由保險(xiǎn)公司進(jìn)行賠償。雖然保險(xiǎn)制度的引入可能會(huì)增加算法供應(yīng)商的生產(chǎn)成本,但也會(huì)起到激勵(lì)供應(yīng)商提升算法決策可靠性的作用。如若所設(shè)計(jì)的算法出錯(cuò)的概率越小,那么相應(yīng)的保費(fèi)就會(huì)越低,相關(guān)司法人工智能算法的總體成本也會(huì)越低,這樣在市場(chǎng)競(jìng)爭(zhēng)中的優(yōu)勢(shì)就會(huì)越明顯。長(zhǎng)遠(yuǎn)來(lái)看,保險(xiǎn)制度的存在并沒(méi)有過(guò)度增加司法人工智能算法供應(yīng)商的生產(chǎn)成本,反而還有效推動(dòng)了市場(chǎng)的良性競(jìng)爭(zhēng),最終有助于提升相關(guān)司法人工智能算法的可靠性和優(yōu)質(zhì)性。
四、結(jié) 語(yǔ)
隨著司法人工智能技術(shù)的不斷探索和成熟應(yīng)用,和司法裁量之間的深度融合已經(jīng)成為不可阻擋的趨勢(shì)和潮流,然而如何實(shí)現(xiàn)二者的有機(jī)融合并降低相關(guān)負(fù)面影響是我們需要認(rèn)真對(duì)待的問(wèn)題。首先,我們應(yīng)當(dāng)肯定司法算法決策對(duì)司法裁量的賦能效應(yīng),在提升司法裁量中立性、一致性和理性化水平的同時(shí),也推動(dòng)著司法裁量理念和方式的轉(zhuǎn)型,為更加接近裁量正義目標(biāo)提供了支撐。其次,我們還應(yīng)當(dāng)認(rèn)識(shí)到司法算法決策存在著違背程序正義、和裁量權(quán)的專屬性相沖突、價(jià)值判斷片面、價(jià)值歧視、難以合理分配責(zé)任等背離裁量正義目標(biāo)的問(wèn)題。這就要求我們客觀看待司法人工智能的應(yīng)用成效和風(fēng)險(xiǎn)。一方面,二者之間的邏輯并不存在沖突,無(wú)論是成效還是風(fēng)險(xiǎn)都是技術(shù)應(yīng)用所展現(xiàn)的一個(gè)側(cè)面。如對(duì)于客觀性和中立性而言,雖然司法人工智能憑借機(jī)器決策邏輯可以克服人類法官的主觀偏向,但機(jī)器本身的設(shè)定以及學(xué)習(xí)數(shù)據(jù)的映射又會(huì)產(chǎn)生新的歧視問(wèn)題。另一方面,我們也不能因噎廢食,而是應(yīng)當(dāng)直面現(xiàn)有問(wèn)題,不斷地通過(guò)技術(shù)改進(jìn)以及細(xì)化和優(yōu)化融合機(jī)制的方式,提升人工智能系統(tǒng)應(yīng)用的可靠性和可信性。最后,我們有必要及時(shí)調(diào)整現(xiàn)有司法制度架構(gòu)、司法運(yùn)行機(jī)制以及司法人工智能介入司法裁量的思路,緩解司法算法決策和裁量正義之間的沖突,推動(dòng)二者的有機(jī)融合。第一,通過(guò)清單制度,明確不同類型案件和司法算法決策的適配度;通過(guò)司法模塊組合的方式,以“司法產(chǎn)品生產(chǎn)流水線”的形式推動(dòng)裁量最優(yōu)解的獲得;以為法官和當(dāng)事人提供清晰、友好、簡(jiǎn)潔的應(yīng)用界面為目的而持續(xù)優(yōu)化相關(guān)系統(tǒng)的設(shè)計(jì)和應(yīng)用。第二,通過(guò)民眾和司法人員介入司法人工智能算法模型建構(gòu)的方式,實(shí)現(xiàn)裁量介入程序的前移;通過(guò)提升司法人員數(shù)字素養(yǎng)的方式保障司法人員在算法建構(gòu)、運(yùn)行、維護(hù)流程中的參與度。第三,建立統(tǒng)一的司法人工智能審查機(jī)構(gòu)并明確和優(yōu)化審查啟動(dòng)方式、審查內(nèi)容、審查后果,對(duì)司法人工智能系統(tǒng)展開(kāi)全流程審查。第四,充分保障當(dāng)事人對(duì)人工智能裁量的選擇權(quán)、申請(qǐng)審查權(quán)、獲得解釋權(quán)、得到專家?guī)椭鷻?quán),并通過(guò)圖表、思維導(dǎo)圖等方式幫助當(dāng)事人能夠真正理解算法的決策邏輯和依據(jù)。第五,將裁量違法或不當(dāng)?shù)呢?zé)任首先交由法院承擔(dān),其后再根據(jù)預(yù)先埋入的審計(jì)線索而確定不同主體的責(zé)任分配比例??傊?,只有司法算法決策的發(fā)展和應(yīng)用遵循節(jié)制性和有序性原則,才能幫助我們理性地梳理和重構(gòu)算法時(shí)代的司法文明圖景,最終保障算法技術(shù)發(fā)展和應(yīng)用在助益裁量正義實(shí)現(xiàn)的軌道上行穩(wěn)致遠(yuǎn)。
注釋:
① 這里的算法歧視問(wèn)題和本文第一部分所提出的算法決策的客觀性表面看存在一定的張力,但實(shí)際上二者之間并不矛盾:算法裁量的客觀性是相對(duì)法官裁量而言的,它可以排除外界對(duì)法官裁量的干擾,并避免法官個(gè)體認(rèn)知、直覺(jué)、偏見(jiàn)等主觀因素對(duì)裁量結(jié)論的影響。但這并不意味著使用算法決策就能夠完全避免歧視問(wèn)題,其原因在于算法設(shè)計(jì)人員和算法學(xué)習(xí)數(shù)據(jù)中蘊(yùn)含的歧視因素會(huì)被映射到算法之中??梢钥闯觯瑢?duì)于裁量客觀性產(chǎn)生的影響,二者是從不同角度展開(kāi)的,實(shí)際上并不沖突。并且本文也多次提出,我們應(yīng)當(dāng)辯證看待算法決策對(duì)于裁量正義的實(shí)現(xiàn)價(jià)值,在帶來(lái)改良契機(jī)的同時(shí),還會(huì)引發(fā)新的問(wèn)題。同樣的,本部分中關(guān)于算法黑箱、算法裁量差異性問(wèn)題的論述和第一部分相關(guān)算法決策優(yōu)勢(shì)論述之間的張力問(wèn)題,也是遵循這一邏輯的。
② 關(guān)于定罪量刑程序,存在英美法系的定罪量刑分離模式和大陸法系的定罪量刑混合模式。典型的,美國(guó)法院在一些刑事案件中會(huì)由陪審團(tuán)、治安法官對(duì)被指控事實(shí)和罪名事先予以認(rèn)定,而后法官再單獨(dú)展開(kāi)量刑聽(tīng)證以確定刑罰。雖然我國(guó)采取的是混合模式,但在法院量刑規(guī)范化改革中,已經(jīng)表現(xiàn)出了要保障法官聽(tīng)取控辯雙方量刑意見(jiàn)、探索建立相對(duì)獨(dú)立的量刑程序的傾向。國(guó)外被踐行的分離模式以及我國(guó)的量刑規(guī)范化改革為本文提出的部分案件定罪工作交由法官、量刑工作交由司法算法系統(tǒng)的設(shè)想提供了實(shí)施可能性支撐。
參考文獻(xiàn):
[1] 魏斌.司法人工智能融入司法改革的難題與路徑[J].現(xiàn)代法學(xué),2021(3):3-23.
[2] 孫海波.反思智能化裁判的可能及限度[J].國(guó)家檢察官學(xué)院學(xué)報(bào),2020(5):80-99.
[3] 左衛(wèi)民.從通用化走向?qū)iT化:反思中國(guó)司法人工智能的運(yùn)用[J].法學(xué)論壇,2020(2):17-23.
[4] 彭中禮.司法人工智能中的價(jià)值判斷[J].四川大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2021(1):160-172.
[5] 王竹.司法人工智能推理輔助的“準(zhǔn)三段論”實(shí)現(xiàn)路徑[J].政法論壇,2022(5):28-39.
[6] 蔡衛(wèi)忠,王文玉.以裁量正義提升司法公信力問(wèn)題研究[J].中州學(xué)刊,2019(12):62-67.
[7] 歐文·費(fèi)斯.如法所能[M].師帥,譯.北京:中國(guó)政法大學(xué)出版社,2008:13.
[8] Sandra Wachter,Brent Mittelstadt.A Right to Reasonable Inferences: Re-thinking Data Protection Law in the Age of Big Data and AI[J].Columbia Business Law Review,2019(2):494-620.
[9] 馬長(zhǎng)山.司法人工智能的重塑效應(yīng)及其限度[J].法學(xué)研究,2022(4):23-40.
[10] 盧克·多梅爾.算法時(shí)代: 新經(jīng)濟(jì)的新引擎[M].胡小銳,等,譯.北京:中信出版社,2016:139.
[11] 貴州省高級(jí)人民法院.探索“類案類判”機(jī)制 確保法律適用統(tǒng)一[N].人民法院報(bào),2018-01-26.
[12] 米爾伊安·R·達(dá)瑪什卡.司法和國(guó)家權(quán)力的多種面孔[M].鄭戈,譯.北京:中國(guó)政法大學(xué)出版社,2015:181.
[13] Tania Sourdin.Judge V Robot:Artificial Intelligence and Judicial Decision-Making[J].UNSW Law Journal ,2018(4):1114-1133.
[14] 王文玉.司法人工智能:實(shí)現(xiàn)裁判正義的新路徑[J].大連理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2022(6):100-109.
[15] 馮蘭萍,嚴(yán)雪,程鐵軍.基于政府干預(yù)和主流情緒的突發(fā)事件網(wǎng)絡(luò)輿情群體負(fù)面情緒演化研究[J].情報(bào)雜志,2021(6):143-155.
[16] 劉品新.智慧司法的中國(guó)創(chuàng)新[J].國(guó)家檢察官學(xué)院學(xué)報(bào),2021(3):81-101.
[17] Linda J Skitka,Kathleen Mosier,Mark D Burdick.Accountability and Automation Bias[J].International Journal of Human-Computer Studies,2000(52):701-717.
[18] 聶友倫.人工智能司法的三重矛盾[J].浙江工商大學(xué)學(xué)報(bào),2022(2):66-75.
[19] Tom R Tyler.Social Justice:Outcome and Procedure[J].International Journal of Psychology,2000(2):117-125.
[20] 馮潔.大數(shù)據(jù)時(shí)代的裁判思維[J].現(xiàn)代法學(xué),2021(3):41-55.
[21] 維克托·邁爾-舍恩伯格,肯尼思·庫(kù)克耶.大數(shù)據(jù)時(shí)代[M].盛楊燕,周濤,譯.杭州:浙江人民出版社,2013:19.
[22] 托馬斯·F·戈登.訴答博弈:程序性公正的人工智能模型[M].周志榮,譯.北京:中國(guó)政法大學(xué)出版社,2018:8.
[23] 楊延超.算法裁判的理論建構(gòu)及路徑選擇:基于若干人工智能實(shí)驗(yàn)的啟示[J].治理研究,2022(4):108-122.
[24] 楊劍鋒,喬佩蕊,李永梅,等.機(jī)器學(xué)習(xí)分類問(wèn)題及算法研究綜述[J].統(tǒng)計(jì)與決策,2019(6):36-40.
[25] Sandra G Mayson.Bias In,Bias Out[J].Yale Law Journal,2019(8):2218-2300.
[26] Danielle Keats Citron,F(xiàn)rank Pasquale.The Scored Society: Due Process for Automated Predictions[J].Washington Law Review,2014(89):1-33.
[27] 張凌寒.智慧司法中技術(shù)依賴的隱憂及應(yīng)對(duì)[J].法制與社會(huì)發(fā)展,2022(4):180-200.
[28] 陳銳,孫慶春.人工智能司法決策的合法性辨疑[J].西安交通大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2021(3):123-130.
[29] 鄭曦.人工智能技術(shù)在司法裁判中的運(yùn)用及規(guī)制[J].中外法學(xué),2020(3):674-696.
[30] 胡銘,宋靈珊.“人工+智能”:司法智能化改革的基本邏輯[J].浙江學(xué)刊,2021(2):12-23.
[31] Ayelet Sela.E-Nudging Justice: The Role of Digital Choice Architecture in Online Courts[J].Journal of Dispute Resolution,2019(2): 127-164.
[32] 柳亦博.人工智能陰影下:政府大數(shù)據(jù)治理中的倫理困境[J].行政論壇,2018(3):97-103.
[33] Been Kim, Martin Wattenberg,Justin Gilmer,et al.Interpretability Beyond Feature Attribution: Quantitative Testing with Concept Activation Vectors (TCAV)[EB/OL].(2018-06-07)[2024-03-17].https://arxiv.org/pdf/1711.11279.pdf,2018.
[34] 陳俊宇.司法程序中的人工智能技術(shù):現(xiàn)實(shí)風(fēng)險(xiǎn)、功能定位與規(guī)制措施[J].江漢論壇,2021(11):99-104.
[35] 王文玉.算法嵌入政府治理的優(yōu)勢(shì)、挑戰(zhàn)與法律規(guī)制[J].華中科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2021(4):26-36.
責(zé)任編輯:鄭曉艷
(E-mail:zxyfly@ 126. com)
收稿日期:2024 - 04 - 22 本刊網(wǎng)址·在線期刊:http://qks. jhun. edu. cn/jhxs
基金項(xiàng)目:國(guó)家社科基金項(xiàng)目“常識(shí)常理常情融入司法裁判的法律方法論研究”(22BFX012);教育部人文社會(huì)科學(xué)重點(diǎn)研究基地重大項(xiàng)目“習(xí)近平總書記關(guān)于科技與法治發(fā)展重要論述研究”(22JJD820004)
作者簡(jiǎn)介:王文玉,男,河南商丘人,西南大學(xué)法學(xué)院講師,博士,E-mail:wangwenyu199201@163.com。