牛 犁 耘
(河南財經(jīng)政法大學(xué) 法學(xué)院,河南 鄭州 450046)
人工智能技術(shù)在司法領(lǐng)域的推廣和應(yīng)用已是大勢所趨,這為我國司法實踐的整體變革帶來了全新的發(fā)展機遇和挑戰(zhàn)。智慧法院建設(shè)取得了明顯成效,初步實現(xiàn)了司法大數(shù)據(jù)資源的匯集、管理和融合運用,智能審判輔助系統(tǒng)、類案檢索平臺等得到廣泛應(yīng)用,審判能力顯著增強。信息技術(shù)與司法實務(wù)的深度融合不僅打破了訴訟必須在“法庭”這一場域內(nèi)進行的固有模式,還在審判環(huán)節(jié)與司法管理環(huán)節(jié)進行了技術(shù)改造,在線訴訟已然成為一種重要的訴訟方式(1)左衛(wèi)民:《邁向數(shù)字訴訟法:一種新趨勢?》,《法律科學(xué)》,2023年第3期。。更為深遠的影響則是司法本身的運作機制也實現(xiàn)了重構(gòu)。在審判環(huán)節(jié),人工智能系統(tǒng)可以提取案件爭議焦點,自動生成電子庭審提綱;可以輔助裁判,提供預(yù)測結(jié)果與量刑建議,甚至劃定量刑標準、發(fā)出量刑預(yù)警。在結(jié)案環(huán)節(jié),人工智能可以自動生成裁判文書。對于人工智能技術(shù)在司法領(lǐng)域的廣泛應(yīng)用,多數(shù)學(xué)者抱以積極的態(tài)度,認為這是人類法律文明躍遷的當代探索(2)劉品新:《智慧司法的中國創(chuàng)新》,《國家檢察官學(xué)院學(xué)報》,2021年第3期。。但也有學(xué)者認為這種探索超越了現(xiàn)有司法程序和審判模式,會引發(fā)智慧司法與現(xiàn)有司法制度不相融合等新問題(3)魏斌:《智慧司法的法理反思與應(yīng)對》,《政治與法律》,2021年第8期。。誠然,人工智能技術(shù)在司法領(lǐng)域的應(yīng)用絕非現(xiàn)代科技與司法的簡單疊加,二者的融合必將給傳統(tǒng)司法制度帶來根本性與結(jié)構(gòu)性的變革。在追求公正與高效的司法改革目標下,人工智能介入司法的優(yōu)勢愈發(fā)凸顯。正因如此,就人工智能對司法活動尤其是作為其核心內(nèi)容的司法裁判所帶來的影響作必要的考察和分析,在抓住時代機遇、接受現(xiàn)實挑戰(zhàn)的同時,避免因人工智能技術(shù)的廣泛應(yīng)用而使司法陷入工具主義思維,就更具積極的現(xiàn)實意義。
在我國,就法律依據(jù)而言,立法總落后于科技的發(fā)展。而在司法領(lǐng)域,司法與科技的關(guān)系又總是“冰火兩重天”:一方面,技術(shù)的發(fā)展使科技手段的運用與證據(jù)制度緊密結(jié)合,司法系統(tǒng)對科學(xué)證據(jù)的依賴增強了司法證明的客觀性和確定性,提高了司法證明的效率;另一方面,由于對科學(xué)證據(jù)的不當審查與認證,誘發(fā)了較多刑事錯案的發(fā)生(4)左衛(wèi)民,官勝男:《刑事錯案與鑒定意見:復(fù)雜關(guān)系的實證考察》,《華東政法大學(xué)學(xué)報》,2022年第3期。。科學(xué)證據(jù)在我國發(fā)展初期,“以鑒代審”現(xiàn)象盛行。如今,人們已認識到科學(xué)證據(jù)不一定都是“科學(xué)”“正確”的,反而由于披著“科學(xué)外衣”更易造成一定的迷惑,對科學(xué)證據(jù)進行審查不僅必要,而且重要。在三大訴訟法及有關(guān)司法解釋中,都明確規(guī)定了對科學(xué)證據(jù)進行審查的程序要求,但這些規(guī)定也僅僅停留在形式審查層面,在證據(jù)裁判者沒有掌握某項科學(xué)技術(shù)知識或經(jīng)驗?zāi)芰r,想要理解證據(jù)內(nèi)容、感知證據(jù)與事實之間的關(guān)系,只能是一種美好的期待。
由于科學(xué)證據(jù)的錯誤和偏頗具有復(fù)雜性、專業(yè)性和隱蔽性,讓法官全面系統(tǒng)地檢視其證據(jù)采信問題,一直都存在較大風險。因此,如何保障科學(xué)證據(jù)的真實、可靠,是一個不容回避的話題。在我國,由于缺乏相關(guān)的專業(yè)背景,辦案人員對科學(xué)證據(jù)的客觀真實性判斷無從下手,只能盡力去理解和接受鑒定人在法庭上解釋的科學(xué)技術(shù)原理,這也導(dǎo)致法官在判決書中對為何采信該科學(xué)證據(jù)基本上不予說理性解釋。雖然為破除法官對鑒定意見這種科學(xué)證據(jù)的迷信和依賴,防止錯案產(chǎn)生,三大訴訟法均增加了專家輔助人制度,以平衡訴訟雙方的質(zhì)證能力,強化對鑒定意見的實質(zhì)性審查,但專家輔助人是否具有傾向性、能否保持中立狀態(tài),也一直是大家關(guān)注的焦點問題。為了化解法官對科學(xué)證據(jù)審查、認證能力有限的現(xiàn)實堵點,彌補法學(xué)與其他科學(xué)之間的知識鴻溝,根據(jù)科學(xué)證據(jù)的結(jié)構(gòu)屬性,將人工智能強大的運算能力和深度學(xué)習模式融入科學(xué)證據(jù)的審查判斷方面,或是未來的發(fā)展趨勢。
科學(xué)證據(jù)的審查需要解決兩個問題:一是科學(xué)證據(jù)的可信性問題;二是科學(xué)證據(jù)所依據(jù)的原理(或知識)、方法本身的可靠性問題。首先,科學(xué)證據(jù)能否被法庭采納,需要考慮專家的中立性以及在行業(yè)內(nèi)的權(quán)威性。人工智能擁有超強的計算能力以及大數(shù)據(jù)和算法優(yōu)勢,可以對跨越大量學(xué)科門類且復(fù)雜、海量、多樣的信息進行識別和預(yù)測,利用龐大的知識和信息數(shù)據(jù)庫(包含法律和科學(xué)方面的)檢索某個專家在專業(yè)領(lǐng)域內(nèi)已發(fā)表的專業(yè)文獻及引用情況,判斷其是否在該領(lǐng)域內(nèi)具有權(quán)威性;通過檢索專家個人信息、從屬關(guān)系,評估專家是否存在潛在偏見以及有無職業(yè)污點等,以確保選任行業(yè)領(lǐng)域內(nèi)的中立性專家。其次,人工智能還能實現(xiàn)對科學(xué)證據(jù)可靠性的審查。在涉及科學(xué)證據(jù)的審查時,由于知識壁壘的存在,法官往往無法理性理解證據(jù),導(dǎo)致“以鑒代審”的遵從模式。人工智能可以克服法官單方依賴的模式困境,將該證詞與大量現(xiàn)有文獻和研究進行比較,通過對比分析,可以向法官展示專家證人所采用的數(shù)據(jù)分析方法以及從數(shù)據(jù)中得出的結(jié)論是否已受到相關(guān)同行的審查,是否為該專業(yè)領(lǐng)域承認的、科學(xué)的、符合邏輯的技術(shù)方法。當然,人工智能不能代替法官作出科學(xué)證據(jù)是否可采的決定,它只是利用海量信息和數(shù)據(jù)通過不斷演算可采性的考量因素,從而實現(xiàn)對科學(xué)證據(jù)可靠性評估的目的。此外,人工智能還能提高司法裁決的一致性和公平性。如果讓法官來審查科學(xué)證據(jù)的可靠性,每位法官都會作出不同的判決結(jié)果,這種不一致既破壞了程序的完整性,也有損公平。而人工智能采用一種符合具體領(lǐng)域特性的統(tǒng)一方法來評估和比較,并結(jié)合先前判決,將結(jié)論和細節(jié)一并呈現(xiàn)給法官,以透明生動的過程確保其可靠性、一致性,也不存在專業(yè)偏見和職業(yè)偏見,更不會因為訴訟當事人經(jīng)濟實力的差異而導(dǎo)致專家水平不一所帶來的不平等。當然,為了保證其自身的準確性和時效性,人工智能的信息與數(shù)據(jù)要隨時進行更新和調(diào)整。
量刑規(guī)范化改革的目標,是規(guī)范法官的自由裁量權(quán),減少法外因素影響法官裁判的可能性,使量刑方法更加科學(xué)、公正,量刑過程更加公開、透明,確保量刑的公正和均衡,增加被告人、公訴人對裁判的認同感,提高司法公信力。量刑規(guī)范化改革是一項重大的司法改革舉措,也是一個系統(tǒng)工程。在日益深入的智慧司法建設(shè)進程中,人工智能輔助量刑,提高量刑智能化水平,是深入推進量刑規(guī)范化工作的必然要求。2020年1月,全國檢察機關(guān)統(tǒng)一業(yè)務(wù)應(yīng)用系統(tǒng)2.0版在最高人民檢察院以及貴州、海南兩省檢察機關(guān)上線試點運行,其中智能輔助量刑是系統(tǒng)中重要的功能模塊(5)戴佳:《檢察業(yè)務(wù)應(yīng)用步入2.0時代》,《檢察日報》,2020年1月4日。。隨后,最高人民法院在《關(guān)于規(guī)范和加強人工智能司法應(yīng)用的意見》(法發(fā)〔2022〕33號)中提出“到2030年,建成具有規(guī)則引領(lǐng)和應(yīng)用示范效應(yīng)的司法人工智能技術(shù)應(yīng)用和理論體系,為司法為民、公正司法提供全流程高水平智能輔助支持”的發(fā)展目標。與此同時,《刑事訴訟法》確立的認罪認罰從寬制度對量刑規(guī)范化提出了更高的質(zhì)量要求。為了落實認罪認罰從寬制度,檢察機關(guān)加快推進“量刑建議精準化、規(guī)范化、智能化”工作,充分利用人工智能提升量刑建議的精準度。此后,不少地方逐步開始探索量刑建議智能輔助系統(tǒng),利用大數(shù)據(jù)分析技術(shù)抓取相關(guān)量刑情節(jié),對刑期進行數(shù)據(jù)歸納、分析和智能輸出(6)劉卉:《確定刑:認罪認罰從寬制度下量刑建議精準化之方向》,《檢察日報》,2019年7月29日。。如貴州省檢察院通過建立案件“要素—證據(jù)—量刑”的關(guān)聯(lián)模型,創(chuàng)建智能研判系統(tǒng),對案件風險、要素與量刑的偏離度等進行全流程數(shù)據(jù)分析和類案數(shù)據(jù)對比,確保案件質(zhì)量(7)彭波:《貴州:大數(shù)據(jù)點亮“智慧檢務(wù)”》,《人民日報》,2017年5月31日。。海南省高院成功研發(fā)的量刑規(guī)范化智能輔助辦案系統(tǒng),具有智能識別提取犯罪事實和量刑情節(jié)、自動推送關(guān)聯(lián)法條和類案、自動依據(jù)歷史量刑數(shù)據(jù)推薦量刑等功能,可大大減少法官辦理量刑規(guī)范化案件的時間(8)方茜:《海南法院大數(shù)據(jù)人工智能助力司法改革》,《人民法院報》,2017年7月27日。。
受限于人工智能技術(shù)與司法應(yīng)用水平,我國人工智能尚處于“弱形式”階段,輔助量刑系統(tǒng)仍不夠成熟、穩(wěn)定和可靠,其未來發(fā)展機遇與風險并行。如何規(guī)范人工智能輔助量刑,實現(xiàn)技術(shù)與規(guī)則的合理融合,不僅是規(guī)范量刑的程序需要,也是追求實體正義為導(dǎo)向的裁判活動的根本要求。首先,要明確司法輔助功能的角色定位。最高人民法院《關(guān)于規(guī)范和加強人工智能司法應(yīng)用的意見》明確提出,人工智能司法應(yīng)用應(yīng)遵循五項基本原則,其中“輔助審判原則”要求人工智能輔助結(jié)果僅可作為審判工作的參考,司法裁判權(quán)應(yīng)始終由審判人員行使,堅持法官的主體性、主導(dǎo)性,謹防出現(xiàn)技術(shù)依賴癥。但這種輔助性是僅僅停留在參考性輔助抑或規(guī)范性輔助,司法實踐標準不一。所謂“參考性輔助”,是指對于人工智能給出的量刑“建議”法官僅作為參考;而“規(guī)范性輔助”則對法官的量刑具有規(guī)范指引作用,如果法官不予采納則需要給出合理的解釋。當前量刑規(guī)范化改革處于“深水區(qū)”,量刑可預(yù)測性目標并不理想,如果人工智能輔助量刑僅僅具有參考性,法官仍要面對整個法定刑,想要檢索全國范圍內(nèi)同類案件的量刑情況,不僅智力和能力有限,同時法官的正義與良知也存在個體差異,無法實現(xiàn)量刑過程的規(guī)范化。因此,筆者認為,規(guī)范性輔助量刑更符合我國人工智能輔助量刑的定位。其次,防止機械化量刑,強化人工智能輔助量刑的說理性。人工智能量刑系統(tǒng)的表象特征之一就是排除人為恣意,實現(xiàn)量刑科學(xué)、精準,但量刑的科學(xué)化不等于量刑的科技化,人工智能技術(shù)與量刑環(huán)節(jié)的深度融合需要防范量刑機械化的潛在風險。因此,在追求量刑精準的同時,在算法設(shè)計上要容許同案量刑差異的存在,摒棄不考慮個案差異和價值判斷的機械化量刑,不可單純追求量刑的整齊劃一。同時還要構(gòu)建人工智能量刑說理機制,以更加立體、可視化的方式,展示量刑預(yù)測的實現(xiàn)過程,以強化其正當性和可接受性。最后,合理劃定人工智能量刑的介入程度。作為量刑的空間形式和最終結(jié)果,人工智能技術(shù)不得壓縮法官量刑的裁量權(quán)。一般而言,量刑的過程為確定量刑起點——確定量刑基準——確定責任刑、預(yù)防刑——確定宣告刑。量刑起點和基準刑的確立是根據(jù)案件的客觀犯罪事實而確定,而犯罪事實的客觀性很大程度上能體現(xiàn)類案共性;但責任刑和預(yù)防刑的確定,必須充分考慮案件量刑的個性因素,此時就需要法官從正義和良知的角度出發(fā),發(fā)揮其自由裁量權(quán)。由此,人工智能介入量刑只能在量刑起點和基準刑的確立階段,而責任刑與預(yù)防刑的確定則需要法官去完成(9)黃春燕:《法官量刑的自由裁量權(quán)與量刑公正的實現(xiàn):兼論人工智能在量刑中的定位與邊界》,《山東師范大學(xué)學(xué)報》(人文社會科學(xué)版),2021年第3期。。
當前以人工智能等現(xiàn)代科技緩解司法壓力,提高工作效率,是世界各國的普遍做法。但凡事都有兩面性,由于人工智能缺乏完善的倫理控制,同時又被賦予了更多的自主決策權(quán),在一定程度上影響了已有的訴訟結(jié)構(gòu),也會改變司法與技術(shù)間的權(quán)力分配,而高度的技術(shù)依賴與司法固有屬性之間的內(nèi)在張力就成為一個不得不面對的問題。
司法的公正性就是要求平等地適用法律,在公平、一致、透明、有效、迅速的前提下,為所有人提供平等的機會和權(quán)利保障,防止因性別、民族、種族等差異造成法律適用中的偏袒和歧視。雖然人工智能技術(shù)所提供的大數(shù)據(jù)分析和挖掘服務(wù)功能可以有效幫助法官克服審判過程中的知識局限,并在一定程度上抑制司法裁判的恣意性(10)周世中,呂桐弢:《人工智能法律系統(tǒng)推理的方法論審思》,《湖南社會科學(xué)》,2021年第18期。,“以代碼實現(xiàn)法律規(guī)則,用技術(shù)促進司法公正”(11)吳沈括:《以代碼實現(xiàn)法律規(guī)則,用技術(shù)促進司法公正》,《檢察日報》,2020年8月22日。,但這種技術(shù)狂熱定會影響到現(xiàn)行法律體系與司法運行機制,尤其是對司法制度基礎(chǔ)的公正價值造成極大沖擊。
一是人工智能于司法裁判的深度應(yīng)用可能帶來法律代碼化現(xiàn)象的加劇,裁判被異化為僵化機械的技術(shù)活。因為人工智能系統(tǒng)需要準確的算法和數(shù)據(jù)來運行,通過大數(shù)據(jù)和機器學(xué)習算法來識別模式、推斷出結(jié)論和作出決策。這對法律規(guī)則的代碼化要求更加嚴格和細致,以確保準確和一致性的結(jié)果。然而,這種代碼化和算法化的裁判所援引的法律規(guī)則并非人類審判的法律規(guī)則,而是一種機械性裁判,缺乏法官裁判過程的推理和論證,也缺乏對道德和倫理價值的觀照?!胺伞痹谄降仍瓌t中被機械性操縱,實現(xiàn)的是電腦“正義”而非人性的“正義”(12)阿圖爾考夫曼:《法律哲學(xué)》,劉幸義等譯,法律出版社,2011年,第143-144頁。。
二是人工智能算法是基于數(shù)據(jù)訓(xùn)練的,如果這些數(shù)據(jù)中有偏差或缺失,算法就可能存在一定的傾斜或歧視,導(dǎo)致算法偏見,如果以此算法輔助司法裁判,將直接違背司法公正的基本規(guī)律。而事實上,算法所處理的數(shù)據(jù)存在天然的偏見屬性,例如種族、性別和性取向傾向的暗示等,這種偏見可能來源于算法設(shè)計者的有意或無意的主觀偏好,也有可能是作為算法訓(xùn)練素材的數(shù)據(jù)本身泛化的偏見匯總。如加拿大一款名為(CAML)的人工智能算法被用于決定是否對嫌疑人施加監(jiān)視措施。但CAML算法被證明存在種族偏見,因為它將有關(guān)嫌疑人種族和原住民背景的信息納入了算法評估中,導(dǎo)致了對這些群體的歧視。
三是人工智能技術(shù)算法的封閉和秘密性,也使人們對裁判公正產(chǎn)生懷疑。如美國各州推廣使用的“罪犯社會危險性智能評估工具”(COMPAS)在盧米斯訴威斯康星州案(Loomisv.Wisconsin)中就因被質(zhì)疑侵犯了被告人憲法性權(quán)利而引發(fā)憲法訴訟。法院在該案量刑環(huán)節(jié)運用COMPAS工具對盧米斯進行危險性評估,最終被判重刑。由于COMPAS將種族、性別等因素作為評估要素,且受限于專利方面的保密性要求,無法接受法庭質(zhì)詢,被告人據(jù)此質(zhì)疑COMPAS工具的準確性和科學(xué)性而提起訴訟(13)Loomisv.Wisconsin,881N.W.2d749(2016).。事實上,基于商業(yè)利益、技術(shù)保密等方面的考慮,介入司法裁判的人工智能算法通常不公開,其是否存在預(yù)先偏見無法公開接受庭審質(zhì)詢,這不僅僅會影響當事人質(zhì)證權(quán)、知情權(quán)、參與權(quán)等基本的訴訟權(quán)利,還可能侵害正當程序的憲法性權(quán)利,并最終損害司法公正。
誠然,人工智能大大提升了司法效率,這也是人工智能技術(shù)運用于司法裁判最直接的動力,但在效率價值這種功利主義的驅(qū)動下,在運用過程中其邊際效益會被無限放大,倘若對此不加限制,極有可能強化法院對司法效率的過度追求,從而陷入效率至上的技術(shù)狂熱中,最終壓縮司法公正尤其是程序正當?shù)纳婵臻g。在多元的司法價值體系中,效率價值永遠被置于公正價值之下,絕不可因過度追求效率而犧牲司法公正,落入一種買櫝還珠式正義觀的窠臼。
盡管學(xué)界關(guān)于司法公信力的含義和本質(zhì)屬性有各種各樣的理解,但其核心就一個“信”字,實質(zhì)就是司法信任,反映的是社會公眾對于司法的信任和尊重程度,包括人們對司法機關(guān)決策的公正性和可信度的判斷。在建立司法信任和審判權(quán)威的過程中,法官的人格因素起著重要的作用。司法信任就是一種人格信任,人們之所以信任司法,與對法官人格的信賴和敬意密切相關(guān)(14)森際康友:《司法倫理》,于曉琪、沈軍譯,商務(wù)印書館,2010年,第287頁。,這是審判權(quán)威的基礎(chǔ)。只有具備高水平的專業(yè)素質(zhì)、高尚道德品質(zhì)和公正精神的法官才可以在人民群眾中樹立起審判權(quán)威和司法信任,而司法過程恰恰是法官發(fā)揮審判智慧,體現(xiàn)公正、獨立決策精神的核心領(lǐng)域。歷史上一些重要法律規(guī)則的創(chuàng)制與發(fā)展都離不開法官的知識、經(jīng)驗和理性以及良好的個人品質(zhì)和人格魅力。這使法官獲得了極高的威望,公眾對法官的職業(yè)道德與公正性也抱有很強的信任感(15)谷口安平:《程序的正義與訴訟》,王亞新、劉榮軍譯,中國政法大學(xué)出版社,1996年,第37-38頁。。隨著人工智能的發(fā)展,自動化和數(shù)字化技術(shù)使一些傳統(tǒng)的司法工作變得更加高效和精確,但也會帶來弱化法官專業(yè)能力、侵蝕司法公信力的風險。
首先,在人工智能時代,高端科技使法官辦案演變?yōu)橐环N人機協(xié)同操作過程,雖然人工智能具有專業(yè)化、規(guī)范化的知識系統(tǒng),算法也能夠給出嚴密的論證過程,但它終究不具有社會生活經(jīng)驗、人類情感和內(nèi)在法律品質(zhì),它也無法通過精準演算演繹出法律規(guī)則所蘊含的價值判斷來,而失去價值依托的法律邏輯是無法獲得公眾的認同的?,F(xiàn)代社會的法官職業(yè)活動的場域是由各種復(fù)雜關(guān)系勾連、交織而成,在司法大眾化的今天,社會公眾的道德話語不斷滲透司法活動中,面對那些社會關(guān)注度高的敏感案件,法官的司法推理就會愈加復(fù)雜。此時,去情感化、去價值判斷化的人工智能技術(shù)作用空間就很小。尤其針對一些疑難、新型案件的審理,關(guān)鍵不是運用規(guī)則,而是創(chuàng)建規(guī)則,這一過程要么是權(quán)力博弈的結(jié)果,要么是價值判斷的結(jié)果,卻不是邏輯問題。法官可根據(jù)自己的專業(yè)素養(yǎng)和豐富的實踐經(jīng)驗,在法律賦予的自由裁量權(quán)范圍內(nèi),根據(jù)個案情況自主決定,而決定性的因素是不可邏輯化的價值觀,如道德、情感、正義感等。人工智能是基于已有的數(shù)據(jù)和規(guī)則根據(jù)既定算法計算出多種可選方案,按照得分選出最優(yōu)方案,無法對此進行說理性解釋。且由于過度強調(diào)數(shù)據(jù)的精確性,忽略了案情的復(fù)雜性、多元性,不僅導(dǎo)致判斷結(jié)果過于機械,還會缺乏靈活性和創(chuàng)造性。雖然結(jié)論看起來是從規(guī)則推導(dǎo)出來的,但由于缺乏價值判斷和價值觀導(dǎo)向,無法實現(xiàn)司法公正性。
其次,人工智能“算法黑箱”嚴重侵蝕司法的透明度,為裁判公信力增加了風險。司法審判的公開、透明不僅是社會監(jiān)督司法的有效途徑,也是司法信任的基礎(chǔ)。在某些情況下,法官為了盡可能減少主觀影響,便會使用人工智能算法來輔助判決。由于人工智能算法使用的是一種黑箱式的方式,它的工作機理無法被解釋或者驗證,很難說明該判決的依據(jù)和判斷過程,存在“機器所歸納的裁判模式、裁判標準可能連操作主體都難以理解”(16)左衛(wèi)民:《AI法官的時代會到來嗎:基于中外司法人工智能的對比與展望》,《政法論壇》,2021年第5期。的窘境。不可解釋性使得預(yù)測決策面臨極大風險,尤其是對公民人身、財產(chǎn)權(quán)益產(chǎn)生重大影響的刑事量刑裁判,不能被清楚解釋的算法必定會受到公眾的質(zhì)疑。如果當事人無法知道作為一個案件判決的因素是什么,他們便很難信任或接受算法的決策結(jié)果,更會影響到他們對法官的信任。此外,訓(xùn)練算法需要大量時間和人力資源,有關(guān)企業(yè)和組織基于保護算法黑箱的商業(yè)秘密和專利技術(shù)的目的,通常不會公開大量原始數(shù)據(jù)和相應(yīng)的訓(xùn)練數(shù)據(jù)集。在這種情況下,數(shù)據(jù)獲取能力和數(shù)據(jù)分析能力的差異會加劇演變出新的不平等,降低包括當事人在內(nèi)的社會公眾對司法裁判的信任和接受程度。
最后,人工智能技術(shù)的運用雖然一定程度上能夠提高同案同判的效果,但其運算機理反而會降低同案同判的可信度。這是由于人工智能算法統(tǒng)計的相關(guān)性并不代表因果關(guān)聯(lián),即便這種分類方法所得出的數(shù)值準確率和召回率(recall)再高也并不能保證其結(jié)論一定為真,反而會因為案件的特異性使得“同案同判”算法失靈,進而放大“同案同判”的缺陷,從法理上削弱“同案同判”的合理性。如2018年美國新澤西州一名被告因侮辱警察受到指控,在接受人工智能算法審判后被判罪名成立,但是被告質(zhì)疑該算法的準確性,要求重新審理該案。經(jīng)過重新審理后,該被告被宣判無罪。因此,如果法官過度相信算法的判斷而忽略案件的特殊性,反倒會增加司法審判的恣意性和不確定的風險,弱化公眾感受公平正義的體驗感,嚴重沖擊司法公信力。
審判最重要的實際妥當性,依賴于審理該案的法官的判斷。因此,強調(diào)法官在審判活動中的主導(dǎo)地位是現(xiàn)代司法的基本特征。在法官主導(dǎo)的司法模式下,辦案法官享有對案件的法律解釋、法律適用、事實查證和案件裁決等方面的決定權(quán)。司法程序的精密化以及個案的獨特性,要求主審法官負責案件處理的全過程(17)王勇:《主審法官在審判組織中的角色及其行動邏輯:基于本輪司法改革的考察研究》,《云南社會科學(xué)》,2020年第5期。,并承擔相應(yīng)的辦案責任,這也是審判中心主義在實踐層面的精神內(nèi)涵。但“人工智能+”等現(xiàn)代科學(xué)技術(shù)賦能司法的必然結(jié)果不僅改造了審判空間,而且還會造成審判系統(tǒng)乃至司法權(quán)的全面解構(gòu)(18)季衛(wèi)東:《人工智能時代的司法權(quán)之變》,《東方法學(xué)》,2018年第1期。,引發(fā)審判權(quán)嬗變,削弱法官主體地位。雖然人工智能司法應(yīng)用的“輔助”功能作為一項基本原則被強調(diào)(19)《最高人民法院關(guān)于規(guī)范和加強人工智能司法應(yīng)用的意見》法發(fā)〔2022〕33號。,但隨著司法人工智能的不斷完善和深度應(yīng)用,人類法官正在或已經(jīng)讓渡部分決策權(quán)成為不爭的事實(20)賀泳杰,雷震文:《挑戰(zhàn)與應(yīng)對:人工智能時代的司法審判》,《貴州民族大學(xué)學(xué)報》(哲學(xué)社會科學(xué)版),2022年第1期。。特別是一些涉及道路交通事故糾紛、金融貸款、民間借貸等簡單案件,已有部分地方法院嘗試使用智能審判系統(tǒng)代替法官行使審判權(quán)。如深圳市南山區(qū)法院就推出了一款名為“智裁”的智能審判系統(tǒng),能自動判斷案件類型、分析證據(jù)信息、評估損失和制定判決意見;浙江省高級人民法院自主研發(fā)的“鳳凰金融智審”實現(xiàn)了在真實訴訟環(huán)境下對金融借款案全程無人工干預(yù)、大批量的智能審判。實際上,現(xiàn)在的智能審判系統(tǒng)暗含了審判權(quán)的雙軌模式:法官審判與人工智能審判的并行。除此之外,在司法實踐中被廣泛運用的人工智能輔助量刑、類案推送、偏離預(yù)警等系統(tǒng)均有干預(yù)法官審判權(quán)之虞。這種審判權(quán)行使的并行模式不僅與傳統(tǒng)司法權(quán)運行規(guī)律相悖,而且還會影響到審判權(quán)的專屬性,導(dǎo)致審判責任分配不清,架空司法責任制。由算法主導(dǎo)或參與的司法裁判一旦出錯,如何在“審理者裁判、裁判者負責”的司法責任制下進行追責,人工智能是否成為追究錯案責任的擋箭牌成為一個棘手的問題。
新一輪司法改革將法官業(yè)績評價作為司法改革重要配套機制的組成部分而得到空前重視。在考核指標最優(yōu)化的利益驅(qū)動下,各地法院爭先恐后投入技術(shù)研發(fā),在案件評價、權(quán)重指標等方面不斷進行細化、賦權(quán)和測算,出現(xiàn)了技術(shù)至上的傾向。而法官一旦卷入現(xiàn)代技術(shù)體系中,就會忽略其作為正義生產(chǎn)者的角色,導(dǎo)致司法判斷與裁決一定程度上的“異化”,在重拾以往長期形成的“行政化工作模式”的同時又增加了一種新的模式——自動化或半自動化流水線工作模式,大量流程化、規(guī)范化的工作被機器所替代,雖然節(jié)約了司法資源,提高了工作效率,但可能導(dǎo)致審判員在處理案件時過度依賴人工智能,反而降低了審判員的專業(yè)能力和經(jīng)驗積累,從而影響審判質(zhì)量。隨著自動化或半自動化流水線工作模式的應(yīng)用,法官的審判日程會日益緊張,在受理案件數(shù)激增和法定審理期限剛性要求的雙重壓力下,加上人的思考惰性,會進一步加劇法官對人工智能判決處理案件的過度依賴。這些問題的存在不可避免地會對我國司法改革目標的實現(xiàn)造成干擾,影響司法追求真與善的統(tǒng)一。
人工智能介入司法,革新與挑戰(zhàn)并存,我們必須面對技術(shù)負面屬性所帶來的潛在風險,妥善處理司法價值功效與技術(shù)中性之間的關(guān)系,確保其有序運行。
一個具有公信力的司法裁判,離不開對法官斷案的價值考量。而這種價值判斷很大程度上是主觀的、因人而異的。在司法實踐中,簡單套用三段論即可獲得裁判結(jié)論的案件并不多見,大多數(shù)案件需要啟用司法價值判斷才能化解糾紛。在司法價值判斷中,不可避免會涉及價值排序問題。但無論從哪個角度去觀察,憲法規(guī)定的公民基本權(quán)利都是作為最優(yōu)先保護的法律價值被認可的。因此,不論法官怎樣安排法律價值的座次,公民所享有的平等權(quán)、知情權(quán)、參與權(quán)、隱私權(quán)等基本人權(quán)不得受到壓縮和限制。與此同時,法官需要從法律形式到實質(zhì)價值進行充分評斷,最大限度地平衡保護涉案各方的合法權(quán)益,作出既符合法律形式又體現(xiàn)實質(zhì)價值的司法裁判。在這個過程中,會不時涌現(xiàn)出法律價值的沖突,此時就需要法官通過嚴謹?shù)膶徟羞壿嫹椒ㄟM行法律價值的衡平與調(diào)適,最終成就一份妥當?shù)牟脹Q,司法權(quán)威因此而生。故此,人工智能的使用和研發(fā)應(yīng)當以尊重和保障公民基本權(quán)利為價值目標,遵守安全性、可追溯性、包容性、可預(yù)防性、效益最大化和危害最小化等行為規(guī)范(21)雷磊:《中國特色社會主義智慧法治建設(shè)論綱》,《中共中央黨校(國家行政學(xué)院)學(xué)報》,2020年第1期。,以消弭其倫理風險。而人工智能帶有強烈的形式邏輯色彩,按照佩雷爾曼的觀點,形式邏輯并不能代表正當性,最終案件的價值判斷要歸結(jié)到對話式的討論(22)李婷:《人工智能時代的司法公正:價值效用與風險防范》,《江蘇社會科學(xué)》,2023年第1期。。因此,即便科技水平發(fā)展到強人工智能時代,也不能將法官假定為司法數(shù)據(jù)信息與人工智能架構(gòu)下的被行動者,仍要確保司法過程的法律思維,唯有司法邏輯主導(dǎo)算法邏輯,才能維護真正意義上的司法公正。這不僅是司法公信力的正當性基礎(chǔ),也是人工智能科學(xué)發(fā)展的應(yīng)然要求。
當下,人工智能系統(tǒng)雖定位于輔助性,但其趨勢必然是主體性的(23)張玉潔:《智能量刑算法的司法適用:邏輯、難題與程序法回應(yīng)》,《東方法學(xué)》,2021年第3期。。智慧司法建設(shè)既是技術(shù)支撐司法的過程,也是技術(shù)權(quán)力與公權(quán)力相結(jié)合的過程。但司法不可能成為純粹的技術(shù),過分依賴技術(shù)會動搖司法根基(24)馬靖云:《智慧司法的難題及其破解》,《華東政法大學(xué)學(xué)報》,2019年第4期。。因此,需要明確司法智能化的范圍限度,推進“有限智能化”,保持司法獨立和技術(shù)與司法領(lǐng)域的合理關(guān)系。(1)必須肯定法官的主體地位,保證法官的司法主導(dǎo)權(quán),根據(jù)人與技術(shù)在司法活動中的不同特性分配權(quán)限和責任。具體到司法裁判中,需要明確法律要素與經(jīng)驗或情感的劃分、法律適用環(huán)節(jié)與事實認定的劃分、共性案件與個性案件的劃分,以此劃定人工智能的參與程度和人類法官裁量的領(lǐng)域(25)胡銘,宋靈珊:《“人工+智能”:司法智能化改革的基本邏輯》,《浙江學(xué)刊》,2021年第2期。。當人工智能系統(tǒng)的預(yù)測與人類法官的判斷出現(xiàn)嚴重偏差時,人類法官享有最終決定權(quán)。(2)強化技術(shù)和司法的互補性,明確技術(shù)應(yīng)用的底線。技術(shù)應(yīng)用應(yīng)該主要是為了輔助和提高司法辦公的效率和效果,促進司法公正和司法關(guān)系的和諧穩(wěn)定。因此,技術(shù)應(yīng)用需要與司法目標有較好的契合度,在增強司法公正性和效率的基礎(chǔ)上,應(yīng)加強技術(shù)和司法領(lǐng)域的溝通和交互,形成相互學(xué)習和創(chuàng)新發(fā)展的良性互動,避免技術(shù)對司法的過度干預(yù)以及法官對技術(shù)的知識匱乏。同時還應(yīng)加強監(jiān)管和審查機制,確保技術(shù)應(yīng)用的合法性和可持續(xù)性。(3)要明晰智慧司法機制下的責任鏈條,避免拿技術(shù)作為推卸責任的擋箭牌,諸如托詞“系統(tǒng)問題”“技術(shù)問題”而出現(xiàn)動因遷移。同時應(yīng)建立法官覺察技術(shù)系統(tǒng)偏差與錯誤時的及時報告義務(wù)(26)張凌寒:《智慧司法中技術(shù)依賴的隱憂及應(yīng)對》,《法制與社會發(fā)展》,2022年第4期。。(4)要設(shè)立“信息準入制度”。如果不作任何篩選和控制的所有案件信息都獲準進入司法大數(shù)據(jù),將會強化人工智能的思維傾向,也會降低司法效率,進而影響公正裁判。
人工智能是以數(shù)據(jù)為基礎(chǔ)的算法運行,如果沒有海量且優(yōu)質(zhì)的數(shù)據(jù)也就無法滿足司法智慧化的需求,但算法如果存在過于追求效率及相關(guān)性因素的設(shè)計導(dǎo)向,則極易導(dǎo)致算法歧視或偏見,從而引發(fā)司法不公正。為了防范因技術(shù)缺陷而引起的不良后果,推動智慧司法建設(shè)良性發(fā)展,必須強化司法大數(shù)據(jù)管理,規(guī)范算法監(jiān)管機制。(1)擴充司法數(shù)據(jù)儲備,建立統(tǒng)一的司法大數(shù)據(jù)庫。目前,用于我國人工智能開發(fā)的司法數(shù)據(jù)多數(shù)來源于我國裁判文書網(wǎng)上公布的裁判文書,而法院系統(tǒng)內(nèi)部沉積有大量尚未上網(wǎng)的信息,這就造成海量獲取信息的現(xiàn)實障礙。因此,應(yīng)拓寬司法數(shù)據(jù)的收集、挖掘途徑,推動全國地方法院的電子化與數(shù)據(jù)化系統(tǒng)工程,消除信息障礙,加強平臺合作和數(shù)據(jù)共享。同時還需要豐富和優(yōu)化裁判文書網(wǎng)上內(nèi)容,使其呈現(xiàn)的數(shù)據(jù)信息更加全面、充分,這樣才能使人工智能生成的內(nèi)容具有實踐指導(dǎo)意義。(2)規(guī)范算法決策,建立算法公開制度,增加透明度。算法的隱藏性、算法“黑箱”的缺陷等都在不同程度上侵犯了公民的知情權(quán)、抗辯權(quán),也無法對其行使司法活動的監(jiān)督權(quán)。因此,應(yīng)開放決策主體與社會公眾的溝通渠道,建立審查和公開機制,組織相關(guān)專家定期或不定期開展算法審查和評估,以保證算法內(nèi)容的高度合理性和運行過程的透明性,防止算法偏見所致的隱患,維護司法公信力。
河南師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)2023年5期