沈 寨
(江蘇師范大學 法學院,江蘇 徐州 221116)
由于司法裁判“有相對穩(wěn)定的對象(案件)、相對明確的前提(法律規(guī)則、法律事實)及嚴格的程序規(guī)則,且須得出確定的判決結(jié)論”[注]張保生:《人工智能法律系統(tǒng)的法理學思考》,《法學評論》,2001年第5期,第13頁。,從而容易被人工智能所模擬,因此人工智能自誕生不久便在司法裁判領(lǐng)域受到了極大的關(guān)注[注]1956年達特茅斯會議標志著人工智能學科的誕生。1958年,Lucien就提出了法律科學信息化的處理,即建立法律文獻和案例自動檢索模型和法官裁量模型,但并未引起學界重視。1970年,Buchanan發(fā)表了《關(guān)于人工智能和法律推理若干問題的考察》一文,正式拉開了司法領(lǐng)域人工智能研究的序幕。參見張妮,楊遂全,蒲亦非:《國外人工智能與法律研究進展述評》,《法律方法》(第16卷),濟南:山東人民出版社,2014年版,第459頁。。近幾年,隨著人工智能熱的再度興起,人工智能在司法裁判領(lǐng)域的應用研究更是達到了空前的廣度和深度。學者們不僅從整體視角對人工智能在裁判領(lǐng)域的應用價值和局限進行了思考[注]這方面的研究可參見羅維鵬:《人工智能裁判的問題和歸納》,《國家檢察官學院學報》,2018年第9期;李飛:《人工智能的司法裁判與解釋》,《法律科學》,2018年第5期;季衛(wèi)東:《人工智能時代的司法權(quán)之變》,《東方法學》,2018年第1期;吳習彧:《司法裁判人工智能化的可能性及問題》,《浙江社會科學》,2017年第4期;潘庸魯:《人工智能介入司法領(lǐng)域的價值與定位》,《探索與爭鳴》,2017年第10期;等等。,還對諸如輔助量刑和裁判預測等各種司法人工智能技術(shù)在裁判領(lǐng)域應用的功能與限度、風險與防范等進行了深入分析[注]這方面的分析見朱體正:《人工智能輔助刑事裁判的不確定性風險及其防范》,《浙江社會科學》,2018年第6期;張富利,鄭海山:《大數(shù)據(jù)時代人工智能輔助量刑問題研究》,《昆明理工大學學報》(社會科學版),2018年第6期;倪震:《量刑改革中“機械正義”之糾正——兼論人工智能運用的邊界及前景》,《江西社會科學》,2018年第2期;白建軍:《法律大數(shù)據(jù)時代裁判預測的可能與限度》,《探索與爭鳴》2017年第10期;周蔚:《大數(shù)據(jù)在事實認定中作用機制分析》,《中國政法大學學報》,2015年第6期;等等。。從已有研究成果來看,學者們普遍認為雖然各種人工智能技術(shù)的應用大大提高了司法裁判的質(zhì)效,但在其目前發(fā)展階段,人工智能只適合用來對類型化案件要素信息的識別和轉(zhuǎn)換等相對簡單的工作,而對于涉及獨特事實認定和價值評價的非類型化疑難案件,則難以作出公正合理的個案判斷[注]李晨:《論類型化案件智能審判系統(tǒng)的建構(gòu)——以J區(qū)法院為樣本》,《東南司法評論》,廈門:廈門大學出版社,2018年版,第342頁。。
不可否認,在目前人類對于人工智能的“認知”這一核心問題還沒有任何方法論上突破的情況下[注]參見《人工智能現(xiàn)在的發(fā)展前景如何?》,https://www.zhihu.com/question/20102212,2019年3月19日訪問。,單憑人工智能對關(guān)涉復雜價值判斷的個案裁判作出妥當處理確實難以實現(xiàn)。但在大規(guī)模數(shù)據(jù)和大規(guī)模算力的基本方法已經(jīng)成熟的當下[注]參見《人工智能現(xiàn)在的發(fā)展前景如何?》,https://www.zhihu.com/question/20102212,2019年3月19日訪問。,利用大數(shù)據(jù)和人工智能強大的計算能力來幫助法官獲取個案裁判的正義則具有非常相當程度的必要性和可行性。相對于個人直接經(jīng)驗及個人獲取間接經(jīng)驗的有限性,大數(shù)據(jù)分析為法官提供了來自于互聯(lián)網(wǎng)的全量數(shù)據(jù)信息和海量“數(shù)據(jù)經(jīng)驗”歸納,讓法官對案件情況有了更精準和更客觀的認識,這對排除法官直覺和偏見,為個案裁判作出準確理性的判斷具有十分重要的意義。當然,從根本上來說,類似于司法價值判斷領(lǐng)域的主觀不確定性問題是計算不可解決的[注]董佳蓉:《語境論視野下的人工智能范式發(fā)展趨勢研究》,北京:科學出版社,2016年版,第126頁。,因此以計算為基礎(chǔ)的人工智能在解決司法價值判斷問題上仍具有很大的局限性,它最多只能作為一種輔助性工具來使用。
個案正義問題源于案件的非類型化,相較于類型化案件審理而言,對于非類型化案件的處理則需要更為復雜的價值判斷。如何讓法官在進行復雜價值判斷時保持最大程度的理性始終是裁判理論的一個中心議題。在人工智能大力介入司法裁判的當下,細致分析人工智能對于增加法官價值判斷的理性程度有何裨益和局限就成為題中應有之義。緣于此,本文立足于人工智能的司法輔助性角色定位,在闡釋個案正義的獲取關(guān)鍵及其對裁判性質(zhì)型塑的基礎(chǔ)上探討人工智能對于獲取個案正義的功能,并對功能的限制性因素進行分析。
個案正義問題源自于案件的非類型化。當一般的、抽象的法律規(guī)范能夠滿足案件公正判決的要求時,這就意味著待決案件事實與法律事實具有同質(zhì)性,該待決案件屬于類型化的案件。對于類型化的案件,法官裁判只需將法律事實與案件事實進行比照便能得出結(jié)論。在這種情況下,個案正義與普遍正義實現(xiàn)了統(tǒng)一,個案正義問題便無需提起。但當一般的、抽象的法律規(guī)范不能滿足案件公正判決的要求時,這就意味著待決案件事實與法律事實具有異質(zhì)性,該待決案件屬于非類型化的案件。對于非類型化的案件,法官難以根據(jù)法律事實來比照案件事實得出裁判結(jié)論。在這種情況下,法官裁判必須通過獲取個案正義來保障普遍正義的實現(xiàn),如此,如何獲致個案正義便成為法官裁判要面對的核心問題。
案件的非類型化導致了個案正義問題的產(chǎn)生。在裁判實踐中,案件之所以被貼上“非類型化”的標簽,是因為該案件具有強烈的獨特性,難以比照法律事實對其進行歸類。當法律文字不能照顧具體案件的特殊情況時,法官必須在法律賦予的自由裁量權(quán)限之內(nèi)考慮案件的特別構(gòu)成要素,這樣才能使正義在個案中有實質(zhì)的落實[注]范文清:《試論個案正義原則》,載城仲模:《行政法之一般法律原則(二)》,臺北:三民書局,1997年版,第401頁。??梢姡@取個案正義的關(guān)鍵在于法官如何在遵守法秩序的前提下對案件做出符合其特定情形的判決。在現(xiàn)代司法裁判理念下,對法秩序的遵守一般通過“體系的開放性”得到了解決,而對案件作出符合其特定情形的判決則需要法官在具體情境中通過對關(guān)涉案件的各種因素進行綜合考慮和權(quán)衡才能獲得。對涉及個案多種因素的考慮和權(quán)衡其實就是價值判斷的過程,由此我們可以進一步得出,就裁判活動而言,獲取個案正義的關(guān)鍵在于法官如何妥當?shù)剡M行價值判斷。法官的價值判斷使得司法裁判不再僅僅是依據(jù)法律事實對案件事實進行簡單的類型化處理,而是變成了一個復雜的慎思過程,從而使得司法裁判呈現(xiàn)出如下性質(zhì)和特征:
其一,裁判活動具有強烈的問題導向性和情境性。所謂問題導向,是指所有行為都是圍繞“問題”展開的,“問題”在整個過程中具有導向作用,而“問題”則是指“允許表面上看起來有不止一個答案的任一提問”[注][德]特奧爾多·菲韋格:《論題學與法學——論法學的基礎(chǔ)研究》,舒國瀅譯,北京:法律出版社,2012年版,第28頁。。個案正義雖然要求法官在現(xiàn)行法秩序內(nèi)對案件尋求體系化的解決,但法官在尋求體系化解決時往往不能保證個案正義有實質(zhì)的落實,原因在于案件的非類型化或獨特性使得法官不能對個案進行“非黑即白”式的處理,而是在“黑白之間”進行理性考量和抉擇。緣于此,法官只能從個案的特定情形入手,圍繞個案來尋找最適合案件具體情況的答案。這種立足于個案特定情形并以解決個案問題為目標的裁判活動具有明顯的問題導向性。而司法裁判的問題導向性決定了它必然同時又具有情境性。問題總是在情境理解之內(nèi)發(fā)生[注]舒國瀅:《走近論題學法學》,《現(xiàn)代法學》,2011年第7期,第11頁。。因此,對于個案問題的處理離不開對個案發(fā)生時的情景或背景的考察,即離不開法官和當事人所處的具體文化環(huán)境或所享有的生活方式和價值觀念。
其二,司法推理一般會采用到“決策—論證”模式。由于案件的非類型化或獨特性,法官通常不能從既有法律規(guī)范中徑直為案件尋找到一個明確的判決結(jié)論。為了獲得公正的判決,法官不得不從案件具體情況出發(fā),“對法律問題從各種不同的方向,將全部由法律本身,或是由法律以外的領(lǐng)域所獲得,對于問題的正當解決有所助益的觀點都列入考量”[注][德]卡爾·拉倫茨:《法學方法論》,陳愛蛾譯,北京:商務印書館,2004年版,第25頁。。這樣,司法推理過程就變成了先是對與個案關(guān)聯(lián)的各種因素和各種觀點進行充分權(quán)衡和考量后做出決策,然后再對決策進行合法性和正當化的論證。這種“決策—論證”推理模式下所做出的判決能夠最大化的滿足有關(guān)當事人的需求,有利于有關(guān)當事人盡快達成合意,從而非常適合用來解決裁判領(lǐng)域的價值判斷問題。
其三,司法裁判重視判決的可接受性。判決的可接受性是指當事人和公眾對判決在心理上的接受和認同,它特別強調(diào)判決的正當性和合理性,而非關(guān)注法律的強制性,因而成為衡量判決是否公正的標準。相對于類型化案件的審理,非類型化案件的審理需要更為復雜的價值判斷,而價值判斷在本質(zhì)上就是法官對當事人和公眾進行的一種說服,說服當事人和公眾認可和接受判決。在非類型化案件審理的過程中,法官不能簡單依據(jù)法律對案件做出非對即錯的判決,而是要全面考慮案件的特殊情況和判決的社會影響等多種因素。對這些因素無法只從法律邏輯角度來進行簡單的合法與否的評價,而要從正當性和合理性視角來進行可接受性程度上的權(quán)衡和考量。
總之,個案正義要求法官在裁判過程中必須進行復雜的價值判斷。而為了完成復雜的價值判斷任務,司法裁判不再是將案件事實與法律規(guī)范簡單地進行涵攝或等置就能得出明確的判決結(jié)論的過程,而是圍繞個案問題,對關(guān)涉?zhèn)€案的事實因素、法律因素和社會因素等進行情境化考量及決策與論證的過程。如此一來,合法性就不能成為判決公正的唯一標準,在合法性之外,還得尋求判決的可接受性。
為了獲取個案正義,司法裁判由簡單的涵攝或等置過程變成了以判決可接受性為目標,以個案問題為導向的決策—論證過程。司法裁判過程的這一性質(zhì)轉(zhuǎn)變使得裁判過程確實能夠更多地容納價值判斷:一方面,裁判過程的問題導向性和情境性讓法外因素順利地進入到了案件審判之中,使得法官對關(guān)涉案件的社會、經(jīng)濟和道德等因素的考量具有了可行路徑;另一方面,司法推理的決策—論證模式不僅使特定條件下的現(xiàn)實需求成為了案件審理的依據(jù),還認可了法官的司法前見和實踐經(jīng)驗等對裁判的正當影響。然而,司法裁判在更多容納價值判斷的同時如何避免法官直覺和偏見的消極影響,以確保價值判斷的理性作出,人們對此一直孜孜以求卻始終未能找到最終解決的辦法。人工智能時代的到來使人們對這一問題的解決向前邁進了一大步。
從總體層面來看,人工智能強大的數(shù)據(jù)搜索和計算能力能夠擴展法官的認知能力,減少法官直覺和偏見等主觀因素對價值判斷的消極影響。審理非類型化案件需要法官更多地運用價值判斷來處理裁判中的不確定性問題。對于裁判領(lǐng)域里不確定問題的處理,法官無法經(jīng)由必然性推論得出確定性答案,只能基于經(jīng)驗、良心和理性得出或然性結(jié)論,因而價值判斷屬于或然性判斷,通常被認為是法官個人確信的表達。而法官在表達個人確信時,有時難免會受到直覺和偏見等主觀因素的影響,產(chǎn)生錯誤的“確信”。如美國康奈爾大學教授拉克林斯基通過實證研究[注]關(guān)于拉克林斯基的實證研究內(nèi)容,參見Guthrie,Chris,Jeffrey J.Rachlinski, and Andrew J.Wistrch, Blinking on the Bench: How Judges Decide Cases,Cornell L.Rev.Vol.93,2007.發(fā)現(xiàn),直覺會對法官裁判產(chǎn)生很大影響,它不僅會讓法官基于偏見作出情感上讓人難以接受的結(jié)論,更為常見的是,它還會讓法官因判斷誤差而致使判決結(jié)果出現(xiàn)偏差,比較典型的如“錨定效應”。所謂“錨定效應”是指“在不確定情境下,判斷與決策的結(jié)果或目標值向初始信息或初始值即‘錨’的方向接近而產(chǎn)生估計偏差的現(xiàn)象”[注]Tversky A,Kahneman D.,Judgement under Uncertainty:Heuristics and Biases,Science,Vol.185,1974.轉(zhuǎn)引自郭春鎮(zhèn):《法律直覺與社科法教義學》,《人大法律評論》,2015年卷第2輯,第109頁。。拉克林斯基的實驗研究表明,法官在裁判過程中會基于別人先前給定的信息即“錨”來作出判斷,這個信息對法官判斷產(chǎn)生了很大的影響,而它本來不應該有如此巨大的影響,如此就形成了偏差性的裁判結(jié)論。雖然法官直覺來自于其長期的法律知識學習和司法經(jīng)驗積累,并非是反理性的妄想,然而法官個人知識和經(jīng)驗的有限性使得直覺判斷經(jīng)常會忽略一些重要信息,從而會對案件做出不公正甚至錯誤的判決。與法官經(jīng)驗和理性有限性形成鮮明對比的是,人工智能對海量數(shù)據(jù)則具有強大的搜索和計算能力,它通過對互聯(lián)網(wǎng)海量數(shù)據(jù)的分析和處理,為法官裁判提供了全量信息和“數(shù)據(jù)經(jīng)驗”,同時也彌補了法官對龐大信息處理能力的不足。詳言之,大數(shù)據(jù)分析一方面能夠瞬間對“全量數(shù)據(jù)進行分析而非抽樣分析,以一種全量歸納邏輯形式對事件進行客觀描述”[注]周蔚:《大數(shù)據(jù)在事實認定中作用機制分析》,《中國政法大學學報》,2015年第6期,第80頁。,有利于幫助法官形成客觀認識;另一方面通過非結(jié)構(gòu)化全量數(shù)據(jù)間的相關(guān)性分析,凝練出某種規(guī)律性的認識,從而能夠幫助法官對主體行為或事件發(fā)展作出趨勢性預測。此外,司法輔助性技術(shù)在適用于司法裁判時對優(yōu)化裁判路徑也產(chǎn)生了一定的作用,這在一定程度上也降低了法官直覺判斷可能帶來的風險。
以上所述是對人工智能的輔助功能所作的總體闡釋,欲更清晰地了解人工智能對于獲取個案正義的功能,還需圍繞裁判性質(zhì)來展開具體分析。首先,人工智能為法官掌握具體案件情況提供了全面的數(shù)據(jù)信息和背景知識,幫助法官對案件事實和當事人形成了客觀準確的認識。個案正義要求法官對案件進行問題導向性和情境化處理,即要求法官圍繞個案問題尋找最適合案件具體情形的判決。由此可見,案件具體情況是法官裁判的出發(fā)點和基礎(chǔ)。案件具體情況雖然是一個包容性極強的概念,但若從案件要素的視角來看,法官對它的考慮主要包括案件事實認定和當事人具體情況兩個方面。事實認定主要涉及對證據(jù)的判斷,而對當事人具體情況的考慮則涉及當事人的年齡、性別、性格、行為習慣及案發(fā)時處境等。就事實認定而言,大數(shù)據(jù)分析不僅是一種新的證據(jù)手段,還在證據(jù)推理中發(fā)揮著巨大作用。隨著互聯(lián)網(wǎng)應用的普及,記錄各種信息的大數(shù)據(jù)不斷涌現(xiàn),這為事實認定提供了豐富的證據(jù)來源,此外還將證據(jù)和待證事實之間的關(guān)系以諸如照片、圖表和錄像等數(shù)據(jù)可視化的方式進行實質(zhì)化的展示。當證據(jù)對事實的證明關(guān)系不確定,需要法官進行蓋然性判斷時,大數(shù)據(jù)分析能夠在證據(jù)推理過程中量化各個證據(jù)要素與證明結(jié)論之間的相關(guān)程度,彌補法官在不確定性條件下對事物認知能力的不足,從而對證據(jù)材料到證據(jù)實質(zhì)關(guān)聯(lián)程度作出更加客觀的評價[注]周蔚:《大數(shù)據(jù)在事實認定中作用機制分析》,《中國政法大學學報》,2015年第6期,第67頁。。如貝葉斯公式能夠?qū)ψC據(jù)間的相關(guān)性程度進行量化,也能較好地描述出“初始證據(jù)事實在引入新證據(jù)之后蓋然性估測的變化情況”[注]秦策:《訴訟證明的蓋然性范疇:功能與限度》,《金陵法律評論》,2013春季卷,第36頁。,這顯然對排除法官直覺,對事實進行理性認定起到了巨大的幫助作用。就考慮當事人具體情況而言,在傳統(tǒng)方式下,法官對當事人具體情況的了解主要來自于具體案件事實中的描述或證人證言,這種了解是碎片化的和單維度的,但在人工智能時代,大數(shù)據(jù)能夠把當事人在互聯(lián)網(wǎng)上留下的各種信息呈現(xiàn)出來,讓我們對當事人有了更精準的了解,并由此從趨勢發(fā)展角度對當事人行為進行預測,從而使得法官能夠?qū)Ξ斒氯饲闆r進行全景式考量和理性判斷。在國外司法實踐中已經(jīng)投入使用的COMPAS系統(tǒng),就是根據(jù)犯罪者的多種信息對犯人再犯風險進行評估,以幫助法官作出司法決策,雖然被人詬病存在算法“暗箱”和算法歧視等缺陷,但其基于數(shù)據(jù)的決策無疑仍具有相當程度的客觀性和精確性。
其次,在對特定案件事實進行評價時,人工智能不僅彌補了法官面對新穎案件“生活經(jīng)驗”的不足,還使法官遵從了整體理性。個案正義還需要法官對特定案件事實進行評價,這其實是要求法官對個案判決進行社會的、倫理的和功利的等整體考量,即采用政策方法[注]法官裁判基本有兩種標準:邏輯方法和政策方法,兩種方法兼而有之,才能保證司法裁判的公正性和活力。政策是指作為實現(xiàn)經(jīng)濟、政治或者社會上的妥當目標而在法律適用上進行的適當變通或者有多種選擇時的傾向性選擇導向,政策方法就是以此種方式變通法律適用的方法。參見孔祥?。骸斗ü偃绾尾门小罚本褐袊ㄖ瞥霭嫔?,2017年版,第2-15頁。對案件進行裁判。用霍姆斯的話來說,政策就是生活經(jīng)驗的體驗[注]Roy L. Brooks, Structures of Judicial Decision Making from Legal Formalism to Critical Theory(2nd ed),Carolina Academic Press,2005, p.14.轉(zhuǎn)引自孔祥?。骸斗ü偃绾尾门小?,北京:中國法制出版社,2017年版,第14頁。,因此,采用政策方法來裁判其實就是法官依靠自己的“生活經(jīng)驗”來裁判。當然,這里的“生活經(jīng)驗”并非指法官個別的經(jīng)驗,而是指法官集體的共同的社會經(jīng)驗。那么面對個案裁判的法官如何獲得法官集體的共同的“生活經(jīng)驗”,以及如何防止法官個人偏好和偏見不被當成“生活經(jīng)驗”?作為社會組成人員,法官的“生活經(jīng)驗”自然主要來自于其長期的職業(yè)共同體生活和從業(yè)經(jīng)歷,而人工智能的出現(xiàn)不僅彌補了法官面對新穎案件“生活經(jīng)驗”的不足,還讓法官遵從了整體理性,適度降低了法官偏見對司法判斷的影響。法官可以從互聯(lián)網(wǎng)公開的裁判文書中搜索出大量先前法官對類似案件的處理信息,從中獲取先前法官裁判的經(jīng)驗和方法,為自己個案裁判尋求啟發(fā)。此外,大數(shù)據(jù)分析技術(shù)通過對法律規(guī)定、大量以往案件信息及判決結(jié)果之間相關(guān)關(guān)系的分析,可以對未決案件進行裁判預測。這種裁判預測反映的是過往審判實踐中的法官集體經(jīng)驗或“平均理性”,它雖不能替代當下案件的審理結(jié)果,但可以對裁判實踐提供參考信息[注]白建軍:《法律大數(shù)據(jù)時代裁判預測的可能與限度》,《探索與爭鳴》,2017年第10期,第96頁。。這種對法官集體經(jīng)驗的獲得不是來自于個別法官的臆想,而是基于全量“數(shù)據(jù)經(jīng)驗”的分析和歸納,對它們的參考,意味著法官對整體理性的遵從,這在一定程度上也限制了法官偏見對司法判斷的影響。
最后,人工智能為司法裁判提供了輔助決策和檢測的工具,排除了“決策—論證”過程中直覺主義的影響。當審理非類型化案件時,法官在使用演繹推理的基礎(chǔ)上往往會采用到?jīng)Q策—論證的推理模式,即先做出決定,然后再對決定的合法性和合理性進行論證。決策—論證的推理模式使法官決策看起來充滿理性和慎思,但仍不免會受到直覺偏見的影響。法官在對自我決策進行論證時,往往會出現(xiàn)自我合理化的傾向,從而導致偏見對裁判的涉入。對于此種問題的解決,只需在裁判過程中發(fā)揮人工智能的輔助決策功能和檢測功能便可收到事半功倍的效果。一方面,人工智能通過自動識別提取法律事實和情節(jié)、自動推送關(guān)聯(lián)法條、爭議點自動整理以及裁判文書自動生成等來輔助法官進行部分司法決策,當法官部分司法決策被人工智能輔助時,直接壓縮了法官直覺判斷運用的空間,從而相應地也減少了產(chǎn)生偏見的可能性;另一方面,人工智能還可以通過偏離預警和裁判預測等司法輔助系統(tǒng)為法官決策提供便捷有效的檢測工具,從而能夠有效地防范和控制法官自由裁判的風險。例如,偏離預警把基于人工智能算法推測的量刑幅度、判決結(jié)論或裁判流程等與法官裁判的量刑幅度、判決結(jié)論或流程進行比較,計算兩者之間的偏離程度,并對偏離程度進行不同程度的警告,如果偏離程度特別高,則意味著法官裁判的結(jié)果可能存在合法性和合理性問題[注]王祿生:《司法大數(shù)據(jù)與人工智能開發(fā)的障礙》,《中國法律評論》,2018年第2期,第48頁。。由此可見,偏離預警就是將法官裁判放入與海量已決類案的比照和檢測中,通過測算它們之間的偏離度來提示和促使法官對個案裁判進行反思和檢討。裁判預測也能夠為法官判決提供檢測工具,促使法官在心理上對個案裁判進行對照性分析和反思。質(zhì)言之,人工智能的輔助決策功能和檢測功能其實就是讓法官裁判從對自我決策的論證轉(zhuǎn)向了對他者決策的論證,削弱了自我合理化論證中產(chǎn)生偏見的基礎(chǔ),“當我們在沒有輔助系統(tǒng)的情況下有時是在論證自我,而當輔助系統(tǒng)提供了決策前提時,我們是在論證他者,從而可以避免了偏見的產(chǎn)生”[注]葛翔:《司法實踐中人工智能運用的現(xiàn)實與前瞻——以上海法院行政案件智能輔助辦案系統(tǒng)為參照》,《華東政法大學學報》,2018年第5期,第74頁。。
綜上可知,在當前發(fā)展水平下,人工智能賦能個案正義的途徑主要有兩種:一是基于互聯(lián)網(wǎng)海量樣本復雜數(shù)據(jù)的大規(guī)模分析,對事件之間的相關(guān)性和相關(guān)性趨勢作出量化評價,然后通過量化評價達到改變主體對事件性質(zhì)的看法,換言之,就是通過全量信息歸納得出客觀結(jié)論,以此來排除主體囿于理性不足而導致的認識上的錯誤;二是通過大數(shù)據(jù)技術(shù)適度改變裁判推理模式和規(guī)范法官行為,以優(yōu)化裁判路徑的方式限制和防范法官恣意,從而達到增強判決可接受性的最終目的。與常規(guī)做法在價值層面上傾向于修辭說服不同,人工智能更擅長從全量經(jīng)驗歸納推理和裁判過程上來尋求和保障說服的效果。從這個角度來講,人工智能在提升判決可接受性上顯然比人類做得更好。
人工智能通過對海量非結(jié)構(gòu)化數(shù)據(jù)間相關(guān)關(guān)系的分析凝練出規(guī)律性的認識,為人們提供了政策結(jié)果或決策依據(jù)。這種基于互聯(lián)網(wǎng)海量樣本信息分析的“數(shù)據(jù)經(jīng)驗”歸納法,是“排除和肅清困擾人類心靈假象的‘對癥良藥’”[注][英]弗蘭西斯·培根:《新工具》,許寶骙譯,北京:商務印書館,1997年版,第19頁。,因而當被運用于司法裁判時,能夠幫助法官對特定案件情況形成客觀認識和評價,減少直覺、偏見甚至個人偏好對裁判的消極影響。然而,人工智能在司法裁判中的功能發(fā)揮在實踐中受到了諸多因素的限制,從而使得它在獲取個案正義方面具有一定程度的局限性。
第一,人工智能對大數(shù)據(jù)的分析和處理只能按照事先輸入的形式化指令來進行,無法滿足法官價值判斷時的語境化需求。由于計算機表征的高度形式化和計算的閉合性,司法人工智能在目前發(fā)展階段只能按照預先編制的裁判系統(tǒng)對案件進行處理,無法跟隨語境變化作出適應性改變,即使引入了深度學習和神經(jīng)網(wǎng)絡算法等人工智能新技術(shù),它對語境變化的適應能力也是很有限的??偟膩碚f,司法人工智能只是基于計算機算法而對具有特定意義的符號所進行的“形式裁判”而已[注]羅維鵬:《人工智能裁判的問題和歸納》,《國家檢察官學院學報》,2018年第9期,第23頁。。然而,審理非類型化案件需要法官作出更多的判斷和權(quán)衡,而判斷和權(quán)衡多是個案式的,通常要根據(jù)案件特定情況來展開,這就使得司法人工智能難以滿足司法裁判中法官在理解和評價案情上的語境化需求。以司法決策輔助系統(tǒng)都會用到的類案識別技術(shù)為例,目前類案識別的技術(shù)思路一般是依據(jù)已經(jīng)構(gòu)建好的知識圖譜,通過自然語義識別技術(shù)從海量文書中提取情節(jié),將每個案件結(jié)構(gòu)化和標簽化,然后將具備相似情節(jié)的案件進行整合分類,形成“類案”,用戶在使用時,只需勾選情節(jié)選擇,系統(tǒng)就能從已經(jīng)標簽化的案件大數(shù)據(jù)庫中匹配符合情節(jié)的案例進行推送[注]王祿生:《司法大數(shù)據(jù)與人工智能開發(fā)的障礙》,《中國法律評論》,2018年第2期,第49頁。。盡管類案識別技術(shù)已經(jīng)盡量照顧到了案件情節(jié)的多樣性,但在針對非類型化案件的裁判適用時仍然存在一些問題。一方面,類案識別的情節(jié)提取即使再全方位化和多樣化,也不可能做到完備無缺,然而系統(tǒng)只能根據(jù)預先確定的案情畫像進行比對和推送。非類型化案件的典型特征就是具有個殊性,其存在預先未被系統(tǒng)確定的情節(jié)要素情形的可能性極大,這樣,依照數(shù)據(jù)庫中既有的案情畫像很難找到與其匹配的類案。另一方面,目前的類案識別技術(shù)主要還是建立在對案件情節(jié)分析的基礎(chǔ)上,以情節(jié)相同或相似為類案標準,然而案件的相似性并不總是以情節(jié)相同或相似為基礎(chǔ),它有時還與對案件要素的法律評價有關(guān)。兩個案件即使有再多相同和相似的情節(jié),但如果都不具有法律評價上的決定意義,就不屬于法官所要尋找的類案;反之,如果兩個案件情節(jié)相同點或相似點很少甚至沒有,但只要具備法律評價上有決定意義的共同要素,那它們就屬于類案。而對案件要素的法律評價通常是根據(jù)案件具體情形來作出的,具有主觀化、差異化和復雜化的特征,很難用一套形式化的語言歸納和表達出來,不易被人工智能所表征和識別。因此,系統(tǒng)對類案的識別只能按照預先輸入的案情畫像來操作,這樣就很難滿足法官價值評價時的需求。換言之,對于非類型化案件裁判,法官有時也無法通過大數(shù)據(jù)運用獲取到合適的知識、經(jīng)驗或答案,或者說,大數(shù)據(jù)有時也會為司法裁判提供大量無用的信息。
第二,人工智能對于獲取個案正義的功能發(fā)揮高度依賴于數(shù)據(jù)的真實性和完整性,然而無論是實踐上還是理論上,獲取真實的和完整的數(shù)據(jù)都存在一定的難度。數(shù)據(jù)是人工智能存在的基礎(chǔ),但人工智能一般只對數(shù)據(jù)之間的相關(guān)性進行分析,無法對數(shù)據(jù)之間的因果關(guān)系進行闡釋,因此,當輸入不真實不完整的數(shù)據(jù)時,得出的就是無用片面的結(jié)論。人工智能的這一特性使得它的功能發(fā)揮必須以真實和完整的數(shù)據(jù)為前提。目前,我國司法人工智能的來源數(shù)據(jù)主要包括法律法規(guī)、司法解釋和網(wǎng)上公開的海量裁判文書等,其中網(wǎng)上公開的裁判文書是絕大多數(shù)司法輔助系統(tǒng)開發(fā)和運用的基礎(chǔ)。且不論數(shù)據(jù)來源比較單一,單就網(wǎng)上公開的裁判文書而言,通常就會遭遇以下幾個方面的真實性和完整性問題:從實踐上看,一方面,網(wǎng)上公布的裁判文書在數(shù)據(jù)整體上并不完全具備全樣本性,公布文書數(shù)量與實際結(jié)案數(shù)量相差較大,數(shù)據(jù)缺失問題比較嚴重,公開的裁判文書所涉及的案件類型也不全面[注]左衛(wèi)民:《邁向大數(shù)據(jù)法律研究》,《中國法學》,2018年第4期,第142頁。;另一方面,雖然各個裁判文書因撰寫者不同而風格各異,但因受制度和實踐等方面的規(guī)范限制而表現(xiàn)出一定程度的格式化問題,裁判信息不能得到充分顯示。從理論層面來看,即使是制作得再好的裁判文書也不可能是案例的鏡像,它雖然記錄了案件處理的過程和結(jié)果,但不可能展示出司法裁判的整體樣貌。一些諸如司法前見、結(jié)果導向、經(jīng)驗參與、事實裁剪、觀念輻射等司法隱形知識廣泛地存在于案件裁判的各個環(huán)節(jié)之中,并在司法判案中有它特定的位置[注]胡學軍,涂書田:《司法裁判中的隱形知識論綱》,《現(xiàn)代法學》,2010年第5期,第93頁。,甚至有時會對判決起著決定性作用,但它們無法被語言文字表達出來,因而不可能被裁判文書所記錄。因此,從裁判文書中并不能獲取裁判的完整信息,就算能夠獲取,也無法被人工智能語言所表征。此外,對于一些新穎案件,當法官不能從既有法律規(guī)范中找到判決答案時,便會從公開的裁判文書中搜索類似案例,但若裁判文書中只記錄了很小數(shù)量的類似案例,此時,法官便有可能會受到“小數(shù)定律”這一直覺偏見的影響,對小樣本的數(shù)據(jù)統(tǒng)計結(jié)果產(chǎn)生偏信,從而依照小樣本案例對新穎案件進行裁判。當直覺偏見經(jīng)由大數(shù)據(jù)進入司法裁判時,人工智能對于獲取個案正義的功能便在一定程度上被消解了。
第三,人工智能面臨著算法黑箱窘境。雖然算法黑箱并非總是發(fā)揮負面功能,如果運用合理,如將大學生食堂消費情況作為貧困生評定標準的算法,也可以起到彌補社會裂痕、維持社會共識的作用[注]丁曉東:《算法與歧視:從美國教育平權(quán)案看算法倫理與法律解釋》,《中外法學》,2017年第6期,第1622-1623頁。。但總體而言,人們一直在試圖努力破解黑箱問題,以避免人工智能的消極影響,比如2018年5月25日正式出臺的《歐盟通用數(shù)據(jù)保護條例》(GDPR),規(guī)定了數(shù)據(jù)主體的知情權(quán)、更正權(quán)、反對權(quán)和自動化個人決策相關(guān)權(quán)利,意圖加強算法問責和智能決策的透明度。從裁判角度來看,算法黑箱與司法公開原則直接相違背,忽視了決策過程的論辯性和交互性。個案正義要求裁判過程容納更多的價值判斷,而價值判斷不是計算就能處理的,它還需要通過主體間的交流、對話和論辯來解決,但算法黑箱致使裁判決策變成了自動封閉過程,缺乏論辯性和交互性,因此無法容納更多的價值判斷。此外,算法黑箱也可能導致算法歧視?!翱赡苡捎诰幊陶呦乱庾R地把自己的偏見編進了程序,也有可能由于數(shù)據(jù)本身就反映了社會偏見”[注]於興中:《算法社會與人的秉性》,《中國法律評論》,2018年第2期,第58-59頁。,算法的不透明性及專業(yè)性又使得這種偏見不能被及時發(fā)現(xiàn),最后導致出現(xiàn)歧視性結(jié)論。當算法歧視通過司法輔助系統(tǒng)出現(xiàn)在裁判過程中時,很難說它不會對法官判斷產(chǎn)生影響。如上文提及的COMPAS系統(tǒng),雖經(jīng)獨立機構(gòu)測試存在對黑人的算法歧視,但在美國威斯康辛州訴艾瑞克·盧米斯(Eric Ioomis)案中仍被采用對被告人進行量刑預測,且預測結(jié)果被法官所采納,從而引發(fā)了熱議[注]參見朱體正:《人工智能輔助刑事裁判的不確定性風險及其防范》,《浙江社會科學》,2018年第6期。。
由于人工智能的“認知”缺陷,價值判斷一直被認為是人工智能適用于司法的短板。然而,價值判斷是司法裁判不可回避的問題,特別是非類型化案件的審理。由此,司法人工智能研究必須圍繞價值判斷來展開。價值判斷在本質(zhì)上是一種基于信息和經(jīng)驗的選擇或決策。傳統(tǒng)的做法一般是法官只能基于自己所掌握的有限經(jīng)驗和信息來作出選擇或決策,大數(shù)據(jù)分析則通過對互聯(lián)網(wǎng)海量數(shù)據(jù)間的相關(guān)性分析為法官提供了全量樣本信息和“數(shù)據(jù)經(jīng)驗”,從而擴展了法官的認知水平,提升了法官理性判斷的能力。然而,價值判斷還關(guān)涉主體情感,盡管人工智能出現(xiàn)了諸如概率論和貝葉斯定理等計算工具,主體的情感選擇仍然是大數(shù)據(jù)分析所無法解決的問題。因此,當把主體的主觀性問題作為大數(shù)據(jù)分析的對象時,便會產(chǎn)生各種問題。