(廣東財(cái)經(jīng)大學(xué) 法學(xué)院,廣州 廣東 510320)
技術(shù)發(fā)展具備引起法律和司法在內(nèi)容和形態(tài)上的變革甚至重塑的力量,而人工智能在司法領(lǐng)域的興起可謂這一命題的最佳例證。在《人民法院第五個(gè)五年改革綱要(2019—2023)》中,對(duì)人工智能應(yīng)用于司法裁判寄予了厚望,認(rèn)為“充分運(yùn)用大數(shù)據(jù)、云計(jì)算、人工智能等現(xiàn)代科技手段,能破解改革難題、提升司法效能”。換言之,技術(shù)不僅被視為促進(jìn)制度改革的效率性工具,其本身就是直接達(dá)致改革目標(biāo)的關(guān)鍵一環(huán)。然而,實(shí)踐往往能暴露出構(gòu)想中不易察覺(jué)的張力,在此前不同法域的司法體制所進(jìn)行的或穩(wěn)健或激進(jìn)的嘗試中,法官與人工智能之間的關(guān)系引起了學(xué)界的爭(zhēng)論:人工智能是否將侵奪法官的裁判主體地位?但是,人們?cè)谟懻撨@一問(wèn)題時(shí)對(duì)人工智能的認(rèn)知和司法裁判性質(zhì)的理解不盡相同,那么在討論前提不相一致的情況下,就有必要厘清“當(dāng)人們?cè)谟懻撨@一問(wèn)題時(shí),他們實(shí)際上在討論什么”這一前置問(wèn)題。本研究指出人工智能輔助裁判系統(tǒng)的運(yùn)用將塑造并強(qiáng)化法官的前見(jiàn),但這并不意味著法官裁判主體地位將被侵奪,如果法官能保持對(duì)自身的批判性反思,那么人工智能的影響將止于輔助裁判,這對(duì)實(shí)現(xiàn)司法公正將大有裨益。
2018年6月28日,杭州互聯(lián)網(wǎng)法院在一起侵害作品信息網(wǎng)絡(luò)傳播權(quán)糾紛中,首次確認(rèn)了以區(qū)塊鏈技術(shù)進(jìn)行存證的電子數(shù)據(jù)的法律效力。無(wú)獨(dú)有偶,3個(gè)月后,在杭州市江干區(qū)法院受理的一起破產(chǎn)案件中,各債權(quán)人在區(qū)塊鏈技術(shù)的支持下,在債權(quán)人大會(huì)中對(duì)破產(chǎn)案件的各個(gè)事項(xiàng)進(jìn)行線上表決。區(qū)塊鏈,這個(gè)因比特幣而為人所知的新興名詞,開(kāi)始作為“可靠”“效率”的代名詞,以技術(shù)的面孔走進(jìn)中國(guó)司法。區(qū)塊鏈技術(shù)并非孤身而來(lái),它與大數(shù)據(jù)、云計(jì)算、人工智能等一系列技術(shù)共同描繪了一幅司法實(shí)務(wù)信息化的圖景。智慧法院系統(tǒng)是一系列技術(shù)的集合,而它們對(duì)司法過(guò)程的介入性質(zhì)與程度不盡相同,由此所延伸的討論方向亦有所區(qū)別。如何深入融合技術(shù)的革新與法治化進(jìn)程,將最新的科學(xué)技術(shù)用于驅(qū)動(dòng)司法改革的深度進(jìn)行,提升司法效率、司法公信力、公平正義實(shí)現(xiàn)等方面符合司法規(guī)律,必將成為當(dāng)下學(xué)界普遍關(guān)注的焦點(diǎn)問(wèn)題。關(guān)于智慧法院建設(shè)帶來(lái)的影響,可概括為形式性變革和實(shí)質(zhì)性介入。
1.形式性變革。即技術(shù)的運(yùn)用改變了司法工作外在形態(tài),比如以區(qū)塊鏈技術(shù)進(jìn)行線上投票代替當(dāng)面表決,通過(guò)電子卷宗和云柜流轉(zhuǎn)取代紙質(zhì)卷宗和現(xiàn)實(shí)移交等。這些技術(shù)改變了司法活動(dòng)場(chǎng)景和證據(jù)資料載體,而不涉及司法判斷的形成過(guò)程。換言之,形式性變革如同高鐵取代綠皮火車一樣,關(guān)涉工作效率,而無(wú)關(guān)事物性質(zhì),它使法官與其他法院工作人員從單調(diào)重復(fù)的事務(wù)中抽身而出,不在重復(fù)勞動(dòng)中耗費(fèi)司法資源。但是,形式性變革所觸及的問(wèn)題多是表面的、技術(shù)性的,如網(wǎng)絡(luò)系統(tǒng)的可靠性和電子數(shù)據(jù)的安全性等,并未觸及事務(wù)的本質(zhì),因而也非法理討論的主要面向。
2.實(shí)質(zhì)性介入。一般認(rèn)為,司法的過(guò)程即是法律適用的過(guò)程。而在成文法國(guó)家,法律適用的過(guò)程大致包括掌握待決事件、尋找對(duì)評(píng)價(jià)事實(shí)具有決定性意義的法律規(guī)范,將認(rèn)定的事實(shí)涵攝入相關(guān)的法律規(guī)范中,宣布法律后果[1]。在這一過(guò)程中,法官還需對(duì)條文作出法律解釋,并運(yùn)用自由裁量權(quán)以填補(bǔ)法律漏洞,又或?qū)崿F(xiàn)個(gè)案平衡。那么,實(shí)質(zhì)性介入就意味著技術(shù)(通常是依靠人工智能裁判輔助系統(tǒng))將影響到法官對(duì)法律適用的內(nèi)心判斷。當(dāng)法官在使用人工智能輔助裁判系統(tǒng)時(shí),他將源源不斷地接收到系統(tǒng)自主構(gòu)建的事實(shí),以及在大數(shù)據(jù)基礎(chǔ)上自主選擇的法律規(guī)范,并得到一個(gè)對(duì)人類而言是具有價(jià)值傾向性的判斷。實(shí)質(zhì)性介入是法學(xué)理論應(yīng)該探討的問(wèn)題,原因在于:在此意義上的人工智能已經(jīng)擺脫了“人使用工具”的單向關(guān)系,而是呈現(xiàn)出雙向交互的情形,法官在使用人工智能的同時(shí),人工智能也在悄無(wú)聲息地影響著法官的自由意志。
對(duì)此,有論者對(duì)人工智能(即使是弱人工智能)實(shí)質(zhì)性介入法官的判斷過(guò)程表示不安(1)有學(xué)者提出人工智能是激活了司法的活性還是促進(jìn)了司法的固化?是改變還是強(qiáng)化了對(duì)審判者的不當(dāng)監(jiān)督,甚至是監(jiān)控?如果沒(méi)有明確人工智能在司法改革中的地位,理性厘清確定其適用的限度,想當(dāng)然地推動(dòng)司法人工智能的應(yīng)用不但無(wú)益于審判質(zhì)量的提高與社會(huì)公正的實(shí)現(xiàn),而且會(huì)扭曲、擠壓、撕裂、阻礙與破壞司法體制改革。參見(jiàn)錢大軍:《司法人工智能的中國(guó)進(jìn)程:功能替代與結(jié)構(gòu)強(qiáng)化》,《法學(xué)評(píng)論》2018年第5期,第143-157頁(yè)。。而這種憂思并非杞人憂天。在威廉康星州訴盧米斯案中,根據(jù)人工智能輔助量刑系統(tǒng)“CPMPAS”的評(píng)估,法官判處盧米斯6年徒刑,此后,盧米斯根據(jù)憲法第六修正案確認(rèn)的“被告人有權(quán)知道被控告的理由”之原則,認(rèn)為人工智能的評(píng)估過(guò)程是不可獲知的“黑箱”,這違反了正當(dāng)程序,因而提起上訴。盡管初審法院駁回其上述申請(qǐng),且威廉康星州最高法院維持了該駁回決定,但州最高法院法官仍不無(wú)擔(dān)憂地建議:“法官在使用(CPMPAS進(jìn)行)風(fēng)險(xiǎn)評(píng)估時(shí)必須謹(jǐn)慎行事。為確保法官權(quán)衡風(fēng)險(xiǎn)評(píng)估,法院規(guī)定了如何將評(píng)估報(bào)告提交給法庭,以及法官如何使用這些評(píng)估”[2]。而在德國(guó),法律信息系統(tǒng)也引起了擔(dān)憂:“法律信息系統(tǒng)被集中運(yùn)用,但這不絕對(duì)是一個(gè)‘成果’,這里存在一個(gè)巨大的危險(xiǎn):證立程序被縮短了。這意指:根據(jù)在系統(tǒng)里被發(fā)現(xiàn)的既有判決,‘凝固化現(xiàn)象發(fā)生了’”[3]。這些憂慮共同指向了這樣一種情形:法官作為非技術(shù)人員,一方面,他們總是接收著官方輿論所傳遞的信號(hào)——人工智能輔助裁判系統(tǒng)更為精確和便捷;另一方面,法官在繁重的審判工作中很難保持一以貫之的良好思維狀態(tài)審視人工智能的建議,“個(gè)人不接受算法的建議往往是具有挑戰(zhàn)性和不尋常的”[2],如此,法官就有可能將原本需要反復(fù)權(quán)衡或者自由裁量的問(wèn)題交由人工智能輔助裁判系統(tǒng)決策。一言以蔽之,法官的獨(dú)立思考和判斷即使已被人工智能所遮蔽,卻依然對(duì)此一無(wú)所知。
如果認(rèn)為司法是內(nèi)蘊(yùn)公共理性和道德原則的事業(yè),那么法官的主體地位和獨(dú)立判斷就值得捍衛(wèi)。人工智能輔助裁判系統(tǒng)對(duì)法官思考的影響就應(yīng)當(dāng)?shù)玫絿?yán)肅對(duì)待。但這個(gè)問(wèn)題不適合直接從“應(yīng)當(dāng)如何預(yù)防”開(kāi)始,而首先需要厘清問(wèn)題的性質(zhì),否則所提供的方案就不是解決問(wèn)題而僅僅是改變現(xiàn)象。因此,本研究將從兩個(gè)層面來(lái)分析這一問(wèn)題:第一,從法理論的角度厘清人工智能輔助系統(tǒng)對(duì)法官影響的性質(zhì);第二,指出法官主體性地位與人工智能輔助裁判系統(tǒng)相協(xié)調(diào)的進(jìn)路。
人工智能輔助裁判系統(tǒng)影響法官獨(dú)立判斷,大致可以歸納為兩種情形。一是,法官將依賴人工智能輔助裁判系統(tǒng)而放棄自身思考。季衛(wèi)東教授認(rèn)為:“在受理案件數(shù)激增和法定審理期限剛性規(guī)定的雙重壓力下,加上人的思考惰性,或遲或早會(huì)出現(xiàn)法官過(guò)度依賴參考判決處理案件的傾向。一旦這樣的情況司空見(jiàn)慣,算法獨(dú)裁就無(wú)從避免”[4]。的確,在“案多人少”的司法現(xiàn)狀下,過(guò)度依賴是引入人工智能輔助裁判系統(tǒng)可能出現(xiàn)的后果,但是,這一后果并不根屬于人工智能,而涉及法官職業(yè)倫理規(guī)范問(wèn)題。原因在于,根據(jù)親歷性原則,只有經(jīng)歷了案件審理的法官才有資格作出裁判。因此,過(guò)度依賴的問(wèn)題不在于人工智能,而在于法官放棄了本應(yīng)堅(jiān)守的職業(yè)倫理。換言之,與其說(shuō)人工智能遮蔽了法官的獨(dú)立思考,不如說(shuō)是法官放棄了自己作為法官的角色責(zé)任。
另一種情形或許更值得關(guān)注,即人工智能輔助裁判系統(tǒng)將潛移默化地塑造了法官的前見(jiàn)。有學(xué)者用錨定效應(yīng)對(duì)此進(jìn)行闡述。錨定效應(yīng)指人們往往依賴對(duì)事物的第一印象來(lái)作出決策,卻對(duì)有關(guān)該事物的后續(xù)情報(bào)相對(duì)麻木,或即使作出了某些偏離于被錨定印象的策略調(diào)整,調(diào)整的幅度也要小于正確決策所需要的幅度[5]。司法論證包含了事實(shí)認(rèn)定、規(guī)范適用和價(jià)值衡量三重考量,而隨著技術(shù)更新和推廣,人工智能輔助裁判系統(tǒng)有能力將錨定效應(yīng)貫穿于法官思考的各個(gè)環(huán)節(jié)。
第一,在事實(shí)裁剪上,法官評(píng)價(jià)案件事實(shí)前需從客觀事實(shí)中截取具有法律意義的法律事實(shí),事實(shí)取舍是法官依據(jù)案情和經(jīng)驗(yàn)所作出的帶有主觀性的判斷。而人工智能輔助裁判系統(tǒng)的功能之一便是在法官接收案件信息前對(duì)紛繁復(fù)雜的事實(shí)進(jìn)行梳理,形成案情關(guān)系圖,這意味著在法官尚未獨(dú)立對(duì)案件事實(shí)形成見(jiàn)解前,人工智能所組織和認(rèn)定的案情脈絡(luò)無(wú)疑影響法官此后對(duì)事實(shí)的理解。
第二,在規(guī)范適用上,個(gè)案裁判是從抽象規(guī)范適用于個(gè)別事實(shí)的過(guò)程,其中不免存在需要進(jìn)行規(guī)范選擇和法律解釋的情形,這要求法官憑依對(duì)法律的理解和司法技藝審慎選擇,但類案推送系統(tǒng)等卻可以篩選相似的類案,“人工智能不但有能力識(shí)別出同類判決的海量數(shù)據(jù),并且將它們進(jìn)行合適的分類,然后在此基礎(chǔ)上分析、總結(jié)出基本模型,然后再將所獲得的模型應(yīng)用到待決案件中”[6],換言之,法官可不就個(gè)案進(jìn)行法律論證,因?yàn)槿斯ぶ悄芤呀?jīng)通過(guò)類案推送告知其同類型個(gè)案裁判中所作出的選擇和解釋。這看似與類案類判的目標(biāo)相符合,但類案類判的價(jià)值在于為法官的個(gè)案論證和法律解釋提供相對(duì)具體的標(biāo)準(zhǔn),是以論證達(dá)致類案的結(jié)果;而將人工智能輔助裁判系統(tǒng)總結(jié)的同類案件裁判模型適用于待決個(gè)案中,卻是摒除了法官論證的從類案到本案的過(guò)程。
第三,在自由裁量權(quán)上,法律規(guī)范中本身留存有法官依據(jù)具體情境進(jìn)行價(jià)值判斷的空間,而人工智能可以在“黑箱”中把種種本應(yīng)法官留待裁量的因素進(jìn)行量化,繼而輸出結(jié)果。法官作出裁判時(shí)總是希望得到一定依據(jù)的支持,而在進(jìn)行價(jià)值衡量時(shí)法律規(guī)范很難直接為此提供支撐,那么人工智能所提供的量刑意見(jiàn)就填補(bǔ)了這一缺位,但如前所述,不論如何強(qiáng)調(diào)系統(tǒng)的輔助性質(zhì)和參考功能,法官都難以在既不了解算法的邏輯,又沒(méi)有其他依據(jù)的情形下不依賴于算法作出決策。
總言之,上述分析可以歸納為:在法官對(duì)原始材料進(jìn)行研讀并形成初步判斷前,人工智能輔助裁判系統(tǒng)就已經(jīng)為他提供了一個(gè)基于機(jī)器學(xué)習(xí)和分析所得出的結(jié)論。因此,就不能排除法官在錨定效應(yīng)作用下,不知不覺(jué)地受人工智能的影響,那么,“AI司法在大數(shù)據(jù)先例中侵奪了法官裁判的司法創(chuàng)造性”[7],法官在此后閱卷、庭審和合議的過(guò)程中,就很難說(shuō)是在獨(dú)立思考和判斷了。
事實(shí)上,這種影響依然是對(duì)一個(gè)屢遭考驗(yàn)的理想法院模型的挑戰(zhàn):理想法院模型設(shè)定了一個(gè)“獨(dú)立法官”——法官應(yīng)當(dāng)獨(dú)立地認(rèn)定事實(shí)并適用法律,僅憑借自己的理性和良心,運(yùn)用司法三段論進(jìn)行推理并得出結(jié)論。對(duì)此,法律現(xiàn)實(shí)主義已經(jīng)意識(shí)到,法官的思維不可能遺世獨(dú)立而徘徊在法律世界中,相反,法官作出判斷時(shí)必然無(wú)法排除自身的前見(jiàn)。
法律現(xiàn)實(shí)主義認(rèn)為,由于法律的不確定性,法官不可能像法律形式主義描繪的那樣,在規(guī)則自足的體系中依憑三段論的邏輯推理得出結(jié)論,因此,法學(xué)研究的重心應(yīng)當(dāng)從法律規(guī)則轉(zhuǎn)向法官行為。法律現(xiàn)實(shí)主義主張,既有法律規(guī)范不是判決的唯一正當(dāng)化依據(jù),相反,大量事實(shí)性因素如社會(huì)制度和現(xiàn)象、傳統(tǒng)與流行文化和實(shí)證科學(xué)研究成果都影響著判決的形成。這些因素一方面是法官?zèng)Q策時(shí)所需要考慮的法律外部思想譜系,另一方面它們亦悄無(wú)聲息地通過(guò)塑造法官的個(gè)性和價(jià)值觀念乃至偏見(jiàn)融入司法決策過(guò)程中。事實(shí)懷疑論者弗蘭克提出了R(規(guī)則)×SF(主觀事實(shí))=D(判決)公式,認(rèn)為法官所認(rèn)定的案件事實(shí)實(shí)際上是一種“主觀事實(shí)”,法官的個(gè)人經(jīng)歷將影響他對(duì)不同身份的當(dāng)事人或證人的看法,法官并不是在摹刻客觀真相,而是在以自己主觀感知建構(gòu)他所認(rèn)同的“故事”,也就是說(shuō),“法官搜集到的各種證據(jù)以及他用以回構(gòu)案情的其他片段事實(shí)……不同敏銳程度以及不同閱歷的法官很可能面對(duì)同樣的證據(jù)卻得出不同的結(jié)論”[8],他認(rèn)為法官的論證實(shí)際上是一種從結(jié)論到前提的逆向推理:法官因其自身經(jīng)歷和價(jià)值判斷形成結(jié)論后,再回過(guò)頭去尋覓能得出這一結(jié)論的規(guī)范。波斯納坦率地表明:“情感、人格、道德直覺(jué)、意識(shí)形態(tài)、政治、背景以及經(jīng)歷將決定一位法官的決定”[9]。以麥考利為代表的新法律現(xiàn)實(shí)主義在裁判理論上基本繼受了法律現(xiàn)實(shí)主義的論點(diǎn),通過(guò)拓展研究視野和改進(jìn)研究方法增強(qiáng)這些基本觀點(diǎn)的信度。新法律現(xiàn)實(shí)主義者關(guān)注到“大多數(shù)早期法律現(xiàn)實(shí)主義者的研究重點(diǎn)是上訴法官的裁判”[10]且缺乏量化分析的局限,新法律實(shí)證主義在方法論上強(qiáng)調(diào)定量研究,將那些慣常認(rèn)為影響法官?zèng)Q策的非規(guī)范性因素予以量化,使司法裁判受法官前見(jiàn)影響這一結(jié)論清晰化,更具可靠性。而法律現(xiàn)實(shí)主義者對(duì)司法論證和法官前見(jiàn)的洞見(jiàn),也為其他法學(xué)流派所承認(rèn),即使是法律過(guò)程主義對(duì)法律現(xiàn)實(shí)主題的批判也建立在此基礎(chǔ)上。
故此,法官前見(jiàn)是司法過(guò)程中所不可避免的既存事實(shí),而非人工智能輔助裁判系統(tǒng)所獨(dú)具。法律現(xiàn)實(shí)主義者們?cè)诜ü倥袛嗟膯?wèn)題上,不論是溫和還是激進(jìn),不論是強(qiáng)調(diào)普遍性情感抑或個(gè)人偏見(jiàn),都已經(jīng)得出同樣的結(jié)論:法官判斷時(shí)無(wú)可避免受其前見(jiàn)的影響,而其前見(jiàn)的形成則來(lái)自于法官所經(jīng)歷的一系列外部因素。實(shí)際上,這也是在哲學(xué)上自由意志論者所反復(fù)遭受到的來(lái)自決定論的詰難:每個(gè)人的行動(dòng)和選擇都有著其解釋性的原因,如果存在解釋性的原因,那么人們做出某個(gè)行為就不是依據(jù)自己的意志做出的[11]。但這并不是說(shuō)無(wú)需關(guān)注人工智能輔助裁判系統(tǒng)對(duì)法官的影響,而是說(shuō),前見(jiàn)與法官獨(dú)立判斷并不必然對(duì)立,否則后者不過(guò)是哈特所言的“高貴之夢(mèng)”。如果二者具有調(diào)和的可能性,就有必要界定人工智能輔助裁判系統(tǒng)介入法官判斷過(guò)程的界限。
事實(shí)上,法官在判斷過(guò)程中其前見(jiàn)和偏好的確無(wú)可避免,然而,法官帶有什么樣的看法去理解案件事實(shí)和法律規(guī)范,與法官最終所提供的判決理由并不相同,故問(wèn)題不在于如何排除前見(jiàn)而“關(guān)鍵就在于裁判者能夠?yàn)槠鋫€(gè)人判斷提供什么樣的理性化或正當(dāng)化辯護(hù)”[12]。這就要求法官能夠根據(jù)司法德性所要求的一系列原則——“權(quán)衡選擇時(shí)的公正和中立;考慮到影響所及的每個(gè)人的利益;以某些廣為接納的普遍原則作為判決的推論基礎(chǔ)”[13]作為約束性的道德標(biāo)準(zhǔn),用以審視自身判斷的形成過(guò)程,審慎并批判性地發(fā)現(xiàn)和反思影響其判斷的前見(jiàn),思考其是否具有正當(dāng)?shù)霓q護(hù)理由,繼而過(guò)濾掉不合理的前見(jiàn)。換言之,法官在思考案件應(yīng)當(dāng)如何處理的過(guò)程中,即使是基于前見(jiàn)甚至某種偏好而形成初次判斷甚至是因此作出裁判,但正如法律方法論的捍衛(wèi)者所主張的那樣,“發(fā)現(xiàn)”法律結(jié)論和“論證”法律裁判結(jié)果是司法裁判中共存,但性質(zhì)不同的兩種思維過(guò)程。不論法官如何“發(fā)現(xiàn)”結(jié)論,重要的是法官能否為這個(gè)結(jié)論提供合乎法律規(guī)范的論證,而論證過(guò)程也正是法官檢驗(yàn)和反思其前見(jiàn)是否合法和適當(dāng)?shù)倪^(guò)程,法律規(guī)范本身就是反思的檢驗(yàn)標(biāo)尺,如果該結(jié)論或相應(yīng)論據(jù)并無(wú)法律理由的支持,那么法官將意識(shí)到或者不得不承認(rèn)其前見(jiàn)應(yīng)當(dāng)被摒除。
據(jù)此,即使法官為前見(jiàn)所纏繞,他的自由意志和獨(dú)立判斷依然能在反思中實(shí)現(xiàn),而進(jìn)行反思性思考本身又是法官應(yīng)當(dāng)遵循的責(zé)任之一。進(jìn)言之,在人工智能時(shí)代,法官的反思性思考愈發(fā)應(yīng)當(dāng)?shù)玫街匾?2)當(dāng)然,在立法和制度設(shè)計(jì)層面明確人工智能輔助裁判系統(tǒng)的司法程序和應(yīng)用領(lǐng)域,對(duì)回答如何消解人工智能輔助裁判系統(tǒng)的潛在危機(jī)并發(fā)揮其正面價(jià)值,同等重要。但制度設(shè)計(jì)和應(yīng)用策略在研究上依賴于經(jīng)驗(yàn),上述的討論方向建立在這一前提之上:司法實(shí)踐中關(guān)于人工智能輔助裁判系統(tǒng)所涉及面向足夠全面,在不同類型不同地域的司法裁判中得以運(yùn)用。然而,目前人工智能輔助裁判系統(tǒng)在國(guó)內(nèi)的應(yīng)用依然有限,不足以形成有代表性的討論資料,正因它們?nèi)绱酥匾?,因此?duì)制度設(shè)計(jì)和應(yīng)用策略應(yīng)當(dāng)建立在更加全面的實(shí)證基礎(chǔ)上才是審慎的。。盡管在人工智能輔助裁判系統(tǒng)之前,“法官也會(huì)基于個(gè)人好惡或價(jià)值判斷,不自覺(jué)地對(duì)待案件形成預(yù)判,但這樣的預(yù)判是抽象模糊的,通過(guò)回避、合議、人民陪審、證據(jù)規(guī)則等制度設(shè)計(jì),能將這樣的負(fù)面效應(yīng)降到最低”[14],而如今法官前見(jiàn)卻是由技術(shù)以精確化的數(shù)據(jù)、可視化的事實(shí)所塑造。如果法官不能保持對(duì)自身在司法裁判中主體性地位的反思性認(rèn)同,那么制度化的措施就難言有效——既然人工智能可以提供數(shù)據(jù),那么人的判斷和略顯冗長(zhǎng)的訴訟程序有什么意義呢?因此,這種反思還應(yīng)當(dāng)是對(duì)自身主體性的反思。也即,法官不僅反思裁判結(jié)論是否正確,而且把自己的思維過(guò)程作為反思對(duì)象,審視融于自己判斷中的前見(jiàn),發(fā)現(xiàn)并廓清那些塑造自我前見(jiàn)的因素,從而評(píng)價(jià)并調(diào)整對(duì)待這些前見(jiàn)時(shí)的意識(shí)。正因人擁有將自己對(duì)象化并以第三人視角審視自身的能力,“我把自己也看做對(duì)象,嘗試用一種好像是‘別人’的眼光來(lái)看我自己,這就是反思”[15],在面對(duì)人工智能輔助裁判系統(tǒng)時(shí),法官可以反思并把握二者之間應(yīng)有的尺度,而不至于陷入“算法成為無(wú)所不能的先知后,就會(huì)進(jìn)一步演變成代理人,最后成為君主”的境地[16]。
但這或許會(huì)遇到這樣的反駁:目前人工智能的內(nèi)部運(yùn)作對(duì)人類而言依然是“黑箱”,法官不知其中機(jī)理又如何反思?但這也恰恰揭示了本研究所欲闡明的態(tài)度——在人工智能與法官判斷的問(wèn)題上,討論重心應(yīng)當(dāng)回到法官本身。技術(shù)問(wèn)題和技術(shù)的規(guī)范問(wèn)題并不矛盾。技術(shù)問(wèn)題不可避免地涉及技術(shù)原理,因而一切討論都建立在掌握理論知識(shí)和進(jìn)行科學(xué)實(shí)驗(yàn)之上。因此,對(duì)于科學(xué)家和工程師來(lái)說(shuō),在打開(kāi)“黑箱”上取得突破的確是深入思考人工智能問(wèn)題的必要條件。但技術(shù)的規(guī)范問(wèn)題并不向內(nèi)探索技術(shù)本身,而是聚焦于技術(shù)與諸多公共原則的關(guān)系。換言之,規(guī)范問(wèn)題關(guān)注的不是技術(shù)本身,而是技術(shù)運(yùn)用的效應(yīng)問(wèn)題,是對(duì)技術(shù)所涉及的一系列價(jià)值的衡量。那么,法官所面對(duì)的同樣不是一個(gè)技術(shù)問(wèn)題,法官并不是通過(guò)思考人工智能輔助裁判系統(tǒng)的技術(shù)如何,從而得出結(jié)論認(rèn)為人工智能是否可靠,而是反思應(yīng)當(dāng)以怎樣的原則對(duì)待技術(shù)。與其說(shuō)法官在反思人工智能輔助裁判系統(tǒng)問(wèn)題,不如說(shuō)法官在反思其自身。
法官前見(jiàn)在性質(zhì)上大致可以分成生活經(jīng)驗(yàn)和法律知識(shí)兩個(gè)方面[17]。法官的社會(huì)人身份決定了他的人生閱歷和經(jīng)驗(yàn)會(huì)構(gòu)成其前見(jiàn)的重要部分,其往往會(huì)把此類經(jīng)驗(yàn)看作是生活常識(shí),從而可能導(dǎo)致前見(jiàn)發(fā)生偏差。而法官所獲得的法學(xué)知識(shí)除來(lái)自法學(xué)教育以外,還有個(gè)人體悟。由于生活經(jīng)驗(yàn)先入為主,司法理念的混亂最終也會(huì)導(dǎo)致法官前見(jiàn)的偏離。同理,時(shí)至今日,人工智能主流技術(shù)在本質(zhì)上并未突破圖靈機(jī)的架構(gòu),對(duì)于人工智能發(fā)展最為核心的驅(qū)動(dòng)——算法邏輯——并沒(méi)有根本性的革新,沒(méi)有從根本上解決類似人類大腦神經(jīng)元的思維方式構(gòu)建,仍然處在弱人工智能階段。那么,人工智能輔助裁判系統(tǒng)推送的案例、文書等大多要依賴于算法的邏輯,而算法邏輯的設(shè)計(jì)又往往很難規(guī)避設(shè)計(jì)者的偏見(jiàn),因而才會(huì)出現(xiàn)COMPAS危險(xiǎn)指數(shù)上的偏差[3]。退一步講,即便能夠有效的避免所謂算法歧視,人工智能大數(shù)據(jù)的判斷趨勢(shì)會(huì)不會(huì)顯示出裁判的普遍性偏見(jiàn)呢?這樣問(wèn)題就回到了本研究所強(qiáng)調(diào)的觀點(diǎn),法官不是反思人工智能本身,毋寧說(shuō)法官應(yīng)在反思性思考中逐步修正前見(jiàn)的偏差。
因此,盡管法官前見(jiàn)無(wú)可避免,但如果法官能夠保持反思性的思考,審視并評(píng)價(jià)影響其裁判的諸多要素,那么人工智能所造成的影響便是可化解的。如前所述,就目前已運(yùn)用于司法實(shí)踐中的人工智能皆為弱人工智能,而它所塑造的法官前見(jiàn)在性質(zhì)上并未超越法現(xiàn)實(shí)主義者的論述,那么那些捍衛(wèi)司法過(guò)程、法律論證及判決之規(guī)范性的策略依然是有效的,如以理性商談和論辯過(guò)程為核心的司法程序,以及通過(guò)法律論證,賦予裁判結(jié)論以法律上的正當(dāng)性。
哈特認(rèn)為:“一個(gè)具有空洞形式的正義原則,如果不能就其內(nèi)容進(jìn)行具體化的填補(bǔ)工作,該正義原則自身必然顯現(xiàn)為某種極不完備的狀態(tài),也就無(wú)法給我們的行動(dòng)提供任何可以依賴的指示”[13]。對(duì)于法官的主觀評(píng)斷應(yīng)當(dāng)如何規(guī)制,學(xué)界既已形成諸多創(chuàng)見(jiàn)性理論。比如麥考密克要求法官作出價(jià)值判斷后進(jìn)行“一致性和協(xié)調(diào)性論辯”[18],確保其結(jié)論既不與法律設(shè)立的條款存在沖突,也與法律體系整體的價(jià)值目標(biāo)相協(xié)調(diào);而恩施特在堅(jiān)持法律方法規(guī)范法官思維這一基本立場(chǎng)的同時(shí),承認(rèn)法官的個(gè)人評(píng)價(jià)促進(jìn)司法裁判和法律發(fā)展的必要性,法律不是僅具有唯一不變答案的規(guī)范體系,法律方法論也不必是得出客觀正確結(jié)論的教條,而是一種可以與主觀評(píng)價(jià)并存的,同時(shí)或交替進(jìn)行的規(guī)范性思維,其目的是“使法律發(fā)現(xiàn)活動(dòng)盡可能客觀的規(guī)范性理解”[19]。當(dāng)然,人工智能有著與以往其他產(chǎn)生前見(jiàn)的因素不同的形態(tài)和影響力。因此,即使確認(rèn)人工智能所造成的法官前見(jiàn)最終需以法官的反思性思考應(yīng)對(duì),在未來(lái)仍需對(duì)這項(xiàng)原則作進(jìn)一步細(xì)化。
在智能化的浪潮下,人工智能輔助裁判系統(tǒng)展現(xiàn)出在減少機(jī)械性工作、提高司法效率等方面的巨大潛力。面對(duì)人工智能帶來(lái)的隱憂,不能以去技術(shù)化的方式對(duì)抗其介入,思考的方向應(yīng)為人與技術(shù)應(yīng)當(dāng)如何適調(diào)。對(duì)此,不論出于何種立場(chǎng),學(xué)界對(duì)這一問(wèn)題的基本共識(shí)是:目前的人工智能與法官只能是工具與人的關(guān)系而非替代關(guān)系。如果堅(jiān)持以工具主義的立場(chǎng)對(duì)待人工智能,那么對(duì)如何改進(jìn)和調(diào)整工具的思考固然必不可少,一切討論的出發(fā)點(diǎn)都應(yīng)當(dāng)在于使用工具的人。在人工智能時(shí)代,法官不僅是裁判的決策者,而且應(yīng)當(dāng)是那些或潛藏或顯明的決策影響因素的慎思者。