毛春泉 錢 燁
江蘇新天倫(吳江)律師事務(wù)所,江蘇 蘇州 215200
《中國(guó)互聯(lián)網(wǎng)發(fā)展報(bào)告2021》指出,2020 年我國(guó)數(shù)字經(jīng)濟(jì)的總體規(guī)模高達(dá)39.2 萬(wàn)億元,占GDP 的比重達(dá)到38.6%;美國(guó)、英國(guó)、德國(guó)數(shù)字經(jīng)濟(jì)占GDP 的比重均已超過(guò)60%,數(shù)字經(jīng)濟(jì)在國(guó)民經(jīng)濟(jì)中的地位不斷提升。在此背景下,人工智能作為數(shù)字經(jīng)濟(jì)的重要組成部分成為各國(guó)發(fā)展的重點(diǎn)。利益衡量作為法官常用的法律方法,其必然會(huì)被納入司法人工智能的應(yīng)用范圍內(nèi)。
21 世紀(jì),我國(guó)司法領(lǐng)域掀起了人工智能熱。起初是為了應(yīng)對(duì)法院“案多人少”的難題。隨著浙江省在線法院的成功,國(guó)家開始推動(dòng)“智慧法院”建設(shè),于是全國(guó)各地法院開始運(yùn)用人工智能技術(shù)。例如安徽高院的“類案指引項(xiàng)目”、最高法的“法信——中國(guó)法律應(yīng)用數(shù)字網(wǎng)絡(luò)服務(wù)平臺(tái)”。[1]這些應(yīng)用雖然提高了法院裁判效率,但依然處于“互聯(lián)網(wǎng)+法律”的簡(jiǎn)單模式下。隨著技術(shù)進(jìn)步,司法人工智能開始向“人工智能+法律”模式轉(zhuǎn)變,如北京高院的“睿法官”、上海刑事案件“206 系統(tǒng)”、重慶江北區(qū)的金融案件“類案智能專審平臺(tái)”、江蘇蘇州中院的“智慧法院”模式等等。
由此可看出雖然各地司法人工智能項(xiàng)目名稱不同、應(yīng)用方向不同,但其功能均涵蓋在類案推送、裁量預(yù)測(cè)模塊中。[2]并且各地探索司法人工智能時(shí)均以一類案件作為研究方向,如上?!?06系統(tǒng)”以及北京“睿法官”主要應(yīng)用于刑事案件,重慶則以金融案件為突破口。此外這些司法人工智能的輔助方向主要在裁量結(jié)果上,其作用均是結(jié)論性的、直接性的,但司法人工智能應(yīng)用于審判中的過(guò)程性行為(如個(gè)案中的利益衡量)研究較少。
隨著人工智能技術(shù)日趨成熟,與司法審判結(jié)合愈發(fā)緊密,勢(shì)必會(huì)帶來(lái)一個(gè)問(wèn)題:人工智能在司法中的利益衡量與法律適用能否作為裁判依據(jù)?筆者認(rèn)為在較長(zhǎng)一段時(shí)間內(nèi),司法中涉及利益衡量與法律適用時(shí),人工智能應(yīng)當(dāng)處于輔助地位——即建立“人主智輔”的庭審模式。
利益衡量是指法官在司法過(guò)程中所采用的一種法律方法,這種法律方法要求法官在查明案情后,需要綜合把握案件實(shí)質(zhì),找出案件利益沖突,結(jié)合經(jīng)濟(jì)狀況、生活經(jīng)驗(yàn)、社會(huì)環(huán)境、價(jià)值觀念、宗教信仰等,按照特定的且符合法律或法律之精神的價(jià)值標(biāo)準(zhǔn),對(duì)利害關(guān)系比較衡量,最終做出利益抉擇。[3]可以看到法官進(jìn)行利益衡量時(shí)的核心是其內(nèi)心存在一個(gè)價(jià)值判斷標(biāo)準(zhǔn),因此人工智能獨(dú)立完成利益衡量的關(guān)鍵是模擬法官內(nèi)心的價(jià)值位階。
一方面,現(xiàn)階段的司法人工智能主要通過(guò)法律大數(shù)據(jù)和算法對(duì)案件進(jìn)行預(yù)測(cè)裁判,沒(méi)有自我意識(shí),無(wú)法突破算法模型框架進(jìn)行自我進(jìn)化,仍屬于弱人工智能。弱人工智能雖然具有超強(qiáng)的運(yùn)算能力,但因嚴(yán)重脫離社會(huì)生活且受制于算法,弱人工智能得到的利益衡量標(biāo)準(zhǔn)較為單一、僵化。
另一方面,司法人工智能應(yīng)用模式與利益衡量方法的受案范圍并不兼容。法官在適用利益衡量時(shí)需具備前提條件:第一,案件中須有兩個(gè)及兩個(gè)以上的利益發(fā)生沖突,且每種利益均是法律所保護(hù)的;第二,這些利益之間是非此即彼的關(guān)系,法官無(wú)法通過(guò)現(xiàn)有的法律作出合理判決,使這些利益都得到一定的滿足;第三,一般情況下只有出現(xiàn)不確定概念、一般條款或法律漏洞時(shí)需要補(bǔ)充解釋的,才會(huì)運(yùn)用到利益衡量方法??梢钥吹剑婧饬糠椒ǘ鄶?shù)應(yīng)用于復(fù)雜疑難案件,對(duì)于一般的常規(guī)案件利益衡量方法運(yùn)用空間較為狹隘,利益衡量方法更多關(guān)注的是案件的“個(gè)性”。反觀司法人工智能,其在司法中的應(yīng)用模式主要以大數(shù)據(jù)積累為前提,通過(guò)機(jī)器算法對(duì)海量的裁判文書進(jìn)行分析學(xué)習(xí),最后獲取法官集體審判經(jīng)驗(yàn),因此司法人工智能更多關(guān)注的是案件的“共性”。由此可見,人工智能司法中的一般應(yīng)用模式與利益衡量方法的受案范圍有著明顯的矛盾。
雖然法律包含了諸多的內(nèi)涵,但由于語(yǔ)言和符號(hào)的限制,其很難將所有的情感和精神表現(xiàn)出來(lái)。拋開其他,記載在紙面上的法律一直處于不圓滿的狀態(tài),而法官的利益衡量過(guò)程就是通過(guò)自身理性與智慧的結(jié)合,將法律的內(nèi)涵釋放出來(lái),利益衡量中不僅包含了法官的形式推理,還有法官基于價(jià)值判斷所得出的實(shí)質(zhì)推理,是對(duì)案件情況具體問(wèn)題具體分析,通過(guò)自由裁量所得到的其認(rèn)為最具公平正義的判決。而現(xiàn)階段的人工智能司法中的利益衡量?jī)H僅是依托大數(shù)據(jù)和算法模型,結(jié)合簡(jiǎn)單的學(xué)習(xí)運(yùn)算得出“2>1”的結(jié)論,法官的利益衡量過(guò)程絕不是冷冰冰的符號(hào)運(yùn)算所能代替的。在法官眼中法律是一種價(jià)值體系,但在人工智能眼中法律只是一種形式上的規(guī)則秩序,人工智能與社會(huì)生活的隔離致使其價(jià)值判斷時(shí)僅僅是純粹的法理推演而缺少情理判斷。當(dāng)人工智能取代法官獨(dú)立進(jìn)行利益衡量時(shí),法律只剩下冰冷的邏輯推理,喪失了其內(nèi)在的溫暖、價(jià)值。
審判過(guò)程中,法官采用利益衡量方法時(shí)必定會(huì)摻雜個(gè)人的價(jià)值判斷,這種價(jià)值判斷受到多方面的影響,尤其是法官的意識(shí)形態(tài)、種族、閱歷、宗教信仰等,這些影響因素構(gòu)成了引導(dǎo)法官價(jià)值判斷的“前理解”。如果這種“前理解”轉(zhuǎn)變?yōu)榉ü俚南热胫?,這種情況下法官的利益衡量標(biāo)準(zhǔn)很容易倒向不正義的一方,濫用利益衡量。因此,人工智能需要參與到利益衡量過(guò)程中。
案件中的沖突利益是法官利益衡量的出發(fā)點(diǎn)和基礎(chǔ),法官在遇到疑難案件時(shí)的第一步即通過(guò)案件事實(shí)和當(dāng)事人具體情況來(lái)剖析案件中的利益。因此,分析案件中的利益越詳細(xì)、越深刻,法官在進(jìn)行利益衡量時(shí)就越容易把握住案件公平公正之脈絡(luò)。眾所周知,人工智能擁有極強(qiáng)的運(yùn)算能力,其可以通過(guò)算法模型來(lái)展現(xiàn)案件事實(shí)以及當(dāng)事人具體情況,進(jìn)而分析案件的利益沖突。案件事實(shí)主要通過(guò)對(duì)證據(jù)的判斷來(lái)認(rèn)定,當(dāng)事人的具體情況主要涉及當(dāng)事人的年齡、性別、民族、生活習(xí)慣、宗教信仰等等,這些影響價(jià)值判斷的因素都可以通過(guò)人工智能全方位地展示出來(lái)。此外,當(dāng)證據(jù)與案件事實(shí)的聯(lián)系較為模糊,需要法官進(jìn)行蓋然性判斷時(shí),可能會(huì)因?yàn)椴粶?zhǔn)確而偏離事實(shí),人工智能可以通過(guò)貝葉斯公式量化案件中的證據(jù)要素和證據(jù)結(jié)論的相關(guān)性,直接表現(xiàn)證據(jù)與案件事實(shí)的關(guān)聯(lián)程度,避免法官在蓋然性判斷時(shí)作出直覺(jué)性的處理。[4]人工智能的大數(shù)據(jù)分析能力可以將當(dāng)事人在互聯(lián)網(wǎng)上的信息整合,使法官進(jìn)一步了解當(dāng)事人情況。當(dāng)然,在運(yùn)用人工智能的同時(shí),也要加強(qiáng)當(dāng)事人信息的保護(hù),以免侵犯當(dāng)事人的合法權(quán)益。[5]最后,通過(guò)人工智能引導(dǎo)法官分析案件事實(shí)以及當(dāng)事人自身情況,將案件事實(shí)客觀公正地呈現(xiàn),能夠盡可能地降低法官的“前理解”在利益衡量時(shí)的負(fù)面影響。
法官在處理案件時(shí)會(huì)遇到紛繁復(fù)雜的利益,這些利益并非都受到法律的保護(hù)。因此法官需要篩選這些利益,再進(jìn)行衡量。人工智能擁有強(qiáng)大的計(jì)算能力,研發(fā)人員只需在研究算法時(shí)將受法律保護(hù)的利益以及不受法律保護(hù)的利益均寫入,人工智能就可以迅速將案件中的利益分門別類羅列出來(lái),將法官?gòu)臋C(jī)械性的重復(fù)勞動(dòng)中解放出來(lái)。
當(dāng)法官采用利益衡量方法時(shí)必然存在一個(gè)利益衡量標(biāo)準(zhǔn),但這個(gè)標(biāo)準(zhǔn)是如何確認(rèn)的?這個(gè)標(biāo)準(zhǔn)是否合理?這兩個(gè)問(wèn)題都沒(méi)有標(biāo)準(zhǔn)答案,這也是法官容易濫用利益衡量的直接原因。雖然我們無(wú)法獲得一個(gè)確定的普遍有效且具有權(quán)威性的價(jià)值位序,但我們可以在一定的抽象層面上對(duì)不同的利益按照相應(yīng)的評(píng)價(jià)標(biāo)準(zhǔn)作出合理的探索和確認(rèn)。因此,在設(shè)計(jì)人工智能算法模型時(shí),可以在其中寫入一個(gè)大致的價(jià)值位階。因?yàn)楝F(xiàn)實(shí)生活中大部分的價(jià)值位序短時(shí)間內(nèi)不會(huì)發(fā)生改變,這個(gè)價(jià)值位階并非涵蓋所有的價(jià)值利益,僅包含一些在較長(zhǎng)時(shí)間內(nèi)穩(wěn)定的價(jià)值,例如人的生命權(quán)必然大于財(cái)產(chǎn)權(quán)以及經(jīng)營(yíng)權(quán)。通過(guò)這個(gè)寬泛的利益衡量框架使法官在正義的大方向中作出正確的衡量結(jié)果。
此外,法官的利益衡量標(biāo)準(zhǔn)主要來(lái)自法官的“生活經(jīng)驗(yàn)”,這種“生活經(jīng)驗(yàn)”并非法官日常生活中的個(gè)人經(jīng)歷所帶來(lái)的,而是法官共同體的生活和職業(yè)經(jīng)歷,也可稱之為法官的集體理性。人工智能的到來(lái),可以通過(guò)類案推送的方式,將相同或相似案件傳遞至法官面前,從中獲取先前法官裁判的經(jīng)驗(yàn)和方法,為自己個(gè)案裁判尋求啟發(fā)。不僅如此,法官甚至可以依靠人工智能的大數(shù)據(jù)技術(shù)通過(guò)對(duì)相同或相似案件信息和判決結(jié)果之間的相關(guān)關(guān)系的分析,對(duì)利益衡量結(jié)果進(jìn)行預(yù)測(cè),使其在集體理性下作出價(jià)值判斷。這種預(yù)測(cè)結(jié)果雖然不能代替法官個(gè)人的利益衡量判斷,但能為法官提供參考信息,使其遵從集體理性,限制法官個(gè)人偏見或偏好對(duì)衡量結(jié)果的影響。
法官在作出利益衡量結(jié)果后,通常會(huì)結(jié)合法律法規(guī)進(jìn)行自我論證。在心理學(xué)上,每個(gè)人都有自我合理化傾向,人們?cè)跈z驗(yàn)自己答案時(shí)總會(huì)自然而然地尋找傾向答案的論據(jù)自我說(shuō)服。因此,法官的利益衡量結(jié)果在自我檢驗(yàn)時(shí)也會(huì)受到直覺(jué)偏見的影響。目前,研究人員已經(jīng)研制出司法人工智能偏離預(yù)警系統(tǒng),用以將法官作出或擬作出的裁判結(jié)果同人工智能根據(jù)算法預(yù)測(cè)出的裁判結(jié)果進(jìn)行對(duì)比,得出兩者間的偏離等級(jí),若偏離等級(jí)高就會(huì)觸發(fā)自動(dòng)預(yù)警機(jī)制。[6]筆者認(rèn)為偏離預(yù)警系統(tǒng)也可以運(yùn)用到利益衡量中,代替法官來(lái)檢驗(yàn)其利益衡量結(jié)果。利益衡量偏離預(yù)警系統(tǒng)可以在大數(shù)據(jù)分析技術(shù)下,將法官作出的結(jié)果與所有同案或類案中法官利益衡量結(jié)果的“平均值”進(jìn)行對(duì)比,并將偏離程度按照等級(jí)劃分。對(duì)于偏離等級(jí)高的利益衡量結(jié)果,法官可以通過(guò)人工智能查看偏離高的原因,與“平均值”的差距在哪里,這樣可以有效地檢驗(yàn)法官的利益衡量結(jié)果,規(guī)范法官利益衡量過(guò)程。一言以蔽之,利益衡量偏離預(yù)警系統(tǒng)的核心即是將法官?gòu)膶?duì)自己結(jié)果的論證轉(zhuǎn)變?yōu)閷?duì)他人結(jié)果的論證。
不可否認(rèn),利益衡量過(guò)程中人工智能的加入能夠顯著提高法官司法審判效率,限制法官濫用利益衡量,在人工智能與法官的良性互動(dòng)中促進(jìn)司法公正。但凡事皆有兩面性,司法人工智能在輔助法官利益衡量的同時(shí),因?yàn)樽陨硪蛩卦趯?shí)踐中存在一定的局限性,也帶來(lái)一些隱患。
人工智能輔助法官進(jìn)行利益衡量的基礎(chǔ)是司法大數(shù)據(jù),其輔助作用的質(zhì)量完全依賴大數(shù)據(jù)的完整性以及真實(shí)性。人工智能一般只會(huì)對(duì)數(shù)據(jù)進(jìn)行比對(duì),并不會(huì)思考數(shù)據(jù)間的因果聯(lián)系,所以當(dāng)數(shù)據(jù)本身不具備真實(shí)性且不完整時(shí),人工智能通過(guò)分析該數(shù)據(jù)所得出的結(jié)論也是片面的。我國(guó)的司法大數(shù)據(jù)主要來(lái)自法律法規(guī)、司法解釋以及各個(gè)法院公開的裁判文書,其中裁判文書是人工智能運(yùn)算的主要依據(jù)。目前我國(guó)司法大數(shù)據(jù)的缺陷已經(jīng)阻礙了人工智能在司法領(lǐng)域的發(fā)展。
第一,司法大數(shù)據(jù)的數(shù)據(jù)基數(shù)不足以支撐人工智能輔助法官利益衡量。雖然至今已有海量的裁判文書公開,但公開的文件數(shù)量與全國(guó)案件總量相差甚遠(yuǎn),且公開的案件類型也不夠全面。[7]當(dāng)法官遇到新型案件時(shí),可能會(huì)尋找相同或相似案例,由于此類案例基數(shù)太小,法官容易受到小樣本數(shù)據(jù)統(tǒng)計(jì)結(jié)果的影響,反而導(dǎo)致司法不公。第二,司法大數(shù)據(jù)中的裁判文書不具備案件完整性。任何一份裁判文書都不可能原原本本地將整個(gè)裁判過(guò)程記錄下來(lái),特別是法官進(jìn)行利益衡量的過(guò)程。這將導(dǎo)致人工智能在偏離預(yù)警系統(tǒng)中分析相同或類案結(jié)果的“平均值”時(shí),缺少數(shù)據(jù)的支撐。類案識(shí)別技術(shù)主要通過(guò)對(duì)案件情節(jié)加以分析,并在數(shù)據(jù)庫(kù)中以情節(jié)相同或類似的標(biāo)準(zhǔn)進(jìn)行匹配,這種識(shí)別方式在一些情況下無(wú)法發(fā)揮作用。兩個(gè)案件具有相同或相似性并非僅僅取決于案件之情節(jié)要素是否一致或類似,更重要的是法官對(duì)案件的法律評(píng)價(jià)。[8]這種法律評(píng)價(jià)是由法官結(jié)合具體案情作出的主觀評(píng)價(jià),以目前的人工智能技術(shù)無(wú)法通過(guò)一套穩(wěn)定的算法表現(xiàn)出來(lái)。
隨著人工智能應(yīng)用愈來(lái)愈廣,學(xué)界也出現(xiàn)許多反對(duì)的聲音,他們的擔(dān)憂大致歸納為兩點(diǎn):人工智能對(duì)法官司法權(quán)的侵蝕以及算法黑箱問(wèn)題。這兩大問(wèn)題確實(shí)是現(xiàn)實(shí)存在的,但為進(jìn)一步規(guī)避這些隱患,還需要進(jìn)一步分析其內(nèi)在原因。
第一,關(guān)于人工智能侵蝕或控制司法權(quán)問(wèn)題。正如上文提到的,人工智能在利益衡量過(guò)程中是以一個(gè)輔助者的身份出現(xiàn)的,對(duì)于法官來(lái)說(shuō)其有權(quán)選擇是否參考人工智能的意見結(jié)論。所以說(shuō),利益衡量的最終結(jié)果仍由法官掌控,法律責(zé)任的主體依舊是法官,人工智能的輔助行為并不能成為法官逃避審判責(zé)任的借口。此外,司法人工智能的運(yùn)作機(jī)制依賴于算法,算法模型的設(shè)計(jì)直接影響人工智能的作用。而算法模型是由科研公司所掌握的,因此有學(xué)者擔(dān)憂算法控制司法,擠壓司法權(quán)空間。[9]筆者認(rèn)為,雖然算法模型的創(chuàng)造者是科研公司,但該模型是科研公司根據(jù)法院的要求設(shè)計(jì)的,法院在使用時(shí)必然會(huì)加以測(cè)試檢驗(yàn),若之后使用時(shí)出現(xiàn)錯(cuò)誤,法院也可以要求科研公司進(jìn)行修正。不僅如此,在司法過(guò)程中,當(dāng)事人無(wú)疑是最為關(guān)心審判結(jié)果的,當(dāng)其認(rèn)為裁判結(jié)果顯失公正,當(dāng)事人可以通過(guò)上訴或請(qǐng)求再審的方式維護(hù)合法權(quán)益。通過(guò)以上分析,司法人工智能的加入并不是司法權(quán)削弱的直接原因,真正導(dǎo)致司法權(quán)受限是法官自身的依賴性以及法官主動(dòng)放棄審判主體地位。
第二,關(guān)于算法黑箱問(wèn)題。由于算法隱藏在人工智能內(nèi)部,法官只知其運(yùn)算結(jié)果,而不知其運(yùn)算過(guò)程,因此算法黑箱極易導(dǎo)致算法偏見。確實(shí)算法黑箱會(huì)產(chǎn)生司法不公,但這種情況的前提是將人工智能在利益衡量時(shí)置于主體地位而沒(méi)有法官的參與。當(dāng)人工智能作為一個(gè)輔助工具出現(xiàn)算法偏見時(shí),法官完全有能力判斷人工智能提供的結(jié)果是否公正。即使法官受到人工智能的預(yù)見性結(jié)論指引,造成“錨定效應(yīng)”(指人們?cè)趯?duì)某人某事做出判斷時(shí),易受第一印象或第一信息支配,就像沉入海底的錨一樣把人們的思想固定在某處),法官也可以通過(guò)偏離預(yù)警系統(tǒng)查看利益衡量結(jié)果與法官集體裁量結(jié)果的差異。“兼聽則明,偏信則暗”,法官正確的做法是將人工智能給出的利益衡量結(jié)果與案件情況、社會(huì)風(fēng)俗、政治影響等進(jìn)行綜合考慮后做出公正的裁判結(jié)果。即使法官因?yàn)樗惴ê谙涠鞒鲥e(cuò)誤的利益衡量結(jié)果,其仍需要承擔(dān)司法責(zé)任,因?yàn)樵撔袨楸举|(zhì)上依然是法官濫用利益衡量的行為。
總之,以上隱患的存在確實(shí)與司法人工智能的引入有關(guān),但這些隱患成為現(xiàn)實(shí)的關(guān)鍵節(jié)點(diǎn)卻在于法官。司法人工智能作為輔助法官的工具軟件,仍然由法官進(jìn)行控制,因此說(shuō)司法人工智能操控法官是科技的發(fā)達(dá),倒不如說(shuō)是法官的惰性使然。法律賦予法官自由裁量權(quán)的目的是讓法官成為司法系統(tǒng)中的活性分子,保持法律的生命力,這恰是司法人工智能所無(wú)法替代的,也是法官成為審判主體的原因。
數(shù)字經(jīng)濟(jì)時(shí)代司法人工智能與審判程序、審判系統(tǒng)正不斷結(jié)合。利益衡量作為司法裁判中常見的法律方法,司法人工智能技術(shù)的展開也必然會(huì)涉及利益衡量。但關(guān)于司法人工智能與利益衡量之間的研究依然偏少,筆者通過(guò)分析利益衡量的屬性及人工智能的運(yùn)作模式得出在利益衡量中“人主智輔”的模式。雖然根據(jù)人工智能的自身問(wèn)題分析了在利益衡量時(shí)引入人工智能可能帶來(lái)的危害,但關(guān)于司法大數(shù)據(jù)的弊端以及法官的依賴性并沒(méi)有給出系統(tǒng)的解決方案,這些都是下一步值得探究的方向。