徐恩平
(安徽大學(xué)法學(xué)院,安徽 合肥 230031)
2022年末,OpenAI公司研發(fā)的ChatGPT一經(jīng)發(fā)布便引爆全球,憑借其強(qiáng)大的文字處理能力和快速的問題應(yīng)對(duì)能力在短短幾個(gè)月內(nèi)贏得了大眾的青睞,使得生成式人工智能在短時(shí)間內(nèi)成為各領(lǐng)域、各行業(yè)的熱點(diǎn)。另外,Meta AI開發(fā)了BlenderBot 3聊天機(jī)器人,OpenAI開發(fā)的DALL-E-2能夠利用算法自行創(chuàng)作圖片,GPT Engineer能夠通過一個(gè)簡(jiǎn)短的提示語創(chuàng)建完整的APP。在此背景下,國內(nèi)的生成式人工智能研發(fā)也在高速發(fā)展,例如百度發(fā)布的“文心一言”語言生成模型等。
生成式人工智能的應(yīng)用范疇涵蓋文本生成、圖像生成、音視頻生成等領(lǐng)域,能夠進(jìn)行聊天對(duì)話、創(chuàng)作藝術(shù)作品、生成原創(chuàng)音樂、完成代碼編寫和初步的算法設(shè)計(jì),并且未來有可能通過利用多模態(tài)數(shù)據(jù)在教育領(lǐng)域取得重大進(jìn)步[1]。隨著“數(shù)字法治、智慧司法”信息化建設(shè)的推進(jìn),包括生成式人工智能在內(nèi)的各種人工智能工具在司法中的運(yùn)用日益增多。因此,研究生成式人工智能應(yīng)用于司法這一特殊問題就變得非常必要。
司法在面對(duì)新興技術(shù)時(shí)總是持嚴(yán)謹(jǐn)?shù)膽B(tài)度。當(dāng)生成式人工智能與司法融合時(shí),既要防止科學(xué)技術(shù)對(duì)司法的反噬,又要避免保守心理阻礙司法的發(fā)展。本文以生成式人工智能本身的特點(diǎn)為出發(fā)點(diǎn),總結(jié)生成式人工智能應(yīng)用于司法的優(yōu)勢(shì),并結(jié)合我國司法的實(shí)際情況,分析其應(yīng)用于司法領(lǐng)域面臨的風(fēng)險(xiǎn),以化解風(fēng)險(xiǎn)為目的,從理論與實(shí)踐兩方面思考司法領(lǐng)域應(yīng)當(dāng)如何應(yīng)對(duì)生成式人工智能的沖擊,迎接科技發(fā)展的挑戰(zhàn)。
生成式人工智能,是指一類基于深度學(xué)習(xí)的機(jī)器學(xué)習(xí)模型,它們可以通過學(xué)習(xí)大量數(shù)據(jù)來生成新的、與原始數(shù)據(jù)相似但并不完全相同的數(shù)據(jù)。這種數(shù)據(jù)生成的過程通常是通過給定一些初始條件(如噪聲向量)作為輸入,然后使用深度神經(jīng)網(wǎng)絡(luò)和概率模型來逐步生成新的數(shù)據(jù)。生成式人工智能可以創(chuàng)建各種數(shù)據(jù),如圖像、視頻、音頻、文本和3D模型,其典型任務(wù)涉及生成高維數(shù)據(jù),如文本或圖像。這種生成式內(nèi)容也可用于合成數(shù)據(jù),以減輕深度學(xué)習(xí)海量數(shù)據(jù)的需求[2]。對(duì)于生成式人工智能的界定,我國2023年7月13日發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》規(guī)定,生成式人工智能技術(shù)是指具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)。
生成式人工智能演化計(jì)算的能力在人工智能算法中最為突出。演化計(jì)算是一種以人類進(jìn)化為靈感的優(yōu)化算法,通過基于人群的引導(dǎo)式搜索,以編碼設(shè)置問題,進(jìn)行大數(shù)據(jù)庫的搜索、篩選、更新,對(duì)生成的結(jié)果不斷進(jìn)行篩選、更新、試錯(cuò)后提高算法的適應(yīng)度,并以設(shè)置的問題作為其深度學(xué)習(xí)的內(nèi)容,不斷拓展和完善數(shù)據(jù)。目前演化計(jì)算已經(jīng)覆蓋了人工智能的各個(gè)分支體系,尤其在計(jì)算機(jī)視覺和自然語言處理中取得了巨大的突破。
生成式人工智能的特點(diǎn)可以概括為以下三個(gè)方面。
第一,海量化的預(yù)訓(xùn)練數(shù)據(jù)。生成式人工智能通過在海量化數(shù)據(jù)中進(jìn)行預(yù)訓(xùn)練,這些數(shù)據(jù)來源于互聯(lián)網(wǎng)、書籍、百科全書等眾多內(nèi)容,使其能夠適應(yīng)多種任務(wù)場(chǎng)景。
第二,長(zhǎng)距離理解上下文語義的能力。生成式人工智能主要依賴于Transformer結(jié)構(gòu),其通過自注意力機(jī)制、多頭注意機(jī)制來捕捉文本中不同位置之間的關(guān)聯(lián)關(guān)系,從而關(guān)注到文本中較遠(yuǎn)的上下文信息[3]。這一能力使得生成式人工智能可以更好地理解和解釋相對(duì)復(fù)雜的邏輯推理、句子結(jié)構(gòu)和上下文關(guān)系,并且能夠根據(jù)設(shè)置的問題提供更加精準(zhǔn)的回答,基本上不會(huì)出現(xiàn)答非所問的情況。例如,在商業(yè)使用場(chǎng)景中,生成式人工智能在提供法律咨詢服務(wù)、文本摘要、機(jī)器人客服等領(lǐng)域展現(xiàn)出其強(qiáng)大的應(yīng)用價(jià)值。
第三,少樣本、零樣本的學(xué)習(xí)能力。生成式人工智能基于其強(qiáng)大的表達(dá)能力,通過學(xué)習(xí)數(shù)據(jù)之間的語義關(guān)系和邏輯關(guān)系,從而產(chǎn)生“自己的算法理解”,不需要提供任何的案例展示即可完成指定的任務(wù),具有高度的自由化和靈活性[4]。此種自適應(yīng)學(xué)習(xí)能力可以識(shí)別大量信息之間的關(guān)聯(lián),建立起龐大的知識(shí)網(wǎng)絡(luò),為人工智能未來的發(fā)展提供了新的方向。
在法治社會(huì)背景下,隨著人們法律意識(shí)的提高,越來越多的人選擇通過法律途徑解決糾紛。根據(jù)最高人民法院公布的數(shù)據(jù),我國地方各級(jí)人民法院和專門人民法院受理案件的數(shù)量龐大且仍呈上升趨勢(shì),導(dǎo)致“案多人少”的問題日益突出,法官的工作負(fù)擔(dān)和工作壓力持續(xù)增加。因此,如何提升司法審判的效率是我國司法長(zhǎng)期面臨的難題之一。
首先,將生成式人工智能技術(shù)引入司法審判過程,可以利用其長(zhǎng)距離理解上下文語義的能力,在案情復(fù)雜、證據(jù)材料繁多的案件中對(duì)整體案情進(jìn)行總結(jié),提取爭(zhēng)議焦點(diǎn),幫助法官節(jié)省庭前準(zhǔn)備的時(shí)間,提高庭審的效率。目前,國外已有借助生成式人工智能輔助判案的案例,在Loomis v.Wisconsin一案中,法院使用了COMPAS智能評(píng)估工具對(duì)Loomis的社會(huì)危險(xiǎn)性進(jìn)行評(píng)估,并參考該評(píng)估報(bào)告作了量刑裁判①。2023年1月30日,哥倫比亞法官胡安·加西亞(Juan Garcia)借助ChatGPT作出了一份關(guān)于孤獨(dú)癥患者免于支付治療費(fèi)用而獲得醫(yī)療服務(wù)的法庭裁決[5]。
其次,針對(duì)相似判例自動(dòng)形成判決書等法律文書也是生成式人工智能應(yīng)用司法的優(yōu)勢(shì)所在。生成式人工智能通過對(duì)司法數(shù)據(jù)庫同類型判例的深度學(xué)習(xí)后,結(jié)合輸入案件事實(shí)數(shù)據(jù),自主形成判決書。法官對(duì)生成式人工智能形成的文書進(jìn)行修改便可完成法律文書的寫作,從而提高法官寫作文書的效率,緩解當(dāng)前“案多人少”的問題。現(xiàn)如今,隨著我國智慧法院的建設(shè),人工智能已經(jīng)被廣泛地應(yīng)用于起訴立案、證據(jù)交換、審前程序、庭審、送達(dá)、法律適用、執(zhí)行等環(huán)節(jié)[6],例如,上海刑事案件智能輔助辦案系統(tǒng)(又稱206系統(tǒng))支持“判決書”“裁定書”“調(diào)解書”“決定書”等法律文書的在線制作,并提供相應(yīng)模板;還有北京市高級(jí)人民法院“睿法官”智能研判系統(tǒng)等多種類型的司法人工智能系統(tǒng)面世。
同案同判是司法正義的一項(xiàng)重要原則,也是普通民眾衡量司法公正性的關(guān)鍵標(biāo)準(zhǔn)之一。同案同判是指在對(duì)同一類型或同一構(gòu)成要件的案件進(jìn)行審判時(shí),法官應(yīng)保持判決結(jié)果無明顯差異。
生成式人工智能憑借其少樣本、零樣本的學(xué)習(xí)能力,能夠根據(jù)之前相同或者相似的判例形成“人工智能判決”,從而起到輔助法官審判的作用。由于法律語言具有一定的模糊性,不同的法官可能會(huì)因個(gè)人經(jīng)驗(yàn)和實(shí)踐背景對(duì)同一法律條文產(chǎn)生不同的理解,導(dǎo)致在適用法律和價(jià)值判斷上存在一定的分歧,甚至出現(xiàn)同案不同判的情況。而生成式人工智能通過對(duì)司法數(shù)據(jù)庫中的相同或相似樣本進(jìn)行分析,給出對(duì)判決結(jié)果的預(yù)測(cè)和評(píng)估。當(dāng)法官的自由心證結(jié)果與預(yù)測(cè)結(jié)果偏差過大時(shí),生成式人工智能可以起到提醒法官的作用,從而在一定程度上對(duì)提高司法裁判質(zhì)量,對(duì)實(shí)現(xiàn)同案同判目標(biāo)起到推動(dòng)作用,這也有助于避免法官在高強(qiáng)度的審判工作中出現(xiàn)失誤。
關(guān)于“人工智能法官”的討論由來已久。生成式人工智能憑借其深度學(xué)習(xí)能力、語言分析能力以及文字生成能力讓人工智能審判成為可能。
第一,生成式人工智能在司法領(lǐng)域的應(yīng)用促進(jìn)了司法裁判權(quán)的分配。在中國特色社會(huì)主義法治體系中,裁判權(quán)由法官獨(dú)占仍是訴訟的基本原則,然而生成式人工智能的介入很可能改變此種現(xiàn)實(shí)。例如,在法官使用生成式人工智能輔助書寫法律文書的場(chǎng)景之下,法官通過使用生成式人工智能形成的“預(yù)判決”中的部分或者全部?jī)?nèi)容,最終形成了裁判結(jié)論。法官引用生成式人工智能形成的“預(yù)判決”這一行為一定程度上也促使了生成式人工智能作為裁判者參與了司法裁判過程。在此類案件中,生成式人工智能對(duì)于案件的判決有著一定程度的決定權(quán),甚至可以說已經(jīng)獲得了一部分裁判權(quán)。盡管短期內(nèi)生成式人工智能因受制于技術(shù)不成熟和司法倫理問題而不能作為擁有裁判權(quán)的主體,但從提高訴訟效率、降低錯(cuò)案概率等方面考慮,未來生成式人工智能享有裁判權(quán)很有可能變成事實(shí)。
第二,生成式人工智能促進(jìn)裁判說理方式發(fā)生改變。生成式人工智能對(duì)于海量司法案件的深度學(xué)習(xí)和語言分析幫助法官從之前的判例中提取有用的信息,從而法官針對(duì)其所作出的判決進(jìn)行說理。例如,2023年1月,美國哥倫比亞法官在裁判書中的說理部分引用了法官本人與ChatGPT的對(duì)話,并以此作為了其裁判的依據(jù)[7]。這種新的裁判依據(jù)和說理方式的引入,使得法官可以在某些專業(yè)領(lǐng)域借助生成式人工智能的幫助提升裁判的專業(yè)度,避免因?yàn)閷I(yè)性知識(shí)的缺失而導(dǎo)致裁判的不公正。
3.1.1 數(shù)據(jù)歧視有違司法公正原則
生成式人工智能的運(yùn)行機(jī)制是通過對(duì)先前的司法判例進(jìn)行深度學(xué)習(xí)從而作出預(yù)測(cè)性的判斷[8]。然而,其在學(xué)習(xí)先前裁判經(jīng)驗(yàn)的過程中,也可能會(huì)學(xué)習(xí)到其中的價(jià)值偏見,出現(xiàn)“偏見進(jìn),偏見出”的情況[9]。例如,智能語音助手對(duì)于不同口音或語速的用戶存在不同的識(shí)別率,對(duì)于一些特定群體如女性、少數(shù)族裔等的識(shí)別率可能較低。另外,一些招聘平臺(tái)也被發(fā)現(xiàn)存在數(shù)據(jù)歧視的問題,即某些特定職位或公司的招聘廣告的展示結(jié)果會(huì)比其他職位或公司更好,這也可能導(dǎo)致不公平的結(jié)果。展示結(jié)果指的是招聘廣告在招聘平臺(tái)上的展示效果,包括展示的頻率、位置、曝光量等。在存在數(shù)據(jù)歧視的情況下,某些特定的職位或公司的招聘廣告的展示效果會(huì)比其他職位或公司更好,這可能導(dǎo)致一些更優(yōu)秀的求職者沒有看到這些招聘廣告,從而錯(cuò)失了機(jī)會(huì),造成不公平的結(jié)果。可見,生成式人工智能算法基于數(shù)據(jù)的預(yù)測(cè)并不能完全保障司法裁判的公正性[10],反而有可能造成特定群體遭受不公平對(duì)待。
雖然生成式人工智能可以在一定程度上減少法官自身的主觀偏見對(duì)裁判結(jié)果的影響,但是其數(shù)據(jù)本身存在的“天然缺陷”也存在導(dǎo)致裁判有失公正的風(fēng)險(xiǎn)。在司法人工智能高效運(yùn)行的情況下,這些隱藏在數(shù)據(jù)庫中的“算法歧視”有可能被運(yùn)用到司法裁判中,進(jìn)而惡化司法領(lǐng)域業(yè)已存在的不平等現(xiàn)象,對(duì)現(xiàn)代社會(huì)的司法公正價(jià)值形成挑戰(zhàn)。
3.1.2 “算法黑箱”有違司法公開原則
生成式人工智能因具有深度學(xué)習(xí)的能力,其算法與邏輯會(huì)隨著其預(yù)訓(xùn)練數(shù)據(jù)的改變而改變,從而能夠更好地輔助司法。但算法邏輯的改變,會(huì)讓人無法把握算法的運(yùn)行規(guī)律。底層算法的保密和算法邏輯的改變這兩大因素的疊加,導(dǎo)致生成式人工智能在應(yīng)用過程中存在著無法避免的“算法黑箱”問題,有違司法公開原則。
首先,底層算法的保密。基于技術(shù)保密和商業(yè)秘密保護(hù)等的要求,生成式人工智能的算法具有封閉性和秘密性。在司法應(yīng)用場(chǎng)景中,若算法編寫公司或機(jī)構(gòu)為獲取某些商業(yè)利益或不正當(dāng)利益,通過秘密封閉的算法在不為人知的情況下刻意影響裁判的結(jié)論,那么司法的公平與公正就無法得到保證。例如,在Loomis v.Wisconsin一案中,法院在量刑環(huán)節(jié)使用了COMPAS工具對(duì)Loomis的社會(huì)危險(xiǎn)性進(jìn)行評(píng)估。受制于COMPAS專利方面的保密性要求而不得公開該人工智能算法,Loomis質(zhì)疑COMPAS工具的準(zhǔn)確性和科學(xué)性而提起訴訟[11]。在我國,司法人工智能系統(tǒng)一般是由司法機(jī)關(guān)外包給人工智能公司進(jìn)行建構(gòu),其算法本身就受知識(shí)產(chǎn)權(quán)的保護(hù),公司基于商業(yè)利益的考慮也更傾向于對(duì)算法進(jìn)行保密。
其次,算法邏輯的改變。生成式人工智能算法邏輯通常通過學(xué)習(xí)大量的數(shù)據(jù)來訓(xùn)練,當(dāng)輸入信息改變時(shí),算法邏輯會(huì)對(duì)新的輸入信息進(jìn)行學(xué)習(xí),并更新其內(nèi)部表示。這種改變可能會(huì)導(dǎo)致生成式人工智能產(chǎn)生不準(zhǔn)確的結(jié)果,同時(shí)當(dāng)前的算法邏輯也會(huì)因?yàn)榘l(fā)生改變而變得不為人知,這有違司法公開原則。例如,微軟的 Tay 聊天機(jī)器人是一個(gè)基于文本生成的人工智能系統(tǒng),其算法邏輯是基于循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)和長(zhǎng)短期記憶(LSTM)網(wǎng)絡(luò)等深度學(xué)習(xí)模型進(jìn)行訓(xùn)練的。然而,在 Tay 發(fā)布后不久,一些惡意用戶通過輸入惡意指令和關(guān)鍵詞,成功地誘導(dǎo) Tay 的算法邏輯發(fā)生改變,生成了虛假信息和性別歧視等不良言論,微軟也不得不緊急下架 Tay 并對(duì)其進(jìn)行改進(jìn)。
3.2.1 誘發(fā)司法責(zé)任歸責(zé)風(fēng)險(xiǎn)
生成式人工智能可以自動(dòng)分析和解釋大量的案情與法律文本,輔助法官作出“預(yù)判決”,在一定程度上提高了法官的審判效率。但是生成式人工智能引入司法也會(huì)導(dǎo)致“去責(zé)任化”的趨勢(shì)。如果出現(xiàn)錯(cuò)誤裁判,按照常理來說,應(yīng)當(dāng)由法官承擔(dān)相應(yīng)的責(zé)任。但如果錯(cuò)誤判決是因?yàn)樯墒饺斯ぶ悄艿妮o助判決影響了法官的自由心證,那么生成式人工智能系統(tǒng)的開發(fā)者和法官之間司法責(zé)任的承擔(dān)比例和方式將會(huì)難以明確。若由生成式人工智能系統(tǒng)的開發(fā)者單獨(dú)承擔(dān),法官無須承擔(dān)任何相關(guān)責(zé)任,這顯然不合理;若由生成式人工智能系統(tǒng)的開發(fā)者與法官共同承擔(dān),在確定責(zé)任比例和大小的過程中會(huì)因?yàn)闆]有相關(guān)法律規(guī)制導(dǎo)致出現(xiàn)責(zé)任推諉的情況。這兩種情況都將使得錯(cuò)案責(zé)任追究的規(guī)定因無法執(zhí)行而被架空,也使得司法責(zé)任制保證法官盡職勤勉、預(yù)防錯(cuò)案的目標(biāo)難以實(shí)現(xiàn)[12]。
3.2.2 法官主體性地位受到挑戰(zhàn)
第一,生成式人工智能可能會(huì)對(duì)司法公信力產(chǎn)生挑戰(zhàn)。首先,生成式人工智能在司法審判中缺乏主觀能動(dòng)性。雖然生成式人工智能相比法官來說有著更嚴(yán)密的論證過程和更加精準(zhǔn)、專業(yè)的知識(shí)儲(chǔ)備,但它始終無法依托人類情感、政治因素和內(nèi)在法理去對(duì)案件的事實(shí)與價(jià)值作出精準(zhǔn)的判斷。因此,其作出的“預(yù)判決”往往無法獲得公眾的認(rèn)同。其次,司法公信力來源于公眾對(duì)法官和公權(quán)力的信任。當(dāng)法官和公權(quán)力被弱化,司法判決很有可能會(huì)因?yàn)槿斯ぶ悄艿倪^度使用而遭遇信任危機(jī)。再次,生成式人工智能在司法審判中缺乏靈活性。在司法大眾化的今天,社會(huì)公眾的道德觀念不斷滲透到司法活動(dòng)中,面對(duì)一些引發(fā)較大輿情的敏感案件,法官的司法推理也會(huì)愈發(fā)復(fù)雜。針對(duì)一些疑難案件,法官審理時(shí)需考慮政治與社會(huì)因素,往往形成的判決都是創(chuàng)造性的判決,并不是生成式人工智能所能完成的。生成式人工智能只能基于現(xiàn)有的數(shù)據(jù)和既定的算法生成判決,缺乏價(jià)值觀導(dǎo)向和社會(huì)價(jià)值判斷,難以獲得人民群眾的認(rèn)可,從而可能導(dǎo)致司法公信力的缺失。
第二,生成式人工智能過度干預(yù)司法可能導(dǎo)致法官的自由裁量權(quán)受限。例如,江蘇省蘇州市中級(jí)人民法院研發(fā)了“法信”智能輔助辦案系統(tǒng),該系統(tǒng)能夠根據(jù)案件信息自動(dòng)生成裁判文書,輔助法官快速完成案件審理;浙江省高級(jí)人民法院的“鳳凰金融智審”系統(tǒng)實(shí)現(xiàn)了無人工的智能審判流程。此外,在輔助量刑、類案推送等領(lǐng)域,生成式人工智能也存在干預(yù)法官自由裁量權(quán)的風(fēng)險(xiǎn)。如果法官形成的自由心證和判決與生成式人工智能的“預(yù)判決”存在較大差異,而法官堅(jiān)持自己的決策并作出判決時(shí),可能需要承擔(dān)更多的論證說理責(zé)任。在這種情況下,法官可能會(huì)為降低風(fēng)險(xiǎn)而選擇妥協(xié),導(dǎo)致其喪失依據(jù)個(gè)人自由意志進(jìn)行判斷的權(quán)利。
3.3.1 生成信息的不穩(wěn)定性
生成式人工智能在面對(duì)相同問題時(shí),可能會(huì)產(chǎn)生不一致的回答。這是因?yàn)樯墒饺斯ぶ悄艿慕Y(jié)果是結(jié)合其預(yù)訓(xùn)練庫的數(shù)據(jù)、輸入問題的語序、語言邏輯等多重因素共同作用,通過其算法生成的。當(dāng)法官在生成式人工智能系統(tǒng)中輸入的問題語序、語言邏輯發(fā)生變化時(shí),其生成的“預(yù)判決”也可能因此而發(fā)生改變,這種結(jié)果的不穩(wěn)定性與司法判決的嚴(yán)謹(jǐn)性、公正性背道而馳。
3.3.2 數(shù)據(jù)質(zhì)量不高
生成式人工智能的特點(diǎn)決定了其并不能像人類一樣識(shí)別信息的真假,很可能將網(wǎng)絡(luò)上的虛假信息納入其預(yù)訓(xùn)練的數(shù)據(jù)庫,這會(huì)導(dǎo)致其生成的結(jié)果受到虛假信息的干擾而真實(shí)性存疑。2023年國家互聯(lián)網(wǎng)信息辦公室等七部門聯(lián)合發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》中就強(qiáng)調(diào)了訓(xùn)練數(shù)據(jù)的真實(shí)性問題。
在保證數(shù)據(jù)真實(shí)性的基礎(chǔ)上,司法數(shù)據(jù)的內(nèi)容質(zhì)量也至關(guān)重要。從中國裁判文書網(wǎng)公布的司法數(shù)據(jù)來看,由于公布裁判文書的具體標(biāo)準(zhǔn)不統(tǒng)一,一些法院對(duì)于裁判文書的信息片面公布、選擇性公布的情況愈發(fā)增多。這將導(dǎo)致導(dǎo)入數(shù)據(jù)庫的司法數(shù)據(jù)缺乏裁判說理或是案件關(guān)鍵事實(shí)部分,從而影響人工智能的計(jì)算,導(dǎo)致輸出的結(jié)果不準(zhǔn)確,失去輔助裁判意義。
算法作為生成式人工智能的核心,其存在的“算法黑箱”和“算法歧視”問題直接影響了生成式人工智能所生成結(jié)果的公正性、公開性和真實(shí)性。根據(jù)現(xiàn)有的科技成果和司法實(shí)際,筆者認(rèn)為可以從以下幾個(gè)方面去解決此問題:
第一,提高算法的透明性從而保證司法公開?!八惴ê谙洹彼鶎?dǎo)致的信息不對(duì)稱會(huì)將一些重要法律權(quán)利的意義消弭[13],也會(huì)導(dǎo)致司法的公開性無法得到保證。為此,可以要求算法編寫者向司法機(jī)關(guān)開放源代碼,以便對(duì)代碼進(jìn)行檢驗(yàn),防止可能存在某些歧視或其他非法利益。同時(shí),算法編寫者也應(yīng)當(dāng)對(duì)算法的運(yùn)行過程進(jìn)行解釋,以減少未知性對(duì)司法帶來的威脅。然而,算法的完全公開仍然是一種比較理想的狀態(tài),涉及知識(shí)產(chǎn)權(quán)保護(hù)和商業(yè)利益。公布源代碼等同將算法開發(fā)者的智慧成果免費(fèi)共享,對(duì)算法開發(fā)者本身可能產(chǎn)生不利影響。因此,司法機(jī)關(guān)可以選擇自主設(shè)計(jì)算法,以司法權(quán)威為背書,確保算法的公開與公正。
第二,建立算法的審查制度保證司法公正。一方面,應(yīng)當(dāng)由相關(guān)的算法技術(shù)人員與司法人員相互配合,通過數(shù)據(jù)測(cè)試來檢測(cè)算法是否存在歧視和偏見。同時(shí),邀請(qǐng)具有算法技術(shù)背景的社會(huì)公眾參與算法的審查。另一方面,要保障算法預(yù)訓(xùn)練數(shù)據(jù)的公正性。算法最終的輸出結(jié)果受其輸入數(shù)據(jù)的影響,因此預(yù)訓(xùn)練數(shù)據(jù)庫的建立應(yīng)當(dāng)由相關(guān)的司法從業(yè)人員審核通過。此外,對(duì)于數(shù)據(jù)的真實(shí)性也要進(jìn)行審查,以確保數(shù)據(jù)的可靠性。
生成式人工智能作為輔助性工具參與司法,現(xiàn)階段已經(jīng)得到了廣泛的應(yīng)用。隨著科技的發(fā)展和智慧司法的建設(shè),未來科技與司法的融合將更加密切。司法不可能純粹依靠科技,司法離不開人的價(jià)值判斷,過分依賴技術(shù)也會(huì)動(dòng)搖司法的根基[14]。因此,必須明確法官的主體地位和生成式人工智能的輔助性工具地位,以技術(shù)輔助司法,以技術(shù)維護(hù)正義。
第一,確立法官的主體地位。案件的裁判需要理性與感性的共同投入,這也就使得人工智能永遠(yuǎn)無法取代法官成為審判的主體。一方面,要明確生成式人工智能的工具屬性,其應(yīng)用的最終目的是提高司法辦公的效率和效果,促進(jìn)司法的公正透明。在生成式人工智能的“預(yù)判決”與法官的自由心證結(jié)果不同時(shí),應(yīng)當(dāng)以法官為準(zhǔn),使法官的自由裁量權(quán)得到充分的保障。另一方面,要深刻落實(shí)最高人民法院在2022年發(fā)布的《關(guān)于規(guī)范和加強(qiáng)人工智能司法應(yīng)用的意見》,明確人工智能的輔助審判原則,堅(jiān)持人工智能對(duì)審判工作的輔助性定位,人工智能輔助結(jié)果僅可作為審判工作或?qū)徟斜O(jiān)督管理的參考,并強(qiáng)調(diào)無論技術(shù)發(fā)展到何種水平,人工智能都不得代替法官裁判,從而確保裁判職權(quán)始終由審判組織行使[15]。
第二,明確錯(cuò)案的司法責(zé)任承擔(dān)。隨著智慧司法機(jī)制的引進(jìn)和使用,現(xiàn)實(shí)裁判過程中對(duì)于人工智能的使用也變得越來越頻繁。為了避免技術(shù)成為法官推卸責(zé)任的“擋箭牌”,責(zé)任的明確就變得至關(guān)重要。最高人民法院發(fā)布的《關(guān)于規(guī)范和加強(qiáng)人工智能司法應(yīng)用的意見》中明確了人工智能的輔助審判原則,那么錯(cuò)案的責(zé)任也應(yīng)由法官承擔(dān)。當(dāng)法官向生成式人工智能進(jìn)行案件咨詢和評(píng)估時(shí),法官更要牢牢掌握案件的裁判權(quán)力,僅把生成式人工智能作為一個(gè)工具使用。一旦發(fā)生錯(cuò)案,也應(yīng)當(dāng)由擁有裁判權(quán)的法官承擔(dān)責(zé)任。
為了使生成式人工智能更好地發(fā)揮其作為輔助性工具的作用,確保司法數(shù)據(jù)的真實(shí)性和提高司法數(shù)據(jù)的質(zhì)量至關(guān)重要。
第一,提高生成式人工智能算法的準(zhǔn)確度。首先,在算法設(shè)計(jì)之初,應(yīng)探索將法律推理和法律解析融入算法中的路徑,在此基礎(chǔ)上將因果關(guān)系、法律論證融入算法之中[16],并確保生成式人工智能對(duì)同一問題生成結(jié)果的同一性,針對(duì)生成結(jié)果不同的情況應(yīng)對(duì)算法進(jìn)行優(yōu)化。其次,引入混合模型,即結(jié)合生成式模型和判別式模型,提高數(shù)據(jù)的穩(wěn)定性和準(zhǔn)確性。生成式模型可以生成與原始數(shù)據(jù)相似但不同的數(shù)據(jù),提高數(shù)據(jù)的生成質(zhì)量;而判別式模型可以對(duì)數(shù)據(jù)進(jìn)行分類和判斷,提高數(shù)據(jù)分類的準(zhǔn)確性。引入混合模型,生成式模型和判別式模型可以相互補(bǔ)充,從而提高司法數(shù)據(jù)的穩(wěn)定性和準(zhǔn)確性,確保輸出結(jié)果的同一性。
第二,擴(kuò)展生成式人工智能預(yù)訓(xùn)練司法數(shù)據(jù)的儲(chǔ)備,建立司法機(jī)關(guān)內(nèi)部的數(shù)據(jù)庫。近年來,裁判文書公開率急劇下降,這阻礙了生成式人工智能在司法領(lǐng)域的應(yīng)用。依據(jù)2021年和2022年《中華人民共和國最高人民法院公報(bào)》公布的民事案件的一審審結(jié)數(shù)量,以及中國裁判文書網(wǎng)上已公開的2021年和2022年民事一審法律文書數(shù)量,民事一審法律文書的公開率從2021年的51.57%下降至2022年的27.18%,這給生成式人工智能應(yīng)用于司法造成了現(xiàn)實(shí)上的障礙。司法機(jī)關(guān)應(yīng)建立統(tǒng)一的司法大數(shù)據(jù)平臺(tái),努力提升相關(guān)案件數(shù)據(jù)的數(shù)量和完整度。一方面司法機(jī)關(guān)自行建立司法大數(shù)據(jù)平臺(tái)有司法機(jī)關(guān)做背書,有利于數(shù)據(jù)安全的保障;另一方面司法機(jī)關(guān)建立大數(shù)據(jù)平臺(tái)更有利于豐富數(shù)據(jù)收集的途徑,消除各地區(qū)之間的信息壁壘,使司法數(shù)據(jù)的收集更加全面和充分,使得生成式人工智能生成的內(nèi)容更加具有實(shí)踐意義,不流于形式。
第三,確保虛假數(shù)據(jù)的消除規(guī)則。無論是為了確保生成式人工智能運(yùn)算結(jié)果的準(zhǔn)確性,還是解決“算法歧視”問題,消除虛假信息都是重中之重。一方面,要求入庫的司法數(shù)據(jù)必須經(jīng)過司法機(jī)關(guān)的嚴(yán)格審核和法律規(guī)制,確保錯(cuò)案、假案的相關(guān)信息不入庫或者及時(shí)刪除,避免相關(guān)數(shù)據(jù)影響司法人工智能的使用;另一方面,確保裁判文書中論證說理部分的真實(shí)性。如果裁判文書的論證說理部分與事實(shí)情況不符,當(dāng)生成式人工智能基于此種虛假的論證說理部分進(jìn)行深度學(xué)習(xí),那么其最終產(chǎn)出的結(jié)果也會(huì)出現(xiàn)偏差[17],這就要求法官加強(qiáng)裁判文書中論證和說理的準(zhǔn)確性,不得為了追求效率而只注重判決結(jié)果,以增加司法大數(shù)據(jù)的真實(shí)性。
在生成式人工智能高速發(fā)展的時(shí)代,司法與科技的融合已然成了時(shí)代發(fā)展的趨勢(shì),應(yīng)當(dāng)以開放的態(tài)度接受和吸收這些新興技術(shù)。從目前的研究來看,盡管生成式人工智能展現(xiàn)出了一定的應(yīng)用于司法的價(jià)值,但尚不足以讓其獲得直接參與司法的資格,應(yīng)堅(jiān)持將其定位為司法裁判的輔助性工具,并明確司法裁判權(quán)的歸屬,優(yōu)化算法邏輯、提高算法的透明度,消除虛假數(shù)據(jù)、提升司法數(shù)據(jù)質(zhì)量?!吧砼ㄅ鄣恼x”終究是人的正義,而非機(jī)器的正義[18]。在生成式人工智能作為輔助工具的前提下,未來應(yīng)繼續(xù)努力推進(jìn)算法技術(shù)的進(jìn)步,以法律規(guī)制其權(quán)利,實(shí)現(xiàn)司法人工智能服務(wù)于人民的目標(biāo),推動(dòng)我國司法人工智能的發(fā)展。
注釋:
①Loomis v.Wisconsin,881 N.W.2d 749 (2016).