王 爍
(北京化工大學(xué)文法學(xué)院,北京100029)
2016年,最高人民法院周強院長提出“智慧法院”,同年納入《國家信息化發(fā)展戰(zhàn)略綱要》和《“十三五”國家信息化規(guī)劃》,具體含義為“依托現(xiàn)代人工智能,圍繞司法為民、公正司法,堅持司法規(guī)律、體制改革與技術(shù)變革相融合,以高度信息化方式支持司法審判、訴訟服務(wù)和司法管理,實現(xiàn)全業(yè)務(wù)網(wǎng)上辦理、全流程依法公開、全方位智能服務(wù)的人民法院組織、建設(shè)、運行和管理形態(tài)”[1]。2017年,最高人民檢察院檢察長曹建明在十二屆全國人大五次會議第三次全體會議上作最高人民檢察院工作報告時表示,檢察機關(guān)將強化大數(shù)據(jù)戰(zhàn)略思維,深化“智慧檢務(wù)”建設(shè),實現(xiàn)四級檢察機關(guān)司法辦案、檢務(wù)公開等“六大平臺”全覆蓋[2]。國務(wù)院《新一代人工智能發(fā)展規(guī)劃》(國發(fā)〔2017〕35號)從司法管理的角度,對“智慧法院”明確規(guī)定:建設(shè)集審判、人員、數(shù)據(jù)應(yīng)用、司法公開和動態(tài)監(jiān)控于一體的智慧法庭數(shù)據(jù)平臺,促進人工智能在證據(jù)收集、案例分析、法律文件閱讀與分析中的應(yīng)用,實現(xiàn)法院審判體系和審判能力智能化。從前述表述可以看出,現(xiàn)階段人工智能在“智慧法院”、“智慧檢務(wù)”的語境下主要是起著輔助性的作用。中共中央政治局委員、中央政法委書記孟建柱亦明確指出,“運用智能輔助辦案系統(tǒng),不會替代線下刑事訴訟活動和司法人員獨立判斷,而是通過推動公檢法在共同的辦案平臺上、明確的基本證據(jù)標準指引下辦案,成為推動以審判為中心的刑事訴訟制度改革落地、提升刑事司法工作水平的重要體現(xiàn)”[3]。
但部分學(xué)者對人工智能深度介入司法持樂觀態(tài)度,如高艷東教授認為,“人工智能將成為辦案的主力,法官會成為輔助者。遠期的人工智能會像人一樣擁有思維能力,進行價值判斷。在對社會進行全方位的深入學(xué)習后,它能在主流媒體、日常生活中獲取足夠的社會信息,形成價值判斷”[4]。更多學(xué)者的意見則認為應(yīng)當謹慎,如潘庸魯博士認為,雖然人工智能介入司法是時代的必然選擇,但是人工智能與人類的本質(zhì)差異,決定了人工智能只能是輔助角色,而不可能替代真正的法官[5]。白建軍教授從定量分析的角度認為,人工智能進行司法裁判預(yù)測的基礎(chǔ)或者說其深度學(xué)習的基礎(chǔ)是海量的裁判文書,但是這種記錄案件和結(jié)果的官方文本,既可能會遺失非常眾多的法官在裁判時實際考慮的重要因素,也可能有眾多因素未能夠得到充分利用,這將導(dǎo)致人工智能在錯誤學(xué)習的基礎(chǔ)上做出錯誤的司法裁判[6]。黃京平教授則明確表示,人工智能在司法介入中應(yīng)當設(shè)置核心禁區(qū),受司法規(guī)律的要求,案例規(guī)則及其調(diào)整,以及包含政策指引、改革試驗和地方規(guī)范在內(nèi)的非正式制度等均是人工智能不可涉足的領(lǐng)域。智能輔助辦案系統(tǒng)須滿足相對性(區(qū)域間實體法適用的合理差異)、可靠性(具有數(shù)據(jù)挖掘價值的信息)、適度性(不要有過度的強制性標準)、獨立性(各訴訟環(huán)節(jié)的獨立性)和可控性(核心數(shù)據(jù)以傳統(tǒng)辦案為基礎(chǔ))的要求[7]。
雖然爭議較大,但毫無疑問,“人工智能介入司法領(lǐng)域是時代的必然選擇,當前不是人工智能要不要介入司法領(lǐng)域的問題,而是如何介入以及介入的程度或者是如何與司法工作深度融合才是當下急需論證的主題”[5]。
人工智能的核心在于基于過去大數(shù)據(jù)的基礎(chǔ)進行深入學(xué)習、自我完善并脫離人類控制獨立完成相關(guān)任務(wù)。人工智能在司法中的應(yīng)用,基礎(chǔ)功能在于作為司法官的輔助工具,幫助篩選、檢查證據(jù)材料,提供參考資料等;高級功能則在于獨立處理案件,給出實體性的處理結(jié)論?;A(chǔ)功能現(xiàn)今已在司法系統(tǒng)中成為現(xiàn)實,而高級功能意味著人工智能能夠在對過去大數(shù)據(jù)案件處理結(jié)果的深入學(xué)習,整理案件處理所需要素之間的關(guān)系,計算案件裁判的要素與案件處理結(jié)果之間的聯(lián)系,并在此基礎(chǔ)之上脫離人類司法官,“實現(xiàn)人類對其能夠自我學(xué)習、自我創(chuàng)造的預(yù)想”[8],獨立對案件進行高效快速處理。
人類司法官處理案件可用如下公式進行說明,即“(案件事實 +現(xiàn)有規(guī)則)+(過往經(jīng)驗+主觀裁量)=案件結(jié)論”。具體而言,“案件事實+現(xiàn)有規(guī)則”是最基礎(chǔ)的處理案件的邏輯推論結(jié)構(gòu),換言之,即三段論中的“大前提 +小前提”,將抽象規(guī)則適用于具體案件的事實中,這是案件處理形式邏輯的必然路徑,也是實現(xiàn)法律效果的應(yīng)用方法。但形式邏輯推演不足以徹底實現(xiàn)案件的最終處理,形式邏輯保障形式公正的實現(xiàn),但是不足以完成實質(zhì)公正的要求,法律效果的實現(xiàn)亦并不一定意味著社會效果的滿足。對于案件事實的分析,需要首先從案件事實中提取解決案件所需的法律事實,對于解決案件無益的純粹客觀事實,或者可能誤導(dǎo)案件處理的新聞事實必須剔除。這既需要司法官(本人和他人)的過往案件的處理經(jīng)驗,也需要其在面臨可能出現(xiàn)的新問題時進行個人主觀續(xù)造。而對現(xiàn)有規(guī)則的解讀和適用亦是如此,現(xiàn)有規(guī)則并非絕對明確的規(guī)定,其既面向過去又適度考慮未來,在適用尺度上,同樣為司法官的主觀發(fā)揮留出了特定空間。如此才能實現(xiàn)形式正義和實質(zhì)正義的結(jié)合,法律效果和社會效果的統(tǒng)一。
人工智能介入司法進行獨立適用,本質(zhì)上是模擬人類司法思維的過程。人工智能如果能夠完美模擬,甚至是提升人類司法思維的整個過程,則毫無疑問應(yīng)當成為司法的主導(dǎo)者,而非僅僅是作為輔助者。那么,人工智能能夠完美模擬,并像真正的人類司法官一樣思考問題嗎?
1.人工智能能夠?qū)崿F(xiàn)對案件事實的有效判斷
現(xiàn)階段的人工智能系統(tǒng)已經(jīng)“可以對單一證據(jù)進行校驗,即人工智能對相關(guān)證據(jù)自動檢驗收集程序、形式要件和內(nèi)容要素是否合規(guī)和合法;以及可以對證據(jù)鏈進行邏輯分析和判斷,即人工智能可以自動抓取作案時間、作案地點和作案經(jīng)過等證據(jù)判斷的核心要素,并依據(jù)一定規(guī)則進行印證和邏輯比對,進而發(fā)現(xiàn)證據(jù)之間有無矛盾性和是否合理性”[5]。單個證據(jù)所印證的即個別案件事實,現(xiàn)階段人工智能對于相對機械性的案件事實的提取和篩選、比對,較之于人類而言,具有速度和效率上的巨大優(yōu)勢。但是人工智能的這種操作方式仍然屬于一種輔助作用,只是為法官擺脫浩瀚文書審查的困境。雖然有學(xué)者質(zhì)疑人工智能不可能像人類司法官一樣去完成證據(jù)的取舍、證據(jù)力大小的判斷,以形成完整的證據(jù)鏈,證明真實有效的案件事實。但是筆者認為,隨著人工智能的發(fā)展,完成前述工作并非不可能。因為證據(jù)鏈的完整性和準確性的判斷本質(zhì)上并非法官的情感判斷,仍然是一種內(nèi)在邏輯性的判斷,單個證據(jù)需要與其他證據(jù)相互印證、前后一致、不存矛盾,與司法官的價值觀判斷并無關(guān)聯(lián),人工智能的邏輯推斷能力顯然足以滿足這種要求。
2.人工智能難以掌握半正式或者非正式規(guī)則
司法官處理案件的規(guī)則依據(jù)分為以下幾個層次,第一是正式規(guī)則,即法律條文的明確規(guī)定、立法解釋和司法解釋,這個層次的規(guī)則屬于最高效力的規(guī)則,在裁判文書中可以直接引用進行適用;第二是半正式規(guī)則,即規(guī)范文件、指導(dǎo)性案例,這是司法層面上的規(guī)則,是司法官裁判案件的重要依據(jù),但是并不能在裁判文書中直接援引;第三是非正式規(guī)則,即對司法官的裁判會起到指引或指導(dǎo)作用,但是并沒有官方的強制性要求,如各級法院所發(fā)布的非指導(dǎo)性案例的其他案例,又如刑事政策所演化出來的應(yīng)用規(guī)則。正式規(guī)則明文規(guī)定且可在裁判中進行援引,為人工智能的學(xué)習提供了豐富的規(guī)則樣本。半正式規(guī)則雖然具有明確的文本形式,但是原則上不能在裁判文書中進行援引,這使得人工智能能夠?qū)W習具體文本內(nèi)容,但是對其在裁判中的應(yīng)用和可能的作用,需要使用更深入的計算和學(xué)習方法才有可能把握。而對于第三種非正式規(guī)則,或者可以稱之為隱性規(guī)則,并無明確具體的適用規(guī)則且在文書中也不可能被援引,人工智能如何能夠從中習得規(guī)則適用方法會是難以克服的問題。
1.過往案件存在著前提不全乃至錯誤的可能
人工智能學(xué)習的基礎(chǔ)在于過往的經(jīng)驗,人工智能對未來案件的處理建立在過往案件的處理經(jīng)驗上,與過往案件的處理具有類似性或一致性的效果。所以,前提準確是人工智能未來案件處理正確性的基礎(chǔ)。從現(xiàn)實情況來看,這種前提準確性難以保障。
存在前提不全的可能甚至是必然。一是規(guī)則不全的可能。如前文所述,對于半正式或者非正式的規(guī)則,人工智能可能存在著學(xué)習上盲區(qū),這部分規(guī)則很有可能在未來案件處理時處于缺失狀態(tài)。二是案件處理所反映出來的信息不完整。最典型的即“裁判文書不等于案例,只是記錄案件處理過程和結(jié)果的官方文本,某些案外因素不可能原原本本地體現(xiàn)在判決書中”[6],案外因素對案件是否有影響,影響程度如何,人工智能均無法習得,在未來案件處理時即無法體現(xiàn)或排除。三是案件處理錯誤性的存在。毫無疑問,過往案件處理中一定存在著被錯誤處理的案件,從大數(shù)據(jù)的樣本量角度上看,這類錯誤案件所占比例較少,人工智能可在學(xué)習過程中識別并排除出去。但是,也可能會存在著這樣一種極端情況,即過去所有的案例在處理時都發(fā)生了傾向性的錯誤。比如正當防衛(wèi)的認定標準,隨著近些年來引人關(guān)注正當防衛(wèi)案件頻發(fā),原有的認定標準被認為過于嚴格,不適合民眾保護自身的合法權(quán)益。以原有的案件認定標準為基礎(chǔ)學(xué)習,可想而知,之后也將繼續(xù)適用舊有的“偏嚴”標準。
2.人工智能難以實現(xiàn)司法中的主觀續(xù)造
現(xiàn)代法治社會中,允許司法官享有一定范圍內(nèi)相對的自由裁量權(quán)已經(jīng)成為了共識,司法官在案件處理過程中的主觀能動性,對于案件的合理解決起著至關(guān)重要的作用?,F(xiàn)實生活中,完全一致的案件根本不存在,每起案件都有自己的獨特性,既有案件發(fā)生環(huán)境的獨特性,也有行為人、被害人等主體和對象以及犯罪行為的獨特性。對于這些獨特性的把握,在不同案件之間進行區(qū)分,對于司法官而言,不可能僅僅通過學(xué)院式教育實現(xiàn),更多需要司法官的專業(yè)復(fù)合性、社會經(jīng)驗性、情感體驗性的綜合。專業(yè)復(fù)合性是指需要包括法學(xué)在內(nèi)的多學(xué)科的知識,因為刑事案件涉及到的案件類型多種多樣,單純刑法知識不足以解決;社會經(jīng)驗性是指具有足夠的社會經(jīng)驗,能夠?qū)ι鐣閯萦兄羁痰睦斫?,才能?yīng)情勢而動;情感體驗性指的是,雖然作為職業(yè)司法官,應(yīng)當以自己的專業(yè)判斷(法理)為準,但是也不能徹底脫離人的情感要求(情理)。只有如此,在行使自由裁量權(quán)時,才能夠做到兼顧法理和情理,實現(xiàn)法律效果和社會效果的有機統(tǒng)一。
對于人工智能而言,專業(yè)復(fù)合性的要求在人工智能巨大的數(shù)據(jù)庫前自然不成問題,但是,作為冷冰冰的機器,其是否能夠具有(或者從何獲得)足夠的社會經(jīng)驗性,其又能否感受一個真正的人可能的情感需求?這些社會經(jīng)驗、情感需要并不是簡單的二進制數(shù)據(jù),獲得的途徑也不可能是單純的數(shù)據(jù)輸入,而是需要在社會中與各式各樣的人交往、與社會環(huán)境接觸,經(jīng)歷歲月的洗禮,從自然人提升為社會人之后才能真正實現(xiàn)。所以人工智能“無疑會具有模擬人的智性、體現(xiàn)人的智性的功能,但很難具有源于人的心性和靈性的司法判斷潛質(zhì)”[7]。
綜上,在現(xiàn)有規(guī)則學(xué)習、過往經(jīng)驗整理和主觀續(xù)造判斷上的缺陷,導(dǎo)致人工智能完美模仿人類司法裁判思維過程顯然難以實現(xiàn),對其深度介入司法理應(yīng)謹慎。
人工智能介入司法需要抱有謹慎的態(tài)度,但是否意味著人工智能針對任何類型的案件都無法做到可能的深度介入?人工智能是否永遠都只能是司法官的輔助者,而無法在任何案件的處理中成為主導(dǎo)者?謹慎是否意味著我們對人工智能深度介入司法過度悲觀?筆者認為,輕微刑事案件的特有司法特性,或許能夠為人工智能的深度介入提供空間。
“案件事實+現(xiàn)有規(guī)則”代表著司法過程的形式性,實現(xiàn)的是形式正義;“過往經(jīng)驗+主觀裁量”則代表著司法過程的實質(zhì)性,實現(xiàn)的是實質(zhì)正義。人工智能具有人類的智性,甚至是超出人類的智性,在“案件事實+現(xiàn)有規(guī)則”方面能夠達到相當程度的要求;但因為不具有人類的心性和靈性,在“過往經(jīng)驗 +主觀裁量”的實現(xiàn)方面,顯然達不到人類對其的期望。也即人工智能對于人類的司法過程的模擬,形式尚可但實質(zhì)不足。
本質(zhì)上,人工智能是大數(shù)據(jù)和算法的結(jié)合,大數(shù)據(jù)時代的來臨意味著“以數(shù)據(jù)為中心,分析數(shù)據(jù)的相關(guān)性,打破了千百年來從結(jié)果出發(fā)探究原因的科研模式,大規(guī)模的復(fù)雜數(shù)據(jù)使得新的科研模式成為可能”[9]。大數(shù)據(jù)時代,傳統(tǒng)的數(shù)據(jù)分析思想應(yīng)做三大轉(zhuǎn)變:一是轉(zhuǎn)變抽樣思想,在大數(shù)據(jù)時代,樣本就是總體,要分析與某事物相關(guān)的所有數(shù)據(jù),而不是依靠少量數(shù)據(jù)樣本;二是轉(zhuǎn)變數(shù)據(jù)測量的思想,要樂于接受數(shù)據(jù)的紛繁蕪雜,不再追求精確的數(shù)據(jù);三是不再探求難以捉摸的因果關(guān)系,轉(zhuǎn)而關(guān)注事物的相關(guān)關(guān)系[10]。簡而言之,“作為結(jié)合要素的大數(shù)據(jù),特征是追求效率而不是絕對精確;追求相關(guān)性而不是因果性”[4]。即對于形式的追求遠遠超出了對實質(zhì)的追求。這既是大數(shù)據(jù)的關(guān)鍵特征,亦是以大數(shù)據(jù)為基礎(chǔ)的人工智能不能深入介入司法裁判的核心原因。但正因如此,我們似乎也發(fā)現(xiàn)了人工智能進行深入介入司法裁判的可能側(cè)面,即同樣是形式要求重于實質(zhì)要求的輕微刑事案件處理。第一,輕微刑事案件由于數(shù)量龐大,更加重視司法效率?!八痉ㄐ蕪哪撤N意義上講是司法公正的題中之義,因為公正是對社會被破壞秩序的恢復(fù),如果秩序能被迅速恢復(fù)也就意味著公正得到了實現(xiàn)。”[11]第二,輕微犯罪的設(shè)立不少是為了預(yù)防更嚴重犯罪行為及結(jié)果的出現(xiàn),或者說現(xiàn)階段輕微犯罪化除了司法化的角度,還有預(yù)防前置的因素。作為抽象危險犯的危險駕駛罪,危險駕駛行為和造成的危害公共安全的危險之間并非具有具體的關(guān)聯(lián)性,或者可以說,因果性并不顯著,更多的是一種發(fā)生的相關(guān)性。
在“(案件事實 +現(xiàn)有規(guī)則)+(過往經(jīng)驗 +主觀裁量)”的思維公式中,未來人工智能對輕微刑事案件更為簡單“案件事實”自不在話下;由于案件事實簡單,所涉及的需要考慮適用“現(xiàn)有規(guī)則”中的半正式或者非正式規(guī)則也相對較少,容易把握;輕微刑事案件數(shù)量龐大,可供參考的過往案例數(shù)據(jù)巨大,“以往案件事實和處理結(jié)果的數(shù)量越大,穩(wěn)定性越強,集中趨勢越明顯,可預(yù)測性就越強”[6];而情節(jié)簡單,量刑幅度較窄,需要司法官進行復(fù)雜主觀裁量的余地不大。顯然,人工智能深入介入輕微刑事案件的司法過程的可行性較為充分。
“(案件事實 +現(xiàn)有規(guī)則)+(過往經(jīng)驗 +主觀裁量)”的思維公式,既代表著形式正義和實質(zhì)正義的實現(xiàn)過程,也代表著司法過程中的經(jīng)驗分類,“案件事實+現(xiàn)有規(guī)則”代表著司法官群體的共性司法經(jīng)驗,或稱為顯性司法經(jīng)驗;“過往經(jīng)驗+主觀裁量”則代表著司法官個體的個性司法經(jīng)驗,或稱之為隱性司法經(jīng)驗。
具體而言,在“案件事實+現(xiàn)有規(guī)則”中,符合法理要求的案件事實在任何司法官的操作中均是一致的,遺漏重要的案件事實,不論是定罪事實還是量刑事實,都會造成案件的錯誤處理。所以對于司法官而言,“案件事實”的判斷具有高度一致性。而我國是成文法國家,嚴格禁止通過“法官造法”等方式在立法之外設(shè)立抽象規(guī)則,司法機關(guān)所創(chuàng)設(shè)的較為具體的適用規(guī)則,最高司法規(guī)則也好,地方司法規(guī)則也罷,對于同一司法區(qū)域的司法官來說,都具有強制性的約束力或者近似于必須遵守的參照性約束力,即他們對“現(xiàn)有規(guī)則”的理解應(yīng)當是一致的。因此,“案件事實 +現(xiàn)有規(guī)則”的思維過程應(yīng)該在司法官(尤其是同一司法區(qū)域)的頭腦中具有高度的一致性。這部分思維過程所形成的便是司法官群體的共性司法經(jīng)驗。這些高度一致的共性司法經(jīng)驗,可以通過書本記錄進而由后來者學(xué)習傳承下來。在“過往經(jīng)驗+主觀裁量”的思維過程中,由于司法官的主觀性,對過往案件的經(jīng)驗整理和主觀上的發(fā)揮續(xù)造,與司法官個體特性存在著極大的關(guān)聯(lián)性。司法官要形成這部分思維過程,“需要集合自我品格、法律修養(yǎng)、知識背景、生活閱歷以及各學(xué)科交叉和教訓(xùn)與悟性,并通過歲月的積累和案件的錘煉以形成的智慧集合體,它屬于私人訂制”[5]。顯然,這部分個性司法經(jīng)驗無法在書本上以固定形態(tài)體現(xiàn),是一種隱性的司法經(jīng)驗。
司法官的思維過程,便是其學(xué)習書本或他人傳授而來的共性(顯性)司法經(jīng)驗和司法官個體長時間自我積累升級而形成的個性(隱性)司法經(jīng)驗共同作用之下的運轉(zhuǎn)過程。人工智能可以有效深度學(xué)習共性司法經(jīng)驗,卻無法學(xué)習人類司法官潛在意識之下的個性司法經(jīng)驗,這決定了人工智能無法全面深度介入司法裁判過程。但是人類司法官的思維過程畢竟是受共性司法經(jīng)驗和個性司法經(jīng)驗的共同影響,人工智能無法對個性司法經(jīng)驗深入學(xué)習,的確無法適用于要求個性司法經(jīng)驗較高的司法裁判過程,但是效率優(yōu)先、案情簡單的輕微刑事案件的處理更多需要的是共性司法經(jīng)驗,而非個性司法經(jīng)驗,不作區(qū)分的認為人工智能一律無法深度介入略顯絕對。
反對意見認為,“人工智能無法獨自面對也不可能處理如此復(fù)雜的摻雜各種利益矛盾的社會糾紛,它只能按照既定路徑選擇法律適用,無法將技巧、經(jīng)驗和平衡等隱形審判技藝有機結(jié)合,因而無法真正實現(xiàn)有溫度的公正裁判,所得出的裁判文書幾乎都是千篇一律”[11]。共性司法經(jīng)驗決定“案件事實 +現(xiàn)有規(guī)則”,因在司法官的主觀上具有高度的一致性,導(dǎo)致輸出的案件結(jié)論自然也會具有高度的一致性,也即所謂的“千篇一律”,這是司法大廈的地基;而個性司法經(jīng)驗決定下的“過往經(jīng)驗 +主觀裁量”,因司法官個體差異便會可能在合理范圍內(nèi)“千變?nèi)f化”,這是司法官根據(jù)自己的經(jīng)驗、能力在地基之上構(gòu)建不同風格、形態(tài)的上層構(gòu)造。換句話說,“千篇一律”的地基構(gòu)造是一種同一性的機械性構(gòu)造,而“千變?nèi)f化”的上層構(gòu)造則是發(fā)揮主觀能動空間的創(chuàng)造性建設(shè)。將人工智能定位為“將辦案人員從事務(wù)性或基礎(chǔ)性工作中解放出來,將有限的司法資源運用到最需要的領(lǐng)域,通過規(guī)范其行為、改變其工作方式、調(diào)整精力付出對象,為司法工作注入持續(xù)高效動力”[5]的輔助者,而認為其不適合作為主導(dǎo)者的觀點,也即認為人工智能機械性活動較為突出,但是創(chuàng)造性應(yīng)用有顯著缺陷。
案件事實簡單的輕微刑事案件之間所具有的相似性遠大于差異性,對輕微刑事案件的處理應(yīng)當是從追求個案差異性處理轉(zhuǎn)向個案格式化處理,或者說追求案件的高效率批量化處理,輸出的產(chǎn)品自然是格式化產(chǎn)品,只會存在些許細微差別,而主要形態(tài)仍是一致的。這也就意味著,輕微刑事案件的處理結(jié)論很可能就是“千篇一律”的,而不可能存在著“千變?nèi)f化”的余地。既然都是“千篇一律”,人工智能為何不能嘗試性的深入輕微刑事案件的司法,成為案件的主導(dǎo)者。
人工智能介入司法需要謹慎,這種謹慎可以分為兩個層次:第一,人工智能是否能夠深度介入司法?前文已經(jīng)回答了這個問題,即人工智能可以乃至應(yīng)當嘗試性深度介入輕微刑事案件的司法;第二,人工智能如何慎重地深度介入輕微刑事案件的司法?解決這個問題的方法是,人工智能應(yīng)當有階段的逐步深度介入輕微刑事案件的司法中。
在這個階段中,人工智能的角色在于輔助專職司法官辦理案件,類似于徒弟和師傅的關(guān)系。在人類專職司法官辦理案件的過程中,一邊為其提供證據(jù)提取、篩選、比對,搜尋案例,規(guī)則查找,出具司法文書等輔助性工作,將司法官從繁瑣的事務(wù)性工作中解放出來,能夠?qū)⒐ぷ髦攸c放在證據(jù)取舍、證明力大小判斷、案件結(jié)論得出等重要的核心工作中,高效準確處理案件;一邊進行自主學(xué)習,在諸多案件的處理過程中了解司法官的思維過程,熟悉司法官考量案件時的相關(guān)因素,逐步深入模擬乃至還原司法官的司法過程。
在本階段需要注意以下問題:第一,必須堅持以司法官為主體,避免司法官過度依賴人工智能,從主導(dǎo)者變成輔助者。比如該階段的智能司法系統(tǒng)已經(jīng)能夠為司法官根據(jù)過往案例計算并推送定罪結(jié)論和量刑建議,但這種定罪結(jié)論和量刑建議應(yīng)當是司法官做出自我判斷的參考意見,而非是應(yīng)當直接采用的標準答案。需要避免出現(xiàn)司法官摒棄自己的獨立思考和專業(yè)判斷,進而直接采用智能系統(tǒng)給出的結(jié)論的情形,否則在司法官和人工智能的關(guān)系中便會出現(xiàn)本末倒置的風險,司法官反而成為了人工智能的輔助者。這樣操作的危險性顯而易見,本階段人工智能在司法中的應(yīng)用本就處于起步階段,其對案件裁判的準確性仍然值得考察,放任由人工智能做出案件處理結(jié)論,極易導(dǎo)致冤假錯案的出現(xiàn)。另外,人工智能在本階段的關(guān)鍵任務(wù)在于向司法官學(xué)習,當然必須以司法官為主體,如果司法官成為了人工智能的輔助者,人工智能便無法實時進行學(xué)習司法官的思維過程,未來其所獨立做出的結(jié)論,將只會是其過往案例裁判數(shù)據(jù)庫運算后的公式性延續(xù);第二,司法官需細化案件說理過程。雖然輕微刑事案件通常情況下案情簡單,法律適用并不復(fù)雜,但作為“法官自由心證的書面化、公示化”[12]的說理過程,能為人工智能的學(xué)習提供更為詳細的樣本、更為細致的信息。此外,還有可能起到料想以外的結(jié)果,“孤立來看,判決書中許多信息沒什么意義。但如果聯(lián)系起來看,就會發(fā)現(xiàn)一些極具預(yù)測價值的信息、關(guān)系或規(guī)律”[6],即具有較高智性的人工智能可能實現(xiàn)深入挖掘,甚至得出一些司法官自己并未意識到的內(nèi)容。
在人工智能作為“徒弟”在專職司法官的教授和引導(dǎo)之下,順利“出師”之后,也并不意味著其就可以獨當一面,仍然還需要經(jīng)歷一個“實習”的階段,讓其經(jīng)歷更為親身的司法體驗。可以將人工智能的“實習期”安排與非專職司法官①我國未來完全可以考慮設(shè)置如英國治安法官的非專職司法官制度。進行配合辦案,即設(shè)計一個“人機共存”的階段。讓兩者進行合作辦案,使得非專職司法官制度和人工智能介入司法兩者出現(xiàn)互相促進的局面。非專職司法官缺乏法律專業(yè)素養(yǎng)的長期訓(xùn)練,但是具備普通社會人的情感感受和社會經(jīng)驗;而人工智能經(jīng)過專職司法官的“培訓(xùn)”之后,法律專業(yè)素養(yǎng)得到了長足的積累,但是仍然欠缺充分的人類情感感受和社會經(jīng)驗,兩者的優(yōu)勢和劣勢正好可以互補,毫無疑問在這種互動機制下,兩種制度均能得到有益發(fā)展。
本階段需要注意的問題是,人工智能與非專職司法官的關(guān)系是協(xié)作關(guān)系,需警惕人工智能排斥非專職司法官的情況??梢灶A(yù)想到的是,由于人工智能在法律專業(yè)素養(yǎng)上較之非專職司法官具有較為明顯的優(yōu)勢,非專職司法官可能會選擇盲從人工智能在案件上的專業(yè)判斷,導(dǎo)致其在兩者關(guān)系中處于完全的附屬地位。如此的話,人工智能將失去繼續(xù)學(xué)習人類的情感感受和社會經(jīng)驗對案件處理可能影響的機會,非專職司法官制度也將在人工智能面前失去存在的意義。所以,非專職司法官在與人工智能協(xié)同辦案的過程中,仍然需要堅定自己的辦案主體地位,對于人工智能給出的意見進行思考、調(diào)整,以期給出專業(yè)性和情感性兼具的司法結(jié)論。
人工智能介入輕微刑事案件司法的最終階段就是人工智能脫離人的束縛進行獨立的案件處理。此時的人工智能應(yīng)當處于兼具專業(yè)法律素養(yǎng),以及基本人類情感感受和社會經(jīng)驗的階段,獨立處理案情簡單、處罰輕微的輕微刑事案件已完全不是問題。但是,這個社會畢竟還是需要以人為主體進行構(gòu)建,而且即使是輕微刑事案件的司法公正仍然對這個社會的和諧、有序發(fā)展起著十分重要的影響作用,所以,在人工智能獨立處理輕微刑事案件的情況下,仍然需要人類對其進行掌控,避免人工智能處理的案件成為司法不公的源頭。
因此,以人為主的配套機制仍然應(yīng)當存在:第一,過程控制機制。雖然人工智能具有高度的智性,按照程序設(shè)計幾乎可以完美無瑕的執(zhí)行,但是好比人類會犯錯誤,人工智能同樣也有可能出現(xiàn)程序失誤或者出錯的時候,必須在人工智能運行過程中進行實時控制或監(jiān)督,對可能出現(xiàn)的錯誤進行及時發(fā)現(xiàn),防止造成錯誤的司法結(jié)果;第二,結(jié)果預(yù)警機制。輕微刑事案件發(fā)案量較大,也即樣本數(shù)量足夠龐大,其裁判結(jié)果在量刑幅度內(nèi)的分布應(yīng)當符合正態(tài)分布,即以某個中間刑期為頂點,向最低刑和最高刑的兩側(cè)逐步降低,當新的案件司法結(jié)果落入左右兩側(cè)極值區(qū)域時,人工智能應(yīng)當能夠及時發(fā)現(xiàn)并發(fā)出預(yù)警,通知司法官對案件進行復(fù)核,查看該裁判結(jié)果是否準確合適;第三,司法責任機制。人工智能是一套計算機系統(tǒng),其并不是人,“誰辦案誰負責”的司法責任制必然無法適用于人工智能。但是這并不意味著人工智能進行案件處理時不需要責任追究機制。毫無疑問,司法責任承擔的主體只能是人,在人工智能獨立處理案件的過程中,存在人介入的環(huán)節(jié),包括人工智能的設(shè)計者和維護者、過程控制者、預(yù)警審核者等。作為技術(shù)人員,人工智能系統(tǒng)的設(shè)計者和維護者自然不能承擔案件處理錯誤的責任,能夠追究的應(yīng)當是直接與司法環(huán)節(jié)相關(guān)的,即過程控制環(huán)節(jié)中未能履行監(jiān)督責任,以及結(jié)果預(yù)警環(huán)節(jié)中未能及時處理預(yù)警或者過錯處理的司法人員。
人工智能介入司法的態(tài)度和程度,完全取決于人工智能究竟能夠多大限度接近人類。從現(xiàn)階段我們可能的視野來看,人工智能要成為“真實的人類”的難度很大,也即不適合全面深度介入司法。雖然需要謹慎,但是我們亦無需過度悲觀,科技的發(fā)展也許在不遠的未來就能夠超出我們現(xiàn)有的想象,我們也必須為這種未來的可能性做好準備。輕微刑事案件的司法特性與人工智能的契合性,為人工智能嘗試性的深度介入提供了可行性,也為未來可能的全面深度介入各類案件奠定堅實基礎(chǔ)。