張保生
(中國政法大學(xué) 證據(jù)科學(xué)教育部重點(diǎn)實(shí)驗(yàn)室,北京100088)
人工智能研究自1956年誕生以來,一直在朝著“知識的每個領(lǐng)域或智能的任何一個其他特征,都可以如此精確地加以描述,以致能夠制造出一種機(jī)器來模擬它”①的宏偉目標(biāo)不斷邁進(jìn)。經(jīng)過短短60年的發(fā)展,到2016年,阿爾法狗(AlphaGo)挑戰(zhàn)世界圍棋冠軍三局全勝,從而引發(fā)了新一輪人工智能研究的熱潮。然而,由深度學(xué)習(xí)所帶動的這一波人工智能熱潮,也引起學(xué)者們對媒體炒作、民眾翹盼和政府撒錢的擔(dān)憂。人工智能雖然具有無限美好的發(fā)展?jié)摿?,但其目前所能達(dá)到的“智能”水平還很低,學(xué)習(xí)算法系統(tǒng)的可解釋性、穩(wěn)定性、穩(wěn)健性等還很差。例如,就人工智能最尖端的模式識別技術(shù)而言,只要在人臉圖片上加一個很小的噪聲,機(jī)器的識別能力就會大打折扣;②對圖片中物體的位置、方向做很小的改動,機(jī)器識別就會變得很差,而人眼基本上不會犯這種低級錯誤。③因此,有專家感嘆,很多機(jī)器人不管外形多酷,都不過是裝了輪子的蘋果手機(jī)——它們既不會主動感知,也不會與真實(shí)物理世界互動,其智能還不如剛出生幾個月的嬰兒。④因此,在這一波人工智能熱潮中,不被深度學(xué)習(xí)的神話沖昏頭腦,冷靜思考智能模擬的現(xiàn)實(shí)困難,探索解決這些困難的具體途徑,應(yīng)該成為下一階段人工智能研究的重點(diǎn)。
人工智能在法律領(lǐng)域中的應(yīng)用,始于1970年布坎南等發(fā)表的《關(guān)于人工智能和法律推理若干問題的考察》一文。⑤此后,在技術(shù)進(jìn)步和法律需求的雙重推動下,1981年,D·沃特曼和M·皮特森開發(fā)了“法律判決輔助系統(tǒng)”(LDS),這是專家系統(tǒng)在司法領(lǐng)域的第一次實(shí)際應(yīng)用。該系統(tǒng)運(yùn)用嚴(yán)格責(zé)任、相對疏忽和損害賠償?shù)饶P?,計算出?zé)任案件的賠償價值,并論證了模擬法律專家意見的方法論問題。⑥在那之后,又經(jīng)過30多年的發(fā)展,到2016年,倫敦大學(xué)學(xué)院(UCL)、謝菲爾德大學(xué)和賓夕法尼亞大學(xué)科學(xué)家研制的人工智能程序,對歐洲人權(quán)法院584個案件的英文數(shù)據(jù)集進(jìn)行分析,并提出了自己的裁決。人工智能“法官”與法官裁決相同的案件達(dá)到了79%。⑦
中國人工智能法律系統(tǒng)研發(fā)起步并不晚,這主要?dú)w功于錢學(xué)森教授20世紀(jì)80年代倡導(dǎo)“法治系統(tǒng)工程研究”⑧所起的思想解放和理論奠基作用。此后取得的重要研究成果包括:1993年,中山大學(xué)胡釗等學(xué)生研制了《LOA律師辦公自動化系統(tǒng)》;⑨武漢大學(xué)法學(xué)院趙廷光教授主持開發(fā)了《實(shí)用刑法專家系統(tǒng)》,⑩該系統(tǒng)具有檢索刑法知識和輔助量刑的功能。在經(jīng)過20多年沉寂后,由深度學(xué)習(xí)所掀起的新一波人工智能熱潮也驚動了法律界。2016年,在世界互聯(lián)網(wǎng)大會智慧法院暨網(wǎng)絡(luò)法治論壇上,最高法院周強(qiáng)院長提出:“將積極推動人工智能在司法領(lǐng)域的應(yīng)用。”同年,“元典律師工作平臺”開通,其定位于協(xié)助律師管理案件項目、跟進(jìn)流程進(jìn)度、整理文檔資料、利用法律大數(shù)據(jù)提供智能支持,“致力于讓機(jī)器逐漸習(xí)得法律認(rèn)知能力”。2017年,武俠律師的“法律機(jī)器人”上線,欲借助互聯(lián)網(wǎng)、人工智能的優(yōu)勢構(gòu)建法律服務(wù)平臺。該系統(tǒng)可在1秒鐘生成上萬字的法律咨詢意見和預(yù)判報告。周強(qiáng)院長的全國人大《最高人民法院工作報告》指出,人民法院將加快建設(shè)智慧法院,綜合運(yùn)用云計算、大數(shù)據(jù)等技術(shù),研究構(gòu)建司法人工智能系統(tǒng),為審判體系和審判能力現(xiàn)代化注入新動力,為司法改革和法治中國建設(shè)提供有力支撐。在最高人民法院的積極推動下,北京、上海、浙江、江蘇、廣東、貴州等地推出了名稱不同的人工智能法律系統(tǒng)或“智慧法院”建設(shè)計劃,如北京法院的“睿法官”智能研判系統(tǒng)、上海法院的“206”刑事案件智能輔助辦案系統(tǒng),蘇州法院的“智慧審判蘇州模式”。可以預(yù)見,不久會有一批人工智能法律系統(tǒng)或“機(jī)器人法官”問世。
人工智能法律系統(tǒng)研發(fā)的動力,主要得益于科技進(jìn)步和司法實(shí)踐的需要。但若認(rèn)為人工智能技術(shù)已經(jīng)成熟到可以解決智能法律系統(tǒng)的關(guān)鍵問題,那則是一種重大誤解。對人工智能法律系統(tǒng)研發(fā)的盲目樂觀和急于求成,主要源于人們對“人工智能的本質(zhì)乃功能模擬”的無知。何謂功能模擬?按照控制論的思想,就是不問結(jié)構(gòu)如何,只要鋼鐵之軀的機(jī)器能做和人一樣的事情,就要承認(rèn)它具有和人一樣的智能。舉個簡單例子,你開著一輛汽車通過收費(fèi)站,電子眼自動讀取你的車牌號,電腦自動計算并扣繳過路費(fèi)或停車費(fèi),電子欄桿自動抬起給你的車輛放行。這一套工作無需人來干,你就不得不承認(rèn)這套系統(tǒng)能干和人類收費(fèi)員一樣的事情,但是,你不能說它和人類收費(fèi)員具有一樣的智能。因?yàn)?,人類收費(fèi)員還可以處理很多機(jī)器不能干的復(fù)雜的事情。目前,工業(yè)機(jī)器人已經(jīng)在很多領(lǐng)域代替了人的體力和腦力勞動,家庭機(jī)器人也開始進(jìn)入日常生活服務(wù)領(lǐng)域,自動駕駛盡管還飽受詬病,卻也不再是不能解決的問題。人工智能就是要制造“人工的、模擬的、假的”智能,以代替人類“自然的、原型的、真的”智能,而且,這種制造愈能以假亂真,愈能顯示人的聰明才智,愈能解放人的腦力勞動。
而且,人工智能功能模擬的優(yōu)勢,也是它的局限性所在。這主要源于機(jī)器缺乏七情六欲,因而難以模擬人的主體意識、主觀感受和主體選擇。因此,單一的功能模擬路徑需要以結(jié)構(gòu)模擬來補(bǔ)充,這催生了神經(jīng)網(wǎng)絡(luò)、腦-機(jī)接口等探索性方案。這些探索雖不會在短期內(nèi)取得突破性成果,但這并不意味著面對困難我們無所作為,只能消極等待人工智能技術(shù)的成熟。法學(xué)家可以和邏輯學(xué)家、計算機(jī)專家密切合作,深入研究法律推理的機(jī)理和方法,探索其形式化或模型化的法學(xué)解決方案。這可稱為人工智能法律系統(tǒng)之基礎(chǔ)理論研究。
人工智能對人類思維的模擬,對于亞里士多德所謂兩類推理性思維而言,其難度是大不一樣的。第一類必然推理,其前提是不證自明的自然定律或定理,由于“通過證明科學(xué)而獲得的知識具有必然性”,人工智能在這類推理領(lǐng)域似乎可以縱橫馳騁;第二類辯證推理,其前提卻是人們“普遍接受的意見”,這使它具有“辯論、討論”等公開性論證的特點(diǎn),其結(jié)構(gòu)和功能更加復(fù)雜,通過這類推理所獲得的知識只具有或然性。人工智能法律系統(tǒng)的模擬對象是法律推理,涉及社會科學(xué)知識領(lǐng)域,其復(fù)雜性和困難程度都是第一類推理無法比擬的。
法律推理是一個法庭裁決(decision-making)過程,“前提是事實(shí)、法律和解釋,結(jié)論是表述本案裁決的主張”。法律推理作為法治國家通行的審判方式,以控、辯、審三方為互動主體,由事實(shí)認(rèn)定和法律適用構(gòu)成兩個階段。弗里德曼用信息論觀點(diǎn)分析了這個過程,將其分為原材料的輸入、加工、判決輸出和信息反饋等階段。在他看來,法院作為信息“加工廠”是一個控制論“黑箱”?!白?yōu)橐蟮纳鐣萘闹贫鹊囊欢溯斎?,判決和規(guī)則從另一端流出。我們應(yīng)該把多少功歸于中間的黑盒子?機(jī)器如何操作,做些什么?”這些問題,既反映了法律推理本身的復(fù)雜性,也反映了對法律推理微觀研究的薄弱。
瑞典法學(xué)家瓦爾格倫(Peter Wahlgren)從人工智能角度對法律推理過程進(jìn)行微觀研究,將其描述為一個從案情開始?xì)v經(jīng)7個階段而做出裁決的活動過程,參見圖1。
圖1 法律推理的一般過程
在圖1中,由證成、法律檢索、解釋、規(guī)則適用、評價、學(xué)習(xí)、簡述構(gòu)成的7個階段,使法律推理過程進(jìn)一步細(xì)化,這對法學(xué)家具有重要的啟發(fā)。其中,證成是一個證據(jù)推理或事實(shí)認(rèn)定的過程。經(jīng)過證成的案件二分為簡單案件和疑難案件,前者是案件事實(shí)清楚、法律規(guī)定明確的案件。簡單案件的法律推理一般是按照“法律規(guī)則+事實(shí)真相=判決結(jié)論”三段論方式進(jìn)行的,由于案件事實(shí)簡單清楚,無需經(jīng)過復(fù)雜的證據(jù)推理,便可直接進(jìn)入第二個階段的法律檢索;而且,由于法律規(guī)定明確,無需對規(guī)則進(jìn)行解釋,便可“對號入座”進(jìn)入規(guī)則適用階段。
從這個意義上說,目前國內(nèi)外開發(fā)的所謂人工智能法律系統(tǒng),包括趙廷光教授的《實(shí)用刑法專家系統(tǒng)》,武俠律師的“法律機(jī)器人”,最高人民法院推動的北、上、廣、浙、蘇、黔等地即將推出的“智慧法院系統(tǒng)”,以及倫敦大學(xué)學(xué)院等開發(fā)的人工智能“法官”系統(tǒng),實(shí)際上都是“簡單案件—法律適用量刑系統(tǒng)”,即初級人工智能法律系統(tǒng),而不是“復(fù)雜案件—法律推理系統(tǒng)”。這些人工智能法律系統(tǒng)的特點(diǎn)是,沒有對證成階段的證據(jù)推理和法律適用階段的法律解釋進(jìn)行模擬,而是直接把案件事實(shí)當(dāng)作法律推理小前提,用三段論演繹推理方法得出裁判結(jié)論;其適用于簡單速裁案件或小額法院審判,可以減輕法官耗費(fèi)在簡單案件上的腦力勞動,從而集中精力處理復(fù)雜疑難案件。當(dāng)然,從審判之政治正當(dāng)性考慮,即使簡單案件的審理,也應(yīng)該是“人—機(jī)法律系統(tǒng)”,判決書必須由法官審核簽發(fā)。
與簡單案件相比,疑難案件是事實(shí)復(fù)雜、規(guī)則模糊的案件,因而需要走完法律推理從證成到簡述完整的7個階段,特別是要進(jìn)行復(fù)雜的證據(jù)推理和法律解釋。就疑難案件人工智能法律系統(tǒng)而言,有兩點(diǎn)必須明確:第一,外圍技術(shù)不能代替核心技術(shù)。就是說,僅僅靠互聯(lián)網(wǎng),甚至“綜合運(yùn)用云計算、大數(shù)據(jù)等技術(shù)”,是無法深入開展人工智能法律系統(tǒng)研發(fā)的,因?yàn)檫@些都是外圍技術(shù)。人工智能法律系統(tǒng)的核心技術(shù)是7階段法律推理模擬,特別是其中最困難的證據(jù)推理和法律解釋的模擬。因此,不能幻想用簡單的大數(shù)據(jù)挖掘方法,或單憑深度學(xué)習(xí)的方法,去解決高度復(fù)雜的法律推理模擬問題。第二,人工智能法律系統(tǒng)的研發(fā)內(nèi)容不是“法律適用或量刑系統(tǒng)”,而是模擬法律推理全過程,制造能夠通過疑難案件級別“圖靈測試”的人工智能法律系統(tǒng)。這需要人工智能研究和法律推理研究互動,“一方面是用人工智能(通過把計算機(jī)的應(yīng)用與分析模型相結(jié)合)來支撐法律推理的可能性;另一方面是應(yīng)用法學(xué)理論來解決作為法律推理支撐系統(tǒng)的以及一般的人工智能問題”。
概而言之,在這一波人工智能法律系統(tǒng)研究熱潮中,如果不想讓“智慧法院”建設(shè)變成一場“大煉鋼鐵”的游戲,關(guān)鍵是要突破法律推理模擬的兩個難題:一是證據(jù)推理模擬,二是法律解釋模擬。只有扎扎實(shí)實(shí)地研究法律推理的過程和方法,找到法律推理模擬的“算法”,真正的人工智能法律系統(tǒng)才能出現(xiàn)。然而,恰恰是在這兩個關(guān)鍵科學(xué)問題上,人們認(rèn)識不夠,投入不足,研究薄弱,其效果難免差強(qiáng)人意。
在法律推理研究中一直存在著兩個傾向:一是熱衷于探究法律適用中的實(shí)質(zhì)推理問題,卻忽視事實(shí)認(rèn)定對法律適用的決定作用;二是習(xí)慣于把疑難案件僅僅視為法律適用的疑難案件,而無視其實(shí)際上是事實(shí)認(rèn)定的疑難案件。特文寧教授對此評論說,法學(xué)家們總是將“法律推理”局限于關(guān)于法律問題的推理,直到最近,那些對經(jīng)濟(jì)分析、后現(xiàn)代主義以及批判法學(xué)感興趣的人,才把其注意力轉(zhuǎn)移到證據(jù)問題上。
1.證據(jù)推理是一個發(fā)現(xiàn)法律推理小前提的操作
法律推理的典型邏輯形式是三段論推理,但從邏輯與歷史相統(tǒng)一的角度看,其實(shí)際操作卻不是先有法律大前提,而是先通過證據(jù)推理去發(fā)現(xiàn)小前提,再去尋找大前提。因此,帕頓(Paton)認(rèn)為,歸納方法實(shí)際上常常作為演繹推理的一種補(bǔ)充理論:歸納法將大前提歸于從特殊案例中所得到的發(fā)現(xiàn),而演繹法則把這種發(fā)現(xiàn)視為既定的東西。“什么是‘小前提’?……小前提并非一類可以由諸如大法官的意見或者議會立法等權(quán)威命令‘賦予’真實(shí)性的命題。它是表示特定歷史情境的命題,因此它需要借助于特定的相關(guān)證據(jù)加以證明?!憋@然,法律推理的小前提并非案件事實(shí)(fact),而是經(jīng)過法庭審判控、辯、審三方舉證、質(zhì)證和認(rèn)證過程所獲得的認(rèn)識成果——事實(shí)真相(truth)。
審判中實(shí)際發(fā)生的法律推理過程可以分為三個步驟:第一步是通過證據(jù)推理查明事實(shí)真相,將其作為小前提;第二步是依據(jù)這個小前提,檢索或?qū)ふ曳梢?guī)則(大前提);第三步才是法律適用,即從大前提到小前提而得出結(jié)論的演繹推理。從這個意義上說,沒有第一步準(zhǔn)確的事實(shí)認(rèn)定,就不可能有第二步法律檢索和第三步正確的法律適用。事實(shí)認(rèn)定是法律推理的起點(diǎn),這決定了人工智能法律系統(tǒng)首先要突破的難題是事實(shí)認(rèn)定階段的證據(jù)推理。但目前,無論法學(xué)界還是人工智能專家對這一點(diǎn)都普遍缺乏認(rèn)識,特別是對證據(jù)推理研究的困難和復(fù)雜性的估計嚴(yán)重不足,這難免會使人陷入盲目樂觀。
如上所述,人工智能法律系統(tǒng)目前取得的成果,均是在簡單案件的法律適用或量刑系統(tǒng)方面,這與法律推理全過程模擬的研發(fā)目標(biāo)還有巨大差距。法律推理過程模擬的起點(diǎn)和難點(diǎn)是證據(jù)推理,因此應(yīng)該將此作為主攻目標(biāo)。證據(jù)推理模擬的困難來自兩個方面:一是證據(jù)分析,二是歸納方法。就證據(jù)本身而言,其相關(guān)性、可采性、證明力和可信性是證據(jù)分析的主要內(nèi)容,是證據(jù)推理的前提性步驟。證據(jù)分析模擬的難點(diǎn)是可采性(admissibility),它是指“在聽審、審判或其他程序中被允許進(jìn)入證據(jù)的品質(zhì)或狀況”??刹尚砸?guī)則設(shè)置了兩個條件:一是必要條件,即“不相關(guān)的證據(jù)不可采”,或曰不相關(guān)證據(jù)排除規(guī)則,這對智能模擬程序來說并非高不可攀;二是其他條件,即相關(guān)證據(jù)排除規(guī)則,這才是智能模擬的難點(diǎn)。因?yàn)?,后者是一個法官自由裁量權(quán)問題,涉及“危險性在實(shí)質(zhì)上超過相關(guān)證據(jù)的證明力”的價值權(quán)衡。這個“實(shí)質(zhì)上超過”的平衡檢驗(yàn)表明,法官只有在對一個證據(jù)的消極影響超過其證明力十分自信時,才會排除該相關(guān)證據(jù)。表1反映了美國法院對規(guī)則403平衡檢驗(yàn)進(jìn)行實(shí)證研究所取得的成果:
表1 美國法院法官在規(guī)則403相關(guān)證據(jù)排除平衡檢驗(yàn)中的自由裁量權(quán)
﹡如果證明力接近“中”等范圍的下限,且消極影響非常高;或者,如果證明力非常低,且消極影響接近“中”等范圍的上限,規(guī)則403可能允許排除證據(jù)。
從表1可見,當(dāng)相關(guān)證據(jù)的證明力分別為“高、中、低”,規(guī)則403所列因素的消極影響與其對應(yīng),法官是否排除證據(jù)取決于運(yùn)用“危險性實(shí)質(zhì)上超過證明力”檢驗(yàn)標(biāo)準(zhǔn)所做的價值權(quán)衡。人能平衡相互沖突的價值,權(quán)衡對人類生存和發(fā)展重要程度不同的價值位階。這種權(quán)衡反映了求真與公正、和諧、效率等價值的競合,“求真的目的與其他目的——諸如經(jīng)濟(jì)性、保護(hù)某些自信、助長某些活動、保護(hù)一些憲法規(guī)范——相互競爭”。證據(jù)推理應(yīng)當(dāng)追求真善統(tǒng)一,但價值推理模擬是一個弱項。在瓦爾格倫提出的人工智能5種知識表達(dá)途徑中,雖包括以道義為基礎(chǔ)的法律推理模型,但引入道義邏輯是智能模擬的一大難題。即使把道義邏輯硬塞進(jìn)計算機(jī)程序,“鋼鐵之軀”的機(jī)器沒有生理需求,也很難自生價值觀念和主觀體驗(yàn)。所以,要解決主觀選擇或自由裁量的問題,恐怕要反思人工智能傳統(tǒng)的功能模擬這一單一進(jìn)路,是否需要以必要的結(jié)構(gòu)模擬加以補(bǔ)充。
如果說可采性檢驗(yàn)還只是證據(jù)能力或證據(jù)采納的門檻條件,那么,證據(jù)采信還要解決證據(jù)可信性評價問題?!翱尚判浴?credibility)是“使某些事情(如證人或證據(jù))值得相信的特性”。與科學(xué)研究中可以對證據(jù)可信性做長期觀察、反復(fù)檢驗(yàn)不同,在訴訟活動中,證人可能失蹤或死亡,“文件可以偽造,貨幣可以假冒,圖像可以錯誤標(biāo)記,血液樣品可以混合,毒品可以栽贓給他人”。如此一來,依據(jù)何種品質(zhì)的證據(jù)進(jìn)行推理,就成為人工智能法律系統(tǒng)必須面對的一個問題,如圖2“證言三角形理論”。
圖2 證言三角形理論
在證言三角形中,感知能力、記憶能力、誠實(shí)性和敘述能力是證言可信性的四種品質(zhì)。聽者與說者的信息傳送、接收和加工,均受這四種品質(zhì)影響,遠(yuǎn)比一般通信理論要復(fù)雜得多。首先是敘述-歧義性,智能模擬不僅要考慮自然語言的模糊性,還要考慮敘述-歧義性背后起作用的心理因素。其次是誠實(shí)性,誠實(shí)與說謊是一體兩面的關(guān)系,目前要造一臺會說謊的機(jī)器還是天方夜譚,但從說謊及信息編碼等問題反向研究誠實(shí)機(jī)理不失為一種策略。最后是記憶和感知,人的記憶隨時間而衰減,感知則滲透著理性。心理學(xué)實(shí)驗(yàn)研究表明,“目擊者們對他們看到的東西所做的敘述,經(jīng)常與事件的本來面目非常不同?!谝豁棇?shí)驗(yàn)研究中,巴克霍特、菲格羅和霍夫在一間大教室里導(dǎo)演了一場襲擊一位站在講臺上的教授的事件,并在幾周后要求目擊者們辨認(rèn)襲擊者。結(jié)果,大多數(shù)人——包括受害者挑錯了襲擊者”。因此,人工智能證據(jù)推理模擬,首先要解決輸入信息的可信性評估問題,具備分辨證據(jù)真?zhèn)蔚哪芰?。在審判中,這個問題是通過交叉詢問和彈劾證人來解決的。“交叉盤問是檢驗(yàn)證人可信性并證明其說法可能存在另一面的有效方式?!弊C據(jù)分析能力可以通過研究律師交叉詢問策略和證人彈劾技巧、法官認(rèn)證方法而獲得,這是一項極為困難的研究工作,因?yàn)檫@些策略、技巧和能力很多屬于經(jīng)驗(yàn)智慧。
2.證據(jù)推理的經(jīng)驗(yàn)性和歸納邏輯
(1)事實(shí)認(rèn)定是一個經(jīng)驗(yàn)推論過程。例如,證據(jù)相關(guān)性的檢驗(yàn)就是一個經(jīng)驗(yàn)判斷?!跋嚓P(guān)性的核心問題是,一個證據(jù)性事實(shí)能否與事實(shí)認(rèn)定者先前的知識和經(jīng)驗(yàn)聯(lián)系起來,從而允許該事實(shí)認(rèn)定者理性地處理并理解該證據(jù)。”如圖3所示,從證據(jù)到待證事實(shí)的推論,使證人證言轉(zhuǎn)變?yōu)槭聦?shí)認(rèn)定者的信念,因而是一個客體主體化的過程,轉(zhuǎn)變的基礎(chǔ)是主體的經(jīng)驗(yàn)。證據(jù)推理的經(jīng)驗(yàn)性決定了其邏輯形式是歸納推理。在審判中,事實(shí)認(rèn)定者與事實(shí)客體之間沒有任何直接聯(lián)系,不能像證人那樣親眼看到案件中發(fā)生的事情,只能通過證據(jù)對過去事實(shí)發(fā)生的可能性進(jìn)行推論。這是一個由證據(jù)到推斷性事實(shí)(中間待證事實(shí)),再到要件事實(shí)(次終待證事實(shí)),最后與實(shí)體法要件(最終待證事實(shí))聯(lián)系起來的歸納推理過程。
圖3 證據(jù)推論鏈條
在圖3中,E*代表案件的證據(jù),事實(shí)認(rèn)定者只能在一定程度上從該證據(jù)推斷事件E確實(shí)發(fā)生了。通過命題E、F、G和P1…n指示的一系列推論鏈條,才能把證據(jù)E*與最終待證事實(shí)連接起來。例如,在張三謀殺李四案中,假設(shè)證人1提供證言(E*)說:“我看見張三那天下午4點(diǎn)15分進(jìn)入李四家?!碑?dāng)試圖把證人1的證言和最終待證事實(shí)(李四正是被張三謀殺)連接起來時,要求對每一待證要件事實(shí)(圖3中由P1…Pn所表示的每個次終待證事實(shí))進(jìn)行證明。假設(shè),次終待證事實(shí)P1是“張三有謀殺李四的機(jī)會”,那么,通過命題E、F、G和P1指示的一系列推理環(huán)節(jié),都必須基于概括(G1……G4)。這些概括為每一個推理環(huán)節(jié)提供了動力或正當(dāng)理由,準(zhǔn)許了從命題E到命題P的推論。例如,從證人1“我看到張三那天下午4點(diǎn)15分進(jìn)入李四家”的證言(E*)出發(fā),要求事實(shí)認(rèn)定者推斷,張三那天下午4點(diǎn)15分確實(shí)去了李四家(E),該推論依據(jù)的概括4(G4)大概是“出庭作證的證人,通常是誠實(shí)的”;而從E到F(例如,張三那天下午4點(diǎn)30分在李四家)的推論,則可能是基于概括3“一個家庭訪客,通常會逗留15分鐘”(G3);以此類推。但是,這個推論鏈條中的證據(jù)支持的只是控方事實(shí)主張。事實(shí)認(rèn)定者要“兼聽則明”,還需通過質(zhì)證程序考慮辯方的證據(jù)。例如,辯護(hù)方證人可能作證說:“那天下午4點(diǎn)15分,我在一家電影院碰見張三,那家電影院距離李四家10公里?!泵鎸@些相互沖突的證據(jù)和事實(shí)主張,事實(shí)認(rèn)定者必須對證據(jù)可信性做出評估,才能對不同事實(shí)主張成立的可能性做出判斷。
(2)概括的必要性和危險性:關(guān)于社會知識庫建構(gòu)。歸納推理所依賴的經(jīng)驗(yàn)知識,以“概括”(generalization)的形式反映了事物的一般聯(lián)系和人的一般行為方式。“反過來,這種概括又成為使我能夠把特定證據(jù)與人們希望證明的一個因素聯(lián)系起來的前提?!备爬ㄔ谧C據(jù)推理中具有雙重性:“必要卻危險?!币辉槐匾醋C據(jù)推理離不開概括,如圖3所示,從證據(jù)E到次終待證事實(shí)P1的每一個推論步驟,都必須踩著“概括之石”(G1,G2,G3,G4),才能從證據(jù)“此岸”到達(dá)事實(shí)認(rèn)定的“彼岸”;二曰危險,因?yàn)樵谏鐣爸R庫”中,從科學(xué)定律到直覺、成見、印象、神話、諺語、希望、推測或偏見,不同概括具有不同的可靠性等級。事實(shí)認(rèn)定者如果依據(jù)不可靠的概括進(jìn)行推論,就有產(chǎn)生錯誤判決的風(fēng)險。例如,念斌投毒案一審判決書將公訴機(jī)關(guān)的指控直接采信為定案的證據(jù)稱:“經(jīng)審理查明,……2006年7月26日晚,被告人念斌看見快走到他的食雜店門口的顧客,轉(zhuǎn)向進(jìn)了丁云蝦的食雜店,故對丁云蝦懷恨在心。次日凌晨1時許,被告人念斌從家中拿出一包老鼠藥將其中的一半用礦泉水瓶加水溶解后,倒入丁云蝦放在與他人共用廚房的鋁壺中。”這里,本案法官對被告殺人動機(jī)的推論,如圖4所示:
圖4 概括在證據(jù)推理中的基礎(chǔ)作用
在圖4的推論鏈條中,“通常,人們對搶走自己商機(jī)的人會起殺機(jī)”是一個概括。這個概括顯然不合常識,這是造成法院錯誤判決的一個重要原因。人工智能法律系統(tǒng)要模擬證據(jù)推理,除了法律知識庫,還要建立龐大的社會知識庫來貯存概括。這涉及一系列極其復(fù)雜的問題。比如,人類文明的普世知識與國家、民族的地方性知識如何安排?各國典籍(如四書五經(jīng)、圣經(jīng))、百科全書、官方政策文件、民俗習(xí)慣、諺語大全、群體成見和偏見、民眾生活時尚,統(tǒng)統(tǒng)都要入庫?或者要把一座圖書館裝進(jìn)去嗎?要區(qū)分精華和糟粕嗎?這都是人工智能知識庫建設(shè)中令人糾結(jié)的問題。
(3)概括選擇困難:關(guān)于法官個體知識庫建構(gòu)。與“社會知識庫”的建庫困難相比,更難的是“機(jī)器人法官”的個體知識庫如何構(gòu)建?如果遇到文明的沖突、似是而非的常識,機(jī)器如何從中做出選擇?這個問題不解決,證據(jù)推理模擬就會變成空話。在審判過程中,法官個體知識庫作為一種經(jīng)驗(yàn)智慧,對其在社會知識庫中選擇什么作為概括起著決定作用。個體知識庫包括個人的生活經(jīng)歷,是理解證據(jù)、選擇概括的基礎(chǔ)?!笆聦?shí)認(rèn)定者都是帶著已有的知識體系、信念以及推理方式進(jìn)入審判程序的,而這恰恰是快捷、高效交流的前提。”例如,圣經(jīng)中有一個圍繞“誰的孩子”之爭的案例,國王在聽取了兩個女人的證言后,讓衛(wèi)兵拿來一把刀,要將孩子劈成兩半,分給這兩個女人。結(jié)果,一個女人哀求他留下孩子的命,另一個女人卻要劈了孩子。面對這些證據(jù),國王的推論鏈條如圖5所示:
圖5 “誰的孩子”之爭:國王的證據(jù)推論鏈條
在圖5的證據(jù)推理鏈條中,天下母愛的信念凝結(jié)為“虎毒不食子”這樣一個概括,依據(jù)這個概括進(jìn)行推論,國王得出了誰是孩子生母的結(jié)論。
圖6 “誰殺了武則天女兒”之爭:高宗的證據(jù)推論鏈條
但對于人工智能證據(jù)推理模擬而言,困難還不止于此。例如,在“誰殺了武則天女兒”這樁歷史謎案中:“昭儀生女,(皇)后就顧弄,去,昭儀潛斃兒衾下,伺帝至,陽為歡言,發(fā)衾視兒,死矣。”就是說,武則天(昭儀)生了一個女兒,皇后前來探望,待皇后走后,武則天掐死女兒,等到高宗皇帝來看女兒,武則天裝作歡天喜地帶高宗到床邊去看孩子,卻發(fā)現(xiàn)孩子死了。大家都說,皇后剛剛來過,武則天痛哭不止,高宗生氣地說“后殺吾女”。因此,高宗決心廢掉皇后。其推論鏈條如圖6所示,顯然也是以“虎毒不食子”做出概括來進(jìn)行證據(jù)推論得出的結(jié)論。然而,假設(shè)此案由一位法官來斷,用“無毒不丈夫”做出概括,則其推論鏈條如圖7所示。
圖7 “誰殺了武則天女兒”之爭:法官的證據(jù)推論鏈條
正如圖6和圖7所示,在很多情況下,盡管證據(jù)是一樣的,但不同“法官”選用不同的概括,卻可得出完全相反的結(jié)論。這再一次提醒我們記住特文寧的名言:“概括之于證據(jù)推理,必要卻危險?!备爬ǖ倪@種雙重性,決定了證據(jù)推理結(jié)論的蓋然性,也決定了人工智能“法官”面臨概括選擇的困難。
3.證據(jù)推理模擬難題的解決途徑:形式化或定量化?
證據(jù)推理的復(fù)雜性,決定了人工智能法律系統(tǒng)必須從證據(jù)推理形式化起步,構(gòu)建證據(jù)推理模型。對此,威格莫爾圖示法的開創(chuàng)性探索值得借鑒?!霸诂F(xiàn)代術(shù)語中,威格莫爾圖示法描述了一種建構(gòu)推論網(wǎng)絡(luò)的過程?!蓖普摼W(wǎng)絡(luò)的優(yōu)勢在于,它是對思維可視化過程的一種嘗試,包含證據(jù)可信性的評價、證據(jù)之間關(guān)系的分析,以及證據(jù)支持或反對最終待證事實(shí)之推理過程的展示。圖示法由威格莫爾1937年出版的《司法證明科學(xué)》一書提出,它“要求分析者在一個論證中,清晰闡述每一個步驟,把論證分解為簡單命題,然后圖解(mapping)或圖示(charting)這些命題與次終待證事實(shí)之間的全部關(guān)系”。
威格莫爾開證據(jù)推理模型化之先河。他說:“鑒于人腦無法同時處理大量的想法,因此,需要將每一組在細(xì)節(jié)要素上融貫的想法精簡為單一的想法,直到人腦能夠同時處理這些單一想法并且給予每個想法合理的注意,以得出唯一的最終結(jié)論。”他的圖示法,使支持某一主張的證據(jù)簡化而易于處理,在此基礎(chǔ)上對簡化的觀點(diǎn)進(jìn)行綜合分析,符合分析模型應(yīng)具備的條件,因而在他看來是“唯一徹底和科學(xué)的方法”。圖示法有三個特點(diǎn):一是所有參與證明推論過程的證據(jù)、推論性主張、待證事實(shí),都以命題形式,通過編制關(guān)鍵事項一覽表并做數(shù)字編號,被明確表述出來;二是推論過程被描述成一個以直線和箭頭連接的復(fù)雜路徑圖;三是從整體上觀察,圖示法將整個論證推理過程以較為直觀的形式表現(xiàn)出來,闡明了命題之間的相互支持、反駁或補(bǔ)強(qiáng)關(guān)系,易于暴露邏輯推論中的空白和弱點(diǎn),有助于評估證據(jù)和論證的完整性程度。
威格莫爾證明科學(xué),特別是其圖示法,是運(yùn)用邏輯方法對證據(jù)推理加以形式化的一種偉大嘗試。遺憾的是,他在20世紀(jì)30年代提出的證明科學(xué)理論太超前,不僅超前于當(dāng)時的司法實(shí)踐,也超前于當(dāng)時的科技水平(如圖示邏輯學(xué)尚未成型,心理學(xué)還停留在粗糙的水平,計算機(jī)技術(shù)還不成熟,人工智能概念尚未提出),所以,其證明科學(xué)與圖示法一起被人們束之高閣、幾近遺忘了。直到20世紀(jì)60年代,隨著“新證據(jù)學(xué)”運(yùn)動的興起,人們才開始重新挖掘他的證明科學(xué)思想。
進(jìn)入21世紀(jì)后,英國特文寧、美國舒姆等教授將證據(jù)作為跨學(xué)科主題開展研究,對威格莫爾圖示法進(jìn)行了改良。改良后的圖示法將原來的符號簡化為8個:(1)保留原來符號中的□表示證言性主張;(2)○表示情況證據(jù)或推斷性命題(“推斷性命題”為新增含義);(3)表示為他方提出的推論提出可選解釋的論證;(4)表示補(bǔ)強(qiáng)一個推論的論證;(5)—— 表示所提出的命題之間推論性關(guān)系的“方向”,↑表示“有助于支持”,←表示“有助于否定或削弱”。(6)∞表示事實(shí)認(rèn)定者將聽到的證言主張或用其他感官感知為真的證據(jù);(7)表示法庭將司法認(rèn)知的事實(shí),或沒有證據(jù)支持而被接受的事實(shí);(8)G表示在案件論證中可能起作用的概括。
改良版圖示法包括7步操作規(guī)程:(1)立場澄清。通過對四個問題的精確回答來澄清立場:我是誰?我處在訴訟進(jìn)程的什么階段?什么證據(jù)材料可用作分析?我打算做什么?立場總是四個因變量——時間、目標(biāo)、可用于分析的材料和角色——的函數(shù)。例如,律師必須從三種立場或角色來考察證據(jù):一是委托人的立場和辯護(hù)人角色;二是對手的立場和角色;三是事實(shí)裁判者的立場和角色。問題涉及:對手可能采用的案件理論,事實(shí)裁判者將在何種程度上分享其分析的證明力,證據(jù)整理所依賴的概括是什么。(2)精確簡述潛在的最終待證事實(shí)。(3)簡述潛在的次終待證事實(shí)。(4)簡述案件暫時性理論。(5)對可用數(shù)據(jù)的記錄,即時序法。一是基于個別證人、個別文件或其他證據(jù)種類的時序;二是總時序。(6)為產(chǎn)品做準(zhǔn)備,包括圖示法中的一個關(guān)鍵事項表或圖示,或者概要法中的概要。(7)提煉和完成分析。特文寧等用一個假設(shè)的謀殺案為例,以其中61個證據(jù)編制了關(guān)鍵事項表和圖示,見圖8。
圖8 改良版圖示法:“一項調(diào)查”的關(guān)鍵事項表和圖示
改良版圖示法能夠從宏觀視角展現(xiàn)證據(jù)推理的過程,通過證明關(guān)系符號展現(xiàn)證據(jù)之間的推論關(guān)系以及證據(jù)、概括在推論網(wǎng)絡(luò)中所發(fā)揮的作用,從而發(fā)現(xiàn)推論的強(qiáng)度和不足;可以反映出制圖者相信哪些主張,以及哪些推論的證明力不強(qiáng),需要補(bǔ)強(qiáng)。特文寧等學(xué)者認(rèn)為,“它可以用來圖解除分析者自己確信之外的其他東西。比如,它可以被用于重構(gòu)有關(guān)由其他人所制作之證據(jù)的論證或者用于預(yù)測某一未來裁判者可能的反應(yīng),它還可以被用于為庭審做準(zhǔn)備,也可以被用來分析過去的審判。而且,它并不必然局限于法庭情景或者法律證據(jù)”。當(dāng)然,我們認(rèn)為,改良版圖示法還可以用來為人工智能法律系統(tǒng)模擬證據(jù)推理提供最佳的樣板。因?yàn)?,“它是一幅有關(guān)分析者內(nèi)心確信的圖表,既包括分析者對一群命題之間關(guān)系的確信,也包括分析者對他的暫時性結(jié)論的確信”。圖示法在證據(jù)推理模型化方面所做的努力,為人工智能法律系統(tǒng)指明了方向。
法律適用是審判過程的第二個階段。它是一個將法律規(guī)則應(yīng)用于案件事實(shí)的推理過程。博登海默對法律適用做過如下論述:“在法院查明當(dāng)事人之間爭議的事實(shí)以后,就可以按照邏輯演繹過程把這些事實(shí)歸屬于某個規(guī)則之下。然而,在這樣做之前,法官有必要先對構(gòu)成該規(guī)則一部分的某些模棱兩可的措詞或不明確的概念進(jìn)行解釋?!笨梢?,法律解釋是法律適用的一個重要環(huán)節(jié)或方法。
1.法律解釋是尋找法律推理大前提的操作
梁慧星把法律解釋視為“獲得裁判大前提的法律規(guī)范的作業(yè)”,認(rèn)為它有三個特性:(1)法律解釋對具體案件的關(guān)聯(lián)性。它旨在確定法律規(guī)定對特定案件事實(shí)是否有意義。(2)法律解釋的價值取向性。法律解釋并非形式邏輯的操作,而是一種價值判斷,它以已經(jīng)成為法律基礎(chǔ)的內(nèi)在價值判斷為依據(jù)。(3)法律解釋之解釋學(xué)循環(huán),即法律解釋作為理解過程表現(xiàn)為一個從整體到部分、再從部分到整體的循環(huán)。法律解釋的價值判斷性質(zhì),給人工智能模擬帶來了困難。
在法律推理過程中,法律解釋的運(yùn)用需要一定條件:法律規(guī)定十分明確時,無需解釋就可適用法律;法律規(guī)定模糊不清時,則需進(jìn)行解釋。哈特指出,在特別簡單的案件中,使人覺得法院的判決“是意義確定而清楚的既定規(guī)則之必然結(jié)果”?!叭欢诶_著法院的大多數(shù)案件中,無論是法規(guī)中的規(guī)則,還是判例中的規(guī)則,它們所包含的可能結(jié)果都不止一個。在比較重大的案件中,總是有一個選擇的問題。在此,法規(guī)的一些用語會具有兩可的意義,對判例的含義‘究竟是’什么也會有對立的解釋,法官將不得不在其間做出選擇?!?/p>
美國現(xiàn)實(shí)主義法學(xué)家格雷認(rèn)為,法律推理的大前提并非像分析法學(xué)所說的那樣,是預(yù)先存在的、等待法官去查找的白紙黑字規(guī)則,而是法官綜合了諸如政策、道德、原則之類的價值考慮和對白紙黑字規(guī)則的具體解釋而重新制定出來的規(guī)則。“制定法無法解釋自身,其含義是由法院來宣布的,而且正是基于法院宣告的含義而非其他含義,制定法才作為法律強(qiáng)加給社會?!备窭讓Ψ赏评泶笄疤崴龅倪@種“添加”或修正,雖使法律規(guī)則的客觀性打了折扣,但也確實(shí)提出了一個非常重要的問題,即法律推理畢竟是一種主體思維活動,如果大前提似鐵板一塊,對每個法官都是一樣的,法官就真的會變成一架生產(chǎn)判決的機(jī)器,審判過程就成了簡單運(yùn)用三段論的機(jī)械推論。人工智能當(dāng)法官可能會比有七情六欲的人公正,但人工智能也有致命弱點(diǎn),即完全不通人情。法官當(dāng)然不能把個人情感帶入法律推理過程,“法官需要冷靜,對一切訴訟多多少少要冷漠無情”;但另一方面,法官又不能喪失良知和人性——像孟德斯鳩所描述的只知機(jī)械遵循法律的“自動售貨機(jī)”。法官不能以法條的字面意義來判決,而必須考慮法律到底保護(hù)什么價值,這個價值與其他價值有什么沖突,哪個價值更為重要,等等。法官不是一臺計算機(jī),他必須面對價值問題。1991年,柏林墻守墻士兵亨里奇因射殺一名企圖翻墻青年受到審判。其律師辯解說,該士兵開槍殺人是在執(zhí)行命令,他別無選擇,是無罪的。但法官賽德爾卻說:“作為警察,不執(zhí)行上級命令是有罪的,但打不準(zhǔn)是無罪的。作為一個心智健全的人,此時此刻,你有把槍口抬高一厘米的主權(quán),這是你應(yīng)主動承擔(dān)的良心義務(wù)。這個世界,在法律之外還有‘良知’。當(dāng)法律和良知沖突之時,良知是最高的行為準(zhǔn)則,而不是法律。尊重生命,是一個放之四海而皆準(zhǔn)的原則。”最終,該士兵被判有罪,且不予假釋。所以,法律推理主體具有識別良法的判斷能力,這是人工智能法律系統(tǒng)難以模擬的。這又回到了道義邏輯問題。
2.法律解釋的建構(gòu)性、辯證性和創(chuàng)造性
在法律解釋中,對法律推理標(biāo)準(zhǔn)的選擇起著決定作用。解釋法律規(guī)范的目的,一般不是為了澄清法律文本的字面意義,而是為判決尋找隱藏在法律規(guī)則之中的“依據(jù)”或標(biāo)準(zhǔn)。這是一個以一般的法律概念為基礎(chǔ),對完整的法律體系進(jìn)行反思,并結(jié)合了目的和政治、道德的“想象性重構(gòu)”過程。例如,在埃爾默案中,格雷法官采用逐字逐句的嚴(yán)格解釋方法,認(rèn)為遺囑法并未將謀殺作為例外排除在遺產(chǎn)繼承權(quán)之外。厄爾法官則采用目的解釋方法,認(rèn)為遺囑法會允許謀殺者繼承遺產(chǎn)是荒唐的。根據(jù)“任何人不得從其錯誤行為中獲利”的原則,遺囑法應(yīng)該被解釋為否定謀殺者有權(quán)繼承遺產(chǎn)。面對如此清楚的制定法文本,為什么會有迥然不同的解釋呢?對此問題,德沃金和哈特都強(qiáng)調(diào)“讀者”的決定作用,即在尊重特定語境中法律“范例”的前提下建構(gòu)性地解釋法律。格雷和厄爾法官的爭論,表明他們對遺囑法的建構(gòu)性解釋不同,一個認(rèn)為立法機(jī)關(guān)制定的白紙黑字是法律,一個認(rèn)為除白紙黑字之外的立法者意圖也是法律。有鑒于此,人工智能法律系統(tǒng),當(dāng)然要對法律知識庫中的規(guī)則進(jìn)行機(jī)械的檢索,以維護(hù)規(guī)則的權(quán)威性,這種設(shè)計并不困難;但要讓機(jī)器超越白紙黑字的法律另尋立法者意圖,則必須到社會知識庫去“跨庫檢索”法律推理的正當(dāng)理由,從正義、利益和人權(quán)的目的標(biāo)準(zhǔn)進(jìn)行價值選擇,這與證據(jù)推理模擬過程中遇到的概括選擇的困難程度是一樣的,因?yàn)?,只有在機(jī)器具有主體意識的情況下才有資格談?wù)撨x擇。
法律解釋的辯證性則對人工智能自然語言理解提出了嚴(yán)峻的挑戰(zhàn)。在制定法中,法律規(guī)則之所以模糊或不確定,在哈特看來是因?yàn)闃?gòu)成規(guī)則的日常語言既有“意思中心”又有“開放結(jié)構(gòu)”。在語言外延涵蓋明確的中心區(qū)域,人們不會對其含義產(chǎn)生爭議;但在“開放結(jié)構(gòu)”,即語言邊界上,就會產(chǎn)生一些爭議。盡管日常語言的模糊性、歧義性會給讀者造成一定的理解困難,但從解讀、溝通的角度看,獲得與作者相同的理解還是可以做到的。當(dāng)然,語言的多義性會使理解具有無數(shù)的可能性。所以,法律解釋不能采用形式邏輯的線性思維方法。特別是“在解釋和運(yùn)用含有‘正義’‘公平’‘正當(dāng)’‘合理’‘過錯’‘顯失公平’‘動機(jī)’等詞語的法律規(guī)范時,形式邏輯的作用同樣是有限的。在這種情況下,法官必須借助辯證邏輯,從概念的內(nèi)容和形式的對立統(tǒng)一、靈活性和確定性的統(tǒng)一來確定它們所反映的或應(yīng)該反映的現(xiàn)實(shí)內(nèi)容,以做到正確地理解和適用法律規(guī)范”。人工智能法律系統(tǒng)要建立法律解釋模型,必須破解辯證邏輯的形式化難題,然后才能模擬法官運(yùn)用辯證邏輯對法律規(guī)則現(xiàn)實(shí)內(nèi)容的發(fā)現(xiàn)過程。
法律解釋的保守性與創(chuàng)造性是一對矛盾,這是由實(shí)質(zhì)正義和形式正義的矛盾決定的。法律解釋包含忠實(shí)原意的要求,但這有兩個困難:首先,人們基于不同的價值對什么是“原意”可能有各自的主觀理解,有人可能像格雷法官那樣認(rèn)為逐字逐句解釋法律才是忠實(shí)“原意”,有人則可能像厄爾法官一樣接受“立法者意圖優(yōu)先”的價值觀念。其次,對“原意”的識別不能離開立法目的,但成文法經(jīng)常是競爭各派或利益集團(tuán)之間妥協(xié)的產(chǎn)物,這使立法目的難以并經(jīng)常不能被識別。在這種情況下,霍姆斯提出解釋的“平意”(plain-meaning)方法,他認(rèn)為,應(yīng)該用常人理解的語言告訴他們法律的意圖是什么。但波斯納認(rèn)為,所謂平意理解是不適當(dāng)?shù)?,因?yàn)榉蓷l文的穩(wěn)定性決定了它“是對法律概念的暫時表述”,而“成文法解釋的平意方法排除了對現(xiàn)在條件的考慮”。所以,他主張應(yīng)該從解讀、溝通的角度來把握法律解釋。解釋是向前看的,具有形成政策的功能,是創(chuàng)造性的而不是機(jī)械的,因此,法律解釋者“不能只研究平意,他們必須努力懂得立法者所想解決的問題”。對此,沈宗靈和張文顯教授也認(rèn)為,應(yīng)該“從制定某一法律的目的來解釋法律。這里講的目的不僅是指原先制定該法律的目的,也可以指探求該法律在當(dāng)前的需要,也就是說,原先的目的已不符合當(dāng)前需要,因而通過法律解釋使其符合”。
如前所述,人工智能的特點(diǎn)是功能模擬,其前提是將模擬對象的思維過程形式化,這非常接近形式主義法律推理觀所倡導(dǎo)的形式正義。但形式正義與實(shí)質(zhì)正義是一對矛盾。理德(William Read)認(rèn)為,法律解釋具有重新界定概念術(shù)語和推動法律變革的創(chuàng)新功能。例如,對于禁止一個州“在其管轄權(quán)內(nèi)剝奪任何個人受法律平等保護(hù)的權(quán)利”的憲法規(guī)范,美國最高法院前后的解釋就發(fā)生了明顯的變化。在1868年的解釋中,最高法院對第十四修正案“平等保護(hù)”的詞句增加了一些對各州政府的法律約束。在1896—1954年間,最高法院將這種約束解釋為:公共設(shè)施對于“被隔離卻是平等的”不同種族不得禁止,這是一個要求設(shè)施平等的解釋。在1954年“布朗訴教育委員會案”中,最高法院將這種約束力明確地解釋為:不論他們是否平等,禁止隔離公共設(shè)施。這樣,通過三次解釋,憲法關(guān)于平等保護(hù)規(guī)范的模糊含義一次次變得清晰起來,更加接近了實(shí)質(zhì)正義。實(shí)質(zhì)正義是形式正義的例外,這種創(chuàng)新只有在辯證邏輯指引下才能實(shí)現(xiàn),所以,問題又回到辯證推理模擬問題。羅爾斯在其“作為公平的正義理論”中論述了“兩個正義原則”: “第一個原則要求平等地分配基本的權(quán)利和義務(wù);第二個原則則認(rèn)為社會和經(jīng)濟(jì)的不平等(例如財富和權(quán)力的不平等)只要其結(jié)果能給每一個人,尤其是那些最少受惠的社會成員帶來補(bǔ)償利益,它們就是正義的。”正義如果不僅意味著形式上的平等,而且要達(dá)到實(shí)質(zhì)上的平等,法律手段的運(yùn)用就會產(chǎn)生形式正義和實(shí)質(zhì)正義如何統(tǒng)一的問題。即使對于人類法官而言,“形式正義和實(shí)質(zhì)正義的不可兼顧性”也常常令其頭痛。這就給我們提出了一個值得注意的問題,人工智能法律系統(tǒng)也許只能在羅爾斯第一正義原則的基礎(chǔ)上實(shí)現(xiàn),即只能制造出“羅氏1型法官機(jī)”。這種“羅氏1型法官機(jī)”只可用于簡單案件的形式正義推理。
1.人工智能法律系統(tǒng)研究:旨在代替法官
必須承認(rèn),人工智能研究的“初心”確實(shí)是要全面模擬人類智能。1956年,美國學(xué)者J·麥卡錫、M·明斯基、N·羅卻斯特和C·Z·申農(nóng)向洛克菲勒基金會提出一項“人工智能研究”建議申請。該建議說:“此項研究意圖是在假說的基礎(chǔ)上向前推進(jìn)一步。這個假設(shè)是知識的每個領(lǐng)域,或智能的任何一個其他特征,原則上是可以如此精確地加以描述,以致能夠制造出一種機(jī)器來模擬它?!边@里,“知識的每個領(lǐng)域”和“智能的任何一個其他特征”的嚴(yán)謹(jǐn)措辭表明,在這些先驅(qū)者心目中,人工智能要征服的知識領(lǐng)域、智能特征是沒有界限的。
在人類知識領(lǐng)域和智能現(xiàn)象中,法律領(lǐng)域的司法過程具有穩(wěn)定的對象(案件),依據(jù)明確的前提(法律規(guī)則、事實(shí)真相),遵守嚴(yán)格的程序,并要求得出確定的結(jié)論(判決),為人工智能研究提供了典型樣本、必要條件和最佳對象,可以成為任其縱橫馳騁的理想試驗(yàn)場;人工智能法律系統(tǒng)以律師(檢察官)、法官和法學(xué)院師生為主要用戶,也具有誘人的市場前景。這些因素都是當(dāng)前官方和民間新一輪人工智能法律系統(tǒng)熱潮不減的原因。盡管本文所討論的證據(jù)推理和法律解釋的難題會讓一些研究者和投資者頭腦更清醒一些,甚至或許知難而退,但也有可能激發(fā)另一些研究者挑戰(zhàn)這些難題,深入研究人工智能法律系統(tǒng)的關(guān)鍵問題和技術(shù)。
如果說人工智能研究旨在制造出模擬人類各種智能的機(jī)器,那么,人工智能法律系統(tǒng)的研發(fā)目標(biāo)無疑是要制造出“機(jī)器人法官”。那么,什么是判斷人工智能法律系統(tǒng)成功的標(biāo)準(zhǔn)呢?從功能模擬的本質(zhì)出發(fā),還是采用“圖靈測試”,即在測試者與被測試者(一個人和一臺機(jī)器)隔開的情況下,由測試者向被測試者提問,來判斷哪一個是機(jī)器?如果測試者分不清哪個是人、哪個是機(jī)器的回答,這臺機(jī)器便通過了測試,并被認(rèn)為具有人類智能。顯然,“機(jī)器人法官”是否具有人類法官的智能,也可借助法律版“圖靈測試”:由測試者向被測試者(一個法官和一臺機(jī)器)提問,如果分不清何者為法官、何者為機(jī)器的回答,這臺機(jī)器便通過了測試,并被認(rèn)為具有人類法官的智能。當(dāng)然,“圖靈測試”存在級別問題,被試人是初中生還是大學(xué)教授,對被試機(jī)器的測試水平顯然不同。就人工智能法律系統(tǒng)的“圖靈測試”而言,不僅被試人是初任法官還是資深法官不同,而且測試者提出的問題屬于簡單案件還是疑難案件也有重大區(qū)別。
2017年,美國國會議員瑪利亞·坎特維爾(Maria Cantwell)的一份提案提出“人工智能”應(yīng)該滿足五個特征:(1)所有可在多變且不可控的情況下作業(yè),無需過多人工監(jiān)管,或可自學(xué)以往經(jīng)驗(yàn)、改善表現(xiàn)的人工系統(tǒng)??偟膩碚f,人工系統(tǒng)在其所從事的任務(wù)中表現(xiàn)越像人類,就越可稱得上采用了人工智能。(2)可像人類一樣思考的系統(tǒng),如認(rèn)知架構(gòu)與神經(jīng)網(wǎng)絡(luò)。(3)可像人類一般行動的系統(tǒng),如通過“圖靈測試”或其他利用自然語言處理、知識表達(dá)、自動推理、學(xué)習(xí)等同等測試的系統(tǒng)。(4)如機(jī)器學(xué)習(xí)等模擬認(rèn)知任務(wù)的技術(shù)。(5)理智行事的系統(tǒng),如通過洞察、計劃、推理、學(xué)習(xí)、交流、決議及行動等活動從而完成目標(biāo)的智能軟件代理及內(nèi)置機(jī)器人。上述關(guān)于人工智能的五個特征,可以視為“定性版圖靈測試”。其中,特征(1)“表現(xiàn)越像人類”、特征(2)“可像人類一樣思考”、特征(3)“可像人類一般行動”,繼續(xù)堅持了功能模擬;特征(4)和(5)則把人工智能程序與智能機(jī)器人做了大致的區(qū)分,這為人工智能法律系統(tǒng)指明了一條從通過中間產(chǎn)品(智能軟件)輔助律師和法官工作,過渡到簡單案件機(jī)器人法官,再向復(fù)雜案件機(jī)器人法官研發(fā)邁進(jìn)的分階段研發(fā)的途徑。
“盡管征途有艱險,越是艱險越向前?!比斯ぶ悄苎芯康摹俺跣摹?,決定了人工智能法律系統(tǒng)研究的宗旨是代替法官,并盡可能實(shí)現(xiàn)“以假亂真”。
2.人工智能法律系統(tǒng)應(yīng)用:不能代替法官
人工智能法律系統(tǒng)能否通過“圖靈測試”而具有人類法官智能,與智能機(jī)器能否獨(dú)立擔(dān)任法官是兩個性質(zhì)不同的問題:前者是技術(shù)問題,后者是政治問題。
像科幻電影所描述的那樣,將來有一天走在大街上、坐在辦公室、忙碌在車間里的可能既有自然人也有機(jī)器人,人機(jī)和平相處。問題是:本文討論的人工智能法律系統(tǒng)的兩個難題將來若能解決,那么,通過“圖靈測試”,能像人類法官一樣思考、一樣行動的“機(jī)器人”能否獨(dú)立擔(dān)任法官?為了進(jìn)一步澄清這個問題,可把它轉(zhuǎn)化為兩個子問題:其一,智能機(jī)器如果超過科學(xué)家,能否獨(dú)立擔(dān)任法官?其二,智能機(jī)器如果超過國王,能否獨(dú)立擔(dān)任法官?
(1)柯林斯案的啟示:智能機(jī)器即使超過科學(xué)家也不能當(dāng)法官
在司法證明科學(xué)理論的發(fā)展中,對證據(jù)進(jìn)行精確概率解釋是一種形式化嘗試。但概率論解釋的問題在于,它只是針對證據(jù)片段,并試圖用假設(shè)概率賦值的方法將證據(jù)模型化,這可能得出荒謬的結(jié)果。例如,在1968年的柯林斯案中,根據(jù)證人證言,一名白人女性襲擊并試圖搶劫一名老年婦女后,乘一輛非裔美國男子開的轎車從現(xiàn)場逃離。隨后,符合其描述的一名白人女性和一名非裔美國男性被送交審判。檢控方聘請一位概率學(xué)家計算了具有證人所描述(并為被告人所具有)特征的任意兩個人的概率后,憑借計算對這兩位在押嫌疑人進(jìn)行指控。這種做法受到了法學(xué)家的廣泛批評。哈佛法學(xué)院特賴布教授1971年發(fā)表《數(shù)學(xué)審判:法律過程中的精確和禮制》一文,明確反對將任何數(shù)字化概率運(yùn)用于審判過程。其理由有三:第一,從交流角度說,只要法官和陪審團(tuán)成員可被假定為不精通數(shù)學(xué),他們就不應(yīng)當(dāng)用自己無法理解的語言接收信息;第二,數(shù)學(xué)論證很可能過于具有誘導(dǎo)性或產(chǎn)生偏見,那些貌似“硬”的量化變數(shù),很容易排擠那些“軟”的非量化變數(shù);第三,在諸如給無辜者定罪風(fēng)險之可接受水平等問題上,量化分析在政治上是不適當(dāng)?shù)摹?/p>
在上述三個理由中,前兩個涉及概率計算的基礎(chǔ)理論和經(jīng)驗(yàn)有效性問題:一是客觀概率不足以解釋司法證明的性質(zhì)?!坝嘘P(guān)事件在某種確切的情況下,要么發(fā)生過,要么沒有發(fā)生過。我們不能重復(fù)實(shí)驗(yàn)一千次,來判定這些事件過去發(fā)生的頻率?!倍侵饔^概率或認(rèn)知概率論在司法證明中雖具有一定的解釋力,卻忽略了某些重要的心理要素,形式化概率表達(dá)并不能完全傳遞信念的豐富內(nèi)涵。而且,一項主觀概率評估是“無經(jīng)驗(yàn)可證明為……正確或錯誤的主張”。鑒于此,艾倫教授另辟蹊徑,提出以最佳解釋推論(IBE)或“似真性”(plausibility)理論來取代概率論的精確性解釋。這是一種整體性解釋方法,即不局限于一個個具體的證據(jù),而是關(guān)注由證據(jù)拼合出來的整體案情或故事。將最佳解釋推論應(yīng)用于民事訴訟,事實(shí)認(rèn)定者可以在似真的有責(zé)案情與無責(zé)案情之間進(jìn)行比較,原告和被告的故事哪一個更似真(更接近真相),哪一方便應(yīng)該贏。在刑事訴訟中,根據(jù)無罪推定原則,如果沒有似真的犯罪案情,此人就無罪;如果有似真的犯罪案情,且無似真的無罪案情,此人就有罪。如果既有似真的犯罪案情又有似真的無罪案情,此人就無罪。顯然,似真性或最佳解釋推論用的不是形式邏輯或數(shù)理邏輯的精確量化方法,而是模糊邏輯的方法。
據(jù)特賴布教授反對數(shù)學(xué)審判的第三個理由是,在諸如給無辜者定罪風(fēng)險之可接受水平等問題上,量化分析在政治上是不適當(dāng)?shù)摹J裁词钦芜m當(dāng)?就是只能由一個依法設(shè)立的獨(dú)立而無偏倚的法院,經(jīng)過公正、公開的審判,才能給一個人定罪。這是《世界人權(quán)宣言》第十條及《公民權(quán)利與政治權(quán)利公約》第十四條規(guī)定的內(nèi)容,其構(gòu)成了人類對二戰(zhàn)期間法西斯秘密警察濫用刑罰侵犯人權(quán)之深刻反思的成果。換言之,法庭審判是法官依據(jù)法律和證據(jù)進(jìn)行的法律裁判,而不是科學(xué)家根據(jù)計算結(jié)果進(jìn)行的科學(xué)裁判。既然科學(xué)家不能用精確計算來代替法官的法律裁判,那么,智能機(jī)器即使超過科學(xué)家,也不能獨(dú)立擔(dān)任法官。
(2)柯克大法官的預(yù)言:智能機(jī)器超過國王也不能當(dāng)法官
法官是法律的化身。“法官就是法律由精神王國進(jìn)入現(xiàn)實(shí)王國控制社會生活關(guān)系的大門。法律借助于法官而降臨塵世?!币虼耍ㄟ^法學(xué)院教育精通法律知識,成為法官的必要條件。17世紀(jì)詹姆士一世曾質(zhì)問英格蘭首席大法官E·柯克,為什么國王本人沒有做出法律判決的資格。他的理由是:法律是基于理性的,而他的推理能力同柯克法官一樣好??驴藢Υ嘶卮鹫f:“不錯,上帝的確賦予陛下極其豐富的知識和無與倫比的天賦;但是,陛下對于英格蘭王國的法律并不精通。法官要處理的案件動輒涉及臣民的生命、繼承、動產(chǎn)或不動產(chǎn),只有自然理性是不可能處理好的,更需要人工理性。法律是一門藝術(shù),在一個人能夠獲得對它的認(rèn)識之前,需要長期的學(xué)習(xí)和實(shí)踐。”柯克的話包括三層含義:第一,法律是理性,不是命令;第二,法律是一種特殊的理性而不是常識、道德哲學(xué)的運(yùn)用和政策分析;第三,只有受過法律訓(xùn)練、有法律經(jīng)歷的人,即懂得法律的法律家,才能運(yùn)用這種理性。
其實(shí),法官只掌握法律專業(yè)知識是遠(yuǎn)遠(yuǎn)不夠的。因?yàn)榉芍皇钦麄€社會生活的一部分,如果不掌握其他人文社會科學(xué)知識,如歷史學(xué)、政治學(xué)、經(jīng)濟(jì)學(xué)、社會學(xué)、哲學(xué),法官就不能從社會生活的整體上把握法律。博登海默指出:“如果對其本國的歷史相當(dāng)陌生,那么他就不可能理解該國法律制度的演變過程,也不可能理解該國法律制度對其周遭的歷史條件的依賴關(guān)系。如果他對世界歷史和文明的文化貢獻(xiàn)不了解,那么他也就很難理解那些可能對法律產(chǎn)生影響的重大國際事件。如果他不精通一般政治理論、不能洞見政府的結(jié)構(gòu)與作用,那么他在領(lǐng)悟和處理憲法和公法等問題時就會遇到障礙。如果他缺乏經(jīng)濟(jì)學(xué)方面的訓(xùn)練,那么他就無法認(rèn)識到許多法律領(lǐng)域中都存在法律問題同經(jīng)濟(jì)問題之間的緊密關(guān)系。如果他沒有受過哲學(xué)方面的基礎(chǔ)訓(xùn)練,那么他在解決法理學(xué)和法學(xué)理論的一般問題時就會感到棘手,而這些問題往往會對司法和其他法律過程產(chǎn)生決定性的影響?!痹诜ü俚闹R結(jié)構(gòu)問題上,一些法官和律師的意見更加尖銳,布蘭戴斯法官說:“一個法律工作者如果不曾研究經(jīng)濟(jì)學(xué)與社會學(xué),那么他就極容易成為一個社會公敵。”戴維·保羅·布朗律師更直截了當(dāng)?shù)卣f:“一個只懂法律的人,只是一個十足的傻漢而已?!?/p>
除了具備合理的知識結(jié)構(gòu)之外,法官還必須擁有健全的思維品質(zhì):一是法治理念和法律信仰。他們必須把自己的忠誠首先奉獻(xiàn)于為之服務(wù)的法律制度而不是個人或群體,必須從法律規(guī)范的前提出發(fā)開始自己的思維,必須意識到自己的一言一行都代表著法律。二是公正的人格。法官應(yīng)該是公正的化身。為了實(shí)現(xiàn)正義,法官必須將法律規(guī)范和道德規(guī)范作為自己的行為準(zhǔn)則,主動排除來自外界的權(quán)力干擾和主觀的恣意。三是敏銳的思維。波斯納說:“一個法官,就像一個軍事統(tǒng)帥,進(jìn)行的是一種‘組合性的’工作。要做好工作,要求有各種品質(zhì)的組合,而反思的能力只是其中之一,道德洞見是另一種。”
既然連人類的科學(xué)家和國王都不能擔(dān)任或代替法官,那么,智能機(jī)器即使超過科學(xué)家和國王,也不能獨(dú)立擔(dān)任或代替法官。司法是社會爭端解決的最后一道防線,司法裁決涉及人的生命、自由、財產(chǎn)和人格等權(quán)利,關(guān)乎人類命運(yùn),這最后一道防線還是由人類法官來把守為好,這是“政治適當(dāng)性”問題的含義所在。因此,如果要給智能機(jī)器立法,“不能獨(dú)立擔(dān)任法官職務(wù)”可以成為一條最重要的禁止性規(guī)定。
倫敦大學(xué)學(xué)院計算機(jī)科學(xué)系人工智能法律系統(tǒng)項目負(fù)責(zé)人尼古勞斯·阿特拉斯(Nikolaos Aletras)說:“我們并不認(rèn)為人工智能會代替法官或律師,但我們認(rèn)為,在案件快速模式識別方面,它們對導(dǎo)出確定的結(jié)果是有用的?!比斯ぶ悄芊上到y(tǒng)的開發(fā)策略應(yīng)該是“人-機(jī)系統(tǒng)”解決方案,一是輔助司法審判,解放律師(檢察官)和法官的腦力勞動,使其專注于復(fù)雜疑難案件;二是促進(jìn)司法公正,缺乏七情六欲干擾的機(jī)器判決可以為人類法官的判決發(fā)揮對照作用;三是輔助法學(xué)教育和法律培訓(xùn)。人類法律家與智能機(jī)器的統(tǒng)一體的出現(xiàn),將促進(jìn)司法文明、法學(xué)研究和人工智能的共同發(fā)展,具有無限光明的前景。
注釋:
①P·麥考達(dá)克:《人工智能早期史(1956年以前)》,《科學(xué)與哲學(xué)》1981年第6、7輯。
②Avishek Bose and Parham Aarabi, Adversarial Attacks on Face Detectors using Neural Net based Constrained Optimization, arXiv:1805.12302v1, May 31, 2018.
③Aharon Azulay and Yair Weiss,Why do deep convolutional networks generalize so poorly to small image transformations? arXiv:1805.12177v1, May 30, 2018.
④邸利會:《沒有神跡,用不著嚇唬,人工智能的真正突破還未到來》,《知識分子》,copyright@zhishifenzi.com。
⑤Buchanan & Headrick, “Some Speculation About Artificial Intelligence and Legal Reasoning”,StanfordLawReview23(1970),pp.40-62.
⑥Models of Legal Decision-making Report, R-2717-ICJ(1981).
⑦Artificial intelligence “judge” developed by UCL computer scientists. https://www.theguardian.com/technology/2016/oct/24/artificial-intelligence-judge-university-college-london-computer-scientists.
⑧參見錢學(xué)森:《論法治系統(tǒng)工程的任務(wù)與方法》(錢學(xué)森致吳世宦函,1981年8月21日),《科技管理研究》1981年第4期;錢學(xué)森、吳世宦:《社會主義法制和法治與現(xiàn)代科學(xué)技術(shù)》,《法制建設(shè)》1984年第3期;錢學(xué)森:《現(xiàn)代科學(xué)技術(shù)與法學(xué)和法制建設(shè)》,《政法論壇:中國政法大學(xué)學(xué)報》1985 年第3期。
⑨楊建廣、駱梅芬編著:《法治系統(tǒng)工程》,中山大學(xué)出版社1996年版,第344—349頁。
⑩趙廷光等:《實(shí)用刑法專家系統(tǒng)用戶手冊》,北京新概念軟件研究所1993年。