張 爽
內(nèi)容提要:基于大數(shù)據(jù)技術(shù)的發(fā)展,人工智能 (AI)可能從以下兩個(gè)方面對法律職業(yè)倫理教學(xué)產(chǎn)生影響:一是案件裁判預(yù)測服務(wù)可能加劇個(gè)案評價(jià)泛倫理化,激化法律職業(yè)倫理與大眾倫理的沖突;二是類案推送等人工智能服務(wù)功能將深刻改變學(xué)習(xí)方式,并導(dǎo)致學(xué)生的倫理認(rèn)知偏向趨同和強(qiáng)化。發(fā)展人工智能是國家的重大戰(zhàn)略,在不遠(yuǎn)的未來,AI將是法律職業(yè)倫理教學(xué)的現(xiàn)實(shí)情境,輿論監(jiān)督將是法治的常態(tài)環(huán)境,法律職業(yè)人將承擔(dān)更多的社會說服責(zé)任,因此,法律職業(yè)倫理教學(xué)要主動回應(yīng)、擁抱AI,通過溶入式、結(jié)構(gòu)化的教學(xué)過程培養(yǎng)學(xué)生的論證能力,實(shí)現(xiàn)學(xué)生的自主型、成長性學(xué)習(xí),奠定終身學(xué)習(xí)的基礎(chǔ)。
2017年7月,國務(wù)院發(fā)布的 《新一代人工智能發(fā)展規(guī)劃》(國發(fā) 〔2017〕35號)提出 “人工智能+”復(fù)合專業(yè)培養(yǎng)新模式,強(qiáng)調(diào) “人工智能+”法律橫向復(fù)合型人才的培養(yǎng),并大力倡導(dǎo)智慧法庭建設(shè)。2018年4月,教育部印發(fā) 《高等學(xué)校人工智能創(chuàng)新行動計(jì)劃》(教技 〔2018〕3號),根據(jù)人工智能理論和技術(shù)的普適性、遷移性和滲透性特點(diǎn),要求高校主動探索 “人工智能+X”的人才培養(yǎng)模式。在頂層設(shè)計(jì)支持下,法律人工智能實(shí)務(wù)發(fā)展迅猛,法信、科大訊飛、華宇元典、無訟等系統(tǒng)不斷落地,司法機(jī)關(guān)、律師事務(wù)所、科技公司等多市場主體共同實(shí)現(xiàn)了法律人工智能實(shí)踐的質(zhì)變和突變。AI(人工智能)對法學(xué)教育的影響勢不可擋,法律職業(yè)倫理①本文對 “倫理”和 “道德”這兩個(gè)概念以及 “法律倫理”和 “法律職業(yè)倫理”這兩個(gè)概念在使用中不加區(qū)別,雖然有學(xué)者認(rèn)為這兩組概念之間具有重大差別,但本文是在同一意義上使用的。課程在內(nèi)容建設(shè)、教學(xué)方法、評價(jià)標(biāo)準(zhǔn)等各個(gè)方面都面臨前所未有的考驗(yàn)和機(jī)遇。
專門化的職業(yè)倫理是一種角色道德,②在基本的道德問題上,一般倫理和職業(yè)倫理都會做出大體一致的判斷,關(guān)于法律職業(yè)美德的必要性和職業(yè)性,已經(jīng)達(dá)成共識,所以本文討論的職業(yè)倫理主要是角色道德意義上的,而不是美德意義上的。源于職業(yè)行為與大眾倫理的沖突,法律職業(yè)倫理也不例外。法律職業(yè)倫理是以 “角色差異”為基礎(chǔ)建構(gòu)出來的獨(dú)特道德領(lǐng)域,即 “角色道德”,這通常意味著,可以用與日常道德矛盾的方式來實(shí)現(xiàn) (角色)道德上的要求。③陳景輝:《忠誠于法律的職業(yè)倫理——破解法律人道德困境的基本方案》,載《法制與社會發(fā)展》2016年第4期。對法律人才培養(yǎng)而言,法律職業(yè)倫理不止是技術(shù)性倫理規(guī)范,也不止是超越日常道德的道德愿景,而且是注定存在嚴(yán)重沖突的專門性應(yīng)用倫理規(guī)范,這種沖突主要體現(xiàn)為社會一般道德和法律職業(yè)道德的沖突。因此,對法律職業(yè)倫理的評價(jià)不僅集中在于歡案、佘祥林案等道德色彩濃重的個(gè)案裁判上,更體現(xiàn)在社會對法律職業(yè)行為做泛道德化評價(jià)④方樂:《司法如何面對道德?》,載 《中外法學(xué)》2010年第2期。的習(xí)慣上,不僅體現(xiàn)在對 “司法腐敗”“司法不公”的情緒化 “共識”上,當(dāng)實(shí)質(zhì)理性與形式理性發(fā)生沖突時(shí),更體現(xiàn)為社會倫理與法律職業(yè)倫理 “標(biāo)準(zhǔn)概念”⑤法律職業(yè)倫理的標(biāo)準(zhǔn)概念通常包括三個(gè)方面:一是黨派原則,在面對客戶涉入的糾紛和爭端中,律師可只將 “對客戶的忠誠”視為唯一的道德要求;二是中立原則,律師不對客戶的目標(biāo)做道德評估,而必須運(yùn)用專業(yè)技能在法律范圍內(nèi)盡力爭取,即使這違反了他自己或者公眾的道德判斷;三是非課責(zé)原則,律師不因符合黨派原則和中立原則要求的行為,承擔(dān)道德上和法律上的責(zé)任。參見前引③,陳景輝文。的直接沖突。在法律職業(yè)實(shí)踐中,法官只需對法律條文負(fù)責(zé)、律師只需對委托人忠誠,而對待公眾利益方面卻無需承擔(dān)任何道德義務(wù)。⑥李學(xué)堯:《非道德性:現(xiàn)代法律職業(yè)倫理的困境》,載 《中國法學(xué)》2010年第1期。
作為專業(yè)課程的法律職業(yè)倫理教學(xué),既以單純的法律倫理問題為前提,又有不同的視角。在法律實(shí)踐層面,法律職業(yè)倫理主要體現(xiàn)為法律職業(yè)界在面對道德沖突時(shí)的行為指引規(guī)范;在教學(xué)實(shí)踐層面,則主要體現(xiàn)為對以個(gè)案裁判為代表的法律職業(yè)行為的倫理評價(jià)沖突。早在人工智能的沖擊之前,法律職業(yè)就已經(jīng)面臨嚴(yán)重的信任危機(jī),輿論對公案⑦所謂公案,是指民眾根據(jù)個(gè)案的主題元素,經(jīng)過議論、訴說和加工而形塑出來的公共事件。參見孫笑俠:《公案的民意、主題與信息對稱》,載 《中國法學(xué)》2010年第3期。全流程的關(guān)注 (甚至干預(yù))已經(jīng)常態(tài)化,法律職業(yè)承負(fù)著極其沉重的倫理壓力。
首先,法律職業(yè)界與大眾之間存在難以溝通的專業(yè)屏障。公眾的道德觀念往往表現(xiàn)為常識正義,而法律職業(yè)界則往往認(rèn)為 “常理如果能解釋法律,要不要法律也就無所謂了”。⑧陳金釗:《解釋對法治造成的創(chuàng)傷及其彌合——沒有邏輯基礎(chǔ)的法治信念》,載《山東社會科學(xué)》2011年第3期。⑨參見前引⑥,李學(xué)堯文。與日常道德不同,法律職業(yè)倫理更多是一種指引法律人在因職業(yè)行為與大眾道德沖突時(shí),如何處理道德困境的技術(shù)性規(guī)范。法律職業(yè)倫理不僅是一種價(jià)值觀念,更被視為一種技術(shù),法律人可能侵犯了公共道德,卻符合職業(yè)道德,這就會使法律職業(yè)倫理陷入 “非道德化”的危機(jī)。⑨
其次,我國文化傳統(tǒng)存在 “泛道德化”傾向,國人常常把技術(shù)性問題上升為道德問題進(jìn)行價(jià)值判斷。⑩孫笑俠:《法律家的技能與倫理》,載 《法學(xué)研究》2001年第4期。同時(shí),與傳統(tǒng)社會不同,風(fēng)險(xiǎn)社會存在普遍的信任危機(jī),公眾情緒本來就容易聚焦于倫理范疇、過度移情,且囿于法律知識的局限,涉法輿論幾乎是倫理單點(diǎn)切入的,所以相當(dāng)比例的觀點(diǎn)之片面、偏頗、極端也就在所難免。當(dāng)前,多數(shù)網(wǎng)絡(luò)熱點(diǎn)集中于法律領(lǐng)域,司法的敏感度前所未有,隨著人工智能的發(fā)展,法律實(shí)踐必須接受更廣泛、更嚴(yán)苛的道德評價(jià),這必然給法律職業(yè)界帶來巨大的壓力。
阿西洛馬AI倫理價(jià)值原則指出,應(yīng)當(dāng)由人類決定如何以及是否將決策外包給AI系統(tǒng)。①《阿西洛馬人工智能原則——馬斯克、戴米斯·哈薩比斯等確認(rèn)的23個(gè)原則,將使AI更安全和道德》,載《智能機(jī)器人》2017年第2期。但是當(dāng)數(shù)據(jù)成為認(rèn)識世界的界面時(shí),人們已經(jīng)無意識地把獲取信息的方式,交給了搜索引擎。學(xué)生也好,民眾也好,他們的法律倫理認(rèn)知更多源于網(wǎng)絡(luò)檢索或在線法律服務(wù)而不是社會經(jīng)驗(yàn),從某種意義上說也只能如此,甚至越來越如此。決策讓渡意味著人工智能將發(fā)展為一種新型的控制權(quán)——算法權(quán)力,②段偉文:《控制的危機(jī)與人工智能的未來情境》,載 《探索與爭鳴》2017年第10期。對價(jià)值判斷的決策讓渡幾乎意味著算法權(quán)力對人類全部生活的掌控,用Facebook創(chuàng)辦人扎克伯格的話來說,我們正在進(jìn)入算法而不是法律統(tǒng)治人的時(shí)代。③轉(zhuǎn)引自鄭戈:《人工智能與法律的未來》,載 《公民與法》2017年第12期。
當(dāng)前,預(yù)測性技術(shù)在司法領(lǐng)域的應(yīng)用越來越廣泛。在智慧司法背景下,司法裁判全流程依法公開指日可待,而計(jì)算機(jī)全 (大)數(shù)據(jù)處理使案件預(yù)測結(jié)果更為可靠。2016年,研究人員利用歐洲人權(quán)法院公開的判決書訓(xùn)練算法系統(tǒng),構(gòu)建模型預(yù)測案件判決結(jié)果,預(yù)測準(zhǔn)確性高達(dá)79%。④曹建峰:《“人工智能+法律”十大趨勢》,載 《機(jī)器人產(chǎn)業(yè)》2017年第9期。個(gè)案裁判是綜合各種因素之后的決策,主要是規(guī)范的、事實(shí)的,但社會評價(jià)如前所述也是倫理的,規(guī)范類似和事實(shí)類似很容易被混淆成倫理類似,輿論可能就此進(jìn)行是否同案同判的評斷,這在于歡案、鄧玉嬌案等很多公案中都有所體現(xiàn)。以于歡案為例,在人工智能的推送服務(wù)中,“辱母”案與 “辱妻”案被類比時(shí)背離了類比推理的本質(zhì)要求,正當(dāng)防衛(wèi)的規(guī)范和事實(shí)被漠視,倫理因素成了檢索主線,而案件裁判預(yù)測結(jié)果與事實(shí)結(jié)果之間的重合率會影響社會對案件裁判的法律職業(yè)倫理評價(jià),不當(dāng)類比可能導(dǎo)致失當(dāng)?shù)妮浾搲毫Α?/p>
不難看出,智能推送的算法中有明顯的價(jià)值判斷和導(dǎo)引。隨著大數(shù)據(jù)技術(shù)支持下的案件裁判預(yù)測服務(wù)逐漸普及,對法律職業(yè)倫理價(jià)值進(jìn)行人工智能的判斷已經(jīng)是個(gè)不可回避的問題,這意味著相當(dāng)多的人們將不自覺地讓渡其價(jià)值決策權(quán),大數(shù)據(jù)案件預(yù)測將嚴(yán)重影響輿論評價(jià)偏向,法律職業(yè)倫理和大眾倫理之間的緊張氣氛可能因此愈演愈烈。
在智能化的社會中,利用數(shù)學(xué)方法將法律事務(wù)數(shù)據(jù)化,甚至對法律職業(yè)倫理評價(jià)以人工智能為參考將日趨常態(tài)化。然而,數(shù)據(jù)是機(jī)器學(xué)習(xí)的前提,數(shù)據(jù)質(zhì)量對人工智能決策的影響是決定性的。但是,就法律職業(yè)倫理評價(jià)而言,數(shù)據(jù)信息必然存在算法歧視,并且天然不完整,因此,其中蘊(yùn)藏著巨大的風(fēng)險(xiǎn)。
首先,出于對法律和道德的穩(wěn)定性、確定性的渴望,科學(xué)家們一直嘗試將法律問題與道德問題轉(zhuǎn)化為技術(shù)問題。拉德布魯赫說,“如果不能明確認(rèn)定什么是公正,那就必須明確規(guī)定什么是正確的”。⑤[德]拉德布魯赫:《法哲學(xué)》,王樸譯,法律出版社2005年版,第74頁。洛克認(rèn)為,倫理學(xué)可以像數(shù)學(xué)一樣推理演繹,⑥李家蓮:《論弗蘭西斯·哈奇森的道德代數(shù)法》,載 《南華大學(xué)學(xué)報(bào) (社會科學(xué)版)》2015年第1期。沙夫茨伯利首先把量的計(jì)算的思想引入道德理論領(lǐng)域,⑦參見前引⑥,李家蓮文。哈奇森創(chuàng)造出 “道德代數(shù)學(xué)”,推演出用于計(jì)算行為道德程度的公式。⑧[英]弗蘭西斯·哈奇森:《論美與德性觀念的根源》,高樂田等譯,浙江大學(xué)出版社2009年版,第127頁。隨著人工智能的迅猛發(fā)展,這種傾向于今為甚。2015年11月,歐盟數(shù)據(jù)保護(hù)委員會就提出了是否可以讓機(jī)器代替人來做道德、法律等判斷的問題。⑨騰訊研究院等:《人工智能》,中國人民大學(xué)出版社2017年版,第243頁??梢灶A(yù)見,人工智能將逐漸演化成社會 (包括法律職業(yè)人)進(jìn)行法律職業(yè)倫理評價(jià)最主要的認(rèn)知界面。但數(shù)據(jù)技術(shù)就意味著 “正確”嗎?事實(shí)上,隨著研究的深入,晚年的哈奇森也刪除了學(xué)說中的數(shù)學(xué)語言,不再試圖計(jì)算道德情感。⑩[英]弗蘭西斯·哈奇森:《論激情和感情的本性與表現(xiàn),以及對道德感官的闡明》,戴茂堂等譯,浙江大學(xué)出版社2009年版,第220頁。
大數(shù)據(jù)算法給人中立、客觀、科學(xué)的印象,然而,倫理價(jià)值并不是形式化的,也不是普世的,嵌入AI的價(jià)值只能是特定團(tuán)體 (個(gè)人)針對特定事務(wù)的價(jià)值規(guī)范。事實(shí)上,算法的設(shè)計(jì)必然是編程人員的主觀判斷和選擇,因此,倫理價(jià)值被量化、被算法化很有可能暗藏歧視與不平等。比如美國一些法院使用的犯罪風(fēng)險(xiǎn)評估算法COMPAS已被證明對黑人造成了系統(tǒng)性歧視。①參見前引⑨,騰訊研究院等書。價(jià)值領(lǐng)域的算法潛藏更大的歧視風(fēng)險(xiǎn),而且算法傾向于將歧視固化、強(qiáng)化,甚至形成連鎖效應(yīng)。但是基于機(jī)器算法的不透明性和規(guī)模效應(yīng),使用者和設(shè)計(jì)者的控制權(quán)并不平等,很難審查嵌入到自主決策系統(tǒng)中的價(jià)值規(guī)則?;诖?,當(dāng)人工智能危害社會時(shí),就可能成為危害遠(yuǎn)大于傳統(tǒng)武器的 “數(shù)學(xué)武器”。
其次,數(shù)據(jù)的不完整性可能導(dǎo)致判斷偏差。人工智能與法律合作的科學(xué)基礎(chǔ),應(yīng)是數(shù)據(jù)信息的全面、深度挖掘。我國目前市場化的法律人工智能服務(wù)數(shù)據(jù)主要來源于中國裁判文書網(wǎng)等公布的裁判文書。但是,在司法過程中得以顯現(xiàn)的倫理信息更可能是片面的,無法真實(shí)復(fù)原案件裁判。這體現(xiàn)在三個(gè)方面:1.在裁判文書中,倫理更多是深層的潛在因素。個(gè)案之所以引起熱議和評判,是因?yàn)樗哂心撤N “主題元素”,比如貧富關(guān)系、權(quán)貴身份、道德底線等,②參見前引⑦,孫笑俠文。但這些元素在輿論中和在法律上的價(jià)值顯然是不同的,在裁判文書中倫理信息可能顯示度很低甚至缺失。2.裁判說理具有防衛(wèi)性。為息訟止?fàn)?、避免擴(kuò)大影響,裁判文書一般盡可能避免價(jià)值判斷;③凌斌:《法官如何說理:中國經(jīng)驗(yàn)與普遍原理》,載 《中國法學(xué)》2015年第5期。同時(shí),我國的裁判文書表述普遍奉行 “寧簡勿繁”“含糊勝于明確”的原則,裁判語言高度概念化、抽象化,④黃利紅:《民事判決書不說理之原因及其對策》,載 《廣西社會科學(xué)》2004年第3期。這一現(xiàn)狀進(jìn)一步加劇倫理數(shù)據(jù)質(zhì)量缺陷。3.證據(jù)并不都是中性的,包括中立證據(jù)和無法排除利害關(guān)系的證據(jù),被害人陳述,犯罪嫌疑人、被告人供述和辯解等證據(jù)。由于其提供者與案件之間存在利害關(guān)系,很難保證客觀性,⑤白建軍:《司法潛見對定罪過程的影響》,載 《中國社會科學(xué)》2013年第1期。但正是這種有明顯道德情感傾向的證據(jù)更加容易進(jìn)入大眾視野,引發(fā)情感共振。
更有甚者,關(guān)于法律職業(yè)倫理評價(jià),媒體報(bào)道詞庫 (自媒體報(bào)道詞庫在一定程度上形成情緒性法律職業(yè)倫理評價(jià)的主流數(shù)據(jù)來源)在可靠性方面受到同等 (甚至更高)的重視,而 “許多記者在尋找情緒化的東西。可怕的在于法官挖鼻孔也會成為當(dāng)天的新聞?!雹迲研тh:《法院與媒體》,法律出版社2006年版,第208頁。媒體意見數(shù)據(jù)是否具有代表性,是否具有統(tǒng)計(jì)意義上的可推論性,在倫理這個(gè)相對主觀的領(lǐng)域,都是不能回避的問題。由于倫理評價(jià)的主觀性,姑且不談更相關(guān)、真實(shí)、完整的數(shù)據(jù)很難獲取,即使能夠取得也很難得到應(yīng)有的關(guān)注,這就導(dǎo)致了小樣本預(yù)測的有偏風(fēng)險(xiǎn)。
搜索算法的野心顯然不局限于解決信息過載的問題,個(gè)性化推薦很容易植入隱形的誘導(dǎo),在搜索算法的引導(dǎo)下,人們的思維方式也就相應(yīng)地從重視尋找數(shù)據(jù)背景的原因,轉(zhuǎn)向了如何運(yùn)用數(shù)據(jù)本身。⑦成素梅:《智能化社會的十大哲學(xué)挑戰(zhàn)》,載 《探索與爭鳴》2017年第10期。而數(shù)據(jù)質(zhì)量難免存在先天缺陷、面臨商業(yè)污染和權(quán)力剪裁,面對以低質(zhì)數(shù)據(jù)為基礎(chǔ)的人工智能決策 (或輔助決策建議),人們很難做出理性的判斷與選擇。在未來法律職業(yè)倫理實(shí)踐和評價(jià)中,無論 “自愿”追隨高舉道德大棒的 “正義之師”,還是在沉默螺旋中習(xí)慣性失語,都可能成為常態(tài)的病態(tài)。
當(dāng)前,智能輔助辦案技術(shù)正在越來越多的應(yīng)用,市面上多款法律AI產(chǎn)品也都已具備類案推送功能。同案同判⑧這里的 “同案”應(yīng)當(dāng)視為 “類似案件”或者 “同類案件”。參見杜文靜:《法律論證視域中的同案同判原則》,載 《法律方法》2017年第1期。是法律職業(yè)界和社會大眾的共同愿景。司法裁判最重要的角色是指向未來的,“同案同判”關(guān)系到普通民眾對司法正義的切身感受,是不可忽視的司法要求。⑨陳景輝:《同案同判:法律義務(wù)還是道德要求》,載 《中國法學(xué)》2013年第3期。社會通過司法裁判感受法律的溫度,對案件裁判的關(guān)注度甚至甚于法律規(guī)范。法律職業(yè)界則期待案件預(yù)測服務(wù)幫助當(dāng)事人做出理性預(yù)判,并且通過技術(shù)倒逼 “同案同判”。但是倫理意義上的 “同案”判斷不同于單純法律意義上的 “同案”,民眾對 “同案不同判”的理解更多地停留在一般的報(bào)道和大眾的理解之中,缺乏深入仔細(xì)的研究,⑩孔繁靈:《“同案同判”與 “同案不同判”》,載 《人民法院報(bào)》2014年2月15日第2版。對 “同案”的機(jī)械同判容易流于形式化而損害實(shí)質(zhì)正義。
不難發(fā)現(xiàn),法律人工智能的研發(fā)明顯趨向案件裁判的同一性。但是,世界上沒有兩片相同的樹葉,何況倫理要素的認(rèn)定更加主觀、復(fù)雜,因此,所謂 “同案”其實(shí)具有多樣性的差異,司法裁判理應(yīng)保持適當(dāng)?shù)膹椥浴5?,在智慧司法大潮中,公檢法司不同角色的協(xié)同性和統(tǒng)一性在加強(qiáng),①季衛(wèi)東:《人工智能時(shí)代司法權(quán)之變》,載 《東方法學(xué)》2018年第1期。同時(shí),審級的意義卻在削弱。每個(gè)人都是具體的和獨(dú)特的,就個(gè)案和個(gè)體而言,對道德類似的判斷很難達(dá)成共識,并且也不必要、不應(yīng)該要求共識,至于多數(shù)人通過個(gè)案影響法律實(shí)踐的方式對少數(shù)人提出某些道德要求,甚至可以說是非正義的。換言之,以案件裁判的一般性或者多數(shù)性原則來判斷其合倫理性,這個(gè)標(biāo)準(zhǔn)不能說是科學(xué)的。在倫理價(jià)值意義上,同案同判的要求可能無視時(shí)代變遷、觀念衍變,甚至可能走向正義的反面。起碼在法律職業(yè)倫理領(lǐng)域,大數(shù)據(jù)預(yù)測可能扭曲社會的倫理評價(jià),帶來新的偏見和濫用。算法權(quán)力的膨脹可能導(dǎo)致司法自由裁量權(quán)的萎縮,倫理評價(jià)意義上的同案同判更容易導(dǎo)向異案同判,在一定意義上,技術(shù) “倒逼”可能演變成 “脅迫”,影響乃至“綁架”個(gè)案司法。
隨著法律人工智能的進(jìn)一步發(fā)展,案件裁判預(yù)測服務(wù)將更加普遍,當(dāng)事人、民眾都可以由 “同案”判斷預(yù)測裁判結(jié)果。但正如前文所述,倫理元素一般來說并不是中立、客觀的,并且數(shù)據(jù)在質(zhì)和量兩方面都存在天然缺陷,這樣一來,案件裁判預(yù)測結(jié)果首先不是 “全數(shù)據(jù)”或者 “大數(shù)據(jù)”的,甚至可能只是典型個(gè)案的類比,但小概率很可能由于被互聯(lián)網(wǎng)信息技術(shù)造成的圍觀結(jié)構(gòu)急劇放大,②季衛(wèi)東:《決策風(fēng)險(xiǎn)、問責(zé)以及法律溝通》,載 《政法論叢》2016年第6期。這時(shí)偏頗的數(shù)據(jù)可能反而是受歡迎的,不同主體可以 “量體裁衣”、各取所需,并且自認(rèn)或自詡其預(yù)測結(jié)果是客觀、中立、科學(xué)的。如果法律監(jiān)督的視野只限于個(gè)別事件,那么,所發(fā)現(xiàn)的問題不是夸大就是縮小。失真的結(jié)果便是失信。③白建軍:《大數(shù)據(jù)助力法律監(jiān)督》,載 《探索與爭鳴》2015年第2期。當(dāng)這種預(yù)測結(jié)果的影響越來越大,民眾和提供法律服務(wù)的商業(yè)機(jī)構(gòu)都可能因此調(diào)整預(yù)期,通過算法的選擇或設(shè)計(jì)干預(yù)司法。
馬默總結(jié)了同案同判起作用的三種場合:法官有兩可的選擇、法官需要在不可公度的價(jià)值中進(jìn)行選擇以及法官面對與法律相關(guān)的道德模糊的情形。④轉(zhuǎn)引自前引⑨,陳景輝文。這一方面意味著在倫理評價(jià)上 “法律的具體化必然擁有的裁量空間”。⑤陳景輝:《實(shí)踐理由與法律推理》,北京大學(xué)出版社2012年版,第19頁。另一方面,說明同案同判也是限制自由裁量的重要工具。⑥參見前引⑨,陳景輝文。司法實(shí)踐中,普遍認(rèn)為 “判決的可預(yù)測性是梳理司法公信力的社會基礎(chǔ),”⑦王國龍:《判決的可預(yù)測性與司法公信力》,載 《求是學(xué)刊》2014年第1期。同時(shí),矛盾化解難度不斷增大,民眾對司法案件往往有 “貧富對抗”“官民對立”以及 “司法腐敗”的情節(jié)預(yù)設(shè),處理不慎甚至可能會引發(fā)嚴(yán)重的群體性問題,⑧李學(xué)堯:《轉(zhuǎn)型社會與道德真空:司法改革中的法律職業(yè)藍(lán)圖》,載 《中國法學(xué)》2012年第3期。司法判斷面臨重大風(fēng)險(xiǎn)。
隨著司法官員額制、責(zé)任制的確立和落實(shí),案件質(zhì)量控制模式的更新是應(yīng)有之義。在某種意義上,法律人工智能 (包括智能輔助辦案系統(tǒng)和大數(shù)據(jù)案件預(yù)測法律服務(wù))被當(dāng)作能夠確保 “同案同判”效果的智能控制模式。⑨黃京平:《刑事司法人工智能的負(fù)面清單》,載 《探索與爭鳴》2017年第10期。然而,在縮減恣意的同時(shí)必將壓抑選擇,而 “選擇恰恰是法律程序的價(jià)值所在”⑩季衛(wèi)東:《法律程序的意義——對中國法制建設(shè)的另一種思考》,載《中國社會科學(xué)》1993年第1期。。在尚未完善的追責(zé)制度下,司法實(shí)踐對 “同判”的劃一要求是機(jī)械的、過度的、不健康的,所謂 “倒逼司法公正”可能在一定程度上剝奪司法的自由裁量權(quán)。司法官可能為規(guī)避風(fēng)險(xiǎn)而受制于法律人工智能的預(yù)測、屈從于算法。丹寧勛爵指出,當(dāng)法官依法行事時(shí),每位法官均應(yīng)受到保護(hù),以免負(fù)賠償?shù)呢?zé)任,①[英]丹寧勛爵:《法律的正當(dāng)程序》,李克強(qiáng)等譯,法律出版社2011年版,第56頁。但這在當(dāng)前的考核制度下只能是奢望。而倫理評價(jià)存在無可回避的價(jià)值沖突,為了避免責(zé)任風(fēng)險(xiǎn),內(nèi)外夾擊的沉重壓力可能導(dǎo)致法官未來對 “客觀的”人工智能過分依賴,省略主觀能動性的發(fā)揮,甚至有意忽視類案之間的細(xì)節(jié)差異,借以逃避職業(yè)責(zé)任和道德責(zé)任。這樣一來,由于人工智能技術(shù)的介入,司法自由裁量權(quán)可能在根基上遭到破壞。
法律人的工作性質(zhì)決定其時(shí)常處理道德沖突,法官應(yīng)在平衡各方利益的過程中,消除各種道德沖突,但是,實(shí)踐中司法裁判的結(jié)果卻往往不能做到這一點(diǎn),反而引發(fā)新的道德沖突,這不能不讓人期待人工智能在倫理能力上更好的表現(xiàn)。然而,法律職業(yè)倫理顯然不是AI大放異彩的主場。
我們不可能在社會現(xiàn)實(shí)中完全規(guī)避道德沖突,恰恰相反,“道德沖突是我們生活的一個(gè)本質(zhì)性的組成部分。我們每天都要做出在道德上復(fù)雜的、缺乏可普遍接受的解答的決斷”。②甘紹平:《道德沖突與倫理應(yīng)用》,載 《哲學(xué)研究》2012年第6期?;诮巧赖碌男再|(zhì),算法中植入態(tài)度的同時(shí)也就植入了沖突。法律人工智能算法也有 “先見”,也會植入設(shè)計(jì)者的主觀態(tài)度。倫理價(jià)值判斷是主觀的,所有的理解和判斷必然都受到各自視域的限制,自然也會產(chǎn)生對立和沖突。
專業(yè)知識 (包括職業(yè)知識)與專業(yè)屏障是 “專業(yè)化”之樹上結(jié)出的相聯(lián)又相異的兩顆果實(shí)。③孫笑俠:《法學(xué)的本相——兼論法科教育轉(zhuǎn)型》,載《中外法學(xué)》2008年第3期。作為專業(yè)倫理的法律職業(yè)倫理固守技術(shù)理性,而社會輿論以具體的實(shí)質(zhì)正義為目標(biāo),往往彼此都無法被說服。一方面,“法律家的職業(yè)技術(shù)是一種有意識地排斥道德與政治等諸種法外因素的所謂人為理性或技術(shù)理性,其中的道德含量很低”。④參見前引⑩,孫笑俠文。而且,法律職業(yè)也確實(shí)存在大量價(jià)值觀念混亂和職業(yè)倫理失范的問題,但法律人卻普遍缺乏對信任危機(jī)的自省,更多地將理性限制為技術(shù)理性,把輿論批評解讀為 “不理性”,寄望于教育社會或者教化民眾,但是這恐怕是霍爾姆斯所謂的 “共有的偏見”之一,這種 “專業(yè)理性”只能在職業(yè)內(nèi)部尋求共識,并不被社會認(rèn)可和接受。
民眾對法律職業(yè)倫理的高度關(guān)注,是由其高度倫理期待決定的,而這種倫理期待具有明顯的正當(dāng)性。所以,法律職業(yè)倫理不僅僅是職業(yè)的、專業(yè)的、技術(shù)的,更是社會的、倫理的。在社會生活中,“法律愈來愈變得令人難以理喻”,甚至變成 “完全異己”的活動,⑤舒國瀅:《在法律的邊緣》,中國法制出版社2000年版,第96頁。這意味著法律職業(yè)的信任危機(jī)甚至社會危機(jī)。正如布洛克所言:“僅僅為技術(shù)問題尋找技術(shù)性的解決辦法,不論多么具有吸引力,到頭來都是幻想?!雹轠英]布洛克:《西方人文主義傳統(tǒng)》,董樂山譯,三聯(lián)書店1997年版,第293頁。技術(shù)問題尚且如此,何況價(jià)值判斷。個(gè)案裁判一定是某種程度的公共判斷,價(jià)值判斷始終是一種視域融合的過程,角色道德設(shè)計(jì)是為了更好地實(shí)踐倫理價(jià)值而不是相反,背離大眾倫理價(jià)值的專業(yè)倫理,自省和改變是應(yīng)有之義。
法律人工智能的價(jià)值判斷缺乏應(yīng)變力。伽達(dá)默爾認(rèn)為,偏見當(dāng)初并沒有我們后來所加之于的貶義,從詞源上,偏見是正式的法律判決前的臨時(shí)判決或初判,這種判決或初判可以被更改或撤銷。⑦轉(zhuǎn)引自陳鴻清:《偏見:從非法到合法》,載 《廈門大學(xué)學(xué)報(bào)》1996年第2期。人類即使是有偏見的,但這種偏見始終是在由先見向意見發(fā)展,因此,無論法官還是大眾,他們的偏見不是原罪,相反,人類所作的臨時(shí)判決 (或者說初判)可以因應(yīng)法律事實(shí)的復(fù)雜變化隨時(shí)更改或者撤銷,然而在法律事實(shí)確定的前提下,法律人工智能在算法確定之后,它的判決卻是終局的,人工智能是以歷史數(shù)據(jù)為基礎(chǔ)解決未來的類似問題,但是,現(xiàn)在并不能代表當(dāng)下和未來,只基于既往數(shù)據(jù)的判斷缺乏生命力和成長性。
與目前人工智能的黑箱算法相比,經(jīng)過充分說理論證的人類司法裁判更具透明性和可接受性。當(dāng)前主流的深度學(xué)習(xí)算法是一個(gè) “黑箱”算法,允許計(jì)算機(jī)從數(shù)據(jù)中學(xué)習(xí),不需要程序員作出新的分步指令,連設(shè)計(jì)者可能都不知道算法如何決策。即使在價(jià)值領(lǐng)域,人工智能決策系統(tǒng)也僅僅輸出結(jié)論,卻不提供做出決策所依據(jù)的材料和理由,這是非常危險(xiǎn)的。因此,阿西洛馬AI倫理價(jià)值原則特別強(qiáng)調(diào)了司法透明性,要求司法決策中使用AI系統(tǒng)應(yīng)提供解釋和救濟(jì)。⑧參見前引①。但是要在系統(tǒng)中發(fā)現(xiàn)有沒有存在歧視和歧視根源,在技術(shù)上是比較困難的,普通人一般無法理解算法的原理和機(jī)制。與之相對,司法裁判需要進(jìn)行充分的說理和論證,這些都是公眾可以審閱、理解、追問的。
道德多元化的現(xiàn)代背景對法律論證提出更多更細(xì)更高的要求。法律職業(yè)倫理能力主要體現(xiàn)為“通過理性的論證來贏得大多數(shù)人道德上能夠接受的有關(guān)倫理沖突的解決方案。”⑨甘紹平:《應(yīng)用倫理學(xué)的論證問題》,載 《中國社會科學(xué)》2006年第1期。如哈貝馬斯所說,“法庭判決必須同時(shí)滿足判決的自洽性和合理的可接受性這兩個(gè)條件。因?yàn)閮烧卟蝗菀渍{(diào)和,兩套標(biāo)準(zhǔn)必須在司法實(shí)踐中達(dá)成妥協(xié)。”⑩[德]哈貝馬斯:《在事實(shí)與規(guī)范之間》,童世駿譯,三聯(lián)書店2003年版,第245頁。所謂接受就是指:“那些遵守這種實(shí)踐的人認(rèn)為這一規(guī)則是有約束力的,并且把這條規(guī)則看作是他們自己行為的一條理由或者正當(dāng)理由,并且作為批評其他不遵守該規(guī)則的人們的一條理由?!雹伲勖溃萘_納德·德沃金:《認(rèn)真對待權(quán)利》,信春鷹、吳玉章譯,中國大百科全書出版社1998年版,第38頁。而且,各種論證理由要在一個(gè)統(tǒng)一的標(biāo)準(zhǔn)下進(jìn)行,只有如此,所作的價(jià)值判斷才有正當(dāng)性。因此,法律職業(yè)人在具體的倫理困境分析中解釋價(jià)值決策時(shí),必須正視所有可能的倫理規(guī)范和倫理理論,不僅要意識到輿論評價(jià)可能被數(shù)據(jù)信息引領(lǐng)和裹挾,意識到法律人工智能中的數(shù)據(jù)質(zhì)量和算法歧視問題,而且還要明晰數(shù)據(jù)質(zhì)量的具體問題和算法歧視的潛在來源,應(yīng)對這些問題作出包容性、針對性的透徹說理回應(yīng)。
無論如何,算法和人工智能不能成為法律職業(yè)倫理準(zhǔn)則的決策者和發(fā)言人。但是,有必要提及的是,很長一段時(shí)間以來,技術(shù)主線的法律職業(yè)倫理更多關(guān)注形式理性,習(xí)慣了以專業(yè)為名拒絕向社會履行說明和解釋的道德義務(wù)。然而,在法律人工智能的倒逼之下,無需說明的倫理權(quán)力模式已經(jīng)無法延續(xù)。雖然在法律職業(yè)倫理的認(rèn)知、決策和論證領(lǐng)域,人類都具有AI不具有的優(yōu)勢,但是在論證義務(wù)的履行上,法律人工智能的規(guī)?;瘧?yīng)用起到的是正面的、積極的作用。
關(guān)于倫理是否可教,古圣今賢有很多不同的看法,然而正如前美國最高法院大法官克拉克所說,“雖然許多法學(xué)院說他們無法教授道德品質(zhì),但他們必須教,因?yàn)闆]有其他人能教,”②轉(zhuǎn)引自楊欣欣主編:《法學(xué)教育與診所式教學(xué)方法》,法律出版社2002年版,第183頁。因此這個(gè)問題不在本文討論之列。事實(shí)上,法科生在法學(xué)院接受專業(yè)教育,作為專業(yè)倫理的角色道德卻不受專業(yè)教育的影響,這是難以想象的。我們有理由期待的是,“由于對道德爭議變得更敏感了,并且更有技術(shù)解決這些爭議了,因此大學(xué)畢業(yè)生的行為就會更道德?!雹郏勖溃莶ㄋ辜{:《道德和法律理論的疑問》,蘇力譯,中國政法大學(xué)出版社2001年版,第85頁。
不管是否情愿,人工智能作為價(jià)值決策的輔助者甚至決策者的未來必然會來,算法歧視和黑箱也將如期而至,法律職業(yè)倫理與日常倫理的沖突將更加激烈、更加頻繁。認(rèn)識、應(yīng)對、平弭倫理沖突是法律職業(yè)倫理教育的重要目標(biāo),但在法律職業(yè)倫理語境中,日常倫理天然不需要解釋,人工智能算法解釋有門檻和難度,而法律職業(yè)倫理則必須承擔(dān)論證責(zé)任,懷疑、分歧或者反對都會削弱法律判斷的效力。而且與一般的法律推理不同,價(jià)值論證無法單純訴諸法律規(guī)范的權(quán)威,既需要對日常倫理有所回應(yīng),又需要對人工智能的價(jià)值算法有所評析,這就要求在法律職業(yè)倫理教學(xué)中研習(xí)論證技藝。
作為訴訟論證 (訴訟博弈過程中的法律論證)的基本模式,在法律五段論④熊明輝:《審判實(shí)踐中法官的論證技藝》,載 《法學(xué)》2012年第9期。的論證過程中,尤其是由法律規(guī)范集到法律規(guī)范解釋集之間和法律證據(jù)集到案件事實(shí)集之間,潛藏著大量法律職業(yè)內(nèi)外普遍關(guān)注的倫理問題。(見圖1)
首先,法律職業(yè)倫理論證的聽眾是一般公眾。鑒于本文基于法律職業(yè)倫理與日常倫理沖突的視角展開,本文所謂法律職業(yè)倫理論證的目的也主要是為了說服一般公眾而不是法律共同體成員。而且,在當(dāng)代中國,法官的主要說理對象也是當(dāng)事人以及一般公眾,而不是法律職業(yè)共同體。⑤參見前引③,凌斌文。“老百姓到法院打官司,主要是認(rèn)為法院是一個(gè)說理、講理的地方”,⑥白泉民:《裁判文書說理的價(jià)值及其實(shí)現(xiàn)路徑》,載 《人民法院報(bào)》2015年4月8日第5版。但是,要給一個(gè)外行講明白裁判的理由,要比說服一個(gè)同行困難得多。⑦[美]波斯納:《超越法律》,蘇力譯,中國政法大學(xué)出版社2001年版,第574頁。毋庸諱言,法律論證具有防衛(wèi)性。以裁判論證為例,司法權(quán)威與裁判說理的防衛(wèi)性成反比。如果司法的權(quán)威較低,法官在裁判說理中就必須盡可能貼近法律條文的明確規(guī)定和社情民意的具體訴求,⑧參見前引③,凌斌文。以防備潛在質(zhì)疑。價(jià)值判斷沒有直接的法律依據(jù),又不能像一般公眾一樣簡單地依賴于激情、偏見等非理性根據(jù),這決定了法律職業(yè)倫理課程必須高度重視論證技藝的教學(xué)。經(jīng)驗(yàn)也表明,態(tài)度轉(zhuǎn)變大多由議題相關(guān)論證所引起,與由知識線索所引起的態(tài)度轉(zhuǎn)變相比,論證線索導(dǎo)致更持續(xù)的態(tài)度轉(zhuǎn)變,對行為更有預(yù)測性,以及對反說服具有更強(qiáng)的抵抗力。
圖1:法律五段論結(jié)構(gòu)圖
我們將受到一個(gè)具體人或一群人贊成的論證,稱為說服論證;而假定為可被任何理性存在可接受的論證,稱為信服論證。說服可能單獨(dú)出現(xiàn),但信服的出現(xiàn)通常伴隨著說服,為取得信服鋪路搭橋。純粹的信服主要訴諸智識,而說服則需要根據(jù)聽眾的特質(zhì)甚至偏見修辭。法律職業(yè)倫理論證既是信服論證,又是說服論證,因此,論證中需要適應(yīng)聽眾的參照系,必須以共識對象作為論證出發(fā)點(diǎn),以聽眾的知識、經(jīng)驗(yàn)、期望、意見、規(guī)范為基礎(chǔ)。不能簡單地假定聽眾不贊成的價(jià)值觀,盡量不要使用聽眾會認(rèn)為有傾向性的措辭。一方面,自媒體可以像廚師那樣用美味卻不健康的食物取悅聽眾,但作為社會醫(yī)生的法律人,應(yīng)該為聽眾提供苦澀卻健康的藥物;另一方面,如果專業(yè)的法律思維方式需要以法律共同體對外行的排斥和壓制為前提,即使在法律職業(yè)共同體內(nèi)部達(dá)成共識,也是無法實(shí)現(xiàn)社會說服和社會信服的。
其次,人工智能時(shí)代,數(shù)據(jù)能力培養(yǎng)當(dāng)然是法律職業(yè)倫理教育的重要內(nèi)容,這主要體現(xiàn)在以下兩個(gè)方面:
1.統(tǒng)計(jì)證據(jù)在法律論證中的重要性。回應(yīng)日常倫理的質(zhì)疑是法律職業(yè)倫理論證的天職,這種負(fù)面考慮雖然不是論證的前提,但是,卻使得論證需要增加 “權(quán)衡前提”,正是該前提表明了那些負(fù)面考慮對于結(jié)論的得出不再重要了。以因果規(guī)則和證據(jù)規(guī)則為基礎(chǔ)的論證通常是可廢止的,所以法律論證是可廢止的。各種類型的證據(jù)說服力不同,統(tǒng)計(jì)證據(jù)和因果證據(jù)在法律論證中一般具有同等說服力,但是在倫理論證中,受到認(rèn)知偏差等非理性因素的影響,因果證據(jù)的說服力甚至不如軼事證據(jù),而統(tǒng)計(jì)證據(jù)無論在理性論證還是非理性論證中都有強(qiáng)大的說服力。隨著人工智能和智慧司法的發(fā)展,這意味著統(tǒng)計(jì)數(shù)據(jù)將成為決定論證可接受性的重要指標(biāo)。說服不是法律職業(yè)倫理論證的最終目標(biāo),在 “終身負(fù)責(zé)”的制度背景下,論證不僅應(yīng)是說服的、可接受的,更應(yīng)是信服的、值得接受的,因此,法科生需要學(xué)習(xí)事實(shí)類比和價(jià)值類比的規(guī)則和標(biāo)準(zhǔn),善用統(tǒng)計(jì)證據(jù)。
進(jìn)一步說,倫理嵌入是人工智能系統(tǒng)進(jìn)行道德決策的前提,法律職業(yè)倫理本質(zhì)上屬于權(quán)力倫理,對于法律實(shí)踐的作用毋庸贅言,選擇哪些倫理規(guī)范和價(jià)值內(nèi)容轉(zhuǎn)化為計(jì)算機(jī)代碼,不能不說是極大的權(quán)力。法律職業(yè)倫理教育對AI的反思,不能局限于膚表,更不能停留于情緒宣泄,必須提煉、標(biāo)識法律職業(yè)倫理價(jià)值嵌入人工智能,主動尋求對信息檢索和價(jià)值評價(jià)的指引,掌握價(jià)值決策算法的設(shè)計(jì)權(quán)、控制權(quán)、監(jiān)督權(quán),這是結(jié)構(gòu)化的法律職業(yè)倫理教學(xué)的重要目標(biāo)之一。
2.采集、分析、評估數(shù)據(jù)的能力是智慧司法時(shí)代的基本要求。一般認(rèn)為,和教育相關(guān)的人工智能技術(shù)包括以下幾種:語音識別、語音合成、智能閱卷、機(jī)器翻譯和知識推理。⑨吳曉如:《人工智能驅(qū)動下的個(gè)性化教學(xué)》,載 《華東師范大學(xué)學(xué)報(bào) (教育科學(xué)版)》2017年第4期。AI時(shí)代的法律職業(yè)倫理教學(xué),當(dāng)然要善用這些人工智能技術(shù),同時(shí)更要培養(yǎng)學(xué)生采集、分析、評估數(shù)據(jù)的能力,這也是AI商的一個(gè)重要體現(xiàn),卻是現(xiàn)在較少關(guān)注的。為了發(fā)揮數(shù)據(jù)的真正價(jià)值,學(xué)生對算法歧視和黑箱算法不僅應(yīng)有AI意識,更應(yīng)有AI技能,“你只能給Alpha Go一個(gè)正確的棋譜,如果你給它錯(cuò)誤的棋譜,可能它就學(xué)錯(cuò)了,這就會干擾它的決定?!雹馄迅旯猓骸督逃你y彈:人工智能環(huán)境下未來教育的有效手段》,載 《華東師范大學(xué)學(xué)報(bào) (教育科學(xué)版)》2017年第4期。對于大規(guī)模數(shù)據(jù),如果不能善用,反而可能因?yàn)樾畔⑦^載成為學(xué)習(xí)的負(fù)擔(dān)。數(shù)據(jù)能力的培養(yǎng)一方面能讓學(xué)生對所有利益相關(guān)者有更全面的認(rèn)識,以做出更符合法律實(shí)踐場景的價(jià)值決策;另一方面在主動型的學(xué)習(xí)中自然意識到不同算法各自的價(jià)值傾向,清晰認(rèn)識和評價(jià)不同法律人工智能主體的關(guān)注點(diǎn)、觀點(diǎn)偏向、利害根源和責(zé)任配置,保證學(xué)生主動利用數(shù)據(jù)資源而不是被動順從人工智能引導(dǎo),從而更加客觀、全面地思考法律職業(yè)倫理困境和做出價(jià)值決策。
首先,法律職業(yè)倫理教學(xué)決不能局限于法律職業(yè)倫理的單科教學(xué),而應(yīng)是專業(yè)溶入式的大課程體系,這個(gè)體系甚至不是法律職業(yè)倫理課程統(tǒng)攝下的,而是法律職業(yè)倫理課程和法學(xué)專業(yè)課程的協(xié)和共濟(jì),通過貫穿式、溶入式的教學(xué)過程,實(shí)現(xiàn)法律職業(yè)倫理的理論認(rèn)知、實(shí)踐體驗(yàn)和反思內(nèi)化。其中,法律職業(yè)倫理課程主要討論法律職業(yè)倫理價(jià)值、規(guī)范、評析各種倫理學(xué)理論,為法律職業(yè)倫理決策提供基礎(chǔ)的、引導(dǎo)性的工具,而真正有代表性的具體法律職業(yè)倫理問題存在于各部門法中。溶入式的法律職業(yè)倫理教學(xué)不僅僅指在法律知識和技能的教學(xué)中間接地滲透道德影響,而是要求在所有的法律專業(yè)課堂上通過案例分析方法系統(tǒng)地進(jìn)行法律職業(yè)倫理決策訓(xùn)練,以專業(yè)案例的形式討論各種法律職業(yè)倫理案例與實(shí)踐情境。
法律職業(yè)倫理的案例教學(xué)主要是通過一個(gè)倫理兩難的案例情境呈現(xiàn)倫理問題,并提供相關(guān)理論工具,由學(xué)生做出并解釋倫理決策。因?yàn)?“任何人都不能被灌輸或施加條件來誠實(shí)地講話或公正地判決,因?yàn)閷?shí)施這些美德都要求一種自覺意識和自由選擇的品質(zhì),”①[美]麥克萊倫:《教育哲學(xué)》,宋少云譯,三聯(lián)書店1988年版,第324頁。所以,案例教學(xué)要以反思性思考為中心,應(yīng)當(dāng)力求避免倫理主觀主義和單純的應(yīng)用倫理分析。
溶入式法律職業(yè)倫理教學(xué)對教師的要求較高 (由于教材由教師撰寫和選擇,因此,對教材的要求也體現(xiàn)為對教師的要求之一),“我們所擔(dān)心的是不稱職的法律教師,而不應(yīng)該擔(dān)心法律教育本身?!雹趨⒁娗耙?,孫笑俠文。從內(nèi)容到教法上必須進(jìn)行融貫的整體設(shè)計(jì),結(jié)合不同學(xué)科的內(nèi)容和特點(diǎn)選擇特色鮮明的案例,同時(shí)避免與其他學(xué)科的重復(fù)、浪費(fèi)和沖突。在教學(xué)方法上,除了基礎(chǔ)的案例分析法之外,群體學(xué)習(xí)法、生活個(gè)案研究、角色扮演等多種方法都可以用來培養(yǎng)學(xué)生的法律道德情感。
其次,法律職業(yè)倫理教學(xué)應(yīng)該是結(jié)構(gòu)化的。結(jié)構(gòu)化教學(xué)過程以程式主義為特征,體現(xiàn)為穩(wěn)定、有序的組織結(jié)構(gòu)形態(tài),用預(yù)設(shè)的固化結(jié)構(gòu)形態(tài)和模式范例來框定課堂教學(xué)。結(jié)構(gòu)化的要求強(qiáng)調(diào)的是遵循一定教學(xué)規(guī)范,對學(xué)生普遍存在的集中注意力困難、領(lǐng)域知識缺乏和動機(jī)缺乏問題的解決有重要意義。嚴(yán)謹(jǐn)是論證的基本要求,訴訟論證明顯具有動態(tài)性、(多)主體性、目的性、語境敏感性以及前提集的開放性等特征,③熊明輝:《論法律邏輯中的推論規(guī)則》,載 《中國社會科學(xué)》2008年第4期。如果沒有程序框架的規(guī)約,論辯可能失序或者糾纏不休,所以有必要引入程序規(guī)則,而非結(jié)構(gòu)化教學(xué)容易分散焦點(diǎn)、糾纏枝節(jié)。
具體地說,在溶入式法律職業(yè)倫理教學(xué)全流程中,結(jié)構(gòu)化過程模式要求學(xué)生:1.主動收集、檢索更多信息,在全面認(rèn)知利益相關(guān)者的立場的基礎(chǔ)上確定主張或立場,并尋求證據(jù)和法理支持,管理分歧空間的沖突,對論證范圍作出語境化限定,設(shè)計(jì)論證 “框架”或者 “定界符”;2.清晰理解案例中所包含的倫理困境的本質(zhì),嘗試建立一致區(qū)間的共識性前提,這個(gè)前提不僅是 “職業(yè)”的,而且是 “倫理”的,盡量使用沒有傾向性的語言,認(rèn)同日常倫理的合理觀點(diǎn)并理解一般民眾的修辭和情緒;3.應(yīng)用道德技術(shù)做出價(jià)值決策并充分解釋,設(shè)計(jì) “攻防”線路,對現(xiàn)實(shí)和潛在的質(zhì)疑作出回應(yīng);4.設(shè)計(jì)對該決策的追蹤和監(jiān)測路徑,并根據(jù)反饋反思論證中的表達(dá)性剔除、增加、排列和替換問題,即:哪些前提和修辭是應(yīng)該或可以省略的?應(yīng)該增加什么前提和使用什么修辭技巧?哪些論證步驟應(yīng)該重新安排?以及對需要改述的部分具體如何操作?論證中相關(guān)性是否缺失?是否不當(dāng)?shù)卦V諸了情感?這四個(gè)步驟就形成了一個(gè)法律職業(yè)倫理問題思考的過程框架。值得提醒學(xué)生的是,由于缺乏價(jià)值共識,溝通和理解越來越困難,說服不是也不可能是一次性的,它往往是過程性的交互論辯的過程,④參見前引④,熊明輝文。而結(jié)構(gòu)化教學(xué)模式可以使法律職業(yè)倫理論證避免陷入無窮倒退和循環(huán)論證的泥潭。
總之,在人工智能時(shí)代,法律空間風(fēng)云巨變,勢必影響法學(xué)教育場域,智能時(shí)代的教育應(yīng)當(dāng)是一種 “人性為王”的教育,道德、情感等將成為未來教育最為重要的內(nèi)容,⑤項(xiàng)賢明:《人工智能與未來教育的任務(wù)》,載 《華東師范大學(xué)學(xué)報(bào) (教育科學(xué)版)》2017年第5期。法律職業(yè)倫理教育必將成為法學(xué)教學(xué)的核心內(nèi)容。而且,隨著人工智能應(yīng)用領(lǐng)域的不斷擴(kuò)大,計(jì)算技術(shù)的下一步發(fā)展,可能是情感技術(shù),⑥鄒昊:《人工智能改變?nèi)祟愇磥淼慕逃c生活》,載 《華東師范大學(xué)學(xué)報(bào) (教育科學(xué)版)》2017年第4期。技術(shù)法律職業(yè)倫理教學(xué)的沖擊會越來越強(qiáng)烈。我們必須仔細(xì)觀察、深入分析、全面評估 “人工智能+”在法律職業(yè)倫理教學(xué)領(lǐng)域的各種波及效應(yīng),以迎接未來。?