国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

司法裁判中人工智能應(yīng)用的限度及規(guī)制*

2024-01-02 00:32:21張玫瑰
政法論叢 2023年5期
關(guān)鍵詞:裁判法官司法

張玫瑰

(鄭州大學(xué)法學(xué)院,河南 鄭州 450000)

數(shù)字時代,5G、人機交互、AI、區(qū)塊鏈、大數(shù)據(jù)等數(shù)字智能技術(shù)潮流涌現(xiàn),成為數(shù)字空間的基礎(chǔ)性技術(shù),以Deepfake、ChatGPT、元宇宙等為代表的深度合成技術(shù)與應(yīng)用場景,[1]極大地改變了信息獲取、人機交互的方式。數(shù)字時代的發(fā)展邏輯,必然顛覆傳統(tǒng)的社會治理模式,已經(jīng)突破了現(xiàn)代性的國家/社會的二元框架和法律—倫理—宗教三元規(guī)范結(jié)構(gòu)。[2]司法領(lǐng)域也是人工智能技術(shù)應(yīng)用的重要場域,智能技術(shù)與司法裁判的融合為司法創(chuàng)新性發(fā)展注入了前所未有的動力源泉,推進數(shù)字社會法治建設(shè)進程。

一、人工智能嵌入司法裁判的理想圖景

隨著社會的變遷,尤其人類現(xiàn)代技術(shù)的出現(xiàn),傳統(tǒng)的“司法生產(chǎn)力”已無法滿足民眾的訴訟需求,司法裁判轉(zhuǎn)型需要直面?zhèn)鹘y(tǒng)訴訟的痼疾,這也是司法領(lǐng)域?qū)θ斯ぶ悄芗夹g(shù)的渴望。人工智能技術(shù)的賦能使得司法流程自動化、便捷化,降低社會大眾跨進司法的門檻,更大程度實現(xiàn)正義可視化,并且打破傳統(tǒng)訴訟中參與司法活動的資源、時空等方面限制,使得司法活動能夠更廣泛地滲透社會有機體。司法裁判開始對人工智能技術(shù)應(yīng)用賦能產(chǎn)生極大期望。

(一)技術(shù)賦能司法創(chuàng)新發(fā)展

“司法現(xiàn)代化”是法治建設(shè)的重要組成部分,也是國家治理現(xiàn)代化的關(guān)鍵內(nèi)容。它不是單純的司法體系的自身建設(shè),而是要從經(jīng)濟、社會發(fā)展的時代背景下、司法體制的變革來實現(xiàn)的。[3]拓展人的智力,讓機器可以了解語言,產(chǎn)生抽象思考,開發(fā)出與人智力相似的智能系統(tǒng)來解決問題?!爸悄堋庇纱苏Q生。

數(shù)字技術(shù)將數(shù)字社會中的生產(chǎn)組織方式進行了重新組合。人工智能技術(shù)需要依靠大數(shù)據(jù)、算法和算力的自身條件進行發(fā)展,而司法活動本身就是一個動態(tài)博弈的過程。在庭審中,控方和辯護人通過羅列證據(jù)、舉證質(zhì)證,說服法官做出對自己有利的裁決。從理論上來看,司法人工智能通過輸入控辯雙方提供的大量證據(jù)信息進行分析計算,如果輸入的信息越多、量越大,則將越不斷逼近”案件真相”。

隨著人工智能技術(shù)的不斷發(fā)展,算法愈發(fā)完善,數(shù)據(jù)分析能力也得以提高。強調(diào)思維結(jié)構(gòu)的集成作用,許多小型的、內(nèi)部關(guān)聯(lián)的子系統(tǒng),在分別對法律推理的要素(法律查詢、法律解釋、法律適用、法律評價、理由說明)進行仿真時,再通過聯(lián)想程序?qū)⑺鼈冇袡C地連接在一起,從而形成完整的法律推理系統(tǒng)。從生成式人工智能的技術(shù)原理看,其在司法領(lǐng)域有廣闊的運用空間,從而改變了訴訟和裁判的方式。

(二)數(shù)字形式實現(xiàn)司法程序公正

數(shù)字社會依靠數(shù)據(jù)信息來掌握和控制社會利益,并且根據(jù)技術(shù)賦能來分配利益,形成了一種全新技術(shù)賦權(quán)觀,社會的管理模式和價值理念面臨前所未有的全新挑戰(zhàn),社會也迫切需要全新的技術(shù)規(guī)制策略。

在司法裁判中,人工智能技術(shù)的嵌入,使得司法程序規(guī)則以代碼化形式出現(xiàn),以簡潔客觀的代碼數(shù)字公開,以形式化的推理語言演繹著審判進程,并以線性的程序樣態(tài)推進司法流程。社會大眾滿足了充分參與司法活動的訴求,彌補并獲得經(jīng)驗性知識的不足,社會成員的法律素養(yǎng)實現(xiàn)“掃盲式”的普及,各類糾紛,從人與人的交往開始到矛盾的產(chǎn)生及最終化解,民眾個體甚至于對于一整套的司法流程及其所涉知識都能輕易了解,選擇最優(yōu)策略,實現(xiàn)行為決策和對糾紛化解的應(yīng)對。實踐中我國已有部分法院針對性解決了刑事案件辦理程序不規(guī)范、證據(jù)標(biāo)準(zhǔn)適用有差異的難題,如上海高院指定多家基層法院各自專項完成委派的一類罪名的證據(jù)標(biāo)準(zhǔn),最終研發(fā)的“上海刑事案件智能輔助辦案系統(tǒng)”,在刑事司法辦案機關(guān)的數(shù)據(jù)化辦案系統(tǒng)中嵌入了統(tǒng)一的證據(jù)標(biāo)準(zhǔn)。實踐中具體的辦案人員在辦案過程中要嚴格按照證據(jù)標(biāo)準(zhǔn)執(zhí)行工作,人工智能技術(shù)運用于司法裁判為司法正義的高效實現(xiàn)作出了積極貢獻。人工智能正越來越多地被開發(fā)和用于預(yù)測法官將如何對特定事項作出裁決。深度合成的生成式人工智能已經(jīng)可以制作出特定模型以便司法人員直觀地觀察和理解證據(jù),可以通過數(shù)據(jù)整合輔助司法人員或訴訟參與人制作訴訟文書,技術(shù)的客觀性和直接性使得人們更易于接受裁判結(jié)論的合法公正。

(三)約束限制恣意裁判

常見的推理形式就是公開的“辯解”采用R*F=D推理形式(Rule規(guī)則*Fac事實=Decision判決),是對演繹邏輯的套用。[4]大部分司法裁判者的裁判過程,主要是用情感和預(yù)判在進行,雖然他們不愿意承認,但是很多法官并不是所有程序都是嚴格按照推理步驟來進行斷案。司法裁判是一個決策過程,一個簡單的詞語可能都會被法律直覺主義影響到,他們更多的是在乎法教義學(xué)的內(nèi)容,表面上是嚴格按照法律形式主義的方法進行斷案。在司法決策中,當(dāng)人的決策無法徹底擺脫直覺時,更多會關(guān)注如何使判決遠離恣意的直覺,自然而然就會轉(zhuǎn)向?qū)で笾悄軝C器的幫助。通過機器人法官,能夠自動生產(chǎn)判決書,被賦予科學(xué)、客觀、中立、理性的功能標(biāo)簽,實現(xiàn)了對智能司法最終愿景,實現(xiàn)了法律糾紛解決困局:既能清晰地論證說理,又能保證冤假錯案發(fā)生率為零。

人工智能使用同種系統(tǒng),算法推理也統(tǒng)一,因此它能夠避免法官因個體差異對案件作出不同的判決,并且由于算法的程序設(shè)定,人工智能在司法裁判的過程中,能夠客觀的根據(jù)案件現(xiàn)有的證據(jù)建構(gòu)案件事實。再者,人工智能根據(jù)自己所學(xué)到的法律和相似判例對案件作出判決的預(yù)測,不會受到外部因素的影響,使得案件的裁判更加純粹、更加客觀。[5]

二、人工智能應(yīng)用的現(xiàn)實場域問題凸顯

雖然人工智能在司法裁判領(lǐng)域的應(yīng)用與傳統(tǒng)司法裁判所追求的目標(biāo)都是一致的,這種價值理念包括對公平的追求、對人權(quán)的保障、對秩序的維護,但是人工智能在司法裁判中的應(yīng)用還是凸顯了許多問題。智能技術(shù)為司法智能化提供了動力源泉,同時也顯露了諸多有限性與不可為。在人工智能的司法適用過程中,我們不僅要對人工智能的發(fā)展方向充滿信心,同時還要保持冷靜理性的態(tài)度,以避免“偽人工智能”產(chǎn)品的欺詐行為,同時也要防止人工智能技術(shù)造成的誤判案件風(fēng)險與技術(shù)壁壘。[6]

(一)算法歧視的根植性風(fēng)險

算法作為一種新型的數(shù)字技術(shù),在許多領(lǐng)域都趕超人類,但并“不是所有可以計算的東西都重要,也不是所有重要的東西都可以被計算”,它自身也存在著一定的局限性,比如算法歧視、算法黑箱、算法錯誤等問題。[7]“算法歧視”來源于大數(shù)據(jù)技術(shù)應(yīng)用,其成因主要有“數(shù)據(jù)缺陷”和“技術(shù)缺陷”兩方面,隨著人工智能應(yīng)用的不斷深入,算法歧視根植于程序之中,其歧視行為非常隱蔽。不僅是司法裁判中,算法歧視的技術(shù)風(fēng)險存在與所有人工智能技術(shù)應(yīng)用領(lǐng)域。

算法思維的固有缺陷。在算法黑箱現(xiàn)象泛濫及數(shù)據(jù)正義缺失的情況下,我們往往很難發(fā)現(xiàn)歧視的存在。由于大數(shù)據(jù)技術(shù)會根據(jù)瀏覽記錄、閱讀喜好、購買記錄等數(shù)據(jù)分析出用戶的隱形特質(zhì),從而就輕易得出用戶的偏好特點、選擇傾向、觀念認識等思維判斷結(jié)論,導(dǎo)致經(jīng)驗上的相關(guān)性被算法夸大為必然的因果關(guān)系,造成算法邏輯過于絕對,最終導(dǎo)致對少數(shù)群體的算法歧視。因該算法歧視問題不僅使算法無法充分發(fā)揮其正向效用,還因這種反常規(guī)決策通常具有極大的隨機性和不確定性,從而也成為大數(shù)據(jù)科學(xué)及人工智能技術(shù)推廣中不可忽視的障礙,難以從中總結(jié)出具有規(guī)律性的邏輯思路并形成算法。

算法簡化及歸類思想與對象異質(zhì)性存在沖突。人工智能產(chǎn)品的程序設(shè)計者通常會先將對象進行分類簡化,進而對不同類別群體針對性賦予程序指令,而異質(zhì)性特征卻被忽略。算法的歸類簡化思想使群體在共性上得到公平對待,但卻在特性上受到歧視。

算法設(shè)計者存在主觀歧視思想。一方面設(shè)計者主觀認知偏見,若設(shè)計者主觀上具有偏見思想并在設(shè)計程序中將主觀意愿及隱含偏見寫進算法,甚至于通過有意為之的歧視,完成迅速提供瀏覽量、吸引用戶關(guān)注、刺激用戶消費等目的,進而為自身創(chuàng)造更大的經(jīng)濟利益。就必然會造成算法歧視問題。

算法歧視的數(shù)據(jù)瑕疵表現(xiàn)。[8]算法歧視的“數(shù)據(jù)瑕疵”表現(xiàn)是由于所收集的數(shù)據(jù)存在瑕疵導(dǎo)致的,算法選取樣本分布不均,基礎(chǔ)性數(shù)據(jù)集也是導(dǎo)致算法歧視問題的主要原因。在數(shù)據(jù)采樣過程中若數(shù)據(jù)來源集中于部分群體,而忽略其他群體,數(shù)據(jù)來源不統(tǒng)一、不匹配,算法往往僅能捕捉到被采樣群體的特征,在利用算法篩選數(shù)據(jù)時難免會出現(xiàn)偏見,其輸出的信息也僅適用于被采樣群體。因此,即便算法具有公正的設(shè)計思想,但由于基礎(chǔ)性數(shù)據(jù)集的采集缺陷,若所選取的數(shù)據(jù)樣本分布不均,也會導(dǎo)致嚴重的算法歧視問題。

算法歧視的技術(shù)缺陷表現(xiàn)。機器學(xué)習(xí)過濾標(biāo)準(zhǔn)過松,機器學(xué)習(xí)算法會在與用戶交互的過程中學(xué)習(xí)用戶行為,缺乏嚴格的信息甄別和過濾功能,算法一旦在這一過程中學(xué)習(xí)并儲存了具有歧視性的信息,則會在其他交互情景中輸出帶有歧視性的信息。同時算法“黑箱”等信息存在不對稱性,大多數(shù)算法系統(tǒng)所采用的算法技術(shù)均為“算法黑箱”算法使用的數(shù)據(jù)、分析邏輯等關(guān)鍵過程被算法“黑箱”隱藏,由計算機直接從事物原始特征出發(fā),自動學(xué)習(xí)和生成高級的認知結(jié)果。因算法的非透明性導(dǎo)致算法歧視更加隱蔽,“黑箱”算法對數(shù)據(jù)主體信息權(quán)利造成侵害,導(dǎo)致了歧視和不公平的情形。

(二)侵擾訴訟活動進行

人工智能在我國司法裁判中的應(yīng)用存在侵擾訴訟活動的運行的限度面向,這種限度可以分解為事實認定和適用這兩個方面。[9]在事實認定中體現(xiàn)為難以實現(xiàn)對案件信息的準(zhǔn)確提煉、難以完成對證據(jù)信息的有效審查,以及難以進行證明標(biāo)準(zhǔn)的量化分析,在法律適用方面體現(xiàn)為無法實現(xiàn)對法律論證和法律解釋過程的有效模擬。

不能有效審查證據(jù)內(nèi)容。在證據(jù)信息的有效審查方面,考量證據(jù)本身的真實性等內(nèi)部因素并不是唯一的要求,對于社會倫理等外部因素也同等重要。[10]在證據(jù)的合法性審查中,存在著大量的線性邏輯判斷。因此,在存有大量“是與非”判斷的證據(jù)合法性審查中,智能系統(tǒng)是有能力實現(xiàn)的。但當(dāng)智能系統(tǒng)應(yīng)用關(guān)涉到非線性邏輯判斷時,限度便顯露出來。譬如被告人供述這一證據(jù)是否具有證明力,是否是刑訊逼供得來的證據(jù),此時僅依靠智能系統(tǒng)是無法進行判斷的,而需要法官非線性邏輯的運用。[11]在證明力的審查中也是如此,欠缺非理性考察因子致使系統(tǒng)無法獨自產(chǎn)生內(nèi)心確信也就無法獨立完成對證明力的審查。[12]

難以量化證明標(biāo)準(zhǔn)。就目前的人工智能技術(shù)發(fā)展?fàn)顩r而言,無論案件性質(zhì)等同或是證據(jù)數(shù)量相等,人工智能在認定案件事實時均無法實現(xiàn)對證明標(biāo)準(zhǔn)的量化。證據(jù)判斷是區(qū)別于實驗科學(xué)和精密科學(xué)的一種判斷方式,它是裁判者運用其生活經(jīng)驗、司法經(jīng)驗以及主觀思維中想象、直覺、歸納等元素的綜合過程。[13]智能系統(tǒng)需要認識到人類裁判者的經(jīng)驗是很難被準(zhǔn)確地提取出來的,更談不上區(qū)分合理懷疑,這一點是當(dāng)前難以解決的問題。

沒有實現(xiàn)有效模擬法律論證和法律解釋過程。就像數(shù)學(xué)運算一樣,法律論證也需要依靠固定規(guī)則結(jié)構(gòu)進行。然而,相比數(shù)學(xué)運算,法律論證的過程更加復(fù)雜,對這種推理進行模擬需要耗費大量的算力資源,并且還需要人類使用自己的邏輯能力進行輔助。[14]目前,人工智能主要采用學(xué)習(xí)算法,建立歷史裁判中各個變量之間的模型關(guān)系。因為法律論證需要推理、解釋法律規(guī)則,這比傳統(tǒng)學(xué)習(xí)算法的功能范圍更廣泛。當(dāng)待決案件被提交給人工智能時,它會提取出其中已知變量,然后利用已經(jīng)建立的模型將這些變量輸入,并相應(yīng)地輸出一個類似于“裁判”結(jié)果的變量。

闡釋法律規(guī)范從而使得法律規(guī)則具體明確,并讓法律規(guī)則中的事實描述與案件事實無限接近是法律解釋的目的所在。[15]法律解釋的過程需要裁判者發(fā)揮其非理性思維創(chuàng)造性地進行解釋,而這正是智能系統(tǒng)的限度所在。智能系統(tǒng)在模擬法律解釋過程中由于無法實現(xiàn)對案件事實和意義的準(zhǔn)確了解,因而無法模擬法律解釋過程。一方面算法的精準(zhǔn)性無法完全兼容模糊性的法律規(guī)范;另一方面仍然是智能系統(tǒng)無法進行價值判斷。盡管如今的人工智能系統(tǒng)已然具備了自主學(xué)習(xí)的能力,但當(dāng)然無法期盼其可以做出類似“馬伯里訴麥迪遜案”這樣的偉大裁決,兼顧法律效果和社會效果顯然是它的能力極限。

(三)消弭法官主體地位

受制于智能系統(tǒng)與裁判者在知識結(jié)構(gòu)、潛在能力以及價值判斷上的差異,智能系統(tǒng)弱化了法官的主體地位,算法和代碼規(guī)制顯現(xiàn)出權(quán)力技術(shù)化的特征,純粹技術(shù)化規(guī)則適用在固化法官思維、削弱法官自主裁量權(quán)以及弱化法官責(zé)任幾方面表現(xiàn)明顯。

固化法官思維。法官思維也屬于法律人思維的一種,其運作方式伴隨現(xiàn)代技術(shù)的出現(xiàn),發(fā)生了諸多變革。有學(xué)者指出,大數(shù)據(jù)時代所帶來的最為驚心動魄的挑戰(zhàn),可能在于社會將逐漸擺脫對于“因果關(guān)系”的渴求轉(zhuǎn)而使用簡單的相關(guān)關(guān)系,以相關(guān)性分析替代對事物的因果分析。[16]傳統(tǒng)因果關(guān)系的認知模式要求我們在研究事物之間的關(guān)系時,必須確定導(dǎo)致事物變化的確切原因,即所謂的“為什么”。[17]

人工智能技術(shù)嵌入司法并分享裁判活動后將對此種演繹式的裁判邏輯進行改造,通過數(shù)據(jù)的深度學(xué)習(xí)與挖掘、人機協(xié)同模式的建立等式實現(xiàn)交互式的裁判直接干預(yù)和指引法官思維,法官作為裁判者對于案件具體因素和適用規(guī)則不需再進行具體考量,其思維固化于機械推演,缺乏人性的生成式人工智能無法實現(xiàn)對案件中所蘊含的情感、倫理等因素的判斷,其作出的裁判亦可能偏離社會大眾對于司法正義的一般理解,從而難以被民眾所接受。[18]

削弱自由裁量權(quán)。人工智能技術(shù)尤其是生成式人工智能的運用具備相當(dāng)?shù)膭?chuàng)造能力、顯著的效率和生產(chǎn)力,帶來了裁判方式的變革,尤其是裁判權(quán)的割讓。傳統(tǒng)上,裁判權(quán)由法官獨占是訴訟的基本原理,但人工智能特別是生成式人工智能在司法領(lǐng)域的運用改變了此種樣態(tài)。生成式人工智能是基于概率模型的人工智能技術(shù),其基本邏輯是通過數(shù)據(jù)訓(xùn)練學(xué)習(xí)潛在分布規(guī)律而形成新數(shù)據(jù)的。相較于判別式人工智能,生成式人工智能更具有主動性和創(chuàng)造性。

2023年1月,哥倫比亞法官胡安·曼努埃爾·帕迪拉·加西亞承認其用 ChatGPT 撰寫了一個涉及自閉癥兒童醫(yī)療保險費用支付的判決;2023年3月,印度旁遮普邦和哈里亞納邦的一個法院在審理謀殺案的被告人是否可以獲得保釋的問題時向 ChatGPT最新版本 GPT-4詢問“被告人殘忍傷害他人而獲保釋的法律依據(jù)”,而 ChatGPT回答保釋需考慮犯罪的嚴重性、被告人的犯罪歷史、案件的證據(jù)強度等,在參考ChatGPT的意見后,法院拒絕了被告人的保釋申請。[19]可以看到ChatGPT 等生成式人工智能對于案件最終裁判結(jié)論的作出有了極大的話語權(quán)和決定權(quán),已經(jīng)獲得了從人類法官處所割讓的部分裁判權(quán)。

(四)阻礙司法價值實現(xiàn)

生成式人工智能并非與司法毫無關(guān)系,隨著數(shù)字司法、智慧司法改革的推進,包括生成式人工智能在內(nèi)的各類人工智能工具在司法領(lǐng)域的運用必將越來越常見,其介入程度也將越來越深刻。

司法的價值和重要功能在于彌補立法和社會之間的縫隙,在社會變革期間尤其如此。[20]大數(shù)據(jù)和人工智能在司法裁判和司法治理領(lǐng)域的廣泛應(yīng)用為司法實踐帶來了積極的效應(yīng),同時人們對于正義的實現(xiàn)狀態(tài)產(chǎn)生了一種誤解,認為正義一定會以看的見的方式實現(xiàn),但是實際上,算法和法律不能混為一談,法律的范圍是有限的,算法更不可能被歸于法律之中。[21]

從價值層面來說,需要以溝通、共識為基礎(chǔ),對于數(shù)字法治的價值重新作出判斷,并確立全新的價值,司法程序的正規(guī)化、技術(shù)和專業(yè)的發(fā)展并不符合一些社會成員參與司法程序的實際可能性。在智能技術(shù)與司法融合的概念出現(xiàn)之前,審判流程的優(yōu)化升級做法主要集中于對審判事務(wù)進行科學(xué)的分工。[22]

三、人工智能應(yīng)用限度考量的正當(dāng)性基礎(chǔ)

在人工智能的司法適用中,我們不僅要對人工智能的發(fā)展方向充滿信心,同時還要保持冷靜態(tài)度,以避免“偽人工智能”產(chǎn)品的欺詐行為,同時也要防止人工智能技術(shù)造成的誤判案件風(fēng)險與技術(shù)壁壘。[23]

人工智能應(yīng)用于司法裁決的合法性和公正性如今尚未有明確的理論歸屬,但對其應(yīng)用限度的正當(dāng)性基礎(chǔ)卻可以到的明確考量。司法理性是法官在司法活動的過程所具備的利用法律方法理性推斷和分析的能力,是法官在大量的司法實踐中總結(jié)和積累起來的。理論界和實務(wù)界對于“我們究竟可以在多大程度上讓與人工智能以空間”這一問題提出了自己的理解與看法。這些研究結(jié)論為人工智能司法理論、技術(shù)和應(yīng)用的科學(xué)性和可行性提供了理論基礎(chǔ),其蘊含的內(nèi)在法學(xué)理論基礎(chǔ)為智能裁判的理論研究和實踐應(yīng)用奠定了基礎(chǔ)。

(一)技術(shù)理性與經(jīng)驗理性之間的沖突

智能司法通過代碼對人的行為進行規(guī)范管理,嵌入代碼的法律價值精神在潛移默化中形塑著社會成員。從外觀上看,人工智能具備一定的感知技術(shù)能力,可以進行圖像識別、語音識別、語言處理等,它的這些能力大致等同于人類的視覺、聽覺和讀寫能力。但是對于人類的主觀意識方面,如信仰、感情、意志等,它就無從下手了。從計算機的本源設(shè)計上來看,人工智能在理性范疇內(nèi)存在著局限性。

正如刑事案件能否勝訴的關(guān)鍵在于證據(jù)的提供和證據(jù)的采納,通過質(zhì)證環(huán)節(jié),當(dāng)事人雙方針對爭議焦點進行充分辯論,法官對雙方提供的證據(jù)進行取舍,從而達到辯論的目的,以實現(xiàn)個案正義。[24]與傳統(tǒng)司法裁判相比,計算機程序?qū)⑿淌伦C據(jù)進行自動化對比,減少了中間的質(zhì)證環(huán)節(jié),案件結(jié)論就可能會不同。[25]同時人工智能技術(shù)不能避免語言轉(zhuǎn)換的歧義性。由于漢字本身的含義較為豐富,在進行文義解釋的過程中都可能會產(chǎn)生多種理解。

人工智能在理性的框架內(nèi)運行,但司法并非理性的計算活動,它涉及到受人類主觀意識影響的各種復(fù)雜的社會問題,無法對具體的問題進行合理的分析和思考,審時度勢的處理疑難案件中的法律糾紛。人工智能技術(shù)需要依靠大數(shù)據(jù)、算法和算力的自身條件進行發(fā)展,而司法活動本身是動態(tài)博弈的過程。在庭審中,控方和辯護人通過羅列證據(jù)、舉證質(zhì)證,說服法官做出對自己有利的裁決。從理論上來看,司法人工智能通過輸入控辯雙方提供的大量證據(jù)信息進行分析計算,信息越多,越不斷逼近“案件真相”。但問題在于,他們很可能會盡量多的提供有利于自身的信息,隱匿部分案件信息或者增加干擾信息,這就對人工智能后續(xù)的判斷造成了干擾,法官在何時阻斷信息流的輸入就顯得至關(guān)重要了。司法更深層次的內(nèi)涵是把握和理解社會關(guān)系、人性,作為工具的司法人工智能應(yīng)當(dāng)止步于此。理性司法過程必須貫徹法治所固有的規(guī)則性及其內(nèi)在邏輯,法治的進程正是在恢復(fù)法律的這種理性信仰,并力求以現(xiàn)代法治這一方式創(chuàng)造出更高的法和理性的結(jié)合。

(二)司法功能與智能機器單一性克服

司法審判權(quán)作為判斷性權(quán)力,以明確的規(guī)范依據(jù)、嚴密的程序保障、充分的辯論手段、以及縝密說理為特點,以國家強制力為后盾,以公允的衡平為補充,其功能是通過審判執(zhí)行各類案件來定分止?fàn)?實現(xiàn)法律的秩序價值,在法治功能中具有重要作用。定分止?fàn)幨腔A(chǔ)的司法規(guī)范功能,而司法更多反映出執(zhí)司法律、定分止?fàn)?、?quán)利救濟、公權(quán)制約等等社會功能。司法的社會功能是一種法的合目的性功能,社會越是依賴司法,司法的社會功能就越多樣化。司法功能從單一向多元化發(fā)展,社會有機體的方方面面都能通過司法實現(xiàn)相應(yīng)目的。法官的法律思維的多維化趨向被司法功能的多元化訴求所決定,法官進行司法決策不能僅僅機械地適用法條,更不能成為“判決自動售貨機”。而且,制定法的安定需要法官維護,法官還需要在必要時推動法律的進步,這是司法實踐的經(jīng)驗,也是法律思維的應(yīng)有之義。

智能機器單一性特征明顯。隨著人工智能技術(shù)和物聯(lián)網(wǎng)及相關(guān)技術(shù)的進步,人工智能應(yīng)用范圍不斷擴大。但與人們不斷增長的需求升級相比,在執(zhí)行復(fù)雜任務(wù)、提供更多內(nèi)容服務(wù)、完成豐富人類模擬活動等方面還有較大距離。對算法進行抽絲剝繭,那么就可以發(fā)現(xiàn),“算法”或者人工智能司法裁判的基本方式建立在傳統(tǒng)的統(tǒng)計學(xué)模型基礎(chǔ)之上,包括機器學(xué)習(xí)式的算法應(yīng)用。以美國刑事司法實踐中被廣泛應(yīng)用的再犯風(fēng)險評估工具為代表的人工智能司法裁判是對人類法官決策實踐的收集、總結(jié)和模式化。[26]其基本模型是經(jīng)驗式的,基于司法大數(shù)據(jù),面向?qū)嵺`去收集、分析、建模量刑實踐數(shù)據(jù)是其運作的前提。技術(shù)數(shù)據(jù)都差不多,只是對于數(shù)據(jù)的分析工具不同,和以什么樣的編程方式融入進特征化可翻譯化的語言。但即使如此,也依然是機器單一性標(biāo)簽。

生成式人工智能在本質(zhì)上是去價值化的,具有以普遍性、非人格性為特征的形式合理性品格,[27]但同時又是冰冷的、機械的、無情感的。人類社會生活是復(fù)雜的,由此產(chǎn)生的糾紛也是多樣的,在一些案件中不但需要法律的運用,還需要情感的投入。面對如此需求,缺乏人性的生成式人工智能無法實現(xiàn)對案件中蘊含的情感、倫理的判斷,其作出的裁判亦可能偏離社會大眾對于司法正義的一般理解,從而難以被民眾所接受。[28]人工智能司法裁判必須采用計算機語言的方式進行,而案件事實、法律規(guī)范、案例對比、文書說理均需要用法律語言進行,從這一點看,計算機語言和法律語言之間的轉(zhuǎn)換也注定是艱難的。[29]

(三)模型偏差與算法技術(shù)風(fēng)險糾正

機器學(xué)習(xí)是基于訓(xùn)練數(shù)據(jù)構(gòu)建統(tǒng)計模型,從而使計算機具有對新數(shù)據(jù)進行預(yù)測和分析的能力。與傳統(tǒng)的數(shù)學(xué)模型相比,人工智能模型運用數(shù)學(xué)、統(tǒng)計、計算機科學(xué)和機器學(xué)習(xí)等領(lǐng)域的方法,對具有一定規(guī)律性和可預(yù)測性的數(shù)據(jù)進行分析、處理、預(yù)測和優(yōu)化。人工智能這種數(shù)學(xué)模型是一種將“數(shù)據(jù)”轉(zhuǎn)化為“智能”的數(shù)學(xué)模型。算法的應(yīng)用不僅提升了司法的糾紛處理能力,降低了解決糾紛的成本,而且 在很大程度上提高了糾紛解決的自動化程度。[30]算法本身建立在數(shù)學(xué)表達式之上,具有答案固定的特性,往往被視為客觀與理性的化身。算法對現(xiàn)實生活各個領(lǐng)域的滲透,使得“算法的權(quán)力”變得引人注 目。數(shù)據(jù)科學(xué)家凱西·奧尼爾更是將算法視為數(shù)學(xué)殺傷性武器,強調(diào)了許多情境下算法存在的風(fēng)險。因此有必要在算法設(shè)計之初就將人文倫理、算法透明、算法解釋嵌入其中,防范并糾正其風(fēng)險后果。

算法過程具有封閉性。毫無疑問,當(dāng)人工智能參與法律推理過程時也要遵循演繹推理的結(jié)構(gòu),將在計算機程序中存儲大量規(guī)范和案例,通過對比分析得出法律適用的結(jié)果。法律推理是按照演繹推理的三段論式結(jié)構(gòu)進行的。在這個法律適用的過程中,規(guī)范的檢索、案例的對比以及文書的生成都是在自動的、沒有人參與的情況下完成的,過程的封閉性往往會對程序公正產(chǎn)生影響,特別是在刑事案件的裁判過程中,裁判的自動化首先會對被告人的辯護權(quán)產(chǎn)生影響,程序性權(quán)利由此削弱,當(dāng)事人權(quán)利得不到有效保障,因此實體正義也會被產(chǎn)生懷疑。

生成式人工智能模型的數(shù)據(jù)偏差就會帶來其信息輸出時的真實性問題,甚至帶來意識形態(tài)、思維方式的固有成見,一旦運用于司法實際則可能導(dǎo)致裁判結(jié)論的偏差。并且生成式人工智能模型技術(shù)特征決定了其容易混淆虛假信息和真實信息的邊界,從而導(dǎo)致真實性方面的缺陷。在司法運用的場景下,具有技術(shù)壟斷優(yōu)勢的企業(yè)或機構(gòu)還可能利用其壟斷技術(shù),通過封閉秘密的算法在不為人所知的情況下刻意影響裁判的結(jié)論,以謀取商業(yè)或其他方面的利益。更為危險的是若算法自動抓取或爬取的數(shù)據(jù)涉及個人信息,則直接構(gòu)成對該數(shù)據(jù)主體隱私權(quán)的侵害。

四、人工智能應(yīng)用的輔助定位規(guī)制

案件的裁判不但需要工具理性,也需要價值理性和情感投入,這就使得裁判從本質(zhì)上看是人的工作,即便生成式人工智能也不能在司法中代替人類法官的裁判職能。最高人民法院在 2022 年發(fā)布的《關(guān)于規(guī)范和加強人工智能司法應(yīng)用的意見》中就明確了人工智能的輔助審判原則,要求堅持人工智能對審判工作的輔助性定位,人工智能輔助結(jié)果僅可作為審判工作或?qū)徟斜O(jiān)督管理的參考,并強調(diào)無論技術(shù)發(fā)展到何種水平,人工智能都不得代替法官裁判,從而確保裁判職權(quán)始終由審判組織行使。[31]結(jié)合智能技術(shù)階段性發(fā)展特征,以考量司法現(xiàn)實需求和司法特征為前提,對智能系統(tǒng)的應(yīng)用做出適配性調(diào)整,實現(xiàn)對于應(yīng)用場景的界定以及對于應(yīng)用主體限度的明確。

(一) 理性主義下智能系統(tǒng)應(yīng)用的限度

人工智能在技術(shù)上只能算是人類智慧的延伸,僅能作為司法工作人員有力的輔助工具,幫助司法工作人員從非審判性的繁瑣工作中解脫出來,運用技術(shù)理性的方式監(jiān)督司法裁判的過程。在司法過程中,技術(shù)理性和經(jīng)驗理性相輔相成。技術(shù)理性的思維模式在傳統(tǒng)的司法審判中也并未缺位,它是一種認知世界的線性視角,是人類固有的一種思維模式。[32]堅持兩種理性思維的固有內(nèi)在統(tǒng)一,以技術(shù)理性匡扶經(jīng)驗理性偏差,以經(jīng)驗理性抵擋技術(shù)理性侵蝕。

實踐中,智能系統(tǒng)與司法裁判二者難以平衡,智能系統(tǒng)在司法實踐應(yīng)用中存有限度。[33]理性一詞在哲學(xué)意義上常指代在概念或者判斷等思維指引下的形式和活動。雖然不同哲學(xué)家對理性的理解可能存在差異,但“科學(xué)”和“正確”等代名詞通常被視為理性的代表。經(jīng)驗主義主張知識的唯一來源是經(jīng)驗,經(jīng)驗相對于理性知識更為可靠。[34]理性主義的首創(chuàng)者是笛卡爾,在笛卡爾之后理性主義由斯賓諾莎和萊布尼茨完善,最終被康德推崇至極端。

理性主義主張經(jīng)驗并不是知識的唯一來源,有些知識是先驗的且理性相對于經(jīng)驗更為準(zhǔn)確。[35]技術(shù)理性是通過數(shù)學(xué)和演繹邏輯運用抽象出的概念系統(tǒng),用于認識事物理解世界。而經(jīng)驗理性則是通過含有價值判斷和多元視角的方法,來認識事物理解世界。技術(shù)理性思維和經(jīng)驗理性思維的難以調(diào)和導(dǎo)致法律概念理解產(chǎn)生沖突。前者需要表達方式的確定性,而后者主導(dǎo)的語言表達方式卻是抽象和模糊的。技術(shù)理性與經(jīng)驗理性常以原始張力膠著成為智能系統(tǒng)應(yīng)用于司法審判,在法律概念理解、事實認定以及司法推理的整個過程中,由于技術(shù)理性和經(jīng)驗理性界限不清致使人工智能在司法裁判中的效應(yīng)難以發(fā)揮。

(二) 限定智能系統(tǒng)輔助審判的應(yīng)用場景

相比較而言,機器擅長處理具有家族相似性的事物,即將事物抽象為普遍和 一般并進行處理,人則是優(yōu)于處理非家族相似性的事物,即人類可以從不相識/相似的事物中抽取相識/相似性。[36]算法應(yīng)該為所有類型的人構(gòu)建,才能保證技術(shù)人員的多樣性,即保證種族、性別認同、宗教和社會經(jīng)濟背景的多樣性,可以使得算法開發(fā)過程中始終存在不一樣的聲音。

人工智能系統(tǒng)自身具有的機械性特征,其更適用于規(guī)則清晰、界限明確的案件范圍。[37]根據(jù)案件的性質(zhì)、案件的復(fù)雜程度以及案件的類型合理確認人工智能介入司法裁判的適用場景。對于司法審判中重復(fù)且機械化的工作可以委諸人工智能輔助應(yīng)用系統(tǒng),例如文書自動生成等系統(tǒng)。

智能系統(tǒng)可以適用于事實清楚、爭議不大的案件場景,如小額借貸糾紛、勞動爭議糾紛、保險合同糾紛等,由于事實清楚爭議不大均可適用,智能系統(tǒng)利用技術(shù)理性和客觀優(yōu)勢,分析案件事實推送法律規(guī)范,有利于司法公平正義的實現(xiàn)。[38]由于特征、類型和復(fù)雜程度的不同,案件本身不可能完全相似。對智能系統(tǒng)的過度依賴會對案件裁判產(chǎn)生不利影響。

界定智能系統(tǒng)在司法裁判中的輔助地位之后,需要對其適用的條件和范圍進行規(guī)定,進而確保其準(zhǔn)確性。從案件類型的角度來看,一些特定類型的案件也需要進行非智能化處理。諸如涉及國家秘密、商業(yè)秘密和個人隱私的案件,智能化處理的程度要降低或者進行限制性使用。人工智能系統(tǒng)的開發(fā)和修復(fù)完全取決于人類智 能,因此為了應(yīng)對算法的偏向問題,不過分依賴數(shù)據(jù),重視人類智能的重要性,實現(xiàn)人機融合、確立法官裁判者主體地位才是行之有效的解決方向。

(三)設(shè)定應(yīng)用主體的使用界限

明確智能系統(tǒng)應(yīng)用主體的使用限度應(yīng)當(dāng)以保障法官主觀能動性的發(fā)揮為前提,通過規(guī)范裁判者對智能系統(tǒng)的使用權(quán)限和程序,將智能系統(tǒng)的適用嚴格控制在一定的限度內(nèi)。司法裁判中人工智能應(yīng)用輔助性地位的限度明晰,主要是對理性主義下智能系統(tǒng)工具主義的重申和裁判者主體地位的再強調(diào)。[39]例如,由于道德的定義所包含的字符過長,計算機無法讀取,更由于道德本身的含義復(fù)雜多樣,人類尚未確定,更不能向計算機清楚地說明,也只有居于裁判者地位的法官才能作出最終判定。

面對日常生活中種類繁多、情節(jié)復(fù)雜的大量案件,這些規(guī)則、政策和原則難以直接被無縫套用,法官自由裁量不可避免。法官依據(jù)法律條文運用司法解釋作出司法判決。在這個過程中,并不是簡單地單薄的依據(jù)三段論推導(dǎo)出結(jié)論,而是在其中運用法律邏輯推導(dǎo)法律適用,往返流轉(zhuǎn)于案件事實和法律規(guī)范,使得最終的結(jié)果符合法律正義目標(biāo)實現(xiàn)的要求,實現(xiàn)整體法律價值。應(yīng)當(dāng)嚴格限制司法裁判中法官使用人工智能應(yīng)用的主體權(quán)限,防止司法裁判中人工智能應(yīng)用的輔助性角色異位,將辦案法官和司法智能系統(tǒng)的職能進行區(qū)分,強調(diào)辦案法官的主體地位。

智能司法裁判就是嘗試建構(gòu)這樣一個完美的法律體系,期望裁判者只需依據(jù)形式邏輯法則輸入原則、規(guī)則和證據(jù)即可根據(jù)規(guī)范和事實推導(dǎo)出正確答案。司法大數(shù)據(jù)應(yīng)用可以為辦案法官提供裁判結(jié)果預(yù)測和量刑參考等輔助決策功能,但不能為司法管理者和監(jiān)督者提供類似的功能。[40]裁判是一個復(fù)雜的判斷和決策過程,不僅涉及事實、規(guī)范和價值的關(guān)系,而且涉及利益的復(fù)雜衡量和價值判斷,裁判者不可能依據(jù)形式邏輯法則輸入原則、規(guī)則和證據(jù),就能簡單地根據(jù)規(guī)范和事實推導(dǎo)出正確答案。

五、人工智能應(yīng)用限度的技術(shù)規(guī)制

在智能司法的建構(gòu)過程中,存在關(guān)于倫理、技術(shù)等方面的風(fēng)險,消除對于智能司法實踐模型的過高期待,利用新興科技助力審判實踐,將算法、模型或者其他配套機制融入到司法審判當(dāng)中。作為法律規(guī)制的路徑選擇之一,通過制定規(guī)范的手段規(guī)制人工智能的風(fēng)險應(yīng)是防范、控制與化解其產(chǎn)生肆意風(fēng)險的重要進路。司法裁判中人工智能技術(shù)的有效運用依賴于全面且真實的司法數(shù)據(jù)庫,尚不完備的數(shù)據(jù)基礎(chǔ)以及難以克服的算法缺陷是司法裁判中人工智能應(yīng)用限度困境在技術(shù)方面的成因。[41]

技術(shù)與法律被裁判系統(tǒng)融合在一起,也是科學(xué)技術(shù)理性于法律實踐需求的雙向驅(qū)動結(jié)合,是司法在原有傳統(tǒng)基礎(chǔ)上創(chuàng)新技術(shù)特點,進而創(chuàng)造的新的形式。為了保障智能機器實現(xiàn)深度學(xué)習(xí)能力的最大化,需要建立全面、真實且系統(tǒng)完備的司法大數(shù)據(jù)庫,構(gòu)建以技術(shù)規(guī)制技術(shù)的正當(dāng)性程序。[42]

(一) 司法數(shù)據(jù)共通系統(tǒng)設(shè)置

法律的動力來自于科技的進步,人民法院通過智能服務(wù)審判系統(tǒng)已經(jīng)可以實現(xiàn)文書輔助、類案推送、結(jié)果預(yù)判、調(diào)解建議等多項功能。在司法裁判領(lǐng)域,借助強大的司法數(shù)據(jù)共享平臺為法官提供信息檢索服務(wù),不僅可以幫助法官更快捷地查詢指導(dǎo)案例和搜索法律規(guī)范,還能夠開闊法官的視野,從而提高辦案能力和效率。部分法院依托大數(shù)據(jù)開發(fā)了“智慧畫像”系統(tǒng)對法官、法官助理、書記員工作績效進行有效考核,[43]還有系統(tǒng)開發(fā)利用大數(shù)據(jù)進行“法官畫像”,即針對個別法官判決形成司法大數(shù)據(jù)分析報告,借以預(yù)測某法官可能作出的判決結(jié)果,或者評價該法官判決是否公正。

司法機關(guān)部分司法資源已經(jīng)實現(xiàn)了網(wǎng)格化和數(shù)據(jù)化,但不同機關(guān)之間的共享和互通尚不完善,分化嚴重產(chǎn)生信息孤島,導(dǎo)致了司法數(shù)據(jù)庫的缺陷。在收集司法數(shù)據(jù)時,常面臨數(shù)據(jù)質(zhì)量和體量不足的問題。為避免此種情況的愈演愈烈,應(yīng)當(dāng)打破部門間的信息孤島,促進數(shù)據(jù)信息的互通和共享。

在輔助審判執(zhí)行方面,司法大數(shù)據(jù)能夠針對案件的性質(zhì)、類型推送相應(yīng)的法律、法規(guī)、司法解釋以及類案判決,對于裁判結(jié)果亦可與類案既往判決進行比對,防止出現(xiàn)案件判決畸輕畸重的情形。打破不同部門、層級以及地域之間的互通障礙;指定明確的信息統(tǒng)一規(guī)范來指導(dǎo)司法數(shù)據(jù)的渠道來源、采集方式,以及標(biāo)準(zhǔn)化各種信息和具體司法應(yīng)用場景。這種共通互聯(lián)可以建立海量的司法數(shù)據(jù)庫,利用系統(tǒng)的檢索查詢和計算功能,為辦案人員提供海量“數(shù)據(jù)經(jīng)驗”。[44]

對司法數(shù)據(jù)庫中的數(shù)據(jù)信息進行及時更新和篩選,確保司法數(shù)據(jù)質(zhì)量的可靠性。[45]真實、全面、準(zhǔn)確的司法數(shù)據(jù)是人工智能深度學(xué)習(xí)的前置條件。如果司法數(shù)據(jù)庫中的數(shù)據(jù)質(zhì)量無法達到人工智能應(yīng)用標(biāo)準(zhǔn),不僅影響司法機關(guān)內(nèi)部人員查詢和利用這些信息,還會對智能系統(tǒng)的決策和判斷產(chǎn)生負面影響。避免因不準(zhǔn)確的信息影響機器系統(tǒng)的判斷和決策,還需有專業(yè)人員對那些因法律政策變化、形式或?qū)嵸|(zhì)不規(guī)范的數(shù)據(jù)定期清理,進而保證司法數(shù)據(jù)的質(zhì)量。

需要將算法公開與解釋制度結(jié)合,及時披露相關(guān)司法數(shù)據(jù)活動記錄。作為人工智能在法律公共領(lǐng)域應(yīng)用的一部分,司法決策自然會受到公眾理性的制約、審視和評判。[46]特別是在數(shù)據(jù)處理時,需要對數(shù)據(jù)可用性措施與數(shù)據(jù)安全措施之間的關(guān)系進行仔細權(quán)衡。不僅要規(guī)避在技術(shù)部署過程中出現(xiàn)的安全風(fēng)險,還需要防止在某些數(shù)據(jù)決策或行動中,濫用數(shù)據(jù)安全或?qū)⑵渥鳛槿f能的借口。

(二)修復(fù)智能算法缺陷

算法裁判運行中存在算法黑箱,它主要是系統(tǒng)設(shè)計者為了保護商業(yè)機密,而使算法規(guī)則和內(nèi)部機制隱蔽化的產(chǎn)物。[47]就應(yīng)用于司法裁判中的智能系統(tǒng)而言,智能系統(tǒng)算法直接影響著類案推送、裁量預(yù)測、偏離預(yù)警等功能的實現(xiàn)。為了修復(fù)此缺陷,在算法系統(tǒng)購買時可以在合同中約定,必要情形時可以了解算法決策關(guān)鍵信息的條款。在算法決策引入之前,則可以要求設(shè)計者向法律規(guī)定的監(jiān)管機構(gòu)進行信息披露。通過創(chuàng)設(shè)這種有限的透明機制,打破在監(jiān)管機構(gòu)層面算法規(guī)則的非透明屏障,以確保算法的決策過程是公正透明的。[48]數(shù)據(jù)偏見是算法歧視產(chǎn)生的基礎(chǔ),數(shù)據(jù)采集中算法偏差的規(guī)制是除去識別和排除偏見數(shù)據(jù)樣本的重要方式,這種規(guī)制利于消弭算法歧視。一些研究表明,開發(fā)一種工具包,結(jié)合不同的指標(biāo)來檢測和排除與決策結(jié)果無關(guān)的因子是非常必要的。[49]在排除無關(guān)因素之后,也需要對算法運行的模型進行調(diào)整和修改。具體而言,一方面需要重新標(biāo)記排除了無關(guān)聯(lián)因素的裁決結(jié)果,并在對數(shù)據(jù)模型修改的基礎(chǔ)上重新進行運算;另一方面,還需要對受到無關(guān)聯(lián)因素影響的其他數(shù)據(jù)進行“清洗”,以消除偏差性數(shù)據(jù)的影響。消除無效數(shù)據(jù)干擾、控制多維度變量對算法模型的不良影響,可以通過將無關(guān)聯(lián)數(shù)據(jù)的數(shù)量作為衡量算法數(shù)據(jù)運行效果的標(biāo)準(zhǔn)之一來實現(xiàn)。這種方法可以促使算法系統(tǒng)的設(shè)計者更加注重數(shù)據(jù)處理的準(zhǔn)確性和數(shù)據(jù)模型的精度。[50]

公開與司法裁判中人工智能應(yīng)用相關(guān)的記錄可以消除算法的神秘性。但算法規(guī)則并不是像法律那樣具有現(xiàn)成的規(guī)范性文件,也沒有明確的形式化文本。因此,公開算法規(guī)則通常只能公開算法設(shè)計和算法運行的相關(guān)記錄。[51]在算法規(guī)制中強調(diào),在風(fēng)險應(yīng)對方案中制定、保存并公開與人工智能司法決策相關(guān)的記錄,以確保透明度原則的實現(xiàn)。公開算法記錄可以消除人工智能司法決策的神秘性,但無法消除社會公眾對決策算法的認知障礙。因此需要建立必要的解釋程序,以更好地滿足公眾的需求。

(三) 建立技術(shù)規(guī)制程序

對技術(shù)的過分依賴導(dǎo)致裁判結(jié)果無法實現(xiàn)公平正義,因而需要構(gòu)建技術(shù)規(guī)制正當(dāng)性程序,通過運用技術(shù)代碼化程序?qū)崿F(xiàn)對智能技術(shù)的有效規(guī)制。[52]要建立人工智能專門法,鼓勵技術(shù)發(fā)展的促進法。設(shè)置智能裁判標(biāo)準(zhǔn)化的數(shù)字緊急處理程序,為了確保智能裁判的公正性和合理性,需要對這種程序規(guī)則的實施情況進行監(jiān)督,并設(shè)計應(yīng)急處理措施;應(yīng)建立嚴格的隱私保護措施,并遵守相關(guān)數(shù)據(jù)安全法律法規(guī),確保數(shù)據(jù)安全和隱私保護。

具體到微觀操作方面,制定人工智能技術(shù)合規(guī)的標(biāo)準(zhǔn)、制定規(guī)制風(fēng)險的行政規(guī)范與對人工智能投放市場前的合格評定。在設(shè)計智能裁判系統(tǒng)時,首先應(yīng)該對系統(tǒng)本身可能存在的缺陷進行審查,如因智能裁判系統(tǒng)存在缺陷導(dǎo)致個人權(quán)利受到侵犯,相應(yīng)的程序員、軟件工程師、數(shù)據(jù)處理商、信息技術(shù)公司等設(shè)計者應(yīng)對此承擔(dān)一定責(zé)任。[53]其次,智能裁判的設(shè)計應(yīng)該由多人分工協(xié)作來完成,以減少操縱的可能性,更好地保障當(dāng)事人的權(quán)利。最后,建議智能裁判算法的部署者承擔(dān)強制性的信息披露義務(wù)。具體來說,智能裁判算法部署者應(yīng)該主動向相關(guān)司法部門解釋這個算法是如何運作的,以及如何產(chǎn)生自動化的裁判決策,[54]同時提供決策的本質(zhì)性信息和論證邏輯。

(四) 設(shè)定技術(shù)風(fēng)險的嚴格防范模式

以霍金為代表的悲觀派就此曾向人類提出警示:運用人工智能技術(shù)制造能夠獨立思考的機器會威脅人類的生存,人工智能的全面發(fā)展可能導(dǎo)致人類的滅絕。對控制這類風(fēng)險問題的法學(xué)研究,其重點應(yīng)當(dāng)是建立技術(shù)風(fēng)險法律制度。

信息泄露風(fēng)險是人工智能產(chǎn)品與之俱來的最大隱患,是設(shè)定風(fēng)險后果規(guī)制的核心。“權(quán)利優(yōu)先”是“公民權(quán)利—國家權(quán)力”關(guān)系中的核心命題,在大數(shù)據(jù)時代需要密切關(guān)注此命題。在司法實踐中,需要設(shè)立一個不一樣的數(shù)據(jù)保護模式, 這個模式應(yīng)著重于使用者為其行為承擔(dān)責(zé)任。對數(shù)據(jù)收集行為的規(guī)范和調(diào)整固然重要,但對已收集數(shù)據(jù)的保護更重要。司法機關(guān)可出臺人工智能輔助審判技術(shù)規(guī)范,應(yīng)當(dāng)為以人工智能技術(shù)為依托的數(shù)據(jù)使用者利用數(shù)據(jù)信息所有者相關(guān)權(quán)利明確相關(guān)義務(wù)和設(shè)立責(zé)任規(guī)則,以防止司法機關(guān)利用人工智能技術(shù),或不合規(guī)范地使用人工智能技術(shù)而導(dǎo)致包括當(dāng)事人在內(nèi)的社會公眾個人信息泄露,隱私權(quán)遭受侵犯,規(guī)范司法機關(guān)使用人工智能輔助審判技術(shù)的操作流程。

在人工智能應(yīng)用的風(fēng)險規(guī)制中,要表現(xiàn)出風(fēng)險防范的過程性,形成了對人工智能的數(shù)據(jù)風(fēng)險的源頭規(guī)制、人工智能的算法風(fēng)險的運行規(guī)制以及最終呈現(xiàn)終端產(chǎn)品樣態(tài)的人工智能自身風(fēng)險的全過程規(guī)制。這種立法模式將以規(guī)制過程風(fēng)險的方式,建構(gòu)嚴密的人工智能公法規(guī)范體系,創(chuàng)設(shè)對人工智能的數(shù)據(jù)、算法及其終端樣態(tài)的風(fēng)險規(guī)制措施,最終形成了針對“數(shù)據(jù)—算法—人工智能”的全過程風(fēng)險的監(jiān)管。

(五)構(gòu)建應(yīng)用場景監(jiān)管規(guī)制

司法裁判領(lǐng)域可以被劃分為不同的應(yīng)用場景,并在不同場景中有特定的要求。[55]因此,在監(jiān)管司法裁判中的人工智能應(yīng)用時,需要實施嚴格的監(jiān)督管理,并區(qū)分不同情況下的監(jiān)管力度。司法裁判中的人工智能應(yīng)用是否得到了良好規(guī)制和合理使用,是需要考慮和重點關(guān)注的問題,在智能系統(tǒng)的幫助下司法裁判的社會效應(yīng)是否得到正向影響也是需要予以考察的角度。司法裁判領(lǐng)域可以被劃分為不同的應(yīng)用場景,并在不同場景中有特定的要求。

美國采取的是激勵創(chuàng)新審慎監(jiān)管的柔性規(guī)制模式,即以激勵人工智能創(chuàng)新發(fā)展為價值導(dǎo)向,審慎監(jiān)管結(jié)果風(fēng)險方式的綜合性規(guī)制路徑。[56]2020 年1月,美國聯(lián)邦政府發(fā)布的《人工智能應(yīng)用的監(jiān)管指南》,要構(gòu)建具有彈性且靈活的監(jiān)管方法,應(yīng)評估潛在監(jiān)管對人工智能創(chuàng)新和發(fā)展的影響,持續(xù)促進技術(shù)和創(chuàng)新的進步,以領(lǐng)域細分和風(fēng)險防范管理為導(dǎo)向,區(qū)分不同程度的風(fēng)險和應(yīng)用場景,并設(shè)置不同的監(jiān)管要求,可以實現(xiàn)人工智能技術(shù)在司法裁判中安全應(yīng)用,從而避免技術(shù)危害的發(fā)生。[57]社會領(lǐng)域中對人工智能應(yīng)用的監(jiān)管也為上述觀點提供了支持。例如,在醫(yī)療等重點領(lǐng)域的人工智能應(yīng)用中,針對領(lǐng)域內(nèi)的特殊考慮因素,已經(jīng)建立了分級監(jiān)管和審批程序。[58]此種監(jiān)督管理機制已經(jīng)成為國際趨勢,有助于防范人工智能應(yīng)用于該領(lǐng)域可能帶來的風(fēng)險。

對于司法裁判中人工智能應(yīng)用的監(jiān)督和管理,需要根據(jù)利益和比例原則嚴格把控。這意味著需充分考慮智能機器在特定司法領(lǐng)域應(yīng)用所帶來的利益和可能造成的危害之間的權(quán)衡,[59]通過反復(fù)參照目的和手段之間的關(guān)系,才能找到合理的目的并確定達到目的的手段,進而最終實現(xiàn)目的和手段的統(tǒng)一。[60]

結(jié) 語

和歷史上的數(shù)次技術(shù)革命一樣,本次人工智能的技術(shù)革命也為人類社會各個領(lǐng)域的發(fā)展帶去了新的機遇和挑戰(zhàn)。但人工智能的算法技術(shù)只能延續(xù)和提煉人類知識,但很難開拓和創(chuàng)造人類知識。算法決策能夠通過程序性、公式化計算來優(yōu)化訴訟程序和處理簡單案件,能夠促進形式正義,但難以處理重大的復(fù)雜疑難案件,很難實現(xiàn)實質(zhì)正義。

人工智能所探尋的是包含經(jīng)驗性知識、價值評判、利益權(quán)衡、不確定性考量的論證方法,是一種關(guān)涉實質(zhì)推理的綜合推理模型。在司法裁判中使用人工智能技術(shù)是為了實現(xiàn)特定目的,但司法裁判是一個高風(fēng)險的領(lǐng)域,因此需要謹慎使用人工智能技術(shù)。[61]若超越了司法裁判中人工智能技術(shù)的使用范圍和程序,就會對司法參與者的權(quán)益造成損害,甚至?xí)<八痉ǖ臋?quán)威性和公正性。[62]結(jié)合智能技術(shù)階段性發(fā)展特征,在考量司法現(xiàn)實需求和司法特征的前提下,對智能系統(tǒng)的應(yīng)用做出適配性調(diào)整,彌合司法裁判與智能技術(shù)二者之間的張力,在實踐中不斷地修正和完善相關(guān)機制,推進人工智能與司法領(lǐng)域的深度融合,進而建立一個成熟的人工智能司法裁判理論體系。

猜你喜歡
裁判法官司法
制定法解釋中的司法自由裁量權(quán)
法律方法(2021年4期)2021-03-16 05:34:28
法官如此裁判
法官如此裁判
法律裁判中的比較推理
法律方法(2019年4期)2019-11-16 01:07:10
司法所悉心調(diào)解 墊付款有了著落
清代刑事裁判中的“從重”
法律史評論(2018年0期)2018-12-06 09:22:28
非正式司法的悖謬
做“德法兼修”的好法官
紅土地(2018年8期)2018-09-26 03:19:06
當(dāng)法官當(dāng)不忘初心
紅土地(2016年10期)2016-02-02 02:45:32
論司法公開的困惑與消解
金华市| 红河县| 高阳县| 徐水县| 蒙山县| 隆林| 四会市| 怀安县| 叙永县| 五家渠市| 休宁县| 巫山县| 桃园市| 成安县| 连云港市| 宁陵县| 邵东县| 黄山市| 农安县| 榆树市| 北京市| 阳城县| 嘉义市| 九寨沟县| 仙游县| 沿河| 蓝山县| 乌拉特中旗| 石家庄市| 福海县| 闸北区| 武定县| 军事| 冀州市| 溧阳市| 靖州| 洪泽县| 封丘县| 即墨市| 全椒县| 苍南县|