吳朋穗 簡卓彥 毛翊璇 戴 鵬
廣東警官學院,廣東 廣州 510405
近年來人工智能熱度席卷世界,法學領域也因此產生巨大變革。但是與其他領域相比,人工智能在法學領域的發(fā)展不算快。法學的研究對象——法律現象體量龐大,且產生的樣本數據以體量為基數快速增長。以數據處理能力和計算能力見長的人工智能卻在樣本豐富、數據充足的司法領域中多有冷遇,事實認定領域就是其中之一。
人工智能賦能事實認定必經三個步驟,將證據轉換為數據、運算和整合數據、輸出的結論為人理解。[1]證據是事實認定的基礎,在理論和實踐中刑事證據都是人工智能賦能事實認定的一個主要研究切口。我國司法實踐中有上?!?06系統”,該系統在許多司法實踐中的表現十分優(yōu)秀,但似乎唯獨在刑事證據指引的法律實踐中表現不如人意。[2]但這并不能全盤否定人工智能介入事實認定,而是讓人思考如何優(yōu)化還是換一個跑道來解決人工智能在事實認定領域水土不服問題。
人工智能在事實認定中的運用沒有達到預料中的效果,反而成為法律實踐中的掣肘,其主要原因是人工智能與事實認定的耦合度低。法律實踐必然要求人工智能與事實認定相耦合,耦合性越高,獨立性越低?,F階段人工智能與事實認定的耦合性低,獨立性高。在某些司法領域應用中人工智能不夠專門化,不能適應司法規(guī)律與特征。[3]但人工智能在事實認定領域出師不利不全然是人工智能的錯。
人工智能與事實認定的耦合性低的原因有三類。(一)從人工智能的角度出發(fā),可以分兩種,一種是人工智能的純技術問題,人工智能算法低效,算力低下;另一種是人工智能本身的特質,人工智能算法具有“黑箱性”,與司法公開透明相背離。算法的專業(yè)性與法律的大眾普及性相矛盾,算法學習的不穩(wěn)定性與法律的求穩(wěn)性相抵觸。(二)從司法領域的角度出發(fā)。司法領域在某些地方不能滿足培養(yǎng)人工智能的需要,例如數據,再如同時精通人工智能算法和法學的復合型人才。(三)從現實應用角度出發(fā)。首先是控辯平衡一定程度上會受到人工智能的影響;其次人工智能應用于事實認定階段會導致決策權讓渡。[4]綜上,法律實踐沒有意識到人工智能賦能事實認定的潛在困境和風險,人工智能賦能事實認定在中短期內難以實現。
現階段人工智能在事實認定運用中的主要風險有三:數據、算法和控辯失衡。
(一)優(yōu)質數據不足導致人工智能能力不足。現在法律數據有四個問題:法律數據不充分、法律數據不真實、法律數據不客觀、法律數據結構化不足。[5]我國的法律數據經這四個條件層層盤剝下來,所剩的優(yōu)質數據數量依舊可以培育一個較為成熟的人工智能。但是數據樣本太多,篩選難度太高,篩選的成本也太高。以致樣本數據過少,法律人工智能表現十分低能,沒有勝任事實認定工作的可能。
(二)人工智能賦能事實認定加劇控辯關系失衡。我國刑事訴訟領域的突出問題之一就是“控辯雙方未能實現平等、有效對抗,庭審難以實質化”。[6]人工智能賦能事實認定后控方獲得和分析數據的能力更強,在數據方面控方的優(yōu)勢是壓倒性的。在這種情況下,辯方在純粹訴訟能力上的武裝與控方有巨大的差距。即便辯方是在庭前證據交換獲得了控方所得的數據,辯方也沒有數據抓取和分析的能力??剞q雙方的信息嚴重不平衡,更難實現控辯雙方有效對抗和庭審實質化。因此,人工智能賦能事實認定會加劇控辯雙方力量失衡,這與控辯平等原則背道而馳。人工智能賦能事實認定前必須要解決控辯失衡加劇的問題。
(三)事實認定環(huán)節(jié)算法存在運用困境。第一,算法黑箱危及司法公正。人工智能進行事實認定時用了什么信息推理和如何推理,只有算法知道。而算法又因為商業(yè)機密和知識成果保護難以公開,產生了算法黑箱。第二,算法霸權限制當事人權利。算法具有專業(yè)性、復雜性和黑箱性,因而產生霸權,也衍生出算法歧視和算法黑箱等問題。[7]一般的當事人與其他訴訟參與人不懂算法,難以置喙。某種程度上,科學技術阻礙了當事人維護其合法權益。第三,算法錯判沒有制度保障。人工智能介入事實認定一般在偵查階段、逮捕和起訴階段。人工智能錯判的事實最終會寫在起訴狀上,檢方基于錯誤事實起訴被告。若致使法官錯判,此時為了糾正錯誤必須重新審理錯判案件,造成司法資源的額外消耗,還要給予因此受到損失的當事人補償,因此需要建立制度來預防算法錯判。
現在人工智能處在弱人工智能階段,只根據技術邏輯運行的人工智能,無法理解人的感情和倫理性,無力單獨承擔事實認定工作。因此人工智能在事實認定中只能是輔助。在事實認定環(huán)節(jié)采用“人機結合”的半人工智能模式,并建立以司法人員為中心的人機協同系統。融合人的實質理性和人工智能技術理性,更好地防范人工智能決策出現極端情況。[8]
(一)人工智能輔助篩選證據主要是對證據進行形式審查。一是審查證據獲得的程序合法性,例如搜查時是否有搜查證;二是審查證據的形式要件,如筆錄、清單等是否齊全,筆錄上的日期、簽名等信息是否完備。但為排除刑訊逼供證據,必須人工審查。認罪認罰案件因有口供,證明難度降低,實踐中存在降低證明標準的誤區(qū),[9]且刑訊逼供自帶隱蔽性,人工智能難以窮盡各種復雜情況。
(二)人工智能輔助分析證據主要是提取和分析證據細節(jié)。對證據的證明力審查主要是人工實質審查。因為與判斷證據能力實行的法定主義不同,判斷證據的證明力一般遵循自由心證主義,實質審查會涉及價值權衡、司法政策、法律解釋等因素。[10]人工智能主要是對證據內容、細節(jié)進行提取然后分析,然后指出證據與證據之間的相互印證程度或相互矛盾程度如何,還可以調用大數據對專業(yè)性知識對證據進行分析,與專攻法律信念、倫理和價值的主觀色彩較重工作的司法人員形成互補,提升對證據認知的質效,同時擴大司法人員的視野。
(三)人工智能輔助認定事實的任務是形式邏輯推理。事實認定思辨是形式邏輯和經驗邏輯的復合邏輯結構,[11]現階段人工智能只能負責形式邏輯的部分,司法人員負責倫理性和常識性強的經驗邏輯部分。運用在事實認定的人工智能應是由人主導的交互式的輔助辦案工具。在進行認定事實的推理的過程中,不僅司法人員和人工智能是溝通交流的,推理過程還應該是相互可視的。司法人員必須對推理過程細節(jié)了如指掌,因為在審判程序是由檢察機關的司法人員與被告對簿公堂,而非人工智能;人工智能也必須把握推理進程,不然無法提供相應的輔助。
在人工智能介入事實認定前,需要行之有效的對策來規(guī)制和防范算法、數據及控辯平衡方面的巨大隱患。
(一)積累高質數據培育高智智能。人工智能需要大量優(yōu)質數據鍛煉模型。出于對成本和法律數據自帶滯后性的考慮,筆者以為應當號召全國有意識產出優(yōu)質數據并保存,從表達規(guī)范化工作做起。創(chuàng)建案件信息收集系統,每辦一個案子在系統里按照規(guī)范要求填寫信息。這個方法在解決數據不夠規(guī)范化問題的同時還解決了數據不充分的問題。數據真實客觀與否雖然很大程度上取決于司法工作人員工作時是否誠實客觀,但是也不是毫無辦法,可以將檢驗數據真實性的任務通過司法信息公開交給社會公眾。
(二)鼓勵扶持建立民間法律數據分析機構。在人工智能介入司法領域后,控方與辯方的力量必定會拉開差距,一般在人工智能輔助的情況下,控方在庭審前所獲的數據無論從數量上還是質量上,都比沒有人工智能輔助的當事人多且好,在準備上控方優(yōu)于辯方,最后庭審控辯雙方難以形成有效對抗。對人工智能賦能事實認定帶來的控辯失衡加劇風險進行規(guī)制的關鍵是提高辯方的數據抓取和數據分析能力。政府可以鼓勵扶持民間法律人工智能機構制造數據抓取和分析的法律人工智能。由民間法律人工智能產業(yè)來為有需要的當事人提供服務,從而提高辯方在數據抓取和分析方面的能力,以達到控辯雙方平等武裝的目的。
(三)建立合理的制度來治理算法。第一,建立算法公開制度。人工智能的推理邏輯主要是依據算法模型的設計,算法不透明與司法公開相悖,有損司法公正。為規(guī)制這一風險應當建立司法公開制度。一是外包的司法輔助人工智能不能參與司法決策和裁判。二是算法必須公開,日常維護和優(yōu)化修改的信息要公開發(fā)布,注明修改內容信息。第二,建立算法對抗制度來規(guī)制算法霸權。在算法公開的前提下,完善并推行專家輔助人制度。鼓勵當事人聘請有專門算法知識和相關資格的專家輔助人,找出算法的遺漏或者錯誤,并證明算法的遺漏或者錯誤損害當事人的合法權利,并出具意見,由法院判決。算法存在遺漏錯誤處要通知技術人員及時處理,并公布處理結果。第三,建立算法規(guī)制制度。算法規(guī)制制度主要是規(guī)制算法設計者的制度。其目的有兩個,一是對算法設計者的內在要求作出指示,二是規(guī)制算法設計者的外在行為。忠于法律,精于技術,這是對算法設計者的內在要求。對算法設計者行為的外在規(guī)制需要發(fā)布適當的文件來一一說明,如設計的算法不得違反法律、算法不得摻雜主觀意念等等與法律人工智能算法有關的事項。
人工智能已經成為世界各行各業(yè)發(fā)展的絕佳“燃料”,世界的發(fā)展被人工智能快速推進。但在享受人工智能帶來的好處的同時也要對它保有懷疑,要給人工智能上一把鎖。隨著社會發(fā)展,人工智能介入司法輔助是必然趨勢。未來是人工智能的時代,法律人工智能的未來還有待各位學者和技術工作者共同構筑。