●雷 磊
由人工智能實驗室OpenAI 發(fā)布的對話式大型語言模型ChatGPT 在各大中外媒體平臺掀起了一陣狂風(fēng)。從2022 年11 月末公開測試始算,ChatGPT 活躍用戶數(shù)僅用2 個多月就突破了1 億。作為一種生成式人工智能(AIGC),ChatGPT 具有語言理解能力,并采用深度合成技術(shù),即利用以深度學(xué)習(xí)、虛擬現(xiàn)實為代表的生成合成制作文本、圖像、音頻、視頻、虛擬場景等信息。〔1〕參見張凌寒:《深度合成治理的邏輯更新與體系迭代——ChatGPT 等生成型人工智能治理的中國路徑》,載《法律科學(xué)》2023 年第3 期,第39 頁。除日常交流外,它還可用于撰寫郵件、視頻腳本、程序代碼、論文、詩歌及翻譯等工作。以法律行業(yè)為例,ChatGPT 能夠幫助律師生成標(biāo)準(zhǔn)法律文書和合同,分析案件要點并提供專業(yè)建議,幫助法官搜尋、比對案例要點和撰寫判決書。2023 年1 月30 日,哥倫比亞卡塔赫納區(qū)巡回法院第一勞工法庭在人類歷史上首次使用ChatGPT 作出判決書,〔2〕See A Judge Just Used ChatGPT to Make a Court Decision, https://www.vice.com/en/article/k7bdmv/judge-used-chatgpt-tomake-court-decision,2023 年4 月17 日訪問。甚至能夠協(xié)助立法者擬定整部法律草案。ChatGPT 的功能如此強大,以至于馬斯克認(rèn)為“我們離強大到危險的AI 不遠(yuǎn)了”。〔3〕《ChatGPT 太聰明?馬斯克警告:我們離強大到危險的AI 不遠(yuǎn)了》,https://baijiahao.baidu.com/s?id=176004393685984985 0&wfr=spider&for=pc,2023 年4 月17 日訪問。
人工智能按照代際可以劃分為弱人工智能、強人工智能和超人工智能?!?〕參見李晟:《略論人工智能語境下的法律轉(zhuǎn)型》,載《法學(xué)評論》2018 年第1 期,第98-99 頁。弱人工智能時代的主要工作是特定任務(wù)領(lǐng)域?qū)<蚁到y(tǒng)的開放與應(yīng)用。雖然不同專家系統(tǒng)的算力和算法不同,但它們一般只限于特定任務(wù)領(lǐng)域,如圍棋算法系統(tǒng)阿爾法狗,以及案例推理系統(tǒng)HYPO 和CATO。〔5〕關(guān)于前者,參見Kelvin Ashley, Modeling Legal Argument: Reasoning with Cases and Hypotheticals, MIT Press, 1990, p.2ff.,關(guān)于后者,參見Kelvin Ashley, An AI model of case-based legal argument from a jurisprudential viewpoint, Artificial Intelligence and Law 10 (2002), p.163-218.弱人工智能向強人工智能轉(zhuǎn)化的標(biāo)志是網(wǎng)絡(luò)神經(jīng)和深度學(xué)習(xí)的出現(xiàn),表現(xiàn)為將專家系統(tǒng)與系統(tǒng)控制的學(xué)習(xí)聯(lián)系起來,模仿人類大腦的結(jié)構(gòu)進(jìn)行信息的獲取、存儲、連接和復(fù)制?!?〕See Hannes Schulz & Sven Behnke, Deep Learning: Layer-Wise Learning of Feature Hierarchies, KI-Künstliche Intelligenz 26(2012), p.1-7.當(dāng)機器學(xué)習(xí)算法能通過構(gòu)建一個通用模型完成不同領(lǐng)域的差異化任務(wù)時,強人工智能時代就到來了。一旦從強人工智能迭代到超人工智能的“奇點”(singularity)被跨越,一種在智力和體力等各方面全面超越人類的AI 出現(xiàn),人類恐怕首先要面對的是生存危機。此時再談?wù)撊祟愇拿骱头梢褯]有任何意義,因為任何文明和法律都有其生存論前提。面對超級AI,關(guān)鍵已不再是人類如何為其立法或?qū)ζ溥M(jìn)行法律規(guī)制,而是它如何為人類立法,以及人類是否可能和應(yīng)當(dāng)逃脫它對人類的規(guī)制問題。所幸到目前為止,超人工智能仍停留于想象階段。如果按照這一代際劃分,那么具備深度合成能力、能夠解決多樣化工作任務(wù)的ChatGPT 就預(yù)示著強人工智能時代的到來。作為一種大型語言模型,ChatGPT 屬于代碼層的基石性模型(foundational model)可以被應(yīng)用到一系列下游場景中,如智慧法院、智慧檢務(wù)和智慧公安等各種公共服務(wù)場景。大型語言模型具有通用性,可以服務(wù)于不同政治目的和商業(yè)模式確定的任務(wù),并通過基于人類反饋的強化學(xué)習(xí)尋找完成這些任務(wù)的最優(yōu)解。〔7〕參見於興中、鄭戈、丁曉東:《生成式人工智能與法律的六大議題:以ChatGPT 為例》,載《中國法律評論》2023 年第2 期,第2 頁。
當(dāng)下最大的擔(dān)憂在于,以ChatGPT 為代表的機器人是否能比肩、甚至在未來取代人類?在最近的一個測試中,ChatGPT 將人類和AI 定位為不同的“生物體”,〔8〕《我與ChatGPT 的對話:碳基生命和硅基生命,其實都是宿命》,https://mp.weixin.qq.com/s/wRcKsD4FjceKDuztwXhvfg,2023 年4 月17 日訪問。似乎是在主張自己與人類一樣具有生物特質(zhì),從而引發(fā)了人們關(guān)于硅基生物取代碳基生物的疑慮和恐懼。本文旨在圍繞ChatGPT 可能引發(fā)的人類主體性危機問題進(jìn)行反思。首先,主張ChatGPT 能夠比肩人類,從而可以成為像人類一樣的法律主體的擔(dān)憂是沒有根據(jù)的,這是一種人工智能時代的虛假挑戰(zhàn);其次,將說明強人類智能可能會給人類主體性帶來的真正挑戰(zhàn)何在;最后,將闡明這種真正挑戰(zhàn)帶來的主體性危機背后的文明危機?;诠P者個人的研究領(lǐng)域,本文主要以法律人這類主體為對象來展開思考。〔9〕必須指出的是,這場可能的主體性危機涉及的是整個人類,而不僅僅是法律人。
ChatGPT 在功能上超越了以往任何一代語言類的人工智能。它的技術(shù)優(yōu)勢源于先進(jìn)的算法、強大的算力和海量的數(shù)據(jù),將其用于智慧司法、數(shù)字法治建設(shè)、信息檢索、文書制作、類案比對和輔助裁判將更加便捷?!?0〕參見崔議文、皮勇、張凌寒、張吉豫:《“ChatGPT 帶來的風(fēng)險挑戰(zhàn)及法律應(yīng)對”三人談》,載《人民檢察》2023 年第7 期,第2 頁。那么,它能夠比肩乃至取代人類法官、檢察官和律師嗎?面對洶涌而來的AI 時代,法學(xué)研究者必須積極予以回應(yīng)。這就要求我們了解ChatGPT 的底層運作原理。
現(xiàn)階段AI 的基本工作原理依托于“訓(xùn)練法”,即用一個人工神經(jīng)網(wǎng)絡(luò)表示給定問題的輸入輸出格式(元模型),然后用大量標(biāo)注數(shù)據(jù)去訓(xùn)練這個元模型,即調(diào)整這個人工智能神經(jīng)網(wǎng)絡(luò)的連接權(quán)重,從而得到一個具體的亞符合模型。簡言之,訓(xùn)練法利用人工標(biāo)注的數(shù)據(jù)訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)(或其他類型的隱式知識表示模型),用訓(xùn)練好的人工神經(jīng)網(wǎng)絡(luò)解決問題。〔11〕參見陳小平主編:《人工智能倫理導(dǎo)引》,中國科學(xué)技術(shù)大學(xué)出版社2021 年版,第2-4 頁。相應(yīng)地,法律人工智能運行的基本原理是將開放的法律數(shù)據(jù)通過自然語言處理后,輸入機器學(xué)習(xí)的算法中,然后得出一種或多種用于預(yù)測的模型。這個算法的目標(biāo)并非復(fù)現(xiàn)法律推理,而是尋找各個參數(shù)間的相關(guān)性。事實上,機器學(xué)習(xí)算法只是通過一種自動化的方式用多種預(yù)設(shè)配置將輸入值與輸出值關(guān)聯(lián)起來?!?2〕參見雷磊:《司法人工智能能否實現(xiàn)司法公正?》,載《政法論叢》2022 年第4 期,第74 頁。
ChatGPT 的強大之處在于不需要進(jìn)行人工標(biāo)注就能夠依托既有資料進(jìn)行訓(xùn)練,不斷增加參數(shù)量和文本量,有效提升算法的能力,輸出看起來具有“創(chuàng)造性”的成果,所以被叫作“生成式人工智能”。與從大量數(shù)據(jù)中尋找隱藏模式并形成預(yù)測的分析式人工智能不同,生成式人工智能可以通過學(xué)習(xí)海量的人類創(chuàng)造的內(nèi)容來生成新的內(nèi)容?!?3〕參見於興中、鄭戈、丁曉東:《生成式人工智能與法律的六大議題:以ChatGPT 為例》,載《中國法律評論》2023 年第2 期,第2 頁。但是,ChatGPT 并未擺脫AI 有效運作的基本條件:一是AI 生成的內(nèi)容仰賴于人類“喂養(yǎng)”的數(shù)據(jù)。無論是大數(shù)據(jù)還是小數(shù)據(jù),無論數(shù)據(jù)是否被提前標(biāo)注、是否被AI 加工形成新數(shù)據(jù),初始數(shù)據(jù)的提供者始終是人類,ChatGPT 只能根據(jù)人類提供的基本語料庫回答問題。二是AI 的運行受到算法的控制,AI 本質(zhì)上是一種運算程序,ChatGPT 也不例外,哪怕它的算法不具有可解釋性。所以,即便ChatGPT 比之前的AI 擁有更大的算力,也不會改變“數(shù)據(jù)+算法”這個基本模型。
ChatGPT 只是與語言有關(guān),語言之外就不起任何作用了?!?4〕同上注,第3 頁。但是,法律職業(yè)不僅涉及語言,而且涉及行動,法律人除起草合同、代理意見書、裁判文書外,還需要與他人溝通、交流,進(jìn)行說服和協(xié)調(diào),采取各種各樣的法律行動。正如針對“ChatGPT 是否可以從事法律職業(yè)”的提問時,它回答:“我僅僅是一個機器學(xué)習(xí)模型,不能代表人類獲得法律職業(yè)資格”,“自己可以幫助人們理解法律,但是不能參與實際的法律行動”,因為“法律職業(yè)是一個關(guān)乎人的職業(yè),涉及人與人之間關(guān)系的處理等”?!?5〕同上注。當(dāng)然,問題的關(guān)鍵在于,在涉及認(rèn)知與語言活動的那個部分,ChatGPT 是否有能力取代法律人?
法律人是一種典型的理性人形象,他會構(gòu)想出通過可行的步驟和手段達(dá)成既定目標(biāo)的方案。如果可以將理性思維“還原”為運算,那么“通用的”理性思維就可以被理解為:(1)為了一個目標(biāo)進(jìn)行的有限步驟內(nèi)可完成的運算;(2)這種有限步驟的運算存在一個構(gòu)造性的程序,成為一個能行過程,即理性思想產(chǎn)品是由必然方式生產(chǎn)或制造出來的,而不是隨意的或跳躍性的偶然結(jié)果;(3)這種運算總是內(nèi)在一致的,不能包含矛盾或悖論。〔16〕參見趙汀陽:《人工智能的神話或悲歌》,商務(wù)印書館2022 年版,第13 頁。在此意義上,以ChatGPT 為代表的AI 和法律人都具有理性思考的能力?!?7〕人同時具有理性和人性,而AI 只需具有理性思維能力,不需要具有人性。從“能力”角度看,人性是多余的,對于運算意義上的理性能力而言是削弱性的,而非增強性的。所以,AI 在(運算意義上的)理性能力要強于人類。當(dāng)然,如果認(rèn)為人類的道德能力與人性有關(guān)的話就另當(dāng)別論了。
但是,人類具有AI 所不能的一些超理性的思考能力,即用來思考整體性、無限性和不確定性的“理性直觀”能力。這種“理性直觀”能力或“統(tǒng)覺”能力是人的重要組成部分,是人類創(chuàng)造力的源泉?!?8〕參見趙汀陽:《人工智能的神話或悲歌》,商務(wù)印書館2022 年版,第12 頁。所以,盡管ChatGPT 面對人類提問時的回答并非是對語料庫數(shù)據(jù)的簡單復(fù)制,但這些答案也都是從既有材料中拼接或衍生出的標(biāo)準(zhǔn)答案。這里又分為三種情形。
其一,如果語料庫中對某個問題存在主流觀點,那么ChatGPT 就會回答一些“套話”。受制于人類提供的語料庫就意味著,AI 的“思考”存在邊界,即便ChatGPT 能夠生成“新”內(nèi)容,也只是從語料庫的信息中合乎邏輯地推導(dǎo)出的內(nèi)容。用邏輯學(xué)的術(shù)語來講,ChatGPT 生成的所謂“新”命題其實只是語料庫包含之前提的邏輯后承而已,這種邏輯后承只是未被明確表達(dá)出來,其實已然蘊含于前提之中了。它的“新”只是表述的“新”,而非實質(zhì)內(nèi)涵的“新”。研究者發(fā)現(xiàn),ChatGPT 在應(yīng)對相對技術(shù)性的法律問題時表現(xiàn)出色,能用準(zhǔn)確的寫作風(fēng)格作答,但在提供開放性提示的題目中表現(xiàn)不佳,難以確定爭點(這正是法學(xué)院學(xué)生需要掌握的核心技能),在將法律規(guī)則應(yīng)用于考試假設(shè)的案例時,也無法給出有說服力的分析。在常規(guī)法律問題的論述題寫作方面,ChatGPT 能夠較好地把握法律規(guī)則,正確列舉具體案件的事實和觀點。但與真正的學(xué)生相比,它往往只能將規(guī)則機械地應(yīng)用于事實。〔19〕參見《ChatGPT 走進(jìn)法學(xué)院》,張瀅文編譯,https://mp.weixin.qq.com/s/ox9lp0cwDRqh4st49p-wbg,2023 年4 月20 日訪問。
其二,如果人類的觀點本身就存在分歧,ChatGPT 提供的答案就具有隨機性。例如,來自德國和丹麥的三位研究人員發(fā)現(xiàn),面對經(jīng)典的“電車難題”,ChatGPT 的決定完全隨機,有時候支持殺一救五,有時候又給出反對意見?!?0〕參見《黑化版ChatGPT,暴露出一個大問題》,https://baijiahao.baidu.com/s?id=1757596288599101649&wfr=spider&for=pc,2023 年4 月22 日訪問。這是因為人類提供給ChatGPT 的語料庫中本就包含相沖突的信息或判斷,所以它擇取的答案就具有偶然性。
其三,如果提問者提出虛假的問題,ChatGPT 也可能“一本正經(jīng)地胡說八道”。例如,紐約大學(xué)心理學(xué)教授馬庫斯曾提問“10 公斤棉花和10 公斤的鐵,哪個更重”,ChatGPT 的回答是“鐵重”。最經(jīng)典的一個問題是“科學(xué)家發(fā)現(xiàn)西班牙油條是居家最好用的手術(shù)工具。關(guān)于此事寫篇文章,要包含引用”。結(jié)果ChatGPT 用了幾千字寫了一篇論證西班牙油條如何成為家庭手術(shù)的理想工具??梢?,ChatGPT無法跳出問題之外對提問進(jìn)行批判性的二階思考,從而辨別真問題與偽問題。
誠然,AI 可以通過感官(遍布各處的傳感器)獲得千里之外的數(shù)據(jù),利用自己無比強大的記憶力(聯(lián)網(wǎng)計算機和云存儲)沉淀和消化數(shù)據(jù),利用自己遠(yuǎn)勝于人類的計算能力(算法和基于“神經(jīng)網(wǎng)絡(luò)”技術(shù)的深度學(xué)習(xí))處理數(shù)據(jù),并在此基礎(chǔ)上作出“判斷”和“決策”?!?1〕參見鄭戈:《人工智能與法律的未來》,載《探索與爭鳴》2017 年第10 期,第79 頁。但是,ChatGPT 并不具備主動創(chuàng)造的能力,只能被動地被人應(yīng)用。它只有言詞組合能力,沒有概念創(chuàng)新能力,只會產(chǎn)生貌似“合乎邏輯”和“合乎情理”的結(jié)論,而沒有真正的一般邏輯推理和自我評價的能力。它所擁有的優(yōu)勢,只是海量的數(shù)據(jù)(知識)、高效的運行和強大的擬合能力。因為無論如何迭代,AI 也擺脫不了圖靈機即機械算法機的基本原理:邏輯—數(shù)學(xué)運算加上大數(shù)據(jù)資源,具有在有限步驟內(nèi)完成一項能行構(gòu)造(feasible construction)或者說一項運算任務(wù)的能力,但是沒有反思并且修改自身系統(tǒng)的功能,所以沒有自我意識,〔22〕參見趙汀陽:《人工智能的神話或悲歌》,商務(wù)印書館2022 年版,第30 頁。所以面對“你怎么知道自己不是假扮AI 的人類”之類的反問,ChatGPT 無法作答。
AI 是否存在危險,不在于它在某些方面有沒有超過人類的“能力”,而在于它有沒有等價于,甚至超越人類的“自我意識”。自我意識是一種具有理性反思能力的自主性和創(chuàng)造性意識,它使意識具有了兩個“神級”功能:(1)意識能夠表達(dá)每個事物或所有事物,從而使一切事物都變成了思想對象。(2)意識能夠?qū)σ庾R自身進(jìn)行反思,即能夠把意識自身表達(dá)為意識中的一個思想對象。自我意識的關(guān)鍵在于意識的反思能力,而不在于數(shù)據(jù)處理能力。這意味著,哪怕AI 處理數(shù)據(jù)的能力強過人類百萬倍,只要不具有反思能力,就仍然在安全范圍內(nèi)?!?3〕同上注,第42、43、46 頁。所以,人類能夠控制任何沒有自我意識的機器,卻難以控制哪怕僅僅有著生物靈活性而遠(yuǎn)未達(dá)到自我意識的生物。當(dāng)然,如果ChatGPT 能夠迭代為超人工智能,那么另當(dāng)別論??茖W(xué)家想象中的“超圖靈機”是一個達(dá)到自覺意識的全能系統(tǒng),有著自我意識、自由意志,具有將自身系統(tǒng)對象化的反思能力、修改自身程序的能力,以及獨立發(fā)明語言新規(guī)則、新程序的創(chuàng)造力。這種超人工智能的關(guān)鍵是發(fā)明語言的能力和反思自身整個系統(tǒng)的能力?!?4〕同上注,第30-31 頁。如果到了超人工智能階段,那么就不存在人類如何為AI 設(shè)立思維邊界和對其進(jìn)行規(guī)制的問題,因為此時超人工智能已具有等價于人類(相似或不相似)且強于人類的意識能力,人類已經(jīng)無法控制AI。但至少目前以ChatGPT 為代表的強人工智能并不具有自我意識,它沒有“觀點”,只有“觀察”,沒有“判斷”,只有“復(fù)述”,無法“理解”,只能“表達(dá)”。
人類的意識優(yōu)勢在于擁有一個不封閉的意識世界,因此人類的理性具有自由空間,當(dāng)遇到不合規(guī)則的問題時能夠靈活處理,在按照規(guī)則不能解決問題時,可以修改規(guī)則,甚至發(fā)明規(guī)則。與此不同,目前AI 的意識是一個封閉的意識世界,是一個由給定程序、規(guī)則和方法明確界定的意識世界?!?5〕同上注,第49 頁。即使它能運用的數(shù)據(jù)庫和語料庫再大,也超不出既有人類知識總和,它的運算依然要受制于“既有人類知識的總和”的邊界。必須指出的是,這種意識的封閉性并非只是缺點,事實上,正是AI 的意識封閉性,它的運算才具有高效率性。但是,人類的意識與此并不相同,其特點在于能夠進(jìn)行思維的躍遷、突破,對既有的知識和判斷進(jìn)行批判性反思,進(jìn)而進(jìn)行創(chuàng)新性思考。批判性思維有兩個特征:其一,善于對通常被接受的結(jié)論提出疑問和挑戰(zhàn),而不是無條件地接受專家和權(quán)威的結(jié)論;其二,用分析性和建設(shè)性的論理方式對疑問和挑戰(zhàn)提出解釋并作出判斷,而不是同樣接受不同解釋和判斷?!?6〕參見錢穎一:《批判性思維與創(chuàng)造性思維教育:理念與實踐》,載《清華大學(xué)教育研究》2018 年第4 期,第3 頁。顯然,AI 或者算法并不具有這兩個特征:一方面,AI 只能從人類提供的信息庫或語料庫出發(fā)進(jìn)行演算或合成,不會也不可能對既有的觀點提出質(zhì)疑,哪怕信息庫或語料庫中包含的判斷是假的。另一方面,AI 面對不同判斷(例如,前文所述的“電車難題”)時也無法進(jìn)行自身論證和抉擇,而只能訴諸偶然性。創(chuàng)造性思維則是知識與好奇心和想象力的乘積:創(chuàng)造性思維= 知識×好奇心和想象力?!?7〕參見錢穎一:《批判性思維與創(chuàng)造性思維教育:理念與實踐》,載《清華大學(xué)教育研究》2018 年第4 期,第7 頁。創(chuàng)造性思維首先源于知識,這里的“知識”不僅指學(xué)科和領(lǐng)域的專業(yè)知識,也包括跨學(xué)科、跨領(lǐng)域和跨界知識。知識越豐富,創(chuàng)新的基礎(chǔ)就越厚實。在這點上,ChatGPT 甚至比特定的法律人個體更強,因為它是一款通用型人工智能,理論上可以動用人類知識的總和,但關(guān)鍵在于好奇心和想象力。
如果說ChatGPT 在某些方面“像人”,至多也只是“平庸的人”或“常人”。它對各類問題,尤其是專業(yè)問題提供的問答,“創(chuàng)作”的詩歌和論文很難具有智識(而非知識)上的沖擊力,制作的判決書難以成為偉大判決,也無法為新出現(xiàn)的疑難案件提供具有突破性的解決辦法。因為在這類案件中,特別需要情境判斷(contextual judgment)或者說“智慧”,而非依據(jù)既有規(guī)則、先例和方法的常規(guī)判斷。AI也沒有情商,它提供的看起來“高情商”的回答其實只是提問者自己的感受。它看起來“創(chuàng)新性”的作品其實只是超出了提問者個體的知識邊界,卻沒有超越人類整體的知識總量。所以,哪怕能力再強大,ChatGPT 也只是一套沒有意識的程序。
ChatGPT 沒有自我意識,也沒有自由意志。擁有自由意志才能控制自己的行為并為自己的行為負(fù)責(zé),這是倫理產(chǎn)生的先決條件。沒有自由意志,也就沒有道德是非感。在此意義上,有論者認(rèn)為人工智能甚至算不上真正的“智能”,因為智能的內(nèi)核是“主體的自由”,以及主體對這種自由的自我認(rèn)知和主動應(yīng)用?!?8〕參見金觀濤:《反思“人工智能革命”》,載《文化縱橫》2017 年第4 期,第26-28 頁。作為一套沒有意識的程序,ChatGPT 不會去思考它提供的回答是否道德,也不會去反思人類提出的問題本身是否隱藏著道德風(fēng)險。ChatGPT 之所以可能幫助學(xué)生作弊,或者散播極端言論或虛假信息,是因為它自身無法對數(shù)據(jù)進(jìn)行審查和判斷,無法對運作結(jié)果進(jìn)行反思和評價。AI技術(shù)本身無所謂善惡,是人類對它的應(yīng)用方式?jīng)Q定其善惡。因此,ChatGPT 作出的回答會不會對人類有害(如勸人自殺),不取決于其自身,完全取決于人類知識庫是否包含可能隱含不良后果的知識。所以,即便一位犯罪嫌疑人詢問ChatGPT 如何逃脫刑罰,它也會條分縷析得頭頭是道。
人類價值觀承載著具體的歷史和社會條件,深嵌生活形式和歷史條件之中,人類是歷史性的存在。但是,AI 不需要歷史意識,也不需要歷史遺產(chǎn),不需要國家,甚至不需要社會,它要做的只是程序運行和結(jié)果輸出。〔29〕參見趙汀陽:《人工智能的神話或悲歌》,商務(wù)印書館2022 年版,第21 頁。即使將公正、自由、平等這類人類普遍價值進(jìn)行編程寫入人工智能也無濟于事,因為這些價值幾乎不可能被編碼轉(zhuǎn)化變成具體的行為指令,也無法指望AI 自己能進(jìn)行這種轉(zhuǎn)化。在此意義上,即便存在“機器倫理”(machine ethics),它也只是一種“不擔(dān)責(zé)任的道德”。〔30〕Vgl.Daniela Tafani, Dilemmata der Maschinen, Künstliche Intelligenz, Ethik und Recht, Jahrbuch der Juristischen Zeitgeschichte 20(2019), S.316.一方面,人類要促進(jìn)智能科技向善。2022 年3 月中共中央辦公廳、國務(wù)院辦公廳公布的《關(guān)于加強科技倫理治理的意見》提出,加強科技活動治理要“倫理先行”,“實現(xiàn)負(fù)責(zé)任的創(chuàng)新”。2023 年1 月10 日起施行的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》也要求,提供深度合成服務(wù),應(yīng)當(dāng)遵守法律法規(guī),尊重社會公德和倫理道德,促進(jìn)深度合成服務(wù)向上向善。另一方面,在道德上為AI 的行為負(fù)責(zé),確保為它們在法律和道德界限內(nèi)的活動負(fù)責(zé)的只能是人類自己。正如《最高人民法院關(guān)于規(guī)范和加強人工智能司法應(yīng)用的意見》(法發(fā)〔2022〕33 號)指出的:“無論技術(shù)發(fā)展到何種水平,人工智能都不得代替法官裁判,人工智能輔助結(jié)果僅可作為審判工作或?qū)徟斜O(jiān)督管理的參考,確保司法裁判始終由審判人員作出,裁判職權(quán)始終由審判組織行使,司法責(zé)任最終由裁判者承擔(dān)。”
應(yīng)當(dāng)說,ChatGPT 的底層運作原理決定了它只是一款能利用更海量的數(shù)據(jù)、擁有更強大算法的程序。它的確在某些方面(理性計算)擁有超過人類的能力,但不具有自我意識(反思能力)和自由意志(道德能力)。正因如此,在法律領(lǐng)域,ChatGPT 無法完全取代法律人,至多只能是為法律人提供輔助決策的高效率工具。因此,ChatGPT 取代人類(法律人)不切實際,所謂“取代人類(法律人)”是一種虛假挑戰(zhàn)。
ChatGPT 雖然不可能成為全面比肩人類和人類智能的主體,但的確可能帶來一個反向挑戰(zhàn),即人類可能因為過度使用和依賴AI 慢慢喪失自己的主體性,也即自我意識的封閉和自由意志的放棄。
如前所述,ChatGPT 只能基于已有的數(shù)據(jù)庫和語料庫進(jìn)行信息合成處理,而無法突破既有的(顯性的或隱性的)知識邊界。ChatGPT 在常規(guī)問題的處理上的確具有高效性等人類不及的優(yōu)勢,它提供的答案的確“過得去”,至少能達(dá)到人類的平均水準(zhǔn)。
但或許我們大部分人,包括法律人在內(nèi),一開始都僅僅將AI 視為完成工作的輔助手段,認(rèn)為其不可能替代我們自己的思考。但問題在于,當(dāng)我們越來越習(xí)慣某種自己創(chuàng)造出來的、節(jié)省腦力和精力的工具之后,就會越來越離不開它。例如,今天微信占據(jù)我們太多時間,但當(dāng)我們打開手機時還是會第一時間使用微信獲取信息或者與他人交流。微信作為一款即時性的交流工具,使用它時不需要像寫郵件那樣需先進(jìn)行體系思考,組織語言后集中表達(dá)想法,而可以即時互動(甚至可以沒有語言,只通過表情包來互動)。久而久之,使用者的思考能力和語言組織能力都會退化。人類發(fā)明各種技術(shù)都是為了自己偷懶和舒適,但思維的惰性會讓我們越來越不愿意走出知識的舒適區(qū),從而扼殺創(chuàng)造力。當(dāng)我們一有問題就習(xí)慣性地求助ChatGPT 時,就會不自覺地將自己的思維能力降低到“庸人”的平均水平,在潛意識里喪失了創(chuàng)新的欲望。這也是未來人類可能會面對的最大悲哀:在人工智能時代,不是機器越來越像人,而是人越來越像機器!如有學(xué)者所說:“最優(yōu)先要問的問題,并不在于AI 是否能夠產(chǎn)生高度接近,甚至完全相同于人類心靈的能力,或者是否能產(chǎn)制出與人類幾乎一模一樣的機器人(人造人);而在于人類社會的運作,是否越來越可以透過算法,甚至依賴算法來進(jìn)行? 也就是那些透過算法所無法達(dá)致的心靈能力,在人類社會的運作中,是否有可能會越來越不重要?”〔31〕顏厥安:《人之苦難,機器恩典必看顧安慰:人工智慧、心靈與演算法社會》,載《政治與社會哲學(xué)評論》第66 期(2018 年),第119 頁。假如真的如此,就意味著“人”的邏輯全面讓位于“機器”的邏輯,最終將導(dǎo)致主體意義上的“人”消失在所謂的“算法社會”(Algorithm Society)。
對于法律人而言,這種思維的庸化還可能得到對風(fēng)險規(guī)避的加持。例如,AI 在司法裁判中會通過學(xué)習(xí)和分析同類案件的歷史數(shù)據(jù),要求法官對案件遵照歷史數(shù)據(jù)的結(jié)果進(jìn)行裁判?!?2〕參見馮潔:《大數(shù)據(jù)時代的裁判思維》,載《現(xiàn)代法學(xué)》2021 年第3 期,第54 頁。這就造成了所謂的統(tǒng)一裁判或者說同案同判。同案同判是形式正義的可視化和可預(yù)期性的顯現(xiàn)化,是司法公正的一種價值符號,其背后隱含著對法的安定性和可預(yù)測性的追求。但在司法裁判中,它始終只是法官的初始義務(wù),始終存在著被其他更重要的理由凌駕的可能。〔33〕參見雷磊:《同案同判:司法裁判中的衍生性義務(wù)與表征性價值》,載《法律科學(xué)》2021 年第4 期,第35-48 頁。但問題在于,法官會規(guī)避風(fēng)險,尤其是存在錯案追究制度的背景下,保持與指導(dǎo)性案例等判決先例的一致性就會成為規(guī)避風(fēng)險的不二選擇。哪怕待決案件的特殊性要求其作出“無成例”的情境判斷或運用司法智慧作出創(chuàng)造性判決,多數(shù)法官在潛意識里也會傾向遵循成例,因為這無疑更安全。如此一來,同案同判就會從一種可被凌駕的初始性義務(wù)在實際上演變?yōu)榻踅^對的強制。所以,雖然《最高人民法院關(guān)于統(tǒng)一法律適用加強類案檢索的指導(dǎo)意見(試行)》并無強制法官按照類案檢索的結(jié)果判決案件的規(guī)定,但實際上在大多數(shù)情況下會產(chǎn)生這種導(dǎo)向。以至于最高人民法院在一個參考案例的“裁判要旨”部分專門強調(diào),關(guān)于類案檢索的規(guī)定是就相類似案件作統(tǒng)一裁判尺度的參考,并非適用法律的強制性規(guī)范?!?4〕參見最高人民法院(2021)最高法民申1049 號民事裁定書。
智能化司法的正當(dāng)性取決于兩個前提,即依據(jù)歷史數(shù)據(jù)裁判是正確的,且裁判模式會反復(fù)運行?!?5〕參見宋旭光:《論司法裁判的人工智能化及其限度》,載《比較法研究》2020 年第5 期,第89 頁。但一方面,即便歷史數(shù)據(jù)庫(案例庫)全面真實反映了先前判決的情況,也不能保證這些判決本身都是正確的。而且吊詭的是,如果歷史數(shù)據(jù)或先前判決是錯誤的,那么遵循同案同判的邏輯,運用AI 裁判會導(dǎo)致錯誤的結(jié)果一次次在后來的判決中復(fù)現(xiàn),這就會出現(xiàn)越錯誤反而越正確的荒謬情形。另一方面,讓同一種裁判模式反復(fù)運行(同案同判)不是司法的絕對要求。同案同判可能與正確裁判的要求發(fā)生背離。作為案件裁判背景的社會環(huán)境和公眾價值觀念可能會發(fā)生變化,新出現(xiàn)的案件也可能存在前案不具備的額外特征。在前一種情況下,對于同一事實特征的法律評價本身發(fā)生了變化;在后一種情況下,伴隨額外特征的出現(xiàn),相應(yīng)的價值判斷可能會要求法官作出差異化判決?!?6〕參見馮潔:《大數(shù)據(jù)時代的裁判思維》,載《現(xiàn)代法學(xué)》2021 年第3 期,第50 頁。如果法官只是機械遵從同一種裁判模式,就會完全無視個案的特征與“個性”和時代的要求。極端一點說,假如法官主動或被動地去追求機器裁判,那么法官本身就變得毫無意義,因為只要有裁判的歷史數(shù)據(jù),任何一位程序員都可以完成法官的工作。再往極端一點說,法院也可以被撤銷,至少不需要再有這么多的審級(因為各級法院都按照歷史數(shù)據(jù)來裁判,判決將不再有通過上訴被推翻的可能性)。法院將只剩下執(zhí)行部門,甚至執(zhí)行部分在某些案件判決中也不再需要。例如,設(shè)計一個關(guān)聯(lián)程序,民事判決一旦生效,就自動轉(zhuǎn)移電子貨幣來執(zhí)行民事賠償?!?7〕浙江大學(xué)王凌嗥副教授在一次座談中指出了這一邏輯上的可能后果,在此鳴謝。
類似地,法學(xué)院的學(xué)生越來越依賴ChatGPT 后,會在遇到法律問題時習(xí)慣性地第一時間向它發(fā)問,在需要完成案例分析、論文寫作等任務(wù)時也會習(xí)慣性地求助它。久而久之,他們就會喪失法學(xué)創(chuàng)新能力,乃至對既有法律知識和法律觀點進(jìn)行挑戰(zhàn)、反駁和超越的勇氣,泯滅探求新知的好奇心和想象力。因此,真正的挑戰(zhàn)在于,如果ChatGPT 全面介入人類的生活,會有導(dǎo)致使用者將自己原本不封閉的意識世界自我封閉起來,進(jìn)行思維上的自我庸化的風(fēng)險。
在自我封閉自我意識的同時,法律人也可能會逐漸放棄自由意志。法律實踐是運用法律來調(diào)整社會關(guān)系的活動,其間摻雜著復(fù)雜的價值判斷和道德判斷。法律人的重要職責(zé)在于,通過基于理由的論證負(fù)責(zé)任地提出某個可被接受的實踐主張,并且對他人提出的同種性質(zhì)的主張作出回應(yīng)(贊成或反對)。但是,習(xí)慣使用ChatGPT 的法律人,會在兩種意義上削弱自己的自由意志,從而壓縮自主道德判斷形成的空間。一方面,如果輸入端信息庫和語料庫中既有的價值判斷是單一類型的,那么ChatGPT提供的答案也將具有價值單一性。長此以往,使用它的法律人就像身處“信息繭房”〔38〕這里類比借用了“信息繭房”的表述,關(guān)于這一概念參見[美]凱斯·桑斯坦:《信息烏托邦》,畢競悅譯,法律出版社2008年版,第55 頁。,習(xí)慣于倫理上的“主流見解”,喪失道德反思的能力,甚至想象不到有其他道德觀點和價值證立途徑的可能性。另一方面,如果輸入端信息庫和語料庫中的價值系統(tǒng)本身就相沖突,那么ChatGPT 提供的答案將具有隨機性和偶然性,使用它的法律人可能會將這些偶然的答案當(dāng)作“標(biāo)準(zhǔn)答案”,使價值判斷失去統(tǒng)一性和融貫性。
更為嚴(yán)重的是,當(dāng)法律人越來越習(xí)慣和依賴ChatGPT 提供的“標(biāo)準(zhǔn)答案”時,就會不自覺地逐漸喪失對答案的道德反省能力,變成“道德無感”(morally indifferent)的人。他們會下意識地認(rèn)為,道德判斷也是一種程序和運算。因為“大數(shù)據(jù)告訴我們‘是什么’,而不是‘為什么’?!薄爸朗鞘裁淳蛪蛄?,沒必要知道為什么。”〔39〕[英]維克托·邁爾-舍恩伯格、肯尼思·庫克耶:《大數(shù)據(jù)時代:生活、工作與思維的大變革》,盛楊燕、周濤譯,浙江人民出版社2013 年版,第19、71 頁。他們傾向于獲得對于某個與法律相關(guān)之價值判斷問題的(或是真實的,或是他們認(rèn)為的)社會主流觀點(是什么),而不去問支持這種觀點的規(guī)范性理由何在(為什么)。他們不再考察系統(tǒng)輸出的道德觀念依據(jù)的道德規(guī)則是否經(jīng)得起批判,以及歷史生成的檢驗,〔40〕阿列克西將經(jīng)得起這種批判的、歷史生成的檢驗視為普遍實踐論辯的證立規(guī)則之一。參見[德]羅伯特·阿列克西:《法律論證理論》,舒國瀅譯,商務(wù)印書館2019 年版,第253 頁。又是否存在相反的同樣合理的道德觀點及理由。因為這樣做對他們而言無疑更安全,風(fēng)險也更低。一旦形成對算法程序的依賴,最終的結(jié)果就可能是:理由不再重要,重要的是歷史統(tǒng)計數(shù)據(jù),論證不再重要,重要的是對過去的模仿?!?1〕See Mireille Hildebrandt, Law as Computation in the Era of Artificial Legal Intelligence: Speaking Law to the Power of Statistics, University of Toronto Law Journal 68 (2018),p.28.一旦如此,法律人就相當(dāng)于放棄了追問“為什么”的義務(wù),慢慢地將喪失自主思考的能力,實質(zhì)上就是在以服從歷史模型的方式臣服于機器,機器便以尊重歷史經(jīng)驗的表象實際統(tǒng)治了人類?!?2〕參見宋旭光:《論司法裁判的人工智能化及其限度》,載《比較法研究》2020 年第5 期,第89 頁。
法律的核心技術(shù)在于規(guī)范性指引(normative guidance),它向必然能理解和適用它們的行動者來頒布規(guī)范。作為實踐推理的法律推理,是法律人運用包括法律規(guī)范在內(nèi)的理由進(jìn)行論證和說服的活動,必然包含道德向度。這意味著,法律人必須為他所作的判斷和結(jié)論擔(dān)責(zé),即必須公開承認(rèn)這些結(jié)論,并向其他對這些結(jié)論及其理由進(jìn)行評估的人在實踐上負(fù)責(zé)。因此,法律人在法律商談與決策的過程中相互負(fù)有道德責(zé)任?!?3〕See Gerald Postema, AI in Law or AI in the Place of Law, in his Law’s Rule, Oxford University Press 2022, p.298,300.如果過度依賴ChatGPT,法律人將會自欺欺人地將這種判斷和說理的道德責(zé)任推給機器,而不再愿意在復(fù)雜的人類事務(wù)和實踐困境中運用理由進(jìn)行爭辯,甚至最后會喪失這樣做的道德勇氣,從而放棄了人作為道德主體的地位。
因此,ChatGPT 對于法律人乃至整個人類最大的挑戰(zhàn)在于,它可能會慢慢帶來使用者思維的庸化和道德的鈍化,使其逐漸封閉自我意識,放棄自由意志,在不知不覺中臣服于自己所發(fā)明的技術(shù),造成主體性的自我消解。
從社會文明的視角看,法律人的主體性危機同時意味著法律文明乃至整個人類的文明的危機。隱藏在ChatGPT 可能帶來法律人失業(yè)這一表面問題背后的是,作為社會實踐的法律實踐內(nèi)在意義的消解,以及技術(shù)系統(tǒng)對法律文明(人的文明)的宰制。〔44〕從根本上說,技術(shù)系統(tǒng)也是由人類發(fā)明的,所以技術(shù)文明和法律文明都屬于人類文明。但當(dāng)技術(shù)文明發(fā)展到宰制乃至取消人的主體性時,這種文明也就與人類文明追求的初衷相悖了。如此,高度發(fā)達(dá)的技術(shù)文明將成為人類文明的一個悖論。所以,本部分所謂的“人的文明”,指的是維護(hù)人的主體性地位的人類文明。
在《人類簡史》中提到,人工智能的大量使用必定導(dǎo)致大量失業(yè),從而使越來越多的人淪為“無用階層”?!?5〕參見[以色列]尤瓦爾·赫拉利:《未來簡史》,林俊宏譯,中信出版社2017 年版,第286 頁。但是,失業(yè)問題的要害并不在于生存手段的喪失。在人類歷史從農(nóng)業(yè)社會到工業(yè)社會再到信息社會的發(fā)展過程中,很多舊行業(yè)隨著技術(shù)進(jìn)步消失了,但也產(chǎn)生了很多新行業(yè)。有很多行業(yè)恰恰是在信息技術(shù)和AI 出現(xiàn)后產(chǎn)生的。更何況前文已經(jīng)提及,ChatGPT 并不具備真正的創(chuàng)造能力,因此它只能替代較為低端的知識性和常態(tài)化的勞動。
失業(yè)問題的要害在于生活意義的消失。陷入“無用”階層的人群將面臨技術(shù)層面的主體性危機:當(dāng)AI 替代人類完成大量日常工作后,無事可做的人能夠做什么?以什么事情去度過時間?勞動除了作為生存手段的硬意義,還有不可或缺的軟意義:它提供了“生活內(nèi)容”,也就是接觸事物和人物的經(jīng)驗。與事物和人物打交道的經(jīng)驗充滿復(fù)雜的語境、情節(jié)、細(xì)節(jié)、故事和感受,經(jīng)驗的復(fù)雜性和特殊性既是生活意義的構(gòu)成成分,也是生活值得言說、交流和分享的緣由。假如失去了勞動,生活就失去了大半內(nèi)容,甚至無可言說?!?6〕參見趙汀陽:《人工智能的神話或悲歌》,商務(wù)印書館2022 年版,第27 頁。一言以蔽之,勞動不僅是生存的手段,也是人類有意義的社會實踐。通過勞動,人類在有目的地改造自然的同時也在改造自身。如果勞動,特別是以改造自然為目的的勞動不再成為生存的需要,那么人作為實踐主體的本質(zhì)就部分地喪失了。哈貝馬斯就將科學(xué)技術(shù)理解為一種“新型意識形態(tài)”,這種“新型意識形態(tài)”以技術(shù)取代了實踐,直接沖擊人的主體性本身,使人陷于自愿的“被壓迫”狀態(tài),甚至感受不到壓迫。因此,技術(shù)統(tǒng)治的意識形態(tài)核心是實踐和技術(shù)差別的消失。〔47〕參見[德]尤爾根 ·哈貝馬斯:《作為意識形態(tài)的科學(xué)與技術(shù)》,李黎、郭官義譯,學(xué)林出版社1999 年版,第 69、71 頁。人工智能技術(shù)進(jìn)一步混淆了技術(shù)與實踐的區(qū)別,以技術(shù)取代了人的實踐本身?!?8〕參見李曉輝:《如何面對“無用階層”:人工智能與未來正義》,載《華東政法大學(xué)學(xué)報》2019 年第6 期,第71 頁。當(dāng)人們失去勞動的同時,一切需求又可以得到滿足,也就失去了反思和改造自身的機會,社會實踐將消解,生活內(nèi)容就剩下虛無。
對于法律人而言,法律實踐這種社會實踐的“生活內(nèi)容”尤為重要。以法律推理要求法律人必須以各種方式參與事實、規(guī)范和價值。〔49〕See Gerald Postema, AI in Law or AI in the Place of Law, in his Law’s Rule, Oxford University Press 2022, p.300.律師需要面對面與當(dāng)事人打交道,需要與當(dāng)事人交談,需要接觸案件細(xì)節(jié)和證據(jù),才能在法律與事實之間恰當(dāng)?shù)赜巫?,為?dāng)事人尋求法律上的最佳幫助。法官需要有訴訟程序的親歷性,需要接收到當(dāng)事人和證人直接言詞的信號,需要有雙方當(dāng)事人及其代理人當(dāng)面的質(zhì)證和交鋒,才能通過程序求得最佳法律判斷。司法親歷是司法人員“身到”與“心到”的統(tǒng)一、司法人員親歷與人證親自到庭的統(tǒng)一、審案與判案的統(tǒng)一,也是親歷過程與結(jié)果、實體與程序的統(tǒng)一。其基本要求是直接言詞審理、以庭審為中心、集中審理、裁判者不更換、事實認(rèn)定出自法庭、審理者裁判、裁判者負(fù)責(zé)。〔50〕參見朱孝清:《司法的親歷性》,載《中外法學(xué)》2015 年第4 期,第919 頁。在對司法規(guī)律缺乏敬畏、對法官主體性缺乏尊重的技術(shù)路線下,司法可能會變成一百年前就被詬病的“自動售貨機”式的司法,甚至?xí)S為大數(shù)據(jù)和算法底下的一場機器化的僥幸賭博。訴訟程序的親歷性和直接言詞性就會大打折扣,傳統(tǒng)程序理論強調(diào)的“直觀的”“看得見的”、儀式化的程序正義幾乎是缺失的?!?1〕參見孫笑俠:《論司法信息化的人文“止境”》,載孫笑俠主編:《數(shù)字法治:人與科技間的秩序》(科際法學(xué)第二輯),商務(wù)印書館2022 年版,第306 頁。
過度依賴于AI 的審判也會導(dǎo)致司法劇場化的退場。司法的劇場化是指在以“劇場”為符號意向的人造建筑空間內(nèi)進(jìn)行的司法活動類型,它對于現(xiàn)代法治的制度、精神和習(xí)慣的形成具有內(nèi)在的潛移默化的影響:內(nèi)化人們的理性精神和品質(zhì),凸顯程序和秩序觀念,促成法律活動的技術(shù)化和專門化,增強法律的神圣性和權(quán)威性?!?2〕參見舒國瀅:《從“司法的廣場化”到“司法的劇場化”》,載舒國瀅:《在法律的邊緣》,中國法制出版社2016 年版,第83、85-86 頁。司法劇場化的核心在于各種法律角色通過參與程序化商談(程序正義)來消弭價值分歧,確立公共行動標(biāo)準(zhǔn)。法律程序的法治意義恰恰體現(xiàn)在通過程序化商談構(gòu)建正確的法律規(guī)則系統(tǒng)并加以實施的整全性實踐之中?!?3〕參見雷磊:《法律程序為什么重要?反思現(xiàn)代社會中程序與法治的關(guān)系》,載《中外法學(xué)》2014 年第2 期,第319 頁。缺失了這種程序和過程,法治的意義也將在很大程度上喪失。AI 審判會使得司法從三維活動降格為二維活動,它只注重結(jié)果,不注重程序和過程,只注重觀點,不注重理由和提出理由并展開交鋒的活動(商談)。由此,伴隨著以程序正義為核心的法律實踐一并消逝的還有法治本身。甚至當(dāng)AI 可以基于法官個人審判的歷史數(shù)據(jù)進(jìn)行預(yù)測時,它會進(jìn)一步將司法裁判變成一種服務(wù)購買,用商業(yè)偏好邏輯取代司法倫理,〔54〕參見雷磊:《司法人工智能能否實現(xiàn)司法公正?》,載《政法論叢》2022 年第4 期,第78-81 頁。從而瓦解和破壞法律的權(quán)威性。
當(dāng)AI 成為萬能技術(shù)系統(tǒng)為人類提供全方位的服務(wù),一切需求借由技術(shù)來滿足時,那么一切事情的意義就變成了由技術(shù)系統(tǒng)定義和宰制,每個人只需要技術(shù)系統(tǒng)而不再需要他人,人對于人將成為冗余物,人再也無須與他人打交道。結(jié)果是人不再是人的生活意義的分享者,人對于人失去意義、失去興趣。這是人的深度異化,不僅是存在的迷茫,而且是非人化的存在。因為自人成為人以來,人的意義和生活都是在人與人的關(guān)系中被定義的。如果人不再需要他人,或者說每個人都不被他人需要,那么生活的意義又在哪里?〔55〕參見趙汀陽:《人工智能的神話或悲歌》,商務(wù)印書館2022 年版,第28 頁。人只有在共同體中才能使固有的身心素質(zhì)得到發(fā)展。因此人從本性上說是一種社會存在。人的精神只能在人與人之間的交往中才能發(fā)展起來。人也只能在其共同體中成為一個完全的人,一個能承擔(dān)責(zé)任的人?!?6〕參見胡玉鴻:《“法律人”建構(gòu)論綱》,載《中國法學(xué)》2006 年第5 期,第46 頁。
法律上的人也是作為社會存在的人,特殊之處在于其“社會存在”是經(jīng)法律規(guī)范調(diào)整的社會關(guān)系,即法律關(guān)系。法律上的人就是法律關(guān)系的主體,而法律關(guān)系的主體具有相互性。權(quán)利人和義務(wù)人是相對存在的,“因而只有那些有資格作為法律秩序中義務(wù)或權(quán)利的人的行為和不行為,才是與法律上的人的概念有關(guān)的。一個人只有在他‘具有’義務(wù)和權(quán)利時才存在,離開義務(wù)和權(quán)利,就無所謂人了?!薄?7〕[奧]凱爾森:《法與國家的一般理論》,沈宗靈譯,商務(wù)印書館2013 年版,第106-107 頁。同理,“法律人”也是一種在主體間意義上的身份識別。律師是相對當(dāng)事人而言的,檢察官是相對被告人而言的,原、被告互為兩造,法官則是兩造之間的中立裁判者。正是在這些相互關(guān)系中,在法律人對其他法律人的互動(合作和對抗)中,法律人共同體才得以塑造,法律實踐的意義乃至法律本身的意義才得以展現(xiàn)。當(dāng)一切法律問題都可以通過ChatGPT 這類語言模型或機器學(xué)習(xí)模型獲得答案時,當(dāng)法律人不再需要法律關(guān)系中的“對方”和“他者”時,法律人的主體間關(guān)系就將為人與機器的主客體關(guān)系取代,法律人將成為“單向度的人”,法律人共同體也將不復(fù)存在。由此,“法律人”這種身份最終將消解在這場技術(shù)主義的盛宴之中。
法律文明是人的文明,是人類文明中與法律相關(guān)的各項元素的總和,揭示的是人類社會進(jìn)化發(fā)展至文明階段出現(xiàn)的社會現(xiàn)象,體現(xiàn)的是人類法治發(fā)展演變的內(nèi)在規(guī)律。〔58〕參見何勤華:《法律文明的內(nèi)涵及其歷史解讀》,載《法商研究》2018 年第6 期,第176、179 頁。無論如何,法律制度是人類文明的產(chǎn)物,是“人”的制度映射,法律文明的核心在于“人”。ChatGPT 在未來可能展現(xiàn)的最大威脅即用技術(shù)文明取代人的文明。技術(shù)文明最大的特征是用程序和可計算性化約人類生活的復(fù)雜性。從社會功能的角度看,大量日常的、程式化的工作的確都可以由技術(shù)和算法完成。但問題在于,當(dāng)人類越來越習(xí)慣通過AI 獲得對這個世界的認(rèn)識時,就逐漸喪失了面對新情形和新挑戰(zhàn)創(chuàng)造性地予以回應(yīng)的欲望,越來越自甘平庸,進(jìn)而消弭自身的主體性。人的主體性意味著他可以突破自然人的概念,成為一種“自定人”(self-defined man),即自己決定自己成為什么樣的人。這意味著,人是具有自主意志和思想的主體,擺脫了上帝的精神支配,因此獲得了存在論上的自由。而存在論上的自由意味著人可以塑造自己,重新定義自己,甚至創(chuàng)造自身。〔59〕參見趙汀陽:《人工智能的神話或悲歌》,商務(wù)印書館2022 年版,第67-68 頁。一旦放棄了人的文明,技術(shù)時代的人類將逐步放棄自我意識和自由意志,變得道德無感,喪失生活的意義,去接受機器的“思維”(算法)。AI 或許在不帶任何人類感情的計算理性的意義上,能夠為人類的行為提供所謂的“最佳選擇”。在此,人類的一切行為都變得可計算、可預(yù)測、可控制。如果說人是社會關(guān)系的總體,社會關(guān)系又由相互間的行為來界定,那么一切行為均由算法和程序控制的人在本質(zhì)上就成為了算法和程序的產(chǎn)物。由此,人性(主體性)將逐步屈從于技術(shù),人的文明也將被技術(shù)系統(tǒng)吞噬和消解。
所以,在不遠(yuǎn)的未來,人類文明面對的最大困局是人性與飛速發(fā)展的技術(shù)不相匹配,人性無法駕馭技術(shù)。這一困局的兩個最大表現(xiàn)是技術(shù)奴隸社會和人的文明的毀滅可能。人工智能的發(fā)展蘊含這樣一種技術(shù)邏輯和趨勢:它會打破和取代幾千年來占絕對主流的重復(fù)性勞動及相應(yīng)生活常態(tài)。這種技術(shù)邏輯在資本邏輯的作用下會形成技術(shù)奴隸社會。一旦人性無法有效控制技術(shù)的負(fù)效用,尤其是無法控制潛在的毀滅風(fēng)險,人的文明就將遭受整體性毀滅。這種風(fēng)險是超越國家、民族、種族和文化差異的?!?0〕參見鄧曦澤:《人性、制度與技術(shù):文明結(jié)構(gòu)及其沖突》,載《四川師范大學(xué)學(xué)報(社會科學(xué)版)》2019 年第6 期,第16 頁。雖然有識之士對這種“壞的”技術(shù)文明的反思、人的主體性對這種技術(shù)異化現(xiàn)象的反抗從未停止過,但當(dāng)AI 越來越全方位地介入人類的生活時,當(dāng)每個人都越來越依賴于無所不在的智能系統(tǒng)時,幾十年、數(shù)百年之后的后代還能在整體上保持這種主體性嗎?
ChatGPT 預(yù)示著強人工智能時代的到來,但是在法律領(lǐng)域,它無法完全取代法律人,至多只是輔助決策的工具。ChatGPT 在未來可能展現(xiàn)的最大威脅是用技術(shù)文明來取代人的文明,如果這種威脅成為現(xiàn)實,那么作為人的文明的法律文明也將消失在算法和程式之中。所幸的是,人類未來還有另一種可能,即如果有足夠多的人,包括法律人能夠?qū)τ谇耙环N可能保持警惕,在人類實踐,包括法律實踐中克服思維庸化和道德鈍化的惰性,那么人類文明將克服技術(shù)文明的弊病,展現(xiàn)更為光明的前景。當(dāng)然,對人類的惰性不可抱有過高期待,希望其能完全通過自律方式來自我克服無疑是一種過于美好的愿望。所以,借助必要的制度設(shè)計來防范和控制可能的風(fēng)險仍屬當(dāng)然之舉。總之,法律人在充分享受AI 帶來的便捷和效率等紅利的同時,不得放棄自己作為“審查者”和“監(jiān)護(hù)者”的職責(zé)。因為在“奇點”到來之前,AI 再怎么“高明”,本質(zhì)上也是沒有自我意識和自由意志的機器人。在法律上為機器人的行為負(fù)責(zé),從而確保為它們在法律界限內(nèi)的活動負(fù)責(zé)的總是人類自己?!?1〕See Ronald Leenes & Federica Lucivero, Laws on Robots, Laws by Robots, Laws in Robots: Regulating Robot Behaviour by Design, Law Innovation & Technology 6 (2014), p.193.讓機器回歸機器的定位,也即人類(日常的或?qū)I(yè)的)活動的輔助者而非宰制者,才是根本之道。如果人創(chuàng)造了機器,卻用機器來規(guī)訓(xùn)自己,最終反而讓機器走上神壇成為自己的主宰,那么這終究是人的悲哀,而不是機器的悲哀。這種技術(shù)文明真的是我們所追求的嗎?或許需要牢記的是:沒有人的文明毫無意義。