文/陳姿含
人工智能技術(shù)的發(fā)展豐富了人類的生存樣態(tài),擴(kuò)大了人類的社會活動范圍,也改變了人們的交往方式。它帶來便捷生活方式和多元生活體驗的同時,也產(chǎn)生了諸多問題:人工智能的廣泛應(yīng)用導(dǎo)致人與客觀世界的邊界逐漸模糊,算法決策可能沖擊人類秩序、公平和正義。算法的進(jìn)步使得人工智能技術(shù)的開展可能從根本上動搖人在世界中的主體地位。這一主體地位不僅關(guān)乎于人生活的安全,也是人類文明開展的根源,其主體地位一旦動搖,政治、經(jīng)濟(jì)、文化、社會制度隨即分崩離析。
第一,依靠人工智能進(jìn)行信息處理,將引入、擴(kuò)大設(shè)計者的偏見并延續(xù)信息收集的偏差,有可能導(dǎo)致決策不公。較之于作出法律決策的責(zé)任者,設(shè)計者責(zé)任更具有隱蔽性。第二,由于算法不透明本身導(dǎo)致的侵權(quán)問題,可能引發(fā)治理主體不明和傳統(tǒng)民法規(guī)則的失效,即引發(fā)“誰是治理主體,誰又能夠成為被調(diào)整對象”的詰問。由于基礎(chǔ)數(shù)據(jù)和弱人工智能的設(shè)定者主觀因素的影響而產(chǎn)生的歧視是一種設(shè)定層面產(chǎn)生的歧視。除卻設(shè)定規(guī)則的歧視,在人工智能存在的算法相關(guān)的侵權(quán)問題還可能存在于數(shù)據(jù)的處理層面,這與人工智能算法的不透明相關(guān)。而人工智能在深度學(xué)習(xí)中所涉及的不透明性可以概括為:因國家秘密、商業(yè)秘密、個人隱私導(dǎo)致的算法不透明;因?qū)ο蟛煌瑢θ斯ぶ悄芗夹g(shù)理解不同而導(dǎo)致的算法不透明;因算法本身的復(fù)雜性而導(dǎo)致的不透明。第三,技術(shù)深度參與司法問題,以單純的人工算法推理代替法律推理可能有違司法公正的制度設(shè)計。法律論證的功能在于使人們確信某一法律決定是正確的。在形成使人們確信正當(dāng)或者正確的法律決定的過程中,論證具有重要的影響,但是并不導(dǎo)致唯一正確的結(jié)論,抑或形成法律決定的過程本身即是在可接受的前提范圍內(nèi),形成當(dāng)事人得以接受的結(jié)論。除卻嚴(yán)謹(jǐn)?shù)恼撟C邏輯,遵循嚴(yán)格的法律程序,與人們確信的另外一個密切因素就是說服,而這并不是一個完全理性的過程。
直觀而言,人工智能算法的進(jìn)步與應(yīng)用引發(fā)了新的法益紛爭,有待法律框架的完善。具體而言,人工智能算法治理的復(fù)雜性涉及一種人對自我的重新定位。我們對人工智能所作出的治理和決策應(yīng)當(dāng)遵循的法律和倫理框架,與其說是法律對人工智能算法的規(guī)制,毋寧說是一個人對自我深度剖析的哲學(xué)命題。在人工智能時代,任何單一的模式都無法準(zhǔn)確地定義人的自身以及人與人工智能的關(guān)系。以血緣和婚姻為紐帶的自然人和自然家庭倫理關(guān)系受到新技術(shù)的突破,以自然人為基礎(chǔ)的主體制度面臨著擴(kuò)張到電子人格、人工智能人格的壓力。人創(chuàng)造了人工智能,但是人也可能會淪為人工智能世界的客體,并由此動搖以人為中心建立起的社會制度。這必然涉及對任何單一模式的自我定位的突破。
人的主體性首先建立在人與客觀世界二分的基礎(chǔ)之上。由此確定了人與自然、人與社會的特殊性。法律主體的特殊性首先在物質(zhì)層面展開。
(一)算法和語言溝通了人與人工智能物理世界
如果以人工智能的發(fā)展對照人類物種的起源和文明的進(jìn)步,人類歷史可以被還原成為數(shù)據(jù)處理的過程,那么算法無疑正在充當(dāng)語言對于人類的巨大作用。人工智能與計算機網(wǎng)絡(luò)的結(jié)合,就是語言支配下的科技創(chuàng)新。所以如果一個問題是可以計算的,就意味著通過一連串機械的運算,它能夠被計算機所解決。目前的人工智能所要解決的就是如何在增加節(jié)點但是不讓計算成指數(shù)增加進(jìn)而達(dá)到計算極限的問題,現(xiàn)有人工智能技術(shù)已經(jīng)展現(xiàn)出極強的計算能力。人工智能如果一旦對不可解的數(shù)學(xué)問題給出答案,人工智能將邁上一個新臺階。目前計算機硬件、互聯(lián)網(wǎng)與類神經(jīng)網(wǎng)絡(luò)的深度結(jié)合,正在推動人工智能實現(xiàn)自主性。
(二)算法模擬了人作為法律主體的物理性基礎(chǔ)
人工智能展現(xiàn)了比以往的科技更強大的自我創(chuàng)造系統(tǒng)(self-reinforcing),對于人工智能軟件,研究者不需要輸入數(shù)以萬計的指令,而是任由進(jìn)化系統(tǒng)挑選最好的指令,這些被挑選的指令通過深度的自我學(xué)習(xí)得以不斷改進(jìn)。如果計算機代碼能夠在人工智能系統(tǒng)中得以像生命系統(tǒng)中的DNA一樣自我復(fù)制、自我刪除、自我修復(fù),甚至自我突變,這樣的進(jìn)化至少讓以人工智能為代表的人造系統(tǒng)與以基因為代表的天生系統(tǒng)之間的鴻溝得以消除。
(三)算法復(fù)制了法律主體“擬制”的過程
成文法制定的重要任務(wù)之一,是將現(xiàn)實中的人轉(zhuǎn)化為法律上的人;由此使得生活中現(xiàn)實存在、各具特征的個人,在法律上以統(tǒng)一的標(biāo)準(zhǔn)人、制度人的方式出現(xiàn)。第一,法律根據(jù)自然的人的客觀情況進(jìn)行主體分類;第二,法律根據(jù)自然的人的生活場景不同劃分法律主體場景;第三,法律根據(jù)自然的人“相同情況相同對待,不同情況不同對待”的樸素正義觀設(shè)立行為模式的評價標(biāo)準(zhǔn)。其本質(zhì)就是包括人類自身在內(nèi)的世界被測量、記錄和分析的可能。量化一切,是數(shù)據(jù)化為智能科技帶來的有力支撐,文字、方位、溝通乃至人的行為都被數(shù)據(jù)化,進(jìn)而也就實現(xiàn)了從外部觀察以規(guī)范對主體的認(rèn)定標(biāo)準(zhǔn)。
人在物理層面所表現(xiàn)出的特殊性,雖是關(guān)隘卻非阻隔,是人與人工智能之間區(qū)別的前提但非鴻溝。機器人是否會出現(xiàn)反叛,進(jìn)而讓人處于被壓迫、奴役、殺戮的境地?人能否保有自身的生存和發(fā)展空間,維持其自主性?人的主體性是否會受到?jīng)_擊,人類中心的制度體系是否得以存續(xù)?這些問題事關(guān)兩個層面的問題,一是如何對人工智能算法相關(guān)的技術(shù)予以規(guī)制,二是如何從制度構(gòu)建的層面捍衛(wèi)人的主體地位。第一層面的技術(shù)問題并非憂慮的真實存在。科技向來存在風(fēng)險,而法律對于這一層面的安全問題的解決經(jīng)驗由來已久。第二層次關(guān)于人主體性的回應(yīng)才是人工智能能否進(jìn)行法律規(guī)制的核心問題,這也引導(dǎo)人們在自形而上的層面思考法律主體的本原問題。
算法的進(jìn)步讓人工智能在客觀層面具有了其他人造物非同以往的自主系統(tǒng)。技術(shù)的精進(jìn)對理論的發(fā)展提出更高的要求。一方面人們轉(zhuǎn)向?qū)λ季S層面的探究,迫于尋求除卻客觀層面特殊性以外,人得以自主的理論根源;另一方面,可以為人工智能的技術(shù)進(jìn)步提供哲學(xué)的指引。
(一)從物理搜索到仿生網(wǎng)絡(luò),人工智能算法在不斷靠近智能發(fā)展的“奇點”。人工智能算法的設(shè)置大致經(jīng)歷了兩個階段。第一個階段,人工智能的思維模式可以抽象為一種物理系統(tǒng),對關(guān)鍵符號的搜索成為物理系統(tǒng)的關(guān)鍵。第二階段,物理搜索系統(tǒng)展現(xiàn)出的不足,使得仿生神經(jīng)網(wǎng)絡(luò)的發(fā)展得到重視。這一算法系統(tǒng)的進(jìn)步不僅僅在物質(zhì)結(jié)構(gòu)上更接近于人腦,還具備了基本甚至深度學(xué)習(xí)的能力,能夠進(jìn)行自身的模式分析,而不依賴于設(shè)計者輸入的程序。簡言之就是對現(xiàn)象進(jìn)行描述、抽象、總結(jié)、分類、解釋等。與物理搜索的方式相比,仿生神經(jīng)系統(tǒng)可以通過后天的學(xué)習(xí)而不斷提升,這是人工智能不斷升級、越來越聰敏的重要體現(xiàn)。
(二)人工智能思維模式的轉(zhuǎn)變,背后是從唯理論走向經(jīng)驗主義哲學(xué)基礎(chǔ)的指引。如果說物理搜索是一種唯理論,先設(shè)定一個理性的大腦,能夠抽象和假設(shè),然后通過預(yù)先輸入的通用模式進(jìn)行求解;那么仿生神經(jīng)網(wǎng)絡(luò)背后的哲學(xué)基礎(chǔ)就是經(jīng)驗主義,通過不斷的物理刺激形成感官刺激,進(jìn)而成為一種感覺認(rèn)識。這一過程集中于算法的設(shè)計,主要是通過輸入信息比對,形成人們的知識和概念。從物理現(xiàn)象,到感覺刺激,形成感覺觀念,并隨著感覺觀念被不斷強化,形成習(xí)慣,從而指導(dǎo)行為,正是經(jīng)驗的路徑,也是人工智能不斷學(xué)習(xí)強化思維的過程。所以仿生系統(tǒng)的人工智能并不預(yù)先設(shè)定用來存儲信息或者程式化的算法,而是在感受的層面形成經(jīng)驗并建立聯(lián)系。這種自下而上、從實踐經(jīng)驗層面到形而上的知識和概念抽象的邏輯,至少解決了笛卡爾否定機器是人的實驗中“機器無法學(xué)習(xí)的問題”。
(三)人工智能算法的邏輯體現(xiàn)因果關(guān)系的必然性 無論是物理系統(tǒng),還是仿生系統(tǒng),人工智能算法的設(shè)計都是對必然性的確信。這種一元論發(fā)展的可以歸結(jié)為面對人工智能問題時:第一,將人的身體和心智還原為客觀物質(zhì);第二,將人工智能視為生命的延續(xù)和必然;第三,接受科技的自我生命力,以及超人和超人類的存在。因此面對人工智能的發(fā)展和可能存在的風(fēng)險,這種思維邏輯的結(jié)果是任由發(fā)生,甚至是推波助瀾。
這種必然性的論證邏輯,除卻未來的風(fēng)險,還有一個現(xiàn)實的法律困境,即如果人工智能算法是對自然規(guī)律的總結(jié)是一個必然性的加速論證,那么因為人工智能所產(chǎn)生的任何問題,尤其是對人的傷害,就不應(yīng)當(dāng)承擔(dān)責(zé)任。既不能追究機器的責(zé)任,也不能追求設(shè)計者的責(zé)任。因為出現(xiàn)傷害的具體原因無論為何,都是必然性的一種表現(xiàn)。在一元論的思維下,人們應(yīng)當(dāng)遵從必然性。
(一)法律主體一元論基礎(chǔ)因治理風(fēng)險而動搖
如果人們依然沿著一元決定論的道路,只有兩個歸途:一種可能是因恐懼逃避科技進(jìn)步而陷入發(fā)展的瓶頸,一種可能是徹底放棄人的主體性這一立足的根本陣營。當(dāng)社會科學(xué)面對技術(shù)性進(jìn)步,站在發(fā)展的十字路口,應(yīng)當(dāng)有跳脫時代的警醒和深謀遠(yuǎn)慮。如果將人完全置于自然之中,成為必然性和客觀規(guī)律的體系,則人是完全不需要實在法的存在,更無法根據(jù)法律規(guī)則承擔(dān)責(zé)任??萍嫉膹妱莅l(fā)展導(dǎo)致一元論思維對后世的影響深遠(yuǎn),才是法律對諸如人工智能等新技術(shù)問題失靈的重要原因。我們并不是要證明“人類比算法做得好”,才能夠維持人的主體地位,否則這種人文主義與科技的競爭結(jié)果,就是期待人類心智的升級,科學(xué)家將之稱為駕駛一艘沒有地圖的船出海遠(yuǎn)航。
(二)法律主體為自由意志留有空間
科技可能否認(rèn)事實,但是無法否定倫理,這是自由意志存在的價值?,F(xiàn)代法律的思維的起點,應(yīng)當(dāng)是也必然是自由意志。只有在自由意志的關(guān)照下,承認(rèn)人有選擇自由,才是架構(gòu)權(quán)利、義務(wù)和責(zé)任體系的基礎(chǔ)。笛卡爾在解決人自身的對立的時候,同時也解決人的統(tǒng)一問題。在笛卡爾的二元論中,心和物分屬于不同的世界,并遵循不同的規(guī)律。精神不僅是人與動物的分水嶺,也是人與機器的分水嶺。所以在笛卡爾看來無論機器設(shè)計的如何精妙——縱然機器與人能夠進(jìn)行交流,或者展現(xiàn)出同樣的狀態(tài)——皆不代表機器具有人的意識,能夠具有意識的內(nèi)在狀態(tài)。面對這種啟發(fā),從理論構(gòu)建層面,我們必須為人的意志尋求獨立空間,并將之作為制度構(gòu)建的基礎(chǔ)。
(三)社會契約彰顯法律主體的安全地位
現(xiàn)代法律制度構(gòu)建的一個重要基礎(chǔ)是社會契約。社會契約盡管復(fù)雜,締結(jié)條約的個體從始而終也鮮有脫離,卻可以高度概括:人類放棄宏偉的宇宙計劃,選擇在人類社會中獲得力量。法治社會中,實體法通過對人權(quán)的保障和人的主體地位的確立,肯定了這種力量,也彰顯了自由意志的獨特價值。所以法治社會中的人最安全,法治中的自由意志最能彰顯力量。
法律主體并非主體性問題的全部,卻是一切法律領(lǐng)域共同關(guān)注的話題,法律主體是權(quán)利的來源,是法律關(guān)系的邏輯起點,也是整個法律制度保護(hù)的基礎(chǔ)。
(一)法律主體概念同生物學(xué)上的人相互區(qū)別
法律人的概念是一種身份,而生物人的概念是一種事實,更是一種倫理?,F(xiàn)代法律制度的進(jìn)步,將法律主體擴(kuò)大至全體生物人,在于對自然人的保護(hù)。但這并不意味著法律人和生物人可以混為一談,也不意味著身份與人格是同樣的概念。隨著近代資產(chǎn)階級革命,和現(xiàn)代人權(quán)保障的要求,法律的主體地位被賦予所有的普遍的無差別的自然人,法律的主體也就逐步剝離了身份的差異,而變?yōu)橐环N不具有價值判斷的中性的法律技術(shù)。在這一層面,縱然人工智能算法不斷靠近智能的“奇點”,并不必然得出其主體地位得以確立的正當(dāng)性。換言之,人工智能模擬或者仿真的只能是生物學(xué)意義上而非法學(xué)意義上作為主體的人。
(二)立法技術(shù)中立不否認(rèn)人格高貴
被法律確立為主體地位的是否都是人呢?答案顯然是否定的。法律主體不僅僅包括自然人,也包括法人。這代表著主體地位的授予是為了法律關(guān)系的開展,當(dāng)然其終極目的也是為了保護(hù)個人。法律能夠?qū)θ诉M(jìn)行擬制。具備展開聯(lián)系、對法律關(guān)系產(chǎn)生影響、能夠承擔(dān)責(zé)任,構(gòu)成賦予主體資格的重要參考標(biāo)準(zhǔn)。法律主體資格可以賦予那些不具備自然生命的事物。因此,國家、社團(tuán)、法人和其他組織,皆可稱為主體,但是不能享有法律對人格特有的保障,不能侵害法律賦予人格的特殊恩惠。沿著法律對人格的特殊恩惠,實在法可能會實現(xiàn)對強人工智能等類人類事務(wù)的擬制過程,但不能否認(rèn)人在法律上的特殊地位。
(三)康德“以人為中心”模式的可能與反思
表面上,從經(jīng)驗主義到唯理論指引的人工智能算法發(fā)展,以一元論哲學(xué)為基礎(chǔ),肯定了技術(shù)的理性,否認(rèn)了人的自由價值,塑造了法律的契約,也瓦解了人格的神圣。事實上本著從事實到理論再到模式制度的探尋不難發(fā)現(xiàn),法律主體制度的構(gòu)建,無論是以價值傾向還是規(guī)范傾向的構(gòu)建,不應(yīng)也不能拋棄人的中心地位。
在康德模式中,人是自由意志和自然存在的統(tǒng)一,是先驗和經(jīng)驗的統(tǒng)一。正向的關(guān)系應(yīng)當(dāng)是人在規(guī)范自身的過程中規(guī)范自然,人在理知的過程中統(tǒng)覺經(jīng)驗,人在制定實體法的過程中預(yù)設(shè)前提。反向的過程可以推導(dǎo)出,人的他律不違背自律,經(jīng)驗不否認(rèn)自由意志,價值中立不違背倫理。所以康德的倫理模型在今天仍然具有極其重要的意義,不僅僅指引人工智能無限接近于人的思維,更重要的是將“尊重人作為目的”作為絕對律令。這種絕對律令通過算法植入人工智能的個體,更重要的是在執(zhí)行目的和手段的模式中,對外在的狀態(tài)進(jìn)行一種反思。這種反思為人工智能的問責(zé)提供了基礎(chǔ)。
人選擇服從法律的規(guī)范意味著人在政治世界中必須獲得安全和尊重。徹底中立的法律規(guī)范也是危險的。以人為中心構(gòu)建的制度體系在任何時候無法擺脫因差異而產(chǎn)生的主流意見。所以法律就人與人工智能所作出的分配問題具有理所當(dāng)然的合法性。它避免了一種因為不斷探知真理而試圖改造政治世界的癲狂。法律宣揚的個體無差別不代表人沒有個性的差異。法律的主體地位確立不代表人格的授予或者人性的否定。法律的判斷不是倫理和價值的判斷。