朱 喆,張北斗
(武漢理工大學(xué)馬克思主義學(xué)院,湖北 武漢 430000)
隨著人工智能的廣泛應(yīng)用和強人工智能的高速發(fā)展,人工智能也帶來諸多倫理問題,目前其核心倫理問題是:誰應(yīng)為人工智能的行為負(fù)責(zé)?人工智能是否擁有道德主體地位,是解決人工智能道德責(zé)任歸屬問題的關(guān)鍵。學(xué)界對道德主體范圍有不同的界定,本文以馬克思主義對道德主體的一般性規(guī)定為基礎(chǔ),從馬克思主義視角辯識人工智能道德主體地位問題。
道德主體范圍是研究人工智能道德主體地位問題繞不開的話題?;趯陀^世界認(rèn)識的不斷加深和科技的發(fā)展,學(xué)界認(rèn)為道德主體范圍歷經(jīng)三個階段:從人到生命體、從生命體到技術(shù)人工物、從技術(shù)人工物到人工智能。
“道德主體指的是具有自我意識,能夠進行道德認(rèn)知、能夠進行推理并形成自我判斷、能夠進行道德選擇與實施道德行為且承擔(dān)道德責(zé)任的道德行為體”[1]。道德主體在法律上是指具有主觀判斷并且為自己的行為承擔(dān)法律責(zé)任的人??档掳训赖露x為理性當(dāng)事人之間的關(guān)系,基于這個角度的判斷,具有理性思維的人才具有道德主體地位,理性的人不包括嬰兒和精神病患者,因為嬰兒及精神病患者具備一些道德能力,但不具備道德意識,不能為自己的行為負(fù)責(zé)。按照這個規(guī)定,其他生物也不屬于道德主體的范圍。隨著物種起源和進化論的應(yīng)用,動物學(xué)家Joel Feinburg提倡動物擁有道德主體地位,因為動物和人類都是生物進化的結(jié)果,都具有意識和欲望,滿足道德主體地位的要素;因植物沒有意識,沒有基于意識的實踐,所以植物不屬于道德主體范圍。環(huán)境學(xué)家Holmes Rolston基于倫理學(xué)的內(nèi)在價值理論認(rèn)為自然環(huán)境中包含的一切生命體都具有道德主體地位,他首次把植物納入道德主體地位范圍。由此,道德主體范圍由人擴展到自然界的其他生命體。
技術(shù)人工物具有道德主體地位是Bruno Latour提出的,他認(rèn)為技術(shù)人工制品能夠借以人類的行為方式執(zhí)行道德準(zhǔn)則,比如紅綠燈使交通順暢,避免交通事故的發(fā)生,這一人工物是借助司機的行為執(zhí)行道德行為。21世紀(jì)初,Peter Paul Verbeek的“道德物化”這一理論在技術(shù)人工制品中融入道德概念,人工制品在運用中通過其性能在道德意義上引導(dǎo)和規(guī)范人們的行為,他認(rèn)為技術(shù)人工物是道德的載體,并非簡單的工具。在這一階段,學(xué)界認(rèn)為能夠影響人類道德行為和道德結(jié)果的人工制品具有道德主體地位,如此道德主體的范圍就從生命體擴大到技術(shù)人工物。
人工智能是否具有道德主體地位首先要考慮智能機器與人類的區(qū)別。約翰遜(Deborah G.Johnson)圍繞意向性展開對道德主體的討論,人類行為的意向性是區(qū)別于智能機器的根本特征之一,并以此討論人工智能是否具有道德主體地位。Aaron SIoman預(yù)測未來機器人應(yīng)具有思考和感知能力,以此判定智能機器具有道德主體地位。強人工智能的發(fā)展讓越來越多的研究者承認(rèn)人工智能的道德主體地位。許多人工智能專家把人工智能作為道德的實施者,而不是人類活動的承載工具,Heinz Von Foerster認(rèn)為強人工智能具有信息采集、分析、處理、并轉(zhuǎn)化為道德行動的能力,稱之為道德智能主體。在這一階段,學(xué)界認(rèn)為類似于人類道德感知、道德判斷和道德實踐的智能機器也具有道德主體地位,如此道德主體從技術(shù)人工物擴大到人工智能。
隨著人工智能的深入研究,強人工智能的推理決斷更符合人類的道德準(zhǔn)則,同時帶來一系列倫理問題。人工智能是否具有道德主體地位是解決人工智能核心倫理問題的關(guān)鍵,學(xué)界的爭論較大。
目前人工智能的核心倫理問題是:誰該為智能機器人的行為負(fù)責(zé)?尤其是智能機器人的行為損害人類利益或者傷害到人類后,如果機器人不能承擔(dān)責(zé)任,那么誰為機器人的行為負(fù)責(zé)?“因為主體性問題關(guān)系到人工智能是工具性的存在,還是具有與人類同等主體地位的價值性存在”[2]。所以,智能機器人是否擁有道德主體地位問題,是解決人工智能道德責(zé)任歸屬問題的關(guān)鍵。目前學(xué)界對人工智能道德主體地位持有三種觀點:肯定、否定和中立態(tài)度,并提出“準(zhǔn)道德主體”的概念。
持肯定態(tài)度的學(xué)者認(rèn)為隨著算法的完善和技術(shù)爆炸,智能機器跟隨意識做出的道德判斷和道德行為與人類無異,當(dāng)其基于智能意識做出道德行為時,它也是其行為的責(zé)任承擔(dān)者,這種行為包括危害人類、危害社會的不道德行為。當(dāng)智能機器人在自我決策下獨立做出危害社會、人類的不道德行為時,智能機器應(yīng)當(dāng)負(fù)法律責(zé)任。學(xué)者認(rèn)為當(dāng)人工智能擁有道德主體地位后,智能機器不再是人類活動的輔助性工具,而是轉(zhuǎn)變?yōu)榕c人類享有同等權(quán)利義務(wù)的社會主體、法律實體。反駁人工智能具有道德主體地位的學(xué)者認(rèn)為智能機器不具備法律責(zé)任主體的能力,人類法律無法適用于智能機器。有學(xué)者從認(rèn)識論和價值論出發(fā),認(rèn)為智能機器沒有欲望、情感,難以實現(xiàn)自我價值,不滿足道德主體的要素,從哲學(xué)層面否定了人工智能的道德主體地位。“技術(shù)質(zhì)疑論”研究者對人工智能是否具有道德主體地位持中立態(tài)度,他們認(rèn)為人工智能是準(zhǔn)道德主體。雖然智能機器不具備和人類相同的道德主體地位,但智能機器在人類道德準(zhǔn)則算法的指揮下,具有自主性、意向性,從而被人類賦予道德主體地位。
道德主體的內(nèi)核條件是具有理性的行為主體。哲學(xué)界對“主體”和“理性主體”有不同觀點。康德提出“人為自然立法”,即“人的理性為自然立法”,康德把道德看作是理性主體之間的關(guān)系,同時把作為理性主體的人放在了統(tǒng)治地位。黑格爾認(rèn)為主體是人類認(rèn)識世界和改變世界的原則,因為人類作為理性主體時,具有改變現(xiàn)實、實現(xiàn)自我的能力,現(xiàn)實存在的客體必定會成為理性主體的認(rèn)識對象,進入人的自我意識,成為人絕對精神的一部分。康德和黑格爾的主體性理論夸大了人的理性主體地位,是主體膨脹理論。費爾巴哈批判黑格爾過度重視理性主體,忽視了主體理性之外的感性因素,但費爾巴哈提出感性是物質(zhì)和精神的基礎(chǔ),這夸大了感性的作用和地位。馬克思則認(rèn)為主體是感性和理性的統(tǒng)一,感性是主體的直觀感知,理性是主體的能動分析、認(rèn)識。
馬克思認(rèn)為主體的感性認(rèn)知和理性認(rèn)知都來自于人的自我意識。意識來源于主體,能直觀反映現(xiàn)實,還能夠獨立于實踐活動之外,分析總結(jié)實踐活動后指導(dǎo)實踐。自我意識是馬克思區(qū)別人類與動物的重要因素,自我意識是作為主體的人在與客體發(fā)生關(guān)系時,把“自我”的主體概念和“對象”的客體概念相區(qū)別,把主體“我”和客體“對象”的關(guān)系作為“我”的意識。這種自我意識反映出自我認(rèn)識與客觀存在的不同,這也是辯證唯物主義中所講的主觀世界和客觀世界的辯證統(tǒng)一關(guān)系,這一關(guān)系正是通過自我意識實現(xiàn)的。主體基于自我意識得出的感知不僅反映了客觀存在,還體現(xiàn)了主觀認(rèn)知。人具有理性思考能力,作為道德主體的人往往在反思對客體的關(guān)系中,經(jīng)過思維的邏輯推理形成道德感知?;谧晕乙庾R的感知能夠清晰地厘清主體和客體的道德關(guān)系。道德主體基于自我意識的道德感知是支撐道德主體進行道德判斷和道德實踐的前提和基礎(chǔ)。
馬克思對主體的另一規(guī)定在于主體能夠進行自覺能動的創(chuàng)造性活動。在康德那里,真正嚴(yán)格意義上的自由只能是自由意志,并且自由意志不是一下子就明確起來的,而是通過一系列自由任意的范圍而逐漸純粹化和顯露出來的,它最終表達(dá)為道德律或義務(wù)的形式[3]。黑格爾把自由理解為對必然性的認(rèn)識,馬克思和恩格斯繼承了這一觀點。但是馬克思認(rèn)為的自由,不僅僅是對必然性的認(rèn)識,更是在認(rèn)識和掌握必然性基礎(chǔ)之上對必然性的利用,人是否正確的認(rèn)識必然性是由實踐來檢驗的,人類的實踐是帶有主觀性的改變世界的活動。人是否是自由的,要看人在實踐中是否實現(xiàn)了主觀意愿與客觀規(guī)律的統(tǒng)一。馬克思所講的“人的自由意志”指的就是人不像動物那樣只是被動地適應(yīng)自然,而是“積極地”“主動地”按照客觀規(guī)律去改造自然,把它改造成我們喜歡的樣子,即主體按照自己的意愿行動,實現(xiàn)自身自由全面的發(fā)展。在此,馬克思所說的“自由意志”可以被概括為“人主動地讓自己去適應(yīng)客觀規(guī)律、順應(yīng)自然規(guī)律”。人這一主體與其他實踐主體不同的就是人類主體是主動地去適應(yīng),而其他實踐主體被動地適應(yīng)。
馬克思主義注重實踐。馬克思指出:“人應(yīng)該在實踐中證明自己思維的真理性,即自己思維的現(xiàn)實性和力量,亦即自己思維的此岸性?!盵4](P3)意識是在實踐活動中形成的,但意識也在大多數(shù)情況下指導(dǎo)、規(guī)劃著主題實踐活動。意志不完全等同于意識,是在意識的相對獨立性中找到的獨特思維方式,當(dāng)這種意志作用于實踐時,就可以體現(xiàn)出實踐的能動性、獨立性。自由意志來源于主體實踐認(rèn)識,主體可以通過自由意志選擇自己的實踐自由。人類作為道德主體在進行實踐時,往往做出一些超越自身本能的實踐行為,比如人類搶險救災(zāi)時,除了保證自身的基本生存外,還會幫助他人,參與社會重建,這既保證自我安全又體現(xiàn)了自己的道德行為。這一實踐活動中會有意識的先行性,這一實踐過程還會有規(guī)劃性,對實踐結(jié)果的預(yù)測構(gòu)想也體現(xiàn)出主體對自己行動的期待。從這一實踐過程來看,道德主體的自由意志體現(xiàn)在對既定目標(biāo)的意識先行性,對事件過程的規(guī)劃構(gòu)思,對實踐結(jié)果的預(yù)測、期待。意識與實在之間的互動性和規(guī)定性,使得主體的實踐是在自由意志的指引下進行的能動的創(chuàng)造性活動。綜上所述,道德主體必須具有基于自由意志的實踐能力以實現(xiàn)自己的道德選擇。
馬克思認(rèn)為主體間性是人類社會性的體現(xiàn),體現(xiàn)了主體與主體之間、個人與社會之間的交互關(guān)系。就人作為道德主體而言,這種道德的判斷基礎(chǔ)是在社會關(guān)系中形成的,人的道德屬性也是在人與人或人與社會中形成的。費爾巴哈把人類本質(zhì)定義為“孤立、抽象的個體”,馬克思批判費爾巴哈只看到了人類本質(zhì)中的自然屬性,沒有看到人類的社會屬性。馬克思在論證人類的社會性時,指出“人的本質(zhì)不是單個人所固有的抽象物,在其現(xiàn)實性上,它是一切社會關(guān)系的總和”[4](P5)。歷史唯物主義揭示了在長期歷史時期中人類形成的客觀存在的社會關(guān)系。馬克思主義用社會關(guān)系來確立人的本質(zhì),實則是表達(dá)“社會人”概念,社會關(guān)系的一個顯著特點是交互性,這種交互性通過各種復(fù)雜的社會關(guān)系體現(xiàn)出來。主體間性主要強調(diào)主體與主體之間的關(guān)系,同時主體也可以創(chuàng)造社會關(guān)系,這種關(guān)系是在實踐中形成的,有既定的社會關(guān)系,也創(chuàng)造新的關(guān)系來實現(xiàn)主體與主體之間的交互。
道德主體首先要具有基于自我意識的自我感知能力,運用道德感知判斷道德對錯,同時在進行道德實踐時,要有解釋自己行為或未承擔(dān)義務(wù)的能力,道德實踐后要對道德行為負(fù)責(zé),思考自己在這次實踐中充當(dāng)了什么角色,行為是否違背普遍認(rèn)同的道德準(zhǔn)則,自己在這次實踐中與其他主體的關(guān)系、與社會的關(guān)系,有無損害其他主體或社會的行為?;谧晕乙庾R的道德感知是支持道德主體進行道德實踐的前提和基礎(chǔ),道德主體用自由意志來保證自己選擇道德實踐,那么道德主體所具有的主體間性就是對自己行為的道德反思,是與其他主體、與社會發(fā)生道德關(guān)系時,對自己的行為負(fù)責(zé),并承擔(dān)道德責(zé)任的能力。馬克思認(rèn)為的主體間性是在社會性中體現(xiàn)出來的,而道德關(guān)系也是在主體與主體、主體與社會的交互中形成的,因此道德主體需具有主體交互的主體間性。
隨著強人工智能的技術(shù)發(fā)展和在各行業(yè)的廣泛運用,人工智能似乎“無所不能”,其大數(shù)據(jù)分析能力甚至超越人類。目前智能機器通過植入算法進行道德感知,這種道德感知和人的理性思維相像,但人基于自我意識的道德感知是理性認(rèn)識和感性認(rèn)識的有機統(tǒng)一。目前人工智能雖然能夠判定和模仿人類的情緒等非理性因素,但它不具備這些非理性因素,例如:勇氣、信念、信仰、情感、習(xí)慣、本能等。沒有這些感性因素的道德感知,就無法實現(xiàn)主觀世界與客觀世界的辯證統(tǒng)一,因此這種道德感知只是“機器意識”的產(chǎn)物,是無法支撐道德主體來進行道德判定的,即使是植入道德準(zhǔn)則的人工智能,在進行道德判定時也會遇到困難,從而影響道德實踐。
人類的自我意識是大腦的產(chǎn)物,是人區(qū)別于其他生物的根本所在。人類只有有了自我意識,才能進行物質(zhì)生產(chǎn)實踐,建立社會關(guān)系、劃分道德標(biāo)準(zhǔn),構(gòu)建完整的體系來維護自身權(quán)益,促進人類這一群體發(fā)展。假如這種自我意識可以賦予給人工智能,那么擁有自我意識的人工智能會產(chǎn)生怎樣的行為呢?以機器人為核心,建造機器人王國?目前已有的道德準(zhǔn)則是否通用?或是智能機器維護機器人權(quán)益,制定機器人的道德準(zhǔn)則?這些結(jié)果無法預(yù)測。有人提議把人類的自我意識上傳到智能機器上,這樣機器就擁有基于人類自我意識的道德感知而不會產(chǎn)生以機器為中心的思想。實現(xiàn)這一設(shè)想也存在難題,雖然信息可以在信息系統(tǒng)之間傳輸,但是信息系統(tǒng)自身的信息活動無法傳輸,意識是信息活動,不是信息,所以意識無法在信息系統(tǒng)之間傳輸,所謂的意識上傳終歸是空想。綜上所述,人工智能不具備自我意識,其道德感知只來自于特定的方式,因此人工智能作為道德主體難以實現(xiàn)。
目前人工智能道德實踐的模式是:算法輸入—分析判定—行為輸出。人工智能在模仿人類主體行為時,能準(zhǔn)確地做到救援、防護等維護人類利益的道德行為,這種實踐水平達(dá)到了人類所不能達(dá)到的水準(zhǔn)。人工智能甚至可以深度模仿人的神經(jīng)網(wǎng)絡(luò),按照人類已有道德認(rèn)識做出本能的實踐反應(yīng)。即使這種反應(yīng)是人類本能的行動反應(yīng),依舊是模仿人類的,不同的人面對同一個道德問題有多種行為選擇,這是基于人類自由意志的本能,這種基于自由意志的實踐選擇是無法產(chǎn)生于人工智能之中的。在面對道德問題時,雖然智能機器可以通過分析人類性格特點、神經(jīng)網(wǎng)絡(luò),做出更能遵守道德準(zhǔn)則或更能維護大多數(shù)人利益的道德行為,但這也只是對人類自由意志下進行道德實踐選擇的模擬和拓展。
人工智能主要以物理信息化手段來運行,其信息系統(tǒng)的接收、運算、判斷控制著它的行為。人工智能的實踐要遵守其信息系統(tǒng)的判斷和指示,不存在指導(dǎo)意識與行為的偏差,而自由意志則在一定程度上使主體思想和主體行為保持一定的空間。意識指導(dǎo)主體進行實踐時,主體可以做出一些與意識有偏差的行為,擁有自由意志的道德主體做出與道德意識有偏差的行為時,道德主體就要對自身行為承擔(dān)責(zé)任。而人工智能沒有自由意志,做出與其道德感知相偏差的行為甚至違背道德原則時,我們無法以人類的法律法規(guī)要求智能機器擔(dān)負(fù)責(zé)任,而是要求給人工智能植入算法的人類工程師承擔(dān)法律責(zé)任。長此以往,不排除人工智能工程師為了規(guī)避風(fēng)險而讓人工智能變得不再智能。擁有自由意志的道德主體是能夠承擔(dān)自己實踐而導(dǎo)致的責(zé)任的,而無自由意志的人工智能顯然不具備為其行為承擔(dān)責(zé)任的能力。
人類作為道德主體,人類的主體間性表現(xiàn)在主體與主體的交互關(guān)系中,這種交互關(guān)系也體現(xiàn)出人類的社會性。人在其本質(zhì)上是社會關(guān)系的總和,而人工智能則不適用于這一概念,在既定的社會關(guān)系中,智能機器人很難作為一個獨立的主體融入人類社會,人類主體不承認(rèn)它的主體地位,不把它當(dāng)做社會的一分子看待。人工智能機器人索菲亞已經(jīng)被沙特政府授予公民地位,享有公民享有的權(quán)利,但仍沒有把它當(dāng)做正常的人看待,原因在于族群意識。人類社會最基本的血緣關(guān)系、宗親關(guān)系維系著人類這一種族群體的基本社會關(guān)系,人工智能顯然不具備這種關(guān)系,因此始終被人類看作不具備道德主體地位的行為體。
馬克思共同體思想是馬克思主體交互思想的體現(xiàn),馬克思指出:“人同自身的關(guān)系只有通過他同他人的關(guān)系,才成為對他來說是對象性的、現(xiàn)實的關(guān)系?!盵5](P99)人工智能制造的初衷是幫助人類改造物質(zhì)世界,是人類認(rèn)識世界、改造世界的輔助性工具,目前人類與人工智能是控制和被控制的關(guān)系。在未來人工智能與人類的交互中,假如人工智能具備和人類相同的道德主體地位,在人工智能與人類實踐能力不對等的情況下,是否會顛覆人類與人工智能控制與被控制的關(guān)系?假如人工智能與人類都具有主體性,人類的絕對主體地位將被打破,二者會朝著超主體性或去主體性的方向發(fā)展,雙主體超越主體性成為與世界并存的自為自在狀態(tài),這種狀態(tài)更像是去主體化的純粹客體階段[6]。這樣看來,即使人工智能被賦予道德主體地位,它與人類的主體交互也難以實現(xiàn)。
從馬克思對道德主體的一般性規(guī)定來看,道德主體需具有基于自我意識的道德感知,在自由意志下進行道德實踐,在實踐中進行主體交互。從人工智能發(fā)展現(xiàn)狀來看,人工智能的道德感知不具有自我意識,其實踐是無自由意志的復(fù)刻、模擬、拓展行為,與人類的主體交互也難以實現(xiàn)。由此得出人工智能不具有道德主體地位,進而為解決人工智能道德責(zé)任歸屬問題提供新思路。
面對人工智能帶來的倫理道德挑戰(zhàn),厘清人工智能道德責(zé)任歸屬,建立完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系迫在眉睫。人工智能的研究和發(fā)展還存在許多不確定性,其發(fā)展應(yīng)始終以造福人類為宗旨,不能將人工智能的自主意識等同于人類特有的自由意志,不能改變?nèi)斯ぶ悄苡扇祟悇?chuàng)造的事實。不以規(guī)矩,不成方圓。只有為人工智能的研發(fā)與應(yīng)用制定完善的、合乎人類利益與道德標(biāo)準(zhǔn)的相關(guān)倫理規(guī)范與法律制度,才能確保人工智能的可持續(xù)發(fā)展,確保人類的生存權(quán)利與安全。