国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

論機器人的道德承受體地位及其規(guī)范意涵

2019-12-14 06:15楊通進
哲學分析 2019年6期
關(guān)鍵詞:道德行為道德機器人

楊通進

機器人的道德地位問題是機器人倫理學的核心問題之一,也是近年來機器人倫理學研究的持續(xù)熱點問題。因為機器人道德地位問題不僅涉及人對機器人負有何種道德義務(wù)的問題,而且還涉及一系列其他的社會、政治與倫理問題,如人類是否應(yīng)當研制具有道德自主性的機器人,機器人對人類與其他機器人是否負有以及負有何種道德義務(wù),人類是否愿意進入一個人(類)—機(器人)共處的后人類時代。2016 年,歐洲議會法律事務(wù)委員會給歐洲議會提交的“機器人民事法律規(guī)則建議書”中明確建議歐洲議會考慮“賦予機器人特定法律地位的可能性,以便至少可以確認最復雜的自動機器人作為享有特定權(quán)利、負有特定義務(wù)的電子人身份”;2017 年,沙特政府正式授予機器人索菲亞“沙特公民”身份。因此,確認機器人的道德地位是擺在我們面前的重要倫理與法律問題。aSusan Anderson,“Asimov’s‘Three Laws of Robotics’and Machine Metaethics”,AI & Society,Vol.22,No.4,2008,pp.477—493.區(qū)分機器人道德地位的兩種含義(作為道德行為體的機器人與作為道德承受體的機器人)是本文展開相關(guān)論述的基本策略。目前,許多學者都主張,作為具有充分道德自主性的機器人是完全意義上的道德行為體,并享有道德行為體的基本權(quán)利。本文對這一較強的命題持一種開放的態(tài)度,而主張一種較弱的命題:機器人享有作為道德承受體的道德地位,人類對機器人的行為存在道德意義上的正確與錯誤之分;這部分是源于具有道德能動性(moral agency)的機器人的行為表現(xiàn),部分是源于人類對自身本質(zhì)特征的確 認。

一、何種機器人?哪種道德地位?

設(shè)想一下這樣的場景:2118 年,我們已經(jīng)進入人(類)—機(器人)共處的后人類時代。我們每天都要與各種機器人(護理機器人、服務(wù)機器人、助理機器人、伴侶機器人、家用機器人等)打交道。b一些學者認為,我們會比人們所預(yù)期的更早地生活在這樣一個世界,在其中“每個人都擁有一位機器人”。Declan Butler,“A World Where Everyone Has a Robot:Why 2040 Could Blow Your Mind”,Nature,Vol.530,No.7591,2016,p.398a.它們像其他人那樣與我們正常交往:用清晰而明確的語言與我們交流與溝通/遵循基本的社會交往規(guī)則與規(guī)范/遵循基本的道德原則(至少不會蓄意做出不道德的行為)。從外在行為表現(xiàn)的角度看,它們與我們?nèi)祟惢緵]有什么區(qū)別;它們的理性思維能力完全可以與我們?nèi)祟愭敲?,在某些方面甚至超過人類;根據(jù)其外貌、語言與動作,我們幾乎無法判斷,站在我們面前的是機器人還是真人。人類與機器人唯一明顯的區(qū)別是:人類是被生出來的,具有一副生理機體,而機器人是被制造出來的,以機械的軀體為主(某些機器人可能會擁有部分的生理機 體)。

很明顯,這種機器人只能是強人工智能意義上的機器人。這樣的機器人不是某種只會“干活”不會說話的“啞巴”;相反,它們能夠與人交流。某些機器人可能以某種或幾種專門功能為主,但是,它們也不是現(xiàn)在的AlphaGo 這樣的專用機器人。它們更是像教師那樣的教育機器人,像護士那樣的護理機器人,像保姆那樣的家用機器人,像節(jié)目主持人那樣的文娛機器人,像戰(zhàn)士那樣的軍用機器人,像異性伴侶那樣的性愛機器人(甚至法律意義上的機器愛人),等等。它們基本上以通用機器人的面目出現(xiàn)在人們的公共生活與私人生活領(lǐng)域中,并與它們身邊的人(包括其他機器人)形成良好的互動與協(xié)同關(guān) 系。

這樣的機器人可被稱為社會機器人或社交機器人(social robots)?!吧鐣C器人就是具身化的自動行為體,它能夠在社會的意義上與人交流與互動。社會機器人通過社會紐帶實現(xiàn)與人的交往,它們展示了適應(yīng)性的學習能力,能模仿各種情感狀態(tài)。我們與它們的交往遵循社會行為模式,它們被設(shè)計出來是為了鼓勵人機之間的情感聯(lián)系。”aKate Darling,“Extending Legal Protection to Social Robots:The Effects of Anthropomorphism,Empathy,and Violent Behavior Towards Robotic Objects”,https://paper s.ssrn.com/abstr act=20447 97.本文所討論的機器人即這類以“強人工智能”為基礎(chǔ)、具有人類外表與智能、深度介入人類的公共生活與私人生活的智能機器人或人工智能行為體(artificial intelligent agents)。b著名的人工智能專家?guī)炱濏f爾認為,人工智能發(fā)展的奇點將在2045 年出現(xiàn)。蔡斯認為,強人工智能“最有可能在本世紀下半葉出現(xiàn),而它一旦出現(xiàn),就很有可能在幾個月甚至幾周之內(nèi)演化為超級智能,不太可能需要幾年之久”(蔡斯:《人工智能革命:超級智能時代的人類命運》,張堯然譯,北京:機械工業(yè)出版社2018 年版,第123、173 頁)。人工智能樂觀論者認為,整合了各種功能的“超級智能機器人”(通用機器人)在所有的方面都將超越人類,而“悲觀主義者的立場正在退縮:在每一個單獨的領(lǐng)域,[機器人]都有可能超越人類,不一定會在整體上全面超越人類”(尼克:《人工智能簡史》,北京:人民郵電出版社2018 年版,第225 頁)?!叭諠u加速的人工智能創(chuàng)新已經(jīng)讓萊斯大學的摩西·瓦迪等計算科學家預(yù)言,最遲在2045 年,在一些非常重要的工作中,人類將退出歷史舞臺。更有甚者,有人提出,計算機將快速進化,最終將用一代人或最多兩代人的時間超越人類智能”(馬爾科夫:《人工智能簡史》,郭雪譯,杭州:浙江人民出版社2017 年版,第10 頁)。某些這樣的機器人已經(jīng)以“雛形”或“初級”的形式出現(xiàn)在人們的生活中,如醫(yī)院的護理機器人,陪伴老人或兒童的“看護機器人”或“機器寵物”,以及充滿爭議的性愛機器人(它們已經(jīng)在歐洲某些紅燈區(qū)“提供服務(wù)”)與軍用機器人(聯(lián)合國人權(quán)高級委員會已經(jīng)提議禁止研發(fā)軍用機器人)。隨著機器人技術(shù)的提高與完善,社會機器人將在未來逐步以更完整的形式參與人們的社會生活與私人生 活。

這樣的機器人將會具有或者能夠享有何種道德地位 呢?

道德地位(moral standing,moral status)指的是一個道德主體在道德共同體中占有的位置、享有的資格、或承擔的角色?!皳碛械赖碌匚痪褪窃诘赖律蠎?yīng)給予關(guān)懷,或擁有道德資格。擁有道德地位的實體就是這樣的實體,即道德行為體(moral agent)對它負有、或能夠負有道德義務(wù)。如果一個實體擁有道德地位,我們就不能為所欲為地對待它;在進行慎思的時候,我們有道德義務(wù)賦予它們的需要、利益或福祉一定的分量?!眂Mary Anne Warren,Moral Status:Obligations to Persons and Other Living Things,Oxford:Clarendon Press,1997,p.4.道德地位意味著某種道德資格(moral entitlement),即做出某種行為與獲得某種待遇的資格。“一個實體擁有道德地位,當且僅當它能夠被錯誤地對待。因此,當且僅當一個實體擁有道德地位時,一個道德行為體的某些行為對該實體所產(chǎn)生的影響才能直接(即不取決于這些行為對其他實體的影響)或間接地成為對這些行為進行道德評估的決定因素?!眃Justin Sytsma and Edouard Machery,“The Two Sources of Moral Standing”,Review of Philosophy & Psychology,Vol.3,No.3,2012,pp.303—324.因此,道德地位與一個道德主體在人們的道德慎思中占有何種地位有 關(guān)。

在道德共同體中,存在著兩種不同類型的道德地位:作為道德行為體(moral agent)的道德地位與作為道德承受體(moral patient)的道德地位。a作為道德行為體的道德主體指的是具有道德能動性(moral agency)的主體,它們能夠進行道德推理,它們的行為遵循道德原則的引導;它們具有道德自主性(moral autonomy),需要對自己的行為承擔道德責任。“道德行為體對那些擁有道德地位的實體負有義務(wù)或責任?!眀

道德承受體指的是具有道德承受性(moral patiency)的主體,它們有資格獲得道德關(guān)懷;道德行為體對它們負有道德義務(wù)與責任。“不僅像擁有我們這樣的意識(consciousness)的存在物是道德承受體,非人類動物也是道德承受體,在進行道德慎思時,我們有責任把它們的利益考慮進來。”c更重要的是,我們之所以有道德義務(wù)這樣做,不是因為對它們的保護對我們或其他人有利,而是因為它們的需要在我們的道德慎思中擁有道德上的重要性。d道德承受體最重要的特征是,它們沒有能力進行道德慎思,不能做出符合道德要求的選擇,但是它們有資格獲得道德關(guān)懷。如果說道德行為體是道德的生產(chǎn)者與提供者(moral producer),那么,道德承受體就是道德的接受者(moral receiver)與消費者(moral consumer)。

很明顯,道德承受體的范圍要大于道德行為體。所有的道德行為體都是道德承受體,但是,并非所有的道德承受體都是道德行為體。同時,所有的人都是道德承受體,但是,只有那些具有正常思維能力的成年人才是完全的道德行為體,才需要對其行為承擔全部道德責任。有些人(如青少年)是不完全的道德行為體,只對其行為承擔部分道德責任。有些人(如嬰兒、智障人士)則不是道德行為體,不對其行為承擔道德責任;他們是無需提供道德服務(wù),但卻有資格享有道德服務(wù)的道德承受 體。

人之外的存在物是否享有作為道德承受體的道德地位?這是隨著當代環(huán)境倫理學的深入發(fā)展才逐漸變得明晰起來的問題。根據(jù)當代環(huán)境倫理學的研究,幾乎所有重要的宗教倫理學對這一問題的回答都是肯定的?;浇獭ⅹq太教、伊斯蘭教、佛教等宗教至少都從神學的角度為某些動物、植物或天使(天神)的道德承受體地位提供了某些證明?,F(xiàn)代世俗倫理學已經(jīng)達成的一個基本共識是:具有苦樂感受能力的動物也是道德承受體,人類對它們的行為需要接受道德的約束。高等動物的這種道德承受體地位還在相關(guān)的動物保護法,尤其是動物福利法中得到了確 認。

因此,某些非人類存在物有資格享有作為道德承受體的道德地位。那么,人之外的存在物(不論是自然存在物還是人工存在物)是否也有資格享有作為道德行為體的道德地位呢?這取決于我們?nèi)绾卫斫庀碛凶鳛榈赖滦袨轶w地位的必要條件。毫無疑問,要成為道德行為體,至少要具備理解道德原則的能力與根據(jù)道德原則調(diào)節(jié)自己行為的能力。但是,是否還需要其他條件,如自由意志、自我意識、意圖等,學術(shù)界則存在爭議。aJohn Basl,“Machines as Moral Patients We Shouldn’t Care about(yet):The Interests and Welfare of Current Machine”.

在討論機器人的道德地位時,我們需要明確區(qū)分機器人的兩種不同道德地位:作為道德行為體的機器人與作為道德承受體的機器人。人類與這兩類具有不同道德地位的機器人之間的倫理關(guān)系是有區(qū)別的。本文接下來的部分將分別探討機器人享有道德承受體地位的理據(jù)及其規(guī)范意 蘊。

二、作為moral patient 的機器人:終極關(guān)懷層面的理據(jù)

如前所述,當代學術(shù)界關(guān)于道德行為體與道德承受體的概念區(qū)分(特別是關(guān)于道德承受體之范圍的擴展),是隨著當代環(huán)境倫理學關(guān)于人對人之外的非人類存在物的道德義務(wù)的探討而逐漸進入人們的學術(shù)視野的。近現(xiàn)代西方的主流倫理學(尤其是康德的倫理學)的一個未明言的前提是,只有人類才享有道德地位,才有資格獲得道德關(guān)懷。主流倫理學在人類那里尋找到許多獨特的屬性(properties)——諸如人能夠感受苦樂、使用語言、擁有理性、從事道德推理,等等——來為人類的這種獨特的道德地位提供辯護。然而,要在人類身上尋找到某種所有的人類個體都擁有、人類之外的任何自然存在物都不擁有的屬性是不可能的。有些屬性(感受苦樂)雖然所有的人類個體都擁有,但是,人類之外的其他高等動物也擁有;有些屬性(道德推理能力)雖然只有人類擁有,人類之外的其他自然存在物不擁有,但是,并非每一個人類個體(如嬰兒、嚴重智障人士、精神病患者、植物人等)都擁有。a羅爾斯頓:《環(huán)境倫理學:大自然的價值以及人對大自然的義務(wù)》,楊通進譯,北京:中國社會科學出版社2000 年版,第85—105 頁。因此,即使是在人類內(nèi)部,也并非每一個人都具備作為道德行為體的道德地位(如嬰兒與嚴重智障人士)。但是,我們不能因為一個人不是道德行為體、不能履行道德義務(wù)就否認他享有作為道德承受體的道德地位。這些缺乏道德理性(或只具備部分道德理性)的人之所以享有道德承受體之道德地位、有資格獲得道德行為體的道德關(guān)懷,乃是由于他們能夠感受苦樂,或擁有自己的利益,或是道德共同體的成員。因此,當代環(huán)境倫理學擴展了道德承受體的范圍,使道德行為體的道德關(guān)懷對象從人擴展到了人之外的動物(動物解放/權(quán)利論)、植物(生物中心主義)乃至作為整體的生態(tài)系統(tǒng)(生態(tài)中心主義)。b參見溫茨:《現(xiàn)代環(huán)境倫理》,宋玉波、朱丹瓊譯,上海:上海人民出版社2007 年版;Louis Pojman,Global Environmental Ethics,Mountain View,CA.:Mayfield Publishing Company,2000.

當代環(huán)境倫理學對人之外的自然存在物之道德承受體地位的確認,為當代機器(人)倫理學繼續(xù)擴展道德關(guān)懷之范圍、確認機器(人)之道德承受體地位提供了必要的“智識橋梁”。依據(jù)當代環(huán)境倫理學與機器(人)倫理學的研究成果,我們至少可以從兩個層面(終極關(guān)懷層面與規(guī)范共識層面)為機器人的道德承受體地位提供辯 護。

世界上存在著許多關(guān)于世界的本源與本質(zhì)、人性、生活的目的與意義的系統(tǒng)化的學理體系,即系統(tǒng)化的哲學與宗教,羅爾斯稱之為完備性學說(comprehensive dorctrines)。任何一種理性化了的完備性學說至少包含兩個層面的內(nèi)容,即終極關(guān)懷層面的學說與公共規(guī)范層面的學說。終極關(guān)懷層面的學說涉及人們對生活的意義與世界的終極實在的理解,它們往往以某種歷史悠久的文化傳統(tǒng)和宗教信仰的形態(tài)表現(xiàn)出來。它們?yōu)槿藗兘?gòu)并理解人與世界的關(guān)系,以及人生的目的與意義提供基本的框架與參照系統(tǒng)。限于篇幅,本文僅簡單探討基督教、佛教與儒家思想從終極關(guān)懷層面對于機器人之道德承受體地位所可能提供的辯護思 路。

(一) 上帝與機器人

“人們通常認為,基督教對技術(shù)持一種反對的態(tài)度。但是,實際情況并未總是如此?!眂Gabriele Trovato,Loys De Saint Chamas,et al.,“Religion and Robots:Toward the Synthesis of Two Extreme”,in International Journal of Social Robots(May 2019). https://doi.org/10.1007/s12369-019-00553-8.在中世紀,天主教是永動機(a羅爾斯頓:《環(huán)境倫理學:大自然的價值以及人對大自然的義務(wù)》,楊通進譯,北京:中國社會科學出版社2000 年版,第85—105 頁。utomata)研制計劃的主要資助者,并設(shè)計和制造了機械化的天使與能夠噴火的魔鬼。aJessica Riskin,The Restless Clock:A History of the Centuries-long Argument over What Makes Living Things Tick,Chicago:University of Chicago Press,2016.16 世紀,教廷還制造了一個能夠敲鐘的機械化的修道士(monk),獻給西班牙的菲利普二世。這個機械修道士可被視為最早的“牧師機器人”,他的外表形象是圣迭戈(San Diego),木質(zhì)結(jié)構(gòu),能夠做出祈禱等動作。bJessica Riskin,“Machines in the Garden”,in Mario Biagioli and Jessica Riskin(eds.),Nature engaged:Science in Practice from the Renaissance to the Present,Washington:Palgrave Macmillan US,2012,pp.229—248.中世紀基督教的這類實踐為基督教參與當代的“機器人文化”建設(shè)提供了重要的思想資源。在基督教的話語體系里,我們至少可以發(fā)現(xiàn)三種認可機器人道德承受體之道德地位的思 路。

1. 生態(tài)神學進路(ecotheology approach)

在價值觀層面,傳統(tǒng)的主流基督教雖然是人類中心主義的,但是,基于其潛在的“上帝中心主義”背景,當現(xiàn)代環(huán)境倫理學對人類中心主義發(fā)起挑戰(zhàn)時,現(xiàn)代基督教很快就從生態(tài)神學的角度做出了回應(yīng)。在生態(tài)神學家看來,上帝關(guān)懷“自然中的所有事物,有生命和無生命的,人類和人類之外的,動物和植物,枯枝,空氣,水,巖石:一切事物”c轉(zhuǎn)引自納什:《大自然的權(quán)利:環(huán)境倫理學史》,楊通進譯,青島:青島出版社1999 年版,第121 頁。。上帝的目的是拯救整個宇宙;不僅人的靈魂,所有的事物都是上帝拯救的潛在對象;甚至原子與離子也屬于獲救者的行列。d同上書,第119、130—131 頁。因此,“人們?nèi)绻麣缁驈母旧细淖兞藥r石、樹木、空氣、水、土地、動物的存在狀態(tài),那他們就是超越了其神圣權(quán)利的界限——就如同他們謀殺其同胞時那樣”e轉(zhuǎn)引自納什:《大自然的權(quán)利》,第131 頁。。

與傳統(tǒng)的神學相比,生態(tài)神學有兩個相當引人注目的特點。第一,人們對人類之外的存在物的行為受到某些倫理原則的約束;換言之,上帝創(chuàng)造的人類之外的存在物都擁有內(nèi)在價值,享有道德承受體的道德地位。第二,生態(tài)神學把枯枝、巖石、空氣、水、土地等無生物也納入了道德承受體的范圍。既然枯枝等無生物都是人類道德關(guān)懷的對象,那么,把在外貌、信息交流、行為方式,甚至情感表現(xiàn)等方面都與人非常接近的機器人納入道德關(guān)懷的范圍并接受其道德承受體的道德地位,在邏輯上就不會存在太大的障礙。事實上,根據(jù)當代過程神學與萬有在神論的觀點,世界在上帝之中,同時,上帝也在世界之中;上帝既超越世界又內(nèi)在于世界;“上帝不呈現(xiàn)之處無物存在”f黃銘:《過程思想及其后現(xiàn)代效應(yīng)——科布神學思想研究》,北京:宗教文化出版社2010 年版,第82 頁。。如果我們把機器人理解為萬物之一,那么,上帝的神性當然也應(yīng)當在機器人之中;上帝不在機器人之中,機器人也不會存在。此外,如果我們把人的理性理解為上帝的理性的延伸,那么,我們也可以把機器人理解為是上帝通過人的理性間接地創(chuàng)造出來的。這樣一來,也可以說,在終極意義上,機器人是上帝創(chuàng)造 的。

2. 邏各斯神學進路(logos theology approach)

傳統(tǒng)的基督教認為,人是由肉體與靈魂兩部分構(gòu)成的。肉體與靈魂是兩種完全不同的實體。肉體有生有滅,靈魂則是永恒的。靈魂被植入肉體中,但人死后靈魂就脫離肉體繼續(xù)存在下去。靈魂是使所有的生命(不管是人、動物還是植物)具有活力、成為生命的依據(jù)。根據(jù)正統(tǒng)的基督教神學,我們似乎很難把基督教的肉體與靈魂理論擴展應(yīng)用于機器人,因為,機器人的肉體是機器,而非有機的生命形式,無法作為接納靈魂的物質(zhì)基 礎(chǔ)。

盡管如此,在基督教中還是存在著另一種神學傳統(tǒng),即約翰的邏各斯神學(Johannine logos theology),這種神學能夠?qū)C器人革命作出積極的回應(yīng)。這種神學把邏各斯(logos)或“道”(the Word)視為世界的本源;《新約·圣經(jīng)》的《約翰福音》開篇即宣稱:“太初有道(the Word),道與神同在,道就是神?!庇械膶W者把這里的“道”理解為logos,并依據(jù)希臘哲學家赫拉克利特(前535—前475)的學說,把logos理解為理性。logos 不僅創(chuàng)造了一個智能的宇宙,還是宇宙運行的原理。aVladimir de Beer,“The Cosmic Role of the Logos,as Conceived from Heraclitus until Eriugena”,Philosophy & Theology,Vol.27,No.1,2015,pp.3—24.根據(jù)《新約》的經(jīng)文,“l(fā)ogos 被認同為耶穌基督”bJames McBride,“Robotic Bodies and the Kairos of Humanoid Theologies”,SOPHIA(2017),https:// doi.org/ 10.1007/s11841-017-0628-3.。這樣一來,我們就可以把機器人的源代碼視為logos 的一部分,視為理性的延伸?!盎浇探虝某蓡T應(yīng)當與他們的護理機器人、看護機器人或伴侶機器人肩并肩地共同敬畏logos——一種神性的算法(divine algorithm),它彌漫在他們的世界中,即人的世界與數(shù)字世界中?!眂Ibid.還有的學者認為,基督教視域中的“肉體”(flesh)一詞可以適當?shù)財U展,使之“包括有機體之外的其他種類的物質(zhì)”,從而把人體與機器人的軀體也視為可接納logos 的物質(zhì)。dGábor Ambrus,“In the Beginning Was the Word:Theological Reflections on Language and Technical Media in the Context of the Gospel of John”,Acta Universitatis Carolinae Theologica,Vol.6,No.2,2017,pp.135—151.總之,根據(jù)邏各斯神學進路,我們可以把神理解為“道”,把“道”理解為邏各斯,把邏各斯理解為算法,并把肉體的范圍加以擴展,從而實現(xiàn)人與機器人的認同與統(tǒng) 一。

3. 啟示論人工智能進路(apocalyptic AI approach)

根據(jù)基督教的啟示論,人類生活于其中的充滿了苦難歷史的世界將隨著彌賽亞的降臨而終結(jié),那時,所有信仰上帝的人都將復活,在至福狀態(tài)中生活一千年,然后升入永恒的天國,永享完美的幸福。當然,為了升入天國,每個人都需要一個新的身體;這個身體是由上帝提供的完美的身體;這個身體是永恒的、不朽的。先知以賽亞告訴世人,上帝將“造新天新地”(《舊約·以賽亞書》76:17)。使徒保羅宣稱:“血肉之軀不能承受神的國,必朽壞的不能承受不朽壞的……死人要復活,成為不朽壞的,我們也要改變?!保ā缎录s·哥林多前書》15:50、52)

沿著啟示論的思路,一些著作家與神學家認為,以生物有機體形式存在著的人類有著極大的局限性,如較短的生命周期,力量與忍耐力也非常有限;被局限在身體中的心靈艱難地學習,緩慢地思考,知識的傳遞有缺陷,記憶不僅有限,還往往不準確。隨著機器人技術(shù)、納米技術(shù)與基因工程技術(shù)的聚合,人類將研制出完美的機器人(類似于上帝提供給人類的新的完美身體);那時,人們的意識將被下載并存儲在機器人中。人就是他/她自己的意識;一旦這種意識被在不同的機器之間拷貝與復制,人不僅將克服作為生物物種的人類的所有局限,而且還變成了真正不朽的存在。那時,人就是機器人,機器人就是人;人與機器人之間的界限完全消失。aRobert Geraci,“Apocalyptic AI:Religion and the Promise of Artificial Intelligence”,Journal of the American Academy of Religion,Vol. 76,No. 1,2008,pp.138—166.總之,通過認同于具有全新形態(tài)與能力的智能機器人,啟示論人工智能論者不僅實現(xiàn)了人與機器人的統(tǒng)一,還把機器人視為超越并替代生物學人類的新人類/后人類/超人類 物 種。

(二) 佛與機器人

在佛教的話語體系中,某種類似于萬有在神論的“佛性遍在說”可以為機器人之道德承受體地位提供支持。根據(jù)佛性遍在說,萬物皆有佛性。《金剛經(jīng)》明言:“萬法是真如,真如是萬法”;“真佛體在一切法”;“我及眾生皆有此性故名佛性,其性遍造、遍變、遍攝?!蔽覈炫_宗的湛然大師(711—782)也明確指出,“無情有性”,即不僅有情識的動物擁有佛性,沒有情識的植物、無機物、山川、草木、大地、瓦石等也具有佛性。中國的禪宗強調(diào),“郁郁黃花無非般若,青青翠竹皆是法身”。日本的禪宗亦認為:“山脈和河流,石頭與樹木,花與鳥全都具有開悟以及一起踏上成佛之路的潛質(zhì)……自然本身就是佛?!眀史蒂夫·奧?。骸度毡救擞嘘P(guān)環(huán)境倫理的自然觀與奧爾多·利奧波德的環(huán)保美學》,載安樂哲等主編:《佛教與生態(tài)》,何則明等譯,南京:江蘇教育出版社2008 年版,第92—108 頁,引文見第105 頁。同時,佛教承諾的是一種整體主義的本體論與宇宙論,認為每一個微小的事物中都完整地包含著大千世界的本質(zhì)、本性,極其微小的芥子、毛孔與無限的宇宙是相互含攝的。c魏德東:《佛教的生態(tài)觀》,載《中國社會科學》1999 年第5 期。

根據(jù)佛教的上述觀點,作為萬法之一的機器人無疑也具有佛性。曾提出“恐怖谷理論”的日本機器人工程師森政弘(Masahiro Mori)也認為,機器人不僅內(nèi)在地就擁有佛性(Buddha-nature),而且還擁有成為佛的潛能。dMasahiro Mori,The Buddha in the Robot :A Robot Engineer’s Thoughts on Science and Religion,Tokyo:Kosei Publishing Company,1989.此外,有學者把佛教“八識”中的最后一“識”即“阿賴耶識”理解為一種獨立的精神本體,某種可以持續(xù)的意識狀態(tài),它先于個人的出生而存在,在人出生的時候進入人體,在人們死亡的時候又離開死者的身體。aLaurence Tamatea,“Online Buddhist and Christian Responses to Artificial Intelligence”,Zygon,Vol.45,No.4,2010,pp.979—1002.如此一來,佛教徒就可以宣稱,人工智能技術(shù)也“可以把那種意識儲存在無生命的客體中,而不是僅限于儲存在有機體上;這種觀點與基督教的下述觀點并無多大區(qū)別:上帝(作為圣靈)寄居在所有的事物甚至餐具中”bNoreen Herzfeld,In Our Image:Artificial Intelligence and the Human Spirit,Minneapolis:Fortress,2002,p.90.。既然機器人擁有佛性,它們當然就享有佛性擁有者的道德地位(至少是作為慈悲與憐憫的對 象)。

(三) 儒家視野中的機器人

儒家思想強調(diào)人在天地萬物中的特殊地位,強調(diào)人是道德價值的踐行者與維護者。但是,儒家并不是狹隘的人類中心主義者。儒家強調(diào)“人禽之辨”,主要是為了凸顯人作為道德行為體的地位,并不是為了把動物當成單純的工具來對待;相反,儒家強調(diào)人要對動物有憐憫之心。換言之,儒家在凸顯人作為道德行為體之道德地位的同時,并不否認動物作為道德承受體之道德地 位。

事實上,儒家不僅要求人要憐憫動物,而且要求人成為“天民”,即把人當作宇宙中唯一的道德物種來定位,并要求人自覺地承擔起對宇宙萬物的關(guān)懷與看護義務(wù)。孟子要求人“上下與天地同流”?!吨杏埂芬笕恕俺杉撼晌铩?,“贊天地之化育”。王陽明在總結(jié)儒家“萬物一體說”的基礎(chǔ)上明確指出,“大人者,以天地萬物為一體者也”,人的“休惕惻隱之心”不僅要擴展到其他人身上,還要擴展到“鳥獸”“草木”與“瓦石”身上。真正有道德的人對鳥獸要有“不忍之心”,對草木要有“憐憫之心”,對瓦石要有“顧惜之心”?!熬家玻驄D也,朋友也,以至于山川鬼神鳥獸草木也,莫不實有以親之,以達吾一體之仁,然后吾之明德始無不明,而真能以天地萬物為一體矣?!眂《王陽明全集》,上海:上海古籍出版社1992 年版,第968、969 頁。既然山川、草木、瓦石等無機物都可以成為人類仁愛關(guān)懷的對象,享有道德承受體的地位,那么,對儒家來說,把這種仁愛關(guān)懷擴展到在很多方面都與人相似或相同的機器人身上,并使后者享有道德承受體的道德地位,就不應(yīng)該存在任何邏輯上的困 難。

三、作為moral patient 的機器人:公共規(guī)范層面的理據(jù)

不同的完備性學說在終極關(guān)懷層面存在著相當大的差距。一種完備性學說的信奉者往往難以接受或理解另一種完備性學說的終極關(guān)懷理念。但是,在公共規(guī)范層面,不同的完備性學說之間卻存在許多共識,因為公共規(guī)范涉及的是公共生活的基本規(guī)范、理想的社會制度、相互交往的基本原則等。而這些規(guī)范是每一個社會的人們都需要的。由于人們的公共生活存在許多共同性,因而,不同文化與信念傳統(tǒng)的人們也會遵循許多大致相同的規(guī)范(如尊敬老人、不傷害他人、反對殺人與偷盜等)也就不足為怪了。隨著不同文化傳統(tǒng)的人們之間在政治、經(jīng)濟與文化方面的交往在全球?qū)用嫒找嫔钊?,人們在全球?qū)用孢_成的公共規(guī)范也在日益增加。因而,前述關(guān)于機器人之道德承受體地位的終極關(guān)懷層面的理據(jù),雖然往往只對特定完備性學說的信奉者有效,但是,在公共規(guī)范層面,我們還可以發(fā)現(xiàn)許多支持機器人之道德承受體地位的理據(jù)。這些理據(jù)能夠獲得不同完備性學說之信奉者的認可與接受,或者他們至少難以合理地加以拒 斥。

(一) 間接理據(jù)

所有文明的現(xiàn)代社會都反對虐待動物。一些人把反對虐待動物視為人對動物負有的一種直接義務(wù)。例如,根據(jù)功利主義學說,凡帶來痛苦的行為就是惡的,帶來快樂的行為就是善的;動物能夠感受苦樂,因而給動物帶來痛苦的行為就是惡的或錯誤的。a辛格:《所有動物都是平等的》,江埡譯,載《哲學譯叢》1994 年第5 期;另載楊通進、高予遠主編:《現(xiàn)代文明的生態(tài)轉(zhuǎn)向》,重慶:重慶出版社2007 年版,第154—166 頁。當然,更多的人是從間接義務(wù)論的角度來論證不虐待動物的義務(wù),即我們不傷害動物不是因為傷害動物本身是錯誤的,而是因為對動物的傷害會導致對他人的傷害,而傷害他人是錯誤的。阿奎那(1225—1274)較早地表達了這種觀點:“基督教的任何教義看起來都禁止我們?nèi)埲痰貙Υ切┎荒荛_口說話的動物,比如,禁止殺死幼鳥;這或者是因為人們會把這種思維轉(zhuǎn)移到殘忍地對待其他的人——既然會對動物殘忍,也就會對他人殘忍;或者是因為對動物的傷害會導致對他人的現(xiàn)世傷害——或是實施行為,或是其他暴行。”b阿奎那:《理性生物與無理性生物的差別》,載辛格、雷根編:《動物權(quán)利與人類義務(wù)》,曾建平、代峰譯,北京:北京大學出版社2010 年版,第7—10 頁,引文見第10 頁。阿奎那的這兩個理由其實可以歸結(jié)為一個理由,即對動物的殘忍會導致對他人的傷害??档乱裁鞔_提出了類似的觀點,“對動物殘忍的人在處理他的人際關(guān)系時也會對他人殘忍。我們可以通過一個人對待動物的方式來判斷他的心腸是好是壞?!眂康德:《對于動物的責任》,載辛格、雷根編:《動物權(quán)利與人類義務(wù)》,第25 頁。

根據(jù)上述思路,我們完全可以推出相似的結(jié)論:我們擁有不虐待機器人的義務(wù),因為,對機器人的虐待行為會導致我們虐待其他人。人們對網(wǎng)絡(luò)暴力游戲的一個普遍擔憂是,這種游戲會讓游戲者養(yǎng)成“暴力思維”的習慣,并對現(xiàn)實中的暴力行為變得麻木不仁。網(wǎng)絡(luò)游戲中的暴力還只是一種“虛擬的暴力”??墒?,如果人們在現(xiàn)實生活中以虐待機器人為樂,那么,這種虐待就不是一種“虛擬的虐待”,而是“實實在在的虐待”,是對虐待行為的實施、練習與強化。如果網(wǎng)絡(luò)中的“虛擬暴力”都值得我們擔憂,那么,人機交往中的這種“真實的虐待”就更值得我們擔憂。因此,為了使人們避免養(yǎng)成虐待他人的思維方式與行為習慣,我們必須禁止對機器人的虐待行 為。

人們或許會辯解說,如果我是單身,我購買了一位伴侶機器人,他/她永遠都只在我的私人空間(我的私人住宅)中與我交往,只是我的私人財產(chǎn)。我與他/她的關(guān)系只涉及我自己,不涉及任何第三者。根據(jù)密爾的自由原則,我的行為中只有涉及他人的部分,才需要遵循相關(guān)的社會規(guī)范。我與我的機器人的關(guān)系,完全不涉及他人。因此,我想如何與我的機器人相處,社會完全無權(quán)干預(yù)。一般來說,密爾的自由原則是無可非議的。但是,對自由原則的運用并非毫無邊界。首先,這一原則不適用于兒童。就像我們對兒童的個人自由施加某些限制那樣,我們也可以對人們虐待機器人的個人自由施加某些限制。其次,即使在一個自由至上的社會中,人們也會認為某些行為是不可接受的,即使這些行為發(fā)生在私人空間,如某些性行為。最后,哪怕是絕對的私人財產(chǎn),我們也有義務(wù)不予浪費;地球上的資源是有限的;揮霍財富無異于揮霍地球上的有限資源;因此,哪怕是虐待作為財產(chǎn)的機器人也屬于暴殄天物的不當行為。更何況,智能機器人不是椅子、桌子那樣的私人財產(chǎn),它們有著人的外表與行為方式。同時,它們的運行依賴強大的公共網(wǎng)絡(luò)與云數(shù)據(jù)系統(tǒng);每一臺智能機器人都與公共網(wǎng)絡(luò)系統(tǒng)保持著緊密的海量數(shù)據(jù)聯(lián)系,它們在某種意義上已然構(gòu)成公共網(wǎng)絡(luò)系統(tǒng)的一部分,屬于社會公共資源的一部分。因此,智能機器人已經(jīng)不屬于傳統(tǒng)意義上的私人財產(chǎn);用戶對其擁有的智能機器人的自由行為不受密爾的個人絕對自由原則的保護?!八?,即使對最為寬容的社會來說,對虐待機器人的行為施加某些限制也是言之成理的。”aBlay Whitby,“Sometimes It’s Hard to be a Robot:A Call for Action on the Ethics of Abusing Artificial Agents”,Interacting with Computers,Vol.20,No.3,2008,pp.326—333.

(二) 自我建構(gòu)理據(jù)

康德雖然主張,“我們對于動物的責任僅僅是我們對于人類的間接責任”,但是,在論證這一觀點時,除了訴諸對他人的傷害理據(jù),他還指出,履行對動物的義務(wù),是我們的人性的展現(xiàn)。如果一條狗長期服務(wù)于它的主人,那么,“當這條狗老了不能再為它的主人服務(wù)時,它的主人應(yīng)該照顧它,直到它死去”。相反,“如果一個人因為他的狗沒有能力再為它服務(wù)而把它給殺了……[那么,]他的行為就是不人道的,是對他自身的人性的損害,而他有義務(wù)向他人展現(xiàn)出這種人性”b康德:《對于動物的責任》,載辛格、雷根編:《動物權(quán)利與人類義務(wù)》,第25 頁,譯文略有改動。。在這里,不承擔對動物的義務(wù)的行為所涉及的,就不是對他人的間接傷害,而是對人性本身的損害。所以,康德實際上是把關(guān)心動物當作人性的內(nèi)在要素加以理解和建構(gòu)的。換言之,一個正常的理性的人必須要把對動物的關(guān)懷當作一種直接的義務(wù)來認可與承諾。這關(guān)乎的不僅僅是動物的“應(yīng)得”,更關(guān)乎人性的完整。關(guān)心動物是人性的內(nèi)在情感,一個人如果“不想扼殺他的人性情感(human feelings),他就必須要以仁慈(kindness)的方式對待動物”a康德:《對于動物的責任》,載辛格、雷根編:《動物權(quán)利與人類義務(wù)》,第25 頁,(譯文略有改動)。。同理,如果人們虐待為他們提供服務(wù)、能夠與他們交流、并能遵循人類行為規(guī)范的機器人,那么,這也是對人們的人性的一種損害。以這樣一種形象展現(xiàn)在他人與機器人面前的人,建構(gòu)與認可的是一種有缺陷的、不完美的人 格。

英國學者布里森認為,機器人應(yīng)當是奴隸,即人類的仆人;它們應(yīng)當被制造、被營銷,并在法律上被當作奴隸來對待。bJoanna Bryson and Philip Kime,“Just a Machine:Why Machines Are Perceived as Moral Agents”,Proceedings of the Twenty-Second International Joint Conference on Artificial Intelligence,Barcelona:Spain,2011,pp.1641—1646;Joanna Bryson,“Robots Should be Slaves”,in Yorick Wilks(ed.),Close Engagements with Artificial Companions:Key Social,Psychological,Ethical and Design Issues,Amsterdam,The Netherlands:John Benjamins Publishing Company,2010,pp.63—74.根據(jù)前述康德關(guān)于人類自我建構(gòu)的觀點,布里森此處論點的錯誤之處在于,通過把機器人建構(gòu)為人類的奴隸,布里森建構(gòu)了一個錯誤的人類自我,即作為奴隸主的人類自我;布里森把奴隸主的屬性建構(gòu)成了人性的內(nèi)在要素。奴隸主擁有的是一種等級性的、壓迫性的、傲慢性的人格特征。如果人們在與機器人交往時展現(xiàn)的是這樣一些人格特征,那么,我們由此建構(gòu)的就是一個具有嚴重缺陷的人性概念。要想把人類建構(gòu)成一個理性的、有美德的道德物種,我們就不應(yīng)當把在外表與行為等方面都與人相似的機器人當作奴隸來對待。我們的心靈不可能被“分區(qū)”為兩個互不影響的“磁盤”:一個“磁盤”按照平等公民的邏輯運行,另一個“磁盤”按照主人—奴隸的邏輯運行。因此,我們在虐待機器人時,所傷害的就不僅僅是機器人,我們還扭曲了自己的人格,減損了人性本身的光 輝。

(三) 行為主義理據(jù)

康德在討論人對動物的義務(wù)時曾提到,一條狗對它的主人提供的服務(wù),類似于人的服務(wù);這條狗的服務(wù)應(yīng)當?shù)玫交貓?,即“當這條狗老了不能再為它的主人服務(wù)時,它的主人應(yīng)該照顧它,直到它死去”??档逻@里提到的實際上是人與動物之間的相互性或互惠性(reciprocity)。在實際的生活中,我們都會對那些長期為我們提供服務(wù)的家畜或伴侶動物抱有某種感情;我們會把它們當作值得我們從道德上加以關(guān)懷的對象來對待;人們還會為那些“義犬”“勇敢的戰(zhàn)馬”等樹碑立傳。機器人給我們提供的服務(wù)無疑比這些動物還要周到細致,而且,它們還能遵循人類交往的基本禮儀與道德規(guī)范。根據(jù)康德的相互性理念,機器人享有的道德地位不應(yīng)比動物更 低。

人們可能會說,機器人即使遵循了人類的道德原則,它們也不是道德行為體,因為它們并不理解那些道德原則的內(nèi)容,而且,它們并不是在依據(jù)道德原則行事,而是按照事先編程的軟件系統(tǒng)在運行。這里涉及幾個目前正在展開的理論爭論。首先,現(xiàn)代倫理學在評價一個行為或政策(以及法律或制度安排)的道德價值時,大多采取后果主義立場,即更多地關(guān)注行為的后果,而不去追問行為主體的內(nèi)在動機或主觀意愿。例如,在依據(jù)“不傷害原則”來評價一個行為或制度安排的道德價值時,人們主要關(guān)注的是是否有傷害的后果發(fā)生,是否有人遭受了實際的傷害。其次,自然人的主觀動機比較容易識別,但是,法人(如公司,以及各類政府與非政府組織)的動機卻難以確定;法人沒有自然人那樣的中樞神經(jīng)系統(tǒng);法人本身沒有苦樂感受的能力。在對法人的行為或決策進行道德評價時,我們主要根據(jù)該行為或決策是否符合或遵循了大多數(shù)人所認可的原則或價值,是促進還是傷害了相關(guān)主體的合法利益。再次,根據(jù)行為主義理論,我們無法直接把握人們的主觀動機與內(nèi)在想法,只能通過其外在行為來推論其主觀動機;我們無法在人們的外在行為與其主觀動機之間做出截然的區(qū)分。因此,在操作的意義上,我們可以把人或機器人的外在行為等同于其內(nèi)在動機。在評價機器人行為的道德價值時,我們只需關(guān)注其行為的后果,無需追問機器人的主觀動機。最后,一個合理的決定論與道德生活是相容的。蘇格拉底曾說,無人有意作惡;人們之所以作惡,乃是由于他們不知道什么是善。知識即道德,所以,美德是可學的。換句話說,人們之所以做出了符合道德的行為,乃是由于他們能夠認知和把握道德的具體要求,他們獲得了做出正確決策所需的正確的信息;更重要的是,他們養(yǎng)成了正確的思維方式,而這種正確的思維方式又是由他們過往生活所發(fā)生的各種內(nèi)外因素模塑而形成的。因此,蘇格拉底實際上是把道德實踐問題變成了知識與推理問題,把正確的道德選擇視為正確的知識、完備的信息與正確的推理模式相結(jié)合的結(jié)果。只要人們的道德推理模式是正確的,那么,從正確的大前提(正確的道德原則)出發(fā),加上特定選擇環(huán)境所需的完備的信息,我們就能推出特定環(huán)境中的正確道德決策。所以,從決定論的角度看,人的道德決策與機器人的道德決策之間的區(qū)別并沒有人們想象的那樣大。當代的機器倫理學實際上正是從這種決定論的角度來理解、設(shè)計與制造“道德機器人”的。總之,從行為主義的角度看,只要機器人做出了與人大致相當?shù)男袨?,我們就?yīng)當把機器人視為與人大致相當?shù)闹黧w來對待。有的學者甚至認為:“如果某個行為體在行走、交談與行為方式方面都足夠與我相似,那么,我即使不能合理地認為它擁有心靈(mind),我也有義務(wù)把它當作它好像是道德行為體那樣來對待?!盿Kenneth Himma,“Artificial Agency,Consciousness,and the Criteria for Moral Agency:What Properties Must an Artificial Agent Have to be a Moral Agent?”,Ethics and Information Technology,Vol.11,No.1,2009,pp.19—29.

(四) 人機共同體理據(jù)

當代機器人倫理學的一個爭議熱點是,我們是否應(yīng)當研制性愛機器人(sex robots)。美國學者勒維在2008 年曾著書預(yù)言,2050 年左右,人們不僅能與機器人做愛,他們還想與機器人結(jié)婚,與機器人保持浪漫的伴侶關(guān)系。bDavid Levy,Love and Sex with Robots,New York:Harper Perennial,2008.反對性愛機器人的英國學者理查森認為,研制性愛機器人有物化女性與兒童的嫌疑;性愛機器人都是“性愛活動”的被動接受者,因而對性愛機器人的使用和消費會助長人類的性虐待行為,長此以往會使人們對其性伴侶失去同情心;使用和消費性愛機器人會導致性交易的泛濫,進而對人與人之間的關(guān)系產(chǎn)生負面影響。aKathleen Richardson,“The Assymmetrical Relationship:Parallels between Prostitution and the Development of Sex Robots”,Acm Sigcas Computers and Society,Vol.45,No.3,2015,pp.290—293.此外,目前所研發(fā)的性愛機器人缺乏“知情同意”的程序設(shè)置。在這種情況下,人們對性愛機器人的使用與消費不僅帶有“強奸”的色彩,而且還會扭曲許多人的心靈,使他們誤以為在與潛在的人類性伴侶發(fā)生性行為時,后者的知情同意可有可無。bSinziana Gutiu,“The Robotization of Consent”,In Ryan Calo R et al eds.,Robot law,Northampton,MA.:Edward Elgar Publishing,2016,pp.186—212.

那么,我們應(yīng)當如何對待包括性愛機器人在內(nèi)的社會機器人(如護理機器人、助理機器人,以及具有多種功能的全能機器人)?它們僅僅是一個物品嗎?這些社會機器人實際上都扮演著某些社會角色。我們與它們實際上構(gòu)成了一種新的共同體——人機共同體。我們每一個人雖然都同時生活在多種不同的共同體中,在不同共同體中扮演不同的角色,發(fā)揮不同的作用。但是,我們都屬于同一個倫理共同體;作為道德行為體,我們在與共同體中的其他成員交往時一定要接受某些倫理原則的約束。例如,我們在與作為倫理共同體之成員的其他性伴侶(不管是自然人還是機器人)發(fā)生性行為時必須要征得對方的同意。我們不能把性愛機器人僅僅當成物品來對待。倫理共同體不能接受任何包含“強奸文化”的要素;我們的倫理共同體也不能接納這樣的新成員,人們在與這些新成員發(fā)生性行為時可以不征求它們的知情同意。我們期望建立和維護的是這樣一種共同體,這個共同體奉行的文化是,在與性伴侶發(fā)生性行為時,必須要征得對方的知情同意。cLily Frank and Sven Nyholm,“Robot Sex and Consent:Is Consent to Sex between a Robot and a Human Conceivable,Possible,and Desirable?”,Artificial Intelligence and Law,Vol.25,No.1,2017,pp.305—323.

很顯然,作為理性的成熟的道德行為體,我們必須要認可和接受性愛機器人的道德承受體地位。否則,我們的共同體就必須接受某種“強奸文化”。在這種文化中,作為性別歧視主義的態(tài)度、制度與行為模式的結(jié)果,非知情同意的性活動變得常態(tài)化,或得到明顯的或潛在的認可。如果我們無法否認性愛機器人的道德承受體地位,那么,我們同樣無法否認護理機器人、看護機器人、助理機器人、演藝機器人等社會機器人的道德承受體地位。我們與這些社會機器人所建立的共同體同樣屬于倫理共同體;這樣的倫理共同體不能奉行否認其他成員之道德承受體地位的倫理歧視主義的文 化。

(五) 潛在道德行為體理據(jù)

艾倫等人認為:“研發(fā)人工道德行為體(AMAs)的終極目標應(yīng)當是制造道德上值得稱贊的行為體?!盿Colin Allen,Gary Varner and Jason Zinser,“Prolegomena to Any Future Artificial Moral Agent”,Journal of Experimental and Theoretical Artificial Intelligence,Vol.12,No.3,2000,pp.251—261.安德森亦指出,機器倫理學的核心目標是制造自主的道德機器。bSusan Leigh Anderson,“Machine Metaethics”,in Michael Anderson and Susan Leigh Anderson eds.,Machine Ethics,Cambridge,UK:Cambridge University Press,2011,pp.21—27.事實上,人工智能與機器人倫理學的主流聲音是,“AMAs 是必須的也是必然的”c瓦拉赫、艾倫:《道道機器:如何讓機器人明辨是非》,第33 頁。。因此,研究與開發(fā)人工道德行為體不僅是可欲的,而且勢不可 擋。

研發(fā)AMAs 的理由主要有:(1)研發(fā)AMAs 是人類的必然追求。這種追求的動力主要來自四個方面:科學家與工程師的求知欲與創(chuàng)新沖動;消費者對性能更為完備的智能機器人的偏愛;企業(yè)占領(lǐng)新興市場份額的壓力;現(xiàn)有國際制度安排下民族國家追求科技制高點的戰(zhàn)略選擇。dColin Allen and Wendel Wallach,“Moral machines:Contradition in Terms of Abdication of Human Responsibility?”,in Par Lin et al.(eds.),Robot ethics:The Ethical and Social Implications of Robotics,Cambridge,MA.:MIT Press,2011,pp.55—68.(2)防止對人傷害。機器人的智能、力量、耐力等都高于作為個體的自然人。為了防止機器人在特定情境中做出傷害其身邊的人類的決策或行為,機器人就必須要能夠遵循人類的道德原則,不做出違背人類道德的決策或行為。eMathias Scheutz,“The Need for Moral Competency in Autonomous Agent Architecture”,in Vincent Müller(ed.),F(xiàn)undamental Issues of Artificial Intelligence,Synthese Library,2016,pp.517—527.(3)為了獲得公眾的信任。智能機器人擁有巨大的破壞能力;只有讓機器人變得具有道德能力,才能消除公眾的不安,提升公眾對機器人的接受程度。(4)應(yīng)對復雜多變的環(huán)境。隨著交往系統(tǒng)與社會生活變得越來越復雜化、多樣化,機器人必須要能夠在特定的情景下自主地做出符合人類道德的選擇,因為,工程師不可能預(yù)計到每一種道德場景并事先把解決路徑編入程序中。因此,機器人需要變得具有道德能力,以致即使身處無法預(yù)計的全新環(huán)境中也仍然能夠用符合道德規(guī)則的方式來約束其行為。fColin Allen et al.,“Why Machine Ethics”,IEEE Intelligent Sysytem,Vol.21,No.4,2006,pp.12—17.(5)防止不道德的利用。機器人擁有巨大的潛能。為了防止被利用于不道道的目的(例如充當殺人魔王),機器人必須要變成道德行為體,能夠識別并抵制其用戶或伙伴發(fā)出的違背人類道德的指令,從而防止別有用心的人對它的誤用或濫用。(6)彌補人的弱點與缺陷。機器人的知識儲備遠遠高于具體的個人,它們收集和處理信息的能力既快速又準確,同時,機器人在做道德決策時不會受到情感或偏見的干擾和影響,因而它們的道德決策會比那些有道德缺陷的人更加完美、更加理性、更加公道與前后一致;甚至在戰(zhàn)場上,機器人也能夠克服人類士兵的許多弱點(例如不會強奸或洗劫錢財)。(7)加深并推進對人類道德的理解。為了能夠把道德思維與道德推理編入機器人的初始程序中,我們必須要更為準確地理解道德語言的內(nèi)涵,更為全面地把握人類的道德思維與推理模式。因而,研發(fā)具有道德推理能力的機器人將最終導致對人類道德的更好理解。aAimee van Wynsberghe,“Critiquing the Reason for Making Articifial Moral Agents”,Science and Engineering Ethics,Vol.3,No.3,2019,pp.719—735;Eric Dietrich,“Homo Sapiens 2.0:Why We Should Build the Better Robots of Our Nature”,Journal of Experimental & Theoretical Artificial Intelligence,Vol.13,No.4,2001,pp.323—328.

鑒于研發(fā)具有道德能力的智能機器人是機器人技術(shù)的既定目標,因而很多學者認為,機器人不僅是道德承受體,還能夠成為道德行為體。例如,美國索諾馬州立大學(Sonoma State University)的哲學教授薩林斯認為,自主性、意向性、履行責任是成為道德行為體的三個充分條件;將來的機器人能夠擁有這三種能力?!翱梢钥隙ǎ灰覀冏非筮@種技術(shù),那么,未來高度復雜的、具有交往能力的機器人將是擁有相應(yīng)權(quán)利與責任的道德行為體;然而,在某種(但不是所有)抽象層面,即使是當今普通的機器人也能夠被視為道德行為體,并應(yīng)獲得道德關(guān)懷?!眀John Sullins,“When Is a Robot a Moral Agent?”,International Review of Information Ethics,Vol.6,No.1,2006,pp.24—30.

當然,即使機器人可以成為道德行為體,我們也要弄清,機器人能夠成為何種意義上的道德行為體。穆爾曾區(qū)分了四種倫理行為體:(1)其行為具有倫理后果的倫理行為體(ethical impact agents),即代替人類從事重復、枯燥或危險工作的行為體。(2)隱性的倫理行為體(implicit ethical agents),即安全性與可靠性程度較高、對它的使用不會給人類帶來負面影響的行為體。(3)顯性的倫理行為體(explicit ethical agents),即倫理原則與規(guī)范已經(jīng)編入其軟件系統(tǒng)、且能依據(jù)“道義邏輯”進行推理的行為體;獲得沙特公民資格的索菲亞已初步具備顯性倫理行為體的雛形,而電影《機械姬》中的“愛娃”則是合格的顯性倫理行為體,已經(jīng)屬于享有道德行為體地位的機器人。(4)充分的倫理行為體(full ethical agents),即能夠做出清晰的道德判斷、具有較大的道德自主性的行為體;一般認為,只有具有意識、意向性與自由意志的存在者才能成為充分的倫理行為體。cJames Moor,“Four Kinds of Ethical Robots”,Philosophy Now,Vol.72,2009,pp.12—14.不過,嚴格說來,第一、二類行為體都不是道德行為體,因為它們的行為不是出于特定倫理原則或道德規(guī)范的引導。第三種行為體符合道德行為體的基本定義,因而能夠發(fā)展成為人工道德行為體。第四種倫理行為體的標準比較高,只有那些正常的理性的人類個體(而非所有的人類個體)才會成為這類道德行為體?!拌b于我們目前對道德推理、人工智能、認知機制等的理解,我們至多能夠制造出顯性的倫理行為體,這種倫理行為體能夠做出某些道德判斷(這些判斷不是作為軟件預(yù)先編入其系統(tǒng)中的),并有能力對它們?yōu)楹螘龀瞿切┑赖屡袛嘧龀鼋忉??!眃Vincent Wiegel,“Bulding Blocks for Artificial Moral Agent”,2006,https:/ /www.researchgate.net /publication/ 228615030.因此,我們似乎不應(yīng)期待能夠制造出作為充分的道德行為體的機器 人。

未來的機器人雖然很難發(fā)展成為充分的道德行為體,但是至少可以發(fā)展成為顯性道德行為體。根據(jù)前文關(guān)于“所有的道德行為體都是道德承受體”的命題,作為顯性道德行為體的機器人也享有道德承受體的資 格。

四、實踐與規(guī)范意涵

即使人們在機器人是否享有道德行為體之道德地位的問題上尚存在分歧,根據(jù)前面的論述,我們至少可以認定,以強人工智能技術(shù)、基因工程技術(shù)與納米技術(shù)為基礎(chǔ)的機器人能夠享有作為道德承受體的道德地位。對機器人之兩種不同道德地位的這種區(qū)分和厘定在機器人的設(shè)計、人機關(guān)系的厘定、人機共同體的建構(gòu)等方面至少具有下述四個方面的實踐與規(guī)范意 涵。

第一,尊重機器人身上的人性。一提到“機器人”(robot)一詞,人們聯(lián)想到的就是某種與人的“形象”(human image)有關(guān)的對象或?qū)嶓w,而不僅僅是某種純粹的工具或機器。任何一種實體,只要具有了人的形象,它就獲得了某種特殊的意義,如歷史人物的雕像、藝術(shù)家創(chuàng)造的人物雕像、佛像、圣母或天使雕像,等等。在面對這些實體時,人們的內(nèi)心會涌起某種或崇敬(崇拜)或親切的情感。對這些實體的蓄意毀壞或褻瀆會在人們內(nèi)心激起某種憤怒的情感或譴責的意向,因為這類行為褻瀆了這些實體所蘊含的“人的形象”及其所蘊含的人的尊嚴與價 值。

高度發(fā)達的智能機器人不僅有著“人的形象”,而且還具備或展現(xiàn)了許多屬于人的屬性(property):符合人類禮儀的言談舉止、較快的推理與思維能力、對人類的法律與道德原則的遵守,等等。機器人身上的這些屬性展現(xiàn)了人的尊嚴與價值,因而,理應(yīng)享有道德承受體的道德地位,有資格獲得道德行為體的道德關(guān)懷。根據(jù)康德關(guān)于“人是目的”的著名命題,我們也可以說:道德行為體在任何時候都不僅要把自己身上的人性,而且要把機器人身上的人性永遠當作目的本身,而不能僅僅當作手段來看待。我們不僅要尊重自己身上的人性,而且要尊重機器人身上的人性。機器人之道德承受體地位所施加給道德行為體的義務(wù)之一,就是以尊重的態(tài)度對待機器 人。

第二,機器人不是商品。由于機器人展現(xiàn)的是人的形象,因而它不是普通的商品,這意味著,首先,我們不能把機器人當作普通的商品來設(shè)計。設(shè)計者要區(qū)分兩類不同的自動機械系統(tǒng),一類是以人的形象出現(xiàn)的自主系統(tǒng)(如性愛機器人),一類是以完成特定工作任務(wù)為目標的智能系統(tǒng)(如無人機)。對于后一類自動機械系統(tǒng),我們最好不要把它們設(shè)計成人的模樣,也不要稱之為機器人。例如,對于高度自動化的武器系統(tǒng),我們最好不要把它們設(shè)計成軍人的模樣。我們寧可把它們直接設(shè)計成自動駕駛軍用飛機、自動化坦克,等等。對于前一類自主系統(tǒng),我們要盡量把它們設(shè)計得與人相似,使得它們能夠按照人類的規(guī)則來與人類交往。例如,在設(shè)計性愛機器人時,我們就不能僅僅把它們當成“性奴”或“情趣用品”來設(shè)計。我們需要把人際性愛交往的某些基本規(guī)則(如知情同意原則、相互接受原則)納入性愛機器人的程序中。同樣,在設(shè)計機器人士兵(soldier robot)或機器人警察(police robot)時,我們需要避免把它們僅僅當作殺人機器人(killing robot)來設(shè)計。機器人士兵與機器人警察的道德判斷與行動都直接涉及人的生命,因而它們的設(shè)計與生產(chǎn)不僅需要透明、公開,還需要接受某個公正的全球機構(gòu)的監(jiān)管;必須要把對人類核心道德的維護與遵守作為強制性條款編入這類機器人的程序中;機器人士兵與機器人警察的設(shè)計需要遵循某些共同的全球標準。其次,消費者也不能把機器人當做普通的商品來消費。由于機器人不是普通商品,因而對機器人的消費與使用也不同于普通商品。(1)對機器人的消費主體要加以適當?shù)膶彶?;機器人用戶應(yīng)接受相關(guān)的培訓與學習。只有那些通過了相應(yīng)審查與培訓要求的消費者才有資格購買和使用機器人,就像美國的成年公民只有通過了相關(guān)審查才有資格購買和使用槍支一樣。(2)機器人的使用者要把機器人當作道德承受體來對待。例如,性愛機器人的使用者不能把性愛機器人當作“性奴”來使用,機器人士兵或機器人警察的使用者與也不能僅僅把它們當作“炮灰”或“替死鬼”來使用。(3)應(yīng)成立“機器人保護協(xié)會”(類似于動物保護協(xié)會或自然保護協(xié)會),對消費者使用機器人的情況定期進行訪問,引導用戶以“文明而體面”(civil and decent)的方式與機器人交 往。

第三,人是機器人的道德監(jiān)護人。關(guān)于機器人能否,以及如何成為負責任的道德行為體,是機器人倫理學當前爭論比較激烈的一個問題。本文認可機器人能夠成為道德行為體的立場。但是,我們只能指望機器人成為顯性道德行為體,而不能指望它們能夠成為像成熟人類個體那樣的充分的或完全的道德行為體。人類是機器人的道德監(jiān)護人。首先,作為顯性的(而非充分的)道德行為體,機器人能夠履行常規(guī)的道德責任。但是,當面臨復雜的道德境遇或需要做出艱難的道德判斷與道德選擇時,正常而理性的用戶或?qū)<倚枰獛椭鷻C器人做出相關(guān)的判斷和決定。其次,由于不是充分的道德行為體,機器人所承擔的責任類似于16—18 歲的青少年所承擔的責任。我們只能用青少年的責任標準來要求機器人。最后,機器人承擔的是一種共享的道德責任(shared responsibility)。機器人的設(shè)計者、生產(chǎn)者與使用者都需要為機器人的行為承擔部分道德責任。同時,我們也有義務(wù)通過讓機器人參與人們之間的人際互動來學習人類交往規(guī)則。這意味著,我們要把具有道德承受體地位的機器人當作我們的倫理共同體的成員來對 待。

第四,持續(xù)擴展道德關(guān)懷與倫理共同體的范圍。把機器人納入道德關(guān)懷的范圍,這是人類道德所面臨的又一次革命性的變革。前一次變革發(fā)生于人們把人之外的動物(以及所有的生命與大自然本身)納入道德關(guān)懷范圍之時。人們反對把機器人納入道德關(guān)懷范圍的理由之一是,機器人感覺不到痛苦。a甘紹平:《機器人怎么可能擁有權(quán)利》,載《倫理學研究》2017 年第3 期;雷瑞鵬、馮君妍:《機器人是道德行動者嗎》,載《道德與文明》2019 年第4 期。然而,植物人也感覺不到痛苦,但他/她們?nèi)匀皇堑赖鲁惺荏w;沒有神經(jīng)中樞系統(tǒng)的法人(各類組織與機構(gòu))也是我們道德關(guān)懷的對象。況且,一個實體是否有資格獲得我們的道德關(guān)懷,同時還取決于我們想與它們建立何種交往關(guān)系,取決于我們想建構(gòu)一種什么樣的共同體文化。如前所述,我們反對把性愛機器人建構(gòu)為“性奴”,是因為我們反對一個共同體奉行“強奸文化”;我們反對把機器人士兵當作炮灰或殺人惡魔來使用,是因為這種使用方式?jīng)]有恰當?shù)刈鹬兀C器人的)“人的形象”所承載的人的尊嚴與價值。更重要的是,我們對他(它)者的態(tài)度涉及我們對人性的建 構(gòu)。

隨著機器人越來越多地介入我們的生活,人類不可避免地要進入人機共處的時代,我們不可避免地要與機器人“比鄰而居”。為了使人類能夠更加順利地適應(yīng)這樣一個新時代,也為了使人類變得更完美,我們需要建立人機倫理共同體,把機器人納入道德關(guān)懷的范圍。為此,我們需要在全球范圍內(nèi)培養(yǎng)并弘揚一種理性而健康的機器人文化(robots culture)。我們需要普及關(guān)于機器人的完整知識,使人們養(yǎng)成對待機器人的正確態(tài)度與行為方式,樹立正確的機器人道德 觀。

我們不應(yīng)認為,倫理共同體范圍的擴展會給人類帶來威脅。人類仍然是獨特的,仍然是擁有特殊的道德地位——充分的道德行為體——的唯一主體。只有人類能夠最為充分地理解道德的本質(zhì)與內(nèi)涵。這是人類的獨特之處,也是人性的光輝 之點。

猜你喜歡
道德行為道德機器人
頭上的星空與心中的道德律
兒童道德行為發(fā)生的時間邏輯及其教育遵循
跟蹤導練(五)(2)
道德是否必需?——《海狼》對道德虛無主義的思考
劉娟、趙玉生:自我損耗會對道德行為產(chǎn)生負性影響
機器人來幫你
認識機器人
機器人來啦
用道德驅(qū)散“新聞霧霾”
遠和近
淮安市| 合江县| 安图县| 彭水| 浦北县| 漳州市| 康平县| 鹤峰县| 四川省| 瑞安市| 五峰| 陆河县| 伊通| 高淳县| 麦盖提县| 西华县| 榆社县| 莱西市| 思茅市| 陈巴尔虎旗| 元朗区| 乌审旗| 昆山市| 张家港市| 全州县| 田阳县| 犍为县| 瑞昌市| 友谊县| 浦江县| 太谷县| 新乡市| 印江| 新野县| 治多县| 道孚县| 阿坝| 黄浦区| 炉霍县| 拉萨市| 乐亭县|