林津如
(東北大學(xué) 馬克思主義學(xué)院,遼寧 沈陽 110169)
“機(jī)器人倫理學(xué)”(roboethics)這一術(shù)語由意大利學(xué)者奇安馬可·沃盧吉?dú)W(GianmarcoVeruggio)在2002年的機(jī)器人學(xué)第一次會(huì)議(“國際機(jī)器人倫理學(xué)研討會(huì)”)上首次提出。此次會(huì)議上,沃盧吉?dú)W和加州理工大學(xué)的基思·阿布尼(Keith Abney)對“roboethics”和“robot ethics”做出了區(qū)分。他們認(rèn)為,“robot ethics”與機(jī)器人的倫理準(zhǔn)則和識別力的編程或信息結(jié)構(gòu)有關(guān),“roboethics”則是應(yīng)用倫理學(xué)的一個(gè)分支,是對開發(fā)和應(yīng)用機(jī)器人過程中產(chǎn)生的特定問題的倫理反思,如人的安全、尊嚴(yán)、隱私和自由等問題。為了便于識別,我們把這種倫理學(xué)稱為“機(jī)器人應(yīng)用的倫理學(xué)”。此外,參會(huì)者還把“機(jī)器人倫理學(xué)”(roboethics)細(xì)化為兩種應(yīng)用分支學(xué)科:第一種是“機(jī)器倫理學(xué)”(machine ethics),主要關(guān)注“機(jī)器如何對人類表現(xiàn)出符合倫理道德的行為”,在這個(gè)層面上,機(jī)器人被假想為在充分理解其含義和后果的基礎(chǔ)上,具有良知和選擇自己行動(dòng)的自由,甚至是能夠承擔(dān)責(zé)任、擁有權(quán)利的道德代理人;第二種是“機(jī)器人倫理學(xué)”(roboethics),主要關(guān)注“人類如何在設(shè)計(jì)和使用操作階段與這些機(jī)器進(jìn)行聯(lián)系交互”(1)Gianmarco Veruggio,“The Euron Roboethics Roadmap”, 2006 6th IEEE-RAS International Conference on Humanoid Robots, 2006, pp. 612-617.,即工程師和機(jī)器人專家如何把應(yīng)該遵循的行為準(zhǔn)則實(shí)現(xiàn)在機(jī)器人的人工智能算法中,這被視為一種“人造”倫理,保證自主機(jī)器人在與人類的互動(dòng)中表現(xiàn)出在倫理上可接受的行為。
由此可見,機(jī)器人倫理學(xué)的研究內(nèi)容關(guān)涉三個(gè)方面:一是機(jī)器人的倫理學(xué),即我們?nèi)绾瓮ㄟ^編程讓機(jī)器人成為合道德的主體,以及如何在使用操作階段與這些機(jī)器進(jìn)行聯(lián)系交互;二是機(jī)器倫理學(xué),探討機(jī)器人是否能夠作為道德代理人,在使用中如何對人類表現(xiàn)出符合道德的行為;三是機(jī)器人應(yīng)用的倫理學(xué),即對開發(fā)和應(yīng)用智能機(jī)器人過程中產(chǎn)生的特定問題(如人的安全、尊嚴(yán)、隱私和自由等問題)進(jìn)行倫理反思。機(jī)器人倫理學(xué)的這三個(gè)方面,前兩者分別聚焦于人機(jī)關(guān)系的一極:第一,設(shè)計(jì)人如何把機(jī)器人設(shè)計(jì)成符合道德的;第二,機(jī)器人是否能夠作為道德主體并承擔(dān)道德責(zé)任。第三個(gè)方面則是關(guān)于應(yīng)用機(jī)器人的過程中并非出于任何人或機(jī)器人的主觀愿望而導(dǎo)致的倫理問題。自從這次會(huì)議對機(jī)器人倫理學(xué)劃分出這三個(gè)層次之后,國外對于機(jī)器人倫理的研究基本都圍繞這三個(gè)方面展開。本文將梳理和評價(jià)這三方面的研究,并在此基礎(chǔ)上對進(jìn)一步研究的焦點(diǎn)和方向提出建議。
機(jī)器人倫理學(xué)主要關(guān)注人類如何設(shè)計(jì)符合道德的機(jī)器人,提出了實(shí)體進(jìn)路、關(guān)系進(jìn)路、價(jià)值敏感性進(jìn)路等設(shè)計(jì)方法。開發(fā)和設(shè)計(jì)道德機(jī)器人時(shí)遭遇的價(jià)值選擇與價(jià)值沖突問題也受到關(guān)注,但人類在使用階段與機(jī)器人進(jìn)行交互的倫理問題則很少被研究。
1.實(shí)體進(jìn)路
實(shí)體進(jìn)路是指根據(jù)特定倫理學(xué)框架設(shè)計(jì)機(jī)器人,并讓機(jī)器人在使用過程中通過學(xué)習(xí)來進(jìn)一步完善道德能力。瓦拉赫和艾倫在其合著的《道德機(jī)器: 教導(dǎo)機(jī)器人分辨是非》中把道德機(jī)器人的設(shè)計(jì)進(jìn)路分為“自上而下”、“自下而上”、“自上而下”與“自下而上”相混合三種進(jìn)路。“自上而下”進(jìn)路是指依據(jù)某種特定的倫理學(xué)理論,分析其計(jì)算的必要條件,用其指導(dǎo)設(shè)計(jì)能夠?qū)崿F(xiàn)該倫理學(xué)理論的算法和子系統(tǒng),并創(chuàng)造一種環(huán)境,讓機(jī)器人行為體在這種環(huán)境中學(xué)習(xí)和探索行為方式,在能夠作出合乎道德的行為時(shí)受到獎(jiǎng)勵(lì)(2)Wendell Wallach, Colin Allen, Moral Machines: Teaching Robots Right from Wrong , Oxford University Press, 2009, pp.79-80.。
哥倫比亞大學(xué)教授彼特·丹尼爾森(Peter Danielson)在其1992年的著作《技術(shù)人工物道德:善良機(jī)器人的美德游戲》中,根據(jù)特定倫理學(xué)框架探索了計(jì)算機(jī)技術(shù)如何構(gòu)造道德推理模型,該研究工作代表了當(dāng)時(shí)機(jī)器人倫理學(xué)領(lǐng)域的最高成就(3)Peter Danielson, Artificial Morality: Virtuous Robots for Virtuous Games, London: Routledge Press, 1992,p.1.。很多研究者建議將人類道德嵌入到機(jī)器人中,如安德森(Anderson)等人提出了創(chuàng)造道德敏感的機(jī)器的思想,認(rèn)為機(jī)器執(zhí)行運(yùn)算是為了實(shí)現(xiàn)道德原則,阿庫達(dá)斯 (Arkoudas)等人也持同樣的觀點(diǎn)。帕沃斯(Powers)探索了如何將計(jì)算機(jī)編程為(或至少模擬為)康德式的道德代理人,認(rèn)為如果我們根據(jù)普遍道德法則規(guī)定了機(jī)器,我們就可以在機(jī)器中實(shí)現(xiàn)人類的道德規(guī)范。跟隨這個(gè)思路,阿克恩(Arkin)提出了將倫理嵌入戰(zhàn)場機(jī)器人的觀點(diǎn)(4)Patrick Chisan Hew, “Artificial Moral Agents are Infeasible with Foreseeable Technologies”, Ethics and Information Technology, 2014, 16(3), p.204.。但是瓦拉赫指出,“自上而下”的研究進(jìn)路存在局限,因?yàn)橛卸喾N不同的倫理學(xué)理論,人們對各種倫理學(xué)理論又有著各自不同的看法,把一套明確的倫理規(guī)則賦予機(jī)器人可能并不合理,而且同一種原理在不同的情況下可能會(huì)導(dǎo)致相互矛盾的決定(5)Wendell Wallach, Colin Allen, Moral Machines: Teaching Robots Right from Wrong , Oxford University Press, 2009, p. 97.。
與“自上而下”的思路相反,“自下而上”進(jìn)路要求人工智能體能夠自我發(fā)展,而進(jìn)化與學(xué)習(xí)是在經(jīng)驗(yàn)之中反復(fù)試錯(cuò)的過程??死账?(Peter Kroes) 和維貝克 (Peter-Paul Verbeek)論證說,技術(shù)人工物不僅僅是一種消極的工具,而且應(yīng)該被視為一種行為主體。認(rèn)知科學(xué)進(jìn)路,即將認(rèn)知理論應(yīng)用于機(jī)器人設(shè)計(jì)的方法,也屬于“自下而上”,該進(jìn)路強(qiáng)調(diào)在研究人類認(rèn)知規(guī)律的基礎(chǔ)上建構(gòu)理論模型,實(shí)現(xiàn)機(jī)器人對道德的自主學(xué)習(xí)和認(rèn)知。瓦拉赫等人就認(rèn)為,LIDA ( Learning Intelligent Distribution Agent) 認(rèn)知結(jié)構(gòu)模型可作為道德抉擇模型,因?yàn)樗鼡碛懈鼜?qiáng)大的學(xué)習(xí)能力和更合理的認(rèn)知循環(huán)結(jié)構(gòu),并且是一個(gè)能夠把感覺和感情融入認(rèn)知過程的綜合性的認(rèn)知模型(6)Wendell Wallach, Franklin Sian, Allen Colin, “A conceptual and Computational Model of Moral Decision Making in Human and Aritficial Agents”, Topics in Cognitive Science, 2010,2(3),pp.454-485.。但“自下而上”缺乏可以由倫理學(xué)理論提供的指導(dǎo)系統(tǒng),僅憑自身還不足以設(shè)計(jì)出道德機(jī)器人。
綜上所述,對人工智能體的設(shè)計(jì)者來說,這兩種進(jìn)路都過于簡化,應(yīng)該尋求兩者的結(jié)合。瓦拉赫認(rèn)為,亞里士多德的美德倫理學(xué)能夠統(tǒng)一這兩種進(jìn)路,因?yàn)槊赖卤旧砜梢郧宄乇硎龀鰜?,而它們的?xí)得又是典型的自下而上的過程,因此可以建構(gòu)一種“自上而下”植入美德的計(jì)算機(jī),同時(shí)通過計(jì)算機(jī)學(xué)習(xí)來培養(yǎng)美德(7)Wendell Wallach, Colin Allen, Moral Machines: Teaching Robots Right from Wrong ,Oxford University Press, 2009, p. 119.。所以,“自上而下”和“自下而上”這兩種進(jìn)路應(yīng)是互補(bǔ)而不是相互排斥的,將兩者結(jié)合起來的進(jìn)路(混合進(jìn)路)更為可取。帕特里克·林(Patrick Lin)等人2008年向美國海軍部提交報(bào)告《自主軍用機(jī)器人:風(fēng)險(xiǎn)、倫理與設(shè)計(jì)》,對軍用機(jī)器人的倫理設(shè)計(jì)就采用了瓦拉赫與艾倫提出的混合進(jìn)路(8)Patrick Lin, George Bekey, Keith Abney, Autonomous Military Robotics: Risk,Ethics and Design, San Luis obispo California Polytecnic State University, 2008,p.11.。格迪斯(Anne Gerdes)等學(xué)者認(rèn)為,艾倫等人提出的混合進(jìn)路是建構(gòu)人工道德行為體的典型進(jìn)路(9)Anne Gerdes, Peter Ohrstrom, “Issues in Robot Ethics Seen through the Lens of a Moral Turing Test”, Journal of Information, Communication and Ethics in Society, 2015,13(2),pp.98-109.。
2.關(guān)系進(jìn)路
關(guān)系進(jìn)路的代表人物是馬克·考科爾伯格(Mark Coeckelbergh),他倡導(dǎo)從人機(jī)互動(dòng)的角度考察機(jī)器人倫理,強(qiáng)調(diào)機(jī)器人的外觀(appearance)在機(jī)器人倫理研究中的重要作用,建議我們基于明顯的類人特征,而非真實(shí)的類人特征(如智力、意識、情感等)來研究人類如何與機(jī)器人互動(dòng)。機(jī)器人如何對待我們,取決于它在我們面前的樣子,而不是取決于什么是它心中的“真實(shí)所想”?,F(xiàn)有的機(jī)器人沒有知覺也缺乏感覺,但是當(dāng)人類與某些類型的機(jī)器人互動(dòng)時(shí),機(jī)器人可能會(huì)像有感覺一樣行動(dòng)和說話。而機(jī)器人在這種互動(dòng)時(shí)所表現(xiàn)出的樣子和行為,對設(shè)計(jì)道德機(jī)器人來說格外重要。
考科爾伯格認(rèn)為,如果僅僅象實(shí)體進(jìn)路那樣,聚焦于機(jī)器人的類人特征,強(qiáng)調(diào)機(jī)器人真正是什么或是否真正可以成為道德主體,會(huì)面臨兩個(gè)困難:一是很難對機(jī)器人的類人特征給出確定標(biāo)準(zhǔn);二是這種方法排除了對于更廣泛的倫理問題的思考,比如有機(jī)器人和沒機(jī)器人的生活有何不同,這個(gè)不同的倫理意義是什么,我們想過哪種生活。而且實(shí)體進(jìn)路把道德問題限制在了關(guān)注人機(jī)互動(dòng)中可能出錯(cuò)的事情上,因此排除了一個(gè)非常重要的問題:如果一切順利,與這些機(jī)器人生活在一起是善的嗎?所以機(jī)器人倫理學(xué)應(yīng)轉(zhuǎn)向一種互動(dòng)哲學(xué),認(rèn)真研究基于機(jī)器人外觀的倫理問題,包括人機(jī)在社會(huì)環(huán)境中互動(dòng)時(shí)蘊(yùn)含著哪些倫理,我們應(yīng)如何看待人和機(jī)器人的相處,我們要如何認(rèn)識機(jī)器人,機(jī)器人可以對我們做什么,等等(10)Mark Coeckelbergh, “Personal Robots, Appearance, and Human Good: A Methodological Reflection on Roboethics”, International Journal of Social Robotics, 2009,1(3), pp.217-221.。考科爾伯格認(rèn)為,關(guān)系進(jìn)路使我們關(guān)注人機(jī)互動(dòng)如何有助于建構(gòu)人類美好生活,并想象與那些有助于構(gòu)成美好生活的機(jī)器人一起生活的可能性。
3.價(jià)值敏感性進(jìn)路
價(jià)值敏感性進(jìn)路由艾梅·凡·溫斯伯荷(van Wynsberghe Aimee)提出,是一種以護(hù)理為中心的價(jià)值敏感設(shè)計(jì)(Care-Centered Value Sensitive Design,簡稱CCVSD)。根據(jù)這個(gè)思路,產(chǎn)品設(shè)計(jì)的第一步便是要求思考機(jī)器人潛在的應(yīng)用問題。倫理學(xué)家在此階段應(yīng)該深入醫(yī)院或護(hù)理家庭,了解具體環(huán)境中的護(hù)理情況,記錄環(huán)境中價(jià)值的轉(zhuǎn)譯與排序問題,進(jìn)而向工程師解釋某些護(hù)理實(shí)踐的意義、不同護(hù)理實(shí)踐之間的關(guān)系和護(hù)理的整個(gè)過程。接下來便是選擇護(hù)理機(jī)器人設(shè)計(jì)的具體實(shí)踐,倫理學(xué)家要對護(hù)理實(shí)踐進(jìn)行詳細(xì)描述,闡明各種價(jià)值如何通過行為與互動(dòng)表現(xiàn)出來,揭示各種護(hù)理實(shí)踐之間的相互關(guān)系,識別出機(jī)器人重新引入某些護(hù)理價(jià)值的可能性等。在此基礎(chǔ)上,倫理學(xué)家與機(jī)器人設(shè)計(jì)團(tuán)隊(duì)合作,討論護(hù)理機(jī)器人的能力、特征、表象以及功能,由此便可把機(jī)器人的倫理能力建立在具體案例和設(shè)計(jì)研究的基礎(chǔ)上,而不是主觀決定機(jī)器人應(yīng)該擁有哪些能力。CCVSD 進(jìn)路既為護(hù)理機(jī)器人需要關(guān)注的內(nèi)容提供了倫理框架,也給出了把倫理考量融入設(shè)計(jì)過程的實(shí)現(xiàn)方法(11)van Wynsberghe Aimee, “A Method for Integrating Ethics into the Design of Robots”, Industrial Robot: An International Journal, 2013,40(5), pp.433-440.。
4.價(jià)值選擇與價(jià)值沖突問題
在開發(fā)和設(shè)計(jì)道德機(jī)器人的過程中,無論遵循哪條進(jìn)路,都要面對價(jià)值選擇的問題。一方面,有多種道德理論和倫理原則可供設(shè)計(jì)者選擇,但這些理論和原則所倡導(dǎo)的價(jià)值各有局限,且相互之間可能存在沖突。在缺乏普遍共識的情況下,如何尋找各方認(rèn)可度最高的適用于道德機(jī)器人設(shè)計(jì)的倫理原則便成了一個(gè)問題。另一方面,設(shè)計(jì)道德機(jī)器人時(shí),設(shè)計(jì)者所追求的倫理價(jià)值不是一元的而是多元的,而多種價(jià)值之間有可能存在沖突,因此,設(shè)計(jì)道德機(jī)器人也會(huì)涉及價(jià)值沖突的問題,如何解決沖突,在面對沖突時(shí)如何選擇和取舍,便構(gòu)成了另一個(gè)問題。
在尋求最普遍的道德共識,并以此為理論框架來設(shè)計(jì)道德機(jī)器人的問題上,近十年來學(xué)者做出了諸多嘗試。博登(Boden)、布賴森(Bryson)、考德維爾(Caldwell)等人在2011年提出了機(jī)器人設(shè)計(jì)應(yīng)遵循的幾大倫理原則:機(jī)器人首先要對人類無害且友善;除非國家安全需要,機(jī)器人不能執(zhí)行任何傷害人的任務(wù);機(jī)器人必須遵循法律并保護(hù)人權(quán)特別是隱私權(quán);機(jī)器人在任務(wù)過程中應(yīng)確保其使用者的身心安全;機(jī)器人的設(shè)計(jì)不能具有欺騙性,尤其不能利用弱勢群體的渴望來制造幻想進(jìn)行欺騙;必須明確機(jī)器人行為的歸責(zé)人(12)Margaret Boden, Joanna Bryson, Darwin Caldwell, Kerstin Dautenhahn, “Principles of Robotics: Regulating Robots in the Real World”, Connection Science, 2017,29(2), pp. 124-129.。布賴森在2017年進(jìn)一步提出了人工智能自動(dòng)系統(tǒng)中倫理系統(tǒng)設(shè)計(jì)的七條標(biāo)準(zhǔn),這些標(biāo)準(zhǔn)強(qiáng)調(diào)了普遍原則、價(jià)值觀、安全性能、慈善、隱私與人權(quán)、軍事人道主義,以及經(jīng)濟(jì)與法律方面的考慮(13)Joanna Bryson, Alan Winfield, “Standardizing Ethical Design for Artificial Intelligence and Autonomous Systems”, Computer, 2017, 50(5), pp.116-119.。
面對多元價(jià)值時(shí),如何進(jìn)行優(yōu)先級排列,如何解決價(jià)值沖突,學(xué)者在近十年提出了一些思考。例如,設(shè)計(jì)護(hù)理機(jī)器人時(shí)應(yīng)優(yōu)先用戶的自主性還是安全,湯姆·索雷爾(Tom Sorell)和希瑟·德雷珀(Heather Draper)指出,護(hù)理機(jī)器人作為看護(hù)者,甚至作為真正意義上的“關(guān)懷”機(jī)器人(carebot),應(yīng)該最看重被看護(hù)者的自主性,自主性高于安全考慮。但當(dāng)尊重自主性會(huì)威脅到用戶的生命或身體健康時(shí),自主性可能會(huì)被超越。索雷爾和德雷珀明確提出,設(shè)計(jì)護(hù)理機(jī)器人倫理框架時(shí),必須促進(jìn)被護(hù)理者的六個(gè)價(jià)值:自主(能夠在生活中設(shè)定目標(biāo)并選擇手段)、獨(dú)立(能夠在沒有他人許可、援助或物質(zhì)資源的情況下實(shí)現(xiàn)自己的目標(biāo))、使能(具有選擇和實(shí)現(xiàn)目標(biāo)的能力)、安全(容易避免痛苦或傷害)、隱私(能夠追求和實(shí)現(xiàn)自己的目標(biāo)、自己的選擇)、社交聯(lián)系(定期與朋友和親人保持聯(lián)系,安全地與陌生人見面)。為避免這些價(jià)值發(fā)生沖突,可以對機(jī)器人提供不同的角色分析,在此基礎(chǔ)上構(gòu)建與這些角色相匹配的倫理框架??傊O(shè)計(jì)護(hù)理機(jī)器人的統(tǒng)攝理念是要讓設(shè)計(jì)框架能夠保障被照顧者的利益(14)Tom Sorell, Heather Draper, “Robot Carers, Ethics, and Older People”, Ethics Inf Technol, 2014, 16, pp.183-195.。希瑟·德雷珀和湯姆·索雷爾進(jìn)一步強(qiáng)調(diào),六種價(jià)值發(fā)生張力時(shí),被照顧者的自主性應(yīng)被視為壓倒一切的價(jià)值,但也指出,安全問題可能比我們先前所設(shè)想的更為重要。總之,必須在機(jī)器人供應(yīng)商和用戶之間達(dá)成協(xié)議,可以通過用戶的自主選擇來解決框架內(nèi)各種價(jià)值之間可能出現(xiàn)的張力甚至沖突(15)Heather Draper, Tom Sorell, “ Ethical Values and Social Care Robots for Older People: an International Qualitative Study ”, Ethics and Information Technology, 2017, 19(3), pp.49-68.。
除了護(hù)理機(jī)器人,無人駕駛汽車也是道德機(jī)器人設(shè)計(jì)與應(yīng)用的一個(gè)典型案例。博納豐(Bonnefon)教授通過對無人駕駛汽車進(jìn)行實(shí)驗(yàn),測試人工智能倫理系統(tǒng)實(shí)現(xiàn)道德自主權(quán)的可能性。雖然機(jī)器人的系統(tǒng)設(shè)計(jì)突出了人們對機(jī)器人實(shí)現(xiàn)道德、實(shí)現(xiàn)對文化的尊重、對各國法律標(biāo)準(zhǔn)的遵守等期望,但實(shí)驗(yàn)結(jié)果表明,目前人工智能倫理系統(tǒng)還不能夠協(xié)調(diào)不同道德價(jià)值之間、個(gè)人利益之間的沖突,也不能夠融合不同文化間的差異(16)Jean-Francois Bonnefon, Azim Shariff, Iyad Rahwam, “The Social dilemma of autonomous vehicles”, Science, 2016, 352 (6293), pp.1573-1575.。
機(jī)器倫理學(xué)主要研究機(jī)器人是否能夠作為道德代理人承擔(dān)道德責(zé)任的問題,學(xué)者通過羅列成為道德代理人的必要條件并考察機(jī)器人能否符合這些條件進(jìn)行判斷。當(dāng)機(jī)器人無法作為道德代理人承擔(dān)道德責(zé)任,道德責(zé)任的歸屬便成為一個(gè)新的問題。
1.機(jī)器人作為道德代理者的可能性
關(guān)于機(jī)器人能否被看作道德代理者,美國“機(jī)器(人)倫理學(xué)”研究的早期開拓者之一,耶魯大學(xué)生命倫理學(xué)跨學(xué)科研究中心的溫德爾 · 瓦拉赫(Wendell Wallach)和印第安納大學(xué)認(rèn)知科學(xué)工程中心的科林·艾倫(Colin Allen)合著的《道德機(jī)器:如何讓機(jī)器人明辨是非》一書,在哲學(xué)本體論和認(rèn)識論領(lǐng)域?qū)ΚM義機(jī)器人和廣義人工物道德行為體AMAs(Artifact moral agents)的理論和實(shí)踐問題進(jìn)行了全面探討。討論包括人工物道德行為體能否獲得合法道德行為體資格,技術(shù)人工物能否在根本上被看作一種“行為主體”,一個(gè)自治系統(tǒng)能否“真正地”滿足和具備自治行為的需要等。他們把機(jī)器人能夠?qū)崿F(xiàn)的道德程度劃分為三個(gè)層級,一是“操作性道德”(由系統(tǒng)實(shí)現(xiàn),僅能在可接受行為標(biāo)準(zhǔn)內(nèi)行動(dòng),這種道德完全掌握在工具設(shè)計(jì)者和使用者的控制中),二是“功能性道德”(在操作性道德和可靠的道德智能體之間的道德層級),三是能夠評估自身行為道德意義的可靠道德智能體實(shí)現(xiàn)的道德。他們認(rèn)為,由于缺失諸如意識和情感等人類特征,完備的人工道德智能體還很遙遠(yuǎn),但是,人們有可能開始建構(gòu)一種“功能性道德”,從而使人工道德智能體具有基本的道德敏感性(17)Wendell Wallach, Colin Allen, Moral Machines: Teaching Robots Right from Wrong, Oxford: Oxford University Press, 2009,p.172.。
與瓦拉赫和艾倫的觀點(diǎn)相似,摩爾(Moor)認(rèn)為,作為道德代理者的機(jī)器人可分為三種:第一種是與倫理關(guān)涉的代理者(ethical-impact agents),這類機(jī)器行為程序的編寫關(guān)涉?zhèn)惱硪笄曳譃閮深?,一類是通過編程對其進(jìn)行機(jī)械的倫理約束,另一類是隱性倫理代理者(implicit ethical agents),這類機(jī)器在設(shè)計(jì)時(shí)就植入了倫理程序源,機(jī)器能夠根據(jù)程序要求做出恰當(dāng)?shù)男袨?,而不僅僅是通過簡單編程對其進(jìn)行機(jī)械性的倫理約束;第二種是顯性倫理代理者(explicit ethical agents),這類機(jī)器可以自動(dòng)識別周圍環(huán)境的倫理信息,在不同情境下判斷當(dāng)前行為的合理性,并對該行為產(chǎn)生的后果進(jìn)行預(yù)測;第三種是完全倫理代理者(full ethical agents),這類機(jī)器能夠高度模擬人類思維與倫理意識,在特定情境中做出判斷與選擇,完全可以被視為具有道德行為能力的道德主體。摩爾也認(rèn)為,時(shí)至今日,仍然沒有明確的證據(jù)可以證明機(jī)器能夠成為完全的道德主體(18)James H Moor, “The Nature, Importance, and Difficulty of Machine Ethics”,IEEE Intelligent Systems, 2006, 21(4), pp.18-21.。
2.機(jī)器人是否應(yīng)當(dāng)履行道德責(zé)任
關(guān)于機(jī)器人是否要承擔(dān)道德責(zé)任的問題,有兩派不同的意見:一派認(rèn)為機(jī)器人不應(yīng)該承擔(dān)道德責(zé)任,另一派認(rèn)為機(jī)器人應(yīng)該承擔(dān)道德責(zé)任。認(rèn)為機(jī)器人不應(yīng)承擔(dān)道德責(zé)任的這一派論證說機(jī)器人沒有意向性,即沒有精神狀態(tài)和行動(dòng)意圖,只是根據(jù)人類設(shè)計(jì)的程序而行動(dòng),無法意識到自己所做的選擇,所以不應(yīng)當(dāng)承擔(dān)道德責(zé)任。弗里德曼(Friedman)和小卡恩(Kahn Jr)、斯塔爾和辛馬(Himma)都持有相似觀點(diǎn),認(rèn)為如果要成為道德代理人,人工系統(tǒng)就需要有意識(19)Kenneth Einar Himma, “Artifificial Agency, Consciousness, and the Criteria for Moral Agency: What Properties must an Artificial Agent have to be a Moral Agent?”, Ethics and Information Technology, 2009, 11(1), pp.19-29.。沒有意向性表明機(jī)器人缺乏人類意義上的意志和自由,他們的行動(dòng)是被硬件或軟件所決定的。而至今在物質(zhì)和結(jié)構(gòu)上可以想象到的計(jì)算機(jī)系統(tǒng)都不可能有意向性(20)Batya Friedman, Peter H Kahn, “Human Agency and Responsible Computing: Implications for Computer System Design”, Journal of Systems and Software, 1992,17(1), pp.7-14.。湯凱恩強(qiáng)調(diào),人工系統(tǒng)將按照程序員所安裝的規(guī)則進(jìn)行編程,否則是不會(huì)行動(dòng)的(21)Ryan Tonkens, “A Challenge for Machine Ethics”, Minds and Machines, 2009, 19(3), pp.421-438.??瓶瞬?Coeckelbergh)沒有直接探討關(guān)于人工系統(tǒng)在道德上是否值得稱贊的問題,但他認(rèn)為,對道德價(jià)值的評價(jià)需要確定某臺機(jī)器是不是一個(gè)自由且有意識的代理人,而這一點(diǎn)我們無法做到(22)Mark Coeckelbergh, “Virtual Moral Agency,Virtual Moral Responsibility: On the Moral Significance of the Appearance, Perception, and Performance of Artificial Agents”, AI & SOCIETY, 2009,24(2), pp.181-189.。帕特里克(Patrick Chisan Hew)贊成這種觀點(diǎn),認(rèn)為機(jī)器人符合道德需要具備一定的能力,并認(rèn)為目前的人工系統(tǒng)無法提供這個(gè)功能(23)Patrick Chisan Hew, “Artificial Moral Agents are Infeasible with Foreseeable Technologies”, Ethics and Information Technology, 2014, 16(3), pp.197-206.。
如果機(jī)器人不能夠?qū)λ鼈兊男袨槌袚?dān)責(zé)任,那么,誰應(yīng)當(dāng)承擔(dān)機(jī)器人的責(zé)任呢?大部分學(xué)者認(rèn)為,人應(yīng)當(dāng)承擔(dān)機(jī)器人行動(dòng)所導(dǎo)致的問題的責(zé)任。正如維魯喬(Veruggio)所指出的,機(jī)器人實(shí)際上只是一種機(jī)器,這些人類創(chuàng)造者的工具不知道它們所做的選擇,因此人們對它們的行為負(fù)有道德責(zé)任(24)Antonio Espingardeiro, A Roboethics Framework for the Development and Introduction of Social Assistive Robots in Elderly Care , University of Salford, 2014,p.17.。如魯福(Ruffo)論證說,機(jī)器人遵循的是人類提供給它的程序。斯坦森(Stensson)和楊森(Jansson)也認(rèn)為,由于技術(shù)手工藝品沒有自己的生命,因此無法了解人類基本價(jià)值觀的真正意義(25)Patrik Stensson, Anders Jansson, “Autonomous Technology-Sources of Confusion: A Model for Explanation and Prediction of Conceptual Shifts”, Ergonomics, 2013, 57(3),pp. 455-470.。帕斯摩(Parthemore)和維特貝(Whitby)認(rèn)為,機(jī)器人缺乏必要的決策機(jī)制,因此,不應(yīng)該將責(zé)任分配給目前的和制造中的機(jī)器人(26)Joel Parthemore,Blay Whitby,“Moral Agency,Moral Responsibility,and Artefacts”,International Journal of Machine Consciousness,2014,6(2),pp.141-161.。帕特里克(Patrick Chisan Hew)也認(rèn)為,應(yīng)該將部分責(zé)任分配給那些選擇制造或使用機(jī)器的人,因?yàn)闄C(jī)器的行為規(guī)則和供應(yīng)這些規(guī)則的機(jī)制必須完全是由外部人類提供的。如果有了可預(yù)見的技術(shù),人類將承擔(dān)全部責(zé)任,而機(jī)器人將對其行為承擔(dān)零責(zé)任(27)Patrick Chisan Hew, “Artificial Moral Agents are Infeasible with Foreseeable Technologies” , Ethics and Information Technology, 2014, 16, pp.197-206.。布賴森(Bryson)也指出,人工物品所執(zhí)行的行為的責(zé)任在于人類(28)David J. Gunkel,Joanna J. Bryson, Steve Torrance,“The Machine Question: AI, Ethics and Moral Responsibility”,The Society for the Study of Artifificial Intelligence and Simulation of Behaviour,2012,pp.73-77.。庫弗里克(Kuflik)認(rèn)為人類必須對計(jì)算機(jī)的決定承擔(dān)最終的道德責(zé)任,因?yàn)檎侨祟愒O(shè)計(jì)了計(jì)算機(jī)并編寫了他們的程序。關(guān)于程序計(jì)算機(jī)超越其原始程序的可能性,庫弗里克認(rèn)為,如果是人類自己重新編程,那么這些人將自己承擔(dān)道德責(zé)任(29)Arthur Kuflik, “Computers in Control: Rational Transfer of Authority or Irresponsible Abdication of Autonomy?”,Ethics and Information Technology, 1999,1(3),pp.173-184.。
另一派認(rèn)為,機(jī)器人應(yīng)當(dāng)承擔(dān)道德責(zé)任。但關(guān)于機(jī)器人如何承擔(dān)道德責(zé)任,又存在兩種不同的觀點(diǎn)。一種觀點(diǎn)認(rèn)為,機(jī)器人承擔(dān)道德責(zé)任需要符合一定的條件,如弗洛里迪(Floridi)和桑德斯(Sanders)指出,如果機(jī)器人符合互動(dòng)性、自主性和適應(yīng)性的標(biāo)準(zhǔn),它就可以承擔(dān)道德責(zé)任(30)Patrick Chisan Hew, “Artificial Moral Agents are Infeasible with Foreseeable Technologies”, Ethics and Information Technology, 2014, 16(3), pp.197-206.。關(guān)于互動(dòng)性、自主性和適應(yīng)性的定義,弗洛里迪和桑德斯聲稱與艾倫等人的定義一致,“互動(dòng)性就是通過狀態(tài)的變化來對刺激作出反應(yīng),也就是施事者和環(huán)境能夠互相影響;自主性就是在沒有刺激的情況下改變狀態(tài)的能力,不是直接去響應(yīng)互動(dòng),這造成了某種程度的復(fù)雜性和與環(huán)境的耦合。適應(yīng)性是使能夠致使?fàn)顟B(tài)改變的‘轉(zhuǎn)換規(guī)則’進(jìn)行改變的能力,即施事者可被視作依靠對自己的經(jīng)驗(yàn)的分析,學(xué)習(xí)自己運(yùn)行的模式”(31)Wendell Wallach, Colin Allen, Moral Machines: Teaching Robots Right from Wrong ,Oxford: Oxford University Press, 2009, p. 60.。馬西森(Matheson)對于機(jī)器人承擔(dān)道德責(zé)任的條件則與弗洛里迪和桑德斯持不同的觀點(diǎn),認(rèn)為人工系統(tǒng)如果是弱編程的系統(tǒng),就應(yīng)當(dāng)承擔(dān)責(zé)任。因?yàn)槿蹙幊膛c強(qiáng)編程不同,人工系統(tǒng)無法克服強(qiáng)編程的影響,并且人工系統(tǒng)是根據(jù)編程要求的方式進(jìn)行推理和行為的(32)David J. Gunkel,Joanna J. Bryson, Steve Torrance,“The Machine Question: AI, Ethics and Moral Responsibility”,The Society for the Study of Artifificial Intelligence and Simulation of Behaviour,2012,pp.73-77.。赫爾斯特羅姆則更強(qiáng)調(diào)機(jī)器人的自主能力在承擔(dān)道德責(zé)任方面的影響,他指出,人類將道德責(zé)任分配給機(jī)器人的傾向隨著機(jī)器人自主能力的提高而增加(33)Thomas Hellstrom, “On the Moral Responsibility of Military Robots”, Ethics and Information Technology, 2013, 15(2), pp.99-107.。
第二種觀點(diǎn)認(rèn)為,機(jī)器人應(yīng)當(dāng)承擔(dān)道德責(zé)任,但讓機(jī)器人承擔(dān)道德責(zé)任會(huì)導(dǎo)致一些難題。馬提亞斯(Matthias)認(rèn)為機(jī)器的行為應(yīng)歸咎于機(jī)器本身,追究人類的責(zé)任是不公正的,但追究機(jī)器的責(zé)任將挑戰(zhàn)傳統(tǒng)的歸因方式,他將這一情況稱為“責(zé)任缺口”(responsibility gap)。馬提亞斯認(rèn)為,之所以出現(xiàn)這種情況,原因有三:第一,在某種程度上,現(xiàn)代機(jī)器本質(zhì)上是不可預(yù)測的;第二,隨著手工編碼程序被更復(fù)雜的方法所取代,制造商和系統(tǒng)之間的中間層越來越多,因此有必要將責(zé)任分配給那些為制造現(xiàn)代自動(dòng)化系統(tǒng)做出貢獻(xiàn)的多類人員;第三個(gè)原因與機(jī)器學(xué)習(xí)系統(tǒng)有關(guān),機(jī)器的行為規(guī)則在生產(chǎn)過程中不是固定的,可以在運(yùn)行過程中改變(34)Andeas Matthias, “The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata”, Ethics and Information Technology, 2004, 6(3), pp. 175-183.。因此,簡單地把機(jī)器人運(yùn)行中出現(xiàn)的問題歸咎于機(jī)器人或制造者都不合適。
3.對機(jī)器人進(jìn)行道德約束的必要性
博斯特羅姆(Bostrom)認(rèn)為,人工智能作為超越人類大腦成為超級智能體(super-intelligence)是令人擔(dān)憂與值得質(zhì)疑的,因?yàn)槌壷悄荏w作為一種完全獨(dú)立于人類智慧之外的實(shí)體,會(huì)挑戰(zhàn)人類生存。雖然目前的人工智能發(fā)展尚未進(jìn)入超級階段,但構(gòu)建人工智能道德代理的風(fēng)險(xiǎn)防范機(jī)制極為必要,所以,在人工智能載體的設(shè)計(jì)階段,就要充分考慮其作為人類事務(wù)委托者或決策代理者應(yīng)該遵守的倫理規(guī)范(35)Paul D. Thorn,“Nick Bostrom: Superintelligence: Paths,Dangers,Strategies”,Minds and Machines,2015,25(3),pp. 285-289.。阿諾德(Arnold)基于倫理評價(jià)體系對如何預(yù)防人工智能代理的潛在危機(jī)與威脅進(jìn)行了探討(36)Thomas Arnold, Matthias Scheutz, “The ‘big red button’ is too late: An Alternative Model for the Ethical Evaluation of AI Systems”, Ethics and Information Technology, 2018, 20(1), pp. 59-69.。
瓦拉赫(Wallach)與艾倫(Allen)首次提出了“奇點(diǎn)臨近論”,他們認(rèn)為當(dāng)人類臨近智能技術(shù)“奇點(diǎn)”(singularity),智能技術(shù)無限制突破,機(jī)器將會(huì)融合人類的知識和智慧,成為超出人類生物學(xué)范疇的“智慧生物”并挑戰(zhàn)人類生存空間,因此,構(gòu)建“人類與機(jī)器文明”的社會(huì)倫理秩序和人工智能道德安全體系,對于保障人類生存與延續(xù)非常重要。為此,瓦拉赫與艾倫提出了基于機(jī)器人文化、情境倫理、代理理論以及編程系統(tǒng)開發(fā)的人工智能道德安全體系架構(gòu),具體討論了智能機(jī)器不道德行為的事后抑制、智能程序啟動(dòng)的倫理測試、倫理輔助測試,以及智能機(jī)器部署與環(huán)境體系等問題(37)Wendell Wallach, Colin Allen, Moral Machines: Teaching Robots Right from Wrong , Oxford University Press, 2009,pp.175-176.。
查爾姆斯(Chalmers)在瓦拉赫與艾倫提出的“奇點(diǎn)臨近論”的基礎(chǔ)上,進(jìn)一步討論了人工智能道德安全技術(shù)防御問題,認(rèn)為要從兩個(gè)方面進(jìn)行控制,以實(shí)現(xiàn)人工智能的道德安全:一是內(nèi)部安全控制,要在智能系統(tǒng)內(nèi)部設(shè)計(jì)上增設(shè)價(jià)值導(dǎo)向(如良性繁殖與進(jìn)化導(dǎo)向、和平競爭導(dǎo)向等),以使人工智能體系在發(fā)展過程中獲得與人類相似的價(jià)值觀,并能夠尊重人類創(chuàng)造的文明體系;二是外部安全控制,即人工智能系統(tǒng)應(yīng)在開發(fā)設(shè)計(jì)時(shí)設(shè)置虛擬空間,讓智能系統(tǒng)在虛擬空間完成繁衍與進(jìn)化,這樣可以避免智能系統(tǒng)進(jìn)入人類生存的物理空間而發(fā)生競爭、相互殘殺的不良后果(38)David J Chalmers, “The Singularity: A Philosophical Analysis”, Journal of Consciousness Studies, 2010, 17(9-10), pp. 7-63.。
各國政府機(jī)構(gòu)、高校和科研院所圍繞著機(jī)器人技術(shù)涉及的倫理問題所展開的研究,主要關(guān)注機(jī)器人與人、與社會(huì)互動(dòng)所產(chǎn)生的負(fù)面影響,尤其是“人—機(jī)器人”交互過程中產(chǎn)生的各種社會(huì)倫理問題。帕特里克 · 林(Patrick Lin)與基思·阿布尼(Keith Abney)、喬治·拜柯(George A Bekey)指出:(1)計(jì)算機(jī)的編程可能會(huì)出錯(cuò),會(huì)導(dǎo)致計(jì)算機(jī)丟失數(shù)據(jù),即使是機(jī)器中的微小軟件缺陷,如汽車或機(jī)器人,也會(huì)導(dǎo)致致命的結(jié)果。人們也擔(dān)心計(jì)算機(jī)科學(xué)家和機(jī)器人工程師是否有能力創(chuàng)建完美的軟件或工作部件來控制具有潛在超人力量的機(jī)器。(2)機(jī)器人可能會(huì)取代人類的工作而導(dǎo)致人們失業(yè)。雖然使用機(jī)器人會(huì)提高效率,把人從繁重的勞動(dòng)中解放出來,但對那些需要工作糊口的人類工人來說并非好消息。(3)計(jì)算機(jī)使用會(huì)讓人們過度依賴技術(shù),這種依賴會(huì)導(dǎo)致社會(huì)更加脆弱。(4)護(hù)理機(jī)器人的使用可能會(huì)影響人類關(guān)系,長期用機(jī)器人來代替人而形成的人際關(guān)系或許會(huì)產(chǎn)生心理傷害。(5)機(jī)器人使用可能對環(huán)境造成危害,“電子廢物”是日益嚴(yán)重和緊迫的問題,機(jī)器人可能會(huì)加劇這一問題,增加今天建造計(jì)算設(shè)備所需的稀土元素和為其提供動(dòng)力所需的能源的壓力。
機(jī)器人應(yīng)用的一個(gè)重要領(lǐng)域是護(hù)理機(jī)器人。瓦勒(Vallor)概括了護(hù)理機(jī)器人使用中可能存在的一些問題:將老年人物化為需要通過技術(shù)手段解決的“問題”;護(hù)理機(jī)器人有可能增強(qiáng)或減少被照料者的能力、自由、自主、尊嚴(yán)、隱私、與其他人以及與周圍環(huán)境的接觸;護(hù)理機(jī)器人可以現(xiàn)實(shí)地提供生理和心理的預(yù)期;人機(jī)關(guān)系存在欺騙性或嬰兒化的可能等(39)Tom Sorell, Heather Draper, “Robot Carers, Ethics, and Older People”, Ethics and Information Technology, 2014, 16(3), pp.183-195.。諾爾·夏基(Noel Sharkey)與阿曼達(dá)·夏基(Amanda Sharkey)通過幼兒保姆機(jī)器人、阿茲海默癥病人的陪同機(jī)器人等看護(hù)實(shí)例,對把幼兒和老齡人交給機(jī)器人看護(hù)有可能導(dǎo)致的倫理問題概括為人與人交流的減少、自我物化趨勢增加、主觀能動(dòng)性減少、缺乏個(gè)人隱私、個(gè)體自由與人權(quán)的喪失、心理與情感出現(xiàn)問題。另外,如何約束機(jī)器人控制權(quán),如何歸屬看護(hù)責(zé)任,也是需要解決的問題(40)Amanda Sharkey Noel Sharkey, “Granny and the Robots:Ethical issues in Robot Care for the Elderly” ,Ethics and Information Technology,2012, 14(1), pp. 27-40.。他們認(rèn)為,可以通過機(jī)器人立法、機(jī)器人看護(hù)標(biāo)準(zhǔn)設(shè)定以及倫理價(jià)值導(dǎo)向設(shè)計(jì)來解決這些問題。
綜上可見,目前英語文獻(xiàn)關(guān)于機(jī)器人的倫理學(xué)研究焦點(diǎn)在于人與機(jī)器人之間的人機(jī)關(guān)系。絕大多數(shù)研究者認(rèn)為現(xiàn)階段的機(jī)器人無法具有意識、意圖和自由,因此不能被看作道德代理人,不應(yīng)承擔(dān)道德責(zé)任。道德責(zé)任應(yīng)由設(shè)計(jì)機(jī)器人的研發(fā)者、供應(yīng)商或其它組織環(huán)節(jié)承擔(dān)。在此共識的基礎(chǔ)上,為了讓機(jī)器人表現(xiàn)出的行為符合人類道德規(guī)范,設(shè)計(jì)者應(yīng)把目前接受度最高的道德規(guī)范編程嵌入機(jī)器人,并結(jié)合機(jī)器人的深度學(xué)習(xí)功能,使之表現(xiàn)出一定程度的道德能力。
研究者聚焦于護(hù)理機(jī)器人使用過程中有可能出現(xiàn)的倫理問題,展開了對人—機(jī)器人關(guān)系的社會(huì)效應(yīng)及其導(dǎo)致的深層倫理問題的探討,主要涉及護(hù)理機(jī)器人對人的尊嚴(yán)、隱私、自主性以及人際關(guān)系等重要倫理價(jià)值的影響。這一部分的研究目前主要處于提出問題的階段,研究者表達(dá)了機(jī)器人長期陪伴和照料人類,對人的生存、心理和情感等方面可能造成的負(fù)面影響的憂慮。如何解決機(jī)器人可能對人類帶來的負(fù)面影響,盡管學(xué)者有倫理反思并尋找操作規(guī)范,但還沒有形成成熟的理論以及相應(yīng)的立法標(biāo)準(zhǔn)。目前的研究確定了清晰的問題域并奠定了研究基礎(chǔ)和框架,但具體結(jié)論還有待進(jìn)一步研究。
目前的文獻(xiàn)還提到人工智能帶來的安全隱患,機(jī)器人在功能上的不斷強(qiáng)大和完善可能會(huì)對人類、對環(huán)境造成威脅,但這方面的研究仍處于起步階段,還未形成基于可靠證據(jù)的理論觀點(diǎn)。
當(dāng)前機(jī)器人倫理學(xué)文獻(xiàn)的整體趨勢是關(guān)注機(jī)器人使用所可能造成的負(fù)面效應(yīng),無論是單個(gè)機(jī)器人可能對個(gè)體人類造成的傷害,還是機(jī)器人從整體上對人類造成的威脅。機(jī)器人技術(shù)是新興的高新科技,對人類生活會(huì)造成巨大改變,其倫理效應(yīng)還沒有定論,也缺乏明確的法律標(biāo)準(zhǔn),面對其勢不可擋的發(fā)展勢頭,人們當(dāng)然應(yīng)該持有謹(jǐn)慎態(tài)度,關(guān)注其可能帶來的負(fù)面問題。但是,跟隨考科爾伯格,我們還應(yīng)思考機(jī)器人所帶來的更廣泛意義上的倫理問題,諸如人類生活中有和沒有機(jī)器人的區(qū)別有何倫理意義,人和機(jī)器人可以有怎樣的互動(dòng)。機(jī)器人倫理學(xué)不應(yīng)忽略人和機(jī)器人互動(dòng)的可能積極作用,也不應(yīng)忽略人類追求善好生活這一倫理學(xué)前提和背景。我們也應(yīng)該思考,機(jī)器人或人與機(jī)器人的互動(dòng)在人類對美好生活的追求中可以起到怎樣的積極作用。機(jī)器人倫理學(xué)的進(jìn)一步研究不妨超越目前的負(fù)面性預(yù)設(shè),在更廣闊的視野中,用更開放的心態(tài)思考機(jī)器人這種新的智慧形態(tài)所可能創(chuàng)造的倫理可能性。
東南大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)2021年1期