摘要:隨著信息技術的不斷智能化發(fā)展,機器人的發(fā)展取得了一系列的重大突破,從執(zhí)行簡單指令到以深度學習為核心,機器人成為時代進一步發(fā)展的強大動力。隨著其使用范圍不停地擴大和深入,機器人也日益與人類關系密切。出于對人身安全的考慮,人類也開始反思和重視機器人的道德倫理問題。本文通過對機器人道德倫理的發(fā)展及其未來進行分析闡述,以期可以讓讀者對機器人道德倫理有更加深刻、更加全面的認識。
關鍵詞:人工智能? 機器人 ?道德倫理
中圖分類號:G644
一、機器人道德倫理的早期設想
機器人“Robot”是由捷克語“Robota”改編而來,“Robota”是指“強制性勞動”或“奴隸”,即只會從事繁重作業(yè)而不會感到勞累的機器,由此“Robot”才正式作為專業(yè)術語被人加以引用[1]。
機器人的早期出現是為了減少戰(zhàn)場上不必要的人員傷亡,而戰(zhàn)爭后,工業(yè)革命的接連發(fā)生致使機器人成為工廠進行作業(yè)的主力,近年來信息技術不斷的智能化使得機器人在更多的領域之中使用。在機器人快速發(fā)展的同時,人類也對機器人產生了擔憂——機器人是否會威脅到人類的生存。
1942年阿西莫夫在《環(huán)舞》中首次提出“機器人三大定律”[2],試圖以此來規(guī)范和約束機器人的行為:
1.機器人不能對人類的生命安全造成傷害,或者間接讓任何人受到傷害。
2.機器人必須服從人類的命令,除非該命令傷害到人類;
3.機器人必須對自己的生存負責,條件是不與前兩條法則矛盾。
阿西莫夫在這之后又補充了第零定律:“機器人必須確保人類的整體利益不受到傷害,這一條件優(yōu)先于其他三條法則”。
阿西莫夫的機器人三大法則是簡單的關系原則,它的運行依靠高度理性的力量,認為守法即正義,違法即邪惡。他率先定義了機器人道德倫理,嚴格來說是對機器人的道德倫理要求,把機器人設想成在康德意義上的道德生物。不違背三大定律的機器人,都有高度的自我約束意識和道德自律能力。
阿西莫夫提到的“機器人三大定律”直到現在仍被使用。而1979年發(fā)生的工人試圖從倉庫取回一些零件而被機器人殺死;和1981年一個日本維修工人在進行機器維修的時而被機器人殺死[3]的事件,致使更多科學家開始研究如何避免機器誤傷人事件的發(fā)生,并在研究中開始進一步思考是否應該對機器人進行道德倫理建構。
二、目前機器人道德倫理的三種理論進路
隨著科技和機器人技術的發(fā)展,機器人系統(tǒng)也日趨復雜,而這種復雜性要求機器人系統(tǒng)自身可以做出道德決策,即通過“倫理子程序”來程序化,而科學家將這稱之為人工道德智能體(AMAs)。
但是,針對機器是否應該具有道德,即人工道德智能體的建設有無必要性這一點科學界仍在進行探討,同時也探討在理論上如何有可能的構建人工道德智能體。耶魯大學教授溫爾德·瓦拉赫和著名認知哲學家科林·艾倫一同創(chuàng)作的《道德機器: 如何讓機器人明辨是非》一書,從理論上探討機器人倫理設計最具影響力的成果,他們把人工道德智能體的設計進路分為自上而下、自下而上和混合進路三種[4]。
一般而言,自上而下式進路是指在構建人工道德智能體應該選取一個倫理理論,如道義論或功利主義,在計算機程序中分析實現這一理論在信息和程序上的必要條件,接著把分析應用到設計子系統(tǒng)和它們相互之間聯(lián)系的方式上,因此在最初,科學家們對于機器人道德倫理的研究通常集中于自上而下的規(guī)范、標準和對道德判斷的理論進路。自上而下式進路不僅凸顯了倫理價值的重要性,也能夠幫助道德智能體辨明模糊的道德直覺方面。但是自上而下式進路也有其缺陷,一是很難辨別究竟是什么樣的更為具體的規(guī)則或準則才能得到人類的一致認可,另是人類也不可能計算出所有的可能,因此為人工道德智能體打造一套明確的自上而下的規(guī)則是行不通的。
自下而上式進路是基于進化與發(fā)展的觀點提出的,其重點是將行為體置于一個特定的環(huán)境中,而行為體在這其中可以像人一樣進行學習,并進一步發(fā)現或構建倫理原則,而不是如自上而下式進路一般直接定義了什么是道德。自上而下式進路在培育智能體的隱含價值觀上表現的更為直接,這種通過自下而上的發(fā)展方式更能反映出行為體具體的因果決定因素。因此自下而上式進路要求人工道德智能體能夠進行自我發(fā)展,而發(fā)展則是一個漫長和反復的過程。但是這種進路也存在某種缺陷,一是這一進路也許缺乏安全性,如讓系統(tǒng)處于道德倫理自上而下的引導下;二是這種自下而上的進化進路似乎也是人類負擔不起的奢侈。
從上述看,自上而下和自下而上兩種進路都具有明顯的劣勢,都不足以解決目前所面臨的問題,因此溫爾德和科林便提出了第三種進路——混合式進路。
工程師們對于復雜任務,通常都是從自上而下式的分析開始,去指導自下而上式地組織模塊。因此自上而下進路與自下而上進路的相互作用稱之為混合式進路,而如何將這兩個進路統(tǒng)一起來則成為科學家們思考的一個問題,在亞里士多德教誨中我們可以找到解決問題的關鍵,倫理美德與實踐智慧和智識美德,他認為,智識美德是可學習的,但是倫理美德卻需要通過習慣養(yǎng)成和實踐練習,這就意味著將不同的美德安置在人工道德智能體上可能需要不同的方式。
溫爾德和科林提出的構建人工道德智能體的混合式理論進路在軍事界也受到廣泛關注,如在國外的《自主軍用機器人: 風險、倫理與設計》這一報告中,就提出應該采用這一進路來設計軍用機器人[5]。
三、對機器人道德倫理的未來設想
自上而下進路、自下而上進路和混合式進路都是在理論上描述該如何設計人工道德智能體,但是沒有任何人知道該如何去實現它。
根據理論上的三種進路,研究人員也提出了在實際中應該如何設計道德軟件的三條一般進路[6],也許可能不止是三條進路,但是,在已經開始的現實的編程工作中,就只采用了以下三條進路:
一是基于邏輯的進路,它試圖提供一個數學上嚴格的框架來模擬理性智能體的道德推理;
二是基于案例的進路,從道德或不道德的行為事例中探索各種推理或學習道德行為的方式;
三是多智能體進路,則研究當遵循不同倫理策略的智能體相互作用時都會發(fā)生什么。
由于道德軟件正處于起步階段,為了更進一步的發(fā)展,我們也應該將感性方面的社交性、意識和情感等考慮到人工道德智能體的軟件設計中。也只有理性與感性的結合才能設計出更像人的人工道德智能體,這也將是未來機器人的道德倫理所發(fā)展的方向。
參考文獻
[1]曾艷濤.機器人的前世今生[J].機器人技術與應用,2012(02):1-5.
[2]張雪嬌. 阿西莫夫對機器人世界的倫理凝視[D].華中師范大學,2015.
[3]王東浩. 機器人倫理問題研究[D].南開大學,2014.
[4]杜嚴勇.機器人倫理設計進路及其評價[J].哲學動態(tài),2017(09):84-91.
[5]Patrick Lin,George Bekey,Keith Abney,Autonomous Military Robotics: Risk, Ethics and Design, http://ethics. calpoly. edu /onr report. pdf.
[6]Wendell Wallach,Colin Allen,Moral Machines:Teaching Robots Right from Wrong,Oxford 90 University Press,2009.
作者簡介:張彤(1995- ),女,陜西寶雞人,武漢理工大學哲學系在讀碩士。