李倫飛
吉首大學(xué)軟件學(xué)院,中國·湖南 張家界 427000
機器人倫理;人工智能;理論探索;應(yīng)用;挑戰(zhàn)
機器人發(fā)展到今天已經(jīng)成為了人們最好的輔助工具與輔助手段,在機器人的運用過程中可以減少人力資源的消耗,并且對人們認識自然、改造世界提供了重要的方法和手段,在社會生活和工作中有著重要占比的一項工具。目前人們對機器人的認可度越來越高,而人工智能在人類生活中的融入也越來越深。在倫理道德方面,由于人們的文化、生活習慣、信仰等方面因素的不同,導(dǎo)致了對機器人倫理的看法也不同,論文對機器人倫理進行分析。
機器人是否應(yīng)該享有權(quán)利?這與機器人在人類生活中扮演的角色息息相關(guān),如果機器人對于人類來說這是一類可以接收指令、完成命令的機械工具,那么機器人并不擁有權(quán)利,其自身安全對于人類來說并不重要。而如果人類將機器人當成是生活中的話伙伴,那么機器人就應(yīng)該享有作為人類伙伴而應(yīng)有的權(quán)利。在這種情況下,人對機器人就需要負起一定的義務(wù),減少“機器人是購買而來,可以隨意處置”的想法。但是目前,對機器人的功能越來越完善的情況,人們都持有期盼但是卻恐慌的姿態(tài),這種姿態(tài)也是人們對于“機器人權(quán)”是否應(yīng)該存在的復(fù)雜心理內(nèi)核,因為給一項事物賦予權(quán)力往往在大多數(shù)人眼里并不理所應(yīng)當,也會導(dǎo)致既得利益者對賦權(quán)的嘲諷與阻礙[1]。
對于工業(yè)或制造業(yè)機器人的應(yīng)用中,人們在被機器替代的過程中產(chǎn)生了大量的恐懼情緒。從合作者的角度來看,人類往往會擔心機器人因生產(chǎn)效率與質(zhì)量上的優(yōu)越而導(dǎo)致了自己的下崗,那么就有可能造成人類攻擊機器人的事件。在健康護理機器人的應(yīng)用中,因為機器人在護理、理療、康復(fù)甚至是手術(shù)方面的自主性就較高,存在一定的風險,且無法滿足患者需要的情感需求。在軍事機器人的應(yīng)用中,軍事機器人缺乏同情心,在人倫道德和人道主義方面無法考慮周全,無法判斷平民和敵人,可能因為戰(zhàn)爭為人們帶來更大的傷痛。在服務(wù)型機器人的應(yīng)用中,如何顯露出機器人自身的情感是目前在機器人倫理中的一項重要應(yīng)用,雖然機器人人性的表達是一項發(fā)展趨勢,但是針對機器人表達出來的情感,人類大多數(shù)無法接受[2]。
人類的科技是不斷向前邁步的,在機器人的生產(chǎn)制造中,最終會達到與人類的外觀無異的地步,上述說到的多種機器人在應(yīng)用中是否會做到與人類相同的道德決策是目前大眾所考慮的問題,同時也是機器人被創(chuàng)作的初衷。在機器人進入人類社會時,應(yīng)該要考慮為機器人劃一條道德紅線,特別是在軍事機器人和情感性機器人兩個方面。針對前者,在戰(zhàn)爭中針對軍方無人機、爆破機器人等機器人應(yīng)用不能夠傷害人類士兵的這一條原則早已經(jīng)在阿西莫夫的機器人定律中被提出,所以為了防止無論是誤傷還是有意為之,人類都應(yīng)該設(shè)立一條道德基線,限制軍事機器人的行動。針對后者則是在男女、老幼、幼童與成年人、男男、女女等關(guān)系之間的全新改革,引發(fā)出人類結(jié)婚、生育、成長等一系列生理、情感活動的問題,造成人與人之間關(guān)系的沖擊。不管沖擊的大小,也不管使用者的原本用途。需要牢記的是為其設(shè)立的道德紅線更加是人類的道德紅線。
機器人最終會在人們生活中被深入運用,而需要機器人自主作出決策的情況也越來越多,為了防止在極端情況下人類無法理智地作出相應(yīng)的決策,決策性機器人將起到重要的作用。在機器人的設(shè)計中,是需要機器人依照相應(yīng)的道德體系,在外部環(huán)境與自身情況的變化過程中對行為施展路徑可能性的全面計算,并決策出一條最優(yōu)決策。比如說軍事機器人的運用,在實際戰(zhàn)斗中的自行開火控制中,是否會區(qū)分出平民和敵方士兵是一項重要的問題。另外,當機器人擁有了自主決策權(quán)以及決策能力之后,是否會對人類進行反控制也是目前人們較為憂慮的問題,所以在對機器人進行設(shè)計時,需要保證其能夠依照服務(wù)人類的原則,設(shè)計保護使用者安全的程序,不能因為要發(fā)展機器人的自主決策權(quán)而使得其違背人類的初衷,威脅到人類的發(fā)展地位[3]。
機器人畢竟是由零部件組裝起來的具有一定指令執(zhí)行功能的機器,而在未來的發(fā)展中機器人的功能會逐漸完善,讓其擁有人類的道德判斷是非常重要的,而這一點只有從人類的道德體系中去尋找。因為一項事物的多面性以及人類個體的差異性,在很多事物上都存在道德的爭議,比如說謊言和善良的謊言,因為其出發(fā)點好壞和說謊的本質(zhì),在道德層面上很難判斷其是否是不好的行為,所以針對機器人的道德體系建立其實是一件非常困難的事情。目前較為統(tǒng)一的說法是根據(jù)不同的文化體系,在不同的國家、環(huán)境、地域中,機器人的道德體系構(gòu)建也不相同,并采取從多層次、多角度的構(gòu)建方式,使得人們能夠在目前國際文化多元化的發(fā)展趨勢中找到適合機器人的道德標準和道德體系,但是不變的是,人在道德體系參考中的主導(dǎo)地位是用永遠不變的。
機器人和人類的沖突重點必然在于對社會崗位的釋放以及生存競爭的加強,隨著機器人在越來越多的領(lǐng)域被應(yīng)用,自然而然會因為其高校精準的性能而被廣泛應(yīng)用,屆時將會有多個崗位被機器人替代,而許多人則面臨著失業(yè),這也就導(dǎo)致了剩余崗位中會出現(xiàn)巨大的競爭情況,目前的社會競爭形勢已經(jīng)非常嚴峻,如果在未來縮小人類崗位的話那么后果將不堪設(shè)想。從倫理道德角度出發(fā),人與其他生命的平等的,但是現(xiàn)實世界中往往存在著叢林法則,競爭從未有一天停止過,而如果機器人的倫理道德體系沒有被完善,那么將會出現(xiàn)更加嚴重的情況,畢竟機器人的思考方式往往都是完全理性的趨利避害,例如,在無人駕駛過程中,直行會碰撞到事故現(xiàn)場,而唯一的轉(zhuǎn)彎路線則會撞擊兒童,這個時候機器人會作出什么反應(yīng)?在本質(zhì)上來說,人類在遭遇上述情況也會作出相應(yīng)的反應(yīng),也就是說,機器人與人的倫理道德沖突,本質(zhì)上還是人類自身的道德矛盾,而機器人則在某種層面上替代了人類道德矛盾的對立面[4]。
所謂“一個核心”就是指機器人倫理核心。一般來說,需要將機器人與人類的關(guān)系表現(xiàn)為人類與機器人是使用者和被使用工具的關(guān)系、人類和機器人是合作伙伴的關(guān)系。按前者來說的話,人類與機器人的從屬關(guān)系,不具備道德性。而按照后者,在機器人具備了一定的道德地位的話,完全將人類的道德體系復(fù)制到機器人中也是不妥的,所以需要設(shè)計一個統(tǒng)一的應(yīng)用標準,綜合不同文化、意識形態(tài)、宗教主張和經(jīng)濟發(fā)展狀況來進行[5]。
所謂“兩個層面”就是指機器人在設(shè)計過程中的技術(shù)倫理與應(yīng)用過程中的使用倫理,這也是機器人的最終道德體現(xiàn)。一般來說,在設(shè)計的過程中機器人工程師將會很在機器人的道德性設(shè)計中加入自身的情感元素和價值傾向,但是值得注意的是,在設(shè)計的程序中一定要加入兼容性元素,要使得機器人在使用的時候能夠?qū)Σ煌膫惱肀憩F(xiàn)而包容,更有利于其參與人類生產(chǎn)。在應(yīng)用過程中需要機器人受到相應(yīng)的規(guī)范監(jiān)管和道德約束,要求其優(yōu)先考慮的是人類的整體利益。
所謂“三個原則”就是指阿西莫夫提出的機器人三大定律,分別是:機器人不能傷害人,也不能在別人受傷時而袖手旁邊;對使用者的一切命令進行服從,但是不能違抗第一點;機器人應(yīng)該要保護自身的安全,但是不能違反上述兩點。在科技的發(fā)展下,僅僅是三原則也不能完全適用于社會中機器人的使用,所以可以將第一點改為人類與機器人不能相互傷害,且雙方受到無辜傷害時不袖手旁邊,將第二點改為在一定的自主權(quán)利下,在符合正確價值觀的要求下服從使用者命令,第三代改為人類與機器人和諧相處[6]。
目前,使用最為廣泛的機器人就是無人機,以無人機的視角來看,世界各國針對無人機駕駛的已經(jīng)有了較為健全的法律法規(guī),而中國雖然機器人事業(yè)起步較晚,但是在無人機行業(yè)中也已經(jīng)處于世界領(lǐng)先地位,在法律方面,中國可以參照美國國會的建議,建立專門的機器人管制部門進行整治,比如說對于無人機可能會侵犯到個人隱私的問題進行整治,確立制度。另外,在機器人的民事法律方面,需要對智能機器人進行登記,建立保險保障法案、智力成果產(chǎn)權(quán)保護法案等基本法律來為機器人提供法律管控規(guī)范。一般來說,因為機器人的發(fā)展非??焖伲枰槍C器人的法律法規(guī)做定時修改,建立合理的法律法規(guī)體系。只有機器人在道德、法律的雙重管制下才能夠健康發(fā)展,推動人類社會全面的發(fā)展。
隨著機器人技術(shù)的快速發(fā)展,機器人的種類越來越多,在各行各業(yè)都有機器人的身影,為人們的生產(chǎn)生活帶來了極大的便利和貢獻,但是在機器人發(fā)展的同時也會帶來較為嚴重的倫理道德問題。目前在國際上針對機器人的倫理道德研究已經(jīng)非常深入,中國作為科技大國自然也肩負起對機器人倫理理論的研究重任,提出相關(guān)的法律法規(guī)和應(yīng)用策略。