国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

創(chuàng)造智能道德機器的倫理困境及其破解策略

2019-08-27 01:32蘇令銀
理論探索 2019年4期
關(guān)鍵詞:倫理困境

〔摘要〕 隨著人工智能的廣泛應(yīng)用,如何讓未來具有高度自主性的智能機器作出倫理推理和道德決策,成為機器倫理研究中亟待解決的難題之一。智能道德機器創(chuàng)造中必須深入探討智能機器成為道德能動者的前提與可能。人工智能、機器人領(lǐng)域的研究人員和程序員等非倫理學(xué)家面臨著諸如道德哲學(xué)知識缺失可能導(dǎo)致智能道德機器倫理假設(shè)偏誤,倫理理論多元加大了倫理共識達(dá)成的難度,“電車難題”造成倫理決策困境,人工智能的法律應(yīng)用存在機器偏見,倫理方法論的多元性造成正當(dāng)性辯護(hù)與道德行為選擇困難等更為突出的倫理困境。破解這些倫理困境,對創(chuàng)造智能化、人性化的道德機器是非常必要的。有效破解這些倫理困境,需要實現(xiàn)道德哲學(xué)與人工智能的融合發(fā)展,需要重新審度倫理自身的合理性,在多元價值中達(dá)成倫理共識,最終構(gòu)建面向智能機器本身的可執(zhí)行倫理機制。

〔關(guān)鍵詞〕 智能道德機器,道德能動者,道德多元論,倫理困境

〔中圖分類號〕N1?? ?〔文獻(xiàn)標(biāo)識碼〕A〔文章編號〕1004-4175(2019)04-0030-08

在可預(yù)見的時空范圍內(nèi),人工智能系統(tǒng)面臨著擺脫人類監(jiān)管并獨立自主地作出道德決策和行動的巨大風(fēng)險和挑戰(zhàn)﹐甚至?xí)呱蠈谷祟愔?。這種不確定性將使智能機器面臨的道德風(fēng)險日漸凸顯。人類迫切需要確保智能機器的設(shè)計符合道德規(guī)范,即亟需創(chuàng)造出“道德機器”。伴隨著人工智能和機器人等技術(shù)取得的長足發(fā)展和進(jìn)步,機器倫理的跨學(xué)科領(lǐng)域,諸如計算機信息科學(xué)、人工智能(AI)和機器人等現(xiàn)有的和未來的技術(shù)發(fā)展領(lǐng)域,幾乎都不可避免地面臨如何給智能機器進(jìn)行倫理規(guī)則編程,以便使它們成為隱性或顯性的道德能動者 〔1 〕。蘇珊·安德森(Susan Anderson)將人工智能機器“合乎倫理”的目標(biāo)定義為“創(chuàng)造一臺遵循理想倫理原則或一套指導(dǎo)其行為的倫理原則的機器;換句話說,在它針對可能采取的行動方案作出決定時,就是由這一倫理原則或這些倫理原則指導(dǎo)。簡單地說,這涉及到為智能機器增加倫理維度的問題” 〔2 〕22。未來出現(xiàn)完全自主的、類人化的、能夠進(jìn)行倫理推理和決策的智能機器似乎是不可避免的。這里主要關(guān)注計算機信息科學(xué)、人工智能和機器人技術(shù)領(lǐng)域的研究人員和程序員在試圖構(gòu)建這種道德機器時所面臨的倫理困境問題?;趯υ擃I(lǐng)域現(xiàn)有決策程序的回顧,人們發(fā)現(xiàn)這一領(lǐng)域的研究人員和程序員既沒有對倫理問題本身有足夠的理解,也缺乏足夠的倫理或道德哲學(xué)知識構(gòu)建在倫理推理和決策方面可以與人類相媲美的道德機器。未來創(chuàng)造道德機器是完全可以想象的,對人類來說可能是一個有價值、有意義的巨大社會技術(shù)進(jìn)步。然而,實現(xiàn)這一目標(biāo)需要創(chuàng)造者具有相當(dāng)?shù)膫惱砘虻赖抡軐W(xué)知識。智能道德機器的倫理決策應(yīng)該基于避免不道德行為或禁止某些不道德行為,以及解決道德問題應(yīng)建立在多元倫理方法基礎(chǔ)之上,而不是依賴于特定的倫理方法論來解決。

一、創(chuàng)造智能道德機器的前提條件及其可能性

(一)前提條件

多數(shù)學(xué)者主張,智能機器能夠成為道德能動者最重要的前提條件是自主性。波克(Bekey)指出,自主性的概念可以定義為“機器一旦被激活并且至少在某些操作領(lǐng)域,以及在很長一段時間內(nèi)和沒有任何外部控制的情況下,而且在真實世界環(huán)境中運行的能力” 〔3 〕18。這意味著,如果最大限度地提高機器在現(xiàn)實環(huán)境中的操作能力,人們就能創(chuàng)造出能夠執(zhí)行各種極其復(fù)雜任務(wù)的智能機器(Intelligent Robots),這些任務(wù)很可能是人類無法完成的。提高這種能力的方法是完善人工智能在機器人中的應(yīng)用,即“讓機器做那些如果由人來做的話就需要智能的事情” 〔4 〕1。從技術(shù)層面上看,智能機器需要合適的算法并根據(jù)其所感知到的輸入信息來解決任何問題。然而,有人認(rèn)為智能機器不能成為道德能動者,因為算法本身是有限的或確定性的。因此,機器缺乏自主性,而自主性本身通常被理解為是道德能動性的先決條件。如果智能機器必須按照一套固定的規(guī)則行動,那么它們就不能被視為道德能動者。這一反對觀點被長久而詳細(xì)地討論過,但在此需要強調(diào)兩點。首先,智能機器有可能從它們過去的經(jīng)驗中學(xué)習(xí),從而重新編程并改變它們的算法,并因此通過改變它們預(yù)先固定的規(guī)則集來適應(yīng)新的可能情況。其次,許多從事跨學(xué)科和復(fù)雜自由意志問題研究的有影響力的哲學(xué)家和神經(jīng)生物學(xué)家,都對機器是否具有類似人的自主性,以及自主性是否是道德能動者的必要前提表示存疑。為了證明道德機器永遠(yuǎn)無法作出類似人類的自主性道德決策,反對者必須回應(yīng)這兩種意見。但是,這種決定性的駁斥論據(jù)尚未提出。因此,基于自主性反對因智能機器算法的性質(zhì)從而否定它們的道德能動性,這是無法令人信服的。因為它表明智能機器應(yīng)該滿足道德能動性(自主性)的一個假定的必要先決條件,而道德能動性(自主性)的實現(xiàn)即使是對于人類本身也是存在爭議的。

(二)可能性

詹姆斯·摩爾(James H. Moor)在其頗具影響力的論文《機器倫理的本質(zhì)、重要性和難題》中,對四種類型的道德能動者進(jìn)行了重要的區(qū)分 〔1 〕。摩爾認(rèn)為受道德因素影響的能動者是一種幫助道德能動者避免不道德行為發(fā)生的機器。他引用了機器人駱駝騎士來取代小男孩的例子,這些小男孩被當(dāng)作奴隸而在比賽中騎駱駝?!坝嬎慵夹g(shù)通常具有重要的倫理影響。被機器駱駝騎士取代的年輕男孩被從奴隸制度中解放出來” 〔1 〕。內(nèi)隱道德能動者是一種通過編程使其行為合乎道德,或通過遵循設(shè)計師所遵循的道德原則的編程來避免不道德行為的機器。而一個顯性的道德能動者實際上使用倫理原則來解決倫理問題?!耙粋€完全道德的能動者能夠作出顯性的道德判斷,并且通常能夠合理地為其道德判斷辯護(hù)” 〔1 〕。顯性的道德能動者和完全道德能動者都使用倫理原則來作倫理決策,但只有后者才能為這些決策提供正當(dāng)性辯護(hù)。大多數(shù)學(xué)者只提到這四種類型中的兩種(隱性和顯性)。因此,給人的印象是顯性道德能動者是道德能動者的主要方面。這是不全面的,因為它將討論局限于“有限的顯性道德能動者”,而不是完全的道德能動者。摩爾強調(diào)指出:“一個完全道德的能動者能夠作出顯性的道德判斷,并且通常能夠合理地為其道德判斷辯護(hù)。一個普通的成年人就是完全的道德能動者。人們通常認(rèn)為人類具有意向性和自主性。機器能成為一個完全的道德能動者嗎?正是在這方面,關(guān)于機器倫理的爭論變得最為激烈。許多人認(rèn)為在目前討論的機器倫理與完全的道德能動者之間存在一條清晰的界線。對他們來說,機器不能越過這條線,這條線標(biāo)志著人類與未來可能出現(xiàn)的任何智能機器人之間本體論意義上的重要區(qū)別。” 〔1 〕摩爾認(rèn)為,僅僅堅持通過哲學(xué)論證或?qū)嵶C研究,是不可能回答“機器是否會成為完全的道德能動者”這一問題的。因此,他建議考慮發(fā)展有限的顯性能動者。按照摩爾的說法,即使它們最終不能成為完全的道德能動者,它們?nèi)匀豢梢浴皫椭乐共坏赖碌慕Y(jié)果”,但即使是這樣,人類也不應(yīng)該“對自己發(fā)展這類智能機器的能力過于樂觀” 〔1 〕。

這種觀點面臨兩個問題。首先,從哲學(xué)或經(jīng)驗的角度來說智能機器是否能成為完全的道德能動者,或者僅僅是人類目前無法做到這一點,這一問題總體上是不可能回答的。更樂觀的方法將只假定人類目前無法做到。其次,詹姆斯·摩爾的警示性聲明相當(dāng)缺乏說服力。他曾警告即使創(chuàng)造出具有明確道德標(biāo)準(zhǔn)的機器,也許是不可能實現(xiàn)的。他提出的主要依據(jù)包括:(1)人類對倫理的復(fù)雜性主題只能實現(xiàn)有限的理解;(2)人類對學(xué)習(xí)現(xiàn)象,尤其是關(guān)于圖靈所設(shè)想的“幼稚機器”① 缺乏了解;(3)計算機缺乏常識和世界知識 〔1 〕。事實上,人們應(yīng)該抵制這些異議,主要原因是技術(shù)發(fā)展的軌跡表明似乎很有希望。此外,許多人會爭辯說,盡管道德哲學(xué)本身仍然無可爭議地存在著尚未解決的復(fù)雜道德問題,但它在過去幾個世紀(jì)中也同樣取得了重大進(jìn)展。然而,人們不應(yīng)忽視關(guān)于道德進(jìn)步這一富有爭議問題的兩個關(guān)鍵點。首先,制定道德規(guī)則將某些行為歸類為不道德,似乎比為所有人規(guī)定正確的道德規(guī)范更容易 〔5 〕。這是因為在現(xiàn)實生活中存在著多種生活方式,從這些生活方式中可能出現(xiàn)不同的規(guī)范行為,這些行為可以被視為同樣好或者至少在道德上不應(yīng)受到譴責(zé),而人們也可以確定一些被普遍認(rèn)為不道德的特定行為,比如強奸、酷刑、盜竊和猥褻兒童。其次,不可否認(rèn),有些重要的道德發(fā)展的歷史可以說是人類的道德進(jìn)步,比如廢除奴隸制、承認(rèn)普世人權(quán)、公正的審判、犯罪與懲罰相匹配、性別平等和動物權(quán)利的認(rèn)可,等等。道德進(jìn)步的概念并不是說所有這些觀點都被所有人完全接受和承認(rèn),而是說在過去幾個世紀(jì)中,人類在這些問題上總體上取得了巨大的道德進(jìn)步。

因此,必須要認(rèn)真考慮智能機器成為完全的道德能動者的可能性。未來如果智能機器變得更復(fù)雜、更強大和高度自治并被賦予無與倫比的人工智能,那么與此類機器的巨大自由相匹配的道德標(biāo)準(zhǔn)將是避免造成可能傷害的必要條件。

二、創(chuàng)造智能道德機器的倫理困境

計算機科學(xué)、人工智能、機器人領(lǐng)域的研究人員和程序員應(yīng)該更加關(guān)注倫理推理和決策的方法論問題。在沒有正確理解的情況下,這些問題可能會阻礙他們創(chuàng)造智能道德機器的努力。由于諸多原因,試圖授權(quán)智能機器作出合理道德決策的方法難以令人信服,并時常會遭到部分學(xué)者的批評。這一批評并非暗示智能機器將永遠(yuǎn)無法作出道德決定從而成為完全的道德能動者;相反,它意在表明,由于倫理推理和道德決策的復(fù)雜性,它們往往比人工智能研究人員和程序員最初可能認(rèn)為得更加困難。然而,從長遠(yuǎn)來看,沒有任何原則性的理由表明智能機器的倫理推理和道德決策不會最終成為現(xiàn)實 〔6 〕164。目前,智能道德機器創(chuàng)造中的倫理困境主要體現(xiàn)在以下幾個方面:

(一)道德哲學(xué)知識缺失可能導(dǎo)致智能道德機器倫理假設(shè)偏誤

由于在機器倫理領(lǐng)域工作的計算機科學(xué)、人工智能和機器人領(lǐng)域的研究人員和程序員等道德哲學(xué)知識的缺失,使得他們很有可能從錯誤的倫理假設(shè)出發(fā),在不可靠的基礎(chǔ)上確立他們創(chuàng)造道德機器的方法。例如,機器倫理研究領(lǐng)域著名學(xué)者安德森和安德森就發(fā)展了三個不同的應(yīng)用程序:(1)解決倫理困境的醫(yī)學(xué)顧問系統(tǒng)(MedEthEx),(2)用于老年人的用藥提醒系統(tǒng)(EthEl),(3)場景化的老年人用藥提醒機器人。他們認(rèn)為這是第一個遵循道德原則決策并決定行動需要的機器人的例子。然而,他們著名的醫(yī)療顧問系統(tǒng)(MedEthEx)建立在一些有爭議的主張之上,這些主張削弱了他們原本有趣的論述。他們指出,“因為從事生物醫(yī)學(xué)倫理學(xué)研究的倫理學(xué)家比其他領(lǐng)域的倫理學(xué)家之間擁有更多的共識,而且職責(zé)也更少,所以我們決定開始利用比徹姆和奇爾德里斯的生物醫(yī)學(xué)倫理學(xué)原則,開發(fā)我們的首要職責(zé)方法,從而對倫理進(jìn)行計算” 〔7 〕。生物倫理學(xué)家承認(rèn)他們的領(lǐng)域是所有應(yīng)用倫理學(xué)中最復(fù)雜和最具挑戰(zhàn)性的領(lǐng)域之一,生物倫理學(xué)家之間嚴(yán)重缺乏道德統(tǒng)一性。此外,所建議的生物倫理學(xué)的方法,盡管已經(jīng)被從業(yè)者和生物倫理學(xué)家廣泛運用了幾十年,但在規(guī)范和平衡的方法方面是復(fù)雜的,不容易運用。因此,克勞澤和哥特(Clouser and Ger)認(rèn)為,邁克爾·安德森(M. Anderson)和蘇珊·安德森從誤導(dǎo)的假設(shè)出發(fā),使用了一個非??量糖腋叨葼幾h的理論。因此,她們危及了自己的項目,因為她們錯誤地判斷了生物倫理學(xué)領(lǐng)域目前存在的倫理復(fù)雜性,并高估了作為機器倫理模范作用的原則主義的能力 〔8 〕。在另一項研究中,蘇珊·安德森采用了另一種方法。她指出,由于對每個人而言倫理都太過復(fù)雜,以至于他們無法堅持簡單的絕對倫理理論,為此,她建議從特定的案例入手,最終“以一種允許自動分析的方式使用大量案例”。從這些信息中,可能會出現(xiàn)普遍的倫理原則” 〔2 〕25。然而,她自己基于羅斯(Ross)的多重首要責(zé)任的方法,最終面臨著如何能在相互沖突的責(zé)任之間作出合理決策的問題。此外,她建議在創(chuàng)造“道德機器”之前,先從充當(dāng)“道德顧問”的機器著手,因為后者要求“對機器本身的狀態(tài)作出艱難的判斷” 〔2 〕26。誠然,一個人可以因此避免關(guān)于智能機器的道德地位和道德權(quán)利界定的難題,但一個人越早開始思考這些問題,當(dāng)時機到來時他的應(yīng)對之策就會越充分。此外,麥克萊倫(McLaren和托倫斯(Torrance)等人也支持使用機器作為道德顧問的想法 〔9 〕310-312。例如,托倫斯認(rèn)為,如果我們能創(chuàng)造出這樣的機器,人們也會學(xué)到一些關(guān)于人類道德的東西,并且總體來說,這些機器對人類是有益的和有教育意義的 〔10 〕。

(二)倫理理論多元加大了倫理共識達(dá)成的難度

許多倫理理論已經(jīng)被廣泛被用來解決道德問題,其中最突出的是美德論、義務(wù)論、功利主義、決疑論和契約論。目前,在創(chuàng)造智能道德機器的過程中,倫理學(xué)家對于究竟使用哪種倫理理論尚未達(dá)成共識。倫理學(xué)家在處理道德問題時也會從不同的方法中作出選擇。這種多元論在機器倫理的研究方法(比如機器倫理框架建構(gòu))中同樣面臨著類似的困境問題 〔11 〕。智能機器將比人類更善于作出道德決定的基本觀點至少面臨兩個問題。首先,在宣稱機器可以在道德上作出更好的決定之前,人們必須有一個正確的倫理方法,它需要比其他現(xiàn)有的理論更好②。其次,許多道德問題可能同樣有好處,但也必須考慮到不同的決定(例如,相同的道德問題可以在不同的文化背景下以不同的方式得到充分解決)。此外,當(dāng)涉及倫理學(xué)多元論時,避免極端的道德相對主義,并接受所有人都承認(rèn)的普遍道德準(zhǔn)則的堅強核心(例如,一個人不能謀殺或強奸、侮辱他人或侵犯他人權(quán))似乎是合理的。在這一道德準(zhǔn)則核心之外,只要這些特定的準(zhǔn)則不與普遍準(zhǔn)則的核心或國際人權(quán)的共同話語相沖突,人們就應(yīng)該根據(jù)他們在特定社會中的特定道德自由行事。這一觀點在麥克林對道德相對主義問題的精辟描述中得到了進(jìn)一步的證實:“長期以來,圍繞倫理道德是否與時間和空間有關(guān)的問題一直存在爭議。一方認(rèn)為,普遍倫理準(zhǔn)則沒有明顯的來源,倫理的對錯是其文化和歷史背景的產(chǎn)物。反對者則聲稱,即使一套普遍的倫理規(guī)范尚未被闡明或達(dá)成共識,倫理相對主義也是一種有害的學(xué)說,必須予以拒絕?!?〔12 〕4

(三)“電車難題”造成倫理決策困境

一個基本的決策涉及是否采用類似新康德主義的方法或享樂主義、功利主義的方法來解決道德問題。當(dāng)人們考慮著名的道德困境即所謂的“電車難題”時,這兩種對立的方法之間的道德差異就變得顯而易見了。標(biāo)準(zhǔn)版的“電車難題”是說一輛有軌電車失去了控制,即將造成五人死亡。有軌電車可以通過改變鐵軌上的道岔來改變方向。然而,這樣會導(dǎo)致一名工人被重新改變了方向的電車撞死。為了挽救五個人的生命而使鐵軌改道,從而造成一名工人的死亡,在道德上是否允許?根據(jù)康德的觀點,如果不改變電車的方向,任何人都不能為了救那五個人而危害那一位工人。從功利主義的觀點來看,一個人必須考慮他的行為的后果和總效用,即對大多數(shù)人來說有最大的好處,因此他必須改變電車的方向。這兩種倫理理論最終導(dǎo)致了不同的解決方案。從特定理論的角度來看,每一種方案都是合理的。也就是說,如果機器運用一種新康德主義的方法,它將作出與功利主義道德理論的機器不同的倫理決策。當(dāng)然,人類也面臨著同樣的道德困境,目前還沒有其他的根據(jù)來確定一個理論是錯誤的,而另一個理論是正確的。人類的生活本來在道德上是復(fù)雜的,當(dāng)然不能用一個簡單的公式來計算。因此,道德機器必須能夠以符合公正和道德自身深度的方式來對待和處理這類具體案例。有人可能會反對,認(rèn)為在這個時刻機器人沒有必要來決定這種道德困境。但考慮到目前無人駕駛汽車③ 和無人駕駛火車系統(tǒng)的發(fā)展,這種反對意見是有問題的,因為這兩種系統(tǒng)可能恰恰面臨如此復(fù)雜的道德決策。在這種進(jìn)退兩難的情況下,智能機器最終是否能找到比人類更佳的道德解決方案還有待進(jìn)一步觀察。

(四)人工智能的法律應(yīng)用存在機器偏見

另一個復(fù)雜因素涉及智能技術(shù)在法律領(lǐng)域的應(yīng)用。許多人預(yù)測人工智能法官的最終出現(xiàn),他們將像評判其他智能機器一樣評判人類。即使他們先進(jìn)的編程能夠潛在訪問世界上所有可用法律文件,包括法律評論、先前的判例和復(fù)雜的法律策略。但至少在某種程度上,這些程序如何在法律辯護(hù)和起訴團隊之中相互影響,仍然是一個懸而未決的問題。這在很大程度上將取決于人工智能程序使用的基本數(shù)據(jù)是如何準(zhǔn)備的,以便避免所謂的法律上的機器偏見。目前,“AI法官”仍然是一個思辨的概念,但人工智能程序在法律上的應(yīng)用已經(jīng)發(fā)生。例如,有一些人工智能程序能夠決定歐洲人權(quán)法院 〔13 〕和美國最高法院 〔14 〕的法庭判決。此外,一些人工智能程序正在幫助美國部分州的法官評估某個人再次犯罪的可能性。這種風(fēng)險評估在決定是否釋放罪犯或嫌疑犯,或?qū)⑵潢P(guān)押在監(jiān)獄中是極為重要的。然而,事實證明這種人工智能風(fēng)險評估對某些種族有很強的道德偏見,因此被證明是不公平的。不幸的是,美國許多州的法官仍在根據(jù)這些項目作出裁決。機器偏見是一個嚴(yán)重的道德問題,作為人工智能領(lǐng)域的程序員必須密切關(guān)注它,以避免創(chuàng)造出對某個群體不利的智能機器。

(五)倫理方法論的多元性造成正當(dāng)性辯護(hù)與道德行為選擇困難

倫理學(xué)中許多方法論問題,即使是倫理學(xué)家也沒有徹底解決。其中有兩個長期存在的方法論問題,它們對創(chuàng)造道德機器的努力具有極其重要的意義。

首先,正當(dāng)性辯護(hù)的多元方法論問題。正當(dāng)性辯護(hù)問題產(chǎn)生于這樣一個基本事實,即目前沒有被廣泛認(rèn)為通向道德途徑的唯一正確的終極倫理理論。從經(jīng)驗層面上來講,一個人在擔(dān)任某倫理委員會成員時,可以經(jīng)常就共同商定的解決方案與成員們提出的各種辯護(hù)理由之間的差異提出有趣極其重要的意見。通常,倫理委員會的決定是相當(dāng)統(tǒng)一的,但倫理委員會的成員往往為他們的決定提供各種不同的辯護(hù)理由。這一結(jié)果表明,不同的倫理理論或觀點在它們對許多道德問題的看法上是重疊的,即使它們運用的論證路線完全不同。當(dāng)然,有人可能會反對說,倫理委員會一般都在尋求最佳的務(wù)實決策,而“標(biāo)準(zhǔn)的”道德推理和倫理決策則與正確的道德決策有關(guān),它不受任何可能有利于更務(wù)實解決方案的外部因素的影響。因此,倫理委員會的目標(biāo)往往是雙重的,即在其道德決策過程中找到最佳可行和最務(wù)實的解決方案。這里的關(guān)鍵是人工智能研究人員或程序員必須意識到,在為道德機器編程時,不同的倫理理論往往會基于不同的原因而提供道德決策。為了避免倫理上的偏見,似乎有必要創(chuàng)造道德機器。從不同的倫理角度、使用多種倫理理論來考量現(xiàn)實道德問題,然后在確定和考量了所有可能的問題之后,作出一個平衡的道德決策。因此,這兩種倫理理論可能會基于各自不同的核心價值觀而得出不同的道德結(jié)果。因此,一些道德哲學(xué)家如布羅迪(Brody)和戈登(Gordon)提出了基于幾個倫理學(xué)關(guān)鍵概念的更加多元化的方法,以便避免道德決策中的理論偏見 〔15 〕32 〔16 〕11-20。這一推論表明,為了在理論上不偏不倚,機器倫理應(yīng)該使用一種為道德生活的復(fù)雜性進(jìn)行變化的方法。

其次,避免不道德行為的多元方法論問題。如果多元論確實存在于倫理學(xué)領(lǐng)域,人們應(yīng)該盡量避免作不道德的事情,而不是試圖在給定的情況下尋求道德上完美的解決方案。這些倫理學(xué)的方法論困境在人工智能機器(比如無人駕駛汽車)的倫理選擇中也造成了現(xiàn)實困境 〔17 〕。尋求創(chuàng)造道德機器的計算機信息科學(xué)、人工智能和機器人領(lǐng)域的研究人員和程序員必須清楚地理解這些道德方法論問題,否則要創(chuàng)造出智能道德機器注定是無法實現(xiàn)的。正如戈登所指出的,“為了更好地理解不應(yīng)該做什么,機器倫理應(yīng)該關(guān)注各種倫理方法之間的相似性。換句話說,人們應(yīng)該嘗試更詳細(xì)地闡明道德能動者應(yīng)該如何行動,而不是他們應(yīng)該避免做什么” 〔5 〕。這種方法在道德增強的背景下有一個類比,其中提出了一個類似的問題,即為了使人類更有道德,究竟應(yīng)該使用哪種倫理方法作為默認(rèn)的道德立場。對這個問題一個合理的回答是嘗試就“我們在道德生活想要避免的一系列有約束力的事情” 〔5 〕達(dá)成一致。同時,創(chuàng)造出允許它們在不同類型但同樣可接受的道德解決方案的框架內(nèi)作出道德決策和采取相應(yīng)的行動機器。畢竟,這似乎是目前人們在機器倫理領(lǐng)域所能期望的最好結(jié)果。在這一點上,人類的道德與機器的道德有些不同,因為人類通常是在“如何過一種善的生活”這個更基本問題的背景下作出道德決定的。另一方面,機器可以獨立于人類意義、成就或幸福的考慮來解決具體的道德問題。這兩種觀點最終會產(chǎn)生不同的結(jié)果還是實際上彼此一致,這完全是另一回事。人們可以相當(dāng)合理地認(rèn)為,人類的道德是由這樣一種假設(shè)所豐富和塑造的:人類的生活因其存在性(例如,他們對充實、幸福生活的渴望)而具有比智能機器更深層次的意義。因此,人們可以有理由認(rèn)為人類的道德超越了簡單的“避免不道德行為”的動機,因為人類也想過一種善的生活。至少在不久的將來,機器將無法提出這樣的生存論問題,也無法相應(yīng)地安排它們的生活。因此,智能機器的倫理推理和道德決策缺乏這種額外的存在主義視角。應(yīng)該看到,這里所討論的想法并不容易實現(xiàn)。然而,應(yīng)該清楚的是對一種能夠使智能機器作出道德決策或甚至道德上最好決策的終極機器倫理的尋求,是建立在尋求一種反過來也可以用于機器的終極道德理論基礎(chǔ)的更廣泛的努力之上的。蘇珊·安德森認(rèn)為機器倫理可能帶來人類的道德進(jìn)步:“我相信機器倫理研究有潛力取得道德理論上的突破,它帶來普遍接受的倫理原則與道德機器交互可能激發(fā)我們使自己的行為更道德?!?〔6 〕524然而,目前還沒有這樣的終極道德理論能夠充分捕捉到人類道德生活的全部復(fù)雜性(更不用說像動物、自然和人工物這樣的非人類實體了)。因此,人們應(yīng)該對道德及其發(fā)展采取一種更加溫和的態(tài)度,并把試圖避免不道德行為作為出發(fā)點,以及使用多元倫理方法而非單一道德理論來解決道德問題。

三、創(chuàng)造智能道德機器倫理困境的破解之策

對人類生存和發(fā)展來說,人工智能的應(yīng)用意味著一場有著深刻影響的社會道德試驗。針對人工智能應(yīng)用過程中的潛在社會道德和法律風(fēng)險,國際社會在“如何創(chuàng)造智能道德機器”這一問題上提出了一系列嘗試控制智能機器的方案并逐漸達(dá)成了共識:借助智能算法把人類的道德價值觀念和倫理準(zhǔn)則“嵌入”到智能機器之中,以此讓它們具有和人類類似的道德感、羞恥感、責(zé)任心和同情心等倫理道德。為此,人類迫切需要借助算法把人類的價值觀、道德準(zhǔn)則和倫理規(guī)范等“嵌入”智能機器中,以便讓智能機器能夠在現(xiàn)實的人工智能應(yīng)用場景中,作出道德推理和倫理推理。針對智能機器既有道德決策方法的缺陷和創(chuàng)造智能道德機器過程中面臨的突出倫理困境,可以嘗試從以下幾個方面著手解決:

(一)實現(xiàn)道德哲學(xué)與人工智能的融合發(fā)展

創(chuàng)造智能道德機器離不開必要的道德哲學(xué)或倫理學(xué)理論知識。從某種意義上來說,創(chuàng)造智能道德機器的過程就是計算機科學(xué)、人工智能和機器人領(lǐng)域的研究人員和程序員運用道德哲學(xué)或倫理學(xué)專業(yè)知識的過程。然而,目前這一領(lǐng)域的人員普遍缺乏相關(guān)的道德哲學(xué)和倫理學(xué)理論知識。為此,需要不斷增加對人工智能、機器人和計算機科學(xué)等領(lǐng)域道德哲學(xué)知識的供給力度,實現(xiàn)道德哲學(xué)與人工智能的融合發(fā)展。

一是面對人工智能和智能機器人技術(shù)的廣泛應(yīng)用,倫理學(xué)家需要深入研究和探討這一領(lǐng)域涉及的突出道德問題,在此基礎(chǔ)上提出切實有效的引領(lǐng)智能時代發(fā)展進(jìn)步的倫理準(zhǔn)則和道德指南,使人工智能的工程技術(shù)人員在創(chuàng)造智能道德機器過程中做到“有章可循”。

二是作為人工智能的研究人員和程序員,也有必要積極向倫理學(xué)家尋求幫助,學(xué)習(xí)掌握必要的道德哲學(xué)和倫理學(xué)知識。因為創(chuàng)造智能道德機器的任務(wù)最終要由人工智能研究人員和程序員來落實。

三是可以考慮在未來計算機科學(xué)、人工智能和機器人等相關(guān)專業(yè)中開設(shè)工程倫理課程,有目的、有計劃地對這些相關(guān)專業(yè)人員進(jìn)行倫理學(xué)和道德哲學(xué)知識的教育。注重對相關(guān)領(lǐng)域人員開展計算機信息倫理、工程倫理專業(yè)知識的培訓(xùn),甚至可以考慮在相關(guān)職業(yè)資格考試中加大倫理專業(yè)知識的考核內(nèi)容和力度。

(二)重新審度倫理自身的合理性,在多元價值中達(dá)成倫理共識

在智能革命時代,創(chuàng)造智能道德機器的必要前提之一是倫理共識的達(dá)成。而要達(dá)成這種倫理共識,不只是要為智能機器“增加倫理維度”以便作出道德決策和推理的問題,同樣也有必要重新審度倫理自身的合理性與時代性。智能革命時代的技術(shù)變革正深刻影響著人們的生活世界和交往方式。面對這種由于技術(shù)革命而深刻變化的生活世界與交往方式,倫理自身的合理性與時代性也備受質(zhì)疑。從智能時代的技術(shù)進(jìn)步和倫理重建的互動角度需要對下述問題進(jìn)行深入思考:

一是倫理究竟在何種意義上可以擔(dān)當(dāng)智能機器決策的裁判者?倫理對于人工智能技術(shù)的規(guī)制是以善匡正真。倫理并不能直接裁判技術(shù)本身的善惡,也就無法裁判何種技術(shù)是否合理。倫理對人工智能本身的裁判,著眼點是人工智能應(yīng)用的合倫理性。

二是倫理本身能否為人工智能發(fā)展和應(yīng)用劃定禁區(qū)?一種觀點認(rèn)為人工智能發(fā)展和應(yīng)用具有禁區(qū),倫理能夠為其劃定“不可逾越的倫理禁區(qū)”。也有學(xué)者認(rèn)為人工智能禁區(qū)這一說法具有歧義性,必須具體分析它是在何種意義上而言的。由技術(shù)成熟度所決定的科學(xué)意義上的禁區(qū),倫理沒有資格為其設(shè)定禁區(qū)。倫理意義上的“禁區(qū)”指的是人工智能應(yīng)用的特殊倫理規(guī)定,即只能從善,不能作惡。

三是究竟是人工智能背離了倫理,還是倫理離開了人工智能?不僅人工智能應(yīng)用應(yīng)當(dāng)從倫理獲得合理性辯護(hù),倫理自身是否合理也應(yīng)當(dāng)從現(xiàn)代技術(shù)獲得某種道德辯護(hù)。這種辯護(hù)并非直接通過技術(shù)方式給予直接證明,而是考量它能否為技術(shù)進(jìn)步與人的自由而全面地發(fā)展提供價值指導(dǎo)。倫理必須從人的生活世界獲得合理性證明。如果一種倫理不但不能促進(jìn)反而阻礙現(xiàn)代技術(shù)進(jìn)步與人的自由而全面發(fā)展,這種倫理的合理性是值得存疑的。

當(dāng)今多元社會更加離不開共識,否則人類社會必將由于紛爭而走向分裂。自由、平等、人權(quán)等都是現(xiàn)代社會的最基本價值。正是這些最基本的價值支撐著整個現(xiàn)代社會的大廈?,F(xiàn)代社會的價值基礎(chǔ)都是多元的,它們具有家族相似性,多元社會的價值共識本質(zhì)上就是家族相似性的共識。這種家族相似性共識具有幾種屬性:(1)多元社會的基本價值具有家族相似性,它們都是現(xiàn)代人類社會不可或缺的。多元共識指的就是對自由、平等、人權(quán)這類價值的認(rèn)同。(2)具有普遍性的基本價值總是以具體的形式呈現(xiàn)出來,并依托具體語境而存在。它們都具有其正當(dāng)性與合理性,相互之間具有家族相似性。對基本價值的認(rèn)同,并不意味著人們對同一具體問題必定會有完全一致的價值判斷。(3)多元社會的價值共識包括豐富的差異性,是建立在差異性基礎(chǔ)上的價值共識,而不是毫無差別的同一。(4)由家族相似性所決定的基于基本價值的具體判斷都具有某種合理性與正當(dāng)性,應(yīng)當(dāng)彼此兼容。彼此兼容的具體價值認(rèn)識者之間要實現(xiàn)行動上達(dá)成一致就離不開平等對話基礎(chǔ)之上的民主政治。要確保人類社會的健康發(fā)展和不斷進(jìn)步,起碼需要形成道德和法律上的共識。因此,可以說道德是人類高層次的共識,法律是最低限度的共識。在當(dāng)代社會,人們更加重視通過平等的批判性、開放性的討論而形成、檢驗“共識”。在多元社會中,人們普遍重視工具性價值和現(xiàn)實性因素而淡化終極性價值和理想性因素,這就使得多元社會中達(dá)成價值共識變得更加困難。所以,任何倫理共識都具有局限性,都是相對的。

(三)構(gòu)建面向智能機器本身的可執(zhí)行倫理機制

將人類的倫理準(zhǔn)則“嵌入”機器,從而進(jìn)行道德決策和倫理推理,被認(rèn)為是創(chuàng)造智能道德機器的可行策略。阿西莫夫曾經(jīng)提出為機器人“內(nèi)置倫理調(diào)節(jié)器”以使它服從某種倫理命令的設(shè)想,并在此基礎(chǔ)上提出了“機器人三定律”:(1)機器人不得傷害人類或坐視人類受到傷害;(2)在與第一定律不矛盾的前提下,機器人必須服從人類的命令;(3)在不違背第一、二定律的前提下,機器人有義務(wù)采取自我保護(hù)。為了克服第一定律的局限性,他后來提出了第零定律,即機器人不得危害人類整體利益。從內(nèi)容上看,機器人定律是一種康德式的道德律令;從形式上看,它也是通過技術(shù)實現(xiàn)的。阿西莫夫認(rèn)為,機器人定律是“嵌入”到機器人“大腦”中的“電子指令”:每個定律一旦被觸發(fā),都會在其“大腦”中產(chǎn)生相應(yīng)的電位,最為優(yōu)先的第一定律產(chǎn)生的電位最高。這表明機器人定律也符合其技術(shù)背后的自然律,而并非完全屬于道德律令。機器人定律是人以技術(shù)為尺度為機器人設(shè)定的行為準(zhǔn)則。它為擺脫“弗蘭肯斯坦情結(jié)”和“機器人造反”提供了可執(zhí)行的方案,即通過工程技術(shù)上的倫理設(shè)計來規(guī)制機器人行為選擇,使其成為道德機器。

創(chuàng)造智能道德機器,就是要構(gòu)建面向智能機器本身的可執(zhí)行倫理機制,使其能自主地進(jìn)行道德推理和倫理決策。從現(xiàn)代技術(shù)哲學(xué)經(jīng)驗轉(zhuǎn)向的視角來看,智能機器的倫理反思應(yīng)該基于對智能機器技術(shù)本身的理解,這就為建構(gòu)一種面向智能機器本身的倫理框架和機制提供了方向。鑒于現(xiàn)有技術(shù)限制,要在智能機器中嵌入倫理,只能訴諸智能機器可執(zhí)行的“機器代碼”,并將負(fù)載著人類價值內(nèi)涵的道德代碼“嵌入”機器,使其成為智能機器可計算、可執(zhí)行的算法。當(dāng)前機器倫理研究就是將“可計算的倫理”付諸實踐。比如,把功利論、道義論、美德論等轉(zhuǎn)換為“算法和邏輯”。那么,如何在計算過程中準(zhǔn)確表達(dá)倫理范疇?如何使智能機器準(zhǔn)確地理解自然語言?鑒于創(chuàng)造智能道德機器實踐中的倫理困境,智能機器的倫理嵌入不應(yīng)僅僅局限于機器自身,必須把人的主導(dǎo)作用納入其中。

具體到自動駕駛系統(tǒng)來看,盡管關(guān)于“電車難題”等倫理問題的共識在增強,如IEEE和歐盟都在積極制定人工智能倫理準(zhǔn)則,但到目前為止尚未有一個廣泛認(rèn)可的有效解決路徑。應(yīng)該承認(rèn),探索人工智能倫理問題的解決路徑需要聆聽倫理學(xué)家的聲音。但當(dāng)技術(shù)專家把倫理決策的重任托付給倫理學(xué)家時,我們發(fā)現(xiàn)倫理學(xué)家其實難以決定到底“電車難題”場景中自動駕駛汽車應(yīng)該撞向誰。事實上,倫理學(xué)家也無權(quán)作出這樣的倫理決策并支撐起整個社會關(guān)于自動駕駛的倫理體系。如果智能機器與倫理能夠集成為一個整體,即融合成一種面向智能機器本身的倫理框架,或許在很大程度上能夠克服這一倫理決策困境。此外,我們還應(yīng)該看到,“電車難題”本身在倫理問題的思想實驗、收集證據(jù)的方法、闡明倫理困境方面是有積極作用的,但當(dāng)涉及自動駕駛汽車的道德規(guī)范時,它們的用處是有限的。對“電車難題”的考量并不構(gòu)成自動駕駛汽車倫理準(zhǔn)則的核心,在對自動駕駛汽車涉及的倫理問題進(jìn)行反思時,應(yīng)更多地關(guān)注現(xiàn)實情況。

四、結(jié)論

未來很可能出現(xiàn)一種道德機器,它能夠在沒有任何人類監(jiān)督的情況下自主地進(jìn)行倫理推理和道德決策。然而,最近的機器人倫理學(xué)研究表明,計算機信息科學(xué)、人工智能和機器人技術(shù)領(lǐng)域的研究人員和程序員需要向倫理學(xué)家尋求建議,以便避免作為新手可能會犯的錯誤,更好地理解倫理學(xué)中根深蒂固的方法論問題。如果他們不適當(dāng)?shù)靥幚磉@些問題,創(chuàng)造公正的智能道德機器的所有努力都將受到嚴(yán)重破壞。如何判斷哪些行為在道德上是正確的和正當(dāng)?shù)?,是人們?nèi)粘5赖律钪凶罾щy的問題之一。理解這些道德決策所涉及的倫理困境并盡力克服和破解,對于創(chuàng)造智能的、人性化的、公正的道德機器是絕對必要的。

對于如何實現(xiàn)智能機器的道德決策,學(xué)界已經(jīng)提出了一些不同的道德決策方法:自下而上的方法,比如決疑論、美德倫理等;自上而下的方法,比如MoralDM、首要職責(zé)、道義論、神圣命令倫理等;混合方法,比如道德推理方法、基于網(wǎng)絡(luò)的方法、佛教的方法等。但是,智能機器的這些道德決策方法仍然存在著明顯的缺陷。決疑論系統(tǒng)面臨因缺乏適當(dāng)?shù)姆答伜痛_切的表達(dá)而重新分類的問題?;诰W(wǎng)絡(luò)的通用信念檢索能動者方法提供了一種基于人類的通常行為(包括不道德的行為)的多數(shù)決策原則。從道德的角度來看,在倫理上依賴多數(shù)決定程序的想法不僅具有誤導(dǎo)性,而且永遠(yuǎn)不能被認(rèn)為是道德推理和決策的恰當(dāng)手段。MoralDM方法利用實證研究來反映人類道德決策的外部策略模型,往往只考慮那些與大多數(shù)人類主體一致的決策是正確的,這不僅是一種誤導(dǎo)而且存在著嚴(yán)重缺陷。

人們有理由堅信,借助于對道德哲學(xué)更全面的理解,是可以避免智能機器道德決策的倫理困境的。解決問題的唯一辦法是人工智能研究者、工程技術(shù)人員與道德哲學(xué)家密切合作,嘗試創(chuàng)造智能道德機器并建構(gòu)起面向智能機器本身的倫理決策機制,盡管這些嘗試任重而道遠(yuǎn)。

注 釋:

①艾倫對所謂道德圖靈測試的想法是如果機器對道德困境給出正確的答案,并為自己的主張?zhí)峁┻m當(dāng)?shù)睦碛?,那么,它們就算是通過了測試。

②缺陷與偏見、自私、偏袒、意志薄弱并被情感所左右這一事實有關(guān)。

③麻省理工學(xué)院的媒體實驗室開發(fā)的可編程“道德機器”就涉及在汽車剎車失靈的情況下,自動駕駛汽車由誰來決定?這是一個收集人類對智能機器(如自動駕駛汽車)做出道德決策的看法的平臺。無人駕駛汽車必須兩害相權(quán)取其輕,例如殺死一名乘客或五名行人。作為一個外部觀察者,你會判斷哪種結(jié)果更容易被接受。然而,麻省理工學(xué)院的試驗并不涉及汽車協(xié)同工作,而是單獨進(jìn)行或者以人機交互的方式進(jìn)行。自動駕駛汽車可能最終會成為一個更大系統(tǒng)的一部分,在這個系統(tǒng)中,機器之間將相互通信,從而比機器單獨運行時更全面地解決即將出現(xiàn)的問題,尤其是在自動駕駛的環(huán)境中。

參考文獻(xiàn):

〔1〕Moor, J. H. The nature, importance, and difficulty of machine ethics〔J〕. Research Gate,2006(21):18-21.

〔2〕Anderson, S. L. Machine metaethics. In M. Anderson & S. L. Anderson (Eds.), Machine ethics〔M〕. Cambridge, MA: Cambridge University Press,2011.

〔3〕Bekey, G. A. Current trends in robotics: Technology and ethics. In P. Lin, K. Abney, & G. Bekey (Eds.), Robot ethics: The ethical and social implications of robotics〔M〕. Cambridge, MA: MIT Press,2014.

〔4〕Copeland, J. Artificial intelligence: A philosophical introduction〔M〕. Oxford: Wiley,1993.

〔5〕Gordon, J.S. Should moral enhancement be compulsory?〔J〕.Ethical Perspectives, 2016(23):277-305.

〔6〕Anderson, S. L.Philosophical concerns with machine ethics. In M. Anderson & S. L. Anderson (Eds.), Machine ethics〔M〕. Cambridge, MA: Cambridge University Press,2011.

〔7〕Anderson, M & Anderson, S. L. Machine ethics: Creating an ethical intelligent agent〔J〕. AI Magazine, 2007(28):22.

〔8〕 Clouser, K. D, & Gert, B. A critique of principlism〔J〕. Journal of Medicine and Philosophy, 1990(15):219-236.

〔9〕McLaren, B. M. Computational models of ethical reasoning: Challenges, initial steps, and future directions. In M. Anderson & S. L. Anderson (Eds.), Machine ethics〔M〕. Cambridge, MA: Cambridge University Press,2011.

〔10〕Torrance, S. Ethics and consciousness in artificial agents〔J〕. AI & Society, 2008(22):495-521.

〔11〕蘇令銀.倫理框架的建構(gòu):當(dāng)前機器倫理研究面臨的主要任務(wù)〔J〕.上海師范大學(xué)學(xué)報,2019(01):76-86.

〔12〕Macklin, R. Against relativism. Cultural diversity and the search for ethical universals in medicine〔M〕. New York: Oxford University Press,1999.

〔13〕Aletras. N,Tsarapatsanis,D. Preotiuc-Pietro, D, &Lampos, V. Predicting judicial decisions of the European Court of Human Rights: A natural language processing perspective〔J〕. PeerJ Computer Science, 2016(02):1-19.

〔14〕Katz, D. M, Bommarito, M. J, II, & Blackman, J. A general approach for predicting the behavior of the Supreme Court of the United States〔J〕. PLoS ONE, 2017(12):1-18.

〔15〕Brody, B. Life and death decision making〔M〕. Oxford: Oxford University Press,1988.

〔16〕Gordon, J. S. Ethics as a method. In J. Schildmann, J. S. Gordon, & J. Vollmann (Eds.), Clinical ethics consultation: Theories and methods, implementation, evaluation〔M〕. London: Routledge,2016.

〔17〕蘇令銀.能將倫理準(zhǔn)則嵌入人工智能機器嗎?〔J〕.理論探索,2018(3):38-45.

責(zé)任編輯 蘇玉娟

猜你喜歡
倫理困境
基于具體案例就保密原則分析社會工作的倫理困境
翻譯職業(yè)道德準(zhǔn)則的倫理困境
腦機接口技術(shù):倫理問題與研究挑戰(zhàn)
基層公務(wù)員政策執(zhí)行過程中倫理困境及對策
潛在舉報人秩序遵循倫理困境分析
本土文化視角下人力資源管理倫理困境的研究
寧養(yǎng)社會工作服務(wù)中的倫理困境及反思
社會工作的倫理道德觀
關(guān)于高校心理咨詢教師倫理問題的思考
教師專業(yè)化的倫理困境及其突破
邵武市| 顺义区| 钟祥市| 建水县| 象山县| 福贡县| 宿州市| 青神县| 九龙城区| 拉萨市| 平和县| 泌阳县| 海南省| 吴旗县| 丰台区| 门头沟区| 道真| 城固县| 象州县| 安庆市| 汾阳市| 鲁甸县| 大邑县| 阜宁县| 汉源县| 宁波市| 成都市| 正蓝旗| 眉山市| 定襄县| 平潭县| 城口县| 清涧县| 乌海市| 内黄县| 札达县| 左云县| 新河县| 民乐县| 安泽县| 闻喜县|