国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工道德智能體的發(fā)展路向*
——基于道德判斷問題的分析

2022-06-08 13:36
中州學(xué)刊 2022年5期
關(guān)鍵詞:直覺機器倫理

余 天 放

伴隨人工智能或自主式機器人在我們生活中的愈加介入,關(guān)于人工道德智能體(artificial moral agents, AMAs)的構(gòu)想也得到更多的討論,而這些討論的目的在于回答這樣兩個問題:第一,一種具有自主行動能力的機器人應(yīng)如何對待人類?第二,一種參與人類生活的機器人應(yīng)如何有道德地行動?這兩個問題分別針對兩種不同的場景而被提出,前者僅將人工智能體(artificial agents)看作一類人造物,因此它們需要有道德地對待人類,或者至少對于人類而言是無害的;后者則將人工智能體看作一些類人(human-like)的存在物,它們需要像人類那樣擁有道德,既包括與人類的關(guān)系,也包括與其他人工智能體的關(guān)系。對于第一個問題,學(xué)者們經(jīng)常會考慮應(yīng)用阿西莫夫的三定律來作為限制機器人行為的規(guī)則,即便這些規(guī)則被表明為不適當(dāng)?shù)模粚τ诘诙€問題,學(xué)者們已提出了諸多在人工智能體中置入人類道德規(guī)范的建議,這些建議無疑推動了人工道德智能體的設(shè)計與發(fā)展,但同時卻并沒有使得人工道德智能體的發(fā)展路向問題得到真正的澄清。

據(jù)此,有關(guān)人工智能體能否有道德的討論中出現(xiàn)了這樣一種分歧:部分學(xué)者否定了一種賦予人工智能體以道德的構(gòu)想,他們相信,由于機器人的道德責(zé)任歸屬是不同的,所以不應(yīng)該期待一種能夠?qū)崿F(xiàn)人類道德的人工智能體;與之相反,另一些學(xué)者則持有更為積極的態(tài)度,他們不僅提供了發(fā)展人工道德智能體的理由,同時也已經(jīng)構(gòu)想了多種實現(xiàn)方案,包括“自上而下的”“自下而上的”以及混合的方案等。針對這一分歧,我們將表明,在構(gòu)想某種人工道德智能體時我們會被引向?qū)τ谝环N與人類道德能力相一致的智能體的期待,然而這個期待是誤導(dǎo)性的。我們更應(yīng)該期待一種作為道德實體的人工道德智能體,它們將參與我們的社會活動,但并非真正的道德主體。

一、人工道德智能體的分類

在對人工道德智能體所可能具有的形式進行構(gòu)想時,學(xué)者們會使用一些分類法(taxonomy)來區(qū)分不同類別或不同等級的道德智能體,其中最常見的有這樣兩種:一是由莫爾(James. H. Moor)所提出的按照人工智能體實現(xiàn)道德的程度而進行的分類;二是由艾倫(Colin Allen)等人所提出的按照人工道德的設(shè)計方案而進行的區(qū)分。這兩種分類法并不是相互排斥的,事實上一種綜合了這兩種方法的新方案能夠更加全面地總結(jié)現(xiàn)有人工道德智能體的發(fā)展。此外,分類法還具有的一個潛在作用則是為人們提供一個未來發(fā)展的預(yù)期目標(biāo),它通過展示一個等級次序而告訴我們應(yīng)期待怎樣的人工道德智能體。對此,我們指出,莫爾的分類法中對于這個最終目標(biāo)的設(shè)定是有誤的,它將我們錯誤地引向?qū)τ谝环N充分實現(xiàn)了人類道德的智能體的期待,并進而產(chǎn)生有關(guān)機器倫理的諸多爭論。

在莫爾的分類法中,他將機器倫理的可能形式區(qū)分為“倫理作用智能體”(ethical impact agents)、“隱性的倫理智能體”(implicit ethical agents)、“明確的倫理智能體”(explicit ethical agents)以及“完全的倫理智能體”(full ethical agents),這一區(qū)分是根據(jù)機器中所實現(xiàn)的倫理等級而做出的。第一等級的“倫理作用智能體”僅能夠被動地產(chǎn)生一些倫理效果,例如,我們應(yīng)用機器設(shè)備取代了一些高風(fēng)險、大勞動量的工作,從而產(chǎn)生了一些好的倫理效果,此時這些機器即被看作一類“倫理作用智能體”。第二等級的“隱性倫理智能體”在第一等級的基礎(chǔ)上實現(xiàn)了對于人類而言的安全性和可靠性,此時機器被編入了一定的代碼,從而保證它在與人類的互動中遵守既定的規(guī)則。莫爾舉例說銀行的自動取款機以及飛機的自動巡航模式即扮演了這樣的角色,它們將按照既定程序很好地完成自己的任務(wù),從而避免發(fā)生與安全性相關(guān)的倫理問題。第三等級的“明確的倫理智能體”則能夠更為清晰地展現(xiàn)一些倫理范疇,并且能夠按照某種道德要求去進行決策或行動。在當(dāng)前有關(guān)機器倫理的研發(fā)中,諸多計算模型或系統(tǒng)已朝向這一目標(biāo)在進行設(shè)計,例如,MoralDM,Jeremy以及W. D. 等多個決策模型都被視為“明確的倫理智能體”,它們能夠根據(jù)被植入的道德算法而處理特定場景下的道德困境。最后是第四等級的“完全的倫理智能體”,它們實現(xiàn)了與人類的平均水平相似的道德判斷(moral judgment)能力,同時也被要求具有意識、意向性以及自由意志等,從而成為一類完全意義上的道德主體(moral agents)。很明顯的是,這類“完全的倫理智能體”目前只是一種可設(shè)想的方案,它的出現(xiàn)將依賴于我們在多久的未來能夠?qū)崿F(xiàn)通用的人工智能。

此外,在艾倫等人的分類法中,人工道德智能體則按照在其中實現(xiàn)倫理價值的方式而被區(qū)分為“自上而下的”(top-down)、“自下而上的”(bottom-up)以及“混合的”(hybrid)三種類型?!白陨隙碌摹狈绞揭髮⒁环N或多種道德理論和原則作為機器人進行決策時所遵循的規(guī)則,此時它們只需要考慮如何最大化某種道德價值(義務(wù)論方案)或者計算如何使得最終結(jié)果最優(yōu)(后果主義方案)即可。與之相對的是,“自下而上的”方式則并不要求在機器中預(yù)先植入某些道德理論和原則,而是提供讓機器人在其中獲得獎懲的環(huán)境,從而使得它們能夠自主地產(chǎn)生對于道德價值的敏感性。“自上而下的”方式部分地模擬了我們?nèi)祟惖牡赖陆逃?,即將那些已得到普遍同意的道德法則以知識的形式植入另一個主體當(dāng)中。然而這一方法所面對的挑戰(zhàn)是,不同的道德理論和原則之間可能存在沖突或者矛盾,以至于我們無法決定應(yīng)選擇哪種道德原則去遵守,此時就出現(xiàn)了某種道德困境或者道德不確定的情況。此外,對于機器人來說,“自上而下的”方式還可能存在運行上耗時過長的問題,因為在處理任何一個行動決策的問題時都需要進行大量的計算,而這在面對一些瞬間的特殊情況時被認為是不可能的。因此,為避免這些問題,“自下而上的”方案要求我們模擬人類進化過程中道德價值的產(chǎn)生方式,通過設(shè)計一些場景或平臺而使得機器人可以自主地學(xué)習(xí)如何有道德地行動。然而這一方案也存在一些特定的困難,例如,讓機器自主學(xué)習(xí)將無法保證它們的道德行為是必然的,以至于可能出現(xiàn)我們無法預(yù)測的非道德行為。并且這種“自下而上的”設(shè)計所需經(jīng)歷的時間是不可估的,最終的效果也是不確定的。據(jù)此,一種結(jié)合了“自上而下的”和“自下而上的”混合方案得到了部分設(shè)計者的青睞,例如,在一種名為LIDA(Learning Intelligent Distribution Agent)的認知結(jié)構(gòu)中就同時使用了以上兩種設(shè)計方案,它通過區(qū)分反應(yīng)層和元認知層來實現(xiàn)這一點。在反應(yīng)層,機器人將通過監(jiān)測情緒反應(yīng)而限制機器人可能存在的一些傷害行為;同時,在元認知層,又植入了一些類似康德式絕對命令的規(guī)則來保證機器人的基本行為。

二、對發(fā)展人工道德智能體的批評

莫爾的分類法反映了直覺上人們對于發(fā)展人工道德智能體所擁有的這樣一種想法:我們應(yīng)該讓機器也可以像人那樣有道德地行動。然而這一想法也許在觀念上有自相矛盾之處,就如同我們無法訓(xùn)練一只獵犬既能夠自主地行動同時又符合人類的道德要求一般。因為對于獵犬這樣的自然物而言,自主性和有道德似乎是很難共存的。關(guān)于這一看法,學(xué)者們對人工道德智能體的發(fā)展提出了諸多詰難,而這些詰難總體上可以被區(qū)分為這樣兩種態(tài)度:一是設(shè)計人工道德智能體時所需面對的技術(shù)挑戰(zhàn)是無法克服的;二是讓人工智能體擁有道德的觀念是不適當(dāng)?shù)摹?/p>

第一,如果一個機器可以擁有道德,那么我們需要考慮倫理規(guī)范如何從它的程序中產(chǎn)生出來,而這種方式已被艾倫等人歸納為上面的三種:“自上而下的”“自下而上的”以及“混合的”。然而這三種方式各自所面對的困難也是顯著的,并且這些困難反映了一個更加基礎(chǔ)的元倫理學(xué)問題:如何通過算法解決道德問題?也就是說,如果我們把人類道德構(gòu)想為一系列的指令或代碼,那么此時會存在一個倫理規(guī)范向道德命題還原的問題,以至于部分的倫理學(xué)家可能會反對這樣一種結(jié)合了道德實在論和道德認知主義的觀點,而傾向于支持非實在論或者非認知主義的立場?;蛘咚麄冎辽儋|(zhì)疑說,在人類中間沒有形成關(guān)于什么是“善”的一致性看法之前,如何讓機器人按照“善”去行動?此時,那種“自下而上的”方法似乎也無法繞開這一障礙,因為即便我們可以構(gòu)造一種基于刺激—反應(yīng)模式而行動的道德智能體,但我們依然很難說它就是一個真正意義上的道德主體,因為它可能并不明白自己為什么這么做,并且這樣做與“善”有怎樣的關(guān)系。此外,發(fā)展人工道德智能體還將面臨的一個技術(shù)性挑戰(zhàn)是,我們?nèi)绾巫寵C器人理解并識別某一道德場景,從而可以準(zhǔn)確、迅速地調(diào)動特定的算法來處理當(dāng)前問題?對于人類來說,這一能力似乎已發(fā)展為一種道德直覺,以至于我們在面對一些典型狀況時會產(chǎn)生相應(yīng)的道德情感來提示我們其中可能存在的道德價值。但對于機器人來說,我們又該如何通過設(shè)計而產(chǎn)生這種道德直覺,并且讓它敏感于特定的價值呢?再退一步來說,即使以上的問題都得到了解決,但任何一個實現(xiàn)了人類道德推理(moral reasoning)能力的機器人在某個場景下所進行的運算都是巨大的,我們似乎很難要求這個智能體能夠在極短的時間內(nèi)完成對當(dāng)下諸多可能性的運算,更不用說這些可能性能否完全體現(xiàn)預(yù)期的結(jié)果。因此,如果要實現(xiàn)機器倫理,我們至少需要克服這樣幾個技術(shù)上的困難:(1)在機器中實現(xiàn)的道德反映了人類的真實道德狀況,而不是部分人的道德,或者部分理論所支持的道德;(2)機器人能夠自主地做出道德判斷,具有價值敏感性;(3)進行道德推理時,所需要的運行時間是受限的。

第二,發(fā)展人工道德智能體可能在觀念上就是不可行的,因為這將有悖于它們只是一些機器的看法。與這一觀點相一致的批評是多樣的,例如,范·韋恩斯伯格(Aimee van Wynsberghe)等人指出,我們需要區(qū)分一個道德上可指責(zé)的情境和對一個道德角色的代表。當(dāng)動物被人類訓(xùn)練而用于一些治療的場景時,這些動物對于人類安全的保證只是處于一個道德上可指責(zé)的情境當(dāng)中,而不是真正代表了一個道德角色,就像一個成年人所具有的那樣。因此,無論人工智能體未來的發(fā)展是怎樣的,我們都只可能把它們作為一類達到某種目的的工具或手段,而不可能被作為目的本身。與之相類似,通肯斯(Ryan Tonkens)提出了在發(fā)展機器倫理時所難以避免的“倫理上不一致”的問題,這就是說,機器所被植入的倫理法則將無法與創(chuàng)造它們時所需遵守的倫理法則一致。例如,在建造一個其行為符合康德式義務(wù)論的倫理機器人時,我們卻不能夠?qū)⑺鼉H作為目的而不作為手段;或者在建造一個符合功利主義原則的機器人時,研發(fā)過程中所消耗的各種資源也明顯地破壞了“滿足最大多數(shù)人的最大幸?!痹瓌t。據(jù)此,從觀念上而言,對機器倫理的發(fā)展至少需要解釋這樣兩個問題:(1)我們應(yīng)如何對人工智能體進行道德責(zé)任的歸屬,是歸屬于創(chuàng)造者還是歸屬于智能體本身?(2)在同一個倫理框架內(nèi)如何實現(xiàn)創(chuàng)造人工智能體所遵循的道德規(guī)范與它們自身被植入的道德規(guī)范一致?

三、發(fā)展人工道德智能體的更多理由

盡管存在以上諸多反對發(fā)展人工道德智能體的理由,然而這些理由似乎并沒有對將道德規(guī)范植入人工智能體的現(xiàn)實計劃產(chǎn)生明顯的阻礙,特別是近年來在自動駕駛、醫(yī)療保健、增強現(xiàn)實技術(shù)等領(lǐng)域中對智能體的應(yīng)用,人們更加期待一種具有較高道德水平的智能體的出現(xiàn)。因此,針對這樣一個現(xiàn)象我們需要考慮,仍然有哪些理由支持著我們發(fā)展人工道德智能體?這些理由是對于機器倫理的誤解還是對以上挑戰(zhàn)的回應(yīng)?

福摩沙和瑞恩雖然給出了一個有關(guān)人工智能體之責(zé)任歸屬問題的解決方案,但他們并沒有真正回應(yīng)批評者所隱含的這一質(zhì)疑:為什么必須要讓機器人具有道德?因為一種明顯的可能是,我們可以始終讓人類扮演那個最終道德責(zé)任承載者的角色,即便當(dāng)機器人需要在瞬間做出決定時,我們也可以通過對責(zé)任偏好的預(yù)先設(shè)定來解決這一問題,例如,讓智能體的使用者在利己偏好和利他偏好之間在先地進行程度選擇。因此,一種能夠為發(fā)展人工道德智能體進行更強辯護的觀點需要對我們的直覺進行解釋,即說明為什么我們會期待機器像人一樣有道德。這種直覺同樣也體現(xiàn)在莫爾的分類法中,他通過區(qū)分“明確的倫理智能體”和“完全的倫理智能體”來表明,我們似乎可以期待一種完全地實現(xiàn)了人類道德能力的人工智能體,只不過同時也需要實現(xiàn)我們對于人工智能體所期待的其他困難目標(biāo),例如意識、意向性、自由意志等。因此,讓機器人具有道德的直覺性要求很大程度上來自我們對于通用人工智能的期待,我們似乎無法接受一個高度類似于人的智能體卻是對道德無感知的。

四、人類道德判斷的方式與特征

在此,我們將給出一個關(guān)于人類道德判斷的一般性描述,這一描述的目的并不在于形成一個在解釋上具有較大前景的理論模型,而僅僅是通過對相關(guān)因素的考察來表明人類在做出某一道德決策時所可能受到的影響是怎樣的,并且我們將在較大程度上依賴于近年來的一些經(jīng)驗性研究。

第二,道德原則。與機器倫理中的“自上而下的”方式相類似,人類道德的產(chǎn)生也存在這種“自上而下的”理解,即認為我們可以通過一系列道德原則的約束而產(chǎn)生做某事的動機或欲望。這一模式與道德認知主義者關(guān)于道德本質(zhì)的看法相一致,他們相信,道德判斷以一種認知的方式起作用,我們通過將一些具有普遍意義的道德原則應(yīng)用于特定情境即可獲知此時應(yīng)怎樣行動。而這些道德原則能夠以命題的形式表達為一些具有真值的道德知識,同時具體的道德原則將由某個規(guī)范倫理學(xué)理論來確定,例如康德式的義務(wù)論或者密爾式的功利主義。因此,在道德推理時我們似乎進行了雙層的操作,第一層決定選擇哪條道德原則應(yīng)用于此情境,第二層則在先地決定選擇哪個規(guī)范性理論。需要指出的是,第二層的決定可能是隱秘的,或者是模糊的,因此我們并不總是意識到它。雖然這一考慮道德動機產(chǎn)生方式的觀點近年遭到了道德非認知主義者的批評,然而,我們依然可以為一種弱化的立場辯護說,我們所具的道德動機和意向至少部分是來自道德原則的,否則道德教育就是不可能的。

綜上所述,人類的道德判斷涉及道德推理與道德直覺兩種能力,其中道德推理相關(guān)于某人所具有的信念、意向性以及道德原則等內(nèi)容,而道德直覺則相關(guān)于某人的情感、情緒以及對于道德情境的識別等。并且海特、格林等人相信,在一般的道德場景中,我們只是使用我們的道德直覺處理相關(guān)道德問題,并且主要依賴我們的情感反應(yīng);而在一些復(fù)雜場景中,當(dāng)我們的道德直覺無法準(zhǔn)確給出相關(guān)道德判斷時,則會訴諸另一種基于理由的道德推理模式。據(jù)此,上文所引入的莫爾分類法中,“明確的倫理智能體”和“完全的倫理智能體”之間存在著設(shè)計上的本質(zhì)區(qū)別,前者無論是采用“自上而下的”還是“自下而上的”設(shè)計方案,它們都只能在最大程度上實現(xiàn)道德推理的模式,而非另一種以情感為基礎(chǔ)的道德直覺模式。同理,當(dāng)一些學(xué)者試圖通過在機器中植入人類道德原則的方式而實現(xiàn)人類道德時,即便我們接受此時在機器內(nèi)部也許會產(chǎn)生一些具有內(nèi)容的意向狀態(tài),但這一模式仍然可能是非人類的,它只是實現(xiàn)了人類的道德推理能力,而非另一種依賴于情感、情緒的道德直覺模式。

五、從道德主體到道德實體

由于一種以推理規(guī)則為基礎(chǔ)的道德實現(xiàn)方案并不同于人類真正的道德判斷模式,因此莫爾的分類法事實上將我們引向了這樣一種誤區(qū):“完全的倫理智能體”似乎是“明確的倫理智能體”的更高實現(xiàn),前者是在后者的基礎(chǔ)上伴隨有意識、自由意志、意向性等。然而,根據(jù)我們在上文中所提供的理由,這兩種智能體之間存在著根本的區(qū)別。“完全的倫理智能體”被構(gòu)想為對人類道德的完全復(fù)制,因此它至少需要同時實現(xiàn)道德直覺與道德推理兩種能力;并且更為重要的是,當(dāng)我們能夠突破“機器意識”這一困難問題而實現(xiàn)了機器人自主的情感反應(yīng)時,道德推理能力也將順利地被實現(xiàn)。相反,“明確的倫理智能體”更大程度上依賴于將人類道德規(guī)則編入機器算法中,而這就使得機器人不需要那種為人類所具有的“雙加工”模式,在面對任何道德情境時都只需要機器人按照既定規(guī)則運行即可。因此,從對于道德規(guī)則的遵守而言,“明確的倫理智能體”才是“完全的倫理智能體”的更高實現(xiàn),后者將由于道德情感的存在而出現(xiàn)諸多道德直覺與道德推理不相一致的情況,此時一個近似于人的道德智能體也許會選擇根據(jù)道德直覺來行動,從而產(chǎn)生一些非道德行為。

基于這些批判性的主張,我們又應(yīng)該對于人工道德智能體有怎樣的期待呢?事實上,這一問題首先是一個規(guī)范性問題,而不是關(guān)于我們在技術(shù)上能夠發(fā)展出怎樣的人工智能體的事實性問題?;蛘哒f,由于人工智能體并不是某種先于人類或者獨立于人類而存在的自然實體(natural entities),而是一類人造物(artifacts),因此我們需要提供一些發(fā)展它們的規(guī)范性標(biāo)準(zhǔn),而非一個對它們未來之可能性的客觀觀察。而這些標(biāo)準(zhǔn)的提出和我們應(yīng)在機器中植入怎樣的道德規(guī)范是兩個界限清晰的問題,前者相關(guān)于我們設(shè)計任何一種工具時所包含的道德責(zé)任,即使是一個“傻傻的吐司機”,我們也需要考慮它傷害到人類的潛在風(fēng)險,只不過它的自主行動能力遠遠低于人工智能體而已;相反,在機器中植入道德規(guī)范卻是一種試圖實現(xiàn)真正道德主體的打算,在此過程中我們的目標(biāo)是讓機器成為人類社會中的一員,而非一個工具。

在此區(qū)分下,人工道德智能體的發(fā)展路向得以明確:我們應(yīng)期待某種具有較高自主行動能力的道德實體,而非某種道德主體。莫爾的分類法卻模糊了這一區(qū)分,由于他將“完全的倫理智能體”看作“明確的倫理智能體”的更高實現(xiàn),因此將我們引向了對一種與人類相等同的道德智能體的追求。然而,在上文中我們已表明,在機器中所可能實現(xiàn)的道德判斷方式并不同于真正人類的道德判斷方式,因此我們并不應(yīng)該期待“明確的倫理智能體”在未來能夠發(fā)展成為一種“完全的倫理智能體”,后者的實現(xiàn)更加依賴于對“機器意識”這些困難問題的解決,而非在機器中植入道德。事實上,這兩種道德智能體之間的差別正如飛機和一個“仿鳥”(bird-like)飛行器之間的差別。當(dāng)我們試圖設(shè)計一架飛機時,我們并不必須完全地模擬鳥類的各方面能力,包括它們的飛行動作、對方向的感知,甚至它們的意識方式等,而僅需要部分地實現(xiàn)飛行的目標(biāo)。相反,當(dāng)我們需要設(shè)計一個能夠完全地模擬鳥類飛行方式的飛行器時,僅滿足空氣動力學(xué)的要求則是明顯不夠的,我們需要在先地實現(xiàn)對于鳥類意識的模擬,而這被看作是與空氣動力學(xué)的研究完全不相關(guān)的。

六、結(jié)論

通過對發(fā)展人工道德智能體的支持和反對意見的討論,我們指出,盡管在機器中實現(xiàn)道德的嘗試面對著諸多質(zhì)疑,我們卻始終持有這樣一個強烈的直覺:機器應(yīng)該像人一樣有道德地行動。這一直覺反映在莫爾有關(guān)道德智能體的重要分類當(dāng)中,當(dāng)他將“完全的倫理智能體”看作“明確的倫理智能體”的一種更高的實現(xiàn)時,就暗示了我們在設(shè)計人工道德智能體時應(yīng)朝向某種“類人”的智能體,因為只有后者才是對于我們?nèi)祟惖赖履芰Φ某浞謱崿F(xiàn)。然而當(dāng)代有關(guān)道德判斷的一些經(jīng)驗性研究卻表明,人類在處理道德問題時依賴于一種“雙加工”模式,其中道德直覺和道德推理都是道德判斷所需要的,因此機器中根據(jù)規(guī)則而實現(xiàn)的道德判斷能力并不同于人類,從而一種“明確的道德智能體”也不能夠由于設(shè)計上復(fù)雜度的增加而達到“完全的倫理智能體”,后者更大程度上依賴于“機器意識”問題的解決。據(jù)此,莫爾的分類法事實上給我們帶來了一些對于人工道德智能體的誤解,他將我們引向?qū)τ凇邦惾恕敝悄荏w的期待,卻忽視了這兩類智能體在設(shè)計上的本質(zhì)差別。

猜你喜歡
直覺機器倫理
《心之死》的趣味與倫理焦慮
機器狗
機器狗
“好一個裝不下”直覺引起的創(chuàng)新解法
林文月 “人生是一場直覺”
一個“數(shù)學(xué)直覺”結(jié)論的思考
護生眼中的倫理修養(yǎng)
未來機器城
數(shù)學(xué)直覺謅議
醫(yī)改莫忘構(gòu)建倫理新機制