国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

智能機(jī)器的道德問題研究

2019-03-25 03:05:24黃子瑤徐嘉瑋
關(guān)鍵詞:決定論倫理學(xué)機(jī)器

黃子瑤 徐嘉瑋

一、智能機(jī)器的新興及其倫理挑戰(zhàn)

2016年9月20日,美國交通部發(fā)布了全球第一份關(guān)于自動(dòng)駕駛汽車的政策性文件《聯(lián)邦自動(dòng)駕駛汽車政策》(Federal Automated Vehicles Policy),這標(biāo)志著自動(dòng)駕駛汽車正式從專業(yè)技術(shù)領(lǐng)域走向公共事務(wù)領(lǐng)域,相關(guān)的產(chǎn)業(yè)、管理、法律、道德等方面的討論已被提上日程。事實(shí)上,自動(dòng)駕駛汽車自20世紀(jì)80年代至今已經(jīng)歷了三十余年的開發(fā)過程,而這項(xiàng)技術(shù)之所以遲遲未能投入市場,除了技術(shù)尚且不成熟之外,在倫理方面遇到困難也是一個(gè)重要的原因。畢竟,開車不僅僅是一項(xiàng)技術(shù)活,同時(shí)也是一種道德實(shí)踐。一個(gè)合格的司機(jī)除了需要熟練掌握駕車技術(shù)之外,還需要掌握許多規(guī)章制度、駕駛規(guī)范和行車禮儀。當(dāng)?shù)缆飞习l(fā)生了事故和爭執(zhí)的時(shí)候,我們還需要判斷當(dāng)事人的對(duì)錯(cuò)并明確責(zé)任的歸屬。因此,解決了駕車技術(shù)問題只是開發(fā)自動(dòng)駕駛汽車的第一步——盡管是至關(guān)重要的一步——接下來還需要克服自動(dòng)駕駛汽車所帶來的道德和法律上的挑戰(zhàn)。

自動(dòng)駕駛汽車并非唯一的新興智能機(jī)器。近數(shù)十年來,隨著自動(dòng)化技術(shù)、人工智能和機(jī)器人行業(yè)的長足發(fā)展,已經(jīng)有許多不同種類的智能機(jī)器走進(jìn)了我們的生活,并且在工業(yè)生產(chǎn)、科學(xué)考察、災(zāi)難救援、軍事行動(dòng)和網(wǎng)絡(luò)服務(wù)等領(lǐng)域扮演著越來越重要的角色。然而,如同自動(dòng)駕駛汽車一樣,智能機(jī)器在為人們帶來經(jīng)濟(jì)效益和生活品質(zhì)的同時(shí),也引發(fā)了人們對(duì)機(jī)器道德的擔(dān)憂——機(jī)器會(huì)不會(huì)給人類帶來危害?應(yīng)該如何處理機(jī)器引發(fā)的事故?如何能讓機(jī)器遵守人類制訂的道德規(guī)范?回應(yīng)這些擔(dān)憂不是技術(shù)人員的職責(zé),哲學(xué)從業(yè)者有義務(wù)承擔(dān)這項(xiàng)工作,對(duì)機(jī)器的道德屬性作一般的考察。

放眼歷史,智能機(jī)器面臨倫理挑戰(zhàn)的境況與上世紀(jì)六七十年代醫(yī)學(xué)和生命科學(xué)的境遇相似,當(dāng)時(shí),器官移植、基因工程、遺傳篩查、安樂死等新技術(shù)開始投入應(yīng)用,于是它們所涉及的道德問題受到了普遍重視,并引發(fā)了廣泛爭論。但是,爭論并未使醫(yī)學(xué)和生命科學(xué)停滯發(fā)展,相反,挑戰(zhàn)最終轉(zhuǎn)換成了機(jī)遇,產(chǎn)生了極具生命力的跨領(lǐng)域合作學(xué)科——生命倫理學(xué)。有鑒于此,我們有理由相信:第一,隨著自動(dòng)化、人工智能等技術(shù)的發(fā)展,對(duì)智能機(jī)器的道德屬性進(jìn)行研究是一個(gè)必然趨勢(shì);第二,這種研究最終也會(huì)產(chǎn)生一個(gè)富有生命力的跨領(lǐng)域合作學(xué)科——機(jī)器倫理學(xué)。

目前,國內(nèi)外學(xué)者對(duì)機(jī)器倫理學(xué)的研究仍處于起步階段,相關(guān)討論主要集中于兩個(gè)基本問題。第一個(gè)問題是機(jī)器的道德主體性問題,它關(guān)注的是機(jī)器原則上是否可能對(duì)它的行為負(fù)道德責(zé)任,并且如果回答是肯定的話,接受這樣一個(gè)人工道德主體(Artificial Moral Agent,簡稱“AMA”)需要滿足哪些條件。第二個(gè)問題是機(jī)器的道德行動(dòng)機(jī)制的設(shè)計(jì)問題,亦即應(yīng)當(dāng)采取什么樣的設(shè)計(jì)思路來設(shè)計(jì)并制造機(jī)器,它才能夠合乎道德地行動(dòng)。本文接下來的兩節(jié)將分別討論這兩個(gè)問題。

二、道德主體性問題

與傳統(tǒng)倫理學(xué)的研究對(duì)象——人的道德實(shí)踐相比,自動(dòng)駕駛汽車等智能機(jī)器的道德實(shí)踐具有顯著的特殊性:第一,機(jī)器行為是人為設(shè)計(jì)的計(jì)算過程所決定的,這不是自然的因果過程,從而使得機(jī)器行為區(qū)別于一般的意外或自然災(zāi)害;第二,機(jī)器行為在很大程度上不由其使用者來決定,這使得機(jī)器不同于傳統(tǒng)意義上的工具;第三,對(duì)于具有廣泛適用性、所需處理復(fù)雜情況的機(jī)器——尤其是擁有學(xué)習(xí)能力的機(jī)器——設(shè)計(jì)師和制造商很難或原則上不可能準(zhǔn)確預(yù)料機(jī)器行為,或是對(duì)機(jī)器行為進(jìn)行控制。這種特殊性導(dǎo)致傳統(tǒng)的道德責(zé)任歸屬不適用于智能機(jī)器。以自動(dòng)駕駛汽車為例,如果一種具有較高可靠性的自動(dòng)駕駛汽車反常地違背了行車禮儀或者造成了交通事故,那么將事件視作意外,要求乘客負(fù)責(zé)和要求設(shè)計(jì)師負(fù)責(zé)的做法都不能讓人信服。因此,有必要考慮一種看似荒誕的解決方案:讓汽車為自己造成的事故負(fù)責(zé)。

要機(jī)器為自己的行為負(fù)責(zé),前提是機(jī)器具有道德主體性是可能的。這意味著機(jī)器的行為是自由的,因?yàn)閮H當(dāng)機(jī)器的行為是自由的,將道德責(zé)任歸屬于機(jī)器的做法才是合理的。傳統(tǒng)道德哲學(xué)關(guān)于道德責(zé)任歸屬的討論圍繞著自由與必然之間的關(guān)系而展開,并在此基礎(chǔ)上發(fā)展出了三種不同的立場:主張決定論與自由意志之間存在矛盾的不相容論觀點(diǎn),主張二者不矛盾的相容論觀點(diǎn),以及斯特勞森所主張的不考慮二者間關(guān)系的反應(yīng)態(tài)度學(xué)說(也稱斯特勞森式相容論)。接下來我們將分別考察這三種立場,看看它們是否容許機(jī)器的道德主體性。

在三種立場中,所謂相容論和不相容論都是針對(duì)決定論和自由行動(dòng)之間的關(guān)系而言的。其中,決定論指的是一種主張“凡事皆有因”的觀點(diǎn),認(rèn)為世界上任何事情都有先前就存在的、充分的原因;至于自由行動(dòng),不同學(xué)者會(huì)有不同的理解,不過最為常見的理解方式是:一個(gè)人的一次行動(dòng)是自由的,僅當(dāng)他原本能夠采取其他行動(dòng)。隨著近幾十年來自然科學(xué)——尤其是心理學(xué)和神經(jīng)科學(xué)——取得日益豐碩且令人矚目的成果,我們很難對(duì)決定論提出嚴(yán)肅的質(zhì)疑。但如果我們承認(rèn)決定論,那么一種明顯的張力就會(huì)出現(xiàn)在決定論和自由行動(dòng)之間,而這種張力就是不相容論的立足點(diǎn)。

不相容論認(rèn)為決定論與自由行動(dòng)是矛盾的:如果決定論是真的,那么任何行動(dòng)都不是自由的;如果存在自由的行動(dòng),那么決定論就不是真的。因此,在承認(rèn)決定論的基礎(chǔ)上,不相容論很容易走向道德責(zé)任的懷疑論。不相容論的這一立場通??梢酝ㄟ^下面這組余地論證(Leeway Argument)[1]23,[2]147來表明。

(1)如果一個(gè)人無法采取其他行動(dòng),那么他所做出的任何行動(dòng)都是不自由的。

(2)如果決定論是真的,那么任何行動(dòng)都有充分的原因,從而是必然發(fā)生的。

(3)因此,如果決定論是真的,那么人的任何行動(dòng)都是不自由的。

根據(jù)余地論證,結(jié)合前面關(guān)于決定論和自由意志的概念分析,我們可以得出結(jié)論:人不是道德主體。同樣,如果將余地論證的適用范圍擴(kuò)大到機(jī)器,那么我們也可以推出類似的結(jié)論:機(jī)器沒有道德主體性。事實(shí)上,即便不承認(rèn)決定論是真的,我們也可以論證機(jī)器不具有道德主體性。這是因?yàn)椋瑱C(jī)器的任何行動(dòng)都是由在先的內(nèi)在計(jì)算狀態(tài)決定的,而計(jì)算狀態(tài)本質(zhì)上是有內(nèi)容的因果角色。因此,機(jī)器的任何行動(dòng)都存在在先的、充分的原因。模仿余地論證,我們可以繞開決定論,構(gòu)造一個(gè)新的論證來否證機(jī)器的道德主體性。

(4)如果一臺(tái)機(jī)器無法采取其他行動(dòng),那么他所做出的任何行動(dòng)都是不自由的。

(5)機(jī)器的任何行動(dòng)都有充分的原因,從而是必然發(fā)生的。

(6)因此,機(jī)器的任何行動(dòng)都是不自由的。

因此,站在不相容論的立場上,人和機(jī)器都不會(huì)被認(rèn)為是道德主體,并且機(jī)器的道德主體地位比人的道德主體地位更加脆弱,AMA在原則上是不可能的。除了余地論證之外,道德責(zé)任懷疑論還會(huì)采取若干其他論證,如訴諸道德主體對(duì)其行為的終極控制的終極性論證(Ultimacy Argument)等等。[3]112-115這些論證與余地論證大同小異,這里不再贅述。

在不相容論的陣營中,除了道德責(zé)任懷疑論之外,還有后果論觀點(diǎn)(consequentialist view)。后果論觀點(diǎn)也被稱為“后果相容論”,主張即便決定論與自由行動(dòng)不相容,但是它仍然與道德主體性相容,因?yàn)榈赖仑?zé)任歸屬的合理性不在于行動(dòng)的自由,而在于它無可替代的社會(huì)效用。[4]2根據(jù)后果論觀點(diǎn),如果對(duì)機(jī)器進(jìn)行道德責(zé)任歸屬具有無可替代的社會(huì)效用,那么這么做就是合理的。這個(gè)假言命題的前提是否為真呢?其實(shí),機(jī)器倫理學(xué)的出現(xiàn)就已經(jīng)回答了這個(gè)問題。正是我們對(duì)AMA日漸增加的需求導(dǎo)致了機(jī)器倫理學(xué)的誕生,因此,根據(jù)后果相容論的觀點(diǎn),機(jī)器倫理學(xué)的存在本身就論證了機(jī)器的道德主體性。[注]揚(yáng)波利斯基(Roman V. Yampolskiy)對(duì)此表達(dá)了不同的看法,認(rèn)為嘗試讓機(jī)器進(jìn)行倫理決策來確保其行為合乎道德是錯(cuò)誤的研究方向。相反,他主張我們應(yīng)該發(fā)展一種新科學(xué):人工智能主體的安全工程學(xué)。[5]

與不相容論相對(duì),相容論重新詮釋了“自由”概念,主張所謂“自由行動(dòng)”并不意味著行動(dòng)沒有原因,而是說人的心理狀態(tài)構(gòu)成了行動(dòng)的充分原因,亦即,如果一個(gè)人決定要做出一個(gè)行動(dòng),那么這個(gè)人就會(huì)這么做。[1]27-30,[6]282從認(rèn)知的角度說,這意味著人必須擁有一套行動(dòng)決策機(jī)制,這個(gè)認(rèn)知機(jī)制能夠獨(dú)立地作為原因決定人的行動(dòng)。如此一來,“一個(gè)人無法采取其他行動(dòng)”除了可能是由于他的行動(dòng)是不自由的以外,還可能僅僅意味著他決定了要做出這次行動(dòng),余地論證的前提1便不再為真。從而,即便決定論是真的,人的行動(dòng)仍然存有自由的可能。

對(duì)于一臺(tái)智能機(jī)器而言,擁有一套行動(dòng)決策機(jī)制,并且這套行動(dòng)決策機(jī)制決定了它的行動(dòng)無疑是可能的。毋寧說,現(xiàn)如今的許多智能機(jī)器都是這樣設(shè)計(jì)的。并且可以預(yù)期,許多使人的行動(dòng)變得不自由的因素,如疾病和受迫等等,對(duì)機(jī)器的影響反而有所降低,尤其人很容易由于自身安全或利益受到威脅而被迫做出某些行動(dòng),但只要我們不為機(jī)器設(shè)計(jì)相關(guān)機(jī)制,它就不可能被強(qiáng)迫。由此我們可以得到推論:在相容論立場上,將一臺(tái)智能機(jī)器接受為AMA是可能的。

除了關(guān)于決定論與自由意志的傳統(tǒng)討論之外,斯特勞森所提出的道德責(zé)任的反應(yīng)態(tài)度學(xué)說也有巨大的影響力,它與傳統(tǒng)討論的本質(zhì)區(qū)別在于放棄了關(guān)于如何合理地進(jìn)行道德責(zé)任歸屬的先驗(yàn)研究,轉(zhuǎn)向關(guān)于如何解釋人的道德責(zé)任歸屬行為的經(jīng)驗(yàn)研究,從而建立了一種對(duì)道德責(zé)任的主觀性理解。斯特勞森認(rèn)為,道德責(zé)任歸屬本質(zhì)上是對(duì)合適的主體表達(dá)反應(yīng)態(tài)度,同時(shí),當(dāng)行動(dòng)僅僅是出于無心之失,或者主體缺乏基本的道德能力的時(shí)候,道德責(zé)任可以被免除。[4]5因此,一臺(tái)機(jī)器如果要成為斯特勞森式的AMA,一方面,它必須首先加入到一個(gè)社交圈子當(dāng)中,并且是使得圈子里的其他成員對(duì)他產(chǎn)生社會(huì)情緒;另一方面,與相容論的情況相同,這臺(tái)機(jī)器必須具備道德行動(dòng)機(jī)制以提供基本的道德能力,從而使得它的道德責(zé)任不會(huì)被免除。

反應(yīng)態(tài)度學(xué)說雖然在某種意義上能夠描繪未來智能機(jī)器過上道德的生活時(shí)的場景,但是并沒有告訴我們?yōu)槭裁磻?yīng)該接受智能機(jī)器的道德主體性。這與反應(yīng)態(tài)度學(xué)說的描述本性有關(guān)。斯特勞森曾經(jīng)就人的道德責(zé)任歸屬行為的合理性的不可辯護(hù)性提出了三點(diǎn)理由:反應(yīng)態(tài)度是自然的,反應(yīng)態(tài)度獨(dú)立于信念系統(tǒng),對(duì)合理性的辯護(hù)是一個(gè)內(nèi)部問題。[4]10-15然而,這三點(diǎn)理由不僅爭議重重,并且都不適用于機(jī)器。因此,反應(yīng)態(tài)度學(xué)說無法單獨(dú)地回答智能機(jī)器的道德主體性問題,它只能充當(dāng)相容論回答的有益補(bǔ)充。

綜上所述,一臺(tái)智能機(jī)器的道德主體地位的接受標(biāo)準(zhǔn)由以下三個(gè)條件構(gòu)成:第一,這臺(tái)機(jī)器能夠通過內(nèi)在的行動(dòng)決策機(jī)制來產(chǎn)生行動(dòng);第二,我們?cè)跊Q定論和自由意志問題上采取相容論立場;第三,公眾社會(huì)情緒普遍地接納這類機(jī)器為道德共同體的一部分。這意味著,接受智能機(jī)器的道德主體地位在理論上是可能的。

然而在現(xiàn)實(shí)中,智能機(jī)器的道德主體地位在未來相當(dāng)長一段時(shí)間內(nèi)將繼續(xù)受到質(zhì)疑。這是因?yàn)?,第一,通過機(jī)器的計(jì)算過程實(shí)現(xiàn)現(xiàn)有的倫理學(xué)框架下的道德決策存在技術(shù)困難,復(fù)雜而靈活的人類道德準(zhǔn)則難以使用數(shù)字化程序簡單表達(dá)。第二,雖然近幾十年已經(jīng)出現(xiàn)了諸如“剪刀手愛德華”“底特律:變?nèi)恕钡仍S多強(qiáng)調(diào)機(jī)器具有心智的可能性,呼吁對(duì)人形智能機(jī)器一視同仁的藝術(shù)作品,但是公眾主流觀點(diǎn)依然認(rèn)為人和機(jī)器存在本質(zhì)不同,機(jī)器難以被社會(huì)情緒接納為道德共同體的一部分。第三,即便我們接受機(jī)器的道德主體地位,我們也很難因?yàn)闄C(jī)器行為的正當(dāng)或不正當(dāng)對(duì)它們進(jìn)行獎(jiǎng)勵(lì)或懲罰,因?yàn)闄C(jī)器對(duì)獎(jiǎng)懲并不敏感,通常意義上的獎(jiǎng)懲對(duì)促進(jìn)機(jī)器道德而言并無幫助。責(zé)任和獎(jiǎng)懲的分離也體現(xiàn)了機(jī)器倫理學(xué)與傳統(tǒng)倫理學(xué)的差異。這種差異意味著,一旦我們承認(rèn)機(jī)器是道德主體,我們的立法司法、組織管理和社會(huì)治理等活動(dòng)都不得不做出重大改變。

三、道德行動(dòng)機(jī)制設(shè)計(jì)問題

機(jī)器道德和人的情況有一點(diǎn)顯著不同,那就是無論我們最終認(rèn)為機(jī)器的道德主體性是可能的還是不可能的,我們都可以繼續(xù)討論如何設(shè)計(jì)機(jī)器以使機(jī)器遵守道德規(guī)范,這體現(xiàn)了機(jī)器倫理學(xué)諸議題的獨(dú)立性。與自動(dòng)駕駛汽車等智能機(jī)器在技術(shù)方面日臻完善所不同步的是,現(xiàn)在對(duì)如何設(shè)計(jì)AMA的討論仍然處于討論該采取哪種設(shè)計(jì)思路的最初階段,還遠(yuǎn)未涉及如何實(shí)現(xiàn)設(shè)計(jì)方案的技術(shù)細(xì)節(jié)問題。要分辨出哪種設(shè)計(jì)思路最為合理,我們有必要先對(duì)所有可能的設(shè)計(jì)思路做一番考察。

目前已有學(xué)者對(duì)AMA的設(shè)計(jì)思路進(jìn)行過分類,其中以穆爾(James H. Moor)和沃勒克等人(Wendell Wallach et al.)的分類最具代表性。穆爾將AMA的設(shè)計(jì)思路分為兩類:一類是隱式設(shè)計(jì),即機(jī)器的行動(dòng)能力被設(shè)計(jì)為合乎道德(穆爾稱它“以支持倫理行為的方式被編程了”);另一類是顯式設(shè)計(jì),即機(jī)器在決定其行為的計(jì)算過程中出現(xiàn)了明確的道德判斷。[注][7]19-20穆爾將AMA分作“隱式道德主體”和“顯式道德主體”兩類。這種命名方式具有誤導(dǎo)性,它容易讓人以為這一分類是對(duì)道德主體性的分類;而事實(shí)上,穆爾的分類依據(jù)是機(jī)器道德行動(dòng)機(jī)制的設(shè)計(jì)思路。因此,為了避免混淆,本文用“隱式設(shè)計(jì)”和“顯式設(shè)計(jì)”來指稱穆爾所說的隱式道德主體和顯式道德主體的道德行動(dòng)機(jī)制設(shè)計(jì)。沃勒克等人則將AMA的設(shè)計(jì)思路分作下行設(shè)計(jì)與上行設(shè)計(jì)兩類:下行設(shè)計(jì)是讓機(jī)器的行動(dòng)決策從一組特定的普遍倫理學(xué)理論出發(fā),結(jié)合特定的情境而導(dǎo)出不同結(jié)果的設(shè)計(jì)思路;上行設(shè)計(jì)則是讓機(jī)器的行動(dòng)決策具有某種表現(xiàn)的度量,通過多種試錯(cuò)技術(shù)不斷調(diào)整機(jī)器的行為表現(xiàn),最終使它接近或超越某個(gè)標(biāo)準(zhǔn)的設(shè)計(jì)思路。[8]568-569

穆爾和沃勒克等人的分類法是相互獨(dú)立的。從認(rèn)知的角度說,顯式/隱式的分類依據(jù)是機(jī)器是否具有道德決策機(jī)制(即包含“好”“正確”“應(yīng)該”等倫理表征的計(jì)算系統(tǒng)),上行/下行的分類依據(jù)是機(jī)器是否具有學(xué)習(xí)機(jī)制。兩種分類法相結(jié)合便可以區(qū)分顯式上行、顯式下行、隱式上行和隱式下行共計(jì)四種AMA設(shè)計(jì)思路。但是,沃勒克等人的分類法是不徹底的,所謂的上行設(shè)計(jì)仍然包含了兩種截然不同的設(shè)計(jì)思路。根據(jù)沃勒克等人的表述,上行設(shè)計(jì)是通過學(xué)習(xí)使機(jī)器“接近或超越某個(gè)標(biāo)準(zhǔn)”,如果這個(gè)“標(biāo)準(zhǔn)”是事先設(shè)定的,那么這種上行設(shè)計(jì)其實(shí)是偽裝成上行設(shè)計(jì)的下行設(shè)計(jì),它區(qū)別于未事先設(shè)定標(biāo)準(zhǔn)的、機(jī)器在與環(huán)境互動(dòng)的過程中根據(jù)環(huán)境反饋不斷調(diào)整自身所遵循的道德準(zhǔn)則的上行設(shè)計(jì)。我們可以通過兩類智能機(jī)器來說明兩種上行設(shè)計(jì)的區(qū)別。以近幾年聲名鵲起的圍棋人工智能程序“阿爾法圍棋”(Alpha Go)和前些年在網(wǎng)絡(luò)上流行過一段時(shí)間的聊天機(jī)器人小黃雞為例。在機(jī)器倫理方面,這兩類智能機(jī)器所采用的都是隱式上行設(shè)計(jì),我們期望Alpha Go遵守不悔棋等棋德,期望小黃雞遵守不說臟話等社交禮儀。但是在投入使用一段時(shí)間后,Alpha Go仍然恪守棋德,但小黃雞卻開始說起了臟話。這就是環(huán)境互動(dòng)對(duì)兩類道德行動(dòng)機(jī)制設(shè)計(jì)產(chǎn)生的不同影響。為了刻畫這種差異,同時(shí)為了與沃勒克的分類法相區(qū)別,我們依據(jù)機(jī)器行為所遵循的道德準(zhǔn)則是否敏感于環(huán)境反饋區(qū)分動(dòng)態(tài)設(shè)計(jì)和靜態(tài)設(shè)計(jì),或者依據(jù)機(jī)器行為是否遵循事先設(shè)定的固定不變的道德準(zhǔn)則稱之為經(jīng)驗(yàn)設(shè)計(jì)和先天設(shè)計(jì),這是兩種等價(jià)表述。一個(gè)下行設(shè)計(jì)必是靜態(tài)設(shè)計(jì),但一個(gè)上行設(shè)計(jì)既可能是靜態(tài)設(shè)計(jì),也可能是動(dòng)態(tài)設(shè)計(jì)(見圖1)。

是否具有學(xué)習(xí)機(jī)制?否/下行設(shè)計(jì)是/上行設(shè)計(jì)是否具有道德決策機(jī)制?是/顯式設(shè)計(jì)顯式下行:機(jī)器擁有固化的道德準(zhǔn)則和道德決策機(jī)制。靜態(tài)顯式上行:機(jī)器擁有道德學(xué)習(xí)機(jī)制,在投入使用前完成訓(xùn)練。動(dòng)態(tài)顯式上行:機(jī)器擁有道德學(xué)習(xí)機(jī)制,在投入使用后繼續(xù)發(fā)揮作用。否/隱式設(shè)計(jì)隱式下行:機(jī)器的行動(dòng)機(jī)制設(shè)計(jì)體現(xiàn)了特定道德準(zhǔn)則。靜態(tài)隱式上行:機(jī)器擁有體現(xiàn)了特定道德準(zhǔn)則的非道德學(xué)習(xí)機(jī)制。動(dòng)態(tài)隱式上行:機(jī)器擁有不體現(xiàn)特定道德準(zhǔn)則的非道德學(xué)習(xí)機(jī)制。否/靜態(tài)設(shè)計(jì)是/動(dòng)態(tài)設(shè)計(jì)是否敏感于環(huán)境反饋?

圖1 三種分類法[注]三種分類法所劃分的都是基礎(chǔ)設(shè)計(jì)思路,在此基礎(chǔ)上,不同設(shè)計(jì)思路可以相互組合以形成更為復(fù)雜的道德行動(dòng)機(jī)制設(shè)計(jì)。的相互關(guān)系

盡管穆爾和沃勒克等人的分類法在技術(shù)上都很有見地,但它們都沒有把握不同設(shè)計(jì)思路作為道德行動(dòng)機(jī)制設(shè)計(jì)的實(shí)質(zhì)差異。這一點(diǎn)可以從道德行動(dòng)機(jī)制設(shè)計(jì)的經(jīng)典案例“機(jī)器人學(xué)三定律”中看出來。機(jī)器人學(xué)三定律是美國科幻小說作家艾·阿西莫夫(Isaac Asimov)在作品《我,機(jī)器人》(I, Robot)中提出的機(jī)器人必須遵守的三個(gè)道德準(zhǔn)則[9]1:

第一,機(jī)器人不得傷害人,也不得見人受到傷害而袖手旁觀;

第二,機(jī)器人應(yīng)服從人的一切命令,但不得違反第一定律;

第三,機(jī)器人應(yīng)保護(hù)自身安全,但不得違反第一、第二定律。

在小說中,機(jī)器人學(xué)三定律總是因?yàn)樾畔⒉怀渥?、概念定義不明確等各種各樣的原因而無法實(shí)行;機(jī)器倫理學(xué)的公認(rèn)觀點(diǎn)也認(rèn)為機(jī)器人學(xué)三定律不是通用機(jī)器人道德行動(dòng)機(jī)制設(shè)計(jì)的正確思路。運(yùn)用動(dòng)態(tài)/靜態(tài)之分進(jìn)行分析,能夠幫助我們找到機(jī)器人學(xué)三定律問題所在:機(jī)器人學(xué)三定律的失敗在于,它作為一種事先設(shè)定好目標(biāo)的靜態(tài)設(shè)計(jì),無法在原本人類面對(duì)的復(fù)雜道德實(shí)踐情境中展現(xiàn)出足夠的靈活性。相比之下,顯式/隱式之分和上行/下行之分都做不到這一點(diǎn)。這是因?yàn)?,一個(gè)遵照三定律行動(dòng)的機(jī)器人既可以知道這些準(zhǔn)則,也可以不知道這些準(zhǔn)則;它對(duì)三定律的遵循既可以是三定律在它的認(rèn)知系統(tǒng)中固化的結(jié)果,也可以是通過學(xué)習(xí)機(jī)制訓(xùn)練的結(jié)果。也就是說,一個(gè)遵循三定律的通用機(jī)器人所采用的設(shè)計(jì)可以是顯式上行、顯式下行、隱式上行和隱式下行四種設(shè)計(jì)中的任何一種,顯式/隱式之分和上行/下行之分都無助于我們分析出機(jī)器人學(xué)三定律的缺陷。因此,對(duì)于討論智能機(jī)器的道德行動(dòng)機(jī)制設(shè)計(jì)而言,動(dòng)態(tài)/靜態(tài)之分比顯式/隱式之分和上行/下行之分更加重要。

將機(jī)器人學(xué)三定律的失敗推廣到整個(gè)機(jī)器倫理學(xué)領(lǐng)域,沃勒克等人認(rèn)為,任何類似于阿西莫夫的機(jī)器人學(xué)三定律的靜態(tài)設(shè)計(jì)是不可能成功的。他們提出了三點(diǎn)理由:第一,倫理學(xué)并沒有找到可應(yīng)用于靜態(tài)設(shè)計(jì)的普遍倫理學(xué)理論;第二,即便存在這樣的理論,其原理往往是高度抽象的,以至于人和機(jī)器都不知道怎么樣在現(xiàn)實(shí)中實(shí)現(xiàn)它;第三,人類社會(huì)原本就處于不斷變化的過程中,所以如果倫理學(xué)原理不是高度抽象的,那么它一定會(huì)在面臨種種新情況時(shí)陷入困難和爭執(zhí)當(dāng)中,并且我們的立法、司法等機(jī)關(guān)事實(shí)上就是為了處理這些頻頻出現(xiàn)的新狀況而設(shè)立的。[8]571-575沃勒克等人對(duì)靜態(tài)設(shè)計(jì)的三點(diǎn)批評(píng)意見都基于一個(gè)重要前提:AMA的道德實(shí)踐應(yīng)該與人相似——因?yàn)榕c人相似,所以,AMA所需要處理的道德問題領(lǐng)域與人類相同;人類沒有的普遍倫理法則,機(jī)器也一定不會(huì)有;人類社會(huì)不斷出現(xiàn)的道德糾紛和倫理觀念的變更,也一定會(huì)出現(xiàn)在機(jī)器身上——總而言之,因?yàn)槿祟惖牡赖屡袛嗍莿?dòng)態(tài)的,所以智能機(jī)器也應(yīng)該采取動(dòng)態(tài)設(shè)計(jì)。事實(shí)上,沃勒克等人的這一看法是一個(gè)極為自然和常見的觀念,公眾甚至不少學(xué)者對(duì)人工智能的看法僅僅停留于“與人類智能相似”這一點(diǎn)上。并且,往往是成熟度越高、技術(shù)性越強(qiáng)的學(xué)科領(lǐng)域,越是執(zhí)著于在人工智能上復(fù)刻人類智能的做法。當(dāng)然,人工智能決不能與人類智能一點(diǎn)都不像,否則我們就沒有把握說這種“人工智能”確實(shí)體現(xiàn)了某種智能??墒?,這種相似性是不是非得具體到每一個(gè)技術(shù)細(xì)節(jié)里頭去呢?答案是否定的。

一方面,對(duì)“智能”概念的分析表明智能行動(dòng)具有多樣性。在邏輯行為主義的概念框架里,“智能”通常是外延定義的,例如賴爾通過“聰明”“機(jī)敏”“謹(jǐn)慎”等等詞匯來刻畫“智能”的含義。[10]14-15有學(xué)者指出,智能概念“強(qiáng)調(diào)的是行事方式,即行動(dòng)所具備的某種風(fēng)格或方法”[11]72。也就是說,智能僅僅是數(shù)量眾多的行為模式構(gòu)成的類,它并不涉及除了表層結(jié)構(gòu)之外的任何因素。在認(rèn)知主義的概念框架里,“智能”一詞的適用范圍已大大擴(kuò)展,人類智能被寬泛地刻畫為加工來自環(huán)境的信息輸入并將之用于解決問題的實(shí)踐。認(rèn)知主義往往通過計(jì)算機(jī)的運(yùn)作方式來理解人類心智,因此如果說人類活動(dòng)體現(xiàn)了智能的話,那么任何能夠與外界互動(dòng)的計(jì)算機(jī)原則上都或多或少地具備智能。此外,認(rèn)知主義將個(gè)人水平的認(rèn)知能力解釋為亞人水平心理機(jī)制運(yùn)作的結(jié)果,二者之間是功能角色和實(shí)現(xiàn)者的關(guān)系,而功能角色存在多重實(shí)現(xiàn)的可能。這表明人工智能與人類智能的相似性只需要限制在行為模式的相似性,而行為模式的實(shí)現(xiàn)機(jī)制是多樣的,人工智能的實(shí)現(xiàn)機(jī)制完全可以與人類智能不同。

另一方面,當(dāng)代最成功的人工智能設(shè)計(jì)并沒有預(yù)設(shè)人工智能與人類智能在實(shí)現(xiàn)機(jī)制上的相似性。我們?cè)僖訟lpha Go為例。Alpha Go事先考察大量棋譜,而后在對(duì)局中通過預(yù)測后幾步走棋的可能性并評(píng)估這些可能性所帶來的勝率,配合特定的計(jì)算裝置來決定接下來的走棋。這種決定落子的方法要求大量的計(jì)算和存儲(chǔ)操作,對(duì)于人類棋手來說是不可能完成的任務(wù)。2016年3月,Alpha Go在對(duì)局中擊敗韓國職業(yè)選手李世乭,一舉成名;2017年5月,Alpha Go以3:0的戰(zhàn)績橫掃圍棋世界冠軍柯潔,標(biāo)志著人工智能棋手完成了對(duì)人類棋手的全面超越。沒有理由認(rèn)為Alpha Go的棋藝沒有體現(xiàn)出智能,而Alpha Go的成功也就意味著成功的人工智能并不需要徹底地模仿人類智能,實(shí)現(xiàn)人工智能的機(jī)制完全可以不同于人類智能,并達(dá)到與人類智能相同甚至更高的高度。

所以,沃勒克等人在設(shè)計(jì)問題上的最大失誤,就是忽略了人工智能的多樣性和人類智能的多重可實(shí)現(xiàn)性。也許對(duì)于沃勒克等人最為關(guān)心的那些最終將會(huì)與人極為相似的機(jī)器人而言,動(dòng)態(tài)設(shè)計(jì)確實(shí)體現(xiàn)出對(duì)靜態(tài)設(shè)計(jì)充分的優(yōu)越性,但是,這種機(jī)器人并不是人工智能的全部,也不是AMA的全部。如果一臺(tái)機(jī)器被設(shè)計(jì)處理的問題領(lǐng)域是高度限定的,那么這臺(tái)機(jī)器所需要處理的倫理問題也是十分有限的,找到可應(yīng)用于靜態(tài)設(shè)計(jì)的倫理學(xué)原理仍然是可能的。

要判斷一臺(tái)機(jī)器究竟適合靜態(tài)設(shè)計(jì)還是動(dòng)態(tài)設(shè)計(jì),我們必須結(jié)合這臺(tái)機(jī)器的功能和它打交道的問題領(lǐng)域來進(jìn)行判斷。大體上,一臺(tái)機(jī)器所要執(zhí)行的功能越是簡單,它的道德行動(dòng)機(jī)制就越是適合靜態(tài)設(shè)計(jì);相反,功能復(fù)雜任務(wù)繁重的機(jī)器則更適合動(dòng)態(tài)設(shè)計(jì)。不過,這個(gè)標(biāo)準(zhǔn)既不是精確的,也不是絕對(duì)的。它只是表明了,無論是靜態(tài)設(shè)計(jì)還是動(dòng)態(tài)設(shè)計(jì)都是AMA可能的設(shè)計(jì)思路。機(jī)器的道德行動(dòng)機(jī)制的設(shè)計(jì)方法是多樣的,我們不能簡單地認(rèn)為一類設(shè)計(jì)思路就比另一類設(shè)計(jì)思路更出色。

隨著科學(xué)技術(shù)不斷發(fā)展,智能機(jī)器在生產(chǎn)生活中的參與程度不斷加深,未來智能機(jī)器的開發(fā)和制造必定會(huì)遭遇越來越多的倫理挑戰(zhàn),機(jī)器倫理學(xué)將在智能機(jī)器的研發(fā)中扮演越來越重要的角色,越來越多的學(xué)者將會(huì)加入到智能機(jī)器道德問題的研究和討論中。不過,機(jī)器倫理學(xué)的意義并不止于此。正如穆爾所說,我們需要重視機(jī)器倫理學(xué)的研究工作的理由之一,是“通過編程或者教育讓一臺(tái)機(jī)器合乎道德地行動(dòng)有助于我們更好地理解倫理學(xué)”[7]21。在這個(gè)意義上,機(jī)器倫理學(xué)是一項(xiàng)采用了設(shè)計(jì)立場的傳統(tǒng)倫理學(xué)研究。如果有朝一日我們解決了機(jī)器倫理學(xué)的兩個(gè)基本問題并實(shí)現(xiàn)了AMA,那么我們對(duì)人類心智中的道德認(rèn)知機(jī)制和人所遵從的道德規(guī)范的認(rèn)識(shí)也必定會(huì)再上一個(gè)臺(tái)階。

猜你喜歡
決定論倫理學(xué)機(jī)器
機(jī)器狗
機(jī)器狗
開拓·前沿·創(chuàng)新與學(xué)科建設(shè)——簡評(píng)《中醫(yī)生命倫理學(xué)》
“紀(jì)念中國倫理學(xué)會(huì)成立40周年暨2020中國倫理學(xué)大會(huì)”在無錫召開
未來機(jī)器城
電影(2018年8期)2018-09-21 08:00:06
倫理批評(píng)與文學(xué)倫理學(xué)
對(duì)麥克盧漢“技術(shù)決定論”思想的再審視
新聞傳播(2015年5期)2015-07-18 11:10:27
氣象影響文藝:從結(jié)構(gòu)決定論到文化生產(chǎn)論
無敵機(jī)器蛛
“蟻?zhàn)瀣F(xiàn)象”的倫理學(xué)思考
玉溪市| 务川| 长海县| 额敏县| 巴塘县| 溧水县| 互助| 谷城县| 都昌县| 东兴市| 长治县| 定陶县| 赤壁市| 青川县| 秦皇岛市| 金山区| 新邵县| 黎平县| 梧州市| 鹿邑县| 阳信县| 赤城县| 论坛| 洪江市| 霍州市| 水富县| 怀宁县| 高台县| 台山市| 德令哈市| 新营市| 海原县| 鞍山市| 宁远县| 大连市| 东明县| 萨嘎县| 尼玛县| 乐山市| 丰城市| 延边|