国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工道德主體應(yīng)當(dāng)滿足的兩條基本原則

2021-01-02 22:11王淑慶
科學(xué)經(jīng)濟社會 2021年1期
關(guān)鍵詞:能動性自主性人工

王淑慶

人工智能的發(fā)展使得多主體交互①多主體交互比人機交互更為寬泛,因為它還包含人工主體間的交互。因此,涉及“人機交互”就僅僅指人與人工主體間的交互。變得越來越現(xiàn)實,但為了避免人工主體在多主體交互中傷害人類或其他主體,甚至讓其行動更加人性化,構(gòu)建人工道德能動性(artificial moral agency)則成了一個具有前瞻性的研究主題[1]19-29。在理想的意義上,構(gòu)建道德上值得贊賞的人工主體(morally praiseworthy artificial agents,簡稱MPAA)是機器倫理的終極目標(biāo)[2]251-261,它最好能讓機器的“所為”與“不為”兩個方面都能符合人類的道德期待。

讓人工主體主動地實施道德行動以及抑制不道德行動,在很大程度上只是一種理想。所以,很多學(xué)者反對構(gòu)建MPAA,他們甚至反對任何關(guān)于人工道德主體(artificial moral agent②在本文中,agent有時被翻譯成主體,有時被翻譯成行動者或施動者。筆者在探討它的特性時,譯成主體;而探討它作為能夠?qū)嵤┬袆拥拇嬖谖飼r,翻譯成行動者;在與受動者(patient)相對時,則翻譯成施動者。)的構(gòu)想,并從各方面論證這是不可能的[3-4]。然而,也有些學(xué)者認(rèn)可這是一種可以設(shè)想的遠(yuǎn)景目標(biāo),他們主張在更弱的意義上界定人工道德主體[5]349-379。筆者站在支持派的立場,認(rèn)為人工道德能動性不宜過多地類比人類,而要從道德功能主義(注重機器的功能表現(xiàn)而非內(nèi)在機制)的角度看待構(gòu)建人工道德主體的意義。目前的哲學(xué)研究多數(shù)是針對的高級的MPAA,它試圖讓機器像人一樣進(jìn)行道德判斷與道德推理,并進(jìn)而實現(xiàn)較好的道德決策,這其實過于理想化。如果說構(gòu)建完全的道德主體還為時過早,探討初、中級的MPAA③按照摩爾(J.Moor)的劃分,人工道德主體在道德能動性上有四個層級:有道德影響的、隱式的、顯式的以及完全的道德主體。所謂中級的人工道德主體,大致可以看作顯式的道德主體。在道德能動性上應(yīng)當(dāng)滿足什么原則,則是有必要的。正如瓦拉赫(W.Wallach)所說:“人工道德性在于構(gòu)建對價值、倫理和法律等計算機或機器人的活動具有敏感性的AI 系統(tǒng)。”[6]1顯然,瓦拉赫所指的人工道德性就是一種初級的MPAA,它僅僅是對道德原則具有部分敏感性,從而比較容易實現(xiàn),不是構(gòu)建MPAA的長遠(yuǎn)目標(biāo)。既然構(gòu)建完全的MPAA目前還非常困難,而且其哲學(xué)基礎(chǔ)也不牢靠,那么就中級目標(biāo)(不僅對道德原則具有部分敏感性,還能夠主動地進(jìn)行道德決策,但又未達(dá)到人類級別的自主性)來說,MPAA 在道德能動性上應(yīng)當(dāng)滿足什么基本原則?這個問題是人工道德主體從初級到高級發(fā)展必須要考慮的問題。

如果能夠給出中級水平的MPAA①如無特別說明,下文提到的MPAA都是指中級水平的MPAA。需要滿足的基本原則,那么其在何種意義上是可能且必要的?為了實現(xiàn)中級水平的人工道德能動性,MPAA 應(yīng)當(dāng)具備何種推理能力?本文試圖給出MPAA 需要滿足的兩條基本原則,并為其必要性進(jìn)行辯護(hù)。具體來說,文章首先通過探討構(gòu)建MPAA 的兩個動力源,同時澄清人工道德主體和MPAA 之間的關(guān)系,說明構(gòu)建MPAA 的意義所在。繼而,依據(jù)人類能動性的特點,從“所為”與“不為”兩個方面說明阿西莫夫(I.Asimov)的機器人學(xué)第一法則為什么不適用于MPAA,并提出兩條替代性原則:第一,不允許主動傷害其他主體;第二,不應(yīng)當(dāng)漠視正發(fā)生的傷害。最后,基于人工智能倫理嵌入的實踐進(jìn)路和人工能動性建模思路,探討這兩條基本原則的邏輯表達(dá)以及智能機器相應(yīng)的推理能力問題。

一、道德上值得贊賞的人工主體

人工道德主體既可能“主動”為善,也可能“主動”作惡,因此構(gòu)建MPAA 以防止作惡,就是一條可設(shè)想的途徑。由于構(gòu)建MPAA 遭到了一些哲學(xué)家的反對,所以下面分析構(gòu)建人工道德主體的動力源與MPAA 的可能性,并在一定程度上為其合理性進(jìn)行辯護(hù)。

(一)構(gòu)建人工道德主體的兩個動力源

構(gòu)建人工道德主體并不是一種純粹的空想,它有兩個動力源:一是對構(gòu)建人工主體自主性(autonomy)的追求,而道德行為是自主性的高度表現(xiàn);二是為了防止人工主體與人類交互帶來難以接受的倫理風(fēng)險。

自主性是主體非常重要的一個特征,它是指行動者(agent)根據(jù)自己的欲望和理智來控制其行為(包括選擇)的特性,它的反面是完全被決定[7]126。自主性有不同的層級,如果機器不需要人類事先設(shè)定具體程序或中途干預(yù)而能夠與環(huán)境交互,在某種意義上可以被看作是初級的自主性。但較為高級的自主性則要求擁有自主選擇的自由與能力,它們也是使得一個實體或存在物成為行動者最關(guān)鍵的特性。道德上的自主性屬于很高的層級,因為一個主體如果只考慮他自身目標(biāo)的實現(xiàn),這種目標(biāo)自主性在道德上就不如能夠同時考慮其他主體的利益,而后者就是道德自主性——它的特點是在依據(jù)自己的欲望和理智過程中,把他者的利益放在比較重要的位置,并以此來影響決策與行動。正如皮卡德(R.W.Picard)所說:“一個機器越自由,則它就越需要道德標(biāo)準(zhǔn)?!盵8]134如果將來的人工主體表現(xiàn)出非常高的目標(biāo)自主性,但卻沒有任何“道德觀念”,這至少說明它在自主性上是有所缺陷的。因此,只要人工智能學(xué)者越希望構(gòu)造更高層次的自主性機器,就會越期待人工道德性,這是構(gòu)建人工道德主體非常重要的一個動力源。

為防止人工主體與人類交互帶來難以接受的倫理風(fēng)險,構(gòu)建人工道德主體至少有三個方面的理由。首先,如果不僅把人工主體看作受動者(patient),而還把其看作施動者(agent),這種人機交互就要求人與機器之間在交流地位上具有平等性。但就道德地位來說,人與機器的地位具有不對稱性[9]44,所以人們希望機器與人交互時至少不能傷害人,特別是不能“主動”傷害人。在不傷害人問題上,最好能讓機器具有“道德觀念”——這便是最為初級的人工道德主體構(gòu)想。其次,在人機交互中,機器也不能“引誘”人去做一些不道德的事。比如,機器不應(yīng)當(dāng)與人類個體陷入過多的交流,以免引發(fā)人類個體的“去社會性”。如果機器不是人工道德主體,人類應(yīng)該在設(shè)計的時候避免這些誘惑因素的出現(xiàn);而如果機器是人工道德主體,它就應(yīng)該主動不做這樣的事情。因此,“不管智能機器是否具有人類的道德主體地位,都應(yīng)該對人工智能可能帶來的危害做出防范”[10]50。最后,在“看到”人正在遭受傷害時,機器不應(yīng)當(dāng)漠視。而要做到不漠視,機器僅靠執(zhí)行命令是完全不夠的,它必須具有道德上的自主性,特別是能夠?qū)δ承﹤邆洹扒楦行苑磻?yīng)”①即遇到某些傷害的情形時,具有高度的敏感性,如果這種敏感性類似于人類行動者的情感反應(yīng)特性,則可以把它看作“人工情感”。。因此,為了防止人工主體與人類交互時傷害人類或漠視正在發(fā)生的傷害,機器最好能夠作為一定程度的道德主體而存在。

(二)構(gòu)建MPAA的可能性

人工主體的自主性越高,就意味著它越可能不受人類的控制。道德自主性在某種程度上是最高的一種自主性,因為它要求主體具有某種價值評價能力??梢哉f,人工智能技術(shù)越發(fā)達(dá),人工主體的自主性越高,最終達(dá)到道德自主性就越有可能。

然而,構(gòu)建人工道德主體的主張遭到了很多學(xué)者的反駁。這些反駁觀點大致可以分為兩種:一種認(rèn)為人工道德主體根本就是不可能的,沒有必要為此浪費時間和資源進(jìn)行研究;另一種認(rèn)為人工道德主體會帶來惡,因此有可能得不償失。比如,斯塔爾(B.C.Stahl)從認(rèn)知主義倫理學(xué)的角度論證道:計算機只能處理數(shù)據(jù),而不能處理信息,更不能理解信息,從而它的所為就不可能帶有任何倫理特性[11]67-83。再如,珀德斯韋德克(F.Podschwadek)主張,機器完全的道德自主性必然蘊涵著它有有意作惡的選擇性,而僅僅靠人工事先規(guī)定不準(zhǔn)作惡無法應(yīng)對開放的經(jīng)驗世界,從而是不可能的[12]325-339。

當(dāng)然,也有不少學(xué)者支持人工道德主體的構(gòu)建。其中,最有代表性的觀點有兩種:一是功能主義倫理學(xué),另一種是技術(shù)主義傾向的倫理學(xué)。比如,弗洛里迪(L.Floridi)認(rèn)為從“抽象的層級”(level of abstraction)來看,只要一個人工主體的行動是被道德善或惡而驅(qū)動的,就可以把它看作人工道德主體[5]349-379??梢?,弗洛里迪只關(guān)注行動的外在道德屬性,而不管它是如何做出來的,因為這種善惡驅(qū)動不可能像人類一樣來自內(nèi)在的道德動機,而只是通過大數(shù)據(jù)或倫理原則來讓機器的行動在倫理后果上趨向于好的結(jié)果。此外,瓦拉赫認(rèn)為,人工道德性的目標(biāo)在于設(shè)計出像人類道德行動者一樣實施行動的人工主體,構(gòu)建出來人工道德性會有兩大優(yōu)點:一是它計算速度快從而可以考慮的選擇就多,二是它沒有情感,從而不會受情感的影響[6]1-6。

可見,到底能不能制造出非自然的道德主體(人工道德主體),依然是一個懸而未決的理論問題。如果不考慮目前的技術(shù)可能性,并且在以上兩大類觀點中進(jìn)行折衷,則可以認(rèn)為構(gòu)想人工道德主體的必要性體現(xiàn)在兩方面。一方面,在弱的意義上建構(gòu)人工道德主體是完全可能的。人工主體不可能也沒有必要和人類主體完全一樣,比如擁有自我意識和自由意志等。換句話說,只要人工主體在行為選擇上基于道德理由考慮,且它的行動能夠自覺地避免有損他人利益的特征,那么就可以認(rèn)為它就是某種人工道德主體。另一方面,在局部范圍內(nèi)構(gòu)建道德上值得贊賞的人工道德主體,則是機器倫理的初極目標(biāo)。而終極目標(biāo)是讓其成為模仿人類的“圣人”,從而“一勞永逸”地解決人工主體帶來的倫理問題。即使這種構(gòu)想過于理想化,但在局部范圍內(nèi)構(gòu)建MPAA 是值得嘗試的。綜上,如果人工道德主體是可能的,那么構(gòu)建道德上值得贊賞的人工主體就是必要的。

二、人工道德能動性的兩條基本原則

人類作為行動者,一個顯著的特征在于能夠根據(jù)情境的變化,從兩方面控制自己的行動:一方面,“所為”的一面,即主動地實施行動;另一方面,“不為”的一面,即主動地抑制(refrain)或忽略(omit)采取行動。由于能動性體現(xiàn)為“行動者對其能力的調(diào)動和運用”[13]90,所以“所為”和“不為”都可以看作是能動性的展現(xiàn)。阿西莫夫機器人學(xué)的第一法則恰好包含“所為”和“不為”兩方面的內(nèi)容,它也是對機器的道德設(shè)計必須要考慮的,正如瓦拉赫等人所說:“任何對機器人自上而下道德設(shè)計的探討都不能忽視阿西莫夫的三大法則”[14]91。然而,阿西莫夫機器人學(xué)第一法則是不適用于人工道德主體的,從而有必要提出適合人工道德主體的基本原則。同時,本部分還從人工智能倫理嵌入的實踐進(jìn)路①理論進(jìn)路即考慮把某種具體的倫理理論嵌入到機器中,實踐進(jìn)路則強調(diào)讓機器擁有進(jìn)行規(guī)范推理的能力或讓機器在實施行動的時候可以遵循某種倫理原則(不需要系統(tǒng)的理論)。為新原則的可能性與必要性進(jìn)行辯護(hù)。

(一)機器的“所為”不允許主動傷害其他主體

機器人不得傷害人類,這是得到人們普遍認(rèn)可的基本原則,也是阿西莫夫機器人學(xué)第一法則的核心內(nèi)容之一[15]201。顯然,“機器人的行動不得傷害人類”是從“所為”的角度來探討的,它強調(diào)機器的行動在后果上不能有違人類的基本道德。然而,這條法則對于構(gòu)建MPAA 具有明顯的缺陷。其一,它不能表明“不傷害人類的機器人”就是人工主體,比如它可以僅僅是沒有多少自主性的機器人,其不傷害人類僅在于它根本沒有自主行動的能力。換句話說,“不傷害人類”的特性不足以顯示其主體身份。其二,“不傷害人類的機器人”有可能成為一個主體,但不一定就是道德主體。一個機器如果僅僅是一個人工主體,它完全可以擁有“不傷害人類”的特性(如行動能力非常有限),但這不能說明它是人工道德主體。一個實體要成為具有較好道德品質(zhì)的主體至少體現(xiàn)在:它在實施行動時,會基于道德理由而選擇有利于他者的行為——而道德的行動最明顯的特征之一是“利他性”。由此可見,“不傷害人類”對于構(gòu)建MPAA來說要求過低。

筆者認(rèn)為,MPAA 的“所為”行動應(yīng)當(dāng)滿足的基本原則是:不允許人工主體主動傷害其他主體②這里的主體其實就是行動者,即有能力實施行動的存在物。一般認(rèn)為,高級動物和人類嬰兒也是行動者,雖然他們是初級行動者。當(dāng)然,如果把此原則中的“主體”擴展至“道德承受體”,則會顯示出MPAA的道德水平更高,筆者認(rèn)為可以把這種MPAA看作非中級的。。相比阿西莫夫的“機器人不得傷害人類”,這一原則有兩個方面的改變。第一,它增加了“主動”這一特征,從而彰顯出機器可能具有的道德選擇能力,這也是人工主體自主性越來越強所應(yīng)當(dāng)具備的特征;第二,它的道德受眾面更寬,即從人類擴展到其他一切主體,比如人工智能主體以及比較高級的動物,都是人工主體的道德考慮所應(yīng)關(guān)照的范圍。

然而,此原則可能面臨兩個反駁:第一,在可以預(yù)見的范圍內(nèi),機器不會有道德自主性[16]403-418,從而不存在道德上的主動或不主動問題;第二,人類都很難尊敬其他所有主體,讓機器實現(xiàn)這樣的功能更為困難,而且機器不可能在所有場景下都實現(xiàn)“不傷害其他主體的目標(biāo)”,比如“智能機器制止小偷的盜竊行動時”就一定會傷害其他主體。筆者認(rèn)為這兩個反駁都可以得到較好的回應(yīng)。首先,道德自主性問題依然要從功能主義的角度看,如果機器能夠根據(jù)道德理由而選擇倫理結(jié)果好的行動,而且?guī)缀醪怀霾铄e——在實踐進(jìn)路上,我們就可以認(rèn)可它具有道德行動的自主性。而且,由于道德的行動一個重要的特征是利他性,它要求行動者把他者的利益作為自己行動的一個理由,這也是實踐理性的要求[17]4。如果一個機器會基于利他的理由而選擇并實施相關(guān)行動,則它擁有了部分實踐理性,因而在道德能動性的意義上可以把它看作一個人工道德主體。其次,機器的計算力和無情緒特性有利于道德能動性的構(gòu)建與施展。比如,機器的計算力強大,從而在行動考慮時可選擇項多,那么它所做出的選擇就可能越理性甚至越道德;而且,機器一般沒有情感(即使有人工情感,也不會像人那么不穩(wěn)定),因而可以免受不良情感的破壞作用——這兩點正是人類所缺乏的,這說明機器在道德行動上比人更優(yōu)秀是完全可能的。至于“一個小偷正在偷另一個人的財物時,機器采取制止行動時一定會傷害小偷”這樣的例子,并不違反“不允許主動傷害其他主體”,因為機器在制止“小偷盜竊時”并不是在“主動”傷害小偷:它既不會讓小偷受到“不應(yīng)該有的傷害”,也能制止住小偷的行為——它可以只把小偷攔住或告訴被偷者。

(二)機器的“不為”不應(yīng)當(dāng)漠視正發(fā)生的傷害

阿西莫夫機器人學(xué)第一法則中的后半句是:“或因不作為而使人類受到傷害!”[15]201直觀上看,如果一個機器人(或人工主體)“看到”某個人正在遭受傷害,而且機器有能力且實施了相關(guān)行動去施救,則此機器人就沒有違背這一條原則。反過來,機器人看到人類正在遭受傷害,完全置之不理,它在道德上就是不值得人們信賴的,而不管它是否有能力進(jìn)行施救。因此,這條原則是從“不為”的角度來探討的。然而,它同樣不適用于構(gòu)建MPAA。第一,它對“不為”的要求過高?!安粶?zhǔn)機器人因為不作為而使人類受到傷害”要求非常嚴(yán)苛,因為它的標(biāo)準(zhǔn)是“禁止”。眾所周知,“禁止做某事”已經(jīng)是一種比較嚴(yán)格的道德要求,而“禁止不作為”就更難,畢竟機器要實現(xiàn)“主動不為”本身就比“主動有為”要困難得多。第二,它對“不為”的因果依賴性解釋過強?!耙虿蛔鳛槎谷祟愂艿絺Α敝辽俅嬖趦蓚€困境[18]125-148:首先,什么情況下才能算作“不為”,難以界定;其次,對于“不為”的因果解釋在哲學(xué)上很困難,因為“不為”與“傷害”之間不能通過正常的事件因果而得到完全的解釋。例如,行動者小王路過一座水庫,他看到自己認(rèn)識的小孩落水正在呼救,而且他完全有能力去救人但卻沒有去救——他的“不為”是否是小孩淹死的部分原因,目前在學(xué)術(shù)界依然充滿爭議。

鑒于阿西莫夫在機器“不為”上的要求過高,筆者認(rèn)為,從“不為”的角度構(gòu)建MPAA,其基本原則應(yīng)該是:機器的“不為”不應(yīng)當(dāng)漠視正發(fā)生的傷害。此原則有兩個優(yōu)點:第一,它對機器“不為”的要求僅限于“不應(yīng)當(dāng)”,從而低于“所為”的“不準(zhǔn)”,這是因為對“不為”的模擬更難;第二,它避開了“不為”在因果解釋上的復(fù)雜性,而只關(guān)注機器的不漠視狀態(tài),而不管這種“不漠視”在現(xiàn)實上到底能否挽救或減少傷害。

“不應(yīng)當(dāng)漠視正發(fā)生的傷害”,這一原則對于構(gòu)建MPAA 來說是非常必要的。首先,MPAA 要求人工主體具有較高的能動性,而“不為”的能力本身就是較高級的能動性。而且,對于機器來說,“實施行動”可能是一種類似“刺激—反應(yīng)”的機制,但“不為”比這種機制在能動性上更為高級,它要求人工主體在適當(dāng)?shù)臅r候“理解”為什么不要做某事。其次,對于人類來說,不漠視傷害意味著一種道德關(guān)懷,人工主體也是如此。如果要求機器實現(xiàn)不漠視傷害,至少要求它能夠識別哪些情形對于其他主體是傷害,以及它到底有多大能力可以“幫助對方”。至于它的“不漠視”能否真正奏效,則是不重要的,而且它對于自己無能為力的事也不會主動去做,但可以試圖去想一下自己是否真的無能為力??梢姡安粦?yīng)當(dāng)漠視正發(fā)生的傷害”不是指主動去施救任何正在發(fā)生的傷害,而主要是指它所面對的傷害。由于利他性更可能具有道德性,如果機器在識別其他主體正在遭受傷害時,甚至能夠主動地犧牲自身的部分利益,那么它這種能動性模式就能體現(xiàn)人工主體的道德性。最后,如果機器僅僅只做人類允許的行動,那么它的行動在道德上就不會那么值得欣賞。比如,面對一些復(fù)雜情形,機器由于無法判斷哪個更好,它就可能會無動于衷,從而在能動性上也就顯得比較低級——這種低能動性與道德能動性是不相匹配的。

有兩點需要注意。第一,兩條原則的優(yōu)先性問題。當(dāng)一個智能機器面對其他主體正在“遭受傷害”時,受“不應(yīng)當(dāng)漠視”的引導(dǎo),如果智能機器要采取行動,還得符合“不允許傷害其他主體”。換句話說,上述兩條基本原則是互相聯(lián)系的,且第一條原則更具優(yōu)先性,因為“不漠視”后產(chǎn)生的“施救”最終不能帶來另外的傷害。第二,人工道德主體的充分必要條件問題。上述兩條原則更多是為了表達(dá)中級人工道德主體的必要條件的,而不是充分條件。事實上,充分條件的原則難以給出,因為只有清晰界定人工道德主體,并把握了人工道德主體的全部實踐模式集合后,才可能給出一個充分條件集合,而這在時間序列上將導(dǎo)致悖論。

三、兩條原則的邏輯表達(dá)與推理能力

本文基于機器倫理的實踐進(jìn)路探討MPAA的構(gòu)建問題,其目標(biāo)是讓機器能夠進(jìn)行倫理推理。因此,如何把上述兩本基本原則用邏輯表達(dá),這對于人工道德能動性建模就很有必要。把倫理原則用邏輯表達(dá),最重要的是盡可能把它形式化甚至算法化。就上述兩條原則來說,首先需要把它轉(zhuǎn)化為更為嚴(yán)謹(jǐn)?shù)谋磉_(dá),然后再抽象出“確?!保╯ee to it that)和“嘗試”(try to)兩個模態(tài)算子,以幫助機器擁有確保和嘗試的推理能力——它的目的是讓機器最大限度地“理解”①圖靈獎得主珀爾(J.Pearl)認(rèn)為,當(dāng)前基于深度學(xué)習(xí)的人工智能并不能擁有任何“理解能力”,未來的研究需要想辦法讓機器學(xué)會“因果推理”。具體論述請見參考文獻(xiàn)[19]。[19]兩條原則。

(一)兩條原則的轉(zhuǎn)化表述

如前所述,本文提出MPAA在道德能動性上應(yīng)當(dāng)滿足以下兩條基本原則:

(1)人工智能主體不允許主動傷害其他主體;

(2)人工智能主體不應(yīng)當(dāng)漠視正發(fā)生的傷害。

需要注意的是,這兩條表述增加了一個新前提:人工智能主體可以被建構(gòu)。換句話說,在假定人類已經(jīng)可以制造出人工主體的條件下,才可以真正地談?wù)撊斯さ赖轮黧w以及道德上值得贊賞的人工道德主體。因此,如果認(rèn)為現(xiàn)在的智能機器還達(dá)不到人工主體級別,那么這兩條原則就不是現(xiàn)實的,而是針對未來的可能性。從這種表述上看,用道義邏輯語言進(jìn)行表達(dá)似乎是可以的。但是,這種表達(dá)會掩蓋它的本質(zhì)特性。首先,它無法把“主動有為”揭示出來,因為道義邏輯中沒有表達(dá)“心智狀態(tài)”的算子;其次,它不能把“有意不為”表達(dá)出來,因為“禁止”算子是一種外在的規(guī)范,而不是行動者的主動不做。

為了更好地表達(dá)上述兩條原則,可以給出如下更為具體的表述:

第一,人工主體的所為必須盡力主動確保其行動對與其交互的其他主體是安全的;

第二,人工主體應(yīng)當(dāng)在其他主體遭受傷害時主動嘗試施救。

這種表達(dá)與上述表達(dá)存在一些細(xì)微的差別,它最大的好處是把否定性的原則用肯定性的語言進(jìn)行表達(dá),從而在建模時更為方便。而且,這兩條原則也從另一個方面表達(dá)了前面的兩條原則的內(nèi)涵:第一,“確保安全事態(tài)”②對第一條原則的肯定表述的簡稱。蘊涵機器的行動“不會傷害其他主體”,反過也成立;第二,“嘗試施救”則是“不漠視正在發(fā)生的傷害”的具體表現(xiàn)。由此可見,相對于最原始的表達(dá),上述表達(dá)不僅沒有損失相應(yīng)的涵義,而且還變得更為具體。此外,這種表達(dá)的好處還在于它們適用于進(jìn)行推理,即幫助機器實現(xiàn)確保推理和嘗試推理。

(二)機器應(yīng)當(dāng)具備的兩種推理能力

基于上述原則的兩種轉(zhuǎn)化表達(dá),人工主體的推理能力在兩方面需要達(dá)到一定的水平:一是確保推理的能力,二是嘗試推理的能力——它們正好對應(yīng)著上述兩條原則。而要實現(xiàn)這兩種推理能力,人工主體最好有“理解”確保與嘗試的邏輯框架的能力。下面具體闡述人工主體具備這兩種推理能力的內(nèi)涵。

所謂確保推理,是指主體基于一定的目標(biāo),考慮采取哪些行動能夠使得目標(biāo)狀態(tài)在未來一定會成立。在假定基于分枝時間的條件下③分枝時間的基本假定是:過去是不可改變的,從而是唯一和線性的;將來存在多種可能性,從而是不確定和分枝的。,確保目標(biāo)φ意味著[20]583-644:(1)主體選擇了某些行動后,不管未來如何變化,在行動相關(guān)的分枝時間上,φ都是成立的;(2)存在未來的一個分枝時間上,φ不成立。換句話說,主體的行動一定能夠因果性地導(dǎo)致φ成立,但如果沒有實施相關(guān)行動,則φ不會成立。因此,主體確保推理的本質(zhì)就是行動的結(jié)果與目標(biāo)φ之間的行動必然性關(guān)系。對于人工道德主體來說,知道如何確保某個和倫理相關(guān)的事態(tài)或命題φ,意味著它知道哪些行動可以確保φ的成立,從而在能夠確保φ的那些行動集合中選擇一個。

嘗試推理則是指主體的行動在無法確保目標(biāo)狀態(tài)的情況下,考慮采取哪些行動集能夠最大限度地使得目標(biāo)狀態(tài)在未來可能會成立。同樣在分枝時間下,嘗試目標(biāo)φ意味著:(1)主體選擇了某些行動后,不管未來如何變化,在行動相關(guān)的分枝時間上,φ是可能成立的;(2)存在未來的一個分枝時間上,φ不成立。也就是說,主體的行動雖然不一定因果性地導(dǎo)致φ成立,但畢竟有一定的可能性;而且,如果沒有實施相關(guān)行動,則φ不會成立。可見,主體嘗試推理的本質(zhì)就是行動的結(jié)果與目標(biāo)φ之間的行動可能性關(guān)系。如果人工道德主體知道如何嘗試某個和倫理相關(guān)的事態(tài)或命題φ,意味著它知道哪些行動可以嘗試φ的成立,從而在能夠嘗試φ的那些行動集合中選擇一個,以體現(xiàn)出它的倫理關(guān)懷。

四、結(jié)論與進(jìn)一步的研究問題

本文在分析道德上值得贊賞的人工主體(簡稱MPAA)的基礎(chǔ)上,探討中級水平的MPAA 應(yīng)當(dāng)滿足的基本原則問題,得到兩個基本結(jié)論:第一,如果人工道德主體是可能的,那么構(gòu)建MPAA就是必要的;第二,智能機器的“所為”不允許主動傷害其他主體,以及智能機器的“不為”不應(yīng)該漠視正在發(fā)生的傷害,這兩條原則可以作為中級水平的道德機器的建構(gòu)原則。如果這兩個原則能夠?qū)崿F(xiàn),那么我們期待人工主體在為人類服務(wù)或交互時體現(xiàn)出一定的道德水平[21]5,就不只是一件純粹想象的事情。若以上結(jié)論是可信的,則下面兩個問題就值得進(jìn)一步研究。

第一,人工情感的嵌入研究。傳統(tǒng)的人工智能研究比較排斥人工情感,甚至認(rèn)為機器不可能擁有情感。如今,為了構(gòu)建友好型的人機交互和機器道德,越來越多的學(xué)者開始研究人工情感[22]97。對人工情感的研究,至少包括兩個方面:一是人工情感的哲學(xué)探討,二是人工情感的邏輯建模(或情感計算)。這兩個方面對于構(gòu)建MPAA都是有幫助的。首先,機器到底能不能有情感?如果有,它是何種意義上的情感?這類問題是人工智能哲學(xué)界正在熱烈討論的問題。比如,支持人工道德主體的學(xué)者肯定人工情感的可能性,并為之進(jìn)行哲學(xué)辯護(hù)。其次,從倫理嵌入的進(jìn)路來看,實踐進(jìn)路更適合進(jìn)行初級的實驗研究。人工情感的實驗離不開情感的邏輯建模,哪些情感類型適應(yīng)建模以及如何建模,決定著人工情感實驗的效果。當(dāng)然,這些情感建模需要建立在哲學(xué)討論的基礎(chǔ)上,而且它也能促進(jìn)對人工情感的哲學(xué)再討論。由此可見,人工情感的哲學(xué)討論以及邏輯建模是互相影響的。

第二,道德決策的自主性研究。一般認(rèn)為,自主性是一個存在物成為主體的必要條件之一。如果一個機器的行動無法體現(xiàn)較高的自主性,它就無法成為道德主體。對于道德主體來說,自主性的一個重要體現(xiàn)就是道德決策。直觀上看,機器的道德決策不可能和人完全相同,比如人類決策受習(xí)俗與他人的影響就可能是機器很難具備的。珀德斯韋德克從人工能動性出發(fā),論證機器完全自主的道德決策能力與MPAA 的構(gòu)建是沖突的[12]325-339。這意味著,應(yīng)當(dāng)限制人工道德主體的道德決策能力。換句話說,人工道德主體的弱決策能力則是可以追求的目標(biāo)。然而,弱決策能力到底限制到何種程度,則需要進(jìn)一步研究。此外,如何把自上而下的邏輯進(jìn)路與自下而上的機器學(xué)習(xí)進(jìn)路結(jié)合起來,實現(xiàn)道德決策的方式的可靠化和靈活化,使得機器有可能“理解”道德行動的本質(zhì),也是一個值得研究的問題。

猜你喜歡
能動性自主性人工
人工3D脊髓能幫助癱瘓者重新行走?
基于新課程改革的英語教師負(fù)向能動性及其應(yīng)對策略
人工,天然,合成
人工“美顏”
國家自主性與文在寅政府的對朝政策
調(diào)動主觀能動性,提高寫作水平
游戲中的規(guī)則與幼兒游戲的自主性
英語學(xué)習(xí)的自主性及其教學(xué)應(yīng)用
人工制冷
發(fā)展性教育督導(dǎo)與學(xué)校辦學(xué)自主性
新源县| 舟曲县| 漳州市| 连山| 公主岭市| 安康市| 宁安市| 青川县| 容城县| 海丰县| 历史| 二连浩特市| 酉阳| 太原市| 博兴县| 隆德县| 德令哈市| 额尔古纳市| 龙陵县| 宁晋县| 长宁区| 兴隆县| 湘西| 沐川县| 昌乐县| 黑山县| 景宁| 常宁市| 辽中县| 刚察县| 洛宁县| 泊头市| 册亨县| 河曲县| 邹城市| 大城县| 郧西县| 雅安市| 红河县| 银川市| 连山|