杜嚴(yán)勇
(上海交通大學(xué) 科學(xué)史與科學(xué)文化研究院,上海 200240)
2017年5月,谷歌人工智能“阿爾法圍棋(AlphaGo)”與中國(guó)職業(yè)圍棋高手柯潔之間的“人機(jī)大戰(zhàn)”引發(fā)世人的高度關(guān)注。阿爾法圍棋的勝利使人們?cè)俅握媲械馗惺艿饺斯ぶ悄茉絹?lái)越強(qiáng)大的能力,“人工智能威脅論”也再次成為一個(gè)街談巷議的熱門(mén)話(huà)題。如何讓人工智能更好地為人類(lèi)服務(wù),盡量減輕甚至避免負(fù)面影響?對(duì)于這個(gè)問(wèn)題,人們可以從不同的角度給出不同的答案,但無(wú)論如何,從事人工智能科技研發(fā)的科研人員的責(zé)任問(wèn)題是一個(gè)無(wú)法回避的關(guān)鍵性問(wèn)題。本文探討了科研人員應(yīng)該承擔(dān)責(zé)任的原因,強(qiáng)調(diào)科研人員應(yīng)該承擔(dān)前瞻性道德責(zé)任,并初步討論了科研人員履行前瞻性道德責(zé)任的可能進(jìn)路。
第一,從科技的社會(huì)影響角度看,人工智能科技很可能產(chǎn)生巨大而深遠(yuǎn)的社會(huì)影響,由此突顯了責(zé)任倫理的重要性。眾所周知,美籍德裔學(xué)者約納斯(Hans Jonas)的責(zé)任倫理思想產(chǎn)生了很大影響。約納斯為何要強(qiáng)調(diào)責(zé)任倫理呢?他認(rèn)為,隨著人類(lèi)能力的發(fā)展,人類(lèi)的行為特征已經(jīng)發(fā)生了變化,而倫理學(xué)與行為相關(guān),那么人類(lèi)行為特征的改變要求倫理學(xué)也需要某種改變。[1](P1)約納斯所說(shuō)的人類(lèi)的新能力,就是指現(xiàn)代技術(shù)?,F(xiàn)代技術(shù)對(duì)人類(lèi)社會(huì)的影響無(wú)所不在,人類(lèi)已經(jīng)處于“技術(shù)化生存”的時(shí)代,這一點(diǎn)是不言而喻的。
現(xiàn)在學(xué)者們普遍認(rèn)為,現(xiàn)代技術(shù)并不是“價(jià)值中立”的,技術(shù)可能導(dǎo)致人的異化。探討技術(shù)的社會(huì)影響機(jī)制,努力避免或減輕技術(shù)的負(fù)面影響,已經(jīng)成為技術(shù)哲學(xué)研究的一個(gè)重要話(huà)題。維貝克(Peter-Paul Verbeek)用調(diào)節(jié)(mediate)概念來(lái)解釋技術(shù)對(duì)人類(lèi)的具體影響。在他看來(lái),技術(shù)不是中立的工具,技術(shù)人工物對(duì)人類(lèi)的行為和經(jīng)驗(yàn)起著調(diào)節(jié)作用,影響人類(lèi)的道德行為、道德抉擇以及生活質(zhì)量。[2](P90)人們使用某一新技術(shù)導(dǎo)致的結(jié)果,可能跟預(yù)期的目標(biāo)相符,但也可能導(dǎo)致不一樣甚至完全相反的后果。特納(Edward Tenner)把技術(shù)導(dǎo)致的跟人們預(yù)期相反的結(jié)果稱(chēng)為“技術(shù)的報(bào)復(fù)”。他認(rèn)為:“報(bào)復(fù)效應(yīng)的發(fā)生,是由于新的設(shè)備、裝置和結(jié)構(gòu)以人們未能預(yù)見(jiàn)的方式,跟實(shí)際情況下實(shí)際的人們相作用的結(jié)果?!盵3](P9-10)
雖然技術(shù)的社會(huì)影響是哲學(xué)和社會(huì)學(xué)等領(lǐng)域的重要研究?jī)?nèi)容,但總的來(lái)說(shuō),目前學(xué)術(shù)界對(duì)人工智能的社會(huì)影響的研究是遠(yuǎn)遠(yuǎn)不夠的。幸運(yùn)的是,與人工智能有關(guān)的科技對(duì)社會(huì)的影響已經(jīng)日益受到人們的關(guān)注。2013年,麥肯錫全球研究院(McKinsey Global Institute)在一份關(guān)于顛覆性技術(shù)(Disruptive Technologies)的報(bào)告中討論了包括先進(jìn)機(jī)器人在內(nèi)的12種技術(shù)對(duì)人類(lèi)生活、商業(yè)以及全球經(jīng)濟(jì)可能產(chǎn)生的影響。報(bào)告認(rèn)為,先進(jìn)機(jī)器人在帶來(lái)許多益處的同時(shí),也對(duì)就業(yè)、教育等方面提出了挑戰(zhàn)。[4]2014年,英國(guó)發(fā)布的一份關(guān)于機(jī)器人學(xué)與自主系統(tǒng)(Robotics and Autonomous Systems,簡(jiǎn)稱(chēng)RAS)的戰(zhàn)略報(bào)告稱(chēng),RAS技術(shù)將徹底地改變整個(gè)社會(huì)的面貌。[5]2016年,美國(guó)斯坦福大學(xué)發(fā)布的一份專(zhuān)門(mén)研究人工智能及其社會(huì)影響的報(bào)告稱(chēng),人工智能將對(duì)交通運(yùn)輸、服務(wù)機(jī)器人、健康護(hù)理、教育、公共安全、就業(yè)與娛樂(lè)等許多領(lǐng)域產(chǎn)生顯著影響。報(bào)告還指出,這只是系列研究的第一份報(bào)告,該研究計(jì)劃將持續(xù)至少一百年。[6]
從人類(lèi)目前對(duì)個(gè)人電腦、手機(jī)等智能產(chǎn)品的依賴(lài)現(xiàn)狀來(lái)看,未來(lái)人工智能產(chǎn)品對(duì)人類(lèi)社會(huì)的調(diào)節(jié)作用會(huì)更加顯著,將對(duì)人類(lèi)產(chǎn)生更加深刻的影響。從許多文學(xué)和影視作品中反映出的人類(lèi)對(duì)人工智能與機(jī)器人科技的憂(yōu)慮,以及許多科學(xué)家與人文學(xué)者對(duì)無(wú)限制發(fā)展人工智能的謹(jǐn)慎甚至批評(píng)態(tài)度,我們也完全有理由認(rèn)為,如果不從倫理道德等角度對(duì)人工智能的發(fā)展進(jìn)行某種程度的控制,人工智能很可能會(huì)產(chǎn)生一些負(fù)面影響,甚至產(chǎn)生特納所說(shuō)的“報(bào)復(fù)”現(xiàn)象,而且這些負(fù)面影響可能是不可逆的。
第二,從確定責(zé)任主體的條件看,從事人工智能研究的科技人員應(yīng)該承擔(dān)更多的道德責(zé)任。約納斯認(rèn)為承擔(dān)責(zé)任有三個(gè)必要條件,首要的、也是最基本的條件是因果力量,也就是行為對(duì)世界產(chǎn)生影響;其次,該行為處于行為體的控制之下;最后,他能夠在一定程度上預(yù)見(jiàn)行為的后果。[1](P90)從這三個(gè)條件我們可以推出,從事人工智能研發(fā)的科學(xué)家、工程師應(yīng)該是承擔(dān)責(zé)任(包括道德責(zé)任)的主體。用韋爾伯斯(Katinka Waelbers)的話(huà)來(lái)說(shuō),就是實(shí)踐者(practitioners),即從事實(shí)際技術(shù)發(fā)展的工程師、科學(xué)家以及行政官員(包括個(gè)人與集體)。[7](P6)
的確,科學(xué)家與工程師作為科技知識(shí)與產(chǎn)品的創(chuàng)造者,自然應(yīng)該為其成果與產(chǎn)品使用的后果承擔(dān)道德責(zé)任。早在1968年,波普爾(Karl Popper)在名為《科學(xué)家的道德責(zé)任》的演說(shuō)中就指出:“人們可以懷疑是否存在著有別于任何其他公民或任何其他人的責(zé)任的科學(xué)家的責(zé)任。我認(rèn)為答案是,在他不是具有特殊力量就是具有專(zhuān)門(mén)知識(shí)的領(lǐng)域,他負(fù)有特殊的責(zé)任。因此,基本上只有科學(xué)家才能估計(jì)他們發(fā)現(xiàn)的含義。外行,因此還有政治家,卻不能充分地了解。……智慧本身就意味著責(zé)任:是在知識(shí)上的預(yù)見(jiàn)創(chuàng)造了責(zé)任。”[8](P10-11)
事實(shí)上,一些從事人工智能研究的科學(xué)家也認(rèn)識(shí)到自己應(yīng)該承擔(dān)的道德責(zé)任,積極投身于人工智能的社會(huì)影響與倫理問(wèn)題等相關(guān)研究之中。比如,斯坦福大學(xué)組織的對(duì)人工智能及其社會(huì)影響的研究團(tuán)隊(duì),主席就由德克薩斯大學(xué)奧斯汀分校的人工智能專(zhuān)家斯通(Peter Stone)擔(dān)任。在該研究團(tuán)隊(duì)近20名成員中,絕大多數(shù)都是來(lái)自著名大學(xué)和研究機(jī)構(gòu)的人工智能、機(jī)器人與計(jì)算機(jī)科學(xué)專(zhuān)家。在倡導(dǎo)對(duì)人工智能與機(jī)器人進(jìn)行倫理控制并從事相關(guān)研究的學(xué)者中,也有相當(dāng)一部分是科技工作者。比如,劍橋大學(xué)出版社2011年出版的《機(jī)器倫理》的兩位主編,一位是哈特福特大學(xué)計(jì)算機(jī)教授邁克爾·安德森(Michael Anderson),另一位是康涅狄格大學(xué)的哲學(xué)榮休教授蘇珊·安德森(Susan Anderson)。毫無(wú)疑問(wèn),要讓人工智能更好地為人類(lèi)服務(wù),沒(méi)有科技人員的努力是根本無(wú)法想象的。
根據(jù)不同的標(biāo)準(zhǔn),我們可以把責(zé)任分為不同的類(lèi)型。比如,按照責(zé)任所涉及的范圍,可分為“自我責(zé)任”和“社會(huì)責(zé)任”;按照責(zé)任的認(rèn)定程序來(lái)劃分,可以分為“追溯性責(zé)任”與“前瞻性責(zé)任”;根據(jù)責(zé)任主體與其所負(fù)責(zé)任之事物的關(guān)系來(lái)劃分,可以分為“能力責(zé)任”與“角色—任務(wù)責(zé)任”;等等。[9](P123-125)我們?cè)谶@里重點(diǎn)強(qiáng)調(diào)的是,人工智能的科研人員需要承擔(dān)前瞻性道德責(zé)任。
道德責(zé)任是倫理學(xué)研究中的一個(gè)傳統(tǒng)問(wèn)題,但前瞻性道德責(zé)任的思想?yún)s是近幾十年出現(xiàn)的新事物。1968年,阿倫特(Hannah Arendt)在《集體責(zé)任》一文的第一段就指出,存在這樣的事情,當(dāng)人們還沒(méi)有完成它們時(shí)就要對(duì)其負(fù)責(zé)。[10](P43)阿倫特雖然是從政治哲學(xué)的角度論述責(zé)任問(wèn)題,但她這里所講的責(zé)任就是前瞻性責(zé)任。在倫理學(xué)領(lǐng)域較早強(qiáng)調(diào)前瞻性道德責(zé)任并產(chǎn)生很大影響的學(xué)者是約納斯。他認(rèn)為,傳統(tǒng)的倫理學(xué)主要關(guān)注于當(dāng)下的問(wèn)題,具有明顯的不足之處?!瓣P(guān)于某種行為的善與惡必定密切關(guān)注行為,要么行為本身正在實(shí)踐中,要么在其實(shí)踐范圍之內(nèi),而不是長(zhǎng)遠(yuǎn)計(jì)劃的事物。”[1](P4-5)但是,現(xiàn)代技術(shù)賦予人類(lèi)的強(qiáng)大力量,要求一種考慮長(zhǎng)遠(yuǎn)責(zé)任的新倫理學(xué),從而實(shí)現(xiàn)對(duì)未來(lái)負(fù)責(zé),也就是前瞻性倫理責(zé)任。甘紹平認(rèn)為,約納斯強(qiáng)調(diào)的責(zé)任倫理,其新穎之處就在于它是遠(yuǎn)距離的、也就是前瞻性倫理,以及它是整體性倫理。[11]米切姆(Carl Mitcham)對(duì)約納斯的思想亦持贊同態(tài)度,他認(rèn)為:“技術(shù)的力量使責(zé)任成為必需的新原則,特別是對(duì)未來(lái)的責(zé)任?!盵12](P101)
韋爾伯斯也認(rèn)為,要讓技術(shù)實(shí)踐者承擔(dān)前瞻性道德責(zé)任,需要采用一種跟傳統(tǒng)倫理學(xué)不一樣的責(zé)任概念。許多哲學(xué)家都討論了責(zé)任或義務(wù),當(dāng)他們論述責(zé)任時(shí),負(fù)責(zé)任是指成為反應(yīng)態(tài)度的正當(dāng)目標(biāo)。也就是說(shuō),你已經(jīng)做了某些正確或錯(cuò)誤的事情,為此你應(yīng)該接受贊揚(yáng)或譴責(zé)。贊揚(yáng)或譴責(zé)顯然是追溯性的,是在人們的行為發(fā)生之后進(jìn)行的,此時(shí)行為導(dǎo)致的后果已經(jīng)清楚明了。義務(wù)強(qiáng)調(diào)的是,你對(duì)某事負(fù)責(zé)是因?yàn)槟阌辛x務(wù)這樣做。義務(wù)可以看作是前瞻性的,但前提是必須對(duì)負(fù)責(zé)任的行為的內(nèi)涵進(jìn)行清楚界定。但是,當(dāng)我們討論新技術(shù)以及技術(shù)的新用途時(shí),一般做不到這一點(diǎn),因此也就無(wú)法界定義務(wù)。前瞻性責(zé)任采用跟傳統(tǒng)倫理學(xué)中的責(zé)任不同的責(zé)任概念,它集中關(guān)注人們對(duì)未來(lái)技術(shù)的社會(huì)功能之責(zé)任。[7](P5)
從技術(shù)的社會(huì)控制的角度看,倡導(dǎo)科研人員承擔(dān)前瞻性道德責(zé)任,可能是解決所謂的“科林格里困境(Collingridge’s Dilemma)”的途徑之一。在1980年出版的《技術(shù)的社會(huì)控制》一書(shū)的“前言”中,科林格里(David Collingridge)指出:“我們不能在一種技術(shù)的生命早期階段就預(yù)言到它的社會(huì)后果。然而,當(dāng)我們發(fā)現(xiàn)其不好的后果之時(shí),技術(shù)通常已經(jīng)成為整個(gè)經(jīng)濟(jì)與社會(huì)結(jié)構(gòu)的一部分,以至于對(duì)它的控制變得極端困難。這就是控制的困境。當(dāng)容易進(jìn)行改變時(shí),對(duì)它的需要無(wú)法得以預(yù)見(jiàn);當(dāng)改變的需要變得清楚明了之時(shí),改變已經(jīng)變得昂貴、困難而且頗費(fèi)時(shí)日了?!盵13](P11)
雖然“科林格里困境”看上去有點(diǎn)悲觀主義和技術(shù)決定論的色彩,但科林格里本人并不認(rèn)為技術(shù)就是無(wú)法控制的。他指出,為了避免技術(shù)產(chǎn)生有害的社會(huì)后果,有兩件事是必需的:第一,我們必須知道技術(shù)將可能產(chǎn)生有害的影響;第二,以某種方式改變技術(shù)從而避免這些影響一定是可能的。[13](P16)技術(shù)在其發(fā)展的早期階段尚未對(duì)社會(huì)形成明顯的影響,其可控性也較強(qiáng),目前人工智能技術(shù)就處于這個(gè)重要的發(fā)展階段。如果我們及時(shí)地采取有力措施進(jìn)行控制的話(huà),在一定程度上應(yīng)該可以避免落入“科林格里困境”。因此,強(qiáng)調(diào)科研人員的前瞻性道德責(zé)任,就是實(shí)現(xiàn)這一目標(biāo)的重要手段之一。
從人工智能技術(shù)產(chǎn)品的特點(diǎn)來(lái)看,倡導(dǎo)前瞻性道德責(zé)任可能是解決責(zé)任鴻溝的一種重要手段。一般認(rèn)為,如果行為體要承擔(dān)道德責(zé)任,前提條件是行為體能夠在某種程度上控制自身的行為。但是,人工智能產(chǎn)品擁有越來(lái)越強(qiáng)的學(xué)習(xí)能力和自主程度,它們的行為可能更多地取決于具體的環(huán)境及其與使用者的互動(dòng),所以科研人員無(wú)法準(zhǔn)確預(yù)言和控制其行為。因此,有的學(xué)者認(rèn)為,不能要求科技人員、制造商負(fù)責(zé),由此可能導(dǎo)致無(wú)人負(fù)責(zé)的情況,造成人工智能產(chǎn)品的責(zé)任鴻溝。[14]我們認(rèn)為,雖然科技人員可能無(wú)法對(duì)人工智能產(chǎn)品的行為進(jìn)行直接控制,但對(duì)其行為模式、行為范圍及行為能力等方面是可以控制的。而且,我們可以把科研人員承擔(dān)責(zé)任的時(shí)間維度前移,要求他們?cè)O(shè)計(jì)出更安全、可靠的人工智能產(chǎn)品,這就可以在一定程度上解決責(zé)任鴻溝問(wèn)題。
總的來(lái)說(shuō),承擔(dān)前瞻性道德責(zé)任是要讓責(zé)任主體提前充分考慮自己的行為及研究成果可能造成何種影響與后果,為將來(lái)可能發(fā)生的事情負(fù)責(zé)。江曉原認(rèn)為,對(duì)人工智能的發(fā)展應(yīng)該進(jìn)行重大限制,而且這種限制現(xiàn)在就應(yīng)該進(jìn)行。[15]我們認(rèn)為,讓從事人工智能研發(fā)的科學(xué)家與工程師承擔(dān)前瞻性道德責(zé)任,就是對(duì)人工智能發(fā)展進(jìn)行限制的一種重要手段。
對(duì)人工智能科研人員而言,讓他們從理論上承擔(dān)一些道德責(zé)任并不困難。頗為困難也更為重要的是,如何讓科研人員承擔(dān)前瞻性道德責(zé)任。在此,我們嘗試提出“一個(gè)原則、三種工具”,希望能夠?qū)⑷斯ぶ悄芸蒲腥藛T承擔(dān)責(zé)任的機(jī)制有所助益。
首先,人工智能科研人員在科研過(guò)程中堅(jiān)持貫徹預(yù)防原則(precautionary principle)是履行前瞻性道德責(zé)任的基本指導(dǎo)方針。預(yù)防原則最基本的意思是,它是一種公共決策原則,它要求決策者在那些對(duì)環(huán)境和健康存在傷害“威脅”之處,不得以“缺乏充分的科學(xué)確定性”為理由而不去采取防止這種傷害的措施。[16](P2)預(yù)防原則最早在環(huán)境保護(hù)運(yùn)動(dòng)中得到廣泛重視。提出預(yù)防原則被視為《里約熱內(nèi)盧宣言》最重要的創(chuàng)新之一。該宣言第15條原則規(guī)定:“為了保護(hù)環(huán)境,各國(guó)應(yīng)根據(jù)其能力廣泛運(yùn)用預(yù)防的方法?!?990年以后通過(guò)的所有關(guān)于環(huán)境保護(hù)的國(guó)際法律文件幾乎都規(guī)定了預(yù)防原則。[17](P93)目前,預(yù)防原則被應(yīng)用于對(duì)新技術(shù)的發(fā)展與控制的管理實(shí)踐當(dāng)中。2003年,綠色和平組織首席科學(xué)家帕爾(Doug Parr)在一份關(guān)于納米技術(shù)、人工智能與機(jī)器人等技術(shù)的研究現(xiàn)狀、應(yīng)用情況及前景展望的報(bào)告的前言中指出,預(yù)防原則已經(jīng)成為國(guó)際法的一個(gè)重要組成部分,人們也致力于對(duì)預(yù)防概念進(jìn)行拓展,現(xiàn)在人們認(rèn)為在技術(shù)創(chuàng)新的控制及定向中應(yīng)該更多地應(yīng)用預(yù)防概念。[18]
已有的對(duì)預(yù)防原則的界定大多是從保護(hù)環(huán)境和健康的角度進(jìn)行的,服務(wù)的對(duì)象主要是決策者和政策制定者。不同學(xué)者對(duì)預(yù)防原則的定義也存在一定差異,目前還沒(méi)有一個(gè)統(tǒng)一的標(biāo)準(zhǔn)定義,因?yàn)閷?duì)預(yù)防原則的理解與應(yīng)用依賴(lài)于不同的具體領(lǐng)域。換句話(huà)說(shuō),雖然人們對(duì)預(yù)防原則有不同的理解,但如果將其應(yīng)用于具體領(lǐng)域,我們還是可以對(duì)預(yù)防原則進(jìn)行比較清晰的界定的。而且,從總體上看,預(yù)防原則還是有某些共同特點(diǎn)的。有學(xué)者把預(yù)防原則分為論證版本(argumentative versions)和規(guī)范版本(prescriptive versions)兩大類(lèi)。論證版本的預(yù)防原則不進(jìn)行行為規(guī)定,而只是一些原則,用以解釋哪些原因或論證是有效的。規(guī)范版本的預(yù)防原則要規(guī)范行為,在某些情況下要規(guī)定預(yù)防措施。第二種版本的預(yù)防原則可以被表示為:如果存在(1)某種威脅,它是(2)不確定的,那么(3)某種行為(4)就是強(qiáng)制性的。我們可以把(1)看作是威脅維度,(2)是不確定性維度,(3)是行為維度,(4)是規(guī)范維度。一般來(lái)說(shuō),規(guī)范版本的預(yù)防原則都有這四種維度。[19]
因此,如果要在人工智能領(lǐng)域應(yīng)用預(yù)防原則,我們至少可以從上述四種維度展開(kāi)討論。人們對(duì)人工智能日益強(qiáng)大的能力感到一定程度的恐懼,主要是因?yàn)閾?dān)心人工智能最終會(huì)達(dá)到甚至超過(guò)人類(lèi)智能,從而對(duì)人類(lèi)生存形成巨大威脅,事實(shí)上有的未來(lái)學(xué)家已經(jīng)做出了這樣的預(yù)言。但是,如何客觀全面地評(píng)價(jià)人工智能的威脅及其不確定性,應(yīng)該依賴(lài)嚴(yán)格的技術(shù)評(píng)估。雖然預(yù)防原則在許多領(lǐng)域得到廣泛的應(yīng)用,同時(shí),來(lái)自不同領(lǐng)域的許多學(xué)者都提出要用預(yù)防原則防止人工智能對(duì)人類(lèi)造成威脅或傷害,但還鮮有學(xué)者深入研究如何將其應(yīng)用于人工智能領(lǐng)域,這方面的工作急需展開(kāi)。另外,在人工智能發(fā)展日新月異的時(shí)代背景中,預(yù)防原則的應(yīng)用也需要根據(jù)具體的科技發(fā)展水平不斷進(jìn)行調(diào)整。
韋爾伯斯認(rèn)為,為了探究某種技術(shù)將來(lái)可能產(chǎn)生的社會(huì)作用,減少在評(píng)估中的盲區(qū)和偏見(jiàn),我們應(yīng)該逐一思考以下五個(gè)方面的問(wèn)題:技術(shù)的目標(biāo)是什么?會(huì)影響哪些實(shí)踐活動(dòng)?在這些實(shí)踐活動(dòng)中,常見(jiàn)的行為理由是什么?考慮到這些理由和現(xiàn)有的技術(shù),該技術(shù)可能有哪些用途?這些用途將會(huì)如何調(diào)節(jié)相關(guān)實(shí)踐的行為理由?[7](P93)為了回答這五個(gè)問(wèn)題,以及對(duì)新技術(shù)的社會(huì)功能進(jìn)行評(píng)估,韋爾伯斯認(rèn)為我們可以采用以下三種工具:(1)反思工具:想象力哲學(xué)(Philosophy of Imagination),也就是想象技術(shù)可能產(chǎn)生的不同用途與效果。(2)主體間工具:建構(gòu)性技術(shù)評(píng)估。(3)研究工具:行為研究,也就是運(yùn)用行為科學(xué)的經(jīng)驗(yàn)方法,探究人與技術(shù)的互動(dòng)。[7](P96-99)接下來(lái)我們較為詳細(xì)地討論這三種工具。
(1)反思工具:想象力哲學(xué)
事實(shí)上,韋爾伯斯提出的三種工具已有一些學(xué)者有過(guò)相關(guān)的論述。比如,約納斯提出所謂的“恐懼啟發(fā)法(The Heuristics of Fear)”,以及“未來(lái)倫理學(xué)(Ethics of the Future)”的兩條義務(wù),其實(shí)質(zhì)就是要激發(fā)人們的道德想象力?!翱謶謫l(fā)法”的意思是,我們只有認(rèn)識(shí)到事物可能產(chǎn)生的危險(xiǎn),我們才能認(rèn)識(shí)這種危險(xiǎn)的事物,也才能明白我們應(yīng)該保留什么,以及為何要保留。他強(qiáng)調(diào),道德哲學(xué)應(yīng)該考察恐懼在前,考察愿望在后,從而了解我們真正珍愛(ài)的是什么。[1](P26-27)在約納斯看來(lái),道德哲學(xué)中對(duì)善的概念的研究主要是考察我們的愿望,但事實(shí)上恐懼應(yīng)該是更好的向?qū)?。就像健康那樣,?dāng)我們擁有它的時(shí)候,我們通常不會(huì)發(fā)現(xiàn)它是我們所渴望的;但當(dāng)我們要為健康而憂(yōu)慮的時(shí)候,我們才能真正明白它的重要性。
約納斯提出的未來(lái)倫理學(xué)的兩條義務(wù)直接與道德想象力相關(guān)。第一,想象技術(shù)活動(dòng)的長(zhǎng)遠(yuǎn)影響。由于我們所恐懼的尚未發(fā)生,而且在過(guò)去和現(xiàn)在的經(jīng)驗(yàn)中也沒(méi)有類(lèi)似的情景,我們只能充分發(fā)揮創(chuàng)造性的想象力。第二,激發(fā)一種適合于我們所想象的場(chǎng)景的情感。由于我們想象的遙遠(yuǎn)的惡并不威脅我們,也并非近在眼前,所以激發(fā)起來(lái)的恐懼感會(huì)很少。因此,我們要設(shè)身處地為子孫后代考慮,使我們的精神心甘情愿地受到后輩人可能遭遇的命運(yùn)和災(zāi)難的影響,給他們留下更大的發(fā)展空間,而不是無(wú)用的好奇心和悲觀。[1](P27-28)
道德想象力及其重要功能已得到不少學(xué)者的重視。楊慧民等人認(rèn)為:“道德想象力能有效地?cái)U(kuò)展和深化人們的道德感知,使其超越直接面對(duì)的當(dāng)下情境,并通過(guò)對(duì)行為后果的綜合考慮和前瞻性預(yù)見(jiàn)為人們提供對(duì)長(zhǎng)遠(yuǎn)的、未充分顯現(xiàn)的影響的清晰洞察。而這正是后現(xiàn)代人類(lèi)行為可能結(jié)果的不確實(shí)性(即責(zé)任的缺位)向人類(lèi)提出的新要求。”[20]總的來(lái)說(shuō),道德想象力有助于人工智能研發(fā)人員識(shí)別設(shè)計(jì)問(wèn)題的道德相關(guān)性,創(chuàng)造新的設(shè)計(jì)選擇,并設(shè)想其設(shè)計(jì)可能產(chǎn)生的后果,從而提高其承擔(dān)責(zé)任的能力。[21]
另外,通過(guò)培養(yǎng)與提升科研人員的道德想象力,進(jìn)而激發(fā)起他們承擔(dān)責(zé)任的自覺(jué)意識(shí),這一點(diǎn)亦至關(guān)重要。石里克(Moritz Schlick)指出:“與宣布一個(gè)人什么時(shí)候該承擔(dān)責(zé)任的問(wèn)題相比,他自己覺(jué)得什么時(shí)候該承擔(dān)責(zé)任的問(wèn)題要重要得多。”[22](P120)目前學(xué)術(shù)界已有一些關(guān)于道德想象力的代表性論著發(fā)表,當(dāng)務(wù)之急是參考借鑒已有的理論與案例研究成果,結(jié)合人工智能科技的特點(diǎn),充分利用虛擬現(xiàn)實(shí)等技術(shù)手段,以及文學(xué)、影視作品等各種資源,提升人工智能科研人員的道德想象力。
(2)主體間工具:建構(gòu)性技術(shù)評(píng)估
利用道德想象力對(duì)技術(shù)進(jìn)行預(yù)見(jiàn)的功能畢竟是有限的,許多學(xué)者提倡對(duì)新技術(shù)進(jìn)行建構(gòu)性技術(shù)評(píng)估(Constructive Technology Assessment,簡(jiǎn)稱(chēng)CTA)。CTA于20世紀(jì)80年代中期起源自荷蘭。1984年,荷蘭教育、文化與科學(xué)部在政策備忘錄中表現(xiàn)出對(duì)CTA的濃厚興趣,之后這個(gè)術(shù)語(yǔ)便流傳開(kāi)來(lái)。對(duì)“建構(gòu)”的強(qiáng)調(diào)源于CTA的發(fā)展是由技術(shù)發(fā)展研究所引導(dǎo);而技術(shù)評(píng)估的其他分支卻不是如此,它們主要是受其他學(xué)科或跨學(xué)科的多個(gè)領(lǐng)域的影響??梢园袰TA看作一種新的設(shè)計(jì)實(shí)踐,各種不同的利益相關(guān)者從一開(kāi)始就以相互作用的方式參與其中。CTA強(qiáng)調(diào)需求與可接受性的對(duì)話(huà)及清晰表達(dá),這是CTA的重要組成部分。消費(fèi)者與各種團(tuán)體共同參與到專(zhuān)門(mén)為引入新技術(shù)而建立的“平臺(tái)”,與公司一起討論技術(shù)與產(chǎn)品的選擇。CTA圍繞對(duì)新技術(shù)的期望效果和影響的嘗試來(lái)進(jìn)行,其實(shí)這也是各種技術(shù)評(píng)估工作的核心部分。在傳統(tǒng)的技術(shù)評(píng)估中,技術(shù)或工程是給定的,因此被看作是一個(gè)靜態(tài)的實(shí)體。而對(duì)CTA來(lái)說(shuō),過(guò)程動(dòng)力學(xué)(dynamics of process)是核心,在技術(shù)轉(zhuǎn)變的過(guò)程中,各種影響被看作是正在建構(gòu)中的,并且是合作產(chǎn)生的。這些影響來(lái)源于包括科研人員、管理人員、使用者以及相關(guān)組織等在內(nèi)的各種行動(dòng)者,也就是說(shuō)這些行動(dòng)者共同制造影響。[23]
總的來(lái)說(shuō),CTA的目的是想要在新技術(shù)廣泛應(yīng)用之前,綜合各方的觀點(diǎn)和利益,影響技術(shù)的設(shè)計(jì)過(guò)程,使技術(shù)產(chǎn)品能夠更好地滿(mǎn)足人們的需求,并減少負(fù)面影響。有的學(xué)者已經(jīng)將CTA應(yīng)用于對(duì)納米技術(shù)的評(píng)估,[24]不過(guò)研究者選擇的訪談對(duì)象主要是實(shí)驗(yàn)室的專(zhuān)家,也就是技術(shù)行動(dòng)者,得出的結(jié)論難免會(huì)有一定的局限性。但是,所有的專(zhuān)家都認(rèn)為,他們的研究將會(huì)對(duì)工業(yè)甚至整個(gè)社會(huì)都產(chǎn)生影響,顯示出受訪的科學(xué)家都清楚地認(rèn)識(shí)到了自己的社會(huì)責(zé)任。
雖然CTA受到許多學(xué)者的高度重視,但仍然有一些關(guān)鍵性問(wèn)題需要解決。比如,維貝克認(rèn)為,CTA主要關(guān)注于人類(lèi)行動(dòng)者,對(duì)非人實(shí)體的調(diào)節(jié)作用關(guān)注不夠;CTA關(guān)注技術(shù)發(fā)展的動(dòng)力學(xué),也就是打開(kāi)了技術(shù)“設(shè)計(jì)語(yǔ)境”的黑箱,但并未打開(kāi)技術(shù)“使用語(yǔ)境”的黑箱。[2](P103)而且,把不同行動(dòng)者的反饋意見(jiàn)真正在技術(shù)的發(fā)展過(guò)程中體現(xiàn)出來(lái),還存在諸多困難。盡管如此,CTA為我們?cè)u(píng)估人工智能科技提供了一個(gè)有用的理論工具,如果運(yùn)用得當(dāng),完全可以對(duì)其發(fā)展發(fā)揮積極的影響。比如,在人工智能科技發(fā)展過(guò)程中,如果公眾能真正參與其中,并對(duì)科技的發(fā)展產(chǎn)生實(shí)際影響,這對(duì)于減輕甚至消除對(duì)人工智能的恐懼感,顯然是非常有益的。
(3)研究工具:行為研究
如果說(shuō)CTA主要關(guān)注于科技“設(shè)計(jì)語(yǔ)境”的話(huà),那么運(yùn)用行為科學(xué)的經(jīng)驗(yàn)研究方法可以更多地對(duì)“使用語(yǔ)境”進(jìn)行探索。行為科學(xué)是指用科學(xué)的研究方法,探索在自然和社會(huì)環(huán)境中人(和動(dòng)物)的行為的科學(xué)。雖然行為科學(xué)與社會(huì)科學(xué)有重疊與類(lèi)似之處,但行為科學(xué)強(qiáng)調(diào)用客觀的觀察方法和現(xiàn)代技術(shù)手段直接收集資料,分析研究結(jié)果。由于行為科學(xué)研究中使用了比較科學(xué)的方法,因此可以對(duì)社會(huì)科學(xué)中的問(wèn)題得到比較可靠的結(jié)果,并能預(yù)測(cè)社會(huì)現(xiàn)象的發(fā)展變化趨勢(shì)。[25]我們可以應(yīng)用行為科學(xué)的研究方法,探究人與人工智能產(chǎn)品(比如機(jī)器人)的互動(dòng)。在逐漸向我們走來(lái)的智能時(shí)代中,機(jī)器人毫無(wú)疑問(wèn)可以幫助我們解決很多問(wèn)題,機(jī)器人的設(shè)計(jì)固然應(yīng)該以實(shí)現(xiàn)任務(wù)為中心,但人類(lèi)與機(jī)器人互動(dòng)方面也必須得到充分的關(guān)注。
日本學(xué)者辻祐一郎(Yuichiro Tsuji)等對(duì)人與機(jī)器人互動(dòng)的移情(empathize)現(xiàn)象進(jìn)行了研究。在人與人的互動(dòng)中,眼神交會(huì)、社會(huì)接觸和模仿都可以用于提高移情作用,人與機(jī)器人也可以發(fā)生情感互動(dòng),那么在人與機(jī)器人互動(dòng)中,哪些方法可以引起移情現(xiàn)象?人類(lèi)的哪些行為可以作為移情的評(píng)價(jià)指標(biāo)?辻祐一郎等人讓4名大學(xué)生觀察機(jī)器人玩游戲,并讓他們對(duì)機(jī)器人在開(kāi)始游戲時(shí)以及對(duì)游戲的勝利或失敗的結(jié)果做出不同的反應(yīng),比如叫機(jī)器人的名字、輕拍機(jī)器人,等等。實(shí)驗(yàn)結(jié)果表明,人們通過(guò)叫機(jī)器人的名字和安撫機(jī)器人等行為,可以增進(jìn)與機(jī)器人的移情作用,眼睛注視(eye fixation)可能可以作為移情的一種評(píng)價(jià)指標(biāo)。[26]
奧斯特曼(Anja Austermann)等人對(duì)比了人類(lèi)與不同類(lèi)型的機(jī)器人的互動(dòng)現(xiàn)象。通過(guò)對(duì)比研究人與人形機(jī)器人ASIMO、寵物機(jī)器狗AIBO之間的互動(dòng),發(fā)現(xiàn)使用者與這兩種機(jī)器人之間的互動(dòng)并沒(méi)有明顯的差別。也就是說(shuō),如果不同機(jī)器人根據(jù)同樣的任務(wù)做出同樣的表現(xiàn),使用者的印象主要是根據(jù)機(jī)器人的現(xiàn)實(shí)表現(xiàn),而不是其外觀。不過(guò),研究人員發(fā)現(xiàn),機(jī)器人的外觀在一定程度上還是會(huì)影響它們與人類(lèi)的互動(dòng)。最明顯的差別是,人們經(jīng)常采用撫摸的方式對(duì)AIBO的行為進(jìn)行反饋,而對(duì)ASIMO幾乎沒(méi)有撫摸的現(xiàn)象發(fā)生;相反,使用者傾向于以對(duì)ASIMO說(shuō)“謝謝”的方式進(jìn)行反饋。[27]桑托斯(Thiago Freitas dos Santos)等人考察了人與AIBO之間的互動(dòng)現(xiàn)象,得出了更為樂(lè)觀的結(jié)論。他們發(fā)現(xiàn),人們?cè)谂cAIBO互動(dòng)的過(guò)程中普遍感到很舒適,甚至有一名女士興奮得不停地?fù)崦嗀IBO,還有一名小男孩要求他的母親把家里的真狗換成AIBO。[28]
目前的許多研究都表明,人與機(jī)器人互動(dòng)確實(shí)與其他的技術(shù)或人工物有著明顯不同,特別是人與機(jī)器人之間可能產(chǎn)生的情感聯(lián)系。因此,如何全面評(píng)價(jià)人與機(jī)器人的互動(dòng)也成為一個(gè)重要問(wèn)題。[29]不過(guò),目前人與機(jī)器人的互動(dòng)研究重點(diǎn)主要集中于研究人類(lèi)的行為。我們認(rèn)為,隨著人工智能水平的進(jìn)一步提高,我們必須把研究重點(diǎn)轉(zhuǎn)向研究機(jī)器人的行為。毋庸置疑,深入探索、評(píng)價(jià)人與機(jī)器人的互動(dòng)模式及其效應(yīng),對(duì)于機(jī)器人的設(shè)計(jì)、人類(lèi)接受機(jī)器人以及對(duì)機(jī)器人的行為控制等方面都具有重要的理論與實(shí)踐意義。
在未來(lái)的智能時(shí)代,人工智能科技必將對(duì)人類(lèi)生活的方方面面產(chǎn)生重大而深遠(yuǎn)的影響。如何更好地使人工智能為人類(lèi)服務(wù),避免或盡量減輕負(fù)面影響,是科研人員義不容辭的道德責(zé)任。與傳統(tǒng)的對(duì)已經(jīng)發(fā)生事件的追溯性道德責(zé)任相比,考慮到人工智能潛在的巨大影響,科研人員應(yīng)該積極承擔(dān)起前瞻性道德責(zé)任。也就是要求科研人員對(duì)人工智能研究的目的、方向以及可能產(chǎn)生的社會(huì)影響有比較清醒和全面的認(rèn)識(shí),并在研究過(guò)程中采取必要的防范措施。如何使科研人員承擔(dān)前瞻性道德責(zé)任的方式機(jī)制化,也就是形成一套完整的機(jī)構(gòu)與制度來(lái)保證科研人員履行道德責(zé)任,我們還有大量的工作要做。