趙 磊
[提要]人工智能恐懼是現(xiàn)代技術(shù)恐懼的重要表現(xiàn)形式,它是技術(shù)恐懼與智能恐懼疊加引發(fā)的心理和行為反應(yīng)。末日論和追求永生的文化傳統(tǒng),柏拉圖靈魂不朽思想,浪漫主義對(duì)技術(shù)的批判,弗蘭肯斯坦情結(jié)以及當(dāng)前風(fēng)險(xiǎn)與恐懼文化的渲染等是人工智能恐懼存在的文化語(yǔ)境;人工智能發(fā)展的現(xiàn)代科技背景及其風(fēng)險(xiǎn)特征是人工智能恐懼存在的科學(xué)語(yǔ)境。超越競(jìng)爭(zhēng)敘事、走出西方科學(xué)怪人情結(jié)、開(kāi)創(chuàng)非柏拉圖的思維方式,充分發(fā)掘中國(guó)傳統(tǒng)文化中的自然主義文化和有機(jī)論思想,傳播以人性化為核心的科學(xué)文化是應(yīng)對(duì)人工智能恐懼的文化路徑。負(fù)責(zé)任創(chuàng)新的總原則和總要求、安全可靠的道德智能體路線及以人為本的價(jià)值目標(biāo)是應(yīng)對(duì)人工智能恐懼的科學(xué)路徑。
對(duì)人工智能恐懼的分析,應(yīng)注意到特定的文化語(yǔ)境,和當(dāng)代科技對(duì)傳統(tǒng)文化的沖擊所施加的影響。毫無(wú)疑問(wèn),人工智能(Artificial Intelligence)已進(jìn)入全球化時(shí)代,已經(jīng)成為當(dāng)代經(jīng)濟(jì)發(fā)展的新引擎、國(guó)際競(jìng)爭(zhēng)的新焦點(diǎn)。同時(shí),人工智能又是難以準(zhǔn)確預(yù)料后果的顛覆性技術(shù),其不確定性和風(fēng)險(xiǎn)引發(fā)了全球的擔(dān)憂和恐慌,從機(jī)器與自動(dòng)化帶來(lái)的失業(yè)風(fēng)險(xiǎn),到人工智能的失控問(wèn)題,再到“奇點(diǎn)”理論和超級(jí)智能引發(fā)的對(duì)人類未來(lái)的擔(dān)憂,人工智能恐懼問(wèn)題始終困擾著人類?!坝袑?duì)美好舉動(dòng)的贊賞,也有悲傷、甚至恐懼。”[1](P.2)如何走出人工智能發(fā)展的困境,解決好人工智能恐懼問(wèn)題?首先應(yīng)分析人們對(duì)人工智能恐懼的具體表述,進(jìn)而結(jié)合其語(yǔ)境揭示其內(nèi)蘊(yùn),才有可能找出有效的解決之道。本文主要從文化與科學(xué)兩種語(yǔ)境出發(fā)解讀人工智能恐懼現(xiàn)象,力圖為人工智能治理提供理論依據(jù)。
人工智能恐懼首先出現(xiàn)在西方的文學(xué)、電影中設(shè)置的未來(lái)場(chǎng)景,后來(lái)轉(zhuǎn)向人工智能的現(xiàn)實(shí)實(shí)踐領(lǐng)域。早在20世紀(jì)40年代,控制論的開(kāi)創(chuàng)者維納(N.Wiener)就預(yù)言自動(dòng)化對(duì)于善與惡都有無(wú)窮的可能性。1960年,維納指出,智能機(jī)發(fā)展有朝一日會(huì)超過(guò)人類的智慧危害人類。數(shù)學(xué)家古德(I.J.Good)在1965年發(fā)表了一篇題為《有關(guān)第一臺(tái)超智能機(jī)器的猜想》的文章,預(yù)測(cè)計(jì)算機(jī)將從各方面超過(guò)人類的智慧和能力、超智能機(jī)器的出現(xiàn)會(huì)引發(fā)“智慧爆炸”,并指出“第一臺(tái)超智能機(jī)器將是人類的最后一項(xiàng)發(fā)明”。[2]近年來(lái),隨著人工智能開(kāi)發(fā)的再次高漲,霍金(S.W.Hawking)、馬斯克(E.Musk)多次強(qiáng)調(diào)人工智能將終結(jié)人類文明,將人工智能看作是人類最大威脅。二人都主張限制和規(guī)范人工智能的開(kāi)發(fā)。吳昌勛(Oh C)等人以阿爾法狗與圍棋冠軍李世石的比賽為例研究人工智能恐懼。圖西阿迪亞(I.P.Tussyadiah)等人對(duì)自動(dòng)駕駛汽車的實(shí)證研究表明,公眾的技術(shù)態(tài)度和信任會(huì)影響人工智能的使用,而“技術(shù)正在失去人性”的負(fù)面宣傳會(huì)導(dǎo)致人工智能恐懼。路透社《2017年度媒體預(yù)測(cè)報(bào)告》指出,人工智能已取代移動(dòng)設(shè)備成為最熱門的技術(shù)話題,而圍繞它的實(shí)踐難題和倫理困境也將越發(fā)凸顯??査苟拧ぶ祚R(Calestous Juma) 在《創(chuàng)新及其敵人:為什么人們抵制新技術(shù)》中指出,新興領(lǐng)域通常會(huì)給人們帶來(lái)一些不安,比如,人工智能、基因編輯和3D打印技術(shù)。瓦拉赫警示,也許我們的下一代會(huì)親眼看到200年前盧德派所擔(dān)心的夢(mèng)魘發(fā)生,技術(shù)所搶奪的工作將遠(yuǎn)遠(yuǎn)超過(guò)其創(chuàng)造的工作。
近年來(lái),國(guó)內(nèi)學(xué)者也比較關(guān)注人工智能恐懼問(wèn)題,最直接的表現(xiàn)就是近幾年熱火朝天的人工智能倫理研究,試圖通過(guò)倫理約束人工智能風(fēng)險(xiǎn),降低人們對(duì)人工智能的憂懼。杜嚴(yán)勇認(rèn)為人工智能的快速發(fā)展引發(fā)人們對(duì)其安全問(wèn)題的普遍擔(dān)憂,并從內(nèi)、外部指出了解決人工智能安全性問(wèn)題的途徑。[3]江曉原認(rèn)為,人工智能是人們?cè)谕娴囊话逊浅NkU(xiǎn)的“火”,并從近期、中期和遠(yuǎn)期表達(dá)了對(duì)人工智能的擔(dān)憂。[4]段偉文認(rèn)為,人們對(duì)人工智能的疑懼不僅限于對(duì)透明人和隱私裸奔的不安,更在于對(duì)作為創(chuàng)造者的人是否會(huì)被作為其“終極創(chuàng)造物”的人工智能取代、傷害或毀滅的深度擔(dān)憂。[5]中國(guó)學(xué)者表達(dá)的“不安”“恐懼”與西方廣泛彌漫的由人工智能引發(fā)的實(shí)踐難題和倫理困境帶來(lái)的恐懼是一脈相承的。
此外,發(fā)源于西方的對(duì)現(xiàn)代科技的疑懼也表現(xiàn)于全球人工智能領(lǐng)域:人們每天都在不知不覺(jué)中成為人工智能工作的對(duì)象,同時(shí)也不自覺(jué)地為人工智能生產(chǎn)數(shù)據(jù),供人工智能學(xué)習(xí)、培育人工智能。如到處存在的人臉識(shí)別、每天針對(duì)性的廣告和閱讀派送、籠罩整個(gè)社會(huì)的數(shù)據(jù)與算法等。從1956年約翰·麥卡錫等人在達(dá)特茅斯會(huì)議上正式提出人工智能(Artificial Intelligence,簡(jiǎn)稱AI)的概念至今,人工智能的發(fā)展幾經(jīng)波折終于形成了今天席卷全球的發(fā)展浪潮,但自從人類萌生了人工智能的想法,甚至在其概念還并不明確之時(shí),就一直存在著人們對(duì)這一事物的擔(dān)心。隨著人工智能從概念到現(xiàn)實(shí)轉(zhuǎn)變,人們對(duì)它的擔(dān)憂和焦慮也愈發(fā)嚴(yán)重,并成為人工智能時(shí)代人們的一種生活樣態(tài):毫無(wú)隱私的赤裸呈現(xiàn)、伴隨左右的不確定性風(fēng)險(xiǎn)、隨時(shí)發(fā)生的技術(shù)性失業(yè)、難以逾越的算法歧視、紛擾心靈的倫理關(guān)系以及未來(lái)主體地位的捍衛(wèi)等等,都令人在為人工智能叫好、吶喊的同時(shí)又擔(dān)驚受怕,這一現(xiàn)象被稱為人工智能恐懼。人工智能恐懼屬于技術(shù)恐懼的一種類型。技術(shù)恐懼指的是,人們對(duì)技術(shù)及其產(chǎn)品表現(xiàn)出的不適應(yīng)、貶低、排斥、抵制、焦慮、恐慌等心理和行為反應(yīng)。其反映的是“人與技術(shù)之間的一種負(fù)相關(guān)關(guān)系”[6](P.33)。因此,人工智能恐懼與其它技術(shù)恐懼一樣,也會(huì)表現(xiàn)為人們對(duì)人工智能及其產(chǎn)品的擔(dān)憂、焦慮和恐慌,從而產(chǎn)生抵制、否定人工智能的行為態(tài)度。其表現(xiàn)出的依然是人與人工智能的負(fù)性相關(guān)關(guān)系。
人工智能恐懼又不同于一般的技術(shù)恐懼,它是技術(shù)(人工)恐懼與智能恐懼疊加引發(fā)的心理和行為反應(yīng)。人工智能首先作為一種技術(shù)形態(tài),具有一般技術(shù)人工物的特征,自古至今技術(shù)恐懼的各種歷史形態(tài)和表現(xiàn)也會(huì)出現(xiàn)在人工智能身上,比如人工智能作為新生事物(新技術(shù))會(huì)招致人們的抵制和排斥,誤讀人工智能技術(shù)導(dǎo)致的焦慮和不安,人工智能的技術(shù)風(fēng)險(xiǎn)令人擔(dān)憂,人工智能發(fā)展給人帶來(lái)的技術(shù)壓力等。人工智能恐懼又表現(xiàn)為智能恐懼,包括兩個(gè)方面,一是從智能演化史而言,智能進(jìn)化的不均衡引發(fā)了人類的恐懼。表現(xiàn)為高級(jí)智能或高水平智能對(duì)低級(jí)智能或低水平智能的控制、奴役、壓迫甚至迫害,導(dǎo)致人們對(duì)高級(jí)智能的恐懼。在亞里士多德看來(lái),成為統(tǒng)治者的前提就是具有理性能力,即智力較高。正是基于這樣的邏輯,人們從最終意義上就恐懼人工智能超越人類智能,并使人類淪為機(jī)器的機(jī)器,或變?yōu)闄C(jī)器的能源。正因?yàn)槿绱?,尼克·波斯特羅姆(Nick Bostrom)認(rèn)為,我們的困境將與大猩猩相似,大猩猩的命運(yùn)今天完全取決于我們。[7](P.vii)二是從文化發(fā)展史而言,長(zhǎng)期存在的“泛靈論”是智能恐懼的文化根源。表現(xiàn)為自然以神靈的形式掌管世界,通過(guò)災(zāi)難禍端來(lái)懲罰人的罪過(guò),源遠(yuǎn)流長(zhǎng)的自然恐懼就是對(duì)自然神靈的恐懼,恐懼自然智能比人類智能的高超。用今天的科學(xué)觀點(diǎn)來(lái)看,所謂的各種自然神靈,只不過(guò)是人類以文化的形式創(chuàng)造出來(lái)的各種智能體而已,因此,也可以把它們看作是最早的人造智能或人工智能,對(duì)它的恐懼就是人造智能恐懼。當(dāng)今人工智能科技的發(fā)展,把對(duì)人造智能的恐懼從文化變?yōu)楝F(xiàn)實(shí)。
人工智能是發(fā)源于西方的現(xiàn)代科技催生出的一種文化形式。人工智能恐懼存在著雙重語(yǔ)境,也就是科學(xué)語(yǔ)境與文化語(yǔ)境,雙重語(yǔ)境的人工智能恐懼是事物的一體兩面,既相互區(qū)別,又相互聯(lián)系,不可分割。
文化語(yǔ)境中的人工智能恐懼,是人與人工智能在文化層面表現(xiàn)出的負(fù)性相關(guān)關(guān)系。表現(xiàn)為文化上對(duì)人工智能的抵制、排斥、擔(dān)憂、焦慮、害怕、恐慌等心理和行為反應(yīng)。
文化上的人工智能恐懼淵源久遠(yuǎn),流傳已久的世界末日論文化,即無(wú)論是自然神,還是人造物復(fù)活,都可能引發(fā)失控,從而導(dǎo)致人類甚至是整個(gè)世界的終結(jié),即末日的到來(lái),是其文化源頭之一?,F(xiàn)代意義上的人工智能科技尚未在西方問(wèn)世,就早已存在文化上的針對(duì)人造物的類似針對(duì)人工智能的恐懼。在著名的皮格馬利翁神話中,一位雕塑家不接受凡間的女子,而愛(ài)上了他所做的一個(gè)女人的象牙雕像。他希望她能活過(guò)來(lái),成為他的妻子。女神阿芙羅蒂滿足了他的愿望:她的嘴唇變得溫暖,身體變得柔軟。這一美好的神話很容易使我們聯(lián)想到當(dāng)今的性機(jī)器人,二者都表現(xiàn)了人們對(duì)于超級(jí)的智能產(chǎn)物寄予的深切愿望。這種思想一直在西方延續(xù)著。但是,哥林人的傳說(shuō)卻從另一方面反映了人們對(duì)人造智能的恐懼:16世紀(jì),拉比用黏土制成了一個(gè)怪物,然后人們失去了對(duì)這個(gè)怪物控制。這或許是擔(dān)心人工智能失控的早期版本。瑪麗·雪萊的小說(shuō)《科學(xué)怪人》是現(xiàn)代技術(shù)恐懼典型的文化反應(yīng),尤其是對(duì)機(jī)器人或人工智能恐懼的隱喻,突出強(qiáng)調(diào)了科學(xué)技術(shù)的危險(xiǎn),特別是人造人類肆虐的危險(xiǎn),盡管這部小說(shuō)的主旨并不是反科學(xué)技術(shù),而是揭示科學(xué)家需要對(duì)他們的創(chuàng)造負(fù)責(zé),但《科學(xué)怪人》所描述的恐懼場(chǎng)景卻出現(xiàn)在今天人們對(duì)人工智能失控的恐懼和擔(dān)憂之中。著名科幻作家阿西莫夫?qū)⑦@種恐懼稱為“科學(xué)怪人情結(jié)”,他提出的機(jī)器人三原則,也正是基于對(duì)機(jī)器人失控的擔(dān)心。從《科學(xué)怪人》創(chuàng)作至今,科學(xué)怪人情結(jié)(弗蘭肯斯坦情結(jié))一直是西方科幻電影或文學(xué)作品的創(chuàng)作主題,它深深地植根于西方文化和文明。科學(xué)怪人情結(jié)是末日論文化的重要體現(xiàn),即擔(dān)心人工智能會(huì)成為人類甚至地球的終結(jié)者。
西方文化語(yǔ)境的人工智能恐懼還表現(xiàn)在人類追求不朽的文化傳統(tǒng)受到的挑戰(zhàn)上。這是一種對(duì)終極存在的恐懼。古今中外,追求永生或不朽一直是人們的美好愿望。這一點(diǎn)在宗教文化中體現(xiàn)得淋漓盡致。古人通過(guò)各種文化形式表達(dá)自己追求永生的意愿,并論證永生的可能。例如,柏拉圖認(rèn)為,身體是靈魂的監(jiān)獄,身體是會(huì)腐爛的,但靈魂則是可以不朽的。這也就是文化上的超人主義。當(dāng)現(xiàn)代科學(xué)技術(shù),尤其人工智能研究者宣稱為超人主義提供了理論與現(xiàn)實(shí)上的可能之時(shí),如科技手段可以幫助對(duì)抗人類的衰老,人工智能可以實(shí)現(xiàn)永生,有人認(rèn)為現(xiàn)代人正在通過(guò)技術(shù)手段完成“柏拉圖程序”,但這也帶來(lái)了擁有血肉之軀的普通人的焦慮:當(dāng)世界到處奔跑著機(jī)器人、電子人時(shí),自然人該怎么辦?人工智能所允諾的“永生”是人類千百年來(lái)期望的帶有神秘感和美感的永生嗎?人工智能對(duì)血肉之軀的改造,是異化、傷害、侵占嗎?人工智能只能實(shí)現(xiàn)極少數(shù)人的“永生”從而加劇人類的不平等嗎?
西方文化語(yǔ)境中的人工智能恐懼還表現(xiàn)在現(xiàn)代文化的恐懼傳播上。尋求確定性,擺脫恐懼一直是人類追求的目標(biāo)。但隨著現(xiàn)代科技社會(huì)不確定性的增加,以及人們對(duì)自己生命和健康的過(guò)度關(guān)注,恐懼文化已成為現(xiàn)代社會(huì)文化的重要構(gòu)成部分,正如布德在《恐懼社會(huì)》中描述的,在現(xiàn)代社會(huì),恐懼是一個(gè)影響每個(gè)人的問(wèn)題,是我們時(shí)代的基本體驗(yàn)。[8]恐懼已經(jīng)成為認(rèn)識(shí)和解決現(xiàn)代社會(huì)問(wèn)題的重要視角,恐懼視角的形成又成為某些個(gè)人、團(tuán)體甚至國(guó)家謀取利益的有效手段,恐懼政治、恐懼營(yíng)銷、恐懼題材的文學(xué)藝術(shù)、恐懼心理和情感等等構(gòu)成了現(xiàn)代社會(huì)的恐懼文化,以至于弗蘭克·菲雷迪(Frank Furedi)認(rèn)為恐懼是推動(dòng)全球運(yùn)轉(zhuǎn)的隱秘力量。[9]恐懼文化的盛行與人工智能熱不謀而合,使得人工智能恐懼成為當(dāng)今時(shí)代的熱門話題。人工智能給予了人們更多的恐懼話題,各種媒體為了某種利益對(duì)人工智能恐懼也樂(lè)而不彼。恐懼文化對(duì)人工智能恐懼有著社會(huì)建構(gòu)功能和推波助瀾作用,人工智能恐懼豐富著恐懼文化的內(nèi)容,二者相互助推,使恐懼成為智能時(shí)代文化的一大特征。
由此可見(jiàn),文化語(yǔ)境的人工智能恐懼與人工智能文化和社會(huì)文化傳統(tǒng)密切相關(guān),反映了文化領(lǐng)域存在的對(duì)人工智能的恐懼情緒和心理,它常常以宗教、文學(xué)藝術(shù)、哲學(xué)思想等形式反映出來(lái),它是人們對(duì)人工智能的文化建構(gòu)以及對(duì)該文化的理性反思,盡管多數(shù)時(shí)候這一理性反思超越了人工智能技術(shù)的現(xiàn)實(shí)場(chǎng)景,但文化語(yǔ)境的人工智能恐懼并非完全無(wú)中生有,它與現(xiàn)實(shí)人工智能風(fēng)險(xiǎn)相聯(lián)系,對(duì)于人工智能發(fā)展的未來(lái)走向以及解決人工智能引發(fā)的問(wèn)題有著重要的導(dǎo)向作用。
這是基于人工智能科技發(fā)展的現(xiàn)代背景和現(xiàn)實(shí)存在的技術(shù)風(fēng)險(xiǎn)引發(fā)的人們的恐懼心理和行為反應(yīng)。它是人與技術(shù)負(fù)性相關(guān)關(guān)系在人工智能技術(shù)領(lǐng)域的具體反應(yīng)。人工智能存在的科學(xué)語(yǔ)境指的是現(xiàn)代人工智能發(fā)展的科學(xué)與技術(shù)環(huán)境。人工智能科技從問(wèn)世至今,一般認(rèn)為經(jīng)歷了三個(gè)發(fā)展階段:第一階段是從20世紀(jì)60年代到80年代,經(jīng)歷了初創(chuàng)時(shí)期第一次浪潮;第二階段是從20世紀(jì)80年代到21世紀(jì)初,以智能計(jì)算機(jī)的研究為契機(jī),人工智能迎來(lái)發(fā)展史上的第二個(gè)春天;第三階段是從20世紀(jì)初開(kāi)始至今,以深度學(xué)習(xí)技術(shù)的崛起為標(biāo)志的人工智能發(fā)展的第三次浪潮。在人工智能半個(gè)多世紀(jì)的發(fā)展過(guò)程中,人們對(duì)人工智能技術(shù)階段(或類型)的劃分也逐漸取得了一致的看法,即把人工智能按照技術(shù)水平的高低劃分成三個(gè)階段,或三種技術(shù)類型,即弱人工智能階段(專用人工智能)、強(qiáng)人工智能階段(通用人工智能)、超強(qiáng)人工智能階段(超級(jí)智能)。
科學(xué)語(yǔ)境中的人工智能恐懼,在不同的人工智能發(fā)展階段或不同類型的人工智能環(huán)境下,其表現(xiàn)和特點(diǎn)也有所不同(如圖1)。根據(jù)技術(shù)進(jìn)階和人工智能的不同類型,把科學(xué)語(yǔ)境中的技術(shù)恐懼劃分為三種表現(xiàn)形式,即技術(shù)恐懼層面的人工智能恐懼、現(xiàn)實(shí)意義上的人工智能恐懼和未來(lái)意義上的人工智能恐懼。[10]
圖1 科學(xué)語(yǔ)境中的人工智能恐懼表現(xiàn)形式
首先,技術(shù)恐懼層面的人工智能恐懼主要針對(duì)的是弱人工智能階段。弱人工智能也稱為專用人工智能(Special Artificial Intelligence),即專門針對(duì)某個(gè)領(lǐng)域的應(yīng)用或?qū)iT任務(wù)設(shè)計(jì)的人工智能程序,只能完成特定領(lǐng)域的智能任務(wù),如下棋機(jī)器人、掃地機(jī)器人等。這種智能程序雖然在它的專業(yè)領(lǐng)域具有較高的智能水平,但在其他方面卻表現(xiàn)平庸,因此,總體上看這類人工智能水平比較低。人們把這種類型的人工智能主要看作是機(jī)器,與其他技術(shù)人工物沒(méi)有太大區(qū)別,反映出來(lái)的主要是人們對(duì)物的恐懼,包括:一是基于自然主義的立場(chǎng)和觀點(diǎn),反對(duì)自然的技術(shù)化、人工智能化,有人就擔(dān)心人工智能代替人的腦力勞動(dòng),會(huì)造成人腦的退化和思維的停滯,尤其腦機(jī)接口會(huì)破壞人腦的自然進(jìn)化,會(huì)顛覆自然人的概念。二是基于習(xí)慣勢(shì)力對(duì)新事物的排斥而恐懼人工智能技術(shù)。人工智能技術(shù)的發(fā)展會(huì)打破人們已經(jīng)熟悉和習(xí)慣的學(xué)習(xí)、工作和生活場(chǎng)景,會(huì)打亂人際關(guān)系乃至國(guó)家或地區(qū)之間的平衡狀態(tài),從而引發(fā)人們對(duì)它的焦慮和擔(dān)憂。由于人工智能等新技術(shù)的推廣和應(yīng)用,還迫使人們?nèi)W(xué)習(xí)更多相關(guān)的技術(shù)知識(shí)、適應(yīng)智能環(huán)境,也給人帶來(lái)巨大的心理壓力,導(dǎo)致人們反對(duì)和抵制人工智能等新技術(shù)。“對(duì)霍布斯和其他人來(lái)說(shuō),恐懼構(gòu)成了對(duì)新事件的合理反應(yīng)的一個(gè)維度?!盵11](P.7)三是基于技術(shù)雙刃劍的認(rèn)知和安全考量,恐懼人工智能的安全性和不確定性。由于人工智能技術(shù)復(fù)雜性,其存在的各種安全風(fēng)險(xiǎn)也令人不寒而栗。
其次,現(xiàn)實(shí)意義上的人工智能恐懼主要發(fā)生在強(qiáng)人工智能階段。強(qiáng)人工智能也被稱為通用人工智能(Artificial General Intelligence),這種人工智能不僅不再局限于特定領(lǐng)域的智能任務(wù),而且能完成一切人能夠完成的智能任務(wù)——能夠像人一樣思考、學(xué)習(xí)和解決問(wèn)題,智能水平非常高。當(dāng)前通用人工智能已初見(jiàn)端倪,呼之欲出,但從技術(shù)發(fā)展階段上看依然處于弱人工智能階段,創(chuàng)造出像人一樣會(huì)思考的強(qiáng)人工智能依然困難重重。之所以把現(xiàn)實(shí)意義上的人工智能恐懼對(duì)應(yīng)于強(qiáng)人工智能,是因?yàn)樵谌藗兛磥?lái)強(qiáng)人工智能才更像智能體,對(duì)它的恐懼才是真正意義上對(duì)機(jī)器智能的恐懼。同時(shí),強(qiáng)人工智能(通用人工智能)又不像超級(jí)智能一樣遙不可及,而是有了邏輯與技術(shù)上的可能性。當(dāng)然,由于實(shí)質(zhì)性的強(qiáng)人工智能還沒(méi)有出現(xiàn),現(xiàn)實(shí)意義上的人工智能恐懼對(duì)象,主要是現(xiàn)有較高水平的人工智能產(chǎn)品并帶有一定的前瞻性。其主要表現(xiàn)是擔(dān)心人工智能的技術(shù)替代作用以及人工智能引發(fā)的倫理問(wèn)題。技術(shù)性失業(yè)引發(fā)的焦慮和恐慌已經(jīng)成為當(dāng)前人工智能恐懼的最主要形式。2013年牛津大學(xué)的研究人員估計(jì),在20年內(nèi),美國(guó)47%的崗位將會(huì)受到計(jì)算機(jī)自動(dòng)化的影響[12]。中國(guó)綜合社會(huì)調(diào)查2015年的調(diào)查數(shù)據(jù)發(fā)現(xiàn),一半以上的公眾有不同程度的失業(yè)恐懼[13]?!拔磥?lái)10年估計(jì)有50%的人類工作將會(huì)受到人工智能的影響,其中翻譯、保安、客服、會(huì)計(jì)、司機(jī)等幾種職業(yè)將有90%的概率被人工智能所取代。”[14]人工智能導(dǎo)致的失業(yè)不僅會(huì)對(duì)較為機(jī)械和程式化的藍(lán)領(lǐng)工人帶來(lái)沖擊,對(duì)于具有中等職業(yè)技能的技術(shù)人員甚至白領(lǐng)也會(huì)帶來(lái)重大影響。
隨著人工智能水平的不斷提高和推廣應(yīng)用,人工智能引發(fā)的倫理問(wèn)題也使人感到疑懼。尤其隨著通用人工智能機(jī)器人的問(wèn)世,人工智能的倫理主體地位問(wèn)題開(kāi)始被人關(guān)注和討論,這將引起傳統(tǒng)倫理秩序和倫理規(guī)范的變革,而使人感到不適與恐懼;人工智能對(duì)隱私權(quán)的侵犯、人工智能醫(yī)療的安全性和公平性問(wèn)題、算法的濫用和歧視問(wèn)題、人工智能被壞人掌控或失控問(wèn)題等,都引發(fā)了人們對(duì)人工智能倫理風(fēng)險(xiǎn)的恐懼。現(xiàn)實(shí)意義上的人工智能恐懼更多地表現(xiàn)為精神恐懼:機(jī)器越來(lái)越像人一樣有了智能,其風(fēng)險(xiǎn)也表現(xiàn)在它的智能性上;通用人工智能機(jī)器人的倫理地位問(wèn)題也不同于一般的人與物的關(guān)系問(wèn)題,而更像是談?wù)撊伺c人的關(guān)系問(wèn)題,而倫理風(fēng)險(xiǎn)還會(huì)涉及對(duì)人性、人的本質(zhì)的困惑;恐懼產(chǎn)生的矛盾也不再局限于物的矛盾,如失業(yè)恐懼不單是恐懼失去了生活來(lái)源(因?yàn)槿斯ぶ悄軙?huì)創(chuàng)造更多的價(jià)值,通過(guò)社會(huì)保障的形式會(huì)分配到失業(yè)者手中),更重要的是失去了勞動(dòng)和工作對(duì)于生活的意義、對(duì)于人生的意義而感到焦慮不安。
最后,未來(lái)意義上的人工智能恐懼,主要針對(duì)的是超強(qiáng)人工智能技術(shù)或超級(jí)智能發(fā)展階段。由于超級(jí)智能離我們還比較遙遠(yuǎn),因此,對(duì)于這一未來(lái)走向能否實(shí)現(xiàn),在理論研討中還頗具爭(zhēng)議,有人認(rèn)為能夠出現(xiàn)比人類智能更高級(jí)的超級(jí)智能,它是不同于人類智能和通用人工智能的一種新智能形式。這種超級(jí)智能未來(lái)將統(tǒng)治人類,甚至反噬人類。也有人認(rèn)為,超級(jí)智能在一個(gè)相當(dāng)長(zhǎng)的時(shí)期內(nèi)很難實(shí)現(xiàn),甚至不可能實(shí)現(xiàn)。但不論超級(jí)智能會(huì)不會(huì)實(shí)現(xiàn),這似乎并不影響人們對(duì)它的恐懼,也就是未來(lái)意義超級(jí)人工智能恐懼的存在卻是一個(gè)事實(shí)。
按照現(xiàn)在人們的設(shè)想,超級(jí)人工智能是具有自主意識(shí)和主體意識(shí)的機(jī)器智能,這種機(jī)器智能會(huì)超越人的設(shè)計(jì)與制造,擺脫人的控制,甚至與人類爭(zhēng)奪地球的領(lǐng)導(dǎo)權(quán)和主人地位,這是人們最擔(dān)心和最不愿意看到的結(jié)果。因此,超級(jí)智能恐懼實(shí)際是人們對(duì)另一種主體的恐懼,也是對(duì)自己主體地位喪失的恐懼。這也是從人類萌生人工智能概念以來(lái)一直最擔(dān)心害怕的事情,瑪麗·雪萊的《弗蘭肯斯坦》、阿西莫夫的機(jī)器人三原則、斯蒂格勒的人工愚蠢、庫(kù)茲韋爾的奇點(diǎn)理論等,無(wú)不顯示出人們對(duì)未來(lái)人類毀滅或失去主體地位的擔(dān)憂。盡管這種形態(tài)的人工智能恐懼有點(diǎn)杞人憂天的味道,但不斷突破人的認(rèn)知限度和挑戰(zhàn)各種極限的科學(xué)技術(shù)發(fā)展史證明,這一天或許會(huì)到來(lái)的。但總的來(lái)看,未來(lái)意義上的人工智能恐懼是一種預(yù)期的想象出來(lái)的恐懼。雖然所恐懼的對(duì)象具有非現(xiàn)實(shí)性,但恐懼本身卻是現(xiàn)實(shí)的。這一恐懼源于對(duì)人類整體力量缺乏信心,與對(duì)現(xiàn)實(shí)風(fēng)險(xiǎn)感知產(chǎn)生的恐懼不同:這種恐懼常常表現(xiàn)為群體恐懼,而不是個(gè)體恐懼;又常常與文化視域的人工智能恐懼交織在一起,構(gòu)成一種科學(xué)文化現(xiàn)象。由此也可以看出,科學(xué)語(yǔ)境的人工智能恐懼與文化語(yǔ)境的人工智能恐懼并不是截然分開(kāi)或根本對(duì)立的兩類人工智能恐懼,也不是對(duì)人工智能恐懼劃分的種類,而是同一事物不同的表現(xiàn)形式,不同的認(rèn)識(shí)視角。
人工智能恐懼為人工智能的發(fā)展敲響了警鐘,有助于人工智能向善發(fā)展。但人工智能恐懼會(huì)引發(fā)人們對(duì)人工智能的敵視、排斥甚至破壞,嚴(yán)重者還會(huì)影響社會(huì)的穩(wěn)定。因此,如何應(yīng)對(duì)人工智能恐懼現(xiàn)象就成為人工智能發(fā)展過(guò)程中需要解決的重要理論和現(xiàn)實(shí)問(wèn)題。根據(jù)人工智能恐懼存在的雙重語(yǔ)境,主要通過(guò)文化和科學(xué)相結(jié)合的發(fā)展路徑走出人工智能恐懼的困境。
現(xiàn)代技術(shù)恐懼是一個(gè)錯(cuò)綜復(fù)雜的問(wèn)題,是由社會(huì)歷史文化、技術(shù)和個(gè)體多種因素綜合作用的結(jié)果,因此,技術(shù)問(wèn)題的治理不能僅在技術(shù)層面上尋找答案,“調(diào)整技術(shù)體系的下一步就在于把它和我們已經(jīng)開(kāi)始發(fā)展的新文化以及地域新模式、社會(huì)新模式、個(gè)人新模式協(xié)調(diào)統(tǒng)一起來(lái)。如果認(rèn)為,所有由技術(shù)造成的問(wèn)題都應(yīng)當(dāng)在技術(shù)領(lǐng)域的范圍之內(nèi)尋找答案,那么這種想法就大錯(cuò)特錯(cuò)了?!盵15](P.383)人工智能恐懼源于人們對(duì)人工智能的風(fēng)險(xiǎn)認(rèn)知不夠,而人工智能的風(fēng)險(xiǎn)認(rèn)知是風(fēng)俗習(xí)慣、社會(huì)觀念、文化觀念、主體個(gè)性特征等多種要素綜合作用下做出的判斷,其解決也有賴于各種因素的有力配合,而社會(huì)文化既是各種要素的綜合反映,也是人工智能恐懼的存在視域,所以,從文化視角探討解決人工智能恐懼問(wèn)題的方法就顯得尤為必要。
人工智能恐懼有很深的西方古代和現(xiàn)代文化背景,古代主要是猶太教、基督教等超越人類肉體及其它物質(zhì)條件限制追求永恒思想、世界末日論思想,以及柏拉圖靈魂不朽思想的影響;現(xiàn)代則是浪漫主義思潮對(duì)科技的批判、瑪麗·雪萊《弗蘭肯斯坦》的隱喻等,使人們對(duì)人工智能的態(tài)度產(chǎn)生了重大影響。因此,要走出人工智能恐懼,就要走出西方的科學(xué)怪人情結(jié),開(kāi)創(chuàng)非柏拉圖的思維方式;充分發(fā)掘中國(guó)傳統(tǒng)文化中的自然主義文化和有機(jī)論思想,倡導(dǎo)有機(jī)技術(shù)、人機(jī)和諧的人工智能發(fā)展理念。
東方的自然主義文化追求自然的生活狀態(tài),反對(duì)一味地追求效率的技術(shù),反對(duì)過(guò)度科學(xué)技術(shù)化。自然主義文化視技術(shù)性為人性的自然延伸,要求人們不能脫離開(kāi)人性追求技術(shù)化。這一文化主張自然是技術(shù)發(fā)展的物質(zhì)和材料基礎(chǔ),技術(shù)的設(shè)計(jì)理念和原理、技術(shù)程序和規(guī)則都是對(duì)事物自然屬性和自然機(jī)制的運(yùn)用,因此,技術(shù)的目的不應(yīng)該是控制外部環(huán)境和主宰自然,而是洞察人性、表達(dá)心靈、協(xié)調(diào)人與自然的關(guān)系,幫助人們適應(yīng)環(huán)境,彰顯生活的意義和價(jià)值?!皼](méi)有對(duì)人性的深刻洞察,我們就不能理解技術(shù)在人類發(fā)展中所扮演的角色?!盵16]有機(jī)論思想強(qiáng)調(diào)人與自然萬(wàn)物是一個(gè)有機(jī)體,各種事物之間相互作用、協(xié)同進(jìn)化發(fā)展。有機(jī)論思想是一種生態(tài)思想,是整體論思想,重視整體價(jià)值,重視各種事物的存在價(jià)值,強(qiáng)調(diào)事物之間的配合,而不是人類中心主義的主宰和統(tǒng)治。
從有機(jī)論和自然主義的文化視角看,人工智能無(wú)論是作為一種人工物,還是作為一種智能體,都應(yīng)該符合有機(jī)論和自然主義的要求,都是自然界萬(wàn)物有機(jī)聯(lián)系鏈條上的一個(gè)環(huán)節(jié),并服務(wù)于人與自然界的有機(jī)聯(lián)系和協(xié)調(diào)發(fā)展。無(wú)論是從技術(shù)一端還是人的一端,應(yīng)該超越競(jìng)爭(zhēng)敘事,人工智能的發(fā)展應(yīng)以人的需要尤其以人類和平發(fā)展需要為價(jià)值目標(biāo),以人性化為發(fā)展訴求,而不是沉迷于控制、制約甚至危害他人,更不要一心追求超越人類,讓超人主義文化永遠(yuǎn)停留在科幻中;人應(yīng)視技術(shù)為自己發(fā)展的有機(jī)補(bǔ)充而不是敵人,更不能為了追求純粹的自然而反對(duì)技術(shù),而應(yīng)該與技術(shù)和解、和好,創(chuàng)造和諧的人機(jī)發(fā)展環(huán)境。
從文化路徑走出人工智能恐懼還應(yīng)當(dāng)創(chuàng)造和傳播科學(xué)文化,應(yīng)當(dāng)拋棄永生論和世界末日論的文化宣傳,科學(xué)認(rèn)識(shí)生物的進(jìn)化和自然界的演化規(guī)律。新陳代謝是自然界的普遍規(guī)律,妄圖借助人工智能實(shí)現(xiàn)長(zhǎng)生不老,或者把人工智能的發(fā)展與末日論文化聯(lián)系起來(lái)的想法都是錯(cuò)誤的。打造和傳播科學(xué)文化,還要做到弘揚(yáng)科學(xué)精神,堅(jiān)持求真務(wù)實(shí)、誠(chéng)信友善價(jià)值觀,建構(gòu)現(xiàn)代科技倫理規(guī)范。科學(xué)共同體的使命是以知識(shí)造福人類,技術(shù)的本質(zhì)是讓人類自由地做自己。
首先,把負(fù)責(zé)任的創(chuàng)新作為人工智能發(fā)展的總原則和總要求。負(fù)責(zé)任的創(chuàng)新是近年來(lái)歐洲提出的一種創(chuàng)新發(fā)展理念,并逐漸得到世界各國(guó)的認(rèn)同,發(fā)展負(fù)責(zé)任的人工智能已成為全球共識(shí),這也反映出世界各國(guó)對(duì)人工智能發(fā)展的擔(dān)心。2017年《蒙特利爾宣言》指出要發(fā)展負(fù)責(zé)任的人工智能;2019年6月,中國(guó)在《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》中,明確提出了人工智能“負(fù)責(zé)任”的治理原則。負(fù)責(zé)任的人工智能就是將責(zé)任倫理貫徹到人工智能發(fā)展的各個(gè)階段,目的是提高人工智能的安全性,降低甚至消除人工智能的各種風(fēng)險(xiǎn);或者即使發(fā)生風(fēng)險(xiǎn)也能夠及時(shí)、準(zhǔn)確地確定風(fēng)險(xiǎn)責(zé)任,并進(jìn)行追責(zé)和補(bǔ)救風(fēng)險(xiǎn)傷害。人工智能雖然能夠做出產(chǎn)生道德后果的行為和決策,但人工智能并不具有道德思考能力,也不知道自己做了什么,所以,人工智能存在的各種問(wèn)題說(shuō)到底還是人的問(wèn)題,無(wú)論是算法設(shè)計(jì)、芯片研發(fā),還是數(shù)據(jù)學(xué)習(xí)、具體應(yīng)用,其各種安全和倫理風(fēng)險(xiǎn)都與設(shè)計(jì)者、研發(fā)者、使用者有著密切的關(guān)系,人工智能產(chǎn)生的各種后果也應(yīng)該由這些相關(guān)人員對(duì)其負(fù)責(zé)。負(fù)責(zé)任創(chuàng)新的目的就是從技術(shù)源頭和制度規(guī)范上消除人工智能的惡意,促其向善,避免在人工智能風(fēng)險(xiǎn)責(zé)任上的集體無(wú)意識(shí)。如果人們知道產(chǎn)品是安全的,或者帶有一定的風(fēng)險(xiǎn),但對(duì)自己的風(fēng)險(xiǎn)危害有責(zé)任保險(xiǎn),就會(huì)大大降低恐懼心理,從而消解人工智能恐懼現(xiàn)象。
其次,把倫理道德嵌入算法,構(gòu)建道德智能體作為人工智能發(fā)展的具體路徑。負(fù)責(zé)任創(chuàng)新的總原則和總要求為人工智能的抑惡向善創(chuàng)造了主觀條件,但要實(shí)現(xiàn)人工智能的良性發(fā)展或消解其各種風(fēng)險(xiǎn)還需要一定的客觀條件,那就是人工智能產(chǎn)品本身如何對(duì)自己負(fù)責(zé)任,成為可信賴的產(chǎn)品,使人工智能成為道德體。把道德規(guī)范嵌入到人工智能的算法設(shè)計(jì)中去,是使人工智能成為道德體或可信賴產(chǎn)品的重要途徑。人工智能倫理是人工智能治理的重要切入點(diǎn),也是當(dāng)前學(xué)界研究的熱點(diǎn)和前沿問(wèn)題,歐美中日等國(guó)家都出臺(tái)了人工智能倫理規(guī)范,谷歌、微軟、蘋果等企業(yè)也都制定了自己人工智能研發(fā)的倫理原則。人工智能倫理規(guī)范的制定較為容易,但要把其嵌入到算法,使人工智能成為有道德、可信賴的產(chǎn)品比較困難。人工智能黑箱的存在使得人們難以琢磨其行為機(jī)制,正如當(dāng)前我們對(duì)人類智能還有諸多不能言說(shuō)之處一樣。因此,道德規(guī)范的嵌入依然任重道遠(yuǎn),道德智能體也存在諸多爭(zhēng)議?!睹献印す珜O丑》云:“是非之心,智之端也?!眰惱淼赖屡c智能本就相與為一,離開(kāi)倫理道德的智能是危險(xiǎn)的,不管難度多大,人工智能的發(fā)展必然包含道德算法的應(yīng)用,道德算法與其他智能功能算法同等重要,甚至需要優(yōu)先考慮,這不僅是應(yīng)對(duì)人工智能恐懼的有效策略,也是人工智能發(fā)展的必經(jīng)之道。
最后,把以人為本作為人工智能發(fā)展的價(jià)值目標(biāo)。啟蒙運(yùn)動(dòng)喚起的科學(xué)技術(shù)理性導(dǎo)致了長(zhǎng)期以來(lái)人與技術(shù)關(guān)系的異化,無(wú)視人性而追求效率,人服從于機(jī)器、服從于生產(chǎn)流水線。這一現(xiàn)象也會(huì)滲透到人工智能的發(fā)展過(guò)程中去,成為人工智能恐懼的原因和表現(xiàn)之一。因此,應(yīng)對(duì)人工智能恐懼要還需要堅(jiān)持以人為本的價(jià)值理念。以人為本,就是要圍繞人的需要,圍繞人性,圍繞服務(wù)于人發(fā)展人工智能,這是人類發(fā)展人工智能的初心,也是人工智能發(fā)展的歸宿。歐盟委員會(huì)、斯坦福大學(xué)、麻省理工學(xué)院的人工智能倫理都認(rèn)為應(yīng)以人類為中心。以人類為中心是就人與技術(shù)的關(guān)系而言的,即任何時(shí)候技術(shù)都是為人服務(wù)的。以人為本,還要求人工智能的發(fā)展要服務(wù)于人類可持續(xù)發(fā)展的大局,即服務(wù)于人類健康環(huán)境的需要,服務(wù)于人對(duì)物種多樣性的需要,服務(wù)于人的發(fā)展需要。以人為本,就要使人工智能的發(fā)展立足當(dāng)下,放眼未來(lái)。要把研發(fā)重點(diǎn)放在現(xiàn)實(shí)意義上的人工智能方面,研究如何在現(xiàn)階段使人工智能更好地為人類服務(wù),而不是把精力放在研發(fā)如何超越人類智能,實(shí)現(xiàn)超級(jí)智能上,這只能徒增人類的緊張感和恐懼感。
人工智能恐懼應(yīng)對(duì)的文化路徑與科學(xué)路徑在人與人工智能的關(guān)系上會(huì)走向統(tǒng)一,文化傳統(tǒng)和社會(huì)環(huán)境是人與人工智能關(guān)系的基礎(chǔ)和價(jià)值導(dǎo)向,它不僅是人工智能倫理規(guī)范建構(gòu)的基礎(chǔ),也會(huì)沉淀為一種價(jià)值觀被嵌入到人工智能產(chǎn)品中去。人工智能產(chǎn)品的安全可靠性、其蘊(yùn)含的價(jià)值品格、設(shè)計(jì)理念等,不僅會(huì)直接影響人與人工智能的關(guān)系,影響人工智能技術(shù)的接受度,而且會(huì)塑造新的文化和社會(huì)環(huán)境。因此,良好的社會(huì)文化氛圍需要安全可靠的人工智能產(chǎn)品來(lái)支撐,可信賴的道德智能體又需要相應(yīng)的文化與社會(huì)環(huán)境來(lái)推動(dòng),二者有機(jī)結(jié)合是走出雙重語(yǔ)境人工智能恐懼的合理路徑。
西南民族大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版)2021年11期