陳愛華
人工智能(artificial intelligence)亦稱智械、機(jī)器智能,指由人制造出來的機(jī)器所表現(xiàn)出來的智能。約翰·麥卡錫[1](John McCarthy)將其定義為制造智能機(jī)器的科學(xué)與工程。目前隨著大數(shù)據(jù)時代的到來,人工智能獲得了快速的發(fā)展——基于人工智能的“萬物互聯(lián)”——無人駕駛、智能家居、自動診療、智慧城市等不斷呈現(xiàn),然而,與此同時人工智能的發(fā)展亦帶來了一連串隱憂,尤其是人工智能產(chǎn)生了生命倫理的困惑與挑戰(zhàn),這是否會威脅人類生存,甚至取代人類?康德曾經(jīng)在其《純粹理性批判》中提出的一組問題式:“我能知道什么?”“我應(yīng)當(dāng)做什么?”“我可以希望什么?”[2]612后來又在《邏輯學(xué)講義》中提出了“人是什么?”[3]15當(dāng)下,我們重溫康德的這組問題式,應(yīng)對人工智能的生命倫理悖論大有裨益。
康德問題式之首問是“我能知道什么?”康德認(rèn)為,“第一個問題是單純思辨的”[2]612,即關(guān)于實有事物的知識問題。因此,我們追問人工智能的生命倫理悖論何以產(chǎn)生,就須追問什么是生命倫理悖論?什么是人工智能?什么是人工智能的生命倫理悖論?
而追問什么是生命倫理悖論?又包括三個層面的問題:其一,什么是“悖論”?其二,什么是“倫理悖論”?其三,什么是“生命倫理悖論”?
就“悖論”而言,它是邏輯學(xué)名詞,其內(nèi)涵為,在一個公理系統(tǒng)中,一命題A,如果命題承認(rèn)A,則可以推得-A(非A);反之,如果命題承認(rèn)-A(非A),亦可以推得A[4]。由此,稱A命題為悖論。
而“倫理悖論”[5]與“悖論”這兩者之間不是嚴(yán)格的邏輯意義上的屬種關(guān)系,而是一種引申意義上的借鑒。所謂“倫理悖論”是指現(xiàn)實的倫理關(guān)系的運作中,一種行為的目的是好的或者是善的,然而其產(chǎn)生的結(jié)果卻是利與害并舉、善與惡相伴;或者是如果你得到了預(yù)期的倫理的正效應(yīng)(善),同時也得到了未預(yù)期到的倫理的負(fù)效應(yīng)(惡);或者即使預(yù)期中認(rèn)識到,一旦得到其倫理正效應(yīng),可能會產(chǎn)生相應(yīng)的倫理負(fù)效應(yīng),但是在行為結(jié)果中,倫理負(fù)效應(yīng)(惡)大大超出預(yù)期。
“生命倫理悖論”與“倫理悖論”具有屬種關(guān)系。不過“倫理悖論”更多的是行為的目的與后果之間的“二律背反”,即一種行為的目的是好的或者是善的,然而其產(chǎn)生的結(jié)果卻是利與害并舉、善與惡相伴;而“生命倫理悖論”在本文中更多的是基于對生命倫理原則及其履行結(jié)果或者產(chǎn)生的實際倫理效應(yīng)的“二律背反”。
無論“生命倫理悖論”還是“倫理悖論”都是源于人類對于生命的倫理反思。這可以追溯到人類社會產(chǎn)生的早期技術(shù)的發(fā)展及其生命倫理悖論。正如老子在《道德經(jīng)·五十七章》中曰:“人多伎巧,奇物滋起?!币蚨鴳?yīng)如何道德地對待生命,我們關(guān)于生命的決定和選擇如何合乎倫理,如何實現(xiàn)生命的價值等,這些問題都是歷代思想家關(guān)注的焦點。對于近代工業(yè)革命產(chǎn)生的生命倫理悖論,馬克思曾對此有深刻闡述:“在我們這個時代,每一種事物好象都包含有自己的反面,我們看到,機(jī)器具有減少人類勞動和使勞動更有成效的神奇力量,然而卻引起了饑餓和過度的疲勞”;“隨著人類愈益控制自然,個人卻似乎愈益成為別人的奴隸或自身卑劣行為的奴隸?!盵6]當(dāng)代隨著人工智能技術(shù)的快速普及,引發(fā)人們對由人工智能的生命倫理悖論的擔(dān)憂。因為目前惡意使用人工智能已經(jīng)對數(shù)字安全、物理安全和政治安全造成廣泛的威脅。如,無人機(jī)在人工智能的操控下可能會從事犯罪活動,人工智能也會輕易泄露個人隱私或國家機(jī)密。
亞里士多德曾在《尼可馬克倫理學(xué)》中指出:“德性不僅產(chǎn)生、養(yǎng)成與毀滅于同樣的活動,而且實現(xiàn)于同樣的活動?!盵7]38而“造成幸福的是合德性的活動,相反的活動則造成相反的結(jié)果?!盵3]27因而亞里士多德認(rèn)為:“我們應(yīng)當(dāng)重視實現(xiàn)活動的性質(zhì),因為我們是怎樣的就取決于我們的實現(xiàn)活動的性質(zhì)?!盵7]36為了追溯人工智能的生命倫理悖論何以生成,須追溯人工智能的學(xué)科范疇及其本質(zhì)。
就人工智能的學(xué)科范疇而言,它是自然科學(xué)和人文社會科學(xué)的交叉。其所涉及學(xué)科,包括哲學(xué)和認(rèn)知科學(xué)、數(shù)學(xué)、神經(jīng)生理學(xué)、心理學(xué)、計算機(jī)科學(xué)、信息論、控制論[4]。其研究范疇包括自然語言處理、智能搜索、推理、規(guī)劃、機(jī)器學(xué)習(xí)、模式識別、邏輯程序設(shè)計軟計算、不精確和不確定的管理、人工生命、神經(jīng)網(wǎng)絡(luò)、復(fù)雜系統(tǒng)、遺傳算法等。因此,如果我們在發(fā)展人工智能的同時,弱化或者忽略了人的自主性、人的自由和尊嚴(yán),就可能帶來人工智能發(fā)展的有關(guān)安全、生命、健康、幸福等領(lǐng)域的倫理道德問題,進(jìn)而出現(xiàn)生命倫理悖論。
再就人工智能本質(zhì)而言,它不僅是對人的思維的信息過程的模擬,實際上也是人思維方式的設(shè)計,進(jìn)而影響人的生存與發(fā)展、人的生活方式和生命方式。因為人工智能對于人的思維模擬一般可以從兩重維度進(jìn)行,一是結(jié)構(gòu)模擬:仿照人腦的結(jié)構(gòu)機(jī)制,制造出“類人腦”的機(jī)器;二是功能模擬:暫時撇開人腦的內(nèi)部結(jié)構(gòu),而從其功能過程進(jìn)行模擬?,F(xiàn)代電子計算機(jī)的產(chǎn)生便是對人腦思維功能的模擬,是對人腦思維的信息過程的模擬。如今,弱人工智能不斷地迅猛發(fā)展,工業(yè)機(jī)器人以比之前任何時候都更快的速度發(fā)展,更加帶動了弱人工智能和相關(guān)領(lǐng)域產(chǎn)業(yè)的不斷突破,很多必須用人來做的工作如今已經(jīng)能用機(jī)器人實現(xiàn)。而強(qiáng)人工智能雖然暫時處于瓶頸,但是科學(xué)家們正在不斷探索、努力。因而,無論是結(jié)構(gòu)模擬,還是功能模擬;無論是弱人工智能,還是強(qiáng)人工智能,或者是超強(qiáng)人工智能,如果弱化或者忽略了其關(guān)涉人的安全、生命、健康、幸福等領(lǐng)域的倫理道德問題,都會產(chǎn)生生命倫理悖論。
康德之問的第二個問題,即“我應(yīng)當(dāng)做什么?”康德認(rèn)為,“第二個問題是單純實踐的”,是關(guān)于道德的問題[2]612。循著這一康德之問,就須從生命倫理的視域追問:人工智能生命倫理悖論在實踐中有何種樣態(tài)。為此,首先須追問相關(guān)的道德律(因為道德律規(guī)定了人的行為所為和所不為[2]612),即生命倫理學(xué)及其生命倫理原則以及與之相關(guān)的機(jī)器人學(xué)定律。
生命倫理學(xué)自20世紀(jì)60年代產(chǎn)生以來,是迄今為止世界上發(fā)展最為迅速、最有生命力的交叉學(xué)科。生命倫理學(xué)的“生命”主要指人類生命,但有時也涉及到動物生命和植物生命以至生態(tài),而倫理學(xué)是對人—自然—社會倫理關(guān)系及其人的行為規(guī)范性的研究,因而,生命倫理學(xué)可以界定為運用倫理學(xué)的理論和方法,在跨學(xué)科、跨文化的情境中,對生命科學(xué)和醫(yī)療保健的倫理學(xué)方面,包括決定、行動、政策、法律,進(jìn)行的系統(tǒng)研究。生命倫理學(xué)總結(jié)了第二次世界大戰(zhàn)德國納粹醫(yī)生以科學(xué)研究為幌子殘酷迫害猶太人的慘痛教訓(xùn),結(jié)合醫(yī)學(xué)實踐和科學(xué)實驗的實際狀況,制定了尊重人的生命與尊嚴(yán)、以人為本的原則、不傷害和有利的原則、公正公益的原則[8],體現(xiàn)了倫理合理性。進(jìn)而可以引領(lǐng)我們對人工智能引發(fā)的倫理問題及其悖論進(jìn)行生命倫理辨析,作出相關(guān)的生命倫理評價、判斷和抉擇。
值得一提的是關(guān)于機(jī)器人學(xué)定律是由科幻小說家阿西莫夫(Isaac Asimov)在其《我,機(jī)器人》中提出的。機(jī)器人行為的三定律分別是:第一,“機(jī)器人不能傷害人類或坐視人類受到傷害”;第二,“在與第一法則不相沖突的情況下,機(jī)器人必須服從人類的命令”;第三,“在不違背第一與第二法則的前提下,機(jī)器人有自我保護(hù)的義務(wù)”。顯然,這三條法則的核心是“不能傷害人類”,體現(xiàn)了對人類安全的重視,同時也確立了人與機(jī)器人的主仆關(guān)系[9]:“必須服從人類的命令?!钡桥c生命倫理原則相比,還有很大差距。因為“不能傷害人類”僅僅屬于生命倫理原則的底線。為了進(jìn)一步完善機(jī)器人學(xué)法則,于1985年,阿西莫夫又提出了第零法則:“機(jī)器人即使是出于自我保護(hù)也不能直接或間接傷害人類”,進(jìn)一步強(qiáng)調(diào)了人類安全的重要性。
盡管機(jī)器人行為的三定律在阿西莫夫的科幻小說中得到遵守,并且在其他作者的科幻小說中的機(jī)器人,也遵守這三條定律,同時,也有很多人工智能和機(jī)器人領(lǐng)域的技術(shù)專家也認(rèn)同這個準(zhǔn)則,然而,這三定律在現(xiàn)實機(jī)器人工業(yè),特別在人工智能的應(yīng)用還有相當(dāng)大的難度。從生命倫理學(xué)的原則和機(jī)器人三定律來審視人工智能生命倫理悖論,具有以下三重樣態(tài)。
首先,人工智能(包括機(jī)器人)真的能做到對人的身心發(fā)展與健康不傷害嗎?實際上,人工智能(包括機(jī)器人)應(yīng)用的后果,很難保證對人的身心不傷害——這恰恰形成人工智能生命倫理的第一重悖論:“不能傷害人類”的生命倫理悖論。盡管科學(xué)家先前一直希望以最簡單的辦法,確保人工智能(包括機(jī)器人)不給人類帶來任何威脅,但人工智能(包括機(jī)器人)會以什么方式傷害到人?這種傷害有多大?傷害可能以什么形式出現(xiàn)?什么時候可能發(fā)生?怎樣才能避免?這些問題都亟需細(xì)化。當(dāng)代,由于使用多樣化的人工智能,人們原來的多樣化、多元化的思維可能變得整齊劃一,成為單向度地運用人工智能的思維,進(jìn)而成為人工智能的消費機(jī)器,或者成為機(jī)器的一部分。因為科學(xué)家與工程技術(shù)人員總是在工具性層面關(guān)注人工智能是否具有更強(qiáng)大智能和力量;而消費者則主要在功用性層面考慮是否使用和如何使用這些具有更強(qiáng)大智能和力量的人工智能?由此雖然會考慮這些人工智能是否對人類有善意,能否與其協(xié)作、共存?[10]但是卻沒有追問這些人工智能是否從珍愛生命作為出發(fā)點(初心),并且是否將珍愛生命作為一種頂層設(shè)計?進(jìn)而追問人工智能對人思維方式的生理、心理和生活方式的生命基礎(chǔ)到底是推進(jìn),還是相反?是促進(jìn)人思維的全面發(fā)展,還是單向度發(fā)展?如果不作這樣的追問,聽任人工智能發(fā)展,原來人所具有各種不同的奇思妙想和幾百萬年進(jìn)化獲得的不同創(chuàng)發(fā)力和審美情趣將趨同于人工智能、依附于人工智能,而人自身的智能除了學(xué)會使用人工智能的操作,其他能力將隨之退化或者被消解。如同現(xiàn)在的智能手機(jī)將記事本、通訊錄、網(wǎng)絡(luò)支付、各類電子閱讀文本、語言、翻譯、郵件、微信、視頻、音樂、廣播電視、遙控等都囊括于其中,正所謂“一機(jī)在手,樣樣都有”,因此,目前人們對于手機(jī)已經(jīng)達(dá)到前所未有的依賴。因而一旦離開了手機(jī),人們似乎一無所有。同時使用手機(jī)的低頭族的頸椎病高發(fā),危及人的健康;手機(jī)智能游戲一族不僅網(wǎng)癮難解,身心健康堪憂等生命倫理問題不勝枚舉。而智能手機(jī)的當(dāng)下效應(yīng),也將是人工智能的未來效應(yīng),或者更為嚴(yán)重。有可能人工智能越發(fā)達(dá),人類思維與智力越愚鈍;人工智能發(fā)展的功能越多,人類健康水平越低。
其次,人工智能在運用過程中,真的能做到知情同意嗎?各種人工智能(包括機(jī)器人)的使用說明或者相關(guān)協(xié)議很多,但是對于生命倫理“尊重人的生命與尊嚴(yán)”原則中的知情同意卻無法真正實現(xiàn)——這便形成人工智能生命倫理的第二重悖論:“知情同意”的生命倫理悖論。因為它可能帶來一種潛在文化與教育的生命倫理危機(jī):如果說,基因編輯技術(shù)可能不僅動搖作為以往一切社會文明基礎(chǔ)的自然秩序,其更大危險是世界物種的多樣性乃至人種的多樣性,會成為少數(shù)壟斷技術(shù)和力量的狂人的家族操控[11],那么人工智能的發(fā)展,不僅為犯罪行為拓展了更為廣闊的空間,而且當(dāng)下的智能機(jī)器人(弱人工智能)進(jìn)人們的健康、生活、教育、培訓(xùn)和娛樂等領(lǐng)域[9],它們輔導(dǎo)幼兒—少兒—青少年學(xué)習(xí),以后將由強(qiáng)人工智能全面掌控大學(xué)教育和自主式學(xué)習(xí)[12],甚至各行各業(yè)行政管理—運營模式等乃至人們的家庭及其日常生活,以至于人類獨特的情感[13]亦可能由弱或強(qiáng)人工智能掌控。因為它們借助于大數(shù)據(jù)平臺,設(shè)定算法的智能化平臺對于上述諸方面都具有很強(qiáng)的主導(dǎo)性[14]。同時,由于在萬物互聯(lián)中,人與物數(shù)據(jù)的自動產(chǎn)生,對于這些數(shù)據(jù)的采集、分析,可以對人的行為偏好形成較為客觀的數(shù)據(jù)化表象,再通過意義互聯(lián)在具體的與境和局域中獲得理解[15]。這樣,知情同意原則,形同虛設(shè)。也許在人工智能高度發(fā)展的同時,將導(dǎo)致人類自身經(jīng)過幾百萬年進(jìn)化所生成的奇思妙想、對于琴棋書畫審美能力與操作能力等創(chuàng)發(fā)力都將消解在鍵盤的操作中。長此以往,在程序文化和鍵盤文化的熏陶中,不知不覺將人類已有的非人工智能文明逐漸消解甚至毀滅。
再者,人工智能在運用過程中,真的能實現(xiàn)就業(yè)公平嗎?由于人工智能(包括機(jī)器人)發(fā)展與廣泛應(yīng)用,現(xiàn)在人類許多工作可能會被人工智能所替代。這將意味著有更多的人將失去工作的機(jī)會,比如讓很多藍(lán)領(lǐng)工人和下層白領(lǐng)失去現(xiàn)有的工作崗位——這將形成人工智能生命倫理的第三重悖論:“公平”的生命倫理悖論。從生命倫理視域看,現(xiàn)在人從事工作,不僅是謀生的手段,也是生命存在的方式。因為工作帶給他們樂趣、創(chuàng)造力、內(nèi)在潛能的激發(fā)、在工作中與他人默契協(xié)作、頭腦風(fēng)暴而產(chǎn)生的相互支持、相互欣賞團(tuán)隊精神等等。這恰恰也是人之為人的意義所在。而由于失去工作,這是一種結(jié)構(gòu)性的失業(yè)——失業(yè)無商量。因而他們不僅失去謀生的機(jī)會,也失去維系生命的經(jīng)濟(jì)來源,更重要的是失去了一種作為生命展現(xiàn)的重要方式。因為據(jù)麥肯錫發(fā)布有關(guān)人工智能的報告稱,全球約50%的工作內(nèi)容可以通過改進(jìn)現(xiàn)有技術(shù)實現(xiàn)自動化[16]。那么如何安置失業(yè)人員?如何調(diào)適社會與人,人與人工智能的關(guān)系?僅僅從技術(shù)的物性層面考量是難以奏效;退一步說,即使從技術(shù)的物性層面獲得一定的成效,也只能是權(quán)宜之計——緩解當(dāng)下,卻難以產(chǎn)生長期效應(yīng);與此同時,這種權(quán)宜之計可能又引發(fā)新的就業(yè)問題。這樣便是對人的生存方式,進(jìn)而是對人存在意義的嚴(yán)峻挑戰(zhàn)。
面對人工智能的生命倫理的三重悖論,須追問其何以產(chǎn)生?這就需要思考康德的第三之問——“我可以希望什么?”康德指出,“第三個問題,即:如果我做了我應(yīng)當(dāng)做的,那么我可以希望什么?這是實踐的同時又是理論的”。因為“一切希望都是指向幸福的,并且它在關(guān)于實踐和道德律方面所是的東西,恰好和知識及自然律在對事物的理論認(rèn)識方面所是的是同一個東西”[2]612。即一切希望指向幸福,必須是或者應(yīng)該是合規(guī)律性(自然律)與合目的性(道德律)的統(tǒng)一。由于“幸福是對我們的一切愛好的滿足”,因而“出自幸福動機(jī)的實踐規(guī)律我稱之為實用規(guī)律(明智的規(guī)則)”,因此“它在動機(jī)上沒有別的,只是要配得上幸福,那我就稱它為道德的(道德律)”[2]612。值得注意的是,康德在此特別強(qiáng)調(diào)“配得上幸?!?就稱為道德的(道德律),這里凸顯的是道德與幸福即德福的一致性。黑格爾曾指出,“具有拘束力的義務(wù),只是對沒有規(guī)定性的主觀性或抽象的自由、和對自然意志的沖動或道德意志(它任意規(guī)定沒有規(guī)定性的善)的沖動,才是一種限制。但是在義務(wù)中個人毋寧說是獲得了解放。”[17]這可以看作是對康德德福的一致性思想的最好詮釋。由此,我們必須追問發(fā)展人工智能的初衷(初心)即發(fā)展人工智能“可以希望什么”?是不是為了滿足或者增進(jìn)人類的幸福?它在動機(jī)上是不是道德的,或者說符合康德所說的道德律?如果是符合的,為什么會產(chǎn)生人工智能生命倫理三重悖論?
首先,通過追問人類發(fā)展人工智能目的是什么?或者說發(fā)展人工智能“可以希望什么”?須探察人工智能的發(fā)展歷史之維,我們發(fā)現(xiàn),人們本來一開始是想用人工智能體代替人做一些事情[14],比如被譽為人工智能之父的麥卡錫認(rèn)為“人工智能”一詞與人類行為幾乎毫無關(guān)系,它唯一可能暗示的是機(jī)器可以去執(zhí)行類似人類執(zhí)行的任務(wù)[18]。 20世紀(jì)70年代許多新方法被用于人工智能開發(fā),比如,如何通過一副圖像的陰影、形狀、顏色、邊界和紋理等基本信息辨別圖像,通過分析這些信息,可以推斷出圖像可能是什么。到20世紀(jì)80年代,人工智能發(fā)展得更為迅速,不僅進(jìn)入商業(yè)領(lǐng)域,而且在“沙漠風(fēng)暴”行動中,人工智能技術(shù)在軍方的智能設(shè)備經(jīng)受了戰(zhàn)爭的檢驗,即人工智能技術(shù)被用于導(dǎo)彈系統(tǒng)和預(yù)警顯示以及其他先進(jìn)武器。與此同時,人工智能技術(shù)也進(jìn)入了家庭;智能電腦的增加吸引了公眾興趣。由于人工智能技術(shù)簡化了攝像設(shè)備,進(jìn)而促使人們對人工智能相關(guān)技術(shù)有了更大的需求。這樣,人工智能已經(jīng)并且不可避免地在諸多方面改變了我們的生活。由此可見,從一開始對于發(fā)展人工智能的定位就是“執(zhí)行類似人類執(zhí)行的任務(wù)”,缺乏康德所說的道德律規(guī)定,或者說無論是對于人工智能的需求領(lǐng)域頂層設(shè)計與規(guī)劃,還是對于人工智能算法的頂層設(shè)計中,其生命倫理原則或者沒有完全被納入其中,或者被弱化、式微甚至缺位,因而不可避免地生產(chǎn)了上述人工智能生命倫理三重悖論,即產(chǎn)生了合規(guī)律性(自然律)與合目的性(道德律)性的失衡,道德與幸福即德福的背離。
其次,我們循此須進(jìn)一步追問人工智能的需求領(lǐng)域頂層設(shè)計與規(guī)劃、人工智能算法的頂層設(shè)計的生命倫理原則為什么沒有完全被納入其中,或者被弱化、式微甚至缺位?僅僅探察人工智能發(fā)展的歷史之維是遠(yuǎn)遠(yuǎn)不夠的。因為人工智能發(fā)展的歷史之維只是向我們展開了其是其所是的現(xiàn)狀,因此還須進(jìn)一步探究其生命倫理原則為什么沒有完全被納入其中,或者被弱化、式微甚至缺位的動力之維,即人類發(fā)展人工智能目的的內(nèi)驅(qū)力是什么?正如康德所說,“我可以希望什么?這是實踐的同時又是理論的”[2]612。如果說人工智能發(fā)展的歷史之維是是其所是的實踐之維,那么,探究人類發(fā)展人工智能目的的動力之維,則是蘊含了探究其何以是其所是理論維度。
人類發(fā)展人工智能的目的與人工智能所能帶來的利益密切相關(guān)。正如馬克思曾經(jīng)指出那樣,“人們?yōu)橹畩^斗的一切,都同他們的利益有關(guān)”[19]。再就利益而言,有短期利益和長遠(yuǎn)利益之別,有局部利益和全局利益之分,亦有個人利益與集體利益、國家利益的關(guān)系,還有私人利益與公共利益的關(guān)系。在當(dāng)前市場經(jīng)濟(jì)條件下,受資本邏輯(盈利為目的)運作的影響在所難免。人工智能的發(fā)展也不能幸免,加之人工智能的發(fā)展和運用前景廣闊,雖然風(fēng)險高,利潤也十分可觀,因而吸引了許多投資商為了獲得利潤的最大化而競相博弈、相互競爭。與此同時,人工智能研究也激發(fā)了眾多科技人員的好奇心,他們渴望在這一領(lǐng)域開疆拓土,一展才華,一方面可以開拓和研究其中可能存在的眾多新課題,另一方面能進(jìn)一步拓展其在經(jīng)濟(jì)、文化、醫(yī)療衛(wèi)生、教育、體育等諸多應(yīng)用領(lǐng)域的研發(fā)。由于眼前的短期利益、局部利益、個人利益或私人利益等多重利益的交織、誘惑、競爭與博弈,加之資本邏輯的操控,其思維底線很難把控,與之相關(guān)的長遠(yuǎn)利益、全局利益、集體利益與公共利益等往往會被輕視甚至被忽略,進(jìn)而導(dǎo)致合規(guī)律性(自然律)與合目的性(道德律)失衡,道德與幸福即德福背離,人工智能生命倫理三重悖論便蘊涵于其中。
如何應(yīng)對上述的三重人工智能生命倫理悖論,堅持合規(guī)律性(自然律)與合目的(道德律)的統(tǒng)一、道德與幸福即德福的統(tǒng)一?須思考康德在《邏輯學(xué)講義》中提出的第四個,也是最后一個問題“人是什么?”這是康德在《純粹理性批判》中提出三個問題,并且完成了三大批判即《純粹理性批判》《實踐理性批判》《判斷力批判》的哲學(xué)體系建構(gòu)以后提出的[20]。在康德看來,“人是什么?”是一個人類學(xué)的問題。而前三個問題(即“我能知道什么?”“我應(yīng)當(dāng)做什么?”“我可以希望什么?”)“都與最后一個問題有聯(lián)系”,“從根本上說,可以把這一切都看成是人類學(xué)”[3]。同樣,人工智能的生命倫理悖論,實際上是人的悖論。因為人在多重利益的交織、誘惑、競爭與博弈中和資本邏輯的操控下,已不能堅持合規(guī)律性(自然律)與合目的性(道德律)的統(tǒng)一、道德與幸福即德福的統(tǒng)一,不知應(yīng)該為人工智能選定什么樣的規(guī)則[21]。因此應(yīng)當(dāng)追問:人對于發(fā)展人工智能應(yīng)該有什么樣的擔(dān)當(dāng)?或者發(fā)展人工智能對于人的存在意義何在?或者說人之為人意義何在?為此,本文擬從以下三重維度提出相關(guān)的應(yīng)對方略。
首先,作為人工智能的設(shè)計者在人工智能的頂層設(shè)計維度方面,不僅關(guān)注人工智能“能做什么”,更應(yīng)該關(guān)注其“應(yīng)做什么”。為此,可以從我國傳統(tǒng)文化中汲取其生命倫理智慧,即以“愛人利物”之仁德(《莊子·外篇·天地第十二》),勿傷物道為倫理原則:“以天為宗,以德為本,以道為門,兆于變化”;“以仁為恩,以義為理,以禮為行,以樂為和”(《莊子·雜篇·天下第三十三》)。堅決抵制資本邏輯的操控,始終把人的生命安全和身體健康放在第一位[22]。正如施韋澤[23]所指出,“善是保持生命、促進(jìn)生命,使可發(fā)展的生命實現(xiàn)其最高的價值,惡則是毀滅生命、傷害生命、壓制生命的發(fā)展。這是必然的、普遍的、絕對的倫理原則?!蔽覀儜?yīng)當(dāng)將生命倫理的尊重人的生命與尊嚴(yán)、以人為本的原則,不傷害和有利的原則,公正公益的原則融匯到人工智能的頂層設(shè)計思想之中,并且融入算法——將生命倫理及其道德規(guī)范“‘寫入’技術(shù)物之中”[24]。歐盟委員會科技倫理高級專家組成員、荷蘭代爾夫特理工大學(xué)霍溫教授認(rèn)為,要明確包括認(rèn)知權(quán)、控制權(quán)、自由選擇權(quán)和隱私權(quán)等在內(nèi)的人的權(quán)利[25]。這對于人工智能的頂層設(shè)計來說,不僅是不可或缺,而且是至關(guān)重要的。
其次,作為人工智能的設(shè)計者,在人工智能的思維策略維度方面,須堅持底線思維——計算人工智能的風(fēng)險,其中不僅包括技術(shù)方面的風(fēng)險,而且包括人工智能開發(fā)與運用帶來或者引發(fā)的經(jīng)濟(jì)—社會—人們生活、就業(yè)等方面的倫理風(fēng)險[26],須估算可能出現(xiàn)的最壞情況。《禮記·中庸》曰:“凡事豫則立,不豫則廢。言前定則不跲,事前定則不困,行前定則不疚,道前定則不窮?!边@就是說,做任何事情,事前有準(zhǔn)備就可以成功,沒有準(zhǔn)備就會失敗。就人工智能開發(fā)與運用而言,不僅存在當(dāng)下的技術(shù)風(fēng)險和經(jīng)濟(jì)—社會—人們生活、就業(yè)等方面的倫理風(fēng)險,而且隱含了未來未知的、不確定的經(jīng)濟(jì)—社會—人們生活、就業(yè)等方面的倫理風(fēng)險。因而,只有堅持底線思維,才能“慎終如始”。只有事先估算人工智能可能出現(xiàn)的最壞情況即各類風(fēng)險,才能克服恐懼心理,制定應(yīng)對相關(guān)風(fēng)險的技術(shù)—倫理策略。由于人工智能的學(xué)科范疇是自然科學(xué)和人文社會科學(xué)的交叉,因而制定應(yīng)對相關(guān)風(fēng)險的技術(shù)—倫理策略,須構(gòu)建既有科學(xué)家與工程技術(shù)人員參與,又有倫理學(xué)家、社會學(xué)家、法學(xué)家、心理學(xué)家等多方面專家參與研究團(tuán)隊,多層次、多視域綜合探索人工智能系統(tǒng)可能存在的安全隱患和倫理風(fēng)險等問題,構(gòu)建相關(guān)的控制機(jī)制,提出有效應(yīng)對的倫理策略,建立健全相關(guān)的法律法規(guī)與應(yīng)急方略。與此同時,在全球化時代,還須建立全球協(xié)商機(jī)制,以共同應(yīng)對人工智能可能帶來的全球性的多重倫理風(fēng)險。
再者,無論作為人工智能的設(shè)計者,還是作為人工智能的應(yīng)用者,都須用好人工智能的“最大增量”。人工智能與互聯(lián)網(wǎng)相輔相成:要用好互聯(lián)網(wǎng)這個“最大增量”[27],離不開人工智能的開發(fā)應(yīng)用。要將網(wǎng)絡(luò)安全“變量”變?yōu)樵隽恳搽x不開人工智能的安全控制系統(tǒng)的構(gòu)建,進(jìn)而有效提升社會治理水平和智慧城市管理服務(wù)系統(tǒng),增進(jìn)人們的網(wǎng)絡(luò)安全感和幸福生活指數(shù)。
總之,上述關(guān)于人工智能的生命倫理悖論及其應(yīng)對方略的探討還是初步的,因為人工智能給生命倫理帶來的挑戰(zhàn)是全方位的,同時也大大拓展了生命倫理的研究空間,推進(jìn)了生命倫理學(xué)學(xué)科的發(fā)展。因而生命倫理學(xué)不僅僅要關(guān)注生物醫(yī)學(xué)、基因編輯等相關(guān)領(lǐng)域的倫理問題,還須關(guān)注當(dāng)代科技發(fā)展的最新領(lǐng)域——人工智能及其與之相關(guān)的網(wǎng)絡(luò)、信息科學(xué)、大數(shù)據(jù)等的最新發(fā)展中凸顯的倫理問題和一系列生命倫理危機(jī)、生命倫理風(fēng)險,進(jìn)而可以從生命倫理學(xué)視域提出相關(guān)的具有前瞻性的應(yīng)對策略,推進(jìn)人工智能及其與之相關(guān)的網(wǎng)絡(luò)、信息科學(xué)、大數(shù)據(jù)等當(dāng)代新科技的健康發(fā)展。