閔 明
(上海師范大學(xué) 哲學(xué)與法政學(xué)院,上海 200234)
隨著人工智能的發(fā)展,人們對(duì)于人工智能的關(guān)注與依賴逐漸增多,而在人機(jī)交互關(guān)系中,人工智能所帶來(lái)的各種問(wèn)題也隨之增加,如何處理與人工智能的關(guān)系成為新的關(guān)注點(diǎn)。其中,我們需要解決一些復(fù)雜的問(wèn)題,如人類是否要賦予人工智能自我更新、自我學(xué)習(xí)的能力?是否要以人類的道德規(guī)范來(lái)約束人工智能的一切行為?若需要,那么嵌入的道德規(guī)范具體內(nèi)容為何?或者說(shuō)要以何種道德規(guī)范來(lái)約束人工智能的一切行為?諸如此類問(wèn)題層出不窮,而問(wèn)題的關(guān)鍵還是人類自身如何看待道德的問(wèn)題,在辨明這一基礎(chǔ)性問(wèn)題之后,才能根本解決發(fā)展人工智能遇到的倫理問(wèn)題,所以有必要以人工智能的倫理問(wèn)題為切口,回復(fù)到對(duì)道德問(wèn)題最原初的討論中去。
討論人工智能的應(yīng)用問(wèn)題,需要澄清兩個(gè)基礎(chǔ)概念,即什么是人工智能與道德規(guī)范。對(duì)于前者學(xué)界仍處于討論階段,概因AI科技的發(fā)展還處于初級(jí)階段,很多重大的技術(shù)融合與場(chǎng)景應(yīng)用尚屬闕如。盡管如此,我們?nèi)钥稍诂F(xiàn)有科技呈現(xiàn)的場(chǎng)域內(nèi),對(duì)人工智能做出當(dāng)下概念澄清。何為人工智能?1936年阿蘭·圖靈(Alan Mathison Turing)提出了關(guān)于“圖靈機(jī)”的概念,其后“人工智能”(Artificial Intelligence,AI)的專業(yè)術(shù)語(yǔ)首次出現(xiàn)在了1956年的達(dá)特茅斯會(huì)議上,但直到現(xiàn)在學(xué)界未達(dá)成對(duì)人工智能這一概念的統(tǒng)一定義,美國(guó)斯坦福大學(xué)的尼爾遜(Nilson)教授認(rèn)為:“人工智能是關(guān)于知識(shí)的學(xué)科—怎樣表示知識(shí)以及怎樣獲得知識(shí)并使用知識(shí)的學(xué)科?!盵1]麻省理工大學(xué)的溫斯頓(Winston)教授認(rèn)為:“人工智能是研究如何使計(jì)算機(jī)去做過(guò)去只有人才能做的智能的工作?!盵2]當(dāng)然關(guān)于人工智能的定義很多,概括來(lái)說(shuō)人工智能是指用人工的方法技術(shù),模仿、延伸和擴(kuò)展人的智能,實(shí)現(xiàn)機(jī)器的智能化。從廣義的角度看,情感是一種特殊的認(rèn)識(shí),意志又是一種特殊的情感,廣義的人工智能包括狹義人工智能、人工情感與人工意志三個(gè)方面[3]。
討論人工智能的倫理問(wèn)題,還需明晰什么是道德規(guī)范。道德規(guī)范就是一定社會(huì)認(rèn)可并確立的用以調(diào)整社會(huì)道德關(guān)系的行為準(zhǔn)則,也就是判斷、評(píng)價(jià)人們行為善惡的基本價(jià)值標(biāo)準(zhǔn)……道德規(guī)范總有特定的客觀的社會(huì)基礎(chǔ),也體現(xiàn)著特定的社會(huì)意愿和意志。[4]道德規(guī)范是對(duì)人實(shí)踐行為的約束力量,它某種程度上體現(xiàn)社會(huì)總體的規(guī)范要求,也體現(xiàn)全體公民對(duì)理想人際狀態(tài)的向往,但是道德并不是天然存在于全體社會(huì)成員中的,人們通過(guò)社會(huì)生活、自我道德修養(yǎng)形成高低不同的德性品質(zhì),所以人的道德境界有高低差別,這是文明社會(huì)內(nèi)最實(shí)際的道德狀態(tài),即道德規(guī)范隨文明發(fā)展不斷形成與更新,而人們生長(zhǎng)其中,并形成不同的道德品格。
伴隨人工智能發(fā)展的同時(shí),“人工智能威脅論”也隨之盛行。誠(chéng)然,人工智能為人類帶來(lái)越來(lái)越便捷、高效的生活,但同時(shí)隱藏在背后的安全問(wèn)題也不容忽視,其中一個(gè)非常核心的問(wèn)題在于,人工智能的全部行為是否能以人類現(xiàn)行的道德規(guī)范進(jìn)行約束,在此基礎(chǔ)之上是否可以期待其行為符合人類的利益。倘若在人工智能的核心算法中嵌入人類的行為約束規(guī)范,那么是否說(shuō)明人工智能獲得了人格確認(rèn)呢?我們知道,道德可理解為“道理得之于心”,這里的道理是為人倫之理,即“人與人的關(guān)系的道理或準(zhǔn)則”。[5]倫理道德是用于處理人與人之間關(guān)系的道理,當(dāng)然隨著社會(huì)的進(jìn)步,人類對(duì)于生存世界的思考不斷深入,倫理學(xué)所探討研究的范圍也進(jìn)一步擴(kuò)大,我們不再拘泥于人際關(guān)系,人們不再緊守人類中心主義不放,開始思考如何處理與動(dòng)物、植物等自然界一切生命的關(guān)系問(wèn)題,在當(dāng)代,隨著人工智能的日益發(fā)展,如何合理處理人機(jī)關(guān)系問(wèn)題顯得尤為迫切。
史蒂芬·霍金、比爾·蓋茨、埃隆·馬斯克等都對(duì)人工智能的未來(lái)抱有憂患態(tài)度,對(duì)于人工智能的作用似乎可以預(yù)見(jiàn),在很多領(lǐng)域中人工智能已經(jīng)替代人類完成很多高難度工作,問(wèn)題是如果賦予了人工智能自我學(xué)習(xí)、完善的能力,人類能否保持對(duì)人工智能的控制權(quán)呢?而一旦失去控制,人工智能將擁有人類無(wú)法達(dá)到的優(yōu)勢(shì),最后所面臨的將是人與機(jī)器之間的戰(zhàn)爭(zhēng),電影《終結(jié)者》中的情節(jié)也非杞人憂天。埃隆·馬斯克(Elon Musk)將人工智能稱之為“召喚惡魔”,“越來(lái)越多的人開始對(duì)人工智能帶來(lái)的威脅感到恐懼。據(jù)英國(guó)的一項(xiàng)社會(huì)調(diào)查顯示,有將近80%的人認(rèn)為,在未來(lái)的100年以內(nèi),人工智能將會(huì)對(duì)人類的生存產(chǎn)生威脅……霍金則更加直接地表示,在未來(lái)的一段時(shí)間內(nèi),人工智能繼續(xù)發(fā)展,這種重大技術(shù)的災(zāi)難將會(huì)威脅到人類的發(fā)展和生存。”[6]比爾·蓋茨說(shuō):“我屬于擔(dān)心超級(jí)智能的陣營(yíng)。最初機(jī)器可以為我們做很多事情,而非超級(jí)智能。如果我們能夠管理好它,它應(yīng)該可以發(fā)揮積極作用。但是數(shù)十年后,人工智能將變得足夠聰明,值得我們?nèi)?dān)憂?!盵7]思想家瓦托夫斯基說(shuō):“一方面知道科學(xué)是理性和人類文化的最高成就,另一方面又害怕科學(xué)業(yè)已變成一種發(fā)展得超出人類的控制的不道德的和無(wú)人性的工具,一架吞噬著它面前的一切的沒(méi)有靈魂的兇殘機(jī)器?!盵8]這一領(lǐng)域有相當(dāng)一部分專家學(xué)者對(duì)人工智能的發(fā)展表現(xiàn)出擔(dān)憂的態(tài)度,認(rèn)為未來(lái)AI似乎會(huì)完全戰(zhàn)勝并取代人類,而幾年前引人注目的AlphaGo大敗圍棋高手柯潔正驗(yàn)證著人們的擔(dān)憂。
面對(duì)這種擔(dān)憂,人類政府積極制定人工智能的倫理規(guī)范,隨著倫理學(xué)的研究領(lǐng)域漸漸拓寬到人工智能領(lǐng)域,相關(guān)的研究文獻(xiàn)也越來(lái)越多。中國(guó)也積極關(guān)注并思考構(gòu)建人工智能的倫理規(guī)范。2017年國(guó)務(wù)院發(fā)布了《新一代人工智能發(fā)展規(guī)劃》,規(guī)劃首次正式提出了“開展人工智能行為科學(xué)和倫理等問(wèn)題研究”,“制定促進(jìn)人工智能發(fā)展的法律法規(guī)和倫理規(guī)范”。2018年1月,國(guó)家標(biāo)準(zhǔn)化管理委員會(huì)發(fā)布了中國(guó)《人工智能標(biāo)準(zhǔn)化白皮書2018》,我國(guó)政府已經(jīng)認(rèn)識(shí)到人工智能發(fā)展的種種問(wèn)題,其中構(gòu)建人工智能倫理規(guī)范問(wèn)題已經(jīng)迫在眉睫,而人工智能發(fā)展涉及到的學(xué)科極為繁復(fù),其中的艱難頗多,在道德哲學(xué)視域下,規(guī)范人工智能的行為成為需要關(guān)注的核心問(wèn)題。
人工智能產(chǎn)品的各種行為設(shè)定首先要符合人的利益,目的在于從根本上要保障人類的安全。技術(shù)層面使人工智能擁有道德不是本文所要關(guān)注的,我們需要前瞻性地去討論應(yīng)當(dāng)由什么人賦予人工智能以道德規(guī)范、賦予人工智能什么樣的規(guī)范。不論以何種形式使人工智能擁有道德規(guī)范,都需要解決這種“賦予”應(yīng)當(dāng)由誰(shuí)來(lái)實(shí)現(xiàn)的問(wèn)題,是由智能機(jī)器的建造者嗎?如果由某一個(gè)或者某一群的仍智能建造者來(lái)賦予其道德規(guī)范,那么所賦予的規(guī)范是誰(shuí)的規(guī)范,是建造者所奉行的道德規(guī)范嗎?前文提到了,社會(huì)個(gè)體之間是存在著道德差異的,那么如果某一智能機(jī)器的制造者的道德與社會(huì)存在嚴(yán)重偏差,那么在他手中誕生的人工智能便可能會(huì)危害社會(huì)。如果將賦予人工智能以道德規(guī)范的權(quán)利讓渡給政府呢?這里需要追問(wèn)的是,這里的政府是什么政府,是以各個(gè)國(guó)家為單位的政府,還是一個(gè)代表人類全體的政府。眾所周知,各國(guó)各地區(qū)的政府所代表的群體也存在差異,所遵照的道德規(guī)范也有所不同,那么若以各國(guó)政府為單位,對(duì)本國(guó)人工智能賦予道德規(guī)范,是否會(huì)因此而造成人工智能在國(guó)別上的對(duì)立沖突,所以訂立全球的標(biāo)準(zhǔn)是一件尤為重要的事情。
似乎理論上關(guān)于人工智能賦予道德規(guī)范問(wèn)題并不是很難,只需要訂立全球標(biāo)準(zhǔn),但只要深究就會(huì)發(fā)現(xiàn),統(tǒng)一標(biāo)準(zhǔn)的問(wèn)題是一件人類數(shù)千年都未完成的事情,從倫理學(xué)的歷史演變軌跡看,目的論倫理學(xué)、德性論倫理學(xué)、義務(wù)論倫理學(xué)所追求的最高“善”(好)是不同的,當(dāng)前學(xué)界也未能界定出什么是最高的“善”(好),也就是說(shuō)“人類的最高目的是什么”我們并不能確定。從個(gè)人來(lái)說(shuō),有人追求物質(zhì)滿足,并以此為最高的善;有人追求名譽(yù),以此為最高善;有人向往精神的絕對(duì)平靜,并以此為一切行為的最終歸宿……可以說(shuō)因?yàn)閭€(gè)體的差異性,所以我們并不能界定出一個(gè)總的道德原則,也不能以此形成所有人都遵行的道德規(guī)范體系。所以難點(diǎn)就在于,我們需要安全的使用人工智能來(lái)服務(wù)人類,但是我們卻并不能制定出一致認(rèn)可的用于限制人工智能算法行為的道德規(guī)范。
阿西莫夫在其《我,機(jī)器人》一書中提出了“機(jī)器人三定律”:第一定律:機(jī)器人不得傷害人類個(gè)體,或者目睹人類個(gè)體將遭受危險(xiǎn)而袖手不管;第二定律:機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時(shí)例外;第三定律:機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存。后來(lái)意識(shí)到三定律的漏洞,阿西莫夫又添加了第零定律:機(jī)器人必須保護(hù)人類的整體利益不受傷害。如前所述,道德規(guī)范本身難以形成全球標(biāo)準(zhǔn),三定律中提到的人類整體利益也是難以界定的,以“電車難題”為例,一個(gè)人和幾個(gè)人的利益誰(shuí)高誰(shuí)低難以簡(jiǎn)單界定,所以歸根到底還是要回到道德規(guī)范的制定上。
即使我們解決了道德規(guī)范的統(tǒng)一問(wèn)題,那么接下來(lái)還要面對(duì)一個(gè)棘手的問(wèn)題:在同一道德體系之下,還存在不同規(guī)范之間的沖突問(wèn)題,這便是我們經(jīng)常遇到的“道德困境”。面對(duì)道德困境,需要豐富的實(shí)踐智慧幫助我們進(jìn)行道德選擇,而良好的道德選擇便是儒家所說(shuō)的達(dá)致“中道”。比如上面提到的“電車難題”,在面對(duì)個(gè)體與群體利益沖突時(shí),人工智能應(yīng)當(dāng)如何選擇?如果更進(jìn)一步加強(qiáng)選擇的難度,在1位知名科學(xué)家的生命和5位普通民眾的生命之間,應(yīng)該如何選擇?我們知道,功利主義者是追求絕大多數(shù)人的幸福主義,一般意義上說(shuō),利于群體的行為具有更高的優(yōu)先級(jí),行為最后結(jié)果的好壞成為判斷依據(jù),那么在賦予了智能機(jī)器這樣的道德規(guī)范之后,用不正當(dāng)?shù)氖侄?這種手段是與義務(wù)論者、美德主義者相違背的)帶來(lái)利于多數(shù)人的結(jié)果是否也能被接受?其本質(zhì)還是道德規(guī)范之間的沖突問(wèn)題。那么人工智能能否做出正確判斷,而這種正確是基于什么樣的判斷標(biāo)準(zhǔn)呢?人類是否能承受人工智能做出自主行為選擇的后果?再舉一個(gè)極端案例,當(dāng)人工智能判斷當(dāng)下的地球人口數(shù)量過(guò)巨,不能支撐人類的生存繁衍,那么基于人類整體,就會(huì)出現(xiàn)人工智能通過(guò)屠殺一部分人類以實(shí)現(xiàn)理想人口數(shù)量的情況??梢灶A(yù)見(jiàn)的是,以上情形如果是基于功利算法并非不會(huì)出現(xiàn)。所以說(shuō)規(guī)范本身的訂立是一個(gè)極為艱巨的任務(wù),人工智能所涉及的學(xué)科又是如此的復(fù)雜,這為人工智能的發(fā)展帶來(lái)巨大難題。
其一,人工智能所當(dāng)遵循的道德規(guī)范不可能是某一個(gè)人或者某幾個(gè)人來(lái)確定,所以必須訂立適用于一定范圍的標(biāo)準(zhǔn)。無(wú)論是基于義務(wù)論判斷,還是基于功利主義判斷,亦或是基于美德論判斷,我們都應(yīng)當(dāng)根據(jù)不同群體需要,制定出針對(duì)人工智能的標(biāo)準(zhǔn),畢竟相對(duì)于制定人類統(tǒng)一的道德標(biāo)準(zhǔn)來(lái)說(shuō)這要容易得多。否則,產(chǎn)生于不同利益群體的人工智能也會(huì)形成“派別”,結(jié)果是為各自背后的人類群體的利益而“各行其是”。當(dāng)前全球競(jìng)爭(zhēng)態(tài)勢(shì)下,我們并不奢求于達(dá)成具有普世意義的道德規(guī)范體系,但是因?yàn)槿祟愃餐ǖ牡赖虑楦?“同情”概念),使得我們可以達(dá)成某些普遍認(rèn)可的道德準(zhǔn)則,比如人們都有追求“美好”生活的意愿,從這一意義上來(lái)看,我們能夠有邊界地制定出廣泛認(rèn)可的AI行為準(zhǔn)則(雖然不是全部意義上的行為準(zhǔn)則)。
其二,我們還應(yīng)該思考能否開放人工智能在道德領(lǐng)域的自我學(xué)習(xí)與自我更新能力。有學(xué)者提出:“如何培養(yǎng)人工智能倫理,使它具有可靠性,應(yīng)當(dāng)采用心理學(xué)家的方法——讓人工智能意識(shí)到自己,還有人類的環(huán)境,然后讓其接觸日常生活中錯(cuò)綜復(fù)雜的道德問(wèn)題,以此來(lái)獲取經(jīng)驗(yàn),逐漸形成人工智能的倫理化?!盵9]似乎人工智能可以通過(guò)學(xué)習(xí)獲得人類的道德規(guī)范,但這一想法無(wú)疑是難以實(shí)現(xiàn)的。倪梁康認(rèn)為:“建立在后天習(xí)得基礎(chǔ)上的道德判斷,只能是先天道德本能的補(bǔ)充”,人的“本性中一開始就蘊(yùn)涵著善的能力”。[10]人具備一種道德本能,而這種本能是AI難以先天擁有的,在此理論基礎(chǔ)上,即使AI具有道德的學(xué)習(xí)能力,也難以發(fā)展出人類的道德情感?!跋冗M(jìn)的機(jī)器一旦出現(xiàn),其自身的進(jìn)步將傳給其余AI(人工智能):它們也將指數(shù)式進(jìn)步?!盵11]基于人類社會(huì)的安全性考慮,我們極有必要對(duì)人工智能的行為加以把控、約束。越來(lái)越多專家試圖使AI擁有人類的思考方式,以使智能機(jī)器是用于服務(wù)而非危害人類,而一旦賦予人工智能以自主選擇行為的能力,使其可自主定義行為,這將會(huì)帶來(lái)前所未有的混亂,因?yàn)槲覀儾⒉荒茉诩夹g(shù)上保證人工智能自主所學(xué)后產(chǎn)生的行為皆有利于人類,所以這樣的做法非常危險(xiǎn)且應(yīng)當(dāng)禁止。因?yàn)榧夹g(shù)上的復(fù)雜性,開放人工智能的自我學(xué)習(xí),會(huì)導(dǎo)致整個(gè)人工智能倫理化的不可控,極端狀況下可能會(huì)給人類帶來(lái)滅頂之災(zāi),人工智能作為人類智慧的產(chǎn)物,不應(yīng)該游離于人類控制之外。道德屬于人類所有,就目前的科技來(lái)看,再逼真的模仿終究難以脫離機(jī)械屬性,故而應(yīng)該否定AI道德的自主獲取,將AI的行為規(guī)范設(shè)定交由人類完成。
人工智能歸根結(jié)底是人化物,一切研究的出發(fā)點(diǎn)和應(yīng)用歸宿都應(yīng)該是人類自身,如果單純追求技術(shù)進(jìn)步,而不去考慮人類自身的發(fā)展、存續(xù),那么這才是真正地打開了“潘多拉魔盒”。雖然人工智能延展了人的感官,使人們開始討論后現(xiàn)代中新的生存樣態(tài),也為未來(lái)社會(huì)建構(gòu)提供全新的可能,但蘊(yùn)含在人工智能技術(shù)中的倫理問(wèn)題當(dāng)是最先在的問(wèn)題,不應(yīng)該是技術(shù)發(fā)展迫使我們進(jìn)行相關(guān)談?wù)?,而是需要我們前瞻性地在科技發(fā)展過(guò)程中就給出符合人類利益的解決辦法。人工智能的倫理問(wèn)題歸根結(jié)底是人類自身如何對(duì)待道德的問(wèn)題,它的發(fā)展方向取決于是否達(dá)成群體性道德共識(shí),并使之應(yīng)用于人工智能技術(shù)之中??萍急旧硪灿械赖拢?yàn)楸澈蟮娜耸堑赖碌娜?,是存在于現(xiàn)代文明中的人。人工智能對(duì)現(xiàn)代化的推動(dòng)無(wú)可置疑,但其應(yīng)用邊界、行為的標(biāo)準(zhǔn)等問(wèn)題尚需進(jìn)一步討論。