国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能時代機器道德的可能性追問

2019-02-17 03:12:28吳興華
常州大學學報(社會科學版) 2019年1期
關鍵詞:威脅論人機機器

吳興華

隨著人工智能技術取得全方位的突破,我們迎來了人工智能時代。今天,人工智能已走進尋常百姓的生活,并給人們帶來巨大的福利。然而,人類在享受福利的同時,卻又擔憂因人工智能的道德缺失而帶來的,如“電車困境”和“人工智能算法歧視”等道德風險?!叭斯ぶ悄芡{論”的盛行,就是這種擔憂的體現(xiàn)。正如狄更斯所言:這是最好的時代,這是最壞的時代;這是智慧的時代,這是愚蠢的時代。在這個既好又壞的時代,我們?nèi)绾巫寵C器既能為人類創(chuàng)造更多的福利,而又不至于傷害人類,即人與機器如何實現(xiàn)最優(yōu)化的相處,這無疑成為人工智能研究者們關注的一個焦點。如美國人工智能和神經(jīng)科學倫理學專家溫德爾·瓦拉赫就提出,設計一種人工道德智能體(AMAs),讓機器擁有倫理道德。這種機器道德思想的提出,在學術界也引起了不小反響,而關于人工智能倫理道德的研究也成為學術界研究的一個熱點。但問題是,機器道德的思想果真合理嗎?機器真的能夠擁有道德?這些問題不僅關系到人們對人機關系本質的認識,而且也關系到人對自我的認識,因而,只有正確認識這些問題,才有望消除人類對機器的擔憂,實現(xiàn)人機真正的和諧相處。

一、機器道德:人工智能時代倫理道德的擴展

倫理道德問題原本屬于社會問題,即主要探討人與人之間的相處關系。正因如此,倫理(ethics)一詞,無論是在西方還是東方,都擁有濃厚的社會內(nèi)涵。如希臘文中作為ehhics之根的ethos就與拉丁文mores一樣,都表示風俗與習慣。而我國古代,更是把倫理視為人們應該遵循的行為準則,如“三綱五?!钡???梢姡瑐惱淼赖略臼怯脕韰f(xié)調(diào)人與人之間的關系,是人類社會的專屬,因而古代的倫理學也只關心人。然而,隨著近現(xiàn)代社會的發(fā)展,權利主體范圍不斷拓展,倫理學的范圍也在擴展和延伸。例如,環(huán)境倫理學的誕生,就同權利主體擴展到大自然這一情況密切相關。由于現(xiàn)代人對自然破壞的加重,自然開始向人類發(fā)起報復,這就迫使人類不得不思考和改善“人與大自然的關系”,要求尊重和保護大自然的權利。

如果說,環(huán)境倫理學是將人與人的倫理道德關系擴展到“關心動物、植物、巖石、甚至一般意義上的大自然或環(huán)境”[1]3,旨在解決人與周遭環(huán)境的關系,那么,今天,隨著人工智能的普及,人類又出現(xiàn)了一種新型的人與機器的關系(人機關系)。如何協(xié)調(diào)和處理人機關系?學界開始提出人工智能道德問題,希望以此來解決人機關系問題。所以說,人工智能道德問題的提出并非無稽之談,而是倫理道德向技術領域的一種擴展。

回顧人工智能的發(fā)展史,在20世紀50年代,人工智能還處于起步階段,后來遭遇了發(fā)展的寒冬,又經(jīng)歷了野蠻生長,最終人工智能迎來了自己的時代。其實,早期人工智能技術的出爐,只不過是一場“頭腦風暴”的產(chǎn)物。在20世紀50年代,一批頂尖學者在達特茅斯學院花園討論如何制造一臺“模擬人類各方面智能”的機器,這便是“人工智能”在人腦中的最初形態(tài)。在頂尖級大腦里,“人工智能”是受控于人的,“計算機只能按照編好的程序工作”[2]21,因而人工智能只不過是人類的機器奴仆。然而,經(jīng)歷了短短幾十年的發(fā)展,人工智能已走進工廠和尋常百姓家,人類也因人工智能而逐漸從繁重的體力勞動中解放出來。2015年,被譽為智能機器人元年,新一輪技術創(chuàng)新的浪潮正是因人工智能的發(fā)展而掀起。正因如此,“互聯(lián)網(wǎng)預言家”凱文·凱利認為:人工智能是未來20年最重要的技術;著名未來學預言家雷·庫茲韋爾更預言:2030年,人類將成為混合式機器人。

今天,隨著機器人的機動性、靈敏度以及智能的提高,機器戰(zhàn)士、機器教師、機器服務生的出現(xiàn),人工智能技術正在大規(guī)模地改變著我們的生活方式,因而,我們不禁要問:人工智能到底是天使抑或魔鬼?如果說,在人工智能技術發(fā)展的初期,人工智能研究的初衷只不過是用機器來代替人的體力勞動,將人從繁重的工作中解放出來,那么,在故事的開始就已埋下了隱患。因為隨著人類對于人工智能要求的增長,越來越高級的機器被創(chuàng)造出來,人類又開始擔憂機器將會取代人。其實,早在機器在生產(chǎn)領域中出現(xiàn)的時候,盧德主義(Luddism)者就曾因機器替代人導致工人失業(yè),而搗毀機器。在人工智能飛速發(fā)展的今天,人類更有理由擔憂這種科技的異化。美國思想家瓦托夫斯基就曾指出:“一方面知道科學是理性和人類文化的最高成就,另一方面又害怕科學業(yè)已變成一種發(fā)展得超出人類的控制的不道德的和無人性的工具,一架吞噬著它面前的一切的沒有靈魂的兇殘機器?!盵3]可見,這場解放似乎又是人類在作繭自縛。

其實,思想家和科學家們對于技術乃至今日人工智能雙面性的擔憂早已存在??刂普摰膭?chuàng)始人維納,早在1950年就曾在其著作《人有人的用處》中,認識到“人腦的貶值”。由于“我們沒有理由說機器不可以和人相似”[4],因而,人在與機器的博弈中就有可能會悲慘地出局。德國哲學家弗洛姆也曾指出:“人制造了像人一樣行動的機器,培養(yǎng)像機器一樣行動的人——有利于非人化的時代。在這個時代里,人被改造成為物,變成生產(chǎn)和消費過程的附屬品?!盵5]國際象棋大師卡斯帕羅夫敗給深藍,圍棋大師李世石敗給AlphaGo,這一切似乎又驗證了思想家和科學家們的擔憂。人們不禁要問:我們今天輸?shù)袅艘粋€象棋大師和一個圍棋大師,明天我們還會輸?shù)羰裁??今天,人與機器的關系已開始由“機器聽從于人的程序和指令”走向了“你必須適應機器人的需求,因為它不會順從你的需求”[2]37。隨著大數(shù)據(jù)技術的發(fā)展以及智能手機的廣泛運用,我們的生活似乎已慢慢被機器所掌控。人類要如何躲過這些危險的機械陷阱?如何阻止人工智能的反叛(從“仆人”到“主人”)?面對人工智能的瘋狂發(fā)展,人類似乎已身處兩難的困境。當然,人類要想辦法走出困境。正如李開復所言:“人類,要讓巨變這一標簽作為自己的腳注,而不是被動地成為它的注解?!盵2]序言:15那么,人類到底如何才能駕馭自己制造的這頭猛獸?正因如此,關于“機器道德”問題的思考便應運而生了。

在一個缺失人類特性,比如意識和情感的人工智能身上,我們又如何能期許它作出道德選擇呢?當然,隨著人工智能技術的發(fā)展,機器已經(jīng)能夠自主學習,從AlphaGo身上,人類看到了人工智能的自主性。然而,正如MIT的情感計算研究專家羅莎琳德·皮卡德所言:“機器越自由,就越需要道德準則。”[6]18為了在人工智能時代協(xié)調(diào)好人機關系,就需要機器具有道德。盡管大多數(shù)人已就此觀點形成共識,但按照近代哲學鼻祖笛卡爾的理解,“機器智能的想法在形而上學上是荒謬的”,“人類把機械的身體和非實物的心靈結合為完美協(xié)調(diào)的整體,但是實物的機器單獨永遠不可能有智能的特征”[6]49。所以說,機器是不可能有道德的。所謂道德機器,無非是人類倫理道德向機器的擴展。倫理學家施韋澤就曾認為人類道德要向其他領域擴展,并認為這種擴展不僅是合理的,更是必要的。他本人就“把闡述‘熱愛所有創(chuàng)造物的倫理學’的具體要求視為自己的終身職志”[1]71。

二、道德機器:人類的道德幻相

機器道德的提出,緣起于人類對人工智能技術發(fā)展的擔憂和恐慌,希望機器能夠擁有道德,從而使機器在服務于人類的同時,又不會傷害人類。這種思想,表面看來,是以賦予機器道德的方式,來實現(xiàn)人與機器的平等共處,但實際并非如此,它恰恰是一種人類自我中心思想的產(chǎn)物。人類自我中心思想,古已有之,它的存在自有其合理性。因為,任何一個物種都有自保的天性,“自我中心”本來就是萬物的本性。早在西方古希臘時代,智者普羅泰戈拉就曾宣稱道:“人是萬物的尺度,是存在者存在的尺度,也是不存在者不存在的尺度。”[7]而在中國古代《論語》中也有類似人類中心觀點的記載。孔子的馬棚失火了,孔子從朝中歸來,問“‘傷人乎?’不問馬”[8]。由此可見,自古以來,人類就以自己為中心來規(guī)劃世界,因而周遭的世界都是為“我”所用的。實際上,人工智能技術的發(fā)展,也是人類“外物為我所用”思想的產(chǎn)物。只是不曾想到,一架模擬自己思維的機器,卻已經(jīng)有了深度學習的能力,這不得不使人類擔憂:我們還能否控制和駕馭自己的制造物。美國思想家戴維·埃倫費爾德就曾在批判人道主義時指出:“盡管機器崇拜很流行,但機器并不特別好崇拜。我們的控制裝置里沒有道德或終極目的,甚至沒有個性?!盵9]這也就是說,我們雖然能夠模擬出人的思維,但我們無法使這架機器模擬人的道德。而機器的深度學習能力又無疑使機器有了自由意志,從而導致人類無法控制機器的行為。因此,道德機器(道德智能體)的提出,無非是出于人類的自保。道德是人類獨有的現(xiàn)象,它是屬于人的本能的東西,也是人與其他外物區(qū)分的一個重要標志。我們常說,沒有道德或失去道德,人類就是動物,反之,萬物都有道德,那也就沒有了獨一無二的人類。所以說,機器道德在思想和邏輯上是很難成立的。

既然機器擁有道德很難成立,那么,道德機器為何會受到學界的廣泛關注,且諸多學者還積極地探究如何制作道德智能體?當然,這顯然是將人工智能簡單地比附于人腦,以及對于意識特別是自我意識錯誤認識的結果。如維納的《控制論》一書,就“以數(shù)學為紐帶,揭示了機器的通信、控制機能與人的神經(jīng)、感覺機能的共同規(guī)律,突破了人機割裂的傳統(tǒng)觀念”[10]。按照維納的理解,既然機器與人存在共同規(guī)律,那么,我們完全可以制造一架擁有人的行為的機器。正是循著維納的思路,人們認為圖靈機的誕生已證實了機器完全可以模擬人腦的思維。如果說,圖靈機只是揭示了機器可以模擬人的思維,那么未來的人工智能就應該也能像庫茲韋爾所預言的那樣,它“可以超越自然的局限,并依照自身的意志改變世界”[11]1。既然機器有自由意志,那就必然涉及到機器行為的道德性問題。

其實,這里最為關鍵的問題是機器到底有沒有意識?如果機器有意識,那么它與人類的意識是否等同?有意識是否就意味著擁有道德?機器道德倡導者當然是認同機器意識的。但這種認同的問題在于,將人的意識庸俗化。如哲學家約翰·塞爾就曾說過:“意識是一個生物過程,和消化、哺乳、光合作用或有絲分裂一樣……大腦是一臺機器,確切地說是一臺生物機器,但是它自始至終都是一臺機器。所以我們首先要弄清楚大腦是如何產(chǎn)生意識的,然后再建造一個人工機器,這個機器要和人一樣,具有同樣能夠產(chǎn)生意識的有效機制?!盵12]顯然,它是將意識泛化了。然而,意識特別是自我意識是人類所獨有的,盡管人工智能擁有深度學習的能力,但并不代表它已具有了自我意識。我們完全可以將一些程序和指令輸入機器,但機器決不會擁有它的創(chuàng)造性,因為創(chuàng)造性是源自于人類的“意會知識”(波蘭尼語)。在波蘭尼看來,意會知識是一種個體知識,它是一種無法言明的東西,是人類創(chuàng)造性的源泉?!叭绻覀兊拇_是由注意到一些無法言明的事物而認知心理過程,那就意味著我們不可能制造出一臺能夠做出與我們據(jù)以認知這些心理反應完全相同的反應的機器。”[13]所以說,如果承認意識是心理創(chuàng)造的產(chǎn)物,那么超越人類,控制人類的機器就不可能誕生。按照蔡曙山對知識的分類來看,人類認知從初級到高級可以分為五個層級,即“神經(jīng)認知、心理認知、語言認知、思維認知和文化認知?!皟蓚€層級的認知即神經(jīng)認知和心理認知是人和動物共有的,稱為‘低階認知’,后三個層級的認知是人類所特有的,稱為‘高階認知’”[14]。這五個層次,人工智能都是望塵莫及的。新西蘭生物學家邁克爾·丹頓(Michael Denton)也曾認識到:機器設計原則跟生物學的某些原則存在著巨大的不同,生物形式只能從生物過程中創(chuàng)造,它具有“自我組織性、自我參考性、自我復制性、交互作用性、自我塑造性,以及整體性”[15],而這是機器所不曾擁有的。

不僅機器無法擁有人類相同的思想和意識,而且就道德本身而言,道德作為人的一種意識或思想觀念,它是社會的產(chǎn)物,而機器是不具有社會性的,正因如此,我們很難要求一架機器去作出社會性的道德選擇。即便如康德、邊沁、密爾等道德大家所推崇的“道德準則應為普世性的”[6]68這一基本觀點在特定情境的細節(jié)面前也會崩潰,更何況一架機器呢?機器道德論者,要求用道德準則來編程,從而制造道德智能體,然而,“這樣的道德準則應該是什么樣的?”[2]81機器會不會遵守?我們無從得知。所以說,道德智能體是不可能存在的,所謂的道德機器,也只不過是人類的道德幻相而已。

三、破除“人工智能威脅論”:從機器道德回歸人的道德

既然要求機器能夠擁有人類的道德,只是人類的一廂情愿,那么,如何來化解人機矛盾,消除人類對機器的擔憂呢?這需要我們正視“人工智能威脅論”。偉大的物理學家霍金曾指出:人工智能的進化速度會比人類更快,而它們的未來還不可預測。SpaceX公司創(chuàng)始人埃隆·馬斯克(Elon Musk)則認為AI可能會引發(fā)第三次世界大戰(zhàn)。卡普蘭更在《人工智能時代》一書中,將人工智能的威脅概括為三點:第一,人工智能可能會因為不受道德約束而威脅到人類的生命;第二,人工智能可能取代人類并奴役人類;第三,少數(shù)人掌控技術將拉大貧富差距。因而,應“讓魔鬼重回瓶子”。這些“人工智能威脅論”者,無疑是導致人們對于機器產(chǎn)生恐慌的始作俑者。然而,正如前文所述,將問題的解決寄望于道德智能體已不可能了,那要消除這種恐慌,實現(xiàn)人機和諧共處,唯有破除“人工智能威脅論”。

其實,“人工智能威脅論”是科技反思的產(chǎn)物,而這種反思在科學誕生之時就已開始。早期的“科技威脅論”是與科學相伴而生的。早在18世紀,啟蒙思想家盧梭就曾探討過科技與道德的關系。盧梭指出:“我們的靈魂正是隨著我們的科學和我們的藝術之臻于完美而越發(fā)腐敗?!盵16]盧梭的科技批判,可謂早期的“科技威脅論”。而現(xiàn)代性的批判者,更是對科技異化展開全面批判。法蘭克福學派代表人物馬爾庫塞,在《單向度的人》一書中,揭示發(fā)達工業(yè)社會是一個單向度的極權主義社會,認為造成極權的根源不是恐怖和暴力,而是技術的進步。在馬爾庫塞看來,在技術現(xiàn)實的領域內(nèi)“客觀世界正在被改造成一種工具。仍處在工具世界之外的部分——未征服的、蠻荒的自然——如今顯然處于科學技術進步力所能及的范圍之內(nèi)”[17]。這是典型的“科技威脅論”的現(xiàn)代工業(yè)版本。至于“人工智能威脅論”,也只不過是“科技威脅論”的當代升級版,因而并非什么新生事物。

不僅如此,“人工智能威脅論”在理論和邏輯上也是不成立的。首先,人工智能始終是“人工的”產(chǎn)物,即人創(chuàng)造了人工智能。而人的行為是有目的的,人類之所以制造出人工智能,是希望它為人類服務,這是人類制造人工智能的出發(fā)點。所以,50多年前,艾薩克·阿西莫夫(Isaac Asimov)就提出“機器人三大定律”:“1.機器人不可以傷害人;或者,通過不作為,讓任何人受到傷害。2.機器人必須遵從人類的指令,除非那個指令與第一定律相沖突。3.機器人必須保護自己的生存,條件是那樣做與第一、第二定律沒有沖突。”[6]1盡管人工智能歷經(jīng)了50年的發(fā)展,已取得巨大進步,但這三大定律卻一直不曾改變。所以,人工智能是超越不了人類的。其次,人工智能永遠是人類的他者,無法與人類平起平坐。既然人工智能是人工的產(chǎn)物,那它不僅永遠是人類的附庸,而且也不可能獲得作為萬物之靈的人類的靈性。如果我們出于對自己創(chuàng)造物異化的擔憂,非要強行使機器能夠與人類一樣行為,那么,這恰恰是人類對自我尊嚴的冒犯,也就是將自己降低到機器的層面。因為,作為人類社會現(xiàn)象的道德,一旦能夠存在于機器身上,如果哪一天真的誕生了能夠明辨是非的道德智能體,那恰恰是人類非人化時刻的到來。因此,21世紀最偉大的未來學家?guī)炱濏f爾預言奇點的出現(xiàn),實際上,就是宣判人類歷史的終結。由此可見,無論是使機器成為人,還是人成為機器,都是對人類的一種傷害。所以說,“人工智能威脅論”是不可信的,我們沒有必要,也沒有理由深陷人工智能道德的“高爾丁死結”之中。

“人工智能威脅論”盡管不成立,但它也確實向人類提出了一個重要的問題,即在人工智能時代,我們該如何解決人機矛盾。在“人工智能威脅論”看來,人類已沒有退路,我們無法退回到前智能時代,而現(xiàn)在唯一補救的方法就是制造出道德智能體,讓機器按照人類的道德標準行動?!叭斯ぶ悄芡{論”的倡導者馬斯克說:“既然我之前對人工智能的警告收效甚微,那么好的,我們自己來塑造(人工智能)的發(fā)展,讓它走向好的一面?!盵18]而這便是人機合一的“賽博格”(cyborg)。然而,正如前文所言,道德智能體思想的提出,不僅是沒有理論依據(jù)的,邏輯上也是不成立的,而且它沒有真正揭示出人工智能時代人機矛盾的實質。

其實,馬克思在探究異化問題時,就敏銳地洞察出科技異化的實質問題。實際上,科技異化論并沒有真正揭示出這種異化到底是科技的異化還是人的異化。今天的“人工智能威脅論”亦如此。我們知道,在馬克思看來,科技帶來的問題并非源自科技本身,而是源自挺立在科技背后的人。因而,在談機器問題時,馬克思認為機器以及機器統(tǒng)治人的奧秘,并不是“機器對人的統(tǒng)治”,其實質是人對人的統(tǒng)治。在資本主義社會,就是資本家利用或操控機器來對無產(chǎn)階級進行統(tǒng)治。所以說,是資本的邏輯掩蓋著科技與人之間的真實關系,因而要揭示人機之間的矛盾,同樣也只有回到人類自身,即機器道德問題其實折射出的是人類自我的道德問題。

回到問題的起始,機器道德的提出,根源是人類對于機器取代人的擔憂,或機器對人類自我尊嚴遭損害的擔憂。這里值得我們?nèi)ニ伎嫉氖牵何覀兊漠攧罩辈粦侨绾问箼C器擁有道德,而應是人類如何道德地看待和使用機器,即要從機器道德回到人的道德。由于機器是人類制造的,那人類就必須對機器行為負責。我們知道,作為人工產(chǎn)物的機器就猶如人類未成年的孩子,當孩子犯錯時,作為監(jiān)護人的家長就必須對孩子的行為負責。所以說,機器人的道德問題應該是人類的道德問題,作為機器人的監(jiān)護人,人類理應為機器的行為履行監(jiān)護的責任,而不是對機器提出道德要求。正因如此,計算機之父圖靈“并沒有專門思考機器道德問題,而是在思考計算機器到底能否產(chǎn)生原創(chuàng)性的行為的問題”[6]86。

既然機器道德最終還是人的道德,那么,今日人機矛盾的化解,更為恰當和實際的做法,不是制造道德智能體,而是強化人類自我道德的約束,畢竟,站在人工智能背后的,依然是活生生的人類道德主體。所以說,要使人工智能更好地服務于人類,實現(xiàn)“我們制造工具,而工具讓我們走得更遠”[11]270的愿望,我們就必須要轉變思維,從對機器道德的要求回歸到對人類自我道德的要求,在善待自己的同時,也善待機器。唯有如此,我們才能創(chuàng)造一個人機和諧共處的美好新時代。

四、結語

綜上所述,機器道德的提出,是“人工智能威脅論”者為避免未來機器人對人類的報復而采取的消極應對之策。然而,這種對策是無效的。首先,人工智能到底會不會取代人類?它又是如何取代人類的?這些都是無法確定的問題。因而,人工智能取代人類只不過是一種推測。問題的不明確性,無疑會使問題解決的方案變得無的放矢。其次,機器是在何種意義上擁有道德?擁有道德的機器是不是一個真正的道德主體?我們知道,道德行為的產(chǎn)生是由道德主體造成的。如果機器擁有道德,那么也就意味著,我們已賦予機器道德主體的地位。然而,人類制造人工智能的初衷是要機器服務于人,那么,擁有道德主體地位的機器,無疑具有了與人一樣的主體人格。按照康德的倫理學理論,人是目的,千萬不要把人當作手段。如此一來,人工智能的出現(xiàn)就成了一個悖論。最后,人工智能的道德是何種意義上的道德?道德是人類社會現(xiàn)象,道德問題是純粹人的問題,在人工智能時代機器道德的提出,無疑是對傳統(tǒng)道德觀念的顛覆。正因如此,目前用傳統(tǒng)的道德范式來探討機器道德,用人類的規(guī)范倫理來約束機器,這本身就是荒謬的。所以,在人工智能時代,對于機器帶來的道德問題,人類當務之急要做的不是制造出道德智能體,而恰恰是恪守自身的道德。

猜你喜歡
威脅論人機機器
人機“翻譯員”
機器狗
機器狗
西方學者有關“人類命運共同體”的污名化論調(diào)、危害及其正確應對
理論探索(2021年3期)2021-08-30 09:56:33
從內(nèi)到外,看懂無人機
南都周刊(2021年3期)2021-04-22 16:43:49
新一輪“中國威脅論”話語的形成、特點和反制
時代人物(2019年29期)2019-11-25 01:34:54
未來機器城
電影(2018年8期)2018-09-21 08:00:06
中國黑客的現(xiàn)狀、評估與治理
聲屏世界(2018年12期)2018-03-10 13:53:26
“人機大戰(zhàn)”人類智慧遭遇強敵
海外星云(2016年7期)2016-12-01 04:17:50
未來深空探測中的人機聯(lián)合探測
太空探索(2016年5期)2016-07-12 15:17:58
普洱| 沭阳县| 嘉鱼县| 汨罗市| 喀什市| 万安县| 泸定县| 大同市| 济源市| 水富县| 望都县| 通许县| 德江县| 曲麻莱县| 抚顺县| 勃利县| 荔浦县| 鹤山市| 庆云县| 南陵县| 青冈县| 呼伦贝尔市| 乌拉特后旗| 财经| 乌苏市| 岑巩县| 中牟县| 浦东新区| 皮山县| 上饶县| 贡觉县| 静乐县| 永兴县| 综艺| 仙游县| 大冶市| 台东县| 达拉特旗| 正镶白旗| 手游| 合水县|