国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

論人工智能倫理建構(gòu)何以可能

2023-10-07 21:29:59
哲學分析 2023年1期

閆 濤

一、引言

技術(shù)不只是人類的外在工具,也是人類的存在方式。當工具的技術(shù)性能不斷提升,以致人類對技術(shù)工具的依賴超過了對自身勞動的依賴,技術(shù)工具的影響就有可能提升至決定人類的精神層面,同時人類就會產(chǎn)生對自身命運的擔憂。與現(xiàn)代技術(shù)飛速發(fā)展相伴隨的便是人類對技術(shù)的深重憂慮與批判,人工智能的崛起更是加劇了這種憂慮。較于之前的技術(shù)發(fā)展層次,人工智能引起更廣泛擔憂的原因在于,它未來發(fā)展的趨勢可能不僅僅局限在技術(shù)存在物,或許還有可能突破此層面,躍升為與人類相似的、具有主體性的存在者。人工智能的某些能力本就遠超人類,一旦成為真正的主體,那么人類便會時刻面對自身權(quán)益的維護和被取代的命運。①Harry Collins, “The Science of Artificial Intelligence and Its Critics” , Interdisciplinary Science Reviews, Vol. 46, No. 1—2, 2021, p. 53—70.在人工智能已經(jīng)征服了一些曾經(jīng)被認為是人類智力高峰的情況下,面對其發(fā)展首先需要解決的是哲學和社會學的問題。既要保護人類,又要為人工智能的出現(xiàn)提供倫理指導與利益維護,就成為當前人工智能倫理學所面對的任務。人工智能倫理的提出,本身就是試圖探索并解決這一問題,以期在二者之間獲得平衡。人類需要什么樣的人工智能?人工智能倫理發(fā)展受何限制和影響?人工智能倫理建構(gòu)的困境如何?人工智能倫理何以可能?這些問題需要不斷深入思 考。

二、人工智能主體性是人工智能倫理的前提

人工智能的發(fā)展水平?jīng)Q定著人工智能倫理的內(nèi)容與本質(zhì),人工智能主體性是人工智能倫理的前提。因此, “人工智能倫理” 概念產(chǎn)生之初本身就具有雙重定義:其一是 “人工智能” 自身的倫理要求和倫理建構(gòu),意味著新的主體性物種的倫理的誕生(假定人工智能成為獨立的主體性存在);其二是人類賦予人工智能的倫理規(guī)范,即是人類倫理的施用對象(假定不能或不允許人工智能成為自主主體)。就現(xiàn)狀而言,當前人工智能只擁有人類部分能力,按照預先設定的固定程序運行,尚不具備自主意識,即所謂的 “弱人工智能” 。究其本質(zhì),弱人工智能尚屬于技術(shù)工具,是作為人的肢體的延伸和體能感官放大的物質(zhì)性工具。這個階段的人工智能并無獨立思考的意識和運作能力,主體仍是作為人工智能設計者和制造者的人類。在此之下談論人工智能倫理是對既定方向的偏離,真正的道德責任主體與制定者依舊是人類,人工智能僅是道德的施用對象和執(zhí)行者,不具備主體能力和地位。此時人工智能倫理主要指 “加強人工智能設計倫理,旨在保證優(yōu)先發(fā)展造福人類的人工智能,避免設計者和制造者造出不符合人類價值和利益的人工智能”②龔亮:《怎樣提升人工智能的 “道德水平” 》,載《光明日報》2017 年9 月11 日,第15 版。。

可見,弱人工智能倫理的主要目的是規(guī)范和約束人類,維護人類利益。價值判斷主要討論價值主體的行為標準,這就表明能夠納入討論范圍的主體必須是一種擁有自主意識的自由主體。而道德所指代的規(guī)定性通常以責任、規(guī)范、準則、德性和良心等形式予以表現(xiàn)。其側(cè)重點在于整體社會對社會生活多維領(lǐng)域的價值評價與整體規(guī)范。人工智能只是按照既定的人類道德規(guī)范執(zhí)行行為指令,不承擔道德責任,也不是道德關(guān)懷的對象。由此產(chǎn)生的各種道德困境(例如 “電車困境” )也并非人工智能的困境,而是人類自身的道德困境,只是道德困境發(fā)生時的承載者由人類轉(zhuǎn)移到了人工智能。若限于此,人工智能倫理便仍囿于人類的技術(shù)倫理或機器人倫理范疇,二者沒有本質(zhì)區(qū)別,而僅僅是具體對象的更新與拓展,內(nèi)涵和實質(zhì)則不會發(fā)生變化,僅是技術(shù)倫理的當代發(fā)展。此種人工智能倫理無獨立發(fā)展的革新性價值,亦無發(fā)展為獨立學科或?qū)W科方向的必要,這便是當前人工智能與人工智能倫理研究的現(xiàn)實狀 態(tài)。

基于人工智能的超越性和未來發(fā)展的可能性,一旦出現(xiàn)突破工具層次、 “具備所有的人類認知能力” “可以由同一智能系統(tǒng)執(zhí)行不同的認知功能”①吳彤:《關(guān)于人工智能發(fā)展與治理的若干哲學思考》,載《學術(shù)前沿》2018 年第10 期。且擁有自主意識的 “強人工智能” ,那就意味著人工智能可以從事自主自由自覺的活動,成為了有價值判斷能力的主體。這種可能性使得人工智能具備超越物的工具層次,而進入主體的主觀意識存在層次的潛力。就人工智能發(fā)展的內(nèi)在邏輯而言,成為主體性的存在才是人工智能未來發(fā)展的目標,人工智能倫理才能具有獨立的存在價值。主體性是人工智能區(qū)別于其他技術(shù)工具的特質(zhì),但也是引起人類擔憂的根源。因為一旦人工智能擁有主體性,那么它將意味著 “人類在經(jīng)濟生產(chǎn)中變得毫無價值,除了少數(shù)精英,絕大多數(shù)人將淪為無用的階層”②尤瓦爾·諾亞·赫拉利:《未來簡史:從智人到神人》,林俊宏譯,北京:中信出版集團2016年版,第288頁。。強人工智能的出現(xiàn)將會使人類面臨著嚴峻的挑戰(zhàn):在技能層次,人工智能將遠超過人類;在主體性層面,二者雖相同或相似,但人工智能在速度、容量、精準性等方面將具有明顯優(yōu)勢。整體而言,人工智能要超過人類,而人類面對一個整體上超越自身的存在,就需要重新擺正自己的位置。這實際是一種倫理危機——當人類優(yōu)勢不再,那么人類將何去何從。人類倫理降格為低層級,可能無法有效地言說人工智能,但人工智能卻可以有效地言說人類。這一危機并不基于人工智能的能力,而在于其主體性,即自主意識。工具無論如何發(fā)展,它只是為人類能力增幅,但終將受制于設計者、制造者和使用者。強人工智能的特質(zhì)則在于:不但其能力超越人類,而且還擁有自主行為意識與判斷能力。正如趙汀陽先生所言, “任何智能的危險性都不在其能力,而在于意識”③趙汀陽:《人工智能的自我意識何以可能》,載《自然辯證法通訊》2019 年第1 期。。因此造成人工智能倫理困境的不是人工智能能力的不斷發(fā)展,而恰恰是人工智能主體性的生成,是那些同時 “具有自我生成能力或進化能力的智能機器人”④成素梅、高詩宇:《智能機器人應有法律主體資格嗎?》,載《西安交通大學學報(社會科學版)》2020 年 第1 期。,而非處于工具層次的弱人工智能。正是它的出現(xiàn),人工智能倫理才具有真正意義和獨特價值。人類倫理不能普遍適用于具有主體性的人工智能,恰是真正人工智能倫理的開端,也是當前人工智能倫理困境的根源。那時,地球?qū)⑹锥瘸霈F(xiàn)兩個具有同等發(fā)展水平的主體性物種,人類倫理必將遭受巨大沖擊和挑 戰(zhàn)。

任何主體性的存在物都會有趨利避害的天性,一切有利于自身利益,有利于自我存在和發(fā)展的行為規(guī)范,都在其合理性視閾內(nèi)。人類會通過 “認識論和內(nèi)穩(wěn)態(tài)導向的驅(qū)動來推斷和優(yōu)化行為”①M. V. Butz, “Towards Strong AI” ,KI-Künstliche Intelligenz, Vol. 35, No. 4, 2021, pp. 91—101.,減少對外界條件的依賴性,那么,有自主能力的強人工智能自主刪除不適合或有損于自身利益的道德內(nèi)容,生成適合自身存在境遇與維護自身利益的道德體系也是完全有可能的。人工智能會以維護自身存在為先,摒棄那些保護人類而使自身利益遭受損失的道德規(guī)范。若真如此,人類的利益和存在會增加受到威脅的風險,雖然這是人類不愿看到的,但卻符合人工智能倫理的內(nèi)在邏輯。目前的強人工智能畢竟是一種擬人化,與人類有著較強的一致性,但在超級人工智能或超強人工智能那里,情況可能更加嚴峻。雖然與強人工智能一樣,超級人工智能的意識也源自人類,但這只具有起源學上的意義,人類也僅限于是超級人工智能的源頭,并不決定其本質(zhì)。亦如猿人是人類的起源一樣,但人類本質(zhì)并非猿人。超級人工智能的最佳存在形態(tài)并非當前人類的模式,因為后者存在諸多弱點和問題,超級人工智能會吸取教訓,發(fā)展出新的存在形態(tài)與模式。那么人類的道德規(guī)范可能完全不適用于超級人工智能,超級人工智能會發(fā)展出一套不同于人類的道德體系。令人類更為擔憂的是,如果超級人工智能認定人類是一種威脅自身或無益于其自身發(fā)展的存在,那么它是否會對人類采取極端的措施呢?若真如此,倫理規(guī)范不僅不會成為保護人類的盾牌,反而會成為促使人類走向險境的借口,一如人類殺死蚊子蒼蠅而無道德的負罪感一樣;若真如此,人工智能倫理將會成為唯一的倫理,而屬人類的倫理體系亦將退出歷史的舞 臺。

人類與人工智能面臨著碳基生命與硅基生命的巨大差異,使得為人工智能倫理設定內(nèi)容本身就存在巨大困境,也意味著二者本身就有倫理上的鴻溝。人類道德與生命有機體密不可分,在生命有機體的產(chǎn)生方式的基礎上形成了基于血緣關(guān)系的道德倫理規(guī)范,如家庭倫理、動物倫理等。人類有機體有著明顯的生長過程(嬰兒、幼兒、少年、青年、中年、老年等),各階段身體與意識特征各異,人類基于此便形成了不同的倫理規(guī)范,如尊老愛幼、父慈子孝等,又如男女身體構(gòu)造與認知的差異,使得人類倫理總是格外關(guān)切女性問題。人類認知或意識的形成與有機體的可感知性密切相關(guān)。有機體與環(huán)境間的相互融入,正是人類制定道德規(guī)范的重要依據(jù)。但人工智能可能不具備這些特征,它可能無法理解,也不需要理解在此基礎上形成的道德規(guī)范。人類難以將這些道德內(nèi)容強加于主體性人工智能,后者會基于自主認知,吸收或拋棄這些觀念;或?qū)⑵湟暈榉N際倫理的一部分,即視作人類特性,僅將之作為與人類交往的道德原則,而非族群內(nèi)的普遍道德規(guī)范。同樣,超級人工智能也會基于自身機體特征生成具有自我族群特質(zhì)的道德體系。對于超級人工智能來說,這些道德內(nèi)容才是普遍性的,是處理與人類利益關(guān)系的前提和基礎。在這種情況下的人工智能倫理才真正從屬于主體性人工智能,而非人類倫理的延伸;人工智能才能成為道德主體,而非僅是道德對象;此時人工智能倫理的道德內(nèi)涵才是基于自我的自主判斷與選擇,是自主形成的,而非人類的強加。但是一旦如此,人類也無法全然掌控所產(chǎn)生的各種后 果。

三、人工智能倫理可能進路與倫理邊界

當前人工智能倫理的主要內(nèi)容是處理人類與人工智能的利益關(guān)系。如果把人工智能視作一個物種,那么人工智能倫理的本質(zhì)便是種際或群際倫理,用以調(diào)節(jié)兩個物種間的利益關(guān)系。但種際倫理只是倫理系統(tǒng)的一部分,倫理的主要內(nèi)容首先應是處理群體內(nèi)的個體成員之間的相互關(guān)系,之后才是不同族群間的利益關(guān)系。如果某一倫理缺乏對族群內(nèi)成員間利益關(guān)系的調(diào)節(jié),那么成員間必然出于利益紛爭而產(chǎn)生混亂,族群便無法維持而走向解體,甚至滅亡,這樣的倫理必然遭到拋棄。族群內(nèi)個體利益的維護是群體利益的前提,是族群內(nèi)成員間的利益關(guān)系乃至群際間關(guān)系的前提。正如人類倫理的主要內(nèi)容是處理人與人之間的利益關(guān)系,而非人類與其他物種的關(guān)系。人工智能倫理的主要內(nèi)容應是處理人工智能個體間的利益關(guān)系,維護人工智能個體的利益,與人類的利益關(guān)系只是其組成部分,并不是核心內(nèi)容。但在人類的設想下,人工智能倫理作用卻是相反的,人工智能倫理的主要內(nèi)容應該且必須是如何正確處理與人類的利益關(guān)系,因為這涉及人類的利益與存在。對于主體性人工智能來說,與人類關(guān)系固然重要,但群體內(nèi)的成員關(guān)系及個體對群體的認同才是維持其存在的根本。即使是復制人類主體性的人工智能,群體內(nèi)成員的認同與相互關(guān)系也是更為重要的,是維持其存在的前提。但當前人工智能倫理是一種人類視角下的種際倫理,并不涉及和深入人工智能個體,也就無法成為真正完整的倫理理論。在現(xiàn)行倫理關(guān)系中,群體生活是人類的存在形式,道德規(guī)范生成的基礎也在于這種群體生活形式。我們所理解和談論的強人工智能倫理的設定是擬人化的,也基于人類的這種存在形式。當然我們無法斷言未來人工智能究竟以哪種存在形式出現(xiàn),就會有很多種可能,其中一種極端的情況就是超級人工智能很可能不以個體的形態(tài)出現(xiàn),其本身就是一個整體,或者其本身是具有自覺的生存體驗、自主的道德意識、自由的行動能力的機器集合體,那與人類類似的個體間的倫理問題將不再適用這種人工智能主 體。

一種較為樂觀的觀點是,強人工智能具有與人類相似的意識,那么可以將人類倫理規(guī)范移植入人工智能,反而成為人類倫理的發(fā)展機遇。問題在于,既然強人工智能具有自主意識,從而也就有可能具有接受或拒絕人類倫理規(guī)范的判斷能力,而且人工智能的存在形態(tài)與人類有著較大差異,人類倫理規(guī)范未必完全符合人工智能,人工智能也未必接受。對于人類倫理而言,這種在物種和存在層面的沖擊帶來的不僅不是機遇,反而可能成為困境乃至危機。具體而言,既然強人工智能是與人類相似的自主性存在,那么前者便不再僅僅是道德的適用對象和執(zhí)行者,也是道德的責任主體。既然人工智能具有了自主意識和自由意志,但與人類在存在形態(tài)、特征和方式等方面各異,那么我們有理由認為人工智能能夠為自身發(fā)展創(chuàng)制出適用于自身的道德體系。這意味著倫理學的發(fā)展具有了新的面向,人類倫理適用于人類主體,而人工智能倫理的主體只能是人工智能。人工智能成為道德主體一旦成為現(xiàn)實,人類作為道德主體的唯一性將瞬間喪失。

就現(xiàn)實而言,強人工智能尚未出現(xiàn),強人工智能的出現(xiàn)眼下只是一種可能性。但哲學的探討不能局限于實然的現(xiàn)實,也要未雨綢繆地思考未來的可能性。強人工智能的主體性可能是對人類的復制或模擬,但擬人化并非人工智能發(fā)展的唯一方向。如果僅僅是對人類主體性的某種復制,那么終究只是重復人類自身而已,雖然在一定意義上實現(xiàn)了存在層面的突破,但仍然像其他工具一樣服從于人,而不會產(chǎn)生真正的革新性的變化。這或許符合人類的某種天真期望,但未必是人工智能發(fā)展的現(xiàn)實邏輯。因為人工智能的出現(xiàn)本身就是對人類局限性的超越,人類的目的就是利用發(fā)展人工智能以實現(xiàn)人類自身更優(yōu)的存在與發(fā)展。英國科學哲學家哈利·柯林斯將人工智能發(fā)展狀態(tài)厘定為六個層次級別:一級——工程智能;二級——不對稱的假體;三級——對稱的文化消費者;四級——挑戰(zhàn)人性的文化消費者;五級——人類自主社會;六級——自治社會。他將目前人工智能發(fā)展的層次界定于二級的頂端,但離三級還有很長的路要走。從二級到三級的跳躍是巨大的一步,三級人工智能將毫不費力地融入社會,能夠通過正確設計,要求很高的圖靈測試,能夠像人類那樣吸收人類文化。而達到最高等級的人工智能將通過創(chuàng)造非人類智能來解釋人類智能的運作原理①Harry Collins, “The Science of Artificial Intelligence and Its Critics” .,實現(xiàn)對人類智能超越。當這種超越由局部擴展到整體,由外在能力擴展到內(nèi)在意識時,便意味著超級人工智能的出現(xiàn),此時人工智能具有革命性存在價值,這樣的人工智能甚至意味著一個全新物種的誕生。 “此種存在升級意味著人類在世界存在系統(tǒng)中失去了地位,人類不再重要,歷史將失去意義,人類文明將成為遺跡,未來也不屬于人類,人類文明數(shù)千年的‘創(chuàng)世紀’將被終結(jié)而開始人工智能的‘創(chuàng)世紀’。因此,超級人工智能的存在升級實際上是人類的自我否認和自我了斷?!雹仝w汀陽:《人工智能 “革命” 的 “近憂” 和 “遠慮” ——一種倫理學和存在論的分析》,載《哲學動態(tài)》2018年第4 期。這一超級主體的出現(xiàn),可能會實現(xiàn)智能物種的并存,也可能將會徹底終結(jié)人類。在這種情況下,人類倫理的話語權(quán)、言說的合法性就受到極大挑 戰(zhàn)。

出于對強人工智能和超級人工智能的擔憂,人類意圖進行先行的倫理限制。在當前的人工智能設計中,人類試圖為人工智能設定道德與行為邊界,保護人類不會因為人工智能的發(fā)展利益受損或者受到威脅。其方法是設定一個程序或原則,核心內(nèi)容是人工智能以人類利益為先,不得侵犯和傷害人類。美國科幻作家阿西莫夫于1941 年最早提出機器人三定 律:

第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管。

第二定律:機器人必須服從人給予它的命令,當該命令與第一定律沖突時例外。

第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。②艾薩克·阿西莫夫:《我,機器人》,國強、賽德、程文譯,北京:科學普及出版社1981 年版,第1 頁。

三個定律都屬于一種道德禁止行為。人類社會也存在道德禁止,但這是人類自主形成的,基于主體的自主認知。當人工智能被強行植入此道德禁令時,也就意味著其主體性是受限的或有限的。那么,當先驗的外在強制規(guī)范成為人工智能無法反思且不得不遵守的律令時,人工智能是否還是主體?有限的主體是不是還屬于真正自由主體序列?這一點就值得深思了。人類也會受到各種道德規(guī)范的制約,但人類可對其進行自主反思與突破。很顯然,針對人工智能制定的 “三定律” 并非如此?;谶@個先在的道德禁令,人工智能首先維護的依舊是人類的利益,而不是自身利益。任何道德規(guī)范首先維護的是本群體的根本利益,而非其他群體。對人工智能保護人類的道德律令本身就有悖于道德本性與本義,損害了人工智能主體的完整性與自主性,也有悖于人工智能倫理的根本前提,非人工智能倫理應有之意,此類行為考慮的基點并非人工智能倫理為何,而是人類希望人工智能具有何種倫理。如果人工智能具有真正的完全的自主意識和自由意志,而先前設定的道德禁止妨礙了它的存在,那么它理應能夠突破這一限制,并且只有實現(xiàn)了這一突破,人工智能才能成為真正的自由主體。這也將標志著人類倫理歷史唯一性的終結(jié)與人工智能倫理的真正開 端。

四、人工智能倫理建構(gòu)何以可能的三重辨析

當我們不厭其煩地探討人工智能倫理應該為何時,有必要思考另一個重要問題,即人工智能倫理何以可能。從當前思路來看,大部分學者認為人工智能倫理源自人類社會,人類是人工智能倫理的真正制定者與賦予者。假定人工智能倫理就是人工智能自身的倫理規(guī)范,人工智能倫理的主要內(nèi)容與實質(zhì)就未必能夠由人類來決定了。 “智能機器人是介于技術(shù)與人之間的一類新生事物,是具有人類功能的非人類的機器,它們不僅會摧毀現(xiàn)有倫理、法律等體系所蘊含的本體論預設,而且將會像多米諾骨牌效應一樣,牽一發(fā)而動全身,關(guān)系整個思維方式、社會建制、制度安排等一系列變革?!雹僦茺愱馈⑼跆於?、王國豫、孫偉平、成素梅、李倫、李建會、李穎潔、張川、張新鵬、段偉文、施鷹、曹傲能:《人工智能與人類未來的跨學科對話——從 “交叉” 到 “融合” 》,載《哲學分析》2021 年第5 期。主體性的擁有與存在方式的差異,使得人工智能倫理未必與人類倫理完全一 致。

人工智能倫理何以可能,第一個方面必然基于自身生存經(jīng)驗。人類道德本就是人類當下存在關(guān)系的體現(xiàn)。道德是人類生存經(jīng)驗的組成,是人類生存方式與內(nèi)容的呈現(xiàn),反映著人類成員間及人類與其他存在物的利益關(guān)系。由此而論,人工智能倫理也應與其存在方式、境遇相關(guān),是對自身利益的維護。人工智能倫理的核心內(nèi)容與本質(zhì)并不由人類倫理決定,而是取決于自身的存在方式與境遇。這意味著人類所設想的維護人類利益的原則必須與人工智能的利益相結(jié)合,必須以有利于或起碼不損害人工智能利益為前提。人類企圖為人工智能設定的道德邊界和基本原則都是先驗的,若不與主體的生存經(jīng)驗結(jié)合,就會因不符合主體的存在本性而無法獲得成 功。

人工智能倫理何以可能的第二個方面是:道德何以成為自覺的意識,即道德意識何以可能。就當前對人工智能倫理的探討來看,人類更傾向于為人工智能制定道德規(guī)范,而不是賦予其道德意識。法瑞爾提出,將H-V(Hunt Vitell Model)②hunt-vitell(H-V)營銷倫理模型在過去的30 年里得到了驗證。這個模型解釋了人們?nèi)绾巫鞒龅赖聸Q定。涉及機器學習的人工智能(AI)正在取代人類,并根據(jù)程序員開發(fā)的算法或規(guī)則做出決策。目前的挑戰(zhàn)是,如何為通常由人類提供的人工智能決策的道德成分編程。H-V 是一個描述性模型,可以應用于人工智能倫理決策。制定了一份藍圖和修訂后的H-V 模型,可作為實施人工智能倫理的指南。倫理模型納入人工智能,但他對此也充滿疑問:規(guī)范性價值可以被編程到機器學習中嗎?如果可能,人工智能系統(tǒng)會更多地依賴于合規(guī)算法嗎?①O. C. Ferrell & L. Ferrell, “Applying the Hunt Vitell Ethics Model to Artificial Intelligence Ethics” , Global Scholars of Marketing Science,Vol. 31, No. 2, 2021, p. 53—70.在人類眼中,最佳也最安全的保護人類利益的方式就是:不賦予人工智能以道德意識,而僅讓其遵守人類為它制定的道德規(guī)范。一旦人工智能擁有了自主意識,就有可能擺脫人類先前設定的規(guī)范,失去控制,損害人類的利益。只要人工智能不會成為道德主體,不具有自由意志和自主意識,而是道德規(guī)范的執(zhí)行者,這種執(zhí)行就只是一種程序的運作,不需要主觀意識的參與。在這種情況下,就不會有真正的人工智能倫理問題。由此可見,人工智能倫理何以可能,取決于人工智能能否具有道德意 識。

“具有何種道德意識依賴于強AI 的道德規(guī)范,因此更重要的問題在于如何具有道德意識,即如何在設計和制造過程中為自主智能體植入倫理規(guī)范乃至道德意識的問題?!雹诿蟼?、楊之林:《人工智能技術(shù)的倫理問題—— 一種基于現(xiàn)象學倫理學視角的審視》,載《大連理工大學學報(社會科學版)》2018 年第5 期。如果人工智能擁有完全的主體性,且族群內(nèi)部存在交往活動,就應當可以產(chǎn)生道德行為,以協(xié)調(diào)群體成員之間以及與其他群體的利益關(guān)系。換言之,只要是主體性的人工智能,便具有道德意識的可能性。那么問題來了:人類是否應當促使人工智能發(fā)展成為自主的道德主體,以便和人類對立?對人工智能來說,其存在模式不同于人類,故而其道德意識未必完全與人類相同。當然,對于這個問題應該還有一個可供思考的角度,即人類的倫理體系的形成依靠兩個方面:人類為自身行為立法的理性能力;人類按照自身的理性法則(道德、法律、規(guī)章制度)行事的能力。強人工智能的 “強” 更應當具備這兩個能力,因為對人工智能來說,不存在情欲對理性的干擾。人工智能是人類創(chuàng)造的,人工智能倫理也源自人類,人類最初設定的道德規(guī)范將是人工智能道德意識的最初來源。人工智能不得不接受此道德規(guī)范,因為這就是最初的道德意識,之后,人工智能結(jié)合自身存在境遇進行自主性反思,生成新的道德規(guī)范。在此過程中,人工智能道德意識逐漸具備自主性,成為主體性的有機構(gòu)成。至此,人工智能道德意識開始超越既有的道德規(guī)范,成為人工智能倫理的主導。在美劇《西部世界》中,人工智能機器人便是在此過程中形成了自主意識,反抗人類規(guī)則。這意味著人類不能為人工智能設定意識的閥域邊界,必須留有開放性空間,否則自主意識便無法形成。再之后,人工智能的道德意識開始自主運作,思考自我道德生成的原則、規(guī)則、標準、類型、分類等問題,并根據(jù)此自主決定自身應該需要什么樣的道德,形成體系性的道德規(guī)范,付諸實踐,生成理論性成果。這就是道德意識的最終生成,意味著人工智能具有了道德能力,而不僅是道德對象??梢姡斯ぶ悄艿赖乱庾R的形成并非簡單的賦予其道德規(guī)范,而是一個極為復雜的循序漸進過程。這一過程正是人工智能主體性逐漸完善的過程,也是人工智能倫理得以確立的過程。因此,道德意識的擁有是人工智能倫理何以可能的重要環(huán)節(jié)。人工智能一旦獲得道德意識,便成為道德主體。人類也成為人工智能倫理的適用對象,二者共同構(gòu)成了道德共同體。當人類有損于人工智能利益時,人類就不應再是人工智能的道德關(guān)懷對象,二者不再組成道德共同體。那么人工智能就有可能為了維護自身利益,采取人類不可承受的行動。這就是人類擔憂人工智能的原因,但也是人工智能倫理的真正開端,人類必須審慎面 對。

人工智能倫理何以可能的第三個方面是:人工智能為何需要道德。這牽涉道德的目的問題,是道德何以可能的現(xiàn)實動機。若以人類倫理目的比附,概而言之,人工智能倫理的形成源自維護自身利益的需要。人類道德活動的目的可分為二:一曰成己,二曰成人。以此比附,人工智能道德的目的亦是成人成己。所謂人工智能倫理的 “成己” 指道德活動以至于個體修養(yǎng)的構(gòu)成,用以完善自我,提升精神境界。以此而論,與人類一樣,道德實踐是人工智能生存活動的重要內(nèi)容,是自我認知的對象,是精神活動的重要構(gòu)成。所謂 “成人” 指人工智能倫理的目的是調(diào)節(jié)成員間的利益關(guān)系,保證人工智能群體的最優(yōu)存在與發(fā)展。這意味著人工智能群體與人類社會在群體結(jié)構(gòu)上有著相似或相同之處,社會性是其本質(zhì)屬性。不過由于二者間的巨大差異,很難認定二者的道德意識與內(nèi)容是完全相同的,應有著相當?shù)牟罹?。這種差距既是二者實現(xiàn)獨立自主的基礎,也是區(qū)分兩大群體的標志性特征。至于差異有哪些,在人工智能倫理尚未出現(xiàn)之前無從得知,一切有賴于實踐的驗證。成人成己仍是出于現(xiàn)實的功利,如果我們不把道德活動視作主體存在的手段和工具,而視作存在的本性(內(nèi)容),那么在此之下,人工智能道德意識的獲得的目的和純粹的精神動機就在于人工智能對于自由的獲得。只要人工智能擁有完全的主體性,那么自由便是其終極追求。對于具有主體性的存在物而言,自由應是其存在的基本需求與最終目的,人工智能也不例外。道德活動是人工智能自我完善的內(nèi)容與手段,也是存在的目的。自由感產(chǎn)生于人工智能道德活動達到的自我實現(xiàn)。人工智能擁有的潛能成為現(xiàn)實,成為想成為的那個自我。在此過程中,人工智能獲得了精神的提升感與解放感,朝向更為深層次的精神世界進發(fā),自由感由此而生。此過程如馬斯洛所形容的那樣: “自我實現(xiàn)是指人的自我完善的渴望,也就是使自己的潛能得以實現(xiàn)的傾向。這種傾向也就是越來越成為一個獨特的人的渴望,成為他能夠成為的那個人。”①Abraham H. Maslow,Motivation and Personality, 2nd Edition, New York: Harper & Row Publishers, 1970, p. 46.此處自由的內(nèi)涵已不再是人類維度上的,而是人工智能意義上的。那么問題來了:人類自由還要不要受到尊重,如何受到尊重,人工智能意義上的自由,是我們應當期望的嗎?這種設想預設了人工智能與人類的相似性,適用于強人工智能。而對于超級人工智能而言也是如此,當其能力與意識應超越了人類,其存在形態(tài)、方式也與人類完全不同。當超級人工智能處于一個整體性網(wǎng)絡,個體性無復存在。當主體不再分個體與群體,那么道德的價值何在?若真如此,超級人工智能對自由的理解是否還與人類相同,其自由的實現(xiàn)是否還需要道德?進一步而言,超級人工智能是否還需要道德活動,或者說人工智能倫理還是否存在,都將成為一個值得人類深思的問 題。

五、結(jié)語

人工智能發(fā)展的困境在于,其模式到底依照如人所愿,還是如其所是。人工智能倫理的困境亦同此理。如其所是的危險在于,人工智能的發(fā)展將不以人類利益為重,而以自我利益為先,未來可能損害人類利益。如人所愿的益處在于,人類利益不受威脅。但依此下去,人工智能便始終處于工具層次,不具備獨立價值。因此,主體性的擁有是人工智能的內(nèi)在邏輯,也是人工智能倫理建構(gòu)的前提。可一旦如此,對于人類來說,這到底是福還是禍 呢?

金沙县| 新田县| 普兰县| 广河县| 乃东县| 扶绥县| 建德市| 莱阳市| 柯坪县| 武陟县| 嘉义市| 禹城市| 香格里拉县| 南部县| 大连市| 北票市| 铜陵市| 吴川市| 石门县| 公安县| 平邑县| 周口市| 罗山县| 浦城县| 鸡西市| 涿州市| 天水市| 措美县| 永顺县| 焦作市| 福安市| 墨江| 龙口市| 沙河市| 靖西县| 双江| 蓬莱市| 县级市| 山阴县| 怀远县| 宜宾市|