国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工道德主體是否可能的意識之維

2021-11-29 01:35:53
關(guān)鍵詞:生物性現(xiàn)象學理性

劉 永 安

(南京師范大學泰州學院,江蘇 泰州 225300)

隨著人工智能技術(shù)的迅猛發(fā)展,智能化、自主化的人工智能產(chǎn)品或系統(tǒng)(后文將之統(tǒng)稱為人工智能體)日益表現(xiàn)出一些類人類的行為特征,從這種類人類行為的道德后果和道德責任的憂思出發(fā),衍生和引發(fā)出對人工智能體倫理地位的關(guān)注和論爭。與動物權(quán)利和生態(tài)主義要求擴大道德受體的范圍所不同的是,人工智能技術(shù)對人是唯一的道德主體這一根深蒂固的觀念提出了挑戰(zhàn),人工道德主體(Artificial Moral Agent)概念的提出將道德主體由人類擴展到非人類實體,這一提法既有來自認知科學的支持和功能主義的捍衛(wèi),也有來自有機本體論的強烈反對,其爭論的核心聚焦于對人的心智的不同理解,歸根結(jié)底在于人工智能體在意識方面多大程度上接近于人類,或者與人類存在多大的差異。質(zhì)言之,意識問題是人工道德主體是否可能的一個關(guān)鍵性問題。

一、人工智能體與道德主體的主體條件

主體(Agent)是道德主體(Moral Agent)的首要條件,能否成為主體是人工智能體能否成為道德主體首先要考慮的問題。為此,需要從主體標準的分析出發(fā),以確認人工智能體是否具備主體資格。主體首先是個施動者,即“X是主體,當且僅當X能夠履行一定的行動”[1]19。這樣的施動者要成為主體還須有兩個限定性的條件:一是行動的自源性,即行動是由施動者自身而不是外在于施動者的其他因素發(fā)起的,它強調(diào)行動與施動者之間的直接因果關(guān)系,而非強調(diào)行動者是否是理性的或者是否是意志自由的狀態(tài)。二是行動基于某種內(nèi)在的狀態(tài),這種內(nèi)在的狀態(tài)解釋了行動的發(fā)生或者為行動提供了理由。人工智能體能在無人類操作的情況下自主地與包括人在內(nèi)的外部環(huán)境發(fā)生交互性的自適應行動,因此,人工智能體能夠滿足行動的自源性條件。對于行動所關(guān)聯(lián)的內(nèi)在狀態(tài)的分析而言,哲學上通常所采用的休謨的行動模式認為,行動的原因與欲念(Desire)和信念(Belief)這兩種內(nèi)在的態(tài)度相關(guān)。從這種模式的解釋來看,“如果我想要X(Desire)并且相信y是實現(xiàn)X的必要手段(Belief),我的欲望和信念會導致我做y,或者會導致y行動的意圖,而這種意圖又會導致做y”[1]20。那么,人工智能體的行動是否可以從內(nèi)在的狀態(tài)得到解釋呢?對此,有學者從功能和認知科學的不同角度做出了肯定的回答。丹尼特(Dennett)認為重要的是我們能否通過將原因歸因于某物來理解它的行為,而不是強調(diào)事物是否具備產(chǎn)生欲念和信念等內(nèi)在狀態(tài)的內(nèi)部結(jié)構(gòu)[2]。與丹尼特所不同的是,李斯特(List)和佩蒂特(Pettit)認為我們不單單是通過某種解釋把原因歸結(jié)于事物以解釋其行動,從認知科學和功能的角度看,人工智能體以符號表征處理信息的方式在事實上等價于人的內(nèi)在狀態(tài)[3]?;谒^的BDI(Believe-Desire-Intention)軟件模型的人工智能體使用符號表征進行操作,它們能夠仔細地考慮計劃并執(zhí)行這些計劃。大衛(wèi)·查爾莫斯(David Chalmers)等認知科學家也指出雖然系統(tǒng)的計算并不在生物基質(zhì)上進行,但它具有內(nèi)在的因果機制,“當與因果相關(guān)的物理結(jié)構(gòu)反映了計算的形式結(jié)構(gòu)時,一個物理系統(tǒng)就實現(xiàn)了計算”[4]。這與當大腦各個組成部分之間的因果關(guān)系反映了神經(jīng)元之間的因果模式而后產(chǎn)生意識極其類似。這就足以說明,人工智能體的認知方式和信息處理方式在功能上等價于信念和欲念的內(nèi)在狀態(tài),這種等價的內(nèi)在狀態(tài)足以解釋其行動的原因。由是觀之,筆者認為人工智能體能夠滿足主體的資格條件,我們應該將之視為有別于生物性主體的一種新型主體,而且人工主體的出現(xiàn)拓展了對主體內(nèi)在狀態(tài)的認識,主體的內(nèi)在狀態(tài)不應僅僅局限于生物體具有的諸如理性、欲望或心理等層面,人工智能體所展示出來的、可以解釋或決定行動的諸如程序性的、計算性的內(nèi)在狀態(tài)也應被納入主體內(nèi)在狀態(tài)的范疇??傊?,主體資格問題不是人工道德主體是否可能的理論障礙。

二、人工智能體與道德主體的意識條件

道德主體顯然屬于主體范疇,但主體不一定都是道德主體。因此,具備主體資格的人工智能體是否能進一步成為道德主體,還有待于對道德主體的定義性特征和必要條件做進一步的考察。道德主體首先是道德施動者。盧西亞諾·弗洛里迪(Luciano Floridi)將這一要義表述為:“道德主體指稱一類實體,這類實體原則上有資格成為道德行為的來源和發(fā)起者。”[5]此外,道德主體的標準概念還應涵蓋以下內(nèi)容,即 “道德主體是指那些被期望滿足道德要求的主體”“道德主體是指具備責任歸咎資格的行為人”[1]22。綜合以上表述,道德主體實質(zhì)上是一個規(guī)范性的概念,它是主體范疇內(nèi)的一種特殊的類別,這類道德主體是道德行為的來源和發(fā)起者;應受一定道德標準和要求的約束,承擔一定的道德責任和義務;并能對其進行道德評價和道德責任的歸咎。

以上道德主體概念包含著3個構(gòu)成道德主體的必要性條件,而這些條件又都與意識直接相關(guān)。首先,道德主體要能夠發(fā)起道德行為,而一個行為是否可以被稱之為道德行為,這不僅在于該行為是否具有道德意義,是否可以對之進行善惡的道德評價,還在于該行為是否是在有意識和自由意志的狀態(tài)下發(fā)生的。這就意味著道德行為不僅強調(diào)行為與他人或社會的倫理相關(guān)性,而且還強調(diào)行為人要具備有意識的精神狀態(tài)。其次,應受一定道德標準和要求的約束,承擔一定的道德責任和義務。這一提法的前提是主體要有能力這樣做,而且期望其這樣做。這不僅要求主體要有自由意志,而且要求主體要有一定的道德推理能力。這種能力或多或少會通過教育、自我反省和社會性人際互動得到發(fā)展。埃納爾·希瑪(Einar Himma)把道德推理所需的能力概括為以下幾種:其一,主體對好壞、義務、正當、對錯等道德概念要有最低限度的理解,主體要有形成和使用這些概念的能力;其二,主體要有掌握一些基本道德原則的能力,比如故意傷害無辜是不被容許的;其三,主體要有事實的鑒別能力,以確認哪些與道德原則相關(guān),哪些無關(guān)乎這些原則;其四,主體要有將規(guī)則應用于構(gòu)成規(guī)則含義的特定情境的能力。道德推理需要的這幾種能力從不同的側(cè)面反映了道德主體特有的道德意識活動,道德主體與非道德主體正是在這個問題上形成了明顯的分野。我們不把諸如剛出生的嬰兒、精神認知存在障礙的人等納入道德主體的范疇,不用道德要求約束他們,也不追究他們的道德責任。之所以如此,不僅是出于自由意志的考慮,更是因為他們?nèi)鄙僮鳛榈赖轮黧w必要的道德意識和相關(guān)的道德能力,他們不能在一定的道德意識的支配下做出道德推理,也不能確認其行為的道德性質(zhì),而決定這一切的恰恰是他們的意識狀態(tài)和意識水平。最后,關(guān)于道德責任和義務的承擔,最終是通過責任歸咎,通過或褒或貶的道德評價予以實現(xiàn)的,而這也是以意識的存在為潛在的前提條件的。因為贊揚和獎勵、譴責和懲罰的有效性和意義是建立在具有體驗意識的基礎之上的,就是說與贊揚和獎勵相伴隨的是驕傲或滿足的體驗,譴責和懲罰帶來的是恐懼、自責或羞恥的體驗,這些體驗只有主體行為者能夠感受到才有意義,而事實上只有有意識的主體才會有這種愉悅或不快的精神狀態(tài)。因此,獎勵或懲罰無意識的事物是不可能的。對此,埃納爾·?,斁驼_地指出:“作為實踐理性的一個實質(zhì)性的問題,稱贊或譴責沒有意識或精神狀態(tài)的事物(無論它的計算能力有多么復雜)是沒有意義的?!盵1]24

由上可知,意識是道德主體潛在的一個必要條件。因此,如果我們不是在工具主義背景下,像傳統(tǒng)那樣只關(guān)注人類在使用人工智能系統(tǒng)或產(chǎn)品時的倫理問題,而是把人工智能體提高到同人類主體同等的道德主體的高度,進而關(guān)注人工智能體對人類的行為影響以及與人類互動的倫理性的話,就有必要對人工智能體的意識層面做進一步的考察。多年來,人工智能和認知科學界廣泛討論并闡述了一種心智信息觀,該觀念認為心智和意識的關(guān)鍵方面可以被定義和復制為計算系統(tǒng),心智和意識也可以通過非生物性的其他介質(zhì)予以實現(xiàn)。這一觀點的支持者認為:“在解釋為什么大腦是有意識的方面,一個功能正常的大腦包含在一個活的有機體中這一事實是無關(guān)緊要的。一個完全由運行類似軟件的非有機材料構(gòu)成的同構(gòu)處理系統(tǒng)將是有意識的,不管它是否具有相當?shù)纳锘钚蕴卣??!盵1]26這一觀念實質(zhì)上堅持或奉行的是功能主義的哲學框架,“該框架的核心原則是多重可實現(xiàn)性;即無論實例化計算的物理平臺是什么,都可以得到相同的計算結(jié)果”[6]32。從這個角度來看,“如果操作系統(tǒng)在行為方式和對刺激的反應方面在功能上等價于人類并且展示出了與人類相關(guān)的行為特征,就沒有必要去區(qū)分是生物還是非生物基質(zhì)”[7]315。根據(jù)這個邏輯,非物質(zhì)的信息優(yōu)先于物質(zhì)的身體,實體的身份最好被概念化為信息的,而不是身體的。正如鮑爾斯(Powers)所指出的,“就認知科學的功能主義和計算主義觀點而言,只要計算機操作模擬或模仿人類的理性思維,計算機就可能成為或變?yōu)橹悄苌铩盵8]234。

從功能主義和計算主義的角度看,心智或意識的實現(xiàn)擺脫了對有機身體的依賴,實體身份的界定依據(jù)從生物性有機本體轉(zhuǎn)化為信息。心智信息觀試圖通過這種方式為人工道德主體的可能性掃除本體論的障礙,因為人類作為根深蒂固的道德主體,其心智和意識深深地根植于人類的生物性有機本體,而現(xiàn)在心智和意識的實現(xiàn)似乎找到了一種可計算或功能性等價的多重路徑。不僅如此,心智信息觀還認為倫理學的核心被視為是認知或信息,認為道德思維本質(zhì)上主要是認知的或智力的,而不是情感的。從這個角度來看,在道德主體問題上,人工智能體能夠比人類表現(xiàn)出更合乎道德的可能性。蘇林斯(Sullins)和貢克爾(Gunkel)不無樂觀地展望道,“人類有機體是從一個生物性平臺進化而來的,其推理的能力來自情感大腦。相比之下,人工智能目前是在一個邏輯平臺上開發(fā)的,這表明在應對道德挑戰(zhàn)方面,計算機可能比人腦有一些優(yōu)勢”[9]270,“因為它消除了所有可能導致反復無常和不公正決策的情感投資”[10]??傊?,基于功能主義和計算主義的心智信息觀認為,倫理的信息或理性方面可以擴展到人工智能系統(tǒng),我們可以(至少在原則上)制造出人工道德主體,它們不僅在操作上是自治的,而且還具有倫理自治的特征。

三、人工道德主體可能面臨的意識難題

人類心智和意識的認知、智力層面確實如心智信息觀所言,可以通過計算或功能等價的方式予以呈現(xiàn),但把認知或信息說成是倫理問題的核心,認為道德思維排斥情感,道德思維本質(zhì)上是認知的或智力的,進而回避或繞過本體論問題為人工道德主體辯護是難以成立的。人類意識的豐富內(nèi)涵遠不止認知和智力,人類之所以能夠成為道德主體,還與人類意識的其他特性密切相關(guān),這些特性是目前人工智能體難以企及的,也是人工主體要成為道德主體面臨的難題與挑戰(zhàn)。

首先,人類的意識尤其是道德意識與人類的生物性有機本體是密不可分的,脫離這個本體就無法形成倫理情境,也就遑論涉及價值和意義的道德意識問題。誠然,認知和智力是人類意識的組成部分,然而道德意識顯然與121的平方根是11、鹽是鈉和氯的化合物等知識性認知意識不同。道德意識與倫理問題的考慮有關(guān),尤其與涉及好壞、善惡以及正當與否的價值判斷密切相關(guān),而這樣一種價值判斷總是相對于一定的主體的需要才是可能的,這也是為什么在道德主體問題上要追溯到生物性有機本體的原因,因為意識以及道德意識與有生命的生物性有機體的利益需要和生存方式是密不可分的。以生物中心主義為代表的有機本體論不僅認為生命系統(tǒng)是認知系統(tǒng)的生物性基礎,精神屬性深深植根于作為一個活著的生物有機體之中,而且認為道德意識與活著的生命本體及其存在需要是密切相關(guān)的。生物中心主義的代表馬圖拉納(Maturana)和瓦雷拉(Varela)提出了有影響力的“自生理論”,該理論認為作為一個生物就是一個自我維持、自我再造的系統(tǒng),無論是單細胞生物還是更復雜的生物,都是通過其內(nèi)部成分與環(huán)境的適當交換,并在環(huán)境中進一步存在的。這其中就產(chǎn)生了環(huán)境對其保存生命和增強生命而言的意義問題,從這種意義和目的的認知和評價中才會衍生出相應的道德意識。因此,自生與意義的形成、目的論的概念密切相關(guān),自生和自我維持是有機體意義和目的問題的來源和基礎。正是在這種目的與意義的實現(xiàn)中才會衍生出倫理情境,才會衍生出對這種目的與意義的認知,衍生出相應的道德意識。對此,史蒂夫·托倫斯(Steve Torrance)就指出:“有機體對什么對有機體是好是壞的現(xiàn)象意識能力是這些生物價值判斷的根源。這里的價值既包括相對于生物自身需要(自我參照)的價值,也包括認同其他生物的目標和需求的外在(他者參照)的價值。后一種價值為倫理學提供了一個原始的基礎,它們通過人類在各種歷史背景下所設計的知性的和文化的形式,已經(jīng)成為明確的道德規(guī)范和準則?!盵11]514由是觀之,按照有機論的觀點,道德領域只能或主要包含自我組織、自我維持的實體,只有相對于這些有機實體的生存目的和意義及其相互關(guān)系才會形成倫理情境和道德意識。有機論的啟示意義在于,人類之所以能夠成為道德主體,且具有道德意識,是與人類的生命本體和存在方式分不開的。對于作為道德主體的人類的意識的理解,不能僅僅從復雜的大腦組織和功能結(jié)構(gòu)中就能直接推導出來,除了大腦這個生物性基質(zhì)以外,要把這種意識放在人類的生物性有機本體及其特有的生存方式中加以理解。無獨有偶,梅洛-龐蒂從現(xiàn)象學的角度用“身體—主體”概念來解釋人的身心問題,極富洞見地指出人的意識、精神活動與人的身體及其生存世界之間的不可分割性。在“身體—主體”概念中,身體既是顯現(xiàn)的主體又是顯現(xiàn)的對象;既是存在著、經(jīng)驗著的主體,又是現(xiàn)象的身體、現(xiàn)象的場所。梅洛-龐蒂的“身體—主體”哲學堅持了身心合一的立場,這一立場不僅與生物性有機本體論是根本一致的,而且梅洛-龐蒂還進一步指明了人類的意識具有現(xiàn)象學的特性。其理論說明,作為道德主體的人類,其意識與其自身的生物性本體是分不開的,人的存在是一種特殊的現(xiàn)象學存在,人的有關(guān)認識論問題不能脫離本體論、存在論問題單獨考慮。相應地,對于人的意識,尤其是人類特有的道德意識,應該被看作是現(xiàn)象學意識,生物性有機本體是人類現(xiàn)象學意識得以可能的現(xiàn)象學條件。對此,凱瑟琳·霍根(Katharyn Hogan)就一語中的地指出,“倫理問題是現(xiàn)象學問題,而不是單純的理論問題”[6]36,現(xiàn)象學問題“不能獨立于本體和存在問題之外。道德情境之所以呈現(xiàn)在我們面前,是因為生命以特定的方式存在,有特定的需求。我們不應忽視道德問題背后的現(xiàn)象學條件”[6]36。人工智能體與人類的起源和生存方式大不相同,人工智能體雖然能在認知和智力的層面對意識實現(xiàn)信息的轉(zhuǎn)化,但它們?nèi)狈θ祟愐庾R的現(xiàn)象學條件,它們并不理解信息的倫理意義,其意義和目的是人賦予的。人工智能實體雖然具備某種類人的行為能力,但只要其是電子元件等非生物性基質(zhì),只要其還不具備自我組織、自我維持的自生能力,人工智能實體就不可能存在內(nèi)在于自身的存在目的和意義,進而產(chǎn)生源自自身利益需要的道德要求和價值判斷問題。由此可見,人工智能體功能性的認知和智力水平與人類的現(xiàn)象學意識之間橫亙著一條本體論的鴻溝,人工智能如何去逾越這條鴻溝,如何解決信息的倫理意義和道德價值判斷問題,是人工智能體要成為道德主體首先面臨的難題和挑戰(zhàn)。

其次,人工智能體通過信息的方式對心智和意識的呈現(xiàn)只是功能性的,這種功能性的意識是從外在于人工智能體的第三人稱的視角予以觀察的,其與作為人類內(nèi)在精神狀態(tài)的意識相比,缺乏可以自我反思或內(nèi)省的第一人稱視角,而后一視角對于道德主體來說卻是至關(guān)重要的。人類的現(xiàn)象學意識與人類同時具有的、可以以功能性方式呈現(xiàn)的知識性認知意識不同,類似于萬有引力、元素周期律等認知意識的對象是客觀現(xiàn)象,客觀現(xiàn)象有獨立于表象的實在性,而現(xiàn)象意識反映的是主觀現(xiàn)象,作為一種現(xiàn)象學現(xiàn)象,主觀現(xiàn)象沒有客觀的本質(zhì)。因此,現(xiàn)象學意識不能獨立于某一特定主體而單獨存在,現(xiàn)象學意識具有主觀定性的特征。就此,托馬斯·納格爾(Nagel T)曾說:“從主觀的角度來看,現(xiàn)象學意識只有意識者自身才是可接近的。意識是一種現(xiàn)象,它不能通過公開的方式被測量、觀察或體驗,因為它是個人的事情?!盵12]納格爾也曾在《做一只蝙蝠是什么感覺?》一文中用蝙蝠的思想實驗說明現(xiàn)象學意識的主觀定性特征。它旨在說明盡管我們可以解釋蝙蝠聲納系統(tǒng)的功能,但作為旁觀者我們卻無法知曉像蝙蝠那樣擁有聲納是什么感覺。因此,現(xiàn)象學意識的這種主觀定性,只能從第一人稱的角度而不能從第三人稱的角度來把捉。這也就意味著既不能把基于生命本體的現(xiàn)象學意識簡化為任何形式的機械或物理主義的過程,也不能通過計算或功能主義的方式模擬和實現(xiàn)這種意識。納格爾就此指出:“主觀性是經(jīng)驗的主觀性。它沒有被任何一種我們所熟悉的、最近設計出來的對心智的還原分析所捕捉,它不能用任何功能狀態(tài)或意圖狀態(tài)的解釋系統(tǒng)來分析,因為所有這些分析在邏輯上都與心智的缺失相關(guān)?!盵12]由是觀之,現(xiàn)象學意識第一人稱的主觀定性特征既是對人工智能的挑戰(zhàn),也是對人工智能實體能否成為道德主體的挑戰(zhàn)。目前,我們還很難說人工智能體具有了精神層面的意識,正如史蒂夫·托倫斯所言:“精神活動是通過有意識的體驗來完成的,如果沒有至少將其帶入有意識的第一人稱意識的可能性,任何假定的心理過程都不能真正算作是一種本質(zhì)上的真正的精神存在”[13]355。而且,對于一個道德主體來說擁有第一人稱視角的意識又是必不可少的,因為擁有第一人稱視角和想象他人的第一人稱視角是道德主體應該具備的兩種基本能力,像“己所不欲,勿施于人”等道德規(guī)則的體認和實現(xiàn)都需要借助這兩種基本能力,這兩種能力使我們在行動和決策上更加明智,而目前人工智能體并沒有明顯地具備這兩種能力,從而具備相應的道德能力。R·納特(Rajakishore Nath)和維尼特·薩胡(Vineet Sahu)就指出:“作為一個倫理主體,主觀感受是必要的,‘我’是意識的中心問題,道德的存在依賴于主體。但是人工主體不同,他們?nèi)狈χ饔^性的道德意識?!盵14]9目前各種各樣的人工智能理論都尚未理解心智和意識的內(nèi)在機制,如果人工智能理論不能解釋也不能很好地實現(xiàn)意識的主觀特征,那么人工智能體就不能成為道德主體。

最后,心智信息觀秉持的道德思維排斥情感的觀點是存在認識的誤區(qū)和偏差的。人類的生物性構(gòu)成決定了人類的現(xiàn)象學意識不是剔除了情感的、冷冰冰的認知或理性,在人類的現(xiàn)象學意識中,尤其是在道德意識中,情感扮演著重要的角色。道德情感主義的代表休謨指出,離開了情感,單純的理性不足以成為任何意志的動機進而產(chǎn)生行為。在《道德原理探究》中,休謨肯定了情感在道德判斷中的作用。斯洛特也從道德心理學的層面揭示:“我們先有道德態(tài)度,然后才有道德判斷,而道德態(tài)度完全產(chǎn)生于道德認知者的移情反應?!盵15]休謨和斯洛特對情感在道德意識中作用的辯護是在與理性相對的意義上做出的,而另外一種更為強烈的道德情感主義則認為在道德意識當中情感本身就是道德理性的一個組成部分。史蒂文·托倫斯就認為,在處理道德事務問題上,道德主體不像信息處理機制那樣,以純智力的方式做出理性的判斷和決定,而是在對他人的經(jīng)驗狀態(tài)進行一種移情式的理性思考的基礎上做出的一種決斷,這種思考至少在一定程度上是道德意識的組成部分。托倫斯把這種理性的概念稱為移情理性,并認為移情理性對于純粹意義上的道德行為至關(guān)重要,與純粹的認知理性或智力理性相比,除了認知因素外,這種移情理性包含強烈的情感因素。他說:“的確,我們可以說,道德主體要求一個人的感性以某種方式進入他的理性的核心,它是理性的一種形式,它包含了對他人的經(jīng)驗狀態(tài)進行情感或移情認同的能力。這種移情認同作為主體道德思考的一個組成部分,對主體來說是不可缺少的??梢哉f,確實,這是一種理性,與感知特定情感的能力緊密相連?!盵11]510在國內(nèi),也有學者認為情感是人類道德意識當中理性的部分,并將之稱為“情感理性”,把“情感理性”界定為“一種推理能力,即通過情感反應從某些事實前提推出規(guī)范性判斷或價值判斷的能力,也可以界定為規(guī)范性或應當性的來源之一”[16]。這即是說:道德意識是復合的,情感理性作為人類理性規(guī)范性的來源之一,同認知理性和實踐理性一道,共同構(gòu)成道德的理性規(guī)范。總之,無論采取以上哪種立場,情感都是人類現(xiàn)象學意識的組成部分,并在倫理生活中發(fā)揮著重要的作用,這也是人類之所以能夠成為道德主體的原因之一。反觀目前的人工智能體,它們不僅缺少情感,而且人類現(xiàn)象學意識當中移情的、共情的元素更是目前缺乏知覺的人工智能體所難以企及的。

四、結(jié) 語

當前人工智能技術(shù)迅猛發(fā)展,在人工神經(jīng)網(wǎng)絡研究的基礎上,人工智能體已經(jīng)具備了“深度學習”“自主進化”等能力,并展示出一系列的類人的行為特征,人工智能體越是具備行動的主體性特征,關(guān)于它們自身的道德地位問題就愈發(fā)顯得緊迫。但從前文的分析來看,目前的人工智能體尚不能成為完全意義上的道德主體,其關(guān)鍵性的障礙在于人工智能體還沒有達到道德主體所應具備的意識條件。目前的人工智能體能夠?qū)σ庾R當中的認知或智力的部分進行功能等價式的復制與模擬,但是意識是一個復合領域,除了認知性意識以外,現(xiàn)象學意識也是意識的重要組成部分,對于一個道德主體來說,這兩部分應被視為同等重要和相輔相成的。而目前人工智能體并不具備現(xiàn)象學意識,它們沒有意識第一人稱視角的主觀定性特征,就人工情感技術(shù)的發(fā)展來看,其進展也是微乎其微,這些與它們?nèi)狈ι卣骱蜕镄员倔w基礎息息相關(guān)。托倫斯就說:“直到找到一種方法來生成自主的、自我組織和自我維護的人工存在物,否則就不會產(chǎn)生有真正的道德要求和自主性行動的人工主體,這是一個完整的道德意義上的主體的先決條件?!盵13]515總之,人工智能技術(shù)雖然取得了長足的進步,但人工智能體要成為道德主體,依然面臨著難以逾越的本體論難題,存在著現(xiàn)象學意識缺乏的障礙。目前的人工智能體不能解決信息的倫理意義問題,不能解決道德領域最為核心的價值判斷問題,不能理解自身行為的道德意義。有鑒于此,人工智能體還不能成為一個道德責任的主體,而且就其意識狀態(tài)而言,對其進行道德責任歸咎既不可能也無意義。因此,目前的人工智能體尚不是能夠?qū)崿F(xiàn)倫理自治的主體,以人工智能體為代表的人工主體并不能成為與人類相等同的道德主體。我們應該將人工智能的倫理研究視為技術(shù)倫理的一種特殊應用研究領域,對于智能化、自主性的人工智能體的道德規(guī)制,也應該將著眼點更多地放在對研發(fā)者、使用者和受用者等主體責任的關(guān)注上。

猜你喜歡
生物性現(xiàn)象學理性
新加坡Green Mark標準的親生物性指標研究:基于氣候響應視角
中國園林(2022年3期)2022-04-13 02:58:22
試論淡水養(yǎng)殖常見生物性病害與防治技術(shù)
教育生態(tài)學視域下大學英語基層組織建設研究
高教學刊(2020年2期)2020-02-10 10:56:08
對“如是我聞”的現(xiàn)象學詮釋
中國詮釋學(2016年0期)2016-05-17 06:12:23
“本轉(zhuǎn)職”是高等教育的理性回歸
理性的回歸
汽車科技(2014年6期)2014-03-11 17:45:28
學習共同體的現(xiàn)象學闡釋與應用
對一夫一妻制度的理性思考
生物性和社會文化性:對“家族”與“民族”關(guān)系的人類學思考
民族學刊(2012年6期)2012-12-12 08:13:00
話“徑”說“園”——來自現(xiàn)象學語境中的解讀
称多县| 云霄县| 广昌县| 铅山县| 高邑县| 称多县| 富锦市| 临高县| 灵石县| 许昌市| 岢岚县| 裕民县| 讷河市| 汕尾市| 潮州市| 马尔康县| 乌兰察布市| 景宁| 河曲县| 南宫市| 娄烦县| 台南县| 延长县| 乐昌市| 鄂伦春自治旗| 磴口县| 墨竹工卡县| 嵩明县| 温州市| 宁陕县| 金山区| 德江县| 赤峰市| 岑溪市| 锡林浩特市| 湛江市| 尉犁县| 肃北| 米泉市| 鄯善县| 天峻县|