王 葦 琪
(南京師范大學(xué) 道德教育研究所,南京 210097)
人類正邁入人工智能時(shí)代,這是一個(gè)最好的時(shí)代,也是一個(gè)最壞的時(shí)代。自1956年“人工智能”概念被提出,學(xué)界的探討與質(zhì)疑從未停息。有學(xué)者認(rèn)為,人工智能技術(shù)讓人類陷入一定的倫理困境,即智能機(jī)器的工具理性作用會(huì)消解人的價(jià)值理性,進(jìn)而使人的主體性被淡化、人性趨于工具化甚至“人是目的”的存在意義也隨之抹殺[1]。也有學(xué)者認(rèn)為,人工智能給人類一個(gè)新的契機(jī)去重構(gòu)其主體性,在去人類中心主義的立場上得以重新思考人與自然的關(guān)系[2]。不論是技術(shù)支持論還是技術(shù)恐懼論皆表示人與人工智能技術(shù)存在相互糾纏的關(guān)系。在斯蒂格勒的技術(shù)哲學(xué)看來,人的本質(zhì)屬性是有缺陷的,不足以維持其存在與發(fā)展,他必須用技術(shù)的力量重塑自身從而獲得生存的可能性,因此,人的完整生命結(jié)構(gòu)在于“人—技術(shù)”。人工智能技術(shù)使得人的有限性減小,并具有了設(shè)計(jì)生命的力量;但同時(shí)人也可能陷入“智能化”帶來的種種風(fēng)險(xiǎn)之中。本文試圖重新審視人、技術(shù)、道德之間的關(guān)系,對(duì)個(gè)體在人工智能時(shí)代的道德處境進(jìn)行分析,并探討道德教育應(yīng)當(dāng)肩負(fù)的時(shí)代責(zé)任,為解決人工智能帶來的倫理困境與道德問題提供一定思路。
在技術(shù)哲學(xué)的視域中人的生命結(jié)構(gòu)是“人”與“技術(shù)”的合一,這是因?yàn)槿讼忍齑嬖谌毕荩夹g(shù)則能夠彌補(bǔ)人的缺陷,使人獲得存在與發(fā)展的可能性。然而,技術(shù)具有較強(qiáng)的不確定性,尤其在人工智能時(shí)代,技術(shù)將人卷入一種風(fēng)險(xiǎn)性的存在境遇之中,人在獲得新的機(jī)遇的同時(shí),也不可避免地面臨著更大的威脅。
在古希臘神話中,神創(chuàng)造了動(dòng)物與人,為了使其能夠獨(dú)立生存,愛比米修斯賦予了它們不同的能力,卻唯獨(dú)遺忘了人。為了彌補(bǔ)愛比米修斯的過失,普羅米修斯盜取了技術(shù)贈(zèng)予人類。所以,“人類是雙重過失——遺忘和盜竊——的產(chǎn)物”[3]。換言之,人類的存在從伊始便存在無法挽回的缺陷,人的生命也注定陷入一個(gè)悖論之中,即人必須借助于非生命的形式來確定自己的生命形式[3]。其中“非生命的形式”就是技術(shù)。如果沒有技術(shù),人類憑借其有缺陷的生命本質(zhì)難以存在于世,人不得不以“人—技術(shù)”的方式去存在。在遠(yuǎn)古時(shí)期用于縫補(bǔ)衣物的骨針、農(nóng)業(yè)文明時(shí)期的曲轅犁、工業(yè)文明時(shí)期的蒸汽機(jī)以及人工智能時(shí)代的機(jī)器人、平板電腦等皆是人生命結(jié)構(gòu)中的偶然存在,人需要利用依賴這些外在技術(shù)彌補(bǔ)自身本質(zhì)存在的不足。尤其在人工智能時(shí)代,技術(shù)的力量空前強(qiáng)大,它為人與生俱來的脆弱本質(zhì)提供支持,甚至可能會(huì)干預(yù)人的生命進(jìn)化,讓人的“硬件”和“軟件”得以改變和重塑。在不久的將來納米機(jī)器、3D打印技術(shù)、智能生物反饋系統(tǒng)等會(huì)讓人的器官、組織、系統(tǒng)升級(jí)換代;與此同時(shí),人類能夠突破肉身的限制,將思想上傳至智能機(jī)器,從而在虛擬的世界中進(jìn)行活動(dòng)[4]。這表示,在人工智能時(shí)代,“人—技術(shù)”的生命結(jié)構(gòu)會(huì)更加穩(wěn)固,甚至人與技術(shù)正在雙向融合,原本外在于人的技術(shù)不僅構(gòu)成人的非生命屬性,并且將以改變?nèi)松艽a的方式不斷地滲入到人的本質(zhì)結(jié)構(gòu)之中。
從靜態(tài)的角度來看,人工智能時(shí)代,“人—技術(shù)”的生命結(jié)構(gòu)呈現(xiàn)的是一種人與技術(shù)內(nèi)在統(tǒng)一的關(guān)系,這種統(tǒng)一性主要體現(xiàn)在技術(shù)與人的身體機(jī)制的關(guān)系上。一方面,技術(shù)器具可視為人的身體延伸與補(bǔ)充。例如,計(jì)算機(jī)視覺技術(shù)通過圖像理解機(jī)制可以幫助人做分類識(shí)別、動(dòng)作分析、圖像重建等,但是憑借人本身的生理機(jī)制卻無法完成這些工作。盡管人在運(yùn)用智能技術(shù)時(shí)僅僅考慮的是其工具價(jià)值,但技術(shù)卻在人不經(jīng)意的使用過程中擺脫了工具的身份,進(jìn)入人的身體空間。另一方面,當(dāng)人的自身結(jié)構(gòu)受損,技術(shù)器具可做為相應(yīng)的替代。正如梅洛—龐蒂對(duì)盲人和手杖的關(guān)系描述,盲人的手杖對(duì)他來說不是一件物品,其等同于正常人的眼睛,手杖活動(dòng)的范圍便是正常人的目光所及[5]。在人工智能時(shí)代,代具則以更加隱秘的方式嵌入到人的身體空間之內(nèi),例如集超聲波和紅外測距、口令控制等技術(shù)于一體的智能輪椅為人提供更加便捷服務(wù)的同時(shí)也讓人對(duì)其形成更強(qiáng)的依賴性。此外,技術(shù)還與人的文化具有統(tǒng)一的關(guān)系。人的記憶分為三類,第一是感知,第二為想象,第三為媒介記憶。前兩種記憶的本質(zhì)在于遺忘,但是第三種記憶卻作為意識(shí)的代具留存著人類的思想和文化[6]。在歷史上,龜甲、樹皮、紙、竹簡、羊皮等器具皆承載過符號(hào)化的人類文明,在人工智能時(shí)代,云數(shù)據(jù)庫因其方便、高效、低成本的優(yōu)勢正成為人類文明的新記憶載體。
從動(dòng)態(tài)的角度來看,“人—技術(shù)”的生命結(jié)構(gòu)是在人與技術(shù)的延異中生成的?!把赢悺边@一概念由德里達(dá)提出,斯蒂格勒用來闡釋人與技術(shù)之間前后錯(cuò)動(dòng)的時(shí)間—?dú)v史性關(guān)系。在斯蒂格勒的語境中,“延異”具有時(shí)間的空間性和空間的時(shí)間性雙重內(nèi)涵,即人與技術(shù)并非是同時(shí)發(fā)展、共時(shí)存在的關(guān)系,對(duì)于個(gè)體的人而言,相較于技術(shù)的超前,他總處于滯后的狀態(tài),雖有所跟進(jìn),卻難免處于技術(shù)的過去時(shí)態(tài)之中。象征著滯后的愛比米修斯與象征超前的普羅米修斯兩神的魅影始終潛伏在人的歷史性與時(shí)間性存在之中。然而,正是人與技術(shù)的時(shí)空錯(cuò)位使得雙方互相成就。一方面,人發(fā)明了技術(shù);另一方面,技術(shù)也發(fā)明了人。例如,為了提高教學(xué)效率,彌補(bǔ)傳統(tǒng)教育的缺陷,人工智能技術(shù)逐漸運(yùn)用在教育教學(xué)領(lǐng)域,對(duì)于師生而言,這些技術(shù)是超前的,他們必須先進(jìn)行技術(shù)的學(xué)習(xí),只有熟練掌握,技術(shù)才能成為他們生命結(jié)構(gòu)的一部分。憑借著技術(shù),師生在教學(xué)方面的能力得到進(jìn)一步的提升,而技術(shù)運(yùn)用的缺陷也逐漸在教學(xué)實(shí)踐中凸顯,于是技術(shù)需要被改造以適應(yīng)師生的新需求。在“人—技術(shù)”中“人”處于固定的位置,具有永恒性;“技術(shù)”則處于流動(dòng)之中,其駐留的依據(jù)就是“人”,不符合“人”需要的技術(shù)必然會(huì)排除在人的生命結(jié)構(gòu)之外。
“人—技術(shù)”的生命結(jié)構(gòu)表示,人先天存在缺陷,需要借助技術(shù)的力量獲得生存與發(fā)展。技術(shù)進(jìn)步的意義不僅體現(xiàn)在人類生活的便捷與高效,更顯現(xiàn)了人的存在價(jià)值。在人工智能時(shí)代,技術(shù)進(jìn)一步地彌補(bǔ)了人的缺陷,并予人更大的可能空間,但是這一空間卻隱藏著未知的風(fēng)險(xiǎn),人可能打破“人”“技術(shù)”抽象的本質(zhì)規(guī)定性,將人工智能技術(shù)與自身建構(gòu)起來,在行動(dòng)中實(shí)現(xiàn)作為完整生命的價(jià)值;也可能被技術(shù)遮蔽人性,沉淪于世,忘記存在的意義。所以,這可能是一個(gè)最好的時(shí)代,也可能是一個(gè)最壞的時(shí)代。人正處于“風(fēng)險(xiǎn)”的存在境遇之中。
在人工智能時(shí)代,人的存在境遇之中充滿風(fēng)險(xiǎn),“風(fēng)險(xiǎn)”意味著不確定,意味著人工智能技術(shù)給人類帶來了前所未有的機(jī)遇,也可能將人置于更加危險(xiǎn)的境地。從積極的角度來看,人工智能讓人的有限性不斷縮小,從而具有更強(qiáng)大的超越性力量。動(dòng)物是特定化的自然生命體,在離開造物主之手時(shí)就已臻于完善,由于器官的專門化,它們只能生存在固定的空間,一旦自然環(huán)境發(fā)生突變,動(dòng)物便有遭遇滅絕的可能性。人由于未特定化,反而具有了雙重生命的意義,一是自然的、有缺陷的生命體,二是具有超越性的自為的存在。因此,人不僅能夠適應(yīng)環(huán)境,還能夠改造、創(chuàng)造環(huán)境。實(shí)現(xiàn)人雙重生命跨越與交融的正是技術(shù)。在當(dāng)代,人工智能技術(shù)在各個(gè)領(lǐng)域的運(yùn)用是人之超越性實(shí)現(xiàn)的結(jié)果與前提。例如,在1997年IBM的“深藍(lán)”超級(jí)電腦擊敗了人類國際特級(jí)象棋大師,但人類并未因此自怨自艾,反而在人工智能的協(xié)助下,人類的國際象棋大師達(dá)到了更高的水平[7]。
從消極的角度來看,人工智能技術(shù)的發(fā)展讓人生命結(jié)構(gòu)出現(xiàn)失衡。計(jì)算機(jī)算法在越來越多的認(rèn)知技能上超越人類,其中包括理解人的情緒。在神經(jīng)科學(xué)的研究中,人的直覺不再是神秘的自由意志而是數(shù)十億神經(jīng)元在瞬間計(jì)算各種可能性的結(jié)果[7]。這表示,為了獲得更高的效益,人可以用計(jì)算機(jī)算法代替自我選擇作出最佳的決策。甚至在道德領(lǐng)域,算法可以用于解決類似于“電車難題”之類的道德困境。因此,過去人文主義“上帝是人類想象力的產(chǎn)物”的觀點(diǎn)在人工智能時(shí)代可以表述為“人類的想象力一樣只是生化算法的產(chǎn)物”,人以自我為中心的立場逐漸向以數(shù)據(jù)為中心轉(zhuǎn)移[8]。人的主體性與自由意志正處于技術(shù)的壓制之中,其遺失了生命本真的價(jià)值。首先,人的理性在衰退。當(dāng)遇到問題,人會(huì)利用人工智能技術(shù)尋求解決策略。表面上人主宰技術(shù),讓技術(shù)為自己的生活服務(wù),但實(shí)際上人工智能技術(shù)生成了一套權(quán)威機(jī)制,它降低了人對(duì)自我的信任及效能感,讓人依賴技術(shù)而忘記了理性的價(jià)值。而對(duì)理性的遺忘使得人的思維呈現(xiàn)單向結(jié)構(gòu),缺少批判能力而傾向于服從技術(shù)權(quán)威的指令,當(dāng)人工智能系統(tǒng)出現(xiàn)故障,人將處于更加脆弱的生命境遇。其次,人缺少主觀意識(shí),不能正確地看待、理解自我與世界。人工智能的廣泛運(yùn)用使得智能與意識(shí)兩個(gè)概念被混為一談。于是人對(duì)自我、他人與世界的態(tài)度、情感的狀態(tài)可用計(jì)算機(jī)算法表現(xiàn)出來。人工智能被認(rèn)為能夠表達(dá)人的真我,并幫助人們做出人生抉擇。人的生命成為一套生化算法,而自我意識(shí)也隨之異化為有待處理的數(shù)據(jù)。最后,人的行動(dòng)能力被弱化?!靶袆?dòng)”具有自為、主動(dòng)的特質(zhì),是人之主體性的具體表現(xiàn)。在人工智能時(shí)代,人淹沒于海量的數(shù)據(jù)信息之中,個(gè)性的意愿、需求、目的被弱化,自由、多元的外部環(huán)境反而使“生命喪失了全部結(jié)構(gòu),它由許許多多的小碎片拼湊而成,各自分離,沒有任何整體感”[9]。人為了追求一種存在的確定性,不得不淪為“常人”,按照人工智能的指示展現(xiàn)個(gè)人行為,而缺失行動(dòng)主體的力量。
人的完整性體現(xiàn)在人的本質(zhì)屬性與技術(shù)這一非生命屬性的結(jié)合,其中人的主觀意識(shí)、思維以及行動(dòng)力是技術(shù)存在以及發(fā)展的根據(jù),然而,在人工智能時(shí)代,機(jī)器智能與人類意識(shí)的差異在不斷縮小,致使技術(shù)具有了控制人本質(zhì)屬性的力量,人因生命結(jié)構(gòu)的失衡而處于一種消極的道德處境。
康德提出“人為自己立法”,以此彰顯人之理性行為主體的地位,在自然狀態(tài)與社會(huì)中的人因?yàn)橄闰?yàn)自由而擁有表明什么行為合乎責(zé)任、什么行為背離責(zé)任的羅盤[10]。這意味著人是道德的主體,道德的存在和內(nèi)容不來自于上帝或是其他外部權(quán)威力量,而是由人在尊重理性與絕對(duì)義務(wù)的前提下創(chuàng)造出的。人的道德力量根植于人自身,唯有人能夠認(rèn)識(shí)規(guī)則、做出價(jià)值判斷、展開道德行動(dòng)。對(duì)于個(gè)體的人來說,其依舊是道德主體,在整體的人創(chuàng)設(shè)的倫理框架之下,個(gè)體所面對(duì)的外部世界與外部聯(lián)系是具體、偶然的,個(gè)體需要自主地行動(dòng),并為之承擔(dān)后果。在救生艇實(shí)驗(yàn)、電車難題、炸彈實(shí)驗(yàn)等道德困境中,沒有固定的標(biāo)準(zhǔn)答案,每一個(gè)道德選擇必然有賴于道德主體的思考、推理以及取舍,由于所處的價(jià)值空間、道德發(fā)展水
平以及道德個(gè)性的差異,道德主體解決困境的做法會(huì)有所不同。在技術(shù)、人與道德的關(guān)系中,技術(shù)本身不具有意向性,作為主體的人可以利用技術(shù)展開道德行動(dòng),換言之,在人的生命結(jié)構(gòu)中,道德寓于人的本質(zhì)屬性,而技術(shù)與道德的聯(lián)系需依靠人的主觀意識(shí)為中介。在人工智能時(shí)代,道德問題則可用計(jì)算機(jī)算法進(jìn)行解決,這種道德算法的設(shè)計(jì)主要有三條進(jìn)路,第一是自下而上的經(jīng)驗(yàn)論進(jìn)路,即人工智能系統(tǒng)能夠通過不斷的數(shù)據(jù)訓(xùn)練,自動(dòng)形成穩(wěn)定的道德推理模式,以此應(yīng)對(duì)不同情境的道德問題;第二是自上而下的唯理論進(jìn)路,技術(shù)人員事先設(shè)定倫理原則,排列價(jià)值序列,人工智能機(jī)器需要做的就是計(jì)算其行為是否合乎規(guī)范;第三種是混合式路徑,取長補(bǔ)短,結(jié)合了唯理論的“規(guī)則驅(qū)動(dòng)”進(jìn)路和經(jīng)驗(yàn)論的“數(shù)據(jù)驅(qū)動(dòng)”進(jìn)路,是當(dāng)前道德算法的主流[11]。盡管道德算法的設(shè)計(jì)離不開人主觀意識(shí)的能動(dòng)性,但是當(dāng)?shù)赖滤惴ㄗ鳛槿说赖乱庾R(shí)的替代物運(yùn)用于實(shí)踐中,就可能成為實(shí)質(zhì)性的道德主體,而人的道德主體地位趨于形式。誠然,人工智能機(jī)器在一些生活情境中,比如面對(duì)無車輛通過時(shí)是否要闖紅燈、無監(jiān)控及路人的情況下開車肇事是否要逃逸等,可能比人更能遵守道德規(guī)范,但是如若人因此而依賴道德算法,放棄自己的道德自由與主體意志,就意味著取消了人的道德責(zé)任。當(dāng)算法失靈造成不道德的后果,智能機(jī)器會(huì)成為最好的替罪羔羊,人反因其非道德的屬性而免于承擔(dān)后果。這表明,人工智能技術(shù)并非不能運(yùn)用于道德領(lǐng)域,但前提在于人必須以道德主體的角色展開自主、自為的行動(dòng),技術(shù)在其中的作用是幫助人建立起對(duì)客觀情境的認(rèn)識(shí),避免主觀意識(shí)的盲區(qū)造成對(duì)具體問題的分析出現(xiàn)偏差。
人發(fā)明技術(shù)的目的在于彌補(bǔ)生命本質(zhì)屬性的缺陷,擴(kuò)展自我的生活空間,并在此基礎(chǔ)上去追求更高的生命價(jià)值。因此,技術(shù)的價(jià)值在于實(shí)用,它出于人主觀意識(shí)的能動(dòng)性卻本身不具有生命的特質(zhì)。在人工智能時(shí)代,雖然機(jī)器有了類人的特征,在一些領(lǐng)域的人機(jī)競賽中機(jī)器甚至更占上風(fēng),但機(jī)器仍舊無法擁有人的超越性生命特質(zhì),而道德正是人的超越性生命特質(zhì)的表現(xiàn)。從應(yīng)然的角度來看,道德位于人的生命本質(zhì)之中。孟子提出“無惻隱之心,非人也?!比私杂械赖轮贫耍贫思刺煨灾畠?nèi)涵。生物學(xué)家賴特也認(rèn)為“通常被看作道德的各種沖動(dòng)與行為都是根植于我們的基因的”[12]。然而,在人工智能時(shí)代,道德卻存在被技術(shù)化的傾向,即道德不僅是人所獨(dú)有,人工智能機(jī)器也具有道德,但是機(jī)器的道德本身并不值得欲求的,它僅僅作為一種手段而存在,于是當(dāng)人放棄自我的主體意識(shí)試圖使用道德機(jī)器解決問題時(shí),就使得道德作為與技術(shù)合成的整體而存在,具有技術(shù)的工具價(jià)值而喪失作為精神的意義。道德的技術(shù)化傾向使得道德的人性色彩淡化,同時(shí)人之道德生命的本體價(jià)值也被漠視。從表面上看,人作為主體從自我的需要以及技術(shù)的特性出發(fā)做出合目的、合規(guī)律的價(jià)值判斷,構(gòu)建了符合人性的道德價(jià)值序列,但人工智能技術(shù)高效、便捷的優(yōu)勢卻給人一種暗示,即好用等于善,在這種暗示下,道德的價(jià)值異化為效用,同時(shí)人的道德發(fā)展將與道德算法的進(jìn)階劃上等號(hào)。這種將工具價(jià)值置于生命價(jià)值之上的做法無異于舍勒所說的“近視眼贊美眼鏡,跛子贊美拐杖,蹩腳的登山者贊美登山鐵爪和登山繩”[13]。人之所以會(huì)處于失序的價(jià)值空間,主要因?yàn)槿斯ぶ悄芸梢阅M人的意識(shí),甚至能用問題解決程序代替人之意識(shí)的特殊功能,例如,擁有足夠生物統(tǒng)計(jì)數(shù)據(jù)以及運(yùn)算能力的生物傳感器通過對(duì)個(gè)人眼球軌跡、血壓、大腦活動(dòng)、肌肉動(dòng)作等的監(jiān)控反饋出他的情緒、性格、欲求等,甚至人工智能系統(tǒng)不僅具有提供、分析數(shù)據(jù),還能夠直接給出決策建議,從某種程度上說,機(jī)器可能比人更了解人。盡管人們普遍承認(rèn)人工智能機(jī)器沒有意識(shí),卻仍舊無法對(duì)智能與意識(shí)進(jìn)行明確區(qū)分,在其看來人工智能與人類意識(shí)的機(jī)制猶如黑箱,能夠看到輸入、輸出卻無法直觀運(yùn)作的過程,并且人工智能因有數(shù)據(jù)的解釋而顯得更具有說服力。于是人忽略了自己作為有意識(shí)的生命體的事實(shí),降低自我的理性,將人工智能系統(tǒng)視為權(quán)威,默認(rèn)智能較之意識(shí)更加有用。
本質(zhì)屬性的“人”與非生命屬性的“技術(shù)”構(gòu)成一個(gè)獨(dú)立的人之生命體,但這樣的生命個(gè)體依舊不具有生存的可能性,技術(shù)本身存在無法彌合的缺陷,使其
不能完美填補(bǔ)愛比米修斯留下的漏洞,因此,個(gè)體克服先天不足的另一種方式就是依靠群體的力量建構(gòu)其共同的生活空間。倫理的原初涵義就是“靈長類生物持久生存的居留地”[14]。具有主觀意識(shí)的個(gè)人在交往的過程中必然存在各種矛盾,如若矛盾無法及時(shí)協(xié)調(diào),就會(huì)形成更大的沖突,最終導(dǎo)致群體的解體,個(gè)體仍將陷入孤立無援的境地。于是一些為大多數(shù)人認(rèn)可的行為模式在實(shí)際生活中被不斷強(qiáng)化,成為倫理規(guī)范,起著調(diào)和個(gè)體利益、穩(wěn)定群體秩序的作用。倫理對(duì)于人而言,不僅是外在的約束條件,更是人安身立命的精神家園,“人—技術(shù)”生命個(gè)體存在的依據(jù)就在于具有連結(jié)力量的倫理,讓個(gè)體得以與他人連結(jié),與社區(qū)連結(jié),與社會(huì)連結(jié),直到與人類種屬連結(jié)[15]。在人工智能時(shí)代,人與機(jī)器組合為強(qiáng)大而獨(dú)立“半人馬”生命結(jié)構(gòu),盡管人的先天缺陷依舊存在,但人工智能讓人得以重新設(shè)計(jì)自我的生命構(gòu)造,用技術(shù)創(chuàng)造新的生活空間。在新的生活空間中,人將對(duì)人的依賴轉(zhuǎn)向了對(duì)于人工智能的依賴,例如在超市、銀行、學(xué)校、飯店等場所,都配備了自助設(shè)施,除了具有方便、快捷的優(yōu)勢,還有零接觸的安全性保障,避免人與人接觸而引起的疾病傳染。這意味著,人與人之間的交往機(jī)會(huì)越來越少,人際關(guān)系趨于形式化,人與人的共同體的穩(wěn)定性不若以往,社會(huì)倫理結(jié)構(gòu)也變得脆弱。倫理最初指向的是人與人之間的關(guān)系以及關(guān)系背后所蘊(yùn)含的道德與責(zé)任,正如中國古代文化中的五倫,每一對(duì)關(guān)系都包含著兩類角色,不同的角色需承擔(dān)相應(yīng)的責(zé)任,以構(gòu)成穩(wěn)固的社會(huì)倫理結(jié)構(gòu)。然而,當(dāng)交往對(duì)象透明化,個(gè)人便容易以原子式的立場看待生活中的道德問題,用偶然性、個(gè)別性的思維方式展開道德行動(dòng),而不能從普遍性的倫理視角出發(fā),正確看待人與人相互糾纏的存在關(guān)系,將自我與社會(huì)倫理實(shí)體聯(lián)系起來,基于整體性的思考解決道德問題。盡管,在當(dāng)代人與智能機(jī)器作為新的倫理關(guān)系被提出,機(jī)器人可能以共同體成員的角色嵌入到社會(huì)倫理實(shí)體中,但是還有更多的問題亟待解決,比如,機(jī)器人如何實(shí)現(xiàn)倫理認(rèn)同?人與機(jī)器人的倫理責(zé)任是什么?人的道德發(fā)展有賴于對(duì)“倫”之規(guī)律的自覺把握以及對(duì)“理”的意志轉(zhuǎn)化,換言之,道德是個(gè)人倫理普遍性的內(nèi)在表達(dá),個(gè)體唯有與“人”交往方能形成倫理認(rèn)同,并在倫理的精神空間中建構(gòu)起良好的道德生命秩序。
在人工智能時(shí)代,由于技術(shù)的僭越而使得人的生命結(jié)構(gòu)處于失衡狀態(tài),道德也隨之異化為智能的產(chǎn)物,對(duì)此,道德教育應(yīng)當(dāng)肩負(fù)起時(shí)代責(zé)任,讓人的自主性、自由意志在道德行動(dòng)中得以確證,使個(gè)體在與他人的真切交往中,形成對(duì)整個(gè)生活世界的倫理認(rèn)同,獲得倫理精神的提升,讓失衡的生命結(jié)構(gòu)得以復(fù)歸。
在人工智能時(shí)代,機(jī)器將人類的智慧與經(jīng)驗(yàn)集于一身,在諸多領(lǐng)域承擔(dān)著重要的工作,并表現(xiàn)出非凡的解決問題的能力,由此引發(fā)了一些技術(shù)倫理的爭議,人們對(duì)于人工智能主要持有兩種倫理觀,一是認(rèn)為人工智能存在的目的是為人類服務(wù),盡管人工智能在一些方面勝過人類,但是人依舊是人工智能的控制者;二是認(rèn)為人工智能將引發(fā)更多的問題,比如機(jī)器進(jìn)入各行各業(yè)而人類勞動(dòng)力則被大量淘汰,當(dāng)人類過度依賴機(jī)器還會(huì)喪失人的理性與尊嚴(yán),此外人工智能還會(huì)引發(fā)各種倫理問題。前者體現(xiàn)的是工具主義的視角,看待人與技術(shù)的關(guān)系時(shí)以人為主導(dǎo),將人工智能視為需要學(xué)習(xí)與掌控的對(duì)象;后者則具有技術(shù)恐懼論的傾向,其看到了人類文明發(fā)展的轉(zhuǎn)折點(diǎn),即人工智能在靠近人類,并試圖以人類的方式存在,認(rèn)為盡管機(jī)器由人發(fā)明,但在之后人卻不能掌控全局,人類中心的地位將被取代。這兩種倫理觀皆承繼了二元對(duì)立的思維路徑,將人與技術(shù)對(duì)立起來,皆存在一定的局限性,未能真正理解人與技術(shù)之間的關(guān)系,使得個(gè)人陷入道德主體性的消解、價(jià)值失序、倫理精神缺失等道德困境之中。對(duì)此,道德教育應(yīng)當(dāng)幫助個(gè)體正確認(rèn)識(shí)人、技術(shù)與道德之間的關(guān)系,破除二元對(duì)立的狹隘立場,以整體主義的理路看待問題。首先,人生命結(jié)構(gòu)的完整性在于“人”與“技術(shù)”的合一,雖然技術(shù)外在于人的本質(zhì)屬性,本身不具有生命的特質(zhì),但沒有技術(shù)加持的人必定缺失自為性與超越性。道德則與人的自由意志相關(guān),為人的本質(zhì)屬性所需要,而技術(shù)具有非道德性,其本身無法被進(jìn)行道德評(píng)價(jià),因
此即便是高智能的機(jī)器也不能取代人的意志,展開道德行動(dòng)。其次,在技術(shù)與道德的關(guān)系中,技術(shù)是非道德的,但是技術(shù)的道德化卻可成為現(xiàn)實(shí)。這意味著,作為主體的人可以以“物質(zhì)的方式”參與道德活動(dòng)。換言之,人可以將自己的道德意識(shí)與情感投入到技術(shù)的設(shè)計(jì)之中,讓技術(shù)成為道德的載體。馬路上的減速帶、嵌有放大鏡的醒目藥瓶、畫著地球圖案的環(huán)保購物袋等都隱含著某種道德暗示,能夠?qū)θ说牡赖滦袨檫M(jìn)行指導(dǎo)。最后,人道德的發(fā)展是主客體共同作用的結(jié)果,技術(shù)作為一種中介力量能夠調(diào)和著人與世界的關(guān)系,讓人突破主觀意志的局限性,深入認(rèn)識(shí)道德、領(lǐng)悟道德,并建構(gòu)起自我的道德空間。因此,在人工智能時(shí)代,學(xué)習(xí)和利用人工智能技術(shù)成為了人獲得道德發(fā)展的必要條件,道德教育應(yīng)當(dāng)起到積極的引導(dǎo)作用,讓人工智能技術(shù)成為個(gè)體道德發(fā)展的助力。
道德行動(dòng)是具有意向性的所做,只有符合特定條件的主體才能夠展開道德行動(dòng)。第一,須具有自主意志,也即自由意志,意指主體在進(jìn)行推理、判斷、選擇以及具體行動(dòng)的過程中,不受他者意志的約束或強(qiáng)制,而是能彰顯出道德自我的本真。第二,有指向外部世界的能力,即主體既有認(rèn)識(shí)事物屬性、狀態(tài)的能力,又能有目的、有意識(shí)地與外部世界建立聯(lián)系。第三,能夠承擔(dān)道德責(zé)任。盡管在某些情況下道德動(dòng)機(jī)、道德行動(dòng)與行動(dòng)結(jié)果不能形成必然、直接的因果關(guān)系,但不可否認(rèn)的是主體的意志及意向性必然直接影響著道德行動(dòng)本身,縱使“好心辦壞事”,主體也應(yīng)當(dāng)積極直面壞事的后果。這三點(diǎn)表明,唯有人具有成為道德行動(dòng)主體的可能性。然而,一些技術(shù)哲學(xué)家認(rèn)為意向性并非為人所獨(dú)有,技術(shù)人工物因其調(diào)節(jié)人與世界關(guān)系的作用而擁有著有別于人類的意向性,甚至從某種程度上說,人的意向性并不純粹,其往往建立在“人—技術(shù)”結(jié)構(gòu)的基礎(chǔ)上,因此,人認(rèn)識(shí)世界、改造世界的過程不可避免地體現(xiàn)著技術(shù)的意向性。技術(shù)意向性的提出意味著技術(shù)人工物同樣擁有著自主性,并且其自主性與人的自主性呈現(xiàn)一種反比例函數(shù)的關(guān)系。在人工智能時(shí)代,機(jī)器擁有高智能以及高自主性,而人的自主性則在弱化。正如前文所述,當(dāng)人將道德選擇的權(quán)利交予道德算法時(shí),其自由意志的根基便被動(dòng)搖,而機(jī)器將成為新的道德行動(dòng)主體。此外,還有觀點(diǎn)認(rèn)為,智能機(jī)器因先天被賦予人的道德意向,可被定位為“道德代理人”的角色,人則是“具有固有價(jià)值受人工智能‘照護(hù)’的客體”[16]。不論將人工智能視為道德行動(dòng)主體還是道德代理人,皆是以二元對(duì)立的方式看待人與技術(shù)的關(guān)系,消解了作為“人—技術(shù)”存在的人之完整生命結(jié)構(gòu)的意義,也未能真正理解道德、行動(dòng)與主體之間的關(guān)聯(lián)。實(shí)際上,“道德是‘能行動(dòng)的意志’。它是有轉(zhuǎn)變?yōu)楝F(xiàn)實(shí)沖動(dòng)并能夠通過主體行為成為現(xiàn)實(shí)定在的意志”[17]。只有智能、沒有意志的人工智能機(jī)器即使能夠應(yīng)對(duì)一些道德問題,但終究不能夠脫離人的自主意志而獨(dú)立存在。對(duì)此,道德教育應(yīng)當(dāng)守其本心,避免落入道德算法的陷阱之中,秉持著以人為本的育德觀,在教學(xué)過程中鼓勵(lì)學(xué)生獨(dú)立思考道德問題,并在實(shí)踐中培養(yǎng)學(xué)生知情意行合一德道德智慧,使其成為具有自由意志的道德行動(dòng)主體。盡管過度依賴人工智能會(huì)阻礙個(gè)體的道德發(fā)展,但德育教學(xué)以及學(xué)生的道德生活仍離不開人工智能的輔助,學(xué)習(xí)運(yùn)用人工智能技術(shù),使之成為個(gè)體“應(yīng)手”之物,繼而形成意義的聯(lián)結(jié)也是德育的時(shí)代責(zé)任。
“倫理”是一個(gè)具有時(shí)間與空間雙重維度的概念,從空間的維度來看,倫理是人的安身之所,以關(guān)系、規(guī)則的形式將個(gè)體聚集,使之相互依存、共同生活,從而避免了個(gè)體的漂泊無依。從時(shí)間的角度來看,倫理意味著種族的延續(xù)以及個(gè)體生命的延伸,前者表示單獨(dú)個(gè)體的生命有始有終,而族群之中有生有死、生死交替卻又生生不息;后者表示具有思維、意志的個(gè)體能夠?qū)惱淼钠毡樾栽⒂趥€(gè)人的獨(dú)特性,不斷建構(gòu)自我的道德意義世界。“精神”是一種“主客同構(gòu)”的力量,一方面,精神能將外在的事物觀念化,使之成為人的內(nèi)在性;另一方面,精神將內(nèi)在的品質(zhì)實(shí)現(xiàn)出來成為客觀世界的種種形態(tài)。“倫理精神”是指個(gè)體能夠認(rèn)同倫理、將自我的命運(yùn)與倫理實(shí)體連結(jié)的生命狀態(tài),又是個(gè)體不斷突破自我、追求真、善、美
的道德生命歷程。在人工智能時(shí)代,個(gè)體卻遭遇著倫理精神的發(fā)展危機(jī),人對(duì)機(jī)器的依賴使得人與人之間的交往逐漸減少,這使得以人倫關(guān)系為基礎(chǔ)的倫理空間正在萎縮,人對(duì)于倫理實(shí)體的認(rèn)同感也不斷減弱。道德教育應(yīng)當(dāng)培養(yǎng)個(gè)體的倫理精神,讓道德生長在倫理空間之內(nèi)。首先,道德教育需引導(dǎo)學(xué)生形成對(duì)包括現(xiàn)實(shí)與虛擬在內(nèi)的完整生活世界的倫理認(rèn)同,建立起自我與倫理實(shí)體之間的聯(lián)系。倫理實(shí)體與現(xiàn)實(shí)相關(guān),具有普遍性、本原性的特征,它是把握倫理關(guān)系與倫理秩序的紐結(jié),家、社區(qū)、國家等皆屬于倫理實(shí)體的范疇。現(xiàn)如今,人工智能技術(shù)打破地理與生理的限制拓展了個(gè)體的生活空間,如今虛擬世界已成為了人新的棲居之所,然其對(duì)人的道德約束力卻十分有限,因?yàn)樘摂M世界被排斥在倫理實(shí)體的范疇之外,人難以對(duì)其形成倫理認(rèn)同。因此,道德教育應(yīng)當(dāng)幫助個(gè)體用倫理將現(xiàn)實(shí)與虛擬世界相連,讓個(gè)體意識(shí)到虛擬世界仍具有倫理實(shí)體的價(jià)值意蘊(yùn),從而促成個(gè)體對(duì)虛擬世界形成倫理認(rèn)同,將道德的生活從現(xiàn)實(shí)擴(kuò)展至虛擬世界。其次,倫理指向一種對(duì)稱性的關(guān)系,強(qiáng)調(diào)我與他人的共在,我們對(duì)彼此來說都是一種無聲的命令。這表示,道德主體內(nèi)在價(jià)值得以確證的前提是直面他人、對(duì)他人負(fù)責(zé)。道德教育應(yīng)當(dāng)以人與人的交往為主要途徑,幫助個(gè)體走出人工智能所創(chuàng)設(shè)的狹隘的交往空間,走向他人,以面對(duì)面的形式與他人對(duì)話、協(xié)商、合作,讓道德生長于有人的場域之中。最后,新的時(shí)代必然需要新的倫理規(guī)范來保障社會(huì)的正常運(yùn)轉(zhuǎn),但目前人類正處于一個(gè)倫理的斷裂期,許多道德、倫理問題紛至沓來。對(duì)此,道德教育應(yīng)當(dāng)展現(xiàn)其開放的一面,肯定個(gè)體的自由意志以及道德想象力,鼓勵(lì)他們針對(duì)一些時(shí)代的倫理議題進(jìn)行思考與討論,將個(gè)人的道德困境與社會(huì)的倫理命運(yùn)相結(jié)合,做有倫理精神的道德主體。
濰坊工程職業(yè)學(xué)院學(xué)報(bào)2022年2期