国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能情感的倫理風險及其應(yīng)對

2024-05-21 18:07王瀟毅
倫理學研究 2024年1期
關(guān)鍵詞:倫理人工智能人類

謝 瑜 王瀟毅

決策研究在20 世紀90 年代以前,一直以認知為中心,強調(diào)思考的能力,但從20 世紀90 年代起,越來越多地納入了情感的作用,強調(diào)感受的能力。人工智能作為高效的計算工具,已經(jīng)在很大程度上模擬了人的理性思考過程,但是只有理性沒有情感,是否能被稱為真正的智能呢?1994 年,神經(jīng)科學家安東尼奧·達馬西奧(Antonio Damasio)證明太少或缺乏情緒會影響判斷決策的準確性,引發(fā)了新一輪的熱議。人工智能領(lǐng)域逐步將“情感”劃為重點研究方向,旨在研發(fā)“既有理智又有情感的系統(tǒng)”。

情感化已經(jīng)成為當下人工智能技術(shù)發(fā)展最重要的趨勢之一。百度、小米、蘋果、微軟等老牌公司,以及試圖開拓市場的新銳公司(如太古計算、竹間智能、Sensing Feeling 和Affectiva)都對人工智能情感頗有興趣。小度、小愛同學、Siri、微軟小冰等以“情商”為賣點的社交機器人爆火,機器開始呈現(xiàn)出“具有情感”的一面。2016 年,就職于Affectiva 的加比·齊德維爾德(Gabi Zijderveld)在接受采訪時談道,“也許五年后,這項技術(shù)在未來會無處不在;我們會看到很多每天都在用情感與之互動的科技”[1](6-7)。

人工智能情感是指試圖將情感賦予人工智能的科技活動過程及產(chǎn)品,是對人類情感進行模擬的產(chǎn)物,主要表現(xiàn)為對人類情感識別、表達和應(yīng)答功能的模擬,人工情感、情感計算、情感人工智能、情感機器人等都是其具體的技術(shù)樣態(tài)。人工智能情感以提升機器智能、促進人機和諧交互和深化情感研究為目標,在教育、醫(yī)療、社會服務(wù)等領(lǐng)域有廣泛的應(yīng)用空間。值得深思的是,人工智能情感與傳統(tǒng)意義上的情感有何不同,又如何影響人類生活。具體而言,應(yīng)如何看待情感數(shù)據(jù)的使用?是否造成隱私被侵犯?人工智能情感是否會帶來新的欺騙與控制?人工智能實現(xiàn)的情感是否有其價值?人工智能情感能否真正給予人心靈的慰藉,從而替代人際情感交往?事實上,人工智能情感技術(shù)的發(fā)展深刻影響著人類社會,在帶來效用的同時催生出諸多倫理風險。

一、人工智能情感的倫理風險類別

人工智能開始顯現(xiàn)出具有“情感”,使得人機情感交互成為可能,似乎能夠破解現(xiàn)代社會面臨的情感冷漠、疏離的困境。然而現(xiàn)實是,人工智能情感技術(shù)的發(fā)展與應(yīng)用非但沒能紓解這些困境,反而對情感的私密性、真實性、體驗感、意義感造成沖擊,加劇了情感生活的數(shù)據(jù)化、工具化、機械化,帶來了情感隱私泄露、情感欺騙盛行、情感控制加劇和情感能力退化等倫理風險。人機情感的進攻使得人際情感的空間被進一步擠占,情感的疏離與冷漠更甚。

1.情感隱私泄露

人工智能情感的實現(xiàn)必須大量采集數(shù)字化的情感情緒信息,并以此訓(xùn)練模型。既然情感數(shù)據(jù)是實現(xiàn)人工智能情感必不可少的關(guān)鍵,情感隱私泄露的風險就難以避免。情感基于人的身份、個性和人類親密關(guān)系而存在。個人情感昭示著個人生活空間的存在,具有高度私密化的特征。隱私不僅是一項個人權(quán)利,而且是一項群體權(quán)利。尊重情感隱私不僅是對情感數(shù)據(jù)的保護,還是對個人尊嚴與價值的尊重。個性化與隱私之間的悖論使得用戶很難獲得既滿足體驗需求又不侵犯情感隱私的個性化服務(wù)。鑒于用戶在數(shù)據(jù)的采集、使用、共享、銷毀環(huán)節(jié)缺乏對數(shù)據(jù)的控制、監(jiān)督和知情,行業(yè)也缺乏相應(yīng)的統(tǒng)一標準和規(guī)范限制,用戶很可能會對自己的隱私數(shù)據(jù)完全失去控制力[2](248-249)。任何關(guān)于人工智能情感識別及表達的研究必須經(jīng)過個人明確許可,否則就可能造成對隱私的侵犯。如果將模型訓(xùn)練中的情感數(shù)據(jù)用于判斷個人身份,則會引發(fā)更嚴重的倫理問題[3](83)。

人工智能情感技術(shù)已經(jīng)造成了情感隱私泄露的現(xiàn)實問題。教育科技(EdTech)公司正在部署情感人工智能來量化社交和情感學習,使用計算機視覺和算法來查看、識別、分類整理和學習面部表情中的情感[4](1)。評估發(fā)現(xiàn),挖掘兒童的情感生活是不符合規(guī)范的,當技術(shù)并非旨在造福這些兒童時尤其如此[4](12)。此外,人工智能情感的使用有可能引發(fā)代際不公平的問題,長期收集情緒數(shù)據(jù)也不利于孩子的成長和自我認同。父母未經(jīng)同意對子女情感數(shù)據(jù)的采集使用使得孩子們幾乎無法控制他們童年的數(shù)據(jù)化,“當你自己的感覺和情緒不再是你的,而是被解析和分享給別人,即使你還沒有準備好分享它們——我認為我們已經(jīng)極大地傷害了這些孩子”[5](4)。

2.情感欺騙盛行

目前的人工智能情感技術(shù)還停留在功能模仿階段,與真實的人類情感存在顯著差別,可能帶來情感欺騙的風險。真實情感是自然生發(fā)的,不需要經(jīng)過系統(tǒng)學習與訓(xùn)練。在約定俗成的適宜范圍內(nèi),“真情流露”往往令人欣賞,而“虛情假意”則令人厭惡。人工智能的情感表達越來越逼真,但由于缺乏人的生理心理機制和社會生活閱歷,技術(shù)很難在復(fù)雜的現(xiàn)實情境中產(chǎn)生真實情感。人工智能情感非真實性帶來的欺騙可分為兩種情形,一種是人類事先對機器人身份知情,但因需要這種“陪伴”而沉湎于虛擬情感;另一種是在人類不知情的情況下,機器人蓄意欺騙[6](10)。隨著技術(shù)日益發(fā)展成熟,前者逐步向后者過渡。當人們把人工智能的“善解人意”當真,將情感投射到情感智能體上時,由于沒有認識到人工智能的情感是人在機器中寫入運算法則所賦予的,物性遮蔽、否定了人的現(xiàn)實性,就有危及人的生命體存在與繁衍的可能。當人工智能發(fā)展到越來越能解決情感問題、越來越能超越傳統(tǒng)時空界限的時候,其虛假性將更難識別[7](63-64)。

人工智能情感的非真實性已經(jīng)對使用者的正常生活造成了影響。索尼公司的人工智能機器狗(AIBO)是作為娛樂機器人開發(fā)的,可以通過身體動作、眼睛的顏色和形狀來表達高興、憤怒、恐懼、悲傷、驚訝和厭惡這六種情緒。索尼停止對“AIBO 機器狗”進行技術(shù)更新后,僧侶們在日本的興福寺給114 個“去世”的老一代“AIBO 機器狗”舉行了紀念儀式[8]。可以窺見,無論機器人制造商或設(shè)計師是否意在欺騙,只要人工智能情感技術(shù)能夠影響人類情感,就有可能成為情感欺騙的工具與手段。玩偶可以用于癡呆患者的治療,但在玩偶療法的實際使用中,許多客戶開始相信他們的玩偶是一個真實的嬰兒。他們試圖喂養(yǎng)它們,甚至準備好自己的床讓玩偶睡個好覺[9](1093-1097)。在照顧老年人的過程中使用輔助機器人這種基于應(yīng)用程序的“物”來構(gòu)建具有情感維度的護理關(guān)系,可能潛藏著使用者蓄意欺騙、削弱護理關(guān)系意義的風險[10](35)。

3.情感控制加劇

在傳統(tǒng)意義上,情感強調(diào)體驗感與純粹性。但當情感因素進入經(jīng)濟領(lǐng)域后,勞動者需要對自身情感進行適當管理,即“為了保持恰當?shù)谋砬槎T發(fā)或抑制自己的感受,以在他人身上產(chǎn)生適宜的心理狀態(tài)”[11](21)。人工智能情感本應(yīng)能夠?qū)⑷藦那楦锌刂浦小敖夥拧背鰜?,解決情感勞動中的情感失調(diào)、情感枯竭以及職業(yè)倦怠等問題,但這些困境并未被解決,情感被控制、被操縱的風險也在增高。人工智能情感具有成癮性、單向性,暗藏情感控制加劇的倫理風險。一則,利用社交機器人與人之間親密、信任的依賴關(guān)系可以對使用者造成情感綁架,甚至導(dǎo)致主從關(guān)系的變異或顛倒[12](106)。二則,社交機器人的“單向度情感”缺陷本身就會導(dǎo)致情感控制,這是因為面對人類的情感表達,機器人無法提供同等、豐富、深刻的情感反饋[13](57)。

情感控制加劇的風險已經(jīng)初步顯現(xiàn)在人工智能情感的具體應(yīng)用中。阿米莉亞·萬斯(Amelia Vance)在未來隱私論壇上發(fā)言,她認為影響情緒的技術(shù)“正在推動轉(zhuǎn)向徹底的操縱”。操縱性營銷策略利用人工智能算法檢測到的人類偏好,為在線商品消費制定個性化成癮策略,或者利用個人情緒的脆弱狀態(tài)來推廣與他們當下情緒匹配的產(chǎn)品和服務(wù)[14]。情緒識別工具將與工人思想、行為相關(guān)的內(nèi)在情感暴露出來,以鼓勵他們提高生產(chǎn)力、遵守規(guī)則,這實際上是一種情感監(jiān)視與控制手段,造成更具侵入性的紀律性凝視;如果不加以規(guī)范,就會造成算法偏見、決策不透明和雇傭關(guān)系的侵蝕,使勞動關(guān)系更為緊張[15](97)。

4.情感能力退化

“人是意義動物,我們不是為了追求真理而來到這個世界的,但沒有誰不追求意義?!保?6](402)人文情感的可貴之處在于其蘊含意義與價值。人工智能情感可能消解情感的本真意義,導(dǎo)致人類情感能力退化。一則,人工智能情感是數(shù)字化的情感,是對情感的簡化理解與機械化解讀,潛藏情感能力退化的風險。這是因為人工智能與人類意識存在本質(zhì)不同:以數(shù)學為基礎(chǔ)的自然科學由因果論主導(dǎo),人工智能、人工情感追求確定性、唯一性、必然性;人類意識以時間性為本質(zhì)而存在,遵循目的論式存在,與數(shù)學的追求相異[17](434)。二則,人工智能情感會影響人們對情感交往價值重要性的判斷。交往在發(fā)現(xiàn)價值、認識價值、創(chuàng)造價值、實現(xiàn)價值中具有重要作用。物質(zhì)的、精神的、社會的價值創(chuàng)造和實現(xiàn)都離不開交往,情感的價值生成和實現(xiàn)同樣離不開交往。在交往實踐中將人工智能情感與人類情感類同,可能引發(fā)人們對情感交往價值的懷疑,進而削弱人際交往,造成人類情感能力的退化。

人工智能情感技術(shù)在優(yōu)化人們情感體驗的同時,確實存在削弱人類情感能力、淡化人際情感交往的風險。研究發(fā)現(xiàn),構(gòu)建人機關(guān)系會減少建立更有意義的人際關(guān)系的機會[18](402)。社會中最年輕的成員——嬰兒——有著強烈的好奇心,渴望參與社會互動,但他們的撫育者由于工作等各種原因,缺乏時間,選擇讓機器人陪伴在嬰兒身邊,這不僅可能會減少嬰兒與人類照顧者相處的時間,還會妨礙嬰兒社交、情感和語言能力的發(fā)展,阻礙他們理解人際情感及其價值[19](36-37)。如果孩子們開始認為機器人是有生命的,他們可能會以更機械的方式來思考人類和動物,較少考慮其道德地位。商業(yè)活動中有商家展示和銷售人形機器人,以此鼓勵人們與人工智能建立情感關(guān)系??紤]到人類的行為是受經(jīng)驗影響的,人與機器人朝夕相處,長此以往,人類也可能會被“訓(xùn)練”得以對待人形機器人的方式與他人互動,造成情感能力退化。使用機器人照顧老人會導(dǎo)致老人的社會互動水平下降,因為其他人會認為老人能夠由機器人來照顧,其社會需求也能同時得到滿足。

二、人工智能情感的倫理風險歸因

人工智能情感倫理既應(yīng)遵循人工智能倫理的一般共性,也應(yīng)符合情感倫理的特殊要求。剖析成因是合理應(yīng)對人工智能情感倫理風險的關(guān)鍵前提。人工智能情感的倫理風險生成原因是復(fù)雜多元的:從技術(shù)因素看,情感算法在理論與實踐上的局限性難以避免;從社會因素看,倫理觀念的相對滯后以及工具理性的泛濫助推了倫理風險的生成。社會因素與技術(shù)因素交錯盤繞,最大的幕后推手實際上是資本邏輯的驅(qū)動。

1.資本邏輯驅(qū)動

資本邏輯是資本永無止境地追求自身利潤最大化與價值無限增殖的趨勢和規(guī)律,“體現(xiàn)出‘利己性’‘逐利性’和‘貪婪性’的不道德消極屬性”[20](123)。人工智能情感技術(shù)發(fā)展中的資本邏輯驅(qū)動首先體現(xiàn)為虛假需要的創(chuàng)設(shè)。人的需要包括真實需要和虛假需要。真實需要是“那些無條件地要求滿足的需要”,是“生命攸關(guān)的需要——即在可達到的物質(zhì)水平上的衣、食、住”;虛假需要則是“為了特定的社會利益而從外部強加在個人身上的那些需要”[21](6)。消費社會努力生產(chǎn)出虛假需要的目的在于推動消費,背后是資本擴張的需求。人工智能情感化未必是人最真實的需要,但一定符合資本擴張的需求。人工智能情感技術(shù)創(chuàng)新發(fā)展的速度遠遠趕不上其推廣營銷速度,人工智能的“一顰一笑”都被極度夸張放大到營銷海報、宣傳視頻里——人工智能或許“情非得已”“表里不一”,但資本家確是“難掩笑意”“滿面春風”。

人工智能情感的商業(yè)價值不容忽視。人工智能情感化趨勢是符合社會發(fā)展需要的,在現(xiàn)階段表現(xiàn)為服從效益邏輯。能夠取得經(jīng)濟效益是技術(shù)研發(fā)者、生產(chǎn)者必須考慮的重要因素?!百Y本的邏輯是求利的邏輯,技術(shù)內(nèi)在追求利益和利益最大化的特點和資本追求增殖本性形成內(nèi)在的共契,甚至可以說是共謀?!保?2](64)純粹的技術(shù)發(fā)明本身無所謂善惡,但技術(shù)的資本邏輯操縱是造成諸多倫理風險的根本原因。如果不對資本邏輯加以規(guī)制,人工智能情感作為一種新的生產(chǎn)杠桿很可能成為資本壓榨人類勞動的新手段,即“生產(chǎn)資料奴役生產(chǎn)者的新手段”,導(dǎo)致人機關(guān)系進一步異化。逐利者若只看到人工智能情感帶來的經(jīng)濟效益與廣闊市場,忽視人的真實感受與需要,背離以人為本的科技倫理原則,就會一步步走向不為人的技術(shù)發(fā)展。人工智能不僅并未徹底消解“情感勞動”異化,還衍生出了情感真實性疑慮、人格同一性威脅、情感同質(zhì)化等新的異化,其深層根源在于資本主義生產(chǎn)關(guān)系和社會制度[23](20)。

2.情感算法局限

人工智能情感的技術(shù)核心是算法,其倫理風險生成與情感算法本身的局限性有關(guān)。它首先與算法理論上的不完善不成熟相關(guān)。由于情感的復(fù)雜性、情感外在表達與內(nèi)在實質(zhì)關(guān)聯(lián)的不確定性、機器缺乏人生社會體驗機制與對情感的真正理解等,算法能夠?qū)崿F(xiàn)的“情感”還不具備真實感,人工智能情感與人類情感存在著質(zhì)的差別。這種差別是技術(shù)實現(xiàn)上的,也受制于科學理論的發(fā)展。由于人類情感機制的復(fù)雜性、神秘性,無論技術(shù)如何進步,技術(shù)實現(xiàn)的人工情感如何逼真,始終難以達到人類情感的誠懇、真切、自然。從這個意義上講,人工智能情感化是技術(shù)發(fā)展的一個重要趨勢,會持續(xù)呈現(xiàn)出正在發(fā)展、正在進行的狀態(tài)。這種趨勢化與不確定性給了營銷者“闡釋”的可能與空間,而消費者卻無法完全把握人工智能情感的真假與表現(xiàn)程度,這帶來了不可預(yù)估的倫理風險。

除了情感算法理論上的不完備給了不良商家鉆空子的機會,風險的生成也與算法運行機制中的局限有關(guān),如“算法霸權(quán)”與“大數(shù)據(jù)鴻溝”帶來的信息不對稱。“算法霸權(quán)”造成了情感算法的使用者和使用對象之間的信息不對稱。算法的保密性、技術(shù)盲點、復(fù)雜性以及算法使用者的刻意隱瞞,使大多數(shù)人無法了解算法的工作原理。算法的使用者在可解釋性上占據(jù)主導(dǎo)地位,形成“算法霸權(quán)”。情感算法的使用者與使用對象之間存在信息的嚴重不對稱——在現(xiàn)實生活中“知情同意”機制往往不能起到應(yīng)有的作用,用戶并不十分清楚點擊“允許”按鈕意味著什么?!按髷?shù)據(jù)鴻溝”造成了情感數(shù)據(jù)的生產(chǎn)者和處理者之間的信息不對稱。情感算法的運行離不開數(shù)據(jù)。數(shù)據(jù)的生產(chǎn)者和數(shù)據(jù)的收集、存儲、分類者在數(shù)據(jù)擁有量、數(shù)據(jù)分析能力和數(shù)據(jù)思維等方面存在巨大差異?!耙环矫妫瑐€人生產(chǎn)大量原始數(shù)據(jù),卻不掌控數(shù)據(jù)使用對生活、生產(chǎn)帶來的顛覆性影響,甚至不了解大數(shù)據(jù)對個人私生活、私領(lǐng)域的偷窺與再處理;另一方面,掌握海量數(shù)據(jù)的處理者具有前所未有的權(quán)力,利用數(shù)據(jù)影響公共生活乃至私人生活,大數(shù)據(jù)在個體與組織機構(gòu)間形成大數(shù)據(jù)鴻溝?!保?4](69)“算法霸權(quán)”與“大數(shù)據(jù)鴻溝”疊加,情感算法的使用者和使用對象、情感數(shù)據(jù)的生產(chǎn)者和處理者之間存在嚴重的信息不對稱,造成了情感隱私的泄露、情感欺騙與控制等倫理風險。

3.倫理觀念滯后

人類社會的道德標準與價值判斷具有相對的穩(wěn)定性,在飛速發(fā)展的新興技術(shù)面前難免具有一定的滯后性與局限性。首先,人工智能情感這種新興技術(shù)是在機器主體性的傳統(tǒng)倫理問題沒能解決的基礎(chǔ)上發(fā)展起來的。人工智能的技術(shù)飛躍或者所謂“智能大爆發(fā)”帶來的應(yīng)用倫理問題是一系列老問題的疊加[25](22)。由于人類中心主義知識的可及性和適用性、解釋和理解其他代理行為的動機以及社會接觸和建立聯(lián)系的愿望,人類一直有將非人類主體擬人化的傾向[26](864)。人工智能情感技術(shù)引發(fā)了學界新一輪的爭論:能夠模擬人類情感的人工智能是否應(yīng)當具有主體性,又是否能夠成為道德代理?如果將具有情感功能的人工智能視為主體,那么人機關(guān)系就應(yīng)被視作人際關(guān)系的新形態(tài)。尚且不說情感功能能否等同于情感,協(xié)調(diào)人機在工作、社交等方面的公平公正已經(jīng)十分困難。如果將人工智能視為客體,那么如何理解它們類似于人的情感表達;如果冷漠對待機器的情感表達,長此以往會不會遷移到人身上,加劇人際的情感冷漠?既然前面兩條路都行不通,賦予人工智能特殊主體地位似乎成了不二之選。但是,這種特殊地位由誰賦予、怎么賦予?出了問題又由誰來負責?關(guān)于機器主體性的傳統(tǒng)爭論橫亙在人工智能情感技術(shù)面前,長期沒有較為一致的說法,也就未能形成有效的規(guī)約機制。相對局限的倫理觀念與技術(shù)的新發(fā)展疊加衍生出了新的倫理風險。

其次,倫理觀念的建構(gòu)相對于科技活動的創(chuàng)新存在滯后性。“科林格里奇困境”揭示了技術(shù)控制可能陷入的兩難困境,即在技術(shù)發(fā)展早期階段,這時控制其風險是較為容易的,但是對其有害社會后果的了解還不夠充分,因此沒有理由控制它的發(fā)展。當后期這些后果顯而易見時,控制已變得代價高昂和緩慢。為此,科技創(chuàng)新和風險防范之間總是相互掣肘、難以兩全:針對人工智能情感進行有效的倫理設(shè)計需要對技術(shù)的潛在風險和危害有透徹的理解,而深刻把握技術(shù)本質(zhì)及其倫理風險又需要科技的充分發(fā)展。倫理觀念較為穩(wěn)定的特性導(dǎo)致了其更迭不會像技術(shù)更新那么迅速,在新的倫理觀念尚未建構(gòu)起來時,新興技術(shù)與傳統(tǒng)觀念之間的張力會引發(fā)新的倫理風險。

4.工具理性泛濫

在韋伯以“理性化”為核心建立的現(xiàn)代化理論中,人類的理性可以區(qū)分成工具理性和價值理性兩類。工具理性強調(diào)手段與目的的實現(xiàn),具有鮮明的功利導(dǎo)向;價值理性強調(diào)信仰而非目的,看重過程中的價值。當工具理性在程度與范圍上急劇擴張,便造成工具理性泛濫。工具理性泛濫擠占了價值理性的空間——技術(shù)的發(fā)展“不問目的只求實現(xiàn)”,還要“盡快地侵占”“盡可能多的實現(xiàn)”。這種效率至上、具有明確目的導(dǎo)向的思維助推人工智能情感技術(shù)迅速發(fā)展,不可避免地催生出新的倫理風險。

人工智能情感是一種技術(shù)對情感的控制。人們對情感運行機制的認知有限,因而人工智能對情感的模擬只能從有限的情感表征入手,比如模仿人類情感表達的面部表情、聲音效果、肢體狀態(tài)。人工智能可以用仿生的面部五官表達喜悅、用柔和的合成聲線表達安慰、用機械手臂環(huán)抱人體表達友好。從技術(shù)實現(xiàn)的角度講,人工智能情感的實現(xiàn)過程就是將情感表征量化轉(zhuǎn)換為計算機能夠操控處理的數(shù)據(jù)符號,然后再將其通過程序在人工智能體上復(fù)刻實現(xiàn)。這一過程充斥著將萬事萬物控制計算、量化還原的工具理性主義思維。從技術(shù)效益的角度講,人工智能情感不一定是一個合理的技術(shù)目的,但一定是一項令人驚嘆的技術(shù)手段。令無數(shù)研究者前赴后繼的,也不一定是真正情感的人工實現(xiàn),人工智能情感理念中的商業(yè)價值本身就足以讓主張利益至上的工具理性主義者興奮了。

三、人工智能情感的倫理風險應(yīng)對

由于情感的復(fù)雜性與內(nèi)在性,人工智能情感以較為隱蔽的形式潛移默化地侵入人類社會,影響人類生活;又由于技術(shù)背后操縱者——資本的逐利性,這類技術(shù)實質(zhì)上猛烈、無孔不入地侵蝕著人類情感。加強人工智能情感倫理風險應(yīng)對的相關(guān)研究,從根源上說需要規(guī)制資本的無序擴張,推動科技向善,將倫理觀念融入技術(shù)設(shè)計。在科技發(fā)展方面,應(yīng)當堅持敏捷治理,以人的價值與真實需要為尺度規(guī)制算法;在倫理建構(gòu)方面,應(yīng)當堅持以倫理先行的要求逐步健全人工智能情感相關(guān)的倫理法規(guī);在觀念引導(dǎo)方面,應(yīng)當深化對技術(shù)的人文反思,以價值理性思考人工智能情感技術(shù)的發(fā)展,警惕情感工具化。

1.推動科技向善

面對資本無序擴張導(dǎo)致人工智能情感帶來的種種風險,需發(fā)揮社會主義市場經(jīng)濟在市場統(tǒng)一有序、資源合理配置、發(fā)展集中力量等方面的顯著優(yōu)勢,規(guī)范和引導(dǎo)資本健康發(fā)展,推動科技向善。從“承認資本、利用資本、發(fā)展資本”的角度講,應(yīng)當激發(fā)資本作為生產(chǎn)要素的經(jīng)濟活力,引導(dǎo)資本在合法與合道德的限度內(nèi)進行人工智能技術(shù)的情感賦值,合理地利用和把握情感數(shù)據(jù),滿足人們的情感需要,促進人工智能情感技術(shù)向善發(fā)展。從“駕馭資本、規(guī)范資本、超越資本”的角度講,應(yīng)當為資本發(fā)展設(shè)置底線,避免商家利用情感算法不當?shù)美?,進而引發(fā)情感異化和科技異化等倫理風險。擺脫資本桎梏的人工智能情感技術(shù),將成為全體人民共有的社會財富。

將價值理念融入技術(shù)設(shè)計能夠為人工智能注入一顆“良芯”,有利于人工智能情感技術(shù)向善發(fā)展。好的技術(shù)設(shè)計不僅能夠為相關(guān)利益者的訴求服務(wù),也能促進相關(guān)制度規(guī)范的完善,引導(dǎo)技術(shù)實現(xiàn)升級和優(yōu)化。根據(jù)費雷德曼提出的“價值敏感設(shè)計”,應(yīng)將具體的價值原則嵌入到人工智能技術(shù)的結(jié)構(gòu)之中,使技術(shù)擁有一定的價值傾向。在技術(shù)設(shè)計的過程中植入尊重人的主體性的倫理觀念,能夠有效避免“主仆異位”現(xiàn)象的發(fā)生。只有合乎倫理觀念的技術(shù)設(shè)計才能夠促進人機交互的和諧性,推動科技向善發(fā)展。運用輔助AI 系統(tǒng)進行情緒識別和疼痛監(jiān)測具有光明前景,但是要使AI 助手有利于人機交互,就需要確保AI 疼痛識別和類人共情表達是以一種合乎倫理的方式發(fā)展起來的。具體而言,不僅需要考慮個人數(shù)據(jù)的隱私性和安全性,讓創(chuàng)造者和用戶都充分知曉信息的變化、可能的健康問題,而且面對人工智能系統(tǒng)的局限性,比如有偏見的數(shù)據(jù)造成的算法偏見,需要建立用戶對人工智能局限性的信任和理解[27](15)。

2.實行敏捷治理

《新一代人工智能治理原則——發(fā)展負責任的人工智能》對敏捷治理作出闡釋,即“尊重人工智能發(fā)展規(guī)律,在推動人工智能創(chuàng)新發(fā)展、有序發(fā)展的同時,及時發(fā)現(xiàn)和解決可能引發(fā)的風險”[28]。要兼顧人工智能情感在技術(shù)發(fā)展與倫理治理方面的平衡,敏捷治理是必然選擇。不斷加強、調(diào)整對倫理、規(guī)范和治理方面的認識,根據(jù)不同部署和相關(guān)法律要求設(shè)計情感人工智能(EAI)系統(tǒng),將公共標準應(yīng)用于人們?nèi)粘I钪惺褂玫乃饺司W(wǎng)絡(luò),有利于應(yīng)對人工智能情感對個人空間邊界和身體完整性邊界造成的考驗[29](10)。敏捷治理要求既避免規(guī)約不足導(dǎo)致社會問題頻發(fā),也避免過度監(jiān)管阻礙技術(shù)發(fā)展,及時開展系統(tǒng)的風險監(jiān)測和評估,調(diào)整治理策略。一方面,準確識別具體情境中的情感,理解和分析情感,進而作出能夠改善人機交互的合理回應(yīng),需要以準確把握情感的本質(zhì)與規(guī)律為基礎(chǔ)。攻關(guān)情感科學的基礎(chǔ)理論研究,進行負責任的科技創(chuàng)新有利于解決情感算法的局限性問題。

另一方面,為敏捷應(yīng)對情感算法的局限性導(dǎo)致的倫理風險,需要從數(shù)據(jù)或算法方面對情感算法加以規(guī)制。從數(shù)據(jù)層面進行規(guī)制能夠避免資本對情感數(shù)據(jù)的私人占有,消弭因?qū)η楦袛?shù)據(jù)掌握程度不同帶來的“大數(shù)據(jù)鴻溝”,促進公平公正。比如,如果將人臉情緒數(shù)據(jù)界定為《個人信息保護法》下的“個人信息”,那么人臉情緒數(shù)據(jù)的處理就會受到相應(yīng)調(diào)整,這將最終影響人臉情緒識別算法的實際運轉(zhuǎn)[30](43-44)。從算法層面進行規(guī)制能夠讓情感算法在適宜的范圍內(nèi)發(fā)揮作用,避免濫用、誤用情感算法造成“算法霸權(quán)”。比如,面對科學界關(guān)于人工智能是否能檢測情感的嚴重分歧以及未經(jīng)嚴格把關(guān)的情感識別技術(shù)的迅速使用,應(yīng)當在教育、保健、就業(yè)和刑事司法等所有領(lǐng)域采取保護措施,監(jiān)管能夠解讀人類情感的人工智能,防止這些工具未經(jīng)審查的使用[31](167)。

3.健全倫理法規(guī)

人工智能情感技術(shù)在發(fā)展成熟后帶來的風險挑戰(zhàn)很可能是具備威脅性、易失控的,因此逐步完善人工智能情感技術(shù)相關(guān)的倫理規(guī)范十分必要。倫理研究已經(jīng)介入科技治理的各個環(huán)節(jié),對人工智能科技發(fā)展起著引領(lǐng)性、支撐性和規(guī)范性作用。為避免倫理觀念滯后帶來的倫理風險,應(yīng)當堅持“倫理先行”。一方面,應(yīng)不斷深化人工智能倫理基礎(chǔ)理論研究與問題探究,推動人工智能情感相關(guān)的科技倫理共識的形成,加強科技倫理宣傳與教育。另一方面,應(yīng)不斷完善人工智能倫理相關(guān)制度規(guī)范,制定人工智能情感相關(guān)的倫理原則、規(guī)范和政策,引導(dǎo)良好社會倫理觀念的形成。以倫理規(guī)范制約情感信息識別與情感算法使用,能夠從源頭上確保人工智能情感技術(shù)不侵犯人的隱私權(quán)、知情權(quán)、安全權(quán),保障人最基本的權(quán)利。如,按照科技部、教育部等牽頭印發(fā)的《科技倫理審查辦法(試行)》,人工智能情感科技活動在研發(fā)過程中涉及個人情感信息的使用,使用過程中可能影響人類心理情緒,必須嚴格依規(guī)進行科技倫理審查與倫理復(fù)核。依規(guī)審查有利于規(guī)范人工智能情感的科技活動,強化科技倫理風險防控,促進負責任創(chuàng)新。

倫理觀念的建構(gòu)需要加強底線思維,科技倫理規(guī)范的實施也需要完善相應(yīng)的法律法規(guī)作為強制力保障。中共中央辦公廳、國務(wù)院辦公廳在2022 年3 月印發(fā)的《關(guān)于加強科技倫理治理的意見》中明確指出,“‘十四五’期間,重點加強生命科學、醫(yī)學、人工智能等領(lǐng)域的科技倫理立法研究,及時推動將重要的科技倫理規(guī)范上升為國家法律法規(guī)”[32]。面對技術(shù)發(fā)展帶來的嚴峻挑戰(zhàn),制度化、法律化地解決人工智能情感帶來的倫理問題,以立法保障科技倫理規(guī)范的實施十分必要。一方面,新興人工智能情感技術(shù)的倫理共識形成有一個必經(jīng)的過程,在此期間加強立法能夠有效保障公眾權(quán)益。另一方面,對于威脅人的主體性、侵犯人的尊嚴的情感算法,必須積極立法進行強硬規(guī)制。

4.深化人文反思

應(yīng)對人工智能情感的倫理風險,需要深化對技術(shù)的人文反思。首先,應(yīng)當以價值理性引導(dǎo)人工智能情感技術(shù)發(fā)展,兼顧技術(shù)可行與價值認可,深入思考“為什么要發(fā)展人工智能情感技術(shù)”。部分學者認為技術(shù)發(fā)展帶來的問題最終必須靠技術(shù)的進一步發(fā)展來解決,主張通過賦予不同級別的情感機器人以不同程度的情感來解決人工智能情感產(chǎn)生的倫理問題。實際上,這或許只是工具理性主義者的一廂情愿,難道逼真到一定程度的人工智能情感就應(yīng)當與人享有對等的權(quán)利、義務(wù)和尊嚴了嗎?回歸價值理性的維度進行思考,人工智能情感不只是技術(shù)實現(xiàn)層面“能不能成”“如何做成”的問題,更是倫理反思層面“應(yīng)不應(yīng)該”“為了什么”的問題。

其次,應(yīng)把握“人機情感”的尺度,警惕情感工具化。人的情感是自然生發(fā)的,是與人的認知、意識、行為相通的,與人的經(jīng)驗、經(jīng)歷和當下的內(nèi)心狀態(tài)相匹配。人工智能情感是對人類情感的技術(shù)模擬,將情感推向技術(shù),情感與人身脫離后被賦予“無心”的機器。理念中過度的工具理性思維可能帶來情感工具化的風險。一方面,從事人工智能管理、研發(fā)、供應(yīng)、使用等相關(guān)活動的人員應(yīng)當隨時保持對情感工具化的警惕,對人工智能情感的技術(shù)本質(zhì)進行充分的說明,把握技術(shù)模擬、影響情感的尺度。另一方面,面對人工物的情感表達,公眾應(yīng)當保持審慎思考。近期機器人心理學在實證調(diào)查中發(fā)現(xiàn),賦予人工智能情感產(chǎn)生的一系列倫理問題根源在于人會有意識地將情感“植入”人工實體(如機器人)中[33](621)。應(yīng)引導(dǎo)人們遵從人機情感倫理規(guī)范,在強人工智能時代來臨之前使公眾知曉如何與其相處,把握“人機情感”“人機共生”的尺度[34](122)。比如,當涉及制造性愛機器人以及在此類機器中輸入模擬愛情、人類戀愛心理的程序時,應(yīng)該認識到愛情關(guān)系不只是為了滿足身體欲望,使用者不要把擬像之愛誤當成真實之愛[35](408)。

人工智能情感技術(shù)的發(fā)展推動了人們對“人類情感究竟是什么,又有何特殊”這一亙古不變又常談常新的話題的再審視。人工智能情感技術(shù)的發(fā)展在技術(shù)情感化的同時導(dǎo)致了情感技術(shù)化。我們在追求科技進步的同時需要加強對技術(shù)發(fā)展所引發(fā)的倫理風險的反思。而要從源頭上規(guī)約人工智能情感的倫理風險,須得從資本邏輯驅(qū)動下人與技術(shù)的關(guān)系入手,深入分析人工智能情感的生發(fā)機理。

猜你喜歡
倫理人工智能人類
《心之死》的趣味與倫理焦慮
人類能否一覺到未來?
人類第一殺手
護生眼中的倫理修養(yǎng)
1100億個人類的清明
2019:人工智能
人工智能與就業(yè)
數(shù)讀人工智能
下一幕,人工智能!
人類正在消滅自然