国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

價值對齊:AIGC時代人機信任傳播模式的構(gòu)建路徑

2023-11-23 19:22喻國明?滕文強?武迪
教育傳媒研究 2023年6期

喻國明?滕文強?武迪

【內(nèi)容摘要】信任是溝通人與智能技術(shù)的橋梁。當(dāng)人機傳播的構(gòu)建與協(xié)調(diào)成為當(dāng)下傳播學(xué)的重要議題,將信任這一要素納入關(guān)系的構(gòu)建是打造可持續(xù)發(fā)展的“人—機”關(guān)系的必要舉措。本文以構(gòu)建人機傳播之間的信任為核心議題,通過梳理信任傳播的要素變遷,站在任務(wù)—技術(shù)匹配視角下探尋人機信任的關(guān)鍵地帶,并厘清信任校準(zhǔn)的動態(tài)過程,以及信任校準(zhǔn)的關(guān)鍵通路。作者認(rèn)為未來要致力于發(fā)展可信的人工智能,實現(xiàn)健康的人機傳播關(guān)系,以推動未來傳播的良序健康、以人為本的發(fā)展。

【關(guān)鍵詞】信任傳播;人機信任;信任校準(zhǔn);AIGC

一、問題的提出:人機同構(gòu)下的信任傳播

馬克思認(rèn)為“社會是人與人形成的關(guān)系總和”,社會的構(gòu)建離不開關(guān)系。當(dāng)下,信息技術(shù)的革命加速社會與媒介的相互融合與滲透,媒介不僅拓展了傳播場景,打破了時空界限,也豐富了關(guān)系構(gòu)建的多樣性?!叭藱C傳播”(Human-Machine Communication,簡稱HMC)就是在此背景下,由人工智能技術(shù)賦能的全新關(guān)系。AIGC時代,“人機傳播”不僅實現(xiàn)了關(guān)系上的“耦合”,也實現(xiàn)了個體從思維到行動自由度的拓展。從人際傳播到人機傳播,不僅意味著傳播主體數(shù)量上的豐富,也意味著因人際傳播產(chǎn)生的問題出現(xiàn)了可以由人工智能解決的可能性。①

“信任”(Trust)是任何穩(wěn)定關(guān)系展開的前提。薩布麗娜·羅曼諾夫(Sabrina Romanoff)認(rèn)為,“信任是人際關(guān)系的基礎(chǔ)?!碑?dāng)人機傳播的構(gòu)建與協(xié)調(diào)成為當(dāng)下傳播學(xué)的重要議題,將信任這一要素納入關(guān)系的構(gòu)建是打造可持續(xù)發(fā)展的“人—機”關(guān)系的必要舉措。而信任建立的前提是完成機器從“工具理性”到“價值理性”的視角轉(zhuǎn)化。

人機耦合的場景下,人類與人工智能的關(guān)系具有超過工具主義的內(nèi)在特征。②“代具性”是理解人與機器關(guān)系的邏輯之一,正如笛卡爾的“身心二元論”將身體和心靈視為互不相干的兩個實體一樣,“代具性”突出人體與技術(shù)的分離性。麥克盧漢的“媒介即人的延伸”同樣蘊含“工具主義”的色彩。技術(shù)哲學(xué)家斯蒂格勒認(rèn)為,“人類發(fā)明了技術(shù),技術(shù)同時又發(fā)明了人類,二者互為主客體”,其強調(diào)人類缺乏足以維持自身生存的本能,必須借助外在于自身的技術(shù)而生存,則為體外化(exosomatization)。③顯然,工具理性下的人機關(guān)系強調(diào)體外化延伸并強化某種器官的功能,機器只是作為人類的感官化延伸。這個階段,人機關(guān)系停留在功能“互補”層面,忽略了人機協(xié)同共生發(fā)展的可能性。

芒福德認(rèn)為,在“新生代”的技術(shù)體系下,如果人們不能采取整體的、系統(tǒng)的、以生活為中心的觀念去衡量技術(shù),那么新的技術(shù)未必能塑造出新的文化和觀念。當(dāng)下,一些技術(shù)離身的二元框架在社會與媒介互嵌的場景下有忽略人主體間性的嫌疑。而芒福德的觀點為我們理解人與技術(shù)的關(guān)系提供了別樣的視角,即從整體理解人與技術(shù)。同構(gòu)性(Isomorphism)在哲學(xué)中可以理解為邏輯層上不同事物之間在結(jié)構(gòu)和性質(zhì)上具有相似性和可比性,對于以模仿人的特性而被稱之為人工智能的機器而言,“圖靈測試”的提出已經(jīng)印證人工智能技術(shù)發(fā)展的目標(biāo),即機器對人心智的模擬,似乎人與機器的同構(gòu)從制造之初已埋下伏筆。我們在那些器物中見到的品性,其實正是人性的“復(fù)現(xiàn)”,是自己的映像。④唐·伊德認(rèn)為,技術(shù)不僅轉(zhuǎn)化了我們對世界的經(jīng)驗、知覺和對世界的解釋,反過來,我們在這一過程中也同樣被轉(zhuǎn)化了。⑤因此,從人機同構(gòu)性上整體考量人機關(guān)系將為構(gòu)建人機信任傳播模式提供整體的發(fā)展路徑。

生成式人工智能時代(Artificial Intelligence Generated Content,簡稱AIGC時代),傳統(tǒng)的二元論已然無法解釋人與技術(shù)的關(guān)系問題,新技術(shù)的涌現(xiàn)不僅完成了個體思維版圖的擴張,也完成了技術(shù)具身的可能。人工智能已內(nèi)嵌于社會技術(shù)之中,與人工智能的交互普適化已不言而喻。在這樣常態(tài)化的背景之下維持良好關(guān)系互動,人機信任的構(gòu)建是必要且唯一的,而構(gòu)建一個完善且適配的信任傳播模式才能實現(xiàn)人機信任。

二、技術(shù)與社會互嵌:信任傳播要素的變遷

理論學(xué)家對于信任的研究緣起于齊美爾⑥。齊美爾提出“信任是社會中最重要的凝聚力之一”⑦,其提出的“貨幣理論”同樣突出了信任的重要性。齊美爾的媒介貨幣哲學(xué)認(rèn)為“貨幣即媒介”,在媒介化社會的背景下,媒介的社會連接功能或社會形式影響人們的身體感知與信息獲取。⑧社會連接肇始于互動,而互動的主要形式是交換,當(dāng)貨幣作為媒介進(jìn)行交換時,信任的獲取顯得尤為重要。從齊美爾的信任延伸至人際交往中的信任可知,信任的定義雖因?qū)W科領(lǐng)域區(qū)別而有所出入,但目前達(dá)成共識的定義是:信任是涉及交易或交換關(guān)系的基礎(chǔ)。從齊美爾的貨幣時代到當(dāng)下的數(shù)字文明時代,從狹義的貨幣媒介再到數(shù)字媒介,技術(shù)與社會互嵌成為常態(tài),人機關(guān)系如何構(gòu)建成為社會網(wǎng)絡(luò)延伸的重點。信任是人機協(xié)作的必要條件,由此可見,傳統(tǒng)的圍繞人展開的信任傳播要素將全方位圍繞信任主體、信任關(guān)系、信任場景重新構(gòu)建。⑨

(一)信任主體的多維:從個體到算法再到機器

信任是嵌入在反復(fù)、緊密的關(guān)系當(dāng)中,⑩而關(guān)系的構(gòu)建離不開主體,信任傳播的主體在數(shù)字文明時代隨著技術(shù)的發(fā)展呈現(xiàn)多維發(fā)展趨勢。在人際信任中,信任的雙方都是人,作為人際關(guān)系互動的重要條件,信任幫助人們面對不確定性。作為社會環(huán)境的基本特征,不確定性貫穿于人類歷史始終,而在不同的歷史階段,使信任成為可能的確定性基礎(chǔ)存在不同。從農(nóng)業(yè)社會、工業(yè)社會再到后工業(yè)社會,依托人際關(guān)系的形態(tài)即熟人社會和陌生人社會,信任被區(qū)分為習(xí)俗型信任、契約型信任以及合作型信任,這種信任的分類方式也是基于“不確定性”而構(gòu)建的。這種“不確定性”隨著工業(yè)化的發(fā)展愈演愈烈。當(dāng)人們進(jìn)入現(xiàn)代性狀態(tài),社會變遷引發(fā)的人類的“不安”將成為一種常態(tài),這也愈加凸顯信任的價值。當(dāng)這種不安感隨著數(shù)字文明時代的逐步擴展進(jìn)入網(wǎng)絡(luò)社會,在信任主體多維化的賽博空間構(gòu)建信任,成為媒介化社會關(guān)系網(wǎng)絡(luò)建立前提。

顯而易見,信任的討論離不開人這個主體。信任圍繞著互動產(chǎn)生,按照這個邏輯,凡是能與人進(jìn)行互動的對象均能作為信任的發(fā)生與接受的主體。那么對于算法與機器而言,將其納入信任傳播模式的構(gòu)建路徑中顯得尤為必要。算法,作為人工智能技術(shù)的本質(zhì),也是一種權(quán)力。??聦?quán)力視為一種關(guān)系,當(dāng)算法與人的關(guān)系在認(rèn)識論上偏向二元論框架時,就會存在“算法神話”的理解,即強調(diào)了算法的無所不能?!盁o所不能”延伸出的并不一定是人們對算法的依賴,也可能是“算法黑箱”。算法或算法公司目標(biāo)與意圖的模糊性與不確定性增加了人與算法信任構(gòu)建的難度。算法作為人工智能技術(shù)的基石,將這一問題同樣延伸到了AIGC時代。如果說信任方是Trustor,目標(biāo)信任對象是Trustee,那么在人機協(xié)作中,Trustee可以是技術(shù)本身,也可以是技術(shù)提供者。人機合作中的信任是人向機器發(fā)起的意向行為,如尤斯拉納所說,“信任是通往合作的道路”,由此可見,人機共生、人機協(xié)同離不開信任的構(gòu)建,從人際關(guān)系到人機關(guān)系,呈現(xiàn)主體多維化趨勢,但關(guān)系的構(gòu)建仍有一脈相通之處。

(二)信任關(guān)系的拓展:從人際關(guān)系到人機關(guān)系

信任主體的增加意味著關(guān)系的建立也實現(xiàn)從人際關(guān)系向人機關(guān)系的轉(zhuǎn)變,這種轉(zhuǎn)變并不是取代,而是信任關(guān)系的拓展。關(guān)系的建立一直是社會學(xué)討論的重點。從費孝通的“差序格局”到李沛良“工具性差序格局”,都表明關(guān)系的理解是理解社會重要現(xiàn)象的重要基礎(chǔ)。關(guān)系的建立與工具主義導(dǎo)向密不可分,“關(guān)系是以交互性,即傳統(tǒng)的‘報’的概念為基礎(chǔ)的”。人際關(guān)系的工具屬性在于雙方互惠互利得以維持關(guān)系的繼續(xù)。工業(yè)時期,人與機器關(guān)系的建立同樣凸顯技術(shù)利己的特性。隨著時代的變遷,當(dāng)人工智能機器成為關(guān)系建立的對象,從人機協(xié)同到共存,人使用機器通常伴隨著輔助工作、提高效率、解放人力等提升人自由度的目的,而這種關(guān)系的建立是脆弱的。當(dāng)技術(shù)的成熟度與人類的信任不相匹配時,便會出現(xiàn)危機。當(dāng)信任存在風(fēng)險,那么信任的產(chǎn)生就沒有必要性。因此,從人際到人機的關(guān)系的拓展,是一項需要逐步建立信任、強化信任、維持信任的過程。而發(fā)展可信的人工智能則需要在“人—技”關(guān)系問題上選擇并確定一個恰當(dāng)?shù)恼J(rèn)識論。

羅杰斯的“創(chuàng)新擴散理論”為技術(shù)接受模型提供原始理論框架。數(shù)字文明時代,以人工智能為驅(qū)動的人機交互技術(shù)已經(jīng)擴散并與各類場景相融合。該技術(shù)的發(fā)展也為人機關(guān)系的形成奠定基礎(chǔ),而人機關(guān)系的發(fā)展也歷經(jīng)了從“人適應(yīng)機器”到“機器適應(yīng)人”的轉(zhuǎn)變。早期的人機關(guān)系呈分離狀態(tài),人作為適應(yīng)機器的存在,各方面受限于技術(shù)的用戶界面。隨著技術(shù)的演進(jìn),人類的“自然”交流方式和人類的情感逐漸被納入交互技術(shù)的考量之中。人機關(guān)系隨著技術(shù)發(fā)展動態(tài)演變,當(dāng)下隨著技術(shù)形態(tài)的進(jìn)一步發(fā)展,以人工智能為核心的機器不僅能夠輔助個體達(dá)成目標(biāo),并能夠依據(jù)人類目標(biāo)不斷完善其智能性,實現(xiàn)人機雙向互動。而這種狀態(tài)的維系,需要信任的支撐。塔德歐將數(shù)字環(huán)境下的信任稱為電子信任(E-trust),并否認(rèn)信任的產(chǎn)生需要直接的身體互動的觀點,這也說明人機關(guān)系中信任的建立在路徑上是可行的。

(三)信任場景的流動:從現(xiàn)實空間到虛擬空間

AIGC擁有數(shù)據(jù)巨量化、內(nèi)容創(chuàng)造力、跨模態(tài)融合以及認(rèn)知交互力的技術(shù)特征,這些特征融合在一起便具有了拓展個體認(rèn)知邊界、提高知識生產(chǎn)力、豐富創(chuàng)造能力的功用。盧曼認(rèn)為,“不管組織與理性計劃怎樣努力,人們不可能根據(jù)對行動后果的可靠預(yù)測來指導(dǎo)所有的行動。仍有剩余的不確定性有待處理,信任就是妥善安排這些不確定因素的角色。”AIGC時代,人工智能輔助生產(chǎn)便是消除人們不確定性的存在。當(dāng)人機共生成為常態(tài),信任的發(fā)生場景也就隨著信任對象遷移至虛擬空間中。人機共生有廣義與狹義之分,廣義的人機共生可以看作一種新的生存環(huán)境,而狹義的人機共生強調(diào)的是人新的生存狀態(tài)。當(dāng)討論信任場景流動時,我們關(guān)注的是廣義的人機共生。

數(shù)字化生存成為常態(tài),人們對于信任的獲取打破了地域、場景、時間的限制。當(dāng)人們不是依賴于具體生活環(huán)境取得信任時,那么脫離具體情境的信任就會走到虛擬的時間和空間中去。吉登斯的“脫域”為信任場景的流動提供理論支撐,其指的是社會關(guān)系從彼此互動的地域性關(guān)聯(lián)中,從通過對不確定的時間的無限穿越而被重構(gòu)的關(guān)聯(lián)中脫離出來。當(dāng)人機共生成為一種新的生存環(huán)境,賽博格化的人成為虛擬空間中的存在,其關(guān)系的建立并不僅僅局限于現(xiàn)實空間中因地緣聯(lián)結(jié)的人,而是同樣包含了內(nèi)嵌于復(fù)雜虛擬社交網(wǎng)絡(luò)中的人工智能。也就是說,信任建立的場景已然朝向虛擬空間的“流動”發(fā)生變化。那么如何在流動的信任場景中構(gòu)建人機信任將成為傳播學(xué)考察的重點,而基于任務(wù)技術(shù)匹配理論,人機信任傳播的構(gòu)建成為可能。

三、有效匹配:任務(wù)—技術(shù)匹配視角下人與機器信任塑造的關(guān)鍵地帶

人的本質(zhì)不是單個人所固有的抽象物,在其現(xiàn)實性上,它是一切社會關(guān)系的總和。當(dāng)前,在智能技術(shù)不斷發(fā)展和深度媒介化進(jìn)程不斷深入的背景下,媒介技術(shù)成為社會變革和向前發(fā)展的內(nèi)核程序(Kernel)。AIGC時代的技術(shù)發(fā)展已不再僅僅是對于人感知系統(tǒng)的重新整合,更是對傳統(tǒng)媒介社會的重新定義和全面超越,社會新的文明環(huán)境系統(tǒng)將由此落地達(dá)成。智能也是人、機和社會環(huán)境系統(tǒng)相互作用的產(chǎn)物。任務(wù)技術(shù)匹配模型(Task-Technology Fit)認(rèn)為信息技術(shù)對用戶的使用績效有顯著影響,用戶對技術(shù)使用的感知會隨著任務(wù)變化而改變,技術(shù)和任務(wù)只有有效匹配才能有助于提高工作績效。在當(dāng)前的技術(shù)環(huán)境下,如何實現(xiàn)“有效匹配”依然是研究的熱點話題。

智能是一個復(fù)雜系統(tǒng),想要厘清各個主體之間的關(guān)系,我們需要利用主體責(zé)任的思維來看。在這個復(fù)雜系統(tǒng)之中,人要解決的是“做正確的事”,機器要解決的是“正確地做事”,媒介環(huán)境要解決的是“提供做事平臺”。AI技術(shù)充分賦能媒介的社會系統(tǒng),這個混合智能系統(tǒng)需要的不僅是技術(shù)的強計算能力,更重要的是人的智慧,進(jìn)而形成一種理性與非理性、技術(shù)的計算和人的算計深度混合的智能系統(tǒng)。而要想實現(xiàn)各個主體之間的相互協(xié)作與系統(tǒng)效用最大化,一個關(guān)鍵的要素就是“信任”。要想準(zhǔn)確把握系統(tǒng)主體之間的信任要素建造邏輯,首先我們需要厘清智能主體之間的認(rèn)知模型。

(一)人的意向性與機器的形式化認(rèn)知因素

人類的認(rèn)知結(jié)構(gòu)可以分為“注意—意向—決策—感知與行為”,是通過后天習(xí)得的認(rèn)知能力來完成對外界環(huán)境的感知,是一種意向性的思維認(rèn)知。機器對外界環(huán)境的感知通路是通過傳感器,其認(rèn)知過程經(jīng)歷知識庫目標(biāo)層、任務(wù)計劃層、感知層和執(zhí)行層,進(jìn)而形成形式化思維。以人和機器對算法的認(rèn)知路徑為例,人們在對算法產(chǎn)生意向性后,此時算法已經(jīng)走向人們的日常生活,成為普遍性的分析和處理問題的方法,認(rèn)知到的新算法也成為人們認(rèn)識和理解世界的“方法革命”的新策源地;而機器將算法形式化,通過程序開發(fā)與計算機可以識別和執(zhí)行的具體指令實現(xiàn)算法操作的“計算機世界”。同時,智能從一定程度上來說源于人的認(rèn)知方法,是人們適應(yīng)智能技術(shù)的產(chǎn)物,是人的認(rèn)知與智能技術(shù)內(nèi)在邏輯的交叉。兩類主體之間,技術(shù)是人類認(rèn)知的一種映射,這種映射在形式上將“我們是怎樣思考和解決問題的”這一看不見的腦中路徑以看得見的符號形式和符號變換過程表征出來,并成為機器的信息運作規(guī)范,成為一種“鏡像”可以供人反過來闡釋自己的認(rèn)知。因此,人與機器在認(rèn)知世界的過程中具有相同的分層認(rèn)知架構(gòu),在不同層級之間會形成一定因果關(guān)系,在相同的層級之間會形成混合空間,而未來傳播的關(guān)鍵在于掌握混合層級之間的“恰好”。

(二)雙向信任:人機傳播過程中信任的建立過程

人機傳播是在技術(shù)嵌入的過程中形成的一種新的傳播模式。人的生活需要通過媒介實現(xiàn),媒介的價值需要人的發(fā)展實現(xiàn),二者的耦合共生直接決定了新媒介環(huán)境下人機傳播的新方式。首先,在傳播的輸入端,人機傳播內(nèi)容并不僅僅依靠機器這樣的硬件來收集主觀感知,而是通過智能技術(shù)把人與機器連接為知識生產(chǎn)的流水線,將人與機器兩個接觸點相結(jié)合,將人們的具身認(rèn)知與延展認(rèn)知集合為一個新的認(rèn)知系統(tǒng),先驗知識形成一種新的輸入模式。其次,在傳播的信息處理階段,智能技術(shù)將人類的認(rèn)知模式優(yōu)勢與計算機的計算能力優(yōu)勢相結(jié)合,構(gòu)建成一種新的信息理解方式,人們將部分計算、推理、識別等功能移交給智能技術(shù),技術(shù)成為延展認(rèn)知的橋梁;在傳播的輸出端,技術(shù)將反作用于傳播者的影響力和整個社會操作系統(tǒng)的運作效率,同時也使得知識的產(chǎn)生和運用進(jìn)入一種新的組合方式,將人類決策的價值效用添加到智能技術(shù)的迭代之中,進(jìn)而實現(xiàn)傳播模式的進(jìn)化與迭代。在傳播互動的過程中,人與機器的理解將會從單向度迭代為雙向化,機器不斷從人類積累的傳播資源中完成價值賦權(quán),人的主動性與機器的被動化交互在一起。

信任是一種心理狀態(tài),是指一方基于對關(guān)系中另外一方意圖或行為的正面期望而愿意承擔(dān)損失的傾向。媒介信任作為一種個體行為,是個體在調(diào)整對自身和媒介環(huán)境認(rèn)知的基礎(chǔ)上能動反思,持續(xù)建構(gòu)的結(jié)果。而在人機傳播中,信任是預(yù)測傳播關(guān)系是否健康的一個重要指標(biāo),是交換關(guān)系的基礎(chǔ),是一種隨著社會關(guān)系出現(xiàn)或嵌入社會關(guān)系中的一種應(yīng)然屬性。人機互動中的信任不是直接發(fā)生在人際之間,而是發(fā)生在人與智能系統(tǒng)的交互之中,信任的產(chǎn)生能夠幫助人們在與智能系統(tǒng)的交互中克服不確定性。人機互動過程中的信任會隨著合作狀態(tài)和信任主體的變化而變化,人機互動中的信任是一個持續(xù)的關(guān)系,而不是一個靜態(tài)的概念,因此對于信任的理解應(yīng)該進(jìn)一步考慮信任主體雙方的合作動態(tài)。建立默契的信任機制,可以在發(fā)揮人類智慧的同時,合理運用人工智能系統(tǒng)的高性能,實現(xiàn)技術(shù)資源的有效匹配。

技術(shù)本身蘊含著對于個體行為的塑造與偏向,在人機交互過程中的信任演化可以分為兩個階段:初始型信任(Initial Trust)和持續(xù)型信任(continuous Trust)。初始型信任發(fā)生于人機交互之前,是信任方(人類)對于目標(biāo)信任主體(智能技術(shù))認(rèn)知不充分的條件下進(jìn)行預(yù)期責(zé)任的一種行為。在初始型信任階段,信任方會基于先前的認(rèn)知判斷作出理性決定進(jìn)而擴展信任。持續(xù)型信任發(fā)生在人機交互之后,是信任方(人類)對于目標(biāo)信任主體(智能技術(shù))積累了一定的認(rèn)知條件,在具體的情境下完成互動行為。持續(xù)型信任的本質(zhì)是將交互結(jié)果加入反饋路徑之中,交互的最終結(jié)果將會影響信任雙方的下一次互動。

在一個充滿變量的人機交互系統(tǒng)中,信任的邏輯并不是必然或確定,而是一種可能性的同步,人機信任是一個變化過程。人機交互信任的建立過程,本質(zhì)上也是反映人們對于智能技術(shù)的心理預(yù)期建設(shè)與智能技術(shù)自身優(yōu)化效能的一種交互過程,這種交互過程是在人類與技術(shù)雙向互動中逐步建立起來的(如圖1)。

四、信任校準(zhǔn):人機傳播協(xié)同演化的底層邏輯

正如前文所言,人機之間的信任程度是連續(xù)的,人機之間信任鏈的產(chǎn)生過程常常是:陌生—不信任—初始信任—持續(xù)信任—強信任。在這個過程中,信任在人機傳播中占有重要的作用,是溝通人與智能技術(shù)的橋梁。人們的智能媒介信任素養(yǎng)和智能技術(shù)發(fā)展水平要始終保持在正比例關(guān)系上,一旦偏離,便會產(chǎn)生過度信任和信任缺失。因此,如何完成信任校準(zhǔn)便成為了一個重要的課題。

(一)智能媒介信任素養(yǎng)與智能技術(shù)發(fā)展的價值對齊

如圖2所示,在良好的信任校準(zhǔn)過程中,人們的智能媒介信任素養(yǎng)與智能技術(shù)的發(fā)展程度處于動態(tài)性變化中,兩者之間應(yīng)處于正比例關(guān)系,理想型的信任校準(zhǔn)處于直線上。如果人機傳播中的信任要素分布于直線上方,即人們的智能媒介信任素養(yǎng)超過了智能技術(shù)的發(fā)展程度,這就會導(dǎo)致過度信任的情況。當(dāng)我們向智能技術(shù)讓渡過度的媒介信任,減弱對智能技術(shù)的控制和監(jiān)管,就會出現(xiàn)秩序紊亂。如果人機傳播中的信任要素分布于直線下方,即人們的智能媒介信任素養(yǎng)低于智能技術(shù)的發(fā)展程度,就會產(chǎn)生信任缺失,導(dǎo)致智能技術(shù)的不充分利用甚至停用。我們要認(rèn)識到滯后的信任素養(yǎng)可能正成為智能技術(shù)發(fā)展的掣肘。“信任滯后”抑制了我們指導(dǎo)技術(shù)并明智、合乎道德和審慎地控制技術(shù)的能力,不能就現(xiàn)代技術(shù)的適當(dāng)應(yīng)用快速形成廣泛的社會共識。因而,人機交互過程中的“信任校準(zhǔn)”是指可感知信任與實際信任的平衡,對過度信任進(jìn)行抑制,而對信任不足進(jìn)行修復(fù)。

以當(dāng)前AIGC賦能媒介社會的發(fā)展來看,人與技術(shù)的相容相生、互相形塑為人的行為邊界擴展與自由度提升乃至于個性的解放提供了可能。而要正確利用ChatGPT優(yōu)化人與技術(shù)的黏性,就需要信任校準(zhǔn)的參與過程。一方面,ChatGPT對于個體需求以及積極回應(yīng)達(dá)到了更為全面的狀態(tài),要想正確利用AI技術(shù)解決實現(xiàn)人類增強,僅有技術(shù)的突破是遠(yuǎn)遠(yuǎn)不夠的,還需要人們形成與之匹配的大模型信任素養(yǎng)、智能技術(shù)信任素養(yǎng)等。另一方面,ChatGPT要學(xué)習(xí)人們不斷增長的知識庫,針對對話進(jìn)行加強,減少不恰當(dāng)回復(fù),讓人工智能模型的產(chǎn)出和人類的常識、認(rèn)知、需求、價值觀盡可能匹配。因此,信任的動態(tài)調(diào)整過程也是技術(shù)與人、與社會之間的感知認(rèn)知一體化的過程,在調(diào)整的過程中實現(xiàn)自我修復(fù)和自我迭代,在動態(tài)結(jié)構(gòu)中重塑社會信任模式。

(二)信任校準(zhǔn)的關(guān)鍵通路:發(fā)展可信的人工智能

智能技術(shù)與人類的生存不再是傳統(tǒng)的二元對立,技術(shù)發(fā)展所催生的人機同構(gòu)、人機共生的深度融合關(guān)系塑造了人類以技術(shù)為中介的生存樣態(tài)。唐·伊德認(rèn)為,說到底人和技術(shù)的關(guān)系是一種內(nèi)在的“存在論關(guān)系”模式。而人類與智能技術(shù)的關(guān)系應(yīng)該向存在論的內(nèi)在關(guān)系轉(zhuǎn)變。社會學(xué)家迪戈·甘貝塔(Diego Gambetta)認(rèn)為,信任是降低復(fù)雜性的一種有效形式。其實,信任是必須被預(yù)設(shè)的內(nèi)在基本要素,它不是創(chuàng)造出來的,而是從社會關(guān)系中產(chǎn)生的。在人機傳播的模式中,人機交互已經(jīng)內(nèi)化成為人類社會存在的一部分,智能技術(shù)也是媒介社會的底層操作系統(tǒng),因此,發(fā)展可信的人工智能就是在這種社會關(guān)系和發(fā)展邏輯上被預(yù)設(shè)的。

發(fā)展可信人工智能的關(guān)鍵在于增強人工智能的可信任性,而不是謀求滿足人工智能對“類人信任”的前置條件。構(gòu)建并增強AI的可信任性,需要構(gòu)建一個值得被信任的社會技術(shù)系統(tǒng)。歐盟發(fā)布的可信AI倫理道德指南中建議可信AI系統(tǒng)需要滿足4項基本原則:一是尊重人類自治原則(the principle of respect for human autonomy),即智能技術(shù)的用戶應(yīng)能夠保持充分和有效的自我決策。同時智能技術(shù)系統(tǒng)的設(shè)計應(yīng)該以補充和增強人的能力為目的;二是傷害預(yù)防原則(the principle of prevention of harm),即AI系統(tǒng)不應(yīng)對用戶或環(huán)境造成傷害或加劇傷害,AI系統(tǒng)及其運行環(huán)境必須是可靠的;三是公平性原則(the principle of fairness),即利益和成本的平等,通過公平分配以確保個體或群體不受不公平的偏見和歧視;四是可解釋性原則(the principle of explicability),即智能技術(shù)的能力和目的需要被公開,且需要盡可能使直接和間接受影響的人能夠理解系統(tǒng)的決策過程。生成式AI的信任構(gòu)建并不是一個短期的表現(xiàn)和過程,其形塑的新的模式、新的機制將會長期影響且存在于信息生態(tài)之中。

如果說互聯(lián)網(wǎng)是信息傳播的成本和效率革命,即信息的零成本復(fù)制傳播,那么生成式AI則是信息生產(chǎn)的成本和效率革命,即有望形成信息和知識的零成本生產(chǎn)創(chuàng)造。的確,任何事物的發(fā)展都必將有一個泡沫的過程,盡管目前生成式AI有各樣的問題,存在著高度的不確定性,但我們不能目光僅僅聚焦于它的風(fēng)險以及人們對其的依賴,而需要我們通過信任的視角去理解智能技術(shù)嵌入人類生活的方式。技術(shù)發(fā)展的最終目的仍是服務(wù)于人類的發(fā)展,如何充分利用好AIGC技術(shù),應(yīng)對可能存在的風(fēng)險,發(fā)展可信的人工智能,在前進(jìn)的過程中實現(xiàn)信任校準(zhǔn)和價值對齊,這應(yīng)是AI開發(fā)者、從業(yè)者、信息平臺和每個AI技術(shù)的使用者共同參與解決的。

五、結(jié)語

麥克盧漢在《理解媒介》中表明,新技術(shù)對社會變遷的影響從來不是沿著其出生目的那一方面線性的延伸,而是對整個社會有機體做的系統(tǒng)性“大手術(shù)”。新媒介以新的連接、新的標(biāo)準(zhǔn)和新的尺度構(gòu)造新的社會,實現(xiàn)社會的再組織,信任也在持續(xù)不斷的人機交互中呈現(xiàn)組織動態(tài)變化。當(dāng)信任的預(yù)期落空,感知到信任違反,信任校準(zhǔn)偏離,信任受損也隨之產(chǎn)生。尼爾·波茲曼在《技術(shù)壟斷:文化向技術(shù)投降》中提到“每一種技術(shù)既是包袱也是恩賜,不是非此即彼的結(jié)果,而是利弊同在的產(chǎn)物”。AIGC時代,分析當(dāng)前的技術(shù)背景與信任邊界有助于研判人機關(guān)系的新特征,預(yù)測與指導(dǎo)傳播生態(tài)良序發(fā)展。未來,AIGC還將進(jìn)一步深化社會深度媒介化的進(jìn)程,要想實現(xiàn)健康的人機傳播關(guān)系,實現(xiàn)人機協(xié)同與共生,在信任受損后的信任修復(fù)、信任再校準(zhǔn)(Trust Re-calibration)也是值得深入討論的話題。

參考文獻(xiàn):

①彭蘭:《人機傳播與交流的未來》,《湖南師范大學(xué)社會科學(xué)學(xué)報》2022年第5期。

②劉永安:《類人信任與可信任性:可信人工智能發(fā)展的路徑選擇》,《昆明理工大學(xué)學(xué)報(社會科學(xué)版)》2023年第4期。

③Stiegler B. Technics and time, 1: The fault of Epimetheus. Stanford University Press, 1998, 1.

④胡翌霖、李詩:《擁抱碎片化的麥克盧漢——閱讀〈理解媒介〉的一種新視角》,《中國傳媒科技》2021年第10期。

⑤〔美〕唐·伊德:《讓事物“說話”:后現(xiàn)象學(xué)與技術(shù)科學(xué)》,韓連慶譯,北京大學(xué)出版社2008年版,第10-15頁。

⑥鄭也夫:《信任:溯源與定義》,《北京社會科學(xué)》1999年第4期。

⑦Georg S, Tom B, David F. The philosophy of money. Trans. Tom Bottomore and David Frisby. New York: Routledge, 1978.

⑧王佳鵬:《作為純粹媒介的貨幣:作為媒介理論的“貨幣哲學(xué)”》,《國際新聞界》2022年第7期。

⑨Schoeller F, Miller M, Salomon R,et al. Trust as extended control: Human-machine interactions as active inference. Frontiers in Systems Neuroscience, Frontiers Media SA, 2021, 15: 669810.

⑩Hardin R. The street-level epistemology of trust. Politics & society, SAGE Periodicals Press, 1993, 21(4): 505–529.

張康之:《在歷史的坐標(biāo)中看信任——論信任的三種歷史類型》,《社會科學(xué)研究》2005年第1期。

張乾友:《論不確定性中的信任》,《道德與文明》2013年第6期。

翟學(xué)偉:《信任與風(fēng)險社會——西方理論與中國問題》,《社會科學(xué)研究》2008年第4期。

喻國明、楊瑩瑩、閆巧妹:《算法即權(quán)力:算法范式在新聞傳播中的權(quán)力革命》,《編輯之友》2018年第5期。

陳炳輝:《??碌臋?quán)力觀》,《廈門大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2002年第4期。

毛湛文、孫曌聞:《從“算法神話”到“算法調(diào)節(jié)”:新聞透明性原則在算法分發(fā)平臺的實踐限度研究》,《國際新聞界》2020年第7期。

Siau K, Wang W. Building trust in artificial intelligence, machine learning, and robotics. Cutter business technology journal, 2018, 31(2): 47–53.

〔美〕埃里克·尤斯拉納:《信任的道德基礎(chǔ)》,張敦敏譯,中國社會科學(xué)出版社2006年版,第 3 頁。

孫立平:《“關(guān)系”、社會關(guān)系與社會結(jié)構(gòu)》,《社會學(xué)研究》1996年第5期。

Gold T B. After comradeship: personal relations in China since the Cultural Revolution. The China Quarterly, Cambridge University Press, 1985, 104: 657–675.

楊子瑩:《人機交互關(guān)系中的信任問題研究》,大連理工大學(xué)2022年碩士研究生論文。

Taddeo M. Defining trust and e-trust: from old theories to new problems. International journal of technology and human interaction (IJTHI), IGI Global, 2009, 5(2): 23-35.

李白楊、白云、詹希旎等:《人工智能生成內(nèi)容(AIGC)的技術(shù)特征與形態(tài)演進(jìn)》,《圖書情報知識》2023年第1期。

汪磊:《人而非自然的話語:脫域演進(jìn)中社會信任的式微與重建》,《中南大學(xué)學(xué)報》2023年第3期。

彭蘭:《從ChatGPT透視智能傳播與人機關(guān)系的全景及前景》,《新聞大學(xué)》2023年第4期。

〔英〕安東尼·吉登斯:《現(xiàn)代性的后果》,田禾譯,譯林出版社2000年版,第 69-72頁。

〔德〕馬克思、恩格斯:《馬克思恩格斯選集》第1卷,人民出版社1995年版,第56頁。

Goodhue D L, Thompson R L.Task-technology fit and individual performance. MIS quarterly, 1995:213-236.

劉偉:《人機混合智能:新一代智能系統(tǒng)的發(fā)展趨勢》,《上海師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2023年第1期。

肖峰:《認(rèn)知的算法闡釋:人工智能對當(dāng)代認(rèn)識論研究的啟示》,《學(xué)術(shù)界》2021年第2期。

喻國明、滕文強、郅慧:《元宇宙推動社會“重新部落化”的底層邏輯與關(guān)鍵入口》,《未來傳播》2022年第6期。

段偉文:《深度智能化時代算法認(rèn)知的倫理與政治審視》,《中國人民大學(xué)學(xué)報》2022年第3期。

Rousseau D M,Sitkin S B,Burt R S,et al. Not so different after all:A cross-discipline view of trust.Academy of management review,1998,23(3):393-404.

趙梓昕、臧志彭:《激勵與治理:社會認(rèn)知視角下平臺型媒體的媒介信任機制——基于身份認(rèn)同的中介效應(yīng)實證》,《科學(xué)與管理》2023年6月網(wǎng)絡(luò)首發(fā)。

ITOH M,Pacaux-Lemoine M P.Trust View from the Human-Machine Cooperation Framework.2018IEEE International Conference on Systems,Man,and Cybernetics (SMC).IEEE,2018.

朱翼:《行為科學(xué)視角下人機信任的影響因素初探》,《國防科技》2021年第4期。

Visser D J E,Peeters M M M,Jung F M, et al. Towards a Theory of Longitudinal Trust Calibration in Human–Robot Teams. International Journal of Social Robotics,2020,12(2),459-478.

喻國明、滕文強、郅慧:《ChatGPT浪潮下媒介生態(tài)系統(tǒng)演化的再認(rèn)知——基于自組織涌現(xiàn)范式的分析》,《新聞與寫作》2023年第4期。

楊雅、滕文強、楊嘉儀:《流動·互塑·共生:AIGG時代“人—機”關(guān)系新范式》,《社會治理》2023年第4期。

張璐:《淺談唐·伊德的人—技關(guān)系理論中的四種關(guān)系》,《吉林省教育學(xué)院學(xué)報(下旬)》2014年第9期。

于雪:《基于機器能動性的人機交互信任建構(gòu)》,《自然辯證法研究》2022年第10期。

COECKELBERGH M.Can we trust robots?[J].Ethics and Information Technology,2012,14(1).

劉永安:《類人信任與可信任性:可信人工智能發(fā)展的路徑選擇》,《昆明理工大學(xué)學(xué)報(社會科學(xué)版)》2023年第4期。

European Commission. Ethics guidelines for trustworthy AI. Publications Office of the European Union,2019.https://op.europa.eu/en publication-detail/-/publication/d3988569-0434-11ea-8c1f-01aa75ed71a1.

李功源、劉博涵、楊雨豪等:《可信人工智能系統(tǒng)的質(zhì)量屬性與實現(xiàn):三級研究》,《軟件學(xué)報》2023年第9期。

喻國明、滕文強:《生成式AI對短視頻的生態(tài)賦能與價值迭代》,《學(xué)術(shù)探索》2023年第7期。

曹建峰:《邁向可信AI:ChatGPT類生成式人工智能的治理挑戰(zhàn)及應(yīng)對》,《上海政法學(xué)院學(xué)報(法治論叢)》2023年第4期。

喻國明:《生成式內(nèi)容生產(chǎn)崛起環(huán)境下社會協(xié)同治理的一項重要舉措——試論全過程式AIGC標(biāo)識的重要性與必要性》,《青年記者》2023年第11期。

喻國明、滕文強、王希賢:《分布式社會的再組織:基于傳播學(xué)的觀點——社會深度媒介化進(jìn)程中協(xié)同創(chuàng)新理論的實踐邏輯》,《學(xué)術(shù)界》2022年第7期。

〔美〕尼爾· 波茲曼:《技術(shù)壟斷:文化向技術(shù)投降 = Technopoly the surrender of culture to technology》,何道寬譯,中信出版集團股份有限公司2019年版,第126頁。

齊佳音、張亞:《人—機器人信任修復(fù)與信任再校準(zhǔn)研究》,《機器人產(chǎn)業(yè)》2021年第4期。

(作者喻國明系教育部“長江學(xué)者”特聘教授、北京師范大學(xué)傳播創(chuàng)新與未來媒體實驗平臺主任、中國新聞史學(xué)會傳媒經(jīng)濟與管理專業(yè)委員會理事長;滕文強系北京師范大學(xué)新聞傳播學(xué)院博士研究生;武迪系北京師范大學(xué)傳播創(chuàng)新與未來媒體實驗平臺研究助理)

【責(zé)任編輯:李林】

阿图什市| 鹰潭市| 忻州市| 清水河县| 绥德县| 鹤壁市| 阜新市| 通江县| 社会| 博爱县| 红原县| 康乐县| 杭锦旗| 瑞昌市| 琼海市| 府谷县| 江孜县| 航空| 永清县| 东丰县| 买车| 千阳县| 望谟县| 霞浦县| 山东| 招远市| 新平| 兴文县| 浮山县| 沙坪坝区| 休宁县| 马尔康县| 河北省| 汉川市| 措勤县| 徐水县| 陈巴尔虎旗| 丁青县| 松潘县| 兴宁市| 宝丰县|