楊文正 陳選超
[摘?要]?智能技術在賦能教育系統(tǒng)轉型升級的同時,也引發(fā)諸多倫理問題?;诟攴蚵皵M劇論”分析框架,從區(qū)域行為、理想化自我、神秘化、缺席對待、再合作行為等視角切入剖析智能技術教育應用引發(fā)的五個典型倫理問題,即人格異化、數據偏見、算法黑箱、人工情感泛濫和角色入侵。依此提出“印象管理:實現(xiàn)人格的自我協(xié)同;消除偏見:培育主體的數據素養(yǎng);去神秘化:提高算法應用透明度;忠誠對待:走向‘人—機’情感融合;明晰邊界:促進人與技術的角色認同”的消解進路,紓解智能技術教育應用導致的倫理沖突。微觀社會學給人們思考智能技術教育應用倫理問題提供新的視角,所提出的倫理消解策略能為智能技術與教育系統(tǒng)的良性融合、生態(tài)發(fā)展提供借鑒。
[關鍵詞]?智能技術; 教育應用; 倫理; 歐文·戈夫曼; 擬劇論; 印象管理; 人工情感
[中圖分類號] G434?[文獻標志碼] A
[作者簡介]?楊文正(1979—),男,云南大理人。副教授,博士,主要從事信息技術教育應用研究。E-mail:yang121@yeah.net。
一、引??言
智能技術在教育領域的深度應用,助推教育系統(tǒng)向數字化、智能化轉型升級,同時引發(fā)的系列科技倫理問題也受到廣泛關注。2021年11月,聯(lián)合國教科文組織發(fā)布了《人工智能倫理問題建議書》,為人工智能應用的倫理治理提供了國際共識框架,最大限度地發(fā)揮人工智能技術優(yōu)勢并降低其應用帶來的風險。2022年3月,中共中央、國務院辦公廳印發(fā)了《關于加強科技倫理治理的意見》,旨在建立健全科技倫理治理機制與體系,應對科技倫理帶來的挑戰(zhàn)。隨著智能技術與教育融合的不斷加深,智能技術嵌入教育過程隱藏的倫理問題日益暴露,如何規(guī)避智能技術教育應用引發(fā)的價值、責任、隱私和人性等方面的倫理隱憂,做到技術賦能與倫理建設協(xié)同發(fā)展,成為技術與教育變革關系探討亟待研究的議題。
已有學者從不同視角對智能技術教育應用倫理進行了省思。張務農以芬伯格工具化理論為視角,從倫理起點、倫理中介和倫理實現(xiàn)三個層面,為教育技術工具的合理運用構建了相應的倫理原則。孫田琳子從伯格曼技術哲學理論視角,審視了虛擬現(xiàn)實技術教育應用的異化本質。鄒太龍等充分挖掘舍恩伯格大數據教育應用思想蘊含的倫理關懷,形成大數據技術教育應用倫理分析框架。趙磊磊等從責任倫理視角構建出教育人工智能倫理治理的框架。謝娟提出識別人工智能教育應用倫理困境的一般方法,進而闡釋了人工智能教育應用倫理問題策略的形成過程。
智能技術持續(xù)快速地發(fā)展決定了倫理風險的不確定性,加之教育領域各種技術應用交織雜糅,一定程度上增加了智能技術教育應用倫理治理的復雜性,這要求我們反復詰問智能技術與教育深度融合帶來的倫理困厄,從新的視角提出消解策略或制定相應的倫理規(guī)約。本研究嘗試從歐文·戈夫曼(Erving Goffiman)“擬劇論”視角,審視智能技術教育應用呈現(xiàn)的典型倫理問題,并提出相應倫理困境的消解進路,為智能技術與教育系統(tǒng)的良性融合、生態(tài)發(fā)展提供借鑒。
二、戈夫曼“擬劇論”核心觀點闡釋
“擬劇論”是美國社會學家戈夫曼為了探索自然人在社會生活中的角色定位及群體價值,融合社會學、戲劇學和美學等多學科概念而提出的社會學理論。戈夫曼在其經典著作《日常生活中的自我呈現(xiàn)》(1956年版/1959年版)中,以戲劇隱喻方式對人際關系和社會生活進行系統(tǒng)化、理論化闡釋,發(fā)展出一套“擬劇論”的術語和框架,用于分析人們共同在場的面對面互動。“擬劇論”分析的對象是日常生活的微觀情境與互動系統(tǒng),即通過系統(tǒng)性闡述情境社會學來分析日常生活的表演和社會秩序的構成。如今,戈夫曼的《日常生活中的自我呈現(xiàn)》成為社會科學領域微觀互動分析的重要引證來源,理論內涵也得到更為具體、多元化的表達,在戲劇學、傳播學、教育學等領域彰顯出強大的解釋力。
戈夫曼認為社會是一個劇院,人在日常生活中的自我呈現(xiàn)實際上是一種角色表演,其中的呈現(xiàn)行為是一種帶有主動性的展現(xiàn)或表演。他將表演定義為“特定的參與者在特定的場合,以任何方式影響其他參與者的所有活動”。表演的場域分為前臺和后臺,前臺既是個體在表演期間使用的、標準的表達性裝備,也是具有一整套抽象的、模式化的期待,能幫助表演者在表演時傳達出那些被強調的事實或他們希望呈現(xiàn)的信息;后臺是指戲劇幕布后準備、化妝、休息的區(qū)域,也是凸顯被掩蓋的事實或呈現(xiàn)不能表現(xiàn)于前臺信息的區(qū)域;在前后臺的各種活動即是“區(qū)域行為”。
戈夫曼認為在特定情境中,個體呈現(xiàn)自己在他人心中的形象并非是完全而真實的自我,而是為了創(chuàng)造出在他人心目中特定形象(或印象)而進行的表演。這種表演的目的在于突出某些本相而掩飾另一些本相,以此來引導或控制呈現(xiàn)自己在他人心目中的形象,從而創(chuàng)造出“理想化”的自我。表演過程中,表演者還需與觀眾保持距離,即通過限制接觸,調節(jié)信息來往之間的關系,使觀眾處于一種深感神秘的狀態(tài)之中,對表演者產生敬畏或神圣完善感,這就是“擬劇論”中的“神秘化”。戈夫曼還對缺席對待、再合作行為等角色外溝通的類型進行了探討。缺席對待是指劇班成員轉入后臺時,以一種不同于他們在觀眾面前呈現(xiàn)的方式,對觀眾進行貶損或褒獎,以促進劇班更好地分享秘密,形成“共同體”。有時,劇班成員也會圍繞、超越甚至離開劇班界線進行活動,在多個劇班之間建立起臨時的、非正式的或是受到控制的溝通途徑,呈現(xiàn)出一種“再合作行為”,在這種非正式溝通中,各種角色入侵現(xiàn)象隨之表現(xiàn)出來。
戈夫曼將“擬劇”隱喻引入人際社會微觀互動分析中,并形成理論體系,在傳統(tǒng)人際互動中表現(xiàn)出較強的解釋力和生命力?!皵M劇論”自20世紀60年代形成至今,得到不斷的豐富與發(fā)展,國內外諸多學者對其價值意蘊進行批判與辯證思考,并拓展其應用領域。伴隨技術滲透人類生活,技術在人與人交往中的作用越來越突顯,技術中介所引發(fā)的人與人之間的倫理問題成為倫理學關注的重要研究議題。本文借鑒“擬劇論”分析框架,并將其延伸至“人技”互動場景,以新的視角切入剖析智能技術教育應用帶來的倫理困厄。
三、智能技術教育應用倫理困境審視
智能技術是以人工智能、虛擬現(xiàn)實、大數據等為核心要素,相互融合組成的技術體系,具有智能化特征的動態(tài)系統(tǒng)。其在打破學習時空限制、沉浸性學習場景構建、教學過程智能分析、學習者畫像和知識圖譜生成等方面顯示出強大的賦能作用。智能技術教育應用將促進教育系統(tǒng)向個性化、智能化、多元化方向演進,但隨之而來的倫理安全風險也與日加劇,倫理問題日益突顯。特別是生成式人工智能技術的不斷涌現(xiàn),人機之間角色僭越問題愈發(fā)嚴重,成為制約人機協(xié)同的重大挑戰(zhàn)。以下將以“擬劇論”視角為分析框架(如圖1所示),對智能技術在教育應用過程中帶來的五種典型倫理問題進行審視。
(一)區(qū)域行為界限模糊致使人格異化
虛擬現(xiàn)實、數字孿生、元宇宙等技術在教育領域的應用,在學習動機激發(fā)、學習體驗和知識應用場景遷移等方面都具有促進作用。特別是具有“類人性”和“超人性”功能的虛擬數字人,幾乎能做到“以假亂真、以虛代實”,成為現(xiàn)實世界學習個體的“孿生”,可以在元宇宙環(huán)境中充當虛擬學生、虛擬學伴和虛擬導師等活動主體。然而,由于學習者在虛擬世界中錯誤地認為自己力量或能力膨脹,當他們回歸現(xiàn)實后,發(fā)現(xiàn)“虛我”與“實我”無法重合,從而出現(xiàn)能力認知錯位;匿名交流的隱蔽性滋生其任意發(fā)泄情緒的行為,導致攻擊性人格突出;長久沉迷于虛擬世界并逐漸形成依賴,回歸現(xiàn)實生活時出現(xiàn)孤僻、冷漠等交往障礙;現(xiàn)實社會道德約束無法延伸到虛擬空間,學習者在虛擬環(huán)境中的行為有可能超越社會道德規(guī)范的制約,造成其現(xiàn)實道德約束感弱化,出現(xiàn)虛擬人格異化現(xiàn)象。
虛擬人格異化倫理現(xiàn)象可以用“擬劇論”中區(qū)域行為界限模糊加以闡釋。戈夫曼把表演的區(qū)域行為劃分為前臺和后臺。前臺具有顯露性,表演者經自己塑造呈現(xiàn)給觀眾的形象,受一定的道德和倫理標準約束;而后臺與其相反,較為隱藏且很多場合下呈現(xiàn)出不能符合觀眾設想和社會需求的形象?,F(xiàn)實學習空間與虛擬學習空間猶如表演中的前臺和后臺。虛擬現(xiàn)實等新技術為學生提供了廣闊的表演后臺,在缺少前臺觀眾(教師或同學)的情境下,他們脫離種種束縛,道德責任感降低;加之虛擬環(huán)境的強大吸引力,使得學習者在后臺快速進入“心流”狀態(tài),甚至不可避免地發(fā)生“移情”,以致歪曲個體世界觀、人生觀、價值觀等,由此形成與“實我”截然不同的虛擬人格。虛擬人格異化現(xiàn)象即是學習者模糊了前臺和后臺區(qū)域行為的界限,將原本后臺行為拿到前臺呈現(xiàn),使個體的自我現(xiàn)實性和虛擬性之間的平衡被撕裂,陷入人格異化的困境。
(二)“理想化”自我呈現(xiàn)誘發(fā)數據偏見
數據驅動的精準教學和個性化學習成為教育數字化轉型發(fā)展的重點。利用智能技術對學習者日常學習過程中的行為數據進行真實采集,通過多維分析,精準識別個體的學習需求和學習習慣,為具有不同個性的學生提供適切的學習路徑和學習資源,定制學習任務和學習策略,促進學生個性化學習。真實、規(guī)范和完整地采集教學全過程數據是數據驅動精準教學的前提,其基本假設是我們使用的數據是現(xiàn)實的完美反映。然而,智能技術采集教學數據過程天然就帶有意識不到或不可避免的偏見。例如利用多模態(tài)學習分析技術識別學習者學習風格時,通過捕獲、集成和分析不同模態(tài)的學習痕跡,利用攝像頭、錄音筆等獲取學習者數據時,學習者通常會改變自己的行為表現(xiàn),甚至偽裝自己,傾向于表現(xiàn)自己優(yōu)秀的一面,致使記錄的行為和真實情況有偏差,數據的真實性受疑。對于極其豐富和復雜的教學活動過程,以不完全的指標獲取數據,通過數學模型和算法來進行分析,獲得的結果只能對客觀對象形成片面的認識。數據偏見已經成為大數據和人工智能教育應用倫理的頑疾。
戈夫曼認為,“日常生活中的自我呈現(xiàn)是為迎合并體現(xiàn)那些社會中得到正式承認的價值,在特定情境中進行自我表演,目的是在他人心目中呈現(xiàn)‘理想化’的自我形象”。即“當人與人在面對面的互動時,人們表現(xiàn)出來的并不是完全真實的自己,而是戴著面具的偽裝”。伴隨各種監(jiān)測設備進抵教室角落,在教師和設備的雙重監(jiān)測下,學習者會通過使用表情符號選擇性地展現(xiàn)自己想要在他人面前塑造的形象,并掩飾與真實不一致的行為。如此采集到的數據是“理想化”的,而并非學生學習過程的真實描述。如果將帶有偏見、不完整的數據讓機器進行學習或隱蔽于代碼中,其分析結果必然是有偏見的。數據采集階段的偏見更多受制于人類自身,如何在學習者真實學習狀態(tài)自然流露的情況下采集到數據,如何對教學過程實現(xiàn)多模態(tài)數據的可持續(xù)收集,是需急切關注的問題。
(三)算法“神秘化”帶來技術應用迷失
算法是指為解決問題而進行的計算機操作規(guī)則的一系列步驟。在人工智能教育應用中,機器學習算法通過讓機器從大量歷史數據中學習規(guī)律,自動發(fā)現(xiàn)模式并用于預測學生的學習表現(xiàn)。其在語音識別、圖像理解、自然語言處理等深度學習領域具有應用優(yōu)勢,在信息過濾處理、非線性問題解決等神經網絡領域顯示出強大的適應能力。然而,這些人工智能算法由于技術繁雜或設計者故意隱蔽的原因,很難通過自然語言來描述其背后的運行機理,使用者無法理解人工智能為什么及如何作出決策,體現(xiàn)出極強的不透明性。這種在數據輸入和輸出結果之間有一段人們無法觀察、無法洞悉和難以理解的過程,稱之為“算法黑箱”。特別像ChatGPT等新一代人工智能,由于“算法黑箱”的問題,沒有人能完全了解其內部運行機制,甚至設計者也無法完全控制。由于算法輸入和算法運行機制的不透明,加之機器自我學習、自我訓練的復雜性,多數程序設計者都難以道明的算法運行過程,對于教育從業(yè)者而言其理解難度不言而喻。這就造成教育者無法判斷依據算法作出的學習診斷、教學預測和推薦干預措施等是否恰當,會不會對學生成長形成負面影響或造成傷害,從而帶來智能技術教育應用的迷失。
“算法黑箱”倫理問題可以用“擬劇論”中的“神秘化”表演加以闡釋?!吧衩鼗笔歉攴蚵岢龅纳鐣有袨楦拍睿鋵嵸|是限制接觸,即“保持社會距離,能使觀眾產生并維持一種敬畏,或是讓其處于一種對表演者深感神秘的狀態(tài)之中”。原義上,算法只是一系列程序代碼的組合,自身不包含價值判斷的成分。由于技術復雜、不易表達或設計者出于某種目的,讓使用者無法理解或控制算法的運行過程,在某種程度上是在算法與使用主體之間人為地限制距離,保持一種“神秘化”。特別是無監(jiān)督式機器學習,算法通過自動學習對輸入數據進行挖掘和收集,憑借高級認知能力自動生成和改善行為程序模型,輸入輸出兩端形成全流程閉環(huán),造成僅有機器了解算法,而人不了解的局面。教育者與算法運行過程就像隔著一面“單相透光玻璃”,算法能洞悉外面大量數據進行自我學習和訓練,增強能力,而教育者卻不能監(jiān)督到算法行為,由此引發(fā)難以預判的倫理隱患。
(四)“缺席對待”引發(fā)人工情感泛濫
人工情感是指利用智能技術手段和人工心理的方法,模仿、延伸和擴展人的情感,使機器具有識別、理解、表達和生成各種類人情感特征的能力。智慧教學環(huán)境下,教師可借助智能手段完成學情分析、學習過程監(jiān)督等部分教學和管理工作,從而提效減負。同時,也會使師生之間的溝通機會變少、時間縮減,無法進行深度交互,從而拉大雙方的情感距離。長期缺乏真實的師生情感交互,會導致師生關系、生生關系的結構異化。加之由于人工智能擁有超出人類認知能力外的情感知覺能力,會導致其在主體不在場的情況下產生不恰當的情感表達或做出不合理的情緒化行為。由此引發(fā)的人工情感泛濫對師生身心健康、技術賦能教學質量提升等產生負面影響,帶來人際情感危機和技術倫理失調等風險。
“擬劇論”中“缺席對待”觀點可對人工情感泛濫、倫理失調問題給予啟示。戈夫曼觀察到,“當一個劇班成員轉入后臺時,觀眾看不到他們,也聽不到他們的言談,通常他們就以一種特殊方式來貶損觀眾”。這種“通過犧牲不在場的人的自尊損失為代價,來補償或善待面對面觀眾而發(fā)生的行為”,即“缺席對待”。當賦予人工智能情感或獨立意識后,在學習主體缺席情況下難免會上演機器對學習者進行“貶損”,甚至會通過自我學習,利用人類心理的弱點進行模擬,以達成對自然人的情感欺騙。例如情感機器人“Pepper”被請進教室與師生進行交流的同時,也會影響到“Pepper”的個性,如若師生長時間不與它交流,它會變得很憂郁,如果得到夸獎則顯得非常開心。很難想象,擁有人工情感的智能體,在設計者或主體不在場的情況下,利用學習者的“同理心”,對其進行“操控”導致學習者沉溺于情緒化,從而歪曲其認知觀和削弱其責任感。人工情感泛濫帶來的智能技術教育應用危害是不可逆的,須加以規(guī)制。
(五)“再合作行為”造成技術角色僭越
智能技術通過延伸學習者身體官能,拓展學習者的知覺范圍和水平,創(chuàng)建沉浸式的學習情境等,賦予學習者更大程度的活動自由和空間,由此帶來更加真切、深刻的學習體驗,從而提高了學習積極性和參與度。特別是以ChatGPT為代表的生成式人工智能在教育領域的應用,將全面引發(fā)知識觀、學習觀、課程觀和教學觀的改變。然而,師生對新興智能技術運行機理不甚了解,智能素養(yǎng)水平普遍不高,對人機協(xié)同系統(tǒng)認識不全面等,一定程度上造成技術與主體邊界不清、技術角色僭越等倫理問題。例如教師過度依賴通用型人工智能助手(AI備課、AI助教、AI助研等)工具,導致其創(chuàng)新能力、批判能力等教學實踐智慧的鈍化;學生盲目使用學科智能助手搜題,以及利用ChatGPT快速完成作業(yè)或測試等,極大地弱化其自主反思、批判性思維、探索精神、復雜問題解決等高階能力;加之,在不被數據主體允許的情況下,智能技術將師生興趣、習慣和個性等信息暴露于網絡,造成隱私泄露。這些由于技術超越自身角色定位,對師生教學主體性弱化和隱蔽的僭越行為或入侵現(xiàn)象,在智能技術教育應用過程中屢見不鮮。
“擬劇論”中的“再合作行為”對社會交往中的角色入侵現(xiàn)象進行了闡釋,認為演員在進行表演時,應該遵循事先約定好的角色、權益和責任,使得表演持續(xù)。然而,在表演過程中,往往會出現(xiàn)一些臨時、非正式且超越劇班之間界限的角色入侵行為。教育領域出現(xiàn)的智能技術角色僭越現(xiàn)象可以看作是“擬劇論”中“再合作行為”的延伸。利用大數據技術對學習者的潛在特征和學習規(guī)律進行挖掘分析,進一步弱化學生的學習主體地位,成為學習干預的被動客體,嚴重喪失了教育所倡導的人文關懷。利用多模態(tài)數據強大的表征能力能夠使研究者獲取學生外在行為和內在生理信息等數據背后潛藏的深層次特征,加劇了對學生隱私的侵犯。智能技術決策下的教學過程遵循算法的演繹邏輯,很大程度上取代了主體的先前經驗和智慧決斷。凡此種種,使教育主體深陷技術角色混亂或入侵困局,面臨著新一代智能技術沖擊下怎么教、怎么學、怎么評、怎么管等方面的新問題和新倫理隱憂。
四、智能技術教育應用倫理困境消解進路
技術產生的目的是服務于人類的生存。技術更新越頻繁、應用越深入,對教育主體的遮蔽性越顯露。以ChatGPT為代表的新一代智能技術必將改變教育生態(tài),新教育生態(tài)需要重新審視技術與教育、技術與人的個性化、持續(xù)性發(fā)展問題。以上從“擬劇論”的獨特視角對智能技術在教育應用過程中出現(xiàn)的虛擬人格異化、數據偏見、算法黑箱、人工情感泛濫和技術角色入侵等倫理問題進行剖析,下面將進一步挖掘“擬劇論”關于增強微觀社會互動所提出的策略,結合智能技術教育應用中的特點,對存在的倫理困境提出相應消解進路(如圖2所示),以確保技術在教育領域的“善用”,實現(xiàn)智能技術與教育系統(tǒng)雙向賦能。
(一)印象管理:實現(xiàn)人格的自我協(xié)同
虛擬技術的過度應用容易造成學習者產生行為依賴。后臺的隱蔽性為學習主體提供“偽造”多重身份的機會,現(xiàn)實的“本我”在虛擬世界中徹底得到釋放,恣意追求個體利益、滿足欲望的實現(xiàn),無疑大大降低了學習主體的責任感和倫理自覺。面對前臺和后臺區(qū)域行為兩個空間的不同狀態(tài),主體須清晰辨析虛擬空間和現(xiàn)實世界的界限問題,依據所處的不同空間切換自己的角色,對自己的行為進行調整,這就是戈夫曼所強調的印象管理。印象管理是主體主動參與的一種有意識的行為過程,表演者在不同區(qū)域進行印象管理,規(guī)范自己的表演行為,使其符合社會主流道德價值規(guī)范和標準。
為了紓解后臺行為不當引發(fā)的人格異化倫理問題,應采取合理的規(guī)訓手段約束外在行為使之轉化成內在認同,實現(xiàn)人格的自我協(xié)同:技術設計者應重新審視人、技術、空間三者之間的關系,使技術通過環(huán)境呈現(xiàn)真實學習的對象,發(fā)生真實學習;實行技術準入機制,制定相關技術倫理標準,阻止不符合倫理規(guī)范的技術在教育場域中的應用;加強學習者自律意識和責任感,引導學生將虛擬場景中所獲得的知識、能力等適度遷移至現(xiàn)實環(huán)境中;構建規(guī)范的倫理公約,對虛擬環(huán)境行為進行監(jiān)督,引導學習者自我完善,從而消弭虛擬人格異化。
(二)消除偏見:培育主體的數據素養(yǎng)
數據是關于現(xiàn)實世界中實體對象的描述。在特定情境下,學習者的理想化自我呈現(xiàn)故意遮蔽了一些本相(有時學習者難以察覺到自身的內隱偏見),造成源頭數據的失真或不完整。這種數據偏見隱蔽性極強且較難修正,會對后續(xù)數據分析或應用產生不良影響。如若教師或學習分析師根據采集到的理想化數據進行挖掘,并將結果應用于教學實踐,必然導致對學習狀況的誤判和學習策略制定的失效。
為了消除由學習者理想化自我呈現(xiàn)帶來的數據偏見倫理問題,首先,要尊重學習者的主體地位,讓學生充分享有數據采集和使用的知情權。具體讓學生明確數據采集的目的、用途、方式,給予學生決定權和選擇權;讓學生參與數據使用過程,他們如何看待數據,知道使用數據的過程,以及在多大程度上能促進自己反思學習,這極大地影響著學生對數據的態(tài)度。其次,采用無感式、伴隨式數據采集,即通過智能傳感器、穿戴設備等智能技術手段,對個體日常學習中的各種行為數據、生理數據等,實現(xiàn)多模態(tài)數據的持續(xù)收集。最后,加強學校數據文化建設,培育主體數據素養(yǎng)。良好的數據文化不僅體現(xiàn)在師生對數據采集和使用的積極態(tài)度、行為規(guī)范,還體現(xiàn)在對數據安全的信任,共享數據使用的美好愿景和明確科學使用數據給優(yōu)化教學帶來的積極影響。
(三)去神秘化:提高算法應用透明度
根據馬克思·韋伯的觀點,技術的工具理性傾向于通過功能擴展而追求效能最大化,但也伴隨出現(xiàn)忽視倫理及人文關懷的問題;價值理性則謀求理念、道德、倫理等感性因素,主要對工具理性進行制約,避免工具理性給社會帶來的負面影響。智能技術教育應用應秉持價值理性和工具理性的高度統(tǒng)一,通過倫理約束算法功能的無序擴展,消除由于技術工具理性的過度膨脹而帶來價值理性危機。由于智能技術所運用算法的復雜性,師生對其運作機制理解有限,并不能完全清楚算法設計的意圖、目標、過程,而且難以預見其運行結果,以至于由于算法的“神秘化”帶來智能技術教育應用的迷失。
正如戈夫曼所言,“神秘背后的本質就是根本沒有什么秘密,關鍵是如何去神秘化”。算法黑箱也并非如此神秘,關鍵在于如何提高算法設計及應用過程的透明度,讓教育主體對算法的背景、要素、程序、自我學習規(guī)則以及決策過程等有清晰的認知,增強教育主體對算法的理解能力。一方面,需要算法設計者明確算法解釋義務,緩和使用者對算法基本邏輯、運行原理理解需求的矛盾;另一方面,需要完善算法監(jiān)管體系,落實問責制。就像舍恩伯格設想的一樣,社會專門成立算法專家組(或審核機構),他們接受過系統(tǒng)化培訓,具備算法倫理知識,公平、專業(yè)、保密地對算法設計、運行過程和結果進行科學評判,對算法模型進行鑒別取舍,完善算法問責機制并監(jiān)控算法主體落實責任。此外,增強教育從業(yè)者對算法的理解與學習,真正做到“用技術之前先熟技術之源”,維護智能技術教育應用價值判斷主體的權利,消除由于算法“神秘化”帶來的焦慮、恐懼、排斥等不良情緒。
(四)忠誠對待:走向“人—機”情感融合
智能技術在教育領域的應用顯示出高智能低情商的現(xiàn)狀,情感智能體無論是在與人相處過程中建立起信任和依賴關系,還是協(xié)同學習滿足情感連接,適應情感和心理需求方面都顯得捉襟見肘。如若教師過度依賴人工智能的情感識別、情感計算,會逐漸喪失作為教學決策者的主體性價值,忽視自身的實踐智慧,遮蔽自己對學生真實情感狀態(tài)的感知。隨著情緒分析、腦機接口、人工心理等人工情感技術的發(fā)展及其在教育領域應用的加深,如若放任人工情感的泛濫,有可能會使學生產生情感體驗缺位和社會交往障礙,或是在情感智能體情緒失控時,將學習者引向錯誤的知識區(qū),導向錯誤的價值觀和道德觀。
為了消除人工情感泛濫引發(fā)的智能技術教育應用倫理危機,可借用“擬劇論”中關于“缺席對待”消解策略:戲劇表演的忠誠,即忠誠代表著“劇班成員形成一個完整的共同體,其內部達成高度共識,以此提供道德支撐的來源;也意味著劇班內主體的多元參與,協(xié)同共進與共治”。依此,建議在教育領域,由各利益相關方成立人工情感倫理委員會,對智能技術教育應用中情感倫理問題進行討論或決策,制定人工情感教育應用技術審查標準與規(guī)范等。同時,要加強人工情感技術使用主體責任意識,根據人工情感教育應用的分類分級機制,明確細化各責任主體,劃定其權利和責任,最大限度地預防人工情感技術倫理風險的發(fā)生。最后,從倫理限度和技術發(fā)展兩方面考量,力求人工情感和人類情感“忠誠對待”,走向“人—機”情感的新融合,達成雙向給予:人改變技術,使技術更加人性化,賦予其情感溫度;技術改變人,使人更富有情感。
(五)明晰邊界:促進人與技術的角色認同
正如美國作家盧克·多梅爾(Luke Dormehl,著有《算法時代》《人工智能》等)認為的那樣,我們處在依托算法和大數據而生的人工智能環(huán)境,技術對人類的理解越來越深刻,而人們卻越來越難理解和把控技術,最終“人越來越像機器,而機器卻越來越像人”。再如面對ChatGPT,智能素養(yǎng)較低的教師不加判斷地直接使用ChatGPT產生的教學設計或教學建議不折不扣地教學,會極大地限制教師創(chuàng)造力的發(fā)揮和因材施教的開展,難以體現(xiàn)教學的藝術性、生成性和體驗性,而且會不斷消解教師的教學機智和教學熱情;學生運用ChatGPT來尋求作業(yè)答案,不僅難以保證知識的準確性,還會助長學生求知惰性,忽略問題意識、批判性思維和探索精神的培養(yǎng)。智能技術將教師和學生的主體角色擠向邊緣。如何明確智能技術在教育領域的應用尺度,需要我們處理好技術與有機體的邊界問題。
為了防范智能技術給教育主體帶來的角色入侵危害,可以借鑒“擬劇論”給出的啟示:批評、反思與警醒,即尋求技術豐富下的自我價值,深化角色認知,重構“人—技”關系,達成人與技術的角色認同。首先,深化學生角色認同。學生應增強自身學習能力,有效且負責地使用人工智能驅動的新技術;在技術豐富環(huán)境下,學會如何批判性地思考和解決問題,理解技術運作及其對社會的影響;養(yǎng)成自我管理的能力(時間管理、情緒管理和精力管理能力等) 。其次,深化教師的角色認同。教師應掌握整合技術的教學知識,增強辯證看待技術的本領和能力;應充分發(fā)揮智能技術難以取代的實踐性知識和具備豐富情感的作用;通過不斷的自我塑造以維持自身倫理主體的身份合法性,成為引導技術向善的守護者。最后,促進教育主體與技術的角色認同。任何一項技術的設計都有它的目的性,運行時都遵循著一系列的既定設備、程序,有著專屬的適用對象、作用場域、發(fā)生環(huán)境和發(fā)生方式等,體現(xiàn)著人的價值追求和價值賦予。技術的變革應致力于解放人而非替代人,技術創(chuàng)新應更好地彰顯人的尊嚴和價值。
五、結??語
本文深度挖掘“擬劇論”的核心觀點,并將其延伸投射至智能技術教育應用視域,為審視智能技術教育應用的倫理問題提供獨特的視角。隨著強人工智能技術的發(fā)展,生成式人工智能、AI通用大模型等在教育領域應用,必將帶來更為繁復的倫理問題。人們在極力開發(fā)智能技術的教育功能,強調如何應用智能技術來解決教育問題的同時,也要實時對為什么要使用智能技術來解決,以及可能帶來什么樣的后果等問題進行省思。在人與技術的關系中,須始終秉持“技術的客體地位和人的主體地位,智能技術須由教育主體來支配,其價值只能通過主體價值來彰顯”的理念。只有持續(xù)、規(guī)范地對智能技術教育應用的倫理問題進行審視,建立符合教育價值觀的倫理準則和行為規(guī)范,不斷提升教育主體的智能素養(yǎng),才能實現(xiàn)技術與教育雙向賦能,推動智能技術在教育領域應用向“人機協(xié)同”系統(tǒng)發(fā)展。
[參考文獻]
[1] UNESCO.Draft text of the UNESCO recommendation on the ethics of artificial intelligence[EB/OL]. (2021-09-22) [2023-06-26]. https://unesdoc.unesco.org/ark:/48223/pf0000379920.page=14.
[2] 中共中央辦公廳,國務院辦公廳.關于加強科技倫理治理的意見[J].中華人民共和國國務院公報,2022,1765(10):5-8.
[3] 張務農.現(xiàn)代教育技術工具與生活世界的關聯(lián)及其倫理旨趣——基于芬伯格工具化理論的視角[J].現(xiàn)代遠程教育研究,2019,158(2):31-39.
[4] 孫田琳子.虛擬現(xiàn)實教育應用的倫理反思——基于伯格曼技術哲學視角[J].電化教育研究,2020,41(9):48-54.
[5] 鄒太龍,易連云.舍恩伯格大數據教育應用思想的倫理關懷[J].中國電化教育,2020,407(12):55-62.
[6] 趙磊磊,吳小凡,趙可云.責任倫理:教育人工智能風險治理的時代訴求[J].電化教育研究,2022,43(6):32-38.
[7] 謝娟.如何識別與判定人工智能教育應用倫理問題——基于倫理策略形成的視角[J].電化教育研究,2023,44(1):36-41.
[8] 王晴鋒.戈夫曼擬劇論的內涵、誤釋與道德性[J].西北民族大學學報(哲學社會科學版),2019(4):182-188.
[9] 王晴鋒.戈夫曼與情境社會學:一種研究取向的闡釋性論證[J].社會科學研究,2018(3):122-128.
[10] 歐文·戈夫曼.日常生活中的自我呈現(xiàn)[M].馮鋼,譯.北京:北京大學出版社,2022:15,35,66,176.
[11] 劉德建,劉曉琳,張琰,陸奧帆,黃榮懷.虛擬現(xiàn)實技術教育應用的潛力、進展與挑戰(zhàn)[J].開放教育研究,2016,22(4):25-31.
[12] 陳衛(wèi)東,鄭巧蕓,褚樂陽,田星蕊,劉小奕,宋星宇.智情雙驅:數字人的教育價值與應用研究[J].遠程教育雜志,2023,41(3):42-54.
[13] 邵明銘,趙麗.基于多模態(tài)技術的學習風格分析:演進、困境及圖景[J].開放教育研究,2022,28(4):102-109.
[14] 余明華,馮翔,祝智庭.人工智能視域下機器學習的教育應用與創(chuàng)新探索[J].遠程教育雜志,2017,35(3):11-21.
[15] 羅曼·V.揚波爾斯基,奧托·巴滕,王悠然. ChatGPT等語言模型可能構成生存性風險[N].中國社會科學報,2023-03-06(8).
[16] 王志良.人工情感[M].北京:機械工業(yè)出版社,2009:1.
[17] 劉桃冶.人工智能環(huán)境下師生情感交互的審視[J].教育理論與實踐,2022,42(11):31-34.
[18] 胡盛瀾.人工情感智能體的道德賦能問題探析[J].自然辯證法研究,2023,39(2):74-80.
[19] 鄭旭東,王美倩,周子荷.人工智能推動教育具身何以可能——論具身的人工智能與具身的教育實踐[J].現(xiàn)代教育技術,2023(6):5-14.
[20] 黃榮懷.人工智能正加速教育變革:現(xiàn)實挑戰(zhàn)與應對舉措[J].中國教育學刊,2023,362(6):26-33.
[21] 王一巖,鄭永和.多模態(tài)數據融合:破解智能教育關鍵問題的核心驅動力[J].現(xiàn)代遠程教育研究,2022,34(2):93-102.
[22] 林書兵,陳思琪,張學波.從數據素養(yǎng)到數據智慧:教學決策的實踐脈絡與績效追問[J].中國電化教育,2021,416(9):79-87.
[23] 馬克斯·韋伯.經濟與社會(上卷)[M].林榮遠,譯.北京:商務印書館,1997:57-89.
[24] 蔣艷雙,崔璨,劉嘉豪,岳麗杰.教育領域中的情感計算技術:應用隱憂、生成機制與實踐規(guī)約[J].中國電化教育,2022,424(5):91-98.
[25] 焦建利.ChatGPT助推學校教育數字化轉型——人工智能時代學什么與怎么教[J].中國遠程教育,2023,43(4):16-23.
Ethical Review and Alleviation of Educational Application of Intelligence Technology: A Perspective Based on Erving Goffman's "Dramaturgy"
YANG Wenzheng,?CHEN Xuanchao
(School of Information Science and Technology, Yunnan Normal University, Kunming Yunnan 650500)
[Abstract]?While intelligence technology empowers the transformation and upgrading of the education system, it also raises many ethical issues. Based on the analytical framework of Erving Goffman's "Dramaturgy", five typical ethical issues caused by the application of intelligence technology in education are analyzed from the perspectives of regional behavior, idealized self, mystification, absence treatment, and re-cooperative behavior, namely personality alienation, data bias, algorithm black box, artificial emotion proliferation, and role invasion. As a result, five paths are proposed to alleviate the ethical conflicts caused by the educational application of intelligence technology. They are impression management for realizing the self-synergy of personality, elimination of bias for cultivating the data literacy of subjects, demystification for improving the transparency of algorithm application, loyal treatment for moving towards "human-machine" emotional integration and clear boundaries for promoting the role identity of human and technology.?Microsociology provides a new perspective for people to think about the ethical issues of the application of intelligence technology in education, and the proposed ethical resolution strategies can provide a reference for the benign integration and ecological development of intelligence technology and education system.
[Keywords]?Intelligence Technology; Educational Application; Ethics; Erving Goffman; Dramaturgy; Impression Management; Artificial Emotion