[摘 要] 教學(xué)決策具備較強的道德屬性,強調(diào)向善性和利他性。隨著生成式人工智能被應(yīng)用于教學(xué),其強大的學(xué)習(xí)、理解和生成能力使之承擔(dān)起大量非程序化決策任務(wù)。這也引發(fā)了關(guān)鍵問題:生成式人工智能是否具備支持教學(xué)決策的基本能力?未來的教育會受到什么樣的影響?文章通過回顧社會學(xué)、心理學(xué)、教育學(xué)、機器道德領(lǐng)域的既往研究,發(fā)現(xiàn)生成式人工智能的介入推動了教學(xué)決策從經(jīng)驗主義向人機協(xié)作模式的轉(zhuǎn)變,同時揭示出其自主性提升過程中伴隨著道德敏感性的不穩(wěn)定。這可能引發(fā)人機間的誤會、欺騙、責(zé)任推卸等風(fēng)險,并潛移默化地改變教育場景中的道德圖景。為應(yīng)對這些挑戰(zhàn),文章提出注入具備情境適應(yīng)性的機器美德、構(gòu)建教學(xué)決策專用的提示詞與智能體以及推動前瞻性社會實驗等策略,以促進(jìn)道德機器在教育領(lǐng)域的建設(shè)。
[關(guān)鍵詞] 生成式人工智能; 教學(xué)決策; 道德機器; 智能教育; 人機協(xié)同
[中圖分類號] G434 [文獻(xiàn)標(biāo)志碼] A
[作者簡介] 沈苑(1996—),女,江蘇蘇州人。助理研究員,博士,主要從事人工智能教學(xué)應(yīng)用倫理研究。E-mail:shenyuan676@163.com。汪瓊為通信作者,E-mail: wangqiong@pku.edu.cn。
一、 引 言
教學(xué)是一種復(fù)雜的認(rèn)知活動。教師在教學(xué)中需要針對影響學(xué)習(xí)的潛在因素不斷作出決策。決策質(zhì)量直接影響到教學(xué)活動效果[1]。過去教師多依賴于個人經(jīng)驗作出教學(xué)決策,近年來隨著生成式人工智能(Generative Artificial Intelligence,下文簡稱GAI)的可及性增加,不少教師已經(jīng)開始嘗試人機協(xié)同決策。自2022年起,OpenAI陸續(xù)發(fā)布大語言模型ChatGPT、可定制的GPTs、文生視頻大模型Sora。大模型作為GAI的典型應(yīng)用,在執(zhí)行生成任務(wù)、模擬人類對話、高質(zhì)量連貫響應(yīng)、多模態(tài)數(shù)據(jù)理解、微調(diào)控制和定制等方面具有明顯優(yōu)勢[2],為制定教學(xué)決策提供了全新的機會,同時也帶來了風(fēng)險與挑戰(zhàn)。
教學(xué)決策的根本目標(biāo)是促進(jìn)學(xué)生的健康成長與全面發(fā)展,具備顯著的向善性和利他性。因此,要制定出合理、有效的教學(xué)決策,不僅需要遵循教育規(guī)律、尋求教育效果,還需要審慎考慮特定決策在價值層面的道德屬性。研究表明,機器的自主性越強,潛在的倫理風(fēng)險就越大,需要考慮的各種倫理條件就越復(fù)雜[3]。美國技術(shù)倫理專家溫德爾·瓦拉赫(Wendell Wallach)和認(rèn)知科學(xué)哲學(xué)家科林·艾倫(Colin Allen)將具有高度自主性(Agency)和道德敏感性(Moral Sensitivity)的機器稱為“道德機器”(Moral Machine)[4]。從自主性來看,現(xiàn)有的大模型能夠根據(jù)輸入自動生成文字、語音、圖片、視頻,至少已經(jīng)達(dá)到了“半自主系統(tǒng)”水平。這也相應(yīng)地引發(fā)一系列關(guān)鍵問題:GAI是否具備支持教學(xué)決策的道德敏感性?GAI支持教學(xué)決策會如何影響教育?如何開發(fā)出具備道德決策能力的GAI工具?雖然GAI的發(fā)展速度和方向難以預(yù)測,但也有必要在理論認(rèn)識和實踐路徑上作出前瞻性分析,積極預(yù)防和應(yīng)對可能的風(fēng)險和挑戰(zhàn)。
本研究綜合社會學(xué)、心理學(xué)、教育學(xué)領(lǐng)域有關(guān)人類決策的既往研究,在回溯教學(xué)決策模式發(fā)展歷程的基礎(chǔ)上,分析GAI支持教學(xué)決策的形態(tài)與特征,進(jìn)而對其支持教學(xué)決策為教育帶來的風(fēng)險或困境作出研判。根據(jù)機器道德領(lǐng)域的理論與實踐成果,提出教育領(lǐng)域?qū)S玫纳墒街悄軟Q策支持工具的優(yōu)化思路,以期為未來的教學(xué)決策研究與生成式智能教育產(chǎn)品的研發(fā)提供參考與借鑒,促進(jìn)道德機器在教育領(lǐng)域的建設(shè)。
二、 教學(xué)決策的模式變革:從個人經(jīng)驗走向
人機協(xié)作
“決策”的特征在于決策者會對比衡量多個可選項的后果并作出最終選擇。教師在日常工作中會制定大量的教學(xué)決策,以妥善處理教學(xué)實踐中涌現(xiàn)出的各種dda4b68dac8728d2d942721892e4728b教學(xué)問題。雙系統(tǒng)理論指出,人類的決策方式由基于直覺的啟發(fā)式系統(tǒng)(Heuristic System)和基于理性的分析系統(tǒng)(Analytic System)輪流作用、彼此影響[5]。啟發(fā)式系統(tǒng)涉及自動且相對輕松的信息處理過程,允許人們在無意識的情況下獲取認(rèn)知的感覺。而分析系統(tǒng)讓人們能夠有意識地處理信息,參與到帶有目的性的分析之中。隨著教育數(shù)據(jù)的持續(xù)積累和智能技術(shù)的不斷發(fā)展,教學(xué)決策的模式也隨之發(fā)生變化,從基于個人經(jīng)驗的啟發(fā)式?jīng)Q策向數(shù)據(jù)驅(qū)動下的循證決策和GAI支持下的人機協(xié)同決策的方向發(fā)展。
(一)基于個人經(jīng)驗的啟發(fā)式?jīng)Q策
教育心理學(xué)家弗蘭克·帕賈瑞斯(Frank Pajares)指出,教師的信念體系是課堂實踐的基礎(chǔ)[6]。教師會帶著自己對教學(xué)的態(tài)度、價值、期望、設(shè)想等一系列從他們在學(xué)生時代就逐步積累下來的經(jīng)驗進(jìn)入課堂。在遇到問題時,教師習(xí)慣去識別出與過去經(jīng)驗相似的線索并作出概率推斷,從而形成決策[7]。研究表明,即便基于經(jīng)驗的啟發(fā)式?jīng)Q策可能與最佳決策之間存在著巨大的偏差,教師依舊傾向于相信自己能夠準(zhǔn)確理解當(dāng)下場景,對于自己的決策抱有信心[5,7]。
然而,依賴啟發(fā)式系統(tǒng)制定教學(xué)決策在倫理層面存在著明顯問題。一方面,啟發(fā)式系統(tǒng)容易受到刻板印象的干擾,直接影響到?jīng)Q策效果。由直覺主導(dǎo)的決策質(zhì)量很大程度上取決于教師是否具備充足的經(jīng)驗,及其對于教學(xué)的態(tài)度和意識。如果教師在缺少搜集相關(guān)信息的情況下過分依賴有限的個人經(jīng)驗,就容易忽視學(xué)生的個體差異,制定出不公平或有偏差的策略。另一方面,啟發(fā)式系統(tǒng)的加工速度較快,占用很少的心理資源,相應(yīng)地導(dǎo)致教師只意識到加工結(jié)果卻意識不到加工過程[8],導(dǎo)致決策過程淪為簡單、隨意的處理,可能對學(xué)生造成情感傷害。
(二)數(shù)據(jù)驅(qū)動下的循證決策
隨著教育大數(shù)據(jù)規(guī)模的快速增長,教學(xué)中的各項因素轉(zhuǎn)變?yōu)榭捎嬎愕膶ο螅箶?shù)據(jù)驅(qū)動下的循證決策成為可能。教師可以通過采集分析學(xué)生學(xué)習(xí)過程中的各種數(shù)據(jù),并針對性地實施差異化的教學(xué)方法,為教學(xué)動作創(chuàng)建出仔細(xì)校準(zhǔn)過的“路線圖”,在彰顯學(xué)生優(yōu)勢的同時,彌補他們的不足,以促進(jìn)更優(yōu)質(zhì)的學(xué)習(xí)?;诶硇缘姆治鱿到y(tǒng)在此過程中起到主導(dǎo)作用。有研究者開發(fā)了一個知識驅(qū)動下的教育決策支持系統(tǒng),能夠從現(xiàn)有的學(xué)生學(xué)分系統(tǒng)中提取可操作的“知識”。例如,教師在決定哪些不合格的同學(xué)可以獲得補考的機會時,該系統(tǒng)可以通過分析學(xué)生當(dāng)前的學(xué)習(xí)狀態(tài)并預(yù)測未來趨勢,輔助教師作出決定[9]。還有研究者開發(fā)了一個用于大學(xué)招生的決策系統(tǒng)。該系統(tǒng)存儲了大量學(xué)生入學(xué)前的數(shù)據(jù),提前預(yù)測學(xué)習(xí)過程中有失敗風(fēng)險的學(xué)生[10]。
與此同時,數(shù)據(jù)驅(qū)動教學(xué)決策在實踐中也面臨諸多質(zhì)疑。許多教師缺乏正確采集、解讀和運用數(shù)據(jù)的能力。研究發(fā)現(xiàn),當(dāng)教師將學(xué)習(xí)數(shù)據(jù)作為激勵學(xué)生的工具時,學(xué)生反而更抵觸?!俺煽儾畹膶W(xué)生知道他們自己成績差,他們不需要每天被反復(fù)提醒這件事”[11]。研究還發(fā)現(xiàn),教師花費大量時間處理數(shù)據(jù),致使學(xué)習(xí)成績落后的學(xué)生缺乏足夠的講解和答疑,可能加劇教育資源分配的不公平[11]。而且,分析系統(tǒng)的加工速度慢,占用較多的心理資源,其理性特征與教學(xué)實踐的靈活性和情境性沖突[12]。多項研究證明,在分析系統(tǒng)和啟發(fā)式系統(tǒng)存在競爭關(guān)系時,后者往往會獲勝,造成非理性偏差[5,7]。此外,多位研究者指出,過度依賴客觀數(shù)據(jù)、給學(xué)生“貼標(biāo)簽”等做法消解了教育本身的人文關(guān)懷[11,13]。
(三)GAI支持下的人機協(xié)同決策
與基于規(guī)則的傳統(tǒng)人工智能不同,GAI是建立在大數(shù)據(jù)基礎(chǔ)上更加靈活的人工智能技術(shù),其能力超越了對數(shù)據(jù)的分類和預(yù)測,可以通過深度學(xué)習(xí)、強化學(xué)習(xí)等算法實現(xiàn)自主學(xué)習(xí)、自主適應(yīng)、自主決策等智能化行為,并創(chuàng)作出新穎的文字、圖像或其他媒體產(chǎn)物以回應(yīng)提示工程。這一技術(shù)突破推動AI從“工具”轉(zhuǎn)變?yōu)榻處煹摹昂献骰锇椤?。在未來,教師向GAI尋求行動建議很可能會成為一種常態(tài)[14]。赫伯特·西蒙(Herbert Simon)區(qū)分了“程序化決策”與“非程序化決策”,指出前者是可以通過一套例行程序來處理的常規(guī)化例行決策,而后者是需要更多信息來對決策對象進(jìn)行建模的復(fù)雜決策[15]。在教師的日常決策中,既有程序化決策(如記錄考勤、批改作業(yè)),也有依賴教師自身經(jīng)驗和素養(yǎng)來執(zhí)行的非程序化決策(如調(diào)節(jié)作業(yè)量、應(yīng)對突發(fā)事件、引導(dǎo)小組討論、與家長交流學(xué)生表現(xiàn))。從西蒙的決策理論來看,教師在日常工作中所能掌握的信息、知識與能力有限,所能夠考慮的方案也是有限的,因此,難以作出效用最大化的非程序化決策[16]。但是GAI的出現(xiàn)改變了這一情況。GAI具備強大的數(shù)據(jù)處理能力、靈活的推理能力以及一定程度的創(chuàng)新能力,能夠幫助教師快速生成多種問題解決思路、獲取大量原來無法直接得到的信息和數(shù)據(jù)分析結(jié)果,從而提高教師作出高質(zhì)量非程序化決策的可能性。比如,可汗學(xué)院在ChatGPT-4的基礎(chǔ)上推出了智能助教“Khanmigo”。教師可以通過與它對話,快速設(shè)計具有趣味性的課程導(dǎo)入和課后提問、開發(fā)課堂匯報的評分標(biāo)準(zhǔn)、制定整個學(xué)期的課程大綱、創(chuàng)建考查學(xué)生思維能力的測試題等[17]。除此之外,教師還可以創(chuàng)建自己或他人的數(shù)字分身,將原本工作中的部分非程序化任務(wù)交給GAI處理,同時在人機對話中持續(xù)補充背景信息、描述個人經(jīng)驗并優(yōu)化提問,直到獲得滿意的答案為止。
瓦拉赫和艾倫指出,技術(shù)的發(fā)展是伴隨著日益增強的自主性和道德敏感性交叉作用而進(jìn)行的[4]。隨著GAI自主性的持續(xù)提升,其道德敏感性表現(xiàn)出不穩(wěn)定性。研究發(fā)現(xiàn),ChatGPT對于同一道德問題(是否可以通過犧牲一個人拯救五個人?)給出了相互矛盾的建議,揭示出其道德立場的“搖擺”特征[18]。盡管OpenAI公開了他們針對ChatGPT生成有害內(nèi)容所采取的措施(如引入領(lǐng)域?qū)<疫M(jìn)行紅隊測試、使用強化學(xué)習(xí)和人類反饋來微調(diào)模型行為),但也聲明ChatGPT仍然可能受到對抗性攻擊,導(dǎo)致生成不符合道德的內(nèi)容[19]。進(jìn)一步的研究顯示,不同的大語言模型具有特定的道德傾向,如ChatGPT呈現(xiàn)出嚴(yán)格遵守道德原則的絕對主義傾向,而谷歌大模型Bard則呈現(xiàn)出強調(diào)靈活性的情境主義傾向[20]。上述道德敏感性的不穩(wěn)定情況為GAI在教育決策中的應(yīng)用帶來了巨大的挑戰(zhàn)。
三、 GAI支持教學(xué)決策的實踐困境
在機器持續(xù)增長的自主性和不穩(wěn)定的道德敏感性的共同作用下,GAI支持教學(xué)決策可能面臨著諸多困境,包括因人機自主權(quán)博弈而產(chǎn)生的誤會、欺騙、責(zé)任推卸以及長期而言的道德圖景變化。
(一)意圖投射下的誤會與欺騙
多項研究表明,人類會自然地將人格化的屬性賦予他們認(rèn)為有生命的事物,給機器“植入”它們本不具有的官能。1944年,弗里茨·海德(Fritz Heider)和瑪麗安·齊美爾(Mery-Ann Simmel)進(jìn)行了一項經(jīng)典的心理學(xué)實驗,要求被試者觀看一段三角形和方形在屏幕上移動的短片并描述自己看到的內(nèi)容。結(jié)果顯示, 97%的被試者在沒有任何提示的情況下,使用擬人化語言描述了這些幾何圖形的行動,如“恐懼”“追趕”“躲避”,甚至為它們編織出了完整的故事[21]。社會學(xué)家雪利·特克爾(Sherry Turkl)在一項實驗中發(fā)現(xiàn),療養(yǎng)院中的老年人對一種海豹形態(tài)的機器人玩偶Paro產(chǎn)生了深厚的情感依戀[22]。美國巴蒂亞·弗里德曼(Batya Friedman)教授主導(dǎo)的一項調(diào)查中發(fā)現(xiàn),83%的大學(xué)生認(rèn)為計算機具備自主性,79%的大學(xué)生認(rèn)為計算機具備制定決策的能力,45%的大學(xué)生認(rèn)為計算機具有意圖[23]。
上述將意圖和情感投射于機器的傾向在GAI的實踐中被進(jìn)一步增強。GAI的訓(xùn)練數(shù)據(jù)中包含大量表達(dá)情感、個性、觀點、幻想的多模態(tài)信息,使其反饋在內(nèi)容和形式上都非常接近人類表達(dá)。此外,GAI的定制化功能(如用戶自定義對話風(fēng)格、語音語調(diào)、虛擬形象)、對于邏輯細(xì)節(jié)的處理(如保留有關(guān)之前對話的記憶、從先前內(nèi)容中推斷信息、保持話題的相關(guān)性和連貫性),以及所流露出的“人性”特征(如以打字方式呈現(xiàn)反饋、對同一問題給出不同回答、用“我認(rèn)為”“我反對”論述觀點)等特征,都容易導(dǎo)致師生對其行為原理及能力界限產(chǎn)生誤解。
在人機協(xié)作制定教學(xué)決策的過程中,也許教師并不會將GAI視為真正的人類,但他們可能會在潛意識里相信機器具備感知和思維,從而以對待人的方式對待機器。這種方式容易引發(fā)人機之間的誤會或欺騙。市面上的通用大模型并非專為教育領(lǐng)域開發(fā),而是由互聯(lián)網(wǎng)上海量無標(biāo)注的數(shù)據(jù)訓(xùn)練而成,在學(xué)科知識的準(zhǔn)確性上存在不足。它們提供的回答可能包含師生難以察覺的錯誤或偏見,造成“幻覺”問題。而且這些錯誤很容易被GAI的快速響應(yīng)所掩蓋,可能被誤以為真。一些追求自適應(yīng)的人機交互應(yīng)用還會使這些虛假信息又重新進(jìn)入到語料庫之中,在信息閉環(huán)中被進(jìn)一步加固。這種誤會與欺騙阻礙了師生對GAI局限性的客觀認(rèn)識,可能引發(fā)他們的自卑感和能力上的退化。經(jīng)驗豐富的教師通常積累了大量隨機的、臨場的、內(nèi)隱的知識,能夠根據(jù)學(xué)生的個性差異靈活安排教學(xué)活動,并迅速處理突發(fā)問題。然而,GAI的介入可能導(dǎo)致教師忽視自身主體性,甚至放棄自己相較于機器的真正優(yōu)勢,如靈活性、自發(fā)性、對意外的反應(yīng)能力以及學(xué)習(xí)新技能的能力[24]。
(二)過度信任背后的責(zé)任推卸
個體的道德決策是通過多種心理系統(tǒng)之間復(fù)雜交互作用形成的[25] 。GAI的出現(xiàn)雖然簡化了這一內(nèi)在的斗爭和思考,但也將教師應(yīng)當(dāng)承擔(dān)的責(zé)任轉(zhuǎn)移到了機器上。弗里德曼等人指出,決策支持工具常常會引發(fā)導(dǎo)向人類決策者放棄道德責(zé)任的“滑坡謬誤”—— 隨著人們對機器信任度的增加,質(zhì)疑其建議變得越來越困難,最終可能導(dǎo)致機器接管決策過程,并被默認(rèn)應(yīng)承擔(dān)相關(guān)的道德責(zé)任[23]。多項心理學(xué)實驗都證明了自動化偏見(Automation Bias)的存在,即人類傾向于支持自動決策系統(tǒng)提供的建議,并忽略與之矛盾的其他信息[26-27]。即便是人類處于觀察者角色但能夠干預(yù)決策時,他們依舊很可能會不假思索地將GAI的回答當(dāng)作標(biāo)準(zhǔn)答案。腦神經(jīng)科學(xué)的相關(guān)研究也佐證了人的大腦習(xí)慣于以節(jié)省能量的模式工作[28]。
GAI的出現(xiàn)很大程度上降低了教師作出認(rèn)知努力去尋求所有相關(guān)信息的可能性,使得教師更容易倉促評估當(dāng)前情況,進(jìn)而導(dǎo)致責(zé)任推卸和問責(zé)困難。當(dāng)GAI的快速響應(yīng)取代教師制定教學(xué)決策的思維過程,很可能會削弱教師的決策動機與能力,抑制人類智慧的涌現(xiàn)。教師可能過分依賴系統(tǒng)建議,而忽視自身的專業(yè)判斷,以及人際互動和育人責(zé)任的重要性?;蛘?,當(dāng)教師在操作GAI時遇到困難,可能會將誤用或濫用的后果歸咎于技術(shù)工具的局限性,而忽視了自身技術(shù)熟練度與教學(xué)能力的不足。
教育決策強調(diào)“過程導(dǎo)向”,要求教師在復(fù)雜的判斷過程中收集信息、分析、形成多個方案、選定最終解決方案。這個過程不僅深化了教師對教學(xué)決策的理解,還促進(jìn)了教師問題解決能力的發(fā)展,豐富了教師的實踐性知識。然而,GAI往往是 “結(jié)果導(dǎo)向”型的技術(shù),專注于生成內(nèi)容的豐富性、流暢性和準(zhǔn)確性,與教育決策的過程導(dǎo)向原則產(chǎn)生沖突,導(dǎo)致人機協(xié)作中的決策問責(zé)面臨困難。當(dāng)人(如技術(shù)研發(fā)者、教師、學(xué)生、家長)、智能工具(如ChatGPT)、混合體(如基于GAI平臺協(xié)作的教師)通過道德中立的局部交互,導(dǎo)致某些負(fù)載道德責(zé)任的行為時,責(zé)任的歸屬會變得格外模糊。盡管“分布式道德責(zé)任”這一概念由來已久[29],且相關(guān)組織也已規(guī)定由直接和間接影響系統(tǒng)開發(fā)和使用的每個主體共同承擔(dān)責(zé)任[30]。但像GAI這類基于深度學(xué)習(xí)的系統(tǒng),其內(nèi)部運作對于非技術(shù)專家來說往往是不透明的。因此,GAI在教育決策中的責(zé)任分配仍然是一個具有挑戰(zhàn)性的問題。
(三)道德圖景的變化與長期作用
從長期來看,借助GAI支持教學(xué)決策將會對教育領(lǐng)域的道德格局產(chǎn)生深遠(yuǎn)影響。在漫長的道德探索過程中,人類尚未就如何判斷對錯、好壞達(dá)成廣泛共識。隨著新興技術(shù)的發(fā)展,一些傳統(tǒng)的道德價值觀念更是從底層被顛覆或重塑,社會道德圖景隨之變化。雖然技術(shù)是人類根據(jù)自身的需要而創(chuàng)造的,但其設(shè)計特征和使用情境會反過來激發(fā)人類特定的思維、行為和價值模式。正如弓箭的發(fā)明開辟了在安全距離內(nèi)殺敵的可能性,輪子的發(fā)明促進(jìn)了貿(mào)易與文明,互聯(lián)網(wǎng)消除了信息傳播的邊界,改變了知識分享和版權(quán)觀念。同樣,GAI如今能夠承擔(dān)傳統(tǒng)教學(xué)中許多難以自動化的任務(wù),重新定義教學(xué)決策的制定與執(zhí)行方式,開辟新的道德可能性。例如,ChatGPT的出現(xiàn)引發(fā)了對學(xué)術(shù)不端判定標(biāo)準(zhǔn)的反思。目前備受爭議的行為在未來可能會被接受并成為常態(tài)。教師大批量地生成錄播課、GAI和學(xué)生共同完成作業(yè)、學(xué)生學(xué)習(xí)過程中的心理狀態(tài)受到持續(xù)監(jiān)測、人才培養(yǎng)的兩極化發(fā)展等可能會成為新道德標(biāo)準(zhǔn)的一部分,重塑我們對教育倫理的理解。此外,當(dāng)GAI延伸至私人領(lǐng)域,甚至開始與人類發(fā)展出親密關(guān)系,從而引發(fā)的道德問題將會具有更多“私人裁量權(quán)”,加劇道德的模糊性[31]。
對于人類而言,道德行為通常是對社會環(huán)境的實時適應(yīng),是為了迎合持續(xù)變化的需求、價值、期待的嘗試。隨著道德圖景的不斷重塑,未來支持教學(xué)決策的GAI需要具備一定的自主探索道德目標(biāo)的能力,在遵循道德原則的同時參與到教學(xué)決策的道德考量中去。例如,隨著教師對GAI的信任逐步建立,他們可能會更加依賴工具,逐漸允許GAI獨立承擔(dān)更多教學(xué)決策任務(wù)。這要求GAI實時考量教師是否出現(xiàn)過度信任的情況,并且適當(dāng)校準(zhǔn)信任程度??紤]到道德圖景的動態(tài)性,有研究者提出道德機器應(yīng)該具備“塑造”道德目標(biāo)的能力[4]。具體來說,GAI應(yīng)當(dāng)在現(xiàn)有人工智能倫理范疇下(如歐盟所提出的“預(yù)防傷害”“尊重人類自主”“公平”“可解釋”原則),適時、恰當(dāng)?shù)財U展自己的任務(wù)范圍,以形成更高效的人機協(xié)同決策機制[32]。
四、 建設(shè)生成式智能教學(xué)決策支持工具的
關(guān)鍵進(jìn)路
設(shè)計工具的過程實際上是在塑造具有倫理意義的人類存在方式。這要求人們在技術(shù)的設(shè)計階段就開始思考:這項技術(shù)在最終應(yīng)用場景下會賦予人們怎樣的行動機會、又會產(chǎn)生何種影響。為應(yīng)對GAI用于教學(xué)決策的短期風(fēng)險和長期隱憂,可以通過發(fā)展機器美德、構(gòu)建專用智能代理、開展具備前瞻性實驗等方式來促進(jìn)道德機器在教育領(lǐng)域的建設(shè),實現(xiàn)GAI支持教學(xué)決策質(zhì)量、效率與倫理之間的動態(tài)平衡。
(一)注入具備情景適應(yīng)性的機器美德
教學(xué)本身是對各類困境的處理,涉及大量基于當(dāng)下情景的即時決策。當(dāng)GAI在具體的教學(xué)情境中需要作出自主行為選擇時,它必須具備一定的道德決策能力。具備道德的機器并不是自然而然就出現(xiàn)的,而是需要人類以合適的方式將道德“注入”其中。什么是合適的方式呢?瓦拉赫和艾倫發(fā)現(xiàn),自上而下的道德內(nèi)置方法無法應(yīng)對具體行為情境的復(fù)雜性,而自下而上的自主學(xué)習(xí)方法又難以確保機器學(xué)習(xí)結(jié)果的道德性。因此,只有將兩種方法相結(jié)合,才能創(chuàng)造出既服從人類道德法則、又具有一定道德自主能力的道德機器[4]。
要實現(xiàn)情景適應(yīng)性的機器美德,需要對大量既往的教學(xué)決策案例進(jìn)行表征、分析與比較。布魯斯·麥克拉倫(Bruce McLaren)所開發(fā)的工程道德決策系統(tǒng)SIROCCO (System for Intelligent Retrieval of Operationalized Cases and Codes)提供了一個可借鑒的方案。該系統(tǒng)通過分析包含500個以上職業(yè)道德決策案例的數(shù)據(jù)庫,檢索相關(guān)的前例和線索,同時揭示工程倫理原則在實際情境下的操作化特征[33]。此外,瓦拉赫和艾倫提出,可以將啟發(fā)式算法(Heuristic Algorithm)的思路應(yīng)用到道德設(shè)計中,開發(fā)“道德啟發(fā)式”(Heuristics in Ethical Applications),即對行動的即刻后果進(jìn)行排序,并考慮這些后果所帶來的道德次要后果的可能性[4]。
在機器道德領(lǐng)域已有實踐的基礎(chǔ)上,開發(fā)支持教學(xué)決策的GAI可以考慮整合上述兩種表征案例的方式。理想情況下,這種系統(tǒng)能夠在遇到教學(xué)中的道德困境時,自動檢索歷史上類似的案例,識別其中的關(guān)鍵相似點和不同點,具體闡述支持或反對某一決策的理由。它可以基于最相似的案例形成決策優(yōu)先級序列,并通過這些案例闡釋相關(guān)倫理原則的機器認(rèn)知模式。通過這種方式,GAI不僅能在教學(xué)決策中提供切實可行的建議,還能幫助教師深入理解和應(yīng)用倫理原則,為教學(xué)實踐提供更精準(zhǔn)的決策支持。
(二)構(gòu)建教學(xué)決策專用的提示詞與智能體
雖然GAI的出現(xiàn)減輕了教師在數(shù)據(jù)分析方面的負(fù)擔(dān),但同時也對教師理解機器原理、區(qū)別機器能力以及與機器有效溝通提出了更高要求。一些研究者擔(dān)憂,智能技術(shù)可能導(dǎo)致人們重復(fù)以往的行為模式,讓人們大量的活動變得例程化,甚至將人馴化成不斷重復(fù)過去決策的“機器”,阻礙創(chuàng)新探索[34]。從這個角度來看,如果教師不了解GAI的能力、局限以及正確使用它的方式,他們不僅可能失去工作的樂趣,更可能失去生活的“自由”。 與傳統(tǒng)的互聯(lián)網(wǎng)信息服務(wù)不同,GAI的輸出是由算法與用戶共同完成的,輸出質(zhì)量在很大程度上取決于用戶提供信息的豐富性——“誰控制了問題,誰就控制了答案;誰控制了答案,誰就控制了現(xiàn)實”[35]。因此,開發(fā)教學(xué)決策專用的提示詞規(guī)范就顯得尤為重要。
OpenAI發(fā)布的“用人工智能教學(xué)”(Teaching with AI)官方指南中,提供了四段教師可直接使用的提示詞,可用于制定教學(xué)計劃、創(chuàng)建有效的解釋、模擬教學(xué)過程和創(chuàng)建智能助教等多種場景[36]。這些提示詞具備下列特征:(1)清楚規(guī)定ChatGPT的角色與行動特征,如“你是一位樂觀、善于鼓勵學(xué)生的導(dǎo)師,要通過解釋和提問來幫助學(xué)生理解概念”;(2)明確列出ChatGPT在對話中要遵循的邏輯,如“首先自我介紹,然后詢問教師的教學(xué)以及學(xué)生年級水平,并等待教師回復(fù)”;(3)遵循教育規(guī)律,強調(diào)引導(dǎo)而非直接回答,如 “不要立即提供答案,而是提出引導(dǎo)性問題”“嘗試以問題結(jié)束回答,以鼓勵持續(xù)思考”;(4)積極解決教師的潛在誤解,如“詢問教師是否想改變或添加內(nèi)容到解釋中”;(5)確保對話由發(fā)起者主導(dǎo),以讓人舒適的節(jié)奏推進(jìn),如“一次只問一個問題”“在教師作出回應(yīng)之前不要繼續(xù)發(fā)言”。
在引導(dǎo)教師有效使用提示詞與GAI進(jìn)行互動的同時,技術(shù)研發(fā)者有必要基于大模型進(jìn)一步開發(fā)專用于教學(xué)決策的智能代理(Agent)[37]。教師與GAI對話時,需要深入理解所探討的問題,篩選和組織相關(guān)信息,形成針對性問題,并通過多輪對話不斷細(xì)化和補充信息。然而,考慮到教師在問題識別、信息分析和提示詞撰寫等方面存在顯著差異,為教師提供更加用戶友好的定制化工具至關(guān)重要。智能代理,或智能體,是在大語言模型基礎(chǔ)上經(jīng)過微調(diào)的工具,能夠在特定領(lǐng)域中提供更高效且更具針對性的支持。
在構(gòu)建專用于教學(xué)決策的智能代理時,有一系列關(guān)鍵要素需予以關(guān)注。首先,應(yīng)根據(jù)不同學(xué)段的育人目標(biāo)和認(rèn)知規(guī)律,明確定義和強調(diào)一系列正確的教學(xué)決策涉及的關(guān)鍵價值,如透明度、公平性、尊重學(xué)生的個體差異、學(xué)術(shù)自由與誠信、終身學(xué)習(xí)、批判性思維、知識傳播等[24]。其次,鑒于GAI的介入可能引發(fā)或加劇某些價值沖突,特別是在主體性和責(zé)任歸屬方面的人機競爭,因此,在提示詞設(shè)計中,必須明確設(shè)定GAI的目標(biāo)、邊界和語氣,確保教師始終保持決策的主體地位。最后,為了提高決策過程的透明度和可解釋性,智能代理應(yīng)在提供決策建議的同時提供相應(yīng)的原則依據(jù)和支持證據(jù),或者在提出多種決策方案時進(jìn)行潛在風(fēng)險分析。這些措施將幫助教師在充分了解各種因素的基礎(chǔ)上,作出更加適宜的決策。
(三)開展前瞻性實驗研究以檢驗假設(shè)
物質(zhì)、生命和心靈之謎定義了科學(xué)的三大挑戰(zhàn)。隨著物理學(xué)和生命科學(xué)的發(fā)展,前兩者已經(jīng)不再神秘,但在心靈領(lǐng)域關(guān)于人類智慧的爭論卻不斷延續(xù)。本研究所關(guān)注的GAI支持教學(xué)決策的風(fēng)險大多是基于各領(lǐng)域研究成果的推理與研判,未來亟須開展更多具有前瞻性和學(xué)理性的科學(xué)實驗來驗證現(xiàn)有的一系列假設(shè)??紤]到GAI正在持續(xù)發(fā)展,其對教育的影響研究必然是伴隨技術(shù)演變的長期工作。在此背景下,兩類研究顯得尤為重要:一是在實驗室環(huán)境中進(jìn)行的細(xì)致、具體的學(xué)理性實驗研究,以探究GAI對教育決策的影響;二是在自然環(huán)境中進(jìn)行的規(guī)?;?、常態(tài)化使用后的社會影響研究,以評估GAI在真實教育場景中的作用與效果。參考醫(yī)療領(lǐng)域,雖然關(guān)于AI能否決定病人生死的爭議早在20世紀(jì)就已經(jīng)出現(xiàn),但是迄今為止尚未有證據(jù)表明機器能在人類不參與的情況下作出如此重大的決定。相應(yīng)地,GAI支持教學(xué)決策真的會導(dǎo)致機器的過度控制嗎?教師的自主性與能動性又真的會被削弱嗎?教育場景中的道德圖景究竟會如何變化?這些問題仍然需要更多可靠的證據(jù)來回答。
此外,關(guān)于GAI支持教學(xué)決策的討論也在啟發(fā)著我們向更深層次的人類心理進(jìn)行探索。諸多技術(shù)哲學(xué)家嘗試從人類習(xí)慣的角度去分析智能技術(shù)給人類生活帶來的巨大變化。AI的出現(xiàn)打破了人們機械、重復(fù)的習(xí)慣,同時也激發(fā)了人類對于“習(xí)慣”的矛盾心理。一方面,人們希望機器有朝一日能將他們從日常工作中解放出來。另一方面,人們又相信“重復(fù)的樂趣中有某種超然的東西”,重復(fù)性的體力勞動為沉思留下了空間[38]。這種矛盾的態(tài)度精準(zhǔn)地跨越了現(xiàn)代思想中某些二元對立——主動和被動、自由和必然、頭腦和身體——引起了關(guān)于自由和自主性的問題。教師每天所處理的程序化和非程序化任務(wù)將會如何被GAI分擔(dān)?這種人機協(xié)作將如何改變教師的生活與心態(tài),造就新的習(xí)慣?此外,這種變化又將如何影響學(xué)生的發(fā)展與成長?這些問題已經(jīng)超越了單純的教育議題,要求我們跳出教育的范疇,進(jìn)行更為廣泛的社會性分析與長期的實驗研究,才能更為準(zhǔn)確地預(yù)測和理解這些潛在的深遠(yuǎn)影響。
五、 結(jié) 束 語
以GAI為代表的新一代人工智能技術(shù)正在深刻影響著教學(xué)決策的制定、執(zhí)行與評估。在此過程中,教師與智能系統(tǒng)可以發(fā)揮各自的核心優(yōu)勢,形成互補,推動決策在人機協(xié)同模式下變得更高效、更優(yōu)質(zhì)。從目前來看,應(yīng)用GAI輔助教學(xué)決策仍面臨諸多風(fēng)險和挑戰(zhàn),亟須技術(shù)研發(fā)者、教育實踐者和科學(xué)研究者通力合作,深入探索智能技術(shù)在優(yōu)化教學(xué)決策流程與效果的最佳實踐方案,推動人類智慧與機器智能的協(xié)同增長。
[參考文獻(xiàn)]
[1] HUNTER M. Teaching is decision making[J]. Educational leadership, 1979,37(1):62-67.
[2] 劉邦奇,聶小林,王士進(jìn),等. 生成式人工智能與未來教育形態(tài)重塑:技術(shù)框架、能力特征及應(yīng)用趨勢[J]. 電化教育研究,2024,45(1):13-20.
[3] 北京大學(xué)國家機器人標(biāo)準(zhǔn)化總體組. 中國機器人倫理標(biāo)準(zhǔn)化前瞻[M]. 北京:北京大學(xué)出版社,2019:67-78.
[4] WALLACH W, ALLEN C. Moral machines: teaching robots right from wrong[M]. New York:Oxford University Press, 2008:10-250.
[5] KAHNEMAN D, FREDERICK S. A model of heuristic judgment[M]//The Cambridge handbook of thinking and reasoning. New York: Cambridge University Press, 2005: 267-293.
[6] PAJARES M F. Teachers' beliefs and educational research: cleaning up a messy construct[J]. Review of educational research, 1992, 62(3):307-332.
[7] VANLOMMEL K, VAN GASSE R, VANHOOF J, et al. Teachers' decision-making: data based or intuition driven?[J]. International journal of educational research, 2017,83:75-83.
[8] 孫彥,李紓,殷曉莉. 決策與推理的雙系統(tǒng)——啟發(fā)式系統(tǒng)和分析系統(tǒng)[J]. 心理科學(xué)進(jìn)展,2007(5):721-726.
[9] VOT N C, NGUYEN H P. A knowledge-driven educational decision support system[C]//2012 IEEE RIVF International Conference on Computing & Communication Technologies, Research, Innovation, and Vision for the Future. Ho Chi Minh City:Vietnam. IEEE,2012:1-6.
[10] DEWANTORO G, ARDISA N. A decision support system for undergraduate students admissions using educational data mining[C]//2020 7th International Conference on Information Technology, Computer, and Electrical Engineering (ICITACEE). September 24-25,2020,Semarang,Indonesia. IEEE,2020:105-109.
[11] NEUMAN S B. Code red: the danger of data-driven instruction[J]. Educational leadership, 2016,74(3):24-29.
[12] 宋乃慶, 楊豫暉. 教師教學(xué)決策的主要問題及其思考[J]. 教育研究,2010,31(9):85-89.
[13] SCHMIDT W H, MCKNIGHT C. Inequality for all: the challenge of unequal opportunity in American schools[M]. New York: Teachers College Press, 2012:5-8.
[14] 劉明,郭爍,吳忠明,等. 生成式人工智能重塑高等教育形態(tài):內(nèi)容、案例與路徑[J]. 電化教育研究,2024,45(6):57-65.
[15] SIMON H A. The new science of management decision[M]. New York: Harper & Brothers, 1960:5-7.
[16] SIMON H A. Bounded rationality[M]//EATWELL J, MILGATE M, NEWMAN P. Utility and probability. London: Palgrave Macmillan UK, 1990:15-18.
[17] KHAN ACADEMY. Meet Khanmigo Khan Academy's AI-powered teaching assistant & tutor[EB/OL]. [2024-02-20]. https://khanmigo.ai/.
[18] KR?譈GEL S, OSTERMAIER A, UHL M. ChatGPT's inconsistent moral advice influences users' judgment[J]. Scientific reports, 2023,13(1):4569.
[19] OPENAI. GPT-4 System card[R/OL]. [2024-03-10]. https://cdn.openai.com/papers/gpt-4-system-card.pdf.
[20] MCGRATH Q P. Unveiling the ethical positions of conversational AIs: a study on OpenAI's ChatGPT and Google's Bard[J]. AI and ethics,2024:1-16.
[21] HEIDER F, SIMMEL M. An experimental study of apparent behavior[J]. The American journal of psychology,1944,57(2):243-259.
[22] TURKLE S, TAGGART W, KIDD C D, et al. Relational artifacts with children and elders: the complexities of cybercompanionship[J]. Connection science, 2006,18(4):347-361.
[23] FRIEDMAN B. "It's the computer's fault": reasoning about computers as moral agents[C]// Conference on Human Factors in Computing Systems. Denver, Colorado, United States: ACM Press, 1995:226-227.
[24] STRIKE K, SOLTIS J F. The ethics of teaching [M]. New York: Teachers College Press, 2015:40-45.
[25] 王鵬,方平,姜媛. 道德直覺背景下的道德決策:影響因素探究[J]. 心理科學(xué)進(jìn)展,2011,19(4):573-579.
[26] BRUNER J, TAGIURI R. The perception of people[M]//ARONSON E, LINDZEY G. Handbook of social psychology: special fields and applications. New York: Random House, 1985: 634-654.
[27] LYELL D, COIERA E. Automation bias and verification complexity: a systematic review[J]. Journal of the American medical informatics association, 2017,24(2):423-431.
[28] 菅原道仁. 超級大腦的七個習(xí)慣[M]. 吳夢怡,譯. 北京:中國友誼出版公司,2019:61-64.
[29] FLORIDI L. Faultless responsibility: on the nature and allocation of moral responsibility for distributed moral actions[J]. Philosophical transactions of the royal society: mathematical, physical and engineering sciences, 2016,374(2083):20160112.
[30] OECD. Advancing accountability in AI: governing and managing risks throughout the lifecycle for trustworthy AI[EB/OL]. [2024-02-23]. https://www.oecd.org/sti/advancing-accountability-in-ai-2448f04b-en.htm.
[31] 韓旭至. 生成式人工智能治理的邏輯更新與路徑優(yōu)化——以人機關(guān)系為視角[J]. 行政法學(xué)研究,2023(6):30-42.
[32] AI HLEG. Ethics guidelines for trustworthy AI[EB/OL]. (2018-12-17)[2022-04-08]. https://ec.europa.eu/futurium/en/ai-alliance-consultation.
[33] MCLAREN B M. Extensionally defining principles and cases in ethics: an AI model[J]. Artificial intelligence,2003,150(1/2):145-181.
[34] ROOSE K. Future proof: 9 rules for humans in the age of automation[M]. New York: Random House, 2021:108-112.
[35] FLORIDI L. AI as agency without intelligence: on ChatGPT, large language models, and other generative models[J]. Philosophy & technology, 2023,36(1):1-7.
[36] OPENAI. Teaching with AI[EB/OL]. [2024-03-03]. https://openai.com/blog/teaching-with-ai.
[37] 鐘柏昌. 為生成式人工智能教育應(yīng)用確立規(guī)范[EB/OL]. [2024-08-24]. http://paper.jyb.cn/zgjyb/html/2023-09/22/node_3.htm.
[38] ARENDT H. The human condition[M]. Chicago: University of Chicago Press, 2013:96-101.
Practical Dilemmas and Key Approaches of Generative Artificial Intelligence in Supporting Teaching Decision-making
SHEN Yuan1, WANG Qiong2
(1.Research Center for Data Hub and Security, Zhejiang Lab, Hangzhou Zhejiang 311121;
2.Graduate School of Education, Peking University, Beijing 100871)
[Abstract] Teaching decision-making possesses strong moral attributes, emphasizing goodness and altruism. As generative artificial intelligence is applied to teaching, its powerful learning, understanding and generating capabilities enable it to undertake numerous non-programmed decision-making tasks. This also raises key questions: does generative artificial intelligence have the basic ability to support teaching decision-making? How will the future of education be affected? By reviewing existing research in sociology, psychology, pedagogy, and machine ethics, this paper finds that generative artificial intelligence has propelled teaching decision-making from an empirical approach to a collaborative human-machine model, while revealing that the enhancement of its autonomy is accompanied by the instability of moral sensitivity. This may lead to misunderstandings, deception, and shirking of responsibility between humans and machines, and subtly change the moral landscape in educational settings. To address these challenges, this paper proposes strategies such as embedding context-adaptive machine virtues, developing teaching decision-specific prompts and agents, and promoting forward-looking social experiments to foster the construction of moral machines in education.
[Keywords] Generative Artificial Intelligence; Teaching Decision-making; Moral Machine; Intelligent Education; Human-Machine Collaboration
DOI:10.13811/j.cnki.eer.2024.11.013
基金項目:國家社會科學(xué)基金2023年度教育學(xué)重大項目“新一代人工智能對教育的影響研究”(項目編號:VGA230012)