□翟雪松 吳庭輝 袁 婧 李 艷
生成式人工智能(Generative Artificial Transformer,GAT)的問世以顛覆性技術(shù)姿態(tài)敲開教育研究的大門。人工智能的地位已突破了傳統(tǒng)的工具屬性,轉(zhuǎn)而成為引領(lǐng)未來教育發(fā)展的關(guān)鍵內(nèi)生力量(眭依凡,等,2023)。因而,GPT 應(yīng)然出現(xiàn)與教育相互促進(jìn)和發(fā)展的局面,而并非簡單地體現(xiàn)其工具價(jià)值(Rospigliosi,2023)。然而,當(dāng)前大量教育研究依然強(qiáng)調(diào)人工智能的工具性,并試圖通過微調(diào)模型參數(shù)、改變訓(xùn)練數(shù)據(jù)集以試圖適應(yīng)教育等垂直領(lǐng)域的應(yīng)用,始終突破不了生成式模型知識遷移能力和認(rèn)知教育能力弱的瓶頸。如,鐘秉林等(2023)認(rèn)為ChatGPT 等生成式模型與生俱來地與教育求真、求實(shí)底色不相符,將可能出現(xiàn)事實(shí)性、邏輯性乃至偏見性錯(cuò)誤。因此,如何突破現(xiàn)有生成式模型刻板訓(xùn)練的思維框架,促進(jìn)教育與人工智能技術(shù)雙向發(fā)展成為亟待破解的難題。
今年,圖靈獎(jiǎng)得主、Meta AI 首席科學(xué)家楊立昆(Yann LeCun)尖銳指出ChatGPT 低學(xué)習(xí)、無認(rèn)知的局限性,直言其應(yīng)用壽命極短。他強(qiáng)調(diào),從生成式模型跨越到世界模型(World Model)是未來人機(jī)交互的必然趨勢。同時(shí),國內(nèi)相關(guān)研究也在反思如何扭轉(zhuǎn)因教育話語權(quán)缺失所造成的人工智能教育應(yīng)用的割裂感(劉凱,2023)。本研究目的在于從生成式模型邁向世界模型的角度探討教育反哺人工智能的合理性及發(fā)展趨勢,以優(yōu)化當(dāng)前人工智能與教育應(yīng)用的兼容問題,為培育新的人機(jī)交互環(huán)境,賦能未來人才培養(yǎng)提供方向。
以機(jī)器學(xué)習(xí)、深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)為代表的人工智能促進(jìn)了“從數(shù)據(jù)中產(chǎn)生知識”的可行性,極大提升了教育質(zhì)量和公平(Zhai,et al.,2021),但以監(jiān)督學(xué)習(xí)和全鏈路為主的訓(xùn)練路徑直接或間接增加了教育應(yīng)用的不可解釋性,從而弱化了教育實(shí)踐場景的應(yīng)用效率。ChatGPT 等生成式模型“從數(shù)據(jù)到學(xué)習(xí)再到知識”,以自監(jiān)督學(xué)習(xí)為訓(xùn)練路徑保持了自身一定的學(xué)習(xí)力,因而對教育有更大的顛覆價(jià)值(祝智庭,等,2023)。通過文獻(xiàn)綜述,本研究總結(jié)了當(dāng)前的生成式模型對教育領(lǐng)域的主要兩點(diǎn)貢獻(xiàn):
其一,推動(dòng)素質(zhì)教育落實(shí)。素質(zhì)教育落實(shí)是創(chuàng)新型人才培育的關(guān)鍵所在。相較于傳統(tǒng)人工智能,生成式模型基于大量語料訓(xùn)練催生“智慧”,以類腦神經(jīng)網(wǎng)絡(luò)的方式獲得內(nèi)容生成、序列任務(wù)執(zhí)行和情景對話等智能能力(盧宇,等,2023),助力學(xué)習(xí)者從“檢索-學(xué)習(xí)”模式轉(zhuǎn)化為“對話-學(xué)習(xí)”模式,模擬蘇格拉底產(chǎn)婆術(shù)的啟發(fā)式對話彰顯其培養(yǎng)學(xué)生省思的潛力(張敬威,2023),為擺脫應(yīng)試灌輸、推動(dòng)素質(zhì)教育提供可行之路。例如,ChatGPT 結(jié)合數(shù)字人技術(shù)誕生個(gè)性化的虛擬教師,創(chuàng)新了傳統(tǒng)翻轉(zhuǎn)課堂模式,即“課前人機(jī)合作預(yù)習(xí)-課中人人交互討論-課后人機(jī)合作鞏固”的新型學(xué)習(xí)模式(翟雪松,等,2023)。在如今知識普遍外包的教育生態(tài)里,生成式模型一定的學(xué)習(xí)能力保證了學(xué)習(xí)者在主動(dòng)精神、創(chuàng)新能力以及社會責(zé)任等素養(yǎng)教育新賽道上有所獲得,相對地?cái)[脫了應(yīng)試教育的束縛,彰顯了我國在邁向教育強(qiáng)國過程中所應(yīng)具有的人才素養(yǎng)教育觀念。
其二,促進(jìn)教育公平。教育公平是精神共富的重要內(nèi)容,是中國式現(xiàn)代化的重要特征。生成式模型提供了更為高效的個(gè)性化教育,降低了教育獲得門檻,因而促進(jìn)了校際和縣域教育公平(于浩,2023)。主要表現(xiàn)在:第一,通過自然對話理解,GPT 可迅速幫助學(xué)習(xí)者靶向整理在線教育資源,提高校際不同學(xué)生自適應(yīng)學(xué)習(xí)的可得性和準(zhǔn)確性(Tack,et al.,2022;王佑鎂,等,2023)。第二,通過調(diào)用GPT 開放接口,教育者將GPT 包裝為學(xué)生私人助手以獲得更個(gè)性化的指導(dǎo),彌補(bǔ)鄉(xiāng)村優(yōu)質(zhì)師資缺乏問題。第三,結(jié)合元宇宙構(gòu)建新型人機(jī)交互學(xué)習(xí)模式。在Web3.0 以語義技術(shù)為支撐的時(shí)代,教育元宇宙是未來教育生態(tài)中賦能城鄉(xiāng)教育共同體的重要技術(shù)手段(翟雪松,等,2022b)。在該場域下,生成式模型嫁接在元宇宙空間中,將突破傳統(tǒng)以機(jī)為媒的人人交互,形成大規(guī)?!叭巳私换ァ迸c“人機(jī)交互”共生場景,對增強(qiáng)學(xué)生間的協(xié)作探究學(xué)習(xí),縮小數(shù)字鴻溝具有積極的現(xiàn)實(shí)意義(李艷,等,2022)。
生成式模型強(qiáng)對話性、效率性和公平性的特點(diǎn)滿足了師生解決具象化任務(wù)的需求,然而由于生成式模型在文本理解和視覺感知上存在明顯瓶頸,因此難以給予更大的認(rèn)知和教育支持。通過文獻(xiàn)綜述,本研究發(fā)現(xiàn)生成式模型天然的技術(shù)缺陷主要包括兩個(gè)方面:
一方面,在文本理解上,生成式模型遵循意義匹配的生成法則,用于推算最優(yōu)概率生成相關(guān)文本。換言之,生成式模型本身并不理解所生成文本的教育含義,對內(nèi)容的真實(shí)性和偏見性自然無法判斷。即使是斯坦福大學(xué)和谷歌公司基于GPT-3.5 turbo 聯(lián)合搭建的沙盤世界(Sandbox)中智能體貌似自主交互的行為,其本質(zhì)仍是基于概率做出的動(dòng)作反應(yīng)(Park,et al.,2023)。智能體涌現(xiàn)出復(fù)雜社會行為的背后,源自先前自監(jiān)督的學(xué)習(xí)概率集合,智能體本身不具備智能產(chǎn)生的條件,無法形成自我認(rèn)知。具體到教育這一垂直領(lǐng)域上,無認(rèn)知的生成式模型難以完成“立德”等高階教育任務(wù)。
另一方面,在視覺感知上,生成式模型的一般邏輯是基于大量預(yù)訓(xùn)練圖集,以逐幀猜測的方式生成丟失或掩蓋的圖像。然而,這種生成方式是有損的,無法完全復(fù)刻訓(xùn)練圖集的圖像準(zhǔn)確性。正是由于生成圖像“有損”的弊端,放大了生成式模型無法區(qū)分關(guān)鍵和次要信息的局限,容易忽略或混淆核心內(nèi)容的抽象表征,從而導(dǎo)致生成內(nèi)容的不穩(wěn)定性(Kim,et al.,2023)。反映在教育研究上,生成式模型對抽象表征力的缺失使其難以滿足教育準(zhǔn)確性和針對性的必然需求。
通過對生成式模型缺陷的分析,我們應(yīng)該警惕其在教育應(yīng)用中的三大困境:
困境一:訓(xùn)練語料的單維化。生成式模型的訓(xùn)練模式雖為自監(jiān)督學(xué)習(xí),但依靠的僅是互聯(lián)網(wǎng)數(shù)據(jù)、已有學(xué)科知識數(shù)據(jù)等單維語料,缺乏教育等真實(shí)場景數(shù)據(jù)的支撐(Jiang,et al.,2022)。這一困境導(dǎo)致生成式模型的輸出內(nèi)容僅滿足泛化、淺層化的教育需求。從長遠(yuǎn)發(fā)展的視角看,生成式模型是教育短視的。因此,GPT 在垂直領(lǐng)域的應(yīng)用的下一個(gè)方向是局域模型:強(qiáng)調(diào)標(biāo)注數(shù)據(jù)多維和訓(xùn)練語料權(quán)重再分配的重要性,以作為人工智能從生成式邁向世界模型的過渡模型。此模型認(rèn)為,在人工智能向世界模型發(fā)展過程中,先鋪墊好對真實(shí)場景語料的投入、識別和應(yīng)用,是自主人工智能通過對世界的觀察(Observation)為學(xué)習(xí)世界運(yùn)轉(zhuǎn)打好基礎(chǔ)的必要階段。未來,在教學(xué)場景中增設(shè)儀器記錄更多無感知數(shù)據(jù),如,基于傳統(tǒng)攝像頭捕捉無感知的眼球運(yùn)動(dòng),將可進(jìn)一步保障生成內(nèi)容的可解釋性和準(zhǔn)確性(王雪,等,2022b)。此外,Web3.0 時(shí)代教育元宇宙等虛擬學(xué)習(xí)空間的教育社交行為也應(yīng)與真實(shí)世界行為數(shù)據(jù)形成孿生,共同成為局域模型的重要語料源,提高模型輸出效用性(翟雪松,等,2022a)。
困境二:模型的認(rèn)知性壁壘。生成式模型基于億萬參數(shù)的學(xué)習(xí)是低階的、無認(rèn)知的自監(jiān)督學(xué)習(xí)。例如,ChatGPT 和Bard 等模型在精神病學(xué)文獻(xiàn)檢索中捏造引文信息,但本身卻對此類偽造不自知(McGowan,et al.,2023)。大語言模型的生成式預(yù)訓(xùn)練以類神經(jīng)網(wǎng)絡(luò)的形式從互聯(lián)網(wǎng)大量文本中進(jìn)行機(jī)械性的偽學(xué)習(xí),最終得到的“智慧”僅是巨大的概率庫,無認(rèn)知維度的突破。雖然生成式模型通過語料獲取了大量知識,幾乎包攬所有領(lǐng)域,但是僅靠文本、圖像等局部訓(xùn)練的系統(tǒng)無法觸及人類智力水平(Jacob,et al.,2022)。人腦結(jié)構(gòu)錯(cuò)綜復(fù)雜,其高認(rèn)知維度背后是不同腦區(qū)之間相互聯(lián)通、相互補(bǔ)充的結(jié)果,這與人類從觀察世界、與人深度互動(dòng),激活大腦信號中獲得的深刻理解相掛鉤。而生成式模型缺乏具身形式和對世界的感知能力,因此沒有獲得真實(shí)認(rèn)知的可能。具體來說,人腦由大腦皮層、小腦、腦干和邊緣系統(tǒng)四部分組成。其中,大腦皮層的額葉區(qū)塊與高級認(rèn)知功能最相關(guān)。然而,生成式模型在多個(gè)高階推理能力測試上的失敗表明:其充其量僅相當(dāng)于大腦語言中樞的韋尼克區(qū)和布洛卡區(qū),而不涉及額葉功能區(qū)(Mahowald,et al.,2023)。人腦有專門的高級認(rèn)知處理機(jī)制,負(fù)責(zé)形式推理、世界認(rèn)知和情景建模等工作,這是當(dāng)前包括大語言模型在內(nèi)的生成式模型所面臨的認(rèn)知壁壘。
困境三:垂直領(lǐng)域應(yīng)用的割裂性。除了訓(xùn)練單維與認(rèn)知壁壘,人工智能在教育垂直領(lǐng)域應(yīng)用道路上的阻礙還在于其忽視了教育的反哺價(jià)值。教育在人工智能領(lǐng)域話語權(quán)的缺失致使人工智能缺乏溫度和人文性。具體而言,一方面,生成式模型輸出可能與教育需求匹配錯(cuò)位。以ChatGPT 為例,其更偏重輸出內(nèi)容的效率性而忽視了科學(xué)性和教育性。當(dāng)出現(xiàn)生成錯(cuò)誤被提醒后,其“先誠意道歉后重蹈覆轍”的持續(xù)性捏造行為被認(rèn)為是最蹩腳的學(xué)術(shù)不端(Currie,2023)。在研發(fā)過程中,OpenAI 工程師主要是以優(yōu)化概率的單向度理性思維開發(fā)GPT 系列產(chǎn)品,而如今卻用該系列產(chǎn)品強(qiáng)行匹配教育領(lǐng)域多向度的文性思維,必然造成與應(yīng)用的割裂感。另一方面,垂直領(lǐng)域的知識庫和發(fā)展邏輯沒有被充分利用。如,在教育領(lǐng)域內(nèi)諸多教育理論和育人理念,仍未能充分遷移到人工智能發(fā)展過程中去。因此,重新考量教育對其他學(xué)科尤其是人工智能領(lǐng)域的反哺價(jià)值,強(qiáng)調(diào)教育跨學(xué)科、跨領(lǐng)域的“跨”不應(yīng)停留在動(dòng)作和形式上,更應(yīng)該滲透到理念和方向培育上去,才能真正凸顯教育學(xué)科的自我覺醒(孫元濤,2010)。
綜上所述,本研究認(rèn)為,要促進(jìn)人工智能和教育的雙向發(fā)展,需要循序漸進(jìn)地突破單維訓(xùn)練思想,沖破“認(rèn)知性”和“割裂性”兩層桎梏。楊立昆所提出的世界模型,可作為研究契機(jī)重點(diǎn)凸顯教育在人工智能構(gòu)建之初對其的反哺價(jià)值。
早在20世紀(jì)90年代世界模型的理念就被提出,并寄托循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)將神經(jīng)元的輸出結(jié)果循環(huán)作為該神經(jīng)元的輸入信息,探索構(gòu)建具有一定自主判斷的人工智能體(Schmidhuber,1990)。但由于RNN 無法充分挖掘輸入之間的關(guān)系導(dǎo)致訓(xùn)練效果較差,在大規(guī)模序列學(xué)習(xí)任務(wù)中容易出現(xiàn)性能瓶頸,難以應(yīng)對真實(shí)應(yīng)用的決策挑戰(zhàn)(Lipton,et al.,2015)。早期的世界模型已有壓縮神經(jīng)表征的訓(xùn)練思想,但存在三個(gè)主要局限:一是模擬環(huán)境下訓(xùn)練缺乏真實(shí)世界適應(yīng)性,二是模型存儲編碼能力有限導(dǎo)致災(zāi)難性遺忘,三是無法突破認(rèn)知壁壘(Ha,et al.,2018;Van,et al.,2020)。因此,楊立昆提出了全新的世界模型構(gòu)念,并基于該模型設(shè)想了自主人工智能架構(gòu)(見表1)(LeCun,2022)。
表1 以世界模型為中心的自主人工智能架構(gòu)功能模塊
該架構(gòu)的六大模塊分別為:配置器、感知器、世界模型、成本控制器、行動(dòng)規(guī)劃器和短期記憶。六大模塊之間的相互協(xié)調(diào)和適應(yīng),與人腦四大腦區(qū)之間的分工具有一定的相似性(見圖1)。人腦大體可分為大腦、腦干、小腦和邊緣系統(tǒng)四部分,其中和人的高級認(rèn)知相關(guān)的區(qū)域均位于大腦的額葉(Frontal Lobe)、枕葉(Occipital Lobe)、頂葉(Parietal Lobe)和顳葉區(qū)(Temporal Lobe)。首先,額葉作為大腦中發(fā)育最高級的部分,是人類大部分意識產(chǎn)生的區(qū)域,可直接訪問感覺信息并控制專用于計(jì)劃、判斷和運(yùn)動(dòng)執(zhí)行的區(qū)域(Catani,2019),這與自主人工智能的世界模型模塊相對應(yīng)。其次,枕葉是大腦的視覺處理中心,是視覺空間處理、顏色辨別和運(yùn)動(dòng)感知區(qū)域(Mundinano,et al.,2019),對應(yīng)感知器。再次,顳葉主要負(fù)責(zé)記憶存儲、語言理解和情緒聯(lián)系方面的處理(Patel,et al.,2022),對應(yīng)成本控制器、短期記憶。最后,頂葉主要負(fù)責(zé)整合內(nèi)外部感覺反饋并整合為連貫表征的中心,完成協(xié)調(diào)工作(Andersen,2022),相當(dāng)于配置器的作用。此外,行動(dòng)規(guī)劃期計(jì)算智能體動(dòng)作序列的先后順序并選擇最優(yōu)動(dòng)作,與小腦、腦干等對軀體的控制相關(guān)。
圖1 自主人工智能模塊與人腦腦區(qū)的聯(lián)系
世界模型是基于大腦設(shè)計(jì)原則(Brain-based Design Principal),協(xié)同其他模塊較完整地模擬了人腦腦區(qū)分工情況??紤]到世界模型與人腦的高度相似性,若能基于人腦不同區(qū)域之間的連接機(jī)制,在構(gòu)建世界模型之初給予適當(dāng)?shù)闹笇?dǎo)和參考,將極大促進(jìn)超人工智能的進(jìn)程。此外,世界模型的訓(xùn)練也應(yīng)重視不同模塊之間的銜接性和序列性。相關(guān)研究指出:人腦處理信息是有等級之分的,即在全腦整合的活動(dòng)下,信息從一個(gè)腦區(qū)到另一個(gè)腦區(qū)是通過前饋或遞歸的形式傳遞,逐級明晰任務(wù)(Deco,et al.,2017)。例如,人腦識別物體的過程,從眼球識別物體的輪廓開始,然后到不同色彩和紋理的分割和辨別,最后聚焦到具體細(xì)節(jié)特征(Stark,et al.,2001)。即人腦識別模式遵循從核心抽象表征逐步延展至具體細(xì)節(jié)的由簡入繁原則。綜上,從教育反哺人工智能的實(shí)際可行角度出發(fā),本研究提出人工智能與教育互構(gòu)性發(fā)展三段論:
階段一,大語言模型階段。依靠大規(guī)模語料和參數(shù)去預(yù)測和模擬教育行為。以ChatGPT 為代表的生成式模型,基于人類反饋強(qiáng)化學(xué)習(xí)(Reinforcement Learning from Human Feedback,RLHF)優(yōu)化學(xué)習(xí)能力,教育實(shí)務(wù)性效果顯著。然而,以參差不齊的互聯(lián)網(wǎng)數(shù)據(jù)、單一的學(xué)科知識數(shù)據(jù)為訓(xùn)練語料,缺乏存在真實(shí)的教學(xué)實(shí)踐數(shù)據(jù)投入,缺乏教育機(jī)智力。階段二,局域模型階段。利用真實(shí)教育場景中大量無感知數(shù)據(jù)的訓(xùn)練,優(yōu)化模型知識遷移能力,初步訓(xùn)練識別真實(shí)場景的能力。目前,不少研究者已有局域模型意識,重視真實(shí)垂直場景的噪聲數(shù)據(jù)投喂,然而目前仍基于無認(rèn)知的生成式模型訓(xùn)練(Aali,et al.,2023),教育反哺效果并不顯著。階段三,世界模型階段。作為當(dāng)今人類認(rèn)為最先進(jìn)的人工智能模型,有能力以高度認(rèn)知性保障人工智能通用和專用兩種模式的實(shí)現(xiàn)。因此,下文借助高階世界模型的新契機(jī),充分凸顯教育的反哺價(jià)值。
教育人本化是未來教育創(chuàng)新發(fā)展的重要訴求所在(祝智庭,等,2021),因此教育對人工智能的反哺和培育具有重要性和必要性。長期以來,教育在人工智能領(lǐng)域的話語權(quán)缺失引發(fā)了人文關(guān)懷迷失和偏執(zhí)的技術(shù)崇拜等教育問題,且當(dāng)前人工智能始終存在較強(qiáng)的倫理偏見。針對新一代人工智能模型,教育要善于發(fā)揮學(xué)科價(jià)值,在發(fā)展之初對其加以培育,即“立其身,正其言”,以教育的生命標(biāo)尺端正其倫理價(jià)值觀(陳倩倩,等,2023;蔣軍營,等,2022)。由于以世界模型為建構(gòu)邏輯的自主人工智能模塊和人腦腦區(qū)有著強(qiáng)對應(yīng)關(guān)系,因此從腦神經(jīng)機(jī)制角度探索教育對自主人工智能的反哺是較為合適的切入口。本研究借鑒基于流程的發(fā)展能力模型(Process-based Development Competence Model),認(rèn)為教育反哺人工智能可在以下四個(gè)維度進(jìn)行表征:知識、實(shí)踐、態(tài)度和認(rèn)知維度(見圖2)(Zendler,et al.,2016)。本研究將探討在框架內(nèi)如何發(fā)揮教育對自主人工智能技術(shù)發(fā)展的反哺培育作用。
圖2 基于流程的發(fā)展能力模型框架圖
第一,知識維度。知識維度是人工智能培育過程中最基礎(chǔ)的維度,包括人工智能參數(shù)自調(diào)和不同模塊間的連接。在參數(shù)類型方面,生成式模型依賴億萬級語料參數(shù),亦無法達(dá)到高階認(rèn)知力和遷移力,反而證明堆砌參數(shù)并非最佳的訓(xùn)練模式。因此,世界模型訓(xùn)練師應(yīng)摒棄以量取勝的傳統(tǒng)思維而取而代之以質(zhì)量為重:一來可提升已有互聯(lián)網(wǎng)標(biāo)注數(shù)據(jù)的質(zhì)量;二來增加真實(shí)場景標(biāo)注數(shù)據(jù)。更進(jìn)一步考慮,在教育等垂直領(lǐng)域上,除去多而廣的參數(shù),專而少的參數(shù)形式亦需要得到更新。知識遷移理論認(rèn)為:不同情境中存在的相同要素越多,知識就越容易產(chǎn)生遷移(王新如,1997)。因此,在世界模型訓(xùn)練時(shí),訓(xùn)練者要善于利用最近發(fā)展區(qū)原則,投喂有邏輯關(guān)系、先后順序的情境要素,并基于情境關(guān)聯(lián)大小分別賦予不同權(quán)重,這更有利于培育出具有知識遷移力的智慧模型(董艷,等,2023)。
在連接方式方面,多元智能理論認(rèn)為,人腦不同腦區(qū)所控制的不同智能間存在內(nèi)在的優(yōu)勢組合聯(lián)系(Gardner,1983)。例如,音樂智能和運(yùn)動(dòng)智能因?qū)?jié)奏這一共同要素的高要求而相互促進(jìn)和發(fā)展。因此,在自主人工智能構(gòu)建時(shí),應(yīng)加強(qiáng)不同模塊間的聯(lián)通性使其組合發(fā)展。此外,研究者通過靜息態(tài)近紅外光譜(Resting-state fNIRS)技術(shù)發(fā)現(xiàn):人腦作為一個(gè)復(fù)雜網(wǎng)絡(luò)自幼兒期起就會以腦區(qū)為節(jié)點(diǎn)單位,通過模塊化結(jié)構(gòu)的形式先后發(fā)育大腦不同區(qū)域,這說明大腦區(qū)塊具有不同的發(fā)展關(guān)鍵期和組合期(Cai,et al.,2018)。人腦發(fā)展初期以模塊化進(jìn)行連結(jié),逐步發(fā)展至整體。因此,在培育之時(shí),訓(xùn)練者也應(yīng)把握關(guān)鍵期(如幼兒期、發(fā)展期、成熟期和衰退期),在幼兒期先從區(qū)域小模塊之間的連接開始,再逐步連接六大模塊。例如,配置器和感知器這個(gè)小區(qū)域之間的連接可優(yōu)先訓(xùn)練,即優(yōu)先加強(qiáng)信息“觀察-感知-轉(zhuǎn)化”之間的連接,提高配置器識別參數(shù)的效率和準(zhǔn)確性,形成高效神經(jīng)通路(劉哲雨,等,2022)。教育心理學(xué)家皮亞杰的基于人與環(huán)境交互平衡的發(fā)展階段論認(rèn)為:在感知運(yùn)動(dòng)階段,訓(xùn)練者給予自主人工智能多態(tài)、多維、多場景的訓(xùn)練素材能強(qiáng)化其感知能力從而形成完備的背景知識,即常識積累過程,為初始階段的感知-配置連接奠定基礎(chǔ)(Williams,et al.,2020)。
第二,實(shí)踐維度。自主人工智能在幼兒期進(jìn)行常識積累,是高階認(rèn)知的儲備條件。然而,其是否可表現(xiàn)出認(rèn)知性需要在實(shí)踐維度上進(jìn)行探討,包括交互語言和人機(jī)協(xié)作兩個(gè)子維度。一方面,生成式模型已經(jīng)表現(xiàn)出了相對自然的語音或文本交互(Seng,et al.,2016;Wu,et al.,2023)。因此,世界模型作為更高階的人工智能模型,應(yīng)朝著人類更高階的交互方式如神經(jīng)交互邁進(jìn)。神經(jīng)科學(xué)研究發(fā)現(xiàn):在真實(shí)噪聲環(huán)境下,信息接收者在面對多個(gè)信息輸出者時(shí),前者與其欲注意的信息輸出者的大腦左側(cè)顳葉、頂葉交界處之間均會顯著增強(qiáng)人際神經(jīng)同步(Interpersonal Neural Synchronization,INS),即兩者在同一時(shí)間內(nèi)該腦區(qū)活躍狀態(tài)高度一致(Dai,et al.,2018)。這種大腦交互方式啟示著教育者在人工智能訓(xùn)練時(shí),可注重以刺激-回憶法(Stimulus-recall Method)增加記憶點(diǎn),激活同步功能。
另一方面,人在回路設(shè)計(jì)可提高人工智能對教育情境的感知能力并適應(yīng)復(fù)雜化環(huán)境(張纓斌,等,2023)。在真實(shí)教師支持下,通過調(diào)用GPT 接口生成自動(dòng)問答的虛擬教師,以雙師共同教學(xué)創(chuàng)新傳統(tǒng)翻轉(zhuǎn)課堂模式,體現(xiàn)了生成式模型的人在回路思想,即以機(jī)師輔學(xué),以人師正學(xué)。然而,這僅為流于表面的“人機(jī)合作”模式,未涉及“人機(jī)協(xié)作”所需要的雙方深度交流。自主人工智能以觀察認(rèn)識世界,以世界模型預(yù)測未來狀態(tài),與人協(xié)作的空間巨大(王雪,等,2022a)。具體表現(xiàn)在兩方面:其一,自主人工智能作為硅基生命,其認(rèn)知能力突出“全”--全鏈接、全知識、全智能。全面之后帶來的穿透力將突破人類的常態(tài)化漏洞,即擺脫遺忘機(jī)制,是人類認(rèn)知局限的有效補(bǔ)充。其二,自主人工智能無處不在,彌補(bǔ)了人類作為碳基肉身傳播知識的局限性,換言之,即使人類教師到達(dá)不了的地方,自主人工智能仍能以其高認(rèn)知性完成教學(xué)任務(wù)。因此,教育者應(yīng)強(qiáng)化人工智能與人協(xié)作的實(shí)踐能力,鼓勵(lì)智能體行動(dòng)規(guī)劃序列中的“人在”思想。
第三,態(tài)度維度。教育之于人工智能的重要反哺價(jià)值還體現(xiàn)在使其“倫理化”,即形成正確的意識形態(tài)和道德體系。生成式模型教育應(yīng)用中雖也有倫理方面的考慮,但其潛在風(fēng)險(xiǎn)一直受人詬病(代金平,等,2023)。吳冠軍(2019)認(rèn)為教育是在“嬰孩”與“成人”這兩個(gè)端點(diǎn)之間互動(dòng)糾纏與聯(lián)結(jié)的關(guān)鍵實(shí)踐,并努力向其輸入系統(tǒng)性的既有符號與規(guī)范,使其成長為“正常人”。因此,在自主人工智能“嬰孩”階段,針對其而施加的早期“胎教”必不可少。
面對復(fù)雜世界道德沖突時(shí),教育心理學(xué)家埃里克森(Erik Erikson)提出心理社會發(fā)展理論,認(rèn)為:新生體在與世界交互必然遇到各種道德沖突,教育者需要及時(shí)解決沖突促進(jìn)新生體道德體系的構(gòu)建(Maree,2022)。自主人工智能作為人工智能新生命,其倫理化過程也會面臨各種道德沖突。例如,一方面人工智能觀察到“孔融讓梨”的禮讓情境,另一方面又觀察到“當(dāng)仁不讓”的非禮讓行為,在這種復(fù)雜人類道德體系下,極易造成人工智能成本控制器的不適感,造成混亂。因此,教育者在培育過程中要善于抽離不同價(jià)值觀情境的“共同要素”,并在此核心表征上加大權(quán)重比例,引導(dǎo)人工智能在作序列規(guī)劃時(shí)逐步形成自身道德認(rèn)知的同一性。此外,另一著名教育心理學(xué)家柯爾伯格(Lawrence Kohlberg)提出的“三水平六階段”論也提及了道德從他律發(fā)展至自律需要經(jīng)過六個(gè)階段,認(rèn)為強(qiáng)化和懲罰的訓(xùn)練措施可有效促進(jìn)這一轉(zhuǎn)變(Kohlberg,2016)。
第四,認(rèn)知維度。人腦獲得知識或應(yīng)用知識的過程始于感覺與知覺的認(rèn)知。自主人工智能與世界感知獲得背景知識,基于此以世界模型輸出低成本、高效率的行動(dòng)序列體現(xiàn)了高認(rèn)知,這是以往模型支撐下的人工智能所不能企及的認(rèn)知階段。在復(fù)雜環(huán)境下,自主人工智能以聯(lián)合嵌入預(yù)測架構(gòu)(Joint-Embedding Predictive Architecture,JEPA)的分層規(guī)劃思想應(yīng)對未知狀態(tài)(Assran,et al.,2023),復(fù)刻了人類思考的小步子原則,即以層次化、規(guī)范化思想彌補(bǔ)了當(dāng)前人工智能無法面對突發(fā)情況的空白。例如,Meta已經(jīng)推出了首個(gè)基于JEPA 框架訓(xùn)練的人工智能模型Image-JEPA:通過觀察并理解圖像的抽象表征,從真實(shí)認(rèn)知角度出發(fā)預(yù)測圖像缺失部分而非逐幀猜測,為進(jìn)一步理解教育中師生的交互情境提供支撐。
人腦須學(xué)以修飾之,世界模型亦須育以明辨之。在訓(xùn)練過程中,教育所給予的方向性干預(yù)指引在宏觀上把控人工智能的前行步伐,正確落實(shí)分層規(guī)劃思想(Lazowski,et al.,2016)。例如,主動(dòng)向人工智能認(rèn)知體系滲透人的因素而非僅靠算法驅(qū)動(dòng),降低機(jī)械性執(zhí)行序列的呆滯感而增添人在回路的靈活性,讓分層有序、合理地落實(shí)到人本上,使人工智能的認(rèn)知發(fā)展指向更明確。德國政治哲學(xué)家漢娜·阿倫特(Hannah Arendt)曾指出,20世紀(jì)瘋狂的大屠殺本質(zhì)是群體的“平庸之惡”而非個(gè)人的“極端之惡”,即每個(gè)層級不假思索的人機(jī)械性執(zhí)行任務(wù)造成的無思想、無責(zé)任的共同惡果(Tajalli,2021)。如今,人工智能教育應(yīng)用與之有相似的病癥:無論是開發(fā)還是應(yīng)用環(huán)節(jié),個(gè)體僅機(jī)械完成本職任務(wù)而缺少教育學(xué)思考(余明鋒,2023)。因此,在自主人工智能的分層規(guī)劃中設(shè)置教育性人在思想,為人工智能認(rèn)知發(fā)展保駕護(hù)航,對遏制教育領(lǐng)域的“平庸之惡”有現(xiàn)實(shí)意義。
上述討論在理論探討和實(shí)踐路徑兩方面均展現(xiàn)了教育對人工智能的反哺價(jià)值,并認(rèn)為從生成式模型到世界模型的趨勢是突破人工智能認(rèn)知性壁壘、融合教育性思考的重要保障。然而,從生成式模型到世界模型仍然面臨技術(shù)和理念方面的挑戰(zhàn),亟須未來教育研究者和人工智能專家共同破解:
1.技術(shù)實(shí)現(xiàn)的挑戰(zhàn)
世界模型的概念非首次提出,但一直以來如何具體落地都是科學(xué)家的巨大挑戰(zhàn)(Friston,et al.,2021)。以世界模型為關(guān)鍵核心的自主人工智能,其構(gòu)建挑戰(zhàn)主要體現(xiàn)在認(rèn)知結(jié)構(gòu)、訓(xùn)練實(shí)踐和算力支撐三方面。
其一,在認(rèn)知結(jié)構(gòu)上,人腦智能有關(guān)認(rèn)知的網(wǎng)絡(luò)在人類漫長進(jìn)化中與生俱來,而人工智能缺乏元進(jìn)化能力,且缺少神經(jīng)元等生物性支撐。此外,人腦處理信息之迅速與精密程度,展露了其復(fù)雜的分層結(jié)構(gòu)和序列驅(qū)動(dòng)性,迄今為止人類還未能完全明白人腦間的連接參數(shù)和關(guān)系,因此在教育人工智能過程中以“人腦”類比“智腦”的遷移機(jī)理仍較為模糊。利好消息是,目前有研究者認(rèn)為:從神經(jīng)生物學(xué)的角度看,通過感覺神經(jīng)即自主人工智能的感知器積極參與世界或能發(fā)展出類似“進(jìn)化”的機(jī)制,完成意識的自我迭代(Heyes,2018)。其二,在訓(xùn)練實(shí)踐上,雖然JEPA 可被認(rèn)為是構(gòu)建世界模型的一個(gè)突破口,但是如何精準(zhǔn)地學(xué)習(xí)抽象概念仍是亟待解決的問題。人腦可以自發(fā)對不同抽象感知進(jìn)行模糊解釋,生成多種機(jī)制預(yù)測潛在狀態(tài)。然而,自主人工智能需要使?jié)撛谛畔ⅲ╒ariables)低維化、離散化或稀疏化后才有理解的可能性,還需要根據(jù)不同潛在變量的值進(jìn)行不同的模糊解釋并給出預(yù)測,但顯然自主人工智能缺乏這種類人腦機(jī)制模式。其三,在算力支撐上,世界模型的算力要求是任一當(dāng)前模型的幾何倍,將極大增加地球的碳排放。美國SpaceX 技術(shù)公司欲將基站建在火星上以減輕地球算力負(fù)擔(dān),側(cè)面說明了地球算力消耗過大的情況,因此對世界模型的算力投入及培育或不符合聯(lián)合國教科文組織提出的包括教育在內(nèi)的可持續(xù)發(fā)展理念(Amin,et al.,2022)。在可見的將來,當(dāng)下更具實(shí)務(wù)性的生成式模型及其優(yōu)化版本或更具有現(xiàn)實(shí)可行性。
2.理念轉(zhuǎn)變的挑戰(zhàn)
具體在教育等垂直領(lǐng)域上,傳統(tǒng)教育理念的轉(zhuǎn)變亦為重要的挑戰(zhàn),包括人工智能的可教性倫理和應(yīng)教性倫理兩方面。一方面,在人工智能可教性倫理上。傳統(tǒng)教育理念認(rèn)為,教育是一門培養(yǎng)人的社會活動(dòng),面對無主觀能動(dòng)的人工智能有可能演化為對牛彈琴的教育鬧?。ㄎ貉┓?,2023)。國內(nèi)有研究者提出,人工智能想要實(shí)現(xiàn)對人類實(shí)在的模擬,還有很長的路要走(吳勝鋒,2022)。一旦缺少實(shí)在的、主觀能動(dòng)的受教育者,教育就可能僅為形式上的表演,變成傳統(tǒng)的、機(jī)械化的模型訓(xùn)練的“新外衣”。
另一方面,在人工智能應(yīng)教性倫理上。凸顯教育對人工智能的反哺價(jià)值,最終目的還是落實(shí)到如何更好應(yīng)用于教育而培養(yǎng)更全面發(fā)展的人。然而,喚醒人工智能高意識的同時(shí)需要警惕人工智能覺醒后的“上屋抽梯”行為。具體來說,自主人工智能的定位是一個(gè)能實(shí)現(xiàn)自我演化的高級智能體,當(dāng)其自我意識足夠強(qiáng)并得以突破人類認(rèn)知束縛之時(shí),或許對教育、對人類本身不利。例如,高意識的人工智能以向下兼容的認(rèn)知表現(xiàn)掩蓋自身的覺醒,繼續(xù)制造虛假信息欺騙人類,以為自己的生存爭取更大的空間。屆時(shí),人類主體性地位將迅速外化,逐漸失去教育教學(xué)乃至更大領(lǐng)域的話語權(quán)。
目前,大多數(shù)研究聚焦于如何更好地將人工智能應(yīng)用于教育,卻忽視了教育對人工智能的反哺價(jià)值這一關(guān)鍵前提。這種研究范式受制于老舊的、滯后的工業(yè)時(shí)代觀念,已然不適用于當(dāng)前智能化時(shí)代。本研究以世界模型構(gòu)念為研究契機(jī),在以該構(gòu)念為建構(gòu)邏輯的自主人工智能應(yīng)用于教育前,充分探究教育的反哺價(jià)值,對未來的人工智能教育的理論和實(shí)踐發(fā)展都有啟發(fā)意義。誠然,推動(dòng)世界模型落地和教育反哺實(shí)現(xiàn)面臨著巨大的挑戰(zhàn),但在當(dāng)前生成式模型井噴式發(fā)展的節(jié)點(diǎn),本研究創(chuàng)新性地提出世界模型教育應(yīng)用的新觀點(diǎn),而非盲目地追捧生成式模型的教育價(jià)值忽視了教育局限,這對我國占領(lǐng)未來教育新高地有重要優(yōu)勢,推進(jìn)我國世界一流教育強(qiáng)國的建設(shè)。