[摘" "要] 以大語言模型為代表的生成式人工智能正在迅速改變大學教學關于“人”及其教育的生產方式,在全球高等教育領域塑造出一種全新的人才培養(yǎng)模式?;谒固垢4髮W的案例發(fā)現(xiàn),大語言模型賦能教學的關鍵在于大數據集算力加速精準化教學,符號語言系統(tǒng)支持全時場服務,神經網絡模型促進個性化指導以及智能情感技術實現(xiàn)人性化評價,產生了智能化涌現(xiàn)、無邊界探索、生成式互動與情感化反饋的教學變革影響。但與此同時,人工智能“幻覺”、機器“認知偏見”與復雜系統(tǒng)“失控”的模型應用限度,又可能引發(fā)教學內容失真、意識形態(tài)危機與主體關系異化的多重風險,催生技術革命下新的教學危機?;诖?,人工智能大模型時代的大學教學理應從“主體—目標—體系—機制”的四維關系構建系統(tǒng)路徑,一體推進生成主義式教學創(chuàng)新探索、教學模型信用評級提升與多元協(xié)同教學生態(tài)建構,促進大學教學從人機協(xié)同走向人機融合,從而彰顯大語言模型賦能大學教學的技術進步主義價值。
[關鍵詞] 大語言模型; 大學教學; 生成式人工智能; 教學生態(tài); 人機融合
[中圖分類號] G434" " " " " " [文獻標志碼] A
[作者簡介] 蔣貴友(1993—),男,湖南洪江人。講師,博士,主要從事高等教育管理、比較高等教育研究。E-mail:gy_jiang1993@126.com。
一、問題的提出
大語言模型(Large Language Model)作為生成式人工智能的具體應用,在學術創(chuàng)作、在線問答與作業(yè)輔助等方面已取得顯著成績,而在此基礎上更新的Sora模型更是能夠將靜態(tài)的文本數據轉化為生動的教學圖像或視頻,展現(xiàn)了生成式技術的革命性意義[1]。當然,大語言模型的影響遠非如此,它似乎正在塑造以班級授課制為核心的現(xiàn)代教學體系以外的另一種截然不同的智慧教學形態(tài)。雖然AI大模型實現(xiàn)教學智能的方式與人腦機制不同,但研究發(fā)現(xiàn),GPT-4可以利用思維鏈技術(Chain of Thought)與人工智能內容生成技術(AI-Generated Content)實現(xiàn)類人化的教學推理與思考,一定程度證明了智能機器的心智品性[2]。這一教學智能體經過反饋強化學習訓練后,面對任一學習場景與教學任務均可實現(xiàn)超80%的準確率[3]。由此可見,人工智能大模型在大學課堂進行知識傳授、內容創(chuàng)作與教學互動方面的技術優(yōu)勢,變革并突破了高等教育教學的既有框架。
然而,強人工智能似乎也引發(fā)了諸多的教育隱憂。AI教父杰弗里·辛頓(Geoffrey Hinton)離職后坦言,這場生成式革命未來極有可能對人類知識學習、主體存在與道德發(fā)展構成壓倒性威脅。在高等教育領域,大語言模型應用或許會導致大學生學習的技術依賴、教師身份建構的去主體化等潛在風險,引發(fā)學生與教師對于教學方式、意識形態(tài)與教學內容選擇的同質化危機,進而對人才培養(yǎng)體系產生全方位沖擊[4]。更為震驚的是,AI大模型已經可從大腦信號中提取視頻畫面,解析內在的學習過程與認知圖式[5]。盡管外界的質疑從未間斷,但這種以“讀腦術”為旨趣的大模型開發(fā)委實是一場危險的競賽,徒增了高等教育領域對生成式技術的不安。因此,這類觀點的擁躉堅信大語言模型教學應用猶如打開了象征“災禍之源”的潘多拉盒子,未來極有可能會取代實體大學。
在人工智能發(fā)展歷程中,斯坦福大學不僅是AI研究領域廣受認可的世界一流高校,而且在AI與教學創(chuàng)新融合方面同樣走在全球前列。自斯坦福大學人工智能實驗室(Artificial Intelligence Laboratory)于1963年創(chuàng)建以來,一系列機器學習算法和大模型工具相繼問世,為全球高等教育教學數字化轉型提供了經驗借鑒。因此,本文以斯坦福大學大語言模型教學應用的制度本文、宣傳報道、統(tǒng)計數據為案例資料,旨在回答大語言模型對大學教學產生何種積極變革影響與泛在風險危機,進而提出大語言模型賦能大學教學的發(fā)展路徑。
二、大語言模型智能機器何以推動教學變革
目前,斯坦福大學所開發(fā)與使用的大模型通過大數據算力集、符號語言系統(tǒng)、神經網絡模型與智能情感技術,在智能化涌現(xiàn)、無邊界探索、生成式互動與情感化反饋方面產生了有別于傳統(tǒng)教學的變革影響,全方位支持精準化教學、全時場服務、個性化指導與人性化評價的目標達成(如圖1所示)。
(一)智能化涌現(xiàn):大數據集算力加速精準化教學
與以往人工智能不同,斯坦福大學基于預訓練、有監(jiān)督微調、獎勵建模與強化學習四個訓練階段開發(fā)的大語言模型,能夠通過強大的算法、算力與算據具備大學教學場景任務的涌現(xiàn)能力。一是在算法方面,該校領銜開發(fā)的“M-Powering Teachers”模型基于深度學習的變體轉換器處理序列任務,對大規(guī)模課堂教學相關的語言數據集進行預訓練,在海量且雜亂的課堂信息中獲取結構性的教學圖景,甚至通過微調或特定任務的訓練以適應不同的教學場景,從而幫助教師精準化改進教學[6]。二是在算力方面,斯坦福大學以人為本人工智能研究所已與全球領先的科技企業(yè)合作開發(fā)千億參數多模態(tài)大模型作為平臺基座,擁有高性能圖形處理單元(Graphic Processing Unit)等卓越的硬件技術,能夠敏銳捕捉不同學科的內容特質與學生學習需求,大幅縮短復雜性教學場景中的大語言模型訓練時間[7]。三是在算據方面,學校早先開發(fā)的620億參數大模型可以涌現(xiàn)文本翻譯、作業(yè)輔導、數據總結與信息編程的能力,而躍升至5400億參數時則已經涌現(xiàn)出學情預測、智能識別、邏輯推理與情境化分析等能力,由此證明了大語言模型教學應用表現(xiàn)其實與模型的參數規(guī)模呈冪律關系[8]??傮w而言,當算法、算力與算據足夠“大”時,大模型便會“涌現(xiàn)”出傳統(tǒng)大學教學無可比擬的能力,從而能夠加速實現(xiàn)更加精準的教學任務。
(二)無邊界探索:符號語言系統(tǒng)支持全時場服務
大語言模型除了“大”的優(yōu)勢以外,其另一強大之處在于語言。當它通過深度學習訓練了和大學“教”與“學”有關的所有文本后,便會對師生關系、專業(yè)知識與學生需求為整體的教育教學活動擁有幾近完備的認知。盡管目前斯坦福大學開發(fā)的大語言模型尚不擁有人類的具身認知,但通過詞嵌入、語法結構學習與生成式語言能力建立了強大的符號語言系統(tǒng),能夠對真實的大學教學進行符號性捕捉,從而推動教學從共時場空間轉向全時場服務[9]。以學校開發(fā)的醫(yī)學虛擬助教模型“MAI-TA”(Medical AI Teaching Assistant)為例,雖然無法身體力行開展臨床培訓,但并不影響其在智能世界利用語言系統(tǒng)生成交互式3D解剖虛擬情境,引導學生探索數字解剖標本并開展教學互動。這樣看來,大學教學的認識論從康德的物自體存在方式,逐漸被智能語言所推進,突破由教師—學生構成的共時場空間的教學限制。與此同時,斯坦福大學自主研發(fā)的“WikiChat”聊天機器人,不僅能為教師教學設計提供精準、豐富的知識服務,而且還能借助獎勵建模與策略優(yōu)化機制不斷微調智能體的輸出結果,實現(xiàn)全天候、實時性的教學服務,從而為學生提供及時響應與極具細粒度的教學支持。由此看來,大語言模型革新與迭代的并不是師生所處的現(xiàn)實教學系統(tǒng),而是重新編織與創(chuàng)造出具有極強適應性、不斷自我更新與滿足差異需求的全時場教學空間。
(三)生成式互動:神經網絡模型促進個性化指導
如果說規(guī)模與語言使大模型更為智能,那么神經網絡模型便是其“大腦”,成為生成式教學革命的中樞系統(tǒng)。通常而言,人腦的思考涉及“快”與“慢”兩個層次[10],而斯坦福大學開發(fā)應用的大模型便能通過將人類的慢思考轉變?yōu)闊o意識的快思考,根據師生的“提示”實現(xiàn)及時、快速的生成式教學互動。首先,學校開發(fā)的智能教科書(Smart Textbook)AI應用基于多個深度神經網絡的轉換器模型,具備捕捉長距離依賴關系與處理大規(guī)模數據集的雙重能力。這既能通過定義關鍵術語識別學生提出的復雜問題,針對學生的認知水平反向提問以促進其思考,還能根據互動程度為學生提供個性化指導,整體促進其對知識的深入理解。其次,數學教學領域的“ReMath”(Remediation of Students’ Mathematical Mistakes)智能工具已經形成了思維鏈,通過推斷數學錯誤類型、確定錯誤策略與生成回應路徑三個互動步驟生成最優(yōu)結果,定位學生難以表達的學習困惑與知識盲點,使整個生成式教學互動的個性化程度大大提升。最后,基于人工智能內容生成技術設計的運動訓練助教系統(tǒng)“CORGI”(Corrections Generation for Instruction),可根據學生姿勢、動作流暢性與操作細節(jié)提供即時調整建議,從而促進學生對人體運動知識的啟發(fā)。綜上所述,深度神經網絡模型面對復雜教學問題時也能夠作出直覺般的快思考,支撐大語言模型對學生學習的個性化指導。
(四)情感化反饋:智能情感技術實現(xiàn)人性化評價
評判智能時代大學教學變革意義的關鍵在于能否使學生感受到智能教學反饋的“情感”。目前,大語言模型通常使用帶有情感標簽的大規(guī)模文本與數據集進行預訓練,以習得人類情感的理解表達,從而實現(xiàn)反饋評價的人性化[11]。在斯坦福大學教學過程中,智能情感技術通過人類反饋學習技術與多模態(tài)情感計算技術兩個方面實現(xiàn)評價的人性化。一方面,現(xiàn)投入使用的教學大模型借助人類反饋強化學習技術處理教學的自然語言提問并提供精準的信息服務,將教師的智慧經驗融入模型訓練中,確保基于一般語料庫訓練的教學內容與復雜的人類價值觀對齊統(tǒng)一。為了使教學評價反饋更為人性化,斯坦福大學建立獎懲模型對正在使用的教學大模型進行評分,使智能反饋更趨近于師生的真實期望,最終讓教學機器知曉何種評價更符合人類情感。另一方面,正在開發(fā)的“SIGHT”(Student Insights Gathered from Higher education Transcripts)項目由心理學、認知科學、計算機科學等成員組成,通過多模態(tài)情感分析技術提高模型應用的消歧能力,使教學互動分析更具魯棒性與準確度,從而在學習評價階段作出情感化反饋。正是如此,人工智能大模型才能“理解”學生學習的用心與情感,自然也能基于擬人化程序作出等同的情感反饋[12]。這恰恰說明了大語言模型已經涌現(xiàn)出更強的情感分析與反饋能力,推動智能機器教學愈發(fā)人性化與情感化。
三、大語言模型應用限度何以催生教學危機
大語言模型的教學輸出并非源自意識與認知,而是類似神經系統(tǒng)的“條件—刺激”反應,也即對教師或學生的“語言提示”作出基于深度神經網絡的計算訓練與結果反饋。事實上,大模型并非在人類語言層面理解教學過程,而是在統(tǒng)計層面推測教師與學生語言提示背后的概率,從而快速生成符合語言邏輯的教學答案。在這一背景下,大語言模型教學應用存在技術限制、統(tǒng)計偏見與系統(tǒng)失控的風險,或許隱含甚至催生新的高等教育教學危機。
(一)人工智能“幻覺”與教學內容失真
經過海量文本數據源的訓練,大語言模型雖然可以像大學教師一樣自然地基于高深知識生成新的互動內容,但也會不可避免地發(fā)生錯誤。目前,這類事實捏造、荒謬信息等與提示有關的不真實內容稱為AI幻覺(Hallucination)[13]。對于這一技術限制,斯坦福大學科研人員發(fā)現(xiàn)學校開發(fā)的教學輔助模型,可令人信服地將虛假信息和AI幻覺當作正確的教學事實進行傳播,證明了人工智能大模型教學應用的“幻覺”問題與師生對于失真內容的不可辨別力確實存在。究其緣由,大模型并不具備人類的反思認知,為了得到更高的獎勵模型評分,會在反饋強化學習階段的模型訓練時“絞盡腦汁”地貼近問題提示與生成符合教學偏好的“標準”答案[14]。盡管生成式教學內容“錯誤連連”,但斯坦福大學內部認為這種“幻覺”與其說是算法的畸變,不如說是人類文化的反映。如果祛除這種“幻覺”,大模型便只會提供標準化的教學設計或同質化的知識答案,這無異于在消除大學極力呵護與倡導的想象力與創(chuàng)造力。
但是,隨著這些模型內嵌到斯坦福大學教學系統(tǒng)并用于人才培養(yǎng)相關的自動化任務時,大模型的幻覺傾向可能會導致學科專業(yè)內容失真與教學主體的算法技術依賴[15]。在封閉域問題中,盡管大模型被要求僅基于限定背景生成教學答案,但它卻會額外創(chuàng)造出諸多與任務毫不相關的信息,從而誤導學生的學習進程。面對開放域問題時,這種“幻覺”會使大模型在沒有任何參考情況下提供關于問題的錯誤信息。無論何種程度的智能“幻覺”,均是大語言模型為了迎合人類對其程度評價與獎勵監(jiān)督訓練的結果,其遵循的是程式化、效率化的工具理性邏輯,與大學教學以創(chuàng)新、互動與探索為圭臬的價值理性之間存在難以調和的張力。如若大語言模型被推廣到大學教學諸領域,那么它在超越學科與常識的問題中仍一本正經地編造與事實相悖的答案,教學主體可能難以評估其真實性與準確性?;蛟S,這才是以探究高深知識為宗旨的高等學府最應該警覺并加以避免的情況。
(二)機器“認知偏見”與意識形態(tài)危機
大模型機器真的能向教師與學生反饋公正客觀的價值事實嗎?在人工智能發(fā)展歷程中,符號主義(Symbolism)主張通過計算機符號系統(tǒng)模擬人類的邏輯推理與知識表達,實現(xiàn)與人類相同的價值觀[16]。不同于符號主義進路,秉持聯(lián)結主義(Connectionism)的大語言模型通過將“價值對齊工程”內嵌在教學模型開發(fā)中,已經率先成為一種“可信人工智能”(Trustworthy AI)。但是,經過價值對齊與獎勵模型評級的大模型,委實難以基于高深知識與創(chuàng)新思維進行多元價值表達,甚至還會不同程度地削弱內容生成的信用等級。譬如,斯坦福大學所開發(fā)的教學大模型在回答巴以爭端、俄烏沖突等地緣政治問題時,它其實無法做到客觀公正的知識輸出,甚至還會“夾帶私貨”向學生傳遞美國優(yōu)先的價值觀。歸根結底,價值對齊操作其實無力完成機器教學反饋的價值無涉任務,在面對前沿知識議題時,或許會使大語言模型自帶“認知濾鏡”發(fā)表難以兼容抑或彼此抵牾的價值觀點,甚至還可能自帶民族主義或意識形態(tài)的價值偏見。
為了對爭議觀點進行對齊統(tǒng)一,斯坦福大學部分研發(fā)機構甚至在強化學習與獎勵評價階段進行各種人工介入。無疑,這委實會復制和放大本就存在的大學教育公平危機,以絕對的主流意識形態(tài)擠壓少數群體的文化合法性。譬如,當教學大模型被要求以非裔大學生為主角開展教學創(chuàng)作時,它會以純粹的“白人思維”進行內容輸出,無法反映高等教育系統(tǒng)的文化多樣性與自由民主觀念。正如該校以人為本人工智能所解釋的那般,這種巨大的差距未能幫助美國大學中代表性不足的學生群體營造公平安全的學習環(huán)境。吊詭的是,人工介入大模型教學輔助過程,實際上把西方中心主義價值觀,以人類普世價值的名義強行置于一個看似客觀與公正的算法系統(tǒng)中加以復制、推廣與傳播[17]。特別在美國人工智能國家安全委員會宣稱“美國價值必須引領全球”后,大學需要對大語言模型輔助教學背后的價值輸出進行更為理性的審查。這種為了解決機器“認知偏見”問題的人工介入,相反卻走向了另一種教學困境。
(三)復雜系統(tǒng)“失控”與人機互動風險
斯坦福大學發(fā)布的《大語言模型的涌現(xiàn)能力》表明,模型涌現(xiàn)能力與數據訓練并非簡單的線性關系,而是需要超過某個臨界值時,復雜系統(tǒng)才會涌現(xiàn)出新的技能。為了使模型變得更智能,斯坦福大學將不同教學輔助模型樂高(Lego)化,形成超大規(guī)模參數的模型系統(tǒng)集群。這不僅實現(xiàn)了大學教學物理空間、虛擬空間與數字空間的深度融合,而且也促成一個由復雜系統(tǒng)主導的人機融合的教學世界。但是,復雜系統(tǒng)的諸多功能其實是數據訓練與技術迭代的非線性演化結果,其本質是不可預測、不可知與不可控的涌現(xiàn)現(xiàn)象[18]。譬如,現(xiàn)今已從GPT-4應用中看到了教學互動的不可預測現(xiàn)象,以及凱文·凱利(Kevin Kelly)所述的“失控”問題[19]。究其本質,失控危機與大語言模型的涌現(xiàn)能力相伴而生,特別是當大模型的復雜性能成長到一定臨界值時,其在大學教學領域的交互行為或許會超越模型設計預期,甚至在缺乏中心控制的情況下,大語言模型會在大學的教與學過程產生更加不可預測的影響。
事實上,大模型主導的教學過程將會產生更多的人機互動風險。第一,教學互動內容的同質化進一步加劇[20]。這一點已在斯坦福大學內部得到了驗證,其所開發(fā)的教學模型通過標準化的訓練輸出過程,使教學內容設計愈加同質化,加劇智能機器對學生與教師思想觀念的“殖民”,甚至維持與延續(xù)高等教育不平等的生產與再生產機制。第二,當大模型向超級智能躍遷時,其所涌現(xiàn)的諸多教學能力委實會變更當前“教師—人工智能—學生”的主體間性關系與權力結構,使教師與學生單向度地依賴大語言模型所提供的知識反饋與教學支持。第三,斯坦福大學各個教學與研究機構正在爭相開發(fā)大模型,但內部各方均無法揭開大模型作業(yè)的“黑箱”,甚至難以對涌現(xiàn)與失控機制進行精準闡釋。由此產生的結果是,大模型教學應用開發(fā)正走向“失控的競賽”,導致算法濫用、虛假傳播與模型偏見等在校園內部頻頻發(fā)生,從而引發(fā)人機融合教學的合法性危機。
四、大語言模型賦能大學教學的反思與進路
面對生成式人工智能的巨大應用前景,大學絕不應該毫無節(jié)制地引入、推廣與應用大語言模型,而是需要理性認識到此類智能技術本身仍存在加劇大學教學風險危機的可能。面對大語言模型應用限度所帶來的風險泛化,全球大學理應重新反思智能技術賦能大學教學的轉型作用,圍繞人的主體價值實現(xiàn),從“主體—目標—體系—機制”的系統(tǒng)關系出發(fā)建構一套行之有效的推進路徑。
(一)培育智能素養(yǎng),厘清大學教學的主體關系
面對智能時代的主體危機,高校應該明確教師、學生與智能機器之間的互動關系,培養(yǎng)與提升教學主體的批判思維、創(chuàng)新精神與資源利用能力。一方面,大學應該積極培育教師與學生的智能素養(yǎng),制定大模型教與學應用能力框架,為智能時代教學主體提供必要的行動指南。譬如,斯坦福大學正在制定大語言模型工具的教學行動指南與系統(tǒng)的生成式人工智能課程培訓體系,旨在培育高校師生在人機融合教學中的主體意識與創(chuàng)造能力。另一方面,智能時代的大學應該厘清生成式教學的主客體關系,規(guī)范“教師—智能機器—學生”三者的職責邊界。正如美國教育部發(fā)布的《人工智能與教和學的未來:洞見和建議》所述,教師與學生應該持續(xù)處于系統(tǒng)循環(huán)中心,以此作為評判人工智能教學的首要標準[21]。在這一理念倡導下,模型開發(fā)者理應為學生展現(xiàn)人工智能技術與人類知識演化之間的動態(tài)關系,提升其在大語言模型教學應用中的主體意識與理性能力。對于教師而言,應基于人機融合與交互體驗設計大學教與學過程,創(chuàng)設以學習者為中心的智能教學環(huán)境[22]。唯有如此,學生、教師與智能機器才能從孤立走向融合,而大學才能建構多模態(tài)、多場景與跨場域的人機融合教學社群。
(二)明確應用目標,探索生成主義教學創(chuàng)新
不同于過往人工智能教育應用,以大語言模型為載體的生成主義(Enactivism)教學需要被重新認識。早在20世紀90年代初期,瓦雷拉(Francisco J. Varela)等人就曾提出生成主義的認知觀,主張知識是在學習主體與環(huán)境及其他要素互動中不斷生成與建構的[23]。對此,大學應該精準識別大語言模型的生成主義要素,探索富有創(chuàng)新力與生命力的教學體系。一是明確大語言模型的應用目標,如個性化學習、知識內容生成與教學設計創(chuàng)新,確保其與教學愿景保持一致,從而整體推進高等教育使命的實現(xiàn)。二是基于大模型的樂高化優(yōu)勢,構建“教學設計—人機互動—智能考評—個性反饋”教學體系,充分利用大模型的疊加組合探索生成主義教學創(chuàng)新,從而促進學生的創(chuàng)造力、想象力與個性化學習。三是圍繞人才培養(yǎng)目標,探索大語言模型賦能教學的效果機制,據此評估與改進大模型推動生成主義教學的整體進程,建構差異化與特色化的教學體系。需要明確的是,生成主義教學創(chuàng)新需要按照聯(lián)合國教科文組織《生成式人工智能與教育未來》所述的那般,將新型AI工具整合到教學系統(tǒng)以推動人的全面發(fā)展,充分發(fā)揮高等教育重塑未來的公共價值,才能彰顯大語言模型教學應用的變革意義。
(三)完善倫理體系,提升教學模型的信用評級
面對算法偏見、意識形態(tài)風險與道德危機等問題,關鍵在于建構技術更新與道德倫理的一體化機制,提升教學大模型的信用評級。首先,大學需要與研發(fā)機構、公民社會、政府等相關主體一道,基于人才培養(yǎng)目標設計具有安全公平、科學規(guī)范與以人為本的道德框架與行動指南,預防與消減生成式大模型教學應用所產生的倫理風險。值得一提的是,斯坦福大學發(fā)布的《生成式人工智能政策指導》《人工智能教學指南》等報告,建構了大模型教學的責任倫理矩陣,確保生成式大模型教學的真實性與合規(guī)性。其次,大學需要組建學科交叉與成員異質的教學團隊,設計與打造以大語言模型為代表的人工智能倫理課程教學體系。譬如,斯坦福大學嵌入計算機科學中的倫理項目(Embedded EthiCS Program)由人工智能與倫理學交叉團隊負責,打造倫理、政策、計算和數據為一體的多層級教學模塊,使教師與學生在掌握人工智能倫理知識的同時思考技術對教育發(fā)展的雙重影響。最后,大學需要通過合理透明度與概念激活向量算法模型等“以技治技”手段[24],解釋模型原理、公開訓練數據與記錄運行過程,使人工智能“幻覺”問題與倫理危機降到最低,從而重建智能時代的教學信任關系。
(四)筑牢監(jiān)管機制,構建多元協(xié)同的教學生態(tài)
目前,除了世界一流大學的小規(guī)模嘗試外,各國政府仍然為此項技術在大學的推廣使用展開廣泛論爭。在生成式技術尚未產生無以復加的消極影響前,政府部門應建立安全有效、規(guī)范有力的監(jiān)管機制與生態(tài)系統(tǒng),為智能時代大學教學提供可持續(xù)化保障。一方面,政府應該建立以人為本的監(jiān)管機制,不斷調整模型開發(fā)應用的風險防范體系。為了應對智能技術迭代更新過快的全球性挑戰(zhàn),各國政府與大學理應基于既有的全球性框架,建立適切性更強的監(jiān)管機制,以確保這些大模型實現(xiàn)以人為本的教育愿景。這需要政府、科技企業(yè)與大學將隱私安全、透明度與可解釋性使用、算法歧視保護、公平包容與文化多樣性等要素納入機制設計,科學規(guī)范人機融合教學行為,確保教學大模型的安全性和可控性。另一方面,大學應該構建多元協(xié)同與智慧聯(lián)動的教學生態(tài)系統(tǒng),為積極管控大模型應用風險提供可持續(xù)化支持。為了監(jiān)管大模型教學應用情況,OpenAI公司、普林斯頓大學等構建了多元協(xié)同的教學生態(tài),合作開發(fā)了AI分類器與GPTZero等智能教學監(jiān)管產品[25]。因此,走向跨界合作、集聚創(chuàng)新與生態(tài)賦能的智能教學生態(tài)系統(tǒng),可以用技術的迭代更新推動大學教學的可持續(xù)化發(fā)展,從而在這場智能革命中實現(xiàn)高等教育增進人類福祉的公共目標。
五、結 束 語
以大模型為代表的生成式人工智能正在迅速改變大學教學關于“人”及其教育的生產方式,推動智能機器從作為大學教師的教學輔助者進化為知識生成的重要參與者,從而在全球高等教育領域塑造出一種全新的人才培養(yǎng)模式。值得注意的是,斯坦福大學基于大語言模型的教學實踐已然證明了這一新的教學模式面臨新的風險與不確定性。一方面,當智能機器愈進化為像人一樣可以從事生成式教學時,大學愈需要警覺這類教學模式致使原本以創(chuàng)新啟發(fā)、知識互動與道德完善為目標的人才培養(yǎng)實踐變成標準化的復制性活動。另一方面,身處智能時代的大學對于人的主體性確證、理性精神培養(yǎng)、道德倫理塑造、民族文化品格培育以及創(chuàng)造能力發(fā)展等方面的作用,恰恰是教學智能機器難以達成的。由此,生成式人工智能時代的大學必須堅持以人為本的教學使命,構建“教師—智能機器—學生”的教學共同體與智能教育生態(tài)系統(tǒng),培養(yǎng)學生理性、創(chuàng)造、道德與探究品質的發(fā)展,從而彰顯人機融合教學的技術進步主義價值。
[參考文獻]
[1] 鐘柏昌,劉曉凡. 生成式人工智能何以、以何生成教育[J]. 電化教育研究,2024,45(10):12-18,27.
[2] 吳永和,姜元昊,陳圓圓,等. 大語言模型支持的多智能體:技術路徑、教育應用與未來展望[J]. 開放教育研究,2024,30(5):63-75.
[3] OPENAI. GPT-4[EB/OL]. (2023-03-14)[2024-06-19]. https://openai.com/research/gpt-4.
[4] 劉邦奇,聶小林,王士進,等. 生成式人工智能與未來教育形態(tài)重塑:技術框架、能力特征及應用趨勢[J]. 電化教育研究,2024,45(1):13-20.
[5] SCHNEIDER S, LEE J H, MATHIS M W. Learnable latent embeddings for joint behavioural and neural analysis[J]. Nature,2023,617:360-368.
[6] 劉明,郭爍,吳忠明,等. 生成式人工智能重塑高等教育形態(tài):內容、案例與路徑[J]. 電化教育研究,2024,45(6):57-65.
[7] 苗逢春. 生成式人工智能技術原理及其教育適用性考證[J]. 現(xiàn)代教育技術,2023,33(11):5-18.
[8] STANFORD HAI. Artificial intelligence index report 2024[EB/OL]. (2024-04-17)[2024-05-01]. https://aiindex.stanford.edu/report/.
[9] RASCOFF M. How to make AI work for higher education[EB/OL]. (2024-04-17)[2024-05-01]. https://digitaleducation.stanford.edu/news/how-make-ai-work-higher-education.
[10] KAHNEMAN D. Thinking, fast and slow[M]. New York: Farrar, Straus and Giroux,2011.
[11] 鄭永和,王一巖,楊淑豪. 人工智能賦能教育評價:價值、挑戰(zhàn)與路徑[J]. 開放教育研究,2024,30(4):4-10.
[12] 盧宇,余京蕾,陳鵬鶴. 基于大模型的教學智能體構建與應用研究[J]. 中國電化教育,2024(7):99-108.
[13] 王雯,李永智. 國際生成式人工智能教育應用與省思[J]. 開放教育研究,2024,30(3):37-44.
[14] 陳向東. 大型語言模型的教育應用[M]. 上海:華東師范大學出版社,2023.
[15] UNIVERSITY IT. Responsible AI at Stanford: enabling innovation through AI best practices [EB/OL]. (2024-03-02)[2024-04-22]. https://uit.stanford.edu/security/responsibleai.
[16] 魏斌. 符號主義與聯(lián)結主義人工智能的融合路徑分析[J]. 自然辯證法研究,2022,38(2):23-29.
[17] 邱昆,胡欽曉. 技術“傲慢” 與教育“偏見” :一個場域沖突的視角[J]. 電化教育研究,2024,45(4):25-31,45.
[18] 劉盛. 美國一流大學在教育教學實踐中應用ChatGPT的劃界及其啟示[J]. 高等教育研究,2023,44(10):89-98.
[19] 凱文·凱利. 失控:全人類的最終命運和結局[M]. 東西文庫,譯. 北京:新星出版社,2011.
[20] 楊俊鋒. 生成式人工智能與高等教育深度融合:場景、風險及建議[J]. 中國高等教育,2024(5):52-56.
[21] CARDONA M A, RODRIGUEZ R J, ISHMAEL K. Artificial intelligence and the future of teaching and learning: Insights and recommendations[EB/OL]. (2023-05-01)[2024-07-10]. https:// www.ed.gov/sites/ed/files/documents/ai-report/ai-report.pdf.
[22] 黃欣榮. 從ChatGPT到Sora:生成邏輯、哲學本質及世界圖景[J]. 新疆師范大學學報(哲學社會科學版),2024,45(6):72-80.
[23] VARELA F J, THOMPSON E, ROSCH E. The embodied mind, revised edition: cognitive science and human experience[M]. Cambridge: MIT Press, 1992.
[24] 吳冠軍. 大語言模型的技術政治學評析[J]. 中國社會科學評價,2023(4):27-37,155-156.
[25] 蔣貴友. 數字時代如何建構知識生產創(chuàng)新生態(tài)系統(tǒng)——基于美國一流高校的案例考察[J]. 比較教育研究,2024,46(5):64-73.
Change or Crisis: Large Language Model Empowering University Teaching and Its Limits—A Case Study Based on Stanford University
JIANG Guiyou, YIN Wenxuan
(College of Education, Hunan Agricultural University, Changsha Hunan 410128)
[Abstract] Generative artificial intelligence, represented by large language models, is rapidly changing the production method of \"human\" and their education in university teaching, shaping a new" model of talent training in the global higher education field. Based on the case of Stanford University, it is found that the key to empowering teaching with large language models lies in the computing power of large data sets to accelerate precise teaching, the symbolic language system to support full-time services, the neural network model to promote personalized guidance, and the intelligent emotional technology to achieve humanized evaluation, resulting in the teaching transformation impact characterized by intelligent emergence, boundless exploration, generative interaction and affective feedback. But at the same time, the limits of model application such as the \"illusion\" of artificial intelligence, the \"cognitive bias\" of machines, and the\"out-of-control\" of artificial intelligence" may lead to multiple risks of distorted teaching content, ideological crisis and alienation of subject relations, giving rise to a new teaching crisis under the technological revolution. Based on this, universities in the era of artificial intelligence should build a systematic path from the four-dimensional relationship of\"subject-goal-system-mechanism\", promote generative teaching innovation and exploration, improve the credit rating of teaching models, and build a diversified collaborative teaching ecology, so as to change university teaching from human-computer collaboration to human-computer integration, thereby demonstrating the technological progressivism value of university teaching empowered by the large language models.
[Keywords] Large Language Model; University Teaching; Generative Artificial Intelligence; Teaching Ecology; Human-Machine Integration