摘要:通用大模型時代,生成式人工智能的教育應用不斷“制造”出多種新型倫理交往和道德生活場景,成為教育人工智能倫理治理的重心?!皞惱硐刃小弊鳛榭萍紓惱碇卫淼牡谝辉瓌t,內蘊了風險前瞻、動機溯源和后果預測的基本要義,不僅為人工智能與教育的融合發(fā)展提供了理念指引和目標導向,而且對智能環(huán)境下的教育創(chuàng)新起到重要的規(guī)范約束作用。因此,人工智能與教育融合創(chuàng)新需要“倫理先行”。這既是“人工智能+教育”的基本倫理訴求,也是教育目標統(tǒng)領技術手段的必然選擇,其實現離不開敏捷治理理念、倫理審查方案、倫理教育手段的支撐。具體而言,敏捷治理突出了對人工智能賦能教育創(chuàng)新的快速響應和機智決策等特點,有助于相關政策法規(guī)的不斷更新與優(yōu)化;倫理審查重在防控人工智能引發(fā)教育倫理風險,為把好教育治理的“方向盤”提供了制度支持;倫理教育通過內化人工智能從業(yè)者、教育工作者的責任意識,有助于提升相關主體的智能倫理素養(yǎng)。這三大倫理策略相輔相成,共同構成了以政策引領、制度保障、責任內化為目標,由政府管理部門、學校機構、科研創(chuàng)新主體、相關社會團體等多方共同參與的立體化“倫理先行”實踐樣態(tài),由此也形成了生成式人工智能教育應用的倫理路徑。
關鍵詞:生成式人工智能;人工智能教育應用;教育創(chuàng)新;倫理先行;倫理治理;倫理路徑
中圖分類號:G434 文獻標識碼:A 文章編號:1009-5195(2024)06-0011-09 doi10.3969/j.issn.1009-5195.2024.06.002
一、問題提出
2024年3月,“人工智能+”首次被寫入國務院《政府工作報告》,為催生新質生產力指明了新路徑。人工智能與教育融合創(chuàng)新是智能時代教育發(fā)展的新趨勢,是“人工智能+”在教育領域的具體表現,其強調將人工智能充分應用于教育活動并與其達成深度融合,旨在創(chuàng)造一種教育與智能技術雙向賦能、和諧共生的關系。人工智能與教育融合創(chuàng)新的邏輯起點是“人工智能教育應用”,經由“融合發(fā)展”的過程,走向“教育創(chuàng)新”的終點。當前,隨著以ChatGPT、Sora為代表的生成式人工智能的迭代發(fā)展及廣泛應用,人工智能與教育的融合創(chuàng)新取得了顯著成果,成為推進教育數字化轉型的重要途徑。然而,伴隨人工智能與教育的融合創(chuàng)新進入“深水區(qū)”,諸如應用缺防范、融合不全面、創(chuàng)新難深入、倫理治理滯后、育人功能弱化等現實難題亦不斷凸顯,因而亟需“倫理先行”進行理念疏引和實踐指導。
“倫理先行”是近年來頻繁出現于科技治理領域的新概念。2022年,中共中央、國務院印發(fā)《關于加強科技倫理治理的意見》,提出了倫理先行等5項基本要求(中華人民共和國中央人民政府,2022)。自此,“倫理先行”不斷被用于人工智能治理領域。2023年,為進一步系統(tǒng)闡述人工智能治理的中國方案,中央網信辦發(fā)布《全球人工智能治理倡議》,明確提出“堅持倫理先行,建立并完善人工智能倫理準則、規(guī)范及問責機制”(中央網絡安全和信息化委員會辦公室,2023)。隨后,“倫理先行”作為人工智能治理的第一原則,為各領域人工智能應用提供了理念與方向。在教育實踐中,“倫理審視”“風險規(guī)避”等治理要求通常被用來表征對人工智能教育應用問題的“倫理觀照”,但這種風險警覺或倫理反思型的治理方式并不能指向“倫理先行”的核心內涵,也未明確“技術先行”還是“倫理先行”的教育決策依據,更難以解釋人工智能與教育融合創(chuàng)新需要遵循的基本倫理原則。為此,本文嘗試探求“倫理先行”之于人工智能與教育融合創(chuàng)新的引導作用,以期為應對生成式人工智能教育應用中的倫理危機尋找一條“林中路”。
二、“倫理先行”的研究脈絡及其基本要義
在學界,“倫理先行”一詞最早出現于醫(yī)學領域,重在規(guī)范醫(yī)療衛(wèi)生系統(tǒng)倫理委員會的職能。從2019年開始,“倫理先行”被科技治理領域頻繁使用,諸如科技創(chuàng)新要堅持倫理先行(雷瑞鵬等,2019;金觀平,2022)、倫理先行重在關口前移和風險前瞻(楊舒,2022)、倫理先行的目的是為科技創(chuàng)新構建倫理軟著陸機制(段偉文,2022)等呼吁不絕于耳。相關研究系統(tǒng)回答了何為“倫理先行”、如何落實“倫理先行”等基本問題。例如,有學者指出,倫理先行中的“先行”是指時間上先行,即預防性地指導科技實踐(王小偉,2023);“倫理先行”的動因在于風險決策的失范效應(季衛(wèi)東等,2023),表現為“倫理”先行于科技治理、科技研發(fā)、科技應用、法制規(guī)制的各個環(huán)節(jié)(王常柱等,2023)。還有學者把“倫理先行”解讀為技術作為人工制品對人的從屬、技術作為工具對使用意圖的從屬(酈平,2023)。在生成式人工智能治理方面,有觀點認為,“倫理先行”就是把倫理道德融入生成式人工智能研發(fā)和應用的全生命周期,體現了以人為本的價值內涵,實現了對人的人格尊嚴的維護(商建剛,2023)。在教育人工智能領域,“倫理先行”的觀點較早出現于分析人工智能通用大模型的教育應用問題,特別強調人工智能與教育融合發(fā)展要堅持倫理為先的原則(吳砥等,2023)。
國外雖沒有與“倫理先行”完全一致的表述,但在倫理治理方面的研究也特別強調倫理優(yōu)先(Ethical Priority)的重要性,比如,諸多學者討論了人工智能倫理原則的優(yōu)先制定(Stix,2021)、人工智能哲學分析中的倫理優(yōu)先(Zapata,2022)、人工智能的倫理警惕(Paola,2022)、腦機接口的倫理優(yōu)先性(Cabrera et al.,2023)、人工智能治理倫理原則的優(yōu)先考慮(Koniakou,2023)等問題。實際上,早在2021年,聯(lián)合國教科文組織就發(fā)布了《人工智能倫理建議書》,提出要以負責任和合乎倫理的方式開展人工智能教育應用實踐,充分考慮人工智能對學生和教師的影響,保證做好個人數據保護,體現了倫理優(yōu)先的意識(UNESCO,2021)。另外,歐盟AI治理模式的突出特征也包括了“倫理優(yōu)先”(王彥雨等,2024)。
綜上所述,已有研究對于理解“倫理先行”的基本內涵、核心要素、實踐路徑具有重要的啟示意義。首先,“倫理先行”表征了兩種概念形態(tài)。一是理念形態(tài),即把“倫理”理解為一種思維、態(tài)度或者觀念,突出表現為以人為本、科技向善、合乎道德的價值取向。換言之,“倫理先行”是價值理念的全面貫通,即把倫理觀念作為貫穿于科技活動全過程的精神統(tǒng)領,以倫理思維審視科技創(chuàng)新,確??萍枷蛏瓢l(fā)展的良好初心。這是“倫理先行”的本質屬性。二是過程形態(tài),即把“倫理”作為一種手段或方法,突出表現為規(guī)制科技發(fā)展方向、前瞻研判倫理風險等方案或措施。換言之,“倫理先行”要求通過評估倫理風險、制定倫理原則、建立倫理規(guī)范、形成倫理制度、開展倫理審查、解決倫理難題、實現倫理愿望等一系列操作,形成倫理治理的基本路徑。這是“倫理先行”的動力機制。這兩種概念形態(tài)相互依存、彼此依賴,倫理理念的貫通離不開倫理過程的支撐,而倫理過程的實施更需要倫理理念的引導。它們共同組成“倫理先行”的基本內涵,缺少任何一方,“倫理先行”的涵義都是不全面的。
其次,“倫理先行”包含了兩個核心要素:倫理治理的對象(即先行于什么)和倫理治理的目標(即先行去干什么)?!皞惱硐刃小睂儆趥惱碇卫眍I域的基本概念。倫理治理的內涵被界定為促使社會全體成員形成遵守規(guī)則的“道德意識”或“絕對意志”(王立等,2017)。因而倫理治理就是把倫理原則、道德規(guī)范當作手段或工具,對相應問題進行治理。倫理治理的真義體現在特定的問題取向中,只有針對具體問題,它才不會是無對象、無邊界的治理(田海平,2017)??梢?,倫理治理的對象是各種問題,亦即“倫理”要先行于各種問題。對技術活動而言,“倫理先行”就是在開展技術活動之前,主動通過反思回顧、風險評估、倫理審查等方式,對技術設計、開發(fā)、應用、管理等各個環(huán)節(jié)進行前瞻預判,制訂出一套倫理規(guī)范體系,把倫理要求貫穿于問題解決的全過程。該過程同時也回答了“倫理先行去干什么”的問題。
最后,“倫理先行”指出了一條倫理分析路徑。對新興技術進行系統(tǒng)而全面的前瞻性倫理分析,其基本路徑至少包括以下環(huán)節(jié):第一,明確“倫理先行”的前提是常規(guī)技術治理方法未能考慮到新技術的特殊性。例如,已有的數字技術治理方案無法觀照當前生成式人工智能的產品、用途或影響,因而需要為其另行制定治理辦法。第二,預測分析新技術的研發(fā)與應用所產生的風險和受益、公平可及、知識產權等倫理問題,進而提出監(jiān)管方案。第三,提出一套對新興技術監(jiān)管的暫行辦法,并按照一定程序,在技術專家、倫理學家、法學家、公眾代表以及監(jiān)管人員經過充分交流和討論后達成一致意見,形成技術共同體的倫理規(guī)范。第四,提交暫行辦法至相關主管部門,經批準后成為具有強制效力的倫理治理辦法,并緊跟技術發(fā)展步伐,持續(xù)改進和修正,使其逐步完善。
三、人工智能與教育融合創(chuàng)新為何需要“倫 理先行”
人工智能與教育融合創(chuàng)新是借助人工智能大模型實現高質量的教育資源整合、全領域的知識體系覆蓋、跨學段的多任務場景交互的系統(tǒng)過程。唯有對該過程進行倫理規(guī)約,遵循智能時代科技治理的相關規(guī)定,走“倫理先行”之路,才能理性認識人工智能的“雙刃劍”效應,合理防范其中的育人風險。
1.“倫理先行”與人工智能教育應用的基本理念相一致
人工智能教育應用是人工智能技術在教育教學領域所有應用活動的總稱,需要遵循育人為本的價值理念和增進人類福祉的倫理共識?!皞惱硐刃小币馕吨逃膫惱硇砸爸糜谌斯ぶ悄艿募夹g應用,從而體現教育目標的“價值性”統(tǒng)領技術應用的“工具性”這一倫理治理的基本原則。
一方面,“倫理先行”與人工智能教育應用的基本目標不謀而合。這是由教育與倫理二者所具有的天然連結性所決定的。教育始終以人的未定性、發(fā)展性為基礎,在本質上是一種把立德樹人作為首要目標的倫理型實踐活動,具有培養(yǎng)德性、關涉人之成長的倫理特質。教育目標的“倫理先行”特征一目了然。任何技術應用于教育,都應從屬于教育目標,體現“倫理先行”的特點。數字化轉型時期,教育雖然面臨數智賦能的復雜境遇,但“倫理先行”對教育而言的重要地位從未改變。因此,人工智能與教育融合創(chuàng)新必須秉持“倫理先行”的基本理念,促使人工智能技術應用動機從屬于教育目標的倫理要求。換言之,“倫理先行”體現了智能時代教育發(fā)展的價值追求,是人工智能對教育目標的基本遵循。2024年世界數字教育大會將“人工智能與數字倫理”作為平行會議議題,體現了“以人為本”“數字向善”的宗旨(中華人民共和國教育部,2024),亦契合了“倫理先行”的基本理念。
另一方面,“倫理先行”與人工智能教育應用的治理邏輯不謀同辭。隨著生成式人工智能的廣泛應用,智能教學技術給各年齡段學生帶來普遍的倫理挑戰(zhàn)(Akgun et al.,2022)。例如,聊天機器人等智能應用,由于缺少道德規(guī)范的加持,而對人的主體性造成不良影響(Chokri,2023)。當前諸如技術向“善”趨于異化、個體崇“善”走向衰微、社會趨“善”面臨潰散等人工智能倫理風險已成為教育治理的焦點(馮永剛等,2023)。而生成虛假教育內容、濫用教育數據、帶來教育偏見、泄露師生敏感信息、侵犯知識產權等多重倫理問題不斷涌現,亦成為人工智能治理的核心任務??梢姡还苁墙逃卫磉€是人工智能治理,其重點都是“用而不該”“用而不當”“用而不好”的倫理問題。因此,倫理治理已經成為人工智能教育應用的首要任務,體現了“倫理先行”的基本邏輯。只有按照倫理先行的理念與思路開展教育領域人工智能治理,才能預防人工智能對教育可能產生的不良影響,進而守住人工智能賦能教育發(fā)展的安全底線,保障人工智能與教育融合創(chuàng)新的正確方向。
2.“倫理先行”是人工智能與教育融合創(chuàng)新的實踐訴求
“倫理先行”是在反思當下社會治理現狀的基礎上提出的,因而適用于社會治理的各個領域(孫春晨,2023)。教育治理屬于社會治理的一部分,必然要遵循社會治理的“倫理先行”原則。而人工智能治理屬于科技治理的范疇,也需要遵循科技倫理治理的“倫理先行”基本要求。因此,在人工智能與教育融合創(chuàng)新實踐中,倫理既不能游離于教育過程之外而充當“旁觀者”,也不能局限于對人工智能應用進行“事后反思”,而是應當融入人工智能教育應用的全過程,彰顯“倫理先行”特色。實現“倫理先行”,不僅能在理論層面為人工智能與教育“因何融合”提供合理性闡釋,也能從實踐層面回應人工智能教育應用的“技術隱憂”,為“如何創(chuàng)新”提供倫理型方案。
首先,在引入、研發(fā)或應用一項新的智能教育工具之前,需要先行回答一個關鍵性的現實問題:人工智能與教育融合創(chuàng)新應該遵循“防范原則”還是“先占原則”?顯然,前者體現了“倫理先行”的基本立場,后者突出了“技術優(yōu)先”的價值取向。事實上,“防范”不是保守,“先占”也非創(chuàng)新。以ChatGPT等大模型聊天應用為例,盡管它并非專為教育而研發(fā)和設計,但其在閱讀、寫作、計算等教學領域的應用已引起廣泛關注。有觀點指出,人工智能的“擬人化”轉移了研發(fā)者和使用者的責任,破壞了人類特有的人際信任關系(Ryan,2020);ChatGPT生成的回答容易帶偏人的道德判斷(Sebastian et al.,2023)。因而,用于教學的ChatGPT必須對學生的主體性發(fā)展進行保護(張敬威,2023),在不能促進學生學習的情況下要限制ChatGPT的使用(尚智叢等,2023)。這些前瞻性分析注重人的自由全面發(fā)展,強調不應喪失人的價值感和意義感,體現了人工智能與教育融合創(chuàng)新的“倫理先行”原則。因此,立足生成式人工智能的“可能性”,審慎決定教育“應該”怎么辦,前瞻預判可能出現的倫理風險,就是在踐行“防范”導向的“倫理先行”。
其次,在面對人工智能教育應用引發(fā)的倫理難題時,需要先行決定選擇何種倫理理論以觀照教育現實。這也是“倫理先行”的突出表現,標志著教育人工智能倫理治理從風險呼吁走向了倫理分析與決策。有觀點指出,當前人工智能倫理困境主要表現在后果論的效用性降低、義務論的適配性可疑和德性論的養(yǎng)成性困難等方面(崔中良等,2023)。根據倫理學的一般理論,后果論、義務論和德性論能夠為分析人工智能與教育融合創(chuàng)新提供倫理思路。其中,后果論偏重人工智能教育應用所產生的結果及社會影響,主張符合倫理的人工智能應用行為能夠減少對教育的負面影響;義務論強調人工智能與教育融合創(chuàng)新的動機和意圖,重視為不同教育情境下的人工智能應用制定規(guī)則;德性論關注人工智能如何成為具有德性的教育智能體等問題,其前提是人工智能具有自主意識。鑒于以上倫理理論的啟迪,在解決倫理難題之前,只有綜合發(fā)揮多種理論的優(yōu)勢,做好前瞻研判,才能將“倫理先行”的基本要求貫穿于智能教育活動的全過程。
最后,在開展人工智能與教育融合創(chuàng)新的實踐過程中,需要先行判斷技術應用的邊界問題,思考人工智能應用是否會引發(fā)“違背育人原則”“智能向惡”“觸犯法律”“走向犯罪”等嚴重后果。實際上,“倫理先行”蘊含了對倫理規(guī)范和法律規(guī)范關系的審視(宋華琳,2023)。一般認為,倫理和法律既有區(qū)別又有聯(lián)系:倫理是內在的自律的規(guī)范,既規(guī)范行為又約束意識,依靠行為主體的自覺遵守,能夠指導并影響法律規(guī)范;法律是外在的他律的規(guī)范,調整范圍僅限于倫理最低層次所規(guī)范的行為,以國家強制力為后盾,是倫理實現的保障(劉華,2002)。人工智能以倫理和法律為界已成共識。目前,我國雖然制定了人工智能相關倫理規(guī)范,卻仍沒有專門規(guī)制人工智能的法律規(guī)范。為判定人工智能與教育融合創(chuàng)新的“倫理”或“法律”界限,需要遵循“倫理先行”原則,在我國《新一代人工智能倫理規(guī)范》等政策文件中尋找倫理依據,從散見于《中華人民共和國民法典》《中華人民共和國個人信息保護法》《中華人民共和國數據安全法》《中華人民共和國未成年人保護法》等法律條文或其他規(guī)范性文件中獲得法律保障。
總之,當人工智能應用的后果難預測性,遇到教育發(fā)展的不可逆性,二者的融合創(chuàng)新就需要遵循動機溯源和后果預測的“倫理先行”思路,樹立審慎的態(tài)度,充分測算人工智能教育應用可能出現的風險,并提前做好預防與化解方案,以避免人工智能生成“可能的假象”或“客觀的謬誤”。
四、人工智能與教育融合創(chuàng)新如何做到“倫 理先行”
“倫理先行”不是對人工智能教育應用“踩剎車”,而是為人工智能賦能教育創(chuàng)新設定可行性條件,以避免盲目隨意的融合和不負責任的創(chuàng)新。當前,科技治理面臨法規(guī)政策更新緩慢、倫理審查不規(guī)范、倫理教育缺位等現實問題(宋應登等,2024),而教育治理也尚未形成統(tǒng)一的人工智能應用倫理規(guī)范(周洪宇等,2023),以致人工智能與教育融合創(chuàng)新缺少倫理路徑。從《關于加強科技倫理治理的意見》中可知,敏捷治理、倫理審查、倫理教育是倫理治理的核心內容和重要抓手。其中,敏捷治理為制定倫理政策與制度提供方法,是推進“倫理先行”的理念引導;倫理審查積極回應敏捷治理的基本要求,是落實“倫理先行”的具體方案;倫理教育重在明確行為主體的責任擔當,是實現“倫理先行”的重要保障。因此,人工智能與教育融合創(chuàng)新要實現“倫理先行”,離不開政策引導、制度保障和責任內化等策略支撐。
1.敏捷治理:“倫理先行”的政策引導
“敏捷治理”作為一種快速適應情境變化的動態(tài)治理范式,旨在彌合數字技術快速迭代發(fā)展與傳統(tǒng)政策制定的滯后性之間的矛盾(張凌寒等,2023)。從相關政策文本中可知,敏捷治理就是通過倫理風險預警和跟蹤研判,及時動態(tài)調整治理方式和倫理規(guī)范,進行分類分級管理和快速有效響應,從而靈活應對倫理挑戰(zhàn)。2019年,國家新一代人工智能治理專業(yè)委員會發(fā)布《新一代人工智能治理原則——發(fā)展負責任的人工智能》,其中提出的人工智能發(fā)展相關各方應遵循的八大原則就包括“敏捷治理”(中華人民共和國科學技術部,2019)。2021年,科技部發(fā)布《新一代人工智能倫理規(guī)范》,在管理規(guī)范部分明確指出了“推動敏捷治理”的要求(中華人民共和國科學技術部,2021)。2022年,《關于加強科技倫理治理的意見》亦明確指出要“敏捷治理”(中華人民共和國中央人民政府,2022)。2023年,中央網信辦發(fā)布的《全球人工智能治理倡議》亦包括了“敏捷治理”的內容(中央網絡安全和信息化委員會辦公室,2023)??梢?,我國在人工智能倫理治理方面不斷強調“敏捷治理”的重要作用。面對傳統(tǒng)“應對型”治理模式已無法對科技倫理風險進行源頭治理和靈活管控的問題(楊博文等,2023),敏捷治理憑借其快捷感知、快速響應等特點,為落實“倫理先行”提供了制度安排(張春美,2022)。面對人工智能的不確定性、復雜性和快速發(fā)展性,原有的人工智能教育應用相關政策不可避免會出現不完全適應的情況,因而需要及時優(yōu)化和動態(tài)調整。具體而言,對教育領域人工智能進行敏捷治理,就是要求教育主管部門等治理主體敏銳地感知人工智能與教育融合創(chuàng)新在動機、過程、結果等環(huán)節(jié)可能遭遇的商業(yè)利益驅動、學生數據泄露、發(fā)展預測性干擾、知識產權爭議等倫理風險,并快速做出前瞻分析、跟蹤研判和升級管理等行動響應,同時靈活進行政策反饋和監(jiān)管決策,并通過建立多方制衡機制、制定和更新監(jiān)管政策,以減少政策制定與教育需求的錯位,從而快速應對人工智能發(fā)展所引發(fā)的“政策衰退”問題。
當前,生成式人工智能對教育產生了前所未有的影響,亟須采取“敏捷治理”應對之。有學者主張,ChatGPT等生成式人工智能的應用引發(fā)了跨越社會正義、個人自主、文化認同和環(huán)境等重大倫理問題,需要不同利益攸關方共同參與規(guī)范制定,并在研制過程中全面考慮收益和風險,促進多層次的政策干預(Bernd et al.,2024)。還有觀點認為,生成式人工智能的敏捷治理就是將原則和政策相結合,按照“急用先立、成熟先立”的原則,保證在解決問題的同時不破壞潛在的創(chuàng)新(陳萬球,2023)。因此,為人工智能與教育融合創(chuàng)新開展敏捷治理,需要避免“一刀切”的處理方式,遵循包容審慎、鼓勵創(chuàng)新的監(jiān)管理念,創(chuàng)設事前預防與事后應對相結合的適應性治理機制。有研究者設計了教育人工智能倫理敏捷治理模型,主要包括倫理風險分析、治理目標設定、治理規(guī)則設計、治理過程實施、治理結果評價等5個步驟(王佑鎂等,2023)。實際上,“倫理先行”本身就內蘊了新技術治理政策的制定過程:明確倫理前提、開展前瞻分析、提出暫行辦法、持續(xù)修正完善。這正是敏捷治理的基本思路,體現了政府、學校、企業(yè)、學界等社會各領域通力合作以應對倫理風險的特點。例如,為應對生成式人工智能技術應用帶來的挑戰(zhàn),教育主管部門應及時協(xié)同政府、學校、企業(yè)、社會組織、家長等各方,參照《新一代人工智能倫理規(guī)范》《個人信息保護法》等的相關規(guī)定,不斷完善教育相關法律法規(guī),建立人工智能教育應用規(guī)范,制定學生和教師的數據保護機制等,以實現風險防范與政策更新相統(tǒng)一的治理目標。
總之,敏捷治理呈現了一種政策制定與更新的程序,有助于教育領域人工智能相關政策法規(guī)的不斷形成與優(yōu)化,為人工智能與教育融合創(chuàng)新實現“倫理先行”提供了政策引導,促使人工智能教育應用朝向以人為本、向善而行的發(fā)展目標不斷前行。
2.倫理審查:“倫理先行”的制度保障
為預防倫理風險的發(fā)生,在事前對人工智能與教育融合創(chuàng)新進行倫理審查尤為重要。所謂倫理審查,是指在科技創(chuàng)新方案運行之前,倫理委員會在通用倫理準則范圍內,核查創(chuàng)新方案是否合乎倫理規(guī)范,并做出批準、修改、暫停以及不批準等決定,以達到保護相關人群安全、健康和權益的目的(張春美,2021)。倫理審查是倫理治理的重要手段,是“倫理先行”的制度保障。為規(guī)范科技倫理審查工作,2023年10月,科技部等十部門聯(lián)合印發(fā)《科技倫理審查辦法(試行)》,詳細規(guī)定了包括“涉及以人為研究參與者的科技活動”在內的四類科技活動倫理審查的基本辦法(中華人民共和國科學技術部等,2023),為人工智能及其教育應用的倫理審查提供了方法指導。
對人工智能與教育融合創(chuàng)新進行倫理審查,就是由相關倫理委員會審查智能教育創(chuàng)新方案,客觀評估和審慎對待人工智能之于教育的不確定性和應用風險,盡早發(fā)現違背倫理道德的應用動機,及時阻止或糾正不合乎倫理的計劃內容,同時增強教育工作者的人工智能倫理意識,理清人工智能應用自由與法律道德禁區(qū)之間的界限,從而實現人工智能賦能教育創(chuàng)新與應用風險防范相統(tǒng)一,達到“倫理先行”的目的。例如,有學校計劃引進使用某智能教學工具,經相關倫理委員會審查后,發(fā)現該智能工具在算法設計、知識庫建設、數據處理等方面具有缺陷,存在輸出的答案不準確、不符合社會主義核心價值觀、表露出性別歧視或民族歧視等問題,不宜應用于教育教學領域,因而做出不批準的決定。
一般而言,倫理審查主要包括建設倫理審查主體和確定倫理審查方式兩個過程。首先,倫理審查的核心主體是倫理(審查)委員會。高校、科研機構、企業(yè)等作為《科技倫理審查辦法(試行)》規(guī)定的倫理審查的主要責任主體,應當及時設立教育人工智能倫理(審查)委員會,以落實“探索建立專業(yè)性、區(qū)域性科技倫理審查中心”的要求。教育人工智能倫理(審查)委員會的主要職責、工作章程、人員構成、基本要求等具體內容,可遵循《科技倫理審查辦法(試行)》的指導,根據人工智能教育應用的特點,按照專業(yè)化倫理委員會建設程序逐步進行設計。同時,在建設過程中要考慮在不同倫理審查辦法以及倫理委員會之間建立銜接和協(xié)同機制(段偉文,2024)。其次,倫理審查的具體方式由倫理(審查)委員會商議制定。倫理審查主要針對風險受益、知情同意、保護脆弱人群權益等內容進行,分為初始審查和跟蹤審查兩類。其中,前者面向的是初次參與審查的科技活動,后者是對審查批準的科技活動進行跟蹤監(jiān)督。根據程序的不同,倫理審查主要包括免除審查、加快審查和會議審查三種形式。不會帶來任何倫理風險挑戰(zhàn)的人工智能應用活動,屬于免除審查的范圍;加快審查又稱“簡易程序審查”,主要是針對倫理風險發(fā)生的可能性和程度不高于最低風險的人工智能應用活動;會議審查也稱“完全審查”,是適用性最為廣泛的一種審查方式,一般需要通過召開由審查委員會成員出席的評審會議來開展審查。
另外,《科技倫理審查辦法(試行)》還規(guī)定,經過初始審查后,對可能產生較大倫理風險的新興科技活動需要開展專家復核。這項規(guī)定應當成為教育人工智能倫理審查的重要內容。對人工智能與教育融合創(chuàng)新而言,如果人工智能存在引發(fā)較大倫理風險的可能性,比如,涉及對人類主觀行為、心理情緒和生命健康等具有較強影響的人機融合系統(tǒng)的研發(fā),或具有輿論社會動員能力和社會意識引導能力的算法模型、應用程序及系統(tǒng)的研發(fā),或面向存在安全、人身健康風險等場景的具有高度自主能力的自動化決策系統(tǒng)的研發(fā)等,都需要開展專家復核。不僅如此,倫理審查還應建立應急審查制度,這在很大程度上回應了“敏捷治理”原則??傊?,倫理審查為人工智能與教育融合創(chuàng)新作出“正確”或“最優(yōu)”的決策提供了有效的制度支持,有助于把好“倫理先行”的“方向盤”。
3.倫理教育:“倫理先行”的責任內化
人工智能的研發(fā)與應用過程包含了影響價值主體進行價值判斷和價值選擇的因素,因而需要對相關從業(yè)人員開展倫理教育。近年來,隨著生成式人工智能等新興科技的不斷發(fā)展,“重視科技倫理教育”已成社會共識。新時代的科技倫理教育必須破除技術價值中立論,培養(yǎng)學生的“倫理先行”意識(劉鵬,2022)。可見,科技倫理教育承載了規(guī)范科技行為、構建科技社會良好倫理秩序的重任,是實現“倫理先行”的重要途徑。
作為科技倫理教育的重要組成部分,人工智能倫理教育就是為人工智能相關從業(yè)者提供倫理指導,以確保人工智能技術從生產到使用的全過程都符合道德標準和社會正義原則(白鈞溢等,2024)。人工智能倫理教育秉持價值塑造、知識傳授與能力培養(yǎng)的教育理念和全面發(fā)展的教育目標,引導學生形成創(chuàng)新應用的勇氣和堅守倫理底線的良知,通過傳授價值立場、思想觀點與實踐方法等倫理知識,提升對倫理問題的識別、應對和決策能力(王碩等,2023)。一般而言,人工智能倫理教育可以通過倫理知識普及、咨詢宣傳和教育培訓等形式開展,教育內容主要包括三個方面:一是責任感教育,即通過道德兩難、價值澄清等德育方式,宣傳正確的人工智能倫理觀念,提高人們應對倫理風險的敏感性,增強人工智能場景下的倫理防護意識,強化數智社會責任感。二是規(guī)范性教育,即通過宣講規(guī)范倫理、責任倫理等基本理論和以人為本、智能向善等基本原則,引導人們理解人工智能倫理的知識體系,掌握人工智能相關從業(yè)者需要具備的職業(yè)道德和倫理職責。三是方法論教育,即通過對人工智能應用案例進行哲理論證,促使人們形成倫理問題意識,習得應對人工智能倫理挑戰(zhàn)的過程與方法,提高道德推理、倫理反思和倫理決策能力。
人工智能倫理教育主要有學校和企業(yè)兩個場域。在學校,人工智能倫理教育逐漸被視為德育體系的重要組成部分,一般通過嵌入專業(yè)課程或獨立開設專門課程的方式,面向人工智能、計算機、自動化等與人工智能密切相關的理工類專業(yè)開展教學,同時為倫理學、法學、教育學、社會學等人文社科類專業(yè)提供人工智能通識課,形成人工智能倫理學習的氛圍,并采用案例分析、情景模擬、倫理辯論等互動型教學方法,提升學生對人工智能的道德判斷能力和倫理決策能力。在企業(yè),人工智能倫理培訓作為落實科技管理主體責任的必要環(huán)節(jié),主要通過開展入職培訓和日常倫理宣傳等方式持續(xù)推進,不僅指導從業(yè)人員加強人工智能倫理自律,同時引導人工智能行業(yè)和典型應用領域形成倫理實踐指南,并將相關倫理經驗向產業(yè)鏈上下游企業(yè)進行分享,從而提升行業(yè)的倫理管理能力。另外,企業(yè)也有責任通過人工智能產品或服務等方式,引導社會公眾認識人工智能倫理風險,倡導負責任地使用人工智能。
事實上,從實施現狀來看,目前我國人工智能倫理教育發(fā)展較緩,與國家人工智能快速發(fā)展的戰(zhàn)略和形勢難以相襯(任安波等,2020)。一方面,人工智能倫理教育力度不夠,主要體現在課程建設上。有調查發(fā)現,目前國內高校開設的與人工智能倫理相關的課程非常欠缺(古天龍,2022)。因此,高校應本著“急用先建”的原則,抓緊建設人工智能等重點領域的科技倫理課程,讓立德樹人、科技向善成為教育未來發(fā)展的亮色(楊斌,2022)。另一方面,人工智能倫理培訓機制尚不成熟。尤其針對人工智能從業(yè)人員、人工智能倫理(審查)委員會成員的專業(yè)倫理培訓機制尚未建立,這嚴重阻礙了倫理治理的進度和效率。因此,高校、科研機構、人工智能相關企業(yè)等責任主體應攜手合作,組建人工智能教育與培訓共同體,積極面向學校和社會開展倫理宣傳與科普教育,擔負起人工智能倫理教育與培訓的職責。
綜上可知,人工智能倫理教育是推進人工智能治理之“倫理先行”的內在要求,也是開展人工智能與教育融合創(chuàng)新的德育基礎,有助于增強相關主體的責任意識和責任認知,為實現負責任的教育創(chuàng)新提供倫理策略。它與敏捷治理、倫理審查相輔相成,共同構成了“倫理先行”的實踐路徑。
五、研究總結
傳統(tǒng)的信息技術一般在應用階段才會產生倫理問題,而以通用大模型為代表的新一代人工智能技術則在研發(fā)和應用之初就會產生系列倫理問題,體現出明顯的倫理始涉性。目前,生成式人工智能尚未深度融入教育教學過程,但教育通用大模型已然來臨,其必將沖擊或重構現有的教育教學秩序和教育資源布局,引發(fā)更為復雜的倫理風險。要治理這些風險,必須堅持“倫理先行”的基本原則,做到“防范”與“擁護”相統(tǒng)一,準確評估生成式人工智能對教育的影響,盡早設計敏捷治Uxe2mQtf3sEOhUqkuuWfdA==理、倫理審查、倫理教育等倫理策略,提前做好通用人工智能融入教育的準備。需要警惕的是,不能把相對寬松的政策視為創(chuàng)新的“倫理優(yōu)勢”,而應當為人工智能應用探求一種將倫理價值融入到技術應用之中的復合模式,實現倫理與創(chuàng)新的協(xié)同推進(段偉文,2020)。
總之,實現人工智能與教育融合創(chuàng)新之“倫理先行”的過程,本身就預設了生成式人工智能教育應用的倫理路徑。如果缺乏“倫理先行”的辯護和論證,就難以保證智能時代教育目標的純粹性,也無法制定出教育人工智能健康發(fā)展的合理性倫理規(guī)范,更不可能對人工智能賦能教育創(chuàng)新進行有效的監(jiān)管。唯有做到“倫理先行”,打破“先融合再審視”“干了再說”的原有思路,才能建設出更有針對性的教育人工智能倫理規(guī)范體系,從而走出一條“負責任創(chuàng)新”的教育道路。
參考文獻:
[1]白鈞溢,于偉(2024).教育人工智能倫理原則的有限性及其補正——兼論“原則—美德—法律”框架[J].中國電化教育,(2):23-31.
[2]陳萬球(2023).中國生成式人工智能頂層設計的倫理視界[J].倫理學研究,(5):100-107.
[3]崔中良,盧藝(2023).國外學者關于人工智能倫理問題研究述評[J].國外理論動態(tài),(2):160-168.
[4]段偉文(2020).信息文明的倫理基礎[M].上海:上海人民出版社:256.
[5]段偉文(2022).科技倫理治理,如何倫理先行?[J].中國醫(yī)學倫理學,35(5):483-488.
[6]段偉文(2024).前沿科技的深層次倫理風險及其應對[J].人民論壇·學術前沿,(1):84-93.
[7]馮永剛,屈玲(2023).ChatGPT運用于教育的倫理風險及其防控[J].內蒙古社會科學,44(4):34-42,213.
[8]古天龍(2022).人工智能倫理及其課程教學[J].中國大學教學,(11):35-40.
[9]季衛(wèi)東,趙澤睿(2023).人工智能倫理的程序保障——法律與代碼的雙重正當化機制設計[J].數字法治,(1):57-76.
[10]金觀平(2022).科技要創(chuàng)新 倫理須先行[N].經濟日報,2022-03-26(001).
[11]雷瑞鵬,邱仁宗(2019).新興技術中的倫理和監(jiān)管問題[J].山東科技大學學報(社會科學版),21(4):1-11.
[12]酈平(2023).技術發(fā)展何以倫理先行——從第二開端共哲學視角看[J].自然辯證法研究,39(9):134-139.
[13]劉華(2002).法律與倫理的關系新論[J].政治與法律,(3):2-6.
[14]劉鵬(2022).新時代科技倫理教育的理念與實踐路徑[J].社會科學家,(11):15-20.
[15]任安波,葉斌(2020).我國人工智能倫理教育的缺失及對策[J].科學與社會,10(3):14-21.
[16]商建剛(2023).生成式人工智能風險治理元規(guī)則研究[J].東方法學,(3):4-17.
[17]尚智叢,閆禹宏(2023).ChatGPT教育應用及其帶來的變革與倫理挑戰(zhàn)[J].東北師大學報(哲學社會科學版),(5):44-54.
[18]宋華琳(2023).法治視野下的人工智能倫理規(guī)范建構[J].數字法治,(6):1-9.
[19]宋應登,霍竹,鄧益志(2024).中國科技倫理治理的問題挑戰(zhàn)及對策建議[J].科學學研究,42(8):1569-1576,1595.
[20]孫春晨(2023).應用倫理為社會治理提供實踐智慧[J].哲學動態(tài),(9):5-11,126-127.
[21]田海平(2017).倫理治理何以可能——治理什么與如何治理[J].哲學動態(tài),(12):5-14.
[22]王常柱,馬佰蓮(2023).“倫理先行”的本質內涵、現實根源及實施邏輯[J].倫理學研究,(5):108-114.
[23]王立,胡平(2017).新時期下的倫理治理理念、內涵及路徑分析[J].社會科學研究,(6):118-123.
[24]王碩,李正風(2023).科技倫理教育體系的系統(tǒng)發(fā)展觀——基于“六邊形教育模型”的探索[J].科學學研究,41(11):1921-1927.
[25]王小偉(2023).道德物化哲學的當代科技倫理啟示[J].道德與文明,(3):46-54.
[26]王彥雨,李正風,高芳(2024).歐美人工智能治理模式比較研究[J].科學學研究,42(3):460-468,491.
[27]王佑鎂,王旦,梁煒怡等(2023).敏捷治理:教育人工智能倫理治理新模式[J].電化教育研究,44(7):21-28.
[28]吳砥,李環(huán),陳旭(2023).人工智能通用大模型教育應用影響探析[J].開放教育研究,29(2):19-25,45.
[29]楊斌(2022).加快推進高??萍紓惱斫逃齕N].光明日報,2022-05-10(013).
[30]楊博文,孫永軍(2023).理性賦能與向善賦權:科技倫理風險預警與敏捷治理體系的建構進路[J].科學技術哲學研究,40(4):122-128.
[31]楊舒(2022).科技向善,倫理先行[N].光明日報,2022-03-24(016).
[32]張春美(2021).負責任研究創(chuàng)新的生成邏輯及其實踐[J].上海師范大學學報(哲學社會科學版),50(3):35-43.
[33]張春美(2022).讓創(chuàng)新更有溫度,加強科技倫理治理正當其時[N].文匯報,2022-03-27(008).
[34]張敬威(2023).ChatGPT的教育審思:他異關系技術的教育挑戰(zhàn)及應用倫理限度[J].電化教育研究,44(9):5-11,25.
[35]張凌寒,于琳(2023).從傳統(tǒng)治理到敏捷治理:生成式人工智能的治理范式革新[J].電子政務,(9):2-13.
[36]中華人民共和國教育部(2024).2024年世界數字教育大會“人工智能與數字倫理”平行會議舉行[EB/OL]. [2024-04-01].http://www.moe.gov.cn/jyb_xwfb/xw_zt/moe_357/2024/2024_zt02/pxhy/pxhy_znll/pxhy_znll_mtbd/202402/t2024
0201_1113906.html.
[37]中華人民共和國科學技術部(2019).發(fā)展負責任的人工智能:新一代人工智能治理原則發(fā)布[EB/OL].[2023-06-17].https://www.most.gov.cn/kjbgz/201906/t20190617_147107.html.
[38]中華人民共和國科學技術部(2021).《新一代人工智能倫理規(guī)范》發(fā)布[EB/OL].[2021-09-26].https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html.
[39]中華人民共和國科學技術部等(2023).關于印發(fā)《科技倫理審查辦法(試行)》的通知[EB/OL].[2024-04-01].https://www.most.gov.cn/xxgk/xinxifenlei/fdzdgknr/fgzc/gfxwj/gfxwj2023/
202310/t20231008_188309.html.
[40]中華人民共和國中央人民政府(2022).中共中央辦公廳 國務院辦公廳印發(fā)《關于加強科技倫理治理的意見》[EB/OL].[2024-04-01].https://www.gov.cn/zhengce/2022-03/20/content_5680105.htm.
[41]中央網絡安全和信息化委員會辦公室(2023).全球人工智能治理倡議[EB/OL].[2023-10-18].http://www.cac.gov.cn/2023-10/18/c_1699291032884978.htm.
[42]周洪宇,李宇陽(2023).生成式人工智能技術ChatGPT與教育治理現代化——兼論數字化時代的教育治理轉型[J].華東師范大學學報(教育科學版),41(7):36-46.
[43]Akgun, S., & Greenhow, C. (2022). Artificial Intelligence in Education: Addressing Ethical Challenges in K-12 Settings[J]. AI and Ethics, 2:431-440.
[44]Bernd, C. S., & Damian, E. (2024). The Ethics of ChatGPT - Exploring the Ethical Issues of an Emerging Technology[J]. International Journal of Information Management, 74(2):1-14.
[45]Cabrera, L. Y., & Weber, D. J. (2023). Rethinking the Ethical Priorities for Brain-Computer Interfaces[J]. Nature Electronics, 6(2):99-101.
[46]Chokri, K. (2023). Chatbots in Education and Research: A Critical Examination of Ethical Implications and Solutions[J]. Sustainability, 15(7):5614. DOI:10.3390/su15075614.
[47]Koniakou, V. (2023). From the “Rush to Ethics” to the “Race for Governance” in Artificial Intelligence[J]. Information Systems Frontiers, 25(2):71-102.
[48]Paola, R. (2022). Ethics for the Majority World: AI and the Question of Violence at Scale[J]. Media, Culture & Society, 44(4):726-745.
[49]Ryan, M. (2020). In AI We Trust: Ethics, Artificial Intelligence, and Reliability[J]. Science and Engineering Ethics,26(5):2749-2767.
[50]Sebastian, K., Andreas, O., & Matthias, U. (2023). ChatGPT’s Inconsistent Moral Advice Influences Users’Judgment[J]. Scientific Reports,13(6):1-5.
[51]Stix, C. (2021). Actionable Principles for Artificial Intelligence Policy: Three Pathways[J]. Science and Engineering Ethics, 27:1-17.
[52]UNESCO (2021). Draft Text of the UNESCO Recommendation on the Ethics of Artificial Intelligence[EB/OL].[2021-06-25]. https://unesdoc.unesco.org/ark:/48223/pf0000378426?posInSet=1&queryId=7c60380f-8115-4d66-b96c-e62a07c639ee.
[53]Zapata, F. A. (2022). Cognitive Priority Over Ethical Priority in Artificial Intelligence: The Primordial Philosophical Analysis in Artificial Intelligence[J]. Philosophy International Journal, 5(4):1-10.
Why the Priority of Ethics Is Emphasized in the Integration and Innovation of Artificial
Abstract:In the era of general large model, the application of generative artificial intelligence in education has continuously created a variety of new ethical communication and moral life scenes, which has become the focus of ethical governance of artificial intelligence in education. Priority of ethics is the first principle of ethical governance, which embodies the basic contents including risk foresight, motivation traceability and consequence prediction. This principle can not only provide conceptual guidance and goal orientation for the integration and innovation of artificial intelligence and education, but also play an important role in regulating and restraining the practice of educational innovation in intelligent environment. Therefore, priority of ethics is the indispensable principle for the integration and innovation of artificial intelligence and education, which is not only the basic ethical demand of artificial intelligence plus education, but also the inevitable choice for educational goals to dominate technical means. To achieve this ethical goal is inseparable from the support of agile governance concept, ethical review scheme and ethical education means. In detail, agile governance highlights the characteristics of rapid response and intelligent decision making in empowering educational innovation with artificial intelligence, which helps to continuously update and optimize relevant policies and regulations. Ethical review focuses on preventing and controlling educational ethical risks caused by artificial intelligence, providing institutional support for the direction of good educational governance. Ethical education for the practitioners and educators in the field of artificial intelligence can enhance the ethical literacy by internalizing the sense of responsibility. The three ethical strategies complement each other and form an ethical practice pattern involving multiple parties such as government management departments, school institutions, subjects of scientific research and innovation and relevant social groups, guided by policies, guaranteed by institutions, and internalized with responsibilities. This process also leads to an ethical path for the application of generative artificial intelligence in education.
Keywords: Generative Artificial Intelligence; Application of Artificial Intelligence in Education; Educational Innovation; Priority of Ethics; Ethical Governance; Ethical Path