国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能之于教育決策的主體性信任危機及其規(guī)避

2023-05-30 17:18孫立會
電化教育研究 2023年3期
關(guān)鍵詞:信任危機人工智能

[摘 ? 要] 人工智能為教學注入新生力量的同時也引發(fā)了諸多反思。算法偏見、隱私侵犯及情感忽視觸發(fā)了智能教育中人機信任危機,進而導致決策自主權(quán)虛置。人工智能教學決策中應(yīng)凸顯“人”之主體性,建立由教師信心主導的決策模式能幫助教師掙脫技術(shù)中心的拜物主義泥沼,實現(xiàn)決策獨立場,并釋放錯誤歸因的心理枷鎖,堅守教學主體責任,同時發(fā)揮教學的感通性,降低智能情感依賴。班杜拉三元交互決定論為教師決策效能的影響要素解構(gòu)提供了分析框架,教師智能認知誤區(qū)和職業(yè)危機感主導了信心機制的建立,自身行為的成敗及替代經(jīng)驗連接著教學的信心與行為。人—機—智能情境因素各主體的能量轉(zhuǎn)移影響著系統(tǒng)的和諧交互。由此,從技術(shù)主體、關(guān)系維系與機制保障三層面設(shè)計教學決策中“人”之主體性的實現(xiàn)路徑,建立解釋與理解雙向發(fā)展的智能教育體系,著力塑造人—機—情境協(xié)同共生的智能教學互信生態(tài),并不斷完善智能決策倫理的法律法規(guī)制度建設(shè),重啟人工智能教育信任機制。

[關(guān)鍵詞] 人工智能; 教學決策; 信任危機; 主體自信

[中圖分類號] G434 ? ? ? ? ? ?[文獻標志碼] A

[作者簡介] 孫立會(1985—),男,吉林白城人。副教授,博士,主要從事人工智能教育研究。E-mail:sunlh777@163.com。

一、引 ? 言

人工智能的發(fā)展歷經(jīng)數(shù)次搖曳與停擺,但眾多研究者對圖靈預(yù)設(shè)的機器智能的追求從未停滯。2016年,AlphaGo擊敗李世石重啟了人工智能熱潮?,F(xiàn)今,人工智能所涵蓋的深度神經(jīng)網(wǎng)絡(luò)、自主計算、機器感知等關(guān)鍵算法使得機器具有了超強的“類人”智能性,由此也引發(fā)了人類對人工智能應(yīng)用中人的價值理性與機器的工具性之間主體地位的深刻反思,其根本則是人工智能與人之主體之間的“信任”問題。伴隨智能教學應(yīng)用的普及,智能教學決策中的信任危機也受到研究者們普遍關(guān)注,如何在智能教學中精準決策、規(guī)避風險,以發(fā)揮人工智能技術(shù)在教育應(yīng)用中的最佳教學效果成為技術(shù)研發(fā)者和教學實施者們的一致追求。目前研究多將智能教學應(yīng)用中的各類問題歸咎于數(shù)據(jù)算法,以至于不斷追求突破技術(shù)限度,包裝美化智能機器決策可信度“外衣”,卻普遍忽視了“人”在教學決策中的決定性作用,尤其是教學主體“人”在決策中獨立于智能機器之外的自我信心這一心理過程要素的作用。因此,探索教師在智能教學決策中自信心形成的心理機制是未來人工智能教學應(yīng)用發(fā)展的核心議題。

二、問題導向:人工智能教育應(yīng)用中

信任危機的觸發(fā)

人工智能賦能教學的同時,也引發(fā)了對其應(yīng)用后果的深刻反思。正如斯蒂芬·威廉·霍金(Stephen William Hawking)所言:創(chuàng)造人工智能的成功將是人類歷史上最大的事件。不幸的是,也可能是最后一次,除非我們學會如何規(guī)避風險。人與人工智能間的交互效果由“信任”介導,應(yīng)用過程中出現(xiàn)的算法問題卻觸發(fā)了教學決策的信任危機。

(一)技術(shù)危機:算法偏見導致教學決策失衡

人工智能以數(shù)據(jù)、算力和算法為三大基本要素,算法是系統(tǒng)運行的核心遵循。算法如今以多種形式影響著人類生活的方方面面,并在教學實踐中實現(xiàn)了廣泛應(yīng)用,如輟學預(yù)警系統(tǒng)、作業(yè)自動化評分系統(tǒng)、招生數(shù)據(jù)采集系統(tǒng)等。伴隨人工智能技術(shù)在教育中應(yīng)用的不斷深入,系統(tǒng)中由于算法偏見導致教學決策失衡的問題引發(fā)了普遍重視。算法偏見是指在算法開發(fā)和應(yīng)用中,開發(fā)設(shè)計人員將自身和社會偏見集成到數(shù)據(jù)采集和處理過程中,進而產(chǎn)生了對特定群體的歧視和偏見性的預(yù)測或推論[1]。教育人工智能系統(tǒng)的算法偏見設(shè)計體現(xiàn)種族、國別和性別偏見等諸多方面。有研究表明,畢業(yè)預(yù)測模型算法面對不同種族學生的預(yù)測效果存在差異,該模型對白人學生的誤報率較低,而對拉丁裔學生的誤報率較高[2];自動化評分系統(tǒng)相較于教師人工評分更具高效性,但卻被發(fā)現(xiàn)其對白人和非裔美國學生的評分更加準確[3];性別引發(fā)的偏見同樣存在于人工智能教學系統(tǒng)中,如有研究報告了用于預(yù)測學生課程通過率的算法系統(tǒng)對男生的預(yù)測效果較差[4]。無論互聯(lián)網(wǎng)絡(luò)時代的“信息繭房”還是當今智能浸潤時代的“過濾泡”,無不體現(xiàn)算法對人認識真實完整世界的認知“窄化”,算法需求取向的智能推送是對“人”之主體性價值選擇權(quán)的嚴重挑戰(zhàn)。智能系統(tǒng)的算法發(fā)展如何,其都是數(shù)據(jù)結(jié)果的計算、排除和呈現(xiàn)方式的上位規(guī)劃,更是技術(shù)構(gòu)建者價值觀的客觀反映,“人”在與智能系統(tǒng)算法交互中的“任其發(fā)展”與“自我放棄”造成了算法偏見,也由此成為觸發(fā)人工智能教育系統(tǒng)決策信任危機的動因之一。

(二)倫理危機:隱私侵犯引發(fā)道德決策風險

個性化學習、自動化評估及監(jiān)督管理系統(tǒng)為教育教學帶來科學性和便利性的同時,也引發(fā)了人工智能教學應(yīng)用的倫理和道德省思。智能教學系統(tǒng)將師生置于馬克·波斯特(Mark Poster)所說的“超級全景監(jiān)獄”之下[5],一切的學習和教學行為活動數(shù)據(jù)都變得開放透明而無所遁形。教育數(shù)據(jù)的開放共享是打破信息孤島、數(shù)據(jù)壟斷等問題壁壘,助推精準決策的基礎(chǔ)要素,但數(shù)據(jù)開放隨之帶來的便是個人信息過度暴露造成的隱私侵犯等問題。學生和教師隱私保護問題是目前圍繞中小學人工智能教學應(yīng)用的倫理隱患之一。目前,智慧校園建設(shè)中的人臉識別技術(shù)服務(wù)于宿舍、圖書館和課堂出勤等日常教學生活管理,精準記錄學生的學習時長和活動時間;更有智慧課堂行為管理系統(tǒng)分析學生學習行為(閱讀、舉手、書寫、起立等)以及情緒狀態(tài)(高興、傷心、憤怒)以判斷和分析學生的學習模式[6]。這些數(shù)據(jù)使用得當可以便利教學,但如若未能得到有效的管理和規(guī)范的準則約束便會造成對學生隱私的侵犯,而學校普遍默認學習數(shù)據(jù)使用的知情同意權(quán),并且也多忽視考慮教學監(jiān)控和跟蹤中學生表現(xiàn)失真和不安情緒等問題。由此看來,隱私侵犯問題的實質(zhì)是人工智能過度“入侵”學習者個人空間而使其產(chǎn)生擔心領(lǐng)域“失守”的心理狀態(tài),而這種“想使用但又怕受到傷害”的心理勢必會埋下人與人工智能之間“懷疑的種子”,造成智能教學決策的信任危機。

(三)情感危機:情感交互忽視造成認知決策偏差

人工智能教育應(yīng)用以其對教學與管理中數(shù)據(jù)的全面挖掘和客觀分析而被視為科學教學決策的保障,但“冰冷”的數(shù)字和機器是否能代表教學本質(zhì)委實需要長期的實踐考量,人工智能在教學中的應(yīng)用多表現(xiàn)為幫助師生完成“功能性”的任務(wù),而忽視了師生“情感”領(lǐng)域的信息,尤其對智能環(huán)境中師生間情感交互問題的關(guān)注。情緒和情感是人對客觀外界事物態(tài)度的主觀體驗和相應(yīng)的行為反應(yīng),表明了主體需要與客觀外界事物間的關(guān)系,由個體主觀體驗、面部、姿態(tài)和語調(diào)表情等外部表現(xiàn)及呼吸、心跳、血液循環(huán)和皮膚電反應(yīng)等生理喚醒作為其具象化體現(xiàn)。智能教學機器遵循上述原則設(shè)計算法通過捕捉學習者生理和行為信息以解釋學習者實時的情感體驗。如利用神經(jīng)網(wǎng)絡(luò)模型捕捉學生面部生理表情以分析學生課堂中的情緒反應(yīng),并與教師相應(yīng)時段的教學內(nèi)容相聯(lián)系以對教學效果作出研判與改進[7]。近來興起的情感計算研究則試圖創(chuàng)建一種能感知、識別和理解人的情感,并能針對人的情感作出智能、靈敏、友好反應(yīng)的計算系統(tǒng)[8]。單向度的情感識別和分析缺乏對教學主體交互的關(guān)注,情緒可以被捕捉,但情感卻難以被計算?;蛟S這正如“莫拉維克悖論”所喻:對人工智能系統(tǒng)而言,高級推理需要的計算量反而少于低級無意識認知。教學活動作為一種鮮活的生命體驗盡顯無意識的“細節(jié)之美”,師生互動中所表現(xiàn)出的關(guān)懷、尊重、信任、同理和共情等真實的情感流露是否能通過系統(tǒng)“計算”出來目前還未十分明確,這也導致了人機教學決策中的信任危機。

三、視角轉(zhuǎn)向:智能教學決策中“人”之主體

自信的建立何以必要

機器“智能化”精度的不斷升級同時也助推教學中人向“機械化”執(zhí)行者的角色轉(zhuǎn)變。究其根本,人工智能教學決策中信任危機的產(chǎn)生源于人對人工智能的信任和人工智能可信度的錯位匹配。人對人工智能的信任隨著智能體在教學決策中的功能性表現(xiàn)而動態(tài)改變,從而使教師產(chǎn)生對智能輔助決策的信任程度的預(yù)判,并受此影響可能產(chǎn)生錯誤歸因的惡性循環(huán)。智能教育應(yīng)用的“虛幻”迷局中,教師與機器的交互關(guān)系是其本質(zhì)所在,信任作為一個中觀概念,一個方向連接“人”的微觀心理活動,另一個方向連接宏觀智能環(huán)境,使得教學決策的責任左右搖擺,而要發(fā)揮人工智能教學的優(yōu)勢則必須將責任天平擺向“人”,人要學會在“糾纏”的人機關(guān)系中獨善其身,發(fā)揮人之獨立體信心之源的決策,以此彰顯教學決策中教師“人之為人”的必要性和價值所在。

(一)從場依賴到場獨立:掙脫拜“物”主義的泥沼

化解人工智能教學決策危機,教師應(yīng)當實現(xiàn)從智能體依賴型決策到依靠主體信心決策方式的轉(zhuǎn)向,即對教學效果的預(yù)判不應(yīng)由智能機器的工具理性決定,而教師需要具備的是:無論智能機器預(yù)測效果的好壞,都能有信心、有能力從人的“價值理性”的向善維度把控教學全局,作出精準的抉擇與判斷。正如赫爾曼·威特金(Herman A.Witkin)所提出對“場獨立”和“場依存”兩類認知方式的區(qū)分。場依存型傾向于以外界參照作為內(nèi)部信息加工依據(jù),場獨立型學習者的內(nèi)部信息加工較少受外界參照物的影響。同樣,“場依存”的教學決策者在智能教育情境中普遍存在。人類模擬復(fù)制人的思考方式而創(chuàng)造了人工智能,而在應(yīng)用中卻深陷于其影響“無法自拔”,在自身不自知的情況下認知和思維方式受到“鉗制”,以至于形成拜“物”主義傾向。教師在智能環(huán)境中的教學決策判斷亦是如此,研究顯示,教師對人工智能的信任會隨著智能機器的性能動態(tài)演變,即人工智能系統(tǒng)表現(xiàn)好,教師對其信任無變化,但如若其表現(xiàn)不好,則對其信任程度急劇下降,并其信任程度會隨著智能機器的表現(xiàn)下降而持續(xù)下降[9],這種“以物悲喜”的信任決策心理機制將會嚴重制約教師自身的教學判斷。由此看來,掙脫智能機器之“物”的治理泥沼,以教師自身信心為目標,建立場獨立性教學決策機制勢在必行。

(二)從責任外推到責任歸位:釋放錯誤歸因的心理枷鎖

技術(shù)輔助課堂教學的責任歸屬問題從未像人工智能在教學中的應(yīng)用這般飽受熱議,試想傳統(tǒng)的信息技術(shù)輔助課堂教學,教師幾乎不會將課堂中的教學問題歸咎于教學課件和媒體資源,但這種責任歸因方式對于人工智能教學應(yīng)用則不再成立。面對教學智能體,教師似乎更加容易心安理得地將教學責任外推。安德烈亞斯·馬蒂亞斯(Andreas Matthias)指出,這可能是因為人工智能系統(tǒng)的使用者無法預(yù)測其運行后果,甚至無法干涉其運行[10]。誠然,人工智能系統(tǒng)的“類人”設(shè)計原則以及訓練數(shù)據(jù)的分布不同使得其行為更具自主性和不可解釋性,更有研究者聲稱人工智能系統(tǒng)的自主性已足以達到將其視為與人類同等程度的道德主體[11],但這種放棄自身責任主體地位的想法無疑是可怕的,更加容易使教師在決策中迷失自我,產(chǎn)生不當責任歸因進而影響后續(xù)的教學動機與行為。如研究表明,教師如接受人工智能的建議得到積極反饋,則教師對人工智能的信任增強,自信心沒有變化;拒絕人工智能得到積極反饋,則對人工智能信任下降,自信心提升,但教師對人工智能的信任程度并不會影響教師接受或拒絕人工智能的決定,真正具有決定意義的則是教師在決策中自身的信心[9]。借用伯納德·韋納(B.Weiner)歸因理論中的“三維度模型”,人工智能教學決策中教師主體自信心作為內(nèi)部可控不穩(wěn)定性因素更加有利于教師教學決策。

(三)從情感依賴到情感獨立:厚植“人之為人”的感通性

教師的個人情感是建立對人工智能信任的原初認知,目前大多關(guān)于人工智能信任的研究集中于從認知方式入手提高使用者的信任程度,而對情感因素在信任決策中的作用機理少有探討。人類對類人機器的依戀問題是影響人機交互系統(tǒng)中信任建立的關(guān)鍵。情感心理學認為,人在責任和壓力環(huán)境下會本能產(chǎn)生“轉(zhuǎn)嫁”心理,使得人們更可能將自主和智能特性“投射”于機器之上,在其內(nèi)心建立依戀紐帶,進而產(chǎn)生“同行安全感”和“責任共擔感”,以緩解和減輕教學焦慮[12]。人對人工智能的過度情感依賴問題是以智能機器行為導向決策的主要表現(xiàn)形式,同時過度的情感依賴容易導致“討好型人格”的形成。于全景式的教學監(jiān)控之下,師生難免產(chǎn)生迎合心態(tài),粉飾自身行為以符合既定算法標準,甚至養(yǎng)成“表演型人格”[13],使得教師在教學決策中“迷失”自我。人工智能研究和發(fā)展即使再進一步深入,其根本原則依舊是數(shù)據(jù)、算法上的擇優(yōu),而非情感、道德的選擇,人機交互中人得以凸顯出來的依舊是人的心性特點[14]。因此,亟須建立以教師主體自信導向的決策心理機制,實現(xiàn)從人對智能體情感依賴到情感獨立的轉(zhuǎn)向,發(fā)揮“人之為人”的感通性,在教學決策中以教師個人信心為中心連接和互動,以體現(xiàn)人工智能輔助教學中人的“切身參與性”和“實踐主體性”。

四、要素解構(gòu):智能教學決策中

“人”之主體自信發(fā)生機制

智能教學環(huán)境中,教師信心主導的獨立教學決策在行為上體現(xiàn)為教師個體對其是否有能力完成某一行為所進行的判斷,同樣也是個體自我效能的一種表現(xiàn)。自我效能現(xiàn)象作為班杜拉社會學習理論中三元交互決定論的經(jīng)典內(nèi)容,正是社會學習理論對人的主體因素及作用機制的有效彰顯與對人性及因果決定模型的理智把握。三元交互決定論中對環(huán)境、行為與人的主體因素對自我效能的影響為我們提供了剖析智能教學決策中人之主體自信發(fā)生機制的解構(gòu)框架。

(一)個人主體因素的主導:認知誤區(qū)和職業(yè)危機感

影響智能教學中教師決策信心之“人”的主體因素指教師在使用智能技術(shù)輔助教學的過程中的個體認知及情感的內(nèi)部心理變化,而教師對人工智能的認知和情感體驗對其把握教學節(jié)奏,實現(xiàn)精準教學預(yù)判具有決定性作用。教師對課堂教學中智能系統(tǒng)科學理性認知是其決策自信的基本前提,目前部分教師對人工智能及教學應(yīng)用存在認知誤區(qū),影響了其是否接受利用人工智能系統(tǒng)開展教學,這種認知誤區(qū)主要表現(xiàn)在對人工智能的概念和功能層面的誤解。人工智能的表層意蘊為其披上了“類人智力”的外衣,并使其擁有了“超級計算”的屬性,這同時也在心理為其樹立了“強大且神秘”的形象,從而可能會致使教師產(chǎn)生“過度崇拜”的盲目信任或“恐懼擔憂”的拒絕使用兩類極端反應(yīng)。人工智能教育應(yīng)用并沒有如此高端神秘,作為教學資源、輔助管理、批改作業(yè)、智能答疑等功能性程序系統(tǒng),早已滲透至學習的各個層面。因此,排除教學者對人工智能的認知障礙是教師信心建立的基本前提,但無論人工智能發(fā)展程度幾何,使用者應(yīng)警惕的永遠是其智能的“靈魂”,而非機器的“外殼”。

教師于智能環(huán)境中的情感狀態(tài)也制約其決策自信心的建立[15]。人工智能技術(shù)“先入為主”、高效精準的特征使教師在與之交互中也不斷萌生對自身教學地位的隱憂,從而產(chǎn)生未來被人工智能所取代的職業(yè)危機感。危機感產(chǎn)生于教師內(nèi)心“失蹤”的安全感,安全感的缺位恰是教師自身不自信的重要表現(xiàn)。究其根本,筆者認為,此境遇是人工智能教育應(yīng)用場景中教師主體的“錯位比較”造成,以人的“有限性”去對抗人工智能的“無限性”,從而放棄了教育中對人主動權(quán)的“自守”。如與人類教學執(zhí)行者相比,人工智能系統(tǒng)的快速存儲和海量資源傳遞以及重復(fù)機械性教學行為操作和“不知疲倦”的監(jiān)督管理等功能確實具有不可比擬的優(yōu)越性。但教師于教育語境中觸及心靈善美的追逐與求真探索的深切體驗之“道”的地位是目前智能應(yīng)用之“器”難以企及的,即從教師心靈層面生發(fā)的對教學對象的影響是其永不湮滅、恒久不斷的使命所在。由此看來,即使生理意義上的人存在被徹底還原的可能,但哲學意義上人類的心靈不可能被徹底還原,秉承著人工智能的教學應(yīng)用應(yīng)當只是“代具”而非“代替”[16],在教學中“借力”而非“依賴”人工智能是自我決策信心建立的心理基礎(chǔ)。

(二)行為效果因素的連接:自身行為的成敗及替代經(jīng)驗

三元交互決定論中的行為因素指的是個體在環(huán)境因素和主體人因素的作用下進行的活動,分為實際行為和潛在行為。實際行為一般指個體親身參與的活動及產(chǎn)生的延遲影響效應(yīng);潛在行為可理解為個體心理及學習的行為準備及受先驗邏輯和榜樣示范作用主導的心理傾向,將其投射到影響智能環(huán)境中教師決策信心的影響因素可分為教師主體與人工智能交互活動的成敗經(jīng)驗及觀察榜樣行為的替代性經(jīng)驗。教師個體在人機交互教學中個人活動行為的成敗經(jīng)驗這一效能信息源對其自身決策信心建立的影響最大。換言之,成功經(jīng)驗會提升效能期望,反復(fù)的失敗經(jīng)驗則會降低個體的效能期望。由是,教師與人工智能教學系統(tǒng)的交互積極性“初體驗”十分重要。與此同時,教師對人工智能教學失敗經(jīng)驗的正確歸因也是決策信心建立的有效保障。積極的歸因方式應(yīng)將成功歸因于教師內(nèi)部因素,增加教師智能教學中的自我價值認同;同時善于將失敗歸于外因,減少責任負擔感,達到信心自我保護機制建立的目的。

榜樣行為的替代經(jīng)驗也是影響教師決策信心建立的因素之一。人行為的效能期望大多來源于觀察他人的替代性經(jīng)驗,即教師觀摩和借鑒示范者的成功經(jīng)驗,以幫助建立成功把控人工智能教學及獨立決策的信心,而這一行為結(jié)果與教師群體間的經(jīng)驗交流方式密切相關(guān)。教師在“經(jīng)驗遷移”的過程中需審慎的關(guān)鍵環(huán)節(jié)即注意將自身真實的教學情境與榜樣示范的問題模式及情境框架進行遷移比較。同時,替代性經(jīng)驗幫助決策時還應(yīng)充分考量兩方面因素的干擾效應(yīng):一則是“易得性心理偏差”的干預(yù),即人們總是傾向于作出容易的決定而非有價值的決定,這與該經(jīng)驗相關(guān)的認知提取的難易程度相關(guān),如教師在教學觀摩中的感官體驗與參與程度決定了其是否會認同并復(fù)制這一教學行為,同時觀摩活動與自身的聯(lián)系程度及熟悉程度也會影響教師對人工智能的選擇和使用;二則應(yīng)防范的是觀察替代性經(jīng)驗的成功與否而非切身體驗可能會使教師對人工智能教學應(yīng)用產(chǎn)生“先入為主”的心理體驗,教師可能從內(nèi)心分化出抵觸和排斥人工智能的意志情感,并主觀弱化與人工智能之間的連接,使得教師和人工智能產(chǎn)生非教育性疏離感,從而使教師產(chǎn)生對技術(shù)教學應(yīng)用的消極心理體驗和被無用感、無價值感等低落心境所支配的被動技術(shù)應(yīng)用行為[17],這同樣會限制教師主體決策自信的發(fā)生與建立。因此,替代性經(jīng)驗的觀察學習應(yīng)謹記個體并非從經(jīng)驗行為中學習,而是通過對經(jīng)驗的反思性建設(shè)而學習。

(三)智能環(huán)境因素關(guān)系轉(zhuǎn)移:人、機、環(huán)境三者交互能量的“此消彼長”

三元交互決定論指出,人同時是環(huán)境的產(chǎn)物和營造者[18]。主體人作為環(huán)境的營造者,通過自身的選擇定義環(huán)境,并通過自身的行為來改變環(huán)境。行為、人和環(huán)境因素相互連接并相互作用以產(chǎn)生影響,“交互”體現(xiàn)了事物之間的相互作用,而“決定”則表現(xiàn)為“事物間交互影響的產(chǎn)物”。由此,筆者認為在智能教育情境中,“環(huán)境”應(yīng)當被看作是一種人機與周圍環(huán)境“關(guān)系”的具體體現(xiàn),這種關(guān)系則由教學生態(tài)中三者之間的交互活動所決定,不同情境的交互體現(xiàn)了三者關(guān)系網(wǎng)絡(luò)中能量的“轉(zhuǎn)化和遷移”。教師如何有效地適應(yīng)和處理不同人工智能教學情境關(guān)系網(wǎng)絡(luò)中各主體間能量的“此消彼長”是其決策信心發(fā)生和建立的關(guān)鍵,即教師主體在智能教學環(huán)境中應(yīng)找準自身定位,處理好與學生和人工智能兩類“環(huán)境”之間的關(guān)系。技術(shù)“入駐”教育引發(fā)了教學的主體性功能之“辯”,而智能技術(shù)因其“智化”特征,在處理其關(guān)系中還應(yīng)審慎考量倫理責任之“思”。教師與智能技術(shù)的關(guān)系處理是其主體決策自信建立的邏輯起點。人工智能教育環(huán)境中,教師只有堅守本心,杜絕教學自主決策權(quán)的“放逐”與“讓渡”,才是規(guī)避風險有效決策的肯綮之所在。

師生關(guān)系問題同樣也是影響教師決策自信建立的主要因素之一。智能教學環(huán)境中阻礙教師決策自信機制建立的師生關(guān)系問題呈現(xiàn)出“松散和緊密”兩極分化的狀態(tài)?!熬o密”一面表現(xiàn)為過度“讓渡”,即智能的加入使教師角色可有可無。如學生通過人工智能自適應(yīng)學習系統(tǒng)開展自主學習,并基于對自身知識儲備、學習風格和認知發(fā)展的反饋及時調(diào)整自身狀態(tài),并且智能系統(tǒng)也通過“學習”實現(xiàn)對資源更加精準的匹配與推薦。此學習形式從目標確定、內(nèi)容選取及學習評價過程全程都無需教師參與,教師教學耳濡目染的言行示范和潛移默化的支持教導退出了教學舞臺,從而造成了教學中師生的“角色失位”[19];“緊密”的另一面則表現(xiàn)為過度“控制”,智能語言、圖像和行為識別能夠采集并分辨學生的各類學習狀態(tài),這意味著學生學習的一言一行與變化發(fā)展都在教師的嚴密掌控之下,使師生演化為絕對的“施控者”和“受控者”,使教學中師生交互的分寸和界限逐漸模糊,更甚者弱化了教育教學的價值。因此,教師在智能教學中有效決策和信心建立的“環(huán)境”保障是良好師生關(guān)系的建立與維系,這種良好關(guān)系建立的前提應(yīng)重點關(guān)注教學中師生的情感交流與表達,挖掘教學中師生間有“溫度”的互動關(guān)系,加強師生主體間的對話交流,以營造和諧共生的師生關(guān)系環(huán)境。

五、信任重啟:智能教學決策“人”之主體

自信建設(shè)機制

智能教學環(huán)境需要培育以自身信心為主導的優(yōu)秀決策者,堅守教學的教育性為基本準繩,凸顯決策中“人”的主體性作用:應(yīng)從技術(shù)共生的視角切入,建立“解釋與理解”雙向發(fā)展的智能技術(shù)體系,并考量人、機、環(huán)境三者和諧互生的關(guān)系網(wǎng)絡(luò),不斷完善智能決策機制的外部建制保障,實現(xiàn)頂層規(guī)劃與整體布局,重啟人機交互中的信任機制。

(一)技術(shù)共生:建立“解釋與理解”雙向發(fā)展的智能教育體系

智能教學環(huán)境中突出人之主體自信在決策中的重要作用,建立由教師主導的決策信心機制的首要前提是建立人工智能的“主動解釋”和人類教師“主動理解”雙向發(fā)展的教學體系。不可否認,智能體作為教師的首要互動對象,其數(shù)據(jù)基礎(chǔ)和算法程序的不斷精細化發(fā)展,對加強人機信任程度,實現(xiàn)更加精準的教學決策有著重要意義。技術(shù)開發(fā)者應(yīng)不斷推動并追求可解釋性人工智能的發(fā)展。已有研究表明,信任與人工智能的可解釋性呈現(xiàn)積極的正相關(guān),算法的透明度所反映的基本操作規(guī)則和內(nèi)部邏輯在信任機制的建立中至關(guān)重要[20]??山忉屝躁P(guān)系建立的訴求與人工智能的算法“黑箱”效應(yīng)對應(yīng),人工智能應(yīng)用系統(tǒng)的最大難題即系統(tǒng)使用者甚至程序開發(fā)者都難以對系統(tǒng)輸入和輸出數(shù)據(jù)中間內(nèi)部算法的工作機制有著絕對精準的把握,尤其對于無監(jiān)督學習無法提供訓練數(shù)據(jù),機器通過聚類發(fā)現(xiàn)數(shù)據(jù)中心的相似群自行“學習”,從而使得其輸出結(jié)果更具不確定性。多數(shù)教學工作者更是對人工智能的原理處于“一無所知”的狀態(tài),此過程中產(chǎn)生的問題很容易被歸咎為算法的不透明性及機器數(shù)據(jù)自我訓練的未知性??山忉屝匀斯ぶ悄艿哪繕吮闶鞘瓜到y(tǒng)的預(yù)測和行為更易被理解,其在因果關(guān)系推理層面的突破成為破除人工智能算法“黑箱”壁壘的關(guān)鍵。智能系統(tǒng)模型大多基于相關(guān)關(guān)系展開決策分析,而沒有揭示對象屬性間的因果機理,因此,積極推動發(fā)展基于反事實推理的因果表征學習關(guān)系可能是人工智能技術(shù)發(fā)展的破局之作。

人工智能“可解釋性”的發(fā)展也意味著其“可理解性”的增強,人機關(guān)系的建立表現(xiàn)為機器向人靠攏,由“智”趨向“人”的一側(cè)。教師也應(yīng)向人工智能“主動奔赴”,積極加強對人工智能技術(shù)的學習和理解,形成人機雙向接近的互動生態(tài),以此建立對主體人決策信心的保障支持。研究顯示,支持智能技術(shù)的可靠性和使用者的能力是人與人工智能信任發(fā)展的兩個重要維度,其中,人對智能系統(tǒng)的理解成了制約兩者對人工智能信任影響關(guān)系的最強干預(yù)因素[21]。課堂教學中用不用人工智能已然成為一個“假命題”,而如何在教學中更好地應(yīng)用人工智能才是一個真問題。并非“逃避”人工智能就能不受其影響,教師應(yīng)做的是積極做好心理與行為建設(shè),避免陷入技術(shù)應(yīng)用的心理窘境和慌亂無措感支配的被動應(yīng)用中。教師在行動層面應(yīng)主動了解并學習人工智能教學相關(guān)專業(yè)知識,積極參與人工智能科普教育類與專題培訓類活動,在親身實踐和與優(yōu)秀教師教學交流切磋中提升教師使用人工智能的獲得感和成就感,明晰教學中人與人工智能的責任邊界。

(二)關(guān)系互生:打造人、機、情境協(xié)同共生的智能教學互信生態(tài)

教師信心為主導的教學決策模式表現(xiàn)為教師對教學整體的把控有信心時接受人工智能的建議,而在沒有信心時則選擇拒絕人工智能系統(tǒng)的建議,這種“心無外物”的決策方式是人之為人的“獨立姿態(tài)”的集中反應(yīng),這種獨立和強大并不是遠離外物的“傲慢與孤僻”,而是與其周圍事物的“適應(yīng)與和解”,即能夠適恰地處理與各主體之間的關(guān)系。人、機和問題情境構(gòu)成了智能教育生態(tài)網(wǎng)絡(luò),建立并發(fā)揮由教學主體信心主導的決策效能的關(guān)鍵在于營造教師、人工智能及教學問題情境三者和諧共生的“互信生態(tài)”,建立并打造互信共同體。定義角色以實現(xiàn)責任共擔,教師應(yīng)在不同的教學情境中對人工智能的角色進行心理設(shè)定,以保障其在智能教學中調(diào)整并維持最適交互狀態(tài)。人工智能的角色定義一般可劃分為三種類型,從親密程度排列依次為敵人、工具和伙伴,通過不同情境中人工智能所“扮演”的角色歸于這三類中的某一類而展開分析或批判,教師不應(yīng)將某一教學情境中的人工智能角色定義為固定的某一類別,教師應(yīng)學會在不同的活動行為中做到適時地“轉(zhuǎn)換”,應(yīng)以對“敵人”的戒備狀態(tài)審慎人工智能教學應(yīng)用的風險和危機,以“工具”輔助視角助力教學有效開展,并以“伙伴”合作心態(tài)正視教學中人與人工智能的關(guān)系,以夯實教學各環(huán)節(jié)中的責任主體地位。

互通有無以實現(xiàn)價值共享。實現(xiàn)人工智能與教學主體的利益共聯(lián),其程序設(shè)計應(yīng)將教師和學生的利益置于首位,并保持與人類相近的價值觀。如研究者指出,機器若想獲取人類的信任,必須通過反復(fù)“溝通”了解人類的價值取向(意圖和信念),并不斷向人類解釋其每一步?jīng)Q策的意圖,而實現(xiàn)這一“雙向溝通”的關(guān)鍵是建立心智模型以建模人類意圖,簡而言之,即將人類意圖解釋為機器能夠理解的形式,以加強機器自身建設(shè)而增強人機互信。機器“揣摩”人類心智減少人機之間的認知思維差異以加強互信的實現(xiàn)目前還尚有難度。筆者認為可轉(zhuǎn)換角度,從文化的土壤中挖掘人機物互通的交流方式,以人工智能時代萬物主體和諧共生的方式為其注入靈魂。中華文化歷來崇尚“天人合一”的一統(tǒng)思想和“中庸為德”的無為之道,而反對“絕對”和“分裂”的兩極化思想,引鑒中華文化中“一”之精髓以審度人工智能教學系統(tǒng)生態(tài)中各主體的關(guān)系互生,以整體觀、系統(tǒng)觀、和諧觀和大局觀映照“人”于人工智能參與的大系統(tǒng)整體[22],發(fā)揮教學中人之主體性,敬畏技術(shù),敬畏自然,努力建構(gòu)互信生態(tài)。

(三)創(chuàng)生共建:完善智能決策倫理的法律法規(guī)和制度建設(shè)

智能教學環(huán)境中教師信心主導的決策機制充分釋放了“人”的自由意志,這一信任機制的建立同時也需外部建制的完善。人工智能在六十多年的發(fā)展中幾經(jīng)沉浮,由此演化出了強弱人工智能的分說。教育領(lǐng)域甚至各領(lǐng)域中多由弱人工智能主導,即利用人工程序系統(tǒng)解決特定教育問題,但強人工智能的實現(xiàn)一直是研發(fā)者和應(yīng)用者的終極目標。強人工智能的技術(shù)邏輯是能夠自主學習推理解決問題且具備自我意識的智能體,關(guān)于人工智能的倫理審思和法律權(quán)利的探討也由此發(fā)軔。2021年,科技部頒發(fā)了《新一代人工智能倫理規(guī)范》,提出應(yīng)充分考慮當前社會各界人工智能的隱私、偏見、啟示和公平等倫理問題,并提倡善用,防止濫用,促進人工智能的健康發(fā)展。雖取得一定進步,但更加完善的社會建制尚待不斷探索。

與此同時,面向強人工智能自主意識的發(fā)展目標的責任和權(quán)利主體之爭也甚囂塵上。人工智能的注入“擾亂”了原有的法理體系,亟需法律體系內(nèi)部的整體反思與全面整飭,在人工智能相關(guān)法律的制定中應(yīng)及早扼斷法律層面對人工智能應(yīng)用的完全人格、責任主體性的傾注趨勢,堅守以“人”為主體性的價值審判立場。教育教學與司法審判同樣都表現(xiàn)為人性、道德和人的組織性交織的活動特性。教學主體在教學內(nèi)容、學情分析、學習評價等活動中也應(yīng)持有絕對的自主決策權(quán),教師絕不應(yīng)將其自主權(quán)“讓渡”給人工智能。應(yīng)謹記:人工智能未來無論發(fā)展如何,其工具性屬性不會改變,教育過程中人的主體性決策是永恒不可替代的意志行為。

[參考文獻]

[1] BAKER R S, HAWN A. Algorithmic bias in education[J]. International journal of artificial intelligence in education, 2022, 32: 1052-1092.

[2] 李世瑾,胡藝齡,顧小清. 如何走出人工智能教育風險的困局:現(xiàn)象、成因及應(yīng)對[J]. 電化教育研究, 2021(7):19-25.

[3] BRIDGEMAN B, TRAPANI C, ATTALI Y. Comparison of human and machine scoring of essays: differences by gender, ethnicity, and country[J]. Applied measurement in education, 2012, 25(1): 27-40

[4] HU Q, RANGWALA H. Towards fair educational data mining: a case study on detecting at-risk students[C]//Proceedings of The 13th International Conference on Educational Data Mining, Jul 10-13, 2020. Morocco: EDM, 431-437.

[5] 馬克·波斯特.信息方式[M]. 范靜嘩,譯.北京:商務(wù)印書館,2000:17.

[6] AKGUN S, GREENHOW C. Artificial intelligence in education: addressing ethical challenges in K-12 settings[J]. AI and ethics, 2022, 2: 431-440.

[7] 孫立會,王曉倩. 人工智能之于教育的未來圖景:機器行為學視角[J]. 中國電化教育,2022(4):48-70.

[8] 徐振國.教育智能體的發(fā)展歷程、應(yīng)用現(xiàn)狀與未來展望[J].電化教育研究,2021,42(11):20-33.

[9] CHONG L, ZHANG G, GOUCHER-LAMBER K, et al. Human confidence in artificial intelligence and in themselves: the evolution and impact of confidence on adoption of AI advice[J]. Computers in human behavior, 2021,127:1-10.

[10] MATTHIAS A. The responsibility gap: ascribing responsibility for the actions of learning automata[J]. Ethic sand information technology, 2004, 6(3): 175-183.

[11] 劉博韜, 金香花. 人工智能的責任鴻溝——基于歸因過程的分析[J].道德與文明,2021(6):115-131.

[12] GILLATH O, AI T, BRANICKY M, et al. ?Attachment and trust in artificial intelligence[J]. Computers in human behavior,2021,115:1-10.

[13] 馮銳, 孫佳晶 孫發(fā)勤. 人工智能在教育應(yīng)用中的倫理風險與理性抉擇[J].遠程教育雜志,2020,38(3):47-54.

[14] 諶衡. 從“人禽之辨”到“人機之辨”——人工智能時代教育的成“人”屬性[J].全球教育展望, 2021,50(10):35-46.

[15] 劉清堂,李小娟,謝魁,等. 多模態(tài)學習分析實證研究的發(fā)展與展望[J]. 電化教育研究, 2022,43(1):71-78.

[16] 張務(wù)農(nóng).人工智能時代教學主體的辨識與倫理反思[J].教育研究, 2022,43(1),81-90.

[17] 李芒, 申靜潔.論教師教學的信息技術(shù)疏離感[J].中國電化教育, 2020(5):62-68.

[18] BANDURA A, CERVONE D. Differential engagement in self-reactive influencesin cognitively-based motivation[J]. Organizational behavior and human decision processes, 1986, 38(1):92-113.

[19] 趙磊磊,陳祥梅,杜心月.人工智能時代師生關(guān)系構(gòu)建:現(xiàn)實挑戰(zhàn)與應(yīng)然轉(zhuǎn)向[J].教育理論與實踐,2021,41(31):36-41.

[20] COECKLBERGH M. Artifcial intelligence, responsibility attribution, and a relational justification of explain ability[J]. Science and engineering ethics,2020,26:2051-2068.

[21] BALFE N, SHARPLES S, WILSON J. Understanding is key: an analysis of factors pertaining to trust in a real-world automation system[J]. Hum factors, 2018, 60(4):477-495.

[22] 王萍萍.人工智能時代機器人的倫理關(guān)懷探析——以《老子》“善”論為視角[J].自然辯證法研究,2021,37(5):54-59.

Artificial Intelligence in Educational Decision-making Subjectivity Trust Crisis and Its Avoidance

SUN Lihui

(School of Education, Minzu University of China, Beijing 100081)

[Abstract] While artificial intelligence (AI) has brought new energy into teaching and learning, it has also caused a lot of rethinking. Algorithm bias, privacy invasion and emotional neglect have triggered man-machine trust crisis in intelligent education, which leads to a lack of decision-making autonomy. The subjectivity of "human" should be highlighted in the decision-making of artificial intelligence teaching. The establishment of a decision-making model dominated by teachers' confidence can help teachers break away from the quagmire of technology-centered materialism, realize the independent field of decision-making, release the psychological shackles of false attribution, so as to uphold the main responsibility of teaching subject. At the same time, it gives play to the perceptual nature of teaching and learning, and reduces the emotional dependence of intelligence. Bandura's triadic interactive determinism provides an analytical framework for deconstructing the factors influencing the effectiveness of teachers' decision making. Teachers' intelligent cognitive misconceptions and professional crisis dominate the establishment of confidence mechanism, and the success or failure of their own behaviors and alternative experience connect the confidence and behavior in teaching. The energy transfer of each subject of man-machine-intelligence contextual factors affects the harmonious interaction of the system. Therefore, the realization path of "human" subjectivity in teaching decision-making is designed from three levels of technical subject, relationship maintenance and mechanism guarantee, an intelligent education system with two-way development of interpretation and understanding is established, and a mutual trust ecology of intelligent teaching and learning in which human-computer-context coexist is shaped. Meanwhile, the legal and institutional construction of the ethics of intelligent decision-making is continuously improved, and the trust mechanism of artificial intelligence education is restarted.

[Keywords] Artificial Intelligence; Teaching Decision-making; Trust Crisis; Subject Confidence

猜你喜歡
信任危機人工智能
我校新增“人工智能”本科專業(yè)
2019:人工智能
人工智能與就業(yè)
數(shù)讀人工智能
新媒體時代大學生人際信任的影響因素研究
下一幕,人工智能!
下一幕,人工智能!
幼兒教育信任危機的表現(xiàn)及其破解策略
“脫媒”時代下媒體信任危機探究
網(wǎng)絡(luò)募捐遭遇“信任危機”的背后
靖安县| 汶上县| 绥阳县| 尖扎县| 东兰县| 息烽县| 大姚县| 舞阳县| 宝丰县| 宁陵县| 颍上县| 永清县| 金阳县| 北宁市| 通渭县| 永康市| 华蓥市| 永清县| 分宜县| 红河县| 南开区| 浮梁县| 临桂县| 定边县| 阳山县| 沙田区| 正定县| 新巴尔虎右旗| 荆州市| 黄山市| 五常市| 泰州市| 澳门| 股票| 天门市| 抚州市| 罗城| 龙山县| 仲巴县| 翁牛特旗| 莱阳市|