国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

風(fēng)險社會視域下教育人工智能風(fēng)險及其治理

2022-11-18 14:26:16林攀登
中國成人教育 2022年4期
關(guān)鍵詞:倫理人工智能教育

○林攀登

一、問題提出

現(xiàn)代社會是一個風(fēng)險社會[1]。隨著人類理性能力的不斷提升和實踐領(lǐng)域的不斷擴展,現(xiàn)代社會在創(chuàng)造現(xiàn)代性文明的同時也在制造風(fēng)險,現(xiàn)代性困境實質(zhì)就是人的不合理的生存實踐所導(dǎo)致的風(fēng)險。正如社會學(xué)家吉登斯所言,我們所面對的最令人不安的威脅是那種人造風(fēng)險,它來源于科學(xué)和技術(shù)不受限制的推進[2]。人工智能技術(shù)作為第四次工業(yè)革命的核心標志[3],在推動生產(chǎn)力發(fā)展,促進社會變革的同時,所產(chǎn)生的風(fēng)險也已引起了人們的關(guān)注。人工智能與教育的深度融合,在推動教育創(chuàng)新、促進教育變革與發(fā)展的同時,也帶來了不容忽視的風(fēng)險。例如,算法不可解釋性和算法偏見可能導(dǎo)致教育不公平,自適應(yīng)學(xué)習(xí)的個性推薦會強化學(xué)生某些不良學(xué)習(xí)行為和習(xí)慣,教育數(shù)據(jù)的隱私保護和安全將受到更大的威脅等[4]。教育人工智能風(fēng)險的有效治理是人工智能教育持續(xù)健康發(fā)展的重要保障,已經(jīng)成為教育研究者關(guān)注的熱點。

已有研究主要集中在以下三個方面。第一,對教育人工智能風(fēng)險的表現(xiàn)描述,例如治理風(fēng)險、倫理風(fēng)險、教師職業(yè)替代風(fēng)險、偏見風(fēng)險等[5][6]。第二,對教育人工智能風(fēng)險的成因分析,例如分析了算法黑箱、數(shù)據(jù)偏見、隱私泄露、數(shù)據(jù)鴻溝、效率優(yōu)先等[7][8][9][10]。第三,對教育人工智能風(fēng)險防范的原則探究,例如提出應(yīng)更加強調(diào)以人為本的教育價值導(dǎo)向,以走出人工智能教育應(yīng)用的盲區(qū)、禁區(qū)和誤區(qū)[11],構(gòu)建包括福祉、公平正義、責(zé)任和問責(zé)等的人工智能教育倫理原則[12]。已有研究為我們認識和理解教育人工智能風(fēng)險奠定了基礎(chǔ),但還存在些許問題。首先,在教育人工智能風(fēng)險的內(nèi)涵界定上出現(xiàn)話語失序。由于缺乏在理論層面上對其本質(zhì)的厘定,已有研究中教育人工智能風(fēng)險、倫理風(fēng)險、倫理問題等相關(guān)術(shù)語交叉出現(xiàn),模糊使用。其次,在教育人工智能風(fēng)險的類型劃分上出現(xiàn)層次不清的問題。由于缺乏對其進行分層、分類的深入探討,已有研究中長期風(fēng)險與短期風(fēng)險、風(fēng)險成因與風(fēng)險結(jié)果等不同層次、類型的風(fēng)險并列出現(xiàn),缺乏系統(tǒng)梳理。最后,在教育人工智能風(fēng)險的治理上,側(cè)重于對教育人工智能倫理準則的分析和構(gòu)建,強調(diào)宏觀層面以價值引領(lǐng)防范風(fēng)險,缺乏中觀和微觀層面的制度和技術(shù)方法分析。鑒于此,研究從風(fēng)險社會理論的視角出發(fā),聚焦以下三個方面問題:1.何謂教育人工智能風(fēng)險?2.教育人工智能風(fēng)險有哪些?3.教育人工智能風(fēng)險治理的基本思路是什么?應(yīng)該包含哪些方面?通過回答以上問題,研究旨在為科學(xué)認識與合理應(yīng)對教育人工智能風(fēng)險提供理論借鑒。

二、理論框架

與現(xiàn)代社會多元化和現(xiàn)代性特征相伴隨的是日益高發(fā)的風(fēng)險,現(xiàn)代社會已經(jīng)成為一個高風(fēng)險社會[13]。而現(xiàn)代社會風(fēng)險更多地來源于人造風(fēng)險,例如科技、文化、政治、經(jīng)濟等領(lǐng)域。正是對這一社會性問題的敏感把握,社會學(xué)家開始對風(fēng)險的概念內(nèi)涵、生成機理以及防范措施等進行系統(tǒng)的理論建構(gòu)。1986年,德國社會學(xué)家貝克(Beck)在其所著《風(fēng)險社會:邁向一種新的現(xiàn)代性》一書中首次提出“風(fēng)險社會”(risk society)的概念,并對其進行了系統(tǒng)的理論闡釋。隨后,吉登斯(Giddens)、拉什(Lash)、盧曼(Luhmann)等眾多社會學(xué)家又從不同的視角對風(fēng)險社會進行了研究,形成了關(guān)于風(fēng)險社會理論的基本框架[14]。本文基于風(fēng)險社會理論視角,分析教育人工智能風(fēng)險及其治理。

(一)風(fēng)險社會的概念及其特征

風(fēng)險是一種普遍的歷史事實和社會現(xiàn)象,在人類的實踐活動中一直存在。但是隨著全球化進程的加快、突發(fā)事件和危機的持續(xù)增加,不確定性的不斷增強,風(fēng)險在現(xiàn)代社會中的表現(xiàn)與過去相比已經(jīng)出現(xiàn)本質(zhì)的差異,由此,就產(chǎn)生了現(xiàn)代意義上的“風(fēng)險”,并出現(xiàn)了貝克所提出的“風(fēng)險社會”。所謂現(xiàn)代性意義上的“風(fēng)險”——現(xiàn)代風(fēng)險,主要指“人為制造的風(fēng)險”,即由于人類自身知識的增長和科學(xué)技術(shù)的進步,而對整個世界帶來的強烈的作用所造成的風(fēng)險[15]。例如,核能在給人類提供高效能源的同時,也帶來了核戰(zhàn)爭和核泄漏的風(fēng)險;生物基因工程在為人類疾病提供更為先進的醫(yī)療手段的同時,也引發(fā)了人類社會的倫理和道德危機。這些風(fēng)險具有全球性、平等性、不可感知性、難以控制性、高度復(fù)合性和復(fù)雜性等特征[16]。在現(xiàn)代風(fēng)險的基礎(chǔ)上,社會學(xué)家將人造風(fēng)險占主導(dǎo)地位的社會定義為風(fēng)險社會。

風(fēng)險社會作為一個概念,并不是對歷史分期意義上的描述,而是指社會的一種狀態(tài),體現(xiàn)了現(xiàn)代社會所具有的一種社會性的危機狀態(tài),以及這種危機所具有的程度和水平。建構(gòu)在現(xiàn)代風(fēng)險之上的風(fēng)險社會具有以下特征:第一,風(fēng)險社會是一個人造風(fēng)險占主導(dǎo)地位的社會;第二,風(fēng)險社會是一個高度技術(shù)化的社會,技術(shù)的高度發(fā)展既是風(fēng)險社會的表面特征,也是風(fēng)險社會的重要成因;第三,風(fēng)險社會是一個“有組織的不負責(zé)任”的社會,風(fēng)險的高度復(fù)合性和復(fù)雜性導(dǎo)致風(fēng)險的制造主體和風(fēng)險結(jié)果的模糊性,進而導(dǎo)致沒有人真正地為風(fēng)險的危害性結(jié)果承擔(dān)責(zé)任[14]。風(fēng)險社會是在社會工業(yè)化高度發(fā)展、人類現(xiàn)代化進程不斷加速的背景下提出來的概念。這既是人類對自身發(fā)展處境的理性反思的結(jié)果,也是人類應(yīng)對未來社會發(fā)展不確定性的能動性體現(xiàn)。

(二)風(fēng)險的成因及應(yīng)對

現(xiàn)代風(fēng)險是人類知識的不斷增長和科學(xué)技術(shù)的不斷進步所導(dǎo)致的不確定性造成的[17]。換言之,隨著社會生產(chǎn)力的不斷提升,人類在不斷地拓展實踐領(lǐng)域和提升實踐能力的同時,實踐中的不確定性也在日益增加,進而產(chǎn)生風(fēng)險。以技術(shù)為核心支撐的生產(chǎn)力在發(fā)展中產(chǎn)生了副作用,例如技術(shù)誤用和濫用、制度的不公平、資本邏輯主導(dǎo)下的全球化與逆全球化矛盾等。進一步分析發(fā)現(xiàn),現(xiàn)代社會生產(chǎn)力的副作用植根于現(xiàn)代化進程中的自反性現(xiàn)代性?,F(xiàn)代化發(fā)展的標志是現(xiàn)代性的不斷增長,以理性主義為基礎(chǔ)原則的現(xiàn)代性包含著反對甚至顛覆自身的力量,即自反性現(xiàn)代性[18]。自反性現(xiàn)代性集中體現(xiàn)在理性主義原則的高度盛行。建構(gòu)于現(xiàn)代性意義之上的理性主義原則中的“理性”,實質(zhì)是指“工具理性”(或科技理性)?,F(xiàn)代社會中,基于對工具理性的信仰,人類把客觀世界作為不斷征服和利用的對象,缺乏敬畏意識,無視自然規(guī)律,對大自然進行過度開發(fā)。科技的威力成為人類過度實踐的理性工具,日益使人和社會發(fā)生異化。工具理性支配下的人類活動普遍秉持的原則是功利主義和效率優(yōu)先,而缺乏對人文價值的堅守和反思。貝克通過對風(fēng)險與現(xiàn)代性關(guān)系的深入分析發(fā)現(xiàn),現(xiàn)代性之所以會產(chǎn)生自反性,進而導(dǎo)致風(fēng)險,本質(zhì)上是由于“知識的斷裂”和“知識的無能”。換言之,人類對理性的無限崇拜與自身本體上的“有限理性”形成了深刻的矛盾,而對這一矛盾的“無知”或“忽視”使得僅具有“有限理性”的人類將自身上升為“無限理性”的擁有者,并以這種虛假的理性進行社會實踐,這是造成現(xiàn)代風(fēng)險的根本原因[19]。

全球化的現(xiàn)代風(fēng)險昭示著傳統(tǒng)的國家依賴型風(fēng)險治理方式的破產(chǎn),唯有建構(gòu)新的理論與方法體系才能應(yīng)對之。對此,貝克提出了三個具體舉措——“原則拯救”“理論建構(gòu)”與“全球亞政治”。具體而言,在價值原則層面,堅持工具理性與價值理性和諧共生,并以價值理性引導(dǎo)工具理性。在理論體系層面,建構(gòu)新的理論體系和技術(shù)方法,以為人們應(yīng)對風(fēng)險提供知識支撐。在主體作為層面,建構(gòu)以“社會價值理性擁護者”為基礎(chǔ)的全球“亞政治”,也就是以社會價值理性為基礎(chǔ)的社會行動者的普遍聯(lián)合,謀求多元治理主體之間的協(xié)作互補,以削弱工具理性的力量,實現(xiàn)對全球風(fēng)險社會的有效應(yīng)對[19]。

三、教育人工智能風(fēng)險的內(nèi)涵與類型

(一)教育人工智能風(fēng)險的內(nèi)涵界定

風(fēng)險是指未來可能發(fā)生的對人的危害,本質(zhì)特征是不確定性、屬人性和危害性[20]。風(fēng)險的成因和表現(xiàn)既是歷史的、相對穩(wěn)定的,也是動態(tài)的、發(fā)展的,因此,對具體風(fēng)險的分析必須置于特定的社會歷史發(fā)展條件下。教育人工智能風(fēng)險是指人工智能在與教育深度融合的過程中也可能產(chǎn)生不利的作用或影響,甚至危害。依據(jù)智能程度劃分,當前的人工智能技術(shù)屬于弱人工智能(或?qū)S萌斯ぶ悄埽磥砜赡軙M入強人工智能階段。需要強調(diào)的是,弱人工智能技術(shù)已經(jīng)具備客觀的技術(shù)基礎(chǔ)和實踐條件,而強人工智能還只是人們的一種設(shè)想,并沒有客觀的技術(shù)基礎(chǔ),實踐應(yīng)用更無從談起。短期風(fēng)險是指基于弱人工智能技術(shù),在科學(xué)合理的可預(yù)測的范圍內(nèi)未來可能發(fā)生的風(fēng)險。長期風(fēng)險是建立在未來強人工智能技術(shù)的設(shè)想之上的,這一層面的風(fēng)險當前僅存在于想象之中,目前并無客觀的技術(shù)基礎(chǔ)和探討的必要性。本文所探討的教育人工智能風(fēng)險是建構(gòu)在弱人工智能技術(shù)之上的歷史的、相對具體的短期風(fēng)險。

基于風(fēng)險社會理論分析,教育人工智能風(fēng)險的根源是人工智能技術(shù)的自反性現(xiàn)代性,具體表現(xiàn)為工具理性的盛行和價值理性的遮蔽。人工智能以數(shù)據(jù)為手段試圖挖掘教育內(nèi)在規(guī)律,深度“計算”教育,使得教育主體時刻處于“數(shù)據(jù)凝視”之下。由此,教育生態(tài)潛藏著一種工具理性泛濫、價值理性式微的沖動,危害教育倫理秩序,違背教育的價值初心[21],進而引發(fā)教育人工智能風(fēng)險。教育是一種培養(yǎng)人的社會活動,教育人工智能風(fēng)險的生成和作用對象都與人相關(guān),具有屬人性。這種屬人性表明,教育人工智能風(fēng)險的危害在其直接性上雖然表現(xiàn)為對教育場域中非主體要素的損害,但是其根本還是對人及人與人之間關(guān)系的危害。因此,從廣義倫理的視角來看,教育人工智能風(fēng)險本質(zhì)上屬于倫理風(fēng)險[22]。

(二)教育人工智能風(fēng)險的類型劃分

風(fēng)險社會理論提示我們,教育人工智能風(fēng)險作為一種現(xiàn)代風(fēng)險,具有高度的復(fù)合性和復(fù)雜性。因此,僅僅從現(xiàn)象層面闡釋風(fēng)險難以對其有全面、系統(tǒng)的認識。教育人工智能是一種新的教育技術(shù)形態(tài),涉及人工智能技術(shù)的設(shè)計、開發(fā)、應(yīng)用、管理等過程。本文從教育人工智能風(fēng)險的來源將其劃分為技術(shù)內(nèi)生型風(fēng)險、技術(shù)應(yīng)用型風(fēng)險和技術(shù)管理型風(fēng)險三種,以期厘清教育人工智能風(fēng)險類型。

技術(shù)內(nèi)生型風(fēng)險是指由于教育人工智能技術(shù)本身設(shè)計的不成熟、錯誤或漏洞等產(chǎn)生的風(fēng)險,主要包括算法風(fēng)險和數(shù)據(jù)風(fēng)險。具體而言,在算法層面,算法不可解釋性和算法歧視會損害教育主體的知情權(quán)和主體地位。例如,越來越多的教育機構(gòu)采用人工智能算法對教師或?qū)W生能力進行測評、分級,由于算法不可解釋性和算法歧視的存在,這有可能阻礙教育活動的公平,放大教育內(nèi)部潛在的偏見,消解教育個體的多元化特質(zhì)[4]。此外,人工智能算法的自我學(xué)習(xí)特性導(dǎo)致其在被用于教育決策中可能產(chǎn)生不可預(yù)測的結(jié)果,與當前的教育理念和價值產(chǎn)生沖突,對決策過程造成干擾和誤導(dǎo)[23]。在數(shù)據(jù)層面,數(shù)據(jù)作為被過度抽象化的表征教育事實屬性的集合,在收集、處理、分析、顯示的過程中并非完全中立的、客觀的,而是存在偏見的。這種偏見與算法設(shè)計的歧視形成交互效應(yīng),會加劇教育系統(tǒng)內(nèi)部的偏見。另外,即使在我們認為較為成熟的人工智能產(chǎn)品也會在與特定人群的交互中習(xí)得偏見,這就是人工智能的可誘騙性。如微軟聊天機器人Tay,通過與特定個體的交流,在短時間內(nèi)就會形成辱罵用戶、發(fā)表煽動性和攻擊性言論的傾向[24]。

技術(shù)應(yīng)用型風(fēng)險是指由于教育人工智能技術(shù)在應(yīng)用過程中使用不當產(chǎn)生的風(fēng)險,主要包括技術(shù)的誤用和濫用。前者如將基于不同人工智能產(chǎn)品的教育測評結(jié)果進行對比、將教育人工智能產(chǎn)品應(yīng)用于超出其數(shù)據(jù)訓(xùn)練集的全新場景等,以致產(chǎn)生不可預(yù)測的結(jié)果甚至偏見。后者是技術(shù)應(yīng)用型風(fēng)險的主要類型。人們對于技術(shù)經(jīng)常會產(chǎn)生正向偏見(PositivityBias)[25],即在沒有足夠信息的情況下,默認信賴技術(shù),對其客觀程度過分樂觀。這種認知偏差使得人們極易忽視教育人工智能應(yīng)用的限度與邊界,造成濫用。人工智能的精準推薦算法已被大量用于學(xué)生的個性化學(xué)習(xí)和教師的精準教學(xué)。但是濫用精準推薦、過度迎合學(xué)生的個性化需求很可能會形成“過濾氣泡”(Filter Bubble),即依據(jù)學(xué)生的行為習(xí)慣記錄和分析,過濾掉與學(xué)生觀點相左的或?qū)W生不感興趣的內(nèi)容,只給學(xué)生提供他們想看的內(nèi)容,形成所謂的“信息繭房”(Information Cocoons),導(dǎo)致學(xué)生接收到的信息被局限于某個范圍內(nèi),造成認知上和意識形態(tài)上的封閉與僵化[6]。并且,這種過度迎合學(xué)生個性化需求的精準推薦也會強化學(xué)生某些不良的行為習(xí)慣或不合理的觀念。此外,濫用教育人工智能技術(shù),會導(dǎo)致教育決策對數(shù)據(jù)的過度依賴,進而異化教育事實的價值判斷。人工智能技術(shù)的基礎(chǔ)是數(shù)據(jù),人工智能教育應(yīng)用意味著教育活動要素的數(shù)據(jù)化。但是數(shù)據(jù)的表征域遠遠小于教育生態(tài)范疇,抽象化、簡約化的表征形式背離了教育生態(tài)的復(fù)雜性和整體性[21]。換言之,人工智能構(gòu)建的教育數(shù)據(jù)圖景無法還原真實的教育世界。因此,過度數(shù)據(jù)化的教育可能會背離教育對人文價值和生命意義關(guān)注的內(nèi)在品質(zhì)。試想:當教師的情感意志和教育智慧、學(xué)生的個體品性和價值取向等均以數(shù)據(jù)的形式被加以計算和復(fù)制的時候,教育中真實的人何在?教育中培養(yǎng)人的本質(zhì)意義將何去何從?

技術(shù)管理型風(fēng)險是指由于對教育人工智能技術(shù)管理不當或制度規(guī)劃不科學(xué)產(chǎn)生的風(fēng)險,主要包括設(shè)計不合理的教育人工智能產(chǎn)品、使用不成熟的教育人工智能產(chǎn)品、技術(shù)管控不完善導(dǎo)致數(shù)據(jù)泄露等。教育人工智能的管理涉及技術(shù)開發(fā)、應(yīng)用的全過程,任何環(huán)節(jié)的管理不當或缺失都有可能產(chǎn)生風(fēng)險。具體而言,明顯不合理或不成熟的智能產(chǎn)品被投入使用,不僅可能會損害學(xué)生的身心健康,還有可能誤導(dǎo)教育者的價值取向。比如,賦思頭環(huán)所導(dǎo)致的學(xué)習(xí)證據(jù)的標簽化、異構(gòu)數(shù)據(jù)的雜糅化及信息泄露等會降低學(xué)生的幸福感,并產(chǎn)生師生之間的信任危機[21]。此外,智能預(yù)警、智能監(jiān)控、智能門禁等人工智能教育應(yīng)用在大幅度提高了教育系統(tǒng)安全性的同時,也增加了教育系統(tǒng)安全管理的難度,不法分子也可以應(yīng)用智能技術(shù)進行惡意攻擊、隱私數(shù)據(jù)獲取等違法行為。以上這些風(fēng)險均是由于對教育人工智能的管理不當或制度規(guī)劃不科學(xué)而導(dǎo)致的,因此,制定合理的技術(shù)管理規(guī)范、建立科學(xué)的技術(shù)管理體系是規(guī)避教育人工智能風(fēng)險的重要方法。

在具體的教育實踐中,以上三種風(fēng)險的發(fā)生和危害并非是相互獨立的,而是相互關(guān)聯(lián)的。一方面,技術(shù)內(nèi)生型風(fēng)險需要通過具體的技術(shù)應(yīng)用或技術(shù)管理實踐才能對教育活動產(chǎn)生現(xiàn)實的危害,而部分技術(shù)管理型風(fēng)險也需要通過具體的技術(shù)應(yīng)用實踐才能對教育活動產(chǎn)生現(xiàn)實的危害。另一方面,某一種風(fēng)險危害可能是一種或多種風(fēng)險來源綜合作用的結(jié)果。以偏見風(fēng)險為例,其既可能來源于算法歧視或數(shù)據(jù)偏見,也可能來源于智能技術(shù)的誤用與濫用,還可能是這些來源綜合作用的結(jié)果。至于偏見風(fēng)險的成因究竟是什么,還需要結(jié)合具體的風(fēng)險事實進行具體的分析。教育人工智能風(fēng)險既具有現(xiàn)代風(fēng)險的一般性,又具有一些特殊性,如成因的隱蔽性、危害的長期性等。以上這些分析為我們合理而有效地應(yīng)對教育人工智能風(fēng)險奠定了基礎(chǔ)。

四、教育人工智能風(fēng)險治理路徑

現(xiàn)代風(fēng)險的治理需要擺脫傳統(tǒng)的單一機制和單一主體的理路,形成一種多元主體協(xié)同的復(fù)合型風(fēng)險治理體系[14]?;陲L(fēng)險社會理論分析,教育人工智能風(fēng)險作為一種現(xiàn)代風(fēng)險,其治理涉及三個不同層面。在價值層面,應(yīng)構(gòu)建適用于人工智能教育生態(tài)的倫理準則和規(guī)范,為教育人工智能風(fēng)險治理提供價值引導(dǎo);在制度層面,應(yīng)制定用于規(guī)范、監(jiān)督教育人工智能開發(fā)和應(yīng)用全過程的政策、法律、行業(yè)標準等,為教育人工智能風(fēng)險治理提供制度保障;在技術(shù)層面,通過技術(shù)更新、風(fēng)險事實的追蹤分析等對具體的風(fēng)險進行識別、評估、管理,為教育人工智能風(fēng)險治理提供具體的方法創(chuàng)新。具體而言,教育人工智能風(fēng)險治理可以從倫理引導(dǎo)、政策規(guī)范、法律約束、技術(shù)應(yīng)對和事實追蹤等方面綜合施策。

(一)倫理引導(dǎo)

人工智能已經(jīng)超越了以往信息技術(shù)簡單的工具屬性,而具備了一定的“自主性”,能夠深度參與人類決策[26]。人工智能的這一類人屬性,首先在倫理層面沖擊了原有的社會秩序,由此引發(fā)了人工智能倫理風(fēng)險,當然也包括教育人工智能倫理風(fēng)險[22]。在教育人工智能的設(shè)計、開發(fā)、應(yīng)用和管理過程中,我們首先需要在倫理層面構(gòu)建適應(yīng)于智能教育生態(tài)的原則和規(guī)范,以為教育人工智能風(fēng)險治理提供根本性的價值引導(dǎo)和原則支撐。人工智能教育倫理至少涉及人工智能倫理和教育倫理兩個方面。當前,國外國內(nèi)關(guān)于人工智能倫理準則的研究和倡議已經(jīng)相當豐富。教育研究者急需在堅持教育人本倫理的前提下,充分借鑒人工智能倫理研究成果,探索構(gòu)建人工智能教育的倫理準則和規(guī)范,并力求在一定范圍內(nèi)取得廣泛共識,以便協(xié)同推進人工智能企業(yè)、政府、學(xué)校、教師、學(xué)生及家長等利益相關(guān)主體對教育人工智能形成合理的風(fēng)險認知和責(zé)任意識。

(二)政策規(guī)范

倫理原則在總體上為教育人工智能風(fēng)險治理提供了價值引導(dǎo),但是在具體的由多主體組成的復(fù)雜的過程監(jiān)管上還需要相應(yīng)的政策、行業(yè)標準、技術(shù)規(guī)范等可操作性的措施予以保障。政策規(guī)范應(yīng)該包含以下三個方面。第一,國家或地方政府應(yīng)根據(jù)技術(shù)發(fā)展程度,頒布用以規(guī)范教育人工智能應(yīng)用和發(fā)展的制度措施,對教育人工智能的開發(fā)、應(yīng)用和管理等提出標準要求。第二,教育人工智能相關(guān)行業(yè)應(yīng)該制定行業(yè)內(nèi)部的具體標準和技術(shù)規(guī)范,加強行業(yè)自律,提升技術(shù)研發(fā)團隊對教育多元化育人價值的理解和認同。比如,教育人工智能相關(guān)企業(yè)可以建立專門的倫理審查機構(gòu),明確內(nèi)部利益相關(guān)者的倫理責(zé)任,并對技術(shù)的可解釋性、透明性等提出具體標準要求,加強風(fēng)險檢測和過程評估[27]。第三,教育系統(tǒng)內(nèi)部應(yīng)該對教育人工智能產(chǎn)品的應(yīng)用和管理制定明確的標準和要求,指導(dǎo)教師、學(xué)生、家長、學(xué)校管理者等形成合理使用技術(shù)的能力和觀念,并確保其在授權(quán)范圍內(nèi)使用和管理教育人工智能產(chǎn)品。

(三)法律約束

針對具有明顯的高危害性的風(fēng)險領(lǐng)域以及實踐相對成熟、已有普遍共識的教育人工智能技術(shù)或產(chǎn)品,可嘗試進行立法規(guī)制,明確人工智能的角色地位,規(guī)定其與利益相關(guān)者(智能系統(tǒng)創(chuàng)建者、智能系統(tǒng)使用者、智能系統(tǒng)監(jiān)測員、智能決策主體和決策執(zhí)行者、數(shù)據(jù)主體)[28]的權(quán)利與責(zé)任。針對低危害性的風(fēng)險領(lǐng)域和當前實踐還不成熟的教育人工智能產(chǎn)品,則應(yīng)該在現(xiàn)行法律的約束下,通過政策規(guī)范、行業(yè)自律、標準制定等方式進行風(fēng)險控制。我國2021年6月頒布的《數(shù)據(jù)安全法》對當前社會各領(lǐng)域的數(shù)據(jù)應(yīng)用、共享和隱私保護等方面做出了明確的規(guī)定。當前,教育人工智能發(fā)展中的數(shù)據(jù)問題可參考該法的相關(guān)規(guī)定,待進一步發(fā)展相對成熟并取得一定共識時,可考慮制定教育領(lǐng)域數(shù)據(jù)問題的專門法律,以為教育人工智能持續(xù)健康發(fā)展提供有力保障。

(四)技術(shù)應(yīng)對

技術(shù)內(nèi)生型風(fēng)險源于技術(shù)本身的不成熟、錯誤或漏洞,其最終解決還是要依托于技術(shù)的不斷更新和改進。例如,算法的不可解釋性和透明性問題是教育人工智能風(fēng)險的重要類型之一,涉及人類的知情權(quán)和主體地位,而這可以在一定程度上通過技術(shù)改進得到部分解決——借助技術(shù)使算法本身由“機器層次”降維到“人類層次”,使得人類能夠在更大程度上“看得懂”“能理解”。此外,人工智能技術(shù)催生的視頻和圖像深度偽造給社會帶來了極大的威脅和挑戰(zhàn)。當前,人們正在研究多種深度偽造檢測技術(shù)以規(guī)避其可能產(chǎn)生的危害,例如基于區(qū)塊鏈溯源的防篡改公共機制和數(shù)字水印、視頻指紋等信息安全方法[29]。教育領(lǐng)域中的深度偽造,例如學(xué)生圖像數(shù)據(jù)造假、學(xué)歷造假、監(jiān)控視頻造假等,也可以采用以上的技術(shù)措施進行風(fēng)險防范,規(guī)避其潛在的危害。

(五)事實追蹤

以上針對教育人工智能風(fēng)險的應(yīng)對措施——倫理、政策、法律和技術(shù)等都是建立在科學(xué)合理的風(fēng)險預(yù)測基礎(chǔ)上的,是應(yīng)然性的體現(xiàn)。然而,教育人工智能風(fēng)險是多樣的、復(fù)雜的,也是不斷進化的。以上這些重在事前控制的應(yīng)對措施很可能滯后于快速發(fā)展的教育人工智能。那么,除采取這些積極應(yīng)對措施外,對具體風(fēng)險的防范還要聚焦于已發(fā)生危害的風(fēng)險事實,對其進行持續(xù)的追蹤分析,并開展風(fēng)險識別、評估和管理,以應(yīng)對“實然性”和“突然性”的現(xiàn)實風(fēng)險。具體而言,教育人工智能的開發(fā)者、研究者等需要協(xié)同建立風(fēng)險事實追蹤機制,一方面對當前人工智能技術(shù)在教育領(lǐng)域中已經(jīng)引發(fā)的風(fēng)險事實進行總結(jié)分析,另一方面對高風(fēng)險區(qū)域進行實時監(jiān)測,及時發(fā)現(xiàn)可能出現(xiàn)的新風(fēng)險來源、新風(fēng)險表征及新風(fēng)險危害。在事實追蹤分析的基礎(chǔ)上,相關(guān)治理主體才可以提出有效識別風(fēng)險的方式方法,開展對風(fēng)險危害性的評估和分級,建立持續(xù)性的風(fēng)險管理體系。

五、結(jié)語

教育人工智能風(fēng)險作為一種現(xiàn)代風(fēng)險,是技術(shù)自反現(xiàn)代性在當前教育領(lǐng)域中的集中體現(xiàn),即在推動教育創(chuàng)新發(fā)展、促進教育現(xiàn)代化的同時,也可能會危害教育的倫理秩序,阻礙教育的健康發(fā)展。我們只有深刻認識教育人工智能風(fēng)險的這一根源成因,才能夠在應(yīng)用人工智能技術(shù)的過程中堅持教育育人的價值初心,以價值理性引領(lǐng)工具理性,始終保持謹慎的實踐探索。此外,教育人工智能風(fēng)險是發(fā)展的、動態(tài)的,因此,對其進行有效的治理也是發(fā)展的、動態(tài)的,而不是一蹴而就的,需要結(jié)合教育人工智能的發(fā)展階段,不斷調(diào)整和完善政策、法律及技術(shù)等方面的應(yīng)對措施。未來教育人工智能風(fēng)險研究需要密切關(guān)注風(fēng)險事實的追蹤分析、風(fēng)險管理技術(shù)的方法創(chuàng)新以及有效治理體系的構(gòu)建,以為人工智能教育的持續(xù)健康發(fā)展提供有效保障。

猜你喜歡
倫理人工智能教育
國外教育奇趣
華人時刊(2022年13期)2022-10-27 08:55:52
《心之死》的趣味與倫理焦慮
題解教育『三問』
當代陜西(2022年4期)2022-04-19 12:08:52
護生眼中的倫理修養(yǎng)
活力(2019年19期)2020-01-06 07:37:00
教育有道——關(guān)于閩派教育的一點思考
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
辦好人民滿意的首都教育
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
吉安县| 鄂伦春自治旗| 黔西| 吉木乃县| 秦安县| 礼泉县| 双鸭山市| 噶尔县| 龙岩市| 彭山县| 安龙县| 卓尼县| 东城区| 大丰市| 桂阳县| 星子县| 姜堰市| 莱阳市| 莱西市| 津市市| 确山县| 寿宁县| 尼勒克县| 永登县| 夏津县| 肃宁县| 邛崃市| 新绛县| 建水县| 宁德市| 申扎县| 扬中市| 丹寨县| 北辰区| 莱芜市| 绵竹市| 体育| 赤城县| 神木县| 梁平县| 施秉县|