杜靜 黃榮懷 李政璇 周偉 田陽
[摘? ?要] 在智能教育時(shí)代,人機(jī)如何共處是人工智能倫理建構(gòu)的關(guān)鍵。文章首先從技術(shù)悖論視角,厘清當(dāng)前人工智能應(yīng)用于教育在技術(shù)濫用、數(shù)據(jù)泄露、智能教學(xué)機(jī)器的身份與權(quán)力邊界等方面存在的倫理挑戰(zhàn)與困境;其次,利用內(nèi)容分析法,結(jié)合多國與國際組織政策文件,對(duì)人工智能倫理相關(guān)的倫理要素進(jìn)行分析與抽取,發(fā)現(xiàn)政府、高校、國際組織文件中多次提到的價(jià)值、人類利益、安全、隱私、責(zé)任等關(guān)鍵要素;最后,基于人機(jī)共處的考量,結(jié)合人工智能在教育領(lǐng)域的應(yīng)用現(xiàn)狀和倫理關(guān)鍵要素,歸納分析出智能教育倫理需遵循的原則,包括問責(zé)原則、隱私原則、平等原則、透明原則、不傷害原則、非獨(dú)立原則、預(yù)警原則與穩(wěn)定原則。
[關(guān)鍵詞] 智能教育; 人工智能; 機(jī)器倫理; 國際政策; 原則; APETHICS模型
[中圖分類號(hào)] G434? ? ? ? ? ? [文獻(xiàn)標(biāo)志碼] A
[作者簡介] 杜靜(1989—),女,湖北武漢人。博士研究生,主要從事適應(yīng)性學(xué)習(xí)支持服務(wù)研究。E-mail:dujing@mail.bnu.edu.cn。黃榮懷為通訊作者,E-mail:huangrh@bnu.edu.cn。
科學(xué)技術(shù)的發(fā)展與倫理密不可分。人工智能技術(shù)帶來便捷的同時(shí),也衍生出了復(fù)雜的倫理、法律和安全問題,需要相關(guān)的規(guī)范制定者和執(zhí)行者提前布局,審慎應(yīng)對(duì)。在教育領(lǐng)域,一方面,人們期待人工智能進(jìn)一步促進(jìn)教育的發(fā)展,如支持個(gè)性化學(xué)習(xí)、提供教學(xué)適切服務(wù)等,且伴隨著人工智能進(jìn)入高中課本,中國的人工智能教育已經(jīng)正式進(jìn)入基礎(chǔ)教育階段。在人工智能技術(shù)領(lǐng)先的美國,從2018年秋季開始,匹茲堡蒙托學(xué)區(qū)也啟動(dòng)了全美第一個(gè)人工智能公立學(xué)校項(xiàng)目。另一方面,隨著智能教育應(yīng)用的廣泛開展,教育工作者嘗試通過“先進(jìn)技術(shù)”解決教學(xué)難題,在這過程中隱含一系列倫理道德的問題,如知識(shí)產(chǎn)權(quán)保護(hù)、隱私泄露、學(xué)術(shù)不端等,這使人們開始反思不當(dāng)使用“先進(jìn)技術(shù)”會(huì)造成什么負(fù)面影響,進(jìn)而衍生出“人工智能進(jìn)入教育后,人機(jī)如何共存”的社會(huì)問題。國際上已經(jīng)開始關(guān)注人工智能教育應(yīng)用過程中存在的倫理問題,然而當(dāng)前關(guān)于此領(lǐng)域的研究仍處在探索早期。為此,本文從技術(shù)悖論現(xiàn)象的視角,深度剖析人工智能應(yīng)用于教育的倫理困境,結(jié)合國際案例剖析了人工智能教育應(yīng)用面對(duì)的倫理挑戰(zhàn),并基于國內(nèi)外人工智能領(lǐng)域倫理問題的國家政策,提出智能教育倫理建構(gòu)原則,以期為人工智能教育應(yīng)用和發(fā)展提供倫理依據(jù)和啟發(fā)性思考。
一、智能時(shí)代的倫理議題
自1956年,在美國達(dá)特茅斯(Dartmouth)會(huì)議上確定人工智能(Artificial Intelligence,簡稱AI)這一術(shù)語,經(jīng)過60多年的發(fā)展,該技術(shù)已在圖像識(shí)別、機(jī)器視覺、自動(dòng)駕駛、安防等領(lǐng)域的發(fā)展取得較大進(jìn)展。在發(fā)展的過程中由于缺乏關(guān)乎倫理道德的考量,引發(fā)了一系列的問題,這使得越來越多的行業(yè)專家開始反思智能時(shí)代人機(jī)如何共處。
倫理一詞在中國最早出現(xiàn)在《禮記·樂記》:“凡音者,生于人心者也;樂者,通倫理者也”,譯為一切音樂都產(chǎn)生于人的內(nèi)心,樂與事物的倫理相同。樂與禮的關(guān)系,在《禮記》中指的也就是文藝與社會(huì)倫理道德的關(guān)系[1]。劍橋大學(xué)哲學(xué)詞典(The Cambridge Dictionary of Philosophy)指出,“倫理”(Ethics)一詞,廣義上指“道德”,狹義上常被用來表示某一特定傳統(tǒng)、群體或個(gè)人的道德原則[2]。倫理學(xué)試圖通過定義諸如善與惡、對(duì)與錯(cuò)、美德與罪惡、正義與犯罪等概念來解決人類道德問題,常常與道德心理學(xué)、描述性倫理、價(jià)值理論等領(lǐng)域的研究有關(guān)[3]。綜上所述,多數(shù)研究主要從政治、道德等方面探討倫理的內(nèi)涵,集中于人、社會(huì)、自然間倫理關(guān)系的闡述。因科技的進(jìn)步與發(fā)展,智能機(jī)器與人類生活愈發(fā)密切,我們需要進(jìn)一步審視人與智能機(jī)器的倫理關(guān)系。由此歸納在智能時(shí)代倫理的應(yīng)有內(nèi)涵,指在一定社會(huì)歷史條件下,為解決人、社會(huì)、自然與智能機(jī)器的和諧共處問題,通過制定相關(guān)原則、標(biāo)準(zhǔn)和制度,促進(jìn)人、社會(huì)、自然和智能機(jī)器的和諧共處,涉及道德、社會(huì)制度、法律等領(lǐng)域。倫理研究的本質(zhì)應(yīng)是一個(gè)不斷完善的道德實(shí)踐過程。
二、技術(shù)悖論視角下人工智能應(yīng)用于
教育的倫理困境審視
辯證唯物主義認(rèn)識(shí)論是技術(shù)辯論的思想來源,辯證唯物主義告訴我們事物是普遍聯(lián)系與存在矛盾的,看待事物的發(fā)展需要把握好兩點(diǎn)論[4],即要同時(shí)關(guān)注事物發(fā)展過程中的正面與反面。早在19世紀(jì)中期,馬克思就認(rèn)識(shí)到技術(shù)悖論對(duì)人類社會(huì)產(chǎn)生的雙面影響,他指出:“在我們這個(gè)時(shí)代,每一種事物都包含有自己的反面。我們看到,機(jī)器具有減少人類勞動(dòng)和使勞動(dòng)更有成效的神奇力量,然而卻引起了饑餓和過度的疲勞。技術(shù)的勝利,似乎是以道德的敗壞為代價(jià)換來的。”[5]人工智能技術(shù)的發(fā)展亦符合技術(shù)悖論現(xiàn)象,我們必須正視人工智能為教育領(lǐng)域帶來的種種福利,如支持個(gè)性化學(xué)習(xí)、提供學(xué)習(xí)過程適切服務(wù)、提升學(xué)業(yè)測評(píng)精準(zhǔn)性、助力教師角色變化等[6],也不可否認(rèn)在人工智能技術(shù)應(yīng)用過程中由于倫理制度的缺失、公眾道德素質(zhì)與文化素養(yǎng)的不足以及政策法規(guī)的滯后與不完善等引發(fā)的倫理問題。
(一)技術(shù)濫用引發(fā)的不端行為
或許人工智能技術(shù)并不像人類想象的那樣美好,在應(yīng)用的過程中仍舊潛藏著一定的危險(xiǎn)。在Nature評(píng)論上,2018年4月25日17位來自杜克大學(xué)、斯坦福大學(xué)、哈佛大學(xué)等諸多高校的教授和科學(xué)家聯(lián)合發(fā)表文章,指出現(xiàn)在需要對(duì)培養(yǎng)人腦組織的行為作出倫理反思,并提出亟須建立倫理道德框架以應(yīng)對(duì)這一難題[7]。劍橋大學(xué)、牛津大學(xué)與耶魯大學(xué)的學(xué)者認(rèn)為,在未來5到10年人工智能系統(tǒng)可能催生新型網(wǎng)絡(luò)犯罪、實(shí)體攻擊和政治顛覆,設(shè)計(jì)這項(xiàng)技術(shù)的人需要做更多的事情來降低技術(shù)被誤用的風(fēng)險(xiǎn),此外,政府必須考慮制定新的法律[8]。除此之外,技術(shù)濫用還有可能引發(fā)學(xué)術(shù)不端現(xiàn)象。Ikanth & Asmatulu指出,智能手機(jī)是如今最為普遍的作弊工具,大約70%的學(xué)生承認(rèn)他們在考試、作業(yè)、團(tuán)隊(duì)任務(wù)、報(bào)告和論文的寫作過程中使用各種高科技設(shè)備,比如iPad等進(jìn)行過作弊行為[9]。從社會(huì)現(xiàn)象來看,由于目前社會(huì)對(duì)倫理問題的認(rèn)知不足以及相應(yīng)規(guī)范準(zhǔn)則的缺失,設(shè)計(jì)者在開發(fā)人工智能教育產(chǎn)品時(shí)并不能準(zhǔn)確預(yù)知可能存在的風(fēng)險(xiǎn),人工智能與教育的深度融合趨勢明顯,必須考慮更深層的倫理問題,從而使人工智能教育應(yīng)用產(chǎn)品的設(shè)計(jì)目標(biāo)與更好地服務(wù)學(xué)習(xí)者的初衷相符。
(二)數(shù)據(jù)泄露引發(fā)的隱私擔(dān)憂
如今教學(xué)系統(tǒng)功能愈發(fā)智能和豐富,不僅僅可以通過指紋、人臉、聲音等生理特征識(shí)別用戶身份,還能夠搜集和記錄環(huán)境信息。Inayay開發(fā)出可實(shí)時(shí)監(jiān)控學(xué)生課堂活動(dòng)的定位系統(tǒng)和學(xué)習(xí)行為可視化系統(tǒng),并已將該系統(tǒng)應(yīng)用于132名師生[10]。課堂環(huán)境中的溫度、濕度和二氧化碳濃度嚴(yán)重影響了教師和學(xué)生的學(xué)習(xí)效率,并影響師生的身體健康,為此有研究者設(shè)計(jì)了一套基于藍(lán)牙的課堂環(huán)境實(shí)時(shí)監(jiān)測系統(tǒng)[11]。此外,還可以利用智能運(yùn)動(dòng)設(shè)備,如智能手環(huán)、智能肺活量等測評(píng)工具,深度采集學(xué)生健康數(shù)據(jù),從而發(fā)現(xiàn)學(xué)生在體質(zhì)、運(yùn)動(dòng)技能、健康程度等方面的問題[12]。智能系統(tǒng)掌握了大量的個(gè)人行為信息,如果缺乏隱私保護(hù),就可能造成數(shù)據(jù)泄露。如果這些數(shù)據(jù)使用得當(dāng),可以提升學(xué)習(xí)服務(wù)的支持效果,但如果某用戶出于某些目的非法使用行為信息,會(huì)造成隱私侵犯,甚至是違法事件。因此,設(shè)計(jì)智能系統(tǒng)時(shí)需要納入隱私保護(hù)功能。
(三)智能教學(xué)機(jī)器的身份與權(quán)力邊界
智能教學(xué)機(jī)器為一對(duì)一學(xué)習(xí)支持服務(wù)的實(shí)現(xiàn)提供了可能,可以針對(duì)不同的學(xué)生采用不同的教學(xué)方法,激發(fā)學(xué)習(xí)興趣,從而提升學(xué)習(xí)者的學(xué)習(xí)表現(xiàn)。如果長時(shí)間讓學(xué)生和智能教學(xué)機(jī)器待在一起,這些機(jī)器是否會(huì)取代教師的身份?人機(jī)交互過多是否會(huì)使學(xué)生出現(xiàn)社交障礙?歐盟已經(jīng)在考慮要不要賦予智能機(jī)器人“電子人”的法律人格[13],這意味著機(jī)器人也具備了合法身份,很難確定機(jī)器人享有的權(quán)利以及能否履行義務(wù),并對(duì)其行為負(fù)責(zé)。隨著智能教學(xué)機(jī)器的功能越來越強(qiáng)大,它在教學(xué)的過程中到底應(yīng)該扮演一個(gè)怎樣的角色。此外,在機(jī)器被賦予決策權(quán)后,智能教學(xué)機(jī)器在何種情境下輔助學(xué)生學(xué)習(xí)才能夠幫助學(xué)生達(dá)到更好的學(xué)習(xí)效果。在平板上記筆記的學(xué)生在概念性問題表現(xiàn)上比普通書寫方式記筆記的學(xué)生差,在平板上記筆記的學(xué)生雖然花了更長時(shí)間記筆記且覆蓋了更多內(nèi)容,但因?yàn)榻柚萍级粍?dòng)不走心的記憶幾乎把這些好處抵消掉了[9]。這些研究表明,技術(shù)不如教師具有親和力,在某些時(shí)候技術(shù)的使用會(huì)降低學(xué)習(xí)者的學(xué)習(xí)體驗(yàn)。
三、國際人工智能倫理研究概況
一些國家相繼成立了人工智能倫理研究的各類組織和機(jī)構(gòu)探討人工智能引發(fā)的倫理問題,如科學(xué)家組織、學(xué)術(shù)團(tuán)體和協(xié)會(huì)、高校研發(fā)機(jī)構(gòu),還有國家層面的專業(yè)性監(jiān)管組織。這些國際政策將為人工智能教育應(yīng)用的倫理模型構(gòu)建提供理論依據(jù)。
(一)多國人工智能倫理政策研究動(dòng)態(tài)
研究樣本選取包括美國、英國、德國、中國在內(nèi)二十余國的人工智能政策文件,檢索截止時(shí)間為2016年1月至2018年8月,搜索源為各國政府網(wǎng)站,搜索關(guān)鍵詞為Artificial Intelligence 或者AI。再對(duì)下載的文件進(jìn)行二次檢索,關(guān)鍵詞為ethics 或 ethic。如遇有的國家直到2018年5月也無相關(guān)文件公開發(fā)布,則將最新一次召開的人工智能會(huì)議記錄下來,以此作為該國人工智能研究進(jìn)展,如突尼斯對(duì)人工智能的研究起步較晚,于2018年4月剛召開完第一次人工智能會(huì)議,在本次統(tǒng)計(jì)中同樣進(jìn)行記錄。在對(duì)各國政策文件進(jìn)行了內(nèi)容抽取后,繪制了人工智能國家政策概覽,如圖1所示。
各國對(duì)人工智能的關(guān)注持續(xù)升溫,在該領(lǐng)域的戰(zhàn)略研究主要集中在科學(xué)研究、人才培養(yǎng)、技能培訓(xùn)、倫理與安全、標(biāo)準(zhǔn)與法規(guī)、基礎(chǔ)設(shè)施建設(shè)等方面。美國、英國、日本對(duì)人工智能的研究關(guān)注較早,政府已出版多份人工智能戰(zhàn)略文件。英國已出版四份戰(zhàn)略文件來闡述未來將會(huì)如何規(guī)范機(jī)器人技術(shù)與人工智能系統(tǒng)的發(fā)展,以及如何應(yīng)對(duì)其發(fā)展帶來的倫理道德、法律及社會(huì)問題,包括《人工智能:未來決策制定的機(jī)遇與影響》(Artificial Intelligence: Opportunities and Implications for the Future of Decision Making)、《機(jī)器人技術(shù)和人工智能》(Robotics and AI: Fifth Report of Session 2016—2017)、《人工智能行業(yè)新政》(Industrial Strategy: AI Sector Deal)和《英國人工智能調(diào)查報(bào)告》(AI in the UK:Ready,Willing,and Able)。美國于2016年連續(xù)發(fā)布三份報(bào)告,為美國的 AI 戰(zhàn)略奠定了基礎(chǔ),包括《為人工智能的未來做好準(zhǔn)備》(Preparing for the Future of Artificial Intelligence)、《國家人工智能研究和發(fā)展戰(zhàn)略計(jì)劃》(National AI Research and Development Strategic Plan)、《人工智能、自動(dòng)化與經(jīng)濟(jì)報(bào)告》(AI,Automation,and the Economy),之后于2018年5月,白宮邀請了業(yè)界、學(xué)術(shù)界和部分政府代表參加了一場人工智能峰會(huì),并發(fā)布人工智能業(yè)界峰會(huì)總結(jié)(Summary Report of White House AI Summit)。而肯尼亞、德國對(duì)人工智能戰(zhàn)略研究起步較晚,德國計(jì)劃在2018年秋季發(fā)布國家人工智能戰(zhàn)略,但目前還不清楚該戰(zhàn)略將關(guān)注哪些方面??夏醽喺?018年1月宣布將成立一個(gè)新的11人特別工作組,該小組的任務(wù)是制定鼓勵(lì)開發(fā)和采用如區(qū)塊鏈和人工智能等新技術(shù)的國家戰(zhàn)略[14]。在芬蘭、美國、英國等國的戰(zhàn)略文件中,已明確提出將關(guān)注人工智能引發(fā)的倫理問題。
從世界各國政策文件看,發(fā)達(dá)國家對(duì)人工智能各方面關(guān)注較為全面,尤其是將倫理問題上升到了一定的高度,而發(fā)展中國家更多的是關(guān)注人工智能的技術(shù)應(yīng)用和未來的商業(yè)價(jià)值等。由此,發(fā)達(dá)國家的人工智能政策雖然值得借鑒,但是在倫理研究方面各國仍處于早期狀態(tài),這對(duì)人工智能發(fā)展也有一定的制約作用。
(二)國際組織人工智能倫理研究動(dòng)態(tài)
除了國家層面關(guān)注人工智能的倫理問題研究,一些傳統(tǒng)的國際性組織和高校也開始關(guān)注人工智能治理的問題,見表1。2016年12月和2017年12月,標(biāo)準(zhǔn)制定組織IEEE(Institute of Electrical and Electronic Engineers,美國電氣和電子工程師協(xié)會(huì))發(fā)布《合倫理設(shè)計(jì)(第一版)》和《合倫理設(shè)計(jì)(第二版)》,并首次在報(bào)告中考慮人類生存幸福感(Well-being)的問題,由IEEE下屬各委員會(huì)共同完成的文件為人工智能的全球治理提供了重要參考。UNESCO(United Nations Educational,Scientific,and Cultural Organization,聯(lián)合國教科文組織)和COMEST(World Commission on the Ethics of Scientific Knowledge and Technology,世界科學(xué)知識(shí)與技術(shù)倫理委員會(huì))多年來連續(xù)多次聯(lián)合發(fā)布報(bào)告,就機(jī)器人應(yīng)用過程中的倫理問題展開了討論,包括倫理困境、如何保證創(chuàng)新是符合倫理的,如《COMEST機(jī)器人道德報(bào)告》[15],這對(duì)世界各國的人工智能監(jiān)管具有重要指導(dǎo)意義。此外,EURON(European Robotics Research Network,歐洲機(jī)器人研究網(wǎng)絡(luò))也曾對(duì)下一代人形機(jī)器人發(fā)展過程中涉及的技術(shù)二重性等倫理問題進(jìn)行簡要概述[16]。斯坦福大學(xué)的“人工智能百年研究項(xiàng)目”計(jì)劃“針對(duì)人工智能在自動(dòng)化、國家安全、心理學(xué)、道德、法律、隱私、民主以及其他問題上所能產(chǎn)生的影響,定期開展一系列的研究?!痹擁?xiàng)目的第一份研究報(bào)告《人工智能2030生活愿景》已經(jīng)于2016年9月發(fā)表??▋?nèi)基梅隆等多所大學(xué)的研究人員聯(lián)合發(fā)布《美國機(jī)器人路線圖》,以應(yīng)對(duì)人工智能對(duì)倫理和安全帶來的挑戰(zhàn)。來自行業(yè)和學(xué)術(shù)界包括牛津大學(xué)、劍橋大學(xué)、新美國安全中心(CNAS,Center for A New American Security)的人工智能專家撰寫《惡意使用人工智能風(fēng)險(xiǎn)防范:預(yù)測、預(yù)防和消減措施》,調(diào)查了人工智能惡意使用的潛在安全威脅,并提出了更好的預(yù)測、預(yù)防和減輕這些威脅的方法 [8]。
多國政策主要集中于人工智能對(duì)工業(yè)生產(chǎn)、經(jīng)濟(jì)、文化、社會(huì)、國防安全等方面帶來的顛覆性影響,但又有不同的側(cè)重點(diǎn)。美國與中國強(qiáng)調(diào)人工智能技術(shù)的發(fā)展,如美國關(guān)注人工智能的研發(fā)生態(tài)、人才培訓(xùn)戰(zhàn)略、行業(yè)應(yīng)用與國防安全,中國關(guān)注研發(fā)、工業(yè)化、人才發(fā)展、教育和職業(yè)培訓(xùn)、標(biāo)準(zhǔn)制定和法規(guī)、道德規(guī)范與安全等各個(gè)方面的戰(zhàn)略;日本和印度關(guān)注人工智能在具體領(lǐng)域的應(yīng)用,如日本關(guān)注人工智能在機(jī)器人、汽車等領(lǐng)域的落地,印度聚焦于人工智能在健康護(hù)理、農(nóng)業(yè)、教育、智慧城市和基礎(chǔ)設(shè)施與智能交通五大領(lǐng)域的應(yīng)用;歐盟對(duì)人工智能倫理問題的研究更為關(guān)注,正在研究人工智能倫理框架。這些文件中有關(guān)倫理的研究為厘清人工智能融入教育所帶來的倫理問題提供借鑒和參考。
四、面向智能教育的人工智能倫理建構(gòu)原則
現(xiàn)代科學(xué)技術(shù)在給教育帶來便利的同時(shí),也使廣大的教育工作者和學(xué)習(xí)者不得不置身于倫理困境之中。國際政策關(guān)于人工智能倫理問題的研究為智能教育倫理建構(gòu)原則的提出奠定了堅(jiān)實(shí)的政策基礎(chǔ)和前瞻性認(rèn)識(shí)。
(一)有道德人工智能的特征
科學(xué)研究無法脫離特定歷史時(shí)期對(duì)技術(shù)研究的價(jià)值取向,每一次的科學(xué)研究都蘊(yùn)含著研究主體對(duì)技術(shù)手段、研究方向和研究方法的選擇,科學(xué)技術(shù)產(chǎn)生的社會(huì)作用越大,與倫理的關(guān)系也將越來越緊密。人工智能技術(shù)的快速發(fā)展,也必然引發(fā)社會(huì)的擔(dān)憂。有學(xué)者曾經(jīng)提出,判定人工智能程序是否是符合倫理道德的初步設(shè)想,見公式(1)[17]。該學(xué)者認(rèn)為,有道德的人工智能研究需要從人工智能技術(shù)的發(fā)展逐步過渡到有道德地使用人工智能,但該學(xué)者并未明確指出怎樣的用戶行為屬于有道德的使用人工智能。
那么人工智能技術(shù)的發(fā)展是否有道德規(guī)范可循?早在1942年,艾薩克·阿西莫夫(Isaac Asimov)提出了以“不得危害人類”為核心的“機(jī)器人三原則”(The Three Laws of Robotics)(包括:機(jī)器人不得傷害人類個(gè)體,或者目睹人類個(gè)體將遭受危險(xiǎn)而袖手不管;機(jī)器人必須服從人給予它的命令,當(dāng)該命令與第一定律沖突時(shí)例外;機(jī)器人在不違反第一、第二定律的情況下要盡可能保護(hù)自己的生存)[18]。三定律針對(duì)機(jī)器人和人兩大主體規(guī)定了機(jī)器人的行為規(guī)則,但該定律并未給出有關(guān)于人類和機(jī)器人的明確的、統(tǒng)一的定義。在1983年,他又在此基礎(chǔ)上添加了零原則,即機(jī)器人必須保護(hù)人類的整體利益不受傷害,其他三條定律都是在這一前提下才能成立[19]。新“機(jī)器人三原則”被認(rèn)為是人類對(duì)人工智能倫理道德反思的開端。
(二)人工智能倫理關(guān)鍵要素分析
在搜集國際人工智能政策文件的基礎(chǔ)上,利用內(nèi)容分析法對(duì)相關(guān)文件中的倫理要素進(jìn)行了提取,見表2。政府、高校、國際組織均嘗試對(duì)人工智能的倫理問題進(jìn)行探討,從倫理相關(guān)要素看,均對(duì)人工智能立法、安全、責(zé)任認(rèn)定等有著一致性,但也有差異問題。政府希望通過制定法律保護(hù)公民的權(quán)益,如個(gè)人隱私、明確責(zé)任主體;國際組織更加強(qiáng)調(diào)人工智能社會(huì)價(jià)值的探討,如人類利益、機(jī)器意識(shí)等關(guān)鍵詞多次出現(xiàn);高校則結(jié)合實(shí)際問題提出了應(yīng)對(duì)人工智能風(fēng)險(xiǎn)問題。除此以外,有研究者指出,引入智能機(jī)器帶來的全球性的社會(huì)和倫理問題可總結(jié)為技術(shù)的二元性、技術(shù)產(chǎn)品的人格化、技術(shù)沉迷、數(shù)字鴻溝、數(shù)字資源公平享有權(quán)、技術(shù)對(duì)全球財(cái)富和權(quán)力的影響、技術(shù)對(duì)環(huán)境的影響[20]。工程公司美國理事會(huì)倫理守則(American Council of Engineering Companies Ethical Guidelines)還指出,安全性和可靠性也是人造產(chǎn)品需要考慮的道德因素[21],同時(shí),還要注意人權(quán)[22]、責(zé)任權(quán)、公正權(quán)、正義、非歧視原則、知情權(quán)、社會(huì)責(zé)任、平等權(quán)。
(三)智能教育倫理的建構(gòu)原則
由于人工智能的交叉性,人工智能可與其他應(yīng)用倫理學(xué)共享問題和解決方案,如計(jì)算機(jī)倫理、信息倫理、生物倫理學(xué)、技術(shù)倫理和神經(jīng)倫理學(xué)。計(jì)算機(jī)和信息倫理學(xué)已發(fā)展出了名為PAPA的道德準(zhǔn)則,即隱私權(quán)(Privacy)、準(zhǔn)確性(Accuracy)、所有權(quán)(Property)、易獲得性(Accessibility)[23]。為此,在參照PAPA模型的基礎(chǔ)上,基于對(duì)人工智能倫理的相關(guān)要素分析,立足人工智能在教育領(lǐng)域的應(yīng)用現(xiàn)狀,從人機(jī)共存角度,抽取與學(xué)生發(fā)展密切相關(guān)的要素,涉及明確責(zé)任主體、保護(hù)人類隱私、不偏見不歧視、決策透明化、保護(hù)人類利益不受侵害、提前預(yù)警危險(xiǎn)行為、系統(tǒng)穩(wěn)定可控等多個(gè)方面,最終歸納出面向智能教育的人工智能倫理建構(gòu)模型,即問責(zé)原則(Principle of Accountability)、隱私原則(Principle of Privacy)、平等原則(Principle of Equality)、透明原則(Principle of Transparency)、不傷害原則(Principle of Noharm)、身份認(rèn)同原則(Principle of Identity)、預(yù)警原則(Principle of Precaution)、穩(wěn)定原則(Principle of Stability),概括為“APETHICS”模型,如圖2所示。需要說明的是,取單詞Caution首字母C代表預(yù)警原則,其余均取單詞首字母表示各原則,縮寫字母A在本模型中代表問責(zé)原則,也可以看作為Artificial Intelligence中Artificial的首字母,P在本模型中代表隱私原則,也可以看作為“+”(Plus),其余的取單詞首字母,恰好為倫理“Ethics”一詞,合并后為A(rtificial Intelligence) & P(lus) & Ethics。以下將對(duì)原則進(jìn)行具體解讀:
1. 問責(zé)原則(Principle of Accountability)
“問責(zé)原則”主要是指明確責(zé)任主體,建立具體的法律明確說明為什么以及采取何種方式讓智能系統(tǒng)的設(shè)計(jì)者和部署者承擔(dān)應(yīng)有的義務(wù)與責(zé)任。問責(zé)是面向各類行為主體建立的多層責(zé)任制度。然而,分清楚責(zé)任人是極具挑戰(zhàn)性的,例如,在自動(dòng)駕駛汽車獨(dú)立作出智能決策導(dǎo)致傷害發(fā)生的情況下,誰應(yīng)當(dāng)為自動(dòng)駕駛汽車發(fā)生的故障和事故負(fù)責(zé)的問題,是應(yīng)該由司機(jī)、自動(dòng)汽車生產(chǎn)者或是人工智能系統(tǒng)設(shè)計(jì)公司來承擔(dān)法律責(zé)任?在這里還難以作出明確的判斷?!稙槿斯ぶ悄艿奈磥碜龊脺?zhǔn)備》提出了一般性的應(yīng)對(duì)方法,強(qiáng)調(diào)基于風(fēng)險(xiǎn)評(píng)估和成本收益原則決定是否對(duì)人工智能技術(shù)的研發(fā)與應(yīng)用施以監(jiān)管負(fù)擔(dān)[24]。在UNESCO和COMEST聯(lián)合發(fā)布的《Report of COMEST on Robotics Ethics》中嘗試明確責(zé)任主體[15],見表3。在追責(zé)政策制定不完善、主體責(zé)任不明確、監(jiān)督責(zé)任不到位、傷害人類行為多發(fā)頻發(fā)等問題發(fā)生時(shí)起到一定的緩解作用,以問責(zé)倒逼責(zé)任落實(shí),落實(shí)科學(xué)家、設(shè)計(jì)者、政策制定者、使用者的各級(jí)責(zé)任,爭取做到“失責(zé)必問、問責(zé)必嚴(yán)”。
2. 隱私原則(Principle of Privacy)
《辭海》將隱私定義為公民依法享有的不公開與其私人生活有關(guān)的事實(shí)和秘密的權(quán)利?!妒澜缛藱?quán)宣言》曾經(jīng)明確規(guī)定,“任何人的私生活、家庭、住宅和通信不得任意干涉,他的榮譽(yù)和名譽(yù)不得加以攻擊”[25]。在人工智能時(shí)代,“隱私原則”更強(qiáng)調(diào)人們應(yīng)該有權(quán)利存取、管理和控制智能機(jī)器產(chǎn)生的數(shù)據(jù),以確保機(jī)器不會(huì)向任何未經(jīng)授權(quán)的個(gè)人或企業(yè)提供用戶信息。如今,我國有關(guān)如何在人工智能時(shí)代保護(hù)學(xué)習(xí)者隱私不受侵害的法律還不健全,關(guān)于何為侵犯隱私、何種行為侵犯隱私、如果侵犯如何處罰的相關(guān)法律仍缺失,倘若學(xué)習(xí)者隱私受到侵害也無法找到合適的解決途徑。國外的人工智能研究人員已經(jīng)在提倡如何在深度學(xué)習(xí)過程中保護(hù)個(gè)人隱私[26]。人工智能時(shí)代為學(xué)習(xí)者隱私保駕護(hù)航,將是促進(jìn)社會(huì)和諧發(fā)展與長足進(jìn)步的不可或缺因素。
3. 平等原則(Principle of Equality)
“平等原則”指杜絕因算法偏差導(dǎo)致的算法歧視現(xiàn)象?;诜N族、生活方式或居住地的分析是對(duì)個(gè)人常態(tài)數(shù)據(jù)的分析,該種算法風(fēng)險(xiǎn)可以避免,而“算法歧視”的實(shí)質(zhì)是用過去的數(shù)據(jù)預(yù)測用戶未來的表現(xiàn),如果用過去的不準(zhǔn)確或者有偏見的數(shù)據(jù)來訓(xùn)練算法,得出的結(jié)果肯定也是有偏見的。不少研究者堅(jiān)持,數(shù)字不會(huì)說謊,可以代表客觀事實(shí),甚至可以公平地為社會(huì)服務(wù)。但是,已有研究發(fā)現(xiàn),建立在數(shù)據(jù)基礎(chǔ)之上的算法系統(tǒng)也會(huì)犯錯(cuò)、帶有偏見,而且比以往出現(xiàn)的數(shù)字歧視更加隱秘。亞馬遜嘗試了價(jià)格歧視,這意味著不同的消費(fèi)者購買同一件商品的價(jià)格不同[27]。為消除該風(fēng)險(xiǎn),數(shù)據(jù)人員應(yīng)該確定數(shù)據(jù)中存在的某種偏差,并采用相應(yīng)的策略評(píng)估該偏差帶來的影響。
4. 透明原則(Principle of Transparency)
“透明原則”指明確說明使用了哪些算法、哪些參數(shù)、哪些數(shù)據(jù)實(shí)現(xiàn)了什么目的,機(jī)器的運(yùn)作規(guī)則和算法讓所有人都能夠明白。機(jī)器需要了解學(xué)習(xí)者的行為以作出決策,所有人包括學(xué)習(xí)者也必須了解機(jī)器是如何看待自己和分析自己的處理過程。如果學(xué)生個(gè)人畫像不正確,卻無法糾正,該怎么辦?當(dāng)系統(tǒng)搜集學(xué)生的信息,卻得出錯(cuò)誤的結(jié)論,該怎么辦?目前被廣泛討論的是深度學(xué)習(xí)的“黑箱”決策過程,它擁有更多的自主決策權(quán),許多研究者試圖打開這個(gè)“黑箱”。如利用反事實(shí)調(diào)查的人工智能神經(jīng)科學(xué)工具理解這種黑箱[28]。這種迫切性不僅出自科學(xué)[29]。美國國防高級(jí)項(xiàng)目研究計(jì)劃局(The Defense Advanced Research Projects Agency,簡稱DARPA)為名為“可解釋AI”(Explainable AI)的新計(jì)劃投入了7000萬美元,旨在對(duì)支撐無人機(jī)與情報(bào)挖掘行動(dòng)的深度學(xué)習(xí)作出解釋[30]。倫理和設(shè)計(jì)往往息息相關(guān),人工智能開發(fā)必須警惕社會(huì)和文化偏見,確保研究具有普適性的算法,消除算法歧視存在的可能空間。
5. 不傷害原則(Principle of Noharm)
“不傷害原則”也可以理解為Principle of Do Not Harm,指必須阻攔機(jī)器的無意識(shí)行為對(duì)人類造成的傷害,任何情況下,不區(qū)別對(duì)待文化、種族、民族、經(jīng)濟(jì)地位、年齡、區(qū)域等因素,都要維護(hù)人類的權(quán)益,不得侵害人類權(quán)益。利弊相生,人工智能技術(shù)的二重性在給人類的生活和生產(chǎn)帶來便利的同時(shí),也會(huì)因技術(shù)運(yùn)用不當(dāng)給人類帶來毀滅性的災(zāi)難。Google團(tuán)隊(duì)對(duì)DeepMind人工智能系統(tǒng)進(jìn)行行為測試,通過設(shè)計(jì)“搜集水果游戲”和“群狼狩獵游戲”來模擬當(dāng)多個(gè)DeepMind人工智能系統(tǒng)具有相似或沖突的目標(biāo)時(shí),是內(nèi)斗還是合作。初步的研究結(jié)果表明,機(jī)器人以及人工智能系統(tǒng)具有“殺手潛能”,它們并不會(huì)自動(dòng)地將人類的利益放在“心”上[31],設(shè)計(jì)算法的技術(shù)人員需要考慮人性的因素。
6. 身份認(rèn)同原則(Principle of Identity)
“身份認(rèn)同原則”指明確智能機(jī)器的“社會(huì)身份”,從而規(guī)范其權(quán)利與義務(wù)。例如,是否該賦予機(jī)器人公民身份與人的權(quán)利。智能機(jī)器是世界物質(zhì)組成的一部分,非獨(dú)立存在,智能機(jī)器的身份問題日益重要。人工智能融入教育,已經(jīng)開始影響現(xiàn)存的人類社會(huì)結(jié)構(gòu),人—社會(huì)—自然三元社會(huì)正在逐漸地向人—社會(huì)—自然—智能機(jī)器四元社會(huì)發(fā)展。無論是先秦的“天人合一”論,還是宋明的“萬物一體”論,都強(qiáng)調(diào)人與人、人與物、人與社會(huì)以及人與自然的整體性、和諧性、統(tǒng)一性關(guān)系[32]。在人工智能時(shí)代,需要強(qiáng)調(diào)的是,人與人、人與智能機(jī)器、人與社會(huì)、人與自然、機(jī)器與自然的整體性、和諧性與統(tǒng)一性,為此需要確立人工智能在教育中的定位,以保障技術(shù)、教師、學(xué)生、環(huán)境之間的平衡。
7. 預(yù)警原則(Principle of Precaution)
“預(yù)警原則”強(qiáng)調(diào)當(dāng)機(jī)器出現(xiàn)危害人類的行為時(shí),采取行動(dòng)避免傷害,因此,人類需要對(duì)機(jī)器的行為進(jìn)行監(jiān)管,并開發(fā)相應(yīng)的預(yù)警技術(shù)。危害人類和環(huán)境的行為包括:威脅人類的生命;嚴(yán)重的或者不可逆的傷害人類權(quán)益的行為[33]。谷歌和牛津大學(xué)聯(lián)合發(fā)起的人工智能系統(tǒng)“自我毀滅裝置”(Kill Switch)研究項(xiàng)目,這個(gè)裝置能夠讓人工智能系統(tǒng)處于不間斷的人類監(jiān)管干預(yù)之下。通過算法和功能,讓人工智能系統(tǒng)擺脫不良行為,杜絕危害人類行為事件的發(fā)生。
8. 穩(wěn)定原則(Principle of Stability)
“穩(wěn)定原則”指系統(tǒng)算法穩(wěn)定且一致,系統(tǒng)不出現(xiàn)不必要的行為或者功能上的非一致性和異常結(jié)果。人工智能系統(tǒng)應(yīng)確保運(yùn)行可靠安全,避免在不可預(yù)見的情況下造成傷害,或者被人惡意操縱,實(shí)施有害行為。如果我們希望利用技術(shù)來滿足人類的需要,人類就必須更深入地理解和尊重機(jī)器,從而更好地發(fā)揮智能機(jī)器的作用。需要指出的是,對(duì)于知識(shí)創(chuàng)造性的工作,比如醫(yī)療、教育培訓(xùn)中具有高度“不確定性”的工作,其承擔(dān)者則非人類莫屬。
五、總結(jié)與展望
將人工智能廣泛而有效地應(yīng)用于教學(xué),是未來學(xué)校教育發(fā)展的必然趨勢,具有更強(qiáng)的靈活性、包容性、個(gè)性化的人工智能技術(shù)可以助力重塑學(xué)校教育,進(jìn)一步提升教學(xué)的效果、效率和效益,以適應(yīng)現(xiàn)代信息化、數(shù)字化、智能化的學(xué)習(xí)型和創(chuàng)新型社會(huì)的需要,同時(shí),為教育2030的實(shí)現(xiàn)提供強(qiáng)有力的智力支持。在預(yù)見人工智能技術(shù)巨大潛能的同時(shí),也不可忽略道德規(guī)范、產(chǎn)品標(biāo)準(zhǔn)和安全規(guī)范的社會(huì)呼吁和學(xué)術(shù)研究。對(duì)待人工智能,我們?nèi)耘f應(yīng)當(dāng)保持“樂觀>焦慮”的態(tài)度,讓人工智能始終服務(wù)于我們的工作和生活,形成造福社會(huì)、推動(dòng)發(fā)展、助力改革的無盡活力。本文深度剖析人工智能教育應(yīng)用的倫理困境,試圖通過人工智能教育應(yīng)用倫理的“APETHICS”模型與建構(gòu)原則,厘清人工智能教育應(yīng)用的價(jià)值觀念、社會(huì)責(zé)任。在今后的研究中,需進(jìn)一步細(xì)化概念模型中包含的原則。
[參考文獻(xiàn)]
[1] 張恩普. 《禮記·樂記》文學(xué)批評(píng)思想探討[J]. 古籍整理研究學(xué)刊,2006(1):35-37.
[2] AUDI R, AUDI P. The cambridge dictionary of philosophy[M]. United Kindom: Cambridge University Press,1995.
[3] Wikipedia. Ethics[EB/OL]. (2001-12-19) [2018-07-13]. https://en.wikipedia.org/wiki/Ethics#cite_note-2.
[4] 張?jiān)礀|.社會(huì)技術(shù)與社會(huì)技術(shù)悖論淺析[J].學(xué)理論,2018(4):79-81.
[5] 馬克思,恩格斯.馬克思恩格斯選集:第 1 卷[M].北京:人民出版社, 1972.
[6] 劉德建,杜靜,姜男,等.新一輪人工智能融入學(xué)校教育的趨勢分析[J]. 開放教育研究,2018,24(4):33-42.
[7] FARAHANY N A, GREELY H T, HYMAN S, et al. The ethics of experimenting with human brain tissue[J]. Nature, 2018, 556(7702):429-432.
[8] BRUNDAGE M, AVIN S, CLARK J, et al. The malicious use of artificial intelligence: forecasting, prevention, and mitigation[EB/OL]. (2018-02-01) [2018-07-13]. https://maliciousaireport.com/.
[9] IKANTH M, ASMATULU R. Modern cheating techniques, their adverse effects on engineering education and preventions[J]. International journal of mechanical engineering education, 2016, 42(2):129-140.
[10] INAYAT I. Real-time student visualization system in classroom using RFID based on UTAUT model[J]. International journal of information and teaching technology, 2017, 34(3):274-288.
[11] PENG K, CHEN J. A classroom environment monitoring system based on bluetooth[J]. Electronic science & technology, 2017,30(2):123-129.
[12] 余勝泉. 人工智能教師的未來角色[J]. 開放教育研究,2018,24(1):16-28.
[13] GUGARDIAN. Give robots 'personhood' status, EU committee argues[EB/OL]. (2017-01-12) [2018-07-13]. https://www.theguardian.com/technology/2017/jan/12/give-robots-personhood-status-eu-committee-argues.
[14] WALLSTREET K. Kenya govt sets blockchain & artificial intelligence taskforce! [EB/OL] (2018-01-16) [2018-07-13] https://kenyanwallstreet.com/kenya-govt-sets-blockchain-artificial-intelligence-taskforce/.
[15] UNESCO & COMEST. Report of COMEST on robotics ethics [R]. Praris: UNESCO, 2017.
[16] VERUGGIO G. The EURON roboethics roadmap: HR 2007: proceedings of international conference on humanoid robots, pittsburgh, 29 november - 1 december 2007[C]. Pennsylvania: IEEE, 2007.
[17] KORB K B. Ethics of AI[EB/OL]. (2007-01-01) [2018-07-13]. https://www.researchgate.net/publication/247934914_Ethics_of_AI.
[18] MORAN M. Three laws of robotics and surgery[J]. Journal of endourology, 2008, 22(22): 1557-1560.
[19] COECKELBERGH M. Moral appearances: emotions, robots, and human morality[J]. Ethics & information technology, 2010, 12(3): 235-241.
[20] VERUGGIO G, OPERTO F. Roboethics: social and ethical implications of robotics[M]. Berlin: Spinger, 2008.
[21] HANSEN K L, ZENOBIA K E. Civil engineer's handbook of professional practice[J]. 2011, 75(1):1-2.
[22] KARDOS-KAPONYI E. The charter of fundamental rights of the European Union[J]. Official journal of European Communities, 2000, 23(1/2): 137-170.
[23] PARRISH J L. Papa knows best: principles for the ethical sharing of information on social networking sites[J]. Ethics & information technology, 2010,12(2): 187-193.
[24] White House Office of Science and Technology Policy. Preparing for the future of artificial intelligence[EB/OL]. (2016-10-01) [2018-07-13]. https://obamawhitehouse.archives.gov.
[25] 格德門德爾·阿爾弗雷德松.世界人權(quán)宣言[M]. 中國人權(quán)研究會(huì),譯. 成都: 四川人民出版社,1999.
[26] PAPERNOT N, ABADI M, ULFAR ERLINGSSON, et al. Semi-supervised knowledge transfer for deep learning from private training data[EB/OL]. (2016-10-01) [2018-07-13]. https://www.researchgate.net.
[27] HUTSON M. How artificial intelligence could negotiate better deals for humans[EB/OL]. (2017-09-11)[2019-06-30]. https://www.sciencemag.org/news.
[28] MISHRA S, STURM B L, DIXON S. Introduction to local interpretable model-agnostic explanations[EB/OL]. (2016-08-12) [2018-07-13]. https://www.oreilly.com/learning/introduction-to-local-interpretable-model-agnostic-explanations-lime.
[29] VOOSEN P. How AI detectives are cracking open the black box of deep learning[EB/OL]. (2017-07-06)[2019-06-30]. https://www.sciencemag.org/news.
[30] DAVID G. Explainable artificial intelligence (XAI)[EB/OL]. (2016-10-16) [2018-07-13]. https://www.darpa.mil/program/explainable -artificial-intelligence.
[31] DOM G, JOLENE C. Google deepmind shows that AI can have “killer instincts”[EB/OL]. (2017-02-13) [2018-07-13]. https://futurism.com/google-deepmind-researchers-show-that-ai-can-have-killer-instincts/.
[32] 高晨陽. 論中國傳統(tǒng)哲學(xué)整體觀[J]. 山東大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),1987(1):113-121.
[33] UNESCO. The precautionary principle[EB/OL]. (2005-03-01) [2018-07-13].? http://www.precautionaryprinciple.eu/.