国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能倫理:規(guī)制、理論與實(shí)踐難題

2024-06-03 12:49:01岳瑨
關(guān)鍵詞:實(shí)踐理論

[摘? 要] 人工智能技術(shù)(AI)智能體面臨包括決策權(quán)、所有權(quán)、隱私權(quán)等方面的倫理風(fēng)險(xiǎn)問(wèn)題,也面臨作為智能體在獨(dú)立學(xué)習(xí)內(nèi)容和獨(dú)立行為目的等“類(lèi)主體行為”中倫理能力方面的風(fēng)險(xiǎn)問(wèn)題。為了規(guī)范發(fā)展,避免倫理風(fēng)險(xiǎn)發(fā)生,各機(jī)構(gòu)、組織和企業(yè)建立了各自的準(zhǔn)則和標(biāo)準(zhǔn)。國(guó)外學(xué)者關(guān)于AI倫理是否可行的探究,涉及AI主體形態(tài)(作為agent的)倫理復(fù)雜性問(wèn)題、AI行為形態(tài)、AI位格形態(tài)關(guān)于道德權(quán)利(地位)、道德責(zé)任的爭(zhēng)論。國(guó)內(nèi)相關(guān)研究路徑主要有三條:對(duì)AI的主體地位進(jìn)行形而上學(xué)的分析、對(duì)AI倫理問(wèn)題提出相應(yīng)的實(shí)踐解決框架、對(duì)AI的具體應(yīng)用領(lǐng)域中的倫理問(wèn)題進(jìn)行探討。從風(fēng)險(xiǎn)規(guī)制、理論拓展、實(shí)踐難題三個(gè)方面對(duì)人工智能倫理進(jìn)行學(xué)術(shù)史梳理及問(wèn)題域考察,需要聚焦三大前沿:(1)推進(jìn)系統(tǒng)化的AI倫理理論和原則框架;(2)建立“理論-實(shí)踐”“全球性-地方性”相溝通的開(kāi)放性解題思路;(3)形成探索AI道德形態(tài)研究的新方法。

[關(guān)鍵詞] 人工智能倫理? 理論-實(shí)踐? 道德形態(tài)

[基金項(xiàng)目]

本文系國(guó)家社科基金重大項(xiàng)目“人工智能倫理風(fēng)險(xiǎn)防范研究”(20&ZD040)、江蘇省社科基金重點(diǎn)項(xiàng)目“人工智能的倫理風(fēng)險(xiǎn)及防范研究”(20ZXA001)階段性成果。

[作者簡(jiǎn)介]

岳瑨,東南大學(xué)哲學(xué)與科學(xué)系教授,博士生導(dǎo)師,國(guó)家社科基金重大項(xiàng)目“人工智能倫理風(fēng)險(xiǎn)防范研究”首席專(zhuān)家,研究方向:人工智能倫理、科技倫理。

①? 唐川:《OECD制定人工智能發(fā)展建議》,《科研信息化技術(shù)與應(yīng)用》2019年第3期。

人工智能技術(shù)(Artificial Intelligence,以下簡(jiǎn)稱(chēng)AI)愈來(lái)愈“智能”并逐漸進(jìn)入人們?nèi)粘I睢I智能體作為交互式、自主性、自學(xué)習(xí)的“自主體”,被稱(chēng)作“agent”(也可譯做“類(lèi)主體”或“準(zhǔn)主體”)。它面臨包括決策權(quán)、所有權(quán)、隱私權(quán)等方面的倫理風(fēng)險(xiǎn)問(wèn)題,也面臨作為智能體在獨(dú)立學(xué)習(xí)內(nèi)容和獨(dú)立行為目的等“類(lèi)主體行為”中倫理能力方面的風(fēng)險(xiǎn)問(wèn)題。AI相關(guān)倫理問(wèn)題與委托和責(zé)任等“代理模式”的深度運(yùn)用及其智能化展現(xiàn)相關(guān)?,F(xiàn)如今,這種模式的廣泛應(yīng)用,已經(jīng)前所未有地將人工智能的倫理風(fēng)險(xiǎn)防范問(wèn)題與保護(hù)人類(lèi)生存安全和自由意志緊密地關(guān)聯(lián)在一起。因此,AI倫理框架和倫理規(guī)制成為近幾年國(guó)內(nèi)外各方面關(guān)注的前沿和熱點(diǎn)問(wèn)題,也激發(fā)了倫理理論及其實(shí)踐難題的持續(xù)研討。

本文從風(fēng)險(xiǎn)規(guī)制、理論拓展、實(shí)踐難題三個(gè)方面,對(duì)AI倫理進(jìn)行學(xué)術(shù)史梳理及問(wèn)題域考察,試圖借此思考AI倫理研究進(jìn)一步發(fā)展與突破的方向。

一、問(wèn)題的提出:AI倫理指南與風(fēng)險(xiǎn)規(guī)制

2004年國(guó)際首屆機(jī)器人倫理研討會(huì)正式提出“機(jī)器人倫理學(xué)”,機(jī)器行為模式被納入倫理視域,AI倫理研究開(kāi)始為世人所關(guān)注。

2019年5月22日,國(guó)際經(jīng)合組織(簡(jiǎn)稱(chēng)OECD)理事會(huì)審議通過(guò)了經(jīng)合組織數(shù)字經(jīng)濟(jì)政策委員會(huì)提出的“人工智能標(biāo)準(zhǔn)草案”。這是迄今為止世界上第一個(gè)政府間的AI標(biāo)準(zhǔn)。經(jīng)合組織AI標(biāo)準(zhǔn)旨在通過(guò)加強(qiáng)對(duì)可信任AI的責(zé)任管理,確保AI尊重人權(quán)和尊重民主價(jià)值觀,從而不斷促進(jìn)AI的技術(shù)創(chuàng)新并獲得人們的信任。它的實(shí)體部分由兩個(gè)部分組成:一是規(guī)定了可信任AI的責(zé)任管理,提出了五項(xiàng)基本原則(包容性增長(zhǎng)、可持續(xù)發(fā)展和福祉;以人為本的價(jià)值觀和公平性;透明性和可解釋性;穩(wěn)健性、可靠性和安全性;可追責(zé)性);二是規(guī)定了可信任AI的國(guó)家政策和國(guó)際合作①。

為了規(guī)范發(fā)展,避免倫理風(fēng)險(xiǎn)發(fā)生,或在倫理風(fēng)險(xiǎn)發(fā)生后能夠有解決機(jī)制,各種機(jī)構(gòu)、組織和企業(yè)建立了各自的準(zhǔn)則和標(biāo)準(zhǔn),如:歐盟發(fā)布的《可信人工智能倫理指南草案》 (Draft Ethics Guidelines for Trustworthy AI,2018)、《算法責(zé)任與透明治理框架》(A governance framework for algorithmic accountability and transparency,2019)以及《人工智能白皮書(shū):通往卓越和信任的歐洲路徑》(White Paper on Artificial Intelligence: A European approach to excellence and trust,2020);英國(guó)的《英國(guó)人工智能發(fā)展的計(jì)劃、能力與志向》(AI in the UK: ready, willing and able,2018);生命未來(lái)研究所(Future of Life Institute)的阿西洛馬人工智能原則(Asilomar AI Principles,2017);OpenAI的OpenAI憲章(OpenAI Charter,2018);谷歌發(fā)布的人工智能原則(Google AI Principles,2018);電氣電子工程師協(xié)會(huì)(IEEE)的人工智能設(shè)計(jì)倫理準(zhǔn)則(Ethically Aligned Design V2,2017);人工智能聯(lián)盟(Partnership on AI)的人工智能聯(lián)盟信條(Partnership on AI Tenets,2016);國(guó)際電信聯(lián)盟(ITU)等聯(lián)合國(guó)機(jī)構(gòu)的人工智能造福人類(lèi)峰會(huì)(AI for Global Good Summit,2017);哈佛大學(xué)、麻省理工學(xué)院(MIT)的人工智能倫理與監(jiān)管基金會(huì)(Ethics and Governance of AI Fund,2017);德國(guó)自動(dòng)駕駛倫理委員會(huì)(German Ethics Commission on Automated and Connected Driving)提出首套針對(duì)無(wú)人駕駛汽車(chē)的官方倫理指導(dǎo)原則(2018);歐洲政治戰(zhàn)略中心發(fā)布的《人工智能時(shí)代:確立以人為本的歐洲戰(zhàn)略》(The Age of Artificial Intelligence: Towards a European Strategy for Human-Centric Machines,2018);斯坦福大學(xué)創(chuàng)建“以人為本人工智能研究院”(Stanford Human-Centered AI Institute,2018);奧迪、百度、寶馬等國(guó)際企業(yè)聯(lián)合發(fā)布的《自動(dòng)駕駛安全第一》白皮書(shū)(Safety First for Automated Driving,2019);騰訊公司開(kāi)展的“科技向善”專(zhuān)題活動(dòng),以及馬化騰提出的可知、可控、可用和可靠四個(gè)原則(2018);2024年3月21日,聯(lián)合國(guó)大會(huì)通過(guò)首個(gè)關(guān)于人工智能的全球決議《抓住安全、可靠和值得信賴(lài)的人工智能系統(tǒng)帶來(lái)的機(jī)遇,促進(jìn)可持續(xù)發(fā)展》。

中國(guó)國(guó)務(wù)院于2017 年7月20日發(fā)布《國(guó)務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》,作為我國(guó)人工智能發(fā)展規(guī)劃的基石《國(guó)務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》(2017-07-20)[2024-01-10],https://www.gov.cn/zhengce/zhengceku/2017-07/20/content_5211996.htm。,并前后出臺(tái)《“互聯(lián)網(wǎng)+”人工智能三年行動(dòng)實(shí)施方案》《“互聯(lián)網(wǎng)+”人工智能三年行動(dòng)實(shí)施方案》(2016-05-23)[2024-02-13],https://www.gov.cn/xinwen/2016-05/23/5075944/files/9cb49ac44cf341b29adf687b6857da34.pdf。、《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》(2019-06-17)[2024-01-27],https://www.gov.cn/xinwen/2019-06/17/content_5401006.htm。、《北京市自動(dòng)駕駛車(chē)輛道路測(cè)試管理實(shí)施細(xì)則(試行)》《北京市自動(dòng)駕駛車(chē)輛道路測(cè)試管理實(shí)施細(xì)則(試行)》(2020-11-12)[2024-01-27],https://www.beijing.gov.cn/xxgk/flfg/zcfg/202011/t20201116_2136351.html。;2020年7月27日,國(guó)家標(biāo)準(zhǔn)化管理委員會(huì)等五部門(mén)印發(fā)了《國(guó)家新一代人工智能標(biāo)準(zhǔn)體系建設(shè)指南》,明確指出倫理、安全、隱私在AI發(fā)展中的引領(lǐng)作用,規(guī)范AI服務(wù)沖擊傳統(tǒng)道德倫理和法律秩序而產(chǎn)生的要求,重點(diǎn)研究醫(yī)療、交通、應(yīng)急救援等特殊領(lǐng)域的AI倫理問(wèn)題《國(guó)家新一代人工智能標(biāo)準(zhǔn)體系建設(shè)指南》(2020-07-27)[2024-02-17],https://www.gov.cn/zhengce/zhengceku/2020-08/09/content_5533454.htm。;2021年9月25日,國(guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì)發(fā)布《新一代人工智能倫理規(guī)范》,旨在將倫理道德融入人工智能全生命周期,積極引導(dǎo)全社會(huì)負(fù)責(zé)任的開(kāi)展人工智能研發(fā)與應(yīng)用活動(dòng)《新一代人工智能倫理規(guī)范》(2021-09-25)[2024-03-09],https://www.most.gov.cn/kjbgz/202109/t20210926_177063.html。;2022年4月中國(guó)信息通信研究院發(fā)布《人工智能白皮書(shū)》指出,人工智能接下來(lái)的持續(xù)健康發(fā)展,將由“技術(shù)創(chuàng)新、工程實(shí)踐、可信安全‘三維坐標(biāo)來(lái)定義和牽引”,人工智能治理實(shí)質(zhì)化進(jìn)程加速推進(jìn),從初期構(gòu)建以“軟法”為導(dǎo)向的社會(huì)規(guī)范體系,開(kāi)始邁向以“硬法”為保障的風(fēng)險(xiǎn)防控體系,特別聚集于自動(dòng)駕駛、智慧醫(yī)療和人臉識(shí)別等領(lǐng)域中國(guó)信通院:《人工智能白皮書(shū)(2022年)》(2022-04-03)[2024-02-17],https://www.thepaper.cn/newsDetail_forward_17646199。;2023年3月國(guó)家人工智能標(biāo)準(zhǔn)化總體組、全國(guó)信標(biāo)委人工智能分委會(huì)發(fā)布《人工智能倫理治理標(biāo)準(zhǔn)化指南》,其中明確提出以人為本(For Human)、可持續(xù)性(Sustainability)、合作(Collaboration)、隱私(Privacy)、公平(Fairness)、共享(Share)、外部安全(Security)、內(nèi)部安全(Safety)、透明(Transparency)、可問(wèn)責(zé)(Accountability)10項(xiàng)可實(shí)施性較強(qiáng)的人工智能倫理準(zhǔn)則國(guó)家人工智能標(biāo)準(zhǔn)化總體組、全國(guó)信標(biāo)委人工智能分委會(huì):《人工智能倫理治理標(biāo)準(zhǔn)化指南(2023年)》(2023-03-13)[2024-02-10],https://baike.baidu.com/item/人工智能倫理治理標(biāo)準(zhǔn)化指南/62961103?fr=ge_ala。。

二、AI倫理的學(xué)術(shù)史展開(kāi):理論與實(shí)踐的復(fù)雜性

在各國(guó)和各組織制定相應(yīng)政策框架的同時(shí),學(xué)術(shù)界關(guān)于AI倫理問(wèn)題進(jìn)行了激烈的思考和討論。國(guó)外學(xué)者最早切入AI倫理是否可行的問(wèn)題探究,揭示了AI倫理在其學(xué)術(shù)史視域顯現(xiàn)的理論與實(shí)踐的復(fù)雜性,主要涉及三個(gè)方面: AI主體形態(tài)(作為agent)的倫理復(fù)雜性問(wèn)題;AI行為形態(tài)的倫理難題;AI位格形態(tài)關(guān)于道德權(quán)利(地位)、道德責(zé)任的爭(zhēng)論。

第一,AI主體形態(tài)的倫理復(fù)雜性問(wèn)題。

溫德?tīng)枴ね呃眨╓endell Wallach)認(rèn)為,如果把重點(diǎn)放在實(shí)踐上,是過(guò)分簡(jiǎn)化了倫理問(wèn)題的復(fù)雜性。倫理復(fù)雜性有兩個(gè)根源:一是倫理理論內(nèi)部關(guān)于基本概念的爭(zhēng)論;二是對(duì)現(xiàn)實(shí)世界做規(guī)范化判斷的分歧。人類(lèi)道德是一種復(fù)雜的活動(dòng),期望AI智能體立即解決所有問(wèn)題是不切實(shí)際的,但我們應(yīng)該持有一種開(kāi)放性立場(chǎng):任何能夠提高機(jī)器人道德考量的敏感性的進(jìn)步,無(wú)論多么微小,都是在朝著正確的方向邁進(jìn)Wendell Wallach, Colin Allen, Moral Machines: Teaching Robots Right from Wrong,Oxford: Oxford University Press, 2009.。雅恩·樂(lè)昆(Yann LeCun)認(rèn)為,人們對(duì)AI最大謬見(jiàn)有二:一是“AI不會(huì)有情感”,事實(shí)上它們很可能會(huì)有情感;二是“如果AI有情感,它們將會(huì)和人類(lèi)情感一模一樣”,事實(shí)上AI沒(méi)有理由擁有自我保護(hù)直覺(jué)、嫉妒等情感。不過(guò),我們可以將“利他主義”或其他對(duì)人類(lèi)有利的情感注入到AI里面,讓AI能夠取悅?cè)祟?lèi),讓人類(lèi)與之交互,融入人類(lèi)生活。未來(lái),絕大多數(shù)AI將會(huì)變得更加專(zhuān)業(yè)化,但是卻不會(huì)有情感。你的汽車(chē)自動(dòng)駕駛裝置只會(huì)為你開(kāi)車(chē),不會(huì)和你談戀愛(ài)《對(duì)于人工智能,你或許理解錯(cuò)了》(2016-06-21)[2024-01-21],http://www.gongkong.com/article/201606/67442.html。。黛博拉·約翰遜(Deborah Johnson)是標(biāo)準(zhǔn)派的代表,他認(rèn)為物體要能夠成為道德主體,必須滿足清晰明確的條件,其中尤其強(qiáng)調(diào)物體的心理因素如自由意志、意識(shí)、欲望等Deborah G.Johnson, “Computer Systems: Moral Entities But Not Moral Agents”,Ethics and Information Technology, 2006(4).。盧西亞諾·弗洛里迪和J.W.桑德斯(Luciano Floridi & J.W.Sanders)反對(duì)對(duì)于道德主體的標(biāo)準(zhǔn)論看法,認(rèn)為道德主體并不必須表現(xiàn)出自由意志、精神狀態(tài)和責(zé)任,而應(yīng)該從“無(wú)意識(shí)道德”(mind-less morality)角度思考,他們強(qiáng)調(diào)人工智能體的交互性(與環(huán)境互動(dòng))、獨(dú)立性(有能力改變自身和它的相互作用)和適應(yīng)性(可能會(huì)基于與環(huán)境互動(dòng)的結(jié)果改變自身及其在相互作用中的實(shí)現(xiàn)方式)。這不僅對(duì)網(wǎng)絡(luò)空間有效,而且對(duì)于生態(tài)系統(tǒng)、動(dòng)物等都是適用的。人工智能體和人類(lèi)之間的關(guān)系類(lèi)似于兒童和成年人的關(guān)系,人工智能體尚未獲得完整的道德地位 Luciano Floridi,Sanders, J.W.,“On the Morality of Artificial Agents”,Minds and Machine ,2004,14(3),p.349–379.。菲利普·布雷(Philip Brey)反對(duì)將人工物看作完整的道德主體,認(rèn)為這樣的觀點(diǎn)模糊了人的能動(dòng)性和人造物的能動(dòng)性之間的重要區(qū)別,以及抹殺了人的行為的獨(dú)特性Brey P.,“From Moral Agents to Moral Factors: The Structural Ethics Approach”,Moral Status of Technical Artifacts,2014(17),pp.125-142.。琳達(dá).約翰遜、弗朗西絲·S.格勞森斯基(Linda Johnson & Frances S.Grodzinsky)認(rèn)為人工智能體的道德地位是人類(lèi)主體地位的分有,不是機(jī)器自己有自由意志,而是機(jī)器行動(dòng)的“意向性”體現(xiàn)了人類(lèi)設(shè)計(jì)師的意向性,并能產(chǎn)生善或惡的道德后果,因此具有一定的道德性Grodzinsky,F(xiàn).S.,Miller,K.W.,Wolf,M.J.,“The Ethics of Designing Artificial Agents”,Ethics and Information Technology,2008(3),10(2-3),pp.115-121.。庫(kù)科爾伯格(Mark Coeckelbergh)在《日趨發(fā)展的道德關(guān)系》中認(rèn)為,道德地位是在主體之間和主客體之間的關(guān)系之中呈現(xiàn)出來(lái)的CoeckelberghM.,Growing Moral Relations: Critique of Moral Status Ascription,New York: Palgrave Macmillan, 2013.。摩爾(James Moor)的觀點(diǎn)更為細(xì)致和中立,他在其《Four Kinds of Ethical Robots》一文中區(qū)分了四種人工道德主體——受影響的人工道德主體(ethical impact agents)、內(nèi)隱的人工道德主體(implicit ethical agents)、外顯的人工道德主體(explicit ethical agents)和完全的人工道德主體(full ethical agents),認(rèn)為人工智能在不同的發(fā)展階段應(yīng)該被看作不同的道德主體,并對(duì)四種道德主體之間進(jìn)行了較為詳細(xì)的區(qū)分,建議將外顯的AI作為機(jī)器倫理的范例目標(biāo),這樣既可以保證其生活中的復(fù)雜性和實(shí)踐中的重要性,又不會(huì)成為人類(lèi)生存和倫理的威脅Moor J H., “Four Kinds of Ethical Robots”.Philosophy Now,2009(72),pp.12-14.。

第二,在AI行為形態(tài)上,關(guān)于AI進(jìn)行道德推理和道德決策的研究。

從技術(shù)的可實(shí)現(xiàn)角度出發(fā),道德機(jī)器人的倫理植入路徑有自上而下的倫理原則植入、自下而上的倫理學(xué)習(xí)和混合式進(jìn)路。其中自上而下的倫理原則植入是基于規(guī)則推理而自下而上學(xué)習(xí)則基于學(xué)習(xí)算法、基于腦認(rèn)知結(jié)構(gòu)、基于馬爾可夫決策和基于決策函數(shù)。從基于規(guī)則推理路徑出發(fā)的研究包括:Bringsjord S.等人通過(guò)分析機(jī)器人三原則的不足,總結(jié)了兩種基本機(jī)器決策原則,一是機(jī)器只做允許的動(dòng)作,二是機(jī)器在做強(qiáng)制性動(dòng)作時(shí)會(huì)受到其他可用動(dòng)作的制約Bringsjord,S., Arkoudas,K., Bello,P.,“Toward a General Logicist Methodology for Engineering Ethically Correct Robots”,IEEE Intelligent Systems(2006), DOI:10.1109/MIS.2006.82.。Anderson夫婦等根據(jù)生物醫(yī)學(xué)倫理原則,設(shè)計(jì)出了名為MedEthEx的倫理決策系統(tǒng),該機(jī)器能夠處理一定的護(hù)理人遇到的倫理難題。他們還以功利主義和義務(wù)論為原則開(kāi)發(fā)了兩種倫理決策系統(tǒng),提出一種可以確保自主系統(tǒng)倫理行為的Case-Supported Principle-based Behavior(CPB)范式。該范式的實(shí)現(xiàn)是由倫理學(xué)家在實(shí)際倫理案例中得出統(tǒng)一的倫理原則,進(jìn)而自主系統(tǒng)在該原則的指導(dǎo)下作出決策。該方法保證了原則的準(zhǔn)確性并驗(yàn)證了案例的可解釋性Anderson,M., Anderson,S.L., “Armen,C.MedEthEx: A Prototype Medical Ethics Advisor”,Proceedings of the 18th conference on Innovative applications of artificial intelligence, Volume 2July 2006, p.1759–1765.

Anderson,M., Anderson,S.L.,“Toward Ensuring Ethical Behavior from Autonomous Systems: A Case-Supported Principle-Based Paradigm”,Industrial Robot, 2015,42(4), pp.324-331.。此外,McLaren、Arkin、Wynsberghe也提出了以不同倫理原則為基礎(chǔ)的道德決策機(jī)器。從基于學(xué)習(xí)算法路徑出發(fā)的研究,包括Armstrong S 等使用貝葉斯理論構(gòu)建一種通過(guò)效用函數(shù)來(lái)進(jìn)行智能體的決策設(shè)計(jì)模型。Briggs G、Clore G L、Franklin S等從基于腦認(rèn)知結(jié)構(gòu)出發(fā)進(jìn)行了探討,Coeckelbergh M、Rysewyk、Rzepka V等則從混合路徑上提出了相應(yīng)的理論模型CoeckelberghM.,Growing Moral Relations: Critique of Moral Status Ascription,New York: Palgrave Macmillan, 2013.。

不同的倫理實(shí)現(xiàn)路徑有不同的優(yōu)缺點(diǎn)。從AI的本質(zhì)和倫理角度出發(fā),采用何種實(shí)現(xiàn)路徑更為恰當(dāng)需要理論和實(shí)踐相結(jié)合進(jìn)行選擇。安德森夫婦已經(jīng)通過(guò)自上而下的方式將尊重自主權(quán)、行善和不傷害的原則嵌入了醫(yī)療倫理專(zhuān)家系統(tǒng)MedEthEx之中。出于技術(shù)和對(duì)倫理認(rèn)知的考量,許多哲學(xué)家都認(rèn)為自上而下的道德植入是必不可少的,因?yàn)槿绻藳](méi)有言行一致的普遍應(yīng)用的道德準(zhǔn)則,行為便不可能做到理性。機(jī)器也一樣,只有在一定的理論框架之上,才能更好地理解道德本身。瓦拉赫、艾倫、丘奇蘭德等提倡用自上而下理論植入、結(jié)合聯(lián)結(jié)主義學(xué)習(xí)的混合進(jìn)路,讓機(jī)器能夠應(yīng)對(duì)更加復(fù)雜的情況。從目前的學(xué)界和應(yīng)用中,混合的倫理實(shí)現(xiàn)路徑是一種較為普遍認(rèn)可的方法,混合路徑既采用了自上而下的倫理原則植入,也采用了自下而上的規(guī)則學(xué)習(xí),更像是人的學(xué)習(xí)進(jìn)步過(guò)程,既能滿足對(duì)普遍規(guī)則的遵守,也能適應(yīng)于復(fù)雜多變的現(xiàn)實(shí)環(huán)境,是未來(lái)AI倫理實(shí)現(xiàn)的重要研究方向。埃呂爾(Ellul J.)認(rèn)為,目前人們對(duì)于“效率”的普遍崇拜和將其作為目的而遠(yuǎn)離了人文主義,走向了技術(shù)主義,形成了“力量倫理”,使得技術(shù)成為社會(huì)的主導(dǎo)者,但是力量的主導(dǎo)和發(fā)展的最終結(jié)果卻是技術(shù)對(duì)人類(lèi)的統(tǒng)治和對(duì)人類(lèi)自由的剝奪。因此,為了人類(lèi)的自由,應(yīng)該建立起以自由(freedom)、非力量(non-power)、包容沖突(inclnsive conflict)和鼓勵(lì)越界(encourage transgression)為基礎(chǔ)的“非力量倫理”,嘗試建立一種對(duì)技術(shù)的新的認(rèn)識(shí)和觀念Ellul J., The Power of Technique and the Ethics of Non- Power,LI Lun,YX Pan,“From Power Ethics to Non-Power Ethics: Jacques Ellul′s Theory about Freedom in the Technological Society”, Studies in Dialectics of Nature,2018(11),pp.33-38.。Cathy O′N(xiāo)eil在《Weapons of Math Destruction: How big data increases Inequality and Threatens Democracy》一書(shū)中提出大數(shù)據(jù)并不是人們所認(rèn)為的對(duì)人類(lèi)有那么大的益處,相反,除了在找到處于困難中的人時(shí)是能夠提供較大幫助,在其他方面比如懲罰他人等并不具有任何好處,反而會(huì)在權(quán)利和偏見(jiàn)的影響下加強(qiáng)社會(huì)的不平等性和威脅民主Cathy O′N(xiāo)eil.,Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy, Crown Press, 2016.ISBN: 9780553418811.。

第三,AI位格形態(tài)關(guān)于道德權(quán)利、責(zé)任問(wèn)題的爭(zhēng)論。

價(jià)值中立論學(xué)者反對(duì)將人工物納入道德主體的范疇,并反對(duì)人工物的道德屬性,認(rèn)為只有人是具有道德屬性的,人工物的存在不具位格性(Person),只是一種服務(wù)于人的工具性存在,并不具有道德上的屬性。如約瑟夫·C.皮特(Pitt J.C.)認(rèn)為技術(shù)人工物不包含、不具有、也不展現(xiàn)價(jià)值,人工物的價(jià)值正是通過(guò)人類(lèi)的決策過(guò)程產(chǎn)生的,其中所體現(xiàn)的很多種價(jià)值,其實(shí)都是源自人本身的價(jià)值約瑟夫·C.皮特:《技術(shù)思考》,馬會(huì)端、陳凡譯,沈陽(yáng):遼寧出版社,2012年。。皮特·克羅斯(Kroes P.)對(duì)價(jià)值中立主義的觀點(diǎn)進(jìn)行考查,區(qū)別了其中的價(jià)值——內(nèi)在價(jià)值和工具價(jià)值/關(guān)系價(jià)值/外在價(jià)值,內(nèi)在價(jià)值是因自身目的而具備的價(jià)值,工具價(jià)值是作為人的工具使用而產(chǎn)生的對(duì)人的價(jià)值。對(duì)人工物而言,在不同階段體現(xiàn)三種不同的價(jià)值:預(yù)期價(jià)值(設(shè)計(jì)者預(yù)期的價(jià)值)、體現(xiàn)價(jià)值和實(shí)現(xiàn)價(jià)值(在實(shí)際使用中實(shí)現(xiàn)的價(jià)值)Kroes P., Verbeek P.P., The Moral Status of Technical Artefacts, Dordrecht: Springer Press,2014.ISBN: 9789400779143.。約翰遜(Johnson)也認(rèn)為計(jì)算機(jī)不是道德主體,而只能作為道德實(shí)體,因?yàn)橛?jì)算機(jī)不能滿足康德等傳統(tǒng)倫理觀中所認(rèn)為的那樣完全符合道德能動(dòng)性的基本標(biāo)準(zhǔn),道德主體的關(guān)鍵在于意向性行為,因?yàn)橐庀蛐允侵黧w自由的體現(xiàn)Johnson D.G.,“Computer System: Moral Entities but not Moral Agents”,Ethics and Information Technology, 2006,8(4),pp.195-204.。拉圖爾(Latour B.)從后現(xiàn)象學(xué)角度反對(duì)人類(lèi)中心主義的個(gè)體主義倫理學(xué)。他認(rèn)為人和非人的存在是彼此依存的,相互作用的,是意向性不可或缺的兩個(gè)部分。人工物是以類(lèi)似于人類(lèi)的方式在執(zhí)行道德規(guī)則,因此,人類(lèi)和人工物都是社會(huì)規(guī)則的承擔(dān)者,人不是唯一的道德主體,人工物也是道德主體Latour B.,“Where Are the Missing Masses? The Sociology of a Few Mundane Artifacts”, In W.E.Bijker & J.Law (Eds.), Shaping Technology-Building Society: Studies in Sociotechnical Change, Cambridge: MIT Press, 1992, pp.225-258.,因?yàn)閱为?dú)的人是無(wú)法完成一件事的。在減速帶例子中,就包含了減速帶、設(shè)計(jì)師、司機(jī)甚至是整個(gè)交通系統(tǒng),因此,道德主體既不是司機(jī)也不是設(shè)計(jì)者和減速帶,而是各種實(shí)體的集合。拉圖爾、鮑爾斯和約翰遜認(rèn)為,人和人造物等共同作用進(jìn)行了道德行為,不過(guò)也都承認(rèn)人工物不能脫離與人類(lèi)的存在而成為道德主體。不同的是,鮑爾斯和約翰遜承認(rèn)在人與人工物之間存在不對(duì)稱(chēng)性,即人工物不能脫離人而完成道德行為,而人可以自主進(jìn)行道德行為。相反,拉圖爾認(rèn)為不僅僅人造物不能脫離人完成道德行為,人也不能脫離人造物而進(jìn)行道德行為,就像沒(méi)有人,汽車(chē)的安全帶便無(wú)意義,而乘客系安全帶也不僅僅是自己意志的結(jié)果,而是車(chē)上的提示燈、設(shè)計(jì)師的意圖、交通警察和交規(guī)等共同引起的。因此,人的能動(dòng)性并不是人的主體性造成的,而是人、人造物等實(shí)體所組成的多元網(wǎng)絡(luò)的一種屬性,在這個(gè)網(wǎng)絡(luò)中,多個(gè)主體共同作用產(chǎn)生一個(gè)特定的行為,人和人造物在本體論上是對(duì)稱(chēng)的Latour B.,Reassemblings the Social: An Introduction to Actor-Network-Theory, Oxford: Oxford University Press,2005.。艾安娜·霍華德(Ayanna Howard)認(rèn)為:學(xué)習(xí)算法已經(jīng)普遍運(yùn)用,但種族歧視、性別歧視也被算法學(xué)習(xí)進(jìn)去,盡管算法很聰明,但他們?nèi)匀槐3种總€(gè)社會(huì)相同的一些偏見(jiàn)。他們?cè)跀?shù)據(jù)集中發(fā)現(xiàn)并反映這種內(nèi)隱的偏見(jiàn),并以此強(qiáng)調(diào)和強(qiáng)化這些偏見(jiàn),并認(rèn)為這就是全球真理。她認(rèn)為偏見(jiàn)融入當(dāng)前AI系統(tǒng)的具體例子,以及偏見(jiàn)會(huì)影響未來(lái)此類(lèi)系統(tǒng)的設(shè)計(jì)。詹森·鮑任斯坦(Jason Borenstein)提出人類(lèi)應(yīng)該允許同伴型AI“推動(dòng)”他們的人類(lèi)用戶(hù)朝著“更合乎道德”的方向發(fā)展,這需要以羅爾斯正義原則來(lái)說(shuō)明AI如何在人類(lèi)身上培養(yǎng)“社會(huì)公正”的傾向Ayanna Howard, Jason Borenstein,“The Ugly Truth About Ourselves and Our Robot Creations: The Problem of Bias and Social Inequity”,Science and Engineering Ethics, 2017.DOI:10.1007/s11948-017-9975-2.。約翰·P.薩林斯(Sullins J.P.)認(rèn)為:如果AI有抽象層次的自主意圖和責(zé)任感時(shí)我們就應(yīng)該認(rèn)為AI是道德代理體,如果AI可以從很多方面被看做是自主的,這個(gè)AI就是智能道德體,有可能接近甚至超越人類(lèi)的道德形態(tài)。因此,如果我們追求這項(xiàng)技術(shù),未來(lái)高度復(fù)雜的交互式AI將是具有相應(yīng)權(quán)利和責(zé)任的道德體,今天AI可以部分被看作一種非抽象級(jí)別的道德體Sullins J.P.,“When is a Robot a Moral Agent?”, International Review of Information Ethics,2006(6).。

三、AI倫理的基礎(chǔ)問(wèn)題域:形上根據(jù)與實(shí)踐框架

相比于國(guó)外學(xué)者的研究而言,國(guó)內(nèi)學(xué)術(shù)界對(duì)AI倫理研究起步較晚,主要從2017年開(kāi)始興起。國(guó)內(nèi)的相關(guān)研究路徑主要有三條:對(duì)AI的主體地位進(jìn)行形而上學(xué)的分析、對(duì)AI倫理問(wèn)題提出相應(yīng)的實(shí)踐解決框架、對(duì)AI的具體應(yīng)用領(lǐng)域中的倫理問(wèn)題進(jìn)行探討。

第一,對(duì)AI的主體地位進(jìn)行形而上學(xué)的分析。

傳統(tǒng)的社會(huì)倫理一向是以調(diào)節(jié)人與人的關(guān)系為中心,兼論人與物的關(guān)系。劉大椿認(rèn)為智能革命將成為人類(lèi)未來(lái)的大趨勢(shì),智能革命給所有人提出了人性本質(zhì)問(wèn)題:無(wú)論智能革命如何推進(jìn),人類(lèi)生命和社會(huì)文明如何演化發(fā)展,怎樣使每個(gè)人在由人類(lèi)所開(kāi)創(chuàng)的深度智能化的未來(lái)都有事情可做?如何讓一切人群都在心理和精神上呈現(xiàn)出朝氣蓬勃和幸??鞓?lè)的狀態(tài),而不是自慚形穢、百無(wú)聊賴(lài)的失敗者?劉大椿等:《智能革命與人類(lèi)深度智能化前景(筆談)》,《山東科技大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2019年第1期。何懷宏提出未來(lái)的倫理學(xué)大概還需要將人與智能機(jī)器的關(guān)系納入其考慮范圍。這主要是因?yàn)槿速?lài)以獲得對(duì)其他所有自然物的支配優(yōu)勢(shì)的智能,將可能被機(jī)器超越。因此,關(guān)于人機(jī)關(guān)系的倫理思考,何懷宏提倡底線思維,即抑惡應(yīng)該優(yōu)先于揚(yáng)善,放慢技術(shù)的發(fā)現(xiàn)速度,優(yōu)先和集中地考慮規(guī)范智能機(jī)器的手段和限制其能力,而不是考慮如何設(shè)定和培養(yǎng)機(jī)器對(duì)人類(lèi)友好的價(jià)值判斷,讓機(jī)器保持在“物”的水平,一切對(duì)人類(lèi)自由和身心安全有關(guān)的都必須由人來(lái)完成何懷宏:《人物、人際與人機(jī)關(guān)系》,《探索與爭(zhēng)鳴》2018年第7期。。王天恩認(rèn)為人工智能發(fā)展呈現(xiàn)出的學(xué)科一體化趨勢(shì),空前凸顯了馬克思主義理論的整體層次優(yōu)勢(shì)。在馬克思主義人類(lèi)解放學(xué)說(shuō)的整體關(guān)照中,可以對(duì)人工智能發(fā)展有一個(gè)更高層次的把握。人工智能的發(fā)展曉示了人類(lèi)解放的現(xiàn)實(shí)可能性,并將具體通向真正的人類(lèi)歷史。由人類(lèi)解放的人工智能發(fā)展前景,可以越來(lái)越清晰地窺見(jiàn):人工智能之“鏡”為人的自由全面發(fā)展提供了前所未有的參照,人工智能的信息展開(kāi)為人的類(lèi)解放提供了深刻啟示王天恩:《人類(lèi)解放的人工智能發(fā)展前景》,《馬克思主義與現(xiàn)實(shí)》2020年第4期。。陳凡、程海東提出人工智能的發(fā)展和應(yīng)用引發(fā)了人們對(duì)于“奇點(diǎn)”的關(guān)注。實(shí)質(zhì)上,人工智能還處于發(fā)展的早期,只能對(duì)人類(lèi)智能進(jìn)行模擬,它的產(chǎn)生和發(fā)展是為了人類(lèi)的生存和發(fā)展,因而與其他技術(shù)一樣,是人類(lèi)與自然交流的方式之一。而且與人類(lèi)智能相比,人工智能不具備自我意識(shí),也無(wú)從把握人類(lèi)的意義,更不能獨(dú)立從事人類(lèi)的實(shí)踐活動(dòng)。因此,在可預(yù)見(jiàn)的未來(lái),人工智能并不會(huì)獨(dú)立獲得主體性,也不會(huì)成為超越人類(lèi)的存在陳凡、程海東:《人工智能的馬克思主義審視》,《思想理論教育》2017年第11期。。趙汀陽(yáng)從政治哲學(xué)的角度為人工智能的倫理研究進(jìn)行了辯護(hù)。他認(rèn)為人工智能的發(fā)展問(wèn)題最終是個(gè)政治問(wèn)題。人類(lèi)首先需要一種世界憲法,以及運(yùn)行世界憲法的世界政治體系,否則無(wú)法解決人類(lèi)的集體理性問(wèn)題。人類(lèi)至今尚未發(fā)展出一種能夠保證形成人類(lèi)集體理性的政治制度,也就無(wú)法阻止瘋狂的資本或者追求霸權(quán)的權(quán)力。在低技術(shù)水平的文明里,資本和權(quán)力不可能毀滅人類(lèi),但在高技術(shù)水平的文明里,資本和權(quán)力已經(jīng)具備了毀滅人類(lèi)的能力。更危險(xiǎn)的是,資本和權(quán)力的操縱能力正在超過(guò)目前人類(lèi)的政治能力,因此,要控制資本和權(quán)力,世界就需要一種新政治,即天下體系。天下體系的一個(gè)重要應(yīng)用就是能夠以世界權(quán)力去限制任何高風(fēng)險(xiǎn)的行為。因?yàn)橐坏〢I成為超級(jí)智能體,人類(lèi)的生存就將受到巨大的威脅趙汀陽(yáng):《人工智能“革命”的“近憂”和“遠(yuǎn)慮”—— 一種倫理學(xué)和存在論的分析》,《哲學(xué)動(dòng)態(tài)》2018年第4期。。

成素梅主編出版的《信息文明的哲學(xué)研究叢書(shū)》收入了《人工智能的哲學(xué)問(wèn)題》(成素梅、張帆)、《信息文明的倫理基礎(chǔ)》(段偉文)、《大數(shù)據(jù)時(shí)代的認(rèn)知哲學(xué)革命》(戴潘)、《虛擬現(xiàn)象的哲學(xué)探索》(張怡)和《人的信息化與人類(lèi)未來(lái)發(fā)展》(計(jì)海慶)五本專(zhuān)著,是國(guó)內(nèi)在信息文明的哲學(xué)反思方面較系統(tǒng)的研究成果。成素梅、張帆認(rèn)為信息文明演進(jìn)的高階是智能社會(huì),哲學(xué)家應(yīng)該提供一種前瞻性的研究,人工智能發(fā)展應(yīng)以人為尺度,體現(xiàn)人的目的性,并融入人類(lèi)文化之中。段偉文則提出,“我們需要有一個(gè)與其他價(jià)值系統(tǒng)對(duì)接的價(jià)值接口,這一現(xiàn)實(shí)需求將倒逼數(shù)字經(jīng)濟(jì)與智能社會(huì)建設(shè)展開(kāi)進(jìn)一步的價(jià)值建構(gòu)”,目前有大量的數(shù)據(jù)倫理和人工智能倫理規(guī)范與準(zhǔn)則,“接下來(lái)就是要通過(guò)對(duì)這些原則在不同價(jià)值系統(tǒng)下的內(nèi)涵的理解與對(duì)話,提升價(jià)值上互操作性”

段偉文:《信息文明的倫理基礎(chǔ)》,上海:上海人民出版社,2020年,第261頁(yè)。。孫波和周雪健對(duì)人工智能則保持樂(lè)觀的態(tài)度,認(rèn)為我們不必對(duì)AI技術(shù)恐慌或技術(shù)崇拜,而應(yīng)該從“功能偶發(fā)性失常”角度看待AI并建立相應(yīng)的倫理孫波、周雪?。骸度斯ぶ悄堋皞惱砻酝尽钡幕貧w與進(jìn)路》,《自然辯證法研究》2020年第5期。。徐英瑾認(rèn)為AI研究需要多學(xué)科領(lǐng)域交叉進(jìn)行,將倫理規(guī)范轉(zhuǎn)化為機(jī)器編碼在邏輯上必須預(yù)設(shè)一個(gè)好的語(yǔ)義學(xué)理論框架,而目前主流AI研究所采用的語(yǔ)義學(xué)基礎(chǔ)理論卻恰恰是成問(wèn)題的。他主張引入認(rèn)知語(yǔ)言學(xué)的理論成果,特別強(qiáng)調(diào)“身體圖式”在倫理編碼進(jìn)程中所起到的基礎(chǔ)性作用,主張機(jī)器倫理學(xué)的核心關(guān)涉將包括對(duì)AI“身體”的設(shè)計(jì)規(guī)范問(wèn)題徐英瑾:《具身性、認(rèn)知語(yǔ)言學(xué)與人工智能倫理學(xué)》,《上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2017年第6期。。

孫偉平與戴益斌從對(duì)人類(lèi)的主體地位分析出發(fā),得出主體地位是由存在論、認(rèn)識(shí)論和價(jià)值論三個(gè)角度綜合界定的,而人工智能對(duì)應(yīng)于這三點(diǎn),都不符合主體的含義,因此人工智能并不具備主體地位。不過(guò),AI也不僅僅是簡(jiǎn)單的工具,有的AI可以被當(dāng)做工具性的存在,有的AI應(yīng)該被界定在工具與主體之間,即處于一種準(zhǔn)主體地位。戴益斌還從責(zé)任角度出發(fā),沿用漢森的觀點(diǎn),將AI看做一種“擴(kuò)展主體”,并根據(jù)不同的AI產(chǎn)品設(shè)定不同的責(zé)任指派方案,明確不同情景下的聯(lián)合責(zé)任孫偉平、戴益斌:《關(guān)于人工智能主體地位的哲學(xué)思考》,《社會(huì)科學(xué)戰(zhàn)線》2018年第7期;戴益斌:《試論人工智能的倫理責(zé)任》,《上海大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》, 2020年第1期。。顏青山認(rèn)為,AI道德地位問(wèn)題是一個(gè)真正新的道德難題,它可表述為“我們?nèi)绾未_定人工智能是或不是一個(gè)人格實(shí)體?”解決這個(gè)難題涉及“他心難題”及其變種“機(jī)心難題”。解決他心難題的方案對(duì)人工智能都可能是失效的。機(jī)心難題本質(zhì)上是一個(gè)元倫理學(xué)或道德形而上學(xué)問(wèn)題,但這個(gè)在元倫理學(xué)層次無(wú)法解決的問(wèn)題可以在規(guī)范倫理學(xué)的層次上得到解決。他根據(jù)人格倫理學(xué)和手段倫理學(xué)的規(guī)則提出對(duì)待人工智能的原則——“選言命令式”,即應(yīng)當(dāng)尊重一個(gè)尊重你的實(shí)體的運(yùn)行規(guī)則:當(dāng)它是心靈實(shí)體時(shí),尊重其本身;當(dāng)它是一個(gè)非心靈實(shí)體時(shí),尊重制造它的人,從而懸置了心靈本身,通過(guò)其行為進(jìn)行判斷顏青山:《對(duì)待人工智能的選言命令式》,《社會(huì)科學(xué)》2018年第12期。。

第二,對(duì)AI倫理問(wèn)題提出相應(yīng)的實(shí)踐解決框架。

由于AI發(fā)展的迅速性、應(yīng)用的普遍性和影響的深入性,國(guó)內(nèi)學(xué)者更多對(duì)AI帶來(lái)的倫理、社會(huì)影響進(jìn)行了研究,并提出了相應(yīng)的解決框架。于雪、段偉文從人機(jī)關(guān)系出發(fā),認(rèn)為人工智能給人帶來(lái)的主要倫理問(wèn)題是其作為人與人之間的第三者所帶來(lái)的,面對(duì)AI發(fā)展所產(chǎn)生和即將到來(lái)的大量倫理問(wèn)題,應(yīng)該遵循整體性、過(guò)程性、適應(yīng)性、相容性、靈活性和魯棒性等原則,從技術(shù)倫理角度對(duì)AI進(jìn)行實(shí)質(zhì)性分析,明確AI倫理的價(jià)值、標(biāo)準(zhǔn)和責(zé)任,進(jìn)而建構(gòu)以“技術(shù)-倫理”和信任一體的行業(yè)協(xié)作創(chuàng)新機(jī)制。通過(guò)社會(huì)各方協(xié)同建立人工智能倫理治理和體系框架,制定相應(yīng)的風(fēng)險(xiǎn)防范機(jī)制,并確保人類(lèi)和平的基本底線不被觸碰于雪、段偉文:《人工智能的倫理建構(gòu)》,《理論探索》2019年第6期。。孫偉平對(duì)人工智能的積極社會(huì)效應(yīng)提出了自己的看法,他認(rèn)為人工智能具有積極的社會(huì)效應(yīng),但由于人們思想觀念滯后,政策取向不清晰,倫理規(guī)制缺失,法律法規(guī)不健全,人工智能使人類(lèi)面臨巨大的不確定性和風(fēng)險(xiǎn),造成諸多社會(huì)價(jià)值沖突和倫理困境,如挑戰(zhàn)人的本質(zhì)、價(jià)值和人類(lèi)的道德權(quán)威,沖擊傳統(tǒng)的倫理關(guān)系,造成數(shù)字鴻溝,解構(gòu)社會(huì),而人工智能帶來(lái)的倫理問(wèn)題正好成為新時(shí)期道德倫理建設(shè)的“助推器”。我們必須對(duì)人工智能及其應(yīng)用后果進(jìn)行全方位的價(jià)值反思,制定智能社會(huì)的價(jià)值原則與綜合對(duì)策,秉持人本原則、公正原則、公開(kāi)透明原則、知情同意原則和責(zé)任原則,將人工智能納入健康發(fā)展的軌道孫偉平:《關(guān)于人工智能的價(jià)值反思》,《哲學(xué)研究》2017年第10期。。李倫、孫保學(xué)將人工智能倫理研究方向分為四個(gè)板塊,即人工智能道德哲學(xué)、人工智能道德算法、人工智能設(shè)計(jì)倫理和人工智能社會(huì)倫理,并從本體論角度分析了人工智能的自主性。他們建議從責(zé)任倫理角度處理人機(jī)關(guān)系,即站在人類(lèi)角度和未來(lái)角度為AI的設(shè)計(jì)負(fù)責(zé),并在此基礎(chǔ)上提出了相應(yīng)的責(zé)任分配原則:以人為本、共生共存原則;人類(lèi)作為責(zé)任主體承擔(dān)全部后果;分級(jí)分類(lèi)制訂擔(dān)責(zé)方案。以及從人工智能體的“輸入-輸出”能否控制,在四種語(yǔ)境下給出了人機(jī)系統(tǒng)具體的責(zé)任分配方案李倫、孫保學(xué):《給人工智能一顆“良芯(良心)”》,《教學(xué)與研究》2018年第8期。。

王淑慶認(rèn)為將邏輯學(xué)與倫理學(xué)結(jié)合的途徑會(huì)給AI的研究帶來(lái)新思路,欲使人工智能體具備道德決策能力,一種可設(shè)想的工作是基于形式倫理,即把倫理原則或規(guī)則形式化。不同于大眾對(duì)于AI的倫理植入視角,他認(rèn)為讓AI“知道”哪些行為符合道德很重要,更重要的是讓其知道哪些行為違反道德標(biāo)準(zhǔn),真正“道德上值得稱(chēng)贊的人工智能體”(MPAAs)應(yīng)該具有“有意不為”的能力,尤其是“忽略”和“抑制”的能力王淑慶:《人工智能體“有意不為”的倫理意蘊(yùn)》,《東北大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2020年第3期。。張正清和黃曉偉認(rèn)為,從責(zé)任的他者視角出發(fā)對(duì)智能機(jī)器道德自主性與意向性的質(zhì)疑,并不能否認(rèn)人工智能具有道德責(zé)任能力。從他者期望型道德責(zé)任的角度看,智能機(jī)器由于人們的期望偏見(jiàn)、智能偏見(jiàn)和地位偏見(jiàn)而不被承認(rèn)具有道德責(zé)任能力。如果智能機(jī)器想要在現(xiàn)代技術(shù)社會(huì)的責(zé)任網(wǎng)絡(luò)中獲得應(yīng)有的地位,就需要我們?nèi)鐚?shí)地期望智能機(jī)器人的道德責(zé)任,摒棄事后立場(chǎng)、語(yǔ)境不匹配、人類(lèi)中心主義等經(jīng)典責(zé)任倫理面臨的問(wèn)題,從而生成新的他者期望型道德能動(dòng)者張正清、黃曉偉:《作為“他者”而承擔(dān)道德責(zé)任的智能機(jī)器》,《道德與文明》2018年第4期。。李熙等討論了人工智能的研究目的,認(rèn)為機(jī)器學(xué)習(xí)為了獲得通用性必須訴諸形而上的“善”,但僅有形而上的基本“善”遠(yuǎn)不能保證智能體的行為符合人類(lèi)的主流價(jià)值觀,為確保人類(lèi)利益,還需要為機(jī)器賦予人類(lèi)的價(jià)值觀,最直接的方式是為機(jī)器賦予符合人類(lèi)利益的效用函數(shù),但智能體在計(jì)算期望效用最大化以追逐功利主義的“善”的過(guò)程中,不可避免地會(huì)侵占人類(lèi)的資源。為了讓機(jī)器符合人類(lèi)利益,保留關(guān)機(jī)中斷權(quán),把風(fēng)險(xiǎn)降到最低限度,需要巧妙融合形而上的“善”與功利主義的“善”,進(jìn)行“先驗(yàn)”與“效用”的轉(zhuǎn)化,并靈活運(yùn)用逆強(qiáng)化學(xué)習(xí)或價(jià)值強(qiáng)化學(xué)習(xí)李熙、周日晴:《從三種倫理理論的視角看人工智能威脅問(wèn)題及其對(duì)策》,《江漢大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版)》2019年第1期。王銀春:《人工智能的道德判斷及其倫理建議》,《南京師大學(xué)報(bào)(社會(huì)科學(xué)版)》2018年第4期。。

第三,對(duì)AI的具體應(yīng)用領(lǐng)域中的倫理問(wèn)題進(jìn)行探討

部分學(xué)者對(duì)人工智能在無(wú)人駕駛汽車(chē)、醫(yī)護(hù)、伴侶機(jī)器人等具體應(yīng)用領(lǐng)域的倫理問(wèn)題進(jìn)行了相關(guān)研究。陳齊平,魏佳成,鐘陳志鵬,羅玉峰和王亮從技術(shù)角度對(duì)目前機(jī)器倫理決策的實(shí)現(xiàn)路徑進(jìn)行了分析和比較,并對(duì)無(wú)人駕駛汽車(chē)的倫理植入路徑進(jìn)行了分析,提出將人類(lèi)道德規(guī)范應(yīng)用到機(jī)器倫理決策設(shè)計(jì)、運(yùn)用機(jī)器學(xué)習(xí)實(shí)現(xiàn)倫理決策設(shè)計(jì)、利用法律及行業(yè)標(biāo)準(zhǔn)規(guī)范來(lái)實(shí)現(xiàn)機(jī)器倫理決策設(shè)計(jì)三個(gè)重要研究方向,以為AI倫理植入和實(shí)現(xiàn)提供更好的基礎(chǔ)陳齊平、魏佳成、鐘陳志鵬、羅玉峰、王亮:《智能機(jī)器倫理決策設(shè)計(jì)研究綜述》,《計(jì)算機(jī)科學(xué)與探索》2019年第11期。。趙汀陽(yáng)在《有軌電車(chē)的道德分叉》中認(rèn)為電車(chē)難題并不是難題,相反,人們應(yīng)該更多地關(guān)心現(xiàn)實(shí)生活,這有利于大家共在的善趙汀陽(yáng):《有軌電車(chē)的道德分叉》,《哲學(xué)研究》2015年第5期。。李德順在《價(jià)值獨(dú)斷主義的終結(jié)——從“電車(chē)難題”看桑德?tīng)柕墓摗分幸矊?duì)電車(chē)難題進(jìn)行了消解李德順:《價(jià)值獨(dú)斷主義的終結(jié)——從“電車(chē)難題”看桑德?tīng)柕墓摗?,《哲學(xué)研究》2017年第2期。。李醒民對(duì)人工智能發(fā)展可能引起的諸多倫理問(wèn)題進(jìn)行了探討,包括失業(yè)問(wèn)題、算法偏見(jiàn)問(wèn)題、隱私問(wèn)題、心理依賴(lài)問(wèn)題、促使人懶惰問(wèn)題和社會(huì)兩極分化問(wèn)題等,從總體上出發(fā)給出了人工智能發(fā)展相應(yīng)的原則,即以人為本、預(yù)防風(fēng)險(xiǎn)、倫理建設(shè)、明確責(zé)任、知識(shí)普及和監(jiān)管到位李醒民:《人工智能技性科學(xué)與倫理》,《社會(huì)科學(xué)論壇》2019年第4期。。劉程考察了AI時(shí)代的隱私倫理建構(gòu),認(rèn)為作為一種自覺(jué)的倫理實(shí)踐,它必須建立在一種批判性考察基礎(chǔ)之上劉程:《隱私辯護(hù)的倫理正當(dāng)性及其可能進(jìn)路》,《江海學(xué)刊》2023年第2期。。另外,游輝輝、馬永慧、黃立文等人對(duì)伴侶機(jī)器人的相關(guān)倫理問(wèn)題進(jìn)行了研究(《伴侶機(jī)器人應(yīng)用的倫理、社會(huì)問(wèn)題探討》《伴侶機(jī)器人的道德問(wèn)題研究》)游輝輝、馬永慧:《伴侶機(jī)器人應(yīng)用的倫理、社會(huì)問(wèn)題探討》,《中國(guó)醫(yī)學(xué)倫理學(xué)》2019年第8期;黃立文:《伴侶機(jī)器人的道德問(wèn)題研究》,《湖南科技學(xué)院學(xué)報(bào)》2019年第6期。;王健、林津如,鄭婧萱對(duì)老年護(hù)理機(jī)器人帶來(lái)的孝養(yǎng)關(guān)系疏遠(yuǎn)、孝道降價(jià)化等倫理風(fēng)險(xiǎn)展開(kāi)了研究王健、林津如:《護(hù)理機(jī)器人補(bǔ)位子女養(yǎng)老的倫理風(fēng)險(xiǎn)及其防范》,《道德與文明》2019年第3期;鄭婧萱:《智能護(hù)理機(jī)器人的倫理風(fēng)險(xiǎn)防范研究》,東南大學(xué)研究生院,2022年。。

綜上所述,目前國(guó)內(nèi)外相關(guān)學(xué)者及相關(guān)行業(yè)的一個(gè)基本共識(shí)是:“AI將會(huì)在未來(lái)幾十年對(duì)人類(lèi)社會(huì)產(chǎn)生巨大影響,帶來(lái)不可逆轉(zhuǎn)的改變”,而“AI倫理將是未來(lái)智能社會(huì)的發(fā)展基石”。AI智能體對(duì)人類(lèi)日常生活的影響是全面而深刻的,它將塑造新的交往方式、教育方式、醫(yī)療模式、飲食方式、出行方式、軍事行為、政治經(jīng)濟(jì)行為等各個(gè)方面。已故著名科學(xué)家霍金預(yù)見(jiàn)到AI帶來(lái)的風(fēng)險(xiǎn),發(fā)出了“警惕人工智能”的警示。在諸多風(fēng)險(xiǎn)中,AI智能體與人類(lèi)相與的“共生型”(或“互生型”)的道德形態(tài)方面的風(fēng)險(xiǎn),將是最為突出且最為緊要的倫理風(fēng)險(xiǎn),許多科幻作家、懷疑論者、技術(shù)悲觀主義者(包括一些溫和的樂(lè)觀論者)或多或少會(huì)將機(jī)器人列入奴役或取代甚至吞噬人類(lèi)的“怪物”之行列。

四、AI倫理研究的發(fā)展與突破

為了人類(lèi)福祉,在AI的發(fā)展與應(yīng)用中,倫理必須占據(jù)中心地位。這一條已成為國(guó)內(nèi)外學(xué)者的基本共識(shí)。這條共識(shí)隱含的核心思想是:與AI發(fā)展相隨的必是制定合適的倫理指導(dǎo)原則以防范其風(fēng)險(xiǎn)。這需要對(duì)AI的倫理風(fēng)險(xiǎn)的起因、影響、規(guī)則制定的方法以及效果評(píng)估等先行進(jìn)行預(yù)備性前瞻思考,以利于AI倫理的相關(guān)標(biāo)準(zhǔn)建立和風(fēng)險(xiǎn)防范。

綜合梳理國(guó)內(nèi)外人工智能倫理的學(xué)術(shù)研究成果,可以發(fā)現(xiàn):目前的重點(diǎn)是要突破政策制定者、技術(shù)專(zhuān)家、科學(xué)家、行業(yè)領(lǐng)導(dǎo)者和人文社會(huì)科學(xué)領(lǐng)域的專(zhuān)家(特別是倫理學(xué)家和工程技術(shù)專(zhuān)家)各說(shuō)各話的弊端,亟須在以下三個(gè)方面發(fā)展和突破。

第一,亟需推進(jìn)系統(tǒng)化的AI倫理理論和原則框架的研究。

盡管?chē)?guó)外AI倫理研究早于國(guó)內(nèi)且研究成果更豐富,但國(guó)內(nèi)外研究均還不具備體系化的AI倫理的理論和原則框架。國(guó)外學(xué)者如邁克爾·安德森和蘇珊·利·安德森(Machine Ethics)、邁克爾·R.W.道森(Minds and machines),荷蘭學(xué)派維貝克(Moralizing Technology Understanding and Designing the Morality of Things)、大衛(wèi)·J.岡克爾(The Machine Question Critical Perspectives on AI, Robots, and Ethics)、瓦拉赫和艾倫(《道德機(jī)器——如何讓機(jī)器人明辨是非》)等,出版了AI倫理方面的專(zhuān)著,但是,這些研究并沒(méi)有系統(tǒng)地討論AI倫理風(fēng)險(xiǎn)防范。國(guó)內(nèi)對(duì)于人工智能倫理的研究從近幾年才開(kāi)始起步,大多對(duì)于AI倫理的研究還不夠系統(tǒng),往往停留在某一方面的研究。部分學(xué)者對(duì)AI帶來(lái)的倫理問(wèn)題進(jìn)行了分析,給出了簡(jiǎn)單的應(yīng)對(duì)策略。如趙汀陽(yáng)的《人工智能提出了什么哲學(xué)問(wèn)題》、王紹源的《國(guó)外機(jī)器人倫理學(xué)的興起及其問(wèn)題域分析》等。部分學(xué)者對(duì)某類(lèi)型的人工智能產(chǎn)品的倫理問(wèn)題進(jìn)行探討,如郭旭芳的《生物醫(yī)學(xué)領(lǐng)域人工智能應(yīng)用的倫理問(wèn)題》、王珀的《無(wú)人駕駛與算法倫理——一種后果主義的算法設(shè)計(jì)倫理框架》等。也有學(xué)者對(duì)AI倫理的技術(shù)實(shí)現(xiàn)進(jìn)行了探討,如李倫和孫保學(xué)的《給人工智能一顆“良芯(良心)”》等。還有學(xué)者從康德哲學(xué)角度探討AI行動(dòng)者的倫理地位,如王東《康德式人工道德行動(dòng)者的倫理地位研究》。

目前,技術(shù)的發(fā)展已經(jīng)遠(yuǎn)遠(yuǎn)超過(guò)了倫理理論的發(fā)展速度,甚至超過(guò)了政策的制定速度,呈現(xiàn)出一種技術(shù)“促逼”政府立法、倫理建構(gòu)的景象。從目前世界各國(guó)的相關(guān)政策制定上看,政府層面對(duì)相關(guān)問(wèn)題的重視程度已然十分高,相關(guān)社會(huì)問(wèn)題非常險(xiǎn)峻,急需相關(guān)政策制度對(duì)相關(guān)行業(yè)的標(biāo)準(zhǔn)、規(guī)則、責(zé)任等進(jìn)行明確的規(guī)定。學(xué)界、技術(shù)人員、行業(yè)領(lǐng)袖、政府部門(mén)需要聯(lián)合起來(lái),對(duì)相關(guān)問(wèn)題進(jìn)行深入研究和探討,方能為我國(guó)AI行業(yè)發(fā)展奠定堅(jiān)實(shí)的基礎(chǔ)。如果依舊停留在當(dāng)下對(duì)AI部分問(wèn)題的觀點(diǎn)、看法、展望,而缺乏整體性的、全局性的、系統(tǒng)化的AI理論和原則框架的研究成果之支撐,這對(duì)于我國(guó)相關(guān)制度的建立是十分不利的。因此,系統(tǒng)化的AI倫理理論和原則框架的研究,迫在眉睫。

人工智能的倫理學(xué)研究,不僅僅關(guān)乎其在實(shí)踐領(lǐng)域的行為、決策和責(zé)任分配等問(wèn)題,作為哲學(xué)研究的前沿性探索,AI倫理風(fēng)險(xiǎn)防范問(wèn)題更是關(guān)乎道德哲學(xué)的基礎(chǔ)理論、人工智能的主體性和人之為人的根本等形上問(wèn)題。僅僅局限于對(duì)AI的技術(shù)、社會(huì)問(wèn)題的表層研究,并不能從根本上解決AI帶來(lái)的社會(huì)問(wèn)題、倫理問(wèn)題和主體性問(wèn)題。亟須從AI倫理風(fēng)險(xiǎn)防范所涉及的形上理論和形下實(shí)踐兩方面確立研究綱領(lǐng)。理論研究包含AI倫理風(fēng)險(xiǎn)防范的道德理論框架和倫理原則體系,從理論上為AI倫理規(guī)制及風(fēng)險(xiǎn)防范提供道德哲學(xué)基礎(chǔ)和倫理原則論證。實(shí)踐問(wèn)題是從AI的主體形態(tài)、行為形態(tài)和位格形態(tài),分別由道德地位、道德決策和道德責(zé)任三大論域,展開(kāi)AI倫理風(fēng)險(xiǎn)防范機(jī)制的研究。

第二,亟待建立“理論-實(shí)踐”“全球性-地方性”相溝通的開(kāi)放性AI倫理研究新思路。

從目前國(guó)內(nèi)外研究現(xiàn)狀來(lái)看,學(xué)界對(duì)AI倫理問(wèn)題的研究主要偏向于從“算法”角度對(duì)問(wèn)題進(jìn)行還原,進(jìn)而對(duì)AI的主體本質(zhì)、倫理風(fēng)險(xiǎn)防范機(jī)制進(jìn)行討論。如從AI底層邏輯中的算法出發(fā),對(duì)技術(shù)本身進(jìn)行研究,在此基礎(chǔ)上對(duì)人機(jī)關(guān)系進(jìn)行分析,進(jìn)而采用技術(shù)路徑對(duì)AI的倫理道德進(jìn)行植入。如安德森夫婦根據(jù)生命倫理原則設(shè)計(jì)的倫理決策系統(tǒng)MedEthEx(Anderson,M., Anderson,S.L., Armen,C.MedEthEx: A prototype medical ethics advisor),他們以功利主義和義務(wù)論為原則開(kāi)發(fā)了兩種倫理決策系統(tǒng)(Toward ensuring ethical behavior from autonomous systems: A case-supported principle-based paradigm),還有Armstrong S、Dewey D、Wu Y、Abel D等人通過(guò)貝葉斯理論構(gòu)建相應(yīng)的效用函數(shù),以制造能夠進(jìn)行道德決策的機(jī)器模型。也有學(xué)者從實(shí)際問(wèn)題出發(fā),從AI在實(shí)際中的運(yùn)用著手,為相應(yīng)實(shí)踐中的問(wèn)題提供一定的理論意見(jiàn)。如白慧仁、隋婷婷等人對(duì)無(wú)人駕駛汽車(chē)事故中的責(zé)任問(wèn)題進(jìn)行分析,李德順、德瑞克·雷本、克里斯蒂安·格德和莎拉·桑頓等對(duì)無(wú)人駕駛汽車(chē)面臨兩難情況下的道德抉擇進(jìn)行了相關(guān)研究,安德森夫婦、張玉潔、王健、林津如等人對(duì)AI在醫(yī)護(hù)領(lǐng)域應(yīng)用中的倫理問(wèn)題進(jìn)行了研究。這些研究,或是單純地從倫理理論角度對(duì)AI的本體論問(wèn)題進(jìn)行研究,或是專(zhuān)注于為實(shí)踐中的倫理規(guī)制提供建議,缺少“理論-實(shí)踐”之間的溝通性、貫穿性的研究。AI倫理問(wèn)題,既不應(yīng)該僅僅停留在理論上,也不應(yīng)該僅僅從實(shí)踐問(wèn)題著手,這兩者都存在著一定的弊端。前者對(duì)理論進(jìn)行深度挖掘,但在現(xiàn)實(shí)應(yīng)用上往往難以接軌;后者能夠直接對(duì)實(shí)踐問(wèn)題進(jìn)行分析,又往往局限于個(gè)別問(wèn)題、個(gè)別事件或個(gè)別領(lǐng)域,難以為行業(yè)整體和長(zhǎng)期發(fā)展提供建設(shè)性的解決方法。

因此,亟須采用“技術(shù)+善法”的問(wèn)題域還原方法,從理論上對(duì)AI的存在論本質(zhì)進(jìn)行本體論分析,構(gòu)建道德理論框架;并從AI工程學(xué)實(shí)踐的技術(shù)類(lèi)型及其具體分域入手,結(jié)合AI倫理嵌入的技術(shù)原理和具體情景進(jìn)行問(wèn)題探源和機(jī)制構(gòu)建,以推進(jìn)“理論-實(shí)踐”的連通。不僅如此,由于AI倫理的形上理論是本質(zhì)性的“全球共性”的問(wèn)題,而AI道德實(shí)踐不可避免地帶有“地方性差異”,不同國(guó)家有著不同文化、國(guó)情、倫理風(fēng)俗,對(duì)AI的實(shí)踐應(yīng)用也有著深刻的影響。AI倫理研究,必須結(jié)合我國(guó)國(guó)情、倫理傳統(tǒng)、風(fēng)俗文化等因素,推進(jìn)“全球性-地方性”的溝通;結(jié)合中國(guó)歷史文化、中國(guó)哲學(xué)和倫理傳統(tǒng)對(duì)AI道德理論框架進(jìn)行研究;探索符合中國(guó)國(guó)情的AI倫理理論原則;建立“理論-實(shí)踐”“全球性-地方性”相溝通的開(kāi)放性AI倫理研究框架,尋求AI倫理風(fēng)險(xiǎn)防范的解決之道。

第三,亟須面向AI道德形態(tài)探索AI倫理研究的新方法。

從“理論-實(shí)踐”“全球性-地方性”相連通的開(kāi)放性論題探討AI倫理問(wèn)題,需要在研究方法上進(jìn)行新探索。已有的相關(guān)研究中,學(xué)者們通常采用對(duì)問(wèn)題進(jìn)行問(wèn)題域還原的方法、學(xué)科交叉的方法、實(shí)證方法、實(shí)驗(yàn)法和思想實(shí)驗(yàn)等方法。如倫理學(xué)家對(duì)無(wú)人駕駛汽車(chē)的兩難困境問(wèn)題的探討采用的是思想實(shí)驗(yàn)方法。由于目前AI應(yīng)用所產(chǎn)生的案例還很少,只能通過(guò)思想實(shí)驗(yàn)或個(gè)別的案例進(jìn)行探討。也有學(xué)者結(jié)合實(shí)驗(yàn)倫理學(xué)方法對(duì)相關(guān)問(wèn)題進(jìn)行研究,如博納峰等人采用實(shí)驗(yàn)方法研究不同人群、面對(duì)不同的情境下對(duì)電車(chē)難題的選擇(The social dilemma of autonomous vehicles),林芳芳、劉明娟和廖鳳林等人從實(shí)驗(yàn)角度對(duì)電車(chē)難題中情感等因素對(duì)人們選擇的影響進(jìn)行研究劉明娟、廖鳳林:《電車(chē)難題:情境人數(shù)對(duì)道德判斷與側(cè)隱之心的影響》,《首都師范大學(xué)學(xué)報(bào)(自然科學(xué)版)》2013年第2期; 林芳芳:《情感卷入對(duì)道德判斷的影響》,碩士學(xué)位論文,廣西師范大學(xué)研究生院,2010年。。某些學(xué)者采用交叉學(xué)科方法,從技術(shù)角度實(shí)現(xiàn)人工智能的道德植入,如安德森夫婦的道德決策機(jī)器人、瓦拉赫和艾倫對(duì)倫理實(shí)現(xiàn)路徑的探討等。

上述研究方法能夠在一定程度上探尋人工智能的本質(zhì)、澄清AI和人之間的倫理關(guān)系,并給出相應(yīng)的對(duì)策建議。然而,上述研究方法并不能真正應(yīng)對(duì)AI倫理問(wèn)題的復(fù)雜性。尤其是在AI倫理規(guī)制問(wèn)題上,“理論與實(shí)踐”“模擬與現(xiàn)實(shí)”“普遍與特殊”“全球性-地方性”往往不可分割地結(jié)合在一起,人們真實(shí)面對(duì)的是一個(gè)不斷展開(kāi)的道德形態(tài)過(guò)程。如何面向AI道德形態(tài)過(guò)程探索AI倫理研究的新方法?亟須從AI道德形態(tài)視野切入,推進(jìn)AI倫理學(xué)的方法論創(chuàng)新。

(責(zé)任編輯? 萬(wàn)? 旭)

Regulation, theory and practical challenges for AI ethics: a historiographical review and examination of problem domains

YUE Jin? ·32·

AI entities face ethical risks in areas such as decision-making, ownership and privacy rights, as well as in the ethical capacity aspect of “pseudo-subject behaviors” such as independent content learning and independent behaviors. In order to regulate development and prevent ethical risks, various institutions, organizations and enterprises have established their guidelines and standards. Foreign scholars are exploring the feasibility of AI ethics, which involves the ethical complexities of AI as an agent, the behavioral form of AI and the moral rights and responsibilities of AI. Domestically, the research paths mainly consist of three aspects: metaphysically analyzing the status of AI, proposing frameworks to address AI ethical issues and discussing ethical issues in specific AI application areas. An academic historiographical review and examination of the problem domain of AI ethics from the perspectives of risk regulation, theoretical expansion and practical challenges necessitates a focus on three major frontiers: (1) Advancing a systematic framework of AI ethical theory and principles; (2) Establishing an open problem-solving approach that facilitates communication between “theory-practice” and “global-local” viewpoints; (3) Forming new approaches to research on the ethical form of AI.

猜你喜歡
實(shí)踐理論
堅(jiān)持理論創(chuàng)新
神秘的混沌理論
理論創(chuàng)新 引領(lǐng)百年
相關(guān)于撓理論的Baer模
相關(guān)于撓理論的Baer模
語(yǔ)文教學(xué)要在不斷的反思中成長(zhǎng)
考試周刊(2016年76期)2016-10-09 08:35:30
后進(jìn)生轉(zhuǎn)化和提升的實(shí)踐與思考
成才之路(2016年26期)2016-10-08 11:59:08
初中政治教學(xué)中強(qiáng)化新八德教育探討
成才之路(2016年26期)2016-10-08 11:14:30
體驗(yàn)式學(xué)習(xí)在數(shù)學(xué)教學(xué)中的應(yīng)用研究
成才之路(2016年25期)2016-10-08 10:50:54
生物專(zhuān)業(yè)師范生教學(xué)實(shí)習(xí)的問(wèn)題與對(duì)策研究
成才之路(2016年25期)2016-10-08 10:01:19
嫩江县| 罗江县| 普陀区| 乳山市| 白山市| 左权县| 同心县| 望江县| 高要市| 交口县| 渭南市| 岱山县| 阳朔县| 聂荣县| 东乌珠穆沁旗| 景谷| 阳城县| 东阳市| 九龙坡区| 香格里拉县| 廊坊市| 梨树县| 庆云县| 淳安县| 临安市| 融水| 清水县| 嘉黎县| 双桥区| 永城市| 陈巴尔虎旗| 武威市| 新密市| 同德县| 锡林郭勒盟| 陆丰市| 涞水县| 莱芜市| 祁东县| 潜江市| 临颍县|