国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能倫理的哲學(xué)意蘊(yùn)、現(xiàn)實(shí)問(wèn)題與治理進(jìn)路

2021-04-17 04:16尹鐵燕代金平
關(guān)鍵詞:倫理人工智能

尹鐵燕,代金平

(貴州師范大學(xué) 馬克思主義學(xué)院,貴州 貴陽(yáng) 550001)

一、研究背景與文獻(xiàn)綜述

(一)研究背景

2017年7月,國(guó)務(wù)院頒布《新一代人工智能發(fā)展規(guī)劃》,提出要“加強(qiáng)人工智能相關(guān)法律、倫理和社會(huì)問(wèn)題研究,建立保障人工智能健康發(fā)展的法律法規(guī)和倫理道德框架。”[1]2018年,《人工智能標(biāo)準(zhǔn)化白皮書(shū)》闡述了人工智能的安全、倫理和隱私問(wèn)題。2019年6月,國(guó)家新一代人工智能治理委員會(huì)發(fā)布《發(fā)展負(fù)責(zé)任的人工智能:我國(guó)新一代人工智能治理原則發(fā)布》,突出了“發(fā)展負(fù)責(zé)任的人工智能”這一主題,同時(shí)提出了人工智能發(fā)展的八大原則,即“和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開(kāi)放協(xié)作與敏捷治理?!保?]“開(kāi)放協(xié)作”強(qiáng)調(diào)在人工智能倫理治理中多主體之間協(xié)同治理。人工治理倫理的“敏捷治理”強(qiáng)調(diào)治理的適應(yīng)性與靈活性。敏捷治理是一種政府、科技工作者、設(shè)計(jì)制造者、社會(huì)公眾共同參與的多元治理模式。2021年1月,全國(guó)信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)正式發(fā)布《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南——人工智能倫理安全風(fēng)險(xiǎn)防范指引》(以下簡(jiǎn)稱《指引》)?!吨敢穼?duì)人工智能倫理安全風(fēng)險(xiǎn)進(jìn)行了分類,對(duì)研究開(kāi)發(fā)者、設(shè)計(jì)制造者、部署應(yīng)用者和用戶提出了相應(yīng)的操作規(guī)范和基本要求?!吨敢窞槲覈?guó)人工智能倫理安全標(biāo)準(zhǔn)體系化建設(shè)奠定了重要的理論基礎(chǔ)。世界上其他各國(guó)也都陸續(xù)制定了人工智能國(guó)家戰(zhàn)略文件。例如,德國(guó)于2013年4月制定了《德國(guó)工業(yè)4.0戰(zhàn)略》,日本于2016年1月制定了《超級(jí)智能社會(huì)5.0》,美國(guó)于2016年10月制定了《國(guó)家人工智能研究和發(fā)展戰(zhàn)略計(jì)劃》,英國(guó)于2016年10月制定了《人工智能:未來(lái)決策制定的機(jī)遇與影響》,俄羅斯于2017年7月制定了《數(shù)字經(jīng)濟(jì)列入俄羅斯2018—2025年戰(zhàn)略》,法國(guó)于2018年3月制定了《國(guó)家人工智能戰(zhàn)略》。各國(guó)制定人工智能國(guó)家戰(zhàn)略文件,旨在應(yīng)對(duì)人工智能潛在的倫理和法律挑戰(zhàn),以期為人工智能向善發(fā)展提供理論指導(dǎo)和智力支持。

(二)文獻(xiàn)綜述

近年來(lái),隨著科學(xué)技術(shù)的快速發(fā)展,人工智能倫理已經(jīng)成為學(xué)界研究的熱點(diǎn)議題。如何正確處理好科技與人類的關(guān)系、確??萍枷蛏埔呀?jīng)成為當(dāng)務(wù)之急。人工智能的研究進(jìn)路、研究架構(gòu)、研究方式已經(jīng)取得了豐碩的研究成果,但是相關(guān)問(wèn)題還有待進(jìn)一步深入研究。張衛(wèi)提出“外在主義”和“內(nèi)在主義”兩種研究進(jìn)路,認(rèn)為兩種進(jìn)路在治理手段和治理對(duì)象上實(shí)現(xiàn)了互換,從而厘清了二者的關(guān)系,構(gòu)筑起“外在主義”和“內(nèi)在主義”二者相互補(bǔ)充、相得益彰的人工智能倫理完整的研究架構(gòu)[3]。朱琳等提出要構(gòu)建“人工智能倫理生態(tài)圈”,強(qiáng)調(diào)倫理規(guī)范在人工智能倫理生態(tài)圈中的核心地位,認(rèn)為在人智能倫理生態(tài)中最重要的生產(chǎn)關(guān)系即為數(shù)據(jù)的權(quán)力、權(quán)利和權(quán)益[4]。趙志耘等提出了人工智能倫理風(fēng)險(xiǎn)的理論內(nèi)涵、表現(xiàn)形式和生成機(jī)理。研究指出,人工智能倫理風(fēng)險(xiǎn)主要包括人類決策自主受控、侵犯隱私、偏見(jiàn)和歧視加劇、安全責(zé)任劃歸困難與失當(dāng)、破壞公平、生態(tài)失衡6大類風(fēng)險(xiǎn)。人工智能倫理風(fēng)險(xiǎn)源于技術(shù)—人—社會(huì)—自然之間的復(fù)雜交互,主要包括技術(shù)內(nèi)生型倫理風(fēng)險(xiǎn)和技術(shù)應(yīng)用型倫理風(fēng)險(xiǎn)兩大生成路徑[5]。王東、張振認(rèn)為,人工智能面臨一定的倫理風(fēng)險(xiǎn)問(wèn)題,諸如技術(shù)倫理風(fēng)險(xiǎn)、社會(huì)倫理風(fēng)險(xiǎn)和人類生存?zhèn)惱盹L(fēng)險(xiǎn)等。規(guī)避人工智能所帶來(lái)的倫理風(fēng)險(xiǎn),需堅(jiān)持維護(hù)人類共同利益的最高倫理規(guī)范,在全面深化基本原則遵循的基礎(chǔ)上,推進(jìn)倫理制度建設(shè)和新型人機(jī)關(guān)系建構(gòu)[6]。戴益斌以人工智能產(chǎn)品的典型代表即智能機(jī)器人為例,從道德主體和道德接受者的角度出發(fā),討論了人工智能倫理是何以可能的問(wèn)題。研究指出,智能機(jī)器人無(wú)法成為真正的主體,因?yàn)樗豢赡軗碛行闹菭顟B(tài)[7]。陳凡、徐旭認(rèn)為,人工智能倫理設(shè)計(jì)面臨著結(jié)果不確定性、非公正性和建構(gòu)缺失,為此,我們需要對(duì)當(dāng)前人工智能倫理設(shè)計(jì)進(jìn)行必要的解構(gòu)與反思,并從倫理張力、協(xié)同性和客體主體化中尋找解蔽之路[8]。吳紅、杜嚴(yán)勇對(duì)已有的人工智能倫理原則進(jìn)行簡(jiǎn)要介紹與特征分析,然后論證倫理原則發(fā)揮積極作用的可能性,最后針對(duì)不同行為主體提出實(shí)現(xiàn)從倫理原則到行動(dòng)的可能途徑[9]。李倫、孫保學(xué)提出人工智能倫理研究的四個(gè)維度:人工智能道德哲學(xué)、人工智能道德算法、人工智能設(shè)計(jì)倫理和人工智能社會(huì)倫理[10]。總而言之,學(xué)界已經(jīng)對(duì)人工智能倫理的研究進(jìn)路、體系建構(gòu)、風(fēng)險(xiǎn)管理、倫理設(shè)計(jì)與反思等展開(kāi)了深入研究,對(duì)人工智能倫理治理和人工智能倫理教育提供了有益參考。

人工智能技術(shù)在帶給人類種種益處與便利的同時(shí),也引發(fā)了形形色色的倫理問(wèn)題。人工智能倫理是處理人類與人工智能產(chǎn)品或服務(wù)之間相互關(guān)系時(shí)應(yīng)該遵循的基本道德準(zhǔn)則。人工智能發(fā)展可以劃分為弱人工智能、強(qiáng)人工智能和超人工智能三個(gè)階段。用認(rèn)識(shí)論審視,弱人工智能還處于人類認(rèn)識(shí)的感性階段,對(duì)外界刺激還只是形成感覺(jué)、直覺(jué)和表象的感性認(rèn)識(shí);強(qiáng)人工智能和超人工智能已經(jīng)處于人類認(rèn)識(shí)的理性階段。強(qiáng)人工智能在外界刺激下能夠形成概念、判斷和推理的理性認(rèn)識(shí);而超人工智能已經(jīng)完全具備人類的思維方式和創(chuàng)造能力。弱人工智能在人類生產(chǎn)和生活中扮演著輔助的角色,執(zhí)行人類寫(xiě)好的代碼、編好的邏輯,完成人類交給的某項(xiàng)具體的任務(wù);而強(qiáng)人工智能或超人工智能可以在人類生產(chǎn)和生活中扮演主角,完全可以代替駕駛員進(jìn)行自動(dòng)駕駛汽車,能夠取代醫(yī)生獨(dú)立進(jìn)行外科手術(shù),亦能代替投資顧問(wèn)進(jìn)行商業(yè)投資等。強(qiáng)人工智能或超人工智能已經(jīng)具備較高的自我決策能力,甚至能取代或超越人類的智慧,從而引起人類社會(huì)秩序的真正變革。那么,人工智能會(huì)不會(huì)在未來(lái)取代人類而存在?人會(huì)不會(huì)在未來(lái)受制于自己創(chuàng)造的機(jī)器人呢?隨著人工智能的迅速發(fā)展,如何應(yīng)對(duì)強(qiáng)人工智能或超人工智能時(shí)代的“人機(jī)倫理”問(wèn)題呢?從人工智能的長(zhǎng)遠(yuǎn)發(fā)展來(lái)看,構(gòu)建完善的人工智能倫理治理體系具有現(xiàn)實(shí)性和必要性。對(duì)人工智能倫理問(wèn)題的討論必須站在“人”的立場(chǎng)上,對(duì)人類面臨的倫理困境進(jìn)行理性審視并找到破解人工智能倫理困境的出路。本文試圖探討人工智能倫理的哲學(xué)意蘊(yùn)、現(xiàn)實(shí)問(wèn)題和相應(yīng)治理進(jìn)路,以期為人工智能倫理治理提供有益參考。

二、人工智能倫理的哲學(xué)意蘊(yùn)

(一)主奴與平等:人機(jī)關(guān)系與人際關(guān)系

人機(jī)關(guān)系是人工智能時(shí)代不可回避的一對(duì)核心關(guān)系。那么,在人工智能時(shí)代,人機(jī)關(guān)系是平等主體之間的關(guān)系還是主體(人)與客體(物)之間的關(guān)系?人機(jī)關(guān)系能取代人際關(guān)系嗎?人類在使用情侶機(jī)器人、助老機(jī)器人、軍用機(jī)器人時(shí),如何正確處理好人機(jī)關(guān)系?黑格爾的主奴辯證法可以很好地分析人機(jī)關(guān)系。黑格爾在《精神現(xiàn)象學(xué)》中引入勞動(dòng)這一中介的概念,論證奴隸是如何在勞動(dòng)中形成獨(dú)立自我意識(shí)并逐步擺脫主人的控制的;同樣,人類利用人工智能為自身服務(wù),而人工智能產(chǎn)品(比如機(jī)器人)通過(guò)深度學(xué)習(xí)可以形成自我意識(shí),進(jìn)而有可能控制人類。這樣,人機(jī)關(guān)系就發(fā)生了易位。人工智能產(chǎn)品本身不具備人的心智狀態(tài),因而只能作為道德接受者而存在。布賴森的新工具主義把機(jī)器人視為奴隸,認(rèn)為機(jī)器人的責(zé)任歸屬在它的生產(chǎn)方或操作方,機(jī)器人本身不能承擔(dān)責(zé)任。用辯證法審視,人機(jī)關(guān)系的本質(zhì)是人與物的關(guān)系,是一種主奴關(guān)系,而人際關(guān)系的本質(zhì)是人與人之間的關(guān)系,是一種平等的社會(huì)關(guān)系。用人機(jī)關(guān)系代替人際關(guān)系是一種科技異化,更是一種社會(huì)關(guān)系的異化?!盁o(wú)論當(dāng)下還是未來(lái),智能機(jī)器的本質(zhì)仍是“屬人性”,是人類自我生成和自我實(shí)現(xiàn)的“高級(jí)”對(duì)象化產(chǎn)物,其歸根結(jié)底應(yīng)作為手段服務(wù)于作為目的的人?!保?1]因此,智能機(jī)器在醫(yī)療、教育、金融、交通、軍事等各個(gè)領(lǐng)域的應(yīng)用都是最終服務(wù)于廣大人民群眾,為人們的生產(chǎn)生活提供便利。對(duì)于侵犯人類生存權(quán)、發(fā)展權(quán)的人工智能產(chǎn)品(腦機(jī)接口、芯片植入、基因編輯等),應(yīng)嚴(yán)格控制其設(shè)計(jì)和應(yīng)用,否則就會(huì)導(dǎo)致人機(jī)關(guān)系的異化。因此,在人工智能發(fā)展中,人與機(jī)器的關(guān)系必須始終是主奴關(guān)系,進(jìn)而保證人工智能研發(fā)和應(yīng)用中的向善性,確保人的道德主體性得到充分彰顯。

(二)核心與多元:政府管理與社會(huì)治理的關(guān)系

政府管理強(qiáng)調(diào)政府的單一主體地位,而社會(huì)治理突出多元主體的協(xié)同治理效能。從政府管理到社會(huì)治理的轉(zhuǎn)化,體現(xiàn)了國(guó)家治理體系和治理能力現(xiàn)代化的實(shí)踐探索取得重要進(jìn)展。用辯證法審視,政府管理是社會(huì)治理的前提和基礎(chǔ),而社會(huì)治理是政府管理智能化的生動(dòng)體現(xiàn)。政府管理強(qiáng)調(diào)政府對(duì)人工智能的宏觀指導(dǎo)和監(jiān)督,而社會(huì)治理強(qiáng)調(diào)多主體參與人工智能設(shè)計(jì)、生產(chǎn)、使用、評(píng)價(jià)的全過(guò)程。政府對(duì)人工智能產(chǎn)品研發(fā)負(fù)有指導(dǎo)、監(jiān)管的責(zé)任和義務(wù)。政府管理部門要對(duì)人工智能的發(fā)展方向進(jìn)行宏觀把握和整體規(guī)劃,制定相應(yīng)的人工智能倫理規(guī)范和安全標(biāo)準(zhǔn)。政府管理部門對(duì)人工智能的開(kāi)發(fā)與應(yīng)用負(fù)有管理責(zé)任和義務(wù)。政府必須建立關(guān)于人工智能的管理方案,對(duì)人工智能產(chǎn)品研發(fā)的全員、全程、全方位監(jiān)督,并落實(shí)各個(gè)環(huán)節(jié)的責(zé)任負(fù)責(zé)制。由此可見(jiàn),政府管理強(qiáng)調(diào)政府對(duì)人工智能的宏觀管理功能。

在社會(huì)治理中,黨委和政府在社會(huì)治理中起主導(dǎo)性作用。黨的十九屆四中全會(huì)公報(bào)提出:“社會(huì)治理是國(guó)家治理的重要方面。必須加強(qiáng)和創(chuàng)新社會(huì)治理,完善黨委領(lǐng)導(dǎo)、政府負(fù)責(zé)、民主協(xié)商、社會(huì)協(xié)同、公眾參與、法治保障、科技支撐的社會(huì)治理體系。建設(shè)人人有責(zé)、人人盡責(zé)、人人享有的社會(huì)治理共同體,確保人民安居樂(lè)業(yè)、社會(huì)安定有序,建設(shè)更高水平的平安中國(guó)?!保?2]人工智能倫理治理強(qiáng)調(diào)多主體之間的協(xié)作。人工智能倫理僅依靠政府管理是遠(yuǎn)遠(yuǎn)不夠的,需要全體社會(huì)成員參與人工智能倫理的設(shè)計(jì)、制造、使用、售后的全過(guò)程。從多元治理的主體來(lái)看,政府管理是倫理治理的核心,科技工作者是倫理治理的主導(dǎo),社會(huì)公眾是倫理治理的關(guān)鍵。

(三)價(jià)值與底色:人工智能設(shè)計(jì)與人工智能倫理的關(guān)系

人工智能倫理是人工智能設(shè)計(jì)的底色,而人工智能設(shè)計(jì)是人工智能倫理的價(jià)值訴求,蘊(yùn)含人工智能倫理的底色之美。人工智能設(shè)計(jì)需要考慮人類福祉與人工智能產(chǎn)品的雙重價(jià)值。就增進(jìn)人類福祉而言,需要把公正性、多元包容性、責(zé)任性、AI可控性作為其基本標(biāo)準(zhǔn),就人工智能本身的發(fā)展而言,需要把安全性、可解釋性、可持續(xù)性作為其基本標(biāo)準(zhǔn)。人工智能設(shè)計(jì)彰顯人類的主體價(jià)值,是創(chuàng)造人類生產(chǎn)生活需要的、具有自主學(xué)習(xí)能力的、會(huì)思考的人工智能產(chǎn)品的主體性活動(dòng)。一方面,人工智能設(shè)計(jì)與社會(huì)價(jià)值觀念密切相關(guān),傳統(tǒng)的倫理觀、宗教觀、隱私觀都會(huì)對(duì)人工智能設(shè)計(jì)產(chǎn)生深刻影響;另一方面,人工智能設(shè)計(jì)反過(guò)來(lái)促進(jìn)社會(huì)價(jià)值觀的變革。人工智能技術(shù)本身具有價(jià)值導(dǎo)向性。例如,B超技術(shù)的應(yīng)用可以讓人們預(yù)知胎兒的性別,由此引發(fā)“墮胎是否合乎道德”的思考。許多國(guó)家已經(jīng)把胎兒作為獨(dú)立的法律主體和道德主體,以此維護(hù)胎兒的生命權(quán)。由此可見(jiàn),人工智能已經(jīng)并將持續(xù)對(duì)人類社會(huì)產(chǎn)生深遠(yuǎn)影響。人工智能設(shè)計(jì)必須合乎倫理性,否則人工智能就會(huì)導(dǎo)致社會(huì)秩序的混亂。用辯證法審視,人工智能倫理是人工智能設(shè)計(jì)的前提和基礎(chǔ),人工智能設(shè)計(jì)中滲透著倫理。完善的人工智能設(shè)計(jì)是人工智能倫理的充分彰顯和完美體現(xiàn)。用范疇學(xué)審視,人工智能倫理是人工智能設(shè)計(jì)的子范疇,是人工智能設(shè)計(jì)不可或缺的重要組成部分。人工智能設(shè)計(jì)者在人工智能產(chǎn)品的研發(fā)中起關(guān)鍵作用,其不僅需要有人工智能的專業(yè)知識(shí),還需要具備倫理學(xué)的知識(shí)背景。在人工智能設(shè)計(jì)中要充分運(yùn)用倫理學(xué)知識(shí),樹(shù)立前瞻性的道德責(zé)任意識(shí)?!皬娜斯ぶ悄艿陌l(fā)展現(xiàn)狀來(lái)看,人工智能倫理關(guān)系討論的實(shí)際上是人工智能設(shè)計(jì)者、人工智能使用者、人工智能監(jiān)管者和智能機(jī)器本身之間的交互關(guān)系,它貫穿人工智能運(yùn)行、管理和決策的全過(guò)程,其中居于核心位置的是人工智能設(shè)計(jì)者的設(shè)計(jì)?!保?3]人工智能進(jìn)行合倫理設(shè)計(jì),體現(xiàn)了一種道德責(zé)任意識(shí)。設(shè)計(jì)者要對(duì)人工智能產(chǎn)品的安全性和可靠性負(fù)責(zé)到底。因此,人工智能設(shè)計(jì)不僅包括產(chǎn)品自身的功能設(shè)計(jì),還包括人工智能倫理設(shè)計(jì)。人工智能倫理的實(shí)踐路徑可以采取嵌入設(shè)計(jì)的方式,把倫理原則和倫理規(guī)范嵌入到人工智能設(shè)計(jì)之中,并通過(guò)人工智能技術(shù)建構(gòu)人工智能倫理。人工智能發(fā)展必然要求對(duì)人工智能產(chǎn)品進(jìn)行倫理規(guī)制,從而實(shí)現(xiàn)人類與人工智能產(chǎn)品的和諧相處。

(四)自律與他律:人工智能倫理與人工智能法律的關(guān)系

倫理和法律是處理人類社會(huì)關(guān)系的兩種基本方式和基本工具。倫理和法律有何區(qū)別和聯(lián)系呢?倫理是一種自發(fā)形成的,處理人與人、人與社會(huì)、人與自然之間相互關(guān)系的道德準(zhǔn)則,而法律是依靠國(guó)家強(qiáng)制力執(zhí)行的規(guī)范體系。人工智能倫理與人工智能法律遵循倫理與法律的一般邏輯關(guān)系。人工智能倫理強(qiáng)調(diào)在人工智能開(kāi)發(fā)和應(yīng)用中形成人類的自覺(jué)、自律的道德行為,對(duì)人工智能設(shè)計(jì)者、使用者和監(jiān)管者的倫理要求較高。而人工智能法律強(qiáng)調(diào)國(guó)家作為統(tǒng)治階級(jí)工具的管理職能,體現(xiàn)國(guó)家對(duì)人工智能賦予制度性的法律規(guī)范。不管是人工智能倫理還是人工智能法律,都是實(shí)現(xiàn)人工智能發(fā)展的重要保障,二者在人工智能發(fā)展中不斷進(jìn)行深度融合與實(shí)踐轉(zhuǎn)化,即實(shí)現(xiàn)道德法律化和法律道德化。用辯證法審視,人工智能倫理是制定人工智能法律的前提和基礎(chǔ),而人工智能法律是人工智能倫理的重要保障,是對(duì)人工智能倫理規(guī)范中無(wú)法實(shí)現(xiàn)的部分進(jìn)行強(qiáng)制性規(guī)定并運(yùn)用國(guó)家機(jī)器保證其強(qiáng)制力執(zhí)行。為了解決人工智能帶來(lái)的現(xiàn)實(shí)問(wèn)題,并保證人工智能的有序發(fā)展,必須綜合運(yùn)用倫理和法律的規(guī)范體系。例如,“機(jī)器人法律資格的民事主體問(wèn)題、人工智能生成作品的著作權(quán)問(wèn)題、智能系統(tǒng)致人損害的侵權(quán)法問(wèn)題、人類隱私保護(hù)的人格權(quán)問(wèn)題,以及智能駕駛系統(tǒng)的交通法問(wèn)題、機(jī)器‘工人群體’的勞動(dòng)法問(wèn)題”[14]等,可以運(yùn)用法律規(guī)范予以強(qiáng)制性規(guī)制,亦可先進(jìn)行倫理價(jià)值指引,為相應(yīng)的法律法規(guī)出臺(tái)提供學(xué)理支撐。對(duì)于智能機(jī)器人的設(shè)計(jì)和使用,可以預(yù)先設(shè)立法律規(guī)范和道德準(zhǔn)則,對(duì)其進(jìn)行倫理指引,對(duì)智能機(jī)器人的設(shè)計(jì)者、使用者進(jìn)行法律約束和倫理約束??傊瑸楸WC倫理規(guī)范的自覺(jué)履行,可設(shè)立相應(yīng)的法律法規(guī),實(shí)現(xiàn)道德的法律化;同樣,當(dāng)法律已經(jīng)內(nèi)化為人們的道德規(guī)范時(shí),可以轉(zhuǎn)化為一種道德,實(shí)現(xiàn)法律的道德化。

三、人工智能倫理引發(fā)的現(xiàn)實(shí)問(wèn)題

(一)人工智能倫理引發(fā)的道德主體問(wèn)題

道德主體問(wèn)題的實(shí)質(zhì)就是責(zé)任倫理問(wèn)題。那么,什么是道德主體?道德主體即承擔(dān)道德責(zé)任的、具備自我意識(shí)的行為者。依此類推,人工智能倫理引發(fā)的道德主體問(wèn)題即人工智能到底由誰(shuí)來(lái)負(fù)責(zé)的問(wèn)題。人工智能可以作為除人類之外獨(dú)立的倫理主體嗎?人工智能時(shí)代道德主體是人還是機(jī)器?還是二者都可以成為道德主體呢?道德主體決定人工智能產(chǎn)品售后產(chǎn)生的責(zé)任分配與劃界問(wèn)題。人工智能能夠成為責(zé)任主體嗎?亞里士多德在《尼各馬可倫理學(xué)》第三卷中對(duì)責(zé)任主體進(jìn)行了經(jīng)典詮釋,提出了擔(dān)負(fù)責(zé)任的主體應(yīng)符合的基本標(biāo)準(zhǔn)。基于這一標(biāo)準(zhǔn),人工智能不具備承擔(dān)道德責(zé)任的能力,人工智能自身作出的倫理判斷也是人類進(jìn)行設(shè)計(jì)的,并非出于自身的意愿,人工智能在無(wú)知狀態(tài)下作出的倫理決策是可以免責(zé)的。例如,2016年5月7日,一輛特斯拉汽車在美國(guó)佛羅里達(dá)州高速公路上與一輛垂直方向開(kāi)來(lái)的掛車發(fā)生相撞,造成司機(jī)死亡。2018年3月18日,美國(guó)硅谷優(yōu)步公司的自動(dòng)駕駛汽車撞傷亞利桑那州的一名女子,之后不幸身亡。這是全球首例自動(dòng)駕駛車輛致人死亡的事故。在汽車開(kāi)啟人工智能自動(dòng)駕駛模式時(shí),到底誰(shuí)是道德主體?機(jī)器人是否具備人的基本屬性并使自身成為道德主體呢?在自動(dòng)駕駛中,行人和乘客同時(shí)面臨危險(xiǎn)時(shí)應(yīng)該如何抉擇?是保護(hù)行人還是乘客?面對(duì)不同生命的取舍時(shí),是選擇保護(hù)多數(shù)人還是少數(shù)人?自動(dòng)駕駛導(dǎo)致的交通事故應(yīng)該由誰(shuí)來(lái)承擔(dān)責(zé)任?是啟動(dòng)自動(dòng)駕駛模式的汽車司機(jī)還是自動(dòng)駕駛系統(tǒng)設(shè)計(jì)者呢?當(dāng)我們把人的生死權(quán)交給人工智能技術(shù)及其提供的服務(wù)時(shí),我們不得不思考一個(gè)問(wèn)題,就是人工智能能否代替人類成為道德主體呢?阿西莫夫的三定律原則為道德主體的界定提供了有益參考。1942年,阿西莫夫提出機(jī)器人行為的三定律原則,即機(jī)器人不能傷害人類或坐視人類受到傷害;在與第一定律原則不相沖突的情況下機(jī)器人必須服從人類的命令;在不違反第一與第二定律原則的基礎(chǔ)上機(jī)器人有自我保護(hù)的義務(wù)。1985年,阿西莫夫進(jìn)一步提出第零法則,即機(jī)器人即使出于自我保護(hù)也不能直接或間接傷害人類。根據(jù)阿西莫夫的三定律原則,如果人工智能的存在是以保護(hù)人類、服務(wù)社會(huì)為最終目的的話,那么此時(shí)的人工智能就不是倫理主體,而只是人類的附屬品而已。如果人工智能具有自我保護(hù)意識(shí),在面臨風(fēng)險(xiǎn)時(shí)優(yōu)先保護(hù)自己的話,人工智能就會(huì)給人類帶來(lái)災(zāi)難性的后果。筆者以為,人工智能產(chǎn)品(比如機(jī)器人)不能作為“完全的道德主體”而存在。隨著人工智能產(chǎn)品(比如機(jī)器人)自我意識(shí)不斷增強(qiáng),其本身具有一定的倫理判斷能力,可以作為“有限的道德主體”而存在,必須正確引導(dǎo)其更好地為人類社會(huì)服務(wù)。

(二)人工智能倫理引發(fā)的政府管理問(wèn)題

隨著人工智能的廣泛使用,探討政府如何有效運(yùn)用人工智能為國(guó)家和社會(huì)服務(wù)具有現(xiàn)實(shí)性和必要性。人工智能發(fā)展必須在政府治理的框架中進(jìn)行,換言之,人工智能應(yīng)該為社會(huì)治理提供新方法、新路徑。政府必須對(duì)人工智能發(fā)展進(jìn)行宏觀把控,必須堅(jiān)持以人民為中心的基本原則,把人的根本利益作為人工智能發(fā)展的終極目標(biāo),引導(dǎo)人工智能向善發(fā)展,構(gòu)建友好型人工智能。以大數(shù)據(jù)為依托的人工智能技術(shù)對(duì)公共決策產(chǎn)生重要影響。人工智能深入經(jīng)濟(jì)、政治、社會(huì)、生態(tài)、黨的建設(shè)諸方面。例如,在2020年以來(lái)的疫情防控中,我國(guó)迅速構(gòu)建了以大數(shù)據(jù)技術(shù)和人工智能技術(shù)為重要依托的疫情防控體系,充分彰顯了國(guó)家治理體系和治理能力現(xiàn)代化建設(shè)的能力。隨著人工智能在政府決策中的廣泛應(yīng)用,也帶來(lái)一系列的人工智能智能倫理問(wèn)題。人工智能倫理如何體現(xiàn)其透明性和可解釋性呢?人工智能導(dǎo)致的政府決策失誤應(yīng)該由誰(shuí)來(lái)買單?人工智能用于政府決策如何解決算法歧視問(wèn)題呢?政府決策中如何體現(xiàn)其公平性和反歧視性呢?算法歧視可能會(huì)進(jìn)一步強(qiáng)化人類的刻板印象,算法歧視會(huì)導(dǎo)致性別歧視、種族歧視、地域歧視等。這些人工智能發(fā)展帶來(lái)的社會(huì)問(wèn)題應(yīng)該如何應(yīng)對(duì)?政府在運(yùn)用人工智能進(jìn)行公共決策時(shí)如何保證數(shù)據(jù)樣本的精準(zhǔn)性呢?深度決策中如何避免人工智能(機(jī)器人)深度學(xué)習(xí)的“黑箱”現(xiàn)象呢?筆者以為,在人工智能算法方面,人工智能設(shè)計(jì)與應(yīng)用必須確保人的基本權(quán)利不受侵害,同時(shí)要保證人工智能算法的透明性、公正性、可控性。

(三)人工智能倫理引發(fā)的社會(huì)發(fā)展問(wèn)題

人工智能對(duì)現(xiàn)代社會(huì)秩序產(chǎn)生重要影響。怎樣保證人工智能更好地為社會(huì)服務(wù),既是一個(gè)重大的理論問(wèn)題,更是一個(gè)重大的現(xiàn)實(shí)問(wèn)題。人工智能發(fā)展將會(huì)引起社會(huì)秩序的重大變革,必須在解構(gòu)中重構(gòu)社會(huì)新秩序。一是人工智能引發(fā)的社會(huì)公正問(wèn)題。從經(jīng)濟(jì)學(xué)視角看,“大數(shù)據(jù)殺熟”是一種價(jià)格歧視,是商家實(shí)現(xiàn)利潤(rùn)最大化的手段和方法?!按髷?shù)據(jù)殺熟”的前提和基礎(chǔ)是電子商務(wù)憑他對(duì)消費(fèi)者有充分的了解,從而針對(duì)消費(fèi)者個(gè)體制定潛在客戶可以承受的價(jià)格。二是人工智能引發(fā)的婚姻倫理問(wèn)題。未來(lái)學(xué)家伊恩·皮爾森博士預(yù)測(cè),“到2050年左右,人類與機(jī)器人的性愛(ài)將變得非常流行,機(jī)器人有可能最終取代人類性伴侶?!蹦敲?,性愛(ài)機(jī)器人是否會(huì)給人類帶來(lái)婚姻危機(jī)呢?已婚人士使用性愛(ài)機(jī)器人能否認(rèn)定為婚內(nèi)“出軌”?人與機(jī)器人結(jié)婚是否符合社會(huì)倫理規(guī)范?這些問(wèn)題值得反思和研究。三是人工智能引發(fā)的性別歧視問(wèn)題。性愛(ài)機(jī)器人大多數(shù)都以女性樣態(tài)呈現(xiàn),即將女性物化,這種做法是否會(huì)加劇對(duì)女性的性別歧視?四是人工智能引發(fā)的種族繁衍危機(jī)。性愛(ài)機(jī)器人可能引起社會(huì)基本結(jié)構(gòu)的變遷,導(dǎo)致家庭關(guān)系的消失。在人工智能時(shí)代應(yīng)如何維護(hù)家庭的和諧,進(jìn)而維護(hù)整個(gè)社會(huì)的和諧呢?五是人工智能引發(fā)的就業(yè)問(wèn)題。就業(yè)是最大的民生問(wèn)題。在未來(lái),大批工人將會(huì)被工業(yè)機(jī)器人取代。如何保證失業(yè)工人的權(quán)益成為社會(huì)將會(huì)面臨的重大課題。六是決策歧視問(wèn)題。具有自主學(xué)習(xí)能力的人工智能往往會(huì)對(duì)根據(jù)數(shù)據(jù)記錄的部分群體產(chǎn)生地域歧視、種族歧視、性別歧視等。例如,在人工智能決策和管理中,“黑人”更容易與“犯罪”聯(lián)系在一起。七是人工智能引發(fā)的個(gè)人隱私保護(hù)問(wèn)題。在大數(shù)據(jù)時(shí)代背景下,個(gè)人的健康信息、所在的位置信息、瀏覽的網(wǎng)絡(luò)信息等都會(huì)暴露在公眾面前,個(gè)人隱私處于隨時(shí)被窺探的狀態(tài)。

(四)人工智能倫理引發(fā)的教育瓶頸問(wèn)題

教育是最大的民生問(wèn)題。當(dāng)今世界正面臨百年未有之大變局。教育必須面向現(xiàn)代化、面向世界、面向未來(lái)。人工智能倫理教育遵循教育的一般規(guī)律。隨著人工智能的飛速發(fā)展,進(jìn)行人工智能倫理教育具有現(xiàn)實(shí)性和必要性。

1.人工智能技術(shù)的科技工作者的倫理意識(shí)不強(qiáng)已經(jīng)成為人工智能發(fā)展的重要瓶頸。人工智能設(shè)計(jì)者對(duì)其產(chǎn)品投放市場(chǎng)后的倫理風(fēng)險(xiǎn)估計(jì)不足,可能損害公開(kāi)利益和個(gè)人利益。

2.同時(shí)擁有人工智能與倫理學(xué)專業(yè)背景的高級(jí)研究人員不足。人工智能倫理作為一門交叉學(xué)科,需要人工智能和倫理學(xué)的雙重學(xué)術(shù)背景和知識(shí)儲(chǔ)備。然而,人工智能倫理一般都是由擁有馬克思主義哲學(xué)、西方哲學(xué)的學(xué)者們進(jìn)行研究。

3.缺少人工智能倫理研究的科研平臺(tái)。人工智能倫理的學(xué)術(shù)體系、學(xué)科體系、話語(yǔ)體系尚未真正建立,人工智能倫理課程建設(shè)和教材建設(shè)明顯滯后,人工智能專業(yè)的學(xué)生缺乏人工智能倫理教育。

4.人工智能倫理的學(xué)科支撐不足。人工智能倫理的基礎(chǔ)研究理論支撐不足,研究范式還有待進(jìn)一步創(chuàng)新;對(duì)人工智能的國(guó)際發(fā)展的最新成果研究把握不足,還有待進(jìn)一步深入研究。

5.人工智能倫理的大眾化教育體制機(jī)制不健全,社會(huì)公眾的人工智能倫理知識(shí)缺乏。加強(qiáng)人工治理倫理的知識(shí)科普具有極大的現(xiàn)實(shí)意義。

四、人工智能倫理的治理進(jìn)路

(一)堅(jiān)持以人為本原則,彰顯人民利益至上的人工智能發(fā)展理念

人工智能技術(shù)最終服務(wù)與廣大人民群眾,必須以人的利益為根本出發(fā)點(diǎn)和落腳點(diǎn)。馬克思主義的基本立場(chǎng)就是人民立場(chǎng)。馬克思、恩格斯在合寫(xiě)的《神圣家族》中提出:“‘思想’一旦離開(kāi)‘利益’,就一定會(huì)使自己出丑?!保?5]“為了人民,依靠人民,保護(hù)人民是馬克思主義政黨的本質(zhì)要求,是中國(guó)共產(chǎn)黨的宗旨體現(xiàn),脫離人民,背叛人民,與人民為敵,終究會(huì)走向失敗?!保?6]中國(guó)共產(chǎn)黨繼承和發(fā)展了馬克思主義關(guān)于人民立場(chǎng)的思想。毛澤東鮮明提出:“人民,只有人民,才是創(chuàng)造世界歷史的動(dòng)力?!保?7]鄧小平指出:“群眾是我們力量的源泉,群眾路線和群眾觀點(diǎn)是我們的傳家寶。”[18]江澤民強(qiáng)調(diào):“黨的理論、路線、綱領(lǐng)、方針、政策和各項(xiàng)工作,必須堅(jiān)持把人民的根本利益作為出發(fā)點(diǎn)和歸宿?!保?9]胡錦濤強(qiáng)調(diào):“堅(jiān)持發(fā)展為了人民、發(fā)展依靠人民、發(fā)展成果由人民共享。”[20]習(xí)近平總書(shū)記多次提出:人民立場(chǎng)“是中國(guó)共產(chǎn)黨的根本政治立場(chǎng),是馬克思主義政黨區(qū)別于其他政黨的顯著標(biāo)志?!保?1]中國(guó)共產(chǎn)黨領(lǐng)導(dǎo)下的一切工作都必須堅(jiān)守人民立場(chǎng)。

人工智能發(fā)展過(guò)程中必須始終堅(jiān)守人民立場(chǎng),讓人工智能真正服務(wù)于人們的生產(chǎn)和生活場(chǎng)域。

1.在人工智能技術(shù)的開(kāi)發(fā)和應(yīng)用中,要以國(guó)家、社會(huì)和個(gè)人的現(xiàn)實(shí)需求作為其價(jià)值歸宿,實(shí)現(xiàn)精準(zhǔn)開(kāi)發(fā)和精準(zhǔn)營(yíng)銷。國(guó)家、社會(huì)和個(gè)人的現(xiàn)實(shí)需求是多樣化的。例如,應(yīng)對(duì)國(guó)防和軍隊(duì)現(xiàn)代化的需要,為了減少戰(zhàn)爭(zhēng)傷亡和軍人數(shù)量,可以考慮未來(lái)使用軍用機(jī)器人;應(yīng)對(duì)老年化趨勢(shì),為了解決養(yǎng)老難的問(wèn)題,可以考慮未來(lái)使用助老機(jī)器人;應(yīng)對(duì)道德失范、誠(chéng)信缺失等社會(huì)不良現(xiàn)象,為了重構(gòu)社會(huì)信用體系,可以考慮使用人工智能決策。

2.在人工智能技術(shù)的開(kāi)發(fā)和應(yīng)用中,要堅(jiān)持普惠性原則,逐步降低人工智能產(chǎn)品的研發(fā)成本,把人工智能產(chǎn)品作為大眾化的商品進(jìn)行開(kāi)發(fā)和推廣,把人工智能作為人們實(shí)現(xiàn)美好生活的重要載體和實(shí)踐方式。習(xí)近平在《我們的目標(biāo)就是讓全體中國(guó)人都過(guò)上更好的日子》中指出:“我們的目標(biāo)很宏偉,但也很樸素,歸根結(jié)底就是讓全體中國(guó)人都過(guò)上更好的日子。我們有充分的信心實(shí)現(xiàn)我們的目標(biāo)?!保?2]黨和國(guó)家的利益與人民的利益是一致的,黨和國(guó)家的奮斗目標(biāo)就是要實(shí)現(xiàn)國(guó)家富強(qiáng)、民族振興和人民幸福的中國(guó)夢(mèng)。人工智能服務(wù)于國(guó)家治理體系和治理能力的現(xiàn)代化建設(shè)。人工智能技術(shù)的開(kāi)發(fā)、推廣和應(yīng)用,就是要讓廣大人民群眾在生產(chǎn)和生活中體驗(yàn)到幸福感、獲得感、安全感。

3.在人工智能技術(shù)的開(kāi)發(fā)和應(yīng)用中,要建立人工智能產(chǎn)品的售后評(píng)價(jià)體系。通過(guò)售后評(píng)價(jià)體系不斷優(yōu)化其產(chǎn)品性能,從而不斷提升使用者的高質(zhì)量?jī)r(jià)值體驗(yàn)。

4.人工智能的研發(fā)和應(yīng)用中應(yīng)體現(xiàn)其向善性、透明性、公平性和可控性,把人的利益始終作為人工智能的終極價(jià)值訴求。

(二)堅(jiān)持權(quán)責(zé)一致原則,構(gòu)建權(quán)責(zé)高度一致的人工智能社會(huì)治理體系

在人工智能發(fā)展中,權(quán)利與義務(wù)應(yīng)保持高度統(tǒng)一:

1.建立人工智能倫理審查制度。成立人工智能的公開(kāi)審查機(jī)構(gòu),完善人工智能倫理的公開(kāi)審查制度。人工智能的公開(kāi)審查機(jī)構(gòu)可以由政界、學(xué)界和商界的專業(yè)人士組成。通過(guò)政府主要領(lǐng)導(dǎo)人、學(xué)術(shù)界的科研工作者和商界精英的通力合作,對(duì)人工智能產(chǎn)品研發(fā)進(jìn)行前瞻性思考。

2.構(gòu)建人工智能倫理的解釋話語(yǔ)體系。人工智能倫理解釋話語(yǔ)是指其蘊(yùn)含的倫理內(nèi)容的闡釋,包括公平、正義、民主、平等、責(zé)任、權(quán)力等,倫理解釋話語(yǔ)客觀上要求用倫理的眼光反思人工智能技術(shù)、產(chǎn)品和服務(wù)。在人工智能技術(shù)的開(kāi)發(fā)中,要保證人工智能算法的公開(kāi)透明性,具體表現(xiàn)為確保“人工智能算法的可解釋性、可驗(yàn)證性和可預(yù)測(cè)性?!保?3]38可解釋性客觀上要求人工智能決策或者行為的機(jī)制機(jī)理能夠被人類所理解和接受,對(duì)人工智能設(shè)計(jì)者或使用者的綜合素養(yǎng)要求較高,要求其對(duì)算法的過(guò)程和特定的決策提供解釋,從而維護(hù)人工智能產(chǎn)品消費(fèi)者的知情權(quán),也能使消費(fèi)者對(duì)人工智能算法進(jìn)行有效的監(jiān)督和避免算法決策的失誤??沈?yàn)證性就是算法結(jié)果的可重復(fù)性,要求在特定的條件下再現(xiàn)算法運(yùn)用產(chǎn)生的結(jié)果,以便解決算法解釋和算法追責(zé)問(wèn)題。可預(yù)測(cè)性要求保證算法的準(zhǔn)確性和使用數(shù)據(jù)的全面性,及時(shí)發(fā)現(xiàn)并統(tǒng)計(jì)不準(zhǔn)確預(yù)測(cè)結(jié)果的數(shù)量,不斷提升其數(shù)據(jù)的準(zhǔn)確性和算法的精準(zhǔn)度。

3.構(gòu)建人工智能監(jiān)察體系。設(shè)立人工智能倫理委員會(huì),建立人工智能倫理問(wèn)責(zé)制度。在人工智能的應(yīng)用中,要堅(jiān)持權(quán)利與責(zé)任相統(tǒng)一的基本原則,對(duì)人工智能產(chǎn)品的開(kāi)發(fā)和應(yīng)用實(shí)行問(wèn)責(zé)制度,即“在人工智能的設(shè)計(jì)和使用中留存相關(guān)的算法、數(shù)據(jù)和決策的準(zhǔn)確記錄,以便在產(chǎn)生損害結(jié)果時(shí)能夠進(jìn)行審查并查明責(zé)任歸屬;即使無(wú)法解釋算法產(chǎn)生的結(jié)果,使用了人工智能算法進(jìn)行決策的機(jī)構(gòu)也應(yīng)對(duì)此負(fù)責(zé)?!保?3]38

4.構(gòu)建人工智能安全保障體系。在數(shù)據(jù)處理方面,要充分保障人工智能產(chǎn)品使用者的個(gè)人權(quán)益。為保障人工智能使用者的個(gè)人信息相關(guān)權(quán)益,要建立個(gè)人敏感信息的嚴(yán)格審查制度。對(duì)個(gè)人敏感信息要進(jìn)行嚴(yán)格的訪問(wèn)控制,利用相關(guān)技術(shù)降低個(gè)人信息的敏感度,采取有效措施保障個(gè)人信息主體的知情權(quán);同時(shí),要充分保護(hù)人工智能使用者的隱私權(quán)益,避免人工智能產(chǎn)品應(yīng)用中個(gè)人信息的泄露。

5.構(gòu)建人工智能可持續(xù)發(fā)展體系。在社會(huì)效益方面,要建立人工智能的可持續(xù)性發(fā)展的指標(biāo)體系,保障人工智能的向善性。向善性要求對(duì)人工智能發(fā)展的經(jīng)濟(jì)效益和生態(tài)效益進(jìn)行綜合考量,還要對(duì)人工智能系統(tǒng)是否傷害或欺騙人類進(jìn)行深入思考。

6.構(gòu)建人工智能法律體系?!皬淖詣?dòng)駕駛、智能媒體、智能醫(yī)療、智慧風(fēng)控等各領(lǐng)域立法中進(jìn)行體系化梳理和理論抽象,建立完整的人工智能法律體系?!保?4]

7.建立面向國(guó)際社會(huì)的人工智能合作治理的體制機(jī)制。面對(duì)經(jīng)濟(jì)、科技的迅速發(fā)展,世界越來(lái)越成為你中有我、我中有你的命運(yùn)共同體。中國(guó)要積極與其他國(guó)家合作,構(gòu)建面向世界的人工智能倫理治理體系,為全球人工智能倫理治理提供中國(guó)智慧和中國(guó)方案??傊?,人工智能對(duì)經(jīng)濟(jì)社會(huì)發(fā)展產(chǎn)生深刻影響,必須深刻反思人工智能發(fā)展中帶來(lái)的倫理困境,實(shí)現(xiàn)人工智能發(fā)展與和諧社會(huì)構(gòu)建的有機(jī)統(tǒng)一。

(三)堅(jiān)持多主體參與原則,構(gòu)建人工智能倫理安全風(fēng)險(xiǎn)防范體系

人工智能在帶給人類更多福祉的同時(shí),也可能產(chǎn)生安全風(fēng)險(xiǎn)。因此,政府相關(guān)職能部門要鼓勵(lì)人工智能產(chǎn)品的研究開(kāi)發(fā)者、設(shè)計(jì)制造者、部署應(yīng)用者和用戶等共同參與,構(gòu)建多主體參與的人工智能倫理安全風(fēng)險(xiǎn)防范體系,科學(xué)應(yīng)對(duì)人工智能可能造成的失控性、社會(huì)性、侵權(quán)性、歧視性、責(zé)任性風(fēng)險(xiǎn)。

1.建立人工智能倫理的政府審查制度。政府在人工智能倫理治理中扮演引導(dǎo)者、監(jiān)督者的角色。政府可以成立專門的人工智能倫理審查委員會(huì),對(duì)人工智能產(chǎn)品進(jìn)行倫理評(píng)估。人工智能倫理審查委員會(huì)可以由政府職能部門負(fù)責(zé)人、知名大學(xué)教授、企業(yè)高管等組成。

2.研究開(kāi)發(fā)者在進(jìn)行倫理設(shè)計(jì)時(shí)要有前瞻性的風(fēng)險(xiǎn)防范意識(shí)、合作意識(shí),可以吸收設(shè)計(jì)制造者、部署應(yīng)用者和潛在用戶等參與人工智能產(chǎn)品的倫理設(shè)計(jì),對(duì)人工智能產(chǎn)品進(jìn)行客觀、公正、全面的倫理安全風(fēng)險(xiǎn)分析,在設(shè)計(jì)中要避免研究開(kāi)發(fā)可能被惡意利用的人工智能產(chǎn)品,從而預(yù)防對(duì)人工智能的誤用、濫用;同時(shí),在倫理設(shè)計(jì)中要把人的基本權(quán)利放在首位,盡量避免人的人身權(quán)、隱私權(quán)、財(cái)產(chǎn)權(quán)受到侵害。此外,還要提防人工智能對(duì)特定群體的主觀和客觀偏見(jiàn),厘清人工智能使用中的責(zé)任劃界問(wèn)題,對(duì)人工智能設(shè)計(jì)全過(guò)程,特別是關(guān)鍵決策進(jìn)行詳細(xì)記載,以便在需要時(shí)啟動(dòng)回溯機(jī)制進(jìn)行追責(zé)。

3.建立人工智能倫理安全風(fēng)險(xiǎn)的保障機(jī)制、事故應(yīng)急處置機(jī)制等,避免設(shè)計(jì)損壞公共利益和個(gè)人利益的人工智能產(chǎn)品。設(shè)計(jì)制造者應(yīng)充分認(rèn)識(shí)研究開(kāi)發(fā)者的設(shè)計(jì)意圖,在人工智能產(chǎn)品的制造中要嚴(yán)格執(zhí)行設(shè)計(jì)理念,并對(duì)制造中的倫理風(fēng)險(xiǎn)進(jìn)行客觀公正的研判;同時(shí),要謹(jǐn)慎開(kāi)展對(duì)自主學(xué)習(xí)能力和自我改進(jìn)能力很強(qiáng)的人工智能產(chǎn)品的研發(fā),不斷提升人工智能產(chǎn)品的可解釋性和可控制性。

4.建立人工智能產(chǎn)品的應(yīng)急處置機(jī)制、反饋和賠償機(jī)制等。部署應(yīng)用者要充分了解研究開(kāi)發(fā)者的設(shè)計(jì)意圖和設(shè)計(jì)制造者的制造原理,指導(dǎo)用戶合理使用人工智能產(chǎn)品。部署應(yīng)用者是連接設(shè)計(jì)制造者和用戶的中間商,需要直接對(duì)用戶提供售前和售后服務(wù),特別要重視對(duì)用戶提供人工智能產(chǎn)品提供機(jī)制機(jī)理的解釋性服務(wù)和風(fēng)險(xiǎn)防范告示。

5.建立用戶使用前的倫理培訓(xùn)制度,引導(dǎo)用戶科學(xué)合理地使用人工產(chǎn)品。用戶是人工智能產(chǎn)品的直接使用者、受益者,應(yīng)認(rèn)真閱讀產(chǎn)品說(shuō)明書(shū),在使用中遇到問(wèn)題應(yīng)及時(shí)反饋給部署應(yīng)用者,再由其反饋至研究開(kāi)發(fā)者和設(shè)計(jì)制造者。

6.建立人工智能多元主體的制衡機(jī)制,明確多元主體的治理邊界。必須明確多元主體各自扮演的角色,實(shí)現(xiàn)分工合作,彰顯多元治理效能。多元主體共同參與人工智能倫理治理是一種協(xié)同治理,更是一種精準(zhǔn)治理,是對(duì)國(guó)家治理體系和治理能力現(xiàn)代化建設(shè)的積極回應(yīng)。

(四)堅(jiān)持創(chuàng)新發(fā)展原則,建立文理深度融合的人工智能倫理教育體系

創(chuàng)新的關(guān)鍵在人才,人才培養(yǎng)的關(guān)鍵在于教育。發(fā)展人工智能的關(guān)鍵在于技術(shù),而技術(shù)必然掌握在人的手中。人工智能技術(shù)一旦被廣大人民群眾所掌握,就會(huì)轉(zhuǎn)化為人工智能發(fā)展的巨大引擎和強(qiáng)大動(dòng)力。

1.構(gòu)建大中小學(xué)一體化的人工智能課程體系、教材體系和教學(xué)體系。在大中小學(xué)開(kāi)設(shè)人工智能通識(shí)課程,為不同學(xué)段的受教育者提供人工智能技術(shù)的基礎(chǔ)理論和研究范式,全面提升國(guó)民的綜合素養(yǎng);同時(shí),針對(duì)高校人工智能專業(yè),應(yīng)加速推進(jìn)人工智能倫理課程建設(shè),把人工智能倫理課程納入學(xué)分,同時(shí)編撰人工智能倫理課程的統(tǒng)編教材。

2.構(gòu)建人工智能倫理專業(yè)的學(xué)術(shù)體系、學(xué)科體系和話語(yǔ)體系。加強(qiáng)人工智能倫理的基礎(chǔ)理論研究,不斷發(fā)掘新的研究范式,實(shí)現(xiàn)人工智能專業(yè)和倫理學(xué)專業(yè)的深度融合發(fā)展。在高校研究生階段開(kāi)設(shè)“人工智能倫理方向”的倫理學(xué)專業(yè),鼓勵(lì)人工智能、哲學(xué)等相關(guān)專業(yè)的本科生報(bào)考“人工智能倫理方向”的倫理學(xué)專業(yè);同時(shí),可以組建“人工智能安全工程”學(xué)科,建立人工智能強(qiáng)制性安全標(biāo)準(zhǔn)與規(guī)范,培養(yǎng)大批高水平的人工智能安全員。

3.構(gòu)建人工智能倫理人才培養(yǎng)體系。把高級(jí)技術(shù)人才的培育擺在核心位置,加快培養(yǎng)倫理學(xué)專業(yè)的人工智能倫理方向的高級(jí)技術(shù)人才,鼓勵(lì)有條件的高校培養(yǎng)“人工智能倫理方向”的博士生,還要設(shè)立人工智能倫理方向的博士后流動(dòng)站,為人工智能倫理學(xué)研究提供基礎(chǔ)理論支撐和研究范式創(chuàng)新。

4.建立人工治理倫理人才引進(jìn)機(jī)制。大量引進(jìn)海內(nèi)外優(yōu)秀的人工智能高級(jí)技術(shù)人員,并且要用待遇和平臺(tái)留住人才?!霸谑澜缛斯ぶ悄馨l(fā)展的競(jìng)爭(zhēng)中,各國(guó)對(duì)優(yōu)秀人才的爭(zhēng)奪尤為激烈,同時(shí)也極為重視對(duì)本國(guó)人才的培養(yǎng)?!保?5]人工智能時(shí)代必須高度重視人才引進(jìn),用人才引領(lǐng)科技創(chuàng)新。

5.建立人工智能高端智庫(kù)建設(shè)的體制機(jī)制。設(shè)立人工智能智庫(kù)建設(shè)平臺(tái),高度重視人工智能的理論成果轉(zhuǎn)化為實(shí)踐創(chuàng)新成果,為國(guó)家制定具有戰(zhàn)略性、前瞻性和可行性的人工智能政策發(fā)揮關(guān)鍵作用。

(五)堅(jiān)持開(kāi)放共享原則,構(gòu)建面向世界的人工智能倫理的對(duì)外話語(yǔ)傳播體系

人工智能倫理問(wèn)題是人類社會(huì)共同面臨的核心議題。中國(guó)特色社會(huì)主義進(jìn)入新時(shí)代,習(xí)近平總書(shū)記提出人類命運(yùn)共同體理念,構(gòu)建面向世界的人工智能倫理的對(duì)外話語(yǔ)傳播體系,是對(duì)人類命運(yùn)共同體理念的時(shí)代回響。中國(guó)在人工智能倫理方面取得的理論成果和基本經(jīng)驗(yàn),要與世界各國(guó)“共建共享”。人工智能倫理的對(duì)外傳播要充分彰顯中國(guó)的國(guó)際話語(yǔ)權(quán)、國(guó)際影響力。通過(guò)構(gòu)建面向世界的人工智能倫理對(duì)外話語(yǔ)傳播體系,拓展中國(guó)智慧和中國(guó)方案的世界生存空間,讓更多的外國(guó)人了解中國(guó)的最新科技進(jìn)展。中國(guó)人工智能倫理發(fā)展和研究不是僵化封閉的,而是對(duì)外開(kāi)放的。當(dāng)今世界正面臨百年未有之大變局,中國(guó)作為國(guó)際社會(huì)重要的組成部分,在國(guó)際社會(huì)扮演著重要的角色。

1.以人工智能倫理為主題,采取宏大敘事的方式,講好中國(guó)的人工智能倫理原則,為人工智能倫理的全球治理提供中國(guó)方案和中國(guó)智慧。

2.發(fā)揮海內(nèi)外高端人才、海外留學(xué)人員的作用。利用他們國(guó)際化的學(xué)術(shù)背景,傳播好中國(guó)人工智能倫理的研究進(jìn)展。一方面要吸收海內(nèi)外的人工智能高端人才參與中國(guó)的人工智能倫理研究項(xiàng)目,提升中國(guó)人工智能倫理研究的國(guó)際化水平;另一方面,要充分發(fā)揮有人工智能倫理學(xué)術(shù)背景的留學(xué)人員的作用,鼓勵(lì)他們傳播好中國(guó)人工智能發(fā)展的聲音?!皬V大留學(xué)人員既有國(guó)內(nèi)成長(zhǎng)經(jīng)歷又有海外生活體驗(yàn),既有廣泛的國(guó)內(nèi)外人際關(guān)系又有豐富的不同文化交流經(jīng)驗(yàn),許多外國(guó)人通過(guò)你們了解中國(guó)、認(rèn)識(shí)中國(guó),許多中國(guó)人通過(guò)你們了解世界、認(rèn)識(shí)世界?!保?6]

3.創(chuàng)新人工智能的對(duì)外傳播載體。利用人工智能電影、短視頻等,引領(lǐng)觀眾對(duì)人工智能技術(shù)進(jìn)行創(chuàng)生反思。人工智能倫理發(fā)展和研究必須增強(qiáng)對(duì)外傳播,以期引起國(guó)際社會(huì)的話語(yǔ)共鳴,從而爭(zhēng)取更大的國(guó)際話語(yǔ)表達(dá)權(quán)。

4.充分尊重傳播對(duì)象的語(yǔ)言、文化、民族等,準(zhǔn)確把握人工智能倫理的對(duì)外傳播對(duì)象的特殊性,對(duì)傳播對(duì)象進(jìn)行細(xì)分,不斷把潛在受眾群體轉(zhuǎn)化為現(xiàn)實(shí)受眾群體。習(xí)近平總書(shū)記指出:“要著力推進(jìn)國(guó)際傳播能力建設(shè),創(chuàng)新對(duì)外宣傳方式,打造融通中外的新概念新范疇新表述,把我們想講的和國(guó)外受眾想聽(tīng)的結(jié)合起來(lái),努力爭(zhēng)取國(guó)際話語(yǔ)權(quán)?!保?7]人工智能倫理的對(duì)外話語(yǔ)在把握受眾群體喜好的基礎(chǔ)上,需要不斷采取新方法新手段。

5.充分運(yùn)用大數(shù)據(jù)技術(shù),準(zhǔn)確把握人工智能倫理的中國(guó)特色,實(shí)現(xiàn)精準(zhǔn)傳播。以公共安全、公正、平等、人權(quán)等為主題,打造國(guó)內(nèi)外觀眾喜聞樂(lè)見(jiàn)的傳播載體,推動(dòng)人工智能倫理的傳播方式的多樣化。

6.構(gòu)建人工智能倫理文化的對(duì)外傳播體系,增強(qiáng)人工智能倫理智庫(kù)建設(shè)的道路自信、理論自信、制度自信和文化自信,推動(dòng)人工智能發(fā)展的國(guó)際話語(yǔ)自信。中國(guó)特色社會(huì)主義道路、中國(guó)特色社會(huì)主義理論、中國(guó)特色社會(huì)主義制度和中國(guó)特色社會(huì)主義文化為人工智能倫理全球治理提供中國(guó)方案和中國(guó)智慧。

7.充分發(fā)揮人工智能倫理的話語(yǔ)主體的權(quán)威效應(yīng),利用主流媒體擴(kuò)寬人工智能倫理的話語(yǔ)場(chǎng)域。人工智能倫理的話語(yǔ)傳播主體多為政界和學(xué)界的權(quán)威人士,通過(guò)他們?cè)谥髁髅襟w的發(fā)聲,不斷創(chuàng)新人工智能倫理的對(duì)外話語(yǔ)表達(dá)。

8.建立人工智能倫理國(guó)際交流與合作機(jī)構(gòu),廣泛開(kāi)展各國(guó)之間的人工智能技術(shù)合作與交流。

五、結(jié)語(yǔ)

構(gòu)建完善的人工智能倫理治理體系是推進(jìn)國(guó)家治理體系和治理能力現(xiàn)代化的重要渠道。人工智能技術(shù)與倫理學(xué)的深度融合和創(chuàng)新發(fā)展,既有利于促進(jìn)人工智能的創(chuàng)新性發(fā)展,也有利于提升國(guó)家治理的現(xiàn)代化水平?!拔覀儜?yīng)主動(dòng)適應(yīng)科學(xué)技術(shù)迅猛發(fā)展的態(tài)勢(shì),將人工智能技術(shù)應(yīng)用于社會(huì)治理,更新治理理念,提升治理水平,推進(jìn)國(guó)家治理體系和治理能力現(xiàn)代化。”[28]人工智能的倫理治理是一種前瞻性倫理治理。面對(duì)人工智能迅速發(fā)展帶來(lái)的風(fēng)險(xiǎn)和挑戰(zhàn),前瞻性倫理治理要求尊重人工智能的發(fā)展規(guī)律,動(dòng)員全體社會(huì)成員參與人工智能的開(kāi)發(fā)與應(yīng)用的全過(guò)程。人工智能倫理治理的關(guān)鍵在發(fā)揮人的作用。政府的監(jiān)管和公眾的參與是科學(xué)家進(jìn)行“負(fù)責(zé)任創(chuàng)新”的重要保障。人工智能發(fā)展引發(fā)的公共安全、責(zé)任劃界、科技異化、人權(quán)保障、教育保障等問(wèn)題還有待進(jìn)一步探討。人工智能倫理的治理原則、治理框架、研究范式、實(shí)踐轉(zhuǎn)化等還有待進(jìn)一步深入研究。

猜你喜歡
倫理人工智能
《心之死》的趣味與倫理焦慮
我校新增“人工智能”本科專業(yè)
護(hù)生眼中的倫理修養(yǎng)
2019:人工智能
人工智能與就業(yè)
數(shù)讀人工智能
下一幕,人工智能!
下一幕,人工智能!
醫(yī)改莫忘構(gòu)建倫理新機(jī)制
論《覺(jué)醒》中的倫理關(guān)系