国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想研究

2023-01-09 21:14顧世春
關(guān)鍵詞:倫理學(xué)相關(guān)者倫理

顧世春

(沈陽建筑大學(xué) 馬克思主義學(xué)院,遼寧 沈陽 110168)

人工智能正快速發(fā)展和日益廣泛地被應(yīng)用。人工智能的發(fā)展和應(yīng)用給人們的生產(chǎn)生活帶來諸多福利:在家庭里,人工智能產(chǎn)品(如掃地機(jī)器人)減輕了人們的家務(wù)勞動負(fù)擔(dān);在生產(chǎn)上,人工智能降低了生產(chǎn)成本,提高了生產(chǎn)效率;在社會治理中,人工智能為社會治理提供了新手段和便利……人工智能在給人們帶來福利的同時,也引起了一些倫理問題:侵犯隱私、算法歧視、沖擊人的自主(自由)、缺乏透明性、“好的生活”難題和安全問題等。面對人工智能這些倫理問題,許多技術(shù)哲學(xué)家開始關(guān)注和研究人工智能的倫理治理。這其中就包括英國技術(shù)哲學(xué)家斯塔爾(Bernd Carsten Stahl)。斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想為我們解決人工智能倫理問題、促進(jìn)人類繁榮提供了一條實(shí)用的進(jìn)路。

一、思想背景與倫理旨趣

近些年,人工智能加速發(fā)展,加快向社會“滲透”,隨之,人工智能的倫理問題也增多和凸顯出來,并備受人們關(guān)注。斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想正是在這一背景下產(chǎn)生的。斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想堅持繁榮倫理學(xué)(flourishing ethics)[1]2,旨在塑造促進(jìn)人類繁榮(human flourishing)[1]1的人工智能生態(tài)系統(tǒng)。

人工智能開始于20世紀(jì)50年代。1956年,麥卡錫(John McCarthy,圖靈獎獲得者)、明斯基(Marvin Minsky,圖靈獎獲得者)和香農(nóng)(Claude Elwood Shannon,信息論提出者)等學(xué)者在美國達(dá)特茅斯學(xué)院舉行了一次長達(dá)兩個月的研討會[2]。在此次研討會上,人工智能概念被提出。本次人工智能概念的提出通常被視為人工智能發(fā)展的開端。在隨后的數(shù)十年里,人工智能在起起伏伏中向前發(fā)展。這一方面是因?yàn)橐恍┤斯ぶ悄苎芯繂栴}比預(yù)期更難攻克,另一方面是因?yàn)檫€有一些人工智能研究問題以當(dāng)時的技術(shù)是無法解決的[3]。在這一時期,人工智能的應(yīng)用有限,引發(fā)的倫理問題也少。從20世紀(jì)90年代后期開始,人工智能加速發(fā)展。近些年,在移動互聯(lián)網(wǎng)、物聯(lián)網(wǎng)、大數(shù)據(jù)、腦科學(xué)等科技,以及經(jīng)濟(jì)社會發(fā)展強(qiáng)烈需求的共同推動下,人工智能更是快速發(fā)展;同時,近些年,人工智能被大量地引入社會,被廣泛地應(yīng)用在人們的生產(chǎn)生活中。隨著人工智能的發(fā)展和大量引入社會,人工智能的倫理問題增多,并引起人們的關(guān)注。正是在這樣的背景下,斯塔爾形成和提出了自己的人工智能生態(tài)系統(tǒng)倫理治理思想。

生態(tài)系統(tǒng)是生物學(xué)的一個重要概念,指一定地理區(qū)域內(nèi)動物、植物、微生物、空氣、土壤、河流等構(gòu)成的整體。它強(qiáng)調(diào)這一系統(tǒng)(整體)的各組成部分不是孤立存在的,而是相互聯(lián)系、相互作用的。在人工智能領(lǐng)域中,有許多不同的行動者和利益相關(guān)者。他們也不是孤立存在的,而是相互影響、相互依賴、共同發(fā)展的。人工智能領(lǐng)域的這種情形適宜從系統(tǒng)的視角描述。因此,斯塔爾把生物學(xué)中的生態(tài)系統(tǒng)概念借用到人工智能領(lǐng)域。在斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想中,人工智能生態(tài)系統(tǒng)就喻指人工智能領(lǐng)域中不同行動者、利益相關(guān)者相互聯(lián)系、相互影響構(gòu)成的系統(tǒng)。

斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想以繁榮倫理學(xué)為倫理視角,意在塑造促進(jìn)人類繁榮的人工智能生態(tài)系統(tǒng)。繁榮倫理學(xué)是美德倫理學(xué)的一種,由美國倫理學(xué)者拜納姆于本世紀(jì)初創(chuàng)建。繁榮倫理學(xué)根源于亞里士多德的倫理學(xué),它主要包括兩大內(nèi)容:一是以人類為中心的繁榮倫理(Human-Centered Flourishing Ethics);二是普遍的繁榮倫理(General Flourishing Ethics)[4]。以人類為中心的繁榮倫理聚焦人類的行動、價值和品質(zhì),闡述人類的繁榮問題。普遍的繁榮倫理關(guān)注宇宙中各種物理實(shí)體,主張促進(jìn)人類、動物、植物和行為端正的機(jī)器人等實(shí)體繁榮。斯塔爾認(rèn)為,繁榮倫理學(xué)具有三個大的優(yōu)勢:一是它有助于理解和解決自己(斯塔爾)提出的三種人工智能倫理問題,即機(jī)器學(xué)習(xí)的特殊倫理問題、在數(shù)字世界里生活的一般倫理問題和形而上學(xué)層面的倫理問題[1]2。二是繁榮倫理學(xué)對其它的倫理理論(如義務(wù)論倫理學(xué)、功利論倫理學(xué))是開放的,不是拒斥的,它可以融合義務(wù)、后果等考慮。三是繁榮倫理學(xué)不僅在倫理學(xué)上具有卓越的歷史,而且在計算倫理(the ethics of computing)上也具有優(yōu)秀的歷史[1]3。正是因?yàn)榉睒s倫理學(xué)具有這些優(yōu)勢,所以斯塔爾選擇繁榮倫理學(xué)作為視角研究人工智能的倫理問題。從這一視角出發(fā),斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想以塑造促進(jìn)人類繁榮的人工智能生態(tài)系統(tǒng)為旨趣。

二、倫理治理的元責(zé)任主體

為了塑造促進(jìn)人類繁榮的人工智能生態(tài)系統(tǒng),誰應(yīng)為確保個人、組織和國家了解他們的責(zé)任和履行他們的責(zé)任負(fù)責(zé)?即誰應(yīng)擔(dān)任人工智能生態(tài)系統(tǒng)倫理治理的元責(zé)任(meta-responsibility)[1]10主體?在斯塔爾看來,應(yīng)確立人工智能生態(tài)系統(tǒng)的中心節(jié)點(diǎn)[1]110,由它們?yōu)榇_保個人、組織和國家了解他們的責(zé)任并負(fù)責(zé)其職責(zé),擔(dān)任人工智能生態(tài)系統(tǒng)倫理治理的元責(zé)任主體。

元責(zé)任是斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想中的一個重要術(shù)語,指維護(hù)、發(fā)展和協(xié)調(diào)現(xiàn)有責(zé)任的責(zé)任[5]712。對于元責(zé)任,本文將在下一部分元責(zé)任原則中詳細(xì)闡述。元責(zé)任主體就是為維護(hù)、發(fā)展和協(xié)調(diào)現(xiàn)有責(zé)任負(fù)責(zé)的人或組織,它擔(dān)負(fù)著使個人、組織和國家了解自己的責(zé)任,并積極履行自己責(zé)任的使命。元責(zé)任主體能夠確保人工智能生態(tài)系統(tǒng)中有一個機(jī)制,讓系統(tǒng)里所有的成員都可以獲取知識、發(fā)展才能、受到指導(dǎo)和提出治理建議。元責(zé)任主體不是對現(xiàn)有治理主體,即現(xiàn)有監(jiān)管機(jī)構(gòu)的替代,相反,它是對現(xiàn)有監(jiān)管機(jī)構(gòu)人工智能倫理治理工作的有力支撐。那么,誰來擔(dān)任這個元責(zé)任主體呢?斯塔爾認(rèn)為,不論是在一個國家的人工智能生態(tài)系統(tǒng)中,還是在一個地區(qū)的人工智能生態(tài)系統(tǒng)中,或是在一個組織的人工智能生態(tài)系統(tǒng)中,都應(yīng)確立一個中心節(jié)點(diǎn),作為該人工智能生態(tài)系統(tǒng)倫理治理的元責(zé)任主體;同時,斯塔爾認(rèn)為,在一個組織的人工智能生態(tài)系統(tǒng)中,這個元責(zé)任主體可能就是一個為人工智能負(fù)責(zé)的職位。這個任職者可能被稱為人工智能官或數(shù)字官[1]111。

斯塔爾確立中心節(jié)點(diǎn)、作為人工智能生態(tài)系統(tǒng)倫理治理元責(zé)任主體的主張是在借鑒多特伍瑞安報告(the Doteveryone report)的基礎(chǔ)上形成的。多特伍瑞安是英國的一個非營利性組織,2018年發(fā)表了一份關(guān)于負(fù)責(zé)任的技術(shù)管理的報告[1]111,也就是本文所說的多特伍瑞安報告。這份報告提議創(chuàng)立一個中心樞紐——負(fù)責(zé)任的技術(shù)辦公室。這個辦公室是支持和加強(qiáng)現(xiàn)有監(jiān)管機(jī)構(gòu)的。現(xiàn)有的監(jiān)管機(jī)構(gòu)經(jīng)常缺乏針對人工智能或其它新興技術(shù)的知識和經(jīng)驗(yàn),這個辦公室為它們提供它們所缺乏的具體技術(shù)的知識。這個辦公室還是公眾參與之家和為確保技術(shù)治理矯正程序的存在和可用負(fù)責(zé)。斯塔爾說:“這樣的一個組織在政治層面上無疑是需要的,不論它被稱為監(jiān)管機(jī)構(gòu)、辦公室、中心,還是其它的什么?!盵1]111斯塔爾借鑒了多特伍瑞安報告技術(shù)治理的思想,提出了確立人工智能生態(tài)系統(tǒng)的中心節(jié)點(diǎn),由它們擔(dān)任人工智能生態(tài)系統(tǒng)倫理治理元責(zé)任主體的主張。他的這一主張深化了人們對人工智能生態(tài)系統(tǒng)倫理治理的認(rèn)識。

三、倫理治理的四項原則

為了有效管理人工智能生態(tài)系統(tǒng)成員的行為和人工智能生態(tài)系統(tǒng)與外部環(huán)境的關(guān)系,推動促進(jìn)人類繁榮的人工智能生態(tài)系統(tǒng)的塑造,斯塔爾提出4項人工智能生態(tài)系統(tǒng)倫理治理的原則,即韌性(flexibility)原則、試探性治理(tentative governance)原則、學(xué)習(xí)能力(ability to learn)原則和元責(zé)任原則[1]103。這4項原則有力地回答了應(yīng)遵循什么對人工智能生態(tài)系統(tǒng)進(jìn)行倫理治理的問題。

1.韌性原則。在日常語言中,韌性是指物體在外力作用下變形但不易折斷的特性。在斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想中,韌性是指具有一定的可塑度,甚至是可逆的。斯塔爾說:“韌性是人工智能生態(tài)系統(tǒng)治理的一個關(guān)鍵要求”[1]101。他之所以認(rèn)為韌性是人工智能生態(tài)系統(tǒng)治理的一個關(guān)鍵要求,原因有兩個:一是人工智能生態(tài)系統(tǒng)的成員處在復(fù)雜的、非線性的關(guān)系之中;二是人工智能生態(tài)系統(tǒng)中的技術(shù)、組織等能夠迅速變化。這兩方面原因需要人工智能生態(tài)系統(tǒng)倫理治理措施具有韌性,以積極應(yīng)對這些情況。正是基于對韌性重要性的認(rèn)識,斯塔爾提出韌性原則。韌性原則要求人工智能生態(tài)系統(tǒng)倫理治理措施應(yīng)具有一定的韌性,能為未來的調(diào)整、改變留下更多的選擇,以適應(yīng)人工智能生態(tài)系統(tǒng)的復(fù)雜性和變化。韌性原則有益于人工智能生態(tài)系統(tǒng)的倫理治理。

2.試探性治理原則。試探性治理和治理方式為:治理是一個動態(tài)的過程,在這一動態(tài)過程中,治理是謹(jǐn)慎的,而不是武斷的,一般包括試錯或?qū)W習(xí)過程[6]。在這一動態(tài)過程中,治理以一種非最終性的方式進(jìn)行。試探性治理具有4個顯著特點(diǎn),即動態(tài)性、靈活性、開放性和可修正性。試探性治理是處理不確定性問題、復(fù)雜性問題的一種實(shí)用進(jìn)路,它在新興科技治理領(lǐng)域有較大影響。斯塔爾將試探性治理應(yīng)用到人工智能生態(tài)系統(tǒng)倫理治理中,把它作為人工智能生態(tài)系統(tǒng)倫理治理的一項重要原則。斯塔爾還指導(dǎo)人們運(yùn)用這一原則:一是試探性治理需為行動者學(xué)習(xí)、了解有關(guān)技術(shù)及這些技術(shù)的使用和評估提供空間;二是試探性治理需以利益相關(guān)者的溝通交流為基礎(chǔ)并促進(jìn)他們的交流磋商;三是試探性治理應(yīng)允許承認(rèn)錯誤和當(dāng)發(fā)現(xiàn)原初的設(shè)想是錯的或形成新的洞見、共識時有能力逆轉(zhuǎn)或改變原路線[1]101-102。

3.學(xué)習(xí)能力原則。在斯塔爾看來,人工智能生態(tài)系統(tǒng)倫理治理需要仔細(xì)權(quán)衡人工智能可能給人們帶來的好處與壞處,而這要求一種能力,即利用人工智能生態(tài)系統(tǒng)倫理治理有關(guān)知識和才能的能力[1]102。斯塔爾沒有明確界定學(xué)習(xí)能力,但從其有關(guān)論述來看,他所說的學(xué)習(xí)能力主要就是指這種利用人工智能生態(tài)系統(tǒng)倫理治理有關(guān)知識和才能的能力。學(xué)習(xí)能力原則要求具有學(xué)習(xí)能力,以評估人工智能的發(fā)展,實(shí)施激勵與處罰,進(jìn)而確保和強(qiáng)化人工智能生態(tài)系統(tǒng)朝著令人滿意的、促進(jìn)人類繁榮的方向發(fā)展。另外,需要指出的是,前面談到的人工智能生態(tài)系統(tǒng)倫理治理有關(guān)知識,它既包括技術(shù)知識,也包括規(guī)范知識,還包括過程性知識。規(guī)范知識就是倫理觀念、倫理問題、倫理治理措施等知識。過程性知識就是組織處理倫理問題過程的知識。前面提到的人工智能生態(tài)系統(tǒng)倫理治理有關(guān)才能就是指應(yīng)用人工智能生態(tài)系統(tǒng)倫理治理有關(guān)知識的才能。沒有這些才能,那些知識就不能轉(zhuǎn)化為實(shí)踐。

4.元責(zé)任原則。如前面所說,元責(zé)任就是維護(hù)、發(fā)展和協(xié)調(diào)現(xiàn)有責(zé)任的責(zé)任[5]112。人工智能生態(tài)系統(tǒng)不是脫離現(xiàn)有的基礎(chǔ)存在的,它們是建立在許多現(xiàn)有的責(zé)任和治理架構(gòu)上的,并且它們也包含著這些現(xiàn)有的責(zé)任和治理架構(gòu)。因此,斯塔爾提出元責(zé)任原則,主張不離開現(xiàn)有的治理基礎(chǔ),維護(hù)、發(fā)展和協(xié)調(diào)現(xiàn)有的治理架構(gòu)和責(zé)任。他說,為了使人工智能生態(tài)系統(tǒng)是成功的和促進(jìn)人類繁榮,重新創(chuàng)造治理原則是沒有必要的,相反,這些人工智能生態(tài)系統(tǒng)應(yīng)當(dāng)被謹(jǐn)慎地開發(fā),以使它們幫助現(xiàn)有的治理架構(gòu)和責(zé)任關(guān)系有效運(yùn)行。他強(qiáng)調(diào):“為了促進(jìn)有益于人類繁榮的人工智能生態(tài)系統(tǒng)發(fā)展,我們不需要重新創(chuàng)造車輪,我們需要確保已經(jīng)存在的這些輪子朝向大致相同的方向和有一個穩(wěn)固的、合理的過程,確定這一方向?!盵1]102在斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想中,負(fù)責(zé)任地研究和創(chuàng)新(RRI)就是一種元責(zé)任。斯塔爾說,作為一種元責(zé)任,負(fù)責(zé)任地研究和創(chuàng)新就是要塑造、維護(hù)、發(fā)展和協(xié)調(diào)現(xiàn)有的和新的與研究和創(chuàng)新有關(guān)的過程、行動者和責(zé)任,以保證研究和創(chuàng)新成果使人們滿意和社會可接受[1]102。

四、倫理治理的路徑規(guī)劃

斯塔爾還深入探究了如何對人工智能生態(tài)系統(tǒng)進(jìn)行倫理治理的問題。他提出了人工智能生態(tài)系統(tǒng)倫理治理的路徑。斯塔爾提出的這一路徑為有關(guān)部門和實(shí)踐者治理人工智能生態(tài)系統(tǒng)提供了指導(dǎo),有助于他們塑造出促進(jìn)人類繁榮的人工智能生態(tài)系統(tǒng)。

1.重新反思人工智能研究和創(chuàng)新與倫理之間的關(guān)系。當(dāng)前,科學(xué)卓越與倫理反思是分離的[1]106。斯塔爾認(rèn)為,為了使人工智能促進(jìn)人類繁榮,必須改變科學(xué)卓越與倫理反思分離的狀況和使人們認(rèn)識到這一技術(shù)如果沒有考慮倫理和社會后果,那么,它不是真正的卓越[1]106。為此,他建議從根本上重新反思人工智能研究、創(chuàng)新與倫理的關(guān)系和強(qiáng)調(diào)倫理在促進(jìn)人類繁榮的廣義上應(yīng)是科學(xué)卓越內(nèi)在的、不可或缺的一部分[1]106。這實(shí)際上告訴我們應(yīng)通過對人工智能研究和創(chuàng)新與倫理關(guān)系的再反思,認(rèn)識到倫理是科學(xué)卓越的一個要素。科學(xué)只有考慮人類繁榮,只有促進(jìn)人類繁榮才能是卓越的。這里所說的科學(xué)包括技術(shù)??茖W(xué)要揭示客觀規(guī)律,要探索認(rèn)識世界、改造世界的方法,但這些都不是科學(xué)的最終目的??茖W(xué)的最終目的是造福人類,促進(jìn)人類繁榮。從這一角度看,倫理在促進(jìn)人類繁榮的廣義上,的確應(yīng)當(dāng)作為科學(xué)卓越的一個要素??茖W(xué)若要成為卓越的,的確應(yīng)當(dāng)考慮和促進(jìn)人類繁榮。任何一項科學(xué)研究或創(chuàng)新如果沒有深思倫理和社會后果,如果沒有促進(jìn)人類繁榮,那么,它在認(rèn)識世界和改造世界上即使再有開創(chuàng)性、再領(lǐng)先,也不能被稱為“卓越的”。斯塔爾還認(rèn)為,要把預(yù)期結(jié)果、詳細(xì)的風(fēng)險分析和預(yù)判到的倫理問題的應(yīng)對措施等內(nèi)容作為研究和創(chuàng)新提議科學(xué)評估的一部分,并據(jù)此確定哪些想法可被視為卓越的和值得資助的[1]106。

2.測量人工智能的開發(fā)和使用對人類繁榮的影響。斯塔爾認(rèn)為,我們應(yīng)測量和了解人工智能開發(fā)、使用給人類繁榮帶來的影響。他為我們提供了3種測量方法,即人類發(fā)展指數(shù)法、可持續(xù)發(fā)展目標(biāo)法和人權(quán)法。斯塔爾說:“一種確立已久的測量人類繁榮的方法是人類發(fā)展指數(shù)”[1]106。人類發(fā)展指數(shù)(HDI)由聯(lián)合國發(fā)展計劃署于1990年在《1990年人類發(fā)展報告》中提出。它是一個綜合指數(shù),用于衡量人類發(fā)展在健康長壽、知識和體面生活3個基本維度上的平均成就[7]。它涉及人的預(yù)期壽命、人受教育程度和人均國民總收入(GNI)3大指標(biāo)。斯塔爾提供的人類發(fā)展指數(shù)法實(shí)際上就是通過測量人工智能對相應(yīng)范圍的人類發(fā)展指數(shù)的影響來了解人工智能對人類繁榮的影響。聯(lián)合國《變革我們的世界:2030 年可持續(xù)發(fā)展議程》規(guī)劃了17個可持續(xù)發(fā)展目標(biāo),如消除一切形式的貧困;確保包容和公平的優(yōu)質(zhì)教育,讓全民終身具有學(xué)習(xí)的機(jī)會;推動持久、包容、可持續(xù)的經(jīng)濟(jì)增長,促進(jìn)充分的生產(chǎn)性就業(yè)和讓人人擁有體面的工作等[8]。可持續(xù)發(fā)展目標(biāo)法就是通過考察人工智能對這些可持續(xù)發(fā)展目標(biāo)實(shí)現(xiàn)的影響來認(rèn)識人工智能對人類繁榮的影響。根據(jù)《世界人權(quán)宣言》,人們享有生命權(quán)、自由權(quán)、人身安全權(quán)和受教育權(quán),人們在尊嚴(yán)和權(quán)利上平等,人們的隱私不得被侵犯……斯塔爾建議的人權(quán)法就是通過評估人工智能對人權(quán)保護(hù)的影響來判斷人工智能對人類繁榮的影響。

3.建立人工智能知識庫。了解人工智能能夠給人們帶來的利益和風(fēng)險,知曉人工智能能夠賦予使用者的能力處在任何使人工智能生態(tài)系統(tǒng)朝著促進(jìn)人類繁榮方向發(fā)展的努力的核心位置[1]108。知識在認(rèn)識和了解事物上具有重要作用,甚至是關(guān)鍵作用。因此,在使人工智能生態(tài)系統(tǒng)朝著促進(jìn)人類繁榮方向發(fā)展的努力中需要知識。但由于人工智能發(fā)展快速,這方面知識更新也快,所以斯塔爾主張建立人工智能知識庫,并認(rèn)為人工智能知識庫是成功塑造人工智能生態(tài)系統(tǒng)的必要條件[1]108。斯塔爾從基礎(chǔ)、職責(zé)擔(dān)當(dāng)、基本要求3個方面闡述了這一知識庫的建立問題。他認(rèn)為,這一知識庫應(yīng)以現(xiàn)有的知識和學(xué)術(shù)體系為基礎(chǔ)[1]108。在他看來,卓越中心應(yīng)在建立和維護(hù)這一知識庫中盡主要職責(zé),即發(fā)揮主要作用[1]108。這里所說的卓越中心是指那些居于領(lǐng)先地位的、高水平的科學(xué)研究機(jī)構(gòu),例如,英國的阿蘭·圖靈學(xué)院。斯塔爾強(qiáng)調(diào),人工智能知識庫需要在科學(xué)上是可靠的、可信的和它必須是可及的(可得到的)、可傳播的和可理解的[1]108。這種人工智能知識庫的建立有利于認(rèn)識人工智能的社會影響(包括給人們帶來的利益和給人們帶來的風(fēng)險),能夠?yàn)閭惱碇卫頉Q策提供有益的支持。

4.構(gòu)建利益相關(guān)者參與治理機(jī)制。人工智能的研發(fā)和應(yīng)用將給一些人帶來影響,這些受影響的人就是這一人工智能的利益相關(guān)者。斯塔爾認(rèn)為,欲充分認(rèn)識“3W”問題,即“什么算是一個與人工智能有關(guān)的倫理問題”“它為什么算是與人工智能有關(guān)的倫理問題”“我們能夠或應(yīng)當(dāng)做什么來處理這一倫理問題”,需要社會辯論,讓利益相關(guān)者一起討論這些問題。他強(qiáng)調(diào),人工智能倫理不能只是技術(shù)和倫理專家思考和處理的主題,它需要更廣泛的利益相關(guān)者參與其中[1]109。引導(dǎo)人工智能生態(tài)系統(tǒng)朝著人類繁榮的方向發(fā)展需要充分認(rèn)識“3W”問題,需要更廣泛的利益相關(guān)者參與。因此,斯塔爾主張構(gòu)建利益相關(guān)者參與治理機(jī)制。他說:“為了引導(dǎo)人工智能生態(tài)系統(tǒng)朝著人類繁榮的方向發(fā)展,他們將需要這樣的機(jī)制:這些機(jī)制使利益相關(guān)者參與活動制度化。利益相關(guān)者的參與活動使利益相關(guān)者擁有表達(dá)權(quán),讓他們?yōu)榧w決策做出貢獻(xiàn)。”[1]109利益相關(guān)者參與治理機(jī)制將使許多不同方面的利益相關(guān)者參與到人工智能生態(tài)系統(tǒng)倫理治理中,他們的看法、意見將被聽取。這樣,人工智能生態(tài)系統(tǒng)的倫理治理將不只是依靠管理者、技術(shù)專家和倫理專家,而是轉(zhuǎn)變?yōu)榘ú煌嫦嚓P(guān)者在內(nèi)的群策群力。這將提高倫理治理的水平。斯塔爾在主張構(gòu)建利益相關(guān)者參與治理機(jī)制的同時,還提醒注意利益相關(guān)者參與中的風(fēng)險和問題,例如避免這些活動被特定的利益集團(tuán)操控等。

五、思想的時代價值

斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想是斯塔爾從繁榮倫理學(xué)的視角深入思考人工智能生態(tài)系統(tǒng)倫理治理的智慧結(jié)晶,它發(fā)展了人工智能倫理治理思想,回應(yīng)了當(dāng)下社會對人工智能倫理問題的關(guān)切,具有不容忽視的時代價值。

1.從理論上看,斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想引領(lǐng)人工智能倫理治理研究從技術(shù)個體層面向系統(tǒng)層面發(fā)展。從國內(nèi)外的有關(guān)文獻(xiàn)看,學(xué)術(shù)界主要從技術(shù)個體層面分析人工智能的倫理治理問題。這里的“技術(shù)個體”是與系統(tǒng)相對的一個概念,它強(qiáng)調(diào)從個體的角度思考和研究技術(shù)。從技術(shù)個體層面研究人工智能倫理治理是重要的和必要的。它可以為人們提供人工智能倫理治理的知識和方法,可以指導(dǎo)人們科學(xué)地對人工智能進(jìn)行倫理治理;同時,就像生物學(xué)一樣,人工智能倫理治理研究既需要從個體層面研究,也需要從系統(tǒng)層面研究。從系統(tǒng)層面研究人工智能的倫理治理至少有3項益處:一是人工智能的一些倫理問題能夠更容易地被闡明。例如,歧視問題更容易從包括人在內(nèi)的系統(tǒng)層面被闡釋清楚。二是有利于探尋出更多人工智能倫理治理措施。人工智能倫理治理研究從技術(shù)個體層面移動到系統(tǒng)層面將拓展探究人工智能倫理治理措施的廣度,由此將促進(jìn)更多的人工智能倫理治理措施被提出。三是將使更多的學(xué)科(如系統(tǒng)科學(xué))參與到人工智能倫理治理的研究中來。這有助于深化人工智能倫理治理研究。斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想就是從系統(tǒng)層面研究人工智能的倫理治理問題。它把人工智能領(lǐng)域視為一個生態(tài)系統(tǒng),探究人工智能生態(tài)系統(tǒng)的倫理治理,即從生態(tài)系統(tǒng)的層面、視角研究人工智能的倫理治理。它發(fā)揮著一種示范作用,正激勵著其他學(xué)者將研究目光從技術(shù)個體層面轉(zhuǎn)向系統(tǒng)層面。

2.從實(shí)踐上看,斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想為人工智能生態(tài)系統(tǒng)的倫理治理提供了方法論指導(dǎo),也有利于促進(jìn)人類繁榮。斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想不是書齋式的學(xué)問,不是空對空的玄學(xué),它面向現(xiàn)實(shí),服務(wù)人工智能生態(tài)系統(tǒng)倫理治理實(shí)踐。它提議確立人工智能生態(tài)系統(tǒng)倫理治理的元責(zé)任主體,還闡述了人工智能生態(tài)系統(tǒng)倫理治理的原則、人工智能生態(tài)系統(tǒng)倫理治理的路徑。這些為有關(guān)部門和實(shí)踐者進(jìn)行人工智能生態(tài)系統(tǒng)倫理治理提供了有益指導(dǎo)。斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想堅持以人為本,站在繁榮倫理學(xué)的立場上,進(jìn)一步地說就是站在以人類為中心的繁榮倫理的立場上闡述人工智能生態(tài)系統(tǒng)的倫理治理,意在塑造促進(jìn)人類繁榮的人工智能生態(tài)系統(tǒng),讓技術(shù)進(jìn)步服務(wù)人類價值,造福人類。斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想發(fā)出了讓人工智能生態(tài)系統(tǒng)促進(jìn)人類繁榮的時代聲音;同時,它也為塑造這樣的人工智能生態(tài)系統(tǒng)提供了可行路徑。這無疑有益于促進(jìn)人類的繁榮。在這里還需要特別指出的是,如前所述,斯塔爾提出了3種測量人工智能對人類繁榮影響的方法,即人類發(fā)展指數(shù)法、可持續(xù)發(fā)展目標(biāo)法和人權(quán)法。這些方法既使我們能了解人工智能對人類繁榮的影響,又使我們知道應(yīng)在哪些方面著力,提高人工智能生態(tài)系統(tǒng)對人類繁榮的貢獻(xiàn)度。

六、結(jié)語

斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想是對時代問題的一種積極回應(yīng)。它不是從某些倫理原則出發(fā),而是立足繁榮倫理學(xué)系統(tǒng)思考人工智能生態(tài)系統(tǒng)的倫理治理問題。它闡明了人工智能生態(tài)系統(tǒng)倫理治理的元責(zé)任主體,揭示了人工智能生態(tài)系統(tǒng)倫理治理應(yīng)遵循的主要原則,從科學(xué)卓越與倫理的關(guān)系、人工智能對人類繁榮影響的測量、知識庫和利益相關(guān)者參與4個方面提出了人工智能生態(tài)系統(tǒng)倫理治理的路徑(方法)。斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想既具有重要的理論價值,也具有現(xiàn)實(shí)的指導(dǎo)意義。我們理論工作者應(yīng)積極汲取斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想的養(yǎng)分,進(jìn)一步發(fā)展我國的人工智能生態(tài)系統(tǒng)倫理治理理論。我國的有關(guān)實(shí)踐者應(yīng)借鑒斯塔爾人工智能生態(tài)系統(tǒng)倫理治理思想,努力塑造促進(jìn)人類繁榮的人工智能生態(tài)系統(tǒng),讓人工智能更好地造福人民。

猜你喜歡
倫理學(xué)相關(guān)者倫理
《心之死》的趣味與倫理焦慮
實(shí)踐音樂教育哲學(xué)中的倫理學(xué)意蘊(yùn)探析
校園籃球利益相關(guān)者的分類研究*
靈長類生物醫(yī)學(xué)前沿探索中的倫理思考
鄉(xiāng)村旅游開發(fā)中利益相關(guān)者的演化博弈分析——以民族村寨旅游為例
“紀(jì)念中國倫理學(xué)會成立40周年暨2020中國倫理學(xué)大會”在無錫召開
論馬克思倫理學(xué)革命的三重意蘊(yùn)
護(hù)生眼中的倫理修養(yǎng)
倫理批評與文學(xué)倫理學(xué)
淺談基于利益相關(guān)者的財務(wù)會計報告與管理會計報告融合