国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

從“回應(yīng)式”治理到“前瞻式”治理:人工智能倫理治理模式的變革

2024-02-29 14:08:55吳興華
理論導(dǎo)刊 2024年2期
關(guān)鍵詞:治理人工智能

摘?要:不確定性是技術(shù)的重要特性,源于知識(shí)的不確定性。人工智能作為一種新型技術(shù),同樣存在理論、運(yùn)行機(jī)制和功能上的不確定性,而這無(wú)疑會(huì)給人工智能技術(shù)的實(shí)際應(yīng)用帶來(lái)巨大的倫理風(fēng)險(xiǎn)。從技術(shù)不確定性角度看,人工智能倫理治理必然是風(fēng)險(xiǎn)防范重于問(wèn)題解決。然而,傳統(tǒng)人工智能倫理治理側(cè)重于問(wèn)題解決,更多采用的是“回應(yīng)式”治理模式。盡管該模式對(duì)于問(wèn)題的善后處理起到了一定的修補(bǔ)作用,但因其滯后性而無(wú)法進(jìn)行事前的風(fēng)險(xiǎn)防范。隨著新一輪人工智能革命的到來(lái),人工智能倫理風(fēng)險(xiǎn)也將加大,“回應(yīng)式”治理將無(wú)法有效應(yīng)對(duì)風(fēng)險(xiǎn),必然要走向“前瞻式”治理。有效開(kāi)展“前瞻式”人工智能倫理治理,保障人工智能健康發(fā)展,不僅要加強(qiáng)人工智能風(fēng)險(xiǎn)理論研究,而且要塑造多元的倫理治理主體、開(kāi)展多方協(xié)作的聯(lián)合治理。

關(guān)鍵詞:技術(shù)不確定性;人工智能;倫理治理;“回應(yīng)式”治理;“前瞻式”治理

中圖分類號(hào):TP18? ????文獻(xiàn)標(biāo)志碼:A? ? ?文章編號(hào):1002-7408(2024)02-0062-07

隨著人工智能技術(shù)的飛速發(fā)展,其在制造業(yè)、農(nóng)業(yè)、商業(yè)、教育、醫(yī)療衛(wèi)生、社會(huì)服務(wù)、新聞媒體等諸多領(lǐng)域都得到了廣泛應(yīng)用。人工智能帶給人類的改變遠(yuǎn)遠(yuǎn)超出計(jì)算機(jī)和互聯(lián)網(wǎng),其“與大數(shù)據(jù)、云計(jì)算、物聯(lián)網(wǎng)等深度融合,將推動(dòng)社會(huì)數(shù)字化、智能化發(fā)展,并塑造新的智能經(jīng)濟(jì)和社會(huì)形態(tài)”,成為重塑未來(lái)社會(huì)的重要力量。也正因如此,人工智能所引發(fā)的倫理問(wèn)題也將不再局限于傳統(tǒng)的技術(shù)倫理問(wèn)題范疇。從技術(shù)屬性來(lái)看,人工智能技術(shù)區(qū)別于傳統(tǒng)技術(shù)的地方在于其智能性,即智力和能力,人工智能雖是對(duì)人的智能模擬,但其一旦擁有了智力和能力就必將給人類社會(huì)帶來(lái)一些前所未有的新問(wèn)題。不論是人工智能與人之間的新型倫理關(guān)系,還是人工智能應(yīng)用將會(huì)帶來(lái)的不可預(yù)測(cè)的倫理風(fēng)險(xiǎn),都使人工智能倫理治理成為當(dāng)前科技倫理治理工作中的新問(wèn)題。目前,人工智能在實(shí)際應(yīng)用中已引發(fā)了諸如算法倫理、數(shù)據(jù)倫理、機(jī)器人倫理以及自動(dòng)駕駛倫理等一系列問(wèn)題,而如何對(duì)這些新的倫理問(wèn)題進(jìn)行有效治理,是擺在人們面前的重要任務(wù)。顯然,傳統(tǒng)的“有問(wèn)題,再解決”的“回應(yīng)式”倫理治理模式,已無(wú)法應(yīng)對(duì)人工智能倫理治理需求。不可否認(rèn),“回應(yīng)式”治理模式對(duì)于問(wèn)題的處置具有一定的修補(bǔ)作用,但又因其滯后性和事后性,常常使倫理治理陷入被動(dòng)甚至無(wú)效的困境之中,導(dǎo)致治理效率較低。對(duì)于人工智能技術(shù)來(lái)說(shuō),其智能性本身就存在理論、運(yùn)行機(jī)制和功能等方面的不確定性,這些不確定性將導(dǎo)致巨大的倫理風(fēng)險(xiǎn),對(duì)此“回應(yīng)式”治理模式無(wú)法有效防范。因此,為應(yīng)對(duì)新一輪的人工智能革命,必須變革現(xiàn)有的人工智能倫理治理模式,即從“回應(yīng)式”治理走向“前瞻式”治理。

一、技術(shù)不確定性:人工智能倫理研究的必要視角

不確定性揭示的是世界的復(fù)雜性和多樣性,而技術(shù)作為人造的復(fù)雜系統(tǒng)更會(huì)增強(qiáng)不確定性。隨著現(xiàn)代社會(huì)技術(shù)性知識(shí)的不斷增加,我們似乎越來(lái)越能掌控這個(gè)復(fù)雜多變的世界,“但矛盾的是,它也會(huì)使事情變得更加不可預(yù)測(cè)”,“‘黑天鵝’的影響因而進(jìn)一步加強(qiáng)”。其實(shí),不確定性原本就是技術(shù)的本性。正如斯蒂格勒所言:“不確定性是現(xiàn)代機(jī)器固有的屬性,但它也體現(xiàn)了一切技術(shù)物體的本質(zhì)。”技術(shù)的不確定性不僅源于知識(shí)的不確定性,而且源于技術(shù)本身的創(chuàng)造性。正如克爾凱郭爾在《焦慮的概念》中指出的,不確定性是創(chuàng)造的源泉而不是阻礙它的活力,這就像到一個(gè)我們不知道或從未去過(guò)的地方冒險(xiǎn)。畢竟“在一個(gè)確定性世界里,我們?nèi)绾螛?gòu)想人的創(chuàng)造力或行動(dòng)準(zhǔn)則呢?”所以,技術(shù)創(chuàng)新性的動(dòng)力恰恰始于不確定性。

技術(shù)的不確定性為何源于知識(shí)的不確定性?追根溯源,任何一項(xiàng)技術(shù)的誕生都離不開(kāi)知識(shí)。通俗來(lái)說(shuō),技術(shù)是知識(shí)成果的物化。而現(xiàn)代技術(shù)更是現(xiàn)代科學(xué)知識(shí)發(fā)展的產(chǎn)物,每一次新的科學(xué)知識(shí)的誕生都會(huì)帶來(lái)技術(shù)上的革新。眾所周知,盡管知識(shí)是人類對(duì)世界認(rèn)識(shí)的成果,但這種成果絕非確定的,正如科學(xué)哲學(xué)家費(fèi)耶阿本德曾指出的,“知識(shí)可以是穩(wěn)固的,也可以處于流動(dòng)狀態(tài)”。畢竟“知識(shí)是一個(gè)被設(shè)計(jì)用以滿足局域需要和解決局域問(wèn)題的局域物品”。這不僅道出了知識(shí)是被設(shè)計(jì)的,知識(shí)逃脫不了其主觀性,而且也揭示了任何知識(shí)都有其特定的處境,是具體的、有限的。正是從這種知識(shí)相對(duì)主義出發(fā),費(fèi)耶阿本德進(jìn)而指出,盡管科學(xué)被視為客觀真理的化身,但作為一種知識(shí)形態(tài)其也不過(guò)是許多風(fēng)俗中的一個(gè)而已,并非擁有絕對(duì)的權(quán)威性。所以,科學(xué)作為知識(shí)中的佼佼者也同樣是不確定的。耗散結(jié)構(gòu)理論創(chuàng)立者伊利亞·普里戈金也指出:“人類正處于一個(gè)轉(zhuǎn)折點(diǎn)上,正處于一種新理性的開(kāi)端。在這種新理性中,科學(xué)不再等同于確定性。”

知識(shí)不僅因其主觀性而存在不確定性,還因其表達(dá)形式而具有不確定性。知識(shí)作為一種觀念形態(tài)需要用語(yǔ)言來(lái)表達(dá),從而被人們所認(rèn)識(shí)和理解,因此可以說(shuō),語(yǔ)言是知識(shí)的承載者。然而,語(yǔ)言本身也具有不確定性。語(yǔ)言既來(lái)自于人們的生活,也服務(wù)于人們的生活,因而語(yǔ)言與人們的生活息息相關(guān),即語(yǔ)言離不開(kāi)人們特定的生活環(huán)境。正因如此,從語(yǔ)用學(xué)的角度來(lái)看,不確定性本來(lái)就是語(yǔ)言依賴于環(huán)境的必然結(jié)果。其實(shí),人類生活的社會(huì)環(huán)境極其復(fù)雜和豐富多彩,在復(fù)雜的社會(huì)環(huán)境中,人類使用的自然語(yǔ)言必然呈現(xiàn)出語(yǔ)義的不確定性。正可謂語(yǔ)境決定語(yǔ)義,即特定的意義是在特定的場(chǎng)景中生成的。正因如此,皮爾斯特倫認(rèn)為:“只是在我們?nèi)祟惖纳钚问?、我們做各種事情的習(xí)慣背景下,在一個(gè)共同的環(huán)境中將事物放在一起,這意味著意義和學(xué)習(xí)是可能的?!?/p>

人工智能作為一項(xiàng)新型技術(shù),不僅沒(méi)有消除反而強(qiáng)化了技術(shù)的不確定性。從人工智能技術(shù)的發(fā)展現(xiàn)狀來(lái)看,其不確定性主要表現(xiàn)在因其不透明性和不可解釋性而造成的多種可能性和不可控性。由于人工智能是人類智能的模擬,人類智能的產(chǎn)生和發(fā)展依賴于人腦的神經(jīng)系統(tǒng),而人的大腦的 “神經(jīng)系統(tǒng)沒(méi)有那么精確”,導(dǎo)致“混合計(jì)算機(jī)也沒(méi)有那么精確”。其實(shí),人工智能模擬人類智能本來(lái)就是通過(guò)不確定性推理方法完成的。所謂不確定性推理即是運(yùn)用不確定性知識(shí),推導(dǎo)出一定程度上不確定性結(jié)論的思維過(guò)程,盡管這種推導(dǎo)是合理或近似合理的。這種不確定性推理方法在人工智能的研究中具體化為控制方法和模型方法。無(wú)論是依賴于控制策略如相關(guān)性指導(dǎo)、隨機(jī)過(guò)程控制等的控制方法,還是依賴于大量的數(shù)據(jù)進(jìn)行訓(xùn)練和優(yōu)化的模型方法,實(shí)際上都是無(wú)法實(shí)現(xiàn)確定性的。而人工智能理論上的不確定性,必將直接決定其在運(yùn)行機(jī)制和功能上的不確定性。這些不確定性也必然會(huì)因人工智能技術(shù)的普及應(yīng)用而對(duì)傳統(tǒng)倫理產(chǎn)生挑戰(zhàn)。

物聯(lián)網(wǎng)、云計(jì)算、腦機(jī)接口和ChatGPT等數(shù)字技術(shù)的發(fā)展及其在社會(huì)領(lǐng)域的推廣和運(yùn)用,不僅給我們帶來(lái)了新型交流和溝通的工具,而且正在逐步“普遍、深刻又無(wú)情地創(chuàng)造和重塑著人類的理論基礎(chǔ)與現(xiàn)實(shí)基礎(chǔ),改變著人類的自我認(rèn)知,重組著人類與自身以及與他人之間的聯(lián)系,并升華著人類對(duì)這個(gè)世界的理解”。正是這種重塑與重組,催生出人與人工智能之間的新型倫理關(guān)系。而人工智能技術(shù)的不確定性,無(wú)疑增強(qiáng)了人工智能倫理的復(fù)雜性和多樣性。這種復(fù)雜性和多樣性,不僅在認(rèn)知上影響了我們對(duì)于人工智能倫理的預(yù)測(cè)和評(píng)估,也在實(shí)踐上影響了我們對(duì)于人工智能倫理問(wèn)題的治理。

正因如此,對(duì)于人工智能倫理問(wèn)題的治理,必須轉(zhuǎn)換視角,走出現(xiàn)代知識(shí)論的思維框架。眾所周知,現(xiàn)代知識(shí)論一直追求一種確定性,即它總是從一種假設(shè)的確定性出發(fā),試圖去預(yù)知未來(lái),進(jìn)而建立一套堅(jiān)不可摧的知識(shí)秩序或知識(shí)系統(tǒng)以應(yīng)對(duì)一切問(wèn)題。然而,這一解決問(wèn)題的理念并不適合人工智能倫理問(wèn)題的研究。一方面,人工智能倫理是一種人與智能機(jī)器之間的新型倫理關(guān)系。它突破了傳統(tǒng)人與人之間的倫理關(guān)系,導(dǎo)致傳統(tǒng)的倫理規(guī)范在人工智能倫理治理中無(wú)法發(fā)揮其應(yīng)有的作用。另一方面,通用人工智能普及會(huì)導(dǎo)致一些無(wú)法預(yù)知的倫理風(fēng)險(xiǎn),使傳統(tǒng)倫理治理方法無(wú)法應(yīng)對(duì)。其實(shí),人工智能技術(shù)起源于心理學(xué),但即便如此,心理學(xué)也無(wú)法對(duì)人工智能作出清晰的說(shuō)明,“因?yàn)槿斯ぶ悄鼙旧硪呀?jīng)提示我們:心智內(nèi)容十分豐富,遠(yuǎn)遠(yuǎn)超出了心理學(xué)家們先前的猜想”??梢?jiàn),目前我們還很難對(duì)人工智能的本質(zhì)及其對(duì)社會(huì)的影響形成明確的認(rèn)識(shí)。既然如此,現(xiàn)代知識(shí)論主導(dǎo)下的倫理治理模式就無(wú)法有效解決人工智能倫理問(wèn)題。因此,對(duì)于人工智能倫理的研究就需要我們不僅從技術(shù)不確定性視角來(lái)審視人工智能倫理,了解其不同于傳統(tǒng)倫理的特性,而且從不確定性視角研究人工智能倫理治理目標(biāo)和治理模式。

二、“回應(yīng)式”治理:當(dāng)前人工智能倫理治理的困境

21世紀(jì)是人工智能技術(shù)突飛猛進(jìn)的時(shí)代,如今人工智能逐步成為一個(gè)龐大的產(chǎn)業(yè),它不僅蘊(yùn)藏著巨大商機(jī),也將觸角伸向人類社會(huì)的方方面面,給人們的生產(chǎn)、工作、學(xué)習(xí)和生活都帶來(lái)巨大影響。與此同時(shí),人工智能向人類社會(huì)的全面介入促進(jìn)了一種新型人機(jī)關(guān)系的形成。這種新型人機(jī)關(guān)系不僅對(duì)傳統(tǒng)倫理道德構(gòu)成威脅,而且還催生出一些過(guò)去不曾有的新型倫理如數(shù)據(jù)倫理、算法倫理等。而數(shù)字鴻溝、算法歧視等這些新型倫理中的問(wèn)題更是層出不窮,傳統(tǒng)倫理道德規(guī)范面臨挑戰(zhàn),傳統(tǒng)的“回應(yīng)式”倫理治理模式失效。

所謂“回應(yīng)式”治理模式是對(duì)已發(fā)生事件采取應(yīng)對(duì)措施的方法,實(shí)為“事后修補(bǔ)術(shù)”。該模式遵循“先發(fā)生、后治理”的治理思路,也就是在問(wèn)題暴露甚至已造成嚴(yán)重后果之后,對(duì)問(wèn)題及其后果進(jìn)行回應(yīng)和處置。既然是事后修補(bǔ),那么“回應(yīng)式”治理模式必然缺乏對(duì)未來(lái)的系統(tǒng)性謀劃,因而在遇到問(wèn)題時(shí)也只能是憑借過(guò)往經(jīng)驗(yàn),采取“頭痛醫(yī)頭、腳痛醫(yī)腳”的方法來(lái)處理問(wèn)題。所以,這種事后和局部解決問(wèn)題的模式,不僅會(huì)因缺乏方法的創(chuàng)新而無(wú)法應(yīng)對(duì)層出不窮的新問(wèn)題,而且還會(huì)因完全處于被動(dòng)狀態(tài)而無(wú)法預(yù)先化解一些風(fēng)險(xiǎn)。

其實(shí),這種“回應(yīng)式”治理模式,在倫理治理中體現(xiàn)的是一種典型的認(rèn)識(shí)樂(lè)觀主義,即在行動(dòng)前過(guò)于信任知識(shí)的可靠性,從而低估甚至完全忽視不確定性的存在。這種認(rèn)識(shí)論樂(lè)觀主義源自近代開(kāi)始興起的決定論。我們知道,不同的治理模式取決于不同的思維方式,而“回應(yīng)式”治理模式就是由決定論的思維模式所決定的。在人們的觀念中,決定論與確定性是分不開(kāi)的,也即“只有確定性,才具有決定性”,只有確定性的東西才是安全的。正因如此,“我們通常習(xí)慣于決定論的思維方式,似乎這樣才有安全感”。實(shí)際上,“對(duì)確定性的追求一直是與人類相伴隨的,這是因?yàn)椋_定性是人的行為能夠獲得預(yù)期結(jié)果的前提,也是人的安全感的來(lái)源”。而近代牛頓機(jī)械論自然觀的發(fā)展,更是在思想觀念上強(qiáng)化了人們對(duì)決定論的信仰,進(jìn)而也使人們形成了決定論的思維方式。近代科學(xué)家都曾受到?jīng)Q定論思維的影響,“從牛頓到拉普拉斯,再到愛(ài)因斯坦,描繪的都是一幅幅完全確定的科學(xué)世界圖景”。在他們的觀念中,只要有一個(gè)公式“則它能確定一切,未來(lái)與過(guò)去盡在它的掌握之中”?!盎貞?yīng)式”治理模式正是決定論思維方式的產(chǎn)物,過(guò)于相信決策的確定性,而忽視不確定性的存在,從而缺乏對(duì)于未來(lái)的預(yù)判,導(dǎo)致遇到新問(wèn)題時(shí)只能進(jìn)行低效的漏洞修補(bǔ)。所以,“回應(yīng)式”治理模式在很多問(wèn)題的解決上低效甚至無(wú)效。

然而,世界并非確定的。正如物理學(xué)家玻恩所指出的,世界本來(lái)就是概率的。不僅如此,人類的心智對(duì)于世界的認(rèn)識(shí)也永遠(yuǎn)無(wú)法達(dá)到確定性,因?yàn)椤拔覀儫o(wú)法計(jì)算風(fēng)險(xiǎn)、沖擊和罕見(jiàn)事件的發(fā)生概率,無(wú)論我們有多么復(fù)雜、成熟的模型。如今,我們實(shí)行的風(fēng)險(xiǎn)管理僅僅是對(duì)未來(lái)發(fā)生事件的研究,只有一些經(jīng)濟(jì)學(xué)家和其他狂人才會(huì)作出有違經(jīng)驗(yàn)事實(shí)的斷言,稱能夠‘衡量’這些罕見(jiàn)事件未來(lái)的發(fā)生概率”。如果說(shuō)在傳統(tǒng)技術(shù)不發(fā)達(dá)的社會(huì),我們所遇到的新事物、新情況相對(duì)較少,因而人們還能掌控一些事情,那么在現(xiàn)代高科技時(shí)代,科技不斷變革和重塑著世界,使得“一切固定的僵化的關(guān)系以及與之相適應(yīng)的素被尊崇的觀念和見(jiàn)解都被消除了,一切新形成的關(guān)系等不到固定下來(lái)就陳舊了。一切等級(jí)和固定的東西都煙消云散了,一切神圣的東西都被褻瀆了”。在這樣一個(gè)多變的不確定的世界里,“一切皆變、無(wú)物常駐”,傳統(tǒng)不斷被顛覆,新事物不斷涌現(xiàn)。正如耶魯大學(xué)計(jì)量經(jīng)濟(jì)學(xué)家伊恩·艾瑞斯在對(duì)大數(shù)據(jù)時(shí)代隱私保護(hù)問(wèn)題的論述中提到的,“傳統(tǒng)意義上的隱私權(quán)指的是保護(hù)過(guò)去和現(xiàn)在的信息,人們沒(méi)必要擔(dān)心要不要保護(hù)未來(lái)信息的隱私。因?yàn)槲磥?lái)的信息還不存在呢,沒(méi)什么好保護(hù)的。但是,有了數(shù)據(jù)挖掘預(yù)測(cè),人們就該擔(dān)心了”。同樣,面對(duì)飛速發(fā)展的人工智能技術(shù),我們還很難預(yù)知下一個(gè)未來(lái)將是什么。所以,“回應(yīng)式”治理模式必然會(huì)因忽視不確定性,而無(wú)法有效應(yīng)對(duì)新型倫理問(wèn)題。

隨著通用人工智能在社會(huì)生產(chǎn)、生活等領(lǐng)域的推廣,各國(guó)政府也紛紛開(kāi)始呼吁要加強(qiáng)和規(guī)范人工智能技術(shù)的應(yīng)用,如2021年歐盟發(fā)布關(guān)于人工智能技術(shù)的監(jiān)管法規(guī)草案、美國(guó)提案賦予社交媒體用戶禁用算法的權(quán)利等。中國(guó)基于構(gòu)建人類命運(yùn)共同體的立場(chǎng),發(fā)布了一系列關(guān)于加強(qiáng)人工智能倫理治理的文件,如2021年發(fā)布的《新一代人工智能倫理規(guī)范》,強(qiáng)調(diào)加強(qiáng)人工智能技術(shù)、人工智能倫理和治理研究。盡管如此,目前人工智能倫理治理依然沒(méi)有跳出“回應(yīng)式”治理模式。從人工智能倫理治理研究來(lái)看,學(xué)界已意識(shí)到人工智能對(duì)傳統(tǒng)倫理的挑戰(zhàn),并開(kāi)始進(jìn)行一些新的研究和探索,如以荷蘭學(xué)者維貝克為代表提出的“道德物化倫理學(xué)”,溫德?tīng)枴ね呃铡⒖屏帧ぐ瑐愄岢龅慕?gòu)一種功能性道德等。這些探討都具有重要意義,但也都沒(méi)能真正走出“回應(yīng)式”治理模式的困境,同樣無(wú)法應(yīng)對(duì)一個(gè)未知的不確定性的未來(lái),因?yàn)闊o(wú)論是道德被物化,還是被嵌入人類道德的道德機(jī)器,都無(wú)法阻止一個(gè)未知的新倫理問(wèn)題的出現(xiàn)。從人工智能倫理治理的實(shí)踐來(lái)看,目前的人臉識(shí)別、自動(dòng)駕駛、機(jī)器學(xué)習(xí)和算法等運(yùn)用中引發(fā)的倫理問(wèn)題,其解決方式多是以技術(shù)治理技術(shù)問(wèn)題或?qū)夹g(shù)的應(yīng)用進(jìn)行控制或限制。這些方法似乎能減少人工智能倫理問(wèn)題的發(fā)生,但在另一種程度上又會(huì)限制人工智能技術(shù)的發(fā)展和應(yīng)用,因而也只是一種“修補(bǔ)術(shù)”而已。可見(jiàn),無(wú)論在理論上還是實(shí)踐上,“回應(yīng)式”治理模式仍然是當(dāng)前人工智能倫理治理的主要模式。

由于對(duì)不確定性的忽視,“回應(yīng)式”治理模式在人工智能倫理問(wèn)題的治理上逐步陷入困境。首先,“回應(yīng)式”治理模式缺乏風(fēng)險(xiǎn)預(yù)判機(jī)制,無(wú)法有效應(yīng)對(duì)人工智能不確定性帶來(lái)的倫理風(fēng)險(xiǎn)。盡管創(chuàng)造力一直被視為人類智慧的頂峰,人們也常常認(rèn)為“沒(méi)有什么有趣的人工智能可以體現(xiàn)創(chuàng)造力。但人工智能技術(shù)產(chǎn)生了許多在人類歷史上屬于新穎的、異乎尋常的以及有價(jià)值的想法”。正是人工智能技術(shù)的不確定性,才會(huì)有創(chuàng)造性,而創(chuàng)造會(huì)導(dǎo)致意外產(chǎn)生,因而對(duì)于意外帶來(lái)的倫理問(wèn)題也必然不在人們的掌控之中。所以,“回應(yīng)式”治理模式無(wú)法有效應(yīng)對(duì)人工智能引發(fā)的意外。其次,“回應(yīng)式”治理模式對(duì)于問(wèn)題的處理立足于過(guò)往經(jīng)驗(yàn),無(wú)法及時(shí)解決人工智能帶來(lái)的倫理新問(wèn)題。正如前文所言,“回應(yīng)式”治理模式是由決定論的思維方式?jīng)Q定的,而決定論的邏輯是“過(guò)去決定未來(lái)”,過(guò)往的治理經(jīng)驗(yàn)?zāi)軌蛴行Ы鉀Q未來(lái)的問(wèn)題。然而,人工智能引發(fā)的新的倫理問(wèn)題與傳統(tǒng)倫理問(wèn)題截然不同,“回應(yīng)式”治理模式無(wú)法有效解決人工智能應(yīng)用所產(chǎn)生的倫理新問(wèn)題。最后,“回應(yīng)式”治理模式是一種問(wèn)題的善后處理術(shù),無(wú)法為人工智能健康發(fā)展提供先行的倫理規(guī)范,因而不能為人工智能健康發(fā)展保駕護(hù)航??傊?,“回應(yīng)式”治理模式在人工智能倫理治理中所遭遇的困境,不僅大大弱化了人工智能倫理治理能力、降低了倫理治理實(shí)效,而且也因無(wú)法為人工智能技術(shù)研發(fā)和應(yīng)用提供倫理先導(dǎo),從而阻礙了人工智能的未來(lái)發(fā)展。

三、“前瞻式”治理:人工智能倫理治理的必由之路

人工智能技術(shù)不確定性決定了傳統(tǒng)“回應(yīng)式”治理模式已不合時(shí)宜,亟須變革。“回應(yīng)式”治理模式在一定程度上能起到降低和減小損失的作用,但因其缺乏對(duì)不確定性因素的考量而無(wú)法有效防范風(fēng)險(xiǎn)。人工智能技術(shù)的不確定性決定了人工智能倫理治理中風(fēng)險(xiǎn)防范要先于問(wèn)題處理,這就要求人工智能倫理治理模式變革必然要從“回應(yīng)式”治理走向“前瞻式”治理。

何謂“前瞻式”治理?顧名思義,它是指通過(guò)“前瞻思考”既考慮未來(lái)外界的變化,又考慮事物自身的發(fā)展,并將二者結(jié)合起來(lái)預(yù)判未來(lái)可能面臨的機(jī)遇與風(fēng)險(xiǎn),進(jìn)而采取各種措施和方法抓住機(jī)遇、防范風(fēng)險(xiǎn),推進(jìn)事物發(fā)展的活動(dòng)?!扒罢笆健敝卫碛汕罢靶运季S方式?jīng)Q定。所謂前瞻性思維,是指從不確定性視角去思考未來(lái),預(yù)測(cè)未來(lái)可能發(fā)生的事。概而言之,前瞻性思維是一種系統(tǒng)性、全局性、戰(zhàn)略性、開(kāi)放性的思維。因而,由前瞻性思維方式所決定的“前瞻式”治理,必然具有整體布局、戰(zhàn)略規(guī)劃、主動(dòng)承擔(dān)、開(kāi)拓創(chuàng)新、動(dòng)態(tài)預(yù)判等特點(diǎn)。

正因如此,對(duì)于人工智能倫理的治理,“前瞻式”治理必然是對(duì)“回應(yīng)式”治理的超越。首先,人工智能的不確定性必將導(dǎo)致新的倫理風(fēng)險(xiǎn),這就要求在治理過(guò)程中主動(dòng)出擊,強(qiáng)化主體責(zé)任意識(shí),將風(fēng)險(xiǎn)扼殺在萌芽狀態(tài)?!扒罢笆健敝卫砭哂兄黧w承擔(dān)性特點(diǎn),因而在治理上不僅擁有主動(dòng)權(quán),而且能夠增強(qiáng)和培養(yǎng)治理者的主體責(zé)任意識(shí)。其次,人工智能倫理作為新型倫理形式,在倫理關(guān)系、準(zhǔn)則和標(biāo)準(zhǔn)等方面都與傳統(tǒng)倫理存在很大的差異性,這就要求治理方法不斷創(chuàng)新?!扒罢笆健敝卫砭哂袆?dòng)態(tài)預(yù)判性特點(diǎn),能夠?qū)ξ磥?lái)的風(fēng)險(xiǎn)作出一定程度的預(yù)測(cè),其無(wú)疑在科技發(fā)展和治理過(guò)程中遵循了“倫理先行”的原則。最后,人工智能發(fā)展規(guī)劃是一項(xiàng)系統(tǒng)工程,在治理過(guò)程中需要整體規(guī)劃布局?!盎貞?yīng)式”治理只是憑借過(guò)往經(jīng)驗(yàn)進(jìn)行局部修補(bǔ),無(wú)法有效解決人工智能全局性的倫理問(wèn)題。而“前瞻式”治理具有全局戰(zhàn)略性特點(diǎn),在治理過(guò)程中能夠避免局部修補(bǔ)術(shù)的弊端,從而積極推動(dòng)人工智能技術(shù)健康協(xié)調(diào)發(fā)展。

值得注意的是,在人們的觀念中,“前瞻式”治理的核心是預(yù)測(cè),而如何預(yù)測(cè)以及預(yù)測(cè)的根據(jù)何在?這似乎又回到了確定性。如何破解這一悖論需要我們轉(zhuǎn)變對(duì)不確定性的認(rèn)識(shí),也只有解決這一觀念問(wèn)題才能實(shí)現(xiàn)人工智能倫理治理模式的變革。其實(shí),不確定性并非是確定性的對(duì)立面。耗散結(jié)構(gòu)理論創(chuàng)立者普里戈金雖然解構(gòu)了確定性世界觀,但他同樣也反對(duì)純機(jī)遇的任意宇宙思想。他認(rèn)為:“現(xiàn)今正在出現(xiàn)的,是位于確定性世界與純機(jī)遇的變幻無(wú)常世界這兩個(gè)異化圖景之間某一處的一個(gè)‘中間’描述。”也就是說(shuō),我們實(shí)際上生活在一個(gè)可確定的概率世界之中,生命和物質(zhì)在這個(gè)世界里沿時(shí)間方向不斷演化,而確定性本身才是一種錯(cuò)覺(jué)。既然世界具有可確定性的概率,那么就有了對(duì)未來(lái)的預(yù)測(cè)、預(yù)判的可能。也正因如此,“前瞻式”治理就是要在不確定性中尋找確定性。那么,如何在不確定性中尋找到確定性,則成為實(shí)踐“前瞻式”人工智能倫理治理的關(guān)鍵。筆者認(rèn)為,可以從以下幾個(gè)方面入手解決這一問(wèn)題。

首先,加強(qiáng)人工智能風(fēng)險(xiǎn)理論研究。雖然不確定性會(huì)引發(fā)風(fēng)險(xiǎn),但風(fēng)險(xiǎn)本身也是不確定性的?!安淮_定性的存在意味著存在一個(gè)客觀范疇,從小到大,從風(fēng)險(xiǎn)到無(wú)知,然而,我看到風(fēng)險(xiǎn)、不確定性、無(wú)知和非決定性彼此交疊。”客觀存在的風(fēng)險(xiǎn),盡管是不確定的,但如果我們能夠在認(rèn)知上識(shí)別它,實(shí)際上就是從不確定性走向了確定性。我們之所以無(wú)法充分認(rèn)知不確定性的風(fēng)險(xiǎn),關(guān)鍵就在于缺乏科學(xué)的風(fēng)險(xiǎn)理論的指導(dǎo),特別是對(duì)人工智能這一新興技術(shù)而言,關(guān)于其風(fēng)險(xiǎn)理論的研究并不多見(jiàn)。因此,人工智能倫理治理模式的變革要求我們加強(qiáng)對(duì)人工智能風(fēng)險(xiǎn)理論的研究,從而在加深對(duì)風(fēng)險(xiǎn)認(rèn)識(shí)中消除風(fēng)險(xiǎn)的不確定性。其實(shí),早已有學(xué)者對(duì)風(fēng)險(xiǎn)問(wèn)題展開(kāi)了研究,如貝克、吉登斯、盧曼、丹尼爾等思想家都在對(duì)現(xiàn)代性進(jìn)行反思的過(guò)程中,從不同視角對(duì)風(fēng)險(xiǎn)問(wèn)題展開(kāi)過(guò)研究。但早期思想家們關(guān)于風(fēng)險(xiǎn)理論的研究主要聚焦于對(duì)工業(yè)文明帶來(lái)的社會(huì)風(fēng)險(xiǎn)的思考。目前對(duì)于人工智能技術(shù)及其應(yīng)用引發(fā)的風(fēng)險(xiǎn)還缺乏深入研究,惟有在科學(xué)的人工智能風(fēng)險(xiǎn)理論指導(dǎo)下,才能對(duì)人工智能倫理風(fēng)險(xiǎn)作出正確的預(yù)估,從而更好地發(fā)揮“前瞻式”人工智能倫理治理模式的優(yōu)勢(shì)。

其次,塑造多元化的“前瞻式”人工智能倫理治理主體。在“前瞻式”治理中,科學(xué)預(yù)判是正確治理的前提。當(dāng)然科學(xué)的預(yù)判需要明智的主體,正如司馬相如所言:“蓋明者遠(yuǎn)見(jiàn)于未萌而智者避危于無(wú)形,禍固多藏于隱微而發(fā)于人之所忽者也。”也就是說(shuō),只有明智的人才能從不確定性視角審時(shí)度勢(shì)、預(yù)判未來(lái),從而做到在危險(xiǎn)到來(lái)之前采取措施而避開(kāi)災(zāi)禍。所以,在“前瞻式”人工智能倫理治理中需要培養(yǎng)明智的多元治理主體。這種多元主體應(yīng)該包括政府、科技人員和廣大社會(huì)公眾等。對(duì)于政府而言,要站在戰(zhàn)略高度為人工智能技術(shù)創(chuàng)新發(fā)展指明方向,并面向未來(lái)制定前瞻性、系統(tǒng)性的風(fēng)險(xiǎn)監(jiān)管計(jì)劃和措施。對(duì)于廣大科技工作者而言,要以前瞻性和專業(yè)性的視角對(duì)人工智能的研發(fā)、應(yīng)用等風(fēng)險(xiǎn)作出有效的預(yù)估。對(duì)于社會(huì)公眾而言,作為人工智能技術(shù)的受益者,需要具備防范風(fēng)險(xiǎn)的主體責(zé)任意識(shí)。正如前文所言,“前瞻式”治理的一個(gè)重要特征就是需要治理主體具備主動(dòng)性和高度的責(zé)任意識(shí)。因此,在“前瞻式”倫理主體塑造中,不僅要增強(qiáng)社會(huì)公眾對(duì)人工智能倫理風(fēng)險(xiǎn)的敏感性,而且要培養(yǎng)其主體意識(shí)和責(zé)任意識(shí)。簡(jiǎn)單來(lái)說(shuō),主體意識(shí)就是主體的自我意識(shí)。這種自我意識(shí)表現(xiàn)為人在同外部世界發(fā)生關(guān)系時(shí),對(duì)于自身的主體地位、能力以及價(jià)值的一種自覺(jué)意識(shí)。而正是有了這種自覺(jué)意識(shí),主體才有可能產(chǎn)生勇于承擔(dān)風(fēng)險(xiǎn)的責(zé)任意識(shí)。

最后,開(kāi)展多方協(xié)作的聯(lián)合治理?!扒罢笆健敝卫硎且豁?xiàng)系統(tǒng)性、全局性、全過(guò)程的治理工程,因而需要多元治理主體進(jìn)行合理的分工和協(xié)作。各級(jí)科研院所要對(duì)人工智能技術(shù)進(jìn)行嚴(yán)格的倫理審查,從而將人工智能技術(shù)在研發(fā)和運(yùn)用過(guò)程中所可能產(chǎn)生的倫理風(fēng)險(xiǎn)降到最低。近年來(lái),我國(guó)政府高度重視科技的倫理審查,并于2023年正式公布了由科技部、教育部、工業(yè)和信息化部等部門聯(lián)合印發(fā)的《科技倫理審查辦法(試行)》(以下簡(jiǎn)稱《審查辦法》)?!秾彶檗k法》明確要求:“高等學(xué)校、科研機(jī)構(gòu)、醫(yī)療衛(wèi)生機(jī)構(gòu)、企業(yè)等是本單位科技倫理審查管理的責(zé)任主體。從事生命科學(xué)、醫(yī)學(xué)、人工智能等科技活動(dòng)的單位,研究?jī)?nèi)容涉及科技倫理敏感領(lǐng)域的,應(yīng)設(shè)立科技倫理(審查)委員會(huì)?!笨萍紓惱韺彶橹荚趶娜斯ぶ悄芗夹g(shù)研發(fā)的源頭減小和降低倫理風(fēng)險(xiǎn),因而是“前瞻式”治理不可缺少的環(huán)節(jié)。此外,公眾參與也是“前瞻式”人工智能倫理治理的重要組成部分。一項(xiàng)完整的人工智能技術(shù)創(chuàng)新活動(dòng),應(yīng)該包括從人工智能產(chǎn)品的研發(fā)到人工智能產(chǎn)品投入社會(huì)使用的整個(gè)過(guò)程。在人工智能技術(shù)研發(fā)階段,如果說(shuō)倫理風(fēng)險(xiǎn)預(yù)測(cè)主要有賴于科技人員的道德想象力,那么在人工智能產(chǎn)品的實(shí)際應(yīng)用階段則需要廣大社會(huì)公眾發(fā)揮重要的監(jiān)督作用。畢竟人工智能產(chǎn)品最終是面向社會(huì)公眾的,因而人工智能技術(shù)的研究離不開(kāi)公眾。“只要公民覺(jué)得難以提出和表達(dá)他們的看法,發(fā)展的代價(jià)和問(wèn)題就難以估算?!币簿褪钦f(shuō),公眾參與對(duì)“前瞻式”人工智能倫理治理尤為重要。所以,社會(huì)公眾要不斷提升自身的倫理道德素養(yǎng)并積極投身到人工智能倫理治理實(shí)踐中去。惟有這樣,才能使人工智能倫理治理貫穿人工智能技術(shù)發(fā)展的全過(guò)程,從而將倫理風(fēng)險(xiǎn)降至最低。

結(jié)語(yǔ)

人工智能技術(shù)越發(fā)達(dá),其所衍生出的倫理問(wèn)題就越復(fù)雜,而為了確?!叭斯ぶ悄鼙仨毷且环N支持人類智能的技術(shù)”,就要加大對(duì)人工智能倫理問(wèn)題的治理。同樣,人工智能技術(shù)的創(chuàng)新發(fā)展,也使人工智能倫理風(fēng)險(xiǎn)不斷增大,如何防范人工智能倫理風(fēng)險(xiǎn),將成為未來(lái)人工智能倫理治理的主要任務(wù)。就人工智能倫理風(fēng)險(xiǎn)防范而言,傳統(tǒng)的“回應(yīng)式”人工智能倫理治理模式已然不合時(shí)宜,人工智能倫理治理模式必須由“回應(yīng)式”走向“前瞻式”。雖然學(xué)界已有部分學(xué)者意識(shí)到人工智能倫理治理中風(fēng)險(xiǎn)防范的重要性,也提出創(chuàng)新技術(shù)的預(yù)期治理并對(duì)道德想象力展開(kāi)研究,但目前無(wú)論國(guó)內(nèi)還是國(guó)外對(duì)于人工智能倫理問(wèn)題進(jìn)行“前瞻式”治理的研究尚未全面展開(kāi)。因此,對(duì)于“前瞻式”人工智能倫理治理模式實(shí)踐的可行性路徑還需要長(zhǎng)期的探索和研究。

參考文獻(xiàn):

[1]?莫宏偉, 徐立芳. 人工智能倫理導(dǎo)論[M]. 西安:西安電子科技大學(xué)出版社,2022:1.

[2]納西姆·尼古拉斯·塔勒布. 反脆弱:從不確定性中獲益[M]. 雨珂,譯.北京:中信出版社,2023:前言.

[3]貝爾納·斯蒂格勒. 技術(shù)與時(shí)間[M]. 裴程,譯.南京:譯林出版社,2000:83.

[4]KIERKEGAARD S.The concept of anxiety: a simple psychologically orienting deliberation on the dogmatic issue of hereditary sin [M]. THOMTEEDR. (ed.& trans.) Princeton: Princeton University Press,1980:187.

[5]伊利亞·普里戈金. 確定性的終結(jié):時(shí)間、混沌與新自然法則[M]. 湛敏,譯.上海:上??萍冀逃霭嫔纾?018.

[6]保羅·費(fèi)耶阿本德. 告別理性[M]. 陳健,柯哲,陸明,譯.南京:江蘇人民出版社,2002.

[7]江怡.后期維特根斯坦論確定性與不確定性[J].山西大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2022(3):1-9.

[8]馮·諾伊曼. 計(jì)算機(jī)與人腦[M]. 甘子玉,譯.北京:北京大學(xué)出版社,2010:5.

[9]盧西亞諾·弗洛里迪. 第四次革命:人工智能如何重塑人類現(xiàn)實(shí)[M].王文革,譯.杭州:浙江人民出版社,2016:前言.

[10]瑪格麗特·博登. 人工智能的本質(zhì)與未來(lái)[M]. 孫詩(shī)惠,譯.北京:中國(guó)人民大學(xué)出版社,2017.

[11]付長(zhǎng)珍,成素梅,劉梁劍. 量子論、量子思維與面向未來(lái)的科技倫理:錢旭紅院士訪談[J]. 華東師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2022(2):29-37+174.

[12]張康之, 張乾友. 人類追求確定性的歷史足跡[J]. 浙江學(xué)刊, 2011(2): 138-145.

[13]李德毅,杜鹢. 不確定性人工智能[M]. 北京:國(guó)防工業(yè)出版社,2005: 58.

[14]伊薩克·牛頓. 自然哲學(xué)之?dāng)?shù)學(xué)原理[M]. 王克迪,譯.武漢:武漢出版社,1992: 689.

[15]馬克思恩格斯選集:第1卷[M]. 北京:人民出版社,1995:275.

[16]伊恩·艾瑞斯. 大數(shù)據(jù)思維與決策[M]. 宮相真,譯.北京:人民郵電出版社,2014:176.

[17]WYNNE B. Uncertainty and environmental learning: reconceiving science and policy in the preventive paradigm[J]. Global Environmental Change, 1992, 2( 2) : 111-127.

[18]司馬遷. 史記[M]. 楊燕起,譯注.長(zhǎng)沙:岳麓書(shū)社,2021: 3552.

[19]科技倫理審查辦法:試行[EB/OL].(2023-10-08)[2023-10-16]. https://baijiahaobaiducom/s?id=1779182029627860414&wfr=spider&for=pc.

[20]安德魯·芬伯格.可選擇的現(xiàn)代性[M].陸俊,嚴(yán)耕,譯. 北京:中國(guó)社會(huì)科學(xué)出版社,2003:中文版序言.

[21]沃爾夫?qū)せ舴蚧<{.人工智能的未來(lái):“慈愛(ài)的機(jī)器”還是“交際的工具”[J].重慶郵電大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2022(4):56-61.

【責(zé)任編輯:何妮】

基金項(xiàng)目:安徽省哲學(xué)社會(huì)科學(xué)規(guī)劃項(xiàng)目“數(shù)字技術(shù)的隱性意識(shí)形態(tài)風(fēng)險(xiǎn)與防范研究”(AHSKY2022D228)。

作者簡(jiǎn)介: 吳興華( 1970—) ,女,安徽舒城人,安徽師范大學(xué)馬克思主義學(xué)院教授,哲學(xué)博士,研究方向:西方馬克思主義、科學(xué)技術(shù)哲學(xué)。

猜你喜歡
治理人工智能
我校新增“人工智能”本科專業(yè)
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
社會(huì)參與美國(guó)社區(qū)學(xué)院治理及對(duì)中國(guó)應(yīng)用型本科高校治理的啟示
職教論壇(2016年24期)2016-11-14 09:04:33
關(guān)于治理潮州市區(qū)流動(dòng)攤販占道經(jīng)營(yíng)問(wèn)題的思考
考試周刊(2016年85期)2016-11-11 02:47:38
諧波分析與治理措施探討
治理背景下我國(guó)少數(shù)民族傳統(tǒng)體育運(yùn)動(dòng)會(huì)的發(fā)展
淺析網(wǎng)絡(luò)輿情治理
下一幕,人工智能!
新兴县| 奈曼旗| 洛浦县| 临泽县| 云和县| 濉溪县| 杭锦旗| 道真| 会理县| 宁乡县| 正镶白旗| 从化市| 辽宁省| 无棣县| 东城区| 修水县| 永靖县| 抚宁县| 洪泽县| 太康县| 丰都县| 那坡县| 喀喇| 米林县| 泽普县| 两当县| 福贡县| 垫江县| 红原县| 克东县| 剑阁县| 普陀区| 磐安县| 兴仁县| 宁波市| 田阳县| 集安市| 临湘市| 永宁县| 葵青区| 乌苏市|