国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能嵌入社會治理的風(fēng)險及其規(guī)避

2022-11-23 13:55
關(guān)鍵詞:算法人工智能

張 鋌

(浙江工商大學(xué) 公共管理學(xué)院,浙江 杭州 310018)

人工智能的發(fā)展和應(yīng)用正深刻改變社會生產(chǎn)和人們生活方式,引發(fā)社會治理領(lǐng)域的變革。作為一種治理技術(shù),人工智能嵌入社會治理對創(chuàng)新社會治理方式、提升社會治理能力具有重要的作用。然而,技術(shù)是一把“雙刃劍”。人工智能在造福人類、促進(jìn)經(jīng)濟(jì)和社會發(fā)展的同時亦帶來了不確定性和風(fēng)險隱患。2018年,習(xí)近平總書記在中共中央第九次集體學(xué)習(xí)時強(qiáng)調(diào),“要加強(qiáng)人工智能發(fā)展的潛在風(fēng)險研判和防范,維護(hù)人民利益和國家安全,確保人工智能安全、可靠、可控”[1]。那么,人工智能嵌入社會治理究竟存在哪些風(fēng)險?其風(fēng)險是怎么形成的?該如何系統(tǒng)性規(guī)避其風(fēng)險?為此,本文擬針對以上問題深入分析和探討人工智能嵌入社會治理的風(fēng)險形態(tài)、形成根源及其規(guī)避之策,以期有效防范人工智能的應(yīng)用風(fēng)險,促進(jìn)人工智能技術(shù)的可持續(xù)發(fā)展,構(gòu)建人工智能技術(shù)與人、社會的和諧生態(tài)。

一、 人工智能嵌入社會治理的風(fēng)險形態(tài)分析

隨著人工智能在社會治理中的廣泛和深度應(yīng)用,算法日益滲透社會生活,深刻影響人們的工作、學(xué)習(xí)和生活。人工智能嵌入社會治理構(gòu)建起一個基于數(shù)據(jù)和算法的復(fù)合治理網(wǎng)絡(luò),形成了一種新的社會治理范式。作為人工智能的技術(shù)架構(gòu),算法有其自身的運(yùn)行邏輯。人工智能嵌入社會治理之所以引發(fā)社會治理范式的轉(zhuǎn)換,主要?dú)w因于算法權(quán)力。算法以其內(nèi)化、泛在的權(quán)力關(guān)系影響個人與群體的行為,改變傳統(tǒng)的科層制治理結(jié)構(gòu),重構(gòu)社會治理的規(guī)則。正是在此過程中,人工智能的潛在風(fēng)險逐漸暴露。簡言之,人工智能嵌入社會治理帶來了治理技術(shù)的安全隱患、治理主體的替代危機(jī)、治理行為的價值缺失和治理責(zé)任的模糊不清等風(fēng)險,須引起我們的警惕和重視。

(一) 治理技術(shù)的安全隱患

作為一種具有顛覆性、革命性影響的新興技術(shù),當(dāng)前人工智能技術(shù)發(fā)展尚處于初級階段,技術(shù)自身存在安全隱患。其一,在人為干擾下,人工智能技術(shù)依賴的算法可能“失算”,如某些黑客會利用程序漏洞躲避防火裝置讓智能失效,或通過修改數(shù)據(jù)源使圖像和語音識別系統(tǒng)失去甄別能力,等等。其二,人工智能的算法運(yùn)行是以數(shù)據(jù)為基礎(chǔ)的。人工智能嵌入社會治理中,智能終端和機(jī)器依賴數(shù)據(jù)分析深度學(xué)習(xí)。在此過程中,數(shù)據(jù)源的廣泛使用,可能涉及大量個人敏感數(shù)據(jù),加劇個人信息泄露、隱私被侵犯的風(fēng)險。其三,人工智能開發(fā)具有很強(qiáng)的開放性?;ヂ?lián)網(wǎng)技術(shù)的深入發(fā)展,開源運(yùn)動已經(jīng)成為互聯(lián)網(wǎng)發(fā)展的重要驅(qū)動力,為人工智能技術(shù)的傳播提供了條件。互聯(lián)網(wǎng)企業(yè)或程序員下載已有的開源人工智能代碼都能開發(fā)人工智能程序。然而,這種“不造輪子直接造車子”的人工智能生產(chǎn)模式在促進(jìn)技術(shù)傳播的同時,也擴(kuò)散了技術(shù)風(fēng)險。例如,恐怖主義分子容易通過下載無人機(jī)的操控程序以及人臉識別和攻擊代碼從而組裝攻擊性無人機(jī)。其他的類似隱私收集、網(wǎng)絡(luò)攻擊等更容易實(shí)現(xiàn)??傊?dāng)前人工智能技術(shù)遠(yuǎn)未成熟,其技術(shù)自身存在安全風(fēng)險。由于人工智能技術(shù)的復(fù)雜性和不確定性,人類很難全面了解和掌握人工智能的潛在風(fēng)險。

(二) 治理主體的替代危機(jī)

除了技術(shù)自身安全隱患,人工智能嵌入社會治理亦可能導(dǎo)致治理主體的角色錯位,造成治理主體的替代危機(jī)。社會治理場域中,人工智能作為技術(shù)治理的工具和手段,短期內(nèi)確實(shí)有助于提升社會治理效率,促進(jìn)社會治理的精細(xì)化、專業(yè)化和智能化。長遠(yuǎn)來看,對人工智能應(yīng)用功效的“迷信”可能造成社會治理對技術(shù)工具和手段的過度依賴,導(dǎo)致社會治理創(chuàng)新驅(qū)動力不足,陷入“內(nèi)卷化”。例如,有的部門投入大量資源到智能技術(shù)系統(tǒng)的建設(shè)和升級中。然而,技術(shù)資源投入大幅增加的同時,在治理制度、機(jī)制等方面缺乏創(chuàng)新。再如,新冠肺炎疫情期間,有的地區(qū)因技術(shù)防疫系統(tǒng)失靈,防疫工作秩序一度陷入混亂,反映出城市應(yīng)急管理機(jī)制的不足和治理韌性的欠缺。人工智能在社會治理中以其強(qiáng)大的數(shù)據(jù)處理能力和算法推薦能力,為人們的生活帶來快捷和便利,在提升社會治理效率的同時,亦會導(dǎo)致社會治理主體對智能技術(shù)形成依賴而產(chǎn)生唯技術(shù)論,奉行技術(shù)至上。唯技術(shù)主義會使社會治理主體對人工智能技術(shù)的工具價值產(chǎn)生迷思和崇拜,過于依賴人工智能技術(shù)的分析判斷。可以預(yù)見,長期過度依賴人工智能技術(shù)工具的技術(shù)治理模式勢必會逐漸消解治理主體的主動意識和創(chuàng)新精神,導(dǎo)致人工智能的算法“決策”代替治理主體的自主決策。在算法、算力和大數(shù)據(jù)等要素的驅(qū)動下,隨著人工智能技術(shù)的升級及其深度嵌入社會治理,社會運(yùn)行呈現(xiàn)高度“算法化”,社會系統(tǒng)可能被人工智能技術(shù)“綁定”,導(dǎo)致治理主體被智能機(jī)器取代。

(三) 治理行為的價值缺失

人工智能嵌入社會治理中,一方面,算法催生出隱性權(quán)力。互聯(lián)網(wǎng)時代的來臨帶來了人類社會的諸多變革,權(quán)力的性質(zhì)和實(shí)現(xiàn)形式也發(fā)生了變化[2]。算法“黑箱”為權(quán)力的隱性運(yùn)行提供了條件。人工智能具有“算法主觀性”特征。算法必然體現(xiàn)設(shè)計(jì)者和開發(fā)者的主觀意志和價值取向,將其主觀偏見帶入算法系統(tǒng)形成算法偏見,導(dǎo)致種族、性別、年齡、階層或區(qū)域等多種類型的算法歧視。例如,相關(guān)研究證明,美國芝加哥法院使用的犯罪風(fēng)險評估算法COMPAS 對黑人犯罪嫌疑人造成了系統(tǒng)性歧視,其具有高犯罪風(fēng)險的概率往往被錯誤地評估為兩倍于白人。算法偏見、算法歧視等現(xiàn)象使得技術(shù)治理缺失公共價值和人文關(guān)懷,如弗吉尼亞·尤班克斯(Virginia Eubanks)指出,大數(shù)據(jù)與算法應(yīng)用于窮人和工人階層,“強(qiáng)化和延續(xù)了近代的濟(jì)貧措施中的道德主義傾向和懲罰性后果”[3]。另一方面,人工智能技術(shù)通過解構(gòu)社會分工模式,顛覆傳統(tǒng)勞動關(guān)系,造成大量人員結(jié)構(gòu)性失業(yè)。智能技術(shù)與資本的聯(lián)姻,會加劇數(shù)字鴻溝、貧富差距和社會分化[4]。這不僅危及社會公平和正義,甚至可能影響社會和諧穩(wěn)定。雖然人工智能的發(fā)展和應(yīng)用會創(chuàng)造新的就業(yè)崗位和機(jī)會,但是大量的技術(shù)“弱勢群體”恐難以跨越技術(shù)鴻溝,其勞動價值可能被剝奪,并逐漸被社會邊緣化,甚至被拋棄。

(四) 治理責(zé)任的模糊不清

人工智能技術(shù)算法運(yùn)作的“黑箱化”不僅對政府有效監(jiān)管造成困難,而且因?yàn)槠溥\(yùn)行過程的不透明性和算法規(guī)則的不易解釋,厘定和明晰其侵權(quán)行為責(zé)任是一個難題。英國《衛(wèi)報(bào)》專欄作家Ben Goldacre將算法比喻為一系列的“黑盒子”。面對這樣一個知之甚少的數(shù)字世界,“人類并不清楚什么是安全的、什么是有風(fēng)險的”[5]。進(jìn)入人工智能時代,傳統(tǒng)的技術(shù)責(zé)任倫理和制度規(guī)范已無法有效應(yīng)對人工智能技術(shù)應(yīng)用導(dǎo)致的侵權(quán)行為責(zé)任界定和追究?;趥鹘y(tǒng)的技術(shù)責(zé)任倫理和制度規(guī)范,智能機(jī)器的設(shè)計(jì)者應(yīng)承擔(dān)技術(shù)風(fēng)險的主要責(zé)任。在人工智能時代,智能機(jī)器的設(shè)計(jì)者是單一的原子責(zé)任主體。如果將智能機(jī)器的侵權(quán)行為完全歸責(zé)設(shè)計(jì)者,在法理上和倫理上并不具有很強(qiáng)的說服力。倘若歸責(zé)人工智能機(jī)器本身,顯然無法問責(zé)一個機(jī)器。由此,長久以來基于行為和后果之因果關(guān)系的技術(shù)責(zé)任倫理和制度規(guī)范在人工智能時代受到嚴(yán)重的挑戰(zhàn)??傊鎸θ斯ぶ悄艿目焖侔l(fā)展和應(yīng)用,引入新的技術(shù)責(zé)任倫理和制度規(guī)范,對加強(qiáng)人工智能風(fēng)險的有效治理,促進(jìn)人工智能技術(shù)的可持續(xù)發(fā)展,顯得必要且緊迫。

二、 人工智能嵌入社會治理的風(fēng)險形成根源

人工智能嵌入社會治理的風(fēng)險生成有其內(nèi)在邏輯,揭示其風(fēng)險形成根源有助于找到“癥因”,為有效防范其風(fēng)險提供科學(xué)依據(jù)。具體而言,人工智能的技術(shù)復(fù)雜性與不確定性、賦能治理與侵犯權(quán)利的雙重效應(yīng)以及兼具治理工具與治理對象的自反是其風(fēng)險形成的根源所在。

(一) 人工智能的技術(shù)復(fù)雜性與不確定性

人工智能技術(shù)的長處在于從大數(shù)據(jù)的復(fù)雜關(guān)系中尋找出規(guī)律性或法則,以此進(jìn)行預(yù)測或判斷。人工智能技術(shù)依賴算法的運(yùn)作,但是人工智能技術(shù)的算法背后隱藏了“技術(shù)黑箱”。一方面,人們很難理解、預(yù)測和評估人工智能技術(shù)背后的決策邏輯。當(dāng)人工智能訓(xùn)練完畢,是按照其歸納出來的規(guī)則而執(zhí)行的,人們很難完全掌控人工智能的行為。近年來,人工智能技術(shù)與大數(shù)據(jù)、物聯(lián)網(wǎng)、云計(jì)算和腦科學(xué)等技術(shù)深度結(jié)合后,其算法的運(yùn)行邏輯更為復(fù)雜,導(dǎo)致人工智能技術(shù)系統(tǒng)的潛在風(fēng)險擴(kuò)大。另一方面,人工智能技術(shù)背后的算法并非完全獨(dú)立運(yùn)行。人工智能技術(shù)的算法具有高度復(fù)雜性,其算法需與其他系統(tǒng)結(jié)合完成深度學(xué)習(xí),才能發(fā)揮應(yīng)有的作用。換言之,人工智能技術(shù)的算法不是一個獨(dú)立的運(yùn)作體系,其依賴代碼和數(shù)據(jù)樣本的機(jī)器學(xué)習(xí)具有較大的不確定性。多次重復(fù)使用的樣本數(shù)據(jù)容易誤導(dǎo)智能機(jī)器,導(dǎo)致智能機(jī)器在社會治理應(yīng)用中做出錯誤的決策。需要補(bǔ)充的是,如果人工智能的算法模型所采用的數(shù)據(jù)本身就帶有某種偏見和歧視,那么機(jī)器學(xué)習(xí)算法輸出的結(jié)果會攜帶這些數(shù)據(jù)中包含的“偏見基因”,由此引發(fā)人工智能的應(yīng)用風(fēng)險。

(二) 人工智能賦能治理與侵犯權(quán)利的雙重效應(yīng)

社會治理應(yīng)用中,人工智能技術(shù)是一種集“賦能”與“約束”的力量。人工智能在呈現(xiàn)賦能社會治理正面效應(yīng)的同時,亦暴露出技術(shù)“侵犯性”的“另一面”。例如,有的部門以公共安全為由,應(yīng)用人工智能技術(shù)過度收集和使用公民信息,因疏于管理導(dǎo)致公民隱私泄露。可以說,因技術(shù)治理的工具理性的泛濫,人工智能的社會應(yīng)用對個人隱私安全帶來巨大的挑戰(zhàn),導(dǎo)致技術(shù)嵌入與公民隱私權(quán)利保護(hù)之間的失衡,如有學(xué)者指出:“技術(shù)治理對秩序唯美主義和全景式監(jiān)控的過度追求使個人變得更加透明,導(dǎo)致隱私的邊界不斷收縮。”[6]不僅如此,應(yīng)用人工智能技術(shù)的算法推薦會導(dǎo)致“信息繭房”問題,侵犯用戶的知情權(quán)。無論是基于內(nèi)容的算法還是協(xié)同過濾的算法,都是基于數(shù)據(jù)化的用戶信息偏好。然而,基于用戶興趣的數(shù)據(jù)挖掘和內(nèi)容推送,不僅會強(qiáng)化用戶的既有偏好,而且會導(dǎo)致他們同質(zhì)化地獲取與自己思想觀念和興趣愛好趨同的信息,窄化信息渠道,陷入“信息繭房”。簡言之,人工智能的社會應(yīng)用如果過多關(guān)注技術(shù)工具理性而忽視其價值理性和人文關(guān)懷。那么,人工智能嵌入社會治理勢必會侵犯公民隱私等權(quán)利??傊?,人工智能發(fā)展和應(yīng)用須堅(jiān)持以人為本,重視人文關(guān)懷,平衡技術(shù)治理的工具理性與價值理性,在技術(shù)倫理和制度規(guī)范的框架內(nèi)推進(jìn)技術(shù)的可持續(xù)發(fā)展。

(三) 人工智能兼具治理工具與治理對象的自反

在科學(xué)與技術(shù)加速整合的深度科技化時代,人工智能技術(shù)的“雙刃”效應(yīng)越發(fā)明顯。因此,社會治理廣泛和深度應(yīng)用人工智能技術(shù)的同時,必須對技術(shù)本身進(jìn)行治理。換言之,社會治理場域中,人工智能技術(shù)既是治理的工具又是治理的對象。然而,“以技術(shù)治理技術(shù)”難免使治理陷入“維護(hù)”與“批判”的自反性“悖論”中,擴(kuò)大技術(shù)治理的自身風(fēng)險。需要指出的是,囿于現(xiàn)實(shí)條件,人們對人工智能技術(shù)風(fēng)險的研判和防范能力有一定的局限。人工智能技術(shù)背后的算法運(yùn)行極為復(fù)雜,有效解決人工智能技術(shù)的不確定性問題可謂困難重重。近年,人工智能在提升社會治理效率、增進(jìn)社會福祉的同時,其技術(shù)應(yīng)用引發(fā)的一系列問題,已對人類的法律制度、倫理規(guī)則和技術(shù)規(guī)范形成挑戰(zhàn)。例如,人工智能機(jī)器的侵權(quán)行為責(zé)任如何界定?算法偏見、算法歧視等如何治理?技術(shù)鴻溝該如何彌合?等等??傊?,人工智能嵌入社會治理的風(fēng)險已成為社會關(guān)注的熱點(diǎn),人工智能的應(yīng)用風(fēng)險治理勢在必行。有效規(guī)避人工智能的應(yīng)用風(fēng)險亟待采取可行性對策。

三、 人工智能嵌入社會治理的風(fēng)險規(guī)避之策

近些年,為了應(yīng)對人工智能興起的風(fēng)險和挑戰(zhàn),世界主要大國頒布了相應(yīng)的發(fā)展規(guī)劃和政策文件。例如,2016年,美國頒布了《國家人工智能研究與發(fā)展戰(zhàn)略規(guī)劃》《為人工智能的未來做好準(zhǔn)備》等,英國發(fā)布了《人工智能:未來決策制定的機(jī)遇與影響》。2017年,法國發(fā)布了《人工智能戰(zhàn)略》。當(dāng)前,人工智能風(fēng)險監(jiān)管主要有兩種模式:“無需批準(zhǔn)式”(permissionless)監(jiān)管和“審慎監(jiān)管”(precautionary)。美國傾向于“無需批準(zhǔn)式”監(jiān)管,強(qiáng)調(diào)除非有確鑿證據(jù)和案例證明其危害性,否則新技術(shù)、新商業(yè)模式都是被允許的。相較于美國的“無需批準(zhǔn)式”監(jiān)管,英國、法國傾向于“審慎監(jiān)管”。例如,英國強(qiáng)調(diào)對人工智能制定出的決策采用問責(zé)[7],法國強(qiáng)調(diào)對新技術(shù)的“共同調(diào)控”[8]。應(yīng)當(dāng)說,這兩種監(jiān)管模式都有其可取之處,但局限于“創(chuàng)新”與“安全”的二維選擇不免失之偏頗。人工智能嵌入社會治理的風(fēng)險規(guī)避是一個“系統(tǒng)工程”,應(yīng)致力于構(gòu)建一個綜合性公共政策框架。借此,可為有效防范其風(fēng)險,促進(jìn)人工智能技術(shù)的可持續(xù)發(fā)展建立制度基石。

(一) 以數(shù)據(jù)與算法治理為基礎(chǔ),加強(qiáng)人工智能風(fēng)險的根源治理

基于大數(shù)據(jù)的復(fù)雜算法是人工智能技術(shù)的核心。加強(qiáng)數(shù)據(jù)與算法治理是人工智能時代公共政策的應(yīng)有內(nèi)容。就數(shù)據(jù)治理而言,由于數(shù)據(jù)的收集、利用、共享與公民隱私權(quán)利保護(hù)等存在一定的張力。建立和完善基于公民授權(quán)的數(shù)據(jù)分類治理機(jī)制能有效回應(yīng)公民對隱私問題的關(guān)切。因此,人工智能發(fā)展相關(guān)公共政策應(yīng)體現(xiàn)對個人隱私的尊重和保護(hù),在規(guī)范數(shù)據(jù)的收集、利用和共享等環(huán)節(jié)的基礎(chǔ)上,實(shí)現(xiàn)數(shù)據(jù)價值、隱私保護(hù)和數(shù)據(jù)安全等多元政策目標(biāo)的平衡。具體而言,在數(shù)據(jù)的采集階段,要最大限度消除數(shù)據(jù)隱藏的偏差。因?yàn)槿绻A(chǔ)數(shù)據(jù)的產(chǎn)生過程中存在有利或不利于某類人群的偏差,那么用這些數(shù)據(jù)揭示的一些統(tǒng)計(jì)關(guān)系就會使那種偏差固化。在數(shù)據(jù)共享和數(shù)據(jù)安全方面,要積極推動智能技術(shù)系統(tǒng)和平臺的共建共享,打破數(shù)據(jù)孤島,暢通數(shù)據(jù)交流和共享渠道。同時,要注重?cái)?shù)據(jù)安全,保障個人信息安全,避免數(shù)據(jù)泄露侵犯個人隱私權(quán)利。就算法治理而言,核心議題是要規(guī)范和監(jiān)管算法的運(yùn)作,增強(qiáng)算法的透明度和可解釋性,規(guī)制算法權(quán)力,彰顯算法正義。一方面,要加強(qiáng)算法問責(zé)。構(gòu)建有效的算法問責(zé)機(jī)制是算法治理的重要內(nèi)容。對算法應(yīng)用引發(fā)的風(fēng)險設(shè)置一定的責(zé)任結(jié)構(gòu),嵌入責(zé)任機(jī)制,是加強(qiáng)算法規(guī)制必要的制度設(shè)計(jì)。算法問責(zé)的基礎(chǔ)是提升算法的透明度和可解釋性。因此,要求算法運(yùn)用履行告知義務(wù)、參數(shù)報(bào)備、參數(shù)公開和規(guī)定算法可解釋權(quán)等治理手段應(yīng)納入算法治理的公共政策。簡言之,要完善人工智能風(fēng)險治理的法律法規(guī),在人工智能的研發(fā)、設(shè)計(jì)和應(yīng)用中,有效提升算法透明度和可解釋性,將其置于相關(guān)監(jiān)管機(jī)構(gòu)、倫理委員會、社會組織和公眾等監(jiān)督之下,確保人工智能的算法可理解、可解釋、可預(yù)測,提高人工智能算法的可信度。另一方面,要貫徹算法公正原則。針對人工智能嵌入社會治理存在的算法偏見、算法歧視等問題,要堅(jiān)持算法公正原則。在具體操作中,算法的開發(fā)者、運(yùn)營者等都應(yīng)遵守算法透明、算法解釋、算法問責(zé)、算法包容以及算法審查等相關(guān)規(guī)定。需要指出的是,算法治理涉及面較廣,因此可根據(jù)算法應(yīng)用的成熟程度、影響范圍等多種因素,分領(lǐng)域、分優(yōu)先級的制定相關(guān)公共政策[9]。總之,數(shù)據(jù)與算法治理應(yīng)及時回應(yīng)公眾對人工智能技術(shù)引發(fā)的倫理、責(zé)任和個人隱私權(quán)利保護(hù)等社會關(guān)切。以數(shù)據(jù)與算法治理為基礎(chǔ),構(gòu)建算法和數(shù)據(jù)治理體系,有助于人工智能應(yīng)用風(fēng)險的根源治理。

(二) 以優(yōu)化與完善社會政策為保障,彰顯技術(shù)治理行為的價值理性

在技術(shù)治理的實(shí)踐中,必須重視對人的尊嚴(yán)、自由和社會民主、平等、公正等重要價值的維護(hù)[10]。人工智能技術(shù)應(yīng)用于社會治理,應(yīng)有助于實(shí)質(zhì)性推動社會整體“賦權(quán)增能”和公共性建構(gòu),而那些“智能革命中利益受損的群體,作為共同體成員的基本生存和發(fā)展權(quán)利需要得到充分保障”[11]。人工智能技術(shù)的發(fā)展將導(dǎo)致就業(yè)結(jié)構(gòu)、就業(yè)方式的深刻變革。人工智能技術(shù)具有顛覆性影響,其帶來的技術(shù)革命成本因此會更大。未來大量的工作崗位可能被人工智能替代,加劇社會不平等,甚至影響社會安全穩(wěn)定。因此,在人工智能發(fā)展相關(guān)公共政策的考量中,不僅要關(guān)注人工智能發(fā)展的產(chǎn)業(yè)和經(jīng)濟(jì)政策,也要關(guān)注人工智能發(fā)展的社會政策。人工智能的風(fēng)險善治須遵守人本原則[12]。為此,一方面,公民應(yīng)擁有平等享受人工智能的社會應(yīng)用帶來的成果的權(quán)利,尤其是政府部門提供的數(shù)字化、智能化基本公共服務(wù),應(yīng)普惠公眾。另一方面,要建立和完善適應(yīng)人工智能時代發(fā)展的終身學(xué)習(xí)和就業(yè)培訓(xùn)體系,完善社會保障體系,應(yīng)對人工智能發(fā)展可能帶來的結(jié)構(gòu)性失業(yè)等問題。基于此,基本收入制度應(yīng)提上公共政策議程?!盎臼杖搿笔侵竾?地區(qū))向所有成員支付一定數(shù)額的收入,滿足其基本生活的需求。該收入不需要任何條件與資格,只要是該國家(地區(qū))的居民,每個人都可以領(lǐng)取。盡管該制度存在爭議,芬蘭、瑞士和美國的一些州也已經(jīng)開始了相關(guān)實(shí)驗(yàn)[13]。總之,面對人工智能技術(shù)帶來的風(fēng)險和挑戰(zhàn),要完善社會政策體系,彰顯技術(shù)治理的價值理性和人文關(guān)懷,促進(jìn)技術(shù)與治理體制、社會發(fā)展的良性互動、相互增效。

(三) 以風(fēng)險評估與社會實(shí)驗(yàn)為手段,開展人工智能風(fēng)險的監(jiān)測預(yù)警

人工智能技術(shù)具有較大的不確定性,因此需要運(yùn)用多種手段和工具,對其風(fēng)險進(jìn)行科學(xué)評估,開展人工智能風(fēng)險監(jiān)測預(yù)警。一方面,政府可聯(lián)合高校、社會組織和互聯(lián)網(wǎng)企業(yè),邀請技術(shù)專家和公眾代表參與,對人工智能的社會應(yīng)用風(fēng)險進(jìn)行評估,根據(jù)其風(fēng)險類型、等級有針對性地采取治理對策,有效規(guī)避人工智能的應(yīng)用風(fēng)險。在社會治理的某些重要領(lǐng)域,應(yīng)加強(qiáng)對人工智能算法的數(shù)據(jù)使用、應(yīng)用場景及其風(fēng)險狀況等安全監(jiān)測,及時發(fā)現(xiàn)算法安全問題,進(jìn)行必要的技術(shù)風(fēng)險預(yù)警。另一方面,要積極開展人工智能社會實(shí)驗(yàn)研究。社會實(shí)驗(yàn)是一種典型的社會科學(xué)研究方法,是以現(xiàn)實(shí)情境下的人、組織作為研究對象所開展的研究活動,通過某些社會、政治過程或技術(shù)變革導(dǎo)致的近似于理想實(shí)驗(yàn)的場景來研究社會科學(xué)的問題。為研究工業(yè)化社會帶來的影響,美國曾通過組織大規(guī)模社會實(shí)驗(yàn),稱為“霍桑實(shí)驗(yàn)”,對工業(yè)文明時代人類的心理和行為問題進(jìn)行深入的解析。當(dāng)前,人工智能技術(shù)已經(jīng)融入人類社會和生活,人工智能時代已經(jīng)到來。人工智能的創(chuàng)新發(fā)展深刻影響社會,為開展智能時代的社會實(shí)驗(yàn)提供了理想的要素和場景。推進(jìn)人工智能風(fēng)險治理,消解人工智能技術(shù)的負(fù)面效應(yīng),應(yīng)深入了解人工智能時代的社會形態(tài)和特征。積極開展人工智能社會實(shí)驗(yàn)研究,有助于科學(xué)研判人工智能技術(shù)的社會風(fēng)險,“準(zhǔn)確識別人工智能對人類社會帶來的挑戰(zhàn)和沖擊,深入理解人工智能的社會影響特征與態(tài)勢,深刻把握人工智能時代社會演進(jìn)的規(guī)律。”[14]需要補(bǔ)充的是,人工智能風(fēng)險的有效治理必然要求加強(qiáng)人工智能研發(fā)人員的責(zé)任倫理意識,引導(dǎo)他們將道德算法融入人工智能研發(fā)設(shè)計(jì)的算法模型。因此,面向人工智能的研發(fā)人員,加強(qiáng)技術(shù)道德與倫理規(guī)范宣傳和教育,亦應(yīng)納入人工智能發(fā)展的相關(guān)公共政策。

(四) 以社會合作與共治為架構(gòu),推進(jìn)人工智能風(fēng)險的協(xié)同治理

人工智能是一項(xiàng)充滿挑戰(zhàn)的顛覆性技術(shù)。由于人工智能技術(shù)的專業(yè)性、不確定性,其嵌入社會治理帶來的風(fēng)險具有復(fù)雜性、多樣性和嚴(yán)重性,僅憑政府一方難以有效治理其風(fēng)險。人工智能技術(shù)在社會治理應(yīng)用中必然涉及多元利益主體,因此對其風(fēng)險的治理亦要求多元主體參與共治,倡導(dǎo)社會合作。僅有政府和技術(shù)專家參與的技術(shù)治理是不可取的,其治理框架也是不完整的。因此,相關(guān)公共政策應(yīng)著力構(gòu)建人工智能風(fēng)險協(xié)同治理機(jī)制,實(shí)現(xiàn)政府單一治理向多元主體合作治理轉(zhuǎn)變。該協(xié)同治理機(jī)制能“利用各自優(yōu)勢而逐漸組成技術(shù)治理的決策權(quán)威聯(lián)盟”[15],形成合作共治的技術(shù)風(fēng)險治理格局,避免單一主體治理人工智能風(fēng)險的局限性。具體而言,要打破傳統(tǒng)的“命令—控制”式技術(shù)風(fēng)險治理模式,促進(jìn)政府與技術(shù)專家、公眾和社會組織的交流和協(xié)商,引導(dǎo)多元社會主體和利益相關(guān)者參與人工智能技術(shù)系統(tǒng)和平臺的安全論證、討論,共同應(yīng)對人工智能技術(shù)帶來的風(fēng)險和挑戰(zhàn),實(shí)現(xiàn)社會資源配置帕累托改進(jìn)和社會運(yùn)行系統(tǒng)整體功能的提升。需要指出的是,人工智能與物聯(lián)網(wǎng)、云計(jì)算、大數(shù)據(jù)、互聯(lián)網(wǎng)等技術(shù)的深度融合,人工智能所造成的社會影響將會超越一國的邊界。當(dāng)前,人工智能的應(yīng)用風(fēng)險已經(jīng)成為全球關(guān)注的問題,因此對其協(xié)同治理亦應(yīng)突破國界。人工智能風(fēng)險治理需要全球性協(xié)調(diào)機(jī)制、全球性協(xié)作平臺以及全球性的標(biāo)準(zhǔn)和規(guī)則,以及國際范圍內(nèi)人工智能的道德倫理系統(tǒng)和價值理念的碰撞與討論。為此,我國要積極主動參與人工智能全球治理機(jī)制的建構(gòu)和討論,在推動形成國際人工智能治理框架和標(biāo)準(zhǔn)規(guī)范中發(fā)揮應(yīng)有的作用,提升中國在人工智能全球治理中的國際規(guī)則話語權(quán)。

四、 結(jié) 語

綜上所述,人工智能嵌入社會治理在推動社會治理方式創(chuàng)新、提升社會治理能力的同時也伴隨著治理技術(shù)的安全隱患、治理主體的替代危機(jī)、治理行為的價值缺失和治理責(zé)任的模糊不清等不可忽視的風(fēng)險。對此,我們要抓住超級智能尚未出現(xiàn)的“窗口期”,統(tǒng)籌兼顧,多維并舉,制定和實(shí)施有效的公共政策防范人工智能嵌入社會治理的風(fēng)險,平衡人工智能技術(shù)創(chuàng)新與其風(fēng)險之間的矛盾,為人工智能的社會應(yīng)用打造開放、有序、安全的環(huán)境。防范人工智能的應(yīng)用風(fēng)險具有重要的社會意義,同時也是一項(xiàng)長期任務(wù)。英國物理學(xué)家斯蒂芬·霍金和美國企業(yè)家埃隆·馬斯克都曾發(fā)出對人工智能風(fēng)險威脅的警告。人工智能的風(fēng)險之所在,就是人類自我警醒之所在。人工智能技術(shù)的發(fā)展和應(yīng)用必須以關(guān)懷人類為宗旨,創(chuàng)造以人為本的智能社會。在“總體性社會”到“分化性社會”的深刻轉(zhuǎn)型中,人工智能嵌入社會治理有其必然性和現(xiàn)實(shí)必要性。隨著數(shù)據(jù)驅(qū)動算法的升級和優(yōu)化,人工智能技術(shù)的發(fā)展和應(yīng)用具有廣闊的前景[16]。我們要在應(yīng)對人工智能的風(fēng)險和挑戰(zhàn)中推動社會治理變革和創(chuàng)新,促進(jìn)社會治理體系與治理能力現(xiàn)代化,增進(jìn)社會福祉和進(jìn)步。

猜你喜歡
算法人工智能
我校新增“人工智能”本科專業(yè)
國際主流軋差算法介紹:以CHIPS的BRA算法為例
Travellng thg World Full—time for Rree
2019:人工智能
人工智能與就業(yè)
數(shù)讀人工智能
學(xué)習(xí)算法的“三種境界”
算法框圖的補(bǔ)全
算法初步知識盤點(diǎn)
下一幕,人工智能!
平果县| 昌平区| 维西| 扶余县| 仁化县| 晴隆县| 武宣县| 绥化市| 新巴尔虎左旗| 沛县| 古交市| 聂拉木县| 蓝山县| 云霄县| 南丹县| 和龙市| 务川| 邳州市| 枣阳市| 思茅市| 宣化县| 吉首市| 大悟县| 泰宁县| 金乡县| 石首市| 玉林市| 丰顺县| 灵宝市| 岳阳市| 徐州市| 白山市| 文水县| 北川| 水富县| 蒲城县| 阳高县| 虞城县| 永靖县| 涞水县| 侯马市|