国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能風(fēng)險(xiǎn)的意蘊(yùn)生成與治理路徑

2020-03-23 05:59鄭容坤
黨政研究 2020年2期
關(guān)鍵詞:風(fēng)險(xiǎn)社會(huì)人工智能

鄭容坤

〔摘要〕人工智能風(fēng)險(xiǎn)意指因人工智能技術(shù)的不確定性所誘發(fā)的對(duì)人類經(jīng)濟(jì)結(jié)構(gòu)、社會(huì)秩序、倫理道德乃至生存安全等方面的可能性后果。風(fēng)險(xiǎn)技術(shù)與技術(shù)風(fēng)險(xiǎn)共同型構(gòu)人工智能的風(fēng)險(xiǎn)議題,致使人工智能呈現(xiàn)出有別于風(fēng)險(xiǎn)社會(huì)其他技術(shù)風(fēng)險(xiǎn)的客觀現(xiàn)實(shí)性、主觀建構(gòu)性、技術(shù)非人化特征。風(fēng)險(xiǎn)技術(shù)是人工智能風(fēng)險(xiǎn)的生成因子,源于技術(shù)理性的認(rèn)知局限、人類主體的主觀利益、類人自主的它者欲望等技術(shù)性缺陷。技術(shù)風(fēng)險(xiǎn)則是風(fēng)險(xiǎn)技術(shù)的后果顯影,指涉人工智能風(fēng)險(xiǎn)表層波及面的廣博性以及深層次的工具性與價(jià)值性兩種動(dòng)態(tài)風(fēng)險(xiǎn)情形。當(dāng)信息技術(shù)甚囂塵上,人工智能高歌猛進(jìn)時(shí),不斷升級(jí)的風(fēng)險(xiǎn)技術(shù)難題將加劇技術(shù)風(fēng)險(xiǎn)的嚴(yán)峻境遇,最終引致人類陷入技術(shù)化泥潭?;馊斯ぶ悄芨郊佑谌祟惖募夹g(shù)化生存危機(jī),需要立足技術(shù)迭代與人類理性的雙重考慮,更新人文治理理念、構(gòu)建協(xié)同治理機(jī)制、優(yōu)化多樣治理工具等途徑不失為規(guī)避人工智能風(fēng)險(xiǎn)的有效路徑。

〔關(guān)鍵詞〕人工智能;技術(shù)風(fēng)險(xiǎn);風(fēng)險(xiǎn)治理;風(fēng)險(xiǎn)社會(huì);技術(shù)倫理

〔中圖分類號(hào)〕D63-39 〔文獻(xiàn)標(biāo)識(shí)碼〕A 〔文章編號(hào)〕2095-8048-(2020)02-0108-11

無(wú)論是貝克的《風(fēng)險(xiǎn)社會(huì)》,抑或吉登斯的《失控世界》,都指向現(xiàn)代社會(huì)的一個(gè)共同命題,即技術(shù)與風(fēng)險(xiǎn)的關(guān)聯(lián)性。當(dāng)人類科技一路高歌猛進(jìn)之時(shí),技術(shù)的普羅米修斯效應(yīng)緊跟其后。人工智能作為引領(lǐng)工業(yè)4.0的人類科學(xué)技術(shù)也難以逃脫技術(shù)風(fēng)險(xiǎn)的命運(yùn)窠臼,“人工智能在貢獻(xiàn)世界、發(fā)揮影響、促成改變的同時(shí),也易于誘發(fā)系列風(fēng)險(xiǎn)危機(jī),例如勞動(dòng)的脫嵌與消匿、人與人的疏遠(yuǎn)與隔離、人類的被超越與被控制等”〔1〕,進(jìn)而構(gòu)筑人工智能的風(fēng)險(xiǎn)議題。人工智能風(fēng)險(xiǎn)意指何物?如何生成?有何形態(tài)?如何因應(yīng)?對(duì)此,本文嘗試從風(fēng)險(xiǎn)社會(huì)的理論視角進(jìn)行初步的探討。

一、提出問題:人工智能風(fēng)險(xiǎn)的出場(chǎng)

自1956年達(dá)特茅斯會(huì)議首提人工智能術(shù)語(yǔ)至今60多年來(lái),人工智能經(jīng)歷了從爆發(fā)到寒冬再到野蠻生長(zhǎng)的歷程后,在2016年以谷歌圍棋程序人工智能AlphaGo戰(zhàn)勝世界冠軍李世石為指標(biāo)性事件,人工智能開啟對(duì)人類社會(huì)權(quán)力組織、經(jīng)濟(jì)生產(chǎn)和治理方式的顛覆性變革。人工智能“在帶給人類巨大進(jìn)步與福利的同時(shí),也帶來(lái)了不可忽視的倫理風(fēng)險(xiǎn)、極化風(fēng)險(xiǎn)、異化風(fēng)險(xiǎn)、規(guī)制風(fēng)險(xiǎn)和責(zé)任風(fēng)險(xiǎn)”〔2〕以及決策風(fēng)險(xiǎn)等現(xiàn)代性社會(huì)問題。對(duì)此,已有研究立足法學(xué)、倫理學(xué)、管理學(xué)等展開跨學(xué)科研究,打破人工智能發(fā)展的工程“技術(shù)領(lǐng)土”邊界,并圍繞技術(shù)、社會(huì)、治理視角進(jìn)行學(xué)術(shù)反思,表達(dá)對(duì)人工智能風(fēng)險(xiǎn)及其化解的人文關(guān)懷。

首先,技術(shù)視角的風(fēng)險(xiǎn),主要源于算法客觀性與主觀性等技術(shù)屬性的內(nèi)在缺陷。算法的客觀性在于人類有限理性之下對(duì)算法技術(shù)的不確定性認(rèn)知,而算法的主觀性強(qiáng)調(diào)算法程序的主體惡念,兩者造就了人工智能的“算法失序”,進(jìn)而衍生為人工智能風(fēng)險(xiǎn)。在人工智能算法被視為一種新的權(quán)力形態(tài)時(shí),囿于算法歧視、算法黑箱、算法偏見以及算法自利等主客觀缺陷,人工智能算法的政治與道德風(fēng)險(xiǎn)在所難免。避免因算法失序帶來(lái)的技術(shù)風(fēng)險(xiǎn),應(yīng)實(shí)行算法監(jiān)管關(guān)口前移,“樹立以風(fēng)險(xiǎn)防范為目的的監(jiān)管思路,實(shí)行內(nèi)容與算法并重的雙軌審查機(jī)制,以及設(shè)立平臺(tái)責(zé)任與技術(shù)責(zé)任雙軌并行的責(zé)任體系,并對(duì)算法的生產(chǎn)性資源數(shù)據(jù)的收集和使用進(jìn)行合理限制”〔3〕。

其次,社會(huì)視角的風(fēng)險(xiǎn),來(lái)自于人工智能應(yīng)用中呈現(xiàn)出來(lái)的“墨菲定律”①。一是法律風(fēng)險(xiǎn),認(rèn)為人工智能作為一種發(fā)展型的技術(shù)體系,具有超前性、復(fù)雜性的社會(huì)屬性,然而因缺乏法律的有力規(guī)制會(huì)產(chǎn)生法律失效危機(jī)。當(dāng)前人工智能法律風(fēng)險(xiǎn)涉及智能體的法律主體資格評(píng)價(jià)〔4〕、行為責(zé)任認(rèn)定以及刑罰類型設(shè)置〔5〕等議題,強(qiáng)調(diào)從違法主體(是人類還是類人)為出發(fā)點(diǎn)規(guī)避社會(huì)風(fēng)險(xiǎn)〔6〕。二是倫理風(fēng)險(xiǎn)。人工智能的發(fā)展可能引發(fā)責(zé)任倫理沖突的社會(huì)擴(kuò)大問題與隱私群體化泄露風(fēng)險(xiǎn)〔7〕,通過規(guī)約智能機(jī)器設(shè)計(jì)者、所有者、使用者等主體行為,提倡人工智能研發(fā)與應(yīng)用階段的倫理道德,才能在保障智能機(jī)器與系統(tǒng)的安全基礎(chǔ)上,維護(hù)人類社會(huì)的健康發(fā)展。〔8〕三是失業(yè)風(fēng)險(xiǎn)。人工智能技術(shù)的迭代升級(jí),一方面可能會(huì)取消大規(guī)模的簡(jiǎn)單勞動(dòng),形成結(jié)構(gòu)性失業(yè),甚至?xí)艨迳鐣?huì)分層結(jié)構(gòu)的中產(chǎn)階級(jí),最終致使社會(huì)資源流向少數(shù)資本精英和技術(shù)精英,加劇社會(huì)走向?qū)嵸|(zhì)的不平等〔9〕,同時(shí)也誘發(fā)失業(yè)人員無(wú)法獲得與社會(huì)技術(shù)相匹配的新技能的再就業(yè)風(fēng)險(xiǎn)〔10〕〔11〕。有部分研究立足國(guó)家層面,剖析人工智能對(duì)國(guó)家主權(quán)安全、國(guó)際戰(zhàn)略合作、數(shù)據(jù)共建共享以及國(guó)家責(zé)任〔12〕等方面的風(fēng)險(xiǎn)治理命題。

最后,治理視角的風(fēng)險(xiǎn)。社會(huì)領(lǐng)域在吸納人工智能技術(shù)實(shí)施智能化治理時(shí),潛在著人工智能技術(shù)的“反制性”,即技術(shù)發(fā)展的不確定性導(dǎo)致社會(huì)治理存在從“數(shù)字民主”滑向“技術(shù)利維坦”的潛在風(fēng)險(xiǎn)〔13〕。有效規(guī)制人工智能的潛在風(fēng)險(xiǎn),需要從善治的角度著手,“通過社會(huì)多元主體的共治,構(gòu)建可控的應(yīng)用環(huán)境、可靠的安全屬性、合理的責(zé)任機(jī)制,形成科學(xué)和有效的人工智能風(fēng)險(xiǎn)治理體系”〔14〕。同時(shí),應(yīng)從基礎(chǔ)治理、綜合治理、倫理治理相統(tǒng)一的系統(tǒng)治理思路出發(fā)構(gòu)建人工智能風(fēng)險(xiǎn)化解的整體性機(jī)制。

已有文獻(xiàn)立足技術(shù)、社會(huì)、治理三個(gè)視角,遵循現(xiàn)象-原因-對(duì)策的闡釋路徑反思人工智能的風(fēng)險(xiǎn)生發(fā)機(jī)理,這些研究為本文的展開提供有益支持。然而,相對(duì)于人工智能技術(shù)的突飛猛進(jìn),現(xiàn)有的研究略顯瓶頸,亟需在深度上拓展。本文以此為進(jìn)路,結(jié)合風(fēng)險(xiǎn)社會(huì)理論,建構(gòu)風(fēng)險(xiǎn)技術(shù)與技術(shù)風(fēng)險(xiǎn)的互構(gòu)邏輯,試圖闡釋人工智能風(fēng)險(xiǎn)的內(nèi)涵意蘊(yùn)、生成機(jī)理、形態(tài)特征以及善治思考。

二、人工智能風(fēng)險(xiǎn)的意蘊(yùn)與特征:風(fēng)險(xiǎn)社會(huì)的新風(fēng)險(xiǎn)圖景

在經(jīng)歷兩次世界大戰(zhàn)之后,人類社會(huì)進(jìn)入了極盛現(xiàn)代化表象下各類風(fēng)險(xiǎn)暗流涌動(dòng)的風(fēng)險(xiǎn)社會(huì)。對(duì)于這類風(fēng)險(xiǎn)社會(huì)的理論闡釋當(dāng)屬烏爾里?!へ惪耍║lrich Beck)與安東尼·吉登斯(Anthony Giddens)的風(fēng)險(xiǎn)社會(huì)理論。貝克在《風(fēng)險(xiǎn)社會(huì)》書中,首提風(fēng)險(xiǎn)社會(huì)概念,認(rèn)為科技在促進(jìn)社會(huì)發(fā)展的同時(shí),也暗含著對(duì)生態(tài)環(huán)境和人類自身的副作用,人類已處在技術(shù)性風(fēng)險(xiǎn)所構(gòu)筑的境遇之中。吉登斯則以西方資本主義社會(huì)的現(xiàn)代性為切入口,闡釋技術(shù)風(fēng)險(xiǎn)對(duì)社會(huì)結(jié)構(gòu)與社會(huì)秩序的撕裂問題,強(qiáng)調(diào)現(xiàn)代社會(huì)周遭的風(fēng)險(xiǎn)屬于人造風(fēng)險(xiǎn)(manufactured risk)系列,是由人類自身制造出來(lái)而有別于自然風(fēng)險(xiǎn)的形態(tài),同時(shí)因其由人類無(wú)限制利益的驅(qū)動(dòng),將會(huì)是人類所面臨的最大威脅〔15〕。貝克和吉登斯旗幟鮮明地認(rèn)為,風(fēng)險(xiǎn)社會(huì)是一個(gè)反身性(Reflexivity)現(xiàn)代化的社會(huì),即“創(chuàng)造性地(自我)毀滅整整一個(gè)時(shí)代——工業(yè)社會(huì)時(shí)代——的可能性。這種創(chuàng)造性毀滅的‘對(duì)象不是西方現(xiàn)代化革命,也不是西方現(xiàn)代化的危機(jī),而是西方現(xiàn)代化的勝利成果”〔16〕。他們認(rèn)為風(fēng)險(xiǎn)社會(huì)的歸宿是人類現(xiàn)代文明的毀滅,其根源在于人類對(duì)技術(shù)創(chuàng)新、發(fā)展的無(wú)止境追求,而人類的這種非理性技術(shù)沖動(dòng)是現(xiàn)代性制度失范的再次作用。吉登斯從制度主義視域揭示風(fēng)險(xiǎn)社會(huì)產(chǎn)生的制度根源,包括現(xiàn)代性賴以支撐的資本主義、工業(yè)主義、監(jiān)督和軍事力量等四類制度性失范〔17〕。貝克進(jìn)認(rèn)為風(fēng)險(xiǎn)治理的關(guān)鍵在于完善社會(huì)規(guī)范和制度體系,因?yàn)椤帮L(fēng)險(xiǎn)社會(huì)的教訓(xùn)是:政治和道德正在獲得——必須獲得!——替代科學(xué)論證的優(yōu)先權(quán)”〔18〕。

風(fēng)險(xiǎn)社會(huì)理論展示風(fēng)險(xiǎn)生產(chǎn)的一個(gè)基本邏輯:自現(xiàn)代化以來(lái),風(fēng)險(xiǎn)支配正逐漸由自然風(fēng)險(xiǎn)轉(zhuǎn)為人造風(fēng)險(xiǎn),同時(shí)由于制度失范致使人類無(wú)節(jié)制地利用技術(shù)在探索未知世界的過程中,不斷地制造出可能危及人類文明的各類技術(shù)風(fēng)險(xiǎn)。克隆人、核武器、基因編輯嬰兒、情感機(jī)器人、性伴侶機(jī)器等人類技術(shù)的研發(fā)與應(yīng)用,加劇了人類社會(huì)秩序與倫理道德的現(xiàn)實(shí)危機(jī)。隨著人工智能技術(shù)的迭代升級(jí),人工智能技術(shù)將得以大規(guī)模普及,然而技術(shù)的副作用效應(yīng)也愈發(fā)凸顯。無(wú)論是《人工智能》《終結(jié)者》《奇點(diǎn)》《機(jī)械姬》《Tron》等科幻作品,還是埃隆·馬斯克(Llon Musk)、史蒂芬·霍金(Stephen Hawking)、史蒂夫·沃茲尼克(Steve Wozniak)等人的批判言辭,無(wú)不飽含著對(duì)人工智能未來(lái)發(fā)展的深深擔(dān)憂。

人工智能發(fā)軔于20世紀(jì)50年代,興盛于21世紀(jì)初,其形成軌跡契合風(fēng)險(xiǎn)社會(huì)的指涉范圍與運(yùn)作機(jī)理。于風(fēng)險(xiǎn)社會(huì)而言,人工智能風(fēng)險(xiǎn)是一種人造的特殊的技術(shù)風(fēng)險(xiǎn),然而,我們長(zhǎng)期缺乏對(duì)人工智能風(fēng)險(xiǎn)的分析〔19〕。在現(xiàn)實(shí)中,關(guān)于人工智能風(fēng)險(xiǎn)的情境敘述更多以科幻小說(shuō)或影視等體裁呈現(xiàn);從政策目標(biāo)看,中央與地方涉及人工智能風(fēng)險(xiǎn)防范目標(biāo)的比重分別為10.28%和3.38%,較低于社會(huì)、經(jīng)濟(jì)等發(fā)展目標(biāo),表明公共政策并未對(duì)人工智能潛在的風(fēng)險(xiǎn)和挑戰(zhàn)予以應(yīng)有關(guān)注〔20〕。這兩方面共同提出了一個(gè)緊迫性命題,即需要對(duì)人工智能的風(fēng)險(xiǎn)生成、形態(tài)特征以及規(guī)制途徑做出客觀判斷。人工智能是一類不斷升級(jí)的智能技術(shù)體系,界定其潛伏的風(fēng)險(xiǎn),可以從技術(shù)視角加以解構(gòu)。我們認(rèn)為,人工智能風(fēng)險(xiǎn)意指因人工智能技術(shù)的不確定性所誘發(fā)的對(duì)人類經(jīng)濟(jì)結(jié)構(gòu)、社會(huì)秩序、倫理道德乃至生存安全等方面的可能性后果。相對(duì)于核武器、核電站、轉(zhuǎn)基因食品、基因編輯嬰兒等技術(shù)引發(fā)的風(fēng)險(xiǎn),人工智能風(fēng)險(xiǎn)更具自主性與顛覆性,是風(fēng)險(xiǎn)社會(huì)的一種新形式險(xiǎn)種。本質(zhì)看,人工智能風(fēng)險(xiǎn)命題涵括兩個(gè)內(nèi)容:一是風(fēng)險(xiǎn)層面的技術(shù)性缺失,即風(fēng)險(xiǎn)技術(shù)。二是技術(shù)層面的風(fēng)險(xiǎn)性后果,即技術(shù)風(fēng)險(xiǎn)。兩者互為因果關(guān)系,共同型構(gòu)人工智能技術(shù)之于人類社會(huì)的風(fēng)險(xiǎn)議題。風(fēng)險(xiǎn)技術(shù)與技術(shù)風(fēng)險(xiǎn)合謀作用下的人工智能風(fēng)險(xiǎn)超越人類對(duì)風(fēng)險(xiǎn)的一般性感知。我們認(rèn)為作為一種已經(jīng)形成或正在加劇的智能性風(fēng)險(xiǎn),人工智能風(fēng)險(xiǎn)具有客觀存在性、主觀建構(gòu)性、技術(shù)非人化三個(gè)主要特征。

首先,具有客觀存在性。人工智能風(fēng)險(xiǎn)內(nèi)嵌于人造的“智能體”及其行動(dòng)時(shí)空中,會(huì)通過人工智能的技術(shù)缺陷引發(fā)現(xiàn)實(shí)性安全問題。這種技術(shù)缺陷及其誘發(fā)的風(fēng)險(xiǎn)事實(shí),并不以人類的主觀意識(shí)而轉(zhuǎn)移,而是客觀存在于人類社會(huì)中。美國(guó)路易斯維爾大學(xué)的亞姆波斯基(Roman Yampolskiy)教授在《人工智能與網(wǎng)絡(luò)安全:人工智能失效時(shí)間表》一文中,梳理2016年以來(lái)人工智能發(fā)展帶來(lái)的風(fēng)險(xiǎn)類型,比如微軟聊天機(jī)器人TAY散布種族主義;特斯拉半自動(dòng)駕駛系統(tǒng)發(fā)生車禍,致人死亡;巡邏機(jī)器人失控撞擊兒童等〔21〕。這些問題業(yè)已存在人類社會(huì)之中,不僅危及人類生命健康安全,而且沖擊著人類平等、正義、民主等美好價(jià)值。

其次,具有主觀建構(gòu)性。人工智能引發(fā)的社會(huì)風(fēng)險(xiǎn)是人類主體基于邏輯判斷之后能夠感知與預(yù)測(cè)的社會(huì)問題。吉登斯認(rèn)為風(fēng)險(xiǎn)標(biāo)志著與傳統(tǒng)社會(huì)的根本性決裂,是面向未來(lái)的產(chǎn)物,而人類囿于不同的文化背景和價(jià)值觀則會(huì)形成異質(zhì)性的風(fēng)險(xiǎn)認(rèn)知方式。在不同的社會(huì)制度下,社會(huì)公民會(huì)持有不同的風(fēng)險(xiǎn)認(rèn)知;在同一制度下由于社會(huì)分層結(jié)構(gòu)以及知識(shí)體系的差異也會(huì)有各異的風(fēng)險(xiǎn)感知。對(duì)人工智能的快速發(fā)展,社會(huì)上有發(fā)展論與否定論兩種相對(duì)的觀點(diǎn):前者認(rèn)為“人工智能發(fā)展契合人類需求”“人工智能危機(jī)論是個(gè)偽命題”;而后者則提出“人工智能顛覆人類”“主奴關(guān)系錯(cuò)置”“結(jié)構(gòu)性失業(yè)”等人工智能危機(jī)說(shuō)。其實(shí)這些說(shuō)法,各有其合理成分,都立足于人類對(duì)技術(shù)風(fēng)險(xiǎn)的建構(gòu)性與反思性。例如,就業(yè)可能是人工智能首先刺破的人類社會(huì)防線,未來(lái)人工智能技術(shù)將給就業(yè)帶來(lái)結(jié)構(gòu)性變革,將會(huì)引發(fā)“大多數(shù)利益受損”和“極少數(shù)權(quán)益被剝奪”問題。有多項(xiàng)研究顯示,超過50%的現(xiàn)有工作崗位最終將完全被自動(dòng)化和機(jī)器人替代①,而如何治理人工智能帶來(lái)的就業(yè)問題,則亟需人類的理性策略。

最后,具有技術(shù)非人化。從本源看,技術(shù)是人性與物性的自洽。劉同舫教授認(rèn)為,技術(shù)的人性是人的能動(dòng)性和目的性的外化,而物性則表現(xiàn)為任何技術(shù)的產(chǎn)生、發(fā)展都不能脫離具有客觀實(shí)在性的自然物,不能違背自然規(guī)律。〔22〕人工智能技術(shù)作為人類科技史的高新技術(shù),在經(jīng)歷機(jī)械智能到弱人工智能再到強(qiáng)人工智能之后,將會(huì)達(dá)到技術(shù)奇點(diǎn)②。這種階段提升過程預(yù)示人工智能從機(jī)械思維到智能自主的“華麗變身”,其本質(zhì)是人工智能技術(shù)逐漸脫離技術(shù)的人性與物性特征,并成為具有獨(dú)立自主的非人性力量。在奇點(diǎn)時(shí)代,人工智能將無(wú)視其“人性”和“物性”的質(zhì)性規(guī)定性,而解構(gòu)其內(nèi)在統(tǒng)一性,被視為人類的強(qiáng)勢(shì)對(duì)手,而“人的生理能力因技術(shù)的替代而退化,人的精神能力因依附于技術(shù)而受到技術(shù)的控制和折磨”〔23〕,人類自身最終反倒為技術(shù)物化,淪為技術(shù)的附庸。這是人工智能技術(shù)對(duì)人類的最為根本性的危害。

我們承認(rèn),當(dāng)人類步入現(xiàn)代性時(shí),就隱喻走進(jìn)了險(xiǎn)象叢生的風(fēng)險(xiǎn)世界。人類中心主義思潮主導(dǎo)著人類對(duì)技術(shù)的無(wú)限追求,并自詡為“人類是萬(wàn)物的尺度”,宣稱人類理性能夠駕馭技術(shù)的工具性,能杜絕技術(shù)之于人類社會(huì)的潛在副作用。其實(shí)不然,人工智能的技術(shù)風(fēng)險(xiǎn)已展現(xiàn)出超越人類理性的認(rèn)知邊界,這決定人工智能風(fēng)險(xiǎn)是風(fēng)險(xiǎn)社會(huì)的一類嚴(yán)峻風(fēng)險(xiǎn)情形,同時(shí)也強(qiáng)化審視人工智能風(fēng)險(xiǎn)必須成為人類社會(huì)的重要議題。

三、技術(shù)與風(fēng)險(xiǎn):人工智能風(fēng)險(xiǎn)的因果

在人工智能時(shí)代,世人享受著智能化所帶來(lái)的物質(zhì)便利與精神陶冶,然而,任何技術(shù)都是兩面性的,當(dāng)我們浸淫于算法程序所設(shè)定的技術(shù)世界時(shí),我們?nèi)菀酌允ё晕遥鼌s人類最為本真的人性價(jià)值,而將其讓渡于機(jī)器智能,致使在個(gè)體身心、社會(huì)秩序乃至人類命運(yùn)出現(xiàn)深度風(fēng)險(xiǎn)。斯蒂芬·霍金(Stephen William Hawking)曾說(shuō):“人工智能之于人類,可能是最好的事情,也可能是會(huì)終結(jié)人類的最壞事情”,同時(shí)“我們不能把飛機(jī)失事歸結(jié)于萬(wàn)有引力;同樣,不能把人類毀滅歸罪為人工智能”?;羰涎赞o表明辯證審視人工智能技術(shù)的重要性。我們認(rèn)為,人工智能風(fēng)險(xiǎn)源于風(fēng)險(xiǎn)技術(shù),而其果為技術(shù)風(fēng)險(xiǎn),兩者互為因果關(guān)聯(lián)。

(一)風(fēng)險(xiǎn)技術(shù):人工智能的風(fēng)險(xiǎn)因子

風(fēng)險(xiǎn)技術(shù)指技術(shù)作為一種服務(wù)于主體的工具,具有自身的結(jié)構(gòu)性缺陷。就表現(xiàn)形式而言,風(fēng)險(xiǎn)技術(shù)誘發(fā)人工智能風(fēng)險(xiǎn)主要通過技術(shù)理性的認(rèn)知局限、人類自身的主觀利益、類人自主的它者欲望三個(gè)方面展開。

首先,技術(shù)理性的認(rèn)知局限。理性是技術(shù)的生存論基礎(chǔ),體現(xiàn)為合客觀性與合邏輯性的統(tǒng)一〔24〕,人類的技術(shù)認(rèn)知局限隱喻著對(duì)技術(shù)發(fā)展客觀性與邏輯性的有限掌握與階段體悟。換言之,人類無(wú)法憑借自身的認(rèn)知維度去窮盡技術(shù)的內(nèi)涵邊界,對(duì)于技術(shù)迭代升級(jí)的追求只能限定在人類的有限理性之中?,F(xiàn)階段因人工智能技術(shù)的不成熟性所導(dǎo)致的安全風(fēng)險(xiǎn)比比皆是,這些風(fēng)險(xiǎn)可能源于算法不可解釋性、數(shù)據(jù)強(qiáng)依賴性等單向或復(fù)合的技術(shù)局限性問題。但是人類按照目前的知識(shí)儲(chǔ)備,難以科學(xué)辨識(shí)其根源,導(dǎo)致人工智能技術(shù)的研發(fā)與應(yīng)用充滿了“試錯(cuò)”風(fēng)險(xiǎn)。超強(qiáng)算法是人工智能技術(shù)的核心要件,但是逆向攻擊可導(dǎo)致算法模型內(nèi)部的數(shù)據(jù)泄露;算法設(shè)計(jì)或?qū)嵤┯姓`可產(chǎn)生與預(yù)期不符甚至傷害性結(jié)果;算法黑箱導(dǎo)致人工智能決策不可解釋,引發(fā)監(jiān)督審查困境;對(duì)抗樣本攻擊可誘使算法識(shí)別出現(xiàn)誤判漏判,產(chǎn)生錯(cuò)誤結(jié)果。①例如,2018 年 3 月,Uber 自動(dòng)駕駛汽車因機(jī)器視覺系統(tǒng)未及時(shí)識(shí)別出路上突然出現(xiàn)的行人,導(dǎo)致與行人相撞致人死亡。對(duì)于算法的程序構(gòu)造及其具體運(yùn)算過程,人類目前尚未找到有效的解決途徑,這在一定程度上反映了人類對(duì)技術(shù)知識(shí)的認(rèn)知局限。

其次,人類自身的主觀利益。人工智能技術(shù)的飛速更新,并非僅僅是人類對(duì)技術(shù)的好奇心,而是夾著更多的資本與利益訴求。一方面高新技術(shù)企業(yè)是追求人工智能技術(shù)的主要?jiǎng)恿υ?,通過研發(fā)、推廣、運(yùn)用智能技術(shù)得以迅速占據(jù)技術(shù)市場(chǎng)。蘋果公司、Facebook、Google、IBM、華為、阿里巴巴以及騰訊等公司都將發(fā)展人工智能技術(shù)作為公司首要戰(zhàn)略,在研發(fā)經(jīng)費(fèi)、人才引進(jìn)等方面加大投入以贏得比較優(yōu)勢(shì),企及獲取更為優(yōu)厚的經(jīng)濟(jì)效益。據(jù)CB Insights2017年發(fā)布的《人工智能狀況》顯示,人工智能公司的股價(jià)在最近的5年中上漲了5倍,相關(guān)投資也從2012年的5.59億美元暴增至2016年的48.71億美元〔25〕。這表明人工智能的技術(shù)利益“大戰(zhàn)”已經(jīng)開始拉開。另一方面,世界主要發(fā)達(dá)國(guó)家高度重視人工智能發(fā)展,將其視為國(guó)家未來(lái)拓殖的重要戰(zhàn)略空間。2014年以來(lái)美國(guó)、英國(guó)、歐盟、日本等國(guó)家密集發(fā)布人工智能相關(guān)的國(guó)家戰(zhàn)略,并單列財(cái)政經(jīng)費(fèi)支持。美國(guó)是世界上第一個(gè)將人工智能發(fā)展上升到國(guó)家層面的國(guó)家,人工智能戰(zhàn)略規(guī)劃被視為美國(guó)新的阿波羅登月計(jì)劃。2016年 10月,美國(guó)總統(tǒng)辦公室連續(xù)發(fā)布《國(guó)家人工智能發(fā)展與研究戰(zhàn)略計(jì)劃》和《為人工智能的未來(lái)做好準(zhǔn)備》兩份人工智能發(fā)展戰(zhàn)略,提出美國(guó)扶持人工智能研發(fā)的七項(xiàng)戰(zhàn)略與二十三條建議。同年11月,美國(guó)白宮發(fā)布《人工智能、自動(dòng)化與經(jīng)濟(jì)》報(bào)告,2018年3月和9月白宮又分別發(fā)布《美國(guó)國(guó)家機(jī)器智能戰(zhàn)略報(bào)告》和《機(jī)器崛起:人工智能及對(duì)美國(guó)政策不斷增長(zhǎng)的影響》,2019年2月美國(guó)國(guó)家科技政策辦公室發(fā)布《美國(guó)人工智能倡議》。英國(guó)通過《2020年發(fā)展戰(zhàn)略》加速人工智能研發(fā);歐盟2014年啟動(dòng)全球最大的民用機(jī)器人研發(fā)計(jì)劃“SPARC”;日本政府在2015年制定《日本機(jī)器人戰(zhàn)略:愿景、戰(zhàn)略、行動(dòng)計(jì)劃》促進(jìn)人工智能發(fā)展。由此可知,人工智能發(fā)展已經(jīng)成為人類社會(huì)發(fā)展的新一輪技術(shù)海嘯,無(wú)論是國(guó)家權(quán)力主體,還是企業(yè)組織都試圖獲取人工智能的技術(shù)紅利,體現(xiàn)了人類的利益至上性。

最后,類人自主的它者欲望。一方面人類受制于技術(shù)魅惑,退化為單向度的人。美國(guó)學(xué)者尼古拉斯·尼葛洛龐帝在20世紀(jì)90年代提出“數(shù)字化生存”術(shù)語(yǔ),表達(dá)對(duì)信息技術(shù)發(fā)展未來(lái)的一種大膽預(yù)測(cè),發(fā)出“技術(shù)推動(dòng)的文明進(jìn)步是好還是壞”的追問。其實(shí),技術(shù)是客觀性存在的且服務(wù)于人類的工具性手段,其無(wú)所謂好壞之分。只是,人類在運(yùn)用技術(shù)改造社會(huì)的過程中,因逐漸讓渡自身的主體性而失去生存的精神維度,最終導(dǎo)致技術(shù)異化為“主體”,人類反制于技術(shù)時(shí),技術(shù)才被賦予否定性批判。“人得以宣傳自己是地球的主宰的那種技術(shù)展現(xiàn)給人帶來(lái)的不是偉大的自由和自身性,因?yàn)樗绱藝?yán)重地受到技術(shù)本質(zhì)的支配,以致他與事物和世界遭受同一命運(yùn):對(duì)事物的特性和自身性的毀滅和消滅已經(jīng)向人進(jìn)行報(bào)應(yīng),并殘酷地以同樣喪失其獨(dú)立性,以人的本質(zhì)的喪失而為自己報(bào)了仇”〔26〕。馬爾庫(kù)塞(Herbert Marcuse)更為悲觀地批判技術(shù)魅惑,“機(jī)器本身變成了機(jī)械工具和關(guān)系的體系,并因此而遠(yuǎn)遠(yuǎn)超過了個(gè)別勞動(dòng)過程,人類生產(chǎn)者受到機(jī)器的支配成為機(jī)器的附屬物”〔27〕??梢哉f(shuō),數(shù)字化生存時(shí)代,技術(shù)的解放力量成為解放的桎梏,造成的直接后果是社會(huì)變成單向度的社會(huì),而人類成為單向度的人。這是智能技術(shù)對(duì)人類及其社會(huì)發(fā)動(dòng)的首輪“戰(zhàn)爭(zhēng)”,而人類的社會(huì)性防線在數(shù)字化時(shí)代所構(gòu)建的算法邊界中失守了。另一方面,智能體已不再是人類的工具,而是具有獨(dú)立性和自主性的它者存在,并在與人類的時(shí)空競(jìng)爭(zhēng)中建構(gòu)智能體的統(tǒng)治權(quán)。維納(N.Winener)認(rèn)為,“機(jī)器能夠并肯定會(huì)超越他們的設(shè)計(jì)者的某些局限性,并且當(dāng)機(jī)器實(shí)現(xiàn)時(shí),他們可能既是高效的又是危險(xiǎn)的”〔28〕。維納的觀點(diǎn)強(qiáng)調(diào)人工智能與人類之間存在不可調(diào)和的矛盾,人工智能發(fā)展的終結(jié),將會(huì)是技術(shù)反制人類,“機(jī)械作為人類與自然斗爭(zhēng)的工具將最終支配人類、人類有可能成為機(jī)械的奴隸”〔29〕。當(dāng)人工智能的自主性逐漸增強(qiáng)時(shí),人類與機(jī)器脫鉤的風(fēng)險(xiǎn)也正在成型,這決定了人類審視人工智能風(fēng)險(xiǎn)后果的必要性。

(二)技術(shù)風(fēng)險(xiǎn):人工智能的風(fēng)險(xiǎn)后果

馬基雅維利(Niccolò Machiavelli)曾指出:“誰(shuí)渴望預(yù)見未來(lái),就必須征詢過去,因?yàn)槿祟惖氖挛飶膩?lái)都是與過往的時(shí)代類似”,究其根本在于“無(wú)論過去,還是未來(lái),人類都被同樣的熱情激勵(lì)。結(jié)果就是,每個(gè)時(shí)代都存在同樣的問題”〔30〕。1811年至1816年間的英國(guó)“盧德運(yùn)動(dòng)”(Luddite Movement)就是這種社會(huì)問題的一個(gè)例證。在“盧德運(yùn)動(dòng)”中,工人以破壞機(jī)器等物質(zhì)層面的舉動(dòng)來(lái)表達(dá)對(duì)技術(shù)進(jìn)步的內(nèi)心憂慮與生存抗?fàn)?。人工智能作為新一輪的技術(shù)形態(tài),其危害程度更甚于以往任何時(shí)代的技術(shù)革命對(duì)人類的影響。總體看,技術(shù)的不確定性及其根源的社會(huì)性,催生人工智能的風(fēng)險(xiǎn)性,導(dǎo)致人工智能風(fēng)險(xiǎn)后果的廣博性與動(dòng)態(tài)性。

一方面,從風(fēng)險(xiǎn)涉及面看,由于技術(shù)應(yīng)用的廣泛性,人工智能將帶來(lái)沖擊網(wǎng)絡(luò)安全、社會(huì)就業(yè)、法律倫理等問題,并對(duì)國(guó)家政治、經(jīng)濟(jì)和社會(huì)安全帶來(lái)諸多風(fēng)險(xiǎn)和挑戰(zhàn)。以人工智能引發(fā)的政治風(fēng)險(xiǎn)為例,人工智能算法逐漸嵌入民主政治架構(gòu)中,給政治價(jià)值和政治管理以革命性的變革。從技術(shù)哲學(xué)的角度看,算法作為一種運(yùn)算能力,根植于“客觀實(shí)體”內(nèi)部,并依據(jù)“主體”的價(jià)值偏好、有限理性對(duì)外部世界做出決策判斷。我們認(rèn)為,人工智能算法失靈引致的政治風(fēng)險(xiǎn)是指基于算法運(yùn)作規(guī)則的人工智能體,由于自身內(nèi)在的算法偏見、算法自利、算法黑箱①等失靈問題,引發(fā)對(duì)政治正義、政治透明、政治公意等民主價(jià)值理念的沖擊、損毀乃至背棄,最終給政治系統(tǒng)的有效運(yùn)行和人類社會(huì)發(fā)展加蓋了一層陰影?;诖?,人工智能的政治風(fēng)險(xiǎn)意味著算法失靈的政治風(fēng)險(xiǎn),預(yù)示技術(shù)理性對(duì)人文價(jià)值的撕裂,所帶來(lái)的后果將會(huì)是根本性、全局性和災(zāi)難性的。

與此相對(duì)應(yīng)的,美國(guó)人工智能研究專家Colin Garvey認(rèn)為人工智能除了引致政治風(fēng)險(xiǎn)外,還存在軍事風(fēng)險(xiǎn)、經(jīng)濟(jì)風(fēng)險(xiǎn)、社會(huì)風(fēng)險(xiǎn)、環(huán)境風(fēng)險(xiǎn)、心理生理風(fēng)險(xiǎn)以及精神風(fēng)險(xiǎn)〔31〕。這些風(fēng)險(xiǎn)并非單列存在,而是相互交織共生出技術(shù)風(fēng)險(xiǎn)。Colin Garvey從人工智能的政治風(fēng)險(xiǎn)角度,指出人工智能和大數(shù)據(jù)為精英們提供了前所未有的工具來(lái)操縱大眾的觀點(diǎn)〔32〕:例如2016年英國(guó)脫歐(Brexit)和美國(guó)唐納德·特朗普的當(dāng)選;新聞信息和搜索結(jié)果背后的人工智能導(dǎo)致了黨派隔離,將選民鎖在政黨所屬的回音室里;最終AI風(fēng)險(xiǎn)鞏固和增強(qiáng)美國(guó)和其他地方的“后真相時(shí)代”的民主危機(jī)。同時(shí),Colin Garvey也強(qiáng)調(diào),社會(huì)風(fēng)險(xiǎn)會(huì)對(duì)人工生成的數(shù)據(jù)進(jìn)行培訓(xùn)的人工智能系統(tǒng)再現(xiàn)了數(shù)據(jù)偏見的再生產(chǎn),〔33〕進(jìn)一步強(qiáng)化對(duì)窮人、種族的社會(huì)歧視以及發(fā)展中國(guó)家的相對(duì)剝奪。

另一方面,從風(fēng)險(xiǎn)產(chǎn)生的路徑看,人工智能風(fēng)險(xiǎn)會(huì)經(jīng)歷從工具性風(fēng)險(xiǎn)到價(jià)值性風(fēng)險(xiǎn)的動(dòng)態(tài)變遷。在《技術(shù)壟斷:文化向技術(shù)投降》一書中,尼爾·波斯曼(Neil Postman)通過思考技術(shù)對(duì)人類社會(huì)、文化和心理的影響,提出免于技術(shù)對(duì)文化造成傷害的具體建議。他認(rèn)為,人類技術(shù)的發(fā)展可分為工具使用、技術(shù)統(tǒng)治和技術(shù)壟斷三個(gè)階段,對(duì)應(yīng)的人類文化大致也可分為工具使用文化、技術(shù)統(tǒng)治文化和技術(shù)壟斷文化三種類型。在工具使用文化階段,技術(shù)服務(wù)、從屬于社會(huì)和文化;在技術(shù)統(tǒng)治文化階段,技術(shù)向文化發(fā)起攻擊,并試圖取而代之,但難以撼動(dòng)文化;在技術(shù)壟斷文化階段,技術(shù)使信息泛濫成災(zāi),使傳統(tǒng)世界觀消失得無(wú)影無(wú)形,技術(shù)壟斷就是集權(quán)主義的技術(shù)統(tǒng)治〔34〕。尼爾·波斯曼技術(shù)與文明的演進(jìn)邏輯對(duì)思考當(dāng)前人工智能之于人類社會(huì)的影響具有啟發(fā)價(jià)值。以整體發(fā)展階段的檢視,人工智能可劃分為“弱人工智能、強(qiáng)人工智能和超人工智能三個(gè)階段。弱人工智能擅長(zhǎng)于在特定領(lǐng)域、有限規(guī)則內(nèi)模擬和延伸人的智能;強(qiáng)人工智能具有意識(shí)、自我和創(chuàng)新思維,能夠進(jìn)行思考、計(jì)劃、解決問題、抽象思維、理解復(fù)雜理念、快速學(xué)習(xí)和從經(jīng)驗(yàn)中學(xué)習(xí)等人類級(jí)別智能的工作;超人工智能是在所有領(lǐng)域都大幅超越人類智能的機(jī)器智能”②。換言之,就弱人工智能而言,計(jì)算機(jī)在心靈研究中的主要價(jià)值是為我們提供一個(gè)強(qiáng)有力的工具,是人類改造自然和社會(huì)的人化力量;就強(qiáng)人工智能(或超人工智能)而言,計(jì)算機(jī)不只是研究心靈的工具,更確切地說(shuō),帶有正確程序的計(jì)算機(jī)其實(shí)就是一個(gè)心靈,已經(jīng)具備了機(jī)器自主性意識(shí)?!?5〕

這三個(gè)階段的技術(shù)轉(zhuǎn)換,潛藏著工具性風(fēng)險(xiǎn)與價(jià)值性的風(fēng)險(xiǎn)形態(tài)。在弱人工智能階段,技術(shù)風(fēng)險(xiǎn)以工具屬性而出現(xiàn),是一種現(xiàn)實(shí)性的風(fēng)險(xiǎn)情形,屬于人類可控的風(fēng)險(xiǎn)范疇。隨著人類對(duì)智能技術(shù)的日益精深,工具層面的技術(shù)缺陷會(huì)被逐漸攻克,弱人工智能階段的工具性風(fēng)險(xiǎn)會(huì)得到有效化解。然而在強(qiáng)(或超)人工智能階段,人工智能體作為具有獨(dú)立意識(shí)的“主體”而存在,將擺脫服務(wù)于人類的工具性行動(dòng)模式,并與人類處于競(jìng)爭(zhēng)狀態(tài),最終會(huì)誘發(fā)人工智能的工具性風(fēng)險(xiǎn)升級(jí)為價(jià)值性風(fēng)險(xiǎn)。在價(jià)值性風(fēng)險(xiǎn)階段,人工智能體逐漸脫離“人類制造”的智能,異化為一種獨(dú)立人類的它者,有著自身的運(yùn)作程式和生存機(jī)理,它們既不愿受制于阿西莫夫所規(guī)制的“機(jī)器人三定律”①,又可能以“自身”的“主體性”重構(gòu)智能體的它者秩序,與人類平分秋色,共享生存空間。這種智能體的價(jià)值性訴求,將會(huì)是人類有史以來(lái)最為嚴(yán)重的社會(huì)風(fēng)險(xiǎn)。面對(duì)人工智能技術(shù)已然形成的社會(huì)問題與即將到來(lái)的技術(shù)風(fēng)險(xiǎn),人類如何因應(yīng),是選擇鴕鳥心態(tài),聽之任之,還是主動(dòng)迎擊,展現(xiàn)造物主之擔(dān)當(dāng)?人類必須有所抉擇。

四、科技向善:人工智能風(fēng)險(xiǎn)的化解思考

2018年10月31日,習(xí)近平總書記在中共政治局集體學(xué)習(xí)會(huì)議上強(qiáng)調(diào):“要加強(qiáng)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判和防范,維護(hù)人民利益和國(guó)家安全,確保人工智能安全、可靠、可控”。為此,我們認(rèn)為規(guī)避人工智能風(fēng)險(xiǎn)必須經(jīng)由技術(shù)自身的發(fā)展邏輯然后達(dá)于人自身,通過更新人文治理理念、健全治理結(jié)構(gòu)、優(yōu)化治理工具等面向圈定技術(shù)發(fā)展邊界,最終堅(jiān)守“在技術(shù)發(fā)展面前維護(hù)人類尊嚴(yán)的底線”〔36〕。

(一)在治理理念上:審視人工智能迭代中技術(shù)邊界與人類底線的關(guān)聯(lián)性

技術(shù)邊界標(biāo)識(shí)技術(shù)作為工具性存在的質(zhì)的規(guī)定,體現(xiàn)為技術(shù)功能的有限和極限,人類底線則指人相對(duì)于自然法則而存在的人的主體性,以及作為人的精神特質(zhì)和精神生活而顯現(xiàn)的人的精神維度〔37〕。人類底線是人之為人的最低標(biāo)準(zhǔn),是人類區(qū)別于其他自然物種的根本屬性,而技術(shù)邊界體現(xiàn)了人類發(fā)揮主體性改造自然和社會(huì)關(guān)系的工具性能力,也歸屬于人類能夠駕馭的技術(shù)理性范疇。人類的底線為合理追求技術(shù)圈定了有效邊界。在技術(shù)邊界之內(nèi),人類可以憑借理性判斷維系正常的秩序空間與人類生存,而技術(shù)因滿足了人類需求而得以更新發(fā)展。人的底線思維標(biāo)識(shí)人類價(jià)值存在的基礎(chǔ)性要件,也是處理人與技術(shù)關(guān)系的最低尺度。在人工智能技術(shù)廣泛運(yùn)用于人類社會(huì)時(shí),這種底線維度不能喪失或淪陷,而必須得到應(yīng)有的重視與強(qiáng)化。原因在于人的主體性與技術(shù)的工具性。人類為了維護(hù)社會(huì)發(fā)展目的,必然要制造、使用工具,以釋放人類自身的生理局限,這是主體的人類之于工具性的要求。反之,如果人類喪失了底線思維,工具或技術(shù)成為主體,人類反制于技術(shù),則表明人性的泯滅與社會(huì)秩序瓦解,會(huì)衍生出系列社會(huì)風(fēng)險(xiǎn)。因此,強(qiáng)化人的底線思維與審視技術(shù)發(fā)展的邊界是今后人工智能技術(shù)推廣應(yīng)有的重要議題。

(二)在治理結(jié)構(gòu)上:構(gòu)筑人工智能風(fēng)險(xiǎn)化解的協(xié)同治理格局

人工智能風(fēng)險(xiǎn)的生成源于技術(shù)的客觀性缺陷與人類的主觀性動(dòng)機(jī),是高端技術(shù)嵌入人類社會(huì)系統(tǒng)的不確定性后果,這決定人工智能風(fēng)險(xiǎn)治理是政府、科學(xué)共同體、公民社會(huì)共同所面臨的亟待合作治理才能化解的一項(xiàng)艱巨任務(wù)。其一,在傳統(tǒng)治理模式中,政府作為風(fēng)險(xiǎn)社會(huì)的危機(jī)應(yīng)對(duì)主體,擁有化解技術(shù)風(fēng)險(xiǎn)的資源優(yōu)勢(shì),然而,由于人工智能的高端技術(shù)性與不確定性,其所衍生的技術(shù)風(fēng)險(xiǎn)更為復(fù)雜性、多樣性、嚴(yán)重性,致使單憑政府一己之力難以有效規(guī)制風(fēng)險(xiǎn)。其二,“科技風(fēng)險(xiǎn)具有無(wú)法預(yù)知性,科學(xué)共同體難以保持技術(shù)中立的立場(chǎng)去提供客觀可靠的知識(shí),各治理主體已經(jīng)不能單純依靠技術(shù)專家的建議展開治理實(shí)踐”〔38〕。其三,風(fēng)險(xiǎn)具有建構(gòu)性,是社會(huì)公眾基于所處時(shí)代環(huán)境與文化的前瞻性判斷,然而在人工智能所引領(lǐng)的時(shí)代中,社會(huì)公民由于無(wú)法獲取類似于政府或高端技術(shù)企業(yè)的知識(shí)優(yōu)勢(shì),在風(fēng)險(xiǎn)感知與建構(gòu)上缺少話語(yǔ)表達(dá)權(quán),將加劇人類風(fēng)險(xiǎn)治理的難度。這三類主體化解技術(shù)風(fēng)險(xiǎn)的能力缺陷,致使人類社會(huì)進(jìn)入了科林格里奇困境①。改變這種困境的可能路徑建要通過構(gòu)建一種良性互動(dòng)、橫縱聯(lián)通的協(xié)同共治機(jī)制。人工智能風(fēng)險(xiǎn)的協(xié)同治理機(jī)制涵蓋政府組織、非政府組織、專家團(tuán)體以及公眾等多元主體。這種治理機(jī)制可以“利用各自優(yōu)勢(shì)而逐漸組成技術(shù)治理的決策權(quán)威聯(lián)盟”〔39〕以克服“沒有任何一個(gè)機(jī)構(gòu)能夠提供支撐決策的全部知識(shí)”〔40〕的決策難題,而且“整個(gè)決策過程可由共同行動(dòng)對(duì)象網(wǎng)絡(luò)代替等級(jí)關(guān)系領(lǐng)導(dǎo)來(lái)完成”〔41〕,最終實(shí)現(xiàn)政府單一治理體系向多元主體協(xié)同共治的模式轉(zhuǎn)變。從協(xié)同方式看,人工智能治理風(fēng)險(xiǎn)的協(xié)同治理機(jī)制在于打破傳統(tǒng)風(fēng)險(xiǎn)治理的命令——控制模式,倡導(dǎo)政府與非政府組織、公民等利益主體之間的民主協(xié)商與平等互動(dòng)網(wǎng)絡(luò),構(gòu)建“主體間默契配合、井然有序的自發(fā)和自組織集體行動(dòng)過程,通過集體的自組織行為實(shí)現(xiàn)社會(huì)治理資源配置效用最大化和社會(huì)系統(tǒng)整體功能的提升”〔42〕,進(jìn)而促進(jìn)人工智能風(fēng)險(xiǎn)的有效治理。

(三)在治理工具上:優(yōu)化人工智能風(fēng)險(xiǎn)治理的多樣載體

公共政策學(xué)認(rèn)為,治理工具是政策主體依治理形勢(shì)所采納使用而促使政策共識(shí)落地,并轉(zhuǎn)化為治理目標(biāo)的中介手段與途徑。在人工智能風(fēng)險(xiǎn)化解中,治理工具一般涵蓋“國(guó)家科技規(guī)劃、行政法規(guī)、財(cái)政資金與基礎(chǔ)設(shè)施等為代表的政府性工具,也有價(jià)值敏感性設(shè)計(jì)、社會(huì)技術(shù)愿景、建構(gòu)性因素評(píng)估、監(jiān)管式自治、技術(shù)利基等科學(xué)共同體為主導(dǎo)的治理工具,還有公民社會(huì)通過非正式或經(jīng)政府授權(quán)或賦權(quán)的治理工具”〔43〕三類??傮w看,政府、科技共同體、公民社會(huì)的三類主體所設(shè)計(jì)與選用的工具呈現(xiàn)出剛性與柔性之特色,僅憑單一類治理工具難以實(shí)現(xiàn)人工智能風(fēng)險(xiǎn)的治理目標(biāo),需要通過優(yōu)化、整合多樣化的治理工具,才能發(fā)揮人工智能風(fēng)險(xiǎn)治理的最優(yōu)效能。其一,就政府主體而言,人工智能風(fēng)險(xiǎn)治理需要堅(jiān)持多層級(jí)立法互補(bǔ)原則適時(shí)出臺(tái)相關(guān)法律體系。在國(guó)家層面對(duì)民事商事法、行政法、刑法、經(jīng)濟(jì)法等現(xiàn)行法律制度進(jìn)行修訂,使之適應(yīng)人工智能的發(fā)展需要;在中間層面,要通過國(guó)務(wù)院行政法規(guī)項(xiàng)目推動(dòng)制定“機(jī)器人使用安全管理?xiàng)l例”等;在地方性立法層面,要出臺(tái)人工智能在政務(wù)、家居、醫(yī)療衛(wèi)生等領(lǐng)域的應(yīng)用發(fā)展與風(fēng)險(xiǎn)防治②等具體地方性規(guī)章。其二,要提升科技共同體的行業(yè)倫理建設(shè),增強(qiáng)人工智能風(fēng)險(xiǎn)化解的可操作性。2019年6月17日,國(guó)家新一代人工智能治理專業(yè)委員會(huì)發(fā)布《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,提出人工智能治理的框架和行動(dòng)指南,強(qiáng)調(diào)和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理等八條原則。這些原則有助于治理人工智能發(fā)展過程中的有限理性、利益導(dǎo)向以及防范類人主體性,然而由于這些原則多屬于抽象性、概括性、原則性的話語(yǔ)表述,對(duì)人工智能風(fēng)險(xiǎn)的治理是否帶有實(shí)踐層面的價(jià)值則有待實(shí)際檢驗(yàn)。今后需要從操作層面上,制定防范人工智能風(fēng)險(xiǎn)的管治策略。其三,要加強(qiáng)人工智能技術(shù)知識(shí)的普及度,提升公民個(gè)體對(duì)人工智能風(fēng)險(xiǎn)的感知能力與化解能力。上文已從風(fēng)險(xiǎn)涉及面,談及人工智能將會(huì)沖擊網(wǎng)絡(luò)安全、社會(huì)就業(yè)、法律倫理等問題,同時(shí)從風(fēng)險(xiǎn)產(chǎn)生路徑,分析人工智能風(fēng)險(xiǎn)從工具性到價(jià)值性的階段躍遷。這兩個(gè)層面的認(rèn)知超出了社會(huì)公民的一般風(fēng)險(xiǎn)感知能力,長(zhǎng)此以往將會(huì)造成人類對(duì)人工智能風(fēng)險(xiǎn)的內(nèi)心焦慮與心智失序,而這需要在政府關(guān)于人工智能風(fēng)險(xiǎn)知識(shí)的系統(tǒng)化普及和制度性救濟(jì),構(gòu)筑社會(huì)公民對(duì)人工智能風(fēng)險(xiǎn)的理性認(rèn)知。通過優(yōu)化、組合政府組織的立法、科技行業(yè)的倫理自律、社會(huì)公民的風(fēng)險(xiǎn)感知等多樣治理工具,方能在發(fā)展人工智能技術(shù)的同時(shí),有效規(guī)制人工智能附加于人類的技術(shù)風(fēng)險(xiǎn)。

人工智能風(fēng)險(xiǎn)是因人工智能技術(shù)的不確定性所誘發(fā)的對(duì)人類經(jīng)濟(jì)結(jié)構(gòu)、社會(huì)秩序、倫理道德乃至生存安全等方面的可能性后果。風(fēng)險(xiǎn)技術(shù)即技術(shù)缺陷,技術(shù)風(fēng)險(xiǎn)即技術(shù)后果,兩者互為因果共筑人工智能風(fēng)險(xiǎn)的客觀現(xiàn)實(shí)性、主觀建構(gòu)性、技術(shù)非人性等特征,致使人工智能風(fēng)險(xiǎn)成為風(fēng)險(xiǎn)社會(huì)的一種新的風(fēng)險(xiǎn)類型。同時(shí),人類在推動(dòng)人工智能邁向風(fēng)險(xiǎn)社會(huì)的叢林中,裹挾著資本與權(quán)力的合謀、技術(shù)人性與物性的撕裂以及人類有限理性與無(wú)限欲望的悖論,這是人類社會(huì)必須解決的時(shí)代議題。雖然我們不可能像盧梭所提倡的那樣,返回到原始的、未經(jīng)文明“污染”的狀態(tài),從而完全放棄和拒絕技術(shù),但是我們可以通過更新人文治理理念、構(gòu)建協(xié)同治理機(jī)制、優(yōu)化多樣治理工具等途徑,并以詩(shī)意化方式對(duì)待技術(shù)與人類的關(guān)系,進(jìn)而有效規(guī)避人工智能風(fēng)險(xiǎn),最終實(shí)現(xiàn)人之為人的本性追求。

〔參考文獻(xiàn)〕

〔1〕 劉盾,劉健,徐東波.風(fēng)險(xiǎn)預(yù)測(cè)與憂患深思:人工智能對(duì)教育發(fā)展的沖擊與變革——哲學(xué)與倫理的思考〔J〕.高教探索,2019,(7).

〔2〕 馬長(zhǎng)山.人工智能的社會(huì)風(fēng)險(xiǎn)及其法律規(guī)制〔J〕.法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2018,(6).

〔3〕 張凌寒.風(fēng)險(xiǎn)防范下算法的監(jiān)管路徑研究〔J〕.交大法學(xué),2018,(4).

〔4〕 熊波.人工智能刑事風(fēng)險(xiǎn)的樣態(tài)評(píng)價(jià)與規(guī)制理念〔J〕.探索與爭(zhēng)鳴,2019,(5).

〔5〕 姚萬(wàn)勤.對(duì)通過新增罪名應(yīng)對(duì)人工智能風(fēng)險(xiǎn)的質(zhì)疑〔J〕.當(dāng)代法學(xué),2019,(3).

〔6〕 王燕玲,韓蓄.人工智能體的刑事風(fēng)險(xiǎn)與應(yīng)對(duì)措施〔J〕.學(xué)習(xí)與實(shí)踐,2019,(3).

〔7〕 〔英〕維克托·邁爾·舍恩伯格,肯尼思·庫(kù)克耶.大數(shù)據(jù)時(shí)代:生活、工作與思維的大變革〔M〕.盛楊燕,周濤譯.杭州:浙江人民出版社,2018.193.

〔8〕 閆坤如,馬少卿.人工智能倫理問題及其規(guī)約之徑〔J〕.東北大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2018,(4).

〔9〕 張學(xué)博.人工智能的憲制想象——從歷史的觀點(diǎn)切入〔J〕.理論視野,2018,(5).

〔10〕 萬(wàn)昆.人工智能技術(shù)帶來(lái)的就業(yè)風(fēng)險(xiǎn)及教育因應(yīng)〔J〕.廣西社會(huì)科學(xué),2019,(6).

〔11〕 李穎.人工智能時(shí)代技術(shù)進(jìn)步對(duì)就業(yè)影響的研究述評(píng)〔J〕.黨政研究,2019,(4).

〔12〕 高奇琦.人工智能時(shí)代發(fā)展中國(guó)家的“邊緣化風(fēng)險(xiǎn)”與中國(guó)使命〔J〕.國(guó)際觀察,2018,(4).

〔13〕 王小芳,王磊.“技術(shù)利維坦”:人工智能嵌入社會(huì)治理的潛在風(fēng)險(xiǎn)與政府應(yīng)對(duì)〔J〕.電子政務(wù),2019,(5).

〔14〕 唐鈞.人工智能的風(fēng)險(xiǎn)善治研究〔J〕.中國(guó)行政管理,2019,(4).

〔15〕〔17〕 〔英〕安東尼·吉登斯.現(xiàn)代性的后果〔M〕.田禾譯.南京:譯林出版社,2004.115,52.

〔16〕 〔法〕烏爾里?!へ惪耍灿ⅰ嘲矕|尼·吉登斯,〔英〕斯科特·拉什.自反性現(xiàn)代化〔M〕.趙文書譯.北京:商務(wù)印書館,2001.5.

〔18〕 〔法〕烏爾里希·貝克.風(fēng)險(xiǎn)社會(huì)政治學(xué)〔J〕.劉寧寧,沈天霄編譯.馬克思主義與現(xiàn)實(shí),2005,(3).

〔19〕 James Barrat.2013.Our Final Invention: Artificial Intelligence and the End of the Human Era. Thomas Dunne Books, New York.

〔20〕 劉紅波,林彬.中國(guó)人工智能發(fā)展的價(jià)值取向、議題建構(gòu)與路徑選擇——基于政策文本的量化研究〔J〕.電子政務(wù),2018,(11).

〔21〕 Yampolskiy R V, Spellchecker M S.Artificial Intelligence Safety and Cybersecurity: a Timeline of AI Failures〔J〕.2016.

〔22〕〔23〕〔37〕 劉同舫.技術(shù)的當(dāng)代哲學(xué)視野〔M〕.北京:人民出版社,2017.7,10,5-6.

〔24〕 Yampolskiy R V, Spellchecker M S.Artificial Intelligence Safety and Cybersecurity: a Timeline of AI Failures〔J〕.2016,16-17.

〔25〕 高奇琦.人工智能:馴服賽維坦〔M〕.上海:上海交通大學(xué)出版社,2018.190.

〔26〕 〔德〕岡特·紹伊博爾德.海德格爾分析新時(shí)代的技術(shù)〔M〕.宋祖良譯.北京:中國(guó)社會(huì)科學(xué)出版社,1993.207.

〔27〕 〔美〕赫伯特·馬爾庫(kù)賽.單向度的人〔M〕.張峰,等譯.重慶:重慶出版社,1988.25.

〔28〕 N.Wiener.Some moral and technical consequences of automation,Science,Vol.3410(1960).

〔29〕 A.M.Olson.Review:Jaspers,Heideffer,and‘The Phantom of Exitentialism,Human Studies,Vol.7,1984(3/4):387-395.

〔30〕 〔南非〕伊恩·戈?duì)柖?,〔加〕克里斯·柯塔納.發(fā)現(xiàn)的時(shí)代:21世紀(jì)風(fēng)險(xiǎn)指南〔M〕.李果譯.北京:中信出版社,2017.53.

〔31〕 Colin Garvey.AI Risk Mitigation Through Democratic Governance:Introducing the 7-Dimensional AI Risk Horizon.AIES18,F(xiàn)ebruary 2-3,2018,New Orleans,LA, USA.https://doi.org/10.1145/3278721.3278801.

〔32〕 Cathy ONeil.2016.Weapons of Math Destruction: How Big Data Increases Inequality and Threatens Democracy.Broadway Books,New York.

〔33〕 Aylin Caliskan,Joanna J.Bryson,and Arvind Narayanan.2017.Semantics Derived Automatically from Language Corpora Contain Human-like Biases.Science 356(6334),183-186.

〔34〕 〔美〕尼爾·波茲曼.技術(shù)壟斷:文明向技術(shù)投降〔M〕.北京:機(jī)械工業(yè)出版社,2013.

〔35〕 廉師友.人工智能技術(shù)導(dǎo)論〔M〕.西安:西安電子科技大學(xué)出版社,2000.1.

〔36〕 田海平,鄭春林.人工智能時(shí)代的道德:讓算法遵循“善法”〔J〕.東南大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2019,(5).

〔38〕 Kathrin Braun,Cordula Kropp.Beyond Speaking Truth: Institutional responses to Uncertainty in Scientific Governance〔J〕.Science,Technology & Human Values,2010,35(6):771-782.

〔39〕 譚九生,楊建武.人工智能技術(shù)的倫理風(fēng)險(xiǎn)及其協(xié)同治理〔J〕.中國(guó)行政管理,2019,(10).

〔40〕 Newman J. Modernising Governance. London:SAGA,2001.

〔41〕 Bache J. Governing Through Governance: Education Policy Control Under New Labour.Political Studies,2003,52(2).

〔42〕 范如國(guó).復(fù)雜網(wǎng)絡(luò)結(jié)構(gòu)范型下的社會(huì)治理協(xié)同創(chuàng)新〔J〕.中國(guó)社會(huì)科學(xué),2014,(4).

〔43〕 朱本用,陳喜樂.試論科技治理的柔性模式〔J〕.自然辨證法研究,2019,(10).

【責(zé)任編輯:朱鳳霞】

猜你喜歡
風(fēng)險(xiǎn)社會(huì)人工智能
人工智能之父
2019:人工智能
人工智能與就業(yè)
數(shù)讀人工智能
強(qiáng)制個(gè)體化的風(fēng)險(xiǎn):女性自我認(rèn)同危機(jī)與生活困境
全球治理下的外層空問國(guó)際環(huán)境法治問題
風(fēng)險(xiǎn)社會(huì)背景下大學(xué)生安全意識(shí)及防范能力調(diào)查
論風(fēng)險(xiǎn)社會(huì)下生態(tài)文明建設(shè)中新聞媒體角度的塑造
下一幕,人工智能!
下一幕,人工智能!