張 樂,童 星
(1.山東大學 生活質(zhì)量與公共政策研究中心,山東 威海264209;2.南京大學 社會風險與公共危機管理研究中心,江蘇 南京210023)
當前,人工智能正深刻地影響著經(jīng)濟社會發(fā)展乃至國際政治經(jīng)濟格局。世界主要發(fā)達經(jīng)濟體幾乎同時將人工智能納入重大戰(zhàn)略,加快部署。中華人民共和國《國民經(jīng)濟和社會發(fā)展第十四個五年規(guī)劃和2035年遠景目標綱要》更是將人工智能技術列入重點攻關計劃。在可期的時間內(nèi),中國的人工智能或?qū)⒃诨A研究投入顯著增加、重大創(chuàng)新平臺持續(xù)建設、企業(yè)創(chuàng)新能力不斷提高和人才隊伍活力日益增強等利好環(huán)境下迎來爆發(fā)式突破。國家和地方政策的加持也將增強投資者的信心,資本市場對人工智能的追捧會加速技術的成熟與商用。人工智能迸發(fā)出的革命性力量越強,國家、市場和普通人越是對其寄予厚望,社會越是應該對這股發(fā)展熱潮中的不確定性及其帶來未知風險與挑戰(zhàn)多做些“冷思考”。本文從交互視角闡釋人工智能發(fā)展的動力機制和風險生成機理,嘗試揭示其動力與生機中的阻礙與危機。希望借助此類分析,為加強人工智能風險的前瞻預防與約束引導提供政策依據(jù),進而最大限度降低發(fā)展中的主要風險,確保人工智能始終在安全、可靠、可控的道路上健康發(fā)展。
驅(qū)動一項新興技術快速發(fā)展的因素多種多樣,就目前可觀察到的人工智能的發(fā)展狀況而言,技術進化的內(nèi)生力、投資效應和政策扶持是三個最主要的動因,它們會首先按照各自領域的運行規(guī)律推動人工智能的發(fā)展。
人工智能被認為是新一代的“通用技術”(General Purpose Technology,GPT)①所謂“通用技術”是指那些可識別為通用產(chǎn)品、流程或組織形式的技術。通俗講就是存在多種用途、能應用到政治、經(jīng)濟、文化、社會的各個領域,有很強溢出效應的技術類型。,具有巨大的發(fā)展前景。盡管未來人工智能可能會進入強人工智能甚至超人工智能階段,超出單純“物”的界定,但目前看,人工智能依然屬于技術范疇,是人類為了自身某些目的而對自然原理的捕捉、駕馭和開發(fā)利用的工具系統(tǒng)。人類科技史表明,基于不斷滿足人類需求的技術進步動力永不枯竭,技術系統(tǒng)作為人類文明不可或缺的體系,早已自成一體,具有“自我創(chuàng)生”的能力:技術提供問題的解決方案,每次技術的進步或更新都會解決一些難題,同時包含著新問題的種子,進而形成“問題—技術解決方案—新問題—技術更新”的遞歸循環(huán)(布萊恩·阿瑟,2018)。[1]由此,技術系統(tǒng)獲得了持續(xù)不斷的新穎性和源源不斷的發(fā)展動力。
人工智能系統(tǒng)非常復雜,大致包括基礎層(數(shù)據(jù)和計算能力)、技術層(系統(tǒng)框架和算法技術)與應用層(通用應用和行業(yè)應用)三大層級。限于篇幅,本文僅以算法這個人工智能核心技術層的演進為例來展開。算法的突破性進展大體可分為三個階段:(1)簡單感知階段。20世紀50年代,神經(jīng)模擬計算研究有了新發(fā)展。羅森布拉特(Rosenblatt)的感知器模型通過算法定義出精確的神經(jīng)網(wǎng)絡學習規(guī)則,從而實現(xiàn)對大腦學習的簡單結構和效果模擬。該算法用在像素識別與分類中獲得成功,帶動了人工智能發(fā)展的第一個高峰。不過,感知器算法模型存在著缺陷:單層感知網(wǎng)絡無法解決非線性可分問題,加之網(wǎng)絡模擬示范點計算力超過了當時算力的極限,這讓人工智能陷入技術瓶頸。(2)多層神經(jīng)網(wǎng)絡階段。遺留的難題隨著“反向傳播算法”的出現(xiàn)而得到解決。明斯基(Minsky)等人提出采用多層神經(jīng)網(wǎng)絡函數(shù)表達來解決非線性可分問題的具體方法,帶來了人工智能解決復雜問題的希望。1989年,辛頓(Hinton)等研究者開發(fā)的“卷積神經(jīng)網(wǎng)絡”算法成功讀取了銀行支票上的手寫數(shù)字,帶動了人工智能第二波研發(fā)熱潮。但算法多重網(wǎng)絡梯度衰減引發(fā)的神經(jīng)網(wǎng)絡計算停滯拖慢了機器學習的速度,參數(shù)過多、學習自由度太大又帶來過度擬合等問題,無法真正實現(xiàn)商用推廣。(3)深度學習階段。若干年后,隨著辛頓等人的無監(jiān)督學習算法的成熟,機器學習進入深度學習階段。該算法較好地解決了梯度衰減和神經(jīng)網(wǎng)絡訓練誤差等難題,后續(xù)的“丟棄算法”進一步提高了模型的擬合精度,大數(shù)據(jù)的存儲也讓算法訓練大幅度提高(尼克,2017;俞祝良,2017;施鶴群,2020)。[2-4]2010年以來,隨著GPU等硬件的發(fā)展和“云計算”的普及,大量的計算資源被提供給高性能算力使用,不斷突破機器學習的技術限制,讓深度學習越發(fā)成熟,人工智能被廣泛應用在圖像識別等領域,獲得了極高的商用價值。
馬克思和恩格斯認為,資本有一種生活本能,就是增殖自身(中共中央編譯局,2009)。[5]資本增值的邏輯是現(xiàn)代社會經(jīng)濟發(fā)展的主導動力;資本主要通過對生產(chǎn)工具、產(chǎn)業(yè)部門直至生產(chǎn)方式、生產(chǎn)關系的不斷變革等方式實現(xiàn)增值。盡管當代經(jīng)濟的發(fā)展存在金融資本自我增值的現(xiàn)象,但大多數(shù)資本的增值活動還是發(fā)生在實體經(jīng)濟當中,通過投資與技術緊密結合形成“資本—技術”密集型產(chǎn)業(yè)集群的方式來實現(xiàn)價值最大化。正如馬克思所言,資本不創(chuàng)造科學,但是它為了生產(chǎn)過程的需要,利用科學,占有科學(中共中央編譯局,2009)。[6]資本最擅長的就是將它認為有利可圖的事物包括高度理想化的、抽象的、形式化的技術轉(zhuǎn)化為空前的生產(chǎn)力。在這一轉(zhuǎn)化過程中,投資技術的市場風險很高,為了最大限度地規(guī)避風險,專利保護制度應運而生:一方面,法律保護專利權人對其發(fā)明創(chuàng)造依法享有排他性獨占權,憑借專利技術獲取市場優(yōu)勢,得到更多超額利潤,實現(xiàn)資本更大增值;另一方面,專利還可以被有條件地公開復制,通過付費方式向他人轉(zhuǎn)讓或許可使用,利用專利賦予的增殖服務同樣可以達到資本增值的目的。
上述人工智能技術經(jīng)歷的“三起兩落”的波動,背后皆與資本“大量涌入和快速撤資”直接相關。資本推動人工智能技術發(fā)展的形式主要有三種:(1)資本風投。以國內(nèi)為例,據(jù)億歐智庫的統(tǒng)計,2012—2020年,中國AI私募投資頻數(shù)年復合增長率為68%,2014—2018年年均投資額約為1300億元,單筆平均投資額達4.1億元(張一豪,2020)。[7]資本的大量涌入催生了數(shù)以千計的人工智能企業(yè),促進了人工智能技術的成熟和商業(yè)落地能力的增強。(2)資本并購。在過去十年里,超過600家全球AI創(chuàng)業(yè)公司被收購,收購方主要集中于巨型科技企業(yè)。以美國為例,僅在2018年,蘋果收購了20家,谷歌收購了14家,微軟收購了10家(陳林,2020)。[8]在中國,騰訊、阿里、百度、華為、京東、科大訊飛等平臺企業(yè),同樣是人工智能科技產(chǎn)業(yè)發(fā)展的主導者,通過資助開發(fā)和資本并購的方式發(fā)展各自的人工智能技術。(3)專利壟斷。國家工業(yè)信息安全發(fā)展研究中心(2020)《人工智能中國專利技術分析報告》顯示,中國人工智能領域的專利申請量總體上呈逐年上升趨勢,2018年達到70281件,是2010年申請量的近20倍。在人工智能專利申請量和授權量方面,百度分別以9364件專利申請和2682件專利授權處于第1位,騰訊、浪潮、華為、阿里以及西安電子科技大學、國家電網(wǎng)公司、浙江大學等都居前列。[9]
政策通常以技術發(fā)展的外部環(huán)境形態(tài)出現(xiàn),是影響技術發(fā)展的關鍵因素。中國在2017年以國務院的名義發(fā)布《新一代人工智能發(fā)展規(guī)劃》,美國在2016年發(fā)布《國家人工智能研究和發(fā)展戰(zhàn)略計劃》,歐盟在2019年發(fā)布《人工智能戰(zhàn)略計劃》。各國戰(zhàn)略規(guī)劃目標明確,那就是維護國家安全并贏得國際競爭。在策略方向上,各國都試圖通過政策引導甚至是直接參與的方式來推動人工智能的快速發(fā)展。人工智能國家戰(zhàn)略對外是國際競爭宣言,對內(nèi)則是發(fā)展目標指南。國際競爭壓力傳導到國內(nèi),通過國內(nèi)政策分解與階段性實施的形式再傳導給地方,成為地方政策落實的抓手。
我國推動人工智能發(fā)展采用的是“國家戰(zhàn)略統(tǒng)籌、地方競爭落實”的政府主導模式。其最大特點就是“使命驅(qū)動型創(chuàng)新”(Mission-Oriented Innovation)(張學文和陳勁,2019)[10]:國家基于重大戰(zhàn)略和公共利益考量推動的技術攻堅創(chuàng)新。政策對人工智能發(fā)展的扶持傳導分為三個方面:(1)國家采用目標導向和資金稅收刺激導向,雙管齊下地提高地方和行業(yè)發(fā)展人工智能的積極性。在國家《新一代人工智能發(fā)展規(guī)劃》(下文簡稱《發(fā)展規(guī)劃》)①如未特殊說明,文中的國家政策規(guī)劃都是指《新一代人工智能發(fā)展規(guī)劃》。里,明確指出發(fā)展人工智能的戰(zhàn)略意義、基本原則,制定了戰(zhàn)略步驟、總體目標要求和可量化指標,發(fā)布了人工智能發(fā)展的重點任務,提出了資源配置、保障措施與實施路徑。這一戰(zhàn)略規(guī)劃的政策意圖非常明顯:“通過全方位的智能化建設,全面提升社會生產(chǎn)力、綜合國力和國家競爭力,加快建設創(chuàng)新型國家和世界科技強國,為國家民族復興提供強大支撐。”在具體發(fā)展指標里,要求人工智能核心產(chǎn)業(yè)規(guī)模從2020年的1500億元發(fā)展到2030年超1萬億元,帶動相關產(chǎn)業(yè)規(guī)模從1萬億元增加到10萬億元(國務院,2017)。[11]國家還通過預算內(nèi)資金、專項建設基金、工業(yè)轉(zhuǎn)型升級基金、國家重大科研計劃等渠道給發(fā)展人工智能提供充足的資金支持。2019年,科技部印發(fā)《國家新一代人工智能創(chuàng)新發(fā)展試驗區(qū)建設工作指引》(國科發(fā)規(guī)〔2019〕298號)①2020年9月,科技部根據(jù)中央和習近平總書記的重要指示批示精神對《國家新一代人工智能創(chuàng)新發(fā)展試驗區(qū)建設工作指引》進行了修訂,進一步明確國家新一代人工智能創(chuàng)新發(fā)展試驗區(qū)的總體要求、重點任務、申請條件、建設程序和保障措施,為打造新一代人工智能創(chuàng)新發(fā)展的地方樣板奠定了政策基礎。,鼓勵地方政府在體制機制、政策法規(guī)等方面先行先試,逐步形成促進人工智能與經(jīng)濟社會發(fā)展深度融合的格局。(2)地方政策跟進與落實。地方政府按照中央的戰(zhàn)略部署分別制定符合自身條件和發(fā)展目標的實施細則,包括分解目標、具體的支持內(nèi)容、可量化的扶持工具和地方特色發(fā)展重點等。相關研究表明,2017年國家戰(zhàn)略規(guī)劃出臺后,地方性人工智能政策跟進速度非???,政策種類和數(shù)量都大幅度增加(宋偉和夏輝,2019;陳小亮和陳彥斌,2019;袁野等,2021)。[12-14]不過,這些地方配套主要屬于供給型政策,在目標規(guī)劃、金融支持和稅收優(yōu)惠上發(fā)力較多,在相關法律法規(guī)建設、風險治理、基礎研究投入等方面關注較少。(3)政策推進競標賽。在“央地關系”結構性背景下,人工智能發(fā)展表現(xiàn)出“地方錦標賽”的特點。一是目前超半數(shù)的?。ㄊ小^(qū))出臺了人工智能發(fā)展規(guī)劃與實施細則,展現(xiàn)出各地爭相落實中央決策的積極性;二是地方政策關注的重點都集中在人工智能產(chǎn)業(yè)集群培育、高端人才培養(yǎng)、智能服務平臺打造等方面,政策同質(zhì)性較強;三是地方競爭加劇導致政策偏向應用型人工智能產(chǎn)業(yè)的扶持。
技術、資本和政策三方驅(qū)動下的人工智能技術迭代、產(chǎn)業(yè)化規(guī)模和商用價值都得到了提升或增加,人工智能越來越多地被應用在生產(chǎn)生活的各個領域,科技賦能的效果明顯。在這一片欣欣向榮之中也蘊含著安全隱患和各種風險,正隨著人工智能的持續(xù)發(fā)展而日益顯露。
1.技術對資本的裹挾及風險
其一,技術控制資本封存其內(nèi)生風險。技術一旦獲得足夠的資金支持,就有可能不斷增強自身能力,反過來“控制”資本。資本把占領市場先機、推動技術商用落地看作是第一要務,一些關鍵核心技術被冠之以商業(yè)秘密嚴加保護,而對技術內(nèi)在漏洞及其潛在風險的關注較少。這就很容易讓自家技術固有的安全漏洞被“封存”起來。以算法技術最為依賴的大數(shù)據(jù)領域為例,當前人工智能數(shù)據(jù)資產(chǎn)已開始出現(xiàn)寡頭壟斷的態(tài)勢,互聯(lián)網(wǎng)產(chǎn)生的數(shù)據(jù)資產(chǎn)半數(shù)都集中在100家左右的頭部企業(yè),這些頭部企業(yè)對數(shù)據(jù)開放持謹慎態(tài)度(中國信息通信研究院,2021)。[15]它們憑借自身優(yōu)勢數(shù)據(jù)進行人工智能算法研究和驗證,根本不會與其他公司更遑論公眾分享數(shù)據(jù)及其算法成果,“有限理性”常常使它們自己也不太清楚設計出的算法究竟存在哪些漏洞,這就導致技術內(nèi)部風險(如精確度不高、識別度差、能效比低、系統(tǒng)不穩(wěn)定等)擴散到實驗室之外。
其二,技術收益遮蔽風險讓資本放松監(jiān)管。杰里米·里夫金(2014)在《零邊際成本社會》中預言,隨著市場競爭和技術創(chuàng)新,生產(chǎn)力發(fā)展終將躍過“終點線”,即商品生產(chǎn)的邊際成本趨向于零。[16]在該模式下,技術的持續(xù)改進會讓產(chǎn)品性能和服務質(zhì)量得以持續(xù)提高,會給資本帶來可見的、不斷增長的收益。如今,人工智能技術的快速發(fā)展讓資本看到了生產(chǎn)率足夠高、價格足夠低的零邊際成本的增長模式實現(xiàn)的希望。技術帶來的巨大收益將“遮蔽”技術風險,資本會誤認為,技術即便有漏洞和———— ———不完善的地方,與其帶來的收益相比也是可以接受的。技術與資本間的互惠使資本加強了對技術帶來高附加值的期待,放松了對技術風險的監(jiān)管自覺,埋下并積累了隱患。
其三,人工智能技術改變著資本主導的生產(chǎn)方式,增強了資本對勞動的控制,在一定程度上激化了勞資矛盾的風險。人工智能催生的新業(yè)態(tài)讓勞動者看似可以“自由”地選擇工作平臺、工作時間,實則又陷入App、智能算法等數(shù)字機器體系所左右的數(shù)字泰勒主義的控制之中(Staab和Nachtwey,2016)。[17]掌握數(shù)字網(wǎng)絡平臺的科技巨頭競相通過操作系統(tǒng)授用、應用程序編程接口和標準開發(fā)工具包等方式,精心構筑“帶圍墻的花園”(walled garden),攫取并壟斷呈指數(shù)級增長的海量數(shù)據(jù)(黃再勝,2020)。[18]各種算法等數(shù)字機器對源源不斷的人類生產(chǎn)生活信息進行“二次加工”,形成功能各異的數(shù)據(jù)產(chǎn)品或服務,人工智能技術在生產(chǎn)環(huán)節(jié)被用來優(yōu)化生產(chǎn)流程、控制員工行為,成為“壓榨”員工勞動的“幫兇”。無處不在的數(shù)字監(jiān)控和數(shù)字化績效考核,不斷侵蝕勞動的自主性,把數(shù)字勞工的勞動強度推向極限,勞資沖突的風險在這一過程中進一步累積。
2.資本對技術發(fā)展的操控及風險
其一,資本會促逼①德語中,促逼(Herausfordern)有挑釁和挑戰(zhàn)的意思。海德格爾在關于技術本質(zhì)的論述中使用了促逼,意指一種把自然功能化、齊一化的技術模式,是人類要求自然提供出能量及其蘊藏著的能效的開發(fā)行徑。本文將其用在技術與資本關系闡釋上,以描述資本對技術的利用狀況與程度。人工智能商業(yè)落地,導致技術領域的短視行為激增。由于資本先天對“高風險”的厭惡本能,它們更青睞那些短線的、能快速見到效益的技術項目,因此人工智能應用類技術項目獲得了大量投資。2012—2018年,中國人工智能投資呈現(xiàn)爆發(fā)式增長,其中行業(yè)解決方案、智能風控、智能影像診療、智能營銷等技術應用資金熱度最高,相比之下,資本對人工智能基礎層的投資則非常保守,針對基礎元件、AI芯片的投資頻數(shù)占比不足20%(張一豪,2020)。[7]資本促逼下的技術短視行為造成了技術力量的分散化,難以形成合力以開展核心技術的攻堅。為了生存,一些人工智能科技公司特別是小型的初創(chuàng)公司會把大量的技術力量投入短平快的技術應用開發(fā)項目上,做出一些打著人工智能旗號的低端產(chǎn)品,競爭力不強,市場淘汰風險大。
其二,資本對技術倫理的直接干預導致內(nèi)部倫理審查失守。資本對增加安全性而進行的研究普遍缺乏耐心。如果資本意識到技術性能改進之外的設計將延遲產(chǎn)品服務投放市場的周期,則很容易做出干預技術的決定,這些干預在技術倫理審查領域較為突出。目前,業(yè)界對與人工智能配套的倫理規(guī)范和法律法規(guī)尚未達成共識,僅有少數(shù)科技公司自行制定的技術倫理宣言或類行業(yè)準則。例如,2019年,谷歌公司曾成立過內(nèi)部倫理審查委員會,較早提出“技術不作惡”的倫理宣言。但該倫理審查與公司商業(yè)利益相悖,這個委員會僅存在一周就不得不宣告解散。可見,為保護公眾安全與用戶利益的科技倫理多數(shù)時候還是要讓位于資本增值的目標。
其三,資本迫使技術幫其實施操縱式牟利活動。算法技術原本可以提高機器的識別效率,相關應用的開發(fā)原本是為了更好地了解用戶需求,從而改善用戶體驗。資本在這里卻發(fā)現(xiàn)了“商機”,一些互聯(lián)網(wǎng)平臺企業(yè)濫用市場支配地位,憑借數(shù)據(jù)和算法優(yōu)勢操縱價格體系,出現(xiàn)了所謂的“殺熟”現(xiàn)象。企業(yè)越是熟悉用戶的習慣和價格偏好,越有機會實施有區(qū)別的定價策略,那些對企業(yè)服務或產(chǎn)品越忠實的用戶受到不公平待遇的概率就越大。這些行為背后都有資本的幕后推動。資本為了獲取超額利潤,會授意乃至迫使人工智能技術部門服務于資本增值的需要。這時的技術要么由于本身隸屬于企業(yè),只能聽命于資本;要么因被資本購買了服務,同樣需要幫其攫取利潤。
1.政策對技術的復雜態(tài)度及風險
政策對技術存在“扶持和監(jiān)管”兩種態(tài)度,二者的狀態(tài)將影響技術發(fā)展空間、成長速度和應用落地機會及效果。就當前國內(nèi)政策對人工智能的態(tài)度看,鼓勵與扶持多于限制與監(jiān)管。對于人工智能發(fā)展帶來的道德、法律和社會影響雖然有提及,但政策采取了“無需批準式”監(jiān)管邏輯(賈開和蔣余浩,2017),強調(diào)除非有充分案例證明其危害性,否則新技術和新商業(yè)模式都是允許的。[19]在這種情況下,“技術作惡”給用戶利益乃至國家安全帶來的損失與威脅也越來越大。
一是政策監(jiān)管缺失給國家安全帶來極大的不確定性。在政權安全方面,人工智能日益強大的信息采集、分析、加工和傳播能力一旦不受約束或被利益集團、敵對勢力控制,就存在被直接用于制造國內(nèi)政治議程、干擾內(nèi)部政治生態(tài)、破壞國內(nèi)政權穩(wěn)定等重大風險。在經(jīng)濟安全方面,人工智能將徹底改變經(jīng)濟的運作模式,產(chǎn)生超乎想象的經(jīng)濟后果,給現(xiàn)有的經(jīng)濟體制、市場機制帶來更大風險與挑戰(zhàn)。如金融領域人工智能的廣泛應用誘發(fā)高頻交易故障①2012年,美國“騎士資本”就因其人工智能控制的高頻交易程序發(fā)生故障導致超過4億美元的虧損,并造成美國股市大幅波動。,極易導致金融股市的大幅波動,嚴重時會造成金融市場混亂,影響整個國家經(jīng)濟運行;不受監(jiān)管的人工智能還會給國家的經(jīng)濟數(shù)據(jù)安全帶來風險,大量關系國家經(jīng)濟運行狀況的核心經(jīng)濟數(shù)據(jù)一旦被境外人工智能程序抓取分析,則容易將國家經(jīng)濟發(fā)展的薄弱環(huán)節(jié)暴露,給國際競爭對手提供精確打擊的目標。在國土安全方面,缺少監(jiān)管的人工智能會滋生“技術恐怖主義”,恐怖組織和個人利用人工智能技術采集情報、動員人力,發(fā)動隱秘性更強、破壞性更大的網(wǎng)絡襲擊,大大增加了國土安全防護的難度。
二是政策監(jiān)管不到位不及時會產(chǎn)生數(shù)據(jù)濫用與侵害用戶權益等問題。在當前的商業(yè)領域,數(shù)據(jù)非法采集、超出服務范圍的存儲和數(shù)據(jù)販賣等數(shù)據(jù)濫用情況呈現(xiàn)多發(fā)高發(fā)態(tài)勢。2018年,有媒體曝光英國劍橋分析公司曾以不正當方式從美國社交媒體平臺Facebook獲取8700萬用戶的居住地、喜歡的內(nèi)容、朋友信息等敏感內(nèi)容,并利用人工智能分析結果精準推送政治廣告,影響美國總統(tǒng)選舉(張家偉,2018)。[20]2021年,央視3·15晚會曝光非法獲取消費者人臉信息的情況(央視網(wǎng),2021),眾多知名企業(yè)利用人面識別技術,在沒有向消費者征詢許可意見等情況下,利用店內(nèi)廣布的攝像頭收集用戶人臉相關數(shù)據(jù)服務于產(chǎn)品銷售,以此掌握定價主動權,損害消費者權益。[21]
三是缺乏監(jiān)管或監(jiān)管偏弱會導致算法偏見等后果,加劇社會不平等狀況?!八惴ㄆ姟笔侵溉斯ぶ悄艿乃惴ǔ绦蛟谛畔⑸a(chǎn)和分發(fā)過程中失去客觀中立的立場,進而導致顯失公平的社會性后果的歧視現(xiàn)象,包括基于技術的政治偏見、性別偏見和種族偏見。算法偏見實際上將人們困在原有的社會結構之中,加劇社會資源分配的“馬太效應”。2018年,路透社揭露亞馬遜公司開發(fā)的人工智能招聘系統(tǒng)在對大量求職簡歷進行篩選時,對包含“女性”等詞的簡歷進行降權處理,人為降低了女性求職成功的概率(王鳳枝,2018)。[22]一項研究表明,美國警方的人臉犯罪識別系統(tǒng)會認定黑人犯罪概率更高,這與美國嚴重的種族歧視密切相關(趙挪亞,2019)。[23]與社會文化同構的智能算法,會延續(xù)和擴大現(xiàn)實社會存在的偏見,進而導致歧視性后果;這些后果又成為新數(shù)據(jù)再次被人工智能捕捉學習,由此形成社會偏見的惡性循環(huán)與固化,加劇社會現(xiàn)實中的不平等。
2.技術自主發(fā)展對政策規(guī)劃的破壞效應
人工智能系統(tǒng)日益顯現(xiàn)出“高度自主”的特性,繼續(xù)發(fā)展下去有可能出現(xiàn)脫離人類規(guī)劃和控制的“技術利維坦”②“利維坦”(Leviathan)是《圣經(jīng)·舊約》中的海上巨獸?;舨妓拐J為,國家就像一個“利維坦”,人們對強大的國家提供的“和平與安全”保障極為依賴,但又時刻防范國家濫用公權力侵害公民權利。以此類推,”技術利維坦“是指原本為滿足人類需要而研發(fā)出的技術體系日益脫離人類政治和社會系統(tǒng)的控制,成為制造人類欲望、左右人類意志、控制人類行為甚至侵犯人類基本權益的異化力量。,在資本增值逐利的促動下“反噬”政策規(guī)劃。
一是技術自主發(fā)展對政策規(guī)劃的經(jīng)濟目標的偏離。政策規(guī)劃希望借助人工智能的顛覆性力量賦能經(jīng)濟增長,實現(xiàn)社會生產(chǎn)力的整體躍升;現(xiàn)實卻是隨著人工智能技術的大量推廣應用帶來了越來越明顯的就業(yè)替代效應。傳統(tǒng)的、固定場所和固定雇主的工作越來越少,短期的、臨時的、不固定場所的工作日益增多,勞動關系變得越來越不穩(wěn)定,勞動保障遭遇到新障礙。有實證研究指出,工業(yè)機器人滲透度每增加1%,企業(yè)勞動力需求會下降0.18%,機器人應用對不同技能勞動力需求的影響存在差異,“就業(yè)極化”特征明顯(王永欽和董雯,2020)。[24]盡管長期來看,人工智能推動的產(chǎn)業(yè)自動化和智能機械化可以解放人類的勞動,極大減輕勞動強度,增加社會整體福利。但是,在特定的工作情境和勞動力市場中,短期內(nèi)由人工智能普及帶來技術替代效應與失業(yè)風險卻是政策規(guī)劃不得不面對的意外結果。
二是技術自主發(fā)展對政策規(guī)劃的社會建設目標的扭曲。我國的政策規(guī)劃明確指出,通過在社會建設領域推廣使用人工智能技術,全面提升人民生活品質(zhì);但現(xiàn)實的技術發(fā)展存在扭曲社會建設政策目標的傾向。在當今中國,不同階層、年齡、行業(yè)甚至性別的人群享受數(shù)字技術紅利的程度存在明顯差別。由于人工智能技術普遍缺乏“社會適應性”考慮,給部分社會成員的生活帶來實質(zhì)性困擾,一些文化程度偏低、年齡偏大的人打不上出租車、掛不上醫(yī)院就診號,甚至在餐館點不了餐。原本期待的服務水平的提升與生活品質(zhì)的提高被扭曲成了數(shù)字鴻溝①所謂“數(shù)字鴻溝”是指,隨著數(shù)字化生存特征的增強,掌握并熟練運用數(shù)字信息及技術的人與那些未曾掌握或不能熟練運用數(shù)字信息及技術的人之間產(chǎn)生的巨大差距。的擴大與加深,反而讓一部分社會成員因為技術推廣而被隔離在社會生活之外。技術鴻溝的持續(xù)累積容易產(chǎn)生新的社會排斥,將部分社會成員排除在數(shù)字福利之外,這當然有違政策規(guī)劃推進社會建設的初衷。
三是技術自主發(fā)展對政策規(guī)劃的安全穩(wěn)定目標的侵蝕。我國大力發(fā)展人工智能還有一個目的,那就是將人工智能應用于日常社會治理中,有效防范和化解社會矛盾糾紛,增進群體理解和社會團結?,F(xiàn)實的發(fā)展未必完全如此。各類新聞網(wǎng)站或購物平臺依賴掌控的海量用戶瀏覽使用等信息,通過人工智能數(shù)據(jù)挖掘,向用戶推送有迎合意味的信息,讓人沉浸在自我滿足中而不自知,久而久之,一些人群會出現(xiàn)固化自己喜好,甚至拒絕接受更不會相信與自己喜好不一致信息的“信息繭房”現(xiàn)象(桑斯坦,2008)。[25]生活在信息繭房里的人與外部世界的聯(lián)系將急劇減少,往往盲目自信,有狹隘心理,甚至滋生極端思想和過激行為??梢钥隙?,建立在大數(shù)據(jù)和人工智能算法分析基礎上的信息“投喂”,最終會導致社會紐帶的撕裂和社會黏性的喪失。
“政策—資本”的交互風險主要發(fā)生在國家戰(zhàn)略的落地階段,是地方政策本身或與產(chǎn)業(yè)、企業(yè)及其背后的資本關系在定位、互動和回應等方面的失策、失當和失誤所誘發(fā)的風險。大體可分為兩類:對區(qū)域經(jīng)濟—社會發(fā)展的干擾和破壞以及對企業(yè)、行業(yè)和產(chǎn)業(yè)造成的危害。
1.地方“經(jīng)濟—社會”發(fā)展層面的風險
其一,地方政策鼓勵與資本無序擴張下的交互風險。由于“發(fā)展錦標賽”等體制性原因,為了吸引外部投資,地方政府通常開出攀比性優(yōu)惠條件,讓資本的議價能力和話語權相對提高。面對人工智能投資熱潮,資本尤其是占有市場優(yōu)勢的金融資本開始了新一輪針對人工智能產(chǎn)業(yè)的“跑馬圈地”運動。隨著投資沖動的加劇,此類項目占用的地方經(jīng)濟社會資源越來越多,對地方經(jīng)濟結構的影響也越來越深刻。但人工智能產(chǎn)業(yè)作為新興技術的商業(yè)模式目前尚不成熟,難以在短期內(nèi)形成產(chǎn)業(yè)集群,無論是市場規(guī)模還是產(chǎn)品投資回報都存在較大的不確定性。一旦地方政府著力打造的人工智能投資項目出現(xiàn)失敗或者效益不佳的情況,往往會拖累地方經(jīng)濟增長,甚至給財政帶來沉重的“包袱”。
其二,地方發(fā)展經(jīng)濟的路徑依賴與地方保護主義作用下的風險。具體表現(xiàn)為:(1)重復建設與產(chǎn)能過剩。由于一些地方政府沒有從根本上轉(zhuǎn)變經(jīng)濟增長模式,沒有認清人工智能技術和產(chǎn)業(yè)的特性,更沒有深入研判其對整個經(jīng)濟社會“創(chuàng)造性破壞效應”①熊彼特較早地論述了創(chuàng)新及其創(chuàng)造性破壞效應的概念(熊彼特,2020)。[26]他認為,創(chuàng)新是一種生產(chǎn)函數(shù)的轉(zhuǎn)變,意味著生產(chǎn)要素和生產(chǎn)條件的重新組合,這些新組合引入到生產(chǎn)體系使得技術系統(tǒng)發(fā)生變革,讓企業(yè)獲得利潤或超額利潤。在這一過程中,新的生產(chǎn)要素組合實現(xiàn)了對原有生產(chǎn)體系的“創(chuàng)造性破壞”,形成了一種新的生產(chǎn)能力。經(jīng)濟結構的革命性變化就是不斷破壞舊結構、創(chuàng)造新結構的過程。,而是出于常規(guī)政策慣性扶持人工智能產(chǎn)業(yè)落地。地方政府大多沿用以往“投資+引資”的擴張模式,在吸引資本投資類型、產(chǎn)業(yè)結構、企業(yè)屬性上都顯現(xiàn)出趨同化特征,過度投資、重復建設乃至產(chǎn)能過剩等弊病大概率會在人工智能發(fā)展道路上重現(xiàn)。(2)政策對投資擴張的路徑依賴又會帶來地方保護主義盛行,影響智能產(chǎn)業(yè)升級質(zhì)量。一些地方出臺政策時毫不掩飾對本地企業(yè)的偏愛,通過一些市場準入條件給予本地資本和企業(yè)以優(yōu)先機會。像北京、廣東、浙江、江蘇等科技強省自身就是百度、騰訊、阿里、京東這類巨型互聯(lián)網(wǎng)平臺科技公司總部或研發(fā)基地的駐地,這些公司又與紅杉資本、IDG資本等知名投資機構利益關系密切。于是,各地發(fā)展人工智能的實施方案皆重點打造依托龍頭企業(yè)技術的研發(fā)平臺和產(chǎn)業(yè)集群,力圖在區(qū)域競爭中占得先機。但是,政策偏好容易形成對其他投資者和企業(yè)不利的排他性產(chǎn)業(yè)環(huán)境,客觀上或?qū)⒁种朴蛲馄髽I(yè)投資積極性和行業(yè)創(chuàng)新力,最終會影響到地方產(chǎn)業(yè)轉(zhuǎn)型升級的質(zhì)量。
其三,政策過熱與資本擴張帶來的連鎖風險。地方政策過熱和資本無序擴張可能打亂國家發(fā)展規(guī)劃,給地方或區(qū)域經(jīng)濟社會帶來不利后果,嚴重時會引發(fā)連鎖危機反應。例如,目前各地有關人工智能的產(chǎn)業(yè)布局的應用導向明顯,基礎理論和基礎技術研嚴重不足?;A研究經(jīng)費投入比重不高、激勵機制不健全、成果長周期評價缺乏等制約人工智能基礎理論創(chuàng)新與技術研發(fā),很容易在關鍵戰(zhàn)略機遇期錯失良機,導致地方短視和部門利益替代國家長遠和戰(zhàn)略需求。國家戰(zhàn)略在地方被部分替代,又讓資本可以持續(xù)投資一些短平快項目。比如,各類智能安防企業(yè)的業(yè)務量近兩年快速增長,這類二級市場的繁榮背后卻存在對個人隱私保護嚴重缺失的風險。公民個人信息的數(shù)據(jù)化、商業(yè)化已經(jīng)給用戶帶來了非常嚴重的人身安全和財產(chǎn)損失問題,引發(fā)社會擔憂,動搖著人工智能政策落地的社會信任基礎。
2.人工智能產(chǎn)業(yè)和企業(yè)層面的風險
一是政策過度保護下的資本擴張容易催生“虛假創(chuàng)新”。地方政策過度保護和有選擇的企業(yè)準入行為,有可能讓資本因風險厭惡觸發(fā)的投資謹慎和由此帶來的創(chuàng)新篩選與淘汰機制失靈,進而滋生“為投資而投資”的虛假創(chuàng)新。一方面,國內(nèi)一些人工智能企業(yè)出于獲得政府補貼稅收優(yōu)惠、獲得資本市場準入資格等自利考慮,多用“國內(nèi)首款”“打破國外壟斷”“全球領先”等噱頭來宣傳自己的人工智能產(chǎn)品,但其中不少實質(zhì)上還停留在“產(chǎn)品服務理念的宣傳”“概念炒作”的初級階段,缺少核心技術專利,更沒有顛覆性創(chuàng)新產(chǎn)品投入商用。另一方面,政策系統(tǒng)也缺乏針對人工智能基礎創(chuàng)新、應用成果創(chuàng)新評價與鑒定的國家標準或行業(yè)標準,對上述虛假創(chuàng)新行為缺少必要的剛性約束、有效識別和懲罰機制,導致虛假創(chuàng)新現(xiàn)象蔓延,影響到整個產(chǎn)業(yè)創(chuàng)新驅(qū)動質(zhì)量的提升。
二是政策保護與資本熱捧容易形成行業(yè)壟斷。由于人工智能發(fā)展存在高技術壁壘,發(fā)展人工智能產(chǎn)業(yè),需要政策的持續(xù)支持和大量資本的長期投入作為基礎,并在技術人才和市場認可的不間斷支撐下,才有可能換來未來產(chǎn)業(yè)規(guī)模和效益的增加。即便如此,也不能完全排除部分人工智能技術研發(fā)和商用失敗,給投資帶來極大的不確定性。這對企業(yè)和投資機構的抗風險能力要求較高。真正愿意又有能力響應政策號召,加入人工智能領域直接參與投資、基礎研究和開發(fā)應用的企業(yè)的范圍有限,能長期堅持持續(xù)運營的科技企業(yè)則更少。20世紀90年代以來的互聯(lián)網(wǎng)經(jīng)濟的發(fā)展經(jīng)驗也告訴人們,高新技術行業(yè)的發(fā)展在政策與資本共同作用下很容易走向行業(yè)兼并和壟斷形態(tài),影響到技術進步和經(jīng)濟效率的提升,最終消費者的權益也將受到損害。
三是政策推動下的資本過熱容易引發(fā)劇烈的市場波動,損傷實體經(jīng)濟。當前,真正有較高市場價值的智能產(chǎn)品或智能服務在生產(chǎn)、生活和管理領域的應用范圍依然有限,市場的認可度和接受度并不高。市場吸納能力不足有可能演化成系統(tǒng)性市場風險,這將損害投資者利益,也影響地方產(chǎn)業(yè)結構調(diào)整的成效。一旦資本做出“投資避險”決定,大規(guī)模的撤資會帶來產(chǎn)業(yè)資金緊張等流動性風險。中國信息通信研究院的研究報告指出,2019—2020年資本市場對人工智能投資熱度明顯下降,全球這兩年新增人工智能企業(yè)數(shù)量明顯下降,且投融資的輪次后移趨勢不斷擴大,曾獲大筆融資的知名創(chuàng)新企業(yè)由于收益低于預期、虛假宣傳等原因退出產(chǎn)業(yè)舞臺(中國信息通信研究院,2021)。[15]地方政府為避免出現(xiàn)更嚴重的經(jīng)濟與社會后果,又不得不做出收縮性政策調(diào)整,這會導致前期“轟轟烈烈”后期“冷冷清清”的政策起伏和市場波動,給人工智能行業(yè)及相關實體經(jīng)濟帶來更大的風險甚至是實質(zhì)性危害。
對于技術創(chuàng)新的動力與源泉一直以來都存在兩種彼此分立的觀點:熊彼特學派認為新技術沿著“慣例”以適應環(huán)境要求的方向不斷更新,技術發(fā)展遵循著“創(chuàng)新—選擇—擴散”路徑不斷推動著經(jīng)濟社會的產(chǎn)業(yè)化和集成化(熊彼特,2020;納爾遜和溫特,1997)[26-27];以諾斯為代表的制度學派則堅持認為,是制度等外部環(huán)境因素推動著技術的進步,制度安排的合理性決定著技術創(chuàng)新的成?。ㄖZ斯,1994;Raven,2005)[28-29]。也有研究者探討過技術創(chuàng)新與風險之間的關系,但多是闡釋營商環(huán)境、政策環(huán)境、金融結構等宏觀因素以及技術研發(fā)水平、企業(yè)財務狀況、企業(yè)運營管理等微觀因素對技術創(chuàng)新的影響機制與阻礙程度等主題(Antikainen和Ualkokari,2016;Bhattacharya等,2017)[30-31];在人文社科領域,研究者對科學技術的巨大進步及其社會影響的反思更具洞見性。薩頓曾斷言,就建設性而論,科技的精神是最強的力量;就破壞性而論,它也是最強的力量(薩頓,2007)[32]。這些研究鮮有從發(fā)展本身來探討技術演化中的風險,更沒有從發(fā)展與風險的互嵌視角來闡釋二者的復雜作用機制及影響。
事實上,發(fā)展與風險是事物演進過程中的一體兩面。推動發(fā)展的力量可能同時也蘊含著破壞甚至毀滅的反作用力。人工智能的發(fā)展不是哪一種力量單獨作用的結果,技術內(nèi)在進化的驅(qū)動、資本投入的增值沖動和政策規(guī)劃的推動又在“技術—社會”體系中相互交織,產(chǎn)生復雜的、新的合力,激發(fā)出更為強大的“連鎖—增強”效應,共同促進人工智能的飛速發(fā)展和風險積聚。技術固有缺陷和安全漏洞產(chǎn)生的內(nèi)生性風險,隨著資本的追捧和政策的推動而不斷外溢,被放大到更廣闊的經(jīng)濟、社會領域,產(chǎn)生更為深遠的影響。本文將上述要素及其運作邏輯進行組合,構建一個分析人工智能發(fā)展及其風險的整合性框架(見圖1)。其中,發(fā)展的動力鏈條沿著“政策—資本—技術—政策”的方向不斷深入,從宏觀政策目標導向到資本增值推動,再到技術加速進化,從而進一步強化政策系統(tǒng)的調(diào)節(jié)作用,開始新一輪創(chuàng)新驅(qū)動的發(fā)展。與此相反,風險的傳導鏈條沿著“技術—資本—政策—技術”的方向不斷外溢,從微觀技術內(nèi)生性安全漏洞到中觀產(chǎn)品服務的技術濫用與市場擴張,再到宏觀政策目標的偏移與經(jīng)濟社會風險的放大,最終政策—社會系統(tǒng)不得不做出響應,影響到人工智能技術的應用與推廣,嚴重時或?qū)⑻崆敖Y束技術的發(fā)展周期。
圖1 人工智能發(fā)展與風險生成邏輯示意圖
圖1 中,三角系統(tǒng)外層(順時針方向)是人工智能發(fā)展的核心動力要素及作用形式。從各自功能屬性的形態(tài)看,技術的進化是人工智能發(fā)展的內(nèi)驅(qū)力量,而資本和政策的推動則是外生力量。幾百年來文明發(fā)展歷程已經(jīng)將這三種力量進行過多次融合。在現(xiàn)代社會,它們的地位、相互關系及其作用形式越來越明確、固定,且在不同的制度環(huán)境和文化背景中,存在著一定的差異。從目前中國人工智能發(fā)展的動力路徑來分析,政策作為主導力量,不僅為技術提供發(fā)展所需的環(huán)境支持,必要時還會直接介入,通過資助研發(fā)和直接投資的形式推動技術進步,促進技術與資本間的創(chuàng)新融合。換言之,政策的導向性功能對于人工智能這類通用性強且極具顛覆性的技術體系的發(fā)展來說,是決定性的力量,它決定著技術發(fā)展方向、應用前景和產(chǎn)業(yè)化水平。同時,政策也為資本投資確定領域和重點方向,為資本市場化設定運作范圍和條件,通過市場準入的方式引導優(yōu)質(zhì)資本流向國家社會亟須的技術領域。政策通常會為資本投入人工智能技術提供財政金融支持,以對沖資本因風險厭惡帶來的過分謹慎和短視行為帶來的不利后果,以此鼓勵資本進行風險投資,從而為技術的研發(fā)、應用和推廣尋找穩(wěn)定的、持續(xù)的資金來源。除此之外,政策還會投資教育等公共服務體系,加大對人工智能技術人才的培育,儲備并持續(xù)提供技術發(fā)展所需的人力資源。
當然,市場經(jīng)濟環(huán)境下,政策推動技術發(fā)展的路徑更多的是通過資本運作和市場競爭的形式進行,國家與地方的人工智能政策規(guī)劃確立的發(fā)展目標就是市場努力的方向。對于資本來說,政策提供的優(yōu)惠和扶持是相對稀缺的資源,享受政策紅利的同時需要企業(yè)有較高技術附加值的產(chǎn)品或者服務以贏得市場的青睞。競爭邏輯是市場的核心機制,而擁有更多關鍵技術專利及適銷對路的產(chǎn)品和服務則是資本贏得競爭的制勝法寶。在這一過程,資本通過市場占有率的擴大完成了自身價值的增長。同時,由于這些資本(企業(yè))讓政策目標得以落實,政策將會更加支持那些在激烈市場競爭中取得優(yōu)勢地位的資本(企業(yè))的擴張和發(fā)展。獲得政策扶持的資本(企業(yè))生產(chǎn)經(jīng)營成本進一步降低,基礎研究的研發(fā)資金更加充足,這會為技術的加速成熟奠定堅實的基礎。人工智能六十多年的發(fā)展歷史經(jīng)歷了多次發(fā)展高峰和低谷,最終走向成熟,有了應用推廣的商業(yè)價值,很大程度上要歸功于技術的不斷改進,歸功于未曾中斷的研發(fā)資金的投入。而人工智能技術的進步提供了巨大應用前景,又進一步增強了資本投資回報的信心。于是,更多的投入換來了更完善的技術,讓人工智能在通用技術的道路上加速前進,從而引發(fā)技術體系的鏈式突破,不斷實現(xiàn)著政策設定的推動經(jīng)濟社會各領域從數(shù)字化、網(wǎng)絡化向智能化加速躍升的發(fā)展目標。在此基礎上,政策也必將更加支持人工智能的發(fā)展,開啟“政策—資本—技術—政策”這一核心動力發(fā)展鏈條的新一輪良性循環(huán)。
圖1 中,核心三角循環(huán)的內(nèi)環(huán)(逆時針方向),即“技術—資本—政策—技術”鏈條則代表的是與發(fā)展相伴的風險生成及外溢效應。人工智能風險包括內(nèi)生性技術風險和外生性社會風險兩大類,二者緊密相關。與技術發(fā)展關系密切的社會系統(tǒng)會成為技術風險外溢的承受主體,同時也是將這些技術風險放大并擴散開來的中介。技術風險與資本(及其背后的市場與經(jīng)濟系統(tǒng))和政策(及其背后的政府與政治系統(tǒng))之間發(fā)生交互作用,生成更為復雜的風險,一旦防范化解不及時不得當,很容易產(chǎn)生新的超出技術體系之外的其他危險后果。在這一風險生成與放大鏈條之中,技術進化過程中的“固有問題”可以稱之為人工智能風險的源頭。也就是說,這些風險是內(nèi)嵌于技術進步之中的,與之相伴而生。所謂技術風險大多數(shù)是給技術的穩(wěn)定性、安全性和實用性帶來負面影響的潛在或現(xiàn)實的威脅。對于這些棘手問題的攻克或部分解決,是技術進步的表現(xiàn);固有技術難題得不到解決或沒有妥善解決都會給技術應用留下風險與隱患。而且,舊問題的解決還會帶來一些新問題,甚至產(chǎn)生新風險。新舊問題疊加,既是技術不斷進步的驅(qū)動力,也成為各類風險的源頭。
當今人工智能技術的計算能力和算法精度都呈幾何級數(shù)增長,但這并不意味著該項技術已經(jīng)盡善盡美,有待攻克的技術難題俯拾皆是。技術領域竭力攻克的難題目前主要集中在提高AI技術“可用性”上,提升算法精度、應用識別準確度,提高技術的便利性、可及性,甚至降低技術的功耗等?!翱捎谩笔羌夹g研發(fā)應用的基礎,也是資本主要關注的事項。因此,資本投資的重點領域有兩個:一是從原理上解決上述可用性難題的基礎研究領域,二是人工智能的應用領域。不過,具有較高的實用價值只是人工智能技術特性之一,穩(wěn)定性和安全性并不能被實用性替代,更不應該被實用性掩蓋。令人感到不安的是,資本逐利增值沖動很多時候以技術專利盡快轉(zhuǎn)化為產(chǎn)品或服務為階段性目標,進而通過擴大市場份額來實現(xiàn)利潤最大化的終極目的。為此,技術及其衍生出的產(chǎn)品和服務的可用性的優(yōu)先級別高于其他如可知、可控、可靠等特性要求。類似人工智能這類新興通用技術產(chǎn)品和服務一旦在可用與其他安全性要求上出現(xiàn)失衡,就很容易引發(fā)風險的實體化。例如,一些技術廠商通過App、人臉識別設備等感知軟硬件過度采集用戶個人隱私的行為愈發(fā)嚴重,用戶對人工智能及其應用的“控制力”幾乎為零,而基于人工智能系統(tǒng)運行的各種智能終端的運作機制、智能決策結果的可解釋性,已經(jīng)復雜到連技術工程人員自己都無法完全說得清楚、講得明白,使用和接受人工智能應用的用戶更是不明就里。當資本和廠商對于自己因可用性增加而獲利感到沾沾自喜的時候,可知性和可控性的降低卻引發(fā)了人們對人工智能產(chǎn)品服務安全性的憂慮。社會輿論開始質(zhì)疑人工智能系統(tǒng)的可靠性和可信度,人工智能的社會接受水平存在不斷下降的危險。進一步講,技術固有的風險被資本“貪欲”遮蓋、隱藏或忽略掉,通過技術應用推廣外溢到市場和日常生活場域,無論是帶給用戶權益的實質(zhì)侵害還是由此帶來的“風險想象”都會強化人們對于人工智能“未知風險”強烈擔憂,任其發(fā)展下去,最終將動搖該項技術落地的社會信任基礎。這當然是決策部門不愿意看到的風險情境和危險后果。如果事態(tài)演變到此種境地,政策必將做出調(diào)整,由原來的事后監(jiān)管(甚至帶有放任態(tài)度的自由發(fā)展)迅速地轉(zhuǎn)換到“事前事中的強監(jiān)管”狀態(tài),連帶著可能會出現(xiàn)基礎研究投入減少、審批收緊、產(chǎn)業(yè)政策優(yōu)惠力度縮減等連鎖反應。相應的,市場將再次對政策導向做出反應,股市的人工智能及其相關科創(chuàng)板塊可能發(fā)生股價大跌事件,資本市場降溫,技術研發(fā)和產(chǎn)品開發(fā)中斷。這一推斷并非危言聳聽,畢竟人工智能發(fā)展史已經(jīng)表明,“政策緊縮”與“資本寒冬”極易觸發(fā)“技術低谷”。始于技術固有缺陷的這一系列風險外溢與放大,最后將反噬技術本身。
該框架最外層的三個六邊形展示的是人工智能“發(fā)展—風險”復合進程所產(chǎn)生的嚴重風險后果。這些結果的形成過程在前文中已經(jīng)做了交代,在此不再贅述,僅對風險后果進行簡單的類型學歸納。根據(jù)風險后果的來源屬性和影響程度,可以將人工智能發(fā)展的風險分為四大類:第一類稱為“內(nèi)生—直接”型風險,包括技術風險自我封閉、技術倫理失守和研發(fā)基礎不牢靠等風險后果。它們都產(chǎn)生于技術系統(tǒng)內(nèi)部,帶來的影響也主要表現(xiàn)為系統(tǒng)漏洞、系統(tǒng)內(nèi)不穩(wěn)定或系統(tǒng)崩潰。第二類稱為“內(nèi)生—間接”型風險,包括算法操控、技術濫用與侵權、虛假創(chuàng)新和技術利維坦等形式,同樣來自技術系統(tǒng)內(nèi)部(或與技術密切相關的要素部門),但帶來的威脅和危害超出技術系統(tǒng)邊界,對產(chǎn)業(yè)、行業(yè)和用戶乃至更廣泛的經(jīng)濟社會場域產(chǎn)生連帶性的損害。第三類稱為“外在—直接”型風險,包括勞資風險(技術性失業(yè))、監(jiān)管失衡、社會極化、數(shù)字鴻溝和社會不平等加劇等形式,這些風險后果形成的主因來自技術系統(tǒng)之外的政策因素或社會性因素,帶來的消極影響直接能被人工智能技術接受主體感知到,這類風險后果與多數(shù)人切實利益直接關聯(lián),人們對此普遍比較敏感在意。第四類稱為“外在—間接”型風險,包括重復建設與資源浪費、地方財政負擔、行業(yè)壟斷、市場波動和其他連鎖風險等形式,這些風險大多是由于技術風險外溢或技術風險與其他風險交互作用后形成的放大、增強的消極后果。相對于前三類風險而言,此類風險形式影響范圍更大、形成時間更長、后果的顯現(xiàn)也更緩慢,普通人的感受沒有那么強烈,但是,它們一旦出現(xiàn)就會給地方產(chǎn)業(yè)結構和社會穩(wěn)定帶來難以估量的沖擊,危害性極大,這是人工智能發(fā)展進程中必須高度重視并做好防范化解的重大風險。
當然,從方法論的角度看,理論框架的成熟與否主要取決于該理論框架對現(xiàn)實的解釋與預測能力(童星和張海波,2010)[33]。在一個框架成熟之前,解釋模型的社會性、綜合性和本土化特征也是判斷其有價值的重要指標。從社會性角度看,本文提出的分析框架從發(fā)展和風險這類社會科學的基本范疇出發(fā),將人工智能技術發(fā)展及其風險問題放在“技術—社會”系統(tǒng)中闡釋,超出了一般化的工程技術風險分析范圍;從綜合性考察,本框架借鑒了工程技術、經(jīng)濟發(fā)展、政治政策和社會風險評價等多學科領域的知識視角,將其整合在一起,構成一個相對閉環(huán)的邏輯演繹框架,力圖接近事實并還原其“結構與機制”的原貌,滿足科技決策與風險管理的要求;從本土化上講,人工智能的發(fā)展與風險問題是一個世界性議題,中國情境離不開世界大環(huán)境,但一定要具有中國特色,我們的國情決定著本理論分析框架一定是立足于國內(nèi)實際的理論解釋工具,研究的首要目標是為國內(nèi)的科技政策和風險治理提供理論支撐和工具選擇,本框架從論據(jù)的選取和論點的得出上都以此為界限。僅從學理上看,本文或許只是提出了一個問題并展示了一個相對完整的邏輯思路,雖是根據(jù)現(xiàn)實觀察和理論推導而來,但對于像人工智能這類新興技術來說,其未來的發(fā)展趨勢和風險后果都還遠未清晰地呈現(xiàn)出來,現(xiàn)有的分析自然存在疏漏和不確定性,而且復雜技術—社會系統(tǒng)之間的交互作用和影響也并非一個簡化的理論框架模型所能全部涵蓋和盡述的,這些都是本框架的先天缺陷。不過,這并不意味著嘗試性的理論分析沒有價值,畢竟歷史和經(jīng)驗、現(xiàn)實和未來之間總是存在著某種聯(lián)系,分析和揭示這些或明或暗的聯(lián)結是學術研究的使命,更是對即將到來的數(shù)字社會時代巨大變遷及影響的前瞻性回應與必要反思。
黨的十九屆五中全會決議中提出,要堅持總體國家安全觀,統(tǒng)籌發(fā)展和安全,把安全發(fā)展貫穿國家發(fā)展各領域和全過程,防范和化解影響我國現(xiàn)代化進程的各種風險(中共中央,2020)[34]。這是發(fā)展中國特色社會主義現(xiàn)代化各項事業(yè)的行動指南。當前,大數(shù)據(jù)、人工智能等新興技術正在加速中國向數(shù)字化社會邁進。數(shù)字社會可以被看作是工業(yè)信息化社會的高級階段,同樣具備現(xiàn)代社會發(fā)展進程中普遍帶有的高度不確定性特征。從這個角度理解,人工智能發(fā)展中風險本質(zhì)上仍屬于科技理性的負面后果,它是工業(yè)社會發(fā)展到信息化和智能化社會階段的“產(chǎn)品”,源自現(xiàn)代性的自我危害(童星,2018)。[35]既然是現(xiàn)代社會發(fā)展中的內(nèi)生性風險,那么從發(fā)展內(nèi)部探究風險的形成邏輯,尋求在促進發(fā)展的同時最大限度地減少風險的生成及其帶來的危害,將是決策機構在面對人工智能這類極具通用性和顛覆性技術系統(tǒng)時必須采取的一種應對方式。落實總體國家安全觀,處理好新興技術發(fā)展和安全風險之間的復雜關系,必須多做些前瞻性思考,在推動和約束之間做出合理的平衡,避免政策過度、投資過熱帶來的技術風險越界。在頂層設計方面,政府、市場和社會都更需要盡力做到理念上的前瞻、對策上的敏捷和規(guī)制上的審慎。一旦意識到人工智能的風險與其發(fā)展隨行,承認風險、分析理解風險、防范化解風險,將風險限定在一定影響范圍和可接受的程度之內(nèi),將是今后相當長一個時期需要堅持的治理方向與策略思路。