国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能的社會風(fēng)險應(yīng)對研究*

2019-05-09 03:17:52
教學(xué)與研究 2019年4期
關(guān)鍵詞:人工智能

全球的人工智能在引領(lǐng)新一輪科技革命和經(jīng)濟(jì)轉(zhuǎn)型的同時,不可避免地帶來或加劇可能導(dǎo)致人員死傷、財產(chǎn)損失、秩序破壞、公正受損等社會難題;亟待全面強(qiáng)化科學(xué)的社會風(fēng)險應(yīng)對。習(xí)近平總書記2019年1月21日在省部級主要領(lǐng)導(dǎo)干部堅持底線思維著力防范化解重大風(fēng)險專題研討班上強(qiáng)調(diào):科技領(lǐng)域安全是國家安全的重要組成部分;要加快科技安全預(yù)警監(jiān)測體系建設(shè),圍繞人工智能等領(lǐng)域,加快推進(jìn)相關(guān)立法工作。[注]提高防控能力著力防范化解重大風(fēng)險 保持經(jīng)濟(jì)持續(xù)健康發(fā)展社會大局穩(wěn)定,人民網(wǎng),2019年1月22日,http://finance.people.com.cn/n1/2019/0122/c1004-30583073.html.

一、技術(shù)視角的人工智能社會風(fēng)險應(yīng)對

透過技術(shù)視角,人工智能的顯性社會風(fēng)險,主要是因技術(shù)失誤或故障而導(dǎo)致的公共安全等問題,目前全球皆已開展全方位的技術(shù)風(fēng)險應(yīng)對。

(一)技術(shù)視角的風(fēng)險源分析

技術(shù)視角的人工智能風(fēng)險根源于其技術(shù)特征,并綜合導(dǎo)致了風(fēng)險的難識別、難消除和難控制。

第一,人工智能的“研發(fā)不透明”特征可能引發(fā)社會風(fēng)險:一是由于人工智能的研發(fā)環(huán)境“虛擬化”和研發(fā)過程的“黑箱效應(yīng)”等特征,更易脫離監(jiān)管;二是研發(fā)主體的分散性,研發(fā)人員在非指定區(qū)域?qū)嵤┤斯ぶ悄艿拈_發(fā),主體具有較高的“自由裁量權(quán)”;三是硬件生產(chǎn)和軟件開發(fā)的不連續(xù)性和相對獨(dú)立性,使得人工智能研發(fā)的產(chǎn)品,能具備隱蔽性、甚至偽裝性。

第二,人工智能具有“算法主觀性”特征,其算法的準(zhǔn)確度和可靠性易受到研發(fā)數(shù)據(jù)和研發(fā)人員的主觀影響,是社會風(fēng)險的重要來源。集中表現(xiàn)為:一是算法所需數(shù)據(jù)的來源多元,不同主體提供數(shù)據(jù)的動機(jī)、渠道、方式、內(nèi)容均有不同,致使數(shù)據(jù)的真實(shí)性、科學(xué)性、精確性、可靠性受到主觀因素影響;二是研發(fā)人員在數(shù)據(jù)選擇和應(yīng)用中可能存在“重量輕質(zhì)”等主觀偏好,進(jìn)而對數(shù)據(jù)全面性和算法可靠性產(chǎn)生負(fù)面影響;三是研發(fā)人員可能存在種族歧視、性別偏見、宗教偏好、極端價值觀等主觀偏差,代入研發(fā)后算法將出現(xiàn)失誤,導(dǎo)致預(yù)測不準(zhǔn)確、甚至決策不公正等社會問題。

第三,人工智能的“技術(shù)自主性”可能導(dǎo)致“技術(shù)失控”,進(jìn)而產(chǎn)生社會風(fēng)險。突出表現(xiàn)為:一是基于深度學(xué)習(xí)技術(shù)的人工智能產(chǎn)品具備自學(xué)習(xí)和自適應(yīng)能力,可能作出超越研發(fā)人員認(rèn)知能力和預(yù)測范圍的決策或行為;二是人工智能算法易受到應(yīng)用情境的客觀影響或運(yùn)營人員的主觀干預(yù),進(jìn)而導(dǎo)致技術(shù)失控;三是人工智能技術(shù)有可能變異為高度獨(dú)立自主的“超人工智能”(Artificial Superintelligence)主體,具備脫離人類引導(dǎo)、監(jiān)督、控制的能力。

(二)技術(shù)視角的風(fēng)險兌現(xiàn)機(jī)理與應(yīng)對要求

技術(shù)視角的人工智能社會風(fēng)險,將導(dǎo)致人員死傷、財產(chǎn)損失等負(fù)面后果,因此全球范圍內(nèi),已在采取針對性的技術(shù)手段予以應(yīng)對。

第一,人工智能的技術(shù)缺陷易引發(fā)事故,技術(shù)達(dá)標(biāo)和產(chǎn)品檢驗(yàn)是應(yīng)對風(fēng)險的基本要求。在自主控制性強(qiáng)、自治決策度高的應(yīng)用情境中,人工智能若出現(xiàn)技術(shù)缺陷,將引發(fā)事故:一是技術(shù)缺陷直接引發(fā)安全事故和人員死傷,如自動駕駛安全事故、機(jī)器人安全生產(chǎn)事故等;二是智能識別存在誤差而未能提前發(fā)現(xiàn)并阻止安全事故,如安全隱患識別誤差、智能交通指令誤差等;三是智能安防被破解或出故障而間接導(dǎo)致安全事故和人財損失,如人臉解鎖的身份識別曾被3D打印模型破解、家庭智能安防設(shè)備出現(xiàn)故障影響安全性能等。對此,技術(shù)視角的風(fēng)險應(yīng)對需要技術(shù)達(dá)標(biāo)和產(chǎn)品檢驗(yàn),通過測試評估和問題整改而使技術(shù)和產(chǎn)品達(dá)到安全標(biāo)準(zhǔn),并形成動態(tài)識別和修復(fù)的技術(shù)更新制度。

第二,人工智能可能被誤用,風(fēng)險應(yīng)對要求技術(shù)管理的制度設(shè)計。人工智能技術(shù)若被非法或惡意使用,將產(chǎn)生多方面社會危害:一是被用于網(wǎng)絡(luò)攻擊,對網(wǎng)絡(luò)安全、信息安全、數(shù)據(jù)安全產(chǎn)生威脅;二是被用于制造虛假信息,進(jìn)而實(shí)施詐騙等違法犯罪活動,導(dǎo)致財產(chǎn)損失和社會失序;三是被用于制造智能武器,用于發(fā)動攻擊、制造恐襲;四是行為分析、數(shù)據(jù)挖掘、心理預(yù)測等智能技術(shù)被用于政治宣傳和競選公關(guān),通過對潛在投票人進(jìn)行競選信息的個性化推送,可能存在控制社會民意、影響選民決策的風(fēng)險等。對此,技術(shù)視角的風(fēng)險應(yīng)對要求形成規(guī)避人工智能被誤用的技術(shù)管理制度。

第三,人工智能可能遭攻擊,技術(shù)防御是應(yīng)對風(fēng)險的基本保障。在特定環(huán)境中,人工智能運(yùn)行系統(tǒng)可能遭到惡意入侵或攻擊,進(jìn)而引發(fā)系統(tǒng)失靈、數(shù)據(jù)泄露等多種后果:一是“對抗樣本攻擊”(Adversarial Examples Attack)可誘使算法出錯,導(dǎo)致人工智能在智能識別時出現(xiàn)誤判漏判,如圖像識別、語音識別、垃圾郵件監(jiān)測、惡意程序監(jiān)測等系統(tǒng)出現(xiàn)失靈;二是“逆向攻擊”(Reversal Attack)可獲取算法系統(tǒng)的內(nèi)部數(shù)據(jù),易導(dǎo)致有關(guān)個人隱私、國家安全等的數(shù)據(jù)泄露,產(chǎn)生嚴(yán)重財產(chǎn)損失和惡劣社會影響。對此,技術(shù)視角的風(fēng)險應(yīng)對要求形成持續(xù)保障安全運(yùn)行的技術(shù)防御系統(tǒng)和能力。

(三)技術(shù)視角的風(fēng)險應(yīng)對理念和現(xiàn)有措施

全球經(jīng)驗(yàn)表明,技術(shù)視角的人工智能社會風(fēng)險應(yīng)對主要圍繞標(biāo)準(zhǔn)規(guī)范和技術(shù)防護(hù)等方面開展。

第一,應(yīng)用直接可行的技術(shù)手段,嚴(yán)防高發(fā)頻發(fā)且易導(dǎo)致群死群傷的人工智能社會風(fēng)險,做好人民群眾生命財產(chǎn)安全的保護(hù)工作。技術(shù)視角的風(fēng)險應(yīng)對遵循工具理性的準(zhǔn)則,針對“導(dǎo)致嚴(yán)重人財損失且高發(fā)頻發(fā)”的高危風(fēng)險,以規(guī)避安全風(fēng)險、發(fā)掘技術(shù)潛力為目標(biāo),采取一系列直接可行的技術(shù)方法和基于技術(shù)的管理手段來消除或干預(yù)風(fēng)險。

第二,建立健全技術(shù)標(biāo)準(zhǔn),形成規(guī)范引導(dǎo),從而減少技術(shù)缺陷,提升技術(shù)的安全性和可靠性。實(shí)際操作中,由政府相關(guān)部門、科研院所、技術(shù)企業(yè)、行業(yè)組織等聯(lián)合,圍繞人工智能的安全性、復(fù)雜性、風(fēng)險性、不確定性、可解釋性等關(guān)鍵性能或核心要素,共同推進(jìn)標(biāo)準(zhǔn)的研發(fā)和制定工作。例如,國際標(biāo)準(zhǔn)化組織(International Organization for Standardization)集中于工業(yè)機(jī)器人、智能金融、智能駕駛的人工智能標(biāo)準(zhǔn)化研究;國際電工委員會(International Electrotechnical Commission)主要關(guān)注可穿戴設(shè)備領(lǐng)域的人工智能標(biāo)準(zhǔn)化;美國國家標(biāo)準(zhǔn)與技術(shù)研究院(National Institute of Standards and Technology)、歐洲電信標(biāo)準(zhǔn)化協(xié)會(European Telecommunications Standards Institute)、中國電子技術(shù)標(biāo)準(zhǔn)化研究院等也在開展相應(yīng)的標(biāo)準(zhǔn)研發(fā)。

第三,加速研發(fā)防控和應(yīng)對技術(shù),增強(qiáng)對惡意攻擊的風(fēng)險抵御能力。當(dāng)前,針對人工智能重點(diǎn)產(chǎn)品或行業(yè)應(yīng)用,研發(fā)主體已在開展漏洞挖掘、安全測試、威脅預(yù)警、攻擊檢測等安全技術(shù)攻關(guān)。例如,人工智能公司“深度思考”(Deep Mind)正在研發(fā)“切斷開關(guān)”(Kill Switch),[注]BBC News.Google Developing Kill Switch for AI,2016-06-08,https://www.bbc.com/news/technology-36472140.用于在必要緊急情況下觸發(fā)人工智能技術(shù)系統(tǒng)的自我終結(jié)機(jī)制;再如,針對對抗性輸入、數(shù)據(jù)中毒攻擊、模型竊取技術(shù)等常見惡意攻擊技術(shù),多個研究機(jī)構(gòu)提出可通過限制信息泄露、限制探測、集成學(xué)習(xí)、遷移學(xué)習(xí)、合理數(shù)據(jù)采樣等技術(shù)方案予以應(yīng)對。[注]R.Shokri, M.Stronati, C.Song and V.Shmatikov, Membership Inference Attacks Against Machine Learning Models,2017 IEEE Symposium on Security and Privacy (SP), San Jose, California, USA, 2017, pp.3-18.

因此,技術(shù)視角的現(xiàn)有風(fēng)險應(yīng)對偏重“工具理性”,技術(shù)手段具有一定程度上的片面性;雖在實(shí)踐中已有成效,但仍難以有效根除責(zé)任事故和社會負(fù)面影響。

二、社會視角的人工智能社會風(fēng)險應(yīng)對

透過社會視角,人工智能在人財損失之外,還可能導(dǎo)致或加劇社會失序、倫理失范等綜合風(fēng)險,全球也已在逐步重視并將風(fēng)險應(yīng)對措施付諸實(shí)踐。

(一)社會視角的風(fēng)險源分析

社會視角的人工智能風(fēng)險,其實(shí)質(zhì)是在社會應(yīng)用中,人工智能可能異化生產(chǎn)關(guān)系,并加劇風(fēng)險后果的復(fù)雜性、疊加性和長期性。

第一,人工智能的應(yīng)用可能對就業(yè)產(chǎn)生影響,進(jìn)而引發(fā)“大多數(shù)利益受損”和“極少數(shù)權(quán)益被剝奪”,是社會風(fēng)險的重要來源。人工智能可能導(dǎo)致大規(guī)?,F(xiàn)有崗位“被自動化”問題,若機(jī)器替代人工成為普遍趨勢,則絕大多數(shù)民眾將不可避免地面臨待崗失業(yè)和重新?lián)駱I(yè)的境遇,而極少數(shù)弱勢群體或?qū)⒚媾R永久性失業(yè)的客觀局面。根據(jù)多項(xiàng)研究顯示,超過一半的現(xiàn)有工作崗位最終將完全被自動化和機(jī)器人替代,[注]2010年牛津大學(xué)研究預(yù)測未來10至20年將有47%的崗位會被人工智能所取代;2016年世界經(jīng)濟(jì)論壇預(yù)測未來5年將有500萬個崗位會失去;2017年麥肯錫研究報告顯示60%的職業(yè)面臨被技術(shù)替代的可能性。預(yù)示著人工智能的充分應(yīng)用將出現(xiàn)民眾利益受損的連鎖反應(yīng)。

第二,人工智能用于關(guān)乎公共利益或涉及公共決策的范疇時,可能出現(xiàn)對于公共利益的侵害行為,進(jìn)而引發(fā)社會風(fēng)險。突出表現(xiàn)為:一是刑事司法、就業(yè)保障等政府可采取智能決策的公共領(lǐng)域,若出現(xiàn)技術(shù)被誤用,可能出現(xiàn)歧視偏見或潛在不公的爭議,則將導(dǎo)致關(guān)聯(lián)社會群體的利益受損;二是自動駕駛等與廣大人民群眾生命財產(chǎn)安全緊密相關(guān)的領(lǐng)域,一旦出現(xiàn)風(fēng)險,其影響范圍廣泛、關(guān)聯(lián)群體眾多。對此,美國紐約通過《關(guān)于政府機(jī)構(gòu)使用自動化決策系統(tǒng)的當(dāng)?shù)胤ā?A Local Law in Relation to Automated Decision Systems Used by Agencies),[注]相關(guān)報道詳見:Smartcitiesdive.New York City Council passes bill to address algorithmic discrimination,2017-12-20,https://www.smartcitiesdive.com/news/new-york-city-council-passes-bill-to-address-algorithmic-discrimination/513518/;方案內(nèi)容詳見:http://legistar.council.nyc.gov/LegislationDetail.aspx?ID=3137815&GUID=437A6A6D-62E1-47E2-9C42-461253F9C6D0.要求對政府機(jī)構(gòu)使用的人工智能決策系統(tǒng)進(jìn)行算法問責(zé)和安全規(guī)制,以確保自動決策算法的公開透明,避免“算法歧視”。

第三,人工智能應(yīng)用中的“零和博弈”若成為思維定勢,將固化或加劇人類與人工智能的對立。一種觀念是“間接零和博弈”,認(rèn)為優(yōu)勢群體應(yīng)用人工智能將加速或加劇資源的“不均等分配”,進(jìn)而拉大不同群體間的差距;若所謂的“超人工智能”時代成真,則社會可能裂變?yōu)閮纱箅A層,大部分人屬于“無用階層”(Useless Class),極小部分人屬于社會精英階層。[注]Yuval Noah Harari,The rise of the useless class,2017-02-24,https://ideas.ted.com/the-rise-of-the-useless-class/.另一種觀念是“直接零和博弈”,更加極端地將人工智能與人類直接對立,甚至表現(xiàn)為“人工智能威脅論”,認(rèn)為人類與人工智能之間存在不可調(diào)和的矛盾,人工智能長期發(fā)展將導(dǎo)致“技術(shù)反制人類”;進(jìn)而出現(xiàn)技術(shù)威脅人類安全或生存的風(fēng)險,“機(jī)械作為人類與自然斗爭的工具將最終支配人類、人類有可能成為機(jī)械的奴隸”[注]A.M.Olson,“Review: Jaspers, Heidegger, and ‘The Phantom of Existentialism’”,Human Studies, Vol.7, 1984(3/4):387-395.的預(yù)測。

(二)社會視角的風(fēng)險兌現(xiàn)機(jī)理與應(yīng)對要求

社會視角的人工智能社會風(fēng)險,主要表現(xiàn)為民眾的利益遭受侵害的風(fēng)險,既有極少數(shù)弱勢群體的損失風(fēng)險,也有大多數(shù)甚至全體民眾的權(quán)益受損風(fēng)險。因此全球已重視并啟用有針對性的管理手段予以應(yīng)對。

第一,人工智能的應(yīng)用違背本國法律或公序良俗,其風(fēng)險應(yīng)對要求法律或道德的約束。人工智能在某些應(yīng)用場景中,可能出現(xiàn)違背本國法律或挑戰(zhàn)公序良俗的問題:一是在涉及生命倫理的領(lǐng)域,人工智能的研發(fā)若超越倫理約束或道德認(rèn)知,可能導(dǎo)致民眾難以容忍的后果;二是精密部署的智能監(jiān)控技術(shù),可能出現(xiàn)侵犯隱私的違法行為或倫理爭議;三是人類對人機(jī)情感交互中獲得快感的依賴,可能對傳統(tǒng)的家庭倫理、社會道德、風(fēng)俗文化等產(chǎn)生沖擊;四是技術(shù)成熟和全面應(yīng)用的智能機(jī)器人是否具備人格和人權(quán)的“機(jī)械倫理學(xué)”問題。對此,社會視角的風(fēng)險應(yīng)對要求法律和道德的約束,加強(qiáng)立法并嚴(yán)格執(zhí)法,同時完善和遵循倫理道德規(guī)范。

第二,人工智能應(yīng)用過程中可能產(chǎn)生“馬太效應(yīng)”,而普惠性的技術(shù)應(yīng)用是其風(fēng)險應(yīng)對的基本要求。人工智能應(yīng)用可能觸發(fā)強(qiáng)者越強(qiáng)、弱者越弱的“馬太效應(yīng)”,進(jìn)而導(dǎo)致社會不公:一是加劇“數(shù)字鴻溝”(Digital Divide),不同群體對信息數(shù)據(jù)、網(wǎng)絡(luò)資源、智能技術(shù)等產(chǎn)生的差距在人工智能應(yīng)用下進(jìn)一步拉大,進(jìn)而發(fā)展為資源獲取、財富積累、受教育水平之間的差距;二是人工智能技術(shù)發(fā)展初期存在“索洛悖論”(Productivity Parado),社會生產(chǎn)率提升相對于技術(shù)進(jìn)步存在遲滯,且勞動生產(chǎn)率的提升難以同步轉(zhuǎn)化為收入的普遍增長和消費(fèi)成本的普遍下降,進(jìn)而加劇貧富差距;三是人工智能產(chǎn)業(yè)發(fā)展的“虹吸效應(yīng)”(Siphon Effect),依靠技術(shù)研發(fā)和高額投資的人工智能產(chǎn)業(yè),更多分布于具有資本和技術(shù)優(yōu)勢的主體、領(lǐng)域、地區(qū),從而拉大社會差距。對此,社會視角的風(fēng)險應(yīng)對更加要求普惠性的技術(shù)應(yīng)用,以縮小社會差距和緩解社會不公。

第三,人工智能可能加深“社會達(dá)爾文主義”(Social Darwinism),而保障弱勢的制度和政策是其風(fēng)險應(yīng)對的支撐。人工智能應(yīng)用中,管理主體的“社會達(dá)爾文主義”傾向可能導(dǎo)致弱勢的合理權(quán)益得不到有效保障。微觀層面的突出問題表現(xiàn)為:忽視自動化生產(chǎn)下的群體失業(yè)和貧富差距,大規(guī)模自動化生產(chǎn)將導(dǎo)致勞動密集型產(chǎn)業(yè)的從業(yè)人員面臨“結(jié)構(gòu)性失業(yè)”風(fēng)險,也導(dǎo)致普通行業(yè)領(lǐng)域的“職業(yè)極化”和收入差距。[注]根據(jù)麥肯錫2018年9月發(fā)布的《人工智能對全球經(jīng)濟(jì)影響的模擬計算》,重復(fù)性任務(wù)和少量數(shù)字技術(shù)為特征的崗位需求或從目前的40%下降到30%,其在工資總額中的占比或?qū)?3%下降到20%。宏觀層面的突出問題表現(xiàn)為:忽視人工智能應(yīng)用對全球產(chǎn)業(yè)布局的破壞,自動化生產(chǎn)將導(dǎo)致跨國企業(yè)把生產(chǎn)部門從發(fā)展中國家或地區(qū)回遷,使其失去以承接產(chǎn)業(yè)轉(zhuǎn)移方式進(jìn)入全球產(chǎn)業(yè)鏈的機(jī)會,可能致使國際話語權(quán)、規(guī)則制定權(quán)、議程設(shè)定權(quán)被個別“獨(dú)斷”。對此,社會視角的風(fēng)險應(yīng)對更迫切地要求形成保護(hù)弱勢群體的“安全閥”制度。

(三)社會視角的風(fēng)險應(yīng)對理念和現(xiàn)有措施

全球經(jīng)驗(yàn)表明,社會視角的人工智能社會風(fēng)險應(yīng)對,主要圍繞保障個體合法權(quán)益來開展的。

第一,應(yīng)用管理手段和政策措施,嚴(yán)防具有社會責(zé)任且易導(dǎo)致負(fù)面影響的人工智能社會風(fēng)險,切實(shí)保障絕大多數(shù)的合法合理利益和極少數(shù)弱勢群體的權(quán)益。社會視角的風(fēng)險應(yīng)對遵循價值理性的準(zhǔn)則,針對“存在社會責(zé)任且負(fù)面影響惡劣”的高危風(fēng)險,秉持以人為本的理念和人文關(guān)懷的責(zé)任,通過采取相應(yīng)的社會規(guī)則和福利政策來保護(hù)個體權(quán)益,有效應(yīng)對社會風(fēng)險。

第二,針對企業(yè)在研發(fā)和應(yīng)用中的不規(guī)范、亂作為、不自律等問題,建立健全法律法規(guī)以形成有效約束,有效保障使用者合法權(quán)益,進(jìn)而緩解社會風(fēng)險。例如,歐盟針對用戶隱私保護(hù)問題出臺了《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation),[注]《通用數(shù)據(jù)保護(hù)條例》(英語:General Data Protection Regulation,縮寫作 GDPR;歐盟法規(guī)編號:(EU) 2016/679)是在歐盟法律中對所有歐盟個人關(guān)于數(shù)據(jù)保護(hù)和隱私的規(guī)范,涉及了歐洲境外的個人資料出口。https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A32016R0679.為企業(yè)在收集和利用個人數(shù)據(jù)方面制定一系列具備法律效力的規(guī)則,包括:規(guī)定企業(yè)利用用戶個人數(shù)據(jù)前提供合法憑據(jù),明確特殊類型數(shù)據(jù)的禁用原則,明確保障用戶的一系列數(shù)據(jù)權(quán)利,設(shè)定數(shù)據(jù)安全保障能力的標(biāo)準(zhǔn)等。

第三,針對面向弱勢群體和缺乏技能的勞動者,國家和地區(qū)逐步采取專項(xiàng)的就業(yè)福利和社會保障政策,確保極端弱勢群體得到保護(hù),從而對沖社會風(fēng)險。例如,美國政府為勞動者提供轉(zhuǎn)型指引,啟動“失業(yè)保險、醫(yī)療和營養(yǎng)補(bǔ)充救助計劃”(Unemployment insurance, Medicaid, Supplemental Nutrition Assistance Program)和“貧困家庭臨時救助”(Temporary Assistance for Needy Families),為工人提供就業(yè)指導(dǎo)、上崗培訓(xùn)、咨詢服務(wù)等。

因此,社會視角的人工智能社會風(fēng)險應(yīng)對,通過管理手段對可能導(dǎo)致惡劣負(fù)面影響的高危風(fēng)險開展應(yīng)對,確有成效;但在價值理性的單維度指導(dǎo)下,也難免出現(xiàn)難以真正實(shí)現(xiàn)公平公正等客觀問題。

三、治理視角的人工智能社會風(fēng)險應(yīng)對

全球的實(shí)踐表明:僅靠技術(shù)視角或社會視角來應(yīng)對人工智能的社會風(fēng)險,存有局限性。第一,人工智能是技術(shù)屬性和社會屬性的集合體,其技術(shù)風(fēng)險和社會風(fēng)險的交互融合致使社會風(fēng)險機(jī)理復(fù)雜并可能不斷涌現(xiàn)出新生風(fēng)險,難以靜態(tài)地應(yīng)對動態(tài)風(fēng)險。第二,人工智能是工具理性和價值理性的對立統(tǒng)一;工具理性的人工智能秉持效率優(yōu)先的發(fā)展理念,而價值理性的人工智能更強(qiáng)調(diào)公平秩序前提下的應(yīng)用,有可能出現(xiàn)優(yōu)先次序的矛盾,其實(shí)質(zhì)是難以用單一維度孤立地解決綜合的社會風(fēng)險。第三,人工智能的正效益和副作用可能在應(yīng)用時長期并存,如果忽略考量民眾的真實(shí)意愿和主觀能動性,則易出現(xiàn)夸大負(fù)面影響或錯失發(fā)展機(jī)遇等現(xiàn)實(shí)問題。因此,人工智能的社會風(fēng)險,應(yīng)引入科學(xué)的風(fēng)險治理模型,透過治理視角來全面和系統(tǒng)地應(yīng)對。

(一)人工智能的社會風(fēng)險應(yīng)對的“兩維雙向”風(fēng)險治理模型

通過治理視角,人工智能的社會風(fēng)險應(yīng)對,還要綜合考量:戰(zhàn)略風(fēng)險和機(jī)會成本、動態(tài)風(fēng)險和協(xié)同治理、深層次的系統(tǒng)風(fēng)險和制度防控等一系列的社會因素。因此,建議通過“兩維雙向”的治理模型來分析和應(yīng)對:“兩維”指技術(shù)維度和社會維度,從“技術(shù)維—社會維”進(jìn)行根源分析和定性評估;“雙向”指正功能向和負(fù)功能向,對“正功能向—負(fù)功能向”進(jìn)行辯證分析和科學(xué)應(yīng)對;有針對性地對四個象限開展科學(xué)的風(fēng)險治理策略(詳見圖1)。

圖1 人工智能社會風(fēng)險治理的“兩維雙向”模型

如上圖所示,人工智能的社會風(fēng)險應(yīng)對,具有四項(xiàng)共性目標(biāo):

第一,充分發(fā)揮人工智能的正面效益,提升國家競爭力,應(yīng)對系統(tǒng)風(fēng)險。主要策略有三:一是提升關(guān)鍵項(xiàng)的競爭力,人工智能的發(fā)展需與現(xiàn)有的技術(shù)優(yōu)勢和經(jīng)濟(jì)強(qiáng)項(xiàng)緊密結(jié)合,發(fā)揮“長板效應(yīng)”;二是夯實(shí)基礎(chǔ)領(lǐng)域競爭力,強(qiáng)化關(guān)聯(lián)行業(yè)建設(shè)和技術(shù)研發(fā)投資;三是提升整體競爭力,人工智能發(fā)展存在“短板效應(yīng)”,其短板問題若得不到解決將拉低整體競爭力,對此應(yīng)加強(qiáng)“補(bǔ)短板”的戰(zhàn)略布局和實(shí)施。

第二,綜合應(yīng)用多種風(fēng)險管理策略,切實(shí)提升對安全風(fēng)險的承受力,確保風(fēng)險處于社會可承受的范圍內(nèi)。對此,應(yīng)將承受力作為風(fēng)險研判定級和應(yīng)對策略的依據(jù):一是對于難承受的風(fēng)險,采取措施提前規(guī)避或消除;二是對于可承受的風(fēng)險,做好及時干預(yù)和對沖工作,確保可控或可抵御;三是根據(jù)風(fēng)險承受力情況,動態(tài)評估風(fēng)險,適時調(diào)整應(yīng)對方案。

第三,強(qiáng)化人工智能應(yīng)用中的制度約束力,對引發(fā)風(fēng)險的主觀因素進(jìn)行有效約束,從而有效應(yīng)對秩序風(fēng)險。一是一般領(lǐng)域的“自我約束”,促進(jìn)企業(yè)自律自治并履行社會責(zé)任,主動規(guī)避或防范人工智能的社會風(fēng)險;二是特定領(lǐng)域的“硬約束”,建立健全法律法規(guī)和管理制度,在特定領(lǐng)域或特殊行業(yè)形成必要的硬性約束力;三是前沿領(lǐng)域的“軟約束”,加強(qiáng)對人工智能倫理道德的前瞻預(yù)測與呼吁倡導(dǎo),提倡自覺規(guī)避違背倫理道德的社會風(fēng)險。

第四,提升風(fēng)險治理的社會協(xié)同力,形成各方共治共擔(dān)風(fēng)險的格局,有效對沖或緩解社會風(fēng)險。一是風(fēng)險所有權(quán)主體全員在各司其職的同時加強(qiáng)聯(lián)動合作,提升風(fēng)險防控整體能力;二是共創(chuàng)共享社會經(jīng)濟(jì)效益以提高社會凝聚力,對沖社會風(fēng)險;三是落實(shí)就業(yè)培訓(xùn)、人才培養(yǎng)、福利保障、公共關(guān)系、公眾溝通等相關(guān)政策保障以提升社會耐受力,降低負(fù)面影響。

因此,通過競爭力、承受力、約束力、協(xié)同力的提升,從而綜合統(tǒng)籌人工智能發(fā)展、個體安全感、國家競爭力的三者關(guān)系,提升正面效益、降低負(fù)面風(fēng)險。

(二)治理視角的人工智能社會風(fēng)險應(yīng)對方針

治理視角的人工智能風(fēng)險應(yīng)對,實(shí)質(zhì)上是踐行“賦能+避險”的風(fēng)險方針:以避險為前提,同時賦能人類;既發(fā)揮全面提升競爭力的正面賦能作用,同步通過規(guī)避超出承受力的社會負(fù)面影響。在此過程中,還應(yīng)該在“兩維雙向”治理模型的基礎(chǔ)上納入“PR”模型和“IR”模型,對風(fēng)險發(fā)生的可能性(P:Possibility)、后果損失(R:Result)、負(fù)面影響(I:Impact)、社會責(zé)任(R:Responsibility)進(jìn)行綜合分析,從而在科學(xué)的風(fēng)險定級的基礎(chǔ)上實(shí)施精細(xì)化的風(fēng)險應(yīng)對(詳見圖2)。

圖2 人工智能風(fēng)險定級的“兩維雙向 & PR-IR”模型

第一,針對存在高危風(fēng)險的領(lǐng)域,建議禁止應(yīng)用。警鐘長鳴,在謹(jǐn)慎評估和全面審查的基礎(chǔ)上,將存在高危風(fēng)險的應(yīng)用列入“負(fù)面清單”,審核時采取“一票否決”制度,以消除高危風(fēng)險,實(shí)現(xiàn)避險。例如,軍事國防領(lǐng)域的濫用和智能武器的過度開發(fā)應(yīng)列入“負(fù)面清單”,人工智能行業(yè)共識之一的“阿西洛馬人工智能原則”[注]2017年1月,在美國加州阿西洛馬召開的“阿西洛馬會議”上,數(shù)百名人工智能和機(jī)器人領(lǐng)域的專家們聯(lián)合簽署了“阿西洛馬人工智能原則”,呼吁全世界的人工智能領(lǐng)域工作遵守這些原則,共同保障人類未來的利益和安全。建議“致命自主武器的軍備競賽”應(yīng)被禁用。

第二,針對存在中危風(fēng)險的領(lǐng)域,建議限制應(yīng)用的“治理+AI”路徑。治理牽引,在安全可靠的情境中引入人工智能的有限應(yīng)用,充分發(fā)揮技術(shù)優(yōu)勢促進(jìn)制造、教育、醫(yī)療、養(yǎng)老、環(huán)保、城市管理、司法等領(lǐng)域社會治理的精細(xì)化和智能化,提升人民生活的幸福感和獲得感;同步掌握技術(shù)發(fā)展應(yīng)用的關(guān)鍵決策權(quán),根據(jù)實(shí)際情況合理限制人工智能的自主程度和智能水平,兼顧避險和賦能。

第三,針對存在低危風(fēng)險的領(lǐng)域,建議鼓勵應(yīng)用的“AI+治理”路徑。發(fā)展人工智能優(yōu)先,在人類權(quán)益保護(hù)和價值實(shí)現(xiàn)的基礎(chǔ)上,充分發(fā)揮人工智能在推動科技跨越發(fā)展、產(chǎn)業(yè)優(yōu)化升級、生產(chǎn)力整體躍升等方面的“頭雁效應(yīng)”作用,鼓勵人工智能在國家創(chuàng)新能力提升、培育智能產(chǎn)業(yè)、建設(shè)智能社會、保障和維護(hù)國家安全等領(lǐng)域更好地賦能人類,持續(xù)提升生產(chǎn)力和優(yōu)化生產(chǎn)關(guān)系。

(三)治理視角的人工智能社會風(fēng)險防控機(jī)制

透過治理視角,即便是鼓勵應(yīng)用的人工智能領(lǐng)域,其發(fā)展仍要以科學(xué)的風(fēng)險防控機(jī)制為基礎(chǔ);在充分的安全保障的前提下鼓勵其快速和健康發(fā)展。健全科學(xué)和有效的人工智能社會風(fēng)險防控機(jī)制,主要由三部分構(gòu)成。

第一,社會風(fēng)險的事前評估與前置管理,實(shí)現(xiàn)風(fēng)險控制的關(guān)口前移。以安全技術(shù)標(biāo)準(zhǔn)和應(yīng)用道德規(guī)范為依據(jù),對人工智能產(chǎn)品開展事前的安全測試、風(fēng)險評估、道德審查,及時發(fā)現(xiàn)其可能引發(fā)技術(shù)缺陷、安全故障、道德爭議的風(fēng)險;對具有高危風(fēng)險的產(chǎn)品予以“一票否決”,對具有中低危風(fēng)險的產(chǎn)品予以修正和彌補(bǔ),盡可能確保生產(chǎn)使用中的無缺陷、少故障或零爭議。例如:美國《自動駕駛法案》(H.R.3388-SELF DRIVE Act)[注]The U.S Congress,H.R.3388-SELF DRIVE Act,2017-09-07,https://www.congress.gov/bill/115th-congress/house-bill/3388.要求發(fā)展自動化或自動駕駛系統(tǒng)的實(shí)體提交如何解決安全問題的評估證書,闡述相關(guān)測試結(jié)果、數(shù)據(jù),證明自動駕駛實(shí)體可保持安全性能。

第二,社會風(fēng)險的全程監(jiān)測與動態(tài)干預(yù),打造“無縫隙”的風(fēng)險控制。以合法性、合理性、可控性、安全性等為參考,對算法設(shè)計、產(chǎn)品開發(fā)、成果應(yīng)用的各環(huán)節(jié)開展技術(shù)監(jiān)測、管理督導(dǎo)、社會監(jiān)督,在動態(tài)變化的研發(fā)和使用環(huán)境中及時發(fā)現(xiàn)失誤或糾正偏差,以確保人工智能產(chǎn)品的安全使用、合法運(yùn)轉(zhuǎn)、合規(guī)運(yùn)營。例如,人工智能領(lǐng)域的第三方研究機(jī)構(gòu)AI Now[注]AI Now,AI Now 2017 Report,2017-07-10,https://ainowinstitute.org/AI_Now_2017_Report.pdf.提出企業(yè)應(yīng)在人工智能系統(tǒng)應(yīng)用的全流程加強(qiáng)監(jiān)管:既要在系統(tǒng)發(fā)布前進(jìn)行嚴(yán)格的預(yù)發(fā)布測試(Rigorous Pre-release Trials)以規(guī)避系統(tǒng)錯誤或偏差,也要在系統(tǒng)發(fā)布后繼續(xù)監(jiān)測其在不同環(huán)境中的使用情況。

第三,社會風(fēng)險的事后整改與根源治理,形成風(fēng)險控制的良性循環(huán)。通過事后的追責(zé)懲治、賠償救濟(jì)、問題整改,達(dá)到多方面成效:一是對受害者給予合理補(bǔ)償,一定程度上對沖風(fēng)險;二是對人工智能設(shè)計者和運(yùn)營者形成“威懾效應(yīng)”,引導(dǎo)其重視安全和規(guī)范操作;三是開展相應(yīng)整改,健全法律法規(guī)、協(xié)調(diào)政策制度,根源治理風(fēng)險,防治同類問題再次發(fā)生。例如,《歐盟通用數(shù)據(jù)保護(hù)條例》明確規(guī)定了對隱私泄露違規(guī)行為進(jìn)行懲罰的具體情境、追責(zé)方式、懲罰力度、救濟(jì)標(biāo)準(zhǔn),要求若企業(yè)在收集和使用個人數(shù)據(jù)的過程中違規(guī),可被處罰至最高2 000萬歐元或者全球年度總營業(yè)額4%的罰款。

(四)治理視角的人工智能社會風(fēng)險共治格局

人工智能的風(fēng)控機(jī)制并非目的,而是要保障人工智能的有序發(fā)展,最終提升生產(chǎn)力和優(yōu)化生產(chǎn)關(guān)系。因此,透過治理視角,人工智能的社會風(fēng)險應(yīng)對,亟待多元主體落實(shí)各自的風(fēng)險所有權(quán)、共擔(dān)共治風(fēng)險、共建共享發(fā)展。

第一,明確多元主體的風(fēng)險所有權(quán),各方切實(shí)履行人工智能研發(fā)和應(yīng)用中的職責(zé),形成權(quán)責(zé)一致、積極負(fù)責(zé)的風(fēng)險所有權(quán)機(jī)制。一是應(yīng)具備“透明性”原則的前置條件,可采取特定領(lǐng)域中人工智能算法設(shè)計和系統(tǒng)運(yùn)行的透明性準(zhǔn)入要求、人工智能研發(fā)者的認(rèn)證審批制度、安全信息的強(qiáng)制披露制度等措施,確保研發(fā)“透明性”,為明晰責(zé)任分布提供技術(shù)環(huán)境;二是明確多主體在不同領(lǐng)域和階段的風(fēng)險所有權(quán),對于開發(fā)者、生產(chǎn)者、銷售者、使用者、監(jiān)管者,均應(yīng)明確其權(quán)利、義務(wù)、責(zé)任,形成“行為—主體—?dú)w責(zé)”的風(fēng)險責(zé)任體系;三是建立事后追溯和問責(zé)制度,形成全流程、動態(tài)化、循環(huán)式的責(zé)任管理機(jī)制。

第二,完善共治制度,形成多方共管,在對社會主體形成有效約束的同時,保障其自由權(quán)利和合法權(quán)益,提升約束力基礎(chǔ)上的承受力。一是企業(yè)方應(yīng)自覺接受法律制度約束,在產(chǎn)品安全、人權(quán)保護(hù)、透明性和可解釋性、避免歧視和偏見等方面強(qiáng)化企業(yè)自律和行業(yè)自管;二是研究機(jī)構(gòu)應(yīng)在遵循法律法規(guī)和道德規(guī)范的基礎(chǔ)上開展相關(guān)研究,確保研究過程和結(jié)果的合法、合理、可行、安全、可控;三是政府方應(yīng)在涉及群眾生命財產(chǎn)安全的應(yīng)用情境中加強(qiáng)政策引導(dǎo)和監(jiān)管問責(zé),同步接受內(nèi)部審查和外部監(jiān)督;四是社會方的積極并有序監(jiān)督,群眾作為消費(fèi)者和企業(yè)員工、開展基于利益相關(guān)的監(jiān)督,新聞媒體通過合理的輿論施壓來敦促多方履責(zé),社會第三方基于專業(yè)技能和中立權(quán)威開展監(jiān)督、推動整改。

第三,健全共治機(jī)制,開展多維合作,發(fā)揮各自所長,實(shí)現(xiàn)共建和共贏,提高協(xié)同力作用下的競爭力。一是深化產(chǎn)教融合下的跨性質(zhì)合作,不同性質(zhì)的主體達(dá)成共識并形成合作,以促成綜合應(yīng)對方案、解決系統(tǒng)問題;二是形成有利于科學(xué)決策的跨領(lǐng)域合作,搭建與多元利益相關(guān)主體討論合作的平臺,創(chuàng)造政府、專家、公眾等多元參與治理決策的機(jī)制,解決綜合性的系統(tǒng)偏差問題并規(guī)避單一技術(shù)專家決策的高風(fēng)險;三是開展區(qū)域聯(lián)盟和全球治理的跨地域合作,既利用區(qū)位優(yōu)勢和聯(lián)盟傳統(tǒng)以形成跨國性或區(qū)域性的人工智能發(fā)展聯(lián)盟,也需開展全球范圍內(nèi)的資源整合和協(xié)同合作,提升綜合競爭力的同時共治社會風(fēng)險。基于此,實(shí)現(xiàn)國家安全保障和競爭力提升、企業(yè)兼得經(jīng)濟(jì)效益和社會效益、人民群眾利益得到切實(shí)保障的多方共贏局面,這也是優(yōu)化生產(chǎn)關(guān)系的實(shí)質(zhì)之所在。

綜上,人工智能的社會風(fēng)險應(yīng)對,應(yīng)在治理視角下,綜合技術(shù)視角和社會視角,補(bǔ)短板、強(qiáng)系統(tǒng)、優(yōu)協(xié)同,在切實(shí)規(guī)避人財損失和負(fù)面影響的風(fēng)險、保障人民群眾合法合理權(quán)益的基礎(chǔ)上,充分發(fā)揮人工智能“賦能”人類的作用,以提升社會生產(chǎn)力、國家競爭力和優(yōu)化生產(chǎn)關(guān)系為導(dǎo)向,持續(xù)提高人民群眾的安全感、獲得感、幸福感和滿意度。

猜你喜歡
人工智能
我校新增“人工智能”本科專業(yè)
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當(dāng)人工智能遇見再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問
人工智能與就業(yè)
基于人工智能的電力系統(tǒng)自動化控制
人工智能,來了
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來了
清新县| 平潭县| 大余县| 遂川县| 宽甸| 孝昌县| 乡宁县| 高陵县| 江阴市| 桂阳县| 南京市| 利川市| 太保市| 保德县| 青州市| 纳雍县| 明溪县| 新建县| 阳新县| 揭东县| 武义县| 崇义县| 二连浩特市| 诏安县| 德惠市| 富裕县| 麻江县| 遂川县| 临西县| 吉首市| 榆中县| 拜泉县| 西平县| 阿合奇县| 孟州市| 苗栗市| 吉林市| 呼和浩特市| 阳高县| 淅川县| 郯城县|