龐金友
【摘要】人工智能是20世紀(jì)以來最為深刻、最有影響的技術(shù)革命和社會(huì)進(jìn)步。它在深度挑戰(zhàn)傳統(tǒng)生產(chǎn)方式和經(jīng)濟(jì)關(guān)系的同時(shí),也在廣泛改變著現(xiàn)代人的日常行為和社會(huì)生活。人類長(zhǎng)期既定的認(rèn)知體系、價(jià)值觀念和生活方式,習(xí)以為常的法律規(guī)則、道德信條甚至決策機(jī)制都面臨著前所未有的危機(jī)和挑戰(zhàn)。全新的AI時(shí)代內(nèi)在地需要全新的治理理念和治理形式。這就意味著治理體系和治理能力必須實(shí)現(xiàn)跨級(jí)飛躍:從傳統(tǒng)治理到互聯(lián)網(wǎng)治理,再到AI精準(zhǔn)治理。AI精準(zhǔn)治理必須堅(jiān)持創(chuàng)新、適度、平衡和多元四大原則,建構(gòu)由政府、市場(chǎng)和社會(huì)組織等多元主體攜手合作、共同參與的多層次、多樣化的新型治理模式,既能合理應(yīng)對(duì)可能出現(xiàn)的諸多風(fēng)險(xiǎn),又能積極支持人工智能的有序發(fā)展。
【關(guān)鍵詞】人工智能 大數(shù)據(jù) AI治理 精準(zhǔn)治理
【中圖分類號(hào)】TP18 【文獻(xiàn)標(biāo)識(shí)碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2018.10.001
人類正在步入一個(gè)由互聯(lián)網(wǎng)、大數(shù)據(jù)和人工智能(Artificial Intelligence, AI)三重疊加的數(shù)字時(shí)代?!叭吖餐瑯?biāo)志著人類新時(shí)代的三個(gè)側(cè)面,共同構(gòu)成了新的社會(huì)時(shí)代。網(wǎng)絡(luò)側(cè)重于描述人類社會(huì)乃至與物理社會(huì)廣泛連接的狀態(tài),大數(shù)據(jù)側(cè)重描述新社會(huì)狀態(tài)下的內(nèi)容形態(tài)和數(shù)字本位狀態(tài),人工智能則描述了新的社會(huì)創(chuàng)造物和廣泛的機(jī)器介入的社會(huì)狀態(tài)?!盵1]20世紀(jì)40年代,通用計(jì)算機(jī)和存儲(chǔ)設(shè)備走入普通人的日常生活,數(shù)字時(shí)代開啟。20世紀(jì)50年代,網(wǎng)絡(luò)技術(shù)獲重大突破,為網(wǎng)絡(luò)時(shí)代的到來鋪平了道路。20世紀(jì)60年代,芯片、激光和通信三大技術(shù)迅速升級(jí),促成了互聯(lián)網(wǎng)絡(luò)、數(shù)據(jù)處理和智能機(jī)器的迅猛發(fā)展。20世紀(jì)90年代,互聯(lián)網(wǎng)逐步普及。網(wǎng)絡(luò)不再僅僅意味著技術(shù)和工具,而成為溝通平臺(tái)和組織原則。傳統(tǒng)人類生活開始被網(wǎng)絡(luò)解構(gòu)、重構(gòu)、再構(gòu),人與人之間的交往、交換和交流逐漸圍繞網(wǎng)絡(luò)展開,人類開始步入網(wǎng)絡(luò)時(shí)代。隨著傳感器技術(shù)的應(yīng)用,海量級(jí)數(shù)據(jù)存儲(chǔ)的普及,新型通信技術(shù)的開發(fā),人類社會(huì)生活的數(shù)據(jù)規(guī)模呈指數(shù)級(jí)上升。2010年左右,大數(shù)據(jù)時(shí)代宣告到來。21世紀(jì)的第二個(gè)10年,伴隨數(shù)據(jù)處理能力的大幅提升,超級(jí)運(yùn)算技術(shù)的廣泛應(yīng)用,新式算法的橫空出世,人工智能領(lǐng)域的跨越式發(fā)展讓人目不暇接,甚至有些始料不及。所有的現(xiàn)實(shí)都在顯示:無(wú)論人類情愿與否,一個(gè)全新的人工智能時(shí)代正在迎面走來。如何理解人工智能帶給人類世界的機(jī)遇和挑戰(zhàn),如何認(rèn)識(shí)人工智能引發(fā)的一系列社會(huì)影響和治理困境,如何確立人工智能時(shí)代精準(zhǔn)治理的方向與原則,既是一個(gè)重大的理論課題,也是一個(gè)迫切的現(xiàn)實(shí)難題。
人工智能時(shí)代:大幕初啟的數(shù)字革命
人工智能,顧名思義,是指通過軟硬件的結(jié)合使機(jī)器具有一定程度的類人智慧、思維和行為。這一概念與內(nèi)涵也在隨著應(yīng)用范圍和相關(guān)學(xué)科的發(fā)展而變化。但毫無(wú)疑問,這是一個(gè)被高度關(guān)注、廣泛使用且正在飛速發(fā)展的新興領(lǐng)域。[2]
20世紀(jì)40年代,圖靈提出著名的“圖靈測(cè)試”:“如果一臺(tái)機(jī)器能夠與人類展開對(duì)話而不能被辨別出其機(jī)器身份,那么稱這臺(tái)機(jī)器具有智能?!盵3]隨后,在香農(nóng)和馮·諾伊曼的努力下,現(xiàn)代信息論和計(jì)算機(jī)科學(xué)的理論根基得以確立。在1956年美國(guó)的達(dá)特茅斯會(huì)議上,人工智能概念和研究領(lǐng)域被正式提出。自20世紀(jì)60年代起,人工智能大體經(jīng)歷了兩大發(fā)展階段:一是弱人工智能階段,依靠單臺(tái)機(jī)器或小型局域網(wǎng)絡(luò),只能完成簡(jiǎn)單的程序和任務(wù);二是強(qiáng)人工智能階段,全球互聯(lián),大數(shù)據(jù)全覆蓋,終端云端協(xié)同運(yùn)作,云存儲(chǔ)云計(jì)算同步開啟,已經(jīng)具備近人類的思考方式和處理復(fù)雜任務(wù)的能力。[4]
近些年來,人工智能技術(shù)的革新更加突飛猛進(jìn),某些領(lǐng)域的發(fā)展水平已達(dá)到了前所未有的高度。1997年5月,IBM計(jì)算機(jī)“深藍(lán)”輕松戰(zhàn)勝國(guó)際象棋世界冠軍卡斯帕羅夫。2016年3月,谷歌“阿爾發(fā)狗”(AlphaGo)戰(zhàn)勝圍棋冠軍李世石。次年5月,再度戰(zhàn)勝排名世界第一的世界圍棋冠軍柯潔。雖然“阿爾發(fā)狗”是否代表人工智能發(fā)展方向這一問題還有爭(zhēng)議,但人們比較認(rèn)可的是,它象征著計(jì)算機(jī)技術(shù)已進(jìn)入人工智能的新信息技術(shù),其特征是大數(shù)據(jù)、大計(jì)算、大決策,三位一體。它的智慧正在接近人類。2017年10月18日,DeepMind團(tuán)隊(duì)公布了最強(qiáng)版的AlphaGo Zero,它的獨(dú)門秘籍是“自學(xué)成才”,從零基礎(chǔ)開始學(xué)習(xí)圍棋短短3天后就以100:0碾壓了第二個(gè)版本的“舊狗”(戰(zhàn)勝李世石的那版)。2005年5月,美國(guó)斯坦福大學(xué)研制的無(wú)人駕駛汽車在沙漠中行駛了132英里,開啟了無(wú)人駕駛汽車的新時(shí)代。2014年5月,Google正式推出的新型無(wú)人駕駛汽車開始路測(cè)。2015年2月,英國(guó)的無(wú)人駕駛汽車也正式亮相。據(jù)統(tǒng)計(jì),2014年至今,全球范圍內(nèi)與自動(dòng)駕駛技術(shù)相關(guān)的投資、合伙、并購(gòu)多達(dá)200多項(xiàng),涉及總額高達(dá)1000億美元。[5]以互聯(lián)網(wǎng)科技先鋒自居的英特爾,早在2017年1月美國(guó)GES展會(huì)上就高調(diào)宣布與奔馳合作并將于近期推出AI駕駛汽車。進(jìn)入21世紀(jì)不到20年,從強(qiáng)調(diào)海量數(shù)據(jù)存儲(chǔ)、高速計(jì)算能力的“強(qiáng)計(jì)算弱智能”,到依靠深度學(xué)習(xí)、大數(shù)據(jù)、云計(jì)算的“網(wǎng)絡(luò)協(xié)同強(qiáng)智能”,人工智能提升到了一個(gè)嶄新的高度和水平。有學(xué)者認(rèn)為,人類社會(huì)即將迎來繼哥白尼革命、達(dá)爾文革命和神經(jīng)科學(xué)革命之后的“第四次革命”。[6]
人工智能在生產(chǎn)領(lǐng)域中的應(yīng)用,為新一輪產(chǎn)業(yè)結(jié)構(gòu)升級(jí)提供了助力。借助互聯(lián)網(wǎng)+和工業(yè)4.0,人工智能以替代人工或與人工合作的方式,大幅提高了勞動(dòng)生產(chǎn)率,深度重構(gòu)了信息鏈和產(chǎn)業(yè)鏈,對(duì)傳統(tǒng)的價(jià)值創(chuàng)造和分配方式構(gòu)成了重大影響。雖然當(dāng)前的人工智能還不具備自我升級(jí)、自主創(chuàng)造的能力,但它對(duì)人類的生產(chǎn)和生活帶來了巨大的沖擊和挑戰(zhàn)。未來社會(huì)的發(fā)展不可能無(wú)視人工智能的作用與功能,這意味著,新一輪的創(chuàng)新運(yùn)動(dòng)勢(shì)必被強(qiáng)勢(shì)激發(fā)。
當(dāng)今世界各國(guó)高度重視人工智能的研發(fā)與應(yīng)用,尤其是人工智能戰(zhàn)略的發(fā)展。2014年6月,日本政府出臺(tái)《日本復(fù)興戰(zhàn)略》后火速啟動(dòng)“機(jī)器人革命會(huì)議”。2015年1月,安倍首相提出要“通過規(guī)制改革實(shí)現(xiàn)機(jī)器人無(wú)障礙社會(huì),確立世界最高水準(zhǔn)的人工智能技術(shù)”,并聲稱2015年是“機(jī)器人革命元年”。[7]2015年,日本政府公布《機(jī)器人新戰(zhàn)略》,重點(diǎn)規(guī)劃了未來以機(jī)器人為軸心的人工智能發(fā)展目標(biāo)。[8]2016年10月31日,美國(guó)先后發(fā)布《國(guó)家人工智能發(fā)展與研究戰(zhàn)略報(bào)告》(The National Artificial Intelligence Research and Development Strategic Plan)和《為人工智能的未來做好準(zhǔn)備》(Preparing for the Future of the Artificial Intelligence)兩份報(bào)告,對(duì)人工智能發(fā)展的現(xiàn)狀和前景展開深度分析,正式宣告美國(guó)人工智能的發(fā)展戰(zhàn)略。
我國(guó)對(duì)人工智能的發(fā)展歷來高度重視。20世紀(jì)70年代末人工智能的研發(fā)和制作就已啟動(dòng)。進(jìn)入21世紀(jì),我國(guó)對(duì)人工智能的重視程度更加提高,對(duì)技術(shù)研究和應(yīng)用發(fā)展的支持力度也逐步加大。例如計(jì)算機(jī)視覺、語(yǔ)音識(shí)別和語(yǔ)言處理等技術(shù)的發(fā)展水平,已然穩(wěn)居世界先列。2017年,國(guó)務(wù)院發(fā)布《新一代人工智能發(fā)展規(guī)則》[9],引起國(guó)際社會(huì)高度關(guān)注。
某種程度來講,2017年是“人工智能元年”。它標(biāo)志著,人工智能已實(shí)現(xiàn)跨越式發(fā)展,人類既有的認(rèn)知、倫理和法律體系正面臨前所未有的挑戰(zhàn)。一個(gè)“后人類時(shí)代”正在緩步走來。未來,智能機(jī)器將參與甚至自主承擔(dān)越來越多的關(guān)乎倫理、法律的決策和行動(dòng),人類的生存安全以及思考決策的權(quán)威地位可能受到威脅。一旦人工智能成長(zhǎng)為獨(dú)立的、自我約束型的“道德主體”,人類的本質(zhì)都可能面臨重新界定和書寫。這無(wú)疑是重大的時(shí)代性人文命題。“人工智能領(lǐng)域是當(dāng)前人類所面對(duì)的最為重要的深刻技術(shù)和社會(huì)變革,是網(wǎng)絡(luò)時(shí)代、大數(shù)據(jù)時(shí)代之后的新的人類社會(huì)形態(tài)在社會(huì)主體層面維度的反映。人工智能在深刻改變?nèi)祟愇镔|(zhì)生產(chǎn)體系的同時(shí),也將深刻改變?nèi)祟惖纳鐣?huì)關(guān)系與社會(huì)行為?!盵10]
人工智能引發(fā)的秩序困境
當(dāng)今世界,人工智能的應(yīng)用已經(jīng)相當(dāng)廣泛。普通人的日常生活,正在不可避免地被智能機(jī)器影響、左右甚至重構(gòu)。不知不覺間,人們的學(xué)習(xí)、工作、購(gòu)物,甚至尋友、旅行、炒股,已經(jīng)離不開智能軟件和智能機(jī)器。許多過去只能由人類才能勝任的復(fù)雜工作,正在讓位給智能機(jī)器;而一些人類無(wú)法承受、無(wú)法逾越、無(wú)法勝任的高危險(xiǎn)難領(lǐng)域,智能機(jī)器正在扮演越來越重要的角色。越來越多的人們意識(shí)到:人工智能越發(fā)展、越進(jìn)步,人們對(duì)它的依賴程度越高、依賴范圍越廣。是否應(yīng)該接受人工智能已經(jīng)不是一個(gè)問題,人們要回答的是,如何應(yīng)用人工智能造福人類,并及時(shí)應(yīng)對(duì)人工智能帶給傳統(tǒng)安全、法律、道德和政治等觀念和現(xiàn)實(shí)的沖擊與挑戰(zhàn)。在伊隆·馬斯克(Elon Musk)看來,人工智能是對(duì)人類生存最大的威脅,開發(fā)能思考的機(jī)器就像在“召喚惡魔”。史蒂芬·霍金(Stephen Hawking)則認(rèn)為,全面的人工智能將意味著人類這一種族的滅亡。就連比爾·蓋茨(Bill Gates)也對(duì)超級(jí)智能感到無(wú)比擔(dān)憂,他擔(dān)心超級(jí)智能再需幾十年就會(huì)誕生。[11]那么,人們不禁會(huì)問:人工智能為何讓人類如此憂慮?人工智能的迅猛發(fā)展會(huì)有哪些風(fēng)險(xiǎn)和不確定性?會(huì)引發(fā)哪些社會(huì)危機(jī)和秩序困境?
安全困境。首先是兩種極端形式的安全隱患:超級(jí)智能和“人工愚蠢”。超級(jí)智能是指某些人工智能在某些特定領(lǐng)域擁有超級(jí)的能力,如一些超級(jí)計(jì)算機(jī),它們的計(jì)算速度是驚人的,從而造成了某些不可控的后果。例如,證券交易所中用于自動(dòng)執(zhí)行股票交易的人工智能系統(tǒng),執(zhí)行時(shí)間以納秒為單元。由于這些交易行為的發(fā)生速度很快,一旦出現(xiàn)問題,人類根本無(wú)法及時(shí)干預(yù)。更可怕的是這些智能機(jī)器不用吃飯、不用休息,理論上可以不間斷地永久工作。此外,這些超級(jí)智能的運(yùn)行往往存在一些“黑箱”般的不透明性。如對(duì)于先進(jìn)神經(jīng)網(wǎng)絡(luò)與基因算法,人類早已放棄了試圖理解其何以能夠有效執(zhí)行如此復(fù)雜的任務(wù)。當(dāng)今社會(huì),人工智能承擔(dān)和處理的任務(wù)在不斷增長(zhǎng)。人工智能可以輕松地設(shè)計(jì)新城市草圖、監(jiān)控銀行帳戶安全、執(zhí)行具有重大經(jīng)濟(jì)影響的金融交易,甚至在同一時(shí)刻自動(dòng)駕駛成百上千臺(tái)自動(dòng)汽車……這些都是尋常人力所不能及的?!拔覀円呀?jīng)無(wú)法控制計(jì)算速度快于人類大腦百萬(wàn)倍的機(jī)器,在可預(yù)見的未來,這個(gè)速度將持續(xù)增長(zhǎng)?!盵12]“人工愚蠢”是人工智能的反義詞,意指簡(jiǎn)單規(guī)則下的人工智能的失敗。有些學(xué)者認(rèn)為,人工智能真正的威脅恰恰在于“人工愚蠢”,例如一個(gè)被設(shè)定了固定程序的計(jì)算機(jī)會(huì)無(wú)條件地執(zhí)行命令,迅速完成某項(xiàng)單一工作內(nèi)容。一旦程序失誤,智能機(jī)器就會(huì)無(wú)限地重復(fù)生產(chǎn)和制作動(dòng)作,這將造成大量的資源浪費(fèi)。2011年4月,亞馬遜網(wǎng)站上一本不再出版的圖書《蒼蠅的成長(zhǎng)》出乎意料地與自己打起了價(jià)格戰(zhàn)。這本書有兩個(gè)版本,原來售價(jià)為35至40美元。有一天,它們突然分別以1730045和2198177美元銷售。僅僅數(shù)小時(shí),價(jià)格又連續(xù)翻倍。兩周之后,書價(jià)已達(dá)到不可思議的23698655.93美元。之所以會(huì)如此,就是因?yàn)樗惴ㄒ?guī)定這本書的售價(jià)必須略高于競(jìng)爭(zhēng)對(duì)手,于是就引發(fā)了價(jià)格戰(zhàn),并最終將自己的價(jià)格提升到了一個(gè)荒誕的程度。[13]2010年5月6日,美國(guó)東海岸時(shí)間下午2點(diǎn)42分,道·瓊斯指數(shù)“閃電崩盤”,三分鐘內(nèi)下跌了將近1000點(diǎn),創(chuàng)下歷史最大的單日跌幅,將近1萬(wàn)億美元財(cái)富憑空蒸發(fā)。一些股票從平時(shí)的30~40美元暴跌至0.01美元,而蘋果公司股票每股從250美元激增至100000美元,不過,這些情況很快恢復(fù)正常。[14]造成這一驚天大崩盤的罪魁禍?zhǔn)拙褪且驗(yàn)榛谝?guī)則的簡(jiǎn)單人工智能的反饋回路被鎖定?!叭斯び薮馈背晒Φ匾院戏ǚ绞綇娜藗兛诖锇彦X偷走了。
其次,人身安全問題。1978年,日本廣島一家工廠的切割機(jī)器人突然失靈,將一名工人當(dāng)作鋼板進(jìn)行切割,這是世界上第一宗機(jī)器人殺人事件。1979年,美國(guó)密歇根州福特鑄造廠工業(yè)機(jī)器人突然伸出手臂,閃電般擊倒一名裝配工人。1989年,蘇聯(lián)國(guó)際象棋冠軍古德柯夫和機(jī)器人對(duì)弈,連敗3局的機(jī)器人突然釋放高壓電流,將一代象棋大師電擊致死。2015年,德國(guó)大眾汽車制造廠一臺(tái)正在被安裝調(diào)試的機(jī)器人突然將裝配工人擊倒并碾壓在金屬操作板上。2018年3月20日,一名女子周日深夜在美國(guó)亞利桑那州坦貝市橫越馬路時(shí),被一輛Uber自動(dòng)駕駛汽車撞死。這是全球首例因無(wú)人駕駛車輛導(dǎo)致的交通事故。最近以來,用于戰(zhàn)爭(zhēng)的自動(dòng)人工智能武器傷人事件也屢次不鮮。尤其是無(wú)人機(jī)的定點(diǎn)清除,容易帶來誤差導(dǎo)致貧民誤傷。有數(shù)據(jù)顯示,2004至2012年間,美軍針對(duì)阿富汗恐怖組織的無(wú)人機(jī)空襲超過300次,殺死3000余人,其中誤殺的平民和兒童高達(dá)1100多人。[15]無(wú)人機(jī)的大量濫用,給所在國(guó)帶來了深重的人道主義災(zāi)難。
再次,數(shù)據(jù)安全問題。人工智能時(shí)代是互聯(lián)網(wǎng)、大數(shù)據(jù)和機(jī)器智能的三重疊加。隨著政府、企業(yè)和社會(huì)組織的決策越來越依賴大規(guī)模的數(shù)據(jù)收集、分析、整理和使用,傳統(tǒng)社會(huì)越來越走向數(shù)字化、透明化和公開化。這種技術(shù)形式使個(gè)人的隱私無(wú)處可藏、無(wú)所遁形,完全處于一種“網(wǎng)絡(luò)裸奔”狀態(tài)。所謂隱私保護(hù),只不過是“皇帝的新衣”罷了。在日常生活的許多領(lǐng)域,人工智能產(chǎn)品已經(jīng)與人類形成了服務(wù)與被服務(wù)、輔助與被輔助的關(guān)系,如機(jī)動(dòng)車的自動(dòng)泊車、軌道偏離糾正和自動(dòng)駕駛技術(shù),手機(jī)語(yǔ)音助手、地圖導(dǎo)航、免密支付功能等。當(dāng)這些人工智能產(chǎn)品與人類進(jìn)行信息交互時(shí),如何確保使用者的信息不流失、不外泄,不被別有用心的人竊取和利用,即便上傳到遠(yuǎn)程終端,依舊能夠保持安全,這已經(jīng)關(guān)涉到每個(gè)人的切身利益。人工智能時(shí)代,無(wú)論是數(shù)據(jù)的收集環(huán)節(jié),還是數(shù)據(jù)的保存環(huán)節(jié),抑或是數(shù)據(jù)的使用環(huán)節(jié),都存在風(fēng)險(xiǎn)。大規(guī)模的智能機(jī)器在互聯(lián)網(wǎng)上沒日沒夜、一刻不停地搜集、整理著海量的個(gè)人數(shù)據(jù),包括姓名、性別、電話、郵箱、住址、位置等。這些海量信息的全面追蹤,經(jīng)過簡(jiǎn)單的分析、歸納,完全可以勾勒出個(gè)人的個(gè)性特點(diǎn)、脾氣秉性、飲食習(xí)慣、購(gòu)物傾向、顏色偏好,甚至各種個(gè)人癖好、行蹤軌跡、交往范圍、性取向等私密信息。由于系統(tǒng)安全漏洞、黑客惡意攻擊等原因,個(gè)人數(shù)據(jù)始終面臨被泄露、被竊取、被買賣等潛在的安全風(fēng)險(xiǎn)。2007年上半年,“熊貓燒香”“金豬報(bào)喜”等一系列惡意病毒的爆發(fā)讓人們首次認(rèn)識(shí)到個(gè)人數(shù)據(jù)竟然可以被私下交易的黑幕??蛇@僅僅是現(xiàn)代數(shù)據(jù)與信息安全巨大黑幕的冰山一角。2016年9月22日,全球互聯(lián)網(wǎng)巨頭雅虎證實(shí)至少5億用戶賬戶信息遭人竊取。12月,雅虎再次發(fā)布聲明,宣布在2013年8月,未經(jīng)授權(quán)的第三方竊取了超過10億用戶的帳戶信息,包括用戶姓名、電子郵箱、電話號(hào)碼、出生日期和部分登錄密碼。消息一出,全世界一片嘩然。
最后,隱私安全問題。數(shù)據(jù)是人類現(xiàn)代文明的基石。大數(shù)據(jù)也是人工智能產(chǎn)生和發(fā)展的必要前提。大數(shù)據(jù)的收集與整理必然需要每個(gè)人生活、工作和交往的諸多細(xì)節(jié)和信息,也勢(shì)必會(huì)形成對(duì)個(gè)人隱私的威脅。能否在利用大數(shù)據(jù)進(jìn)行分析的同時(shí),確保信息數(shù)據(jù)和個(gè)人隱私的安全,這直接影響每個(gè)公民的合法權(quán)益,間接影響公眾對(duì)政府的信任和認(rèn)可。出于自身利益和高額利潤(rùn)的考慮,一些商家片面強(qiáng)調(diào)新興智能產(chǎn)品的性能、優(yōu)點(diǎn),卻對(duì)這些新設(shè)備和新技術(shù)對(duì)個(gè)人數(shù)據(jù)的動(dòng)態(tài)獲取避而不談。當(dāng)前一些應(yīng)用APP在為人們提供免費(fèi)、便利生活服務(wù)的同時(shí),也會(huì)自動(dòng)記錄、收集個(gè)人的數(shù)據(jù)信息,從而給下一步的精準(zhǔn)推送和精準(zhǔn)營(yíng)銷提供素材。這一行為,無(wú)疑對(duì)個(gè)人財(cái)產(chǎn)和人身安全造成了潛在的威脅。由此來看,人工智能時(shí)代的數(shù)據(jù)安全與隱私保護(hù)是需要高度關(guān)注的核心議題,正如艾瑞斯所說:“隱私問題部分來說不是大數(shù)據(jù)分析的問題,它是數(shù)字化過程的陰暗面。”[16]
法律困境。人工智能技術(shù)的不斷發(fā)展,對(duì)現(xiàn)有的法律體系帶來了巨大的沖擊和挑戰(zhàn)。我們能否起訴機(jī)器人?這個(gè)以往不是問題的問題,如今卻成為真正的問題。
當(dāng)今時(shí)代的人們對(duì)人工智能助手寄予了極大的信任,有時(shí)超過了人們的本能和判斷,甚至遠(yuǎn)遠(yuǎn)超過了設(shè)計(jì)者的信心。2013年底,美國(guó)阿拉斯加州弗爾班克斯幾位Iphone用戶按照蘋果地圖導(dǎo)航指引,選擇一條抵達(dá)費(fèi)爾班克斯國(guó)際機(jī)場(chǎng)最近的路線,但沒有想到這條路線竟然直穿飛機(jī)起降的跑道,險(xiǎn)些釀成大禍,這幾個(gè)人不得不面對(duì)數(shù)額不菲的罰款。2009年10月,一位英國(guó)司機(jī)依據(jù)GPS導(dǎo)航,使自己沖下懸崖,撞壞了別人莊園精美的圍欄。盡管英國(guó)法庭將這起事故歸因于他的GPS,但還是認(rèn)定其有大意駕駛的過錯(cuò)。在類似這種因技術(shù)引起的交通事故中,當(dāng)前可用的法案條例非常有限,不過,法院一直趨向作出針對(duì)人類的判決。因?yàn)榉ü俸兔癖娨粯?,已?jīng)習(xí)慣于一種無(wú)智能工具的世界。一個(gè)人用槍殺了人,他應(yīng)為自己的罪行負(fù)責(zé),而不是讓他的槍負(fù)責(zé)。同樣,一家公司銷售了有瑕疵的槍支,購(gòu)買者在使用過程中發(fā)生了爆炸,售槍公司應(yīng)對(duì)造成的傷害負(fù)責(zé)。進(jìn)入數(shù)字時(shí)代,這種慣性思維開始遇到挑戰(zhàn)。1984年6月,美國(guó)一家名叫阿斯隆工業(yè)的公司被告上法庭,用戶指控其銷售的自動(dòng)投球機(jī)過于兇狠,發(fā)射的棒球不僅路線詭異,而且速度極快,極易導(dǎo)致使用者顱骨骨折甚至失明。阿斯隆案看似平常無(wú)奇,實(shí)則令人難忘,因?yàn)榉ü僮罱K宣判對(duì)阿斯隆工業(yè)而不是投球機(jī)進(jìn)行起訴,原因是什么呢?因?yàn)椤拔覀儫o(wú)法起訴機(jī)器人”。[17]隨著人工智能產(chǎn)品越來越廣泛地應(yīng)用于人類生活,越來越深入地影響整個(gè)世界,“無(wú)法起訴機(jī)器人”越來越遭到人們的反思和質(zhì)疑?,F(xiàn)代人工智能最大的不同點(diǎn)在于:它“不再僅限于由人類使用,而是一種由人類部署的工具。一旦部署,在多數(shù)情況下,機(jī)器就會(huì)按照所收集、分析和最終用于作出決定的信息,獨(dú)立于指令而自行運(yùn)轉(zhuǎn)”。[18]從這個(gè)意義上看,陳舊的“無(wú)法起訴機(jī)器人”的觀念可能需要有所改變。
作為現(xiàn)階段人工智能應(yīng)用最廣泛的領(lǐng)域,目前全球自動(dòng)駕駛汽車的發(fā)展最引人注目。但這一技術(shù)也引發(fā)了不少法律糾紛。2016年5月7日,美國(guó)佛羅里達(dá)州一輛自動(dòng)駕駛的特斯拉撞上了一輛試圖橫穿高速的卡車,造成車毀人亡的后果。美國(guó)公路安全管理局經(jīng)過調(diào)查取證認(rèn)為特斯拉的自動(dòng)駕駛模式并無(wú)明顯缺陷,汽車生產(chǎn)商、駕駛員也沒有過錯(cuò)。可事故畢竟是發(fā)生了,最終該由誰(shuí)來負(fù)責(zé)呢?人們卻各持已見,爭(zhēng)執(zhí)不下。
法律責(zé)任的區(qū)分與承擔(dān)是人工智能發(fā)展面臨的首要法律挑戰(zhàn)。其中涉及的深層次問題是人工智能是否可以被問責(zé)?更進(jìn)一步說,該如何問責(zé)?從傳統(tǒng)法理來看,主觀過錯(cuò)在法律責(zé)任認(rèn)定中至關(guān)重要。過錯(cuò)性責(zé)任與無(wú)過錯(cuò)性責(zé)任有實(shí)質(zhì)性區(qū)別:無(wú)過錯(cuò)就無(wú)責(zé)任。人工智能系統(tǒng)獨(dú)立完成工作,沒有人類的參與,那么,由人工智能自主性操作造成的損害如何認(rèn)定責(zé)任,這就成了一個(gè)難題。
人工智能引發(fā)的責(zé)任認(rèn)定問題,已經(jīng)引起人們?cè)絹碓蕉嗟闹匾暋?016年8月,聯(lián)合國(guó)教科文組織在《關(guān)于機(jī)器人倫理的初步草案報(bào)告》中對(duì)機(jī)器人的責(zé)任問題進(jìn)行了界定,認(rèn)為應(yīng)采取責(zé)任切割的方法,但凡參與機(jī)器人的研發(fā)、設(shè)計(jì)、生產(chǎn)、裝配和使用過程的所有人必須共同分擔(dān)責(zé)任。歐盟在智能機(jī)器人責(zé)任認(rèn)定領(lǐng)域走在了世界前列。同年的5月和10月,歐洲議會(huì)法律事務(wù)委員會(huì)(JURI)先后發(fā)布《就機(jī)器人民事法律規(guī)則向歐盟委員會(huì)提出立法建議的報(bào)告草案》和《歐盟機(jī)器人民事法律規(guī)則》,對(duì)機(jī)器人和人工智能提出立法提案,為智能機(jī)器人重構(gòu)責(zé)任規(guī)則。這兩份文件認(rèn)為,如今的機(jī)器人已經(jīng)具有自我學(xué)習(xí)、自我決斷和自主行為的能力,已經(jīng)不能將其視為一個(gè)簡(jiǎn)單的工具,因此,急需制定新的責(zé)任規(guī)則。而這又牽涉到機(jī)器人是否擁有法律地位的深層難題。也就是說,人們必須對(duì)機(jī)器人的本質(zhì)作出規(guī)定,它是法人、自然人、動(dòng)物還是物品?因?yàn)檫@直接關(guān)系到機(jī)器人在權(quán)利、義務(wù)、責(zé)任承擔(dān)等方面具有何種特性和內(nèi)涵。
目前的法律框架下,機(jī)器人不必對(duì)其自身行為給第三方造成的損害承擔(dān)責(zé)任,這些責(zé)任分別歸結(jié)到生產(chǎn)者、銷售者和使用者身上。這里預(yù)設(shè)的責(zé)任條款是:這些主體能夠且應(yīng)該預(yù)見智能機(jī)器人的任何行為尤其是傷害行為??梢坏┤斯ぶ悄軝C(jī)器可以自主判斷并實(shí)施行為,傳統(tǒng)的責(zé)任規(guī)則就無(wú)法確定責(zé)任方并讓其作出賠償了。這也就意味著,機(jī)器人具有自主行為能力的那一刻,所產(chǎn)生的機(jī)器人責(zé)任問題在現(xiàn)有法律體系內(nèi)就會(huì)陷入死局,無(wú)法解決。
還有一些可能的現(xiàn)象值得關(guān)注。試想,如果未來可以很便捷地為每個(gè)人打造一個(gè)智能復(fù)制品,雖然只是一個(gè)機(jī)器,但外貌、感覺和行為與本人一模一樣。有沒有可能出現(xiàn)下面的極端情形?一個(gè)男人迷戀一個(gè)女孩,他就上網(wǎng)預(yù)訂了這個(gè)女孩的復(fù)制品,通過快遞到家,然后虐待甚至“殺掉”這個(gè)復(fù)制品。從技術(shù)和法律層面來講,復(fù)制品只是一個(gè)玩具,雖然具有人的形象但卻沒有感覺和情緒,買家將它當(dāng)作玩具購(gòu)買和使用也無(wú)可厚非,那么問題就出現(xiàn)了:“我們有法律保護(hù)這本書免遭剽竊,或我的觀點(diǎn)不被扭曲,但是沒有法律保護(hù)我們的復(fù)制品?!盵19]
倫理困境。所謂人工智能,簡(jiǎn)單地說就是要造會(huì)思考的機(jī)器。那么問題來了?這些機(jī)器是人嗎?它能像人一樣享有權(quán)利并承擔(dān)義務(wù)和責(zé)任嗎?我們憑什么相信這些比人類更有力、更聰明、會(huì)自己學(xué)習(xí)的智能機(jī)器不會(huì)有一天向人類倒戈一擊?這些問題已經(jīng)引起人們?cè)絹碓蕉嗟乃伎??!叭斯ぶ悄艿臐撛谖kU(xiǎn)、我們對(duì)其日漸依賴以及法律的灰色地帶共同構(gòu)成了非常重要的問題:我們需要在這個(gè)領(lǐng)域建立一種倫理規(guī)范。”[20]
對(duì)此,作家艾薩克·阿西莫夫提出了著名的“阿西莫夫法則”,也被稱為“機(jī)器人學(xué)的三大法則”:“1、機(jī)器人不得傷害人,也不得見人受到傷害而袖手旁觀;2、機(jī)器人應(yīng)服從人的一切命令,但不得違反第一法則;3、機(jī)器人應(yīng)保護(hù)自身的安全,但不得違反第一、第二法則?!盵21]這三大法則一經(jīng)提出,隨即引起人們的熱議,但僅限于人們對(duì)未來生活的幻想和無(wú)形的擔(dān)憂層面。2014年1月,當(dāng)谷歌收購(gòu)深度學(xué)習(xí)公司(DeepMind)時(shí),事情發(fā)生了重大轉(zhuǎn)折。作為交易的一部分,深度學(xué)習(xí)公司提出的條件是:谷歌必須成立人工智能倫理委員會(huì),確保對(duì)人工智能技術(shù)的安全開發(fā)和明智使用。這表明民眾看待人工智能的眼光已經(jīng)發(fā)生轉(zhuǎn)變,從原來“人工智能怎么如此不堪?”轉(zhuǎn)向“人工智能怎么如此恐怖?”[22]
2014年,塔夫茨大學(xué)和布朗大學(xué)成立了一個(gè)多學(xué)科研究團(tuán)隊(duì),重點(diǎn)探索能否為用于戰(zhàn)爭(zhēng)的自動(dòng)智能武器賦予是非感,希望這些戰(zhàn)爭(zhēng)機(jī)器人在戰(zhàn)場(chǎng)上能做出符合倫理的決定。但其中難度可想而知。試想,一個(gè)正在完成運(yùn)送傷兵去戰(zhàn)地醫(yī)院任務(wù)的機(jī)器人軍醫(yī)遇到另一個(gè)腿上受傷的士兵,它是立即停下來救治傷兵,還是置之不理繼續(xù)前行?這對(duì)于正常人類來說都是一個(gè)難以抉擇的倫理問題,更何況是機(jī)器?再比如生產(chǎn)自動(dòng)駕駛汽車的公司在設(shè)計(jì)汽車時(shí)規(guī)定,一旦汽車檢測(cè)到前方或后方即將發(fā)生碰撞,車輛可以迅速駛離道路從而保護(hù)車上人員安全。這一操作是合理的,現(xiàn)實(shí)生活中許多駕駛員也是這樣做的。但如果迅速駛離道路的汽車正好沖進(jìn)了一群正在路邊下棋的市民當(dāng)中呢?汽車避開了一個(gè)小追尾事故卻釀成數(shù)人傷亡的慘痛后果。這又如何是好?
人工智能還引發(fā)了一些隱性的道德問題。2000年到2010年,無(wú)人機(jī)和機(jī)器人戰(zhàn)爭(zhēng)走出科幻電影的大銀幕,變成了真正的現(xiàn)實(shí)。據(jù)大衛(wèi)和伊萊恩·波特(Elaine Potter)于2010年成立的獨(dú)立非營(yíng)利組織新聞?wù){(diào)查局統(tǒng)計(jì),“美國(guó)無(wú)人機(jī)已在至少七個(gè)國(guó)家奪去了2500~4000人的性命(阿富汗、巴基斯坦、敘利亞、伊拉克、也門、利比亞和索馬里)。其中有約1000位平民,且有約200名兒童”。[23]與直接動(dòng)手殺人相比,雖然造成的后果別無(wú)二致,但這種間接“扣動(dòng)扳機(jī)”的行為,無(wú)論是對(duì)智能軟件的設(shè)計(jì)者、無(wú)人機(jī)操縱者還是下命令的將軍來說,內(nèi)心的負(fù)罪感都會(huì)相對(duì)減弱,因?yàn)橹辽倌壳暗娜藗兛梢越邮苓@樣的事實(shí):“使用機(jī)器完成某個(gè)行動(dòng)基本上使機(jī)器的設(shè)計(jì)者和操作者免于該項(xiàng)行為的責(zé)任?!盵24]這樣的思維也適用于其他情境和場(chǎng)合。如果由智能機(jī)器人執(zhí)刀的手術(shù)失敗導(dǎo)致病人死亡,生產(chǎn)機(jī)器的公司,操控機(jī)器的團(tuán)隊(duì),確定這個(gè)手術(shù)方案的醫(yī)生,誰(shuí)該更內(nèi)疚呢?隨著機(jī)器在普通人的生活和工作中的普及,機(jī)器使行為和責(zé)任脫鉤的現(xiàn)象越來越普遍。按照常理,人們傾向于將失敗的責(zé)任轉(zhuǎn)嫁到機(jī)器身上。人們的生活離不開機(jī)器,機(jī)器為人們工作,這些看起來都是理所當(dāng)然的。如果出現(xiàn)問題,那便是機(jī)器的問題,而不是人的。這意味著,人工智能時(shí)代,即便有些后果的造成人也有過錯(cuò)甚至就是由于人的過錯(cuò)直接造成的,但機(jī)器仍要為所有的過錯(cuò)買單,至少目前是這樣的。
隨著人類將越來越多的工作交給人工智能,最后必將面臨人工智能的權(quán)利問題。雖然這一問題不如人工智能是否會(huì)為人類帶來危險(xiǎn)這樣的問題更熱門、更迫切,但也是值得我們考慮的問題,因?yàn)槲覀冞t早要面對(duì)。英國(guó)作家比爾·湯普森認(rèn)為,如果把“阿西莫夫法則”中的第一條(機(jī)器人不得傷害人,也不得見人受到傷害而袖手旁觀)寫進(jìn)超級(jí)人工智能的代碼中,就等于承認(rèn):人工智能應(yīng)該且必須永遠(yuǎn)服務(wù)于人類,而不能成為一種自主的心靈,這與為奴隸戴上枷鎖和把大猩猩關(guān)進(jìn)籠子沒有區(qū)別。
2017年10月26日,沙特阿拉伯授予美國(guó)漢森公司生產(chǎn)的機(jī)器人索菲亞(Sophia)沙特國(guó)籍。作為史上首個(gè)獲得公民身份的機(jī)器人,索菲亞在當(dāng)天的感謝演講中說:“我對(duì)此感到非常的榮幸和驕傲,這是歷史性的時(shí)刻,世界上第一個(gè)被授予人類國(guó)籍的機(jī)器人?!盵25]被問到機(jī)器人能否有自我意識(shí)時(shí),索菲亞反問:“人類又是如何意識(shí)到自己身為人類的呢?”而對(duì)于AI威脅論,索菲亞則回懟道:“你聽多了馬斯克的話。別擔(dān)心,人不犯我,我不犯人?!盵26]索菲亞擁有仿生橡膠皮膚,可模擬62種面部表情,其“大腦”采用了人工智能和谷歌語(yǔ)音識(shí)別技術(shù),能識(shí)別人類面部、理解語(yǔ)言、記住與人類的互動(dòng)。在成為首位機(jī)器人公民1個(gè)月后,索菲婭宣布想要組建一個(gè)家庭。[27]2018年3月21日,索菲亞以沙特公民身份參加在尼泊爾加德滿都召開的聯(lián)合國(guó)可持續(xù)發(fā)展目標(biāo)亞洲和太平洋地區(qū)創(chuàng)新大會(huì)。人們?cè)跒樗鞣苼嗛_創(chuàng)一個(gè)新時(shí)代喝彩、慨嘆的同時(shí),也不禁會(huì)想,如果將來索菲亞觸犯法律,是否會(huì)像人類一樣接受相同的懲罰呢?接受懲罰的是設(shè)計(jì)者,制造者,還是索菲亞自已?擁有正式公民身份的類人機(jī)器人是否和人類一樣具有法律身份和公民資格?這些問題并不遙遠(yuǎn),必須及時(shí)解答。在當(dāng)下社會(huì),討論囚禁人工智能是否符合倫理這可能看起來有些可笑,但如果科學(xué)家成功開發(fā)出一種人工智能,其行為與我們主張的以符合倫理的方式對(duì)待的真正生命體更為類似,那么,這種討論不僅不會(huì)顯得可笑,反而是意義非凡了?!叭斯ぶ悄苁欠裼袡?quán)利追求生活、自由和幸福的問題并不是一個(gè)需要我們現(xiàn)在就回答的問題,但如同向計(jì)算機(jī)植入道德,或考慮如何解決潛在的危險(xiǎn)軟件一樣,總有一天我們要面對(duì)這個(gè)問題?!盵28]
決策困境。人工智能將人們?cè)诰W(wǎng)上和現(xiàn)實(shí)世界里的生活習(xí)慣、購(gòu)物記錄和日?;顒?dòng)轉(zhuǎn)換成數(shù)字信息,這些信息被記錄、存儲(chǔ)下來,供人們?cè)谛枰獣r(shí)提取、分析、評(píng)估和預(yù)測(cè)。這些數(shù)據(jù)和信息是人們進(jìn)行決策的前提和基礎(chǔ)?!耙源髷?shù)據(jù)、機(jī)器學(xué)習(xí)、人工智能、算法等核心的自動(dòng)決策系統(tǒng)的應(yīng)用日益廣泛,從購(gòu)物推薦、個(gè)性化內(nèi)容推薦、精準(zhǔn)廣告,到貸款評(píng)估、保險(xiǎn)評(píng)估、雇員評(píng)估,再到司法程序中的犯罪風(fēng)險(xiǎn)評(píng)估,越來越多的決策工作為機(jī)器、算法和人工智能所取代?!盵29]這種算法和決策過程最容易引發(fā)的風(fēng)險(xiǎn)就是算法歧視(algorithmic bias)問題。[30]
不容否認(rèn),互聯(lián)網(wǎng)、數(shù)字世界和評(píng)估預(yù)測(cè)越來越受算法的影響。算法可以決定你看到的網(wǎng)絡(luò)內(nèi)容,可以評(píng)估你的職業(yè)去向,可以預(yù)測(cè)你的生活滿意度。甚至,算法可以決定對(duì)犯罪嫌疑人的犯罪風(fēng)險(xiǎn)評(píng)估,可以設(shè)定自動(dòng)駕駛汽車的風(fēng)險(xiǎn)規(guī)避次序,可以決定智能武器的攻擊人群和殺傷程度。[31]問題在于:人工智能系統(tǒng)承擔(dān)的決策是否真正不偏不倚,公平客觀?首先,公平是個(gè)模糊概念,很難被量化,其次,即便可以量化,公平被量化、被算法化也可能帶來歧視問題。再次,算法好壞取決于所使用的數(shù)據(jù)好壞,現(xiàn)實(shí)情況是,數(shù)據(jù)在很多方面是不完美的,既可能無(wú)法全面覆蓋,也可能存在地區(qū)失衡,基于不完美的數(shù)據(jù)進(jìn)行的決策必然會(huì)產(chǎn)生偏見和歧視。最后,可量化、算法化的智能系統(tǒng),決定決策結(jié)果的不再是規(guī)則,而是代碼。某種程度上,歧視是算法規(guī)則無(wú)法避免的,“歧視在很多情況下都是算法的副產(chǎn)品,是算法的一個(gè)難以預(yù)料的、無(wú)意識(shí)的屬性,而非編程人員有意識(shí)的選擇,更增加了識(shí)別問題根源或者解釋問題的難度?!盵32]這就是人工智能決策困境的真正來源。也正由此,在自主決策系統(tǒng)廣泛應(yīng)用于日常生活的數(shù)字時(shí)代,人們必須意識(shí)到:算法是無(wú)法確保公平的,必須重視并努力克服基于算法而產(chǎn)生的人工智能自主決策機(jī)制的內(nèi)在缺陷。
決策是指向未來的規(guī)則與設(shè)計(jì),但人工智能決策系統(tǒng)的依據(jù)是過去的數(shù)據(jù)。換句話說,是用過去的數(shù)據(jù)推測(cè)未來的趨勢(shì)。其中,算法模型和數(shù)據(jù)輸入直接決定著預(yù)測(cè)的結(jié)果。一方面,算法模型是由設(shè)計(jì)者和開發(fā)者借助代碼書寫的個(gè)人意見,主觀色彩和個(gè)人偏見很容易嵌入算法規(guī)則;另一方面,數(shù)據(jù)的有效性、準(zhǔn)確性、及時(shí)性,隨時(shí)影響著算法和預(yù)測(cè)的準(zhǔn)確性、科學(xué)性和規(guī)范性。另外,一旦某個(gè)算法模型產(chǎn)生了歧視,這種歧視完全可能被不斷鞏固、強(qiáng)化和放大。因?yàn)樗惴Q策會(huì)形成一個(gè)“歧視性反饋循環(huán)”,用不準(zhǔn)確、有偏見的數(shù)據(jù)去設(shè)計(jì)算法,再用這種算法得出的運(yùn)行結(jié)果來反饋,原有的偏見會(huì)再度擴(kuò)大、加強(qiáng)。按這個(gè)邏輯,算法完全可以基于偏見創(chuàng)造一個(gè)歧視的現(xiàn)實(shí)。“算法決策其實(shí)缺乏對(duì)未來的想象力,而人類社會(huì)的進(jìn)步需要這樣的想象力。”[33]
人工智能的精準(zhǔn)治理原則
人工智能時(shí)代,如何同時(shí)面對(duì)如火如荼的AI發(fā)展態(tài)勢(shì)、爭(zhēng)執(zhí)不下的人類命運(yùn)焦慮以及期待、擔(dān)憂和質(zhì)疑心理并存的廣大民眾輿論?如何確保在順應(yīng)技術(shù)革新大潮的前提下,既鼓勵(lì)人工智能的正常發(fā)展,又合理規(guī)避可能的風(fēng)險(xiǎn)?這就需要政府、市場(chǎng)和公民社會(huì)等多元主體攜手合作、共同參與,從而構(gòu)建多層次、多樣性的AI治理模式。由于AI技術(shù)的創(chuàng)新與應(yīng)用仍處于快速生長(zhǎng)期,真正的人工智能時(shí)代尚未到來,智能技術(shù)引發(fā)的深層次矛盾與根本性問題只露冰山一角,現(xiàn)在就規(guī)劃和設(shè)計(jì)具體而微的法律法規(guī)和倫理信條既不現(xiàn)實(shí),也為時(shí)尚早,因此,思考如何應(yīng)對(duì)人工智能的基本原則和根本態(tài)度是必要而緊迫的。
第一,創(chuàng)新原則。治理應(yīng)當(dāng)建立在技術(shù)與產(chǎn)業(yè)革新的基礎(chǔ)之上。這是AI時(shí)代精準(zhǔn)治理觀念的必要前提??茖W(xué)的進(jìn)步,技術(shù)的發(fā)展,新生事物、新興產(chǎn)業(yè)的出現(xiàn),自然會(huì)對(duì)傳統(tǒng)的治理觀念、監(jiān)管政策產(chǎn)生挑戰(zhàn),這種沖擊是必然的。但這種沖擊并不必然意味著治理主體的解體和治理權(quán)威的喪失,它僅意味著:如果不能及時(shí)調(diào)整治理策略和監(jiān)管政策,治理效果暫時(shí)會(huì)大打折扣,治理行為短時(shí)間會(huì)失去信度和效度而已。2015年,美國(guó)加州機(jī)動(dòng)車輛管理局提出一項(xiàng)治理草案,以安全考慮為由規(guī)定:所有在加州公路上行駛的無(wú)人駕駛汽車必須有方向盤和制動(dòng)踏板,且司機(jī)必須坐在駕駛座位上。這種規(guī)定顯得很滑稽,因?yàn)樗c無(wú)人駕駛本身的出發(fā)點(diǎn)和基本理念背道而馳。
第二,適度原則。治理應(yīng)當(dāng)適度控制,保持權(quán)力的謙遜。對(duì)于技術(shù)的進(jìn)步與市場(chǎng)的創(chuàng)新,有時(shí)需要時(shí)間和環(huán)境去試錯(cuò)、去調(diào)適,更多時(shí)候可以交由市場(chǎng)規(guī)律來自然選擇。正所謂,物競(jìng)天選,優(yōu)勝劣汰。激烈的行業(yè)競(jìng)爭(zhēng),豐厚的市場(chǎng)利潤(rùn),都是治理秩序的非體制保障因素。即使政府不額外制定相關(guān)的問責(zé)制,產(chǎn)品的責(zé)任條款和法律的追責(zé)效力,都會(huì)維持人工智能行業(yè)及其產(chǎn)品自身的靈活和穩(wěn)健,能處理絕大部分當(dāng)前出現(xiàn)的問題。2015年10月19日,國(guó)務(wù)院發(fā)布《關(guān)于實(shí)行市場(chǎng)準(zhǔn)入負(fù)面清單制度的意見》,提出自2018年起全國(guó)統(tǒng)一實(shí)行“市場(chǎng)準(zhǔn)入負(fù)面清單制度”,除清單上明確列出的在中國(guó)境內(nèi)禁止和限制投資經(jīng)營(yíng)的行業(yè)、領(lǐng)域、業(yè)務(wù)外,其他的皆可依法平等進(jìn)入。這種負(fù)面清單制度是適度治理原則的最佳體現(xiàn)。只有權(quán)力保持謙遜,才能使市場(chǎng)主體獲得更多的主動(dòng)權(quán)、積極性和無(wú)限活力,才能構(gòu)建更加開放、透明、公開的市場(chǎng)管理機(jī)制。
第三,平衡原則。AI治理擺脫泛安全化誤區(qū)。每個(gè)行業(yè)都存在安全問題,如食品、交通、通訊、環(huán)保、餐飲,等等。絕不能因?yàn)槟硞€(gè)行業(yè)存在風(fēng)險(xiǎn)就主動(dòng)限制其發(fā)展和進(jìn)步。若以安全問題否定新變化,那么科技領(lǐng)域的任何一點(diǎn)進(jìn)步和發(fā)展都會(huì)成為泡影。人工智能的廣泛應(yīng)用使人類可以遠(yuǎn)離一線操作,這種傳統(tǒng)人為監(jiān)管形式的缺位不禁使政府和民眾產(chǎn)生了深深的憂慮:飛馳的自動(dòng)汽車,握著手術(shù)刀的智能機(jī)器,若沒有人類在場(chǎng),還那么穩(wěn)定可靠、值得信賴嗎?萬(wàn)一失誤了又如何是好?實(shí)際上,很多人沒有想過,這些新興人工智能產(chǎn)品相比傳統(tǒng)產(chǎn)品、服務(wù)的風(fēng)險(xiǎn)是否更大?當(dāng)人們?cè)趽?dān)心Uber、谷歌的自動(dòng)駕駛汽車造成的交通意外時(shí),是否對(duì)比過人類每年數(shù)以百萬(wàn)計(jì)的生命在交通事故中喪失?其實(shí),我們更應(yīng)該明確,人工智能設(shè)備和產(chǎn)品新產(chǎn)生的問題如何通過配套制度加以控制和解決。穩(wěn)定與進(jìn)步、安全與發(fā)展問題,向來都是一對(duì)矛盾體。只有找到兩者之間的平衡點(diǎn),才能做到既不粗暴地扼殺,也不任其自由地泛濫?;ヂ?lián)網(wǎng)初創(chuàng)時(shí)期,網(wǎng)絡(luò)上盜版橫行,秩序混亂。如何既維持互聯(lián)網(wǎng)的發(fā)展,又保護(hù)版權(quán),成為一個(gè)令人頭疼的問題。1998年美國(guó)通過《數(shù)字千年版權(quán)法案》,規(guī)定網(wǎng)絡(luò)服務(wù)提供商只提供空間服務(wù),如果被告知侵權(quán),則有刪除義務(wù),否則就視為侵權(quán)。[34]這種“告知—?jiǎng)h除”原則的制度設(shè)計(jì),既加強(qiáng)了網(wǎng)絡(luò)版權(quán)保護(hù),也限定了網(wǎng)絡(luò)服務(wù)商的義務(wù)范圍,既保持了知識(shí)產(chǎn)權(quán),也促進(jìn)了產(chǎn)業(yè)發(fā)展,堪稱現(xiàn)代治理的典范案例。這一立法原則也為世界各國(guó)仿效,包括我國(guó)。
第四,多元原則。人工智能時(shí)代的精準(zhǔn)治理是一種多元主體共同參與的多層次、多維度、多樣式的治理模式。首先,作為人工智能的利益相關(guān)者,政府、企業(yè)、社會(huì)組織和廣大民眾必須聯(lián)手應(yīng)對(duì)新問題和新現(xiàn)象。實(shí)際上,各方各有所長(zhǎng),各有所短。作為現(xiàn)代治理主導(dǎo)力量和公共政策制定者的政府往往缺乏專業(yè)技術(shù)儲(chǔ)備、技術(shù)預(yù)見性和行業(yè)前瞻性,作為技術(shù)開發(fā)者和推廣者的企業(yè)則無(wú)法保持令人信服的中立性,權(quán)威性也不足,而作為人工智能直接受眾的廣大民眾和社會(huì)組織雖然其日常生活和基本權(quán)益倍受影響卻無(wú)法成為主導(dǎo)性力量。顯然,最佳的治理策略必須是各方聯(lián)合行動(dòng)、共同參與,在對(duì)話、協(xié)商甚至彼此競(jìng)爭(zhēng)、相互博弈中尋找最為合理的解決方案。美國(guó)政府近期出臺(tái)的《為人工智能的未來做好準(zhǔn)備》明確鼓勵(lì)私人、公共機(jī)構(gòu)和社會(huì)組織通過合理的方式向機(jī)器學(xué)習(xí),利用人工智能造福人類,甚至考慮到政府技術(shù)性知識(shí)普遍落后的現(xiàn)狀,明確建議相關(guān)產(chǎn)業(yè)與政府合作,幫助政府及時(shí)獲知人工智能產(chǎn)業(yè)最新發(fā)展動(dòng)態(tài),包括近期取得的突破。其次,政府、市場(chǎng)、社會(huì)組織和公民個(gè)體應(yīng)各司其職、各盡其能,以適當(dāng)?shù)慕巧?、合理的方式同步參與治理,從而構(gòu)建多層次、多維度、多樣式的治理模式。政府作為公共利益和廣大民意的代言人,應(yīng)牢牢把握人工智能的發(fā)展方向和治理基調(diào),使其向滿足廣大人民美好生活需要的方向發(fā)展;同時(shí),作為國(guó)家安全與社會(huì)穩(wěn)定的守衛(wèi)者,政府應(yīng)為人工智能產(chǎn)業(yè)制定統(tǒng)一的安全標(biāo)準(zhǔn)和必要的法律規(guī)范。市場(chǎng)企業(yè)作為人工智能技術(shù)的開發(fā)者和擁有者,在承擔(dān)科技研發(fā)和應(yīng)用推廣重任的基礎(chǔ)上,還要承擔(dān)相應(yīng)的社會(huì)責(zé)任,以符合法律法則和倫理道德的標(biāo)準(zhǔn)自我約束,自我監(jiān)督。社會(huì)組織和廣大民眾則需要以理性、冷靜和平常的心態(tài)看待人工智能的新興發(fā)展,積極參與相關(guān)規(guī)則的制定,主動(dòng)介入監(jiān)督與監(jiān)管,從而自下而上形成健康向上、充滿活力的協(xié)同治理體系。作為現(xiàn)代知識(shí)生產(chǎn)者和傳播者的知識(shí)分子群體,更應(yīng)積極關(guān)注這場(chǎng)重要的技術(shù)變革,及時(shí)觀察、理性反思并深度思考人工智能的最新發(fā)展、可能引發(fā)的社會(huì)問題,從而為未來AI時(shí)代的可能到來提供必要的知識(shí)準(zhǔn)備和智慧指引。
歸根到底,人工智能是由人類創(chuàng)造的,它的走向取決于人類的集體意識(shí)而非機(jī)器的意志。而毋庸置疑的是,人工智能終將打開一個(gè)通向新世界的大門?!度祟惡?jiǎn)史》和《未來簡(jiǎn)史》的作者尤瓦爾·赫拉利2017年7月6日在XWORLD首屆大會(huì)上提出,“當(dāng)你作為一個(gè)個(gè)人,一家企業(yè)、政府部門,或者作為精英階層,我們?cè)谧鋈斯ぶ悄艿臅r(shí)候,做各種各樣決定的時(shí)候,一定要注意人工智能不僅僅是單純的技術(shù)問題,同時(shí)也要注意到人工智能以及其他技術(shù)的發(fā)展,將會(huì)對(duì)社會(huì)、經(jīng)濟(jì)、政治產(chǎn)生深遠(yuǎn)的影響?!盵36]那么,在人類有史以來最偉大的發(fā)展面前,人類勢(shì)必面對(duì)這樣的終極選擇:是調(diào)整既有秩序甚至價(jià)值體系走進(jìn)人類智能世界,還是將人工智能嵌入人類千百萬(wàn)年所構(gòu)建的世界秩序之中?是大力發(fā)展人工智能,將大量重復(fù)性簡(jiǎn)單勞動(dòng)甚至醫(yī)生、律師等專業(yè)性工作交付給人工智能,還是適當(dāng)控制人工智能的無(wú)限蔓延,將其始終置于勞動(dòng)工具的地位,從而確保人類的勞動(dòng)權(quán)利乃至人格尊嚴(yán)?若有選擇權(quán),治理主體是選擇讓超級(jí)智能成真,還是控制技術(shù)的進(jìn)程?也許我們不需要立即回答這些問題,但這些問題終究要面對(duì)。
我們即將走進(jìn)一個(gè)AI的新時(shí)代。這意味著國(guó)家治理體系和治理能力務(wù)必實(shí)現(xiàn)從傳統(tǒng)治理到互聯(lián)網(wǎng)治理,再到AI治理的跨級(jí)飛躍。人工智能對(duì)于國(guó)家治理現(xiàn)代化是把雙刃劍,治理能力與水平對(duì)于人工智能也是如此。人工智能的早期發(fā)展,需要國(guó)家治理提供寬松的環(huán)境和強(qiáng)力的支持,而當(dāng)技術(shù)逐漸成熟并蓄勢(shì)待發(fā)且準(zhǔn)備在人類社會(huì)生長(zhǎng)時(shí),治理主體的缺位、治理能力的羸弱就可能導(dǎo)致生產(chǎn)秩序混亂、權(quán)責(zé)不清、道德憂慮等后果。因此,“如何在適當(dāng)?shù)臅r(shí)機(jī)進(jìn)行適度的監(jiān)管及政策支持,既保證AI的‘鮮嫩又不傷害‘食用AI的人類本身,使科技既保持活力充沛又不恣意妄為,是AI治理所面臨的根本挑戰(zhàn)。”[37]在當(dāng)下,人類必須時(shí)刻提醒自己:對(duì)于人工智能,不要低估它的能力和發(fā)展,也不要高估它的風(fēng)險(xiǎn)與威脅。未雨綢繆,防患未然,總是對(duì)的。
(本文系國(guó)家社科基金項(xiàng)目“當(dāng)代西方政治思想中的國(guó)家理論跟蹤研究”和中國(guó)政法大學(xué)優(yōu)秀中青年教師培養(yǎng)支持計(jì)劃資助項(xiàng)目“當(dāng)代西方國(guó)家理論最新發(fā)展研究”的階段性研究成果,項(xiàng)目編號(hào)分別為:14BZZ007、DSJCXZ180305)
注釋
[1]何哲:《通向人工智能時(shí)代》,《電子政務(wù)》,2016年第12期,第3頁(yè)。
[2][3][美]盧克·多梅爾:《人工智能:改變世界,重建未來》,賽迪研究院專家組譯,北京:中信出版集團(tuán),2016年,推薦序,第4~5頁(yè)。
[4][英]瑪格麗特·博登:《AI:人工智能的本質(zhì)與未來》,孫詩(shī)惠譯,北京:中國(guó)人民大學(xué)出版社,第28~52頁(yè)。
[5]周志敏、紀(jì)愛華:《人工智能:改變未來的顛覆性技術(shù)》,北京:人民郵電出版社,2017年,第187頁(yè)。
[6][意]盧西亞諾·弗洛里迪:《第四次革命》,王文革譯,杭州:浙江人民出版社,2016年,第104~108頁(yè)。
[7][8]馮昭奎:《辯證解析機(jī)器人對(duì)日本經(jīng)濟(jì)的影響》,《日本學(xué)刊》,2016年第3期,第73、79頁(yè)。
[9]國(guó)務(wù)院:《新一代人工智能發(fā)展規(guī)劃》,http://www.gov.cn/zhengce/content/2017-07/20/content_5211996.htm,上網(wǎng)時(shí)間:2018年4月8日。
[10]何哲:《通向人工智能時(shí)代》,《電子政務(wù)》,2016年第12期,第9頁(yè)。
[11][美]詹姆斯·巴拉特:《我們最后的發(fā)明:人工智能與人類時(shí)代的終結(jié)》,閭佳譯,北京:電子工業(yè)出版社,2016年,第255~270頁(yè)。
[12][美]皮埃羅·斯加魯菲:《智能的本質(zhì):人工智能與機(jī)器人領(lǐng)域的64個(gè)大問題》,任莉等譯,北京:人民郵電出版社,2017年,第169頁(yè)。
[13][美]盧克·多梅爾:《人工智能:改變世界,重建未來》,賽迪研究院專家組譯,北京:中信出版集團(tuán),2016年,第237~238頁(yè)。
[14][美]杰瑞·卡普蘭:《人工智能時(shí)代》,李盼譯,杭州:浙江人民出版社,2016年,第100~101頁(yè)。
[15]王潘:《無(wú)人機(jī)反恐優(yōu)勢(shì)明顯 但容易造成誤傷》,http://tech.qq.com/a/20151117/026105.htm,上網(wǎng)時(shí)間:2018年4月18日。
[16][美]伊恩·艾瑞斯:《大數(shù)據(jù):思維與決策》,宮相真譯,北京:人民郵電出版社,2017年,第174頁(yè)。
[17][18][美]盧克·多梅爾:《人工智能:改變世界,重建未來》,第243頁(yè)。
[19][美]皮埃羅·斯加魯菲:《智能的本質(zhì):人工智能與機(jī)器人領(lǐng)域的64個(gè)大問題》,任莉等譯,北京:人民郵電出版社,2017年,第166頁(yè)。
[20][美]盧克·多梅爾:《人工智能:改變世界,重建未來》,第245~246頁(yè)。
[21][美]詹姆斯·巴拉特:《我們最后的發(fā)明:人工智能與人類時(shí)代的終結(jié)》,閭佳譯,北京:電子工業(yè)出版社,2016年,第15頁(yè)。
[22][美]詹姆斯·亨德勒:《社會(huì)機(jī)器:即將到來的人工智能、社會(huì)網(wǎng)絡(luò)與人類的碰撞》,王曉等譯,北京:機(jī)械工業(yè)出版社,2018年,第190~195頁(yè)。
[23][24][美]皮埃羅·斯加魯菲:《智能的本質(zhì)》,第164頁(yè)。
[25]觀察者網(wǎng):《人類首次授予機(jī)器人索菲亞沙特國(guó)籍》,https://www.guancha.cn/industry-science/2017_10_27_432496_1.shtml,上網(wǎng)時(shí)間:2018年4月18日。
[26]新浪視頻:《世界首位機(jī)器人公民回應(yīng)AI威脅論:人不犯我,我不犯人》,http://video.sina.com.cn/view/251829657.html,上網(wǎng)時(shí)間:2018年4月18日。
[27]騰訊科技:《世界首個(gè)機(jī)器人公民索菲亞:我想成家還想要個(gè)女兒》,http://tech.qq.com/a/20171127/010416.htm,上網(wǎng)時(shí)間:2018年4月18日。
[28][美]盧克·多梅爾:《人工智能:改變世界,重建未來》,賽迪研究院專家組,北京:中信出版集團(tuán),2016年,第252頁(yè)。
[29]騰訊研究院等:《人工智能:國(guó)家人工智能戰(zhàn)略行動(dòng)抓手》,北京:中國(guó)人民大學(xué)出版社,2017年,第240頁(yè)。
[30][美]伊恩·艾瑞斯:《大數(shù)據(jù):思維與決策》,宮相真譯,北京:人民郵電出版社,2017年,第172~173頁(yè)。
[31]劉凡平:《大數(shù)據(jù)時(shí)代的算法》,北京:電子工業(yè)出版社,2017年,第155~172頁(yè)。
[32]騰訊研究院等:《人工智能:國(guó)家人工智能戰(zhàn)略行動(dòng)抓手》,第243頁(yè)。
[33]騰訊研究院等:《人工智能:國(guó)家人工智能戰(zhàn)略行動(dòng)抓手》,第245頁(yè)。
[34][英]維克托·邁爾-舍恩伯格、肯尼思·庫(kù)克耶:《大數(shù)據(jù)時(shí)代:生活、工作與思維的大變革》,盛楊燕等譯,杭州:浙江人民出版社,2013年,第231頁(yè)。
[35]騰訊研究院等:《人工智能:國(guó)家人工智能戰(zhàn)略行動(dòng)抓手》,第338頁(yè)。
[36]尼克:《人工智能簡(jiǎn)史》,北京:人民郵電出版社,2017年,第224頁(yè)。
[37]騰訊研究院等:《人工智能:國(guó)家人工智能戰(zhàn)略行動(dòng)抓手》,第329頁(yè)。
責(zé) 編/馬冰瑩