国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

“共同善”維度下的算法規(guī)制

2019-03-29 06:28
法學(xué) 2019年12期
關(guān)鍵詞:黑箱規(guī)制權(quán)利

●王 聰

在討論算法的倫理含義及其規(guī)制時(shí),我們實(shí)際上是在討論“決策支持系統(tǒng)”(Decision Support Systems, DSS),它分析數(shù)據(jù)并為行動(dòng)提供建議?!?〕See Daniel Staemmler, “Ethics in AI: Are Algorithms Suppressing Us? ”, https://www.elsevier.com/connect/ethics-in-ai-arealgorithms-suppressing-us, visited on Nov.2, 2019.在技術(shù)上,算法可以復(fù)雜到連設(shè)計(jì)者都難以明晰其具體運(yùn)作過(guò)程的程度,〔2〕See Davide Castelvecchi, “Can We Open the Black Box of AI”, 538 Nature 20, 20-23 (2016).這就產(chǎn)生了所謂的“算法黑箱”及其解釋難題。在法律視野中,“黑箱”掩蓋并可能在一定程度上加劇了算法偏見(jiàn)和對(duì)基礎(chǔ)數(shù)據(jù)的使用問(wèn)題。由于算法可能將歧視編碼到算法設(shè)計(jì)中去,其實(shí)也進(jìn)入我們未來(lái)的生活中。“如果這一問(wèn)題不能得到解決,那它將會(huì)摧毀我們的社會(huì)?!薄?〕《美參院將評(píng)估AI算法偏見(jiàn)提上立法日程:“算法黑箱”迎來(lái)光明?》, https://baijiahao.baidu.com/s?id=1630578771816661 322&wfr=spider&for=pc.https://36kr.com/p/5123323,2019年10月20日訪問(wèn)?!缎乱淮斯ぶ悄馨l(fā)展規(guī)劃》將人工智能上升至國(guó)家戰(zhàn)略,發(fā)揮法律保障功能,促進(jìn)人工智能的健康有序發(fā)展,規(guī)制人工智能核心驅(qū)動(dòng)力——算法成為法律亟待解決的議題?!?〕《國(guó)務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》(國(guó)發(fā)〔2017〕35號(hào))(以下簡(jiǎn)稱《規(guī)劃》)指出,人工智能的迅速發(fā)展將深刻改變?nèi)祟惿鐣?huì)生活、改變世界,但人工智能可能帶來(lái)改變就業(yè)結(jié)構(gòu)、沖擊法律與社會(huì)倫理、侵犯?jìng)€(gè)人隱私、挑戰(zhàn)國(guó)際關(guān)系準(zhǔn)則等問(wèn)題,要求在大力發(fā)展人工智能的同時(shí),必須高度重視可能帶來(lái)的安全風(fēng)險(xiǎn)挑戰(zhàn),加強(qiáng)前瞻預(yù)防與約束引導(dǎo),最大限度降低風(fēng)險(xiǎn),確保人工智能安全、可靠、可控發(fā)展?!兑?guī)劃》提出了人工智能法律(倫理)發(fā)展三個(gè)階段的目標(biāo):到2020年,部分領(lǐng)域的人工智能倫理規(guī)范和政策法規(guī)初步建立;到2025年,初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系;到2030年,建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系?!缎乱淮斯ぶ悄苤卫碓瓌t——發(fā)展負(fù)責(zé)任的人工智能》進(jìn)一步強(qiáng)調(diào)了在數(shù)據(jù)獲取、算法設(shè)計(jì)、技術(shù)開(kāi)發(fā)、產(chǎn)品研發(fā)和應(yīng)用過(guò)程中消除偏見(jiàn)和歧視的重要性。目前的算法規(guī)制研究剛起步不久,忽視了算法規(guī)制的共同善(Common Good)維度。在規(guī)制的視野下,〔5〕對(duì)于“法律規(guī)制”一詞的使用,較為混亂。本文在通過(guò)法律進(jìn)行規(guī)制的意義上使用該詞。較有意義的討論,參見(jiàn)宋華琳:《邁向規(guī)制與治理的法律前沿——評(píng)科林·斯科特新著〈規(guī)制、治理與法律:前沿問(wèn)題研究〉》,《法治現(xiàn)代化研究》2017年6期;沈伯平:《管制、規(guī)制與監(jiān)管:一個(gè)文獻(xiàn)綜述》,《改革》2005年第5期。文章將探討對(duì)算法規(guī)制的法哲學(xué)根基——共同善及其介入算法規(guī)制的具體途徑。

一、問(wèn)題的提出:算法規(guī)制為何需要公共善維度

大數(shù)據(jù)技術(shù)讓整個(gè)世界逐漸數(shù)據(jù)化,人們生活的方方面面都轉(zhuǎn)成數(shù)據(jù)?!?〕See Kenneth Cukier and Viktor Mayer-Schonberger, “The Rise of Big Data: How It’s Changing the Way We Think about the World”, 92 Foreign Affairs 28 (2013).數(shù)據(jù)成為描摹世界的工具,人們掌握的數(shù)據(jù)及其規(guī)模直接決定了人類對(duì)世界的認(rèn)識(shí)程度。正如舍恩伯格所說(shuō),數(shù)據(jù)正在成為我們所有生活領(lǐng)域的世界觀?!?〕參見(jiàn)[英]維克托·邁爾·舍恩伯格、肯尼斯·庫(kù)克耶:《大數(shù)據(jù)時(shí)代:生活、工作與思維的大變革》,盛楊燕、周濤譯,浙江人民出版社2013年版,第207頁(yè)。在這一背景下,數(shù)據(jù)主義呼聲再起,似乎缺失了數(shù)據(jù)的言說(shuō)和行為,即缺乏正當(dāng)性和善的基礎(chǔ)。然而,技術(shù)變革在形塑了人類社會(huì)數(shù)據(jù)化生存狀態(tài)的同時(shí),也進(jìn)一步為算法權(quán)力的擴(kuò)張?zhí)峁┝丝臻g。〔8〕參見(jiàn)陳鵬:《算法的權(quán)力:應(yīng)用與規(guī)制》,《浙江社會(huì)科學(xué)》2019年第4期。

(一)透明社會(huì)的形成與算法權(quán)力的崛起

1.透明社會(huì)的形成。20世紀(jì),互聯(lián)網(wǎng)、移動(dòng)通信等技術(shù)的發(fā)展與應(yīng)用,為人類生存的數(shù)據(jù)化提供了條件。人們的生活呈現(xiàn)出線上與線下的分野。尤其是到了大數(shù)據(jù)、云計(jì)算、萬(wàn)物互聯(lián)的時(shí)代,隨著在數(shù)據(jù)采集、存儲(chǔ)、傳輸和處理等方面的革命,越來(lái)越多元的傳感器或軟件正在不斷產(chǎn)生大數(shù)據(jù)內(nèi)容?!?〕參見(jiàn)張憲麗、高奇琦:《透明人與空心人:人工智能的發(fā)展對(duì)人性的改變》,《學(xué)術(shù)界》2017年第9期。人類的生活線上化速度加劇,線上影響輻射到線下,個(gè)體的絕大部分行為亦可在線上發(fā)生。在此背景下,個(gè)體的行為被理解為數(shù)據(jù)流,其行為的效果自然要經(jīng)過(guò)算法的揀選、過(guò)濾和審視。在大數(shù)據(jù)精確分析的前提下,政府或公共服務(wù)提供者可以更加靈活地根據(jù)個(gè)體的不同情況因人而異地自動(dòng)提供公共物品和更為細(xì)致的公共服務(wù),以滿足個(gè)體的正當(dāng)利益需求和社會(huì)需求。由生產(chǎn)的角度觀察,我們?cè)诰W(wǎng)絡(luò)世界無(wú)償為數(shù)據(jù)企業(yè)從事數(shù)據(jù)生產(chǎn),其結(jié)果是我們的生活被數(shù)據(jù)記載、表達(dá)、模擬、處理、預(yù)測(cè),數(shù)據(jù)企業(yè)通過(guò)大數(shù)據(jù)的比對(duì)和信息還原可以精準(zhǔn)地復(fù)原主體在一定時(shí)間段的所有行為,每個(gè)人成為透明的個(gè)體,整個(gè)世界也從難以認(rèn)識(shí)的黑箱世界逐漸變成透明世界?!?0〕所謂透明世界是相對(duì)于黑箱世界來(lái)說(shuō)的,指的是事物失去了任何遮蔽,人們可以看見(jiàn)其內(nèi)部的一切,既可以知曉其過(guò)去的歷史軌跡,又可以預(yù)知其未來(lái)變化。參見(jiàn)黃欣榮:《大數(shù)據(jù)、透明世界與人的自由》,《廣東社會(huì)科學(xué)》2018年第5期。

2.算法權(quán)力的崛起。與大數(shù)據(jù)相伴而生的大規(guī)模數(shù)據(jù)分析催生了數(shù)字社會(huì)新的權(quán)力格局。在人工智能時(shí)代,具有自主學(xué)習(xí)與決策功能的智能算法超越了工具化范疇。所謂人工智能本質(zhì)上也僅是在海量數(shù)據(jù)基礎(chǔ)上依據(jù)算法和統(tǒng)計(jì)模型進(jìn)行的自動(dòng)化?!?1〕參見(jiàn)胡凌:《網(wǎng)絡(luò)法的政治經(jīng)濟(jì)起源》,上海財(cái)經(jīng)大學(xué)出版社2016年版,第230頁(yè)。由此人工智能技術(shù)平臺(tái)利用自身在數(shù)據(jù)處理和深度學(xué)習(xí)算法上的技術(shù)優(yōu)勢(shì),基于海量數(shù)據(jù)運(yùn)算配置社會(huì)資源,直接作為行為規(guī)范影響人的行為,輔助甚至取代公權(quán)力決策,形成了對(duì)政府、公民、社會(huì)組織等的影響力,從而發(fā)展為一支新興的技術(shù)權(quán)力,即所謂的算法權(quán)力。算法權(quán)力(Algorithmic Power)根源于數(shù)據(jù)主權(quán)(Data Sovereignty),即互聯(lián)網(wǎng)信息巨頭們對(duì)海量數(shù)據(jù)的占有和使用,〔12〕同前注〔11〕,胡凌書,第34頁(yè)。本質(zhì)上是控制算法設(shè)計(jì)和研發(fā)過(guò)程的資本的權(quán)力。與傳統(tǒng)權(quán)力不同,算法權(quán)力更為理性、客觀和高效,具有無(wú)邊界、分散化的特點(diǎn),無(wú)遠(yuǎn)弗至。人類處于其監(jiān)控之下,卻不知所以,不知其所來(lái)。這為規(guī)則的應(yīng)用拓展了一個(gè)前所未有的空間。

如果我們采取數(shù)據(jù)主義的觀點(diǎn)來(lái)理解世界,算法就是數(shù)據(jù)世界的律法。無(wú)論從算法的制定、算法的執(zhí)行還是算法技術(shù)的監(jiān)管角度,算法作為數(shù)據(jù)世界的律法將與現(xiàn)代法律表現(xiàn)出截然不同的特征。如果現(xiàn)代法律規(guī)范以普遍性為特征,那么算法將以特殊性為首要考慮。〔13〕參見(jiàn)鄔蕾:《算法與法秩序的重塑》,《中國(guó)社會(huì)科學(xué)報(bào)》2019年02月20日第5版。算法權(quán)力以處理海量數(shù)據(jù)的機(jī)器優(yōu)勢(shì)、基于復(fù)雜算法生態(tài)的架構(gòu)優(yōu)勢(shì)與對(duì)社會(huì)權(quán)力運(yùn)行的嵌入優(yōu)勢(shì)為基礎(chǔ),形成了以下特征:一是跨越性,包括跨越網(wǎng)絡(luò)和物理空間、跨越公私兩個(gè)領(lǐng)域;二是隔離性,即算法權(quán)力與民眾理解和現(xiàn)有法律體系的隔離?!?4〕參見(jiàn)張凌寒:《算法權(quán)力的興起、異化及法律規(guī)制》,《法商研究》2019年第4期。

3.算法權(quán)力崛起帶來(lái)的問(wèn)題。算法本身并非純粹客觀的數(shù)據(jù)處理手段,各種數(shù)據(jù)的量化采集有其前提和假定,存在諸多不透明的因素。由于缺乏有效規(guī)制,在商業(yè)領(lǐng)域,算法權(quán)力形成與消費(fèi)者的不公平交易,催生了監(jiān)視資本主義;在公權(quán)力領(lǐng)域,算法權(quán)力嵌入公權(quán)力運(yùn)行的各個(gè)環(huán)節(jié),正挑戰(zhàn)著正當(dāng)程序制度和權(quán)力專屬原則。算法的崛起引發(fā)了公共領(lǐng)域結(jié)構(gòu)性轉(zhuǎn)變?!?5〕See Frank A.Pasquale, “The Automated Public Sphere”, 31 U of Maryland Legal Studies Research Paper 1, 1-18(2017).這導(dǎo)致了網(wǎng)絡(luò)權(quán)力的失衡、信任的減低和平等包容網(wǎng)絡(luò)環(huán)境的破壞,而這些恰是網(wǎng)絡(luò)公共空間賴以存在的基礎(chǔ)性要件?!?6〕See Lincoln Dahlberg, “Computer-Mediated Communication and The Public Sphere: A Critical Analysis”, https://onlinelibrary.wiley.com/doi/full/10.1111/j.1083-6101.2001.tb00137.x, visited on Oct.20, 2019.

首先,基于算法的數(shù)據(jù)挖掘和分析所做出的預(yù)測(cè),有助于控制并干預(yù)其現(xiàn)實(shí)與未來(lái)的可能性。對(duì)于群體行為來(lái)說(shuō),“預(yù)測(cè)現(xiàn)在”意味著通過(guò)對(duì)主體能動(dòng)性的引導(dǎo)對(duì)群體的行為進(jìn)行動(dòng)態(tài)干預(yù),而這會(huì)對(duì)群體的未來(lái)行為產(chǎn)生影響。以劍橋分析事件為例,2013年劍橋大學(xué)研究員Kogan通過(guò)創(chuàng)建Facebook應(yīng)用,陸續(xù)收集了數(shù)千萬(wàn)用戶信息,將這些信息轉(zhuǎn)手給了劍橋分析(Cambridge Analytica)的母公司SCL。劍橋分析運(yùn)用機(jī)器學(xué)習(xí)算法發(fā)掘出更深層次的關(guān)聯(lián),并將其用于“心理變數(shù)營(yíng)銷”(Psychographic Targeting)性質(zhì)的政治營(yíng)銷活動(dòng),從而影響多國(guó)選舉情況,這其中就包括特朗普贏下的2016年美國(guó)大選。〔17〕參見(jiàn)[英]大衛(wèi)·哈維:《新自由主義方案依然活著但其合法性已然喪失——英國(guó)馬克思主義學(xué)者大衛(wèi)·哈維專訪》,禚明亮譯,《吉首大學(xué)學(xué)報(bào)》(社會(huì)科學(xué)版)2019年第3期。

其次,某些行業(yè)的傳統(tǒng)職權(quán)已被算法取代?!?016年中國(guó)互聯(lián)網(wǎng)新聞市場(chǎng)研究報(bào)告》顯示算法分發(fā)新聞數(shù)量已經(jīng)超越編輯分發(fā)成為網(wǎng)絡(luò)新聞主要的分發(fā)方式?!?8〕參見(jiàn)中國(guó)互聯(lián)網(wǎng)絡(luò)信息中心:《2016年中國(guó)互聯(lián)網(wǎng)新聞市場(chǎng)研究報(bào)告》, http://www.fdi.gov.cn/1800000121_35_1610_0_7.html,2019年9月20日訪問(wèn)。在此背景下,專業(yè)記者和編輯的諸多職權(quán)已被算法取代。而且,可以預(yù)見(jiàn)隨著技術(shù)優(yōu)化,算法權(quán)力的范圍仍將不斷擴(kuò)張?!?9〕參見(jiàn)張淑玲:《破解黑箱:智媒時(shí)代的算法權(quán)力規(guī)制與透明實(shí)現(xiàn)機(jī)制》,《中國(guó)出版》2018年第7期。有學(xué)者甚至擔(dān)憂,人工智能對(duì)人類的技術(shù)優(yōu)勢(shì)很可能會(huì)發(fā)展成為人工智能技術(shù)對(duì)人類的霸權(quán)?!?0〕同前注〔8], 陳鵬文。像Facebook和Google這樣的公司已經(jīng)在很大程度上自動(dòng)化了電視網(wǎng)絡(luò)經(jīng)理或報(bào)紙編輯所做的決策類型,而且效果顯然要良好得多。

最后,個(gè)人隱私權(quán)利被算法權(quán)力侵蝕。在互聯(lián)網(wǎng)企業(yè)對(duì)于利潤(rùn)的追求和“大數(shù)據(jù)”科技的無(wú)所不能面前,弱勢(shì)的消費(fèi)者在進(jìn)入互聯(lián)網(wǎng)世界的第一步時(shí),就已經(jīng)在“大數(shù)據(jù)”面前幾乎毫無(wú)隱私可言,各種網(wǎng)站、APP等的協(xié)議內(nèi)容形同虛設(shè),消費(fèi)者同意信息和數(shù)據(jù)的收集使得網(wǎng)絡(luò)平臺(tái)可以對(duì)數(shù)據(jù)主體進(jìn)行“精準(zhǔn)畫像”。所以,信息泄露和大數(shù)據(jù)殺熟為代表的信息的不當(dāng)收集、不當(dāng)使用等不能有效禁止?!?1〕參見(jiàn)《“大數(shù)據(jù)殺熟”死灰復(fù)燃 誰(shuí)還敢再相信攜程?》,https://baijiahao.baidu.com/s?id=1627793955806650154&wfr=spider&for=pc,2019年10月21日訪問(wèn)。一方面,信息巨頭憑借架構(gòu)設(shè)計(jì)權(quán),直接在微觀上對(duì)用戶的行為施加影響。另一方面,在算法的自動(dòng)化決策中,〔22〕較早對(duì)自動(dòng)化決策進(jìn)行分析的成果,參見(jiàn)Nicholas Carr, “The Glass Cage: Automation and Us”, W.W.Norton & Company,2014, pp.153-177.人類只是被分析的對(duì)象,我們并不知道數(shù)據(jù)何時(shí)被采集,哪些信息將會(huì)被分析?!?3〕See Lawrence Lessig, “Code: And Other Laws of Cyberspace”, Basic Books, 2006, p.1.網(wǎng)絡(luò)巨頭利用技術(shù)優(yōu)勢(shì)可以輕易探知用戶的操作習(xí)慣和偏好,對(duì)用戶進(jìn)行精準(zhǔn)的畫像,形成了大數(shù)據(jù)時(shí)代的“網(wǎng)絡(luò)監(jiān)視”?!?4〕同前注〔11〕,胡凌書,第177頁(yè)。生活中隨處可見(jiàn)的商品或服務(wù)的推送、大數(shù)據(jù)殺熟等情況即反映了這種“監(jiān)視”的深度和廣度,在根本意義上消解了隱私的意義。

(二)算法黑箱加劇數(shù)據(jù)歧視

1.算法黑箱下的信息侵害。伴著人工科學(xué)的發(fā)展,人類對(duì)人工世界和人工物的認(rèn)知已經(jīng)取得了長(zhǎng)足的進(jìn)步,〔25〕參見(jiàn)[美]司馬賀:《人工科學(xué):復(fù)雜性面面觀》,武夷山譯,上??萍冀逃霭嫔?004年版,第3~5頁(yè)。但不能否認(rèn),人工世界的相當(dāng)部分仍不為人知??刂普撜邔⑷藗儫o(wú)法從外部觀察其內(nèi)部狀態(tài)的這部分內(nèi)容稱為“黑箱”。〔26〕參見(jiàn)陶迎春:《技術(shù)中的知識(shí)問(wèn)題——技術(shù)黑箱》,《科協(xié)論壇》(下半月)2008年第7期。多年來(lái),以深度學(xué)習(xí)為代表的人工智能算法即被計(jì)算機(jī)專家描述成一個(gè)無(wú)人理解的“算法黑箱”。〔27〕同前注〔2〕,Davide Castelvecchi文。正是由于技術(shù)上難以解釋算法如何決策,加之其在人類生活中的逐步擴(kuò)展,人們對(duì)算法“黑箱”及其公平性引發(fā)了普遍的擔(dān)憂和反思。以大數(shù)據(jù)殺熟為例,平臺(tái)公司根據(jù)用戶經(jīng)常瀏覽或消費(fèi)的商品類型、價(jià)格區(qū)間、購(gòu)物歷史,結(jié)合用戶的地理位置、移動(dòng)情況、常去消費(fèi)地點(diǎn)等,推測(cè)用戶收入水平,分析用戶當(dāng)下或潛在的消費(fèi)欲望,對(duì)用戶進(jìn)行精準(zhǔn)的“畫像”并制定溢價(jià)措施。〔28〕參見(jiàn)《大數(shù)據(jù)“殺熟”又來(lái)了,如何反殺卻是個(gè)技術(shù)活》,http://dy.163.com/v2/article/detail/ECG5L14L05118B5G.html,2019年10月21日訪問(wèn)。

算法“黑箱”的核心問(wèn)題在于信息不對(duì)稱和不公開(kāi)?!昂谙洹毖谏w了算法對(duì)于數(shù)據(jù)的利用,用戶無(wú)從得知算法的目的和意圖,不可能獲悉算法設(shè)計(jì)者、實(shí)際控制者以及機(jī)器生成內(nèi)容的責(zé)任歸屬等信息,更談不上對(duì)其進(jìn)行評(píng)判和監(jiān)督。〔29〕不過(guò),對(duì)于技術(shù)能否識(shí)破算法黑箱存在不同認(rèn)識(shí)。參見(jiàn)張吉豫:《打破人工智能算法黑箱》,https://36kr.com/p/5123323,2019年10月21日訪問(wèn)。這就導(dǎo)致算法的某些負(fù)面影響和潛在問(wèn)題被掩蓋,比如算法的核心要件——數(shù)據(jù)和算法模型兩個(gè)方面均存在數(shù)據(jù)歧視,也就提出了對(duì)這種不透明的算法權(quán)力進(jìn)行有效規(guī)制的議題。但黑箱背后存在復(fù)雜的利益關(guān)系,在根本上加劇了對(duì)算法進(jìn)行規(guī)制的難度。在我國(guó)司法實(shí)踐中也曾發(fā)生一系列涉及算法的案件,〔30〕參見(jiàn)上海市楊浦區(qū)人民法院(2015)滬楊民三(知)初字第1號(hào)判決書;上海知識(shí)產(chǎn)權(quán)法院(2015)滬知民終字第728號(hào)判決書;廣東省高級(jí)人民法院(2016)粵行終492號(hào)判決書等。反映了這一問(wèn)題的復(fù)雜性?!?1〕參見(jiàn)[美]莫里斯·E.斯圖克、艾倫·P.格魯內(nèi)斯:《大數(shù)據(jù)與競(jìng)爭(zhēng)政策》,蘭磊譯,法律出版社2019年版,第32~33頁(yè)。

2.算法自動(dòng)化決策的監(jiān)管難題。對(duì)算法規(guī)制的難點(diǎn)還在于,算法的自動(dòng)化決策不同于工業(yè)時(shí)代的機(jī)械自動(dòng)化,信息時(shí)代的自動(dòng)化一定程度上更有彈性,更能彌補(bǔ)人性的弱點(diǎn)。這決定了對(duì)于算法的治理思路與傳統(tǒng)自由主義和法治強(qiáng)調(diào)個(gè)人理性完備、自主、獨(dú)立、自我負(fù)責(zé)意識(shí)形態(tài)截然不同,轉(zhuǎn)而強(qiáng)調(diào)理性受限,需要外界加以“輕推”?!?2〕同前注〔11〕,胡凌書,第200頁(yè)。不過(guò),自動(dòng)化公共領(lǐng)域的缺陷如此明顯,消費(fèi)者保護(hù)和媒體監(jiān)管機(jī)構(gòu)必須進(jìn)行干預(yù)。但新的監(jiān)測(cè)和監(jiān)管方法應(yīng)該像它們所瞄準(zhǔn)的自動(dòng)化公共領(lǐng)域一樣,在技術(shù)上成熟和全面。然而,我國(guó)現(xiàn)行法律體系尚未針對(duì)算法規(guī)制問(wèn)題做出具體回應(yīng),尤其是在人工智能發(fā)展對(duì)法律提出挑戰(zhàn)的背景下,對(duì)此問(wèn)題的討論顯然不能脫離網(wǎng)絡(luò)法這一整體框架,只有建基于網(wǎng)絡(luò)法律規(guī)制的語(yǔ)境之下,才有可能發(fā)現(xiàn)算法的整體哲學(xué)背景。

(三)算法規(guī)制的價(jià)值基礎(chǔ):“共同善”的出場(chǎng)

數(shù)據(jù)的運(yùn)算并非一個(gè)與價(jià)值無(wú)涉的中立客觀過(guò)程,而是蘊(yùn)含著特定的價(jià)值判斷。況且由于算法黑箱的存在,算法運(yùn)行的不可預(yù)測(cè)與審計(jì)一直是問(wèn)題。在這一意義上,算法的設(shè)計(jì)者或者控制者也不能完全左右,在某種意義上稱之為“技術(shù)無(wú)意識(shí)”。但是算法作為代碼世界的規(guī)則,為人類的線上和線下生活提供了數(shù)據(jù)化框架,對(duì)人和世界產(chǎn)生著決定性的影響。因此,我們需要由更為根本的維度——共同善來(lái)審度算法權(quán)力,規(guī)制算法偏見(jiàn),防止權(quán)力異化,迫使其修正與改進(jìn)。

1.公共空間的網(wǎng)絡(luò)轉(zhuǎn)化。網(wǎng)絡(luò)法構(gòu)成了算法及人工智能法律調(diào)整的整體背景,網(wǎng)絡(luò)公共領(lǐng)域構(gòu)成了共同善出場(chǎng)的現(xiàn)實(shí)基礎(chǔ)?;ヂ?lián)網(wǎng)是哈貝馬斯所稱的現(xiàn)實(shí)“公共領(lǐng)域”的網(wǎng)絡(luò)體現(xiàn),“公共領(lǐng)域”主要由三方面要素構(gòu)成:一定規(guī)模具有自愿性且擁有共同利益的公眾;以批判意識(shí)為核心,以對(duì)國(guó)家權(quán)力進(jìn)行批評(píng)與監(jiān)督、控制為主要目標(biāo)的“公共意見(jiàn)”或“公眾輿論”;公眾賴以表達(dá)、傳播自己意見(jiàn)并使之對(duì)以國(guó)家權(quán)力為主體的公共權(quán)力形成影響、約束乃至監(jiān)督、控制的媒介和場(chǎng)所?!?3〕參見(jiàn)[德]哈貝馬斯:《公共領(lǐng)域的結(jié)構(gòu)轉(zhuǎn)型》,曹衛(wèi)東等譯,學(xué)林出版社1999年版;另見(jiàn)《在哈貝馬斯八十九歲壽辰回顧經(jīng)典的“公共領(lǐng)域”理論》,http://www.sohu.com/a/236443226_736480,2019年10月20日訪問(wèn)。按照這一界定,公共領(lǐng)域并不僅僅具有物理空間的意義,其前提是自由參與,具有開(kāi)放性,人們可以平等地、理性地討論公共議題,通過(guò)批判性的討論,克服分歧和差異以達(dá)成共識(shí)。因此,這一理論可以用來(lái)討論網(wǎng)絡(luò)公共空間的問(wèn)題,從私人領(lǐng)域中發(fā)散開(kāi)去,在國(guó)家和市民社會(huì)中具有某種獨(dú)立的媒介地位。

2.網(wǎng)絡(luò)公共空間的異化。TCP/IP協(xié)議和萬(wàn)維網(wǎng)將計(jì)算機(jī)緊密相連,商業(yè)資本由此在更大范圍的平臺(tái)上組織勞動(dòng)力和生產(chǎn)資料,創(chuàng)造全新的生產(chǎn)模式。然而,互聯(lián)網(wǎng)已不是理想中的分布式網(wǎng)絡(luò),隨著少數(shù)互聯(lián)網(wǎng)巨頭控制了核心節(jié)點(diǎn),被譽(yù)為開(kāi)放之地、互動(dòng)之區(qū)的互聯(lián)網(wǎng)演化為具有少數(shù)核心節(jié)點(diǎn)的貴族式網(wǎng)絡(luò),這些巨頭搭建網(wǎng)絡(luò)交流溝通的接口與標(biāo)準(zhǔn),并欲借此成為中心的信息中介,從而掌握一切生產(chǎn)性資源的流動(dòng)?!?4〕同前注〔11〕,胡凌書,第326~331頁(yè)。這些互聯(lián)網(wǎng)巨頭憑借排他權(quán)力,為了自身的經(jīng)濟(jì)利益使用網(wǎng)絡(luò)數(shù)據(jù),原本被期待更為開(kāi)放的網(wǎng)絡(luò)公共領(lǐng)域逐漸被不同的信息巨頭瓜分?!?5〕同上注,第36頁(yè)。當(dāng)這些大平臺(tái)控制了互聯(lián)網(wǎng)架構(gòu)的代碼層、應(yīng)用層和內(nèi)容層,就會(huì)產(chǎn)生為自己利益服務(wù)和排他競(jìng)爭(zhēng)等問(wèn)題,這就產(chǎn)生了對(duì)物理層之外的技術(shù)中立的爭(zhēng)論。

技術(shù)價(jià)值中立的觀點(diǎn)長(zhǎng)期盛行也深入人心。但維納(Winner)早在20世紀(jì)八十年代即提出,技術(shù)具有政治屬性?!?6〕See Langdon Winner, “Do Artifacts Have Politics?”, 109 Daedalus 121, 121-136 (1980).后來(lái)的學(xué)者更是系統(tǒng)提出技術(shù)本身內(nèi)嵌價(jià)值的觀點(diǎn),〔37〕See Mary Flanagan, Daniel C.Howe and Helen Nissenbaum, “Embodying Values in Technology: Theory and Practice”,Cambridge University Press, 2008, pp.322-353.即在技術(shù)工程設(shè)計(jì)階段就有一些價(jià)值被有意無(wú)意地嵌入其中?;ヂ?lián)網(wǎng)興起后,網(wǎng)絡(luò)隱含的價(jià)值偏見(jiàn)和利益取向也引起了廣泛關(guān)注。普通人即很難發(fā)現(xiàn)軟件所隱藏的有限性、許可、特權(quán)和障礙?!?8〕See Astrid Mager, “Algorithmic Ideology: How Capitalist Society Shapes Search Engines”, 15 Information Communication &Society 769, 769-787 (2012).算法同樣如此,數(shù)據(jù)自動(dòng)化處理本質(zhì)上仍是人為編制的運(yùn)算法則,其中的回報(bào)函數(shù)體現(xiàn)著工程師的設(shè)計(jì)意圖和價(jià)值取向?!?9〕參見(jiàn)姜野:《算法的規(guī)訓(xùn)與規(guī)訓(xùn)的算法:人工智能時(shí)代算法的法律規(guī)制》,《河北法學(xué)》2018年第12期。就算法的設(shè)計(jì)過(guò)程來(lái)看,作為其要素的基礎(chǔ)數(shù)據(jù)和推理假設(shè)都有可能隱含設(shè)計(jì)者的偏見(jiàn)、價(jià)值觀和意識(shí)形態(tài)取向?!?0〕同前注〔19〕,張淑玲文。算法的價(jià)值偏見(jiàn)構(gòu)成了共同善出場(chǎng)的基本理由。

共同善的出場(chǎng)促使法律對(duì)算法等技術(shù)的規(guī)制不得不轉(zhuǎn)變立場(chǎng),即由通常的單純事后責(zé)任追究擴(kuò)及事前的合法性考察。具體而言,在設(shè)計(jì)階段就考察其所欲實(shí)現(xiàn)之價(jià)值是否合法,即算法的價(jià)值敏感性成為先期審查內(nèi)容。〔41〕參見(jiàn)王小偉:《作為一種價(jià)值的互聯(lián)網(wǎng)——一個(gè)比較哲學(xué)的思路》,《自然辯證法研究》2016年第11期。不過(guò),借助現(xiàn)有法律調(diào)整新技術(shù)帶來(lái)的價(jià)值問(wèn)題,似乎永遠(yuǎn)不能得到最佳的結(jié)果,原因是新技術(shù)多以嶄新的方式影響著人類的存在。這就要求我們改變頭痛醫(yī)頭、腳痛醫(yī)腳的做法,改變從外部進(jìn)行評(píng)估技術(shù)的傳統(tǒng)路線,轉(zhuǎn)而從內(nèi)部進(jìn)行價(jià)值賦予,〔42〕參見(jiàn)[荷]彼得·保羅·維貝克:《將技術(shù)道德化:理解與設(shè)計(jì)物的道德》,閆宏秀、楊慶峰譯,上海交通大學(xué)出版社2016年版,第1頁(yè)。在網(wǎng)絡(luò)法的整體背景下,探討法律規(guī)制算法技術(shù)的價(jià)值基礎(chǔ)。此時(shí),共同善作為規(guī)制算法的哲學(xué)基礎(chǔ)就進(jìn)入我們的視野。

由公共善維度討論算法的規(guī)制,旨在建立內(nèi)部和外部配合、事前和事后勾連、限權(quán)與賦權(quán)并舉的制度體系,最終防止算法權(quán)力的異化。賦權(quán)相對(duì)于算法規(guī)制是外部路徑,屬于事后調(diào)整,是數(shù)據(jù)生產(chǎn)者審視算法對(duì)數(shù)據(jù)利用情況的權(quán)利,即算法解釋請(qǐng)求權(quán)。限權(quán)在算法規(guī)制體系中屬于內(nèi)部路徑,是事前介入,即遵循技術(shù)規(guī)律,針對(duì)算法的本身,追求算法有意義的透明化和道德化。

二、共同善介入算法規(guī)制的內(nèi)部路徑:技術(shù)面向下的算法透明

作為算法規(guī)制基礎(chǔ)的共同善,從根本上要在遵循算法技術(shù)規(guī)律的前提下,通過(guò)符合共同善的算法本身的設(shè)計(jì)發(fā)揮作用,這構(gòu)成了共同善介入算法規(guī)制的內(nèi)在路徑。

(一)共同善與算法規(guī)制的技術(shù)面向

學(xué)者們?cè)趦煞N意義上使用“共同善”概念。一種觀點(diǎn)認(rèn)為共同善即公共利益,或者說(shuō)公共利益是共同善的具體體現(xiàn);〔43〕參見(jiàn)[美]菲利浦·佩蒂特:《共同善》,曹欽譯,《政治思想史》2015年第2期。另一種觀點(diǎn)認(rèn)為共同善是共同體的倫理價(jià)值,我們可以把它認(rèn)定為共同體追求的至善目標(biāo),〔44〕參見(jiàn)[美]約翰·菲尼斯:《自然法與自然權(quán)利》,董嬌嬌等譯,蘇苗罕等校,中國(guó)政法大學(xué)出版社2005年版;See John M.Finnis, “What Is the Common Good, and Why Does It Concern the Client’s Lawyer?”, 40 South Texas Law Review 41 (1999).正如古希臘城邦這一政治共同體的目標(biāo)是為了追求最高的善一樣。無(wú)論采取哪種觀點(diǎn),共同善概念與我們的社會(huì)生活和目標(biāo)緊密相連,一方面構(gòu)成權(quán)利主體利益存在與判別的背景和價(jià)值支撐,另一方面又構(gòu)成了我們自身目的或者利益的核心內(nèi)容。共同善介入算法規(guī)制的路徑設(shè)計(jì),大致也無(wú)外乎循此兩種意義進(jìn)行。

為了更為清晰地理解共同善的概念,我們簡(jiǎn)要勾勒政治哲學(xué)上社群主義與自由主義對(duì)權(quán)利與善的爭(zhēng)論。對(duì)于權(quán)利與善何者優(yōu)先這一焦點(diǎn)議題,康德和羅爾斯為代表的自由主義學(xué)者以個(gè)人主義作為立論基礎(chǔ),把個(gè)人“權(quán)利”放在比其所處的社會(huì)環(huán)境更高的位置。社群主義的代表人物桑德?tīng)枌?duì)此提出批評(píng),提出“善優(yōu)先于權(quán)利”的觀點(diǎn)。這里的“善”即根植于具體共同體的“共同善”。〔45〕參見(jiàn)[美]邁克爾·J.桑德?tīng)枺骸蹲杂芍髁x與正義的局限》,萬(wàn)俊人等譯,譯林出版社2001年版,第162~211頁(yè)。原因是,人類對(duì)善的追求總是在一個(gè)社會(huì)共同體中進(jìn)行的,權(quán)利的追求應(yīng)維護(hù)既定的社會(huì)秩序,使之有效率并能夠和諧有序,這就是共同體的“共同善”,亦即共同體的共同利益?!?6〕參見(jiàn)葛紅梅:《桑德?tīng)柟舱軐W(xué)思想研究》,復(fù)旦大學(xué)2009年博士學(xué)位論文,第51頁(yè)。在根本上,這是由人類的類群性、社會(huì)性之天性決定的。

如何評(píng)判一個(gè)制度或者一項(xiàng)技術(shù)是否符合共同善的要求,是其介入算法規(guī)制是否有效的判別標(biāo)準(zhǔn)。對(duì)于更廣泛意義上的制度設(shè)計(jì)是否符合共同善這一問(wèn)題,大衛(wèi)·施密特提出具有啟發(fā)性的觀點(diǎn)。他認(rèn)為,一個(gè)制度能讓所有人都過(guò)得更好,通常即意味著服務(wù)了公共的善。但是,從嚴(yán)格意義上講,很難有哪個(gè)制度實(shí)際符合這一標(biāo)準(zhǔn)。因此,作為另外一種可能,施密特提出“假設(shè)我們知道,一個(gè)制度至少使得它所影響的一半人過(guò)得更好?!薄?7〕[美]大衛(wèi)·施密特:《個(gè)人 國(guó)家 地球——道德哲學(xué)和政治哲學(xué)研究》,李勇譯,上海人民出版社2016年版,第143頁(yè)。對(duì)于包括算法在內(nèi)的技術(shù)的共同善的符合性判斷,大致亦不外此類判別標(biāo)準(zhǔn)。在具體手段上,算法規(guī)制內(nèi)在路徑要求自覺(jué)主動(dòng)地把有益于共同善的價(jià)值融入到技術(shù)設(shè)計(jì)中去。這需要重視并尊重算法的技術(shù)面向。

算法、數(shù)據(jù)結(jié)構(gòu)、編程語(yǔ)言構(gòu)成了計(jì)算機(jī)科學(xué)的三大要素,算法又與大數(shù)據(jù)、算力共同構(gòu)成了人工智能三個(gè)推動(dòng)力。由此可見(jiàn),算法與數(shù)學(xué)和計(jì)算機(jī)科學(xué)存在密切關(guān)聯(lián),其在計(jì)算機(jī)領(lǐng)域發(fā)揮著核心作用。算法本質(zhì)上是一種解決問(wèn)題的方式,它用數(shù)學(xué)語(yǔ)言建構(gòu)數(shù)學(xué)模型來(lái)描述現(xiàn)實(shí)世界,是以數(shù)學(xué)方式或者計(jì)算機(jī)代碼表達(dá)的意見(jiàn)。具體來(lái)說(shuō),算法是包含一系列復(fù)雜的數(shù)學(xué)規(guī)則、能通過(guò)預(yù)先設(shè)定的步驟解決特定問(wèn)題的計(jì)算機(jī)程序?!?8〕參見(jiàn)高學(xué)強(qiáng):《人工智能時(shí)代的算法裁判及其規(guī)制》,《陜西師范大學(xué)學(xué)報(bào)》(哲學(xué)社會(huì)科學(xué)版)2019年第3期。算法邏輯是將人類解決問(wèn)題的過(guò)程分解為若干步驟,再通過(guò)程序設(shè)計(jì),將這一過(guò)程模擬化或公式化,借助系統(tǒng)化的計(jì)算機(jī)程序來(lái)求解更復(fù)雜的問(wèn)題?!?9〕參見(jiàn)王紅梅、胡明:《算法設(shè)計(jì)與分析》(第2版),清華大學(xué)出版社2013年版,第6頁(yè)。算法的這種技術(shù)面向決定了普通的數(shù)據(jù)主體很難了解算法運(yùn)算所涉及的大體量數(shù)據(jù)的復(fù)雜程序,日常自動(dòng)化決策多種算法的疊加更加劇了解釋黑箱的難度。

美國(guó)學(xué)者迪亞克普拉斯提出了算法黑箱的兩種常見(jiàn)情形?!?0〕See Nicholas Diakopoulos, “Algorithmic Accountability: Journalistic Investigation of Computational Power Structures”, 3 Digital Journalism 398 (2015).第一種情形對(duì)應(yīng)監(jiān)督式機(jī)器學(xué)習(xí)技術(shù),多見(jiàn)于結(jié)構(gòu)化數(shù)據(jù)豐富的領(lǐng)域,也是目前國(guó)內(nèi)運(yùn)用比較多的算法形式。這一過(guò)程有固定的模板,輸入和輸出都是已知信息。第二種算法“黑箱”中,算法輸入側(cè)挖掘、收集數(shù)據(jù)等環(huán)節(jié)具有不透明性,對(duì)用戶而言是未知的,但符合某種統(tǒng)計(jì)學(xué)規(guī)律,只有輸出側(cè)是已知的。有學(xué)者稱這兩種情形是算法黑箱的初級(jí)形態(tài)和中間形態(tài)。該學(xué)者進(jìn)一步提出,還存在對(duì)應(yīng)無(wú)監(jiān)督式機(jī)器學(xué)習(xí)的第三種形態(tài),這一黑箱形態(tài)無(wú)須固定的輸入輸出模板,算法在沒(méi)有任何人為干預(yù)的條件下,憑借自主學(xué)習(xí)能力自動(dòng)地從數(shù)據(jù)中抽取知識(shí)。這種情形下輸入和輸出兩側(cè)組成了一個(gè)閉環(huán)的黑箱,諸多流程均是不透明的,是算法黑箱的高級(jí)形態(tài)?!?1〕同前注〔19〕,張淑玲文。

(二)道德算法:共同善介入的內(nèi)部路徑

1.數(shù)據(jù)正義下的算法透明。數(shù)據(jù)存儲(chǔ)、收集、分析成本的降低提高了物理行為的數(shù)據(jù)轉(zhuǎn)化,數(shù)字化生活將物理世界行為網(wǎng)絡(luò)化,這為算法透明提供了一定的現(xiàn)實(shí)可能性和外部環(huán)境條件。正是在此基礎(chǔ)上,有網(wǎng)絡(luò)連接的組織和個(gè)人均有可能借助數(shù)字技術(shù)對(duì)政府和機(jī)構(gòu)進(jìn)行監(jiān)督和問(wèn)責(zé),這構(gòu)筑了算法規(guī)制的前提。規(guī)制算法的努力和嘗試不斷出現(xiàn)。美國(guó)計(jì)算機(jī)學(xué)會(huì)公眾政策委員會(huì)(ACM Public Policy Council)制定了算法治理的指導(dǎo)細(xì)則,比如知情原則、質(zhì)詢和申訴原則、算法責(zé)任認(rèn)定原則、數(shù)據(jù)來(lái)源披露原則、可審計(jì)原則等?!?2〕See U.S.Association for Computational Mechanics, “Statement on Algorithmic Transparency and Accountability”, https://www.acm.org/articles/bulletins/2017/january/usacm-statement-algorithmic-accountability, visited on Oct.20, 2019.《歐盟一般數(shù)據(jù)保護(hù)條例》(GDPR)是對(duì)算法解釋的最新立法嘗試?!?3〕GDPR賦予消費(fèi)者自動(dòng)化決策“解釋權(quán)”,這幾乎成為該條例最具爭(zhēng)議性的條款之一。參見(jiàn)《歐盟〈一般數(shù)據(jù)保護(hù)條例〉》,胡嘉妮、葛明瑜譯,許多奇校,載《互聯(lián)網(wǎng)金融法律評(píng)論》2017年第1期。本文所引用的GDPR條文均出自此中譯本。我國(guó)《電子商務(wù)法》第40條及《個(gè)人信息安全規(guī)范》第7.10條也作出了探索。比如,《個(gè)人信息安全規(guī)范》第7.10條賦予個(gè)人提出申請(qǐng)的程序性權(quán)利,但并未涉及對(duì)平臺(tái)的實(shí)質(zhì)約束。上述立法雖然路徑不一,但均觸及并強(qiáng)調(diào)了算法透明或?qū)λ惴ǖ慕忉尅?/p>

在一定意義上,推進(jìn)算法透明與規(guī)制算法權(quán)力是一體兩面的關(guān)系。將人工智能算法開(kāi)源,并公開(kāi)相關(guān)數(shù)據(jù)一直被認(rèn)為是可以解決算法黑箱的重要方案?!?4〕See Bruno Lepri, et al.“Fair, Transparent, and Accountable Algorithmic Decision-Making Processes”, 31 Philosophy &Technology 611 (2018).從生產(chǎn)主體的角度來(lái)看,提升算法透明度至少可以從算法要素透明、程序透明和背景透明等方面進(jìn)行嘗試。首先,算法背景透明,即平臺(tái)應(yīng)向用戶交代算法設(shè)計(jì)者及其所在機(jī)構(gòu)的目標(biāo)和意圖,將算法在實(shí)際運(yùn)行中可能帶有的偏見(jiàn)、易犯的錯(cuò)誤坦誠(chéng)告知用戶。第二,算法要素透明。數(shù)據(jù)是算法運(yùn)行的前提條件和基本要素?!皵?shù)據(jù)透明”要求在數(shù)據(jù)生產(chǎn)和處理日趨復(fù)雜的形勢(shì)下,增強(qiáng)個(gè)人的知情權(quán),以便讓偏向于平臺(tái)優(yōu)勢(shì)的信息回復(fù)實(shí)現(xiàn)對(duì)稱?!?5〕參見(jiàn)許可:《人工智能的算法黑箱與數(shù)據(jù)正義》,《社會(huì)科學(xué)報(bào)》2018年3月29日第6版。算法程序的高效運(yùn)行對(duì)數(shù)據(jù)量級(jí)和質(zhì)量均有很高的要求。此外,模型輸入的變量及其特征,特別是關(guān)鍵變量值、特征權(quán)重和建模工具等信息均有必要向用戶披露,從而使他們對(duì)算法的建模過(guò)程有較為全面的了解。第三,算法程序透明。生產(chǎn)主體應(yīng)就算法的運(yùn)算和決策過(guò)程予以必要解釋,以實(shí)現(xiàn)程序透明。算法程序的推理規(guī)則,如分類、數(shù)值推測(cè)、推薦等,其中包含的準(zhǔn)確度、基準(zhǔn)值、置信水平等統(tǒng)計(jì)數(shù)據(jù)均存在不確定性。還有外部接口的開(kāi)關(guān)、輸入與權(quán)重的可調(diào)整性以及呈現(xiàn)給終端用戶的界面設(shè)計(jì)等,都需要考慮以便于用戶理解的方式予以充分披露?!?6〕同前注〔19〕,張淑玲文。

2.道德算法的提出。算法透明并不意味著對(duì)算法權(quán)力的有效規(guī)制。一方面,這一方案目前還不能適用于自動(dòng)化決策的全部場(chǎng)景,原因是很多算法屬于涉及商業(yè)利益的專有算法,受知識(shí)產(chǎn)權(quán)保護(hù),多數(shù)情況下還涉及個(gè)人隱私等問(wèn)題。另外,代碼和數(shù)據(jù)開(kāi)放本身并不意味著滿足了社會(huì)對(duì)于算法可解釋性的需求,本質(zhì)上,算法透明只能是有限度的透明。因此,我們需要多角度立體建構(gòu)算法規(guī)制的制度體系。同時(shí),現(xiàn)實(shí)中很多擁有數(shù)據(jù)和代碼的企業(yè)亦無(wú)法直接對(duì)自己的算法做出充分解釋?!?7〕同前注〔29〕,張吉豫文。

在上述背景下,將符合共同善的倫理價(jià)值編入算法并形成道德算法,成為共同善介入算法規(guī)制的必然路徑。首先,共同善要求更為科學(xué)地界定對(duì)社會(huì)秩序、公共利益或國(guó)家安全有嚴(yán)重危害或影響的算法,這類算法一般被稱為公共利益算法。〔58〕參見(jiàn)孫益武:《規(guī)制算法的困境與出路》,《中國(guó)社會(huì)科學(xué)報(bào)》2019年4月24日第5版。由于其直接指向公共利益,因此立法要對(duì)這類算法進(jìn)行特別的規(guī)制。其次,道德算法是嵌入在算法體系中有待完善的算法程式。但如何在算法內(nèi)嵌入道德,無(wú)論在技術(shù)上還是在學(xué)理上都有爭(zhēng)論。有學(xué)者認(rèn)為,設(shè)計(jì)者應(yīng)該將這一問(wèn)題留給使用者,當(dāng)這不可能實(shí)現(xiàn)時(shí),對(duì)算法的倫理要求至少應(yīng)當(dāng)是透明的且易于用戶識(shí)別。〔59〕See F.Kraemer, K.Van Overveld and M.Peterson, “Is There an Ethics of Algorithms?”, 13 Ethics Inf Technol 251, 251-260(2011).當(dāng)這些算法導(dǎo)致錯(cuò)誤決策時(shí),創(chuàng)建或在使用這些理解的算法(Inscrutable Algorithms)的開(kāi)發(fā)人應(yīng)承擔(dān)責(zé)任?!?0〕See Kirsten Martin , “Designing Ethical Algorithms”, 18 MIS Quarterly Executive 129, 129-142 (2019).這一路徑的理論預(yù)設(shè)前提是,賦予機(jī)器人道德能力,這呼應(yīng)了 James H.Moor提出的三種道德主體(Ethical Agent)?!?1〕See James Moor, “The Nature Importance, and Difficulty of Machine Ethics”, 21 IEEE Intelligent Systems 18 (2006).申言之,由于道德在情感的基礎(chǔ)上得以生發(fā),如果機(jī)器人具有情感能力,機(jī)器之良心——道德心即得以生成。算法只有體現(xiàn)或遵循人類主體模式下的“善法”,才能以有責(zé)任感的方式推進(jìn)道德算法的進(jìn)化及其在機(jī)器中的嵌入。讓機(jī)器人在一個(gè)道德判斷情境中模仿人類的決策過(guò)程,首先需要機(jī)器人能意識(shí)到道德判斷情境,接著依循所布建的推理策略──包括道德原則、基準(zhǔn)與價(jià)值等。這是人工智能時(shí)代的道德建構(gòu)應(yīng)遵循的基本原則,即算法遵循“善法”?!?2〕參見(jiàn)田海平:《讓“算法”遵循“善法”》,《光明日?qǐng)?bào)》2017年9月4日第15版。不過(guò),需要指出,正如我們已經(jīng)提示的那樣,道德算法雖然在技術(shù)上可能得到支持,目前對(duì)賦予人工智能道德能力的算法仍有不同意見(jiàn)。如欲真正實(shí)現(xiàn)共同善的要求,至少還應(yīng)克服算法賴以存在的數(shù)據(jù)的倫理困境,治理或防范數(shù)據(jù)失信和失真,遵循“善法”,實(shí)現(xiàn)“善智”。讓算法遵循“善法”需要先期的規(guī)范性構(gòu)建,這種規(guī)則建構(gòu)的努力方向是將共同善的倫理價(jià)值融入算法規(guī)則設(shè)計(jì)之中。

三、共同善介入算法規(guī)制的外部路徑:算法透明下解釋請(qǐng)求權(quán)的設(shè)置

算法規(guī)制應(yīng)從增強(qiáng)算法透明度與可解釋性兩方面努力?!?3〕同前注〔39〕,姜野文。除了前文的內(nèi)部路徑外,設(shè)置算法解釋請(qǐng)求權(quán)構(gòu)成了共同善介入算法規(guī)制的外部路徑。

(一)權(quán)利的共同善向度

在政治學(xué)對(duì)“善”與“正當(dāng)”的爭(zhēng)論之外,不容忽視的是拉茲的“共同善權(quán)利觀”。拉氏認(rèn)為,在對(duì)權(quán)利的證成中,個(gè)人利益與共同善通常是“雙重和諧”關(guān)系。具體來(lái)說(shuō),除了保護(hù)個(gè)人的利益之外,通過(guò)保護(hù)個(gè)人權(quán)利來(lái)保護(hù)共同善或者通過(guò)保護(hù)共同善來(lái)保護(hù)個(gè)人利益也是證成權(quán)利的部分正當(dāng)性理由。一方面,保護(hù)共同善同時(shí)也是保護(hù)公共利益,因?yàn)閭€(gè)人“是團(tuán)體中的一員”;另一方面,保護(hù)個(gè)人利益同時(shí)也是保護(hù)共同善,因?yàn)椤罢峭ㄟ^(guò)保護(hù)個(gè)人權(quán)利,人們才保護(hù)了共同善,從而服務(wù)了大多數(shù)人的利益?!薄?4〕彭誠(chéng)信:《現(xiàn)代權(quán)利理論研究》,法律出版社2017年版,第89頁(yè)。拉氏較早關(guān)注了權(quán)利的共同善屬性,并以此反駁那種認(rèn)為個(gè)人權(quán)利具有優(yōu)越性并以之反對(duì)普遍善或共同善,或者一般性地反對(duì)其他人的主張、需求、需要或要求的觀點(diǎn)。合理評(píng)價(jià)拉氏權(quán)利觀的關(guān)鍵是如何認(rèn)識(shí)權(quán)利的本質(zhì)。在權(quán)利理論上,拉茲顯然屬于利益論者,但毫無(wú)疑問(wèn)其對(duì)“利益”進(jìn)行了更為廣義的解讀,他認(rèn)為權(quán)利的分量或重要性等于權(quán)利人的利益再加上其他人的利益,后者即是 “共同善”。如此在拉茲的權(quán)利理論中,共同善構(gòu)成了權(quán)利正當(dāng)性的理由,在一定意義上也強(qiáng)化了權(quán)利保護(hù)的力度?!?5〕參見(jiàn)朱振:《共同善權(quán)利觀的力度與限度》,《法學(xué)家》2018年第2期。

斯皮爾坎普先生辯稱,應(yīng)將自動(dòng)化決策系統(tǒng)用于實(shí)現(xiàn)共同利益、增加參與和提高司法公正?!?6〕See Daniel Staemmler and Eva Podgor?ek, “Ethics in AI: Are Algorithms Suppressing Us?”, https://www.elsevier.com/connect/ethics-in-ai-are-algorithms-suppressing-us, visited on Oct.21, 2019.在從數(shù)據(jù)主權(quán)到算法權(quán)力形成的背景下,要求解釋算法的權(quán)利背后反映的正是一種公共利益,即共同善。具體而言,在互聯(lián)網(wǎng)的整體架構(gòu)中,全民免費(fèi)的數(shù)據(jù)生產(chǎn)換來(lái)的是算法權(quán)力的崛起,甚至是對(duì)于數(shù)據(jù)生產(chǎn)者的監(jiān)視。數(shù)據(jù)生產(chǎn)者要求平臺(tái)解釋算法即代表著社會(huì)對(duì)于算法世界的調(diào)整和規(guī)制,其背后公共利益支撐著個(gè)人請(qǐng)求解釋的權(quán)利。這一權(quán)利的設(shè)置構(gòu)成了共同善介入算法規(guī)制的外部路徑。

(二)算法解釋請(qǐng)求權(quán)的設(shè)立

有學(xué)者提出增設(shè)算法解釋權(quán),即當(dāng)相對(duì)人對(duì)算法得出的自動(dòng)化決策存疑時(shí)有權(quán)請(qǐng)求算法的制定者及使用者進(jìn)行解釋說(shuō)明,甚至可以要求在消除歧視因素后重新進(jìn)行自動(dòng)決策。根據(jù)這一界定,算法解釋請(qǐng)求權(quán)可謂是對(duì)數(shù)據(jù)主體事后有效的救濟(jì)?!?7〕參見(jiàn)張凌寒:《商業(yè)自動(dòng)化決策的算法解釋權(quán)研究》,《法律科學(xué)》2018年第3期。一般認(rèn)為,算法解釋的權(quán)利肇源于GDPR,但學(xué)界對(duì)GDPR中是否存在算法解釋請(qǐng)求權(quán)仍存在爭(zhēng)議。在GDPR中與算法解釋可能相關(guān)的條文有第13條、第14條、第15條和第22條,哪一條文為算法解釋請(qǐng)求權(quán)的規(guī)范基礎(chǔ)需要具體分析。

1.算法解釋請(qǐng)求權(quán)的規(guī)范基礎(chǔ)。首先,第15條規(guī)定的是數(shù)據(jù)主體的訪問(wèn)權(quán),〔68〕GDPR第15條第1段規(guī)定:“數(shù)據(jù)主體有權(quán)從控制者處獲得確認(rèn),確認(rèn)與他或她相關(guān)的個(gè)人數(shù)據(jù)是否已被處理,以及其是否有權(quán)訪問(wèn)個(gè)人數(shù)據(jù)和以下信息:……(h)存在自動(dòng)化數(shù)據(jù)處理,包括第22(1)條和第(4)款提及的數(shù)據(jù)畫像以及與算法邏輯相關(guān)的有意義信息(至少在該等情況下),該等處理對(duì)數(shù)據(jù)主體的重要性與針對(duì)該等數(shù)據(jù)主體的運(yùn)算結(jié)果?!辈⒎撬惴ń忉屨?qǐng)求權(quán)的基礎(chǔ)。其次,第13條第2段〔69〕GDPR第13條第2段規(guī)定:“除第1款提及的信息外,控制者應(yīng)在獲取個(gè)人數(shù)據(jù)之時(shí)向數(shù)據(jù)主體提供為確保公正透明處理所必需的下列其他信息:……(f)存在自動(dòng)化數(shù)據(jù)處理,包括第22(1)條和第(4)款提及的數(shù)據(jù)畫像以及與算法邏輯相關(guān)的有意義信息(至少在該等情況下),該等處理對(duì)數(shù)據(jù)主體的重要性與針對(duì)該等數(shù)據(jù)主體的運(yùn)算結(jié)果?!焙偷?4條第2段〔70〕GDPR第14條第2段規(guī)定:“除第1段提及的信息外,控制者應(yīng)向數(shù)據(jù)主體提供為確保公正透明處理所必需的下列信息:……(f)存在自動(dòng)化數(shù)據(jù)處理,包括第22(1)條和第(4)款提及的數(shù)據(jù)畫像以及與算法邏輯相關(guān)的有意義信息(至少在該等情況下),該等處理對(duì)數(shù)據(jù)主體的重要性與針對(duì)該等數(shù)據(jù)主體的運(yùn)算結(jié)果?!币?guī)定了(第三方)數(shù)據(jù)控制者的通知義務(wù),即在符合第22條第1段和第4段的規(guī)定條件時(shí),控制者須向數(shù)據(jù)主體提供有意義的信息,并就進(jìn)行此類處理的重要性和預(yù)設(shè)后果進(jìn)行解釋。這一解釋屬于面向未來(lái)的事前通知義務(wù)?!?1〕See Sandra Wachter, Brent Mittelstadt and Luciano Floridi, “Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation”, 7 International Data Privacy Law 76 , 82(2017).再者,根據(jù)歐洲數(shù)據(jù)保護(hù)委員會(huì)(以下簡(jiǎn)稱EDPB)解釋,有意義的信息為“提供決策過(guò)程中考慮的主要特征、信息來(lái)源和相關(guān)性的詳細(xì)信息”,〔72〕The Working Party on the Protection of Individuals with Regard to the Processing of Personal Data, p.25.這一義務(wù)顯然無(wú)法解釋具體決策,因此第13條、第14條和第15條的規(guī)范意旨均不是賦予數(shù)據(jù)主體算法解釋權(quán)。

最后,第22條第3段可以作為算法解釋請(qǐng)求權(quán)基礎(chǔ)。第22條第3段規(guī)定,在第2段〔73〕GDPR第22條第2段規(guī)定:當(dāng)決策是基于合同必需的、聯(lián)邦或成員國(guó)法律授權(quán)的或者是數(shù)據(jù)主體明確的同意時(shí),允許僅基于自動(dòng)化處理(包括分析)作對(duì)數(shù)據(jù)主體有法律上影響或類似重大影響的決策。(a)和(c)這兩種情況下,數(shù)據(jù)控制者應(yīng)當(dāng)采取適當(dāng)措施,保障數(shù)據(jù)主體的權(quán)利、自由和合法利益,至少有權(quán)獲得控制者的人身干預(yù)、表達(dá)其觀點(diǎn)和對(duì)決定提出異議。就文意來(lái)看,該條并未規(guī)定算法解釋,但結(jié)合GDPR序言第71段對(duì)第22條所作的解釋,即在任何情況下,此類處理都應(yīng)遵守適當(dāng)?shù)谋U洗胧渲袘?yīng)包括向數(shù)據(jù)主體提供具體信息以及獲得人為干預(yù)、表達(dá)其觀點(diǎn)、對(duì)評(píng)估后達(dá)成的決定作出解釋和質(zhì)疑該決定的權(quán)利。EDPB認(rèn)為,序言第71段數(shù)據(jù)主體可以獲得評(píng)估后達(dá)成決定的解釋,要求解釋決定是否妥適的保障措施,理應(yīng)包含在第22條第3段中?!?4〕也有學(xué)者指出,序言不具有法律效力,反對(duì)借助序言第71條解釋第22條的規(guī)定。參見(jiàn)前注〔71〕,Sandra Wachter等文。因此,從法律體系上來(lái)說(shuō),從第22條推演出算法解釋權(quán)是合理的,第22條第3段在實(shí)踐中可以作為算法解釋請(qǐng)求權(quán)的基礎(chǔ)。

2.算法解釋請(qǐng)求權(quán)的內(nèi)在邏輯。由立法史考察,GDPR引入了新的規(guī)定來(lái)解決分析和自動(dòng)決策所帶來(lái)的風(fēng)險(xiǎn),是對(duì)其前身《1995年數(shù)據(jù)保護(hù)指令》(以下簡(jiǎn)稱《指令》)中隱私權(quán)保護(hù)的維系和加強(qiáng)。隱私權(quán)的基本內(nèi)容是作為自然人對(duì)屬于自己的私人生活范疇的事項(xiàng)依法自由支配,并排斥他人非法干涉。隱私權(quán)保護(hù)自然人對(duì)個(gè)人信息的支配,自然包含了處分和控制個(gè)人信息的權(quán)能。賦予數(shù)據(jù)主體算法解釋權(quán)的效果是,數(shù)據(jù)主體可主動(dòng)明晰個(gè)人信息具體是怎樣被處理、使用的,在一定意義上這是對(duì)數(shù)據(jù)主體的數(shù)據(jù)處分和控制權(quán)利的保護(hù),也是對(duì)隱私權(quán)的加強(qiáng)。我們也可以說(shuō),算法解釋權(quán)規(guī)范功能本來(lái)即是要解決算法自動(dòng)化決策帶來(lái)的隱私權(quán)問(wèn)題,或者說(shuō)由隱私權(quán)自然而然可以延伸出算法解釋請(qǐng)求權(quán)。

采用算法自動(dòng)化決策的機(jī)構(gòu)有義務(wù)解釋算法運(yùn)行原理以及算法具體決策結(jié)果,算法解釋請(qǐng)求權(quán)的立法目的肩負(fù)了保護(hù)數(shù)據(jù)主體的人格權(quán)的功能,然而數(shù)據(jù)財(cái)產(chǎn)權(quán)不需要算法解釋請(qǐng)求權(quán)?!?5〕至于人格權(quán)以外的財(cái)產(chǎn)權(quán)是否需要算法解釋權(quán)這一問(wèn)題,涉及學(xué)界對(duì)個(gè)人數(shù)據(jù)的屬性是人格權(quán)還是人格財(cái)產(chǎn)權(quán)的爭(zhēng)論。參見(jiàn)陳吉棟:《個(gè)人信息的侵權(quán)救濟(jì)》,《交大法學(xué)》2019年第4期。數(shù)據(jù)控制者在算法自動(dòng)化決策時(shí),其應(yīng)獲得數(shù)據(jù)的財(cái)產(chǎn)權(quán)利?!?6〕參見(jiàn)龍衛(wèi)球:《數(shù)據(jù)新型財(cái)產(chǎn)權(quán)構(gòu)建及其體系研究》,《政法論壇》2017年第4期;龍衛(wèi)球:《再論企業(yè)數(shù)據(jù)保護(hù)的財(cái)產(chǎn)權(quán)化路徑》,《東方法學(xué)》2018年第3期。然而,隱私權(quán)賦予數(shù)據(jù)主體控制、處分自己信息的權(quán)利。〔77〕參見(jiàn)王克金:《權(quán)利沖突研究中需要進(jìn)一步澄清的問(wèn)題》,《法制與社會(huì)發(fā)展》2010年第5期。此時(shí)就產(chǎn)生了數(shù)據(jù)控制者的財(cái)產(chǎn)權(quán)利與數(shù)據(jù)主體人格權(quán)利的沖突?!?8〕這里的權(quán)利沖突是廣義上的,對(duì)于權(quán)利沖突的界定,可參見(jiàn)彭誠(chéng)信、蘇昊:《論權(quán)利沖突的規(guī)范本質(zhì)及化解路徑》,《法制與社會(huì)發(fā)展》2019年第2期。在權(quán)利沖突觀點(diǎn)外,還有一種觀點(diǎn)值得注意,這一觀點(diǎn)堅(jiān)持理清個(gè)人數(shù)據(jù)與隱私的關(guān)系問(wèn)題。當(dāng)前學(xué)界對(duì)于“個(gè)人數(shù)據(jù)”與“隱私”關(guān)系問(wèn)題的論斷主要有二:一為“包含說(shuō)”,一為“交叉說(shuō)”?!鞍f(shuō)”主張將個(gè)人信息權(quán)納入隱私權(quán)之內(nèi),通過(guò)隱私權(quán)救濟(jì)的途徑來(lái)保護(hù)個(gè)人信息權(quán)?!敖徊嬲f(shuō)”認(rèn)為,個(gè)人隱私與個(gè)人信息呈交叉關(guān)系,有的個(gè)人隱私屬于個(gè)人信息,而有的個(gè)人隱私則不屬于個(gè)人信息;有的個(gè)人信息特別是涉及個(gè)人私生活的敏感信息屬于個(gè)人隱私,但也有一些個(gè)人信息因高度公開(kāi)而不屬于隱私。但區(qū)分的觀點(diǎn)則認(rèn)為,個(gè)人信息與隱私二者實(shí)為彼此獨(dú)立的兩個(gè)法律概念:“個(gè)人信息”必須被“電子或者其他方式記錄”,脫離了載體,個(gè)人信息便不存在;而隱私作為一種人類的自然情感,無(wú)須載體。且個(gè)人信息權(quán)是指?jìng)€(gè)人對(duì)于自身信息資料的一種控制權(quán),是一種主動(dòng)性的權(quán)利,除了被動(dòng)防御第三人的侵害之外,還可以對(duì)其進(jìn)行積極利用。但隱私權(quán)具有極高的私密性與人身依附性,又與私人生活空間的聯(lián)系過(guò)于緊密,因而除了對(duì)權(quán)利主體自身人格具有重要意義之外,一般情況下也無(wú)積極利用的必要,而只能在遭受侵害的情況下請(qǐng)求他人排除妨害、賠償損失等。財(cái)產(chǎn)權(quán)和隱私權(quán)本質(zhì)上都是受法律保障的利益,法律并沒(méi)有明確規(guī)定哪種權(quán)利優(yōu)先。如果從權(quán)利沖突的視角觀察,一般認(rèn)為,由于法律價(jià)值的位階具有一定的流動(dòng)性,需要在個(gè)案中結(jié)合具體的條件和事實(shí)確定?!?9〕參見(jiàn)林來(lái)梵:《論權(quán)利沖突中的權(quán)利位階——規(guī)范法學(xué)視角下的透析》,《浙江大學(xué)學(xué)報(bào)》2003年第6期。權(quán)利沖突的本質(zhì)是法律所確定的價(jià)值“正當(dāng)性”之間的沖突。權(quán)利沖突最常見(jiàn)的法律后果是一項(xiàng)權(quán)利超越與之對(duì)立的另一項(xiàng)權(quán)利,并由勝出的一方權(quán)利人實(shí)際行使權(quán)利。對(duì)于沖突雙方均主張行使權(quán)利的情形,權(quán)利人之間互不相讓,出現(xiàn)對(duì)峙“僵局”,唯有權(quán)利的超越方能使主體間的僵持關(guān)系得以破解,并有序運(yùn)行。〔80〕同前注〔78〕,彭誠(chéng)信、蘇昊文?;氐剿惴ń忉尩谋尘跋?,屬于人格權(quán)的個(gè)人隱私顯然要比屬于財(cái)產(chǎn)權(quán)的數(shù)據(jù)權(quán)利價(jià)值位階高,但應(yīng)進(jìn)行更為細(xì)致的分析。一種常見(jiàn)的分類把個(gè)人信息分為個(gè)人敏感隱私信息(高敏感信息)和一般個(gè)人信息?!?1〕參見(jiàn)張新寶:《從隱私到個(gè)人信息:利益再衡量的理論與制度安排》,《中國(guó)法學(xué)》2015年第3期。個(gè)人敏感隱私信息密切關(guān)聯(lián)人的隱私權(quán),涉及人格尊嚴(yán),是人的最基本的權(quán)利,當(dāng)它與數(shù)據(jù)控制者的數(shù)據(jù)財(cái)產(chǎn)權(quán)發(fā)生沖突時(shí),理應(yīng)保護(hù)人格尊嚴(yán),數(shù)據(jù)財(cái)產(chǎn)權(quán)利讓位于人格權(quán)。一般個(gè)人信息雖也屬于隱私權(quán),但和人格尊嚴(yán)聯(lián)系較小,即使泄露,一般對(duì)人的影響并不如敏感隱私信息那么大,當(dāng)其與數(shù)據(jù)財(cái)產(chǎn)權(quán)利沖突時(shí),為了社會(huì)公共利益和數(shù)據(jù)控制者的利益,此時(shí)的個(gè)人信息權(quán)利應(yīng)當(dāng)讓位于數(shù)據(jù)財(cái)產(chǎn)權(quán)利。基于此,“在個(gè)人敏感隱私信息與個(gè)人一般信息區(qū)分的基礎(chǔ)之上,通過(guò)強(qiáng)化個(gè)人敏感隱私信息的保護(hù)和強(qiáng)化個(gè)人一般信息的利用,調(diào)和個(gè)人信息保護(hù)與利用的需求沖突,實(shí)現(xiàn)利益平衡?!薄?2〕同前注〔81〕,張新寶文。

四、結(jié)語(yǔ)

算法的自主迭代以及立法的科學(xué)性和專業(yè)性在根本上決定了算法規(guī)制滯后于科技的發(fā)展?!?3〕參見(jiàn)蘇力:《法律與科技問(wèn)題的法理學(xué)重構(gòu)》,《中國(guó)社會(huì)科學(xué)》1999年第5期;楊麗娟:《科技法歷史形態(tài)演化的哲學(xué)反思》,東北大學(xué)2005年博士學(xué)位論文。對(duì)于算法的規(guī)制應(yīng)在網(wǎng)絡(luò)法的整體架構(gòu)中進(jìn)行討論方具有意義。從根本上解決算法規(guī)制問(wèn)題,發(fā)揮法律價(jià)值對(duì)技術(shù)發(fā)展的引領(lǐng)作用,〔84〕參見(jiàn)鄭智航:《網(wǎng)絡(luò)社會(huì)法律治理與技術(shù)治理的二元共治》,《中國(guó)法學(xué)》2018年第2期。需要強(qiáng)調(diào)并型塑網(wǎng)絡(luò)空間的公共屬性,在算法內(nèi)在設(shè)計(jì)中加入共同善的考量,這構(gòu)成了算法規(guī)制的內(nèi)在路徑。另外,在共同善的要求下,賦予數(shù)據(jù)生產(chǎn)者請(qǐng)求解釋算法的權(quán)利,這構(gòu)成了算法規(guī)制的外部路徑。如此方能呼應(yīng)人工智能時(shí)代網(wǎng)絡(luò)法體系發(fā)展要求,建構(gòu)具有哲學(xué)根基,且事前事后配合、內(nèi)外路徑協(xié)調(diào)又富于彈性的規(guī)制體系。當(dāng)然,在算法規(guī)制的具體技術(shù)和措施上也可考慮一些具有操作性的事先規(guī)制方法,比如針對(duì)特定行業(yè)平臺(tái)或重要算法進(jìn)行充分披露或選擇性備案等?!?5〕參見(jiàn)李文莉、楊玥捷:《智能投顧的信義義務(wù)》,載岳彩申、侯東德主編:《人工智能法學(xué)研究》,社會(huì)科學(xué)文獻(xiàn)出版社2018年版,第113頁(yè)。雖然文章探討了共同善作為算法規(guī)制的哲學(xué)根基及其實(shí)踐路徑,但正如薛瀾先生指出的,我們還必須清醒地認(rèn)識(shí)到僅僅依靠法律框架難以支撐人工智能的發(fā)展,“這就需要相關(guān)的原則準(zhǔn)則、行業(yè)規(guī)范,包括從業(yè)者的自律,來(lái)協(xié)同推進(jìn)其健康發(fā)展。”〔86〕《我國(guó)發(fā)布〈治理原則〉發(fā)展負(fù)責(zé)任的人工智能》,https://baijiahao.baidu.com/s?id=1636636654850892827&wfr=spider&for=pc,2019年10月21日訪問(wèn)。或許,在根本上,無(wú)論是算法的規(guī)制還是對(duì)人工智能的整體調(diào)整,我們需要建構(gòu)一種信任關(guān)系,為上述制度作用的發(fā)揮提供妥適的語(yǔ)境。

猜你喜歡
黑箱規(guī)制權(quán)利
拒絕黑箱
主動(dòng)退市規(guī)制的德國(guó)經(jīng)驗(yàn)與啟示
我們的權(quán)利
失蹤的黑箱
論我國(guó)民間借貸法律規(guī)制的發(fā)展和完善——從抑制性規(guī)制到激勵(lì)性規(guī)制
股東權(quán)利知多少(一)
保護(hù)與規(guī)制:關(guān)于文學(xué)的刑法
權(quán)利套裝
內(nèi)容規(guī)制
愛(ài)一個(gè)人
分宜县| 乌鲁木齐市| 新邵县| 长顺县| 合水县| 周至县| 濮阳县| 阿克陶县| 通城县| 宽甸| 瑞安市| 凤冈县| 陇南市| 黄大仙区| 湘西| 长武县| 玛曲县| 眉山市| 唐河县| 大连市| 黔南| 大渡口区| 广州市| 池州市| 北宁市| 鹤山市| 寿阳县| 滕州市| 察雅县| 勃利县| 綦江县| 诸暨市| 泸定县| 闵行区| 沐川县| 广平县| 樟树市| 洛扎县| 保靖县| 驻马店市| 义乌市|