孟天廣,李珍珍
以大數(shù)據(jù)、人工智能等為代表的新興信息通信技術(shù)推動全社會快速地數(shù)字化和智能化,人類社會正走向智能時代。近年來,隨著人工智能發(fā)展進入快車道,智能化應(yīng)用浪潮席卷而來,以數(shù)據(jù)為原料、以算法為引擎、以算力為支撐的智能社會快速來臨。算法作為人工智能技術(shù)的核心,在提升社會經(jīng)濟運轉(zhuǎn)效率和國家治理效能的同時,也重構(gòu)著市場秩序與治理體系,深刻地影響著國家與社會、技術(shù)與社群之關(guān)系的演變。
伴隨著智能社會的到來,人們逐漸注意到算法技術(shù)的負外部性,如算法致癮性推薦與認知窄化、大數(shù)據(jù)“殺熟”與歧視性定價、機器自動化決策與社會圈層化加劇等智能時代的新型社會風(fēng)險。算法的濫用不僅危害著用戶的合法權(quán)益,還可能使社會為之付出高昂的成本。算法的兩面性意味著智能時代的算法治理不僅涉及使用算法進行治理,更要包括對算法進行治理,使其能夠合乎倫理地釋放巨大價值。
現(xiàn)階段,算法風(fēng)險治理已經(jīng)成為國際趨勢。一方面,多國政府對人工智能和算法監(jiān)管走向?qū)嶋H的立法和執(zhí)法,譬如歐盟、中國均將算法監(jiān)管作為人工智能監(jiān)管的關(guān)鍵維度;另一方面,全球范圍內(nèi)的科技社群和科技企業(yè)也越來越關(guān)注算法的倫理問題,開始制訂多元化人工智能與算法應(yīng)用的倫理指南。從作為法律法規(guī)的“硬法”和作為倫理準(zhǔn)則的“軟法”兩方面來看,算法治理的既有框架大多包含自主決定、公平公正、安全可靠、透明公開、責(zé)任擔(dān)當(dāng)、隱私保護等倫理要素。這一趨勢也體現(xiàn)在學(xué)術(shù)研究中,近年來學(xué)術(shù)界從技術(shù)、應(yīng)用、過程、結(jié)果等多個視角分析了智能時代算法驅(qū)動所帶來的新生社會風(fēng)險及其產(chǎn)生的倫理問題。
本文基于既有研究對算法風(fēng)險的認知框架,從算法治理的價值和路徑兩個維度,初步構(gòu)建一個基于“權(quán)力—權(quán)利”和“技術(shù)—社群”的算法治理理論框架。算法治理的價值維度在于確立算法權(quán)力與用戶權(quán)利之間的平衡,算法治理的路徑則主要涉及技術(shù)機制與社群機制?;谶@一理論框架,本文基于算法治理的自主、安全、公平、透明四個關(guān)鍵倫理原則,闡述了這些原則的內(nèi)涵及其治理邏輯。這能為正處于探索階段的人工智能算法的監(jiān)管實踐和制度設(shè)計提供一個理論思路,有助于在算法技術(shù)的效率優(yōu)勢和倫理價值之間尋求平衡。同時,本文也試圖為算法風(fēng)險及其倫理的理論推進,尤其是從“技術(shù)—社群”兩個系統(tǒng)互動的關(guān)系視角提供一個理解算法風(fēng)險及其治理邏輯的類型學(xué)框架。
在計算機科學(xué)意義下,算法通常指“為了解決一個特定問題或者達成一個明確目的所采取的一系列步驟”①DIAKOPOULOS N.Algorithmic accountability:journalistic investigation of computational power structures[J].Digital journalism,2015(3):398-415.,其目的是達成給定情況下的最佳行動或者對給定數(shù)據(jù)作出最佳理解。譬如,數(shù)據(jù)挖掘就是使用算法來理解數(shù)據(jù)的一門學(xué)科,即“利用數(shù)據(jù)發(fā)現(xiàn)新的模式和知識,并生成可以用來對數(shù)據(jù)進行有效預(yù)測的模型”②VAN OTTERLO M.A machine learning view on profiling[M]//HILDEBRANDT M,DE VRIES K.Privacy,due process and the computational turn:the philosophers of law meet philosophers of technology.Abingdon:Routledge,2013:41-64.,而算法設(shè)計是數(shù)據(jù)挖掘的關(guān)鍵環(huán)節(jié)。
在智能時代,算法作為人工智能技術(shù)的核心,已經(jīng)不可逆轉(zhuǎn)地滲透到日常生活乃至國家治理領(lǐng)域,全方位重塑著社會經(jīng)濟運行。然而,由濫用人工智能算法而產(chǎn)生的社會風(fēng)險與倫理事件也不斷沖擊著人們的神經(jīng),引發(fā)社會熱議。譬如,新聞個性化推薦中低俗、同質(zhì)化內(nèi)容增多,搜索引擎競價排名,購物平臺利用大數(shù)據(jù)“殺熟”,外賣系統(tǒng)算法變成監(jiān)工試探配送時間底線,等等。這些現(xiàn)象不斷將算法及其掌控者推向風(fēng)口浪尖,引發(fā)社會的廣泛關(guān)注。簡言之,算法在全面賦能人類社會發(fā)展,為人類生產(chǎn)生活帶來效率和便捷的同時,也引發(fā)或激化了技術(shù)與社會系統(tǒng)之間分歧和沖撞。人們擔(dān)心算法會導(dǎo)致用戶過度沉迷而喪失自主性、社會公平性缺乏,乃至隱私安全等危及人類社會的嚴重后果。
人工智能算法風(fēng)險已經(jīng)成為哲學(xué)、政治學(xué)、法學(xué)、智能科學(xué)的熱點議題。學(xué)界從人工智能算法的技術(shù)邏輯和權(quán)力屬性角度,討論了其應(yīng)用于商業(yè)領(lǐng)域及嵌入國家治理與公權(quán)力使用之中的風(fēng)險,并提出諸如“信息繭房”、算法“黑箱”“算法利維坦”等新概念,試圖闡述算法的嵌入對社會經(jīng)濟運行產(chǎn)生的深遠影響。
首先,從個體角度看,人們?nèi)粘J褂玫男侣劮?wù)和信息分發(fā)智能化算法伴隨著造成“信息繭房”的認知窄化風(fēng)險。當(dāng)前,數(shù)據(jù)爆炸與個人信息系統(tǒng)容納量不足,很容易導(dǎo)致個人信息超載,因而愈發(fā)需要基于習(xí)慣和偏好的差異化信息消費③喻國明,曲慧.“信息繭房”的誤讀與算法推送的必要——兼論內(nèi)容分發(fā)中社會倫理困境的解決之道[J].新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2020(1):127-133.。在此背景下,基于智能推薦算法的個性化信息服務(wù)開始興起。智能推薦系統(tǒng)運用協(xié)同過濾推薦、內(nèi)容推薦、關(guān)聯(lián)規(guī)則推薦等技術(shù),幫助用戶降低信息噪音、提高信息消費效率④喻國明,韓婷.算法型信息分發(fā):技術(shù)原理、機制創(chuàng)新與未來發(fā)展[J].新聞愛好者,2018(4):8-13.。然而,智能推薦算法也有可能導(dǎo)致“信息繭房”,即用戶只聽他們選擇的、令他們愉悅的內(nèi)容⑤桑斯坦.信息烏托邦——眾人如何生產(chǎn)知識[M].畢競悅,譯.北京:法律出版社,2008:8.。智能推薦算法對信息的過濾,可能阻礙異質(zhì)性信息消費與多元化觀點交流,導(dǎo)致用戶處于算法打造的“無菌環(huán)境”或者一個性化的“過濾氣泡”中。不論是“信息繭房”還是“過濾氣泡”,都直指算法時代個性化信息服務(wù)下的“信息偏食”,造成用戶信息視野狹窄并對其觀念與行為產(chǎn)生影響①彭蘭.導(dǎo)致信息繭房的多重因素及“破繭”路徑[J].新聞界,2020(1):30-38,73.。雖然目前學(xué)界對“信息繭房”作為一種現(xiàn)象的證實與證偽、現(xiàn)實中是否存在理論上的形成機制等問題還有不同觀點,但相關(guān)探討無疑反映出人們對由算法充當(dāng)“把關(guān)人”的信息傳播風(fēng)險的一種擔(dān)心。
其次,從市場角度看,基于大數(shù)據(jù)的人工智能算法因遵循商業(yè)邏輯而醞釀著“監(jiān)控資本主義”的風(fēng)險。人類社會的信息化伴隨著個人的屬性、關(guān)系、地點、行為、情緒、偏好等信息被全方位地以數(shù)字化的方式表示、記錄、存儲。海量個人信息匯總而成的大數(shù)據(jù)有其經(jīng)濟屬性,而大數(shù)據(jù)分析算法則是挖掘大數(shù)據(jù)商業(yè)價值所必不可少的工具。“監(jiān)控資本主義”是數(shù)據(jù)經(jīng)濟環(huán)境下的新興資本主義經(jīng)濟秩序,形成于大數(shù)據(jù)、算法能力與資本力量的聯(lián)合,其核心是以攫取利潤為目的的科技企業(yè)對個人數(shù)據(jù)的商業(yè)化利用②武青,周程.資本主義條件下大數(shù)據(jù)技術(shù)的政治經(jīng)濟學(xué)批判——《監(jiān)控資本主義的時代》述評[J].科學(xué)與社會,2020(1):113-124.。大數(shù)據(jù)企業(yè)通過對互聯(lián)網(wǎng)上個人數(shù)字痕跡的大規(guī)模監(jiān)控以獲取數(shù)據(jù),將算法作為生產(chǎn)工具實現(xiàn)了數(shù)據(jù)從原材料到價值的轉(zhuǎn)化。這些企業(yè)大規(guī)模收集用戶點擊、瀏覽、逗留時長的數(shù)字痕跡,利用大數(shù)據(jù)分析技術(shù)對用戶信息進行統(tǒng)計分析并建立預(yù)測模型,通過數(shù)據(jù)持續(xù)積累和模型不斷優(yōu)化越來越準(zhǔn)確地判斷用戶心理和喜好,做出諸如精準(zhǔn)的價格歧視、勞工剝削、定向營銷等行為,最終實現(xiàn)企業(yè)利潤最大化。“監(jiān)控資本主義”的典型例子是商業(yè)平臺濫用用戶數(shù)據(jù)進行“殺熟”。在這種經(jīng)濟秩序下,用戶在大數(shù)據(jù)企業(yè)面前迅速透明化,退化為免費的數(shù)據(jù)來源與被反復(fù)實驗的對象③ZUBOFF S.Big other:surveillance capitalism and the prospects of an information civilization[J].Journal of information technology,2015(1):75-89.。
最后,從國家與公權(quán)力角度看,人工智能算法的技術(shù)力量日益嵌入國家權(quán)力運行與國家治理過程,不僅孕育著“技術(shù)賦權(quán)”的巨大機會④孟天廣.政府?dāng)?shù)字化轉(zhuǎn)型的要素、機制與路徑——兼論“技術(shù)賦能”與“技術(shù)賦權(quán)”的雙向驅(qū)動[J].治理研究,2021(1):5-14.,也隱藏著被特定利益集團用于社會控制和政治權(quán)力再生產(chǎn)的政治風(fēng)險⑤王小芳,王磊.“技術(shù)利維坦”:人工智能嵌入社會治理的潛在風(fēng)險與政府應(yīng)對[J].電子政務(wù),2019(5):86-93.。利維坦是《圣經(jīng)·舊約》中記載的海怪,一種神話生物,英國哲學(xué)家霍布斯用之比喻凌駕于所有人之上的強勢的國家。面對國家治理算法化態(tài)勢,有學(xué)者用“算法利維坦”比喻智能時代的一種強制性治理方式與算法接管治理的潛在風(fēng)險。人們在通過算法治理獲得便利的同時,也被置于算法程序的監(jiān)控體系之下,而國家則通過算法技術(shù)來施加秩序、延伸權(quán)力、貫穿意志⑥張愛軍.“算法利維坦”的風(fēng)險及其規(guī)制[J].探索與爭鳴,2021(1):95-102,179.。這種能力需要配合數(shù)據(jù)才能達到,國家借助公權(quán)力和資源優(yōu)勢收集個人信息,通過數(shù)據(jù)系統(tǒng)對社會展開全景化的了解、執(zhí)法與審查⑦帕斯奎爾.黑箱社會:控制金錢和信息的數(shù)據(jù)法則[M].趙亞男,譯.北京:中信出版社,2015:61-69.。不少文獻討論過類似觀點,即數(shù)字技術(shù)導(dǎo)致國家控制強化,一些相似的表述包括“技術(shù)利維坦”“數(shù)字利維坦”等。盡管數(shù)字技術(shù)賦能國家治理會顯著提升國家采集和處理信息的能力⑧孟天廣,張小勁.大數(shù)據(jù)驅(qū)動與政府治理能力提升——理論框架與模式創(chuàng)新[J].北京航空航天大學(xué)學(xué)報(社會科學(xué)版),2018(1):18-25.,但其風(fēng)險在于,“國家依靠信息技術(shù)的全面裝備,將公民置于徹底而富有成效的監(jiān)控體系之下,而公民卻難以有效地運用信息技術(shù)來維護其公民權(quán)利”⑨肖濱.信息技術(shù)在國家治理中的雙面性與非均衡性[J].學(xué)術(shù)研究,2009(11):31-36.。
簡言之,算法盡管極大地提升了生活便利化程度、生產(chǎn)經(jīng)營效率和治理精準(zhǔn)性,但是對經(jīng)濟社會運行和國家治理的邏輯產(chǎn)生深遠影響。面對算法給人類帶來的新型社會風(fēng)險,圍繞著算法風(fēng)險治理正在形成多元視角的理論討論。從新興產(chǎn)業(yè)監(jiān)管視角看,薛瀾和趙靜認為,包括智能算法技術(shù)創(chuàng)新在內(nèi)的新興產(chǎn)業(yè)具有高度不確定性,傳統(tǒng)監(jiān)管模式不適用于其產(chǎn)業(yè)風(fēng)險管理。新興產(chǎn)業(yè)的監(jiān)管在目標(biāo)、內(nèi)容、節(jié)奏、力度、思維以及規(guī)則上都有別于傳統(tǒng)產(chǎn)業(yè),應(yīng)該建立以敏捷為核心的治理框架:在治理原則上,以抽象的法律原則配合靈活的政策工具;在治理關(guān)系上,在監(jiān)管者與被監(jiān)管者之間建立互動、相互依賴的關(guān)系;在治理工具上,選擇“下手快、力度輕”的治理措施①薛瀾,趙靜.走向敏捷治理:新興產(chǎn)業(yè)發(fā)展與監(jiān)管模式探究[J].中國行政管理,2019(8):28-34.。從算法生命周期視角看,從模型的開發(fā)、部署到使用,要將標(biāo)準(zhǔn)、測試和控制嵌入模型的生命周期的各個階段,在不同階段采取針對性措施來限制特定風(fēng)險。比如,在建立模型階段,可以采取模型穩(wěn)健性檢驗、數(shù)據(jù)泄露控制、標(biāo)簽質(zhì)量評估等風(fēng)險控制方法②BAQUERO J A,BURKHARDT R,GOVINDARAJAN A,et al.Derisking AI by design:how to build risk management into AI development[EB/OL].(2020-08-13)[2021-12-29].https://www.mckinsey.com/business-functions/mckinsey-analytics/our-insights/deriskingai-by-design-how-to-build-risk-management-into-ai-development.。
本文從算法風(fēng)險及其治理的視角出發(fā),認為“信息繭房”“監(jiān)控資本主義”“算法利維坦”等不同層面的算法風(fēng)險,充分反映著算法“黑箱”、不確定性和安全、歧視與支配的廣泛存在,進而對人類社會的自主、平等、知情、安全等核心價值造成威脅。因此,我們迫切需要確立算法倫理以規(guī)范算法使用與監(jiān)管,使人類社會有能力防范與化解算法風(fēng)險的潛在危害。
算法風(fēng)險、算法倫理與算法治理之間存在內(nèi)生性關(guān)系,這源于人工智能算法風(fēng)險產(chǎn)于算法應(yīng)用沒有受到倫理約束,因此需要算法倫理來確立與重申算法風(fēng)險的治理原則。算法倫理是對算法活動施加的倫理道德要求。隨著人工智能監(jiān)管制度化進程的加快,軟性倫理規(guī)范也有可能演化為剛性法律規(guī)制。無論是討論算法的倫理約束,還是經(jīng)由立法以規(guī)制算法,首先要確立算法倫理。算法倫理涉及算法本體(自身)、算法與人類的關(guān)系、算法與環(huán)境之關(guān)系三個層次,其實質(zhì)是闡明智能時代人、機、物之間的交互關(guān)系,識別三者之間互動關(guān)系中存在的社會風(fēng)險,進而構(gòu)建相應(yīng)的治理原則。
2016年以來,隨著人工智能算法開發(fā)及應(yīng)用逐步進入快車道,算法倫理相關(guān)討論顯著增加,各國政府、非政府組織和科技企業(yè)紛紛開始關(guān)注“合乎倫理的”的人工智能和算法,旨在發(fā)揮算法的技術(shù)潛力的同時,降低算法產(chǎn)生的風(fēng)險③TSAMADOS A,AGGARWAL N,COWLS J,et al.The ethics of algorithms:key problems and solutions[J/OL].AI&society,2021:1-16[2021-11-10].https://doi.org/10.1007/s00146-021-01154-8.。然而,算法倫理還不是一個成熟的研究領(lǐng)域,所涉?zhèn)惱碇黝}不明確、界限不清晰。綜合來看,已有文獻從技術(shù)、原則、應(yīng)用、過程、結(jié)果等角度討論人工智能算法的風(fēng)險、倫理與治理。比如,賈開根據(jù)人工智能算法的技術(shù)邏輯和應(yīng)用方式的特性,認為深度學(xué)習(xí)等算法本身的復(fù)雜性導(dǎo)致算法“黑箱”以及難以監(jiān)督與問責(zé),基于歷史數(shù)據(jù)的訓(xùn)練與學(xué)習(xí)會導(dǎo)致固化、偏差與歧視,而且算法在各類應(yīng)用場景下替代人類行為難以避免引發(fā)事故歸責(zé)、知識產(chǎn)品版權(quán)等方面的爭議。他認為,算法治理的公共政策框架應(yīng)該包括提高公眾的人工智能認知、推動算法倫理的專家對話,以及有優(yōu)先級地制定相關(guān)政策④賈開.人工智能與算法治理研究[J].中國行政管理,2019(1):17-22.。劉培和池忠軍認為,算法作為技術(shù)手段,其排序、分類、關(guān)聯(lián)、過濾的標(biāo)準(zhǔn)負載著設(shè)計者的知識背景、社會文化與價值判斷,因而內(nèi)在地關(guān)涉?zhèn)惱韱栴};而且,算法因其技術(shù)的復(fù)雜性與后果的不確定性而天然地具備不透明性與失敗的可能;面對算法歧視等倫理問題,認為應(yīng)該從算法設(shè)計本身及外部約束來解決⑤劉培,池忠軍.算法的倫理問題及其解決進路[J].東北大學(xué)學(xué)報(社會科學(xué)版),2019(2):118-125.。丁曉東從算法引起的法律后果出發(fā),認為算法崛起會挑戰(zhàn)知情權(quán)與自主性、隱私與自由、平等保護的基本原則,應(yīng)該基于算法應(yīng)用的具體場景構(gòu)建算法公開、數(shù)據(jù)賦權(quán)、反歧視的制度①丁曉東.論算法的法律規(guī)制[J].中國社會科學(xué),2020(12):138-159,203.。
米特爾施泰特等人從人工智能算法過程的角度,提出了算法倫理爭論的六重維度②MITTELSTADT B D,ALLO P,TADDEO M,et al.The ethics of algorithms:mapping the debate[J].Big data &society,2016(2):2053951716679679.。他們根據(jù)算法如何將數(shù)據(jù)轉(zhuǎn)化為結(jié)果以及算法所觸發(fā)的行動,提出算法倫理的六個方面。一是非決定性證據(jù),指通過推斷統(tǒng)計和機器學(xué)習(xí)技術(shù)從數(shù)據(jù)中獲取的結(jié)論,不可避免地具有不確定性。非決定性證據(jù)只能指示相關(guān)關(guān)系,不能揭示因果關(guān)系。非決定性證據(jù)可能導(dǎo)致不公正的行動。二是難以理解的證據(jù),指不了解機器學(xué)習(xí)算法如何從數(shù)據(jù)中生成結(jié)論。難以理解的證據(jù)可能會導(dǎo)致不透明。三是誤導(dǎo)性證據(jù),此則倫理強調(diào)“垃圾進、垃圾出”。輸出永遠不會超越輸入,只有輸入的數(shù)據(jù)是可靠的,算法產(chǎn)生的結(jié)果才有可能是可靠的。誤導(dǎo)性證據(jù)會導(dǎo)致偏見。四是不公平的結(jié)果,指算法驅(qū)動的行動可能是不公平的,會產(chǎn)生歧視性后果。五是轉(zhuǎn)換效應(yīng),指算法決策是充滿價值判斷的,影響著我們?nèi)绾卫斫馀c概念化這個世界,并基于算法生成的洞見驅(qū)動行動。轉(zhuǎn)換效應(yīng)給自主性和信息隱私帶來挑戰(zhàn)。六是可追溯性,指算法活動造成的損害可以調(diào)試,也能夠確定誰應(yīng)對損害負責(zé)??勺匪菪钥梢悦鞔_道德責(zé)任。在這六個方面中,前三者屬于證據(jù)質(zhì)量不良引發(fā)的倫理問題,發(fā)生于算法將數(shù)據(jù)轉(zhuǎn)化為決策(結(jié)果)的過程;不公正的結(jié)果和轉(zhuǎn)換效應(yīng)則屬于算法決策(結(jié)果)的社會后果,源于算法驅(qū)動的行動未能體現(xiàn)倫理中立;而可追溯性關(guān)切算法驅(qū)動的行動可能導(dǎo)致的失敗風(fēng)險及責(zé)任分配問題。
在實踐中,全球范圍內(nèi)國家和各類組織也開始出臺自己的算法倫理準(zhǔn)則或指南(表1)。
表1 算法倫理規(guī)范的跨國比較
當(dāng)前,較有影響力的算法倫理原則主要來自于歐美國家,提出者涵蓋政府、專業(yè)社群、科技企業(yè)等各類主體③賈開.人工智能與算法治理研究[J].中國行政管理,2019(1):17-22.。譬如,2017年1月,美國計算機協(xié)會公共政策委員會專門發(fā)布了《關(guān)于算法透明度和問責(zé)制的聲明》,倡議在算法開發(fā)和部署中落實知情、訪問與救濟機制、可問責(zé)、解釋等七個原則④Association for Computing Machinery US Public Policy Council.Statement on Algorithmic Transparency and Accountability[EB/OL].(2017-01-12)[2021-12-29].https://www.acm.org/binaries/content/assets/public-policy/2017_usacm_statement_algorithms.pdf.。2019年4月,歐盟人工智能高級專家組發(fā)布《可信賴人工智能倫理指南》,根據(jù)該指南,可信賴的人工智能應(yīng)該是合法的、道德的和穩(wěn)健的,并滿足人類能動性和監(jiān)督、技術(shù)穩(wěn)健性和安全性、隱私和數(shù)據(jù)治理等七項關(guān)鍵要求⑤European Commission.Ethics guidelines for trustworthy AI[EB/OL].(2019-04-08)[2021-12-29].https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai.。
我國也高度重視算法倫理。作為人工智能發(fā)展大國,我國于2019年6月發(fā)布《我國新一代人工智能治理原則——發(fā)展負責(zé)任的人工智能》,強調(diào)人工智能發(fā)展相關(guān)各方應(yīng)遵循和諧友好、公平公正、包容共享、尊重隱私、安全可控、共擔(dān)責(zé)任、開放協(xié)作、敏捷治理八項原則①科技部.發(fā)展負責(zé)任的人工智能:新一代人工智能治理原則發(fā)布[EB/OL].(2019-06-17)[2021-12-29].http://www.most.gov.cn/kjbgz/201906/t20190617_147107.html.。2021年1月,全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會發(fā)布的《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實踐指南——人工智能倫理安全風(fēng)險防范指引》,是我國首個國家層面的一般性、基礎(chǔ)性的人工智能倫理和安全風(fēng)險的指引文件②賈開,薛瀾.人工智能倫理問題與安全風(fēng)險治理的全球比較與中國實踐[J].公共管理評論,2021(1):122-134.。文件指出人工智能存在失控性風(fēng)險、社會性風(fēng)險、侵權(quán)性風(fēng)險、歧視性風(fēng)險以及責(zé)任性風(fēng)險,并將人工智能研究開發(fā)、設(shè)計制造、部署應(yīng)用、用戶使用都納入安全風(fēng)險防范的范疇③全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會秘書處.網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實踐指南——人工智能倫理安全風(fēng)險防范指引[EB/OL].(2021-01-05)[2021-12-29].https://www.tc260.org.cn/upload/2021-01-05/1609818449720076535.pdf.。
本文從算法治理的價值與路徑兩個維度重新闡述了算法倫理的核心關(guān)切(表2)。一方面,算法風(fēng)險的治理價值是約束算法權(quán)力以及保障用戶的權(quán)利,即實現(xiàn)“權(quán)力—權(quán)利”關(guān)系的平衡;另一方面,在算法風(fēng)險的治理路徑上,每一個倫理原則都可以通過技術(shù)機制和社群機制來實現(xiàn),即“技術(shù)—社群”雙重約束的治理路徑。由此,算法治理的價值約束和路徑選擇共同構(gòu)成了表2 所呈現(xiàn)的算法倫理的四種類型學(xué),即算法可控、算法透明、算法安全和算法公平。
表2 算法倫理的二維分析框架
首先,算法治理的價值是限制算法權(quán)力以及保障用戶權(quán)利,即實現(xiàn)“權(quán)力—權(quán)利”平衡。上文已經(jīng)討論過人工智能算法風(fēng)險的多種形態(tài),不論是“監(jiān)控資本主義”“信息繭房”還是“算法利維坦”,算法應(yīng)用引發(fā)的各類風(fēng)險都指向算法背后的權(quán)力邏輯。換句話說,算法接管了人類的決策,開始實質(zhì)性地融入和重塑社會、經(jīng)濟、政府治理系統(tǒng),掌握算法的人或機構(gòu)施展著廣泛的影響力和基于技術(shù)的控制力。甚至有學(xué)者斷言:“掌握了數(shù)據(jù),就意味著掌握了資本和財富;掌握了算法(Algorithm),就意味著掌握了話語權(quán)和規(guī)制權(quán)。”④馬長山.智慧社會的治理難題及其消解[J].求是學(xué)刊,2019(5):91-98.事實上,當(dāng)算法從數(shù)學(xué)和計算科學(xué),向政治學(xué)、社會學(xué)、法學(xué)等社會科學(xué)領(lǐng)域擴散時,社會科學(xué)家就開始思考算法與權(quán)力的關(guān)系⑤BEER D.The social power of algorithms[J].Information,communication&society,2017(1):1-13.。權(quán)力是實施支配與控制的關(guān)鍵力量,而算法的規(guī)則屬性⑥賈開.人工智能與算法治理研究[J].中國行政管理,2019(1):17-22.使其實質(zhì)上具備支配與控制的能力。代碼是算法的載體,萊斯格就鮮明地提出代碼的權(quán)力屬性:代碼作為網(wǎng)絡(luò)空間的法律,它與立法機構(gòu)頒布的法律有類似的規(guī)制作用,是網(wǎng)絡(luò)空間的向?qū)Ш蛷娪辛Φ囊?guī)制者。代碼作為網(wǎng)絡(luò)空間中的預(yù)設(shè)環(huán)境,反映了代碼制定者的選擇和價值理念,對網(wǎng)絡(luò)空間中的人擁有某種程度的強制力⑦萊斯格.代碼2.0:網(wǎng)絡(luò)空間中的法律[M].李旭,沈偉偉,譯.修訂版.北京:清華大學(xué)出版社,2018:132-150.。
文化研究專家拉什指出,社會中權(quán)力越來越多地存在于算法之中⑧LASH S.Power after hegemony:cultural studies in mutation?[J].Theory,culture&society,2007(3):55-78.。算法權(quán)力就是以算法為工具實施的影響力或控制力,看似理性中立的技術(shù)性的行為,實質(zhì)上是規(guī)則的施加⑨趙一丁,陳亮.算法權(quán)力異化及法律規(guī)制[J].云南社會科學(xué),2021(5):123-132.⑩陳鵬.算法的權(quán)力和權(quán)力的算法[J].探索,2019(4):182-192.。類似的,帕斯奎爾①帕斯奎爾.黑箱社會:控制金錢和信息的數(shù)據(jù)法則[M].趙亞男,譯.北京:中信出版社,2015:13.和迪亞科普洛斯②DIAKOPOULOS N.Algorithmic accountability reporting:on the investigation of black boxes[R].New York:Columbia Journalism School,Tow Center for Digital Journalism,2013.指出,社會生活中的關(guān)鍵決策越來越多地依靠數(shù)據(jù)驅(qū)動的算法來裁定,算法的決策地位是其具備潛在權(quán)力的基礎(chǔ)。這樣的視角開啟了一系列關(guān)于算法在權(quán)力的部署和表達中作用的討論③BEER D.The social power of algorithms[J].Information,communication&society,2017(1):1-13.。比如,張凌寒認為,算法在海量數(shù)據(jù)運算的基礎(chǔ)上發(fā)展成為一支新興力量,它調(diào)配著社會資源,規(guī)范著人的行為,甚至輔助或替代公權(quán)力進行決策,從而形成事實上的技術(shù)權(quán)力④張凌寒.算法權(quán)力的興起、異化及法律規(guī)制[J].法商研究,2019(4):63-75.??梢哉f,算法是構(gòu)建和實現(xiàn)權(quán)力的新途徑,掌握算法的人或機構(gòu)在這個意義上擁有更高的權(quán)力和地位⑤宋鍇業(yè).“算法”與國家治理創(chuàng)新——數(shù)據(jù)、算法與權(quán)力的知識生產(chǎn)與邏輯呈現(xiàn)[J/OL].科學(xué)學(xué)研究.[2021-04-08].https://doi.org/10.16192/j.cnki.1003-2053.20210407.001.,可以通過調(diào)整算法參數(shù)來執(zhí)行自身意志⑥喻國明,楊瑩瑩,閆巧妹.算法即權(quán)力:算法范式在新聞傳播中的權(quán)力革命[J].編輯之友,2018(5):5-12.。相比之下,用戶權(quán)利在日益強大的算法權(quán)力面前岌岌可危,算法下的個體甚至可能淪為智能時代的“囚徒”⑦彭蘭.假象、算法囚徒與權(quán)利讓渡:數(shù)據(jù)與算法時代的新風(fēng)險[J].西北師大學(xué)報(社會科學(xué)版),2018(5):20-29.。
其次,算法治理的有效實現(xiàn)依賴于“技術(shù)—社群”雙重路徑的同步演進。算法“黑箱”、算法歧視、算法操縱等算法風(fēng)險的治理需要運用綜合手段,這些手段可以分為技術(shù)路徑和社群路徑。對于算法所呈現(xiàn)的技術(shù)面孔,算法治理的技術(shù)路徑旨在優(yōu)化算法設(shè)計來實現(xiàn)算法倫理原則。比如,當(dāng)前算法決策和數(shù)據(jù)挖掘建立在相關(guān)關(guān)系而非因果關(guān)系基礎(chǔ)上⑧MITTELSTADT B D,ALLO P,TADDEO M,et al.The ethics of algorithms:mapping the debate[J/OL].Big Data &society,2016(2):1-68[2021-12-08].http://papers.ssrn.com/sol3/papers.cfm?abstract_id=2909885.DOI:10.1177/2053951716679679.,并且由于歷史的或者算法設(shè)計者的原因,用于訓(xùn)練模型參數(shù)的數(shù)據(jù)本身分布如果是有問題的,而依賴相關(guān)關(guān)系和分布有偏的數(shù)據(jù)得出的決策結(jié)果就可能是錯誤、不公正的。對此,可以通過發(fā)現(xiàn)因果機制以及改善數(shù)據(jù)分布結(jié)構(gòu)來緩解此類技術(shù)問題⑨汝緒華.算法政治:風(fēng)險、發(fā)生邏輯與治理[J].廈門大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2018(6):27-38.。需要指出是,算法作為一個內(nèi)涵廣泛的概念,在技術(shù)原理、應(yīng)用場景等方面可以進一步分類。不同算法有不同的技術(shù)特點,其風(fēng)險存在差異,在治理價值和治理路徑上也各有側(cè)重。換言之,算法的技術(shù)治理應(yīng)遵循分類治理原則,在實踐中可以結(jié)合本文理論框架審查算法風(fēng)險并形成差異化的治理對策。
社群路徑則以強調(diào)立法與監(jiān)管為主,同時促進科技行業(yè)自律以及培養(yǎng)大眾的算法素養(yǎng)等⑩汪懷君,汝緒華.人工智能算法歧視及其治理[J].科學(xué)技術(shù)哲學(xué)研究,2020(2):101-106.。比如,歐盟《通用數(shù)據(jù)保護條例》、英國《解釋AI 決策的指南》、美國《過濾泡沫透明度法案》、加拿大《自動化決策指令》、日本《改善指定數(shù)字平臺上的交易的透明度和公平性法》等,都對算法應(yīng)用的規(guī)范提出要求。我國從2021年來針對網(wǎng)絡(luò)空間算法活動采取了一系列措施以增進算法活動的透明度、公平性,保護數(shù)據(jù)安全和主體權(quán)益。比如,《國務(wù)院反壟斷委員會關(guān)于平臺經(jīng)濟領(lǐng)域的反壟斷指南》禁止平臺通過算法來實施壟斷行為,《中華人民共和國個人信息保護法》以下簡稱《個人信息保護法》對自動化決策行為進行規(guī)制,以及國家互聯(lián)網(wǎng)信息辦公室等部門印發(fā)算法治理的指導(dǎo)意見,旨在規(guī)范算法推薦活動,厘清算法濫用的邊界。
人工智能算法風(fēng)險反映了算法權(quán)力和用戶權(quán)利之間的不平衡,它折射出算法權(quán)力的運行忽視對用戶的權(quán)利的關(guān)切,算法設(shè)計過分關(guān)注技術(shù)理性、執(zhí)行效率和預(yù)測準(zhǔn)確度。不同于作為控制和支配的權(quán)力,權(quán)利是現(xiàn)代社會中人們所擁有的自由、隱私、知情、平等、自主、尊嚴等資格或價值。算法倫理的核心價值在于約束算法權(quán)力,保障用戶權(quán)利。譬如要求算法透明以保障人們對算法過程的知情權(quán);要求算法公平以防范歧視和偏見,確保社會不同群體在算法面前平等;要求算法可控以約束算法支配與操縱的權(quán)力;要求算法安全,包括個人數(shù)據(jù)和利益安全,以制約算法過度收集與濫用個人信息的權(quán)力??傮w而言,可控和安全更側(cè)重制約算法權(quán)力,透明和公平更強調(diào)保障用戶的權(quán)利。
算法不透明指的是算法處于一種“黑箱”狀態(tài)?!昂谙洹敝敢粋€神秘的、不可觀察的運作機制,對其我們只能獲得輸入和輸出,不了解輸入轉(zhuǎn)化為輸出的邏輯和過程①帕斯奎爾.黑箱社會[M].趙亞男,譯.北京:中信出版社,2015:6.。算法“黑箱”有兩層含義。一是指源于算法本身的技術(shù)復(fù)雜性而導(dǎo)致的模型不可解釋,這類問題存在深度學(xué)習(xí)等算法中。例如,在計算機視覺、自然語言處理中被廣泛使用的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural networks,CNN)算法,是一種包含卷積計算、具有深度結(jié)構(gòu)的前饋神經(jīng)網(wǎng)絡(luò)(feedforward neural networks)。卷積神經(jīng)網(wǎng)絡(luò)通常具有很多隱含層,形成多個計算層級,每一層級里都設(shè)置了很多計算節(jié)點;各個節(jié)點之間會交叉?zhèn)鬟f和處理信息,并且每一節(jié)點的計算參數(shù)又是多變的,這使得整個神經(jīng)網(wǎng)絡(luò)具有相當(dāng)高的計算復(fù)雜度。因此,即便知曉整個網(wǎng)絡(luò)的結(jié)構(gòu)和每一節(jié)點的計算方法,仍然無法通過公式進行說明,故而連算法的設(shè)計者也無法充分解釋神經(jīng)網(wǎng)絡(luò)的運作原理。這類“黑箱”問題根植于深度學(xué)習(xí)等算法固有的技術(shù)特性,是機器學(xué)習(xí)在某些領(lǐng)域(如風(fēng)險評估)應(yīng)用的最大障礙。二是指算法設(shè)計者不向用戶公開其算法原理與機制,導(dǎo)致用戶對算法特征與運算過程毫不知情。例如,歐盟曾指責(zé)谷歌不公開其搜索引擎算法,稱此舉是在制造“扭曲的棱鏡”。此外,互聯(lián)網(wǎng)平臺所采用的算法通常具有不穩(wěn)定性,算法開發(fā)通常以連續(xù)、分布式和動態(tài)的方式重新編程,設(shè)計者對算法不斷修正,導(dǎo)致后來的使用者不了解前期算法開發(fā)的歷程②TSAMADOS A,AGGARWAL N,COWLS J,et al.The ethics of algorithms:key problems and solutions[J/OL].AI&society,2021:1-16[2021-11-10].https://doi.org/10.1007/s00146-021-01154-8.。這類算法黑箱問題很容易導(dǎo)致算法用戶處于信息不對稱中的劣勢地位。這一方面導(dǎo)致用戶知情權(quán)受損,由此降低用戶對算法決策結(jié)果的信任與遵從;另一方面也造成對算法決策問責(zé)的困難。算法透明的意義在于既有利于監(jiān)督算法決策過程,實現(xiàn)算法操控者的可問責(zé)性,又賦予用戶知情權(quán),以便于檢驗或?qū)彶樗惴Q策結(jié)果的合理性③沈偉偉.算法透明原則的迷思——算法規(guī)制理論的批判[J].環(huán)球法律評論,2019(6):20-39.。雖然算法透明原則因其可行性仍存在諸多爭議,但是算法透明被普遍認為是算法規(guī)制的重要維度。
公平即非歧視與無偏見?,F(xiàn)代社會在政治價值上強調(diào)規(guī)則面前人人平等,并以法律的形式反對歧視和偏見,公平是善治的基本目標(biāo)之一。然而,在特定情景下,數(shù)據(jù)驅(qū)動的智能算法可以通過隱形、難以察覺的方式潛移默化地實現(xiàn)系統(tǒng)化、靜悄悄的歧視。既有研究發(fā)現(xiàn),算法正在基于年齡、性別、種族、收入等社會特征對特定群體實施系統(tǒng)性的、可重復(fù)的不公正對待④劉友華.算法偏見及其規(guī)制路徑研究[J].法學(xué)雜志,2019(6):55-66.,挑戰(zhàn)著作為當(dāng)代權(quán)利體系基礎(chǔ)之一的平等權(quán)⑤崔靖梓.算法歧視挑戰(zhàn)下平等權(quán)保護的危機與應(yīng)對[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2019(3):29-42.。譬如,卡內(nèi)基·梅隆大學(xué)的研究人員做了一項實驗,他們模擬谷歌用戶訪問就業(yè)網(wǎng)站,然后統(tǒng)計了谷歌推送的廣告,結(jié)果發(fā)現(xiàn)男性組收到谷歌“20 萬美元+”職位廣告推送達1852次,而女性組只有318次⑥MILLER C C.When algorithms discriminate[EB/OL].(2015-07-09)[2021-12-30].https://www.nytimes.com/2015/07/10/upshot/when-algorithms-discriminate.html.。亞馬遜以10年中收到的簡歷為訓(xùn)練數(shù)據(jù)集開發(fā)簡歷篩選算法,因為訓(xùn)練數(shù)據(jù)有偏,簡歷大多來自男性,導(dǎo)致根據(jù)訓(xùn)練出來的算法,所有帶有“女性”相關(guān)特征的簡歷均受到懲罰⑦DASTIN J.Amazon scraps secret AI recruiting tool that showed bias against women[EB/OL].(2018-10-11)[2021-12-30].https://www.reuters.com/article/us-amazon-com-jobs-automation-insight-idUSKCN1MK08G.。這是就業(yè)場景下算法系統(tǒng)“偏見進,偏見出”的典型案例。除了就業(yè)歧視,“評分社會”⑧CITRON D K,PASQUALE F.The scored society:due process for automated predictions[J].Washington law review,2014(1):1-33.中的算法歧視屢見不鮮,譬如價格歧視、信用歧視、教育歧視等。造成算法決策結(jié)果不公平與算法歧視的原因很多,包括數(shù)據(jù)維度權(quán)重不一、使用有偏的訓(xùn)練數(shù)據(jù)集、將模型誤用于特定場景、研發(fā)者存在的偏見、企業(yè)的逐利動機,甚至算法所執(zhí)行的自動分類本身就是一種直接的歧視①LEPRI B,OLIVER N,LETOUZé E,et al.Fair,transparent,and accountable algorithmic decision-making processes[J].Philosophy&technology,2018(4):611-627.②汪懷君,汝緒華.人工智能算法歧視及其治理[J].科學(xué)技術(shù)哲學(xué)研究,2020(2):101-106.。算法歧視損害了公眾在就業(yè)機會、工作待遇、享受公共品等方面的公平機會和合法權(quán)益,算法“殺熟”更是凸顯了算法歧視直接損害個體經(jīng)濟權(quán)益③劉友華.算法偏見及其規(guī)制路徑研究[J].法學(xué)雜志,2019(6):55-66.。隨著大數(shù)據(jù)“殺熟”成為流行詞匯,算法歧視被廣泛視為智能時代算法規(guī)制所要破解的基本問題。
20世紀60年代,馬爾庫塞曾批判現(xiàn)代新技術(shù)形態(tài)對人進行操縱與控制,半個世紀之后,科學(xué)史學(xué)家戴森諷刺道:“臉書決定了我們是誰,亞馬遜決定了我們想要什么,谷歌決定了我們怎么想。”④帕斯奎爾.黑箱社會[M].趙亞男,譯.北京:中信出版社,2015:22.當(dāng)前自動化智能化決策系統(tǒng)業(yè)已廣泛進入經(jīng)濟交易和公共治理等場景,在金融、就業(yè)、新聞、政治、健康和公共服務(wù)領(lǐng)域,越來越多的預(yù)測模型潛移默化地影響著人們的命運,干預(yù)甚至控制著個體的選擇。當(dāng)算法結(jié)合了公共權(quán)力與資本權(quán)力,對社會施加系統(tǒng)化、高精度的控制與規(guī)訓(xùn),很容易使個人在社會認知、社會流動、生產(chǎn)勞動等方面淪為算法的“囚徒”⑤彭蘭.算法社會的“囚徒”風(fēng)險[J].全球傳媒學(xué)刊,2021(1):3-18.。首先,如果將互聯(lián)網(wǎng)媒體作為認知世界的工具,用戶所獲取的信息就可能被這些媒體的個性化算法過濾,導(dǎo)致用戶對現(xiàn)實世界的多樣性和復(fù)雜性的簡化、片面理解,從而限制個體的判斷和決策力。上文提及的“信息繭房”和“致癮性推薦”即是互聯(lián)網(wǎng)媒體運用算法干預(yù)和控制用戶信息選擇的重要機制。其次,算法亦有可能固化社會分層,通過對個體施加結(jié)構(gòu)性的歧視,影響個體獲得稀缺資源和向上流動的機會。尤班克斯在《自動不平等:高科技如何鎖定、管控和懲罰窮人》一書中指出,公共服務(wù)項目中的資格自動認證系統(tǒng)、排名算法和風(fēng)險預(yù)測模型,構(gòu)成一張控制、操縱與懲罰之網(wǎng),對人們進行精準(zhǔn)畫像與分類服務(wù),并且通過不公正的信息反饋系統(tǒng),將邊緣化群體特別是弱勢群體排斥出去。個體一旦被算法鎖定,就會面臨更密集的受監(jiān)測和追蹤的負擔(dān),甚至?xí)恋K其申請維系生計所必需的公共資源,被打入“數(shù)字濟貧院”⑥尤班克斯.自動不平等:高科技如何鎖定、管控和懲罰窮人[M].李明倩,譯.北京:商務(wù)印書館,2021:1-10.。最后,在生產(chǎn)勞動方面,以外賣騎手的勞動控制為例,平臺算法持續(xù)地收集和分析騎手數(shù)據(jù),并根據(jù)分析結(jié)果建立起井然有序的勞動秩序,實現(xiàn)了資本對勞動的精準(zhǔn)控制⑦陳龍.“數(shù)字控制”下的勞動秩序——外賣騎手的勞動控制研究[J].社會學(xué)研究,2020(6):113-135,244.。因此,如何擺脫算法的支配、擁有使用算法的自主性,對處于數(shù)字化生存時代的人們,特別是算法身份意義上的弱勢群體,是一項嚴峻挑戰(zhàn)。
安全原則約束著算法權(quán)力,保障算法使用者的人身、信息與財產(chǎn)安全不受智能算法威脅。隨著智能算法在社會生活、生產(chǎn)交易和公共治理中的廣泛應(yīng)用,算法系統(tǒng)的設(shè)計安全隱患時有暴露。譬如,自動駕駛汽車作為能夠綜合體現(xiàn)人工智能發(fā)展高度的復(fù)雜智能系統(tǒng),因算法缺陷而引起的安全事故近年來時有發(fā)生??梢?,復(fù)雜智能系統(tǒng)的本體安全尚未能完全實現(xiàn),仍然存在一定的脆弱性和不確定性。除了確保自身安全,智能算法系統(tǒng)還需要具備防范外部威脅的技術(shù)韌性。由于智能系統(tǒng)所處環(huán)境的開放性,在從輸入到輸出的過程中都有可能遭遇外部攻擊⑧陳宇飛,沈超,王騫,等.人工智能系統(tǒng)安全與隱私風(fēng)險[J].計算機研究與發(fā)展,2019(10):2135-2150.。譬如,亞馬遜某款智能語音助手在維基百科上讀取了經(jīng)過惡意編輯的文本后,對使用者進行危險行為誘導(dǎo),甚至建議使用者自殺①CROWLEY J.Woman says Amazon’s Alexa told her to stab herself in the heart for‘the greater good’[EB/OL].(2019-12-24)[2022-01-10].https://www.newsweek.com/amazon-echo-tells-uk-woman-stab-herself-1479074.。安全原則是一項底線原則,它要求算法系統(tǒng)是安全可靠、不作惡的,其基本原則是不能傷害人類。此外,對于眾多算法產(chǎn)品和算法服務(wù)的用戶而言,個人隱私保護和數(shù)據(jù)安全成為當(dāng)下安全感的重要構(gòu)成。在當(dāng)前技術(shù)環(huán)境下,用戶經(jīng)常面臨著個人隱私或個人信息一攬子授權(quán)、網(wǎng)站強行留痕、軟件內(nèi)置后門程序、APP 超范圍收集用戶信息等問題,嚴重威脅著個人隱私保護和數(shù)據(jù)安全。盡管利用這些數(shù)據(jù),智能算法可以對用戶進行深度計算,推理用戶的興趣、偏好、需求等,以此向用戶精準(zhǔn)推送新聞、商品與服務(wù),但是對此類數(shù)據(jù)的過度收集與濫用不僅侵犯了用戶的數(shù)據(jù)權(quán)利,而且有可能對社會秩序和公共安全造成潛在威脅。因此,智能時代算法使用如何實現(xiàn)從個體安全到公共安全、從本體安全到環(huán)境安全的底線保障就成為算法治理的基本維度。
算法在一定程度上繼承并放大了人類社會固有的不透明、不公平、操縱與安全風(fēng)險②郭毅.“人吃人”:算法社會的文化邏輯及其倫理風(fēng)險[J].中國圖書評論,2021(9):45-53.,相應(yīng)地,約束算法權(quán)力以保障用戶的權(quán)利,應(yīng)著力于技術(shù)改進與社群約束兩條路徑,以有效防范算法“黑箱”、算法歧視、算法支配所帶來的風(fēng)險,以及保障用戶使用算法的安全性。
算法透明的呼聲一向很高,但是絕對的透明或簡單公開算法源代碼的可操作性不高。首先,因技術(shù)固有的復(fù)雜性而導(dǎo)致的算法“黑箱”當(dāng)前還無法透明,解決這一問題有賴于技術(shù)的突破性進展。其次,對于因平臺不公開算法特征及運算過程而導(dǎo)致的算法“黑箱”,要求其透明雖然可以為用戶提供關(guān)鍵信息,但也會導(dǎo)致用戶信息過載。并且,算法屬于科技企業(yè)的核心技術(shù),強制算法公開會導(dǎo)致引發(fā)業(yè)界效仿、損害科技企業(yè)創(chuàng)新、引發(fā)動機不良者操縱等問題③徐鳳.人工智能算法黑箱的法律規(guī)制——以智能投顧為例展開[J].東方法學(xué),2019(6):78-86.。譬如,谷歌曾經(jīng)公開著名的PageRank 網(wǎng)頁排名算法的排序標(biāo)準(zhǔn),但是一些惡意網(wǎng)站卻利用谷歌披露的算法與其博弈,操控搜索結(jié)果排名,導(dǎo)致谷歌不得不對排名算法進行保密,谷歌搜索服務(wù)只得又成為一項“黑箱”業(yè)務(wù)④沈偉偉.算法透明原則的迷思——算法規(guī)制理論的批判[J].環(huán)球法律評論,2019(6):20-39.。谷歌搜索引擎的案例非常經(jīng)典地展示了“黑箱”文化的演變過程⑤帕斯奎爾.黑箱社會[M].趙亞男,譯.北京:中信出版社,2015:92.。這就是所謂的“透明性悖論”,即透明性在增進信息對稱性與保障知情權(quán)的同時,也可能引發(fā)某些非預(yù)期的負面后果。在此情況下,提高算法的可解釋性被視為增進算法透明的有效路徑。近年來,可解釋的人工智能(explainable artificial intelligence,XAI)已經(jīng)成為計算科學(xué)研究的前沿主題。XAI指所有能夠幫助人類理解人工智能模型行為的技術(shù)叢,使用解釋作為模型與人類之間的接口,使模型的運轉(zhuǎn)能夠被人類簡單、清晰地理解⑥孔祥維,唐鑫澤,王子明.人工智能決策可解釋性的研究綜述[J].系統(tǒng)工程理論與實踐,2021(2):524-536.。XAI是打開算法決策黑箱的可行路徑,向用戶解釋算法決策的依據(jù)和原因,保障用戶的知情權(quán),提高用戶對算法系統(tǒng)的認知和信任。一些大型算法公司已經(jīng)開始介入XAI實踐,通過提供相關(guān)開源工具箱來幫助開發(fā)者和普通公眾理解機器學(xué)習(xí)算法。例如,IBM 的AI explainability 360 幫助使用者了解機器學(xué)習(xí)算法的推理、規(guī)則以及事后解釋⑦MOJSILOVIC A.Introducing AI explainability 360[EB/OL].(2019-08-08)[2022-01-10].https://www.ibm.com/blogs/research/2019/08/ai-explainability-360/.;谷歌的What-if tool 幫助人們用最少量的代碼來探索、可視化以及分析機器學(xué)習(xí)系統(tǒng)⑧WEXLER J,PUSHKARNA M,BOLUKBASI T,et al.The what-if tool:Interactive probing of machine learning models[J].IEEE transactions on visualization and computer graphics,2019(1):56-65.。
面對智能算法決策在日常消費、勞動雇傭、政府監(jiān)管和司法裁定等領(lǐng)域發(fā)揮的作用越來越大,算法歧視或偏見會對特定社會群體造成實質(zhì)性損害,因此約束算法歧視成為必然選擇。要限制算法歧視,除了數(shù)據(jù)審計和算法審計等技術(shù)進路,更重要的是將傳統(tǒng)的反歧視法律規(guī)制有效地延伸到智能算法。譬如,美國《算法責(zé)任法案》認為應(yīng)對年收入超過5000萬美元或擁有超過100萬消費者數(shù)據(jù)的公司進行算法影響評估,試圖最小化機器學(xué)習(xí)系統(tǒng)的算法偏見。在伊利諾伊州,《人工智能視頻面試法》規(guī)定雇主在使用人工智能分析視頻面試時,需向申請人解釋人工智能的工作方式及其使用了哪些特征來評估申請人,雇主要事先征得申請人同意,以及依申請人要求在30 天內(nèi)銷毀視頻。歐盟《通用數(shù)據(jù)保護條例》實行“數(shù)據(jù)清潔”原則,要求在自動化決策中移除種族、性別、基因等敏感數(shù)據(jù),以防止對特殊群體的歧視①章小杉.人工智能算法歧視的法律規(guī)制:歐美經(jīng)驗與中國路徑[J].華東理工大學(xué)學(xué)報(社會科學(xué)版),2019(6):63-72.。加拿大《自動化決策指令》要求政府部門在使用算法決策系統(tǒng)時,就算法決策對個體與群體的權(quán)利、健康與福祉、經(jīng)濟利益以及生態(tài)系統(tǒng)的可持續(xù)性影響進行評估。日本《改善指定數(shù)字平臺上的交易的透明度和公平性法》和韓國《在線平臺公平交易法》均致力于提高數(shù)字平臺交易的透明性和公平性。在我國,新落地的《個人信息保護法》禁止大數(shù)據(jù)“殺熟”的差異化定價行為,要求自動化決策的透明度,保證決策結(jié)果公平公正。另外,規(guī)制算法的社群路徑還包括算法公司的自我規(guī)制和科技社群的行業(yè)自律。譬如,谷歌倡導(dǎo)監(jiān)督學(xué)習(xí)中的“機會均等”原則,以審查與防止基于種族、性別、殘疾或宗教等敏感屬性的歧視②HARDT M.Equality of opportunity in machine learning[EB/OL].(2016-10-07)[2022-01-10].https://ai.googleblog.com/2016/10/equality-of-opportunity-in-machine.html.。
算法應(yīng)用產(chǎn)生了人困于算法的異化現(xiàn)象,反映了人的自主性和獨立性受到嚴重影響③張凌寒.自動化決策與人的主體性[J].人大法律評論,2020(2):20-48.。自主性要求用戶能夠擺脫算法控制,人的決策應(yīng)優(yōu)先于算法決策,而非被算法支配。這意味著讓算法回歸工具性角色,強化人對算法的主體地位,保護使用者免于淪為算法的奴隸。在算法應(yīng)用實踐中,算法可控是指“人們可以有效規(guī)制算法或者自主決定算法是否繼續(xù)執(zhí)行”④袁康.可信算法的法律規(guī)制[J].東方法學(xué),2021(3):5-21.。被算法計算的對象應(yīng)該有選擇的機會,能夠不需要付出高昂代價就可以拒絕自動化決策算法,擺脫算法的預(yù)測模型。為此,需要在機器學(xué)習(xí)的計算過程中引入人的意見和價值。譬如,近年來倡導(dǎo)的“人在環(huán)中”(human-in-theloop)的算法系統(tǒng)是一種結(jié)合了人類智能與機器智能的方案,允許用戶監(jiān)督與控制算法決策過程,調(diào)整或優(yōu)化算法決策的輸出。另外,一種增強用戶自主性的技術(shù)改進路徑是,算法系統(tǒng)給被決策對象保留退出選項。就像飛行員能夠關(guān)閉自動駕駛并重新獲得對飛機的完全控制一樣⑤FLORIDI L,COWLS J,BELTRAMETTI M,et al.AI4People—an ethical framework for a good AI society:opportunities,risks,principles,and recommendations[J].Minds and machines,2018(4):689-707.,科技公司的算法產(chǎn)品與服務(wù)需給使用者提供類似的選擇,譬如可以修改自己的標(biāo)簽、免于被畫像、可以關(guān)閉算法推薦服務(wù)等。同理,公共部門算法也不能憑借其數(shù)據(jù)收集與關(guān)聯(lián)優(yōu)勢,對公眾進行道德分類與社會控制。各種算法決策系統(tǒng)通過在不同程度上賦予用戶退出機制,還原人在決定自身事務(wù)上所享有的自主權(quán)利。
為識別和防范算法系統(tǒng)的安全風(fēng)險,全球主要國家從戰(zhàn)略、技術(shù)標(biāo)準(zhǔn)、法律法規(guī)等方面尋求對策。例如,美國《國家人工智能研發(fā)戰(zhàn)略計劃:2019 更新版》將確保人工智能系統(tǒng)安全可靠列為一項核心戰(zhàn)略,歐盟《可信賴人工智能倫理指南》把技術(shù)穩(wěn)健性和安全性視為可信的人工智能系統(tǒng)的關(guān)鍵要求。對人工智能系統(tǒng)進行安全監(jiān)管的法律法規(guī)經(jīng)常出現(xiàn)于具體領(lǐng)域。譬如,在自動駕駛領(lǐng)域,美國制定了《聯(lián)邦自動駕駛汽車政策》《確保車輛演化的未來部署和研究安全法案》,將自動駛汽車安全監(jiān)管納入法律框架,對自動駕駛系統(tǒng)提出安全規(guī)范。此外,在個人隱私保護及數(shù)據(jù)安全方面,針對算法驅(qū)動的侵犯與濫用個人信息行為,傳統(tǒng)的規(guī)制思路是個人數(shù)據(jù)賦權(quán),即通過賦予個體一系列數(shù)據(jù)權(quán)利來強化個體對自身數(shù)據(jù)的控制,數(shù)據(jù)控制者與處理者則承擔(dān)維護個人數(shù)據(jù)安全的責(zé)任①丁曉東.論算法的法律規(guī)制[J].中國社會科學(xué),2020(12):138-159,203.。譬如,歐盟《通用數(shù)據(jù)保護條例》旨在讓數(shù)據(jù)主體重新獲得對個人數(shù)據(jù)的控制,其對個人數(shù)據(jù)的界定涵蓋了個人身份、生物特征、電子記錄等數(shù)據(jù),規(guī)定了個人數(shù)據(jù)收集應(yīng)當(dāng)具有具體、清晰、正當(dāng)?shù)哪康?,要求?shù)據(jù)采集者通過恰當(dāng)?shù)姆椒ǜ嬷獢?shù)據(jù)主體,賦予數(shù)據(jù)主體被遺忘權(quán)、限制處理權(quán)、可攜帶權(quán)等數(shù)據(jù)權(quán)利。美國加州《加州隱私權(quán)法案》規(guī)定企業(yè)智能系統(tǒng)要在合理、必要、具有特定目的的條件下收集、處理、使用、存儲個人信息。我國《個人信息保護法》規(guī)定了個人信息收集應(yīng)僅限于處理目的的最小范圍,不得過度收集個人信息,且全面規(guī)定了個人在個人信息處理活動中享有決定權(quán)、限制權(quán)、拒絕處理權(quán)等權(quán)利?!秱€人信息保護法》出臺后,工業(yè)和信息化部等部門下架一批超范圍、超頻次強制收集非必要個人信息的App。除了法律規(guī)制,還應(yīng)向社會普及個人數(shù)據(jù)被竊取、泄露、濫用的潛在風(fēng)險,讓用戶在享受智能化所帶來的便利性和精準(zhǔn)性的同時,具備算法安全風(fēng)險意識與個人數(shù)據(jù)權(quán)利意識。
在人工智能算法蓬勃發(fā)展的今天,學(xué)界從多個視角圍繞算法倫理及其風(fēng)險治理形成了廣泛討論??梢哉f,算法應(yīng)用應(yīng)該在提高效率和合乎倫理這兩個目標(biāo)之間取得平衡已經(jīng)成為普遍共識,而自主、透明、公平、安全也被視為算法治理的四項基本倫理原則。本文從算法治理的價值和路徑兩個維度提出了一個算法治理的分析框架。算法風(fēng)險反映了算法權(quán)力與用戶權(quán)利二者之間關(guān)系的失衡。換言之,算法權(quán)力無序擴張以及用戶權(quán)利不受保護,導(dǎo)致算法控制、算法黑箱、算法歧視以及算法安全風(fēng)險。因此,算法治理的價值是通過制定與踐行算法倫理原則,以達到約束算法權(quán)力與保障用戶權(quán)利的目的。相應(yīng)地,算法風(fēng)險的治理路徑包括技術(shù)內(nèi)生路徑與社群外生路徑。
在此基礎(chǔ)上,本文討論的四個倫理原則在不同程度上都可以通過技術(shù)或社群路徑來實現(xiàn)。譬如,算法安全風(fēng)險治理既要依賴賦權(quán)與監(jiān)管等社群約束,也需要經(jīng)由優(yōu)化深度學(xué)習(xí)和提升算法韌性來達成。基于自主、透明、公平和安全四項倫理原則,率先進入智能社會的美國、歐洲以及日韓等國正在探索算法治理的多樣化路徑,作為算法大國的我國也是全球算法治理的開拓者。本文分析表明,現(xiàn)階段算法治理正在匯聚多元治理主體,未來可進一步基于“權(quán)力—權(quán)利”的治理價值和“技術(shù)—社群”的治理路徑構(gòu)建算法的多元治理框架。首先,隨著國家層面硬性法規(guī)出臺,應(yīng)加快推進算法監(jiān)管體系建設(shè)。國家互聯(lián)網(wǎng)信息辦公室等監(jiān)管部門已經(jīng)就算法推薦管理出臺規(guī)定,并宣布利用三年左右時間建立起算法綜合治理體系,以保護公民的合法權(quán)益、維護國家安全和社會公共利益。針對各類算法活動,相關(guān)部門要加快探索算法測試、評估與審計的啟動條件和技術(shù)標(biāo)準(zhǔn),將監(jiān)管目光直接投向算法的設(shè)計與運行。其次,科技企業(yè)作為算法研發(fā)、部署與推廣的首要主體,應(yīng)主動承擔(dān)主體責(zé)任,成立算法倫理部門,建立算法安全責(zé)任制度、科技倫理定期審查和結(jié)果披露制度,強化科技企業(yè)的倫理責(zé)任意識。再次,大力開發(fā)第三方科技社群的算法治理作用,制定行業(yè)算法倫理規(guī)范推進行業(yè)自律,依托專業(yè)力量就平臺算法風(fēng)險進行評估,測試算法的透明度、識別算法是否存在歧視與損害性后果。探索算法審計報告向社會公布制度,并與平臺信用掛鉤,倒逼平臺改進算法。最后,通過政府、科技企業(yè)、科技社群和社會參與構(gòu)建協(xié)同治理體系,使得全社會在發(fā)揮算法紅利、用算法進行治理的同時,充分考慮個人權(quán)利和公共利益,對算法風(fēng)險進行識別和防范,實現(xiàn)對算法的治理,從而構(gòu)建一個以人為本、公平公正、公開透明、安全可靠的算法治理生態(tài)。