李 欣 曹藝萱
(中國人民公安大學(xué)國家安全學(xué)院 北京 100038)
技術(shù)變革引發(fā)社會變革.數(shù)智時(shí)代,算法不斷推動(dòng)人類社會形態(tài)的演化,但大數(shù)據(jù)殺熟、深度偽造、隱私泄露等算法亂象也時(shí)有發(fā)生,算法風(fēng)險(xiǎn)治理已迫在眉睫.2022年3月,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》的施行,使算法監(jiān)管有規(guī)可依,然而監(jiān)管政策的落地尚面臨重重挑戰(zhàn).在技術(shù)變革與政策推進(jìn)的雙重背景下,本文對國內(nèi)算法風(fēng)險(xiǎn)及其治理相關(guān)研究展開系統(tǒng)性回顧,以綜述形式梳理歸納算法風(fēng)險(xiǎn)類型、形成機(jī)理與治理策略,對于推動(dòng)我國本土算法風(fēng)險(xiǎn)治理體系建設(shè)具有重要意義.
目前,學(xué)界對于算法以及算法風(fēng)險(xiǎn)的概念尚未達(dá)成統(tǒng)一定論.從計(jì)算指令序列、人機(jī)交互的決策過程,到構(gòu)建社會秩序的理性模型,伴隨技術(shù)與時(shí)代的更迭,算法的內(nèi)涵也漸趨豐富.綜合已有學(xué)者觀點(diǎn),本文中的算法風(fēng)險(xiǎn)主要指算法技術(shù)的不確定性所招致的可能性后果.這種可能性潛藏在人類社會各個(gè)領(lǐng)域,通常表現(xiàn)為某種不利影響,如算法共謀、算法濫用、算法殺熟等.此外,鑒于“算法是人工智能的核心”這一觀點(diǎn)已成為學(xué)界普遍共識,大量社會科學(xué)研究已將二者混同使用,因此本文將部分與算法風(fēng)險(xiǎn)治理無實(shí)質(zhì)性差異的人工智能風(fēng)險(xiǎn)治理相關(guān)文獻(xiàn)納入研究范疇,力求更加全面地展現(xiàn)該領(lǐng)域研究現(xiàn)狀.
通過從知網(wǎng)檢索到的CSSCI及北大核心期刊主題相關(guān)發(fā)文數(shù)量,我國算法風(fēng)險(xiǎn)及其治理研究論文發(fā)表趨勢如圖1所示,大體可劃分為3個(gè)階段:1)萌芽階段(2015—2017年).該階段國內(nèi)算法風(fēng)險(xiǎn)相關(guān)研究剛剛起步,發(fā)文數(shù)量較少,呈現(xiàn)零星、分散的特點(diǎn),主要體現(xiàn)對于大數(shù)據(jù)、人工智能算法以及社會數(shù)智化轉(zhuǎn)型的展望與憂思.2)升溫階段(2018—2019年).隨著算法應(yīng)用的廣泛鋪開,算法風(fēng)險(xiǎn)治理受到學(xué)界高度關(guān)注,發(fā)文數(shù)量大幅拉升,研究主要以集中于社會各領(lǐng)域算法風(fēng)險(xiǎn)、算法責(zé)任等為主題.3)高潮階段(2020年至今).2020年以來,我國算法風(fēng)險(xiǎn)治理研究迎來高潮,學(xué)者們開始著眼于更為細(xì)化的算法風(fēng)險(xiǎn)以及其形成機(jī)理與權(quán)力運(yùn)行機(jī)制、算法監(jiān)管方案與治理體系構(gòu)建等研究,整體展現(xiàn)出方興未艾的繁榮景象.
圖1 我國算法風(fēng)險(xiǎn)及其治理研究論文年度發(fā)表趨勢
相較于人腦思考與決策,算法客觀理性、精準(zhǔn)高效等優(yōu)勢大幅提升了決策效率與準(zhǔn)確度.然而,算法風(fēng)險(xiǎn)始終與便利相伴相生,伴隨其應(yīng)用根植于社會各個(gè)領(lǐng)域,并不斷滋生出新的風(fēng)險(xiǎn)形態(tài).
算法引發(fā)社會空前變革的同時(shí),也沖擊著法律的秩序與規(guī)則.吳漢東[1]率先提出人工智能引致的法律問題框架.在此框架下,學(xué)者們就人工智能與算法的法律主體人格[2]、民事權(quán)利與責(zé)任[3-4]、刑法適用[5]、司法裁判[6]等議題展開探討,算法風(fēng)險(xiǎn)研究也隨之深入.一方面是算法自身歸責(zé)難題,對于算法失誤所招致的損害,如在自動(dòng)駕駛汽車事故責(zé)任認(rèn)定上,傳統(tǒng)法律體系的應(yīng)對表現(xiàn)出明顯的滯后[7],被侵權(quán)者所能主張的法律救濟(jì)亦因算法歸責(zé)的難題缺乏有效進(jìn)路.另一方面是算法嵌入司法風(fēng)險(xiǎn),馬長山[8]指出,算法雖能在一定程度上推進(jìn)司法“形式正義”的實(shí)現(xiàn),但卻無補(bǔ)于“實(shí)質(zhì)正義”的維護(hù).司法程序中的算法嵌入也會帶來技術(shù)權(quán)力侵蝕司法權(quán)力、算法決策弱化法官地位的風(fēng)險(xiǎn)[9],可能導(dǎo)致司法裁判中效率導(dǎo)向與公正導(dǎo)向的失衡,甚至損害司法公正.
在政治治理領(lǐng)域,已有研究主要聚焦于政治生態(tài)風(fēng)險(xiǎn)和社會治理風(fēng)險(xiǎn)2大議題.政治生態(tài)風(fēng)險(xiǎn)方面,汝緒華[10]認(rèn)為,算法對于民主選舉、公投的操縱早已屢見不鮮,真?zhèn)坞y辨的政治性新聞傳播引致群體極化風(fēng)險(xiǎn).社會治理風(fēng)險(xiǎn)方面則主要分為3類視角:1)技術(shù)賦權(quán)視角下,算法嵌入社會治理帶來了技術(shù)賦權(quán)與約束機(jī)制的不對等,公民權(quán)利讓渡于算法權(quán)威形成“算法利維坦”[11];2)自動(dòng)決策視角下,算法自動(dòng)化決策運(yùn)用的泛化使其在行政決策中的地位由輔助性工具走向依賴性手段,甚至取代人為決策[12],削弱了行政主體的自由裁量權(quán);3)行政正義視角下,本應(yīng)依法作出的行政裁決轉(zhuǎn)由代碼組成的算法替代完成,算法“統(tǒng)治”執(zhí)法消解了法治政府的根基,與此同時(shí),算法行政的信息壁壘對行政公開原則的侵蝕,致使公眾難以對自己的合法權(quán)益主張救濟(jì)[13].
算法驅(qū)動(dòng)著傳播范式的變革,傳播領(lǐng)域?qū)W者主要從社會群體和用戶個(gè)體雙重視角對算法風(fēng)險(xiǎn)展開論述.在社會群體視角下,傳播的公共性面臨被算法消解的危機(jī),取而代之的是政治、資本與技術(shù)多重權(quán)力操縱下的社會偏見循環(huán)[14].彭蘭[15]提出,社會階層或?qū)㈦S著人們被算法的“精準(zhǔn)”定義而逐漸固化,“強(qiáng)者愈強(qiáng)、弱者愈弱”的馬太效應(yīng)也隨之放大.而在用戶個(gè)體視角下,算法推薦機(jī)制使用戶接觸的信息范圍不斷窄化,成為“信息繭房”中的“算法囚徒”[16],個(gè)體認(rèn)知被算法所分化,主流意識形態(tài)面臨被削弱的風(fēng)險(xiǎn).隨著深度合成技術(shù)迅猛來襲,Deepfake,ChatGPT等人工智能自動(dòng)生成內(nèi)容(AI generated content, AIGC)商業(yè)應(yīng)用為信息生產(chǎn)方式帶來幾近顛覆式的變革,虛假信息傳播愈演愈烈,公民財(cái)產(chǎn)安全與隱私權(quán)利面臨嚴(yán)峻挑戰(zhàn)[17].算法自動(dòng)生成內(nèi)容在知識生產(chǎn)與傳播領(lǐng)域引發(fā)學(xué)術(shù)誠信、署名權(quán)爭議等諸多現(xiàn)實(shí)問題,其背后所蘊(yùn)涵的科技倫理風(fēng)險(xiǎn)同樣值得審視[18].
算法在商業(yè)領(lǐng)域的大規(guī)模應(yīng)用逐漸演化出算法價(jià)格歧視與算法共謀2大風(fēng)險(xiǎn).算法價(jià)格歧視主要體現(xiàn)為“大數(shù)據(jù)殺熟”,即經(jīng)營者利用信息不對稱,通過大數(shù)據(jù)收集與算法技術(shù)分析實(shí)現(xiàn)對用戶的差異化定價(jià)[19].算法共謀則可分為信使類、軸輻類、預(yù)測類及自主類4種類型[20-21],其中自主類算法共謀因算法具備自主學(xué)習(xí)能力,具有更強(qiáng)的隱蔽性與更大的監(jiān)管難度[22].根據(jù)部分學(xué)者觀點(diǎn),上述2種風(fēng)險(xiǎn)在本質(zhì)上均屬于算法平臺壟斷風(fēng)險(xiǎn)[23],然而算法的黑箱特性與自主決策能力使得傳統(tǒng)壟斷規(guī)制效果大打折扣,甚至出現(xiàn)“失靈”現(xiàn)象[24],監(jiān)管供給表現(xiàn)出明顯不足,嚴(yán)重?fù)p害平臺經(jīng)濟(jì)市場競爭秩序與良性發(fā)展.
在數(shù)字經(jīng)濟(jì)時(shí)代,人類對算法效率的過分倚重也埋下了巨大的社會隱患.除前述價(jià)格歧視外,基于算法的身份性偏見與歧視已然侵入各個(gè)領(lǐng)域,加劇了社會群體間的不平等.首當(dāng)其沖的便是就業(yè)領(lǐng)域,人類社會所固有的性別、年齡、種族等歧視因素經(jīng)代碼化處理嵌入雇傭決策算法,無疑侵犯乃至剝奪了部分群體的平等就業(yè)權(quán)[25].同樣出于效率優(yōu)先的價(jià)值導(dǎo)向,以外賣為典型代表的平臺企業(yè)借助算法實(shí)現(xiàn)對于勞動(dòng)者的精準(zhǔn)化管理和控制,其背后隱藏著平臺經(jīng)濟(jì)模式下的資本操縱[26].平臺企業(yè)為追求商業(yè)效率或經(jīng)濟(jì)利益,過度收集、濫用甚至轉(zhuǎn)賣用戶信息的行為屢見不鮮,隱私侵犯與數(shù)據(jù)泄露事件頻發(fā),對數(shù)據(jù)安全乃至國家安全造成嚴(yán)重威脅[27].
算法風(fēng)險(xiǎn)表征雖因領(lǐng)域不同而各有側(cè)重,但仍表現(xiàn)出相當(dāng)程度的共性特征與共有成因.馬長山[28]從倫理、極化、異化、規(guī)制以及責(zé)任5大方面對算法風(fēng)險(xiǎn)展開分析.蘇宇[29]指出,算法風(fēng)險(xiǎn)主要源自設(shè)計(jì)失范、算法缺陷、信任缺失、防御薄弱以及監(jiān)管機(jī)制不健全等具體原因.綜合已有研究觀點(diǎn),算法風(fēng)險(xiǎn)主要可歸于算法黑箱、算法歧視以及權(quán)力異化3大維度,眾多學(xué)者分別從上述維度對算法風(fēng)險(xiǎn)成因進(jìn)行了深入闡釋,可由此歸納出算法風(fēng)險(xiǎn)形成機(jī)理,如圖2所示.
圖2 算法風(fēng)險(xiǎn)形成機(jī)理
仇筠茜等人[30]指出,算法通過預(yù)先設(shè)定規(guī)則或自主學(xué)習(xí)方式,對輸入數(shù)據(jù)進(jìn)行處理和運(yùn)作,使得人們難以真正知曉這一復(fù)雜過程的運(yùn)行狀況,“算法黑箱”由此產(chǎn)生.算法規(guī)則的封裝隱藏了算法設(shè)計(jì)缺陷,賦予了損害過程與結(jié)果隱蔽性,并極有可能導(dǎo)致算法問責(zé)的失效,可信算法的建構(gòu)面臨重重挑戰(zhàn)[31].
目前學(xué)界已對算法黑箱的成因開展了一系列研究,美國學(xué)者Burrell[32]的“三因素論”受到國內(nèi)學(xué)者的普遍認(rèn)可:第一,算法本身具有保密性質(zhì),算法研發(fā)或控制者缺乏將其對外披露的意愿;第二,算法技術(shù)壁壘的客觀存在,使得非專業(yè)人員難以理解算法的運(yùn)行邏輯與真實(shí)內(nèi)涵;第三,算法的自主學(xué)習(xí)特性導(dǎo)致其運(yùn)行過程變得極其復(fù)雜,甚至超出算法設(shè)計(jì)人員所能感知的范疇.
歧視問題在人類社會中由來已久,而算法的應(yīng)用使得這一傳統(tǒng)問題展現(xiàn)出更強(qiáng)的復(fù)雜性與隱蔽性.鄭智航等人[33]從生成機(jī)制維度,將算法歧視歸為偏見代理型、特征選擇型與算法殺熟型3種基本類型.劉友華[34]則從權(quán)益保護(hù)維度,將其劃分為損害公眾基本權(quán)利類、損害競爭性利益類以及損害個(gè)體民事權(quán)益類等不同類別.
綜觀已有研究,算法歧視根源主要有三:一是源自人類自身偏見;二是源自輸入數(shù)據(jù)偏差;三是源自算法自主學(xué)習(xí)過程.第一,算法由人類所設(shè)計(jì),其與生俱來便繼承了標(biāo)簽式分類、范疇化認(rèn)知等局限,加之研發(fā)者價(jià)值理念、固有偏見乃至主觀惡意的嵌入,算法歧視的產(chǎn)生也就無可避免.第二,正所謂“偏見進(jìn),偏見出”,原始數(shù)據(jù)的質(zhì)量、規(guī)模以及數(shù)據(jù)處理流程中的偏差,都有可能引發(fā)小樣本數(shù)據(jù)被噪聲化處理、敏感性數(shù)據(jù)未被有效保護(hù)等問題,從而導(dǎo)致歧視性結(jié)果的生成.第三,算法所具備的自主學(xué)習(xí)能力,使其對已有偏見進(jìn)行無意識的強(qiáng)化與放大,開啟算法偏見與歧視的無限循環(huán),往往更難以被感知和預(yù)測[35-36].
高效、客觀、智能等“算法理性”特征,為算法嵌入社會治理提供了廣闊發(fā)展空間,并由此催生出算法權(quán)力這一概念.作為一種泛權(quán)力,算法權(quán)力實(shí)質(zhì)表現(xiàn)為對于社會主體思想與行為上的引導(dǎo)和操控,以此實(shí)現(xiàn)對于社會治理模式的邏輯重構(gòu)[37].究其來源,算法利用其海量數(shù)據(jù)處理、深度自主學(xué)習(xí)等能力優(yōu)勢,以嵌入方式實(shí)現(xiàn)對于社會權(quán)力運(yùn)行的持久性掌控[38],從而衍生權(quán)力異化風(fēng)險(xiǎn).
從宏觀社會層面講,在技術(shù)類企業(yè)主導(dǎo)算法研發(fā)與大數(shù)據(jù)運(yùn)作的格局下,資本受利益驅(qū)使,依仗技術(shù)門檻與場域優(yōu)勢實(shí)現(xiàn)算法操縱與數(shù)據(jù)濫用.對算法自動(dòng)化決策的依賴可能導(dǎo)致“影子官僚”“屏幕官僚”出現(xiàn)[39],公權(quán)力被算法俘獲,政府公信與程序正義遭受質(zhì)疑,在一定程度上消解著司法公正、政治正義與社會平等,甚至存在逐步演化出數(shù)字信息鴻溝,加劇算法霸權(quán)的可能[40].而在微觀個(gè)體層面,公民個(gè)體知情權(quán)、隱私權(quán)等部分合法權(quán)利讓渡于算法權(quán)力,信息獲取渠道、思想意識形態(tài)為算法所框定,人的主體地位面臨嚴(yán)峻挑戰(zhàn)[41].
關(guān)于算法風(fēng)險(xiǎn)的類型及其成因,學(xué)界向來眾說紛紜.然而各種風(fēng)險(xiǎn)歸根結(jié)底都離不開有關(guān)算法黑箱、算法歧視以及算法權(quán)力三者的討論.算法黑箱隱含算法偏見、催生算法權(quán)力,并憑借其獨(dú)有的隱蔽性加劇了偏見循環(huán)與權(quán)力異化[42],通過算法依賴、算法失誤、算法操縱、算法共謀等風(fēng)險(xiǎn)中介引發(fā)各類風(fēng)險(xiǎn).算法黑箱因此成為算法風(fēng)險(xiǎn)生成的根本肇因,這也是算法風(fēng)險(xiǎn)治理之中樞所在.
面對各類風(fēng)險(xiǎn)的侵襲,算法治理成為亟待解決的社會性難題,學(xué)界從不同視角對此展開了持久而深入的探賾.綜觀眾多治理方案,可歸納出技術(shù)規(guī)制、權(quán)責(zé)規(guī)范與生態(tài)優(yōu)化3條治理路徑,其框架如圖3所示:
圖3 算法風(fēng)險(xiǎn)治理框架模型
算法風(fēng)險(xiǎn)本質(zhì)上屬于技術(shù)風(fēng)險(xiǎn),因此理應(yīng)從技術(shù)層面實(shí)現(xiàn)風(fēng)險(xiǎn)的規(guī)制,以數(shù)據(jù)保護(hù)保障信息安全,以算法透明治理算法黑箱,以審查評估推動(dòng)算法合規(guī).
1) 數(shù)據(jù)保護(hù).作為算法的燃料,數(shù)據(jù)的濫用或泄露無疑是算法風(fēng)險(xiǎn)的關(guān)鍵誘因.從數(shù)據(jù)收集、流轉(zhuǎn)、處理到刪除,學(xué)者們就數(shù)據(jù)保護(hù)的具體措施展開了廣泛的討論.在數(shù)據(jù)收集方面,明確數(shù)據(jù)權(quán)利主體,遵循“最小目的”“明示同意”等原則,保障數(shù)據(jù)主體知情權(quán),避免數(shù)據(jù)侵權(quán)與濫用[43].在數(shù)據(jù)流轉(zhuǎn)方面,設(shè)立數(shù)據(jù)溯源機(jī)制,實(shí)現(xiàn)數(shù)據(jù)流轉(zhuǎn)與運(yùn)作全流程留痕,以此化解算法決策失誤歸因歸責(zé)難題[44].在數(shù)據(jù)處理方面,實(shí)行數(shù)據(jù)分級制度,針對不同等級數(shù)據(jù)采取特定保護(hù)措施,推進(jìn)數(shù)據(jù)安全監(jiān)管制度[45].在數(shù)據(jù)刪除方面,“被遺忘權(quán)”“刪除權(quán)”等概念的引入,為數(shù)據(jù)與算法治理提供了合理進(jìn)路[46].參考他國做法設(shè)置機(jī)構(gòu)內(nèi)部數(shù)據(jù)保護(hù)專員,亦可通過強(qiáng)化數(shù)據(jù)安全責(zé)任的方式化解算法風(fēng)險(xiǎn)的生成.
2) 算法透明.“黑箱”的封裝使得算法風(fēng)險(xiǎn)難以被感知、控制和化解.因此,學(xué)界圍繞“算法透明”這一理念展開激烈爭論,以期破解黑箱難題.批判派指出,算法透明具有天然缺陷,其正當(dāng)性、可行性與必要性均存在瑕疵[47].而支持派認(rèn)為算法透明不僅可行,且能有效增進(jìn)算法可理解性與可責(zé)性[48].具體而言,算法透明可落地為設(shè)置算法解釋權(quán)、履行告知義務(wù)、參數(shù)披露、源代碼公開等實(shí)施方案[49].張凌寒[50]率先提出應(yīng)通過法律途徑設(shè)立算法解釋權(quán)以控制算法自動(dòng)化決策風(fēng)險(xiǎn),使得算法解釋權(quán)這一概念備受關(guān)注.歐盟《通用數(shù)據(jù)保護(hù)條例》所構(gòu)建的算法解釋權(quán)框架,為算法治理體系的建立提供了制度樣本[51].美國則針對不同領(lǐng)域設(shè)置了場景化算法解釋要求[52],上述2類規(guī)制方式為我國本土化算法解釋權(quán)的構(gòu)建提供了啟示和借鑒.在已有學(xué)者研究基礎(chǔ)上,丁曉東[53]就算法解釋權(quán)的爭議與困境展開闡釋,提出基于信任關(guān)系的算法解釋權(quán)制度構(gòu)建.
3) 審查評估.行業(yè)標(biāo)準(zhǔn)的制定與審查制度的施行是算法風(fēng)險(xiǎn)治理的關(guān)鍵路徑.相較于倫理標(biāo)準(zhǔn),技術(shù)標(biāo)準(zhǔn)具備更強(qiáng)的可操作性.張欣[54]認(rèn)為,算法相關(guān)標(biāo)準(zhǔn)的設(shè)立能夠削弱算法的“黑箱化”設(shè)計(jì)傾向,從研發(fā)源頭對算法風(fēng)險(xiǎn)施以有效控制.在明確算法監(jiān)管標(biāo)準(zhǔn)的前提下,許可[55]基于我國算法治理制度現(xiàn)實(shí),對算法備案制度的內(nèi)涵、意義、內(nèi)容以及范圍作出了較為詳盡的闡釋.算法影響評估是算法審查的核心環(huán)節(jié),相較于封閉合規(guī)型評估制度,開放反思型制度在促進(jìn)算法透明、程序正當(dāng)、社會審查等方面均更具優(yōu)勢[56].
算法的技術(shù)性風(fēng)險(xiǎn)可通過技術(shù)規(guī)制加以化解,但其應(yīng)用所衍生出的各類社會問題,引發(fā)了社會主體間權(quán)利、權(quán)力與責(zé)任關(guān)系的擾動(dòng)與失衡,因此有必要通過權(quán)責(zé)規(guī)范路徑施以治理,以法律規(guī)制完善制度設(shè)計(jì),以算法問責(zé)倒逼算法負(fù)責(zé),以權(quán)利救濟(jì)保障各類法益.
1) 法律規(guī)制.算法沖擊下,傳統(tǒng)法律治理模式亟需更新與轉(zhuǎn)型,以充分提升算法治理效能.汪慶華[57]認(rèn)為,中國、美國與歐盟在算法法律規(guī)制模式上各有側(cè)重,分別呈現(xiàn)出分散式立法、司法判例規(guī)制以及數(shù)據(jù)源頭治理3類形態(tài),不同法域中算法法律規(guī)制模式雖各有千秋,但與具體應(yīng)用場景相結(jié)合為其共性特征,采取場景化的規(guī)制路徑可有效破解機(jī)械應(yīng)用傳統(tǒng)算法規(guī)制模式所引發(fā)的困境[58].在前述研究基礎(chǔ)上,“漸進(jìn)式”立法與“頂層式”立法并行的治理模式被提出,為算法規(guī)范化發(fā)展提供完善的法制保障[59].
2) 算法問責(zé).多數(shù)學(xué)者對于算法在當(dāng)前發(fā)展階段并不具備獨(dú)立的責(zé)任主體地位這一觀點(diǎn)持肯定態(tài)度,因此刺破算法的“面紗”,面向算法實(shí)際控制者實(shí)施問責(zé)成為當(dāng)前算法治理之關(guān)鍵.建立網(wǎng)絡(luò)平臺算法問責(zé)制度,可有效避免算法實(shí)際控制者以“技術(shù)中立”等理論為借口規(guī)避應(yīng)有責(zé)任,同時(shí)也可作為實(shí)現(xiàn)算法場景化規(guī)制的重要渠道[60].肖紅軍[61]立足社會責(zé)任視角,指出從起初的責(zé)任否定觀、道德算法觀,再到“可信賴的算法”觀以及“負(fù)責(zé)任的算法”觀,算法責(zé)任觀的迭代標(biāo)志著社會主體對于算法及其責(zé)任本質(zhì)的認(rèn)知演變,引領(lǐng)了算法應(yīng)用的發(fā)展走向.
3) 權(quán)利救濟(jì).作為公民權(quán)利救濟(jì)重要渠道的私益訴訟,在算法侵權(quán)責(zé)任的判定上卻不盡人意,受侵害者常常面臨訴訟成本過高、舉證壓力過大、技術(shù)認(rèn)定復(fù)雜等諸多難題.此時(shí),公益訴訟、集體訴訟以及舉證責(zé)任倒置等制度的介入可顯著提升受侵害者與算法控制者博弈的能力,充分保障受侵害個(gè)體的合法權(quán)益[62].此外,針對推薦算法所引致的權(quán)利侵害,建立便利暢通的反饋與維權(quán)渠道不失為快捷有效的救濟(jì)途徑.目前,《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》已明確要求算法推薦服務(wù)提供者設(shè)置用戶申訴、投訴入口并建立處理反饋機(jī)制,維護(hù)公民合法權(quán)益[63].
算法本身及其與各領(lǐng)域相互交織的復(fù)雜性,決定了單靠技術(shù)規(guī)制與權(quán)責(zé)規(guī)范無法最大程度發(fā)揮風(fēng)險(xiǎn)治理效能,必須加快構(gòu)建向上向善的算法生態(tài)格局,形成“倫理引導(dǎo)—技術(shù)改進(jìn)—算法優(yōu)化—素養(yǎng)提升”的算法發(fā)展正反饋長效機(jī)制,以倫理規(guī)范撥正價(jià)值取向,以技術(shù)研發(fā)縱深風(fēng)險(xiǎn)防御,以素養(yǎng)教育強(qiáng)化算法駕馭.
1) 倫理規(guī)范.伴隨人工智能介入社會程度不斷加深,算法所孳生的倫理困境也愈益凸顯.世界各國雖就人工智能算法的基本倫理達(dá)成一定共識,提出了《阿西洛馬人工智能原則》與歐盟《可信人工智能倫理指南》等倫理準(zhǔn)則,但具備普適約束力的倫理規(guī)范在短期內(nèi)尚難落地.對此,可從微觀層面出發(fā),創(chuàng)設(shè)人工智能算法倫理評估審查標(biāo)準(zhǔn)體系,借助“倫理審計(jì)”等手段反向核查算法是否存在倫理偏誤,以達(dá)繩愆糾謬之效[64].
2) 技術(shù)研發(fā).算法技術(shù)研發(fā)作為算法風(fēng)險(xiǎn)產(chǎn)生的關(guān)鍵環(huán)節(jié),對于推進(jìn)算法妥善應(yīng)用與安全運(yùn)行具有重大戰(zhàn)略性意義,已有研究主要關(guān)注2大主題:一是機(jī)制優(yōu)化.為防范技術(shù)權(quán)力異化風(fēng)險(xiǎn),政府部門應(yīng)充分享有政務(wù)系統(tǒng)算法研發(fā)主導(dǎo)權(quán),通過對核心算法與數(shù)據(jù)資源的掌控實(shí)現(xiàn)對于算法權(quán)力的制衡[65].二是技術(shù)改進(jìn).左衛(wèi)民[66]提出,從技術(shù)層面實(shí)現(xiàn)算法的改進(jìn),應(yīng)從算法的準(zhǔn)確性、科學(xué)性、透明性以及歧視性4個(gè)方面充分加以考慮,使得算法技術(shù)更好服務(wù)于我國現(xiàn)實(shí)需要.
3) 素養(yǎng)教育.面對算法的全方位滲透,算法素養(yǎng)成為識別、防范與抵御算法風(fēng)險(xiǎn)之要端[67].就算法使用者而言,算法素養(yǎng)通常指用戶群體對算法運(yùn)作邏輯的認(rèn)知水平、對算法現(xiàn)實(shí)存在的感知程度以及對算法所致影響的判斷能力.為避免算法對于人類主體地位的侵蝕,提升人類與之共存所需的轄制力,算法素養(yǎng)教育的社會化普及勢在必行.具體而言,可從技能、知識、思維、動(dòng)機(jī)和認(rèn)知5大層面綜合提升社會公眾的算法素養(yǎng)能力,助推數(shù)字鴻溝的彌合,從而為算法時(shí)代技術(shù)風(fēng)險(xiǎn)的化解提供新的方向[68].
本文基于對已有研究的梳理,對算法風(fēng)險(xiǎn)形態(tài)進(jìn)行場景劃分,厘清了不同領(lǐng)域算法風(fēng)險(xiǎn)的基本內(nèi)涵;深入剖析算法風(fēng)險(xiǎn)成因,闡明了算法風(fēng)險(xiǎn)形成的底層邏輯;最后對算法風(fēng)險(xiǎn)治理策略進(jìn)行系統(tǒng)歸納,創(chuàng)造性地提煉出我國算法風(fēng)險(xiǎn)治理框架關(guān)系模型.研究表明,我國算法風(fēng)險(xiǎn)治理研究雖已取得較為豐碩的成果,但仍存在研究內(nèi)容趨同、微觀研究薄弱、系統(tǒng)研究缺位等不足.未來可從融合理論實(shí)踐、推動(dòng)學(xué)科交互、加強(qiáng)系統(tǒng)研究等方向進(jìn)一步深入探索,加快構(gòu)建符合中國國情、具有中國特色的算法風(fēng)險(xiǎn)綜合治理體系.