国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

分類(lèi)分級(jí)治理算法的基本內(nèi)涵及實(shí)踐進(jìn)路

2023-02-24 03:13董思琰
關(guān)鍵詞:分級(jí)分類(lèi)人工智能

陳 兵,董思琰

(南開(kāi)大學(xué)法學(xué)院,天津 300350)

一、問(wèn)題提出

2023年8月,北京互聯(lián)網(wǎng)法院公布了數(shù)據(jù)算法十大典型案例,包括全國(guó)首例利用算法設(shè)計(jì)組織實(shí)施人格權(quán)侵權(quán)的新類(lèi)型案件——何某訴上海某科技公司侵害人格權(quán)糾紛案。案中,用戶(hù)可以在被告公司開(kāi)發(fā)運(yùn)營(yíng)的軟件中創(chuàng)設(shè)“AI陪伴者”,在未經(jīng)過(guò)原告何某同意的情況下,軟件中出現(xiàn)以原告姓名、肖像為標(biāo)識(shí)的“AI陪伴者”,并經(jīng)由該公司通過(guò)聚類(lèi)算法,將陪伴者“何某”按身份分類(lèi),并以協(xié)同推薦算法向其他用戶(hù)推介該虛擬人物。原告認(rèn)為被告侵犯了其姓名權(quán)、肖像權(quán)以及一般人格權(quán),被告則以用戶(hù)行為和已將涉案內(nèi)容刪除為由主張不承擔(dān)侵權(quán)責(zé)任。最終法院認(rèn)為,網(wǎng)絡(luò)技術(shù)服務(wù)提供者在算法設(shè)計(jì)和規(guī)則設(shè)定中嵌套其主觀價(jià)值和主觀目的,不適用“技術(shù)中立”原則,被告構(gòu)成侵權(quán)[1]。該案對(duì)算法應(yīng)用的評(píng)價(jià)標(biāo)準(zhǔn)進(jìn)行了有益探索,更進(jìn)一步引發(fā)了該如何深化算法治理的思考。

在1956年,人工智能就由計(jì)算機(jī)科學(xué)家約翰·麥克卡錫和邁倫·明斯基在達(dá)特茅斯會(huì)議提出,會(huì)議討論了用機(jī)器來(lái)模仿人類(lèi)學(xué)習(xí)以及其他方面的智能。經(jīng)過(guò)半個(gè)多世紀(jì)的發(fā)展,人工智能的技術(shù)范圍也不斷擴(kuò)張。當(dāng)前,一種算法或模型能夠基于對(duì)數(shù)據(jù)的操作,像擁有人類(lèi)智慧一樣進(jìn)行推理,則能夠被視為人工智能。算法是一種結(jié)構(gòu)化的決策過(guò)程,能夠根據(jù)輸入數(shù)據(jù)遵循一系列數(shù)學(xué)邏輯生成決策結(jié)果,隨著算法與機(jī)器學(xué)習(xí)的緊密結(jié)合,使得算法具有了智能性,可被用于滿足客戶(hù)的個(gè)性化需求、預(yù)測(cè)價(jià)格變化、分析客戶(hù)偏好、優(yōu)化業(yè)務(wù)流程、改進(jìn)或開(kāi)發(fā)新產(chǎn)品等方面。當(dāng)前,算法與數(shù)據(jù)、算力共同構(gòu)成了人工智能的三大核心要素,算法能力經(jīng)由數(shù)據(jù)驅(qū)動(dòng)進(jìn)一步提升,被廣泛應(yīng)用于執(zhí)法司法、新聞推薦、廣告推送、物流調(diào)度、自動(dòng)駕駛、醫(yī)療等各領(lǐng)域,逐漸從單純優(yōu)化計(jì)算程序、輔助決策的數(shù)學(xué)工具成長(zhǎng)為對(duì)政治、經(jīng)濟(jì)、社會(huì)產(chǎn)生影響的重要力量。然而由于目標(biāo)失范、算法缺陷、信任危機(jī)等原因[2],算法應(yīng)用引發(fā)社會(huì)風(fēng)險(xiǎn)的頻次也不斷被推高,算法歧視、算法合謀、誘導(dǎo)沉迷等算法濫用行為層出不窮,對(duì)數(shù)字經(jīng)濟(jì)持續(xù)健康規(guī)范發(fā)展產(chǎn)生威脅,侵犯了個(gè)人權(quán)益、公共利益甚至進(jìn)一步危害國(guó)家安全,探索治理算法的有效理路與進(jìn)路成為數(shù)字經(jīng)濟(jì)發(fā)展題中應(yīng)有之義[3]。

理論界對(duì)算法治理制度現(xiàn)有的研究中,部分學(xué)者充分梳理了算法技術(shù)的發(fā)展歷程、技術(shù)特點(diǎn)與應(yīng)用場(chǎng)景,分析了算法技術(shù)帶來(lái)的風(fēng)險(xiǎn)挑戰(zhàn)以及目前規(guī)制的局限性。在算法治理路徑的構(gòu)建上,主要有以下兩種切入點(diǎn):一部分學(xué)者認(rèn)為算法技術(shù)與公權(quán)力和商業(yè)平臺(tái)結(jié)合[4],逐漸演化為算法權(quán)力,并參與了公權(quán)力的決策過(guò)程發(fā)揮重要作用,挑戰(zhàn)了人的主體地位,傳統(tǒng)的因果關(guān)系認(rèn)定邏輯鏈條被推翻,侵害了人的基本權(quán)利,因而指出在理念、制度與實(shí)踐上需要與算法權(quán)力的日益擴(kuò)大相協(xié)調(diào)以進(jìn)行規(guī)制[5],以現(xiàn)有《民法典》《網(wǎng)絡(luò)安全法》《電子商務(wù)法》等法律規(guī)定的算法權(quán)利去平衡算法權(quán)力的擴(kuò)張[6],或者通過(guò)技術(shù)改進(jìn)和社群約束兩條路徑來(lái)防范算法風(fēng)險(xiǎn)[7]。另一部分學(xué)者則從現(xiàn)有的算法治理體系中的具體制度入手,聚焦于算法公開(kāi)、個(gè)人數(shù)據(jù)賦權(quán)與反算法歧視三種傳統(tǒng)的規(guī)制方法的困境,提出應(yīng)當(dāng)在算法場(chǎng)景化規(guī)制原則的指引下重新構(gòu)建算法規(guī)制的具體制度,在不同的場(chǎng)景下采取嚴(yán)格程度不盡相同的規(guī)制方法[8]。但也有學(xué)者認(rèn)為,算法的嵌入性結(jié)構(gòu)擴(kuò)張導(dǎo)致了場(chǎng)景化規(guī)制效率較為低下[9];也有學(xué)者梳理了算法備案制度[10]、算法評(píng)估制度[11]和算法問(wèn)責(zé)制度[12]的制度架構(gòu)與實(shí)施建議。

然而,目前對(duì)算法治理的研究無(wú)論是從算法權(quán)力總體規(guī)制的視角還是算法治理具體制度構(gòu)建的視角來(lái)看,都沒(méi)有強(qiáng)調(diào)分類(lèi)分級(jí)原則在算法治理中的具體展開(kāi)路徑,故而無(wú)法找到制度上與理念中的合適抓手,綜合協(xié)調(diào)算法治理所蘊(yùn)含的價(jià)值平衡問(wèn)題。

近年來(lái),信息通信技術(shù)和數(shù)字技術(shù)的深度融合和廣泛應(yīng)用,使得數(shù)據(jù)和算法等問(wèn)題愈發(fā)引起關(guān)注,基于海量數(shù)據(jù)訓(xùn)練的人工智能算法實(shí)現(xiàn)了千人千面的用戶(hù)精準(zhǔn)畫(huà)像效果,由此也引發(fā)了分類(lèi)分級(jí)的治理理念、原則及方法被廣泛應(yīng)用于數(shù)字經(jīng)濟(jì)多個(gè)領(lǐng)域的事實(shí),且這一治理需求不斷得以實(shí)化和強(qiáng)化。譬如,《數(shù)據(jù)安全法》第二十一條建立了數(shù)據(jù)分類(lèi)分級(jí)保護(hù)制度,《個(gè)人信息保護(hù)法》第五十一條也提出對(duì)個(gè)人信息實(shí)行分類(lèi)管理,《互聯(lián)網(wǎng)平臺(tái)分類(lèi)分級(jí)指南(征求意見(jiàn)稿)》則針對(duì)互聯(lián)網(wǎng)平臺(tái)制訂了較為詳細(xì)的分類(lèi)分級(jí)標(biāo)準(zhǔn)以科學(xué)界定平臺(tái)類(lèi)別、合理劃分平臺(tái)等級(jí),《生成式人工智能服務(wù)管理暫行辦法》則規(guī)定了對(duì)人工智能服務(wù)實(shí)行包容審慎和分類(lèi)分級(jí)監(jiān)管的總原則。在算法領(lǐng)域,2021年出臺(tái)的《關(guān)于加強(qiáng)互聯(lián)網(wǎng)信息服務(wù)算法綜合治理的指導(dǎo)意見(jiàn)》(以下簡(jiǎn)稱(chēng)《算法綜合治理的指導(dǎo)意見(jiàn)》)也建立了算法分級(jí)分類(lèi)安全管理制度。歐盟在算法立法領(lǐng)域,從一開(kāi)始在《數(shù)字服務(wù)法》對(duì)具體的算法推薦進(jìn)行規(guī)范、在《數(shù)字市場(chǎng)法》賦予歐盟委員會(huì)對(duì)算法進(jìn)行現(xiàn)場(chǎng)檢查的調(diào)查權(quán)力等具體場(chǎng)景上的規(guī)定,轉(zhuǎn)向《人工智能法》(草案)中對(duì)于人工智能根據(jù)風(fēng)險(xiǎn)大小進(jìn)行分級(jí)管理??梢?jiàn),分類(lèi)分級(jí)對(duì)于數(shù)字經(jīng)濟(jì)治理中算法治理這一關(guān)鍵環(huán)節(jié)具有重要的現(xiàn)實(shí)意義,鑒于算法的自我學(xué)習(xí)的技術(shù)邏輯和算法應(yīng)用的多樣性、廣泛性、復(fù)雜性,需要在既有制度與研究的基礎(chǔ)上,在算法治理領(lǐng)域貫徹分類(lèi)分級(jí)原則,通過(guò)梳理算法分類(lèi)分級(jí)的內(nèi)涵與標(biāo)準(zhǔn),厘清算法治理基于分類(lèi)分級(jí)的價(jià)值與挑戰(zhàn),從而探索算法分類(lèi)分級(jí)治理的完善路徑。

二、算法分類(lèi)分級(jí)之內(nèi)涵與標(biāo)準(zhǔn)梳理

在算法綜合治理視閾下,分類(lèi)分級(jí)具有雙重意義:一方面,分類(lèi)分級(jí)是一種制度性工具,作為一種具體的制度設(shè)計(jì),通過(guò)算法分類(lèi)分級(jí)提升算法治理的可操作性,輔助算法備案、算法評(píng)估、算法審計(jì)等各項(xiàng)算法治理制度的具體構(gòu)建與實(shí)施。另一方面,分類(lèi)分級(jí)也是數(shù)字經(jīng)濟(jì)領(lǐng)域的一種監(jiān)管理念,對(duì)于數(shù)據(jù)、算法和平臺(tái)的治理在分類(lèi)分級(jí)理念的統(tǒng)領(lǐng)下具有一定的協(xié)調(diào)一致性,能夠體現(xiàn)科學(xué)監(jiān)管、高效規(guī)制、精準(zhǔn)治理的常態(tài)化監(jiān)管思路。通過(guò)對(duì)算法治理領(lǐng)域分類(lèi)分級(jí)含義與標(biāo)準(zhǔn)的梳理,有助于在常態(tài)化監(jiān)管的思路下進(jìn)行具體算法治理制度構(gòu)建與完善。

(一)風(fēng)險(xiǎn)規(guī)制導(dǎo)向的算法分級(jí)

目前,以風(fēng)險(xiǎn)為導(dǎo)向的分級(jí)思路在域內(nèi)外的立法與實(shí)踐中占據(jù)主流。

在我國(guó),《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(以下簡(jiǎn)稱(chēng)《算法推薦管理規(guī)定》)明確要求,根據(jù)算法推薦服務(wù)的輿論屬性或者社會(huì)動(dòng)員能力、內(nèi)容類(lèi)別、用戶(hù)規(guī)模、算法推薦技術(shù)處理的數(shù)據(jù)重要程度、對(duì)用戶(hù)行為的干預(yù)程度等對(duì)算法推薦服務(wù)提供者實(shí)施分類(lèi)分級(jí)管理。以上標(biāo)準(zhǔn)是對(duì)算法應(yīng)用的風(fēng)險(xiǎn)大小、范圍以及帶來(lái)的損害程度的具象化判斷標(biāo)準(zhǔn),是劃分算法風(fēng)險(xiǎn)等級(jí)的重要參考。除此之外,并無(wú)針對(duì)算法分級(jí)標(biāo)準(zhǔn)的具體規(guī)定。在數(shù)字經(jīng)濟(jì)的其他治理領(lǐng)域,對(duì)于分級(jí)標(biāo)準(zhǔn)也有所規(guī)定,在平臺(tái)治理中,《互聯(lián)網(wǎng)平臺(tái)分類(lèi)分級(jí)指南(征求意見(jiàn)稿)》綜合考慮用戶(hù)規(guī)模、業(yè)務(wù)種類(lèi)以及限制能力,將互聯(lián)網(wǎng)平臺(tái)分為超級(jí)平臺(tái)、大型平臺(tái)、中小平臺(tái)三級(jí);對(duì)于數(shù)據(jù)治理,《網(wǎng)絡(luò)安全標(biāo)準(zhǔn)實(shí)踐指南——網(wǎng)絡(luò)數(shù)據(jù)分類(lèi)分級(jí)指引》則根據(jù)《數(shù)據(jù)安全法》將數(shù)據(jù)一旦遭到篡改、破壞、泄露或者非法獲取、非法利用而造成的危害程度,將數(shù)據(jù)分為一版數(shù)據(jù)、重要數(shù)據(jù)、核心數(shù)據(jù)三個(gè)級(jí)別;人工智能領(lǐng)域,《生成式人工智能服務(wù)管理暫行辦法》第三條則確立了“對(duì)生成式人工智能服務(wù)實(shí)行包容審慎和分類(lèi)分級(jí)監(jiān)管”,延續(xù)了《數(shù)據(jù)安全法》《算法綜合治理的指導(dǎo)意見(jiàn)》中對(duì)于數(shù)據(jù)和算法的分類(lèi)分級(jí)管理理念,但并沒(méi)有做詳細(xì)規(guī)定。

域外,歐盟《人工智能法案》(草案)(The AI Act)將人工智能按照不可接受的風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、低風(fēng)險(xiǎn)、極低風(fēng)險(xiǎn)分為四級(jí)進(jìn)行分別規(guī)制;美國(guó)《算法問(wèn)責(zé)法》則將消費(fèi)者保護(hù)和規(guī)制算法歧視作為立法宗旨,要求大型算法平臺(tái)對(duì)自動(dòng)化決策給消費(fèi)者帶來(lái)的信息隱私和安全風(fēng)險(xiǎn)以及因種族、宗教、政治信仰或性別等方面的差異而造成的算法歧視與偏見(jiàn)進(jìn)行評(píng)估,并采取措施消除此類(lèi)風(fēng)險(xiǎn)和歧視,均以風(fēng)險(xiǎn)為分級(jí)的主要考量因素。

算法綜合治理之目標(biāo)即防范算法風(fēng)險(xiǎn)、促進(jìn)算法向善,算法分級(jí)從算法可能引發(fā)的風(fēng)險(xiǎn)入手,此視角下僅需將個(gè)人權(quán)益、公共利益與國(guó)家安全納入考慮范圍,劃分高風(fēng)險(xiǎn)、中風(fēng)險(xiǎn)和低風(fēng)險(xiǎn)算法,因而成為主流的分級(jí)思路與標(biāo)準(zhǔn)。具體而言,面對(duì)高風(fēng)險(xiǎn)算法需要提出更嚴(yán)格的監(jiān)管與規(guī)制需求,包括要求事項(xiàng)更為詳盡或更高頻次的事前備案、事中評(píng)估、事后解釋等環(huán)節(jié)。面對(duì)低風(fēng)險(xiǎn)的算法,其帶來(lái)的風(fēng)險(xiǎn)遠(yuǎn)小于利用算法進(jìn)行自動(dòng)化決策帶來(lái)的收益,因此可以考慮一般程度與頻次的備案、評(píng)估、解釋環(huán)節(jié)[13]。

(二)結(jié)合技術(shù)特征的算法分類(lèi)

在域內(nèi)外的法律實(shí)踐中,對(duì)算法分類(lèi)標(biāo)準(zhǔn)尚未形成較為統(tǒng)一的觀點(diǎn)。

我國(guó)2021年出臺(tái)的《算法推薦管理規(guī)定》則遵循《算法綜合治理的指導(dǎo)意見(jiàn)》,在世界范圍內(nèi)首次以法規(guī)形式對(duì)算法推薦技術(shù)進(jìn)行了具體類(lèi)別的劃分,將互聯(lián)網(wǎng)信息服務(wù)算法推薦技術(shù)按照其應(yīng)用特點(diǎn)分為生成合成類(lèi)、個(gè)性化推送類(lèi)、排序精選類(lèi)、檢索過(guò)濾類(lèi)、調(diào)度決策類(lèi)等五大類(lèi)。在其他治理領(lǐng)域,我國(guó)對(duì)分類(lèi)治理標(biāo)準(zhǔn)的制定也作出了部分探索,可供算法分類(lèi)參考:在數(shù)據(jù)分類(lèi)分級(jí)領(lǐng)域,《信息安全技術(shù)敏感個(gè)人信息處理安全要求》則將敏感個(gè)人信息分為宗教信仰信息、特定身份信息、醫(yī)療健康信息、金融賬戶(hù)信息、行蹤軌跡信息、不滿十四周歲未成年人信息等六種,在數(shù)據(jù)分級(jí)的基礎(chǔ)上對(duì)數(shù)據(jù)進(jìn)行進(jìn)一步分類(lèi),對(duì)與個(gè)人權(quán)益息息相關(guān)的信息進(jìn)行了較為全面的覆蓋;平臺(tái)分類(lèi)分級(jí)中,《互聯(lián)網(wǎng)平臺(tái)分類(lèi)分級(jí)指南(征求意見(jiàn)稿)》則按照平臺(tái)的連接屬性與主要功能將平臺(tái)分為網(wǎng)絡(luò)銷(xiāo)售類(lèi)、生活服務(wù)類(lèi)、社交娛樂(lè)類(lèi)、信息資訊類(lèi)、金融服務(wù)類(lèi)、計(jì)算應(yīng)用類(lèi)等平臺(tái),與平臺(tái)分級(jí)標(biāo)準(zhǔn)一起對(duì)互聯(lián)網(wǎng)平臺(tái)進(jìn)行了定位,有助于進(jìn)一步精準(zhǔn)地落實(shí)主體責(zé)任。

美國(guó)喬治城大學(xué)(Georgetown University)的安全與新興技術(shù)中心與經(jīng)合組織和美國(guó)國(guó)土安全部合作開(kāi)發(fā)了對(duì)人工智能的分類(lèi)框架[14],其中一個(gè)框架將人工智能按照使用場(chǎng)景、輸入、模型、輸出進(jìn)行分類(lèi),并規(guī)定了每個(gè)類(lèi)別的進(jìn)一步細(xì)分標(biāo)準(zhǔn)(見(jiàn)表1),具有較強(qiáng)的參考意義。

可見(jiàn),分類(lèi)分級(jí)原則可以從縱向與橫向兩個(gè)角度對(duì)算法進(jìn)行類(lèi)別與級(jí)別的區(qū)分,從而對(duì)算法進(jìn)行識(shí)別與定位,具備打破算法的單一治理框架與算法技術(shù)的復(fù)雜動(dòng)態(tài)性和算法應(yīng)用的多樣廣泛性之間的對(duì)立的可能,需進(jìn)一步證成分類(lèi)分級(jí)與算法技術(shù)的具體適配,確定其在算法治理中的核心地位與價(jià)值,以推動(dòng)其原則地位的確立與具體制度的展開(kāi)。

三、算法治理基于分類(lèi)分級(jí)的價(jià)值

無(wú)論是數(shù)字技術(shù)對(duì)經(jīng)濟(jì)社會(huì)發(fā)展的積極增進(jìn)功能,還是數(shù)字經(jīng)濟(jì)演化過(guò)程中引致的眾多社會(huì)問(wèn)題,其在底層邏輯上基本都依賴(lài)于算法予以實(shí)現(xiàn)[15]。故而,需要對(duì)算法的技術(shù)功能以及社會(huì)影響進(jìn)行探究,尋找其推動(dòng)技術(shù)進(jìn)步與引發(fā)社會(huì)問(wèn)題的根本所在,發(fā)掘分類(lèi)分級(jí)與算法技術(shù)與社會(huì)面向的契合點(diǎn),最大化分類(lèi)分級(jí)作為制度工具和治理理念的價(jià)值,實(shí)現(xiàn)治理的精準(zhǔn)化與敏捷化。

(一)分類(lèi)分級(jí)對(duì)算法進(jìn)行界定、識(shí)別與定位有助算法技術(shù)可信

依托算法的技術(shù)特征、應(yīng)用場(chǎng)景等因素的差異進(jìn)行分類(lèi),基于算法引發(fā)的風(fēng)險(xiǎn)大小進(jìn)行分級(jí),契合算法的技術(shù)功能與社會(huì)影響,這是分類(lèi)分級(jí)作為具體標(biāo)準(zhǔn)的制度性在算法治理體系構(gòu)建中的展開(kāi)(見(jiàn)圖1)。

在技術(shù)功能上,算法一方面可以按照人類(lèi)撰寫(xiě)的既定的數(shù)學(xué)邏輯發(fā)揮輔助決策功能;另一方面,隨著弱人工智能向強(qiáng)人工智能階段轉(zhuǎn)化,算法的自主學(xué)習(xí)能力提升,漸漸脫離純粹工具屬性,能夠在一定程度上于特定場(chǎng)景中進(jìn)行自動(dòng)化決策。而算法的此種技術(shù)功能實(shí)際上影響了算法的確定性、可解釋性與可控性,算法作為工具輔助決策和自主決策時(shí),數(shù)據(jù)的數(shù)量與顆粒度、算法迭代次數(shù)與算法隱層的數(shù)量、算法邏輯中設(shè)定的決策目標(biāo)等因素,都會(huì)影響最后的決策結(jié)果。當(dāng)決策結(jié)果對(duì)社會(huì)層面產(chǎn)生負(fù)面影響時(shí),算法則因其對(duì)決策過(guò)程的參與具有了間接的主體性[16],故當(dāng)前“技術(shù)中立”原則已經(jīng)無(wú)法成為規(guī)避責(zé)任的理由。

客觀而言,算法作為人工智能的運(yùn)行規(guī)則、數(shù)字技術(shù)的底層支撐、數(shù)字經(jīng)濟(jì)的強(qiáng)大動(dòng)力,其發(fā)展對(duì)于我國(guó)在第四次工業(yè)革命中占據(jù)世界技術(shù)和經(jīng)濟(jì)領(lǐng)先地位至關(guān)重要,但算法歧視、輿論操控、誘導(dǎo)沉迷等算法濫用行為引發(fā)的安全風(fēng)險(xiǎn)不容忽視,一旦風(fēng)險(xiǎn)發(fā)生,需要從技術(shù)層面對(duì)算法進(jìn)行精準(zhǔn)規(guī)制才能停止損害,同時(shí)避免技術(shù)上再次引發(fā)風(fēng)險(xiǎn)的可能。可見(jiàn),需要提高算法決策的公平度、透明度和可問(wèn)責(zé)性[17],然而不論是算法決策來(lái)源的數(shù)據(jù)集、運(yùn)行過(guò)程的設(shè)計(jì)架構(gòu),還是決策目標(biāo)的最終導(dǎo)向皆各有差異,借由分類(lèi)分級(jí)對(duì)算法以不同維度進(jìn)行界定、識(shí)別與定位,能為算法治理可操作性的提升邁出第一步,以便針對(duì)不同類(lèi)、不同級(jí)的算法設(shè)定因應(yīng)的治理路徑。

然而,只將分類(lèi)分級(jí)作為制度工具從技術(shù)層面去規(guī)制算法技術(shù),不僅意味著對(duì)分類(lèi)分級(jí)治理理念意義的忽略,還意味著對(duì)算法逐漸脫離“技術(shù)中立”性的否認(rèn)。實(shí)際上,隨著算法應(yīng)用場(chǎng)景、業(yè)務(wù)、業(yè)態(tài)的不斷豐富,與算法產(chǎn)生互動(dòng)的主體也更加多元化,包括算法研發(fā)人員,還包括自行訓(xùn)練算法模型的用戶(hù)、使用算法進(jìn)行公共管理的政府部門(mén)、部署和應(yīng)用算法的平臺(tái)等,算法研發(fā)者與用戶(hù)、算法應(yīng)用者與用戶(hù)、行政機(jī)關(guān)、其他經(jīng)營(yíng)者之間的各種社會(huì)關(guān)系也隨之產(chǎn)生,算法已經(jīng)深度嵌入社會(huì)運(yùn)行中?!缎乱淮斯ぶ悄苤卫碓瓌t——發(fā)展負(fù)責(zé)任的人工智能》中提出人工智能發(fā)展應(yīng)促進(jìn)公平公正,保障利益相關(guān)者的權(quán)益,促進(jìn)機(jī)會(huì)均等,通過(guò)持續(xù)提高技術(shù)水平、改善管理方式,在數(shù)據(jù)獲取、算法設(shè)計(jì)、技術(shù)開(kāi)發(fā)、產(chǎn)品研發(fā)和應(yīng)用過(guò)程中消除偏見(jiàn)和歧視。因此,除了對(duì)客觀制度進(jìn)行設(shè)計(jì)與完善,同樣需要以分類(lèi)分級(jí)理念平衡算法內(nèi)含的價(jià)值觀念與倫理導(dǎo)向。

(二)分類(lèi)分級(jí)對(duì)算法進(jìn)行規(guī)制有助于精準(zhǔn)防范分散的算法社會(huì)風(fēng)險(xiǎn)

從社會(huì)層面來(lái)看,算法從設(shè)計(jì)到應(yīng)用的過(guò)程都帶有“人的色彩”:在設(shè)計(jì)研發(fā)階段,算法就嵌入了設(shè)計(jì)開(kāi)發(fā)者的主觀意圖與價(jià)值理念,帶有某種工具用途與目標(biāo)設(shè)定;在應(yīng)用階段,算法應(yīng)用的場(chǎng)景、業(yè)務(wù)與業(yè)態(tài)紛繁多樣,既有自動(dòng)駕駛、智能醫(yī)療等商業(yè)場(chǎng)景和智慧司法、智慧公安等公權(quán)力領(lǐng)域,也被用于開(kāi)展譬如運(yùn)輸業(yè)中的出租車(chē)、順風(fēng)車(chē)、代駕和貨運(yùn)等多項(xiàng)業(yè)務(wù),同時(shí)還在新業(yè)態(tài)中逐步成為影響內(nèi)容分發(fā)、服務(wù)提供、資源配置的基礎(chǔ)性力量[18],譬如在靈活用工綜合服務(wù)新業(yè)態(tài)中被用于匹配靈活用工供需、自動(dòng)化管理勞務(wù)提供者等環(huán)節(jié)[19]。應(yīng)用算法的平臺(tái)、企業(yè)、機(jī)構(gòu)還會(huì)將不同的算法組合應(yīng)用,動(dòng)態(tài)調(diào)整相應(yīng)的算法應(yīng)用權(quán)重,以滿足不同場(chǎng)景、業(yè)務(wù)和業(yè)態(tài)下的應(yīng)用需求[20],例如電商平臺(tái)以實(shí)現(xiàn)營(yíng)利優(yōu)先為目標(biāo)去設(shè)計(jì)算法,算法通過(guò)“協(xié)同過(guò)濾”算法分析用戶(hù)數(shù)據(jù)進(jìn)行用戶(hù)畫(huà)像后,利用推薦算法推送用戶(hù)感興趣的產(chǎn)品,并提升對(duì)平臺(tái)具有一定粘度的老用戶(hù)的商品價(jià)格,實(shí)現(xiàn)“大數(shù)據(jù)殺熟”。

主觀而言,算法工具理性指“實(shí)現(xiàn)自身的理性追求和特定目標(biāo)”的手段、方式,不僅包含算法以目標(biāo)為導(dǎo)向的自主學(xué)習(xí)結(jié)果,也包括人類(lèi)在設(shè)計(jì)、應(yīng)用算法時(shí)對(duì)其作為工具所能達(dá)成目標(biāo)的期待;價(jià)值理性則是“包含在特定行為方式中的無(wú)條件的內(nèi)在價(jià)值”與正當(dāng)性標(biāo)準(zhǔn),即人類(lèi)社會(huì)普遍的道德與價(jià)值理念,當(dāng)算法追求工具理性超越價(jià)值理性,可能會(huì)將某些重要的道德價(jià)值予以剔除[21],就會(huì)出現(xiàn)算法失當(dāng)行為。故判斷算法在主觀層面的工具理性與價(jià)值理性比重,確保工具理性與價(jià)值理性的平衡,就需要對(duì)算法涉及的價(jià)值進(jìn)行相應(yīng)區(qū)分。分類(lèi)分級(jí)的過(guò)程中,往往需要根據(jù)算法應(yīng)用場(chǎng)景、算法應(yīng)用人群等多重因素來(lái)衡量算法可能引發(fā)的風(fēng)險(xiǎn)大小,實(shí)際上也是將算法的工具性用途和現(xiàn)實(shí)場(chǎng)景應(yīng)用結(jié)合起來(lái)進(jìn)行評(píng)價(jià),如若算法的工具理性超越了價(jià)值理性,則更傾向于在分類(lèi)分級(jí)的體系中被判定為高風(fēng)險(xiǎn)算法。故在主觀層面,分類(lèi)分級(jí)一方面能夠嚴(yán)禁違反法律法規(guī)或倫理道德的算法應(yīng)用,另一方面利于加強(qiáng)對(duì)高風(fēng)險(xiǎn)算法的監(jiān)管力度,引導(dǎo)算法向善,確保算法應(yīng)用行為的安全可控。

涉及社會(huì)關(guān)系主體的多元、應(yīng)用場(chǎng)景業(yè)態(tài)的多樣、對(duì)社會(huì)價(jià)值觀念的無(wú)差別吸收都表明,對(duì)算法的治理既無(wú)法依賴(lài)一個(gè)普適性的治理規(guī)則,更無(wú)法期待對(duì)每種算法進(jìn)行單獨(dú)規(guī)制,尤其是當(dāng)數(shù)據(jù)流通共享機(jī)制和復(fù)雜的算法生態(tài)形成后,缺乏差異性和系統(tǒng)性的治理將愈發(fā)捉襟見(jiàn)肘[9]。分類(lèi)分級(jí)具有納入多元主體、多樣場(chǎng)景、多種觀念的包容度,既能從宏觀上開(kāi)展分類(lèi)分級(jí)標(biāo)準(zhǔn)的制定,回應(yīng)算法治理針對(duì)的不同算法風(fēng)險(xiǎn),提供系統(tǒng)治理的切入點(diǎn),也能從微觀上根據(jù)不同領(lǐng)域的治理需求進(jìn)行分類(lèi)分級(jí)標(biāo)準(zhǔn)的調(diào)整,提升治理效能。

四、算法分類(lèi)分級(jí)治理面臨的挑戰(zhàn)

相比數(shù)據(jù)治理領(lǐng)域中數(shù)據(jù)分類(lèi)分級(jí)標(biāo)準(zhǔn)的出臺(tái)、基于分類(lèi)分級(jí)的數(shù)據(jù)出境配套制度的明確規(guī)定等,在算法治理領(lǐng)域,分類(lèi)分級(jí)治理更多停留于規(guī)定中。原因在于算法應(yīng)用與社會(huì)聯(lián)結(jié)更加直接與緊密,實(shí)施分類(lèi)分級(jí)具有更大的難度,算法應(yīng)用中個(gè)人權(quán)益保障不足、算法共謀難以認(rèn)定、算法解釋限度難以把握都成為了分類(lèi)分級(jí)治理需要面臨的現(xiàn)實(shí)挑戰(zhàn)。

(一)算法用戶(hù)個(gè)人權(quán)益保障不足

2022年中共中央辦公廳、國(guó)務(wù)院辦公廳印發(fā)《關(guān)于加強(qiáng)科技倫理治理的意見(jiàn)》,明確了科技倫理原則,其中首要的兩點(diǎn)是增進(jìn)人類(lèi)福祉與尊重生命權(quán)利。這說(shuō)明“以人為本”“以人民為中心”“以用戶(hù)為中心”應(yīng)當(dāng)成為算法分類(lèi)分級(jí)治理的首要關(guān)切點(diǎn)。面對(duì)人工智能算法作為生產(chǎn)工具提高社會(huì)生產(chǎn)率的同時(shí),算法也對(duì)人的主體地位產(chǎn)生了威脅,一定程度上降低了人在社會(huì)生活中的重要性,例如生成式人工智能算法可以生成比人類(lèi)創(chuàng)作更加符合多樣化需求、繪畫(huà)技巧與色彩搭配更加成熟的作品,引發(fā)人類(lèi)插畫(huà)師、設(shè)計(jì)師被取代的擔(dān)憂,而勞動(dòng)是實(shí)現(xiàn)個(gè)人意義與價(jià)值、獲取物質(zhì)財(cái)富的重要途徑,可見(jiàn)“以人為本”具有必要性。同時(shí),隨著目前人工智能與算法學(xué)習(xí)能力的提升,算法濫用事件也層出不窮,而法律本就存在的滯后性在面臨飛速迭代的算法時(shí)更為顯著。例如,目前有較多與民生領(lǐng)域息息相關(guān)的業(yè)務(wù)都引入了人臉識(shí)別技術(shù),與此同時(shí),也出現(xiàn)了“94歲老人被抬進(jìn)銀行進(jìn)行人臉識(shí)別”“廣西十多名業(yè)主刷臉買(mǎi)房被騙超千萬(wàn)”等極端事件[22],發(fā)展福祉本該惠及全體人民,而“數(shù)字弱勢(shì)群體”的情況不容忽視,可見(jiàn)“以人為本”具有現(xiàn)實(shí)性。

美國(guó)次級(jí)制裁措施中有很多是針對(duì)向受制裁者名單上所列伊朗主體(包括伊朗國(guó)家石油公司及其分支機(jī)構(gòu))提供的某些支持。

目前出臺(tái)的部分規(guī)范性文件已經(jīng)向構(gòu)建和實(shí)施以用戶(hù)為中心的算法治理規(guī)則體系作出了有益嘗試?!端惴ㄍ扑]管理規(guī)定》就提升了對(duì)消費(fèi)者用戶(hù)在算法推薦使用場(chǎng)景中的保護(hù)力度,力圖避免因“信息繭房”對(duì)消費(fèi)者特別是弱勢(shì)群體的權(quán)益造成侵害?!秱€(gè)人信息保護(hù)法》則規(guī)定了個(gè)人信息處理者利用個(gè)人信息進(jìn)行自動(dòng)化決策時(shí)應(yīng)當(dāng)遵守的規(guī)定。然而總體而言,算法治理體系對(duì)算法用戶(hù)的個(gè)人權(quán)益保障仍然存在不足:首先,《算法推薦管理規(guī)定》《算法綜合治理的指導(dǎo)意見(jiàn)》等專(zhuān)門(mén)針對(duì)算法的規(guī)定都為部門(mén)規(guī)章,立法層級(jí)較低,缺乏涵蓋法律、行政法規(guī)和部門(mén)規(guī)章的系統(tǒng)化立法實(shí)踐[23];其次,算法相關(guān)規(guī)定的應(yīng)用性強(qiáng),多針對(duì)特定領(lǐng)域、特定違法行為進(jìn)行規(guī)制[24],個(gè)人信息保護(hù)、消費(fèi)者權(quán)益保護(hù)和靈活用工權(quán)益等多樣化的權(quán)利難以被有效覆蓋;其次,算法領(lǐng)域除了專(zhuān)項(xiàng)立法,相關(guān)規(guī)定散見(jiàn)于《個(gè)人信息保護(hù)法》《數(shù)據(jù)安全法》等法律法規(guī)中,規(guī)定之間存在銜接不暢的問(wèn)題,例如《個(gè)人信息保護(hù)法》第五十四條規(guī)定“個(gè)人信息處理者應(yīng)當(dāng)定期對(duì)其處理個(gè)人信息遵守法律、行政法規(guī)的情況進(jìn)行合規(guī)審計(jì)”,實(shí)際上建立了算法審計(jì)制度,但算法專(zhuān)門(mén)立法領(lǐng)域并無(wú)有關(guān)算法審計(jì)的規(guī)定。

(二)算法自主共謀加劇歸責(zé)不能

隨著算法技術(shù)發(fā)展,其嵌入社會(huì)程度愈深,互動(dòng)主體愈多,新型法律關(guān)系層出不窮,但不同權(quán)力、義務(wù)和權(quán)利在主體、內(nèi)容和范圍上的劃分并未及時(shí)得到法律確認(rèn),法律關(guān)系界定存在滯后[23]。算法領(lǐng)域中尤其突出的則是算法共謀問(wèn)題,在反壟斷法中,其他協(xié)同行為是一類(lèi)難以識(shí)別和認(rèn)定的壟斷協(xié)議類(lèi)型,是經(jīng)營(yíng)者通過(guò)默示、默契或者心照不宣等不易為公眾所察覺(jué)的方式達(dá)成協(xié)調(diào)價(jià)格、限制生產(chǎn)數(shù)量或銷(xiāo)售數(shù)量等協(xié)調(diào)行為,具有較強(qiáng)的隱蔽性和行為認(rèn)定難的特點(diǎn)[25]。算法共謀則是經(jīng)營(yíng)者利用算法在數(shù)據(jù)收集、信息傳遞以及自動(dòng)化決策等方面的優(yōu)點(diǎn),以比傳統(tǒng)協(xié)同行為更加隱蔽的方式達(dá)成并實(shí)施的壟斷協(xié)議,算法自主共謀的出現(xiàn)更是加深加劇了算法歸責(zé)不能的困境。

首先,算法共謀的參與主體眾多,并非每一參與主體都能夠成為責(zé)任承擔(dān)對(duì)象。算法從研發(fā)到應(yīng)用,涉及的主體包括算法開(kāi)發(fā)者、算法使用者、算法消費(fèi)者,隨著算法自主學(xué)習(xí)能力的增強(qiáng),其在投入應(yīng)用后不斷收到的數(shù)據(jù)與反饋將對(duì)算法決策產(chǎn)生重要的影響,因此難以準(zhǔn)確認(rèn)定算法壟斷行為具體受到哪一主體影響。同時(shí),經(jīng)營(yíng)者在算法共謀的參與主體中具有多重角色:其一,具有雄厚實(shí)力的大型科技平臺(tái)可以自主開(kāi)發(fā)算法,利用算法為用戶(hù)提供服務(wù)的同時(shí)通過(guò)算法開(kāi)展價(jià)格行為,由于算法研發(fā)到應(yīng)用都在經(jīng)營(yíng)者的控制之下,因此對(duì)于此種算法達(dá)成的共謀經(jīng)營(yíng)者的參與的可能性更高;其二,普通的經(jīng)營(yíng)者沒(méi)有能力研發(fā)算法,對(duì)算法也不具有控制力和支配力,而是作為算法消費(fèi)者去購(gòu)買(mǎi)、使用或接受算法服務(wù)。因此,在人工智能算法技術(shù)廣泛適用的情景下,所有參與其中的主體,無(wú)論是開(kāi)發(fā)者、使用者抑或消費(fèi)者,其身份和作用的界限只是相對(duì)的,是一個(gè)動(dòng)態(tài)變化的過(guò)程,難以進(jìn)行確定的責(zé)任劃分。

其次,算法自主性增加對(duì)“人”的主體性構(gòu)成了挑戰(zhàn)。由于算法具有對(duì)市場(chǎng)信息自主判斷以及不斷完善的深度學(xué)習(xí)能力,因此在決策過(guò)程中可以不依賴(lài)人的溝通與互動(dòng)即可達(dá)成共謀,而且由于“算法黑箱”的存在,開(kāi)發(fā)者也無(wú)法對(duì)算法決策的過(guò)程和結(jié)果進(jìn)行完全解釋,使算法隔絕了壟斷協(xié)議主體認(rèn)定的鏈條。當(dāng)人把決策權(quán)委托給算法,由運(yùn)用算法的計(jì)算機(jī)而不是人作出共謀行為時(shí),反壟斷責(zé)任歸咎會(huì)處于兩難境地。雖然具有人工智能的算法可以自我學(xué)習(xí),具有一定的智能,但將具有人工智能的算法視為人并不符合當(dāng)前的科技倫理。與此同時(shí),由于人工智能的算法決策目標(biāo)為人類(lèi)所設(shè)計(jì),其本身不存在目的,相應(yīng)的知識(shí)庫(kù)數(shù)據(jù)也是由人類(lèi)輸入,也明顯區(qū)別于具有獨(dú)立意志法律擬制的法人,難以將其作為擬制的人享有法律主體地位。

(三)算法解釋限度難以確認(rèn)

在實(shí)踐中,許多算法研發(fā)者、使用者都對(duì)算法采取認(rèn)定為商業(yè)秘密的保護(hù)模式,引發(fā)了對(duì)于算法解釋限度確認(rèn)的難題。2023年4月,廣東高院發(fā)布了第一批數(shù)字經(jīng)濟(jì)知識(shí)產(chǎn)權(quán)保護(hù)典型案例,其中在“智搜公司訴光速蝸牛公司等侵犯商業(yè)秘密糾紛案”一案中,法院首次將算法認(rèn)定為商業(yè)秘密進(jìn)行保護(hù)[26]。然而面對(duì)《個(gè)人信息保護(hù)法》規(guī)定的“個(gè)人有權(quán)要求個(gè)人信息處理者對(duì)其個(gè)人信息處理規(guī)則進(jìn)行解釋說(shuō)明”“通過(guò)自動(dòng)化決策方式作出對(duì)個(gè)人權(quán)益有重大影響的決定,個(gè)人有權(quán)要求個(gè)人信息處理者予以說(shuō)明”、《算法綜合治理指導(dǎo)意見(jiàn)》中規(guī)定的“督促企業(yè)……做好算法結(jié)果解釋”、《算法推薦管理規(guī)定》規(guī)定的“鼓勵(lì)算法推薦服務(wù)提供者……優(yōu)化檢索、排序、選擇、推送、展示等規(guī)則的透明度和可解釋性”,可以看出算法解釋與算法創(chuàng)新保護(hù)之間存在著明顯的張力,一方面,算法需要達(dá)到具有可解釋性與一定的透明度才能夠達(dá)成算法可信;另一方面,過(guò)于透明的算法可能會(huì)阻礙算法創(chuàng)新,導(dǎo)致實(shí)踐中的算法解釋限度難以把握。

解釋規(guī)則含糊不清?,F(xiàn)有的法律法規(guī)并沒(méi)有對(duì)算法的透明度與可解釋性進(jìn)行明確的界定,《算法綜合治理指導(dǎo)意見(jiàn)》與《算法推薦管理規(guī)定》僅規(guī)定了解釋的主體為企業(yè)和算法推薦服務(wù)提供者,并不具備實(shí)際的可操作性。而《個(gè)人信息保護(hù)法》賦予了個(gè)人對(duì)于算法解釋的請(qǐng)求權(quán),啟動(dòng)條件僅僅基于用戶(hù)自身的判斷,存在增加個(gè)人信息處理者的解釋負(fù)擔(dān)的可能,但同樣,對(duì)于如何“說(shuō)明”同樣沒(méi)有作出明確規(guī)定,個(gè)人信息處理者選擇解釋方式上也具有一定自由。規(guī)則的含糊不清留予了實(shí)踐較大的空間,基于康德主義的“告知同意”原則逐漸成為數(shù)據(jù)主體和數(shù)據(jù)處理者的基礎(chǔ)關(guān)系[27],在《個(gè)人信息保護(hù)法》實(shí)施的幾年來(lái),確實(shí)發(fā)展出了多種針對(duì)個(gè)人信息處理規(guī)則的“告知同意”模式,隨之而來(lái)的是必定有部分模式無(wú)法達(dá)到立法所期待的效果,解釋權(quán)成為了停留在紙面上的權(quán)利,當(dāng)數(shù)字平臺(tái)不斷發(fā)展,《個(gè)人信息保護(hù)法》的規(guī)定可能需要依據(jù)實(shí)踐情況向更具有可操作性調(diào)整。

解釋能力與意愿不足。生成式人工智能的快速崛起使得人工智能大模型的應(yīng)用逐漸廣泛,大模型所需的數(shù)據(jù)樣本與算法迭代次數(shù)都呈現(xiàn)爆炸式增長(zhǎng),大模型的開(kāi)發(fā)與構(gòu)建往往涉及多個(gè)研發(fā)部門(mén)與人員,很少有人能夠完整地解釋算法的所有細(xì)節(jié)。因此,囿于算法隱層的增多、算法研發(fā)過(guò)程的復(fù)雜、算法自主學(xué)習(xí)能力的增強(qiáng),從技術(shù)層面來(lái)說(shuō)將很難對(duì)算法進(jìn)行解釋。同時(shí),當(dāng)涉及前述案例中將算法作為商業(yè)秘密進(jìn)行保護(hù)的情況時(shí),要求算法透明公開(kāi)可解釋顯然會(huì)在一定程度上損害權(quán)利人的知識(shí)產(chǎn)權(quán),面臨算法解釋與知識(shí)產(chǎn)權(quán)保護(hù)的難題。

五、算法分類(lèi)分級(jí)治理的建議

(一)以算法審計(jì)為切入點(diǎn)完善個(gè)人權(quán)益保護(hù)機(jī)制

前文已述,算法分類(lèi)分級(jí)治理需要將以人為本作為首要關(guān)切點(diǎn)。有學(xué)者提出,算法權(quán)利是指?jìng)€(gè)體享有的,用于知曉、參與或改變、拒絕算法自動(dòng)化決策的權(quán)利,目的是確保個(gè)體利益不受到算法自動(dòng)化決策的侵害,以及受到侵害后能夠獲得救濟(jì)[28]。針對(duì)我國(guó)在立法層面對(duì)算法用戶(hù)個(gè)人權(quán)益保障不足的情況,需要以合適的制度作為切入點(diǎn),保障用戶(hù)個(gè)人的知情權(quán)、參與權(quán)、救濟(jì)權(quán),同時(shí)具備統(tǒng)領(lǐng)算法領(lǐng)域其他規(guī)定的效力。由《個(gè)人信息保護(hù)法》建立起來(lái)的算法審計(jì)制度則從功能上與法律層級(jí)上具備此種可能性,依據(jù)《個(gè)人信息保護(hù)法》第五十四條和第六十四條,算法審計(jì)既包括算法研發(fā)與應(yīng)用者開(kāi)展的內(nèi)部審計(jì),也包括監(jiān)管部門(mén)要求算法研發(fā)應(yīng)用者委托專(zhuān)業(yè)機(jī)構(gòu)開(kāi)展的外部審計(jì),在實(shí)踐中需要注意區(qū)分。

第一,厘清算法審計(jì)與算法評(píng)估,分類(lèi)分級(jí)設(shè)定審計(jì)頻次。算法評(píng)估與算法審計(jì)制度都是對(duì)算法按照特定標(biāo)準(zhǔn)進(jìn)行評(píng)價(jià)的制度工具,但二者的性質(zhì)與定位存在明顯的不同?!端惴ňC合治理的指導(dǎo)意見(jiàn)》和《算法推薦管理規(guī)定》中針對(duì)互聯(lián)網(wǎng)服務(wù)算法的評(píng)估,要求深入分析算法機(jī)制機(jī)理,評(píng)估算法設(shè)計(jì)、部署和使用等應(yīng)用環(huán)節(jié)的缺陷和漏洞,研判算法應(yīng)用產(chǎn)生的意識(shí)形態(tài)、社會(huì)公平、道德倫理等安全風(fēng)險(xiǎn),可見(jiàn)算法評(píng)估是作為具有一定風(fēng)險(xiǎn)等級(jí)的算法投入使用的前提條件和事中實(shí)現(xiàn)動(dòng)態(tài)監(jiān)管的依據(jù)。而算法內(nèi)部審計(jì)則重在事中環(huán)節(jié),外部審計(jì)重在已經(jīng)存在的風(fēng)險(xiǎn)或已經(jīng)發(fā)生的安全事件的事后環(huán)節(jié),將會(huì)作為強(qiáng)制性的監(jiān)管手段產(chǎn)生確定的、權(quán)威的審計(jì)結(jié)果。因此,對(duì)于內(nèi)部和外部審計(jì)來(lái)說(shuō),應(yīng)當(dāng)同樣引入算法分類(lèi)分級(jí)機(jī)制,對(duì)于低風(fēng)險(xiǎn)的算法,可以只設(shè)置非強(qiáng)制性的事前算法評(píng)估與備案,不進(jìn)行算法審計(jì),給予平臺(tái)創(chuàng)新與自治的空間;對(duì)于中風(fēng)險(xiǎn)算法可以采取低頻次的內(nèi)部審計(jì),保存審計(jì)底稿日志等信息,有必要時(shí)對(duì)外公布審計(jì)報(bào)告[29],發(fā)生個(gè)人信息安全事件時(shí)則觸發(fā)外部審計(jì);對(duì)于高風(fēng)險(xiǎn)算法,需要進(jìn)行高頻次的內(nèi)部審計(jì),即使未發(fā)生個(gè)人信息安全事件也需定期開(kāi)展外部審計(jì)。

第二,保障個(gè)人在算法審計(jì)中的參與度,健全個(gè)人算法權(quán)益救濟(jì)機(jī)制。依照《個(gè)人信息保護(hù)法》的規(guī)定,外部審計(jì)只能由主管機(jī)構(gòu)對(duì)于明顯可能造成較大風(fēng)險(xiǎn)或已經(jīng)產(chǎn)生算法安全事件的算法依職權(quán)啟動(dòng),個(gè)人對(duì)違法的個(gè)人信息處理活動(dòng)僅有可能通過(guò)向履行個(gè)人信息保護(hù)職責(zé)的部門(mén)進(jìn)行投訴與舉報(bào)以間接推動(dòng)算法審計(jì)的啟動(dòng)。因此,應(yīng)當(dāng)提高個(gè)人在算法審計(jì)制度中的參與度,建立起用戶(hù)個(gè)人實(shí)質(zhì)性參與算法審計(jì)制度的直接渠道,依據(jù)分類(lèi)分級(jí)原則,對(duì)于嚴(yán)重侵害個(gè)人敏感信息的算法,受到算法侵害的個(gè)人或個(gè)人委托的社會(huì)團(tuán)體或組織可依申請(qǐng)啟動(dòng)算法審計(jì),保障用戶(hù)的參與權(quán),拓寬其救濟(jì)渠道。同時(shí),外部算法審計(jì)的結(jié)果具有權(quán)威性,能夠較為客觀地體現(xiàn)算法的合規(guī)情況,應(yīng)當(dāng)為個(gè)人設(shè)置一定的算法審計(jì)結(jié)果公開(kāi)渠道與公開(kāi)范圍,個(gè)人權(quán)益受到侵害時(shí),審計(jì)留存的日志數(shù)據(jù)可以作為個(gè)人救濟(jì)維權(quán)的證據(jù)。

以上制度的構(gòu)建,建議作為《個(gè)人信息保護(hù)法》的修訂內(nèi)容,從法律層級(jí)以相對(duì)成熟的概念理論體系以及實(shí)踐制度的設(shè)置對(duì)算法審計(jì)制度予以確定[23],從而保障算法審計(jì)對(duì)個(gè)人知曉、參與或改變、拒絕算法自動(dòng)化決策的權(quán)利的保障在算法治理全領(lǐng)域都能得到遵循,成為覆蓋算法應(yīng)用事前、事中、事后對(duì)用戶(hù)權(quán)益全方位全周期保障的治理基礎(chǔ)。

(二)以分類(lèi)分級(jí)原則固定算法問(wèn)責(zé)點(diǎn)

雖然目前的算法自主性大大提高,但其自主仍然是有限的自主,此時(shí)將算法作為責(zé)任承擔(dān)主體還不具備可操作性。但是隨著算法的飛速發(fā)展,此問(wèn)題在研究層面仍不可忽視,亟待通過(guò)算法分類(lèi)分級(jí)原則固定問(wèn)責(zé)點(diǎn),為實(shí)施算法共謀應(yīng)當(dāng)承擔(dān)的法律責(zé)任的劃分提供依據(jù)。

第一,在算法分類(lèi)的基礎(chǔ)上擴(kuò)展達(dá)成壟斷協(xié)議的主體范圍。對(duì)處于由弱人工智能向強(qiáng)人工智能過(guò)渡階段的算法而言,其自主性有所提高但并未形成完全獨(dú)立的自主,此時(shí)可以根據(jù)算法在決策過(guò)程中的自主權(quán)程度的高低分為兩種情況:其一,算法作為輔助手段的共謀,2022年新修訂的《反壟斷法》已經(jīng)將其明確為經(jīng)營(yíng)者達(dá)成共謀的一種手段,此種情況下將達(dá)成壟斷協(xié)議的主體認(rèn)定為經(jīng)營(yíng)者并無(wú)爭(zhēng)議;其二,算法可以進(jìn)行自主決策的共謀[30],此種情況下,經(jīng)營(yíng)者對(duì)于算法的解釋力和控制力明顯下降,對(duì)于決策的參與度也有所降低,此時(shí)仍將經(jīng)營(yíng)者作為達(dá)成共謀的主體顯然不能應(yīng)對(duì)實(shí)踐中出現(xiàn)的新情況,但將并非完全具有自主性的算法作為主體則會(huì)引發(fā)“技術(shù)中立”的爭(zhēng)議。對(duì)此情況,應(yīng)適當(dāng)引入算法設(shè)計(jì)者與使用者到達(dá)成共謀的主體范圍內(nèi)。具體而言,需要引入算法分類(lèi)制度,從算法的輸入階段的數(shù)據(jù)收集、處理階段經(jīng)驗(yàn)的來(lái)源、輸出階段的自主性對(duì)算法進(jìn)行分類(lèi):(1)數(shù)據(jù)為人工收集、處理經(jīng)驗(yàn)來(lái)自數(shù)據(jù)、自主性較低的算法,則可以認(rèn)定算法的研發(fā)設(shè)計(jì)者并未在算法中嵌入了自身的某種主觀意圖或價(jià)值偏見(jiàn),即對(duì)算法決策并未產(chǎn)生影響,此時(shí)算法設(shè)計(jì)與研發(fā)者并不在達(dá)成壟斷協(xié)議的主體范圍與問(wèn)責(zé)范圍內(nèi),由算法服務(wù)使用者承擔(dān)責(zé)任;(2)數(shù)據(jù)為自動(dòng)收集、處理經(jīng)驗(yàn)來(lái)自系統(tǒng)經(jīng)驗(yàn)、自主性較高的算法,則需要考察算法設(shè)計(jì)研發(fā)者是否在算法中嵌入了自身的某種主觀意圖或價(jià)值偏見(jiàn):(a)存在主觀意圖與偏見(jiàn)的嵌入,則應(yīng)將算法設(shè)計(jì)研發(fā)者認(rèn)定為共謀主體之一;(b)不存在主觀意圖與偏見(jiàn)的嵌入,而因?yàn)楹罄m(xù)的算法應(yīng)用與自主學(xué)習(xí)以及商業(yè)環(huán)境的變化導(dǎo)致共謀行為出現(xiàn),設(shè)計(jì)研發(fā)者若明知共謀行為出現(xiàn)而不采取措施進(jìn)行補(bǔ)救,也可以將其認(rèn)定為共謀主體。

第二,在算法分級(jí)的基礎(chǔ)上明確對(duì)算法共謀信息交流的認(rèn)定?!督箟艛鄥f(xié)議規(guī)定》第六條指出,認(rèn)定其他協(xié)同行為需要考慮經(jīng)營(yíng)者之間是否進(jìn)行過(guò)意思聯(lián)絡(luò)或信息交流。在算法的介入下,經(jīng)營(yíng)者達(dá)成共謀的意思聯(lián)絡(luò)形式也發(fā)生變化,不再需要主動(dòng)的協(xié)商溝通,而是通過(guò)隱蔽的信息傳遞與交流或算法的自主決策就可以達(dá)成,因此需要借助算法分級(jí)明確信息交流構(gòu)成共謀合意的可能性。具體而言,需要根據(jù)算法在市場(chǎng)中收集或傳遞的信息能夠降低有效競(jìng)爭(zhēng)的程度對(duì)算法進(jìn)行分級(jí),算法在公開(kāi)渠道中給予歷史信息和公開(kāi)信息進(jìn)行主觀預(yù)測(cè)是正常的商業(yè)行為,然而如果算法有意收集或公布屬于經(jīng)營(yíng)者敏感信息的價(jià)格、折扣策略、招投標(biāo)方案、銷(xiāo)售條件、利潤(rùn)率等信息,則很有可能存在排除、限制競(jìng)爭(zhēng)的目的,應(yīng)當(dāng)對(duì)此類(lèi)算法劃分更高的風(fēng)險(xiǎn)等級(jí),進(jìn)行更加嚴(yán)格的監(jiān)測(cè),為確定共謀主體和共謀行為提供更多的問(wèn)責(zé)依據(jù)。

(三)以分類(lèi)分級(jí)原則構(gòu)建不同層次的算法解釋制度

算法解釋制度的根本意義在于提升公眾對(duì)于算法的信任程度,同時(shí)形成對(duì)利用算法進(jìn)行決策、提供服務(wù)者的合規(guī)向善的監(jiān)督。因此,對(duì)于算法透明度的一味追求和算法創(chuàng)新的絕對(duì)提倡并不可取,應(yīng)當(dāng)經(jīng)由算法分類(lèi)分級(jí)構(gòu)建不同層次的算法解釋制度,以期實(shí)現(xiàn)算法可信的本質(zhì)目標(biāo)。

算法解釋權(quán)不應(yīng)被視為一種內(nèi)容邊界完全清晰的權(quán)利,其實(shí)體性邊界應(yīng)該根據(jù)具體場(chǎng)景下個(gè)人與算法決策者之間的溝通信任關(guān)系而確定[31]。在算法分類(lèi)分級(jí)的視角下,我國(guó)的算法治理已經(jīng)逐漸深入到推薦算法、深度合成、人臉識(shí)別等更為具體的領(lǐng)域與場(chǎng)景,針對(duì)算法的解釋也應(yīng)當(dāng)根據(jù)算法所處的領(lǐng)域特征、行業(yè)特性的不同設(shè)置不同程度與范圍的解釋義務(wù)。例如,從分級(jí)的角度來(lái)看,對(duì)于輿論屬性或者社會(huì)動(dòng)員能力較強(qiáng)的超大平臺(tái),無(wú)論其涉及哪一領(lǐng)域或行業(yè),對(duì)于任何一種算法的應(yīng)用皆有較大可能對(duì)公共社會(huì)與個(gè)體造成重大影響;從分類(lèi)的角度來(lái)看,應(yīng)用于民生、健康等特定領(lǐng)域的算法會(huì)引發(fā)特定風(fēng)險(xiǎn),金融領(lǐng)域的算法濫用可能導(dǎo)致涉嫌利益侵占、引誘過(guò)度消費(fèi)和負(fù)債、誤導(dǎo)投資者等風(fēng)險(xiǎn),直接造成個(gè)人財(cái)產(chǎn)損失甚至金融風(fēng)險(xiǎn)。因此,對(duì)于以上類(lèi)別與級(jí)別的算法需要保持較高的信任度,雖然當(dāng)前法律沒(méi)有對(duì)算法解釋進(jìn)行具體規(guī)則的構(gòu)建,但應(yīng)當(dāng)對(duì)此類(lèi)具有重大影響、風(fēng)險(xiǎn)較大的算法設(shè)置一般的解釋規(guī)則,統(tǒng)一遵循;反之,對(duì)于低風(fēng)險(xiǎn)的算法,則依舊遵循當(dāng)前的規(guī)定允許企業(yè)自主確定算法解釋模式與規(guī)則,給予企業(yè)一定的自治空間。

具體而言,需要針對(duì)算法治理的全周期設(shè)置算法的解釋節(jié)點(diǎn)。在事前治理環(huán)節(jié),具有較大風(fēng)險(xiǎn)的算法應(yīng)當(dāng)主動(dòng)進(jìn)行算法備案,公眾可以通過(guò)互聯(lián)網(wǎng)信息服務(wù)算法備案系統(tǒng)中了解算法基本信息;而風(fēng)險(xiǎn)較小的算法并不在備案范圍內(nèi),則要求其主要對(duì)算法可能會(huì)造成的不利影響進(jìn)行說(shuō)明,并不涉及算法的基本原理和主要運(yùn)行機(jī)制,以供用戶(hù)參考以自主決定是否接受算法服務(wù)。在事中治理階段,主要存在兩種需要進(jìn)行解釋的情形:一是算法應(yīng)用發(fā)生了新的變化對(duì)用戶(hù)權(quán)益有所影響;二是算法在運(yùn)行過(guò)程中存在對(duì)用戶(hù)權(quán)利造成不利影響的現(xiàn)實(shí)風(fēng)險(xiǎn)。在此階段,算法用戶(hù)已經(jīng)選擇接受算法服務(wù),算法的新變化與用戶(hù)息息相關(guān),因此不論算法風(fēng)險(xiǎn)大小都需要對(duì)算法可能會(huì)造成的不利影響進(jìn)行說(shuō)明,同時(shí)高風(fēng)險(xiǎn)算法在用戶(hù)要求下,需要將算法的基本原理和主要運(yùn)行機(jī)制列入解釋范圍內(nèi)。在事后階段,損害已經(jīng)發(fā)生,企業(yè)則應(yīng)對(duì)造成損害的算法的審計(jì)結(jié)果對(duì)受到損害的用戶(hù)進(jìn)行公布。

算法技術(shù)的不可確定、不可理解性、不可控制的技術(shù)邏輯,算法社會(huì)關(guān)系主體的多元、應(yīng)用場(chǎng)景業(yè)態(tài)的多樣、對(duì)社會(huì)價(jià)值觀念的無(wú)差別吸收的社會(huì)特征,沖擊了傳統(tǒng)的法律治理體系,使得算法治理陷入規(guī)制框架建立不能的困境。分類(lèi)分級(jí)本身具有秩序、效率等法理價(jià)值,既有作為統(tǒng)領(lǐng)治理體系的原則性,也具備深度嵌入治理工具構(gòu)建中的制度性,符合精準(zhǔn)、科學(xué)、有效、敏捷的治理要求。

習(xí)近平總書(shū)記在黨的二十大報(bào)告中指出,要加快建設(shè)網(wǎng)絡(luò)強(qiáng)國(guó)、數(shù)字中國(guó)。不斷完善數(shù)字經(jīng)濟(jì)治理體系,是推動(dòng)數(shù)字經(jīng)濟(jì)規(guī)范健康持續(xù)發(fā)展的必要舉措[32]。作為數(shù)字經(jīng)濟(jì)核心的算法技術(shù)之治理也應(yīng)不斷創(chuàng)新、完善、發(fā)展,才能應(yīng)對(duì)不斷凸顯的新型問(wèn)題與風(fēng)險(xiǎn)。在后續(xù)算法分類(lèi)分級(jí)逐步落實(shí)過(guò)程中,需結(jié)合算法綜合治理的底層邏輯,把握好算法分類(lèi)分級(jí)治理的尺度,平衡各方利益,實(shí)現(xiàn)算法正義,遵守科技倫理,以人民為中心,服務(wù)數(shù)字經(jīng)濟(jì)發(fā)展。目前世界各國(guó)在算法治理層面,面臨同樣的問(wèn)題與困境,中國(guó)擁有世界上最大規(guī)模的算法應(yīng)用場(chǎng)景與最廣泛的算法應(yīng)用人群,在算法治理的實(shí)踐上較其他國(guó)家具有天然優(yōu)勢(shì),應(yīng)充分利用實(shí)踐指導(dǎo)理論更新,在現(xiàn)有分類(lèi)分級(jí)的制度和理念下進(jìn)一步擴(kuò)展其內(nèi)涵與應(yīng)用,充分利用算法分類(lèi)分級(jí)建立完善的治理體系,形成算法實(shí)踐與法律的良性互動(dòng)。我國(guó)已在算法治理道路上邁出了堅(jiān)實(shí)的一步,接下來(lái)需充分明確分類(lèi)分級(jí)承擔(dān)起算法綜合治理核心功能的價(jià)值與定位,達(dá)成算法可信的治理目標(biāo),最終促進(jìn)數(shù)字經(jīng)濟(jì)規(guī)范健康持續(xù)發(fā)展。

猜你喜歡
分級(jí)分類(lèi)人工智能
分類(lèi)算一算
分類(lèi)討論求坐標(biāo)
2019:人工智能
人工智能與就業(yè)
數(shù)據(jù)分析中的分類(lèi)討論
教你一招:數(shù)的分類(lèi)
分級(jí)診療路難行?
數(shù)讀人工智能
分級(jí)診療的“分”與“整”
下一幕,人工智能!