摘 要:近年來,算法決策的異化導致算法黑箱、算法歧視等算法失范現(xiàn)象頻發(fā),我國現(xiàn)行算法治理面臨法律價值缺位、責任主體不明、監(jiān)管效果不佳等困境。為治理算法亂象,加速我國產(chǎn)業(yè)“數(shù)智化”升級進程,應從法律層面對算法決策的異化進行規(guī)制,算法立法有助于構建邏輯性、完整性、系統(tǒng)性的數(shù)字法律制度體系,利于實現(xiàn)算法正義。算法正義根植于平等權、自由權、程序正義等法律基礎,實現(xiàn)算法正義有利于推動實質(zhì)公平正義。我國算法正義的立法構建需要確立算法公平正義原則,建立健全算法立法體系,最大限度促進算法的公開化、透明化;明確算法異化歸責形式,對平臺數(shù)據(jù)權力進行法律規(guī)制,構建相應的責任追究機制;設立動態(tài)算法監(jiān)管機構,實現(xiàn)算法技術、社會規(guī)范、法律規(guī)范等層面的多元化的全過程監(jiān)管。
關鍵詞:算法正義;算法立法;法律基礎;算法治理
中圖分類號:D922 文獻標志碼:A 文章編號:1673-291X(2024)13-0141-04
數(shù)字時代,算法儼然成為數(shù)據(jù)處理的核心。我國產(chǎn)業(yè)“數(shù)智化”轉型進程加快、數(shù)實融合新業(yè)態(tài)模式擴張也得益于算法技術的快速發(fā)展。算法的本質(zhì)是一種技術手段,算法權力異化產(chǎn)生算法黑箱、算法歧視等不合理現(xiàn)象,將會帶來一系列社會問題:搜索引擎桎梏、新聞推薦失真、人臉識別隱憂、自動駕駛責任分配不明等。如不規(guī)制其發(fā)展,算法失范將對算法正義產(chǎn)生強烈的沖擊。為確保算法正義的實現(xiàn),應從法律層面對算法決策異化進行規(guī)制。當前,我國算法治理存在法律價值缺位、責任主體不明、監(jiān)管效果不佳等問題。現(xiàn)有研究多從監(jiān)管角度出發(fā),立法層面規(guī)制算法異化的研究較少,本文擬從立法的角度研究治理算法亂象。為改善數(shù)字生態(tài)環(huán)境,依法治理算法亂象,我國于2022年3月1日正式施行《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》(以下簡稱《算法管理規(guī)定》),但仍無法有效回應算法失范現(xiàn)象。實現(xiàn)算法正義的法律構建有助于開發(fā)利用數(shù)據(jù)的最大價值并助推公共事業(yè)的發(fā)展。本文將立足我國算法正義現(xiàn)存問題,從立法的角度完善算法治理體系,加速推動算法正義。
一、算法正義的界定及法律基礎
(一)算法正義的界定及相關概念辨析
“算法”一詞,最先出現(xiàn)在數(shù)學領域,最早記錄于我國的《九章算術》。隨著技術的進步和科技的發(fā)展,算法被廣泛應用于計算機領域。在狹義上,算法是以一定值或者值的集合為輸入、產(chǎn)生某個值或值的集合為輸出的計算步驟而編寫的一個序列[1]。在廣義上,算法被定義為“一種有限、確定、有效的并適合用計算機程序來實現(xiàn)的解決問題的方法”。本文認為,算法是解決某一類問題的方法、程序。算法決策可解釋為:算法系統(tǒng)通過對用戶過往的數(shù)據(jù)分析,預測用戶將來可能發(fā)生的行為,實為機器模擬人的思維,自主學習并產(chǎn)生一定結果的虛擬思維系統(tǒng)。算法決策具有復雜性、隱匿性、結果不可預測等典型特征。有權力則必有異化,算法決策的異化阻礙了算法正義的實現(xiàn)。算法的公正問題也成為人工智能領域的最為核心的倫理問題,常被稱作“算法偏見”或“算法歧視”[2]。算法歧視的根源在于算法決策過程的不透明性、復雜性。
“正義”在法律領域常被解釋為執(zhí)行正義,即通過TlkEZoO9Bzv/+ug3uTNqzQ==法律手段調(diào)整社會群體之間的關系。羅爾斯認為“正義是社會制度的首要價值”。為構建公平、透明、可信的算法系統(tǒng),算法正義的概念被相關學者提出。算法正義的實現(xiàn)體現(xiàn)在算法程序運行的全過程,每個環(huán)節(jié)都要求參與平等。算法正義的實現(xiàn)離不開數(shù)據(jù)公正、算法透明,其中數(shù)據(jù)公正是實現(xiàn)算法正義的基本原則。數(shù)據(jù)公正要求算法決策的結果符合多數(shù)人的利益,不存在不公和歧視等偏見現(xiàn)象。算法決策的異化直接影響算法正義的實現(xiàn),實現(xiàn)算法正義必然要求規(guī)避算法決策的異化。正是基于大數(shù)據(jù)和算法嵌入社會生活過程中而誘發(fā)諸多不正義。其中,以算法黑箱和算法歧視為典型,算法決策的公開透明是數(shù)字正義實現(xiàn)的外在表征。算法正義是關于如何確保人工智能和算法模型的使用是公平的,以及在算法運行過程中如何減少甚至杜絕對特定群體的歧視而導致的不公正的結果。這需要考慮到算法設計和開發(fā)過程中的偏見如何消除,以及算法如何使用數(shù)據(jù)來進行更公正的決策。算法正義更多強調(diào)算法設計、應用過程中應遵循的理性道德原則和價值期待,既涵蓋實體和程序,也包括過程和結果。
(二)法律基礎
算法決策的異化導致算法歧視、算法黑箱等不合理現(xiàn)象頻發(fā),算法決策結果的精準性基于對海量數(shù)據(jù)的收集和分析,而數(shù)據(jù)資源往往關乎用戶的人身和財產(chǎn)權益,甚至隱私信息。為防止算法權力異化,實現(xiàn)算法正義迫在眉睫。算法正義的法律基礎源于人權法中的平等權、人格權等基本權利,反歧視法中的自由、正義等法的基本價值以及程序正義。
人權法層面:算法正義的法律依據(jù)在于尊重人類的基本權利,保障公民尊嚴。算法決策開發(fā)者的主體是人,算法決策開發(fā)者的客體也是人,二者同等享有人格表達權、參與權、人格尊嚴權。規(guī)制算法歧視首先需要保障平等權,算法開發(fā)者在算法決策過程中擁有技術優(yōu)勢,為保障公民的人格尊嚴權,用戶有權請求算法決策者對所利用的數(shù)據(jù)的來源、使用目的、數(shù)據(jù)用途及應用范圍等重要信息作出合理的說明和解釋。
反歧視法層面:歧視表現(xiàn)為區(qū)別對待,而平等要求相同情況同等對待,因而消除歧視在于消除區(qū)別對待[3]。算法正義的價值基礎在于尊重用戶意思自治,實現(xiàn)算法決策設計者和算法決策使用者之間的平等地位,合理分配兩個不同群體之間的權利和義務。它旨在要求算法決策開發(fā)者履行算法決策告知義務和解釋義務,最大限度增進算法透明度,進而推進算法正義的實現(xiàn)。
責任法層面:算法正義的立法構建基于程序正義,正當程序的宗旨在于保障公民權利平等、約束權力、有效解決糾紛、維護法律權威、理性引導公民[3]。正當程序要求各方自由平等且實質(zhì)性地參與,用戶有權對算法決策過程提出異議,能夠實質(zhì)性地影響決策結果。正當程序要求公開,算法決策過程也應當公開、透明化,從而有效減少算法黑箱現(xiàn)象。
二、我國算法正義法律構建的困境
數(shù)字時代,算法技術被廣泛應用于社會生活的各領域。毋庸置疑,算法技術的普及促進了科技的發(fā)展和社會的進步,但不可否認算法異化不同程度侵害了公民的隱私權和自由權。學界普遍認為,算法決策權的濫用對算法正義的實現(xiàn)具有實質(zhì)性的威脅。算法立法空白、侵權責任主體不明、社會監(jiān)管效果不佳等因素阻礙了算法正義的實現(xiàn)。
(一)算法立法空白
數(shù)據(jù)、算法、信息三者有機結合,構成數(shù)字化智能網(wǎng)絡社會。隨著科學技術的兩面性中負面現(xiàn)象頻現(xiàn),為保障數(shù)字社會的平穩(wěn)發(fā)展,我國相繼出臺《中華人民共和國網(wǎng)絡安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》。關于算法技術帶來的風險,仍無相應法律對其規(guī)制,目前算法治理乏力,算法立法極具爭議。我國算法立法仍面臨諸多困境,主要面臨以下難題,難點一:算法規(guī)制的立法模式定位不明確。算法規(guī)制的立法模式頗具爭議,算法規(guī)制是否并入網(wǎng)絡安全法、數(shù)據(jù)法、個人信息保護法,亦或成立算法專項立法。難點二:算法規(guī)制的立法屬性定位不清晰。算法本身是一種技術手段,是否應定位于技術規(guī)制。但算法開發(fā)的目的是為社會服務,是否應定位于社會規(guī)制。難點三:“算法倫理”要求與合法權益保護存在矛盾?!八惴▊惱怼币蠊_、透明,而知識產(chǎn)權保護則側重于技術的保密性。算法的公平公正的目的是為保障公共利益,而公民的自由權和隱私權則重在強調(diào)私人權利。為保障公共利益,在進行公共決策時,不可避免會侵犯到個人私益。
(二)法律價值缺位
算法決策異化導致算法失范現(xiàn)象頻發(fā)。算法技術的濫用,與我國法律所倡導的平等、公平、正義、自由、秩序、正義等價值產(chǎn)生強烈沖突。算法歧視現(xiàn)象嚴重違背了公平正義原則。算法過度檢索個人信息,造成個人隱私泄露,嚴重侵害了公民的隱私權。算法過度采集用戶數(shù)據(jù)信息,大數(shù)據(jù)“殺熟”嚴重損害了公民的平等權。平臺利用算法合謀技術實施壟斷行為,剝奪了其他平臺的公平競爭機會,打破了市場公平經(jīng)營秩序。算法是基于人的設計,算法開發(fā)者的主觀意愿難免帶有個人偏見,這種偏見極有可能被嵌入算法決策系統(tǒng),加之算法決策過程的不透明化,給算法權力異化增加了更多不穩(wěn)定因素。雖無法對算法過程進行法律規(guī)制,但可對算法開發(fā)者的行為進行法律約束。
(三)責任主體不明
隨著算法應用的普及,算法異化的風險也不斷增加,但基于算法的隱秘性和復雜性,算法責任主體的劃分成為學界爭議的焦點。算法侵權帶來一系列難題,即如何認定責任主體,如何證明主觀過錯,如何厘清決策行為與損害結果的因果關系,如何實現(xiàn)侵權救濟等成為當前亟待解決的難題。例如,在自動駕駛汽車領域,自動駕駛汽車與人類駕駛的機動車發(fā)生碰撞,應當如何劃分責任,是自動駕駛汽車制造商,還是自動駕駛汽車算法開發(fā)者,抑或是車主本人?事故發(fā)生后,應如何劃分責任大小,如何確定侵權主體,如何處置侵權責任方,這些都是自動駕駛汽車發(fā)展需要面對和解決的現(xiàn)實問題。目前,對于算法責任主體的認定存在很大爭議,算法責任主體多元化增加了算法責任主體認定的難度。對于算法失范現(xiàn)象,在算法系統(tǒng)開發(fā)者、算法系統(tǒng)售賣商、算法平臺應用方、算法監(jiān)管部門等不同主體間應該如何劃分責任,目前未有明確的法規(guī)法條或者法律原則對其規(guī)制。
(四)監(jiān)管效果不佳
數(shù)字時代,人工智能、大數(shù)據(jù)、區(qū)塊鏈等數(shù)字技術的發(fā)展均基于算法技術的應用。算法決策過程的不透明和復雜性導致算法黑箱現(xiàn)象頻發(fā)。在社交平臺軟件應用中,多數(shù)平臺為迎合用戶喜好利用算法技術搜集、分析用戶數(shù)據(jù),對用戶過往行為進行畫像,進而精準推送個性化內(nèi)容。平臺本身擁有海量用戶數(shù)據(jù)信息,平臺對自家數(shù)據(jù)資源進行分析并利用,似乎合理合規(guī),但這一過程是否存在過度挖掘,是否侵犯用戶隱私,卻無法監(jiān)管。在消費型軟件應用中,部分消費群體經(jīng)歷過大數(shù)據(jù)“殺熟”,有些因新老用戶身份不同遭遇差別對待,有些因使用手機品牌不同呈現(xiàn)不同價格,有些因日常消費水平差異推送不同價位產(chǎn)品。由于算法黑箱的隱秘性,算法決策是否構成價格歧視無從監(jiān)管,迫切需要補充制定算法透明制度[4]。傳統(tǒng)的舉報等算法治理模式亟待創(chuàng)新,加之算法技術集復雜性、隱秘性、專業(yè)性于一體,普通用戶群體很難識別自身是否成為了算法異化的受害者,即使后知后覺身陷“信息繭房”,也難以論證何種權利何時受到侵害,更無申訴和救濟途徑。
三、我國算法正義的立法構建
算法作為數(shù)字法學的核心,對算法進行有效的規(guī)制,有助于構建邏輯性、完整性、系統(tǒng)性的數(shù)字法律制度體系,也可實現(xiàn)對網(wǎng)絡空間有效的數(shù)字治理。算法賦予數(shù)字價值,數(shù)字賦予算法意義。若能有效規(guī)制算法,必然有助于實現(xiàn)數(shù)字正義,算法正義的實現(xiàn)需要法律框架的約束。
(一)確立算法公平正義原則
算法規(guī)制的立法原則,是以利益衡量、個案調(diào)和、價值平衡,引導算法規(guī)制正當程序的確立[5]。公平正義原則是法律價值的最高目標,發(fā)揮價值理性的作用,有助于算法正義的實現(xiàn)。公平正義原則要求各主體合理分配權利、義務,用戶自身應同算法決策者擁有同等權利。通過立法的方式,推進算法合規(guī),促進算法正義的實現(xiàn)。首先,算法決策開發(fā)者應保障算法使用者的知情同意權,若用戶決策權受到限制,造成隱私泄露,算法決策開發(fā)者應承擔相應的民事責任或受到行政處罰。其次,算法解釋是算法治理的核心,應根據(jù)不同的場景設置可視化的解釋,禁止語義歧視或跳過關鍵解讀,及時回應用戶異議。最后,相關部門應積極推進算法公開,在不涉及商業(yè)秘密的前提下,將算法決策的過程和結果透明化、公開化?;诠_原則,算法設計者應明確告知用戶群體可能采集用戶哪些信息,并由用戶自身決定是否接受。
(二)建立健全算法立法體系
縱觀世界數(shù)字經(jīng)濟前沿地區(qū)關于算法的規(guī)制,大多已對算法進行單獨立法,如美國《算法問責法》、歐盟《算法問責及透明度監(jiān)管框架》、新西蘭的《新西蘭算法章程》。此外,算法、數(shù)據(jù)、信息三者在立法目標、調(diào)整對象、權利內(nèi)容等方面均存在差異,并不適合并入數(shù)據(jù)安全法或個人信息保護法。技術具有中立性,算法立法的本質(zhì)不是針對算法技術本身,而是規(guī)制算法決策權,防范算法權力帶來的異化風險,算法規(guī)制的立法應該屬于社會規(guī)制。算法規(guī)制應從部門規(guī)制層面上升到法律約束層面,可系統(tǒng)化、全面化治理算法異化現(xiàn)象。算法立法應側重于規(guī)制算法應用,設置專門條款,重點規(guī)制算法搜索、算法推薦和算法決策三方面。其一,在規(guī)制算法搜索方面,嚴禁過度搜索、隱匿搜索,以防用戶隱私泄露。其二,在規(guī)制算法推薦方面,嚴格管控算法輸出,建立算法推薦審核及監(jiān)督機制,對算法推薦內(nèi)容進行專業(yè)審查,嚴禁傳播有違公序良俗或違法信息。其三,在規(guī)制算法決策行為方面,探索“公+私”公共決策模式,當涉及私權利主體權益時,嚴禁“一刀切”式?jīng)Q策方式,對決策過程進行全過程監(jiān)管。
(三)立法明確算法異化歸責形式
平臺具有算法決策權,可能存在算法濫用風險,故應當對平臺數(shù)據(jù)權力進行法律規(guī)制,構建相應的責任追究機制。第一,落實算法主體責任。算法決策設計者應當尊重用戶隱私權、不過度開發(fā);尊重用戶自由權,建立完善的用戶自主選擇機制。算法決策提供者,不得利用算法從事違法行為,不得兜售用戶隱私數(shù)據(jù)。第二,應建立第三方審查機構,一旦發(fā)現(xiàn)平臺存在算法亂象,應給予用戶申訴權,并及時處罰違法違規(guī)行為。第三,建立獎懲機制,鼓勵用戶積極維護自身合法權益,對算法違規(guī)平臺給予通報、批評,并控制其流量,限期改正。限期未改者可加大罰款力度,甚至取締該平臺的使用。第四,加強設定數(shù)字平臺算法侵害的行政處罰法律責任[6]。數(shù)字平臺兼具公共性,個人不易察覺算法侵權行為,行政執(zhí)法機關更具專業(yè)性,設置行政法律責任,利于維護公共利益。
司法救濟是彌補受害人損失的重要一環(huán),當公民算法權利受到侵害時,應提供多元的權利救濟方案,可立法建立如下機制:其一,專門的算法侵權咨詢機制,專業(yè)解答算法侵權相關事件,利用算法侵權咨詢平臺為公眾答疑解惑。其二,專門的算法司法審查機制,專門處理算法訴訟,利用算法審計進行司法裁決。其三,專門算法公益訴訟機制,專門處理公共領域內(nèi)的算法糾紛案件,利用公益訴訟解決算法糾紛。通過上述途徑,充分體現(xiàn)以人為本、依法治國的精神,依法治理算法異化亂象,推進算法正義的實現(xiàn)。
(四)立法設立動態(tài)算法監(jiān)管機構
算法的隱秘性和復雜性,不僅給算法公開帶來一定難度,也對法律有效監(jiān)督形成挑戰(zhàn)。為有效防范算法異化,應從算法產(chǎn)生到應用的全過程建立系統(tǒng)性、多維性的算法合規(guī)審查制度。算法協(xié)同治理是健全算法監(jiān)督保障機制的有效機制,從技術層面、社會規(guī)范層面到法律層面建立起一整套協(xié)同治理機制,各監(jiān)管機構協(xié)同協(xié)作。在算法技術層面,應當制定行業(yè)標準和行業(yè)準則,定期進行算法安全風險評估,監(jiān)測算法安全生命周期。在社會規(guī)范層面,應當暢通公民監(jiān)督渠道,設置有效的投訴平臺,制定標準的處理流程,及時解決問題并給予反饋。在法律規(guī)范層面,應當對算法技術從業(yè)者和企業(yè)定期開展審查,核查算法從業(yè)者的備案情況,評估算法技術風險,強化企業(yè)風險責任意識,建立算法管理機構,提升算法治理水平,構建算法異化追責體系。
四、結束語
在新興科技革命的推動下,人類開始邁進“萬物數(shù)字化、一切可計算”的新時代。數(shù)字社會的發(fā)展需要算法正義助力,人工智能的發(fā)展需要算法正義驅動,算法失范現(xiàn)象亦需要算法正義規(guī)制。完善算法治理成為當前數(shù)字發(fā)展的重要議題,實現(xiàn)算法正義的核心就在于消解分享與控制這一悖論,確立并遵循數(shù)字時代的公平正義原則。本文借鑒國外在算法治理方面的經(jīng)驗,提出應重點規(guī)制算法搜索、算法推薦和算法決策三方面。為破除算法黑箱難題,應最大程度將算法決策過程透明化、公開化。發(fā)揚以人為本的精神,構建嚴格的責任追究機制、設立多元的權利救濟方案,可依法治理算法異化亂象。設立動態(tài)的算法監(jiān)管機構,保障算法技術的合法性、正當性,嚴格約束算法技術從業(yè)者,定期審查從業(yè)者的備案情況,提升算法治理水平,推進算法正義的實現(xiàn)。
參考文獻:
[1] 金夢.立法倫理與算法正義:算法主體行為的法律規(guī)制[J].政法論壇,2021,39(1):29-40.
[2] 孟令宇.從算法偏見到算法歧視:算法歧視的責任問題探究[J].東北大學學報(社會科學版),2022,24(1).
[3] 趙精武,陸睿.從公示到透明:算法公平的風險挑戰(zhàn)與治理路徑[J].暨南學報(哲學社會科學版),2023,45(9):69-82.
[4] 郭春鎮(zhèn),勇琪.算法的程序正義[J].中國政法大學學報,2023(1):164-180.
[5] 張恩典.算法透明度的理論反思與制度建構[J].華中科技大學學報(社會科學版),2023,37(6):29-40.
[6] 黃锫.數(shù)字平臺算法侵害的行政法律責任論綱[J].比較法研究,2023(6):184-198.
The Legal Basis, Dilemma and Legislative Path of Algorithmic Justice Construction
JIANG Dongli
(School of Law, Shandong University of Technology, Zibo 255000, China)
Abstract: In recent years, the alienation of algorithmic decision-making has led to the frequent occurrence of algorithmic anomie such as algorithmic black box and algorithmic discrimination, and there are problems in the current governance of algorithms in China, such as the lack of legal value, the unclear responsible entity, and the poor regulatory effect. In order to govern the chaos of algorithms in accordance with the law and accelerate the upgrading process of “digital intelligence” in China’s industry, algorithm legislation is conducive to the construction of a logical, complete, and systematic digital legal system, which is conducive to the realization of algorithmic justice. Algorithmic justice is rooted in legal foundations such as the right to equality, the right to freedom, and procedural justice, and the realization of algorithmic justice is conducive to promoting substantive fairness and justice. The legislative construction of algorithmic justice in China needs to establish the principle of algorithmic fairness and justice, establish and improve the algorithm legislative system, and promote the openness and transparency of algorithms to the greatest extent; clarify the form of attribution of responsibility for algorithmic alienation, carry out legal regulation of platform data power, and build corresponding accountability mechanisms; and establish dynamic algorithm regulatory agencies to realize diversified whole-process supervision at the levels of algorithm technology, social norms, and legal norms.
Key words: Algorithmic justice; Algorithmic legislation; Legal basis; Algorithmic governance
[責任編輯 劉 瑤]