宋 偉 劉子荷
(中國科學(xué)技術(shù)大學(xué) 知識產(chǎn)權(quán)研究院,安徽 合肥 230041)
智能社會,算法與人們的生活結(jié)合得愈發(fā)緊密。一方面,算法的技術(shù)屬性和價值體現(xiàn)引發(fā)保護需求;另一方面,算法應(yīng)用所造成的負(fù)面影響反映問責(zé)需求。算法是一把雙刃劍,對其加以保護的同時也不能忽視其滋生的各種社會問題,如算法歧視、侵害個人數(shù)據(jù)信息和司法救濟危機等。算法規(guī)制與算法保護共同構(gòu)成智能社會治理的關(guān)鍵內(nèi)容,二者相輔相成,算法規(guī)制是保障算法發(fā)揮積極、公正作用的題中之義。
在算法知識產(chǎn)權(quán)保護模式的激烈學(xué)術(shù)爭論中,眾多學(xué)者提出算法可專利化的觀點。然而,專利制度的保護范式與黑箱算法的秘密性之間存在沖突,并會進一步加深其不透明之處,具體表現(xiàn)為二:一是專利保護對算法源代碼的公開易破壞其商業(yè)秘密效能;二是專利制度不披露用戶的個人數(shù)據(jù),算法決策相對人的相關(guān)權(quán)益缺乏保障??梢姡惴ㄒ?guī)制面臨的主要困境為算法所有者的商業(yè)秘密利益與社會公眾權(quán)益的沖突與協(xié)調(diào)。以此為出發(fā)點,本文結(jié)合算法應(yīng)用階段的利益保護特征,構(gòu)建算法的事前與事后解釋制度,以期豐富其規(guī)制路徑。
在人工智能輸入的數(shù)據(jù)和輸出的答案之間,存在公眾無法洞悉的“隱層”,可稱為“黑箱”。黑箱是控制論中的概念,作為一種隱喻,它指的是那些不為人知的、不能打開、不能從外部直接觀察其內(nèi)部狀態(tài)的系統(tǒng),①陶迎春:《技術(shù)中的知識問題——技術(shù)黑箱》,《科協(xié)論壇》2008年第7期。即黑箱在輸入端輸入數(shù)據(jù)并在輸出端產(chǎn)生結(jié)果,但該數(shù)據(jù)的運作過程則只為部分人掌握。這意味著算法并不是透明的,主要體現(xiàn)在以下兩個方面。
二是算法所有者有目的地不披露商業(yè)秘密和其他信息。對于算法的法律性質(zhì),學(xué)者莫衷一是,其中就包括將其視為商業(yè)秘密。法律文本一般將商業(yè)秘密定義為不為社會公眾所知曉、能為權(quán)利人帶來經(jīng)濟回報、具有實用性并經(jīng)權(quán)利人采取保密措施的技術(shù)信息和經(jīng)營信息。也就是說,商業(yè)秘密具有秘密性、實用性、保密性、價值性。④梁志文:《論算法排他權(quán):破除算法偏見的路徑選擇》,《政治與法律》2020年第8期。算法作為人工智能的核心技術(shù)具有嚴(yán)格的秘密性。算法運作以大量數(shù)據(jù)作為支撐,這些數(shù)據(jù)中承載著用戶的標(biāo)簽信息和行為信息。單純的用戶數(shù)據(jù)并不構(gòu)成商業(yè)秘密,但經(jīng)過海量獲取和分析總結(jié)后,便可以依此做出預(yù)測,為用戶提供參考信息,借以獲得巨額的商業(yè)利潤。此時,這些數(shù)據(jù)就具備了商業(yè)秘密的屬性。事實上,各大平臺如新浪、抖音等幾乎都會建立自己獨立的數(shù)據(jù)庫并禁止他人擅自使用這些數(shù)據(jù),新浪就曾以淘友技術(shù)公司和淘友科技公司非法抓取、使用新浪微博用戶信息為由控告其不正當(dāng)競爭并最終獲賠200余萬元。⑤宋心蕊、趙光霞:《非法抓取新浪微博用戶信息 脈脈被判賠二百萬》,http://media.people.com.cn/n1/2017/0114/c40606-29022810.html, 最后訪問時間:2022年3月16日。2016年,美國威斯康星州的Wisconsin vs Loomis 案中,法官也將COMPAS算法視為商業(yè)秘密。該案中,被告Loomis否認(rèn)參與犯罪,但通過同意認(rèn)罪協(xié)議放棄了受審的權(quán)利。他簽訂的認(rèn)罪協(xié)議將實際判刑留給威斯康星州巡回法院法官酌情決定。法官接受了被告的認(rèn)罪,并下令進行風(fēng)險評估,評估采用的算法是COMPAS系統(tǒng),其預(yù)測被告具有高審前風(fēng)險、高再犯風(fēng)險和高暴力再犯風(fēng)險。因而,與控方和辯方商定的緩刑一年不同,巡回法院以被告未經(jīng)車主同意駕駛機動車輛為由判處被告“七年監(jiān)禁四年緩刑”。被告進而要求披露COMPAS 風(fēng)險報告中的信息包括訪問軟件代碼和算法權(quán)重。兩個請求都被法院拒絕,理由是COMPAS算法是專有的且涉及商業(yè)秘密。①Washington A L.,“How to Argue with an Algorithm: Lessons from the COMPAS-ProPublica Debate”,Colorado Technology Law Journal,NO.17(2018).
黑箱不透明性的兩項內(nèi)容各有所指、各有側(cè)重,本文主要針對算法黑箱在有監(jiān)督學(xué)習(xí)下產(chǎn)生的不透明性進行分析和解決。一方面,就當(dāng)今算法的發(fā)展?fàn)顟B(tài)與應(yīng)用范圍來看,在運行算法中有監(jiān)督學(xué)習(xí)仍占據(jù)主要地位,大部分算法需要人工的預(yù)先干預(yù),有監(jiān)督學(xué)習(xí)算法的應(yīng)用范圍無疑更為廣泛。另一方面,無監(jiān)督學(xué)習(xí)的最大特點在于只有機器了解內(nèi)部的運行邏輯和規(guī)則,而人無法了解,算法自身在做出上一個決定后的不特定時間內(nèi)可能會有所不同,并且當(dāng)算法自動更新多次時,難以確定決策的具體時間點。在這種情況下討論無監(jiān)督學(xué)習(xí)的不透明性存在嚴(yán)重的技術(shù)障礙,不具備可行性。
隨著以算法為運作核心的人工智能大量出現(xiàn)并占據(jù)重要地位,實務(wù)界不斷呼吁將基礎(chǔ)算法納入專利法的保護范圍之中。據(jù)《2021—2022 中國人工智能計算力發(fā)展評估報告》統(tǒng)計,我國2020 年發(fā)布的GPT-3 深度學(xué)習(xí)模型參數(shù)高達1750 億,是當(dāng)時全球最大的AI巨量模型;2021 年發(fā)布的“源1.0”參數(shù)升至2457 億,參數(shù)增長高達40%,是當(dāng)前全球最大規(guī)模的中文AI 巨量模型。②浪潮服務(wù)器公眾號:《〈2021—2022 中國人工智能計算力發(fā)展評估報告〉A(chǔ)I 城市算力TOP10 再出黑馬》,https://mp.weixin.qq.com/s/icf8o8g1M-XK2333J83SiQ,最后訪問時間:2022年7月8日。人工智能產(chǎn)業(yè)持續(xù)發(fā)展,針對算法改進及應(yīng)用的研發(fā)投入也逐步增加,使得算法發(fā)明獲得專利保護的需求也逐步提高。③劉強:《人工智能算法發(fā)明可專利性問題研究》,《時代法學(xué)》2019年第4期。實現(xiàn)算法的可專利化有利于提高企業(yè)對人工智能核心技術(shù)的自主掌控能力,從而進一步提高科技領(lǐng)域的創(chuàng)新積極性。1972 年美國最高法院判決Gottschalk vs Benson 一案中,法院裁定計算機程序算法不可申請專利。④Gottschalk v.Benson, 409 U.S.63, 93 S.Ct.253, 34 L.Ed.2d 273,1972 U.S.LEXIS 129,175 U.S.P.Q.(BNA)673.然而,1994 年到2003 年間,美國授予的包含算法的發(fā)明數(shù)共79390件。⑤Zoracki A C.,“When Is an Algorithm Invented? The Need for a New Paradigm for Evaluating an Algorithm for Intellectual Property Protection ”. Albany Law Journal of Science and Technology,NO.15(2004).自此之后,理論界掀起關(guān)于算法是否可專利化的討論熱潮。除此之外,對于算法采取何種知識產(chǎn)權(quán)保護模式眾說紛紜——版權(quán)保護模式也囊括其中。總體來看,學(xué)界的觀點主要聚焦于算法的專利適格性之上,盡管可專利性判斷的具體標(biāo)準(zhǔn)尚未達成一致,但將算法納入可專利對象的態(tài)度卻是相同的。
如前所述,黑箱算法中往往涉及企業(yè)的商業(yè)秘密和大量用戶的隱私數(shù)據(jù)。而公開性是專利的一大特征,算法可專利化則意味著算法的公開。在這一層面,專利和商業(yè)秘密對算法的保護手段是截然不同的,專利制度旨在以技術(shù)信息的公開來獲取限期壟斷地位,而商業(yè)秘密則具有相反的功能即通過保密來獲得更大的競爭優(yōu)勢。專利制度公開源代碼蘊含對算法商業(yè)價值的挑戰(zhàn),而保留個人數(shù)據(jù)則有損私主體的權(quán)益。
1.破壞商業(yè)秘密效能
在大數(shù)據(jù)時代,算法源代碼是企業(yè)據(jù)以保持競爭優(yōu)勢的關(guān)鍵所在。一個成功的算法源代碼需要投入巨額成本加以開發(fā),重要性不言而喻。從企業(yè)強烈抗拒披露源代碼的態(tài)度可以窺見公開的不利影響。例如,在Williams vs Apple 一案中。Aconfora 的證詞詳細(xì)介紹了蘋果公司iCloud 存儲算法的工作原理,對此蘋果公司向加州法院提出了不予披露該項信息的請求,理由是公開披露這些工作原理會損害蘋果公司的利益。具體而言,會泄露決定數(shù)據(jù)上傳優(yōu)先級和區(qū)域位置的算法參數(shù),而這些信息與蘋果公司的競爭能力密切相關(guān)。①Williams v.Apple, Inc, 2021 U.S.Dist.LEXIS 114028, *1, 2021 WL 2476916.
考慮到專利制度是為獲得對某一發(fā)明創(chuàng)造的限期壟斷而放棄保密的權(quán)衡,專利權(quán)的喪失甚至專利權(quán)的限期性都會導(dǎo)致圍繞算法技術(shù)的保密性增加。資本增殖與商業(yè)利益增加是商業(yè)公司的建立初衷。當(dāng)社會公共利益與公司的競爭優(yōu)勢發(fā)生沖突時,為維系公司的存在和運行,公共利益的實現(xiàn)不會是商業(yè)公司的首要選擇。②李曉輝:《算法商業(yè)秘密與算法正義》,《比較法研究》2021年第3期??梢岳斫獾氖?,相較于以向公眾尤其是競爭對手公開源代碼換取短期的壟斷地位,算法所有者將更希望對該算法保密。已有研究也表明:當(dāng)技術(shù)先發(fā)優(yōu)勢很大時,發(fā)明者通常會使用保密措施來擴大領(lǐng)先優(yōu)勢;當(dāng)逆向工程很簡單時——例如在制藥行業(yè)——公司將傾向于依靠專利來保護先發(fā)優(yōu)勢。③Levine D S, Sichelman T,“Why do Startups Use Trade Secrets”,Notre Dame Law Review,NO.94(2018).而算法作為一種專業(yè)信息,很難實施逆向工程,公開將嚴(yán)重降低算法所有者的競爭能力。
2.個人私權(quán)利受損
協(xié)商民主經(jīng)歷統(tǒng)一戰(zhàn)線的孕育和生長后,發(fā)展為一種獨立的社會主義協(xié)商民主形式,成為我國社會主義民主政治的特有形式和獨特優(yōu)勢。它以自身豐富的內(nèi)涵和制度優(yōu)勢促進統(tǒng)一戰(zhàn)線的發(fā)展。
我國對專利說明書的具體要求為:發(fā)明或?qū)嵱眯滦偷臋?quán)利說明書做出的說明應(yīng)當(dāng)清楚、完整,以所屬技術(shù)領(lǐng)域的技術(shù)人員能夠?qū)崿F(xiàn)為準(zhǔn)。盡管我國對專利充分公開的判斷標(biāo)準(zhǔn)限定為“能夠?qū)崿F(xiàn)”,但“清楚、完整”的要求是否能與“能夠?qū)崿F(xiàn)”這一條件等同成為獨立的要求向來備受爭議,我國“清楚、完整”的要求與《美國專利法》中的“書面描述”要求類似,有學(xué)者對此持肯定意見,認(rèn)可“書面描述”和“能夠制造和使用”是兩個獨立的要求。在此背景下,美國聯(lián)邦巡回上訴法院以“全席審理”的方式審理了Ariad vs Lilly案,探討《美國專利法》中是否存在單獨的書面描述要求。④呂炳斌:《專利說明書充分公開的判斷標(biāo)準(zhǔn)之爭》,《中國發(fā)明與專利》2010年第10期。但無論持哪方觀點,不可否認(rèn)的是專利說明書中僅對客體結(jié)構(gòu)進行公開,而并不涉及到其中所收集到的數(shù)據(jù)。
在信息技術(shù)領(lǐng)域,谷歌既利用其專利搜索技術(shù)生成的數(shù)據(jù)為其提供競爭優(yōu)勢,也利用用戶的大量信息,如以前的搜索查詢、位置、社交網(wǎng)絡(luò)數(shù)據(jù)和其他個人信息,而這些信息可能會在其專利到期之后仍作為商業(yè)秘密保留,以改善其當(dāng)前的搜索查詢及針對這些用戶的定向廣告。⑤Simon B M:“Sichelman T.Data-generating Patents”,Northwestern University Law Review & NULR Online,NO.111(2016).當(dāng)今,個人信息早已明碼標(biāo)價,數(shù)據(jù)成為“新型貨幣”。谷歌搜索引擎專利在有效期內(nèi)以及期限到期時以商業(yè)秘密的方式保留大量用戶數(shù)據(jù),結(jié)合用戶的青睞方向、個人喜好和消費水平向用戶推送個性化產(chǎn)品,這些商品質(zhì)量和種類相同卻實行不同的定價。我國2022年3月1日施行的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》(下文簡稱《規(guī)定》)對該現(xiàn)象做出了明確規(guī)制?!兑?guī)定》第十七條說明:算法推薦服務(wù)提供者應(yīng)當(dāng)向用戶提供不針對其個人特征的選項,或者向用戶提供便捷的關(guān)閉算法推薦服務(wù)的選項。至3月15日,抖音、今日頭條、微信、淘寶、百度、大眾點評、微博、小紅書等App均已上線算法關(guān)閉鍵,允許用戶在后臺一鍵關(guān)閉“個性化推薦”。《規(guī)定》第二條中所說的算法推薦技術(shù)是指利用生成合成類、個性化推送類、排序精選類、檢索過濾類、調(diào)度決策類等算法技術(shù)向用戶提供信息。推薦算法的核心在于向用戶提供信息,但決策權(quán)仍掌握在用戶手中,例如,視頻平臺根據(jù)用戶的收藏夾推薦其他類似高分電影,導(dǎo)航軟件綜合車輛數(shù)量、路況等因素向用戶推薦最優(yōu)路線,在這類算法推薦服務(wù)中,算法與用戶之間經(jīng)歷互動過程,用戶享有選擇自由而非算法單方面決定,此時算法作為工具被算法使用者控制。然而,在算法自動化決策領(lǐng)域,用戶的主體性不斷喪失。數(shù)據(jù)主體無法真正參與決策的形成過程,算法基于用戶提供的數(shù)據(jù)與衍生信息生成最終結(jié)果,而用戶無力對結(jié)果提出異議或改變??梢姡F(xiàn)有的法律規(guī)定無法充分解決算法損害個人私權(quán)利的問題。
算法已經(jīng)成為各個領(lǐng)域的重要參與者。根據(jù)自動化偏差理論,算法越無處不在,人們就越發(fā)依賴它。①Packin N G,“Consumer Finance and AI: The Death of Second Opinions?”,New York University Journal of Legislation and Public Policy,NO.22(2019).算法服務(wù)以不同的方式嵌入人們的日常生活,并不止步于推薦服務(wù)。借助技術(shù)的優(yōu)勢與用戶對大數(shù)據(jù)計算能力的信任,算法的工具屬性逐漸減弱。在諸多領(lǐng)域中限制乃至消除用戶的決策自主性與能動性,重構(gòu)了算法平臺、用戶和個人數(shù)據(jù)之間的關(guān)系。某公民就曾被美國聯(lián)邦尋親處使用的算法誤認(rèn)定為“拒付撫養(yǎng)費的父母”,莫名得到一張20.6萬美元的罰單。②盧克·多梅爾:《算法時代:新經(jīng)濟的新引擎》,中信出版社,2016。據(jù)《中國日報》雙語新聞報道,隨著疫情形勢的嚴(yán)峻,許多公司的辦公模式改成了居家遠(yuǎn)程辦公。而一家名為enaible的科創(chuàng)公司開發(fā)了一款A(yù)I 技術(shù),它可以遠(yuǎn)程衡量員工的工作速度,提出更高效的工作方法。一家致力于阻止政府和大公司濫用技術(shù)的非營利法律公司Foxglove 的聯(lián)合創(chuàng)始人Cori Crider 認(rèn)為,enaible 公司的機器學(xué)習(xí)算法在訓(xùn)練的數(shù)據(jù)集中也會存在偏差,也就是說算法的原始數(shù)據(jù)可能就天然地將不公正因素納入其中,如果這些算法被用來評估員工的表現(xiàn),當(dāng)出現(xiàn)不公正的考核時,員工就很難對這樣的考核提出申訴。③《“云監(jiān)工”軟件上線!網(wǎng)友:再也不能愉快地“摸魚”了》,https://cloud.tencent.com/developer/news/644856,最后訪問時間:2022年7月8日。在這些領(lǐng)域,算法權(quán)力不斷擴張并滋生風(fēng)險,卻欠缺相應(yīng)的規(guī)制與救濟措施,原因在于:算法對個人數(shù)據(jù)的使用隱含在黑箱之中不為人所知,所作決策的依據(jù)無需告知公眾,公眾難以質(zhì)疑算法的錯誤決策。算法歧視并不僅僅停留在價格領(lǐng)域,在刑事定罪量刑、醫(yī)學(xué)治療領(lǐng)域也廣泛存在。算法歧視引致的權(quán)利失衡,不僅是抽象層面平等權(quán)的失衡,還包括具象層面隱私權(quán)、選擇權(quán)的失衡。④張莉莉、朱子升:《算法歧視的法律規(guī)制:動因、路徑和制度完善》,《科技與法律(中英文)》2021年第2期。在涉及到算法歧視的救濟時,由于用戶數(shù)據(jù)未公開,算法所有者往往以算法錯誤等借口搪塞權(quán)利人,權(quán)利人尋求損失賠償受阻。
算法作為一門技術(shù)本身具有中立性,而算法一旦應(yīng)用所產(chǎn)生的社會效應(yīng)則必然具備雙面性。倡議以知識產(chǎn)權(quán)保護算法自無不可,但不能忽視算法黑箱在實際生活中引起的私主體平等權(quán)危機、私人資本支配公權(quán)力、司法救濟危機和侵害個人數(shù)據(jù)信息等重重風(fēng)險。相較于算法保護,算法規(guī)制的優(yōu)先級更高。若不加以辨別和篩選便將所有算法納入保護對象,將危及一眾算法決策相對人。
正如前文所述,以專利制度來保護算法并不意味著私主體知曉對本人有重大影響的決策是如何做出、個人數(shù)據(jù)是否被濫用、當(dāng)算法發(fā)生決策失誤和隱性歧視時該如何救濟自身權(quán)利。在私人領(lǐng)域,在線零售巨頭亞馬遜就曾開發(fā)出一種算法用以做出招聘決策,該算法可以依據(jù)求職者的簡歷對其進行排名,從而實現(xiàn)招聘的自動化。結(jié)果該算法挑選的男性求職者數(shù)量遠(yuǎn)超于女性,原因在于開發(fā)者以過去十年提交的技術(shù)工作簡歷作為設(shè)計算法挑選候選人的標(biāo)準(zhǔn),而擔(dān)任該工作的員工大部分都是男性。①Bornstein S,“Antidiscriminatory Algorithms”.Alabama Law Review,NO.70(2018).在公共領(lǐng)域,管理美國密歇根州逃犯重罪犯政策的算法不正當(dāng)?shù)厝∠顺^19000 名居民獲得食品援助福利的資格,而沒有使其得到足夠的通知或聽取意見的機會。管理科羅拉多州公共福利系統(tǒng)的算法中發(fā)現(xiàn)了900多個錯誤,導(dǎo)致數(shù)十萬個不正確的醫(yī)療補助、食品券和福利資格確定。②Bunnell N.Remedying Public-Sector Algorithmic Harms,“The Case for Local and State Regulation via Independent Agency”,olumbia Journal of Law and Social Problems,NO.54(2020).據(jù)股城網(wǎng)2018 年3 月的報道,某位用戶經(jīng)常通過旅行網(wǎng)站預(yù)訂某酒店的房間,一晚價格通常在380—400元左右;而在淡季的某日,該旅客以自己的賬號登錄該網(wǎng)站查詢到該酒店價格仍為380元,但隨后登錄其朋友賬號查詢,酒店價格卻顯示為300 元。③股城網(wǎng):《同一酒店兩個價格 小心掉入大數(shù)據(jù)“殺熟”圈套》,https://consumer.gucheng.com/201803/3383747.shtml,最后訪問時間:2022年5月29日,這些例子足以說明黑箱算法產(chǎn)生的負(fù)面影響之廣泛。需要看到的是,算法被所有者賦予了公平正義的價值內(nèi)涵,希望借以做出客觀決策,從而克服人類的主觀偏見。但欠缺透明度的算法非但不能實現(xiàn)公正價值的應(yīng)然到實然轉(zhuǎn)變,反倒會置算法決策相對人于不利地位。在此背景下,算法解釋應(yīng)運而生,其旨在破除算法黑箱的屏障,通過解釋算法的自動化決策來規(guī)制算法黑箱,進而達到緩和乃至消除算法決策隱私以及歧視風(fēng)險的目的。④張恩典:《大數(shù)據(jù)時代的算法解釋權(quán):背景、邏輯與構(gòu)造》,《法學(xué)論壇》2019年第4期。
專利保護算法以公開代碼為指向,所有者又往往將代碼作為商業(yè)秘密予以嚴(yán)格保護,拒絕使公眾知曉具體內(nèi)容。代碼的完全公開無疑會打擊所有者的創(chuàng)造積極性,但一味不披露又會造成一系列負(fù)面影響。代碼的商業(yè)秘密屬性確實對算法的解釋構(gòu)成一定的限制,但這種限制是相對的而不是絕對的。平衡二者之間的緊張關(guān)系可以借鑒比例原則,比例原則是指通過比較利益的位階高低尋找平衡點,并最終以最緩和的方式侵害低位階利益,這種侵害同時也不得超過必要限度。落實到算法解釋與商業(yè)秘密的沖突之中,則是為了保護算法決策相對人的正當(dāng)利益,了解算法模型的內(nèi)部運作與考慮因素從而評估該算法的公平程度,可以適當(dāng)?shù)姆绞接邢薅鹊赝黄扑惴ǖ纳虡I(yè)秘密保護。狹義的比例原則也要求以最緩和的手段來實現(xiàn)算法說明的目的。由此,算法說明應(yīng)當(dāng)以最緩和的方式進行,減少對商業(yè)秘密的破壞和侵害。⑤呂炳斌:《論個人信息處理者的算法說明義務(wù)》,《現(xiàn)代法學(xué)》2021年第4期。
總而言之,算法解釋制度是解決算法歧視、算法不可責(zé)性、個人平等權(quán)保護以及算法所有者維護競爭優(yōu)勢等問題的共同需求,有助于促進算法自動化決策中公正價值的充分發(fā)揮,是算法所有者利益和算法決策相對人利益的平衡點,對于雙方都具有重要意義。解決該問題的關(guān)鍵在于構(gòu)建一個事前解釋和事后解釋相結(jié)合的機制,既要注重面對特定相對人、特定具體決策的解釋,也應(yīng)當(dāng)著眼于一般意義上的系統(tǒng)功能說明,只有這種貫穿于算法自動化決策全過程的算法解釋才能切實保障社會公眾的個人權(quán)益。
本文中算法的事后解釋指的是:當(dāng)算法自動化決策對算法決策相對人產(chǎn)生法律上或者經(jīng)濟上的顯著影響時,相對人向算法所有者提出請求,要求其提供具體決策解釋,并更新數(shù)據(jù)或錯誤,算法所有者以不同方式回應(yīng)算法直接影響者和間接影響者請求的制度。①張凌寒:《商業(yè)自動化決策的算法解釋權(quán)研究》,《法律科學(xué)(西北政法大學(xué)學(xué)報)》2018年第3期。
1.算法事后解釋的形式
主體對解釋的關(guān)注以對算法透明度和自身權(quán)益保障的需求為驅(qū)動力,算法決策相對人的救濟困境產(chǎn)生算法的問責(zé)需求。而從邏輯學(xué)的角度考慮:問責(zé)需要理由,理由需要解釋。為了證明算法生成結(jié)果的合理性,算法所有者有必要對該算法的運行過程進行解釋。那么,算法決策相對人需要什么形式的解釋?舉例來說,在Selex vs Google 一案中,唯一公開的算法是以三層流程圖的結(jié)構(gòu)展現(xiàn),它概述了控制模塊將根據(jù)指定的考慮因素確定是直接還是間接發(fā)出呼叫的三步過程。然而,除非結(jié)合包含在說明書中的查找表來查看該結(jié)構(gòu),否則,本領(lǐng)域普通技術(shù)人員將無法辨別本發(fā)明的參數(shù)。②Selex Communs, Inc.v.Google Inc., 2013 U.S.Dist.LEXIS 50061, 2013 WL 1412334.谷歌的這類解釋是不可取的,它具有真實性但毫無意義。衡量需要什么形式的解釋,很大程度上取決于權(quán)利主體的請求內(nèi)容。為了回應(yīng)算法決策相對人的糾錯和權(quán)利救濟需求,算法所有者要對算法進行解釋,以便一個普遍不具有算法專業(yè)知識的群體理解。可見,在算法的事后解釋中,相關(guān)的技術(shù)細(xì)節(jié)并不是解釋的重點,需要披露的是算法是如何利用用戶的相關(guān)數(shù)據(jù)得出決策結(jié)果,哪些因素被考量在內(nèi)。
2.必要時的反事實解釋
受算法自動化決策影響的主體范圍十分普遍,算法決策的具體相對人為該決策的直接影響對象,除此之外還包括大量間接影響對象。以招聘算法為例,若應(yīng)聘者A對招聘結(jié)果提出異議并得到支持,A 是該招聘算法的直接影響對象,其他應(yīng)聘者則是間接影響對象。面向具體決策相對人的事后解釋無法解決用戶隱私與他人知情權(quán)之間的沖突。前者以打開算法黑箱的方式,向數(shù)據(jù)主體說明其具體隱私數(shù)據(jù)在算法中的運用與考量,期間無需向第三人披露數(shù)據(jù)主體的相關(guān)信息,因而并不侵犯個人隱私權(quán)。而當(dāng)解釋對象轉(zhuǎn)變?yōu)殚g接影響者后,該類主體同樣具有對算法決定提出異議的權(quán)利,但受個人信息保護權(quán)益限制,前文提及的解釋方法已不適用。對此,本文提出反事實解釋應(yīng)對該困境。反事實解釋并不試圖以個人隱私數(shù)據(jù)為基礎(chǔ)闡述算法決策的工作原理,它旨在通過提供最少的影響決策的關(guān)鍵性信息,使無權(quán)知悉相關(guān)個人數(shù)據(jù)的主體在不打開算法黑箱的情況下了解該決策的合理性與公正性,期間無需透露任何敏感信息。其克服了在保護數(shù)據(jù)主體隱私的情況下對間接影響者做出解釋的挑戰(zhàn),以便其理解算法依據(jù)何種理由做出決定、對不利決定進行反駁并可以根據(jù)現(xiàn)有的決策邏輯做出相應(yīng)轉(zhuǎn)變從而在未來獲得期望結(jié)果。
在伍德沃德(Woodward)看來“解釋是一個闡明反事實依賴系統(tǒng)模式的事情”,也就是說,解釋必須能夠用來回答解釋項的“如果情況不同”(what if things had been different)問題或反事實問題。①初維峰:《因果解釋的反事實理論與自然律》,《科學(xué)技術(shù)哲學(xué)研究》2019年第4期。反事實解釋是指通過闡述導(dǎo)致該決定所依賴的事實變量,當(dāng)該變量發(fā)生變化后所導(dǎo)致的結(jié)果的說明。如前述的招聘算法中,其他應(yīng)聘者請求算法所有者對應(yīng)聘者A 改變的結(jié)果進行解釋時,得到的答案形式為:如果A 的工作經(jīng)驗低于5 年,那么他將不會獲得這份工作。而應(yīng)聘者A 本人得到的解釋將會為:因為你的工作經(jīng)驗為8年,符合崗位要求,因而獲得該崗位。反事實解釋通過識別影響決策的變量,這種變量是一種概括性概念而非具體數(shù)值,聯(lián)系算法工作的邏輯,描述當(dāng)算法內(nèi)部變量發(fā)生變化時所產(chǎn)生的不同結(jié)果。反事實解釋的陳述形式由兩部分組成,即決定變量(如工作經(jīng)驗)和結(jié)論(如得到工作),其特點為結(jié)論與現(xiàn)存事實相反,解釋并不涉及決策相對人的數(shù)據(jù)信息。內(nèi)部邏輯構(gòu)成為現(xiàn)有影響決策的關(guān)鍵變量的具體值導(dǎo)致了現(xiàn)存事實即結(jié)論,當(dāng)該變量發(fā)生變化滿足某種條件且其他變量保持不變時,結(jié)論隨之發(fā)生改變。
受解釋對象和范圍的限制,反事實解釋的適用場景有限。其無法揭示黑箱算法的內(nèi)部邏輯,作為因果解釋的屬概念,反事實解釋以最直接的途徑將主體的數(shù)據(jù)與算法所有者植入算法的篩選標(biāo)準(zhǔn)相結(jié)合,相對模糊地反映了算法中的因果關(guān)系。但對于算法系統(tǒng)基本原理的闡述仍有諸多欠缺。從反事實解釋的陳述形式來看,一個乃至多個反事實的存在,表面上反映了該算法納入的多種考慮因素,但從算法所有者的利益立場出發(fā),諸如種族、性別等歧視性因素勢必置身于陰影之下。為了根除算法系統(tǒng)的不公平性,應(yīng)增加其他形式的解釋制度克服相關(guān)挑戰(zhàn)。
算法的事后解釋是給予用戶個人的私法請求權(quán)。②劉云:《論可解釋的人工智能之制度構(gòu)建》,《江漢論壇》2020年第12期。用戶可以通過提起個案訴訟來滿足自己的具體需求,但是這種事后解釋僅適用于算法決策相對人的權(quán)益被侵害之后的司法救濟,其普適性不高。其在算法糾錯效率、公共利益的保護等方面也存在一定的局限性,難以實現(xiàn)對算法權(quán)力的有力規(guī)制,需要引入算法的外部監(jiān)管和運營方負(fù)有說明義務(wù)的模式對算法進行事前解釋,從而實現(xiàn)對算法的全面治理。個人權(quán)益的保護應(yīng)始于算法投入應(yīng)用之前,通過外部監(jiān)管力量的介入和算法所有者的自律從根源上防范算法可能導(dǎo)致的種種風(fēng)險。
與黑箱算法相似的是,藥品數(shù)據(jù)的保護同樣面臨該問題:首先,從企業(yè)視角出發(fā),藥品的開發(fā)也需要長時間的測試與人力金錢投入,具備商業(yè)秘密的屬性;其次,藥品的作用機制如同一個黑盒不可預(yù)測。人體是現(xiàn)存最復(fù)雜的系統(tǒng)之一,具有的遺傳變異、生物途徑、蛋白質(zhì)表達模式、代謝物濃度和運動模式(僅舉出幾十個變量中的幾個)對每個人的影響都不同,而這些變量中只有少數(shù)被科學(xué)家充分理解。當(dāng)一種藥物不起作用或患者患上罕見疾病時,原因可能是某些遺傳變異、代謝物濃度或環(huán)境差異——或者這些變量中的幾個以醫(yī)生可能永遠(yuǎn)無法理解的方式共同作用。③Ford R A, Price W, Nicholson I I.,“Privacy and Accountability in Black-Box Medicine”,MichiganTechnology Law Review,NO.23(2016).這帶來的挑戰(zhàn)——藥品數(shù)據(jù)的保護與問責(zé)之間的矛盾,與本文所探討的算法事前解釋制度所要克服的困難不約而同。對此,以美國的藥品數(shù)據(jù)保護模式為例,1997 年《食品、藥品和化妝品條例》第355 節(jié)、1984 年《藥品價格競爭與專利期延長法》以及1983 年《孤兒藥品法》規(guī)定了對藥品試驗數(shù)據(jù)的排他權(quán)利保護。④馮潔菡:《TRIPS 協(xié)議下對藥品試驗數(shù)據(jù)的保護及限制——以國際法和比較法為視角》,《武大國際法評論》2010年第1期。該保護模式的重點就在于安全性與有效性,其保護目的正與構(gòu)建算法事前解釋制度的要求相契合。
1.算法外部監(jiān)管:公開源代碼的審核與測試
算法的事前解釋建立在保護算法的秘密性利益的基礎(chǔ)之上,因而外部的監(jiān)管力量重點在于主管機關(guān)對算法所有者向其公開的源代碼進行審核和監(jiān)督,確保算法并沒有將種族等不公平因素納入評估機制之中。如拉姆和艾薩克(Lum & Isaac)在研究預(yù)測性警務(wù)系統(tǒng)(PredPol)時就發(fā)現(xiàn)了其存在嚴(yán)重偏見,該系統(tǒng)標(biāo)記可能發(fā)生犯罪的區(qū)域時,輸入該算法的數(shù)據(jù)似就已經(jīng)存在偏差——雖然毒品犯罪分布在各個城市,但警察逮捕的毒品犯罪卻不成比例地位于非白人地區(qū),這就表明該算法不恰當(dāng)?shù)貙碜源硇圆蛔愕娜后w的人標(biāo)記為有犯罪風(fēng)險。①Castets-Renard C.Accountability of Algorithms in the GDPR and Beyond,“A European Legal Framework on Automated Decision-Making”,F(xiàn)ordham Intellectual Property, Media & Entertainment Law Journal,NO.30(2019).
算法行業(yè)的高創(chuàng)新率與理解的專業(yè)性要求算法監(jiān)管機關(guān)必須具備獨立的法律地位與專業(yè)的知識人才,從而有效應(yīng)對算法進入市場之前廣泛的測試與評估。與藥品數(shù)據(jù)保護制度類似,算法所有者在享有一定期限的市場排他權(quán)的同時,需要向特定群體公開源代碼,確保其維持一定的競爭優(yōu)勢,保證其獲得足夠的經(jīng)濟回報,實現(xiàn)激勵算法創(chuàng)新的目標(biāo)。②前引④,第103頁??紤]到民主透明度和商業(yè)競爭之間的緊張關(guān)系,算法的公開只要求最低限度的必要披露——源代碼披露對象僅限于行政主管機關(guān),源代碼對于非專家人員來說是難以辨認(rèn)的,因而無需向公眾尤其是競爭對手公開源代碼,從而適當(dāng)?shù)乇Wo公司的商業(yè)秘密。
出于保護公共利益的考慮,對于算法所有者申報的源代碼,主管機關(guān)可對其進行靜態(tài)與動態(tài)測試,判斷該算法是否合理且公正,確保算法決策過程符合管理決策的社會道德及法律標(biāo)準(zhǔn)。算法的隱性歧視可能難以發(fā)現(xiàn),但可以通過分析算法的源代碼,以便事前審查算法的運作標(biāo)準(zhǔn),并在運行中進行驗證。靜態(tài)測試著重于確定程序的運行邏輯,例如接收的數(shù)據(jù)的性質(zhì)、可以產(chǎn)生的輸出類型、程序的一般形式以及程序?qū)嵤┲猩婕暗募夹g(shù)。特別是,靜態(tài)分析可以揭示出導(dǎo)致程序以特定方式運行的輸入類型。③Kroll J A, Huey J, Barocas S, et al,“Accountable Algorithms”,University of Pennsylvania Law Review, NO.165(2017).在這種情況下,主管機關(guān)可以初步判斷出在輸入端輸入相同的數(shù)據(jù)類型可產(chǎn)生一樣的結(jié)果。盡管源代碼是對自身程序的精確說明,但仍然不能保證其在現(xiàn)實世界發(fā)生變化時會保持準(zhǔn)確。因此需要結(jié)合輸入數(shù)據(jù)對信息進行動態(tài)分析——它可以針對不同的輸入表現(xiàn)出截然不同的輸出或行為,而靜態(tài)分析沒有考慮到具體的運行場景。動態(tài)運行是指在運行算法程序的同時通過特定輸入的數(shù)據(jù)來評估輸出,該法是對靜態(tài)審查的結(jié)果進行二次判斷,即算法在運行實踐中是否符合審查標(biāo)準(zhǔn)。
算法事前解釋的核心內(nèi)容在于以何種激勵方式鼓勵算法所有者公開源代碼。正如現(xiàn)代交換理論代表人物之一霍曼斯所言:人類行為是個人之間進行報酬和懲罰的交換,交換理論的核心是工具理性。④戴丹:《從功利主義到現(xiàn)代社會交換理論》,《蘭州學(xué)刊》2005年第2期。與此相對應(yīng),美國的藥品數(shù)據(jù)保護同樣體現(xiàn)出藥品所有者相關(guān)數(shù)據(jù)的保密利益與用藥安全等公共利益之間的矛盾,其保護的具體規(guī)定為:新藥申請人為了獲得首次上市批準(zhǔn)而向食品藥品監(jiān)督管理局提交的證明藥品安全性和有效性的未公開實驗數(shù)據(jù),食品藥品監(jiān)督管理局在有效保護期內(nèi)不得再利用該數(shù)據(jù)批準(zhǔn)其他仿制藥的上市。①楊莉、李野、岳晨妍:《美國的藥品數(shù)據(jù)保護及啟示》,《中國藥房》2007年第10期。算法所有者也應(yīng)享有類同權(quán)利——源代碼一旦上報主管機關(guān)并審核通過,算法所有者可以獲得一定保護期內(nèi)的排他使用權(quán),在該保護期內(nèi)禁止目標(biāo)代碼相同或高度相似的算法進入人工智能市場,除非其能獲得前申請人的使用授權(quán)。由此,披露要求給算法所有者帶來的成本將顯著減少,有利于成功建立算法解釋制度并使算法所有者遵守增加的披露負(fù)擔(dān)。
2.算法內(nèi)部規(guī)制:面向使用者的披露與說明
算法的公開程度因披露對象的不同而有所變化,與面向主管機關(guān)的披露不同,算法所有者面向公眾的事前解釋類似于美國證券交易監(jiān)督委員會的披露內(nèi)容,這些披露不涉及算法源代碼等方面的商業(yè)秘密或其他技術(shù)細(xì)節(jié),但提供算法如何運作、什么因素是有意義的變量、采用何種邏輯等信息。無形的“算法之手”對特定個人或群體進行不公平推斷或?qū)⑺麄儭皹?biāo)簽化”,如今大數(shù)據(jù)分析技術(shù)在分類篩選時很可能會因種種不恰當(dāng)?shù)睦碛蓪⒅黧w劃分入某種類型,并限制其權(quán)利或排除其機會。②解正山:《算法決策規(guī)制——以算法“解釋權(quán)”為中心》,《現(xiàn)代法學(xué)》2020年第1期。此類算法的運作過程隱蔽性強,單純依賴事后的個案救濟無法有效對抗算法帶來的危害。在這種情況下,相關(guān)的披露義務(wù)將會促使算法所有者對算法進行可持續(xù)的管理。信息披露使公眾更容易發(fā)現(xiàn)公司的非法或不道德行為并比較它們的表現(xiàn),因此公司將面臨更廣泛的監(jiān)控,避免不滿足公眾標(biāo)準(zhǔn)而在競爭激烈的人工智能市場失去市場份額。
以算法推薦服務(wù)設(shè)置的披露說明為例:中國青年報社會調(diào)查中心聯(lián)合問卷網(wǎng),對1144 名受訪者進行的一項調(diào)查顯示,75.3%的受訪者曾被算法推薦服務(wù)困擾過。③王品芝、潘澤強:《75.3%受訪者曾被算法推薦服務(wù)困擾》,《中國青年報》2022年3月24日,第10版?!兑?guī)定》出臺之后,53.8%的受訪者表示會選擇關(guān)閉算法推薦功能。④王品芝、潘澤強:《算法新規(guī)施行53.8%受訪者表示會選擇關(guān)閉算法推薦》,《中國青年報》2022 年3 月24 日,第10版。目前,包括抖音在內(nèi)的多個平臺上線的算法關(guān)閉鍵,多無明顯提示或說明,算法平臺將關(guān)閉鍵掩藏于軟件深處。個性化推薦使平臺可預(yù)測或推斷消費者的數(shù)據(jù)與其提供的產(chǎn)品和服務(wù)之間的關(guān)系,進而實現(xiàn)商業(yè)追求。部分APP如抖音、小紅書的商業(yè)模式本身就建立在個性化推薦的基礎(chǔ)之上,依托于今日頭條團隊開發(fā)的供需匹配程序,為每位短視頻觀看者推薦他更喜歡的視頻是抖音短視頻平臺的競爭優(yōu)勢之一。⑤王水蓮、李志剛、杜瑩瑩;《共享經(jīng)濟平臺價值創(chuàng)造過程模型研究——以滴滴、愛彼迎和抖音為例》,《管理評論》2019年第7期。與此同時,抖音在個性化推薦設(shè)置界面強調(diào)了用戶可以通過長按不感興趣的選項調(diào)整所看內(nèi)容,且關(guān)閉個性化推薦之后可能會降低使用體驗。受該模式吸引的用戶困于有限的關(guān)閉動機和理性,個人數(shù)據(jù)的保護難以真正實現(xiàn)。實證研究表明,簡化的披露或警告標(biāo)簽對消費者了解隱私披露與否、披露信息的意愿或?qū)﹄[私權(quán)的期望幾乎沒有影響。⑥Busch C.,“Implementing personalized law ”,The University of Chicago Law Review,NO.2(2019).目前的通知范式作為算法規(guī)制工具的有效性存疑。
個性化推薦說明算法技術(shù)不僅有能力基于個人數(shù)據(jù)向用戶提供個性化推薦的設(shè)置通知且產(chǎn)生積極效果,且表明用戶傾向于以個性化方式獲取信息。奧爾波特說,“社會范疇化主導(dǎo)著我們整個思維生活……人類心智必須在范疇的幫助下才能思考……范疇一旦形成,就會成為平常的預(yù)前判斷的基礎(chǔ)。我們不可能避免這個過程,生活中的秩序端賴這個過程”。⑦高明華:《偏見的生成與消解:評奧爾波特〈偏見的本質(zhì)〉》,《社會》2015年第1期。所謂的以個人興趣為核心的“信息繭房”本身,其實是由個人的選擇和注意所決定的。當(dāng)前的個性化推薦設(shè)置界面,無論是什么形式,都沒有考慮到用戶的隱私數(shù)據(jù)使用傾向。個性化推薦服務(wù)收集的數(shù)據(jù)類型眾多(包括瀏覽記錄、收藏、發(fā)布信息、關(guān)注信息、訪問日期和時間等),不同人的隱私保護意愿程度、使用目的(如排序精選、檢索過濾等)不同。目前的通知方式并未考慮到用戶的隱私保護意愿,對于個性化推薦服務(wù)設(shè)置的通知應(yīng)當(dāng)突破現(xiàn)有的標(biāo)準(zhǔn)范式而改為個性化通知,采取分層通知的辦法,可借助彈窗等工具明顯告知用戶該類算法需要利用何種數(shù)據(jù)提供何種信息,在保證用戶充分知情權(quán)的基礎(chǔ)上實現(xiàn)選擇權(quán)。
構(gòu)建算法的事前與事后解釋制度有助于破除算法黑箱的屏障,維護算法社會的公平正義。算法規(guī)制在兼顧所有者商業(yè)秘密利益的同時,需協(xié)調(diào)社會公眾利益,站在二者的中間立場,用算法保護察算法問責(zé),以算法問責(zé)促算法保護。具而言之,即在算法實際應(yīng)用之前有限度地披露相關(guān)信息并審查其公正性;并在算法進入市場之后,賦予特定人救濟權(quán)利,確保公眾知情權(quán)的同時妥善處理其與個人隱私數(shù)據(jù)之間的緊張關(guān)系。