□尹鋒林,李玲娟
(中國科學(xué)院大學(xué) 公共政策與管理學(xué)院,北京100049)
傳統(tǒng)上的算法概念主要存在于數(shù)學(xué)范疇,是指解決一個數(shù)學(xué)問題的一系列步驟。隨著計算機的問世和快速發(fā)展,人們不僅可以直接利用計算機通過算法完成復(fù)雜的數(shù)值計算問題,而且還可以用數(shù)值表達文字,進而利用計算機通過算法解決某些非數(shù)值計算問題,比如對溫度進行控制,識別用戶的門禁權(quán)限,對用戶咨詢的問題進行分析并應(yīng)答,根據(jù)用戶指令向第三方轉(zhuǎn)賬等。在信息社會,算法已經(jīng)不再局限于數(shù)學(xué)范疇,算法對社會、經(jīng)濟甚至政治生活的影響越來越廣泛和深入,對算法進行治理的需求也相應(yīng)地越來越迫切[1](p8)。
從治理主體角度進行分類,可以將算法治理分為公共治理和私人治理兩大類。算法公共治理是指公權(quán)機構(gòu)為了實現(xiàn)公平公正和社會效率而對算法進行治理的行為,比如立法機關(guān)通過立法對算法進行規(guī)范,行政機關(guān)通過具體行政行為對算法進行糾正等[2](p17-22)。算法私人治理是指公民、企業(yè)等私權(quán)主體依法對算法進行治理的行為,比如企業(yè)對自己開發(fā)的算法進行修改完善,公民對政府或企業(yè)的算法行為提起訴訟等。由于私權(quán)主體是算法的直接受影響者,可以最先且最直觀地感受到算法的影響和好壞,同時,也最有動力糾正不合理的算法,因此,算法私人治理不僅是私權(quán)主體維護自身權(quán)益的重要手段,而且對于實現(xiàn)公平公正、維護社會公共利益具有重要意義。
算法私人治理的治理主體可以分為以下三種類型:一是開發(fā)或使用算法的企業(yè);二是行業(yè)協(xié)會;三是受算法影響的企業(yè)或公民。
在很多情況下,開發(fā)或使用算法的企業(yè)為了自身經(jīng)濟利益有動力對其算法進行自我治理。比如,為了便利或吸引更多的用戶,企業(yè)會時常修改其算法來優(yōu)化服務(wù)流程,或者修正其算法以減少對用戶個人信息的過度索取[3]。當(dāng)然,企業(yè)對其算法的自我治理是以其利潤最大化為前提的,企業(yè)優(yōu)化或修改其算法的主要考量因素是其短期、中期和長期利益。企業(yè)治理算法除了要考量治理收益之外,還會考慮到治理的成本。企業(yè)算法自我治理成本既包括對算法進行修改或完善所需要投入的直接成本,如方案設(shè)計論證成本、程序員工時成本等,還包括算法改變后未來收益的可能損失等間接成本。
在考量企業(yè)算法自我治理的收益與成本時,還應(yīng)考慮到相關(guān)法律政策和受算法影響的主體對企業(yè)現(xiàn)有算法的容忍程度。如果法律政策對企業(yè)算法的規(guī)制力度較弱,企業(yè)違規(guī)成本很低,這樣,如果一個企業(yè)對其自身算法進行比較嚴(yán)格的自我治理而其他競爭性企業(yè)不進行自我治理,那么進行自我治理的企業(yè)就有可能在市場競爭中處于劣勢地位,從而出現(xiàn)“劣幣驅(qū)逐良幣”的問題。同樣,如果大多數(shù)用戶對算法問題容忍度高,不對算法開發(fā)者或使用者采取積極的應(yīng)對措施,那么也會變相縱容企業(yè)不對其算法進行嚴(yán)格的自我治理,進而形成“壞”算法—用戶默許—企業(yè)獲利—競爭者跟進—“更壞”算法的惡性循環(huán)。
行業(yè)協(xié)會是同一行業(yè)的企業(yè)、個體商業(yè)者及相關(guān)單位自愿組成的民間性、自律性的組織。行業(yè)協(xié)會具有民間自治性的特點,即行業(yè)協(xié)會根據(jù)有關(guān)法律法規(guī),自主地享有應(yīng)有的權(quán)利,實行自我管理,開展各種與宗旨相符的活動,獨立承擔(dān)相應(yīng)的責(zé)任;同時,行業(yè)協(xié)會還通過內(nèi)部組織機制的運行,規(guī)范其成員的行為,實現(xiàn)其團體內(nèi)的秩序,并使其團體內(nèi)秩序與法律秩序相協(xié)調(diào)、相補充[4](p198)。在算法私人治理過程中,行業(yè)協(xié)會的作用至關(guān)重要。
行業(yè)協(xié)會匯集了同行業(yè)的競爭者,代表本行業(yè)經(jīng)營者共同的長遠利益,因此,在單個企業(yè)擔(dān)心出現(xiàn)“劣幣驅(qū)逐良幣”現(xiàn)象而對其算法進行自我治理的動力不足的情況下,行業(yè)協(xié)會就可以組織競爭者討論并形成對相關(guān)算法進行自我治理的行業(yè)標(biāo)準(zhǔn)或行業(yè)最佳實踐。這些由行業(yè)協(xié)會組織制定的有關(guān)算法的行業(yè)標(biāo)準(zhǔn)或行業(yè)最佳實踐,能夠在一定程度上擺脫單個企業(yè)的自身利益考量,實現(xiàn)企業(yè)、競爭者、用戶各方利益的平衡。例如,為了防范互聯(lián)網(wǎng)金融企業(yè)過度索取用戶個人信息,特別是防止企業(yè)通過“爬蟲”程序違規(guī)搜集用戶個人信息,2019 年11 月中國互聯(lián)網(wǎng)金融協(xié)會向會員單位發(fā)布了《關(guān)于增強個人信息保護意識依法開展業(yè)務(wù)的通知》。該通知事實上就是一個行業(yè)規(guī)范,從互聯(lián)網(wǎng)金融行業(yè)整體利益角度對相關(guān)企業(yè)獲取用戶個人信息行為做出了明確規(guī)范和指引,進而解決了僅靠單個互聯(lián)網(wǎng)金融企業(yè)難以實現(xiàn)的對“爬蟲”算法進行自我治理的問題[5]。
受算法不利影響的企業(yè)或公民對算法具有最強烈的治理意愿。當(dāng)用戶受到經(jīng)營者算法的不公平對待或不利影響時,其第一想法顯然都是應(yīng)對該算法進行治理和完善,以維護自身權(quán)益。但是,在現(xiàn)實中又存在一個奇怪的現(xiàn)象:一方面受影響的主體對算法有強烈的治理意愿,另一方面受影響主體主動對算法發(fā)起治理行動的案例又極少。之所以存在這一現(xiàn)象,主要原因在于受影響主體對算法進行私人治理的成本與收益不對稱,進而導(dǎo)致其進行私人治理的內(nèi)在動力不足。受影響主體對算法進行私人治理的成本包括時間、精力、經(jīng)濟等成本,特別是當(dāng)受影響的主體是弱小的個體而開發(fā)或使用算法的主體是大型互聯(lián)網(wǎng)平臺的情況下,受影響主體對算法成功進行私人治理的成本會更加巨大。與此同時,受算法影響的主體并非僅是對算法進行私人治理的一個個體,而是包括千千萬萬個個體,這樣,一個個體對算法進行成功的私人治理就具有巨大的正外部性,即一個個體對算法進行私人治理取得了成功,受益者就不僅局限于私人治理個體本身,而且還包括其他受算法影響的大量個體。
因此,在建立算法治理的政策和制度時,就應(yīng)當(dāng)認真考慮是否需要鼓勵受影響主體對算法進行私人治理的問題。如果經(jīng)過利弊分析之后認為應(yīng)當(dāng)對受影響主體的私人治理行為進行鼓勵,那么相關(guān)政策制度就應(yīng)確保受影響主體私人治理的收益應(yīng)大于其治理成本。受影響主體私人治理的收益可以來自兩個方面:一是由被治理的開發(fā)或使用算法的企業(yè)提供。由于受影響主體私人治理的治理成本是由被治理企業(yè)引起的,因此,由被治理企業(yè)承擔(dān)治理成本是合理的。二是由治理后的受益者提供。算法私人治理的受益者是受算法不利影響的其他個體,由于他們并未采取實際的治理行動而同時又享受到了他人算法私人治理行為的惠益,所以由他們共同向算法私人治理主體提供一定的利益,也是合理的。當(dāng)然,由于算法私人治理的主要結(jié)果是算法的改善,受益者一般不能從治理行為中直接獲得現(xiàn)金利益,因此,如果讓受益者自己拿出貨幣給予私人治理個體,有可能會被大多數(shù)受益者所抵制。所以,從現(xiàn)實角度而言,由被治理主體承擔(dān)治理個體的收益則更加可行。
同時,需要注意的是,企業(yè)或公民不僅有可能會受到其他企業(yè)等市場主體算法的不利影響,而且還有可能會受到政府部門等公權(quán)機構(gòu)的算法的不利影響。企業(yè)或公民在受到公權(quán)機構(gòu)算法的不利影響時而對之做出的積極應(yīng)對,亦屬于算法私人治理范疇。由于公權(quán)機構(gòu)算法相比市場主體的算法而言,其影響更具有普遍性,其效力更具有強制性,因此,對公權(quán)機關(guān)算法的治理亦應(yīng)屬于算法私人治理的重點和關(guān)鍵。
與公共治理相比,算法私人治理更關(guān)注的是治理者的個體權(quán)益。算法私人治理的主要目的在于通過對算法進行完善,從而使受算法不利影響的企業(yè)或個人的合法權(quán)益獲得保障。因此,相較于程序正義而言,算法私人治理更加重視的是實體正義和個體正義,即更加注重私人治理對治理者的最終結(jié)果。所以,算法私人治理的內(nèi)容主要涉及與治理者個體利益相關(guān)的問題,具體包括算法歧視、個人信息保護等問題。
算法歧視是算法私人治理的主要問題。歧視是指基于某個人或某類人群的特征而給予的不同于他人的、不合理的區(qū)別對待。歧視是人權(quán)法上的一個重要概念。任何形式的歧視都是基于區(qū)分,而區(qū)分的基礎(chǔ)則是個人或群體的特征。人權(quán)法所關(guān)注的歧視區(qū)別特征主要有種族、膚色、性別、年齡、語言、宗教、國籍、財產(chǎn)、身份、社會階層、政治觀點等。在這些區(qū)別特征中,有的是天賦的且不可改變的,如種族、膚色、性別等,有的則是可以改變的,如國籍、語言、財產(chǎn)等。個人或群體的這些特征是發(fā)生歧視的前提,但并不是所有形式的區(qū)別對待都是歧視性的,人權(quán)法所反對的區(qū)別對待是建立在不合理的、不公正標(biāo)準(zhǔn)之上的區(qū)別對待[6](p143)。在信息社會,算法已經(jīng)成為政府與企業(yè)、政府與公民、企業(yè)與企業(yè)、企業(yè)與消費者和公民之間進行交流和事務(wù)處理的重要的輔助手段。算法在輔助處理社會主體之間的各種事務(wù)時,看似沒有主觀感情,不會故意區(qū)別對待相關(guān)社會主體,但是,由于算法決策是一種自動化的系統(tǒng),因此,一旦算法本身存在歧視問題,那么就會迅速產(chǎn)生系統(tǒng)性的歧視問題。這種系統(tǒng)性的歧視問題,不僅隱蔽,而且難以糾正[7]。
導(dǎo)致算法歧視的原因主要有兩個方面:一是算法之內(nèi)的原因;二是算法之外的原因。算法之內(nèi)的原因,是算法自身存在的問題而導(dǎo)致的歧視。算法自身存在的問題又可以分為兩種情形:一是算法設(shè)計者故意設(shè)計存在某種歧視的算法。比如網(wǎng)絡(luò)銷售平臺通過對消費者的消費情況和退換貨情況進行統(tǒng)計,而系統(tǒng)性地對消費次數(shù)多且退貨換貨次數(shù)較少的消費者給予比其他消費者更高的商品報價[8](p17-19)。二是算法設(shè)計者本身沒有進行歧視的故意,但是由于非故意或算法的內(nèi)在客觀原因不可避免地導(dǎo)致歧視。比如網(wǎng)絡(luò)銷售平臺向消費者提供多種網(wǎng)絡(luò)支付方式供消費者選擇,而由于不同的網(wǎng)絡(luò)支付方式的便利程度有所區(qū)別,那么在這種情況下,擁有不同網(wǎng)絡(luò)支付方式的不同消費者就可能產(chǎn)生不同的網(wǎng)絡(luò)購物體驗。
美國司法系統(tǒng)使用的COMPAS 系統(tǒng)主要作用是預(yù)測被告未來的再次犯罪率和危險程度,并根據(jù)該系統(tǒng)給出的評估結(jié)論決定被告人刑罰的輕重。由于美國黑人犯罪率以前相對較高,因此,COMPAS系統(tǒng)通過對以往犯罪數(shù)據(jù)的統(tǒng)計,特別是通過機械學(xué)習(xí)的方式來統(tǒng)計犯罪嫌疑人的某些特征與再犯罪率或危險程度的權(quán)重參數(shù),那么就必然會得出黑人種族比其他種族更高的犯罪危險程度權(quán)重。根據(jù)非營利機構(gòu)ProPublica 對COMPAS 評分數(shù)據(jù)的統(tǒng)計分析,也確實得出了“黑人被告有45%的可能比白人被告得到更高的分數(shù)”的結(jié)論[9](p29-42)。
由于人工智能的本質(zhì)是通過以往事物的大數(shù)據(jù)得出事物各因素之間的關(guān)聯(lián)參數(shù),然后再運用這些關(guān)聯(lián)參數(shù)對未來進行預(yù)測,因此,當(dāng)事物發(fā)生變化時,人工智能得出的結(jié)論就會與真實世界產(chǎn)生較大偏差。所以,算法如果僅是根據(jù)人工智能得出的結(jié)論做出決策,那么就有可能發(fā)生“失之毫厘,謬以千里”的現(xiàn)象[10]。
算法本身之外的因素也可能會間接導(dǎo)致歧視問題。特別是當(dāng)某個特定的算法決策涉及公共服務(wù)或準(zhǔn)公共服務(wù)之時,即使算法本身不存在歧視問題,但是由于算法的使用必須在一定系統(tǒng)和設(shè)備上運行,因此,如果該公共服務(wù)或準(zhǔn)公共服務(wù)與算法緊密聯(lián)系,要享受該公共服務(wù)或準(zhǔn)公共服務(wù)就必須具備能夠運行該算法的系統(tǒng)或設(shè)備,那么,在這種情況下,算法的存在和使用就會導(dǎo)致對那些沒有相關(guān)系統(tǒng)或設(shè)備的社會主體的歧視。比如,在新冠肺炎疫情期間,有些地方乘坐交通工具要求出示健康碼,如果不能出示健康碼就不允許乘坐交通工具,那么,在這種情況下,一些老年人由于接受新知識、新科技的能力的限制,不能使用智能手機獲取健康碼,進而這些老年人就會在事實上被排除到公共交通服務(wù)之外[11]。
人是社會關(guān)系的總和。個人信息則是公民建立社會關(guān)系的基礎(chǔ)元素。同時,個人信息隨著科技進步而不斷豐富、發(fā)展和變化。在1876年美國人A.G.貝爾發(fā)明電話機之前,電話號碼不可能成為一個人的個人信息;而在電子郵件系統(tǒng)發(fā)明之前,電子郵箱信息顯然也沒有必要作為個人信息給予保護。當(dāng)前,隨著信息網(wǎng)絡(luò)技術(shù)、人工智能技術(shù)的發(fā)展,與自然人安寧、安全有關(guān)的個人信息越來越豐富,比如上網(wǎng)記錄、地理位置、發(fā)布或瀏覽的信息等內(nèi)容均有可能成為一個自然人的標(biāo)識性信息。這些信息一方面涉及個人的安寧、安全和尊嚴(yán),另一方面又有可能具有重要商業(yè)價值[12](p153)。在人工智能時代,無論是對于個人還是信息收集者、信息使用者而言,這些信息均有可能具有顯著的實用價值[13](p59)。因此,如何有效保護個人信息數(shù)據(jù),既是人工智能技術(shù)健康發(fā)展和商業(yè)利用所面臨的重要課題,更事關(guān)公民的切身利益。
為了有效保護個人信息,我國于2021年1月1日起生效的《民法典》專門設(shè)立了一章來保護公民的隱私和個人信息?!睹穹ǖ洹返?034 條對個人信息的內(nèi)涵和外延做出了明確的界定。根據(jù)該條規(guī)定,個人信息是指“以電子或者其他方式記錄的能夠單獨或者與其他信息結(jié)合識別特定自然人的各種信息”;個人信息具體可包括自然人的姓名、出生日期、身份證件號碼、生物識別信息、住址、電話號碼、電子郵箱、健康信息、行蹤信息等信息[14]。
上述個人信息均是算法的處理對象,算法在處理個人信息時必須注重和保障個人信息的安全。根據(jù)國家標(biāo)準(zhǔn)化管理委員會發(fā)布的《信息安全技術(shù)個人信息安全規(guī)范》(GB/T35273-2020),算法在處理個人信息時,主要涉及以下幾個環(huán)節(jié)并應(yīng)遵循如下規(guī)則:
第一,個人信息的收集。算法開發(fā)者或使用者要處理個人信息,首先就需要收集用戶的個人信息。收集個人信息應(yīng)堅持知情同意原則、合法原則和最小化需求原則。除法律規(guī)定的例外情形之外,收集個人信息需要獲得被收集信息用戶的授權(quán)同意。如果間接獲取個人信息,則需要對個人信息來源的合法性進行確認。如果收集的信息涉及個人敏感信息,則收集者應(yīng)取得個人信息主體的明示同意,并應(yīng)確保個人信息主體的明示同意是其在完全知情的基礎(chǔ)上自愿給出的、具體的、清晰明確的愿望表示。另外,收集個人信息不得采取欺詐、誘騙、強迫手段,不得隱瞞產(chǎn)品或服務(wù)所具有的收集個人信息的功能,不得收集法律法規(guī)明令禁止收集的個人信息。同時,收集的個人信息的類型應(yīng)與實現(xiàn)產(chǎn)品或服務(wù)的業(yè)務(wù)功能有直接關(guān)聯(lián),不得捆綁個人信息來強迫用戶接受要求,且應(yīng)以實現(xiàn)產(chǎn)品或服務(wù)的業(yè)務(wù)功能所必需的最低頻率、最少數(shù)量進行收集。
第二,個人信息的保存。算法的開發(fā)者或使用者在保存?zhèn)€人信息時,亦應(yīng)堅持最小化原則,即個人信息保存期限應(yīng)為實現(xiàn)目的所必需的最短時間,超出上述個人信息保存期限后應(yīng)對個人信息進行刪除或匿名化處理。同時,在收集個人信息后,個人信息控制者在可能的情況下應(yīng)立即進行去標(biāo)識化處理,將去標(biāo)識化后的數(shù)據(jù)與可用于恢復(fù)識別個人的信息分開存儲,并確保在后續(xù)的個人信息處理中不重新識別個人。另外,如果存儲的個人信息是個人敏感信息,則應(yīng)采用加密等安全措施,特別是存儲個人生物識別信息時,應(yīng)在采用技術(shù)措施處理后再進行存儲,例如僅存儲個人生物識別信息的摘要。
第三,個人信息的使用。算法系統(tǒng)在使用個人信息時,應(yīng)該按照最小授權(quán)原則對被授權(quán)訪問個人信息的內(nèi)部數(shù)據(jù)操作人員進行使用限制,使其只能訪問職責(zé)所需的最少夠用的個人信息,且僅具有完成職責(zé)所需的最少的數(shù)據(jù)操作權(quán)限;對個人信息的重要操作應(yīng)設(shè)置內(nèi)部審批流程,如批量修改、拷貝、下載等;應(yīng)對安全管理人員、數(shù)據(jù)操作人員、審計人員的角色進行分離設(shè)置;對個人敏感信息的訪問、修改等行為,應(yīng)在對角色的權(quán)限控制的基礎(chǔ)上,根據(jù)業(yè)務(wù)流程的需求觸發(fā)操作授權(quán)。同時,算法的開發(fā)者或使用者亦應(yīng)對個人信息的展示、訪問、更正、刪除等活動設(shè)計合理的規(guī)則。尤其是在涉及通過算法自動決策而做出顯著影響個人信息主體權(quán)益的決定時,算法的開發(fā)者或使用者應(yīng)向個人信息主體提供申訴方法[15](p15-18)。
算法開發(fā)者或使用者以及相關(guān)行業(yè)協(xié)會是算法私人治理的首要主體,他們對其算法的治理主要是一種自律的方式。比如算法開發(fā)者或使用者可以制定算法開發(fā)或使用的企業(yè)標(biāo)準(zhǔn),并在開發(fā)和使用算法過程中嚴(yán)格貫徹其企業(yè)標(biāo)準(zhǔn),以保障受算法影響主體的合理利益。行業(yè)協(xié)會亦可以組織企業(yè)制定算法治理行業(yè)規(guī)范,以促進和提升行業(yè)內(nèi)算法開發(fā)者或使用者的自律水平。在算法開發(fā)者或使用者通過自律方式難以保障受算法影響主體的正當(dāng)?shù)暮侠砝鏁r,就需要受算法影響主體通過“他律”的方式糾正算法開發(fā)者或使用者的相關(guān)行為。這種“他律”的治理方式,更能針對問題的實質(zhì),也更能促使問題獲得真正的解決,因此,更應(yīng)重視“他律”治理方式的構(gòu)建和完善[16](54-58)。訴訟是受算法影響主體對算法進行私人治理的主要方式。具體而言,主要包括以下幾種訴訟行為:
在很多情況下,受算法影響主體是算法開發(fā)者或使用者的用戶,受算法影響主體與算法開發(fā)者或使用者之間存在書面的或非書面的合同關(guān)系,故二者之間的權(quán)利義務(wù)應(yīng)主要由合同條款進行確定。如果合同中有關(guān)于不歧視和個人信息保護的明確約定,并且這種約定屬于合理、合法的約定,則當(dāng)算法開發(fā)者或使用者違反這些約定時,受算法影響主體自然可以通過合同違約之訴獲得救濟。
在實踐中,一些算法開發(fā)者或使用者有可能會在其提供給用戶的格式合同中約定用戶需要接受其基于用戶信息而給出的不同的交易條件;另外,算法開發(fā)者或使用者還有可能以拒絕交易為條件要求用戶提供與其服務(wù)不相關(guān)聯(lián)的個人信息,并在格式合同中約定算法開發(fā)者或使用者有權(quán)以任何方式使用或處理這些個人信息。受算法影響主體在起訴算法開發(fā)者或使用者合同違約之后,算法開發(fā)者或使用者則會通過上述格式條款進行抗辯不構(gòu)成違約。針對上述格式條款,受算法影響主體可以依照我國《民法典》通過下列三種途徑進行應(yīng)對:
第一,受算法影響主體可以主張對其不利的格式條款不構(gòu)成合同內(nèi)容。根據(jù)《民法典》第496條規(guī)定,提供格式條款的算法開發(fā)者或使用者應(yīng)當(dāng)遵循公平原則確定當(dāng)事人之間的權(quán)利和義務(wù),并采取合理的方式提示對方注意免除或者減輕其責(zé)任等與對方有重大利害關(guān)系的條款;同時,如果合同相對方要求解釋說明格式條款的具體含義,算法開發(fā)者或使用者應(yīng)對相關(guān)條款予以明確說明。如果算法開發(fā)者或使用者未履行提示或者說明義務(wù),致使對方?jīng)]有注意或者理解與其有重大利害關(guān)系的條款的,則對方可以主張該條款不成為合同的內(nèi)容。
第二,受算法影響主體可以主張相關(guān)格式條款無效。根據(jù)《民法典》第487條規(guī)定,受算法影響主體在以下三種情況下,可以主張算法開發(fā)者或使用者的格式條款無效:一是符合民事法律無效一般規(guī)定的格式條款應(yīng)被認定為無效。例如,算法開發(fā)者或使用者與無民事行為能力人訂立的合同。二是算法開發(fā)者或使用者不合理地免除或者減輕其責(zé)任、加重客戶責(zé)任、限制客戶主要權(quán)利的格式條款無效。例如,算法開發(fā)者或使用者與客戶約定完全免除其保護客戶個人信息的義務(wù)的格式條款,由于該格式條款不合理地免除了算法開發(fā)者或使用者的主要責(zé)任,因此,應(yīng)該被認定為無效的格式條款。三是算法開發(fā)者或使用者排除客戶主要權(quán)利的格式條款無效。
第三,當(dāng)格式條款存在多種解釋時,受算法影響主體可以主張對其有利的解釋?!睹穹ǖ洹返?98條規(guī)定:“對格式條款的理解發(fā)生爭議的,應(yīng)當(dāng)按照通常理解予以解釋。對格式條款有兩種以上解釋的,應(yīng)當(dāng)作出不利于提供格式條款一方的解釋。格式條款和非格式條款不一致的,應(yīng)當(dāng)采用非格式條款?!币虼耍谟嘘P(guān)格式條款模糊不清,需要進行解釋時,則應(yīng)參考相關(guān)行業(yè)規(guī)范、慣例并從有利于客戶的一方對格式條款進行解釋。
受算法影響主體在難以通過違約之訴獲得救濟的情況下,可以考慮通過民事侵權(quán)之訴進行救濟。對于利用算法進行歧視或損害用戶個人信息權(quán)益的行為,受影響主體主要可以通過以下訴由主張權(quán)利:
一是濫用市場支配地位。根據(jù)《反壟斷法》第17 條規(guī)定,如果算法開發(fā)者或使用者對其用戶通過算法進行歧視,并且其在相關(guān)市場同時具有市場優(yōu)勢地位,那么算法開發(fā)者或使用者的歧視行為就屬于《反壟斷法》意義上的濫用市場支配地位,受影響的主體可以通過反壟斷之訴要求算法開發(fā)者或使用者糾正其算法并給予相應(yīng)的賠償。同時需要注意的是,算法開發(fā)者或使用者構(gòu)成濫用市場支配地位的一個重要前提是其歧視行為或差別待遇行為沒有合理的理由;換言之,如果算法開發(fā)者或使用者具有合理理由對用戶給予差別待遇,那么就不屬于濫用市場支配地位,比如,算法開發(fā)者或使用者針對新用戶的首次交易在合理期限內(nèi)開展的優(yōu)惠活動[17](p22)。
二是不正當(dāng)價格行為。我國《價格法》第14條規(guī)定,提供相同商品或者服務(wù),對具有同等交易條件的其他經(jīng)營者實行價格歧視,屬于不正當(dāng)價格行為,應(yīng)當(dāng)受到禁止。因此,在算法開發(fā)者或使用者不具有市場支配地位,且沒有合理理由對用戶進行價格歧視或差別定價時,則受影響主體可以依據(jù)《價格法》主張算法開發(fā)者或使用者構(gòu)成侵權(quán)[18](p58)。
三是侵犯消費者公平交易權(quán)。我國《消費者權(quán)益保護法》第10條規(guī)定:消費者享有公平交易的權(quán)利。消費者在購買商品或者接受服務(wù)時,有權(quán)獲得質(zhì)量保障、價格合理、計量正確等公平交易條件,有權(quán)拒絕經(jīng)營者的強制交易行為。因此,如果算法開發(fā)者或使用者通過算法給消費者進行畫像,并依據(jù)畫像結(jié)果對消費者進行不公平的區(qū)別對待,那么消費者就可以依據(jù)《消費者權(quán)益保護費》尋求救濟。值得注意的是,除了法律有明確規(guī)定的之外,區(qū)別對待行為一般應(yīng)被認定為不公平行為。因此,在是否構(gòu)成不公平的區(qū)別對待的舉證責(zé)任問題上,消費者僅對區(qū)別對待問題負有舉證責(zé)任,而算法開發(fā)者或使用者應(yīng)舉證證明該區(qū)別對待行為具有正當(dāng)性,否則,就應(yīng)認為該區(qū)別對待行為不具有正當(dāng)性。
四是侵犯個人信息權(quán)益。個人信息權(quán)利是我國《民法典》所規(guī)定的一項重要民事權(quán)利。算法開發(fā)者或使用者在收集、保存、利用個人信息時如存在不當(dāng)行為,受算法影響主體則可以侵犯個人信息權(quán)利為由獲得救濟。《民法典》雖然自2021年1 月1 日生效,但在此之前,我國已有法院明確保護個人信息權(quán)益的案例。例如,“微信讀書”軟件因在未獲得用戶有效同意的情況下獲取用戶的微信好友關(guān)系,并為用戶自動關(guān)注微信好友且向共同使用“微信讀書”軟件的微信好友默認開放其讀書信息,“微信讀書”軟件的用戶因此而認為該軟件侵犯了其個人信息權(quán)益。北京互聯(lián)網(wǎng)法院一審判決認為“微信讀書”軟件運營方侵害了原告的個人信息權(quán)益,繼而判令“微信讀書”軟件停止收集、使用原告微信好友列表信息的行為,刪除“微信讀書”軟件中留存的原告的微信好友列表信息,解除原告在“微信讀書”軟件中對其微信好友的關(guān)注,解除原告微信好友在“微信讀書”軟件中對原告的關(guān)注,停止將原告使用“微信讀書”軟件生成的信息(包括讀書時長、書架、正在閱讀的讀物)向原告的微信好友展示的行為[19]。
由于算法影響的人數(shù)眾多,算法私人治理具有較強的外部性,因此,對算法的治理不應(yīng)只依賴于單獨的個體提起民事訴訟,同時,還應(yīng)鼓勵適格的公益組織通過民事公益訴訟的方式參與算法的治理?!睹袷略V訟法》第55 條規(guī)定,對污染環(huán)境、侵害眾多消費者合法權(quán)益等損害社會公共利益的行為,法律規(guī)定的機關(guān)和有關(guān)組織可以向人民法院提起訴訟。由于受算法影響主體中的相當(dāng)一部分屬于消費者,如果這些消費者因為算法存在歧視或個人信息權(quán)益問題而受到大面積的侵害,那么消費者公益組織就有通過民事公益訴訟維護消費者利益的必要。另外,《民事訴訟法》第55 條進一步對檢察機關(guān)民事公益訴訟作出規(guī)定。根據(jù)該條規(guī)定,檢察機關(guān)民事公益訴訟的管轄范圍是:“破壞生態(tài)環(huán)境和資源保護、食品藥品安全領(lǐng)域侵害眾多消費者合法權(quán)益等損害社會公共利益的行為?!庇捎谠摴茌牱秶囊?guī)定中有一個“等”字,確保了檢察機關(guān)民事公益訴訟管轄范圍的可拓展性,即只要是侵害眾多消費者合法權(quán)益的損害社會公共利益的行為,檢察機關(guān)均有職權(quán)進行民事公益訴訟[20](p16)。因此,檢察機關(guān)對于利用算法實行大范圍的消費者歧視行為或損害個人信息權(quán)益行為亦可以提起民事公益訴訟或?qū)οM者組織的民事公益訴訟行為支持起訴。
在當(dāng)代社會,隨著人工智能技術(shù)的快速發(fā)展和廣泛應(yīng)用,行政機關(guān)不僅對各類主體的算法擁有監(jiān)管的法律職責(zé),同時,行政機關(guān)也是一些算法的開發(fā)者和使用者,并越來越廣泛地采用人工智能技術(shù)輔助行政決策與行政管理工作。因此,受算法影響主體在以下兩種情況下可針對行政機關(guān)提起行政訴訟:
第一,行政機關(guān)未對相關(guān)主體的算法履行法定監(jiān)管職責(zé)。根據(jù)我國《行政訴訟法》第12 條第1款第6 項規(guī)定,申請行政機關(guān)履行保護人身權(quán)、財產(chǎn)權(quán)等合法權(quán)益的法定職責(zé),行政機關(guān)拒絕履行或者不予答復(fù)的,公民、法人或其他組織有權(quán)向人民法院提起行政訴訟[21](p35)。我國有很多法律、法規(guī)為行政機關(guān)設(shè)立了法定監(jiān)管職責(zé)。例如,根據(jù)《消費者權(quán)益保護法》第56 條第1 款第9 項規(guī)定,對于侵害消費者人格尊嚴(yán)、侵犯消費者人身自由或者侵害消費者個人信息依法得到保護的權(quán)利的行為,市場監(jiān)督管理部門應(yīng)責(zé)令改正,并可以根據(jù)情節(jié)單處或者并處警告、沒收違法所得、處以違法所得一倍以上十倍以下的罰款,沒有違法所得的,處以50 萬元以下的罰款;情節(jié)嚴(yán)重的,責(zé)令停業(yè)整頓、吊銷營業(yè)執(zhí)照。又如,根據(jù)《價格法》第40條規(guī)定,對于利用虛假的或者使人誤解的價格手段、誘騙消費者或者其他經(jīng)營者與其進行交易或者提供相同商品或者服務(wù)、對具有同等交易條件的其他經(jīng)營者實行價格歧視等行為,有關(guān)行政主管部門應(yīng)責(zé)令改正,沒收違法所得,且可并處罰款,對情節(jié)嚴(yán)重的,應(yīng)責(zé)令停業(yè)整頓,直至吊銷營業(yè)執(zhí)照。另外,我國立法機關(guān)正在制定《個人信息保護法》和《數(shù)據(jù)安全法》,這兩部擬制定的法律亦規(guī)定了行政機關(guān)對公民個人信息的保護職權(quán)。如《數(shù)據(jù)安全法(草案)》規(guī)定:對于數(shù)據(jù)活動存在較大安全風(fēng)險的,有關(guān)主管部門應(yīng)履行數(shù)據(jù)安全監(jiān)管職責(zé),可以對有關(guān)組織和個人進行約談,被約談組織和個人應(yīng)當(dāng)按照要求采取措施,進行整改,消除隱患;開展數(shù)據(jù)活動的組織、個人如未健全數(shù)據(jù)安全管理制度、履行數(shù)據(jù)安全管理義務(wù)、發(fā)生數(shù)據(jù)安全事件,或采取不合法、不正當(dāng)?shù)姆绞绞占⑹褂糜脩魝€人數(shù)據(jù),有關(guān)行政主管部門應(yīng)責(zé)令改正,給予警告,并可以對單位及其直接負責(zé)的主管人員給予罰款。因此,如果行政機關(guān)未按照法律、法規(guī)規(guī)定對算法履行行政監(jiān)管職責(zé),那么受算法影響的公民、法人或其他組織即可以對行政機關(guān)提起行政訴訟,要求人民法院判決其履行法定職責(zé)。
第二,行政機關(guān)使用的相關(guān)算法損害了行政相對人的權(quán)益。隨著行政機關(guān)越來越普遍地運用自動化辦公系統(tǒng)以提升行政辦公、公共決策和公共服務(wù)效率,行政相對人受到行政機關(guān)自動化辦公系統(tǒng)算法的影響越來越大。一旦行政機關(guān)的算法本身或使用時產(chǎn)生問題,那么就會對行政相對人產(chǎn)生系統(tǒng)的、廣泛的影響[22](p62)。例如,美國密歇根州政府利用一款反詐騙系統(tǒng)對該州失業(yè)補貼領(lǐng)取者進行審核,并對申請者是否存在詐騙進行判斷和處罰。據(jù)稱該系統(tǒng)錯誤率高達93%,并最終引起了該州4 萬名居民對州政府提起了集團訴訟。又如,美國紐約州曾使用一種算法系統(tǒng)以預(yù)測家長對其子女是否具有“嚴(yán)重家暴傾向”并據(jù)此做出決策。該算法系統(tǒng)一度導(dǎo)致該州上萬個家庭父母同其子女被迫分離,最終紐約州政府放棄了該系統(tǒng)的使用[23](p58)。行政機關(guān)開發(fā)、使用的算法系統(tǒng)針對行政相對人所做出的自動化決策和服務(wù),屬于行政機關(guān)的行為,因此,當(dāng)算法系統(tǒng)的自動化決策或服務(wù)導(dǎo)致行政相對人合法權(quán)益受損時,行政相對人即有權(quán)據(jù)此對行政機關(guān)提起行政訴訟。
同時,按照我國《行政訴訟法》之規(guī)定,我國檢察機關(guān)對于行政訴訟活動亦有法律監(jiān)督之職權(quán)。根據(jù)《行政訴訟法》第25 條第4 款規(guī)定,人民檢察院在履行職責(zé)過程中,如果發(fā)現(xiàn)對算法領(lǐng)域負有監(jiān)督管理職責(zé)的行政機關(guān)違法行使職權(quán)或者不作為,致使國家利益或社會公共利益受到損害的,應(yīng)當(dāng)向行政機關(guān)提出檢察建議,督促其依法履行職責(zé)。如果行政機關(guān)在收到檢察建議后仍不依法履行職責(zé)的,人民檢察院應(yīng)當(dāng)依法向人民法院提起行政公益訴訟。因此,受算法影響的公民、法人或其他組織如果認為算法存在問題且會導(dǎo)致國家或公共利益受損,那么在行政機關(guān)不作為的情況下,可以請求人民檢察院向行政機關(guān)提出檢察建議或向人民法院提起行政公益訴訟。
在算法治理的各相關(guān)主體之中,受算法影響的公民、法人或其他組織顯然最有意愿和動力對算法中存在的不當(dāng)問題進行治理。因此,算法私人治理在整個算法治理體系中應(yīng)占有重要地位。但是,在強調(diào)和重視算法私人治理作用的同時,并不能因此而淡化其他主體對算法治理的責(zé)任和義務(wù)。由于受算法影響主體的治理主張并不能自動地獲得實現(xiàn),受算法影響的主體必須與算法開發(fā)者、使用者進行協(xié)商或通過行政機關(guān)、人民法院的救濟才有可能實現(xiàn)其治理目標(biāo)。由此可見,算法的開發(fā)者和使用者是算法治理的關(guān)鍵,行政機關(guān)和人民法院作為公共管理者和居中裁判者則為算法的公正治理提供了基礎(chǔ)保障。因此,為了實現(xiàn)算法的良性治理,則必需算法開發(fā)者與使用者、受算法影響主體、行業(yè)協(xié)會、行政機關(guān)與司法機關(guān)共同努力,構(gòu)建一個由受算法影響主體的私人治理活動作為主要驅(qū)動力且各相關(guān)主體各負其責(zé)、各司其職的算法治理體系。