程 堯,蔡一軍
(上海政法學(xué)院刑事司法學(xué)院,上海201701)
中國科學(xué)技術(shù)協(xié)會對于算法的定義是:“算法(Algorithm)是指解題方案的準(zhǔn)確而完整的描述,是一系列解決問題的清晰指令,算法代表著用系統(tǒng)的方法描述解決問題的策略機(jī)制?!盵1]在人工智能時代的今天,在大數(shù)據(jù)技術(shù)與物聯(lián)網(wǎng)技術(shù)的推動下,人工智能算法所攝取數(shù)據(jù)信息愈加豐富,算法程序愈加自主化、類人化,“算法”的核心地位也越發(fā)明顯,它的發(fā)展使我們的生活更加便捷,但在這繁榮之下我們應(yīng)當(dāng)意識到它就像“潘多拉魔盒”一樣充滿了不確定性和不可控風(fēng)險因素,需要及時發(fā)現(xiàn)并進(jìn)行法律規(guī)制。
在面對各類風(fēng)險過程中,在結(jié)合我國實(shí)情的基礎(chǔ)上需要進(jìn)一步參考?xì)W美各國的治理經(jīng)驗(yàn),在法律框架內(nèi)完善各項(xiàng)法律原則以及公民權(quán)利配置、健全專門的行政監(jiān)督機(jī)構(gòu)、積極推動行業(yè)自律產(chǎn)業(yè)發(fā)展并對于人工智能算法侵權(quán)的責(zé)任劃分作出明確的界定。
(一)算法設(shè)計(jì)缺陷風(fēng)險 盡管目前主流的各類人工智能產(chǎn)品處于弱人工智能階段,但在近些年的快速發(fā)展下,我們已經(jīng)積累了豐富的實(shí)踐經(jīng)驗(yàn),構(gòu)建起了相對成熟的理論體系,尤其是自動駕駛、智能推薦等發(fā)展較早的領(lǐng)域已經(jīng)投入商用,但在完善技術(shù)規(guī)范以及建立統(tǒng)一的、恰當(dāng)?shù)姆蓸?biāo)準(zhǔn)上,世界各地都不同程度地存在滯后與監(jiān)管空白。正是這方面的原因,致使人工智能算法領(lǐng)域很難得到有效的監(jiān)管,近年來“特斯拉”電動汽車致死案以及兩起波音737MAX8 空難事故等都與相關(guān)駕駛控制軟件的設(shè)計(jì)缺陷不無關(guān)系。尤其是在這些危險系數(shù)較高的領(lǐng)域,智能控制軟件已經(jīng)成為各種大型交通工具、機(jī)械設(shè)備的核心,往往是人類做出決策或操縱設(shè)備的重要參考,甚至在某種程度上代替人類進(jìn)行自動決策,所以算法上任何細(xì)微的瑕疵都會造成無法挽回的損失。
(二)個人隱私泄漏風(fēng)險 軟銀CEO 孫正義曾說:“誰控制了數(shù)據(jù),誰就控制了世界”。[2]如果把人工智能算法比作一個人的靈魂的話,那么數(shù)據(jù)就是算法的血液。所以數(shù)據(jù)的質(zhì)量決定了算法的效果,算法的好壞決定了數(shù)據(jù)的安全性。現(xiàn)階段涉及個人隱私的算法數(shù)據(jù)呈現(xiàn)出以下三個特點(diǎn):儲存成本低廉、數(shù)據(jù)產(chǎn)生后會被各方多次重復(fù)利用、數(shù)據(jù)獲取渠道及其內(nèi)容更加多元?;谒惴〝?shù)據(jù)的以上三個特點(diǎn),隱私泄漏風(fēng)險容易出現(xiàn)在以下三個階段:
1.數(shù)據(jù)的獲取階段。2019 年7 月,英國《衛(wèi)報》報道了蘋果公司的人工智能語音助手Siri會在未經(jīng)用戶允許的條件下,將手機(jī)端錄音上傳至其服務(wù)器,并由第三方公司進(jìn)行數(shù)據(jù)分析,據(jù)說竊聽的內(nèi)容包括毒品交易、機(jī)密醫(yī)療信息等,另外還會顯示位置、聯(lián)系方式、應(yīng)用數(shù)據(jù)等私人信息。[3]無獨(dú)有偶,谷歌、亞馬遜等知名公司均被爆料存在此類侵權(quán)行為。另外,隨著物聯(lián)網(wǎng)技術(shù)的發(fā)展,私人領(lǐng)域的智能家居、智能醫(yī)療設(shè)備、可穿戴設(shè)備以及公共場合的圖像、語音采集設(shè)備均會在相對方?jīng)]有授權(quán)、無人監(jiān)管的狀態(tài)下獲取大量個人隱私數(shù)據(jù)并上傳和智能分析。[4]
2.數(shù)據(jù)存儲階段。當(dāng)前,各類用戶數(shù)據(jù)成為了無形的金礦與各方勢力爭相掠奪的戰(zhàn)略資源,數(shù)據(jù)資源的儲存安全也隨即成為我們需要面對的一個挑戰(zhàn)。2019年是人工智能技術(shù)突飛猛進(jìn)的一年,也是數(shù)據(jù)存儲安全面臨挑戰(zhàn)最為嚴(yán)峻的一年,比如2019 年末,Elasticsearch 服務(wù)器接連泄漏數(shù)十億級的個人數(shù)據(jù),騰訊、新浪、搜狐、網(wǎng)易等國內(nèi)郵件提供商均受到波及,[5]然而被爆料出來的泄漏事件僅僅是“冰山一角”,數(shù)據(jù)泄漏所造成的損失只會比我們的預(yù)期更糟。
3.算法處理階段。數(shù)據(jù)處理階段的隱私泄漏風(fēng)險主要體現(xiàn)在對于原始數(shù)據(jù)進(jìn)行整合、挖掘后會反映出數(shù)據(jù)主體近期處于何種狀態(tài)、有何種待辦事項(xiàng)、將要從事什么行為等。比如目前各大電商平臺推出的“千人千面”的商品智能推薦系統(tǒng),原理就是根據(jù)每一位用戶長期的購物喜好以及搜索習(xí)慣,結(jié)合該公司旗下各類平臺針對該用戶打造的專屬于該用戶的“數(shù)據(jù)畫像”,某種程度上它可能比你自己更了解你的“需求”。我們不妨作進(jìn)一步設(shè)想,如果該平臺由于保管不善或者出于其他商業(yè)目的,將類似的信息泄漏出去,不僅會泄漏我們的隱私還會為電信詐騙分子從事違法犯罪活動提供便利。
(三)“算法集權(quán)”風(fēng)險 同樣是以“千人千面”為特征的新聞資訊智能推薦算法,看似在為我們提供個性化、定制化貼心服務(wù),實(shí)則存在著巨大的“集權(quán)”風(fēng)險。算法會根據(jù)我們的興趣愛好、閱讀習(xí)慣不斷推送相關(guān)內(nèi)容,短期來看確實(shí)滿足了我們的現(xiàn)實(shí)需要,給用戶帶來了良好的體驗(yàn),但長此以往閱讀內(nèi)容便會嚴(yán)重同質(zhì)化,我們的視野和興趣就像溫水煮青蛙那樣變得僵化和單一,會慢慢喪失對于新聞資訊的選擇權(quán),因?yàn)槟闼吹降亩际潜蝗斯ぶ悄芩惴êY選過的,你只會被集權(quán)的算法束縛的越來越緊,自己卻渾然不知。所以這類智能算法的貼心服務(wù)在某種程度上是對人們自主選擇權(quán)有意或無意的剝奪,我們無法逃避這一現(xiàn)實(shí),因?yàn)閹缀跛械馁Y訊軟件都在不同程度上使用此類算法,這只會加劇我們對于不同領(lǐng)域認(rèn)知的隔閡以及不同社會群體的分化,加劇了互聯(lián)網(wǎng)誕生后得到緩解的“信息不對稱”現(xiàn)象。[6]
(四)歧視風(fēng)險 人工智能背景下的算法歧視可以根據(jù)其產(chǎn)生的原因分為技術(shù)和人為因素兩類。
1.技術(shù)因素導(dǎo)致的歧視。目前處于弱人工智能階段的所謂“智能”就是通過海量的數(shù)據(jù)對預(yù)先建立的算法不斷訓(xùn)練,讓已有的算法不斷進(jìn)行深度學(xué)習(xí),不斷試錯,進(jìn)而不斷完善各種問題,在這個過程中一些必然會遇到或者出現(xiàn)的錯誤就容易演變?yōu)椤捌缫暋钡囊馕?,?shí)則并非算法設(shè)計(jì)者的本意,例如早期的部分人像識別算法就出現(xiàn)過將黑人誤識別為黑猩猩的情況,所以這類“歧視”大多是由于算法缺陷的緣故造成的。[7]
此外,技術(shù)因素導(dǎo)致的歧視還包括數(shù)據(jù)失真等情形,用于人工智能算法訓(xùn)練的數(shù)據(jù)必須全面而海量,那么使用者便會通過各種渠道獲取數(shù)據(jù),這個過程中勢必收集到存在問題的數(shù)據(jù),這是無法避免的,但算法的數(shù)學(xué)特性決定了即使是一個微小的數(shù)據(jù)瑕疵也會在大量的數(shù)學(xué)運(yùn)算中被無限放大且無法消除,有時這種量化的偏差體反映到現(xiàn)實(shí)生活中便造就了歧視。
2.人為因素導(dǎo)致的歧視。人為的因素歸根到底只來自于一個原因那就是“主觀的偏見”,現(xiàn)階段人工智能技術(shù)在某種程度上體現(xiàn)的還是背后人類主觀的意志,設(shè)計(jì)者主觀的偏見可以在算法運(yùn)行的任何一個階段體現(xiàn)出來,他們可能是根深蒂固的認(rèn)知誤區(qū),也可能是出于利益的考量,還可能是宗教、文化的不認(rèn)同等等,思維的不一致讓他們形成了先入為主的觀念,進(jìn)而導(dǎo)致他們在設(shè)計(jì)、實(shí)施算法的過程中產(chǎn)生了歧視的結(jié)果。
(一)數(shù)據(jù)源頭監(jiān)管立法強(qiáng)化行業(yè)主體責(zé)任模式如前所述,人工智能算法風(fēng)險主要來源于數(shù)據(jù)采集、存儲以及算法運(yùn)行兩個階段,而對于數(shù)據(jù)層面風(fēng)險的管控是目前最為現(xiàn)實(shí)可行,也是最為重要的環(huán)節(jié)。
歐美等國在算法風(fēng)險規(guī)制領(lǐng)域較為成熟,已經(jīng)產(chǎn)生實(shí)際效果的立法項(xiàng)目也主要集中在對于數(shù)據(jù)的治理上,歐盟與美國在具體的立法趨勢以及規(guī)范內(nèi)容上也各有千秋,歐盟于2018年5 月25 號生效的《通用數(shù)據(jù)保護(hù)條例》可以說在法律規(guī)范以及司法實(shí)踐等方面樹立了堪稱典范并可供借鑒的榜樣,該條例以“嚴(yán)苛”著稱,稍不合規(guī)就有可能面臨最高達(dá)2000 萬歐元或者企業(yè)全球營業(yè)收入百分之四的罰款。[8]當(dāng)然,與之匹配的必然是法律規(guī)范的進(jìn)一步體系化與精細(xì)化,首先就體現(xiàn)在該《條例》不僅適用歐盟內(nèi)部的數(shù)據(jù)使用主體,還將直接約束任何與歐盟內(nèi)部成員國有業(yè)務(wù)來往的數(shù)據(jù)使用主體。此外GDPR 不僅規(guī)定了對姓名、性別、電話、住址等傳統(tǒng)個人信息的保護(hù),同時還將保護(hù)范圍擴(kuò)大至生物識別數(shù)據(jù)、健康數(shù)據(jù)、基因數(shù)據(jù)、個人興趣愛好、社交數(shù)據(jù)等信息。在數(shù)據(jù)主體權(quán)利方面,GDPR的出臺也使得訪問權(quán)、更正權(quán)、反對權(quán)、被遺忘權(quán)、數(shù)據(jù)攜帶權(quán)、限制處理權(quán)等權(quán)利應(yīng)用而生。[9]條例中最為重大的突破便是確立了以下關(guān)于個人數(shù)據(jù)處理的七大原則:1、公平、透明、合法原則;2、正當(dāng)目的原則;3、準(zhǔn)確性原則;4、數(shù)據(jù)最小化原則;5、存儲期限原則;6、完整性與保密性原則;7、權(quán)責(zé)一致原則。
同歐盟成體系化的法律規(guī)范相比,美國的相關(guān)規(guī)定更集中于各種判例、部分專業(yè)領(lǐng)域法案以及地方性法案。誕生于1996 年的《健康保險攜帶和責(zé)任法案》(HIPAA)是美國最有代表性的關(guān)于個人數(shù)據(jù)保護(hù)法案,該法案制定了醫(yī)療健康產(chǎn)業(yè)的標(biāo)準(zhǔn)規(guī)范,就醫(yī)療服務(wù)機(jī)構(gòu)所使用、存儲的個人敏感數(shù)據(jù)制定了嚴(yán)格而全面的規(guī)定,然而后續(xù)的一系列醫(yī)療數(shù)據(jù)泄漏事件表明HIPAA 并沒有起到預(yù)期的作用。[10]為了盡快應(yīng)對這一現(xiàn)狀,美國各州迅速開展了積極且富有成效的探索,最為引人注目的便是于2020年1月1日生效的《加利福尼亞州消費(fèi)者隱私法案》(CCPA),該法案不同于以往針對特定行業(yè)隱私權(quán)利的規(guī)定,而是明確規(guī)定了消費(fèi)者對于被企業(yè)收集和使用的個人數(shù)據(jù)擁有更加豐富的控制權(quán),比如訪問權(quán)、刪除權(quán)、知情權(quán)等。[11]
(二)完善行政以及外部監(jiān)督機(jī)構(gòu)模式 對于算法的外部審查可以通過建立和完善行政審查機(jī)構(gòu)、第三方專門審核機(jī)構(gòu)兩個途徑來實(shí)現(xiàn),這兩個機(jī)構(gòu)各有利弊并互為補(bǔ)充。行政審查機(jī)構(gòu)主要是指由各國政府牽頭成立的在數(shù)據(jù)收集以及算法運(yùn)行等領(lǐng)域運(yùn)用行政力量進(jìn)行審查、監(jiān)督、處罰的執(zhí)法機(jī)構(gòu),美國的聯(lián)邦貿(mào)易委員會、歐盟的數(shù)據(jù)保護(hù)委員會、日本的個人數(shù)據(jù)保護(hù)委員會等行政機(jī)構(gòu)自成立至今借助行政監(jiān)管力量快速、有效的優(yōu)勢在近年來已經(jīng)接連處理了涉及蘋果、谷歌、臉譜等知名跨國互聯(lián)網(wǎng)公司涉及數(shù)據(jù)以及算法相關(guān)的侵權(quán)案件。
算法的行政審查機(jī)構(gòu)對于政府審查及監(jiān)督算法的正常運(yùn)作是必須的,但隨著算法以及數(shù)據(jù)技術(shù)的飛速發(fā)展,對其進(jìn)行審查及監(jiān)督的專業(yè)化門檻也越來越高、行業(yè)規(guī)模也越來越大,這些都是造成行政審查機(jī)構(gòu)應(yīng)對力不從心的重要因素。為了避免貪大求全而浪費(fèi)行政審查資源,繼而采取對于過程動態(tài)抽查、對于結(jié)果嚴(yán)格控制的方式開展行政審查,逐步將一部分由行政力量審查的監(jiān)督工作讓渡給經(jīng)過政府注冊的專業(yè)化第三方認(rèn)證、審核機(jī)構(gòu)實(shí)施,不失為一種可行的解決方案。[13]這樣既可以將行政監(jiān)督力量從繁雜的工作中解脫出來,從而使審查工作更加有針對性和全局性,同時也可以充分調(diào)動市場資本與社會專業(yè)力量來有效提升審查、監(jiān)督的質(zhì)量。例如美國白宮就于2016 年發(fā)布了《大數(shù)據(jù)報告:算法系統(tǒng)、機(jī)會與公民權(quán)利》,建議算法行業(yè)以及研究機(jī)構(gòu)一起主動開展算法審計(jì)以及大數(shù)據(jù)系統(tǒng)的外部測試,以避免大數(shù)據(jù)可能帶來的歧視和偏差,從而將算法相關(guān)技術(shù)可能的負(fù)面影響降到最低。
(三)算法解釋權(quán)模式 所謂算法解釋權(quán)就是政府以及用戶有權(quán)要求與算法設(shè)計(jì)、編制、運(yùn)行控制相關(guān)的企業(yè)對算法自動決策的過程及其結(jié)果做出合理、合法的解釋并更新數(shù)據(jù)或更正錯誤。[14]因?yàn)槿绻粋€決策可以被解釋并為大家所理性認(rèn)識的話,那么我們就可以更全面地了解此算法的風(fēng)險與不足,從而進(jìn)行改進(jìn),即使侵權(quán)事件發(fā)生以后也可以正確地劃分責(zé)任,實(shí)現(xiàn)公平正義。目前,IEEE、ACM等業(yè)界的代表機(jī)構(gòu)以及歐美的部分算法專家就已經(jīng)著手相關(guān)事宜,以期促進(jìn)算法的可解釋性。IEEE 于2016年發(fā)布的人工智能及自動化系統(tǒng)倫理設(shè)計(jì)白皮書中提出了對于人工智能和自動化系統(tǒng)應(yīng)有解釋能力的要求;[15]ACM也于2017年的《關(guān)于算法透明性和可問責(zé)性的聲明》中鼓勵使用算法決策的系統(tǒng)和機(jī)構(gòu)對算法過程和特定決策提供解釋;[16]歐盟更是于2018 年5 月生效的GDPR 中直接規(guī)定并創(chuàng)設(shè)了解釋權(quán),要求所有與歐盟有關(guān)的企業(yè)對其算法決策進(jìn)行解釋。
但是伴隨著熱議,也必然存在一些不一樣的聲音。有研究者認(rèn)為,伴隨著人工智能算法技術(shù)的不斷進(jìn)步,強(qiáng)人工智能階段的算法會變得極其復(fù)雜并不可控,相應(yīng)地對其進(jìn)行準(zhǔn)確和詳細(xì)的解釋也是難上加難。但總的來看,算法解釋權(quán)在法律上不失為一種理性且合法的進(jìn)路,只是現(xiàn)階段在技術(shù)的可行性上還需要不斷探索與實(shí)踐。
(四)數(shù)據(jù)保護(hù)官(DPO)模式 數(shù)據(jù)保護(hù)官模式就是GDPR 規(guī)定的一種綜合的、二元的集行政監(jiān)督、行業(yè)自律于一體的。旨在增強(qiáng)數(shù)據(jù)以及算法技術(shù)安全性、可解釋性的透明化進(jìn)路,該模式最早源自于德國的個人數(shù)據(jù)保護(hù)顧問制度。GDPR 中規(guī)定,擁有250名員工以上的涉及處理敏感數(shù)據(jù)的企業(yè)、組織需指定一位數(shù)據(jù)保護(hù)官(DPO)。[17]其中DPO 不僅應(yīng)當(dāng)具備一定程度的計(jì)算機(jī)專業(yè)知識并能夠直接閱讀算法,還應(yīng)熟知企業(yè)所涉及數(shù)據(jù)、算法活動對應(yīng)風(fēng)險防范的法律規(guī)定,從而更容易發(fā)現(xiàn)問題并及時采取措施。
數(shù)據(jù)保護(hù)官既是企業(yè)負(fù)責(zé)日常數(shù)據(jù)、算法技術(shù)安全監(jiān)督的員工,依據(jù)法律規(guī)定從事對部分存在巨大風(fēng)險的技術(shù)項(xiàng)目進(jìn)行事前檢查、日常安全評估、審計(jì)等工作,同時DPO也受到數(shù)據(jù)監(jiān)管局的管理并接受其業(yè)務(wù)指導(dǎo),在必要時可以直接向數(shù)據(jù)管理局匯報工作并獲得其幫助。這樣的制度設(shè)計(jì)使得DPO享有獨(dú)立行使職責(zé),且不受公司高層干擾的權(quán)利。較其他模式而言,DPO模式最大的意義在于這樣既保護(hù)了企業(yè)相關(guān)數(shù)據(jù)、算法技術(shù)的商業(yè)秘密,又可以讓DPO沒有束縛地履職盡責(zé),降低了技術(shù)門檻,提升了執(zhí)法效能,實(shí)現(xiàn)了企業(yè)經(jīng)濟(jì)效益與社會秩序價值的平衡。
(一)我國算法風(fēng)險規(guī)制現(xiàn)狀 我國對于算法及數(shù)據(jù)技術(shù)風(fēng)險的法律規(guī)范還處于初始階段,總體設(shè)置上相對分散和不完善,數(shù)量有限且不完全能夠符合現(xiàn)階段技術(shù)發(fā)展需要,比如現(xiàn)階段在司法實(shí)踐中能夠被用于解決數(shù)據(jù)及算法侵權(quán)案件的已生效法律規(guī)范資源相對匱乏,大概分布于《中華人民共和國刑法》、《中華人民共和國民法》、《中華人民共和國網(wǎng)絡(luò)安全法》、《中華人民共和國電子商務(wù)法》等若干已出臺的法律規(guī)定中。即使最新修訂的《刑法》修正案進(jìn)一步加強(qiáng)了對于公民個人信息保護(hù),擴(kuò)大了犯罪主體的范圍, 同時完善了對于其他網(wǎng)絡(luò)犯罪行為的規(guī)定,但隨著我國人工智能等信息技術(shù)的不斷發(fā)展,不論是規(guī)范的范圍還是實(shí)踐的效果上都顯力不從心。此外,縱觀所有涉及計(jì)算機(jī)算法、數(shù)據(jù)技術(shù)的法律規(guī)范條款的內(nèi)容上,總體呈現(xiàn)出重刑輕民的現(xiàn)狀,而日常生活中多數(shù)侵權(quán)案件不會嚴(yán)重到觸及刑法,這就造成對處在刑事和民事之間的侵權(quán)案件,司法機(jī)關(guān)缺乏法律來進(jìn)行有效的處理,遇到此類案件目前只能由相關(guān)行政機(jī)關(guān)進(jìn)行處理而無法形成統(tǒng)一的標(biāo)準(zhǔn)和長效的治理,且即使存在相關(guān)規(guī)定也由于表述較為抽象、內(nèi)容不完善、責(zé)任劃分模糊而缺乏可操作性。
在行政法規(guī)與部門規(guī)章層面,由于較立法程序更為靈活、自主、有針對性的緣故,國務(wù)院、各地區(qū)、各部門相關(guān)規(guī)定的制定呈現(xiàn)出緊跟國際先進(jìn)理念、日新月異的局面。例如,近年來由國務(wù)院及其各部門相繼出臺了《數(shù)據(jù)安全管理辦法》、《新一代人工智能發(fā)展規(guī)劃》、《信息安全技術(shù)個人信息安全規(guī)范》、《互聯(lián)網(wǎng)個人信息安全保護(hù)指南》、《移動互聯(lián)網(wǎng)應(yīng)用(APP)手機(jī)個人信息基本規(guī)范》、《信息安全技術(shù)個人信息告知同意指南》、《云計(jì)算服務(wù)安全指南》等一批既符合我國國情也具有國際水準(zhǔn)的法規(guī)、規(guī)章,逐步構(gòu)建起了具有中國特色的能夠積極應(yīng)對并有效解決我國目前數(shù)據(jù)及算法治理困局的行政法規(guī)體系,其中《數(shù)據(jù)安全管理辦法》堪稱中國版的“GDPR”,該規(guī)章對個人數(shù)據(jù)安全的各個方面進(jìn)行了細(xì)致的規(guī)定,為進(jìn)一步規(guī)制算法風(fēng)險和進(jìn)行相應(yīng)的立法活動提供了明確的技術(shù)指引和豐富的實(shí)踐經(jīng)驗(yàn)。
總的來看,我國現(xiàn)階段對于算法風(fēng)險的規(guī)制處于初期階段,還沒有出臺專門的關(guān)于數(shù)據(jù)以及算法風(fēng)險規(guī)制的法律,但這一現(xiàn)狀是國內(nèi)外現(xiàn)階段所共同存在的,需要我們在未來的一段時間來面對和解決。
(二)我國應(yīng)對算法風(fēng)險中長期規(guī)劃進(jìn)路展望
人工智能背景下算法演進(jìn)過程中產(chǎn)生各種風(fēng)險是必然的,而且隨著信息技術(shù)的飛速發(fā)展,它給人類帶來的挑戰(zhàn)也勢必與日俱增。經(jīng)過前幾部分的分析我們發(fā)現(xiàn),算法的價值來自于數(shù)據(jù),同樣風(fēng)險也源自于數(shù)據(jù),近期只有在管控好公民個人數(shù)據(jù)安全的基礎(chǔ)上進(jìn)一步研究算法安全才更有意義。其次,必須將完善公民各類數(shù)據(jù)權(quán)利、厘清不同主體之間的責(zé)任劃分、規(guī)范各類行政監(jiān)督制度、健全行業(yè)自律機(jī)制等各種措施,通過法律的形式將各類預(yù)防和規(guī)制措施確定下來。在應(yīng)對個人數(shù)據(jù)及其算法風(fēng)險的立法活動中,應(yīng)著重針對以下幾個方面不斷深入并細(xì)化相關(guān)規(guī)定:
1.法律原則方面。參考?xì)W盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)、加拿大《隱私法》(PIPEDA)以及美國《加利福尼亞州消費(fèi)者隱私法案》(CCPA)等已經(jīng)頒布的各項(xiàng)法律原則,我國也應(yīng)當(dāng)及時確立符合我國實(shí)情的數(shù)據(jù)及算法風(fēng)險規(guī)制的法律原則,主要為以下幾個方面:
(1)合法性原則:個人數(shù)據(jù)信息的收集、存儲、遷移以及相關(guān)處理算法應(yīng)該公平、合法。
(2)目的明確、限定原則:即數(shù)據(jù)信息使用者以及算法程序設(shè)計(jì)、使用者對于所獲取的數(shù)據(jù)以及設(shè)計(jì)的算法有特定、明確、正當(dāng)?shù)氖褂媚康?,且該目的?yīng)該處于必要、合理、合法的范圍內(nèi)。[18]
(3)反對原則:在任何企業(yè)、單位涉及個人數(shù)據(jù)的收集、使用以及對其進(jìn)行算法處理時,如果存在泄漏隱私、歧視等風(fēng)險,數(shù)據(jù)主體有權(quán)反對對其數(shù)據(jù)的任何操作。[19]
(4)備案審計(jì)原則:應(yīng)當(dāng)對各類數(shù)據(jù)、算法、模型等進(jìn)行備案,以便在需要之時對其進(jìn)行評估或?qū)徲?jì)。
(5)相對透明化原則:即不強(qiáng)制要求數(shù)據(jù)使用者或者算法設(shè)計(jì)者及其使用企業(yè)對外完全公開數(shù)據(jù)及算法程序,但應(yīng)當(dāng)適時地向社會公布數(shù)據(jù)的用途以及對于算法中可能涉及重大公眾利益的決策程序進(jìn)行適當(dāng)?shù)慕忉?,并鼓勵通過備案、注冊等間接方式保障算法公平。[20]
(6)嚴(yán)格審核原則:政府行政監(jiān)管部門、企業(yè)內(nèi)部、第三方認(rèn)證機(jī)構(gòu)等應(yīng)當(dāng)建立定期或者不定期監(jiān)督、審查機(jī)制,嚴(yán)格執(zhí)行測試流程,及時發(fā)現(xiàn)數(shù)據(jù)及算法存在的各類風(fēng)險并采取措施。
(7)問責(zé)原則:數(shù)據(jù)及算法使用者應(yīng)當(dāng)對其數(shù)據(jù)使用結(jié)果以及算法所做決定承擔(dān)責(zé)任。
2.健全個人權(quán)利配置。 現(xiàn)階段面對各種風(fēng)險我們所能夠做到的、最具現(xiàn)實(shí)意義的應(yīng)對措施就是針對源頭數(shù)據(jù)、算法程序進(jìn)行細(xì)致的規(guī)制,那么首先就需要對個人涉及數(shù)據(jù)、算法方面的權(quán)利進(jìn)行完善。
(1)否定權(quán):在一些情況下,數(shù)據(jù)主體可以要求數(shù)據(jù)使用者停止處理其數(shù)據(jù),特別是可能泄漏個人隱私或者存在其他不良風(fēng)險的時候。
(2)數(shù)據(jù)更正權(quán)。如果數(shù)據(jù)主體發(fā)現(xiàn)數(shù)據(jù)有誤或者不完整,可以要求數(shù)據(jù)使用者及時予以更正。
(3)數(shù)據(jù)刪除權(quán):當(dāng)數(shù)據(jù)主體撤回同意或者認(rèn)為數(shù)據(jù)使用者對數(shù)據(jù)的處理不再具有最初的合法目的時,數(shù)據(jù)主體可以要求數(shù)據(jù)使用者刪除或者移除其個人數(shù)據(jù)。[21]
(4)算法解釋權(quán):指在人工智能背景下,算法決策程序的某些決定如果對相對人的法律及其他權(quán)益造成了侵害,相對人可以向算法程序的使用者及其設(shè)計(jì)者提出異議,并要求其對算法決策程序進(jìn)行解釋。雖然現(xiàn)階段在算法解釋實(shí)踐中遇到了來自于人工智能算法解釋困難、商業(yè)秘密保護(hù)等兩方面的困境,但目前弱人工智能階段中,算法絕大多數(shù)屬于大數(shù)據(jù)背景下可控、可解釋的高階函數(shù),即使對于黑箱性質(zhì)的深度學(xué)習(xí)人工智能算法也還是可以通過隱層分析方法、模擬/代理模型、敏感性分析方法等三類途徑進(jìn)行解釋。此外,借鑒歐盟《通用數(shù)據(jù)保護(hù)條例》(GDPR)中的數(shù)據(jù)保護(hù)官(DPO)模式便可以實(shí)現(xiàn)既有效保護(hù)商業(yè)秘密及其知識產(chǎn)權(quán),又增強(qiáng)企業(yè)內(nèi)部對于數(shù)據(jù)及算法技術(shù)的解釋和監(jiān)督工作,從而有效推進(jìn)算法透明化的進(jìn)程。
3.健全行政監(jiān)管力量,完善行業(yè)自律機(jī)制。首先,就行政監(jiān)管機(jī)構(gòu)而言我國此前還沒有成立真正意義上的專門針對數(shù)據(jù)及算法技術(shù)監(jiān)管的相關(guān)部門,根據(jù)最近我國陸續(xù)發(fā)布的《數(shù)據(jù)安全管理辦法(征求意見稿)》、《個人信息保護(hù)法(專家建議稿)》等文件,可以看出國家將會建立以網(wǎng)信部門為統(tǒng)籌、國務(wù)院各主管部門負(fù)責(zé)各自職責(zé)范圍內(nèi)監(jiān)管工作的行政體系。[23]在此基礎(chǔ)上,國家在立法中應(yīng)當(dāng)進(jìn)一步對相關(guān)部門精簡整合并細(xì)化其各種職能,廣泛賦予其對于數(shù)據(jù)及人工智能算法監(jiān)管所需要的各種監(jiān)督與處罰的權(quán)力,在法律規(guī)范層面上明確行政監(jiān)督機(jī)構(gòu)的性質(zhì)、地位以及權(quán)責(zé),以便行政機(jī)構(gòu)在監(jiān)管活動中有法可依,且有效規(guī)范其權(quán)力的行使,從而使行政監(jiān)管機(jī)構(gòu)能夠盡快、高效地發(fā)揮應(yīng)有的作用。在行政監(jiān)督審查方式上,改進(jìn)我國目前主要采用的單一的備案審查的方式,增加事前和事中等動、靜態(tài)結(jié)合的審查方式,即在算法投入使用前對設(shè)計(jì)不符合安全標(biāo)準(zhǔn)、有較大風(fēng)險的算法予以排除,在算法投入使用以后展開隨機(jī)、動態(tài)抽查,以期發(fā)現(xiàn)隱藏的風(fēng)險。
在行業(yè)自律方面,需要建立算法審核官模式,并鼓勵發(fā)展專門的第三方審核機(jī)構(gòu)。正如前文介紹過的數(shù)據(jù)保護(hù)官(DPO)一樣,我國可以設(shè)置在數(shù)據(jù)保護(hù)職能基礎(chǔ)上包含算法審核職責(zé)的算法審核官,在算法透明化過程中既可以增強(qiáng)對算法的解釋以及數(shù)據(jù)的管理,還可以實(shí)現(xiàn)對商業(yè)秘密的有效保護(hù)。按照數(shù)據(jù)保護(hù)官的制度設(shè)計(jì),算法審核官制度也應(yīng)當(dāng)汲取其設(shè)計(jì)的關(guān)鍵之處,即算法審核官是屬于企業(yè)的員工,但在業(yè)務(wù)領(lǐng)域有獨(dú)立地位,受到行政監(jiān)管機(jī)構(gòu)的統(tǒng)一管理和領(lǐng)導(dǎo),制度設(shè)計(jì)上要保障來自企業(yè)高層的壓力不得影響其履行職責(zé),這樣就使算法審核官既可以獲得來自于行政力量的有力支持,也可以倒逼企業(yè)提高算法風(fēng)險防范的意識,逐步實(shí)現(xiàn)行政監(jiān)管與行業(yè)自律的有機(jī)融合。此外,在下一階段的立法工作中,需要進(jìn)一步明確國家對于發(fā)展專門的第三方數(shù)據(jù)及算法審計(jì)或認(rèn)證機(jī)構(gòu)的支持態(tài)度,但同時也需要抓緊完善涉及個人數(shù)據(jù)安全以及人工智能算法等一系列技術(shù)標(biāo)準(zhǔn)的統(tǒng)一化進(jìn)程,從政策上、法律上、技術(shù)上以及實(shí)施上共同推進(jìn)我國高水平第三方認(rèn)證產(chǎn)業(yè)的快速發(fā)展。
4.人工智能算法的侵權(quán)責(zé)任劃分。對于侵權(quán)的人工智能產(chǎn)品及其算法的責(zé)任劃分問題,我們需要厘清其是否可以作為民事法律主體、人工智能侵權(quán)責(zé)任主體有哪幾類、侵權(quán)后的歸責(zé)原則等三類重要問題,只有這樣的侵權(quán)責(zé)任法律才能既充分保護(hù)受害者權(quán)益,又不限制人工智能技術(shù)的發(fā)展。
(1)明確現(xiàn)階段不賦予人工智能產(chǎn)品及其算法民事法律關(guān)系主體地位的大方向。關(guān)于人工智能產(chǎn)品及其算法的法律主體資格的定位,筆者認(rèn)為不應(yīng)賦予其民事法律主體的資格,并在法律層面將其定性為“物”。因?yàn)槿斯ぶ悄墚a(chǎn)品及其算法并不具有人的身份,與法人的情形也不盡相同,既不會出生也不存在死亡,法律規(guī)范上也沒有對其權(quán)利和義務(wù)相配套的規(guī)定,此外對于人工智能產(chǎn)品及其算法,有限的處罰措施根本無法彌補(bǔ)受害方在經(jīng)濟(jì)以及精神上所受到的實(shí)際損失和侵害,歸根結(jié)底其侵權(quán)責(zé)任的承擔(dān)還是要落實(shí)到相關(guān)自然人或者法人,而人工智能產(chǎn)品及其算法是無法獨(dú)立承擔(dān)全部責(zé)任的,所以人工智能產(chǎn)品及其算法不具備民事行為能力、民事權(quán)利能力、民事責(zé)任能力,不具備作為民事責(zé)任主體的資格。
(2)需要在立法中明確具體的人工智能產(chǎn)品及其算法的侵權(quán)責(zé)任主體。目前涉及人工智能產(chǎn)品及算法侵權(quán)的責(zé)任主體在不同的情形下主要有以下兩大類需要在立法中予以明確并規(guī)范:
第一類責(zé)任主體是人工智能產(chǎn)品以及算法的生產(chǎn)以及設(shè)計(jì)者,目前的人工智能還處于初期即受人類控制的高階函數(shù)階段,產(chǎn)品和算法本身并不具有侵權(quán)的故意或者過失,在本質(zhì)上仍然是由于有安全注意義務(wù)的人故意或者過失未履行義務(wù)而導(dǎo)致在算法設(shè)計(jì)、調(diào)試階段以及人工智能產(chǎn)品測試、生產(chǎn)階段導(dǎo)致了產(chǎn)品的缺陷,這就決定了在此種情況下侵權(quán)責(zé)任要?dú)w于設(shè)計(jì)者或者生產(chǎn)者。
第二類責(zé)任主體是人工智能產(chǎn)品以及算法的使用者即人工智能產(chǎn)品的控制者、管理者和受益者。雖然在人工智能技術(shù)日趨成熟、自主化決策愈發(fā)頻繁的情況下使用者無需直接控制與管理,但不排除使用者主觀存在故意或者過失,違反了相關(guān)技術(shù)規(guī)范,造成了人工智能產(chǎn)品及其算法侵權(quán)結(jié)果的發(fā)生,在此種情況下讓使用者、受益人承擔(dān)相應(yīng)的侵權(quán)責(zé)任是合理合法的。[24]
(3)在立法中完善不同情形下的歸責(zé)原則。在當(dāng)前法律體系下,人工智能產(chǎn)品及其算法一旦侵權(quán)并造成了侵害的后果,如果根據(jù)過錯責(zé)任原則,不論是要求受害人舉證證明加害人有過錯以及過錯行為與損害結(jié)果之間有因果關(guān)系,還是要求加害人舉證證明自身沒有過錯以及自身的行為與損害結(jié)果之間不存在因果關(guān)系,對于現(xiàn)階段結(jié)構(gòu)復(fù)雜、邏輯關(guān)聯(lián)抽象、技術(shù)門檻高、透明性較差、解釋困難的人工智能產(chǎn)品及其算法來講,面臨的困難無異于大海撈針,對于訴訟雙方也將面臨訴訟周期較長、成本過高的困擾,此外還會白白消耗大量的司法資源而無法快速結(jié)案。所以為了保障受害者能夠得到及時、充分、公平的救濟(jì),對于生產(chǎn)者以及消費(fèi)者應(yīng)當(dāng)適用無過錯責(zé)任(嚴(yán)格責(zé)任)。
而使用者與生產(chǎn)者、設(shè)計(jì)者不同,他們完全不參與產(chǎn)品及算法的設(shè)計(jì)、生產(chǎn)、制造、測試等技術(shù)環(huán)節(jié),自然也就對于人工智能自身的缺陷不存在任何主觀故意或者過失,也就無需承擔(dān)相應(yīng)責(zé)任,但是對于在使用、管理、獲益過程中因?yàn)闆]有盡到自己的注意義務(wù)而侵權(quán)的行為應(yīng)當(dāng)承擔(dān)有限的過錯責(zé)任。[25】
在人工智能時代,當(dāng)我們面對算法導(dǎo)致的隱私泄漏、集權(quán)、殺熟、歧視等等社會問題時,為了進(jìn)一步規(guī)制此類風(fēng)險,首先需要及時確立符合我國發(fā)展需要的數(shù)據(jù)及算法風(fēng)險規(guī)制原則,健全公民在個人數(shù)據(jù)信息、算法解釋等增加算法透明化方面的權(quán)利配置,通過立法的方式來規(guī)范和完善行政監(jiān)管機(jī)構(gòu)的建設(shè),使得執(zhí)法有依據(jù),權(quán)力有規(guī)范,此外還需要在法律規(guī)范層面給予行業(yè)自律機(jī)制明確的支持態(tài)度,最為重要的是在人工智能算法侵權(quán)行為出現(xiàn)時對其責(zé)任的劃分于法律規(guī)范中作出清晰的界定。
總之,要使人工智能技術(shù)的發(fā)展利大于弊,就需要在不同的技術(shù)階段結(jié)合,不同的社會需要,有針對性地完善相關(guān)的法律規(guī)范,降低不必要的損失和風(fēng)險,從而推動人工智能算法技術(shù)在法律的框架下更好地為社會發(fā)展創(chuàng)造價值。