顏 韻
(中央財經大學 法學院, 北京 100081)
風險預防原則起源于德國行政法有關治理空氣污染的嘗試,隨著科技進步與發(fā)展,風險的范圍亦從傳統(tǒng)風險升級為現(xiàn)代風險,風險預防原則的適用范圍進一步擴大,正在成為一項應對不確定科技風險的習慣國際法原則。作為數(shù)字科學領域的代表之一的人臉識別技術是基于個人面部特征信息進行的一種生物識別技術,包含人臉采集、人臉圖像規(guī)劃、人臉檢測、人臉特征提取和人臉比較五個步驟。得益于深度學習技術,人臉識別技術應用場景與市場規(guī)模不斷拓展。純粹的技術理性和多元的現(xiàn)實利益正驅動著人臉識別技術一路高歌猛進。短期即規(guī)模化運用的背后常常忽略了充分的風險評估,負面效應隨之顯現(xiàn),例如人臉識別技術的安全性欠缺對個人的侵權影響不可逆,監(jiān)視權力擴張導致社會異化為福柯筆下的“超級全景監(jiān)獄”。改進代碼等技術手段以處理上述問題的同時,現(xiàn)實也呼吁著法律對人臉識別技術作進一步規(guī)制。
實踐中人臉識別技術法律糾紛案例屢見不鮮,試舉2022 年“天津人臉識別案”加以說明。①參見“顧某訴天津城關物業(yè)服務集團有限公司案”,天津市和平區(qū)人民法院(2021)津0101 民初**號民事判決書、天津市第一中級人民法院(2022)津01 民終**號民事判決書(裁判文書編號未公開)。A 居住的小區(qū)B 物業(yè)公司采用人臉識別系統(tǒng)作為進入小區(qū)的驗證方式,A 因擔憂個人信息被泄露,要求B 物業(yè)公司刪除其人臉信息并提供其他驗證方式,協(xié)調未果后A 將B 物業(yè)公司訴至法院。經過兩級法院審理后,其訴訟請求由一審的駁回改為支持。該案基本案情似乎并不復雜,然而省察本案及其他同類型案件的處置結果,需尤其注意的一個問題是,不同于“人臉識別第一案”法院將案件定性為服務合同糾紛②參見“郭某訴杭州野生動物園案”,杭州市中級人民法院(2020)浙01 民終10940 號民事判決書。,本案二審法院對案件性質重新界定為個人信息保護糾紛,強調了人臉信息作為敏感個人信息的特殊屬性。但該案只能作為個人捍衛(wèi)其人臉信息不被濫用的一次嘗試,其背后暴露出一直以來人臉識別技術內嵌的極為強烈的高風險概率,以及社會公眾對人臉識別技術潛在風險的擔憂。
圍繞人臉識別技術的法律規(guī)制,已有諸多學者進行了探討,必須加強人臉識別技術的法律規(guī)制已成為學界的共識,爭論的焦點在于法律應采取何種路徑來加強規(guī)制。試拆分為多個小問題:為何規(guī)制?針對何種風險而規(guī)制?如何規(guī)制?對以上問題的討論,構成本文的寫作脈絡。目前學界對風險預防原則已有一定的關注,但將風險預防原則應用于人臉識別技術法律規(guī)制的研究還不多見。有鑒于此,本文試圖將風險預防原則納入人臉識別法律規(guī)制的分析框架,對其應用目標、應用現(xiàn)狀和完善路徑等進行探討,以期風險預防原則成為檢驗當下人臉識別技術法律規(guī)制實效的標尺和法律規(guī)制變革的“催化劑”。
德國學者沃爾夫指出,為了維護法律秩序的安全,政府需要事前預防風險、處理當下危險和事后消除危險。[1]預防行政是指政府為了防范特定社會風險的發(fā)生,主動介入相關活動采取相應措施。在預防行政語境下探討人臉識別技術的規(guī)制,正是出于對人臉識別技術高風險的擔憂,國家通過履行風險預防義務以解決當下人臉信息保護的困境。
風險預防原則雖起源于環(huán)境法領域,但隨著社會上愈來愈多的風險不確定性和不可預測性出現(xiàn),風險預防原則亦被用于處理這些風險。對人臉識別技術而言,法律面臨著安全與利用價值的權衡,立法者面臨著是否需從偏重后果規(guī)制至正視風險預防的規(guī)制理念與調控手段的轉變。
(1)人臉的二重屬性。人臉是“生物性的通用標識符”[2],不可隱匿,易采集而不易更改[3],具有肖像和身份的雙重屬性。在《個人信息保護法》出臺前,人臉圖像首要便與肖像權相關。肖像權是非物質性人格權,亦是標表型人格權,其本質為一種“受尊重權”而非“支配權”,是一種消極權利而非積極權利,這決定了肖像權的保護往往只能發(fā)生在遭遇權益侵害型不當?shù)美麜r?!睹穹ǖ洹返?019 條進一步擴張了肖像權的保護范圍,以丑化、污損的形式或者利用信息技術手段偽造他人肖像等行為都屬于侵害他人肖像權。由此可知,除了肖像的商業(yè)化利用外,對于絕大多數(shù)普通人,通常只有在未經本人同意,對方以侮辱性、偽造等不法方式使用“人臉”時,才構成侵害肖像權的行為。[4]人臉的第二重屬性為個人的“身份”。人臉識別技術可實現(xiàn)高度精確性,通過對個人膚色、五官等相貌特征的識別,鎖定個人身份。這里的身份強調的是社會身份而非自然身份。正如馬克思所言,人是先在市民社會中生活,后才在政治國家中生活。而人作為自然存在的個體,不是一蹴而就進入政治社會中的,這中間的一個環(huán)節(jié)是一個人成為社會意義上的人。個人的自然屬性只有被“看見”、被“聽見”,被他人“意識到”、被社會“考量”,才能體現(xiàn)個人在社會關系網絡中的坐標位置。因此,相比于自然身份,強調將社會屬性集合于人身的社會身份更具意義。那么,人臉識別起到身份認證的功能,成為激活各類社會身份與活動的鑰匙。人臉識別不側重于相貌的自然身份識別,而是重在識別的基礎上進行社會身份分析[5],亦即將純粹的身份識別轉換為身份分析,分析個人在社會關系網中的所處位置。
(2)人臉識別技術的風險特征。人臉識別技術風險之所以要被規(guī)制,一個重要原因在于,人臉識別技術不僅關涉?zhèn)€人利益,其風險可能引發(fā)的連鎖效應亦難以控制,對于社會秩序構成挑戰(zhàn)與危害。對個人而言,人們對人臉識別系統(tǒng)的安全性憂慮與日俱增。以“欺騙攻擊”這種常見黑客手段為例,攻擊者基于目標人臉的圖像構建虛假生物特征,通過假體在人臉識別系統(tǒng)中進行識別,從而通過人臉識別,取得目標人的訪問授權。[6]實踐中,諸如“00后”破解廈門銀行人臉識別系統(tǒng)、運用3D 面具在支付寶平臺刷臉成功等案例屢見不鮮。即便平臺因未能防范欺騙技術而被罰款,安全性欠缺對個人的損害卻是實質性的和不可逆轉的。人臉識別信息具有不易更改性與唯一性,其背后更代表著個人的社會身份評價,一旦被泄露和非法利用將永久脫離被識別者的控制,此后所有與人臉認證相關的社會活動均處于危險狀態(tài)。被識別者因此可能面臨遭受身份竊取、歧視、欺詐和名譽受損的風險,人身和財產安全陷入極大的不確定性當中。即便人臉信息匿名化處理,技術發(fā)展也可能導致人臉信息被重新破譯,或結合位置、行蹤等線索指向特定人[7],而《民法典》1034 條與《個人信息保護法》第4 條以可識別性來定義包括生物識別信息在內的個人信息顯然存在一定的隱患。在社會的視角下,監(jiān)視權力的擴張可能會引發(fā)寒蟬效應。在金融、教育、醫(yī)療、社會保障等各個領域人臉識別都參與其中,甚至成為開啟上述活動的鑰匙或入場券。各個場景聯(lián)合起來便構成了整個數(shù)據(jù)依賴型社會,因此人臉信息的使用不僅與個人利害相關,而且還與整個社會的運行機制關聯(lián)。[8]在??鹿P下的“超級全景監(jiān)獄”中,被監(jiān)視者無法反抗監(jiān)視的權力。而如今,處處可見的監(jiān)控輔以人臉識別的身份識別機制,每個個體都可以被快速識別并持續(xù)追蹤。不同于邊沁、??滤帟r代下的比喻,現(xiàn)代社會的“超級全景監(jiān)獄”有著更為隱蔽、泛娛樂化的特點,更多的商業(yè)場景經營者成為監(jiān)視者,擁有類似公權力式的權力。無處不在的人臉識別可能會引發(fā)寒蟬效應,當人們意識到其正處于監(jiān)視中,個體行為將受抑制,阻礙社會進步與個人發(fā)展。
對于如何防治人臉識別的危害,有兩種應對方式:一種是傳統(tǒng)的私法保護進路,等待已發(fā)生損害結果再去采取措施,提起侵權損害賠償訴訟這一事后救濟方式。另一種是通過一系列措施使人臉識別技術處于安全狀態(tài),對個人不產生影響,亦即風險的控制。人臉識別技術法律規(guī)制面臨著如上的選擇,本文認為,零風險的預防性原則并不適用于人臉識別技術。[9]但是,從人臉識別技術的后果控制到風險預防是必然趨勢,這亦是國家作為個人信息保護義務主體從被動走向主動的必由之路。
通過對人臉識別技術風險特征的分析可知,人臉識別技術的風險來源是與個人之間存在持續(xù)性不對稱關系、對個人實施壓迫性監(jiān)視的權力,且此種權力的行使有著極大的安全性欠缺之可能。由于人臉識別技術的隱蔽性特征,監(jiān)視與生活的界限并不明晰,當發(fā)現(xiàn)損害結果時,個體難以判斷侵權發(fā)生的時間點、危害程度與后果,這決定了人臉識別技術侵權的私法保護進路存在困境。而風險預防原則凸顯了國家的個人信息保護義務,《個人信息保護法》第11 條規(guī)定國家預防和懲治侵害個人信息權益的行為,即確立了風險預防原則。實際上,風險預防作為一種更廣義的國家義務早已得到法律的承認,預防義務是國家保護義務擴大的結果。[10]在我國行政法領域適用風險預防原則,大多數(shù)集中在食品安全領域。[11]迄今為止,學界與實務界已經對此原則形成了豐富的認知,行政法的其他領域,也有著適用風險預防原則的討論。相比于私法給予的侵權損害賠償外,行政權也可以對人臉信息控制者與使用者的日常進行監(jiān)管。監(jiān)管型的行政執(zhí)法面向一般的人臉信息收集、使用場景,能夠督促人臉信息控制者合規(guī)運營,實現(xiàn)事前預防的效果。
那么人臉識別技術風險預防的目的是什么?在各國立法和國際條約中,產生了對風險預防原則的多種定義和理解。在最基礎的意義上,對風險預防原則的理解有“弱”“強”的區(qū)分。但無論是哪種定義,風險預防原則的核心在于對科學上不能確定的風險的規(guī)制。它要求政府在公民面臨不確定風險時,采取保護公民的預防性規(guī)制措施,至于是這樣規(guī)制還是那樣規(guī)制,風險預防原則無法提供特定的、固定的答案,這將在政府綜合考慮各種不確定性與信息后作出。[12]因此,這里內含著價值選擇的過程。事實上縱觀各國立法,根據(jù)不同種類的具體數(shù)據(jù)類型而制定不同的數(shù)據(jù)規(guī)則與制度是大勢所趨。[13]本文認為,人臉信息作為一項敏感個人信息,涉及多元利益。不同于強調數(shù)據(jù)開發(fā)利益價值的一般數(shù)據(jù),亦不同于關系國家安全與社會公共利益的核心數(shù)據(jù),對人臉信息的關注點應是在數(shù)據(jù)安全的基礎上實現(xiàn)利用價值,即安全是人臉識別技術風險預防的首要目的,利用作為次要目的。協(xié)調平衡二者關系,才能建立合理的人臉信息使用規(guī)則。
最高人民法院于2021 年7 月發(fā)布了《關于審理使用人臉識別技術處理個人信息相關民事案件適用法律若干問題的規(guī)定》(以下簡稱《人臉識別司法解釋》),這是我國專門針對人臉識別應用進行規(guī)制的第一部法律文件。2021 年8 月,《個人信息保護法》發(fā)布,其中關于敏感個人信息的規(guī)定、關于公共場所安裝圖像采集、個人身份識別設備的規(guī)定,與人臉識別密切相關。另外,《民法典》第四編人格權編規(guī)定了個人信息保護的基本原則和框架。這些法律規(guī)則構成了我國關于人臉識別規(guī)制的主要法律框架。其中,“風險”一詞在《個人信息保護法》中出現(xiàn)了4 次,體現(xiàn)出立法者的風險意識,但相比于歐盟《一般數(shù)據(jù)保護條例》中“risk”(“風險”)一詞出現(xiàn)了75 次,我國在《個人信息保護法》中未能表現(xiàn)出對風險的高度關注,且如何將風險預防原則制度化建設并細化發(fā)展仍待進一步的思考。
對于非公共安全場景而言,人臉識別技術構建在知情同意框架的基礎上,基于個人對風險認知的困境,知情同意原則其實受到了極大的挑戰(zhàn)。個體常常依賴于自我的直覺,對風險的反應并不理性,如果其近期經歷過某一風險的現(xiàn)實化,或某一風險能使之聯(lián)想起近期發(fā)生的事件,那么對于該風險,個體能夠迅速作出關注與反應;倘若一項風險關系某一新發(fā)展的科學技術,囿于認知范圍有限,個體往往低估潛在的風險,并將判斷能力依賴于專家,專家便扮演著幫助人們對信息進行判斷的角色。專家只提供專業(yè)信息與標準,對于缺乏技術專業(yè)背景的個體,其仍無法理解專業(yè)信息背后的利弊,而這些信息往往經過經營者之手,呈現(xiàn)到人們面前。經營者與被識別者有著不同的訴求、利益與關注點,對信息把握與呈現(xiàn)方式的期待是相互競爭與沖突的關系[14],個體希望得到通俗易懂的風險提示,而經營者則企圖呈現(xiàn)出復雜的人臉信息使用政策以滿足合規(guī)的需要并為其日后免除相關責任探尋路徑。
人臉信息作為敏感個人信息,其承載風險極高,“牽一發(fā)而動全身”,一旦風險現(xiàn)實化,可能引發(fā)的連鎖效應將對社會構成嚴重危害。表面上看,知情同意框架將人臉信息的決定權與支配權放置在個體手中,但實質上這是一種并不負責任的處理方式,將人臉信息泄露、非法使用的負擔轉移到個人肩上[15],將個人的選擇權置于經營者這一“準官僚化”機構之下。人臉采集硬件設施一旦安裝在經營場所等公共區(qū)域,即便能夠做到充分的告知,個人在知情后并沒有是否同意的余地[16],因為雙方的權力并不對稱,不存在合理的制衡措施,個人需要在離開經營場所不參加相應的社會活動與接受人臉識別之間作出選擇。對此,《網絡數(shù)據(jù)安全管理條例(征求意見稿)》第25 條對身份識別的方式作出了規(guī)定。但即便經營者自身有著合規(guī)的自覺,隱私條款冗長晦澀,加重用戶閱讀負擔,用戶不閱讀條款而直接勾選同意成為一種常規(guī)操作。[17]如上文所述,個體認知的有限性導致了面對難以理解的隱私條款人們的風險意識較低,在此種敷衍式的同意下,用戶想要理解隱私政策并作出信息自決幾乎不可能。條款淪為一紙空文,人臉信息的自決權被架空。
阿列克西曾提出四個關于公共利益與個人權利的命題,他通過分析第一和第二個命題,認為公共利益是實現(xiàn)個人權利的手段,還是個人權利是實現(xiàn)公共利益的手段,反映出個人利益與集體利益的沖突關系。[18]對于公共安全場景下的人臉識別而言,根據(jù)《個人信息保護法》第26 條和《人臉識別司法解釋》第5條,“維護公共安全所必需”是公共場所使用人臉識別技術處理個人信息的免責事由。問題是僅憑“為維護公共安全”本身能否認定刷臉的必要性?[19]換言之,是否可以不惜一切代價維護社會公共安全?倘若直接適用該條款,而忽視《個人信息保護法》第5條所強調的正當、必要性原則,將泛化的公共安全作為突破正當、必要性原則的例外,則易引發(fā)監(jiān)視權的擴張。事實上,阿列克西對公共利益與個人權利關系的闡釋只考慮到了雙方的線性關系,公共利益與個人權利應是循環(huán)互補的關系,公共利益是權利束,指向無數(shù)個人權利,忽視人權保障的公共利益從不是“真”公共利益,與黃燈理論相似,公共利益與個人權利應平衡。當下缺乏關于如何適用《個人信息保護法》第26 條和《人臉識別司法解釋》第5條的相關解釋,對公共場景下的諸多風險缺乏必要關注,易導致公共利益突破比例原則限制的情形,且可能隨著破窗效應,引來公民安全感缺失與政府公信力透支的詬病。
《個人信息保護法》第28 條規(guī)定了處理敏感個人信息的特定目的和充分必要性要求。本文并不否認上述原則是規(guī)制人臉識別技術所應遵循的準則,但應以“場景、風險導向”作為補充。人臉識別技術法律規(guī)制并不是固定僵化的,人臉信息的收集與使用是動態(tài)的,所在場景復雜多變,法律難以作出預定。[20]靜態(tài)的知情同意框架與維護公共安全的理由難以適應紛繁多變的場景。特定目的的要求往往體現(xiàn)為立法的事先授權與控制,由于不可能存在滴水不漏與理想化的控制流程,特定目的要求事實上僅規(guī)制到人臉信息的收集的過程,而數(shù)據(jù)的跨越性決定了數(shù)據(jù)使用環(huán)節(jié)為全流程的主要環(huán)節(jié),特定目的要求難以輻射到數(shù)據(jù)使用環(huán)節(jié),且數(shù)據(jù)使用的目的難以唯一確定。
當下歐洲與美國均或多或少地采納了場景與風險導向的新理念。美國《消費者隱私權利法案(草案)》規(guī)定了經營者只能通過相應場景中合理的手段收集、留存及利用個人信息,經營者須告知用戶場景中的風險,并以合理的方式讓用戶選擇是否要承擔風險,并提供更低風險下的服務。歐盟《一般數(shù)據(jù)保護條例》亦以風險為導向,在知情同意的基本框架下將不同場景的風險分為高、中、低三個等級,強化數(shù)據(jù)控制者與處理者的義務。人臉信息不同于一般數(shù)據(jù),對其關注點應是在數(shù)據(jù)安全的基礎上實現(xiàn)利用價值。我國目前的個人信息保護模式與美歐存在一定的差距,因此,如果說對一般數(shù)據(jù)采用嚴格的風險預防會加重經營者合規(guī)負擔,那么針對風險性極高的人臉信息采用場景與風險導向既有必要,也未操之過急而具有可行性。
我國可考慮以場景化為出發(fā)點,要求經營者將人臉信息收集處理的風險告知用戶,由用戶決定人臉信息采集處理工作是否為自己所接受,經營者后續(xù)對人臉信息利用時應將風險控制在原初風險之下,每超過原初風險,便再次向用戶說明風險,征詢是否符合用戶合理預期,若無法取得用戶授權,則應取消該高風險的人臉信息利用行為,因為安全價值為第一序位。上述對風險的評價均建立在風險評估的基礎上,每個獨特場景的要素都是風險評估的考慮因素,且風險評估建立在收集、利用的全過程,而非僅限于收集階段。通過場景與風險導向,重點關注人臉信息的處理環(huán)節(jié),而非僵化性適用知情同意或公共利益的需要,可避免陷入全有或全無的不合理困境,提升個人對人臉信息的實質性控制能力。
確立完風險預防的理念之后,應建立人臉識別風險規(guī)制框架,至少應包括“風險評估—風險管理—風險溝通”三個環(huán)節(jié)。
(1)人臉識別技術法律風險評估。根據(jù)《個人信息保護法》第55 條,人臉識別機制至少涉及第一項敏感個人信息與第二項自動化決策,因此必須進行風險評估?!缎畔踩夹g個人信息安全影響評估指南》要求進行算法影響評估,但僅為推薦性指南??梢姮F(xiàn)行法缺乏對人臉識別技術風險評估的細致性規(guī)定。比較法上,美國華盛頓州《人臉識別服務法》第10 條規(guī)定應成立人臉識別工作組,引入專業(yè)化多方治理機制。歐盟《一般數(shù)據(jù)保護條例》提出隱私影響評估制度,列舉了信息的可識別程度、自然人易受傷害的程度、信息處理的規(guī)模等多項評判風險的標準,將風險劃分為三個等級。我國可以考慮由行政機關牽頭,設立科技倫理委員會,在部署人臉識別系統(tǒng)之前應當進行倫理與科技等要素的風險評估,運用行業(yè)中成熟的評估工具,根據(jù)不同的場景,確定不同的風險等級,并以通俗易懂的語言向社會公眾公布相應的評估報告。人臉識別風險評估應當貫穿人臉信息收集、使用的全流程,定期對人臉識別技術可能出現(xiàn)的新風險進行評估。
(2)人臉識別技術法律風險管理。對于公共安全場景,前文已提及缺乏關于如何適用《個人信息保護法》第26 條和《人臉識別司法解釋》第5條的相關解釋,易導致公共利益突破比例原則的限制。在“馬普爾案”中,歐洲人權法院即表示,以公共利益為由無限期保留已無罪釋放的嫌疑人的生物識別信息屬于不合比例原則的措施。國家應意識到其自身亦為風險源,應避免過度收集使用人臉信息,對公共安全進行合法、正當、必要性審查。因此,《個人信息保護法》第26 條和《人臉識別司法解釋》第5條必須作嚴格限縮,即便是為了公共安全,對人臉信息等敏感個人信息的處理也必須符合比例原則的要求。應細化《個人信息保護法》第26 條公共安全的范圍,考慮采取明確的列舉式規(guī)定,如追蹤重大違法犯罪嫌疑人等。行政機關作為監(jiān)管部門,可以發(fā)布責令停止、責令改正等行政命令以遏制人臉識別技術的不當運用。同時可以采用經營者信用評價,提示用戶注意風險。當然,行政機關采取的風險預防措施本身應進行合比例性審查,牢記人臉識別技術風險預防的行政權定位,將安全視為人臉識別技術風險預防的首要目的,利用作為次要目的。倘若特定場景下人臉識別技術風險不高,則應允許經營者實現(xiàn)人臉信息的利用價值,不應片面追求嚴苛的執(zhí)法。
(3)人臉識別技術法律風險溝通。廣泛的公眾參與是風險規(guī)制活動不可或缺的環(huán)節(jié)。單靠政府包攬風險預防并不能解決問題,民眾作為風險的直接受影響者,有權知曉自己面臨的風險并作出對自己有利的選擇。美國加州《人臉識別技術法案》對問責報告、年度報告的要求,便體現(xiàn)了公眾參與的理念。經營者與行政監(jiān)管部門識別出人臉識別技術的相關風險后應及時提示用戶,進行信息交換與互動,讓用戶認真權衡與判斷,由人臉信息侵權的潛在受害者地位,轉變?yōu)閷嵸|可以參與到風險決策過程中的權利人,督促政府與經營者不斷完善風險管理方案,推動風險決策的優(yōu)化。無論是知情同意原則在人臉識別技術應用過程中的失效,還是公共安全場景下監(jiān)視權擴張,都要求在人臉識別技術應用的全部環(huán)節(jié),引入公眾參與機制,讓公眾了解風險現(xiàn)狀。我國可以建立“評估信息公開—用戶自我決策—提供低風險服務”的過程減輕公眾對于人臉識別技術濫用的擔憂。
人臉識別起到身份認證的功能,是激活各類社會身份與活動的鑰匙。國家對人臉識別技術進行風險預防的義務是國家保護義務的擴大的結果。人臉識別技術風險預防中行政權的定位應是保障人臉信息安全第一,利用價值第二。為人臉識別技術建構一個現(xiàn)代化的風險管理框架,首先應確立風險預防理念,以場景化為出發(fā)點,告知個體風險,讓個體擁有風險決策權。其次應關注風險評估、風險溝通和風險管理三個環(huán)節(jié),建立人臉識別技術法律風險評估機制以及實現(xiàn)全流程的公眾參與,同時在風險管理過程中還應強化比例原則的指引。最終在人臉信息安全和人臉信息利用相輔相成的基礎上,促進技術更新與社會變革。