王 玥,張學睦,姚慶國
(山東科技大學 經(jīng)濟管理學院,山東 青島 266590)
人們在經(jīng)濟生活和社會生活中企圖以最小的代價獲取最大的利益,經(jīng)濟生活中的代價和報償是有形的,表現(xiàn)為金錢或物質(zhì),而社會交換中的代價和報償在很多時候和場合中是無形的。[1]在數(shù)字化、信息化、智能化的發(fā)展浪潮中,人臉識別技術正被廣泛應用于各個場景,為了獲得相應的服務,人們不斷向人臉識別系統(tǒng)提供個人面部信息。在獲得更加智能化、體驗感更好的服務的同時,作為交換的代價,也放棄了對個人隱私信息的保護。面部信息作為一種識別性極強的個人隱私信息,在實際應用中存在著巨大的安全隱患。因此,分析其背后隱含的隱私讓渡代價,規(guī)范人臉識別技術的應用具有重要的意義。
人臉識別技術是通過捕捉人的面部特征,將其與已存儲的面部信息進行匹配從而進行身份認證的一種生物識別技術。[2]與虹膜識別、指紋識別等生物特征識別方式相比,人臉識別具有以下幾個特點:一是非接觸性,人臉識別可以在不與識別裝置進行觸碰的條件下進行;二是非強制性,在識別過程中通過提取含有人臉信息的圖像和視頻流等方式自動與數(shù)據(jù)庫中的信息進行比對,不需要強制人具體做出某種動作;三是隱蔽性,人臉識別可以在對方不經(jīng)意間完成,具有一定的隱蔽性。因此,這種配合度要求低、匹配與識別效率高的生物特征信息識別技術得到了更為廣泛的應用。
隨著可見光與紅外線人臉識別的結(jié)合、3D識別等新技術的發(fā)展,人臉識別技術進入了快速發(fā)展的時期,主要應用在刑偵破案與安防系統(tǒng)、出入驗證與考勤系統(tǒng)、金融支付驗證與解鎖系統(tǒng)以及通過人臉捕捉實現(xiàn)動態(tài)監(jiān)控等場景。人臉識別技術的應用為人們的生活帶來了便利,提高了商業(yè)、監(jiān)管等活動的效率。[3]而服務效率的提升與面部隱私信息的保護始終是人臉識別技術的應用中需要重點權衡的問題。通常認為“推廣智能便利的技術、提升工作與生活的效率的目的在于更好地為人的生存與發(fā)展提供服務”[4],而隱私信息特別是人臉信息等生物識別信息是體現(xiàn)人類生存價值、保障人格完整性的關鍵要素,因此,我們應當對人臉識別情境下的隱私讓渡問題予以充分的關注。
提供技術與服務的平臺鼓勵用戶讓渡隱私信息,以提高營運水平或者滿足自身發(fā)展的需要。[5]服務提供方不斷宣揚技術的優(yōu)越性、服務的便利性,營造一種“不享受服務就會吃虧”“應用不夠智能化就會落后”的氛圍,輕則誘導,重則以拒絕提供服務為籌碼強制用戶讓渡個人隱私信息。在這種不對等關系的壓制下,用戶不得不向“流氓”系統(tǒng)提供手機號、位置、照片等隱私信息。比如,很多軟件注冊時都需要綁定手機號,并且沒有提供其他的驗證方式。隱私讓渡的另一個原因在于個體本身對特定服務的需要。即使用戶對隱私問題可能存在一些擔憂,但是多數(shù)情況下還是會為了便利或者享受更智能化的服務而提供個人隱私信息。[6]雖然用戶已逐漸認識到隱私保護的重要性并進行了相應的安全設置,但是在系統(tǒng)架構(gòu)與隱私政策的演化中用戶隱私信息的讓渡并沒有減少。[7]如今,隱私信息的讓渡已經(jīng)從手機號、電子賬戶等信息延伸到了識別性更強的人臉信息等生物信息領域。
人臉識別技術情境下的隱私讓渡主要表現(xiàn)在兩個方面。一是用戶主動向人臉識別系統(tǒng)提交人臉信息,即“讓”系統(tǒng)識別并存儲自己的面部信息。例如在刷臉購物中向支付系統(tǒng)提供個人面部信息,在智能門禁中向門禁系統(tǒng)提供人臉信息。二是用戶無意間透漏的個人面部特征“過渡”成了人臉識別系統(tǒng)所需的數(shù)據(jù)。例如在社交賬號上發(fā)布的自拍照,在抖音、快手等視頻互動軟件上上傳的包含個人面部信息的小視頻等,都有可能成為人臉數(shù)據(jù)庫的素材。由于人臉信息的隱私保密性相對較弱,提取成本較低,在一些人臉識別場景中人們可能成為“行走的密碼”。這也不禁引人深思,作為生物特征識別界的“代表”,其使用的可靠性和安全性能否得到保障。同時,刷臉應用、換臉軟件越來越多,在享受服務與保護隱私之間,人們通常會選擇前者,而對于人臉識別技術的過度依賴和信任往往會使人忽略其中包含的風險與代價。
互聯(lián)網(wǎng)技術給人類生活帶來了便利,同時也留存了很多行為數(shù)據(jù)。這些數(shù)據(jù)在互聯(lián)網(wǎng)記憶中不斷累積,成為了監(jiān)測人類行為的工具,人類被迫成為“透明人”[8]。而人臉識別技術的興起,面部信息的讓渡又給“透明人”增添了籌碼。在人臉識別場景下,用戶讓渡的隱私可能不僅僅是個人的面部幾何特征,面部信息中包含的年齡、性別、情緒特征等元素也可能被識別與記錄。同時,在人工智能與深度學習背景下,通過對人臉信息的識別,可以挖掘出其他的個人隱私信息。如果在互聯(lián)網(wǎng)中將面部信息與興趣、性格、消費習慣甚至行蹤軌跡等信息進行串聯(lián),那么個體的信息畫像將會有更加直接與清晰的輪廓,在互聯(lián)網(wǎng)記憶中形成一個不斷成長的數(shù)據(jù)自我,成為巨大的安全隱患。在線上,帶有個人“頭像”的數(shù)據(jù)在網(wǎng)絡空間中無線延伸;在線下,無處不在的攝像頭與人臉識別相結(jié)合,使個體活動處于高度監(jiān)視的環(huán)境中,真正使人類陷入“隱私裸奔”的困境,進一步增加了個人隱私保護的難度。
這一切的源頭在于人們?yōu)榱双@得更加便捷或者體驗感更高的服務而不斷地向服務提供商提供自己的人臉信息,卻沒意識到自身的行為已然對個人隱私構(gòu)成了威脅,并可能持續(xù)對未來產(chǎn)生重要影響。比如,2019年8月底換臉APP “ZAO” 風靡了整個朋友圈,用戶在APP內(nèi)通過人臉識別完成肖像權驗證,再上傳一張足夠清晰的正面照片,就可以將自己的臉替換成“周潤發(fā)”“白展堂”“瑪麗蓮·夢露”等人的臉,其人臉融合效果非常逼真。而在最初版的用戶使用協(xié)議中提到,“在您上傳及/或發(fā)布用戶內(nèi)容之前,您同意或者確保實際權利人同意授予ZAO及其關聯(lián)公司以及ZAO用戶全球范圍內(nèi)完全免費、不可撤銷、永久、可轉(zhuǎn)授權和可再許可的權利?!币簿褪且坏┦褂昧嗽撥浖膿Q臉服務,將會把自己的面部信息隱私讓渡給服務提供者。雖然這一協(xié)議被曝光后該平臺立即對相關內(nèi)容進行了修改,但是市面上還有很多應用暗含類似的霸王條款。比如在APP “顏值排行” 的使用條款中也有提及,“用戶在任何時間段在App發(fā)表的任何內(nèi)容(包括自拍)的著作財產(chǎn)權,用戶許可App開發(fā)者在全世界范圍內(nèi)免費地、長期性地、不可撤銷地使用的權利?!边@些隱藏的霸王條款會賦予服務提供商持續(xù)使用我們面部數(shù)據(jù)的權利,而具體的使用時間、使用方式都無從得知,個人信息將會長期處于曝光狀態(tài)。以犧牲自己的隱私為代價換取智能化服務,抑或選擇保護個人面部信息安全,是每位服務使用者不得不面對的問題。
人臉識別技術的應用可能形成對特定群體的歧視,比如一些具有特殊面部特征的群體或者通過面部信息識別出其他特殊信息的群體就可能成為重點關注的對象。這就侵害了特定人群的基本權利,也造成了社會排斥的問題。已有研究表明,在人臉識別中存在種族偏見。[9]在機場、火車站等人臉識別應用情景中,部分群體的面部信息可能由于系統(tǒng)的算法偏見無法被正常識別,從而不得不接受工作人員的審問和例行檢查。除了在對個體面部掃描時存在偏見與誤判外,在面部識別后所享有的服務中也可能存在歧視。在日常生活比如求職或者租房等過程中,通過對人進行面部掃描就可掌握對方的個人信息,從而將人群劃分為三六九等,并根據(jù)不同的等級提供性質(zhì)不同的服務。而分類依據(jù)的法律是什么,服務提供商是否有對用戶進行分類的權利,分類標準是否合理,是否存在侵犯公民的合法權益的歧視性操作都沒有定論。這種差別待遇可能已經(jīng)影響了服務的體驗感,違背了我們最初選擇服務的意愿,也容易使人陷入信息閉塞的死循環(huán)中。
我們提供人臉信息是為了享受更優(yōu)質(zhì)的服務,而服務本身所包含的算法歧視在無形中對我們尊嚴、人格的傷害也是我們無法回避的代價。我們在無法確保人臉識別系統(tǒng)算法的公正性,面臨在無形中按照某一規(guī)則被分類、甚至被邊緣化的情況時,不得不思考,是不是真的需要以讓渡識別性極強的隱私信息為代價而換取某種服務。
公眾大多都了解人臉識別技術是對個人面部信息的提取與識別,而對人臉信息后續(xù)的存儲和使用問題少有關注。在“人臉識別第一案”中,動物園委托第三方技術公司提供人臉識別技術,將游客入園方式由原來的指紋識別強制改為人臉識別。游客的人臉信息會被存儲在技術提供方的服務器上,而我們無法確定儲存人臉信息的這家機構(gòu)是否有能力保護游客的信息。如今已有互聯(lián)網(wǎng)平臺公開兜售未經(jīng)肖像權所有人授權的人臉照片,明碼標價進行交易,如8元可買3萬張人臉照片,3000元可買24000套人臉照片等,其中還包括一個人不同表情的臉部照片,從側(cè)面反映出人臉信息保管的安全系數(shù)并不高。
在人臉信息的不當應用中有兩個突出問題。一方面,存儲我們面部信息的組織本質(zhì)上是具體的人在運作,即大量身份指向性極強的人臉信息是由一部分人掌控的,這部分人將如何使用我們的個人數(shù)據(jù),會不會因為一己私欲而違規(guī)操作,都無從得知。另一方面,人臉識別要通過特定的代碼進行翻譯、篩選對象,這種代碼的操作自然有被黑客入侵的可能性。而隨著人臉偽造技術的發(fā)展和反實名制產(chǎn)業(yè)鏈條的日趨成熟,破譯人臉信息,用“假人臉”頂替“真人臉”已成為可能。有了人臉照片和系統(tǒng)識別的人臉特征,就可以捕捉相關的人臉特征信息進行針對性的訓練,復制人臉圖像,包括來回轉(zhuǎn)動或者眨眼等,從而通過使用他人的面部信息開啟對應的服務。比如,越南網(wǎng)絡安全公司Bkav通過3D打印的人臉塑料框架、雕刻的硅膠鼻子和打印在紙上的二維嘴唇和眼睛,可以拼湊出一個人臉模型,對準iPhone X就可以實現(xiàn)人臉解鎖。盡管這一破解技術需要對目標iPhone手機用戶的臉部進行詳細的數(shù)字掃描和測量,但是整體的制作成本并不是很高。除了3D人臉模型,還有肉眼看起來與真人幾乎一樣的3D人臉面具。位于美國圣地亞哥的一家人工智能公司用一個特別制作的3D面具,成功欺騙了包括微信和支付寶在內(nèi)的諸多人臉識別購物支付系統(tǒng)。[10]雖然支付寶和微信都作了緊急回應,表明公司內(nèi)不存在任何因為類似技術被盜的案例,但是隨著3D打印技術的日趨成熟,人臉識別系統(tǒng)被“假人臉”攻破的風險將會急劇增加。在基于2D圖像識別的人臉識別運用場景,人臉識別系統(tǒng)被破解的成本更低。2019年10月,浙江一學校的學生在課外科學實驗中發(fā)現(xiàn),只要用一張打印照片就能代替真人刷臉,騙過小區(qū)里的豐巢智能柜,取出父母的貨件。由此可知,人臉識別算法跟人的智能判別、智能識別還存在一定的差距,人臉識別有一定概率會被面具等假人臉突破。我們在批判系統(tǒng)本身存在漏洞的同時,也應該反思自身是否對人臉識別技術過于依賴。如果這樣的漏洞出現(xiàn)在門禁系統(tǒng)、電子賬戶登陸系統(tǒng)中,或者用假人臉來申請信用貸款、注冊公司,后果將更加嚴重。面部信息可能被他人盜用進而代替本人接受服務,也是我們在選擇提供人臉信息前應該考慮的代價。
當人臉信息被不法分子獲取時,將會產(chǎn)生非常嚴重的后果。可能會被納入監(jiān)視體系,個人的行為規(guī)律將被記錄,對自己的生活造成威脅或傷害,甚至人身安全無法得到保障。種種信息使用不當?shù)男袨?,已?jīng)違背了信息收集的初衷。[11]同時我們應該認識到,與一般的個人隱私信息不同,面部信息具有更高的敏感性,一是它與個人自由和基本權利密切相關;二是它的識別特征幾乎是無法更改的。因此,人臉識別技術的不當使用對個體的打擊將是精準且持久的。比如在恐怖行動中,擁有人臉信息的恐怖分子將會快速且準確地找到目標,進行實時定位與追蹤。在這種情況下,個體將毫無隱私可言,無隱私即無自由,人身權利將受到極大損害。并且人臉信息與姓名、手機號、住址等較易更改的隱私信息不同,一旦通過面部信息對身份進行鎖定,將會長期受制于恐怖分子的監(jiān)視,在精準且持久的控制下,遭到的打擊報復也將會是致命的。
人臉識別技術是當今技術進步與發(fā)展的產(chǎn)物,我們在順應時代的發(fā)展、享受人臉識別技術帶給我們的紅利的同時,也應該審視其中蘊含的風險與使用代價,采取針對性的措施,多角度、全方面地減少人臉識別技術的應用代價,促進新技術與人類發(fā)展的良性互動。
技術的研發(fā)與使用都有一定的邊界。應合理劃分人臉識別技術的應用場景,明確人臉識別技術的適用范圍。2019年8月,瑞典的一所高中因使用人臉識別技術來統(tǒng)計學生的出勤率被瑞典的數(shù)據(jù)監(jiān)管機構(gòu)處以20萬元瑞典克朗(約合人民幣15萬元)的罰款。該機構(gòu)指出,鑒于數(shù)據(jù)的管理者與數(shù)據(jù)的持有者之間存在明顯的信息不對稱,校方與家長之間的協(xié)議不足以為人臉識別技術的使用提供有效的支撐。此案例引發(fā)了對人臉識別技術適用范圍的思考,譬如對于課堂這類沒有特殊安全需求的公共場所,是否有必要應用人臉識別技術對個體進行識別以及對行為進行監(jiān)控?作為全球首個禁止使用人臉識別技術的城市,舊金山頒布的《停止秘密監(jiān)視條例》中提到,“人臉識別技術侵害公民權利和公民自由的可能性大大超過了其聲稱的好處;這項技術將加劇種族不公正,并且威脅到我們的生活不受政府持續(xù)監(jiān)視的能力?!泵绹R薩諸塞州的薩默維爾市也通過了禁止使用面部識別技術的法令,該法令禁止市政部門和當?shù)鼐绞褂萌四樧R別軟件,禁止在法律訴訟或刑事調(diào)查中使用人臉識別軟件系統(tǒng)產(chǎn)生證據(jù)或數(shù)據(jù),但對州或聯(lián)邦執(zhí)法部門使用面部識別的范圍沒有限制。歐盟《一般數(shù)據(jù)保護條例》(GDPR)第9條規(guī)定,特定識別自然人的生物學數(shù)據(jù),應當禁止處理。[12]對于一些例外情況,也詳細列舉了多達10條細則。而我國對于人臉識別技術的應用場景和適用范圍還沒有相對明確的界定,需要進一步細化??蓞⒖細W盟《一般數(shù)據(jù)保護條例》的第4條規(guī)定,以抽象化的形式規(guī)定個人數(shù)據(jù)范圍,從而規(guī)避列舉式不周延以及滯后性缺陷。[13]根據(jù)使用需求和應用場景的不同,具體可分為三類。第一類是基于重大公眾安全、偵察犯罪和打擊違法行為的需要應用人臉識別技術。在此場景下應充分發(fā)揮人臉識別技術在保障公民安全和打擊犯罪中的作用,積極調(diào)查取證,同時應明確除特定執(zhí)法部門外,任何機構(gòu)、企業(yè)和個人都無權使用人臉識別技術跟蹤和調(diào)查個體的私人生活。第二類是基于商業(yè)服務的需要應用人臉識別技術。在此場景下應充分考量人臉識別技術的應用所帶來的收益與價值能否抵消個人生物信息被泄露與濫用的風險與代價,是否有必要全面推廣人臉識別技術,人臉識別技術提供商應就相關風險作充分而明確的告知,并在醒目位置張貼人臉識別標識。第三類是在一些譬如信息不對稱的特殊場景中,應對人臉識別技術使用的合理性作進一步的探討,啟動必要的論證程序,比如召開聽證會公開征詢意見,提高決策程序的透明度。
防止人臉識別技術的濫用,除了在其應用范圍上進行細化與研究,還應有相關的法律法規(guī)對人臉信息的使用進行規(guī)范。目前,國家已經(jīng)出臺了一系列與個人信息保護有關的法律,如《網(wǎng)絡安全法》《個人信息保護法》《數(shù)據(jù)安全管理辦法》等,而針對人臉信息使用的法律法規(guī)并不多,法律體系建設尚不完善,對新技術環(huán)境下服務提供者以及服務使用者的權利義務還沒有較為清晰的界定。因此,國家應進一步細化完善相應的法律法規(guī),明確人臉信息收集、存儲、使用等環(huán)節(jié)的技術標準,從而實現(xiàn)對面部信息使用的全生命周期制度設計。具體在人臉信息收集環(huán)節(jié),應明確收集的目的、方式、合理性;在存儲環(huán)節(jié),應明確實施加密處理等保護措施,防止信息泄露;在使用環(huán)節(jié),應明確面部信息的使用范圍、使用期限等,一旦超過規(guī)定時間,應立即刪除,將風險降到最低。
在完善人臉識別技術應用的相關法律法規(guī)的基礎上,應明確數(shù)據(jù)安全責任人,加強監(jiān)管和規(guī)范,對強制收集、非法轉(zhuǎn)賣人臉信息和違規(guī)使用人臉識別技術的企業(yè)和機構(gòu),除了“行政約談”,還應嚴格追究法律責任,進行實際層面的處罰,并完善被侵害人的補償機制。同時應明確執(zhí)法主體,提高執(zhí)法效益,避免形成執(zhí)法的“真空地帶”。比如歐盟成立了數(shù)據(jù)保護理事會,實現(xiàn)了對數(shù)據(jù)的統(tǒng)一集中監(jiān)管。[14]
應用人臉識別技術的企業(yè)或相關機構(gòu)應嚴格按照相關主管部門和國家法律法規(guī)的要求,對人臉識別技術運用過程中可能存在的問題進行自查整改,建立人臉識別技術合理使用的行業(yè)標準。一是要建立人臉識別系統(tǒng)的安全標準,提高行業(yè)準入門檻。人臉識別的運用需要進行嚴格的安全認證,具備相應的安全能力,防止用戶隱私信息被竊取,防范“假人臉”或其他手段對系統(tǒng)的侵入。二是要將算法歧視審查嵌入技術標準。[15]審查人臉識別技術使用中的算法歧視問題,對不良建模內(nèi)容加以整改,使算法的設計與運行限定在倫理允許的范圍內(nèi),保證算法的公正性、透明性[16]。針對人臉識別算法中的種族偏見問題,要優(yōu)化各種膚色的算法設計,提高訓練數(shù)據(jù)的質(zhì)量,對容易出錯的環(huán)節(jié),通過深度學習等現(xiàn)代科技手段提高系統(tǒng)的識別準確率。對于根據(jù)人臉識別后關聯(lián)出的其他個人信息提供差別服務的問題,行業(yè)內(nèi)也應制定統(tǒng)一、分級的信息關聯(lián)范圍標準。一方面可以杜絕企業(yè)為了惡意競爭過度搜集使用相關的個人信息,另一方面可以使用戶根據(jù)自身需求選擇不同信息關聯(lián)級別的服務,避免在不知情的情況下被自動歸入某一類別,喪失接觸多元服務的權利。三是要規(guī)范人臉識別技術的推廣標準。在推行某一服務需要獲得人臉識別許可時,要充分告知用戶并要征得用戶同意,不得強迫用戶讓渡隱私權。如果對某一環(huán)節(jié)推廣無差別使用人臉識別技術,就會給個體造成私有空間被壓縮的約束感和焦慮感。因此,在用戶拒絕提交面部信息時,應提供其他替代性的授權方式。例如,在賬戶登錄時提供多種驗證方式,在客運站提供人臉識別通行和人工檢驗通行,使用戶在便捷與隱私之間有自主選擇的權利。同時,還應提供退出機制,為用戶提供刪除個人面部信息的途徑。在刪除人臉數(shù)據(jù)后,服務商不得終止服務并保證服務的質(zhì)量不低于人臉信息收集之前的水平,保障用戶享受基礎服務的權利。
此外,人臉識別技術服務提供方還應從責任意識和倫理道德層面對自身進行約束,將道德規(guī)范內(nèi)化為內(nèi)在的自律力量。堅持“以人為本”的理念,站在公眾的角度進行設計,維護人的尊嚴,保障人的權利。[17]技術運用的過程中要堅守責任倫理底線,勇于承擔社會責任,保持“求善”精神。[18]行業(yè)標桿和技術領先企業(yè)應充分發(fā)揮其引領作用,帶動整個行業(yè)依法依規(guī)收集和使用用戶人臉信息。
人臉識別技術是面向公眾使用的技術,其收集的人臉信息具有高度的敏感性,與一般的個人信息有本質(zhì)區(qū)別,因此應該充分考慮公眾訴求,推動公眾參與討論。首先要意識到當前公眾對個人面部信息保護的認識還不足,對人臉識別技術應用中可能存在的問題還不夠了解,因此要通過多方位的宣傳與教育,培養(yǎng)公眾的技術素養(yǎng)和信息安全意識,增進公眾對人臉識別技術的了解。其次,要搭建公眾參與平臺,賦予公眾提出質(zhì)疑的權利。信息的提供與否、如何使用應當取決于權利人的自由意志。[19]現(xiàn)行法律也有規(guī)定,具有可識別性的個人信息比如郵箱、電話號碼、住址等在收集時需要征得被收集人的同意。對于人臉信息,其可識別性更強、敏感度更高,在收集和使用時更需要征得當事人的許可。當我們被強制應用人臉識別技術時,有權利對其使用的合理性和必要性提出質(zhì)疑。因此,應搭建公眾參與技術治理的平臺或窗口,獲取更富有建設性的意見與評價,使整個社會以更合理的方式使用人臉識別技術。優(yōu)化公眾的體驗感和獲得感,使公眾看到改變的可能,進一步推動公眾參與。再次,要積極引導社會組織和學術界探討人臉識別技術應用問題的治理之道,開展相關的學術研究活動,開展第三方獨立評估,充分發(fā)揮多元共治的智慧。
當前,計算機處理能力的提升和人工智能的發(fā)展不斷刷新著人們的認知,影響著人們的生活。作為人工智能領域中落地性最強的應用技術[20],人臉識別給人們的生活帶來了便利,同時也帶來應用風險與倫理挑戰(zhàn)。惟有劃清人臉識別技術的應用界限,從法律層面、道德倫理層面對技術的使用進行規(guī)范和治理,制定統(tǒng)一的行業(yè)技術標準,充分考慮公眾的隱私保護訴求,才能使每個人更有尊嚴、更自主地享受技術紅利,促進技術創(chuàng)新與人類發(fā)展的良性互動。