国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人臉識別技術(shù)不合理擴(kuò)散的倫理風(fēng)險(xiǎn)與法律規(guī)制
——兼論動態(tài)同意規(guī)制模式的建構(gòu)

2022-03-16 07:52:09湯建華
新疆社會科學(xué) 2022年3期
關(guān)鍵詞:控制者知情人臉識別

湯建華

內(nèi)容提要:人臉識別技術(shù)在社會生活中的應(yīng)用越來越廣。人臉識別技術(shù)早期應(yīng)用目的是維護(hù)社會安全,其不合理擴(kuò)散引發(fā)了倫理風(fēng)險(xiǎn),數(shù)據(jù)主體的隱私泄露侵犯人的自由和主體性,算法歧視危及社會公平正義。對于人臉識別技術(shù)的擴(kuò)散需要進(jìn)行法律規(guī)制,針對隱私保護(hù),需要在法律上構(gòu)建知情同意原則、最小必要原則和不傷害原則;針對算法歧視需要在法律上構(gòu)建算法中立原則和公正原則。其中,知情同意原則具有優(yōu)先性,圍繞知情同意原則的具體建構(gòu),歐盟立法采取了“原則—例外”的特別同意模式,即原則上禁止處理人臉數(shù)據(jù),除非數(shù)據(jù)主體同意以及法律允許。我國采取了“隱私權(quán)+個人信息”雙重保護(hù)模式,體現(xiàn)了寬松同意模式。兩種模式均無法逃脫價值沖突的困境,需要建構(gòu)一種具備可操作性的動態(tài)同意模式。

我們所處的社會是一個數(shù)字社會,數(shù)字化乃是大勢所趨,人體的諸多生物信息皆可被數(shù)字化,比如人體的體型、指紋、虹膜和面部特征等。數(shù)字化社會當(dāng)然也有隱憂,數(shù)字信息尤其是人臉信息一旦無法由人們自己完全掌控,將會給人們生活帶來一系列的倫理風(fēng)險(xiǎn)。為了避免這些可能的風(fēng)險(xiǎn)演變?yōu)檎嬲奈kU(xiǎn),需要法律作出一系列回應(yīng)。

一、人臉識別技術(shù)不合理擴(kuò)散的表征

人臉識別技術(shù)的應(yīng)用存在著合理的標(biāo)準(zhǔn),這一標(biāo)準(zhǔn)就是技術(shù)的應(yīng)用必須以尊重和保護(hù)人類為目的,技術(shù)永遠(yuǎn)只能充當(dāng)人類改造世界的手段,而不能侵犯人類的主體性,這可以被稱作技術(shù)應(yīng)用的目的理性。在這一標(biāo)準(zhǔn)下,人臉識別技術(shù)的最初應(yīng)用是符合目的理性的,這可以從人臉識別技術(shù)在不同方面的最初應(yīng)用看出來。例證有三:第一,人臉識別技術(shù)的最初官方應(yīng)用是為了維護(hù)社會治安,最初應(yīng)用可以追溯到20世紀(jì)60年代,美國社會治安惡化,毒品泛濫成為危害社會的首要問題,美國為了控制毒品犯罪,維護(hù)社會安全,開啟了人臉識別技術(shù)的發(fā)展。(1)胡曉萌、李倫:《人臉識別技術(shù)的倫理風(fēng)險(xiǎn)及其規(guī)制》,《湘潭大學(xué)學(xué)報(bào)》2021年第4期。第二,人臉識別技術(shù)最初商業(yè)應(yīng)用是為了防范犯罪,最早的人臉識別技術(shù)的商業(yè)系統(tǒng)是Facelt,英國倫敦的紐漢區(qū)曾安裝了250多套Facelt人臉識別商用系統(tǒng),用于識別犯罪嫌疑人。(2)張曉華、山世光、高文、曹波:《若干自動人臉識別技術(shù)評測與分析》,《計(jì)算機(jī)應(yīng)用研究》2005年第6期。第三,我國人臉識別技術(shù)的規(guī)模應(yīng)用始于2008年北京奧運(yùn)會,(3)蘇楠、吳冰、徐偉、蘇光大:《人臉識別綜合技術(shù)的發(fā)展》,《信息安全研究》2016年第2期。其目的也是為了維護(hù)社會安全。

人臉識別技術(shù)在與人的關(guān)系上必然涉及兩方面的內(nèi)容:一是人臉信息的輸入,人臉屬于人的生物信息,人臉數(shù)據(jù)庫的建立必須以采集人臉數(shù)據(jù)為基礎(chǔ);二是人臉信息的存儲,人臉識別技術(shù)發(fā)揮身份識別功能必須驗(yàn)證人臉是否與人臉數(shù)據(jù)庫中的人臉信息一致,因而最初獲取到的人臉數(shù)據(jù)信息必須被存儲起來以供具體應(yīng)用時充當(dāng)對比對象。所以,人臉識別技術(shù)的應(yīng)用必然導(dǎo)致人臉信息的采集和存儲。人的生物信息可以鏈接到其他信息上用于刻畫其行為習(xí)慣和社會交往,等等,例如結(jié)合人臉信息和消費(fèi)、出行信息,從而判斷行為人的消費(fèi)習(xí)慣和喜好,從而方便商業(yè)集團(tuán)更好地掌握消費(fèi)者群體的信息,開展有針對性的商業(yè)服務(wù),以最小的經(jīng)濟(jì)成本換取最大的經(jīng)濟(jì)收益。在這樣的商業(yè)利益驅(qū)動下,人臉識別技術(shù)行業(yè)發(fā)展日漸繁榮,有調(diào)查顯示,人臉識別行業(yè)在2022年的市場規(guī)?;?qū)⑦_(dá)到67億元。(4)楊智杰:《人臉識別十字路口:臉的恐慌》,《中國新聞周刊》2019年第11期。

不過,我們很難證明以上人臉識別技術(shù)的應(yīng)用符合保衛(wèi)社會的目的理性。例如,小區(qū)或?qū)懽謽堑娜四橋?yàn)證,出入口控制完全可以使用其他的非生物信息驗(yàn)證方式,此類人臉識別應(yīng)用場景無法經(jīng)由目的理性證成。根據(jù)《人臉識別應(yīng)用場景合規(guī)報(bào)告(2021)》,有超過七成的校區(qū)/寫字樓強(qiáng)制人臉門禁,有48%的受訪者認(rèn)為人臉識別有被濫用的趨勢。(5)該報(bào)告的數(shù)據(jù)轉(zhuǎn)引自富東燕:《人臉識別無處不在,我們的隱私是否安全?》,《中國婦女報(bào)》2021年12月24日第4版。人臉識別技術(shù)的不合理擴(kuò)散也由此滋生了社會矛盾,被稱為“中國人臉識別第一案”的郭兵訴杭州市野生動物園服務(wù)合同糾紛案便是例證。

人臉識別技術(shù)本身并不涉及倫理評價問題,其最初應(yīng)用因?yàn)榉险?dāng)目的而具有合理性。這是人臉識別技術(shù)合理應(yīng)用的必要不充分條件。如果人臉識別技術(shù)的擴(kuò)散超出了正當(dāng)目的,這種技術(shù)應(yīng)用便異化了,從而不再合理,不合理的技術(shù)應(yīng)用便具有進(jìn)行倫理評價的必要性。我們需要對人臉識別技術(shù)的擴(kuò)散進(jìn)行認(rèn)真的倫理反思,剖析人臉識別技術(shù)擴(kuò)散的倫理風(fēng)險(xiǎn),這一倫理反思是法律規(guī)制的正當(dāng)性基礎(chǔ)。

二、隱私泄露與算法歧視:人臉識別技術(shù)不合理擴(kuò)散的倫理風(fēng)險(xiǎn)

人臉識別技術(shù)的具體應(yīng)用因超出了維護(hù)公共安全這一目的或者具有了其他不合理目的,從而引發(fā)倫理風(fēng)險(xiǎn)。這一倫理風(fēng)險(xiǎn)體現(xiàn)在兩個層面:第一,數(shù)據(jù)主體的隱私泄露風(fēng)險(xiǎn)侵犯人的自由和主體性;第二,算法歧視侵害社會公平正義。

(一)引發(fā)隱私泄露,侵犯個人主體性與自由

人臉識別技術(shù)引發(fā)隱私泄露,從而侵犯個人的主體性與自由,這一論點(diǎn)如果成立,必須論證三方面的內(nèi)容:第一,為何隱私的本質(zhì)是個人的主體性與自由;第二,為何人臉識別技術(shù)涉及隱私泄露的可能性;第三,人臉識別技術(shù)引發(fā)隱私泄露的現(xiàn)實(shí)性。

關(guān)于隱私的本質(zhì)是個人的主體性和自由的問題,需要論證何為隱私以及隱私與個人主體性和自由的關(guān)系。這需要回到關(guān)于隱私的基本概念和理論上去,對此雖然有不同的理論觀點(diǎn),但這些觀點(diǎn)具有內(nèi)在一致性。對其總結(jié)如下:其一,隱私權(quán)的實(shí)質(zhì)就是不受打擾的權(quán)利,隱私是一種排他性自由。(6)李石:《消極自由與積極自由辨析——對以賽亞·柏林“兩種自由概念論”的分析與批評》,《云南大學(xué)學(xué)報(bào)》2008年第6期。其二,隱私權(quán)與私人生活的私密性具有天然聯(lián)系,在私人領(lǐng)域與公共領(lǐng)域二分法的基礎(chǔ)之上。(7)Tom Gerety,Redifining Privacy,Harv. C. R.-C.L.L.Rev.,1977(12).其三,隱私承載著人格利益,個人自主決定其喜好,決定其生活方式和不為人知的生活軌跡,這些都是個人對于自己的人格塑造,維護(hù)隱私相當(dāng)于維護(hù)個性發(fā)展的多樣化,維護(hù)每個人的人格和自主。(8)Laurence H.Tribe,American Constitution Law,1978.其四,從社會的角度來看,每個人生存在社會中都有自己的角色,這一角色可以通過許多數(shù)據(jù)信息表現(xiàn)出來,人們只需要知悉該角色的部分?jǐn)?shù)據(jù)信息。(9)陳宏達(dá):《個人資料保護(hù)之研究》,1992年輔仁大學(xué)碩士學(xué)位論文。因而,社會或他人不必知悉個人的全部信息,那些不必為人所知的信息就是隱私。其五,從個人的生存角度出發(fā),每個人的心靈深處都有獨(dú)處的欲望,要求不被接觸。(10)Gavison R.,Privacy and the Limits of Law,Yale Law Journal,1980,89(3),pp.421-471.因此,數(shù)據(jù)隱私具有倫理正當(dāng)性,其與個人主體性與自由這一價值密切相關(guān),并且隱私具有個人獨(dú)享性。

人臉識別技術(shù)涉及隱私泄露的可能性。這是源于人臉識別技術(shù)的技術(shù)特征,人臉識別技術(shù)中數(shù)據(jù)控制者和數(shù)據(jù)主體的關(guān)系處于緊張之中。一般而言,隱私是不為人所知的,由隱私主體所控制、知悉。所以,在應(yīng)然的意義上,隱私信息應(yīng)當(dāng)僅僅由隱私主體所擁有。但是由于人臉識別技術(shù)中的三個對象之間的關(guān)系,人臉識別技術(shù)在應(yīng)用中必然要收集和存儲人臉信息,這就意味著人臉數(shù)據(jù)時刻處于不受數(shù)據(jù)主體控制的狀態(tài),而是受到數(shù)據(jù)控制者的控制。

只有當(dāng)人臉識別技術(shù)造成了實(shí)際的隱私泄露問題,這種技術(shù)應(yīng)用才是不合理的,才是真正引發(fā)倫理風(fēng)險(xiǎn)的。在美國,全國各地的警察部門經(jīng)常使用人臉識別技術(shù)來識別和跟蹤個人——無論是過馬路、被監(jiān)控?cái)z像頭捕捉還是參加抗議活動。(11)ACLU of Maryland,Aclu Urges Justice USTICE Department to Investigate the Use and Impact of Face Recognition,https://www.aclu-md.org/en/press-releases/aclu-urges-justice-department-investigate-use-and-impact-face-recognition,最后訪問時間:2022年1月22日。人臉識別技術(shù)與社會上廣布的攝像頭相結(jié)合,算法可以隨時跟蹤所有人的公共活動,人們的行動沒有任何個性化和隱秘性可言,算法能夠精確計(jì)算出所有人的生活習(xí)慣和社會交往。如果這樣的技術(shù)淪為了監(jiān)控工具,個人的自由和主體性便蕩然無存。

(二)加劇算法歧視,侵害社會公平正義

算法歧視具有難以察覺性、持續(xù)性和不可逆性。算法歧視可能根源于兩方面的原因:第一,算法歧視可能由程序本身的設(shè)計(jì)錯誤造成,因?yàn)樗惴ㄔ谝欢ǔ潭壬鲜浅绦騿T個性的展現(xiàn),不同程序員因其性別、年齡、價值觀念、宗教信仰、認(rèn)識水平和道德水平的不同,盡管遵循同樣的技術(shù)方法,他們所設(shè)計(jì)出來的算法也可能不同。第二,算法歧視可能源自深度學(xué)習(xí),由于深度學(xué)習(xí)樣本數(shù)據(jù)的不全面,導(dǎo)致算法在對待某種數(shù)據(jù)時得出的結(jié)果與其他數(shù)據(jù)不同。這一特征是算法的“后天因素”。自動人臉識別的擴(kuò)散應(yīng)用在這些缺陷因素的影響下,對具有特定性別、種族或地域特征的人的歧視將是持續(xù)性的。同時,算法的隱蔽性、不可解釋性以及技術(shù)中立原則又使得算法歧視難以察覺。

人臉識別技術(shù)的算法歧視問題已經(jīng)被證實(shí)。美國公民自由聯(lián)盟(American Civil Liberties Union)強(qiáng)烈反對人臉識別技術(shù),其認(rèn)為人臉識別技術(shù)在女性和有色人種的識別上屢屢出錯。美國公民自由聯(lián)盟做了一組測試,首先將美國國會議員的照片與犯罪數(shù)據(jù)庫中的照片進(jìn)行對比,結(jié)果有5%的人匹配上了。而單獨(dú)拿非裔美國議員與犯罪數(shù)據(jù)庫中的照片進(jìn)行對比,識別錯誤率超過了20%。(12)ACLU of Maryland, Biden Must Halt Face Recognition Technology to Advance Racial Equity,https://www.aclu.org/news/privacy-technology/biden-must-halt-face-recognition-technology-to-advance-racial-equity,最后訪問時間:2022年1月22日。2018年,麻省理工學(xué)院研究團(tuán)隊(duì)發(fā)現(xiàn),商業(yè)人臉識別系統(tǒng)中存在著明顯的種族歧視和性別歧視,通過對亞馬遜Rekongnition軟件的測試發(fā)現(xiàn),該人臉識別系統(tǒng)對于白人男性的面部識別相對準(zhǔn)確,但對黑人女性的面部識別錯誤率高達(dá)三分之一,這些發(fā)現(xiàn)也為官方所證實(shí)。(13)ACLU of Maryland, Biden Must Halt Face Recognition Technology to Advance Racial Equity,https://www.aclu.org/news/privacy-technology/biden-must-halt-face-recognition-technology-to-advance-racial-equity,最后訪問時間:2022年1月22日。還有研究表明,目前商業(yè)應(yīng)用的大多數(shù)人臉表情識別、情緒識別系統(tǒng)都缺乏科學(xué)性。(14)J.Barrett L.F.,Adolphs R.,Marsella S.,et al.,Emotional Expressions Reconsidered:Challenges to Inferring Emotion from Human Facial Movements,Psychological Science in the Public Interest,2019 (1).之所以缺乏科學(xué)性,是因?yàn)樵撓到y(tǒng)所采用的統(tǒng)一標(biāo)準(zhǔn)的不可能性,身處不同的文化背景中的人,其表情的文化含義有所不同。

這些實(shí)證研究揭示了人臉識別技術(shù)的“雙重錯誤”,一方面表明了人臉識別在技術(shù)上的不可靠性,另一方面則對比顯示了人臉識別技術(shù)的算法歧視?;蛟S有人會認(rèn)為,有色人種的人臉識別錯誤的原因可能是可選數(shù)據(jù)集有限,對此觀點(diǎn)我們需要指出的是,人臉識別技術(shù)在人臉驗(yàn)證時確實(shí)是以人臉數(shù)據(jù)庫為對比基礎(chǔ)的,這似乎可以歸結(jié)為算法技術(shù)本身深度學(xué)習(xí)的有限性,這也是導(dǎo)致算法歧視的原因之一,其背后反映造成算法歧視的美國社會環(huán)境。由此可見,人臉識別技術(shù)的擴(kuò)散加劇了算法歧視,侵害社會公平正義。人臉識別技術(shù)擴(kuò)散危害社會公平正義的最終根源在于人或社會本身,而人臉識別技術(shù)的擴(kuò)散又強(qiáng)化了對于社會公平正義的侵害。如果不加以干預(yù),這種惡性循環(huán)將持續(xù)進(jìn)行下去。又由于算法歧視本身的難以察覺,如果不對人臉識別技術(shù)的擴(kuò)散進(jìn)行自覺的規(guī)制,其后果將是人的不斷異化。

三、導(dǎo)向“知情同意”:人臉識別技術(shù)不合理擴(kuò)散倫理風(fēng)險(xiǎn)的法律規(guī)制原則光譜

人臉識別技術(shù)造成的倫理風(fēng)險(xiǎn)包括隱私泄露和算法歧視,對于防范和規(guī)制這一問題,可以有兩種方式:一是法律調(diào)整方式;二是非法律調(diào)整方式。法律調(diào)整方式相對于非法律調(diào)整方式的優(yōu)點(diǎn)在于,法律能夠以權(quán)威的方式安排數(shù)據(jù)主體和數(shù)據(jù)適用者的法律權(quán)利和法律義務(wù),從而建立起人臉識別技術(shù)使用的行為規(guī)范。

(一)針對隱私泄露風(fēng)險(xiǎn)的法律規(guī)制原則

第一,保護(hù)數(shù)據(jù)主體的主體性,需要貫徹知情同意原則。知情同意原則根植于主體的自主性,可以從主體的自主性中推導(dǎo)而來。其一,在應(yīng)然的意義上,一切自然人都是自由的,除他自己同意之外,無論什么事情都不能使他受制于任何世俗的權(quán)力。(15)〔英〕洛克:《政府論》下篇,葉啟芳、瞿菊農(nóng)譯,北京:商務(wù)印書館,2013年,第74頁。其二,作為自由自主的人,有權(quán)將其意志體現(xiàn)在任何事物中。(16)〔德〕黑格爾:《法哲學(xué)原理》,范揚(yáng)、孫企泰譯,北京:商務(wù)印書館,2013年,第24頁。其三,任何一個成年的、心智健全的人都有權(quán)利自主決定如何處置自己的信息。數(shù)據(jù)控制者需充分尊重?cái)?shù)據(jù)主體的知情同意權(quán),只有在得到了相關(guān)數(shù)據(jù)主體的明示同意后才能采集其人臉數(shù)據(jù),禁止在未經(jīng)同意的情況下收集人臉數(shù)據(jù)。作為一項(xiàng)法律原則,知情同意原則的貫徹需要數(shù)據(jù)控制者對于法律的充分敬重,也需要數(shù)據(jù)主體充分意識到自己的法定權(quán)利,為維護(hù)自己的權(quán)利而斗爭。數(shù)據(jù)主體有權(quán)拒絕不合理的人臉數(shù)據(jù)采集行為,有權(quán)要求數(shù)據(jù)控制者公布相關(guān)數(shù)據(jù)的具體使用以及對此進(jìn)行審查。

第二,保護(hù)數(shù)據(jù)主體的自由,需要在法律上構(gòu)建最小必要原則和不傷害原則。最小必要原則要求在有諸多能夠達(dá)到技術(shù)目的的情況下,數(shù)據(jù)控制者在使用人臉識別技術(shù)時應(yīng)當(dāng)采取對于數(shù)據(jù)主體的自由侵害最小的方案。最小必要原則是比例原則的一部分。數(shù)據(jù)控制者在使用人臉識別技術(shù)時首先要遵守目的的正當(dāng)性,其搜集的數(shù)據(jù)不能用于非法目的,并且該搜集行為也是合目的性的,例如為了公共安全等。保護(hù)數(shù)據(jù)主體的自由還應(yīng)當(dāng)在法律上構(gòu)建不傷害原則。人臉識別技術(shù)的擴(kuò)散應(yīng)用不應(yīng)當(dāng)對個體造成傷害。不傷害原則可以導(dǎo)向三種具體化規(guī)則:第一種規(guī)則是要求技術(shù)的不斷進(jìn)化,即要求人臉識別技術(shù)要不斷完善,減少錯誤率,相關(guān)數(shù)據(jù)存儲系統(tǒng)也要不斷增強(qiáng)安全性,防止黑客攻擊,關(guān)于人臉識別技術(shù)的評估系統(tǒng)和技術(shù)測試也需要不斷進(jìn)化,以便提升人臉識別技術(shù)的可靠性。第二種規(guī)則要求是傷害補(bǔ)償,如果發(fā)生了數(shù)據(jù)泄露事件,數(shù)據(jù)控制者需要及時止損,采取必要措施減少傷害,另外也需要對受到隱私泄露危害的相關(guān)主體給予補(bǔ)償。第三種規(guī)則要求是人臉識別技術(shù)研發(fā)企業(yè)具備職業(yè)道德以及人臉識別技術(shù)使用者的安全意識。

第三,數(shù)據(jù)主體的主體性和自由、知情同意原則、最小必要原則和不傷害原則之間具有特定關(guān)系。數(shù)據(jù)主體的主體性和自由是確立相關(guān)法律原則的范導(dǎo)性原則和價值基礎(chǔ),其他法律原則衍生自數(shù)據(jù)主體的主體性和自由,而在主體性和自由之間,主體性又具有絕對優(yōu)先性,主體性標(biāo)示著人相對于客體的優(yōu)先地位,在保證人相對于客體的優(yōu)先地位的基礎(chǔ)上才能確立人的自由,無主體性的自由是不可想象的,無自由的主體性卻是能夠接受的,例如基于個人同意放棄一定的權(quán)利和自由,正是由于個人的主體性,才具有放棄一定自由的可能性。所以圍繞數(shù)據(jù)主體的主體性建立的知情同意原則是第一原則,要優(yōu)先圍繞數(shù)據(jù)主體的自由建立的最小必要原則和不傷害原則。根據(jù)這些法律原則,數(shù)據(jù)主體應(yīng)當(dāng)充分意識到自己的法定權(quán)利,數(shù)據(jù)控制者應(yīng)當(dāng)充分意識到自身的法律義務(wù),只有征得數(shù)據(jù)主體的同意,履行了告知義務(wù)、遵守最小必要原則和不傷害原則,數(shù)據(jù)控制者對于人臉數(shù)據(jù)的合理使用才能夠得以證成。換言之,如果知情同意原則沒有發(fā)揮作用,則最小必要原則和不傷害原則發(fā)揮作用也是不可想象的,因?yàn)樵谶壿嬌?,?shù)據(jù)控制者必須首先在知情同意原則的引導(dǎo)下獲取了數(shù)據(jù)主體的同意之后,在數(shù)據(jù)收集和數(shù)據(jù)存儲階段才會受到最小必要原則和不傷害原則的調(diào)整。所以,知情同意原則相比于最小必要原則和不傷害原則具有優(yōu)先性。

(二)針對算法歧視風(fēng)險(xiǎn)的法律規(guī)制原則

針對算法歧視建立的法律原則更多地與技術(shù)本身有關(guān),屬于相對具體的法律原則,包括算法中立原則和公正原則。

第一,要在法律上構(gòu)建算法中立原則。算法歧視的一部分原因在于機(jī)器學(xué)習(xí),人臉識別技術(shù)需要抓取人臉數(shù)據(jù),形成人臉數(shù)據(jù)庫,針對數(shù)據(jù)本身可能隱匿的社會偏見信息,可采用算法監(jiān)測的技術(shù)治理手段,確保算法的中立性。為了保證數(shù)據(jù)收集的無偏見,對此需要進(jìn)行數(shù)據(jù)清洗工作,運(yùn)用一定的算法檢測手段來避免社會交往空間中的偏見。(17)趙友華、蔡振華:《人工智能時代行政決策體制優(yōu)化的技術(shù)范式與風(fēng)險(xiǎn)因應(yīng)》,《理論月刊》2020年第2期。由此減少外部社會生活中的固有偏見對于算法中立性的影響。算法中立的實(shí)現(xiàn)主要是通過技術(shù)手段,這些數(shù)據(jù)清洗技術(shù)既可以內(nèi)嵌于人臉識別技術(shù)之中,又可以外在于人臉識別技術(shù),設(shè)立專門的數(shù)據(jù)清洗中心,對人臉識別技術(shù)進(jìn)行監(jiān)測。

第二,要在法律上構(gòu)建公正原則。造成算法歧視的另一原因是算法研發(fā)人員的個性因素。算法研發(fā)人員應(yīng)當(dāng)秉持公正原則,加強(qiáng)對算法研發(fā)人員的行業(yè)倫理規(guī)制。公正原則導(dǎo)向了兩種具體的規(guī)則要求:一方面,應(yīng)當(dāng)構(gòu)建算法研發(fā)行業(yè)準(zhǔn)入和監(jiān)管制度,進(jìn)行算法研發(fā)的人員須通過一定的倫理測試方可進(jìn)入該職業(yè),以減小算法研發(fā)人員的道德傾向?qū)τ谒惴ㄖ辛⑿缘那趾?,在進(jìn)行倫理測試時,尤其要注意算法研發(fā)人員對于少數(shù)群體的倫理態(tài)度。另一方面,應(yīng)當(dāng)構(gòu)建算法研發(fā)行業(yè)監(jiān)管制度,不斷強(qiáng)化對算法研發(fā)的審查工作,要求算法本身必須符合一定的倫理標(biāo)準(zhǔn)方可投入使用。

(三)“知情同意”原則的優(yōu)先性檢定

知情同意原則在這些法律原則中具有優(yōu)先性,是第一原則,這是知情同意原則與其他原則得以區(qū)分的關(guān)鍵。以上所述原則并非是一個松散的列舉式關(guān)系,而是具有內(nèi)在脈絡(luò)的原則體系。

第一,采用以上法律原則是基于人臉識別技術(shù)帶來危及人的主體性和自由以及社會公平正義的倫理風(fēng)險(xiǎn),這兩種倫理風(fēng)險(xiǎn)處于不同的層面。其一,隱私泄露所帶來的危害主要是針對個體的,算法歧視的危害則針對整個社會。其二,隱私泄露更不易被察覺,帶有隱蔽性,在當(dāng)事人不知情的情況下,當(dāng)事人的相關(guān)數(shù)據(jù)信息便有可能被加以非法利用。算法歧視則更為公開,也是可以經(jīng)過驗(yàn)證的。其三,隱私泄露主要是與數(shù)據(jù)主體和數(shù)據(jù)控制者有關(guān),算法歧視主要與算法處理有關(guān)。其四,隱私泄露與人臉識別技術(shù)固有缺陷無關(guān),更多地涉及數(shù)據(jù)控制者的倫理道德水平,取決于數(shù)據(jù)控制者對于數(shù)據(jù)主體的尊重,而算法歧視則是人臉識別技術(shù)的固有缺陷,甚至是一切技術(shù)的固有缺陷,其所帶來的倫理風(fēng)險(xiǎn)更多地需要公共行動來加以回應(yīng)?;谝陨喜町?,針對兩種倫理風(fēng)險(xiǎn)所構(gòu)建的法律原則也不盡相同,但其共同指向人臉識別技術(shù)不合理擴(kuò)散而引發(fā)的問題。

第二,與隱私泄露風(fēng)險(xiǎn)相比,算法歧視造成的危害是社會性的,往往涉及對于某一群體的不公正對待,不同于個體的隱私泄露問題。如果說隱私泄露不尊重個體,那么歧視除了不尊重個體之外,主要是社會的結(jié)構(gòu)性問題,屬于正義問題。正義是社會的首要美德, 借用“詞典式序列”是為了突出知情同意原則的優(yōu)先性,關(guān)于“詞典式”序列的說法(18)〔美〕約翰·羅爾斯:《正義論》,何懷宏等譯,北京:中國社會科學(xué)出版社,2009年,第26頁。具有不同于個人主體性和自由的價值指向。正義問題是復(fù)雜的,實(shí)現(xiàn)不歧視需要多方面的努力,既包括哲學(xué)上的探討,也需要制度安排。這里所闡述的針對算法歧視設(shè)立的法律原則及相關(guān)制度僅僅是更大的關(guān)于社會正義理論構(gòu)想的一部分,算法中立原則和公正原則僅僅是為了糾正算法歧視而確立的相對具體的法律原則,由之可以導(dǎo)出一系列的具體措施,但是它們也是有限的。前已述及,人臉識別技術(shù)危害社會公平正義的最終根源在于人本身,在于社會環(huán)境,而人臉識別技術(shù)擴(kuò)散又強(qiáng)化了對于社會公平正義的侵害。消除算法歧視的最終方案在于良序社會的建立。

第三,知情同意原則是規(guī)范人臉識別技術(shù)應(yīng)用的首要法律原則,與其他法律原則相比具有排他性和優(yōu)先性,知情同意原則相比于其他法律原則處于“詞典式序列”的優(yōu)先性,只有承認(rèn)知情同意原則才能承認(rèn)其他原則。知情同意原則之所以處于如此優(yōu)先的地位,是因?yàn)閿?shù)據(jù)主體是其人臉數(shù)據(jù)的唯一正當(dāng)所有者,其他主體使用該數(shù)據(jù)主體的人臉數(shù)據(jù)的唯一例外便是經(jīng)過該數(shù)據(jù)主體的同意。在主體性上,每個人都是目的王國的立法者,都應(yīng)當(dāng)?shù)玫酵鹊淖鹬?。所以,每個人都不具有相對于其他人的“多余的權(quán)利和自由”,除非部分主體自愿讓渡出自己的權(quán)利和自由。知情同意原則的優(yōu)先性體現(xiàn)在兩方面:一方面在于,知情同意原則相對于最小必要原則和不傷害原則具有優(yōu)先性;另一方面在于,知情同意原則相比于算法中立原則和公正原則也具有優(yōu)先性。所以,如果知情同意原則未發(fā)揮作用,那么算法中立原則和公正原則將是無實(shí)際意義的空原則,只有經(jīng)過數(shù)據(jù)主體的同意,人臉識別技術(shù)才能夠收集和存儲人臉數(shù)據(jù),才能談得上技術(shù)的改進(jìn)問題。否則,引導(dǎo)技術(shù)改進(jìn)的原則便無實(shí)際意義。

四、“知情同意”原則的規(guī)制模式分化及其缺憾

如何具體地構(gòu)建知情同意原則,通過法律技術(shù)將之具體化為行動規(guī)則,是需深入研究的問題,歐盟與我國采取了兩種不同的知情同意模式。

(一)歐盟的“原則—例外”制度:特別同意模式

歐盟出臺了成熟的個人資料保護(hù)法,被稱為“通用數(shù)據(jù)保護(hù)條例”(General Data Protection Regulation),該條例是圍繞知情同意原則而構(gòu)建的。(19)以下分析均基于歐盟“通用數(shù)據(jù)保護(hù)條例”的相關(guān)規(guī)定。

第一,針對同意的表示方式,通用數(shù)據(jù)保護(hù)條例規(guī)定同意必須基于當(dāng)事人自愿作出,并且是在知悉相關(guān)的情況之后作出,關(guān)于面部數(shù)據(jù)要求當(dāng)事人必須明示同意??梢姎W盟對于敏感個人信息的保護(hù)力度強(qiáng)于其他個人信息,不僅對于人臉數(shù)據(jù)的處理進(jìn)行“原則—例外”式的立法模式,還對“例外”施加了諸多限制,體現(xiàn)在同意的生效條件、特殊同意問題以及不需同意的法律允許等。

第二,同意的生效條件。首先,同意是否生效涉及證明的問題,在舉證義務(wù)的分配上,通用數(shù)據(jù)保護(hù)條例規(guī)定數(shù)據(jù)控制者負(fù)有舉證義務(wù),數(shù)據(jù)控制者應(yīng)當(dāng)證明數(shù)據(jù)主體已經(jīng)同意其處理數(shù)據(jù)主體的個人數(shù)據(jù)。其次,如果數(shù)據(jù)主體的同意與其他事項(xiàng)并列于書面文件中,通用數(shù)據(jù)保護(hù)條例規(guī)定,書面文件中涉及的其他事項(xiàng)應(yīng)當(dāng)與同意的事項(xiàng)明確區(qū)別開來,這要求數(shù)據(jù)主體的同意必須清楚而明確地表達(dá)出來。復(fù)次,數(shù)據(jù)主體的同意范圍不能超過通用數(shù)據(jù)保護(hù)條例允許的范圍,否則同意無效,這是“原則—例外”的立法模式所發(fā)揮的效果。又次,數(shù)據(jù)主體的同意不是一次性的、持續(xù)性的同意,數(shù)據(jù)主體有撤回權(quán),并且可以隨時撤回自己的同意。數(shù)據(jù)處理的合法性只有在數(shù)據(jù)主體同意的時段中存續(xù),在撤回同意前的數(shù)據(jù)處理是合法的,并且數(shù)據(jù)主體有權(quán)被告知自己擁有撤回權(quán)。最后,同意必須基于自愿,在評估同意是否基于自愿時,要考慮到相關(guān)合同的目的與同意事項(xiàng)的范圍是否符合比例,如果同意的范圍超出了履行合同的目的,則可推定當(dāng)事人的同意并非基于自愿,這體現(xiàn)了最小必要原則對于同意的限制;另外,特殊同意問題。未成年人是同意的特殊主體,如果數(shù)據(jù)控制者需要收集未成年人的個人數(shù)據(jù),必須獲得其代理人的同意或者授權(quán)。在舉證責(zé)任上,數(shù)據(jù)控制者應(yīng)當(dāng)核實(shí)未成年人的代理人是否已經(jīng)同意或授權(quán)?;隗w系解釋,未成年人的同意或授權(quán)也應(yīng)當(dāng)符合同意的生效條件。關(guān)于行使刑事定罪和罪行的個人數(shù)據(jù)是同意的特殊事項(xiàng),只有官方法律授權(quán)的情況下才能進(jìn)行,因?yàn)槿魏侮P(guān)于刑事犯罪的數(shù)據(jù)都應(yīng)當(dāng)由公權(quán)力機(jī)關(guān)保存。

第三,不需同意的法律允許。數(shù)據(jù)主體的生物識別信息原則上被禁止處理,這一例外包括兩個,一是經(jīng)過數(shù)據(jù)主體的同意,二是無需同意的法律允許,不需同意的特殊處理便屬于后者,它包括諸多情形:其一,數(shù)據(jù)處理者負(fù)有社會保障等義務(wù),在履行義務(wù)的范圍內(nèi)進(jìn)行數(shù)據(jù)處理,這一處理符合最小必要原則;其二,為了保護(hù)數(shù)據(jù)主體的更大利益而無法取得該數(shù)據(jù)主體的同意;其三,以政治、哲學(xué)、工會為目的的協(xié)會等非營利組織在合法以及具有適當(dāng)?shù)陌踩U系那闆r下進(jìn)行數(shù)據(jù)處理,所處理的數(shù)據(jù)僅僅涉及該組織內(nèi)部人員,相關(guān)數(shù)據(jù)不對外披露;其四,處理數(shù)據(jù)主體已經(jīng)公開的個人數(shù)據(jù);其五,法院在行使司法職能時使用個人數(shù)據(jù),該個人數(shù)據(jù)是為了達(dá)到司法目的所必須的;其六,為了醫(yī)學(xué)和公共健康和其他公共利益、科學(xué)研究和歷史研究、統(tǒng)計(jì)目的而進(jìn)行數(shù)據(jù)處理,并且符合相關(guān)法律規(guī)定。數(shù)據(jù)通用保護(hù)條例并沒有設(shè)置兜底性條款,也就是說,除了數(shù)據(jù)主體的同意和上述法律允許的范圍,其他情況下的人臉數(shù)據(jù)處理都是非法的。

“原則—例外”的立法模式以及例外中的“法律允許”均體現(xiàn)了法律優(yōu)先,并沒有將一切事項(xiàng)均交給個人同意,這似乎違背了知情同意原則的主導(dǎo)地位。其實(shí)不然,知情同意原則一定程度上是當(dāng)事人意思自治的表現(xiàn),(20)賀栩栩:《比較法上的個人數(shù)據(jù)信息自決權(quán)》,《比較法研究》2013年第2期。但是在法律領(lǐng)域,法律優(yōu)先也有其正當(dāng)性,法律優(yōu)先表明了意思自治的倫理風(fēng)險(xiǎn),是基于意思自治的風(fēng)險(xiǎn)而設(shè)置的,如果將意思自治放在最重要的地位上,可能產(chǎn)生兩個極端。一方面,數(shù)據(jù)主體或許基于個體認(rèn)知和特定目的而無法作出最佳決定,最終可能“自由得一無所有”,例如為了獲得報(bào)酬而隨意出賣自身的敏感個人信息,而沒有意識到個人數(shù)據(jù)的重要性。另一方面,數(shù)據(jù)主體有可能無法意識到公共利益的重要性,過分看重個人數(shù)據(jù),這可能阻礙社會進(jìn)步和公共利益的實(shí)現(xiàn)。歐盟的“原則—例外”立法模式是知情同意理論中特別同意理論的體現(xiàn),在介紹我國的寬松同意模式之后,后文會對二者進(jìn)行比較分析。

(二)我國的“隱私權(quán)+個人信息”制度:寬松同意模式

我國法律對于個人數(shù)據(jù)也進(jìn)行了保護(hù),在一定程度上借鑒了歐盟的做法。我國采取了“隱私權(quán)+個人信息”雙重保護(hù)模式:第一,我國對個人數(shù)據(jù)采取了“隱私權(quán)”的保護(hù)方式,自然人享有隱私權(quán)。任何組織或者個人不得以刺探、侵?jǐn)_、泄露、公開等方式侵害他人的隱私權(quán)。第二,我國對個人數(shù)據(jù)也采取了“個人信息”的保護(hù)模式,自然人的個人信息受法律保護(hù)。個人信息是以電子或者其他方式記錄的能夠單獨(dú)或者與其他信息結(jié)合識別特定自然人的各種信息。生物識別信息屬于個人信息,受到法律保護(hù)。第三,在“隱私權(quán)”和“個人信息”的適用上,如果是個人信息中的私密信息,則適用有關(guān)隱私權(quán)的規(guī)定;如果隱私權(quán)部分沒有規(guī)定的,適用有關(guān)個人信息保護(hù)的規(guī)定。

在對個人信息處理上,我國也采用了知情同意原則,這體現(xiàn)在:第一,處理個人信息應(yīng)當(dāng)遵循合法、正當(dāng)、必要原則,不得過度處理。第二,處理個人信息要符合的必要條件是征得該自然人或者其監(jiān)護(hù)人同意,并且需要公開處理信息的規(guī)則和明示處理信息的目的、方式和范圍。個人信息的處理包括個人信息的收集、存儲、使用、加工、傳輸、提供、公開等。第三,除了個人知情同意可以正當(dāng)化個人信息處理之外,法律和行政法規(guī)的規(guī)定也可以成為處理個人信息的理由。處理已經(jīng)公開的個人信息以及為了維護(hù)公共利益和數(shù)據(jù)主體的合法權(quán)益而實(shí)施的數(shù)據(jù)處理行為無需經(jīng)過數(shù)據(jù)主體的同意。第四,針對個人同意的要求,個人應(yīng)當(dāng)在充分知情的情況下同意,個人信息發(fā)生變更也需要告知個人并重新征得個人的同意,個人有權(quán)撤回同意,但是撤回同意前的數(shù)據(jù)處理仍然正當(dāng)。針對未成年人的同意需要其監(jiān)護(hù)人代理。

由上可見,我國對于個人信息的處理原則也是知情同意原則,看起來似乎也采取了“原則—例外”模式,其實(shí)不然,歐盟的“原則”乃是原則上禁止對人臉數(shù)據(jù)的處理,例外是“法律允許”和“知情同意”,我國則并沒有確立“原則上禁止對人臉數(shù)據(jù)進(jìn)行處理”,而是要求數(shù)據(jù)處理不僅要遵循一系列要求,同時確立了合法處理人臉數(shù)據(jù)的“例外”,即“知情同意”和用兜底條款表達(dá)的法律允許。我國并未采取歐盟“原則—例外”的保護(hù)模式,這樣的做法留下了空白:一方面,當(dāng)事人可能隨意授權(quán),而無法維護(hù)自己的實(shí)質(zhì)利益,由于沒有采取原則上禁止收集敏感個人信息的這一原則,當(dāng)事人便可以在很多情況下允許數(shù)據(jù)處理,即便這些情況有可能侵害數(shù)據(jù)主體的權(quán)利。另一方面,這種保護(hù)模式采取了兜底性規(guī)定,雖然《個人信息保護(hù)法》列舉了其他不需要數(shù)據(jù)主體同意的法律允許的情況,但是也最終采取兜底性規(guī)定,也就是說,為了公共利益而實(shí)施的其他行為以及法律行政法規(guī)規(guī)定的其他情形可以突破數(shù)據(jù)主體的同意而進(jìn)行數(shù)據(jù)處理,這有可能導(dǎo)致私權(quán)利被大大壓縮。

(三)現(xiàn)有“知情同意”模式的制度缺憾

歐盟和我國都在立法上貫徹了知情同意原則,歐盟模式可以被稱作“原則—例外”模式,其把數(shù)據(jù)主體的同意置于崇高的地位,從而數(shù)據(jù)控制者進(jìn)行數(shù)據(jù)處理則困難重重。歐盟模式貫徹的是知情同意原則中的特別同意理論,這是知情同意原則的經(jīng)典模型,即必須為了維護(hù)個人自決而明確同意的對象。特別同意理論認(rèn)為數(shù)據(jù)主體的同意應(yīng)當(dāng)是具體的有針對性的,數(shù)據(jù)主體的同意應(yīng)當(dāng)單獨(dú)而明確。與之相對的是數(shù)據(jù)控制者的告知應(yīng)當(dāng)是全面而詳細(xì)的,不能有所模糊。特別同意理論也強(qiáng)調(diào)同意的邊界范圍,如果數(shù)據(jù)控制者的數(shù)據(jù)處理超出同意的邊界,則不再合法,需要重新征求數(shù)據(jù)主體的同意并履行全面詳細(xì)的告知義務(wù),如果數(shù)據(jù)控制者更新了數(shù)據(jù)處理事項(xiàng),則也需要重新獲得數(shù)據(jù)主體的同意。需要指出的是,“原則—例外”模式所體現(xiàn)的特別同意理論過分強(qiáng)調(diào)了數(shù)據(jù)主體的權(quán)利和自由,也具有一定的弊端。

歐盟的“原則—例外”模式在充分尊重?cái)?shù)據(jù)主體的主體性和自由的同時,可能會產(chǎn)生兩種實(shí)踐效果:一是數(shù)據(jù)主體的主體性和自由確實(shí)得到了實(shí)際上的保護(hù),但是數(shù)據(jù)控制者由于巨大的成本和法律負(fù)擔(dān)而不再具有經(jīng)濟(jì)上的激勵,從而不再具有發(fā)展技術(shù)的積極性;二是數(shù)據(jù)控制者為了維護(hù)人臉識別技術(shù)應(yīng)用的商業(yè)價值而繼續(xù)大肆擴(kuò)散人臉識別技術(shù),從而無視法律規(guī)則,而由于數(shù)據(jù)主體和數(shù)據(jù)控制者的分離,數(shù)據(jù)主體往往無法掌握人臉數(shù)據(jù)的具體使用,數(shù)據(jù)主體的主體性和自由便常常處于被侵犯的狀態(tài)。這種困境是兩方價值的沖突造成的:一方面,為了避免人臉識別技術(shù)擴(kuò)散帶來的倫理風(fēng)險(xiǎn),我們需要堅(jiān)決維護(hù)知情同意這一原則,保護(hù)數(shù)據(jù)主體的權(quán)利和自由;另一方面,又不能忽視人臉識別技術(shù)的正當(dāng)使用,促進(jìn)人臉識別技術(shù)的發(fā)展和相關(guān)人臉數(shù)據(jù)的合理使用,從而發(fā)揮技術(shù)本身造福于人類的初衷。

相比之下,我國模式可以被稱作“隱私權(quán)+個人信息”雙重保護(hù)模式。雖然是雙重保護(hù),相比于歐盟的法律規(guī)定,我國關(guān)于知情同意原則的法律規(guī)則卻并不是很多。雖然確認(rèn)了數(shù)據(jù)主體的撤回權(quán)等,但同意的生效條件和數(shù)據(jù)控制者的舉證義務(wù)和論證負(fù)擔(dān)等付之闕如。不采取“原則—例外”模式意味著我國模式?jīng)]有過分強(qiáng)調(diào)數(shù)據(jù)主體的權(quán)利,以避免過分保護(hù)的弊端,但又給予數(shù)據(jù)主體以“隱私權(quán)+個人信息”雙重保護(hù),同時再以不對數(shù)據(jù)控制者施加過多具體義務(wù)而與這種雙重保護(hù)模式對沖。我國模式并未過分強(qiáng)調(diào)數(shù)據(jù)主體同意的具體性,降低了數(shù)據(jù)控制者的告知標(biāo)準(zhǔn),其所體現(xiàn)的不是特別同意模式。同時,我國采取的也不是極端的概括同意模式,概括同意模式認(rèn)為,數(shù)據(jù)主體同意人臉數(shù)據(jù)處理時做出的同意是寬泛而概括的,這種同意模式典型地體現(xiàn)在我國的《涉及人的生物醫(yī)學(xué)研究倫理審查辦法》中,即允許參加者自愿簽署同意未來所有研究的概括同意書。所以,我國采取的是一種寬松同意模式,如果按照對于個人權(quán)利和自由的保護(hù)強(qiáng)度繪制光譜,寬松同意模式應(yīng)當(dāng)位于特別同意模式與概括同意模式之間但更靠近概括同意模式之處,它雖然克服了特別同意模式的弊端,但也帶有了概括同意模式的弊端,即弱化了對數(shù)據(jù)主體的個體性和自由的保護(hù)強(qiáng)度,降低了數(shù)據(jù)控制者的告知標(biāo)準(zhǔn)。

五、何以補(bǔ)缺:“動態(tài)同意”模式的理論建構(gòu)與現(xiàn)實(shí)可能

歐盟和我國的兩種模式的缺陷,其實(shí)也是特別同意模式和概括同意模式的困境,為了克服這種非此即彼的困境,需要構(gòu)建一種平衡個人權(quán)利與技術(shù)應(yīng)用需要的“動態(tài)同意模式”。(21)還有學(xué)者提出了附條款同意模式和分層與分階段同意模式。附條款同意認(rèn)為同意應(yīng)當(dāng)附加排除條款。分層與分階段同意認(rèn)為應(yīng)當(dāng)將相關(guān)信息進(jìn)行分類和分層,讓數(shù)據(jù)主體分層與分階段同意。這些同意模式也處于本文所繪制的同意模式的光譜上,不再具體介紹。參見田野:《大數(shù)據(jù)時代知情同意原則的困境與出路——以生物資料庫的個人保護(hù)信息為例》,《法制與社會發(fā)展》2018年第6期;石佳友、劉思齊:《人臉識別技術(shù)中的個人信息保護(hù)——兼論動態(tài)同意模式的建構(gòu)》,《財(cái)經(jīng)法學(xué)》2021年第2期;陳曉云等:《“動態(tài)+泛知情同意”在醫(yī)療機(jī)構(gòu)實(shí)施初探》,《中國醫(yī)學(xué)倫理學(xué)》2018年第4期;單芳、毛新志:《生物樣本庫研究中知情同意問題的倫理挑戰(zhàn)和應(yīng)對》,《自然辯證法通訊》2019年第3期。理由在于:第一,要在大數(shù)據(jù)時代這一背景下看待人臉識別技術(shù)的應(yīng)用,大數(shù)據(jù)時代,人臉識別技術(shù)應(yīng)用獲得同意的難度和成本上升。大數(shù)據(jù)處理使得數(shù)據(jù)處理的更新更加頻繁,如果每次更新都需要同意,那么同意征集的頻次便大大增加,因?yàn)橥庵辉谔囟ǚ秶鷥?nèi)生效。每次同意都意味著時間成本和金錢成本。所以,數(shù)據(jù)控制者為了節(jié)省時間成本和金錢成本會反向選擇不經(jīng)過當(dāng)事人同意而徑直處理數(shù)據(jù),這使得同意的作用虛化了。第二,個人自決能力問題。并且個人缺乏同意能力,有時無法理解個人信息給自己帶來的風(fēng)險(xiǎn)和收益是否成正比。同時,大數(shù)據(jù)時代下的人臉識別技術(shù)更應(yīng)當(dāng)實(shí)現(xiàn)對數(shù)據(jù)權(quán)利的保護(hù),因?yàn)橄啾扔谄渌麜r期,大數(shù)據(jù)的使用結(jié)合人臉識別技術(shù)的擴(kuò)散更容易侵害個人的隱私數(shù)據(jù)。換言之,動態(tài)同意模式需要兼顧數(shù)據(jù)主體的權(quán)利和自由與數(shù)據(jù)控制者對人臉數(shù)據(jù)的合理使用和人臉識別技術(shù)的正當(dāng)應(yīng)用。動態(tài)同意模式主張利用現(xiàn)代網(wǎng)絡(luò)信息技術(shù)搭建一個交流平臺,使得信息處理和知情同意成為一個持續(xù)、動態(tài)、開放的過程,數(shù)據(jù)主體可以隨時了解最新信息,自由選擇加入或退出。(22)田野:《大數(shù)據(jù)時代知情同意原則的困境與出路——以生物資料庫的個人保護(hù)信息為例》。這是在特別同意與概括同意之間的第三條道路。

在動態(tài)同意模式下,數(shù)據(jù)主體可以基于自己的個性化選擇去同意或不同意,它的優(yōu)點(diǎn)有很多。(23)石佳友、劉思齊:《人臉識別技術(shù)中的個人信息保護(hù)——兼論動態(tài)同意模式的建構(gòu)》。第一,使得數(shù)據(jù)主體成為中心,授權(quán)有效性大大增加,能夠充分實(shí)現(xiàn)意思自治。個人能夠?qū)θ四樞畔⑦M(jìn)行管理,更為知情,而現(xiàn)行的人臉識別協(xié)議中均需要數(shù)據(jù)主體閱讀重點(diǎn)信息,動態(tài)同意模式更好地保護(hù)了數(shù)據(jù)主體的知情權(quán)。第二,動態(tài)同意模式要求充分的數(shù)據(jù)信息披露,人臉識別技術(shù)的快速發(fā)展必然導(dǎo)致信息處理的透明性成為關(guān)注的焦點(diǎn),要求數(shù)據(jù)控制者實(shí)時有效地向個人表明人臉數(shù)據(jù)如何采集、如何處理以及如何進(jìn)行安全保障,等等。第三,動態(tài)同意模式充分保障數(shù)據(jù)主體的撤回權(quán),不同于傳統(tǒng)的一次性、持續(xù)性同意模式,數(shù)據(jù)主體可以隨時撤回自己的同意,隨時產(chǎn)生新的同意,數(shù)據(jù)主體自由決定同意與否,充分尊重了數(shù)據(jù)主體的自主性。第四,動態(tài)同意模式具有現(xiàn)實(shí)性,利用大數(shù)據(jù)、互聯(lián)網(wǎng)5G技術(shù)搭建動態(tài)同意平臺并非技術(shù)難題,通過該平臺,數(shù)據(jù)控制者能夠獲得有效的同意,數(shù)據(jù)主體能夠及時知悉相關(guān)信息。由上可見,動態(tài)同意模式避免了非此即彼的同意困境,而是將數(shù)據(jù)主體和數(shù)據(jù)控制者置于一個動態(tài)、開放和合作的信息交流過程之中,將數(shù)據(jù)主體和數(shù)據(jù)控制者視作合作者,數(shù)據(jù)主體能夠隨時獲取信息,自由選擇加入或者退出,既降低了同意的成本和難度,維護(hù)了人臉識別技術(shù)應(yīng)用的商業(yè)價值,又保護(hù)了數(shù)據(jù)主體的權(quán)利和自由,避免了人臉識別技術(shù)擴(kuò)散的倫理風(fēng)險(xiǎn)。當(dāng)然,動態(tài)同意模式也有其局限性,它雖然賦予了數(shù)據(jù)主體更大的自主性,主體能夠隨時加入或退出,但是頻繁地加入或退出也會影響數(shù)據(jù)處理效率,從而再次造成資源的浪費(fèi)。另外,數(shù)據(jù)主體能否從動態(tài)同意平臺中真正知悉所需信息,也有待實(shí)證研究。

對于構(gòu)建動態(tài)同意模式如何從理論走向現(xiàn)實(shí)的問題,需要注意以下幾點(diǎn):第一,動態(tài)同意模式中的信息交流不是無序的,而是受規(guī)則指引的,需要依據(jù)信息本身的重要程度進(jìn)行分層,一般認(rèn)為,個人信息可以分為一般個人信息和敏感個人信息,人臉數(shù)據(jù)屬于敏感個人信息,人臉數(shù)據(jù)本身又可以細(xì)化出更多的信息,這涉及人臉識別技術(shù)如何識別人臉的技術(shù)過程,因?yàn)槿四樧罱K是以數(shù)字化的方式存儲于人臉數(shù)據(jù)庫中,人臉識別技術(shù)將人的面部信息進(jìn)行分類分析,這些信息有的屬于確定人體生物特征的不可或缺的信息,有的則屬于其他信息,動態(tài)同意模式要求將信息進(jìn)行分門別類,以便數(shù)據(jù)主體能夠知悉并選擇同意使用哪些信息。第二,在動態(tài)同意模式下,人臉數(shù)據(jù)處理的場景和風(fēng)險(xiǎn)必須被告知,不同的應(yīng)用場景,人臉識別技術(shù)所造成的風(fēng)險(xiǎn)具有程度差異,人臉數(shù)據(jù)信息利用場景也可能發(fā)生轉(zhuǎn)換,因此要建立評估人臉數(shù)據(jù)信息利用的風(fēng)險(xiǎn),風(fēng)險(xiǎn)評估要實(shí)現(xiàn)告知數(shù)據(jù)主體,以供數(shù)據(jù)主體決定同意的參考。第三,動態(tài)同意模式需要提供差異化同意方案,數(shù)據(jù)主體的偏好可能是不一致的,有的數(shù)據(jù)主體會允許使用更多的人臉數(shù)據(jù),有的主體則排斥過多人臉數(shù)據(jù)的使用,數(shù)據(jù)主體同意偏好具有多樣性。(24)Zubin Master et al.,Biobanks,Consent and Claims of Consensus,Nature Methods,Vol.9,No.9 ,2012,pp.885-888.數(shù)據(jù)控制者應(yīng)當(dāng)提供多元化的同意方案,允許具有不同同意偏好的人參與,只要在法律法規(guī)允許的范圍內(nèi),同意方案在理論上是可以無限的。第四,信息披露機(jī)制要具有持續(xù)性,特別同意模式和概括同意模式下的信息披露是一次性的,數(shù)據(jù)主體的權(quán)利行使也是一次性的,動態(tài)同意模式要求數(shù)據(jù)控制者持續(xù)披露人臉數(shù)據(jù)的使用,對其使用目的、使用方法進(jìn)行持續(xù)的公開。第五,一定程度上允許寬泛同意,這一點(diǎn)是與信息披露的持續(xù)性相一致的,因?yàn)榧幢銛?shù)據(jù)控制者能夠做到及時更新人臉數(shù)據(jù)的使用方法和使用目的,等等,數(shù)據(jù)主體卻不一定無時無刻需要處于同意的“待命”狀態(tài),數(shù)據(jù)控制者可以提供寬泛同意的選項(xiàng)以供數(shù)據(jù)主體選擇來模糊化同意的具體性,從而獲得使用人臉數(shù)據(jù)的一定自由空間,但也需要指出,對于寬泛同意需要匹配嚴(yán)格的監(jiān)督措施。當(dāng)然這些具體措施的建議僅僅是有利于動態(tài)同意模式從理論步入現(xiàn)實(shí),人們當(dāng)然也可以提出更多的措施,在這個意義上,實(shí)踐操作并沒有唯一正確答案,而具體的實(shí)踐操作也可能創(chuàng)新出其他措施。

數(shù)字化社會和大數(shù)據(jù)時代中如何應(yīng)對技術(shù)發(fā)展所帶來的一系列問題已經(jīng)成為焦點(diǎn)問題,數(shù)字化帶給我們的不僅有便利,還有風(fēng)險(xiǎn)。正如其他技術(shù)一般,人臉識別技術(shù)最初是為了保衛(wèi)社會而誕生的,它給人們帶來了一系列的便利,但其快速擴(kuò)散也引發(fā)了一系列倫理風(fēng)險(xiǎn),為此需要確立相應(yīng)的防范措施。本文所提供的動態(tài)同意模式只是應(yīng)對人臉識別技術(shù)擴(kuò)散的一種制度建議,在未來,全面規(guī)制人臉識別技術(shù)的不合理擴(kuò)散,回歸目的理性,不僅需要學(xué)界提供合理的制度建議,還需要與實(shí)務(wù)部門和技術(shù)部門一同前行。

猜你喜歡
控制者知情人臉識別
人臉識別 等
從“控制者”變身“隱形人”
好家長(2020年3期)2020-06-05 02:57:20
揭開人臉識別的神秘面紗
論人工智能的刑事責(zé)任能力與追究
淺談中小學(xué)財(cái)務(wù)人員角色轉(zhuǎn)換的緊迫性
數(shù)據(jù)控制者的權(quán)利與限制
知情圖報(bào)
小演奏家(2016年5期)2016-05-14 15:11:12
淺析知情同意在藥物臨床試驗(yàn)中的實(shí)施
靜??h人大常委會組織知情觀察
天津人大(2015年9期)2015-11-24 03:26:13
基于類獨(dú)立核稀疏表示的魯棒人臉識別
台东县| 栾川县| 隆子县| 皋兰县| 丰城市| 资讯 | 措美县| 湘潭县| 元阳县| 洪洞县| 铁岭市| 醴陵市| 六盘水市| 正镶白旗| 手机| 安国市| 五峰| 宜兰市| 疏附县| 都江堰市| 比如县| 贵港市| 炎陵县| 乌兰浩特市| 利津县| 沙雅县| 济宁市| 城市| 林州市| 科尔| 化州市| 遵化市| 穆棱市| 常山县| 定南县| 威远县| 合作市| 剑川县| 遂川县| 根河市| 自贡市|