国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

大數(shù)據(jù)與人工智能時代的個人信息立法
——論新科技對信息隱私的挑戰(zhàn)

2020-12-13 02:00丁曉東
關鍵詞:個人信息聯(lián)網(wǎng)人工智能

丁曉東

(中國人民大學 法學院,北京 100872)

近年來,科技發(fā)展日新月異,對人們的生活產生了越來越大的影響。企業(yè)對于大數(shù)據(jù)的應用越來越多,人工智能技術在新聞、醫(yī)療、自動駕駛等領域廣泛應用,物聯(lián)網(wǎng)所暢想的萬物互聯(lián)的圖景逐漸在普通百姓的生活中實現(xiàn),而云技術也已經(jīng)日趨成熟,為用戶在云端存儲數(shù)據(jù)與實現(xiàn)數(shù)據(jù)計算提供了許多便利。

對于個人信息保護立法而言,新科技的發(fā)展帶來了新的變化與挑戰(zhàn)。在大數(shù)據(jù)、人工智能、物聯(lián)網(wǎng)、云計算等新技術背景下,企業(yè)與其他實體對于個人信息的收集與處理展現(xiàn)了不同于傳統(tǒng)的若干特征。例如,企業(yè)對于個人信息的收集變得更為隱蔽,對個人信息的處理變得更不透明,而個人信息的流動也變得更為動態(tài)。面對這些新變化,傳統(tǒng)的個人信息法律保護框架面臨新的挑戰(zhàn)與考驗。

文章將以新科技革命為背景,分析大數(shù)據(jù)、人工智能、物聯(lián)網(wǎng)、云技術等新科技對個人信息保護立法帶來的挑戰(zhàn),以及探討如何回應這些挑戰(zhàn)。

一、個人信息立法的傳統(tǒng)框架

全球的個人信息立法存在一定差異,如歐盟地區(qū)形成了以個人信息權利與統(tǒng)一規(guī)制為主導的保護模式,美國形成了以市場自我規(guī)制為主導的保護模式。但無論是歐盟、美國還是中國,個人信息法律保護法的基本框架都有類似之處,都采取了對信息主體進行賦權與對信息控制者與處理者施加責任的進路。

以歐盟2018年生效的《一般數(shù)據(jù)保護條例》為例,這一法律規(guī)定,在處理個人信息時,應當遵循以下六項原則:

1) 合法性、合理性和透明性:對涉及到數(shù)據(jù)主體的個人信息,應當以合法的、合理的和透明的方式進行處理。

2) 目的限制:個人信息的收集應當具有具體的、清晰的和正當?shù)哪康?,對個人信息的處理不應當違反初始目的①。

3) 數(shù)據(jù)最小化:個人信息的處理應當是為了實現(xiàn)數(shù)據(jù)處理目的而適當?shù)?、相關的和必要的。

4) 準確性:個人信息應當是準確的,如有必要,必須及時更新;必須采取合理措施確保不準確的個人信息,即違反初始目的的個人信息,及時得到擦除或更正。

5) 限期儲存:對于能夠識別數(shù)據(jù)主體的個人信息,其儲存時間不得超過實現(xiàn)其處理目的所必需的時間②。

6) 數(shù)據(jù)的完整性與保密性:處理過程中應確保個人信息的安全,采取合理的技術手段、組織措施,避免數(shù)據(jù)未經(jīng)授權即被處理或遭到非法處理,避免數(shù)據(jù)發(fā)生意外毀損或滅失。

美國的個人信息立法采取了類似的框架。美國聯(lián)邦貿易委員會(Federal Trade Commission,FTC)在其2000年報告中指出,當網(wǎng)站商業(yè)機構收集與處理個人信息時,應當遵守四項基本原則[1]:

1) 通知:網(wǎng)站需要向消費者提供關于其信息實踐的清晰和明顯的通知,包括收集什么信息、如何收集信息(直接或通過非顯而易見的方式,如Cookie)、如何使用信息、如何向消費者提供選擇、可訪問性與安全,是否向其他實體披露收集的信息,以及其他實體是否正在通過網(wǎng)站收集信息。

2) 選擇:網(wǎng)站除了在消費者提供信息以完成服務時(如完成一項交易)給出選擇之外,還需要向消費者提供關于如何使用他們的個人識別信息的選擇。這種選擇將包括內部二次使用(如向消費者再次進行營銷)和外部二次使用(如向其他實體公開數(shù)據(jù))。

3) 可訪問性:網(wǎng)站應向消費者提供對網(wǎng)站收集的關于他們的信息的合理訪問,包括審查信息和糾正不準確或刪除信息的合理機會。

4) 安全:網(wǎng)站需要采取合理步驟來保護所收集信息的安全性③。

根據(jù)《網(wǎng)絡安全法》等法律、法規(guī)、標準及專家學者的意見,中國的個人信息法律保護也采取了類似歐盟與美國的框架[2]。如《網(wǎng)絡安全法》第41條第1款確立了“告知—選擇框架”④、第42條第2款確立了“目的限定原則”⑤、第43條確立了刪除權與更正權⑥、第72條確立了數(shù)據(jù)控制者的安全保障義務⑦。中國的《個人信息保護法》正在緊鑼密鼓地制定,其草案也采取了類似的框架。

綜合美國、歐洲、中國的個人信息保護立法框架,可以發(fā)現(xiàn)它們采取了類似的框架,都建立在公平信息實踐(Fair Information Practices,FIPs)的基礎之上。這一基本框架對個人信息的收集、使用與儲存作出了一些基本性的規(guī)定。一方面,個人對于其信息被收集和處理擁有知情權、選擇權、訪問權、更正權、刪除權、攜帶權[3-4];另一方面,信息的控制者與處理者負有一系列義務,如不得收集超出收集目的之外的信息、信息的處理不得超出信息主體的授權,以及必須保證信息安全與信息使用的可解釋性。這些權利與義務,構成了當前全球通行的個人信息保護框架。

二、大數(shù)據(jù)與個人信息法律保護

所謂大數(shù)據(jù),指的是“具有成本效益、具有創(chuàng)新性處理形式、用以增強洞察和決策的高容量(High-volume),快周轉(High-velocity)、多種類(High-variety)信息集合”⑧。相比起傳統(tǒng)實證研究與定量研究中的數(shù)據(jù),大數(shù)據(jù)在數(shù)據(jù)體量上要大得多,其數(shù)據(jù)周轉更新速度要快得多,在數(shù)據(jù)種類方面也要多得多。

對于大數(shù)據(jù)的特征,大數(shù)據(jù)的權威專家維克托·邁爾-舍恩伯格曾經(jīng)將其歸納為三個特征:更多、更雜、更好。所謂更多,指的是大數(shù)據(jù)所依賴的數(shù)據(jù)不是隨機樣本數(shù)據(jù),而是全體數(shù)據(jù)。所謂更雜,指的是大數(shù)據(jù)強調數(shù)據(jù)的混雜性,允許數(shù)據(jù)的不精確,因為大數(shù)據(jù)的簡單算法常常比小數(shù)據(jù)的復雜算法更有效。而所謂更好,指的是大數(shù)據(jù)所要發(fā)現(xiàn)的是數(shù)據(jù)的相關關系,而非因果關系,通過大數(shù)據(jù)所發(fā)現(xiàn)的規(guī)律可能很難從因果關系上加以解釋,但卻可能是行之有效的[5]27-94。

(一)挑戰(zhàn)

1.受保護的信息范圍將急劇增加

就當前全球個人信息保護法而言,個人信息的范圍常常被界定為“已識別”或“可識別”的個人信息。例如,中國《網(wǎng)絡安全法》將個人信息定義為“以電子或者其他方式記錄的能夠單獨或者與其他信息結合識別自然人個人身份的各種信息,包括但不限于自然人的姓名、出生日期、身份證件號碼、個人生物識別信息、住址、電話號碼等”⑨。初看上去,這一對個人信息范圍的界定可能相對確定,與大數(shù)據(jù)并無關系。但實際情況是,大數(shù)據(jù)越發(fā)展,信息分析者就越可能通過某些信息而識別個人,某些之前無法單獨識別個人身份的信息,在大數(shù)據(jù)時代都可能用于識別個人[6]。

典型的例子是搜索記錄。2006年,美國在線(AOL)網(wǎng)站曾經(jīng)公布了2 000萬條經(jīng)過匿名化處理的用戶搜索查詢記錄,但研究人員通過把同一個人的所有搜索記錄聯(lián)系在一起分析后,很容易就找出了其中某個個體的姓名與身份。《紐約時報》甚至對此進行了實驗,通過搜索記錄的綜合分析,《紐約時報》發(fā)現(xiàn)數(shù)據(jù)庫中的4417749號就是佐治亞州利爾本地區(qū)一名62歲的寡婦塞爾瑪·阿諾德(Thelma Arnold),并且上門對其進行了專訪[7]。這一例子表明,在大數(shù)據(jù)時代,個人信息法律保護的范圍可能會急劇擴張,因為信息越多,就越可能通過相關信息而識別個人。

2.對個人信息的收集與利用提出了挑戰(zhàn)

對于個人信息的收集,個人信息法律保護法普遍依賴于“通知—選擇”(Notice-Choice)框架,即將隱私政策或個人信息法律保護政策告知個人,然后由個人決定是否允許個人信息被收集。同時,對個人信息的收集應當遵循“目的限制”原則,即要求企業(yè)或相關主體對個人信息的收集應當有“具體的、清晰的和正當?shù)哪康摹?,對個人信息的處理不應當違反初始目的①。此外,對個人信息的處理應當遵循“數(shù)據(jù)最小化”原則,即對個人信息的處理應當是為了實現(xiàn)信息處理目的而適當?shù)?、相關的和必要的。

但大數(shù)據(jù)的特征與這些要求存在一定的沖突。如前文所說,大數(shù)據(jù)強調數(shù)據(jù)的體量、混雜與相關性,對于大數(shù)據(jù)而言,其要求收集的數(shù)據(jù)體量較大,其對數(shù)據(jù)使用的價值恰巧來自于數(shù)據(jù)的二次使用,而且這種二次使用在收集之前常常難以預料。例如,谷歌對于個人搜索記錄的收集,一開始谷歌并未預料到這些數(shù)據(jù)可以被用來預測流感,只是在大數(shù)據(jù)產業(yè)高速發(fā)展之后,谷歌才開始挖掘出這些數(shù)據(jù)的流感預測功能。在這種背景下,如果完全依賴“通知—選擇”或“目的限制”原則與“數(shù)據(jù)最小化”原則,那么,企業(yè)的大數(shù)據(jù)收集與處理將面臨很多不現(xiàn)實的障礙,企業(yè)對于數(shù)據(jù)的收集與利用將陷入極高的成本。

(二)應對

首先,為了應對大數(shù)據(jù)的挑戰(zhàn),個人信息法律保護應當對個人信息的概念或范圍進行重新理解。如前文所說,如果“可識別”的個人信息范圍不斷擴大,那么,個人信息法律保護就不宜同等對待“已識別”和“可識別”的信息。相反,應當區(qū)別對待可直接識別的個人的信息與結合其他信息可以識別個人的信息。對于前者,可以對信息的控制者與處理者施加更為嚴格的責任;而對于后者,則應當根據(jù)此類信息的風險而施加不同的責任。例如,對于各類搜索記錄信息或用戶的消費行為信息,如果此類信息做了假名化或去標示化的處理,那么此類信息應當受到較輕的法律規(guī)制。對于此類信息,法律應當適當放寬企業(yè)對收集環(huán)節(jié)的規(guī)制,確保對此類信息的使用不會給個人帶來風險[8]。

其次,個人信息法律保護不應過度依賴“通知—選擇”框架,或者機械化地適用“目的限制”原則與“數(shù)據(jù)最小化”原則。無論是“通知—選擇”框架,還是“目的限制”原則與“數(shù)據(jù)最小化”原則,都是比較形式主義的信息保護方式,它要求企業(yè)預知需要收集的信息與信息被處理的方式,并要求個人在某個時間節(jié)點對其做出理性選擇[9]。但是,既然大數(shù)據(jù)時代信息的特征已經(jīng)發(fā)生了變化,那么,再以此種方式對個人信息進行保護,就會妨礙大數(shù)據(jù)發(fā)揮自身的價值,大數(shù)據(jù)就無法給消費者或公民提供更好的服務。

作為“通知—選擇”框架、“目的限制”原則與“數(shù)據(jù)最小化”原則的替代,個人信息法律保護應當強化信息控制者與處理者的信息治理責任,即要求信息控制者與處理者對信息使用進行倫理化與全流程的監(jiān)管,以此保證大數(shù)據(jù)得到合理利用的同時保護個人信息。一個可行的方案是采取維克托·邁爾-舍恩伯格所提出的“大數(shù)據(jù)算法師”的方案。在監(jiān)管機構內,可以設立“外部算法師”,對大數(shù)據(jù)行業(yè)進行行業(yè)監(jiān)管;在企業(yè)內,可以設立“內部算法師”,對企業(yè)內部的大數(shù)據(jù)進行全程監(jiān)管[5]228-230。當然,無論是設立“算法師”的構想,還是延續(xù)當前“數(shù)據(jù)保護局”與“隱私保護官”的名稱,未來的個人信息法律保護都應當更少依賴形式主義的用戶同意,更多要求信息收集者與使用者承擔信息與數(shù)據(jù)治理的責任。

三、人工智能與個人信息法律保護

對于人工智能,有的計算機科學家將其定義為:“任何感知環(huán)境并采取最大化成功實現(xiàn)目標機會的行動的設備?!盵10]還有的學者將人工智能定義為:“一個能夠正確地解釋外部數(shù)據(jù),從這些數(shù)據(jù)中學習,并利用此類學習,通過靈活的適應來實現(xiàn)特定目標和任務的系統(tǒng)。”[11]歸納起來,可以將人工智能定義為,能夠以人類智能相似方式作出反應的智能機器。

從人工智能的定義中可以發(fā)現(xiàn)人工智能和大數(shù)據(jù)的密切聯(lián)系。的確,近年來人工智能的高速發(fā)展與大數(shù)據(jù)密不可分,正是大數(shù)據(jù)為人工智能提供了機器學習的養(yǎng)料。沒有大數(shù)據(jù)的高速發(fā)展,人工智能就不可能在近年來取得如此巨大的進步。但相比起大數(shù)據(jù),人工智能仍然有很多獨特的問題,對個人信息法律保護提出了新挑戰(zhàn)。

(一)挑戰(zhàn)

人工智能對于個人信息的挑戰(zhàn)首先來自于自動化決策。傳統(tǒng)的編程與軟件系統(tǒng)也會對數(shù)據(jù)進行分析,并據(jù)此作出決策。但與傳統(tǒng)編程與軟件系統(tǒng)不同的是,人工智能程序并不對數(shù)據(jù)進行線性分析,相反,它學習數(shù)據(jù)、調整決策算法,以便智能地回應新數(shù)據(jù),作出新的決策[12]。從個人信息法律保護的角度來看,這就可能帶來一個風險,即個人信息在人工智能中的分析與利用可能會給個人帶來難以預料的后果。例如,在勞動就業(yè)的場景中,很多雇主運用人工智能算法來決定是否雇傭應聘者[13];在網(wǎng)約車中,網(wǎng)約車公司運用人工智能算法來決定是否給某人派送車輛[13];在金融領域,銀行與借貸公司運用人工智能算法來決定個人的信用情形[14]。

與人工智能自動化決策問題相關的是人工智能的黑箱問題。在個人信息法律保護中,信息處理的透明性是重要要求,但由于人工智能的決策特點,人工智能系統(tǒng)對于信息的處理過程往往成為一個算法黑箱,很難為一般人所理解,甚至也很難為專業(yè)人士所理解[15]。有人可能會發(fā)現(xiàn),其個人信息可能被用于分析其是否應當被雇傭,是否可以獲得就近的網(wǎng)約車派單,是否可以獲得一定額度的貸款,而卻可能很難理解為何人工智能系統(tǒng)對其作出了某些決策[16]。

另一相關的問題是算法歧視與算法偏見。由于人工智能的訓練建立在數(shù)據(jù)的基礎之上,而數(shù)據(jù)又常常隱含了社會的偏見和歧視,這樣,人工智能對于個人信息的處理就可能導致歧視性與偏見性的結果。例如,某些職場上的數(shù)據(jù)充滿了對女性的偏見,當人工智能系統(tǒng)使用此類數(shù)據(jù)進行訓練,就會對女性也同樣產生偏見??梢栽O想,當某位女性應聘者求職而遇到這一系統(tǒng)時,就可能遭受不公正待遇。

(二)應對

對于人工智能所帶來的個人信息法律保護難題,有的地區(qū)立法已經(jīng)作出了部分回應。例如,歐盟《一般數(shù)據(jù)保護條例》第15條規(guī)定,當“存在自動化的決策”,數(shù)據(jù)主體有權知曉“在此類情形下,對于相關邏輯、包括此類處理對于數(shù)據(jù)主體的預期后果的有效信息”。第21條規(guī)定,當數(shù)據(jù)控制者或處理者“因為直接營銷目的而處理個人信息,數(shù)據(jù)主體有權隨時反對為了此類營銷而處理相關個人信息,包括反對和此類直接營銷相關的用戶畫像”。第22條規(guī)定,“數(shù)據(jù)主體有權反對此類決策:完全依靠自動化處理——包括用戶畫像——對數(shù)據(jù)主體做出具有法律影響或類似嚴重影響的決策”。這些法律規(guī)定賦予了人工智能在處理數(shù)據(jù)時個人的知情權與反對權。

但基于知情權與反對權的個人信息法律保護框架并不足以應對人工智能的挑戰(zhàn)。賦予個體以紙面上的知情權與反對權,并不一定能夠幫助個體做出合理選擇,維護自身權益。如同前文所述,人工智能的特性決定了其數(shù)據(jù)處理很難為一般人所理解,而個人也常常很難有效地行使反對權[17]。此外,有學者指出,追求數(shù)據(jù)處理中的算法公開與算法可解釋性,還可能會侵犯知識產權,以及造成某些群體利用算法的問題。

總之,面對人工智能場景下的個人信息法律保護,法律應當避免過度依賴形式主義的算法公開性與可解釋性,而應當更為注重數(shù)據(jù)的倫理化治理與綜合性治理[18]。和上一部分的論述相似,監(jiān)管機構與企業(yè)應當設立人工智能的倫理委員會,通過將倫理嵌入人工智能系統(tǒng)而促進個人信息的合理使用。至于算法的公開性與可解釋性,則應當結合具體場景與具體對象而定。例如,在有的情形下進行算法公開,在有的情形下進行小范圍公開,在有的情形下則甚至應當不追求公開。不應當將算法的公開性與可解釋性作為一般原理而機械化的適用。

四、物聯(lián)網(wǎng)與個人信息法律保護

顧名思義,物聯(lián)網(wǎng)就是物物互聯(lián)的網(wǎng)絡。相比起傳統(tǒng)的互聯(lián)網(wǎng),物聯(lián)網(wǎng)將網(wǎng)絡互聯(lián)的終端從計算機、手機等電子設備變成了普通的物品。通過智能感知、識別技術與普適計算等通信感知技術,很多物品也實現(xiàn)了智能化識別、定位、跟蹤、監(jiān)控和管理的功能。

(一)挑戰(zhàn)

物聯(lián)網(wǎng)對個人信息法律保護提出的首要挑戰(zhàn)在于信息收集。相比傳統(tǒng)互聯(lián)網(wǎng)與電子設備對于個人信息的收集,物聯(lián)網(wǎng)對于個人信息的收集與傳輸常常會在用戶沒有意識到的情形下進行。例如,接入物聯(lián)網(wǎng)的家用電器可能會收集和傳輸其所在的位置信息,個人佩戴的電子手環(huán)可能會收集和傳輸個人的健康信息,而此類信息收集可能都是在個人沒有意識到的情形下進行的[19]。此外,物聯(lián)網(wǎng)中的個人信息收集可能非常寬泛,此類個人信息可能不僅僅包括傳統(tǒng)的網(wǎng)絡相關信息與地理信息,而且可能包括家庭內部的溫度和濕度、家庭的用電量和用水量,以及家用電器的使用頻次等包羅萬象的信息。

也許有人會認為,物聯(lián)網(wǎng)所收集的信息很多屬于物理信息,與個人的關聯(lián)不大,甚至可以被劃入非個人信息的范疇。但此類信息結合其他信息,就可能可以識別個人,甚至可能帶來巨大的風險與傷害。例如,家庭內部的溫度與家用電器的使用情況,就可能被用來預測某個家庭的成員人數(shù)、生活習慣甚至是作息規(guī)律。此類信息一旦被犯罪分子獲取,犯罪分子就可能實施有針對性的犯罪,對家庭的財產與人身造成直接性的損害。

物聯(lián)網(wǎng)對個人信息法律保護還提出了另一挑戰(zhàn),個人信息法律保護如果保護不當,可能引起直接的物理傷害。例如,在自動駕駛的場景中,如果黑客獲取個人信息,并且通過此類個人信息而操控自動駕駛系統(tǒng),那么個人就可能遭受交通事故的風險[19]。另一個例子是亞馬遜的智能語音系統(tǒng)Alexa,據(jù)很多用戶反應,搭載Alexa的設備會自動發(fā)出莫名其妙的怪笑聲[20]。雖然這一產品漏洞并未直接產生物理傷害,但也說明了物聯(lián)網(wǎng)可能會給用戶帶來風險。

(二)應對

針對物聯(lián)網(wǎng)對個人信息保護的挑戰(zhàn),一些機構已經(jīng)提出了對策。例如,美國聯(lián)邦貿易委員會提出了創(chuàng)新性的“通知—選擇”框架。美國聯(lián)邦貿易委員會承認物聯(lián)網(wǎng)向消費者進行告知的困難性,因為物聯(lián)網(wǎng)中的設備常常沒有人機交互界面,而且這些設備收集信息的場景非常多元。但美國聯(lián)邦貿易委員會仍然指出,這些問題可以通過創(chuàng)新加以克服。例如,可以在物聯(lián)網(wǎng)設備上開發(fā)視頻教程,在設備上粘貼二維碼,以及在設備銷售點、設備的設置向導、設備的隱私儀表板中向消費者進行隱私政策的告知,并由消費者進行選擇[21]。

至于物聯(lián)網(wǎng)可能帶來的信息風險,美國聯(lián)邦貿易委員會指出,應當注重物聯(lián)網(wǎng)設備中信息安全治理。首先,企業(yè)應當注重“通過設計的安全(Security by Design)”,即通過事先考慮而非事后救濟的方式來預防風險。早在產品開發(fā)階段,物聯(lián)網(wǎng)產品的設計者就應當考慮信息收集與利用的各個場景,并通過產品設計來預防此類風險。其次,企業(yè)還應當隨時進行信息安全風險評估,保證新的場景與風險可以被及時預防,以及在內部展開隱私培訓與信息安全培訓,保證企業(yè)員工對于物聯(lián)網(wǎng)設備的信息安全有足夠的意識和專業(yè)知識儲備。最后,企業(yè)還應當采取多層級的安全保障機制,預防物聯(lián)網(wǎng)設備可能造成的傷害。例如,可以鼓勵企業(yè)采取額外的加密措施保證物聯(lián)網(wǎng)設備不會為他人所盜用,以及保證某些敏感信息不會被濫用。

就美國聯(lián)邦貿易委員會所提出的建議而言,可以發(fā)現(xiàn)其信息安全治理的建議要比消費者知情權與選擇權更為合理。究其原因,物聯(lián)網(wǎng)場景中缺乏的人機交互界面會放大“通知—選擇”框架本身存在的問題[22]。在物聯(lián)網(wǎng)場景中,個人更不可能有時間、精力和專業(yè)能力去閱讀和理解隱私政策,因此,賦予消費者選擇權的意義要更為有限。相比之下,從個體的隱私選擇轉向企業(yè)的信息安全治理,這可以為消費者提供更好的服務和安全保障,更能有效地回應物聯(lián)網(wǎng)環(huán)境下的個人信息保護。

五、云技術與個人信息法律保護

云技術是指在廣域網(wǎng)或局域網(wǎng)內將硬件、軟件、網(wǎng)絡等系列資源統(tǒng)一起來,實現(xiàn)數(shù)據(jù)的計算、儲存、處理和共享的一種托管技術。在云存儲技術中,個人不用依賴某臺特定的計算機或服務器,可以將數(shù)據(jù)存儲在提供云服務的數(shù)據(jù)中心中,并且可以隨時隨地下載和上傳自己的信息和數(shù)據(jù)。同時,在云計算技術中,還可以提供數(shù)據(jù)處理與計算服務,為用戶提供可用的、便捷的、按需的網(wǎng)絡訪問。在云技術的幫助下,用戶只需投入很少的管理工作,或與服務供應商進行很少的交互,就可以進入可配置的計算資源共享池,如網(wǎng)絡、服務器、存儲、應用軟件、服務等共享資源。

(一)挑戰(zhàn)

云技術對于個人信息法律保護的首要挑戰(zhàn)在于法律適用的范圍。相比傳統(tǒng)企業(yè)或實體,云技術場景下的信息收集可能是海量的,因為在云技術條件下,個人可能會將自己的文檔、錄音、視頻都存儲在云盤上。而就相關性而言,這些信息有的可能是可以直接識別個人的信息,如個人肖像或個人的身份證圖片;有的信息則可能是和個人無直接相關性的信息,如風景照照片或一部電影。對于個人信息法律保護而言,挑戰(zhàn)在于如何區(qū)分各類信息,以及應當對云盤上的信息采取何種保護措施[23]。或許有的意見會認為,對于個人肖像之類的信息應當按個人信息進行保護,對于風景照或電影之類的信息則應當視為非個人信息。但問題是,風景照或電影之類的信息都是存儲在個人云盤上的,這些信息一旦泄露或結合其他信息,就可能識別出特定的個體。

云技術對個人信息法律保護的第二個挑戰(zhàn)在于責任主體。在傳統(tǒng)的個人信息法律保護體系中,企業(yè)等信息的收集者需要承擔一系列責任。以歐盟《一般數(shù)據(jù)保護條例》為代表的個人信息法律保護法則又進一步區(qū)分了信息的控制者與處理者,對信息的控制者與處理者施加了不同的責任。但在云技術條件下,信息的收集與處理常常是同步進行的,一個文件的上傳與處理常常既涉及到提供儲存的企業(yè),又涉及到提供信息支持的企業(yè)和信息被分包的企業(yè)[24]。

云技術對個人信息法律保護的第三個挑戰(zhàn)在于管轄與跨境數(shù)據(jù)流通。如前所述,在云技術背景下,信息的收集者、控制者與處理者常常涉及到多個主體,而且這些主體又常常分布在全球不同的國家和地區(qū),這就為個人信息法律保護的管轄與數(shù)據(jù)跨境流通帶來了難題。以歐盟的《一般數(shù)據(jù)保護條例》為例,該條例規(guī)定,只要是“為歐盟內的數(shù)據(jù)主體提供商品或服務”,那么即使數(shù)據(jù)的控制者或處理者不在歐盟,歐盟也具有管轄權。歐盟的這一規(guī)定意味著,只要歐洲的用戶可以使用某云技術,就會受到歐盟《一般數(shù)據(jù)保護條例》的管轄。這一管轄權規(guī)定無疑會造成各國各地區(qū)的管轄權競合[25]。同時,云技術的這一特征也無疑會對存儲在云端的數(shù)據(jù)的跨境流通提出挑戰(zhàn)[26]。

(二)應對

首先,針對云技術中的個人信息范圍問題,個人信息法律保護應當注重從個人信息法律保護轉向信息綜合治理。正如前文所說,云技術中的個人信息與非個人信息難以區(qū)分,而且即使是非個人信息,在很多情況下也對用戶具有重要意義。在這個意義上,強行區(qū)分個人信息與非個人信息,并對二者采取不同層級的保護,并不現(xiàn)實。作為對傳統(tǒng)個人信息法律保護框架的回應,云技術中的個人信息法律保護應當注重用戶體驗,并采取綜合治理措施。因此,應當保證云存儲與云技術中用戶信息的基本安全,防止此類信息的泄露與丟失。特別是在云服務提供者在終止或關閉服務前,應當提前通知用戶下載與保存信息,并且對文檔類的信息進行備份和長期保存,以避免用戶的某些重要信息丟失。

其次,對于主體責任,應當認識到,在云技術背景下,信息的責任主體已經(jīng)不再是單一的,而且云計算中的信息外包服務非常普遍。如前文所述,云服務常常需要分布在多個地點的服務器來同時提供支持,而且信息的控制者與處理者常常沒有區(qū)別。因此,個人信息保護法不應當根據(jù)信息的控制者或處理者的區(qū)分來分配責任[27]。相反,應當切實分析各個不同主體對于信息保護帶來的可能風險,并且根據(jù)風險程度的不同而落實不同主體的責任。

最后,對于數(shù)據(jù)管轄與數(shù)據(jù)跨境流通問題,這一問題非常復雜,但總體而言,對于云技術背景下的數(shù)據(jù)管轄與跨境流通,應當進行更為符合其技術特征的監(jiān)管。例如,當云端的數(shù)據(jù)在歐盟與歐盟以外的國家之間傳輸,而歐盟以外的國家又被歐盟認定為具有“充分性保護”的國家,此時此種傳輸是否需要特定的授權?在文章看來,此種云端數(shù)據(jù)的流通的授權要求顯然是非理性的,不符合云技術發(fā)展的一般原理[28]。正如有學者指出:“在云時代,設想一個政府機構可以在每次國際信息傳遞之前發(fā)布一份正式的聲明和一份實際的收據(jù),這是不合時宜的。全球數(shù)據(jù)傳輸?shù)念l率、復雜性和數(shù)量都在急劇增加?!盵27]

六、個人信息法律保護原理的再分析

科技之所以對個人信息法律保護提出如此多的挑戰(zhàn),根本原因在于傳統(tǒng)的個人信息法律保護法采取了個體主義與靜態(tài)的保護方式。這種保護方式已經(jīng)越來越不適應新科技所帶來的挑戰(zhàn),尤其是大數(shù)據(jù)、人工智能、物聯(lián)網(wǎng)、云技術等新技術的挑戰(zhàn)。

就個體主義而言,傳統(tǒng)個人信息法律保護首先采取對個體進行賦權的進路,即賦予個人以信息訪問權、選擇權、更正權、刪除權等權利,允許個體在信息收集階段行使其選擇權,并在后續(xù)階段允許個體對信息進行訪問、更正和刪除。對于這樣一種進路,應當說其在創(chuàng)設之初發(fā)揮了很大的作用。在合理信息實踐剛剛提出的20世紀70年代,計算機技術剛剛起步,個人信息被收集、存儲、使用與流轉的方式往往較為固定或易于想象。因此,在當時賦予給公民一系列的信息權利,這促進了公民個體在面對信息收集者的談判能力以及選擇權。

但是,隨著計算機與網(wǎng)絡技術的發(fā)展,這種以個體主義為導向的保護框架逐漸暴露出問題。隨著個人信息被收集、存儲、使用與流轉的方式變得更為多元和復雜,個體往往很難預見伴隨信息的相關風險,即使被賦予充分的知情權和選擇權,個體也常常難以做出合理的判斷和選擇[29]。一方面,個體的認知已經(jīng)很難對隱私政策做出合理判斷[30];另一方面,即使個體高度理性,現(xiàn)代社會信息所帶來的系統(tǒng)性風險也已經(jīng)很難通過個體選擇的方式加以應對[30]。

就個人信息收集與處理的原則而言,傳統(tǒng)個人信息法律保護主要采取了靜態(tài)化與形式化的保護進路。例如,要求個人信息收集不得超過初始目的的“目的限定”原則,個人信息處理不得超過服務目的的“數(shù)據(jù)最小化”原則,以及要求數(shù)據(jù)儲存不得超過提供服務所需時間的“限期儲存”原則,這些原則都在一定程度上假設,個人信息的利用價值都是靜態(tài)和單一化的,即某一條個人信息對應于某一次服務,個人信息的合理使用就是用確保某次對個人信息的收集與利用不超過某次服務所需要的限度。在計算機技術剛剛起步的20世紀70~80年代,這一進路具有相當?shù)暮侠硇?,因為當時對于信息的收集與利用主要限于個人身份資料類的信息,在當時的背景下,并不存在信息的大規(guī)模利用與流動。

但隨著互聯(lián)網(wǎng)技術的廣泛利用,特別是大數(shù)據(jù)、人工智能、物聯(lián)網(wǎng)與云技術等新技術的廣泛運用,個人信息的利用早已呈現(xiàn)了和過去完全不一樣的特征。在信息大規(guī)模利用與大范圍流轉的今天,如果僵化地使用“目的限定” “數(shù)據(jù)最小化”“限期儲存”等原則,那么大數(shù)據(jù)、人工智能、物聯(lián)網(wǎng)與云技術的發(fā)展肯定將受到限制,利用這些技術為消費者提供更好服務的機會肯定會受到影響。而且,更為悖論的是,如果機械性地適用某些原則,甚至連公民個體的信息權利也將受到不利的影響。例如,“限期儲存”原則,這一原則的初衷是為了實現(xiàn)信息的“生命周期”式管理,防止企業(yè)等實體對個人信息保存時間過長。但正如前文所述,在云技術的場景下,簡單地適用“限期儲存”原則,在某些情形下永久性地刪除用戶的個人信息,反而可能會造成用戶資料的損失。對于云技術而言,為用戶提供一定期限內的可復原的信息備份,可能才符合個人信息法律保護的要求。

七、結語

大數(shù)據(jù)、人工智能、物聯(lián)網(wǎng)、云技術等新科技從不同方面對個人信息法律保護提出了挑戰(zhàn)。這些挑戰(zhàn)有的針對信息的收集,如物聯(lián)網(wǎng)等技術中很難采取傳統(tǒng)的“通知—選擇”框架;有的針對信息的使用,如人工智能中的信息使用很難完全實現(xiàn)透明化或算法的可解釋性;有的針對信息的流轉,如云技術中的數(shù)據(jù)跨境流通;還有的則針對信息收集與處理的基本原則,如要真正發(fā)揮大數(shù)據(jù)的作用……這就需要反思信息收集與使用中的“目的限定”原則、“數(shù)據(jù)最小化”原則與“限期儲存”原則。

對個人信息法律保護的基本原理進行總結和反思,可以發(fā)現(xiàn)新科技之所以對個人信息法律保護提出挑戰(zhàn),其核心在于傳統(tǒng)的個人信息法律保護采取了個體主義與靜態(tài)化的保護框架。這種框架可能在網(wǎng)絡與信息科技時代到來之前具有合理性,但在當今網(wǎng)絡與信息科技高速發(fā)展的今天,信息的收集與利用已經(jīng)呈現(xiàn)出復雜、多元和動態(tài)的特征,這種進路已經(jīng)越來越不符合科技發(fā)展的特征。

在新科技蓬勃發(fā)展的今天,傳統(tǒng)個人信息法律保護的框架仍然可以發(fā)揮重要作用,個體的知情權、選擇權等信息權利依然非常關鍵,而對信息收集者與使用者的某些限制也依然必要。但新科技的發(fā)展也提示人們,個人信息法律保護不應當完全依賴和固守傳統(tǒng)的信息保護思路。在大數(shù)據(jù)與人工智能時代已經(jīng)到來的今天,中國的個人信息法律保護應當從側重個體主義許可轉向側重風險控制,從側重靜態(tài)化的保護轉向側重動態(tài)化的保護[31]。惟有如此,未來的個人信息法律保護才能實現(xiàn)科技發(fā)展與個人信息法律保護的雙贏。

注釋:

① 《一般數(shù)據(jù)保護條例》第5條第1段(b)規(guī)定:“因為公共利益、科學或歷史研究或統(tǒng)計目的而進一步處理數(shù)據(jù),不視為違反初始目的。”

② 《一般數(shù)據(jù)保護條例》第5條第1段(e)規(guī)定:“超過此期限的數(shù)據(jù)處理只有在如下情況下才能被允許:為了實現(xiàn)公共利益、科學或歷史研究目的或統(tǒng)計目的,為了保障數(shù)據(jù)主體的權利和自由,并采取了本條例第89(1)條所規(guī)定的合理技術與組織措施。”

③ 美國聯(lián)邦貿易委員會曾經(jīng)在1998年將公平信息實踐歸納為五項原則,除了2000年的四項原則之外,還包括了“執(zhí)行—救濟”的原則。參見:Federal Trade Commission.Privacy online:A report to Congress.http://www.ftc.gov/sites/default/files/documents/public_events/exploring-privacy-roundtable-series/priv-23a_0.pdf。

④ 《網(wǎng)絡安全法》第41條第1款規(guī)定:“網(wǎng)絡運營者收集、使用個人信息,應當遵循合法、正當、必要的原則,公開收集、使用規(guī)則,明示收集、使用信息的目的、方式和范圍,并經(jīng)被收集者同意?!?/p>

⑤ 《網(wǎng)絡安全法》第42條第2款規(guī)定:“網(wǎng)絡運營者不得收集與其提供的服務無關的個人信息,不得違反法律、行政法規(guī)的規(guī)定和雙方的約定收集、使用個人信息,并應當依照法律、行政法規(guī)的規(guī)定和與用戶的約定,處理其保存的個人信息。”

⑥ 《網(wǎng)絡安全法》第43條規(guī)定:“個人發(fā)現(xiàn)網(wǎng)絡運營者違反法律、行政法規(guī)的規(guī)定或者雙方的約定收集、使用其個人信息的,有權要求網(wǎng)絡運營者刪除其個人信息;發(fā)現(xiàn)網(wǎng)絡運營者收集、存儲的其個人信息有錯誤的,有權要求網(wǎng)絡運營者予以更正。網(wǎng)絡運營者應當采取措施予以刪除或者更正?!?/p>

⑦ 《網(wǎng)絡安全法》第72條第2款規(guī)定:“網(wǎng)絡運營者應當采取技術措施和其他必要措施,確保其收集的個人信息安全,防止信息泄露、毀損、丟失。在發(fā)生或者可能發(fā)生個人信息泄露、毀損、丟失的情況時,應當立即采取補救措施,按照規(guī)定及時告知用戶并向有關主管部門報告?!?/p>

⑧ Gartner IT glossary big data.http://www.gartner.com/it-glossary/big-data。

⑨ 參見:《網(wǎng)絡安全法》第76條第5款。

⑩ 參見:《一般數(shù)據(jù)保護條例》第5條第1段(c)。

猜你喜歡
個人信息聯(lián)網(wǎng)人工智能
個人信息保護進入“法時代”
“身聯(lián)網(wǎng)”等五則
《物聯(lián)網(wǎng)技術》簡介
《物聯(lián)網(wǎng)技術》簡介
敏感個人信息保護:我國《個人信息保護法》的重要內容
簡述傳感器在物聯(lián)網(wǎng)中的應用
主題語境九:個人信息(1)
民法典應進一步完善侵害個人信息責任規(guī)定
2019:人工智能
人工智能與就業(yè)
社会| 苍南县| 榆林市| 五寨县| 凤台县| 沁源县| 阿克陶县| 独山县| 丹巴县| 抚顺市| 静宁县| 延吉市| 镇坪县| 东宁县| 寿宁县| 自治县| 时尚| 阿城市| 临江市| 桐柏县| 遂宁市| 丁青县| 柳州市| 平凉市| 新宁县| 宣恩县| 横峰县| 靖江市| 营口市| 淮阳县| 通榆县| 都匀市| 巴彦县| 海盐县| 迭部县| 江西省| 花垣县| 苍山县| 灵川县| 浏阳市| 平阴县|