杜明強(qiáng)
( 貴州大學(xué) 法學(xué)院,貴州 貴陽(yáng)550025)
當(dāng)前,各國(guó)立法并未對(duì)無(wú)人駕駛的概念作出統(tǒng)一界定,且多將自動(dòng)駕駛和無(wú)人駕駛一體混用。在我國(guó),有關(guān)規(guī)定將自動(dòng)駕駛汽車(chē)定義為:在現(xiàn)行機(jī)動(dòng)車(chē)上裝配自動(dòng)駕駛系統(tǒng),無(wú)需駕駛員執(zhí)行物理性駕駛操作就能夠?qū)?chē)輛行駛?cè)蝿?wù)進(jìn)行指導(dǎo)與決策,并代替駕駛員操控行為完成安全行駛的車(chē)輛(1)2017 年《北京市關(guān)于加快推進(jìn)自動(dòng)駕駛車(chē)輛道路測(cè)試有關(guān)工作的指導(dǎo)意見(jiàn)( 試行) 》對(duì)“自動(dòng)駕駛”的定義。。據(jù)此,所謂無(wú)人駕駛汽車(chē),是指由智能系統(tǒng)執(zhí)行所有核心駕駛功能,并監(jiān)控整個(gè)行程路況,驅(qū)動(dòng)程序僅提供目的地或?qū)Ш捷斎?,行程開(kāi)始后的任何情況下無(wú)需人為介入。系統(tǒng)自行操作本身等同于人類(lèi)駕駛,可在各種環(huán)境下承擔(dān)所有駕駛?cè)蝿?wù)。但需指出的是,無(wú)人駕駛汽車(chē)并非指車(chē)輛完全脫離人的管控,只是從物理操作上無(wú)需由人類(lèi)親自實(shí)施駕駛行為,人們可以通過(guò)點(diǎn)擊按鈕、輸入語(yǔ)音等行為開(kāi)啟駕駛模式。實(shí)際上,目前各國(guó)的自動(dòng)駕駛技術(shù)尚未達(dá)到無(wú)人駕駛的水平,不過(guò)完全自動(dòng)化階段離我們并不遙遠(yuǎn)[1]。因?yàn)椴簧侔l(fā)達(dá)國(guó)家和我國(guó)都力圖在人工智能領(lǐng)域贏得全球科技競(jìng)爭(zhēng)主動(dòng)權(quán),競(jìng)相研發(fā)高度自動(dòng)駕駛技術(shù),努力向無(wú)人駕駛目標(biāo)邁進(jìn)。
對(duì)無(wú)人駕駛汽車(chē)而言,數(shù)據(jù)和算法是其不可或缺的兩大支撐。其中,數(shù)據(jù)是無(wú)人駕駛汽車(chē)運(yùn)行的基礎(chǔ),算法是其智能系統(tǒng)的本質(zhì)。要實(shí)現(xiàn)無(wú)人駕駛的高度智能狀態(tài),汽車(chē)必須靠海量數(shù)據(jù)支撐。詳言之,其所涉數(shù)據(jù)可依使用目的不同分為交通類(lèi)數(shù)據(jù)和生活類(lèi)數(shù)據(jù),個(gè)人隱私數(shù)據(jù)被涵括其中。其中,交通數(shù)據(jù)的收集、保存和處理對(duì)于無(wú)人駕駛汽車(chē)安全運(yùn)行至關(guān)重要,因?yàn)槠渲悄芟到y(tǒng)的技術(shù)原理主要還是依靠計(jì)算機(jī)系統(tǒng)進(jìn)行高速運(yùn)算,憑借方向定位和導(dǎo)航技術(shù)的支持,將車(chē)載傳感器感知的信息與運(yùn)營(yíng)商數(shù)據(jù)庫(kù)內(nèi)的信息相結(jié)合,通過(guò)無(wú)數(shù)次信息上傳下載,以控制車(chē)輛的轉(zhuǎn)向、速度、剎車(chē)等,從而保障車(chē)輛能在可靠道路上安全行駛??梢哉f(shuō),交通類(lèi)數(shù)據(jù)是無(wú)人駕駛汽車(chē)的“血液”,沒(méi)有數(shù)據(jù)汽車(chē)便寸步難行。但與此同時(shí),無(wú)人駕駛汽車(chē)也正在被視為移動(dòng)數(shù)據(jù)采集處[2]。由于隨時(shí)隨地均在反復(fù)采集人們的各種數(shù)據(jù)信息,這些信息經(jīng)過(guò)提取可能具備其他可資利用的價(jià)值,網(wǎng)絡(luò)經(jīng)營(yíng)者、汽車(chē)生產(chǎn)者自然也就可能將獲取的其中有用的個(gè)人隱私轉(zhuǎn)化為商業(yè)化利用的數(shù)據(jù)信息,由此不僅會(huì)導(dǎo)致人們?cè)谌斯ぶ悄軙r(shí)代因?yàn)椤叭巳硕际峭该鞯摹倍霈F(xiàn)種種不安與憂慮,還必然會(huì)因人工智能技術(shù)本身存在的不完整性以及網(wǎng)絡(luò)黑客、網(wǎng)絡(luò)經(jīng)營(yíng)者等人為地利用技術(shù)手段故意侵犯隱私的高概率行為,使得隱私數(shù)據(jù)泄露的風(fēng)險(xiǎn)陡增,個(gè)人隱私安全保護(hù)問(wèn)題也因此成為無(wú)人駕駛汽車(chē)產(chǎn)業(yè)發(fā)展中所面臨的最具挑戰(zhàn)性難題之一。
作為人工智能的典例,無(wú)人駕駛汽車(chē)的價(jià)值功能顯著而廣泛,包括但不限于如下方面:一是減少交通事故發(fā)生。據(jù)統(tǒng)計(jì),在美國(guó)每年引發(fā)交通事故的諸多因素中,人為原因的占比為93%,主要表現(xiàn)為酒駕、超速、疲勞駕駛、經(jīng)驗(yàn)不足等情形[3]。而無(wú)人駕駛技術(shù)恰能克服人類(lèi)的上述局限,不會(huì)因負(fù)面情緒引發(fā)交通事故,可降低事故發(fā)生率,提高人類(lèi)安全指數(shù)。二是緩解交通擁堵。堵車(chē)已成今日之城市病,其原因不僅包括車(chē)輛數(shù)量的龐大和持續(xù)劇增,還在于人的駕駛技術(shù)限制以及對(duì)道路的利用不足。而一旦無(wú)人駕駛汽車(chē)投入使用,即使現(xiàn)有道路容量不變,因其更加安全、精準(zhǔn)和強(qiáng)預(yù)測(cè)性,亦能大幅縮短車(chē)間距,提高道路利用率[4]。三是增加特定人群的行動(dòng)自由。傳統(tǒng)汽車(chē)駕駛行為較為復(fù)雜,對(duì)個(gè)人體能、視力和技術(shù)都有較高要求,且必須通過(guò)專(zhuān)門(mén)的學(xué)習(xí)考核才可獲駕駛資格,而駕駛的安全性保證則需付出更多的練習(xí)時(shí)間??梢?jiàn),人類(lèi)駕駛的成本其實(shí)較高,而對(duì)部分特定人群而言( 如老人、殘疾人、盲人等) 則根本無(wú)法獨(dú)自去體驗(yàn)傳統(tǒng)汽車(chē)帶來(lái)的移動(dòng)便利[5]。無(wú)人駕駛汽車(chē)則顯然可助力這些特定人群實(shí)現(xiàn)駕駛夢(mèng),擴(kuò)增其行動(dòng)自由。
此外,無(wú)人駕駛汽車(chē)在減少空氣污染、改善城市規(guī)劃等方面也有所助益。但無(wú)人駕駛技術(shù)猶如一枚具有正反兩面的硬幣,亦是一把雙刃劍,在為人類(lèi)服務(wù)的同時(shí),也附帶了一系列安全風(fēng)險(xiǎn),其中引發(fā)的隱私權(quán)問(wèn)題尤其顯著,大數(shù)據(jù)+算法的應(yīng)用使得個(gè)人隱私權(quán)較為輕易地遭受到各種侵害,而我國(guó)現(xiàn)行法對(duì)擁有數(shù)據(jù)的各種機(jī)構(gòu)或企業(yè)嚴(yán)格使用數(shù)據(jù)規(guī)制又明顯不足,缺乏有效的監(jiān)管手段,于是更加劇了無(wú)人駕駛領(lǐng)域的隱私權(quán)保護(hù)難度。如何實(shí)現(xiàn)保障個(gè)人隱私安全與企業(yè)收集利用他人數(shù)據(jù)之間的平衡對(duì)人工智能產(chǎn)業(yè)的發(fā)展顯得愈發(fā)重要。概而言之,人工智能時(shí)代的隱私權(quán)困境主要集中體現(xiàn)為如何處理好數(shù)據(jù)利用( 侵犯) 與保護(hù)之間的關(guān)系。
因受傳統(tǒng)隱私權(quán)理論的影響,人們普遍喜好從字面去理解隱私,認(rèn)為隱私就應(yīng)該是一種完全保密的狀態(tài),這在很大程度上是顧名思義的緣故,但其實(shí)并不符合隱私的本質(zhì)。隱私及隱私權(quán)的概念并非一成不變,應(yīng)將其置于所處的時(shí)代背景下作深入理解分析,故需先認(rèn)識(shí)到隱私( privacy) 和隱私權(quán)( the right to privacy) 的概念有所不同。前者是后者所保護(hù)的客體。在以往研究中,有少數(shù)學(xué)者已經(jīng)意識(shí)到隱私和隱私權(quán)的區(qū)別,如我國(guó)臺(tái)灣地區(qū)學(xué)者詹文凱認(rèn)為:隱私是私人領(lǐng)域內(nèi)的事務(wù),而隱私權(quán)則是對(duì)隱私的控制權(quán)[6]。對(duì)此,有學(xué)者進(jìn)一步研究后指出區(qū)分隱私和隱私權(quán)具有重要意義,并從以下方面闡釋了二者的區(qū)別:其一,隱私是一種客觀社會(huì)事實(shí),隱私權(quán)是一種主觀價(jià)值判斷。隱私是客觀存在的事實(shí),而隱私權(quán)則是經(jīng)過(guò)法律的價(jià)值過(guò)濾,是值得法律保護(hù)的一種權(quán)利,是一種帶有法律意義的價(jià)值判斷。其二,并非所有的隱私都相應(yīng)地享有隱私權(quán)的保護(hù),只有隱私必須具備了法律值得保護(hù)的法益,才可能享受隱私權(quán)的保護(hù)。其三,“公開(kāi)”因素對(duì)隱私和隱私權(quán)的影響有所不同。隱私作為一種客觀社會(huì)事實(shí),無(wú)論公開(kāi)與否都不會(huì)改變其性質(zhì)。對(duì)隱私權(quán)而言,公開(kāi)與否影響的是權(quán)利人放棄權(quán)利與否。其四,隱私是絕對(duì)的,隱私權(quán)是相對(duì)的[7]?;诖?,我們認(rèn)為,有關(guān)隱私與隱私權(quán)的區(qū)分,對(duì)于探討無(wú)人駕駛汽車(chē)的侵權(quán)問(wèn)題具有先決意義,因?yàn)橥ㄟ^(guò)數(shù)據(jù)處理侵害隱私的行為不一定都要承擔(dān)民事責(zé)任,但侵害隱私權(quán)的行為則應(yīng)承擔(dān)民事責(zé)任,故在立法設(shè)計(jì)上,有必要明確隱私權(quán)受保護(hù)的范圍,以便為司法實(shí)踐提供正確的規(guī)范指引。
就具體侵權(quán)形態(tài)而言,無(wú)人駕駛汽車(chē)在行駛過(guò)程中的數(shù)據(jù)記載行為首先表現(xiàn)為侵害使用人或乘客的個(gè)人隱私。就車(chē)輛行駛所記錄的數(shù)據(jù)來(lái)看,所涉隱私數(shù)據(jù)的范疇有限,只有當(dāng)這些數(shù)據(jù)信息對(duì)個(gè)人發(fā)展相關(guān)或者具有( 可能具有) 個(gè)人可識(shí)別性事務(wù)的特征,才可被認(rèn)定為個(gè)人隱私。一般而言,可能會(huì)被侵害的個(gè)人隱私信息主要包括:一是乘客的姓名、肖像、聲音、住址、通信信息。二是乘客在車(chē)內(nèi)的個(gè)人活動(dòng),包括但不限于戀人之間的親密行為、言談舉止、聊天記錄,有時(shí)還會(huì)涉及工作事務(wù),可能會(huì)被錄音、錄像。三是自然人不愿意公開(kāi)的出行軌跡,如艾滋病患者出入醫(yī)院的記錄、未婚女性到產(chǎn)科醫(yī)院就醫(yī)的記錄、男性出入一些敏感娛樂(lè)場(chǎng)所等。四是乘客的財(cái)產(chǎn)類(lèi)信息,如交易記錄、支付賬號(hào)等。五是駕駛員或其他乘客的健康類(lèi)數(shù)據(jù)。車(chē)內(nèi)人員的健康類(lèi)數(shù)據(jù)與交通數(shù)據(jù)一道被續(xù)記和保存,通過(guò)大數(shù)據(jù)分析,可以精準(zhǔn)識(shí)別特定主體,甚至可知曉駕駛員健康狀況的惡化趨勢(shì),這里的問(wèn)題是汽車(chē)制造商對(duì)于收集的這些信息是否必須保存,能否形成保證人義務(wù)? 汽車(chē)智能系統(tǒng)將上述隱私數(shù)據(jù)自動(dòng)傳輸?shù)皆贫说恼?dāng)性基礎(chǔ)何在? 都是非常具有爭(zhēng)議的法律問(wèn)題。個(gè)人隱私作為一種客觀社會(huì)事實(shí),一旦這些隱私數(shù)據(jù)被智能系統(tǒng)記錄且經(jīng)過(guò)加工利用,生產(chǎn)者或互聯(lián)網(wǎng)企業(yè)從中獲取利益,就會(huì)構(gòu)成對(duì)個(gè)人隱私的侵犯。因此,無(wú)人駕駛汽車(chē)生產(chǎn)商必須制定公正合理的“隱私方案”,說(shuō)明其如何收集、存儲(chǔ)、使用、分享以及消除汽車(chē)用戶的個(gè)人信息,并對(duì)可能的隱私侵權(quán)風(fēng)險(xiǎn)提供何種安全保障措施。對(duì)于不愿意自己數(shù)據(jù)被共享的用戶,生產(chǎn)商必須給出相應(yīng)的處置方案。對(duì)于同意留存的用戶信息,生產(chǎn)商應(yīng)有力確保防止信息泄露。
隱私權(quán)的概念界定存在一定爭(zhēng)議,我國(guó)有民法學(xué)教材將其定義為“自然人享有的對(duì)其個(gè)人的、與公共利益無(wú)關(guān)的個(gè)人信息、私人活動(dòng)和私有領(lǐng)域進(jìn)行支配的具體人格權(quán)”[8]。在美國(guó),聯(lián)邦最高法院以判例方式確認(rèn)了隱私權(quán),且將其作為一項(xiàng)憲法性權(quán)利進(jìn)行保護(hù)。對(duì)此,有學(xué)者評(píng)論到:隱私權(quán)的保護(hù)范圍過(guò)于廣泛,不僅包括侵權(quán)法所保護(hù)的利益,也涉及《美國(guó)聯(lián)邦憲法》所捍衛(wèi)的利益,且還與公民自由緊密相關(guān)[9]。這就導(dǎo)致隱私權(quán)看似能囊括一切,實(shí)則一無(wú)所有??梢?jiàn),隱私權(quán)這一概念本身實(shí)際上難以準(zhǔn)確界定,且具有動(dòng)態(tài)性與開(kāi)放性。根據(jù)不同的標(biāo)準(zhǔn),對(duì)隱私權(quán)可作出不同的分類(lèi),如以保護(hù)的客體為準(zhǔn),隱私權(quán)可分為信息性隱私權(quán)和自治性隱私權(quán)。前者保護(hù)的客體是信息隱私,后者保護(hù)的客體是自決的思想。在美國(guó)司法判例上,聯(lián)邦最高法院在Whalen v.Roe 一案(2)See Whalen v.Roe,429 U.S.589( 1977) .中首次提出信息性隱私權(quán)( information privacy) 這一概念,并認(rèn)為信息性隱私權(quán)在將來(lái)會(huì)被確認(rèn)在隱私權(quán)利之內(nèi)。學(xué)理上,有學(xué)者提出信息性隱私權(quán)通常是對(duì)自己信息的一種控制[10]。而自治性隱私權(quán),則被認(rèn)為是以個(gè)人自治為基礎(chǔ)所作的某種基礎(chǔ)性決定[11]。張民安教授指出,信息性隱私權(quán)是早期的隱私權(quán)歸類(lèi),指?jìng)€(gè)人所享有的私人生活空間免受他人進(jìn)行物理性侵?jǐn)_的權(quán)利。而自治性隱私權(quán),指私人所享有的對(duì)其日常生活的選擇免受政府規(guī)管的權(quán)利[12]。也有學(xué)者主要從司法實(shí)踐的視角將隱私權(quán)類(lèi)型化為私生活安寧、私生活秘密與個(gè)人一般信息[13]。本文認(rèn)為,藉由信息性隱私權(quán)和自治性隱私權(quán)的學(xué)理區(qū)分,可對(duì)無(wú)人駕駛汽車(chē)侵害隱私權(quán)的行為作分類(lèi)探討。
1.侵害信息性隱私權(quán)。伴隨“大數(shù)據(jù)、人工智能技術(shù)”的深入發(fā)展,自然人正在被不斷透視,逐漸被變成“透明人”。諸如“大數(shù)據(jù)時(shí)代無(wú)隱私”的觀點(diǎn)亦在不斷沖擊隱私權(quán)理論,似乎是給無(wú)人駕駛汽車(chē)生產(chǎn)者們收集和利用車(chē)輛用戶隱私信息提供了“合理化”借口。他們憑借“知情—同意”原則,一旦用戶開(kāi)啟自動(dòng)駕駛按鈕,車(chē)輛行駛過(guò)程中便可依靠智能技術(shù)完整記錄和儲(chǔ)存乘客的行車(chē)軌跡以及最終目的地等信息。再者,如果車(chē)內(nèi)安裝有視聽(tīng)監(jiān)控裝置,將會(huì)一并記下乘客的聲音、相貌、交談及通話內(nèi)容等。車(chē)身外的視頻也在不斷記錄所經(jīng)行程周遭其他人的肖像等個(gè)人信息,且同時(shí)將這些信息一并傳輸?shù)浇K端系統(tǒng),這就導(dǎo)致如下問(wèn)題:生產(chǎn)者單方面制定的隱私政策中所確立的“知情—同意”原則是否能成為其收集、儲(chǔ)存、加工和利用個(gè)人隱私信息的正當(dāng)性基礎(chǔ)? 當(dāng)人們一旦進(jìn)入無(wú)人駕駛汽車(chē)這個(gè)特定空間內(nèi),是否意味著在此時(shí)空內(nèi)一定程度上放棄了自己的信息性隱私權(quán)? 個(gè)人隱私權(quán)在價(jià)值位階上是否低于企業(yè)財(cái)產(chǎn)權(quán)? 此外,車(chē)外置監(jiān)控設(shè)備所收集的其他非乘車(chē)人的肖像等外部信息該如何處理? 又是否構(gòu)成對(duì)他人公共場(chǎng)所隱私權(quán)之侵害? 因大數(shù)據(jù)由每輛無(wú)人駕駛汽車(chē)所記載的信息所構(gòu)成,如遇黑客入侵,或者網(wǎng)絡(luò)工作者惡意侵犯乘客個(gè)人隱私,或是網(wǎng)絡(luò)系統(tǒng)崩潰導(dǎo)致隱私信息被泄露,都將侵害乘客個(gè)人的信息性隱私權(quán),甚至還可能引發(fā)不可預(yù)知的下游犯罪、社會(huì)分選或歧視、監(jiān)控不安等新型損害。
無(wú)人駕駛技術(shù)附帶的個(gè)人隱私權(quán)安全風(fēng)險(xiǎn)確實(shí)不容小覷。據(jù)有關(guān)無(wú)人駕駛汽車(chē)安全問(wèn)題的調(diào)查所示,55%的受訪者( 風(fēng)險(xiǎn)分析師) 認(rèn)為,網(wǎng)絡(luò)數(shù)據(jù)安全風(fēng)險(xiǎn)是無(wú)人駕駛汽車(chē)所面臨的首要挑戰(zhàn),遠(yuǎn)高于技術(shù)安全本身( 僅為6%)(3)《在保險(xiǎn)人眼中,網(wǎng)絡(luò)安全是無(wú)人駕駛汽車(chē)最大的風(fēng)險(xiǎn)》,電子產(chǎn)品世界,http: //www.eepw.com.cn/article/201607/294721.htm.2019-12-14.。這表明,由于無(wú)人駕駛汽車(chē)對(duì)互聯(lián)網(wǎng)的高度信賴(lài),網(wǎng)絡(luò)安全則是無(wú)人駕駛汽車(chē)得以安全運(yùn)行的前提條件,也構(gòu)成對(duì)社會(huì)公共安全的巨大考驗(yàn)。此外,數(shù)據(jù)安全保護(hù)也會(huì)影響無(wú)人駕駛產(chǎn)業(yè)發(fā)展,如果不能確保車(chē)輛使用者或乘坐人的隱私安全,公眾對(duì)整個(gè)無(wú)人駕駛產(chǎn)業(yè)的信任度將大幅降低,此類(lèi)汽車(chē)的市場(chǎng)前景也會(huì)因此受阻。因?yàn)榛谝粋€(gè)理性人立場(chǎng),沒(méi)有誰(shuí)愿意以放棄隱私權(quán)為代價(jià)去獲取出行便利,尤其在大數(shù)據(jù)時(shí)代,隱私信息安全同個(gè)人財(cái)產(chǎn)安全甚至人身安全均密切相關(guān),這也因此要求無(wú)人駕駛汽車(chē)的生產(chǎn)者、網(wǎng)絡(luò)經(jīng)營(yíng)者、銷(xiāo)售者等相關(guān)主體必須通過(guò)合力保障用戶的隱私信息安全,方能更為有效地促進(jìn)無(wú)人駕駛汽車(chē)技術(shù)的迅速發(fā)展。
依據(jù)上文分析,信息性隱私是自然人具有或可能具有個(gè)人識(shí)別性信息的一種控制能力。無(wú)人駕駛汽車(chē)所收集的隱私信息要納入隱私權(quán)的保護(hù)范圍,還需具備受保護(hù)的法益。依據(jù)人格權(quán)之基本法理,信息性隱私權(quán)所保護(hù)的法益就是人格尊嚴(yán),具體而言是指特定空間中私人的受關(guān)注度。由此,所謂信息性隱私權(quán),可定義成為避免受到不當(dāng)關(guān)注,自然人所享有的對(duì)具有或可能具有個(gè)人識(shí)別性的信息的獲取、披露或使用予以控制之權(quán)利[14]。在這里,對(duì)信息的范圍作“可識(shí)別性”的界定,是為了克服傳統(tǒng)立法對(duì)隱私權(quán)范圍列舉不全的弊端。而控制的含義,應(yīng)當(dāng)解釋為包括收集、儲(chǔ)存、利用和傳播。在大數(shù)據(jù)時(shí)代,我們大多數(shù)人的個(gè)人信息往往不是處于被保密狀態(tài),而是被分散在不同的電腦文檔中,并在通過(guò)各種途徑擴(kuò)散,因此在大數(shù)據(jù)、云計(jì)算等技術(shù)之下,隱私權(quán)主要關(guān)注的問(wèn)題已經(jīng)逐漸由如何保密向如何利用和傳播轉(zhuǎn)變[15]。所以,“秘密即是隱私,公開(kāi)則無(wú)隱私”的觀念已然不合時(shí)宜,會(huì)極大限制隱私權(quán)的保護(hù)和發(fā)展。據(jù)此,無(wú)人駕駛汽車(chē)通過(guò)智能系統(tǒng)對(duì)車(chē)內(nèi)乘客數(shù)據(jù)信息進(jìn)行一并收集、傳輸?shù)男袨?,以及此?lèi)信息被反復(fù)下載、匯總分析、循環(huán)利用的行為,均有可能構(gòu)成對(duì)隱私權(quán)的侵害。
由上可知,無(wú)人駕駛汽車(chē)運(yùn)行中引發(fā)的信息性隱私權(quán)侵權(quán)風(fēng)險(xiǎn)涉及處理者與信息利用提供者( 個(gè)人) 隱私之間的利益平衡關(guān)系。從法理上講,無(wú)論是涉及普通個(gè)人數(shù)據(jù),還是隱私數(shù)據(jù),車(chē)輛行駛中所收集的數(shù)據(jù)主權(quán)原則上屬于車(chē)內(nèi)人員。對(duì)此,有觀點(diǎn)認(rèn)為,從結(jié)果控制出發(fā),應(yīng)當(dāng)賦予數(shù)據(jù)主體( 車(chē)內(nèi)人員) 相應(yīng)的數(shù)據(jù)權(quán)利,包括對(duì)隱私數(shù)據(jù)分析行為的同意權(quán)、分析情況的知情權(quán)以及分析結(jié)果的刪除權(quán)[16]。我國(guó)《民法典》雖有關(guān)于個(gè)人隱私權(quán)的保護(hù)性規(guī)定,但仍無(wú)法精確涵蓋個(gè)人的行車(chē)軌跡等數(shù)據(jù)信息,且對(duì)智能系統(tǒng)所記載數(shù)據(jù)的丟失、盜取等行為的規(guī)制亦有缺漏,遂給隱私權(quán)的保護(hù)造成不利。如何保護(hù)此類(lèi)信息性隱私權(quán),使其不被非法利用、泄露,并明確其相關(guān)主體的法律責(zé)任是該領(lǐng)域的重要議題[17]。這亦給隱私權(quán)的侵權(quán)法保護(hù)提出了新挑戰(zhàn)。
2.侵害自治性隱私權(quán)。在美國(guó),受憲法所保護(hù)的自治性隱私權(quán)具體包括婚姻自主權(quán)、生育自主權(quán)、子女監(jiān)護(hù)權(quán)和教育權(quán)、保持家庭和睦的權(quán)利、購(gòu)買(mǎi)及使用避孕用具的權(quán)利、私下自愿進(jìn)行同性戀行為的權(quán)利、拒絕藥物治療的權(quán)利等[18]。故自治性隱私權(quán)才被界定為私人所享有的對(duì)其日常生活之選擇免受政府規(guī)管的權(quán)利,其實(shí)質(zhì)在于個(gè)人的生活方式屬于私權(quán)自治的內(nèi)容,如無(wú)正當(dāng)理由,政府不能對(duì)個(gè)人自決權(quán)作出限制。簡(jiǎn)言之,自治性隱私權(quán)的價(jià)值基礎(chǔ)是自由。畢竟要求自由乃是人類(lèi)根深蒂固的一種欲望[19]。在私法層面,自治性隱私權(quán)所保護(hù)的法益就是個(gè)人事務(wù)的決策自由,是一種不受政府、他人非法干涉的私權(quán)自治。其范圍與信息性隱私權(quán)存在部分重疊,受保護(hù)的前提是私主體享有隱私利益,或者說(shuō)存在一種合理的“隱私區(qū)域”。但這種“隱私區(qū)域”的范圍具體有多大,還需要靠法律來(lái)作界定。對(duì)此,有學(xué)者指出,“隱私”本身也是對(duì)私人領(lǐng)域的劃分,隱私領(lǐng)域在本質(zhì)上就是一種受法律保護(hù)的自由。只有當(dāng)個(gè)人的隱私得到了普遍的保護(hù),自由才能實(shí)現(xiàn)。隱私權(quán)亦是個(gè)人獨(dú)立作出生活決定和其他行為的基礎(chǔ)。故保護(hù)隱私亦是實(shí)現(xiàn)私人自治的前提[20]。可以說(shuō),自治性隱私權(quán)本身也是實(shí)現(xiàn)私權(quán)自治的重要體現(xiàn)。
筆者認(rèn)為,私法中強(qiáng)調(diào)個(gè)人對(duì)己身事務(wù)的自我選擇和自我決定,其原初目的之一在于對(duì)抗不斷擴(kuò)張的政府公權(quán)力。而在大數(shù)據(jù)、人工智能時(shí)代,強(qiáng)調(diào)自治性隱私權(quán)之目的還在于對(duì)抗不斷擴(kuò)張的平臺(tái)私權(quán)力。在無(wú)人駕駛領(lǐng)域,汽車(chē)的使用者與網(wǎng)絡(luò)經(jīng)營(yíng)者、制造商或政府監(jiān)管部門(mén)之間在收集、使用個(gè)人隱私數(shù)據(jù)時(shí)信息極為不對(duì)稱(chēng),后者掌握更多的信息與談判力量,可在無(wú)人駕駛汽車(chē)運(yùn)營(yíng)過(guò)程中憑借其單方面制定的“隱私協(xié)議或聲明”就能輕而易舉地獲取個(gè)人隱私信息,而且這些主體相對(duì)于個(gè)人( 汽車(chē)消費(fèi)者或使用者) 而言,先天就處于優(yōu)勢(shì)地位,而權(quán)利人卻可能所知有限[21]。當(dāng)個(gè)人隱私在他們?cè)O(shè)計(jì)的系統(tǒng)中被儲(chǔ)存、加工、利用時(shí),多數(shù)人對(duì)此類(lèi)行為全然不知,即使是知情者,因?yàn)樵谛问缴献袷亓诉@些強(qiáng)勢(shì)主體所制定的“格式條款”,“要么同意—要么離開(kāi)”的規(guī)則迫使個(gè)人不得不放棄部分隱私權(quán)的利益。實(shí)際上,所謂的“知情同意”原則最多是個(gè)擺設(shè),因?yàn)橛脩艋径际潜黄韧?,不同意則無(wú)法享受服務(wù)[22]。相較于普通的隱私權(quán)侵權(quán),政府部門(mén)、汽車(chē)生產(chǎn)商以及網(wǎng)絡(luò)經(jīng)營(yíng)者擁有對(duì)汽車(chē)智能系統(tǒng)的強(qiáng)管控力和支配力,他們利用網(wǎng)絡(luò)及智能系統(tǒng)對(duì)車(chē)輛使用者隱私權(quán)的侵犯具有較強(qiáng)的技術(shù)性、隱蔽性,受害者更難確定和追究其侵權(quán)責(zé)任。由此可見(jiàn),在無(wú)人駕駛汽車(chē)領(lǐng)域,無(wú)論是現(xiàn)行“知情同意”原則的運(yùn)用,還是其他隱私政策的方案或承諾,都存在對(duì)自治性隱私權(quán)侵犯之嫌疑。也就是說(shuō),在自治性隱私權(quán)視角下,隱私信息的支配權(quán)應(yīng)當(dāng)屬于車(chē)輛使用人,使用人有權(quán)決定是否允許他人收集和利用自身隱私信息,知曉其具體用途,并要求使用者確保其足夠的安全性。但無(wú)人駕駛汽車(chē)智能系統(tǒng)的數(shù)據(jù)采集和處理技術(shù)會(huì)極大削弱個(gè)人對(duì)其隱私信息的支配力和保護(hù)力,自治性隱私權(quán)的保護(hù)在人工智能和算法技術(shù)面前危機(jī)四伏,我們的一切行蹤被無(wú)人駕駛機(jī)車(chē)記錄,一切信息被網(wǎng)絡(luò)所監(jiān)管。誠(chéng)如有學(xué)者所言: “社會(huì)個(gè)體不知自己有多少信息已被記錄,這些信息將會(huì)傳到何處,也不知為何人所用,為何而用,更無(wú)從知曉此類(lèi)信息被泄露后將滋生何種后果?”[23]事實(shí)上,就目前實(shí)踐來(lái)看,滴滴或各種導(dǎo)航軟件都在不斷記錄著個(gè)人出行軌跡,甚至在一定程度上能預(yù)測(cè)或決定我們?nèi)ツ膬???梢灶A(yù)測(cè),現(xiàn)行私法對(duì)自治性隱私權(quán)的保護(hù)規(guī)則在未來(lái)無(wú)人駕駛汽車(chē)的智能系統(tǒng)中將難以奏效。
總體來(lái)看,無(wú)人駕駛汽車(chē)所帶來(lái)的隱私權(quán)侵權(quán)風(fēng)險(xiǎn)是一種人為的技術(shù)風(fēng)險(xiǎn),這種風(fēng)險(xiǎn)由于起初默認(rèn)“社會(huì)的可接受性”,會(huì)在某種程度上增加人類(lèi)行為的不確定性,該風(fēng)險(xiǎn)也將突破國(guó)界的地域性限制而向全球擴(kuò)散。在此背景下,人工智能的強(qiáng)自主性愈發(fā)明顯,人類(lèi)對(duì)其產(chǎn)生的高度依賴(lài)性最終可能會(huì)演化為失控性[24]。如此一來(lái),隱私權(quán)的概念界定及其法律保護(hù)均面臨系列危機(jī)。2010 年Facebook 創(chuàng)始人Mark Zuckerberg 提出“隱私不再是一項(xiàng)社會(huì)標(biāo)準(zhǔn)”之觀點(diǎn)(4)Emma Barnett,F(xiàn)acebook’s Mark Zuckerberg Says“Privacy Is No Longer a‘Social Norm’”,THE TELEGRAPH(Jan.11,2010),http: //www.telegraph.co.uk/technology/facebook/6966628/Facebooks-MarkZuckerberg-says-privacy-is-no-longer-a-social-norm.html,2020-03-11.。2013 年谷歌首席工程師Vint Cerf 曾指出,隱私也許是一個(gè)反常的概念,可能歷史上的一些東西可以幫助我們適應(yīng)一個(gè)即將到來(lái)的透明社會(huì)(5)Gregory Ferenstein,Google’s Cerf Says“Privacy May Be An Anomaly”.Historically,He’s Right,TECH CRUNCH( Nov.20,2013) ,http: //www.tuicool.com/articles/AVNvm2Y,2020-03-11.。邁阿密大學(xué)Froomkin 教授更是發(fā)出“隱私已死”的質(zhì)疑[25]。這些觀點(diǎn)讓我們?yōu)殡[私權(quán)的命運(yùn)深感擔(dān)憂,大數(shù)據(jù)、人工智能技術(shù)的普及和運(yùn)用使得隱私權(quán)的傳統(tǒng)私法保護(hù)機(jī)制正在逐步失效。從信息性隱私權(quán)和自治性隱私權(quán)的原理出發(fā),目前各國(guó)法都傾向于認(rèn)可個(gè)人對(duì)其隱私信息享有控制權(quán)和自決權(quán),公眾也想將隱私信息擁有權(quán)握在自己的手中。但因此類(lèi)數(shù)據(jù)信息具有虛擬性、廣泛性和可復(fù)制性等特點(diǎn),個(gè)人幾乎無(wú)法采取如控制土地、企業(yè)的方式來(lái)管控?cái)?shù)據(jù)信息。相反,個(gè)人隱私權(quán)的命運(yùn)實(shí)際上只能由互聯(lián)網(wǎng)巨頭企業(yè)、政府來(lái)決定。而政府和企業(yè)往往容易實(shí)現(xiàn)強(qiáng)強(qiáng)聯(lián)合,以利用個(gè)人數(shù)據(jù)信息達(dá)至各取所需之目的,這就使得現(xiàn)行隱私權(quán)保護(hù)理論和制度在大數(shù)據(jù)、人工智能技術(shù)面前顯得捉襟見(jiàn)肘,其局限性愈發(fā)顯著,具體表現(xiàn)為:
一是現(xiàn)行法律中所采用的隱私控制理論功能衰微。今天,隨著互聯(lián)網(wǎng)+大數(shù)據(jù)技術(shù)的深度發(fā)展,一個(gè)以“萬(wàn)物互聯(lián),人人在線,事事算法”為特征的人工智能時(shí)代即將來(lái)臨[26]。故在人工智能面前,無(wú)論是知情同意原則,還是匿名化或模糊化處理的隱私保護(hù)模式都將面臨困境[27]。作為“隱私例外”法律基礎(chǔ)的“匿名化”處理規(guī)則,將因?yàn)樽矌?kù)和大數(shù)據(jù)等再識(shí)別技術(shù)的應(yīng)用而難以奏效。以美國(guó)在線隱私再識(shí)別案為例,行為人通過(guò)撞庫(kù)技術(shù)使用戶代碼與“如何殺死你的妻子”“死者照片”及“撞車(chē)照片”等聯(lián)系起來(lái)[28]。可見(jiàn),這種再識(shí)別技術(shù)實(shí)則突破了匿名化技術(shù)的限制。雖然現(xiàn)行法試圖將控制理論作為隱私權(quán)保護(hù)的核心,以此凸顯自然人的權(quán)利主體地位,但該理論的缺陷也顯而易見(jiàn),其適用價(jià)值僅限于隱私信息的采集和初用階段,對(duì)于后續(xù)隱私信息的再挖掘和復(fù)次利用,自然人的控制力便難以實(shí)現(xiàn)。因此,隱私控制理論的實(shí)踐價(jià)值在人工智能時(shí)代將被持續(xù)弱化。由此,人工智能時(shí)代的隱私保護(hù)規(guī)則強(qiáng)調(diào)的重點(diǎn)不應(yīng)是信息收集之時(shí)的知情同意規(guī)則,而應(yīng)重點(diǎn)規(guī)制處理者后續(xù)可能的侵權(quán)行為及責(zé)任承擔(dān)問(wèn)題。因?yàn)椤巴狻倍鄷?huì)被視為個(gè)人授權(quán)和允許企業(yè)再度利用其隱私數(shù)據(jù)的合理性基礎(chǔ),但同意之后個(gè)人基本無(wú)力控制其隱私數(shù)據(jù),更無(wú)法享有這些數(shù)據(jù)所帶來(lái)的財(cái)產(chǎn)權(quán)益。
二是人工智能技術(shù)控制隱私的能力增強(qiáng),使人類(lèi)活動(dòng)無(wú)處不在監(jiān)控中。無(wú)人駕駛汽車(chē)智能系統(tǒng)利用傳感器和處理器,極大地增加對(duì)使用者隱私的監(jiān)控能力。其在不斷收集個(gè)人數(shù)據(jù)的同時(shí),借助圖像識(shí)別技術(shù),車(chē)身內(nèi)外的數(shù)字?jǐn)z像頭就像安裝了大腦的眼睛一樣,可以精準(zhǔn)地從人群中自動(dòng)識(shí)別人臉,鎖定監(jiān)控對(duì)象,甚至預(yù)測(cè)和判斷人的行為[29]。如此一來(lái),汽車(chē)作為使用者私密空間的“人設(shè)”已被徹底打破,我們的個(gè)人隱私數(shù)據(jù)時(shí)刻在被不斷侵蝕。盡管人工智能的強(qiáng)預(yù)判力確有可能讓人類(lèi)社會(huì)變得更安全和高效,但是“未來(lái)一切被預(yù)測(cè)”正在漸次蠶食人們自主決策和判斷的能力。質(zhì)言之,人工智能在服務(wù)于人類(lèi)的同時(shí),亦在不斷要求我們放棄或讓渡個(gè)人信息,放棄人類(lèi)固有的基本權(quán)利,人類(lèi)面臨逐漸喪失自我的風(fēng)險(xiǎn)。
三是自動(dòng)化決策尚未明確信息處理的邊界,隱私信息與一般個(gè)人信息被一體化采集。在無(wú)人駕駛領(lǐng)域,算法的自動(dòng)化決策使得隱私信息采集呈常態(tài)化。如谷歌公司曾經(jīng)宣稱(chēng)其自主生產(chǎn)的無(wú)人駕駛汽車(chē)采集了高達(dá)10 億的仿真數(shù)據(jù)和350 萬(wàn)英里的路測(cè)數(shù)據(jù)。這些數(shù)據(jù)中必然包括隱私信息和個(gè)人信息。換言之,這種通過(guò)算法的自動(dòng)化決策所作出的信息采集行為,并不會(huì)自動(dòng)識(shí)別和區(qū)分隱私和個(gè)人信息,進(jìn)而會(huì)導(dǎo)致隱私與個(gè)人信息被一體化處理。這里引發(fā)的問(wèn)題是:無(wú)人駕駛汽車(chē)的運(yùn)行需要人們最大限度讓渡個(gè)人信息,人們提供的信息越全面,汽車(chē)的智能化水平會(huì)越高,也更能為人類(lèi)提供個(gè)性化服務(wù),但與此同時(shí)也會(huì)加重個(gè)人被透明化的風(fēng)險(xiǎn)。隱私和個(gè)人信息的有效保護(hù)與合理利用之間的沖突難以協(xié)調(diào)。而依照我國(guó)《民法典》和《個(gè)人信息保護(hù)法》( 草案) 的相關(guān)規(guī)定,隱私權(quán)作為一項(xiàng)法定人格權(quán),其受法律的保護(hù)程度要強(qiáng)于普通的個(gè)人信息。自然人對(duì)其隱私利益具有完全自主的支配性,以排除任何組織和個(gè)人的侵害、妨礙。故法律并未規(guī)定對(duì)“隱私權(quán)”的合理使用規(guī)則。而對(duì)于個(gè)人信息,其受保護(hù)的程度則不如隱私權(quán)那樣嚴(yán)格,需要考慮信息利用與信息自由之間的平衡,考慮公共利益的限制等因素。但就無(wú)人駕駛汽車(chē)運(yùn)行過(guò)程中的信息處理來(lái)看,實(shí)際上所采取的是“一攬子”同意的方式,打包收集和處理個(gè)人的一般信息和敏感信息,包括姓名、住址、電話號(hào)碼、行蹤信息、健康信息、生物識(shí)別信息等多種類(lèi)型。其中,諸如車(chē)內(nèi)人員生物識(shí)別信息、健康信息、親密行為等應(yīng)當(dāng)屬于敏感個(gè)人信息( 甚至是隱私信息) 的范疇,而且與無(wú)人駕駛汽車(chē)運(yùn)行并非必然相關(guān),但亦會(huì)被智能錄音、錄像系統(tǒng)自動(dòng)作一體化處理。這種一并采集車(chē)內(nèi)人員健康信息等隱私信息的行為,顯然超出了“自動(dòng)駕駛”所必須的信息處理界限,亦違背了法律關(guān)于隱私信息與一般個(gè)人信息區(qū)分保護(hù)的規(guī)則,自然亦會(huì)增加隱私及個(gè)人信息被侵害的風(fēng)險(xiǎn)。
四是隱私權(quán)受侵害后的司法救濟(jì)乏力。一般而言,無(wú)人駕駛汽車(chē)智能系統(tǒng)對(duì)個(gè)人隱私數(shù)據(jù)的收集和利用是循環(huán)反復(fù)的過(guò)程,其對(duì)個(gè)人隱私權(quán)的侵權(quán)更多體現(xiàn)在“量”上而非“質(zhì)”上,智能系統(tǒng)后臺(tái)將成為大量隱私信息的載體。這種通過(guò)大數(shù)據(jù)技術(shù)的特殊侵權(quán)行為給司法實(shí)踐造成的困境是: 第一,集體行動(dòng)難題導(dǎo)致司法程序啟動(dòng)難度劇增。因?yàn)槊總€(gè)普通人基本都是善于功利計(jì)算的“理性人”,在面臨集體損害的情況下,“觀望”“搭便車(chē)”的心態(tài)使得權(quán)利救濟(jì)變得艱難。這同時(shí)也會(huì)反向助長(zhǎng)侵權(quán)人的侵權(quán)行為。第二,舉證難度系數(shù)大。根據(jù)現(xiàn)行舉證規(guī)則,“誰(shuí)主張、誰(shuí)舉證”幾乎無(wú)法實(shí)現(xiàn)。個(gè)人想在人工智能技術(shù)面前收集證據(jù)基本無(wú)能為力,因?yàn)榫W(wǎng)絡(luò)侵權(quán)的隱秘性、高度技術(shù)性是個(gè)人無(wú)法掌控的,個(gè)人隱私數(shù)據(jù)悄無(wú)聲息地被侵害后,我們還必須請(qǐng)求侵權(quán)人提供相關(guān)的侵權(quán)證據(jù),也即要求侵權(quán)人提供對(duì)己方不利的證據(jù),這在實(shí)踐中其實(shí)行不通。第三,受害人難以確定其實(shí)際損失。在理論上,遭受隱私侵權(quán)會(huì)“損害人們精神上的安寧與舒適,且有可能造成比單純?nèi)怏w傷害更加尖銳的痛苦”[30]。但如何計(jì)算這種損失,可否對(duì)侵權(quán)人適用“懲罰性賠償”規(guī)則尚存爭(zhēng)議。此外,這種大數(shù)據(jù)侵權(quán)行為該如何計(jì)算每一個(gè)個(gè)體所受損害也存在難題。綜上,隱私權(quán)受侵害后的司法救濟(jì)困難重重。
以上困境和局限性提醒我們,人工智能技術(shù)給隱私權(quán)帶來(lái)的風(fēng)險(xiǎn)能否被有效治理,能否通過(guò)立法來(lái)促進(jìn)智能技術(shù)發(fā)展和保護(hù)個(gè)人隱私相平衡,已成我國(guó)法律所亟待解決的難題。隱私和隱私權(quán)塑造了我們稱(chēng)為“自我”的標(biāo)識(shí),是人格尊嚴(yán)和人身自由的基本元素,作為自我界定和個(gè)人發(fā)展的一項(xiàng)基本要件。因此,面對(duì)現(xiàn)實(shí)中隱私權(quán)保護(hù)的種種不足,國(guó)家不能再保持純粹中立的立場(chǎng),且有義務(wù)規(guī)范自己和監(jiān)督企業(yè)對(duì)個(gè)人數(shù)據(jù)的處理行為,以有效保護(hù)如此重要的信息自決權(quán)。此外,企業(yè)與行業(yè)組織更不能袖手旁觀,亟需合力共同保障個(gè)人隱私安全。可供參考的隱私權(quán)保護(hù)進(jìn)路如下。
1.現(xiàn)行民法關(guān)于隱私權(quán)的規(guī)制及其瑕疵。我國(guó)屬于典型的成文法國(guó)家,某一權(quán)利能夠?yàn)榉伤J(rèn)可,以至被稱(chēng)為“××權(quán)”,最為直接的路徑系以立法的形式設(shè)立[31]。隱私權(quán)的演進(jìn)歷程充分體現(xiàn)了這一點(diǎn),我國(guó)最早通過(guò)類(lèi)推保護(hù)隱私的方法,在《民法通則》尚未規(guī)定隱私及隱私權(quán)概念之背景下,最高人民法院制定的《民通意見(jiàn)》第一百四十條就規(guī)定:“以書(shū)面、口頭等形式宣揚(yáng)他人的隱私,或者捏造事實(shí)公然丑化他人人格,以及用侮辱、誹謗等方式損害他人名譽(yù),造成一定影響的,應(yīng)當(dāng)認(rèn)定為侵害公民名譽(yù)權(quán)的行為?!边@表明,當(dāng)個(gè)人隱私受到侵害時(shí),可以提起名譽(yù)權(quán)侵權(quán)之訴予以救濟(jì)。司法機(jī)關(guān)通過(guò)這種類(lèi)推方法的適用來(lái)克服《民法通則》立法的局限性。此外,最高人民法院還通過(guò)創(chuàng)設(shè)轉(zhuǎn)介條款來(lái)解決隱私保護(hù)問(wèn)題,其在2001 年制定的《精神損害賠償司法解釋》第一條中確立了侵害他人隱私可參照其他人格利益受侵害時(shí)主張精神損害賠償?shù)囊?guī)則。而關(guān)于隱私權(quán)的正式立法確認(rèn)則是由《侵權(quán)責(zé)任法》來(lái)完成的,該法在第二條第二款明確了隱私權(quán)屬于民事主體的一項(xiàng)獨(dú)立的民事權(quán)益。直至2017 年,隱私權(quán)才在《民法總則》中被明文規(guī)定為一項(xiàng)完整的民事權(quán)利??梢?jiàn),隱私權(quán)在我國(guó)的法定化之路用了近30 年時(shí)間,嚴(yán)格意義上講,隱私權(quán)在《民法總則》中才真正取得了權(quán)利的名分。
需注意的是,《民法總則》第一百一十條關(guān)于隱私權(quán)的概括性規(guī)定,尚不足以應(yīng)對(duì)大數(shù)據(jù)、人工智能技術(shù)對(duì)隱私權(quán)的挑戰(zhàn)。對(duì)此,最新通過(guò)的《中華人民共和國(guó)民法典》( 簡(jiǎn)稱(chēng)《民法典》) 第一千零三十二條、一千零三十三條分別對(duì)自然人享有隱私權(quán)、隱私的含義以及侵害隱私的方式作出了具體規(guī)定。第一千零三十二條再度強(qiáng)調(diào)“任何組織或者個(gè)人不得以刺探、侵?jǐn)_、泄露、公開(kāi)等方式侵害他人的隱私權(quán)”。第一千零三十三條具體列舉了不得侵害隱私權(quán)的行為清單,從具體規(guī)定來(lái)看,立法更加注重隱私的私密性特征,將私密性的私人空間、私人活動(dòng)和私人信息等歸屬于隱私的范疇。同時(shí),個(gè)人身體私密部位、生活安寧亦屬于隱私權(quán)的保護(hù)范圍?!睹穹ǖ洹逢P(guān)于隱私權(quán)的規(guī)定,相較于以往民事立法或司法解釋而言有明顯的進(jìn)步意義,也反映出我國(guó)立法者一直為建構(gòu)一套完整的隱私權(quán)保護(hù)規(guī)則而作出的努力。但遺憾的是,《民法典·人格權(quán)編》并未正面列舉隱私權(quán)的保護(hù)范圍,對(duì)于公共場(chǎng)所的隱私、共同隱私、醫(yī)療健康隱私等也未作出回應(yīng)。侵權(quán)責(zé)任編也沒(méi)有專(zhuān)門(mén)設(shè)置隱私權(quán)的侵權(quán)救濟(jì)規(guī)則,加之隱私權(quán)的其他配套法律保護(hù)機(jī)制的不完備,在應(yīng)對(duì)大數(shù)據(jù)、人工智能技術(shù)所帶來(lái)的隱私風(fēng)險(xiǎn)時(shí)仍凸顯乏力。
2.隱私權(quán)保護(hù)之立法優(yōu)化進(jìn)路。針對(duì)無(wú)人駕駛汽車(chē)引發(fā)的隱私權(quán)挑戰(zhàn),筆者認(rèn)為,在民事立法層面,至少應(yīng)該盡可能為隱私權(quán)保護(hù)確立好基礎(chǔ)規(guī)則。面對(duì)現(xiàn)行立法存在的瑕疵,可以從如下方面予以改進(jìn)。首先,完善《民法典》中關(guān)于隱私權(quán)制度的立法解釋。既然我國(guó)立法者有意在民法典中設(shè)置人格權(quán)編,那就應(yīng)該盡可能詳盡地規(guī)定每一項(xiàng)具體人格權(quán)。就隱私權(quán)而言,面對(duì)民法典的規(guī)定可能出現(xiàn)的適用障礙,建議在條件成熟的時(shí)候通過(guò)立法解釋的方式予以補(bǔ)充完善。具體可將第一千零三十二條修訂為:“自然人享有隱私權(quán)。任何組織或者個(gè)人不得以刺探、收集、侵?jǐn)_、泄露、公開(kāi)或者使用他人的隱私。本法所稱(chēng)的隱私,是指?jìng)€(gè)人具有私密性的私人空間、私人活動(dòng)、私人生活和私人信息等”。因?yàn)樵谌斯ぶ悄軙r(shí)代,侵害隱私的方式除了“刺探、侵?jǐn)_、泄露、公開(kāi)”外,更多是收集和利用,此兩種行為最為典型,有必要予以明確規(guī)定。而立法在定義隱私時(shí)忽略了私人生活,更不能完全體現(xiàn)隱私的內(nèi)涵,應(yīng)當(dāng)在后續(xù)修法或立法解釋中予以補(bǔ)增。其次,需要新增“公共場(chǎng)所的隱私、共同隱私、醫(yī)療健康隱私”的保護(hù)條款,以充實(shí)現(xiàn)有的隱私權(quán)權(quán)利體系。在大數(shù)據(jù)和人工智能時(shí)代,隱私權(quán)的保護(hù)范圍應(yīng)當(dāng)及時(shí)更新,網(wǎng)絡(luò)侵害隱私權(quán)、無(wú)人駕駛汽車(chē)等人工智能產(chǎn)品的隱私權(quán)侵權(quán)不限于特定的私人場(chǎng)所,個(gè)人在公共場(chǎng)所也有合理的隱私期待,應(yīng)當(dāng)予以保護(hù)。同時(shí),醫(yī)療健康隱私受侵害的可能性較高,具有受保護(hù)的必要性和可行性。最后,需要調(diào)整隱私權(quán)侵權(quán)責(zé)任歸責(zé)原則。隱私及隱私權(quán)一旦被侵犯,無(wú)法恢復(fù)原狀,加上智能網(wǎng)絡(luò)侵權(quán)具有隱蔽性、強(qiáng)技術(shù)性,難以舉證,此類(lèi)侵權(quán)宜采取過(guò)錯(cuò)推定原則,以便更好保護(hù)個(gè)人隱私。同時(shí),侵權(quán)法還需進(jìn)一步強(qiáng)化隱私信息控制者、侵權(quán)人的法律責(zé)任。故在民法典體系下,通過(guò)在人格權(quán)編創(chuàng)設(shè)完備的隱私權(quán)制度體系,在侵權(quán)責(zé)任編設(shè)置侵權(quán)損害的救濟(jì)規(guī)則,以從私法基本法的視角為隱私權(quán)搭建完整有效的權(quán)利實(shí)現(xiàn)機(jī)制,讓個(gè)人真正能夠享受立法實(shí)惠,通過(guò)隱私權(quán)保護(hù)實(shí)現(xiàn)自我價(jià)值。
在人工智能時(shí)代,具備深度學(xué)習(xí)和決策功能的智能算法正在脫離人的控制而發(fā)展成為一種新興的技術(shù)權(quán)力,通過(guò)對(duì)海量數(shù)據(jù)的分析處理來(lái)影響和規(guī)范人的行為[32]。但算法偏見(jiàn)、算法歧視往往會(huì)導(dǎo)致算法偏離正義,對(duì)人類(lèi)科技和隱私信息安全均造成嚴(yán)重威脅。從人工智能安全的內(nèi)部視角出發(fā),對(duì)人工智能進(jìn)行規(guī)制的核心在于對(duì)其算法設(shè)計(jì)的規(guī)制[33]。無(wú)人駕駛汽車(chē)的算法還關(guān)系到公共交通與公民的人身安全,更需要進(jìn)行嚴(yán)格的規(guī)范。對(duì)此,筆者認(rèn)為具體可采取如下規(guī)制路徑。
一是通過(guò)立法實(shí)現(xiàn)對(duì)規(guī)范算法技術(shù)的規(guī)范控制。要實(shí)現(xiàn)對(duì)算法權(quán)力的有效規(guī)制,則需要以法律形式明晰算法在設(shè)計(jì)、部署和應(yīng)用的整個(gè)生命周期中所應(yīng)遵守的技術(shù)規(guī)范,以算法行為的合規(guī)性實(shí)現(xiàn)算法可信[34]。例如,可將算法的技術(shù)性規(guī)范、倫理要求等均上升為法律規(guī)范,以法律的強(qiáng)制力來(lái)限制“算法權(quán)力”的任性,以確保算法的透明度、公正性。比較法上,歐盟立法率先對(duì)數(shù)據(jù)控制者自動(dòng)處理個(gè)人數(shù)據(jù)信息的行為作出明確要求,其在《通用數(shù)據(jù)保護(hù)條例》序言中明確規(guī)定:“數(shù)據(jù)控制者對(duì)數(shù)據(jù)的自動(dòng)處理應(yīng)當(dāng)符合適當(dāng)?shù)谋U洗胧?。這些措施包括:向數(shù)據(jù)主體提供特定信息,并且有權(quán)要求人為干預(yù),表達(dá)自己的觀點(diǎn),獲得對(duì)經(jīng)評(píng)估所獲決定的解釋?zhuān)⒂袡?quán)挑戰(zhàn)自動(dòng)決策程序做出的決定。”可見(jiàn),歐盟立法實(shí)際上在致力于明確數(shù)據(jù)控制者的算法透明義務(wù),以化解人們的“算法黑箱”隱憂。
二是明確算法自主決策的應(yīng)用范圍和限制條件。具體而言,首先需要限制算法決策的適用領(lǐng)域,即立法有必要明確算法應(yīng)用的邊界。例如,《歐盟通用數(shù)據(jù)保護(hù)條例》第22 條( 1) 規(guī)定,如果算法決策對(duì)數(shù)據(jù)主體有法律效力或者重大影響,那么這種決策不應(yīng)純粹由算法作出。我國(guó)《個(gè)人信息保護(hù)法》( 草案) 第二十五條也規(guī)定:“通過(guò)自動(dòng)化決策方式作出對(duì)個(gè)人權(quán)益有重大影響的決定,個(gè)人有權(quán)要求個(gè)人信息處理者予以說(shuō)明,并有權(quán)拒絕個(gè)人信息處理者僅通過(guò)自動(dòng)化決策的方式作出決定?!贝送?,還需要明確限制算法自動(dòng)化處理個(gè)人信息的范圍。過(guò)度收集和處理個(gè)人信息,會(huì)徒增個(gè)人信息被濫用的風(fēng)險(xiǎn),故需要明確信息自動(dòng)化處理的邊界。在無(wú)人駕駛領(lǐng)域,與車(chē)輛運(yùn)營(yíng)無(wú)關(guān)的隱私信息( 如車(chē)內(nèi)人員的健康信息、私密談話等) 不應(yīng)當(dāng)被一并采集。這就要求算法設(shè)計(jì)者在進(jìn)行初始設(shè)計(jì)時(shí)就應(yīng)當(dāng)嚴(yán)格按照法律的規(guī)定進(jìn)行技術(shù)設(shè)置,使其在進(jìn)行信息處理時(shí)自動(dòng)過(guò)濾掉與運(yùn)行無(wú)關(guān)的個(gè)人信息。對(duì)此,《個(gè)人信息保護(hù)法》( 草案) 第六條也明確要求信息處理者“處理個(gè)人信息應(yīng)當(dāng)具有明確、合理的目的,并應(yīng)當(dāng)限于實(shí)現(xiàn)處理目的所必要的最小范圍、采取對(duì)個(gè)人權(quán)益影響最小的方式,不得進(jìn)行與處理目的無(wú)關(guān)的個(gè)人信息處理?!?/p>
三是規(guī)范算法的問(wèn)責(zé)機(jī)制。算法的問(wèn)責(zé)包括如下兩方面內(nèi)涵:其一是指算法使用者或者控制者有義務(wù)報(bào)告并證明算法系統(tǒng)設(shè)計(jì)和決策應(yīng)用的合理性,并有義務(wù)減輕算法可能帶來(lái)的任何負(fù)面影響或者潛在危害,這是從外部監(jiān)管的邏輯進(jìn)行算法治理;其二是指算法相關(guān)主體就其不當(dāng)行為以及算法執(zhí)行中產(chǎn)生的損害承擔(dān)相應(yīng)的法律責(zé)任[35],此為以責(zé)任分配的邏輯進(jìn)行算法治理。從比較法層面看,美國(guó)部分州已開(kāi)啟了算法問(wèn)責(zé)的立法進(jìn)程。例如,紐約早在2017 年12 月18 日就通過(guò)了美國(guó)立法史上首部針對(duì)公用事業(yè)領(lǐng)域的算法問(wèn)責(zé)法案(6)The New York City Council,“Algorithmic Accountability Bill”,https: //legistar. council. nyc. gov/LegislationDetail. aspx? ID =3137815&GUID=437A6A6D-62E1-47E2-9C42-461253F9C6D0,2021-05-22.。該法基本建立了算法問(wèn)責(zé)的核心治理框架,明確將自動(dòng)化決策、算法輔助決策以及支持決策的情形納入規(guī)制對(duì)象,并規(guī)定算法問(wèn)責(zé)制的適用主體為使用自動(dòng)化決策系統(tǒng)的行政機(jī)構(gòu)以及慈善組織,實(shí)施主體自動(dòng)化決策工作組。2019 年4 月,在美國(guó)國(guó)會(huì)議員所提出的“算法問(wèn)責(zé)法案”中,擬對(duì)每年收入超過(guò)5000 萬(wàn)美元、持有100 萬(wàn)人或者設(shè)備信息的公司或者主要作為買(mǎi)賣(mài)消費(fèi)者數(shù)據(jù)的數(shù)據(jù)經(jīng)紀(jì)人公司實(shí)行審查。該法案希望通過(guò)聯(lián)邦貿(mào)易委員會(huì)制定評(píng)估“高度敏感性”自動(dòng)化決策的規(guī)則,以評(píng)估該系統(tǒng)是否存在偏見(jiàn)或者歧視,以及是否對(duì)消費(fèi)者隱私或者安全存在風(fēng)險(xiǎn)(7)Adi Robertson,“A New Bill Would Force Companies to Check Their Algorithms for Bias”,https: //www.theverge.com/2019/4/10/18304960/congress-algorithmic-accountability-act-wyden-clarke-booker-bill-introduced-house-senate,2021-05-22.??梢?jiàn),前述兩個(gè)問(wèn)責(zé)法案雖然規(guī)制對(duì)象有所不同,但均主張建立算法問(wèn)責(zé)機(jī)制,尋求通過(guò)外部監(jiān)管的形式來(lái)進(jìn)行算法治理,以限制算法權(quán)力的擴(kuò)張或異化。而從我國(guó)《個(gè)人信息保護(hù)法》( 草案) 的相關(guān)規(guī)定來(lái)看,其在第五章規(guī)定了“個(gè)人信息處理者義務(wù)”,僅涉及個(gè)人信息處理者的安全保障義務(wù)( 第五十一條) 、風(fēng)險(xiǎn)評(píng)估義務(wù)( 第五十五條) 、及時(shí)通知義務(wù)( 第五十六條) 以及對(duì)個(gè)人信息處理活動(dòng)的監(jiān)督義務(wù)( 第五十七條) 。在第七章的“法律責(zé)任”中,主要規(guī)定的是行政責(zé)任( 第六十五條) 以及民事賠償責(zé)任( 第六十八條) 。但并未對(duì)“算法的問(wèn)責(zé)”機(jī)制問(wèn)題作出明確回應(yīng),第二十五條雖然對(duì)利用個(gè)人信息進(jìn)行自動(dòng)化決策的問(wèn)題作了原則性規(guī)定,但并未對(duì)如何“保證決策的透明度和結(jié)果公平合理”的問(wèn)題作進(jìn)一步細(xì)化。從有效規(guī)制“算法權(quán)力”的視角來(lái)看,我國(guó)未來(lái)的立法也應(yīng)建立算法的問(wèn)責(zé)機(jī)制,以從源頭上解決算法正義問(wèn)題。
在技術(shù)面前,法律永遠(yuǎn)具有滯后性。以往的侵權(quán)法立法較多注重?fù)p害賠償,較少關(guān)注如何預(yù)防損害。在我國(guó),網(wǎng)絡(luò)時(shí)代的隱私權(quán)保護(hù)正在經(jīng)歷著“先損害—后補(bǔ)救”之過(guò)程。面對(duì)大數(shù)據(jù)、人工智能技術(shù)給隱私權(quán)保護(hù)帶來(lái)的風(fēng)險(xiǎn)挑戰(zhàn),包括立法者、司法機(jī)關(guān)、隱私專(zhuān)家、政府和互聯(lián)網(wǎng)企業(yè)在內(nèi)的社會(huì)各界普遍意識(shí)到僅僅依靠單一的法律手段來(lái)對(duì)隱私進(jìn)行保護(hù)難以達(dá)到理想效果,技術(shù)難題還需要強(qiáng)有力的技術(shù)手段來(lái)攻克。因此,尋求隱私權(quán)的技術(shù)保護(hù)路徑,注重法律與技術(shù)的融貫成為隱私權(quán)保護(hù)的又一重要策略。因我國(guó)隱私保護(hù)的技術(shù)措施還處于初級(jí)階段,故可借鑒域外先進(jìn)經(jīng)驗(yàn)為我所用。具體而言,可從目前國(guó)際上認(rèn)可的隱私設(shè)計(jì)理論入手解決人工智能時(shí)代的隱私權(quán)保護(hù)。在比較法上,隱私設(shè)計(jì)理論主要體現(xiàn)在如下方面。
一是強(qiáng)化從設(shè)計(jì)著手隱私理念( Privacy by Design,簡(jiǎn)稱(chēng)PbD) 。該理念認(rèn)為:只有從一開(kāi)始就依照隱私保護(hù)的需求設(shè)計(jì)和開(kāi)發(fā)數(shù)據(jù)處理產(chǎn)品、程序和技術(shù),才能使數(shù)據(jù)保護(hù)更加容易實(shí)施。在PbD 理念下,隱私權(quán)保護(hù)成為了數(shù)據(jù)開(kāi)發(fā)和人工智能產(chǎn)品設(shè)計(jì)的關(guān)鍵問(wèn)題,而非附屬問(wèn)題。有鑒于此,2010 年第32 屆數(shù)據(jù)保護(hù)和隱私專(zhuān)員國(guó)際大會(huì)一致通過(guò)了《隱私設(shè)計(jì)解決方案》,明確將隱私設(shè)計(jì)理論作為未來(lái)隱私保護(hù)至關(guān)重要的部分。當(dāng)前,隱私設(shè)計(jì)理論已被美國(guó)、歐盟立法以及谷歌等互聯(lián)網(wǎng)巨頭企業(yè)所接受[36]。國(guó)外有學(xué)者提出了隱私設(shè)計(jì)需遵循的七項(xiàng)基本原則: 一是積極預(yù)防,而非被動(dòng)補(bǔ)救; 二是將隱私保護(hù)作為默認(rèn)需求;三是將隱私嵌入智能系統(tǒng)的設(shè)計(jì)中;四是完整功能——正和而非零和;五是整個(gè)生命周期的安全保護(hù)機(jī)制;六是可見(jiàn)性和透明性;七是尊重用戶隱私,確保以用戶為中心[37]。此外,依照《人工智能倫理與數(shù)據(jù)保護(hù)宣言》之規(guī)定,任何人工智能系統(tǒng)的創(chuàng)建、開(kāi)發(fā)和使用都必須尊重人權(quán),保護(hù)個(gè)人數(shù)據(jù)和隱私權(quán)以及人格尊嚴(yán)不受侵犯的權(quán)利,并確立了公平、責(zé)任、透明度、倫理設(shè)計(jì)、公眾參與以及非歧視性六項(xiàng)基本原則。據(jù)此,無(wú)人駕駛汽車(chē)的設(shè)計(jì)者在對(duì)智能系統(tǒng)的設(shè)計(jì)時(shí)就需謹(jǐn)遵上述基本原則,應(yīng)當(dāng)注重從源頭上解決隱私權(quán)保護(hù)問(wèn)題,尤其需要將倫理規(guī)則設(shè)置在智能系統(tǒng)中,以確保人類(lèi)能有效控制和理解人工智能系統(tǒng),在人機(jī)關(guān)系中永遠(yuǎn)保證人的主動(dòng)權(quán),如此方能充分實(shí)現(xiàn)個(gè)人隱私權(quán)的技術(shù)保障功能。
二是注重隱私增強(qiáng)技術(shù)的應(yīng)用。網(wǎng)絡(luò)侵權(quán)具有較強(qiáng)的技術(shù)性,運(yùn)用隱私增強(qiáng)技術(shù)可在一定程度上解決這種技術(shù)性障礙,以彌補(bǔ)法律保護(hù)隱私之不足。所謂隱私增強(qiáng)技術(shù),是指可用于增強(qiáng)用戶隱私信息保護(hù)的技術(shù),包括編碼、加密、防火墻、匿名通訊技術(shù)等(8)G.W.van Blarkom,J.J.Borking,J.G.E.Olk.Handbook of Privacy and Privacy-Enhancing Technologies: The Case of Intelligent Software Agents.College bescherming persoonsgegevens,2003:33.。實(shí)踐中,通過(guò)對(duì)個(gè)人隱私數(shù)據(jù)作匿名化處理,讓數(shù)據(jù)收集者、使用者不能輕易通過(guò)數(shù)據(jù)分析來(lái)識(shí)別與之相匹配的個(gè)人,以達(dá)限制識(shí)別之目的。如《德國(guó)聯(lián)邦數(shù)據(jù)保護(hù)法》就明確規(guī)定了匿名和化名處理規(guī)則,該法第3 條第6 款規(guī)定,匿名處理是指修改個(gè)人數(shù)據(jù)以使有關(guān)私人或事實(shí)情況的個(gè)人信息無(wú)法與已識(shí)別的或者可識(shí)別出的自然人相對(duì)應(yīng),或者該對(duì)應(yīng)需要付出大量成本;化名處理是指用符號(hào)代替姓名和其他可識(shí)別出的特征,以排除識(shí)別數(shù)據(jù)主體的可能性或者使這種識(shí)別變得非常困難[38]。對(duì)于匿名化等隱私增強(qiáng)技術(shù)的運(yùn)用,既可以保護(hù)個(gè)人的隱私數(shù)據(jù),又有助于社會(huì)聚焦大數(shù)據(jù)。目前在法律不能完全有效保護(hù)隱私權(quán)的情形下,運(yùn)用技術(shù)方案是較為現(xiàn)實(shí)的選擇。但所有技術(shù)的運(yùn)用都蘊(yùn)含著風(fēng)險(xiǎn),如匿名化技術(shù)面臨反匿名化的問(wèn)題,即黑客運(yùn)用技術(shù)手段可以實(shí)現(xiàn)匿名數(shù)據(jù)與主體真實(shí)身份的比對(duì),還有內(nèi)部人可以使用非公知的信息重新識(shí)別被匿名化的身份信息[39]。對(duì)此,有學(xué)者提出可以聯(lián)合采用“匿名化技術(shù)措施和行政管理措施”保護(hù)數(shù)據(jù)主體的隱私[40]。一方面,加強(qiáng)企業(yè)的內(nèi)部控制,如運(yùn)用隱私安全政策、保密協(xié)議、限制接觸等內(nèi)部措施防止泄露隱私;另一方面,重視外部控制和法律保護(hù),通過(guò)行政手段和法律手段來(lái)保護(hù)個(gè)人隱私,以降低潛在的侵權(quán)人侵害隱私權(quán)的可能性。當(dāng)然,這些技術(shù)要發(fā)揮實(shí)際效用,還得從設(shè)計(jì)理念入手,即將隱私嵌入設(shè)計(jì)理念與具體方案中才得以奏效。
由上可知,在以無(wú)人駕駛汽車(chē)為代表的人工智能領(lǐng)域,對(duì)于隱私權(quán)的保護(hù)需要采取風(fēng)險(xiǎn)預(yù)防、技術(shù)補(bǔ)強(qiáng)和法律規(guī)制的有效結(jié)合,以克服以往“告知—同意”機(jī)制的不足,讓隱私信息的管理者、信息主體參與到生產(chǎn)企業(yè)運(yùn)作和個(gè)人隱私保護(hù)的全過(guò)程,有助于提升汽車(chē)生產(chǎn)商、網(wǎng)絡(luò)經(jīng)營(yíng)者對(duì)個(gè)人隱私保護(hù)的能力和主動(dòng)性。法律在此過(guò)程中則更需注重平衡各種價(jià)值的實(shí)現(xiàn),即其制度設(shè)計(jì)更應(yīng)該關(guān)注個(gè)人隱私保護(hù)與適應(yīng)新興技術(shù)變遷之間的利益衡量。
在法律制度尚不完備之時(shí),除了通過(guò)技術(shù)措施解決隱私保護(hù)難題外,通過(guò)規(guī)范行業(yè)自律規(guī)則發(fā)揮企業(yè)自我規(guī)制功能,亦是解決隱私數(shù)據(jù)保護(hù)困境的有效路徑。在實(shí)踐中,行業(yè)規(guī)則對(duì)市場(chǎng)行為的規(guī)范作用不容小視,其有利于企業(yè)對(duì)數(shù)據(jù)的收集與利用,以及整個(gè)人工智能產(chǎn)業(yè)的發(fā)展。因?yàn)槿绻麛?shù)據(jù)開(kāi)發(fā)和利用是建立在尊重和保護(hù)用戶隱私基礎(chǔ)之上的,這將極大提升用戶對(duì)該行業(yè)及產(chǎn)品的認(rèn)同感和信任值。就無(wú)人駕駛汽車(chē)而言,其本身的功能顯著,加之其生產(chǎn)者能夠發(fā)揮自我規(guī)制的功效,這會(huì)加速無(wú)人駕駛汽車(chē)的市場(chǎng)占有率,促進(jìn)整個(gè)產(chǎn)業(yè)的健康發(fā)展。實(shí)際上,這一做法旨在發(fā)揮市場(chǎng)在隱私保護(hù)中的規(guī)制作用。無(wú)論是人工智能機(jī)器人,還是無(wú)人駕駛汽車(chē)最終都要投入市場(chǎng)應(yīng)用,只有在具體應(yīng)用中才會(huì)出現(xiàn)相應(yīng)的隱私權(quán)侵權(quán)行為。故市場(chǎng)也應(yīng)當(dāng)成為隱私權(quán)保護(hù)的前沿陣地。對(duì)此張民安教授早有洞見(jiàn):“非官方手段在個(gè)人隱私權(quán)保護(hù)方面往往更加高效、敏感。這在具體實(shí)踐中已獲證實(shí)——通過(guò)科技手段、市場(chǎng)、行業(yè)自律、企業(yè)競(jìng)爭(zhēng)以及個(gè)人判斷,人們可以獲得相當(dāng)周全的隱私權(quán)保護(hù)[41]?!睘樘嵘袌?chǎng)公信力,數(shù)據(jù)巨頭企業(yè)們開(kāi)發(fā)出“隱私增強(qiáng)技術(shù)”,以注重自身產(chǎn)品的安全性。同時(shí),這些企業(yè)往往會(huì)在法律出臺(tái)之前先行制定行業(yè)規(guī)則的做法已成慣例。此外,企業(yè)還通過(guò)不斷修訂和改進(jìn)自身的“隱私政策”來(lái)有針對(duì)性地保護(hù)個(gè)人隱私。例如,2018 年5 月25 日,谷歌公司在全球范圍內(nèi)同時(shí)發(fā)布了多語(yǔ)種的最新版隱私政策,以應(yīng)對(duì)當(dāng)日正式生效實(shí)施的歐盟《通用數(shù)據(jù)保護(hù)條例》。該新版隱私政策對(duì)上述條例中確立的企業(yè)所需遵守的基本原則進(jìn)行細(xì)化,將不利于個(gè)人信息保護(hù)的舊政策予以改進(jìn)。如在目的限定原則方面,新政策較為詳細(xì)地解釋了企業(yè)為何收集信息,力求將收集個(gè)人信息的目的“具體、明確”地告知用戶,并承諾將用戶信息用于企業(yè)隱私政策未涵蓋的用途時(shí)事先征求用戶同意,以滿足目的限制的要求[42]??梢?jiàn),企業(yè)作為精于計(jì)算的理性人,往往更能了解用戶的需求,熟悉產(chǎn)品的缺陷和可能的風(fēng)險(xiǎn),通過(guò)發(fā)揮行業(yè)自律的作用,從而在一定程度上率先保護(hù)個(gè)人隱私,提升企業(yè)自身競(jìng)爭(zhēng)力。
在大數(shù)據(jù)、人工智能時(shí)代,個(gè)人隱私數(shù)據(jù)的商品化價(jià)值愈發(fā)突出,個(gè)人信息正在被視為當(dāng)代商業(yè)領(lǐng)域的“新石油”,企業(yè)可憑大數(shù)據(jù)分析知曉消費(fèi)者的消費(fèi)行為,同時(shí)也進(jìn)行商品與服務(wù)的營(yíng)銷(xiāo)。數(shù)據(jù)產(chǎn)業(yè)中的經(jīng)營(yíng)者,可通過(guò)對(duì)收集的海量個(gè)人數(shù)據(jù)分析與獨(dú)占獲利,且還主張對(duì)其收集和儲(chǔ)存的個(gè)人數(shù)據(jù)信息享有財(cái)產(chǎn)權(quán)[43]。正如尤瓦爾·赫拉利教授所言:“到21 世紀(jì),數(shù)據(jù)的重要性會(huì)超過(guò)土地和機(jī)器而成為最重要的資產(chǎn)”[44]。對(duì)于無(wú)人駕駛汽車(chē)制造商及網(wǎng)絡(luò)服務(wù)商而言,收集數(shù)據(jù)或許比現(xiàn)實(shí)獲利更重要??梢?jiàn),隱私數(shù)據(jù)具有財(cái)產(chǎn)價(jià)值自不待言。在數(shù)據(jù)經(jīng)濟(jì)高度發(fā)達(dá)的今天,隱私信息往往被作為大數(shù)據(jù)交易中的基本元素來(lái)對(duì)待,隱私權(quán)的財(cái)產(chǎn)屬性愈發(fā)突出,這主要表現(xiàn)為:一是直接將隱私作為商品進(jìn)行交易;二是透過(guò)大數(shù)據(jù)分析不斷挖掘隱私信息中蘊(yùn)含的經(jīng)濟(jì)元素。誠(chéng)如波斯納所言:“個(gè)人隱私已經(jīng)成為商品市場(chǎng)中的無(wú)形資產(chǎn),成為一種經(jīng)濟(jì)利益的中間產(chǎn)品,其目的在于促進(jìn)社會(huì)財(cái)富的最大化”[45]。故而,個(gè)人對(duì)其隱私中的財(cái)產(chǎn)價(jià)值應(yīng)享有受法律保護(hù)的權(quán)益,個(gè)人有權(quán)交易其隱私信息以彌補(bǔ)其所受損失從而促進(jìn)個(gè)人信息市場(chǎng)公平運(yùn)作的實(shí)現(xiàn)。
有鑒于此,筆者認(rèn)為,在隱私財(cái)產(chǎn)權(quán)的具體實(shí)現(xiàn)路徑方面,首先要明確隱私財(cái)產(chǎn)權(quán)的歸屬問(wèn)題。即在確定個(gè)人隱私信息具有可交易性的前提下,關(guān)鍵還須明確誰(shuí)是真正的財(cái)產(chǎn)所有權(quán)人。在目前的實(shí)踐中,通常都是數(shù)據(jù)企業(yè)通過(guò)一紙“隱私協(xié)議”免費(fèi)獲取個(gè)人隱私信息后擅自進(jìn)行各種交易,從中攫取財(cái)產(chǎn)利益,個(gè)人根本無(wú)法享受后續(xù)交易的利益。此種做法只關(guān)注所謂企業(yè)的數(shù)字經(jīng)濟(jì),對(duì)真正數(shù)據(jù)提供者則置之不理,這對(duì)于個(gè)人而言是明顯不公平的。因此,應(yīng)當(dāng)明確個(gè)人作為隱私財(cái)產(chǎn)權(quán)的初始主體,明確二次交易的產(chǎn)權(quán)分配規(guī)則,兼顧數(shù)據(jù)經(jīng)濟(jì)發(fā)展與個(gè)人隱私保護(hù)。其次,應(yīng)當(dāng)建立個(gè)人隱私信息的有償使用機(jī)制。既然數(shù)據(jù)對(duì)于無(wú)人駕駛汽車(chē)等人工智能如此重要,用戶有理由對(duì)自己提供的個(gè)人隱私信息收取費(fèi)用[46]。雖然隱私權(quán)的本質(zhì)是人格權(quán),其更多體現(xiàn)人身屬性,但在大數(shù)據(jù)、人工智能時(shí)代,隱私權(quán)的財(cái)產(chǎn)價(jià)值已非常顯著,無(wú)論個(gè)人是否愿意,隱私信息被當(dāng)作“商品”一樣被交易已成為不爭(zhēng)的事實(shí),其獲利主體還是他人而非自己。在此情形下,建立個(gè)人隱私信息的有償使用機(jī)制既符合隱私權(quán)本身的價(jià)值,又能增強(qiáng)個(gè)人的隱私保護(hù),也在一定程度上有助于保護(hù)個(gè)人的財(cái)產(chǎn)權(quán)。最后,需要明確個(gè)人隱私交易的具體規(guī)則。如果將所有的隱私信息都用于交易,那么隱私權(quán)就會(huì)變成典型的財(cái)產(chǎn)權(quán),這與其權(quán)利本質(zhì)相悖。因此,首先需要對(duì)交易對(duì)象進(jìn)行區(qū)分,那些純粹屬于個(gè)人最為私密的敏感信息應(yīng)當(dāng)禁止交易,如此才能保證人格尊嚴(yán)得到絕對(duì)保護(hù)。只有一般性的個(gè)人信息,才可被鼓勵(lì)用于交易。在交易模式上,不能由數(shù)據(jù)收集者以格式條款的方式規(guī)定個(gè)人信息的交易價(jià)格和形式,應(yīng)當(dāng)按照公平原則確定交易形式,允許隱私主體享有議價(jià)的權(quán)利。此外,建立損害賠償制度也不失為一項(xiàng)可供參考的選擇,當(dāng)隱私權(quán)遭受侵害后,以損害賠償金、違約金等方式對(duì)被侵權(quán)人給予賠償。同時(shí),還需要加強(qiáng)公共機(jī)構(gòu)的監(jiān)督,因?yàn)樵趥€(gè)人與數(shù)據(jù)企業(yè)、無(wú)人駕駛汽車(chē)生產(chǎn)商單獨(dú)進(jìn)行利益博弈的過(guò)程中,個(gè)人顯然不具有任何優(yōu)勢(shì),這就需要由政府部門(mén)等公共機(jī)構(gòu)來(lái)創(chuàng)建市場(chǎng)交易規(guī)則,監(jiān)督各方遵守法律和協(xié)議,預(yù)防和救濟(jì)隱私侵權(quán)損害的發(fā)生,促使個(gè)人隱私財(cái)產(chǎn)權(quán)得以有效保障。
作為人工智能產(chǎn)品的無(wú)人駕駛汽車(chē),其研發(fā)初衷在于為人類(lèi)服務(wù),其基礎(chǔ)需要以數(shù)據(jù)和算法作支撐,故對(duì)其隱私權(quán)的侵犯可能性自始存在。無(wú)人駕駛汽車(chē)對(duì)個(gè)人數(shù)據(jù)及周邊交通數(shù)據(jù)的收集和掌握越翔實(shí),就越能提升其服務(wù)能力,但這也意味著人們?cè)谙硎軣o(wú)人駕駛汽車(chē)更多智能服務(wù)的同時(shí),不得不讓渡更多的個(gè)人隱私信息,由此引發(fā)隱私權(quán)保護(hù)的危機(jī),也給隱私權(quán)的傳統(tǒng)法律保護(hù)機(jī)制帶來(lái)嚴(yán)峻挑戰(zhàn)。于此,本文一方面致力于厘清無(wú)人駕駛汽車(chē)對(duì)隱私權(quán)的具體侵權(quán)形態(tài),對(duì)個(gè)人隱私和隱私權(quán)進(jìn)行差別化保護(hù);另一方面,基于新興人工智能的無(wú)人駕駛汽車(chē)侵權(quán)行為僅依靠法律規(guī)制難以奏效的客觀現(xiàn)實(shí),主張多管齊下加以應(yīng)對(duì):既要健全法律規(guī)則體系,又需強(qiáng)化相應(yīng)的技術(shù)保障,還得注重行業(yè)自律,發(fā)揮企業(yè)的自我規(guī)制功能,更要加強(qiáng)公共機(jī)構(gòu)的監(jiān)管。通過(guò)集合個(gè)人、企業(yè)、社會(huì)組織和政府的力量,共同守護(hù)體現(xiàn)個(gè)體自我屬性的隱私及隱私權(quán),合力維護(hù)無(wú)人駕駛汽車(chē)產(chǎn)業(yè)的健康發(fā)展,最終實(shí)現(xiàn)多方共贏的目標(biāo),增進(jìn)人類(lèi)社會(huì)的福祉。
河南財(cái)經(jīng)政法大學(xué)學(xué)報(bào)2021年4期