国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能應(yīng)用中間接識(shí)別個(gè)人信息的法律保護(hù)

2024-09-24 00:00朱榮榮
科技與法律 2024年4期

摘 要:生成式人工智能的廣泛運(yùn)用給間接識(shí)別個(gè)人信息的法律保護(hù)帶來了挑戰(zhàn),傳統(tǒng)的知情同意規(guī)則流于形式,間接識(shí)別個(gè)人信息的范圍難以確定,信息泄露風(fēng)險(xiǎn)升高,損害證明難度加大。目前,我國立法關(guān)于間接識(shí)別個(gè)人信息的保護(hù)存在概念界定的模糊性、保護(hù)程度的擴(kuò)張性以及侵權(quán)救濟(jì)機(jī)制的不完備性,無法實(shí)現(xiàn)信息保護(hù)與產(chǎn)業(yè)發(fā)展的統(tǒng)籌兼顧。鑒此,應(yīng)當(dāng)采取靜態(tài)認(rèn)定與動(dòng)態(tài)認(rèn)定相結(jié)合的方式靈活確定間接識(shí)別個(gè)人信息的范圍,構(gòu)建分層的知情同意規(guī)則,承認(rèn)風(fēng)險(xiǎn)性損害,合理計(jì)算損害賠償數(shù)額,采取舉證責(zé)任倒置,從而促進(jìn)間接識(shí)別個(gè)人信息權(quán)益保護(hù)與生成式人工智能創(chuàng)新發(fā)展的良性平衡。

關(guān)鍵詞:生成式人工智能;ChatGPT;間接識(shí)別個(gè)人信息;可識(shí)別性

中圖分類號(hào):D 923 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):2096-9783(2024)04?0104?11

一、問題的提出

自1956年美國學(xué)者約翰·麥卡錫(John McCarthy)提出“人工智能”一詞以來,人工智能技術(shù)的發(fā)展已近70年。在此期間,AlphaGo大勝世界圍棋冠軍李世石、微軟小冰發(fā)布自主完成的詩集,人工智能技術(shù)的每一次進(jìn)步都會(huì)引起社會(huì)熱議。2022年,ChatGPT、Dall-E2、Midjourney、Stable Diffusion等生成式人工智能大模型相繼涌現(xiàn),ChatGPT更是以其類人的語言表達(dá)能力與高質(zhì)量的文本生成能力,被認(rèn)為是人類從專用人工智能邁向通用人工智能的堅(jiān)實(shí)一步1。就我國而言,百度、阿里巴巴、華為等大型互聯(lián)網(wǎng)企業(yè)以及清華大學(xué)、復(fù)旦大學(xué)等高校紛紛入局生成式人工智能領(lǐng)域,并發(fā)布了“文心一言”“通義千問”“MOSS模型”等大語言模型,為我國生成式人工智能的發(fā)展開創(chuàng)了新的局面。

數(shù)據(jù)是生成式人工智能模型開發(fā)與實(shí)踐運(yùn)用的原材料,根據(jù)《中華人民共和國數(shù)據(jù)安全法》(以下簡稱《數(shù)據(jù)安全法》)第三條之規(guī)定,數(shù)據(jù)指任何以電子或者其他方式對(duì)信息的記錄。由此可知,數(shù)據(jù)是信息的記錄載體,信息是數(shù)據(jù)的具體內(nèi)容。一般認(rèn)為,根據(jù)個(gè)人信息是否具有獨(dú)立識(shí)別特定主體的能力,可以將其分為直接識(shí)別個(gè)人信息與間接識(shí)別個(gè)人信息,直接識(shí)別個(gè)人信息是指能夠獨(dú)立識(shí)別特定主體的個(gè)人信息,間接識(shí)別個(gè)人信息則是指必須與其他信息相結(jié)合才能將特定主體識(shí)別出來的個(gè)人信息[1]。然而,“結(jié)合識(shí)別”具有較強(qiáng)的模糊性,目前立法尚未對(duì)間接識(shí)別方式、識(shí)別主體等事項(xiàng)予以明確規(guī)定。生成式人工智能的廣泛應(yīng)用給間接識(shí)別個(gè)人信息法律保護(hù)帶來一定的挑戰(zhàn),數(shù)據(jù)的海量性以及功能上的生成性泛化了間接識(shí)別個(gè)人信息的范圍,使得知情同意規(guī)則難以得到有效落實(shí),提高了間接識(shí)別個(gè)人信息泄露的風(fēng)險(xiǎn)。

2023年8月15日,國家互聯(lián)網(wǎng)信息辦公室等七部委聯(lián)合發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《暫行辦法》)正式施行?!稌盒修k法》是我國在生成式人工智能快速發(fā)展背景下做出的積極響應(yīng),旨在規(guī)范生成式人工智能應(yīng)用的健康發(fā)展,維護(hù)個(gè)人、社會(huì)以及國家的合法利益?!稌盒修k法》對(duì)于生成式人工智能中個(gè)人信息的法律保護(hù)問題予以一定的回應(yīng),但分析相關(guān)條文之后可以發(fā)現(xiàn),其關(guān)于個(gè)人信息保護(hù)的規(guī)定基本沿用既有規(guī)范的內(nèi)容,缺乏針對(duì)生成式人工智能的專門性規(guī)制措施。在生成式人工智能席卷全球的浪潮之下,有必要檢視生成式人工智能與現(xiàn)行間接識(shí)別個(gè)人信息保護(hù)制度的協(xié)調(diào)性,構(gòu)建合理的因應(yīng)規(guī)則,從而在保護(hù)信息主體合法權(quán)益的基礎(chǔ)上,促進(jìn)生成式人工智能的安全發(fā)展。

二、生成式人工智能挑戰(zhàn)間接識(shí)別個(gè)人信息的法律保護(hù)

(一)知情同意規(guī)則流于形式

生成式人工智能的技術(shù)迭代得益于大量的數(shù)據(jù)喂養(yǎng),自2018年OpenAI推出生成式預(yù)訓(xùn)練模型(Generative Pretrained Transformer, GPT)以來,GPT模型在5年之內(nèi)經(jīng)歷了數(shù)次迭代,其訓(xùn)練數(shù)據(jù)的規(guī)模更是呈指數(shù)級(jí)上升。公開數(shù)據(jù)顯示,GPT-1的文本數(shù)據(jù)約為5 GB,GPT-2的文本數(shù)據(jù)約為40 GB,GPT-3的文本數(shù)據(jù)則躍升至45 TB。2023年3月,在GPT-3.5公開發(fā)布4個(gè)月后,OpenAI推出了GPT-4模型,截至目前,OpenAI尚未公布GPT-4的訓(xùn)練文本數(shù)量,但從GPT-4強(qiáng)大的功能迭代可以推知,GPT-4的訓(xùn)練數(shù)據(jù)是巨量的。海量的數(shù)據(jù)為生成式人工智能的多元化應(yīng)用提供了原動(dòng)力,但也使得間接識(shí)別個(gè)人信息保護(hù)的基本原則——知情同意規(guī)則流于具文。

知情同意規(guī)則的成文化最早可以追溯到1964年醫(yī)療領(lǐng)域通過的《赫爾辛基宣言》(Declaration of Helsinki),其后被引用至個(gè)人信息保護(hù)領(lǐng)域,成為個(gè)人信息保護(hù)的基本準(zhǔn)則。知情同意規(guī)則可以解構(gòu)為告知與同意兩個(gè)方面,兩者相輔相成,缺一不可。為了消解信息主體與信息處理者之間信息不對(duì)稱的客觀事實(shí),信息處理者在收集個(gè)人信息之前應(yīng)當(dāng)向信息主體詳細(xì)說明個(gè)人信息的處理目的、處理方式等相關(guān)事項(xiàng),保障信息主體是在充分知情的基礎(chǔ)上做出的同意。在充分知曉個(gè)人信息處理情況之后,信息主體可以自主決定是否允許信息處理者處理其個(gè)人信息,任何人都不得強(qiáng)迫信息主體做出違背其真實(shí)意思表示的同意。知情同意規(guī)則通過約束信息處理者處理個(gè)人信息的行為,能夠一定程度上避免個(gè)人信息權(quán)益侵害的發(fā)生。

然而,在生成式人工智能領(lǐng)域,知情同意規(guī)則難敷使用。生成式人工智能的語料庫來源具有多樣性,既包括信息處理者通過各種渠道獲取的信息,也包括用戶自行輸入的信息。具體而言,用戶在使用生成式人工智能服務(wù)時(shí),其在對(duì)話框內(nèi)輸入的信息將被自動(dòng)收錄進(jìn)生成式人工智能的語料庫,并作為下次迭代升級(jí)的材料。在此過程中,信息處理者并未向信息主體告知相關(guān)事項(xiàng),亦未取得信息主體的有效同意。就信息處理者獲取的數(shù)據(jù)而言,其海量的訓(xùn)練數(shù)據(jù)可以分為無標(biāo)注數(shù)據(jù)與有標(biāo)注數(shù)據(jù),前者指生成式人工智能自行抓取的互聯(lián)網(wǎng)數(shù)據(jù)、百科知識(shí)、電子書籍等數(shù)據(jù),后者指訓(xùn)練師通過對(duì)生成式人工智能的回答進(jìn)行監(jiān)督微調(diào)形成的數(shù)據(jù)。生成式人工智能龐大的數(shù)據(jù)體量以及復(fù)雜的數(shù)據(jù)來源渠道,導(dǎo)致知情同意規(guī)則的嚴(yán)格適用存在較大的難度。一方面,不同于直接識(shí)別個(gè)人信息的獨(dú)立識(shí)別性,間接識(shí)別個(gè)人信息需要與其他信息相結(jié)合才能將特定主體識(shí)別出來。唯物主義哲學(xué)觀認(rèn)為,世界是普遍聯(lián)系的,信息處理者借助于大數(shù)據(jù)分析技術(shù)能夠預(yù)測或推導(dǎo)出其他事先無法預(yù)料的信息,如果有足夠的時(shí)間與精力,一些看似毫不相關(guān)的信息也可能通過與其他信息結(jié)合之后辨別出特定主體。生成式人工智能抓取的大量互聯(lián)網(wǎng)數(shù)據(jù)可能本身即包含間接識(shí)別個(gè)人信息,或者數(shù)據(jù)庫中的數(shù)據(jù)相互聯(lián)結(jié)而形成間接識(shí)別個(gè)人信息。在間接識(shí)別個(gè)人信息的外延具有極大的不確定性與廣泛性的情形下,要求信息處理者逐一征求信息主體的同意,既不符合經(jīng)濟(jì)考量,也不具有現(xiàn)實(shí)可操作性。另一方面,信息主體的有限理性降低了同意的效力。知情同意規(guī)則將信息主體預(yù)設(shè)為理性之人,能夠?qū)徤髋袛嘈畔⑻幚淼娘L(fēng)險(xiǎn),并做出符合其自身利益的最佳決策。然而,由于知識(shí)、能力、信息等相關(guān)要素的欠缺,信息主體通常難以合理權(quán)衡信息處理的利與弊,使得同意的有效性大打折扣。

(二)間接識(shí)別個(gè)人信息的范圍難以確定

在生成式人工智能誕生之前,人們在處理文本時(shí)主要借助于搜索引擎,但由于搜索引擎僅提供與搜索關(guān)鍵詞有關(guān)的網(wǎng)頁鏈接,并不直接顯示準(zhǔn)確答案,因此用戶需要從大量的網(wǎng)頁數(shù)據(jù)中甄別出有用的信息,進(jìn)而將收集到的信息整合成連貫的文本。不同于此,ChatGPT直接將“唯一的”答案提供給用戶,極大降低了人們獲取信息的門檻與檢索成本。現(xiàn)階段,ChatGPT的功能迭代周期越來越短,且多模態(tài)發(fā)展趨勢明顯,相較于GPT-3.5,GPT-4不僅提高了文本輸入的字?jǐn)?shù)限制,還能夠根據(jù)用戶指令生成風(fēng)格各異的圖片、詩集、歌曲、代碼等。

不同于以人臉識(shí)別、算法推薦等為代表的分析式人工智能,ChatGPT屬于典型的生成式人工智能,其不僅能夠自主對(duì)語料庫中的數(shù)據(jù)進(jìn)行整合,還可能“生成”或者“創(chuàng)作”出語料庫中并不存在的內(nèi)容[2]。ChatGPT的生成性源于其采用了生成式預(yù)訓(xùn)練轉(zhuǎn)換模型與基于人類反饋的強(qiáng)化學(xué)習(xí)。具言之,ChatGPT能夠通過注意力機(jī)制自主學(xué)習(xí)海量的語料庫,進(jìn)而初步掌握自然語言的內(nèi)在邏輯,并借助于人類反饋的強(qiáng)化學(xué)習(xí)使得輸出的內(nèi)容更加符合人類的表達(dá)習(xí)慣。在應(yīng)用過程中,ChatGPT能夠較為準(zhǔn)確地理解用戶的意圖,并對(duì)關(guān)鍵內(nèi)容進(jìn)行抽取,進(jìn)而根據(jù)上下文語境預(yù)判下一個(gè)可能出現(xiàn)的單詞,然后將這些字詞連接成一個(gè)完整的詞組、短語,最終輸出契合自然語言表達(dá)方式且邏輯結(jié)構(gòu)富有層次性的文本內(nèi)容。ChatGPT的生成性改變了“知識(shí)”生產(chǎn)的規(guī)律,提高了“知識(shí)”生產(chǎn)的速度。在GPT-4模型發(fā)布時(shí),OpenAI的首席執(zhí)行官Sam Altman展示了GPT-4的強(qiáng)大生成能力,GPT-4可以根據(jù)一張簡單的手繪草圖在短短幾秒鐘之內(nèi)生成一個(gè)可用的網(wǎng)址。

需注意的是,ChatGPT的生成性是通過對(duì)人類思維方式和表達(dá)習(xí)慣的機(jī)械性模仿得來的,尚不具有人類的認(rèn)知能力與推理能力[3]。因此,ChatGPT經(jīng)常會(huì)生成大量看似正確實(shí)則錯(cuò)誤的事實(shí),被人詬病為“一本正經(jīng)的胡說八道”。ChatGPT的生成性泛化了間接識(shí)別個(gè)人信息的范圍,其可能在深度學(xué)習(xí)碎片化信息的基礎(chǔ)上拼湊出間接識(shí)別個(gè)人信息。又或者,雖然ChatGPT生成的信息不屬于間接識(shí)別個(gè)人信息,但借助于數(shù)據(jù)挖掘與再識(shí)別技術(shù)的進(jìn)步,人們可以從ChatGPT生成的海量信息中捕捉到間接識(shí)別個(gè)人信息,經(jīng)過不斷聚合最終實(shí)現(xiàn)識(shí)別特定主體的目的。

(三)信息泄露風(fēng)險(xiǎn)提高

自2022年底美國人工智能實(shí)驗(yàn)室OpenAI推出ChatGPT以來,以ChatGPT為代表的生成式人工智能在世界范圍內(nèi)引發(fā)廣泛討論。相較于傳統(tǒng)人工智能回答的僵硬性與間斷性,ChatGPT可以與用戶進(jìn)行連續(xù)對(duì)話,如果用戶提示ChatGPT的回答錯(cuò)誤,其也會(huì)主動(dòng)承認(rèn)自己的無知。ChatGPT近乎完美的人機(jī)交互性,極大提高了用戶的使用體驗(yàn),使得ChatGPT上線不到一周就擁有了100萬的注冊用戶,其用戶規(guī)模增長的速度遙遙領(lǐng)先于推特、抖音等其他現(xiàn)象級(jí)的消費(fèi)應(yīng)用。

在ChatGPT與人類交互對(duì)話過程中,提高了間接識(shí)別個(gè)人信息泄露的風(fēng)險(xiǎn)。自ChatGPT問世以來,已連續(xù)發(fā)生數(shù)起個(gè)人信息泄露事件。譬如,2023年3月底OpenAI官網(wǎng)發(fā)布公告明確承認(rèn),因開源數(shù)據(jù)庫的技術(shù)漏洞,部分用戶在使用ChatGPT時(shí)可以在其對(duì)話框內(nèi)看到其他用戶的電子郵件、對(duì)話記錄等信息,導(dǎo)致大量用戶的個(gè)人信息泄露。2023年6月底,16名匿名人士向美國加利福尼亞州舊金山聯(lián)邦法院提起集體訴訟,指控OpenAI未經(jīng)同意收集并泄露個(gè)人信息,據(jù)此要求其賠償30億美元。出于維護(hù)信息安全的考慮,意大利宣布暫時(shí)禁用ChatGPT,德國、法國、愛爾蘭、加拿大等國家的個(gè)人數(shù)據(jù)保護(hù)機(jī)構(gòu)也表示要加強(qiáng)對(duì)ChatGPT的監(jiān)管,防止ChatGPT存儲(chǔ)的個(gè)人信息泄露引發(fā)社會(huì)性風(fēng)險(xiǎn)[4]。除了國家層面的行動(dòng),相關(guān)行業(yè)、企業(yè)也宣布禁止或限制使用類ChatGPT生成式人工智能技術(shù),然而,個(gè)人信息泄露事件仍屢禁不止。究其原因,一方面是由于ChatGPT自身的技術(shù)機(jī)制使然;另一方面則是用戶在使用ChatGPT過程中自覺或不自覺地泄露了信息。ChatGPT采取了基于人類反饋的強(qiáng)化學(xué)習(xí),在訓(xùn)練出初始模型之后,為了盡可能避免生成內(nèi)容存在違背倫理價(jià)值、意識(shí)形態(tài)等問題,研發(fā)者通過打分模型(Reward Model)對(duì)ChatGPT的回答內(nèi)容進(jìn)行評(píng)價(jià),使其生成內(nèi)容符合人類社會(huì)的主流價(jià)值[5]。就此而言,用戶在使用ChatGPT時(shí),ChatGPT會(huì)將用戶輸入的信息作為訓(xùn)練語料,通過迭代的方式不斷優(yōu)化其表達(dá)能力。然而,由于ChatGPT缺乏必要的信息篩選與識(shí)別機(jī)制,可能導(dǎo)致此前用戶輸入的信息“原封不動(dòng)”地出現(xiàn)在其他用戶的對(duì)話框內(nèi)。此外,由于ChatGPT的類人性與虛擬性,能夠?yàn)橛脩籼峁┮欢ǖ那榫w情感價(jià)值,用戶在使用ChatGPT過程中更容易袒露隱私[6],增加了間接識(shí)別個(gè)人信息泄露的可能性。

(四)損害證明難度加大

算法是生成式人工智能的基本結(jié)構(gòu),是將原始數(shù)據(jù)加工成輸出內(nèi)容的核心技術(shù),面對(duì)同樣的訓(xùn)練數(shù)據(jù),不同的算法規(guī)則可能導(dǎo)出完全不同的文本內(nèi)容。由于技術(shù)本身的不可控性與研發(fā)者的故意隱匿,生成式人工智能的算法目前仍處于“黑箱”狀態(tài)。“算法黑箱”是指算法的不公開、不透明[7],亦即在數(shù)據(jù)的輸入與輸出之間,人們無從知曉其中的算法規(guī)則是如何運(yùn)行的?!八惴ê谙洹辈粌H侵害了用戶的知情權(quán),還可能一定程度上擾亂社會(huì)秩序。ChatGPT作為一種深度神經(jīng)網(wǎng)絡(luò)架構(gòu),其在前饋神經(jīng)網(wǎng)絡(luò)中引入了自注意力機(jī)制(self-attention mechanism),導(dǎo)致目前尚無法對(duì)ChatGPT的算法規(guī)則進(jìn)行全局性解釋[8]?,F(xiàn)階段,OpenAI公司出于經(jīng)濟(jì)利益考量,仍然選擇不披露ChatGPT的算法規(guī)則,雖然外界對(duì)ChatGPT的算法存在諸多猜測,但由于無法得到確切的驗(yàn)證,使得ChatGPT成為眾人眼中神秘的“算法黑箱”。進(jìn)一步地,如果發(fā)生生成式人工智能侵權(quán)問題,“算法黑箱”的存在將提高侵害行為的隱蔽性,成為侵權(quán)責(zé)任認(rèn)定的最大阻礙。

立法上,《暫行辦法》并未對(duì)生成式人工智能侵權(quán)的證明責(zé)任配置予以特殊性規(guī)定。根據(jù)我國目前的立法態(tài)度,當(dāng)事人應(yīng)當(dāng)對(duì)自己的主張負(fù)擔(dān)證明責(zé)任,換言之,應(yīng)當(dāng)由信息主體提供證據(jù)證明生成式人工智能服務(wù)者不法侵害其間接識(shí)別個(gè)人信息,并因此造成了實(shí)際損失。然而,生成式人工智能的“算法黑箱”導(dǎo)致信息主體與生成式人工智能提供者之間的信息具有不對(duì)等性,如果生成式人工智能提供者不主動(dòng)提供算法規(guī)則并證明算法的合規(guī)性,信息主體很難提供充分的證據(jù)予以證明,無異于阻斷了信息主體獲取法律救濟(jì)的途徑。

三、生成式人工智能場景下間接識(shí)別個(gè)人信息保護(hù)制度的檢視

(一)概念界定的模糊性不利于配置權(quán)利與義務(wù)

概念乃是解決法律問題所必需的和必不可少的工具,沒有限定嚴(yán)格的專門概念,我們便不能清楚和理性地思考法律問題,沒有概念,我們便無法將我們對(duì)法律的思考轉(zhuǎn)變?yōu)檎Z言,也無法以一種可理解的方式把這些思考傳達(dá)給別人[9]。立法層面,間接識(shí)別個(gè)人信息首次出現(xiàn)在2013年通過的《電信和互聯(lián)網(wǎng)用戶個(gè)人信息保護(hù)規(guī)定》,此后《中華人民共和國網(wǎng)絡(luò)安全法》(以下簡稱《網(wǎng)絡(luò)安全法》)第七十六條、《最高人民法院、最高人民檢察院關(guān)于辦理侵犯公民個(gè)人信息刑事案件適用法律若干問題的解釋》第一條、《中華人民共和國民法典》(以下簡稱《民法典》)第一千零三十四條以及《中華人民共和國個(gè)人信息保護(hù)法》(以下簡稱《個(gè)人信息保護(hù)法》)第四條均對(duì)間接識(shí)別個(gè)人信息有所涉及。然而,間接識(shí)別個(gè)人信息的內(nèi)涵通常依附于個(gè)人信息概念之下,缺乏對(duì)其正面性的、直接性的規(guī)定。雖然我國立法一致認(rèn)為間接識(shí)別個(gè)人信息不具有獨(dú)立識(shí)別性,必須與其他信息相結(jié)合才能實(shí)現(xiàn)識(shí)別特定主體的目的。然而,何謂“結(jié)合識(shí)別”以及如何確定間接識(shí)別,相關(guān)立法至今仍未給出較為明確的答案。

通說認(rèn)為,識(shí)別指根據(jù)與特定人有關(guān)的外部信息來認(rèn)識(shí)、辨識(shí)或指認(rèn)該特定個(gè)人,使某個(gè)人與其他人區(qū)分開來[10]。概言之,如果藉由該信息能夠?qū)⑻囟ㄖ黧w從一定的群體中區(qū)別出來,則其屬于個(gè)人信息,反之則否。實(shí)踐中,信息可能通過多種方式對(duì)個(gè)人進(jìn)行識(shí)別,具體包括:(1)與個(gè)人的創(chuàng)作性關(guān)系,即個(gè)人可以有目的地創(chuàng)造信息,并將該信息傳遞給他人,以便他人通過該信息與信息的生產(chǎn)者聯(lián)系起來,這種關(guān)系解釋了電話交談、私人日記或電子郵件也構(gòu)成個(gè)人信息;(2)與個(gè)人的描述性關(guān)系,即信息可以通過某種方式對(duì)個(gè)體進(jìn)行描述,包括生物性信息與社會(huì)性信息;(3)與個(gè)人的工具性映射關(guān)系,即某些機(jī)構(gòu)為便于身份識(shí)別、安全訪問或提供服務(wù)與商品而對(duì)個(gè)人進(jìn)行劃分,典型者如社會(huì)保障號(hào)碼[11]。

權(quán)利與義務(wù)是法學(xué)領(lǐng)域一對(duì)基本的范疇,幾乎所有的法律體系都是圍繞著權(quán)利賦予與義務(wù)設(shè)定而展開的。權(quán)利與義務(wù)對(duì)于法學(xué)的重要性吸引了霍布斯、康德、黑格爾等諸多法哲學(xué)家對(duì)其無盡的探尋,關(guān)于權(quán)利與義務(wù)的內(nèi)涵,不同學(xué)者可能存在不同的見解,但較為一致的是,他們在談?wù)摍?quán)利概念時(shí)都沒有將權(quán)利的內(nèi)涵看作僅僅是涉及個(gè)人的行為,而是無一例外地都注意到了除個(gè)人之外其他人的存在[12]。概言之,權(quán)利與義務(wù)具有統(tǒng)一性,沒有無負(fù)擔(dān)的權(quán)利,也沒有無權(quán)利的義務(wù)。在生成式人工智能領(lǐng)域,間接識(shí)別個(gè)人信息概念的準(zhǔn)確界定是合理配置生成式人工智能相關(guān)主體權(quán)利義務(wù)的必要前提,然而,間接識(shí)別個(gè)人信息內(nèi)涵的模糊性導(dǎo)致信息主體與信息處理者均處于不確定的狀態(tài),不利于合理配置相應(yīng)的權(quán)利義務(wù)。

(二)擴(kuò)張性保護(hù)制約生成式人工智能的創(chuàng)新發(fā)展

生成式人工智能存儲(chǔ)的數(shù)據(jù)具有海量性,即使這些數(shù)據(jù)已被去除個(gè)人標(biāo)志,但通過一定的分析和處理技術(shù),仍然可以推斷出個(gè)人的身份信息以及基本特征[13]??梢姡煌谀涿畔⑼耆俗R(shí)別性,間接識(shí)別個(gè)人信息仍然保留一定的識(shí)別因素。據(jù)此,研發(fā)人員能夠追溯原始數(shù)據(jù)的來源渠道,核查并矯正生成內(nèi)容的準(zhǔn)確性,從而提高輸出文本的質(zhì)量,推動(dòng)生成式人工智能的迭代發(fā)展。

立法體例上,我國《民法典》《個(gè)人信息保護(hù)法》等現(xiàn)行規(guī)范借鑒歐盟個(gè)人數(shù)據(jù)保護(hù)的規(guī)制模式,將個(gè)人信息區(qū)別為直接識(shí)別個(gè)人信息與間接識(shí)別個(gè)人信息,但在保護(hù)方式上卻將兩者等同視之。申言之,間接識(shí)別個(gè)人信息的收集、處理以及侵權(quán)救濟(jì)與直接識(shí)別個(gè)人信息的保護(hù)規(guī)則并無二異,這種“前后不一”的做法損害了法律體系的科學(xué)性與融貫性。更重要的是,如果賦予信息主體對(duì)于其間接識(shí)別個(gè)人信息也享有刪除權(quán)、更正權(quán)等相應(yīng)的權(quán)利,可能導(dǎo)致信息主體濫用權(quán)利,進(jìn)而制約生成式人工智能的創(chuàng)新發(fā)展。尤其在再識(shí)別技術(shù)迅速發(fā)展的背景下,借由信息比對(duì)、信息組合、信息分析等手段,一些原本被認(rèn)為無法識(shí)別的信息在一定條件下可以轉(zhuǎn)變?yōu)殚g接識(shí)別個(gè)人信息[14]。在此情形下,如果對(duì)間接識(shí)別個(gè)人信息采取與直接識(shí)別個(gè)人信息相同的保護(hù)方式,可能使得生成式人工智能研發(fā)者動(dòng)輒觸犯法律的禁止性規(guī)定,不僅違背了《暫行辦法》統(tǒng)籌兼顧生成式人工智能發(fā)展與主體權(quán)益保護(hù)之宗旨,也不利于鼓勵(lì)相關(guān)企業(yè)入局生成式人工智能產(chǎn)業(yè),進(jìn)而妨礙我國生成式人工智能技術(shù)的創(chuàng)新進(jìn)步。

(三)救濟(jì)機(jī)制的不完備性阻礙生成式人工智能糾紛的解決

1. 責(zé)任主體的劃分相互抵牾

目前,我國現(xiàn)行規(guī)范關(guān)于個(gè)人信息侵權(quán)的責(zé)任主體形成了多元化的劃分方式。2019年公布的《網(wǎng)絡(luò)信息內(nèi)容生態(tài)治理規(guī)定》將網(wǎng)絡(luò)信息內(nèi)容侵權(quán)的責(zé)任主體區(qū)分為網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者、網(wǎng)絡(luò)信息內(nèi)容服務(wù)平臺(tái)以及網(wǎng)絡(luò)信息內(nèi)容服務(wù)使用者;2022年通過的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》則將責(zé)任主體類型化為深度合成服務(wù)提供者、深度合成服務(wù)技術(shù)支持者以及深度合成服務(wù)使用者;《民法典》《個(gè)人信息保護(hù)法》則以“個(gè)人信息處理者”為中心來構(gòu)建責(zé)任體系,信息處理者涵蓋信息收集者、信息加工者、信息使用者等相關(guān)主體。不同于此,《暫行辦法》則構(gòu)建了“服務(wù)提供者—服務(wù)使用者”的二元責(zé)任體系,其中,服務(wù)提供者需要承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任,如果應(yīng)用過程中涉及個(gè)人信息的,則按照相關(guān)規(guī)定承擔(dān)個(gè)人信息處理者責(zé)任。

從上可知,現(xiàn)行規(guī)范關(guān)于個(gè)人信息侵權(quán)責(zé)任主體的劃分相互抵牾,不利于法律適用統(tǒng)一性的形成。在生成式人工智能時(shí)代,大型語言模型可以作為代碼層的基石性模型(foundational model),被廣泛應(yīng)用于搜索引擎、內(nèi)容平臺(tái)、智慧政務(wù)等一系列下游場景中[15]。具言之,生成式人工智能既可以直接服務(wù)于用戶端,也可以作為基礎(chǔ)模型供其他領(lǐng)域進(jìn)行更細(xì)化的應(yīng)用,以ChatGPT為例,其不僅可以直接為用戶提供文本處理、視頻制作、代碼編寫等服務(wù),還可以通過開放應(yīng)用程序接口的方式為其他企業(yè)提供技術(shù)底座??梢?,在某些情形下,生成式人工智能服務(wù)提供者可能既是技術(shù)支持者,又是內(nèi)容生產(chǎn)者。然而,《暫行辦法》僅規(guī)定生成式人工智能服務(wù)提供者需要承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任以及個(gè)人信息處理者責(zé)任,并未規(guī)定其可以作為“技術(shù)支持者”進(jìn)而承擔(dān)相應(yīng)的責(zé)任。同時(shí),《暫行辦法》對(duì)于如何界分網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者與個(gè)人信息處理者的責(zé)任范圍,以及兩者之間是否存在競合等問題均沒有予以明確規(guī)定,可能阻礙生成式人工智能侵權(quán)的具體適用。

2. 傳統(tǒng)損害的不適配性

損害是損害賠償?shù)倪壿嬈瘘c(diǎn),無損害則無賠償。目前,我國立法尚未對(duì)損害的內(nèi)涵予以明確,主流觀點(diǎn)認(rèn)為損害的判定應(yīng)當(dāng)采取“差額說”,亦即損害是被害人之總財(cái)產(chǎn)狀況于損害事故之發(fā)生與無損害事故下所生之差額,無差額即無損害[16]。然而,并非所有因侵害行為造成的受損權(quán)益都能得到有效的救濟(jì),事實(shí)上的損害必須經(jīng)過一定的評(píng)價(jià)才具有可獲賠性。具體來說,只有受害人的民事權(quán)益受損并由此引發(fā)不利益的后果才可稱其為損害,且作為損害賠償責(zé)任構(gòu)成要件的損害必須是客觀存在并能通過一定方式量化的可救濟(jì)性損害[17]。概言之,損害必須具有民事權(quán)益性、可救濟(jì)性以及確定性。

就損害的民事權(quán)益性來說,其要求法律所保護(hù)的利益具有正當(dāng)性,不法的或不正當(dāng)?shù)睦娌皇芊傻谋Wo(hù)?,F(xiàn)階段,我國立法雖然沒有明確規(guī)定間接識(shí)別個(gè)人信息的法律地位,但對(duì)于間接識(shí)別個(gè)人信息的民事權(quán)益屬性沒有疑義。在此基礎(chǔ)上,信息主體遭受的損害只有具備法律上的可補(bǔ)救性和確定性才能予以救濟(jì),而輕微或不確定的損害則不屬于法律救濟(jì)的范疇。在間接識(shí)別個(gè)人信息侵權(quán)中,傳統(tǒng)損害所應(yīng)當(dāng)具有的可救濟(jì)性以及確定性受到一定的沖擊。就損害的可救濟(jì)性來說,其要求損害必須是客觀的、現(xiàn)實(shí)的存在,臆想的損害或尚未發(fā)生的損害不受法律保護(hù)。實(shí)踐中,間接識(shí)別個(gè)人信息與信息主體存在一定的“疏離性”,其并不緊密依附于信息主體而存在,導(dǎo)致信息主體往往難以及時(shí)察覺其間接識(shí)別個(gè)人信息被侵害。就損害的確定性來說,損害必須是可以通過一定方式予以量化的,同時(shí)應(yīng)當(dāng)具備一定程度的“嚴(yán)重性”,如果輕微的、瑣碎的損害均能獲得法律的保護(hù),不僅增加司法機(jī)關(guān)的壓力,也限制了信息處理者行為自由的空間。然而,如果嚴(yán)格遵從傳統(tǒng)損害所要求的程度性要件,則間接識(shí)別個(gè)人信息損害的認(rèn)定存在較大的阻礙?,F(xiàn)實(shí)生活中,信息主體處于相對(duì)弱勢的地位,要求其證明損害的存在具有一定的難度,遑論進(jìn)一步證明損害的“嚴(yán)重性”,這種層層加碼的損害認(rèn)定模式可能會(huì)使得信息主體缺乏足夠的動(dòng)力去尋求法律的救濟(jì)。

3. 損害賠償數(shù)額難以計(jì)算

關(guān)于生成式人工智能中間接識(shí)別個(gè)人信息的損害賠償,《暫行辦法》沒有做出特殊性的規(guī)定。據(jù)此,對(duì)于生成式人工智能侵害間接識(shí)別個(gè)人信息的,信息主體可以援引《個(gè)人信息保護(hù)法》第六十九條之規(guī)定,要求生成式人工智能服務(wù)提供者按照受害人所受損失、侵害人所獲利益、協(xié)議賠償以及酌定賠償?shù)姆绞竭M(jìn)行。

間接識(shí)別個(gè)人信息范圍的不確定性與生成式人工智能技術(shù)的復(fù)雜性,使得生成式人工智能侵權(quán)損害賠償?shù)拇_定存在較大的難度。就受害人所受損失而言,由于間接識(shí)別個(gè)人信息同時(shí)承載著人格利益與財(cái)產(chǎn)利益,因此,生成式人工智能不法侵害間接識(shí)別個(gè)人信息的,既可能給信息主體造成財(cái)產(chǎn)損害,也可能給其造成精神損害。然而,間接識(shí)別個(gè)人信息的無形性與不確定性使得信息主體可能因無法提供充足的證據(jù)證明其遭受了財(cái)產(chǎn)損害或精神損害而承擔(dān)不利的后果。就侵害人所獲利益而言,一方面,信息主體可能因?yàn)橘~目手冊被生成式人工智能服務(wù)提供者控制而難以證明是否存在獲利;另一方面,侵害人獲益返還的范圍因立法的缺位而難以被準(zhǔn)確厘定。就協(xié)議賠償而言,相較于生成式人工智能服務(wù)者,信息主體處于劣勢地位,在此基礎(chǔ)上簽訂的損害賠償協(xié)議可能并不是信息主體真實(shí)的意思表示,違背了社會(huì)公平正義。就酌定賠償而言,相關(guān)立法尚未列明酌定賠償?shù)目剂恳蛩兀辔疵鞔_酌定賠償?shù)姆秶?,容易滋生裁判的恣意性,引發(fā)同案異判的非正義現(xiàn)象。

四、生成式人工智能應(yīng)用中間接識(shí)別個(gè)人信息法律保護(hù)的重構(gòu)

(一)間接識(shí)別個(gè)人信息范圍的厘定

準(zhǔn)確界定間接識(shí)別個(gè)人信息的范圍是相關(guān)規(guī)則展開的邏輯起點(diǎn),為了統(tǒng)籌兼顧主體權(quán)益保護(hù)與生成式人工智能創(chuàng)新發(fā)展,應(yīng)當(dāng)采取靜態(tài)識(shí)別與動(dòng)態(tài)識(shí)別相結(jié)合的認(rèn)定模式,合理界分間接識(shí)別個(gè)人信息與直接識(shí)別個(gè)人信息的邊界。

1.間接識(shí)別個(gè)人信息的靜態(tài)認(rèn)定

間接識(shí)別個(gè)人信息的靜態(tài)認(rèn)定需要明晰間接識(shí)別的主體、間接識(shí)別的方式等內(nèi)容,從而為行為人提供明確的行為指引。關(guān)于間接識(shí)別的主體,學(xué)界存在“主觀說”與“客觀說”相對(duì)立的觀點(diǎn)?!爸饔^說”主張以信息處理者的識(shí)別能力為基準(zhǔn)來確定個(gè)人信息的間接識(shí)別性,從而限縮個(gè)人信息的范圍,最大程度發(fā)揮個(gè)人信息的經(jīng)濟(jì)效用[18]?!翱陀^說”則認(rèn)為,應(yīng)當(dāng)以社會(huì)一般多數(shù)人是否可以依據(jù)信息的內(nèi)容識(shí)別特定主體作為判斷間接識(shí)別性的基準(zhǔn)[19]。筆者認(rèn)為,相較于“主觀說”,采取“客觀說”更為合理。“客觀說”以社會(huì)大多數(shù)人的識(shí)別能力為確定標(biāo)準(zhǔn),若該信息能夠被社會(huì)大多數(shù)人所識(shí)別就認(rèn)為其具備了識(shí)別的可能性,而不考慮某一具體主體實(shí)際上是否可以識(shí)別,能夠保障社會(huì)的公平正義。

由于信息與特定主體之間存在著復(fù)雜的牽連關(guān)系,信息可能通過多種途徑識(shí)別特定主體。關(guān)于間接識(shí)別的方式,理論界存在絕對(duì)路徑(absolute approach)和相對(duì)路徑(relative approach)兩種相對(duì)立的觀點(diǎn)。絕對(duì)路徑主張個(gè)人信息可識(shí)別性的判斷應(yīng)當(dāng)窮盡所有可能的方法和手段,而不考慮識(shí)別的成本、時(shí)間等外在因素;相對(duì)路徑則認(rèn)為確定個(gè)人信息可識(shí)別性所采取的方法不能毫無限制,識(shí)別的方法僅限于實(shí)際上所能夠采行的方法[20]。相較于絕對(duì)路徑,間接識(shí)別方式的判定采取相對(duì)路徑更為妥當(dāng)。相對(duì)路徑以理性人所采取的合理手段是否能夠識(shí)別特定個(gè)人為標(biāo)準(zhǔn),而不要求理性人窮盡所有可能的方法,有利于實(shí)現(xiàn)法律的安定性與可預(yù)期性。

關(guān)于間接識(shí)別的內(nèi)容,我國規(guī)范層面存在不同的做法?!毒W(wǎng)絡(luò)安全法》第七十六條采取的是身份識(shí)別標(biāo)準(zhǔn),《關(guān)于辦理侵犯公民個(gè)人信息刑事案件適用法律若干問題的解釋》認(rèn)為識(shí)別的內(nèi)容包括身份與活動(dòng),《民法典》以及《個(gè)人信息保護(hù)法》則對(duì)識(shí)別的內(nèi)容采取模糊的處理方式。筆者認(rèn)為,在確定間接識(shí)別的內(nèi)容時(shí)需要回歸間接識(shí)別個(gè)人信息的規(guī)范目的,識(shí)別性指明了個(gè)人信息與主體之間的對(duì)應(yīng)關(guān)系,只要能將信息主體從特定群體中區(qū)別出來的信息均應(yīng)當(dāng)認(rèn)定為個(gè)人信息,而不論該信息直接指向特定主體身份,抑或根據(jù)相關(guān)活動(dòng)間接推斷出主體身份。因此,在具體理解現(xiàn)行法所規(guī)定的“識(shí)別性”時(shí),應(yīng)將其解釋為包括個(gè)人身份與個(gè)人活動(dòng)在內(nèi)的一切可以識(shí)別特定主體的所有信息。

2. 間接識(shí)別個(gè)人信息的動(dòng)態(tài)認(rèn)定

為保障ChatGPT滿足多元化的應(yīng)用場景需求,研發(fā)者在訓(xùn)練ChatGPT過程中采用了基于場景(in-context learning)的訓(xùn)練方法[21]。ChatGPT的場景化訓(xùn)練使得間接識(shí)別個(gè)人信息具有一定的流動(dòng)性,其范圍可能隨著信息所處情景的變化動(dòng)態(tài)發(fā)展。譬如,對(duì)于某人的代號(hào)或綽號(hào),如果將其置于相應(yīng)的場景下可能輕易地將特定主體辨別出來,但若將該信息置于另一場景,則可能無法將其與特定主體聯(lián)系起來。因此,純粹地從靜態(tài)維度對(duì)間接識(shí)別個(gè)人信息進(jìn)行界定,可能使得間接識(shí)別個(gè)人信息陷入形式主義困境,對(duì)此,需要引入場景化的認(rèn)定模式。

從語義層面來說,場景是指特定情境或語境,在判定某一信息是否屬于間接識(shí)別個(gè)人信息時(shí),應(yīng)當(dāng)在具體語境下考量其能否通過與其他信息相結(jié)合而識(shí)別出特定主體。需注意的是,場景不是一個(gè)客觀存在的、恒定不變的物質(zhì)實(shí)體,其更像是一個(gè)框架性的結(jié)構(gòu),為信息主體與信息處理者的利益博弈提供論辯的空間。在決定是否將某信息認(rèn)定為間接識(shí)別個(gè)人信息時(shí),應(yīng)當(dāng)在特定場景下統(tǒng)合考量信息主體的可預(yù)見性程度、信息處理的目的,以及信息處理者的可歸責(zé)性程度等因素,實(shí)現(xiàn)信息處理者與信息主體利益的最優(yōu)選擇。

(二)構(gòu)建分層知情同意規(guī)則

隨著信息分析技術(shù)的迅速發(fā)展,可識(shí)別信息與不可識(shí)別信息之間的界限愈益模糊,可識(shí)別性不再呈現(xiàn)為“全有或全無”的狀態(tài)[22]。換言之,間接識(shí)別性指向的是某一信息客觀上所具備的識(shí)別特定自然人的可能性,其在識(shí)別程度上具有較大的差異性。根據(jù)平等原則的內(nèi)在要義,平等不僅意味著相同事物相同對(duì)待,還意味著不同事物不同對(duì)待。鑒此,應(yīng)當(dāng)根據(jù)間接識(shí)別個(gè)人信息的可識(shí)別性程度,構(gòu)建寬嚴(yán)有別的分層知情同意機(jī)制。

具體而言,對(duì)于可識(shí)別性程度較高的間接識(shí)別個(gè)人信息,如果其被不當(dāng)處理可能給信息主體造成的風(fēng)險(xiǎn)更高,故而應(yīng)當(dāng)給予其較強(qiáng)的保護(hù)。在告知方面,生成式人工智能服務(wù)提供者除了向信息主體說明信息處理目的、處理方式、存儲(chǔ)期限等信息處理的一般事項(xiàng)外,還應(yīng)當(dāng)告知生成式人工智能算法決策的基本過程、算法風(fēng)險(xiǎn)等事項(xiàng)。生成式人工智能服務(wù)提供者在履行告知義務(wù)時(shí),應(yīng)當(dāng)采取顯著的告知方式,諸如對(duì)相關(guān)條文進(jìn)行加粗、標(biāo)紅等,保障信息主體充分知悉間接識(shí)別個(gè)人信息處理活動(dòng)的潛在風(fēng)險(xiǎn)。在同意方面,信息處理者必須取得信息主體明確的、真實(shí)的意思表示方能處理間接識(shí)別個(gè)人信息,如果處理的是未成年人個(gè)人信息,還必須征得監(jiān)護(hù)人明示的同意。此外,如果信息處理事項(xiàng)超過信息主體初始同意的范圍,則需要再次取得信息主體的授權(quán)同意。

相反,對(duì)于可識(shí)別性程度較低的間接識(shí)別個(gè)人信息,其與信息主體的人身關(guān)聯(lián)性較低,可以引入“選擇退出”機(jī)制,避免過于繁瑣的知情同意程序阻礙生成式人工智能的創(chuàng)新發(fā)展。不同于傳統(tǒng)的“選擇—進(jìn)入”授權(quán)同意模式,“選擇—退出”機(jī)制將本應(yīng)由信息處理者承擔(dān)的特定義務(wù)轉(zhuǎn)換至信息主體,如果信息主體不能有效行為,則發(fā)生默示同意的法律效果[23]。就此而言,如果生成式人工智能服務(wù)提供者收集的是信息主體已公開的間接識(shí)別個(gè)人信息,或者信息處理者有證據(jù)證明信息處理可能帶來的利益超過信息主體自身的利益時(shí),則可以不經(jīng)信息主體同意而處理其信息,除非信息主體明確表示反對(duì)。

(三)完善侵權(quán)救濟(jì)機(jī)制

1. 承認(rèn)風(fēng)險(xiǎn)性損害

伴隨機(jī)器大工業(yè)生產(chǎn)的運(yùn)用、生命科技與信息技術(shù)的進(jìn)步以及全球化浪潮的席卷,人們被迫置身于“風(fēng)險(xiǎn)社會(huì)”之中。目前,學(xué)者關(guān)于“風(fēng)險(xiǎn)”具體內(nèi)涵存在爭議,但普遍認(rèn)為,風(fēng)險(xiǎn)具有不可預(yù)見性、不可控制性以及致?lián)p的可能性。隨著個(gè)人信息侵權(quán)行為的大肆擴(kuò)張,主張?jiān)趥€(gè)人信息領(lǐng)域引入“風(fēng)險(xiǎn)性損害”的聲音愈益強(qiáng)烈?!帮L(fēng)險(xiǎn)性損害”指侵害間接識(shí)別個(gè)人信息的行為雖然尚未造成現(xiàn)實(shí)的損害,但存在引發(fā)損害的極大可能性。風(fēng)險(xiǎn)性損害根據(jù)信息處理可能產(chǎn)生的風(fēng)險(xiǎn)來判定是否存在損害,有利于充分保護(hù)信息主體的合法權(quán)益,避免信息主體因舉證不能而陷入無法救濟(jì)的窘迫處境。實(shí)際上,我國對(duì)于“風(fēng)險(xiǎn)性損害”的認(rèn)可已經(jīng)不局限于理論探討范疇,有學(xué)者對(duì)實(shí)務(wù)中相關(guān)的裁判規(guī)則進(jìn)行考察后發(fā)現(xiàn),法院在判定某些個(gè)人信息侵權(quán)損害時(shí),通常只考慮侵害行為是否導(dǎo)致個(gè)人信息處于不當(dāng)公開的事實(shí)狀態(tài),并不要求社會(huì)評(píng)價(jià)降低、精神損害等具體損害后果的發(fā)生[24]。

在生成式人工智能領(lǐng)域,侵害間接識(shí)別個(gè)人信息可能引發(fā)諸多風(fēng)險(xiǎn),具體包括歧視風(fēng)險(xiǎn)、安全風(fēng)險(xiǎn)等。現(xiàn)代法律與倫理道德一致認(rèn)為,人人生而平等,每個(gè)人都享有自由追求個(gè)性發(fā)展與美好生活的權(quán)利,禁止他人遭受歧視性的對(duì)待成為一項(xiàng)普世性的價(jià)值準(zhǔn)則?!捌缫暋笔侵敢环N不公正的、不合理的或任意區(qū)別的貶義,其包含三個(gè)基本要素,即存在區(qū)別待遇、此種區(qū)別具有不良的效果以及該區(qū)別的理由是被禁止的[25]。作為人類社會(huì)的產(chǎn)物,某些間接識(shí)別個(gè)人信息可能蘊(yùn)含歧視性因素,如果該信息被用于訓(xùn)練生成式人工智能,則其所內(nèi)含的歧視性因素會(huì)被傳遞至生成內(nèi)容之中。如果這些生成內(nèi)容被他人不法公開或利用,可能對(duì)信息主體的就業(yè)、投保等帶來不利影響,增加了信息主體遭遇歧視性對(duì)待的風(fēng)險(xiǎn)。此外,生成式人工智能侵害間接識(shí)別個(gè)人信息可能引發(fā)安全風(fēng)險(xiǎn)。間接識(shí)別個(gè)人信息具有識(shí)別的可能性,借助于大數(shù)據(jù)分析技術(shù),碎片化的間接識(shí)別個(gè)人信息也可能識(shí)別出特定的信息主體,因而間接識(shí)別個(gè)人信息一旦泄露或被不當(dāng)使用具有較強(qiáng)的風(fēng)險(xiǎn)性,其既可能直接給信息主體造成損害,也可能嚴(yán)重威脅信息主體的人身財(cái)產(chǎn)安全。有鑒于此,有必要承認(rèn)風(fēng)險(xiǎn)性損害,如果不法侵害間接識(shí)別個(gè)人信息的行為使得信息主體面臨更大的風(fēng)險(xiǎn),或者超過了信息主體的合理預(yù)期,也應(yīng)當(dāng)認(rèn)定損害的存在,從而遏制間接識(shí)別個(gè)人信息侵害行為的發(fā)生,更好地保障信息主體的正當(dāng)性利益。

2. 明確損害賠償數(shù)額

根據(jù)《個(gè)人信息保護(hù)法》第六十九條之規(guī)定,間接識(shí)別個(gè)人信息損害賠償?shù)臄?shù)額應(yīng)當(dāng)根據(jù)損失賠償、獲益返還以及酌定賠償?shù)确绞接枰源_定。就財(cái)產(chǎn)損失賠償而言,傳統(tǒng)侵權(quán)法理論認(rèn)為,為保障受害人的損失得到全面救濟(jì),損失賠償必須堅(jiān)持“完全賠償原則”,侵害人需要就受害人遭受的全部損失予以賠償。反對(duì)者則認(rèn)為,“全部損害賠償”只是理想狀態(tài),其難以在實(shí)踐中具體實(shí)施,因?yàn)槟骋粨p害可能牽連引發(fā)其他損害,因此民法中的損害賠償是經(jīng)過裁剪的有限范圍的救濟(jì),所謂的“全部損害賠償”并非是要賠償受害者所遭受的全部損害,而只是賠償其一部分而已[26]。筆者認(rèn)為,完全賠償原則是損害填補(bǔ)原則與禁止得利原則的另一種表達(dá)方式,侵害人對(duì)其造成的損害予以全面賠償是公平正義的內(nèi)在要求。雖然不乏學(xué)者批判完全賠償原則具有適用上的僵硬性與價(jià)值上的武斷性,更有學(xué)者提出以“損害酌定制度”“動(dòng)態(tài)系統(tǒng)論”等相關(guān)理論來取代完全賠償原則的功能發(fā)揮。然而,這些理論學(xué)說僅于特定的情形下存在作用空間,并不具有普遍的適用性,無法撼動(dòng)完全賠償原則的根本性地位。就此而言,在確定損失賠償?shù)姆秶鷷r(shí),應(yīng)當(dāng)堅(jiān)持完全賠償原則,確保受害人的損害得以救濟(jì)的同時(shí)不會(huì)因此而不當(dāng)?shù)美?/p>

就獲益返還而言,由于間接識(shí)別個(gè)人信息蘊(yùn)含一定的經(jīng)濟(jì)價(jià)值,侵害行為人可能因不法處理間接識(shí)別個(gè)人信息而獲得一定的財(cái)產(chǎn)利益。然而,并非侵害行為人獲得的所有利益都應(yīng)當(dāng)返還,通常來說,侵害行為人因不法行為獲得的利益包括固有利益、機(jī)會(huì)利益以及額外利益這三個(gè)部分[27],如何確定獲益返還的范圍事關(guān)受害人的權(quán)益保護(hù)與行為人的自由能否得到妥當(dāng)?shù)钠胶?。筆者認(rèn)為,侵害行為人需要返還的利益是機(jī)會(huì)利益與額外利益中因利用間接識(shí)別個(gè)人信息而獲得的那部分利益,對(duì)于固有利益以及因自身因素而獲得的利益則無須返還,否則可能致使受害人因侵害行為而獲利,有悖于公平正義原則。

就酌定賠償而言,法官在具體個(gè)案中應(yīng)當(dāng)綜合考慮間接識(shí)別個(gè)人信息的識(shí)別程度、信息處理目的的正當(dāng)性程度、信息處理行為的社會(huì)危害性等因素。通過明確酌定賠償?shù)目剂恳蛩?,能夠限制法官的自由裁量?quán),使得判決結(jié)果更具有可預(yù)見性,同時(shí)以一種可控制的方式實(shí)現(xiàn)對(duì)不同案件事實(shí)多樣性的考量[28]。關(guān)于酌定賠償?shù)臄?shù)額,美國《加州消費(fèi)者隱私法案》規(guī)定酌定賠償?shù)姆秶鷳?yīng)當(dāng)在100至750美元之間。遺憾的是,《個(gè)人信息保護(hù)法》第六十九條并未就個(gè)人信息侵權(quán)損害酌定賠償?shù)姆秶枰悦鞔_。有鑒于此,未來相關(guān)司法解釋應(yīng)當(dāng)立足于我國現(xiàn)實(shí)情況,明確間接識(shí)別個(gè)人信息侵權(quán)損害酌定賠償數(shù)額的區(qū)間,并根據(jù)社會(huì)發(fā)展情況進(jìn)行適時(shí)的動(dòng)態(tài)調(diào)整。

(四)適用舉證責(zé)任倒置

從訴訟的本質(zhì)看,當(dāng)事人在主張對(duì)自己有利的事實(shí)時(shí)必須就該主張負(fù)擔(dān)舉證責(zé)任,如果其不能就有利于自己的事實(shí)提供證據(jù),則可能承擔(dān)不利的后果[29]。根據(jù)舉證責(zé)任分配的一般原則,信息主體向侵害行為人請(qǐng)求損害賠償時(shí),應(yīng)當(dāng)提供證據(jù)證明侵害行為人不法侵害間接識(shí)別個(gè)人信息、侵害行為人主觀上存在過錯(cuò)、自己遭受損害以及損害與侵害行為之間存在因果關(guān)系,否則可能承擔(dān)敗訴的風(fēng)險(xiǎn)。然而,在生成式人工智能領(lǐng)域,“誰主張誰舉證”的證明責(zé)任配置原則遭遇困境。

生成式人工智能由算法、數(shù)據(jù)以及算力三大模塊構(gòu)成,導(dǎo)致生成式人工智能服務(wù)者、生成式人工智能使用者、信息處理者以及算法設(shè)計(jì)者都可能成為侵權(quán)主體?,F(xiàn)階段,生成式人工智能可以通過開放接口的方式供其他應(yīng)用程序所使用,應(yīng)用范圍涵蓋教育、金融、醫(yī)療、科研等領(lǐng)域,譬如Edge瀏覽器與Office軟件均已接入ChatGPT系統(tǒng)。如果按照《暫行辦法》第二十二條關(guān)于生成式人工智能服務(wù)提供者的定義,則接入ChatGPT系統(tǒng)的Edge瀏覽器以及Office軟件的提供者均屬于生成式人工智能服務(wù)提供者,這使得生成式人工智能應(yīng)用中間接識(shí)別個(gè)人信息的侵權(quán)責(zé)任主體較為復(fù)雜。實(shí)踐中,信息主體受限于專業(yè)知識(shí)不足、信息不對(duì)稱等現(xiàn)實(shí)因素,很難提供具有充足證明力的證據(jù),此時(shí)若仍將證明責(zé)任完全分配給受害人,則其很可能因舉證不能而得不到法律救濟(jì),不僅有違實(shí)質(zhì)意義上的公平正義,還可能助長個(gè)人信息侵權(quán)現(xiàn)象。

舉證責(zé)任倒置將原本應(yīng)當(dāng)由一方當(dāng)事人對(duì)某法律要件事實(shí)的存在負(fù)擔(dān)舉證責(zé)任,轉(zhuǎn)由另一方當(dāng)事人就該事實(shí)不存在負(fù)擔(dān)舉證責(zé)任[30]。舉證責(zé)任倒置能夠?qū)⑿畔⒅黧w從沉重的證明負(fù)擔(dān)中解脫出來,有利于及時(shí)對(duì)侵害行為人進(jìn)行追責(zé),從而促進(jìn)糾紛的快速解決。為了平衡兩造當(dāng)事人的合法權(quán)益,應(yīng)部分而非全部倒置舉證責(zé)任,具體來說,受害者應(yīng)就其權(quán)益受侵害、侵害行為人等事項(xiàng)提供初步的證據(jù),而對(duì)于主觀過錯(cuò)、侵權(quán)情節(jié)嚴(yán)重程度等事項(xiàng),則由侵害行為人予以證明,如果侵害行為人無法提供足夠的證據(jù)予以證明的,則認(rèn)為受害人的訴訟請(qǐng)求成立。

五、結(jié)語

人是社會(huì)性動(dòng)物,個(gè)人的生存與發(fā)展離不開社會(huì)交往,人們在參與社會(huì)生活過程中,也在不斷衍生間接識(shí)別個(gè)人信息。隨著生成式人工智能被廣泛應(yīng)用于各個(gè)領(lǐng)域,間接識(shí)別個(gè)人信息的法律保護(hù)迎來了新的挑戰(zhàn)。需明確的是,間接識(shí)別個(gè)人信息的法律保護(hù)不是機(jī)械的技術(shù)性操作,而是內(nèi)蘊(yùn)多元利益的價(jià)值評(píng)價(jià),如何平衡價(jià)值的安定性與智能技術(shù)的發(fā)展性是間接識(shí)別個(gè)人信息保護(hù)需要考慮的核心議題。為此,應(yīng)當(dāng)以可識(shí)別性為核心要素,同時(shí)輔之以具體場景下的多重價(jià)值考量來靈活認(rèn)定間接識(shí)別個(gè)人信息。由于可識(shí)別程度天然地具有差異性,應(yīng)當(dāng)根據(jù)間接識(shí)別個(gè)人信息內(nèi)含的可識(shí)別性的差異重塑知情同意規(guī)則,實(shí)現(xiàn)實(shí)質(zhì)意義上的平等。為了更好救濟(jì)信息主體的合法權(quán)益,有必要承認(rèn)風(fēng)險(xiǎn)性損害,明確損害賠償?shù)臄?shù)額,并在程序方面實(shí)行舉證責(zé)任倒置,通過實(shí)體規(guī)則與程序規(guī)則的雙向協(xié)動(dòng),促進(jìn)生成式人工智能應(yīng)用中間接識(shí)別個(gè)人信息法律保護(hù)的有效落實(shí)。

參考文獻(xiàn):

[1] 郭明龍. 個(gè)人信息權(quán)利的侵權(quán)法保護(hù)[M]. 北京:中國法制出版社,2012:24.

[2] 周學(xué)峰 .生成式人工智能侵權(quán)責(zé)任探析[J]. 比較法研究,2023(4):117?131.

[3] 王建磊,曹卉萌. ChatGPT的傳播特質(zhì)、邏輯、范式[J]. 深圳大學(xué)學(xué)報(bào)(人文社會(huì)科學(xué)版),2023(2):144?152.

[4] 王衛(wèi). 平衡科技創(chuàng)新與隱私保護(hù) 多國計(jì)劃加強(qiáng)對(duì)ChatGPT監(jiān)管[N]. 法治日?qǐng)?bào),2023-04-10(5).

[5] 李翔,曠銀. ChatGPT類人工智能及其生成物的刑法思考[J]. 貴州師范大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023(4):78?91.

[6] 張凌寒. 深度合成治理的邏輯更新與體系迭代——ChatGPT等生成型人工智能治理的中國路徑[J]. 法律科學(xué),2023(3):38?51.

[7] 徐鳳. 人工智能算法黑箱的法律規(guī)制——以智能投顧為例展開[J]. 東方法學(xué),2019(6):78?86.

[8] 張欣. 生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管[J]. 現(xiàn)代法學(xué),2023(3):108?123.

[9] E.博登海默. 法理學(xué)——法律哲學(xué)與法律方法[M]. 鄧正來,譯. 北京:中國政法大學(xué)出版社,1998: 486.

[10]高富平. 個(gè)人信息保護(hù):從個(gè)人控制到社會(huì)控制[J]. 法學(xué)研究,2018(3):84?101.

[11] KANG J. Information privacy in cyberspace transactions [J]. Stanford Law Review, 1997, 50(4): 1193?1294.

[12]林喆. 權(quán)利的法哲學(xué)——黑格爾法權(quán)哲學(xué)研究[M]. 濟(jì) 南:山東人民出版社,1999:248.

[13]郭小東. 生成式人工智能的風(fēng)險(xiǎn)及其包容性法律治理 [J]. 北京理工大學(xué)學(xué)報(bào)(社會(huì)科學(xué)版),2023(6): 93?117.

[14] 高秦偉. 個(gè)人信息概念之反思和重塑——立法與實(shí)踐的理論起點(diǎn)[J]. 人大法律評(píng)論,2011(1):209?235.

[15] 於興中,鄭戈,丁曉東. 生成式人工智能與法律的六大議題:以ChatGPT為例[J]. 中國法律評(píng)論,2023(2):1?20.

[16] 曾世雄. 損害賠償法原理[M]. 北京:中國政法大學(xué)出 版社,2001:118?119.

[17] 王利明. 侵權(quán)責(zé)任法研究(上卷)[M]. 北京:中國人民大學(xué)出版社,2016:312?313.

[18] 黃耀賞.淺談“得以間接方式識(shí)別特定個(gè)人之資料”[J].科技法律透析,2015(1):31?35.

[19] 范姜真媺.個(gè)人資料保護(hù)法關(guān)于“個(gè)人資料”保護(hù)范圍之檢討[J].東海大學(xué)法學(xué)研究,2013(41): 91?123.

[20] SPINDLER G, SCHMECHEL P. Personal data and encryption in the European general data protection regulation[J]. Journal of Intellectual Property, Information Technology and E-Commerce Law, 2016, 7(2): 163.

[21] 于文軒. ChatGPT與敏捷治理[J]. 學(xué)海,2023(2):52?57.

[22] SCHWARTZ P M, SOLOVE D J. The PII problem: privacy and a new concept of personally identifiable information[J]. New York University Law Review, 2011, 86(6): 1814.

[23] 馮愷. 個(gè)人信息“選擇退出”機(jī)制的檢視和反思[J]. 環(huán)球法律評(píng)論,2020(4):148?165.

[24] 李怡. 個(gè)人一般信息侵權(quán)裁判規(guī)則研究——基于68個(gè)案例樣本的類型化分析[J]. 政治與法律,2019(6):150?161.

[25] 李薇薇. 論國際人權(quán)法中的平等與不歧視[J]. 環(huán)球法律評(píng)論,2004(2):226?233.

[26] 曾世雄. 損害賠償法原理[M]. 北京:中國政法大學(xué)出版社,2001:25.

[27] 馮德淦. 獲利返還制度的法理研究[J]. 法制與社會(huì)發(fā)展,2023(1):187?207.

[28] 海爾穆特·庫齊奧. 動(dòng)態(tài)系統(tǒng)論導(dǎo)論[J]. 張玉東,譯.甘肅政法學(xué)院學(xué)報(bào),2013(4):40?47.

[29] 谷口安平. 程序的正義與訴訟[M].王亞新,等譯. 北京:中國政法大學(xué)出版社,1996:243?244.

[30] 李浩. 舉證責(zé)任倒置:學(xué)理分析與問題研究[J]. 法商研究,2003(4):87?94.

Legal Protection for Indirect Identification of Personal Information

in Generative Artificial Intelligence

Zhu Rongrong

(China University of Mining and Technology, Jiangsu Xuzhou 221116, China)

Abstract:The application of generative artificial intelligence widely poses challenges to the legal protection of indirect identification of personal information. Traditional informed consent are merely formalities, the scope of indirect identification of personal information is difficult to determine, the risk of information disclosure is increased, and the difficulty of proof of damage is increased. At present, there are issues with the legislation on indirect identification of personal information protection in China, including vague conceptual definitions, expansion of protection levels, and incomplete mechanisms for tort relief. As a result, it is unable to achieve a balanced consideration between information protection and industrial development. In view of this, the scope of indirect identification of personal information should be flexibly determined by a combination of static and dynamic identification, a hierarchical informed consent should be constructed, the risk damage should be recognized, the amount of damage compensation should be reasonably calculated, and the burden of proof should be reversed. These measures will promote a benign balance between the protection of indirect identification rights and the innovation in generative artificial intelligence.

Keywords: generative artificial intelligence; ChatGPT; indirect identification of personal information; identifiability