習(xí)近平總書記強(qiáng)調(diào):“堅(jiān)持以人為本、智能向善”。當(dāng)前,人工智能技術(shù)日新月異,既深刻影響改變著人們的生產(chǎn)生活方式、加速了經(jīng)濟(jì)社會發(fā)展進(jìn)程,也對法律規(guī)范、道德倫理、公共治理等造成沖擊。其中,對隱私權(quán)、個(gè)人信息安全等的威脅是值得關(guān)注的重要問題。黨的二十屆三中全會《決定》對“建立人工智能安全監(jiān)管制度”作出重要部署,保護(hù)隱私權(quán)和個(gè)人信息安全是人工智能安全監(jiān)管的題中應(yīng)有之義。必須加強(qiáng)人工智能時(shí)代的隱私權(quán)保護(hù),確保個(gè)人信息安全。
人工智能時(shí)代隱私權(quán)面臨嚴(yán)峻挑戰(zhàn)。隱私是自然人的私人生活安寧和不愿為他人知曉的私密空間、私密活動、私密信息。民法典規(guī)定:“自然人享有隱私權(quán)。任何組織或者個(gè)人不得以刺探、侵?jǐn)_、泄露、公開等方式侵害他人的隱私權(quán)?!彪[私權(quán)作為人格權(quán)的核心要素,是構(gòu)筑人格尊嚴(yán)的重要基礎(chǔ)。不被公開、不被知曉是隱私權(quán)的核心訴求。當(dāng)前,人工智能以悄無聲息的方式介入人們生產(chǎn)生活的各領(lǐng)域各方面各環(huán)節(jié),產(chǎn)生智能醫(yī)療、智能交通、智能推薦等眾多應(yīng)用場景,技術(shù)本身存在的某些缺陷和規(guī)則的不完善,不可避免帶來侵害隱私權(quán)的問題。比如,非法收集和使用個(gè)人信息,利用分析這些個(gè)人信息頻繁推送所謂“個(gè)性化”的“精準(zhǔn)廣告”,泄露個(gè)人信息給第三方,導(dǎo)致私人生活頻頻受到垃圾信息侵?jǐn)_;利用個(gè)人信息進(jìn)行“大數(shù)據(jù)殺熟”,實(shí)現(xiàn)“一客一價(jià)”的精準(zhǔn)價(jià)格歧視,令公民遭受財(cái)產(chǎn)損失;已脫敏個(gè)人信息被重新識別,因保護(hù)措施不當(dāng)導(dǎo)致數(shù)據(jù)泄露,非法買賣個(gè)人信息現(xiàn)象屢見不鮮,侵害個(gè)人信息安全;借助個(gè)人信息進(jìn)行深度偽造,通過聲音仿真、AI換臉等手段,實(shí)施詐騙等違法犯罪行為;等等。這說明,侵害隱私權(quán)不僅侵犯了公民的人格尊嚴(yán),也會造成其他嚴(yán)重社會后果。
去私密化技術(shù)特征加劇個(gè)人信息安全風(fēng)險(xiǎn)。以大數(shù)據(jù)為基礎(chǔ)的人工智能在應(yīng)用之初,許多人是抱著觀望、懷疑的心態(tài)看待這種新技術(shù)的。隨著人工智能以擬人化的外在形式、個(gè)性化的服務(wù)提供、沉浸式的互動過程不斷改善使用者的產(chǎn)品體驗(yàn)和心理感受,越來越多的人逐漸成為人工智能的忠實(shí)用戶,享受著人工智能給自己帶來的各種便捷。隨著人機(jī)互動、萬物互聯(lián)的物聯(lián)網(wǎng)技術(shù)普及,智能家居、智能辦公、智能工廠、智能駕駛等人工智能應(yīng)用場景也不斷拓展,個(gè)人能夠以數(shù)字人的存在形式在數(shù)字空間提出需求、獲得服務(wù),也在不知不覺中向人工智能源源不斷地輸送著個(gè)人信息。個(gè)人在數(shù)字空間留下的任何痕跡都被數(shù)字化,形成個(gè)人信息,并作為人們“聯(lián)系世界的介質(zhì)”發(fā)揮著重要功能。與此同時(shí),人工智能為了改善服務(wù)質(zhì)量,也傾向于過度收集使用個(gè)人信息。這都使得人工智能具有鮮明的去私密化技術(shù)特征。也正是在那些人工智能使用者習(xí)以為常的個(gè)人信息流動中,混合著公共數(shù)據(jù)和私人數(shù)據(jù)的大數(shù)據(jù)被挖掘、整合、分析、利用,人們難以憑自己的感官察覺到隱私權(quán)被侵害,個(gè)人信息安全面臨著更高的風(fēng)險(xiǎn)。
尊重個(gè)體選擇,堅(jiān)持知情同意。不同的人對個(gè)人信息被知悉、被利用的接受程度不同,應(yīng)尊重個(gè)人意愿,科學(xué)合理地執(zhí)行“知情同意”原則。知情同意原則包括知情和同意兩方面,同意必須以知情為前提,沒有充分的知情和理解,就不可能有真正意義上的同意。信息、理解和自愿,是知情同意原則的三要素。在全面“知情”的基礎(chǔ)上,個(gè)人可以自主作出怎樣“同意”的意思表示。這就需要在用戶使用人工智能時(shí),作出通俗易懂而又清晰明了的提示說明,征得用戶對個(gè)人信息收集使用的同意。如果個(gè)人信息會在不同平臺之間流動,需要將流動范圍、目標(biāo)、使用邊界讓用戶知曉。為了良好和流暢的用戶體驗(yàn),也可以給用戶提供一次性或分階段進(jìn)行授權(quán)的選擇。要告知用戶收集個(gè)人信息的范圍、方式和用途以及與誰共享個(gè)人信息,用戶也應(yīng)當(dāng)可以選擇隨時(shí)退出。在進(jìn)行個(gè)人信息分析時(shí),應(yīng)以彈窗或其他形式提示用戶注意并實(shí)時(shí)授權(quán)。設(shè)置數(shù)據(jù)生命周期、按時(shí)刪除個(gè)人信息也是保護(hù)個(gè)人信息安全的有效方式。
完善技術(shù)手段,確保智能向善。技術(shù)導(dǎo)致的問題,要善于從技術(shù)層面確立解決問題的思路。人工智能時(shí)代隱私權(quán)面臨挑戰(zhàn),其直接的觸發(fā)因素是技術(shù)的演進(jìn)。從分析式人工智能到生成式人工智能,人工智能技術(shù)每一次迭代升級,都可能對隱私權(quán)帶來新的沖擊。因此,技術(shù)解決方案必須置于關(guān)鍵位置,應(yīng)通過完善數(shù)據(jù)庫安全、核心數(shù)據(jù)加密、個(gè)人數(shù)據(jù)脫敏等技術(shù),建立保護(hù)隱私權(quán)和個(gè)人信息安全的防火墻。個(gè)人信息一般會經(jīng)過收集、存儲和使用三個(gè)階段,而這三個(gè)階段都可能存在侵害隱私權(quán)和個(gè)人信息安全的風(fēng)險(xiǎn)。應(yīng)根據(jù)不同階段個(gè)人信息所處的不同狀況,從技術(shù)上進(jìn)行有效保護(hù)。在個(gè)人信息收集階段,加強(qiáng)匿名化技術(shù)推廣運(yùn)用。收集個(gè)人信息雖然不可避免,但只要匿名化,不把個(gè)人信息與身份對應(yīng),隱私權(quán)就不會受到侵害。個(gè)人信息存儲階段,要完善加密技術(shù)。當(dāng)前,數(shù)據(jù)存儲主要有數(shù)據(jù)庫存儲和云存儲兩種方式。外部入侵竊取和內(nèi)部人員未經(jīng)授權(quán)的查看、使用、泄露是存儲階段個(gè)人信息安全的主要威脅。要強(qiáng)化數(shù)據(jù)加密,同時(shí)嚴(yán)格數(shù)據(jù)訪問權(quán)限控制。個(gè)人信息使用階段,要從技術(shù)上加強(qiáng)對個(gè)人信息違法使用的實(shí)時(shí)介入、干擾、阻斷,為隱私權(quán)和個(gè)人信息安全多添一層保護(hù)。
隨著我國法律規(guī)則日益完善、保護(hù)力度持續(xù)加強(qiáng),特別是民法典、個(gè)人信息保護(hù)法對隱私權(quán)和個(gè)人信息保護(hù)作出詳細(xì)規(guī)定,明確了個(gè)人信息處理活動中權(quán)利和義務(wù)的邊界,人工智能時(shí)代我國對隱私權(quán)和個(gè)人信息安全的法律保護(hù)必將邁上更高水平,為人工智能健康發(fā)展、更好造福人民群眾提供堅(jiān)強(qiáng)法律保障。
(作者為南京師范大學(xué)新聞與傳播學(xué)院教授)