国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

第四次工業(yè)革命背景下政府?dāng)?shù)字化轉(zhuǎn)型的挑戰(zhàn)和應(yīng)對(duì)

2022-11-24 11:00:27郭一帆
臨沂大學(xué)學(xué)報(bào) 2022年2期
關(guān)鍵詞:個(gè)人信息人工智能算法

郭一帆

(1.忻州師范學(xué)院 法律系,山西 忻州 034000;2.全州大學(xué) 法學(xué)院,韓國(guó) 全州 55069)

一、工業(yè)革命和政府轉(zhuǎn)型

詹姆斯·瓦特發(fā)明蒸汽機(jī)導(dǎo)致第一次工業(yè)革命,最終使農(nóng)業(yè)社會(huì)轉(zhuǎn)變?yōu)楣I(yè)社會(huì)。第一次工業(yè)革命的產(chǎn)業(yè)核心從農(nóng)產(chǎn)品生產(chǎn)轉(zhuǎn)向機(jī)械化勞動(dòng)生產(chǎn),生產(chǎn)中心從生產(chǎn)各種農(nóng)產(chǎn)品的農(nóng)村轉(zhuǎn)移到生產(chǎn)批量產(chǎn)品的工業(yè)城市。新技術(shù)的出現(xiàn)、人口向城市遷移以及重點(diǎn)工業(yè)的轉(zhuǎn)移導(dǎo)致了農(nóng)業(yè)社會(huì)向工業(yè)社會(huì)不可逆轉(zhuǎn)的轉(zhuǎn)變。城市成為社會(huì)、經(jīng)濟(jì)和政治交往的主要平臺(tái)。制造業(yè)成為經(jīng)濟(jì)中最重要的部分,成為國(guó)家財(cái)富和權(quán)力的源泉。制造業(yè)創(chuàng)造了新的需求和市場(chǎng),進(jìn)一步加速了生產(chǎn)者的崛起,促進(jìn)了加工工業(yè)以及其他工業(yè)的快速發(fā)展,推動(dòng)了現(xiàn)代化工業(yè)國(guó)家的建立。類似的社會(huì)變革也體現(xiàn)在第二和第三次工業(yè)革命進(jìn)程中。電力促進(jìn)了電燈器具的發(fā)明,進(jìn)而擴(kuò)大了人們夜間活動(dòng)的范圍,也推動(dòng)了諸如電報(bào)等通信設(shè)備的使用,使人們能夠進(jìn)行即時(shí)長(zhǎng)途通信,縮短了獲得信息的時(shí)間。然后在電學(xué)基礎(chǔ)之上,人類發(fā)明了模仿人類大腦計(jì)算功能的計(jì)算機(jī),隨后又發(fā)明了互聯(lián)網(wǎng)——將計(jì)算機(jī)連接成一個(gè)類似大腦的網(wǎng)絡(luò)。計(jì)算機(jī)和互聯(lián)網(wǎng)共同形成了所謂的信息社會(huì)(Information Society),其經(jīng)濟(jì)活動(dòng)從物質(zhì)生產(chǎn)轉(zhuǎn)向信息處理活動(dòng)。在信息社會(huì)中,人工智能(AI)、物聯(lián)網(wǎng)(IOT)、機(jī)器人工學(xué)、大數(shù)據(jù)、云計(jì)算、無人機(jī)、3D打印機(jī)、生命工學(xué)、納米工學(xué)等信息技術(shù)的發(fā)展推動(dòng)了新一輪的工業(yè)革命——“第四次工業(yè)革命”[1]?!暗谒拇喂I(yè)革命”一詞最早是在2016年達(dá)沃斯論壇(Davos Forum;World Economic Forum)上由論壇創(chuàng)始人兼現(xiàn)任會(huì)長(zhǎng)克勞斯·施瓦布(Klaus Schwab)提出的。[2]

在第一次工業(yè)革命中,大多數(shù)國(guó)家仍處于農(nóng)業(yè)國(guó),而西歐少數(shù)幾個(gè)國(guó)家如英國(guó)、法國(guó)、德國(guó)開始轉(zhuǎn)型為工業(yè)社會(huì),人口開始從農(nóng)村遷移到城市,制造業(yè)成為國(guó)家經(jīng)濟(jì)支柱產(chǎn)業(yè)。英國(guó)、法國(guó)、德國(guó)等國(guó)家從新的生產(chǎn)引擎中獲得了前所未有的權(quán)力和財(cái)富,在農(nóng)業(yè)時(shí)代掌握了統(tǒng)治權(quán)。第一次工業(yè)革命以前,土地和農(nóng)業(yè)是財(cái)富和權(quán)力的主要來源,因此國(guó)王、貴族、地主等特權(quán)階級(jí)占有絕大多數(shù)的土地,控制著國(guó)家政權(quán)。[3]當(dāng)時(shí)政府公職由繼承或買賣獲得,政府的政策和決策因領(lǐng)導(dǎo)人的不同而具有很大的差異,由此導(dǎo)致了公共行政標(biāo)準(zhǔn)缺乏全面性和一致性,進(jìn)而導(dǎo)致當(dāng)時(shí)的傳統(tǒng)農(nóng)業(yè)社會(huì)不能適應(yīng)工業(yè)革命所帶來的混亂,社會(huì)的混亂迫使政府公共行政開始尋求轉(zhuǎn)型。此外,農(nóng)業(yè)社會(huì)是以血緣關(guān)系、面對(duì)面接觸、不成文規(guī)范和相互依存的社會(huì)網(wǎng)絡(luò)為基礎(chǔ)的,而工業(yè)社會(huì)的社會(huì)關(guān)系則是非面對(duì)面的、不以人與人之間的關(guān)系為基礎(chǔ)。工業(yè)社會(huì)的發(fā)展導(dǎo)致以血緣為紐帶的農(nóng)業(yè)社會(huì)關(guān)系的解體,引發(fā)了社區(qū)失靈,因此需要有一種新的管理體制來協(xié)調(diào)這些匿名和非基于血緣關(guān)系的陌生人關(guān)系,這種新的社會(huì)管理體制即我們的現(xiàn)代政府。[4]新的政府體制取代了舊的體制,政府公職人員不再由貴族擔(dān)任,土地規(guī)劃不再由國(guó)王決定而是由憲法、法律、行政法規(guī)規(guī)定。政府的行政辦公逐漸全面化、規(guī)范化,行政決策也逐步標(biāo)準(zhǔn)化、法治化。盡管我們把這一切變革理解為政府為應(yīng)對(duì)工業(yè)革命而作出的改變,但實(shí)際上成功的轉(zhuǎn)型并不容易。新技術(shù)本身并不能使一個(gè)國(guó)家過渡到下一階段——政府需要適應(yīng)新的環(huán)境,提供新的政策、程序和結(jié)構(gòu),以借助這一次工業(yè)革命的力量順利實(shí)現(xiàn)轉(zhuǎn)型。[5]當(dāng)前,第四次工業(yè)革命如何助力政府?dāng)?shù)字化轉(zhuǎn)型成為新的議題。

二、第四次工業(yè)革命中前沿技術(shù)及其應(yīng)用

(一)前沿技術(shù)概述

人工智能、算法和大數(shù)據(jù)可以稱之為決定未來國(guó)家競(jìng)爭(zhēng)力的重要產(chǎn)業(yè)領(lǐng)域,是第四次工業(yè)革命的核心領(lǐng)域。人工智能(Artificial Intelligence)是指通過人的設(shè)計(jì)和加工而具有人性或智力的存在或智能。另一種說法是,人工智能也被稱為人造智能、智能機(jī)器人或智能代理。[6]人工智能并不是單一的一項(xiàng)技術(shù),而是由復(fù)雜的多種計(jì)算機(jī)技術(shù)構(gòu)成的智能系統(tǒng)。這些技術(shù)包括人工神經(jīng)網(wǎng)絡(luò)、進(jìn)化計(jì)算(由遺傳算法、進(jìn)化戰(zhàn)略和遺傳程序設(shè)計(jì))、模糊邏輯、專家系統(tǒng)、學(xué)習(xí)分類系統(tǒng)、自動(dòng)學(xué)習(xí)和深度學(xué)習(xí)等。[7]簡(jiǎn)單來說,人工智能可以分為軟件(算法)和硬件(機(jī)器)兩類。軟件中的人工智能技術(shù)包括數(shù)據(jù)挖掘、文本挖掘和情緒分析。在硬件中,主要有機(jī)器人、自主車輛、人工視覺和虛擬現(xiàn)實(shí)等技術(shù)。[8]這些技術(shù)的應(yīng)用將有助于實(shí)現(xiàn)工業(yè)自動(dòng)化、降低成本和錯(cuò)誤、提高效率和競(jìng)爭(zhēng)力、創(chuàng)造價(jià)值和避免欺詐。人工智能技術(shù)的產(chǎn)生需要具備以下領(lǐng)域的知識(shí):物理學(xué)、生物學(xué)、電子學(xué)和編程學(xué),在一些特殊領(lǐng)域,研究人工智能甚至還需要了解神經(jīng)科學(xué)、語(yǔ)言學(xué)、程序設(shè)計(jì)、統(tǒng)計(jì)學(xué)、運(yùn)籌學(xué)、博弈論等方面知識(shí)。

算法是指明確描述解決某一問題的程序(過程)。[9]算法來源于9世紀(jì)波斯數(shù)學(xué)家“阿勒霍瓦里松(al-khwarizmi)”的名字,算法由邏輯(logic)和控制(control)兩個(gè)元素組成。邏輯是知識(shí)解決問題,控制是策略解決問題。算法按照事先給定的順序依命令運(yùn)行并提供結(jié)果,例如,谷歌搜索算法“頁(yè)面排名(PageRank)”根據(jù)文檔的相對(duì)重要程度進(jìn)行加權(quán),對(duì)結(jié)果進(jìn)行排序。算法具有權(quán)力性、政治性、秘密性、商業(yè)性和生活滲透性。[10]算法的權(quán)力性,是指算法可以改變?nèi)说奈幕r(jià)值觀,也可以判斷人的重要權(quán)利受到的侵害和影響。另外,算法也具有政治性。人在與他人進(jìn)行多種方式的互動(dòng)中,他們的價(jià)值觀和想法可以被修正和調(diào)整,也就是說,通過算法可以控制人的價(jià)值觀、想法和世界觀等。這些算法的控制可以被算法的創(chuàng)建者多樣化,因此算法本身可以作為一個(gè)政治工具而具有政治性。算法還具有秘密性,即算法不容易被公開或者即使算法被公開也不容易被人了解。此外,算法在我們的生活中隨處可見,并經(jīng)常用于商業(yè)和生活,因此具有商業(yè)性和生活滲透性。例如算法通過分析人們的喜好,向人們推薦音樂、電影、新聞等多種服務(wù)或商品等。

大數(shù)據(jù)是指提取和分析大量整型或非整型數(shù)據(jù)的集合以及從這些數(shù)據(jù)中提取價(jià)值的技術(shù),其規(guī)模龐大、生成周期短,提取的數(shù)據(jù)不僅包括數(shù)值數(shù)據(jù),還包括文字和圖像數(shù)據(jù)。梅塔集團(tuán)(現(xiàn)加特納)的分析師道格蕾妮(Doug Laney)在2001年的研究報(bào)告和相關(guān)講座中提出了“3V”模式來定義大數(shù)據(jù)的三個(gè)特征:數(shù)據(jù)量(volume)、數(shù)據(jù)輸入輸出的速度(velocity)、數(shù)據(jù)種類的多樣性(variety)。[11]這個(gè)“3V”模式后來成為使用最廣泛的大數(shù)據(jù)的定義。之后IBM加上“準(zhǔn)確性”(veracity)這一元素,此外還添加了“可變性”(variability)來定義其特征。

人工智能(AI)、算法和大數(shù)據(jù)構(gòu)成了第四次工業(yè)革命的三大要素。其中大數(shù)據(jù)是基礎(chǔ)要素,如果沒有高質(zhì)量的、大量的數(shù)據(jù)注入,那么AI技術(shù)和算法就毫無意義。反過來,人工智能和算法技術(shù)的發(fā)展也提高了數(shù)據(jù)的質(zhì)量和利用效率,促進(jìn)了大數(shù)據(jù)技術(shù)的發(fā)展。

(二)前沿技術(shù)在政府中的應(yīng)用

人工智能、算法、大數(shù)據(jù)等前沿技術(shù)能減輕行政負(fù)擔(dān)、協(xié)助解決資源分配問題,各個(gè)國(guó)家、政府機(jī)構(gòu)都在努力發(fā)展前沿技術(shù)來改善政務(wù)服務(wù)。

在澳大利亞,虛擬聊天助理“Alex”減輕了澳大利亞稅務(wù)局客服的服務(wù)壓力?!癆lex”答復(fù)了接近80%的客戶咨詢,并解決了客戶60%到65%的問題,讓澳大利亞稅務(wù)局的工作人員可以利用剩余時(shí)間解決客戶相對(duì)復(fù)雜的難題。[12]

在美國(guó),洛杉磯機(jī)場(chǎng)的警察沒有足夠的警力來隨時(shí)對(duì)機(jī)場(chǎng)人員進(jìn)行檢查,他們?cè)贏I的幫助下,預(yù)測(cè)了洛杉磯機(jī)場(chǎng)的安全日程并制定了巡邏路線,以此減少警力輸出壓力。在紐約和洛杉磯主要港口,類似的AI技術(shù)被用于隨機(jī)安排船只巡邏路線。紐約市使用大數(shù)據(jù)和人工智能方法監(jiān)測(cè)水流、識(shí)別和修復(fù)水泄漏。華盛頓特區(qū)通過檢查用水趨勢(shì)數(shù)據(jù)來確定潛在的水管滲漏和管道問題并為顧客提供用水高峰示警。舊金山市通過無線智能控制器運(yùn)行街燈系統(tǒng)以降低能源成本,該系統(tǒng)讓城市工作人員能夠遠(yuǎn)程監(jiān)控城市每一盞燈的性能,根據(jù)需要調(diào)整光強(qiáng)水平,在檢測(cè)不到人類活動(dòng)時(shí)減少所需的光線。此外,美國(guó)數(shù)個(gè)城市已安裝名為“Shot Spotter”的偵測(cè)系統(tǒng),利用分布在城市街區(qū)內(nèi)的網(wǎng)絡(luò)聲音感應(yīng)器,自動(dòng)識(shí)別槍彈的聲響并準(zhǔn)確地報(bào)告地點(diǎn)。Shot Spotter的算法可以區(qū)分槍彈和其他類似聲音如汽車回音,可以測(cè)量槍彈的起源、確定是否涉及多枚槍械,并識(shí)別射手移動(dòng)的方向。[13]

在英國(guó),英國(guó)自然環(huán)境研究委員會(huì)(NECK)正在向國(guó)立海洋科學(xué)中心、??巳卮髮W(xué)和南安普敦大學(xué)投資430萬英鎊進(jìn)行傳感器研究。這些傳感器將幫助研究人員回答有關(guān)海洋中的問題,例如二氧化碳如何在大氣和水之間流動(dòng)、海洋保護(hù)區(qū)中的冷水珊瑚的健康狀況等。[14]

在我國(guó),大數(shù)據(jù)、人工智能、云計(jì)算等技術(shù)為我國(guó)政府?dāng)?shù)字化轉(zhuǎn)型帶來了契機(jī)。我國(guó)不斷推進(jìn)“互聯(lián)網(wǎng)+政務(wù)服務(wù)”業(yè)務(wù)體系,創(chuàng)建電子政務(wù)app,實(shí)現(xiàn)了“最多跑一次”“一網(wǎng)通辦”的便民服務(wù)。以北京市為例,市民打開“北京通”,無論是辦身份證、居住證,還是辦理社??ǖ葮I(yè)務(wù),僅需要填一張表就可以完全辦理,省去了繁瑣的程序和手續(xù)費(fèi)。[15]又如,在疫情防控期間,“健康碼”“行程碼”的應(yīng)用對(duì)加強(qiáng)疫情防控、穩(wěn)定社會(huì)秩序起到了重要作用。

三、第四次工業(yè)革命對(duì)政府?dāng)?shù)字化轉(zhuǎn)型提出的挑戰(zhàn)

第四次工業(yè)革命在對(duì)政府?dāng)?shù)字化轉(zhuǎn)型提供種種助力的同時(shí),也提出了諸多挑戰(zhàn),這些挑戰(zhàn)包括人工智能的倫理挑戰(zhàn)、算法不透明和算法歧視導(dǎo)致的社會(huì)公正挑戰(zhàn)、大數(shù)據(jù)公開和共享難題導(dǎo)致的數(shù)據(jù)利用挑戰(zhàn)以及在信息化社會(huì)中公民個(gè)人信息保護(hù)的挑戰(zhàn)。

(一)人工智能的倫理挑戰(zhàn)

目前,人工智能技術(shù)似乎正在為人們做出一些次要和初步的決定,隨著數(shù)據(jù)的可獲得性和機(jī)器學(xué)習(xí)工具的日益成熟,未來它們可能做出具有法律后果的重要決策,這些決策可能會(huì)引發(fā)一些倫理挑戰(zhàn)。

首先,我們?nèi)绾未_定人工智能的決策界限?例如COMPAS是預(yù)測(cè)犯罪分子再犯可能性的人工智能,該軟件基于犯罪分子對(duì)137個(gè)調(diào)查問題的回答,推斷出其再犯的可能性。也就是說,COMPAS可以對(duì)犯罪分子的犯罪經(jīng)歷、教育水平、職業(yè)經(jīng)歷、是否服用藥物、精神健康狀態(tài)等進(jìn)行評(píng)價(jià),并在此基礎(chǔ)上預(yù)測(cè)再犯的可能性。美國(guó)司法部的法官們將以COMPAS的再犯危險(xiǎn)評(píng)價(jià)為基礎(chǔ),決定被告保釋金的數(shù)額及刑量相關(guān)的所有問題。[16]這一事實(shí)引起了人們關(guān)于人工智能決策的廣泛討論:在這種情況下,我們應(yīng)該僅僅把人工智能的決策作為建議呢,還是會(huì)把它置于人類決定之上呢?換句話說,我們要把人工智能推導(dǎo)的決策視為一種政治正確的、價(jià)值中立的、基于證據(jù)的客觀結(jié)果來遵循,還是我們僅僅將它們視為值得我們考慮的建議?我們必須為人工智能的決策定下界限。

其次,另一個(gè)需要考慮的重要問題是人工智能將如何確定“好”(或可?。┖汀皦摹保ú豢扇。┮约啊案匾保榱苏l)?換句話說,就是人工智能的決策標(biāo)準(zhǔn)是什么?當(dāng)前人工智能技術(shù)廣泛地應(yīng)用于各種自主系統(tǒng)中,如無人駕駛系統(tǒng)或者自主武器系統(tǒng),當(dāng)發(fā)生人類無法介入而只有人工智能可以決策的情況時(shí),究竟該如何決策?例如,公共汽車進(jìn)行自動(dòng)駕駛時(shí),如果不可避免地卷入一起交通事故,而其智能系統(tǒng)只有兩個(gè)壞選擇,要么是選擇避開附近的幾名行人但是公共汽車司機(jī)將會(huì)發(fā)生危險(xiǎn),要么是選擇保護(hù)司機(jī)而使行人受損。在這種類似“電車?yán)Ь场钡牡赖码y題下,人工智能應(yīng)根據(jù)什么原則進(jìn)行決策是當(dāng)前需要進(jìn)行明確的。[17]

最后,人工智能是否應(yīng)為它的決策失誤負(fù)責(zé)?換句話說,人工智能能否成為權(quán)利主體(legal subject)?如果人工智能可以成為權(quán)利主體,那么根據(jù)民法,人工智能的意思表示可以認(rèn)定為具有法律效力,那么基于人工智能意思表示而作出的決策產(chǎn)生錯(cuò)誤的話,人工智能也可以作為責(zé)任主體承擔(dān)責(zé)任。但是賦予人工智能與人類相同的權(quán)利能力和行為能力具有相當(dāng)大的倫理風(fēng)險(xiǎn),關(guān)于這一問題還需要深入討論。

(二)算法不透明和算法歧視導(dǎo)致的社會(huì)公正挑戰(zhàn)

算法不透明是信息時(shí)代最大的困境之一。不透明是算法的一個(gè)特征,就連程序員也無法完全理解該算法如何讀取和處理數(shù)據(jù)。在研究機(jī)器學(xué)習(xí)算法的具體情況時(shí),珍娜·伯雷爾描述了三種不透明性[18]:第一種我們可以稱為“故意的”不透明——這是一種保密形式,使用該算法的公司故意隱瞞其工作過程。這種形式的不透明是出于保護(hù)公司秘密、保持競(jìng)爭(zhēng)優(yōu)勢(shì)或避免公眾監(jiān)督的意圖。第二種可以稱之為技術(shù)文盲的不透明——這是一種功能不透明形式,表現(xiàn)為沒有技術(shù)訓(xùn)練的人無法閱讀代碼。由于寫作和閱讀代碼是一種專門的活動(dòng),大多數(shù)人沒有接受過任何訓(xùn)練是無法理解算法代碼的,所以造成了這種形式的不透明。例如編程人員開放了算法的源代碼,這些算法可以公開使用,但對(duì)沒有適當(dāng)培訓(xùn)的人來說,它們的操作基本上是難以理解的。第三種是本質(zhì)上的不透明。現(xiàn)實(shí)情況是,某些機(jī)器學(xué)習(xí)算法(例如神經(jīng)網(wǎng)絡(luò))本質(zhì)上是非常不透明的。給這些算法編程的人并不知道算法做出決定的依據(jù)。編程人員只是使用學(xué)習(xí)規(guī)則對(duì)系統(tǒng)進(jìn)行編程,然后在對(duì)算法進(jìn)行數(shù)據(jù)訓(xùn)練后,算法便會(huì)生成自己的規(guī)則集。此外,編程人員不會(huì)單獨(dú)對(duì)算法進(jìn)行操作,他們通常通過團(tuán)隊(duì)合作將舊代碼組合在一起形成新系統(tǒng),這就創(chuàng)建了一個(gè)復(fù)雜的算法生態(tài)系統(tǒng),而由于編程人員較多、編程過程復(fù)雜,所以可能很難進(jìn)行算法逆向推理。算法的不透明造成了人們無法確定算法的分析和決策是否符合倫理標(biāo)準(zhǔn),因此也就無法準(zhǔn)確判斷在人工智能事故中算法是否存在問題。

此外,越來越多的學(xué)者開始關(guān)注算法歧視問題。凱西·奧尼爾在其“算法霸權(quán)”一書中寫道,數(shù)學(xué)應(yīng)用助推數(shù)據(jù)經(jīng)濟(jì),但這些應(yīng)用的建立是基于不可靠的人類所做的選擇。有些選擇無疑是出于好意,但也有許多模型把人類的偏見、誤解和偏愛編入了軟件系統(tǒng),而這些系統(tǒng)正日益在更大程度上操控著我們的生活。[19]算法也是如此,算法程序可能包含了人類的偏見,而這種偏見導(dǎo)致了對(duì)少數(shù)群體的歧視。

算法的歧視大致可分為兩類。第一種是指在算法的設(shè)計(jì)階段,開發(fā)人員故意插入了一個(gè)歧視性元素,從而導(dǎo)致了歧視性結(jié)果。第二種可以認(rèn)為,不管算法開發(fā)者的意圖如何,都會(huì)產(chǎn)生差異效果。根據(jù)算法的程序,自動(dòng)決策中包含的優(yōu)先級(jí)、分類、關(guān)聯(lián)、過濾等都可能繼承現(xiàn)有社會(huì)的偏見并隱含歧視性屬性。這種歧視往往很難通過技術(shù)手段消除,而從源頭上甄別哪些數(shù)據(jù)帶有歧視性是極其困難的,導(dǎo)致這一算法一旦形成并投入使用的話會(huì)對(duì)社會(huì)公平造成較大的影響。例如,谷歌的廣告門戶網(wǎng)站將關(guān)鍵詞“黑人女孩”“亞洲女孩”和“拉丁女孩(但不是“白人女孩”)”與色情網(wǎng)站連接起來。另外,在針對(duì)美國(guó)國(guó)家橄欖球聯(lián)盟(National Football League)的訴訟中,黑人球員聲稱,聯(lián)盟使用的評(píng)估神經(jīng)認(rèn)知功能算法認(rèn)為黑人球員天生就比白人球員有更低的認(rèn)知功能,這使得他們更難獲得與腦震蕩有關(guān)的癡呆癥的賠償。[20]這一事件迅速引起了美國(guó)社會(huì)中對(duì)算法種族歧視的討論。除此以外,算法的歧視還表現(xiàn)在性別歧視、國(guó)籍歧視等方面。

(三)大數(shù)據(jù)公開和共享難題導(dǎo)致的數(shù)據(jù)利用挑戰(zhàn)

海量的數(shù)據(jù)產(chǎn)生,起到了持續(xù)觸發(fā)良性循環(huán)結(jié)構(gòu)、引導(dǎo)第四次工業(yè)革命的關(guān)鍵作用。大數(shù)據(jù)是信息社會(huì)最基礎(chǔ)的元素,是提升國(guó)家和社會(huì)競(jìng)爭(zhēng)力的有力武器。如果全社會(huì)的數(shù)據(jù)可以實(shí)現(xiàn)完全流通和交易,那么其價(jià)值將不可估量。數(shù)據(jù)的流通需要具備完善的數(shù)據(jù)生態(tài)系統(tǒng)。數(shù)據(jù)生態(tài)系統(tǒng)可分為五個(gè)階段過程:第一獲取階段,即生產(chǎn)數(shù)據(jù)階段。在這個(gè)階段,可能會(huì)有收集和加工現(xiàn)有數(shù)據(jù)的過程;第二階段是處理數(shù)據(jù)的階段,為符合利用的目的進(jìn)行存儲(chǔ)、修改、刪除和補(bǔ)充數(shù)據(jù);第三個(gè)階段是分析利用數(shù)據(jù)的階段;第四階段是將與分析和利用相關(guān)的數(shù)據(jù)結(jié)果存放在儲(chǔ)存裝置中;第五個(gè)階段是重新使用或銷毀保存的數(shù)據(jù)。[21]在這五個(gè)階段中,第一和第二最容易實(shí)現(xiàn),例如我國(guó)政府通過多種方式收集、記錄公民信息,并成立了多個(gè)數(shù)據(jù)平臺(tái)進(jìn)行數(shù)據(jù)的處理和存儲(chǔ)。而第四步和第五步也較容易實(shí)現(xiàn)。我國(guó)數(shù)據(jù)不能實(shí)現(xiàn)完全流通,問題出在第三步,即數(shù)據(jù)的利用。

當(dāng)前我國(guó)數(shù)據(jù)“割據(jù)”問題嚴(yán)重,數(shù)據(jù)管理各自為政、數(shù)據(jù)共享縱強(qiáng)橫弱,部門獲取地方信息容易、地方獲取部門信息困難,垂直管理部門內(nèi)部共享容易、跨省橫向共享困難。[22]究其原因,一是數(shù)據(jù)孤島難打破。部門與部門之間相對(duì)獨(dú)立,數(shù)據(jù)被各自存儲(chǔ)、各自保管。又因?yàn)楦鞑块T功能不同,對(duì)數(shù)據(jù)的使用和定義有比較大的差異,最終導(dǎo)致數(shù)據(jù)無法互通,形成孤島。另外,各部門功能化、層級(jí)化管理衍生出的數(shù)據(jù)保護(hù)主義,導(dǎo)致各部門認(rèn)為其收集的數(shù)據(jù)屬于“個(gè)人資產(chǎn)”或者“部門資產(chǎn)”,為鞏固本部門權(quán)力而“不敢共享、不愿共享”。二是并未建立統(tǒng)一的數(shù)據(jù)共享和交易平臺(tái)。目前,我國(guó)多數(shù)省份建立了大數(shù)據(jù)處理中心以處理各省采集的公共數(shù)據(jù),基本實(shí)現(xiàn)了市與省之間的縱向數(shù)據(jù)傳輸,但是市與市之間、省與省之間并未建立統(tǒng)一的數(shù)據(jù)共享和交易平臺(tái),數(shù)據(jù)與數(shù)據(jù)的共享和交易仍存在橫向的物理隔離。三是數(shù)據(jù)開放和共享的法律制度不夠完善。例如目前我國(guó)在國(guó)家層面缺乏統(tǒng)一的數(shù)據(jù)開放和共享的法律規(guī)定,已經(jīng)有數(shù)據(jù)開放和共享立法實(shí)踐的部分省市在數(shù)據(jù)開放的種類、開放的原則、開放的程序、開放的標(biāo)準(zhǔn)等方面也存在許多差異。另外這些地方立法存在“立法重復(fù)”“立法抄襲”的情況,因此,有必要完善數(shù)據(jù)共享開放法律制度,在國(guó)家層面制定數(shù)據(jù)開放和共享法律或者行政法規(guī)以統(tǒng)一數(shù)據(jù)處理規(guī)范、指導(dǎo)地方數(shù)據(jù)處理實(shí)踐,為提高數(shù)據(jù)利用效率保駕護(hù)航。

(四)公民個(gè)人信息保護(hù)的挑戰(zhàn)

個(gè)人信息是以電子或者其他方式記錄的能夠單獨(dú)或者與其他信息結(jié)合識(shí)別特定自然人的各種信息,包括自然人的姓名、出生日期、身份證件號(hào)碼、生物識(shí)別信息、住址、電話號(hào)碼、電子郵箱、健康信息、行蹤信息等。個(gè)人信息分為私密信息和非私密信息,其中私密信息適用《民法典》有關(guān)隱私權(quán)的規(guī)定。

政府出于管理的目的收集和利用個(gè)人數(shù)據(jù)。政府部門之間公開和共享數(shù)據(jù),有助于促進(jìn)部門合作、減少行政負(fù)擔(dān)、提高服務(wù)效率,降低政務(wù)成本。然而數(shù)據(jù)開放和共享是把雙刃劍,數(shù)據(jù)之間加速流通不僅帶來了種種便利,也帶來了公民個(gè)人信息被侵犯的風(fēng)險(xiǎn)。這種風(fēng)險(xiǎn)表現(xiàn)為:一是非法處理個(gè)人信息的風(fēng)險(xiǎn),如不經(jīng)過公民同意,任意采集、使用、加工、公開公民個(gè)人信息。二是因政府工作人員或系統(tǒng)漏洞、黑客攻擊等原因造成個(gè)人信息被泄露的風(fēng)險(xiǎn)。

在現(xiàn)實(shí)生活中,政府可以根據(jù)公共管理需要采集、使用、公開個(gè)人信息,但是在這一過程中政府機(jī)關(guān)不經(jīng)過公民同意,任意處理公民個(gè)人信息的例子并不鮮見。例如,新京報(bào)記者在景德鎮(zhèn)市人社局官網(wǎng)上,發(fā)現(xiàn)一則名為“大學(xué)生一次性創(chuàng)業(yè)補(bǔ)貼人員花名冊(cè)”,用戶無需登錄,即可下載這一表格。表格中,14名創(chuàng)業(yè)大學(xué)生的學(xué)號(hào)、身份證號(hào)、手機(jī)號(hào)碼等信息均有載錄。記者詢問其中4名大學(xué)生,均表示此前曾被告知領(lǐng)取創(chuàng)業(yè)補(bǔ)貼需進(jìn)行公示程序,但對(duì)個(gè)人信息被一并發(fā)布一事不知情。[23]這一事例說明雖然隨著公眾對(duì)政府信息公開需求的提升,政府信息公開制度已逐步建立,但是這一制度欠缺個(gè)人信息保護(hù)機(jī)制,同時(shí)缺少敏感信息審查機(jī)制和程序。

此外,因政府工作人員失誤、系統(tǒng)存在漏洞或者黑客攻擊等原因造成個(gè)人信息泄露的案例也層出不窮。例如,“健康寶”是北京市大數(shù)據(jù)中心依托北京市防疫相關(guān)數(shù)據(jù)和國(guó)家政務(wù)服務(wù)平臺(tái)相關(guān)功能,針對(duì)當(dāng)前新冠肺炎疫情防控需要,方便廣大市民、進(jìn)(返)京人員查詢自身防疫相關(guān)健康狀態(tài)、幫助城市恢復(fù)生產(chǎn)生活秩序,推出的一項(xiàng)數(shù)字化信息服務(wù)工具。而2020年12月,眾多明星在健康寶上的素顏照被泄露,明星素顏照甚至被黃牛以“1元錢”打包出售。[24]這次明星素顏照被泄露是因?yàn)榻】祵毑樵兒怂釞z測(cè)結(jié)果的程序存在漏洞導(dǎo)致的。除此以外,2020年8月公安部通報(bào)了數(shù)起防疫工作人員違反疫情防控工作紀(jì)律的事件,例如因防疫需要收集的公民個(gè)人信息通過微信群進(jìn)行公開而造成了公民個(gè)人信息泄露等。

四、第四次工業(yè)革命的規(guī)范路徑

第四次工業(yè)革命帶來的社會(huì)變革是全局性、根本性和長(zhǎng)期性的,政府為了在這場(chǎng)社會(huì)變革中享受技術(shù)紅利,就有必要對(duì)這些前沿技術(shù)進(jìn)行規(guī)范和引導(dǎo),以維護(hù)社會(huì)的公平穩(wěn)定和安全,促進(jìn)社會(huì)和諧健康發(fā)展。

(一)人工智能倫理規(guī)范

人工智能是一把雙刃劍:一方面,政府可以利用人工智能應(yīng)用的潛力改善公共事務(wù)、提高行政服務(wù)效率。另一方面,人工智能的風(fēng)險(xiǎn)表明,人工智能需要基于原則和社會(huì)核心價(jià)值的倫理規(guī)范和監(jiān)管才能為人類帶來好處。

首先,確保人類對(duì)人工智能的控制權(quán)、確保人類才是決策者,需要設(shè)定人工智能的倫理規(guī)范——類似于阿西莫夫的機(jī)器人三原則——將人工智能設(shè)定為人類的從屬助手。阿西莫夫的機(jī)器人三原則是指:一是機(jī)器人不能傷害人類,或因不作為使人類受到傷害;二是機(jī)器人必須服從人類發(fā)出的命令,除非這些命令違反第一條規(guī)定。三是機(jī)器人必須保護(hù)自己的存在,但這種保護(hù)違反第一和第二原則時(shí)除外。[25]許多國(guó)家在這一基礎(chǔ)上發(fā)展了各自的人工智能倫理規(guī)范。例如,2007年韓國(guó)產(chǎn)業(yè)資源部制定機(jī)器人倫理規(guī)范作為對(duì)機(jī)器人產(chǎn)業(yè)的積極應(yīng)對(duì)方案,其具體內(nèi)容是:人與機(jī)器人應(yīng)相互尊重生命的尊嚴(yán),保護(hù)并遵守既定的權(quán)利、信息倫理及工程倫理等,機(jī)器人作為使用者——人類的朋友和幫手伙伴,必須始終服從人類的命令。[26]我國(guó)可以參照這一規(guī)范,制定我國(guó)的人工智能倫理規(guī)范指南。

其次,為解決道德困境,我們必須為人工智能輸入人類的價(jià)值觀。香港科技大學(xué)和南洋理工大學(xué)的研究人員審查了主要AI會(huì)議上關(guān)于現(xiàn)有倫理決策框架的文章,并提出了將其劃分為四個(gè)領(lǐng)域:探索倫理困境、個(gè)人倫理決策框架、集體倫理決策框架和人類與AI相互作用的倫理。其他研究者也回顧了關(guān)于通用AI的安全性研究,提出倫理決策問題研究通常采用強(qiáng)化學(xué)習(xí)的理論框架。他們假設(shè)理性的智能主體可以通過與社會(huì)環(huán)境互動(dòng)的經(jīng)驗(yàn)來學(xué)習(xí)人類的道德偏好和規(guī)則。因此,在強(qiáng)化學(xué)習(xí)的框架下,人工智能設(shè)計(jì)者可以將道德價(jià)值觀指定為獎(jiǎng)勵(lì)函數(shù),以使人工智能的目標(biāo)與其人類伙伴保持一致,并刺激其按照人類道德規(guī)范行事。[27]因此,我們應(yīng)該把人類的價(jià)值觀、倫理規(guī)范內(nèi)化為人工智能的軟件規(guī)范,指導(dǎo)人工智能系統(tǒng)的設(shè)計(jì)和實(shí)現(xiàn)。在設(shè)計(jì)人工智能之初,編程人員就應(yīng)該根據(jù)不同的場(chǎng)景設(shè)計(jì)不同的道德原則和標(biāo)準(zhǔn),并根據(jù)這些道德標(biāo)準(zhǔn)對(duì)人工智能進(jìn)行訓(xùn)練,而且這些訓(xùn)練應(yīng)貫穿人工智能生產(chǎn)和應(yīng)用的整個(gè)生命周期。在人工智能強(qiáng)化學(xué)習(xí)框架下,通過不斷內(nèi)化人類的道德規(guī)范,人工智能才可以規(guī)避更多的道德風(fēng)險(xiǎn)、可以更好地適用于各種道德場(chǎng)景中,在未來,也許人工智能可以解決連人類都無法完美解決的“道德困境”。

最后,關(guān)于人工智能能否為決策失誤承擔(dān)責(zé)任,需要考慮人工智能的意思表達(dá)能力。目前人工智能技術(shù)仍處于弱人工智能階段。具備一定心智和意識(shí),能夠根據(jù)自身意圖展開行動(dòng)的“強(qiáng)人工智能”還沒有產(chǎn)生。[28]因此,現(xiàn)階段不應(yīng)當(dāng)認(rèn)定人工智能具有和人類相同的權(quán)利主體地位。根據(jù)民法的規(guī)定,人工智能可以認(rèn)定為物(或產(chǎn)品),在不同情況下,人工智能的生產(chǎn)者、銷售者、使用者或者所有者應(yīng)為人工智能的決策失誤負(fù)責(zé)。

(二)算法規(guī)范和監(jiān)管

算法在人類社會(huì)快速發(fā)展的同時(shí),算法的不透明和算法歧視也引起了人們對(duì)算法侵害公民權(quán)利和自由、威脅社會(huì)公平和正義的普遍擔(dān)憂,因此,政府應(yīng)堅(jiān)持人性尊嚴(yán)本位,對(duì)算法進(jìn)行監(jiān)管和規(guī)范。

算法不透明有三種形式,針對(duì)第一種“故意的”算法不透明,理論上來說只需要取消法律特殊保護(hù)、堅(jiān)決抵制企業(yè)知識(shí)產(chǎn)權(quán)壟斷、推動(dòng)建立更多的開源系統(tǒng),就可以消除這種形式的算法不透明。目前歐盟的《一般數(shù)據(jù)保護(hù)條例》(GDPR)正在進(jìn)行這方面的努力。[29]但是要實(shí)現(xiàn)這方面的算法透明,其真正的阻力是企業(yè)對(duì)算法利益的維護(hù)。因此,即使歐盟努力推進(jìn)GDPR法案實(shí)施,但是其有效性仍有待于觀察。我國(guó)可以在加強(qiáng)算法知識(shí)產(chǎn)權(quán)保護(hù)力度的基礎(chǔ)上,逐步推動(dòng)企業(yè)公開算法程序。在涉及成為商業(yè)秘密的算法時(shí),可以不強(qiáng)制要求算法公開,要求企業(yè)對(duì)算法決策過程進(jìn)行解釋即可。針對(duì)第二種所謂技術(shù)文盲算法不透明形式,從長(zhǎng)遠(yuǎn)來看,可以通過加強(qiáng)算法教育來應(yīng)對(duì),例如從小學(xué)起開設(shè)算法編程課程以培養(yǎng)人們的算法知識(shí)素養(yǎng)。從短期來看,可以對(duì)政府工作人員進(jìn)行算法知識(shí)培訓(xùn),尤其是重點(diǎn)培養(yǎng)監(jiān)管人員的算法知識(shí)水平。除此以外可以建立獨(dú)立的算法審查和許可機(jī)構(gòu),通過招聘、聘任、選調(diào)有能力的算法專家,加強(qiáng)對(duì)算法的審查和監(jiān)管。針對(duì)第三種本質(zhì)上的算法不透明,可以采用技術(shù)和制度雙重手段進(jìn)行監(jiān)督。一是可以設(shè)計(jì)“算法記錄儀”放置于算法程序中,專門記錄算法演算過程。二是通過法律規(guī)定強(qiáng)制要求編程人員進(jìn)行更加簡(jiǎn)單的、具有可解釋性的算法編程,但這可能會(huì)在一定程度上影響程序的效率和準(zhǔn)確性。事實(shí)上,在算法監(jiān)管中,算法決策系統(tǒng)的不透明性是至關(guān)重要的變量。如果我們要保障個(gè)人的合法權(quán)益,那么就需要確保算法透明度。因此,為加強(qiáng)監(jiān)管,根據(jù)比例原則和公平原則,在算法程序的效率和準(zhǔn)確性方面做出讓步是必要的。

算法可能隱含偏見和歧視,會(huì)對(duì)社會(huì)的公平和正義造成負(fù)面影響,因此有必要減少和消除這些偏見和歧視。而要做到這一點(diǎn),需要從開發(fā)做起,即選擇適當(dāng)?shù)臄?shù)據(jù)樣本,選擇合適的開發(fā)者。選擇數(shù)據(jù)樣本需要注意避免樣本偏差、幸存者偏差以及概率偏差,也就是說選擇較大的樣本進(jìn)行統(tǒng)計(jì)可以避免以偏概全、選擇多樣的樣本可以全面地觀察問題、選擇用數(shù)學(xué)方法驗(yàn)證客觀概率以及咨詢多位專家以避免心理概率的偏差。而選擇合適的開發(fā)者需要注意盡量選擇不同性別、不同種族的開發(fā)者,不要對(duì)開發(fā)者的選擇存在偏好。同時(shí)開發(fā)者也應(yīng)遵守人工智能開發(fā)的倫理原則,避免輸入自己的價(jià)值取向,尤其是在行政領(lǐng)域更要避免偏見和歧視態(tài)度,保持對(duì)公民的客觀、公正態(tài)度。對(duì)于算法歧視的監(jiān)管,一方面可以成立專門的監(jiān)管機(jī)構(gòu),如美國(guó)的算法問責(zé)法案提出指派一個(gè)特別工作組來研究城市政府機(jī)構(gòu)使用算法的方式,研究使用算法決策如何影響紐約人的生活,是否系統(tǒng)地出現(xiàn)基于年齡、種族、宗教、性別、性取向或國(guó)籍等歧視現(xiàn)象。[30]另一方面可以通過法律規(guī)定創(chuàng)建算法問責(zé)制。算法問責(zé)制,簡(jiǎn)單來說就是企業(yè)應(yīng)對(duì)自己編程的算法所計(jì)算的結(jié)果負(fù)責(zé)。對(duì)于在算法編程中故意輸入歧視因素,可以直接認(rèn)定編程人員的責(zé)任,對(duì)于非故意造成的歧視,可以通過規(guī)定算法的可解釋性來明確責(zé)任,即如果編程人員可以從技術(shù)角度解釋為什么算法會(huì)作出歧視的決定,那么編程人員可以減輕或者免除責(zé)任,如果編程人員無法解釋算法,那么編程人員要為算法歧視結(jié)果負(fù)責(zé)。

(三)推動(dòng)數(shù)據(jù)公開和共享

信息社會(huì)中,決定國(guó)家競(jìng)爭(zhēng)力最要緊的是數(shù)據(jù)流通。如果沒有相關(guān)數(shù)據(jù),一個(gè)高度精密的人工智能平臺(tái)或算法就沒有多大意義。因此,應(yīng)該制定有效的數(shù)據(jù)開放和共享制度,以促進(jìn)穩(wěn)健的數(shù)據(jù)創(chuàng)造和傳播。各國(guó)已開始實(shí)施某種形式的國(guó)家開放數(shù)據(jù)政策,以促進(jìn)數(shù)據(jù)的產(chǎn)生和傳播。英國(guó)實(shí)施了數(shù)據(jù)開放運(yùn)動(dòng),目標(biāo)包括刺激經(jīng)濟(jì)和社會(huì)增長(zhǎng)、改善社會(huì)服務(wù)、提高政府透明度等內(nèi)容,并正在運(yùn)營(yíng)開放數(shù)據(jù)門戶。加拿大已開發(fā)了一個(gè)數(shù)據(jù)開放門戶試點(diǎn),建立了十個(gè)數(shù)據(jù)開放原則。澳大利亞也開放并啟動(dòng)了開放數(shù)據(jù)平臺(tái)data.gov.au。[31]我國(guó)也需要通過完善數(shù)據(jù)公開和共享的法律制度、建立統(tǒng)一的數(shù)據(jù)開放和共享平臺(tái)、培養(yǎng)部門信息共享意識(shí)等措施,推動(dòng)數(shù)據(jù)的快速交流和傳播。

首先,制定《數(shù)據(jù)公開和共享法》或者《數(shù)據(jù)公開和共享?xiàng)l例》。我國(guó)的政府信息公開和共享的法律體系不夠完善,2016年出臺(tái)的《政務(wù)信息資源共享管理暫行辦法》對(duì)于完全公開共享數(shù)據(jù)、限制公開共享數(shù)據(jù)、不公開共享數(shù)據(jù)的界限規(guī)定不夠明確,對(duì)于各部門的公開共享數(shù)據(jù)的原則和程序也規(guī)定得不夠清晰,因此,有必要盡快制定《數(shù)據(jù)公開和共享法》或者《數(shù)據(jù)公開和共享?xiàng)l例》,以法律或行政法規(guī)的形式規(guī)范政府?dāng)?shù)據(jù)公開和共享工作,建立數(shù)據(jù)公開和共享的統(tǒng)一標(biāo)準(zhǔn),明確數(shù)據(jù)公開和共享的界限、原則、程序以及法律責(zé)任,完善數(shù)據(jù)公開和共享的監(jiān)管機(jī)制,為各部門的信息管理工作提供充分的法律依據(jù)。

其次,培養(yǎng)部門信息共享意識(shí)。政府?dāng)?shù)據(jù)公開與共享的目的是服務(wù)大眾,信息作為一種公共資源,不應(yīng)成為信息利益化、利益部門化的資本,更不能成為信息特權(quán)和信息腐敗的“籌碼”,而應(yīng)為全體社會(huì)公眾共同擁有和利用。除國(guó)家安全、個(gè)人隱私和商業(yè)秘密外,政府信息管理部門應(yīng)盡量擴(kuò)大數(shù)據(jù)公開的范圍,盡力滿足社會(huì)公眾的信息需求。[32]政府應(yīng)通過教育、培訓(xùn)、宣傳等方法培養(yǎng)部門公職人員信息共享意識(shí),樹立以公民需求和利益為中心的服務(wù)理念。

最后,應(yīng)建立統(tǒng)一的數(shù)據(jù)開放和共享平臺(tái)。為破解“數(shù)據(jù)割據(jù)”難題,我國(guó)應(yīng)建立統(tǒng)一的數(shù)據(jù)開放和共享平臺(tái),以促進(jìn)數(shù)據(jù)的交流和互動(dòng)。統(tǒng)一的數(shù)據(jù)開放和共享平臺(tái)應(yīng)促進(jìn)各部門、各層級(jí)按照統(tǒng)一的數(shù)據(jù)標(biāo)準(zhǔn)對(duì)數(shù)據(jù)進(jìn)行整合、歸檔、存儲(chǔ)和再利用。通過這一平臺(tái),各部門可以實(shí)現(xiàn)部門間的數(shù)據(jù)交換和數(shù)據(jù)確認(rèn),避免部門間的重復(fù)數(shù)據(jù)采集。此外,數(shù)據(jù)開放和共享平臺(tái)應(yīng)提供在線查閱功能,及時(shí)為公眾開放公共數(shù)據(jù),在保障公眾知情權(quán)的基礎(chǔ)上,方便公眾了解、監(jiān)督政府工作。

(四)強(qiáng)化個(gè)人信息保護(hù)

個(gè)人信息需要多維度、多元化保護(hù),最重要的是需要完備的法律制度保障,我國(guó)當(dāng)前通過《民法典》《網(wǎng)絡(luò)安全法》《個(gè)人信息保護(hù)法》等法律已經(jīng)構(gòu)建個(gè)人信息保護(hù)法律框架,但是這一法律框架仍有待完善。具體來說,個(gè)人信息保護(hù)應(yīng)重點(diǎn)從以下幾個(gè)方面對(duì)個(gè)人信息進(jìn)行保護(hù)。

首先,要全面保障個(gè)人的信息自決權(quán)。廣義上的信息自決權(quán)是指自主決定和管理有關(guān)自己的信息以保護(hù)自己信息的權(quán)利。信息自決權(quán)包括以下內(nèi)容:自愿決定有關(guān)自我的信息的權(quán)利,或主張排除收集、分析和處理有關(guān)自我信息的行為的權(quán)利;訪問自我信息的權(quán)利和索取自我信息的權(quán)利;要求自我信息更正的權(quán)利、中止或阻止使用自我信息的權(quán)利、要求刪除自我信息的權(quán)利;提出質(zhì)疑的權(quán)利和要求賠償?shù)臋?quán)利。個(gè)人信息的隱私將通過信息自決權(quán)得到保障。因此,個(gè)人信息保護(hù)法應(yīng)通過法律規(guī)定全面賦予公民自愿決定、訪問、更正、提出質(zhì)疑等個(gè)人信息自決權(quán),如果政府未征得公民的同意、未按照特定目的使用個(gè)人信息或者使用個(gè)人信息超過了必要的限度等,那么公民可以拒絕政府使用個(gè)人信息或要求政府予以賠償。

其次,要?jiǎng)?chuàng)建個(gè)人信息安保機(jī)制。個(gè)人信息最大的特征是可識(shí)別性,因此,要保護(hù)個(gè)人信息安全,可以對(duì)個(gè)人信息做假名處理(或脫敏處理)。[33]所謂信息假名處理,是指對(duì)當(dāng)前的信用信息進(jìn)行處理后,若沒有其他信息予以輔助,就無法通過處理后的信息來鎖定出特定個(gè)人。當(dāng)個(gè)人信息經(jīng)過假名處理(高度敏感信息在假名處理后還需要加密處理),在充分保障數(shù)據(jù)安全后方能提供給其他部門使用。此外,要建立個(gè)人信息影響評(píng)估機(jī)制,對(duì)于有可能因使用個(gè)人信息而造成重要影響的決策進(jìn)行個(gè)人信息影響評(píng)估,根據(jù)評(píng)估結(jié)果決定是否要使用個(gè)人信息。

再次,建立統(tǒng)一的個(gè)人信息監(jiān)管機(jī)構(gòu)。有必要在政府層面建立個(gè)人信息和隱私保護(hù)組織,專門管理個(gè)人信息保護(hù)事務(wù)。以韓國(guó)為例,韓國(guó)個(gè)人信息保護(hù)委員會(huì)是韓國(guó)個(gè)人信息保護(hù)制度的主控中心,是統(tǒng)籌和管理個(gè)人信息保護(hù)事務(wù)的中央行政機(jī)構(gòu)。這一機(jī)構(gòu)具有一元化和獨(dú)立的主控中心地位,其工作內(nèi)容不僅在于與各行政機(jī)構(gòu)、企業(yè)、個(gè)人建構(gòu)進(jìn)行充分協(xié)商和合議的共治,而且在于對(duì)個(gè)人信息保護(hù)工作進(jìn)行統(tǒng)一監(jiān)管。當(dāng)前我國(guó)個(gè)人信息監(jiān)管部門呈現(xiàn)多頭管理、分散管制的特點(diǎn),個(gè)人信息保護(hù)的效果和力度不夠集中,因此,有必要在政府層面建立統(tǒng)一的個(gè)人信息保護(hù)機(jī)構(gòu),形成統(tǒng)一的監(jiān)管機(jī)制,集中力量進(jìn)行監(jiān)管。

最后,加強(qiáng)公職人員個(gè)人信息保護(hù)意識(shí)。盡管從制度上防止未經(jīng)許可使用個(gè)人信息很重要,但是加強(qiáng)公職人員對(duì)個(gè)人信息保護(hù)的意識(shí),使公職人員了解個(gè)人信息的重要性和價(jià)值并認(rèn)識(shí)到未經(jīng)許可不得使用個(gè)人信息同樣具有必要性。尤其是最近的個(gè)人信息侵權(quán)案件更多是由政府內(nèi)部人員泄露而不是由外部黑客入侵或其他未經(jīng)授權(quán)入侵引起的,因此,提高公職人員保護(hù)公民個(gè)人信息安全的法律意識(shí)尤為重要。具體來說,一方面可以通過教育、宣傳、培訓(xùn)、考核等方式提高公職人員認(rèn)識(shí);另一方面可以通過法律明確規(guī)定公職人員泄露個(gè)人信息的法律責(zé)任使公職人員在處理個(gè)人信息時(shí)負(fù)有審慎態(tài)度。

五、結(jié)語(yǔ)

與第一次工業(yè)革命相同,第四次工業(yè)革命將以不可避免、不可逆轉(zhuǎn)之勢(shì)帶來社會(huì)的深刻變革,接受并順應(yīng)這一變革的國(guó)家將崛起成為信息時(shí)代的贏家,而抵制這一趨勢(shì)的國(guó)家將成為失利者。新的“比賽”已經(jīng)拉開帷幕,中國(guó)應(yīng)積極備賽。具體來說,在法律層面上,應(yīng)推進(jìn)數(shù)據(jù)安全立法、數(shù)據(jù)公開和共享立法、個(gè)人信息保護(hù)法實(shí)施條例立法,制定人工智能倫理指南、算法公開指南;在組織層面上,應(yīng)建立統(tǒng)一的信息技術(shù)監(jiān)管機(jī)構(gòu)、個(gè)人信息保護(hù)機(jī)構(gòu)、數(shù)據(jù)公開和共享平臺(tái);在社會(huì)意識(shí)方面,應(yīng)通過教育、宣傳等方式提升社會(huì)整體數(shù)據(jù)素養(yǎng),提高政府、企業(yè)、個(gè)人的數(shù)據(jù)安全意識(shí),以爭(zhēng)取在國(guó)際賽道上取得優(yōu)勝。

猜你喜歡
個(gè)人信息人工智能算法
如何保護(hù)勞動(dòng)者的個(gè)人信息?
個(gè)人信息保護(hù)進(jìn)入“法時(shí)代”
警惕個(gè)人信息泄露
基于MapReduce的改進(jìn)Eclat算法
Travellng thg World Full—time for Rree
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
進(jìn)位加法的兩種算法
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
芷江| 凌云县| 扶风县| 海兴县| 都兰县| 黔江区| 青川县| 景谷| 襄城县| 威宁| 华安县| 桂平市| 密云县| 玉环县| 威海市| 桂阳县| 峨眉山市| 酉阳| 黎城县| 扎兰屯市| 绥滨县| 徐水县| 丰台区| 临夏市| 巴楚县| 电白县| 通榆县| 广河县| 新安县| 肥乡县| 大悟县| 平谷区| 监利县| 仁怀市| 武安市| 汤阴县| 清原| 阿拉善左旗| 梓潼县| 虞城县| 安庆市|