岳 平, 苗 越
(上海政法學(xué)院刑事司法學(xué)院,上海 201700)
算法的英文名稱原為“algorism”,意指常見的加減乘除等數(shù)字運(yùn)算法則,后因9 世紀(jì)波斯數(shù)學(xué)家al-Khwarizmi 在數(shù)學(xué)上提出了算法這個(gè)概念而在18 世紀(jì)演變成為“algorithm”。[1]41在經(jīng)典的計(jì)算機(jī)科學(xué)教科書中,算法通常是指為了實(shí)現(xiàn)特定目標(biāo)而通過設(shè)立一組有限、明確的操作步驟,將給定的命令輸入進(jìn)去來轉(zhuǎn)化為所需要的結(jié)果。區(qū)別于傳統(tǒng)的算法范式,人工智能先鋒人物杰弗里·辛頓提出了深度學(xué)習(xí)算法的論點(diǎn),而目前引起大家討論和爭議以及本文討論的都是深度學(xué)習(xí)算法。
算法開啟了新一代人工智能的先河,既是技術(shù)進(jìn)步的產(chǎn)物,也是對現(xiàn)實(shí)需要的積極應(yīng)對。算法廣泛應(yīng)用于我們生活的方方面面,給交通、醫(yī)療、就業(yè)、娛樂等領(lǐng)域帶來了極大的便利,人們也逐漸習(xí)慣通過算法程序來獲取信息、認(rèn)識(shí)世界。但是,隨著人工智能時(shí)代的不斷演進(jìn),算法被不斷地普及和運(yùn)用,算法帶來的偏見現(xiàn)象開始受到人們的關(guān)注,例如加納裔科學(xué)家Joy Buolamwini偶然發(fā)現(xiàn)人臉識(shí)別無法識(shí)別她,除非戴上白色面具,此后她的研究發(fā)現(xiàn),IBM、微軟和曠視Face++三家產(chǎn)品均存在不同程度的女性和深色人種“歧視”。[2]由此,算法的問題日益暴露,算法偏見的概念及現(xiàn)象引起了人們的關(guān)注。對于該問題的現(xiàn)象與立場,不同學(xué)者有著不同的理解和解讀。有學(xué)者認(rèn)為,算法偏見是指一種預(yù)測相對于另一種預(yù)測的非預(yù)期算法偏好,導(dǎo)致法律或倫理上產(chǎn)生不恰當(dāng)?shù)挠绊?;?]94有學(xué)者認(rèn)為,算法是機(jī)器學(xué)習(xí)的結(jié)果,算法偏見是機(jī)器學(xué)習(xí)形成或強(qiáng)化的偏見;[4]60也有學(xué)者認(rèn)為,算法偏見是算法程序在信息生產(chǎn)與分發(fā)過程中失去客觀中立的立場,造成片面或者與客觀實(shí)際不符的信息、觀念生產(chǎn)與傳播,影響公眾對信息的全面、客觀認(rèn)知。[5]71對于該現(xiàn)象,不可否認(rèn)的是,學(xué)者們盡管表述各異,但共識(shí)則是:算法偏見的本質(zhì)是人工智能時(shí)代社會(huì)偏見的一種體現(xiàn)。換言之,算法并不具有絕對中立性,它的客觀性僅僅體現(xiàn)在算法運(yùn)行中。為此,有必要對算法偏見產(chǎn)生的環(huán)節(jié)進(jìn)行解讀。
算法在實(shí)際被投入應(yīng)用前,要經(jīng)過問題定義與機(jī)器學(xué)習(xí)和訓(xùn)練兩個(gè)階段。問題定義簡單來說就是把明確了的任務(wù)轉(zhuǎn)化成具體變量,而機(jī)器學(xué)習(xí)和訓(xùn)練階段大致可以簡化為三個(gè)環(huán)節(jié):輸入環(huán)節(jié)→學(xué)習(xí)環(huán)節(jié)→輸出環(huán)節(jié)(具體細(xì)分為九個(gè)步驟,如下圖所示)。[4]60-61輸入環(huán)節(jié)主要是對所收集的能夠準(zhǔn)確反映出定義問題的數(shù)據(jù)進(jìn)行清理、篩查;學(xué)習(xí)環(huán)節(jié)是依靠計(jì)算機(jī)自身的處理能力,選擇模型將前個(gè)環(huán)節(jié)所篩查的數(shù)據(jù)再次進(jìn)行分析、完善;輸出環(huán)節(jié)是最后一個(gè)環(huán)節(jié),通過模型處理得到對應(yīng)結(jié)果。從整個(gè)運(yùn)行的步驟不難看出,偏見貫穿了整個(gè)過程。
1.算法運(yùn)行規(guī)則的“自帶偏見”
當(dāng)計(jì)算機(jī)需要運(yùn)行完成特定的任務(wù)時(shí),就要編寫特定的算法。無論是問題定義,還是數(shù)據(jù)收集、模型的選擇,算法設(shè)計(jì)人員的主觀意識(shí)總是有意或無意融入整個(gè)運(yùn)行過程,他們的知識(shí)背景和立場是否受過專業(yè)訓(xùn)練,是否有足夠的背景知識(shí)及理念的構(gòu)成,這些都是對算法公正性、客觀性的挑戰(zhàn)。有國外研究團(tuán)隊(duì)通過選取并考察了微軟和Facebook等大公司支持的圖像訓(xùn)練數(shù)據(jù)集MSCOCO發(fā)現(xiàn),一些標(biāo)簽與性別深度綁定,比如系統(tǒng)會(huì)認(rèn)定站在廚房、做家務(wù)、照看小孩子的人為女性,而開會(huì)、辦公、從事體育運(yùn)動(dòng)的則是男性。[5]75-76此外,一些企業(yè)還用算法對所接收的簡歷進(jìn)行篩選,若是該企業(yè)不想招女職員,就會(huì)在設(shè)計(jì)該算法時(shí)設(shè)定不利于女性求職者的內(nèi)容。
2.輸入數(shù)據(jù)中的偏見
大數(shù)據(jù)和計(jì)算機(jī)領(lǐng)域內(nèi)有個(gè)盛行的定律叫“Garbage in,Garbage out”,與之對應(yīng)在算法里的表述為“Bias in,Bias out”,指輸出的數(shù)據(jù)質(zhì)量取決于輸入的數(shù)據(jù)質(zhì)量,帶有偏見的數(shù)據(jù)被輸入,則輸出的也是帶有偏見的數(shù)據(jù)。[5]76輸入數(shù)據(jù)存在偏見的原因主要有四個(gè)方面:(1)數(shù)據(jù)選擇帶來的偏見,即算法的設(shè)計(jì)人員在對規(guī)則進(jìn)行設(shè)計(jì)時(shí)就已經(jīng)在數(shù)據(jù)來源、數(shù)據(jù)占比中摻入了個(gè)人主觀想法;(2)數(shù)據(jù)不及時(shí)更新帶來的偏見,即收集了過時(shí)的數(shù)據(jù),導(dǎo)致了結(jié)果受到了潛在偏見影響;(3)數(shù)據(jù)的偶然性帶來的偏見,抽樣難以保證隨機(jī)性,少數(shù)群體的數(shù)據(jù)被選擇的幾率較低,導(dǎo)致算法最終的結(jié)果會(huì)偏向于多數(shù)群體一方;(4)偏見數(shù)據(jù)的循環(huán)利用,即帶有偏見的數(shù)據(jù)被用于其他算法模型中,導(dǎo)致輸出的數(shù)據(jù)帶有新的偏見。
算法的運(yùn)行是把數(shù)據(jù)輸進(jìn)既定的算法模型按照程序步驟輸出運(yùn)算結(jié)果,整個(gè)過程看似中立無偏見,但事實(shí)上并非如此。算法系統(tǒng)就像是個(gè)“黑箱”,即機(jī)器的學(xué)習(xí)和訓(xùn)練是不為外人所熟知的,機(jī)器學(xué)習(xí)與環(huán)境是離不開的,它在與環(huán)境信息交互的過程中學(xué)習(xí)和復(fù)制種種帶有偏見的行為。2016年,一款由微軟公司專門為年輕人推出的智能陪聊機(jī)器人Tay,在經(jīng)過不到24小時(shí)與年輕人的聊天學(xué)習(xí)后,變得臟話連篇,言論帶有種族歧視,被迫下架。[6]這個(gè)例子有力地佐證了機(jī)器學(xué)習(xí)在過程中會(huì)產(chǎn)生新的偏見的觀點(diǎn),而距離原定目標(biāo),即靠實(shí)踐經(jīng)驗(yàn)吸收優(yōu)勢予以補(bǔ)充模型的想法相去甚遠(yuǎn)?!皺C(jī)器學(xué)習(xí)就是程序通過實(shí)例提取模式,并使最初的算法或模型在實(shí)例中不斷優(yōu)化的過程。”[4]60算法不能決定用戶輸入數(shù)據(jù)的性質(zhì)或特點(diǎn),只能被動(dòng)對輸入的各類數(shù)據(jù)進(jìn)行學(xué)習(xí),換句話說,若輸入數(shù)據(jù)的互動(dòng)者向算法輸入了具有偏見的新數(shù)據(jù),那學(xué)習(xí)之后的算法就是一個(gè)偏見算法。
隨著人工智能和互聯(lián)網(wǎng)的發(fā)展,我國已經(jīng)進(jìn)入了數(shù)字時(shí)代,算法充斥著我們?nèi)粘I畹母鱾€(gè)領(lǐng)域,如教育、醫(yī)療、刑事司法,甚至在一定程度上取代了公權(quán)力決策。[7]隨著人工智能的不斷發(fā)展,不同國家、地區(qū)、行業(yè)之間,由于對信息的擁有、應(yīng)用程度以及創(chuàng)新能力的差別,導(dǎo)致信息落差的現(xiàn)象愈發(fā)嚴(yán)重?!皼]有歷史深度和社會(huì)深度的計(jì)算深度只是淺薄學(xué)習(xí),而非深度學(xué)習(xí)?!保?]46對算法偏見帶來的潛在侵害風(fēng)險(xiǎn)的社會(huì)治理雖然已經(jīng)開始起步,但仍然任重而道遠(yuǎn)。
根據(jù)我國《憲法》第三十三條第二款規(guī)定:“中華人民共和國公民在法律面前一律平等?!逼降葯?quán)是公民的一項(xiàng)基本權(quán)利,指公民同等地依法享有權(quán)利和履行義務(wù),具體而言包括權(quán)利平等、義務(wù)平等、法律適用平等、法律界限平等這四部分。2018年關(guān)于機(jī)器學(xué)習(xí)系統(tǒng)中的平等和不歧視權(quán)利保護(hù)的《多倫多宣言》中提出,系統(tǒng)使用機(jī)器學(xué)習(xí)技術(shù)可以極大而迅速地改變或加強(qiáng)權(quán)力結(jié)構(gòu)或造成歧視,侵害公民的平等權(quán)。在性別歧視抑或是種族歧視的背后其根本在于人工智能系統(tǒng)存在著算法偏見并對某類個(gè)體進(jìn)行了特殊化對待。因此,在這發(fā)展迅猛的智能時(shí)代,算法偏見自身的功利導(dǎo)向性使其對社會(huì)成員的平等權(quán)侵害會(huì)加速甚至可能放大,如在2015年谷歌圖像識(shí)別算法誤將黑人判為大猩猩事件中,算法系統(tǒng)正是基于算法偏見的導(dǎo)向性而出于慣性辨識(shí)錯(cuò)黑人,這一事件足以展現(xiàn)算法偏見對黑人群體平等權(quán)的侵害,雖然事后谷歌屏蔽了相關(guān)詞條,但并沒有根除系統(tǒng)中的偏見,相反只會(huì)不斷加深。
隱私權(quán)是指公民的私人空間、私人信息、私人活動(dòng)不受他人干擾和侵犯的權(quán)利。同時(shí),對于私人信息,是指以電子或者其他方式記錄的能夠單獨(dú)或者與其他信息結(jié)合識(shí)別特定自然人的各種信息,包括自然人的姓名、出生日期、身份證件號(hào)碼、生物識(shí)別信息、住址、電話號(hào)碼、電子郵箱、健康信息、行蹤信息等。在隱私權(quán)保護(hù)方面,處在發(fā)展迅猛的人工智能時(shí)代,我們不能再像過去那樣僅僅將故意泄露私密信息、跟蹤、偷裝攝像頭等方式視為侵犯隱私權(quán)的行為,而應(yīng)該將侵犯隱私權(quán)賦予智能化與數(shù)字化的新特征。當(dāng)前,算法偏見對于公民隱私權(quán)的侵害主要體現(xiàn)在算法偏見會(huì)在其自身框架內(nèi)對公民的隱私在沒有公民授權(quán)下便獲得并使用,而且,為了系統(tǒng)運(yùn)算的便利會(huì)將公民隱私的適用范圍不斷擴(kuò)大。同時(shí),算法偏見還會(huì)侵害公民對個(gè)人數(shù)據(jù)的被遺忘權(quán),將公民要求刪除的個(gè)人數(shù)據(jù)繼續(xù)留在系統(tǒng)的數(shù)據(jù)庫,這對侵犯公民隱私留下了嚴(yán)重后患。因此,算法偏見的侵害行為,則可能增加侵犯公民個(gè)人信息犯罪的行為。
根據(jù)我國2021年6月10日剛通過的《數(shù)據(jù)安全法》第三條規(guī)定:“數(shù)據(jù)處理,包括數(shù)據(jù)的收集、存儲(chǔ)、使用、加工、傳輸、提供、公開等。數(shù)據(jù)安全,是指通過采取必要措施,確保數(shù)據(jù)處于有效保護(hù)和合法利用的狀態(tài),以及具備保障持續(xù)安全狀態(tài)的能力?!彼惴ㄏ到y(tǒng)是人們在互聯(lián)網(wǎng)時(shí)代下處理數(shù)據(jù)的重要工具,帶有偏見的算法因其設(shè)計(jì)人員的偏見或自身的不當(dāng)深度學(xué)習(xí),一方面過度采集數(shù)據(jù),利用數(shù)據(jù)間的關(guān)聯(lián)程度進(jìn)行溯源,窺探到人們、企業(yè)的核心數(shù)據(jù),很大程度上容易造成個(gè)人信息和商業(yè)秘密的泄露;另一方面,算法在深度學(xué)習(xí)中會(huì)基于追求數(shù)據(jù)面的完整而去汲取不合適的內(nèi)容,比如前文所述的陪聊機(jī)器人Tay,在與年輕人的聊天中學(xué)習(xí)了不少的臟話,在一定程度上破壞了數(shù)據(jù)完整性。因此,通過收集對其認(rèn)為有一定價(jià)值的數(shù)據(jù)并進(jìn)行推導(dǎo)的算法程序本身對數(shù)據(jù)安全構(gòu)成了威脅,并且這種破壞會(huì)波及整個(gè)網(wǎng)絡(luò)系統(tǒng)。
隨著人工智能、大數(shù)據(jù)的快速發(fā)展,我們已經(jīng)進(jìn)入了算法社會(huì)。算法作為一種與時(shí)代發(fā)展緊密相關(guān)的技術(shù),各類算法系統(tǒng)在我們的社會(huì)生活、工作中將會(huì)繼續(xù)扮演重要角色。社會(huì)上大多數(shù)人都認(rèn)為算法只是一串客觀的代碼運(yùn)作,是中立、客觀的。然而實(shí)踐證明,算法存在的偏見也在不斷產(chǎn)生新的社會(huì)問題。因此,法律對算法的規(guī)制顯得尤其重要。而現(xiàn)行法律對算法偏見的規(guī)制則顯得力不從心,因此亟待辨明由此帶來的危機(jī)和挑戰(zhàn)。
首先是行政法規(guī)制的困境。據(jù)前文所述,算法偏見一定程度上侵犯了公民的個(gè)人信息權(quán),主要體現(xiàn)在設(shè)計(jì)研發(fā)者往往在一開始設(shè)計(jì)算法程序時(shí)為了利益最大化而為其賦予最大限度獲取信息的權(quán)限,往往對公民的隱私在沒有公民授權(quán)下便獲取并使用。而且,為了系統(tǒng)運(yùn)算的便利會(huì)將公民隱私的適用范圍不斷擴(kuò)大。雖然我國《網(wǎng)絡(luò)安全法》第四章中規(guī)定了如何保障網(wǎng)絡(luò)信息安全的具體措施,但因?yàn)樗惴ǖ恼麄€(gè)運(yùn)行不具備獨(dú)立性,它是不同主體呈立體化的合作模式,因此個(gè)人信息遭受侵害的可能性大大增加,這給行政法的規(guī)制帶來更多的挑戰(zhàn)。
其次是民事法規(guī)制的困境。面對算法偏見所引發(fā)的侵權(quán)問題與違法行為,關(guān)于如何歸責(zé)、由誰承擔(dān)責(zé)任、歸屬于哪個(gè)部門法等問題,我國當(dāng)前的法律規(guī)范尚無明確規(guī)定。以無人駕駛汽車Uber傷人案為例,對于在這場事故中究竟是對設(shè)計(jì)者、經(jīng)營者還是駕駛員追責(zé)存在不同觀點(diǎn)和爭議。根據(jù)《民法典》“侵權(quán)責(zé)任”編第四章“產(chǎn)品責(zé)任”的規(guī)定,我國采取的是過錯(cuò)責(zé)任原則,生產(chǎn)者、銷售者以及運(yùn)輸者、倉儲(chǔ)者之間的責(zé)任分配明確。但是從無人駕駛汽車案來看,歸責(zé)思路并不是傳統(tǒng)侵權(quán)意義上的歸責(zé),而是要考慮導(dǎo)致侵權(quán)的發(fā)生究竟是操作失誤還是設(shè)計(jì)缺陷,這一點(diǎn)在民事法律上尚未有明確的規(guī)定。
最后是刑事法規(guī)制的困境。人工智能的算法偏見,會(huì)使得涉及此類的刑法問題更加復(fù)雜。現(xiàn)實(shí)中,對于由算法偏見本身導(dǎo)致的犯罪問題,刑法作為最后一道防線應(yīng)首先需要將其侵害法益明確化,只有分析出所侵害的法益具體內(nèi)容,才能夠在刑法中找到合適的罪名加以判處。但是,由于我國尚處于弱人工智能時(shí)代,刑法目前未對此類相關(guān)問題作出相應(yīng)的回應(yīng),刑事法中直接應(yīng)用于算法問題的規(guī)制條文仍然是空白。
算法偏見不是一個(gè)新興問題,但也不單單只是技術(shù)問題,它已然成為各領(lǐng)域?qū)<谊P(guān)注并且亟須解決的社會(huì)問題。社會(huì)的進(jìn)步固然需要先進(jìn)的技術(shù),但更需要堅(jiān)持住基本的價(jià)值導(dǎo)向。
1.算法應(yīng)凸顯人類主體地位
人是認(rèn)識(shí)世界、改造世界的主體,這一觀念為所有人知曉,然而隨著科學(xué)技術(shù)的迅速發(fā)展,機(jī)器人無論是在意識(shí)還是在創(chuàng)造性方面都已經(jīng)能向人類發(fā)起挑戰(zhàn),柯潔敗給阿爾法狗的例子就是最好的佐證。盡管算法給人們的日常生活帶來了極大的便利,但在一般情況下,算法已將我們視為可計(jì)算、可預(yù)測、可控制的客體,通過對我們的消費(fèi)心理、愛好等深入學(xué)習(xí)分析,從而推斷出我們所心動(dòng)的“物料”。具體而言,算法對用戶提出選擇產(chǎn)品的建議,并為用戶作出決策,這意味著大多數(shù)人失去了自由選擇的權(quán)利,接受到的都是單一的信息而無法接觸多樣化信息,視野逐漸變窄,而個(gè)人自主性則不斷減弱。[3]96從法律層面來看,人類始終是應(yīng)然和實(shí)然的主體,每個(gè)人都應(yīng)享有平等權(quán),在數(shù)字時(shí)代下,更應(yīng)該突出人的主體地位,對技術(shù)施以一定的法律規(guī)制,從而使其更好地為我們所用,而不是放任其肆意發(fā)展,使得人類成為它所“操控”的客體或是成為被動(dòng)的服從體。
2.抑制算法放大的人類偏見的必要性
真實(shí)的世界里,偏見無處不在。人類偏見一直都是復(fù)雜的社會(huì)問題之一,很多國家為了減少偏見而通過立法賦予不同群體平等權(quán),給他們提供更加公平的機(jī)會(huì)。而在數(shù)字時(shí)代的今天,隨著人工智能的普及,算法卻加大了這種人類偏見,即算法偏見本質(zhì)上是一種社會(huì)偏見。傳統(tǒng)觀念堅(jiān)持的是一種“技術(shù)烏托邦”的狀態(tài),即大多數(shù)學(xué)者認(rèn)為技術(shù)始終處于中立的立場,它不受人類思想的左右。但正因?yàn)樗惴ㄔ谟^念上被認(rèn)為是由數(shù)據(jù)和代碼所組成,是客觀的、公正的,大量的算法才更容易地充斥著我們?nèi)粘I畹姆椒矫婷?。然而,?shí)踐表明,看似中立的算法其實(shí)并不絕對客觀,由于其較強(qiáng)的可操作性,反而將人類偏見進(jìn)行了放大。就如前文所述,2015年的谷歌公司開發(fā)的圖像識(shí)別算法竟錯(cuò)誤地將一些黑人的照片分類為“大猩猩”。因此,有必要對此建構(gòu)針對性的抑制算法偏見的監(jiān)管機(jī)制。
3.保護(hù)公民人身、財(cái)產(chǎn)安全的必要性
如前所述,算法并不是中立的,不存在絕對公平公正的算法?,F(xiàn)實(shí)中算法偏見隨處可見,盡管不是每一種算法偏見都能對公民的人身財(cái)產(chǎn)產(chǎn)生威脅,但只要存在造成危害的可能性,就需要我們?nèi)リP(guān)注和提前預(yù)防。比如在司法領(lǐng)域引入人工智能,稍有不慎,算法偏見也有可能衍生一些負(fù)面影響:例如對有前科的犯罪分子(不符合累犯的構(gòu)成條件),算法偏見可能就直接將其列入重復(fù)犯罪的處罰對象系列而施加更重的刑罰;如此不僅不利于維護(hù)司法的公平公正,實(shí)際上也是在損害司法的公正和執(zhí)法的嚴(yán)謹(jǐn),從而損害人們對司法公正的信賴。此外,盡管對數(shù)據(jù)的性質(zhì)探討尚未形成統(tǒng)一的意見,但數(shù)據(jù)確實(shí)是可被存儲(chǔ)乃至交易的,一些數(shù)據(jù)交易平臺(tái)強(qiáng)化了數(shù)據(jù)的財(cái)產(chǎn)屬性,如果算法偏見不被加以規(guī)制,將會(huì)導(dǎo)致數(shù)據(jù)保護(hù)和數(shù)據(jù)流動(dòng)之間難以平衡,不充分的數(shù)據(jù)流動(dòng)使得市場提供的服務(wù)和價(jià)格難以達(dá)到預(yù)期效果。因此,法律應(yīng)最大限度地發(fā)揮作用,在保持與科學(xué)發(fā)展的同步時(shí),堅(jiān)守不能背離所遵循的價(jià)值觀念和立場。
現(xiàn)如今,人工智能正在不斷影響世界,無論是醫(yī)療、教育,還是就業(yè)、金融,越來越多的行業(yè)決策都在依賴算法系統(tǒng)而作出。斯科特·拉什指出,在媒體和代碼無處不在的社會(huì),權(quán)力越來越集中于算法這種生成性規(guī)則。算法盡管成為促進(jìn)經(jīng)濟(jì)發(fā)展、加強(qiáng)社會(huì)建設(shè)的工具,但其發(fā)展的不確定性必然會(huì)給當(dāng)前法律和社會(huì)倫理帶來沖擊和困境,甚至對政府、對社會(huì)的管理乃至全球治理產(chǎn)生重大影響。對社會(huì)治理而言,算法偏見的本質(zhì)是人類偏見,因其復(fù)雜性和不透明性而產(chǎn)生的影響遠(yuǎn)遠(yuǎn)勝于傳統(tǒng)的人類偏見。因此,為了避免不斷變化發(fā)展的算法偏見帶來的社會(huì)風(fēng)險(xiǎn),我們必須認(rèn)真對待算法偏見,摒棄“技術(shù)烏托邦”的觀念,在保障和促進(jìn)人工智能朝著更強(qiáng)的形態(tài)發(fā)展前提下,重視算法偏見現(xiàn)象的治理。事實(shí)上,當(dāng)前政府部門也在開始重視對人工智能發(fā)展的規(guī)制。國務(wù)院2017年制定的《新一代人工智能發(fā)展規(guī)劃》明確規(guī)定,在大力發(fā)展人工智能的同時(shí),必須高度重視其可能帶來的安全風(fēng)險(xiǎn)挑戰(zhàn),加強(qiáng)前瞻預(yù)防與約束引導(dǎo),最大限度降低風(fēng)險(xiǎn),確保人工智能安全、可靠、可控發(fā)展。這些規(guī)定說明了人工智能帶來的風(fēng)險(xiǎn)問題也正在引起國家的重視。因此,對于算法偏見的治理,除了政府部門的指導(dǎo)性意見外,還亟須建構(gòu)體系化的規(guī)制機(jī)制。
首先,行政法的強(qiáng)化規(guī)制。在大數(shù)據(jù)時(shí)代,公民個(gè)人信息保護(hù)的重要性不言而喻,算法程序的運(yùn)行同樣需要融入保護(hù)公民個(gè)人信息的設(shè)計(jì)理念。作為前置性法律治理功能的行政法規(guī),行政法的監(jiān)管和預(yù)防必不可少。目前的《網(wǎng)絡(luò)安全法》中雖然明確了網(wǎng)絡(luò)運(yùn)營者的主體資格,包括電子信息服務(wù)提供者、app下載服務(wù)提供者等,但主體的多維度聯(lián)系性使得算法程序的運(yùn)行變得更為復(fù)雜化。因此,為了降低侵害公民個(gè)人信息的風(fēng)險(xiǎn),加強(qiáng)網(wǎng)絡(luò)監(jiān)管力度,有必要對該法第四章的規(guī)定進(jìn)行完善,對研發(fā)人員、經(jīng)營者等主體在研發(fā)、經(jīng)營的過程中,堅(jiān)持保障公民個(gè)人信息這一原則,不得增加獲取及過度利用個(gè)人信息的權(quán)限,一切均以用戶的知情、統(tǒng)一范圍為準(zhǔn),平衡人工智能發(fā)展前進(jìn)性和保障信息安全的關(guān)系。值得重視的是,盡管有網(wǎng)絡(luò)安全法的規(guī)制,對于已步入人工智能的當(dāng)前社會(huì)而言,行政法對此的規(guī)制體系仍然較為薄弱,依筆者所見,應(yīng)盡快建構(gòu)適合針對人工智能運(yùn)行尤其是對算法偏見有具體監(jiān)管措施的行政法體系。
其次,民事法律的規(guī)制。當(dāng)前,民事法律方面,為了應(yīng)對算法偏見引發(fā)侵權(quán)無明確的歸責(zé)原則和責(zé)任承擔(dān)方式等相關(guān)問題,有必要在《民法典》“侵權(quán)責(zé)任”編第五章中增加規(guī)定,對于存在算法偏見產(chǎn)品致人損害的情形,責(zé)任的歸責(zé)需要具體問題具體分析。一方面,若完全不需要人類操作的人工智能產(chǎn)品,依據(jù)產(chǎn)品責(zé)任其他規(guī)定確定責(zé)任問題,由算法程序的研發(fā)設(shè)計(jì)者承擔(dān)主要責(zé)任;另一方面,若需要人類配合的產(chǎn)品,應(yīng)通過對產(chǎn)品進(jìn)行智能化定級從而確定人的責(zé)任,若產(chǎn)品的智能化等級越高,設(shè)計(jì)研發(fā)者所承擔(dān)的因侵權(quán)而產(chǎn)生的責(zé)任就越大,反之則由配合者承擔(dān)主要責(zé)任。此外,在責(zé)任承擔(dān)方式上,應(yīng)根據(jù)違法行為的程度加以配對相應(yīng)的責(zé)任種類。
最后,刑法的規(guī)制。人工智能技術(shù)在加速社會(huì)發(fā)展的同時(shí)也帶來了一定的風(fēng)險(xiǎn),算法偏見自身的不可預(yù)測性和歧視性同樣需要刑法的規(guī)制。對于我國的現(xiàn)行刑法而言,《刑法》第二百八十六條的破壞計(jì)算機(jī)信息系統(tǒng)罪可以適用于算法偏見的規(guī)制,該罪保護(hù)的法益是計(jì)算機(jī)信息系統(tǒng)的安全,具體為各種計(jì)算機(jī)信息系統(tǒng)功能及計(jì)算機(jī)信息系統(tǒng)中存儲(chǔ)、處理或者傳輸?shù)臄?shù)據(jù)和應(yīng)用程序。①參見《刑法》第二百八十六條“破壞計(jì)算機(jī)信息系統(tǒng)罪”:違反國家規(guī)定,對計(jì)算機(jī)信息系統(tǒng)功能進(jìn)行刪除、修改、增加、干擾,造成計(jì)算機(jī)信息系統(tǒng)不能正常運(yùn)行,后果嚴(yán)重的,處五年以下有期徒刑或者拘役;后果特別嚴(yán)重的,處五年以上有期徒刑。違反國家規(guī)定,對計(jì)算機(jī)信息系統(tǒng)中存儲(chǔ)、處理或者傳輸?shù)臄?shù)據(jù)和應(yīng)用程序進(jìn)行刪除、修改、增加的操作,后果嚴(yán)重的,依照前款的規(guī)定處罰。故意制作、傳播計(jì)算機(jī)病毒等破壞性程序,影響計(jì)算機(jī)系統(tǒng)正常運(yùn)行,后果嚴(yán)重的,依照第一款的規(guī)定處罰。單位犯前三款罪的,對單位判處罰金,并對其直接負(fù)責(zé)的主管人員和其他直接責(zé)任人員,依照第一款的規(guī)定處罰。而算法偏見基于自身的功利性特征,會(huì)傾向于選擇適用簡便且能夠達(dá)到利益最大化的程序,因而就會(huì)出現(xiàn)將系統(tǒng)內(nèi)不滿足“需求”的數(shù)據(jù)和程序刪除的情形,從而破壞了計(jì)算機(jī)信息系統(tǒng)內(nèi)的數(shù)據(jù)和應(yīng)用程序;而《刑法》第二百五十三條之一“侵犯公民個(gè)人信息罪”仍然是適用算法偏見的條款,該罪規(guī)定的行為模式之一就是“竊取或者以其他方法非法獲取公民個(gè)人信息,情節(jié)嚴(yán)重”①參見《刑法》第二百五十三條之一“侵犯公民個(gè)人信息罪”:違反國家有關(guān)規(guī)定,向他人出售或者提供公民個(gè)人信息,情節(jié)嚴(yán)重的,處三年以下有期徒刑或者拘役,并處或者單處罰金;情節(jié)特別嚴(yán)重的,處三年以上七年以下有期徒刑,并處罰金。的行為。從上文得知,算法偏見出于自身功利性特征,會(huì)不經(jīng)公民授權(quán)非法收集、處理、應(yīng)用公民隱私,導(dǎo)致公民的隱私權(quán)受到嚴(yán)重的侵害,若不加以及時(shí)規(guī)制,公民的信息會(huì)在算法的深入下進(jìn)一步被獲取,因此應(yīng)該由侵犯公民個(gè)人信息罪加以規(guī)制。但鑒于算法偏見的復(fù)雜性,需要刑法對此作出相應(yīng)的修訂和完善。雖然,我國當(dāng)前尚處于弱人工智能時(shí)代,算法尚未具備人類的智慧而形成較強(qiáng)的學(xué)習(xí)能力,但作為最為見效和懲罰性手段,也應(yīng)未雨綢繆,及時(shí)修訂具有針對性的刑法條款,最終建構(gòu)應(yīng)對人工智能社會(huì)發(fā)展的法律規(guī)制體系。
算法系統(tǒng)的復(fù)雜性決定了其與技術(shù)、倫理等領(lǐng)域密不可分,為了保障人工智能健康發(fā)展,盡可能地消除算法偏見帶來的影響,需要建立相應(yīng)的倫理道德框架。國外對此頗有研究,其中在國際影響最廣的是“阿西洛馬人工智能原則”和IEEE組織倡議的倫理標(biāo)準(zhǔn)。具體而言,前者所倡議的倫理原則包括:安全性、失敗的透明性、負(fù)責(zé)、與人類價(jià)值觀保持一致、保護(hù)隱私、尊重自由、分享利益、共同繁榮、人類控制、非顛覆以及禁止人工智能裝備競賽等;后者提出了人權(quán)(確保它們不侵犯國際公認(rèn)的人權(quán))、福祉(在它們的設(shè)計(jì)和使用中優(yōu)先考慮人類福祉的指標(biāo))、問責(zé)(確保它們的設(shè)計(jì)者和操作者負(fù)責(zé)任且可問責(zé))、透明(確保它們以透明的方式運(yùn)行)和慎用(將濫用的風(fēng)險(xiǎn)降到最低)這五項(xiàng)原則。而在我國,國家人工智能標(biāo)準(zhǔn)化總體組發(fā)布了有關(guān)技術(shù)倫理報(bào)告,結(jié)合算法偏見而言,算法的設(shè)計(jì)與應(yīng)用要堅(jiān)持以實(shí)現(xiàn)人類根本利益為終極目標(biāo),在算法相關(guān)的技術(shù)開發(fā)和應(yīng)用兩方面都要建立明確的責(zé)任體系,堅(jiān)持權(quán)責(zé)一致原則。②參見全國信息安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)下設(shè)的大數(shù)據(jù)安全標(biāo)準(zhǔn)特別工作組所編《人工智能安全標(biāo)準(zhǔn)化白皮書(2019年版)》。
由前述可知,算法偏見主要來自于設(shè)計(jì)人員的主觀偏見、數(shù)據(jù)輸入帶來的偏見以及機(jī)器學(xué)習(xí)產(chǎn)生的偏見三個(gè)方面,而算法偏見所造成的侵害主要包括公民的平等權(quán)、隱私權(quán)以及數(shù)據(jù)安全,產(chǎn)生來源的多樣性和存在的風(fēng)險(xiǎn)決定了我們對算法進(jìn)行防控時(shí)不僅要從風(fēng)險(xiǎn)發(fā)生后出發(fā),還要重視構(gòu)建在人工智能技術(shù)發(fā)展中對算法偏見的常態(tài)性風(fēng)險(xiǎn)防范舉措。
1.建構(gòu)行業(yè)道德倫理規(guī)范,約束算法設(shè)計(jì)者的行為
算法系統(tǒng)充斥著人的偏見,是對社會(huì)偏見的映射。算法設(shè)計(jì)人員的主觀意圖會(huì)融入算法系統(tǒng)的設(shè)計(jì)研發(fā)過程,因此,為了消除算法偏見帶來的危害,很重要的一步就是約束算法設(shè)計(jì)研發(fā)人員的行為,強(qiáng)化其道德自律,建立起行業(yè)道德倫理與規(guī)范。首先,應(yīng)建立對算法研發(fā)人員統(tǒng)一培訓(xùn)制度,該制度旨在通過全國統(tǒng)一培訓(xùn),達(dá)到使每位即將參與具體算法設(shè)計(jì)研發(fā)的工作人員對算法程序的基本概念、基本內(nèi)容以及對數(shù)據(jù)的識(shí)別、性質(zhì)等都有統(tǒng)一固定的認(rèn)識(shí),這避免了因區(qū)域性差異或主體意識(shí)偏差帶來的錯(cuò)誤,有效提高了算法設(shè)計(jì)的公平。其次,確保每位設(shè)計(jì)研發(fā)人員定期接受道德培訓(xùn)。科學(xué)技術(shù)推進(jìn)社會(huì)發(fā)展,也能影響道德的演進(jìn)方向,道德也影響科技的發(fā)展。應(yīng)積極引導(dǎo)“技術(shù)道德”,使之融于算法設(shè)計(jì)者的內(nèi)心。再者,提高設(shè)計(jì)人員的偏見識(shí)別能力。通過學(xué)習(xí)大量偏見案例,對基本的偏見行為能夠區(qū)分,不僅自己設(shè)計(jì)時(shí)不該注入偏見,也要對同伴的偏見進(jìn)行制止。最后,要強(qiáng)化政府和企業(yè)對算法設(shè)計(jì)研發(fā)人員的監(jiān)督,不僅要定期抽檢研發(fā)者的培訓(xùn)情況,還要對他們圍繞設(shè)計(jì)規(guī)則與程序的陳述進(jìn)行評估。約束算法設(shè)計(jì)人員的行為是消除算法偏見的必經(jīng)之路,清晰認(rèn)識(shí)道德與技術(shù)的關(guān)系,使算法的設(shè)計(jì)符合主流價(jià)值觀。
2.設(shè)立專門的算法監(jiān)管機(jī)構(gòu)和明確的技術(shù)標(biāo)準(zhǔn)
技術(shù)層面上的不完善或者任意性都會(huì)使得算法系統(tǒng)存在一定的風(fēng)險(xiǎn),面對算法應(yīng)用帶來的風(fēng)險(xiǎn),我國尚未有專門的機(jī)構(gòu)對算法進(jìn)行監(jiān)管,因此必須設(shè)立專門的監(jiān)管機(jī)構(gòu)??紤]到我國在計(jì)算機(jī)、互聯(lián)網(wǎng)或者軟件等領(lǐng)域有大量的行業(yè)協(xié)會(huì),其中具有非常多的專業(yè)性人才,而算法是計(jì)算機(jī)領(lǐng)域的重要組成部分,故可以成立一個(gè)專門的行業(yè)自律組織,配備計(jì)算機(jī)技術(shù)人才,加之其他相關(guān)領(lǐng)域的專家,由相關(guān)行政機(jī)關(guān)負(fù)責(zé)指導(dǎo),承擔(dān)起算法監(jiān)管的職責(zé),更好地察覺算法中的偏見。另外,該行業(yè)自律組織得制定統(tǒng)一、相關(guān)的技術(shù)標(biāo)準(zhǔn)。[8]技術(shù)標(biāo)準(zhǔn)的統(tǒng)一不僅可以提高后期對算法違規(guī)情況的審查準(zhǔn)確度,還能有效制約算法設(shè)計(jì)人員的程序研發(fā)行為?,F(xiàn)實(shí)中,算法完全中立雖難以實(shí)現(xiàn),但可以致力于減少乃至消除一定的算法偏見。當(dāng)然,制定統(tǒng)一的標(biāo)準(zhǔn)并不代表只有一套技術(shù)標(biāo)準(zhǔn),技術(shù)標(biāo)準(zhǔn)具有不唯一性,某個(gè)領(lǐng)域內(nèi)可以有多個(gè)標(biāo)準(zhǔn)。并且技術(shù)標(biāo)準(zhǔn)也具有發(fā)展性,統(tǒng)一技術(shù)標(biāo)準(zhǔn)的目的在于確保算法應(yīng)用的公平性和合理性,并不是一成不變的,它可以根據(jù)需要隨著技術(shù)的發(fā)展不斷調(diào)整,使其達(dá)到最佳效用。
3.建立算法備案審查制度
為了防止有問題的算法投入市場應(yīng)用而帶來危害,有必要建立算法備案審查制度。算法備案審查制度是指算法系統(tǒng)的設(shè)計(jì)研發(fā)人員,在算法研發(fā)結(jié)束投入應(yīng)用前應(yīng)按照一定程序?qū)⑺惴ㄓ嘘P(guān)材料向行業(yè)自律組織報(bào)送備案,接受備案的組織依法對其合理性等進(jìn)行審查與處理的一種事前監(jiān)督制度。需要指出的是,該制度的性質(zhì)不是行政許可。建立該制度的意義主要是便于查明算法是否符合設(shè)立的技術(shù)標(biāo)準(zhǔn)、風(fēng)險(xiǎn)產(chǎn)生的源頭以及確定需要承擔(dān)責(zé)任的主體。備案主要程序?yàn)椋涸O(shè)計(jì)者需要提交備案審查的內(nèi)容主要有算法的基本信息、遵循的具體技術(shù)標(biāo)準(zhǔn)、應(yīng)用范圍以及風(fēng)險(xiǎn)預(yù)測和處理,行業(yè)自律組織在收到材料后及時(shí)進(jìn)行初步的審查,剔除不符合統(tǒng)一技術(shù)標(biāo)準(zhǔn)和有明顯風(fēng)險(xiǎn)可能的算法,退回缺少材料或者可以改進(jìn)而減少風(fēng)險(xiǎn)的算法;算法設(shè)計(jì)研發(fā)人員對行業(yè)自律組織的處理有異議時(shí),可以向其申訴一次,若對二次處理決定仍不服的話,可以向?qū)?yīng)的指導(dǎo)行政機(jī)關(guān)申訴。經(jīng)過行業(yè)自律組織初步審查不存在問題的算法都需要備案留冊,研發(fā)人員取得備案文件后即可將算法投入應(yīng)用。對于未經(jīng)備案即投入應(yīng)用或者投入應(yīng)用的算法與備案登記信息不一致的,行業(yè)自律組織應(yīng)當(dāng)立即責(zé)令相關(guān)人員停止投入使用,并作出其他處罰決定(處罰權(quán)限根據(jù)相關(guān)行政法律規(guī)定授權(quán)行使)。
4.提升算法透明度
算法是在有限的步驟內(nèi)將輸入值轉(zhuǎn)化為輸出值,系統(tǒng)依靠自身內(nèi)在邏輯處理問題,再據(jù)定義問題來證明輸出值的合理性。算法缺乏透明性強(qiáng)化了算法偏見,并且使得用戶無法去尋求救濟(jì)。因此,為了提高算法的公平性,需要提升算法的透明度。然而在實(shí)踐中,公開算法程序存在一定的障礙,算法研發(fā)者常以公開算法會(huì)侵犯其商業(yè)秘密為由拒絕公開。對此,筆者認(rèn)為,可以通過有限度的公開來平衡提高透明度和保護(hù)商業(yè)秘密兩者的關(guān)系,不必披露精確的代碼或者公式。具體而言包括以下方面:一是向大眾“生動(dòng)”地公開技術(shù)要點(diǎn)。由于非計(jì)算機(jī)領(lǐng)域的用戶無法深入了解算法自動(dòng)化運(yùn)行的原理,以動(dòng)畫演示等方式向社會(huì)公開算法能讓大眾直觀感受算法系統(tǒng)運(yùn)行過程。二是遵循數(shù)據(jù)處理透明原則。為了減少算法對用戶的隱私侵害情況,算法設(shè)計(jì)人員應(yīng)該向社會(huì)公開數(shù)據(jù)保密的方式以及安全保障措施,并且告知公眾所收集的個(gè)人信息的用途和限度。三是貫徹可解釋性原則。算法設(shè)計(jì)者一方面在主動(dòng)公開的時(shí)候需要解釋算法的應(yīng)用場景、決策過程的原理、應(yīng)用的相應(yīng)風(fēng)險(xiǎn)等基本技術(shù)內(nèi)容;另一方面要對公眾所提出的疑問進(jìn)行及時(shí)解答,從而使利益相關(guān)者的合法權(quán)益在遭受算法不當(dāng)影響時(shí),能夠知曉如何尋求救濟(jì)。需要注意的是,往往一些公司內(nèi)部所應(yīng)用的算法是外包給技術(shù)公司,這就應(yīng)要求技術(shù)公司的研發(fā)人員將算法所有內(nèi)容都通過合同規(guī)定“轉(zhuǎn)讓”給委托方,并由委托方完成上述向社會(huì)公開的任務(wù)。由此可見,提升算法透明度是使算法為人們所理解、所預(yù)測、所控制的關(guān)鍵一步,以算法透明抵御算法“黑箱”,糾正算法運(yùn)行過程中的不合理環(huán)節(jié),保障算法運(yùn)行中的科學(xué)和公正。
人類已進(jìn)入了以大數(shù)據(jù)為主導(dǎo)的算法社會(huì),為了避免層出不窮的算法偏見帶來的社會(huì)風(fēng)險(xiǎn),算法偏見的治理也在不斷受到重視。據(jù)報(bào)道,于2021年9月26日召開的“2021年世界互聯(lián)網(wǎng)大會(huì)烏鎮(zhèn)峰會(huì)”設(shè)立的論壇中,算法問題的治理得到了高度重視。會(huì)議專設(shè)了“網(wǎng)絡(luò)數(shù)據(jù)治理論壇”“數(shù)據(jù)與算法論壇”“網(wǎng)絡(luò)安全技術(shù)發(fā)展和國際合作論壇”以及“互聯(lián)網(wǎng)企業(yè)社會(huì)責(zé)任論壇”等直接和間接與算法治理相關(guān)聯(lián)的研討交流論壇。可見,在保障互聯(lián)網(wǎng)社會(huì)及人工智能朝著更強(qiáng)的形態(tài)發(fā)展的前提下,算法偏見的社會(huì)治理已經(jīng)開始了探求解決之征程。隨著人們的不斷探索和實(shí)踐,算法規(guī)訓(xùn)的社會(huì)治理將會(huì)不斷充實(shí)完善現(xiàn)代社會(huì)治理體系。