国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

算法技術(shù)嵌入社會治理的倫理探析

2021-02-01 15:56蔣福明陳虹冰
關(guān)鍵詞:倫理決策責(zé)任

蔣福明,陳虹冰

(南華大學(xué) 馬克思主義學(xué)院,湖南 衡陽 421001)

黨和十九大提出“提高社會治理社會化、法治化、智能化、專業(yè)化水平”[1],這是實(shí)現(xiàn)治理體系和治理能力現(xiàn)代化的必然要求。高新科技影響了人類社會生活的方方面面,以大數(shù)據(jù)為基礎(chǔ)、以算法技術(shù)為核心的人工智能正以前所未有的速度、廣度和深度影響著人們的工作和生活。目前,算法技術(shù)已逐漸嵌入我國社會治理的各個方面,成為提高社會治理智能化和專業(yè)化程度的重要支撐。比如,在城市管理領(lǐng)域,算法技術(shù)用于處理窨井蓋下水位滿溢、河道口晴天排污、水電異常等問題;在城市交通領(lǐng)域,算法技術(shù)用于解決上下班高峰期道路擁堵的問題;在司法領(lǐng)域,算法技術(shù)用于庭審記錄,等等。

算法技術(shù)在社會治理中的應(yīng)用,從主體結(jié)構(gòu)、理念、方式等方面給社會治理帶來新的變革。社會治理主體結(jié)構(gòu)由一元主治向多元共治轉(zhuǎn)變;社會治理日益精準(zhǔn)化,由粗放型向精細(xì)型、由碎片分割向立體網(wǎng)絡(luò)轉(zhuǎn)變。算法技術(shù)使得社會治理更科學(xué)、更精準(zhǔn)、更高效,成為加快社會治理體系和治理能力現(xiàn)代化的重要支柱。眾所周知,科學(xué)技術(shù)所帶來的影響是雙重的,算法技術(shù)嵌入社會治理的同時,也不可避免地帶來全新的、復(fù)雜的倫理問題。

一、算法技術(shù)嵌入社會治理的倫理風(fēng)險

2017年2月,全球權(quán)威調(diào)查機(jī)構(gòu)皮尤研究中心發(fā)布了一份名為《依賴代碼:算法時代的利與弊》的報告。該報告指出:“算法面臨著一系列的挑戰(zhàn),過于追求數(shù)據(jù)和建模會帶來弱化人類的判斷、產(chǎn)生偏見、加深社會分歧等各種不良后果?!盵2]算法嵌入社會治理的過程,潛含著諸如削弱人的自主性、有損社會公正、自我認(rèn)知焦慮等倫理風(fēng)險。

(一)削弱人的自主性,凸顯反主體性沖突

社會治理的概念首次于黨的十八屆三中全會《關(guān)于全面深化改革若干重大問題的決定》中提出。與西方以理性經(jīng)濟(jì)人為假設(shè)的社會自我治理本質(zhì)不同的是,當(dāng)代中國的社會治理強(qiáng)調(diào)多元治理主體的互動過程,倡導(dǎo)各個社會階層、團(tuán)體積極共同參與社會治理,以達(dá)到共治、共享的治理目標(biāo)。換言之,我國的社會治理以人民為出發(fā)點(diǎn),亦以人民為目的,這就要求治理主體在社會治理的動態(tài)過程中秉持以人為本原則,積極維護(hù)人的主體性地位??档轮赋觯骸澳愕男袆?,要把你自己人格中的人性和其他人格中的人性,在任何時候都同樣看作是目的,不能把人僅僅當(dāng)作手段?!盵3]也就是說,技術(shù)的發(fā)展應(yīng)該以促進(jìn)人的自由而全面的發(fā)展作為最終目的,而不應(yīng)該成為阻礙人發(fā)展的力量。算法技術(shù)具有自我學(xué)習(xí)的能力,它能利用相關(guān)關(guān)系來預(yù)測、設(shè)計和選擇未來;因而,實(shí)際上我們難以作出符合自己自由意志的選擇和決定,最終的結(jié)果是算法系統(tǒng)越來越多地代替我們作出決定[4]。在此過程中,算法的自主性與人的自主性之間呈現(xiàn)著一定的負(fù)相關(guān)性,算法的自主性越強(qiáng),人的自主性反而越弱。有關(guān)文獻(xiàn)表明,32.3%的用戶擔(dān)心個性化推薦會讓視野變得狹窄[5],削弱他們的自主性。以今日頭條為例,基于用戶搜索用的關(guān)鍵詞和以往的瀏覽記錄,個性化推薦算法可以根據(jù)用戶畫像來挖掘分析用戶的喜好,為用戶推送其最感興趣的新聞資訊。表面看來,個性化推薦算法似乎是滿足了用戶對信息的需求,但其本質(zhì)上是對信息接收群體的一種前置性控制,削弱了人的自主性,凸顯反主體性沖突,進(jìn)而形成一種新的異化現(xiàn)象。

馬克思對異化理論作了較為詳細(xì)的解釋。他在《1844年經(jīng)濟(jì)學(xué)哲學(xué)手稿》中提到:“勞動用機(jī)器代替了手工勞動,……并使另一部分工人變成機(jī)器。勞動生產(chǎn)了智慧,但是給工人生產(chǎn)了愚鈍和癡呆?!盵6]技術(shù)由人創(chuàng)造,體現(xiàn)著人的本質(zhì)力量。但技術(shù)一旦被創(chuàng)造出來,往往又有其內(nèi)在的規(guī)律性,會依其特有的性質(zhì)產(chǎn)生相關(guān)影響,表現(xiàn)為一定的自主性。當(dāng)技術(shù)根據(jù)自身的這種自主性自我發(fā)展、自我優(yōu)化時就有可能背離設(shè)計者的初衷,形成一股隱蔽甚至公然的反主體性力量。實(shí)際上,當(dāng)一種技術(shù)在社會系統(tǒng)具有基礎(chǔ)性地位時,表明這項技術(shù)具有較強(qiáng)的自主性,可能形成的對抗主體的力量往往越強(qiáng)。由于算法與算法工程師兩者之間具有一定的相對獨(dú)立性,這意味著算法一旦被創(chuàng)造出來將不再屬于算法設(shè)計者,設(shè)計者沒有隨意修改或支配算法的權(quán)利,工程師能擁有的只是算法的部分使用權(quán)。由于算法的完美度、AI產(chǎn)品的智能化程度與其在生活中的應(yīng)用范圍這三者之間是正相關(guān)的關(guān)系,意味著AI產(chǎn)品越智能便越有可能背離算法工程師的初衷,形成一股異己的力量。

(二)自我認(rèn)知焦慮,個人隱私空間坍塌

在算法嵌入社會治理的過程中,治理要素被轉(zhuǎn)化成一連串?dāng)?shù)據(jù),這些數(shù)據(jù)成為社會治理的基礎(chǔ)。當(dāng)一切皆可被數(shù)據(jù)化時,隨之而來的是自我認(rèn)知焦慮和個人隱私泄露問題。以笛卡爾為代表的理性主義者認(rèn)為自我是意識的主體,而以貝克萊等為代表的經(jīng)驗主義者則認(rèn)為自我是知覺的集合體。維特根斯坦從語言分析哲學(xué)的角度給出了不同的解釋,認(rèn)為自我是個主體,不屬于世界,而是世界的界限,自我是認(rèn)知的起源。在智能時代,由于自我的含義有增無減,導(dǎo)致人們難以對自我進(jìn)行認(rèn)知,而如何對自我進(jìn)行認(rèn)知也顯得比以往更加迫切?;谝粋€人的定位、所訪問的網(wǎng)站、搜索用的關(guān)鍵詞等,算法就可以將他的性別、種族、社會階層、興趣愛好等信息相關(guān)聯(lián),并完成定期的統(tǒng)計推理,結(jié)果是通過算法得出的一種自我。但是,算法的運(yùn)行邏輯是“將每個個體都作為算法邏輯體系下的參數(shù)而不考慮個體主體性”[7]。這樣一來,由算法得出的自我與算法的非人屬性之間的矛盾使得人類對自我的認(rèn)知越來越困難,從而產(chǎn)生自我認(rèn)知焦慮。

隱私權(quán)是基本的人權(quán)。擁有一定的個人私密空間,是情感歸屬的需要,符合道德的要求;侵犯他人的隱私是不道德的,但是技術(shù)的進(jìn)步卻在不斷地侵犯人們的隱私。在大數(shù)據(jù)技術(shù)出現(xiàn)之前,隨著社會關(guān)系的變遷、社會空間的擴(kuò)大,收集、測量和分析那些分散在廣闊社會空間的獨(dú)立個體的行動軌跡、身份信息等是比較困難的,因而個人隱私相對安全。如今,算法在互聯(lián)網(wǎng)領(lǐng)域的運(yùn)用徹底改變了這種狀況,人們游走于虛實(shí)交錯的世界里,例如網(wǎng)絡(luò)購物、移動支付、社交平臺的使用、指紋識別、刷臉認(rèn)證等都會不可避免地留下一連串的容貌數(shù)據(jù)、身份數(shù)據(jù)、行為數(shù)據(jù)。如此,慢慢地積累所有數(shù)據(jù),直至在計算機(jī)數(shù)據(jù)庫中形成一個“人”[8]。基于商業(yè)經(jīng)濟(jì)或其他原因,這些數(shù)據(jù)可能被共享,也有可能被進(jìn)一步剖析,使得個人隱私空間持續(xù)坍塌,由公私空間明確區(qū)分的“陌生人社會”逐漸變成了私人空間日漸被侵蝕的“透明人社會”。在“透明人社會”中,私人空間甚至有可能變成公共空間,毫無個人隱私可言?!度斯ぶ悄苄袠I(yè):人臉識別應(yīng)用公眾調(diào)研報告(2020)》顯示:64.39%的受訪者認(rèn)為人臉識別技術(shù)有濫用趨勢;超過三成的受訪者表示已經(jīng)因人臉信息泄露、濫用等遭受損失或隱私被侵犯[9]。例如,在網(wǎng)上只要花費(fèi)10元便可以購買5000張人臉照片,這無疑會將個人隱私暴露于大庭廣眾之下。

(三)抑制公民知情權(quán),損害社會公正

算法具有黑箱屬性,即機(jī)器在完成某項任務(wù)時,社會公眾無法了解其是如何思考的,也無法了解其作出決策的依據(jù)是什么。由于算法決策在社會治理領(lǐng)域的廣泛應(yīng)用,人們擔(dān)心社會最終會出現(xiàn)一個黑箱操作系統(tǒng),侵害公民的基本政治權(quán)利卻又無法問責(zé)[10]。首當(dāng)其沖的便是公民知情權(quán)。知情權(quán)是指公民在面對信息時,有知悉和獲取信息的一種權(quán)利和自由。一方面,由于算法黑箱的存在,公民在面對算法決策時常常扮演無知者的角色。當(dāng)一種難以觀察和理解的隱形規(guī)則越來越廣泛深入地滲透到社會治理中,并開始代替治理主體作出與個人、群體利益甚至生命安全息息相關(guān)的決策時,背后潛藏的風(fēng)險也一目了然。另一方面,互聯(lián)網(wǎng)時代背景下,人們主要通過網(wǎng)絡(luò)知悉和獲得信息。比如,政府通過網(wǎng)絡(luò)頒布政策,社會組織通過網(wǎng)絡(luò)發(fā)布公告等,網(wǎng)絡(luò)無疑成為人們獲得相關(guān)信息、實(shí)現(xiàn)知情權(quán)的主要途徑。當(dāng)前,很多社會活動依賴于網(wǎng)絡(luò),但是算法時代形成了新的弱勢群體,他們難以分享算法技術(shù)應(yīng)用于社會治理所帶來的社會利益和發(fā)展機(jī)會,比如,不少農(nóng)村落后地區(qū)的老年人,由于經(jīng)濟(jì)條件和身體殘障不能持有信息終端的人,等等?!吨袊ヂ?lián)網(wǎng)絡(luò)發(fā)展?fàn)顩r統(tǒng)計報告》顯示:截至2020年12月,我國網(wǎng)民規(guī)模達(dá)9.89億,互聯(lián)網(wǎng)普及率達(dá)70.4%,非網(wǎng)民群體將近30%[11]。如果算法技術(shù)進(jìn)一步深入滲透到社會治理領(lǐng)域,毫無疑問,這些沒有“網(wǎng)絡(luò)身份”的人也會相應(yīng)地被剝奪知情權(quán)。因此,算法的黑箱屬性和網(wǎng)絡(luò)作為獲取知情權(quán)的主要途徑便在一定程度上抑制了公民的知情權(quán)。

“正義是社會制度的首要價值。”[12]換言之,國家頂層設(shè)計和社會治理實(shí)踐的首要價值追求便是社會公平正義,“公平正義是我們黨追求的一個非常崇高的價值”[13]。如今,越來越多的重要決定由算法裁定[14]。但基于算法歧視的存在,事實(shí)上形成了社會偏見,損害了社會公正。算法決策本質(zhì)上是對決策者成見的一種沿襲,是對已有的社會歧視的一種再現(xiàn),這便“使得流行的不平等進(jìn)一步加深”[15]。2019年10月,南都個人信息保護(hù)研究中心人工智能倫理課題組成員對北京朝陽區(qū)和豐臺區(qū)的兩個公租房小區(qū)進(jìn)行了人臉識別系統(tǒng)測試,發(fā)現(xiàn)一般正常人可順利通過人臉識別閘機(jī),但坐輪椅的殘障人士難以達(dá)到攝像頭的高度,這無疑是對殘障人士的一種歧視和不公[16]。以往,個人偏見只會影響少數(shù)人;現(xiàn)今,一旦技術(shù)人員的個人偏見被植入算法轉(zhuǎn)變成算法偏見,算法偏見所帶來的負(fù)面效應(yīng)便會成倍擴(kuò)大,這將進(jìn)一步加劇社會的不公正。在此背景下,算法如何規(guī)制以及由誰控制便成為新時代必須關(guān)注的社會正義問題。

(四)算法復(fù)雜性引發(fā)歸責(zé)困境

責(zé)任倫理主體是責(zé)任關(guān)系的始動者,是責(zé)任倫理的核心,是責(zé)任的承擔(dān)者,也是責(zé)任的實(shí)現(xiàn)者,是責(zé)任認(rèn)知、判斷、實(shí)現(xiàn)和承擔(dān)責(zé)任失誤的主體[17]。明確責(zé)任倫理主體有利于對責(zé)任進(jìn)行認(rèn)定,避免出現(xiàn)逃避、推諉責(zé)任和玩忽職守等問題。也就是說,責(zé)任主體模糊會直接影響到事故發(fā)生時該如何對責(zé)任進(jìn)行追究、問責(zé),甚至造成歸責(zé)困境。算法決策的復(fù)雜性會在一定程度上造成責(zé)任主體模糊或缺失,從而導(dǎo)致問責(zé)困境。算法決策的過程是一個相當(dāng)復(fù)雜且難以解釋的過程。由于算法的判斷力基于概率論而產(chǎn)生,任何算法決策在處理復(fù)雜的因果關(guān)系時都伴隨著不可避免的隨機(jī)性問題,這就意味著算法決策必然產(chǎn)生誤差[18]。越來越多的決策交由算法,當(dāng)算法依據(jù)其規(guī)則作出錯誤的決策甚至危害到人們的生命安全時,誰該為此負(fù)責(zé)呢?是算法開發(fā)公司還是算法工程師?算法一旦被設(shè)定,它的設(shè)計者都無法預(yù)測最終的結(jié)果,設(shè)計者也不能追蹤它作出決策的依據(jù)。當(dāng)算法決策出現(xiàn)嚴(yán)重的失誤時,由于絕大多數(shù)算法具有較強(qiáng)的隱蔽性和復(fù)雜性,相關(guān)責(zé)任主體企圖在算法的遮蔽下互相推諉,現(xiàn)實(shí)中的監(jiān)管部門難以對造成事故的責(zé)任主體進(jìn)行判定劃分,從而造成一定程度的審查難、問責(zé)難的困境。另外,“算法以多種方式被‘碎片化’”[19]122,這意味著難以分配責(zé)任。例如,算法有可能是由多個算法公司共同設(shè)計完成的,也可以被復(fù)制、二次銷售等。當(dāng)算法出現(xiàn)失誤時難以對設(shè)計者、出售方、使用方和數(shù)據(jù)提供方進(jìn)行責(zé)任比例劃分,這也會對責(zé)任判定造成一定的困難。

二、算法技術(shù)嵌入社會治理的倫理風(fēng)險歸因

(一)算法技術(shù)本身存在黑箱問題

算法的技術(shù)黑箱和解釋黑箱是引起倫理風(fēng)險的技術(shù)源頭。由算法引起的所有隱晦或露骨的偏見,要么是一兩個程序員造成的,要么是技術(shù)難題導(dǎo)致的,而算法技術(shù)難題之一就是不可避免的算法黑箱。類似于周邊定律,算法在黑盒子的遮蔽下運(yùn)行,而基于算法作決策的人根本不知道他們作出的決定是否正確,制定的政策是否公正[20]。除此之外,出于商業(yè)機(jī)密或各種各樣的原因,算法技術(shù)人員在實(shí)踐中并不會向社會公眾公布算法的源代碼,因此,社會大眾無法知曉算法運(yùn)行的規(guī)則,無法在算法作出決策時向其提出意見,也不能真正參與決策過程,只能被動接受最終的結(jié)果。事實(shí)上,即便公開源代碼,一連串的代碼符號對于非專業(yè)人員的普通民眾而言無疑是天書,他們根本無法得知這些算法規(guī)則是否有利于促進(jìn)人的發(fā)展,也無法得知其是否符合人類社會發(fā)展的價值追求。

(二)算法技術(shù)人員倫理責(zé)任缺失

“算法具有價值負(fù)荷屬性,不同價值判斷的人會設(shè)計出不同的算法?!盵21]這體現(xiàn)在:算法中預(yù)設(shè)某種價值立場,算法的運(yùn)行結(jié)果具有倫理效應(yīng)[22]。盡管設(shè)計人員可以盡量使算法保持客觀性,但是設(shè)計人員的知識背景、所處的社會規(guī)范體系及倫理觀念等都會潛在地影響其所設(shè)計的算法,所以算法本質(zhì)上不是客觀的。由于算法日益復(fù)雜,對沒有專業(yè)技術(shù)知識的人而言,算法技術(shù)本身就是一個不可解釋、難以預(yù)測后果的黑箱,伴隨著諸多的倫理風(fēng)險。顧名思義,倫理責(zé)任以倫理規(guī)范為判斷依據(jù),違背倫理規(guī)范需要承擔(dān)相應(yīng)的倫理責(zé)任?!柏?zé)任”一詞在倫理學(xué)中主要有兩層含義:一是主體或者行動者有義務(wù)給出相應(yīng)的解釋,二是客體處于可以被說明或者解釋的狀態(tài)[23]。第一層含義顯而易見,設(shè)計人員有義務(wù)遵循倫理道德規(guī)范,在必要的時候?qū)τ脩艋蚬娺M(jìn)行解釋。第二層含義則要求客體具有可解釋性。如果算法本身是黑箱子,即使是專業(yè)技術(shù)人員,也難以對輸入、輸出數(shù)據(jù)之間的對應(yīng)關(guān)系建立邏輯可靠的解釋,這種情形下將難以界定倫理責(zé)任,導(dǎo)致倫理責(zé)任缺失。例如,將人工智能技術(shù)用于自動駕駛,由于自動駕駛涉及人、車、交通指示系統(tǒng)等諸多交互因素,算法設(shè)計人員很難有效地將有限的訓(xùn)練方法與算法學(xué)習(xí)過程中建立的數(shù)據(jù)關(guān)系推廣至一般,也難以對復(fù)雜的情況進(jìn)行有效解釋。如果極端偶然因素的出現(xiàn)導(dǎo)致決策失誤,算法設(shè)計人員是否該對此負(fù)倫理責(zé)任?答案顯然為否。另一種情形是,即使算法能夠清晰解釋輸入數(shù)據(jù)與輸出數(shù)據(jù)之間的關(guān)系,因受計算流程和硬件載體的影響,算法的輸出結(jié)果出現(xiàn)小概率的不確定性,這種不確定性是超乎專業(yè)人員的預(yù)期的,發(fā)生事故后難以進(jìn)行倫理問責(zé),也會出現(xiàn)算法設(shè)計人員的倫理責(zé)任缺失問題。

(三)治理主體過分依賴工具理性

在算法技術(shù)應(yīng)用于社會治理的實(shí)踐中,算法技術(shù)使得治理主體具備精準(zhǔn)且高效的能力,在捕獲、篩選海量信息的同時,也促使推崇技術(shù)、效率的工具理性思想逐漸占據(jù)主導(dǎo)地位。算法技術(shù)作為實(shí)現(xiàn)社會治理精準(zhǔn)化、高效率,提高社會治理能力的一種工具,卻在實(shí)踐過程中逐漸異化,日益背離關(guān)注人類福祉的價值理性,造成過分依賴工具理性的不當(dāng)傾向。為提高社會治理效率,一些地方政府過分倚賴大數(shù)據(jù)技術(shù)平臺建設(shè)和推廣應(yīng)用,基于算法對數(shù)據(jù)的相關(guān)分析而制定決策。隨著算法嵌入社會治理的不斷推進(jìn),原有的人類決策對算法的依賴程度提高,甚至逐步轉(zhuǎn)交給算法。這無疑是對決策主體的工具理性的一種強(qiáng)化,使得治理主體在進(jìn)行決策時越來越重視技術(shù)手段是否科學(xué),忽視決策背后本應(yīng)追求的倫理價值。另外,算法助力社會治理為人類帶來前所未有的便利與高效的同時,也會逐漸消弭人類的主觀能動性?!叭祟愒诤A啃畔⒚媲爸饾u喪失思考能力、辨析能力、批判能力”[24],使得治理主體陷入算法技術(shù)帶來的“夢幻效果”的積極情緒中,忽略甚至無視技術(shù)應(yīng)用背后的意義世界。如此一來,算法技術(shù)的推進(jìn)將不斷加深治理主體的“權(quán)力幻象”錯覺,促使他們?nèi)找妗盁嶂杂谕ㄟ^技術(shù)手段提高對社會的控制能力”[25],對公眾真正的權(quán)益訴求置若罔聞,從而與增進(jìn)人民福祉的價值追求背道而馳。

(四)對算法技術(shù)的社會監(jiān)督不足

一方面,占據(jù)技術(shù)高峰的企業(yè)或公司,容易利用算法對公眾不透明的特點(diǎn)或者某些法律灰色地帶,濫用算法,采集與侵犯公眾隱私數(shù)據(jù),導(dǎo)致公眾權(quán)益受到傷害。例如,2020年7月央視“3·15”晚會曝光多款手機(jī)App軟件涉嫌采集用戶的身份證、上網(wǎng)購物習(xí)慣及電話等私密信息,用于商業(yè)牟利。而像指紋、人臉這類具有唯一與不可再造屬性的生物信息,一旦被侵犯和販賣,即使政府能追蹤犯罪蹤跡、進(jìn)行問責(zé),也難以消除隱私泄露對個人帶來的潛在不利影響。另一方面,盡管政府相關(guān)部門已經(jīng)嘗試性地對數(shù)據(jù)和算法平臺企業(yè)進(jìn)行監(jiān)督,但是在人員、技術(shù)和理念等方面仍存在很大滯后性,這些滯后性導(dǎo)致政府機(jī)構(gòu)未能及時對企業(yè)的算法使用權(quán)力進(jìn)行合理的監(jiān)督。

三、算法技術(shù)嵌入社會治理的倫理規(guī)約

(一)重視事前、事后的技術(shù)應(yīng)對

為減少科學(xué)技術(shù)應(yīng)用過程中的負(fù)面影響,應(yīng)積極倡導(dǎo)科技向善。所謂“善”的理念是指一切有利于人和人類社會發(fā)展的正向價值,譬如尊重生命、維護(hù)社會公正、增進(jìn)人類福祉等。因此,在技術(shù)層面,應(yīng)從事前、事后兩個維度對算法倫理風(fēng)險進(jìn)行規(guī)約:事前應(yīng)該對數(shù)據(jù)進(jìn)行預(yù)處理和價值敏感設(shè)計以預(yù)防算法歧視;事后應(yīng)以科技向善的價值維度對算法決策進(jìn)行監(jiān)督審計。

其一,事前亦即算法技術(shù)設(shè)計之初,遵循“善”的理念原則進(jìn)行價值敏感性設(shè)計。價值敏感性設(shè)計是指為了彌補(bǔ)技術(shù)與人文之間的差距,在技術(shù)設(shè)計階段便將人類價值特別是倫理道德價值與行為方式嵌入其中。在技術(shù)設(shè)計之初,應(yīng)當(dāng)考慮諸如“福利、所有權(quán)和財產(chǎn)、隱私、普遍可用性、公平、自主性、信任、知情同意、責(zé)任以及環(huán)境可持續(xù)性”等人類價值[26]。另外,數(shù)據(jù)質(zhì)量的好壞會直接影響算法的好壞。根據(jù)香農(nóng)提出的信息論,信息可以消除系統(tǒng)的不確定性。但是數(shù)據(jù)除含有信息外還不可避免地夾雜著噪音,容易受到環(huán)境影響,往往在場景上做了些小變化,算法判別就出現(xiàn)錯誤了。因此,需要對數(shù)據(jù)進(jìn)行降噪處理,提高數(shù)據(jù)的信噪比。還要確保輸入數(shù)據(jù)滿足公平屬性,以防產(chǎn)生歧視。

其二,事后亦即算法技術(shù)應(yīng)用階段,對算法決策進(jìn)行監(jiān)督審計。盡管設(shè)計人員盡可能公平地設(shè)計算法,卻不能保證算法決策符合“善”的原則,也不能保證決策不觸及倫理道德的底線。因而還需要監(jiān)督審計應(yīng)用階段的算法。一方面,技術(shù)人員應(yīng)以科技向善的導(dǎo)向設(shè)計出相對應(yīng)的審計設(shè)計,如代碼審計、非侵入式用戶審計、抓取式審計等。另一方面,政府機(jī)構(gòu)、科技公司應(yīng)該積極采取措施,制定相關(guān)的制度規(guī)范對算法決策進(jìn)行監(jiān)督審計。算法監(jiān)督機(jī)制應(yīng)以風(fēng)險防范為基本原則,重視內(nèi)容審查,明確算法設(shè)計者和使用者各自需要承擔(dān)的技術(shù)責(zé)任和平臺責(zé)任。

(二)強(qiáng)化算法技術(shù)人員的責(zé)任倫理意識

算法技術(shù)的應(yīng)用伴隨著嚴(yán)峻的倫理問題,急需對其進(jìn)行倫理調(diào)適。算法的倫理設(shè)計是路徑之一,而實(shí)現(xiàn)算法的倫理設(shè)計首先要求算法技術(shù)人員具備一定的責(zé)任倫理意識。這意味著算法技術(shù)人員在從事算法設(shè)計開發(fā)活動和選擇具體的應(yīng)用場景時,承擔(dān)著前所未有的社會責(zé)任。事實(shí)上,在技術(shù)研發(fā)之初,技術(shù)人員難以對其可能產(chǎn)生的社會后果進(jìn)行準(zhǔn)確預(yù)判。而當(dāng)技術(shù)引發(fā)負(fù)面效應(yīng)時,“它往往已經(jīng)成為整個經(jīng)濟(jì)和社會結(jié)構(gòu)中難以抽離的一部分,以至于難以對它進(jìn)行控制”[27]。因此,算法技術(shù)人員應(yīng)樹立一種“前瞻性”的責(zé)任倫理意識,以預(yù)防為原則,在技術(shù)研發(fā)階段盡量預(yù)防可能的潛在風(fēng)險,倡導(dǎo)人文道德關(guān)懷,規(guī)避和減少技術(shù)應(yīng)用階段所帶來的負(fù)面效應(yīng),保證技術(shù)應(yīng)用的正當(dāng)性和合理性。另外,算法工程師的培養(yǎng)不僅需要專業(yè)技能教育,更需要人文和倫理學(xué)教育,以期培養(yǎng)負(fù)責(zé)任的科技人才。如,大學(xué)開設(shè)的相關(guān)科學(xué)技術(shù)倫理學(xué)課程應(yīng)包括“算法風(fēng)險評分的普及、如何保證數(shù)據(jù)無偏倚、是否應(yīng)當(dāng)用機(jī)器來評判人類等問題”[19]124。因此,應(yīng)積極培養(yǎng)算法工程師的責(zé)任倫理意識,提升其責(zé)任倫理素養(yǎng),強(qiáng)化其社會責(zé)任感,促使其自覺承擔(dān)一定的倫理責(zé)任。

(三)彰顯價值理性,強(qiáng)化社會監(jiān)督

各個社會治理主體要平衡好工具理性和價值理性,不僅關(guān)注社會治理的效率和智能化等,更要彰顯價值理性,以人為本,重視決策背后本應(yīng)追求的倫理價值。倫理為制度提供了價值合理性,而制度則可能使倫理成為具有強(qiáng)烈約束力的普遍意識[28]。國際社會高度重視人工智能倫理問題,經(jīng)過共同商討,一致達(dá)成治理應(yīng)以人本主義、可信賴性、負(fù)責(zé)任、包容性、可解釋性為原則的基本共識。針對人工智能倫理問題,國家新一代人工智能治理專業(yè)委員會于2019年6月發(fā)布了文件《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》,為人工智能治理提供了治理藍(lán)圖和行動指南。但是,我國目前還沒有專門的算法倫理制度規(guī)范。針對算法引起的倫理風(fēng)險,政府部門應(yīng)以包容審慎為原則,采取靈活彈性的方式建立與之相對應(yīng)的法律體系和倫理框架。例如,在算法技術(shù)開發(fā)初期可以制定相關(guān)的倫理指南和公約,在算法技術(shù)應(yīng)用后期則可出臺相應(yīng)的法律法規(guī)進(jìn)行管控。制定規(guī)則及立法是應(yīng)對算法技術(shù)引發(fā)的倫理風(fēng)險的重要手段。建立合理的算法問責(zé)制,作為一種在算法技術(shù)應(yīng)用中造成事實(shí)損害的“責(zé)任分配和危害發(fā)生后的補(bǔ)救機(jī)制”[29]。建立合理的算法問責(zé)制需要立足本國國情,借鑒他國經(jīng)驗。我國在建立算法問責(zé)制時應(yīng)當(dāng)著重考慮以下三點(diǎn)。首先,將數(shù)據(jù)作為當(dāng)前的重點(diǎn)規(guī)范對象,在法律層面明確數(shù)據(jù)權(quán)屬問題,建立“誰使用誰負(fù)責(zé)”的責(zé)任機(jī)制,保障數(shù)據(jù)流動的合法性和合理性。其次,明確數(shù)據(jù)共享的范圍和場景并建立相應(yīng)的保護(hù)和懲罰措施。最后,算法治理中需要加強(qiáng)算法規(guī)則的透明度、可靠性、可解釋性和可驗證性。

總之,算法技術(shù)嵌入社會治理是新時代社會治理體系和治理能力現(xiàn)代化的必然要求。算法技術(shù)要不斷釋放其帶來的技術(shù)紅利和價值,也要進(jìn)行相關(guān)的倫理規(guī)約,以期真正實(shí)現(xiàn)算法技術(shù)促進(jìn)公平正義、增進(jìn)人類福祉等愿景。

猜你喜歡
倫理決策責(zé)任
《心之死》的趣味與倫理焦慮
為可持續(xù)決策提供依據(jù)
使命在心 責(zé)任在肩
每個人都該承擔(dān)起自己的責(zé)任
護(hù)生眼中的倫理修養(yǎng)
決策為什么失誤了
醫(yī)改莫忘構(gòu)建倫理新機(jī)制
期望囑托責(zé)任
婚姻家庭法的倫理性及其立法延展
忠誠 責(zé)任 關(guān)愛 奉獻(xiàn)