徐瑞萍,劉 杰
(1.佛山科學(xué)技術(shù)學(xué)院 法學(xué)與知識產(chǎn)權(quán)學(xué)院,廣東 佛山 528000;2.佛山科學(xué)技術(shù)學(xué)院 馬克思主義學(xué)院,廣東 佛山 528000)
當(dāng)今社會,諸如智能制造、智慧城市、航空航天以及醫(yī)療、教育、建筑、能源等行業(yè)都紛紛引入了數(shù)字孿生技術(shù)。2020 年4 月國家發(fā)改委特別指出要將數(shù)字孿生作為支撐數(shù)字化轉(zhuǎn)型的基礎(chǔ)設(shè)施和技術(shù)創(chuàng)新賦能的關(guān)鍵對象。數(shù)字孿生已經(jīng)進(jìn)入我國國家發(fā)展戰(zhàn)略,具有廣闊的應(yīng)用前景,一個(gè)以“虛實(shí)映射、實(shí)時(shí)同步、共生演進(jìn)、閉環(huán)優(yōu)化”為特征的數(shù)字孿生時(shí)代正悄然來臨。數(shù)字孿生時(shí)代的到來使算法技術(shù)不斷滲透進(jìn)我們的生產(chǎn)領(lǐng)域和生活世界,并以海量數(shù)據(jù)驅(qū)動下的算法為核心實(shí)現(xiàn)數(shù)字化轉(zhuǎn)型。事實(shí)上,數(shù)字孿生時(shí)代,各類人工智能算法能夠幫助數(shù)字孿生體解決大量復(fù)雜的任務(wù),包括訓(xùn)練出面向不同場景需求的模型,以及完成診斷、預(yù)測及決策任務(wù)。[1]當(dāng)然,任何事物都具有兩面性——我們在高度重視算法技術(shù)為社會生產(chǎn)生活帶來重要作用的同時(shí),也要關(guān)注其應(yīng)用帶來的風(fēng)險(xiǎn)挑戰(zhàn),如算法偏見、算法歸責(zé)難等。更需引起注意的是,這些風(fēng)險(xiǎn)挑戰(zhàn)背后涉及的是社會倫理問題。因此,在算法技術(shù)日益廣泛滲透的當(dāng)下,厘清算法風(fēng)險(xiǎn)的倫理問題,分析其產(chǎn)生原因并探尋治理對策,有助于算法技術(shù)在數(shù)字孿生時(shí)代的健康向善發(fā)展。
隨著物聯(lián)網(wǎng)、互聯(lián)網(wǎng)、云計(jì)算、大數(shù)據(jù)、人工智能、算法、VR、AR 等諸多技術(shù)的集成,數(shù)字孿生技術(shù)框架得以成熟。其中,算法技術(shù)是指采取數(shù)學(xué)模型建構(gòu)來解決某一類問題的方式。提出數(shù)字孿生的目的就是從根本上解決物理世界的數(shù)字化,讓物理世界的運(yùn)行實(shí)現(xiàn)低成本和可持續(xù)改進(jìn)等目標(biāo)。因此,正是算法技術(shù)使得解決物理世界的問題的成本降低、效率提升以及實(shí)現(xiàn)全生命周期持續(xù)改進(jìn)??茖W(xué)技術(shù)作為先進(jìn)生產(chǎn)力的重要標(biāo)志,大大促進(jìn)了社會和人的發(fā)展。但是,在具體的實(shí)踐中,科學(xué)技術(shù)往往也會帶來一些風(fēng)險(xiǎn)挑戰(zhàn)。數(shù)字孿生時(shí)代,算法技術(shù)發(fā)展進(jìn)程中引發(fā)了算法偏見、算法歸責(zé)難、人類主體的自主性削弱、隱私泄露和數(shù)據(jù)濫用、數(shù)字鴻溝、人與算法的矛盾等倫理風(fēng)險(xiǎn)。
數(shù)字孿生作為一種理論模型最早由美國密歇根大學(xué)邁克爾·格里夫教授提出,指在信息空間建構(gòu)一個(gè)可以映射表征物理設(shè)備的虛擬系統(tǒng),物理設(shè)備和虛擬系統(tǒng)之間可以在產(chǎn)品的全生命周期內(nèi)實(shí)現(xiàn)雙向的、動態(tài)的聯(lián)系。數(shù)字孿生的概念被廣泛運(yùn)用于航空航天、船舶、城市管理、建筑、工業(yè)制造、電力、金融、健康醫(yī)療等多個(gè)行業(yè),成為打造數(shù)字化社會、進(jìn)行數(shù)字化治理的重要抓手。當(dāng)前數(shù)字孿生應(yīng)用最為成熟的行業(yè)當(dāng)屬智能制造,在產(chǎn)品研發(fā)的過程中,數(shù)字孿生可以虛擬構(gòu)建產(chǎn)品數(shù)字化模型,對其進(jìn)行仿真測試和驗(yàn)證。在生產(chǎn)制造階段,可以模擬設(shè)備的運(yùn)轉(zhuǎn)和參數(shù)調(diào)整帶來的變化。在維護(hù)階段,采用數(shù)字孿生技術(shù)通過對運(yùn)行數(shù)據(jù)的連續(xù)采集和智能分析,可以預(yù)測維護(hù)工作的最佳時(shí)間點(diǎn)、提供維護(hù)周期的參考依據(jù)、提供故障點(diǎn)和故障概率的參考。數(shù)字孿生為智能制造帶來了顯而易見的效率提升和成本下降。
相較于既有的數(shù)字化技術(shù),數(shù)字孿生具有四個(gè)典型的技術(shù)特征:虛實(shí)映射,即數(shù)字空間中的孿生體和現(xiàn)實(shí)世界中的物理對象可以實(shí)現(xiàn)雙向映射;實(shí)時(shí)同步,即孿生體通過實(shí)時(shí)獲取到多元數(shù)據(jù)可以全面、精準(zhǔn)、動態(tài)反映物理實(shí)體的狀態(tài)變化;共生演進(jìn),即數(shù)字孿生所實(shí)現(xiàn)的精準(zhǔn)映射能夠覆蓋產(chǎn)品的全生命周期,并隨著孿生對象生命周期進(jìn)程不斷演進(jìn)更新;閉環(huán)優(yōu)化,即數(shù)字孿生體通過描述物理實(shí)體的內(nèi)在機(jī)理,分析規(guī)律、洞察趨勢,基于分析與仿真對物理世界形成優(yōu)化指令或策略,實(shí)現(xiàn)對物理實(shí)體決策優(yōu)化功能的閉環(huán)。
數(shù)字孿生以數(shù)字化方式拷貝一個(gè)物理對象,模擬對象在現(xiàn)實(shí)環(huán)境中的行為,為了達(dá)到物理實(shí)體與數(shù)字實(shí)體之間的互動需要經(jīng)歷諸多的過程,也需要很多基礎(chǔ)技術(shù)作為依托,更需要經(jīng)歷很多階段的演進(jìn)才能很好地實(shí)現(xiàn)物理實(shí)體在數(shù)字世界中的塑造。數(shù)字孿生技術(shù)體系包括物理層、數(shù)據(jù)層、運(yùn)算層、功能層和能力層五個(gè)層次,分別對應(yīng)數(shù)字孿生的五個(gè)要素:物理對象、對象數(shù)據(jù)、動態(tài)模型、功能模塊和應(yīng)用能力。
物理層所涉及的物理對象既包括物理實(shí)體,也包括實(shí)體內(nèi)部及互相之間存在的各類運(yùn)行邏輯、生產(chǎn)流程等已存在的邏輯規(guī)則;數(shù)據(jù)層的數(shù)據(jù)來源于物理空間中的固有數(shù)據(jù),以及由各類傳感器實(shí)時(shí)采集到的多模式、多類型的運(yùn)行數(shù)據(jù);運(yùn)算層作為數(shù)字孿生體的核心,可以利用多項(xiàng)先進(jìn)關(guān)鍵技術(shù),包括云計(jì)算、人工智能、算法等,將來自數(shù)據(jù)層的大量數(shù)據(jù)進(jìn)行分析,并能夠支持功能層實(shí)現(xiàn)數(shù)字孿生系統(tǒng)的認(rèn)知、診斷、預(yù)測和決策;功能層的核心要素“功能模塊”是指由各類模型通過或獨(dú)立或相互聯(lián)系作用的方式形成的半自主性的子系統(tǒng);最終,通過功能模塊的搭配組合解決特定應(yīng)用場景中某類具體問題的解決方案,在歸納總結(jié)后會沉淀為一套專業(yè)知識體系,這便是數(shù)字孿生可對外提供的應(yīng)用能力,也可稱為應(yīng)用模式。
位于運(yùn)算層的算法技術(shù)可謂數(shù)字孿生系統(tǒng)之靈魂,是數(shù)字孿生系統(tǒng)進(jìn)行預(yù)測、決策的重要技術(shù)支持。在數(shù)字孿生系統(tǒng)中,大量來自物理實(shí)體的實(shí)時(shí)數(shù)據(jù)會驅(qū)動各類算法完成診斷、預(yù)測和決策任務(wù),并將指令傳遞到現(xiàn)實(shí)世界中去??梢哉f,離開算法,數(shù)字孿生的技術(shù)價(jià)值是無法實(shí)現(xiàn)的。
算法技術(shù)的價(jià)值在數(shù)字孿生時(shí)代得到了進(jìn)一步的彰顯。與此同時(shí),算法技術(shù)的應(yīng)用過程也引發(fā)了諸如算法偏見、算法歸責(zé)難、人類主體的自主性被削弱、數(shù)字鴻溝、隱私泄露和數(shù)據(jù)濫用、人與算法的矛盾等一系列風(fēng)險(xiǎn)挑戰(zhàn)和倫理問題。
1.算法偏見
進(jìn)入數(shù)字孿生時(shí)代,孿生世界和物理世界實(shí)現(xiàn)實(shí)時(shí)互動。數(shù)字孿生既可以接受物理世界的實(shí)時(shí)信息,又能夠反過來實(shí)時(shí)驅(qū)動物理世界。比如,交通擁堵的疏解指令能夠及時(shí)傳遞到城市交通指揮系統(tǒng),候車人流高峰時(shí)段公交車輛的派發(fā)能夠智能化調(diào)度。算法技術(shù)在數(shù)字孿生中扮演著“決策分析和制定者”的重要角色,來自現(xiàn)實(shí)中的問題交付給算法,一方面依靠算法設(shè)計(jì)人員設(shè)計(jì)運(yùn)作規(guī)則,另一方面依靠搜集和存儲的數(shù)據(jù),是二者共同作用的結(jié)果。但是,算法設(shè)計(jì)人員存在主觀價(jià)值偏差。中國大數(shù)據(jù)領(lǐng)域有影響力的專家周濤指出,“令人不安的是,由系統(tǒng)設(shè)計(jì)人員引入的初始偏見,伴隨著數(shù)據(jù)的累積和算法的運(yùn)作有可能逐漸地進(jìn)一步強(qiáng)化放大?!保?]同時(shí),來自物理世界中的數(shù)據(jù)也并不能做到全覆蓋。這兩方面因素共同導(dǎo)致算法產(chǎn)生偏見,于是在數(shù)字孿生框架中算法技術(shù)繼承和放大了人類偏見[3],做出了非中立的、差異性的決策。
深度學(xué)習(xí)算法是算法技術(shù)的進(jìn)一步發(fā)展,指能夠自主學(xué)習(xí)、自主編程、自主發(fā)展的學(xué)習(xí)算法,可以用來解決更復(fù)雜的任務(wù)。但也正是因?yàn)樗惴ㄉ疃葘W(xué)習(xí)這一特性,使得算法偏見問題更加棘手。當(dāng)算法具備深度學(xué)習(xí)能力時(shí),即算法通過對輸入數(shù)據(jù)的不斷深入學(xué)習(xí)可以實(shí)現(xiàn)新的運(yùn)作規(guī)則的創(chuàng)建,如果輸入給算法的是大量帶有偏見性的數(shù)據(jù),那么算法就會通過自主學(xué)習(xí)形成新的帶有偏見色彩的運(yùn)作規(guī)則。
算法技術(shù)設(shè)計(jì)發(fā)展的根本目的本應(yīng)是造福人類,但是現(xiàn)實(shí)卻相反:由于算法越來越具有生命屬性,算法偏見已成為最易引發(fā)的算法倫理風(fēng)險(xiǎn)[4]。人們并沒有在算法技術(shù)發(fā)展過程中獲得公平公正的對待,而是導(dǎo)致了非公正、非中立的社會問題出現(xiàn)。數(shù)字孿生時(shí)代不乏算法偏見的案例,數(shù)字孿生技術(shù)賦能金融風(fēng)控,由于缺乏正當(dāng)性的信用評級體系,引發(fā)大范圍的歧視問題。可以說,算法偏見問題嚴(yán)重違背了公平原則,損害公眾基本權(quán)利和個(gè)體利益。
2.算法歸責(zé)難
算法技術(shù)是一種程序式的代碼,一方面,由于信息不對稱和不公開,導(dǎo)致算法的運(yùn)作方式和背后機(jī)理于絕大部分人而言是難以理解的;另一方面,算法技術(shù)從數(shù)據(jù)輸入到?jīng)Q策結(jié)果輸出的決策過程不可解釋。人類可以非常明確地感受到算法對其產(chǎn)生的影響,但是卻不能對其內(nèi)部原理和運(yùn)作機(jī)制一探究竟。這兩方面的原因共同促使形成“算法黑箱”問題。
正因?yàn)樗惴ê谙鋯栴}的存在,算法技術(shù)的道德責(zé)任追究成為難題,這也一度成為學(xué)術(shù)界的研究熱點(diǎn),主要集中在:算法技術(shù)不透明、不公開導(dǎo)致歸責(zé)難。安德魯·塔特(Andrew Tutt)提出算法責(zé)任挑戰(zhàn)主要在于:算法責(zé)任測量難、危害追蹤難、責(zé)任分配難。[5]首先,算法責(zé)任測量難。例如,自動駕駛汽車在緊急情況下做出犧牲小部分人(乘客或者路人)保全大部分人的決策,如何測量此類算法行為的責(zé)任我們?nèi)匀粵]有明確的方案。其次,算法危害追蹤難。以智慧城市建設(shè)為例,算法作為公共資源分配和社會治理的主角,但算法可能會因?yàn)榉N族、性別等導(dǎo)致不公平的結(jié)果。然而,由于算法設(shè)計(jì)人員、輸入數(shù)據(jù)等都有可能導(dǎo)致算法偏見這一危害,所以對該危害的確定性來源的追蹤具有很大的挑戰(zhàn)性。最后,責(zé)任分配難。一項(xiàng)算法的設(shè)計(jì)囊括多個(gè)參與主體,同時(shí)算法又可以被標(biāo)價(jià)買賣,從而會應(yīng)用在多種場景中,一旦算法產(chǎn)生危害,數(shù)據(jù)提供者、算法設(shè)計(jì)者、算法使用者等多方利益相關(guān)人員的責(zé)任難以劃分。
3.人類主體的自主性被削弱
由于智能算法功能的強(qiáng)大,而人類對其存在的缺陷認(rèn)識不足,導(dǎo)致人類對于智能算法技術(shù)的過度依賴并進(jìn)而產(chǎn)生算法技術(shù)崇拜。隨著數(shù)字孿生的越來越廣泛的應(yīng)用,算法技術(shù)已經(jīng)越來越多地嵌入人類認(rèn)知活動,深刻地影響著人類的判斷和決策,在人類面前樹立起了高大偉岸的形象。但是,試想如果人類的所有決策、判斷都完全放手于算法,就有可能走向唯算法主義,使人類自身的自主性被嚴(yán)重削弱。由于算法的主體性和人類的主體性呈現(xiàn)此消彼長的態(tài)勢,算法自主性增強(qiáng)的同時(shí)作為主體的人類自主性削弱,甚至出現(xiàn)主體隱匿[6]。人類的行為軌跡被數(shù)據(jù)化,利用算法實(shí)現(xiàn)對人的行為的記錄、分析、調(diào)控。一個(gè)被記錄、被解析的解析社會正悄然來臨。雖然算法技術(shù)功能強(qiáng)大,但與此同時(shí),人的主體性被減弱,久而久之,人類可能陷入被技術(shù)人造物控制的尷尬境地。正如德國哲學(xué)家京特·安德斯指出,盡管人類一直堅(jiān)信“創(chuàng)造是人的天性”,但是人們面對其創(chuàng)造物時(shí),卻愈發(fā)有一種自愧弗如與自慚形穢的羞愧,此羞愧堪稱“普羅米修斯的羞愧”——在技術(shù)面前,這種“創(chuàng)造與被創(chuàng)造關(guān)系的倒置”使人成了過時(shí)的人。[7]
4.數(shù)字鴻溝風(fēng)險(xiǎn)
數(shù)字孿生時(shí)代,算法技術(shù)為我們帶來極大的便利,與此同時(shí),我們也要警惕數(shù)字鴻溝風(fēng)險(xiǎn)。一方面,信息不對稱、不透明以及算法技術(shù)的知識技術(shù)門檻,客觀上會導(dǎo)致并加劇信息壁壘、數(shù)字鴻溝等違背社會公平原則的現(xiàn)象與趨勢。如何縮小數(shù)字鴻溝以增進(jìn)人類整體福祉、保障社會公平,這是一個(gè)具有世界性意義的倫理價(jià)值難題。另一方面,算法技術(shù)的設(shè)計(jì)、使用程度都與當(dāng)?shù)亟?jīng)濟(jì)發(fā)展水平、人才水平密切相關(guān),這也會造成數(shù)字鴻溝。數(shù)字孿生時(shí)代,利用物聯(lián)網(wǎng)等技術(shù)對城市運(yùn)行各項(xiàng)數(shù)據(jù)進(jìn)行搜集、存儲,算法技術(shù)可以實(shí)現(xiàn)賦能城市治理,輔助人類做出合理的城市治理決策。如抗擊新型冠狀病毒期間,全國各地推行了出行需出示健康碼政策,在疫情防控中發(fā)揮了重要作用,但令人遺憾的是老年人以及其他無法使用網(wǎng)絡(luò)的弱勢群體卻被殘酷地“阻擋”了出行的腳步。因此,如何利用算法賦能社會各領(lǐng)域,并實(shí)現(xiàn)發(fā)達(dá)地區(qū)與欠發(fā)達(dá)地區(qū)算法技術(shù)的共享,助推各地區(qū)共同發(fā)展,讓算法技術(shù)造福全人類,是社會各界不容忽視的重要問題。
5.隱私泄露和數(shù)據(jù)濫用
算法作為數(shù)字孿生的基底,是一種全新的認(rèn)識世界和改造世界的方法論。數(shù)字孿生與社會的聯(lián)系日漸緊密,算法對社會產(chǎn)生的影響更為深刻。算法以大數(shù)據(jù)和機(jī)器深度學(xué)習(xí)為基礎(chǔ),并且具有越來越強(qiáng)的自主學(xué)習(xí)和決策能力。算法技術(shù)越“會算”,就越需要個(gè)人信息數(shù)據(jù)作為其迭代升級的“養(yǎng)分”。獲取、存儲和分析海量的個(gè)人信息數(shù)據(jù)時(shí),難以避免會牽涉?zhèn)€人隱私保護(hù)這一重要的倫理問題。數(shù)字孿生時(shí)代,在人類不知情的情況下,各類數(shù)據(jù)信息采集無孔不入,人類的隱私化身成數(shù)據(jù)存在于數(shù)字化空間中,不斷地被存儲、復(fù)制和傳播。譬如,數(shù)字孿生時(shí)代,智慧城市建設(shè)使得每個(gè)城市必須管理自己的數(shù)字孿生兄弟。值得警惕的是,數(shù)字孿生城市數(shù)據(jù)來源面廣、接入點(diǎn)多,數(shù)據(jù)集中度高,城市的基礎(chǔ)設(shè)施高度依賴數(shù)據(jù)的運(yùn)行,一旦被入侵,其安全危害就很大,整個(gè)城市的運(yùn)行會瞬間癱瘓。最重要的是,城市的很多數(shù)據(jù)涉及公民隱私,需要有效保護(hù)。若我們不能有效地管控算法技術(shù),就會造成使人類隱私“裸奔”的嚴(yán)重倫理風(fēng)險(xiǎn)。個(gè)體數(shù)據(jù)權(quán)利因此受到前所未有的重視,歐盟2018 年5 月頒布的《一般數(shù)據(jù)保護(hù)條例》(GDPR)中鄭重強(qiáng)調(diào)了個(gè)人數(shù)據(jù)就是保護(hù)的主體,同時(shí)明確界定了數(shù)據(jù)的獲取權(quán)、修改權(quán)、被遺忘權(quán)、數(shù)據(jù)可攜帶權(quán)、異議權(quán)等數(shù)據(jù)主體的權(quán)利。人類應(yīng)該充分發(fā)揮自身能動性的優(yōu)勢,找回人類的主導(dǎo)權(quán),主動、積極地參與到數(shù)字畫像過程中,使人類有權(quán)決定對自己的數(shù)據(jù)進(jìn)行處理與洞察,減少數(shù)據(jù)濫用,降低對數(shù)據(jù)主體的傷害。
6.人與算法技術(shù)的矛盾
數(shù)字孿生時(shí)代,面對日益強(qiáng)大的算法技術(shù),一方面,人類使用并驚喜于算法的便利、高效,并逐漸產(chǎn)生對算法的依賴。例如,數(shù)字孿生醫(yī)療中電子病歷、疾病注冊庫和可穿戴設(shè)備中的數(shù)據(jù)可用作創(chuàng)建患者的“數(shù)字模型”,根據(jù)患者目前的狀態(tài),數(shù)字孿生技術(shù)可以將各種數(shù)據(jù)呈現(xiàn)給醫(yī)護(hù)人員,算法幫助醫(yī)護(hù)人員及時(shí)判斷可能會發(fā)生的緊急情況并提前做出應(yīng)對措施。擁有算法技術(shù)的“加持”,醫(yī)護(hù)人員能獲取更多有價(jià)值的信息,幫助他們?yōu)榛颊咛峁└咝Ц行У淖o(hù)理服務(wù)。另一方面,就如同庫茲韋爾指出的人工智能爆發(fā)的奇點(diǎn),人類開始擔(dān)憂能否一直掌控算法技術(shù)。算法技術(shù)越來越智能,人類就越容易提出這樣的問題:算法技術(shù)這一人工智能是否可能超越人類智能?算法技術(shù)是否可能帶來巨大風(fēng)險(xiǎn)而人類不知曉甚至無法預(yù)知?算法技術(shù)是否可能逐漸演變?yōu)橐环N不受人類控制的自主性的力量?諸如此類的問題不勝枚舉,反映出數(shù)字孿生時(shí)代人與技術(shù)之間的矛盾關(guān)系。
在數(shù)字孿生時(shí)代,算法技術(shù)引發(fā)一系列倫理風(fēng)險(xiǎn)挑戰(zhàn),算法的復(fù)雜性、人的認(rèn)知失衡、算法設(shè)計(jì)者的價(jià)值偏差和公眾算法素養(yǎng)亟待提升這幾個(gè)方面是引發(fā)上述倫理風(fēng)險(xiǎn)挑戰(zhàn)的成因。
首先,就算法自身而言,算法是一項(xiàng)非常復(fù)雜的技術(shù)。假設(shè)追溯分析算法本身的道德責(zé)任,實(shí)際上計(jì)算量是非常具有挑戰(zhàn)性的。例如,深度學(xué)習(xí)算法存在數(shù)以千計(jì)的數(shù)學(xué)函數(shù),并由函數(shù)構(gòu)成了無數(shù)的連續(xù)軟件層,現(xiàn)在的網(wǎng)絡(luò)可達(dá)兩百多層。而且算法技術(shù)在加工信息時(shí)是非線性的變換,當(dāng)信號傳遞到深一層的函數(shù)時(shí),信息的復(fù)雜度也會指數(shù)級增長。實(shí)際上,當(dāng)前的算法還遠(yuǎn)遠(yuǎn)達(dá)不到可理解性和值得信任的要求。其次,就算法關(guān)涉的因素而言,包括人的需求和利益、當(dāng)前的技術(shù)、設(shè)計(jì)開發(fā)者水平、社會環(huán)境等,這些因素之間相互影響、相互作用,共同促進(jìn)算法技術(shù)生成,并且算法技術(shù)的復(fù)雜性與解決問題的復(fù)雜性呈正相關(guān),所要解決的問題越復(fù)雜,算法的代碼構(gòu)成就越復(fù)雜。隨著人類要解決的問題越來越復(fù)雜,人類在設(shè)計(jì)過程中就會忽略一些因素,人類也就會越來越難以駕馭算法,導(dǎo)致算法產(chǎn)生一些不可預(yù)測的后果。算法的復(fù)雜性導(dǎo)致算法的運(yùn)作結(jié)果無法被我們準(zhǔn)確地預(yù)測,因此可能會出現(xiàn)一些出人意料的結(jié)果,我們無法對其予以約束控制。
算法技術(shù)作為人的技術(shù)設(shè)計(jì)產(chǎn)品,無論如何都會受到人的認(rèn)知水平的限制。一方面,算法設(shè)計(jì)人員可能存在算法知識盲區(qū),在算法設(shè)計(jì)過程中可能存在不甚了解的算法知識,導(dǎo)致算法設(shè)計(jì)與初衷背離;另一方面,人類在進(jìn)行算法技術(shù)設(shè)計(jì)的時(shí)候,更多地會從功利主義角度出發(fā),考慮的是算法技術(shù)的商業(yè)價(jià)值,人文價(jià)值被忽視,道德意蘊(yùn)被拋棄。這樣,算法技術(shù)帶給我們的只是生存、生活的量的提升和效率的變革,但是質(zhì)的飛躍卻無從談起。
價(jià)值與算法是相伴的,可謂每一種算法技術(shù)內(nèi)部都內(nèi)嵌著價(jià)值[8]。從哲學(xué)的角度來看,價(jià)值是指客體能夠滿足主體需要的效益關(guān)系。費(fèi)利西塔斯指出,“算法存在價(jià)值負(fù)荷,擁有不同價(jià)值判斷的人會使用不同的算法來處理問題,因而會設(shè)計(jì)出不同的算法”[9]。算法技術(shù)的價(jià)值對不同的人而言是不同的,因此價(jià)值觀念、利益訴求不同的主體會設(shè)計(jì)出不同的算法技術(shù)或者選擇不同的算法技術(shù)。個(gè)體之間的價(jià)值觀偏差就導(dǎo)致算法存在一定的偏見、歧視風(fēng)險(xiǎn)。如果是算法設(shè)計(jì)者有意為之,即算法設(shè)計(jì)者權(quán)衡利益之后進(jìn)行特定設(shè)計(jì),那就是有目的的人造風(fēng)險(xiǎn)。這種風(fēng)險(xiǎn)的規(guī)避只能從準(zhǔn)確認(rèn)知算法中的價(jià)值觀念出發(fā)。
算法素養(yǎng)是指算法設(shè)計(jì)者和算法使用者與算法共處時(shí)應(yīng)該具備的品格和能力。同時(shí),算法素養(yǎng)是一種多元素的素養(yǎng),包括算法意識、算法認(rèn)知、算法思維、算法倫理、算法價(jià)值理性以及構(gòu)建人與算法的和諧共生關(guān)系。公眾不斷提升自身算法素養(yǎng)在數(shù)字孿生時(shí)代具有重要意義,一方面,人類可以深刻地認(rèn)識到算法技術(shù)在數(shù)字孿生時(shí)代的重要時(shí)代價(jià)值,助力算法技術(shù)向上向善發(fā)展,不斷促進(jìn)算法技術(shù)賦能社會生活各領(lǐng)域,從而為人民群眾創(chuàng)造美好生活;另一方面,人類可以更好地應(yīng)對數(shù)字孿生時(shí)代的算法風(fēng)險(xiǎn)挑戰(zhàn)。然而,當(dāng)下公眾的算法素養(yǎng)跟不上技術(shù)飛速發(fā)展的步伐,明顯低于數(shù)字孿生時(shí)代的要求,亟須提升。
在進(jìn)一步深入探討數(shù)字孿生時(shí)代算法風(fēng)險(xiǎn)的倫理治理之時(shí),還須清晰認(rèn)知算法風(fēng)險(xiǎn)的倫理治理所應(yīng)遵循的根本原則。
要確保人類始終處于主導(dǎo)地位,防止算法技術(shù)這一人造物超出人類的可控范圍。雖然已有研究指出,算法具有擬主體性,但是人類仍然并將始終是主導(dǎo)者。算法要能夠尊重使用者,尊重社會文化,避免人類的利益、尊嚴(yán)和價(jià)值主體地位受損,確保算法技術(shù)持有與人類相同的價(jià)值觀,始終堅(jiān)守不損害人類自身的道德底線,實(shí)現(xiàn)造福人類的正確價(jià)值取向。當(dāng)算法技術(shù)替人類做出決策時(shí),應(yīng)該尊重人的主體價(jià)值,讓人類處于主導(dǎo)地位。以算法技術(shù)賦能醫(yī)療為例,判斷一個(gè)人是否會生病以及診療方案的選擇應(yīng)該讓醫(yī)生處于主體地位,在尊重醫(yī)生的選擇判斷的基礎(chǔ)上參考算法技術(shù)的意見。如果不能讓人類處于主導(dǎo)地位,那么技術(shù)作為人造物就會反過來控制人類,讓人類喪失主導(dǎo)權(quán)。
算法技術(shù)必須是安全、可控的,這是算法倫理中的首要原則。要保證企業(yè)和用戶的隱私安全以及與此相關(guān)的政治、經(jīng)濟(jì)和文化安全,對于危及人類安全的算法技術(shù),應(yīng)該果斷舍棄,不應(yīng)因?yàn)楣麅r(jià)值而忽視最重要的安全問題。此外,要保證算法不被濫用,黑客、犯罪團(tuán)伙、敵對勢力等為了獲取非法私利而更改、破解算法,危害人的生命財(cái)產(chǎn)安全、破壞社會穩(wěn)定、嚴(yán)重危害國家安全的行為應(yīng)當(dāng)明令禁止,嚴(yán)厲打擊。因此,對于科學(xué)技術(shù)的發(fā)展,需要人類嚴(yán)格審慎地權(quán)衡取舍。例如,數(shù)字孿生建筑的算法系統(tǒng)中,存在于多種設(shè)備和終端上的數(shù)據(jù),包括設(shè)計(jì)數(shù)據(jù)、機(jī)械(電氣、管道)系統(tǒng)運(yùn)行數(shù)據(jù)、環(huán)境數(shù)據(jù)、施工數(shù)據(jù)以及零件和運(yùn)維數(shù)據(jù)等,是使數(shù)字孿生建筑算法系統(tǒng)運(yùn)作的重要?jiǎng)恿υ?,若?shù)據(jù)泄密甚至數(shù)據(jù)被惡意更改,將會引發(fā)重大的安全問題。因此,明確算法技術(shù)的安全可靠原則至關(guān)重要,必須將算法技術(shù)嚴(yán)格限制在安全的軌道上運(yùn)行。
算法技術(shù)應(yīng)為廣大人民群眾帶來福祉、便利和享受,而不能僅成為少數(shù)人的專屬。算法技術(shù)應(yīng)該體現(xiàn)對算法使用者中的弱勢群體提供更多的包容和理解,不應(yīng)因身份、地位和財(cái)富、性別等不同而差異對待,應(yīng)該讓算法技術(shù)滿足廣大人民群眾的基本需求和對美好生活的向往。與此同時(shí),應(yīng)鼓勵(lì)公眾提出質(zhì)疑和有價(jià)值的反饋,保障公眾參與以及個(gè)人權(quán)利行使,從而共同促進(jìn)算法技術(shù)產(chǎn)品性能與質(zhì)量的提升。算法技術(shù)使用中始終秉持以人為本、為廣大人民群眾謀福利才是算法技術(shù)的正確發(fā)展方向,才是算法技術(shù)造福全人類的價(jià)值彰顯。
在數(shù)字孿生時(shí)代,算法技術(shù)的廣泛應(yīng)用更要求其遵循公開透明原則。算法技術(shù)透明重點(diǎn)強(qiáng)調(diào)的是包括算法的代碼、內(nèi)容、形式以及使用、組織、管理等信息的公開、透明。算法技術(shù)要做到公開透明,禁止過時(shí)、錯(cuò)誤、片面或帶有偏見的數(shù)據(jù)輸入算法,以防止算法技術(shù)對特定人群產(chǎn)生偏見和歧視。因?yàn)樗惴夹g(shù)門檻較高,大多數(shù)算法使用者由于專業(yè)和知識的限制難以知曉算法的代碼、內(nèi)容及其運(yùn)作方式,這就導(dǎo)致算法使用者對于算法的安全、質(zhì)量和有效性的認(rèn)同存在滯后性,這在一定程度上不利于算法技術(shù)的順利發(fā)展。因此,公開算法的相關(guān)信息,增強(qiáng)公眾對于算法的認(rèn)知、識別,既能讓算法使用者更加安心使用,又能讓算法技術(shù)更加順利發(fā)展。
公正是我國的社會主義核心價(jià)值觀念之一。社會主義核心價(jià)值觀是我國的主導(dǎo)社會價(jià)值觀,其價(jià)值觀念就是打造平等社會、消弭偏見。算法偏見根源是算法設(shè)計(jì)人員將社會中存在的偏見帶入算法,或者算法依賴的訓(xùn)練數(shù)據(jù)也存在偏見,甚至隱私保護(hù)中也可能存在偏見。因此,解決算法偏見問題的根本就在于遵循公正原則,消除現(xiàn)實(shí)世界中的不公正,并盡可能避免在算法技術(shù)中引入新的不公正。
為保障算法技術(shù)的良性運(yùn)行和創(chuàng)新發(fā)展,需要進(jìn)行倫理治理,在秉持尊重人類主體、安全可靠、以人為本、公開透明、公正五項(xiàng)基本原則的基礎(chǔ)上進(jìn)行算法技術(shù)的倫理設(shè)計(jì),創(chuàng)新制定倫理準(zhǔn)則,努力引入責(zé)任倫理,集聚合力協(xié)同共治,提升公眾算法素養(yǎng)。
算法是價(jià)值負(fù)荷的,必然對社會的倫理、政治和文化等價(jià)值都有可能產(chǎn)生直接的影響。如果想要算法技術(shù)的發(fā)展符合倫理,那么從這項(xiàng)技術(shù)設(shè)計(jì)之初就應(yīng)該遵循倫理原則。技術(shù)領(lǐng)域的“道德物化”是現(xiàn)代技術(shù)倫理發(fā)揮效用的一種新興研究思路,即通過對技術(shù)進(jìn)行恰當(dāng)?shù)脑O(shè)計(jì),將道德理念“嵌入”技術(shù)人工物的功能之中,使技術(shù)人工物在使用的過程中,能夠從道德意義上引導(dǎo)和規(guī)范人的決策和行為。在某種意義上,技術(shù)就是物理空間中的算法,算法就是賽博空間中的技術(shù)[10]。算法和技術(shù)的強(qiáng)內(nèi)在一致性使得算法技術(shù)可以按照這一思路進(jìn)行設(shè)計(jì):算法技術(shù)做出的決策應(yīng)該是道德可接受的、合乎倫理原則的,甚至算法輸出的結(jié)果是可以引導(dǎo)人類向善,從而幫助人類做出明確的符合道德準(zhǔn)則的決策。
首先,“算法從善”道德形態(tài)的構(gòu)建,是一種人工構(gòu)建,依附于人類主體模式的道德建構(gòu),算法只有體現(xiàn)或遵循人類主體模式下的“善法”,才能以有責(zé)任感的方式推進(jìn)道德算法的進(jìn)化及其在機(jī)器中的嵌入[11]。因此,人類尤其是作為算法技術(shù)人造物設(shè)計(jì)主體的算法技術(shù)設(shè)計(jì)人員,應(yīng)該具備一定的倫理學(xué)知識、道德判斷和推理能力,保持對道德問題的敏感度,能夠?qū)⑦@種倫理學(xué)知識嵌入到算法技術(shù)設(shè)計(jì)中,將義務(wù)論、后果論、境遇倫理和契約倫理融入算法程序設(shè)計(jì)中。這體現(xiàn)了對算法技術(shù)人員學(xué)術(shù)性和技術(shù)性的雙重挑戰(zhàn)。其次,作為依靠數(shù)據(jù)推動的一項(xiàng)技術(shù),要確保采用的訓(xùn)練數(shù)據(jù)是客觀中立的,讓算法通過自主學(xué)習(xí)形成穩(wěn)定的道德推斷模式,能夠做出合乎倫理的道德決策。
在面對一項(xiàng)新技術(shù)的倫理問題時(shí),一般情況而言,我們不能運(yùn)用演繹的思路依賴已有的或者新創(chuàng)制的規(guī)則,自上而下地進(jìn)行處理;反而我們需要自下而上地分析處理這些倫理問題,考慮其特點(diǎn)并權(quán)衡利益相關(guān)者的價(jià)值,尋求解決之道,再應(yīng)用倫理學(xué)的理論和原則加以論證。[12]因此,在制定算法技術(shù)倫理準(zhǔn)則時(shí),要自下而上尋找解決問題的方法,提高倫理準(zhǔn)則的實(shí)效性。
首先,制定公平正義的倫理準(zhǔn)則。一方面要關(guān)注倫理準(zhǔn)則自身的公平與正義,只有公正的規(guī)則,才能獲取民心、廣得美譽(yù),更好地被信服與納用;另一方面要確保倫理準(zhǔn)則被寄予善的價(jià)值目標(biāo),只有具有正能量的動力因素,才有存在與被采用的價(jià)值,而且在潛意識被“利己主義”攻城略地的數(shù)字孿生時(shí)代,利益的引誘極易使社會成員走向“一切向錢看”的錯(cuò)誤道路,為減少此種不諧事件,我們需要倫理準(zhǔn)則中“善”的指引與約束。其次,不斷更新與完善倫理準(zhǔn)則。隨著算法技術(shù)的深入發(fā)展,現(xiàn)行的具體倫理準(zhǔn)則確實(shí)已經(jīng)很難真正保護(hù)好我們的隱私,這是不容忽視的現(xiàn)實(shí)。在迅速興起的數(shù)字孿生時(shí)代,原有的倫理準(zhǔn)則的滯后問題日益凸顯,因而要結(jié)合數(shù)字孿生時(shí)代的發(fā)展要求與時(shí)俱進(jìn)、不斷完善。再次,發(fā)揮傳統(tǒng)倫理思想的約束力。傳統(tǒng)倫理思想可為現(xiàn)代倫理道德建設(shè)提供重要而又有效的思想資源,尤其是“仁”的觀念、“誠”的思想、“義利”之辨和“慎獨(dú)”精神。[13]借助傳統(tǒng)道德思想的約束力,提升倫理準(zhǔn)則的實(shí)效性。最后,促進(jìn)自然科學(xué)領(lǐng)域和人文社科領(lǐng)域的專家形成良性對話機(jī)制,雙方合力制定算法倫理準(zhǔn)則。中國作為人工智能發(fā)展大國,卻沒有制定適合我國數(shù)字化社會發(fā)展需求的算法倫理準(zhǔn)則,實(shí)為一項(xiàng)亟須解決的問題。因此,我國可以參照歐美國家制定的在全球范圍比較有影響力的算法倫理準(zhǔn)則,在此基礎(chǔ)上形成具有中國特色的算法倫理準(zhǔn)則,助力我國算法事業(yè)的發(fā)展。
首先,明確劃分責(zé)任人。算法技術(shù)設(shè)計(jì)人員要明確樹立對發(fā)明創(chuàng)造的技術(shù)負(fù)責(zé)的責(zé)任意識,能夠向公眾客觀闡明自己設(shè)計(jì)的算法技術(shù)成果利弊。其次,樹立全民責(zé)任意識。數(shù)字孿生時(shí)代所有人都享受了算法技術(shù)帶來的福利,對此,數(shù)字孿生時(shí)代下的每一位公民有義務(wù)承擔(dān)起合理合情使用算法技術(shù)、防止算法技術(shù)濫用的責(zé)任。最后,政府和算法技術(shù)人員要承擔(dān)主要責(zé)任。政府要通過制定相關(guān)政策,推動和監(jiān)管算法技術(shù)向上向善發(fā)展,算法技術(shù)人員要更新技術(shù)觀念,摒棄技術(shù)與道德的錯(cuò)誤觀念,以善良道德引導(dǎo)算法技術(shù)發(fā)展方向。從算法技術(shù)設(shè)計(jì)之初到應(yīng)用的全部過程都要保持道德合理。
倫理治理是依靠社會各群體對道德的傳揚(yáng)來加強(qiáng)對社會的治理,須弘揚(yáng)社會“善”的主旋律。數(shù)字孿生時(shí)代算法風(fēng)險(xiǎn)的治理需要社會治理的合力與倫理治理有效結(jié)合,協(xié)同共治,以提高治理的效力。
首先,倫理與法律互補(bǔ)。法律的制定是在道德的基礎(chǔ)上產(chǎn)生的,但是法律的權(quán)威性和實(shí)際效力是凌駕于道德之上的。于是,倫理引導(dǎo)與法律治理的結(jié)合將對當(dāng)今社會公民起到內(nèi)外雙重影響的作用。既在心靈層面給人以約束,讓人的行為回歸“善”的本原,也能促進(jìn)人的外在行為符合善的要求,以符合法律的規(guī)章制度。具體而言,應(yīng)利用法律規(guī)范輸入數(shù)據(jù)的采集、利用和共享,保證算法的運(yùn)作透明、公正,同時(shí)根據(jù)算法應(yīng)用的成熟程度及其影響范圍來區(qū)分算法政策的優(yōu)先級。其次,倫理與監(jiān)管互助。一方面監(jiān)督行為要具有善的目的,符合倫理需求,且提高監(jiān)管的公正、有效性;另一方面?zhèn)惱碇卫淼耐菩幸残枰谋O(jiān)督與管理,以提高倫理治理的實(shí)際效力。因此,算法技術(shù)發(fā)展需要在倫理治理下,政府進(jìn)行進(jìn)一步的監(jiān)督、落實(shí)。尤其算法背后潛藏著資本權(quán)利和企業(yè)利益,需要政府干預(yù)防止算法權(quán)利異化。例如,2022 年1 月4 日國家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部、國家市場監(jiān)督管理總局聯(lián)合發(fā)布了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》。該規(guī)定明確指出了算法推薦服務(wù)提供者的信息服務(wù)規(guī)范,包括建立健全用戶注冊、信息發(fā)布審核、數(shù)據(jù)安全和個(gè)人信息保護(hù)、安全事件應(yīng)急處置等管理制度和技術(shù)措施,切實(shí)維護(hù)公民的合法權(quán)益。最后,倫理與技術(shù)互協(xié)。脫離技術(shù)實(shí)際問題的倫理治理是空泛的、無力的;不被賦予倫理道德價(jià)值觀的技術(shù)是無界限、無底線的。給研發(fā)的技術(shù)賦予一定的道德意念,將有效預(yù)防算法技術(shù)風(fēng)險(xiǎn);被賦予倫理價(jià)值意義的技術(shù)研發(fā),能切實(shí)防范算法倫理風(fēng)險(xiǎn)。
面對數(shù)字孿生時(shí)代一系列算法風(fēng)險(xiǎn)倫理問題,人類要做的應(yīng)該是敢于去面對技術(shù),承擔(dān)原本屬于人的責(zé)任。提升公眾自身的算法素養(yǎng),在當(dāng)下就顯得十分重要。
首先,加強(qiáng)公眾的算法認(rèn)知教育。通過對公眾進(jìn)行算法認(rèn)知教育,使其真正認(rèn)識到,數(shù)字孿生時(shí)代,雖然算法技術(shù)面臨著風(fēng)險(xiǎn)挑戰(zhàn),但其具有重要的時(shí)代價(jià)值:精準(zhǔn)預(yù)判、全生命周期管理、幫助人類更快更優(yōu)做出決策等,所以我們也要看到算法技術(shù)為人類創(chuàng)造幸福生活做出巨大貢獻(xiàn),造福人類。因此,重要的不是苛刻地要求算法在其應(yīng)用過程中完全不能存在任何的偏差或歧視,而是要以更為實(shí)際的態(tài)度評估算法;在此基礎(chǔ)上,再通過協(xié)調(diào)算法各方相關(guān)利益者,探討制定改進(jìn)與創(chuàng)新算法治理的機(jī)制。其次,引導(dǎo)公眾弘揚(yáng)算法倫理。通過倫理教育,使算法技術(shù)人員樹立責(zé)任倫理意識,引導(dǎo)算法技術(shù)向善發(fā)展。在算法設(shè)計(jì)之初,對人類倫理道德價(jià)值與行為規(guī)范,諸如“生命權(quán)、隱私權(quán)、福利、公平”等進(jìn)行充分考慮,使其能夠尊重生命、保障人類權(quán)益、增進(jìn)人類福祉、維護(hù)社會公正。大學(xué)生和研究生群體要接受人文與倫理教育,深入認(rèn)識和學(xué)習(xí)作為科技主體應(yīng)當(dāng)具備的道德意識、道德判斷力以及肩負(fù)的道德責(zé)任。最后,公眾要與算法技術(shù)構(gòu)建和諧共生關(guān)系。對算法技術(shù)的盲目恐慌和崇拜都是不可取的行為,唯有批判地看待算法技術(shù),認(rèn)識到算法技術(shù)的優(yōu)劣,維護(hù)人的主體地位,理性對待和處理人與信息、人與機(jī)器、人與科技以及價(jià)值理性與工具理性、技術(shù)可能性與倫理合理性之間的關(guān)系[14],才能實(shí)現(xiàn)人與算法技術(shù)的和諧共生。