賈 婷, 陳 強(qiáng), 沈天添
(1. 同濟(jì)大學(xué) 經(jīng)濟(jì)與管理學(xué)院,上海 200092;2. 大理大學(xué) 經(jīng)濟(jì)與管理學(xué)院,云南 大理 671000)
以科技倫理準(zhǔn)則為代表的“軟體系”先行,在全球范圍內(nèi)廣泛討論技術(shù)風(fēng)險(xiǎn)、提出預(yù)期治理目標(biāo)、構(gòu)建預(yù)測性治理機(jī)制、細(xì)化敏捷性治理方案,將是實(shí)現(xiàn)硬法規(guī)制的先導(dǎo)性探索。以人工智能技術(shù)為例,近年來在全球范圍內(nèi)由政府、企業(yè)、社會機(jī)構(gòu)、國際組織、學(xué)術(shù)團(tuán)體等利益相關(guān)主體提出的治理原則或倡議已有150多個。學(xué)者們普遍認(rèn)為人工智能倫理準(zhǔn)則要求下的新興治理技術(shù)的發(fā)展是實(shí)現(xiàn)可信AI 實(shí)踐的關(guān)鍵,但會涉及復(fù)雜的、差異化的技術(shù)環(huán)節(jié)和周期[1],導(dǎo)致現(xiàn)有的準(zhǔn)則規(guī)范并不能影響利益相關(guān)體在參與AI開發(fā)和應(yīng)用過程中的合規(guī)行為[2]。相當(dāng)多的準(zhǔn)則規(guī)范是由私人部門所提出,其可能作為抵制政府強(qiáng)監(jiān)管的借口而最終流于形式[3],還有學(xué)者指出AI倫理準(zhǔn)則在內(nèi)容上存在缺失或爭議[4]。為探究科技倫理準(zhǔn)則有效落地實(shí)施的提升路徑,本文以人工智能倫理治理為切入點(diǎn),通過分析現(xiàn)階段人工智能倫理準(zhǔn)則體系的內(nèi)容及其演變趨勢,進(jìn)而探究準(zhǔn)則實(shí)施的困境及破解之道,嘗試回應(yīng)這些問題。
以代表性人工智能準(zhǔn)則文本為研究對象,采用內(nèi)容分析法,利用文本挖掘手段提取準(zhǔn)則文本中的關(guān)鍵詞和主題信息,聚合出核心主題并分析其內(nèi)容特性、主體特征及影響范疇,并以此為基礎(chǔ)探究準(zhǔn)則間的內(nèi)在聯(lián)系。同時,通過分析AI準(zhǔn)則關(guān)鍵詞的階段性特征,研判全球AI 倫理共識的演變趨勢,以發(fā)現(xiàn)AI倫理治理的關(guān)鍵走向,為進(jìn)一步探究倫理準(zhǔn)則的實(shí)踐應(yīng)用提供理論分析基礎(chǔ)。
1.1.1 數(shù)據(jù)來源
依托中國科學(xué)院自動化研究所“類腦認(rèn)知智能實(shí)驗(yàn)室和人工智能倫理與治理研究中心”開發(fā)的LAIP——鏈接人工智能準(zhǔn)則平臺。選取該數(shù)據(jù)庫中收錄的92 個2016—2022 年之間發(fā)布并被明確逐項(xiàng)記錄的代表性AI倫理準(zhǔn)則,以此為數(shù)據(jù)樣本來進(jìn)行相關(guān)內(nèi)容分析,準(zhǔn)則基本情況統(tǒng)計(jì)如表1所示。
表1 準(zhǔn)則基本情況統(tǒng)計(jì)Tab.1 Basic statistics on guidelines
1.1.2 研究方法與研究過程
研究基于Python語言構(gòu)建整體模型對準(zhǔn)則文本進(jìn)行量化分析。一方面,通過抽取階段關(guān)鍵詞匯挖掘全球范圍內(nèi)人工智能倫理準(zhǔn)則在不同階段的關(guān)注重點(diǎn),并繪制可視化詞云圖,更直觀地判斷階段差異;另一方面,提取準(zhǔn)則主題,進(jìn)一步理解人工智能倫理準(zhǔn)則的內(nèi)涵分布及演進(jìn)方向,具體研究過程如圖1所示。
圖1 研究過程Fig.1 Research process
詞頻逆文檔頻率TF-IDF(term frequency-inverse document frequency)算法,在文本挖掘中廣泛應(yīng)用于衡量詞匯對文本的重要程度。該方法綜合考慮詞匯的頻數(shù)和在文本中的重要程度,提取具有顯著差異的關(guān)鍵詞匯,以更好地代表準(zhǔn)則文本中的信息。特定詞匯的重要性與其在該文本中的出現(xiàn)次數(shù)成正比,與其在所有文本中的出現(xiàn)次數(shù)成反比。本文采用平滑后的IDF計(jì)算方法,詞匯W在一篇文本中的TF-IDF權(quán)重計(jì)算為
式中:NW表示詞匯w在該文本中出現(xiàn)的次數(shù);N表示該文本總詞匯數(shù);Y表示總文本數(shù);YW表示含有詞匯W的文本數(shù)。對TF-IDF權(quán)重進(jìn)行歸一化處理后,每篇文本詞匯權(quán)重之和等于1。計(jì)算候選詞匯在準(zhǔn)則文本中的TF-IDF 權(quán)重,得到權(quán)重較高的多個名詞性質(zhì)詞匯,作為該準(zhǔn)則文本的關(guān)鍵詞匯,反映不同時期人工智能倫理準(zhǔn)則著力點(diǎn)的變化過程。
隱含狄利克雷分布(Latent Dirichlet Allocation,LDA)模型,基于Dirichlet分布和貝葉斯算法提取文本所包含的潛在主題信息和主題的詞匯分布。該模型考慮了主題概率分布的先驗(yàn)知識,認(rèn)為準(zhǔn)則內(nèi)容圍繞一個或多個主題展開,而主題由詞匯的概率分布確定。對于某篇文本中的每一個詞匯,需要從該文本的主題分布中隨機(jī)選擇一個主題,再從主題對應(yīng)的詞匯分布中隨機(jī)選擇一個詞匯,重復(fù)該操作直至所有文檔全部生成,最終求解獲得準(zhǔn)則文本的主題分布和主題的詞匯分布,其原理如圖2所示。圖中,M表示文本數(shù)量;Nm表示文檔中的詞匯;K表示主題數(shù)量;α為主題分布的先驗(yàn)分布,θm為第m篇文本的主題分布,zm,n為第m篇文本中第n個詞對應(yīng)的主題,wm,n為第m篇文本中的第n個詞;β為詞匯分布的先驗(yàn)分布,φk為第k個主題的詞匯分布。通過評估不同主題數(shù)模型的困惑度來確定最優(yōu)的模型主題數(shù)量,從而提取準(zhǔn)則主題及其詞匯分布,并在此基礎(chǔ)上理解人工智能倫理準(zhǔn)則的內(nèi)涵及發(fā)展歷程。
圖2 LDA模型Fig.2 LDA Model
1.2.1 以準(zhǔn)則關(guān)鍵詞對比階段差異
圖3統(tǒng)計(jì)了2016—2022年間全球范圍內(nèi)發(fā)布的AI倫理準(zhǔn)則中11個核心關(guān)鍵詞出現(xiàn)的頻次[5],展現(xiàn)了全球視角下對人工智能倫理風(fēng)險(xiǎn)關(guān)注的重要方向和主要層面。有學(xué)者指出,不同國家和地區(qū)出臺的人工智能倫理準(zhǔn)則的關(guān)注重點(diǎn)存在差異,如中國更關(guān)注人類福祉,要求盡可能降低對用戶造成的消極后果;歐盟更關(guān)注公平,限制性原則較多;美國更關(guān)注可控性,較少關(guān)注分享[6],這在一定意義上表明了跨國倫理挑戰(zhàn)的存在。
圖3 AI倫理準(zhǔn)則關(guān)鍵詞統(tǒng)計(jì)(2016—2022)Fig.3 Keywords statistics on AI ethical guidelines(2016—2022)
結(jié)合人工智能技術(shù)發(fā)展軌跡和本文搜集的數(shù)據(jù)特征,擬從初步探索(2016—2017),原則爆發(fā)(2018—2019)、實(shí)踐應(yīng)用(2020—2022)3個階段來分析人工智能倫理準(zhǔn)則的階段性特征,如圖4所示。
圖4 階段AI準(zhǔn)則關(guān)鍵詞分析Fig.4 Keywords analysis of each phase
從AI 倫理風(fēng)險(xiǎn)議題被提出到各界紛紛提出或制定倫理準(zhǔn)則并廣泛尋求共識,再到探索把準(zhǔn)則轉(zhuǎn)化為實(shí)踐的機(jī)制、做法、工具等,每個階段的治理側(cè)重點(diǎn)和準(zhǔn)則表述存在差異。
首先,AI 準(zhǔn)則的制定密切圍繞技術(shù)實(shí)體發(fā)展,“技術(shù)、算法、系統(tǒng)、數(shù)據(jù)”等關(guān)鍵詞在3 個階段的權(quán)重都比較高,但經(jīng)歷了原則大爆發(fā)階段后,準(zhǔn)則逐步跳出技術(shù)系統(tǒng),開始關(guān)注部署應(yīng)用和社會影響,對風(fēng)險(xiǎn)的關(guān)注度逐漸提升。其次,進(jìn)入實(shí)踐應(yīng)用階段(2020—2022),考量倫理準(zhǔn)則在實(shí)踐中應(yīng)用的權(quán)重在逐步提升,application(應(yīng)用)在詞云圖中被重點(diǎn)凸顯出來;從實(shí)踐參與主體的角度來看,第1、2階段較為籠統(tǒng)的談及利益相關(guān)者作用的發(fā)揮,在第3 階段則強(qiáng)調(diào)actor(行動者)的實(shí)踐行為;再次,在AI 倫理準(zhǔn)則發(fā)展的3個階段中,法律一直沒有被凸顯出來,這意味著無論是從行為規(guī)制角度還是行為獎勵的角度,都鮮少有將人工智能倫理規(guī)約確認(rèn)為法律規(guī)范的實(shí)質(zhì)性探討。
1.2.2 以準(zhǔn)則主題考察體系演變
通過對92個準(zhǔn)則文本提取準(zhǔn)則主題,參照LDA模型的困惑度曲線和主題含義確定準(zhǔn)則核心主題的數(shù)量為5,對詞匯內(nèi)容進(jìn)行概念化后歸納的主題類別名稱為“通用性準(zhǔn)則”、“行業(yè)發(fā)展準(zhǔn)則”、“技術(shù)系統(tǒng)準(zhǔn)則”、“制度干預(yù)準(zhǔn)則”、“實(shí)踐性準(zhǔn)則”。各核心主題對應(yīng)的部分代表性詞匯如表2所示。
表2 準(zhǔn)則核心主題Tab.2 Core themes of the guidelines
由表2 可以發(fā)現(xiàn),通用性準(zhǔn)則聚類的關(guān)鍵詞比較全面,既涉及到人類福祉、可持續(xù)發(fā)展等高階價(jià)值層次,也聚焦到技術(shù)系統(tǒng)、數(shù)據(jù)安全、個體隱私、使用者權(quán)利等低階價(jià)值層次,其發(fā)布主體分布均衡,體現(xiàn)了政府、業(yè)界及社會對AI倫理治理問題討論的廣度和寬度。行業(yè)發(fā)展準(zhǔn)則更關(guān)注AI 產(chǎn)業(yè)數(shù)字化賦能過程中的自律、合作、數(shù)據(jù)共享、技術(shù)安全等方面,其數(shù)量相對較少,以行業(yè)組織為發(fā)布主體。技術(shù)系統(tǒng)準(zhǔn)則關(guān)注AI技術(shù)研發(fā)及應(yīng)用中的透明性、可預(yù)測性及數(shù)據(jù)公平等,強(qiáng)調(diào)AI 產(chǎn)品和服務(wù)安全,重視保障客戶、政府及雇員等利益相關(guān)者的權(quán)益,以領(lǐng)軍企業(yè)為發(fā)布主體。以政府及政府間組織為主體發(fā)布的制度干預(yù)準(zhǔn)則,聚焦于AI 技術(shù)研發(fā)及應(yīng)用的可問責(zé)性、推進(jìn)風(fēng)險(xiǎn)評估,尋求將倫理規(guī)范上升為法律規(guī)制的可能。實(shí)踐性準(zhǔn)則將負(fù)責(zé)任研發(fā)和創(chuàng)新作為發(fā)展宗旨,注重應(yīng)用層面的實(shí)質(zhì)性行動,也提出了具體的政策導(dǎo)向,其發(fā)布者主要以政府和政府間組織為主,對AI產(chǎn)品的倫理品質(zhì)提出了要求。
本文也從時間軸角度對這5個核心主題的階段化分布做了可視化呈現(xiàn),如圖5所示,其結(jié)果與上文所劃分的3個準(zhǔn)則發(fā)展階段相吻合。尤其在2018—2019年這一階段,呈現(xiàn)出“多管齊下”的態(tài)勢,準(zhǔn)則指向性較多,5 類核心主題都有分布。值得注意的是,制度干預(yù)性準(zhǔn)則的數(shù)量不多,關(guān)注度不高,這與目前被廣泛討論的議題相關(guān),即在人工智能技術(shù)現(xiàn)階段發(fā)展中進(jìn)行制度干預(yù)的程度和方式該如何把握?也在一定程度上說明在人工智能倫理制度化過程中存在倫理治理的困境。
圖5 核心主題的階段化分布Fig.5 Phased distribution of core themes
同時,本文選取準(zhǔn)則發(fā)布數(shù)排名前五的國家(詳見表1),在國別維度考察每一份準(zhǔn)則的核心主題關(guān)聯(lián)情況,如圖6所示,灰度越深,代表該主題分布概率越高。整體來看,與技術(shù)發(fā)展程度及現(xiàn)階段科技倫理規(guī)制的需求相適應(yīng),各國各類主體對核心主題的關(guān)注度各有側(cè)重,圍繞通用性準(zhǔn)則相互補(bǔ)充,豐富了AI倫理治理議題討論維度。但細(xì)化到具體國家層次,研究發(fā)現(xiàn)核心主題分布并不均衡,一是存在主題缺失,如中國和國際組織未出現(xiàn)“制度干預(yù)準(zhǔn)則”主題,日本和美國未探及“行業(yè)發(fā)展準(zhǔn)則”主題;二是主題分布單一,如德國發(fā)布的AI倫理準(zhǔn)則主要對應(yīng)到“技術(shù)系統(tǒng)準(zhǔn)則”主題,俄羅斯大多圍繞“實(shí)踐性準(zhǔn)則”主題設(shè)置內(nèi)容,英國、加拿大則重點(diǎn)聚焦于通用性準(zhǔn)則。
總體來看,全球范圍內(nèi)的代表性人工智能倫理準(zhǔn)則一方面肯定了人工智能技術(shù)全領(lǐng)域應(yīng)用給社會帶來的巨大變革,另一方面也充分表達(dá)了對依托數(shù)據(jù)、算法和算力的AI技術(shù)應(yīng)用的潛在倫理風(fēng)險(xiǎn)隱憂,并廣泛尋求共識以實(shí)現(xiàn)規(guī)范發(fā)展。本文以同一年發(fā)布的準(zhǔn)則中主題分布概率的算數(shù)平均值作為當(dāng)年的主題強(qiáng)度[7],主題強(qiáng)度逐年演變趨勢如圖7所示。
從準(zhǔn)則的具體內(nèi)容來看,這些倫理治理共識的演變呈現(xiàn)出6大趨勢(如圖8所示):
圖8 AI倫理共識的演變趨勢Fig.8 Trends in the evolution of AI ethical consensus
(1)由理解風(fēng)險(xiǎn)走向解決風(fēng)險(xiǎn)。世界各大經(jīng)濟(jì)體逐漸意識到AI 技術(shù)快速迭代對社會的重塑效應(yīng)及潛在問題,應(yīng)對風(fēng)險(xiǎn)的緊迫感日益增強(qiáng)。
(2)由強(qiáng)調(diào)技術(shù)安全轉(zhuǎn)向技術(shù)可信。2018 年之后,內(nèi)涵更為全面的“可信”價(jià)值逐漸發(fā)展為人工智能技術(shù)研發(fā)的引領(lǐng)性共識,除強(qiáng)調(diào)人工智能技術(shù)要“安全可控”外,“透明可釋、數(shù)據(jù)保護(hù)、明確責(zé)任、多元包容”等可信特征也被認(rèn)可。
(3)由關(guān)注倫理價(jià)值判斷走向?qū)嵅賾?yīng)用。人工智能倫理治理進(jìn)一步轉(zhuǎn)向?qū)嵺`層面,探索一致性、兼容性價(jià)值規(guī)范落地的可能。
(4)倫理干預(yù)由設(shè)計(jì)階段拓展到全周期。在聯(lián)合國教科文組織發(fā)布的《人工智能倫理問題建議書(2021)》中“AI系統(tǒng)的整個生命周期”出現(xiàn)頻次多達(dá)51次,關(guān)于AI技術(shù)的治理階段性的認(rèn)識逐漸清晰和深入。
(5)治理主體由單一擴(kuò)展到多元。相關(guān)領(lǐng)域的學(xué)術(shù)機(jī)構(gòu)、國際組織、行業(yè)協(xié)會、大型科技公司與政府共同作為治理主體,探討可信AI實(shí)踐的可能。
(6)治理領(lǐng)域由寬泛趨于具體。從2020 年開始,在對風(fēng)險(xiǎn)認(rèn)知逐漸清晰的基礎(chǔ)上,針對軍用、情報(bào)、政府推廣等具體領(lǐng)域的指引原則和具體標(biāo)準(zhǔn)開始實(shí)施,AI倫理治理的領(lǐng)域在不斷聚焦。
綜上所述,人工智能倫理治理共識從“風(fēng)險(xiǎn)認(rèn)知、技術(shù)發(fā)展、治理導(dǎo)向、干預(yù)周期、治理主體、治理領(lǐng)域”等多個維度都漸漸指向了“實(shí)踐”。AI倫理準(zhǔn)則雖已達(dá)到一定體量,也隨著技術(shù)成熟度提升、應(yīng)用場景具體化及風(fēng)險(xiǎn)認(rèn)知科學(xué)化不斷演變,并在全球范圍內(nèi)形成了若干關(guān)鍵共識,期望通過關(guān)鍵共識及規(guī)范要求的實(shí)施來合理控制風(fēng)險(xiǎn)。但是,近年來業(yè)界及學(xué)術(shù)界都指出了倫理準(zhǔn)則落地難的問題,將倫理價(jià)值觀納入當(dāng)前的AI治理框架還需克服諸多挑戰(zhàn)。
現(xiàn)階段,關(guān)于人工智能倫理治理的討論大多是通過關(guān)注關(guān)鍵準(zhǔn)則來實(shí)現(xiàn)的,但也有學(xué)者指出AI倫理準(zhǔn)則間存在沖突、重疊及缺失,歸屬領(lǐng)域或參與者不清晰,甚至存在實(shí)質(zhì)性分歧[4],難以找到實(shí)踐落點(diǎn),需要進(jìn)一步厘清關(guān)鍵核心原則間的關(guān)系。
結(jié)合上文聚合出的“通用性準(zhǔn)則、行業(yè)發(fā)展準(zhǔn)則、技術(shù)系統(tǒng)準(zhǔn)則、制度干預(yù)準(zhǔn)則、實(shí)踐性準(zhǔn)則”5類核心主題,本文試圖從組織、技術(shù)和制度3個層面來分析關(guān)鍵核心原則的關(guān)系,并探究實(shí)踐困境,如圖9所示。
圖9 AI核心倫理原則關(guān)系及實(shí)踐困境Fig.9 AI core ethical principle relationship and practice dilemma
技術(shù)層面指向“技術(shù)系統(tǒng)準(zhǔn)則”,結(jié)合關(guān)鍵詞項(xiàng)相關(guān)度,選取“透明性、可預(yù)測性和公平性”作為核心原則。算法與數(shù)據(jù)的透明性既涉及AI技術(shù)本身、也涉及AI系統(tǒng)開發(fā)行為,可預(yù)測性則可看作是透明度的一個子集[8],透明可釋的技術(shù)過程是預(yù)測智能行為的支點(diǎn),促進(jìn)“負(fù)責(zé)任”研發(fā)行為,并使“可問責(zé)”成為可能。此外,數(shù)據(jù)偏見及數(shù)字鴻溝等公平性問題也屬于技術(shù)系統(tǒng)需要克服的難題,而可預(yù)測性是保證公平的基礎(chǔ)。組織層面指向“實(shí)踐性準(zhǔn)則”和“行業(yè)發(fā)展準(zhǔn)則”,選取“負(fù)責(zé)任”和“合作”作為核心原則?!柏?fù)責(zé)任”側(cè)重于AI 研發(fā)行為要合乎倫理,“合作”是行業(yè)打破數(shù)據(jù)孤島和技術(shù)壁壘,營造自律、持續(xù)發(fā)展氛圍的有效機(jī)制;負(fù)責(zé)任研發(fā)行為有益于推動可預(yù)測性,保障公平性,促成組織間數(shù)據(jù)共享和模型開發(fā)等合作行為,形成良性發(fā)展的生態(tài),而建立在合乎倫理要求前提下的合作也有利于推進(jìn)負(fù)責(zé)任研發(fā)、推進(jìn)可問責(zé)的實(shí)現(xiàn)。制度層面指向“制度干預(yù)準(zhǔn)則”,選取“可問責(zé)”作為核心原則,旨在厘清利益相關(guān)者的責(zé)任問題,通過明確責(zé)任來實(shí)現(xiàn)責(zé)任共擔(dān),激發(fā)負(fù)責(zé)任行為。上述原則引導(dǎo)的最終目標(biāo)是共同促進(jìn)通用性準(zhǔn)則的實(shí)現(xiàn),以真正實(shí)現(xiàn)人類福祉、保證技術(shù)安全和可持續(xù)發(fā)展。關(guān)鍵倫理準(zhǔn)則關(guān)系的厘清,是完善人工智能倫理治理框架的基礎(chǔ)。
而相關(guān)研究表明,現(xiàn)有的人工智能倫理準(zhǔn)則并不能完全在實(shí)踐中被采用[3,9],VAKKURI 等人將39家與AI系統(tǒng)合作的公司的實(shí)踐與“值得信賴的人工智能道德準(zhǔn)則”中7個關(guān)鍵要求進(jìn)行了比較,發(fā)現(xiàn)了人工智能倫理準(zhǔn)則與實(shí)踐之間確實(shí)存在顯著差距,尤其針對軟件開發(fā)的社會和環(huán)境福利需求以及多樣性、非歧視和公平的要求,并沒有被充分考慮和解決[10]?;谇捌谔剿鳎疚膶⑷斯ぶ悄軠?zhǔn)則的實(shí)踐困境概括為以下幾點(diǎn):
人工智能倫理準(zhǔn)則的出臺為可信AI 實(shí)踐提供了探索的起點(diǎn),但準(zhǔn)則的可操作性受到多重因素影響。首先,倫理準(zhǔn)則不是現(xiàn)成的方法,在實(shí)踐中運(yùn)用準(zhǔn)則需要進(jìn)行額外的工作,如開發(fā)關(guān)鍵領(lǐng)域的治理性技術(shù)和工具、形成組織內(nèi)部的管理制度、提升實(shí)踐能力等等,并要盡可能讓倫理準(zhǔn)則對技術(shù)開發(fā)者、部署應(yīng)用者及產(chǎn)品使用者都更實(shí)用,而針對道德困境,通過直接設(shè)計(jì)數(shù)學(xué)函數(shù)為倫理規(guī)則和價(jià)值觀建模很難[1];其次,準(zhǔn)則往往關(guān)注的是AI系統(tǒng)設(shè)計(jì)和開發(fā)中較宏觀的問題,而業(yè)界目前可用的、備受關(guān)注的治理工具僅能覆蓋研發(fā)過程中的一小部分倫理風(fēng)險(xiǎn),還不存在項(xiàng)目級方法[8]來提供更為便捷且普適性的治理思路和治理框架。再次,針對一些影響周期長、不確定的倫理問題,現(xiàn)階段所提倡的倫理準(zhǔn)則存在缺失或爭議,作用邊界模糊,技術(shù)端應(yīng)對標(biāo)的不明確。
對于準(zhǔn)則中提到的風(fēng)險(xiǎn)問題,很難評估現(xiàn)實(shí)努力在多大程度上實(shí)現(xiàn)了既定目標(biāo),或者是否存在相互矛盾的可能[11]。第一,倫理準(zhǔn)則間關(guān)聯(lián)交錯難厘清,如“可預(yù)測性原則”與“透明性原則”難區(qū)分,“可問責(zé)性原則”與“負(fù)責(zé)任原則”的作用重點(diǎn)不同但表述相似,有的倫理原則作用于組織層面,有的倫理原則直接指向技術(shù)層面,但原則間又存在互動關(guān)系,容易產(chǎn)生錯誤引導(dǎo);第二,倫理準(zhǔn)則內(nèi)涵理解存在差異,全球范圍內(nèi)的文化差異導(dǎo)致風(fēng)險(xiǎn)評估的思路和方法存在差別,技術(shù)標(biāo)準(zhǔn)不統(tǒng)一,倫理準(zhǔn)則的規(guī)約范圍不同,制度規(guī)范的力度和側(cè)重點(diǎn)不同,不利于參與全球人工智能倫理治理合作。
企業(yè)是可信AI實(shí)踐的主體,人工智能倫理準(zhǔn)則要與企業(yè)的技術(shù)研發(fā)活動、產(chǎn)品開發(fā)及部署應(yīng)用環(huán)節(jié)相對應(yīng),要與企業(yè)文化相一致,并在企業(yè)成員之間有效內(nèi)化,倫理準(zhǔn)則的實(shí)施還需要企業(yè)組織制度的保障。企業(yè)以盈利為導(dǎo)向的生存守則與為人類謀福祉的倫理準(zhǔn)則之間存在邏輯沖突,使得私營部門在AI 倫理領(lǐng)域的參與受到了質(zhì)疑。企業(yè)參與制定倫理準(zhǔn)則,可能僅是虛假信號,旨在推遲或完全避開監(jiān)管[11],為AI 技術(shù)系統(tǒng)和產(chǎn)品貼上“道德標(biāo)簽”,實(shí)現(xiàn)倫理“拔高”,但由于本身治理技術(shù)及能力缺乏,或者只是將其作為維護(hù)企業(yè)社會形象的工具,成為逃避監(jiān)管的手段,存在倫理洗白的可能性。此外,目前由大型科技企業(yè)在技術(shù)、組織制度層面圍繞倫理風(fēng)險(xiǎn)治理做出的探索,是否能輻射到智能轉(zhuǎn)型中的大部分中小企業(yè)和以AI為核心的初創(chuàng)企業(yè),成為產(chǎn)業(yè)生態(tài)的重要組成部分,也未有定論。
兩辦印發(fā)的《關(guān)于加強(qiáng)科技倫理治理的意見》指出,‘十四五’期間,重點(diǎn)加強(qiáng)生命科學(xué)、醫(yī)學(xué)、人工智能等領(lǐng)域的科技倫理立法研究,及時推動將重要的科技倫理規(guī)范上升為國家法律法規(guī)。這一意見聚焦新興技術(shù)的發(fā)展對傳統(tǒng)倫理觀念和現(xiàn)行法律制度帶來的深刻影響和沖擊,提出了整體性治理要求。從學(xué)理上來說,法律與倫理在規(guī)范價(jià)值層次、調(diào)整范圍、規(guī)范方式和強(qiáng)制程度等方面存在很大差異,但又是相互聯(lián)系、相互影響[12],二者的轉(zhuǎn)化存在一定條件限制。首先,倫理準(zhǔn)則所負(fù)載的價(jià)值有層次高低之分,并具有不同的適用效力,而法律在復(fù)雜關(guān)系調(diào)整和多元利益調(diào)適中必須保持“中立”、“公正”及“普適”,所以法律只可能吸收倫理規(guī)范體系中最基本的內(nèi)容和要求[13]。在人工智能倫理治理領(lǐng)域,“隱私”、“數(shù)據(jù)安全”等準(zhǔn)則所負(fù)載的價(jià)值屬于低層次規(guī)范,作用邊界清晰且適用效力高,可以確認(rèn)為法律規(guī)范來實(shí)現(xiàn)規(guī)制,我國先后出臺了《個人信息保護(hù)法》、《數(shù)據(jù)安全法》作為響應(yīng);而“科技向善”、“人民福祉”等倫理準(zhǔn)則屬于高層次的倫理價(jià)值,因其立法效應(yīng)難保證、在實(shí)踐應(yīng)用中難抓取而容易被束之高閣,很難完成“軟硬”轉(zhuǎn)化。其次,倫理作為法律的基本來源與重要補(bǔ)充,在一般情況下,主要是指倫理的精神實(shí)質(zhì)和價(jià)值取向?yàn)榉伤x擇或者吸收,一般都要對倫理規(guī)范進(jìn)行降格化和具體化的立法技術(shù)處理[12],提升了轉(zhuǎn)化難度。
在新興前沿技術(shù)進(jìn)入發(fā)展快車道并廣泛滲透的背景之下,科技倫理準(zhǔn)則為科技倫理治理框架的搭建提供了頂層價(jià)值,為合理控制風(fēng)險(xiǎn)提供了重要指引,成為引導(dǎo)科技倫理治理技術(shù)生態(tài)、組織生態(tài)及制度生態(tài)構(gòu)建的軟體系,但準(zhǔn)則的實(shí)踐適用性卻引起廣泛爭論。本文以人工智能倫理準(zhǔn)則為切入口,選取全球范圍內(nèi)代表性倫理準(zhǔn)則,利用文本計(jì)量的方法,瞄準(zhǔn)準(zhǔn)則發(fā)展的時間軸,完成了準(zhǔn)則關(guān)鍵詞的階段對比差異分析、準(zhǔn)則核心主題的聚合體系分析,進(jìn)而總結(jié)了世界范圍內(nèi)人工智能治理共識的6大演變趨勢,實(shí)踐導(dǎo)向被凸顯出來。
人工智能技術(shù)內(nèi)生和應(yīng)用外生的倫理風(fēng)險(xiǎn)具有明顯的特殊性,其負(fù)面效應(yīng)無法立即顯現(xiàn)且難以直接量化,風(fēng)險(xiǎn)來源較為復(fù)雜,智能治理經(jīng)驗(yàn)普遍缺乏。倫理準(zhǔn)則對AI技術(shù)研發(fā)及應(yīng)用的行為指導(dǎo)和規(guī)約還未能對接,倫理準(zhǔn)則與制度層面的立法、立規(guī)還不能有效銜接,倫理治理要求與企業(yè)主體可信AI實(shí)踐之間還存在偏差。本文從組織、技術(shù)及制度三個層面分析了人工智能倫理準(zhǔn)則中關(guān)鍵核心原則的關(guān)系,并進(jìn)一步探討了人工智能倫理準(zhǔn)則的實(shí)踐困境。
對于技術(shù)層面存在的“準(zhǔn)則可操作性受限”及“準(zhǔn)則考量要素不同質(zhì)”的實(shí)踐困境,其癥結(jié)在于準(zhǔn)則中所規(guī)定的規(guī)范性目標(biāo)缺乏實(shí)際影響,因而要通過改進(jìn)或補(bǔ)充準(zhǔn)則以提升有效性??梢試L試從抽象的倫理價(jià)值和原則中推導(dǎo)出具體的技術(shù)實(shí)現(xiàn)內(nèi)涵,列出問題清單,進(jìn)而補(bǔ)充更詳細(xì)的技術(shù)解釋,將開發(fā)、實(shí)施和使用AI系統(tǒng)的實(shí)踐與倫理所設(shè)定的價(jià)值觀和原則關(guān)聯(lián)起來。
對于組織層面存在的“倫理洗白”可能,要將倫理準(zhǔn)則與人工智能企業(yè)的技術(shù)研發(fā)活動、產(chǎn)品開發(fā)及部署應(yīng)用環(huán)節(jié)對應(yīng)起來,可嘗試在可信AI的關(guān)鍵實(shí)踐中系統(tǒng)定義符合倫理的設(shè)計(jì)方法和框架,并通過組織制度和流程再造予以固化,以填補(bǔ)AI準(zhǔn)則與其在應(yīng)用實(shí)踐之間的差距。要推進(jìn)組織全員化的系統(tǒng)倫理教育,將倫理規(guī)范有效內(nèi)化并融入企業(yè)文化。打破AI研發(fā)的封閉環(huán)境,人工智能企業(yè)要與公眾務(wù)實(shí)溝通AI技術(shù)及產(chǎn)品可信的邊界,重視用戶同意、隱私及透明度。推動人工智能行業(yè)自律并提倡合作共建,實(shí)施政府優(yōu)先采購導(dǎo)向,獎勵并宣傳典型實(shí)踐案例,鼓勵行業(yè)可信AI實(shí)踐的發(fā)展。
對于制度層面存在的“準(zhǔn)則與法律轉(zhuǎn)化”困境,政產(chǎn)學(xué)研各界要深刻意識到,相較于具有社會指向、影響范圍大且發(fā)揮“底線規(guī)定”功能的法律來說,倫理具有鮮明的“非強(qiáng)制性、非約束性”特征,會根據(jù)不同技術(shù)發(fā)展階段、不同群體的認(rèn)知波動而不斷動態(tài)演進(jìn),發(fā)揮著“高線錨定”功能,主要依托各利益相關(guān)主體自愿、無約束力的合作行為且沒有具體的執(zhí)行機(jī)制,二者的轉(zhuǎn)化需要一定的條件,只能做到相對同化,適度轉(zhuǎn)化,可逐步建立相互補(bǔ)充的治理框架。
作者貢獻(xiàn)聲明:
賈婷:設(shè)計(jì)研究框架;文獻(xiàn)梳理;數(shù)據(jù)整理分析;論文撰寫;圖表繪制;論文修訂;
陳強(qiáng):提出研究選題;明確總體研究目標(biāo);完成理論基礎(chǔ)搭建及概念辨析;協(xié)調(diào)研究過程;
沈天添:理論模型推導(dǎo);數(shù)據(jù)處理;數(shù)據(jù)分析;論文撰寫。
同濟(jì)大學(xué)學(xué)報(bào)(自然科學(xué)版)2023年5期