国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

大模型倫理失范的理論解構(gòu)與治理創(chuàng)新

2024-07-24 00:00:00肖紅軍張麗麗
財經(jīng)問題研究 2024年5期

摘 要:ChatGPT系列和Sora等大模型作為人工智能技術(shù)的發(fā)展前沿,在助力人類生產(chǎn)生活的數(shù)字化和智能化轉(zhuǎn)型提速的同時,也引發(fā)一系列倫理失范現(xiàn)象,成為全球性治理難題。本文對大模型倫理失范進(jìn)行理論解構(gòu)發(fā)現(xiàn):大模型倫理失范的緣起是其區(qū)別于傳統(tǒng)生產(chǎn)力和生產(chǎn)工具的技術(shù)非中性、內(nèi)嵌人類倫理和將人類倫理與機器倫理糅合其中等屬性特征,技術(shù)起點是算法,關(guān)鍵中介是數(shù)據(jù),行為主體是人類。大模型所引發(fā)的諸如模型黑箱、數(shù)據(jù)版權(quán)侵害且主體責(zé)任難確定、沖擊人類主體資格等倫理失范現(xiàn)象對現(xiàn)行倫理治理模式提出挑戰(zhàn)。因此,本文以大模型生命周期為時間維度,以關(guān)鍵要素為核心,構(gòu)建了基于大模型關(guān)鍵要素的全生命周期倫理治理框架。同時,為推動新倫理治理框架的有效運行,本文構(gòu)建了包含兩層行為主體的自我治理、兩級守門人和全球性合作治理網(wǎng)絡(luò)等子體系的大模型倫理治理生態(tài)體系。

關(guān)鍵詞:大模型;倫理失范;倫理治理

中圖分類號:F49;B82-057 文獻(xiàn)標(biāo)識碼:A 文章編號:1000-176X(2024)05-0015-18

一、引 言

人工智能技術(shù)創(chuàng)新日新月異,不斷實現(xiàn)新突破。以O(shè)penAI的ChatGPT系列和Sora、谷歌的Gemini、百度ERNIE 3. 0、華為盤古等為代表的語言大模型和視頻大模型是人工智能技術(shù)的發(fā)展前沿,其在海量數(shù)據(jù)、強算力和算法三個關(guān)鍵因素共同推動下,模擬人類思維鏈運行。自2022年底ChatGPT問世以來,大模型領(lǐng)域逐漸形成國際上以O(shè)penAI和谷歌為代表,國內(nèi)以百度、華為和阿里巴巴等為代表的技術(shù)研發(fā)和應(yīng)用終端布局體系。其中,2024年2月,OpenAI推出的Sora將大模型技術(shù)從文字式智能涌現(xiàn)躍遷至視頻式智能涌現(xiàn),從靜態(tài)式呈現(xiàn)躍遷至動態(tài)式呈現(xiàn),Sora成為鏈接物理世界和數(shù)字世界的“通用模擬器”。與其他人工智能應(yīng)用相比,大模型實現(xiàn)了突破性技術(shù)創(chuàng)新和顛覆性技術(shù)創(chuàng)新[1],且依靠其通用性、多模態(tài)和智能涌現(xiàn)能力與千行百業(yè)深度融合,引發(fā)生產(chǎn)方式、技術(shù)創(chuàng)新范式、內(nèi)容生成方式和人機關(guān)系等領(lǐng)域的變革。例如,科學(xué)研究、生物醫(yī)藥和軟件開發(fā)等領(lǐng)域從分散個體化的“慢工出細(xì)活”式生產(chǎn)演變?yōu)槠脚_集成化的“短平快”式智能涌現(xiàn)。然而,大模型應(yīng)用也會引發(fā)一系列倫理失范現(xiàn)象。例如,2023年3月31日,ChatGPT就因為用戶隱私泄露等問題在意大利被禁止使用,并因涉嫌違反數(shù)據(jù)收集規(guī)則被調(diào)查。2024年1月29日,意大利數(shù)據(jù)保護(hù)局稱OpenAI違反歐盟《一般數(shù)據(jù)保護(hù)條例》,可能會對其處以全球營業(yè)額4%的罰款。此外,大模型倫理失范現(xiàn)象還包括算法黑箱、數(shù)字鴻溝和隱私泄露等,并衍生出新型倫理失范現(xiàn)象。例如,模型黑箱、數(shù)據(jù)版權(quán)侵害、深度偽造加深、沖擊人類主體資格和加劇社會階層分化等。

如何有效防范與治理大模型等生成式人工智能應(yīng)用所引發(fā)的倫理失范成為全球性重要議題,“科技向善”“負(fù)責(zé)任研究與創(chuàng)新”“科技倫理”等理念被提出并付諸實踐,國際組織、各國家或地區(qū)紛紛出臺相關(guān)倫理監(jiān)管政策以實現(xiàn)倫理失范治理與技術(shù)創(chuàng)新之間的平衡[2]。其中,國際組織中具有代表性的監(jiān)管政策包括,聯(lián)合國教科文組織發(fā)布的《人工智能倫理問題建議書》、G20發(fā)布的《G20人工智能原則》、電氣與電子工程師協(xié)會發(fā)布的《人工智能設(shè)計倫理準(zhǔn)則》、G7發(fā)布的《開發(fā)先進(jìn)人工智能系統(tǒng)組織的國際行為準(zhǔn)則》、歐盟發(fā)布的《人工智能法案》和配套的《人工智能責(zé)任指令》、28個國家和歐盟共同簽署的《布萊切利宣言》,以及英國、美國等18個國家聯(lián)合發(fā)布的《安全人工智能系統(tǒng)開發(fā)指南》等,從正式制度和非正式制度兩個層面加強人工智能倫理治理。具體到單個國家或地區(qū)層面,美國的倫理監(jiān)管模式逐漸從相對寬松轉(zhuǎn)向趨緊監(jiān)管,且以總統(tǒng)拜登簽署的《關(guān)于安全、可靠和可信的人工智能》行政命令為分水嶺;中國高度重視大模型相關(guān)倫理治理,出臺了《新一代人工智能倫理規(guī)范》《科技倫理審查辦法(試行)》《生成式人工智能服務(wù)管理暫行辦法》等一系列政策文件,逐漸加強倫理治理的制度建設(shè),并新設(shè)國家科技倫理委員會以推進(jìn)科技倫理治理。其中,《生成式人工智能服務(wù)管理暫行辦法》提出,對生成式人工智能服務(wù)實行包容審慎和分類分級監(jiān)管,且明確服務(wù)提供者和應(yīng)用者等主體的責(zé)任。為提高大模型倫理治理的法治化水平,《國務(wù)院2023年度立法工作計劃》將人工智能和網(wǎng)絡(luò)數(shù)據(jù)安全管理相關(guān)立法提上日程。英國、新加坡等國家也出臺了相應(yīng)的監(jiān)管政策以防范和治理大模型等生成式人工智能的倫理失范。另外,為加強大模型倫理治理,各國家或地區(qū)還設(shè)置了專門監(jiān)管機構(gòu)。例如,歐盟《人工智能法案》提出,設(shè)立歐盟人工智能辦公室(European AI Office) 以提高通用型人工智能模型的透明性,以及控制系統(tǒng)性風(fēng)險等。同樣,日本提出要成立一個全國性的機構(gòu)對人工智能倫理失范進(jìn)行研究與監(jiān)管。然而,現(xiàn)行的單要素和單環(huán)節(jié)、自上而下和以結(jié)果為導(dǎo)向的倫理治理模式無法有效防范和治理大模型等生成式人工智能應(yīng)用所引發(fā)的算法偏見、隱私泄露、數(shù)據(jù)版權(quán)侵害等倫理失范現(xiàn)象。為加強大模型倫理治理,亟須對大模型倫理失范的緣起進(jìn)行探究,對倫理失范現(xiàn)象進(jìn)行歸納,對相關(guān)倫理治理范式進(jìn)行梳理,進(jìn)而針對現(xiàn)行理論研究薄弱之處、治理制度體系待完善之域和治理實踐待創(chuàng)新之區(qū)等,探尋更加適宜和有效的倫理治理范式。

鑒于此,本文對大模型的屬性和倫理失范緣起進(jìn)行分析,解構(gòu)大模型倫理失范的關(guān)鍵要素,歸納大模型倫理失范的主要表現(xiàn)及其對現(xiàn)行治理體系提出的挑戰(zhàn)。在此基礎(chǔ)上,構(gòu)建大模型倫理治理的新框架和相應(yīng)治理生態(tài)體系。從理論上對大模型倫理失范緣起給予回答,從治理框架上進(jìn)行創(chuàng)新,從治理生態(tài)上進(jìn)行構(gòu)建,以期實現(xiàn)大模型倫理治理秩序重構(gòu)的目標(biāo)。

本文的邊際貢獻(xiàn)主要包括:一是對大模型的屬性和關(guān)鍵要素進(jìn)行解構(gòu),是對大模型等生成式人工智能本質(zhì)的再認(rèn)識。二是對大模型倫理失范的緣起進(jìn)行理論解構(gòu),進(jìn)一步揭示算法、數(shù)據(jù)和人類等關(guān)鍵要素在大模型倫理失范中所發(fā)揮的作用。三是對大模型倫理失范現(xiàn)象進(jìn)行歸納和總結(jié),在人工智能倫理失范現(xiàn)象或風(fēng)險的基礎(chǔ)上進(jìn)行了拓展。四是以大模型生命周期為時間維度,以關(guān)鍵要素為核心,構(gòu)建基于大模型關(guān)鍵要素的全生命周期倫理治理框架,并構(gòu)建相應(yīng)的大模型倫理治理生態(tài)體系,以有效防范與治理大模型倫理失范現(xiàn)象。

二、文獻(xiàn)回顧

人工智能倫理相關(guān)研究最早可以追溯至1940—1950年關(guān)于倫理和數(shù)字技術(shù)的探討,此后,緊密貼合科學(xué)技術(shù)發(fā)展脈絡(luò),倫理治理相關(guān)研究脈絡(luò)的演變從科技倫理到人工智能倫理,再到大模型等生成式人工智能倫理治理。大模型倫理治理的相關(guān)研究主要涌現(xiàn)于2022年底ChatGPT問世之后。與本文相關(guān)的文獻(xiàn)主要集中于以下三類:一是大模型對社會、經(jīng)濟的影響及其倫理失范的相關(guān)研究。二是大模型倫理治理的相關(guān)研究,主要集中于治理模式、治理目標(biāo)和實現(xiàn)路徑等。三是大模型關(guān)鍵要素倫理治理的相關(guān)研究,以算法、數(shù)據(jù)和深度合成技術(shù)等為主。

(一) 大模型對社會、經(jīng)濟的影響及其倫理失范的相關(guān)研究

隨著人工智能技術(shù)的演進(jìn),大模型等生成式人工智能對經(jīng)濟增長、生產(chǎn)效率和要素分配等方面產(chǎn)生深刻影響[3],起到提質(zhì)增效和深化供給側(cè)結(jié)構(gòu)性改革等作用,與此同時也引發(fā)隱私泄露、數(shù)字鴻溝、輸出帶有歧視性或偏見性結(jié)果、知識產(chǎn)權(quán)歸屬不清晰等倫理問題,可歸納為技術(shù)內(nèi)生型倫理風(fēng)險和技術(shù)應(yīng)用型倫理風(fēng)險兩大類[4]。具體到不同領(lǐng)域,大模型會引發(fā)不同倫理失范現(xiàn)象。例如,大模型廣泛應(yīng)用于醫(yī)學(xué)、經(jīng)濟和金融等研究領(lǐng)域會引發(fā)科研范式變革,能夠自主進(jìn)行科研假設(shè)、科學(xué)實驗和驗證假設(shè)合理性等全流程[5],從低效率的作坊模式轉(zhuǎn)變?yōu)槠脚_模式[6],對創(chuàng)新寬度產(chǎn)生影響[7]。此外,大模型還可以為科研人員提供文獻(xiàn)回顧、數(shù)據(jù)訪問[8]等輔助性研究便利,但也會導(dǎo)致數(shù)據(jù)版權(quán)侵害且主體責(zé)任難確定[9]、知識產(chǎn)權(quán)侵害和科研不端等倫理失范現(xiàn)象。其中,主體責(zé)任難確定將進(jìn)一步引發(fā)社會信任體系的混亂。大模型還適用于工業(yè)設(shè)計、藥物研發(fā)和材料科學(xué)等領(lǐng)域,其對簡單重復(fù)性勞動所產(chǎn)生的替代作用將引發(fā)社會分化或歧視等倫理失范現(xiàn)象。

(二) 大模型倫理治理的相關(guān)研究

為應(yīng)對大模型倫理失范及其對現(xiàn)行倫理治理體系提出的新挑戰(zhàn),學(xué)術(shù)界對大模型倫理治理開展了相關(guān)研究。一是對大模型進(jìn)行道德倫理設(shè)計,從技術(shù)上降低倫理失范發(fā)生的概率。基于前期所習(xí)得知識和輸入信息,大模型通過所構(gòu)建的思維框架生成內(nèi)容,具有思維價值[10]并體現(xiàn)倫理內(nèi)涵。對大模型倫理進(jìn)行有效治理,可以通過在研發(fā)階段引入倫理專家團(tuán)隊[11]、構(gòu)建倫理數(shù)據(jù)庫或倫理知識庫、價值觀嵌入、敏感價值設(shè)計、提示工程[12]和內(nèi)置糾偏機制等方式,使大模型等生成式人工智能習(xí)得人類的道德倫理知識體系,以降低倫理失范現(xiàn)象發(fā)生的概率。二是大模型倫理治理體系或框架的相關(guān)研究。關(guān)于大模型倫理治理體系或框架的直接研究對象為生成式人工智能、通用人工智能或通用模型[13] 等。目前,較成熟的人工智能倫理治理模式包括規(guī)制型治理、創(chuàng)新型治理、自治型治理、市場導(dǎo)向型治理、集中式治理、敏捷治理[14]、復(fù)合型系統(tǒng)性治理和面向產(chǎn)業(yè)鏈的韌性治理[15]等。張凌寒[6]提出,針對生成式人工智能要構(gòu)建“基礎(chǔ)模型—專業(yè)模型—服務(wù)應(yīng)用”的分層治理體系,形成復(fù)合型系統(tǒng)性治理。王沛然[16]提出,針對大模型的特征應(yīng)遵從控制主義轉(zhuǎn)向訓(xùn)導(dǎo)主義的治理范式,其包含大模型的開發(fā)訓(xùn)練動機、訓(xùn)練數(shù)據(jù)的內(nèi)容生態(tài)建設(shè)、具體場景和用戶的規(guī)制等三個基本法學(xué)命題。三是對大模型倫理治理的目標(biāo)、實現(xiàn)路徑和不同主體的法律定位等進(jìn)行研究。結(jié)合《生成式人工智能服務(wù)管理暫行辦法》等監(jiān)管政策對大模型服務(wù)提供者侵權(quán)責(zé)任的界定,進(jìn)一步從生成和移除兩個維度進(jìn)行判定,強調(diào)責(zé)任判斷標(biāo)準(zhǔn)的適時可調(diào)整性[17]??紤]到現(xiàn)有的倫理治理政策存在可操作性不強、剛性約束不足和效力層級較低等問題,應(yīng)堅持法治先行,加快構(gòu)建科技倫理規(guī)范體系[18]。當(dāng)然,也有學(xué)者提出,大模型技術(shù)處于尚未完全落地的階段,不適宜在早期就開展專門的倫理治理立法工作,過早的干預(yù)或治理將影響技術(shù)創(chuàng)新,可能導(dǎo)致法律偏離原本的功能定位,應(yīng)該從技術(shù)標(biāo)準(zhǔn)、安全風(fēng)險評估和信息審核技術(shù)等方面進(jìn)行治理[19]。

(三) 大模型關(guān)鍵要素倫理治理的相關(guān)研究

大模型關(guān)鍵要素倫理治理的相關(guān)研究主要集中于數(shù)據(jù)、算法等。一是關(guān)于大模型訓(xùn)練數(shù)據(jù)倫理治理的相關(guān)研究。大模型訓(xùn)練需要海量數(shù)據(jù)作支撐,數(shù)據(jù)規(guī)模越大,大模型能夠?qū)W習(xí)和提取的人類道德倫理知識就越多[20],但存在訓(xùn)練數(shù)據(jù)的誤導(dǎo)性、偏見和歧視等倫理風(fēng)險[21]。為加強數(shù)據(jù)倫理治理,Someh等[22]提出,要構(gòu)建個人、組織和社會互動的數(shù)據(jù)倫理治理框架,包括正式治理和非正式治理,從而合乎道德地使用大數(shù)據(jù)。續(xù)繼和王于鶴[23]提出,要構(gòu)建以綜合推進(jìn)數(shù)據(jù)要素市場的高效、公平和安全為目標(biāo)的“個人—企業(yè)—社會”的三維共建數(shù)據(jù)治理體系框架。張欣[24]針對數(shù)據(jù)的質(zhì)量、安全和時效等問題,提出構(gòu)建精準(zhǔn)多元的數(shù)據(jù)主體責(zé)任矩陣,打造靈活高效的數(shù)據(jù)治理監(jiān)管工具體系。二是對算法倫理治理的相關(guān)研究。針對算法黑箱、算法偏見和算法歧視等倫理問題,有研究提出分場景的算法規(guī)制方式,構(gòu)建算法公開、數(shù)據(jù)賦權(quán)和反算法歧視等算法規(guī)制的具體制度,以實現(xiàn)算法負(fù)責(zé)任的目標(biāo)[25];針對算法倫理風(fēng)險問題,有研究提出構(gòu)建自動化、生態(tài)化和全流程的動態(tài)監(jiān)管體系,以實現(xiàn)敏捷治理[26]。肖紅軍[27]從人、算法和社會三個治理要素的九個維度構(gòu)建了算法責(zé)任綜合治理范式的九宮格模型。然而,不同主體算法責(zé)任的分配原則和用戶的算法責(zé)任等問題仍待進(jìn)一步廓清[28]。此外,張凌寒[29]從深度合成技術(shù)倫理治理的視角切入,提出對大模型實施全鏈條治理,在全球形成更具影響力的治理法律制度體系。

通過以上分析可以發(fā)現(xiàn),現(xiàn)有研究仍然存在以下不足之處:一是數(shù)據(jù)、算法等關(guān)鍵要素倫理治理的研究自成獨立體系,對大模型關(guān)鍵要素的倫理治理缺乏針對性和適用性。二是未對大模型生命周期的不同階段和關(guān)鍵要素進(jìn)行拆解,未對關(guān)鍵要素的倫理失范緣起進(jìn)行系統(tǒng)分析,目前也未有相應(yīng)的倫理治理框架。大模型的技術(shù)復(fù)雜性、結(jié)果的不確定性和應(yīng)用的廣泛性所引發(fā)的倫理風(fēng)險呈現(xiàn)出影響范圍廣、傳播速度快和乘數(shù)效應(yīng)強等特征,現(xiàn)有的倫理治理模式已經(jīng)無法應(yīng)對,亟須提出新的倫理治理框架。

三、大模型倫理失范的理論解構(gòu)

相較于其他人工智能技術(shù)和應(yīng)用,大模型存在倫理失范現(xiàn)象的根源是什么,要從分析其本質(zhì)屬性開始。本文運用馬克思關(guān)于生產(chǎn)力和生產(chǎn)工具的相關(guān)理論對大模型的屬性進(jìn)行解構(gòu),并結(jié)合大模型生命周期的主要階段,對大模型屬性及倫理失范緣起進(jìn)行探究,為進(jìn)一步防范和治理大模型倫理失范現(xiàn)象尋求路徑。

(一) 大模型屬性及倫理失范緣起

⒈生產(chǎn)力屬性:技術(shù)非中性

大模型是人工智能技術(shù)的發(fā)展前沿,是深度神經(jīng)網(wǎng)絡(luò)(DNN) 在強算力基礎(chǔ)設(shè)施和海量數(shù)據(jù)支撐下,算法及框架的疊加與演進(jìn)而成的集成性技術(shù)系統(tǒng)。在Transformer架構(gòu)的基礎(chǔ)上,神經(jīng)網(wǎng)絡(luò)模型逐漸演進(jìn)為三類大模型典型架構(gòu),即掩碼語言模型、自回歸語言模型和序列到序列模型。作為一項人工智能技術(shù),大模型隸屬于生產(chǎn)力的范疇,且屬于以科技創(chuàng)新為核心的新質(zhì)生產(chǎn)力,是推動社會進(jìn)步最活躍的要素[30],是社會生產(chǎn)力的一次躍升[31]。進(jìn)一步深入分析,馬克思從兩個維度對生產(chǎn)力進(jìn)行闡釋和分類:生產(chǎn)力是人類進(jìn)行物質(zhì)資料生產(chǎn)的客觀力量,即物質(zhì)生產(chǎn)力;生產(chǎn)力是人類生產(chǎn)精神財富的能力,即精神生產(chǎn)力。兩者的統(tǒng)一性體現(xiàn)為物質(zhì)生產(chǎn)力和精神生產(chǎn)力均形成了使用價值。從這一意義看,大模型的生成內(nèi)容以滿足人類的精神需求為主,其屬于精神生產(chǎn)力的范疇。

大模型的核心技術(shù)要素為算法,其也屬于生產(chǎn)力的范疇,具有黑箱特征。算法是從數(shù)據(jù)輸入至結(jié)果輸出的一項計算機計算規(guī)則或步驟,即算法=邏輯+控制[32]。算法黑箱可劃分為主觀算法黑箱和客觀算法黑箱[33],并進(jìn)一步衍生出算法偏見、算法歧視等倫理失范現(xiàn)象。算法黑箱產(chǎn)生的緣由可歸納為三點:一是從知識產(chǎn)權(quán)的角度看,算法具有商業(yè)秘密性和經(jīng)濟價值性,無法向公眾公開。例如,大模型GPT?4是可以復(fù)制的,但OpenAI不會將其公之于眾。二是算法作為技術(shù),其本身具有不透明性和不可解釋性,人類無法預(yù)知其產(chǎn)生的結(jié)果。三是算法黑箱體現(xiàn)為不同人群對算法的運算機制和決策程序等信息存在認(rèn)知偏差,這種偏差尤其存在于專業(yè)人員與非專業(yè)人員之間。算法黑箱在大模型倫理風(fēng)險中體現(xiàn)為應(yīng)用者無法觀察或驗證算法的數(shù)據(jù)處理過程,導(dǎo)致結(jié)果不確定性和不可解釋性等倫理風(fēng)險。因此,從生產(chǎn)力范疇的角度分析,大模型不再具有“價值中立性”,存在算法黑箱及其衍生的倫理失范現(xiàn)象。

從所作用的勞動對象來看,大模型內(nèi)嵌人類的倫理傾向或偏好,不再保持“價值中立性”。與其他生產(chǎn)力相比,大模型所作用的勞動對象是數(shù)據(jù),其具有虛擬性、可重復(fù)應(yīng)用且包含人類的道德倫理內(nèi)容等特征。一是數(shù)據(jù)作為一種新型生產(chǎn)要素,其存儲或管理需要依托于網(wǎng)絡(luò)等載體,與傳統(tǒng)要素相比具有虛擬化的特征。二是一旦數(shù)據(jù)脫離所有者,數(shù)據(jù)可以被重復(fù)使用和處理,并且控制其未來流向和使用途徑等具有一定困難,即存在數(shù)據(jù)倫理風(fēng)險敞口。三是數(shù)據(jù)要素包含人類的價值觀等倫理傾向或偏好,尤其是個人數(shù)據(jù),具有“人格化”特征。正是由于大模型所作用的數(shù)據(jù)要素包含人類的倫理傾向或偏好,且自身存在倫理風(fēng)險敞口,數(shù)據(jù)參與大模型的運行,并內(nèi)嵌到生成內(nèi)容中,倫理偏好或傾向、倫理風(fēng)險也將進(jìn)一步傳遞。

⒉生產(chǎn)工具屬性:內(nèi)嵌人類倫理

大模型作為一種應(yīng)用系統(tǒng),是人類作用于輸入內(nèi)容的中介,使輸入內(nèi)容發(fā)生一定變化,是人腦的延伸,因而大模型屬于生產(chǎn)工具的范疇。人類在大模型的研發(fā)過程中融入了自身的倫理傾向或偏好;在大模型的使用過程中產(chǎn)生包含倫理傾向的內(nèi)容,并對人類產(chǎn)生倫理影響。

在大模型的研發(fā)階段,研發(fā)者的倫理傾向或偏好注入其中,因而算法黑箱不可避免。人工智能技術(shù)不斷演進(jìn),大模型在盡力模擬人類大腦的運行方式,參數(shù)規(guī)模力求接近于大腦神經(jīng)突觸數(shù)量。例如,大模型GPT?4由8個混合模型組成,每個模型約2 200億個參數(shù),總共約1. 8萬億個參數(shù),是大模型GPT?3的10倍以上。其中,算法模型的選擇和參數(shù)規(guī)模的確定均取決于研發(fā)者的主觀意愿。因此,隨著大模型研發(fā)技術(shù)的不斷演進(jìn),大模型的運行模式將越來越接近人類大腦,研發(fā)者及所模擬人類思維中所包含的倫理傾向或偏好會滲透其中,算法的黑箱特征在大模型整個生命周期中如影隨形。

在大模型的訓(xùn)練階段,訓(xùn)練數(shù)據(jù)、訓(xùn)練人員和數(shù)據(jù)處理者的倫理傾向或偏好會融入其中。一是訓(xùn)練數(shù)據(jù)的來源和質(zhì)量本身包含倫理傾向或偏好。按照是否經(jīng)過處理或加工,可以將訓(xùn)練數(shù)據(jù)劃分為原始數(shù)據(jù)和合成數(shù)據(jù)。大模型的訓(xùn)練數(shù)據(jù)大多來源于公開數(shù)據(jù)庫,未進(jìn)行加工或合成。由于來源確定或?qū)儆诠_數(shù)據(jù)庫,原始數(shù)據(jù)應(yīng)重視其內(nèi)容的正當(dāng)性。為提高大模型訓(xùn)練數(shù)據(jù)質(zhì)量,降低對訓(xùn)練數(shù)據(jù)規(guī)模的依賴性,需要對訓(xùn)練數(shù)據(jù)進(jìn)行質(zhì)量過濾、冗余去除、隱私消除等處理,在該過程中就會將人類的倫理傾向或偏好內(nèi)嵌其中,且可能因訓(xùn)練數(shù)據(jù)規(guī)模的龐大和內(nèi)容的復(fù)雜性等因素而無法進(jìn)行精確處理,即存在倫理風(fēng)險敞口。合成數(shù)據(jù)與原始數(shù)據(jù)的根本區(qū)別在于除數(shù)據(jù)本身所包含的倫理傾向或偏好之外,數(shù)據(jù)合成過程中摻入了數(shù)據(jù)處理者的倫理傾向或偏好,影響其內(nèi)容的正當(dāng)性。二是訓(xùn)練數(shù)據(jù)的處理和標(biāo)注方法等包含著人類的倫理傾向或偏好。大模型預(yù)訓(xùn)練數(shù)據(jù)以原始數(shù)據(jù)為主,合成數(shù)據(jù)為輔,調(diào)優(yōu)數(shù)據(jù)以標(biāo)注數(shù)據(jù)為主。大模型調(diào)優(yōu)數(shù)據(jù)主要包括代碼類數(shù)據(jù)和對話類數(shù)據(jù)。其中,代碼類數(shù)據(jù)主要來源于GitHub上的公共代碼庫,且以Python文件為主;對話類數(shù)據(jù)以人工標(biāo)注數(shù)據(jù)為主,數(shù)據(jù)標(biāo)注者主要包括專業(yè)標(biāo)注工和大模型應(yīng)用者。因此,大模型訓(xùn)練數(shù)據(jù)會受數(shù)據(jù)處理者、數(shù)據(jù)標(biāo)注者和應(yīng)用者等群體的倫理傾向或偏好的影響,且存在“漏網(wǎng)之魚”的倫理風(fēng)險敞口和“以偏概全”的局限性。

大模型作為生產(chǎn)工具,不僅是人類體力勞動的延伸和替代,還是人類大腦和神經(jīng)系統(tǒng)的延伸和替代。一是大模型是人類體力勞動的延伸和替代,其帶來生產(chǎn)工具供給的范式變革。人類具有先天生理上的限制。例如,人類無法在極高或極低溫度下進(jìn)行生產(chǎn)勞動。為克服人類自身的生理性局限,生產(chǎn)工具作為勞動者和勞動對象的中介應(yīng)運而生。生產(chǎn)工具是人類作用于勞動對象的物件,是人類社會時代劃分的重要標(biāo)志。機器是工業(yè)社會的重要體現(xiàn),而以人工智能技術(shù)支持的機器人等智能化機器是數(shù)字經(jīng)濟時代的重要體現(xiàn)。區(qū)別于其他生產(chǎn)工具,大模型在應(yīng)用過程中主要作用于數(shù)據(jù)要素,其生成內(nèi)容也具有一定的虛擬性和數(shù)字化特征,擁有智能涌現(xiàn)且與人類思維相似等特征,帶來了生產(chǎn)工具供給的范式變革。二是大模型是人類大腦和神經(jīng)系統(tǒng)的延伸和替代,大模型應(yīng)用過程中將人類的倫理傾向或偏好融入其中。大模型作為智能化生產(chǎn)工具引發(fā)了“代具性”“技術(shù)附庸”問題,嚴(yán)重沖擊人類主體資格。機器大生產(chǎn)代替?zhèn)鹘y(tǒng)手工生產(chǎn),人類的勞動不斷趨向重復(fù)性和機械性,加劇了人的物化和異化[34],即在以機器為中心的生產(chǎn)體系中,人被嵌入機械化生產(chǎn)線中,勞動強度被不斷提升,引發(fā)精神和體力的雙重壓力,制約了人類的全面發(fā)展。與此類似,數(shù)字經(jīng)濟時代,大模型高度滲透到人類生產(chǎn)生活中,人與機器不斷互嵌互構(gòu),從機器服務(wù)于人、人機協(xié)作、人機共生,進(jìn)一步演變?yōu)槿藱C一體,人與機器的邊界不斷模糊,久而久之人類會對大模型產(chǎn)生過度依賴,形成“代具性”,甚至淪為“技術(shù)附庸”[34]。這會引起人的主體性消解和決策自主權(quán)喪失[35]等現(xiàn)象,嚴(yán)重沖擊人類主體資格。三是大模型在訓(xùn)練過程中會學(xué)習(xí)訓(xùn)練數(shù)據(jù)的特征、結(jié)構(gòu)、知識和倫理內(nèi)容等,并延伸至其所生成內(nèi)容的倫理傾向,對人類社會產(chǎn)生倫理影響。

⒊雙重屬性:人類倫理與機器倫理糅合

大模型是算法和模型等人工智能技術(shù)的集成系統(tǒng),與應(yīng)用端緊密聯(lián)系在一起,是一種新型生產(chǎn)力工具[36],又被稱為數(shù)字化生產(chǎn)力工具。以O(shè)penAI的ChatGPT系列和Sora為例,其底層技術(shù)是Transformer架構(gòu)和Diffusion Transformer架構(gòu),應(yīng)用端是大模型GPT?4和Sora。大模型是生產(chǎn)力與生產(chǎn)工具的集合體,兼具兩者的屬性特征,從研發(fā)階段到應(yīng)用階段均將人類的倫理傾向或偏好內(nèi)嵌其中,且生成帶有倫理傾向或偏好的內(nèi)容。波普爾認(rèn)為,科學(xué)實踐的特點是不斷地根據(jù)經(jīng)驗檢驗理論,并根據(jù)檢驗的結(jié)果進(jìn)行修正。由該理論可知,大模型是科學(xué)技術(shù)與科學(xué)實踐的融合,是人類思想或意識在機器上的延伸。與馬斯克的腦機接口直接讀取人類思想不同,大模型通過對人類思想或意識進(jìn)行學(xué)習(xí)之后形成涌現(xiàn)能力,是人機一體化不斷演進(jìn)的一種表現(xiàn),更是機器與人類倫理道德體系不斷糅合之后的外在展現(xiàn)。因此,大模型作為一種數(shù)字化生產(chǎn)力工具,兼具生產(chǎn)力與生產(chǎn)工具的雙重屬性,倫理失范的緣起或底層邏輯是兩者的綜合,并貫穿于大模型生命周期(如表1所示),倫理失范現(xiàn)象更加復(fù)雜且難治理。

(二) 大模型倫理失范的關(guān)鍵要素解構(gòu)

大模型是人工智能技術(shù)的發(fā)展前沿,通過生產(chǎn)力、生產(chǎn)工具及二者集合體這三個層面進(jìn)行解構(gòu)可以發(fā)現(xiàn),算法、數(shù)據(jù)和人類是引起大模型倫理失范的關(guān)鍵要素。算法是大模型倫理失范的技術(shù)起點,數(shù)據(jù)是大模型倫理失范的關(guān)鍵中介,人類則是大模型倫理失范的行為主體。大模型生命周期、關(guān)鍵要素與倫理失范現(xiàn)象的關(guān)系如圖1所示。

⒈大模型倫理失范的技術(shù)起點:算法

算法是大模型運行的內(nèi)在邏輯,依靠運行規(guī)則和學(xué)習(xí)能力對“投喂”其中的訓(xùn)練數(shù)據(jù)進(jìn)行學(xué)習(xí),生成人類滿意的內(nèi)容,其“黑箱”問題也隨之延伸至生成內(nèi)容,并體現(xiàn)為生成內(nèi)容的不可追溯性和不確定性。另外,算法通過對數(shù)據(jù)進(jìn)行學(xué)習(xí),并部署于不同的應(yīng)用場景中,嵌入人類的社會生活中,其“價值中立性”不復(fù)存在,成為局部人類道德倫理體系的習(xí)得者、反映者和影響者。如果算法黑箱變?yōu)樗惴ㄍ该飨?,其?nèi)在運行邏輯顯而易見,大模型的生成內(nèi)容就可預(yù)測,倫理失范的緣由則可追溯、可修正。因此,算法是大模型倫理失范的技術(shù)起點,也是算法黑箱、算法歧視和算法偏見,以及所衍生的模型黑箱、模型歧視和模型偏見等倫理失范現(xiàn)象的根源。

⒉大模型倫理失范的關(guān)鍵中介:數(shù)據(jù)

大模型的出現(xiàn)將傳統(tǒng)的知識生成模式轉(zhuǎn)變?yōu)闄C器生成模式,且以類人腦的方式在短期內(nèi)實現(xiàn)生成內(nèi)容的智能涌現(xiàn)。大模型的訓(xùn)練和運行依賴于數(shù)據(jù),且學(xué)習(xí)和傳承了內(nèi)嵌其中的人類道德倫理體系,通過“鏡像效應(yīng)”[13]使其生成內(nèi)容表征局部人類道德倫理體系,并對人類道德倫理體系產(chǎn)生影響。按照大模型數(shù)據(jù)“投喂”目的的不同和所形成的道德倫理體系的先后順序,將倫理道德體系劃分為原生道德倫理體系和衍生道德倫理體系。訓(xùn)練數(shù)據(jù)的“投喂”形成大模型的原生道德倫理體系,是研發(fā)者、訓(xùn)練者、數(shù)據(jù)標(biāo)注者等相關(guān)主體,以及訓(xùn)練數(shù)據(jù)中所包含的道德倫理體系在進(jìn)行模型研發(fā)、訓(xùn)練和優(yōu)化過程中形成的初始道德倫理體系。衍生道德倫理體系指大模型進(jìn)入應(yīng)用階段,應(yīng)用者將自身道德倫理或輸入內(nèi)容所包含的道德倫理等輸入大模型,在智能交互中對原生道德倫理體系產(chǎn)生一定影響,并在其基礎(chǔ)上所形成的新道德倫理體系或引起原生道德倫理體系的變化。大模型的道德倫理體系將研發(fā)者、訓(xùn)練者、數(shù)據(jù)標(biāo)注者及其輸入內(nèi)容的道德倫理體系進(jìn)行糅合。其中,輸入內(nèi)容作為客觀主體體現(xiàn)了前述相關(guān)主體的道德倫理,因而大模型所習(xí)得的道德倫理體系是人類道德倫理體系經(jīng)過算法等人工智能技術(shù)進(jìn)行處理之后形成的多個人類主體的道德倫理融合體系。

⒊大模型倫理失范的行為主體:人類

大模型的研發(fā)者、訓(xùn)練者、服務(wù)提供者和應(yīng)用者是人類,訓(xùn)練數(shù)據(jù)的產(chǎn)生者、處理者和輸入者也是人類,因而引起大模型倫理失范的行為主體是人類,受影響的主體是人類,承擔(dān)責(zé)任的主體也是人類自身。算法是人類的代理者[27,37],大模型同樣充當(dāng)著人類代理者的角色,區(qū)別在于所代理內(nèi)容多少和程度大小。數(shù)據(jù)是人類的產(chǎn)物和資源,是人類道德倫理體系的反映物,從這個意義上講,數(shù)據(jù)具有“價值中立性”的特征,是否產(chǎn)生倫理失范現(xiàn)象取決于人類的生產(chǎn)方式、應(yīng)用方式和具體場景。綜上,盡管人類的主體資格受到大模型的沖擊,但人類依然是大模型的控制者和其生成內(nèi)容的決策者。大模型體現(xiàn)的是人類的意志,大模型等生成式人工智能與人類不論承擔(dān)交互式倫理責(zé)任,或完全式倫理責(zé)任[38],或無需承擔(dān)倫理責(zé)任[39],大模型倫理失范行為主體、受影響主體和責(zé)任主體最終是人類自身。

(三) 大模型倫理失范的主要表現(xiàn)

對大模型倫理失范的緣起進(jìn)行分析與解構(gòu)后發(fā)現(xiàn),大模型具有算法疊加、參數(shù)規(guī)模增加、訓(xùn)練數(shù)據(jù)來源多元化和規(guī)模龐大、智能涌現(xiàn)能力更強等特征,這引起了新型倫理失范現(xiàn)象的發(fā)生和原有倫理失范現(xiàn)象的深化或擴散。例如,模型黑箱、數(shù)據(jù)版權(quán)侵害且主體責(zé)任難確定、沖擊人類主體資格和對人類社會道德倫理秩序的漠視和擾亂等。

第一,模型黑箱。在關(guān)于人工智能倫理、算法倫理的分析和研究中,算法黑箱是倫理治理的焦點和難點,包括由此衍生出的算法歧視和算法偏見、結(jié)果不確定性和誤導(dǎo)性[40]等倫理失范現(xiàn)象。在算法黑箱的基礎(chǔ)上,依賴深度神經(jīng)網(wǎng)絡(luò)和集成技術(shù)的大模型所產(chǎn)生的黑箱現(xiàn)象演變?yōu)槟P秃谙洌?1]。算法是從數(shù)據(jù)輸入至結(jié)果輸出的一項計算機計算規(guī)則或步驟,即算法=邏輯+控制[32],深入滲透到社會生活中的算法已經(jīng)成為社會價值判斷的一部分,不再具有“價值中立性”[25];參數(shù)是模型中需要訓(xùn)練和優(yōu)化的變量,將影響模型的生成內(nèi)容,參數(shù)越多,模型的生成內(nèi)容越符合預(yù)期;模型是算法使用數(shù)據(jù)進(jìn)行訓(xùn)練后輸出的文件,是具有特定流程或結(jié)構(gòu)的計算機程序[16],算法和參數(shù)均包含其中。模型黑箱比算法黑箱更加復(fù)雜,是算法黑箱的疊加,是算法、模型和參數(shù)等要素糅合之后的“黑箱”。模型黑箱進(jìn)一步加劇了大模型生成內(nèi)容的不可解釋性和不確定性,甚至其生成內(nèi)容是錯誤的、虛假的、有害的、具有誤導(dǎo)性且缺乏因果推斷的[42],加之存在“機器幻覺”現(xiàn)象,會對人類行為產(chǎn)生不良誘導(dǎo)。與專用人工智能模型相較而言,大模型的智能涌現(xiàn)能力強,內(nèi)容生成效率高,易于在短期內(nèi)形成劣質(zhì)內(nèi)容且能快速傳播,在一對多的連鎖反應(yīng)下將對人類社會道德倫理秩序帶來系統(tǒng)性沖擊。

第二,數(shù)據(jù)版權(quán)侵害且主體責(zé)任難確定。數(shù)據(jù)和文本挖掘技術(shù)為公開數(shù)據(jù)的獲取與使用提供了便利。大模型的智能涌現(xiàn)能力依賴于海量數(shù)據(jù)的“投喂”,然而大模型所使用數(shù)據(jù)的獲取途徑和使用方式是否正當(dāng)、合法仍需進(jìn)一步加以監(jiān)管。其中,歐盟理事會通過的《數(shù)字化單一市場版權(quán)指令》對獲取、使用數(shù)據(jù)和文本進(jìn)行了規(guī)范,提出僅不受版權(quán)保護(hù)的事實或數(shù)據(jù)無需授權(quán),即數(shù)據(jù)獲取和使用的主體授權(quán)原則,但仍需注意是否存在復(fù)制權(quán)侵害。大模型的部分訓(xùn)練數(shù)據(jù)直接來源于網(wǎng)絡(luò)爬取,且未對數(shù)據(jù)的合法性和安全性等進(jìn)行評價和驗證,如果爬取數(shù)據(jù)超出了數(shù)據(jù)主體的授權(quán)范圍或包含敏感信息等,將會侵害數(shù)據(jù)主體權(quán)利,又由于人機邊界模糊、數(shù)據(jù)來源模糊和數(shù)據(jù)主體權(quán)利模糊等延伸出主體責(zé)任難確定等倫理問題。大模型訓(xùn)練使用合成數(shù)據(jù)同樣存在上述問題。其中,Sora視頻大模型的出現(xiàn)將數(shù)據(jù)版權(quán)侵害問題擴展至視頻生成領(lǐng)域。

第三,人機邊界模糊,物理世界與虛擬世界界限模糊,這將會沖擊人類主體資格和社會信任體系。政治經(jīng)濟學(xué)關(guān)于生產(chǎn)關(guān)系的相關(guān)理論認(rèn)為,人與生產(chǎn)工具、人與生產(chǎn)力之間均是彼此獨立的二元結(jié)構(gòu)。數(shù)字經(jīng)濟時代,大模型與人的關(guān)系打破了上述二元結(jié)構(gòu),加劇了人的物化和異化[34]。從語言大模型ChatGPT到視頻大模型Sora,大模型技術(shù)的演進(jìn)體現(xiàn)為人與機器不斷互嵌互構(gòu),人機邊界不斷模糊,引起人的主體性消解和決策自主權(quán)喪失[35]等現(xiàn)象,嚴(yán)重沖擊人類主體資格。此外,視頻大模型Sora的問世使深度偽造進(jìn)一步加深。深度偽造是基于生成對抗網(wǎng)絡(luò)模型,廣泛應(yīng)用于視頻換臉的人工智能技術(shù),憑借其高度真實性、泛在普適性和快速演化性等特征,其應(yīng)用不當(dāng)會產(chǎn)生侵犯公民人身財產(chǎn)權(quán)利、消解社會信任體系等倫理問題。與深度偽造技術(shù)相比,視頻大模型取得了實質(zhì)性的超越,加深了偽造的深度,從對人臉的“偽造”演變?yōu)閷ξ锢硎澜绲摹皞卧臁?,進(jìn)而影響人類社會信任體系。

第四,對人類社會道德倫理秩序的漠視和擾亂。一是大模型的生成內(nèi)容對人類道德倫理秩序的漠視和擾亂。具體到應(yīng)用場景的大模型,攜帶著所習(xí)得的局部人類道德倫理體系,生成應(yīng)用者所需要的內(nèi)容,并將原生道德倫理體系和衍生道德倫理體系糅合其中。大模型的研發(fā)者、服務(wù)提供者和應(yīng)用者漠視生成內(nèi)容是否存在對人類社會道德倫理秩序的擾亂,大模型生成內(nèi)容處于人類道德倫理體系的真空區(qū),未被“觸及”或“約束”。例如,用人工智能生成欺騙性內(nèi)容干擾選舉被認(rèn)為是全球面臨的重要挑戰(zhàn)。二是大模型濫用對人類社會道德倫理秩序的漠視和擾亂。大模型充當(dāng)著“人類大腦”或“世界模擬器”的角色,改變了知識的生產(chǎn)方式,縮短了知識生產(chǎn)的社會必要勞動時間,降低了人類獲得所需文字、視頻等生成內(nèi)容的成本。大模型應(yīng)用者從輸入需求到輸出結(jié)果,以及輸出結(jié)果的未來用途等,全過程沒有適用且有效的治理措施,這無疑是對人類社會道德倫理秩序的漠視和擾亂。

(四) 大模型倫理失范所提出的治理挑戰(zhàn)

大模型引起了技術(shù)海嘯和秩序重構(gòu),對現(xiàn)有倫理治理體系提出了一系列挑戰(zhàn)?,F(xiàn)有的單要素和單環(huán)節(jié)的倫理治理模式、自上而下的倫理治理模式和以結(jié)果為導(dǎo)向的倫理治理模式已經(jīng)無法有效防范和應(yīng)對大模型倫理失范,體現(xiàn)為倫理治理的缺失或失效。

第一,單要素和單環(huán)節(jié)的倫理治理模式不能有效防范和應(yīng)對大模型倫理失范。人機邊界模糊與人機關(guān)系重構(gòu)導(dǎo)致倫理治理主體范疇的擴張。人機智能交互和反饋式學(xué)習(xí)機制不斷演進(jìn),模糊了人機邊界,引起人機關(guān)系的重構(gòu),并產(chǎn)生“飛輪效應(yīng)”,導(dǎo)致倫理治理范疇發(fā)生變化。一是大模型倫理治理對象發(fā)生變化。傳統(tǒng)倫理治理范疇中的治理對象主要包括生成內(nèi)容和服務(wù)提供者,大模型所引發(fā)的倫理風(fēng)險則超越了以上治理對象,需將大模型研發(fā)者、訓(xùn)練者和應(yīng)用者,訓(xùn)練數(shù)據(jù)的提供者、處理者和標(biāo)注者等納入倫理治理對象的范疇。二是大模型倫理治理主體尚未清晰界定,主體間責(zé)任則無法明確劃分。以生成內(nèi)容為例,大模型的生成內(nèi)容是否存在倫理風(fēng)險,取決于大模型在研發(fā)過程中是否存在倫理缺陷。因此,大模型研發(fā)者、服務(wù)提供者和應(yīng)用者均在其中發(fā)揮了作用,對結(jié)果的輸出負(fù)有責(zé)任,如果出現(xiàn)倫理失范,參與者均需要承擔(dān)相應(yīng)的責(zé)任,然而由于算法的不透明性和結(jié)果的不確定性,無法清晰界定不同主體的責(zé)任歸屬。綜上所述,單要素和單環(huán)節(jié)的倫理治理模式呈現(xiàn)出一定程度的不適用性,無法有效防范和應(yīng)對大模型倫理失范。

第二,自上而下的倫理治理模式不能及時防范和應(yīng)對大模型技術(shù)迭代更新所引發(fā)的倫理風(fēng)險。一是自上而下的倫理治理模式主要采用法律法規(guī)等方式治理倫理問題,與大模型技術(shù)迭代更新的速度相比具有一定的遲滯性和固定性,只能應(yīng)對已經(jīng)出現(xiàn)或可預(yù)見的倫理問題,卻無法及時防范大模型技術(shù)迭代更新所產(chǎn)生的倫理風(fēng)險。二是大模型具有技術(shù)不確定性所引發(fā)的生成內(nèi)容及其社會影響的不確定性,自上而下的倫理治理模式具有一定的線性僵化特征,不能及時防范大模型對人類社會道德倫理秩序的沖擊。三是以政府監(jiān)管政策為主基調(diào)的自上而下的倫理治理模式,容易引起倫理準(zhǔn)則抽象性與倫理實踐之間的脫節(jié),需要從倫理描述轉(zhuǎn)向倫理應(yīng)用[40],探索新型倫理治理模式以避免大模型“野蠻生長”。

第三,以結(jié)果為導(dǎo)向的倫理治理模式不能有效防范和應(yīng)對大模型生命周期的倫理問題。以《生成式人工智能服務(wù)管理暫行辦法》為代表的監(jiān)管政策體系,針對大模型及其相關(guān)應(yīng)用的倫理治理注重對生成內(nèi)容或信息的監(jiān)管,責(zé)任主體的歸屬主要聚焦于生成式人工智能服務(wù)提供者。與其他人工智能技術(shù)相比,大模型技術(shù)的演進(jìn)范式及其應(yīng)用模式的轉(zhuǎn)變引發(fā)的倫理失范現(xiàn)象不再局限于最終的生成內(nèi)容,以結(jié)果為導(dǎo)向的倫理治理模式不能有效防范其倫理失范。一是大模型的技術(shù)創(chuàng)新范式發(fā)生變革,體現(xiàn)為開源式創(chuàng)新、過程式創(chuàng)新和不確定性創(chuàng)新。以結(jié)果為導(dǎo)向的倫理治理模式重心是大模型的生成內(nèi)容或最終結(jié)果,不能有效應(yīng)對大模型技術(shù)創(chuàng)新過程中存在的倫理風(fēng)險。二是大模型的應(yīng)用場景日趨多元化和開放化,導(dǎo)致倫理失范現(xiàn)象發(fā)生的潛在邊界擴大,具有多點多發(fā)等特征。因此,以結(jié)果為導(dǎo)向的倫理治理模式已無法全面防范和應(yīng)對大模型倫理失范。

四、大模型倫理治理框架的再構(gòu)建

大模型在算法黑箱、數(shù)字鴻溝等倫理問題之上,衍生出了模型黑箱、數(shù)據(jù)版權(quán)侵害且主體責(zé)任難確定、沖擊人類主體資格等倫理失范現(xiàn)象,對現(xiàn)行倫理治理體系提出了挑戰(zhàn),單要素和單環(huán)節(jié)、自上而下和以結(jié)果為導(dǎo)向的倫理治理模式已經(jīng)呈現(xiàn)出治理上的缺位性、滯后性、固化性,以及政策與實踐脫節(jié)等不足,亟須提出新的倫理治理框架以對大模型倫理失范進(jìn)行防范和應(yīng)對。在對大模型的屬性、倫理失范緣起、關(guān)鍵要素解構(gòu)和主要表現(xiàn)等進(jìn)行分析,且對大模型倫理失范所提出的治理挑戰(zhàn)進(jìn)行闡述的基礎(chǔ)上,本文以大模型生命周期為時間維度,以關(guān)鍵要素為核心,構(gòu)建基于大模型關(guān)鍵要素的全生命周期倫理治理框架,如圖2所示。

(一) 基本思路

基于大模型關(guān)鍵要素的全生命周期倫理治理框架的基本思路是:一是覆蓋大模型生命周期,強調(diào)倫理治理環(huán)節(jié)的完整性。大模型倫理治理應(yīng)該覆蓋其研發(fā)階段、訓(xùn)練階段和應(yīng)用階段,甚至延伸至退出階段。二是重點關(guān)注大模型關(guān)鍵要素的倫理治理。算法、數(shù)據(jù)和人類這一行為主體是大模型的關(guān)鍵要素,也是倫理治理的重點。將大模型關(guān)鍵要素置于具體應(yīng)用場景中,且強調(diào)倫理素養(yǎng)的內(nèi)在提升和自我治理,有助于提高倫理治理的整體性、適用性和自下而上性。三是倫理治理目標(biāo)是在人工道德代理(Artificial Moral Agent) 的基礎(chǔ)上,實現(xiàn)大模型與人類價值對齊或倫理對齊。與人類價值對齊,即通過人類的價值引導(dǎo),大模型應(yīng)與人類的價值觀和社會道德倫理秩序相一致,《生成式人工智能服務(wù)管理暫行辦法》中明確提出“堅持社會主義核心價值觀”的具體要求。人類的價值觀包括生存價值觀、社會價值觀和政治價值觀。人類的社會道德倫理秩序主要指社會道德領(lǐng)域的正式制度和非正式制度。大模型與人類價值對齊體現(xiàn)為符合文化、符合社會和符合法規(guī)三個層次。符合文化體現(xiàn)為符合大模型所使用國家或地區(qū)的ykb/n+QYZs7YY96X6VNS1xgf0n1rrZod2gPtzW8E1N0=文化環(huán)境。符合社會體現(xiàn)為符合大模型所使用國家或地區(qū)的社會環(huán)境。例如,意識形態(tài)及政治傾向等。符合法規(guī)體現(xiàn)為對使用國家或地區(qū)的法律法規(guī)等制度的遵守與執(zhí)行。前兩項更多體現(xiàn)為對非正式制度的遵守,后一項體現(xiàn)為對正式制度的遵守。四是重視大模型倫理治理的系統(tǒng)性與完整性。為配合基于大模型關(guān)鍵要素的全生命周期治理框架的有效實施,構(gòu)建相應(yīng)的倫理治理生態(tài)體系,也是該倫理治理框架的進(jìn)一步細(xì)化與重要延伸。其中,大模型倫理治理生態(tài)體系中兩層行為主體和兩級守門人是對大模型關(guān)鍵要素的進(jìn)一步細(xì)化,全球性合作治理網(wǎng)絡(luò)是關(guān)鍵要素治理模式的延伸。例如,以大模型相關(guān)技術(shù)創(chuàng)新實現(xiàn)對大模型算法等技術(shù)的治理;發(fā)揮國際組織和各國政府的全局性及跨區(qū)域性倫理治理作用;社會輿論體系的倫理監(jiān)督則是正式倫理治理制度的有效補充。

(二) 大模型倫理治理的關(guān)鍵要素倫理治理

⒈對技術(shù)的倫理治理

大模型是算法、模型、數(shù)據(jù)處理和標(biāo)注、模型訓(xùn)練等技術(shù)的集合體。綜合考慮大模型中算法、模型和參數(shù)之間的關(guān)聯(lián)性和可分割性,將三者統(tǒng)一稱為大模型技術(shù)。其中,算法倫理治理是重點。對大模型技術(shù)進(jìn)行倫理治理,可以從三個維度展開:一是大模型技術(shù)的倫理進(jìn)化。加強算法、模型、模型訓(xùn)練和調(diào)優(yōu)、數(shù)據(jù)處理和標(biāo)記等大模型技術(shù)創(chuàng)新。例如,以人類反饋強化學(xué)習(xí)(RLHF)、模型可解釋性和OpenAI正在研發(fā)的模型審計等技術(shù)提高模型黑箱透明度、生成內(nèi)容可解釋性和倫理導(dǎo)向正確性等;在大模型中增加倫理數(shù)據(jù)訓(xùn)練模塊、內(nèi)置倫理自查或?qū)徲嬆P偷葌惱碓O(shè)計,減少倫理失范現(xiàn)象的出現(xiàn)和擴散。二是大模型技術(shù)的倫理自我審查、測試和評估。考慮到大模型技術(shù)具有商業(yè)秘密性和知識產(chǎn)權(quán)價值,且力求覆蓋大模型技術(shù)的重要倫理風(fēng)險敞口,可以采取模型卡制度,由大模型研發(fā)者創(chuàng)建模型卡,對大模型的參數(shù)、算法、訓(xùn)練數(shù)據(jù)、預(yù)期應(yīng)用領(lǐng)域和用戶群體等關(guān)鍵性信息進(jìn)行登記和備案,以提高大模型的透明度和倫理規(guī)范性等。三是大模型技術(shù)倫理外部審計與監(jiān)管。人工智能技術(shù)的備案、審查和安全評估等倫理治理措施已經(jīng)推行,為加強大模型倫理外部審查的約束剛性,可對大模型技術(shù)采用全鏈條倫理審計制,針對不同技術(shù)可選擇代碼審計、非侵入式審計、眾包審計、代理審計和抓取審計等方式[33],以保證審計過程中的權(quán)責(zé)匹配性、機構(gòu)獨立性和知識產(chǎn)權(quán)保護(hù)等。

⒉對數(shù)據(jù)的倫理治理

數(shù)據(jù)是大模型運行的驅(qū)動力,主要包括訓(xùn)練數(shù)據(jù)和用戶數(shù)據(jù)兩類。其中,大模型訓(xùn)練數(shù)據(jù)主要包括文本、圖片、視頻和(文本,視頻) 對等形式,在大模型預(yù)訓(xùn)練和調(diào)優(yōu)階段發(fā)揮作用。數(shù)據(jù)的來源、質(zhì)量、合成技術(shù)和所含倫理內(nèi)容等均會影響大模型所習(xí)得的倫理規(guī)則,并隨著大模型應(yīng)用場景的拓展體現(xiàn)出延伸性和擴散性。加強數(shù)據(jù)的倫理治理是大模型倫理治理的關(guān)鍵部分。

綜合考慮大模型數(shù)據(jù)倫理風(fēng)險敞口,可以從以下三個維度加強大模型數(shù)據(jù)的倫理治理:一是數(shù)據(jù)來源治理。對來源于公開數(shù)據(jù)、專門數(shù)據(jù)庫等未經(jīng)過相關(guān)處理的原始數(shù)據(jù),應(yīng)提高數(shù)據(jù)來源的可追溯性、正當(dāng)性和規(guī)范性,避免出現(xiàn)數(shù)據(jù)版權(quán)侵害等倫理失范現(xiàn)象。此外,數(shù)據(jù)來源在一定程度上對數(shù)據(jù)質(zhì)量和所包含的倫理理念等具有“隱性”保證作用,即來源正當(dāng)?shù)臄?shù)據(jù)質(zhì)量和倫理健康性更高。二是數(shù)據(jù)質(zhì)量治理。大模型所使用數(shù)據(jù)的質(zhì)量體現(xiàn)在是否存在誤導(dǎo)性、歧視性等,對大模型、生成內(nèi)容和應(yīng)用者的道德倫理體系產(chǎn)生影響。加強對訓(xùn)練數(shù)據(jù)質(zhì)量的檢測與評估,并針對異常數(shù)據(jù)有相應(yīng)的處理流程和辦法,保證訓(xùn)練數(shù)據(jù)合乎倫理秩序和道德規(guī)范,避免低質(zhì)量數(shù)據(jù)對生成內(nèi)容和應(yīng)用者的道德倫理體系產(chǎn)生負(fù)面影響。三是數(shù)據(jù)安全管理。數(shù)據(jù)安全和隱私保護(hù)是大模型運行的基石,以技術(shù)創(chuàng)新加強數(shù)據(jù)安全和隱私保護(hù)。數(shù)據(jù)存儲和使用過程中均存在安全性要求,應(yīng)加強隱私計算關(guān)鍵技術(shù)的突破。例如,聯(lián)邦學(xué)習(xí)、多方安全計算、差分隱私和同態(tài)加密等,并加強關(guān)聯(lián)領(lǐng)域的互聯(lián)互通等,為數(shù)據(jù)安全和隱私保護(hù)提供一項新的技術(shù)選擇,加上一把安全鎖。從數(shù)據(jù)安全治理方式上,可引入專業(yè)型數(shù)據(jù)托管機構(gòu),將數(shù)據(jù)存儲、管理和使用等職責(zé)分離,對數(shù)據(jù)處理和使用進(jìn)行有效監(jiān)督,提高數(shù)據(jù)安全性,也有利于政府對大模型訓(xùn)練數(shù)據(jù)進(jìn)行監(jiān)管。

⒊對大模型行為主體的倫理治理

人類是影響大模型道德倫理體系的行為主體,是其倫理治理的關(guān)鍵要素。一是人類在人工智能大模型的研發(fā)、訓(xùn)練、部署和應(yīng)用等環(huán)節(jié)均發(fā)揮主體作用,且貫穿始終。二是大模型的倫理風(fēng)險觸發(fā)和受影響主體是人類。三是大模型倫理治理的根本在于治人。按照大模型生命周期的不同階段,將人類這一行為主體劃分為大模型研發(fā)者、大模型訓(xùn)練者、數(shù)據(jù)提供者、數(shù)據(jù)處理者(主要包括數(shù)據(jù)預(yù)處理者、合成者和標(biāo)記者)、大模型服務(wù)提供者和大模型應(yīng)用者,針對以上行為主體進(jìn)行倫理治理需綜合考慮共性和差異性,即不同行為主體的倫理風(fēng)險敞口存在差異。

其一,對大模型行為主體的內(nèi)在倫理治理。其根本在于提升其倫理認(rèn)知水平、倫理素質(zhì)和專業(yè)技能。為從根源上實現(xiàn)倫理治理的目標(biāo),需要對大模型行為主體進(jìn)行分層分類治理,切實提升倫理認(rèn)知水平,且增強倫理風(fēng)險防范能力。遵循倫理認(rèn)知—倫理判斷—倫理意圖—倫理行為的倫理決策四階段理論[43],通過學(xué)校教育、公共宣傳和在職培訓(xùn)等方式提高大模型行為主體的倫理認(rèn)知層次和價值判斷能力,正確引導(dǎo)倫理判斷和倫理意圖,降低倫理失范發(fā)生的概率,減輕倫理失范對人類社會道德倫理體系的消極影響。提升大模型研發(fā)者與訓(xùn)練者、訓(xùn)練數(shù)據(jù)提供者與處理者、大模型服務(wù)提供者等行為主體的倫理素質(zhì)和專業(yè)技能,降低倫理失范發(fā)生的概率。大模型專業(yè)型行為主體是直接與大模型的算法、模型、參數(shù)和訓(xùn)練數(shù)據(jù)等接觸的群體,擁有相對信息優(yōu)勢和空間優(yōu)勢,對大模型所習(xí)得的“道德倫理規(guī)則”有更深刻的影響,因而提升其倫理素質(zhì)和專業(yè)技能更具迫切性且倫理治理成效更顯著。專業(yè)型行為主體倫理素質(zhì)的提升更多落腳于在職培訓(xùn)、職業(yè)道德準(zhǔn)則學(xué)習(xí)等形式;專業(yè)技能的提升主要體現(xiàn)于模型黑箱的克服、倫理嵌入和倫理設(shè)計等領(lǐng)域,且將人類社會道德倫理規(guī)則貫穿于大模型研發(fā)、訓(xùn)練和服務(wù)提供整個過程,減輕大模型對人類社會道德倫理秩序體系的沖擊。

其二,對大模型行為主體的外部倫理治理。推行許可證制、市場黑名單制和倫理失范問責(zé)制,以加強大模型行為主體的外部倫理治理。許可證制是在大模型推入市場之前,監(jiān)管機構(gòu)對大模型進(jìn)行倫理評估或性能測試之后,允許符合標(biāo)準(zhǔn)的大模型進(jìn)入應(yīng)用市場;市場黑名單制根據(jù)大模型在應(yīng)用中出現(xiàn)倫理失范的頻率、影響范圍和造成損失或傷害程度高等維度確定是否將大模型行為主體列入市場黑名單;倫理失范問責(zé)制主要從懲罰大模型相關(guān)行為主體、補救受影響主體損失并防范潛在倫理風(fēng)險等層面對行為主體進(jìn)行治理。

⒋大模型應(yīng)用場景、風(fēng)險等級與倫理治理方式的匹配

歐盟《人工智能法案》提出,按照人工智能風(fēng)險等級采取差異化治理方式。根據(jù)問題權(quán)變模型中道德強度的概念和維度,并分析了道德強度對倫理決策產(chǎn)生影響的路徑。將風(fēng)險等級、道德強度與場景理論融合,重點考慮大模型在不同應(yīng)用場景中若發(fā)生倫理失范所造成社會影響的大小。大模型倫理風(fēng)險等級的劃分充分考慮道德強度的六個維度。其中,結(jié)果大小、社會輿論和效應(yīng)可能性這三個維度的重要性高于其他維度,具體風(fēng)險等級劃分標(biāo)準(zhǔn)如表2所示。

在借鑒歐盟分級分類治理模式、日本風(fēng)險鏈模型、德國VCIO模型的基礎(chǔ)上,將大模型主要應(yīng)用場景劃分為公共事業(yè)和商業(yè)服務(wù)兩個類別,本文構(gòu)建了基于應(yīng)用場景的大模型倫理治理方式的匹配矩陣。①

五、大模型倫理治理生態(tài)體系的構(gòu)建

為加強大模型倫理治理,實現(xiàn)大模型與人類價值對齊或倫理對齊的目標(biāo),在基于大模型關(guān)鍵要素的全生命周期倫理治理框架下,需要多元主體的共同參與,構(gòu)建全方位的治理生態(tài)體系,主要包括推動大模型關(guān)鍵群體和企業(yè)兩層行為主體的自我治理,發(fā)揮大型平臺企業(yè)和政府兩級守門人作用,形成以國際組織為核心、以技術(shù)治理為工具和以社會輿論為監(jiān)督的全球性合作治理網(wǎng)絡(luò)等子體系,加快大模型倫理治理“赤字”的綠化進(jìn)程。大模型倫理治理生態(tài)體系包含大模型關(guān)鍵群體、大模型企業(yè)、數(shù)字守門人、國際組織和各國政府等多元主體的自治理、他治理和外部監(jiān)管,能夠?qū)崿F(xiàn)對大模型道德倫理體系的影響因素相對全面的覆蓋,不再局限于單要素和單環(huán)節(jié),且關(guān)鍵群體、大模型企業(yè)等主體的自我治理和數(shù)字守門人的監(jiān)管式守門人角色等是對以政府為主導(dǎo)的自上而下的倫理治理的有效補充。其中,重視發(fā)揮大模型研發(fā)者、大模型企業(yè)和數(shù)字守門人等主體的治理作用,實現(xiàn)從大模型研發(fā)、訓(xùn)練和服務(wù)提供等階段均有相應(yīng)的倫理自律或治理,既可以實現(xiàn)大模型生命周期的覆蓋,又是倫理先行理念對以結(jié)果為導(dǎo)向的倫理治理模式的擴充和延伸,包括政府作為終極守門人在監(jiān)管政策制定中應(yīng)提高監(jiān)管制度的全局性,力求將大模型生命周期統(tǒng)籌在內(nèi)。

(一) 推動兩層行為主體的自我治理

大模型的行為主體可劃分為關(guān)鍵群體和企業(yè)主體兩個層級。其中,關(guān)鍵群體主要是大模型研發(fā)者,企業(yè)主體則是以企業(yè)形式存在的與大模型相關(guān)的經(jīng)濟組織。

第一,加強大模型關(guān)鍵群體倫理素養(yǎng)和專業(yè)技能的提升。人是產(chǎn)生倫理風(fēng)險的根源,是大模型倫理治理的最終落腳點,大模型研發(fā)者是其中的關(guān)鍵群體,其擁有一定的信息優(yōu)勢和空間優(yōu)勢,倫理素養(yǎng)和專業(yè)技能對大模型原生道德倫理體系產(chǎn)生直接影響,是大模型倫理治理的第一線。大模型研發(fā)者的倫理自我治理可以從以下途徑展開:一是提升自身倫理素養(yǎng)。以公共部門的公益性倫理教育或宣傳為基礎(chǔ),以高等院校教育或繼續(xù)教育的倫理課程為核心,以所從事具體領(lǐng)域的大模型倫理規(guī)范等制度文件的學(xué)習(xí)或培訓(xùn)為補充,強化大模型倫理教育和學(xué)習(xí)。二是提升自身專業(yè)技能。專業(yè)技能的提升具有長期積累性,且需要緊跟技術(shù)發(fā)展腳步進(jìn)行迭代更新,大模型相關(guān)專業(yè)技能的提升可以從以下途徑展開。首先,短期應(yīng)以在職培訓(xùn)為重點,以實際工作需求為導(dǎo)向,注重理論知識與實踐技能的結(jié)合,緊密結(jié)合技術(shù)發(fā)展前沿,提升大模型技術(shù)人員的專業(yè)技能。其次,中長期應(yīng)以高等院校教育為重要途徑,發(fā)揮個體自主性學(xué)習(xí),以勞動力市場需求和個體職業(yè)發(fā)展為最終落腳點,培養(yǎng)專業(yè)型人才隊伍。

第二,加強大模型企業(yè)的自我倫理治理。大模型企業(yè)主要包括大模型研發(fā)企業(yè)、大模型部署企業(yè)和服務(wù)提供企業(yè),其自我倫理治理主要通過以下途徑展開:一是強化倫理意識。倫理先行,將科技向善、負(fù)責(zé)任研究和技術(shù)創(chuàng)新等理念貫穿于企業(yè)文化與實踐之中。發(fā)揮企業(yè)文化等非正式制度的引導(dǎo)作用,對企業(yè)倫理價值觀具有正向影響。大模型的多模態(tài)、通用性特征和模型即服務(wù)(MaaS) 的產(chǎn)業(yè)鏈模式等,要求加強企業(yè)間倫理倡議或公約等非正式倫理制度建設(shè)。二是完善自我治理的倫理制度體系建設(shè),強化制度約束力且擴大覆蓋面。大模型企業(yè)自我治理的倫理制度建設(shè)具有局部性特征,體現(xiàn)為集中于數(shù)據(jù)安全、隱私保護(hù)和用戶個人信息安全領(lǐng)域,且以落實國家倫理監(jiān)管政策和促進(jìn)企業(yè)發(fā)展為主。大模型企業(yè)自我治理的倫理制度可從三個層面加以完善。首先,大模型技術(shù)規(guī)范、路線圖和工具箱等技術(shù)倫理規(guī)范性制度建設(shè)。其次,大模型訓(xùn)練數(shù)據(jù)的相關(guān)倫理制度建設(shè)。最后,整體性大模型倫理風(fēng)險防范和管理等制度建設(shè)。前兩個層面強調(diào)制度的約束力和適用性,最后一個層面強調(diào)制度的約束力和覆蓋面。正式制度是非正式制度的基礎(chǔ),對非正式制度具有補充作用,非正式制度是正式制度的延伸。三是變革組織架構(gòu)。大模型企業(yè)加強自我倫理治理,且推動大模型倫理自律性制度有效施行,應(yīng)進(jìn)行相應(yīng)的組織架構(gòu)變革。首先,設(shè)置相對獨立的大模型技術(shù)顧問委員會,其對企業(yè)大模型技術(shù)和應(yīng)用是否符合倫理監(jiān)管政策和自律性倫理制度進(jìn)行監(jiān)督,并就相關(guān)倫理問題提出建議和解決措施。其次,設(shè)置大模型倫理委員會,統(tǒng)籌不同部門以落實倫理治理戰(zhàn)略,將企業(yè)已分散設(shè)置的數(shù)據(jù)隱私保護(hù)委員會、信息安全委員會、網(wǎng)絡(luò)安全委員會等進(jìn)行有機整合,保證大模型企業(yè)倫理治理的統(tǒng)一性和全局性;或者,保留現(xiàn)有倫理委員會,但需根據(jù)大模型關(guān)鍵要素、生命周期不同階段和主要倫理失范現(xiàn)象等調(diào)整倫理審查、監(jiān)督等方向和內(nèi)容。最后,在業(yè)務(wù)部門設(shè)置大模型倫理專員或工作小組等,負(fù)責(zé)企業(yè)大模型倫理戰(zhàn)略、自律性制度和非正式制度在大模型技術(shù)研發(fā)、產(chǎn)品設(shè)計和生產(chǎn)過程的具體執(zhí)行和引導(dǎo)等。四是創(chuàng)新自我倫理治理實踐,主要包括加強對外披露自我倫理治理相關(guān)內(nèi)容,以及加強大模型倫理自治技術(shù)或工具的應(yīng)用及創(chuàng)新。目前,大模型企業(yè)主要以企業(yè)社會責(zé)任報告、ESG報告和道德準(zhǔn)則等專項報告為載體,需進(jìn)一步將倫理自治相關(guān)披露內(nèi)容從負(fù)責(zé)任算法、負(fù)責(zé)任人工智能延伸至負(fù)責(zé)任大模型。大模型倫理審查、測試、評估和補救等技術(shù)或工具有助于降低倫理失范現(xiàn)象的出現(xiàn),提高大模型的安全性、可靠性和穩(wěn)健性等。

(二) 發(fā)揮兩級守門人作用

第一,發(fā)揮數(shù)字守門人的倫理治理作用,不斷邁向平臺中立。歐盟《數(shù)字市場法》對數(shù)字守門人進(jìn)行了詳細(xì)界定,其主要指超級平臺企業(yè)和大型平臺企業(yè)。數(shù)字守門人可以憑借其數(shù)據(jù)、算法和市場等優(yōu)勢或權(quán)力獲取一定的倫理治理影響力,且以強大的網(wǎng)絡(luò)效應(yīng)形成以平臺為中心的聯(lián)合企業(yè)體系,對這一體系的倫理治理發(fā)揮一定作用。因此,數(shù)字守門人兼具自律式守門人[44]和監(jiān)管式守門人[45]的雙重角色,介于政府與其他企業(yè)主體之間。從平臺企業(yè)加重義務(wù)和社會責(zé)任履行的角度出發(fā),進(jìn)一步發(fā)揮數(shù)字守門人作用可從以下途徑展開:一是發(fā)揮超級平臺企業(yè)和大型平臺企業(yè)的自律式守門人作用。數(shù)字守門人在履行政府倫理監(jiān)管政策并承擔(dān)相應(yīng)違規(guī)責(zé)任的基礎(chǔ)上與用戶之間建立良好的信任關(guān)系且延伸至社會信任體系。首先,形成用戶數(shù)據(jù)的權(quán)屬清晰、數(shù)據(jù)安全和隱私保護(hù)等基礎(chǔ)性信任關(guān)系。在現(xiàn)行用戶隱私設(shè)置或信息收集等基礎(chǔ)上,明確用戶對數(shù)據(jù)的所有權(quán)、攜帶權(quán)和被遺忘權(quán)等,在用戶數(shù)據(jù)的存儲、使用和銷毀等過程中保護(hù)數(shù)據(jù)安全和用戶隱私等,尤其是杜絕用戶數(shù)據(jù)濫用和非法交易等。其次,在默認(rèn)設(shè)置、訪問渠道和用戶推薦等平臺應(yīng)用中形成透明、非歧視性和破除“信息繭房”等過程性信任關(guān)系。例如,部分用戶隱私聲明存在一定的形式性,將數(shù)據(jù)使用權(quán)和實際控制權(quán)一并讓渡的同時,也將隱私侵犯、數(shù)據(jù)濫用等倫理風(fēng)險敞口暴露,過程性信任關(guān)系不可或缺。最后,在生成內(nèi)容等服務(wù)提供或輸出結(jié)果中形成結(jié)果性信任關(guān)系。二是發(fā)揮超級平臺企業(yè)和大型平臺企業(yè)的監(jiān)管式守門人作用。發(fā)揮平臺企業(yè)對用戶的部署領(lǐng)域、輸入內(nèi)容和生成內(nèi)容等方面的倫理“準(zhǔn)監(jiān)管”作用,憑借其控制力對用戶違背社會倫理規(guī)則、監(jiān)管政策和平臺自制監(jiān)管規(guī)則的行為或結(jié)果等采取干預(yù)措施或自行裁罰等,在聯(lián)合企業(yè)體系中產(chǎn)生威懾力和警示性。

第二,發(fā)揮政府終極守門人作用,加快倫理監(jiān)管制度供給和監(jiān)管機構(gòu)設(shè)置步伐,創(chuàng)新監(jiān)管工具和方式。政府是大模型倫理監(jiān)管政策的主要供給主體,需逐步完善倫理監(jiān)管制度體系。為應(yīng)對大模型倫理失范對現(xiàn)行倫理監(jiān)管制度提出的挑戰(zhàn),應(yīng)提高制度的前瞻性、全局性、靈活性和適用性。一是提高倫理監(jiān)管制度的前瞻性。緊跟大模型技術(shù)發(fā)展前沿,政府所屬科研機構(gòu)應(yīng)加強對大模型倫理的相關(guān)研究,發(fā)揮其建言獻(xiàn)策的作用,力求以潛在倫理風(fēng)險為導(dǎo)向,提前布局倫理監(jiān)管制度建設(shè)。二是提高倫理監(jiān)管制度的全局性,力求覆蓋大模型關(guān)鍵要素及生命周期。以大模型為監(jiān)管對象,以關(guān)鍵要素為監(jiān)管核心,以生命周期為監(jiān)管跨度,改變數(shù)據(jù)、算法和服務(wù)提供者三者相分離的監(jiān)管局面,形成系統(tǒng)性的倫理監(jiān)管制度體系。三是提高倫理監(jiān)管制度的靈活性和適用性。以大模型應(yīng)用場景、風(fēng)險等級與倫理治理方式相匹配為原則,在“分領(lǐng)域監(jiān)管”理念的基礎(chǔ)上,引入“分場景監(jiān)管”理念,實行重點場景、高風(fēng)險等級重點監(jiān)管,實現(xiàn)倫理監(jiān)管制度制定的靈活性和適用性。其中,將法律法規(guī)等形式的硬性監(jiān)管制度布局于重點場景、高風(fēng)險領(lǐng)域,明確大模型關(guān)鍵要素和行為主體的倫理責(zé)任,劃出清晰的法律紅線和底線,提高制度約束的剛性。相反,對于非重點場景、低風(fēng)險領(lǐng)域,則主要布局意見和辦法等形式的軟性倫理監(jiān)管制度。

另外,政府應(yīng)設(shè)置相應(yīng)的大模型倫理監(jiān)管機構(gòu),并注重不同層級監(jiān)管機構(gòu)之間合作與交流機制的形成和優(yōu)化。一是設(shè)置雙層的倫理監(jiān)管機構(gòu)。考慮到單一制國家、復(fù)合制國家和聯(lián)盟等國家或聯(lián)合體結(jié)構(gòu)的差異,在中央(聯(lián)邦) 政府、聯(lián)盟總部層面設(shè)置一個綜合性大模型倫理監(jiān)管機構(gòu),以執(zhí)行倫理審計、審查、評估、調(diào)查、救濟和監(jiān)測倫理監(jiān)管制度的實施等相關(guān)監(jiān)管職能為主。其中,倫理審計是在現(xiàn)行“備案制”基礎(chǔ)上的延伸,是倫理監(jiān)管約束力增強的體現(xiàn)。在地方政府(州)、成員國層面設(shè)置相應(yīng)的倫理監(jiān)管機構(gòu),與上述倫理監(jiān)管機構(gòu)之間存在一定行政隸屬關(guān)系,職能配置上相似。二是形成或優(yōu)化雙層倫理監(jiān)管機構(gòu)的運行機制,核心為統(tǒng)一協(xié)調(diào)與合作交流,以保障倫理監(jiān)管制度的執(zhí)行、防范倫理失范的發(fā)生和相關(guān)倫理失范事件的處理等。此外,探索在監(jiān)管機構(gòu)內(nèi)部設(shè)置一名首席大模型倫理治理官,對該機構(gòu)的倫理監(jiān)管事宜進(jìn)行統(tǒng)籌和規(guī)劃,形成上下統(tǒng)一且專一的倫理監(jiān)管機構(gòu)體系。優(yōu)化大模型倫理監(jiān)管隊伍,創(chuàng)新監(jiān)管工具。大模型等生成式人工智能應(yīng)用屬于科技范疇,倫理監(jiān)管屬于社會科學(xué)范疇,大模型倫理監(jiān)管屬于兩者交叉領(lǐng)域,單純依靠其中一個學(xué)科領(lǐng)域的人員難以實現(xiàn)兼顧全面性和適用性的倫理監(jiān)管。因此,在大模型倫理監(jiān)管人才隊伍中應(yīng)吸納專業(yè)技術(shù)人員,包含實際操作技術(shù)人員和行業(yè)技術(shù)專家。此外,在監(jiān)管沙盒、工具包“A. I. Verify”等基礎(chǔ)上,政府仍需加快大模型倫理監(jiān)管工具的創(chuàng)新。

(三) 形成全球性合作治理網(wǎng)絡(luò)

大模型倫理治理是全球性治理難題,需加強全球及區(qū)域間倫理治理合作與交流,以全球性或區(qū)域性國際組織為引領(lǐng),以政府間合作與交流為重要形式,以制度建設(shè)和治理技術(shù)創(chuàng)新為具體表現(xiàn),同時,社會輿論體系應(yīng)把好倫理監(jiān)督關(guān),共同形成且織密全球性合作治理網(wǎng)絡(luò)。形成全球性合作治理網(wǎng)絡(luò),推進(jìn)大模型倫理治理“赤字”的綠化進(jìn)程。一是全球性國際組織對倫理治理網(wǎng)絡(luò)進(jìn)行整體性布局,多邊或雙邊等區(qū)域性國際組織進(jìn)行符合當(dāng)?shù)匦枨蟮牟季?,以倡議書、規(guī)范和標(biāo)準(zhǔn)等不具有強制性的制度為主。除制度建設(shè)外,充分發(fā)揮國際組織的號召力和組織協(xié)調(diào)能力,以大模型技術(shù)發(fā)展和倫理治理為主題開展研究和交流,為制定倫理治理制度等提供智力支持,增強不同國家和區(qū)域的合作與交流,且逐漸形成倫理治理合力等目標(biāo)。二是加強政府間及區(qū)域間倫理治理合作與交流。以訓(xùn)練數(shù)據(jù)、用戶數(shù)據(jù)和算法等大模型關(guān)鍵要素跨境流動、國際數(shù)字貿(mào)易等現(xiàn)實需求為抓手,以貿(mào)易合作、技術(shù)合作合同等為切入點,以增強數(shù)據(jù)安全、技術(shù)保密性等為短期目標(biāo),將大模型倫理治理相關(guān)內(nèi)容內(nèi)嵌其中,不斷推動倫理治理從雙邊互認(rèn)互信、多邊互認(rèn)互信至全球性互認(rèn)互信。三是創(chuàng)新倫理治理技術(shù),實現(xiàn)以技術(shù)治理技術(shù)。增強全球性和多邊性技術(shù)組織的創(chuàng)新能力,大模型底層支撐是人工智能技術(shù),模型黑箱、數(shù)據(jù)版權(quán)侵害等倫理失范現(xiàn)象的根源在于現(xiàn)行技術(shù)存在人類未解之謎或未涉足領(lǐng)域。首先,加強大模型技術(shù)自身的創(chuàng)新。聯(lián)合全球性、區(qū)域性或各國技術(shù)組織,以關(guān)鍵性算法、數(shù)據(jù)處理技術(shù)和隱私計算等為主要攻關(guān)領(lǐng)域,克服大模型生成內(nèi)容不確定性對社會倫理體系的沖擊。其次,在大模型技術(shù)中添加倫理訓(xùn)練和優(yōu)化部分,使大模型原生道德倫理體系和衍生道德倫理體系均與人類價值對齊。四是發(fā)揮社會輿論體系的倫理監(jiān)督作用。社會公眾是大模型應(yīng)用者,是受益者也是受損害者,是大模型倫理監(jiān)督最廣大的群體,是在倫理治理制度體系、治理機構(gòu)和治理技術(shù)等措施之外的有效補充,具有柔性化、靈活性、及時性和覆蓋面廣等特征。

六、總結(jié)與展望

大模型的問世將人工智能技術(shù)從專用性、單一模態(tài)演進(jìn)至通用性、多模態(tài),助力人類生產(chǎn)生活數(shù)字化和智能化轉(zhuǎn)型提速,與此同時引發(fā)倫理失范及治理難題。本文在對現(xiàn)有研究進(jìn)行梳理和分析基礎(chǔ)上,從生產(chǎn)力、生產(chǎn)工具相關(guān)理論對大模型屬性及倫理失范緣起進(jìn)行探究,發(fā)現(xiàn)作為生產(chǎn)力的大模型存在技術(shù)非中性,作為生產(chǎn)工具的大模型內(nèi)嵌人類倫理,生產(chǎn)力和生產(chǎn)工具雙重屬性的大模型將人類倫理與機器倫理糅合其中,大模型區(qū)別于傳統(tǒng)生產(chǎn)力和生產(chǎn)工具,其自身和生成內(nèi)容均內(nèi)嵌倫理。繼而從技術(shù)和生命周期角度對大模型倫理失范的關(guān)鍵要素進(jìn)行解構(gòu),發(fā)現(xiàn)大模型倫理失范的技術(shù)起點是算法,關(guān)鍵中介是數(shù)據(jù),行為主體是人類。針對大模型諸如模型黑箱、數(shù)據(jù)版權(quán)侵害且主體責(zé)任難確定、沖擊人類主體資格等倫理失范現(xiàn)象,對單要素和單環(huán)節(jié)、自上而下和以結(jié)果為導(dǎo)向的倫理治理模式提出挑戰(zhàn),以大模型生命周期為時間維度,以關(guān)鍵要素為核心,本文構(gòu)建了基于大模型關(guān)鍵要素的全生命周期倫理治理框架,以有效防范與治理大模型倫理失范。為推動大模型倫理治理新框架的有效運行,本文構(gòu)建了包含兩層行為主體的自我治理、兩級守門人和全球性合作治理網(wǎng)絡(luò)等子體系的倫理治理生態(tài)體系,加快大模型倫理治理“赤字”的綠化進(jìn)程。

綜合考慮大模型的技術(shù)演進(jìn)、倫理失范特征、倫理治理進(jìn)程等相關(guān)研究現(xiàn)狀,未來可在以下領(lǐng)域進(jìn)行深入研究:一是以大模型應(yīng)用場景為研究切入點,細(xì)化大模型應(yīng)用場景分類,針對不同應(yīng)用場景采取不同的倫理治理模式,實現(xiàn)大模型精細(xì)化治理、精準(zhǔn)化治理。二是從大模型技術(shù)創(chuàng)新、迭代更新的視角,以算法黑箱、模型黑箱等關(guān)鍵倫理問題為核心,從技術(shù)和理論兩個層面開展如何實現(xiàn)以算法治理算法、以模型治理模型等相關(guān)研究。三是從法律層面,針對大模型倫理失范中不同行為主體的責(zé)任歸屬、責(zé)任界定和處罰措施等,開展系統(tǒng)性研究。

參考文獻(xiàn):

[1] 張輝,劉鵬,姜鈞譯,等.ChatGPT:從技術(shù)創(chuàng)新到范式革命[J].科學(xué)學(xué)研究,2023,41(12):2113-2121.

[2] FOFFANO F, SCANTAMBURLO T, CORTES A.Investing in AI for social good: an analysis of European national strategies[J]. AI & society: the journal of human?centered systems and machine intelligence,2023,38(2):479-500.

[3] ROBERTE H,COWLS J,MORLEY J,et al.The Chinese approach to artificial intelligence: an analysis of policy,ethics, and regulation[J]. AI & society: the journal of human?centered systems and machine intelligence,2021,36

(1):59-77.

[4] 趙志耘,徐峰,高芳.關(guān)于人工智能倫理風(fēng)險的若干認(rèn)識[J].中國軟科學(xué),2021(6):1-12.

[5] 孫蒙鴿,韓濤,王燕鵬,等.GPT技術(shù)變革對基礎(chǔ)科學(xué)研究的影響分析[J].中國科學(xué)院院刊,2023(8):1212-1224.

[6] 張凌寒.生成式人工智能的法律定位與分層治理[J].當(dāng)代法學(xué),2023(7):126-141.

[7] 王鈺,唐要家.人工智能應(yīng)用如何影響企業(yè)創(chuàng)新寬度?[J].財經(jīng)問題研究,2024(2):38-50.

[8] FAWAZ Q.ChatGPT in scientific and academic research:future fears and reassurances[J].Library hi tech news,2023,40(3):30-32.

[9] 陳兵.促進(jìn)生成式人工智能規(guī)范發(fā)展的法治考量及實踐架構(gòu)——兼評《生成式人工智能服務(wù)管理暫行辦法》相關(guān)條款[J].中國應(yīng)用法學(xué),2023(4):108-125.

[10] WEI J,WANG X,SCHUURMANS D,et al.Chain?of?thought prompting elicits reasoning in large language models[EB/OL](. 2022-01-28)[2024-02-26].https://arxiv.org/abs/2201.11903.

[11] MCLENNAN S,F(xiàn)ISKE A,TIGARD D,et al. Embedded ethics: a proposal for integrating ethics into the development of medical AI[J]. BMC medical ethics,2022,23(1):1-10.

[12] JULES W,QUCHEN F,SAM H,et al.A prompt pattern catalog to enhance prompt engineering with ChatGPT[EB/OL].(2023-02-21)[2024-02-24].https://arxiv.org/pdf/2302.11382.pdf.

[13] 滕妍,王國豫,王迎春.通用模型的倫理與治理:挑戰(zhàn)及對策[J].中國科學(xué)院院刊,2022,37(9):1290-1299.

[14] 鄧悅,許弘楷,王詩菲.人工智能風(fēng)險治理:模式、工具與策略[J].改革,2024(1):144-158.

[15] 張欣.面向產(chǎn)業(yè)鏈的治理:人工智能生成內(nèi)容的技術(shù)機理與治理邏輯[J].行政法學(xué)研究,2023(6):43-60.

[16] 王沛然.從控制走向訓(xùn)導(dǎo):通用人工智能的“直覺”與治理路徑[J].東方法學(xué),2023(6):188-198.

[17] 徐偉.論生成式人工智能服務(wù)提供者的法律地位及其責(zé)任——以ChatGPT為例[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2023,41(4):69-80.

[18] 李石勇,卜傳丞.科技倫理治理中法治不能缺位[N].中國社會科學(xué)報,2022-06-14(2).

[19] 趙精武,王鑫,李大偉,等.ChatGPT:挑戰(zhàn)、發(fā)展與治理[J].北京航空航天大學(xué)學(xué)報(社會科學(xué)版),2023(3):188-192.

[20] LEANDRO M.Editorial:ChatGPT and the ethical aspects of artificial intelligence[J]. Revista de gest?o,2023,30(2):110-112.

[21] OZKAYA I.Application of large language models to software engineering tasks:opportunitier,risks,and implications[J]. IEEE software,2023,40(3):4-8.

[22] SOMEH I A,DAVERN M,BREIDBACH C F,et al.Ethical issues in big data analytics:a stake?holder perspective[J]. Communications of the association for information systems,2019,44(34):718-747.

[23] 續(xù)繼,王于鶴.數(shù)據(jù)治理體系的框架構(gòu)建與全球市場展望——基于“數(shù)據(jù)二十條”的數(shù)據(jù)治理路徑探索[J].經(jīng)濟學(xué)家,2024(1):25-35.

[24] 張欣.生成式人工智能的數(shù)據(jù)風(fēng)險與治理路徑[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2023,41(5):42-54.

[25] 丁曉東.論算法的法律規(guī)制[J].中國社會科學(xué),2020(12):138-159+203.

[26] 劉艷紅.生成式人工智能的三大安全風(fēng)險及法律規(guī)制——以ChatGPT為例[J].東方法學(xué),2023(4):29-43.

[27] 肖紅軍.算法責(zé)任:理論證成、全景畫像與治理范式[J].管理世界,2022,38(4):200-226.

[28] 蘇宇.算法規(guī)制的譜系[J].中國法學(xué),2020(3):165-184.

[29] 張凌寒.深度合成治理的邏輯更新與體系迭代——ChatGPT等生成型人工智能治理的中國路徑[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2023,41(3):38-51.

[30] 周文,許凌云.論新質(zhì)生產(chǎn)力:內(nèi)涵特征與重要著力點[J].改革,2023(10):1-13.

[31] 周文,何雨晴.新質(zhì)生產(chǎn)力:中國式現(xiàn)代化的新動能與新路徑[J].財經(jīng)問題研究,2024(4):3-15.

[32] ROBERT,K.Algorithm= Logic + Control[J]. Communications of the ACM,1979,22(7):424-436.

[33] 陳雄燊. 人工智能倫理風(fēng)險及其治理——基于算法審計制度的路徑[J]. 自然辯證法通訊,2023(10):138-141.

[34] 孫偉平.人工智能與人的“新異化”[J].中國社會科學(xué),2020(12):119-137.

[35] 楊雙彪.人工智能的倫理困境及其規(guī)避進(jìn)路——基于馬克思主義科技觀分析[J].理論觀察,2023(6):52-56.

[36] EDEN R,BURTON?JONES A,CASEY V,et al.Digital transformation requires workforce transformation[J]. MIS quarterly executive,2019,18(1):1-17.

[37] KIM E S.Deep learning and principal?agent problems of algorithmic governance:the new materialism perspective[J]. Technology in society,2020,63(11):101378.

[38] CRNKOVIC G D,?üRüKLü B.Robots:ethical by design[J]. Ethics and information technology,2012,14(1):61-71.

[39] MILLER K W.Moral responsibility for computing artifacts:the rules[J]. IT professional,2011,13(3):57-59.

[40] 孫保學(xué).人工智能算法倫理及其風(fēng)險[J].哲學(xué)動態(tài),2019(10):93-99.

[41] JUNAID Q.Toward accountable humancentered AI: rationale and promising directions[J]. Communication and ethics in society,2022,22(2):329-342.

[42] PEARL J.The seven tools of causal inference,with reflections on machine learning[J]. Communications of the ACM,2019,62(3):54-60.

[43] REST J R.Moral development,advances in research and theory[M]. New York:Prager,1986:23.

[44] 候利陽.論互聯(lián)網(wǎng)平臺的法律主體地位[J].中外法學(xué),2022,34(2):346-365.

[45] 解正山.約束數(shù)字守門人:超大型數(shù)字平臺加重義務(wù)研究[J].比較法研究,2023(4):166-184.

(責(zé)任編輯:尚培培)

日照市| 景泰县| 文化| 抚顺市| 惠来县| 青浦区| 松阳县| 陈巴尔虎旗| 进贤县| 姜堰市| 申扎县| 兴安县| 香港| 五大连池市| 昔阳县| 日照市| 保山市| 宜兰市| 张北县| 安泽县| 晋州市| 汉沽区| 喀什市| 江川县| 宁化县| 法库县| 新绛县| 清原| 彝良县| 徐州市| 柞水县| 闵行区| 封开县| 阳曲县| 依安县| 吴桥县| 武汉市| 商南县| 安顺市| 苍溪县| 咸宁市|