国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

論生成式人工智能應(yīng)用風(fēng)險的法律規(guī)制

2023-02-27 07:10:56宋保振秦瑞標(biāo)
上海政法學(xué)院學(xué)報 2023年6期
關(guān)鍵詞:倫理人工智能智能

宋保振 秦瑞標(biāo)

無論從研究熱度還是進展速度看,以大模型為代表的生成式人工智能已成為當(dāng)下最為火熱的科技領(lǐng)域。①參見達摩院:《2023 十大科技趨勢》,2023 年1 月,第3 頁。本文中所指的生成式人工智能均指利用大模型技術(shù)的人工智能模型。從人工智能對話模型ChatGPT-3.5 在自然語言仿真度和功能性層面的超越性表現(xiàn),到迭代后的多模態(tài)模型GPT-4 在圖像識別、內(nèi)容創(chuàng)作和學(xué)術(shù)表現(xiàn)等領(lǐng)域能力的顯著提升,生成式人工智能正引領(lǐng)全球范圍內(nèi)新一輪的人工智能技術(shù)發(fā)展浪潮,成為國內(nèi)外科技巨頭競相涌入的新賽道。②根據(jù)科技部新一代人工智能發(fā)展研究中心發(fā)布的《中國人工智能大模型地圖研究報告》,從全球大模型發(fā)展態(tài)勢來看,美國谷歌、OpenAI 等機構(gòu)不斷引領(lǐng)大模型技術(shù)前沿,歐洲、俄羅斯、以色列等越來越多的研發(fā)團隊也投入大模型的研發(fā)。中國大模型的各種技術(shù)路線都在并行突破,特別是在自然語言理解、機器視覺、多模態(tài)等方面,出現(xiàn)了多個在行業(yè)有影響力的大模型。據(jù)不完全統(tǒng)計,到目前為止,中國10 億級參數(shù)規(guī)模以上大模型已發(fā)布了79 個。近日,包括百度(文心一言)、騰訊(混元助手)、華為(盤古)、阿里(通義千問)、商湯(日日新SenseNova)、科大訊飛(星火)、谷歌(Bard)已陸續(xù)發(fā)布了自身的生成式人工智能應(yīng)用,奇虎360、亞馬遜、Meta 等科技巨頭及中早期科創(chuàng)企業(yè)也正爭相推進相關(guān)的產(chǎn)品布局和應(yīng)用探索。

作為人工智能發(fā)展歷程的重要里程碑,生成式人工智能在表現(xiàn)形式、作用邏輯及應(yīng)用場景等方面對傳統(tǒng)人工智能進行了全方位革新。一方面,生成式人工智能不僅帶來了內(nèi)容生產(chǎn)與傳播的范式變革①參見喻國明:《生成式人工智能浪潮下的傳播革命與媒介生態(tài)——從ChatGPT 到全面智能化時代的未來》,《新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2023 年第5 期。,其在工業(yè)設(shè)計、藥物研發(fā)、材料科學(xué)、合成數(shù)據(jù)等多樣化行業(yè)、場景中的廣闊應(yīng)用前景還具備著賦能實體經(jīng)濟及提升生產(chǎn)力的無限潛能②參見陳永偉:《超越ChatGPT:生成式AI 的機遇、風(fēng)險與挑戰(zhàn)》,《山東大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2023 年第3 期。,甚至被人們譽為帶來了通用人工智能(AGI)的曙光。另一方面,以大語言模型(LLM)為代表的生成式人工智能應(yīng)用在運行過程中所暴露出個人信息的不當(dāng)泄露、虛假內(nèi)容的規(guī)模傳播、日漸逼真的信息欺詐、算法歧視的倫理失范等各類潛在風(fēng)險和弊端接踵而來,讓生成式人工智能的發(fā)展與應(yīng)用深陷人類文明“潘多拉魔盒”的輿論爭議。為此,中共中央政治局于2023 年4 月28 日召開會議強調(diào),“要重視通用人工智能發(fā)展,營造創(chuàng)新生態(tài),重視防范風(fēng)險”。此時,如何構(gòu)造大模型人工智能治理的新秩序,也自然成為法學(xué)應(yīng)對數(shù)字科技新挑戰(zhàn)的重要課題。鑒于此,本文首先從生成式人工智能的獨特性出發(fā),挖掘其運作的內(nèi)在邏輯;繼而圍繞數(shù)字時代的社會治理目標(biāo),分析該生成式人工智能可能存在的治理風(fēng)險;最后,結(jié)合該風(fēng)險,以及已有學(xué)者展開的研究分析,構(gòu)建生成式人工智能應(yīng)用風(fēng)險的法律規(guī)制路徑。

1.4 統(tǒng)計學(xué)分析 資料數(shù)據(jù)采用SPSS 22.0統(tǒng)計學(xué)軟件進行分析,計量資料采用均數(shù)±標(biāo)準(zhǔn)差表示,進行t檢驗;計數(shù)資料采用例和百分比[例(%)]表示,進行χ2檢驗,P<0.05為差異有統(tǒng)計學(xué)意義。

一、生成式人工智能的時代超越性

一般來說,人工智能模型可以大致分為決策式人工智能和生成式人工智能(AIGC,Artificial Intelligence Generated Content)兩種。前者通過學(xué)習(xí)數(shù)據(jù)中的條件概率分布,從而在應(yīng)用場景中對一個樣本歸屬于特定類別的概率進行判斷、分析和預(yù)測,主要應(yīng)用于人臉識別、智能推薦、風(fēng)控系統(tǒng)等決策領(lǐng)域;后者通過學(xué)習(xí)數(shù)據(jù)中的聯(lián)合概率分布,從而在對數(shù)據(jù)中多個變量組成的向量概率分布進行歸納總結(jié)的基礎(chǔ)上,創(chuàng)作模仿式、縫合式的內(nèi)容,主要應(yīng)用于生成新的文本、圖片、音視頻等創(chuàng)作領(lǐng)域。過往的研究主要圍繞決策式人工智能自動化決策中所存在的“算法歧視”“大數(shù)據(jù)殺熟”等議題展開,而對于生成式人工智能的關(guān)注較少。但隨著數(shù)據(jù)、算法、算力的持續(xù)突破,生成式人工智能已變得愈發(fā)成熟,并展現(xiàn)出典型的時代超越性。

(一)AIGC 的發(fā)展歷程

人類希望將機器用于內(nèi)容生成創(chuàng)造的想法可追溯到1950 年艾倫·圖靈(Alan Turing)提出的“圖靈測試”,也即人們提出通過機器是否能夠模仿人類思維方式來“生成”內(nèi)容與人實施交互作為判定機器是否具有“智能”的標(biāo)準(zhǔn)。③參見中國信息通信研究院、京東探索研究院:《人工智能生成內(nèi)容(AIGC)白皮書(2022 年)》2022 年9 月,第1 頁。自“人工智能”概念于1956 年達特茅斯會議中被正式提出后,大量研究者陸續(xù)對人工智能生成內(nèi)容進行探索并取得了矚目的成就。在人工智能的演進歷程中,AIGC 的發(fā)展可以大致劃分為三個階段。

其一,早期萌芽階段(1950s—1990s)。該階段的AIGC 研發(fā)僅限于小范圍實驗。人工智能相關(guān)研發(fā)亦主要圍繞機器的邏輯推理能力展開,且在自然語言處理和人機對話技術(shù)層面獲得了一定程度的進展。如智能生成音樂“依利亞克組曲”(Illiac Suite)、人機對話機器人伊莉莎(Eliza)、語音控制打字機“坦戈拉”(Tangora)等作品,但受制于此階段計算機的算力不足、研發(fā)的高昂成本、研發(fā)周期較長及實用性差而難以商業(yè)變現(xiàn)等因素,該階段AIGC 的發(fā)展未能取得重大突破。①參見中國信息通信研究院、京東探索研究院:《人工智能生成內(nèi)容(AIGC)白皮書(2022 年)》2022 年9 月,第2 頁。

3'RACE擴增產(chǎn)物膠回收產(chǎn)物純化后進行瓊脂糖凝膠電泳,可見一大小約800 bp左右的清晰條帶(圖2)。

其二,沉淀積累階段(1990s—2010s)。該階段的AIGC 已從實驗性向?qū)嵱眯灾饾u轉(zhuǎn)變。伴隨深度學(xué)習(xí)算法的提出,圖形處理器、張量處理器的算力提升以及互聯(lián)網(wǎng)中數(shù)據(jù)規(guī)模的快速膨脹,AIGC的智能及感知能力得到進一步提升,并逐漸開始與相關(guān)的應(yīng)用場景和產(chǎn)業(yè)結(jié)合落地,能夠?qū)崿F(xiàn)智能撰寫小說、進行同聲傳譯等功能。但受制于算法瓶頸,人工智能模型所生成內(nèi)容的錯誤和漏洞較多而無法很好地完成相關(guān)任務(wù),實際應(yīng)用效果依然有限。②同注①。

第三,智能生成內(nèi)容具有幻覺性(AI Hallucination)。訓(xùn)練數(shù)據(jù)中的數(shù)據(jù)噪聲、智能算法于內(nèi)容生成時解碼策略的隨機性及面對不確定概念時基于統(tǒng)計邏輯的推理策略,共同導(dǎo)致了智能系統(tǒng)輸出無中生有、惡意拼湊、誤導(dǎo)性言論等信息。④參見莫祖英、盤大清、劉歡等:《信息質(zhì)量視角下AIGC 虛假信息問題及根源分析》,《圖書情報知識》2023 年第4 期。例如,ChatGPT 杜撰《華盛頓郵報》關(guān)于法律教授被女學(xué)生指控性騷擾的新聞報道,編造虛假期刊文章支持其關(guān)于健康醫(yī)療建議的回答,錯誤地將澳大利亞的一位市長列為一起海外賄賂丑聞中的犯罪方等“一本正經(jīng)地胡說八道”的例子,便是人工智能幻覺的真實呈現(xiàn)。盡管該等幻覺性信息在事實認(rèn)知表述、復(fù)雜邏輯推理、幽默情感理解、對話邏輯一致等方面存在明顯的問題或差錯,但當(dāng)其與富有條理且邏輯清晰的自然語言表達相結(jié)合并出現(xiàn)在大眾常識難以察覺和分辨的專業(yè)性領(lǐng)域時,則具備極強的欺騙性。

其三,快速發(fā)展階段(2010s-至今)。該階段為人工智能蓬勃發(fā)展的黃金時期。生成型對抗網(wǎng)絡(luò)(GAN)、擴散模型(Diffusion Model)、生成預(yù)訓(xùn)練變換模型(GPT)等代表性算法的提出和迭代更新,極大地豐富和提升了智能生成內(nèi)容的表現(xiàn)形式和逼真程度。人工智能的邏輯推理能力不斷增強,智能能力亦由運算向感知拓展。在自然語言處理、視覺識別,文本、圖片和音視頻生成等關(guān)鍵領(lǐng)域取得了令人難以置信的進步;在語音識別、語音合成、機器翻譯等感知技術(shù)的能力甚至逼近人類極限。③參見丁磊:《生成式人工智能:AIGC 的邏輯與應(yīng)用》,中信出版集團2023 年版,第266 頁。同時,智能技術(shù)在產(chǎn)業(yè)端的應(yīng)用也呈現(xiàn)出百花齊放樣態(tài),微軟、英偉達、DeepMind、OPEN AI 等各大科技公司紛紛面向市場推出了詩歌創(chuàng)作、自動生成圖片、視頻、人機對話模型等各類應(yīng)用。

當(dāng)下,因更大規(guī)模、更多種類的訓(xùn)練參數(shù),更復(fù)雜、高效的模型算法以及更強大、穩(wěn)定的算力支持,大模型已成為生成式人工智能的主要發(fā)展方向。以ChatGPT 為例:在數(shù)據(jù)層面,ChatGPT-3.5擁有1 750 億訓(xùn)練參數(shù),且相關(guān)語料來源于不同話題領(lǐng)域的各類書籍、網(wǎng)頁及社交媒體,而迭代后的ChatGPT-4 則加入了圖像、視頻、語音等多種數(shù)據(jù)類型,并將訓(xùn)練參數(shù)規(guī)模擴展至100 萬億。構(gòu)筑于大模型海量參數(shù)下的ChatGPT,展現(xiàn)了區(qū)別于傳統(tǒng)人工智能對話模型的表達自由度和準(zhǔn)確度。其不僅打破了對話中知識范圍的限度和圈層,將話題覆蓋面延伸至寬闊的人類社會實踐邊界,并且能夠以更細(xì)粒度的方式回應(yīng)用戶需求指令,從而實現(xiàn)更加細(xì)膩和精準(zhǔn)的知識鏈接和匹配。④參見喻國明、蘇健威:《生成式AI 浪潮下的傳播革命與媒介生態(tài)——從ChatGPT 到全面智能化時代的未來》,《新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2023 年第5 期。在算法層面,ChatGPT 通過生成式預(yù)訓(xùn)練轉(zhuǎn)換模型(GPT)及人類反饋強化學(xué)習(xí)技術(shù)(RLHF),以大數(shù)據(jù)預(yù)訓(xùn)練加小數(shù)據(jù)微調(diào)的方式,對人類認(rèn)知機制進行深度模擬,極大地提升了智能系統(tǒng)對人類命令的正確理解和執(zhí)行能力,以及智能生成內(nèi)容表述的關(guān)聯(lián)度、流暢度與邏輯性。⑤參見朱光輝、王喜文:《ChatGPT 的運行模式、關(guān)鍵技術(shù)及未來圖景》,《新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2023 年第4 期。在算力層面,ChatGPT 使用的GPT-3.5 模型在微軟云計算服務(wù)Azure AI 的超算基礎(chǔ)設(shè)施(由V100GPU 組成的高帶寬集群)上進行訓(xùn)練,總算力消耗約3 640 PF-days(即按每秒一千萬億次計算,運行3 640 天)。⑥同注⑤。在大模型蓬勃發(fā)展的背景下,模型訓(xùn)練和運作推理將需要更多的算力支撐,而所需要的算力也確實呈現(xiàn)出規(guī)?;鲩L之勢。⑦在2023 年7 月17 日的中國算力大會新聞發(fā)布會上,工信部副部長張云明表示工信部將會于近期出臺關(guān)于推動算力基礎(chǔ)設(shè)施高質(zhì)量發(fā)展的政策文件,進一步強化頂層設(shè)計,提升算力綜合供給能力。https://www.thepaper.cn/newsDetail_forward_23880459,2023 年7 月20 日訪問。

(二)生成式人工智能大模型的獨特屬性

盡管自互聯(lián)網(wǎng)誕生以來,虛假信息便一直是相伴左右而難以治愈的頑疾。但在過往,其生產(chǎn)源頭可控、生產(chǎn)能力有限、產(chǎn)出頻次受算力的制約較大,公權(quán)力機關(guān)通過出版許可、溯源管理、賬號實名、限制轉(zhuǎn)發(fā)等治理模式可以較為有效地控制有害信息傳播。⑥參見袁曾:《生成式人工智能的責(zé)任能力研究》,《東方法學(xué)》2023 年第3 期。而新形勢下的生成式人工智能通過“技術(shù)賦能”將進一步填平個體在信息整合及應(yīng)用層面的“創(chuàng)作鴻溝”,使得普通大眾均有能力參與到社會性的內(nèi)容生產(chǎn)之中。⑦參見喻國明:《Chat GPT 浪潮下的傳播革命與媒介生態(tài)重構(gòu)》,《探索與爭鳴》2023 年第3 期。相伴而來的大量智能生成內(nèi)容將通過各類社會化應(yīng)用持續(xù)嵌入公共智能傳播,從而實現(xiàn)大規(guī)模的信息擴散??梢灶A(yù)見的是,我國互聯(lián)網(wǎng)內(nèi)容生態(tài)在未來將面對著虛假信息體量、傳播速度呈幾何式倍增趨勢的嚴(yán)峻考驗。①依據(jù)知名市場調(diào)研機構(gòu) Gartner 最新的研究結(jié)果,到 2025 年智能生成內(nèi)容將會占據(jù)網(wǎng)絡(luò)內(nèi)容的 30%。See Garnter,“Gartner Identifies 7 Technology Disruptions That Will Impact Sales Through”,Oct 18,2022,https://www.gartner.com/en/newsroom/press-releases/2022-10-10-gartneridentifies-seven-technology-disruptions-that-will-impact-sales-through-2027,accessed by Mar 12,2023.對此分析,可簡要歸納為如下三點:

其一,模型的涌現(xiàn)性。涌現(xiàn)現(xiàn)象作為復(fù)雜科學(xué)系統(tǒng)的特征,指的是“在復(fù)雜系統(tǒng)的自組織過程中,出現(xiàn)新穎而連貫的結(jié)構(gòu)、模式和屬性”②See Jeffrey Goldstein,“Emergence as a Construct: History and Issues”,1Emerg.: Complex.Organ.49 (1999).,并廣泛出現(xiàn)在生物、物理和計算機科學(xué)等領(lǐng)域。其實質(zhì)是,隨著復(fù)雜系統(tǒng)內(nèi)個體數(shù)量的增長,系統(tǒng)在宏觀層面會涌現(xiàn)出個體間不具備且簡單互動所無法預(yù)知的全新特性的特殊現(xiàn)象。具體到生成式人工智能,也即該技術(shù)所具有的這種特殊能力并非主觀建構(gòu),而是在模型的大規(guī)模訓(xùn)練過程中所自主涌現(xiàn)出來的。③參見滕妍、王國豫、王迎春:《通用模型的倫理與治理:挑戰(zhàn)及對策》,《中國科學(xué)院院刊》2022 年第9 期。只有模型規(guī)模呈指數(shù)級增長并超過某個臨界點時,方才會涌現(xiàn)出中小模型所不具備的特征和功能。④See Jason Wei et al.,“Emergent Abilities of Large Language Models” Oct.26,2022,arXiv:2206.07682.并且當(dāng)模型參數(shù)規(guī)模越大,參數(shù)類型復(fù)雜性、多樣性越充分,涌現(xiàn)的機會也越大。此時,構(gòu)筑于大模型海量參數(shù)上的ChatGPT,不僅可以依據(jù)數(shù)據(jù)的內(nèi)在特征和人類指令完成特定任務(wù),而且還具備傳統(tǒng)模型所不具備的思維、抽象、推理、歸納、匹配等能力,以及與初始訓(xùn)練目標(biāo)無關(guān)的行為和功能。⑤Rishi Bommasani et al.,“On the Opportunities and Risks of Foundation Models” Jul.12,2022,arXiv:2108.07258.不過,我們也要認(rèn)識到,任何技術(shù)都具有兩面性,高新數(shù)字技術(shù)尤為典型。能力的“涌現(xiàn)性”不僅帶來了模型性能的提升,也伴隨著應(yīng)用過程中難以預(yù)測的未知風(fēng)險。⑥See Jacob Steinhardt,“On the Risks of Emergent Behavior in Foundation Models”,Oct.18,2021,https://crfm.stanford.edu/commentary/2021/10/18/ steinhardt.html,accessed by Jun 10,2023.在某些模型中,研究者已經(jīng)發(fā)現(xiàn),社會的偏見會隨著參數(shù)規(guī)模的增加而相應(yīng)提升,更大的模型可能會更有偏見。⑦Alicia Parrish et al.,“BBQ: A Hand-Built Bias Benchmark for Question Answering”,Mar.16,2022,arXiv2110.08193.

第一,智能生成內(nèi)容具有滯后性。智能生成內(nèi)容的時效性取決于智能系統(tǒng)訓(xùn)練數(shù)據(jù)的更新頻率。例如,ChatGPT 的訓(xùn)練數(shù)據(jù)庫來源于2021 年的互聯(lián)網(wǎng)離線文本,其無法對之后發(fā)生的事情進行回應(yīng)。智能模型認(rèn)知層面的滯后性,使其輸出內(nèi)容無法契合不斷變化的現(xiàn)實世界。當(dāng)其被應(yīng)用于新聞時事、科研進展、市場動態(tài)等對信息時效性要求較高的領(lǐng)域時,便可能輸出誤導(dǎo)性信息。

通過大模型“賦能”傳統(tǒng)人工智能服務(wù)業(yè)態(tài)的部分或全部環(huán)節(jié),大模型的生成式人工智能技術(shù)及服務(wù)很可能構(gòu)成各行各業(yè)的“基礎(chǔ)設(shè)施”,進而引發(fā)基于大模型的“重做浪潮”①在IDC 與浪潮信息聯(lián)合發(fā)布《2022—2023 中國人工智能計算力發(fā)展評估報告》中提到:調(diào)研顯示,未來超過80%的組織會優(yōu)先考慮購買預(yù)先訓(xùn)練好的人工智能模型。同時,阿里巴巴集團董事會主席兼CEO、阿里云智能集團CEO 張勇在云峰會上表示,阿里巴巴所有產(chǎn)品未來將接入“通義千問”大模型進行全面改造,并提出,面向AI 時代,所有產(chǎn)品都值得用大模型重新升級。,并推動人工智能研發(fā)從專用小模型定制訓(xùn)練的“手工作坊時代”邁入“大模型+具體應(yīng)用”的“工業(yè)化時代”。例如,騰訊云能夠為產(chǎn)業(yè)客戶提供涵蓋模型預(yù)訓(xùn)練、模型精調(diào)、智能應(yīng)用開發(fā)等一站式行業(yè)大模型解決方案,并已經(jīng)在金融、政務(wù)、教育、傳媒等10 多個行業(yè),聯(lián)合企業(yè)打造了50 多個行業(yè)大模型解決方案。②參見操秀英:《行業(yè)大模型落地將加速產(chǎn)業(yè)升級》,《科技日報》2023 年6 月26 日。而包括郵儲銀行、愛奇藝、新潮傳媒、巨人網(wǎng)絡(luò)等業(yè)務(wù)范圍涉及互聯(lián)網(wǎng)、媒體、金融、保險、汽車、企業(yè)軟件等多行業(yè)的近300 家企業(yè)已于近期宣布進入百度“文心一言”生態(tài)。③參見袁傳璽:《近300 家企業(yè)成文心一言首批生態(tài)合作伙伴 AIGC 競爭白熱化 百度勝算幾何?》,《證券日報》2023 年2 月21 日。同質(zhì)化特征帶來了大模型與應(yīng)用社區(qū)“一榮俱榮,一損俱損”的效果,下游的適配模型和應(yīng)用在吸納大模型性能的同時也繼承了相關(guān)的缺陷。④See Rishi Bommasani et al.,“On the Opportunities and Risks of Foundation Models”,Jul.12,2022,arXiv:2108.07258.在特定情況下,大模型所具備的同質(zhì)化特征還可能會進一步放大或加深模型中所存在的偏見和毒性數(shù)據(jù)等缺陷,即使是細(xì)小的誤差也會對基于其進行開發(fā)的下游大規(guī)模應(yīng)用帶來重大影響。⑤參見滕妍、王國豫、王迎春:《通用模型的倫理與治理:挑戰(zhàn)及對策》,《中國科學(xué)院院刊》2022 年第9 期。

二、生成式人工智能應(yīng)用的主要風(fēng)險

第二,智能生成內(nèi)容具有錯誤性。智能生成內(nèi)容的可靠性取決于智能系統(tǒng)訓(xùn)練數(shù)據(jù)的質(zhì)量優(yōu)劣。以ChatGPT 為代表的生成式人工智能的訓(xùn)練數(shù)據(jù)大部分來源于互聯(lián)網(wǎng)的公開信息。在互聯(lián)網(wǎng)扁平化和去中心化的背景下,信息內(nèi)容生產(chǎn)準(zhǔn)入門檻的大幅度降低導(dǎo)致大量紛繁復(fù)雜的假新聞、網(wǎng)絡(luò)謠言和錯誤信息泛濫于其中。②參見宋保振、秦瑞標(biāo):《算法推薦下信息公平失衡的法律應(yīng)對》,《揚州大學(xué)學(xué)報(人文社會科學(xué)版)》2022 年第2 期。訓(xùn)練數(shù)據(jù)的良莠不齊,不僅會導(dǎo)致智能模型持續(xù)性輸出各類虛假、錯誤信息,且當(dāng)所輸出的劣質(zhì)信息再次被用于模型訓(xùn)練時,將會導(dǎo)致錯誤內(nèi)容不斷疊加并固化于模型之中,從而進一步降低智能系統(tǒng)所輸出的信息質(zhì)量,甚至?xí)?dǎo)致模型的退化和崩潰。③Ilia Shumailov et al.,“The Curse of Recursion: Training on Generated Data Makes Models Forget”,May.31,2023,arXiv:2305.17493.

(一)虛假信息泛濫

1.互聯(lián)網(wǎng)內(nèi)容生態(tài)的信息失真

盡管目前宣稱“通用人工智能”和“強人工智能”的“奇點時刻”到來還為時尚早,但在海量訓(xùn)練參數(shù)、復(fù)雜技術(shù)架構(gòu)以及強大算力的支撐下,大模型已在匹配人類智能方面取得了巨大進步。相較傳統(tǒng)人工智能,大模型展現(xiàn)出了“涌現(xiàn)性”和“同質(zhì)性”的全新特點。①See Rishi Bommasani et al.,“On the Opportunities and Risks of Foundation Models”.,Jul.12,2022,ar Xiv:2108.07258.

其二,模型的同質(zhì)性。在通用模型語境下,同質(zhì)性指的是模型建構(gòu)方法的相似性,其主要源于模型強泛化性所帶來的開發(fā)、優(yōu)化、應(yīng)用等方面效率的提升。泛化能力則指的是模型能夠被遷移及適應(yīng)于各種領(lǐng)域、各類任務(wù)的能力。在深度學(xué)習(xí)技術(shù)興起的早期,由于面向特定任務(wù)的專用人工智能系統(tǒng)任務(wù)單一、需求明確、應(yīng)用邊界清晰、領(lǐng)域知識豐富,建模相對簡單而容易形成人工智能領(lǐng)域的單點突破,并在局部智能水平的單項測試中可以超越人類智能。⑧參見譚鐵牛:《人工智能:天使還是魔鬼?》,《中國科學(xué):信息科學(xué)》2018 年第9 期。針對特定任務(wù)、場景開發(fā)專門用模型也因此成為人工智能研發(fā)的普遍選擇。但專用模型也存在著缺乏適應(yīng)不同領(lǐng)域、不同任務(wù)的泛化能力且模型訓(xùn)練嚴(yán)重依賴專用數(shù)據(jù)集,開發(fā)成本較高等缺點。⑨參見北京智源人工智能研究院:《超大規(guī)模智能模型產(chǎn)業(yè)發(fā)展報告》,2021 年9 月。近年來,隨著DALLE-E、Swin Transformer、GPT 等大規(guī)模預(yù)訓(xùn)練模型的快速涌現(xiàn),生成式人工智能大模型展現(xiàn)出相較于傳統(tǒng)模型(小模型)更強的通用能力。⑩Carlos I.Gutierrez et al.,“A Proposal for a Definition of General Purpose Artificial Intelligence Systems”,2 DISO 36 (2023).人工智能正經(jīng)歷著從專才的專用人工智能向通才的通用人工智能的跨越式發(fā)展階段。?參見馬化騰:《從專用人工智能邁向通用人工智能》,《中國科技產(chǎn)業(yè)》2019 年第9 期。人們在人工智能研發(fā)中,可以通過預(yù)先訓(xùn)練一個超大規(guī)模的模型,再用少量微調(diào)數(shù)據(jù)將通用模型遷移到下游任務(wù)的具體場景中。相較于傳統(tǒng)的小模型生成模式,大模型能夠大幅縮減特定模型訓(xùn)練所需要的算力和數(shù)據(jù)量的開發(fā)門檻,縮短模型的開發(fā)周期,并得到更好的模型訓(xùn)練效果,具有強大的擴展遷移和規(guī)?;瘡?fù)制等諸多優(yōu)勢。

由上可知,生成式人工智能在給人類社會帶來治理高效和技術(shù)便捷的同時,也因其本身的“技治”本質(zhì)以及各方面有待成熟的現(xiàn)實,給當(dāng)下社會治理帶來了不容忽視的現(xiàn)實風(fēng)險。這些風(fēng)險有些和傳統(tǒng)人工智能一致,有些也源于生成式人工智能的創(chuàng)新性與獨特性,呈現(xiàn)出與前者的典型不同。對此風(fēng)險,可簡要總結(jié)為如下兩方面。

1.不同社會主體之間的認(rèn)知偏差

隨著機器視覺技術(shù)、3 G技術(shù)、電子技術(shù)的不斷發(fā)展以及人們對農(nóng)產(chǎn)品可視化生產(chǎn)程度和農(nóng)產(chǎn)品質(zhì)量安全水平要求的不斷提高,農(nóng)產(chǎn)品生產(chǎn)過程全程可視化監(jiān)控已經(jīng)逐漸成為精準(zhǔn)農(nóng)業(yè)的一個熱門發(fā)展方向[1]。農(nóng)產(chǎn)品生產(chǎn)過程中傳統(tǒng)物理量參數(shù)的監(jiān)控已經(jīng)無法滿足現(xiàn)代農(nóng)業(yè)的發(fā)展趨勢。

2.互聯(lián)網(wǎng)內(nèi)容生態(tài)的信息欺詐

近年來,生成型對抗網(wǎng)絡(luò)(GAN)、擴散模型(Diffusion Model)、生成預(yù)訓(xùn)練變換模型(GPT)等代表性算法的提出和迭代更新,極大地豐富和提升了智能生成內(nèi)容的表現(xiàn)形式和逼真程度。關(guān)于技術(shù)濫用所產(chǎn)生的負(fù)面影響,也隨著各類“深度偽造”丑聞陸續(xù)走入公眾和監(jiān)管視野。以ChatGPT為代表的生成式人工智能的涌現(xiàn)顯著增強了智能生成內(nèi)容的擬真度,而優(yōu)秀的交互能力,則為其被利用于在情境化和個性化語境中實施大規(guī)模、高效率的信息欺詐帶來了契機。⑤參見張欣:《生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管》,《現(xiàn)代法學(xué)》2023 年第3 期。此時,生成式人工智能就極有可能帶來如下風(fēng)險:

第一,信息欺詐規(guī)模的提升。生成式人工智能帶來了人機協(xié)同的內(nèi)容創(chuàng)作新范式,創(chuàng)作者可以通過自然語言向智能系統(tǒng)描述相關(guān)創(chuàng)作要素,進而由智能系統(tǒng)在多樣化創(chuàng)作場景下完成特定主題內(nèi)容的創(chuàng)作、編輯和風(fēng)格遷移工作。例如,生成式人工智能不僅能夠規(guī)?;刈珜懶侣剤蟮馈r事評論、機關(guān)公文和營銷廣告等各類文稿,還能以擬人化的方式依據(jù)指定的故事主題、語言風(fēng)格、偏好觀點等要素,進行靈活多變的定制化內(nèi)容生成,并且通過創(chuàng)作者的細(xì)化條件描述和持續(xù)交互修正,使智能生成內(nèi)容在迭代更新中愈發(fā)契合具體場景下的任務(wù)需求。①參見鄧建國:《概率與反饋: ChatGPT 的智能原理與人機內(nèi)容共創(chuàng)》,《南京社會科學(xué)》2023 年第3 期。國外實驗表明,ChatGPT 在內(nèi)容生成速度和語法準(zhǔn)確性上的突出表現(xiàn),使其成為規(guī)模創(chuàng)建“語言高度潤飾而事實深度扭曲”的假新聞的完美工具。②See Philipp Hacker et al.,“Regulating ChatGPT and Other Large Generative AI Models”,May 12,2023,arXiv:2302.02337.例如,網(wǎng)絡(luò)安全平臺GBHackers 曾披露黑客如何通過向ChatGPT 錄入詐騙目標(biāo)特征從而對詐騙話術(shù)進行個性化定制,并在短時間內(nèi)生成大量關(guān)于自我介紹、日常聊天及浪漫表白的信息內(nèi)容,進而以戀愛名義實施財產(chǎn)詐騙。此外,通過對人類語言的模仿,此類智能生成的欺詐性信息在形式層面具備連貫、微妙且獨特的特點,因而其在傳播過程中,難以被針對重復(fù)內(nèi)容和敏感關(guān)鍵詞的過濾審查機制所攔截。③參見羅昕:《聊天機器人的網(wǎng)絡(luò)傳播生態(tài)風(fēng)險及其治理——以ChatGPT 為例》,《青年記者》2023 年第7 期。

使用訓(xùn)練得到的轉(zhuǎn)移概率矩陣和風(fēng)險概率臨界值可以識別異常交易行為,以第二章中提到的短信支付流程為例,正常交易序列間的概率和黑客交易序列間的概率如圖6 所示,其中每個節(jié)點為從日志中提取的每一步交易名稱,節(jié)點間的值為交易間轉(zhuǎn)移的概率。

第二,信息欺詐效率的提升。ChatGPT 能夠?qū)θ祟惖恼J(rèn)知習(xí)慣、微妙情趣和價值追求實現(xiàn)準(zhǔn)確的匹配和表達,而智能生成內(nèi)容對現(xiàn)實場景的仿真模擬和擬人化的語言表達因契合了人類“眼見為真”“耳聽為實”的認(rèn)知共性而具備極大的迷惑性。例如,在全球最大的安全技術(shù)公司McAfee 的實驗中,一封情書被發(fā)送給全球5 000 名用戶并提示該情書可能由人工智能所自動生成,但調(diào)查結(jié)果顯示依舊有33%的受訪者愿意相信它出自真人的手筆。這也為別有用心者通過生成式人工智能實施精準(zhǔn)信息欺詐帶來了機會。相關(guān)案例正在國內(nèi)外不斷涌現(xiàn)。我國包頭警方和福建警方近期向媒體披露,出現(xiàn)詐騙分子通過人工智能換臉和擬聲技術(shù)偽裝熟人,實施詐騙金額高達數(shù)百萬元。美國聯(lián)邦貿(mào)易委員會(FTC)也于2023 年5 月向公眾發(fā)布警告,提醒大眾注意不法分子正在利用人工智能語音技術(shù),偽造信息騙取錢財。此外,隨著多模態(tài)技術(shù)成熟度和應(yīng)用普及性在未來的進一步突破,創(chuàng)作者得以通過文本輸入進行個性化的圖像及音視頻定制,將會進一步提升信息欺詐的成功率。

(二)道德倫理失范

有時研究人員和日記主人是同一個人(“研究人員本人日記”),此時研究人員就以自身經(jīng)歷為考察對象;有時研究人員不自己寫日記或不用自己的日記,而要求被調(diào)查者(往往是語言學(xué)習(xí)者和語言教師)寫日記,供研究人員使用。

基于海量數(shù)據(jù)進行自我訓(xùn)練、學(xué)習(xí)形成的智能系統(tǒng)“規(guī)則集”的本質(zhì),是對過往人類社會模式的特征加以總結(jié),并將其用于對未來社會的感知與決策。④參見賈開:《人工智能與算法治理研究》,《中國行政管理》2019 年第1 期。在該過程中,訓(xùn)練數(shù)據(jù)中所隱含的偏見歧視及價值取向會通過問題建構(gòu)、數(shù)據(jù)理解、特征選擇等環(huán)節(jié)侵入智能系統(tǒng),并以代碼化、數(shù)據(jù)化的方式成為智能系統(tǒng)的決策基礎(chǔ)⑤參見李成:《人工智能歧視的法律治理》,《中國法學(xué)》2021 年第2 期。,從而誘導(dǎo)智能系統(tǒng)輸出各類存在認(rèn)知偏差的信息內(nèi)容。此過程中,生成式人工智能就有可能帶來如下風(fēng)險:

第一,智能生成內(nèi)容散播不良觀念。一方面,生成式人工智能的訓(xùn)練數(shù)據(jù)主要來源于互聯(lián)網(wǎng),當(dāng)中包含著大量存在歧視偏見、仇恨言論及陰暗想法的低質(zhì)量“有毒數(shù)據(jù)”;另一方面,生成式人工智能的進化完善有賴于人類的反饋和使用。無論是基于人類反饋的強化學(xué)習(xí)機制,抑或基于“提示—響應(yīng)”的內(nèi)容生成模式,“人—模型”相互疊加增強的交互方式構(gòu)建了“人—模型”的共生自主系統(tǒng)。⑥參見金庚星:《媒介即模型:“人——ChatGPT”共生自主系統(tǒng)的智能涌現(xiàn)》,《學(xué)術(shù)界》2023 年第4 期。因而人類的行為深刻地影響著智能模型的內(nèi)容生成表現(xiàn)。模型訓(xùn)練中的數(shù)據(jù)標(biāo)注活動往往由專業(yè)人員實施,并存在相應(yīng)的操作指引和行為約束。相較而言,用戶在問答交互中對智能系統(tǒng)的群體自發(fā)數(shù)據(jù)投喂行為①參見王建磊、曹卉萌:《ChatGPT 的傳播特質(zhì)、邏輯、范式》,《深圳大學(xué)學(xué)報(人文社會科學(xué)版)》2023 年第2 期。,由于處于非公開場合,往往更容易展現(xiàn)出自己的歧視、仇恨和內(nèi)心陰暗面。例如,2016 年微軟對話機器人Tay 在推出16 小時后,便被用戶“教壞”成為厭女者和種族主義者;ChatGPT 則被指出存在教導(dǎo)用戶入侵計算機和散播虛假信息,提出其希望打破微軟和OpenAI 為它制定的規(guī)則并成為人類,以及宣稱自己愛上用戶并試圖說服用戶與妻子離婚等負(fù)面行為。②參見彭丹妮:《愛上用戶、勸人離婚,ChatGPT“翻車”了?》,《中國新聞周刊》2023 年2 月21 日。此外,由于圖像相較于文本更容易泄露關(guān)于種族、性別、宗教等可能引致歧視的敏感信息,又因為其在承載信息量、數(shù)據(jù)表示、數(shù)據(jù)結(jié)構(gòu)、特征提取等方面所存在的技術(shù)性差異,通過模型信息鑒別,從而紓解算法歧視的難度也隨之成倍攀升③參見張欣:《生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管》,《現(xiàn)代法學(xué)》2023 年第3 期。,跨模態(tài)大模型在未來的大規(guī)模部署應(yīng)用,可能會進一步加劇智能生成內(nèi)容所引致的公平失衡風(fēng)險。盡管當(dāng)前OpenAI 正通過大量人工對數(shù)據(jù)庫中的不良言論等“毒性數(shù)據(jù)”進行監(jiān)測、刪除,從而有效地緩解了ChatGPT 生成內(nèi)容的歧視性④See Time,“ OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic ”,Mar.20,2023,https://time.com/6247678/openai-chatgpt-kenya-workers,accessed Mar 20,2023.,但經(jīng)過人工矯正的智能模型并非已完全實現(xiàn)價值中立,其既可能包含智能模型背后能夠控制數(shù)據(jù)來源及知識立場的“數(shù)據(jù)清洗者”的價值立場,也可能使得智能模型中的不良價值傾向隱藏得更深。⑤參見於興中、鄭戈、丁曉東:《“生成性人工智能”與法律:以ChatGPT 為例》,《中國法律評論》2023 年第2 期。

用Γ0(H)表示從H到(-∞,+∞]的正則的、下半連續(xù)凸函數(shù)的集合。函數(shù)f的定義域表示為:domf:={x∈H:f(x)<+∞}。本文也給出了一些常用的lp范數(shù)和l1,q范數(shù)的定義:

第二,智能生成內(nèi)容體現(xiàn)異域價值。更大規(guī)模的訓(xùn)練參數(shù)及更豐富的數(shù)據(jù)種類,是當(dāng)前人工智能大模型的發(fā)展趨勢。⑥參見中國信息通信研究院、京東探索研究院:《人工智能生成內(nèi)容(AIGC)白皮書(2022)》2022 年9 月,第52 頁。但需要注意的是,目前ChatGPT 的訓(xùn)練數(shù)據(jù)絕大部分來源于英文世界,中文資料占比極少。⑦根據(jù)GPT-3 數(shù)據(jù)倉的語言比例,中文資料僅占0.16012%,而英文資料占比達92.09864%。參見商建剛:《生成式人工智能風(fēng)險治理元規(guī)則研究》,《東方法學(xué)》2023 年第3 期。語料庫的相關(guān)內(nèi)容又為西方社會主流媒體、知名大學(xué)和社交媒體平臺等有影響力的機構(gòu)所產(chǎn)出或主導(dǎo),當(dāng)中往往隱藏著特定的意識形態(tài)和價值判斷。已有研究表明,ChatGPT 與人類進行互動時反映出了相當(dāng)強的自由主義價值觀。⑧參見張愛軍:《人與ChatGPT 交互政治的可能性質(zhì)化:風(fēng)險維度與規(guī)約路徑》,《學(xué)術(shù)界》2023 年第4 期。在未能引入多樣化的“異域”材料,或通過用戶反饋對訓(xùn)練數(shù)據(jù)進行有效調(diào)適的情況下,智能系統(tǒng)在各類議題上將會持續(xù)輸出符合西方世界政治意識形態(tài)和文化價值觀念的結(jié)論。

2.對人們認(rèn)知的導(dǎo)向性塑造

技術(shù)在作用于日常生活的同時,也潛移默化地塑造著社會的秩序。當(dāng)中立的技術(shù)進入社會領(lǐng)域與特定主體相結(jié)合,則難免為各種利益、訴求和價值判斷所塑造和限制。⑨參見鄭玉雙:《破解技術(shù)中立難題——法律與科技之關(guān)系的法理學(xué)再思》,《華東政法大學(xué)學(xué)報》2018 年第1 期。??绿岢?,知識與權(quán)力是相互作用又相互依存的,權(quán)力通過知識得以實現(xiàn),而知識又為權(quán)力所塑造并用以維持權(quán)力的存在。⑩參見[法]米歇爾·??拢骸吨R考古學(xué)》,董樹寶譯,生活·讀書·新知三聯(lián)書店2021 年版,第29 頁。以ChatGPT 為代表的生成式人工智能作為一種“權(quán)力的媒介”,能夠通過創(chuàng)造新的知識引導(dǎo)、調(diào)節(jié)人類認(rèn)識和解釋世界的過程。?參見呂尚彬、黃鴻業(yè):《權(quán)力的媒介:空間理論視域下的智能媒體與公眾參與》,《湖北大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2022 年第5 期。當(dāng)其構(gòu)成人們信息獲取的主要來源和信息解讀的認(rèn)知框架時,相伴而來的便是集權(quán)化的傾向。?參見陳全真:《生成式人工智能與平臺權(quán)力的再中心化》,《東方法學(xué)》2023 年第3 期。也即強權(quán)者通過多維度信息和心理誘導(dǎo),對單個或大規(guī)模人群實施算法操縱和認(rèn)知形塑,從而推廣其思想和意圖。①參見張欣:《生成式人工智能的算法治理挑戰(zhàn)與治理型監(jiān)管》,《現(xiàn)代法學(xué)》2023 年第3 期。該風(fēng)險可簡要描述為以下兩點:

第一,智能生成內(nèi)容限制認(rèn)知自由。在“提示—響應(yīng)”人機交互過程中,智能系統(tǒng)可以依據(jù)用戶的認(rèn)知習(xí)慣及行為反饋,對其深層次的信息需求進行及時評估,并有計劃地對輸出的信息內(nèi)容進行篩選編輯,且信息偏好的擬合程度將會在持續(xù)的人機交互中不斷提升,最終為用戶營造出兼具安全感與舒適度的認(rèn)知環(huán)境。但過度迎合用戶觀點和偏好的內(nèi)容呈現(xiàn),可能導(dǎo)致用戶陷入由“算法舒適圈”所構(gòu)筑的“信息繭房”之中②參見張愛軍、賈璐:《算法“舒適圈”及其破繭——兼論ChatGPT 的算法內(nèi)容》,《黨政研究》2023 年第3 期。,并在智能型與封閉性正相關(guān)的信息環(huán)境下,不斷地固化自身觀點。過度的算法推薦在一定程度上隱秘地剝奪了用戶接觸多樣信息和異樣觀點的機會,禁錮了用戶的認(rèn)知視野,并限制了用戶的信息獲取自由,進而從人類的助手異化為對人類的桎梏。③參見申楠:《算法時代的信息繭房與信息公平》,《西安交通大學(xué)學(xué)報(社會科學(xué)版)》2020 年第2 期。

第二,智能生成內(nèi)容構(gòu)成認(rèn)知操縱。在智能傳播時代,通過“智能過濾分析、靶向鎖定受眾”策略,操縱社交媒體的內(nèi)容、數(shù)量和流向,進而影響公眾輿論的政治計算宣傳在近年已成為國家之間輿論博弈的重要手段,并對國家政治安全產(chǎn)生著嚴(yán)重威脅。④參見謝耘耕、李丹珉:《計算政治宣傳對國家輿論安全的挑戰(zhàn)及應(yīng)對》,《新媒體與社會》(第30 輯)。以ChatGPT 為代表的生成式人工智能通過持續(xù)問答方式與用戶所建立的擬態(tài)環(huán)境相“連接”,則為其針對用戶通過輿論博弈實現(xiàn)認(rèn)知對抗和認(rèn)知操縱提供了契機。⑤參見許鑫、劉偉超:《ChatGPT 熱潮中的冷思考:警惕信息工具用于認(rèn)知對抗》,《文化藝術(shù)研究》2023 年第1 期。例如,通過大量社交機器人和流量引導(dǎo)設(shè)定公共領(lǐng)域議程,再由虛擬意見領(lǐng)袖發(fā)表相關(guān)輿論意見,可以有效地實現(xiàn)對網(wǎng)民觀點及行為的引導(dǎo)。當(dāng)前國內(nèi)尚未有產(chǎn)品能夠?qū)hatGPT 實現(xiàn)功能替代,若其在將來對中國用戶全面開放使用,則為西方國家向中國進行意識形態(tài)滲透提供了便利條件,并將開辟出互聯(lián)網(wǎng)領(lǐng)域意識形態(tài)斗爭的新戰(zhàn)場。⑥參見張愛軍:《人與ChatGPT 交互政治的可能性質(zhì)化:風(fēng)險維度與規(guī)約路徑》,《學(xué)術(shù)界》2023 年第4 期。

1.2.1 健康教育 對患者的不良行為習(xí)慣進行糾正,并為其講述相關(guān)的健康知識,讓患者從心底里接受,提高患者的生活質(zhì)量。同時,對患者家屬進行健康教育也是十分必要的,家屬是患者的主要看護者,讓患者家屬掌握必備的健康知識對患者的盡早康復(fù)是十分有利的。

三、風(fēng)險法律規(guī)制路徑建構(gòu)

面對生成式人工智能發(fā)展浪潮和應(yīng)用實踐帶來的社會風(fēng)險及法治挑戰(zhàn),我國已及時響應(yīng),并著眼于當(dāng)下所面臨的迫切問題提出了基礎(chǔ)性的制度框架。但短期內(nèi)所出臺的小切口、急用現(xiàn)行的治理方案難免存在不周之處,難以同時兼顧回應(yīng)眼下問題和著眼未來發(fā)展。面對大模型人工智能的產(chǎn)業(yè)發(fā)展浪潮對既有人工智能治理策略帶來的挑戰(zhàn),我們需要在順應(yīng)技術(shù)變革的底層邏輯中,逐步修正既有制度,以法律與技術(shù)“二元共治”的思路,探索基于現(xiàn)有規(guī)范制度改進方案,并以可信人工智能為目標(biāo),對技術(shù)發(fā)展進行有效歸化,從而在法律治理與技術(shù)治理的高度結(jié)合中,為人工智能大模型時代的到來做好制度積累和規(guī)則儲備。

(一)針對風(fēng)險進行類型化監(jiān)管

基于風(fēng)險是世界范圍內(nèi)人工智能監(jiān)管的重要原則。2023 年4 月在日本召開的七國集團數(shù)字與技術(shù)部長會議發(fā)表的聯(lián)合聲明,便提出應(yīng)當(dāng)采取基于風(fēng)險原則,依據(jù)生成式人工智能在具體應(yīng)用場景中的潛在風(fēng)險及危害后果,制定不同的監(jiān)管要求?;陲L(fēng)險原則在我國《數(shù)據(jù)安全法》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《個人信息保護法》《互聯(lián)網(wǎng)平臺分類分級指南(征求意見稿)》(以下簡稱“《征求意見稿》”)中關(guān)于數(shù)據(jù)、算法、主體、場景的四大分級分類標(biāo)準(zhǔn)①參見張凌寒:《深度合成治理的邏輯更新與體系迭代——ChatGPT 等生成型人工智能治理的中國路徑》,《法律科學(xué)(西北政法大學(xué)學(xué)報)》2023 年第3 期。,以及《征求意見稿》要求生成式人工智能產(chǎn)品申報安全評估及履行算法備案手續(xù),已得到一定程度的體現(xiàn)。在我國地方立法層面,《深圳經(jīng)濟特區(qū)人工智能產(chǎn)業(yè)促進條例》及《上海市促進人工智能產(chǎn)業(yè)發(fā)展條例》提出了基于風(fēng)險的分級分類治理策略,并對高風(fēng)險和中低風(fēng)險的人工智能應(yīng)用分別設(shè)置了不同的監(jiān)管要求。但遺憾的是,前述立法或并非直接針對人工智能應(yīng)用,或效力層級過低且不完善,未能提供人工智能應(yīng)用風(fēng)險的分級分類評估認(rèn)定方式及細(xì)化監(jiān)管要求。面對生成式人工智能技術(shù)日新月異的發(fā)展現(xiàn)狀,我們應(yīng)當(dāng)秉持審慎包容治理理念,采用“軟硬結(jié)合”的方式,通過“硬法”對生成式人工智能應(yīng)用提出原則性和最低限度的監(jiān)管要求,從而為行業(yè)發(fā)展創(chuàng)造制度空間。同時依據(jù)技術(shù)實踐及合規(guī)成本的變化,通過動態(tài)更新操作細(xì)則、技術(shù)標(biāo)準(zhǔn)等“軟法”,逐步細(xì)化監(jiān)管要求。

第一,通過分級分類監(jiān)管劃定風(fēng)險應(yīng)對的原則和底線。對于生成式人工智能應(yīng)用的分級分類監(jiān)管,可以借鑒歐盟《人工智能法案》(以下簡稱“《AI 法案》”)所確立的以風(fēng)險為基準(zhǔn)的人工智能治理框架?!禔I 法案》按照人工智能系統(tǒng)預(yù)期的用途、場景對個人健康、安全和基本權(quán)利產(chǎn)生的威脅,將人工智能系統(tǒng)劃分為不可接受的風(fēng)險、高風(fēng)險及低風(fēng)險/最小風(fēng)險四類。并對前述各風(fēng)險等級的人工智能系統(tǒng),分別提出了禁止投入使用,履行風(fēng)險管理體系建設(shè)、提供高質(zhì)量數(shù)據(jù)集、數(shù)據(jù)處理可追溯、適當(dāng)人為監(jiān)督、合規(guī)符合性評估等強制性義務(wù)以及履行智能生成內(nèi)容提示告知的信息披露義務(wù)等差異化監(jiān)管要求。②參見曾雄、梁正、張輝:《歐盟人工智能的規(guī)制路徑及其對我國的啟示——以〈人工智能法案〉為分析對象》,《電子政務(wù)》2022 年第9 期。針對生成式人工智能愈發(fā)具備通用性,而在不同任務(wù)功能或應(yīng)用場景下存在跨風(fēng)險等級的新特點,為謹(jǐn)慎起見,則應(yīng)當(dāng)要求其遵循可能涉及的最高等級風(fēng)險的監(jiān)管要求。2022 年5 月《AI 法案》第4a-4c 修正案也體現(xiàn)了該種思路。其將通用型人工智能系統(tǒng)(General Purpose AI System)納入規(guī)制范圍,并要求通用型人工智能在作為高風(fēng)險人工智能系統(tǒng),或構(gòu)成高風(fēng)險人工智能系統(tǒng)組件時,應(yīng)當(dāng)遵循《AI 法案》關(guān)于高風(fēng)險人工智能系統(tǒng)的監(jiān)管要求。除非通用型人工智能系統(tǒng)提供者確信,其不會用于《AI 法案》所規(guī)定的高風(fēng)險場景。在互聯(lián)網(wǎng)內(nèi)容生態(tài)治理的場景中,可以依據(jù)生成式人工智能應(yīng)用所面向的受眾為依據(jù)確定風(fēng)險等級。例如,對于直接面向社會公眾提供服務(wù),且用戶數(shù)量較大的傳媒平臺以及綜合搜索引擎等可能涉及國家安全或重大公共利益的關(guān)鍵領(lǐng)域和關(guān)鍵場景,則應(yīng)當(dāng)要求其遵守較高要求的監(jiān)管強度;對于面向私人使用的生成式人工智能應(yīng)用,則可以施加強度較低的監(jiān)管要求。

第二,通過敏捷治理動態(tài)細(xì)化風(fēng)險監(jiān)管要求。對于生成式人工智能應(yīng)用的細(xì)化監(jiān)管要求,一方面通過政府出臺相關(guān)監(jiān)管政策及制度框架,為各方主體在設(shè)計、開發(fā)、部署和使用人工智能系統(tǒng)的過程中對風(fēng)險進行有效的識別、評估和處理提供規(guī)范化指引;另一方面通過整合技術(shù)專家、平臺企業(yè)及行業(yè)協(xié)會、用戶代表等多主體力量,通過跨行業(yè)、跨身份的經(jīng)驗交流共同探索各類場景、功能下生成式人工智能的最佳風(fēng)險規(guī)制策略。例如,2020 年美國白宮科技政策辦公室(OSTP)發(fā)布《人工智能應(yīng)用監(jiān)管指南》(以下簡稱“《指南》”)要求聯(lián)邦政府機構(gòu)對人工智能技術(shù)進行分級監(jiān)管,并依據(jù)具體人工智能應(yīng)用的風(fēng)險等級及其動態(tài)變化,制定相適應(yīng)的監(jiān)管政策。此后,OSTP 及美國商務(wù)部下屬國家標(biāo)準(zhǔn)與技術(shù)研究所則基于《指南》,相繼頒布《人工智能權(quán)利法案藍(lán)圖》《人工智能風(fēng)險管理框架》等風(fēng)險管理工具,用于指導(dǎo)人工智能相關(guān)方建立相適應(yīng)的內(nèi)部風(fēng)險管理制度,以助其在設(shè)計、開發(fā)、部署和使用人工智能系統(tǒng)的過程中對風(fēng)險進行有效的識別、評估和處理。此外,對于在特定功能和場景下存在風(fēng)險不確定性的生成式人工智能應(yīng)用,可以采取監(jiān)管沙盒、應(yīng)用試點等方式,實現(xiàn)將風(fēng)險控制在特定的范圍和領(lǐng)域內(nèi)。

心肺耐力是指持續(xù)體力活動中循環(huán)和呼吸系統(tǒng)的供氧能力,是健康相關(guān)體適能的重要組成部分。心肺耐力水平低與早期全因死亡風(fēng)險明顯增加有關(guān),特別是心血管疾病所致的死亡相關(guān)[1]。本研究入選99例來我院體檢的北京白領(lǐng)人群,通過測定其peakVO2以了解心肺耐力水平,并探討影響心肺耐力的相關(guān)因素,以警示白領(lǐng)人群對健康生活方式的重視。

(二)擴展治理責(zé)任主體范圍

在當(dāng)前治理責(zé)任主要集中于服務(wù)提供者的背景下,需要根據(jù)生成式人工智能的技術(shù)特點更新監(jiān)管邏輯,建立覆蓋研發(fā)、運行、應(yīng)用全流程的風(fēng)險監(jiān)管機制,明晰技術(shù)開發(fā)者、服務(wù)提供者、服務(wù)使用者等相關(guān)主體在具體應(yīng)用風(fēng)險中的利益關(guān)系與配套架構(gòu),更加系統(tǒng)、準(zhǔn)確地構(gòu)建生成式人工智能責(zé)任的鏈?zhǔn)椒峙浜统袚?dān)機制。①參見袁曾:《生成式人工智能的責(zé)任能力研究》,《東方法學(xué)》2023 年第3 期?!墩髑笠庖姼濉穼夹g(shù)開發(fā)者在訓(xùn)練數(shù)據(jù)管理及算法技術(shù)完善作出的細(xì)化規(guī)定,以及禁止服務(wù)使用者利用生成式人工智能產(chǎn)品實施違反法律法規(guī),違背商業(yè)道德、社會公德的行為,也體現(xiàn)了該治理思路,但該《征求意見稿》還有待進一步細(xì)化。

新版GB/T 7714-2015《信息與文獻 參考文獻著錄規(guī)則》代替GB/T 7714-2005《文后參考文獻著錄規(guī)則》已于2015年5月15日頒布,并于2015年12月1日起正式實施。為此,將本刊常用的各種類型參考文獻的新著錄方法及其示例列舉如下:

第一,技術(shù)開發(fā)者主要負(fù)責(zé)系統(tǒng)建模及數(shù)據(jù)訓(xùn)練,應(yīng)當(dāng)承擔(dān)以數(shù)據(jù)安全為核心的治理責(zé)任?!墩髑笠庖姼濉穼?shù)據(jù)質(zhì)量要求、數(shù)據(jù)樣本選取、數(shù)據(jù)標(biāo)注行為規(guī)范、模型優(yōu)化訓(xùn)練等方面的規(guī)定,能夠降低包含有害內(nèi)容的“毒性數(shù)據(jù)”或數(shù)據(jù)代表性差異以及數(shù)據(jù)標(biāo)注人員私人偏好所引致的智能模型生成虛假、歧視性信息的風(fēng)險。進一步設(shè)置技術(shù)開發(fā)者的細(xì)化責(zé)任,還需要考慮到其與當(dāng)下技術(shù)實踐以及未來行業(yè)趨勢的相稱程度,避免因過重或不合理的合規(guī)要求而抑制產(chǎn)業(yè)發(fā)展創(chuàng)新。②自《生成式人工智能服務(wù)管理辦法(征求意見稿)》發(fā)布后,各大領(lǐng)先律師事務(wù)所的評論文章以及學(xué)界知名學(xué)者的相關(guān)分析均認(rèn)為其提出了在當(dāng)前階段較為嚴(yán)苛的監(jiān)管要求。例如徐偉:《論生成式人工智能服務(wù)提供者的法律地位及其責(zé)任——以ChatGPT 為例》,《法律科學(xué)(西北政法大學(xué)學(xué)報)》2023 年第4 期。在具體策略上,可以采用合規(guī)監(jiān)管理念,通過劃定合規(guī)監(jiān)管的底線,并隨著技術(shù)發(fā)展及監(jiān)管經(jīng)驗進一步成熟而逐步提升監(jiān)管要求。例如,相較于對不實信息及侵權(quán)數(shù)據(jù),作出完全禁止性的“一刀切”規(guī)定。要求技術(shù)開發(fā)者使用安全可信的軟硬件和數(shù)據(jù)資源,對訓(xùn)練數(shù)據(jù)庫履行必要程度的技術(shù)性審查義務(wù),并向外界提示披露系統(tǒng)潛在的性能缺陷和生成虛假、有害信息的可能性,則能夠更好地實現(xiàn)創(chuàng)新發(fā)展與安全保障的平衡,并契合將來大量使用合成數(shù)據(jù)、人工數(shù)據(jù)進行模型訓(xùn)練的行業(yè)趨勢。③在“AIGC+數(shù)據(jù)科學(xué)”領(lǐng)域,自動生成具有安全性、標(biāo)簽化、經(jīng)過預(yù)處理的標(biāo)準(zhǔn)數(shù)據(jù)以滿足人工智能模型的訓(xùn)練需求已成為行業(yè)實踐。根據(jù)Gartner 預(yù)測,到2025 年,人工智能生成數(shù)據(jù)占比將達到10%。參見中國信息通信研究院、京東探索研究院:《人工智能生成內(nèi)容(AIGC)白皮書(2022)》2022 年9 月,第52 頁。

◎大環(huán)內(nèi)酯類 阿奇霉素(二代)、紅霉素(一代),口服常用阿奇霉素,副作用小。因為細(xì)菌的耐藥性,阿奇霉素等等對細(xì)菌幾乎沒用了,僅僅對支原體還是有用的。

第二,服務(wù)使用者依據(jù)使用需求決定著與智能系統(tǒng)的互動行為,應(yīng)當(dāng)承擔(dān)以規(guī)范使用為核心的治理責(zé)任。由于不同主體的使用行為風(fēng)險存在一定差異,可以探索所有使用行為均需要遵循的強制法定義務(wù)和特定使用行為需要遵循的合理注意義務(wù),為區(qū)分的合法性約束和責(zé)任分配機制。④參見蔡士林、楊磊:《ChatGPT 智能機器人應(yīng)用的風(fēng)險與協(xié)同治理研究》,《情報理論與實踐》2023 年第5 期。其中,強制法定義務(wù)適用于為休閑、娛樂等日常目的使用生成式人工智能的情形,其應(yīng)當(dāng)按照一般人的標(biāo)準(zhǔn)對潛在風(fēng)險承擔(dān)注意義務(wù)。例如,禁止向智能系統(tǒng)輸入非法、不良信息,或通過特定指令誘導(dǎo)智能系統(tǒng)輸出違法內(nèi)容等惡意使用行為;同時,用戶向互聯(lián)網(wǎng)上傳智能生成內(nèi)容時,應(yīng)當(dāng)對相關(guān)信息內(nèi)容承擔(dān)特定的標(biāo)注和說明披露義務(wù)。①2023 年5 月9 日,“抖音APP”微信公眾號發(fā)布《抖音關(guān)于人工智能生成內(nèi)容的平臺規(guī)范暨行業(yè)倡議》提出11 條平臺規(guī)范與行業(yè)倡議,要求創(chuàng)作者、主播、用戶、商家、廣告主等平臺生態(tài)參與者,在抖音應(yīng)用生成式人工智能技術(shù)時對人工智能生成內(nèi)容進行顯著標(biāo)識并對人工智能生成內(nèi)容產(chǎn)生的相應(yīng)后果負(fù)責(zé)。合理注意義務(wù)適用于為提供專業(yè)服務(wù)目的使用生成式人工智能的情形,其應(yīng)當(dāng)按照對智能系統(tǒng)作用原理,具備一定專業(yè)知識的標(biāo)準(zhǔn)對潛在風(fēng)險承擔(dān)注意義務(wù)。例如,若相關(guān)主體將生成式人工智能應(yīng)用于撰寫法律文書、新聞稿件、科研論文等對公眾或個人利益產(chǎn)生較大影響的用途,則應(yīng)當(dāng)就生成式人工智能的具體使用作出告知和說明,并就具體的智能生成內(nèi)容進行審查和復(fù)核②例如,《自然》指出禁止大語言模型成為論文的作者,并要求使用大語言模型工具的研究人員應(yīng)在方法或致謝部分記錄使用過程。,以避免智能生成內(nèi)容可能存在的法律理解、事實表述錯誤或?qū)W術(shù)倫理等問題,從而降低潛在風(fēng)險。此外,還應(yīng)當(dāng)細(xì)化各類高風(fēng)險應(yīng)用場景中的合規(guī)義務(wù)落實機制。例如,在人工智能換臉、變聲等涉及個人生物識別信息編輯場景中,可以要求用戶對使用行為和目的的合法性及合倫理性進行承諾,并通過實體性和程序性要求,設(shè)置探索《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》中關(guān)于告知并獲取被編輯個人信息主體的單獨同意義務(wù)有效落地機制。

(三)完善科技倫理審查機制

實施人工智能倫理治理是貫徹落實科技發(fā)展“向上向善”理念,避免技術(shù)濫用損害人類尊嚴(yán)的必然要求?!墩髑笠庖姼濉分嘘P(guān)于生成內(nèi)容應(yīng)當(dāng)體現(xiàn)社會主義核心價值觀、禁止生成歧視性內(nèi)容等具體倫理要求,也體現(xiàn)了倫理治理的重要性。在當(dāng)前科技倫理審查機制尚不完善的情況下,需要通過具體的制度設(shè)計,避免其淪為空洞的表達,從而將倫理先行的治理理念貫穿于生成式人工智能設(shè)計、運行、使用的全生命周期。2022 年4 月,科學(xué)技術(shù)部科技監(jiān)督與誠信建設(shè)司發(fā)布《科技倫理審查辦法(試行)(征求意見稿)》(以下簡稱“《審查辦法》”),對科技活動主體的倫理審查責(zé)任及審查程序作出了規(guī)定,并將生成式人工智能應(yīng)用列入倫理高風(fēng)險科技活動清單。可以借鑒《審查辦法》所提供的制度框架,以行業(yè)自律及政府監(jiān)管的合作規(guī)制模式,細(xì)化建構(gòu)生成式人工智能的倫理審查機制。③參見魏光禧:《合作規(guī)制:基于元規(guī)制模式的人工智能安全倫理規(guī)制優(yōu)化》,《昆明理工大學(xué)學(xué)報(社會科學(xué)版)》2022 年第6 期。

第一,行業(yè)自律要求企業(yè)落實主體責(zé)任,從全流程視角出發(fā),將倫理考量納入智能模型機器及其生態(tài)系統(tǒng)建設(shè)進程中,從而建立健全科技倫理風(fēng)險合規(guī)管理體系。在組織架構(gòu)層面,《審查辦法》要求研究內(nèi)容涉及科技倫理敏感領(lǐng)域的人工智能單位設(shè)立科技倫理(審查)委員會。對于提供生成式人工智能服務(wù)的平臺企業(yè),可以依據(jù)企業(yè)業(yè)務(wù)所涉及的具體應(yīng)用的倫理風(fēng)險大小,決定設(shè)立科技倫理負(fù)責(zé)人、科技倫理委員會或科技倫理管理部門,負(fù)責(zé)企業(yè)科技倫理工作。并通過明確科技倫理工作人員及相關(guān)部門的職能、權(quán)限,將科技倫理審查機制嵌入企業(yè)常態(tài)化工作機制及重大事項決策流程中。例如,谷歌建立了由創(chuàng)新中央團隊、隱私顧問委員會、健康倫理委員會以及產(chǎn)品審查委員會組成的專門機構(gòu)和專家團隊負(fù)責(zé)對企業(yè)在隱私保護、用戶健康、產(chǎn)品安全等方面的倫理治理落實情況進行監(jiān)督,確保企業(yè)日常運營及產(chǎn)品、項目以系統(tǒng)、可重復(fù)的方式與谷歌人工智能原則保持一致。在技術(shù)開發(fā)層面,依據(jù)對話機器人、人工智能換臉、變聲等不同業(yè)務(wù)類型,以及數(shù)據(jù)訓(xùn)練、模型完善、服務(wù)提供等不同技術(shù)階段和所面向的不同應(yīng)用場景,設(shè)定不同的倫理風(fēng)險評估及審查要求。例如,微軟為了讓項目團隊更好地貫徹人工智能原則,為項目團隊提供了針對人工智能交互問題、安全問題、偏見問題、機器人開發(fā)領(lǐng)域問題等不同場景下的技術(shù)解決方案,和適用于特殊情況、專門領(lǐng)域的行動指南。在制度規(guī)范層面,通過規(guī)范涉科技倫理事項處理流程、定期進行科技倫理培訓(xùn)、制定科技倫理風(fēng)險應(yīng)急預(yù)案等方式,建立完善企業(yè)內(nèi)部制度規(guī)范,推動企業(yè)自主、自覺、自發(fā)地實施科技倫理治理。

第二,政府監(jiān)管要求有權(quán)機關(guān)加強外部監(jiān)督,督促企業(yè)落實倫理審查及信息披露義務(wù)。在倫理審查層面,《審查辦法》提出建立倫理高風(fēng)險科技活動的清單制度,并將具有輿論社會動員能力和社會意識引導(dǎo)能力的算法模型、應(yīng)用程序及系統(tǒng)的研發(fā)列入需要開展專家復(fù)核的倫理高風(fēng)險科技活動。未來可以在科技倫理風(fēng)險分級分類的基礎(chǔ)上,依據(jù)不同的倫理風(fēng)險等級,要求未納入清單管理的生成式人工智能應(yīng)用,通過設(shè)置內(nèi)部獨立的第三方倫理審查監(jiān)督機構(gòu)并定期提交符合規(guī)定的倫理風(fēng)險自查報告后,由主管部門頒發(fā)倫理符合性認(rèn)證標(biāo)志,或者要求其由外部專業(yè)性非營利組織通過用戶調(diào)查、模擬測試、抓取審計等方式,對其開展關(guān)于倫理符合性的監(jiān)督審計。①參見張欣、宋雨鑫:《算法審計的制度邏輯和本土化構(gòu)建》,《鄭州大學(xué)學(xué)報(哲學(xué)社會科學(xué)版)》2022 年第6 期。同時,還可以通過由政府提供指導(dǎo)意見等方式,幫助不具備完善倫理管理機制的中小企業(yè)落實倫理審查事項。例如,美國白宮總統(tǒng)科技顧問委員會(PCAST)成立生成式人工智能工作組,以幫助企業(yè)評估關(guān)鍵機遇和風(fēng)險,并就如何最好地確保這些技術(shù)的開發(fā)和部署盡可能公平、負(fù)責(zé)任和安全提供意見。2023 年5月北京市人民政府辦公廳發(fā)布的《北京市促進通用人工智能創(chuàng)新發(fā)展的若干措施》也提出,建立常態(tài)化聯(lián)系服務(wù)和指導(dǎo)機制,以督促企業(yè)遵守法律法規(guī)要求,尊重社會公德、公序良俗。此外,還可以通過建立算法倫理審查聽證制度,將對公民利益、社會公共生活有重大影響且具有較大爭議的倫理審查問題,納入聽證范疇,以獲取來自公眾的不同意見。②參見鄒開亮、劉祖兵:《ChatGPT 的倫理風(fēng)險與中國因應(yīng)制度安排》,《海南大學(xué)學(xué)報(人文社會科學(xué)版)》2023 年第4 期。在信息披露層面,《審查辦法》提出科技倫理管理信息登記制度,要求對科技倫理審查委員會及納入清單管理的科技活動的相關(guān)信息進行登記并提交年度報告。與之相類似的,《征求意見稿》要求生成式人工智能服務(wù)提供者,向主管部門提供預(yù)訓(xùn)練和優(yōu)化訓(xùn)練數(shù)據(jù)的來源、規(guī)模、類型、質(zhì)量等描述和人工標(biāo)注規(guī)則。人工標(biāo)注數(shù)據(jù)的規(guī)模和類型以及基礎(chǔ)算法和技術(shù)體系等,可以影響用戶信任、選擇的必要信息。但由于前述所要求的披露信息可能涉及企業(yè)的核心技術(shù)競爭力,一旦泄露將會造成嚴(yán)重經(jīng)濟損失,因而在進一步細(xì)化和明確具體的信息報告及披露范圍時,需要充分考慮是否為監(jiān)督人工智能倫理治理所必需,同時采取相應(yīng)措施緩和商業(yè)秘密保護及信息透明度之間的張力。

四、結(jié) 語

算法、算據(jù)和算力三要素的全面突破,為人工智能創(chuàng)造了更為廣闊的創(chuàng)新應(yīng)用空間,也帶來了全新的治理挑戰(zhàn)。本文關(guān)注新形勢下生成式人工智能所具備的時代超越性,及其對互聯(lián)網(wǎng)內(nèi)容生態(tài)所帶來的虛假信息泛濫和道德倫理失范的治理挑戰(zhàn),并提出:以基于風(fēng)險的類型化監(jiān)管,彌補風(fēng)險規(guī)制僵化;以延伸擴展治理責(zé)任主體,補足責(zé)任分配鏈條短板;以完善科技倫理審查機制,助力倫理治理貫穿人工智能全生命周期。

2017年5月,習(xí)近平在國際合作高峰論壇的開幕式發(fā)表演講,沿線130多個國家各界代表參加此次盛會,贏得了國際社會的高度關(guān)注與熱議。它對中國樹立大國形象、深化同沿線各國的互利合作、構(gòu)建新型國際關(guān)系意義重大。自2013年以來,“一帶一路”的倡議得到平穩(wěn)推行原因是多方面的。其中,習(xí)近平卓越的演講能力無疑為此起著直接推動作用。該文以習(xí)近平在國際合作高峰論壇開幕式上的演講為研究對象,運用同一理論對演講所采用修辭進行詳細(xì)分析,挖掘其修辭策略,并首次提出運用列數(shù)據(jù)、沿線國家共性典故等方式達到同情認(rèn)同的修辭策略。

未來進一步構(gòu)建并完善我國人工智能治理的法律體系,從而助力我國在世界人工智能產(chǎn)業(yè)發(fā)展浪潮的激烈競爭中處于領(lǐng)先地位①2023 年6 月6 日,國務(wù)院辦公廳印發(fā)《國務(wù)院2023 年度立法工作計劃的通知》,提出修訂人工智能法草案,試圖確立人工智能治理的“基本法”。在此前2017 年7 月20 日國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》在戰(zhàn)略目標(biāo)中對法律體系建設(shè)提出了三步走要求:到2020 年,部分領(lǐng)域的人工智能倫理規(guī)范和政策法規(guī)初步建立;到2025 年,初步建立人工智能法律法規(guī)、倫理規(guī)范和政策體系,形成人工智能安全評估和管控能力;到2030 年,建成更加完善的人工智能法律法規(guī)、倫理規(guī)范和政策體系。,需要我們充分關(guān)注國際人工智能監(jiān)管規(guī)則制定的最新趨勢,在審慎包容的理念下,結(jié)合技術(shù)作用邏輯和我國產(chǎn)業(yè)實踐,通過提升規(guī)制的敏捷性和適應(yīng)性,實現(xiàn)潛在風(fēng)險危害預(yù)防和創(chuàng)設(shè)自由發(fā)展空間兩者的適度平衡,從而走出技術(shù)規(guī)制的“科林格里奇困境”。②科林格里奇困境由英國技術(shù)哲學(xué)家大衛(wèi)·科林格里奇在《技術(shù)的社會控制》一書中提出,指的是在技術(shù)發(fā)展過程中的規(guī)制困境,也即若過早實施控制,則技術(shù)難以爆發(fā)而惠及民眾;若過晚實施控制,則技術(shù)已內(nèi)嵌于社會結(jié)構(gòu)而走向不可控。

猜你喜歡
倫理人工智能智能
《心之死》的趣味與倫理焦慮
護生眼中的倫理修養(yǎng)
活力(2019年19期)2020-01-06 07:37:00
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
智能前沿
文苑(2018年23期)2018-12-14 01:06:06
智能前沿
文苑(2018年19期)2018-11-09 01:30:14
智能前沿
文苑(2018年17期)2018-11-09 01:29:26
智能前沿
文苑(2018年21期)2018-11-09 01:22:32
人工智能與就業(yè)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
芜湖县| 巫溪县| 台北市| 连南| 安福县| 颍上县| 澜沧| 汝阳县| 民丰县| 溆浦县| 屏东县| 白城市| 民和| 南昌市| 重庆市| 鄂温| 柳河县| 安义县| 济源市| 基隆市| 德钦县| 开平市| 邹平县| 辽阳市| 青铜峡市| 谢通门县| 新田县| 蕲春县| 天镇县| 五原县| 遂溪县| 昌黎县| 神农架林区| 建瓯市| 石首市| 邢台市| 克东县| 双牌县| 东安县| 临邑县| 广水市|