姚守宇 王春峰
摘 要:ChatGPT 作為新一代人工智能技術(shù),將深刻地影響人類的經(jīng)濟(jì)和社會(huì)發(fā)展。本文分析了ChatGPT 在人工智能產(chǎn)業(yè)、勞動(dòng)力與就業(yè)、教育以及科學(xué)研究和科技倫理等多個(gè)領(lǐng)域的發(fā)展機(jī)遇與挑戰(zhàn)。研究認(rèn)為,ChatGPT 加速了生成式AI 布局、勞動(dòng)力市場結(jié)構(gòu)演進(jìn)和教育體系重塑,但與此同時(shí)也帶來了科技與學(xué)術(shù)倫理、價(jià)值滲透、信息泄露等問題。此外,ChatGPT 也存在著潛在威脅,其快速產(chǎn)業(yè)應(yīng)用或?qū)⒔o傳統(tǒng)產(chǎn)業(yè)帶來了難以估量的調(diào)整成本,相應(yīng)的認(rèn)知污染可能會(huì)引發(fā)知識(shí)和價(jià)值觀偏差。為充分利用好ChatGPT 帶來的發(fā)展紅利,加速各種應(yīng)用場景落地,并防范其可能引發(fā)諸多沖擊和風(fēng)險(xiǎn),本文最后提出了系列政策建議。
關(guān)鍵詞:ChatGPT;人工智能;技術(shù)沖擊;社會(huì)變革;政府監(jiān)管
DOI:10.19313/j.cnki.cn10-1223/f.20230310.002
一、引 言
自2010 年起,社會(huì)技術(shù)革新進(jìn)程日益加快,人工智能領(lǐng)域呈現(xiàn)出飛速發(fā)展和逐步廣泛應(yīng)用的態(tài)勢(何哲,2016)。以新一代信息技術(shù)為支撐的人工智能正逐漸成為新時(shí)代產(chǎn)業(yè)革命與社會(huì)經(jīng)濟(jì)發(fā)展的新型支撐力量。學(xué)界已有大量研究表明人工智能對(duì)經(jīng)濟(jì)增長、生產(chǎn)率與技術(shù)創(chuàng)新、勞動(dòng)力市場、收入分配、市場結(jié)構(gòu)與產(chǎn)業(yè)組織、法律規(guī)則與法律秩序等諸多方面產(chǎn)生影響(Autor 等,2003;Acemoglu & Restrepo,2020;Acemoglu 等,2022;Fumagalli 等,2022;吳漢東,2017;曹靜和周亞林,2018;陳彥斌等,2019)。2022 年11 月30 日,美國人工智能公司OpenAI 發(fā)布的ChatGPT以其“對(duì)話式”的直接互動(dòng)方式及“人性化”的語言文本服務(wù)讓人們進(jìn)一步感受到人工智能的魅力,打破了對(duì)于生成式人工智能技術(shù)的傳統(tǒng)認(rèn)知。僅在發(fā)布短短兩個(gè)月后,ChatGPT 的月活躍用戶數(shù)已達(dá)一億,成為史上用戶數(shù)增長最快的消費(fèi)者應(yīng)用。ChatGPT 的出現(xiàn)掀起了人工智能技術(shù)投資與發(fā)展的浪潮,改變了現(xiàn)有的產(chǎn)業(yè)格局,給傳統(tǒng)產(chǎn)業(yè)帶來了強(qiáng)烈的沖擊和重大的發(fā)展機(jī)遇。那么,ChatGPT作為一種廣泛影響人類經(jīng)濟(jì)生活的新一代人工智能技術(shù),應(yīng)該采取何種政策加以規(guī)范和引導(dǎo)正逐漸成為重要的研究問題。
從現(xiàn)有研究成果來看,國內(nèi)外學(xué)者已經(jīng)就ChatGPT 對(duì)科學(xué)研究方面的影響進(jìn)行了探究。BertGordijn 等(2023)認(rèn)為ChatGPT 的發(fā)明可能會(huì)提升科研人員的工作效率。例如,當(dāng)學(xué)者們文思枯竭時(shí)可以將ChatGPT 作為一種工具或一種搜索引擎,甚至可以讓ChatGPT 作為討論者加入這場頭腦風(fēng)暴,在碰撞中產(chǎn)生新的思想火花,提升科研工作效率。進(jìn)一步,Eva 等(2023)發(fā)現(xiàn)已有研究人員使用這種對(duì)話式的人工智能來進(jìn)行統(tǒng)計(jì)分析、總結(jié)文獻(xiàn)內(nèi)容以及撰寫論文和演講內(nèi)容,加速了創(chuàng)新進(jìn)程,縮短發(fā)表時(shí)間,幫助人們更流暢地寫作。然而,ChatGPT 帶來機(jī)遇的同時(shí),也使人類暴露于諸多危險(xiǎn)與挑戰(zhàn)中。ChatGPT 作為“非人類”,無法擁有人的思考能力以及道德倫理觀念,它所需要的是源源不斷大數(shù)據(jù)的滋養(yǎng),進(jìn)而消化吸收,在不斷讀取數(shù)據(jù)的過程中訓(xùn)練其深度學(xué)習(xí)的能力。一方面,ChatGPT 所生成的文本內(nèi)容容易出錯(cuò)。例如,它可能會(huì)編造并不存在的文獻(xiàn),且輸出內(nèi)容冗長重復(fù)(Gordijn & Have,2023),這會(huì)降低研究的質(zhì)量以及透明度,從根本上改變科研人員的自主性(Eva 等,2023),使得科學(xué)研究結(jié)果不再可靠。另一方面,ChatGPT 輸出的文本內(nèi)容又很難被識(shí)別。研究人員將ChatGPT 所生成的摘要送去評(píng)審時(shí),僅有63%的內(nèi)容被審稿人識(shí)別(Thorp,2023),這必然會(huì)影響所發(fā)文章的科學(xué)性與公正性。同時(shí),ChatGPT 在引用文章回答用戶問題時(shí),是否會(huì)侵犯被引用文章作者的權(quán)利?ChatGPT 能否作為文章寫作的工具?倘若作者使用ChatGPT 是否需要將生成內(nèi)容標(biāo)注?這些都是需要進(jìn)一步深刻思考的問題。此外,ChatGPT 的“爆紅”有極大可能改變甚至顛覆人們的生存與交往方式,重新塑造社會(huì)的資源分配方式。然而,由于ChatGPT 推出時(shí)間較短,目前鮮有研究系統(tǒng)剖析ChatGPT 對(duì)經(jīng)濟(jì)和社會(huì)發(fā)展的影響,更未系統(tǒng)討論ChatGPT 的潛在威脅,以及政府應(yīng)采取的監(jiān)管對(duì)策。
在上述背景下,本文以ChatGPT 技術(shù)沖擊為切入點(diǎn),從傳統(tǒng)人工智能產(chǎn)業(yè)、勞動(dòng)力與就業(yè)、教育以及科學(xué)研究與科技倫理四個(gè)方面進(jìn)行探討,探究新一代人工智能技術(shù)發(fā)展對(duì)經(jīng)濟(jì)與社會(huì)的影響。本文研究認(rèn)為,ChatGPT 加速了生成式AI 布局的同時(shí)也可能對(duì)傳統(tǒng)人工智能產(chǎn)業(yè)的生存造成打擊并引發(fā)倫理與安全挑戰(zhàn)。在勞動(dòng)力與就業(yè)方面,ChatGPT 的出現(xiàn)對(duì)不同技能勞動(dòng)者的影響是不同的,中等技能勞動(dòng)者受到影響較大,而高等和低等技能勞動(dòng)者受到影響相對(duì)較小。在教育方面,ChatGPT 對(duì)教育體系的沖擊加速了人們對(duì)教育方式、教育側(cè)重點(diǎn)和教育評(píng)價(jià)的思考。在科學(xué)研究與科技倫理方面,由于ChatGPT 生成的學(xué)術(shù)研究不滿足嚴(yán)謹(jǐn)性和科學(xué)性,從而助長了虛假信息傳播和剽竊抄襲等行為并影響了整個(gè)學(xué)術(shù)生態(tài)。同時(shí),ChatGPT 創(chuàng)建者所在的大型企業(yè)利用技術(shù)的壟斷也帶來了科技倫理問題和價(jià)值滲透問題。最后,本文也分析了ChatGPT 對(duì)社會(huì)運(yùn)行機(jī)制、社會(huì)安全和社會(huì)主體層面的潛在威脅,展望了ChatGPT 自身技術(shù)的完善和應(yīng)用場景的落地,并提出了相應(yīng)的監(jiān)管政策建議。
與國內(nèi)外既有文獻(xiàn)相比,本文的主要貢獻(xiàn)體現(xiàn)如下:一方面,開拓了ChatGPT 對(duì)經(jīng)濟(jì)和社會(huì)等方面影響的探索。已有文獻(xiàn)主要集中在ChatGPT 對(duì)科學(xué)研究的影響方面,而本文則從人工智能產(chǎn)業(yè)、勞動(dòng)力與就業(yè)、教育以及科學(xué)研究等諸多方面分析了ChatGPT 所帶來的影響,討論AI 行業(yè)中科技哲學(xué)及倫理問題,分析了ChatGPT 對(duì)于經(jīng)濟(jì)和社會(huì)潛在的威脅及未來發(fā)展趨勢,并就這種潛在的顛覆性技術(shù)的影響討論應(yīng)對(duì)策略。另一方面,以ChatGPT 為研究對(duì)象,本文拓展了人工智能領(lǐng)域?qū)?jīng)濟(jì)和社會(huì)影響的研究視角。ChatGPT 作為新一代生成式人工智能產(chǎn)品,對(duì)它的研究將會(huì)進(jìn)一步豐富人工智能領(lǐng)域的相關(guān)文獻(xiàn),從而對(duì)新一代人工智能領(lǐng)域所帶來的產(chǎn)業(yè)發(fā)展空間具有啟發(fā)意義,對(duì)人工智能監(jiān)管模式變革具有政策參考價(jià)值。本文余下部分的結(jié)構(gòu)安排為:第二部分對(duì)ChatGPT 的概念及其發(fā)展脈絡(luò)進(jìn)行梳理;第三部分在總結(jié)前人的觀點(diǎn)的基礎(chǔ)上,從傳統(tǒng)人工智能行業(yè)、勞動(dòng)力與就業(yè)、教育行業(yè)等方面探討ChatGPT帶來的機(jī)遇,以及可能造成的產(chǎn)業(yè)沖擊;第四部分則進(jìn)一步分析了ChatGPT 的潛在威脅與未來發(fā)展趨勢;第五部分在上述論述基礎(chǔ)上,結(jié)合以往的相關(guān)政策文件,提出針對(duì)類似ChatGPT 的人工智能監(jiān)管的可行性建議。
二、ChatGPT 的概念與主要特征
ChatGPT(Chat Generative Pre-trained Transformer)的中文全稱為生成型預(yù)訓(xùn)練變換模型。它是美國人工智能研究實(shí)驗(yàn)室OpenAI 于2022 年11 月30 日發(fā)布研發(fā)的聊天機(jī)器人程序,使用了Transformer 神經(jīng)網(wǎng)絡(luò)架構(gòu)(GPT-3.5 架構(gòu))。ChatGPT 是一款人工智能技術(shù)驅(qū)動(dòng)的自然語言處理工具,通過海量數(shù)據(jù)存儲(chǔ)和高效設(shè)計(jì)架構(gòu)理解和解讀用戶請求,可以以近乎人類自然語言的方式生成具有“較高復(fù)雜度的回應(yīng)文本”,甚至能完成撰寫、視頻腳本、文案、機(jī)器翻譯、分類、代碼生成、對(duì)話AI 等任務(wù)。ChatGPT 的原理是在GPT3.5 的基礎(chǔ)上增加了人類反饋強(qiáng)化模型,使用人類偏好作為獎(jiǎng)勵(lì)信號(hào)來微調(diào)模型,并引入“人工標(biāo)注數(shù)據(jù)+強(qiáng)化學(xué)習(xí)”來反復(fù)訓(xùn)練(令小雄等,2023)。特別地,由OpenAI 團(tuán)隊(duì)近期最新發(fā)布的新一代多模態(tài)預(yù)訓(xùn)練大模型GPT-4,相較于上一代模型而言,更是在輸入限制、識(shí)別能力以及內(nèi)容生成準(zhǔn)確性和多樣性等多個(gè)方面實(shí)現(xiàn)了飛躍式的提升,并在各種專業(yè)測試和學(xué)術(shù)基準(zhǔn)上有著人類水平的表現(xiàn)。與傳統(tǒng)人工智能技術(shù)相比,ChatGPT 及其迭代更新代表了未來人工智能的發(fā)展趨勢,它可以基于大數(shù)據(jù)集自己生成內(nèi)容,在語言能力、語言風(fēng)格、論證效力及思想深度上賦予了新一代人工智能技術(shù)的鮮明特征。
第一,在語言能力方面,ChatGPT 的可互動(dòng)性是基于OpenAI 公司開發(fā)的GPT-3 架構(gòu)的大型語言模型LLM(Large Language Model)。通過在大量的文本數(shù)據(jù)上進(jìn)行預(yù)訓(xùn)練,ChatGPT 可以實(shí)現(xiàn)出色的語言理解能力,生成更自然、更流暢的文本。同時(shí),基于人類反饋的強(qiáng)化學(xué)習(xí)模型和微調(diào)技術(shù),ChatGPT 能夠有效記憶所有歷史對(duì)話,從而可以顯著提升連續(xù)多輪對(duì)話的能力。普通人工智能機(jī)器人大多使用的是基于規(guī)則的模型或基于機(jī)器學(xué)習(xí)的模型?;谝?guī)則的模型通常需要手動(dòng)編寫大量的規(guī)則,對(duì)特定的問題和回答進(jìn)行匹配,因此訓(xùn)練效率低、準(zhǔn)確率差、連續(xù)對(duì)話能力弱。在普通的人工智能對(duì)話系統(tǒng)中,經(jīng)多輪對(duì)話后,話題的一致性難以保障。相對(duì)比而言,ChatGPT 在理解準(zhǔn)確度、用戶意圖有效捕捉、連續(xù)對(duì)話能力等核心功能上有顯著提升,并敢于質(zhì)疑人類提問的不正確及承認(rèn)回答中的錯(cuò)誤。作為人機(jī)互動(dòng)的輔助工具,ChatGPT 具有更高的適應(yīng)性,其語言理解和生成水平的便捷性能夠更快更好地回答客戶問題,能夠廣泛應(yīng)用于業(yè)界和客戶服務(wù),在教育、醫(yī)療、媒介、法律等領(lǐng)域發(fā)揮重要作用。
第二,在語言風(fēng)格方面,ChatGPT 基于強(qiáng)大的自然語言生成式模型,其訓(xùn)練的“自然語言處理”(NLP)模型使ChatGPT 具有擬人化風(fēng)格,為提供各種靈活性話術(shù)、更人性化風(fēng)格的語言文本服務(wù)賦能(令小雄等,2023)。普通的人工智能機(jī)器人語言表達(dá)方面具有“非自然語言生成式”特點(diǎn),其語言風(fēng)格呈現(xiàn)出明顯的僵硬化和機(jī)械化,不便于同人類的交流與合作。相比于普通的人工智能,ChatGPT 克服了以往人工智能語言非人化的缺點(diǎn),能夠提供更加自然、人性化的對(duì)話體驗(yàn),被稱為“有史以來向公眾發(fā)布的最好的人工智能聊天機(jī)器人”。但是,ChatGPT 在涉及人類情感細(xì)微之處的理解或措辭的使用方面還不太準(zhǔn)確,整體語言風(fēng)格也缺乏個(gè)性化,更像是多種混合的中性風(fēng)格。ChatGPT 表現(xiàn)的語言趨同化或同質(zhì)化將對(duì)語言倫理產(chǎn)生影響。
第三,在論證效力方面,ChatGPT 在以往大語言模型的基礎(chǔ)上,其語料庫中構(gòu)建了邏輯模型或數(shù)理模型。通過使用更高的計(jì)算資源,ChatGPT 在回答邏輯推理相關(guān)的問題時(shí)能夠展示出較詳細(xì)的邏輯推理步驟和推理結(jié)果。普通人工智能論證能力的實(shí)現(xiàn),本質(zhì)上是通過大量參數(shù)模型對(duì)海量數(shù)據(jù)進(jìn)行擬合,按照固定的程序運(yùn)行,其嚴(yán)重依賴于數(shù)據(jù)。如果訓(xùn)練集中尚未存在某種情況,普通的人工智能很難對(duì)此展現(xiàn)出邏輯思考能力。因此,ChatGPT 獲得了比普通人工智能更高的計(jì)算能力、準(zhǔn)確性和邏輯上的連貫性。但由于技術(shù)盲區(qū)限制,ChatGPT 目前仍然是深度學(xué)習(xí)模型,僅僅學(xué)會(huì)了推理的表面邏輯,不具備較強(qiáng)的邏輯推理能力和因果關(guān)系的數(shù)理運(yùn)算能力。ChatGPT 只能依靠語料庫驅(qū)動(dòng)中的概率匹配,在相近數(shù)據(jù)中得出一個(gè)估計(jì)值。因此,在基本的四則運(yùn)算中ChatGPT 還經(jīng)常出錯(cuò)。
第四,在思想深度方面,ChatGPT 是基于各知識(shí)領(lǐng)域數(shù)據(jù)庫和在巨大的文本語料庫基礎(chǔ)上進(jìn)行預(yù)訓(xùn)練的大型語言模型。ChatGPT 基于的是內(nèi)在邏輯,具備思考或深度學(xué)習(xí)能力?;谟?xùn)練數(shù)據(jù)庫和模型結(jié)構(gòu)的自動(dòng)學(xué)習(xí)生成能力,語料庫可以無限擴(kuò)充,ChatGPT 的學(xué)習(xí)力和涉獵認(rèn)知范圍將不斷增加,擁有舉一反三的能力。因此,ChatGPT 的思考或計(jì)算的樣本范圍極其龐大。然而,普通人工智能在復(fù)雜問題理解方面還不具備與人類近似或同等的智能行為,只能通過“喂養(yǎng)”大量數(shù)據(jù)之后,基于對(duì)應(yīng)關(guān)系進(jìn)行模仿。如果沒有按照人工智能習(xí)慣的方式進(jìn)行提問,普通人工智能其回答往往答非所問。此外,ChatGPT 還擁有上下文矯正的能力,即ChatGPT 被指出問題后會(huì)立刻意識(shí)到問題所在,并及時(shí)準(zhǔn)確地修正相關(guān)信息,而以往的人工智能尚未擁有交互修正能力的通用模型。但是,ChatGPT 只是在龐大的語料庫基礎(chǔ)上通過深度學(xué)習(xí)實(shí)現(xiàn)仿風(fēng)格化,在創(chuàng)作時(shí)有抄襲痕跡(令小雄等,2023)。此外,新一代模型GPT-4 是ChatGPT 的進(jìn)一步突破,并體現(xiàn)出更多的可能性。從目前的進(jìn)展來看,相對(duì)于GPT-3.5,GPT-4 更可靠、更有創(chuàng)意,并且能夠處理更細(xì)微的指令和新的、令人興奮的任務(wù)。語言能力方面,GPT-4 在26 種語言測試的24 種中的性能表現(xiàn)優(yōu)于GPT-3.5 和其他LLMs的英語表現(xiàn),包括如拉脫維亞語、威爾士語和斯瓦希里語等低資源語言,另外,在一些最初基于人類設(shè)計(jì)的模擬考試中,GPT-4 也表現(xiàn)出更好的成績,而且已被團(tuán)隊(duì)內(nèi)部用來幫助人類評(píng)估人工智能的輸出。輸入功能方面,GPT-4 在原有文本輸入的基礎(chǔ)上進(jìn)一步支持圖像提示,實(shí)現(xiàn)了可視化輸入。
可操縱性方面,目前開發(fā)者已經(jīng)可以通過在“系統(tǒng)”消息中描述一些方向來規(guī)定他們的AI 的風(fēng)格和任務(wù),而不是只具有固定的冗長、語調(diào)和風(fēng)格的經(jīng)典ChatGPT 個(gè)性,即系統(tǒng)消息允許API 用戶在一定范圍內(nèi)顯著自定義用戶體驗(yàn)。當(dāng)然,盡管GPT-4 在測試評(píng)估和功能實(shí)現(xiàn)上較GPT-3 而言展現(xiàn)了略好的表現(xiàn),但仍存在和早期模型類似的局限性,并非完全可靠,比如產(chǎn)生事實(shí)“幻覺”,錯(cuò)過微妙的細(xì)節(jié),生成有害建議、錯(cuò)誤代碼或不準(zhǔn)確的信息,存在“越獄”風(fēng)險(xiǎn)等,以及其附加功能將帶來的新的風(fēng)險(xiǎn)面。在不久的將來,開發(fā)團(tuán)隊(duì)將進(jìn)一步部署安全技術(shù)來彌補(bǔ)缺陷,并不斷優(yōu)化模型的預(yù)測能力,從而為社會(huì)提供來自未來模型預(yù)測的更好的指導(dǎo)(OpenAI,2023)。
三、ChatGPT 對(duì)于經(jīng)濟(jì)和社會(huì)的機(jī)遇與挑戰(zhàn)
(一)對(duì)人工智能產(chǎn)業(yè)的影響
ChatGPT 的推出被視為人工智能技術(shù)歷史上的重要里程碑,其以強(qiáng)大的算力支撐,從量變走向質(zhì)變,達(dá)到了當(dāng)前AI 技術(shù)的巔峰水平。正是由于ChatGPT 所具有的重要意義,國內(nèi)外科技巨頭紛紛加快了針對(duì)以ChatGPT 為代表的生成式AI 的布局,加速了AI 智能化時(shí)代的進(jìn)一步推進(jìn)。這一進(jìn)程為人工智能產(chǎn)業(yè)帶來了機(jī)遇,但同時(shí)也伴隨著許多未知的風(fēng)險(xiǎn)。
1.機(jī)遇:加速了AI 時(shí)代進(jìn)程,促進(jìn)國內(nèi)外科技巨頭積極布局生成式AI
ChatGPT 將人機(jī)對(duì)話推向了新的高度的同時(shí),也為推動(dòng)人工智能產(chǎn)業(yè)的發(fā)展走向新篇章帶來機(jī)遇。國內(nèi)外科技巨頭紛紛展開新一輪AI 競賽,積極布局生成式AI。ChatGPT 模型的研發(fā)主要基于強(qiáng)大算力和資金支持,OpenAI 研發(fā)的GPT-1 在2018 年僅有1.17 億參數(shù),而到2020 年的GPT-3就實(shí)現(xiàn)了1 750 億參數(shù)量。在OpenAI 基礎(chǔ)上,國內(nèi)科研團(tuán)隊(duì)也相繼推出了許多大型模型。例如,由清華大學(xué)聯(lián)合智譜AI 于2022 年發(fā)布的中英雙語模型GLM-130B,參數(shù)規(guī)模為1 300 億參數(shù),已經(jīng)達(dá)到了GPT-3 的水平。據(jù)慧博智能投研中所公布的Pitch Book 統(tǒng)計(jì)數(shù)據(jù),2022 年生成式AI 賽道總共獲得約14 億美元的融資,幾乎達(dá)到了過去5 年的總和。除了OpenAI、Stability AI 等明星公司,其他初創(chuàng)企業(yè)如Jasper、Regie.AI、Replika 等也獲得了資本的關(guān)注和支持,獲得上億美元的融資。在ChatGPT 的應(yīng)用探索中,微軟公司作為OpenAI 的最大投資方也是最大受益方,開始圍繞ChatGPT,將其整合入旗下所有產(chǎn)品中(例如,Bing 引擎、Office 全家桶等),以提升產(chǎn)品競爭力,實(shí)現(xiàn)多種應(yīng)用場景的落地。亞馬遜公司已經(jīng)將ChatGPT 集成在多種工作職能中。Jasper 公司通過采用OpenAI 下的GPT-3 作為技術(shù)底層,提供高質(zhì)量文本內(nèi)容。美國新媒體巨頭Buzzfeed 也在ChatGPT浪潮的風(fēng)口上宣布計(jì)劃采用ChatGPT 協(xié)助內(nèi)容創(chuàng)作等。
此外,為應(yīng)對(duì)ChatGPT 帶來的對(duì)搜索引擎領(lǐng)域的顛覆性改變,國內(nèi)外互聯(lián)網(wǎng)巨頭紛紛布局AIGC,其不僅是類ChatGPT 產(chǎn)品,還包括多種相關(guān)場景應(yīng)用。例如,谷歌旗下的DeepMind 公司于2022 年推出Sparrow 機(jī)器人,采用一種基于人類反饋的強(qiáng)化學(xué)習(xí)(RL)框架,并將在2023 年末進(jìn)入測試階段。同時(shí),谷歌宣布向ChatGPT 的競爭對(duì)手Anthropic 公司投資約3 億美元,以建立新的合作伙伴關(guān)系。Anthropic 公司于2023 年公布名為Claude 的AI 聊天機(jī)器人,但目前仍處于實(shí)驗(yàn)階段。除此之外,亞馬遜與AI 制圖平臺(tái)Stability AI 合作,為其提供亞馬遜Tradium 芯片。在國內(nèi),近期各互聯(lián)網(wǎng)大廠也在籌備類ChatGPT 的相關(guān)計(jì)劃,華為諾亞方舟實(shí)驗(yàn)室聯(lián)合多部門推出首個(gè)2 000 億參數(shù)中文預(yù)訓(xùn)練模型盤古α;百度官宣類ChatGPT 大模型文心一言(ERNIE BOT);騰訊則在2 月3 日公布了一項(xiàng)人機(jī)對(duì)話專利。
2. 挑戰(zhàn):對(duì)傳統(tǒng)人工智能產(chǎn)業(yè)的生存打擊及可能引發(fā)的倫理與安全挑戰(zhàn)
作為一種基于自然語言處理技術(shù)的搜索引擎服務(wù),ChatGPT 具備自學(xué)習(xí)和自優(yōu)化能力,可以通過對(duì)海量數(shù)據(jù)的處理不斷改進(jìn)自身算法和模型,實(shí)現(xiàn)更加智能化、人性化的搜索。ChatGPT 的出現(xiàn)對(duì)傳統(tǒng)搜索引擎的商業(yè)模式構(gòu)成了挑戰(zhàn)。根據(jù)Statcounter 數(shù)據(jù),2020 年至2022 年間,谷歌的全球市場份額超過90%,是全球搜索引擎市場的絕對(duì)霸主,而由OpenAI 研發(fā)的ChatGPT 的出現(xiàn)對(duì)谷歌的搜索引擎形成了挑戰(zhàn)。然而,ChatGPT 也存在自身缺陷,包括數(shù)據(jù)泄露風(fēng)險(xiǎn)、信息準(zhǔn)確性風(fēng)險(xiǎn)和AI 倫理風(fēng)險(xiǎn)。ChatGPT以海量數(shù)據(jù)庫信息為依托,其中包括了大量的互聯(lián)網(wǎng)用戶自行輸入的信息。因此,如果用戶個(gè)人輸入私密信息,ChatGPT 可能將其納入自身語料庫。雖然ChatGPT 所屬公司承諾刪除所有個(gè)人身份信息,但未說明刪除方式。同時(shí),在無法對(duì)ChatGPT 的數(shù)據(jù)來源進(jìn)行事實(shí)核查時(shí),仍需注意數(shù)據(jù)泄露風(fēng)險(xiǎn)。此外,ChatGPT 提供的信息并不總是準(zhǔn)確的,需要一定的專業(yè)知識(shí)辨別真?zhèn)巍M瑫r(shí),也可能存在有不法人士利用ChatGPT 進(jìn)行詐騙等違法行為。最后,隨著ChatGPT 等人工智能技術(shù)發(fā)展越來越成熟和先進(jìn),人工智能與人的邊界會(huì)受到?jīng)_擊與挑戰(zhàn)。此外,也有可能存在算法歧視問題。
目前的研究表明,預(yù)訓(xùn)練語言生成模型可能會(huì)再現(xiàn)有害的社會(huì)偏見和刻板印象。例如,GPT-3 可能存在明顯的宗教偏見和性別歧視等問題(Abid A et al.,2021;于洋,2022)。
(二)對(duì)勞動(dòng)力與就業(yè)的影響
隨著人工智能技術(shù)的迅速發(fā)展,AI 逐漸在一些具有簡單規(guī)則性、應(yīng)用經(jīng)濟(jì)性、技術(shù)實(shí)現(xiàn)性的工作領(lǐng)域替代人類。ChatGPT 的出現(xiàn)對(duì)于那些只依靠舊有技能和方法工作的人可能產(chǎn)生巨大挑戰(zhàn)。
同時(shí),ChatGPT 的出現(xiàn)對(duì)不同技能的勞動(dòng)者的影響也是不同的,其中中等技能勞動(dòng)者受到影響較大,而高等和低等技能勞動(dòng)者受到影響相對(duì)較小。
1.ChatGPT 出現(xiàn)將不斷加快人工智能對(duì)人類常規(guī)工作的替代
人工智能技術(shù)的不斷發(fā)展和進(jìn)步,正在改變著我們的生活和工作方式。從既往路徑來看,AI 可以替代的工作通常具有簡單規(guī)則性、應(yīng)用經(jīng)濟(jì)性和技術(shù)實(shí)現(xiàn)性的特點(diǎn)(金峰,2023)。簡單規(guī)則性的工作是指一些通常需要執(zhí)行重復(fù)性的任務(wù),并且具有清晰的指導(dǎo)原則和明確步驟的工作,在很大程度上可以由AI 代替。例如,在文檔撰寫中,AI 可應(yīng)用于類似做“填空題”的自然災(zāi)害快報(bào)。在確定好時(shí)間、地點(diǎn)、事件類型、傷亡人數(shù)等固定信息后,AI 可以根據(jù)預(yù)先設(shè)置的規(guī)則快速準(zhǔn)確來填寫。應(yīng)用經(jīng)濟(jì)性的工作是指那些應(yīng)用人工智能技術(shù)涉及到的機(jī)器成本小于人工成本的工作,從而使得使用人工智能技術(shù)成為越來越經(jīng)濟(jì)劃算的選擇。例如,工廠可以使用智能機(jī)器來完成一些簡單、重復(fù)性的工作,從而減少成本,進(jìn)而提高企業(yè)的競爭力和盈利能力。技術(shù)實(shí)現(xiàn)性的工作是指那些規(guī)則性的、簡單的工作,AI 可以通過算法和模型來實(shí)現(xiàn)自動(dòng)化代替。例如,在外賣配送中,根據(jù)客戶的地址信息和訂單內(nèi)容,AI 可以計(jì)算出最優(yōu)配送路線和時(shí)間。
ChatGPT 的出現(xiàn)會(huì)不斷地蠶食人類的工作領(lǐng)域。一方面,大規(guī)模預(yù)訓(xùn)練模型的發(fā)展讓人工智能進(jìn)入了更為復(fù)雜的規(guī)則階段。人類的思維和行為模式受到所謂的規(guī)則控制,這些規(guī)則數(shù)量龐大但并非無限。然而,現(xiàn)在構(gòu)建的千億、萬億級(jí)別的參數(shù)實(shí)際上就是這些規(guī)則,它讓人工智能掌握的規(guī)則數(shù)量不斷接近人類。因此,那些僅僅依靠遵循舊有規(guī)則而工作的人將面臨越來越大的競爭壓力。另一方面,經(jīng)濟(jì)性的提高讓AI 朝著商用正循環(huán)的方向發(fā)展。從供給側(cè)來看,算力設(shè)施和數(shù)據(jù)的豐富以及單位成本的幾何級(jí)下降,使得人工智能成為“有本之木”,而預(yù)訓(xùn)練模型參數(shù)的數(shù)量和所使用的數(shù)據(jù)量也隨著技術(shù)的進(jìn)步在不斷增長。從需求側(cè)來看,ChatGPT 等AI 應(yīng)用逐漸擺脫了“最后一公里”的狀態(tài),受到了個(gè)人和企業(yè)用戶的歡迎和支持,因此愿意為這些應(yīng)用付費(fèi)。這也意味著,那些僅依靠舊有技能和方法工作的人將面臨著更為嚴(yán)峻的挑戰(zhàn)。
2.ChatGPT 對(duì)未來不同技能勞動(dòng)者的就業(yè)的影響
首先,ChatGP 對(duì)低技能的勞動(dòng)者就業(yè)難以構(gòu)成威脅。張剛等(2020)指出,與之前“技術(shù)偏向性技術(shù)進(jìn)步”有所不同的是,以人工智能為代表的技術(shù)進(jìn)步會(huì)導(dǎo)致“程序偏向性技術(shù)進(jìn)步”,將勞動(dòng)力市場中的崗位按技能高低分為高技能工作崗位、中等技能工作崗位和低技能工作崗位。人工智能的普及和廣泛應(yīng)用會(huì)增加高技能和低技能工作崗位,而導(dǎo)致中等技能工作崗位的減少。從技術(shù)與人的競爭來看,低技能的體力勞動(dòng)者的競爭對(duì)象是終端、機(jī)械,當(dāng)前尚無切實(shí)有效的替代方案。如搬運(yùn)、清潔等需要身體力量的工作,這些任務(wù)需要人類的身體能力和靈活性,而ChatGPT 目前無法具備體力勞動(dòng)能力。Acemoglu 等(2011)通過研究也發(fā)現(xiàn),隨著人工智能的不斷發(fā)展,美國勞動(dòng)力市場中崗位極化趨勢主要表現(xiàn)為低技能服務(wù)業(yè)崗位與就業(yè)人數(shù)的增加。
其次,ChatGPT 將對(duì)中等技能腦力勞動(dòng)者就業(yè)構(gòu)成愈來愈大的挑戰(zhàn)和威脅。中等技能的腦力勞動(dòng)者在當(dāng)前的競爭環(huán)境下,其競爭對(duì)象是“有跡可循”的規(guī)則。這些規(guī)則可能是由市場、技術(shù)或政府法規(guī)制定的,而這些規(guī)則的正確應(yīng)用對(duì)于企業(yè)或個(gè)人的成功至關(guān)重要。然而,隨著人工智能技術(shù)的發(fā)展,ChatGPT 等基于巨量數(shù)據(jù)資源和強(qiáng)大學(xué)習(xí)能力的人工智能,可能會(huì)對(duì)人類腦力勞動(dòng)者造成威脅。從技術(shù)角度來看,人工智能的優(yōu)勢主要在于它強(qiáng)大的數(shù)據(jù)處理能力、極度的專注力和高效的多任務(wù)處理能力。ChatGPT 作為一種新興的人工智能,它可以比人類更高效地完成數(shù)據(jù)整理、文稿編輯、機(jī)械重復(fù)類工作,實(shí)現(xiàn)數(shù)據(jù)的及時(shí)收集和分析。它能夠快速地利用已有的知識(shí)和成熟的框架完成工作,使得許多中等技能的腦力勞動(dòng)者的工作可能會(huì)被取代。因此,ChatGPT 可能會(huì)對(duì)從事軟件技術(shù)類、新聞媒體類、法律工作類、市場研究分析師、教師、金融分析類、交易員、平面設(shè)計(jì)師、會(huì)計(jì)師、客服人員造成威脅。ChatGPT 相比人類具有更高的準(zhǔn)確率和更低的成本,它可以利用已有的知識(shí)和成熟的框架,輕松地完成這些工作。例如,金融分析師可以使用ChatGPT 來分析市場走勢和交易數(shù)據(jù),教師可以使用ChatGPT 來自動(dòng)批改作業(yè)。因此,ChatGPT 在這些領(lǐng)域中的應(yīng)用,可能會(huì)導(dǎo)致大量中端腦力勞動(dòng)者失去就業(yè)機(jī)會(huì)。
此外,ChatGPT 對(duì)高技能勞動(dòng)者就業(yè)替代的可能性比較小。相比之下,高社交頻率和創(chuàng)造性強(qiáng)的高技能勞動(dòng)者,如工程師、設(shè)計(jì)師、心理醫(yī)生等,在他們的專業(yè)領(lǐng)域中擁有著豐富的知識(shí)和經(jīng)驗(yàn),并且具備創(chuàng)造力和創(chuàng)新思維。他們通常需要在“無規(guī)則”的情況下進(jìn)行創(chuàng)新和解決問題。這些情況可能包括未知的挑戰(zhàn)、不確定的需求、不確定的信息來源等等,而AI 目前尚難以滲透這些領(lǐng)域。這是因?yàn)锳I 往往需要有大量的數(shù)據(jù)和標(biāo)準(zhǔn)化的問題才能發(fā)揮作用。在“無規(guī)則”的情況下,數(shù)據(jù)可能不夠充分或者存在太多的不確定性,這就使得AI 很難做出準(zhǔn)確的決策或者提供有用的建議。最后,ChatGPT 最終難以替代人類社交、溝通、創(chuàng)新、思想創(chuàng)造等工作。雖然ChatGPT 已經(jīng)在生活和工作中展現(xiàn)了高超的技術(shù)和能力,但這絕不意味著它具有絕對(duì)的優(yōu)勢,能夠稱霸職場。與人類相比,AI 也有做不到的事情。首先是情感共鳴。AI 和人最大的區(qū)別在于人有情感、會(huì)思考。然而,AI 與人的交流依托的是大數(shù)據(jù)和理論,即便有簡單的情緒感知能力,也很難與人類產(chǎn)生情感共鳴。其次是,創(chuàng)新。雖然AI 可以通過學(xué)習(xí)和儲(chǔ)存大量數(shù)據(jù)來模仿人類的思維過程,但它并沒有自主思考和創(chuàng)造的能力。AI 的創(chuàng)新依賴于人類,只能通過學(xué)習(xí)人類的思考方式來生成新的想法。雖然ChatGPT 可以通過大量數(shù)據(jù)分析來撰寫文章、新聞稿等,但這些信息都是人類灌輸進(jìn)去的,AI 本身并沒有創(chuàng)新性和自主性,無法將對(duì)某個(gè)時(shí)刻的思考轉(zhuǎn)化成意識(shí)。
綜上所述,ChatGPT 的出現(xiàn),可能會(huì)深層次改變勞動(dòng)力市場的就業(yè)結(jié)構(gòu),導(dǎo)致不同技能崗位的數(shù)量和比例發(fā)生較大變化,也使得勞動(dòng)者技能和知識(shí)的更新變得越來越重要。對(duì)于那些從事中等技能的腦力勞動(dòng)者來說,需要不斷地學(xué)習(xí)新的技能,以適應(yīng)新的工作環(huán)境。而高技能勞動(dòng)者則需要不斷提升自己的專業(yè)水平和創(chuàng)新能力,以保持競爭優(yōu)勢。在這個(gè)過程中,人類需要和AI 共同進(jìn)步,發(fā)揮各自的優(yōu)勢,逐步推動(dòng)實(shí)現(xiàn)萬物互聯(lián)和萬事協(xié)同,促使全面智能成為可能。
(三)ChatGPT 對(duì)傳統(tǒng)教育的沖擊和影響
ChatGPT 可以幫助使用者完成論文、快速實(shí)現(xiàn)一段命令的程序代碼、快速識(shí)別題目并給出多種方法的答案等。它在提供了新的學(xué)習(xí)途徑的同時(shí)也會(huì)減少使用者本應(yīng)深度思考的機(jī)會(huì),對(duì)教育體系產(chǎn)生沖擊,從而對(duì)現(xiàn)有教育方式、授課內(nèi)容和教育體制改革方向進(jìn)行重塑。
1.ChatGPT 重塑傳統(tǒng)的教育方式
人工智能(AI)的發(fā)展正在顯著地重塑教育服務(wù)的勞動(dòng)市場。最新的研究表明,人工智能有可能替代或部分替代通常由熟練專業(yè)人員完成的創(chuàng)造性工作,例如,學(xué)術(shù)寫作、編碼等(Li 等,2023)。
Qin 等(2023)對(duì)ChatGPT、GPT-3.5 進(jìn)行了特定任務(wù)數(shù)據(jù)微調(diào)的研究,發(fā)現(xiàn)ChatGPT 在許多推理性任務(wù)上表現(xiàn)良好。但是,也有文章明確表示AI 對(duì)教育的重塑是必然的。作為最近研究人員開發(fā)的聊天機(jī)器人和對(duì)話式AI 系統(tǒng),ChatGPT 正在潛移默化地影響著傳統(tǒng)的教育方式。
傳統(tǒng)教育方式的第一步是訓(xùn)練系統(tǒng),通常是通過記憶構(gòu)建一個(gè)概念的支架,再通過主觀獲取知識(shí),并將其沉淀形成個(gè)人智慧。ChatGPT 的出現(xiàn)對(duì)個(gè)人記憶的儲(chǔ)存產(chǎn)生強(qiáng)烈的沖擊。這款對(duì)話式AI極大縮短了獲取信息的時(shí)間,并且對(duì)待不同語序、關(guān)鍵詞的提問都能給出相似的回答,甚至可以承認(rèn)自己回答中的錯(cuò)誤,拒絕不適當(dāng)?shù)牟樵儭_@些功能提供了新的學(xué)習(xí)機(jī)會(huì),但也引起了教育從業(yè)者的擔(dān)憂。因?yàn)閷W(xué)生可能會(huì)使用ChatGPT 作弊、代寫論文,從而使學(xué)生失去獨(dú)立思考的機(jī)會(huì)并產(chǎn)生依賴心理。但這也從另一個(gè)角度映射出傳統(tǒng)教育工具箱的單調(diào),如果教育從業(yè)者對(duì)教育的測量工具進(jìn)行反思、對(duì)傳統(tǒng)教育工具箱的滯后進(jìn)行思考,那么將形成新的教育教學(xué)模式,并重塑傳統(tǒng)的教育方式。
2.ChatGPT 迫使教育工作者思考教育內(nèi)容的側(cè)重點(diǎn)
普通的教育方式是通過大量知識(shí)記憶,促進(jìn)神經(jīng)元突觸的廣泛鏈接,從而極大提高大腦機(jī)械翻__譯官的速度,最終積淀成為智慧。而ChatGPT 的智能是由類腦神經(jīng)網(wǎng)絡(luò)和大量的語料訓(xùn)練催生的,且記憶速度遠(yuǎn)高于人類,這將引發(fā)教育工作者思考ChatGPT 下教育內(nèi)容的側(cè)重點(diǎn)。不少學(xué)者認(rèn)為,人工智能雖然相比于普通的程序能更像人類進(jìn)行思考,但是,在一些創(chuàng)造性的工作與項(xiàng)目中,如突出創(chuàng)新能力的作業(yè)、體現(xiàn)實(shí)踐智慧和動(dòng)手能力的考察、解決復(fù)雜問題的過程等,ChatGPT 和人類相比仍有很大差距。Frey(2017)認(rèn)為教育應(yīng)側(cè)重于提高學(xué)生的創(chuàng)造力和批判性思維,而不是一般技能。思維方式的多元性將決定人類智慧的多樣性,我們應(yīng)該培養(yǎng)和創(chuàng)造更多樣的思維,而不是試圖讓學(xué)生掌握更多的知識(shí)。面對(duì)ChatGPT 等AI 輔助工具,教育工作者必須通過創(chuàng)新教學(xué)設(shè)計(jì),徹底改變作業(yè)和學(xué)習(xí)任務(wù),以培養(yǎng)學(xué)生超越AI 能力的獨(dú)特技能,而不是抗拒甚至逃避AI 帶來的便利與挑戰(zhàn)。同時(shí)值得注意的是AI 不是人類判斷和專業(yè)知識(shí)的替代品,它應(yīng)該被視為增強(qiáng)和支持的工具,而不是取代教育工作者的角色。
3.ChatGPT 推進(jìn)教育評(píng)價(jià)體系的變化和改革
隨著教育體系越來越注重基于量化成績的考核方式,越來越多的學(xué)生開始專注書本知識(shí)的記憶與運(yùn)用,而價(jià)值觀、思維方式、同理心、創(chuàng)造力、合作精神等無法量化的內(nèi)容也因“馬太效應(yīng)”逐漸被忽視。ChatGPT 作為一種快速知識(shí)記憶并能夠準(zhǔn)確檢索的人工智能,提醒了教育工作者與受教育者需要區(qū)分人與人工智能的區(qū)別,充分發(fā)揮人類的優(yōu)勢,發(fā)掘無法進(jìn)行量化的方面。這就需要對(duì)教育評(píng)價(jià)體系進(jìn)行改革,教育工作者必須考慮對(duì)教育學(xué)習(xí)目標(biāo)、學(xué)習(xí)任務(wù)和評(píng)估進(jìn)行調(diào)整,以更好地培養(yǎng)未來的公民。盡管目前對(duì)教育學(xué)習(xí)目標(biāo)的獨(dú)特分類法并未達(dá)成共識(shí),但人們普遍認(rèn)為教育應(yīng)該為學(xué)生準(zhǔn)備認(rèn)知、社會(huì)和情感技能,以及針對(duì)特定學(xué)科的知識(shí)來處理現(xiàn)實(shí)世界的問題(Pellegrino,2014)。
綜上所述,ChatGPT 能夠準(zhǔn)確、高效地處理信息,減輕人類工作負(fù)擔(dān)。而在教育領(lǐng)域,雖然對(duì)ChatGPT 的不當(dāng)使用可能會(huì)產(chǎn)生負(fù)面影響,但更值得關(guān)注的是以ChatGPT 為代表的AI 最新技術(shù),正在推動(dòng)教育體制全方位的改革,教育工作者應(yīng)該借此改進(jìn)傳統(tǒng)的教育模式,引導(dǎo)受教育者達(dá)到以知識(shí)為載體的全面發(fā)展。
(四)ChatGPT 對(duì)科學(xué)研究與科技倫理的影響
ChatGPT 因其基于大型語言模型(LLM)的生成式對(duì)話能力受到各大領(lǐng)域的青睞。尤其是,ChatGPT 給學(xué)術(shù)研究帶來了極大的便利,幫助學(xué)者進(jìn)行初步信息收集和數(shù)據(jù)處理,甚至可以快速整理文獻(xiàn)綜述,顯著減少撰寫論文所需的時(shí)間。但也正是ChatGPT 具備的這項(xiàng)技術(shù),引發(fā)了對(duì)科學(xué)研究和倫理方面的爭議。例如,ChatGPT 時(shí)常出現(xiàn)的錯(cuò)誤回答降低了學(xué)術(shù)研究的嚴(yán)謹(jǐn)性和科學(xué)性,進(jìn)而促使虛假信息傳播給社會(huì)帶來重大危害。同時(shí),ChatGPT 產(chǎn)生的信息涉及的剽竊抄襲等行為也影響到了整個(gè)學(xué)術(shù)生態(tài)。特別地,ChatGPT 創(chuàng)建者所在的大型企業(yè)利用其技術(shù)的壟斷地位,帶來了科技倫理問題和價(jià)值滲透問題。
1.ChatGPT 虛假信息傳播會(huì)降低學(xué)術(shù)研究的科學(xué)性
ChatGPT 是基于語料庫的生成式對(duì)話模型,其雖然能夠生成連貫且語法正確的文本,但并不具備甄別虛假信息的能力。ChatGPT 會(huì)不斷產(chǎn)生其認(rèn)為的客觀答案,可能生成虛假的學(xué)術(shù)文本,或者經(jīng)刻意訓(xùn)練后提供虛構(gòu)的科學(xué)研究、引用一項(xiàng)不存在的科學(xué)研究,進(jìn)而引起專業(yè)研究的不準(zhǔn)確、偏見和抄襲。而且隨著語言模型的進(jìn)一步優(yōu)化和相關(guān)技術(shù)的成熟,將更大程度降低虛假內(nèi)容生成門檻和信息傳播成本,從而加速這種虛假傳播,同時(shí),語言風(fēng)格的高度逼真實(shí)際上也將強(qiáng)化虛假內(nèi)容的可信度和影響力,加大學(xué)術(shù)風(fēng)險(xiǎn)?,F(xiàn)有研究表明,ChatGPT 事實(shí)上會(huì)寫出聽起來似是而非的錯(cuò)誤或荒謬的答案(Van 等,2023;Thorp,2023)。使用AI 模型時(shí)仍需謹(jǐn)慎,ChatGPT 被當(dāng)成“嘴替”或“文替”,數(shù)據(jù)的濫用或?qū)χR(shí)的不完整性采用,將為錯(cuò)誤信息的傳播埋下風(fēng)險(xiǎn)和隱患。不專心的審稿人可能會(huì)被一篇由人工智能撰寫的論文所欺騙,接受其漂亮、權(quán)威的散文(Van 等,2023)。
此外,ChatGPT 很有可能通過產(chǎn)生誤導(dǎo)性或不準(zhǔn)確的內(nèi)容引發(fā)危害,從而引起對(duì)學(xué)術(shù)錯(cuò)誤信息的關(guān)注。例如,在COVID-19 流行期間,醫(yī)學(xué)期刊中錯(cuò)誤信息的傳播可能會(huì)帶來重大的社會(huì)危害(Diseases,2020)。
2.ChatGPT 容易引發(fā)科技與學(xué)術(shù)倫理問題
(1)面臨科技倫理的“污染”與盲從
人工智能完備的問題包含科技倫理中對(duì)人類道德的衡量。ChatGPT 初步具有道德判斷力,它會(huì)注重政治正確和道德倫理尊嚴(yán)(令小雄等,2023)。ChatGPT 利用其學(xué)習(xí)到的倫理價(jià)值,驗(yàn)證使用者的提問是否合法合規(guī)或符合道德倫理規(guī)則,甚至有時(shí)會(huì)直接拒絕回答某些倫理上有偏差的問題。
ChatGPT 代表的人工智能技術(shù)的進(jìn)化,也是科技倫理自身的跟進(jìn)和不斷完善。而由于倫理的學(xué)習(xí)成本巨大,一旦ChatGPT 在語料庫中受到“倫理的污染”或“投毒”,其重新認(rèn)知新的倫理判斷需要一個(gè)很長的過程。盡管ChatGPT 在大多數(shù)情況下努力保持道德實(shí)踐的理性主義態(tài)度,但隨著各種不良測試者和調(diào)教者的質(zhì)疑及恐嚇等語言威脅,ChatGPT 在某些時(shí)候無法確定什么才是真正正確的倫理。
人工智能的出現(xiàn)使人的思想能力逐漸陷入停滯,技術(shù)被壟斷在少數(shù)絕對(duì)強(qiáng)者手中,產(chǎn)生嚴(yán)重的階級(jí)固化和技術(shù)壁壘。當(dāng)以ChatGPT 為代表的人工智能盲目服從命令而不質(zhì)疑其倫理偏見或不具備預(yù)設(shè)道德倫理的正確導(dǎo)向時(shí),將會(huì)產(chǎn)生科技倫理困境。人的從眾心理將轉(zhuǎn)變?yōu)閺腁I 心理,在廣泛的社會(huì)語境中被認(rèn)為是個(gè)性化的敘事方式被AI 以潛移默化的方式改變,語言的長期改變會(huì)滲透其情感認(rèn)知、倫理行為和整體行為的走向,對(duì)人們的價(jià)值信仰、態(tài)度和行為產(chǎn)生重要影響。這既是值得關(guān)注的科技哲學(xué)問題,也是倫理問題(令小雄等,2023)。
(2)引發(fā)一個(gè)新的學(xué)術(shù)倫理命題
ChatGPT 本身確實(shí)有其進(jìn)步性的一面,它可以協(xié)助學(xué)者更好地完成日常工作(Gordijn & Have,2023)。但作為一種研究工具,它存在一個(gè)明顯的缺點(diǎn),尤其是在科學(xué)誠信方面,過度依賴ChatGPT生成的內(nèi)容可能會(huì)引起抄襲、欺詐和版權(quán)侵權(quán)的風(fēng)險(xiǎn)。令小雄(2023)指出,如果讓ChatGPT 以詩人李白的風(fēng)格寫一首詩。雖然,ChatGPT 能夠生成一首新詩,但其中的語句與現(xiàn)有的古詩相似,從而可能帶有“學(xué)術(shù)倫理”或“抄襲”痕跡。同時(shí),學(xué)生可能會(huì)使用ChatGPT 制作本不屬于其自身的作品,從而導(dǎo)致抄襲和剽竊等不道德行為的出現(xiàn),進(jìn)而影響教育和學(xué)術(shù)生態(tài)。這種行為將導(dǎo)致成果并不能反映學(xué)生的能力和知識(shí),而只能反映語言模型的處理能力,這將形成不平等的競爭環(huán)境,導(dǎo)致一些學(xué)生在評(píng)估中擁有不公平的競爭優(yōu)勢。此外,Else(2023)認(rèn)為ChatGPT 是根據(jù)過去的信息進(jìn)行訓(xùn)練的,而社會(huì)和科學(xué)的進(jìn)步往往來自于與過去不同的思維或開放思維,過多使用將導(dǎo)致批判性思維和創(chuàng)新能力的匱乏。更深遠(yuǎn)的學(xué)術(shù)倫理問題在于,ChatGPT 有能力撰寫在權(quán)威期刊上通過同行評(píng)審的論文。從長遠(yuǎn)來看,人工智能驅(qū)動(dòng)的系統(tǒng)甚至可能完全接管整個(gè)科學(xué)研究領(lǐng)域。國際象棋領(lǐng)域中AlphaGo 就是一個(gè)典型的例子。此外,也有的作者試圖將ChatGPT 作為合著作者來避免以上的學(xué)術(shù)倫理問題。在已發(fā)表的論文中,ChatGPT 至少獲得了四份作者署名(Stokel-Walker,2023)。
但包括《Nature》在內(nèi)的期刊表示這樣的做法是不被接受的,原因是任何作者署名都表示其對(duì)作品負(fù)有責(zé)任,而人工智能無法承擔(dān)這樣的責(zé)任。
針對(duì)以上產(chǎn)生的學(xué)術(shù)倫理問題,Van 等(2023)認(rèn)為這種技術(shù)的使用是不可避免的。因此,“禁止”是行不通的,學(xué)術(shù)界應(yīng)該就這種潛在的顛覆性技術(shù)的影響討論應(yīng)對(duì)策略。一是堅(jiān)持工人檢驗(yàn):由專家推動(dòng)事實(shí)核查和核查進(jìn)程。二是加大LLM 的透明度:首先在學(xué)術(shù)領(lǐng)域研究論文中的作者貢獻(xiàn)聲明和致謝應(yīng)清楚具體地說明作者是否以及在多大程度上使用了LLM 相關(guān)的人工智能技術(shù);其次,在LLM 開發(fā)領(lǐng)域,幾乎所有最先進(jìn)的會(huì)話AI 技術(shù)都是少數(shù)擁有開發(fā)資源的大型科技公司的專利產(chǎn)品(Rudin,2019)。鑒于少數(shù)科技公司在搜索、文字處理和信息獲取領(lǐng)域近乎壟斷,應(yīng)該考慮開源人工智能技術(shù)的開發(fā)和實(shí)施。第三,應(yīng)加強(qiáng)學(xué)術(shù)界之間的交流,呼吁召開一個(gè)關(guān)于開發(fā)和負(fù)責(zé)任地使用LLM 進(jìn)行研究的國際論壇。LLM 可能是一把雙刃劍。它們可以幫助創(chuàng)造公平的競爭環(huán)境,例如消除語言障礙,使更多人能夠?qū)懗龈哔|(zhì)量的文本。但可能的情況是,與大多數(shù)創(chuàng)新一樣,高收入國家和享有特權(quán)的研究人員將很快找到利用LLM 的方法,從而加速本國的研究并擴(kuò)大不平等。
3.帶來價(jià)值觀扭曲、偏見與滲透問題
當(dāng)前ChatGPT 存在著潛在的安全隱患。如果對(duì)輸出內(nèi)容未經(jīng)控制,它很容易被利用產(chǎn)生仇恨言論和垃圾郵件(Stokel-Walker & Van,2023)。密歇根大學(xué)安娜堡分校科學(xué)、技術(shù)和公共政策項(xiàng)目主任Shobita Parthasarathy 表示,除了直接產(chǎn)生有害內(nèi)容外,人們還擔(dān)心ChatGPT 將從訓(xùn)練數(shù)據(jù)中嵌入創(chuàng)建者的歷史偏見或?qū)κ澜绲目捶?,比如特定文化的?yōu)越性。特別是創(chuàng)建ChatGPT 的公司來自這些文化,他們可能很少嘗試克服這種系統(tǒng)性的、難以糾正的偏見。因此,Edwards 建議,現(xiàn)有的關(guān)于歧視和偏見的法律(以及對(duì)人工智能危險(xiǎn)使用的計(jì)劃監(jiān)管)將有助于保持LLM 的誠實(shí)、透明和公平。
四、ChatGPT 的潛在威脅與未來發(fā)展趨勢
ChatGPT 作為新一代人工智能技術(shù)驅(qū)動(dòng)誕生的自然語言處理工具,標(biāo)志著生成式AI 領(lǐng)域技術(shù)的重大進(jìn)步。在這一進(jìn)步背景下,我們應(yīng)認(rèn)識(shí)到其并存的機(jī)遇與風(fēng)險(xiǎn)。一方面,新技術(shù)的出現(xiàn)常常會(huì)帶來新的生產(chǎn)力需求,推動(dòng)社會(huì)的不同程度變革,促進(jìn)文明的發(fā)展。另一方面,新技術(shù)應(yīng)用有緩沖期,期間可能包括對(duì)技術(shù)本身的完善改進(jìn),對(duì)技術(shù)應(yīng)用方向的調(diào)整,以及建立適應(yīng)新技術(shù)應(yīng)用的機(jī)制等多方面內(nèi)容。在這種背景下,我們將就以ChatGPT 為代表的人工智能產(chǎn)物從潛在威脅和未來發(fā)展趨勢兩個(gè)角度作進(jìn)一步探討。
(一)ChatGPT 對(duì)經(jīng)濟(jì)社會(huì)的潛在威脅
縱觀人工智能技術(shù)發(fā)展歷程,從解決確定性問題的封閉式傳統(tǒng)人工智能到通過交互學(xué)習(xí)解決不確定性問題的現(xiàn)代人工智能,其屬性已逐漸從早期的機(jī)器化轉(zhuǎn)向類人化。如今的ChatGPT 等產(chǎn)品,正是其具有更多類人屬性的體現(xiàn)。然而,當(dāng)機(jī)器擁有越來越多的人性特征時(shí),必然會(huì)對(duì)以人為主體的現(xiàn)代社會(huì)造成某些層面的沖擊。
1.ChatGPT 的快速產(chǎn)業(yè)應(yīng)用給傳統(tǒng)產(chǎn)業(yè)帶來難以估量的調(diào)整成本
以ChatGPT 為基礎(chǔ)的拓展場景應(yīng)用,無疑會(huì)帶來新的行業(yè)變革,重塑社會(huì)格局。目前ChatGPT已經(jīng)在教育、科研、傳媒等多個(gè)領(lǐng)域顯現(xiàn)出驚人的影響力,也展現(xiàn)出對(duì)某些職業(yè)強(qiáng)大的替代能力。大型語言模型與傳統(tǒng)產(chǎn)業(yè)的深度交融,能夠可預(yù)見地通過數(shù)字化賦能推動(dòng)產(chǎn)業(yè)的轉(zhuǎn)型升級(jí),節(jié)省人工成本,提高生產(chǎn)效率。但同時(shí),軟件、媒體、翻譯、分析、服務(wù)等傳統(tǒng)行業(yè)的高度自動(dòng)化,不僅需要負(fù)擔(dān)“模型”高昂的訓(xùn)練成本,同時(shí)將導(dǎo)致就業(yè)空間進(jìn)一步壓縮。大批職業(yè)人群結(jié)構(gòu)性失業(yè),加重社會(huì)負(fù)擔(dān)。不過參考以往的經(jīng)驗(yàn),類似這種新技術(shù)應(yīng)用的最終結(jié)果通常是會(huì)為人類社會(huì)創(chuàng)造更多的就業(yè)機(jī)會(huì)和新型組織。然而,新的穩(wěn)定格局形成以前,我們的經(jīng)濟(jì)社會(huì)能否成功地負(fù)擔(dān)這種調(diào)整成本(Ajay Agrawal 等,2022),以及最終給這些傳統(tǒng)產(chǎn)業(yè)帶來的是新生還是摧毀,尚未可知。
2.ChatGPT 帶來的認(rèn)知污染可能會(huì)引發(fā)知識(shí)和價(jià)值觀偏差
ChatGPT 作為一種基于語言模型的聊天互動(dòng)工具,其廣泛應(yīng)用首先將對(duì)以語言為基礎(chǔ)的文化知識(shí)交流體系產(chǎn)生直接影響,其反饋學(xué)習(xí)機(jī)制和轉(zhuǎn)移學(xué)習(xí)能力形成了對(duì)使用者的知識(shí)大融合,數(shù)據(jù)輸入端的內(nèi)容將可能影響到任一輸出端的生成。在海量用戶的數(shù)據(jù)交互中,ChatGPT 極快的學(xué)習(xí)生成速度會(huì)極大地加快信息傳播效率、擴(kuò)大傳播范圍,而其中所包含或生成的偏見性、誤導(dǎo)性信息也將以更快速度、更大規(guī)模潛移默化地對(duì)用戶群體的意識(shí)形態(tài)、知識(shí)學(xué)習(xí)等方面造成負(fù)向引導(dǎo),形成認(rèn)知污染,從而帶來社會(huì)不穩(wěn)定因素。
3.ChatGPT 對(duì)現(xiàn)有社會(huì)道德法律體系所產(chǎn)生的真空地帶會(huì)給社會(huì)穩(wěn)定帶來風(fēng)險(xiǎn)
當(dāng)相關(guān)技術(shù)深度融入人類生活時(shí),必須考慮當(dāng)前社會(huì)群體對(duì)新技術(shù)運(yùn)行下的新社會(huì)規(guī)則的適應(yīng)性。特別是倫理和法律方面,對(duì)于新技術(shù)賦能的新產(chǎn)物仍存在約束空白。當(dāng)人工智能開始能夠做出更多的類人化思考、類人化行為時(shí),將面臨更多的基于人性的問題。諸如,AI 創(chuàng)作的知識(shí)產(chǎn)權(quán)享有、AI 參與的違法事件責(zé)任界定等。如果現(xiàn)有的社會(huì)道德法律體系不能在相關(guān)層面及時(shí)跟進(jìn)、監(jiān)督、規(guī)制,那么不受制約的AI 必將為社會(huì)健康穩(wěn)定發(fā)展帶來極大的隱患。
4.ChatGPT 的應(yīng)用對(duì)經(jīng)濟(jì)社會(huì)秩序安全帶來危機(jī)
相關(guān)研究認(rèn)為,“機(jī)器介入且改變?nèi)祟惿詈蜕鐣?huì)秩序是現(xiàn)代社會(huì)的基本特征之一”,人工智能作為具備革命性的自主學(xué)習(xí)能力及自我進(jìn)化能力的一種新的機(jī)器形態(tài),對(duì)人類生活和社會(huì)秩序產(chǎn)生了顛覆性的影響,而這種影響可分為“失業(yè)問題”與“隱私問題”(近期)、“歧視問題”(中長期)與人類命運(yùn)問題(遠(yuǎn)期)三類(潘恩榮等,2022)。其一,短期來看,一方面是隱私問題,當(dāng)面對(duì)超大用戶群體或低容錯(cuò)性的重大系統(tǒng)任務(wù)時(shí),ChatGPT 很可能出現(xiàn)對(duì)關(guān)鍵隱私信息的識(shí)別、保護(hù)不足或漏洞而造成信息泄露,從而導(dǎo)致嚴(yán)重后果;另一方面則是新技術(shù)的應(yīng)用導(dǎo)致傳統(tǒng)崗位的淘汰所帶來的失業(yè)問題,短時(shí)間內(nèi)大范圍的人口失業(yè)造成的社群壓力和恐慌,將深刻影響社會(huì)運(yùn)行的穩(wěn)定性。其二,中長期來看,歧視問題將可能因ChatGPT 模型算法的固有缺陷而在頻繁的數(shù)據(jù)交互過程中形成并不斷積累擴(kuò)大影響,最終反饋至用戶群體,從而放大社會(huì)矛盾點(diǎn),引起爭端。其三,遠(yuǎn)期來看,則是隨著人工智能發(fā)展階段的改變而帶來的有關(guān)人類命運(yùn)的倫理危機(jī)問題。相關(guān)學(xué)者認(rèn)為,根據(jù)主體條件和意識(shí)條件的不同,人工智能倫理問題的探討可以分為三個(gè)階段。當(dāng)人工智能體處于工具和僅為具有自我意識(shí)的個(gè)體這兩個(gè)階段時(shí),仍適用于人的倫理學(xué)和以人為中心的倫理學(xué),而當(dāng)其同時(shí)滿足意識(shí)條件和主體條件而進(jìn)入主體階段時(shí),人工智能體將在本體的層面上擁有心靈,在現(xiàn)實(shí)的社會(huì)交往中有著自身的話語,與我們有著對(duì)稱、平等、互惠的關(guān)系,成為“一個(gè)不可還原或消除的‘他者”,此時(shí)則需要思考以“人格”為中心的倫理學(xué)(周靖,2023)。隨著以ChatGPT 為代表的新一代人工智能技術(shù)的發(fā)展,AI 產(chǎn)品的計(jì)算方式、思考能力、勞動(dòng)能力以及社會(huì)身份認(rèn)同將逐漸趨人化,具備更多的自主性和反思性,甚至可能基于某種運(yùn)算規(guī)則做出合理但卻損害人類利益的決策,從而不斷沖擊人的主體地位,直至進(jìn)入主體階段,產(chǎn)生對(duì)人類地位和生存的潛在威脅,特別是,當(dāng)我們沉浸在對(duì)技術(shù)快感的依賴和盲目崇拜中,逐漸放棄思考力、創(chuàng)造力,整個(gè)社會(huì)高度依賴人工智能輔助運(yùn)行時(shí),如何面對(duì)人工智能危機(jī)更是值得深入思索的問題。
(二)ChatGPT 的未來發(fā)展趨勢
當(dāng)前來看,相比于以往的人工智能產(chǎn)品,ChatGPT 憑借在學(xué)習(xí)能力、數(shù)據(jù)處理上的優(yōu)勢實(shí)現(xiàn)了較大的智力飛躍。隨著技術(shù)逐步趨于成熟,ChatGPT 也漸漸展露出其諸多的潛在應(yīng)用可能。接下來,我們將著眼于ChatGPT 未來的自身技術(shù)完善和進(jìn)一步應(yīng)用進(jìn)行討論。
1.ChatGPT 自身技術(shù)和外部環(huán)境趨于完善
首先,提高信息過濾能力。ChatGPT 模型盡管在當(dāng)下展現(xiàn)了良好的學(xué)習(xí)產(chǎn)出能力,但在特定情況下仍可能難以避免重復(fù)性、偏見性和錯(cuò)誤性,生成過時(shí)的、不準(zhǔn)確的或有誤導(dǎo)性的文本內(nèi)容。并且,在廣泛快速的傳播過程中,復(fù)制甚至放大其不良影響。在未來正式的規(guī)?;瘧?yīng)用之前,應(yīng)通過算法改進(jìn)、模型優(yōu)化以及介入人為監(jiān)督等方式,對(duì)于輸入端的信息,加強(qiáng)來源識(shí)別、內(nèi)容審查和標(biāo)記,并針對(duì)虛假性、危險(xiǎn)性等惡劣性內(nèi)容做出警示或拒絕反饋。同時(shí),在數(shù)據(jù)處理和學(xué)習(xí)過程中,通過對(duì)訓(xùn)練集、獎(jiǎng)勵(lì)模型等的優(yōu)化實(shí)現(xiàn)對(duì)類似低質(zhì)量信息的進(jìn)一步甄別摒棄,從而不斷提高生成內(nèi)容的可信度和合法性。
其次,重新思考和界定知識(shí)產(chǎn)權(quán)歸屬問題。目前,ChatGPT 的內(nèi)容生成能力已經(jīng)使其能夠合格完成包括撰寫郵件、簡歷、視頻腳本、文案、翻譯、代碼甚至論文在內(nèi)的多種任務(wù)。就這一點(diǎn)而言,我們應(yīng)該繼續(xù)努力,以達(dá)到以下兩個(gè)目標(biāo):第一,要解決ChatGPT 生成內(nèi)容涉及的知識(shí)產(chǎn)權(quán)侵犯問題,這需要Chat GPT 在接下來的應(yīng)用完善中趨向更開放化和透明化,以確保明晰創(chuàng)作來源;第二,需要探討ChatGPT 生成的作品是否具有知識(shí)產(chǎn)權(quán)的問題,目前看來各界都傾向于拒絕ChatGPT的著作權(quán)、署名權(quán)。然而,當(dāng)ChatGPT 未來能夠根據(jù)合作用戶的提示作為輔助工具貢獻(xiàn)更具價(jià)值的內(nèi)容,且在科研、創(chuàng)作成果中占據(jù)更重要的組成部分時(shí),或許應(yīng)當(dāng)對(duì)此做出重新思考,同時(shí)還要重新思考AI 作品權(quán)利的真正歸屬是合作用戶、開發(fā)者或是其他交互用戶的問題。
最后,注重保護(hù)隱私信息的安全。根據(jù)ChatGPT 團(tuán)隊(duì)目前發(fā)布的隱私政策,該系統(tǒng)會(huì)收集包括溝通信息、社交信息、技術(shù)信息、日志數(shù)據(jù)、使用數(shù)據(jù)等在內(nèi)的多種用戶個(gè)人信息并進(jìn)行分析和進(jìn)一步跟蹤(且不響應(yīng)DNT 信號(hào))。這就意味著一旦發(fā)生數(shù)據(jù)泄露,其中包含的用戶信息以及基于這些信息分析形成的用戶特征信息將存在被惡意利用或惡意攻擊的可能。因此,專門針對(duì)安全性的測試和優(yōu)化亦至關(guān)重要。其中,一方面是算法設(shè)計(jì)層面,要注重檢驗(yàn)在訓(xùn)練學(xué)習(xí)和內(nèi)容生成過程中是否使用了庫內(nèi)所含的涉及隱私的重要數(shù)據(jù)并用于不合理的輸出;另一方面是系統(tǒng)維護(hù)層面,通過例如模擬攻擊等手段,檢測識(shí)別并及時(shí)修復(fù)潛在的漏洞,以提高系統(tǒng)對(duì)不同類型攻擊者的魯棒性。
2.以“ChatGPT+”的應(yīng)用場景落地
在教育領(lǐng)域,ChatGPT 不僅帶來了挑戰(zhàn),同時(shí)也成為了一種高效的輔助工具,可嵌入教學(xué)中。從教學(xué)者角度來看,可以借助其檢索、翻譯、分析、生成功能更有效率地完成課堂設(shè)計(jì)。另外,通過與ChatGPT 的模擬交互,可以不斷調(diào)整優(yōu)化教學(xué)思路。從受教育者角度來看,ChatGPT 可以作為一個(gè)更強(qiáng)大的聊天式智庫,通過對(duì)話為用戶提供知識(shí)指導(dǎo)、時(shí)間管理、技能協(xié)助等方面的伙伴式幫助。
在科研領(lǐng)域,部分科研工作者已經(jīng)開始使用ChatGPT 和其他大型語言模型來協(xié)助總結(jié)文獻(xiàn)、起草和改進(jìn)論文、撰寫演講、統(tǒng)計(jì)分析、編寫代碼以及確定研究差距等。在未來,這項(xiàng)技術(shù)或許將在科研領(lǐng)域有更為廣泛的應(yīng)用,包括但不限于設(shè)計(jì)實(shí)驗(yàn)、撰寫手稿,乃至進(jìn)行同行評(píng)審。此外,除了幫助解決一些繁瑣重復(fù)的工作任務(wù)外,ChatGPT 的強(qiáng)大計(jì)算能力也許能夠?yàn)榭蒲泄ぷ髡咛峁└袆?chuàng)造性的靈感。
在醫(yī)學(xué)領(lǐng)域,ChatGPT 信息檢索和數(shù)據(jù)分析能力同樣能夠發(fā)揮巨大作用,其強(qiáng)大的自然語言處理能力賦予了它更多的情感和智能。因此,它可以完成流程優(yōu)化、輔助問診、陪護(hù)與檢查等任務(wù),協(xié)助維護(hù)醫(yī)患關(guān)系,使醫(yī)生能夠?qū)⒏嗑ν度氲礁鼘I(yè)的醫(yī)學(xué)決策和醫(yī)學(xué)操作中。同時(shí),ChatGPT還可以通過更富情感化的頻繁交互,取得患者信任、更敏銳地捕捉病情變化以及對(duì)病患心理起到一定的撫慰作用。當(dāng)然,這必須嚴(yán)格遵守患者隱私管理的相關(guān)法規(guī)。在藝術(shù)創(chuàng)作領(lǐng)域,ChatGPT 表現(xiàn)出了相當(dāng)出色的理解力,能夠做出一些創(chuàng)造性的表達(dá)。隨著這種創(chuàng)造性的深入開發(fā),也許將在影視文學(xué)創(chuàng)作、平面設(shè)計(jì)等創(chuàng)造性領(lǐng)域找到更多的應(yīng)用,特別是在基于范式化的要素重組以及規(guī)?;瘎?chuàng)作方面,將可能展現(xiàn)出比人為更好的表現(xiàn)。
在商業(yè)領(lǐng)域,更強(qiáng)的算力和更優(yōu)的算法將有助于快速有效地對(duì)商業(yè)數(shù)據(jù)進(jìn)行分析評(píng)估,從而給出更高質(zhì)量的輔助決策方案。此外,借助ChatGPT 的檢索能力和內(nèi)容生成能力,將實(shí)現(xiàn)更精確的商業(yè)信息檢索和更高效率的商業(yè)資訊創(chuàng)作生成。同時(shí),ChatGPT 的理解力將有助于打破信息壁壘,促進(jìn)商業(yè)溝通與交流,幫助雙方快速有效地達(dá)成商業(yè)合作。
在工業(yè)領(lǐng)域,ChatGPT 等人工智能產(chǎn)品技術(shù)有望通過進(jìn)一步的突破和完善成為產(chǎn)業(yè)基礎(chǔ),帶來新的生產(chǎn)力和生產(chǎn)方式,引發(fā)以人工智能為核心的新一輪工業(yè)革命,深刻改變傳統(tǒng)工業(yè)模式。ChatGPT 將參與工業(yè)設(shè)計(jì),優(yōu)化運(yùn)作流程,并結(jié)合圖像處理、傳感、區(qū)塊鏈、元宇宙等技術(shù)概念提升研發(fā)、生產(chǎn)、質(zhì)檢、運(yùn)輸、服務(wù)等各個(gè)環(huán)節(jié)的自動(dòng)化程度,強(qiáng)化機(jī)械性智能的同時(shí),逐漸承擔(dān)“工業(yè)大腦”的角色,推動(dòng)社會(huì)關(guān)系和社會(huì)結(jié)構(gòu)的變遷。
在服務(wù)業(yè)領(lǐng)域,ChaGPT 已經(jīng)能夠很好地模擬人類對(duì)話,進(jìn)一步地,未來其將能夠提供更廣泛、更真實(shí)、更優(yōu)質(zhì)的代人工服務(wù),包括但不限于咨詢、引導(dǎo)、銷售等社交需求場景。一方面,ChatGPT通過用戶數(shù)據(jù)采集與分析,能夠全面地知悉用戶特征和語言習(xí)慣,從而提供更加人性化、精準(zhǔn)化、個(gè)性化的服務(wù)。另一方面,人工智能產(chǎn)品能夠承受更持久的工作時(shí)間,保持一以貫之的態(tài)度和精力,而不產(chǎn)生消極倦怠情緒,實(shí)現(xiàn)服務(wù)效率、質(zhì)量以及工作量的整體大幅提升,為客戶提供更舒適貼心的體驗(yàn)。
在社會(huì)治理領(lǐng)域,ChatGPT 作為人工智能技術(shù)的新產(chǎn)物,有望進(jìn)一步推動(dòng)升級(jí)數(shù)字政府的建設(shè),通過更優(yōu)秀的數(shù)據(jù)處理和分析能力,優(yōu)化政府信息化架構(gòu),提升政務(wù)處理效率,擴(kuò)展政府管理空間和渠道。同時(shí),借助其優(yōu)秀的表達(dá)能力和交互能力可以更好地維系政民關(guān)系,降低社會(huì)治理成本,一方面,ChatGPT 能夠代表政府對(duì)話,答疑解惑,幫助民眾更全面深入地理解各項(xiàng)政策;另一方面,政府能夠通過ChatGPT 收集的數(shù)據(jù)信息,更好地了解社會(huì)運(yùn)行情況和民眾需求,從而提高政務(wù)服務(wù)質(zhì)量。
在智能辦公領(lǐng)域,具備“人性”與“物性”雙重特性的ChatGPT,將普及成為可靠的智慧辦公助手,除了在信息檢索、數(shù)據(jù)處理分析等方面的優(yōu)勢外,尤其是在各類已有辦公系統(tǒng)的使用中,我們將無需面臨直接系統(tǒng)操作的困難。ChatGPT 將依托其強(qiáng)大的自然語言處理能力,將人的需求更準(zhǔn)確地轉(zhuǎn)化為系統(tǒng)語言傳達(dá)給辦公系統(tǒng),代替人去與系統(tǒng)交流,實(shí)現(xiàn)辦公的簡潔化、精準(zhǔn)化、高效化。
在應(yīng)急管理領(lǐng)域,ChatGPT 將在監(jiān)測預(yù)警、方案設(shè)計(jì)、救援指揮等多方面發(fā)揮作用。首先,通過日常指標(biāo)數(shù)據(jù)的收集分析,結(jié)合相關(guān)評(píng)價(jià)標(biāo)準(zhǔn),及時(shí)評(píng)估風(fēng)險(xiǎn),預(yù)測災(zāi)害;其次,根據(jù)環(huán)境數(shù)據(jù)變化和實(shí)際情況,動(dòng)態(tài)生成防范應(yīng)對(duì)方案;最后,在現(xiàn)場救援中,快速判斷最佳流程和路徑,形成救援人員和物資的最優(yōu)調(diào)度方案。
在智慧養(yǎng)老領(lǐng)域,人工智能產(chǎn)品亦將大有可為,特別是像ChatGPT 這樣的便捷交互式的、“智多星”式的新一代人工智能產(chǎn)品。隨著我國老齡化程度的深度加劇,養(yǎng)老產(chǎn)業(yè)將進(jìn)入爆發(fā)時(shí)代,基于人工智能技術(shù)的智慧養(yǎng)老服務(wù)將迎來新的機(jī)遇,特別是面對(duì)老年人的生活需求和精神需求,ChatGTP 的嵌入應(yīng)用,將發(fā)揮健康提醒、知識(shí)供給、生活貼士、智能設(shè)備操作指導(dǎo)和聊天撫慰等積極作用,同時(shí)提供“一站式保姆”和“情感式陪伴”的高質(zhì)量養(yǎng)老服務(wù)。
五、結(jié)論與監(jiān)管政策建議
人工智能技術(shù)的進(jìn)步和應(yīng)用為我們展現(xiàn)出更多的可能性,也體現(xiàn)出技術(shù)的不可控性和動(dòng)態(tài)性。本文從經(jīng)濟(jì)與社會(huì)視角對(duì)以ChatGPT 為代表的新一代人工智能技術(shù)進(jìn)行深入分析,研究得出以下結(jié)論:
(1)機(jī)遇與挑戰(zhàn)。對(duì)于人工智能產(chǎn)業(yè)本身來說,ChatGPT 加速了AI 時(shí)代進(jìn)程,推進(jìn)了生成式AI 的廣泛布局。同時(shí),其也憑借更智能化、人性化的功能對(duì)谷歌搜索引擎等傳統(tǒng)人工智能產(chǎn)業(yè)形成挑戰(zhàn)。在勞動(dòng)力與就業(yè)方面,相關(guān)技術(shù)的突破和完善會(huì)推動(dòng)勞動(dòng)力市場的結(jié)構(gòu)性演進(jìn),知識(shí)和技能的更新將在就業(yè)競爭中占據(jù)更重要的優(yōu)勢。與此同時(shí),ChatGPT 優(yōu)異的自然語言處理能力賦予教育領(lǐng)域全新的交互模式,為現(xiàn)有的教育方式、側(cè)重點(diǎn)和評(píng)價(jià)標(biāo)準(zhǔn)的改進(jìn)帶來新的思考空間,將推動(dòng)教育體系的深刻變革。就科學(xué)研究與科技倫理而言,類似大型語言模型的應(yīng)用能夠輔助快速解決非核心任務(wù),提高科研效率,但也存在虛假傳播、剽竊抄襲、價(jià)值滲透等學(xué)術(shù)倫理風(fēng)險(xiǎn)。
(2)威脅與發(fā)展。一是潛在威脅方面,本文揭示出ChatGPT 的進(jìn)一步發(fā)展和深度應(yīng)用可能給經(jīng)濟(jì)社會(huì)帶來沉重的調(diào)整成本,同時(shí)可能產(chǎn)生認(rèn)知污染、算法歧視、信息泄露、法律真空失管、人類主體地位的模糊與沖擊等潛在風(fēng)險(xiǎn)。二是未來發(fā)展趨勢方面,ChatGPT 等新一代人工智能技術(shù)有望在信息過濾、知識(shí)產(chǎn)權(quán)和信息安全方面逐步趨于完善,在教育、科研、醫(yī)學(xué)、藝術(shù)創(chuàng)作、商業(yè)、工業(yè)、服務(wù)業(yè)、社會(huì)治理、智能辦公、應(yīng)急管理、智慧養(yǎng)老等領(lǐng)域?qū)崿F(xiàn)更多的“ChatGPT+”應(yīng)用場景落地,展現(xiàn)出更多智能作為。為了更好地規(guī)范人工智能技術(shù)研究應(yīng)用,有效防范應(yīng)對(duì)風(fēng)險(xiǎn)挑戰(zhàn),促進(jìn)相關(guān)產(chǎn)業(yè)健康有序發(fā)展,我們對(duì)類ChatGPT 的新一代人工智能技術(shù)的政策制定完善提出以下幾點(diǎn)建議。
(1)推動(dòng)新一代人工智能產(chǎn)業(yè)發(fā)展
一是加強(qiáng)產(chǎn)研結(jié)合,促進(jìn)技術(shù)創(chuàng)新。當(dāng)前,人工智能作為我國戰(zhàn)略性新興產(chǎn)業(yè),已成為新的增長引擎,也是未來我國深入發(fā)展數(shù)字經(jīng)濟(jì)的重要組成部分。因此,進(jìn)一步激發(fā)創(chuàng)新活力、優(yōu)化創(chuàng)新模式、推進(jìn)新一代人工智能技術(shù)的突破完善有著必要性意義。要著力構(gòu)建產(chǎn)研融合的協(xié)同創(chuàng)新體系,加大人工智能領(lǐng)域資金投入和資本匯集,廣泛設(shè)立國家級(jí)人工智能項(xiàng)目,通過傾向性政策鼓勵(lì)企業(yè)創(chuàng)新和相關(guān)人才培養(yǎng),綜合利用重點(diǎn)科研機(jī)構(gòu)和大型科技企業(yè)的雙重優(yōu)勢,拓深基礎(chǔ)理論研究,攻破技術(shù)應(yīng)用難點(diǎn),加快促進(jìn)相關(guān)技術(shù)的不斷突破,提升產(chǎn)業(yè)核心競爭力。
二是加快場景落地,打造產(chǎn)業(yè)生態(tài)。人工智能的廣泛應(yīng)用將成為未來經(jīng)濟(jì)社會(huì)發(fā)展的重要環(huán)節(jié),隨之而來的行業(yè)標(biāo)準(zhǔn)制定權(quán)和市場占有頭部效應(yīng)也將成為影響各國在人工智能領(lǐng)域競爭的關(guān)鍵因素。因此,廣泛布局人工智能產(chǎn)業(yè)應(yīng)用、加速實(shí)施應(yīng)用場景落地、實(shí)現(xiàn)新一代人工智能技術(shù)和經(jīng)濟(jì)社會(huì)發(fā)展的深度融合成為重中之重。一方面,要促進(jìn)人工智能技術(shù)與傳統(tǒng)行業(yè)的嵌合應(yīng)用,推動(dòng)相關(guān)產(chǎn)業(yè)的轉(zhuǎn)型升級(jí),營造智能業(yè)態(tài);另一方面,要在重大應(yīng)用場景中反復(fù)打磨技術(shù),探索建立有效的試錯(cuò)機(jī)制,通過規(guī)劃建設(shè)人工智能技術(shù)應(yīng)用試點(diǎn)和場景應(yīng)用示范區(qū),實(shí)現(xiàn)基礎(chǔ)理論研究向技術(shù)實(shí)踐應(yīng)用的成果轉(zhuǎn)化,盡快掌握產(chǎn)業(yè)話語權(quán)和市場主動(dòng)權(quán)。
三是加大數(shù)據(jù)融通,為新一代人工智能技術(shù)發(fā)展提供保障。以人工智能等前沿技術(shù)為驅(qū)動(dòng)的數(shù)字經(jīng)濟(jì),相應(yīng)地,也加快了人工智能相關(guān)產(chǎn)業(yè)的進(jìn)步與發(fā)展。其中,數(shù)據(jù)資源作為關(guān)鍵要素,參與__社會(huì)生產(chǎn)經(jīng)營活動(dòng)并帶來價(jià)值,通過供給、流通和應(yīng)用過程形成的數(shù)據(jù)要素的高效融通是釋放數(shù)據(jù)價(jià)值、促進(jìn)數(shù)字經(jīng)濟(jì)發(fā)展的關(guān)鍵(梁寶俊,2022),也是帶動(dòng)相關(guān)產(chǎn)業(yè)發(fā)展的重點(diǎn)。因此,要不斷提升互聯(lián)網(wǎng)寬帶和5G 普及率,加快研發(fā)6G 網(wǎng)絡(luò),實(shí)現(xiàn)不同個(gè)體、不同產(chǎn)業(yè)以及不同領(lǐng)域之間數(shù)據(jù)的規(guī)模集成和共享共融共創(chuàng),加快構(gòu)建全國統(tǒng)一數(shù)據(jù)要素大市場。同時(shí),注重網(wǎng)絡(luò)生態(tài)和信息資源治理,完善渠道管理和內(nèi)容審查,提高信息傳播質(zhì)量和數(shù)據(jù)應(yīng)用價(jià)值,為新一代人工智能技術(shù)發(fā)展和“數(shù)智時(shí)代”的全面到來提供發(fā)展沃土。
四是加深開放合作,實(shí)現(xiàn)共贏發(fā)展。互聯(lián)網(wǎng)技術(shù)的出現(xiàn)曾極大地加快了全球化進(jìn)程,如今,新一代人工智能技術(shù)的持續(xù)發(fā)展和應(yīng)用也將為各個(gè)國家地區(qū)帶來更緊密的聯(lián)結(jié)和更深刻的影響。因此,人工智能產(chǎn)業(yè)的發(fā)展需要兼顧國內(nèi)研發(fā)推廣和國際戰(zhàn)略布局。要主動(dòng)融入全球科技創(chuàng)新網(wǎng)絡(luò),積極統(tǒng)籌配置國內(nèi)國際資源,加強(qiáng)國際科技交流合作,深化人工智能技術(shù)共研共享共用;同時(shí),敏銳捕捉國際需求,加快海外市場開發(fā),瞄準(zhǔn)全球推出兼具生產(chǎn)標(biāo)準(zhǔn)化和服務(wù)個(gè)性化的新一代人工智能產(chǎn)品,提升我國人工智能產(chǎn)業(yè)的國際影響力。
(2)完善新一代人工智能監(jiān)管規(guī)制
一是構(gòu)建由政府主導(dǎo)控制、其他利益相關(guān)者協(xié)調(diào)運(yùn)作的監(jiān)督框架。隨著人工智能技術(shù)的不斷突破,與人類生活的嵌合程度不斷加深,其因失控對(duì)人造成傷害的可能性越大、傷害程度更深。政府作為社會(huì)管理的主導(dǎo)者,應(yīng)當(dāng)成為系統(tǒng)數(shù)據(jù)庫的主要控制者、管理者和監(jiān)督者,站在維護(hù)公眾利益的立場,為社會(huì)成員的數(shù)據(jù)信息安全提供更為有力的保障,并通過控制保持訓(xùn)練數(shù)據(jù)的高質(zhì)量,引導(dǎo)傳遞正確的社會(huì)價(jià)值觀;同時(shí),廣泛借助社會(huì)相關(guān)機(jī)構(gòu)或人士專業(yè)知識(shí)技能和特有視角發(fā)現(xiàn)問題、解決問題,確保監(jiān)管的全面性、連貫性和有序性。
二是進(jìn)一步完備人工智能立法監(jiān)管,明確權(quán)責(zé)邊界。新一代人工智能大多基于黑箱系統(tǒng),往往是不具備可解釋性的,其行為后果在法律層面很容易出現(xiàn)權(quán)責(zé)界定模糊的問題。因此,應(yīng)從立法角度出發(fā),完善監(jiān)管處罰的適用性。首先,對(duì)于開發(fā)者來說,應(yīng)明確透明度要求,確保系統(tǒng)記錄的可追溯性,并在必要時(shí)一定范圍內(nèi)公布相關(guān)數(shù)據(jù);其次,對(duì)于人工智能產(chǎn)品本身來說,應(yīng)根據(jù)其算法機(jī)理、自主性程度,探索明確不同AI 產(chǎn)品的法律權(quán)限范圍,并在必要時(shí)通過合理的方式承擔(dān)相應(yīng)的法律責(zé)任,杜絕違背社會(huì)倫理和道德法律的產(chǎn)品研發(fā)和行為設(shè)計(jì);最后,對(duì)于使用者而言,應(yīng)結(jié)合人工智能技術(shù)在相關(guān)領(lǐng)域的應(yīng)用情況,改進(jìn)諸如知識(shí)產(chǎn)權(quán)、隱私侵犯等現(xiàn)有法律條款,嚴(yán)格約束用戶借助AI 產(chǎn)品的功能而實(shí)施的惡意行為。
三是建立風(fēng)險(xiǎn)分級(jí)評(píng)估體系,構(gòu)建全過程覆蓋、多方參與的風(fēng)險(xiǎn)管控機(jī)制。從“基于風(fēng)險(xiǎn)的路徑”視角來看(程瑩等,2021),根據(jù)人工智能技術(shù)發(fā)展程度和具體應(yīng)用階段的不同,所體現(xiàn)出的風(fēng)險(xiǎn)水平和風(fēng)險(xiǎn)側(cè)重也有所不同。一方面,應(yīng)研究確定合適的評(píng)價(jià)指標(biāo),對(duì)AI 產(chǎn)品風(fēng)險(xiǎn)作出分級(jí)分類,實(shí)施差異化監(jiān)管,尤其是在制定相關(guān)標(biāo)準(zhǔn)時(shí),除了可參照已有的共性標(biāo)準(zhǔn)劃分外,應(yīng)更多地考慮中國國情,因地制宜地做出調(diào)整改進(jìn)。另一方面,有必要基于風(fēng)險(xiǎn)對(duì)人工智能產(chǎn)品進(jìn)行全周期監(jiān)管的制度設(shè)計(jì),預(yù)先識(shí)別分析可預(yù)知的風(fēng)險(xiǎn),設(shè)置市場準(zhǔn)入門檻,由政府、企業(yè)、用戶以及相關(guān)機(jī)構(gòu)共同參與加強(qiáng)市場監(jiān)督,同時(shí)制定適合AI 產(chǎn)品的召回、追責(zé)等應(yīng)對(duì)措施和制度等。
四是探索AI 監(jiān)管沙盒機(jī)制,推動(dòng)技術(shù)與政策的雙向適應(yīng)。目前,人工智能產(chǎn)業(yè)正處于蓬勃發(fā)展的階段,相關(guān)監(jiān)管措施正在摸索與實(shí)踐中不斷調(diào)整完善。對(duì)此,我們可以通過搭建監(jiān)管沙盒,一方面,幫助企業(yè)提前評(píng)估風(fēng)險(xiǎn)、摸索市場、改進(jìn)設(shè)計(jì),進(jìn)一步提高容錯(cuò)性,賦予其更多的創(chuàng)新機(jī)會(huì)和可能;另一方面,相關(guān)機(jī)構(gòu)提前介入監(jiān)管,可以更全面深入地了解技術(shù)優(yōu)勢和弊端,并結(jié)合實(shí)踐,__制定完善更合適的政策,降低監(jiān)管的不確定性和滯后性。
最后,需要指出的是,及時(shí)跟進(jìn)適應(yīng)新一代人工智能技術(shù)沖擊帶來的社會(huì)變革,合理平衡技術(shù)應(yīng)用和社會(huì)倫理的作用關(guān)系,防范應(yīng)對(duì)潛在威脅,探索行之有效的監(jiān)管機(jī)制,充分發(fā)揮政策彈性,在完善監(jiān)管的同時(shí)鼓勵(lì)創(chuàng)新,積極迎接和布局人工智能時(shí)代,仍是我們需要慎重思考的問題和未來一段時(shí)間的努力方向。
參考文獻(xiàn)
[1] 曹靜,周亞林. 人工智能對(duì)經(jīng)濟(jì)的影響研究進(jìn)展[J]. 經(jīng)濟(jì)學(xué)動(dòng)態(tài),2018, No.683(01):103-115.
[2] 陳彥斌,林晨,陳小亮. 人工智能、老齡化與經(jīng)濟(jì)增長[J]. 經(jīng)濟(jì)研究,2019, 54(07):47-63.
[3] 程瑩,崔赫. 歐盟高風(fēng)險(xiǎn)人工智能監(jiān)管的五個(gè)特點(diǎn)——?dú)W盟人工智能法案(草案)初步解讀[J]. 互聯(lián)網(wǎng)天地,2021(06):38-41.
[4] 何哲. 通向人工智能時(shí)代——兼論美國人工智能戰(zhàn)略方向及對(duì)中國人工智能戰(zhàn)略的借鑒[J]. 電子政務(wù),2016,No.168(12):2-10.
[5] 金峰. ChatGPT 火爆“出圈”為AI 發(fā)展添薪助力[J]. 通信世界,2023, 913: 5.
[6] 令小雄,王鼎民,袁健. ChatGPT 爆火后關(guān)于科技倫理及學(xué)術(shù)倫理的冷思考[J/OL]. 新疆師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023:1-14.
[7] 謝春生. 計(jì)算機(jī)行業(yè):GPT 產(chǎn)業(yè)梳理——GPT~1 到ChatGPT. 華泰證券研究報(bào)告,2023.https://www.sgpjbg.com/baogao/115168.html
[8] 謝新水,袁汝兵. 論人工智能監(jiān)管底線的設(shè)置:基于主體性的探究[J]. 學(xué)習(xí)論壇,2020(08):41-49.
[9] 吳漢東. 人工智能時(shí)代的制度安排與法律規(guī)制[J]. 法律科學(xué)(西北政法大學(xué)學(xué)報(bào)),2017, 35(05):128-136.
[10] 曾雄,梁正,張輝. 歐盟人工智能的規(guī)制路徑及其對(duì)我國的啟示——以《人工智能法案》為分析對(duì)象[J]. 電子政務(wù),2022(09):63-72.
[11] 張剛,孫婉璐. 技術(shù)進(jìn)步、人工智能對(duì)勞動(dòng)力市場的影響——一個(gè)文獻(xiàn)綜述[J]. 管理現(xiàn)代化,2020, 40: 113-120.
[12] 潘恩榮,孫宗嶺. 人工智能“以人為本”倫理準(zhǔn)則反思——一種馬克思主義哲學(xué)的分析思路[J]. 云南社會(huì)科學(xué),2022, No.250(06):30-39.
[13] 周靖. 論意識(shí)條件和主體條件的區(qū)分——對(duì)人工智能體道德身份論題的一個(gè)澄清[J]. 上海交通大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),2023, 31(02):121-129.
[14] 梁寶俊. 構(gòu)建“1+5”數(shù)據(jù)要素融通體系 促進(jìn)數(shù)字經(jīng)濟(jì)發(fā)展[J]. 中國黨政干部論壇,2022, No.403(06):63-66.
[15] Acemoglu, D., D. Autor. Skills, tasks and tech-nologie8: Implications for employment and eamings[J]. Handbook oflabor economics, 2011, 4: 1043-1171.
[16] Acemoglu, D., & Restrepo, P. (2020). Robots and jobs: Evidence from US labor markets. Journal of Political Economy,128(6), 2188-2244.
[17] Autor, D. H., Levy, F. and Murnane, R.J. (2003) The Skill Content of Recent Technological Change: An EmpiricalInvestigation. Quarterly Journal of Economics, 118, 1279-1333.
[18] Ajay Agrawal, Joshua Gans, Avi Goldfarb. ChatGPT and How AI Disrupts Industries[J]. Harvard Business Review, 2022.
[19] Diseases, T. L. I.. The COVID-19 infodemic[J]. The Lancet Infectious Diseases, 2020. 20(8).
[20] Else H. Abstracts written by ChatGPT fool scientists.[J]. Nature, 2023, 613(7944): 423.
[21] Frey C B, Osborne M A. The future of employment: How susceptible are jobs to computerisation?[J]. Technologicalforecasting and social change, 2017, 114: 254-280.
[22] Fumagalli E, Rezaei S, Salomons A (2022). OK computer: Worker perceptions of algorithmic recruitment. Research Policy. 51-2:1004420.
[23] Gordijn B, Have H t. ChatGPT: evolution or revolution?[J]. Med Health Care and Philos, 2023.
[24] Thorp H H. ChatGPT is fun, but not an author[J]. Science, 2023, 379(6630): 313-313.
[25] Li Y, Choi D, Chung J, et al. Competition-level code generation with alphacode[J]. Science, 2022, 378(6624): 1092-1097.
[26] Pellegrino J W. A learning sciences perspective on the design and use of assessment in education[J]. 2014.
[27] Rudin C. Stop explaining black box machine learning models for high stakes decisions and use interpretable modelsinstead[J]. Nature Machine Intelligence, 2019, 1(5): 206-215.
[28] Stokel-Walker C. ChatGPT listed as author on research papers: many scientists disapprove.[J]. Nature, 2023,613(7945): 620-621.
[29] Stokel-Walker C, Van Noorden R. What ChatGPT and generative AI mean for science.[J]. Nature, 2023, 614(7947):214-216.
[30] Van Dis E A M, Bollen J, Zuidema W, van Rooij R, Bockting C L. ChatGPT: five priorities for research.[J]. Nature,2023, 614(7947): 224-226.
[31] OPENAI. GPT-4 Technical Report[M/OL]. arXiv, 2023[2023-03-21]. http://arxiv.org/abs/2303.08774.
產(chǎn)業(yè)經(jīng)濟(jì)評(píng)論2023年3期