姜濤 葉思雨
摘要:以ChatGPT為代表的生成式人工智能(AIGC)對學(xué)術(shù)生態(tài)產(chǎn)生了深遠(yuǎn)的影響。AIGC可以輔助學(xué)術(shù)生產(chǎn),提高知識生產(chǎn)效率和質(zhì)量,助力學(xué)術(shù)評價決策和提升傳播速度和效果。但也產(chǎn)生了著作權(quán)歸屬、學(xué)術(shù)倫理、算法黑箱、數(shù)據(jù)安全、隱私保護等方面的風(fēng)險。對于AIGC帶來的困擾,應(yīng)該積極面對、審慎使用。政府要加大監(jiān)管力度,防范可能風(fēng)險;研發(fā)企業(yè)要在技術(shù)上不斷完善;學(xué)界要推進研究透明;在學(xué)術(shù)生產(chǎn)、評價和傳播各環(huán)節(jié)都應(yīng)該安排人工介入,實現(xiàn)人機協(xié)作、共同治理,賦能學(xué)術(shù)研究與推動社會進步。
關(guān)鍵詞:生成式人工智能;學(xué)術(shù)生態(tài);ChatGPT
中圖分類號:G40
文獻標(biāo)識碼:ADOI:10.7535/j.issn.1671-1653.2024.02.011
Academic Ecology under the Tide of Generative Artificial Intelligence:
Opportunities, Challenges and Countermeasures
JIANG Tao1, YE Siyu2
(1.School of Journalism and Communication, Luoyang Normal University, Luoyang 471934,China;
2.School of History and Culture, Luoyang Normal University, Luoyang 471934, China)
Abstract:
Generative artificial intelligence (AIGC) represented by ChatGPT has had a profound impact on academic ecology. Researches show that AIGC can assist academic production, improve the efficiency and quality of knowledge production, help academic evaluation decision-making and enhance the speed and effect of dissemination. But there are also risks in copyright ownership, academic ethics, algorithm black box, data security, privacy protection and so on. In order to deal with the problems brought by AIGC, it is necessary to face it positively and use it prudently. The government should strengthen supervision to prevent possible risks; Manufacturers should improve their technology continuously; The academia should promote research transparency; Artificial intervention, human-computer cooperation and joint governance should be arranged in all aspects of academic production, evaluation and communication to empower academic research and promote social progress.
Keywords:
generative artificial intelligence; academic ecology;ChatGPT
生成式人工智能(AIGC)是繼專業(yè)生成內(nèi)容(PGC)、用戶生成內(nèi)容(UGC)之后利用AI技術(shù)自動生成內(nèi)容的一種新型內(nèi)容創(chuàng)作方式[1](P192-207)。2022年11月美國人工智能實驗室OpenAI發(fā)布人工智能聊天機器人ChatGPT,上線短短兩個月,月活躍用戶數(shù)就超過一億,堪稱史上消費者數(shù)量增長最快的應(yīng)用程序。ChatGPT作為AIGC技術(shù)的重要分支和最新成果,它的面世標(biāo)志著通用人工智能(AGI)時代的開啟[2](P123)。目前,人工智能已經(jīng)適用于文學(xué)創(chuàng)作、新聞寫作、人工智能翻譯等領(lǐng)域,但真正將人工智能與學(xué)術(shù)寫作聯(lián)結(jié)起來,能夠撰寫科研論文的只有ChatGPT。學(xué)者利用ChatGPT進行論文撰寫,可以使寫作更加流暢,縮短發(fā)表時間,加速學(xué)術(shù)創(chuàng)新進程,且審稿人很難識別ChatGPT輸出的文本內(nèi)容。這必將改變?nèi)祟愔R生產(chǎn)的傳統(tǒng)方式,推動知識生產(chǎn)與傳播方式創(chuàng)新,給肩負(fù)探索未知和文化傳承使命的學(xué)術(shù)界帶來顛覆性革命。學(xué)術(shù)的生產(chǎn)和傳播離不開良好的學(xué)術(shù)生態(tài),學(xué)術(shù)生態(tài)是學(xué)術(shù)創(chuàng)新和發(fā)展的基礎(chǔ)和保障。本研究嘗試從學(xué)術(shù)生態(tài)這一視角,通過綜合考察AIGC對學(xué)術(shù)生態(tài)影響的作用機理,建構(gòu)起一套科學(xué)合理的學(xué)術(shù)生態(tài)分析框架,深入分析AIGC給學(xué)術(shù)生態(tài)帶來的積極作用與潛在威脅,并提出可行性對策建議,希冀為推動學(xué)術(shù)界合理使用AIGC提供理論指導(dǎo)和實踐借鑒,促進學(xué)術(shù)生態(tài)的良性健康發(fā)展。
一、AIGC推動學(xué)術(shù)生態(tài)變革的內(nèi)在機理
“學(xué)術(shù)生態(tài)”是指學(xué)者、學(xué)術(shù)單位或研究機構(gòu)、學(xué)術(shù)共同體等主體的生存狀態(tài),既包括不同學(xué)術(shù)主體之間的互動關(guān)系,又包括了學(xué)術(shù)主體與學(xué)術(shù)環(huán)境之間的相互影響[3]。學(xué)術(shù)生態(tài)包括學(xué)術(shù)生產(chǎn)、學(xué)術(shù)評價和學(xué)術(shù)傳播3個關(guān)鍵環(huán)節(jié)。學(xué)術(shù)生產(chǎn)致力于知識生產(chǎn)和學(xué)術(shù)創(chuàng)新,離不開外部的經(jīng)費支持和制度保障;學(xué)術(shù)評價體系對于各類主體的學(xué)術(shù)活動及其交互行為發(fā)揮著重要導(dǎo)向與調(diào)節(jié)作用,是學(xué)術(shù)主體開展學(xué)術(shù)活動的指揮棒;學(xué)術(shù)傳播旨在廣泛傳遞和擴散創(chuàng)新性知識,提升社會成員整體的知識水平,加快社會進步和發(fā)展。另外,學(xué)術(shù)生態(tài)內(nèi)部彼此開放,既相互競爭又彼此合作,追求學(xué)術(shù)創(chuàng)新和進步。學(xué)術(shù)生產(chǎn)、學(xué)術(shù)評價、學(xué)術(shù)傳播3個環(huán)節(jié)雖然在某種程度上能反映學(xué)術(shù)生態(tài)的表征,但僅僅停留在行動層面,并不能揭示學(xué)術(shù)生態(tài)的內(nèi)核關(guān)系。實際上,學(xué)術(shù)生態(tài)的發(fā)展依賴學(xué)術(shù)共同體成員通過多種互動建立的研究范式和科學(xué)合理的決策體系。因此,學(xué)術(shù)生態(tài)的基本內(nèi)核關(guān)系取決于學(xué)術(shù)共同體成員的互動與聯(lián)系,學(xué)術(shù)人員在頻繁的學(xué)術(shù)交流中達成共識,并逐漸形成制度化的行為規(guī)范。
以ChatGPT等大模型為代表的AIGC技術(shù)可以賦能論文寫作與發(fā)表等知識生產(chǎn)的各個環(huán)節(jié)。首先,隨著AIGC技術(shù)的發(fā)展,催生新的人機深度融合知識生產(chǎn)方式,知識生產(chǎn)角色將不再為人類所獨享,而是由人類與人工智能大模型協(xié)作共同推動知識的生產(chǎn)與創(chuàng)新。其次,在學(xué)術(shù)評價過程中,ChatGPT可以更好地輔助編輯審查稿件,使審稿流程更加精簡高效,提高學(xué)術(shù)質(zhì)量。再次,在學(xué)術(shù)傳播過程中,AIGC技術(shù)驅(qū)動的人工智能大模型不再僅僅是簡單、被動地作為知識傳輸媒介,更多的是作為知識的生產(chǎn)者和傳播媒介主動參與傳播過程并重塑傳播生態(tài),展現(xiàn)出傳播“中介”的全新角色。最后,原有學(xué)術(shù)活動內(nèi)核中的“人人”關(guān)系基于AIGC的強大能力被改變,“人機融合”關(guān)系正在變成現(xiàn)實,帶動了行動層面各個環(huán)節(jié)的變化,進而影響學(xué)術(shù)生態(tài)的整體樣態(tài)和發(fā)展趨勢。其內(nèi)在機理如圖1所示。
二、AIGC對學(xué)術(shù)生態(tài)的影響
學(xué)術(shù)生產(chǎn)、學(xué)術(shù)評價和學(xué)術(shù)傳播作為學(xué)術(shù)生態(tài)的關(guān)鍵環(huán)節(jié),受學(xué)術(shù)生態(tài)基本內(nèi)核的驅(qū)動并隨之發(fā)生變化,保證了學(xué)術(shù)生態(tài)的正常運作和良性發(fā)展。AIGC能深度介入學(xué)術(shù)活動全過程,學(xué)術(shù)生產(chǎn)、學(xué)術(shù)評價和學(xué)術(shù)傳播等環(huán)節(jié)面臨著一系列機遇和挑戰(zhàn)。
(一)AIGC給學(xué)術(shù)生態(tài)帶來的機遇
1.學(xué)術(shù)生產(chǎn)
學(xué)術(shù)生產(chǎn)是開展學(xué)術(shù)活動的基礎(chǔ)和前提。如今以ChatGPT為代表的AIGC技術(shù)正逐步展現(xiàn)出強大的知識創(chuàng)造能力,打破人類對知識生產(chǎn)的壟斷,重塑知識生產(chǎn)與傳播的格局。
(1)AIGC可以提高知識生產(chǎn)效率。學(xué)術(shù)研究是一種知識形成與理性思考的融合,它以知識創(chuàng)新為導(dǎo)向,通過科研人員研發(fā)新技術(shù)、生產(chǎn)新知識和革新舊思維,從而大幅度提高勞動效率和增加社會財富。通常來說,學(xué)術(shù)研究因其高深性、邏輯性、理性而為人類所獨有[4](P6-11),但ChatGPT憑借強大的算力和人性化特質(zhì)[5](P147),可以作為討論者加入學(xué)術(shù)生產(chǎn),和人類進行持續(xù)交互,提出價值較高的研究問題或建設(shè)性想法,通過觀點碰撞不斷產(chǎn)生新的思想火花,甚至以此為基礎(chǔ)自動生成論文,提高科研效率。同時,ChatGPT可以快速檢索浩如煙海的文獻資料,提取文本中的主要信息,形成文檔摘要或摘錄,自動生成文獻綜述;亦可以直接輸入某個主題得到許多重要文獻,快速把握該主題的研究前沿和學(xué)術(shù)熱點;還可以根據(jù)預(yù)先設(shè)置的規(guī)則快速準(zhǔn)確地填寫文檔,迅速縮短學(xué)術(shù)生產(chǎn)周期,將科研人員從瑣碎繁雜的非創(chuàng)造性勞動中解放出來,使他們能有更多的時間和精力投入專業(yè)學(xué)習(xí)、研究方案設(shè)計、理念創(chuàng)新和邏輯推理等創(chuàng)造性勞動中去。
(2)AIGC可以提升論文深度和論證效力。ChatGPT學(xué)術(shù)寫作能力驚人,它是在超大型預(yù)訓(xùn)練語言模型GPT-3.5的基礎(chǔ)上,通過輸入大量的語料庫和模型訓(xùn)練,讓大語言模型學(xué)習(xí)自然語言的規(guī)則和模式,再使用人類反饋強化學(xué)習(xí)(RHLF)的方法進行指令精調(diào),將模型的各項能力激活,并以符合人類的需求、偏好和價值觀的方式來理解和生成人類語言。同時,ChatGPT可以不斷豐富語料庫,在現(xiàn)有知識基礎(chǔ)上“舉一反三”無限拓展。此外,ChatGPT 還可以矯正上下文的錯誤,快速找出問題根源所在,并及時準(zhǔn)確地進行修正。最后,ChatGPT在其語料庫中構(gòu)建了邏輯模型或數(shù)理模型,可以通過思維鏈理解推理過程。依托強大的計算能力,ChatGPT已經(jīng)具有一定的邏輯推理能力,推理步驟更為詳細(xì),推理結(jié)果更為全面。而普通人工智能進行論證時,遵循的是算法法則,嚴(yán)重依賴于固定的運行程序和對海量數(shù)據(jù)的擬合,并不具有邏輯思考能力。因此,ChatGPT擁有的算力、精確性和邏輯推理的嚴(yán)密性是普通人工智能所不能比擬的。
(3)AIGC可以提高論文的語言表達水平。學(xué)術(shù)研究講究科學(xué)和準(zhǔn)確,優(yōu)秀的學(xué)術(shù)論文必須同時具備學(xué)術(shù)性和可讀性。盡管學(xué)術(shù)理論專業(yè)艱深、抽象復(fù)雜,但都能以一種簡明清晰的方式將觀點傳遞給讀者[6](P261)。因此,學(xué)者們在論文寫作時必須靈活采用不同類型的表達方式并精心組織語言,以降低讀者的理解——精力成本。ChatGPT可以利用大型語言模型LLM和海量的數(shù)據(jù)進行預(yù)訓(xùn)練,基于人類反饋的強化學(xué)習(xí)模型和微調(diào)技術(shù),展示出非常出色的語言理解能力。“自然語言處理”(NLP)技術(shù)使 ChatGPT 語言表達更加靈活和人性化,可以協(xié)助人類組織與優(yōu)化自然語言,自動生成更自然流暢的文本,克服了以往人工智能語言風(fēng)格明顯僵硬化和機械化等缺點,能夠廣泛應(yīng)用于教育、醫(yī)療、傳媒、法律等專業(yè)知識精深、晦澀難懂的領(lǐng)域。
2.學(xué)術(shù)評價
學(xué)術(shù)評價是促進學(xué)術(shù)生態(tài)健康發(fā)展的關(guān)鍵環(huán)節(jié),是按照一定的評價標(biāo)準(zhǔn)和指標(biāo)體系,對科研成果價值做出判斷的過程[7](P10)。以ChatGPT為代表的AIGC技術(shù),可以為人類學(xué)術(shù)評價決策提供很大的幫助。
(1)AIGC可以助推同行評議。同行評議即專家評價,一直是學(xué)術(shù)出版中非常重要的一環(huán)。同行評議可以嚴(yán)把學(xué)術(shù)質(zhì)量關(guān),并對學(xué)者學(xué)術(shù)行為嚴(yán)格規(guī)范。但隨著科學(xué)競爭日漸激烈,需要審核的文章數(shù)量暴增,同行評議速度慢、成本高、檢測錯誤能力差、無法防范欺詐、抑制創(chuàng)新等問題逐漸暴露,一些審稿人對論文的評價非??瘫?,對論文作者造成了精神傷害;過長的同行評議過程可能使科研人員付出更高的成本,科學(xué)家對同行評議的批評和抱怨也與日俱增。ChatGPT可以通過個性化內(nèi)容、實時反饋、自動化服務(wù)和多渠道交互等方式,幫助提升用戶體驗,使用戶能夠更好地滿足其需求和期望。相較于傳統(tǒng)的人工編審,ChatGPT更擅長處理大量文本數(shù)據(jù),可以將編輯和審稿人從繁瑣的重復(fù)性非創(chuàng)造性勞動中解放出來,讓他們更專注于學(xué)術(shù)質(zhì)量的評估,輔助他們學(xué)術(shù)評價決策,大大提升了同行評議的效率。此外,研究結(jié)果表明,ChatGPT在論文創(chuàng)新性評價中表現(xiàn)出良好的性能,并能夠較好地完成多學(xué)科領(lǐng)域的論文創(chuàng)新性評價[8](P28)。它可以為研究人員提供有用的反饋建議,也可以補充人類同行評審的過程,幫助學(xué)術(shù)期刊決定哪些研究成果應(yīng)該發(fā)表[9]。
(2)AIGC可以優(yōu)化期刊審稿流程。由于學(xué)術(shù)評議流程是標(biāo)準(zhǔn)化的,因而利用人工智能技術(shù)進行評審是可行的??梢钥紤]引入ChatGPT構(gòu)建更加科學(xué)便捷和個性化的審稿流程與反饋系統(tǒng),縮短審稿時間,提高作者對期刊的滿意度。首先,在初審階段,ChatGPT利用強大的自然語言處理能力,可以幫助編輯快速瀏覽論文內(nèi)容和主題,檢測和糾正語法錯誤、拼寫錯誤和表達不準(zhǔn)確的問題,通過與數(shù)據(jù)庫進行比對,對文章內(nèi)容進行相似性檢測,識別論文抄襲和剽竊行為,確保論文的原創(chuàng)性,并根據(jù)期刊要求做出判斷和評價,決定是否可以進入復(fù)審環(huán)節(jié)。其次,對初審合格的稿件,編輯要啟動專家審稿流程。在過去的審稿過程中,編輯經(jīng)常需要查找相關(guān)領(lǐng)域的多位外審專家進行審稿,需要耗費大量的交易成本,包括搜索成本、溝通成本、簽約成本和監(jiān)督成本等,耗費時間較長、主觀性強且效率較低,同時還要應(yīng)對審稿專家的一些突發(fā)事件。ChatGPT則能夠根據(jù)論文主體內(nèi)容自動提取關(guān)鍵審稿信息,對各領(lǐng)域?qū)<倚畔⑦M行數(shù)據(jù)挖掘、特征識別,精準(zhǔn)匹配同行評議專家,智能發(fā)掘合適的審稿人。此外,ChatGPT對論文創(chuàng)新性評價表現(xiàn)良好,評價方法和標(biāo)準(zhǔn)具有一定的綜合性和科學(xué)性,評價效率高、功能豐富、適用范圍廣,能夠較好地完成多學(xué)科領(lǐng)域的論文創(chuàng)新性評價。現(xiàn)階段,盡管單獨使用ChatGPT對論文創(chuàng)新性進行評價,穩(wěn)定性、準(zhǔn)確性與真實性稍顯不足,但仍可將ChatGPT視為高效的論文創(chuàng)新性評價輔助工具。
3.學(xué)術(shù)傳播
學(xué)術(shù)傳播是研究者從事學(xué)術(shù)活動不可或缺的一環(huán),也是推動科學(xué)進步和研究創(chuàng)新的源動力。在AIGC技術(shù)條件下,傳播權(quán)利不再為人類所獨享,AIGC不再僅僅作為一種介質(zhì)存在,而是和人類協(xié)作塑造學(xué)術(shù)傳播共同體,引領(lǐng)新的傳播生態(tài)。
(1)AIGC加速學(xué)術(shù)傳播。AIGC通過自然語言模型深度學(xué)習(xí)論文內(nèi)容和相關(guān)數(shù)據(jù),能以較快的速度自動創(chuàng)作生成相應(yīng)的文字、圖片和視頻,幫助學(xué)者快速產(chǎn)出說明性信息,做好宣傳和推介工作,極大地提高了科研成果的展示效果和傳播效率。AI擅長對雜亂無章的學(xué)術(shù)文獻數(shù)據(jù)進行結(jié)構(gòu)化處理,自動生成脈絡(luò)清晰的知識圖譜呈現(xiàn)給研究者,并利用圖神經(jīng)網(wǎng)絡(luò)、自然語言模型深度挖掘和分析數(shù)據(jù)庫,快速檢索相關(guān)知識,并進行個性化推薦,方便研究者發(fā)現(xiàn)、獲取和參考,使研究者對學(xué)術(shù)領(lǐng)域的知識結(jié)構(gòu)一目了然,從而有效提高研究者的科研能力。此外,還可以利用AI和大數(shù)據(jù)對用戶行為和偏好進行分析,自動將設(shè)置內(nèi)容進行優(yōu)化,使版面編排簡潔明快,讓論文更容易被搜索引擎檢索到,大幅度增加其曝光率,從而擴大影響力。ChatGPT具有超強的翻譯能力,沒有語種限制,多種語言可自由切換,達到全球傳播的目標(biāo)。
(2)AIGC可以實現(xiàn)精準(zhǔn)推送。保證學(xué)術(shù)傳播效果的前提是學(xué)術(shù)知識盡可能觸達目標(biāo)群體,借助AIGC的算力和算法模型,學(xué)術(shù)刊物可以為用戶量身定制、精準(zhǔn)定向推送相關(guān)研究成果,給用戶帶來更佳的體驗感和更多的便捷性。AIGC可以快速處理大量的非結(jié)構(gòu)化數(shù)據(jù),分析用戶信息、深挖用戶需求,為用戶精準(zhǔn)畫像,提供更加精簡高效的個性化解決方案和智力支持服務(wù)。例如ChatGPT可以對用戶的搜索記錄和閱讀跟蹤數(shù)據(jù)進行挖掘和分析,將用戶群體依據(jù)細(xì)分變量劃分為不同的類型,通過智能標(biāo)簽識別用戶,同時把學(xué)術(shù)信息內(nèi)容與用戶行為數(shù)據(jù)進行智能匹配,滿足他們對學(xué)術(shù)信息的個性化需求,從而達到點對點的精確知識傳播效果,有效地提高了學(xué)術(shù)期刊用戶服務(wù)的精準(zhǔn)性和專業(yè)性,并打破了以往由出版機構(gòu)為主導(dǎo)的學(xué)術(shù)期刊單向靜態(tài)傳播的傳統(tǒng)。
(二)AIGC給學(xué)術(shù)生態(tài)帶來的挑戰(zhàn)
1.學(xué)術(shù)生產(chǎn)
(1)面臨科技倫理的“污染”與盲從。以ChatGPT為代表的AIGC雖然功能強大,但和人類相比,ChatGPT的道德判斷力顯得過于低級,它只回答合法合規(guī)或符合道德倫理規(guī)則的問題,強調(diào)政治正確和道德倫理尊嚴(yán)。但在各種不良測試者的質(zhì)疑及恐嚇等語言威脅下,ChatGPT有時難以判斷倫理的標(biāo)準(zhǔn)。一旦ChatGPT的語料庫受到“倫理污染”,就需要重新學(xué)習(xí)新的倫理標(biāo)準(zhǔn)和知識,所付出的成本是高昂的。同時,當(dāng)ChatGPT盲目服從程序指令,而對倫理真?zhèn)螐牟毁|(zhì)疑或是對道德倫理沒有預(yù)設(shè)導(dǎo)向時,將會產(chǎn)生科技倫理困境,對人們的價值信仰、態(tài)度和行為產(chǎn)生重要影響。在學(xué)術(shù)研究中,ChatGPT最大的缺陷是學(xué)術(shù)誠信問題。ChatGPT僅僅是一種科研輔助工具,如果對其過度依賴可能會引起抄襲、剽竊、欺詐和侵權(quán)的風(fēng)險,從而危害教育和學(xué)術(shù)生態(tài),加劇學(xué)術(shù)競爭的不平等。另外,學(xué)術(shù)研究中使用ChatGPT有可能導(dǎo)致批判性思維和創(chuàng)新能力的匱乏。趨易避難是人之本能,ChatGPT類人工智能給人類帶來太多的便利,一旦過度應(yīng)用,人類將產(chǎn)生技術(shù)依賴,思維惰化而不再獨立思考,甚至?xí)θ斯ぶ悄苊つ砍绨莼蛎孕?,失去自主性和判斷能力,這將會對人類社會和教育構(gòu)成巨大威脅。
(2)知識產(chǎn)權(quán)難以界定。ChatGPT的訓(xùn)練數(shù)據(jù)中可能包含了許多受版權(quán)保護的材料,很可能會產(chǎn)生侵權(quán)行為。此外,對于ChatGPT是否能在學(xué)術(shù)成果中署名目前還存在爭議。部分學(xué)者認(rèn)為ChatGPT可以在論文上署名,但著作權(quán)屬于研發(fā)企業(yè)(機構(gòu))或使用者所有;另一部分學(xué)者持反對意見,因為現(xiàn)有中西方國家的版權(quán)保護規(guī)定的著作權(quán)人是自然人,顯然ChatGPT被排除在外。學(xué)術(shù)責(zé)任要求學(xué)者“文責(zé)自負(fù)”,必須承擔(dān)學(xué)術(shù)過失帶來的后果。由于ChatGPT不具備獨立財產(chǎn)能力,并不能承擔(dān)侵權(quán)責(zé)任,所以不能當(dāng)作民事行為主體看待,其對學(xué)術(shù)成果有無實質(zhì)貢獻也很難判斷。美國Science雜志明確禁止將人工智能程序列為作者,并且ChatGPT或其他人工智能工具生成的文本、圖形、圖像等也不得在論文中使用[10](P313)。英國Nature雜志認(rèn)為ChatGPT等工具有失科學(xué)公平,呼吁建立合法使用的基本規(guī)則,ChatGPT等大模型不能被列為作者。如在論文創(chuàng)作中用過相關(guān)工具,作者應(yīng)在“方法”或“致謝”或適當(dāng)?shù)牟糠置鞔_說明[11](P612)。國內(nèi)《暨南學(xué)報(哲學(xué)社會科學(xué)版)》發(fā)表聲明也提到,暫不接受任何大型語言模型工具(如ChatGPT)單獨或聯(lián)合署名的文章。對于引用人工智能寫作工具的文章作為參考文獻的,需請作者提供詳細(xì)的引用論證。而《天津師范大學(xué)學(xué)報(基礎(chǔ)教育版)》態(tài)度相對溫和,并未明確禁止ChatGPT署名,作者說明使用情況即可。由此可見,如果賦予ChatGPT等人工智能署名權(quán),這必將和目前相關(guān)法律法規(guī)相抵觸;而假如不允許它署名,又抹殺了人工智能“作者”的實際貢獻,這些都將影響學(xué)術(shù)成果的權(quán)屬認(rèn)定。
(3)可能會降低學(xué)術(shù)研究的科學(xué)性、原創(chuàng)性和多樣性。由LLM支持的ChatGPT使用來自互聯(lián)網(wǎng)的文本數(shù)據(jù)庫進行訓(xùn)練,包括從書籍、網(wǎng)絡(luò)文本、維基百科、文章和互聯(lián)網(wǎng)其他文本中獲得的高達45TB的學(xué)習(xí)數(shù)據(jù),由于數(shù)據(jù)來源龐大復(fù)雜、質(zhì)量不一,且生成知識的時效截止于訓(xùn)練數(shù)據(jù)的更新時間,導(dǎo)致ChatGPT生成的答案帶有偏見、時效性受限甚至虛假等,與學(xué)術(shù)研究求真求新的追求相左[12](P141)。ChatGPT雖然能生成語義連貫且語法正確的文本,但并不能甄別信息真假。ChatGPT對內(nèi)容的處理完全是基于算法,它有時會寫出看似合理但不正確甚至荒謬的答案,有可能生成的學(xué)術(shù)文本本身就是虛假的,或者引用的文獻并不存在。濫用數(shù)據(jù)或采用碎片化知識進行訓(xùn)練,這就使學(xué)術(shù)研究充滿了不確定性、偏見和抄襲現(xiàn)象,將導(dǎo)致錯誤信息被傳播的風(fēng)險。此外,除了擔(dān)心ChatGPT直接產(chǎn)生有害內(nèi)容外,人們還擔(dān)心ChatGPT創(chuàng)建者在訓(xùn)練數(shù)據(jù)中嵌入不公正的價值觀、歷史觀、世界觀和社會偏見等。受制于技術(shù)盲區(qū),ChatGPT還不能真正像人類那樣思考,邏輯推理能力有限。因此,ChatGPT對于一般知識了解廣泛,但對學(xué)術(shù)問題,無法提供專業(yè)性較強、有深度、有洞見的答案。在學(xué)術(shù)生產(chǎn)中,ChatGPT的優(yōu)勢在于強大的數(shù)據(jù)檢索和加工能力,卻無法像人類一樣產(chǎn)生創(chuàng)新性思想,學(xué)術(shù)論文內(nèi)在的邏輯結(jié)構(gòu)與創(chuàng)意是人工智能寫作所不具備的。
2.學(xué)術(shù)評價
(1)AIGC的運作對定性學(xué)術(shù)評價造成沖擊。通常學(xué)術(shù)評價主要包括量化評價和同行評價等類型。AIGC的運作高度依賴算法模型與被引量、下載量等量化數(shù)據(jù),對定性的學(xué)術(shù)評價可能造成沖擊。然而評價學(xué)術(shù)作品的價值,單靠量化指標(biāo)是不夠的,它只能反映學(xué)術(shù)成果被同行認(rèn)可的程度、該項研究成果對其他研究成果的影響等。必須建立多元化評價體系綜合考量才能保證評價結(jié)果的客觀和公平。ChatGPT使用的數(shù)據(jù)并非及時更新的流動數(shù)據(jù),生成的回答則是遵循已經(jīng)訓(xùn)練好的模型、參數(shù)進行高維概率計算,缺乏真正的思考、理解和推理能力,不能提出自主觀點與原創(chuàng)性論斷。ChatGPT的反饋過于籠統(tǒng),缺乏技術(shù)細(xì)節(jié)。目前AIGC只是接近人類智能,還不足以像人類專家那樣用專業(yè)眼光評判學(xué)術(shù)文章,而且專家意見也不能作為訓(xùn)練數(shù)據(jù)納入語料庫。因此,AIGC對學(xué)術(shù)成果的價值判斷可能有失公允,導(dǎo)致學(xué)術(shù)評價的混亂[13](P84)。
(2)知識驗證機制受到挑戰(zhàn)。傳統(tǒng)的知識驗證方法主要依賴于學(xué)術(shù)共同體的同行評議。然而,當(dāng)前AIGC技術(shù)使傳統(tǒng)的知識驗證機制面臨嚴(yán)重的挑戰(zhàn)。其一,AIGC技術(shù)可能會使學(xué)術(shù)抄襲行為變得更為隱蔽而難以覺察,很難對ChatGPT是否參與學(xué)術(shù)生產(chǎn)做出研判。例如,在人機融合的協(xié)作知識生產(chǎn)中,學(xué)者的學(xué)術(shù)觀點是否受到ChatGPT的啟發(fā)和影響,是否存在觀點抄襲等問題?這種剽竊形式如此巧妙,可以輕易蒙蔽現(xiàn)有的同行評議和繞過抄襲檢測技術(shù)手段。ChatGPT使學(xué)術(shù)出版單位的查重任務(wù)更加艱巨,同時也對學(xué)術(shù)不端標(biāo)準(zhǔn)提出了更高的要求。其二,AIGC技術(shù)使知識生產(chǎn)進程顯著提速,學(xué)術(shù)產(chǎn)出暴增,這無疑極大地增加了知識驗證的工作量。盡管不少公司和機構(gòu)不斷推出AIGC自動生成內(nèi)容的檢測技術(shù),例如:OpenAI公司推出的檢測器AI Text Classifier;美國斯坦福大學(xué)團隊研發(fā)的GPT生成文本檢測工具DetectGPT,但依然不能滿足當(dāng)前學(xué)術(shù)不端檢測的需要,檢測技術(shù)和知識驗證機制亟待完善。
3.學(xué)術(shù)傳播
(1)AIGC可能造成新的傳播造假。ChatGPT雖然功能強大,但它只是一個訓(xùn)練有素的依靠數(shù)據(jù)驅(qū)動的人工智能模型,對于數(shù)據(jù)背后真實世界的狀態(tài)、原理和規(guī)則等缺乏足夠的認(rèn)知,因此并不具備甄別信息的能力?,F(xiàn)實操作中,如果輸入錯誤的信息就會“一本正經(jīng)地胡說八道”,很容易傳播誤導(dǎo)性信息。包括ChatGPT在內(nèi)的AIGC技術(shù)可以利用深度學(xué)習(xí)能力和豐富的語料庫,自動生成前所未有的單詞、短語和句子的新組合,常人很難對其真?zhèn)巫龀雠袛唷S谑?,有些投機取巧的人借助這些技術(shù)炮制出大量虛假的學(xué)術(shù)論文和研究報告等,欺騙出版機構(gòu)、學(xué)界和愚弄讀者,極大地?fù)p害了學(xué)術(shù)公平,擾亂了學(xué)術(shù)出版市場秩序。這將使學(xué)術(shù)界喪失公信力,而且這些缺乏科學(xué)創(chuàng)新價值的學(xué)術(shù)垃圾將產(chǎn)生學(xué)術(shù)泡沫,造成時間、金錢和出版資源的大量浪費,剝奪了真正有價值的原創(chuàng)性高質(zhì)量研究成果發(fā)表和傳播的機會[14](P30)。
(2)隱私保護和數(shù)據(jù)安全問題。ChatGPT會全方位收集用戶、社交、使用數(shù)據(jù)等個人信息,并進行分析和跟蹤,能通過分析用戶歷史記錄、行為模式和當(dāng)前情況等日常數(shù)據(jù),提高決策效率和降低風(fēng)險,但這也隱藏著巨大的隱患。OpenAI公司不公開使用數(shù)據(jù)的來源和相關(guān)訓(xùn)練數(shù)據(jù)庫的授權(quán)情況,也不會對ChatGPT輸入的信息進行監(jiān)控和保護,一旦發(fā)生數(shù)據(jù)泄露,用戶相關(guān)信息將存在被惡意利用或惡意攻擊的可能[15](P257)。此外,科研人員使用ChatGPT可以輔助學(xué)術(shù)生產(chǎn),但也很容易使輸入ChatGPT的個人科研數(shù)據(jù)泄漏。AIGC是一種基于多層復(fù)雜神經(jīng)網(wǎng)絡(luò)搭建的深度學(xué)習(xí)模型,目前還不能解釋其算法邏輯,經(jīng)常出現(xiàn)事實性錯誤,產(chǎn)出的結(jié)果不具有安全性保障。在安全防范措施缺位的情況下,AI對惡意誘導(dǎo)沒有任何分辨或判斷能力,只會按照算法模型,根據(jù)學(xué)習(xí)到的信息自動生成大量“有說服力”的不實信息。一旦被人惡意利用造謠生事或者偽造評論等,除了損害他人名譽和形象,更會導(dǎo)致許多嚴(yán)重的安全隱患。
(3)AIGC可能挑戰(zhàn)公眾對學(xué)術(shù)界的信任。ChatGPT具備強大的內(nèi)容生成能力,可以深度參與學(xué)術(shù)生產(chǎn)過程,知識生產(chǎn)方式轉(zhuǎn)向“自動化”和“智能化”。AIGC依靠海量數(shù)據(jù)與生成算法輸出生成結(jié)果,而訓(xùn)練數(shù)據(jù)庫和算法是技術(shù)人員人為設(shè)計的結(jié)果。從根源上講,技術(shù)人員理所當(dāng)然是學(xué)術(shù)生態(tài)中不可或缺的創(chuàng)作主體。而技術(shù)人員如何篩選數(shù)據(jù)與提供底層算法邏輯,以及如何界定權(quán)威知識與專業(yè)知識,都將會沖擊原有的學(xué)術(shù)生態(tài)體系,甚至從某種意義上說,知識歸根結(jié)底是由技術(shù)人員創(chuàng)造的。顯然,技術(shù)人員是不具備特定領(lǐng)域的專業(yè)知識或造詣的。
三、生成式人工智能浪潮下學(xué)術(shù)生態(tài)優(yōu)化提升的路徑
AIGC技術(shù)給學(xué)術(shù)生態(tài)提供了良好的發(fā)展機遇,但同時也帶來了著作權(quán)歸屬、科技倫理、數(shù)據(jù)安全、隱私保護、錯誤性信息傳播等方面的風(fēng)險。因此,必須采取有效措施進行防范和治理,賦能學(xué)術(shù)研究與推動社會進步。
(一)社會:積極面對、審慎使用
以ChatGPT為代表的生成式AI橫空出世,其卓越的能力驚艷了世人。人們在興奮于ChatGPT技術(shù)突破的同時,也產(chǎn)生了對人工智能進化是否可以超越人類并對人類構(gòu)成威脅的擔(dān)憂。面對AIGC技術(shù),首先,要在思想上高度重視,提高認(rèn)知水平,以一種開放樂觀的態(tài)度積極擁抱它。在某種程度上可以說,一切技術(shù)進步發(fā)展的方向和歸宿都是“人工智能”,使機器具備和人類近似甚至超越人類的思考能力,并能處理多種類型的任務(wù)。同時,AIGC可以成為個體的外腦,并與內(nèi)腦構(gòu)成復(fù)合腦[16](P8-15),通過延伸和拓展人的智能,從而最終實現(xiàn)“人是萬物的尺度”。AIGC將深刻地改變學(xué)術(shù)生態(tài)的走向,但這并不意味著它會取代人類,終究它提供的是選項,最終做出選擇和決定的還是人類[17](P56)。其次,任何技術(shù)都是一把雙刃劍,ChatGPT在為人類提供便利性和高收益的同時,也可能會帶來潛在的負(fù)面影響,甚至有可能影響人類的思考能力。對此,在使用AIGC時,既要有包容的心胸,又要時刻保持冷靜和謹(jǐn)慎的態(tài)度,揚長避短,充分發(fā)揮其促進學(xué)術(shù)生產(chǎn)、評價和傳播的作用,推動學(xué)術(shù)生態(tài)的健康發(fā)展。
(二)政府:加大監(jiān)管力度,防范可能風(fēng)險
以ChatGPT為代表的AIGC功能強大,僅靠技術(shù)上限制和社會公眾監(jiān)督力量有限,為保證其被合理使用必須有國家強制力干預(yù),因此建立一個專門的監(jiān)管機構(gòu)很有必要,以加大監(jiān)管力度,防范可能風(fēng)險。首先,堅持ChatGPT為非法律主體。目前法律界普遍認(rèn)為人工智能生成的內(nèi)容不受法律保護。ChatGPT雖然具備強大的自動生成內(nèi)容能力,但它的生成物是向人類已有的作品學(xué)習(xí)的結(jié)果,底層邏輯始終是算法,缺乏成為理性主體所必須的獨立的思考能力和自由意志,不符合以人為主體的法律規(guī)范的設(shè)定前提。而且,ChatGPT并不能像人類那樣承擔(dān)相應(yīng)的民事、行政或刑事責(zé)任,賦予它法律主體地位意義不大,反而弱化人的主體地位。畢竟它只是一種高級智能工具,對論文的貢獻在論文非主體部分做出說明即可。
其次,完善法律法規(guī)體系。目前針對人工智能風(fēng)險的立法,主要有《個人信息保護法》《網(wǎng)絡(luò)安全法》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》等。近期,國家網(wǎng)信辦聯(lián)合國家有關(guān)部門公布了《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《辦法》),這是全球范圍內(nèi)針對生成式人工智能的首部專門立法?!掇k法》與現(xiàn)有規(guī)范一脈相承,延續(xù)了此前的監(jiān)管手段,明確了分類分級監(jiān)管的原則,健全了我國人工智能治理體系。一是明確了安全評估與算法備案要求。二是明確了信息披露要求?!掇k法》積極回應(yīng)生成式人工智能帶來的社會問題,明確提供和使用生成式人工智能服務(wù)的法律底線:不得生成違法內(nèi)容;在算法設(shè)計、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過程中,采取有效措施防止歧視;尊重知識產(chǎn)權(quán)和他人合法權(quán)益;提高生成內(nèi)容準(zhǔn)確性和可靠性。
再次,加強對生成式AI研發(fā)企業(yè)的監(jiān)管。其一,為規(guī)范生成式AI研發(fā)企業(yè)行為,監(jiān)管部門應(yīng)敦促和引導(dǎo)AI行業(yè)制定行業(yè)標(biāo)準(zhǔn),加強行業(yè)自律。其二,監(jiān)管部門全程監(jiān)督人工智能運行。在審批階段,提高行業(yè)準(zhǔn)入門檻。監(jiān)管部門應(yīng)對研發(fā)企業(yè)和服務(wù)方提供的各種方案認(rèn)真審查和篩選,提供者應(yīng)配合主管部門的監(jiān)督檢查,按要求對訓(xùn)練數(shù)據(jù)的來源、規(guī)模、類型、標(biāo)注規(guī)則、算法機制機理等予以說明。在運行階段,為避免用戶進行惡意訓(xùn)練導(dǎo)致整個系統(tǒng)偏離正確軌道,監(jiān)管機構(gòu)要加大對權(quán)力、金錢、勢力等敏感信息的審查管控力度,同時定期進行數(shù)據(jù)安全評估。
(三)研發(fā)企業(yè):完善AIGC技術(shù)
針對上述ChatGPT存在的科技倫理、虛假信息、泄露隱私和數(shù)據(jù)安全等問題,研發(fā)企業(yè)可以運用一些技術(shù)手段避免類似事件的發(fā)生。首先,決策者應(yīng)與技術(shù)部門保持密切聯(lián)系,并分配預(yù)算以支持研究人員調(diào)查、緩解潛在的惡意行為。AI技術(shù)的研究者應(yīng)該將負(fù)面影響作為優(yōu)先和研究重點來考慮,與更多行業(yè)的專家進行交流,從而更全面地預(yù)防AI的惡意使用。如數(shù)字安全領(lǐng)域,研究者應(yīng)多去參與防御性工作,讓技術(shù)達到更高的成熟度。其次,提高信息過濾的能力。ChatGPT在訓(xùn)練過程中高薪聘請了大量的“提示工程師”,通過“標(biāo)注”、巨量語料來模擬合成真實世界。ChatGPT可能會出現(xiàn)創(chuàng)造不存在的知識,或者主觀猜測提問者的意圖等問題,這就需要人工智能和軟件工程師持續(xù)進行模型的優(yōu)化。因此,
AIGC大模型在大規(guī)模推廣應(yīng)用之前,應(yīng)通過積極改進算法、不斷優(yōu)化語言模型以及介入人為監(jiān)督的方式,嚴(yán)控信息輸入端,加強識別數(shù)據(jù)來源、審查內(nèi)容和人工標(biāo)記。一旦發(fā)現(xiàn)虛假性、危險性或非理性價值觀等內(nèi)容,AI可以迅速做出警示或拒絕反饋,從而保證了語言模型的準(zhǔn)確性和安全可靠性。再次,在深度學(xué)習(xí)和數(shù)據(jù)處理過程中,要不斷開放專業(yè)學(xué)術(shù)網(wǎng)站,通過優(yōu)化訓(xùn)練數(shù)據(jù)集、微調(diào)模型或者增加限制性條件,讓AI更少地接觸不良信息,從而不斷提高生成內(nèi)容的可信度和合法性。最后,注重保護隱私信息的安全。一是做好算法設(shè)計,重點對訓(xùn)練學(xué)習(xí)和內(nèi)容生成過程中是否使用了庫內(nèi)所含的涉及隱私的重要數(shù)據(jù)進行審查;二是做好系統(tǒng)維護,例如,通過完全模擬黑客可能使用的漏洞發(fā)現(xiàn)技術(shù)和攻擊技術(shù),對目標(biāo)系統(tǒng)的安全做深入的探測,發(fā)現(xiàn)系統(tǒng)最脆弱的環(huán)節(jié),從中找出急需解決的安全問題,并及時提高系統(tǒng)的防護能力。
(四)學(xué)界:推進研究透明
研究人員使用AIGC雖然有助于提高科研效率和質(zhì)量,但使用不當(dāng)也會產(chǎn)生學(xué)術(shù)不端的風(fēng)險。首先,學(xué)術(shù)界要不斷提高算法素養(yǎng),深入學(xué)習(xí)和了解ChatGPT等AIGC大模型,加強危機防范意識,熟練地將AIGC技術(shù)運用到知識的生產(chǎn)與傳播活動中。其次,加強學(xué)術(shù)界行業(yè)自律自查??梢跃腿绾魏侠硎褂肁IGC展開討論和研究,并要求科研人員在論文中就AIGC使用情況做出書面說明。同時,學(xué)術(shù)期刊對要發(fā)表的論文也應(yīng)承擔(dān)起審查責(zé)任,應(yīng)持續(xù)推進對作者使用AIGC情況的公開審查??梢砸M人工智能檢測技術(shù),彌補人工審查的不足,提高對AIGC的識別和檢測能力,避免基于AI的剽竊行為發(fā)生,引導(dǎo)AIGC在學(xué)術(shù)生產(chǎn)中合理使用,維護學(xué)術(shù)期刊的學(xué)術(shù)品質(zhì)。此外,可以考慮建立AIGC專家委員會,負(fù)責(zé)審查學(xué)術(shù)成果中AIGC的使用情況、公布AIGC審查標(biāo)準(zhǔn)并提供查詢服務(wù)、監(jiān)督審稿過程中AIGC的使用情況。再次,不斷強化研究人員與技術(shù)人員之間的溝通與信任。ChatGPT生成過程中存在算法“黑箱”,為此,建議建立學(xué)界與開發(fā)機構(gòu)之間的溝通機制,推動ChatGPT技術(shù)實行“開源”,公開其算法邏輯,強化數(shù)據(jù)安全,從而增強AIGC技術(shù)的可信度,提高社會認(rèn)可度。
(五)人機協(xié)作、共同治理
ChatGPT解決了包括“計算機視覺、自然語言理解,以及處理真實世界中的意外情況”等在內(nèi)的人工智能完備的關(guān)鍵性問題,接近“人工智能完備”的狀態(tài)。雖然ChatGPT可以通過豐富的語料庫和深度學(xué)習(xí)能力來模仿人類的思維過程,但AI生成內(nèi)容的算法和模型是由人類編寫和訓(xùn)練的,它并沒有自主思考和創(chuàng)造的能力。盡管ChatGPT可以通過大量數(shù)據(jù)分析來撰寫學(xué)術(shù)文章,但這些信息都是人類灌輸進去的,它本身并沒有任何創(chuàng)新性和自主性,無法將對某個時刻的思考轉(zhuǎn)化成意識。由于現(xiàn)階段ChatGPT缺少人的理性思考,尚未達到“強智能”水平,只能對人類“創(chuàng)造性勞動”起到輔助作用,絕對不可能完全代替人類。盡管AIGC技術(shù)可以優(yōu)化學(xué)術(shù)評價決策,提高出版效率、質(zhì)量和傳播力,但學(xué)術(shù)論文的價值判斷,應(yīng)該由具有專業(yè)知識且擁有獨立判斷能力的學(xué)術(shù)編輯來完成,而不是交給僅僅使用概率計算解決復(fù)雜推薦問題的ChatGPT。為此,建議在學(xué)術(shù)生產(chǎn)、學(xué)術(shù)評價和學(xué)術(shù)傳播環(huán)節(jié)都應(yīng)該安排人工介入,“人工”與“智能”相互取長補短,層層把關(guān),既要充分利用智能技術(shù)在數(shù)據(jù)處理方面的優(yōu)勢,又要發(fā)揮人的邏輯推理和創(chuàng)造性思維的優(yōu)勢,高度重視學(xué)術(shù)創(chuàng)新價值和風(fēng)險防范。
參考文獻:
[1]White R, Cheung M. Communication of Fantasy Sports:A Comparative Study of User-Generated Content by Professional and Amateur Writers[J].IEEE Transactions on Professional Communication,2015(2).
[2]劉智鋒,吳亞平,王繼民.人工智能生成內(nèi)容技術(shù)對知識生產(chǎn)與傳播的影響[J].情報雜志,2023(5).
[3]完善評價制度 營造良好學(xué)術(shù)生態(tài)[EB/OL].(2021-01-19).https://www.thepaper.cn/newsDetail_forward_10849481.
[4]蔣華林.人工智能聊天機器人對科研成果與人才評價的影響研究:基于ChatGPT、Microsoft Bing視角分析[J].重慶大學(xué)學(xué)報(社會科學(xué)版),2023(3).
[5]令小雄,王鼎民,袁健.ChatGPT爆火后關(guān)于科技倫理及學(xué)術(shù)倫理的冷思考[J].新疆師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023(7).
[6]杜秀杰,趙大良.學(xué)術(shù)論文語言表達范式分析[J].編輯學(xué)報,2018(6).
[7]張保生.學(xué)術(shù)評價的性質(zhì)和作用[J].學(xué)術(shù)研究,2006(2).
[8]ChatGPT用于論文創(chuàng)新性評價的效果及可行性分析[J].情報資料工作,2023(5).
[9]科學(xué)家更喜歡ChatGPT的反饋,而不是同行[EB/OL].[2023-10-19].https://www.fromgeek.com/ai/607382.html.
[10]H Holden Thorp.ChatGPT is Fun, but not an Author[J].Science,2023(6630).
[11]Tools Such as ChatGPT Threaten Transparent Science: Here are Our Ground Rules for Their Use[J]. Nature,2023(613).
[12]王琪.技術(shù)賦能與問題衍生:ChatGPT對學(xué)術(shù)期刊出版的影響[J].河南大學(xué)學(xué)報(社會科學(xué)版),2023(5).
[13]陳超.學(xué)術(shù)歧視與學(xué)術(shù)權(quán)利的平等保護:基于學(xué)術(shù)生態(tài)環(huán)境的視角[J].清華大學(xué)教育研究,2021(5).
[14]沈錫賓,王立磊,劉紅霞.人工智能生成內(nèi)容時代學(xué)術(shù)期刊出版的機遇與挑戰(zhàn)[J].數(shù)字出版研究,2023(5).
[15]張學(xué)博,王涵睿.生成式人工智能的法律規(guī)制:以ChatGPT為例[J].上海法學(xué)研究,2023(6).
[16]沈書生,祝智庭.ChatGPT類產(chǎn)品:內(nèi)在機制及其對學(xué)習(xí)評價的影響[J].中國遠(yuǎn)程教育,2023(4).
[17]王學(xué)男.ChatGPT類生成式人工智能:顛覆教育的可能與不可能[J].天津師范大學(xué)學(xué)報(社會科學(xué)版),2023(3).
收稿日期:20231125
基金項目:河南省高等學(xué)校重點科研項目計劃(21A790016)
作者簡介:
姜濤(1977-),男,河南洛陽人,洛陽師范學(xué)院新聞與傳播學(xué)院講師,博士,主要從事傳媒經(jīng)濟與文化產(chǎn)業(yè)研究;葉思雨(1993-),女,河南洛陽人,洛陽師范學(xué)院歷史文化學(xué)院講師。