張 強(qiáng),高 穎,趙逸淳,張雪峰(.華中師范大學(xué)信息管理學(xué)院;.安徽師范大學(xué)美術(shù)學(xué)院;3.安徽工程大學(xué)經(jīng)濟(jì)與管理學(xué)院)
ChatGPT(Chat Generative Pre-trained Transformer)是由美國OpenAI 公司研發(fā),于2022 年11 月30 日正式發(fā)布的一款對話形式的語言模型[1]。該模型基于GPT—3.5 訓(xùn)練而成,作為一種生成式語言模型,ChatGPT 是基于超大規(guī)模的語料庫訓(xùn)練而成,這些語料庫包括真實(shí)世界中的海量百科知識和對話數(shù)據(jù),因此ChatGPT 具有極強(qiáng)的語義理解和文本生成功能[2]。ChatGPT 除了知識淵博以外,更重要的是其可以根據(jù)上下文來識別用戶的意圖,并以交互的方式與人類進(jìn)行溝通、交流[3]。
因操作簡單、容易上手等特性,ChatGPT 一經(jīng)推出就迅速在社交媒體走紅,僅一個(gè)月時(shí)間注冊用戶就已破億[4],比爾·蓋茨認(rèn)為這種AI 技術(shù)是繼互聯(lián)網(wǎng)與個(gè)人電腦之后最重大的發(fā)明[5],英偉達(dá)(Nvidia) 的CEO 黃仁勛認(rèn)為AI 的“i-Phone 時(shí)刻”已經(jīng)到來[6]。2023 年2 月2 日,Microsoft 公告宣布將在旗下所有產(chǎn)品集成ChatGPT,包括Bing 搜索、Office、云計(jì)算平臺Azure等[7]。2023 年3 月15 日,OpenAI 正式推出基于GPT—4 模型訓(xùn)練的ChatGPT。GPT—4 是一種多模態(tài)大模型,在人機(jī)交互環(huán)節(jié)支持文本、圖像等多模態(tài)輸入,除了擁有強(qiáng)大的識圖能力外,其文本輸入能力也得到了很大提升[8]。2023 年3 月24日,OpenAI 宣布ChatGPT 支持安裝第三方插件,可以幫助ChatGPT 聯(lián)網(wǎng)訪問最新消息和第三方服務(wù)[9]。
ChatGPT 除了在工業(yè)界引起了討論風(fēng)暴以外,在學(xué)術(shù)界同樣如此。當(dāng)前,已有關(guān)于ChatGPT 對教育生態(tài)、情報(bào)信息、科研工作等所產(chǎn)生的影響的相關(guān)討論[10-14]。然而上述討論多從介紹ChatGPT 的發(fā)展歷程入手,未能充分闡釋ChatGPT 的核心概念與技術(shù)原理,針對智慧圖書館建設(shè)方面的探討也稍顯不足。因此,本文在介紹ChatGPT 核心概念與技術(shù)發(fā)展歷程的基礎(chǔ)上,探討ChatGPT 在智慧圖書館建設(shè)中的機(jī)遇與挑戰(zhàn),為AI 時(shí)代智慧圖書館高質(zhì)量發(fā)展與建設(shè)提供借鑒。
圖1 PFM在人工智能三大領(lǐng)域的基本發(fā)展歷程
ChatGPT 作為一個(gè)基于深度學(xué)習(xí)的預(yù)訓(xùn)練模型,其核心在于PFM,PFM 背后的預(yù)訓(xùn)練思想在當(dāng)前的大模型中起到了至關(guān)重要的作用[15]。特征抽取是機(jī)器學(xué)習(xí)與深度學(xué)習(xí)都需要解決的核心問題。生成式預(yù)訓(xùn)練模型(GPT) 采用的是Transformer 作為特征抽取器,在大規(guī)模數(shù)據(jù)集上進(jìn)行自回歸訓(xùn)練,另一個(gè)知名的模型是谷歌提出的BERT(Bidirectional Encoder Representations from Transformers)模型,兩者均為基于Transformer 預(yù)訓(xùn)練模型的代表[16]。作為一種通用模型,PFM在文本生成、文本分類、圖像處理、邊緣檢測、圖分類等領(lǐng)域都表現(xiàn)出巨大潛力,已經(jīng)在自然語言處理(NLP)、計(jì)算機(jī)視覺(CV) 和圖學(xué)習(xí)(GL)三大人工智能領(lǐng)域得到了廣泛應(yīng)用(見圖1)。PFM 在大規(guī)模數(shù)據(jù)上進(jìn)行訓(xùn)練后,可以對類似的小規(guī)模下游任務(wù)進(jìn)行微調(diào)從而達(dá)到較好的性能。
在闡釋GPT 的技術(shù)原理前,有必要將GPT 與同期的BERT 進(jìn)行對比,以加深對GPT 的理解。BERT 模型基于雙向+ 微調(diào),即BERT 同時(shí)利用前后的信息來猜測被MASK 的信息,更適合理解類任務(wù),代表性項(xiàng)目是谷歌的AlphaGo。GPT 模型基于自回歸+提示,即從左向右進(jìn)行預(yù)測,并不會(huì)利用文本的右側(cè)信息,更擅長生成類任務(wù)??梢姡珻hatGPT 使通用人工智能變?yōu)榱丝赡堋?/p>
OpenAI 公司于2022 年11 月推出的ChatGPT是基于GPT—3.5 架構(gòu)所開發(fā)的對話式AI 模型,短短幾個(gè)月后便更新為GPT—4 架構(gòu),與InstructGPT互為兄弟模型[17]。ChatGPT 適用于對話生成類任務(wù),InstructGPT 適用于指令性任務(wù)。GPT 家族的發(fā)展歷程見表1。
表1 GPT 的發(fā)展歷程
GPT—1 提出時(shí),在9 個(gè)NLP 任務(wù)上取得了SOTA(State of the Art) 的效果。對比GPT —1,GPT—2 并未大改模型結(jié)構(gòu),而是使用了更多的參數(shù)模型和訓(xùn)練數(shù)據(jù),GPT—2 生成的虛假新聞足以欺騙常人,被稱為AI 領(lǐng)域的“危險(xiǎn)武器”。GPT—3 相比于GPT—2 有了非常大的提高:更大的參數(shù)規(guī)模,GPT—3 的參數(shù)較GPT—2 大了100 倍;更好的模型性能,GPT—3 在語義理解與推理上表現(xiàn)得更加出色;更多的語言覆蓋,GPT—3 不僅支持英語,還支持其他多種語言,在應(yīng)用領(lǐng)域上也更加廣泛;更強(qiáng)的交互能力,GPT—3 可以像人類一樣進(jìn)行問答與交互[18]。2020 年,初代的GPT—3 展示了三個(gè)重要能力:①語言生成,可以根據(jù)提示詞來補(bǔ)全整個(gè)句子;②上下文學(xué)習(xí),遵循指定的任務(wù)示例,可以為新的用例生成解決方案;③世界知識,包括事實(shí)知識和常識。那么GPT—3 又是如何發(fā)展成為初代ChatGPT(這里指的是2022 年11 月推出的基于GPT—3.5 版本)的?圖2 展示了GPT—3 到GPT—3.5 的發(fā)展歷程[19]。
圖2 GPT-3 到GPT-3.5 演化過程
2020—2021 年,初代的GPT—3 經(jīng)過代碼訓(xùn)練、指令微調(diào)和基于人類反饋的強(qiáng)化學(xué)習(xí),展示出強(qiáng)大的突現(xiàn)能力。OpenAI 通過代碼訓(xùn)練與指令微調(diào)對GPT—3 進(jìn)行增強(qiáng),最終獲得了Codedanvinci-002(用于代碼) 和Text-danvinci-002(用于文本),它們具有與初代GPT—3 不同的能力。①響應(yīng)人類指令的能力。GPT—3 的輸出主要集中在訓(xùn)練集中的常見句子,而當(dāng)前模型可以針對指令詞和提示詞生成更為合理的答案。②泛化到全新的任務(wù)。當(dāng)用于微調(diào)模型的指令數(shù)量達(dá)到一定規(guī)模時(shí),模型也可在從未見過的新問題上產(chǎn)生有效回答,這種能力在知識問答上尤為重要,因?yàn)橛脩艨倳?huì)用各種方式提出新問題。③代碼生成與理解。與前置模型相比,增加了對代碼的理解與生成功能。④使用思維鏈進(jìn)行復(fù)雜推理。Code-davinci-002 與Text-danvinci-002 兩個(gè)模型較GPT-3 具有較強(qiáng)的思維鏈推理能力。
Text-danvinci-002 經(jīng)過基于人類反饋的強(qiáng)化學(xué)習(xí)的指令微調(diào)(RLHF) 后,得到了ChatGPT,ChatGPT 具有如下能力。① 更具信息的回應(yīng)。ChatGPT 的回應(yīng)更加冗長,用戶需要明確自己所要求的答案是簡潔的,才能得到相應(yīng)的答案。②更加公平的回應(yīng)。ChatGPT 對涉及多個(gè)利益實(shí)體的事件會(huì)給出平衡各方的答案。③拒絕不恰當(dāng)?shù)膯栴}。由預(yù)先設(shè)置的內(nèi)容過濾器和RLHF 觸發(fā)的模型結(jié)合處理。④拒絕知識之外的問題。拒絕回答在2021年9 月之后所發(fā)生的事件,RLHF幫助模型區(qū)分問題是否在其知識范圍內(nèi)。
需要說明的是,上述的所有能力都是模型本身就存在的,而不是由RLHF 生成的,RLHF的主要作用是觸發(fā)/解鎖其突現(xiàn)能力。
OpenAI 目前還未發(fā)表關(guān)于GPT—4 的論文,但是已公布相關(guān)報(bào)告[20]。報(bào)告稱,GPT—3.5 和GPT—4 在日常交互中的區(qū)別很微妙,但是當(dāng)任務(wù)的復(fù)雜度達(dá)到一定閾值時(shí),GPT—4 的回答比GPT—3.5 更可靠、更有創(chuàng)意,且能處理更為細(xì)致的指令,GPT—4 相比于GPT—3.5 有如下四個(gè)方面的提升。①GPT—4 具備多模態(tài)輸入能力,可對圖文結(jié)合的輸入進(jìn)行分析,但目前并不具備多模態(tài)的生成輸出能力。②GPT—4 在專業(yè)領(lǐng)域的性能表現(xiàn)大幅超越GPT—3.5 及SOTA 大模型。在美國律師資格考試測驗(yàn)中,GPT—4 的成績位于前10%,而GPT—3.5 的成績只達(dá)到了后10%的水準(zhǔn)。③GPT—4 能夠處理更長的文本信息,具備更強(qiáng)的創(chuàng)作能力和推理能力。GPT—3.5 支持處理的文本字?jǐn)?shù)上限為3,000 字,而GPT—4 可處理25,000 字的長文本。④GPT—4 支持用戶進(jìn)行自定義對話風(fēng)格。用戶可以通過輸入命令來定義GPT—4 的交互式對話風(fēng)格,而之前的ChatGPT 只具備一種風(fēng)格。
RLHF 機(jī)制觸發(fā)了ChatGPT 的許多功能,本文參照ChatGPT 官網(wǎng)給出訓(xùn)練示意圖,對其機(jī)制進(jìn)行解釋(見圖3)[21]。
圖3 基于RLHF 機(jī)制的ChatGPT 訓(xùn)練示意圖
首先,通過監(jiān)督微調(diào)訓(xùn)練一個(gè)初始模型,由AI 訓(xùn)練師來提供對話,在對話中分別扮演用戶和AI 助手,再將新生成的對話數(shù)據(jù)集與InstructGPT數(shù)據(jù)集混合起來轉(zhuǎn)化為對話的格式。之后,AI 訓(xùn)練師對模型生成的答案進(jìn)行排名,并用排名數(shù)據(jù)訓(xùn)練獎(jiǎng)勵(lì)模型。最后,使用近端策略優(yōu)化來微調(diào)模型,并迭代多次。
整體來看,ChatGPT 分為預(yù)訓(xùn)練和微調(diào)兩個(gè)階段。在預(yù)訓(xùn)練階段,模型自然地進(jìn)行學(xué)習(xí),類似于人類在一個(gè)全新環(huán)境進(jìn)行無監(jiān)督式的學(xué)習(xí),而微調(diào)階段則是由創(chuàng)造者進(jìn)行引導(dǎo)。
以ChatGPT 為代表的人工智能工具在許多領(lǐng)域均具備應(yīng)用場景。在游戲領(lǐng)域,利用AI 機(jī)器人在前期模擬玩家進(jìn)行平衡性測試,后期可以充分挖掘玩家與NPC 之間的交互可能,增強(qiáng)玩家的沉浸式體驗(yàn),在游戲制作過程中可以充分發(fā)揮AIGC(ArtificialInteligenceGeneratedContent)的生產(chǎn)力,彌補(bǔ)PGC(Professional Generated Content)、UGC(User Generated Content) 的生產(chǎn)潛力缺口,提升游戲制作效率。在媒體領(lǐng)域,可以推進(jìn)人機(jī)協(xié)作共創(chuàng),基于AI 自動(dòng)編寫新聞,減輕工作人員的負(fù)擔(dān),自動(dòng)化地進(jìn)行智能生產(chǎn),推動(dòng)傳媒向智媒發(fā)展。可以預(yù)見,ChatGPT 正深刻融入并影響著人類工作、生活的方方面面,勢必會(huì)成為文化事業(yè)和產(chǎn)業(yè)構(gòu)建智慧服務(wù)的新力量。
智慧圖書館自提出以來,盡管已歷經(jīng)幾十年的發(fā)展,但是依然是一種受限智慧,其所能開展的服務(wù)受到各種條件的限制。智慧圖書館是空間智慧、業(yè)務(wù)智慧、服務(wù)智慧、資源智慧、管理智慧等形成的統(tǒng)一有機(jī)體[22],ChatGPT的引入為圖書館的智慧建設(shè)與服務(wù)提供了理論基礎(chǔ)和實(shí)踐可能,有可能重塑甚至顛覆當(dāng)前圖書館的服務(wù)體系。
3.1.1 助力圖書館的信息資源管理建設(shè)
圖書館是保存人類文化遺產(chǎn)、提供科技文獻(xiàn)情報(bào)的重要場所,圖書館信息資源管理建設(shè)的方式與特點(diǎn)直接關(guān)系服務(wù)成效。自助借還機(jī)、智能圖書柜等物聯(lián)網(wǎng)設(shè)備為圖書館的信息資源管理提供了“骨架”,而ChatGPT 則為這個(gè)“骨架”注入了生命。如,在文獻(xiàn)資源書目編制與標(biāo)注方面,ChatGPT 可以直接對文獻(xiàn)內(nèi)容進(jìn)行分析,自動(dòng)為書目添加標(biāo)簽和分類號,并生成文獻(xiàn)的元數(shù)據(jù),更好地分類管理文獻(xiàn)。針對已有文獻(xiàn),ChatGPT可以進(jìn)行書目信息的校準(zhǔn),保持圖書館書目信息與元數(shù)據(jù)的規(guī)范化,提升元數(shù)據(jù)質(zhì)量。ChatGPT還可以助力圖書館館藏資源實(shí)現(xiàn)數(shù)字化整合。圖書館館藏資源異構(gòu)現(xiàn)象極為常見,不同來源、不同模態(tài)的資源在當(dāng)前的OPAC 系統(tǒng)中難以得到統(tǒng)一、有效的整合。GPT—4 模型以支持多模態(tài)輸入的方式來獲取單模態(tài)輸出,且同意接入第三方插件進(jìn)行聯(lián)網(wǎng)。ChatGPT 這種強(qiáng)大的能力促進(jìn)了圖書館內(nèi)部資源整合和外部資源對齊,將多個(gè)獨(dú)立的數(shù)字資源進(jìn)行優(yōu)化,結(jié)合為一個(gè)新的有機(jī)體,使得圖書館資源更加智慧化、有序化,深刻改變了圖書館的資源整合模式和資源處理方式,將圖書館員從體力勞動(dòng)中解脫出來,有更多的時(shí)間與精力從事創(chuàng)造性工作。
3.1.2 助力圖書館智慧空間場景建設(shè)
圖書館的空間場景包括物理空間場景和虛擬空間場景,物理空間場景主要包括圖書館建筑、設(shè)備、人力資源等物理環(huán)境,虛擬空間場景主要包括使用VR、AR 等虛擬設(shè)備所打造的虛擬實(shí)驗(yàn)室或虛擬空間。ChatGPT 在圖書館智慧空間場景建設(shè)的主要應(yīng)用在于導(dǎo)航與分析。在導(dǎo)航方面,雖然國內(nèi)的公共圖書館和高校圖書館已普遍擁有智能機(jī)器人輔助導(dǎo)航,但是當(dāng)前的智能機(jī)器人智慧程度較低、無障礙交互效果不佳。即將ChatGPT 所具備的多模態(tài)輸入功能接入到智能機(jī)器人中,可以充分發(fā)揮數(shù)字包容特性,更好地幫助老年人和殘障人士等弱勢群體,達(dá)到“用戶—需求—場景”的三方平衡。這一優(yōu)勢在虛擬空間場景將發(fā)揮得更加充分。在數(shù)據(jù)分析方面,將ChatGPT 接入圖書館數(shù)據(jù)中樞,可以對用戶的使用習(xí)慣、閱讀方式等進(jìn)行同步更新與分析,再通過云計(jì)算、大數(shù)據(jù)技術(shù)進(jìn)行用戶畫像,就能夠提供精準(zhǔn)的知識推送服務(wù),滿足用戶的個(gè)性化需求,使整個(gè)圖書館空間場景更加智慧多元。
3.1.3 助力圖書館的智能咨詢服務(wù)建設(shè)
凸顯圖書館智慧服務(wù)的個(gè)性化與差異化是當(dāng)前圖書館智慧服務(wù)工作的重要任務(wù)。如前文所述,ChatGPT 可以根據(jù)用戶設(shè)定生成合適的回復(fù),而不是單一的語氣和態(tài)度,滿足了用戶的個(gè)性化定制需求。同時(shí),ChatGPT 支持多模態(tài)多語種的輸入,在文本方面,用戶不再需要學(xué)習(xí)復(fù)雜的檢索式與檢索技能,只需要以自然語言的方式進(jìn)行提問,且無須考慮語言鴻溝問題,ChatGPT 會(huì)精準(zhǔn)識別用戶的意圖,盡力尋找用戶所需的文獻(xiàn)資源,并按照一定的排列邏輯進(jìn)行返回,擴(kuò)大智能咨詢服務(wù)的覆蓋面。同時(shí),用戶可以以圖片的形式進(jìn)行提問,ChatGPT 利用強(qiáng)大的圖像處理能力將多模態(tài)實(shí)體進(jìn)行對齊,返回對應(yīng)的文字信息或圖片信息,這也為一些弱勢群體使用智能咨詢服務(wù)提供了便利。ChatGPT 查詢所采用的是對內(nèi)容的檢索分析而非簡單地檢索元數(shù)據(jù),參考咨詢的質(zhì)量將因此得到很大提高。ChatGPT 還可以為用戶建立知識庫系統(tǒng),分析用戶的過往檢索信息,為用戶制定個(gè)性化知識庫,從而提高用戶對圖書館的黏性。
3.1.4 助力圖書館的館員服務(wù)能力建設(shè)
隨著社會(huì)的不斷發(fā)展,圖書館服務(wù)也在不斷完善,然而囿于傳統(tǒng)思維,AI 技術(shù)的發(fā)展對圖書館服務(wù)產(chǎn)生了顛覆性的沖擊。大部分圖書館在AI技術(shù)與服務(wù)業(yè)務(wù)的融合上仍有較大不足,主要原因在于館員的技術(shù)能力未能跟上技術(shù)發(fā)展的步伐。因此,圖書館員需要提升自身的數(shù)字素養(yǎng)與數(shù)字技術(shù)能力。此前,圖書館界常以技術(shù)培訓(xùn)與研討的方式幫助館員學(xué)習(xí)新的技術(shù),而今,ChatGPT對于館員來說不只是開展服務(wù)的輔助工具,更是提升自身技術(shù)能力的“百科全書”,是實(shí)現(xiàn)圖書館員全面發(fā)展的有效工具。一方面,圖書館員無法完全了解紛繁復(fù)雜的館藏資源,造成回復(fù)用戶咨詢時(shí)效率低下。ChatGPT 具有雄厚的知識背景,掌握多種語言,且支持翻譯后統(tǒng)一為中文或英文,極大地方便了館員整理書目和開展學(xué)科服務(wù)等工作,助力圖書館打造人機(jī)協(xié)同的服務(wù)新模式。另一方面,圖書館員是圖書館開展科學(xué)研究的重要人員,ChatGPT 可以幫助他們追蹤學(xué)科前沿?zé)狳c(diǎn),協(xié)助他們進(jìn)行特定資源的主題挖掘與分析,幫助其生成館藏資源的元數(shù)據(jù)描述,還可以利用ChatGPT 在制度編制、新聞稿撰寫、文章編譯等方面為館員提供幫助,減輕他們的工作壓力,提升館員的工作效率和信心。
盡管ChatGPT 可以為智慧圖書館的建設(shè)帶來諸多幫助,但是由于其仍處于發(fā)展階段,故依然存在很多問題。OpenAI 是馬斯克等人于2015 年成立的非營利AI 組織,馬斯克已于2018 年離開,近日他在推特上炮轟OpenAI 違背初心,已經(jīng)成為一家閉源的營利性公司[23]。因此,ChatGPT 的某些技術(shù)對于普通用戶而言就是“黑箱子”。
3.2.1 隱私泄露問題
2023 年3 月23 日,OpenAI 的首席執(zhí)行官Sam Altman 在社交媒體上宣布,由于開源代碼庫的一個(gè)錯(cuò)誤,ChatGPT 出現(xiàn)了一個(gè)嚴(yán)重的問題,即在部分用戶的聊天歷史對話框中出現(xiàn)了別人的聊天記錄[24]。而事實(shí)上,ChatGPT 的隱私政策中包含其可以使用用戶的交互數(shù)據(jù)來輔助訓(xùn)練模型的條款。因此,一旦ChatGPT 類工具接入圖書館,大量的用戶個(gè)人信息、閱讀記錄等有可能因技術(shù)手段等原因而被泄露。就研究者而言,很多學(xué)者通過圖書館來訪問科研數(shù)據(jù)庫,一旦接入了ChatGPT,有可能會(huì)在提問、查詢、檢索等階段暴露自己的學(xué)術(shù)觀點(diǎn)或意圖,ChatGPT 目前已可以通過插件接入互聯(lián)網(wǎng),有可能會(huì)將與之前用戶交互的數(shù)據(jù)重組后作為答案反饋給后來的用戶。
3.2.2 問答真實(shí)性問題
ChatGPT 本質(zhì)上是一個(gè)生成式模型,通過概率來不斷生成后續(xù)的文本。搜索引擎是基于真實(shí)數(shù)據(jù)來返回網(wǎng)頁或者答案,而ChatGPT 是依據(jù)概率生成的內(nèi)容,無法保證其真實(shí)性和準(zhǔn)確性[25]。正是由于其概率性,ChatGPT 針對某一個(gè)同樣問題的前后回答甚至?xí)韵嗝?。筆者要求ChatGPT 提供與“智慧圖書館建設(shè)”有關(guān)的學(xué)術(shù)論文時(shí),其反饋的格式非常規(guī)范,但是很多論文最后證實(shí)是不存在的。如果用戶詢問的是本專業(yè)問題,用戶還可以通過判斷來確認(rèn)其真實(shí)性,而當(dāng)用戶在做跨領(lǐng)域相關(guān)研究時(shí),若不加以詳細(xì)甄別,則很有可能會(huì)被誤導(dǎo)。且GPT—4 已逐步向多模態(tài)方向發(fā)展,有心之人可以利用其生成“圖文并茂”的虛假新聞,公眾難以辨別真實(shí)與否。更甚者,這些錯(cuò)誤的低質(zhì)量信息會(huì)成為ChatGPT的訓(xùn)練數(shù)據(jù),從而影響未來模型訓(xùn)練數(shù)據(jù)的質(zhì)量。此外,ChatGPT 基于大量的網(wǎng)絡(luò)數(shù)據(jù)進(jìn)行訓(xùn)練,由于目前中文數(shù)據(jù)占比較少,受性別、種族、政治、文化背景等的影響,模型的訓(xùn)練數(shù)據(jù)可能存在一些偏見,針對很多涉及國家、民族的政治問題,ChatGPT 可能會(huì)給出帶有偏見性甚者是錯(cuò)誤的答案。
3.2.3 版權(quán)風(fēng)險(xiǎn)問題
ChatGPT 是基于大規(guī)模數(shù)據(jù)訓(xùn)練而成的,開發(fā)者目前并未完全開源其算法、數(shù)據(jù)、運(yùn)行機(jī)制等。訓(xùn)練數(shù)據(jù)中可能包含大量具有版權(quán)的文本資源,ChatGPT 的回答也缺少對相應(yīng)來源的引用,用戶在采用相關(guān)答案時(shí)可能無形中就產(chǎn)生了剽竊、侵犯版權(quán)等問題。因此,這些內(nèi)容在公開發(fā)表時(shí),是屬于ChatGPT 自身還是作者本身,仍有待商榷。
綜上所述,用戶在使用ChatGPT 類工具時(shí),需要檢查輸出結(jié)果以確認(rèn)來源的可靠性,注意保護(hù)自身的隱私安全,學(xué)會(huì)批判性思考,不盲目相信工具和模型。圖書館在引入ChatGPT 類工具時(shí),需要對其進(jìn)行監(jiān)管,通過嚴(yán)格審查來檢驗(yàn)?zāi)P偷妮敵鼋Y(jié)果,確保相關(guān)內(nèi)容符合法律法規(guī),還需要設(shè)立應(yīng)急管理機(jī)制以便及時(shí)刪除錯(cuò)誤信息。
ChatGPT 給各行各業(yè)都帶來了顛覆性沖擊,盡管目前還存在一些問題,但是ChatGPT 在短短的數(shù)月內(nèi)就進(jìn)行了多次迭代升級,可見ChatGPT的時(shí)代已不可阻擋,也讓我們看到了通用人工智能的曙光。圖書館作為開展資源服務(wù)、助力科研教育的重要場所,需要認(rèn)識到ChatGPT 對圖書館建設(shè)的顛覆性影響。從圖書館機(jī)構(gòu)到圖書館員,均需因時(shí)應(yīng)勢而變,積極做好館藏資源建設(shè)與人員轉(zhuǎn)型與儲備,以迎接ChatGPT 時(shí)代的到來。