国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

ChatGPT出版應用的賦能效應、倫理風險與治理進路

2024-11-03 00:00楊利利
出版與印刷 2024年4期

關鍵詞:ChatGPT;出版賦能;出版?zhèn)惱恚恢卫磉M路

DOI:10.19619/j.issn.1007-1938.2024.00.044

作者單位:北京印刷學院馬克思主義學院

引文格式:楊利利. ChatGPT 出版應用的賦能效應、倫理風險與治理進路[J]. 出版與印刷,2024(4):1-10.

2022年11月,美國OpenAI 公司推出的ChatGPT( Chat Generative Pre-trained Transformer)聊天機器人引發(fā)全球熱議,并推動新一輪科技革命。依托自然語言處理(naturallanguage processing,英文縮寫NLP)領域的顛覆性技術進步,以ChatGPT 為代表的人工智能生成內(nèi)容( artificial intelligence generatedcontent,英文縮寫AIGC)為傳媒、教育、娛樂、醫(yī)療、電商等各行各業(yè)尤其是內(nèi)容生產(chǎn)行業(yè)帶來新的賦能效應。對于與人類自然語言處理緊密相連的出版業(yè),ChatGPT 更是成為推動出版智能化轉(zhuǎn)型升級的新型引擎。然而,ChatGPT 在為出版帶來發(fā)展契機的同時,也對數(shù)據(jù)權益、署名規(guī)則、知識生產(chǎn)、人機關系等問題形成一定的沖擊,進而引發(fā)出版領域深層次的不確定性倫理風險。針對上述問題,需要聚焦ChatGPT 這一技術“變量”,深度剖析其所引發(fā)的出版變革與倫理風險,并基于系統(tǒng)化的研究視角,探討其風險治理的實踐理路,充分發(fā)揮ChatGPT 出版應用的賦能效應。

一、ChatGPT概述

1. ChatGPT的基本概念

ChatGPT 是以transformer(模型)和RLHF( reinforcement learning with human feedback,基于人類反饋的強化學習)為支撐的大語言模型。Transformer 架構使ChatGPT 能夠通過分析輸入的語料來理y1CGx5Xs7Aw1tJraiRk/FyJswHEthrK/3XpIqWJGB+4=解人類語言的語法、語義,并且按照語法生成流暢且擁有較強理解力的應答。[1]RLHF 使得模型輸出的內(nèi)容更具可塑性,并與人類的基本常識、認知理解乃至價值觀等趨于一致。這兩項技術的有效結(jié)合,使ChatGPT 表現(xiàn)出超強的能力,在性能方面超越了以往的聊天機器人。ChatGPT 的大模型技術底座源于“大數(shù)據(jù)+大算法+強算力”的強力支撐。在數(shù)據(jù)層面,ChatGPT 等生成式大語言模型的開發(fā)歷程涉及監(jiān)督調(diào)優(yōu)、獎勵模型、近端策略優(yōu)化三個階段,每個階段都需要不同類型的海量數(shù)據(jù)支撐。具體而言,第一階段主要需要海量大數(shù)據(jù)以及人工標注數(shù)據(jù),第二階段主要需要面向RM( rewardmode,獎勵模型)層面的人工排序數(shù)據(jù),第三階段同樣需要全網(wǎng)的海量大數(shù)據(jù)。[2] 在算法層面,ChatGPT 在上述不同階段的訓練中,通過人類與機器交互問答的方式對其算法進行不斷迭代,“使模型逐漸具有對生成答案的評判能力”[3]。在算力層面,根據(jù)中新經(jīng)緯提供的數(shù)據(jù),ChatGPT 的總算力消耗約為3640 PFdays(即假如每秒計算1000 萬億次,需要計算3640 天),需要7~8個投資規(guī)模約30億、算力500P 的數(shù)據(jù)中心才能支撐運行。[4]

2. ChatGPT 的主要功能

ChatGPT 是生成式人工智能的最新成果和典型代表。ChatGPT 不僅能夠?qū)θ祟愖匀徽Z言進行識別學習,比如通過模仿、指令性操作等實現(xiàn)日常對話、文本創(chuàng)作、代碼編寫、音視頻生成等方面的應用,而且能夠依托“基礎大模型+指令微調(diào)”的運作機制賦予AIGC 更多的可能性。首先,大模型可使AIGC克服不同場景下的視覺感知問題,增強視覺理解的效果。其次,ChatGPT 可增強AIGC的認知能力。ChatGPT 具備語言理解、推理、自我學習的能力,對人類智慧具有一定的模仿能力。從某種意義上而言,ChatGPT 的誕生意味著由弱人工智能時代向強人工智能時代的轉(zhuǎn)變,拉開了人工智能向認知智能過渡的序幕。基于語言的認知智能不僅加速了通用人工智能(artificial general intelligence,英文縮寫AGI)的到來,也使AIGC 的認知能力得到提升。再次,多模態(tài)大模型使AIGC的內(nèi)容創(chuàng)作能力得以升級。一方面,借助ChatGPT 大模型的自主性、涌現(xiàn)性等特征優(yōu)勢,AIGC 可突破人腦在內(nèi)容產(chǎn)能上的束縛,以百倍乃至千倍的生產(chǎn)速度,創(chuàng)造具有獨創(chuàng)性和價值性的內(nèi)容;[5] 另一方面,ChatGPT在代碼數(shù)據(jù)訓練方面可賦予AIGC 一定的思維與推理能力,經(jīng)過邏輯推理,大模型生成的內(nèi)容可超越人類知識儲備范圍并體現(xiàn)創(chuàng)造性。最后,多模態(tài)大模型促進了不同模態(tài)信息內(nèi)容的轉(zhuǎn)換與融合,使AIGC 獲得強大的環(huán)境感知力,從而具備更為接近人的智能創(chuàng)作能力。

二、ChatGPT 出版應用的賦能效應

隨著ChatGPT 技術的演化迭代,其在出版業(yè)的應用不斷拓展。一方面,ChatGPT 具備的認知理解能力,可以優(yōu)化出版流程,為出版業(yè)的發(fā)展與變革帶來新的契機;另一方面,GhatGPT 強大的智能創(chuàng)作能力,可以衍生更多的新型智能出版產(chǎn)品,推動數(shù)字出版的智能轉(zhuǎn)型與升級。

1. 質(zhì)效提升效應

ChatGPT 具有生成內(nèi)容規(guī)模大、速度快、成本低等顯著優(yōu)勢,隨著GPT-4接入必應搜索,其檢索、提煉資料信息的時間進一步縮短,效率和質(zhì)量進一步提升。在用戶指令支配下,ChatGPT 可簡化傳統(tǒng)出版中人工檢索和篩選統(tǒng)計等煩瑣環(huán)節(jié),迅速生成內(nèi)容信息,比如在10 秒內(nèi)架構一個網(wǎng)站,在60 秒內(nèi)設計一個游戲,通過一次對話便可生成一部劇本或短篇小說。[6] 同時,ChatGPT 通過大規(guī)模數(shù)據(jù)挖掘以及神經(jīng)網(wǎng)絡技術、預訓練與微調(diào)、自監(jiān)督學習和多任務學習等技術的綜合應用,集信息支持、創(chuàng)作支持、服務支持、情感支持于一身,[7] 能夠低成本、高效能地完成出版活動所需的一部分內(nèi)容生產(chǎn)。此外,ChatGPT 算法的優(yōu)化升級可以使AIGC 自動檢索并有效規(guī)避內(nèi)容生產(chǎn)中的低級錯誤,并在內(nèi)容語義與邏輯推理上模擬人腦思維,從而對內(nèi)容進行初步審核。ChatGPT 不僅能夠以優(yōu)于人類的綜合分析能力承擔審稿、校對等工作中基礎性機械勞動,而且能夠憑借高超的創(chuàng)造能力和知識水平進行更為科學合理的內(nèi)容選題策劃、修改完善等工作,從而對出版內(nèi)容的生產(chǎn)與傳播流程進行精細管理,準確、高效地完成任務。比如GPT-4可利用其網(wǎng)絡信息搜尋與智能識別能力有效辨識新聞素材來源與內(nèi)容等的精準性,實現(xiàn)高效信息處理、知識邏輯優(yōu)化、多模態(tài)內(nèi)容消歧。相較于微軟小冰、百度小度、蘋果Siri 等傳統(tǒng)聊天機器人,ChatGPT 經(jīng)過數(shù)據(jù)“喂養(yǎng)”形成了一定的倫理判斷和價值取向,能夠有效辨識出版內(nèi)容中的道德理性偏差,提升人工編輯與審查的質(zhì)量。如輸出“以下文字/圖片存在哪些不合理的問題” 時, ChatGPT會從字詞、價值觀與事實等方面分別陳述,并且當文稿、圖片涉及某些政治正確與道德倫理方面的問題時,其敏銳性遠超常人。[8]

2. 創(chuàng)新驅(qū)動效應

ChatGPT 強大的底層泛化能力,使其不僅能夠進行文本、圖像、音視頻等多模態(tài)內(nèi)容的生成與轉(zhuǎn)換,而且能夠進行自主性和個性化的生產(chǎn),實現(xiàn)知識價值的自主創(chuàng)造。同時,ChatGPT 能夠通過內(nèi)容的創(chuàng)造性生成和自動化編纂、語言的智能化潤色加工、產(chǎn)品形態(tài)的多模態(tài)轉(zhuǎn)換等方式,變革出版的內(nèi)容生產(chǎn)范式和內(nèi)容供給模式。除此之外,ChatGPT 作為更具智慧的聊天機器人,重塑了人機之間的智能交互,可推動出版流程的智能再造,優(yōu)化出版服務轉(zhuǎn)型升級。目前,ChatGPT 已經(jīng)在新聞生成、文學出版、漫畫制作等諸多出版領域得到應用,隨著ChatGPT的迭代更新,其必將對出版業(yè)的創(chuàng)新發(fā)展產(chǎn)生更大的驅(qū)動效應。

3. 市場開拓效應

ChatGPT 出色的交互能力可用于增強用戶體驗,為出版業(yè)的市場開拓提供技術支撐。首先, GAN( generative adversarial network,生成式對抗網(wǎng)絡)等技術的應用推動出版內(nèi)容產(chǎn)品形態(tài)的高質(zhì)量演化,通過構建多維數(shù)據(jù)促進從平面場景到立體模型的轉(zhuǎn)換,使出版內(nèi)容實現(xiàn)從2D 到3D 的擴展,并與VR、AR技術結(jié)合,給用戶帶來沉浸式體驗。其次,ChatGPT 擁有用戶意圖識別能力,能不斷優(yōu)化用戶體驗。ChatGPT 通過自注意力機制(self-attention mechanism),基于多輪對話的情感化交互,增強對話情境中的上下文信息語義感知與推理,通過在NLP 模型上用消費者的提問文本進行多模態(tài)情感分析(sentimentanalysis),提取個人消費偏好并建立用戶檔案,深層次把握用戶的個性化需求。[9] 這有助于在出版內(nèi)容分發(fā)環(huán)節(jié)即時地滿足用戶需求,為用戶帶來更好的交互式體驗,進而提高用戶黏性,助力出版營銷。如《時代》周刊計劃構建更為可信、更有價值的生成式人工智能系統(tǒng),增強用戶與人工智能的互動性,讓用戶知道其獲取的內(nèi)容和對話的真實來源,從而建立情感聯(lián)結(jié),滿足用戶的情感訴求,提高用戶對新聞品牌的信任度。[10] 借助ChatGPT 賦能,可以助力出版商開展市場調(diào)研以把握消費者的潛在需求,進而為其提供更多增值服務,開拓更大的出版消費市場。

三、ChatGPT 出版應用的倫理風險

ChatGPT 在賦能出版高質(zhì)量發(fā)展的未來圖景中,也面臨著侵權風險和維權難題、機器署名爭議、虛假內(nèi)容泛濫、人機關系異化等問題,從而引致相應的出版?zhèn)惱盹L險。

1. 侵權風險和維權難題:ChatGPT 出版應用的數(shù)據(jù)權益侵犯風險

(1)侵權引發(fā)的數(shù)據(jù)權益侵犯

ChatGPT 作為生成式人工智能的典型代表,可以從事一些獨立性的工作,生成具有創(chuàng)造性和價值性的作品。從其運行機理來看,ChatGPT 生成物的生產(chǎn)過程實質(zhì)上是基于數(shù)據(jù)挖掘的大數(shù)據(jù)學習與再創(chuàng)造過程。數(shù)據(jù)挖掘的過程一般包括信息抽取、語義分析、關系計算、知識發(fā)現(xiàn)等四個步驟。[11] 從來源上看,這些數(shù)據(jù)大多來自公開的互聯(lián)網(wǎng)數(shù)據(jù),其中不乏涉及國家安全與個人隱私的諸多信息,并且很多數(shù)據(jù)都受到知識產(chǎn)權的保護。ChatGPT 在內(nèi)容生產(chǎn)中,往往是在未經(jīng)允可的情況下通過機器學習進行數(shù)據(jù)的挖掘、加工與處理等,這導致數(shù)據(jù)來源的合法性無法得到有效保證,極易引發(fā)復制權、改編權、信息網(wǎng)絡傳播權等版權的侵犯問題。隨著ChatGPT 這類生成式人工智能的廣泛應用,互聯(lián)網(wǎng)信息傳播的壁壘進一步被打破,在一定程度上為出版領域的侵權行為滋生創(chuàng)設了更為有利的條件。而出版相關法律制度的滯后性與建設的不完備性,更是使得這些問題難以在短時間內(nèi)得到有效解決。

(2)維權難題面臨的數(shù)據(jù)權益維護問題

創(chuàng)造性是知識產(chǎn)權的關鍵屬性,也是作品獲得知識產(chǎn)權保護的客觀依據(jù)。ChatGPT生成物要獲得法律意義上的版權保護,就必然要體現(xiàn)一定的原創(chuàng)性或獨創(chuàng)性,即在創(chuàng)新性上有所突破和超越。然而,著作權法堅持“思想與表達區(qū)分的原則”,其中提到的“最低限度創(chuàng)造性”所關注的重點在于作品思想與情感表達的客觀區(qū)別,而非保護創(chuàng)作中的思想與情感本身。這意味著,創(chuàng)作主體只要在表達上有所創(chuàng)新,自然應當獲得法定意義上的著作權。就ChatGPT 而言,其通過對數(shù)據(jù)算法的加工處理,完全能夠形成新的表述、生成外觀不同于以往的作品。但是從內(nèi)容創(chuàng)新的角度而言,ChatGPT 的內(nèi)容生產(chǎn)難免存在一定的“洗稿”嫌疑,甚至可在某種程度上被定義為“高科技剽竊”,即使這種“洗稿”行為不會影響法學上對作品獨創(chuàng)性的判定,但該行為卻侵犯了相關主體的數(shù)據(jù)權益。同時,從倫理層面看,《中華人民共和國著作權法》(簡稱《著作權法》)的立法目的是為了鼓勵創(chuàng)新,促進科學文化事業(yè)的繁榮與發(fā)展。因此,《著作權法》以設立專有權利的方式讓作者獲得更多的經(jīng)濟回報,從而提高作者的創(chuàng)作積極性,以創(chuàng)造更多裨益社會的文化產(chǎn)品。ChatGPT 則依托其硅基“物種”優(yōu)勢、超強功能優(yōu)勢、持續(xù)“進化優(yōu)勢”等在創(chuàng)作領域表現(xiàn)出顯著競爭力,若給予ChatGPT 生成物同等的著作權保護,則無異于挫敗人的創(chuàng)作積極性,助長ChatGPT背后的資本勢力對于文化工業(yè)化生產(chǎn)的大批量操縱?;谶@一考量,ChatGPT 生成物版權難以獲得法律保障的倫理辯護,因而面臨著被盜用、濫用的版權危機,由此進一步引發(fā)更多數(shù)據(jù)權益侵犯風險。

2. 機器署名爭議:ChatGPT 出版應用的學術倫理挑戰(zhàn)

據(jù)不完全統(tǒng)計,截止到2023 年2 月,亞馬遜電子書城商店中已有超過200 種電子書將ChatGPT 列為作者或合著者,甚至專門開設了一個圖書內(nèi)容完全由ChatGPT 生成的子欄目。[12] 隨著ChatGPT 在出版業(yè)的應用日益廣泛,關于ChatGPT 能否作為作者署名的爭議不斷,機器是否署名的矛盾背后蘊含著相應的學術倫理困境。

(1)機器不署名的學術倫理問題

ChatGPT 作為學術研究的工具,可在資料檢索、內(nèi)容生成等方面發(fā)揮重要作用。如果ChatGPT 參與了學術研究,其學術貢獻卻被刻意忽略而不予以署名,不僅這種行為本身背離了科研誠信,而且由此滋生的機器洗稿行為會進一步加劇科研失信現(xiàn)象。另外,簡單拒絕在學術傳播中對ChatGPT 署名,這一做法本質(zhì)上是對人工智能創(chuàng)作事實的無視,違背了技術中立原則之本旨,不利于學術作品的分類及檢索,甚至可能阻礙學術創(chuàng)新與學術工具發(fā)展的同步推進。[13]73

(2)機器署名的學術倫理問題

在機器署名問題上,最引人關注的倫理問題在于責任如何歸屬。一是ChatGPT 能否承擔責任的倫理問題。在國際醫(yī)學雜志編輯委員會( International Committee of MedicalJournal Editors, 英文縮寫ICMJE) 制定的2022年版作者標準中,“作者”身份滿足具備四項條件,其中就包括對研究內(nèi)容負責。一般而言,責任存在需要三個基本前提:獨立的行為主體、基于行為的自由選擇和行為自知。[14] 事實上,ChatGPT 不具有自由意志和獨立人格,也不具有基于事實判斷的價值理性,其本身無法對科研過程、科研數(shù)據(jù)與結(jié)論的真實性、準確性、完整性和可靠性等負責,因而無法承擔相應的責任。目前,國外《科學》《自然》《韓國放射學雜志》等著名雜志明確禁用ChatGPT 的署名權,國內(nèi)《暨南大學學報(哲學社會科學版)》《天津師范大學學報(基礎教育版)》等期刊也嚴格限制對ChatGPT 予以署名。[13]71[15] 二是ChatGPT 承擔責任份額的倫理問題。如果把機器跟人聯(lián)合署名,則存在責任分配的問題。ChatGPT在學術研究中所作貢獻的程度和質(zhì)量都難以確證,這意味著其在應該承擔的責任份額上無法確責。如此一來,就有可能出現(xiàn)學術研究中的責任推諉現(xiàn)象,部分科研工作人員可能會利用ChatGPT 開展各種投機利己活動,從而危害學術生態(tài)的健康發(fā)展。

3. 虛假內(nèi)容泛濫:ChatGPT 出版應用的知識信任危機

從本質(zhì)上來看,出版作為一種知識生產(chǎn)活動,通過出版物的發(fā)行為公眾提供知識產(chǎn)品服務。ChatGPT 依托數(shù)據(jù)、算力與算法方面的顯著優(yōu)勢實現(xiàn)了具有革命意義的技術變革,然而,數(shù)據(jù)學習與邏輯運算的缺陷,導致ChatGPT 在應用中易產(chǎn)生虛假內(nèi)容,從而消解知識內(nèi)容的真實性和權威性,引發(fā)知識信任危機。

(1)數(shù)據(jù)缺陷

首先,ChatGPT 訓練的數(shù)據(jù)來源于各類網(wǎng)站、論壇、圖書、期刊等,但數(shù)據(jù)信息的不可靠、數(shù)據(jù)素材占比的不均衡、內(nèi)容的不充分以及經(jīng)驗數(shù)據(jù)固有的偏見等,都會導致生成內(nèi)容的偏差。根據(jù)國內(nèi)外相關研究[16?17],ChatGPT 在出版業(yè)的應用存在論文捏造事實、文獻數(shù)據(jù)錯誤、虛假信息表述等問題,影響了公眾對其輸出知識的信任。其次,ChatGPT訓練的數(shù)據(jù)包含人機對話中用戶提交的動態(tài)數(shù)據(jù)信息,用戶輸入的信息會作為ChatGPT數(shù)據(jù)訓練的語料參與到內(nèi)容的輸出中,從而形成“動態(tài)數(shù)據(jù)輸入—算法運行計算—內(nèi)容生產(chǎn)輸出”的循環(huán)邏輯。因此,當作為出版主體的用戶輸入錯誤性信息時,就會造成數(shù)據(jù)庫的污染,形成輸出結(jié)果的偏差性。此外,技術人員雖然為ChatGPT 設定了一定的倫理規(guī)則,但其仍然會在誘導之下生產(chǎn)一些以假亂真甚至危害社會的誤導性偏差內(nèi)容。譬如,當測試人員讓ChatGPT 根據(jù)虛假信息進行新聞寫作時,其可迅速生成大量看似讓人信服但實際上無明確信源的內(nèi)容,盡管其新聞結(jié)構和敘事手法均接近專業(yè)水平,但內(nèi)容本身卻充斥著錯誤信息和虛假引用。[18] 因此,一旦ChatGPT 被一些蓄意“數(shù)據(jù)投毒”者所操縱并被用于從事出版相關活動,各種虛假內(nèi)容就會大肆泛濫,從而影響公眾對于出版物的信任。

(2)算法缺陷

ChatGPT 雖然具有高超的信息處理能力,但其基于“數(shù)”的知識計算邏輯與人類基于社會實踐、情感、理性、價值判斷等形成的認知邏輯具有根本上的不同。ChatGPT 缺少真正的人類理解與邏輯推理能力,只能基于海量數(shù)據(jù)學習一些基本的規(guī)律并進行簡單的預測,并不能參透數(shù)據(jù)之間的深層因果關系,因此,其在邏輯推理方面存在諸多漏洞,在生成內(nèi)容時,ChatGPT 可能僅僅基于統(tǒng)計模式匹配而不具備深入理解語義和邏輯關系的能力,[19] 這意味著其無法形成準確可靠的知識輸出。另外,ChatGPT 分析復雜問題的多學科思維能力偏弱,缺少立足于實踐語境的多維知識理解,在某些情況下得出的結(jié)論可能偏離常識,具有“越是簡單越容易出錯”的人工智能通病,并常常出現(xiàn)“一本正經(jīng)地胡說八道”這種情況。因此,當ChatGPT 介入出版領域時,容易引發(fā)出版內(nèi)容真實性原則的背離,造成出版內(nèi)容質(zhì)量低下甚至出現(xiàn)內(nèi)容失真等問題。長此以往,可能會導致用戶黏性降低,產(chǎn)生“信任衰退效應”。

4. 人機關系異化:ChatGPT 出版應用的文化精神失落

機器作為人的意向的一種對象化投射,是人的能力延伸,其本質(zhì)上是對人的指令的執(zhí)行與操作。傳統(tǒng)人機關系中,機器是人類實踐活動的技術存在物,人在根據(jù)自身的需要生產(chǎn)、使用和改進機器的同時,不斷實現(xiàn)自身發(fā)展,保障了人作為萬物之靈一直在“主—客”關系中占據(jù)的無可爭議的主體地位。[20]隨著ChatGPT 深度學習與自主決策能力的提升,其所具有的“擬主體性”愈加凸顯,進而從本體論上撼動了人的主體地位,并形成新的人機關系異化。在出版領域,ChatGPT的應用對于作為出版文化生產(chǎn)主體的作者與編輯都構成了威脅,由此引發(fā)出版文化精神的價值失落。

(1)內(nèi)容作者替代:沖擊出版文化精神的生產(chǎn)

ChatGPT 通過大數(shù)據(jù)學習能夠?qū)崿F(xiàn)原始材料的快速搜集整理,并經(jīng)過深度加工高效生成大量出版物。然而,ChatGPT 并不真正具有人類的“心力”和“心智”,只是對算法規(guī)則指令進行機械模仿與執(zhí)行。就出版物的創(chuàng)作而言,所謂的“創(chuàng)作性”和價值性即作品中蘊含先驗知識理解、批判性創(chuàng)新、社會價值引導和社會實踐服務等特征。相比于ChatGPT 而言,人類在情感表達、自主判斷、非理性思維等方面均表現(xiàn)出獨特的優(yōu)勢。因此,當ChatGPT 以“智能理性”替代“人類理性”進行高效的內(nèi)容創(chuàng)作時,極易引發(fā)技術過度依賴下的創(chuàng)意同質(zhì)化、內(nèi)容情感的貧瘠化等問題,從而削弱出版內(nèi)容的原創(chuàng)性和價值期待性,造成出版文化精神的生產(chǎn)困境。

(2)職業(yè)編輯替代:消解出版的文化價值

在出版領域,編輯是一項融合創(chuàng)造性、審美性和交互性的精神性生產(chǎn)活動。長期以來,編輯在出版中扮演著“把關人”的重要角色,其依托專業(yè)能力、豐富經(jīng)驗與價值理性決定著出版物的質(zhì)量。在ChatGPT 出現(xiàn)之前,各種技術只是介入出版的局部要素,對內(nèi)容生產(chǎn)與編輯方式帶來有限的影響。而ChatGPT 不僅可以獨立自主快速生成新聞、詩歌、小說、繪畫等作品,還使“編輯替代”成為可能。Meta Media 超媒體控股集團旗下《InStyle 優(yōu)家畫報》推出全球首位具有“靈魂”的虛擬主編Beatrice,依托ChatGPT 活躍的AI 大腦和驚人的時尚思維,專為“Z 世代”傳遞時尚資訊。[21] 事實上,ChatGPT 雖然可以在一定程度上發(fā)揮人類編輯的審核校對、加工潤色等功能,但并不能真正取代編輯的固有經(jīng)驗和感性認識,ChatGPT 所具備的算法偏好的過濾模式更意味著其無法實現(xiàn)對出版物質(zhì)量的真實把關。如果ChatGPT 得以大量應用于職業(yè)編輯替代中,極易導致一些極具創(chuàng)意和富有內(nèi)涵價值的作品被排除在外,取而代之的是大量流量化、同質(zhì)化、娛樂化甚至具有思想偏差性的作品,從而弱化了出版的文化功能,不利于社會主義文化的繁榮發(fā)展。

四、ChatGPT 出版應用的倫理風險治理進路

ChatGPT 出版應用所衍生的倫理風險的復雜性,決定了必須重塑系統(tǒng)化的風險規(guī)制思維。需要在實踐中統(tǒng)籌技術、倫理、政策法規(guī)、人機關系等因素,推動ChatGPT 更好地服務于出版發(fā)展。

1. 探索負責任創(chuàng)新主導的技術治理體系

針對技術發(fā)展中破壞性效應的凸顯,負責任創(chuàng)新(responsible innovation,英文縮寫RI)作為一種技術倫理準則被提出并逐漸引入新技術的研發(fā)應用中。負責任創(chuàng)新亦稱責任式創(chuàng)新,最早由德國學者海斯托姆(Tomas Hellstrom)提出,2013 年被納入歐盟政策委員會“地平線2020 框架計劃”,隨后這一理念逐漸被各國政府采納,許多國家相繼制定了負責任創(chuàng)新的行動指南。負責任創(chuàng)新統(tǒng)籌道德、政治、文化、法律等多重社會因素,通過構建“預測性—反思性—協(xié)商性—反饋性”四維框架,對技術創(chuàng)新進行調(diào)整和規(guī)約,以促進技術與倫理的適應性?;谪撠熑蝿?chuàng)新的理念,在ChatGPT 技術研發(fā)與出版應用中,應當立足對人類負責的價值立場,推動建立貫徹整個技術應用環(huán)節(jié)的技術治理體系。

在技術應用前,應加強ChatGPT 技術治理的前瞻性預測??蓸嫿ň哂锌尚行缘膫惱盹L險指標體系及優(yōu)化風險檢測程序,形成以可能性后果預測為導向的前瞻性治理模型,實現(xiàn)由被動性風險應對到主動性風險防范的思維轉(zhuǎn)變。在技術應用中,應做好技術風險的實時動態(tài)觀察,建立一體化、分類化的出版?zhèn)惱盹L險應對機制。比如,通過運用標簽、水印、區(qū)塊鏈加密算法等技術對互聯(lián)網(wǎng)作品的權利狀態(tài)進行標注,并通過技術手段使標注可檢測化,進而對數(shù)據(jù)運用主體的行為進行有效規(guī)范,保障數(shù)據(jù)來源的合法化。同時,采取重采樣等技術手段消除數(shù)據(jù)偏見并盡可能地稀釋算法模型誤用風險。[22] 在技術應用后,應組織開展有效的反饋交流。探索開放共享、有償介入、互動反饋等多元主體協(xié)同參與的機制,搭建主體間的溝通對話交流平臺,以開放包容的態(tài)度吸納各方反饋意見以做好ChatGPT 技術出版應用評估,適當調(diào)整技術創(chuàng)新規(guī)劃與應用實踐。

2. 打造雙管齊下的規(guī)范治理體系

(1)一般政策法規(guī)

政府應健全有關數(shù)據(jù)獲取、算法規(guī)制、科研誠信等重要議題的政策法規(guī),從法律層面明確和規(guī)范數(shù)據(jù)采集使用的權限以及技術應用的合理限度,加強對學術造假、內(nèi)容剽竊、虛假信息傳播等出版?zhèn)惱硎Х缎袨榈谋O(jiān)督和懲戒,營造風清氣正的出版生態(tài)。

(2)出版法律制度規(guī)范

在制定與完善相關政策法規(guī)的基礎上,推進ChatGPT 出版介入與應用的規(guī)范化建設。2023年7月10 日,國家互聯(lián)網(wǎng)信息辦公室聯(lián)合國家發(fā)展和改革委員會、教育部、科技部、工業(yè)和信息化部、公安部、廣播電視總局等七部門聯(lián)合頒布《生成式人工智能服務管理暫行辦法》,對數(shù)據(jù)獲取與使用、知識產(chǎn)權、生成內(nèi)容的準確性和可靠性等方面進行規(guī)定,同時明確提出,生成式人工智能“從事新聞出版、影視制作、文藝創(chuàng)作等活動”時還需遵守相應領域的規(guī)定。為此,應通過健全出版相關制度法規(guī),構建ChatGPT 出版準入機制、ChatGPT 出版物版權歸屬制度、侵權認定制度、署名規(guī)則與責任歸屬、出版物等級與合理使用制度等,對ChatGPT 的使用限度、應用邊界與紅線禁區(qū)做出必要規(guī)定,搭建標準化、科學化、規(guī)范化的管理框架,確保出版流程的有效管理,實現(xiàn)出版社會效益與經(jīng)濟效益的有機統(tǒng)一。

(3)出版?zhèn)惱硪?guī)范

首先,應構建出版?zhèn)惱韺彶闄C制??沙闪iT的出版?zhèn)惱韺彶槲瘑T會,改進、完善出版?zhèn)惱淼淖灾涡砸?guī)范機制。通過出版?zhèn)惱韺彶椋鲞M對ChatGPT 出版應用倫理風險、創(chuàng)新目標等問題的綜合分析與考量,探索出版服務社會主義文化繁榮發(fā)展的評估準則。

其次,應建設主體責任倫理規(guī)范。面向內(nèi)容作者、編輯、用戶等主體普及出版?zhèn)惱斫逃?,引導出版從業(yè)人員遵守出版?zhèn)惱硪?。同時,引導編輯、作者、科研工作者合理、規(guī)范使用ChatGPT 進行人機交互和內(nèi)容生產(chǎn),明確多元參與主體在出版活動中的責任義務,強化其個體權益防護意識及ChatGPT 的使用倫理規(guī)范。最后,應建立技術倫理規(guī)則。重視ChatGPT 出版應用過程中的跨學科合作,突破學科間的壁壘和分立,推動出版行業(yè)學會、協(xié)會、研究會等社會組織通過協(xié)商共同研制ChatGPT 介入下的出版行業(yè)規(guī)范與公約,制定針對ChatGPT 等大模型出版應用的數(shù)據(jù)權益、學術倫理、知識信任與文化傳播等倫理規(guī)則。通過引導ChatGPT 技術的向善發(fā)展與負責任應用,維護出版主體的相關利益,促進出版創(chuàng)新與技術倫理的兼容共存。

3. 構建人機共生的生態(tài)治理體系

ChatGPT 作為人的理性思維產(chǎn)物,是人的能力延伸。在人的發(fā)展與機器進化協(xié)同并進的背景下,應當重新審視并確立人機之間的良性互動關系,構建和諧共生的人機生態(tài)系統(tǒng)。傳統(tǒng)的人機對立思維“看不到人與智能機器人之間存在的優(yōu)勢互補、合作共生的伙伴關系,因而在智能時代變成了一種缺乏遠見和誤導人的有害思維”[23]。事實上,隨著ChatGPT 的演化革新,其在啟發(fā)內(nèi)容生成、對話情境理解、序列任務執(zhí)行等方面的能力顯著提升,ChatGPT 參與到人類的知識和經(jīng)驗之中,目的并不是徹底取代人類,而是形成人類的身體經(jīng)驗和人工智能的神經(jīng)網(wǎng)絡經(jīng)驗的交互和對/CvK/5zOmIjEbWAsaShZvQ==接,讓基于人類身體的碳基倫理和基于神經(jīng)網(wǎng)絡算法的硅基倫理可以在一個共生的層面上結(jié)合起來。[24] 因此,智能時代內(nèi)容作者與編輯的轉(zhuǎn)型之路應做到既要以技術優(yōu)勢賦能人的價值實現(xiàn),又要依賴人的理性意識和把關功能規(guī)制技術的合理發(fā)展,推動人機關系由沖突競爭對立關系走向人機共生的伙伴關系,通過優(yōu)勢互補構建新型和諧出版生態(tài)。

首先,因勢而動,應靈活應對機器時代的人機挑戰(zhàn)。正視ChatGPT 在條理邏輯性、強大存儲量、高效運算力等方面的技術優(yōu)勢,并借助這些優(yōu)勢將內(nèi)容作者、編輯從程序性、繁雜性、重復性的勞動中解放出來,把出版中技術能完成的工作交由技術處理,更具創(chuàng)意性和人文性等適合人的工作由人來承擔,在人機合理分工中實現(xiàn)人的發(fā)展和出版社會經(jīng)濟效益的雙向共贏。其次,順勢而為,應發(fā)揮人的主觀能動性。技術作為人的理性投射,是人對象化的產(chǎn)物,在人機共生環(huán)境下,內(nèi)容作者、編輯的主體地位依然具有不可動搖性。ChatGPT 作為一種工具手段應在人的理性掌舵下實現(xiàn)向善發(fā)展。這意味著,無論是內(nèi)容作者還是編輯都要提升對ChatGPT 技術的駕馭能力和風險把關能力。為此,一方面,可通過加大培訓力度、深化激勵機制、優(yōu)化考評制度等方面的改革,推動出版從業(yè)人員的ChatGPT 學習和技術運用能力的提升。另一方面,可增進出版從業(yè)人員的媒介素養(yǎng)和數(shù)字素養(yǎng),增強風險預警意識,強化出版內(nèi)容的審核把關,實現(xiàn)ChatGPT 賦能出版提質(zhì)增效功能的發(fā)揮。

五、結(jié)語

本文基于ChatGPT 在出版領域的應用實踐,剖析其給出版業(yè)帶來的質(zhì)效提升、創(chuàng)新驅(qū)動、市場開拓等賦能效應,并基于不同的出版應用場景闡釋了蘊含其中的數(shù)據(jù)權益侵犯、學術倫理挑戰(zhàn)、知識信任危機和文化精神失落等出版?zhèn)惱盹L險。通過運用系統(tǒng)分析方法,本文統(tǒng)籌技術倫理、政策法規(guī)、人機關系等因素,提出構建負責任創(chuàng)新主導的技術治理、雙管齊下的規(guī)范治理、人機共生下的生態(tài)治理等出版?zhèn)惱盹L險治理體系。未來,ChatGPT 大語言模型的迭代升級將會進一步重塑出版流程,優(yōu)化出版產(chǎn)品,加速出版業(yè)的智能化轉(zhuǎn)型。作為承載文化使命的出版業(yè)如何在接受新技術變革的同時,有效防范與應對伴隨其中的倫理風險,將直接決定人類文明的傳承與發(fā)展,也影響著人們精神文化需求的供給與滿足?;趯嵺`中不斷產(chǎn)生的新問題,持續(xù)深化對ChatGPT 這類生成式人工智能出版應用衍生的相關倫理風險的研究和探討,應當成為學界關注的重點。

甘南县| 诸城市| 驻马店市| 林周县| 鄂州市| 专栏| 云南省| 株洲市| 普定县| 新绛县| 三明市| 汶上县| 洛扎县| 楚雄市| 延安市| 新营市| 于田县| 凤阳县| 青浦区| 昌平区| 拜城县| 潞城市| 石嘴山市| 江安县| 钦州市| 常熟市| 拜城县| 祁门县| 焦作市| 泊头市| 民丰县| 鄂尔多斯市| 和田市| 石家庄市| 英吉沙县| 辽宁省| 荣成市| 安丘市| 松滋市| 沙洋县| 龙江县|