丁 紅 菊
(浙江傳媒學院 媒體工程學院,杭州 310018)
回顧人類社會發(fā)展的傳播史,從大眾傳播到社交傳播再到智能傳播,技術推動時代的巨輪滾滾向前,在人類社會掀起一次又一次的傳播革命,也不斷重塑著新聞業(yè)的發(fā)展格局與生產(chǎn)鏈條。2022年11月30日,美國公司OpenAI推出全新聊天機器人ChatGPT(Generative Pre-trained Transformer,生成型預訓練語言轉換器),引起舉世關注。該款軟件上線4天下載量便破百萬,2個月內注冊用戶便達到了1億。而要達到此用戶量級,Netflix用了120個月,Twitter耗時60個月,連近年新興的TikTok也花費了9個月??梢奀hatGPT以極其迅猛之勢遠超其他程序,成為震蕩全球的現(xiàn)象級應用。比爾·蓋茨甚至將之與PC、互聯(lián)網(wǎng)革命等量齊觀,表示ChatGPT“將改變我們的世界”。根據(jù)“大數(shù)據(jù)+大算力+大算法=智能模型”的邏輯,ChatGPT以巨量互聯(lián)網(wǎng)信息作為數(shù)據(jù)源,憑借高核能AI算力[1],通過使用其Transformer神經(jīng)網(wǎng)絡架構下的語言處理技術[2],運用RLHF(Reinforcement Learning from Human Feedback,人類反饋的強化學習)的訓練方式來進行人類語言的深度學習(Deep Learning)[3],由此產(chǎn)出與人類認知、需求和價值觀等較為契合的文本,最終實現(xiàn)與人類的交往和對話。背靠強大的技術支撐,ChatGPT4.0具備了圖像識別、文本生成、文字生成圖片以及文檔自動編輯等多項功能[4],無疑會成為現(xiàn)實人類社會的一個巨型沖擊波。
憑借強大的功能,ChatGPT可迅速完成高復雜度文本的寫作,被廣泛應用于多行業(yè)、多領域之中,也滲透進新聞傳播領域。回溯歷史,自人工智能技術融入新聞業(yè)以來,經(jīng)歷了新聞寫作機器人、智能算法推送、元宇宙新聞和AIGC新聞四個階段[5]。而ChatGPT作為AIGC新聞生產(chǎn)的新晉技術代表,相較于以往的智能機器人,它可適用于信息檢索、內容生成和情感互動等更為廣泛的場景,所生成的內容更加智能化、擬人化,并且能與用戶進行多輪對話,具備與之構建情感化社交關系的潛力。此外,如果說社交媒體實現(xiàn)了“所有人對所有人傳播”的夢想,那么ChatGPT則形塑了一個全新的信息傳播生態(tài),有望開啟一個“所有信息對所有人傳播”[6]的時代。面對如此強勁的技術,英國《衛(wèi)報》的新聞評論員表示教授、程序員和記者可能會在短短幾年內全部失業(yè)。為此,新聞業(yè)需要警鐘長鳴,新聞工作者卻無需過分憂慮,落入“機進人退”的思維窠臼,我們需要做的便是從技術出發(fā),迎擊技術浪潮,審視技術帶來的利處與弊端,在未來謀求人機協(xié)作的發(fā)展進路。
自ChatGPT面世以來,學界對其展開了熱烈的討論,相關文獻涌現(xiàn),呈“井噴”之態(tài)。從關注重點來看,關于ChatGPT的已有研究主要集中在以下三個方面:
ChatGPT被認為是繼互聯(lián)網(wǎng)、智能手機之后,帶給人類的第三次革命性產(chǎn)品。以往AIphaGo憑借在特定領域的“專”讓AI火出圈,此次ChatGPT則展現(xiàn)出AI在廣泛應用場景的“通”:這個“通”以正常人都會、都懂、都能體驗的對話形式呈現(xiàn),讓AI——特別是自然語言處理技術進入主流用戶群,孕育出這一現(xiàn)象級產(chǎn)品。究其背后的運行模式和技術原因,ChatGPT“無比強大”的能力主要得益于其依托的大型語言模型——LLM(Large Language Model)。當模型規(guī)模足夠大時,LLM本身則具備相應的推理能力,同時ChatGPT采用了大算法、大算力和大數(shù)據(jù)等關鍵技術,方能在技術加持之下取得令人驚艷的效果[7]。但是,在使用過程中,ChatGPT已被發(fā)現(xiàn)存在諸多問題:如數(shù)學計算、未來預測、時空物理現(xiàn)實推理等方面能力的局限,以及事實錯誤(幻覺)、生成毒害內容等方面的不可控。?;w、于劍從可信AI的安全性、公平性、可解釋性和數(shù)據(jù)隱私等四個維度對ChatGPT存在的問題展開了討論[8]。
智媒時代人工智能技術的快速發(fā)展不斷豐富著人們對世界的認知,也強化著人們改造世界的能力。但是,當我們興致盎然地擁抱新技術之時,必須對可能存在的問題保持警覺。顧理平指出ChatGPT可能存在著失當信息傳播、權利爭議和科學精神減弱等倫理問題,其中科學精神減弱是人類進步中的終極隱憂,包括無限重復消費既有文明成果易形成惰性心理、工具依賴導致創(chuàng)新激情減弱,以及信息投喂習慣下理性思維能力下降等問題[9]。而就權利爭議這一角度,叢立先等人以ChatGPT的作品應用場景為例,深入分析了人工智能生成內容的作品認定、版權內容和版權歸屬等問題,認為在清晰界定現(xiàn)階段的人工智能還是人類創(chuàng)作工具的前提下,認可并保護人工智能創(chuàng)作的符合法律要件的作品[10]。尹幫文等人則提出以ChatGPT為代表的人工智能存在著將人推向“異化深淵”的隱憂。他們認為在資本邏輯的操控下,生成式人工智能可能蛻變?yōu)橐环N新興的異己力量,使得社會交往活動形成嚴重的“技術性依賴”,引發(fā)技術性失業(yè)潮,導致日常生活異化,同時指出揚棄智能時代異化現(xiàn)象的可能路徑[11]。此外,ChatGPT還存在著算法歧視(性別、種族歧視)、弱化人類主體性、裹脅受眾價值觀以及沖擊教育與學術倫理規(guī)范等倫理風險[12]。
立足于人工智能應用至人類工作和生活的歷程,比爾·蓋茨堅信,人工智能會讓人類社會受益。數(shù)百年來的人類實踐亦揭示出科學技術是推動人類社會發(fā)展的關鍵力量。蒲清平等詳細說明ChatGPT可能引起的生產(chǎn)方式、科研范式、教育形式和生活方式等方面的變革,同時也存在著滋生法律風險、思想風險、社會風險[13]。與此同時,謝新水重點討論了人工智能所引發(fā)的對話風險、政治風險、信用風險和“存在”風險,認為這是人工智能內容生產(chǎn)的“反社會功能”,而其“社會功能”則體現(xiàn)在提升數(shù)字生產(chǎn)力、增強決策能力、加速社會組織化、擴大社會動員能力等方面[14]。張夏恒認為ChatGPT重塑了人類的生產(chǎn)關系,成為新的生產(chǎn)力,帶來了新的生產(chǎn)工具和內容生產(chǎn)模式,重構了人與人勞動關系,同時,ChatGPT是發(fā)展趨勢,需要進一步探討它是否會引發(fā)科技革命、是否會淘汰人類、是否會作惡等問題[1]。
而在新聞傳播領域,目前也有不少關于ChatGPT的研究。例如,鄭滿寧從新聞生產(chǎn)者、新聞消費者和新聞管理者這三個主體出發(fā),指出了職業(yè)邊界消解導致的行業(yè)主體性和功能指向模糊、生產(chǎn)主體不確定性造成的新聞真實亂局和虛假新聞傳播、新聞著作權模糊歸屬引發(fā)的信息傳播失序等問題,并從宏觀、中觀和微觀三個層面探討AIGC新聞生產(chǎn)帶來的新聞業(yè)新趨勢、新轉向[5]。當然,ChatGPT與傳媒業(yè)的結合也為傳媒業(yè)的發(fā)展帶來了顛覆。周玉蘭等認為ChatGPT是媒體深度融合的突破口、內容優(yōu)化生產(chǎn)的智慧腦、對外交流宣傳的新橋梁。在外宣上,ChatGPT可以成為對外交流翻譯的理想工具,作為傳媒業(yè)跨語言溝通的橋梁[15]。同時,何天平等基于信息檢索、內容生產(chǎn)和情感陪伴三個場景,進一步探討了ChatGPT對跨國傳播交往模式的重塑,并思考了ChatGPT介入國際傳播的風險隱憂[16]。
在現(xiàn)有的研究基礎上,筆者著眼于ChatGPT在新聞業(yè)中的滲入,研究ChatGPT技術賦能下新聞業(yè)版圖的重塑,以及ChatGPT給新聞業(yè)所帶來的風險隱憂,進而展望人工智能時代下人機共生的發(fā)展模式,以期為學界貢獻己力。
在本文中,筆者主要采用了半結構式訪談法。所謂半結構式訪談法,即按照一個粗線條式的訪談提綱進行的訪談方法,有著相對具體的訪談目標和內容,并允許訪談者在訪談過程中根據(jù)實際情況進行靈活調整。該訪談法介于結構式訪談法和無結構式訪談法之間,既無需像結構式訪談法那般擬定完全成型的訪談問卷或提綱,也比無結構式訪談法更具方向性。
為了解網(wǎng)友對ChatGPT的看法和觀點,筆者就新浪微博、小紅書、豆瓣等平臺對關于ChatGPT的討論進行了非參與式觀察,并據(jù)此擬定了采訪提綱,與ChatGPT的用戶進行了半結構式訪談。訪談內容主要圍繞網(wǎng)友對ChatGPT的使用緣由、使用感受和整體評價等方面,以此了解真實的用戶體驗,挖掘ChatGPT在新聞受眾中推廣的潛力以及新聞業(yè)利用ChatGPT維系與新聞受眾良好關系的可能性。
表1 受訪者基本情況
本次訪談在5月1日—5月8日之間開展,筆者總共對20名ChatGPT的用戶進行了半結構式訪談,訪談方式主要為線上訪談,所涉及的訪談對象包括學生和上班族,年齡范圍為20-35歲之間,以下為訪談對象(User)的基本信息:
經(jīng)訪談發(fā)現(xiàn),90%的受訪者對ChatGPT持肯定態(tài)度,認為ChatGPT有利于學習和工作,是“一個幫助性極大的工具”“類似于一本百科全書”,10%的受訪者對ChatGPT持憂慮態(tài)度,認為ChatGPT具有取代自身工作崗位的可能性,或是認為ChatGPT的內容欠缺深度和創(chuàng)造性??傮w上,多數(shù)受訪者表示ChatGPT的面世于己有利,未來仍舊會堅持使用該技術來輔助自身的工作和學習。
縱觀技術和新聞業(yè)的發(fā)展史,人工智能技術不斷融入新聞業(yè)的過程,就是新聞生產(chǎn)流程不斷智能化的過程。以往,傳感器拓展了新聞信息采集的時空維度,寫作機器人加速了新聞生產(chǎn)的效率,算法推薦實現(xiàn)了新聞的精準分發(fā),如今面世的ChatGPT可進一步延展新聞生產(chǎn)鏈條,實現(xiàn)大數(shù)據(jù)、高時效和多語種的齊頭并進。一方面,素來追求“指數(shù)力量”的OpenAI所使用的是公共爬蟲數(shù)據(jù)集,該數(shù)據(jù)集擁有超萬億單詞的人類語言數(shù)據(jù),賦予ChatGPT“百科全書”般的知識能力。由此,基于強大的數(shù)據(jù)庫資源,ChatGPT能為新聞工作者在海量信息中迅速檢索出對應的信息,并且突破傳統(tǒng)寫作機器人模式化、范圍有限的寫作局限,在保持高效率新聞生產(chǎn)之際,還可以生產(chǎn)具備一定思考性的新聞評論。另一方面,ChatGPT可支持英語、中文等多種語言的交互以及多語種文本的互譯,能夠幫助新聞工作者進行跨語言翻譯,減少獲取國外資訊的障礙。同時,在國際新聞生產(chǎn)方面,ChatGPT能以極高效率生成質量較高的多語種新聞文本,面向多國受眾進行跨語種傳播??傮w而言,在ChatGPT的加持下,新聞內容生產(chǎn)的效率將極大地提升,同時憑借ChatGPT的多語種屬性可生產(chǎn)出多語種新聞文本,能有效降低國際傳播的阻力,為新聞生產(chǎn)提質增效。
自GPT1.0開始,OpenAI就將LLM(Large Language Model,大型語言模型)當作通向通用人工智能的必要途徑。而ChatGPT較好地實現(xiàn)了LLM的接口層,讓LLM適配人類習慣的命令表達方式,極大地增強了LLM的易用性和用戶體驗[7]。在新聞傳播領域,ChatGPT的用戶包括新聞生產(chǎn)者(職業(yè)新聞人)和新聞消費者(新聞受眾),兩者均得到了ChatGPT的助力。對于新聞生產(chǎn)者而言,如上文所述ChatGPT應用于新聞生產(chǎn),可使新聞生產(chǎn)者的工作效率和生產(chǎn)效能大幅提升,同時也可以讓新聞生產(chǎn)者從簡單重復性勞動中解放出來,將精力集中于具有一定深度和思辨性的內容創(chuàng)作上,如調查性報道、解釋性報道和社論等等,推動更多高質量新聞精品的產(chǎn)出。而對于新聞消費者來說,ChatGPT可謂“有求必應”,運用其核心功能AIGC(Artificial Intelligence generates content,人工智能生成內容)在幾秒內便可完成指令,生成新聞消費者所需的新聞文本,極大地降低了信息檢索成本。例如,在半結構式訪談中,U02受訪者表示“使用ChatGPT可以在短時間內搜索到我想要的信息,我已經(jīng)把它當作百度來使用了?!贝送?憑借上下文理解功能,ChatGPT可以與新聞消費者進行多輪對話,在動態(tài)問答中為新聞消費者提供新聞資訊和與新聞相關的人物、背景等信息,并與之分享對新聞的觀點、看法,提升新聞消費者的新聞認知,增進價值認同,強化新聞消費者的參與感。例如,U19受訪者表示“通過提問ChatGPT,我快速、全面地了解了史航事件的來龍去脈,并且和ChatGPT‘交流’了看法?!?/p>
未來人機關系的旨歸是人機良性互動,而情感計算恰恰可以強化人機互動,增進人機關系。情感計算這一名詞,最先是由美國麻省理工學院媒體實驗室的羅莎琳德·皮卡德提出,他將之定義為針對人的外在表現(xiàn),能夠進行測量和分析,并能對情感施加影響的計算。相較于傳統(tǒng)新聞業(yè)向受眾提供真實客觀的新聞,可以消除信息的不確定性,ChatGPT能夠通過情感計算技術感知、識別、分析和反饋情感,對受眾進行情感回應。恰如保羅·萊文森所述,媒介進化的趨勢指向越來越符合人類需求和便于人類使用的規(guī)律[17]43。ChatGPT作為新一代人工智能技術的代表,是具有類人情感的智能媒介,能夠更加精準地識別和回應用戶需求,實現(xiàn)特定場景的情感補償。例如,U12受訪者表示“最近工作壓力很大”時,ChatGPT會回應“很抱歉聽到這樣的消息”“記得照顧好自己的身心健康”等溫暖話語,提供人文關懷,并提供具有一定邏輯性、可行性的具體解決方案。因此,ChatGPT可以作為“虛擬伙伴”幫助用戶紓解壓力、緩解孤獨感和提供情感問題咨詢等等,與用戶搭建“準社會交往”[18]的親密伙伴關系。
傳統(tǒng)媒體時代,職業(yè)新聞人掌控著新聞資源,與受眾處于“我寫你看”的傳受分化關系;自媒體時代,隨著各類新興媒體的異軍突起,職業(yè)新聞人與非職業(yè)寫手之間的界限日漸模糊;而在人工智能時代,ChatGPT等聊天機器人進入了新聞生產(chǎn)的行列,極大地沖擊了職業(yè)新聞人的新聞生產(chǎn)主體性。相較于真人記者,ChatGPT背靠巨型數(shù)據(jù)庫,能在短時間內迅速生產(chǎn)出一份頗為規(guī)范的新聞稿,還可用多種風格生產(chǎn)、呈現(xiàn)體育、財經(jīng)等多樣類型的新聞報道。而專攻于體育、財經(jīng)報道等特定領域且寫作風格固化單一的真人記者,極可能面臨“機進人退”的危機。并且,對于使用ChatGPT生成的新聞文本,ChatGPT能否成為作者尚且還具有極大的爭議。從表面上看,ChatGPT是自動生產(chǎn)內容,是“創(chuàng)造性”的,但本質上,ChatGPT是通過預訓練模式進行深度學習,對數(shù)據(jù)庫現(xiàn)有數(shù)據(jù)進行調用,生成全新形式的文本。從這個邏輯上看,ChatGPT的內容是基于他人作品而生成的,應當征得原作者的知情同意,否則極易構成侵權。同時,區(qū)別于搜索引擎使用中原作者和作品的同時呈現(xiàn),以及寫作機器人對他人作品相對純粹的“數(shù)據(jù)式”使用[9],ChatGPT的數(shù)據(jù)原作者可謂無跡可尋,加大了無形侵權的可能性和侵權成本。當ChatGPT應用于新聞生產(chǎn),其生成的新聞文本能否直接發(fā)表?能否直接冠以ChatGPT的署名?在數(shù)據(jù)調用過程中是否會侵犯他人的隱私?諸如此類的問題都有待學界和業(yè)界的進一步研究。
真實性是新聞的生命,是衡量新聞媒體權威性的重要尺度,也是新聞業(yè)得以長期發(fā)展的壓艙石。誠然,ChatGPT能以高速度在短時間內生成高質量的新聞文本,但也能以迅捷之速生成大量虛假信息,侵蝕新聞的真實性。一方面,作為一個機器學習模型,ChatGPT運用算法對數(shù)據(jù)進行深度學習,然而其算法和數(shù)據(jù)具有魯棒性、透明性和可解釋性弱的缺陷,難以保證信息內容的真實性和客觀性[19]。并且,當ChatGPT無法從數(shù)據(jù)庫搜尋到用戶需求信息時,它便可能自動生成虛假內容,通過技術手段繞過內容過濾器傳播給用戶[20]。另一方面,憑借“高智力”,ChatGPT能夠生成看起來富有邏輯性、思辨性的文本內容,“一本正經(jīng)地胡說八道”,使得內容的“虛假性”被形式的“規(guī)范性”所掩蓋,加劇了深度偽造的風險。一旦ChatGPT生成的虛假信息越過監(jiān)管、審核的紅線,充斥于信息空間,則會污染信息環(huán)境、干擾輿論生態(tài),甚至會引發(fā)一些社會問題。此憂慮不是空穴來風、危言聳聽,在2022年2月,恰是因為聊天機器人在關于新冠疫苗有效性和安全性的不實信息傳播中推波助瀾,加拿大卡車車隊和抗議者組成“自由車隊”,在首都渥太華進行了長達三周的抗議示威活動。在新聞傳播領域,面對ChatGPT生成信息真實性的不確定,新聞內容品質難以把控。并且,如若由專業(yè)新聞媒體背書的ChatGPT生成的虛假信息傳至新聞受眾,新聞受眾再不加思索地輕易接收,不僅可能會誘發(fā)社會問題,干擾社會穩(wěn)定,還可能會削減公眾對新聞媒體的信任,使得新聞媒體在多年新聞實踐中積攢的公信力毀于一旦。
法國哲學家、思想家米歇爾·??略岢鲆粋€著名的哲學命題:話語即權力。這一命題將話語視作“紙上蒼生”,對社會實踐主體有著強大的支配性力量。實際上,新聞報道不只是對事實性信息的傳播,還暗含著觀念話語的生產(chǎn)。著眼于國際傳播的視角,知識和觀念話語生產(chǎn)則呈現(xiàn)為議題敘事、國家敘事或者國際體系敘事的建構過程[21]。包括ChatGPT在內的人工智能技術本身不具有認知與判斷的能力,其文本內容與價值觀念均源于歷史訓練數(shù)據(jù)。有學者發(fā)現(xiàn),這些歷史訓練數(shù)據(jù)存在著種族歧視、性別歧視等失當信息,背后實則為算法歧視[22]。與此同時,OpenAI所選擇的數(shù)據(jù)集以美國域名的網(wǎng)站占據(jù)主導地位,且以西方用戶為主體。由此,標榜“客觀中立”的ChatGPT實則服務于西方利益,其所生成的內容必然受到西方價值觀念的影響。在與用戶進行一對一“交流”的過程中,ChatGPT極可能用看似客觀的話語來掩蓋背后的意識形態(tài),潛移默化地將西方觀念傳輸給用戶,影響用戶認知與價值立場。我國主流新聞媒體作為黨和國家的傳聲筒,肩擔傳播中國觀點和彰顯中國立場的重任,但在ChatGPT等暗含技術所有國意識形態(tài)的人工智能技術沖擊下,面臨著傳播陣地失守與“西方中心主義”話語霸權等風險,需要嚴加防范ChatGPT成為輸送西方價值觀念乃至控制我國人民思想的意識形態(tài)工具。
美國媒介理論家保羅·萊文森曾提出“媒介補償性理論”,認為每一種后繼的媒介都是對過去的某一種媒介或某一種先天不足的功能的補救和補償。人們通過不斷創(chuàng)造新媒介來拓展傳播,以超越耳聞目睹的身體閾值,滿足幻想中的渴求。ChatGPT正是人工智能實現(xiàn)技術迭代飛躍的一大產(chǎn)物,在加速新聞生產(chǎn)、提高內容質量和對新聞受眾進行情感補償?shù)确矫娲笥旭砸?推動新聞業(yè)智能化轉型。然而,當技術一路高歌猛進,我們在驚艷于技術之妙時,也應理性認識到技術是一柄利弊交織的雙刃劍。ChatGPT同樣可能在使人類記者面臨職業(yè)危機、引發(fā)版權糾紛、傳播虛假、偏見性信息和控制意識形態(tài)等方面暗藏風險,需要政府、科技企業(yè)、新聞媒體以及公眾等多元主體合力把關,協(xié)同治理。
總體而言,ChatGPT應用于新聞業(yè),將進一步重塑業(yè)態(tài)版圖和傳播格局,推動新聞業(yè)邁進一個新的發(fā)展階段,開啟新聞傳播全面智能化的進程。未來,隨著AI在新聞業(yè)深度落地,AICG新聞有望成為新主流,大量簡單、重復性信息生產(chǎn)和傳播的工作將由智能機器接班,人工智能時代的內容生產(chǎn)將是OGC、PGC、UGC、MGC和AIGC等多元內容生產(chǎn)者共存的時代。面對迅猛發(fā)展的技術,一方面用技術之長彌補人類不足,另一方面也用人類的智慧糾正技術的偏狹,用科技倫理規(guī)則引導技術向善。而新聞業(yè)也應當始終保持專業(yè)性,以昂首之姿積極迎接技術的挑戰(zhàn),謀求人機協(xié)同并進之策。我們也期待人工智能技術能描繪出一幅新的充滿生命力的傳播圖景,為實現(xiàn)人的全面發(fā)展添磚加瓦。