摘 要ChatGPT的推出代表著人工智能生成技術的重大突破,從單模態(tài)到多模態(tài)的大模型迭代,其使用范圍被極大拓展。作為生成式預訓練機器人,其激發(fā)的生態(tài)性變革將深刻影響傳媒行業(yè),重塑智能傳播理念與應用,并引發(fā)各類風險與挑戰(zhàn)。在傳播主體上,生成式預訓練機器人將引發(fā)技術可否成為侵權法律主體的爭議;在傳播內(nèi)容上,生成式預訓練機器人存在生成偏見與不公內(nèi)容的風險;在傳播受眾上,生成式預訓練機器人存在泄露用戶隱私的風險;在傳播效果上,生成式預訓練機器人將加劇數(shù)字和知識雙重鴻溝;在傳播優(yōu)勢上,生成式預訓練機器人的國內(nèi)外研發(fā)水平存在較大差異。需追隨技術發(fā)展應用,通過倫理和法律責任主體的明晰,對偏見和誤導信息生成的整治,隱私保護和安全防護的提升,普惠信息能力與素養(yǎng)的建設以及資本與技術研發(fā)資源的集中,形成多元有效的應對策略。
關鍵詞ChatGPT 智能傳播 風險挑戰(zhàn)
作者簡介:何靜,工學博士,北京航空航天大學文化傳播系助理教授。
基金項目:國家社會科學基金項目“統(tǒng)籌文化發(fā)展和安全的理論建構、風險評估及防范機制研究”(22VRC059)
一、引 言
2023年3月15日GPT-4發(fā)布僅半月之后,上千位科技專家即聯(lián)合發(fā)出公開信,呼吁所有AI實驗室立即暫停訓練比GPT-4更強大的AI系統(tǒng)。公開信中提到的AI模型為ChatGPT,由美國人工智能研究實驗室OpenAI研發(fā),采用生成式預訓練的轉(zhuǎn)換器和人類反饋的強化學習技術,具備學習和理解人類語言、根據(jù)對上下文的理解和記憶與人展開多輪次對話的能力。ChatGPT的推出意味著人工智能生成技術(Artificial Inteligence Generated Content,簡稱AIGC)的重大突破,雖然其仍然會輸出存在事實性錯誤的信息,“看似一本正經(jīng)地胡說八道”,但其可靠性較以往的大語言模型已獲得了大幅提升。而最新迭代的GPT-4版本更是從以往在自然語言處理或計算機視覺等方面獨立推進的單模態(tài)模型,拓展至融合圖片、文本等形式的多模態(tài)模型,后者更符合人類知識學習的習慣,也將增大AI智能涌現(xiàn)的可能性,必將引起基于傳統(tǒng)人類中心主義的智能傳播理念與過程的變革。在實際應用中,ChatGPT作為生成式預訓練的聊天機器人,一方面,符合OpenAI開放要求的用戶通過簡單注冊即可直接使用,這極大地減少了它的使用障礙,并促使其順利實現(xiàn)更大范圍的創(chuàng)新擴散;另一方面,該生成式預訓練機器人雖然存在預訓練語料滯后的弊端,但OpenAI為其添加的插件將使它獲得網(wǎng)絡接入能力,從而可以瀏覽實時更新的網(wǎng)頁并與之互動,使用功能與應用場景被大大擴展。伴隨其在傳媒行業(yè)的應用,關注其可能對智能傳播產(chǎn)生的風險與挑戰(zhàn),形成應對策略顯得尤為迫切。
基于此,本文將首先從ChatGPT引發(fā)的智能傳播變革出發(fā),闡述其對人類主義傳播理念和現(xiàn)有智能傳播應用的影響;其次,將從歸責爭議、偏見不公、隱私泄漏、雙重鴻溝和中外差距五個方面關注ChatGPT引發(fā)的智能傳播挑戰(zhàn);最后,立足技術發(fā)展變動,納入底層技術治理,從倫理和法律責任主體的明晰,對偏見和誤導信息生成的整治,隱私保護和安全防護的提升,普惠信息能力與素養(yǎng)的建設以及資本與技術研發(fā)資源集中五個方面探討有效應對上述風險的策略和路徑。
二、智能傳播變革:人技同構下的多元應用
伴隨應用場景的快速拓展,ChatGPT或?qū)⒁l(fā)整個人類世界的變革,新聞傳播行業(yè)亦不例外。事實上,無論是20世紀的香農(nóng)-韋弗提出的傳播過程的數(shù)學模式,還是近年來機器新聞寫作與算法分發(fā)的應用,處于十字路口的新聞傳播學一直繞不開和機器的糾葛。技術的進步在促使傳播媒介由口語轉(zhuǎn)向紙質(zhì)媒介,又從報紙衍生到廣播、電視、互聯(lián)網(wǎng)的同時,也引發(fā)傳播外在環(huán)境的深刻變化。同樣,在智能傳播時代,ChatGPT的推出也必然對智能傳播的內(nèi)在傳播過程和外在傳播環(huán)境產(chǎn)生影響。
第一,以人類為中心的智能傳播理念將被重塑。不同于以往智能傳播過程中,機器或技術更多地是作為中介連接起人類傳播者和受眾。未來,更接近通用人工智能的ChatGPT將直接成為人的傳播對象,被納入更廣泛且更深入的傳播過程,使得人類傳播與人機傳播廣泛交融,即在不同階段,生成式預訓練機器人將和人類一樣都可成為傳播過程的主動傳播者或者被動接受者,也都可作為不同傳播過程中的傳播媒介,實現(xiàn)自身作為數(shù)字勞動“主體”在語言邏輯、人機交互和價值生成上的超越性。曹克亮:《人工智能的神話:ChatGPT與超越的數(shù)字勞動“主體”之辨》,《長白學刊》,2023年第4期。在這一生成式預訓練機器人主體性增強的背景下,單方面呼喚傳統(tǒng)人文主義的回歸既可能徒勞無功,也無益于人工智能技術日益強大下的傳播發(fā)展。當下需要考量技術與人的同構性,即技術作為人存在的重要維度,共有和分享了人的主體性,成為內(nèi)在于人的主體性之中的存在方式蔣曉麗、鐘棣冰:《“數(shù)據(jù)主義”濫觴下的新技術人文:智能時代算法傳播的價值轉(zhuǎn)型》,《四川大學學報(哲學社會科學版)》,2023年第2期。,形成與時俱進的人類和技術關系理念,尋求對二者主客體二元對立的突破,探索“人-技”共生的新人文主義。
第二,業(yè)界將迎來更為多元化的智能傳播應用。例如,在新聞內(nèi)容模態(tài)上,ChatGPT可突破模態(tài)限制,以文本、圖片、視頻等多模態(tài)形式輔助內(nèi)容生成與加工,大幅提高新聞內(nèi)容的多樣性;在新聞報道領域中,除去在體育新聞和財經(jīng)新聞上已被熟練運用的智能化報道,ChatGPT可在社會、政治等更多領域進行智能化內(nèi)容生產(chǎn),使人工智能技術惠及更多領域傳媒工作者;在新聞報道體裁上,除去常見的消息報道,ChatGPT可利用較為智能的數(shù)據(jù)分析能力以及文本生成、整合與潤色能力,覆蓋更具復雜性的新聞體裁,大幅提高傳媒生產(chǎn)效率;在輿情分析監(jiān)控上,ChatGPT可能突破傳統(tǒng)意義上形式單一的模板化輿情分析,并根據(jù)輿情治理主體的需求,在輿情事件發(fā)生后快速生成更具個性且更詳細的輿情分析報告,提高輿情治理主體的應急管理能力;在媒體用戶運營上,ChatGPT不僅能以更加擬人化的交流提升用戶體驗感,更能以智能化的對答合理表述觀點,在撫慰用戶情緒的同時,回應用戶需求,增加用戶黏性,提升媒體運營效率。
三、ChatGPT賦能下的智能傳播風險與挑戰(zhàn)
盡管現(xiàn)階段ChatGPT難以撼動整個新聞傳播行業(yè)的生存發(fā)展,但仍會引發(fā)更大范圍與更深層次的風險與挑戰(zhàn)。一方面,大模型在通用領域展示出較強的競爭力,但其仍未突破智能涌現(xiàn)“奇點”,距離強人工智能仍有不小差距;另一方面,新聞報道的真實性強調(diào)記者需深入現(xiàn)場進行采訪調(diào)查,從信源獲取的信息才是公認的一手信息,所以從目前來看,傳媒從業(yè)者仍難以被完全替代。此時,面向以ChatGPT為代表的生成式預訓練機器人對內(nèi)在新聞生產(chǎn)流程以及外在傳播環(huán)境的影響,關注其引發(fā)的生態(tài)性變革,針對性地分析其在傳播過程中引發(fā)的風險與挑戰(zhàn),將成為傳媒行業(yè)跟隨技術發(fā)展、尋找變革機遇的必然要求。
(一)傳播主體的歸責爭議
以ChatGPT為代表的生成式預訓練機器人將沖擊傳統(tǒng)的媒介進化邏輯,進一步凸顯技術主體性,在技術進步對歸責基礎的影響加大時,對技術能否成為法律意義上的侵權傳播主體的爭議也會加劇。1979年保羅·萊文森在其博士論文《人類歷程回放》中對媒介史進行了宏觀考察,印證了媒介進化過程中的人性化傾向。汪潤、靖鳴:《媒介演進:截屏和截屏圖片的人性化趨勢與功能補償——以保羅·萊文森媒介進化理論為視角》,《西南民族大學學報(人文社會科學版)》,2022年第7期。他的論述表明,媒介按照人性的回歸邏輯展開各階段的進化,并在這個過程中對前一階段的感官失衡進行補償,整體上體現(xiàn)了人在技術發(fā)展中的主導地位。然而,技術突破促使人工智能技術的主體性凸顯,也對這一樂觀判斷產(chǎn)生了質(zhì)疑。在法律相關的探討中,有學者認為未來的強人工智能將對歸責基礎——自由意志發(fā)起終極挑戰(zhàn),強人工智能體將被認為具有和人一樣的自由意志,能夠成為法律主體,從而承擔完全的法律責任。朱振:《歸責何以可能:人工智能時代的自由意志與法律責任》,《比較法研究》,2022年第1期。雖然強人工智能的到來還是未知,但對其歸責進行探討卻顯得愈加緊迫。然而,相較于歐盟、美國和英國較早地展開了人工智能侵權領域的立法嘗試,國內(nèi)現(xiàn)有法律對人工智能生成作品的權利與責任歸屬主體仍未做出明確認定。在中國首例人工智能生成內(nèi)容的著作權歸屬案件中,法院依據(jù)現(xiàn)行立法保守地認為,涉案文章中的圖形由人工智能軟件自動生成,不符合圖形作品的獨創(chuàng)性要求,原告對其享有著作權的主張不能成立,這一判決隨即引起了學界和業(yè)界的分歧。林嘉琳:《中國首例人工智能生成內(nèi)容著作權爭議與前瞻分析》,《新聞愛好者》,2019年第12期。而ChatGPT的到來將催生更多的類似案件,人工智能是否能成為侵權的法律主體的爭議,也會隨著智能化水平的提升不斷加劇。
(二)傳播內(nèi)容的偏見和不公
以ChatGPT為代表的生成式預訓練機器人囿于研發(fā)主體和語料的限制,以及模型的黑箱特性,將產(chǎn)生在意識形態(tài)、民族文化等方面具有偏見與不公的傳播內(nèi)容,基于“超真實”狀態(tài)加劇擬態(tài)社會與現(xiàn)實的偏離。作為美國本土公司所研發(fā)的一項人工智能技術,ChatGPT不可避免地蘊含著算法開發(fā)者、數(shù)據(jù)寫入者的價值觀念和意識形態(tài)。囿于模型的黑箱特性,ChatGPT生成內(nèi)容難以像人類新聞報道一樣進行事實核查,這意味著無論在意識形態(tài)、民族文化上,還是在表達語種上,該大模型的數(shù)據(jù)來源都可能存在偏見與不公,并將直接影響到使用者對客觀現(xiàn)實的認知。鮑德里亞關于后現(xiàn)代資本主義的擔憂指出,人類社會的經(jīng)濟生產(chǎn)和意識形態(tài)逐漸融為一體,在媒介助推下將產(chǎn)生一種“超真實”。這種超真實將使客觀世界中的現(xiàn)實事物被擬像吞噬,進入毫無對照、自我指涉的符號世界,從而呈現(xiàn)“比真實還真實”的狀態(tài),最終形成一種在精神裂變與貧瘠下被數(shù)字模型操縱與被符號統(tǒng)治的真實崔健、李真真:《鮑德里亞“超真實”理論的審思與批判》,《北京行政學院學報》,2022年第12期。。這似乎將成為ChatGPT主導傳播內(nèi)容后的悲劇,通過海量語料習得類人化自然語言文本生成能力的聊天機器人,可能在媒介等同作用下,生成讓人類感到比真實還“真實”的含有偏見與不公的內(nèi)容,并進一步促使原本就被各強勢力量左右議程設置的擬態(tài)社會更加偏離客觀現(xiàn)實。
(三)傳播受眾的隱私泄露
以ChatGPT為代表的生成式預訓練機器人內(nèi)容理解與生成能力的提升,將擴大其被信任度與使用范圍,來自所屬公司的主動售賣與來自惡意用戶的攻擊利用都存在可能,容易造成大規(guī)模的傳播受眾隱私泄露。ChatGPT的發(fā)布大規(guī)模地擴展了人機傳播的覆蓋范圍,廣泛的人機交互也為該模型的迭代產(chǎn)生了有利條件。由于多輪次對話與上下文理解能力的提升,ChatGPT常常被使用者信任地視為問題解答者,人類在這一過程中亦會充當被傳播者,自覺地通過主動提供交流對話所需的材料尋求幫助,這可能導致用戶過分關注與其對話產(chǎn)生的成果與收益,從而在與該聊天機器人的對話交流中泄露個人隱私信息。在GPT-4發(fā)布半個月后,伴隨各種擔憂出現(xiàn)的還有實際的限制措施。2023年3月31日,意大利數(shù)據(jù)監(jiān)管機構宣布將禁止使用ChatGPT,并指責ChatGPT及其母公司開放人工智能研究中心(OpenAI)違反了《歐洲通用數(shù)據(jù)保護條例》中的規(guī)定,未能遵守用戶數(shù)據(jù)保護法規(guī)?!兑獯罄冀肅hatGPT》,http://kuaixun.cankaoxiaoxi.com/#/index。在這項限制措施發(fā)起前,OpenAI官方也發(fā)布了由用戶數(shù)據(jù)泄露問題引起的臨時中斷服務報告。文章表示,“我們在本周一關閉 ChatGPT 幾個小時前,部分用戶可能會看到另一位活躍成員的姓名、電子郵件地址、支付地址、信用卡的后四位和信用卡到期時間”《ChatGPT服務中斷,還泄露對話記錄?OpenAI披露詳細故障信息》,http://weibolcom/1875034341/Mgu8x3xtf。。此外,因?qū)hatGPT的誤用和濫用,三星電子企業(yè)機密信息遭遇被泄漏的風險?,F(xiàn)實的例證已然說明ChatGPT在信息安全上的風險,而其在數(shù)據(jù)獲取的合法性、用戶使用邊界界定上仍無法被確認。與此同時,一方面在資本逐利的浪潮中,OpenAI的商業(yè)屬性難以保證其是否將用戶隱私信息的安全性置于優(yōu)先位置,另一方面,該模型自身也存在被惡意利用的可能,導致更大的隱私泄漏危害。
(四)傳播效果的雙重鴻溝
以ChatGPT為代表的生成式預訓練機器人對不同開放程度的國家,以及對不同水平的勞動者的職業(yè)沖擊上,均存在接入與使用上的差異,使得傳播效果產(chǎn)生數(shù)字鴻溝和知識鴻溝“雙重鴻溝”,加劇勞動者的異化。經(jīng)典的數(shù)字鴻溝理論可以指向生成式預訓練機器人相關技術的開發(fā)應用在不同人群間存在以接入、使用等為代表的差異,而知溝假說則可以論證在加載了生成式預訓練機器人的大眾傳媒的作用下,不同人群間社會經(jīng)濟狀況的差異或?qū)⑦M一步導致其知識水平的差異,伴隨這種差異的逐漸加大,可能進一步影響人們的生存發(fā)展。無疑,ChatGPT及其衍生應用將加劇數(shù)字鴻溝和知識鴻溝,在新一輪的技術生態(tài)變革中拉開不同人群之間的差距。一方面,由于ChatGPT并未對中國境內(nèi)用戶開放,普通用戶通過正常的網(wǎng)絡訪問無法直接使用該聊天機器人,也就部分喪失了接入生成式預訓練機器人的機會,然而具有較高知識水平或經(jīng)濟狀況較好的人群,則可以通過其他渠道實現(xiàn)對該聊天機器人的順利訪問,并能在日常生產(chǎn)生活中直接使用,大幅提高自身作業(yè)效率,這種境域的客觀限制將直接導致雙重鴻溝的加?。涣硪环矫?,由于ChatGPT展示了在重復腦力勞動方面強有力的競爭性,這將對重復腦力勞動者的職業(yè)產(chǎn)生沖擊,導致大范圍的重復腦力勞動者失業(yè),從而剝奪其進一步提升信息技術使用能力與信息素養(yǎng)的機會,難以實現(xiàn)社會價值。體力勞動者雖然暫時不會喪失工作機會,但重復腦力勞動者被以ChatGPT為代表的人工智能技術替代后,可以攫取更大利益的資本家將憑借對相關技術的占有獲得更大的權力,而被資本家雇傭的體力勞動者或?qū)⒈桓艚^在新一輪技術革命之外,淪為強資本和人工智能技術的附庸,被進一步異化。
(五)傳播優(yōu)勢的中外差距
以ChatGPT為代表的生成式預訓練機器人在國內(nèi)外現(xiàn)階段的研發(fā)水平上存在客觀差距,在未來的迭代中面臨預訓練數(shù)據(jù)語料難以共享,高質(zhì)量語料缺失的障礙,使得中國在該技術引發(fā)的新一輪變革中的傳播優(yōu)勢被削弱。不可忽視的是,國內(nèi)外的大模型研發(fā)水平仍存在巨大差異。百度在GPT-4發(fā)布的第二天即宣布開放中文版ChatGPT“文心一言”的邀請測試,作為對標ChatGPT的產(chǎn)品,“文心一言”雖然展示出了其在中文語境理解能力上的優(yōu)勢,但在上下文記憶與聯(lián)系,內(nèi)容糾錯與生成速度等多方面仍明顯落后于GPT-4。百度創(chuàng)始人、董事長兼首席執(zhí)行官李彥宏在發(fā)布會上表示“也不能說我們完全Ready了,‘文心一言對標ChatGPT、甚至是GPT-4,(這樣的)門檻是很高的”可楊:《文心一言云服務下周一上線 百度為何要搶首發(fā)?》,《每日經(jīng)濟新聞》,2023年3月21日。,承認了“文心一言”與ChatGPT之間的差距。而未來的突破更值得擔憂,??玛P于話語的研究指出,作為權力規(guī)定下的知識話語最終“穿透和控制”了我們的日常生活,規(guī)定了我們的欲望、道德和行為。李鈞鵬、茹文?。骸吨卫硎侄巍?聶嗔τ^的另一維》,《華東理工大學學報(社會科學版)》,2022年第2期。然而,大模型訓練語料無法共享迫在眉睫,做“中國版ChatGPT”所需要的高質(zhì)量中文語料大多被儲存在各家企業(yè)或機構的“后花園”里無法共享。 王林:《微軟中國CTO:“中國版ChatGPT”需要的高質(zhì)量中文語料難共享》,《中國青年報》,2023年3月25日。此外,近年來中文互聯(lián)網(wǎng)在內(nèi)容生態(tài)上的凋零,也加劇了高質(zhì)量中文語料的缺失。這種現(xiàn)實造成的數(shù)字鴻溝將直接阻礙由高質(zhì)量中文語料喂養(yǎng)的大模型的研發(fā)迭代,進而預示著??滤龅臋嗔σ?guī)定下的話語的消亡:在 ChatGPT 引發(fā)的新一輪生態(tài)變革中,中華文明可能存在被其他文明所支配的風險,即失去傳播的主動優(yōu)勢,甚至在其他語言的表征邏輯中被遮蔽,失去自身文明的話語權。
四、追隨變動的多元應對策略
ChatGPT的發(fā)布顯然推進了人工智能的發(fā)展,在技術奇點還未到來時,過早地對相關技術發(fā)展作出強硬的限制或?qū)⒁种萍夹g創(chuàng)新,并削弱技術創(chuàng)造出更大的生態(tài)價值。但面臨其帶來的上述風險與挑戰(zhàn),傳媒行業(yè)仍需將以ChatGPT為代表的生成式預訓練機器人的底層技術治理納入應對策略,同步展開學理上的廣泛討論,以及實踐上的適度管控。國家互聯(lián)網(wǎng)信息辦公室也及時起草了《生成式人工智能服務管理辦法(征求意見稿)》,對以上問題明確了相關法律權益,提出了監(jiān)管規(guī)范要求。
(一)倫理和法律責任主體明晰
對于上述傳播歸責主體的爭議,可以借鑒我國急用先行的立法經(jīng)驗,優(yōu)先展開生成式預訓練大模型生成內(nèi)容責任主體劃分的探索,并嘗試與其他領域協(xié)同推動人工智能生成內(nèi)容的基礎性立法。首先,可參考既往人工智能倫理與法律的探討。例如,有學者就以針對現(xiàn)行法律中人工智能新聞傳播侵權相關的救濟規(guī)則,將經(jīng)典的“卡-梅框架”理論作為分析工具,分析現(xiàn)行救濟規(guī)則的正當性與不足。馮灼蘭:《人工智能新聞傳播侵權法律救濟規(guī)則的選擇——以“卡-梅框架”為分析視角》,《科技與法律(中英文)》,2022年第1期。其次,應借鑒醫(yī)學診療與自動駕駛領域已展開的人工智能生成內(nèi)容責任主體認定的實踐經(jīng)驗,挖掘適合當下社會發(fā)展預警的智能傳播價值與倫理標準,賦予醫(yī)務人員以自由裁量權,同時配置適當?shù)脑倥袛嗔x務,確保機器判斷的益處被安全采納。鄭志峰:《診療人工智能的醫(yī)療損害責任》,《中國法學》,2023年第1期。最后,傳媒從業(yè)者可結合技術進展,積極建言獻策,促進智能傳播相關立法對現(xiàn)有法律法規(guī)的協(xié)調(diào),鼓勵傳媒管理者針對行業(yè)使用的大模型預訓練語料、模型使用算法、模型消耗算力進行整體性規(guī)劃。
(二)偏見和誤導信息生成整治
對存在上述偏見和不公的傳播內(nèi)容,可以在專屬大模型預訓練中對數(shù)據(jù)來源、數(shù)據(jù)質(zhì)量進行把關,重視先進技術對大模型的監(jiān)督管理,提高人機傳播所需的新素養(yǎng)。首先,關注預訓練大模型的技術邏輯與新聞專業(yè)主義的沖突,盡可能豐富大模型預訓練語料來源,增加多樣性和公平性數(shù)據(jù),著力構建中文語料數(shù)據(jù)庫,通過信息篩選和質(zhì)量控制,以及用于傳媒領域的高質(zhì)量標記數(shù)據(jù)的擴展,提高大模型內(nèi)容生成在中文表達上的合理性。其次,基于倫理原則在模型設計中的應用,結合大模型技術架構,探索提高模型可解釋性的技術和方法,以優(yōu)化人機對話生成策略,減少偏見和誤導信息生成,并加載毒性內(nèi)容傳播預警技術,規(guī)范人工智能生成內(nèi)容的管理和分發(fā)。最后,一方面要培養(yǎng)人們與人工智能交互的思維能力,使其在與機器交互的過程中共同提升,通過對人機傳播過程中對話內(nèi)容的審慎性反思,提高自身的數(shù)據(jù)素養(yǎng)與人工智能素養(yǎng);另一方面要加強人機傳播倫理教育,警惕人類在使用過程中的惡意誘導、利用行為,引導技術向善。
(三)隱私保護和安全防護提升
對于上述傳播受眾隱私的泄露,應在客觀技術監(jiān)管與主觀使用素養(yǎng)上同時發(fā)力,重點關注惡意用戶的行為預警與技術的規(guī)范化使用,積極尋求多領域的監(jiān)管合作。首先,加強隱私保護和安全防護技術的應用,加強對大模型預訓練語料的數(shù)據(jù)監(jiān)管,推動研發(fā)人員在數(shù)據(jù)使用時進行隱私信息脫敏,并嘗試差分隱私技術的應用,與此同時,傳媒從業(yè)者在模型使用中要加強自身媒介素養(yǎng),通過提升對技術的理解與把握,在人機對話中提高對隱私信息的敏感性,恪守新聞的公共性。其次,對潛在惡意用戶進行危險行為預測和干預,限制以ChatGPT為代表的生成式預訓練機器人的訪問權限與范圍,減少惡意用戶攻擊損失,并規(guī)范以ChatGPT為代表的生成式預訓練機器人的使用場景與使用方法,降低使用依賴和隱私信息泄露的可能性。最后,在以ChatGPT為代表的生成式預訓練機器人開源無望的當下,應對人工智能生成內(nèi)容中的隱私泄露問題建立多領域的協(xié)作,傳媒業(yè)可探索跨界合作下的監(jiān)管措施,面向傳統(tǒng)人工智能公平性治理應對措施的不足,結合各領域的應用需求對大模型的關鍵性要素進行整體評估,提高大模型的透明度與魯棒性。
(四)普惠信息能力與素養(yǎng)建設
對于上述傳播效果的雙重鴻溝,可以在覆蓋各類人群的普惠性信息能力與素養(yǎng)上進行積極建設,關注以中文語料為基礎的大模型學習與使用,嘗試大模型與多種第三方插件的協(xié)同創(chuàng)新,并對在以ChatGPT為代表的生成式預訓練機器人引發(fā)的變革中處于弱勢地位的人群進行一定的資源傾斜。首先,各類群體都應積極關注以百度和阿里為代表的企業(yè)正在加速研發(fā)國內(nèi)大模型,雖然無法通過正常渠道直接訪問OpenAI發(fā)布的ChatGPT,但迭代中的中文大模型仍值得廣泛學習使用。其次,積極開展適用于中文大模型的第三方插件集成的人工智能技術與人類的優(yōu)勢互補,再結合中文大模型在中文信息理解上的競爭力與國內(nèi)現(xiàn)有互聯(lián)網(wǎng)技術研發(fā)與應用在電商、短視頻等方面的優(yōu)勢,大模型與產(chǎn)品在結合時應探索更普惠的新型商業(yè)模式,使技術變革惠及弱勢群體。最后,利用現(xiàn)有的公益組織與社區(qū)資源進行側重性幫扶,重點關注信息能力與素養(yǎng)較差的重復腦力勞動者與體力勞動者,提高弱勢群體在生成式預訓練大模型上的理解與使用能力。
(五)資本與技術研發(fā)資源集中
對于上述中外傳播優(yōu)勢的差異,可以結合我國的制度優(yōu)勢,以資源的集中促進中國版ChatGPT的研發(fā)迭代,積極推進數(shù)據(jù)開放與共享,結合生產(chǎn)力發(fā)展需求,實現(xiàn)大模型的多元應用。首先,結合中國集中力量辦大事的制度優(yōu)勢,探索符合國情的預訓練大模型研發(fā)路徑,在牢固樹立人民主體地位的前提下,有效發(fā)揮社會主義市場機制,促進技術和資本在大模型研發(fā)上的資源集中,使傳媒業(yè)在以ChatGPT為代表的生成式預訓練機器人引發(fā)生態(tài)變革后產(chǎn)生的新賽道上形成競爭優(yōu)勢。其次,積極促進傳媒行業(yè)內(nèi)容生態(tài)建設,激勵細分領域?qū)I(yè)優(yōu)質(zhì)內(nèi)容輸出,推進高質(zhì)量中文語料的積累,在此基礎上協(xié)調(diào)國內(nèi)人工智能技術研發(fā)企業(yè)之間的合作,打破各自為政的數(shù)據(jù)壁壘,促進技術優(yōu)勢企業(yè)實現(xiàn)開放共享。最后,結合以ChatGPT為代表的生成式預訓練機器人引發(fā)的生態(tài)變革落實大模型的多元應用,警惕技術孤島,使這一創(chuàng)新成果實現(xiàn)促進傳播效能提升的多元應用,以人工智能加持下的傳播新技術反哺實體經(jīng)濟,促進更大范圍的生產(chǎn)方式變革,釋放生產(chǎn)活力。
綜上,以ChatGPT為代表的生成式預訓練機器人引發(fā)的智能傳播變革會在傳播主體、傳播內(nèi)容、傳播受眾、傳播效果和傳播優(yōu)勢等多個方面誘發(fā)多重風險,這需要針對技術發(fā)展特性提出全局性、長遠性、有側重、可執(zhí)行、創(chuàng)新性的應對策略,并保持對技術發(fā)展的客觀認知,堅定人類在現(xiàn)階段智能傳播中的核心優(yōu)勢。以ChatGPT為代表的生成式預訓練機器人雖然可以在短時間內(nèi)大量學習人類幾千年來積淀的知識,但無論其學習范圍多廣,仍無法逃脫二手知識學習的桎梏。而人類從事傳媒行業(yè)時,無論內(nèi)容生產(chǎn)還是用戶運營,其工作邏輯仍可受益于既往親身實踐得來的經(jīng)驗。多模態(tài)大模型可以覆蓋多種表達類型,疊加上傳感器后也可以獲取多種感覺通道,但從心靈到身體的復雜構造與聯(lián)結,仍使得人類顯現(xiàn)出無可比擬的奇妙與優(yōu)越。世界是變動不居的,機器或可在更多流程上替代傳媒從業(yè)者的工作,但傳媒從業(yè)者仍可在與機器的交互中尋覓人類傳播的獨特優(yōu)勢。
(北京航空航天大學文化傳播系已錄取碩士研究生馮元柳對本文亦有貢獻,特此致謝?。?/p>
〔責任編輯:李海中〕