郭全中 張金熠
【摘要】2022年,AI繪畫工具M(jìn)idJourney、Stable Diffusion、DALL-E2等與生成式對(duì)話模型ChatGPT成功引爆AIGC,千萬級(jí)用戶的參與使AI模型快速迭代,同時(shí)也加速了潛在問題的出現(xiàn)。從發(fā)展進(jìn)程來看,AIGC正處于高速發(fā)展期,其演進(jìn)路徑可以劃分為輔助階段、協(xié)助階段與自主階段。從產(chǎn)業(yè)應(yīng)用來看,AIGC在傳媒、影視、游戲、電商、音樂等場(chǎng)景的應(yīng)用已較為成熟。從發(fā)展趨勢(shì)看,AIGC將成為元宇宙時(shí)代的內(nèi)容生產(chǎn)基礎(chǔ)設(shè)施,“AI+人文”則是AIGC的主要發(fā)展趨勢(shì),而AIGC的發(fā)展關(guān)鍵點(diǎn)在于技術(shù)要素與商業(yè)要素的共同進(jìn)步。
【關(guān)鍵詞】AIGC;生成式AI;元宇宙;“AI+人文”
一、引語
2022年,文本與圖像交互內(nèi)容生成平臺(tái)DALL-E2、新一代對(duì)話式NLP模型ChatGPT等生成式AI面向廣大網(wǎng)絡(luò)用戶開放并獲得強(qiáng)烈反響,使得生成式AI成為當(dāng)前人工智能領(lǐng)域的熱點(diǎn)話題,2022年也被稱為“生成式AI元年”。其中細(xì)分領(lǐng)域AIGC在技術(shù)升級(jí)過程中也迎來了新的突破。在不到兩個(gè)月時(shí)間內(nèi),ChatGPT日活躍用戶已突破千萬,由此產(chǎn)生的內(nèi)容數(shù)量則更為龐大。此次AIGC的技術(shù)突破不僅有賴于生成式AI的初步成熟,還得益于廣大網(wǎng)絡(luò)用戶的參與和反饋,可以說,“AI+人文”是AIGC的關(guān)鍵驅(qū)動(dòng)力。因此,在這場(chǎng)“全民狂歡”中,既需要向前看,把握AIGC的應(yīng)用場(chǎng)景、發(fā)展趨勢(shì)與關(guān)鍵點(diǎn),又要向后看,梳理AIGC的演進(jìn)路徑,厘清AI技術(shù)與內(nèi)容生成的關(guān)系變遷,從而把握AIGC的來龍去脈,更好地思考AIGC在未來的位置與作用。
二、AIGC的發(fā)展演進(jìn)
(一)何為AIGC?
AIGC全稱為AI Generated Content(人工智能生成內(nèi)容),指基于生成對(duì)抗網(wǎng)絡(luò)GAN、大型預(yù)訓(xùn)練模型等人工智能技術(shù),通過已有數(shù)據(jù)尋找規(guī)律,并通過適當(dāng)?shù)姆夯芰ι上嚓P(guān)內(nèi)容的技術(shù)。[1]從廣義上看,一切運(yùn)用AI技術(shù)生成的內(nèi)容都可視為AIGC。而從概念源流來說,根據(jù)監(jiān)督學(xué)習(xí)的方法差異,機(jī)器學(xué)習(xí)領(lǐng)域具有判別式和生成式兩種典型模型[2]:判別式模型是對(duì)條件概率進(jìn)行建模,根據(jù)已有數(shù)據(jù)進(jìn)行分析、判斷、預(yù)測(cè),從而完成任務(wù);生成式模型則對(duì)聯(lián)合概率進(jìn)行建模,學(xué)習(xí)歸納已有數(shù)據(jù)后基于歷史進(jìn)行內(nèi)容生成。在GAN模型出現(xiàn)后,傳統(tǒng)機(jī)器學(xué)習(xí)算法轉(zhuǎn)向深度神經(jīng)網(wǎng)絡(luò),同時(shí),生成式機(jī)器學(xué)習(xí)模型被用于文本、圖像、語音等內(nèi)容的智能生成,學(xué)術(shù)界將其定義為“生成式AI”[3],判別式機(jī)器學(xué)習(xí)模型則被稱為“決策式AI”。隨著生成式AI的快速發(fā)展,AIGC以其高通量、低門檻、高自由度的生成能力在內(nèi)容市場(chǎng)中占據(jù)一席之地,并促使內(nèi)容生成領(lǐng)域大步邁進(jìn)人工智能時(shí)代。
相較于其他學(xué)者提出的操作性概念,上述定義從技術(shù)角度對(duì)AIGC進(jìn)行界定,一定程度上忽視了其內(nèi)容特征。中國(guó)信通院和京東探索研究院于2022年9月發(fā)布的《人工智能生成內(nèi)容(AIGC)白皮書》中,將AIGC定義為“既是從內(nèi)容生產(chǎn)者視角進(jìn)行分類的一類內(nèi)容,又是一種內(nèi)容生產(chǎn)方式,還是用于內(nèi)容自動(dòng)化生成的一類技術(shù)集合”[4],體現(xiàn)出AIGC兼具技術(shù)屬性與內(nèi)容屬性的特點(diǎn)。此外,AI模型開發(fā)者承認(rèn),由于訓(xùn)練數(shù)據(jù)與模型架構(gòu)的差異,AIGC目前可能存在暴力、性別歧視、種族主義等偏見,這意味著在大規(guī)模數(shù)據(jù)預(yù)訓(xùn)練之后,仍需引入人工標(biāo)記數(shù)據(jù)對(duì)模型進(jìn)行調(diào)整。目前慣用的開源模式正是技術(shù)開發(fā)者借助廣大用戶的互動(dòng)與反饋數(shù)據(jù)進(jìn)行模型訓(xùn)練與調(diào)整。因此,AIGC不僅僅是技術(shù)集合與技術(shù)生成內(nèi)容,還需要依靠人文力量來促進(jìn)技術(shù)向善,減少倫理隱患。
綜上,本文將AIGC界定為基于人工智能技術(shù)生產(chǎn)數(shù)字信息內(nèi)容,具有AI能力強(qiáng)、內(nèi)容生產(chǎn)效率高、內(nèi)容生成質(zhì)量穩(wěn)定、成本相對(duì)低等特點(diǎn)。
(二)AI能力擴(kuò)展:AIGC的演進(jìn)路徑
AIGC的出現(xiàn)最早可追溯到1950年艾倫·圖靈提出的著名實(shí)驗(yàn)“圖靈實(shí)驗(yàn)”,即判定機(jī)器是否具有“智能”的實(shí)驗(yàn)方法。但在GAN模型提出之前,AIGC乃至整個(gè)AI領(lǐng)域都處在沉淀積累階段,尚未實(shí)現(xiàn)大規(guī)模商業(yè)化應(yīng)用。而2014年,Goodfellow等人[5]提出的GAN模型突破了傳統(tǒng)機(jī)器學(xué)習(xí)的數(shù)據(jù)局限,以博弈論中二人零和博弈為思想基石,搭建起由生成器和判別器不斷互動(dòng)迭代優(yōu)化并最終達(dá)到納什均衡狀態(tài)的生成模型。這一突破使得機(jī)器學(xué)習(xí)中大規(guī)模無監(jiān)督學(xué)習(xí)成為可能,推動(dòng)學(xué)習(xí)范式與網(wǎng)絡(luò)結(jié)構(gòu)的技術(shù)迭代以及AIGC技術(shù)大模型與多模態(tài)發(fā)展,也使得AIGC進(jìn)入高速發(fā)展時(shí)期。因此,本文重點(diǎn)梳理2014年GAN模型提出后的AIGC演進(jìn)路徑,以AI技術(shù)與內(nèi)容生成的關(guān)系變遷為線索,將AIGC的演進(jìn)路徑劃分為輔助階段、協(xié)助階段與自主階段。
1.輔助階段:AI輔助內(nèi)容創(chuàng)作
早期AIGC技術(shù)主要依據(jù)事先指定的模板或者規(guī)則,進(jìn)行簡(jiǎn)單的內(nèi)容制作與輸出,與靈活且真實(shí)的內(nèi)容生成具有較大差距。[6]該階段AI技術(shù)在內(nèi)容生成過程中處于輔助位置,屬于工具性存在,AIGC往往是基于現(xiàn)實(shí)世界信息的物理屬性與社會(huì)屬性的數(shù)字化呈現(xiàn),可視作數(shù)字孿生內(nèi)容。以文本生成領(lǐng)域?yàn)槔?,AIGC技術(shù)能夠很好地完成具有規(guī)范模板的內(nèi)容生成,例如結(jié)構(gòu)性報(bào)道、智能客服等。早在2014年美聯(lián)社就推出了智能寫作平臺(tái)Wordsmith,用于生產(chǎn)財(cái)報(bào)類新聞;2016年3月阿里巴巴推出人工智能服務(wù)產(chǎn)品“阿里小蜜”,為消費(fèi)者提供體驗(yàn)服務(wù)、導(dǎo)購、咨詢和智能助手等功能。
在AI技術(shù)的輔助下,AIGC實(shí)現(xiàn)了內(nèi)容的高速量產(chǎn),自然語言生成公司Automated Insights僅在2014年就產(chǎn)生了10億篇新聞文章,每秒可撰寫多達(dá)2000篇新聞報(bào)道。然而該階段AI模型數(shù)據(jù)規(guī)模較小、架構(gòu)層級(jí)較少,數(shù)據(jù)學(xué)習(xí)能力有限,盡管可解釋性較強(qiáng),內(nèi)容生成的自主性與生成內(nèi)容的真實(shí)性都有不足,AIGC普遍存在內(nèi)容空洞、刻板、題文不符等問題,尚不具備自主數(shù)據(jù)學(xué)習(xí)與內(nèi)容創(chuàng)作能力。例如在與智能客服對(duì)話過程中,智能客服無法回應(yīng)程序設(shè)置外的提問表述,回復(fù)內(nèi)容也經(jīng)常出現(xiàn)文不對(duì)題的情況。因此,該階段AIGC中AI技術(shù)與內(nèi)容生成的關(guān)系維持在AI技術(shù)輔助專業(yè)人士進(jìn)行內(nèi)容生成的狀態(tài),AI技術(shù)并不能取代人工獨(dú)立完成多樣化的內(nèi)容生成任務(wù)。
2.協(xié)助階段:AI協(xié)助內(nèi)容創(chuàng)作
隨著深度學(xué)習(xí)算法的不斷迭代,Transformer模型、基于流的生成模型、擴(kuò)散模型、CLIP模型等學(xué)習(xí)范式的進(jìn)一步發(fā)展為AI模型提供了更豐富前沿的算法技術(shù),全球互聯(lián)網(wǎng)數(shù)據(jù)的激增為AI模型的深度學(xué)習(xí)提供了更大規(guī)模數(shù)據(jù),計(jì)算機(jī)、芯片等技術(shù)的升級(jí)迭代為AI模型提供了更強(qiáng)大的算力,算法、算據(jù)、算力三要素的共同突破催生了AIGC的爆發(fā)。該階段AIGC技術(shù)不再止步于輔助性工具,而是能夠在大規(guī)模數(shù)據(jù)深度學(xué)習(xí)模型訓(xùn)練的基礎(chǔ)上,根據(jù)輸入指令生成內(nèi)容并不斷強(qiáng)化學(xué)習(xí),從而實(shí)現(xiàn)初級(jí)的自主內(nèi)容輸出,協(xié)助人類完成各項(xiàng)任務(wù)。2022年底驚艷全球的ChatGPT正是這一階段AIGC技術(shù)的典型案例。正如Meta首席人工智能科學(xué)家Lann LeCun所說,“它很好地(把各項(xiàng)技術(shù))放在一起,做得很棒”,ChatGPT將Transformer架構(gòu)、大型語言模型、RLHF技術(shù)等有機(jī)結(jié)合,實(shí)現(xiàn)“1+1>2”的最終效果,并推動(dòng)NLP領(lǐng)域進(jìn)一步發(fā)展。在這一階段,AIGC擁有了更流暢、更仿真的內(nèi)容生成能力以及人機(jī)互動(dòng)能力,從簡(jiǎn)單輔助轉(zhuǎn)為智能協(xié)助,在內(nèi)容生成中的工具性地位得到提升,呈現(xiàn)出大數(shù)據(jù)訓(xùn)練、跨模態(tài)生成、高效率生產(chǎn)等技術(shù)特征。自2017年谷歌推出Transformer模型,人工智能進(jìn)入大規(guī)模數(shù)據(jù)預(yù)訓(xùn)練模型時(shí)代。在AIGC領(lǐng)域,預(yù)訓(xùn)練模型在多任務(wù)、多模態(tài)、多語言方面表現(xiàn)出極強(qiáng)適應(yīng)性,在內(nèi)容生成中扮演重要角色。目前生成式AI模型中,大規(guī)模數(shù)據(jù)預(yù)訓(xùn)練成為常態(tài),主流預(yù)訓(xùn)練模型的參數(shù)量均破億,而在NLP領(lǐng)域千億級(jí)的參數(shù)量也不足為奇,OpenAI公司的GPT-3參數(shù)量達(dá)1750億,谷歌公司的PaLM模型與英偉達(dá)公司的MT-NLG模型參數(shù)量甚至突破5000億。
除此之外,AIGC在跨模態(tài)生成上也表現(xiàn)不俗。模態(tài)是指每一種信息的來源或形式,以信息媒介類型劃分,包括文本、音頻、圖像、視頻、3D等??缒B(tài)生成是指用戶輸入某一模態(tài)的指令,AI模型能夠生成另一種模態(tài)的內(nèi)容。2021年OpenAI公司推出跨模態(tài)深度學(xué)習(xí)模型CLIP,該模型實(shí)現(xiàn)了文本與圖像的跨模態(tài)關(guān)聯(lián)與匹配,是MidJourney、Stable Diffusion、DALL-E2等一眾文生圖AI繪畫工具的重要基石。而毫無繪畫基礎(chǔ)的內(nèi)容創(chuàng)作者使用MidJourney創(chuàng)作的AIGC繪畫作品《太空歌劇院》獲得美國(guó)新興數(shù)字藝術(shù)家競(jìng)賽“數(shù)字藝術(shù)/數(shù)字修飾照片”類別一等獎(jiǎng),則充分體現(xiàn)出當(dāng)前AIGC技術(shù)在跨模態(tài)生成所取得的突破性成果,也意味著AI技術(shù)已突破輔助工具的限制,成為協(xié)助人類進(jìn)行內(nèi)容創(chuàng)作的技術(shù)力量。
AIGC技術(shù)的升級(jí),不僅改變了生產(chǎn)關(guān)系中技術(shù)要素與生產(chǎn)者的互動(dòng)關(guān)系,也帶來了更高效的內(nèi)容生產(chǎn)力。據(jù)中信建投預(yù)測(cè),2025年,生成式AI產(chǎn)生的數(shù)據(jù)將占到所有數(shù)據(jù)的10%,而2021年生成式AI產(chǎn)生的數(shù)據(jù)不到所有數(shù)據(jù)的1%。AIGC技術(shù)目前正處于該階段,AI的內(nèi)容生成能力有了驚人進(jìn)展,協(xié)助編輯能力逐漸穩(wěn)定、準(zhǔn)確且合乎邏輯,但仍未實(shí)現(xiàn)自主性突破,也時(shí)常出現(xiàn)在某些領(lǐng)域生成看似合理但并不正確甚至荒謬的內(nèi)容,同時(shí)AIGC技術(shù)在倫理方面暴露出的弊端與隱患仍需社會(huì)各界持續(xù)探討。
3.自主階段:AI自主內(nèi)容創(chuàng)作
基于實(shí)時(shí)自主創(chuàng)作的AIGC位于演進(jìn)路徑的更高階段,目前仍在探索。在該階段,AIGC能夠?qū)崿F(xiàn)實(shí)時(shí)感知、精準(zhǔn)認(rèn)知以及自主創(chuàng)作,AI技術(shù)與內(nèi)容生成的關(guān)系從工具性的輔助或協(xié)助,上升為以虛擬個(gè)體進(jìn)行內(nèi)容創(chuàng)作與交互,從而再次提升內(nèi)容生產(chǎn)力。目前AIGC技術(shù)在算法、算據(jù)與算力上都尚不能達(dá)到這一水平,需要在超大規(guī)模、超多參數(shù)量的多模態(tài)大模型以及軟硬件算力方面進(jìn)一步突破。
視覺與語言是日常生活中最常見的兩種模態(tài),通過視覺大模型能夠提升AIGC的環(huán)境感知能力,通過語言大模型能夠增強(qiáng)AIGC的抽象概念理解與認(rèn)知能力,而單一模態(tài)不能滿足多樣化場(chǎng)景下的內(nèi)容生成需求,因此需要借助多模態(tài)大模型拓展AIGC的實(shí)時(shí)創(chuàng)作能力。當(dāng)前,基于視覺Transformer完成多種感知任務(wù)的聯(lián)合學(xué)習(xí)、高效綠色節(jié)能的自然語言處理模型訓(xùn)練框架以及多模態(tài)數(shù)據(jù)的對(duì)齊、轉(zhuǎn)換與生成是未來AIGC的重要突破點(diǎn)。
伴隨著AIGC技術(shù)的不斷迭代升級(jí),作為技術(shù)—社會(huì)體系的元宇宙也將逐漸成為觸手可及的AIGC應(yīng)用場(chǎng)景,因此該階段AIGC將不僅服務(wù)于現(xiàn)實(shí)世界中的多樣化場(chǎng)景,如通用式與定制化人形機(jī)器人,還能夠在元宇宙場(chǎng)景中以虛擬形象提供更真實(shí)可感的實(shí)時(shí)內(nèi)容生成與交互服務(wù),在“虛實(shí)共生”的應(yīng)用場(chǎng)景下發(fā)揮更大作用。
三、AIGC的場(chǎng)景應(yīng)用
現(xiàn)階段AIGC技術(shù)的發(fā)展已經(jīng)呈現(xiàn)出在生產(chǎn)方式上的變革性力量,AI技術(shù)將從根本上改變各行各業(yè)的內(nèi)容生成與關(guān)系連接,尤其是需要大規(guī)模高質(zhì)量?jī)?nèi)容的元宇宙時(shí)代,“技術(shù)+專家”有機(jī)融合將成為新主流。正如云游戲是元宇宙演進(jìn)的初級(jí)形態(tài),游戲是數(shù)字化生活的典型場(chǎng)景,且游戲玩家被視為元宇宙的種子用戶[7],數(shù)字化程度高、內(nèi)容需求旺盛的產(chǎn)業(yè)也正是AIGC的典型應(yīng)用場(chǎng)景。目前,AIGC在傳媒、影視、游戲、音樂、電商等場(chǎng)景的應(yīng)用已較為成熟,技術(shù)突破也將在這些領(lǐng)域率先取得創(chuàng)新性應(yīng)用。此外,AIGC技術(shù)在醫(yī)療、金融、工業(yè)等領(lǐng)域的商業(yè)化應(yīng)用也在快速發(fā)展中。
(一)AIGC+傳媒:人機(jī)協(xié)同推動(dòng)媒體融合提質(zhì)增效
基于NLP技術(shù)的文本生成在AIGC領(lǐng)域發(fā)展較早,其在結(jié)構(gòu)性報(bào)道中的出色表現(xiàn)也受到普遍認(rèn)可并實(shí)現(xiàn)全球廣泛應(yīng)用。而ChatGPT的出現(xiàn),進(jìn)一步提升了NLP技術(shù)前沿,其表現(xiàn)出的文本續(xù)寫、文學(xué)創(chuàng)作、多輪對(duì)話能力都將使AIGC在新聞報(bào)道領(lǐng)域進(jìn)行更為深入的應(yīng)用探索。Narrative Science創(chuàng)始人曾預(yù)測(cè),到2030年,90%以上的新聞將由機(jī)器人完成。除此之外,AIGC在音頻、視頻模態(tài)的技術(shù)升級(jí),也促使傳媒產(chǎn)業(yè)走向人機(jī)協(xié)同的媒體深度融合道路,并依賴于AIGC的高產(chǎn)高效,為媒體融合發(fā)展提質(zhì)增效。
在內(nèi)容生產(chǎn)流程中,AIGC技術(shù)在信息采編、內(nèi)容制播、產(chǎn)品創(chuàng)新等多個(gè)環(huán)節(jié)發(fā)揮了出色的協(xié)助作用。在采編環(huán)節(jié),借助語音識(shí)別技術(shù)對(duì)語音內(nèi)容進(jìn)行文字轉(zhuǎn)寫,能夠有效壓縮稿件撰寫前的錄音整理工作,提升新聞時(shí)效性。例如2022年冬奧會(huì)期間,科大訊飛的智能錄音筆通過跨語種的語音轉(zhuǎn)寫助力記者2分鐘快速出稿。在制播環(huán)節(jié),自動(dòng)生成字幕、視頻拆條、任務(wù)追蹤等智能化剪輯工具不僅節(jié)約了時(shí)間與人力成本,還能夠最大限度挖掘內(nèi)容版權(quán)價(jià)值,在中華人民共和國(guó)成立七十周年國(guó)慶閱兵活動(dòng)報(bào)道中,央視頻使用智能剪輯平臺(tái)對(duì)關(guān)鍵事件視頻進(jìn)行處理、剪輯與推送,其生成的短視頻內(nèi)容快速火爆網(wǎng)絡(luò)。在產(chǎn)品創(chuàng)新環(huán)節(jié),近年來傳媒業(yè)大量使用的虛擬主播,也離不開AIGC技術(shù)的支持。虛擬主播本質(zhì)上是基于AI合成技術(shù)的虛擬數(shù)字人,通過底層算法、實(shí)時(shí)語音與人物動(dòng)畫的技術(shù)合成,最終交付的虛擬主播能夠?qū)斎氲奈谋具M(jìn)行自動(dòng)播報(bào),并且語音、表情與唇動(dòng)始終保持同步,在新聞播報(bào)、節(jié)目主持等方面都表現(xiàn)不俗。
AIGC技術(shù)對(duì)傳媒業(yè)的影響不僅體現(xiàn)于對(duì)傳媒機(jī)構(gòu)的內(nèi)容生產(chǎn)流程進(jìn)行智能升級(jí),推動(dòng)媒體融合進(jìn)程,還進(jìn)一步釋放了傳媒工作者的內(nèi)容生產(chǎn)力,使其轉(zhuǎn)向更具深度、廣度與人文關(guān)懷的內(nèi)容創(chuàng)作,同時(shí)為傳媒用戶提供了更豐富多元、更快速便捷的內(nèi)容服務(wù)以及參與到內(nèi)容生產(chǎn)中來的機(jī)會(huì)。
在上述AIGC應(yīng)用中,AI技術(shù)更多作為輔助性工具發(fā)揮作用,部分AI協(xié)作內(nèi)容生產(chǎn)時(shí)并不涉及內(nèi)容創(chuàng)作本身,而是對(duì)現(xiàn)有內(nèi)容的簡(jiǎn)單拆分或有序整合。這受制于早期AI算法水平,隨著NLP技術(shù)前沿的提升,AI模型將具有更強(qiáng)的認(rèn)知能力,更強(qiáng)大的AIGC技術(shù)將投入行業(yè)應(yīng)用。數(shù)字媒體公司BuzzFeed在2023年1月27日表示,該公司將依靠ChatGPT背后的OpenAI公司來加強(qiáng)部分內(nèi)容創(chuàng)作,為觀眾提供個(gè)性化內(nèi)容,并計(jì)劃今年讓人工智能在公司的編輯和業(yè)務(wù)運(yùn)營(yíng)中發(fā)揮更大的作用,是推進(jìn)傳媒業(yè)人機(jī)協(xié)同進(jìn)一步發(fā)展的新開始。
(二)AIGC+影視:技術(shù)加持拓展影視作品創(chuàng)作空間
影視業(yè)的產(chǎn)業(yè)鏈條與制作周期都較長(zhǎng),這使得資本投入后,需要較長(zhǎng)資金周轉(zhuǎn)周期,也滋生出從劇本創(chuàng)作、現(xiàn)場(chǎng)拍攝到后期制作的過程性問題,如高質(zhì)量劇本欠缺、制作成本較高、作品質(zhì)量一般等。而AIGC技術(shù)的應(yīng)用,一定程度上能夠激發(fā)劇本創(chuàng)作活力,降低拍攝成本,提升后期制作質(zhì)量,從而拓展影視作品的創(chuàng)作空間。
在劇本創(chuàng)作上,AIGC技術(shù)能夠通過對(duì)海量劇本數(shù)據(jù)的分析歸納,快速生成完整故事劇本,協(xié)助編劇進(jìn)行內(nèi)容創(chuàng)作。早在2020年,一位美國(guó)學(xué)生就利用GPT-3創(chuàng)作劇本并制成短片《律師》,目前OpenAI的ChatGPT、百度文心的ERNIE3.0等模型在文學(xué)創(chuàng)作領(lǐng)域也都獲得較好反饋。此外,AIGC技術(shù)還能使其他文本類型轉(zhuǎn)為劇本形式,從而減輕劇本改寫的工作壓力,如海馬輕帆在2021年對(duì)外推出“小說轉(zhuǎn)劇本”智能寫作功能,業(yè)內(nèi)超80%的影視劇本通過海馬輕帆的系統(tǒng)進(jìn)行評(píng)測(cè)和修改,包括熱門影視劇《你好,李煥英》《流浪地球》等。
在場(chǎng)景創(chuàng)作上,AIGC技術(shù)通過合成虛擬場(chǎng)景,節(jié)約場(chǎng)景搭建成本,同時(shí)能夠通過實(shí)時(shí)渲染等技術(shù)在拍攝現(xiàn)場(chǎng)實(shí)現(xiàn)后期成果預(yù)覽,縮短后期制作時(shí)間。例如待播電視劇《狐妖小紅娘月紅篇》中部分內(nèi)容采用虛擬拍攝技術(shù),通過實(shí)時(shí)追蹤、實(shí)時(shí)摳像、實(shí)時(shí)渲染技術(shù),將實(shí)景拍攝與CG元素實(shí)時(shí)合成,并把空間、透視、光影等多種場(chǎng)景要素以及真實(shí)人物在拍攝現(xiàn)場(chǎng)進(jìn)行數(shù)字合成,為導(dǎo)演提供實(shí)時(shí)的畫面預(yù)覽?;诂F(xiàn)實(shí)增強(qiáng)技術(shù),AIGC虛擬人物能夠與真人同臺(tái)互動(dòng),如湖南衛(wèi)視《你好星期六》節(jié)目中主持人與嘉賓同虛擬主播小漾的實(shí)時(shí)互動(dòng)以及北京臺(tái)2023年春晚中虛擬鄧麗君與王心凌、韓雪同臺(tái)合唱,為觀眾帶來耳目一新的視聽體驗(yàn)。
在后期制作上,AIGC技術(shù)應(yīng)用不僅包括圖像的修復(fù)與還原,還能夠合成人臉從而對(duì)特定人物進(jìn)行替換。前者重點(diǎn)應(yīng)用于歷史影像的修復(fù)與還原,如通過智能分析檢測(cè)噪音、編碼失真、運(yùn)動(dòng)以及畫面復(fù)雜度等情況,運(yùn)用AI修復(fù)算法去除破壞性因素并進(jìn)行多維度畫質(zhì)增強(qiáng),使得張國(guó)榮《熱·情》演唱會(huì)最終以高清品質(zhì)呈現(xiàn)在觀眾面前;后者則可用于“數(shù)字復(fù)活”已故演員、替換劣跡演員等,如演員保羅·沃克在拍攝《速度與激情7》期間去世,劇組采用AI換臉的方式使其“完成了”劇情拍攝,而近年來國(guó)內(nèi)多位藝人失德乃至違法,為保證影視作品能夠成功播出,部分劇組也會(huì)選擇對(duì)劣跡演員進(jìn)行AI換臉。
AIGC技術(shù)在影視業(yè)的應(yīng)用較為廣泛且常見,但并未觸及內(nèi)容創(chuàng)作核心,工具屬性更強(qiáng),同時(shí)AI換臉、摳圖技術(shù)的濫用也在業(yè)內(nèi)存在一定爭(zhēng)議。但毫無疑問,AIGC技術(shù)為影像作品提供了更多創(chuàng)作空間與創(chuàng)作靈感,核心創(chuàng)意的產(chǎn)出仍由專業(yè)影視從業(yè)者完成。
(三)AIGC+游戲:AI技術(shù)提升產(chǎn)業(yè)生產(chǎn)力,解放游戲創(chuàng)造力
游戲業(yè)存在一個(gè)經(jīng)典的“不可能三角”論斷,即“你只能在時(shí)間、成本與質(zhì)量之間三選二”。但AIGC技術(shù)的成熟有望打破這一“不可能三角”,提升游戲產(chǎn)業(yè)生產(chǎn)力。首先,AIGC具有高效率生產(chǎn)的技術(shù)特征,在重復(fù)性、機(jī)械化內(nèi)容生產(chǎn)上具有絕對(duì)優(yōu)勢(shì);其次,AIGC的大模型趨勢(shì)使其前期成本較高,但AIGC技術(shù)發(fā)展依舊符合摩爾定律,隨著技術(shù)的成熟迭代與軟硬件設(shè)備的價(jià)格下降,最終能夠?qū)崿F(xiàn)降本增效的目標(biāo);最后,AIGC在內(nèi)容生成,尤其是在圖像生成領(lǐng)域的表現(xiàn)已經(jīng)達(dá)到人類平均水平,能夠滿足游戲業(yè)大量重復(fù)且瑣碎的美術(shù)需求。
AIGC在游戲領(lǐng)域的價(jià)值還體現(xiàn)在場(chǎng)景、角色制作方面的效能提升,從而解放游戲創(chuàng)造力。目前,許多游戲開發(fā)者已在使用AIGC技術(shù)進(jìn)行游戲場(chǎng)景開發(fā),例如美國(guó)戲劇動(dòng)畫《瑞克和莫蒂》的創(chuàng)作者Justin
Roiland在2022年底發(fā)布了一款內(nèi)含Midjourney生成的藝術(shù)作品的游戲,為玩家探索外星世界增添風(fēng)味。但主流的游戲內(nèi)容生產(chǎn)方式仍是由AI驅(qū)動(dòng)的游戲開發(fā)生態(tài)系統(tǒng)進(jìn)行程序生成,其效能與可控性介于純手工與AIGC之間,例如2022年推出的交互內(nèi)容游戲《黑客帝國(guó):覺醒》采用該技術(shù),在最新引擎加持下創(chuàng)建了包含700萬實(shí)例化資產(chǎn)的虛擬城市。此外,NPC角色作為游戲的另一重要組成部分,不僅需要特定語音,還需具備差異化的行為特征,傳統(tǒng)制作方式耗時(shí)費(fèi)力,如2018年發(fā)售的游戲《荒野大鏢客2》為打造約60平方公里的虛擬場(chǎng)景,先后由600余名美術(shù)師歷時(shí)8年完成。但與之相比,生成式AI能夠在角色開發(fā)過程中承擔(dān)大量低價(jià)值工作且生產(chǎn)效率較高,從而節(jié)省更多資源,使游戲美術(shù)師們投入到內(nèi)容創(chuàng)作當(dāng)中,當(dāng)前元宇宙虛擬化身創(chuàng)建公司Inworld AI正嘗試在虛擬NPC創(chuàng)建過程中引入生成式AI技術(shù)。
除此之外,借助生成式AI,游戲本身也能夠獲得更具創(chuàng)意的交互方式。如游戲公司Cyber Manufacture Co.近日發(fā)布的最新AIGC技術(shù)預(yù)覽Quantum Engine,用戶可使用自然語言與NPC隨意互動(dòng),AI會(huì)根據(jù)用戶表達(dá),實(shí)時(shí)生成劇情互動(dòng)。這一應(yīng)用突破了AI技術(shù)服務(wù)于游戲開發(fā)的生產(chǎn)關(guān)系,將生成式AI作為游戲核心,向用戶提供真正私人化、個(gè)性化的游戲體驗(yàn)。
(四)AIGC+音樂:智能生成促進(jìn)音樂產(chǎn)業(yè)智能升級(jí)
音頻生成作為早期AIGC領(lǐng)域,目前的商業(yè)化應(yīng)用已較為成熟,主要包括語音識(shí)別與歌曲生成兩大應(yīng)用場(chǎng)景。在音樂領(lǐng)域,AIGC技術(shù)在作詞、作曲、編曲等方面的應(yīng)用較為廣泛,已經(jīng)支持基于開頭旋律、圖片或文字描述、音樂類型、情緒類型等生成特定樂曲,可應(yīng)用于音樂欣賞、游戲音效、實(shí)體場(chǎng)景配樂等多個(gè)領(lǐng)域。2022年,昆侖萬維推出商業(yè)級(jí)作曲AI模型天工樂府SkyMusic,該模型支持31種語種的歌詞生成、多曲風(fēng)旋律生成、多軌道編曲、VOCAL生成和智能縮混等,已在全球多個(gè)音視頻平臺(tái)發(fā)行近20首AI生成歌曲。
此外,“技術(shù)+專家”模式在音樂產(chǎn)業(yè)表現(xiàn)突出,AI與專家合作能夠基于現(xiàn)有樂譜進(jìn)行智能生成,續(xù)寫著名音樂家作品,如PlayformAI與音樂專家合作使用AI續(xù)寫貝多芬《第十交響樂》、中國(guó)音樂學(xué)院“AI釋譜”項(xiàng)目利用人工智能生成古琴曲《燭》。而且AIGC技術(shù)還能夠降低普通用戶的音樂創(chuàng)作門檻,快速生成歌曲,如網(wǎng)易2022年推出AI音樂創(chuàng)作平臺(tái)天音,能夠10秒搞定詞曲編唱,為用戶定制拜年曲。
AI技術(shù)的引入不僅為音樂產(chǎn)業(yè)提供了音樂創(chuàng)作的智能工具,而且以技術(shù)賦能用戶,豐富了用戶的音樂消費(fèi)行為,實(shí)現(xiàn)產(chǎn)業(yè)的智能升級(jí)。但AIGC技術(shù)帶來的歌曲生成低成本,一定程度上也會(huì)使得大量從事低水平編曲的音樂創(chuàng)作者受到?jīng)_擊,從而改變音樂產(chǎn)業(yè)的人員結(jié)構(gòu)。
(五)AIGC+電商:虛擬人貨場(chǎng)營(yíng)造沉浸式消費(fèi)體驗(yàn)
隨著各項(xiàng)數(shù)字技術(shù)的成熟與商業(yè)化應(yīng)用,沉浸式消費(fèi)成為電子商務(wù)的主流發(fā)展趨勢(shì),虛擬主播、在線3D預(yù)覽、數(shù)字展覽等形式也極大豐富了消費(fèi)者的消費(fèi)體驗(yàn)。而在AIGC技術(shù)的加持下,虛擬人貨場(chǎng)將迎來更加真實(shí)、沉浸式的數(shù)字再現(xiàn),從而為消費(fèi)者營(yíng)造沉浸式的消費(fèi)體驗(yàn)。
首先是虛擬主播的打造填補(bǔ)了人力空白,能夠?qū)崿F(xiàn)24小時(shí)不間斷地商品展示與介紹,隨著NLP技術(shù)的進(jìn)步,虛擬主播或?qū)橄M(fèi)者提供更加生動(dòng)的互動(dòng)體驗(yàn)。其次是商品3D模型的在線展示,為用戶提供全方位的商品呈現(xiàn),甚至能夠提供虛擬的使用場(chǎng)景搭建,如宜家2022年推出虛擬設(shè)計(jì)工具,讓用戶能夠掃描自家房間或使用其虛擬展廳進(jìn)行家具擺放,為消費(fèi)者提供更為沉浸式的購物體驗(yàn)。最后是購物場(chǎng)景數(shù)字化再現(xiàn),通過在二維空間構(gòu)建三維場(chǎng)景,AIGC技術(shù)能夠?qū)崿F(xiàn)虛擬購物場(chǎng)景的低成本、大批量構(gòu)建,從而降低商家搭建3D場(chǎng)景的成本,并為消費(fèi)者提供線上線下融合的消費(fèi)體驗(yàn)。但目前智能購物場(chǎng)景搭建呈現(xiàn)兩種極端趨勢(shì):一端是技術(shù)水平有限、仿真度較低的常態(tài)化場(chǎng)景,另一端是技術(shù)水平較高、仿真度較好但持續(xù)性欠佳的秀場(chǎng)式場(chǎng)景。未來隨著生成式AI以及AI技術(shù)的感知與認(rèn)知能力提升,AIGC在電商領(lǐng)域的應(yīng)用將更為真實(shí)持久。
四、AIGC的發(fā)展趨勢(shì)與關(guān)鍵點(diǎn)
以2022年為節(jié)點(diǎn),AIGC領(lǐng)域發(fā)展勢(shì)如破竹,AIGC技術(shù)帶來的生產(chǎn)力升級(jí)將會(huì)為各行各業(yè)提供新的發(fā)展契機(jī),但從商業(yè)化進(jìn)程來看,AIGC實(shí)現(xiàn)多產(chǎn)業(yè)大規(guī)模應(yīng)用仍需一定時(shí)間。未來,AIGC的發(fā)展需要把握以下三個(gè)方面。
(一)AIGC將成為元宇宙時(shí)代的內(nèi)容生產(chǎn)基礎(chǔ)設(shè)施
目前內(nèi)容生產(chǎn)方式主要包括PGC(專業(yè)生成內(nèi)容)、UGC(用戶生成內(nèi)容)與AIGC(人工智能生成內(nèi)容),其中AIGC正處于AI輔助生成內(nèi)容階段,尚未達(dá)到AI自主生成內(nèi)容階段,AI生產(chǎn)力還有待釋放。在元宇宙時(shí)代,元宇宙信息生態(tài)有賴于高效的內(nèi)容生產(chǎn)機(jī)制,而AIGC能夠通過算法訓(xùn)練做到根據(jù)用戶行為與反饋進(jìn)行實(shí)時(shí)生產(chǎn)信息內(nèi)容,極大提升內(nèi)容生產(chǎn)效率,且通過大量?jī)?yōu)質(zhì)信息的生產(chǎn)維護(hù)元宇宙的信息生態(tài)。[8]與此同時(shí),由于元宇宙時(shí)代內(nèi)容需求的增大,PGC與UGC生產(chǎn)效率不足以滿足這一需求,能夠低成本、高效率進(jìn)行多樣化內(nèi)容生產(chǎn)的AIGC將會(huì)成為主流生產(chǎn)方式,而AIGC技術(shù)與數(shù)字孿生的高度適配也會(huì)使得AIGC成為元宇宙信息生態(tài)的主要組成。因此,AIGC將會(huì)成為元宇宙時(shí)代內(nèi)容生產(chǎn)的關(guān)鍵底層技術(shù)。
從用戶角度看,基于元宇宙內(nèi)容生態(tài)的數(shù)量高飽和、信息低密度特征,用戶更加追求多樣化、定制化的信息服務(wù),并且出于對(duì)數(shù)字身份認(rèn)同的高度需要,更希望獲得自由表達(dá)的空間與能力。AIGC技術(shù)不僅能作為底層技術(shù)為元宇宙生態(tài)提供自動(dòng)化內(nèi)容生成,豐富元宇宙內(nèi)容生態(tài),而且能賦權(quán)用戶對(duì)AIGC進(jìn)行個(gè)性化微調(diào),從而提供定制化信息服務(wù),還能輔助用戶進(jìn)行內(nèi)容創(chuàng)作,降低內(nèi)容創(chuàng)作門檻,幫助更多普通用戶進(jìn)行自我表達(dá),擴(kuò)大內(nèi)容規(guī)模的同時(shí)促進(jìn)用戶身份轉(zhuǎn)型。
不論面向元宇宙生態(tài)需求還是用戶需求,AIGC都將是元宇宙場(chǎng)景下內(nèi)容生產(chǎn)的主流,核心在于AI技術(shù)對(duì)生產(chǎn)力的大幅提升與創(chuàng)造,而元宇宙時(shí)代正是AIGC作為內(nèi)容生產(chǎn)基礎(chǔ)設(shè)施的時(shí)代。
(二)“AI+人文”將成為AIGC的主要發(fā)展趨勢(shì)
AIGC的演進(jìn)路徑是從輔助、協(xié)助再到自主,但社會(huì)信息內(nèi)容完全依賴AI自主生成將會(huì)導(dǎo)致人的主體性缺失。德國(guó)社會(huì)學(xué)家馬克斯·韋伯將人類的理性分為工具理性與價(jià)值理性,前者追求工具的效能與技術(shù)的先進(jìn),后者關(guān)懷人的命運(yùn)與尊嚴(yán)。如果將AI技術(shù)、人文精神與之對(duì)應(yīng)起來,那么AI技術(shù)可以納入工具理性范疇,人文精神可以納入價(jià)值理性范疇,二者是對(duì)立又統(tǒng)一的關(guān)系。因此“AI+人文”將成為AIGC的主要發(fā)展趨勢(shì)。
“AI+人文”是將人文精神貫穿于技術(shù)應(yīng)用當(dāng)中,在AI生成內(nèi)容的前、中、后始終保持人文關(guān)懷與人文主義思考。技術(shù)本身是中立的,但在技術(shù)的發(fā)展與應(yīng)用過程中,政治、經(jīng)濟(jì)因素不可避免地會(huì)影響技術(shù)應(yīng)用的走向,甚至隱身于技術(shù)之中形成看似公平公正、自然合理的內(nèi)容生態(tài)。與此同時(shí),英國(guó)媒介學(xué)者戴維·莫利也提醒人們不要夸大新媒體對(duì)于人文傳統(tǒng)的沖擊力和影響力,不要迷失在技術(shù)的神話中,他認(rèn)為“最新的技術(shù)也可被用于最傳統(tǒng)的目的”。[9]人文精神是走出技術(shù)神話的燈塔,在AIGC領(lǐng)域,人文精神也將是引領(lǐng)技術(shù)向善的關(guān)鍵力量。
在AIGC的應(yīng)用過程中,內(nèi)容安全與倫理問題是技術(shù)應(yīng)用無法避免的現(xiàn)實(shí)問題,例如ChatGPT被用戶用來進(jìn)行課程考試與論文寫作、Podcast.ai“復(fù)活”已故的史蒂夫·喬布斯并用AI生成對(duì)話等。除此之外,AIGC技術(shù)模型本身由于訓(xùn)練數(shù)據(jù)的不可控,存在內(nèi)生性的算法歧視。盡管有人認(rèn)為預(yù)訓(xùn)練模型使用更多、更多元全面的數(shù)據(jù)量與參數(shù)進(jìn)行模型訓(xùn)練,能夠避免算法歧視,但即便是使用了1750億參數(shù)、45TB預(yù)訓(xùn)練數(shù)據(jù)的GPT-3仍存在明顯的基于宗教的偏見與性別歧視。因此,人文精神與人工力量的介入是AIGC避免算法歧視的必然路徑。例如OpenAI 2021年通過向外包公司購買人工數(shù)據(jù)標(biāo)記服務(wù)來提升模型對(duì)有關(guān)暴力、仇恨言論以及性別歧視的認(rèn)識(shí),ChatGPT中也采用了RLHF技術(shù)來提高模型回答的質(zhì)量。
未來,AIGC技術(shù)的發(fā)展將更加驚人,在不斷提升技術(shù)水平以為人類提供更智能內(nèi)容生成服務(wù)的同時(shí),保持人文精神與人文關(guān)懷將是AIGC技術(shù)向善的關(guān)鍵,“AI+人文”正契合了這一趨勢(shì)。
(三)AIGC的發(fā)展關(guān)鍵點(diǎn)在于技術(shù)要素與商業(yè)要素的共同進(jìn)步
AIGC未來發(fā)展關(guān)鍵點(diǎn)在于兩個(gè)要素,即由數(shù)據(jù)、技術(shù)、資本構(gòu)成的技術(shù)要素和由用戶與應(yīng)用場(chǎng)景組成的商業(yè)要素,二者共同進(jìn)步才能形成AIGC領(lǐng)域的繁榮生態(tài)。
在技術(shù)要素中,數(shù)據(jù)是AIGC發(fā)展的“燃料”。目前多模態(tài)大模型是AI模型發(fā)展的主要趨勢(shì),多模態(tài)與大模型都需要巨量數(shù)據(jù)用以模型訓(xùn)練,ChatGPT模型參數(shù)已達(dá)萬億級(jí),AI繪畫工具M(jìn)idjourney收集和訓(xùn)練了數(shù)百萬個(gè)互聯(lián)網(wǎng)文本、圖像數(shù)據(jù)。由此可見,大數(shù)據(jù)語料與訓(xùn)練集是AIGC技術(shù)發(fā)展的數(shù)據(jù)保障。技術(shù)是AIGC發(fā)展的核心動(dòng)力,GAN模型對(duì)小規(guī)模數(shù)據(jù)的高效運(yùn)用緩解了數(shù)據(jù)不足的窘境,Transformer預(yù)訓(xùn)練模型對(duì)大規(guī)模數(shù)據(jù)的有效處理為AI大模型提供了可行路徑,多模態(tài)認(rèn)知計(jì)算提升了AIGC的感知力與交互性。因此,算法技術(shù)的進(jìn)步推動(dòng)著AIGC的不斷升級(jí)。資本是AIGC發(fā)展的堅(jiān)實(shí)后盾。巨量數(shù)據(jù)、多種模態(tài)帶來的是AIGC對(duì)軟硬件設(shè)備的更大需求,GPT-3的總訓(xùn)練費(fèi)用約1200萬美元,此外,AIGC的實(shí)時(shí)生成也離不開本地與云端算力的支持,這都需要殷實(shí)的資本加以保障。
在商業(yè)要素中,用戶正在成為模型發(fā)展與應(yīng)用的主力。開源模式正在成為AIGC發(fā)展的“催化劑”,深度學(xué)習(xí)模型CLIP、對(duì)話式NLP模型ChatGPT、AI繪畫工具DALL-E2都采取了開源模式,從而加速其廣泛應(yīng)用。而開源模式的核心在于撬動(dòng)用戶力量,通過與真實(shí)用戶的交互為AI模型提供訓(xùn)練數(shù)據(jù),并借助用戶反饋對(duì)模型進(jìn)行優(yōu)化與微調(diào),同時(shí)也滿足了用戶的信息交流與內(nèi)容創(chuàng)作需求,實(shí)現(xiàn)研發(fā)與應(yīng)用的雙贏。根據(jù)用戶需求的差異性與應(yīng)用市場(chǎng)的細(xì)分化,未來AIGC的應(yīng)用場(chǎng)景將會(huì)更加分眾化,基于特定群體提供定制化的AIGC服務(wù),同時(shí)也為部分群體開放模型微調(diào)功能,以激發(fā)廣大用戶的想象力與創(chuàng)造力,進(jìn)一步豐富現(xiàn)有應(yīng)用場(chǎng)景。此外,更多元的應(yīng)用場(chǎng)景也能夠提升AIGC的商業(yè)價(jià)值,從而形成完整的“研發(fā)-變現(xiàn)-研發(fā)”商業(yè)閉環(huán)。
技術(shù)要素決定了技術(shù)水平,而商業(yè)要素關(guān)系著技術(shù)變現(xiàn)。當(dāng)前AIGC領(lǐng)域基礎(chǔ)技術(shù)層已獲得突破性成果,未來幾年在應(yīng)用場(chǎng)景上的技術(shù)落地則為AIGC增添了更大的市場(chǎng)價(jià)值,從而形成可持續(xù)的產(chǎn)研互促,推動(dòng)AIGC發(fā)展蒸蒸日上。
五、結(jié)語
可以預(yù)見,未來AIGC將會(huì)更為火爆,甚至成為全社會(huì)的熱點(diǎn)話題。在AIGC掀起的技術(shù)變革風(fēng)暴中,AIGC在內(nèi)容生產(chǎn)力的提升與創(chuàng)造上發(fā)揮了巨大作用,但知識(shí)產(chǎn)權(quán)、內(nèi)容安全、使用倫理等領(lǐng)域正處于風(fēng)暴眼中,需要人們始終保持警惕,堅(jiān)守原則,保持思考,拉緊底線,始終明確AIGC技術(shù)從來都不是目的,更美好的生活才是核心。
[本文為北京市社會(huì)科學(xué)基金規(guī)劃重點(diǎn)項(xiàng)目“首都互聯(lián)網(wǎng)平臺(tái)企業(yè)社會(huì)責(zé)任與協(xié)同治理體系研究”的階段性成果,項(xiàng)目批準(zhǔn)號(hào)(22XCA002)]
參考文獻(xiàn):
[1]量子位.Diffusion的火,只是AIGC的縮影|量子位智庫報(bào)告(附下載)[EB/OL].(2022-09-22)[2023-01-05].https://www.qbitai.com/2022/09/38066.html.
[2]李白楊,白云,詹希旎,李綱.人工智能生成內(nèi)容(AIGC)的技術(shù)特征與形態(tài)演進(jìn)[J/OL].圖書情報(bào)知識(shí):1-9[2023-01-31].
[3]Wang Y H, Herron L, Tiwary P. From Data to Noise to Data for Mixing Physics across Temperatures with Generative Artificial Intelligence[J].Proceedings of the National Academy of Sciencesof the United States of America,2022,119(32):e2203656119.
[4]人工智能生成內(nèi)容(AIGC)白皮書(2022年)[EB/OL].(2022-09-04)[2023-01-31].http://www.cbdio.com/BigData/2022-09/04/content_6170457.htm.
[5]Goodfellow I J, Pouget-Abadie J,Mirza M,et al. Generative adversarial nets[C]//Proceedings of the 27th International Conference on Neural Information Processing Systems,Montreal,Dec 8-13,2014.Cambridge:MIT Press,2014:2672-2680.
[6]人工智能生成內(nèi)容(AIGC)白皮書(2022年)[EB/OL].(2022-09-04)[2023-01-31].http://www.cbdio.com/BigData/2022-09/04/content_6170457.htm.
[7]郭全中.元宇宙的緣起、現(xiàn)狀與未來[J].新聞愛好者,2022(1):26-31.
[8]吳江,曹喆,陳佩,賀超城,柯丹.元宇宙視域下的用戶信息行為:框架與展望[J].信息資源管理學(xué)報(bào),2022,12(01):4-20.
[9]戴維·莫利.媒介理論、文化消費(fèi)與技術(shù)變化[J].張道建,譯.文藝研究,2011(4).
(郭全中為中央民族大學(xué)新聞與傳播學(xué)院教授,江蘇紫金傳媒智庫高級(jí)研究員;張金熠為中央民族大學(xué)新聞與傳播學(xué)院碩士生)
編校:鄭 艷