[摘 要:在經(jīng)濟發(fā)展過程中,通用目的技術(shù)(GPT)的作用是至關(guān)重要的。作為一種新出現(xiàn)的技術(shù),生成式AI具有GPT所要求的普遍適用性、進步性和創(chuàng)新孕育性等特征,因而很可能會成為全新的GPT。生成式AI領(lǐng)域最具代表性的模型就是OpenAI的GPT系列等,這里的GPT全稱是“生成式預(yù)測訓(xùn)練”(Generative Pre?Training)模型。無論是出于高質(zhì)量發(fā)展的需要,還是出于加強我國國際競爭力的考量,發(fā)展生成式AI都是當務(wù)之急。從目前看,我國在發(fā)展生成式AI方面還存在著很多障礙,這就要求政府用好產(chǎn)業(yè)政策,為其發(fā)展掃清障礙。與此同時,作為GPT,生成式AI的發(fā)展一定會伴隨著“創(chuàng)造性毀滅”過程,由此帶來技術(shù)性失業(yè)、收入分配惡化,以及壟斷和不正當競爭等問題。對于這些問題,應(yīng)當用好相關(guān)政策加以應(yīng)對,盡可能趨利避害,讓生成式AI更好地為經(jīng)濟發(fā)展服務(wù)。
關(guān)鍵詞:生成式AI;GPT;ChatGPT
中圖分類號:F49文獻標識碼:A文章編號:1000?176X(2023)06?0041?18???? ]
最近,由美國人工智能研究公司OpenAI開發(fā)的大型語言模型ChatGPT引發(fā)了各界熱議。相比于過去的AI產(chǎn)品,ChatGPT不僅可以更為順暢地與用戶交流,而且可以十分高效地按照要求完成包括文本寫作、資料整理,甚至程序編寫等在內(nèi)的多種任務(wù),因而廣受用戶青睞。自2022年11月30日正式上線以來,ChatGPT的用戶數(shù)量就保持了高速增長。僅僅5天時間,其用戶量就突破了100萬;不到兩個月,用戶量就超過了1億。2023年3月14日,OpenAI又發(fā)布了多模態(tài)的AI應(yīng)用GPT-4。這一新模型不僅可以和ChatGPT一樣識別文本,還可以進行圖像識別,而且其問題解答、人機交互能力都有了質(zhì)的提升。
從分類上看,ChatGPT和GPT-4都屬于“生成式AI”(Generative AI)的范疇。隨著ChatGPT的爆火,這種類型的AI逐步被人們關(guān)注。過去市場上的AI產(chǎn)品主要是所謂的“分析式AI”(Analytical AI),這類AI的主要功能是對數(shù)據(jù)進行學(xué)習(xí)和分析,以此來預(yù)測、輔助用戶進行判斷。與這類AI不同,生成式AI的主要功能是通過學(xué)習(xí)來生成與訓(xùn)練數(shù)據(jù)不同的新數(shù)據(jù)。例如,ChatGPT會生成不同于其學(xué)習(xí)材料的文本,Dall?E2、Stable Diffusion等圖片生成AI則會生成不同于其學(xué)習(xí)材料的圖形。得益于這種創(chuàng)造能力,生成式AI可以比分析式AI應(yīng)用于更多不同的場景、完成更為多樣化的任務(wù),因而生成式AI正在成為一種“通用人工智能”(Artificial General Intelligence)[1]。
既然生成式AI的表現(xiàn)已經(jīng)如此之好,那么一個直接的問題就是,它是否可能成為經(jīng)濟學(xué)意義上的“通用目的技術(shù)”(General Purpose Technology,GPT)?1如果這個答案是肯定的,那么這種技術(shù)將會對經(jīng)濟發(fā)展產(chǎn)生怎樣的影響?又應(yīng)該用怎樣的政策去促進這種技術(shù)的發(fā)展?本文將對以上所有問題展開討論。
一、GPT及其影響
(一)GPT的定義和特征
“通用目的技術(shù)”是現(xiàn)代經(jīng)濟增長理論中經(jīng)常被提及的一個概念。與僅用于某些具體用途的專用目的技術(shù)(Specific Purpose Technology,SPT)不同,GPT的應(yīng)用范圍通常十分廣泛,對經(jīng)濟的影響是整體性的。例如,蒸汽機、電氣化等技術(shù)就是最常被提及的GPT。在文獻當中,這些技術(shù)通常被稱為“經(jīng)濟增長的引擎”。Bresnahan和Trajtenberg[2]最早對GPT進行了研究。根據(jù)他們的定義,GPT應(yīng)該具有如下三個基本特征:
普遍適用性(Pervasiveness)。GPT可以作為投入品,被廣泛地應(yīng)用到各個部門。例如,作為GPT的新能源在不同的行業(yè)都能夠使用,而作為GPT的計算機也可以為各個行業(yè)賦能。
進步性(Improvement)。通過持續(xù)的創(chuàng)新和學(xué)習(xí),GPT的表現(xiàn)會隨著時間的推移而不斷改進。這種改進是多維度的:可能表現(xiàn)為與GPT相關(guān)產(chǎn)品、系統(tǒng)及組件的成本降低,也可能表現(xiàn)為質(zhì)量改善。隨著GPT表現(xiàn)的優(yōu)化,使用它們將會變得越來越有利可圖,而這也會有助于它們的進一步擴散。
創(chuàng)新孕育性(Innovation Spawning)。GPT的創(chuàng)新會促進相關(guān)應(yīng)用技術(shù)的創(chuàng)新,進而提高應(yīng)用部門的研發(fā)生產(chǎn)率,而應(yīng)用部門的技術(shù)進步又會反過來促進GPT自身的進步。顯然,創(chuàng)新孕育性的存在會讓GPT創(chuàng)新和應(yīng)用部門創(chuàng)新的回報率同時得到提升。
后來的經(jīng)濟學(xué)家對Bresnahan和Trajtenberg[2]的上述標準提出了一些修正。例如,Carlaw和Lipsey[3]認為,GPT的特征應(yīng)該包括:最初只用于一些特殊用途;隨著在經(jīng)濟中的擴散,它會演化成更為復(fù)雜的形式,其效率會不斷提升;它會被用于幫助眾多領(lǐng)域的生產(chǎn);它會產(chǎn)生更多新產(chǎn)品,演化出新的生產(chǎn)流程。后來,Bekar等[4]進一步總結(jié)出GPT的六個特征:與定義和支撐它的一組技術(shù)互補;與由它賦能的技術(shù)具有互補性;與一系列在社會、政治和經(jīng)濟上具有變革性的技術(shù)具有互補性;沒有相近的替代方案;具有廣泛的應(yīng)用;開始時比較粗糙,但會演化得越來越復(fù)雜。不過,盡管有了這些論述,Bresnahan和Trajtenberg[2]的標準依然被認為是判斷GPT的最重要標準。按照上述標準衡量,盡管人類歷史上技術(shù)發(fā)明眾多,但能稱之為GPT的卻很少。Lipsey等[5]曾對歷史上的GPT進行過專門研究。在他們看來,從公元前9 000年至今,只有24種技術(shù)可以稱為GPT。按照出現(xiàn)的順序,它們分別為:植物馴化、動物馴養(yǎng)、礦石冶煉、輪子、寫作、青銅、鋼鐵、水車、三桅帆船、印刷術(shù)、蒸汽機、工廠體系、鐵路、鐵輪船、內(nèi)燃機、電力、汽車、飛機、大規(guī)模生產(chǎn)、計算機、精益生產(chǎn)、互聯(lián)網(wǎng)、生物技術(shù)、納米技術(shù)。
按照不同的標準,可以對GPT進行不同的分類。例如,在Lipsey等[5]就給出了兩種分類方法:一種是按照技術(shù)呈現(xiàn)的形態(tài)進行分類,可以將GPT分為產(chǎn)品型技術(shù)、流程型技術(shù)和組織型技術(shù);另一種則是根據(jù)技術(shù)的最終用途進行分類,可以將GPT分為材料技術(shù)、能源技術(shù)、交通技術(shù)、組織技術(shù)、信息和通訊技術(shù)。(二)GPT與生產(chǎn)率的關(guān)系
與SPT不同,GPT的發(fā)明并不能立即帶來生產(chǎn)率的顯著變化。具體來說,GPT作用的發(fā)揮在很大程度上依賴于基礎(chǔ)設(shè)施,以及與其相關(guān)的具體應(yīng)用的數(shù)量和普及程度。一般來說,在一項GPT被發(fā)明出來后會經(jīng)歷兩個階段:在第一階段,與GPT相關(guān)的各項基礎(chǔ)設(shè)施沒有普及,各項相關(guān)應(yīng)用也沒有被開發(fā)出來。此時GPT并不會馬上對生產(chǎn)率產(chǎn)生提升效果。甚至由于在這個階段需要對基礎(chǔ)設(shè)施和應(yīng)用發(fā)明進行大量的投資,產(chǎn)生大量的成本,因而從總體上看整個經(jīng)濟的生產(chǎn)率甚至?xí)窍陆档摹T诘诙A段,隨著基礎(chǔ)設(shè)施的建成、具體應(yīng)用的開發(fā),GPT對生產(chǎn)率的作用就會逐漸體現(xiàn)出來。在Helpman和Trajtenberg[6]的研究中,以上兩個階段分別被稱為“播種階段”(Time to Sow)“收獲階段”(Time to Reap)。以美國經(jīng)濟為例,在電氣化技術(shù)被發(fā)明出來之初,其對經(jīng)濟的影響微乎其微,但到了19世紀90年代,以尼亞加拉水電站為代表的一批重要電力設(shè)施建立起來后,電氣化對美國經(jīng)濟的提升作用就開始體現(xiàn)。1915年之后,電力網(wǎng)絡(luò)在美國逐步普及,獨立輔助發(fā)電器開始廣泛應(yīng)用,電氣化對生產(chǎn)率的影響才隨之變得明顯。同樣,在IT技術(shù)發(fā)展的早期,其對生產(chǎn)率的影響也并不顯著,由此還誕生了著名的“索洛悖論”。但是,隨著計算機普及,互聯(lián)網(wǎng)、云計算等基礎(chǔ)設(shè)施的建立,IT技術(shù)在提升生產(chǎn)率方面的作用終于得到體現(xiàn)。歐洲央行在一份報告中指出,“從歷史視角來看,索洛悖論并不是什么悖論”,其原因正在于此[7]。
需要指出的是,GPT對生產(chǎn)率的影響在很大程度上取決于其擴散的程度。例如,Jovanovic和Rousseau[8]曾經(jīng)對電氣化和IT技術(shù)這兩種GPT對生產(chǎn)率的影響進行過比較。結(jié)果發(fā)現(xiàn),截至其研究發(fā)表時,IT技術(shù)對生產(chǎn)率的影響要遠小于電氣化的影響。Jovanovic和Rousseau[8]認為,這是由于電氣化技術(shù)可以更為平穩(wěn)地與更多資本存量結(jié)合,從而迅速融入更多部門當中,相比之下,IT技術(shù)在其發(fā)展初期只能應(yīng)用于較少部門,其傳播和擴散速度較為緩慢。不過,他們也發(fā)現(xiàn),與電氣化相比,IT技術(shù)的動態(tài)性更強,與其相關(guān)的技術(shù)發(fā)明速度和專利申請量都要勝過電氣化,同時其相關(guān)產(chǎn)品的成本下降趨勢也更為明顯。因此,他們預(yù)期IT技術(shù)對生產(chǎn)率的影響將會在未來逐步顯露出來。
(三)GPT的社會影響
GPT的擴散通常表現(xiàn)為一個“創(chuàng)造性毀滅”(Creative Destruction)的過程。它可能在促進生產(chǎn)力提升的同時,顛覆既有的經(jīng)濟秩序。在這個過程中,可能會造成一系列復(fù)雜的經(jīng)濟、社會和組織影響。限于篇幅,本文集中討論其中的三種影響。
1.GPT對競爭的影響
從理論上講,GPT的擴散可能會重新配置企業(yè)之間的競爭優(yōu)勢,從而可能讓固守舊技術(shù)的在位大企業(yè)沒落,而率先采用新技術(shù)的中小企業(yè)則可能趁勢興起,但現(xiàn)實卻并非如此[9]。1一些實證研究證實了這一點,如Jovanovic和Rousseau[8]曾考察過1988—2001年間不同規(guī)模的資本回報狀況。他們發(fā)現(xiàn),從長期看,小企業(yè)的年資本增值率要比大企業(yè)高出7.5%。但是,在電氣化和IT技術(shù)這兩種GPT的主要擴散時期,大小企業(yè)在資本增值率方面的相對差異并沒有明顯變化。也就是說,“創(chuàng)造性毀滅”的作用效果并不明顯。
對于這種現(xiàn)象有很多解釋。其中的一個解釋來自Schumpeter[10]。他認為,當技術(shù)引發(fā)的“創(chuàng)造性毀滅”到來時,在位企業(yè)不愿意就此退出市場,因而會采用各種不正當?shù)母偁幨侄蝸碜璧K新興企業(yè)超越自己。另一種解釋則來自Aghion等[11]。他們認為,大企業(yè)也可能率先成為新技術(shù)的推動者。在這種情況下,它們相對小企業(yè)的競爭優(yōu)勢將會進一步凸顯,而這可能會反過來打擊小企業(yè)的創(chuàng)新動力,甚至讓它們放棄競爭。無論根據(jù)上面哪種解釋,都意味著在GPT迅速擴散的同時,也可能會發(fā)生比較嚴重的壟斷和不正當競爭問題。事實上,歷史也在一定程度上印證了這一理論。以美國為例,電氣化擴散的同時,也恰好是美國大型托拉斯興起的時期;在IT技術(shù)擴散的同時,一大批平臺巨頭也迅速崛起,并由此引發(fā)了平臺壟斷問題。
2.GPT的就業(yè)效應(yīng)
從歷史上看,很多GPT的發(fā)明和擴散都會對既有的工作方式產(chǎn)生重大沖擊,并帶來明顯的就業(yè)影響。一方面,新技術(shù)的擴散會讓很多采用舊技術(shù)的人失去工作,從而產(chǎn)生“技術(shù)性失業(yè)效應(yīng)”;另一方面,新技術(shù)的擴散又會催生很多新的就業(yè),從而產(chǎn)生“補償效應(yīng)”[12]。例如,蒸汽機和工廠體系的出現(xiàn)搶走了很多手工業(yè)者飯碗的同時,卻創(chuàng)造出工人這個新職業(yè);汽車的出現(xiàn)搶走了馬車夫生意的同時,卻創(chuàng)造出司機這個新就業(yè)崗位。盡管從長期看,后一種效應(yīng)通常會勝過前一種效應(yīng),從而使新增的就業(yè)數(shù)量超過消失的就業(yè)數(shù)量,但從短期看,前一種效應(yīng)通常會更占優(yōu)勢,因而技術(shù)性失業(yè)就成為了新技術(shù),尤其是GPT擴散過程中經(jīng)常出現(xiàn)的一種現(xiàn)象。
3.GPT對收入分配的影響
GPT的擴散會從多個機制對收入分配產(chǎn)生影響。技術(shù)的影響是有偏向性的,如果某種技術(shù)是資本偏向性的,就可能減少對勞動力的需求,這會讓勞動力的工資下降,從而導(dǎo)致勞動力收入在總收入中所占的份額也隨之減少[13]。例如,經(jīng)濟史學(xué)家Allen[14]曾經(jīng)對18世紀早期至20世紀初的工資狀況進行過研究,結(jié)果發(fā)現(xiàn)在這個曾出現(xiàn)眾多GPT的時間段內(nèi),企業(yè)的利潤率出現(xiàn)了大幅增長,但與此同時,真實工資水平卻一直維持不變。在經(jīng)濟史上,這一現(xiàn)象被稱為“恩格斯停滯”(EngelsPause)。1從技術(shù)偏向性的角度看,“恩格斯停滯”產(chǎn)生的主要原因是這個時期主要GPT幾乎都是替代勞動力的。例如,蒸汽機、火車、汽車等的出現(xiàn),都大幅降低了市場對勞動力的需求,這就導(dǎo)致了工資的停滯不前。此外,GPT的擴散可能還有助于“巨星”企業(yè)的發(fā)展,使其在行業(yè)內(nèi)的份額變得更高。由于這類企業(yè)通常都有高資本密集度的特點,因而“巨星”企業(yè)的發(fā)展就會加劇勞動力份額在總收入中占比減少的趨勢[15]。
二、生成式AI:原理和發(fā)展
(一)生成式AI的技術(shù)原理簡介
生成式AI和分析式AI的根本區(qū)別是:后者采用的是“判別式建?!保―iscriminative Modelling),其目的是通過訓(xùn)練樣本數(shù)據(jù)來提升模型的判斷能力,從而能夠幫助人們實現(xiàn)對訓(xùn)練外樣本性質(zhì)的判斷;而生成式AI采用的則是“生成式建?!保℅enerative Modelling),它學(xué)習(xí)的目的是創(chuàng)造出和訓(xùn)練樣本中數(shù)據(jù)類似的新數(shù)據(jù)(如圖1所示)。舉例來說,一個分析式AI通過學(xué)習(xí)大量梵高的作品,就可以在遇到一幅新作品時判斷出它是否為梵高所畫;而一個生成式AI在進行了類似的學(xué)習(xí)后,就可以創(chuàng)造出類似梵高風格的新作品。
雖然從表面上看生成式AI非常神奇,但從本質(zhì)上看,生成式AI就是一個概率模型。通過對樣本數(shù)據(jù)的學(xué)習(xí),生成式AI可以形成一個關(guān)于數(shù)據(jù)的分布模型,所謂“生成”新數(shù)據(jù)的過程就是從這個分布模型中進行重新抽樣的過程。目前,人們已經(jīng)提出了很多不同的生成模型,它們之間在分布模型的構(gòu)建,以及樣本的抽取上都存在著很大差別,各方面表現(xiàn)也不盡相同。在這些分布模型中,最有代表性的有五類:自回歸模型、生成式對抗網(wǎng)絡(luò)模型(GAN模型)、變分自編碼模型(VAE模型)、流模型和擴散模型。
第一,自回歸模型[16]。自回歸模型是文本生成模型中經(jīng)常用到的一種模型,ChatGPT在訓(xùn)練中就采用了這一模型。這種模型的原理非常直觀,即根據(jù)之前出現(xiàn)的語句來對后續(xù)可能出現(xiàn)語句的概率分布進行建模,并挑選概率最高的那個語句作為生成內(nèi)容。例如,當AI學(xué)習(xí)了大量文本后發(fā)現(xiàn),如果在一段文字中出現(xiàn)了“生成式”這三個字,后面出現(xiàn)“AI”的可能性是最高的,那么它在遇到“生成式”之后就會生成“AI”。
第二,生成式對抗網(wǎng)絡(luò)模型[17]。GAN模型的基本思想來自博弈論中的零和博弈。具體來說,它構(gòu)造兩個相互對抗的網(wǎng)絡(luò),分別作為生成器和判別器。其中,生成器通過訓(xùn)練樣本進行學(xué)習(xí),并根據(jù)學(xué)習(xí)結(jié)果生成數(shù)據(jù),其目的是讓判別器相信所生成的數(shù)據(jù)是真實的;而判別器則根據(jù)訓(xùn)練樣本的學(xué)習(xí)結(jié)果對訓(xùn)練外的數(shù)據(jù)進行判別,其目標是正確判斷這些數(shù)據(jù)是否是生成的。通過這種對抗,生成器和判別器的性能就可以同時得到提升,由該模型生成的數(shù)據(jù)也就越來越接近真實。不過,GAN模型的缺陷也很明顯。由于它不直接對訓(xùn)練樣本進行建模,因而其可解釋性非常差,并且也難以保證生成數(shù)據(jù)和訓(xùn)練數(shù)據(jù)來自同一分布。
第三,變分自編碼模型[18]。和GAN模型不同,VAE模型會直接對訓(xùn)練樣本進行概率建模。包含兩個部分:編碼器和解碼器。其中,編碼器負責對訓(xùn)練樣本中各潛變量(Latent Variable)的均值和方差信息進行建模,解碼器則利用這些信息生成新的數(shù)據(jù)。VAE模型會不斷將生成的數(shù)據(jù)和訓(xùn)練數(shù)據(jù)進行對比,以此對潛變量的均值和方差信息進行重復(fù)校正。這樣,生成內(nèi)容的信息質(zhì)量就能得到持續(xù)改進。由于VAE模型對訓(xùn)練樣本直接進行概率建模,因而具有很強的可解釋性,并且可以有效保證生成數(shù)據(jù)和訓(xùn)練數(shù)據(jù)來自同一分布。
第四,流模型[19]。流模型會直接計算決定數(shù)據(jù)表征的潛變量的分布和數(shù)據(jù)表征分布之間的轉(zhuǎn)移函數(shù),并由此直接反推出潛變量的分布狀況,完整地還原出訓(xùn)練數(shù)據(jù)的概率模型。顯然,流模型具有很強的可解釋性,并且可以保證生成數(shù)據(jù)和訓(xùn)練數(shù)據(jù)來自相同分布。不過,其對計算的要求很高,因而需要較強的算力支持。
第五,擴散模型[20]。擴散模型由前向擴散過程和反向生成過程構(gòu)成。在前向擴散過程中,模型會根據(jù)事先學(xué)習(xí)的一些參數(shù),通過一個馬爾可夫過程對原數(shù)據(jù)逐步加入噪聲,直到將數(shù)據(jù)變?yōu)榻萍冊肼暤乃綖橹埂T诜聪蛏蛇^程中,模型則對之前處理的數(shù)據(jù)進行逐步減噪,由此生成新的數(shù)據(jù)。通過不斷將新生成數(shù)據(jù)與原數(shù)據(jù)進行對比,就可以不斷校正參數(shù),讓模型的質(zhì)量更高。
2.重要訓(xùn)練架構(gòu)
除了訓(xùn)練方法之外,訓(xùn)練架構(gòu)也是生成式AI的重要支柱。在對神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練時,人們開發(fā)了很多訓(xùn)練架構(gòu)模型,如卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)模型、循環(huán)神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)模型等。這些模型在生成式AI的訓(xùn)練中依然被廣泛使用。但是,與這些經(jīng)典模型相比,對生成式AI發(fā)展推動更大的模型則是Transformer模型。
Transformer模型最早的應(yīng)用場景是自然語言處理(Natural Language Processing,NLP)。在處理這類問題時,模型需要對之前處理過的信息有所記憶,但CNN、RNN等經(jīng)典模型要么難以處理記憶問題,要么不能處理并行計算,運作效率很低。Transformer通過創(chuàng)造性地引入了一種被稱為“自注意”(Self?Attention)機制成功地解決了這些問題[21]。這種機制可以根據(jù)某個詞語所處的位置來確定與這個位置關(guān)聯(lián)最大的詞語的概率分布,從而不僅可以處理記憶問題,還可以支持并行計算。借助Transformer模型,NLP的處理效率得到了突飛猛進的發(fā)展,ChatGPT等明星級產(chǎn)品最終得以出現(xiàn)。當然,目前Transformer模型的應(yīng)用已經(jīng)不再局限于NLP,而是被廣泛應(yīng)用到了圖形、語音處理等各個領(lǐng)域,從而成為了生成式AI,是整個深度學(xué)習(xí)的一種通用訓(xùn)練架構(gòu)。
正是在上述這些訓(xùn)練模型和訓(xùn)練架構(gòu)的支撐之下,生成式AI才在當前實現(xiàn)了高速發(fā)展。
(二)生成式AI發(fā)展簡史
生成式AI的歷史原型可以追溯到20世紀60年代的聊天機器人Eliza,但直到2014年GAN模型被提出,它才開始了實質(zhì)性發(fā)展。最早引起人們關(guān)注的生成式AI用例是“深度偽造”(Deepfake)。所謂“深度偽造”是指借助GAN模型,將人的形象、表情、聲音進行拼接,并合成音頻和視頻的技術(shù)。2018年,互聯(lián)網(wǎng)上出現(xiàn)了很多利用“深度偽造”合成的虛假視頻,并引發(fā)了爭議,但客觀上,它也首次讓人們認識到生成式AI的力量。此后,隨著VAE、擴散模型等新訓(xùn)練方法的提出和應(yīng)用,生成式AI迎來了高速發(fā)展。尤其是在2022年,諸如Dall?E2、Stable Diffusion、MidJourney、Flamingo等產(chǎn)品相繼面世,生成式AI市場開始進入繁榮時期。
當然,生成式AI領(lǐng)域最大的突破還是來自“大型語言模型”(Large Language Models,LLM)。2017年,Transformer模型架構(gòu)被提出,NLP模型的發(fā)展取得了突破。從此,很多企業(yè)都開始構(gòu)建自己的LLM。其中,最有代表性的模型就是OpenAI的GPT系列和谷歌的BERT系列。GPT的全稱是“生成式預(yù)訓(xùn)練”(Generative Pre?Training)模型,其采用的訓(xùn)練方法是自回歸算法,通過前面出現(xiàn)過的文字來推斷下文。人們現(xiàn)在所熟知的ChatGPT、GPT-4等都是這個系列的產(chǎn)物。BERT模型(Bidirectional Encoder Representations from Transformers,BERT)則采用了自編碼技術(shù),根據(jù)前后文來生成內(nèi)容,其邏輯類似于完形填空。盡管現(xiàn)在BERT模型的知名度并不如GPT系列產(chǎn)品,但它在很多方面的性能甚至比GPT系列更優(yōu)。谷歌正在研發(fā)中的很多大模型就是基于BERT模型開發(fā)的。
最近一段時間,生成式AI迎來了大爆發(fā)。在ChatGPT的爆火引發(fā)了人們對生成式AI的關(guān)注后,國內(nèi)外各大企業(yè)都將生成式AI作為重點發(fā)展方向,大量的生成式AI在短期內(nèi)紛紛涌現(xiàn)。與此同時,生成式AI的普及也十分迅速,目前已經(jīng)有很多企業(yè)將生成式AI應(yīng)用于自己的業(yè)務(wù),并構(gòu)造出了對應(yīng)的商業(yè)模式。從各方面看,生成式AI已經(jīng)從孕育期轉(zhuǎn)入了爆發(fā)期。
三、生成式AI的GPT屬性
關(guān)于AI是否是一項GPT,已經(jīng)有不少文獻進行過討論。一些觀點認為,AI已經(jīng)被廣泛應(yīng)用于多個領(lǐng)域,并且發(fā)展十分迅速,因而具有了GPT屬性;另一些觀點則認為,雖然廣義上的AI被應(yīng)用于很多領(lǐng)域,但AI本身的含義過寬,在不同領(lǐng)域應(yīng)用的AI模型在原理上存在著很大的差別,并不能被稱為是一類技術(shù)。例如,知識圖譜和機器學(xué)習(xí)雖然都歸于AI的范疇,但其實是兩種差異化的技術(shù)。從這個角度看,它們不應(yīng)該被認為是GPT。
本文不對廣義上的AI模型是否應(yīng)該屬于GPT進行討論,本文關(guān)注的焦點是生成式AI。如前所述,生成式AI模型從本質(zhì)上都屬于深度學(xué)習(xí)模型的分支,在訓(xùn)練方法、模型架構(gòu)上也都有很強的共性,因而大致上可以屬于一種單獨的技術(shù)類別。那么,這種技術(shù)是否可以被歸入GPT的范疇呢?為了回答這個問題,需要檢驗它是否具有普遍適用性、進步性和創(chuàng)新孕育性。
(一)關(guān)于普遍適用性的檢驗
檢驗一種技術(shù)是否屬于GPT的首要標準是它是否可以普遍使用。具體到生成式AI,需要檢驗它是否可以在垂直領(lǐng)域內(nèi)得到大規(guī)模的應(yīng)用。這個問題的答案是肯定的。無論是在消費端,還是在產(chǎn)業(yè)端,生成式AI都有廣泛的應(yīng)用前景。在很多領(lǐng)域,使用者只需要用提示詞(Prompt)對預(yù)訓(xùn)練模型進行引導(dǎo)就可以得到符合專業(yè)需要的版本。相比于過去的分析式AI,生成式AI在各用途之間的轉(zhuǎn)換成本非常低。
1.消費端的應(yīng)用
在消費端,生成式AI可以為互聯(lián)網(wǎng)生態(tài)提供大量的內(nèi)容產(chǎn)品,從而豐富互聯(lián)網(wǎng)的多樣性,提升用戶的使用體驗。眾所周知,在Web1.0時代,互聯(lián)網(wǎng)的內(nèi)容產(chǎn)品主要來自“專業(yè)生產(chǎn)內(nèi)容”(Professional Generated Content,PGC),其內(nèi)容數(shù)量很小,難以滿足用戶需要;在Web2.0和Web3.0時代,“用戶生產(chǎn)內(nèi)容”(User Generated Content,UGC)開始大幅增加,這在很大程度上豐富了互聯(lián)網(wǎng)的生態(tài)[22]。不過,受創(chuàng)作者水平、激勵措施等因素的制約,UGC產(chǎn)品的質(zhì)量良莠不齊,其供給量也很難滿足用戶需求[23]。隨著生成式AI的面世,一種全新的內(nèi)容生產(chǎn)方式——“AI生產(chǎn)內(nèi)容”(AI Generated Content,AIGC)隨之誕生。相比于PGC和UGC,AIGC在內(nèi)容制作成本和內(nèi)容數(shù)量、質(zhì)量的穩(wěn)定性等方面都更有保證。這些特點決定了它可以被應(yīng)用到相當多的領(lǐng)域。目前,生成式AI在消費端的很多領(lǐng)域得到了應(yīng)用。限于篇幅,這里只對其中的五個領(lǐng)域進行介紹:
第一,日常辦公。生成式AI可以在用戶的指導(dǎo)下生成對應(yīng)的內(nèi)容,因而日常辦公中相對重復(fù)、創(chuàng)造性較低的任務(wù)都可以由生成式AI輔助完成。最近,不少企業(yè)已經(jīng)將生成式AI植入到辦公軟件當中。例如,2023年3月16日,微軟發(fā)布了Office 365 Copilot,這款新的應(yīng)用不僅可以根據(jù)用戶的提示直接生成Word、PPT和Excel等,還可以幫助用戶完成整理會議摘要、處理郵件等多種任務(wù)。也就是說,人們?nèi)粘^k公中的大部分任務(wù)都可以由Office 365 Copilot輔助完成。
第二,搜索。在搜索領(lǐng)域,目前微軟已經(jīng)將GPT-4模型應(yīng)用到搜索引擎中,形成了“新必應(yīng)”(New Bing)。新必應(yīng)可以根據(jù)用戶的需要實時從網(wǎng)上獲取相關(guān)信息,并將信息整理成文本進行輸出。和之前的ChatGPT不同,新必應(yīng)在對用戶的要求作答時,會給出確切的參考信息來源,這樣就可以在很大程度上保證輸出信息的可靠性。很多評論都認為,這種“AI+搜索”模式可以大幅提升人們從海量信息中檢索出自己所需要信息的效率,因而可能會成為新一代的搜索方式。
第三,教育。生成式AI可以幫助用戶創(chuàng)造獨特的學(xué)習(xí)環(huán)境和學(xué)習(xí)內(nèi)容,并根據(jù)其學(xué)習(xí)的反饋自動進行調(diào)整。通過這種方式,用戶的學(xué)習(xí)體驗和學(xué)習(xí)質(zhì)量就可以得到十分有效的提升。目前,已經(jīng)有不少平臺將生成式AI應(yīng)用于教育的實踐。例如,著名的在線語言學(xué)習(xí)平臺Duolingo就將GPT-3應(yīng)用于語法修改,這一舉措顯著提升了學(xué)習(xí)者的外語寫作能力。又如,一項來自教育機構(gòu)Knewton的研究表明,通過引入GPT-3為高校學(xué)生提供個性化教學(xué),可以有效提升教學(xué)質(zhì)量;另一項來自教學(xué)機構(gòu)Querium的研究則顯示,GPT-3可以很好地幫助數(shù)學(xué)和自然科學(xué)的教學(xué),讓學(xué)生更為直觀地理解教學(xué)內(nèi)容。
第四,金融服務(wù)。生成式AI在經(jīng)過進一步訓(xùn)練之后,可以充當個人的金融顧問,為個人提供投資理財、風險管理等各方面的建議。例如,在一項研究中,人們對ChatGPT的金融知識進行了測試。結(jié)果顯示,其得分已經(jīng)達到了充當金融顧問的水平。并且,由于相比于人類顧問,ChatGPT作為顧問會被人們認為更加客觀,因而在實踐中更加容易被人們所接受[24]。
第五,醫(yī)療。以ChatGPT為代表的生成式AI不僅可以輔助用戶診斷病情,針對病情給出特定的就醫(yī)和用藥建議,還可以根據(jù)患者的描述和醫(yī)生的診斷自動生成病例記錄,從而大幅提升患者就診和醫(yī)生診斷的效率。需要指出的是,GPT-4目前已經(jīng)可以支持圖形識別,這為計算機根據(jù)圖形診斷病情提供了基礎(chǔ),從而可以大幅提升診斷的準確率。
2.產(chǎn)業(yè)端的應(yīng)用
在產(chǎn)業(yè)端,生成式AI的應(yīng)用同樣非常廣闊。根據(jù)著名咨詢機構(gòu)Gartner的研究,其中最有代表性的應(yīng)用場景包括工業(yè)設(shè)計、藥物研發(fā)和材料科學(xué)。
第一,工業(yè)設(shè)計。當前的工業(yè)設(shè)計通常采用線性化的流程,不僅步驟繁多,耗費巨大,而且在每一步都可能產(chǎn)生錯誤,導(dǎo)致設(shè)計原型報廢,從而產(chǎn)生嚴重浪費。如果采用生成式AI輔助設(shè)計,上述問題就可以得到較好的解決。AI不僅可以根據(jù)設(shè)計人員的思路迅速提出多套方案,還可以直接對各套方案進行比較評估,供設(shè)計人員選擇,這樣就可以有效節(jié)省設(shè)計成本、縮短設(shè)計時間,還可以有效減少浪費[25]。以芯片設(shè)計為例,在設(shè)計過程中,設(shè)計人員需要在微小的晶片上嘗試各種組件的排列方案。實踐中,可供選擇的排列方案非常多,甚至可能達到數(shù)十億種。如果依靠人力對這些方案一一嘗試,就會產(chǎn)生巨大的成本,研發(fā)周期也會非常久。針對以上問題,很多企業(yè)已經(jīng)開始將生成式AI應(yīng)用到芯片的設(shè)計當中。例如,谷歌正在利用生成式AI輔助設(shè)計TPU1芯片,英偉達也在其GPU芯片的設(shè)計當中使用了生成式AI。
第二,藥物研發(fā)。在藥物研發(fā)的過程中,研究人員需要在海量的化合物當中不斷試錯,探索可供入藥的成分。這使得藥物的研發(fā)成為了一項周期長、成本高的工作。研究數(shù)據(jù)顯示,美國研究一款新藥的平均時間為12年,平均成本則高達26億美元[26]。如果引入生成式AI來輔助研究人員識別化合物的分子結(jié)構(gòu),并根據(jù)需要對分子結(jié)構(gòu)進行重構(gòu)和修改,那么研發(fā)時間就可以大幅度縮短,研發(fā)成本也可以大幅度降低[27]。以DeepMind的AlphaFold對蛋白質(zhì)結(jié)構(gòu)的預(yù)測為例:在AlphaFold投入應(yīng)用之前,人們用實驗方法了解的蛋白質(zhì)折疊結(jié)構(gòu)大約為幾萬種。而AlphaFold則用很短時間就破解了現(xiàn)在已知的一百多萬個物種的2.14億種蛋白質(zhì)結(jié)構(gòu)[28]。在被破解的結(jié)構(gòu)中,35%已經(jīng)達到了和實驗方法破解相當?shù)木龋?0%的結(jié)果有很高的可靠性,可以被用于后續(xù)的分析研究。
此外,生成式AI在直接的藥物研發(fā)上也已經(jīng)有了不少的應(yīng)用。例如,英矽智能(Insilico Medicine)曾利用生成式AI開發(fā)治療纖維化的新型DDR1激酶抑制劑,整個開發(fā)過程僅僅用了21天[29]。這個速度要遠遠高于傳統(tǒng)的開發(fā)方式。
第三,材料科學(xué)。生成式AI既可以幫助研究人員更好地了解各種材料的結(jié)構(gòu)及化學(xué)性質(zhì),還可以根據(jù)需要對材料進行“反演設(shè)計”(Inverse Design),因而在材料科學(xué)領(lǐng)域大有用武之地[30]。幾年前人們已經(jīng)開始將GAN、VAE等生成技術(shù)應(yīng)用于新材料的研發(fā)。例如,德國馬克斯·普朗克科學(xué)促進會下屬的鋼鐵研究所不久前提出了一種基于機器學(xué)習(xí)的高熵合金設(shè)計方案,從而大幅提升了設(shè)計效率。應(yīng)用這個方法,該研究團隊已經(jīng)成功設(shè)計出了多種高熵因瓦合金[31]。又如,沙特阿卜杜拉國王大學(xué)的研究團隊也借助生成式AI對光學(xué)納米材料進行反演設(shè)計,其設(shè)計效果也得到了很大的改進[32]。
綜合以上分析不難看到:生成式AI在各個領(lǐng)域都有巨大的應(yīng)用潛力。事實上,在以ChatGPT為代表的生成式AI爆火之后,已有大量的企業(yè)和個人開始使用ChatGPT。例如,不久前美國的《財富》雜志進行了一次調(diào)查,結(jié)果顯示在被訪的一千多家企業(yè)中,有50%的企業(yè)已經(jīng)開始使用ChatGPT,另有30%的企業(yè)計劃使用[33]。由此可見,生成式AI確實具有GPT所要求的普遍適用性。
(二)關(guān)于進步性的檢驗
作為一種技術(shù),生成式AI的進步是十分迅速的,主要表現(xiàn)為如下四個方面:
1.模型規(guī)模的膨脹
以GPT系列的發(fā)展為例:2018年6月,GPT-1面世時,其參數(shù)僅為1.1億,預(yù)訓(xùn)練數(shù)據(jù)量也僅有5GB;到2019年2月GPT-2推出時,參數(shù)達到了15億,預(yù)訓(xùn)練數(shù)據(jù)量也增加到了40GB;而到2020年5月GPT-3推出時,參數(shù)已經(jīng)猛增到1 750億,預(yù)訓(xùn)練數(shù)據(jù)量也猛漲到45TB。此后,OpenAI又在GPT-3的基礎(chǔ)上增加了參數(shù)量和訓(xùn)練數(shù)據(jù)量,將其升級為GPT-3.5,并用GPT-3.5訓(xùn)練ChatGPT。盡管ChatGPT并沒有對外公布其確切的參數(shù)量和預(yù)訓(xùn)練數(shù)據(jù)量,顯然這些數(shù)字都要高于GPT-3。在GPT-4推出之前,曾有傳聞?wù)f,其參數(shù)量將達到100萬億,與人類大腦神經(jīng)元數(shù)量相當。盡管該消息最終被確認為不實消息,但可以肯定的是,GPT-4模型的體量應(yīng)該比GPT-3.5有很大的增加。
2.模型性能的提升
由于AI模型的性能很大程度上取決于其參數(shù)和訓(xùn)練數(shù)據(jù)的量,因而隨著這兩者的飛速增長,生成式AI模型的表現(xiàn)也出現(xiàn)了突飛猛進的發(fā)展。仍以GPT系列為例,在GPT-3之前,由于模型的參數(shù)量和訓(xùn)練數(shù)據(jù)量都很少,其表現(xiàn)并不突出,而GPT-3和ChatGPT在大幅增加參數(shù)量和訓(xùn)練數(shù)據(jù)量之后,無論是語義識別能力、邏輯推理能力,還是問題解決能力都有了質(zhì)的飛躍。到了GPT-4,這種提升就更加明顯。根據(jù)OpenAI官方公布的技術(shù)報告,如果讓ChatGPT參加總分400分的美國律師資格考試,其得分為213分,大約只能勝過10%的人類考生;而如果讓GPT-4參加這一考試,則可以得到298分,可以勝過90%的人類考生[34]。
3.模型使用成本的下降
以ChatGPT的使用成本為例:在OpenAI開放ChatGPT的API接口之前,對外開放的一直是instructGPT版本。這個模型的性能比ChatGPT稍差,其收費大約為每千個令牌(Token)0.02美元。按此計算,進行一輪對話的成本大約與目前推送一次搜索廣告的成本相當。2023年3月1日,OpenAI開放了ChatGPT的API,其收費下降到了每千個令牌0.002美元,僅為原來的1/10。這樣一來,ChatGPT相對搜索廣告的成本優(yōu)勢就十分明顯了,這為其未來的商業(yè)應(yīng)用創(chuàng)造了無限的想象空間。
4.從單模態(tài)到多模態(tài)的跨越
在生成式AI發(fā)展的早期,模型大多是單模態(tài)的。例如,從GPT-1到GPT-3,以及ChatGPT都是文本輸入、文本輸出,而最近,多模態(tài)模型成為更為流行的選擇,Dall-E2、Midjourney等模型都可以根據(jù)輸入的文字信息輸出圖形,GPT-4可以從圖形中讀取信息并生成文字,也能根據(jù)文字生成圖形,而微軟的Kosmos-1模型則可以同時處理文字、圖形、音頻和視頻。
總而言之,生成式AI的進步十分迅速。不久前,OpenAI的創(chuàng)始人Altman在自己的社交媒體上提出了一個“智能摩爾定律”:“宇宙中的智能數(shù)量每18個月翻一番?!北M管有不少評論人士批評該“定律”語焉不詳,甚至有炒作之嫌,但在某種程度上,它其實是對過去一段時間內(nèi)生成式AI發(fā)展的很好概括。由此可見,對于GPT所要求的進步性,生成式AI也可以很好的滿足。
(三)關(guān)于創(chuàng)新孕育性的檢驗
生成式AI對創(chuàng)新的孕育表現(xiàn)在如下三個層面:
1.對人工智能創(chuàng)新的推進
近十多年來,人工智能的發(fā)展主要來自機器學(xué)習(xí)領(lǐng)域,而這個領(lǐng)域的發(fā)展對數(shù)據(jù)有非常高的依賴性。在具體的實踐當中,數(shù)據(jù)的搜集和整理不僅成本高、質(zhì)量難控制,還可能衍生出侵犯個人隱私、威脅數(shù)據(jù)安全等問題,這些都制約機器學(xué)習(xí)的發(fā)展。為了應(yīng)對這些問題,一些學(xué)者建議可以使用合成數(shù)據(jù)作為真實數(shù)據(jù)的補充,供機器學(xué)習(xí)使用。與真實數(shù)據(jù)相比,合成數(shù)據(jù)至少具有以下三點優(yōu)勢:
第一,從訓(xùn)練效果上看,用合成數(shù)據(jù)進行訓(xùn)練的效果并不比真實數(shù)據(jù)差,在一些場合,它們的表現(xiàn)甚至更優(yōu)異。在真實數(shù)據(jù)的形成過程中,可能混入很多不必要的噪聲信息,這就可能對其質(zhì)量造成影響,而合成數(shù)據(jù)則沒有這樣的問題。麻省理工學(xué)院、波士頓大學(xué)和IBM曾聯(lián)合做過一項研究,用真實數(shù)據(jù)和合成數(shù)據(jù)分別訓(xùn)練模型識別人類行為,結(jié)果是采用合成數(shù)據(jù)進行訓(xùn)練的模型表現(xiàn)要比采用真實數(shù)據(jù)進行訓(xùn)練的模型更優(yōu)[35]。
第二,從成本上看,合成數(shù)據(jù)要遠遠低于真實數(shù)據(jù)。例如,合成數(shù)據(jù)服務(wù)提供商AI.Reverie曾提供過一組數(shù)據(jù):用人工方式標注一張圖片,平均成本需要6美元,而如果用AI合成一張圖片則只需要6美分,其成本僅為前者的1%[36]。由于在機器學(xué)習(xí)過程中用到的數(shù)據(jù)通常是海量的,因而用合成數(shù)據(jù)代替真實數(shù)據(jù)將會產(chǎn)生巨大的成本節(jié)約。
第三,從法律上看,合成數(shù)據(jù)可以規(guī)避很多風險。合成數(shù)據(jù)都是由AI生成的,而非向個人采集的,因而就可以避免漏露隱私、數(shù)據(jù)安全等眾多問題。對于企業(yè)而言,用這樣的數(shù)據(jù)來訓(xùn)練模型就更加沒有后顧之憂。
綜合以上原因,用生成式AI合成數(shù)據(jù)將有助于突破阻礙機器學(xué)習(xí)發(fā)展的數(shù)據(jù)瓶頸,這對于促進機器學(xué)習(xí)的進步將會起到十分重要的作用。
2.對其他科研領(lǐng)域創(chuàng)新的促進
著名哲學(xué)家懷特海在回顧科技進步的歷史時曾經(jīng)說過:“19世紀最大的發(fā)明是找到了發(fā)明的方法?!庇纱丝梢?,找到新的“發(fā)明方法”或“發(fā)現(xiàn)方法”對于推進創(chuàng)新是十分關(guān)鍵的。從某種意義上講,生成式AI的出現(xiàn)其實就是發(fā)現(xiàn)了一種新的發(fā)明或發(fā)現(xiàn)的方法。
從本質(zhì)上講,發(fā)明創(chuàng)新是一種對各種要素的組合。傳統(tǒng)上,人們基于既有知識對要素的組合進行探索,因而具有很強的路徑依賴性。正是因為這個原因,在早期的內(nèi)生增長文獻中,都習(xí)慣于將創(chuàng)新(也就是知識的增長)視為既有知識的函數(shù)。在應(yīng)用了生成式AI這個新工具后,人們可以以更低廉的成本去探索更多組合的可能,這就讓創(chuàng)新可以在更大程度上突破既有知識的藩籬,有了更大的可能性。正如前文中已經(jīng)指出的,生成式AI已經(jīng)在生物、化學(xué)、制藥等需要大量試錯的領(lǐng)域得到了廣泛應(yīng)用,并對這些領(lǐng)域的知識和要素重組起到了很大的促進作用。顯然,這種“組合式創(chuàng)新”將會大幅提升這些領(lǐng)域的技術(shù)進步速度[37]。
3.技術(shù)進步的回振作用
生成式AI在促進各垂直領(lǐng)域技術(shù)進步的同時,這些垂直領(lǐng)域的技術(shù)進步也會反過來促進生成式AI本身的進步。一個典型的例子就是生成式AI和機器人學(xué)的互動。不久前,谷歌的機器人團隊和谷歌創(chuàng)新團隊聯(lián)合研發(fā)了一款生成式語言模型PaLM?E[38]。這款模型可以根據(jù)不同類型的數(shù)據(jù),如圖像、聲音、文本等對機器人進行控制,讓它們完成各種任務(wù)。應(yīng)用PaLM?E,研究者可以更容易地完成對機器人性能的各種測試,從而促進機器人技術(shù)的進步。反過來,機器人技術(shù)的進步也要求更好的控制技術(shù),從而對PaLM-E的性能提出更多要求,促進其進步。通過這種互動關(guān)系,生成式AI和機器人學(xué)就可以同時獲得進步。
綜合以上分析可以看到,生成式AI確實具有GPT所要求的創(chuàng)新孕育性。至此,Bresnahan和Trajtenberg[2]提出的關(guān)于GPT的三條標準已經(jīng)全部檢驗完畢。因此,筆者得出的結(jié)論是生成式AI應(yīng)當可以被認為是GPT。
四、對GPT的生成式AI提出的挑戰(zhàn)
由GPT的一般理論可知,生成式AI的發(fā)展和普及過程會遭遇很多問題和挑戰(zhàn)[39]。無論是對政策制定者還是研究者,這些問題和挑戰(zhàn)十分值得重視。
(一)制約生成式AI發(fā)展的障礙
1.基礎(chǔ)設(shè)施的缺乏
在GPT的研發(fā)和擴散過程中,基礎(chǔ)設(shè)施的作用是十分突出的。例如,如果沒有電力網(wǎng)絡(luò),那么電力這種GPT的力量就無法發(fā)揮作用;而如果沒有網(wǎng)絡(luò)基礎(chǔ)設(shè)施,那么計算機和互聯(lián)網(wǎng)等GPT的作用也會受到很大的限制。同樣的道理,對于生成式AI來說,如果沒有對應(yīng)的基礎(chǔ)設(shè)施,其發(fā)展速度也會大打折扣。
具體到生成式AI,其發(fā)展需要的“硬性”基礎(chǔ)設(shè)施和“軟性”基礎(chǔ)設(shè)施在我國現(xiàn)階段都是比較缺乏的。
第一,“硬性”基礎(chǔ)設(shè)施。所謂“硬性”基礎(chǔ)設(shè)施,即支撐生成式AI發(fā)展所需要的硬件設(shè)施。限于篇幅,本文僅聚焦其中的兩樣:算力和存儲。
首先,算力。雖然生成式AI的產(chǎn)生主要得益于算法層面的改進,但其能夠迅速成熟、迅速擴散則主要依賴于算力的助推。相關(guān)研究已經(jīng)表明,在深度學(xué)習(xí)中,即使算法本身沒有進步,當訓(xùn)練數(shù)據(jù)大幅增加時,“涌現(xiàn)”效應(yīng)就會出現(xiàn),模型的性能就會出現(xiàn)質(zhì)的變化。當然,大規(guī)模數(shù)據(jù)訓(xùn)練并不是沒有成本的,需要巨大的算力投入。例如,在訓(xùn)練GPT-3時,OpenAI建立了專門的數(shù)據(jù)中心,動用了上萬塊英偉達A100 GPU芯片。正是這種龐大的算力投入,才保證了后來GPT-3和ChatGPT模型的出色性能。隨著大模型的普及,生成式AI對算力的依賴性正變得越來越強[40]??傮w上看,提升算力水平的途徑有如下三條:一是通過采用高性能芯片,提升單位計算單元的算力水平;二是通過建設(shè)數(shù)據(jù)中心、智算中心,通過集中大量運算單元來提升算力水平;三是通過對量子計算等新型方式的開發(fā)和應(yīng)用,從根本上改變計算方式。從目前看,這三條路徑都會遭遇不少障礙:一是客觀上講,我國的芯片研發(fā)和生產(chǎn)能力還和西方存在著差距,在短期內(nèi)難以生產(chǎn)滿足生成式AI大模型訓(xùn)練所需要的芯片,加之西方對我國的封鎖和禁運,要購買高性能芯片也很困難,這就決定了我國很難通過采用高性能芯片來提升算力;二是雖然我國已經(jīng)建立了大量的數(shù)據(jù)中心,但這些數(shù)據(jù)中心安裝的要么是CPU,要么是相對低端的GPU,很難支撐生成式AI大模型的訓(xùn)練;三是雖然我國在量子計算的理論和實踐上已經(jīng)有很大的突破,但受量子計算特性的影響,很難直接用量子計算解決大模型所需要的算力。綜合以上三點,至少在未來的幾年內(nèi),算力依然可能是制約我國生成式AI發(fā)展的一大瓶頸。
其次,存儲設(shè)施。在生成式AI模型的訓(xùn)練過程中會產(chǎn)生大量的數(shù)據(jù)存儲需求,而在這些需要存儲的數(shù)據(jù)中,非結(jié)構(gòu)化數(shù)據(jù)將會占據(jù)很大部分。為了能夠?qū)@些非結(jié)構(gòu)化數(shù)據(jù)進行更好的整理、檢索和存儲,人們提出了向量數(shù)據(jù)庫的解決方案。向量數(shù)據(jù)庫專門用于存儲、索引和查詢嵌入向量,這些向量都是通過機器學(xué)習(xí)模型傳遞非結(jié)構(gòu)化數(shù)據(jù)而生成的。對于構(gòu)建專有大型語言模型的組織而言,向量數(shù)據(jù)庫至關(guān)重要,但至今為止,我國向量數(shù)據(jù)庫的建設(shè)依然是落后的。
顯然,如果要在未來一段時間內(nèi)大力發(fā)展生成式AI,就必須首先在算力、存儲等基礎(chǔ)設(shè)施上進行大量投入。
第二,“軟性”基礎(chǔ)設(shè)施。影響技術(shù)發(fā)展的“軟性”基礎(chǔ)設(shè)施有很多,包括法律制度環(huán)境、研發(fā)環(huán)境等。限于篇幅,本文僅強調(diào)影響生成式AI的“軟性”基礎(chǔ)設(shè)施之一,即開源環(huán)境。
隨著IT技術(shù)的發(fā)展,開源平臺和開源社區(qū)在軟硬件研發(fā)當中的重要性正在日益凸顯。在開源平臺上,來自不同國家、不同企業(yè)的研究人員可以相互交流思想,交換各自的發(fā)明發(fā)現(xiàn),很多重要的技術(shù)革新都首先出現(xiàn)在開源平臺上。以生成式AI為例,無論是重要的訓(xùn)練算法,還是訓(xùn)練架構(gòu)的核心思想,都最先在開源平臺上出現(xiàn),然后在開源社區(qū)經(jīng)過討論、打磨后逐步完善。由此可見,對于未來生成式AI的發(fā)展來說,開源平臺和開源社區(qū)是必不可少的。
現(xiàn)在,世界上已經(jīng)有很多著名的開源平臺和開源社區(qū),我國很多企業(yè)也都深度參與其中,但總體來說,我國企業(yè)在這些開源平臺和開源社區(qū)的影響力和話語權(quán)都不夠大。更為重要的是,當前國際形勢風云變幻,這些開源平臺和開源社區(qū)對我國企業(yè)的態(tài)度很容易受到國際形勢變化的影響。如果它們對我國企業(yè)進行了封鎖,那么我國企業(yè)在生成式AI的研發(fā)過程中就會失去重要的交流環(huán)境。顯然,這會對相關(guān)研發(fā)進程產(chǎn)生非常負面的影響。
2.技術(shù)擴散過程中的協(xié)調(diào)問題
GPT要發(fā)揮作用,就必須擴散到各個具體領(lǐng)域當中,產(chǎn)生出各種具體的用途。在這個過程中,就會產(chǎn)生協(xié)調(diào)問題。具體來說,GPT的研發(fā)和推廣會涉及很多不同的子系統(tǒng),而各子系統(tǒng)的發(fā)展速度、行業(yè)標準通常會不一致[41]。如果這種不一致得不到很好的解決,那么GPT的擴散就會受到影響。例如,隨著生成式AI的火熱,國內(nèi)很多企業(yè)都開始研發(fā)相關(guān)產(chǎn)品,但與此同時,國內(nèi)生成式AI的應(yīng)用生態(tài)相比于國外還存在著很大的差距。如果不解決好應(yīng)用生態(tài)相對技術(shù)研發(fā)滯后的問題,那么即使相關(guān)的產(chǎn)品研發(fā)得到突破,也很難從中獲得對應(yīng)的經(jīng)濟回報,其長期可持續(xù)發(fā)展也會因此受到阻礙。
(二)生成式AI帶來的“創(chuàng)造性毀滅”
和所有的GPT一樣,生成式AI的發(fā)展也會帶來“創(chuàng)造性毀滅”,由此會引發(fā)技術(shù)性失業(yè)、收入分配惡化,以及壟斷和不正當競爭等問題。
1.技術(shù)性失業(yè)問題
從凱恩斯開始,經(jīng)濟學(xué)家們就開始對技術(shù)進步引發(fā)的失業(yè)問題表示關(guān)切。從“深度學(xué)習(xí)革命”后,人工智能就一直被視為可能引發(fā)新一輪技術(shù)性失業(yè)的重要源頭。早在2013年,牛津大學(xué)的學(xué)者Frey和Osborne[42]就曾對人工智能可能產(chǎn)生的就業(yè)沖擊進行過分析。他們的研究表明,在二十年內(nèi),美國的702個職業(yè)崗位中的47%都可能會受到人工智能的沖擊,由此可能造成上千萬人失業(yè)。需要指出的是,根據(jù)他們的研究,在人工智能時代,一個職業(yè)所受沖擊的大小與其所要求的教育水平,以及其所提供的薪酬都是負相關(guān)的??傮w來說,一個職業(yè)要求的教育水平越高,從業(yè)者的薪酬越高,那么這個職業(yè)可能受人工智能的沖擊就越小。
與分析式AI一樣,生成式AI的發(fā)展也可能引發(fā)大規(guī)模的技術(shù)性失業(yè)。最近,OpenAI的幾位研究員Eloundou等[34]發(fā)表了一篇論文指出,大約 80% 的美國勞動者可能至少有 10% 的工作任務(wù)會受到 GPT等生成式AI大模型的影響,其中大約 19% 的勞動者至少有 50% 的工作任務(wù)會受到影響。
需要指出的是,不同于Frey和Osborne[42]的研究,他們認為,對教育水平要求更高、對從業(yè)者支付薪酬更高的崗位會受生成式AI大模型的沖擊。例如,根據(jù)Frey和Osborne[42]的估計,程序員、律師等崗位都是受人工智能影響較小的工作,但根據(jù)OpenAI的估計,這些都可能是生成式AI沖擊之下的“高?!甭殬I(yè)。
2.收入分配惡化問題
生成式AI的發(fā)展可能會帶來收入分配格局的重大變化:
一方面,作為帶有技術(shù)偏向性的技術(shù),生成式AI可能會引發(fā)不同職業(yè)勞動者薪酬的變動[43]。對于那些可能被生成式AI替代的職業(yè),如程序員、設(shè)計師等,其薪酬水平可能會因此而大幅下降;而對于那些和生成式AI互補性較強的職業(yè),如提示工程師(Prompt Engineer)、AI工程師等,其薪酬水平則可能出現(xiàn)大幅上漲。由于技術(shù)帶來的職業(yè)沖擊需要一定的時間消化,至少在短期內(nèi),受到生成式AI負面影響的人應(yīng)該會比受到其正面影響的人更多,這就會導(dǎo)致整個勞動力群體獲得的總收入下降。另一方面,由于生成式AI帶有十分明顯的資本密集型特征,因而隨著這一技術(shù)的發(fā)展,資本的收益率將會大幅提升。尤其是主導(dǎo)該技術(shù)的頭部“巨星企業(yè)”[44],更可能在這一輪技術(shù)革命中獲益豐厚。
綜合以上兩個方面,如果不加干預(yù),生成式AI的發(fā)展很可能導(dǎo)致資本回報在國民收入中的比例大幅上升,而勞動力回報在國民收入中的比例則大幅下降。
3.壟斷和不正當競爭問題
同每一次GPT的引入一樣,生成式AI的發(fā)展和擴散可能會對市場競爭格局產(chǎn)生重大的影響,與此同時,也會帶來很多新的競爭問題。
第一,由持股關(guān)系導(dǎo)致的合謀?,F(xiàn)在很多生成式AI模型的研發(fā)都是由巨頭企業(yè)和其所投資的新創(chuàng)企業(yè)合作開發(fā)的。例如,ChatGPT雖然是OpenAI推出的,但其背后離不開微軟的巨大支持,并且微軟還持有大量的OpenAI股份。這種合作形式可以給研發(fā)活動帶來很多的便利:由于像微軟這樣的上市企業(yè)受嚴格的財務(wù)制度制約,因而很難長時間、大投入、無回報地支持某種技術(shù)的研發(fā);而OpenAI這樣的初創(chuàng)企業(yè)雖然沒有這樣的制度約束,但其自身通常沒有足夠的資金從事研發(fā)活動。因此,通過類似的投資和持股關(guān)系,就可以很好地避免制度約束,讓更有創(chuàng)新力的新創(chuàng)企業(yè)獲得足夠的資金從事顛覆性技術(shù)研發(fā)。不過,這種合作關(guān)系也客觀上造成兩者之間的合謀。在OpenAI通過高密度研發(fā),推出了ChatGPT、Dall?E2等先進的AI模型后,OpenAI就選擇了微軟作為其唯一的合作對象,而微軟也迅速將這些AI模型結(jié)合到自己的各種產(chǎn)品中。容易看到,面對微軟和OpenAI的這種合作,它們的對手將很難與之開展競爭。
第二,濫用市場支配地位。由于類似ChatGPT這樣的大型生成式模型的研發(fā)都需要大量的資金和技術(shù)投入,因而只有少數(shù)力量雄厚的巨頭企業(yè),或者由巨頭支持的初創(chuàng)企業(yè)有能力進行研發(fā)。這樣一來,一個大模型一旦面世,也就自然地獲得了一定的市場力量。為了排擠潛在的對手,擁有大模型的企業(yè)可能會對其市場力量進行濫用。例如,此前OpenAI大幅下調(diào)了ChatGPT的API接入價格,這固然有模型運營成本降低的因素,但一些猜想也認為,這更有可能是微軟和OpenAI用低價限制潛在對手進入的一種手段。如果這些猜想屬實,那么微軟和OpenAI就涉及掠奪性定價問題。又如,ChatGPT在市場上獲得成功后,微軟立即將其集成到自己的各種產(chǎn)品當中,這一行為很可能會涉及搭售問題。再如,不久前微軟對一些采用必應(yīng)搜索數(shù)據(jù)進行AI助手研發(fā)的企業(yè)提出警告,要求它們停止類似活動??紤]到搜索引擎檢索到的數(shù)據(jù)本身為公開信息,而重新在網(wǎng)絡(luò)層面建立索引數(shù)據(jù)庫的成本非常高,因而它在某種程度上可能構(gòu)成開發(fā)AI應(yīng)用的必需設(shè)施。如果是這樣,那么微軟的這一行為就可能涉及拒絕交易問題。
第三,并購控制問題。如前所述,現(xiàn)在很多科技巨頭為了在生成式AI領(lǐng)域取得優(yōu)勢,都對優(yōu)秀的AI初創(chuàng)企業(yè)進行了大量的投資。例如,微軟對OpenAI的投資總計已經(jīng)達到了數(shù)百億美元。在現(xiàn)實中,接受投資的初創(chuàng)公司和進行投資的巨頭之間通常會一致行動,從而對市場競爭格局造成顯著影響,但到目前為止,反壟斷監(jiān)管機構(gòu)很少對這種合作關(guān)系進行關(guān)注。
所有上述現(xiàn)象都可能給正常的競爭秩序帶來干擾,并影響生成式AI技術(shù)的進步和普及。因此,監(jiān)管者應(yīng)該對這些問題給予足夠的重視。
五、關(guān)于促進生成式AI發(fā)展的政策思考
通過前面的分析可知,作為GPT,生成式AI在未來的發(fā)展中將扮演至關(guān)重要的角色。目前生成式AI的發(fā)展還存在著很多障礙,并且在其發(fā)展過程中,還會引發(fā)很多問題。在這種情況下,要促進生成式AI的健康、平穩(wěn)、高速發(fā)展,并盡可能減少其發(fā)展過程中伴生的各種負面影響,就必須用相關(guān)的政策加以引導(dǎo),本文將主要討論以下三類政策:
(一)產(chǎn)業(yè)政策
根據(jù)Lipsey等[45]的觀點,在支持GPT的發(fā)展方面,一直有兩種不同的觀點:新古典觀點和結(jié)構(gòu)—演化觀點(Structure?Evolution Lenses,簡稱S?E觀點)。其中,新古典觀點假設(shè)政府具有完全信息和完備知識,可以識別出最優(yōu)的均衡狀態(tài),因而政府可以通過直接指令、補貼或稅收來誘導(dǎo)均衡的實現(xiàn);而S-E觀點則認為,GPT的擴散是通過演化實現(xiàn)的,政府并不能事先識別出最優(yōu)的均衡。因此,政府應(yīng)該做的就是建設(shè)支撐GPT研發(fā)和擴散的基礎(chǔ)設(shè)施,同時作為協(xié)調(diào)者,解決GPT擴散當中遭遇的協(xié)調(diào)問題。在實踐中,新古典觀點對應(yīng)的是“挑選贏家”的產(chǎn)業(yè)支持政策,S?E觀點對應(yīng)的則是現(xiàn)代的以塑造發(fā)展環(huán)境為主的產(chǎn)業(yè)政策。新近的研究表明,后一種產(chǎn)業(yè)政策通常是更有效的[46-47]。因此,在促進生成式AI方面,政府也應(yīng)該采用這種觀點,并以此來指導(dǎo)產(chǎn)業(yè)政策的制定。具體來說:
1.在扶持目標的選擇上,不宜以特定的產(chǎn)品或技術(shù)目標為對象,應(yīng)該更加重視塑造競爭環(huán)境,讓不同的產(chǎn)品、技術(shù)路徑可以彼此競爭
在ChatGPT獲得成功之后,有不少地方政府都表示要支持企業(yè)研發(fā)對標ChatGPT的產(chǎn)品,這種政策是值得商榷的。從目前看,生成式AI無論是在訓(xùn)練方法、訓(xùn)練框架,還是在產(chǎn)品構(gòu)思方面,都存在著很多彼此競爭的路徑。例如,在NLP領(lǐng)域,就有GPT和BERT這兩種重要的競爭路徑,雖然前者由于ChatGPT的流行而暫時獲得了優(yōu)勢,但這并不意味著從長期看BERT路徑一定不如GPT路徑。類似地,在文字生成圖片領(lǐng)域,GAN、流模型及擴散模型的競爭仍然十分激烈。在這種情況下,如果政府過度強調(diào)對標某一產(chǎn)品或技術(shù)路徑,就會對其他可能的技術(shù)發(fā)展方向造成抑制,從而不利于生成式AI整個領(lǐng)域的長期發(fā)展。相比之下,對所有產(chǎn)品、技術(shù)路徑都一視同仁,在政府采購、招標時只提性能、質(zhì)量要求,不對工藝技術(shù)進行強行規(guī)定,則是一種更為可取的思路。這樣的做法可以激勵各種技術(shù)路徑展開競爭,倒逼技術(shù)進步,最終促進生成式AI的健康發(fā)展。
2.應(yīng)當集中力量突破高性能芯片等“卡脖子”技術(shù),保障生成式AI“硬性”基礎(chǔ)設(shè)施的供給
對于生成式AI的發(fā)展來說,高性能芯片等技術(shù)的作用十分關(guān)鍵,單個企業(yè)很難突破這些關(guān)鍵技術(shù)。在這種情況下,政府應(yīng)該集中全國的科研力量,做好這些技術(shù)的攻關(guān)工作。具體來說,在進行技術(shù)攻關(guān)的過程中,可以參考美國的經(jīng)驗,組建一個類似“國防部高級研究計劃局”(Defense Advanced Research Projects Agency,DARPA)的機構(gòu)來協(xié)調(diào)分散在各機構(gòu)和企業(yè)中的科研力量[48]。這個機構(gòu)可以采用相對松散的組織機構(gòu),根據(jù)項目從不同的企業(yè)抽調(diào)所需的技術(shù)人員。一旦相關(guān)研發(fā)取得突破,該機構(gòu)還可以通過項目發(fā)包的方式提供資金支持,讓這些技術(shù)更快地實現(xiàn)產(chǎn)業(yè)化。借助這種模式,就可以比較好地整合各種研究資源,從而促進生成式AI的研發(fā),以及研發(fā)成果順利轉(zhuǎn)化。
3.應(yīng)當強化相關(guān)“軟性”基礎(chǔ)設(shè)施的供給,尤其是應(yīng)該引導(dǎo)國內(nèi)開源生態(tài)的形成
在促進技術(shù)發(fā)展方面,“軟性”基礎(chǔ)設(shè)施的作用不容忽視,政府應(yīng)當予以高度重視。具體到生成式AI的發(fā)展,政府應(yīng)當關(guān)注相關(guān)法律、法規(guī),以及行業(yè)標準的建設(shè),做好這些“軟性”基礎(chǔ)設(shè)施的供給者。尤其需要指出的是,目前我國在開源生態(tài)方面的建設(shè)還很落后,這會在很大程度上制約生成式AI的發(fā)展。針對這一問題,政府應(yīng)當投入專項資金支持開源平臺的建設(shè),并鼓勵企業(yè)積極參與建設(shè)開源生態(tài)。通過這些舉措,就可以有效激活生成式AI研發(fā)的交流生態(tài),對這一技術(shù)的發(fā)展產(chǎn)生顯著的推進作用。
4.應(yīng)當扮演好“協(xié)調(diào)者”角色,引導(dǎo)不同角色之間的相互配合,促進生成式AI的擴散
作為GPT,生成式AI對生產(chǎn)率的促進作用很大程度上取決于其擴散程度,因而政府需要積極促進生成式AI在各部門之間的擴散。在現(xiàn)實中,制約技術(shù)擴散的因素有很多。例如,不同行業(yè)所使用的技術(shù)標準不一,技術(shù)的發(fā)展程度、接受程度不同,以及一些具有市場力量的企業(yè)拒絕與其他企業(yè)互聯(lián)互通等,都有可能減緩技術(shù)擴散的速度。針對這些問題,政府應(yīng)當積極制定相關(guān)的通用標準,引導(dǎo)不同企業(yè)之間的互聯(lián)互通和技術(shù)合作。通過這些舉措,就可以有效加強不同企業(yè)之間的協(xié)調(diào),從而促進生成式AI在不同領(lǐng)域、不同部門之間的迅速擴散。
(二)就業(yè)和社會保障政策
隨著生成式AI的發(fā)展和普及,大量崗位都可能受到劇烈沖擊。至少在短期內(nèi),失業(yè)和收入分配惡化的問題可能會非常突出。針對這一情況,政府必須積極出臺相關(guān)的就業(yè)和社會保障措施來加以應(yīng)對。
1.應(yīng)當積極鼓勵服務(wù)業(yè)的發(fā)展
由于生成式AI具有較強的創(chuàng)造能力,對技術(shù)性的、以物為工作對象的就業(yè)崗位替代性非常強。相比之下,服務(wù)業(yè)尤其是那些以人為工作對象的、以為人提供情緒價值為主要目標的就業(yè)崗位則相對難以被AI替代。政府應(yīng)當積極鼓勵服務(wù)業(yè)的發(fā)展,創(chuàng)造更多就業(yè)崗位。
2.應(yīng)當積極鼓勵和引導(dǎo)零工經(jīng)濟、共享經(jīng)濟等新就業(yè)形態(tài)的發(fā)展
隨著生成式AI的普及,工作的性質(zhì)會發(fā)生很多改變:一方面,由于很多任務(wù)都可以由AI代為完成,大量就業(yè)崗位將不再需要全職勞動者;另一方面,隨著生成式AI的擴散,不斷會有新的就業(yè)崗位被替代,因而失業(yè)的人們會經(jīng)常需要暫時的工作機會。在這種情況下,社會上對更靈活、更具彈性的工作形態(tài)的需求就會增加。顯然,零工經(jīng)濟、共享經(jīng)濟等就業(yè)形態(tài)非常符合上述要求,不僅可以有效利用碎片化時間,還可以很好地充當“就業(yè)蓄水池”的作用,在技術(shù)性失業(yè)壓力增大時提供大量就業(yè)機會。因此,政府應(yīng)當對彈性工作的發(fā)展多加鼓勵和支持。
3.應(yīng)當建立終身培訓(xùn)體系,幫助因AI沖擊而失業(yè)的人實現(xiàn)再就業(yè)[49]
當人們因AI的沖擊失業(yè)后,會因缺乏相關(guān)技術(shù)而難以再就業(yè)。為了幫助這部分人實現(xiàn)再就業(yè),政府有必要建立培訓(xùn)體系,提供有針對性的培訓(xùn)服務(wù)。需要指出的是,即使是政府也未必掌握完整的市場信息,因而其提供的培訓(xùn)也可能不符合市場需求。為了解決這個問題,需要用相關(guān)機制來加強政府、用人企業(yè)及勞動者之間的協(xié)調(diào)。具體來說,可以設(shè)計一種“就業(yè)抵押貸款”機制:用人單位可以先和勞動者簽訂就業(yè)合同,并對其提出相關(guān)的技能要求。勞動者根據(jù)要求,以其未來的收入作為抵押,去相關(guān)培訓(xùn)機構(gòu)進行培訓(xùn),學(xué)成相關(guān)技能后再上崗。政府可以根據(jù)用人單位提供的信息為勞動者提供相應(yīng)的補貼,作為其參與技能培訓(xùn)的費用。利用這種方式,就可以有效減少因搜索和協(xié)調(diào)問題產(chǎn)生的成本,促進整個勞動力市場更高效的運作。
4.應(yīng)當做好社保的托底工作
無論政府如何引導(dǎo),在生成式AI的沖擊面前,總有一部分勞動者會因此而長期失業(yè)。對于這部分群體,政府應(yīng)該做好托底,滿足其基本生活需求。在未來機會合適時,還可以考慮探索“全民基本收入”(Unconditional Basic Income,UBI)制度,為全體公民按月提供一筆基本收入。至于托底性收入及未來的UBI資金來源,可以考慮向AI提供商及大規(guī)模使用AI的企業(yè)收稅來獲得。借助這種制度設(shè)計,就可以有效緩和因生成式AI普及而帶來的收入分配惡化問題,引導(dǎo)生成式AI創(chuàng)造的財富更好地為共同富裕事業(yè)服務(wù)。
(三)競爭政策
在生成式AI的發(fā)展過程中,容易引發(fā)很多新型的壟斷和不正當競爭問題。為了維護市場秩序正常運作,監(jiān)管機構(gòu)必須重視這些問題。
1.對科技巨頭與新創(chuàng)企業(yè)之間的合作關(guān)系應(yīng)當予以重點關(guān)注
一方面,對那些巨頭企業(yè)通過投資獲得初創(chuàng)企業(yè)控股權(quán)或決策權(quán)的情形,應(yīng)當進行并購審查;另一方面,對那些表面上不涉及控股問題的投資合作,應(yīng)當評估合作雙方的各種一致行動是否會帶來反競爭效果,是否構(gòu)成合謀。如果在審查和評估中發(fā)現(xiàn)問題,當立即予以糾正。
2.對于生成式AI所涉及的相關(guān)市場界定,以及市場力量的決定等基本問題,應(yīng)當主動開展研究
作為一個新事物,生成式AI的應(yīng)用潛力還沒有完全開發(fā)出來,生成式AI究竟可以替代哪些產(chǎn)品,和哪些產(chǎn)品形成競爭,涉及的相關(guān)市場究竟有哪些進入壁壘,這些問題都不是非常清楚。出于監(jiān)管的需要,應(yīng)當立即對這些基礎(chǔ)問題進行研究,摸清相關(guān)情況。
3.對于生成式AI的應(yīng)用合規(guī)問題,應(yīng)當出臺相關(guān)指南和細則
為了規(guī)范企業(yè)在生成式AI市場中的競爭行為,防止壟斷企業(yè)濫用市場支配地位,應(yīng)當在加強調(diào)查研究的基礎(chǔ)上,盡快出臺相關(guān)的行為指南和細則,有利于企業(yè)在競爭中有法可依,規(guī)范競爭。
六、結(jié) 語
在經(jīng)濟發(fā)展過程中,GPT是一類非常重要的技術(shù),其發(fā)展和傳播不僅會為經(jīng)濟發(fā)展注入新的動力,還會對整個經(jīng)濟的結(jié)構(gòu)進行重塑。作為一種新出現(xiàn)的技術(shù),生成式AI具有GPT所要求的普遍適用性、進步性和創(chuàng)新孕育性等特征,因而很可能會成為全新的GPT,對經(jīng)濟的貢獻潛力巨大。因此,無論是出于高質(zhì)量發(fā)展的需要,還是出于加強我國國際競爭力的考量,都需要大力支持生成式AI的發(fā)展,用好產(chǎn)業(yè)政策,對其進行支持。
與此同時,作為GPT,生成式AI的發(fā)展一定會伴隨著“創(chuàng)造性毀滅”過程。這會帶來技術(shù)性失業(yè)、收入分配惡化,以及壟斷和不正當競爭等問題。對于這些問題絕不能放任不管,必須用好相應(yīng)的政策來加以應(yīng)對。
總而言之,生成式AI的出現(xiàn)是一個巨大的發(fā)展機會。只要能夠用好政策加以妥善引導(dǎo),就可以揚長避短,讓生成式AI的力量得到更好發(fā)揮,讓這種新技術(shù)更好地造福人民。
參考文獻:
[1]???? HACKER P,ENGEL A,MAUER M. Regulating ChatGPT and other large generative AI Models[R].ArXiv Preprint,2023.
[2]???? BRESNAHAN T,TRAJTENBERG M. General purpose technologies: ‘engines of growth?[J].Journal of econometrics,1996,65(1): 83-108.
[3]???? CARLAW K,LIPSEY R. Externalities,technological complementarities and sustained economic growth[J].Research policy,2002,31(8-9): 1305-1315.
[4]???? BEKAR C,CARLAW K,LIPSEY R. General purpose technologies in theory,application and controversy: a review[R]. Simon Fraser University Department of Economics Working Papers,2016.
[5]???? LIPSEY R,CARLAW K,BEKAR C. Economic transformations: general purpose technologies and long?term economic growth[M].Oxford: Oxford University Press,2005:132.
[6]???? HELPMAN E, TRAJTENBERG M. A time to sow and a time to reap: growth based on general purpose technologies [R]. NBER Working Paper,1994.
[7]???? ANDERTON R. Virtually everywhere?? Digitalisation and the euro area and EU economies[R].European Central Bank,2020.
[8]???? JOVANOVIC B, ROUSSEAU P. General purpose technologies [C]// AGHION P,DURLAUF S. Handbook of economic growth( Volume 1B). Amsterdam: North Holland,2006: 1181-1225.
[9]???? CHRISTENSEN C. The innovators dilemma[M].Boston,MA: Harvard Business School Press,1997:257-261.
[10]??? SCHUMPETER J. The theory of economic development[M]. New York: Oxford University Press,1911:99-133.
[11]??? AGHION P,ANTONIN C,BUNEL S. The power of creative destruction: economic upheaval and the wealth of nations[M]. Cambridge: Belknap Press,2021:55-74.
[12]??? PETIT P. Employment and technological change [C]// STONEMAN P. Handbook of the economics of innovation and technological change. Amsterdam: North Holland,1995:366-408.
[13]??? ACEMOGLU D. Technical change,inequality,and the labor market[J].Journal of economic literature,2002,40(1):7-72.
[14]??? ALLEN R. Engels pause: technical change,capital accumulation,and inequality in the British industrial revolution[J].Explorations in economic history,2009,46(4): 418-435.
[15]??? AUTOR D,DORN D,KATZ L F,et al. The fall of the labor share and the rise of superstar firms[J].Quarterly journal of economics,2017,135(2): 645-709.
[16]??? BENGIO Y,DUCHARME R, VINCENT P. A neural probabilistic language model [J].Journal of machine learning research,2000,3(6):932-938.
[17]??? GOODFELLOW I ,POUGET?ABADIE J ,MIRZA M,et al. Generative adversarial nets [R]. Advances in Neural Information Processing Systems,2014.
[18]??? KINGMA D,WELLING M. Auto?encoding variational Bayes[R].ArXiv Preprint,2014.
[19]??? DINH L,KRUEGER D,BENGIO Y. NICE: Non?linear independent components estimation[R].ArXiv Preprint ,2014.
[20]??? HO J,JAIN A,ABBEEL P. Denoising diffusion probabilistic models[R]. Advances in Neural Information Processing Systems,2020.
[21]??? VASWANI A,SHAZEER N,PARMAR N,et al. Attention is all you need[R]. Advances in Neural Information Processing Systems,2017.
[22]??? 陳永偉,程華.元宇宙經(jīng)濟:與現(xiàn)實經(jīng)濟的比較[J].財經(jīng)問題研究,2022(5):3-16.
[23]??? 陳永偉.Web 3.0:變革與應(yīng)對[J].東北財經(jīng)大學(xué)學(xué)報,2022(6):27-39.
[24]??? NISZCZOTA P,ABBAS S. GPT as a financial advisor[R].SSRN Working Paper,2023.
[25]??? YOO S ,LEE S ,KIM S ,et al. Integrating deep learning into CAD/CAE system: generative design and evaluation of 3D conceptual wheel[J].Structural and multidisciplinary optimization,2021,64(4):2725-2747.
[26]??? BIAN Y,XIE X. Generative chemistry: drug discovery with deep learning generative models[J].Journal of molecular modeling,2021,27(3):1-18.
[27]??? WALTERS P,MURCKO M. Assessing the impact of generative AI on medicinal chemistry[J].Nature biotechnology,2020,38(2):143-145.
[28]??? CALLAWAY E. The entire protein universe: AI predicts shape of nearly every known protein[J].Nature,2022,608(7921):15-16.
[29]??? TANG B,EWALT J,NG H. Generative AI models for drug discovery[M]. Cham: Springer International Publishing,2021:221-243.
[30]??? LU S,ZHOU Q,CHEN X,et al. Inverse design with deep generative models: next step in materials discovery[J].National science review,2022,9(8):8.
[31]??? SANCHEZ?LENGELING B,ASPURU?GUZIK A. Inverse molecular design using machine learning: generative models for matter engineering[J].Science,2018,361(6400):360-365.
[32]??? LIU Z,ZHU D,RODRIGUES S P,et al. Generative model for the inverse design of metasurfaces[J].Nano letters,2018,18(10): 6570-6576.
[33]??? WILLIAMS T. Some companies are already replacing workers with ChatGPT,despite warnings it shouldnt be relied on for ‘a(chǎn)nything important [EB/OL].(2023-02-25)[2023-03-03].https://fortune.com/2023/02/25/companies?replacing?workers?chatgpt?ai/.
[34]??? ELOUNDOU T,MANNING S,MISHKIN P,et al. GPTs are GPTs: an early look at the labor market impact potential of large language models[R]. ArXiv Preprint, 2023.
[35]??? ZEWE A. In Machine learning,synthetic data can offer real performance improvements [EB/OL].(2022-10-03)[2023-03-03].https://news.mit.edu/2022/synthetic?data?ai?improvements?1103.
[36]??? ANDREWS G. Hat is synthetic data? [EB/OL].(2021-06-08)[2023-03-03].https://blogs.nvidia.com/blog/2021/06/08/what?is?synthetic?data/.
[37]??? AGRAWAL A,MCHALE J,OETTL A. Finding needles in haystacks: artificial intelligence and recombinant growth[M].Chicago: University of Chicago Press,2018: 149-174.
[38]??? DRIESS D,XIA F,SAJJADI M,et al. PaLM?E: An embodied multimodal language model[R]. ArXiv Preprint,2023.
[39]??? 陳永偉.超越ChatGPT:生成式AI的機遇、風險與挑戰(zhàn)[J].山東大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2023(3).
[40]??? SEVILLA J ,HEIM L ,HO A ,et al. Compute trends across three eras of machine learning[R]. International Joint Conference on Neural Networks ,2022.
[41]??? LIPSEY R,CARLAW K,BEKAR C. Economic transformations: general purpose technologies and long?term economic growth[M]. Oxford: Oxford University Press,2005:37-42.
[42]??? FREY B,OSBORNE M. The future of employment[R]. Oxford Martin School Working Paper,2013.
[43]??? ACEMOGLU D. Technical change,inequality,and the labor market[J].Journal of economic literature,2002,40(1):7-72.
[44]??? AUTOR D ,DORN D ,KATZ L F ,et al. The Fall of the labor share and the rise of superstar firms[J].Quarterly journal of economics,2020,135(2): 645-709.
[45]??? LIPSEY R,CARLAW K,BEKAR C. Economic transformations: general purpose technologies and long?term economic growth[M]. Oxford: Oxford University Press,2005:499-515.
[46]??? RODRIK D. Industrial policy for the Twenty?first Century[R]. SSRN Working Paper,2004.
[47]??? AGHION P,JING C,DEWATRIPONT M,et al. Industrial policy and competition[J].American economic journal: macroeconomics,2015,7(4):1-32.
[48]??? 郝君超,王海燕,李哲.DARPA科研項目組織模式及其對中國的啟示[J].科技進步與對策,2015(9):6-9.
[49]??? 陳永偉.人工智能與經(jīng)濟學(xué):近期文獻的一個綜述[J].東北財經(jīng)大學(xué)學(xué)報,2018(3):6-21.GPT as GPT:Opportunities and Challenges of the New Generation of Artificial Intelligence
CHEN Yong?wei
(Research Department, Journal of Comparative Studies, Beijing 100871, China)
Summary:This paper provides an overview of opportunities and challenges of the new generation of artificial intelligence (AI) from the perspective of general purpose technology (GPT). It also introduces recent development in generative AI, such as ChatGPT and GPT-4.
This paper first discusses whether AI can be considered a GPT. The first criterion for determining whether a technology is a GPT is its universality. In terms of generative AI, it needs to be examined whether it can be widely used in vertical fields. The answer to this question is yes.? Generative AI has broad application prospects in both consumer and industrial sectors. In many fields, users only need to guide pre?trained models with prompts to obtain results that meet professional needs at low conversion costs compared with traditional analytical AI. Generative AI can provide a large number of content products for the internet ecosystem on the consumer side, enriching internet diversity and improving user experience. On the industrial side, generative AI can help researchers better understand protein folding structures or design materials through inverse design methods based on their structure and chemical properties. The second criterion for determining whether a technology is a GPT is its progressiveness. Generative AI has made significant progress in recent years, especially with the development of deep learning models and training methods. The third criterion for determining whether a technology is a GPT is its innovation. Generative AI has the potential to create new business models and industries, as well as new products and services.
However, there are still many obstacles to the development of generative AI. One of the biggest challenges is the need for high computing power during model training. Another challenge is the need for large?scale facilities for data storage, especially for non?structured data. In addition to technical challenges, generative AI causes social challenges such as technological unemployment and income inequality. Governments need to adopt appropriate policies to address these issues while promoting the development of generative AI.
To promote the development of generative AI, governments should focus on following key areas. (1) R&D investment. Governments should invest in R&D of generative AI technologies to improve the performance and reduce costs. (2) Infrastructure construction. Governments should build high?performance computing facilities and large?scale data storage facilities to support the development of generative AI. (3) Promoting collaboration. Governments should encourage collaboration between academia, industry and government agencies to promote innovation in generative AI. (4) Talent training. Governments should invest in education and training programs to develop talent with expertise in generative AI technologies. (5) Addressing social challenges. Governments should adopt appropriate policies to address social challenges such as technological unemployment and income inequality that may arise from the development of generative AI.
Key words:generated AI; GPT; ChatGPT
(責任編輯:鄧 菁)