張詩濠 李 赟 李 韜
(1.北京師范大學,北京 100875;2.貴陽康養(yǎng)職業(yè)大學,貴州 貴陽 550081)
美國OpenAI公司推出的ChatGPT人工智能對話機器人,能夠通過學習人類語料庫,生成近乎完美的對話內(nèi)容,在短短兩個月內(nèi)就超過1億用戶,在全球掀起圍繞生成式人工智能應用的科技浪潮。然而,在人們憧憬ChatGPT類生成式人工智能融入社會生活各個領域的同時,其技術應用的風險也日益呈現(xiàn)。比如,在ChatGPT類生成式人工智能應用中,已經(jīng)出現(xiàn)通過AI生成文本、圖片、音視頻等虛假信息來實施欺詐犯罪行為;AI對個人隱私和知識產(chǎn)權(quán)的侵犯引發(fā)倫理與法律上的爭議;AI內(nèi)容生產(chǎn)被曝光存在大量民族偏見、種族歧視信息[1]。應該說,生成式人工智能可能帶來的一系列風險,引起社會各界的廣泛關注。那么,ChatGPT類生成式人工智能有著哪些主要的應用場景、存在著怎樣的運行機理、會帶來哪些可能的風險,面對種種風險我們又需要從哪些方面入手做好應對和治理,上述種種就成為當下探討ChatGPT類生成式人工智能發(fā)展應用的重要問題域。
ChatGPT類生成式人工智能擁有龐大的語料數(shù)據(jù)庫,具有強大的數(shù)據(jù)檢索和匹配反應能力,能夠?qū)崿F(xiàn)與人類的互動反饋。事實上,ChatGPT可能帶來的社會風險正是在“人—機”互動運行過程中產(chǎn)生的。因此,開展ChatGPT類生成式人工智能治理,就必須首先圍繞其主要應用場景進行梳理,探討其運行邏輯,厘清其在運行過程中的風險生成機理。
對ChatGPT主要應用場景和運行環(huán)節(jié)的梳理,有助于進一步探究其運行邏輯。如圖1所示,當前ChatGPT類生成式人工智能主要存在著知識問答、編程反饋、協(xié)同創(chuàng)作三種類型化的應用場景。
圖1 ChatGPT的類型化應用場景
一是知識問答型應用。側(cè)重信息獲取、知識學習等需求。在這類應用中,人類用戶提出問答需求,ChatGPT基于大數(shù)據(jù)和自然語言模型進行信息收集、整理和分析,生成答案內(nèi)容。由于ChatGPT具有海量預訓練數(shù)據(jù)庫,在對話中回答用戶提出的各類經(jīng)驗性知識提問時,類似于搜索引擎功能,但數(shù)據(jù)庫更為龐大,回答更為直接精準,且符合自然語言習慣。在這一類型應用中,ChatGPT運行依賴于對海量數(shù)據(jù)信息的占有,其運行效能的發(fā)揮要求數(shù)據(jù)本身的真實性、精確性和全面性。
二是編程反饋型應用。側(cè)重基于預訓練大模型的算法技術開展代碼編程。在這類應用中,人類用戶提出編程需求,ChatGPT依托內(nèi)在算法進行代碼編程處理,生成相應的程序代碼;人類用戶對代碼進行運行檢驗,提出進一步優(yōu)化需求,由ChatGPT反復修正代碼。上述步驟,實際上是生成式人工智能實施人類反饋強化學習(Reinforcement Learning from Human Feedback,RLHF)的訓練過程,AI機器人也在不斷學習、迭代中提升自身算法效能。
三是協(xié)同創(chuàng)作型應用。ChatGPT可以依據(jù)用戶需求,生成表格、圖像、音頻、視頻等不同類型的多模態(tài)內(nèi)容?;谶@樣的多模態(tài)生成技術,人類用戶可以與ChatGPT類生成式人工智能一起協(xié)作,在各類相關軟件插件配合下,完成文藝作品創(chuàng)作、繪圖設計、音視頻創(chuàng)作剪輯等任務。在這一類型應用中,ChatGPT運行依賴于AI對人類用戶需求的深刻理解,因此需要用戶在與AI機器人互動對話中不斷提供精準的個人信息,包括自身認知、情感、思想等個人隱私信息。
綜上可見,盡管在不同應用場景下人們使用ChatGPT有著不同的目的,但都存在著問題提出、分析需求、生成內(nèi)容、互動反饋,校準輸出等五個基本運行環(huán)節(jié)。在問題提出環(huán)節(jié),用戶根據(jù)自身實際情況向ChatGPT提出問題,表達自身需求;在分析需求環(huán)節(jié),ChatGPT會對用戶問題信息進行分析,以理解用戶的真實意圖,進一步細化需求;在生成內(nèi)容環(huán)節(jié),ChatGPT根據(jù)預訓練大語言模型算法,對語料庫大數(shù)據(jù)進行信息提取、分析、整理,生成相應的內(nèi)容;在互動反饋環(huán)節(jié),用戶結(jié)合ChatGPT生成的信息,進一步提問,不斷獲取更多的有效信息;在校準輸出環(huán)節(jié),ChatGPT結(jié)合用戶不斷對話下的新需求,完善生成內(nèi)容,最終得出讓用戶滿意的結(jié)果,或是用戶因不再繼續(xù)對話而終止互動。由此可見,ChatGPT的應用遵循著“人—機”互動互構(gòu)的運行邏輯。換言之,ChatGPT運行可能帶來的風險,一方面來自技術性的“非人類因素”[2],另一方面來則來自用戶“人類因素”。
ChatGPT在參與社會建構(gòu)的過程中,是如何帶來諸多風險的呢?為回應這一問題,就必須對ChatGPT風險生成的內(nèi)在機理進行梳理??偟脕砜?ChatGPT應用運行主要存在著以下五個方面的風險生成內(nèi)在機理。
第一,ChatGPT語料數(shù)據(jù)庫的建立,存在真假雙重性與匿名性。這是因為,ChatGPT的預訓練過程主要是通過抓取互聯(lián)網(wǎng)上的各類信息來初步建構(gòu)數(shù)據(jù)庫,網(wǎng)絡信息來源的真假雙重性,導致ChatGPT語料庫信息本身也具備了“真—假”雙重性。另外,由于所獲取的信息大多未經(jīng)所有者同意或取得授權(quán),其獲取數(shù)據(jù)的行為本身就在一定程度上有悖于“知情同意”原則,信息來源的匿名性也使得ChatGPT內(nèi)容生產(chǎn)在源頭上就缺乏明確的責任主體。
第二,ChatGPT的人機互動模式,以消除用戶隱私性為基本前提。ChatGPT運行以充分了解用戶需求為前提,實際上要求用戶不斷消除自身的隱私性壁壘。在人機交互過程中,用戶為了獲得更加精準和深入的輸出結(jié)果,不得不在與AI的互動中不斷暴露自身的真實目的、價值取向、結(jié)果預期,在不知不覺中解除了個人的隱私信息防備。比如,在問題提出環(huán)節(jié),用戶會提出問題或輸入指令,其中可能包含著很多與用戶直接相關的個人敏感信息;聊天界面的對話會被后臺的算法機制自動抓取,從而納入生成式人工智能模型的語料庫;如果用戶通過生成式人工智能模型處理合同、源代碼以及其他敏感文本,泄漏的風險與危害則會更大。
第三,ChatGPT對算法與算力的依賴,具有高度的技術單向性。盡管在ChatGPT運行過程中始終存在用戶的身影,但總體而言,由于算法不透明,用戶無法了解其計算規(guī)則,ChatGPT高度依賴自身算法和算力支撐,是一種高度的技術單向性運作。這就使得不同個體、企業(yè)、社群、國家等主體,由于對算法技術掌握程度不同、算力資源儲備各異,在實際操作過程中,會存在較大的輸出結(jié)果差異。比如,ChatGPT運行需要巨大算力資源支撐,因此不是所有企業(yè)都有能力參與到AI大模型產(chǎn)品研發(fā)和創(chuàng)新應用的競爭之中,久而久之容易造成AI技術優(yōu)勢下的企業(yè)行業(yè)壟斷、國家技術霸權(quán),加劇全球數(shù)字發(fā)展不平等。同樣,由于不同個體、群體在技術水平和資源占有上的差異,AI技術的接入和使用也存在著社會層級分化的風險。與此同時,AI大模型企業(yè)為了獲得更多的市場利潤,往往會傾向于開發(fā)市場回報率高的產(chǎn)品,人們在使用ChatGPT類產(chǎn)品的過程中,被誘導消費、思想操控、行動引導的風險更大,最終使得人工智能技術“演變?yōu)橐环N新的異己的力量”[3],加劇技術社會的整體性異化。
第四,ChatGPT結(jié)果輸出的高效便捷,具有技術沉溺誘導性。由于用戶能夠在AI技術賦能下實現(xiàn)最快最便捷的人機互動結(jié)果輸出,不再需要從面對面的人際交往中尋求答案,容易滋生萬事“唾手可得”的技術幻象,陷入一種“技術沉溺”之中。這樣的技術沉溺,容易造成兩個后果:第一,人與人之間身體在場的互動更加匱乏,基于情感分享和信任的社會共識變得更為困難;第二,以智能機器人形式出現(xiàn)的AI產(chǎn)品成為人類的替代品,“機器人”成為一種更具有主體性意義的存在物,使得AI時代的人機關系更為復雜,帶來諸多科技倫理風險。
第五,ChatGPT的工具理性邏輯,具有價值判斷真空性。在傳統(tǒng)社會內(nèi)容生產(chǎn)活動中,人們從事文學、繪畫、音樂等任何形式的創(chuàng)意表達時,都會以自身和社會主流的價值觀、文化規(guī)范和道德考量為指導。生成式人工智能作為一種機器學習式的算法模型,遵循目的導向的工具理性邏輯,本著效率最快、結(jié)果最優(yōu)的計算法則,側(cè)重根據(jù)用戶需求追求內(nèi)容生產(chǎn)效用最大化,而缺乏對這些內(nèi)容本身價值合理性的甄別與判斷。正是由于ChatGPT工具理性邏輯過于強勢,如果在其語料庫數(shù)據(jù)收集、整理和清洗過程中,沒有符合人類社會道德的價值判斷,就有可能收集大量影響人類社會健康發(fā)展的有害數(shù)據(jù)、傳播錯誤信息,進而存在影響社會穩(wěn)定的巨大風險。此外,單一工具理性邏輯下的價值判斷真空,也容易使得人工智能生成內(nèi)容存在被濫用和操縱的風險,在缺乏道德監(jiān)督和批判性評估的情況下,AI內(nèi)容生產(chǎn)存在較大的意識形態(tài)安全風險[4]。
ChatGPT應用運行主要涉及人類用戶與AI機器人兩種類型的行動者主體,其風險的產(chǎn)生也源自于“人—機”互動反饋下的一系列負面社會行動效能。目前來看,圍繞ChatGPT在各個領域的廣泛應用和相關風險生成機理,主要存在以下幾種比較典型的類型化風險。
當前,利用生成式人工智能開展內(nèi)容生產(chǎn),最為人所詬病的問題之一便是虛假信息的泛濫,這種虛假信息在知識獲取層面會成為一種錯誤的認知,在價值取向?qū)用娉蔀橐环N含有潛在行動引導的意識形態(tài),而在特定的媒介社會議程中則會演化為一種公共謠言。從圖1可見,虛假信息的生成不能純粹歸咎于AI技術缺陷,而主要是因為其預訓練語料庫中包含著虛假信息的源頭數(shù)據(jù),這些數(shù)據(jù)大量來自于網(wǎng)絡。實際上,網(wǎng)絡社會的崛起使得跨地域在線即時社交成為可能,這就使得虛假信息的傳播更為迅速、傳播范圍更為廣泛、社會負面影響更為巨大,而生成式人工智能的廣泛應用,必將助推虛假信息的進一步泛濫。尤其是在各類突發(fā)性公共事件中,不實信息的網(wǎng)絡傳播將給基于網(wǎng)絡大數(shù)據(jù)自動生產(chǎn)內(nèi)容的AI機器人帶來錯誤的“源數(shù)據(jù)”,使得AI機器人成為快速散布謠言的工具。此外,由于ChatGPT內(nèi)容生成完全依賴于大量的數(shù)據(jù)庫和語料庫,而在網(wǎng)絡場域的大量數(shù)據(jù)中充斥著種族主義歧視、性別歧視、色情、暴力、意識形態(tài)偏見等內(nèi)容,加上各類文本、圖像、音頻、視頻等多模態(tài)虛假信息的泛濫,必將給網(wǎng)絡生態(tài)治理帶來巨大壓力。
當今世界,數(shù)據(jù)安全已經(jīng)上升到國家高度[5]。如圖1所示,在三種主要類型的應用場景中,人類用戶在與ChatGPT開展對話時,時刻在進行著不間斷的信息交互,包括用戶性別、職業(yè)、喜好、知識水平、精神狀態(tài)、情感立場等等,都可以通過特定方式被AI機器人整理分析,在算法技術之下,AI對用戶進行數(shù)字畫像的精準性也日益提升。當越來越多的社交互動平臺嵌入ChatGPT插件后,這些精準畫像將進一步成為對用戶定點投放廣告、定向推送特定商品的最有力工具。大量的個人隱私也將通過關聯(lián)ChatGPT的應用軟件不斷被收集提取,形成一個個數(shù)字資料庫,存在人機互動下數(shù)字隱私信息泄露的巨大風險。
一般認為,數(shù)字鴻溝包括數(shù)字技術的“接入溝”和“使用溝”兩個層面。然而,隨著ChatGPT等新一代生成式人工智能大模型機器人的出現(xiàn),人們在接入AI應用、利用AI技術開展社會實踐、運用AI技術紅利提升自身可行能力等方面呈現(xiàn)出一種新的數(shù)字鴻溝——“AI溝”。而且,從圖1可見,對ChatGPT類生成式人工智能的利用,需要用戶對AI技術的基本把握,尤其是在“人—機”互動反饋諸多環(huán)節(jié),用戶本身對相關問題核心要點的提煉、對AI機器人技術運行的引導,直接影響著AI應用的整體效果,這就使得不同人類主體之間AI技術紅利差異的“AI溝”越來越大。這樣的AI溝不僅僅是發(fā)生在個體與個體之間,還進一步向不同群體、企業(yè)、社會組織、民族國家等多元主體擴展。比如,在國家層面,各國由于在經(jīng)濟實力、人才儲備、數(shù)字基礎設施建設等方面的差異,無法在AI技術發(fā)展和應用中保持同步跟進,AI技術差距越來越大,造成全球AI技術發(fā)展不平等,AI治理體系話語權(quán)也逐漸被AI強國主導,滋生AI霸權(quán)主義。在企業(yè)和組織機構(gòu)層面,不同行業(yè)AI接入應用程度不同,相同行業(yè)不同企業(yè)和組織之間發(fā)展不一,也將導致數(shù)字不平等的加劇。在個體層面,隨著AI技術服務收費,數(shù)字貧富人口差距也將日益明顯。可以看出,ChatGPT作為新一代AI應用程序,一方面使得AI技術進入尋常百姓家,另一方面也使得數(shù)字貧困人口在新技術紅利上受到不平等待遇。
事實上,對話和交流是人類社會生存的基本需求,而ChatGPT的出現(xiàn),使得原子式的個體更加沉浸在虛擬空間對話之中,現(xiàn)實空間的社會交往將更加匱乏。美國社會心理學家雪莉·特克爾(Sherry Turkle)就指出,數(shù)字技術的發(fā)展在現(xiàn)實與虛擬之間建立了一個復雜糾結(jié)的關系,互聯(lián)網(wǎng)盡管為人們提供了一個充滿想象的虛擬世界,但卻并沒有給人們帶來共同體的溫暖體驗,反而使得人們陷入一種群體性孤獨之中,這是因為數(shù)字虛擬空間給人們提供的是一個“作出承諾而不必履行的連接”[6]。沉浸在這種日益單向度化的數(shù)字社會,人們無法期待面對面交往時所能夠獲得的情感與價值認同,只會在技術物化、技術異化的歧途上越走越遠,而現(xiàn)實社會的建構(gòu)更新與發(fā)展維系也將變得愈發(fā)艱難。實際上,特克爾提出了一個關系著現(xiàn)代社會建構(gòu)和發(fā)展的關鍵命題——社會認同。英國社會心理學家亨利·塔菲爾(Henri Tajfel)在考察社會建構(gòu)時最早正式提出了“社會認同”(Social Identity)概念,并將其定義為“個體認識到他(或她)屬于特定的社會群體,同時也認識到作為群體成員帶給他的情感和價值意義”[7]。塔菲爾認為,社會認同可以分為社會分類、社會比較和積極區(qū)分三個階段,而各個階段都是以人與人之間的社會交往與社會信任為基本前提。誠然,基于互聯(lián)網(wǎng)的數(shù)字交往已經(jīng)成為當下人們重要的交往方式,但是這種符號化的交往是一種身體“缺場”的交往,無法實現(xiàn)現(xiàn)實社會面對面身體“在場”交往中的個體情感與價值意義。
一般認為,人工智能機器人對人類而言只是一種更為先進的科技工具,人機關系也限定在生產(chǎn)者與生產(chǎn)工具的關系范疇。然而,如圖1中協(xié)同創(chuàng)作類型應用可見,以ChatGPT為代表的新一代生成式人工智能機器人的出現(xiàn),使得數(shù)字內(nèi)容生產(chǎn)成為人類與機器協(xié)作共同完成的過程,不管機器是否具有獨立自主意識,但客觀上已經(jīng)分擔了勞動生產(chǎn)的實質(zhì)性任務。換言之,發(fā)端于特定的數(shù)字內(nèi)容生產(chǎn)任務,在由人類發(fā)起的對話式的數(shù)字勞動過程中,人類是主導者,ChatGPT是協(xié)作者,聊天對話本身則是承載數(shù)字勞動的特定形式。毫無疑問,人類與ChatGPT在這里都成為了生產(chǎn)者,而ChatGPT內(nèi)容生產(chǎn)所依賴的數(shù)據(jù)、語料、算法等則成為一種特殊的生產(chǎn)資料。由此可見,在人機對話數(shù)字內(nèi)容生產(chǎn)中,ChatGPT已經(jīng)成為與人類互動的行動者主體,一種新型的人機關系將成為AI時代重要的社會生產(chǎn)關系之一。與此同時,由于人們利用AIGC模型開展數(shù)字勞動的多樣性,人機關系生產(chǎn)也必然呈現(xiàn)出多元化、復雜化的特點,必然會對其他各個維度的社會關系產(chǎn)生重要影響,也必將帶來新的社會倫理問題。
近年來,隨著人工智能技術在各行各業(yè)的深入發(fā)展和應用,加強人工智能治理已經(jīng)成為社會共識。OpenAI首席技術官米拉·穆拉蒂(Mira Murati)在接受《時代周刊》采訪時承認,ChatGPT面臨的核心挑戰(zhàn)是模型偏差,關鍵在于如何以符合人類價值觀的方式來使用它,生成式人工智能需要監(jiān)管機構(gòu)介入,以防止對社會產(chǎn)生潛在的負面影響[8]。穆拉蒂是參與ChatGPT研發(fā)的核心人員,其對ChatGPT應用的預判和擔憂具有象征性意義,作為AI機器人創(chuàng)造者的人類,需要對所創(chuàng)之物進行監(jiān)管,更需要在如何運用技術這把雙刃劍上作出審慎的思考,開展有效的技術規(guī)制與治理。如圖2所示,應從五個方面全面加強對生成式人工智能的治理。
圖2 ChatGPT類生成式人工智能的治理路徑
隨著ChatGPT類生成式人工智能等技術的不斷深入應用,國家、政府機構(gòu)、社會組織、企業(yè)、個體等多元主體都成為人工智能時代的利益相關者,各個主體在開展人工智能治理中有著不同的角色定位和階段性重點責任。為此,必須充分調(diào)動各個主體參與治理的積極性、能動性,構(gòu)建多元主體共建共治共享的人工智能治理共同體。第一,組織制定數(shù)字技術規(guī)劃,加大對大型實驗平臺組建投入,加強大型網(wǎng)絡通信、大數(shù)據(jù)中心、算力等數(shù)字基礎設施建設,優(yōu)化數(shù)字資源布局。第二,由主管部門和地方政府落實政策支持,研究出臺不同應用場景下的AI管理辦法,加強對算法的倫理審查,推動算法透明、避免算法黑箱和算法偏見,營造良好產(chǎn)業(yè)發(fā)展環(huán)境。第三,由社會組織推動技術交流、調(diào)研社會需求、推進產(chǎn)學研融合。第四,由企業(yè)主導產(chǎn)品創(chuàng)新應用,自覺建立分類分級的人工智能技術備案、審查和監(jiān)管制度體系。第五,由個人用戶做好產(chǎn)品反饋和規(guī)范化使用監(jiān)督,不斷提出產(chǎn)品改進建議,維護自身合法數(shù)字權(quán)益,督促產(chǎn)品更新和優(yōu)化。
從虛假信息泛濫、數(shù)字隱私泄露、技術異化以及人機科技倫理等風險來看,加強對人工智能技術的全過程監(jiān)管十分必要。第一,在ChatGPT產(chǎn)品研發(fā)和應用的算法設計環(huán)節(jié),應落實算法備案制度,將履行告知義務、參數(shù)報備、參數(shù)公開和規(guī)定算法可解釋權(quán)等治理手段納入算法治理的公共政策考量之中。第二,在算法運行環(huán)節(jié),ChatGPT基于與用戶的對話交互,獲取大量用戶信息,應公開對話中的算法邏輯,恪守《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》《關于構(gòu)建數(shù)據(jù)基礎制度更好發(fā)揮數(shù)據(jù)要素作用的意見》等數(shù)據(jù)信息法律法規(guī),切實保護數(shù)據(jù)安全和用戶個人隱私。第三,在算法反饋環(huán)節(jié),要加強倫理數(shù)據(jù)標簽分級分類,引導算法正能量,對危害公序良德內(nèi)容進行倫理限制,對涉及違法犯罪信息應及時予以服務終止,并對用戶進行警示性提示。第四,在算法更新環(huán)節(jié),注重用戶體驗,切實吸收用戶反饋,完善算法,提升服務效能。
現(xiàn)代社會作為一種復雜社會、風險社會,往往會涌現(xiàn)出種種不確定性風險,人工智能作為當下人類社會科技進步的重要成果,既給未來帶來美好生活的想象空間,也以科技的雙刃性埋下種種倫理與社會危機。因此,必須加強對人工智能技術發(fā)展和創(chuàng)新應用的風險預警和干預。第一,要建立AI技術風險評估機制,由具備強制權(quán)力的政府主管部門來牽頭,聯(lián)合人工智能大模型重點企業(yè)、行業(yè)組織協(xié)會、高??蒲性核⒖萍己蜕鐣卫韺<覍W者等,進行充分的技術調(diào)研、風險預判。第二,要建立AI技術風險干預機制,在AI運行流程各個環(huán)節(jié),以及各個應用場景,建立技術風險應急處置預案,從“人—機”互動各個環(huán)節(jié),增加有效的人類干預因素、技術干預因素,防范各類突發(fā)性風險。此外,對于影響國計民生行業(yè)的AI技術應用,還應充分開展社會調(diào)研、事先征求意見反饋、接受社會監(jiān)督,并在應用過程中秉持以人為本原則及時更新算法邏輯,更好的服務社會。尤其是要堅持數(shù)據(jù)安全是第一要義,必須對數(shù)據(jù)收集、存儲、使用、管理、刪除等進行嚴格的數(shù)字安全監(jiān)管。
對于AI時代可能帶來的“AI溝”,必須加強人工智能產(chǎn)業(yè)統(tǒng)籌,協(xié)調(diào)推進不同地區(qū)AI技術發(fā)展與應用,推進AI數(shù)字紅利的全面普惠共享。第一,從國家戰(zhàn)略層面出臺相應的政策,引導產(chǎn)業(yè)扶持、稅收減免、人才儲備、科研項目配套,才能優(yōu)化資源配置、協(xié)調(diào)各方利益、實現(xiàn)產(chǎn)業(yè)聯(lián)動發(fā)展,尤其是要對技術欠發(fā)達地區(qū)給予政策傾斜,協(xié)調(diào)推進不同地區(qū)、人群之間的AI發(fā)展進程。第二,建立起健全的市場調(diào)研、產(chǎn)品運營、用戶反饋等監(jiān)管機制,重視對青少年、老年人、殘障人士等群體的包容性創(chuàng)新發(fā)展,引導企業(yè)履行企業(yè)社會責任,設計青少年模式、老年模式等特定的人工智能應用模式,幫助數(shù)字弱勢群體享受數(shù)字紅利、提升數(shù)字能力,推動人工智能技術應用在各個社會群體中的協(xié)調(diào)發(fā)展。
從ChatGPT運行可能帶來的社會層級分化、技術異化、人機科技倫理等風險可見,提升全民人工智能技術認知、技術水平和技術甄別能力已經(jīng)十分緊迫。為此,必須加強對全社會的人工智能教育培訓,提升全民人工智能綜合素養(yǎng)。目前,對于人工智能素養(yǎng)應該包括哪些方面,各國有著不同的理解。比如,聯(lián)合國教科文組織在廣義上將人工智能素養(yǎng)界定為關于人工智能的知識、理解、技能和價值取向;芬蘭則在實踐層面上將人工智能素養(yǎng)概括為理解、適應和開發(fā)三個部分[9]。在學界,對于人工智能素養(yǎng)的內(nèi)涵也有著不同的理解視角:一類是從能力論視角,認為包含個體適應人工智能時代的工作、學習與生活能力;另一類是從綜合素質(zhì)論視角,認為除了相關的知識與能力之外,還應包括與人工智能技術使用相關的態(tài)度和倫理等,包括AI概念、AI應用和AI倫理[10]??梢钥闯?不管對人工智能素養(yǎng)的定義與內(nèi)涵存在怎樣的不同理解,但在數(shù)字智能時代,提升全民人工智能素養(yǎng)的重要性已經(jīng)成為基本共識。