国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

從GPT邁向AGI:人工智能治理的未來路徑探索

2024-09-22 00:00:00呂昭詩李金平陳宇
科技智囊 2024年8期

摘 要:[研究目的]GPT(生成式預訓練模型)已經(jīng)展現(xiàn)出未來AGI(通用人工智能)的技術(shù)端倪,AGI將成為未來社會的基礎設施,應用于各行各業(yè)。我國目前已經(jīng)形成了“算法—深度合成—生成式人工智能”的治理推進脈絡,但從GPT邁向AGI的進程中,數(shù)據(jù)資源匱乏、算力供給短缺、模型開源建設落后、責任承擔不明確等問題仍是其發(fā)展的掣肘,因此亟待探索適應人工智能時代發(fā)展的治理路徑。[研究方法]立足于國內(nèi)人工智能發(fā)展與治理的現(xiàn)狀,深入分析目前人工智能發(fā)展所面臨的問題,結(jié)合美國的靈活監(jiān)管和歐盟的統(tǒng)一治理等國外人工智能治理經(jīng)驗,從邏輯更新和政策優(yōu)化兩方面破解人工智能目前面臨的發(fā)展困境。[研究結(jié)論]在邏輯更新方面,我國應在明晰AGI為可自主無限處理復雜任務的通用性人工智能系統(tǒng)的情況下,制定面向AGI的包容審慎人工智能治理新模式,重視倫理建設從而規(guī)避安全風險。在政策完善方面,應鼓勵數(shù)據(jù)共享流通,加大對算力基礎設施的投入,積極推動開源建設,完善人工智能生成物的責任承擔制度,以期促進我國人工智能的健康發(fā)展。

關(guān)鍵詞:數(shù)據(jù);算法;算力;通用人工智能;人工智能治理

一、問題的提出

近年來以ChatGPT為代表的生成式人工智能技術(shù)席卷全球,邁進通用人工智能時代的曙光已經(jīng)展現(xiàn)。在這一進程中雖然存在多模態(tài)AI、具身智能、類腦神經(jīng)等多種進路,但由GPT大模型邁向AGI是研究最多也最具可能性的進路。2023年4月28日召開的中共中央政治局會議提出,要重視通用人工智能發(fā)展,營造創(chuàng)新生態(tài)。有學者指出,在未來,AGI會具備實現(xiàn)無限任務、自主生成任務、價值驅(qū)動且能實現(xiàn)價值對齊的特征[1],將成為未來社會的基礎設施,技術(shù)應用覆蓋各行各業(yè)。

任何行業(yè)的健康發(fā)展均離不開合適的治理路徑,良好的人工智能治理將通過制定和實施各種法規(guī)、政策和技術(shù)手段來實現(xiàn),它們會確保人工智能的開發(fā)和應用符合倫理、安全和公共利益的需要。我國目前在人工智能相關(guān)技術(shù)治理方面已經(jīng)積累了一定的實踐經(jīng)驗,并在中央層面出臺了一系列文件,已經(jīng)初步構(gòu)建了由《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》《生成式人工智能服務管理暫行辦法》等共同組成的生成式人工智能法律規(guī)制體系[2],呈現(xiàn)“算法—深度合成—生成式人工智能”的治理推進脈絡,但隨著人工智能技術(shù)的發(fā)展,越來越多的新問題又紛紛涌現(xiàn)。人工智能訓練優(yōu)質(zhì)數(shù)據(jù)短缺、算力資源遭遇瓶頸、模型開源建設落后、責任承擔機制不清等問題愈發(fā)突出。在訓練數(shù)據(jù)方面,目前我國的人工智能訓練數(shù)據(jù)仍十分匱乏,并且面臨著數(shù)據(jù)質(zhì)量不高的隱憂和數(shù)據(jù)泄露的風險;在算力供給方面,優(yōu)良芯片短缺和算力建設不完善導致的算力支撐不足,已經(jīng)成為目前制約我國人工智能發(fā)展的重要因素;在開源生態(tài)方面,目前我國模型研發(fā)創(chuàng)新驅(qū)動不足,相比于國際上成型的模型開源體系,我國的開源生態(tài)建設仍不完善;在責任承擔方面,人工智能生成的內(nèi)容往往真假難辨,此外模型“幻覺”生成的虛假信息已開始在社會中蔓延,而人工智能造成損害的責任承擔仍面臨諸多障礙。由此,在由GPT邁向AGI的新階段,我國人工智能治理體系亟待邏輯更新與制度優(yōu)化。

二、現(xiàn)實挑戰(zhàn):我國人工智能發(fā)展的實際障礙

自2015年《關(guān)于積極推進“互聯(lián)網(wǎng)+”行動的指導意見》首次提出發(fā)展人工智能以來,我國陸續(xù)出臺一系列有關(guān)人工智能發(fā)展和監(jiān)管的文件。在國務院統(tǒng)籌規(guī)劃下,我國正在實施人工智能發(fā)展的“三步走”戰(zhàn)略,目標是到2030年,讓人工智能理論、技術(shù)與應用總體上達到世界領先水平,成為世界主要人工智能創(chuàng)新中心1。但面對未來通向AGI的現(xiàn)實治理需求,我國目前的人工智能治理仍顯得捉襟見肘,有以下主要問題尚待解決。

第一,數(shù)據(jù)資源匱乏。大規(guī)模的數(shù)據(jù)訓練是人工智能功能實現(xiàn)的基礎,但當前訓練數(shù)據(jù)面臨諸多問題,可供利用的數(shù)據(jù)資源極為匱乏。首先,數(shù)據(jù)共享機制尚未建立,數(shù)據(jù)流通不暢。不同機構(gòu)和部門之間的數(shù)據(jù)壁壘導致了數(shù)據(jù)孤島的形成,限制了數(shù)據(jù)的充分利用。其次,數(shù)據(jù)來源良莠不齊,缺乏高質(zhì)量的數(shù)據(jù)集,導致人工智能模型可能產(chǎn)生“幻覺”[3],即模型在處理不可靠數(shù)據(jù)時可能得出錯誤結(jié)論,這將給最終結(jié)果的數(shù)據(jù)帶來嚴重危害。第三,數(shù)據(jù)安全風險依然存在,一旦發(fā)生數(shù)據(jù)泄露等問題,將會給社會帶來巨大影響。數(shù)據(jù)泄露不僅威脅個人隱私,還可能導致商業(yè)機密和國家安全信息的外泄。

第二,算力供給短缺。隨著社會經(jīng)濟水平的快速發(fā)展,各行各業(yè)對算力的需求急劇增加,然而,當前算力供給的短缺已經(jīng)成為制約我國人工智能發(fā)展的瓶頸。一方面,我國算力的支撐設施建設相對落后,各地發(fā)展差異較大。尤其在一些欠發(fā)達地區(qū),計算基礎設施建設十分滯后,限制了當?shù)厝斯ぶ悄墚a(chǎn)業(yè)的發(fā)展。另一方面,芯片成為制約我國算力釋放的阻礙,高性能計算芯片是人工智能發(fā)展的核心硬件,但我國在這方面的技術(shù)積累和產(chǎn)業(yè)化水平仍與國際先進水平存在巨大差距。由于我國芯片研發(fā)的滯后與國外對我國芯片購買的限制,導致現(xiàn)有芯片無法滿足人工智能算力需求。

第三,模型開源建設落后。開源建設在人工智能開發(fā)中極為重要,開源軟件和平臺不僅能降低開發(fā)成本,還能促進技術(shù)創(chuàng)新和知識共享。未來我國將成為世界最大的開源項目應用市場,開源生態(tài)的合理建設迫在眉睫。然而,目前我國并沒有形成成熟的開源生態(tài),國內(nèi)人工智能廠商大多加入國外主導的開源生態(tài)中,核心技術(shù)受制于人。此外,國內(nèi)開源項目數(shù)量有限、質(zhì)量參差不齊、缺乏全球影響力等問題都進一步制約著我國人工智能產(chǎn)業(yè)的發(fā)展。

第四,人工智能責任承擔不明確。在當前的人工智能發(fā)展階段,人工智能生成物基本上屬于“排列組合式創(chuàng)新”,盡管在形式上人工智能生成物非常接近人類的創(chuàng)作內(nèi)容,但其是否構(gòu)成《著作權(quán)法》中認定的作品尚無定論。由此,人工智能侵權(quán)責任的承擔面臨著極大的爭議。目前我國立法暫未對此問題有針對性回應,這種責任的不明確性將導致未來在面向通用人工智能發(fā)展時面臨更大的法律風險。例如,人工智能生成的內(nèi)容一旦涉及侵權(quán),如何認定侵權(quán)主體和責任歸屬將是一個復雜的問題。

綜上所述,在由GPT邁向AGI的重要階段,數(shù)據(jù)、算力、開源建設、責任承擔等問題均亟待解決。我國可在分析借鑒國外人工智能治理政策的基礎上,逐步探索符合我國實際的人工智能治理道路,最終實現(xiàn)由GPT向AGI的健康發(fā)展。

三、比較借鑒:域外人工智能治理經(jīng)驗

面對人工智能如火如荼的發(fā)展態(tài)勢,美國、歐盟等國家和地區(qū)已經(jīng)開始對其展開針對性監(jiān)管,以確保技術(shù)發(fā)展與社會倫理、法律框架相協(xié)調(diào)。美國在人工智能治理方面強調(diào)技術(shù)創(chuàng)新與市場驅(qū)動,鼓勵企業(yè)和科研機構(gòu)積極參與人工智能研發(fā)。歐盟則采取了一種更加綜合和嚴格的監(jiān)管方式,其通過《人工智能法》實施統(tǒng)一監(jiān)管。此外,日本、韓國、加拿大等也在大力推進人工智能治理。

第一,美國采取靈活監(jiān)管措施。美國采取的是較為靈活、分散和多元的監(jiān)管模式。強調(diào)盡量少地采用“硬性”監(jiān)管,鼓勵行政機構(gòu)與私營部門合作,主要強調(diào)安全原則,參議院、聯(lián)邦政府、國防部、白宮等先后發(fā)布《算法問責法(草案)》《人工智能應用的監(jiān)管指南》《人工智能道德原則》《人工智能權(quán)利法案藍圖》《國家網(wǎng)絡安全戰(zhàn)略》等文件,注重個人隱私權(quán)利的保護和產(chǎn)業(yè)發(fā)展的平衡,以“聯(lián)邦—州”二元立法結(jié)構(gòu)建立符合產(chǎn)業(yè)現(xiàn)狀的人工智能治理模式,將提高透明度、反歧視作為監(jiān)管AI的重要原則,利用技術(shù)標準和指南促進行業(yè)自律,提高治理效率。

同時,美國注重在各個州開展區(qū)域性治理實踐,由各個監(jiān)管機構(gòu)在其業(yè)務范圍內(nèi)發(fā)布新規(guī)定或?qū)ΜF(xiàn)有規(guī)定進行解釋,將人工智能納入其職責范圍[4]。例如,美國《數(shù)據(jù)法案》要求擁有3 000萬以上用戶的互聯(lián)網(wǎng)平臺在使用用戶數(shù)據(jù)時,需告知用戶數(shù)據(jù)處理情況,獲取用戶明確同意,并保障用戶的撤回同意或要求刪除數(shù)據(jù)的權(quán)利[5]?!哆^濾氣泡透明度法案》則對平臺的算法推薦進行規(guī)制,要求大型互聯(lián)網(wǎng)平臺(實施某種行為時)需顯著告知用戶[6]?!端惴ㄕx和在線平臺透明度法案》則要求提高算法處理的透明度,清晰而充分地向用戶披露算法處理收集個人信息方法[7]。2023年1月,美國商務部的國家標準與技術(shù)研究所(NIST)發(fā)布了《人工智能風險管理框架1.0》(AI RMF1.0),目標是幫助設計、開發(fā)、部署或使用人工智能系統(tǒng)的組織和機構(gòu),提高人工智能風險管理的能力,并促進發(fā)展可信和負責任的人工智能[8]。

第二,歐盟實施統(tǒng)一治理。歐洲是世界范圍內(nèi)人工智能立法的領跑者,其采取統(tǒng)一監(jiān)管規(guī)則和行政干預為主的治理路徑,從“軟性”倫理規(guī)范原則走向“硬性”法律監(jiān)管規(guī)則。早在2018年,歐盟便發(fā)布《歐盟人工智能戰(zhàn)略》和《歐盟人工智能協(xié)同計劃》,提出了要加強對算法風險應對策略的研究[9]?!稓W盟通用數(shù)據(jù)保護條例》賦予用戶被遺忘權(quán)、可攜權(quán)等新型權(quán)利,加強用戶對個人數(shù)據(jù)的保護,同時規(guī)定所有數(shù)據(jù)處理者都應當設立“數(shù)據(jù)保護官員”,負責數(shù)據(jù)保護相關(guān)工作?!稊?shù)字市場法案》則對處于優(yōu)勢地位的“守門人”2的數(shù)據(jù)獲取與利用進行進一步限制。

2021年4月,歐盟提出《人工智能法案》,積極推動人工智能法案的統(tǒng)一立法工作。在此后的兩年中,《人工智能法案》立法工作進展迅速,2023年12月,歐盟委員會、歐洲理事會、歐洲議會三方就《人工智能法案》達成政治協(xié)議。2024年7月,最終確定的《人工智能法案》正式公布,成為全球首部人工智能領域的綜合性法規(guī)。該法案將以風險為基準對人工智能進行分類分級監(jiān)管,并在歐盟內(nèi)部設置了人工智能辦公室,統(tǒng)一負責人工智能的治理。

第三,其他國家逐漸重視。世界范圍內(nèi),以日本、韓國、加拿大為代表的發(fā)達經(jīng)濟體也在逐步推進人工智能的立法工作,是人工智能發(fā)展重要的推動力量。韓國近期提出《人工智能發(fā)展新計劃》,計劃建立數(shù)字權(quán)利法案、確保人工智能的倫理可靠性;日本發(fā)布《生成式人工智能指導方針草案》,著力推進制定面向企業(yè)的人工智能責任承擔指導方針;加拿大公布《人工智能行為準則》和《生成式人工智能技術(shù)的基本原則:負責任、可信和隱私保護》等監(jiān)管文件,旨在建設強大、負責任的人工智能生態(tài)系統(tǒng)。

在世界各國紛紛出臺針對本國的人工智能立法文件的同時,國際的人工智能協(xié)同立法進程也在加快,國際組織、發(fā)達經(jīng)濟體之間的人工智能合作與交流愈發(fā)頻繁,以《布萊切利宣言》《美歐聯(lián)合申明》《促進人工智能風險管理互操作性的共同指南》《安全人工智能系統(tǒng)開發(fā)指南》等為代表的多國聯(lián)合文件紛紛出臺。諸多文件對人工智能的安全倫理、風險管理、行為準則等問題進行了明確規(guī)定,進一步推動了人工智能的規(guī)范化治理進程。

四、邏輯更新:人工智能治理的思路轉(zhuǎn)變

面向未來的通用人工智能,我國不應禁錮于傳統(tǒng)治理思路,而應隨著科技和社會的發(fā)展轉(zhuǎn)變治理思路,在明晰通用人工智能定義的前提下,采取面向AGI的人工智能治理新模式,注重倫理安全,確保人工智能安全可信。

首先,明晰通用人工智能定義。通用人工智能是人工智能發(fā)展到高度智能化階段的形式,對通用人工智能的探討恰能體現(xiàn)我國對人工智能治理的前瞻性。目前我國立法中并未有關(guān)于通用人工智能的一致性定義,但近年來我國部分政策文件對通用人工智能的定義做出了一定的探索,如公安部第三研究所的《通用人工智能AGI等級保護白皮書(2023版)》提出,一種能夠像人類一樣擁有智能、學習、推理、解決問題和適應新環(huán)境的人工智能系統(tǒng),也稱為強人工智能3。同時,相關(guān)新興科技的立法也可以為通用人工智能的定義提供一定的參考。以生成式人工智能、深度合成技術(shù)為例,生成式人工智能技術(shù)被認為是指具備內(nèi)容生成能力的模型及相關(guān)技術(shù)4,深度合成技術(shù)被認為是利用深度學習、虛擬現(xiàn)實等生成合成類算法制作文本、圖像等網(wǎng)絡信息的技術(shù)5。由此可見,我國對新興科技的定義往往是結(jié)合技術(shù)的實現(xiàn)路徑、應用形式、最終目的而做出的。在未來立法中我國亦可借鑒此定義方式,結(jié)合通用人工智能的學習自主性、任務無限性、價值認知性特點,對通用人工智能做出合理定義。

從這個角度來說,通用人工智能是指能夠在多個領域和任務上表現(xiàn)出人類水平或者超越人類水平的智能,具有自主學習、自我進化、自我決策等能力。雖然達到通用人工智能存在多模態(tài)AI、具身智能、類腦神經(jīng)等多種進路,但最終要實現(xiàn)的目標卻是類似的:通用性、無限性、可處理廣泛和復雜的任務。從通用人工智能的共同目標出發(fā),借鑒我國已有的生成式人工智能、深度合成概念,可以嘗試對通用人工智能做出合理性定義:可自主無限處理復雜任務的通用性人工智能系統(tǒng)。

其次,明確面向AGI的人工智能治理新模式。通用人工智能與傳統(tǒng)人工智能有著巨大區(qū)別,在運算方面,傳統(tǒng)人工智能依靠符號的編碼規(guī)則來進行運算,生成式人工智能則依托于經(jīng)驗的概率預測[10],而通用人工智能則是依據(jù)經(jīng)驗進行更為智能化的運算,具有更強的自主性、適應性、意識性和泛化性;在商業(yè)模式方面,未來的通用人工智能生態(tài)將會呈現(xiàn)“1個通用基礎大模型+N個行業(yè)專用子模型”的形式[11],即通用人工智能的基礎大模型將如電腦的操作系統(tǒng)Windows/Linux和手機的操作系統(tǒng)android/iOS一樣,在世界范圍內(nèi)只剩下少量幾家人工智能基礎模型提供商,而有大量的專業(yè)模型服務提供商;在技術(shù)運用方面,人機交互將會成為日常生活方式,人工智能服務能力和用戶的自我運用綜合決定人工智能的最終用途。通用人工智能帶來的巨變將會對人類生產(chǎn)生活方式產(chǎn)生深遠的影響,人工智能的監(jiān)管也需隨著科技的發(fā)展而創(chuàng)新,隨時修改和廢止各種不合時宜的、阻礙人工智能發(fā)展的監(jiān)管政策,增強監(jiān)管的適應性和靈活性。

我國的人工智能治理,既要立足于生成式人工智能發(fā)展的現(xiàn)狀,又要前瞻性地著眼于通用人工智能發(fā)展的未來,以問題為導向,堅持可靠、可控、可信原則,促進人工智能發(fā)展,保障人工智能安全??茖W有效的創(chuàng)新性監(jiān)管要在保障人工智能安全的同時促進人工智能的發(fā)展,可以從以下幾個方面著手:其一,建立試錯容錯監(jiān)管制度,對于新興人工智能科技發(fā)展要保持寬容態(tài)度,設置合理的觀察期。對于人工智能在觀察期內(nèi)產(chǎn)生的風險,在未對市場、用戶等產(chǎn)生重大影響的情況下可以適當減輕處罰或免于處罰,并對其進行風險防范合規(guī)指導[12],通過價格、聲譽、對話等柔性機制[13]來促進人工智能企業(yè)自我約束和自我完善;其二,構(gòu)建公私多元主體協(xié)同的治理機制[14],人工智能監(jiān)管要實現(xiàn)多部門之間的溝通協(xié)作,明確各部門的職責分工和協(xié)作方式,形成統(tǒng)一協(xié)調(diào)的監(jiān)管政策和措施,避免政出多門而導致抵觸,以實現(xiàn)監(jiān)管的有效銜接和協(xié)同。同時,要尊重市場規(guī)律和社會需求,平衡各方利益和訴求,實現(xiàn)多元主體的共同治理;其三,實行企業(yè)自我合規(guī)減責措施,要鼓勵人工智能服務提供者自覺遵守相關(guān)規(guī)則,建立健全內(nèi)部管理和風險控制機制,對于在自我合規(guī)過程中發(fā)現(xiàn)并及時糾正的問題或者隱患,給予免于處罰或者減輕處罰的待遇;T8hV9FOhmYlsOGclPSdHxg==其四,推進人工智能先行試點機制,對于一些具有重大創(chuàng)新意義的人工智能領域,允許一部分人工智能企業(yè)在安全的前提下進行創(chuàng)新[15],即在一定范圍內(nèi)放寬市場準入條件,允許企業(yè)開展創(chuàng)新活動,為人工智能創(chuàng)新提供政策空間和制度保障。

最后,注重倫理安全,確保人工智能安全可信。人工智能倫理涉及人類的價值、權(quán)利、道德等方面的規(guī)范問題,而將在社會中廣泛使用的通用人工智能,會對社會道德倫理和生產(chǎn)生活秩序有著重要影響,這需要通用人工智能承擔起相應的、多方面的社會道德倫理義務。目前,生成式人工智能所帶來的虛假內(nèi)容、知識侵權(quán)等風險已然引發(fā)了科技倫理領域的劇烈討論。在由弱人工智能邁向通用人工智能的過程中,人工智能的自主性和意識性將會不斷加強,現(xiàn)有科技的倫理規(guī)范顯然不再適應未來人工智能技術(shù)的迭代革新,一旦缺乏倫理規(guī)范的有效規(guī)制,人工智能的發(fā)展便有可能走入歧途,甚至威脅整個人類社會。

隨著人工智能的逐步類人化,可以在人工智能發(fā)展的各個階段引入“人因工程”理念,令人工智能遵循人類社會的倫理道德[16]。具體而言,可以從以下幾個方面加強人工智能的倫理建設:其一,建立人工智能的倫理原則,明確人工智能的發(fā)展和應用應遵循的基本價值和目標,尊重人類的尊嚴、自由、平等,保障人類的安全、利益、隱私;其二,建立科技倫理的風險識別與跟蹤機制。科技倫理風險識別旨在基于風險分級的理念為后續(xù)差異化的應對機制提供初步的事實基礎[17]。因此,需要完善生成式人工智能領域的風險分級具體規(guī)則,在明晰分級規(guī)則的基礎上,開展風險識別與跟蹤工作;其三,建立科技倫理審查與監(jiān)管制度,敦促技術(shù)研發(fā)使用者提高人工智能技術(shù)使用的規(guī)范性[18],確保人工智能的發(fā)展和應用符合倫理原則,及時處理人工智能的倫理問題和倫理糾紛;其四,加強人工智能的倫理教育,強化人工智能的倫理意識和倫理素養(yǎng)的培養(yǎng),提高人工智能的倫理認知和倫理判斷的能力。

五、政策完善:人工智能治理框架的優(yōu)化

為實現(xiàn)通用人工智能的健康發(fā)展,我國應從數(shù)據(jù)、算力、開源建設、責任制度等多方面入手,推動數(shù)據(jù)共享和流通,加大對算力基礎設施的投入,積極開展開源建設,明確人工智能生成物的侵權(quán)責任歸屬和知識產(chǎn)權(quán)保護,為通用人工智能的健康發(fā)展提供堅實保障。

第一,支持數(shù)據(jù)共享流通,不斷提升數(shù)據(jù)質(zhì)量。生成式人工智能依靠大量數(shù)據(jù)訓練學習,缺乏足夠的數(shù)據(jù)支撐將使其舉步維艱。目前我國許多數(shù)據(jù)并未能夠充分流通和利用,應構(gòu)建相應機制使數(shù)據(jù)充分發(fā)揮價值。用戶在處理和運用海量數(shù)據(jù)的同時也面臨著不良數(shù)據(jù)的使用和數(shù)據(jù)泄露的法律風險。數(shù)據(jù)泄露會侵犯用戶的隱私,企業(yè)數(shù)據(jù)泄露還可能導致不正當競爭或商業(yè)秘密曝光,政府數(shù)據(jù)泄露則將帶來更為嚴重的后果,包括侵害“重要數(shù)據(jù)”安全和“國家秘密”安全等特別利益[19]。為了有效防范和應對數(shù)據(jù)泄露的法律風險,可以從以下方面進行立法規(guī)制:其一,支持數(shù)據(jù)共享流通,建立數(shù)據(jù)共享平臺和標準化的數(shù)據(jù)接口,制定完善的數(shù)據(jù)交易規(guī)則和程序,激發(fā)創(chuàng)新活力和社會參與,鼓勵公共數(shù)據(jù)開放,為企業(yè)、科研機構(gòu)和公眾提供豐富的數(shù)據(jù)支持;其二,建立數(shù)據(jù)處理環(huán)境安全防護體系,要求人工智能的服務提供者對其語料庫數(shù)據(jù)進行分類分級,根據(jù)數(shù)據(jù)的重要性和敏感性采取相應的安全保護措施,以防止數(shù)據(jù)被非法獲取、篡改、刪除等。同時,還應加強數(shù)據(jù)的風險監(jiān)測和評估,定期檢查數(shù)據(jù)處理活動的安全性能,及時發(fā)現(xiàn)和修復數(shù)據(jù)安全漏洞,向有關(guān)部門報送風險評估報告,完善安全評估、認證和跨境標準合同的“三個并行”具體制度[20];其三,賦予人工智能的服務提供者數(shù)據(jù)透明義務,要求其向用戶和社會公開數(shù)據(jù)處理的必要信息,包括數(shù)據(jù)的類型、來源、處理方式、標注規(guī)則等,以保障社會公眾的知情權(quán)和選擇權(quán),促進數(shù)據(jù)處理的可信和公開。

第二,加強算力設施建設,促進算力協(xié)同發(fā)展。算力是決定人工智能發(fā)展的關(guān)鍵要素,正如電力的發(fā)展需要全國完善的電力網(wǎng)絡作為基礎一樣,算力網(wǎng)絡的建設將關(guān)系到人工智能的未來發(fā)展高度。即使在算法沒有進步的情況下,僅依靠大模型的自我學習和大量訓練,其自身性能也會不斷進行優(yōu)化,正所謂“量變引起質(zhì)變”,而這些大規(guī)模的學習和訓練,均離不開其背后強大算力支撐。高性能芯片、算力中心、算力平臺是影響算力發(fā)展的關(guān)鍵因素:高性能芯片決定單元算力的釋放,算力中心影響算力的整體提升,算力平臺關(guān)系著算力的共享和協(xié)作。同時,“雙碳”目標之下,人工智能算力需要在節(jié)約能源與促進發(fā)展之間進行平衡,可將《民法典》的綠色原則引入人工智能立法,并借鑒《科學技術(shù)進步法》第三條第二款。具體來說,可以從以下幾個方面加強算力建設:其一,發(fā)展綠色算力,提升資源利用效率,實現(xiàn)算力供應的充足可持續(xù);其二,加大高性能芯片的研發(fā)和生產(chǎn),打破國外的技術(shù)封鎖,實現(xiàn)芯片的自主可控;其三,統(tǒng)籌建設分級算力中心,針對不同地區(qū)的發(fā)展和需求,將算力資源進行有效的分配和利用;其四,培育開放的算力平臺,實現(xiàn)算力的共享和協(xié)作,形成算力生態(tài)網(wǎng)絡。

第三,推進開源生態(tài)建設,實現(xiàn)科技進步與革新。大模型的訓練和優(yōu)化是一個智力密集型工作,開源生態(tài)在人工智能技術(shù)發(fā)展中占據(jù)了極為重要的地位。在開源環(huán)境中,世界各地人工智能工作者能夠互相分享技術(shù)思路和新發(fā)現(xiàn),促進科技的迭代革新??v觀生成式人工智能的發(fā)展歷程,數(shù)據(jù)抓取、數(shù)據(jù)訓練、模擬架構(gòu)等創(chuàng)新性技術(shù)均是在開源平臺上出現(xiàn),經(jīng)過開源社區(qū)人員的討論和實驗后逐步完善并應用。未來可預見的是,通過開源方式促進大型模型的發(fā)展將成為一種不可逆轉(zhuǎn)的趨勢,也是克服大數(shù)據(jù)和大算力障礙的有效方法[21]。我國的開源建設相比于西方仍存在較大差距,在面向通用人工智能發(fā)展進程中,我國也應完善自身的開源生態(tài)建設。一方面,應科學制定開源政策,在部分領域支持建立開源平臺,培育開源文化氛圍;另一方面,也應建立政府參與的開源監(jiān)督機制,防止開源技術(shù)的不合理使用,最終形成良性運轉(zhuǎn)的開源生態(tài)。

第四,加強內(nèi)容安全治理,完善責任承擔機制。生成式人工智能通過數(shù)據(jù)訓練和微調(diào)可以生成各種文本、圖像、視頻等內(nèi)容,但這些內(nèi)容面臨著很多潛在的風險和挑戰(zhàn),如生成不良、虛假或違法信息,影響用戶的信息判斷和選擇,甚至危害公共秩序和社會穩(wěn)定。加強人工智能內(nèi)容安全監(jiān)管,防止不實信息的傳播和誤導是時代所需,具體來說,可以從以下方面對該問題進行紓解:其一,支持建立和完善人工智能的自檢測和過濾機制,確保生成的內(nèi)容基于既有事實和可靠來源,提高信息的真實性和可信度;其二,生成式人工智能服務提供者應明確告知用戶其生成內(nèi)容的準確性,對不確定內(nèi)容提醒用戶進行辨別和核實,避免誤導用戶、防止用戶對人工智能的盲目信任,如因未履行該義務而導致用戶或第三方受到損害,應承擔相應的法律責任;其三,應建立和完善生成式人工智能的辟謠和舉報機制[22],鼓勵用戶和社會組織參與信息內(nèi)容的監(jiān)督和核查,及時揭露和糾正不實信息,增強公眾的信息素養(yǎng)和防范意識。

同時,對生成式人工智能生成內(nèi)容進行標識是重要的,這樣做既能有效實現(xiàn)數(shù)據(jù)的溯源,追責相關(guān)主體,又能對用戶進行有效提示,避免虛假信息的泛濫。在內(nèi)容生成環(huán)節(jié),人工智能技術(shù)服務者應當添加可識別的水印或警示信息,配備人工智能過濾審核機制。在內(nèi)容展示環(huán)節(jié),應當在合理的位置和區(qū)域進行顯著的標識[23],以提示公眾內(nèi)容的合成情況,避免公眾的混淆或誤認。特別是在涉及醫(yī)療、金融、教育等關(guān)鍵領域的問答服務,應當進行更加明確的風險提示。在標識的形式上,應當根據(jù)不同的需求和內(nèi)容類型,采取明標識或暗標識的方式,實現(xiàn)對內(nèi)容的有效識別和溯源。

六、結(jié)語

人工智能技術(shù)的發(fā)展,不僅是科技進步的體現(xiàn),也是社會變革的推動力。從GPT邁向AGI,是人工智能技術(shù)的必然趨勢,也是人類社會面臨的重大挑戰(zhàn)。通用人工智能是可自主無限處理復雜任務的通用性人工智能系統(tǒng),未來將會成為社會的基礎設施。我國作為人工智能世界產(chǎn)業(yè)的重要參與者和引領者,應該把握好這一歷史機遇,積極應對這一現(xiàn)實問題,在注重倫理安全的基礎上,推進人工智能制度優(yōu)化,構(gòu)建適應未來的人工智能時代治理體系,促進人工智能制度優(yōu)化,保障人工智能的安全可信。

注釋:

1. 國務院于2017年印發(fā)《新一代人工智能發(fā)展規(guī)劃》,對我國人工智能未來發(fā)展進行戰(zhàn)略部署,確立了新一代人工智能發(fā)展三步走戰(zhàn)略目標:到2020年人工智能總體技術(shù)和應用與世界先進水平同步;到2025年人工智能基礎理論實現(xiàn)重大突破,部分技術(shù)與應用達到世界領先水平;到2030年人工智能理論、技術(shù)與應用總體達到世界領先水平,成為世界主要人工智能創(chuàng)新中心。

2. “守門人”指的是在數(shù)字市場中占據(jù)支配地位的企業(yè),這些企業(yè)需要承擔更多的責任和義務。

3. 《通用人工智能AGI等級保護白皮書(2023版)》術(shù)語和定義:通用人工智能(Artificial General Intelligence,AGI),是一種能夠像人類一樣擁有智能、學習、推理、解決問題和適應新環(huán)境的人工智能系統(tǒng),也稱為強人工智能。

4. 《生成式人工智能服務管理暫行辦法》第二十二條:生成式人工智能技術(shù),是指具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)。

5. 《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》第二十三條規(guī)定:深度合成技術(shù),是指利用深度學習、虛擬現(xiàn)實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網(wǎng)絡信息的技術(shù)。

參考文獻:

[1] PENG Y J,HAN J H,ZHANG Z L,et al.The tong test:evaluating artificial general intelligence through dynamic embodied physical and social interactions[J].Engineering,2023,34:12-22.

[2] 劉霜,張瀟月.生成式人工智能數(shù)據(jù)風險的法律保護與規(guī)制研究:以ChatGPT潛在數(shù)據(jù)風險為例[J].貴州大學學報(社會科學版),2023,41(5):87-97.

[3] 鄧建鵬,朱懌成.ChatGPT模型的法律風險及應對之策[J].新疆師范大學學報(哲學社會科學版),2023,44(5):91-101,2.

[4] 陸凱.美國算法治理政策與實施進路[J].環(huán)球法律評論,2020,42(3):5-26.

[5] Data and algorithm transparency agreement act[EB/OL].[2024-01-05].https://www.congress.gov/bill/117th-congress/senate-bill/1477/text?r=2&s=4.

[6] Filter bubble transparency act[EB/OL].[2024-01-05].https://www.congress.gov/bill/117th-congress/house-bill/5921?q=%7B%22search%22%3A%5B%22%5Cu00aa0Filter%5Cu00a0Bubble%5Cu00a0Transparency%5Cu00a0Act%22%2C%22%5Cu00a0Filter%5Cu00a0Bubble%5Cu00a0Transparency%5Cu00a0Act%22%5D%7D&s=4&r=1.

[7] Algorithmic justice and online platform transparency act[EB/OL].[2024-01-05].https://www.congress.gov/bill/117th-congress/senate-bill/1896/text.

[8] 周志峰,胡奇,周健工,等.啟明創(chuàng)投x未盡研究:生成式AI報告[EB/OL].(2023-07-12)[2024-01-05].https://www.doc88.com/p-19029466638393.html.

[9] 騰訊研究院.人工智能時代的算法治理報告(2022):構(gòu)建法律、倫理、技術(shù)協(xié)同的算法治理格局[R/OL].(2022-12-28)[2024-06-02].https://max.book118.com/html/2022/1220/5313213040010034.shtm.

[10] 王沛然.從控制走向訓導:通用人工智能的“直覺”與治理路徑[J/OL].東方法學,2023(6):188-198.

[11] 張璐.通用人工智能風險治理與監(jiān)管初探:ChatGPT引發(fā)的問題與挑戰(zhàn)[J].電子政務,2023(9):14-24.

[12] 侯東德.人工智能法的基本問題及制度架構(gòu)[J].政法論叢,2023(6):61-72.

[13] 馮俏彬.發(fā)展新經(jīng)濟關(guān)鍵要改進政府監(jiān)管“舊”模式[N].中國經(jīng)濟時報,2016-10-31(5).

[14] 馬長山.數(shù)字社會的治理邏輯及其法治化展開[J].法律科學(西北政法大學學報),2020,38(5):3-16.

[15] 王偉.數(shù)字經(jīng)濟治理體系的運行邏輯:以合作治理為視角的考察[J].電子政務,2023(10):14-27.

[16] SALMON P M,BABER C,BURNS C,et al.Managing the risks of artificial general intelligence:a human factors and ergonomics perspective[J]. Human factors and ergonomics in manufacturing & service industries,2023,33(5):366-378.

[17] 石佳友,劉忠炫.科技倫理治理的法治化路徑:以基因編輯技術(shù)的規(guī)制為例[J].學海,2022(5):185-195.

[18] 陳兵.通用人工智能創(chuàng)新發(fā)展帶來的風險挑戰(zhàn)及其法治應對[J].知識產(chǎn)權(quán),2023(8):53-73.

[19] 鈄曉東.論生成式人工智能的數(shù)據(jù)安全風險及回應型治理[J].東方法學,2023(5):106-116.

[20] 張凌寒.論數(shù)據(jù)出境安全評估的法律性質(zhì)與救濟路徑[J].行政法學研究,2023(1):45-61.

[21] 張偉男,劉挺.ChatGPT技術(shù)解析及通用人工智能發(fā)展展望[J].中國科學基金,2023,37(5):751-757.

[22] 張凌寒,于琳.從傳統(tǒng)治理到敏捷治理:生成式人工智能的治理范式革新[J].電子政務,2023(9):2-13.

[23] 張欣.生成式人工智能的數(shù)據(jù)風險與治理路徑[J].法律科學(西北政法大學學報),2023,41(5):42-54.

Moving from GPT to AGI: Exploring the Future Pathways of Artificial

Intelligence Governance

Lv Zhaoshi1 Li Jinping2 Chen Yu3

[1. China University of Political Science and Law, The Institute for Data Law, Beijing, 100088; 2. State Administration of Science, Technology and Industry for National Defence, Center for Military Project Vetting, Beijing, 100037; 3. National Development and Reform Commission, Center for Innovation Driven Development (Center for Digital Economy Research and Development), Beijing, 100038]

Abstract:[Research purpose] GPT (Generative Pre-training Model) has already shown the technology prototype of AGI (General Artificial Intelligence) in the future, and AGI will become the infrastructure of the future society, and be applied to all walks of life. China has already formed the governance of “algorithm-deep synthesis-generative artificial intelligence”, but in the process of moving from GPT to AGI, the lack of data resources, shortage of arithmetic supply, backward model open-source construction, and unclear responsibility are still constraints to its development. There is an urgent need to explore the governance pathways adapted to the development of AI era. [Research method] Based on the status quo of AI development and governance in China, we analyze in depth the problems it faced, and combine foreign AI governance experiences such as the flexible regulation of the United States and the unified governance of the European Union, so as to crack the development dilemmas faced by AI in terms of logic updating and policy optimization. [Research conclusion] In terms of logical updating, China should formulate a new model of inclusive and prudent AI governance for AGI and pay attention to ethical construction so as to avoid safety risks, while making it clear that AGI is a general-purpose AI system that can autonomously and infinitely handle complex tasks. In terms of policy improvement, we should encourage data sharing and circulation, increase investment in computing power infrastructure, actively promote open-source construction, and improve the system of assuming responsibility for AI-generated objects, with a view to promoting the healthy development of AI in China.

Key words: data; algorithm; arithmetic power; general artificial intelligence; artificial intelligence governance

作者簡介:呂昭詩,男,1997年生,博士研究生,研究方向為數(shù)據(jù)法學。李金平,女,1965年生,研究員,研究方向為科研項目評估。陳宇,男,1996年生,國家發(fā)展改革委創(chuàng)新驅(qū)動發(fā)展中心(數(shù)字經(jīng)濟研究發(fā)展中心)干部,研究方向為數(shù)字經(jīng)濟、平臺經(jīng)濟。

格尔木市| 潜山县| 罗甸县| 南丰县| 大丰市| 高淳县| 元朗区| 南靖县| 鹤庆县| 柳林县| 宁阳县| 疏勒县| 桂林市| 克拉玛依市| 厦门市| 普宁市| 鄢陵县| 休宁县| 五寨县| 临汾市| 平谷区| 博乐市| 万盛区| 沂南县| 青冈县| 迭部县| 吉安县| 普洱| 泸溪县| 左权县| 合阳县| 巴林右旗| 亚东县| 奉化市| 河南省| 昌都县| 昌吉市| 吉木萨尔县| 海城市| 拜泉县| 靖宇县|