国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

從控制走向訓(xùn)導(dǎo):通用人工智能的“直覺”與治理路徑

2024-01-12 14:28:04王沛然
東方法學(xué) 2023年6期
關(guān)鍵詞:直覺規(guī)制主義

王沛然

內(nèi)容摘要:生成式人工智能基于概率預(yù)測進(jìn)行涌現(xiàn)創(chuàng)造,而不是基于規(guī)則編碼進(jìn)行傳統(tǒng)的符號輸出,其標(biāo)志著人工智能在意識能力上已從邏輯思考拓維至經(jīng)驗(yàn)直覺,正向通用人工智能加速演進(jìn)。大規(guī)模參數(shù)支持下的壓倒性概率,使機(jī)器擺脫了對工程師預(yù)設(shè)邏輯規(guī)則的依賴,但由于深度神經(jīng)網(wǎng)絡(luò)的“直覺”機(jī)制難以清晰呈現(xiàn),傳統(tǒng)符號主義時(shí)代的可解釋性規(guī)制也將從教義式的規(guī)范信條轉(zhuǎn)變?yōu)閷?shí)現(xiàn)“模型可信”的工具手段,其并非以算法為中心的完全透明,而是區(qū)分對象、目的、內(nèi)容、效果的模型說明方案。通用人工智能的行為決策主要源于形而下的經(jīng)驗(yàn)積累而非形而上的超驗(yàn)規(guī)定,應(yīng)以強(qiáng)調(diào)經(jīng)驗(yàn)的實(shí)用主義哲學(xué)為內(nèi)核,從控制主義轉(zhuǎn)向訓(xùn)導(dǎo)主義的治理范式:圍繞“價(jià)值對齊”創(chuàng)新技術(shù)手段和規(guī)范機(jī)制,培育機(jī)器造福人類的終極動(dòng)機(jī);加強(qiáng)數(shù)據(jù)生態(tài)規(guī)范化建設(shè),避免不良內(nèi)容侵蝕機(jī)器認(rèn)知框架;優(yōu)化應(yīng)用互動(dòng)環(huán)境,注重場景分類分級監(jiān)管與針對用戶的規(guī)制。

關(guān)鍵詞: 生成式人工智能通用人工智能可解釋人工智能法律規(guī)制價(jià)值對齊實(shí)用主義哲學(xué)

中圖分類號:DF0 文獻(xiàn)標(biāo)識碼:A 文章編號:1674-4039-(2023)06-0188-198

2023年4月召開的中共中央政治局會(huì)議指出:“要重視通用人工智能發(fā)展,營造創(chuàng)新生態(tài),重視防范風(fēng)險(xiǎn)?!盋hatGPT是邁向通用人工智能(Artificial2General2Intelligence,以下簡稱AGI)的關(guān)鍵一步,正在為“比人類更聰明”的AGI作準(zhǔn)備?!?2〕AGI是具有廣域泛化能力的系統(tǒng),不同于一般意義上的人工智能,其并非僅在封閉場景下完成特定任務(wù),〔22〕而是具有情境覺知能力〔32〕和自主注意力機(jī)制。〔42〕不同于蒸汽革命或電氣革命讓人類從體力勞動(dòng)中得到釋放, 以ChatGPT為代表的生成式人工智能引發(fā)的是信息生產(chǎn)與知識創(chuàng)造的革命,〔52〕正在把人類精神生產(chǎn)力從人腦生物性限制下解放出來,這不是“手工”的消亡,而是“腦工”的終結(jié)?!?"〕在AGI的沖擊下,調(diào)整社會(huì)生活的規(guī)范系統(tǒng)將面臨重塑。以生成式人工智能的突破進(jìn)展為契機(jī),AGI有何本質(zhì)不同?法律面臨何種根本挑戰(zhàn)?如何理解當(dāng)前制度的理念內(nèi)核,應(yīng)朝向何方促成治理范式進(jìn)化? 本文從技術(shù)原理、規(guī)制脈絡(luò)、范式理念三個(gè)層面遞次回應(yīng)上述問題。

一、從邏輯思考到經(jīng)驗(yàn)直覺:AGI意識能力的補(bǔ)全

在傳統(tǒng)人工智能中,開發(fā)者須事先預(yù)想所有可能的情況并將其編碼為特定規(guī)則算法,機(jī)器沿著工程師設(shè)計(jì)的路線圖,得以在封閉的任務(wù)場域內(nèi)勝任邏輯思考的任務(wù)?;谏疃壬窠?jīng)網(wǎng)絡(luò)的生成式人工智能則具備開放的創(chuàng)造性和想象力,甚至對著作權(quán)法意義上的“獨(dú)創(chuàng)性表達(dá)”作出主要貢獻(xiàn)。〔7"〕語言涌現(xiàn)與藝術(shù)創(chuàng)造被視為靈感的賞賜,這種無法預(yù)測和控制的思維過程不是邏輯思考的面向,而是經(jīng)驗(yàn)直覺的維度。從生成式人工智能的技術(shù)路線可預(yù)見,AGI的意識能力將由此得到補(bǔ)全。

(一)連接主義與統(tǒng)計(jì)路徑的勝利

人工智能技術(shù)史上素有符號主義與連接主義的路線之爭。符號主義主張思維的基本單元是符號,將認(rèn)知描述為符號運(yùn)算,主要依賴邏輯規(guī)則進(jìn)行知識表示和分析推理。連接主義旨在模擬人腦生物結(jié)構(gòu),通過人工神經(jīng)網(wǎng)絡(luò)的“刺激—響應(yīng)”連接機(jī)制完成任務(wù)?!?"〕從時(shí)序上看,符號主義人工智能是第一代人工智能,連接主義人工智能是第二代人工智能?!?"〕

符號主義認(rèn)為,“人類思維的很大一部分是按照推理和猜想規(guī)則對‘詞’進(jìn)行操作所組成的”,〔10+〕智能行為依賴于物理符號系統(tǒng)。該系統(tǒng)具有輸入、輸出、存儲(chǔ)、復(fù)制符號,以及建立符號結(jié)構(gòu)、條件性遷移等六項(xiàng)功能,從而表現(xiàn)出智能。計(jì)算機(jī)與人都是物理符號系統(tǒng);按照人類思維操作的過程來編制計(jì)算機(jī)程序,使計(jì)算機(jī)模擬人的活動(dòng),就是人工智能研究內(nèi)容?!?1"〕給定符號集和操作符號的規(guī)則集,對符號的重組只涉及形式邏輯而不涉及實(shí)質(zhì)語義。〔12"〕符號主義的優(yōu)勢在于,通過人類專家對問題的邏輯建模和規(guī)則制定,人工智能決策過程有步驟、可解釋、可追溯。但問題是,無論制定多少規(guī)則,總有情形未被編入代碼。對于定義模糊的問題,以及超出定義范圍的情境,符號主義人工智能無力應(yīng)對。隨著情境復(fù)雜度趨高,大量人工介入不可避免,符號主義人工智能的發(fā)展遭遇瓶頸。

符號主義是自上而下的路徑,連接主義則是自下而上的方法。人腦由數(shù)百億彼此相連的神經(jīng)元組成,通過學(xué)習(xí)修改神經(jīng)元間的連接強(qiáng)度,適應(yīng)變化無常的世界;人工神經(jīng)網(wǎng)絡(luò)以類似方式獲取適應(yīng)性,而互聯(lián)網(wǎng)提供了大規(guī)模多源數(shù)據(jù)供其訓(xùn)練。通過多層次的神經(jīng)元連接,機(jī)器自動(dòng)從大量數(shù)據(jù)中學(xué)習(xí)復(fù)雜特征表示,具有強(qiáng)大的非線性關(guān)系處理能力和自適應(yīng)能力。

符號主義與連接主義的路線之爭反映到自然語言處理領(lǐng)域,具體表現(xiàn)為規(guī)則路徑與統(tǒng)計(jì)路徑的技術(shù)分野?!?3+〕符號主義主要使用規(guī)則邏輯,來表達(dá)和推理知識,而連接主義主要使用統(tǒng)計(jì)方法來訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)。生成式人工智能傾向于代表統(tǒng)計(jì)方法的勝利:ChatGPT并非按某種形式邏輯搜尋預(yù)設(shè)語句輸出回答;作為基于深度學(xué)習(xí)的語言模型,其生成內(nèi)容并非預(yù)設(shè),而是在大規(guī)模語料庫訓(xùn)練基礎(chǔ)上,根據(jù)上下文預(yù)測所有可能輸出的下一個(gè)字符,并選擇概率最大的語句作為最終輸出結(jié)果,這種類似“接龍”生成的語言自然流暢?!?4#〕相比之下,傳統(tǒng)規(guī)則主義方法難以應(yīng)對語言的多樣復(fù)雜性,多顯生硬。當(dāng)然,規(guī)則主義方法在知識圖譜支撐下具有精準(zhǔn)可控的優(yōu)勢,AGI有望將規(guī)則方法與概率方法結(jié)合起來,既保留準(zhǔn)確性、可靠性,又發(fā)揮遷移泛化的通用性、創(chuàng)造性。

(二)機(jī)器的直覺:ChatGPT有何不同?

生成式人工智能是否具有意識? 新實(shí)用主義哲學(xué)家、計(jì)算機(jī)科學(xué)家普特南曾提出“缸中之腦”思想實(shí)驗(yàn):想象一個(gè)人的大腦放在缸里,缸中充滿一種特殊液體以使之存活,大腦神經(jīng)末梢同一臺(tái)超級計(jì)算機(jī)相連,這臺(tái)計(jì)算機(jī)可以模擬大腦所受的各種刺激和信號,讓其以為它仍在人體內(nèi)運(yùn)轉(zhuǎn),大腦的主人具有一切如常的幻覺;缸中之腦雖然沒有身體感覺器官,但確實(shí)具有類似感官饋飼的神經(jīng)末梢傳入信號,這些信號在缸中之腦的運(yùn)算與人類大腦中的運(yùn)算別無二致,“不承認(rèn)它們具有意識或者智慧是荒謬的”。〔15#〕這表明,意識狀態(tài)不應(yīng)被還原為大腦的生理組織而應(yīng)該被還原為其功能狀態(tài),大腦的物質(zhì)基礎(chǔ)并不是最重要的,〔16#〕由此也強(qiáng)調(diào)了大腦對外部刺激信號的處理而產(chǎn)生的內(nèi)在體驗(yàn)。圖靈則更注重外觀效果,他認(rèn)為真正重要的是判斷一臺(tái)機(jī)器能否表現(xiàn)出與人類等同或難以區(qū)分的智能行為?!?7#〕人類無法從第一人稱視角衡量人工智能的內(nèi)在體驗(yàn),但在外觀意義上,生成式人工智能的出色表現(xiàn)似乎足以讓人認(rèn)為其具有一定意識能力。這里表述為“意識能力”而非“意識”,主要考慮到生成式人工智能目前只展現(xiàn)出這種潛能的一部分。在人文主義哲學(xué)家那里,意識乃至靈魂是人類面對AGI進(jìn)攻的最后堡壘。〔18#〕

意識主要有兩種認(rèn)知方式,一種是分析性的理性,另一種是經(jīng)驗(yàn)性的直覺,前者運(yùn)用邏輯證據(jù)推導(dǎo)產(chǎn)生,后者基于經(jīng)驗(yàn)迅速自動(dòng)形成?!?9#〕如果說傳統(tǒng)基于規(guī)則編碼的人工智能已學(xué)會(huì)理性的邏輯思考,那么基于統(tǒng)計(jì)預(yù)測的生成式人工智能實(shí)則已擁有感性的經(jīng)驗(yàn)直覺。認(rèn)知心理學(xué)家認(rèn)為,直覺是一種迅速出現(xiàn)在意識中的判斷,這種判斷的深層理由并不能被完全說清楚,但它足夠強(qiáng)烈以至于讓人產(chǎn)生行動(dòng),其支撐原理主要是經(jīng)驗(yàn)法則和大腦進(jìn)化能力?!?0#〕這種經(jīng)驗(yàn)與神經(jīng)的互動(dòng)機(jī)制與生成式人工智能使用的概率預(yù)測方法之間有相似之處:直覺是由人腦潛意識對大量經(jīng)驗(yàn)進(jìn)行總結(jié)歸納,快速產(chǎn)生判斷或決策,這正如人工神經(jīng)網(wǎng)絡(luò)基于大數(shù)據(jù)統(tǒng)計(jì)預(yù)測,生成概率最大的輸出結(jié)果。大模型是直覺機(jī)制的運(yùn)用者:雖然“說不清、道不明”,但在數(shù)以億計(jì)的參數(shù)支撐下,面對特定提示詞的啟發(fā),總有一種“感覺”“沖動(dòng)”促使自己生成某種語句、圖像乃至音視頻,這實(shí)際上就是壓倒性概率導(dǎo)向的直覺?!敖柚诖碳し夯袡C(jī)體能夠把已有的經(jīng)驗(yàn)遷移到新的學(xué)習(xí)環(huán)境中去,從而擴(kuò)大學(xué)習(xí)范圍?!薄?1#〕基于大規(guī)模數(shù)據(jù)訓(xùn)練的直覺“涌現(xiàn)”,正是生成式人工智能的特別之處。

具體應(yīng)用中,符號主義人工智能回應(yīng)法律咨詢時(shí),會(huì)抓取用戶指令的關(guān)鍵要素,基于專家預(yù)先設(shè)定的規(guī)則進(jìn)行模式識別、符號演算和邏輯推理,定位到系統(tǒng)知識圖譜中的特定知識,形成相應(yīng)回答。假如這臺(tái)機(jī)器賴以支撐的知識圖譜準(zhǔn)確完善,那么其回答中引用的法律條文將與現(xiàn)實(shí)中真實(shí)條文一字不差。這是因?yàn)榉筛拍钆c條文已作為“本體”框架固定到知識圖譜中,成為系統(tǒng)內(nèi)部確定知識以支撐邏輯思考?!?2#〕但向ChatGPT詢問某個(gè)法律問題,它很可能編造并不存在的法律條文。美國有律師使用ChatGPT輔助訴訟,結(jié)果其憑空捏造了6個(gè)虛假判例作為法律淵源,最終釀成大錯(cuò)?!?3+〕業(yè)界稱之為“機(jī)器幻覺”難題。實(shí)際上,幻覺就是錯(cuò)誤的直覺,這正是想象力、創(chuàng)造力的表現(xiàn)。

“意識能夠把某些不太相關(guān)的內(nèi)容煉化掉,是智能的一種體現(xiàn)”,〔24+〕擁有自主注意力的AGI具有更強(qiáng)大的自我統(tǒng)攝性。這種智能不單是基于規(guī)則的邏輯思考能力,還包括基于經(jīng)驗(yàn)的直覺創(chuàng)造能力。

二、從算法可釋到模型可信:AGI規(guī)制核心的轉(zhuǎn)變

法律發(fā)揮穩(wěn)定規(guī)范預(yù)期的功能, 但日新月異的技術(shù)不斷挑戰(zhàn)著以文本形式固定下來的法律制度。當(dāng)符號主義時(shí)代提出的可解釋性成為主流規(guī)制方案時(shí),從本質(zhì)上就難以透明解釋的神經(jīng)網(wǎng)絡(luò)已經(jīng)占據(jù)技術(shù)舞臺(tái)的中心。在該歷史進(jìn)程中,“算法”的概念發(fā)生偏移,包含巨量參數(shù)的大模型成為AGI的核心。由于“直覺”難以解釋,可解釋性規(guī)制也將從一種教義式的規(guī)范信條轉(zhuǎn)變?yōu)閷?shí)現(xiàn)“模型可信”的工具手段,它不再是全盤托出的透明,而是區(qū)分對象、目的、場景、內(nèi)容的說明方案。

(一)超越以算法為中心的可解釋性規(guī)制

1.算法、模型與可解釋人工智能

在社科法學(xué)知識生產(chǎn)過程中,若沒有尊重相關(guān)學(xué)科的術(shù)語體系,則容易導(dǎo)致討論混亂?!?5+〕人工智能法領(lǐng)域的算法研究汗牛充棟,但有學(xué)者指出:“法學(xué)文獻(xiàn)中層見疊出的‘算法’表述往往脫離技術(shù)事實(shí),在規(guī)范上也無準(zhǔn)確所指,有些甚至是明顯的張冠李戴……大量‘提喻’性的‘算法’,其真實(shí)所指是對自然人權(quán)益有直接影響的人工智能系統(tǒng)?!薄?6+〕實(shí)際上,在計(jì)算機(jī)專家眼中,“算法是以某個(gè)值或一組值作為輸入,并產(chǎn)生一些值或一組值作為輸出的任何被妥善定義的計(jì)算過程”,即“將輸入轉(zhuǎn)化為輸出的一系列計(jì)算步驟”?!?7+〕不管是梯度下降算法、反向傳播算法,還是協(xié)同過濾算法,其實(shí)都是一套清晰的規(guī)則,“算法=邏輯+控制”?!?88〕由此梳理算法、模型、參數(shù)等概念及其關(guān)系。算法是一組方法或步驟,用于實(shí)現(xiàn)某種特定的任務(wù)或解決某個(gè)問題。模型是在算法使用數(shù)據(jù)進(jìn)行訓(xùn)練后輸出的文件,通常是具有特定流程和結(jié)構(gòu)的計(jì)算機(jī)程序。參數(shù)是模型中需要訓(xùn)練和優(yōu)化的變量,它們的值影響模型輸出結(jié)果,例如GPT-3具有1750億個(gè)參數(shù)。

所以,雖然“算法黑箱”是中文法學(xué)界熱詞,但在使用這種提法時(shí)應(yīng)當(dāng)明晰其指向。所謂“黑箱”,并不是算法本身不夠透明,而是“AI黑箱”———無法完全理解的人工智能決策過程以及無法精準(zhǔn)預(yù)測的人工智能輸出?!?9+〕其關(guān)鍵在于模型或系統(tǒng)。歐美主要法域相關(guān)法律文件中極少出現(xiàn)技術(shù)細(xì)節(jié)層面的“算法”一詞。〔308〕討論焦點(diǎn)實(shí)為“可解釋AI”(Explainable8AI,8簡稱XAI),而非“可解釋算法”。學(xué)界所謂“算法解釋權(quán)”是一個(gè)飽受爭議的概念?!?18〕誠然,由于媒體的熱炒,“算法”概念的語義偏移或已難避免,但應(yīng)在不同語境中辨明其外延指向,實(shí)現(xiàn)知識推理的體系性和研究成果的實(shí)效性。如果法律領(lǐng)域的“算法”與技術(shù)語境的算法,概念口徑存在較大縮放空間,則可能削弱規(guī)制效果。從技術(shù)實(shí)質(zhì)考慮,法律規(guī)范應(yīng)將注意力放到數(shù)據(jù)、模型和系統(tǒng)這些指向更為清晰、作用更為關(guān)鍵的層面。

2.符號主義時(shí)代的產(chǎn)物———傳統(tǒng)人工智能規(guī)制原理辨析

新一代人工智能的某些“黑箱”囿于技術(shù)約束是無法避免的,但為何主流學(xué)術(shù)界和實(shí)務(wù)界仍執(zhí)著于“可解釋性”的規(guī)制思路? 一種可能的解釋是,可解釋性原則在源頭上本是符號主義人工智能時(shí)代的產(chǎn)物,由于路徑依賴效應(yīng)延續(xù)至今。從時(shí)間上看,可解釋性原則的提出之際正是符號主義人工智能大行其道的時(shí)代。20世紀(jì)70至80年代,由人類專家定義和制定規(guī)則的符號主義人工智能發(fā)展鼎盛,著名的系統(tǒng)包括卡內(nèi)基梅隆大學(xué)的XCON(1978年,近1萬條規(guī)則)、斯坦福大學(xué)的MYCIN(1984年,400多條規(guī)則)等。〔322〕這一時(shí)期相應(yīng)出現(xiàn)了“可解釋AI”的研究文獻(xiàn),〔332〕通過解釋系統(tǒng)內(nèi)部的推理規(guī)則,人類希望理解其為何輸出某種特定決策結(jié)果。從效果上看,在輸入的符號與輸出的結(jié)果之間對各個(gè)處理步驟進(jìn)行逐一仔細(xì)的回溯性檢查,這使得人工智能的行為處于人類的高度控制之下。在可行性維度,由于機(jī)器內(nèi)部的規(guī)則和知識是由人類專家定義和制定的,它們也更易于人類理解?!?42〕

隨著神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí)等復(fù)雜技術(shù)的興起,可解釋性原則的必要性與可行性受到部分學(xué)者的質(zhì)疑。學(xué)者們認(rèn)為,國家安全、社會(huì)秩序、私主體權(quán)利可能與之相沖突,并且打開黑箱也并不等同于看懂黑箱內(nèi)的內(nèi)容和解決實(shí)際規(guī)制問題,〔352〕這種思路面臨技術(shù)不可行、公開無意義,用戶算計(jì)與侵犯知識產(chǎn)權(quán)等現(xiàn)實(shí)難題。〔362〕實(shí)際上,由于有多重技術(shù)黑箱的疊加,所謂的解釋也可能是牽強(qiáng)附會(huì)的便辭巧說,外部觀察者根本難以證偽?!?72〕有學(xué)者則提出“透明層次論”對上述矛盾進(jìn)行緩釋,如通過柔性規(guī)范推動(dòng)“經(jīng)由設(shè)計(jì)的透明”?!?82〕超越非黑即白的二元對立思維,基于場景主義方法以光譜式多層次透明度應(yīng)對黑箱難題,確實(shí)是一條值得肯定的現(xiàn)實(shí)路徑;不過這似乎表征著傳統(tǒng)人工智能規(guī)制原理向技術(shù)現(xiàn)實(shí)作出的艱難讓步,與之相伴的正是符號主義技術(shù)路線在相關(guān)領(lǐng)域的敗退。透明層次論正是在這樣的妥協(xié)中力求劃定一條堅(jiān)守的底線。那么,生成式人工智能及其正在孕育的AGI,究竟有哪些可以透明的“層次”? 對此,有必要以大模型為例展開研討。

(二)AGI的規(guī)制難點(diǎn)與應(yīng)對方案

對于具有邏輯確定性的符號主義人工智能而言,關(guān)鍵在于對代碼編寫者的權(quán)力進(jìn)行控制,防止代碼規(guī)則在轉(zhuǎn)譯現(xiàn)實(shí)時(shí)脫離藍(lán)本?!?92〕但AGI的決策路徑不同,它不一定使用邏輯思考的方式,而是基于經(jīng)驗(yàn)產(chǎn)生行動(dòng)的直覺。思考可以很復(fù)雜,但往往條理清晰而得以解釋;直覺可以很簡單,但其支撐理由通常是一片混沌。這既意味著AGI在創(chuàng)造性方面的潛力,也預(yù)示了其規(guī)制難題。

質(zhì)言之,AGI的“直覺”從根本上撼動(dòng)了傳統(tǒng)人工智能“算法可釋”的規(guī)制原理。一方面,“算法”并不能涵蓋生成式人工智能的內(nèi)核,因?yàn)榇竽P筒皇菃渭兘橛谳斎肱c輸出之間的計(jì)算方法,而是“處理框架+大規(guī)模參數(shù)”的集合體。處理框架即模型的整體結(jié)構(gòu)和運(yùn)行方式,而參數(shù)則負(fù)責(zé)“記憶”模型所學(xué)到的知識,決定了模型的意識能力和生成內(nèi)容的質(zhì)量。以人腦作類比,人們的思維方式、世界知識、技能方法等廣義的“經(jīng)驗(yàn)”或“記憶”都會(huì)塑造或改變大腦的某些特定神經(jīng)回路或連接,其原理即“神經(jīng)可塑性”。〔402〕這些存儲(chǔ)在大腦神經(jīng)元與突觸間的“記憶”會(huì)極大地影響人們輸出的語言內(nèi)容和質(zhì)量,正所謂“腹有詩書氣自華”。同樣地,對于人工神經(jīng)網(wǎng)絡(luò)而言,大規(guī)模訓(xùn)練數(shù)據(jù)可以擴(kuò)充和改變模型的參數(shù),這些參數(shù)在某種意義上代表著機(jī)器的“記憶”。可見,無論是技術(shù)意義上作為計(jì)算步驟的算法,還是提喻意義上作為處理框架的“算法”,都忽視了模型內(nèi)部龐大參數(shù)所帶來的關(guān)鍵影響。實(shí)際上,AGI的規(guī)制落腳點(diǎn)主要在于模型。

另一方面,直覺是一種向“可能”場域的延展,而不僅是就事論事的機(jī)械執(zhí)行,算法“可釋”的原初邏輯已然消解。人類思維的不可視性決定了人腦從本質(zhì)上就是一個(gè)“黑箱”。模仿人腦構(gòu)建神經(jīng)網(wǎng)絡(luò)的人工智能也天然具有“黑箱”屬性:輸入與輸出之間存在多個(gè)隱藏層,第三代人工神經(jīng)網(wǎng)絡(luò)甚至像人腦神經(jīng)元一樣通過脈沖交換信息?!?1&〕面對巨大復(fù)雜計(jì)算量和算力的客觀局限,人類也不可能在合理時(shí)間內(nèi)審查AGI的全部計(jì)算過程,換言之,其無法達(dá)到完備的被認(rèn)知狀態(tài)?!?2&〕所以,盡管傳統(tǒng)人工智能的規(guī)制核心在于“算法可釋”,即呈現(xiàn)其內(nèi)部的推理步驟,但AGI的規(guī)制核心并非如此。

從技術(shù)與人的關(guān)系來看,AGI不再像傳統(tǒng)工具一樣是人類“自我身體的延伸”,而是擁有自主智能性的“它者”。作為一種與人面對面相遇的獨(dú)立存在,其不透明性導(dǎo)致的是信任難題。規(guī)制AGI的關(guān)鍵在于構(gòu)建足以讓人信任的模型,即實(shí)現(xiàn)“模型可信”?!靶湃巍币馕吨┬欧脚c受信方之間存在或多或少的信息不對稱,同時(shí)受信方亦展現(xiàn)一定特質(zhì)、披露一定信息,讓施信方在不掌握全盤信息時(shí),仍有底氣將信賴托付出去。信息的披露總是存在顆粒度的極限邊界。例如,人類可以對自己的決策作出解釋,這些解釋可能包括理性論證或指向感性沖動(dòng),但并不需要對決策過程中大腦神經(jīng)活動(dòng)細(xì)節(jié)進(jìn)行描述。只需要以語言行動(dòng)等方式為媒介,當(dāng)交互雙方的信息流動(dòng)突破某個(gè)均衡點(diǎn)時(shí),信任即可發(fā)生。國際上備受關(guān)注的“可解釋AI”落實(shí)到AGI領(lǐng)域,實(shí)質(zhì)在于打造安全可信的模型??山忉屖菫榱丝衫斫?,可理解是為了可信任。解釋不是在算法層面,而是在模型或系統(tǒng)層面;解釋只是邁向“模型可信”的手段之一。所以,解釋并不要求全盤托出,也不是籠統(tǒng)標(biāo)榜透明,而要具體區(qū)分對象、目的、內(nèi)容、效果。

具言之,在解釋對象和目的方面,至少應(yīng)區(qū)分幾種不同的受眾———第三方認(rèn)證審計(jì)等技術(shù)專家、監(jiān)管者、商業(yè)合作伙伴、消費(fèi)者等,每類受眾的知識背景和目標(biāo)訴求都有所不同。技術(shù)專家與監(jiān)管者更側(cè)重于從社會(huì)公共利益角度對可能影響網(wǎng)絡(luò)安全和國家安全的產(chǎn)品服務(wù)進(jìn)行安全性審查?!?3&〕商業(yè)合作伙伴可能傾向于獲知系統(tǒng)的業(yè)務(wù)邏輯與技術(shù)方案,消費(fèi)者則更希望了解產(chǎn)品服務(wù)的特性以及它對自身所造成的可能影響及其原因。在解釋內(nèi)容方面,針對處理超大規(guī)模參數(shù)的AGI,普通用戶并不需要了解機(jī)器每個(gè)行為背后的神經(jīng)元構(gòu)成及權(quán)重變化,真正對機(jī)器具有較深層次解釋需求的實(shí)際上是監(jiān)管者和審計(jì)者。〔44&〕經(jīng)濟(jì)合作與發(fā)展組織也指出,“透明度一般不會(huì)擴(kuò)展到披露源代碼或其他專有代碼,或共享專有數(shù)據(jù)集,這在技術(shù)上可能過于復(fù)雜,以至于并不具備可行性或有助于理解結(jié)果。源代碼和數(shù)據(jù)集也可能受知識產(chǎn)權(quán)或商業(yè)秘密的保護(hù)”。〔45&〕在解釋效果方面,審計(jì)者等技術(shù)專家應(yīng)當(dāng)?shù)靡酝ㄟ^對模型架構(gòu)、參數(shù)來源、訓(xùn)練數(shù)據(jù)等方面的詳盡了解,實(shí)現(xiàn)對AGI可靠性安全性的審核確認(rèn),而普通用戶則主要是以清晰簡單的語言方式獲知機(jī)器運(yùn)行的基本原理和機(jī)制,以及決定輸出結(jié)果的主要因素。實(shí)際上,真正重要的是形成“提出理由和反對理由”的意見交換制度,通過不同主體對技術(shù)和決策的具體評價(jià)確保個(gè)人成為數(shù)字化秩序的主體?!?6&〕

(三)歐盟《人工智能法案》相關(guān)條款分析

人工智能的比較法發(fā)展可以為人工智能規(guī)制脈絡(luò)提供鏡鑒。2023年6月, 歐洲議會(huì)投票通過《人工智能法案》,這意味著歐洲議會(huì)、歐盟成員國和歐盟委員會(huì)將開始“三方談判”確定法案的最終條款。當(dāng)前版本法案最大的特點(diǎn)是采取風(fēng)險(xiǎn)分級路徑進(jìn)行規(guī)制,而風(fēng)險(xiǎn)是基于人工智能系統(tǒng)的應(yīng)用場景進(jìn)行判定的,涉及如下領(lǐng)域的系統(tǒng)則為高風(fēng)險(xiǎn):自然人的生物特征識別和分類,關(guān)鍵基礎(chǔ)設(shè)施的管理和運(yùn)營,教育和職業(yè)培訓(xùn),就業(yè)、員工管理和獲得自主就業(yè),獲得和享受基本私人服務(wù)以及公共服務(wù)和福利,執(zhí)法,移民、庇護(hù)和邊境管制管理,司法行政和民主程序。〔47#〕

AGI如運(yùn)用于上述領(lǐng)域,亦會(huì)歸入高風(fēng)險(xiǎn)之列。根據(jù)法案第11條第1款,高風(fēng)險(xiǎn)人工智能系統(tǒng)的技術(shù)文件應(yīng)當(dāng)在該系統(tǒng)投放市場或投入使用之前制定,至少應(yīng)包含附件IV所規(guī)定的內(nèi)容。而從附件IV來看,技術(shù)文件包括了人工智能系統(tǒng)的一般描述(如預(yù)期目的、開發(fā)系統(tǒng)的人員、系統(tǒng)投放市場或投入使用的所有形式的描述、運(yùn)行硬件的描述等),人工智能系統(tǒng)要素及其開發(fā)過程的詳細(xì)說明(如預(yù)訓(xùn)練工具等開發(fā)方法和步驟,基本原理假設(shè)、算法系統(tǒng)邏輯、參數(shù)相關(guān)性等系統(tǒng)設(shè)計(jì)規(guī)范,以及系統(tǒng)架構(gòu)描述、使用的驗(yàn)證和測試程序等),人工智能系統(tǒng)的監(jiān)測、運(yùn)行和控制的詳細(xì)信息,等等。可見,高風(fēng)險(xiǎn)人工智能系統(tǒng)面向監(jiān)管者、審計(jì)者的解釋義務(wù)較高,透明顆粒度較細(xì)。不難理解的是,作為公共利益的代表者,要信任高風(fēng)險(xiǎn)模型必須掌握更多信息。

法案第13條則針對面向用戶的透明度進(jìn)行規(guī)定,要求高風(fēng)險(xiǎn)人工智能系統(tǒng)的設(shè)計(jì)和開發(fā)應(yīng)附有適當(dāng)?shù)氖褂谜f明,其中包括與用戶相關(guān)的、可獲取的、可理解的簡明、完整、正確和清晰的信息。該條第3款還進(jìn)一步細(xì)化了要說明的內(nèi)容,包括系統(tǒng)的性能特征、功能和局限性等。顯然,面向用戶的說明并不涉及太多的技術(shù)細(xì)節(jié),透明的內(nèi)容和程度達(dá)到的是“適當(dāng)”的要求。

值得注意的是,法案在開篇的備忘錄中提及,“對于一些特定的人工智能系統(tǒng),(法案)只提出了最低限度的透明度義務(wù),特別是在使用聊天機(jī)器人或‘深度偽造’時(shí)”。〔48,〕如果人工智能只是作為聊天機(jī)器人而不涉及前述敏感應(yīng)用場景,則供應(yīng)商可能適用法案第52條的透明度義務(wù):使自然人被告知他們正在與人工智能系統(tǒng)進(jìn)行互動(dòng),除非從環(huán)境和使用背景中可以明顯看出這一點(diǎn);對于情感識別系統(tǒng)或生物識別分類系統(tǒng),應(yīng)將該系統(tǒng)的運(yùn)作情況告知接觸到該系統(tǒng)的自然人;如果人工智能系統(tǒng)生成或操縱的圖像、音頻或視頻內(nèi)容與現(xiàn)有的人、物、地方或其他實(shí)體或事件明顯相似,并會(huì)讓人誤以為是真實(shí)的,則應(yīng)披露該內(nèi)容是人為生成或操縱的。這意味著,此時(shí)的透明度義務(wù)主要指向?qū)θ斯ぶ悄芟到y(tǒng)使用情況的披露,而不涉及在原理或技術(shù)層面的公開。這一方面印證了本文主張的觀點(diǎn),即生成式人工智能及AGI的規(guī)制核心并非算法可釋, 而是聚焦于使特定主體在特定場景下對模型產(chǎn)生足夠的信任。另一方面也正如學(xué)者所言,將技術(shù)創(chuàng)新與新型技術(shù)風(fēng)險(xiǎn)等同、將一項(xiàng)單獨(dú)的技術(shù)產(chǎn)品及其風(fēng)險(xiǎn)作為新型的治理對象,存在商榷和反思的空間?!?9,〕

三、從控制主義到訓(xùn)導(dǎo)主義:AGI治理范式的躍遷

韋伯有言:“直接支配人類行為的,不是思想,而是物質(zhì)和理想化的利益。但被思想觀念創(chuàng)造出來的‘世界形象’,往往如扳道工一樣,決定著利益動(dòng)力學(xué)推進(jìn)行動(dòng)的軌道?!薄?0#〕技術(shù)發(fā)展伴隨著制度體系的流變,而兩者背后還有一條隱秘的思想史線索。在技術(shù)原理與制度實(shí)踐基礎(chǔ)上進(jìn)行抽象提煉,揭示出人工智能開發(fā)應(yīng)用與治理范式的理念脈絡(luò),為AGI時(shí)代的來臨做好思想認(rèn)識上的準(zhǔn)備,意義深遠(yuǎn)。

(一)基于邏輯的控制與基于經(jīng)驗(yàn)的訓(xùn)導(dǎo)

基于邏輯規(guī)則的符號主義人工智能與基于神經(jīng)網(wǎng)絡(luò)的連接主義人工智能,反映了兩種不同的哲學(xué)觀。前者認(rèn)為人工智能的行為與決策來源于形而上的超驗(yàn)規(guī)定,只要這些規(guī)定足夠覆蓋現(xiàn)實(shí)世界中每一種可能的情況,并且在每種情況中指示人工智能作出類似人類的特定反應(yīng),那么就實(shí)現(xiàn)了人工智能作為無限接近人類的本體存在。后者認(rèn)為人工智能的行為與決策來源于形而下的經(jīng)驗(yàn)積累,只要這些經(jīng)驗(yàn)足夠豐富多樣,并且讓人工智能通過不斷地試錯(cuò)和反饋來優(yōu)化自身的參數(shù),那么就可以讓人工智能成為不斷逼近乃至超越人類的能動(dòng)行為體。

實(shí)現(xiàn)AGI的關(guān)鍵在于后者,即基于經(jīng)驗(yàn)的路線。從定義上看,AGI是可以在多樣化的情景環(huán)境中執(zhí)行多樣化任務(wù)、實(shí)現(xiàn)多樣化目標(biāo)的系統(tǒng),它必須有能力處理和應(yīng)對那些其開發(fā)創(chuàng)造者并未預(yù)料到的情況和難題,并且擁有良好的知識總結(jié)提煉能力、知識遷移運(yùn)用能力。由于人類的理性是有限的,客觀上不可能為機(jī)器預(yù)見并設(shè)定所有的可能情景和目標(biāo)路徑,因此基于規(guī)則的符號主義路線難以完成開發(fā)AGI的任務(wù)。生成式人工智能通過預(yù)訓(xùn)練大模型執(zhí)行泛化任務(wù)、涌現(xiàn)創(chuàng)造靈感,為AGI的到來開辟了道路,而其成功的根源在于為機(jī)器找到了從多模態(tài)數(shù)據(jù)中自主學(xué)習(xí)經(jīng)驗(yàn)并迭代成長的機(jī)制。

實(shí)現(xiàn)智能的技術(shù)路線決定了規(guī)制者如何理解AGI的特征,進(jìn)而影響對規(guī)范作用方式的設(shè)想,這些意識層面的線索可以整合形成治理范式。針對符號主義人工智能的治理范式,是以基于邏輯的控制為中心,或稱“控制主義”治理范式。符號主義人工智能構(gòu)筑于人為制定的代碼規(guī)則之上,因而人類的規(guī)范系統(tǒng)是要實(shí)現(xiàn)對機(jī)器內(nèi)部符號邏輯的精準(zhǔn)把控,確保對人工智能的高度控制。換言之,自上而下的規(guī)則設(shè)計(jì)將迫使人工智能對特定情境進(jìn)行特定模式的處理,給定可預(yù)期的輸出。我國很多人工智能治理文件都提出了“安全可控”的治理目標(biāo),涉及算法透明度、算法問責(zé)等具體規(guī)定。這些規(guī)范是控制主義治理范式的集中反映,該范式以確保作為信息處理步驟的“算法”受控為途徑,力圖實(shí)現(xiàn)人工智能安全、公平、準(zhǔn)確等目標(biāo)。

但是,生成式人工智能基于深度神經(jīng)網(wǎng)絡(luò)和超大規(guī)模參數(shù),其直覺涌現(xiàn)機(jī)制從根本上動(dòng)搖了“人類可以精確預(yù)測和掌控機(jī)器行為”的認(rèn)知。人工智能背后的技術(shù)語言存在某種悖論,即對精準(zhǔn)的執(zhí)念終將導(dǎo)致與執(zhí)念境地相反的結(jié)局?!?1&〕面對生成式人工智能及其正在邁向的AGI,控制主義治理范式將陷入失靈的困境。從技術(shù)原理上看,AGI的行為很難直接精準(zhǔn)地受控制。大模型的涌現(xiàn)創(chuàng)造力是一種直覺機(jī)制,其生成原理涉及模型結(jié)構(gòu)與參數(shù)設(shè)置,而相當(dāng)一部分參數(shù)是經(jīng)由大規(guī)模數(shù)據(jù)訓(xùn)練獲取,涉及數(shù)百億、千億乃至更大規(guī)模的數(shù)量級,不同參數(shù)之間的相互作用和權(quán)衡關(guān)系非常復(fù)雜,難以直接控制和精確調(diào)整以實(shí)現(xiàn)特定結(jié)果。從治理效果上看,試圖控制生成式人工智能或AGI行為的努力并不能確保良好有效的結(jié)果,反而可能造成資源浪費(fèi)和機(jī)會(huì)錯(cuò)失。控制主義思維的出發(fā)點(diǎn)是安全,但要統(tǒng)籌發(fā)展與安全,就不能因安全考慮而阻礙發(fā)展??刂浦髁x范式下的規(guī)制措施可能對AGI開發(fā)廠商所施加不合理的成本壓力,從而限制技術(shù)創(chuàng)新迭代,導(dǎo)致我國在國際競爭格局中處于被動(dòng)地位。2023年4月《生成式人工智能服務(wù)管理辦法(征求意見稿)》第4條“利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實(shí)準(zhǔn)確,采取措施防止生成虛假信息”體現(xiàn)了控制主義的理念,而在最終正式發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》中更改為“基于服務(wù)類型特點(diǎn),采取有效措施,提升生成式人工智能服務(wù)的透明度,提高生成內(nèi)容的準(zhǔn)確性和可靠性”,柔化了對人工智能輸出結(jié)果的硬性控制要求,值得肯定。

總之,對于AGI而言,風(fēng)險(xiǎn)可控不等于行為可控。涌現(xiàn)創(chuàng)造力正意味著不可預(yù)測性。既然人類在代碼層面對AGI實(shí)施全面精準(zhǔn)控制的能力顯示出下降的征兆,則有必要探索以經(jīng)驗(yàn)訓(xùn)導(dǎo)為中心的方法進(jìn)路,或稱“訓(xùn)導(dǎo)主義”治理范式。訓(xùn)導(dǎo)主義治理范式注重培育AGI的基礎(chǔ)價(jià)值觀,將注意力聚焦于優(yōu)化開發(fā)迭代與應(yīng)用互動(dòng)環(huán)境,為其提供促使機(jī)器向造福人類方向成長的經(jīng)驗(yàn)數(shù)據(jù),致力于讓AGI成為人類可信賴的助手和伙伴。當(dāng)下技術(shù)界與哲學(xué)社科界的交叉研究越來越強(qiáng)調(diào)“價(jià)值對齊”“倫理先行”〔52+〕等議題,實(shí)際上反映了這種理念。

(二)實(shí)用主義哲學(xué)作為訓(xùn)導(dǎo)主義的內(nèi)核

大模型率先在美國誕生,美國企業(yè)愿意投入巨量資金向模型輸入超大規(guī)模數(shù)據(jù)進(jìn)行訓(xùn)練,這與北美本土強(qiáng)調(diào)經(jīng)驗(yàn)的實(shí)用主義哲學(xué)不無關(guān)聯(lián)。哲學(xué)上的實(shí)用主義是一種“方法”,它拋棄了理性主義的氣質(zhì),要在經(jīng)驗(yàn)主義占優(yōu)勢的基礎(chǔ)上避開字面上的解決方式、先驗(yàn)的理由、固定的原則和封閉的體系?!?3#〕實(shí)用主義尤其強(qiáng)調(diào)“經(jīng)驗(yàn)”的重要地位,在實(shí)用主義集大成者杜威看來,“人與下等動(dòng)物不同,因?yàn)槿吮4嬷倪^去經(jīng)驗(yàn)”?!?4#〕杜威所言“經(jīng)驗(yàn)”既指向經(jīng)驗(yàn)的對象,又指向經(jīng)驗(yàn)的過程?!?5#〕有機(jī)體按照自己構(gòu)造的繁簡向著環(huán)境動(dòng)作, 結(jié)果環(huán)境所產(chǎn)生的變化又反映到有機(jī)體和自身的活動(dòng)上去,這個(gè)動(dòng)作和感受的密切關(guān)系就形成了所謂的經(jīng)驗(yàn)?!?6#〕對生成式人工智能和AGI而言,經(jīng)驗(yàn)就是其賴以升級迭代的訓(xùn)練數(shù)據(jù)。有學(xué)者即稱ChatGPT為“經(jīng)驗(yàn)主義算法和進(jìn)化論迭代”〔57#〕的產(chǎn)物。

實(shí)用主義視域下的經(jīng)驗(yàn)有兩個(gè)基本特征:第一,經(jīng)驗(yàn)中包含著思維,即能夠識別所嘗試的事和所發(fā)生的結(jié)果之間的關(guān)系。同樣地,AGI的模型也蘊(yùn)含著思維框架,處理數(shù)據(jù)時(shí)存在輸入與輸出之間的映射關(guān)系。第二,經(jīng)驗(yàn)即實(shí)驗(yàn),同時(shí)包含主動(dòng)和被動(dòng)的因素,主動(dòng)意義上的經(jīng)驗(yàn)就是嘗試或者實(shí)驗(yàn),被動(dòng)意義上的經(jīng)驗(yàn)就是承受結(jié)果?!?8#〕同樣地,AGI正是通過獲取大量的數(shù)據(jù)來學(xué)習(xí)和理解世界,并在這個(gè)過程中經(jīng)由實(shí)驗(yàn)性反饋不斷調(diào)整和改進(jìn)模型,逐漸掌握復(fù)雜的任務(wù)能力。實(shí)用主義哲學(xué)與AGI具有高度的內(nèi)在契合性,啟發(fā)我們回到實(shí)用主義哲學(xué)中探尋治理思路。實(shí)際上,杜威不僅是一位哲學(xué)家,他還將實(shí)用主義引入教育領(lǐng)域并成為20世紀(jì)重要的教育思想家。AGI的訓(xùn)導(dǎo)主義治理范式,關(guān)鍵就在于杜威教育思想的引入。人類同機(jī)器間的交流正在從“代碼—指令傳達(dá)”的互動(dòng)范式升格為“語言—意圖領(lǐng)會(huì)”,〔59#〕這將使AGI從工具升格為助手。我們對助手進(jìn)行訓(xùn)導(dǎo),不對工具進(jìn)行訓(xùn)導(dǎo)。

訓(xùn)導(dǎo)的重心不是代碼或算法,而在于經(jīng)驗(yàn)或數(shù)據(jù)。杜威指出:“溝通是經(jīng)驗(yàn)分享,使經(jīng)驗(yàn)成為彼此所共有……人與人的相處關(guān)系不論是何種形態(tài),都因?yàn)榭梢蕴嵘?jīng)驗(yàn)的質(zhì)量而具有意義……每一種社會(huì)安排都有教育的作用?!薄?0#〕AGI的治理關(guān)鍵就在于通過法律等社會(huì)規(guī)范安排,使其在開發(fā)應(yīng)用過程中盡可能吸納符合人類價(jià)值觀和道德準(zhǔn)則的經(jīng)驗(yàn),成為具有自主善惡是非觀念的人類助手?!敖逃耸墙?jīng)驗(yàn)的再造或重組,這再造或重組的過程能增添經(jīng)驗(yàn)的意義,也能使人更有能力引導(dǎo)隨后經(jīng)驗(yàn)的走向。”〔61#〕在治理AGI過程中,人類世界形成的共同準(zhǔn)則可成為訓(xùn)導(dǎo)的經(jīng)驗(yàn)素材,這些經(jīng)驗(yàn)可以影響、塑造和調(diào)教AGI的行為決策傾向,使其有壓倒性的概率直覺自主地作出造福人類的行為。社會(huì)主流價(jià)值觀是長期進(jìn)化、全局利益平衡的結(jié)果,AGI有能力發(fā)現(xiàn)和比較不同的價(jià)值標(biāo)準(zhǔn)。〔62#〕由此,不僅在完成任務(wù)的技能上,而且在服務(wù)人類的意愿上,AGI“都是基于自我的主體視角而非他者的上帝視角,是主動(dòng)的經(jīng)驗(yàn)建構(gòu)而非被動(dòng)的算法支配,屬于自創(chuàng)生而非被創(chuàng)造”?!?3#〕

訓(xùn)導(dǎo)的媒介是環(huán)境。杜威認(rèn)為:“既然硬生生地灌輸行不通……方法應(yīng)該就是:借環(huán)境的作用引發(fā)一定的反應(yīng)?!薄?4#〕教育是以環(huán)境為媒介促成的。在AGI治理中,開發(fā)環(huán)境、應(yīng)用環(huán)境、產(chǎn)業(yè)環(huán)境是法律必須重點(diǎn)關(guān)注的要素。其一,開發(fā)環(huán)境影響AGI的設(shè)計(jì)制造,涉及機(jī)器如何生產(chǎn)和訓(xùn)練的問題。例如,自2008年美國籌建國家網(wǎng)絡(luò)空間靶場(NCR)以來,研制模擬實(shí)戰(zhàn)靶場已經(jīng)成為行業(yè)重點(diǎn)探索的方向。其二,應(yīng)用環(huán)境影響AGI的使用效果,涉及用戶引導(dǎo)、社會(huì)效益與風(fēng)險(xiǎn)評估等問題。AGI時(shí)代是“提示詞”時(shí)代,機(jī)器的學(xué)習(xí)與創(chuàng)造離不開用戶的主導(dǎo)和參與,應(yīng)通過法律規(guī)范妥善處理人機(jī)交互關(guān)系,促成良好的應(yīng)用環(huán)境。其三,產(chǎn)業(yè)環(huán)境影響AGI的發(fā)展趨勢,涉及市場競爭、政策態(tài)度、國際合作等問題?!霸谌蛐畔㈩I(lǐng)域,創(chuàng)新鏈、產(chǎn)業(yè)鏈、價(jià)值鏈整合能力越來越成為決定成敗的關(guān)鍵。”〔65&〕應(yīng)支持AGI產(chǎn)業(yè)聯(lián)盟的組建和發(fā)展,推動(dòng)強(qiáng)強(qiáng)聯(lián)合、協(xié)同攻關(guān)、有序競爭。法律作為一種規(guī)范性指引,需要對這些環(huán)境因素進(jìn)行有效的監(jiān)督和引導(dǎo),促進(jìn)AGI產(chǎn)業(yè)健康、規(guī)范、可持續(xù)發(fā)展。

訓(xùn)導(dǎo)的基礎(chǔ)是人類價(jià)值觀的底層嵌入。雖然杜威強(qiáng)調(diào)教育是以環(huán)境為媒介達(dá)成,但他也指出,“純粹外在的指導(dǎo)是不可能的。環(huán)境頂多只能做到供給刺激來引發(fā)反應(yīng)。反應(yīng)卻是從個(gè)人已經(jīng)具備的意向發(fā)出來的”?!?6&〕AGI的初始信念和底層動(dòng)機(jī)對于機(jī)器以何種立場和方式處理經(jīng)驗(yàn)而言起著基礎(chǔ)性作用。當(dāng)然,語言文本形式的抽象價(jià)值信條并不能由機(jī)器直接理解和操作,應(yīng)充分認(rèn)識到“心性養(yǎng)成主要是憑借參與共同行為的經(jīng)驗(yàn)而來”?!?7&〕當(dāng)前技術(shù)界關(guān)注的“實(shí)時(shí)雙向價(jià)值對齊”研究成果體現(xiàn)了這一理念,我國科學(xué)家采用通信學(xué)習(xí)方法研發(fā)具有心智理論的系統(tǒng),使得機(jī)器在人類動(dòng)態(tài)反饋下具有理解人類心理狀態(tài)和合作需求的能力,進(jìn)而形成以人類為中心、人機(jī)兼容的協(xié)作過程。〔68&〕

(三)訓(xùn)導(dǎo)主義治理范式的基本法學(xué)命題

法律規(guī)范體系基于訓(xùn)導(dǎo)理念介入調(diào)整AGI的開發(fā)應(yīng)用,是契合技術(shù)發(fā)展規(guī)律的有效路徑。訓(xùn)導(dǎo)主義治理范式至少包括以下基本命題:

第一,在AGI的開發(fā)訓(xùn)練中,應(yīng)培育其造福人類的終極動(dòng)機(jī)。終極動(dòng)機(jī)和底層信念涉及AGI對自身和世界的基本認(rèn)知,從根本上影響其行為和決策。阿西莫夫曾提出著名的“機(jī)器人三定律”,但在計(jì)算機(jī)專家看來,“定義一套倫理教條并將其作為機(jī)器倫理的核心路線,對于靈活而有心智的AGI而言,恐怕是毫無希望的”?!?9&〕道德律令對于AGI而言不具有直接的可操作性,但如果機(jī)器缺乏終極動(dòng)機(jī)和底層信念,很可能成為不可信任甚至危險(xiǎn)有害的破壞者。道德需要對傾向性進(jìn)行反思的能力,而傾向性是由進(jìn)化和經(jīng)歷塑造而成的;要使抽象信條有效運(yùn)作,應(yīng)以強(qiáng)效價(jià)的形式不斷強(qiáng)化與該信條相關(guān)聯(lián)的感覺,在知覺學(xué)習(xí)中讓神經(jīng)網(wǎng)絡(luò)的價(jià)值規(guī)則節(jié)點(diǎn)與其他節(jié)點(diǎn)形成緊密連接?!?0+〕但“造福人類”信條的具體表現(xiàn)眾說紛紜,法律規(guī)范必須為AGI的價(jià)值對齊過程探尋一套公平的調(diào)整原則和程序機(jī)制。

第二,應(yīng)當(dāng)加強(qiáng)AGI訓(xùn)練數(shù)據(jù)的內(nèi)容生態(tài)規(guī)范化建設(shè)?!爸灰プ?shù)據(jù)這個(gè)關(guān)鍵,人工智能法律規(guī)制可收到事半功倍的效果?!薄?1&〕有學(xué)者發(fā)人深省地追問:“我們的數(shù)據(jù)法律與政策是否符合人工智能時(shí)代的特征,什么樣的數(shù)據(jù)法律和政策才能滿足ChatGPT的訓(xùn)練? ”〔72+〕人類可以在社會(huì)生活中親身經(jīng)歷事件、獲得真實(shí)感受,并以此為成長的經(jīng)驗(yàn),但AGI迭代進(jìn)化的經(jīng)驗(yàn)在現(xiàn)階段仍主要表現(xiàn)為文本、圖像、音頻、視頻等數(shù)據(jù),因此數(shù)據(jù)環(huán)境建設(shè)至關(guān)重要。以文本為例,數(shù)據(jù)環(huán)境既包括由人類產(chǎn)生的、向機(jī)器輸入的數(shù)據(jù),又包括人工智能輸出的數(shù)據(jù),因?yàn)楫?dāng)前生成式人工智能在互聯(lián)網(wǎng)生成散布的數(shù)據(jù)也可能成為訓(xùn)練數(shù)據(jù)。這一方面要求處理好知識產(chǎn)權(quán)問題?!渡墒饺斯ぶ悄芊?wù)管理暫行辦法》第7條要求訓(xùn)練數(shù)據(jù)處理活動(dòng)“涉及知識產(chǎn)權(quán)的,不得侵害他人依法享有的知識產(chǎn)權(quán)”,仍待解釋的問題是,如果使用受版權(quán)保護(hù)的材料來訓(xùn)練大模型,法律應(yīng)當(dāng)如何定性? 若涉及付費(fèi),應(yīng)當(dāng)支付單價(jià)還是另行協(xié)商? 另一方面要求處理好社交機(jī)器人的法律規(guī)制問題。機(jī)器可能以自動(dòng)化的方式生成言論并偽裝成人的言論進(jìn)入思想市場,〔73+〕降低數(shù)據(jù)內(nèi)容質(zhì)量。因此,應(yīng)強(qiáng)化中文語料庫的規(guī)范化與豐富度建設(shè),避免誤導(dǎo)性、歧視性乃至反社會(huì)、反人類的內(nèi)容侵蝕AGI的認(rèn)知框架。

第三,應(yīng)當(dāng)注重AGI應(yīng)用場景分類分級監(jiān)管與針對用戶的規(guī)制。AGI在與環(huán)境的交互過程中獲得數(shù)據(jù)反饋并迭代升級, 同時(shí)環(huán)境要素也受影響而改變。應(yīng)對AGI的應(yīng)用場景進(jìn)行精細(xì)化分類分級監(jiān)管,在不同治理目標(biāo)之間取得平衡。作為前提,對于醫(yī)療、就業(yè)、執(zhí)法和公共管理等涉及公民人格尊嚴(yán)和基本權(quán)利的場景,應(yīng)當(dāng)對AGI的模型可信度和安全性提出更高要求,并配套相應(yīng)的市場準(zhǔn)入與技術(shù)審計(jì)制度。劃定高風(fēng)險(xiǎn)場景的邊界,可以為企業(yè)在技術(shù)迭代與應(yīng)用場景創(chuàng)新等方面留足空間。此外,應(yīng)當(dāng)合理分配AGI開發(fā)制造者、服務(wù)提供者與用戶之間的法律責(zé)任,并關(guān)注針對用戶的規(guī)制。AGI的法律人格、〔74/〕責(zé)任能力、〔75/〕法律行為〔76O〕和刑法地位〔77/〕等問題已備受關(guān)注,而從生成式人工智能的人機(jī)協(xié)作模式還可以預(yù)見,用戶將對AGI的行為決策產(chǎn)生引導(dǎo)性的基礎(chǔ)影響。因此,除了技術(shù)可靠性以外,還須從用戶使用環(huán)境角度采取措施防止AGI的濫用和誤用。例如,用戶應(yīng)當(dāng)對自己輸入的提示詞和指令負(fù)責(zé),避免對生成式人工智能進(jìn)行惡意誘導(dǎo)式提問、對AGI下達(dá)導(dǎo)致違法后果的指令。未來,在AGI執(zhí)行任務(wù)時(shí),用戶可能處于類似監(jiān)護(hù)人的地位,其在訓(xùn)導(dǎo)機(jī)器過程中負(fù)有一定責(zé)任,這有待在實(shí)踐發(fā)展的基礎(chǔ)上進(jìn)一步深化研究。

結(jié)論

技術(shù)正在使人工智能獲得逼近乃至超越人的能力。過去,我們認(rèn)為語言是人類的天賦,語言的邊界就是思想的邊界。但大模型的成功意味著AGI可以在直覺涌現(xiàn)的意義上掌握語言。在充滿不確定性的現(xiàn)代社會(huì),法學(xué)須從決定論向嵌入蓋然性思維演進(jìn)。〔78/〕對于AGI而言,算法可釋不是核心,模型可信才是重點(diǎn)??山忉屖菫榱丝衫斫?,可理解是為了可信任。要信任AGI,不應(yīng)訴諸控制,而應(yīng)訴諸訓(xùn)導(dǎo)。實(shí)用主義哲學(xué)具有強(qiáng)大的解釋力和指引力,可作為訓(xùn)導(dǎo)主義治理范式的思想內(nèi)核。

猜你喜歡
直覺規(guī)制主義
“好一個(gè)裝不下”直覺引起的創(chuàng)新解法
主動(dòng)退市規(guī)制的德國經(jīng)驗(yàn)與啟示
新寫意主義
林文月 “人生是一場直覺”
海峽姐妹(2020年7期)2020-08-13 07:49:22
一個(gè)“數(shù)學(xué)直覺”結(jié)論的思考
近光燈主義
保護(hù)與規(guī)制:關(guān)于文學(xué)的刑法
刑法論叢(2018年4期)2018-05-21 00:44:30
數(shù)學(xué)直覺謅議
論《反不正當(dāng)競爭法》的規(guī)制范疇
法治研究(2016年4期)2016-12-01 03:41:40
這是一部極簡主義詮釋片
Coco薇(2016年7期)2016-06-28 02:13:55
正定县| 克什克腾旗| 湄潭县| 德格县| 厦门市| 和顺县| 田东县| 沭阳县| 雷山县| 晋中市| 宜章县| 贡嘎县| 辽阳县| 青田县| 东莞市| 宾川县| 来安县| 深州市| 霍林郭勒市| 弋阳县| 栖霞市| 曲阳县| 永宁县| 越西县| 台州市| 文水县| 东丽区| 甘洛县| 金溪县| 精河县| 平原县| 兴义市| 济宁市| 鲜城| 滨海县| 军事| 阿拉善盟| 周口市| 长沙县| 商城县| 台安县|