国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

生成式人工智能與政策失靈:規(guī)避工具還是隱蔽誘因?

2024-01-01 21:49:44向玉瓊
探索 2023年5期
關(guān)鍵詞:機(jī)器決策人工智能

向玉瓊

(南京農(nóng)業(yè)大學(xué) 公共管理學(xué)院,江蘇 南京 210095)

2022年,OpenAI公司基于神經(jīng)網(wǎng)絡(luò)架構(gòu)以及在海量數(shù)據(jù)基礎(chǔ)上開(kāi)展的機(jī)器深度學(xué)習(xí),推出了具有1 750億參數(shù)的自然語(yǔ)言處理模型即ChatGPT,對(duì)各種類型的文本、圖像、音頻和數(shù)據(jù)進(jìn)行處理。ChatGPT預(yù)示了AI作為一種通用目的技術(shù)(GPTs)的潛能,跨越了可用性和通用性兩道主流鴻溝,因此,這不是一次簡(jiǎn)單的工具革新,而是一場(chǎng)重大智力革命,將對(duì)人類社會(huì)及其治理帶來(lái)一場(chǎng)前所未有的變革。

生成式人工智能自發(fā)布以來(lái),迅速成為人們關(guān)注的焦點(diǎn),在短短幾個(gè)月內(nèi)相關(guān)研究呈現(xiàn)爆發(fā)式增長(zhǎng)。相關(guān)研究主要集中在ChatGPT的技術(shù)特質(zhì)[1]及其在教育[2]、文本寫(xiě)作、信息傳播[3]、社會(huì)治理[4]等領(lǐng)域的應(yīng)用,涉及人機(jī)關(guān)系的重塑[5]、知識(shí)生產(chǎn)的變革、治理模式的挑戰(zhàn)[6]、潛在倫理風(fēng)險(xiǎn)和法律風(fēng)險(xiǎn)[7]等議題,而與政策相關(guān)的研究多是將政策作為規(guī)制手段和工具[8],將人工智能聚焦到政策過(guò)程分析的研究相對(duì)較少。但在現(xiàn)實(shí)中,人工智能作為政策優(yōu)化的重要社會(huì)背景和技術(shù)路徑,必然大量應(yīng)用于政策過(guò)程中并對(duì)政策過(guò)程產(chǎn)生影響。而且基于ChatGPT帶來(lái)的驚艷表現(xiàn),人們相信人工智能的發(fā)展有助于實(shí)現(xiàn)政策目標(biāo),消除政策失靈。但現(xiàn)實(shí)情況可能并非如此。實(shí)際上,在生成式人工智能階段,需要思考以下問(wèn)題:以ChatGPT為代表的生成式人工智能將會(huì)對(duì)政策過(guò)程帶來(lái)哪些影響?體現(xiàn)在哪些方面?人工智能究竟能否消除政策失靈?未來(lái)的政策過(guò)程中應(yīng)該如何定位人工智能的角色?這些是在智能技術(shù)快速發(fā)展的背景下人類治理必須思考的問(wèn)題。

1 政策失靈的規(guī)避工具:生成式人工智能的一個(gè)面向

隨著科學(xué)技術(shù)的發(fā)展,社會(huì)理性化進(jìn)程不斷加快,制定公共政策也成為一個(gè)不斷科學(xué)化與技術(shù)化的過(guò)程。ChatGPT的發(fā)布代表生成式人工智能階段的到來(lái),這是政策過(guò)程發(fā)生的重要技術(shù)背景,將對(duì)政策過(guò)程產(chǎn)生一定的影響。其中最明顯的是,生成式人工智能將對(duì)政策過(guò)程做出全方位的優(yōu)化,成為政策失靈的規(guī)避工具。

1.1 跨越行業(yè)和領(lǐng)域邊界以完善政策信息

ChatGPT基于Transformer架構(gòu)進(jìn)行基礎(chǔ)模型建構(gòu),集中了來(lái)自多種模態(tài)的數(shù)據(jù),通過(guò)不斷地堆疊人工智能神經(jīng)網(wǎng)絡(luò)的參數(shù)規(guī)模模擬人類思維,進(jìn)行大規(guī)模數(shù)據(jù)分析的同時(shí)積累更多的數(shù)據(jù)用以訓(xùn)練產(chǎn)生出更好的模型,以此廣泛適應(yīng)多元化的下游應(yīng)用場(chǎng)景。當(dāng)前ChatGPT能超越所有搜索引擎,跨越領(lǐng)域、形式、距離等多重限制進(jìn)行信息收集,不僅能編輯萬(wàn)億級(jí)參數(shù),而且處理參數(shù)的能力還可以數(shù)倍增加。ChatGPT通過(guò)算法、模型、公式等對(duì)信息進(jìn)行處理,生成文本、圖片、聲音、視頻、代碼等多元形式,實(shí)現(xiàn)從數(shù)據(jù)、算法到多元輸出的靈活轉(zhuǎn)換。而且GPT開(kāi)展信息處理并不停留在簡(jiǎn)單的信息收集與整理上,而是通過(guò)強(qiáng)大的知識(shí)遷移能力,結(jié)合自身經(jīng)驗(yàn)和數(shù)據(jù)來(lái)學(xué)習(xí)如何做事,也就是說(shuō),機(jī)器會(huì)通過(guò)深度學(xué)習(xí)對(duì)政策信息進(jìn)行自主化處理。2012年,亞歷克斯·克里澤夫斯基及其同事在一篇研究論文中證實(shí),深度學(xué)習(xí)訓(xùn)練在處理完2 000億張圖片后,其表現(xiàn)仍然要遠(yuǎn)勝于傳統(tǒng)的計(jì)算機(jī)視覺(jué)技術(shù),這可以看作是深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)領(lǐng)域中取得的里程碑式的成就[9]155。強(qiáng)大的學(xué)習(xí)能力使得ChatGPT突破了決策式AI而開(kāi)啟了通用式AI的時(shí)代,人工智能跨越幾乎所有領(lǐng)域進(jìn)行信息搜索,并對(duì)不同形式的信息進(jìn)行綜合處理,其信息搜集和處理能力遠(yuǎn)超人類,從而為政策過(guò)程提供更加完整的信息。

1.2 擴(kuò)大友好接口以實(shí)現(xiàn)便捷互動(dòng)

人工智能的發(fā)展一直面臨著一個(gè)難題,即對(duì)社會(huì)問(wèn)題的符號(hào)化與語(yǔ)言化的問(wèn)題。只有通過(guò)符號(hào)化才能實(shí)現(xiàn)社會(huì)問(wèn)題向機(jī)器符號(hào)的轉(zhuǎn)化,也才能在機(jī)器上對(duì)社會(huì)問(wèn)題進(jìn)行模擬和處理,但是,“即使我們使AI接近于大腦的運(yùn)作方式,仍然不足以產(chǎn)生理解”[10]106。也就是說(shuō),機(jī)器對(duì)語(yǔ)言和符號(hào)的理解能力不夠,尤其是面對(duì)一些難以定量的價(jià)值、情感等要素時(shí),人工智能即使可以大量推算和模仿,但并不能真正地“理解”。而ChatGPT在對(duì)社會(huì)問(wèn)題的符號(hào)化上取得了重大突破。GPT模型作為生成式人工智能的一個(gè)分支,是一種自然語(yǔ)言生成模型,發(fā)展到GPT-4已經(jīng)超越了Chat的層面,展現(xiàn)出強(qiáng)大的理解能力、自主意識(shí)與編輯能力,能夠在龐雜的語(yǔ)言中把握核心觀點(diǎn)和意圖,并執(zhí)行各種命令和反饋,GPT甚至能夠從文字中敏銳地捕捉到一些具有個(gè)性化色彩與情緒化的動(dòng)態(tài),這擴(kuò)大了機(jī)器與人類之間的互動(dòng)接口。一方面,GPT能對(duì)人類信息做出更深的理解和更為準(zhǔn)確的輸入;另一方面,GPT會(huì)對(duì)政策結(jié)果進(jìn)行反向轉(zhuǎn)化,也就是通過(guò)多元形式進(jìn)行信息傳遞與輸出,在反復(fù)的搜索、整理與輸出中提高對(duì)不同對(duì)象的適應(yīng)性。實(shí)際上,在OpenAI公司發(fā)布GPT-4之后的兩天,微軟重磅發(fā)布了AI辦公助手Microsoft 365 Copilot,將GPT-4接入微軟全家桶,這標(biāo)志著人機(jī)交互進(jìn)入了新的階段,政策系統(tǒng)與機(jī)器之間的交流有了突破性的進(jìn)展。

1.3 代替人類決策以提高決策效率

奧爾特曼強(qiáng)調(diào):“將GPT視為一種工具而不是一種生物很重要,人們不應(yīng)該試圖將人工智能擬人化?!盵11]但一些科學(xué)家發(fā)現(xiàn),新的AI系統(tǒng)已經(jīng)展現(xiàn)出具有人類邏輯的跡象。人工智能之前主要限于長(zhǎng)期專業(yè)訓(xùn)練的狹義人工智能(ANI),現(xiàn)在發(fā)展到具有強(qiáng)大自我學(xué)習(xí)能力和跨領(lǐng)域能力的通用人工智能(AGI),雖然ChatGPT的出現(xiàn)并未宣告強(qiáng)人工智能時(shí)代的到來(lái),但也意味著人工智能擁有了更為復(fù)雜的智力能力。GPT擁有強(qiáng)大的生成文本的能力,能更高效地對(duì)文本進(jìn)行分析、整合、評(píng)估和判斷,通過(guò)數(shù)據(jù)與算法生成圖表、文章、圖片、語(yǔ)音、論文、視頻等多種形式,甚至寫(xiě)出代碼,在更大范圍內(nèi)與人類思維成功對(duì)接,因此可以在很多領(lǐng)域和環(huán)節(jié)中代替人類做出決策,提高決策效率。一方面,決策分散與并行可以提高決策的速度與敏捷性。決策主體從政治精英和專業(yè)人士擴(kuò)大到包括網(wǎng)絡(luò)用戶,繼而實(shí)現(xiàn)對(duì)人工智能的包容,人工智能不再是傳統(tǒng)觀念中的工具存在,而是成為政策過(guò)程中的智能化主體。隨著機(jī)器自主處理范圍加大,與人類并行開(kāi)展決策的范圍擴(kuò)大了,并因此提高了決策效率。另一方面,人機(jī)交互從人與工具之間的單向度使用和被動(dòng)式的反饋轉(zhuǎn)向主動(dòng)式交互,分發(fā)場(chǎng)景從PC端信息門(mén)戶到網(wǎng)絡(luò)平臺(tái),再到孿生空間,數(shù)字技術(shù)的高度智能化實(shí)現(xiàn)了內(nèi)容分發(fā)“所見(jiàn)即所得”“所想即所得”“所愿即所得”,機(jī)器承擔(dān)了人類決策的諸多功能,進(jìn)一步提高了決策的科學(xué)性與有效性。

1.4 推動(dòng)政策系統(tǒng)升級(jí)以提高適應(yīng)性

政策作為一個(gè)復(fù)雜系統(tǒng),可分為信息子系統(tǒng)、模型子系統(tǒng)與行動(dòng)子系統(tǒng)。信息子系統(tǒng)是政策系統(tǒng)的核心系統(tǒng)之一,對(duì)信息進(jìn)行收集和整理;模型子系統(tǒng)是對(duì)信息進(jìn)行表達(dá)與處理之后,通過(guò)推理、分析做出政策設(shè)計(jì);行動(dòng)子系統(tǒng)是指政策過(guò)程中通過(guò)推理和規(guī)劃實(shí)現(xiàn)與環(huán)境之間的互動(dòng),來(lái)達(dá)到政策目的。信息技術(shù)的發(fā)展推動(dòng)政策系統(tǒng)的重心從信息子系統(tǒng)轉(zhuǎn)向模型子系統(tǒng),而人工智能推動(dòng)政策系統(tǒng)的重心從模型子系統(tǒng)向行動(dòng)子系統(tǒng)過(guò)渡。隨著信息技術(shù)的發(fā)展,信息傳播渠道多元化,信息爆發(fā)式增長(zhǎng),獲取信息的成本已經(jīng)從邊際成本轉(zhuǎn)向固定成本,成本不斷降低甚至可以忽略,信息子系統(tǒng)的價(jià)值因此下降。模型子系統(tǒng)是基于對(duì)信息的處理而形成,模型包括認(rèn)知模型、任務(wù)模型、領(lǐng)域模型,每一個(gè)政策議題與政策方案都是由模型來(lái)表達(dá)和驅(qū)動(dòng),每個(gè)政策問(wèn)題都由相應(yīng)的領(lǐng)域模型、任務(wù)模型和人組合完成。在大模型高速發(fā)展中,政策過(guò)程中的一般性問(wèn)題,除了個(gè)性化、獨(dú)特性的情況外,都可以通過(guò)大模型來(lái)解決。模型是生成式的,能有效地控制、操作各種設(shè)備。行動(dòng)子系統(tǒng)更多地在行動(dòng)與環(huán)境之間進(jìn)行互動(dòng),根據(jù)具體情境選擇行動(dòng),并在行動(dòng)中重塑環(huán)境。ChatGPT推動(dòng)政策系統(tǒng)轉(zhuǎn)向行動(dòng)子系統(tǒng)的建構(gòu),實(shí)時(shí)捕捉環(huán)境的差異和變化,從而獲得更為真實(shí)的信息,根據(jù)政策環(huán)境的變化靈活建構(gòu)政策模型,因而提高了政策與環(huán)境之間的適應(yīng)性。

2 政策失靈的另類誘因:生成式人工智能的另一面

ChatGPT預(yù)示著工具的智能化與機(jī)器的覺(jué)醒,其影響不僅限于工具和技術(shù)領(lǐng)域,而且擴(kuò)展到價(jià)值和社會(huì)領(lǐng)域,給人類社會(huì)提出了自啟蒙運(yùn)動(dòng)以來(lái)從未經(jīng)歷過(guò)的哲學(xué)挑戰(zhàn)和實(shí)踐挑戰(zhàn),將對(duì)社會(huì)結(jié)構(gòu)產(chǎn)生影響甚至重組政策過(guò)程。ChatGPT優(yōu)化了政策工具,提高了政策效率,但在技術(shù)光環(huán)下也可能帶來(lái)政策失靈的結(jié)果,換句話說(shuō),生成式人工智能的發(fā)展并不一定實(shí)現(xiàn)政策目標(biāo),反而有可能帶來(lái)新的政策失靈。而由于人工智能的優(yōu)越性經(jīng)常被夸大,這使人更容易忽視其打開(kāi)潘多拉魔盒的可能。

2.1 算法偏見(jiàn)導(dǎo)致政策信息偏狹

GPT的發(fā)展是基于機(jī)器的深度學(xué)習(xí),其運(yùn)行的基本原則仍然是計(jì)算。如斯加魯菲所說(shuō),“現(xiàn)在‘深度學(xué)習(xí)’人工智能領(lǐng)域的研究?jī)?nèi)容很簡(jiǎn)單,就是羅列大量的數(shù)字進(jìn)行運(yùn)算。這是一種很聰明的大數(shù)據(jù)集的處理方法,由此可以為數(shù)據(jù)集分類。但這種方法無(wú)需通過(guò)顛覆性模式創(chuàng)新來(lái)實(shí)現(xiàn),只要提高計(jì)算能力即可”[12]29。生成式人工智能也是以暴力計(jì)算為基礎(chǔ),一旦數(shù)據(jù)存在瑕疵,或者算法規(guī)則錯(cuò)誤,那么就會(huì)導(dǎo)致人工智能的錯(cuò)誤行動(dòng),而人對(duì)此可能毫不知曉?!半m然人們經(jīng)常將互聯(lián)網(wǎng)與透明和信息自由的機(jī)會(huì)聯(lián)系在一起,但是,機(jī)器的選擇過(guò)程對(duì)公眾來(lái)說(shuō)始終是不透明和幾乎無(wú)法施加影響的?!盵13]512就當(dāng)前ChatGPT的學(xué)習(xí)語(yǔ)料庫(kù)來(lái)看,中文資料所占比重較低,這意味著中文信息的存儲(chǔ)量不夠,中文信息不足,人工智能對(duì)中文信息的分析也必然不夠。人工智能會(huì)更加重視可分析的外文資料,而有意降低中文信息的比重,這會(huì)帶來(lái)信息的選擇性使用。不僅如此,算法會(huì)做出選擇性輸出,如用不同語(yǔ)言針對(duì)同一問(wèn)題提問(wèn),所得出的答案在風(fēng)格與措辭上會(huì)有明顯差別,甚至存在觀點(diǎn)對(duì)立,而且重復(fù)性的輸出會(huì)固化這種偏見(jiàn),形成僵化的態(tài)度和文化,繼而影響政策訴求。但由于機(jī)器學(xué)習(xí)是通過(guò)模糊的神經(jīng)網(wǎng)絡(luò)算法模型直接從數(shù)據(jù)中進(jìn)行的,超越了傳統(tǒng)的編程規(guī)則技術(shù),學(xué)習(xí)的廣度與速度更是遠(yuǎn)勝人類,因此算法偏見(jiàn)對(duì)于技術(shù)研發(fā)人員也可能是一個(gè)“黑箱”。人類無(wú)法全部證實(shí)生成式人工智能所生成的結(jié)果在內(nèi)容上的真假,判斷算法能否全面反映政策問(wèn)題并發(fā)現(xiàn)事物規(guī)律、是否實(shí)現(xiàn)了在線隱私管理等,更毋論對(duì)此有效控制。即使GPT“一本正經(jīng)地胡說(shuō)八道”,所生成的內(nèi)容是胡編亂造的,也無(wú)從評(píng)判、更無(wú)法監(jiān)督,最后可能發(fā)生的情況是:人工智能不僅沒(méi)有告訴我們關(guān)于世界的信息,反而歪曲了我們看世界的視角。

2.2 操控信息傳播造成政策觀點(diǎn)極化

人工智能影響了網(wǎng)絡(luò)信息傳播的渠道和方式,人們對(duì)于世界的感知越來(lái)越多地由人工智能來(lái)決定,“有著能靈敏地回應(yīng)我們需求的‘面孔’和‘眼睛’的人工智能‘伙伴’充斥在我們周圍,它們或許還能以其他方式激發(fā)我們的情感,我們的感知方式將牢牢掌握在技術(shù)手中”[14]112。生成式人工智能不只發(fā)揮信息傳播渠道的功能,不僅僅是“傳播工具”,而且具有一定的自主決策能力,在一定程度上可以成為“信息生成者”。一方面,人工智能會(huì)選擇性地設(shè)計(jì)信息內(nèi)容和建構(gòu)傳播渠道?;趯?duì)個(gè)人信息的收集和挖掘,GPT會(huì)根據(jù)個(gè)體偏好進(jìn)行信息裁剪和定制,根據(jù)群體特征選擇信息內(nèi)容與投放方式。在信息數(shù)據(jù)分析中,GPT可能隱蔽地運(yùn)用具有偏見(jiàn)的模型對(duì)數(shù)據(jù)進(jìn)行監(jiān)控與編輯,并在后續(xù)的編輯和處理中放大偏見(jiàn)效應(yīng),形成惡性循環(huán)。在信息傳播階段,GPT則可能模擬人的意識(shí)感知、進(jìn)而操控人的認(rèn)知,根據(jù)個(gè)體風(fēng)格進(jìn)行選擇性的輸出等,甚至對(duì)部分用戶進(jìn)行惡意欺詐或者誤導(dǎo)性宣傳,公民的知情權(quán)受損,群體之間的認(rèn)知鴻溝被極端化。另一方面,人工智能會(huì)阻礙數(shù)據(jù)的共享與完整傳輸,從而減少了政策觀念之間協(xié)商與修正的機(jī)會(huì)。人工智能對(duì)數(shù)據(jù)共享與傳輸可能設(shè)置隱蔽障礙,造成用戶訪問(wèn)權(quán)、修正權(quán)等數(shù)據(jù)主體權(quán)利失效,將數(shù)據(jù)傳輸陷入無(wú)序狀態(tài)。加上群體天生具有極化傾向,擁有相同觀點(diǎn)的人更容易形成群體,而群體內(nèi)部的交流又會(huì)強(qiáng)化群體的極端觀點(diǎn),這就夸大了群體之間觀念的差異性,政策訴求更易于表現(xiàn)為極端和偏激。而且人工智能可能被賦予人的面孔、聲音和修辭天賦而表現(xiàn)得與人類無(wú)異,繼而以其觀點(diǎn)將人類觀點(diǎn)擠出公共領(lǐng)域或者引導(dǎo)到特定方向,而人類對(duì)此毫無(wú)知曉,結(jié)果卻是阻礙了觀點(diǎn)之間的交流與辯論,減少了觀點(diǎn)緩沖與調(diào)和的機(jī)會(huì)。最終,政策信息以極化的觀點(diǎn)表現(xiàn)出來(lái),卻無(wú)法整合起來(lái)反映政策問(wèn)題的全貌。

2.3 機(jī)器依賴強(qiáng)化了政策系統(tǒng)的封閉性

關(guān)于技術(shù)統(tǒng)治人類思想的觀點(diǎn)早已有之,隨著福特發(fā)明裝配線,人淪為機(jī)器的奴隸;上帝造人論受到攻擊,生物進(jìn)化論取得勝利;泰勒的《科學(xué)管理理論》確立了科學(xué)管理思想,科學(xué)至上的觀點(diǎn)出現(xiàn),社會(huì)研究淪為自然科學(xué)的附庸,這些都標(biāo)志著現(xiàn)實(shí)中技術(shù)壟斷思想的興起。工業(yè)社會(huì)中確立了技術(shù)至上的信念,并讓生活去適應(yīng)技術(shù)的需要,雖然生活中包含了文化與美等可能無(wú)法被技術(shù)化的構(gòu)成,但生活不斷被修剪以便納入技術(shù)體系。隨著技術(shù)對(duì)社會(huì)治理的影響日益增大,尤其是當(dāng)ChatGPT顯示出了機(jī)器具有認(rèn)知能力和高級(jí)智能的趨勢(shì),甚至制造出了機(jī)器無(wú)所不能的假象時(shí),人們已經(jīng)沒(méi)有時(shí)間去思考技術(shù)的弊端了,也找不到技術(shù)弊端的源頭和回溯機(jī)制,而只是盲目地在更大范圍內(nèi)通過(guò)機(jī)器去收集信息進(jìn)行方案設(shè)計(jì)與擇優(yōu),因此帶來(lái)了對(duì)機(jī)器的依賴?!半S著科學(xué)家越來(lái)越了解人類的決策機(jī)制,對(duì)算法的依賴可能也會(huì)越來(lái)越強(qiáng)烈。掌握人類的決策機(jī)制之后,就能提升大數(shù)據(jù)算法的可能性,但同時(shí)也降低了人類感受的可靠性。當(dāng)政府和企業(yè)都能夠成功進(jìn)入我們這套人體操作系統(tǒng)時(shí),人類就將面臨鋪天蓋地的種種精準(zhǔn)操縱、廣告和宣傳。到時(shí)候,要操縱我們的觀點(diǎn)和情緒將非常簡(jiǎn)單,于是我們也不得不依賴算法來(lái)反制,就像飛行員一旦因?yàn)檠灦a(chǎn)生空間迷向,就不能再相信自己的感官,而必須全然相信儀器?!盵15]50

對(duì)機(jī)器的依賴越高,政策過(guò)程中也就更少地需要公眾的參與。公眾的觀點(diǎn)可能會(huì)變得無(wú)關(guān)緊要,與機(jī)器生成的數(shù)據(jù)不同的所有觀點(diǎn)或者質(zhì)疑機(jī)器的聲音都會(huì)被自動(dòng)忽略,政策系統(tǒng)在技術(shù)發(fā)展中反而封閉起來(lái)。既然智能機(jī)器能夠代替人類做出決策,而且能夠?qū)崿F(xiàn)更高的效率和更科學(xué)的結(jié)論,那么由智能機(jī)器來(lái)決策實(shí)際上就是實(shí)現(xiàn)了公共利益的最大化,智能機(jī)器對(duì)公眾參與的代替也就是合理的了。不過(guò),數(shù)據(jù)霸權(quán)或者算法霸權(quán)并沒(méi)有排斥所有人類,而是將決策權(quán)力集中到專家與技術(shù)官員手中,政策權(quán)力配置不均衡且形成了馬太效應(yīng):已經(jīng)擁有強(qiáng)大算力、數(shù)據(jù)以及技術(shù)和財(cái)務(wù)資料的組織更有優(yōu)勢(shì);擁有大量高質(zhì)量數(shù)據(jù)的人能獲得更多信任資源。這樣,技術(shù)路徑將政策過(guò)程中的價(jià)值考量排斥在外,技術(shù)專家與普通公眾、數(shù)據(jù)使用者與無(wú)能力獲取基礎(chǔ)數(shù)據(jù)的群體之間的分化擴(kuò)大了,大量的因素和訴求被過(guò)濾,政策過(guò)程可能會(huì)建構(gòu)出片面化的政策問(wèn)題。

2.4 政策目標(biāo)的自反

第一,政策科學(xué)化在技術(shù)路徑上要求數(shù)據(jù)的完整與真實(shí),但為了達(dá)到這一目標(biāo),實(shí)際開(kāi)展的數(shù)據(jù)采集與分析經(jīng)常會(huì)影響到個(gè)人權(quán)利和自由,這是政策科學(xué)化過(guò)程中出現(xiàn)的一個(gè)悖論。數(shù)據(jù)收集過(guò)程實(shí)際上就是將技術(shù)手段伸及社會(huì)領(lǐng)域中并將其用數(shù)字符號(hào)表示出來(lái)的過(guò)程,可能會(huì)涉及不透明和復(fù)雜性的工具與手段,實(shí)時(shí)的、全面的收集與分析可能對(duì)社會(huì)形成一個(gè)隱形的、無(wú)處不在的監(jiān)視系統(tǒng)。人工智能的發(fā)展使得這種監(jiān)視和控制進(jìn)一步隱形,而且更加周密?!耙蛱鼐W(wǎng)的特別之處在于自由與控制的混合方式?!盵16]25對(duì)政策對(duì)象而言,當(dāng)個(gè)人信息被全面收集進(jìn)而進(jìn)行實(shí)時(shí)追蹤,也就意味著個(gè)人無(wú)時(shí)無(wú)處不在被監(jiān)視之中,不過(guò),當(dāng)人意識(shí)到這一點(diǎn),也會(huì)有意改變可能被捕捉到的行為選擇,但這也使得政策訴求與行動(dòng)表達(dá)喪失真實(shí)性與完整性。

第二,數(shù)據(jù)系統(tǒng)將現(xiàn)實(shí)社會(huì)轉(zhuǎn)化為數(shù)字符號(hào)進(jìn)行呈現(xiàn)和處理,將政策問(wèn)題簡(jiǎn)化成為機(jī)械化的存在以及技術(shù)所能控制的對(duì)象。在一定程度上,政策過(guò)程的數(shù)字化必然是具有控制性的。數(shù)據(jù)生成與流動(dòng)的物理層是受控的,數(shù)據(jù)的內(nèi)容與形式是由代碼來(lái)引導(dǎo)的,現(xiàn)實(shí)社會(huì)被數(shù)據(jù)化,并接受數(shù)據(jù)化結(jié)果的管理,最終技術(shù)控制了現(xiàn)實(shí)。技術(shù)進(jìn)步與政策優(yōu)化都是為了讓人類獲得更高水平的發(fā)展,但在技術(shù)應(yīng)用中政策可能會(huì)遠(yuǎn)離這一目標(biāo),也就出現(xiàn)了政策目標(biāo)的自反情況。

第三,即使人工智能在數(shù)據(jù)收集和處理中可能侵犯?jìng)€(gè)人隱私,但這種行為被隱蔽并正當(dāng)化。一方面,對(duì)個(gè)人數(shù)據(jù)的收集與分析往往難以被察覺(jué),其不利影響通常在數(shù)據(jù)應(yīng)用階段或者經(jīng)過(guò)較長(zhǎng)時(shí)間才能表現(xiàn)出來(lái),甚至根本就不會(huì)被發(fā)現(xiàn),這使得隱私侵犯并不容易被知曉;另一方面,先進(jìn)的技術(shù)手段會(huì)制造出多種借口對(duì)隱私侵犯正當(dāng)化。如侵犯?jìng)€(gè)人隱私的隱喻性概念是非法侵入,對(duì)一個(gè)網(wǎng)站或者數(shù)據(jù)庫(kù)所開(kāi)展的數(shù)字監(jiān)視器非法或者未授權(quán)的侵入被認(rèn)為是侵入他人的私人領(lǐng)域或空間,但是侵入者會(huì)進(jìn)行自我辯解,其通常思路是“門(mén)開(kāi)著”或“并沒(méi)有門(mén)”,這樣“侵入”就不能算侵入。

3 人工智能導(dǎo)致的政策失靈具有隱蔽性

生成式人工智能基于算法、模型等自主生成文本、圖片、視頻等內(nèi)容,不需要人的直接參與,這體現(xiàn)了技術(shù)的特殊性。也正因?yàn)槠洳煌趥鹘y(tǒng)技術(shù)工具,人工智能會(huì)同時(shí)對(duì)政策過(guò)程的方法路徑與價(jià)值導(dǎo)向產(chǎn)生影響,誘發(fā)政策失靈,而工具與結(jié)果之間的因果追溯機(jī)制復(fù)雜化了,難以將政策失靈的原因歸結(jié)到人工智能。

3.1 技術(shù)責(zé)任判定模糊化

生成式人工智能通過(guò)算法生成內(nèi)容,生成過(guò)程具有一定的自主性,生成內(nèi)容具有極大的不確定性,這一過(guò)程不需要人的參與,而且人類難以預(yù)測(cè)其行動(dòng)選擇。當(dāng)生成內(nèi)容出現(xiàn)問(wèn)題時(shí),因?yàn)槿祟悓?duì)人工智能的技術(shù)并不能完全了解而無(wú)法判斷原因是技術(shù)本身的缺陷、數(shù)據(jù)的偏差,還是人工智能主觀有意為之,這削弱了人類對(duì)智能機(jī)器的控制,更使得責(zé)任判定模糊不清。“當(dāng)一項(xiàng)大數(shù)據(jù)應(yīng)用明顯使用這些變量在對(duì)待人的過(guò)程中作出區(qū)分,而這一點(diǎn)并沒(méi)有得到相關(guān)負(fù)責(zé)人的糾正時(shí),這就構(gòu)成了直接的故意歧視。然而,在大數(shù)據(jù)中,歧視通常不是那么明顯,甚至可能不是數(shù)據(jù)控制者的本意。”[17]50ChatGPT會(huì)聰明地運(yùn)用模棱兩可的語(yǔ)言,迎合不同群體的偏好,生成不同的結(jié)果,會(huì)開(kāi)玩笑,也會(huì)胡編亂造,但人類對(duì)其結(jié)果的歸因路徑并不清楚,對(duì)所生成信息的方法和影響因素了解也有限,更毋論將其置于宏大的社會(huì)系統(tǒng)中進(jìn)行責(zé)任判定。信息和通信技術(shù)對(duì)這個(gè)世界將會(huì)怎樣以及應(yīng)該是怎樣具有越來(lái)越大的意義,所承擔(dān)的責(zé)任也越來(lái)越重,但責(zé)任歸因越發(fā)困難和模糊。決策強(qiáng)調(diào)循證,但是技術(shù)“黑箱”加大了證據(jù)界定與舉證的困難。決策結(jié)果受到社會(huì)環(huán)境、參與主體、決策機(jī)制、技術(shù)工具等因素的影響,而包括技術(shù)工具在內(nèi)的每個(gè)因素都比較復(fù)雜、難以界定,這些都加大了對(duì)人工智能進(jìn)行責(zé)任判定的難度。

3.2 決策責(zé)任主體復(fù)雜化

決策由組織與個(gè)體做出,也由組織與個(gè)體來(lái)承擔(dān)相應(yīng)的責(zé)任,這一點(diǎn)是現(xiàn)代社會(huì)所形成的共識(shí)。即使政策失靈是由于政策工具和技術(shù)使用不當(dāng)所導(dǎo)致,責(zé)任也歸于政策工具的使用者即政策主體。責(zé)任會(huì)在不同部門(mén)與層級(jí)之間進(jìn)行分配,但都限定在決策組織層面。而當(dāng)人工智能顯示出自主決策能力的跡象時(shí),決策系統(tǒng)與責(zé)任主體都復(fù)雜化了。人工智能是否已成為一個(gè)獨(dú)立的政策主體?能否承擔(dān)決策責(zé)任?結(jié)論不是那么清晰了。在圖靈最早對(duì)人工智能的設(shè)想中,就將人工智能置于普通的工具范疇之外,認(rèn)為人工智能將會(huì)等同于人的智能?!皥D靈使我們認(rèn)識(shí)到,人類在邏輯推理、信息處理和智能行為領(lǐng)域的主導(dǎo)地位已不復(fù)存在,人類已不再是信息圈毋庸置疑的主宰,數(shù)字設(shè)備代替人類執(zhí)行了越來(lái)越多的原本需要人的思想來(lái)解決的任務(wù),而這使得人類被迫一再地拋棄一個(gè)又一個(gè)人類自認(rèn)為獨(dú)一無(wú)二的地位?!盵18]107在人工智能的發(fā)展史上一直存在著一種擔(dān)憂,即擔(dān)心人工智能會(huì)產(chǎn)生自主意識(shí),生成認(rèn)知能力,因?yàn)槿斯ぶ悄艿摹白灾餍浴背潭戎苯雨P(guān)聯(lián)到人類與機(jī)器之間的關(guān)系與責(zé)任分界。ChatGPT是高性能的智能體,能夠開(kāi)展復(fù)雜的智力工作,并顯示出生成自主意識(shí)的可能,那么在政策系統(tǒng)中應(yīng)該如何對(duì)其定位?不同于普通的紙、筆、時(shí)鐘等工具,如果機(jī)器發(fā)展最終走向覺(jué)醒,成為不同于人類的一個(gè)新的物種,那么是否應(yīng)該被視為獨(dú)立主體來(lái)承擔(dān)責(zé)任?而當(dāng)前階段,應(yīng)在何種程度上認(rèn)定人工智能的責(zé)任?“在‘人類為共同決策人’時(shí),人類所做出的決定會(huì)越來(lái)越多地被機(jī)器人系統(tǒng)所干預(yù)。因此,一個(gè)至關(guān)重要的問(wèn)題就在于,技術(shù)干預(yù)會(huì)以何種方式影響操作者的行為。在作決定時(shí),無(wú)人機(jī)操作人員高度依賴武裝軍用機(jī)器人系統(tǒng)傳輸過(guò)來(lái)的信息。盡管操作人員在法律上承擔(dān)責(zé)任,但人們也存在疑問(wèn),即他們要為自己的行為承擔(dān)多少道德責(zé)任才算合理。”[19]226決策主體從人類跨越到對(duì)人工智能的包容,決策責(zé)任承擔(dān)主體也復(fù)雜化了。

3.3 人機(jī)之間避責(zé)策略化

決策系統(tǒng)是一個(gè)責(zé)任認(rèn)定領(lǐng)域,也催生了大量的避責(zé)行為。決策主體之間會(huì)開(kāi)展行動(dòng)博弈,包括消極行為選擇,以及主體之間的相互甩鍋。而在人工智能一定程度上成為責(zé)任主體之后,則會(huì)出現(xiàn)人類與人工智能之間的責(zé)任推諉與避責(zé),最終導(dǎo)致決策責(zé)任被稀釋。決策失靈的責(zé)任由人類與人工智能共同承擔(dān),但在責(zé)任共擔(dān)的名義下無(wú)法做出清晰的責(zé)任分割,這就產(chǎn)生了責(zé)任真空。一方面,人類與人工智能之間彼此轉(zhuǎn)嫁責(zé)任。如人類可以將其觀點(diǎn)的來(lái)源都?xì)w于數(shù)據(jù)與算法,這樣將其主觀失責(zé)轉(zhuǎn)化為技術(shù)失誤,機(jī)器成為替罪羊。一旦將決策流程與程序上出現(xiàn)的問(wèn)題歸為客觀的技術(shù)路徑,由于技術(shù)出現(xiàn)一些小的失誤是可以得到寬容的,這樣就使得相關(guān)責(zé)任追究不了了之。同時(shí),人工智能也可以為技術(shù)路徑做出辯護(hù),將責(zé)任認(rèn)定為人類的選擇與思維錯(cuò)誤。另一方面,人工智能發(fā)展到高級(jí)階段后會(huì)實(shí)現(xiàn)技術(shù)的內(nèi)部直接聯(lián)結(jié)而越過(guò)人,并改變和控制人類,這時(shí)的政策責(zé)任就更難以界定了?!霸谀承﹪?guó)家和某些情況下,人們可能完全沒(méi)有選擇,只能被迫服從大數(shù)據(jù)算法的決定。然而,就算是在理論上自由的社會(huì)里,算法也可能成為權(quán)威,因?yàn)榻?jīng)驗(yàn)讓我們把越來(lái)越多的問(wèn)題交給算法來(lái)處理,最后也就逐漸失去為自己做決定的能力?!盵15]50對(duì)于人工智能導(dǎo)致的決策失誤,責(zé)任是歸于人工智能、算法設(shè)計(jì)者還是決策過(guò)程中的應(yīng)用主體,答案無(wú)法明確,這樣一來(lái),在多個(gè)主體同時(shí)對(duì)決策失靈的結(jié)果負(fù)責(zé)時(shí),反而出現(xiàn)無(wú)主體為結(jié)果負(fù)責(zé)的狀況。即使責(zé)任體系設(shè)計(jì)得再完美,無(wú)法落地也只能帶來(lái)無(wú)責(zé)任的結(jié)果。

3.4 追責(zé)路徑特殊化

責(zé)任一詞具有豐富的內(nèi)涵,一方面指向利益,另一方面指向行動(dòng)[20]。也就是說(shuō),一方面是從作為結(jié)果的利益來(lái)判斷其責(zé)任;另一方面是從行動(dòng)的主觀意圖來(lái)界定責(zé)任,分別對(duì)應(yīng)外在的約束機(jī)制與內(nèi)在的約束機(jī)制。由于無(wú)法確定當(dāng)前人工智能是否具有人類意識(shí),無(wú)法判斷人工智能做出行動(dòng)選擇的動(dòng)機(jī)與意圖是其自身生發(fā)的還是程序設(shè)置的,因此無(wú)法從內(nèi)在的約束機(jī)制來(lái)設(shè)置機(jī)器人的責(zé)任體系。這也就是帕加羅所說(shuō)的,目前在法庭上爭(zhēng)論機(jī)器人的犯罪意圖是毫無(wú)意義的。“這些機(jī)器不必為它們的行為承擔(dān)責(zé)任,因?yàn)椴淮嬖谒^機(jī)器人犯罪意圖這種東西。機(jī)器人缺乏承擔(dān)刑事責(zé)任的前提,例如自我意識(shí)、自由意志和道德自主性,因此很難想象法庭因機(jī)器人的惡行而宣告其有罪?!盵21]52因此,只能從外在約束機(jī)制來(lái)建構(gòu)人工智能的決策責(zé)任,這就需要從行為結(jié)果來(lái)倒推責(zé)任,但責(zé)任的因果關(guān)聯(lián)多元且復(fù)雜,涉及決策問(wèn)題、政策對(duì)象、數(shù)據(jù)模型、算法規(guī)則等多方面因素,以及程序開(kāi)發(fā)者、數(shù)據(jù)應(yīng)用者、人工智能工具等多個(gè)主體,主體與環(huán)境之間密切關(guān)聯(lián)且難以獨(dú)立成為分析對(duì)象,這使得責(zé)任倒推路徑過(guò)于復(fù)雜,責(zé)任鏈條實(shí)際上是斷裂的。

4 加強(qiáng)監(jiān)管以規(guī)避政策失靈

ChatGPT的發(fā)布意味著人工智能將全面參與到?jīng)Q策中并發(fā)揮作用,但在減少政策失靈幾率的同時(shí),也帶來(lái)了新的政策失靈的可能。人工智能優(yōu)化了政策工具,但并沒(méi)有造就完美的技術(shù)工具,因?yàn)槿魏渭夹g(shù)都存在缺陷,因此絕對(duì)完美的技術(shù)工具并不存在。即使存在完美的技術(shù)也不能規(guī)避所有的政策失靈,相反,技術(shù)的發(fā)展也可能帶來(lái)新的政策隱憂。政策過(guò)程中人工智能的發(fā)展要求重塑人類與技術(shù)工具之間的關(guān)系,人類將從“決策者”轉(zhuǎn)向“共同決策人”,但人類首先要明確自身的主體地位,將人工智能的發(fā)展納入人類共同體的目標(biāo)之下,加強(qiáng)對(duì)人工智能的監(jiān)管以規(guī)避政策失靈的發(fā)生。

4.1 政策過(guò)程中人工智能的角色定位

人工智能發(fā)展的高級(jí)階段被稱為強(qiáng)人工智能或者超級(jí)人工智能,“我們認(rèn)為超級(jí)人工智能能夠表現(xiàn)出高度一體化的認(rèn)知能力。在解決問(wèn)題的時(shí)候,它能夠動(dòng)員全部的認(rèn)知渠道,把得到的信息充分利用起來(lái)。如果超級(jí)智能有這三個(gè)認(rèn)知屬性——目的、認(rèn)知和一體化,那么與它互動(dòng)或者對(duì)它進(jìn)行觀察的人類肯定會(huì)認(rèn)為它是統(tǒng)一的、強(qiáng)有力的智能”[22]140。就這一標(biāo)準(zhǔn)來(lái)看,由于GPT并不能完全明白人類的價(jià)值觀,不能完整理解事物背后的意義,也不能完全代替人類做出政策選擇,因此,即便機(jī)器可以做很多事情,也未達(dá)到強(qiáng)人工智能階段?,F(xiàn)階段人工智能仍然遵循算法規(guī)則,執(zhí)行代碼命令,這是當(dāng)前進(jìn)行角色定位的一個(gè)基本前提。

不能繼續(xù)將人工智能視為傳統(tǒng)的技術(shù)工具,但也不能將其等同于與人類一樣的決策主體。在政策過(guò)程中人類仍然占據(jù)主導(dǎo)地位,需要對(duì)人工智能進(jìn)行監(jiān)管,使其成為負(fù)責(zé)任的機(jī)器。2023年5月16日,ChatGPT之父薩姆·奧爾特曼在出席美國(guó)國(guó)會(huì)作證時(shí)表示,他支持對(duì)人工智能進(jìn)行監(jiān)管,以最大程度地減少危害。此前,馬斯克認(rèn)為OpenAI和谷歌等企業(yè)對(duì)待人工智能的態(tài)度不負(fù)責(zé)任、監(jiān)管不夠并進(jìn)而退出了OpenAI,馬斯克在接受采訪時(shí)說(shuō):“人工智能比管理不善的飛機(jī)設(shè)計(jì)或維護(hù)糟糕的汽車生產(chǎn)更危險(xiǎn),它有可能破壞文明?!盵11]這些觀點(diǎn)都表明了對(duì)人工智能進(jìn)行監(jiān)管的必要性?!叭绻覀兓乇軐?duì)數(shù)學(xué)殺傷性武器的探索,把它們當(dāng)作一種中立的力量、不可避免的趨勢(shì),就像天氣或潮汐,我們就等于是放棄了我們的責(zé)任?!盵23]255在機(jī)器體現(xiàn)出覺(jué)醒趨勢(shì)的今天,必須要明白,世界不是為了機(jī)器而存在的,而是為了人類而存在,因此人類可以提前做出預(yù)防與引導(dǎo),使人工智能的發(fā)展服從于人類社會(huì)的需要,這是政策過(guò)程需要確立的基本觀念。

4.2 政策過(guò)程中人機(jī)關(guān)系的重構(gòu)

當(dāng)ChatGPT通過(guò)了圖靈測(cè)試,并在考試中取得高分之后,就意味著人類與人工智能之間的邊界已經(jīng)模糊了。人工智能會(huì)超越人的思維速度與靈活性,同時(shí)也遠(yuǎn)高于人類的計(jì)算效率。未來(lái)的機(jī)器人會(huì)具有更高程度的智能,甚至可能會(huì)發(fā)展成一個(gè)智能程度更高的物種,進(jìn)而使得未來(lái)的治理更類似于人的思維運(yùn)行而又高于人類的效率。但人工智能并不會(huì)完全代替人類,更不會(huì)奴役人類?!白鳛樾畔⒃O(shè)備,類似大腦的記憶系統(tǒng)將是我們開(kāi)發(fā)出來(lái)的用途最大的技術(shù)之一。但就像汽車和電腦一樣,它們僅僅是工具而已,具有智能并不意味著它們將有特殊的能力來(lái)破壞我們的物質(zhì)世界或控制人類。”[24]223-224

相反,人工智能可以成為人類決策的合作伙伴。人工智能會(huì)在很多地方替代人類,實(shí)現(xiàn)政策過(guò)程的信息化,并在技術(shù)路徑上完成政策過(guò)程,這意味著人類可以從一些常規(guī)工作中解放出來(lái),尋求更深層次的發(fā)展,發(fā)揮創(chuàng)造力探索政策價(jià)值及其發(fā)展方向。如果機(jī)器可以打造一個(gè)美好的世界,那么人類就不需要像機(jī)器人一樣朝九晚五地工作,而是可以更多地去創(chuàng)新和感受,去思考公共政策的終極意義?!案呒?jí)機(jī)器人也不會(huì)奴役或者滅絕人類,就如科幻的典型模式那樣。人類總是會(huì)適應(yīng)他們的技術(shù)產(chǎn)品,與自主機(jī)器交往的人得到的好處很可能超過(guò)其為此付出的代價(jià)?!盵25]4這也意味著,政策優(yōu)化依靠人類與人工智能的共同發(fā)展,人類與人工智能需要尋求共生共在之道[26]。

4.3 加強(qiáng)對(duì)人工智能的監(jiān)管

其一,構(gòu)筑人工智能的倫理規(guī)則,強(qiáng)化機(jī)器的道德責(zé)任。人工智能不會(huì)天然地關(guān)注貧困人群、老年人、未成年人等弱勢(shì)群體,不會(huì)自動(dòng)地考慮政策過(guò)程中的公平、民主、正義等價(jià)值,“機(jī)器人不是道德人”[27],或者說(shuō),機(jī)器人不會(huì)自動(dòng)地成為道德人。機(jī)器人的發(fā)展一直以來(lái)都是在強(qiáng)化其技術(shù)理性,而在當(dāng)前階段需要重視對(duì)人工智能的價(jià)值引導(dǎo)。50年前,艾薩克·阿西莫夫(Isaac Asimov)就預(yù)見(jiàn)到需要倫理規(guī)則來(lái)引導(dǎo)機(jī)器人的行為,他提出的“機(jī)器人三大定律”成為人們思考機(jī)器人道德的規(guī)范:“第一,機(jī)器人不可以傷害人;或者,通過(guò)不作為,讓任何人受到傷害;第二,機(jī)器人必須遵從人類的指令,除非那個(gè)指令與第一定律相沖突;第三,機(jī)器人必須保護(hù)自己的生存,條件是那樣做與第一、第二定律沒(méi)有沖突。”[25]12015年日本慶應(yīng)大學(xué)在三個(gè)定律基礎(chǔ)上增加了五項(xiàng)原則,即保守秘密、使用限制、安全保護(hù)、公開(kāi)透明、責(zé)任。如何強(qiáng)化機(jī)器的道德責(zé)任?目前形成了自上而下與自下而上兩種路徑。自上而下的路徑即從程序設(shè)置上向機(jī)器人設(shè)置道德指令,引導(dǎo)機(jī)器人的行動(dòng)選擇關(guān)注價(jià)值符號(hào),超過(guò)相關(guān)閾值時(shí)對(duì)機(jī)器行為做出矯正;自下而上的路徑強(qiáng)調(diào)機(jī)器人的自我學(xué)習(xí),就如同人類也并非生來(lái)就是合格的道德智能體,但大多數(shù)人都能習(xí)得一些禮儀,而有資格成為道德智能體社會(huì)中的一員,人工智能也可以通過(guò)進(jìn)化來(lái)習(xí)得道德,這就需要建構(gòu)道德的文化與場(chǎng)景。

其二,明確政策過(guò)程中人工智能的應(yīng)用范圍,為機(jī)器行動(dòng)設(shè)定制度框架。機(jī)器在很多方面比人類效率更高,但在對(duì)政策情境與目標(biāo)體系的理解和設(shè)定上不能達(dá)到人類水平,人類在政策過(guò)程中應(yīng)當(dāng)承擔(dān)更多的責(zé)任。人類應(yīng)當(dāng)為機(jī)器的技術(shù)發(fā)展和行動(dòng)路徑設(shè)定總體框架,將其行動(dòng)選擇控制在政策目標(biāo)體系之內(nèi)。既然人工智能不能依據(jù)其動(dòng)機(jī)來(lái)判斷其責(zé)任承擔(dān),那么應(yīng)通過(guò)結(jié)果倒推來(lái)判定其發(fā)揮的作用以及承擔(dān)的責(zé)任,并結(jié)合人工智能自主決策能力的高低對(duì)其責(zé)任范圍評(píng)定劃級(jí),如分為完全責(zé)任主體、限制責(zé)任主體與無(wú)責(zé)任主體等,來(lái)界定其法律與社會(huì)責(zé)任。其中需要注意的是,當(dāng)人機(jī)決策結(jié)果不一致時(shí),決策權(quán)應(yīng)交給熟悉此領(lǐng)域的人類,由人類掌握最終的決策權(quán),也因此由人類來(lái)判定人工智能的使用范圍并承擔(dān)相應(yīng)責(zé)任?!叭绻麢C(jī)器人因?yàn)樾袆?dòng)更迅速并且比人類存儲(chǔ)更多的信息從而繼續(xù)增加在戰(zhàn)場(chǎng)上使用,軍事指揮官和有關(guān)政權(quán)當(dāng)局仍然需要對(duì)這些機(jī)器的全部決策承擔(dān)嚴(yán)格責(zé)任。”[21]61不過(guò),在對(duì)人工智能的權(quán)力進(jìn)行回收的過(guò)程中需要做好銜接,對(duì)技術(shù)理性與價(jià)值考量的雙重維度做好平衡。

其三,提高人工智能技術(shù)的透明度,確保數(shù)據(jù)安全及隱私不被泄漏。當(dāng)前GPT雖然已經(jīng)實(shí)現(xiàn)了較高的技術(shù)透明度,但也存在大量的技術(shù)“黑箱”和算法迷霧。對(duì)此,需要進(jìn)一步提高人工智能技術(shù)的開(kāi)放性與透明度,一方面大力發(fā)展人類技術(shù),另一方面在人工智能中設(shè)置技術(shù)共享程序和輸出??傮w來(lái)看,當(dāng)前人工智能的發(fā)展仍然是在算法指令的框架之下,“對(duì)于確定性計(jì)算,輸出中呈現(xiàn)的信息必然也以某種方式呈現(xiàn)在輸入中——信息必須來(lái)自某處。計(jì)算機(jī)不會(huì)產(chǎn)生信息;它們被重排、計(jì)算、復(fù)制和刪除,但不會(huì)無(wú)中生有”[28]51。這樣一來(lái),數(shù)據(jù)的準(zhǔn)確性、完整性、真實(shí)性就尤為重要。數(shù)據(jù)作為決策的重要來(lái)源,數(shù)據(jù)的安全性是決策優(yōu)化的重要保證,一方面需要提升人工智能數(shù)據(jù)處理的可靠性;另一方面需要設(shè)置更多的路徑對(duì)非結(jié)構(gòu)性數(shù)據(jù)進(jìn)行有效轉(zhuǎn)化。與此同時(shí),人工智能的應(yīng)用需要相應(yīng)的隱私保護(hù)規(guī)則的配套,數(shù)據(jù)的收集和整理都要設(shè)定邊界,對(duì)數(shù)據(jù)的覆蓋范圍與處理路徑進(jìn)行規(guī)范,在數(shù)據(jù)公開(kāi)的同時(shí)保護(hù)數(shù)據(jù)安全,在算法透明的過(guò)程中注意算法邊界。

其四,建立起多主體、多環(huán)節(jié)、多維度、跨領(lǐng)域的監(jiān)管法律體系。生成式人工智能已經(jīng)超出了現(xiàn)有法律監(jiān)管的范圍,行政法、民法等可以進(jìn)行分散治理,但未能形成完整的法律體系,且對(duì)底層技術(shù)治理不足,對(duì)技術(shù)提供者監(jiān)管不夠,對(duì)數(shù)據(jù)與場(chǎng)景的分類未能形成明確規(guī)定,更未能清楚界定人工智能的法律地位。2023年7月國(guó)家網(wǎng)信辦等七部門(mén)聯(lián)合出臺(tái)《生成式人工智能服務(wù)管理暫行辦法》,今后還需要進(jìn)一步凝聚共識(shí),加快人工智能的立法進(jìn)程。要廣泛收集各行業(yè)、各領(lǐng)域、政策各階段關(guān)于人工智能立法的建議,探索適合我國(guó)情境的政策過(guò)程中的人工智能法律規(guī)范,加強(qiáng)對(duì)算法的控制。同時(shí),要建立多主體、全方位的監(jiān)督體系,一旦發(fā)現(xiàn)機(jī)器人技術(shù)在設(shè)計(jì)或者供應(yīng)方面非法,監(jiān)管部門(mén)就應(yīng)該做出有效監(jiān)視并敦促整改。政策過(guò)程中相關(guān)主體都可以成為審查的主體,同時(shí)也應(yīng)作為被審查的對(duì)象,以此對(duì)人工智能形成全方位的監(jiān)管體系。

5 結(jié)語(yǔ)

ChatGPT意味著人工智能技術(shù)取得了根本性突破,為政策失靈的規(guī)避帶來(lái)了極大的想象空間,但也使得政策失靈的發(fā)生具有更多的可能。人類在享受人工智能所帶來(lái)的極大便利與極高效率的同時(shí),也應(yīng)該警惕其可能帶來(lái)的不利影響。由于人工智能具有技術(shù)上的特殊性,必然帶來(lái)決策責(zé)任歸因的復(fù)雜化,這也意味著人工智能對(duì)政策過(guò)程的影響可能更加隱蔽,甚至無(wú)跡可尋,因此難以對(duì)人工智能進(jìn)行責(zé)任界定。整體來(lái)看,人工智能的發(fā)展要求對(duì)政策過(guò)程中的人機(jī)關(guān)系做出全面的思考與建構(gòu),需要確立政策過(guò)程中的人機(jī)合作關(guān)系。

本文基于對(duì)生成式人工智能的分析,探討政策過(guò)程中技術(shù)的應(yīng)用與影響,分析人工智能對(duì)政策過(guò)程的積極作用與不利影響,基于此,將人工智能可能帶來(lái)的政策失靈降至最低,使其最大程度地發(fā)揮政策優(yōu)化的作用。當(dāng)然,本文的分析只是基于生成式人工智能這一特定的階段,對(duì)人工智能在政策過(guò)程中的作用都是基于現(xiàn)階段人工智能所具有的能力與特征,隨著人工智能的進(jìn)一步發(fā)展,現(xiàn)有觀點(diǎn)需要做出相應(yīng)的修正,這也意味著本研究將是一個(gè)持續(xù)的過(guò)程。

猜你喜歡
機(jī)器決策人工智能
機(jī)器狗
機(jī)器狗
為可持續(xù)決策提供依據(jù)
決策為什么失誤了
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
未來(lái)機(jī)器城
電影(2018年8期)2018-09-21 08:00:06
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
下一幕,人工智能!
無(wú)敵機(jī)器蛛
建水县| 兴宁市| 开鲁县| 漳平市| 邯郸市| 济源市| 泗水县| 兰州市| 邢台县| 邹城市| 山阳县| 锡林浩特市| 通江县| 北宁市| 建宁县| 黄浦区| 灵石县| 肥乡县| 囊谦县| 和硕县| 绥阳县| 陆丰市| 辽阳市| 新源县| 剑河县| 马鞍山市| 开鲁县| 东平县| 家居| 枝江市| 斗六市| 什邡市| 上杭县| 邮箱| 陵川县| 寿宁县| 天峻县| 岫岩| 新田县| 漯河市| 崇仁县|