鄒 曈,王梓月
(1.信陽航空職業(yè)學(xué)院 馬克思主義學(xué)院,河南 信陽 464100;2.延安大學(xué) 政法與公共管理學(xué)院,陜西 延安 716000)
ChatGPT(Chat Generative Pre-trained Transformer)是由OpenAI開發(fā)的一種基于Transformer模型的語言生成模型。此次AI語言模型,和以往的人工智能客服回復(fù)方式不同,不再是普通的聊天機(jī)器人,而是通過大規(guī)模的預(yù)訓(xùn)練和微調(diào),不斷提升生成文本的質(zhì)量和多樣性,變身為真正的“六邊形AI戰(zhàn)士”,不僅可以聊天、搜索、翻譯,而且能夠以不同風(fēng)格撰寫文章、編寫代碼,甚至是做科研、當(dāng)律師、當(dāng)醫(yī)生。ChatGPT在自然語言之外的領(lǐng)域取得了巨大的突破,并在各種應(yīng)用中發(fā)揮著重要的作用。ChatGPT跨越“人工娛樂”,真正觸及了人工智能,一時(shí)間成為各方關(guān)注熱點(diǎn)。
正如尤瓦爾·赫拉利所言:“人工智能的技術(shù)毫無疑問會(huì)改變我們的世界,但是我們未來的社會(huì)究竟怎么樣?”[1]147ChatGPT技術(shù)被視為新一輪生產(chǎn)力革命,全球政治和經(jīng)濟(jì)結(jié)構(gòu)將隨之發(fā)生變化。黨的二十大報(bào)告中提出,未來五年里要深入推進(jìn)國(guó)家治理體系和治理能力現(xiàn)代化,在此背景下,深入研究ChatGPT技術(shù)風(fēng)險(xiǎn)治理,對(duì)于推進(jìn)我國(guó)國(guó)家治理體系和能力現(xiàn)代化建設(shè),無論是在戰(zhàn)略上,還是在理論上,都有著一定的現(xiàn)實(shí)意義。
作為人工智能領(lǐng)域的重要技術(shù)突破,ChatGPT技術(shù)具有非常鮮明的特性。ChatGPT強(qiáng)大的語言交互能力、高效的信息驅(qū)動(dòng)能力和精確的運(yùn)算能力,可以為國(guó)家治理提供技術(shù)支持。
當(dāng)前,我國(guó)政府治理實(shí)現(xiàn)了從“對(duì)話智能體”(conversational agent)到“涉身對(duì)話智能”(embodied conversational agent)的轉(zhuǎn)變,但距離人與機(jī)器無縫對(duì)話的最終目標(biāo)仍然存在一定距離。[2]124目前,物聯(lián)網(wǎng)、區(qū)塊鏈、人工智能等新興技術(shù)給政府治理提供了高度的便利性和可操作性,但是由于內(nèi)部“供需鏈”不匹配,無法為人們提供滿意的公共服務(wù)。部分政府智能平臺(tái)存在瀏覽便捷度、語言翻譯、溝通等功能不健全的問題。而ChatGPT模型是相對(duì)科學(xué)、人性化的人工智能語言系統(tǒng),不僅可以通過學(xué)習(xí)和理解人類語言來進(jìn)行對(duì)話,還可以根據(jù)聊天上下文進(jìn)行交互,其理解能力和語言能力超過了90%的人類。[3]42因此,在國(guó)家治理過程中利用ChatGPT技術(shù)可以顯著提升人機(jī)交互的友好程度。
ChatGPT技術(shù)應(yīng)用于國(guó)家治理現(xiàn)代化建設(shè)過程中,增強(qiáng)治理的親民性主要集中在以下方面:首先,ChatGPT在智能方面取得了進(jìn)步,將會(huì)提高人機(jī)交互的可用性。ChatGPT基于政府公共服務(wù)數(shù)據(jù)模擬訓(xùn)練,模仿人類語言交互模型,可以完成行政登記、行政審批、行政許可等政府公共服務(wù)?;谛姓噶畹男姓_認(rèn)和信息公開服務(wù)項(xiàng)目將會(huì)顯著提高公眾對(duì)行政服務(wù)的滿意度。其次,ChatGPT可以提高人機(jī)溝通對(duì)話能力。ChatGPT時(shí)刻關(guān)注情景表達(dá),全流程保證服務(wù)數(shù)據(jù)的可靠性,力求準(zhǔn)確、便捷地使用,同時(shí)最大限度地滿足政府服務(wù)對(duì)象的情感需求,實(shí)現(xiàn)高效的溝通與對(duì)話。最后,ChatGPT可以在一定程度上突破傳統(tǒng)的管理模式,提高溝通與對(duì)話的平等性。傳統(tǒng)行政管理模式下,行政主體雙方對(duì)話并不平等。將ChatGPT應(yīng)用于政府治理過程中,有利于增強(qiáng)信息的透明度,使政府與公眾的交流處于親和、平等狀態(tài)中。
技術(shù)賦能本身包含了組織、技術(shù)與流程再造的制度邏輯,新技術(shù)應(yīng)用于國(guó)家治理,一般會(huì)涉及連接技術(shù)、推進(jìn)信息化、結(jié)構(gòu)調(diào)整三個(gè)階段。這三個(gè)環(huán)節(jié)共同推動(dòng)國(guó)家治理結(jié)構(gòu)、治理方式、治理效能等方面深度改革。首先,ChatGPT技術(shù)壯大了國(guó)家治理中技術(shù)互聯(lián)能力。技術(shù)的聯(lián)結(jié)能力是人工智能技術(shù)成功升級(jí)的關(guān)鍵。[4]22ChatGPT作為一個(gè)更高度智能的AI交互系統(tǒng),本身就包含了高度精密的算法體系。ChatGPT模型依托云計(jì)算、大數(shù)據(jù)和移動(dòng)終端構(gòu)建,可以充分滿足數(shù)字化治理的運(yùn)營(yíng)需求,并不斷深化科技互聯(lián)。其次,ChatGPT技術(shù)加強(qiáng)了信息化的數(shù)字治理體系建設(shè)。長(zhǎng)期以來,信息化能力的缺失是數(shù)字治理的一大障礙。GPT Chat模型有大規(guī)模數(shù)據(jù)處理系統(tǒng),強(qiáng)調(diào)信息驅(qū)動(dòng)功能建設(shè),倡導(dǎo)信息對(duì)話和信息協(xié)作機(jī)制等,實(shí)現(xiàn)數(shù)據(jù)資源的高度整合。因此,將ChatGPT技術(shù)應(yīng)用于國(guó)家治理現(xiàn)代化的建設(shè)中,可以有效克服政府機(jī)構(gòu)存在的技術(shù)缺陷,促進(jìn)公共信息資源整合。最后,ChatGPT技術(shù)優(yōu)化了數(shù)字化治理體系的結(jié)構(gòu)再造。作為一項(xiàng)系統(tǒng)工程,當(dāng)前“專業(yè)化、部門化、利益化”的治理模式對(duì)數(shù)字治理效率的提升產(chǎn)生了嚴(yán)重制約,因此,如何打破這種“割裂”的治理結(jié)構(gòu)顯得非常重要。[5]17
目前,利用人工智能算法提升科技能力,已經(jīng)成為各國(guó)改善行政服務(wù)水平不可或缺的手段。ChatGPT模型包含先進(jìn)的算法系統(tǒng),為推動(dòng)國(guó)家治理現(xiàn)代化提供了有力支撐。近端策略算法優(yōu)化(PPO)和ChatGPT模型可以有效提高數(shù)字治理的智能化。首先,ChatGPT技術(shù)有利于提升治理決策的科學(xué)性。先進(jìn)的算法系統(tǒng)往往具有超強(qiáng)的學(xué)習(xí)能力,能夠?qū)W會(huì)解決各種矛盾與沖突。ChatGPT技術(shù)可以通過自動(dòng)捕捉、精確識(shí)別、自動(dòng)分類和高度模擬的系統(tǒng),對(duì)大量信息進(jìn)行分類和組織,使政府能夠基于大數(shù)據(jù)做出更加科學(xué)的決策。不僅如此,ChatGPT還可以通過算法將決策問題轉(zhuǎn)化為可理解的數(shù)據(jù)模型,使政府機(jī)構(gòu)能夠根據(jù)行政主體、行政程序和相關(guān)需求等具體情況找到最優(yōu)解決方案,做出更科學(xué)的決策。其次,ChatGPT技術(shù)提升了治理過程中管理的標(biāo)準(zhǔn)化水平。ChatGPT作為智能神經(jīng)網(wǎng)絡(luò)系統(tǒng),始終注重對(duì)真實(shí)情況的模擬和重塑。將ChatGPT技術(shù)融入數(shù)字化治理中,可以更好地追蹤具體的行政方式、行政程序以及行政信息公開等內(nèi)容,在無形中進(jìn)一步增強(qiáng)治理的標(biāo)準(zhǔn)化和常態(tài)化。最后,ChatGPT技術(shù)促進(jìn)了數(shù)字治理運(yùn)作的公平性。數(shù)字政府在給個(gè)人帶來便利的同時(shí),也帶來了新的倫理挑戰(zhàn),如算法歧視。算法歧視作為一種新型科技倫理風(fēng)險(xiǎn),是指人工智能算法應(yīng)用中人們受到不公平的歧視性待遇。如何利用算法提供更加公平、智能的公共服務(wù)一直是當(dāng)今數(shù)字治理建設(shè)的關(guān)鍵問題。眾所周知,低門檻、多元化、智能化一直是ChatGPT模式的最大優(yōu)勢(shì),ChatGPT模型憑借其強(qiáng)大的語言算法系統(tǒng),可以充分了解不同受眾的教育背景、年齡和專業(yè)能力需求,在數(shù)字治理中應(yīng)用ChatGPT技術(shù),可以大大降低算法歧視的風(fēng)險(xiǎn)。
數(shù)字時(shí)代公共空間的去中心化、碎片化問題日益嚴(yán)重。[6]4ChatGPT語言模型基于互聯(lián)網(wǎng)數(shù)據(jù)處理和深度學(xué)習(xí)技術(shù),在推進(jìn)國(guó)家現(xiàn)代化建設(shè)過程中充分總結(jié)信息、設(shè)定目標(biāo)、提出合理的解決方案,可以在治理中有效整合不同社會(huì)需求,這雖然在一定程度上可以提升國(guó)家治理現(xiàn)代化能力,但也帶來了一些隱藏的政治決策過程的風(fēng)險(xiǎn)。[7]63一是治理決策機(jī)制的重塑。雖然依靠ChatGPT技術(shù)進(jìn)行廣范圍的收集和處理信息,提出一定治理決策與建議的方法具有低成本高效率的優(yōu)點(diǎn),但是長(zhǎng)此以往會(huì)導(dǎo)致一些政策制定者不可避免地對(duì)ChatGPT的決策產(chǎn)生路徑依賴。如果政策制定者在面臨治理選擇時(shí),依賴ChatGPT進(jìn)行治理決策,而不注重提高自身的政治素養(yǎng),就會(huì)出現(xiàn)缺乏政策創(chuàng)新,進(jìn)而影響到?jīng)Q策的總體水平。二是ChatGPT可能導(dǎo)致治理決策缺乏人文情懷。雖然ChatGPT處理的數(shù)據(jù)源龐大,未來會(huì)通過訓(xùn)練和數(shù)據(jù)填充來提高模型的敏感性,但政治決策的對(duì)象仍然是有情感偏好的人,ChatGPT所提出的政策是符合計(jì)算的,不一定是符合受眾心理傾向的。這就提出了一個(gè)極其困難的問題:人工智能系統(tǒng)或是ChatGPT可能永遠(yuǎn)無法完全理解政治參與者的情感訴求。因此,存在ChatGPT根據(jù)自身算法得出的政策建議或決策不足以回應(yīng)現(xiàn)實(shí)的風(fēng)險(xiǎn)。三是政治信心下降的風(fēng)險(xiǎn)。當(dāng)ChatGPT深入滲透到治理決策時(shí),政治家和決策者都可以利用ChatGPT參與政治。由于ChatGPT輸入與輸出語言的擬人化程度較高,政策制定者很難判斷收到的政策呼聲是否來自真實(shí)的人類之“口”,將增加政策制定的難度。而公眾同樣存在無法判斷其收到的政策回應(yīng)是否為真實(shí)的人類進(jìn)行的選擇與判斷。政策制定者與公眾之間可能存在雙向信任危機(jī)。
作為最具顛覆性的人工智能技術(shù),ChatGPT將對(duì)社會(huì)治理的權(quán)力結(jié)構(gòu)產(chǎn)生一定影響,普通群眾可以接收到更為全面而詳細(xì)的信息,提高參與治理的可能性,增強(qiáng)民眾的話語權(quán),促進(jìn)輿論傳播和影響力,加強(qiáng)社會(huì)團(tuán)體和社會(huì)組織的發(fā)展。然而,ChatGPT在增強(qiáng)民眾話語權(quán)的同時(shí)將會(huì)對(duì)輿論導(dǎo)向和治理產(chǎn)生強(qiáng)大影響力,從而對(duì)監(jiān)管的方式和技術(shù)提出更高的要求。
其一,虛假信息和輿論會(huì)潛移默化地帶動(dòng)輿論。算法和大模型數(shù)據(jù)來源存在透明度不高、可解釋性缺乏的問題,影響其可靠性。ChatGPT技術(shù)的不斷推進(jìn)將會(huì)提高了整體擬人化表現(xiàn),但它終究與人類的思維不一樣,導(dǎo)致受眾有時(shí)無法區(qū)分信息是否真實(shí)可靠,也難以識(shí)別數(shù)據(jù)中隱含的偏見和謬誤,從而產(chǎn)生虛假、誤導(dǎo)。這些錯(cuò)誤和偏見往往會(huì)影響人們的判斷和政治選擇,甚至暗中塑造和誤導(dǎo)輿論。官方解釋權(quán)代表國(guó)家塑造輿論、傳播社會(huì)理念的權(quán)威,是國(guó)家軟實(shí)力的重要組成部分。由于ChatGPT的普及和便利性,其將會(huì)完全融入社會(huì)并參與一些重要概念和事件的詮釋,公眾將會(huì)第一時(shí)間尋求ChatGPT進(jìn)行解答,當(dāng)公眾選擇相信ChatGPT而非官方解釋將嚴(yán)重影響政府威信,大大降低官方解釋的權(quán)威性。其二,ChatGPT影響意識(shí)形態(tài)。ChatGPT可能被西方國(guó)家作為傳播其價(jià)值觀與意識(shí)形態(tài)的重要工具,竭力突破地域和意識(shí)形態(tài)的束縛。心懷叵測(cè)的個(gè)別群體可能利用ChatGPT將偏激思想或嚴(yán)重背離社會(huì)主義核心價(jià)值觀的信息發(fā)送給青少年群體,將會(huì)對(duì)社會(huì)主流意識(shí)形態(tài)造成嚴(yán)重沖擊。
ChatGPT技術(shù)的廣泛應(yīng)用導(dǎo)致國(guó)家和政府面臨的數(shù)據(jù)壓力成倍增加,加上輸出語言高度擬人化,辨別這些信息真?zhèn)蔚碾y度極大。[8]74由于ChatGPT技術(shù)具有高門檻的特點(diǎn),核心技術(shù)往往掌握在個(gè)別科技公司手中,形成技術(shù)壟斷。首先,技術(shù)壁壘造成監(jiān)管困難。監(jiān)管主體要對(duì)被監(jiān)管者的技術(shù)與內(nèi)容有一定的了解與認(rèn)知才能順利開展監(jiān)管工作。而伴隨著ChatGPT技術(shù)的迅猛發(fā)展,利用技術(shù)優(yōu)勢(shì)隱藏含有意識(shí)形態(tài)或是非理性的內(nèi)容時(shí),若非專業(yè)人士很難簡(jiǎn)單迅速識(shí)別,將會(huì)給監(jiān)管以及治理工作帶來巨大壓力,不利于國(guó)家治理現(xiàn)代化的順利推進(jìn)。其次,當(dāng)科技?jí)艛嘈纬?ChatGPT模型所需的數(shù)據(jù)被留給了少數(shù)領(lǐng)先的科技公司。這些公司通過搶占先發(fā)優(yōu)勢(shì),放大規(guī)模效應(yīng),不可避免地形成技術(shù)壟斷的趨勢(shì)??萍季揞^依靠實(shí)力算法和運(yùn)行效率成為寡頭,模糊了國(guó)家權(quán)力的界限甚至取代了國(guó)家的部分職能,有造成“國(guó)家空心化”的可能。
ChatGPT應(yīng)用于國(guó)家治理雖然有使用便利的優(yōu)勢(shì),同時(shí)也存在公民個(gè)人信息數(shù)據(jù)安全隱患。首先,ChatGPT的運(yùn)行建立在大量數(shù)據(jù)與信息之上,而這大量的數(shù)據(jù)與個(gè)人信息可能對(duì)個(gè)人信息造成過度收集。OpenAI公司到現(xiàn)在為止已經(jīng)出現(xiàn)未經(jīng)本人允許,利用技術(shù)隱蔽性收集眾多個(gè)人敏感信息的情況。在當(dāng)下互聯(lián)網(wǎng)社會(huì),廣泛擁有信息資源即擁有權(quán)力。一旦在國(guó)家治理中應(yīng)用ChatGPT技術(shù),擁有個(gè)人信息的數(shù)量將會(huì)以超乎想象的速度快速增長(zhǎng)。此時(shí),ChatGPT根據(jù)信息以及各種數(shù)據(jù)的集聚效應(yīng),將會(huì)對(duì)普通民眾進(jìn)行“信息權(quán)力支配”。龐大的數(shù)據(jù)量,眾多的數(shù)據(jù)類型,超強(qiáng)的數(shù)據(jù)分析能力,會(huì)嚴(yán)重影響公民個(gè)人信息的安全性。其次,ChatGPT將會(huì)對(duì)個(gè)人信息的數(shù)據(jù)進(jìn)行高度整合,而難以保障公民個(gè)人信息的安全性。[9]92ChatGPT憑借自身優(yōu)勢(shì),通過精準(zhǔn)、專業(yè)的計(jì)算轉(zhuǎn)換以及模擬推理,可以將數(shù)量龐大,種類繁雜的個(gè)人信息數(shù)據(jù)轉(zhuǎn)化為相對(duì)工整、有規(guī)律性、有邏輯性的信息。而ChatGPT在數(shù)據(jù)整合過程中是否始終圍繞公共利益的實(shí)現(xiàn)、關(guān)注公共事務(wù)的解決則是令人擔(dān)憂的。ChatGPT技術(shù)對(duì)個(gè)人信息安全產(chǎn)生威脅除了體現(xiàn)在過度收集信息以及高度整合信息,還可能存在個(gè)人信息泄露風(fēng)險(xiǎn)。當(dāng)前ChatGPT的開發(fā)公司并未設(shè)計(jì)出提供給個(gè)人自檢存儲(chǔ)庫的功能,也并沒有明確表示ChatGPT對(duì)個(gè)人信息的儲(chǔ)存時(shí)限。
目前,數(shù)據(jù)安全已經(jīng)成為國(guó)家治理乃至國(guó)家安全的重要一環(huán)。由于ChatGPT引發(fā)的數(shù)據(jù)安全風(fēng)險(xiǎn),需要建立數(shù)據(jù)管理制度為ChatGPT技術(shù)在國(guó)家治理中保駕護(hù)航。ChatGPT數(shù)據(jù)管理制度由專業(yè)人員根據(jù)數(shù)據(jù)的不同用途、不同種類分級(jí)別、分類別進(jìn)行整理與管理,包括對(duì)數(shù)據(jù)安全的保障。[10]71以《數(shù)據(jù)安全法》為核心的法律法規(guī)為ChatGPT數(shù)據(jù)管理制度的建立提出了法律規(guī)范。以《數(shù)據(jù)安全法》為例,第二十一條涉及數(shù)據(jù)分類分級(jí)保護(hù)制度,第二十二條涉及數(shù)據(jù)風(fēng)險(xiǎn)評(píng)估、報(bào)告、信息共享、監(jiān)測(cè)預(yù)警機(jī)制,第二十三條涉及數(shù)據(jù)安全應(yīng)急處置機(jī)制,第二十四條涉及數(shù)據(jù)安全審查制度,第二十六條涉及數(shù)據(jù)出口管制制度。為避免ChatGPT處理信息造成數(shù)據(jù)風(fēng)險(xiǎn),應(yīng)當(dāng)推動(dòng)ChatGPT數(shù)據(jù)管理制度,建立數(shù)據(jù)分類分級(jí)制度、評(píng)估制度、預(yù)警制度、應(yīng)急處置制度、安全審查制度等。根據(jù)數(shù)據(jù)管理制度的安全等級(jí),對(duì)于涉及國(guó)家安全的高等機(jī)密性信息以及個(gè)人隱私需要高度保護(hù)的信息,ChatGPT將無權(quán)處理此類信息。而對(duì)于數(shù)據(jù)安全等級(jí)低于國(guó)家安全但高于普通信息時(shí),如部分商業(yè)機(jī)密等,經(jīng)由個(gè)人同意,可以適當(dāng)在ChatGPT中開放相應(yīng)內(nèi)容。只有無關(guān)國(guó)家安全、商業(yè)秘密以及個(gè)人重要隱私的數(shù)據(jù)才可以在ChatGPT中使用。
如上所述,ChatGPT模型雖然具有提高行政決策自動(dòng)化效能的作用,但為了避免由于該模型的嵌入而導(dǎo)致行政決策過程出現(xiàn)責(zé)任缺失的問題,需要進(jìn)一步完善相關(guān)的追責(zé)機(jī)制。值得強(qiáng)調(diào)的是,不管是ChatGPT服務(wù)的提供商還是利用ChatGPT模型進(jìn)行決策的行政機(jī)關(guān),都不能簡(jiǎn)單地依據(jù)算法的“技術(shù)中立性”來逃避責(zé)任。曾有觀點(diǎn)認(rèn)為,算法作為一種技術(shù)可以“有效避免傳統(tǒng)政府治理模式下行政裁量權(quán)的偏差問題”,因?yàn)樗惴ㄗ鳛橐环N技術(shù)是基于其價(jià)值中立性的,那么相應(yīng)的算法決策也是客觀的。本文認(rèn)為,這種觀點(diǎn)本質(zhì)上屬于算法責(zé)任虛無主義,其顯然違背了人工智能時(shí)代的算法價(jià)值倫理,應(yīng)當(dāng)予以必須摒棄。換言之,盡管ChatGPT模型具有較高的技術(shù)性與行為模式的隱秘性等特點(diǎn),但這些因素并不是ChatGPT服務(wù)商與行政機(jī)關(guān)享有豁免權(quán)的理由,只是在責(zé)任的承擔(dān)方式上與傳統(tǒng)的模式具有一些不同之處而已。
對(duì)于政府部門來說,應(yīng)當(dāng)為利用ChatGPT模型造成的錯(cuò)誤決策承擔(dān)行政責(zé)任。因?yàn)樾姓C(jī)關(guān)是唯一在算法決策過程中“出現(xiàn)”的行政主體,所以在某項(xiàng)行政決策對(duì)行政相對(duì)人的利益產(chǎn)生了不利影響的結(jié)果時(shí),行政機(jī)構(gòu)應(yīng)被視為主要責(zé)任方。畢竟行政機(jī)關(guān)作為運(yùn)用ChatGPT模型進(jìn)行實(shí)際操作的決策者,始終負(fù)有謹(jǐn)慎的義務(wù)。首先,在運(yùn)用ChatGPT模型的前期階段,行政機(jī)關(guān)有責(zé)任進(jìn)行全面的安全審查,基于公共利益謹(jǐn)慎選擇數(shù)字合作平臺(tái)。目前,鑒于政府自身研發(fā)能力較為薄弱,地方政府在建設(shè)數(shù)字政府的過程中多采用“政企合作”模式。為了避免出現(xiàn)單純的“拿來主義”,在建設(shè)數(shù)字政府的過程中,政府必須對(duì)某些算法技術(shù)的應(yīng)用保持一種謹(jǐn)慎的態(tài)度。換句話說,基于“有利必有弊”的基本理念,政府必須在認(rèn)真審核合作平臺(tái)的資質(zhì)并且充分了解合作平臺(tái)的技術(shù)水平后再妥善簽訂平臺(tái)合作有關(guān)的協(xié)議,盡量將ChatGPT模型應(yīng)用的負(fù)面影響降到最低。否則,對(duì)于出現(xiàn)在前期植入階段的不良后果,政府應(yīng)承擔(dān)審查不力的行政責(zé)任。其次,在ChatGPT模型應(yīng)用階段的結(jié)果篩選責(zé)任。雖然算法決策在很大程度上是自動(dòng)化的,但在基于算法的行政決策過程中,政府對(duì)算法的使用仍有一定程度的控制能力。ChatGPT模型是一個(gè)基于語言的系統(tǒng),雖然其結(jié)果的輸出往往取決于問題的輸入,但政府在數(shù)據(jù)選擇、數(shù)據(jù)輸入和結(jié)果的甄別的過程中必須始終保持一定的謹(jǐn)慎態(tài)度,政府在進(jìn)行算法決策的過程中有責(zé)任繞開“算法至上”與“算法代表”的陷阱,若因過度依賴算法而導(dǎo)致錯(cuò)誤的行政決策時(shí),就應(yīng)當(dāng)承擔(dān)相應(yīng)的行政責(zé)任。
對(duì)于服務(wù)商而言,應(yīng)當(dāng)對(duì)ChatGPT模型的錯(cuò)誤決策承擔(dān)民事責(zé)任。因?yàn)樗惴ǖ奶峁┱咴谝欢ǔ潭壬夏軌蛑苯記Q定ChatGPT模型運(yùn)行的過程和結(jié)果,也就是說,其不僅可以在開發(fā)階段控制算法的性能,而且在算法的實(shí)際運(yùn)行過程中還可以實(shí)時(shí)監(jiān)控算法的運(yùn)行公式、算法的訓(xùn)練模型等各種操作系統(tǒng)。基于此,算法本質(zhì)上屬于一種“產(chǎn)品”,[11]47政府與ChatGPT服務(wù)商之間存在著民事法律關(guān)系。當(dāng)ChatGPT模型這種“產(chǎn)品”出現(xiàn)問題或者缺陷時(shí),政府可以根據(jù)采購合同要求服務(wù)商經(jīng)濟(jì)賠償、單方面終止合同等民事責(zé)任,同時(shí)還可以將其列入政府采購的黑名單當(dāng)中。
所謂國(guó)家保護(hù)義務(wù),是指憲法規(guī)定的基本權(quán)利的輻射作用,要求國(guó)家對(duì)私法主體的基本權(quán)利采取積極的國(guó)家保護(hù)措施,使其免受侵害,以確保法律保護(hù)弱勢(shì)方基本權(quán)利的實(shí)現(xiàn)。
第一,要強(qiáng)化立法者在防范風(fēng)險(xiǎn)方面的預(yù)防義務(wù)。現(xiàn)階段,為了有效防止數(shù)據(jù)權(quán)利被第三方非法侵犯,國(guó)家需要完善立法工作,這也體現(xiàn)了國(guó)家在數(shù)據(jù)權(quán)利領(lǐng)域保護(hù)數(shù)據(jù)義務(wù)的積極作為。ChatGPT的侵權(quán)行為突出了構(gòu)建預(yù)防性規(guī)則的迫切性。為了有效防止ChatGPT這一模型在數(shù)字政府建設(shè)過程中侵犯公民數(shù)據(jù)權(quán)利,需要圍繞“知情-同意”規(guī)則優(yōu)化《個(gè)人信息保護(hù)法》的相關(guān)規(guī)定。當(dāng)前行之有效的規(guī)則主要分為以下四種論證路徑:第一步,明確通知數(shù)據(jù)權(quán)利主體;第二步,確保數(shù)據(jù)權(quán)利主體充分知情;第三步,數(shù)據(jù)權(quán)利主體對(duì)所作出的決定自愿自主;第四步,數(shù)據(jù)權(quán)利主體明確同意?,F(xiàn)階段,ChatGPT模型在首個(gè)路徑階段還存在著亟需解決的通知義務(wù)問題,未來立法者應(yīng)在法律中明確該義務(wù),使數(shù)據(jù)權(quán)利主體能夠更加行之有效的知曉自身所具有的權(quán)利。為使數(shù)據(jù)主體的行為更明確、更清晰、更真實(shí)、更可靠,隨著數(shù)據(jù)運(yùn)算風(fēng)險(xiǎn)等級(jí)的提高,其相對(duì)應(yīng)的通知報(bào)告規(guī)則應(yīng)當(dāng)更加清晰明確。信息時(shí)代是動(dòng)態(tài)的,隨著各方面條件的變化,應(yīng)當(dāng)更加強(qiáng)調(diào)對(duì)數(shù)據(jù)權(quán)利主體包容性、動(dòng)態(tài)性的保障,相對(duì)應(yīng)的防范方式、防范程度和風(fēng)險(xiǎn)防范措施也應(yīng)隨之變化。
第二,要明確行政機(jī)關(guān)事中階段排除違法行為的職責(zé)。當(dāng)前,數(shù)字政府建設(shè)如火如荼,政府始終在ChatGPT模型與數(shù)據(jù)主體權(quán)利之間尋求一種平衡,也體現(xiàn)出它與數(shù)字平臺(tái)之間合作伙伴和監(jiān)督者的矛盾關(guān)系。通過政府監(jiān)管,可以逐步提升“知情-同意”規(guī)則的有效性,以改善ChatGPT模型提供的數(shù)字化服務(wù)。行政機(jī)關(guān)可以采取的沒收違法所得、暫停業(yè)務(wù)運(yùn)營(yíng)、吊銷營(yíng)業(yè)執(zhí)照等制裁措施,大多可以在數(shù)據(jù)權(quán)利主體發(fā)現(xiàn)被ChatGPT模型侵害時(shí)迅速啟動(dòng)。此外,行政約談也是一種行之有效的解決辦法。比如在接到群眾舉報(bào)的情況下,有關(guān)單位可以依據(jù)自身所掌握的渠道信息對(duì)涉及侵害數(shù)據(jù)權(quán)利的處理平臺(tái)進(jìn)行行政約談,了解舉報(bào)內(nèi)容的真實(shí)性,如果屬實(shí),要求ChatGPT數(shù)據(jù)平臺(tái)及時(shí)對(duì)此侵害行為予以糾正并承擔(dān)相應(yīng)的責(zé)任。實(shí)踐證明,“行政約談+行政處罰”是現(xiàn)階段較為有效的一種監(jiān)管模式,它達(dá)到了一種在數(shù)據(jù)平臺(tái)監(jiān)管和公民數(shù)據(jù)權(quán)益保護(hù)之間的平衡。然而,如果國(guó)家采取對(duì)數(shù)據(jù)處理平臺(tái)的過度監(jiān)管模式,也可能會(huì)涉及對(duì)經(jīng)營(yíng)自由權(quán)的侵犯。因此,為了防止侵犯服務(wù)提供商的經(jīng)營(yíng)自由權(quán)并引發(fā)防御權(quán)機(jī)制的觸發(fā),應(yīng)當(dāng)在監(jiān)管力度上把握好分寸。[12]104
第三,要注重司法機(jī)關(guān)在事后階段的權(quán)利救濟(jì)義務(wù)。一方面,是要重視司法機(jī)關(guān)在事后階段的救濟(jì)職責(zé),這也是國(guó)家履行數(shù)據(jù)權(quán)利保護(hù)義務(wù)的重要機(jī)制。當(dāng)前,全球各國(guó)在數(shù)字政府建設(shè)過程中越來越重視法院在保護(hù)數(shù)據(jù)權(quán)益方面的積極作用。數(shù)據(jù)權(quán)利主體在維護(hù)權(quán)益時(shí)面臨的主要難題是“證明困難”,而造成這一難題的主要原因是現(xiàn)有法律針對(duì)數(shù)據(jù)權(quán)利證明的規(guī)定模糊化。未來針對(duì)這一模糊領(lǐng)域應(yīng)當(dāng)加以明確,為了更好地平衡雙方利益,采取過錯(cuò)推定原則可以更好地在基本權(quán)益方面保護(hù)數(shù)據(jù)權(quán)利主體。另一方面,需要完善數(shù)據(jù)權(quán)利集體訴訟機(jī)制。考慮到個(gè)人公民作為弱勢(shì)群體在保護(hù)自身數(shù)據(jù)權(quán)益過程中處于不利地位,未來應(yīng)適時(shí)建立以科技行業(yè)協(xié)會(huì)作為訴訟當(dāng)事人的群體訴訟機(jī)制,從而改變相關(guān)主體的被動(dòng)地位,在數(shù)字政府建設(shè)過程中發(fā)揮更為有效的作用。
目前,數(shù)字治理在國(guó)家內(nèi)部治理以及國(guó)家之間主權(quán)競(jìng)爭(zhēng)中發(fā)揮著重要作用。[13]14國(guó)家治理應(yīng)用ChatGPT技術(shù)時(shí),切莫實(shí)行“拿來主義”,而是需要立足本土化,對(duì)ChatGPT進(jìn)行技術(shù)研發(fā)引導(dǎo),找出適合中國(guó)國(guó)情的ChatGPT發(fā)展路徑,為國(guó)家治理現(xiàn)代化提供支持。
對(duì)ChatGPT技術(shù)的研發(fā)引導(dǎo),要以正確的倫理觀為指引。理念決定事物的發(fā)展方向,理念提供行動(dòng)動(dòng)力。對(duì)ChatGPT技術(shù)的發(fā)展要加強(qiáng)倫理性指導(dǎo),必須謹(jǐn)慎對(duì)待人工智能發(fā)展與社會(huì)倫理之間的平衡。ChatGPT技術(shù)作為目前最具顛覆性的人工智能,在研發(fā)過程中始終會(huì)遇到倫理困境,能否守住倫理界限成為關(guān)鍵。人工智能技術(shù)的發(fā)展一方面推動(dòng)社會(huì)發(fā)展,另一方面對(duì)傳統(tǒng)價(jià)值倫理的影響有待商榷,也是每個(gè)國(guó)家需要認(rèn)真考慮的問題。目前來看,ChatGPT對(duì)我國(guó)社會(huì)主義核心價(jià)值觀以及傳統(tǒng)價(jià)值理念的影響仍是未知數(shù)。因此,我們要將ChatGPT模型中植入符合中國(guó)社會(huì)主義核心價(jià)值理念的內(nèi)容,以塑造其正向的內(nèi)容輸出。
除此之外,我國(guó)在人工智能尤其是ChatGPT模型的發(fā)展中要想打破技術(shù)壟斷,占據(jù)市場(chǎng)份額,必須增加技術(shù)研發(fā)的支持與投入。ChatGPT模型更新?lián)Q代一般具有長(zhǎng)周期、高投入、高耗能的特點(diǎn),為實(shí)現(xiàn)ChatGPT在國(guó)家治理中發(fā)揮更大作用,必須加強(qiáng)自主科技研究與創(chuàng)新,克服技術(shù)難題,搶占市場(chǎng)高地,為國(guó)家治理提供安全、可持續(xù)的技術(shù)支撐。