国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

ChatGPT 的風(fēng)險(xiǎn)挑戰(zhàn)及刑事應(yīng)對(duì)

2023-05-14 15:42:06馬春曉
警學(xué)研究 2023年5期
關(guān)鍵詞:提供者義務(wù)人工智能

劉 維,馬春曉

(南京大學(xué),江蘇 南京 210008)

一、問(wèn)題的提出

當(dāng)前,由美國(guó)人工智能研究實(shí)驗(yàn)室OpenAI于2022年11月30日發(fā)布的智能對(duì)話代理程序ChatGPT,已經(jīng)成為全球范圍內(nèi)備受關(guān)注現(xiàn)象級(jí)的科技事件。與以往分析已有數(shù)據(jù)的決策式人工智能所不同,ChatGPT作為一種生成式人工智能,可以綜合利用人類反饋強(qiáng)化學(xué)習(xí)(Rein-forcement Learning with Human Feedback,RLHF)、深度學(xué)習(xí)、數(shù)據(jù)挖掘等新型技術(shù)模擬人類聊天行為。它根據(jù)用戶輸入的提問(wèn),通過(guò)自然語(yǔ)言進(jìn)行回復(fù),從而創(chuàng)造新的信息與內(nèi)容,并能夠?qū)崿F(xiàn)自身的快速迭代。受ChatGPT事件的影響,一時(shí)之間,谷歌、阿里、百度、科大訊飛等互聯(lián)網(wǎng)科技公司紛紛推出自家的生成式人工智能產(chǎn)品。在可預(yù)見的一段時(shí)間內(nèi),以ChatGPT為代表的生成式人工智能產(chǎn)品將會(huì)獲得技術(shù)與資本的持續(xù)注入,在生活、工作的諸多場(chǎng)景中獲得應(yīng)用。

經(jīng)過(guò)迭代升級(jí)后的ChatGPT功能愈加強(qiáng)大、應(yīng)用場(chǎng)域愈加廣泛,隨之而來(lái)的法律風(fēng)險(xiǎn)與挑戰(zhàn)則需要進(jìn)行理性的思考。僅在發(fā)展初始階段,ChatGPT就面臨深度學(xué)習(xí)算法自身存在的算法黑箱、算法歧視及用戶使用中的數(shù)據(jù)安全和隱私泄露等問(wèn)題。此外,還因?yàn)槠渥陨砩尚缘奶卣?,可能引發(fā)知識(shí)產(chǎn)權(quán)侵權(quán)、生成虛假信息等眾多問(wèn)題。正是考慮到生成式人工智能帶來(lái)的種種挑戰(zhàn),各國(guó)政府近期不約而同地做出了相應(yīng)的監(jiān)管動(dòng)作與立法舉措。2023年3月末,意大利政府?dāng)?shù)據(jù)保護(hù)局(Garante)要求OpenAI平臺(tái)停止ChatGPT在意大利的運(yùn)營(yíng),并限制其對(duì)意大利用戶個(gè)人數(shù)據(jù)的處理,隨后又在4月向其提出了包括告知用戶數(shù)據(jù)邏輯、允許非用戶處理個(gè)人數(shù)據(jù)和推出年齡驗(yàn)證系統(tǒng)在內(nèi)的一系列整改要求,最終于4月末允許ChatGPT重新上線。[1]與此同時(shí),西班牙的數(shù)據(jù)保護(hù)機(jī)構(gòu)也要求歐盟隱私監(jiān)管機(jī)構(gòu)評(píng)估ChatGPT的隱私問(wèn)題。[2]法國(guó)國(guó)家信息與自由委員會(huì)(CNIL)目前也在對(duì)用戶有關(guān)ChatGPT的投訴進(jìn)行調(diào)查。法國(guó)、愛(ài)爾蘭與德國(guó)有關(guān)當(dāng)局已與意大利方取得聯(lián)系,共商ChatGPT禁令細(xì)節(jié),意在就隱私安全相關(guān)問(wèn)題達(dá)成一致立場(chǎng)。[3]美國(guó)政府討論了人工智能對(duì)社會(huì)和國(guó)家安全的風(fēng)險(xiǎn)與機(jī)遇,表示其危險(xiǎn)性有待觀察。[4]2023年4月,美國(guó)商務(wù)部下屬機(jī)構(gòu)也發(fā)布“人工智能問(wèn)責(zé)政策”征求意見稿,就是否需要對(duì)ChatGPT等人工智能工具監(jiān)管廣泛征求意見。[5]而由馬斯克和圖靈獎(jiǎng)得主約書亞·本吉奧(Yoshua Bengio)等人發(fā)起聯(lián)名信公開呼吁暫停研發(fā)高級(jí)人工智能,如今已有上萬(wàn)人簽名。[6]正是在這樣的背景下,國(guó)家網(wǎng)信辦會(huì)同六部委共同發(fā)布2023年7月13日《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《辦法》),擬對(duì)生成式人工智能進(jìn)行規(guī)范管理?!掇k法》對(duì)生成式人工智能產(chǎn)品或服務(wù)的提供提出了一系列要求,包括生成式人工智能服務(wù)提供者應(yīng)當(dāng)進(jìn)行安全評(píng)估,并對(duì)生成的內(nèi)容進(jìn)行標(biāo)識(shí);應(yīng)采取技術(shù)措施,防止虛假信息生成,防止算法歧視,以及防止侵害他人合法權(quán)益。這些要求體現(xiàn)了網(wǎng)信部門對(duì)內(nèi)容安全責(zé)任分配的高度關(guān)注以及初步的監(jiān)管思路。在當(dāng)前各類生成式人工智能服務(wù)及相關(guān)應(yīng)用廣受關(guān)注并有噴薄而出趨勢(shì)之際,《辦法》的出臺(tái)提供了初步的規(guī)范指引。

為了清晰全面地洞察ChatGPT在廣泛應(yīng)用后所可能產(chǎn)生的風(fēng)險(xiǎn),首先應(yīng)當(dāng)對(duì)與ChatGPT有關(guān)的主體進(jìn)行類型劃分,以便作出針對(duì)性的規(guī)制和責(zé)任的追究。本文將主體分為兩類:一種為生成式人工智能服務(wù)的提供者,諸如ChatGPT的開發(fā)者OpenAI;另一種為生成式人工智能服務(wù)的使用者,既包括普通的公眾用戶,又包括利用生成式人工智能技術(shù)提供其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商。其次,通過(guò)透視ChatGPT自身的運(yùn)行和適用的過(guò)程,深入發(fā)現(xiàn)不同階段分別存在的風(fēng)險(xiǎn)挑戰(zhàn),具體包括算法設(shè)計(jì)階段、數(shù)據(jù)訓(xùn)練階段、模型生成階段、模型優(yōu)化階段、用戶使用階段①其中,用戶使用階段輸入的信息同時(shí)將作為人工智能數(shù)據(jù)庫(kù)的素材再次投入訓(xùn)練,此外,用戶在使用過(guò)程中向生成式人工智能服務(wù)提供者提供的反饋可以通過(guò)提供者對(duì)模型的優(yōu)化使得模型進(jìn)行持續(xù)迭代升級(jí)。、文本生成階段和產(chǎn)品應(yīng)用階段等。本文第二部分在主體和階段劃分的基礎(chǔ)上,剖析以ChatGPT為代表的生成式人工智可能的應(yīng)用場(chǎng)域及可能帶來(lái)的風(fēng)險(xiǎn);第三部分則將聚焦生成式人工智能服務(wù)提供者及使用者的刑事責(zé)任和具體的注意義務(wù)類型,妥善回答生成式人工智能刑事責(zé)任主體地位、涉生成式人工智能犯罪所適用的責(zé)任原則等相關(guān)問(wèn)題。

二、ChatGPT的應(yīng)用場(chǎng)域與潛在風(fēng)險(xiǎn)

(一)ChatGPT的應(yīng)用場(chǎng)域

大型語(yǔ)言模型屬于代碼層的基石性模型(foundational model),可被應(yīng)用于從搜索引擎、內(nèi)容平臺(tái)到應(yīng)用軟件的一系列下游場(chǎng)景中。以ChatGPT為例,它首先通過(guò)海量數(shù)據(jù)的訓(xùn)練形成龐大的基礎(chǔ)模型,隨后根據(jù)不同專業(yè)的優(yōu)化訓(xùn)練適配不同行業(yè)和場(chǎng)景,最后再面向廣大用戶直接提供服務(wù)應(yīng)用。因此,生成式人工智能的功能遠(yuǎn)不止于提供信息內(nèi)容服務(wù),還可以作為醫(yī)學(xué)、教育、金融、傳媒、自動(dòng)駕駛等諸多領(lǐng)域的“技術(shù)基座”,發(fā)揮巨大的產(chǎn)業(yè)潛力,成為現(xiàn)代社會(huì)的“技術(shù)基礎(chǔ)設(shè)施”。

在醫(yī)學(xué)領(lǐng)域,ChatGPT大型語(yǔ)言模型在醫(yī)工研究方面有較多的應(yīng)用場(chǎng)景,也存在巨大的商用潛力,比如,醫(yī)學(xué)文獻(xiàn)篩選、文本挖掘、醫(yī)學(xué)問(wèn)答、自動(dòng)診斷、個(gè)性化支持等。在教育領(lǐng)域,國(guó)內(nèi)外已有多家企業(yè)宣布布局ChatGPT的相關(guān)業(yè)務(wù),在作業(yè)批改、口語(yǔ)練習(xí)、作文輔導(dǎo)等方面開發(fā)出各類應(yīng)用場(chǎng)景。[7]同時(shí),ChatGPT在做題、寫文章、撰寫視頻腳本等方面也有著巨大的應(yīng)用潛力。在自動(dòng)駕駛領(lǐng)域,紅旗、長(zhǎng)城等大型車企相繼宣布接入“文心一言”(由百度公司開發(fā)的生成式人工智能系統(tǒng))[8],通過(guò)智能化技術(shù)賦能汽車行業(yè)發(fā)展,提升汽車應(yīng)用場(chǎng)景下的智能化與交互體驗(yàn)。在金融領(lǐng)域,ChatGPT可以自動(dòng)生產(chǎn)金融資訊、金融產(chǎn)品介紹、撰寫財(cái)報(bào)分析等內(nèi)容,還可以擔(dān)任虛擬理財(cái)顧問(wèn)。在傳媒領(lǐng)域,ChatGPT可以進(jìn)行智能新聞寫作、虛擬客服營(yíng)銷工作,等等。

總體來(lái)說(shuō),隨著ChatGPT的應(yīng)用場(chǎng)景不斷豐富,各行業(yè)普遍看好生成式人工智能技術(shù)應(yīng)用場(chǎng)景與市場(chǎng)前景。伴隨大模型算法技術(shù)的不斷升級(jí)和突破,以及算力大規(guī)模部署帶來(lái)的成本下降,AIGC(Artificial Intelligence in Games and Computation,即人工智能生成內(nèi)容)應(yīng)用所受到技術(shù)制約將逐步減少。據(jù)估測(cè),2025年中國(guó)AIGC市場(chǎng)規(guī)模有望達(dá)到1 600億。[9]

(二)ChatGPT的潛在風(fēng)險(xiǎn)

目前,ChatGPT帶來(lái)的變革正處于初始階段,即將到來(lái)的深刻變革迫使我們要對(duì)其可能的風(fēng)險(xiǎn)進(jìn)行評(píng)估,以有效控制生成式人工智能的風(fēng)險(xiǎn)水平。

1.生成式人工智能服務(wù)提供者可能面對(duì)和帶來(lái)的風(fēng)險(xiǎn)。在生成式人工智能的運(yùn)行和適用過(guò)程中,其服務(wù)提供者可能面對(duì)的風(fēng)險(xiǎn)主要包括算法風(fēng)險(xiǎn)、錯(cuò)誤信息風(fēng)險(xiǎn)、數(shù)據(jù)安全風(fēng)險(xiǎn)、歧視風(fēng)險(xiǎn)和知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)等。

在算法設(shè)計(jì)階段,算法透明問(wèn)題以及如何構(gòu)建一種可信任的算法解釋機(jī)制,是人工智能法律問(wèn)題中的經(jīng)典問(wèn)題。[10]因算法編寫的高度專業(yè)性,用戶無(wú)從得知帶有自身信息的有關(guān)數(shù)據(jù)被抓取、處理以及應(yīng)用的細(xì)節(jié),這種技術(shù)上無(wú)法避免的不透明性將對(duì)法律機(jī)制帶來(lái)較大的挑戰(zhàn),如果管理不當(dāng),顯然會(huì)對(duì)用戶的權(quán)益與社會(huì)秩序造成消極的影響。

在數(shù)據(jù)訓(xùn)練階段,OpenAI將ChatGPT提供的信息符合真實(shí)性、無(wú)害性和有用性作為努力目標(biāo),但是ChatGPT的算法和訓(xùn)練數(shù)據(jù)仍然存在局限性。一則,ChatGPT的算法學(xué)習(xí)包括對(duì)數(shù)據(jù)資料的無(wú)監(jiān)督學(xué)習(xí)、人工指導(dǎo)的有監(jiān)督學(xué)習(xí)和與用戶人機(jī)對(duì)話過(guò)程中的學(xué)習(xí),用戶輸入的信息會(huì)被記錄并成為機(jī)器智能的組成部分,從而對(duì)用戶的個(gè)人信息、秘密信息、商業(yè)秘密和其他秘密信息、情報(bào)等形成安全風(fēng)險(xiǎn)。二則,來(lái)自互聯(lián)網(wǎng)的數(shù)據(jù)無(wú)法保證真實(shí)性、準(zhǔn)確性和專業(yè)性,通過(guò)互聯(lián)網(wǎng)數(shù)據(jù)生成的信息難以做到排除虛假信息。OpenAI雖采取了一些技術(shù)措施對(duì)ChatGPT生成的信息進(jìn)行正確性檢測(cè),也沒(méi)有完全消除前述因素的影響,而且,在較長(zhǎng)一段時(shí)間內(nèi),都不可能完全解決ChatGPT提供虛假、錯(cuò)誤甚至有害信息的問(wèn)題。三則,ChatGPT是一種無(wú)感知的語(yǔ)言模型,對(duì)輸入數(shù)據(jù)的處理是基于其在訓(xùn)練數(shù)據(jù)中的出現(xiàn)頻率和語(yǔ)言模式。如果訓(xùn)練數(shù)據(jù)中存在諸如種族歧視、性別歧視在內(nèi)的偏見和歧視,ChatGPT在這部分?jǐn)?shù)據(jù)上訓(xùn)練后也會(huì)同步反映出這些問(wèn)題。而且,由于訓(xùn)練數(shù)據(jù)體量巨大且豐富,不同文化和價(jià)值觀之間存在差異,因此,也會(huì)有種族、文化和價(jià)值觀沖突的風(fēng)險(xiǎn)。

ChatGPT對(duì)于知識(shí)產(chǎn)權(quán)的侵犯可能發(fā)生在兩個(gè)階段:訓(xùn)練階段和文本生成階段。其一,訓(xùn)練階段所涉及的知識(shí)產(chǎn)權(quán)問(wèn)題主要是ChatGPT是否可以使用又如何使用受到著作權(quán)保護(hù)的內(nèi)容。其二,文本生成階段所涉及的問(wèn)題主要是其生成的內(nèi)容是否能夠受到著作權(quán)的保護(hù),及是否構(gòu)成侵權(quán)。在訓(xùn)練階段,ChatGPT通常建立在海量數(shù)據(jù)訓(xùn)練的基礎(chǔ)上,因而涉及對(duì)已有作品的復(fù)制。但時(shí)至今日,著作權(quán)保護(hù)的邊界不僅關(guān)乎文學(xué)藝術(shù)創(chuàng)作,也關(guān)系人工智能科技的發(fā)展。如果用于訓(xùn)練的作品都需要獲得原作者的許可,一方面,成本巨大;另一方面,如果相當(dāng)數(shù)量的著作權(quán)人拒絕許可,將會(huì)導(dǎo)致被用于訓(xùn)練模型的數(shù)據(jù)十分局限,由此生成的人工智能模型可能存在缺失進(jìn)而產(chǎn)生“偏見”。在文本生成階段,盡管ChatGPT自身的產(chǎn)出機(jī)制不會(huì)存在整段復(fù)制他人作品的問(wèn)題,但是也不能排除會(huì)生成侵犯他人著作權(quán)的內(nèi)容,如果通過(guò)網(wǎng)絡(luò)提供還可能構(gòu)成侵犯信息網(wǎng)絡(luò)傳播權(quán)。盡管我國(guó)還未對(duì)此作出專門性的規(guī)定,需要討論的問(wèn)題是,是否需要為此類大模型的侵權(quán)責(zé)任設(shè)置一定的避風(fēng)港,以及采取哪些措施促使其減少侵權(quán)。至于生成內(nèi)容是否屬于受著作權(quán)法保護(hù)的作品,爭(zhēng)議較大。美國(guó)版權(quán)局(USCO)于2023年3月發(fā)布的美國(guó)法規(guī)第202部分就規(guī)定,人工智能自動(dòng)生成的作品,不受版權(quán)法保護(hù)。①原版公告地址:chrome-extension://bocbaocobfecmglnmeaeppambideimao/pdf/viewer.htmlfile=https%3A%2F%2Fwww.govinfo.gov%2Fcontent%2Fpkg%2FFR-2023-03-16%2Fpdf%2F2023-05321.pdf。我國(guó)則早在2019年末,就曾作出一起判決,認(rèn)定人工智能生成內(nèi)容具有獨(dú)創(chuàng)性,應(yīng)當(dāng)獲得著作權(quán)法保護(hù)。②深圳市騰訊計(jì)算機(jī)系統(tǒng)有限公司與上海盈訊科技有限公司著作權(quán)權(quán)屬、侵權(quán)糾紛、商業(yè)賄賂不正當(dāng)競(jìng)爭(zhēng)糾紛案,深圳市南山區(qū)人民法院〔2019〕粵0305民初14010號(hào)民事判決書。

2.生成式人工智能服務(wù)使用者可能面對(duì)和帶來(lái)的風(fēng)險(xiǎn)。生成式人工智能服務(wù)使用者可能面對(duì)和帶來(lái)的風(fēng)險(xiǎn)主要包括濫用風(fēng)險(xiǎn)、隱私泄露風(fēng)險(xiǎn)、錯(cuò)誤信息風(fēng)險(xiǎn)和犯罪利用風(fēng)險(xiǎn)。

在用戶使用階段,很可能發(fā)生對(duì)ChatGPT生成結(jié)果不當(dāng)應(yīng)用的風(fēng)險(xiǎn)。如學(xué)生在課堂測(cè)驗(yàn)或考試過(guò)程中直接使用ChatGPT的結(jié)果作為答案進(jìn)行作弊;研究人員使用ChatGPT來(lái)進(jìn)行寫作的學(xué)術(shù)不規(guī)范行為;還有,不法分子利用ChatGPT來(lái)制造假新聞或謠言,引發(fā)社會(huì)動(dòng)蕩。目前還沒(méi)有專門針對(duì)ChatGPT生成文本的正確性進(jìn)行鑒別的研究成果,已有的針對(duì)虛假新聞或虛假信息檢測(cè)的方法可以嘗試應(yīng)用到大規(guī)模語(yǔ)言模型生成文本的正確性檢測(cè)中,比如基于事實(shí)抽取和驗(yàn)證的方法,但是否具有明顯的效果還有待驗(yàn)證。自O(shè)penAI于2022年11月發(fā)布ChatGPT伊始,Check Point Research(CPR)的研究人員就已發(fā)現(xiàn)至少三起惡意利用ChatGPT的實(shí)例。如使用ChatGPT開發(fā)的Python信息盜取器代碼,在被感染的系統(tǒng)上搜索和復(fù)制Office文檔、PDF和圖片等12種常見文件類型并泄露出去;再比如用ChatGPT編寫Java代碼下載PuTTY SSH和telnet客戶端并通過(guò)PowerShell在系統(tǒng)上秘密運(yùn)行。[11]類ChatGPT極易被犯罪分子利用,成為網(wǎng)絡(luò)犯罪工具或?yàn)榫W(wǎng)絡(luò)犯罪提供技術(shù)支持,如ChatGPT等GPT-3工具可幫助網(wǎng)絡(luò)犯罪分子逼真地模擬各種社會(huì)環(huán)境,并通過(guò)心理操縱誘騙受害者泄露敏感個(gè)人信息;如網(wǎng)絡(luò)犯罪分子利用類ChatGPT等工具生成極具說(shuō)服力的釣魚電子郵件或信息實(shí)施網(wǎng)絡(luò)詐騙。若國(guó)內(nèi)運(yùn)營(yíng)的類ChatGPT應(yīng)用被犯罪分子惡意利用作為犯罪工具,其開發(fā)者、運(yùn)營(yíng)方是否需承擔(dān)法律責(zé)任,需要承擔(dān)何種法律責(zé)任,均成為司法需要妥善回答的問(wèn)題。使用預(yù)訓(xùn)練語(yǔ)言模型能參與的犯罪行為種類繁多,因此很難把所有它們能錯(cuò)誤使用的方法都?xì)w納總結(jié)起來(lái),可以預(yù)料的是,隨著技術(shù)的迭代發(fā)展以及不法分子的不斷嘗試,ChatGPT被濫用的方式會(huì)更多樣且更加難以預(yù)測(cè)。

錯(cuò)誤信息風(fēng)險(xiǎn)源于ChatGPT可能產(chǎn)生虛假、誤導(dǎo)、無(wú)意義或質(zhì)量差的信息。當(dāng)前,ChatGPT已經(jīng)在成為很多用戶的一種獲取信息的手段,但如果用戶沒(méi)有相應(yīng)的分辨能力,可能會(huì)誤信這些錯(cuò)誤的信息,從而帶來(lái)一系列的風(fēng)險(xiǎn)隱患。盡管預(yù)訓(xùn)練語(yǔ)言模型生成的信息有一定可信度,且可信度會(huì)在后續(xù)學(xué)習(xí)改進(jìn)中不斷上升,但這類模型在很多領(lǐng)域生成的信息仍然不夠可靠。同時(shí),ChatGPT的流行會(huì)在更大程度上增加用戶對(duì)它的信任,從而導(dǎo)致用戶被更多錯(cuò)誤的信息誤導(dǎo)。預(yù)訓(xùn)練語(yǔ)言模型生成的錯(cuò)誤信息比例上升可能會(huì)加大人們對(duì)社會(huì)中各類信息的不信任,破壞社會(huì)的知識(shí)交流傳播。在一些相對(duì)敏感的領(lǐng)域,比如法律和醫(yī)學(xué)領(lǐng)域,ChatGPT的錯(cuò)誤信息很容易導(dǎo)致直接的損害后果。錯(cuò)誤的醫(yī)學(xué)法律知識(shí)會(huì)導(dǎo)致使用者違法犯罪或者自行處理傷口疾病時(shí)出現(xiàn)問(wèn)題,從而造成對(duì)社會(huì)和自己身體健康的傷害。這類問(wèn)題其實(shí)在ChatGPT之前就已經(jīng)有了相關(guān)的案例,比如,患者不相信正規(guī)醫(yī)生而搬出搜索引擎給出的結(jié)果直接反駁醫(yī)生。若用戶因?yàn)樾刨囶怌hatGPT輸出的錯(cuò)誤信息/誤導(dǎo)性內(nèi)容而遭受損失,類ChatGPT的運(yùn)營(yíng)者是否需承擔(dān)賠償責(zé)任便成為一個(gè)亟待解決的問(wèn)題。有觀點(diǎn)認(rèn)為,應(yīng)從類ChatGPT的業(yè)務(wù)模式、盈利模式來(lái)具體分析,若類ChatGPT僅提供免費(fèi)的服務(wù),并且進(jìn)行充分的風(fēng)險(xiǎn)提示,則在一定程度上可以“免責(zé)”,若類ChatGPT提供收費(fèi)服務(wù),則其運(yùn)營(yíng)方承擔(dān)賠償責(zé)任的可能性較大。[12]但是,僅以是否收費(fèi)作為認(rèn)定責(zé)任的標(biāo)準(zhǔn),過(guò)于大而化之,還需要做更為精細(xì)的討論。

隱私泄露風(fēng)險(xiǎn)則是指在用戶不知情的情況下泄露出自己不想泄露的信息,或者隱私信息被ChatGPT通過(guò)其他信息推斷出來(lái)。用戶在使用ChatGPT過(guò)程中可能會(huì)泄露自己的個(gè)人隱私信息或者一些組織乃至國(guó)家的機(jī)密信息。其中,個(gè)人信息的泄露可能會(huì)對(duì)個(gè)人的心理健康、人身安全造成影響;而國(guó)家或者商業(yè)機(jī)密往往是只有小范圍人員能獲悉的高等級(jí)信息,它們的泄露傳播可能會(huì)危及國(guó)家安全和企業(yè)安全。相關(guān)私密信息存在被大數(shù)據(jù)推導(dǎo)出來(lái)的可能:用戶即便未直接泄露私密信息,ChatGPT可能在不斷地學(xué)習(xí)過(guò)程中形成強(qiáng)大的推斷能力,從而自行推斷出來(lái)。如何應(yīng)對(duì)生成式人工智能對(duì)個(gè)人隱私信息和組織、國(guó)家機(jī)密信息泄露問(wèn)題,也值得進(jìn)一步的研究。

三、生成式人工智能服務(wù)提供者及使用者的刑事責(zé)任

現(xiàn)代刑法表現(xiàn)為法益概念的變遷與新型法益的產(chǎn)生、法益保護(hù)的提前、歸責(zé)要件的緩和等[13],這些新變化要求傳統(tǒng)刑法順應(yīng)風(fēng)險(xiǎn)社會(huì)的變化進(jìn)行修正[14],更加凸顯刑法的預(yù)防機(jī)能(主要是積極的一般預(yù)防機(jī)能)。析言之,刑法作為事前的風(fēng)險(xiǎn)控制法的功能越來(lái)越得到重視。面對(duì)劇烈的社會(huì)變遷,刑法要以更積極的姿態(tài)積極地參與到社會(huì)治理中,肩負(fù)起預(yù)防重大風(fēng)險(xiǎn)、保障社會(huì)安全的責(zé)任。

要預(yù)防生成式人工智能可能給社會(huì)帶來(lái)的刑事風(fēng)險(xiǎn),應(yīng)當(dāng)從犯罪現(xiàn)象的類型化出發(fā),通過(guò)現(xiàn)行規(guī)范考察不同主體的刑事責(zé)任,并在過(guò)程中反思現(xiàn)行規(guī)范的不足。涉生成式人工智能犯罪可以分為針對(duì)生成式人工智能的犯罪、利用生成式人工智能的犯罪[15]和對(duì)生成式人工智能產(chǎn)品未盡安全生產(chǎn)、管理義務(wù)的犯罪。[16]其中,“利用生成式人工智能的犯罪”還可以細(xì)分為利用生成式人工智能的“智能”犯罪和利用生成式人工智能的“不智能”犯罪。

現(xiàn)行刑法框架基本能夠覆蓋上述涉生成式人工智能犯罪,但仍有一定的立法空白亟需填充。其一,根據(jù)《關(guān)于辦理危害計(jì)算機(jī)信息系統(tǒng)安全刑事案件應(yīng)用法律若干問(wèn)題的解釋》第11條規(guī)定,刑法條文中的“計(jì)算機(jī)系統(tǒng)”和“計(jì)算機(jī)信息系統(tǒng)”意為“具有自動(dòng)處理數(shù)據(jù)的系統(tǒng)”,可以適用于生成式人工智能系統(tǒng);對(duì)“信息網(wǎng)絡(luò)”的列舉也可涵蓋人工智能網(wǎng)絡(luò)。由此可見,針對(duì)生成式人工智能的犯罪可被刑法中既有的非法侵入計(jì)算機(jī)信息系統(tǒng)罪、非法獲取計(jì)算機(jī)信息系統(tǒng)數(shù)據(jù)罪、非法控制計(jì)算機(jī)信息系統(tǒng)罪、破壞計(jì)算機(jī)信息系統(tǒng)罪規(guī)制。其二,生成式人工智能提供者及使用者利用生成式人工智能產(chǎn)品實(shí)施犯罪活動(dòng)的,應(yīng)當(dāng)根據(jù)提供者及使用者實(shí)施的具體犯罪行為認(rèn)定其罪名。其三,生成式人工智能提供者及使用者對(duì)人工智能產(chǎn)品未盡安全生產(chǎn)、管理義務(wù)的,造成他人或國(guó)家利益受損的,構(gòu)成相應(yīng)犯罪。具體而言,在生成式人工智能自身的設(shè)計(jì)階段或利用生成式人工智能技術(shù)提供其他產(chǎn)品服務(wù)的產(chǎn)品生產(chǎn)階段,生成式人工智能提供者或其他產(chǎn)品服務(wù)提供商違反注意義務(wù)可能構(gòu)成產(chǎn)品質(zhì)量的相關(guān)犯罪;在具體的產(chǎn)品使用階段,生成式人工智能使用者違反注意義務(wù)則可能構(gòu)成侵犯人身權(quán)益的犯罪。不過(guò),現(xiàn)行產(chǎn)品質(zhì)量犯罪的相關(guān)立法能否完全適用于人工智能產(chǎn)品還值得進(jìn)一步討論,相關(guān)主體注意義務(wù)的具體內(nèi)容也需要隨著實(shí)踐的發(fā)展通過(guò)相關(guān)法律法規(guī)進(jìn)行細(xì)化。此外,生成式人工智能提供者對(duì)人工智能產(chǎn)品未盡安全管理義務(wù)的,還可能構(gòu)成拒不履行信息網(wǎng)絡(luò)安全管理義務(wù)罪,但這一罪名目前在實(shí)踐中司法適用率極低,其規(guī)范內(nèi)涵和效力尚需進(jìn)一步明確。

(一)討論的前提:生成式人工智能刑事責(zé)任主體地位之否定

要明確在前述三種涉生成式人工智能犯罪類型中不同參與者的刑事責(zé)任,首先需要回答的前提性問(wèn)題是,生成式人工智能本身能否獨(dú)立承擔(dān)刑事責(zé)任,即生成式人工智能是否具有刑事責(zé)任主體地位,這將決定歸責(zé)判斷的基底。

法律賦予自然人以外的主體以刑法上的人格,例如單位,是源于組織體中自然人意志的延伸。那么,刑法能否再次突破自然人的限制,賦予人工智能產(chǎn)品法律人格?這一問(wèn)題的關(guān)鍵在于,人工智能存在自由意志的可能性及能否根據(jù)其意志實(shí)施刑法意義上的行為應(yīng)當(dāng)是考慮的核心因素。王鋼教授認(rèn)為,人的存在論特性決定了刑法是行為規(guī)范體系,故唯有能夠理解概念和語(yǔ)義、能夠領(lǐng)會(huì)刑法規(guī)范的內(nèi)容和要求的主體才可能作為適格的規(guī)范接受者被視為刑事責(zé)任主體,而目前的人工智能并不能解決語(yǔ)義鴻溝的問(wèn)題。[17]相反,肯定論者則往往通過(guò)肯定人工智能自由意志進(jìn)而認(rèn)為其有能力依照其自由意志實(shí)施危害社會(huì)的行為。①劉憲權(quán):《人工智能時(shí)代刑事責(zé)任與刑罰體系的重構(gòu)》,載《政治與法律》2018年第3期;彭文華:《自由意志、道德代理與智能代理——兼論人工智能犯罪主體資格之生成》,載《法學(xué)》2019年第10期;王燕玲:《人工智能時(shí)代的刑法問(wèn)題與應(yīng)對(duì)思路》,載《政治與法律》2019年第1期。江溯教授提出另一種證立人工智能刑事主體性的思路。他認(rèn)為,在罪責(zé)理論已經(jīng)明顯走向“去形而上學(xué)”的情形下,應(yīng)當(dāng)排除“自由意志”這一局限于“形而上”的假設(shè)并且客觀性和證明力都不確定的概念。他認(rèn)為人工智能基于算法建立起了決策機(jī)制,已經(jīng)擁有“意志”,自然也可以實(shí)施刑法意義上的行為,承擔(dān)刑事責(zé)任。[18]美國(guó)哲學(xué)家約翰塞爾提出了弱人工智能和強(qiáng)人工智能的重要區(qū)分。[19]強(qiáng)人工智能中被認(rèn)為其計(jì)算機(jī)程序本身就是一個(gè)心靈,而弱人工智能“至多只能夠成為人們研究心靈的一種工具,或是對(duì)心智活動(dòng)的一種抽象模擬”。[20]可以說(shuō),由于弱人工智能的技術(shù)發(fā)展水平尚沒(méi)有達(dá)到模擬人腦意識(shí)思維的程度,所以其本質(zhì)上仍只是一種提高人類工作效率的智能“工具”,與生活中五花八門的“產(chǎn)品”并無(wú)區(qū)別。目前,ChatGPT雖然擁有強(qiáng)大的語(yǔ)言識(shí)別和理解能力,但不可否認(rèn)的是,其生成內(nèi)容存在大量的常識(shí)錯(cuò)誤,更不用說(shuō)擁有和人類同一水平的認(rèn)識(shí)和控制能力。因此,應(yīng)當(dāng)認(rèn)為,現(xiàn)時(shí)人工智能正處于從感知智能走向認(rèn)知智能的發(fā)展階段,也就是說(shuō),仍屬于弱人工智能的階段。

弱人工智能,無(wú)論是從法哲學(xué)的角度,還是從法律技術(shù)的角度,亦或是社會(huì)預(yù)防的角度,都不需要也不應(yīng)當(dāng)被賦予刑事責(zé)任主體地位。首先,弱人工智能作為一套編寫的程序系統(tǒng)并不具有自主意志,更無(wú)法自主實(shí)施行為,最終使用人工智能做出各種活動(dòng)的仍然是具有獨(dú)立意志的人類。無(wú)論輸入多少變量,算法仍只是其復(fù)制的人類行為模式集合。其次,人工智能體即使被擬制為自由意志者,也不擁有刑事責(zé)任能力。要能承擔(dān)刑事責(zé)任,必須先存在能夠被剝奪或者限制的權(quán)利。也就是說(shuō),責(zé)任主體的前提是成為權(quán)利主體。而人工智能缺乏自利意識(shí),無(wú)法成為權(quán)利的負(fù)載者和法律主體。[21]再次,處罰弱人工智能,既無(wú)法實(shí)現(xiàn)報(bào)應(yīng)目的,也不具有特殊預(yù)防、一般預(yù)防的功能。有學(xué)者提出有必要在刑法中增設(shè)刪除數(shù)據(jù)、修改程序、永久銷毀等刑罰措施。[22]但人工智能作為一套工具性程序系統(tǒng),最終服務(wù)的還是人類的需求。對(duì)人工智能采取上述刑罰措施,并不能對(duì)使用該套程序系統(tǒng)的其他服務(wù)提供者或者一般用戶起到任何處罰或者威懾作用。

因此,應(yīng)當(dāng)認(rèn)為,包括ChatGPT在內(nèi)的生成式人工智能本身并不具有刑事責(zé)任能力。應(yīng)當(dāng)戳破生成式人工智能產(chǎn)品致他人或者國(guó)家利益受損行為作為工具層面的面紗,而將其視為“背后”責(zé)任主體行為的組成部分進(jìn)行分析,進(jìn)而對(duì)相關(guān)責(zé)任主體,即生成式人工智能服務(wù)提供者和使用者,追究故意犯罪、過(guò)失犯罪以及產(chǎn)品質(zhì)量缺陷問(wèn)題引發(fā)的刑事責(zé)任。

(二)生成式人工智能服務(wù)提供者的刑事責(zé)任及注意義務(wù)

1.生成式人工智能服務(wù)提供者的刑事責(zé)任。生成式人工智能服務(wù)提供者可能會(huì)承擔(dān)故意和過(guò)失兩種罪過(guò)形態(tài)的刑事責(zé)任。一方面,提供者故意研發(fā)對(duì)他人或國(guó)家有危害的人工智能產(chǎn)品,具體包括兩種情況:一是提供者為了出于特定的犯罪目的而設(shè)計(jì)研發(fā)某種人工智能產(chǎn)品,二是提供者明知其設(shè)計(jì)研發(fā)的人工智能產(chǎn)品未達(dá)到安全標(biāo)準(zhǔn)而放任其投入應(yīng)用市場(chǎng)。在第一種情形下,如果提供者為了實(shí)現(xiàn)某個(gè)犯罪目的而研發(fā)“有害”的人工智能產(chǎn)品,就應(yīng)當(dāng)將該人工智能產(chǎn)品理解為行為人的犯罪工具,并根據(jù)行為人利用人工智能產(chǎn)品具體實(shí)施的犯罪行為,依照刑法的規(guī)定,對(duì)行為人進(jìn)行定罪量刑。在第二種情形下,如果提供者并不是為了實(shí)現(xiàn)某個(gè)具體的犯罪目的,而是在明知其設(shè)計(jì)研發(fā)的人工智能產(chǎn)品未達(dá)到產(chǎn)品安全標(biāo)準(zhǔn)的情況下,仍然放任其投入市場(chǎng),使得該產(chǎn)品同其他領(lǐng)域相結(jié)合并進(jìn)一步生產(chǎn)出相關(guān)應(yīng)用,最終為一般用戶所使用。如果僅僅依靠生產(chǎn)、銷售不符合安全標(biāo)準(zhǔn)的產(chǎn)品罪等罪名來(lái)規(guī)制此類犯罪行為,那么一旦發(fā)生人工智能產(chǎn)品致人嚴(yán)重死傷的案件,將會(huì)造成與故意殺人罪、故意傷害罪等罪名法定刑不均衡的局面。[23]此時(shí)為了妥善的評(píng)價(jià)相關(guān)罪刑,可以考慮通過(guò)新增罪名來(lái)對(duì)此類行為人進(jìn)行定罪處罰。

另一方面,在過(guò)失犯罪的情形中,由于人工智能產(chǎn)品的技術(shù)性及應(yīng)用性,生成式人工智能服務(wù)提供者的刑事責(zé)任較一般產(chǎn)品生產(chǎn)者有所擴(kuò)張,具體來(lái)說(shuō),包括對(duì)產(chǎn)品自身安全保障的刑事責(zé)任和對(duì)下游使用者安全管理的刑事責(zé)任的擴(kuò)張。

第一,產(chǎn)品刑事責(zé)任的擴(kuò)張。這里主要是指產(chǎn)品制造者的注意義務(wù)范圍的擴(kuò)張,除了一般性的產(chǎn)品安全義務(wù)外,其至少還應(yīng)當(dāng)包括人工智能產(chǎn)品適法性的義務(wù)、倫理性的義務(wù)等。[24]具體而言,適法性義務(wù)包括在算法設(shè)計(jì)和模型生成階段嚴(yán)格按照法律法規(guī)進(jìn)行編程、測(cè)試,在數(shù)據(jù)訓(xùn)練階段排除違法信息,獲得相應(yīng)的知識(shí)產(chǎn)權(quán)授權(quán),保證數(shù)據(jù)安全;倫理性義務(wù)則主要包括在數(shù)據(jù)訓(xùn)練階段排除有害信息,諸如各種帶有偏見的歧視信息。例如,生成式人工智能擁有提供人臉、人聲等生物識(shí)別信息編輯功能的,提供者應(yīng)當(dāng)提示使用者(用戶)并取得其單獨(dú)同意。在未履行對(duì)用戶的提示義務(wù)的情況下,發(fā)生數(shù)據(jù)侵權(quán)情形,其應(yīng)承擔(dān)一定的法律責(zé)任。

第二,安全管理刑事責(zé)任的擴(kuò)張。正如前文所介紹的那樣,生成式人工智能作為一種基礎(chǔ)模型,未來(lái)將同不同產(chǎn)業(yè)結(jié)合開發(fā)出形形色色的人工智能產(chǎn)品。毫無(wú)疑問(wèn),類似ChatGPT的生成式人工智能扮演著各類應(yīng)用的底層技術(shù)和數(shù)據(jù)來(lái)源這樣舉足輕重的角色。相比普通的產(chǎn)品產(chǎn)業(yè)鏈,生成式人工智能提供者對(duì)下游應(yīng)用安全的影響更直接,作用也更大。因此,生成式人工智能提供者責(zé)任應(yīng)突破生產(chǎn)階段的產(chǎn)品安全責(zé)任,延伸到應(yīng)用階段的安全管理責(zé)任。具體而言,需要在產(chǎn)品應(yīng)用階段履行對(duì)使用者輸入數(shù)據(jù)和合成結(jié)果的審核義務(wù)和根據(jù)產(chǎn)品應(yīng)用階段得到的反饋及時(shí)優(yōu)化模型的義務(wù)。例如,如果生成式人工智能提供者不履行對(duì)于接入該人工智能的自動(dòng)駕駛汽車的軟件升級(jí)義務(wù),或者對(duì)相關(guān)醫(yī)療咨詢系統(tǒng)的更新義務(wù)、對(duì)系統(tǒng)中錯(cuò)誤的及時(shí)修正義務(wù),就有可能要承擔(dān)相應(yīng)的安全管理刑事責(zé)任。

“沒(méi)有產(chǎn)品缺陷,就無(wú)所謂產(chǎn)品責(zé)任?!保?5]有學(xué)者總結(jié)了產(chǎn)品缺陷的四種類型,包括產(chǎn)品設(shè)計(jì)缺陷、產(chǎn)品制造缺陷、產(chǎn)品警示缺陷與產(chǎn)品營(yíng)銷(產(chǎn)品召回與售后警示)缺陷。[26]不管是生成式人工智能本身,還是其下游利用生成式人工智能技術(shù)提供的其他產(chǎn)品服務(wù),都作為產(chǎn)品,可能面臨這四種類型的問(wèn)題。對(duì)于產(chǎn)品缺陷的責(zé)任問(wèn)題,首先應(yīng)當(dāng)在《產(chǎn)品質(zhì)量法》《侵權(quán)責(zé)任法》或單獨(dú)的《生成式人工智能管理辦法》等前置法層面上予以明確生成式人工智能提供者和下游利用生成式人工智能技術(shù)提供其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商的生成式人工智能產(chǎn)品質(zhì)量檢測(cè)和下游應(yīng)用監(jiān)測(cè)跟蹤義務(wù)。不同于一般產(chǎn)品,生成式人工智能產(chǎn)品對(duì)人類語(yǔ)言有極強(qiáng)的模仿和推理能力,并且其在全世界的流行會(huì)在很大程度上增加一般用戶對(duì)它的信任度,因而極有可能存在安全風(fēng)險(xiǎn)并導(dǎo)致用戶損害。因此,應(yīng)當(dāng)盡快對(duì)生成式人工智能提供者和利用生成式人工智能技術(shù)提供其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商設(shè)置相應(yīng)的責(zé)任和義務(wù)。目前,我國(guó)前置法層面上并未對(duì)此明確規(guī)定,根據(jù)法秩序統(tǒng)一原理與刑法二次違法性的理論,需要在前置法法律規(guī)定完備的前提下,才可以進(jìn)一步完善生成式人工智能產(chǎn)品質(zhì)量問(wèn)題引發(fā)的刑事責(zé)任問(wèn)題。

此外值得討論是,有學(xué)者認(rèn)為,“人工智能犯罪的刑法規(guī)制體系,必須在責(zé)任要素上普遍采納嚴(yán)格責(zé)任,對(duì)超過(guò)的客觀要素(結(jié)果)不強(qiáng)求故意或者過(guò)失?!保?7]“除了對(duì)故意利用人工智能技術(shù)實(shí)施犯罪的行為需要加以刑法規(guī)制外,由于人工智能可能造成的社會(huì)危害性大,并且研發(fā)者和使用者在大多數(shù)情況下對(duì)人工智能產(chǎn)品具有一定的把控能力,因此可以考慮在刑法中確立人工智能產(chǎn)品研發(fā)者和使用者的嚴(yán)格責(zé)任?!保?8]該觀點(diǎn)進(jìn)一步認(rèn)為,嚴(yán)格責(zé)任確認(rèn)的前提是前置法律法規(guī)已將這部分義務(wù)規(guī)定在條文之中,而刑法則可以規(guī)定不履行相應(yīng)法律法規(guī)中關(guān)于人工智能產(chǎn)品研發(fā)和使用過(guò)程中的規(guī)定,造成嚴(yán)重危害結(jié)果的,有關(guān)研發(fā)者和使用者需要承擔(dān)刑事責(zé)任。[29]本文認(rèn)為,關(guān)于生成式人工智能產(chǎn)品因缺陷致他人或國(guó)家利益受損的行為規(guī)制,仍應(yīng)當(dāng)堅(jiān)持過(guò)錯(cuò)責(zé)任原則,嚴(yán)格按照故意犯罪和過(guò)失犯罪的主客觀要求追究刑事責(zé)任。尤其在過(guò)失犯罪的情況下,應(yīng)對(duì)其提供者謹(jǐn)慎苛責(zé),不應(yīng)適用嚴(yán)格責(zé)任,而應(yīng)當(dāng)以新過(guò)失論作為理論工具,借助“緩和結(jié)果回避義務(wù)”對(duì)生成式人工智能提供者過(guò)失犯罪的成立范圍進(jìn)行限縮。

根據(jù)嚴(yán)格責(zé)任原則,行為人由于“在不允許的事項(xiàng)中逗留”,即使他沒(méi)有過(guò)錯(cuò),也要對(duì)所有后果承擔(dān)責(zé)任。這種嚴(yán)苛的可罰性是以行為人創(chuàng)設(shè)了不容許,也就是說(shuō)非社會(huì)所期望的風(fēng)險(xiǎn)創(chuàng)設(shè)為前提。只有在這樣的背景下,才能將僅僅實(shí)施了某種風(fēng)險(xiǎn)行為構(gòu)建為客觀處罰條件。因此,如果將危險(xiǎn)的人工智能系統(tǒng)投入流通所出現(xiàn)的結(jié)果認(rèn)定為客觀處罰條件,必須首先證明投入流通行為的不被容許性。但實(shí)際上,不違反義務(wù)地制造、銷售或運(yùn)營(yíng)人工智能系統(tǒng)的行為則是一種容許的、并為社會(huì)所需要和期待的行為。[30]應(yīng)當(dāng)說(shuō),在刑法中引入嚴(yán)格責(zé)任,顯而易見會(huì)極大地破壞刑法原有的責(zé)任體系,違背了責(zé)任原則。尤其是對(duì)僅僅具有工具性的生成式人工智能產(chǎn)品來(lái)說(shuō),此一體系性的破壞完全沒(méi)有必要。其一,雖然生成式人工智能作為基底模型,為各行各業(yè)的應(yīng)用提供技術(shù)支持,影響廣泛,但只要其研發(fā)者和使用者盡到了相應(yīng)的注意義務(wù),很大程度上就能避免危害的產(chǎn)生。若只是因?yàn)閼{空想象的所謂“人工智能產(chǎn)品社會(huì)危害性大”而置刑法的責(zé)任體系于不顧,得不償失。其二,由于生成式人工智能產(chǎn)品問(wèn)題及提供者主觀過(guò)錯(cuò)難以證明而主張嚴(yán)格責(zé)任并不合理。此觀點(diǎn)混淆了刑事領(lǐng)域中歸責(zé)和證明這兩個(gè)不同層次的問(wèn)題。并且,隨著人工智能技術(shù)的不斷發(fā)展和普及,未來(lái)這一問(wèn)題將得到極大解決。屆時(shí),完全可以通過(guò)國(guó)家設(shè)立的專門針對(duì)人工智能產(chǎn)品的技術(shù)部門或鑒定機(jī)構(gòu)對(duì)提供者的過(guò)錯(cuò)予以鑒定和甄別。其三,貿(mào)然引入嚴(yán)格責(zé)任,雖然可以在一定程度上將風(fēng)險(xiǎn)最小化,但其對(duì)整個(gè)人工智能領(lǐng)域的發(fā)展和創(chuàng)新帶來(lái)的挫傷是更無(wú)法容忍的。

在新過(guò)失論中,對(duì)過(guò)失犯的成立要進(jìn)行兩個(gè)階層的判斷:第一,在構(gòu)成要件階層,違反客觀注意義務(wù)之行為才能成立過(guò)失行為,其中客觀注意義務(wù)由以客觀的預(yù)見可能性和客觀的結(jié)果回避可能性為基礎(chǔ);第二,在責(zé)任階層,主要判斷行為人的主觀注意義務(wù),而這種主觀注意義務(wù)以行為人主觀上的預(yù)見可能性作為判斷的標(biāo)準(zhǔn)。通過(guò)這種雙重判斷,限制過(guò)失犯的成立范圍,以在人工智能發(fā)展的初級(jí)階段更有利地支持技術(shù)創(chuàng)新和行業(yè)生長(zhǎng)。值得注意的是,生成式人工智能作為一種不斷更新學(xué)習(xí)的系統(tǒng),存在一種“可預(yù)見的不可預(yù)見性(vorhersehbare Unvorhersehbarkeit)”①參見Gless/Weigend,ZStW 126(2014),S.561,581f.。的問(wèn)題。應(yīng)當(dāng)認(rèn)為,這種不可預(yù)見性是人工智能本身的技術(shù)特征所決定的,其設(shè)計(jì)開發(fā)者對(duì)這種情況缺乏客觀避免能力,因此并不能歸責(zé)于人工智能提供者。此外,如果存在信賴原則適用的空間,應(yīng)當(dāng)否定生成式人工智能提供者成立過(guò)失犯罪。

2.生成式人工智能服務(wù)提供者的注意義務(wù)。如前文所述,當(dāng)務(wù)之急應(yīng)當(dāng)明確生成式人工智能提供者和下游利用生成式人工智能技術(shù)提供其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商的生成式人工智能產(chǎn)品質(zhì)量檢測(cè)和下游應(yīng)用監(jiān)測(cè)跟蹤義務(wù)。其中,生成式人工智能提供者的義務(wù)可以分階段細(xì)化為算法設(shè)計(jì)、數(shù)據(jù)訓(xùn)練和模型生成階段安全編程、安全測(cè)試的義務(wù),用戶使用和模型優(yōu)化階段過(guò)濾審查違法有害信息并及時(shí)調(diào)整的義務(wù),與對(duì)下游服務(wù)使用者的提示義務(wù)。

(1)算法設(shè)計(jì)、數(shù)據(jù)訓(xùn)練和模型生成階段安全編程、安全測(cè)試的義務(wù)。算法、算力和數(shù)據(jù)是人工智能三大核心要素。人工智能運(yùn)行的技術(shù)邏輯就是算法。由于生成式人工智能具備深度學(xué)習(xí)功能,并且不斷根據(jù)用戶提供的內(nèi)容進(jìn)行更新迭代,因此其系統(tǒng)編程并不是為其設(shè)定固定操作,而是以設(shè)定重要參數(shù)的方式為系統(tǒng)運(yùn)行提供算法。以ChatGPT為例,其在技術(shù)路線上采用自然語(yǔ)言處理+搜索引擎集成的架構(gòu),建構(gòu)了大型語(yǔ)言和強(qiáng)化學(xué)習(xí)微調(diào)訓(xùn)練模型,連接大量語(yǔ)料庫(kù),通過(guò)預(yù)訓(xùn)練方法處理大模型序列數(shù)據(jù),使其擁有語(yǔ)言理解和文本生成的能力,能夠完成用戶指令的任務(wù)。因此,生成式人工智能服務(wù)提供者首先需要在算法設(shè)計(jì)、數(shù)據(jù)訓(xùn)練和模型生成階段,盡可能提高系統(tǒng)程序的適法性,排除程序缺陷。生成式人工智能提供者的安全編程義務(wù)主要體現(xiàn)為,為語(yǔ)言訓(xùn)練模型設(shè)置能夠保障數(shù)據(jù)安全、初步排除違法有害信息的參數(shù)并確保模型在參數(shù)范圍內(nèi)行動(dòng),并完成算法備案。

《產(chǎn)品質(zhì)量法》第46條對(duì)“產(chǎn)品缺陷”做了界定,即“產(chǎn)品存在危及人身、他人財(cái)產(chǎn)安全的不合理的危險(xiǎn)”或者產(chǎn)品不符合“保障人體健康和人身、財(cái)產(chǎn)安全的國(guó)家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn)”。當(dāng)前,人工智能產(chǎn)品還沒(méi)有相應(yīng)的國(guó)家標(biāo)準(zhǔn)、行業(yè)標(biāo)準(zhǔn),因而,判斷人工智能產(chǎn)品是否存在“缺陷”的標(biāo)準(zhǔn)在于是否“存在危及人身、他人財(cái)產(chǎn)安全的不合理的危險(xiǎn)”。算法黑箱使得生成式人工智能提供者難以預(yù)料該人工智能產(chǎn)品在和不同用戶交互的特定情境中會(huì)給出什么樣的生成內(nèi)容、這些生成內(nèi)容是否存在危及人身或他人財(cái)產(chǎn)安全的不合理危險(xiǎn)。為了確保該人工智能產(chǎn)品每天輸出的海量?jī)?nèi)容不存在這樣的不合理危險(xiǎn),生成式人工智能提供者有必要在將人工智能產(chǎn)品投放到市場(chǎng)公開使用前,充分開展各類場(chǎng)景運(yùn)用測(cè)試,尤其是在法律和醫(yī)療這樣專業(yè)和切身影響公民人身、財(cái)產(chǎn)安全的重要領(lǐng)域。通過(guò)反復(fù)的試驗(yàn)、反饋、完善確保該人工智能產(chǎn)品只在極端例外情況下才會(huì)引發(fā)生成違法有害信息,并合理設(shè)計(jì)以盡可能降低其損害程度。如果生成式人工智能提供者沒(méi)有充分開展安全測(cè)試,就不能以對(duì)該人工智能產(chǎn)品的具體生成內(nèi)容缺乏預(yù)見可能性為由,或者援引被容許的風(fēng)險(xiǎn)原理,否定自身的刑事責(zé)任。

值得強(qiáng)調(diào)的是,應(yīng)當(dāng)以編程時(shí)的科學(xué)技術(shù)水平和風(fēng)險(xiǎn)認(rèn)知水平為基準(zhǔn)來(lái)判斷生成式人工智能提供者是否履行了安全編程和安全測(cè)試義務(wù)。如果在生成式人工智能服務(wù)被投入下級(jí)應(yīng)用市場(chǎng)或直接為一般用戶使用時(shí)的科技水平并不能發(fā)現(xiàn)相關(guān)風(fēng)險(xiǎn)或者缺陷,就不應(yīng)當(dāng)將罕見的偶然性損害歸責(zé)給人工智能提供者。因此,在這種情況下,提供者并不承擔(dān)產(chǎn)品責(zé)任。

(2)用戶使用和模型優(yōu)化階段過(guò)濾審查、及時(shí)調(diào)整的義務(wù)。進(jìn)入到用戶使用階段之后,生成式人工智能在用戶輸入指令后,將指令轉(zhuǎn)化為數(shù)字序列,再通過(guò)上述模型聯(lián)系對(duì)話的上下文,分析用戶指令的含義及特征,生成數(shù)字序列形式的內(nèi)容,最后將數(shù)字序列轉(zhuǎn)換為文本輸出。而訓(xùn)練這一模型的鑰匙主要是基于人工反饋的強(qiáng)化學(xué)習(xí)(RLHF),模型基于不斷的人工反饋進(jìn)行持續(xù)迭代式微調(diào)。①參見哈爾濱工業(yè)大學(xué)自然語(yǔ)言處理研究所:《ChatGPT調(diào)研報(bào)告》,第10頁(yè),載道客巴巴2023年3月8日,https://www.doc88.com/p-25329748210272.html。因此,生成式人工智能提供者有義務(wù)對(duì)用戶輸入的內(nèi)容進(jìn)行過(guò)濾審查,建立鑒偽與辟謠機(jī)制,排除出違法信息、有害信息、錯(cuò)誤信息,諸如可以為犯罪所利用的信息,或帶有偏見的歧視性信息,并對(duì)模型不斷進(jìn)行優(yōu)化調(diào)整。

(3)對(duì)下游服務(wù)使用者的提示義務(wù)。此外,服務(wù)提供者還應(yīng)當(dāng)對(duì)使用者輸入數(shù)據(jù)進(jìn)行相關(guān)法律法規(guī)的提示,包括知識(shí)產(chǎn)權(quán)方面的風(fēng)險(xiǎn)提示,例如,要求提供人臉、人聲等生物識(shí)別信息編輯功能的,應(yīng)當(dāng)提示使用者并取得其單獨(dú)同意。在生成式人工智能提供者未履行對(duì)用戶的提示義務(wù)以及對(duì)用戶輸入內(nèi)容的審核義務(wù)的情況下,發(fā)生數(shù)據(jù)侵權(quán)情形,其應(yīng)承擔(dān)一定的法律責(zé)任。此外,還包括對(duì)錯(cuò)誤信息風(fēng)險(xiǎn)的提示,尤其是在醫(yī)療和法律等專業(yè)領(lǐng)域,應(yīng)當(dāng)提醒用戶謹(jǐn)慎判斷ChatGPT生成的相關(guān)信息。

值得注意的是,在OpenAI的使用條款(2023年3月14日版本)①OpenAI使用條款的訪問(wèn)鏈接:https://openai.com/policies/terms-of-use。中,并無(wú)明確闡明知識(shí)產(chǎn)權(quán)的問(wèn)題,而是顯示在適用法律允許的限度內(nèi),用戶擁有全部的 “輸入”(應(yīng)是指其向ChatGPT提供的指示和傳輸?shù)男畔?數(shù)據(jù)/文檔)。OpenAI亦聲明向用戶轉(zhuǎn)讓其在輸出中的、與輸出有關(guān)的所有權(quán)利、權(quán)證和利益,并規(guī)定用戶對(duì)包括輸入和輸出在內(nèi)的內(nèi)容負(fù)責(zé),確保相關(guān)內(nèi)容不違反任何適用法律或是諸項(xiàng)使用條款。因此可以推論的是,若ChatGPT所生成內(nèi)容被用戶公開,而其中被控含有受著作權(quán)保護(hù)、但未獲原著作權(quán)人同意之內(nèi)容,則相關(guān)責(zé)任應(yīng)由用戶承擔(dān)。這也實(shí)質(zhì)規(guī)避了OpenAI可能涉及的侵犯知識(shí)產(chǎn)權(quán)之風(fēng)險(xiǎn)。[31]

(三)生成式人工智能服務(wù)使用者的刑事責(zé)任

1.利用生成式人工智能技術(shù)提供其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商的刑事責(zé)任。對(duì)于利用生成式人工智能技術(shù)提供其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商明知生成式人工智能產(chǎn)品存在質(zhì)量問(wèn)題而予以利用的,構(gòu)成犯罪故意,應(yīng)當(dāng)承擔(dān)故意犯罪的刑事責(zé)任。具體而言又可繼續(xù)分為直接故意和間接故意兩種情形。如果該生成式人工智能產(chǎn)品的質(zhì)量問(wèn)題嚴(yán)重至損害結(jié)果一定會(huì)發(fā)生,則該其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商者構(gòu)成直接故意;如果該生成式人工智能產(chǎn)品的質(zhì)量問(wèn)題只是導(dǎo)致結(jié)果有可能會(huì)發(fā)生,則其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商構(gòu)成間接故意。而利用生成式人工智能技術(shù)提供其他產(chǎn)品服務(wù)的產(chǎn)品服務(wù)提供商在下游產(chǎn)品開發(fā)、經(jīng)營(yíng)過(guò)程中沒(méi)有盡到產(chǎn)品質(zhì)量注意義務(wù),或者未盡到對(duì)一般用戶的安全管理義務(wù)的,則構(gòu)成犯罪過(guò)失,承擔(dān)過(guò)失犯罪的刑事責(zé)任。

2.一般用戶的刑事責(zé)任。在使用ChatGPT時(shí),用戶自身的輸入行為需要嚴(yán)格遵守該人工智能所提供的使用條款以及相關(guān)法律規(guī)范,例如,不得輸入他人隱私、敏感信息、商業(yè)秘密、國(guó)家機(jī)密等,更不能利用ChatGPT實(shí)施違法犯罪行為。一般用戶實(shí)施針對(duì)人工智能的故意犯罪,如破壞計(jì)算機(jī)信息系統(tǒng)罪的,由現(xiàn)行刑法直接規(guī)制。一般用戶故意利用生成式人工智能產(chǎn)品實(shí)施犯罪活動(dòng)或未盡到對(duì)使用產(chǎn)品的安全管理義務(wù)過(guò)失致他人或國(guó)家利益損害的,應(yīng)當(dāng)根據(jù)其實(shí)施的具體犯罪行為認(rèn)定其罪名。2023年4月末,甘肅就發(fā)生一起利用ChatGPT將虛假信息“洗稿”賺取流量非法獲利的案件,犯罪嫌疑人洪某因涉嫌尋釁滋事罪被采取刑事強(qiáng)制措施,但其行為構(gòu)成尋釁滋事罪還是編造、故意傳播虛假信息罪仍存在較大爭(zhēng)議。[32]

需要特別注意的是,一般用戶在使用ChatGPT時(shí)要面臨知識(shí)產(chǎn)權(quán)侵權(quán)風(fēng)險(xiǎn)。正如前文所提到的,根據(jù)OpenAI的使用條款,在用戶輸入行為符合使用條款和相關(guān)法律規(guī)定的前提下,OpenAI將該文本內(nèi)容的所有權(quán)和相關(guān)利益都轉(zhuǎn)讓給了用戶。但實(shí)際上用戶難以甄別該文本內(nèi)容是原創(chuàng)作品還是對(duì)他人作品的剽竊。此種情況下,如果用戶擅自進(jìn)行復(fù)制、發(fā)表、改編或者傳播,可能會(huì)侵犯他人著作權(quán),嚴(yán)重的甚至?xí)?gòu)成侵犯知識(shí)產(chǎn)權(quán)犯罪。因而用戶在輸入行為合法合規(guī)的前提下仍需謹(jǐn)慎使用ChatGPT生成的文本內(nèi)容,否則將要承擔(dān)相應(yīng)的法律責(zé)任。

四、結(jié)語(yǔ)

當(dāng)前,ChatGPT具有明顯的工具性質(zhì),尚不具備刑事法律主體資格。在生成式人工智能的技術(shù)產(chǎn)出鏈條上,技術(shù)開發(fā)者也即生成式人工智能服務(wù)的提供者是關(guān)鍵的角色,應(yīng)當(dāng)承擔(dān)一定的合規(guī)責(zé)任。生成式人工智能提供者是我國(guó)生成式人工智能治理的樞紐,既要盡到自身的產(chǎn)品責(zé)任義務(wù),又要履行對(duì)下游服務(wù)使用者的安全管理責(zé)任。ChatGPT被用于實(shí)施犯罪時(shí),使用者即為犯罪行為正犯,應(yīng)承擔(dān)刑事責(zé)任無(wú)疑。為了不遏制技術(shù)創(chuàng)新,現(xiàn)階段我們應(yīng)當(dāng)對(duì)針對(duì)人工智能提供者的嚴(yán)格責(zé)任持謹(jǐn)慎態(tài)度。但生成式人工智能服務(wù)提供者客觀上為使用者提供了技術(shù)幫助行為的,能否以技術(shù)中立為由出罪,仍應(yīng)當(dāng)注重考慮其是否有嚴(yán)格履行網(wǎng)絡(luò)安全法、數(shù)據(jù)安全法、個(gè)人信息保護(hù)法、《互聯(lián)網(wǎng)信息服務(wù)管理辦法》等法律、行政法規(guī)規(guī)定的信息網(wǎng)絡(luò)安全生產(chǎn)、管理義務(wù)。目前,人工智能產(chǎn)業(yè)仍在發(fā)展初期,尚未發(fā)展出成熟的行業(yè)標(biāo)準(zhǔn)及相關(guān)的法律、法規(guī)。未來(lái),應(yīng)當(dāng)實(shí)現(xiàn)刑事合規(guī)的外部規(guī)制與行業(yè)內(nèi)部自我治理的有機(jī)結(jié)合,在行政法規(guī)和刑法規(guī)范結(jié)合具體情境進(jìn)一步完備細(xì)化的基礎(chǔ)上,實(shí)現(xiàn)刑法與人工智能行業(yè)規(guī)則的功能性協(xié)作,進(jìn)而促進(jìn)人工智能行業(yè)風(fēng)險(xiǎn)最小化下的可持續(xù)發(fā)展。

猜你喜歡
提供者義務(wù)人工智能
幸福的人,有一項(xiàng)獨(dú)特的義務(wù)
海峽姐妹(2020年12期)2021-01-18 05:53:12
網(wǎng)絡(luò)交易平臺(tái)提供者的法律地位與民事責(zé)任分析
法制博覽(2020年2期)2020-04-29 06:45:18
基于隱私度和穩(wěn)定度的D2D數(shù)據(jù)共享伙伴選擇機(jī)制
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
三十載義務(wù)普法情
跟蹤導(dǎo)練(一)(4)
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
網(wǎng)絡(luò)言論自由的行政法規(guī)制研究
下一幕,人工智能!
七台河市| 洞头县| 错那县| 龙川县| 沁源县| 屏东市| 安庆市| 旬邑县| 昌图县| 杭州市| 鲁山县| 三台县| 北碚区| 定结县| 宜君县| 庆城县| 页游| 尖扎县| 措美县| 龙州县| 广宁县| 兴国县| 山西省| 区。| 防城港市| 齐河县| 沂源县| 晋中市| 横山县| 旌德县| 汉中市| 东山县| 博野县| 德格县| 长丰县| 华阴市| 石城县| 东明县| 泰和县| 嘉善县| 东辽县|