国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

通用人工智能創(chuàng)新發(fā)展帶來(lái)的風(fēng)險(xiǎn)挑戰(zhàn)及其法治應(yīng)對(duì)

2023-11-06 05:00
知識(shí)產(chǎn)權(quán) 2023年8期
關(guān)鍵詞:倫理人工智能算法

陳 兵

內(nèi)容提要:以ChatGPT大規(guī)模模型訓(xùn)練為代表的通用人工智能產(chǎn)業(yè)在創(chuàng)新發(fā)展過(guò)程中對(duì)社會(huì)秩序造成了一定沖擊,存在來(lái)自科技倫理、侵權(quán)歸責(zé)、知識(shí)產(chǎn)權(quán)壟斷、數(shù)據(jù)安全、算法操控等多方面風(fēng)險(xiǎn)挑戰(zhàn),人工智能發(fā)展面臨信任危機(jī)。基于此,應(yīng)重視通用人工智能產(chǎn)業(yè)治理,以《生成式人工智能服務(wù)管理暫行辦法》的施行為契機(jī),建立健全生成式人工智能服務(wù)的相關(guān)行為規(guī)范和倫理指南,用系統(tǒng)觀念和法治方法來(lái)推動(dòng)通用人工智能技術(shù)和產(chǎn)業(yè)在我國(guó)規(guī)范健康持續(xù)發(fā)展,促進(jìn)其在“安全、可控、可解釋、可問(wèn)責(zé)”的基本標(biāo)準(zhǔn)下創(chuàng)新發(fā)展。以問(wèn)題為導(dǎo)向,以目標(biāo)為牽引,在法治框架下盡快建立健全該領(lǐng)域科技倫理監(jiān)督管理規(guī)范,不斷完善相應(yīng)的侵權(quán)責(zé)任規(guī)范體系,統(tǒng)籌公平競(jìng)爭(zhēng)與鼓勵(lì)創(chuàng)新雙重價(jià)值,加強(qiáng)和改進(jìn)人工智能領(lǐng)域數(shù)據(jù)安全保障制度,重視和強(qiáng)化算法監(jiān)管,實(shí)現(xiàn)多領(lǐng)域、多主體、多制度、多工具的協(xié)同聯(lián)動(dòng)治理。

一、背景與問(wèn)題

全球正處在新一輪科技革命和產(chǎn)業(yè)變革的歷史交匯期,繼工業(yè)化、信息化之后,智能化已經(jīng)成為時(shí)代強(qiáng)音。①孫偉平、李揚(yáng):《論人工智能發(fā)展的倫理原則》,載《哲學(xué)分析》2022年第1期,第6-17頁(yè)。在國(guó)家數(shù)字經(jīng)濟(jì)的政策推動(dòng)與垂直行業(yè)高質(zhì)量發(fā)展的需求帶動(dòng)之下,人工智能技術(shù)和產(chǎn)業(yè)一直保持著高速發(fā)展態(tài)勢(shì)。隨著技術(shù)創(chuàng)新的日趨活躍與產(chǎn)業(yè)融合的不斷深化,生成式人工智能技術(shù)帶動(dòng)各類應(yīng)用百花齊放,智能自動(dòng)化、推薦、搜索、決策等技術(shù)也已與企業(yè)運(yùn)營(yíng)、社會(huì)服務(wù)等方面深度融合,帶來(lái)了巨大的經(jīng)濟(jì)和社會(huì)效益,在優(yōu)化產(chǎn)業(yè)結(jié)構(gòu)、增強(qiáng)經(jīng)濟(jì)韌性、實(shí)現(xiàn)經(jīng)濟(jì)從高速增長(zhǎng)轉(zhuǎn)向高質(zhì)量發(fā)展等方面的重要性越來(lái)越突出。②郭艷冰、胡立君:《人工智能、人力資本對(duì)產(chǎn)業(yè)結(jié)構(gòu)升級(jí)的影響研究——來(lái)自中國(guó)30個(gè)省份的經(jīng)驗(yàn)證據(jù)》,載《軟科學(xué)》2022年第5期,第21-26頁(yè)。

一般而言,人工智能指基于一定信息內(nèi)容的投入實(shí)現(xiàn)自主學(xué)習(xí)、決策和執(zhí)行的算法或者機(jī)器,其發(fā)展建立在計(jì)算機(jī)處理能力提高、算法改進(jìn)以及數(shù)據(jù)量指數(shù)級(jí)增長(zhǎng)的基礎(chǔ)之上。③曹建峰、方齡曼:《歐盟人工智能倫理與治理的路徑及啟示》,載《人工智能》2019年第4期,第40-48頁(yè)。自1956年美國(guó)達(dá)特茅斯討論會(huì)上,約翰·麥卡錫(John McCarthy)首次提出人工智能概念以來(lái),人工智能的發(fā)展并不總是一帆風(fēng)順,其在經(jīng)歷了由機(jī)器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)、互聯(lián)網(wǎng)技術(shù)驅(qū)動(dòng)的三次繁榮發(fā)展期的同時(shí),也遭遇了計(jì)算機(jī)算力不足、推理模型陷入瓶頸的兩次低谷期。④姜李丹、薛瀾:《我國(guó)新一代人工智能治理的時(shí)代挑戰(zhàn)與范式變革》,載《公共管理學(xué)報(bào)》2022年第2期,第6-16頁(yè)。半個(gè)多世紀(jì)來(lái),人工智能從以知識(shí)驅(qū)動(dòng),到以數(shù)據(jù)驅(qū)動(dòng),現(xiàn)發(fā)展到以安全可控為核心的階段。隨著人工智能應(yīng)用的深入和近期GPT-4等技術(shù)的爆火,新一輪生成式人工智能(AIGC)熱潮應(yīng)運(yùn)而生,也讓人們看到通用人工智能的能力水平,然而在使用過(guò)程中,其自身的技術(shù)缺陷以及其帶來(lái)的算法黑箱、決策偏見(jiàn)、隱私泄露、數(shù)據(jù)濫用等問(wèn)題引發(fā)了信任危機(jī)。

黨的二十大報(bào)告指出,要“完善科技創(chuàng)新體系”“加快實(shí)施創(chuàng)新驅(qū)動(dòng)發(fā)展戰(zhàn)略”“堅(jiān)持創(chuàng)新在我國(guó)現(xiàn)代化建設(shè)全局中的核心地位”“加強(qiáng)知識(shí)產(chǎn)權(quán)法治保障,形成支持全面創(chuàng)新的基礎(chǔ)制度”。然而科技創(chuàng)新不只是包含高歌猛進(jìn)的輝煌成就,通用人工智能是一把雙刃劍,其作為高度智慧化的人工智能形態(tài),帶給人類社會(huì)的便捷與風(fēng)險(xiǎn)同在,技術(shù)應(yīng)用引發(fā)的信任危機(jī)不利于人工智能的進(jìn)一步創(chuàng)新和發(fā)展。習(xí)近平總書(shū)記在主持十九屆中央政治局第九次集體學(xué)習(xí)時(shí)明確指出:“要加強(qiáng)人工智能發(fā)展的潛在風(fēng)險(xiǎn)研判和防范,維護(hù)人民利益和國(guó)家安全,確保人工智能安全、可靠、可控?!币虼耍覈?guó)在大力發(fā)展人工智能的同時(shí),必須高度重視其帶來(lái)的安全挑戰(zhàn),明確安全治理目標(biāo),綜合運(yùn)用包括法規(guī)政策、標(biāo)準(zhǔn)規(guī)范、技術(shù)支撐在內(nèi)的多項(xiàng)治理措施,實(shí)施敏捷治理模式,有效提高我國(guó)人工智能安全治理能力,確保人工智能安全健康發(fā)展。

為此,亟需有效審視現(xiàn)有法治與人工智能技術(shù)創(chuàng)新發(fā)展之間的適應(yīng)性。國(guó)家互聯(lián)網(wǎng)信息辦公室等七部門(mén)聯(lián)合公布的《生成式人工智能服務(wù)管理暫行辦法》(以下簡(jiǎn)稱《暫行辦法》)于2023年8月15日起正式施行。從《生成式人工智能服務(wù)管理辦法(征求意見(jiàn)稿)》(以下簡(jiǎn)稱《征求意見(jiàn)稿》)到《暫行辦法》正式出臺(tái)僅3個(gè)月時(shí)間,其速度之快體現(xiàn)出我國(guó)對(duì)支持和規(guī)范人工智能技術(shù)和產(chǎn)業(yè)發(fā)展的積極態(tài)度與重視程度。然而,《暫行辦法》主要聚焦于事前規(guī)制,或者說(shuō)是預(yù)防性監(jiān)管,對(duì)生成式人工智能服務(wù)產(chǎn)生不當(dāng)內(nèi)容后如何解決,并未提供有效辦法。這在一定程度上說(shuō)明,《暫行辦法》更聚焦于發(fā)展目標(biāo),很多監(jiān)管要求和責(zé)任都是在現(xiàn)有法律法規(guī)基礎(chǔ)上的場(chǎng)景化,即通過(guò)立法銜接和對(duì)照來(lái)規(guī)范生成式人工智能發(fā)展中的具體問(wèn)題,而對(duì)生成式人工智能產(chǎn)品和服務(wù)本身引發(fā)的責(zé)任還需要明確和細(xì)化。譬如,《征求意見(jiàn)稿》第15條曾提出“對(duì)于運(yùn)行中發(fā)現(xiàn)、用戶舉報(bào)的不符合本辦法要求的生成內(nèi)容,除采取內(nèi)容過(guò)濾等措施外,應(yīng)在3個(gè)月內(nèi)通過(guò)模型優(yōu)化訓(xùn)練等方式防止再次生成”。這一條在內(nèi)容上是對(duì)事后規(guī)制缺失的補(bǔ)足,但是基于需要判斷的內(nèi)容過(guò)于復(fù)雜、“3個(gè)月”是否為恰當(dāng)整改期限難以確定等因素,該條最終并未寫(xiě)入《暫行辦法》。事后如何進(jìn)行規(guī)制需要制度在實(shí)際運(yùn)行一段時(shí)間后再予以補(bǔ)充或者另行規(guī)定,抑或是利用現(xiàn)有法律體系來(lái)應(yīng)對(duì)生成式人工智能服務(wù)法律責(zé)任的認(rèn)定與承擔(dān)。

鑒于此,現(xiàn)階段應(yīng)對(duì)通用人工智能創(chuàng)新發(fā)展挑戰(zhàn)的關(guān)鍵在于提供一種兼顧倫理、技術(shù)和法律的治理框架,⑤趙精武:《生成式人工智能應(yīng)用風(fēng)險(xiǎn)治理的理論誤區(qū)與路徑轉(zhuǎn)向》,載《荊楚法學(xué)》2023年第3期,第47-58頁(yè)。既要尊重科技發(fā)展的規(guī)律,又要符合科技倫理和法律治理的要求與邏輯。然而,從理論研究和實(shí)踐現(xiàn)況來(lái)看,目前對(duì)于通用人工智能治理的研究和實(shí)踐尚缺乏針對(duì)性、系統(tǒng)性、整體性及長(zhǎng)遠(yuǎn)性。亟待以系統(tǒng)科學(xué)的法治方法來(lái)保障和推動(dòng)技術(shù)突破與高水平競(jìng)爭(zhēng)間的良性循環(huán),實(shí)現(xiàn)技術(shù)創(chuàng)新、產(chǎn)業(yè)創(chuàng)新、制度創(chuàng)新、文化創(chuàng)新的融合,推動(dòng)通用人工智能的創(chuàng)新發(fā)展建設(shè)。對(duì)此,本文結(jié)合生成式人工智能這一代表性產(chǎn)品和服務(wù)所引發(fā)的問(wèn)題,從個(gè)性入手探索因應(yīng)通用人工智能創(chuàng)新發(fā)展的法治挑戰(zhàn),從以安全為底線的可解釋性、可控性、可問(wèn)責(zé)性等要求出發(fā),討論生成式人工智能服務(wù)模型訓(xùn)練中的數(shù)據(jù)、算法、算力等要素支持,擴(kuò)展至對(duì)促進(jìn)通用人工智能創(chuàng)新發(fā)展的法治保障問(wèn)題探討,并在此基礎(chǔ)上提出未來(lái)促進(jìn)通用人工智能創(chuàng)新發(fā)展的法治方案,以期豐富該領(lǐng)域的理論研究。

二、通用人工智能創(chuàng)新發(fā)展的基本價(jià)值要求

人工智能主要分為專用人工智能和通用人工智能。通用人工智能的概念誕生于1967年,但在ChatGPT和GPT-4等橫空出世之前并未真正引起足夠的重視。專用人工智能,又稱為“狹義人工智能”“弱人工智能”,指被編程來(lái)執(zhí)行單一任務(wù)的人工智能,從特定的數(shù)據(jù)集中提取信息,因此無(wú)法在設(shè)計(jì)任務(wù)之外的場(chǎng)景下運(yùn)行。專用人工智能有著明顯的特點(diǎn),即功能性強(qiáng),而互通性差。但隨著GPT-4大模型的出現(xiàn),其展現(xiàn)出的強(qiáng)大自然語(yǔ)言處理能力,為通用人工智能“大數(shù)據(jù)模型+多場(chǎng)景”的實(shí)現(xiàn)開(kāi)辟了新空間。

通用人工智能(AGI)又稱“強(qiáng)人工智能”“完全人工智能”“深度人工智能”,是具有一般人類智慧,可以像人類一樣擁有智能、學(xué)習(xí)、推理、解決問(wèn)題和適應(yīng)新環(huán)境的人工智能系統(tǒng),其能夠在不特別編碼知識(shí)與應(yīng)用區(qū)域的情況下,對(duì)多種甚至泛化問(wèn)題予以解決的人工智能技術(shù)。若其能夠克服諸如數(shù)據(jù)獲取、算法設(shè)計(jì)、計(jì)算性能、倫理和法律等多種難題,則可以為解決許多領(lǐng)域的關(guān)鍵問(wèn)題提供極大幫助,例如醫(yī)療和健康、環(huán)境保護(hù)、教育、金融和安全等領(lǐng)域。

雖然迄今為止還沒(méi)有出現(xiàn)完全達(dá)到通用人工智能水平的技術(shù)產(chǎn)品,但是有學(xué)者認(rèn)為部分生成式人工智能已初步達(dá)到通用人工智能的水平⑥Sébastien Bubeck, et al., Sparks of Artificial General Intelligence: Early Experiments with GPT-4, arXiv preprint arXiv:2303.12712.。GPT-3.5所帶來(lái)的安全問(wèn)題已經(jīng)引起人們廣泛重視,由此可知,若出現(xiàn)真正能夠達(dá)到通用人工智能標(biāo)準(zhǔn)的技術(shù)產(chǎn)品,其所帶來(lái)的安全新問(wèn)題更不容忽視?;谧灾髦悄?、數(shù)據(jù)依賴性、“算法黑箱”和“難以解釋”等特征,它在技術(shù)內(nèi)生、應(yīng)用衍生、數(shù)據(jù)安全和隱私保護(hù)等方面將面臨嚴(yán)峻的安全和倫理挑戰(zhàn),并極可能在國(guó)家安全、社會(huì)倫理和個(gè)人生命財(cái)產(chǎn)安全等方面產(chǎn)生更加嚴(yán)重的后果和更加廣泛的影響。因此,如何確保通用人工智能創(chuàng)新發(fā)展對(duì)人類社會(huì)有益而無(wú)害,是人類目前需要面對(duì)的巨大挑戰(zhàn),對(duì)人工智能治理的研究迫在眉睫。

(一)可信:通用人工智能創(chuàng)新發(fā)展的價(jià)值底線

可信是現(xiàn)階段通用人工智能創(chuàng)新發(fā)展需要遵循的首要原則或“帝王條款”,是人工智能治理政策制定的重點(diǎn)遵循。⑦陳吉棟:《人工智能法的理論體系與核心議題》,載《東方法學(xué)》2023年第1期,第62-78頁(yè)。隨著生成式人工智能服務(wù)的出現(xiàn)和人工智能信任危機(jī)的發(fā)酵,普通用戶從消費(fèi)者的角度出發(fā),對(duì)人工智能產(chǎn)品的態(tài)度愈發(fā)謹(jǐn)慎;學(xué)者從技術(shù)研究的角度出發(fā),對(duì)人工智能模型的自身缺陷所可能引發(fā)的現(xiàn)實(shí)應(yīng)用后果產(chǎn)生擔(dān)憂;而企業(yè)從經(jīng)營(yíng)的角度出發(fā),不得不面對(duì)通用人工智能賦能數(shù)字經(jīng)濟(jì)時(shí)所要解決的用戶信任、技術(shù)隱患及同行競(jìng)爭(zhēng)等問(wèn)題。

在此背景下,構(gòu)筑可信人工智能體系已成全球共識(shí)。為了提高人工智能的可信性,歐盟曾于2019年8月正式發(fā)布了《可信賴人工智能道德準(zhǔn)則》(Ethics Guidelines for Trustworthy AI)。該準(zhǔn)則概括性地提出了實(shí)現(xiàn)可信人工智能全生命周期的框架,并提出了7個(gè)可信人工智能的關(guān)鍵要素,即人的治理(人的監(jiān)督),技術(shù)強(qiáng)大性和安全性,隱私和數(shù)據(jù)治理,透明度,多樣性、非歧視性和公平性,社會(huì)和環(huán)境福祉,以及問(wèn)責(zé)。⑧Ethics Guidelines for Trustworthy AI, https://digital-strategy.ec.europa.eu/en/node/1950/printable/pdf, 2023年5月7日訪問(wèn)。

2019年2月,美國(guó)國(guó)家科技政策辦公室發(fā)布了時(shí)任總統(tǒng)簽署的《美國(guó)人工智能倡議》(American AI Initiative)。該倡議將可信人工智能定義為具有“準(zhǔn)確性、可解釋性、隱私性、可靠性、穩(wěn)健性、安全性”等特征的人工智能。⑨American AI Initiative, https://nsarchive.gwu.edu/document/18392-national-security-archive-white-house, 2023年5月7日訪問(wèn)。經(jīng)濟(jì)合作與發(fā)展組織(OECD)發(fā)布的《確定OECD的人工智能發(fā)展原則》將可信人工智能的特征定義為:尊重人權(quán)和民主價(jià)值觀,為包容性增長(zhǎng)制定標(biāo)準(zhǔn),以人為本的價(jià)值觀和公平性,透明度和可解釋性,穩(wěn)健性、安全性,以及問(wèn)責(zé)制。⑩OECD, AI Policy Observatory, https://www.oecd.org/digital/artificial-intelligence/, 2023年5月7日訪問(wèn)。

在我國(guó),中國(guó)工程院院士何積豐于2017年11月在香山科學(xué)會(huì)議上首次提出了“可信人工智能”的概念;?第一財(cái)經(jīng)資訊:《專訪何積豐院士:達(dá)成可信的人工智能,最重要的支點(diǎn)在人》,載騰訊網(wǎng)2021年7月16日,khttps://view.inews.qq.com/k/20210716A07WBI00?web_channel=wap&openApp=false.同年12月,工業(yè)和信息化部發(fā)布了《促進(jìn)新一代人工智能產(chǎn)業(yè)發(fā)展三年行動(dòng)計(jì)劃(2018—2020年)》。2019年6月,我國(guó)新一代人工智能治理專業(yè)委員會(huì)發(fā)布的《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》提出了人工智能治理的框架和行動(dòng)指南。2020年6月,螞蟻集團(tuán)在全球人工智能大會(huì)上首次公布了可信人工智能技術(shù)架構(gòu)體系;2021年7月,京東探索研究院與中國(guó)信息通信研究院聯(lián)合在世界人工智能大會(huì)上發(fā)布了中國(guó)首個(gè)《可信人工智能白皮書(shū)》。兩家企業(yè)都將隱私保護(hù)、穩(wěn)定性、可解釋性、公平性作為可信人工智能的四大基本原則。

綜上,盡管?chē)?guó)際各界對(duì)可信人工智能的具體定義略有不同,但其核心的原則都包括了穩(wěn)定性、可解釋性、隱私保護(hù)和公平性等基本技術(shù)原則。穩(wěn)定性、可解釋性、公平性和隱私保護(hù)構(gòu)成了可信人工智能的基礎(chǔ)。其中,穩(wěn)定性指人工智能可以在存在各類環(huán)境噪聲以及惡意攻擊的情況下作出正確決策的能力,可解釋性是指人工智能作出的決策需要讓人能夠理解,隱私保護(hù)指人工智能系統(tǒng)保護(hù)個(gè)人或群體隱私不被泄露的能力,公平性指人工智能系統(tǒng)需要包容人的個(gè)體差異,公平對(duì)待不同群體。

(二)以人為本:通用人工智能創(chuàng)新發(fā)展的價(jià)值導(dǎo)向

通用人工智能創(chuàng)新發(fā)展的安全底線,主要包含人、技術(shù)、信任三個(gè)要素。其中技術(shù)是支撐通用人工智能產(chǎn)業(yè)蓬勃興起和行穩(wěn)致遠(yuǎn)的基石,信任是促進(jìn)通用人工智能行業(yè)規(guī)范持續(xù)健康發(fā)展的支柱,人是可信人工智能法律政策的核心保護(hù)對(duì)象,以人為本是通用人工智能創(chuàng)新發(fā)展的基本遵循。實(shí)際上,信任問(wèn)題并不完全取決于人工智能開(kāi)發(fā)與應(yīng)用的底層邏輯,還取決于法律對(duì)人工智能技術(shù)的理解與掌控程度。對(duì)通用人工智能除了呼吁技術(shù)發(fā)展以人為本,更需要從人工智能技術(shù)本身出發(fā),強(qiáng)調(diào)提升人工智能算法與模型的可解釋性。所以,從以人為本的角度看,有意愿去推動(dòng)通用人工智能的安全發(fā)展,只是解決用戶信任問(wèn)題的第一步。問(wèn)題的關(guān)鍵,還是在于能否從法律規(guī)范層面實(shí)現(xiàn)人工智能的可信性,促進(jìn)其以人為本。

放眼全球,在各國(guó)的人工智能政策中,都強(qiáng)調(diào)了以人為本這一基本原則。2018年5月,具有史上最嚴(yán)格隱私和數(shù)據(jù)保護(hù)法之稱的歐盟《通用數(shù)據(jù)保護(hù)條例》(以下簡(jiǎn)稱GDPR)正式生效。此后法國(guó)數(shù)據(jù)保護(hù)當(dāng)局(CNIL)以違反GDPR為由,對(duì)谷歌處以創(chuàng)紀(jì)錄的5000萬(wàn)歐元罰款,為應(yīng)用人工智能等技術(shù)賦能經(jīng)濟(jì)的全球企業(yè)打響了警告槍。?Allison Schiff, France Slaps Google with 50 Million Euro Fine - Largest Yet Under GDPR, adexchanger (21 January 2019),https://www.adexchanger.com/privacy/france-slaps-google-with-50-million-euro-fine-largest-yet-under-gdpr/.

近年來(lái),我國(guó)為促進(jìn)通用人工智能踐行以人為本已經(jīng)進(jìn)行了諸多路徑的法律探索和實(shí)踐。立法方面,上海市曾于2021年12月、2022年9月和2022年11月先后發(fā)布《上海市智能網(wǎng)聯(lián)汽車(chē)測(cè)試與應(yīng)用管理辦法》《上海市促進(jìn)人工智能產(chǎn)業(yè)發(fā)展條例》和《上海市浦東新區(qū)促進(jìn)無(wú)駕駛?cè)酥悄芫W(wǎng)聯(lián)汽車(chē)創(chuàng)新應(yīng)用規(guī)定》,強(qiáng)調(diào)人工智能算法可信、倫理道德、治理與監(jiān)管等方面,并針對(duì)智能網(wǎng)聯(lián)汽車(chē)領(lǐng)域技術(shù)標(biāo)準(zhǔn)、數(shù)據(jù)安全與個(gè)人信息保護(hù)作了詳細(xì)規(guī)定。

此外,《上海市促進(jìn)人工智能產(chǎn)業(yè)發(fā)展條例》明確,上海市人民政府設(shè)立“上海市人工智能戰(zhàn)略咨詢專家委員會(huì)”,其職能在于能夠?yàn)槿斯ぶ悄馨l(fā)展中的重大戰(zhàn)略、重大決策提供咨詢意見(jiàn),同時(shí)設(shè)立“人工智能倫理專家委員會(huì)”,負(fù)責(zé)制定倫理規(guī)范指南、推動(dòng)參與國(guó)內(nèi)外人工智能領(lǐng)域倫理重大問(wèn)題研討和規(guī)范制定。

2021年7月,上海市經(jīng)濟(jì)和信息化委員會(huì)、上海市市場(chǎng)監(jiān)督管理局印發(fā)《關(guān)于推進(jìn)本市新一代人工智能標(biāo)準(zhǔn)體系建設(shè)的指導(dǎo)意見(jiàn)》(以下簡(jiǎn)稱《意見(jiàn)》)。測(cè)試評(píng)估方面,《意見(jiàn)》圍繞智能網(wǎng)聯(lián)汽車(chē)、醫(yī)療影像輔助診斷、視覺(jué)圖像身份識(shí)別、智能傳感器等賽道,加快構(gòu)建完善可信人工智能評(píng)測(cè)體系,同時(shí)針對(duì)測(cè)試評(píng)估建立共性標(biāo)準(zhǔn);安全倫理方面,《意見(jiàn)》提出加強(qiáng)安全倫理標(biāo)準(zhǔn)對(duì)人工智能發(fā)展的引導(dǎo)和規(guī)范,提升安全保障能力,建立積極的治理規(guī)則,從安全與隱私保護(hù)規(guī)范和應(yīng)用場(chǎng)景安全規(guī)范兩大模塊強(qiáng)化標(biāo)準(zhǔn)研制,并建立安全風(fēng)險(xiǎn)等級(jí)體系。

隨著社會(huì)認(rèn)知的深入,保障通用人工智能創(chuàng)新發(fā)展的參與主體將進(jìn)一步豐富,產(chǎn)業(yè)鏈多主體、多要素協(xié)調(diào)互動(dòng)。依據(jù)《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》《個(gè)人信息保護(hù)法》等法律法規(guī)框架,深圳、上海、北京等地加快推動(dòng)人工智能立法,建立公共場(chǎng)所人工智能分級(jí)分類應(yīng)用規(guī)范,形成具有地方特色的人工智能治理體系。行業(yè)協(xié)會(huì)、聯(lián)盟和研究機(jī)構(gòu)發(fā)揮積極作用,聯(lián)合行業(yè)企業(yè)圍繞先行領(lǐng)域制定和發(fā)布行業(yè)標(biāo)準(zhǔn),在安全性、可靠性等領(lǐng)域已經(jīng)取得了一些成果可為通用人工智能朝著以人為本的方向發(fā)展提供參考?!叭四樧R(shí)別第一案”?郭兵與杭州野生動(dòng)物世界有限公司服務(wù)合同糾紛案,浙江省杭州市富陽(yáng)區(qū)人民法院民事判決書(shū)(2019)浙0111民初6971號(hào)。等具體案件引發(fā)了廣泛的社會(huì)關(guān)注,人民群眾對(duì)人工智能的了解和需求增加,參與程度大幅提升,從需求層面倒逼通用人工智能朝著以人為本的方向發(fā)展。

三、生成式人工智能技術(shù)帶來(lái)的風(fēng)險(xiǎn)與挑戰(zhàn)

科學(xué)技術(shù)是第一生產(chǎn)力,科學(xué)技術(shù)的進(jìn)步是促進(jìn)行業(yè)發(fā)展不可缺少的原動(dòng)力。隨著生成式人工智能等人工智能技術(shù)的創(chuàng)新發(fā)展,人們一方面發(fā)現(xiàn)人工智能技術(shù)具有無(wú)限可能性,可以完成一些人們未曾想象能夠完成的任務(wù);另一方面也意識(shí)到,與一般信息系統(tǒng)相比,人工智能安全挑戰(zhàn)可能帶來(lái)更加嚴(yán)重、廣泛和復(fù)雜的后果。

首先,通用人工智能安全事件不僅會(huì)影響設(shè)備和數(shù)據(jù)的安全,還可能導(dǎo)致產(chǎn)生嚴(yán)重的生產(chǎn)事故,危害人類生命安全。例如,給患者看病和做手術(shù)的醫(yī)療機(jī)器人,如果因?yàn)槌绦蚵┒闯霈F(xiàn)安全問(wèn)題,可能直接危及患者性命。其次,一旦人工智能被應(yīng)用于國(guó)防、金融、工業(yè)等領(lǐng)域,出現(xiàn)安全事件,將影響國(guó)家安全、政治安全以及社會(huì)穩(wěn)定。最后,人工智能安全挑戰(zhàn)還會(huì)引起更加復(fù)雜的倫理道德問(wèn)題,對(duì)于此類問(wèn)題目前尚無(wú)好的解決方案。例如,生成式人工智能服務(wù)產(chǎn)品客觀上存在一定的技術(shù)缺陷,其太過(guò)依賴訓(xùn)練數(shù)據(jù)中的統(tǒng)計(jì)規(guī)律,無(wú)法在網(wǎng)絡(luò)上抓取時(shí)事信息,也無(wú)法識(shí)別并核實(shí)數(shù)據(jù)來(lái)源,易導(dǎo)致算法歧視、霸凌、信息繭房等問(wèn)題。

總之,人工智能技術(shù)發(fā)展和深度融合應(yīng)用帶來(lái)的安全挑戰(zhàn)日益復(fù)雜。以生成式人工智能為例,其生成的內(nèi)容難辨真假,且在運(yùn)行中會(huì)采集我們使用過(guò)程中提供的大量數(shù)據(jù)。其應(yīng)用實(shí)踐中出現(xiàn)了許多由不公平的設(shè)計(jì)、不穩(wěn)定的模型結(jié)論與侵犯隱私等問(wèn)題所引起的用戶信任危機(jī),當(dāng)中所牽涉的企業(yè)與用戶數(shù)量廣泛。生成式人工智能技術(shù)所帶來(lái)的便利與技術(shù)得不到信任之間的矛盾,已然成為人工智能發(fā)展創(chuàng)新中亟待解決的問(wèn)題,其應(yīng)用產(chǎn)生的風(fēng)險(xiǎn)主要包括以下幾個(gè)方面。

(一)科技倫理風(fēng)險(xiǎn)

開(kāi)展科學(xué)研究、技術(shù)創(chuàng)新等科技活動(dòng)不能脫離科技倫理的規(guī)范,這是促進(jìn)科技事業(yè)健康發(fā)展的重要保障。當(dāng)前,人工智能飛速發(fā)展帶來(lái)的日益增多的科技倫理挑戰(zhàn),使人們意識(shí)到現(xiàn)有的科技倫理體系已經(jīng)難以適應(yīng)創(chuàng)新發(fā)展的現(xiàn)實(shí)需要。在應(yīng)對(duì)生成式人工智能技術(shù)發(fā)展的同時(shí),我們需要明確,隨著通用人工智能的出現(xiàn),倫理是人類固有的而非技術(shù)固有的這一傳統(tǒng)觀念也許會(huì)發(fā)生變化。

目前,生成式人工智能服務(wù)可以生成文本、圖像、音視頻等內(nèi)容,應(yīng)用領(lǐng)域極為廣泛。然而針對(duì)其使用并沒(méi)有建立相應(yīng)的技術(shù)使用規(guī)范,極易產(chǎn)生違反倫理道德的風(fēng)險(xiǎn),從而引發(fā)人們對(duì)生成式人工智能服務(wù)技術(shù)應(yīng)用的不信任。尤其是在由弱人工智能向強(qiáng)人工智能過(guò)渡的階段,人工智能的自主性不斷加強(qiáng),傳統(tǒng)的倫理框架及人類的思維本質(zhì)將因此面臨空前的挑戰(zhàn)。

生成式人工智能服務(wù)在新聞報(bào)道、論文撰寫(xiě)等方面的能力極為突出,與此相生的便是該技術(shù)淪為部分使用者制造謠言和偽造論文的工具。學(xué)術(shù)刊物《自然》(Nature)曾多次刊發(fā)關(guān)于ChatGPT的分析文章,對(duì)ChatGPT等大型語(yǔ)言模型(LLMs)給學(xué)術(shù)界帶來(lái)的潛在混亂,生成內(nèi)容存在的潛在侵權(quán)風(fēng)險(xiǎn),以及如何規(guī)范使用等問(wèn)題進(jìn)行了多方面多維度的探討?See Chris Stokel-Walker & Richard Van Noorden, What ChatGPT and Generative AI Mean for Science, Nature, 614 (7947):214-216 (Feb.2023).。在此背景下,構(gòu)建系統(tǒng)性的價(jià)值理念和行為規(guī)范,對(duì)于明晰如何使用生成式人工智能至關(guān)重要。上述內(nèi)容不明確將直接導(dǎo)致學(xué)術(shù)規(guī)范問(wèn)題、虛假信息和謠言傳播等科技倫理問(wèn)題頻發(fā),從而引發(fā)人們對(duì)人工智能的不信任,甚至?xí)⑦@種不信任帶到未使用人工智能技術(shù)的情形中?陳兵、林思宇:《正視人工智能信任危機(jī) 加快推進(jìn)可信AIGC發(fā)展》,載《第一財(cái)經(jīng)日?qǐng)?bào)》2023年4月25日,第A11版。。

除此以外,生成式人工智能服務(wù)通過(guò)數(shù)據(jù)和算法給予的答復(fù)也具有不確定性。答復(fù)內(nèi)容是否符合一定的價(jià)值理念很大程度上取決于訓(xùn)練數(shù)據(jù)的質(zhì)量和算法的合規(guī)程度,因此在源頭上,通過(guò)提高數(shù)據(jù)質(zhì)量,力促算法合規(guī)能夠使生成式人工智能所產(chǎn)生的內(nèi)容本身盡可能地不違反現(xiàn)有的倫理體系。另一方面,隨著生成式人工智能的不斷迭代,部分生成式人工智能等技術(shù)已被認(rèn)為初步達(dá)到了通用人工智能的水平,能夠擁有更接近人類的智慧水平。在此類生成式人工智能發(fā)展到一定程度后是否會(huì)自主擁有與人類相似的倫理觀念這一問(wèn)題引人深思。為應(yīng)對(duì)此種情況,有學(xué)者提出將人因工程理念(Human Factors Engineering,HFE)引入通用人工智能研發(fā)設(shè)計(jì)之中,因?yàn)榘殡S技術(shù)不斷進(jìn)步,通用人工智能會(huì)越來(lái)越接近人類,其接近甚至超越人類的學(xué)習(xí)能力,將人因工程理念嵌入人工智能生命周期的始終能夠盡可能實(shí)現(xiàn)諸如高階生成式人工智能等通用人工智能朝著安全、可信、可控等方向發(fā)展。?Paul M.Salmon, et al., Managing the Risks of Artificial General Intelligence: A Human Factors and Ergonomics Perspective,33 Human Factors and Ergonomics in Manufacturing & Service Industries 355, 355-429 (2023).

隨著人工智能向強(qiáng)人工智能時(shí)代邁進(jìn),其通用屬性不斷增強(qiáng),人類極有可能難以掌控甚至難以參與智能生產(chǎn)的過(guò)程,科技倫理的規(guī)范也將愈發(fā)重要。

(二)權(quán)責(zé)劃分挑戰(zhàn)

近年來(lái),谷歌、特斯拉和Uber等公司頻現(xiàn)無(wú)人駕駛致人死亡事件,使得人與人工智能誰(shuí)該為此擔(dān)責(zé)的倫理爭(zhēng)論愈演愈烈。對(duì)于無(wú)人駕駛引發(fā)的法律責(zé)任承擔(dān)困境,美國(guó)麻省理工學(xué)院曾進(jìn)行“道德機(jī)器”測(cè)試,收集全世界范圍內(nèi)的數(shù)據(jù)樣本,“訓(xùn)練”無(wú)人駕駛汽車(chē)的人工智能系統(tǒng)對(duì)駕駛過(guò)程中不常見(jiàn)的情形作出判斷,判斷的結(jié)果也就成為了無(wú)人駕駛的行動(dòng)依據(jù)。這些行為導(dǎo)致的責(zé)任劃分則變得更加難以明確。因此,如果權(quán)責(zé)劃分在事前并不明確,則有可能致使人工智能產(chǎn)品朝著脫離社會(huì)倫理、法律規(guī)范的方向發(fā)展,并對(duì)經(jīng)濟(jì)社會(huì)秩序產(chǎn)生危害。

一方面,人工智能領(lǐng)域的法律規(guī)范、倫理道德尚未健全,引發(fā)了許多侵權(quán)事件。在美國(guó),莎拉·安德森(Sarah Andersen)、凱利·麥克南(Kelly McKernan)和卡拉·奧爾蒂斯(Karla Ortiz)三位藝術(shù)家對(duì)Stability AI和Midjourney等人工智能公司和平臺(tái)提起訴訟,認(rèn)為其在訓(xùn)練中所抓取的數(shù)據(jù)侵犯了數(shù)百萬(wàn)藝術(shù)家的版權(quán)。雖然該案法官威廉·奧里克(William Orrick)在聽(tīng)證會(huì)上表達(dá)了駁回該訴訟的傾向,但也表明這些藝術(shù)家可以在搜集更多證據(jù)后重新起訴。?Andersen, et al.v.Stability AI Ltd., et al., Docket No.3:23-cv-00201 (N.D.Cal.Jan.13, 2023).當(dāng)侵權(quán)事件發(fā)生后,如何確定承擔(dān)侵權(quán)責(zé)任的主體、正確劃分侵權(quán)責(zé)任,成為了難題。“責(zé)任鴻溝”是安德利亞斯·馬提亞在2004年提出的概念,所指的是算法的設(shè)計(jì)者和運(yùn)營(yíng)者在算法自主學(xué)習(xí)過(guò)程中未能預(yù)測(cè)未來(lái)及其運(yùn)行產(chǎn)生的后果,也就是說(shuō)人對(duì)機(jī)器的行動(dòng)并沒(méi)有足夠的控制權(quán),因此無(wú)法要求其承擔(dān)傳統(tǒng)的機(jī)器制造者和操作者的過(guò)錯(cuò)責(zé)任。?Andreas Matthias, The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata, 6 Ethics and Information Technology 175, 175-183 (2004).

另一方面,生成式人工智能技術(shù)具有“普惠性”,使用門(mén)檻和使用成本并不高,廣大人群普遍能夠接觸并使用該技術(shù),這在一定程度上也提升了發(fā)生侵權(quán)事故的風(fēng)險(xiǎn)。以傳播謠言為例,利用人工智能制造虛假信息和謠言輕而易舉,部分用戶為增長(zhǎng)流量故意傳播、制造虛假信息和謠言,會(huì)增加虛假信息傳播的頻率?同注釋?。。

在生成式人工智能服務(wù)應(yīng)用情境下,人工智能的自主性增強(qiáng),同時(shí)需要根據(jù)外部反饋進(jìn)行生成內(nèi)容的優(yōu)化,再不斷輸出生成內(nèi)容,傳統(tǒng)法律法規(guī)中的因果關(guān)系判斷在隱層眾多的算法黑箱中難以實(shí)現(xiàn),面臨著規(guī)制不能的困境。這也加大了侵權(quán)事件發(fā)生后,救濟(jì)與維權(quán)的難度,在使用生成式人工智能服務(wù)的過(guò)程中,用戶權(quán)益難以得到有效保護(hù),從而加劇了公眾對(duì)人工智能的不信任。

《暫行辦法》規(guī)定,提供者應(yīng)當(dāng)依法承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任,履行網(wǎng)絡(luò)信息安全義務(wù)。涉及個(gè)人信息的,依法承擔(dān)個(gè)人信息處理者責(zé)任,履行個(gè)人信息保護(hù)義務(wù)。這初步確立了人工智能領(lǐng)域責(zé)任承擔(dān)的基本規(guī)則,為后續(xù)規(guī)則的制定與實(shí)施提供了依據(jù)。然而,生成式人工智能在算法研發(fā)環(huán)節(jié)、使用環(huán)節(jié)的不當(dāng),同樣會(huì)產(chǎn)生侵權(quán)責(zé)任,此時(shí)若仍由服務(wù)提供者承擔(dān)責(zé)任顯然會(huì)損害服務(wù)提供者的積極性,應(yīng)當(dāng)建立合適的歸責(zé)制度。

(三)知識(shí)產(chǎn)權(quán)挑戰(zhàn)

創(chuàng)新是引領(lǐng)發(fā)展的第一動(dòng)力,在推動(dòng)高質(zhì)量發(fā)展的背景下,知識(shí)產(chǎn)權(quán)作為國(guó)家發(fā)展戰(zhàn)略國(guó)際競(jìng)爭(zhēng)核心要素的作用日益凸顯。隨著生成式人工智能服務(wù)的廣泛應(yīng)用,人工智能大模型的訓(xùn)練數(shù)據(jù)來(lái)源是否合法,其生成式內(nèi)容是否能夠被稱之為作品以及相關(guān)權(quán)屬爭(zhēng)議,正成為人們關(guān)切的問(wèn)題。

首先,生成式人工智能本身作為計(jì)算機(jī)程序能夠被視為知識(shí)產(chǎn)權(quán)所保護(hù)的對(duì)象已經(jīng)成為人們的共識(shí),但是對(duì)于實(shí)現(xiàn)其功能背后的海量數(shù)據(jù)訓(xùn)練所涉及的知識(shí)產(chǎn)權(quán)問(wèn)題仍存較大爭(zhēng)議?!稌盒修k法》第7條規(guī)定,“生成式人工智能服務(wù)提供者(以下稱提供者)應(yīng)當(dāng)依法開(kāi)展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動(dòng),遵守以下規(guī)定:……(二)涉及知識(shí)產(chǎn)權(quán)的,不得侵害他人依法享有的知識(shí)產(chǎn)權(quán)……”在此種情況下,數(shù)據(jù)來(lái)源的合法合規(guī)性值得重視,如何平衡數(shù)據(jù)中的知識(shí)產(chǎn)權(quán)保護(hù)與技術(shù)創(chuàng)新發(fā)展同樣值得討論。數(shù)據(jù)中的知識(shí)產(chǎn)權(quán)保護(hù)界限缺失或界定不明晰很容易引發(fā)“公地悲劇”,但如果過(guò)于強(qiáng)調(diào)數(shù)據(jù)的知識(shí)產(chǎn)權(quán)保護(hù)則會(huì)阻礙相關(guān)技術(shù)的發(fā)展,“反公地悲劇”也難以避免。?彭輝:《數(shù)據(jù)權(quán)屬的邏輯結(jié)構(gòu)與賦權(quán)邊界——基于“公地悲劇”和“反公地悲劇”的視角》,載《比較法研究》2022年第1期,第105-119頁(yè)。

具體而言,對(duì)于如何平衡數(shù)據(jù)知識(shí)產(chǎn)權(quán)保護(hù)與技術(shù)開(kāi)發(fā)創(chuàng)新發(fā)展,學(xué)界仍有較大分歧,其中,涉及生成式人工智能訓(xùn)練所需的海量數(shù)據(jù)集的版權(quán)保護(hù)問(wèn)題尤為值得關(guān)注,譬如傳統(tǒng)的“避風(fēng)港”原則、合理使用原則等,在人工智能特別是在生成式等通用人工智能技術(shù)和產(chǎn)品的開(kāi)發(fā)利用中如何調(diào)適。在我國(guó)現(xiàn)有著作權(quán)法律法規(guī)中,生成式人工智能對(duì)數(shù)據(jù)的使用是否構(gòu)成知識(shí)產(chǎn)權(quán)侵權(quán)的最大問(wèn)題在于使用行為是否屬于“合理使用”。目前我國(guó)關(guān)于合理使用的規(guī)定中,與生成式人工智能技術(shù)領(lǐng)域最為接近的情形大致有“個(gè)人使用”“適當(dāng)引用”和“科學(xué)研究”三種情形。結(jié)合該技術(shù)的服務(wù)群體為多數(shù)不確定人群、商業(yè)化使用等顯著特點(diǎn),現(xiàn)行法律很難將其使用歸入“合理使用”范疇之中,依賴海量數(shù)據(jù)進(jìn)行訓(xùn)練的生成式人工智能等技術(shù)很難擺脫侵權(quán)的風(fēng)險(xiǎn),而一旦嚴(yán)格地按侵權(quán)處理則會(huì)阻礙該技術(shù)的創(chuàng)新。這是數(shù)據(jù)來(lái)源方面知識(shí)產(chǎn)權(quán)與技術(shù)創(chuàng)新之間平衡的難點(diǎn)之一。

其次,關(guān)于生成式人工智能的生成內(nèi)容是否能夠被認(rèn)定為作品存在較大的爭(zhēng)議。生成式人工智能生成內(nèi)容的過(guò)程,很難擺脫人的影響。生成式人工智能首先建立在大量數(shù)據(jù)訓(xùn)練的基礎(chǔ)上,根據(jù)使用者需求生成內(nèi)容,并根據(jù)使用者的要求對(duì)內(nèi)容不斷完善,因此很難認(rèn)定其生成的內(nèi)容完全由人工智能自主生成,故引發(fā)了生成內(nèi)容是否能被認(rèn)定為作品的爭(zhēng)議。有學(xué)者認(rèn)為,著作權(quán)法保護(hù)意義上的作品須具備相應(yīng)條件,生成式人工智能是模擬人類思維進(jìn)行新創(chuàng)作的整體過(guò)程,其生成內(nèi)容并不是人類的智力成果,并不包含思想或者情感的表達(dá)。但是,在實(shí)踐中也有少數(shù)國(guó)家將計(jì)算機(jī)技術(shù)創(chuàng)造的內(nèi)容視為作品,例如英國(guó)《版權(quán)、外觀設(shè)計(jì)和專利法》?? Copyright, Designs and Patents Act (1988), Article 9 (3).(CDPA)第9(3)條規(guī)定:“對(duì)于由計(jì)算機(jī)生成的文學(xué)、戲劇、音樂(lè)或者藝術(shù)作品,其作者應(yīng)該是作出了進(jìn)行作品創(chuàng)作所必需的安排的個(gè)人?!庇?guó)通過(guò)立法的方式明確規(guī)定計(jì)算機(jī)所生成的內(nèi)容為知識(shí)產(chǎn)權(quán)所保護(hù)的作品,不少國(guó)家也在實(shí)踐中將計(jì)算機(jī)生成之外的非人類活動(dòng)的產(chǎn)物視為作品,所以人工智能生成的內(nèi)容不能視為作品的傳統(tǒng)觀點(diǎn)可能也將得到改變。

另外,《暫行辦法》規(guī)定了提供和使用生成式人工智能應(yīng)“尊重知識(shí)產(chǎn)權(quán)”。結(jié)合上下條文分析可知,立法者試圖通過(guò)在數(shù)據(jù)訓(xùn)練等源頭環(huán)節(jié)解決知識(shí)產(chǎn)權(quán)問(wèn)題,以此謀求生成內(nèi)容不再有任何知識(shí)產(chǎn)權(quán)侵權(quán)等問(wèn)題發(fā)生,但是這樣的規(guī)制思路似乎難以奏效。首先,對(duì)于用于數(shù)據(jù)訓(xùn)練等源頭環(huán)節(jié)的數(shù)據(jù)使用侵權(quán)問(wèn)題,在實(shí)踐和學(xué)界中仍存較大爭(zhēng)議,侵權(quán)行為難以定性。其次,即使能夠保證源頭環(huán)節(jié)的數(shù)據(jù)使用不存在任何知識(shí)產(chǎn)權(quán)問(wèn)題,提供者也不能夠保證生成內(nèi)容一定不存在所謂的“知識(shí)產(chǎn)權(quán)侵權(quán)”情形。當(dāng)然,討論生成內(nèi)容是否侵權(quán)的前提是該內(nèi)容能夠被認(rèn)作為作品,并且有相應(yīng)的權(quán)利人。

關(guān)于生成式人工智能生成內(nèi)容的權(quán)屬爭(zhēng)議問(wèn)題,雖然沒(méi)有統(tǒng)一的觀點(diǎn),但是人工智能本身不能成為作品的權(quán)利人已成為多數(shù)學(xué)者的共識(shí)。在美國(guó)“猴子自拍照”著作權(quán)爭(zhēng)議案中,一只猴子使用攝影師的相機(jī)自拍,有動(dòng)物權(quán)益保護(hù)組織認(rèn)為,自拍照版權(quán)應(yīng)當(dāng)歸猴子所有。對(duì)此,美國(guó)聯(lián)邦法院則認(rèn)為美國(guó)版權(quán)法中的作者概念僅指向“人”,并不包含動(dòng)物,因此版權(quán)法意義上的作品也必須是“人”的創(chuàng)作成果,猴子無(wú)法自行持有這些圖像的著作權(quán)。該案表明美國(guó)版權(quán)法不承認(rèn)非自然人享有著作權(quán)等權(quán)益,故屬于非人范圍的人工智能也不享有著作權(quán)。英國(guó)法也沒(méi)有把計(jì)算機(jī)生成作品的權(quán)利賦予計(jì)算機(jī)本身,而是將其歸于某一個(gè)自然人主體。我國(guó)《著作權(quán)法》第2條規(guī)定,中國(guó)公民、法人或者非法人組織的作品,不論是否發(fā)表,依照本法享有著作權(quán)??梢?jiàn),目前我國(guó)也并未將人工智能視為著作權(quán)的主體。

(四)數(shù)據(jù)安全風(fēng)險(xiǎn)

我國(guó)的數(shù)據(jù)要素蘊(yùn)涵巨大的潛在價(jià)值,若數(shù)據(jù)要素的價(jià)值能得到充分釋放,遵循“潛在價(jià)值—價(jià)值創(chuàng)造—價(jià)值實(shí)現(xiàn)”的演進(jìn)形態(tài),必將對(duì)社會(huì)經(jīng)濟(jì)發(fā)展起到重要推動(dòng)作用。?? 陳兵:《科學(xué)構(gòu)建數(shù)據(jù)要素交易制度》,載《人民論壇·學(xué)術(shù)前沿》2023年第6期,第68-80頁(yè)。在生成式人工智能技術(shù)中,數(shù)據(jù)安全風(fēng)險(xiǎn)大致可以分為兩類:一是訓(xùn)練數(shù)據(jù)本身的內(nèi)在安全風(fēng)險(xiǎn),二是數(shù)據(jù)采集、使用等過(guò)程中的安全風(fēng)險(xiǎn)。

以生成式人工智能的數(shù)據(jù)大模型訓(xùn)練為例,其訓(xùn)練的結(jié)果直接依賴于輸入的數(shù)據(jù),形成前所未有的數(shù)據(jù)匯聚。然而受數(shù)據(jù)采集條件的限制,來(lái)源于不同群體的數(shù)據(jù)所占的比例并不均衡,例如當(dāng)下訓(xùn)練語(yǔ)料大多是英文和中文,其他少數(shù)語(yǔ)種很難融入人工智能世界當(dāng)中,具有一定的局限性?!稌盒修k法》提到“鼓勵(lì)采用安全可信的芯片、軟件、工具、算力和數(shù)據(jù)資源”,其中安全可信的數(shù)據(jù)資源便是針對(duì)生成式人工智能的技術(shù)特點(diǎn)。由于訓(xùn)練數(shù)據(jù)的質(zhì)量會(huì)直接影響生成式人工智能的生成內(nèi)容質(zhì)量,有違倫理等要素的數(shù)據(jù)此時(shí)就可被稱為具有安全風(fēng)險(xiǎn)的數(shù)據(jù),該數(shù)據(jù)資源便不符合安全可信的要求。

除此以外,生成式人工智能的數(shù)據(jù)采集和使用過(guò)程也極易產(chǎn)生數(shù)據(jù)安全問(wèn)題。數(shù)據(jù)泄露是信任危機(jī)誕生的主要來(lái)源,而巨大規(guī)模的參數(shù)是實(shí)現(xiàn)生成式人工智能服務(wù)技術(shù)的關(guān)鍵,目前GPT-4的訓(xùn)練數(shù)據(jù)量已達(dá)到13萬(wàn)億。雖然目前主流的生成式人工智能技術(shù)服務(wù)提供者并沒(méi)有公布數(shù)據(jù)來(lái)源,但通過(guò)現(xiàn)有的披露信息可知這些數(shù)據(jù)主要使用的是公共爬蟲(chóng)數(shù)據(jù)集和有著超過(guò)萬(wàn)億單詞的人類語(yǔ)言數(shù)據(jù)集。某種程度上,生成式人工智能服務(wù)技術(shù)是未來(lái)超級(jí)數(shù)字助理的雛形,在智能基礎(chǔ)設(shè)施的支持之下,每個(gè)人甚至可以擁有多個(gè)數(shù)字分身,協(xié)同完成任務(wù)??梢韵胍?jiàn),數(shù)字助理的背后是大語(yǔ)言模型訪問(wèn)、鏈接個(gè)人以及企業(yè)的私有數(shù)據(jù),數(shù)據(jù)的融合利用一定是無(wú)縫銜接的。此類數(shù)據(jù)的訪問(wèn)處理如何以安全、合規(guī)、保護(hù)隱私的方式進(jìn)行,對(duì)安全技術(shù)保障措施提出了更高要求。

隨著互聯(lián)網(wǎng)技術(shù)的發(fā)展,個(gè)人信息數(shù)量劇增,同時(shí)也變得更容易被采集。通過(guò)使用社交軟件、購(gòu)物軟件以及交通軟件,用戶信息便可被輕易采集,而在智能設(shè)備使用過(guò)程中,諸如用戶生理信息、生物特征等更多種類的數(shù)據(jù)也可被獲取,多維度多方面的數(shù)據(jù)足以形成個(gè)人畫(huà)像,一旦泄露或被非法利用將對(duì)個(gè)人權(quán)益造成損害。最近爆火的圖像生成式人工智能軟件“妙鴨相機(jī)”顯露出的霸王條款問(wèn)題,已引起人們對(duì)人臉信息保護(hù)的關(guān)注?!懊铠喯鄼C(jī)”不同于ChatGPT等人工智能,其主要數(shù)據(jù)來(lái)源是用戶提供的二十一張照片,涉及預(yù)訓(xùn)練的數(shù)據(jù)僅占很少部分。起初,“妙鴨相機(jī)”在使用條款中表述其對(duì)用戶數(shù)據(jù)享有“永久的、不可撤銷(xiāo)的、可轉(zhuǎn)讓的……非獨(dú)家的許可,使得我方可以任何形式……使用您的內(nèi)容”,一系列表述立即引起用戶普遍不滿。隨著輿論的壓力,提供者不得不對(duì)相關(guān)條款進(jìn)行修改。事后,也有相關(guān)業(yè)內(nèi)人士表示,此類人工智能不僅能夠按照用戶意圖生成不同風(fēng)格的圖片,甚至可以生成能夠通過(guò)公安系統(tǒng)審核的證件照片。

2023年8月8日國(guó)家互聯(lián)網(wǎng)信息辦公室公布的《人臉識(shí)別技術(shù)應(yīng)用安全管理規(guī)定(試行)(征求意見(jiàn)稿)》對(duì)人臉識(shí)別技術(shù)進(jìn)行了規(guī)制。目前,雖然市面上諸如“妙鴨相機(jī)”之類的圖像生成式人工智能軟件公司都明確表示該技術(shù)不具備人臉識(shí)別功能,但是此類人工智能所涉及的人臉信息處理技術(shù),已然對(duì)現(xiàn)有人臉識(shí)別技術(shù)應(yīng)用和人臉信息數(shù)據(jù)安全構(gòu)成潛在威脅。以公安系統(tǒng)的人像信息采集為例,證件照本就是識(shí)別居民個(gè)人信息的重要手段,公安機(jī)關(guān)利用算法對(duì)人臉信息的關(guān)鍵特征進(jìn)行甄別,最終研判出相關(guān)個(gè)人信息。而圖像生成式人工智能則是通過(guò)算法生成不同狀態(tài)、風(fēng)格甚至不同年齡階段的照片,即在用戶提供的圖像基礎(chǔ)之上生成現(xiàn)實(shí)生活中“未曾存在”的照片,并且有可能使這些生成的證件照通過(guò)公安系統(tǒng)審核。此種情況下,由于人工智能也會(huì)采用獨(dú)特的算法對(duì)用戶照片予以調(diào)整,并且存在模糊用戶人臉特征信息的可能,這些生成照片會(huì)對(duì)數(shù)據(jù)的真實(shí)性構(gòu)成威脅,致使人臉識(shí)別技術(shù)發(fā)揮不了人臉識(shí)別的功能。該類技術(shù)的應(yīng)用可能出現(xiàn)用算法打敗算法的情況,倘若該類圖像充斥公安等部門(mén)的數(shù)據(jù)系統(tǒng),將對(duì)公共安全、國(guó)家安全產(chǎn)生不可逆的損害。

可見(jiàn),即使在服務(wù)運(yùn)營(yíng)商承諾對(duì)數(shù)據(jù)進(jìn)行嚴(yán)格保護(hù)的情況下,數(shù)據(jù)安全問(wèn)題依舊難以完全避免。數(shù)據(jù)安全是人工智能技術(shù)獲取人們信任的關(guān)鍵,倘若這一問(wèn)題得不到解決,將阻礙人工智能的發(fā)展和應(yīng)用。數(shù)據(jù)、算法和算力被譽(yù)為人工智能發(fā)展的三駕馬車(chē),隨著用戶對(duì)隱私數(shù)據(jù)的保護(hù)意識(shí)加強(qiáng)、數(shù)據(jù)泄露所帶來(lái)的風(fēng)險(xiǎn)加大,如何在數(shù)據(jù)保護(hù)與數(shù)據(jù)驅(qū)動(dòng)的人工智能研究中謀求兩全之策,是通用人工智能創(chuàng)新發(fā)展過(guò)程中亟待研究問(wèn)題之一。

(五)算法操控挑戰(zhàn)

人工智能時(shí)代,除了嚴(yán)峻的數(shù)據(jù)安全問(wèn)題之外,算法的統(tǒng)計(jì)性質(zhì)所帶來(lái)的不可控性、人工智能系統(tǒng)的自主學(xué)習(xí)性與深度學(xué)習(xí)黑匣子模型的不可解釋性,也成為了導(dǎo)致用戶信任危機(jī)的新要素。

著眼技術(shù)研發(fā)層面,實(shí)現(xiàn)通用人工智能創(chuàng)新發(fā)展的技術(shù)途徑主要是數(shù)據(jù)與算法兩個(gè)方面。如前所述,數(shù)據(jù)問(wèn)題主要集中在隱私保護(hù)和安全、數(shù)據(jù)偏見(jiàn)以及由此帶來(lái)的不公平,而算法問(wèn)題則在于可解釋性與穩(wěn)健性。從底層技術(shù)邏輯的角度來(lái)看,算法在生成式人工智能服務(wù)技術(shù)訓(xùn)練的硬件基礎(chǔ)設(shè)施、應(yīng)用程序中均扮演著核心角色,塑造了用戶的習(xí)慣與價(jià)值觀。?? 張凌寒:《網(wǎng)絡(luò)平臺(tái)監(jiān)管的算法問(wèn)責(zé)制構(gòu)建》,載《東方法學(xué)》2021年第3期,第24-42頁(yè)。算法公平性的背后存在人為和非人為兩種基本因素。如果說(shuō)企業(yè)利用人工智能進(jìn)行大數(shù)據(jù)“殺熟”,是可控的企業(yè)道德問(wèn)題,那么大部分算法帶來(lái)的挑戰(zhàn),則很大程度源自人工智能系統(tǒng)本身的不可控技術(shù)缺陷。所謂的不可控是指,人工智能模型在決策過(guò)程中存在黑箱問(wèn)題,即推理過(guò)程不透明。

首先,算法缺乏穩(wěn)定性。針對(duì)生成式人工智能服務(wù)的數(shù)據(jù)和系統(tǒng)存在多種攻擊方式,例如病毒攻擊、對(duì)抗攻擊、后門(mén)攻擊等。舉例來(lái)說(shuō),通過(guò)向模型中投喂惡意評(píng)論,便可以從源頭數(shù)據(jù)上影響推薦算法的判斷,輸出不準(zhǔn)確的推薦結(jié)果。另外,干擾的形式不限于數(shù)字形式,也存在物理層面的干擾,例如通過(guò)打印對(duì)抗樣本等手段,直接對(duì)自動(dòng)駕駛和人臉識(shí)別系統(tǒng)造成物理層面的干擾。

其次,算法的可解釋性尚待完善。以深度學(xué)習(xí)為代表的機(jī)器學(xué)習(xí)算法,本質(zhì)上是一個(gè)端到端的黑箱。一方面,人們對(duì)擁有巨大參數(shù)量的大模型內(nèi)部的算法迭代方式和運(yùn)作機(jī)理尚不清楚;另一方面,人工智能算法作出決策時(shí)具體受到數(shù)據(jù)庫(kù)中哪些數(shù)據(jù)的影響,人們也不清楚。譬如,曾有實(shí)驗(yàn)者向GPT-3(自然語(yǔ)言處理模型)提問(wèn)“新冠疫情何時(shí)結(jié)束”,它的回答是“2023年12月31日”。但答案的依據(jù)是什么?研究者無(wú)從解釋,也自然難保其準(zhǔn)確率。

最后,算法偏見(jiàn)與歧視問(wèn)題尚待解決。算法偏見(jiàn)與歧視的產(chǎn)生具有內(nèi)外多重影響因素。一方面,若算法研發(fā)者在開(kāi)發(fā)階段設(shè)置了具有歧視性的因素或者錯(cuò)誤設(shè)置了某些參數(shù),會(huì)導(dǎo)致算法天然具有歧視偏見(jiàn)的導(dǎo)向;另一方面,生成式人工智能在大規(guī)模收集數(shù)據(jù)的過(guò)程中,數(shù)據(jù)的不全面會(huì)導(dǎo)致算法進(jìn)行學(xué)習(xí)后產(chǎn)生片面的結(jié)果,由于生成式人工智能的重要特點(diǎn)就是根據(jù)反饋結(jié)果不斷優(yōu)化生成內(nèi)容,因此外界的反饋結(jié)果中一旦含有偏見(jiàn)與歧視,也將影響最終的生成內(nèi)容。

基于此,算法應(yīng)用給生成式人工智能服務(wù)技術(shù)訓(xùn)練帶來(lái)了根本性變革,算法崛起帶來(lái)的最大挑戰(zhàn)在于算法的不穩(wěn)定性與不可解釋性?;谶@些特點(diǎn),人們常以“黑箱”一以概之,原因在于人們時(shí)常無(wú)法理解它的邏輯或其決策機(jī)制。?? 丁曉東:《論算法的法律規(guī)制》,載《中國(guó)社會(huì)科學(xué)》2020年第12期,第138-159頁(yè)。? 石佳友、劉忠炫:《科技倫理治理的法治化路徑——以基因編輯技術(shù)的規(guī)制為例》,載《學(xué)?!?022年第5期,第185-195頁(yè)。從“生產(chǎn)關(guān)系適應(yīng)生產(chǎn)力”的角度看,監(jiān)管應(yīng)革新,以適應(yīng)算法技術(shù)帶來(lái)的生成式人工智能服務(wù)訓(xùn)練的演變。

四、通用人工智能創(chuàng)新發(fā)展的法治對(duì)策

當(dāng)前,騰訊、百度等眾多國(guó)內(nèi)科技企業(yè)紛紛表示將研發(fā)類生成式人工智能服務(wù)等技術(shù)產(chǎn)品。面對(duì)激烈的國(guó)際競(jìng)爭(zhēng)和對(duì)安全的挑戰(zhàn),正視生成式人工智能所引發(fā)的信任危機(jī)問(wèn)題刻不容緩,否則此類信任危機(jī)將殃及整個(gè)人工智能產(chǎn)業(yè),阻礙相關(guān)產(chǎn)業(yè)的持續(xù)健康發(fā)展。為此,應(yīng)當(dāng)著眼于前述挑戰(zhàn),探尋多維度、多領(lǐng)域、多層次、立體化的治理基點(diǎn),加快推進(jìn)通用人工智能的創(chuàng)新發(fā)展。

(一)建立科技倫理監(jiān)督管理規(guī)范

當(dāng)前,在科技倫理治理領(lǐng)域仍存在體制機(jī)制不健全、制度不完善、領(lǐng)域發(fā)展不均衡等問(wèn)題,難以滿足人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展、提升競(jìng)爭(zhēng)力的現(xiàn)實(shí)需要。為此,要加快建立多領(lǐng)域的科技倫理的監(jiān)管和規(guī)范,加強(qiáng)科技倫理審查。一方面,應(yīng)當(dāng)對(duì)生成式人工智能服務(wù)應(yīng)用的多個(gè)領(lǐng)域進(jìn)行風(fēng)險(xiǎn)的精準(zhǔn)識(shí)別與跟蹤預(yù)測(cè),提高治理的反應(yīng)速度與監(jiān)管效能;另一方面,明確生成式人工智能領(lǐng)域的科技倫理規(guī)則,展開(kāi)事前監(jiān)管,推進(jìn)全要素監(jiān)管,引導(dǎo)企業(yè)合規(guī)。

第一,建立科技倫理的風(fēng)險(xiǎn)識(shí)別與跟蹤機(jī)制。科技倫理風(fēng)險(xiǎn)識(shí)別旨在基于風(fēng)險(xiǎn)分級(jí)的理念為后續(xù)差異化的應(yīng)對(duì)機(jī)制提供初步的事實(shí)基礎(chǔ)。?? 丁曉東:《論算法的法律規(guī)制》,載《中國(guó)社會(huì)科學(xué)》2020年第12期,第138-159頁(yè)。? 石佳友、劉忠炫:《科技倫理治理的法治化路徑——以基因編輯技術(shù)的規(guī)制為例》,載《學(xué)?!?022年第5期,第185-195頁(yè)。因此,需要完善生成式人工智能領(lǐng)域的風(fēng)險(xiǎn)分級(jí)具體規(guī)則,充分利用現(xiàn)有的科學(xué)技術(shù),深入評(píng)估生成式人工智能服務(wù)新技術(shù)在大規(guī)模市場(chǎng)應(yīng)用前的安全隱患、技術(shù)成熟度、脆弱性等各方面,區(qū)分風(fēng)險(xiǎn)等級(jí)大小,對(duì)不同等級(jí)倫理風(fēng)險(xiǎn)的生成式人工智能服務(wù)進(jìn)行不同嚴(yán)格程度的規(guī)范。在分級(jí)規(guī)則清晰的基礎(chǔ)上,展開(kāi)風(fēng)險(xiǎn)識(shí)別與跟蹤工作。這在《暫行辦法》中也有體現(xiàn),其規(guī)定在利用生成式人工智能產(chǎn)品向公眾提供服務(wù)前,應(yīng)當(dāng)向國(guó)家網(wǎng)信部門(mén)申報(bào)安全評(píng)估,并履行算法備案和變更、注銷(xiāo)備案手續(xù)。

科技倫理的風(fēng)險(xiǎn)識(shí)別與跟蹤機(jī)制的建立,一方面,有利于提升監(jiān)管的明確性,保證監(jiān)管可預(yù)期,引導(dǎo)生成式人工智能服務(wù)提供者合規(guī),提高生成式人工智能服務(wù)產(chǎn)品的質(zhì)量與包容性;另一方面,有利于通過(guò)預(yù)防性措施,發(fā)現(xiàn)其數(shù)據(jù)來(lái)源、運(yùn)行路徑、輸出內(nèi)容等方面所存在的缺陷或風(fēng)險(xiǎn)點(diǎn),有效規(guī)避風(fēng)險(xiǎn),避免事后規(guī)制的遲滯,從而提高生成式人工智能服務(wù)的可信度。但同時(shí),若事前審查的范圍與程度設(shè)置不當(dāng),可能會(huì)抑制生成式人工智能服務(wù)新技術(shù)產(chǎn)品的研發(fā)與訓(xùn)練效能,客觀上會(huì)導(dǎo)致其發(fā)展的降速。因此,需要在統(tǒng)籌安全與發(fā)展的基礎(chǔ)上,設(shè)置合理的審查范圍,把握安全與創(chuàng)新的平衡。

第二,要加快建立科技倫理審查和監(jiān)管制度。2023年4月4日,科學(xué)技術(shù)部發(fā)布關(guān)于公開(kāi)征求對(duì)《科技倫理審查辦法(試行)》意見(jiàn)的公告。該辦法“主要是規(guī)范科技倫理審查的程序、標(biāo)準(zhǔn)、條件等,是覆蓋各領(lǐng)域科技倫理審查的綜合性、通用性規(guī)定”。?? 《關(guān)于〈科技倫理審查辦法(試行)(征求意見(jiàn)稿)〉的說(shuō)明》,載中華人民共和國(guó)科學(xué)技術(shù)部官網(wǎng)2023年4月4日,https://www.most.gov.cn/wsdc/202304/t20230404_185388.html.其第4條提出科技倫理審查應(yīng)堅(jiān)持科學(xué)、獨(dú)立、公正、透明原則,公開(kāi)審查制度和審查程序,客觀審慎評(píng)估科技活動(dòng)倫理風(fēng)險(xiǎn),依規(guī)開(kāi)展審查,并自覺(jué)接受有關(guān)方面的監(jiān)督。

科技倫理審查等外部監(jiān)管方式較備案、自評(píng)估等制度來(lái)說(shuō)強(qiáng)制性程度更高,能夠敦促技術(shù)研發(fā)使用者提高人工智能技術(shù)使用的規(guī)范性,以明確的準(zhǔn)則切實(shí)規(guī)范對(duì)人工智能的道德層面約束,能夠有效提高人工智能的可信程度,維護(hù)社會(huì)公平正義、保障公眾切身利益。

(二)完善侵權(quán)責(zé)任認(rèn)定與承擔(dān)規(guī)則

任何法律責(zé)任的實(shí)現(xiàn)均以責(zé)任主體的存在和確定為前提,以歸責(zé)原則為依據(jù)。雖然說(shuō)人工智能自主性的不斷提升打破了侵權(quán)責(zé)任因果關(guān)系的傳統(tǒng)理論,并出現(xiàn)了歸責(zé)不能的困境,但從人工智能運(yùn)行的底層技術(shù)邏輯來(lái)看,人工智能算法從設(shè)計(jì)研發(fā)到應(yīng)用部署的每個(gè)環(huán)節(jié)都存在價(jià)值觀和主觀意圖層面的影響,因此,可將人工智能算法設(shè)計(jì)部署的主觀過(guò)錯(cuò)作為追責(zé)的根本依據(jù)。

第一,采用預(yù)防性責(zé)任方式。預(yù)防性責(zé)任方式要求根據(jù)不同的具體環(huán)境損害情形采用具有預(yù)防性功能的責(zé)任方式的變形形式。生成式人工智能服務(wù)的創(chuàng)新應(yīng)用涉及數(shù)據(jù)處理者、算法開(kāi)發(fā)者、服務(wù)提供者、使用者等多方面的利益衡量,在制度設(shè)計(jì)上不宜采取在“禁止使用”與“受害人完全忍受”之間二擇一的途徑,以避免使此類訴訟救濟(jì)的途徑成為一種“零和游戲”,而應(yīng)允許中間排除或部分排除的可能性。[27]胡衛(wèi):《論礦害責(zé)任承擔(dān)規(guī)則與責(zé)任方式》,載《政法論叢》2015年第2期,第121-128頁(yè)。

因此,《暫行辦法》也對(duì)提供生成式人工智能產(chǎn)品或服務(wù)提供者提出了較為嚴(yán)格的要求,尤其體現(xiàn)在信息數(shù)據(jù)安全、知識(shí)產(chǎn)權(quán)保護(hù)、倫理風(fēng)險(xiǎn)規(guī)制、算法訓(xùn)練優(yōu)化等方面。若預(yù)防性責(zé)任過(guò)于嚴(yán)苛導(dǎo)致合規(guī)成本過(guò)高,則會(huì)扼殺企業(yè)的創(chuàng)新模式。人工智能的新領(lǐng)域往往具有較強(qiáng)的不可控性與不可預(yù)知性。為此,《暫行辦法》的責(zé)任預(yù)防性價(jià)值取向之一正是確保安全,并非完全承襲既有的網(wǎng)絡(luò)技術(shù)先發(fā)展再治理的理念,而是希望明確新興領(lǐng)域發(fā)展的底線與紅線,避免技術(shù)產(chǎn)生的不可控的風(fēng)險(xiǎn)深度嵌入社會(huì)結(jié)構(gòu),進(jìn)而出現(xiàn)難以應(yīng)對(duì)的局面。

第二,明確責(zé)任承擔(dān)主體?!稌盒修k法》規(guī)定,提供者應(yīng)當(dāng)依法承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任,履行網(wǎng)絡(luò)信息安全義務(wù)。這一規(guī)定明確了責(zé)任承擔(dān)主體為生成式人工智能服務(wù)提供者。然而,生成式人工智能是一條價(jià)值生產(chǎn)鏈條,其依托海量數(shù)據(jù)參與預(yù)訓(xùn)練大型語(yǔ)言模型,可以應(yīng)對(duì)C端的便捷交互、內(nèi)容生成、簡(jiǎn)化工作等需求,同時(shí)也具有面向企業(yè)、面向B端的行業(yè)化、場(chǎng)景化服務(wù)的能力,例如以人工智能技術(shù)為驅(qū)動(dòng)的自動(dòng)駕駛、利用行業(yè)或企業(yè)獨(dú)特?cái)?shù)據(jù)資源訓(xùn)練的醫(yī)療大型語(yǔ)言模型等。因此,面對(duì)生成內(nèi)容應(yīng)用的多領(lǐng)域、多主體,服務(wù)提供者往往難以對(duì)生成應(yīng)用的風(fēng)險(xiǎn)進(jìn)行完全的控制,故將責(zé)任承擔(dān)完全歸于服務(wù)提供者有失偏頗,應(yīng)當(dāng)考慮采用“避風(fēng)港”原則,在《暫行辦法》的基礎(chǔ)上對(duì)提供者的責(zé)任與義務(wù)進(jìn)行進(jìn)一步細(xì)化規(guī)定,即沒(méi)有完成規(guī)定義務(wù)、采取必要措施防范風(fēng)險(xiǎn)的服務(wù)提供者才應(yīng)當(dāng)承擔(dān)責(zé)任。同時(shí),提供者難以知曉或控制多領(lǐng)域應(yīng)用的用途,對(duì)于主觀上不存在過(guò)錯(cuò)的服務(wù)提供者,應(yīng)當(dāng)適用過(guò)錯(cuò)責(zé)任原則,不承擔(dān)侵權(quán)責(zé)任。明確責(zé)任承擔(dān)主體與歸責(zé)原則,有利于在提前防范風(fēng)險(xiǎn)的同時(shí),激勵(lì)人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展,避免打擊產(chǎn)業(yè)創(chuàng)新的積極性。

大型語(yǔ)言模型帶來(lái)的是認(rèn)知突破和范式轉(zhuǎn)變,不同行業(yè)的企業(yè)可借助通用模型的訓(xùn)練,培育出各自具備智人般的復(fù)雜推理能力和認(rèn)知能力的模型。對(duì)于企業(yè)端的運(yùn)用規(guī)制,目前《暫行辦法》中尚未表明基本態(tài)度,亟待進(jìn)一步明確。

第三,規(guī)范賠償損失責(zé)任方式。宏觀上,賠償損失是對(duì)受害人價(jià)值利益的賠償,僅能保障受害人的金錢(qián)價(jià)值利益。[28]李承亮:《侵權(quán)責(zé)任法視野中的生態(tài)損害》,載《現(xiàn)代法學(xué)》2010年第1期,第65-75頁(yè)。微觀上,人工智能產(chǎn)品或服務(wù)所致的倫理秩序、生命抑或情感等損害,金錢(qián)賠償難以全部彌補(bǔ)。為保證受害人得到充分賠償,《暫行辦法》應(yīng)與《民法典》《刑法》等做好充分的銜接與互補(bǔ),探尋合理的賠償計(jì)算方式,總結(jié)出對(duì)完整利益救濟(jì)的最佳責(zé)任方式。法院則應(yīng)在充分考慮人工智能可行性和經(jīng)濟(jì)性的基礎(chǔ)上,分階段進(jìn)行利益衡量與動(dòng)態(tài)考察,優(yōu)先考慮維持受害者長(zhǎng)遠(yuǎn)利益和社會(huì)整體利益的責(zé)任承擔(dān)方式和適當(dāng)?shù)馁r償金額。

侵權(quán)行為發(fā)生后,在責(zé)任判定過(guò)程中可以參照適用《民法典》,即若是由他人產(chǎn)品缺陷造成損害的,侵權(quán)責(zé)任則應(yīng)由提供者承擔(dān),并且提供者應(yīng)當(dāng)對(duì)被侵權(quán)者的賠償請(qǐng)求負(fù)責(zé)。如果平臺(tái)能夠提供充足的證據(jù)證明其已經(jīng)盡到相應(yīng)注意義務(wù),出于平衡科技創(chuàng)新與權(quán)利保護(hù)的考慮,在責(zé)任的承擔(dān)上不宜施加嚴(yán)格責(zé)任,否則過(guò)于嚴(yán)苛的責(zé)任承擔(dān)將會(huì)阻礙技術(shù)的開(kāi)發(fā)和未來(lái)的商業(yè)化應(yīng)用。

(三)統(tǒng)籌公平競(jìng)爭(zhēng)與鼓勵(lì)創(chuàng)新雙重價(jià)值

生成式人工智能服務(wù)是以數(shù)據(jù)資源為關(guān)鍵要素,以現(xiàn)代信息技術(shù)為主要載體生成新的文本、圖像、音頻和視頻等各種形式內(nèi)容的一種新經(jīng)濟(jì)形態(tài)。生成式人工智能的浪潮為算力基礎(chǔ)設(shè)施、人工智能平臺(tái)即服務(wù)等眾多數(shù)字產(chǎn)業(yè)提供了新的發(fā)展點(diǎn)與市場(chǎng)空間。對(duì)于生成式人工智能服務(wù),一方面需要保護(hù)知識(shí)產(chǎn)權(quán),另一方面也需要競(jìng)爭(zhēng)規(guī)則的規(guī)制,既要保護(hù)競(jìng)爭(zhēng)也要激勵(lì)創(chuàng)新,亟待尋求知識(shí)產(chǎn)權(quán)保護(hù)與反壟斷之間的平衡。

知識(shí)產(chǎn)權(quán)屬于私權(quán),具有獨(dú)占性,其預(yù)設(shè)的壟斷權(quán)具有合法性,被用以加強(qiáng)市場(chǎng)力量,如果被濫用,可能會(huì)排除、限制競(jìng)爭(zhēng);而反壟斷法屬于公法范疇,用于限制壟斷權(quán),尊重私權(quán)(知識(shí)產(chǎn)權(quán)),但防止權(quán)利濫用,如果知識(shí)產(chǎn)權(quán)的行使排除、限制競(jìng)爭(zhēng),則同樣受到反壟斷法的規(guī)制。生成式人工智能背后的文本生成模型,具有規(guī)模龐大、自監(jiān)督型訓(xùn)練和強(qiáng)通用性的技術(shù)性特點(diǎn)。這就意味著模型構(gòu)建、訓(xùn)練和運(yùn)維需要大量人力、算力和數(shù)據(jù),而訓(xùn)練完成后的大規(guī)模通用型人工智能在某一特定領(lǐng)域內(nèi)完成任務(wù)的能力則可以較為輕松地超過(guò)專門(mén)針對(duì)該領(lǐng)域所設(shè)計(jì)的中小型人工智能。

換言之,生成式人工智能產(chǎn)業(yè)前期投入大、研發(fā)周期長(zhǎng)。但在發(fā)布后,其高效率、相較于其他途徑的低成本和廣泛的適用性,將使研發(fā)企業(yè)在市場(chǎng)上獲得巨大的競(jìng)爭(zhēng)優(yōu)勢(shì)。對(duì)于生成式人工智能服務(wù)的壟斷風(fēng)險(xiǎn),要兼顧知識(shí)產(chǎn)權(quán)保護(hù)與反壟斷,兼顧保護(hù)競(jìng)爭(zhēng)與激勵(lì)創(chuàng)新。

首先,要堅(jiān)持包容審慎監(jiān)管原則,鼓勵(lì)創(chuàng)新。一方面,要鼓勵(lì)創(chuàng)新,為生成式人工智能產(chǎn)業(yè)營(yíng)造適宜發(fā)展、有效競(jìng)爭(zhēng)的市場(chǎng)環(huán)境。只有建立起一個(gè)公平、開(kāi)放、有序的市場(chǎng)環(huán)境,才能保障生成式人工智能的健康發(fā)展和社會(huì)效益。另一方面,應(yīng)當(dāng)關(guān)注其上下游產(chǎn)業(yè)存在的壟斷風(fēng)險(xiǎn)并及時(shí)規(guī)制。譬如,生成式人工智能的應(yīng)用可能促進(jìn)大型科技公司實(shí)施縱向一體化戰(zhàn)略,從而產(chǎn)生壟斷和反競(jìng)爭(zhēng)的效果,這需要監(jiān)管機(jī)構(gòu)對(duì)芯片、云計(jì)算和下游應(yīng)用市場(chǎng)的壟斷規(guī)制予以關(guān)注,必要時(shí)進(jìn)行有針對(duì)性的規(guī)制。

其次,應(yīng)建立健全人工智能領(lǐng)域市場(chǎng)規(guī)則。面對(duì)數(shù)字技術(shù)快速發(fā)展導(dǎo)致競(jìng)爭(zhēng)樣態(tài)不斷翻新、涉知名網(wǎng)絡(luò)公司和頭部企業(yè)的網(wǎng)絡(luò)競(jìng)爭(zhēng)案件層出不窮的現(xiàn)象,需要加強(qiáng)對(duì)行業(yè)競(jìng)爭(zhēng)的規(guī)范指引、提升司法裁判的示范作用。譬如,北京知識(shí)產(chǎn)權(quán)法院2023年上半年發(fā)布的典型案例大多與數(shù)字經(jīng)濟(jì)領(lǐng)域息息相關(guān),總結(jié)了相關(guān)案件的裁判規(guī)則。其中,蟻坊公司擅自抓取微博后臺(tái)數(shù)據(jù)構(gòu)成不正當(dāng)競(jìng)爭(zhēng)行為,此類新型競(jìng)爭(zhēng)行為在此前存在規(guī)制上的爭(zhēng)議與困境,而典型案例的發(fā)布使得新興領(lǐng)域的市場(chǎng)規(guī)則逐漸明晰。

(四)改進(jìn)人工智能數(shù)據(jù)安全保障

近年來(lái)我國(guó)對(duì)于人工智能等新技術(shù)逐漸邁入常態(tài)化監(jiān)管階段,始終秉持發(fā)展與安全并重的原則,力圖實(shí)現(xiàn)新技術(shù)健康可持續(xù)的高質(zhì)量發(fā)展。數(shù)據(jù)是喂養(yǎng)算法的原料,可謂人工智能的基礎(chǔ),數(shù)據(jù)安全的重要性不言而喻。同時(shí),生成式人工智能作為大模型,對(duì)數(shù)據(jù)規(guī)模有更大的要求,更需要著重考慮加強(qiáng)數(shù)據(jù)安全保護(hù)、降低數(shù)據(jù)安全風(fēng)險(xiǎn)方面的需求。[29]范玉吉、張瀟:《數(shù)據(jù)安全治理的模式變遷、選擇與進(jìn)路》,載《電子政務(wù)》2022年第4期,第119-129頁(yè)。

第一,建立健全數(shù)據(jù)分類分級(jí)保護(hù)制度。需要結(jié)合人工智能服務(wù)應(yīng)用的領(lǐng)域、人工智能底層算法的特性,建立健全數(shù)據(jù)分類分級(jí)保護(hù)制度。同時(shí),應(yīng)該在數(shù)據(jù)分類分級(jí)的基礎(chǔ)上,建立與不同類型數(shù)據(jù)以及不同風(fēng)險(xiǎn)級(jí)別數(shù)據(jù)相匹配的數(shù)據(jù)安全保護(hù)機(jī)制,實(shí)現(xiàn)對(duì)生成式人工智能大模型大規(guī)模參數(shù)的有序管理。在通用人工智能的治理建設(shè)中應(yīng)堅(jiān)持以數(shù)據(jù)安全保護(hù)為導(dǎo)向,依據(jù)數(shù)據(jù)所具有的可共享性、復(fù)用性、多歸屬性、高度動(dòng)態(tài)性以及使用加權(quán)屬性等特征,統(tǒng)籌數(shù)據(jù)的發(fā)展和安全,運(yùn)用場(chǎng)景化、動(dòng)態(tài)化的方法,做好數(shù)據(jù)的分類分級(jí)及其制度實(shí)施,搭建起數(shù)據(jù)分類與分級(jí)的貫通機(jī)制。[30]陳兵、郭光坤:《數(shù)據(jù)分類分級(jí)制度的定位與定則——以〈數(shù)據(jù)安全法〉為中心的展開(kāi)》,載《中國(guó)特色社會(huì)主義研究》2022年第3期,第52-62頁(yè)。

第二,加快完善數(shù)據(jù)交易制度。生成式人工智能對(duì)數(shù)據(jù)的依賴程度極高,海量的數(shù)據(jù)訓(xùn)練以及算法的不斷優(yōu)化,能夠使生成內(nèi)容更加準(zhǔn)確,并且符合人類預(yù)期。《暫行辦法》提到“鼓勵(lì)采用安全可信的芯片、軟件、工具、算力和數(shù)據(jù)資源”,高質(zhì)量、低風(fēng)險(xiǎn)是安全可信的數(shù)據(jù)資源的應(yīng)有之義。目前,生成式人工智能技術(shù)的訓(xùn)練數(shù)據(jù)多來(lái)自于互聯(lián)網(wǎng)上的文本數(shù)據(jù)。這些數(shù)據(jù)的質(zhì)量參差不齊,隱藏的風(fēng)險(xiǎn)也無(wú)法預(yù)估,降低此類數(shù)據(jù)的風(fēng)險(xiǎn),一方面主要依據(jù)算法的優(yōu)化和數(shù)據(jù)標(biāo)注工作等多層面的協(xié)作;另一方面,可以通過(guò)加快數(shù)據(jù)分級(jí)分類上市交易,通過(guò)市場(chǎng)的特性提高交易數(shù)據(jù)的質(zhì)量,并將這些安全可信的數(shù)據(jù)廣泛用于數(shù)據(jù)訓(xùn)練,進(jìn)而一定程度降低人工智能技術(shù)提供者的研發(fā)成本。

第三,需進(jìn)一步加強(qiáng)數(shù)據(jù)安全的全鏈條監(jiān)管,推動(dòng)監(jiān)管前置?!稌盒修k法》明確提出,提供者應(yīng)當(dāng)根據(jù)國(guó)家網(wǎng)信部門(mén)和有關(guān)主管部門(mén)的要求,提供包括預(yù)訓(xùn)練和優(yōu)化訓(xùn)練數(shù)據(jù)的來(lái)源、規(guī)模、類型、質(zhì)量等描述,人工標(biāo)注規(guī)則,人工標(biāo)注數(shù)據(jù)的規(guī)模和類型、基礎(chǔ)算法和技術(shù)體系等。通過(guò)監(jiān)管前置進(jìn)行事前保護(hù),能夠引導(dǎo)人工智能的訓(xùn)練過(guò)程更加規(guī)范,避免風(fēng)險(xiǎn)發(fā)生后監(jiān)管滯后導(dǎo)致?lián)p害不可挽回,從而更好地保障用戶的知情權(quán)、選擇權(quán)等權(quán)益,提高算法的可信度。

最后,還需要審視現(xiàn)有的隱私保護(hù)與合規(guī)機(jī)制,不斷更新、完善數(shù)據(jù)合規(guī)思路。當(dāng)前移動(dòng)互聯(lián)網(wǎng)個(gè)人信息保護(hù)實(shí)踐對(duì)于必要性原則的解釋非常嚴(yán)格,以最大程度地避免數(shù)據(jù)的不當(dāng)收集與匯聚。例如《常見(jiàn)類型移動(dòng)互聯(lián)網(wǎng)應(yīng)用程序必要個(gè)人信息范圍規(guī)定》不僅針對(duì)每類應(yīng)用區(qū)分了基本功能與附加功能,還針對(duì)基本功能收集的必要信息進(jìn)行了明確。在大部分基本功能中僅能收集兩三類個(gè)人信息,例如定位和導(dǎo)航功能僅能收集位置信息、出發(fā)地、到達(dá)地三種信息;《App違法違規(guī)收集使用個(gè)人信息行為認(rèn)定方法》更是明確:不得僅以改善服務(wù)質(zhì)量、研發(fā)新產(chǎn)品等理由收集個(gè)人信息。這種“嚴(yán)防死守”的數(shù)據(jù)合規(guī)思路是否適合未來(lái)的人工智能應(yīng)用場(chǎng)景值得探討。

從移動(dòng)互聯(lián)網(wǎng)到我們正在步入的人工智能時(shí)代,雖然數(shù)據(jù)利用一直在向更廣更深的方向發(fā)展,但各類新技術(shù)應(yīng)用仍將隱私保護(hù)作為價(jià)值對(duì)齊的重要方面。應(yīng)明確隱私和數(shù)據(jù)安全的真諦從來(lái)就不是對(duì)數(shù)據(jù)的使用進(jìn)行各種限制,或者人為提高數(shù)據(jù)使用門(mén)檻,而在于通過(guò)激烈的市場(chǎng)競(jìng)爭(zhēng)、健全的法律機(jī)制和更加強(qiáng)大的技術(shù)安全措施來(lái)切實(shí)保障用戶隱私與數(shù)據(jù)安全。

(五)強(qiáng)化人工智能算法監(jiān)管

生成式人工智能服務(wù)的快速發(fā)展,不僅表明大模型對(duì)數(shù)據(jù)規(guī)模和參數(shù)量需求的爆炸性增長(zhǎng),也表明算法迭代的復(fù)雜程度極大提高,算法的透明度與可解釋性受到了前所未有的挑戰(zhàn)。面對(duì)來(lái)勢(shì)洶洶的算法危機(jī),應(yīng)圍繞人工智能算法構(gòu)建綜合治理體系,針對(duì)人工智能算法進(jìn)行專門(mén)性、系統(tǒng)化治理。

首先,應(yīng)健全預(yù)防算法歧視的法律法規(guī)體系及規(guī)制機(jī)制[31]相關(guān)研究參見(jiàn)胡晶晶:《破解公權(quán)力領(lǐng)域的算法歧視:權(quán)力正當(dāng)程序的回歸》,載《知識(shí)產(chǎn)權(quán)》2022年第4期,第76-95頁(yè)。,重點(diǎn)關(guān)注算法源頭數(shù)據(jù)集以及訓(xùn)練數(shù)據(jù)樣本來(lái)源是否合法、是否達(dá)到一定規(guī)模、是否具有完整性與代表性,避免數(shù)據(jù)層面的不完善導(dǎo)致產(chǎn)生算法歧視。服務(wù)提供者需要及時(shí)檢查并更新相應(yīng)數(shù)據(jù),對(duì)存在歧視性的特定數(shù)據(jù)內(nèi)容予以剔除,同時(shí)保證數(shù)據(jù)來(lái)源達(dá)到一定規(guī)模并具有完整性。一方面,可通過(guò)《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》等法律規(guī)范,為算法治理活動(dòng)明確合理邊界,賦予服務(wù)提供者相應(yīng)的注意義務(wù)。另一方面,可以通過(guò)對(duì)特定領(lǐng)域如人臉識(shí)別、算法推薦的專門(mén)立法實(shí)現(xiàn)對(duì)人工智能應(yīng)用中算法活動(dòng)的精準(zhǔn)監(jiān)管,形成對(duì)特定應(yīng)用領(lǐng)域中算法風(fēng)險(xiǎn)的間接識(shí)別和應(yīng)對(duì)。[32]王德夫:《論人工智能算法的法律屬性與治理進(jìn)路》,載《武漢大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)》2021年第5期,第20-40頁(yè)。

其次,應(yīng)在保證算法透明度與可解釋性的同時(shí)重視創(chuàng)新。面對(duì)生成式人工智能服務(wù),應(yīng)積極回應(yīng)人工智能算法相關(guān)的技術(shù)屬性和應(yīng)用規(guī)律,對(duì)人工智能算法治理的基本策略有所掌握和判斷?!稌盒修k法》規(guī)定了服務(wù)提供者安全評(píng)估制度,并規(guī)定有關(guān)主管部門(mén)依據(jù)職責(zé)對(duì)生成式人工智能服務(wù)開(kāi)展監(jiān)督檢查。以上規(guī)則的建立對(duì)生成式人工智能算法的透明度提出了要求,然而不能一味要求提升生成式人工智能的透明度。一方面,面對(duì)參數(shù)量和算法隱層的劇增,算法公開(kāi)透明的技術(shù)難度顯著增加;另一方面,透明度的提升很有可能會(huì)損害研發(fā)、應(yīng)用主體的創(chuàng)新積極性,因此,需要保證創(chuàng)新與透明度之間的平衡。

最后,應(yīng)堅(jiān)持算法多元共治。在全國(guó)范圍內(nèi)成立自治性行業(yè)監(jiān)督管理委員會(huì),對(duì)人工智能技術(shù)行業(yè)進(jìn)行業(yè)務(wù)指導(dǎo)和監(jiān)督。委員會(huì)利用專業(yè)層面的優(yōu)勢(shì),將分類分級(jí)監(jiān)管原則貫徹落實(shí),根據(jù)人工智能的應(yīng)用場(chǎng)景對(duì)算法進(jìn)行分級(jí)治理,輔助監(jiān)管部門(mén)完成算法備案、算法審計(jì)及算法問(wèn)責(zé)等工作,在此基礎(chǔ)上推動(dòng)通用人工智能技術(shù)在內(nèi)容生成上的合理適用,在規(guī)范適用中不斷完善通用人工智能算法的開(kāi)發(fā)、使用及治理。

結(jié) 語(yǔ)

戰(zhàn)略性新興產(chǎn)業(yè)是引領(lǐng)未來(lái)發(fā)展的新支柱、新賽道。數(shù)字時(shí)代的法治圖景應(yīng)預(yù)見(jiàn)通用人工智能全球治理的未來(lái)形態(tài)。通用人工智能時(shí)代已經(jīng)不遠(yuǎn),生成式人工智能技術(shù)在短時(shí)間內(nèi)飛速發(fā)展,其應(yīng)用領(lǐng)域之廣也讓人們看到通用人工智能的革新意義,人工智能產(chǎn)業(yè)已經(jīng)成為未來(lái)全球范圍內(nèi)新的競(jìng)爭(zhēng)點(diǎn)。與此同時(shí),通用人工智能產(chǎn)業(yè)創(chuàng)新發(fā)展也面臨科技倫理、知識(shí)產(chǎn)權(quán)、歸責(zé)機(jī)制、數(shù)據(jù)安全和算法操控等問(wèn)題,使得人工智能的可信程度受到挑戰(zhàn)。因此,需要進(jìn)一步構(gòu)建人工智能產(chǎn)業(yè)的法律規(guī)范體系,完善人工智能產(chǎn)業(yè)的科技倫理治理生態(tài),出臺(tái)相關(guān)行為規(guī)范和倫理指南,推動(dòng)人工智能產(chǎn)業(yè)在法治軌道上健康持續(xù)發(fā)展。針對(duì)上述科技倫理挑戰(zhàn)、責(zé)任侵權(quán)挑戰(zhàn)、知識(shí)產(chǎn)權(quán)和壟斷挑戰(zhàn)、數(shù)據(jù)安全挑戰(zhàn)、算法操控挑戰(zhàn)等問(wèn)題布局研究,尋求可行的技術(shù)手段,通過(guò)建立科技倫理規(guī)范、完善侵權(quán)責(zé)任規(guī)制體系、保護(hù)競(jìng)爭(zhēng)并激勵(lì)創(chuàng)新、加強(qiáng)人工智能數(shù)據(jù)安全保障、規(guī)范人工智能領(lǐng)域算法監(jiān)管等方式,掃除通往通用人工智能創(chuàng)新發(fā)展道路上的攔路虎。

猜你喜歡
倫理人工智能算法
《心之死》的趣味與倫理焦慮
護(hù)生眼中的倫理修養(yǎng)
基于MapReduce的改進(jìn)Eclat算法
Travellng thg World Full—time for Rree
2019:人工智能
進(jìn)位加法的兩種算法
人工智能與就業(yè)
數(shù)讀人工智能
下一幕,人工智能!
一種改進(jìn)的整周模糊度去相關(guān)算法
台北市| 安溪县| 宁夏| 永济市| 安乡县| 唐河县| 凤城市| 吴旗县| 邵东县| 任丘市| 喀什市| 兴城市| 那坡县| 石家庄市| 田林县| 双柏县| 花莲市| 乌兰浩特市| 新河县| 遂川县| 海阳市| 阿巴嘎旗| 象山县| 富裕县| 镇赉县| 阿合奇县| 台中县| 双柏县| 南通市| 军事| 普兰县| 阆中市| 香河县| 苍溪县| 临汾市| 英山县| 朔州市| 浮梁县| 茂名市| 岑溪市| 双牌县|