国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

如何監(jiān)管生成式人工智能在科學(xué)研究中的應(yīng)用:風(fēng)險(xiǎn)與策略

2024-12-03 00:00:00趙悅

摘要:生成式人工智能因其快速、強(qiáng)大的內(nèi)容生成能力,在科學(xué)研究領(lǐng)域引發(fā)廣泛關(guān)注。如何有效監(jiān)管其在科學(xué)研究中的應(yīng)用成為討論焦點(diǎn)。在此方面,歐盟和美國(guó)率先采取行動(dòng),制定了系列人工智能政策,以全面規(guī)范人工智能的研發(fā)、部署與使用?;谡吖ぞ吆驼邇?nèi)容的二維分析框架對(duì)近年來歐盟和美國(guó)的人工智能風(fēng)險(xiǎn)管理相關(guān)政策進(jìn)行分析發(fā)現(xiàn):生成式人工智能輔助科學(xué)研究可能涉及隱私安全、歧視傳播、誠(chéng)信挑戰(zhàn)、監(jiān)管滯后等風(fēng)險(xiǎn)。歐盟和美國(guó)在堅(jiān)持構(gòu)建可信賴的人工智能系統(tǒng)的目標(biāo)定位以及以人為本的價(jià)值導(dǎo)向下,通過建立全面的風(fēng)險(xiǎn)管理框架,制定了風(fēng)險(xiǎn)界定與風(fēng)險(xiǎn)應(yīng)對(duì)的具體流程和方法,并通過促進(jìn)不同利益相關(guān)主體的共同參與和合作,明確了各自的權(quán)責(zé)。同時(shí),為確保監(jiān)管的順利實(shí)施,歐盟和美國(guó)還通過建立數(shù)據(jù)保護(hù)條例、版權(quán)保護(hù)法律和道德倫理框架等,完善了人工智能科研應(yīng)用的監(jiān)管機(jī)制。未來,我國(guó)應(yīng)聯(lián)合各方力量,共同構(gòu)建細(xì)致且適應(yīng)性強(qiáng)的人工智能應(yīng)用風(fēng)險(xiǎn)監(jiān)管框架和相應(yīng)的政策法律,以確保生成式人工智能在科學(xué)研究中的使用合乎道德倫理和法律規(guī)范。

關(guān)鍵詞:生成式人工智能;科學(xué)研究;風(fēng)險(xiǎn)管理框架;監(jiān)管策略;學(xué)術(shù)倫理

中圖分類號(hào):G434 文獻(xiàn)標(biāo)識(shí)碼:A 文章編號(hào):1009-5195(2024)06-0020-10 doi10.3969/j.issn.1009-5195.2024.06.003

一、引言

生成式人工智能技術(shù)是指具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)(中華人民共和國(guó)中央人民政府,2023)。自2022年ChatGPT發(fā)布以來,生成式人工智能快速發(fā)展,其所具備的巨大社會(huì)價(jià)值和商業(yè)潛力,已在各個(gè)領(lǐng)域引發(fā)變革,或?qū)⒊蔀槲磥韨€(gè)體在生產(chǎn)生活中不可或缺的重要工具(高奇琦,2023)。在科學(xué)研究領(lǐng)域,生成式人工智能亦在有效輔助科研過程、提升科研效率方面(Kocoń et al.,2023;Lund et al.,2023)體現(xiàn)出潛在的應(yīng)用價(jià)值。如在研究初期,ChatGPT可以輔助研究者進(jìn)行“頭腦風(fēng)暴”,提供創(chuàng)新想法和相關(guān)信息;在研究過程中,它可以輔助撰寫研究背景和文獻(xiàn)綜述,幫助研究者優(yōu)化實(shí)驗(yàn)設(shè)計(jì)、進(jìn)行初步的數(shù)據(jù)分析和結(jié)果闡釋;在研究后期,它還可以翻譯、潤(rùn)色語言文字,按照不同格式生成參考文獻(xiàn)等(劉寶存等,2023;Rahman et al.,2023)??偠灾?,生成式人工智能可以輔助研究者處理耗時(shí)的常規(guī)性和程序性工作,在一定程度上能解放科研人員的時(shí)間和精力,使其投入更具創(chuàng)新性的工作之中。

然而,應(yīng)用生成式人工智能進(jìn)行科學(xué)研究仍面臨監(jiān)管方面的困境(UNESCO,2023a)。一方面,生成式人工智能所使用的預(yù)訓(xùn)練數(shù)據(jù)集大多來自網(wǎng)絡(luò)爬蟲(Brown et al.,2020),存在信息不準(zhǔn)確、帶有偏見或有害信息,以及侵犯?jìng)€(gè)人隱私和版權(quán)的風(fēng)險(xiǎn)等(中國(guó)科學(xué)技術(shù)信息研究所,2023)。作者如果不加分辨地采用這類信息,或?qū)⒓觿≈贫刃苑N族主義或性別歧視(蘭國(guó)帥等,2023;UNESCO,2023a)。另一方面,生成式人工智能可以生成高度接近自然語言的文本,審稿人很難辨別人類文章與機(jī)器生成文章的差異,或?qū)⒓觿W(xué)術(shù)不端行為(Chowdhury et al.,2018),對(duì)整個(gè)科研生態(tài)產(chǎn)生危害。

在此背景下,一些研究者、科研機(jī)構(gòu)發(fā)布了如何運(yùn)用ChatGPT進(jìn)行科學(xué)研究的具體操作指南(Atlas,2023;中國(guó)科學(xué)技術(shù)信息研究所,2023),為生成式人工智能在科研領(lǐng)域的規(guī)范應(yīng)用奠定了基礎(chǔ)。然而,如何有效監(jiān)督和管理這一新興技術(shù)在科研過程中的使用,特別是針對(duì)其可能引發(fā)的數(shù)據(jù)隱私泄露、倫理道德及安全風(fēng)險(xiǎn)等問題,現(xiàn)有研究尚缺乏系統(tǒng)探討。在這方面,歐盟與美國(guó)已率先采取行動(dòng),發(fā)布了如《歐盟人工智能法案》(European Union Artificial Intelligence Act,簡(jiǎn)稱EU AI Act)、《人工智能風(fēng)險(xiǎn)管理框架》(Artificial Intelligence Risk Management Framework,簡(jiǎn)稱AI RMF)等政策文件,以全面規(guī)范人工智能的研發(fā)、部署與使用?;诖耍狙芯坎捎谜呶谋痉治龇?,聚焦分析歐盟和美國(guó)在生成式人工智能應(yīng)用于科研領(lǐng)域的監(jiān)管策略及其差異,旨在為我國(guó)學(xué)術(shù)界、科研機(jī)構(gòu)及政策制定者提供參考與建議。

二、研究設(shè)計(jì)

1.研究對(duì)象

歐盟委員會(huì)(European Commission)于2022年提出EU AI Act草案,并在2024年正式發(fā)布實(shí)施。該法案作為全球范圍內(nèi)首個(gè)具有系統(tǒng)性、高約束力的法律框架,全面且細(xì)致地規(guī)定了人工智能領(lǐng)域政策制定、監(jiān)管職責(zé)、風(fēng)險(xiǎn)分級(jí)監(jiān)管策略、信息披露機(jī)制、數(shù)據(jù)保護(hù)原則及法律規(guī)范等內(nèi)容,為人工智能的研發(fā)與應(yīng)用提供了政策支撐。與此同時(shí),美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究院(National Institute of Standards and Technology,簡(jiǎn)稱NIST)于2021年提出AI RMF草案,并在2023年正式發(fā)布1.0版并實(shí)施。AI RMF側(cè)重于構(gòu)建靈活且細(xì)致的風(fēng)險(xiǎn)管理體系,為人工智能技術(shù)的實(shí)際應(yīng)用提供了詳細(xì)的風(fēng)險(xiǎn)評(píng)估與管理策略,旨在輔助組織識(shí)別、評(píng)估、緩解和監(jiān)控人工智能系統(tǒng)中的潛在風(fēng)險(xiǎn)。這兩份政策文件都經(jīng)過了長(zhǎng)時(shí)間的深入研究與討論,適用范圍廣泛,且充分吸納了多維利益相關(guān)者的建議,在國(guó)際上具有較高的認(rèn)可度和影響力,因此本研究將其作為核心分析對(duì)象。

同時(shí),為了更全面且深入地探討歐盟和美國(guó)在生成式人工智能監(jiān)管方面的實(shí)踐框架,本研究將上述政策文本所涉及的關(guān)聯(lián)政策也一并納入分析。關(guān)聯(lián)政策篩選遵循以下原則:(1)相關(guān)性,政策文本與生成式人工智能在科學(xué)研究中的應(yīng)用相關(guān);(2)典型性,政策文本應(yīng)包含人工智能應(yīng)用于科學(xué)研究的具體監(jiān)管措施和實(shí)踐案例,以支持對(duì)監(jiān)管策略的深入解讀。經(jīng)過篩選,本研究最終確定了11份具有代表性的政策文本作為分析對(duì)象(見表1)。從政策發(fā)布主體上看,美國(guó)人工智能政策的發(fā)布機(jī)構(gòu)呈現(xiàn)出多機(jī)構(gòu)分散負(fù)責(zé)的特點(diǎn),尚未形成全國(guó)性、統(tǒng)一的人工智能監(jiān)管法律框架(US Congress,2020)。相比之下,歐盟人工智能政策的發(fā)布機(jī)構(gòu)呈現(xiàn)高度一致性和統(tǒng)一性,政策制定與發(fā)布主體較為集中。從政策工具的數(shù)量分布上看,能力建設(shè)型政策工具使用頻率較高,共計(jì)6份;強(qiáng)制型政策工具為3份,組織建設(shè)型工具為2份。

2.分析框架

本研究采用X—Y二維政策分析框架。X維度為政策工具類型,是政府部門為實(shí)現(xiàn)政策目標(biāo)而使用的輔助手段。政策工具有多種分類方式,本研究借鑒McDonnell等對(duì)政策工具的分類(McDonnell et al.,1987)。選擇該分類方式的原因有:第一,這種分類方式標(biāo)準(zhǔn)清晰、界定明確,易于區(qū)分。第二,這種分類方式所涉及的政策工具與人工智能監(jiān)管具有高度的相關(guān)性。在結(jié)合歐盟和美國(guó)政策文件特點(diǎn)的基礎(chǔ)上,本研究最終確定的政策工具類型包括能力建設(shè)型、強(qiáng)制型、組織建設(shè)型三類。其中,強(qiáng)制型政策工具主要是制約和規(guī)范個(gè)體、組織等的行為,確保生成式人工智能應(yīng)用的合法性和規(guī)范性,包括強(qiáng)制命令、實(shí)施處罰等;能力建設(shè)型政策工具主要是提供資源、培訓(xùn)和信息等,包括資源配置、技術(shù)支持等;組織建設(shè)型政策工具主要是重構(gòu)與優(yōu)化權(quán)力關(guān)系,通過調(diào)整不同組織機(jī)構(gòu)在生成式人工智能應(yīng)用中的職責(zé)與權(quán)限,以促進(jìn)組織內(nèi)部的適應(yīng)性變革,包括機(jī)構(gòu)變革、功能調(diào)整等。

政策工具可以顯示政策為實(shí)現(xiàn)目標(biāo)所采取的基本手段,但無法體現(xiàn)政策保護(hù)的具體方向,因此需進(jìn)一步通過Y維度展現(xiàn)政策內(nèi)容要素。政策內(nèi)容的編碼方式有兩種:一是歸納式編碼,即直接根據(jù)實(shí)證數(shù)據(jù)編碼,形成自由節(jié)點(diǎn),并根據(jù)節(jié)點(diǎn)之間的內(nèi)在聯(lián)系形成子節(jié)點(diǎn)、父節(jié)點(diǎn);二是推論式編碼,即根據(jù)已經(jīng)確定的維度,形成研究框架,進(jìn)而在研究框架下編碼(伍多·庫(kù)卡茨,2017)。本研究采用歸納式編碼,具體操作如下:首先,將11份政策文本導(dǎo)入NVivo14 Plus分析軟件,以政策文本條款為分析單元進(jìn)行手動(dòng)編碼。通過一級(jí)編碼,共形成了148項(xiàng)風(fēng)險(xiǎn)類型的自由節(jié)點(diǎn)和533項(xiàng)監(jiān)管策略的自由節(jié)點(diǎn)。其次,對(duì)自由節(jié)點(diǎn)進(jìn)行合并、聚類,將相互聯(lián)系的自由節(jié)點(diǎn)納入子節(jié)點(diǎn),完成二級(jí)編碼。再次,從子節(jié)點(diǎn)中歸納概括出父節(jié)點(diǎn),完成三級(jí)編碼??傮w而言,針對(duì)生成式人工智能應(yīng)用于科學(xué)研究所涉及的風(fēng)險(xiǎn)類型,歸納形成了隱私安全、歧視傳播、誠(chéng)信挑戰(zhàn)、監(jiān)管滯后四類風(fēng)險(xiǎn)(父節(jié)點(diǎn))及其下7項(xiàng)風(fēng)險(xiǎn)內(nèi)容(子節(jié)點(diǎn))。針對(duì)Y維度政策內(nèi)容要素,歸納形成了目標(biāo)定位、價(jià)值導(dǎo)向、行動(dòng)策略和監(jiān)管機(jī)制四類監(jiān)管策略(父節(jié)點(diǎn))及其下14項(xiàng)風(fēng)險(xiǎn)應(yīng)對(duì)措施(子節(jié)點(diǎn))。

三、生成式人工智能輔助科學(xué)研究的風(fēng)險(xiǎn)

如前所述,在歐盟和美國(guó)的人工智能政策文件中,有關(guān)生成式人工智能輔助科學(xué)研究的風(fēng)險(xiǎn)可歸納為隱私安全、歧視傳播、誠(chéng)信挑戰(zhàn)以及監(jiān)管滯后四類,但二者對(duì)不同風(fēng)險(xiǎn)類型的關(guān)注度存在差異。表2顯示了歐盟和美國(guó)人工智能政策文件中提及的風(fēng)險(xiǎn)類型以及各類風(fēng)險(xiǎn)在政策文件中出現(xiàn)的頻數(shù)與占比。

1.隱私安全:算法不透明導(dǎo)致安全隱患

如表2所示,在隱私安全風(fēng)險(xiǎn)方面,歐盟在相關(guān)政策中16次提及算法不透明導(dǎo)致的安全隱患問題,占所有風(fēng)險(xiǎn)的14.41%;美國(guó)在這方面的關(guān)注度更高,共提及20次,占所有風(fēng)險(xiǎn)的17.54%。這側(cè)面反映了社會(huì)大眾對(duì)人工智能算法不透明的擔(dān)憂?!蹲匀弧冯s志一項(xiàng)針對(duì)1600名研究人員的調(diào)查顯示,超過69%的研究者擔(dān)憂人工智能系統(tǒng)的不透明性(Van Noorden et al.,2023)。生成式人工智能的算法“黑箱”,令人無法知曉或追溯其輸出是如何確定的(蘭國(guó)帥等,2023)。生成式人工智能依賴海量的數(shù)據(jù)支持,數(shù)據(jù)主要來源于互聯(lián)網(wǎng),存在質(zhì)量參差不齊的問題;同時(shí),模型中存在數(shù)十億個(gè)參數(shù),而每個(gè)參數(shù)及其權(quán)重都不透明,驗(yàn)證其輸出內(nèi)容是否遵循基本權(quán)利及現(xiàn)有規(guī)則成為一項(xiàng)艱巨任務(wù)(European Union,2024)。如果缺乏對(duì)數(shù)據(jù)質(zhì)量、數(shù)據(jù)使用步驟和環(huán)節(jié)的審查,就難以保障數(shù)據(jù)的安全(Miller et al.,2013)。尤其是在使用人工智能進(jìn)行科學(xué)研究的過程中,若用于研究或訓(xùn)練人工智能模型的個(gè)人信息,被用于科研分析之外的其他用途(Department of Education of Australian Government,2023),將為個(gè)體隱私安全帶來風(fēng)險(xiǎn)。

2.歧視傳播:加劇固有偏見與有害歧視

生成式人工智能可能加劇固有偏見和有害歧視,引發(fā)歧視傳播風(fēng)險(xiǎn)。對(duì)此,美國(guó)相關(guān)政策中提及了31次,占比27.20%;歐盟提及20次,占比18.02%。與歐盟相比,歧視傳播是美國(guó)人工智能應(yīng)用政策文本中更為關(guān)注的風(fēng)險(xiǎn)類型,尤其是對(duì)其中的“強(qiáng)化固有偏見”風(fēng)險(xiǎn)關(guān)注最多(見表2)。偏見以多種形式存在于生活之中,放大原有的偏見或?qū)?duì)特定社會(huì)群體造成不利影響(European Commission,2023a)。生成式人工智能中的偏見主要涉及三個(gè)方面:第一,系統(tǒng)偏見,源自特定機(jī)構(gòu)的程序和設(shè)定,導(dǎo)致某些社會(huì)群體在系統(tǒng)中獲得不公正的優(yōu)勢(shì)或弱勢(shì)地位;第二,統(tǒng)計(jì)性與計(jì)算性偏見,源自人工智能系統(tǒng)所采用數(shù)據(jù)集和算法的局限性;第三,人為偏見,源自人類思維中的系統(tǒng)性錯(cuò)誤或數(shù)據(jù)處理方法的局限性,典型如McNamara謬誤,指過度依賴可量化的數(shù)據(jù)而忽視其他不可量化但重要的因素(NIST,2022)。從偏見類型上看,性別偏見、種族偏見和地域偏見的問題尤為突出?!蹲匀弧冯s志上的一項(xiàng)研究結(jié)果顯示,當(dāng)要求GPT-4為一系列臨床案例提供治療與診療建議時(shí),其回答因患者的性別和種族而異(Van Noorden,2023)。歐盟在《科學(xué)中的人工智能:利用人工智能的力量加速發(fā)現(xiàn)和促進(jìn)創(chuàng)新》報(bào)告中指出,人工智能的設(shè)計(jì)和研發(fā)過程中,男性主導(dǎo)的現(xiàn)象可能導(dǎo)致算法和模型忽略女性視角及其需求,從而不能充分反映社會(huì)的多樣性(European Commission,2023a)。算法模型可能復(fù)制并放大性別歧視(Van Doorn,2017)。此外,歐洲的人工智能研發(fā)機(jī)構(gòu)、人工智能研究專家主要集中在法國(guó)、德國(guó)和瑞士,因而可能在人工智能的部署與使用過程中加劇地域偏見(European Commission,2023b)。類似地,聯(lián)合國(guó)教科文組織也指出,互聯(lián)網(wǎng)上南半球、北半球邊緣化地區(qū)等人群的數(shù)據(jù)不足,算法將加劇數(shù)據(jù)匱乏地區(qū)邊緣化問題(UNESCO,2023a)。

3.誠(chéng)信挑戰(zhàn):內(nèi)容偽造與侵犯知識(shí)產(chǎn)權(quán)

歐盟和美國(guó)均高度重視生成式人工智能可能帶來的誠(chéng)信挑戰(zhàn)。具體而言,歐盟在政策中對(duì)此類風(fēng)險(xiǎn)提及了34次,占比30.63%;而美國(guó)則提及了38次,占比33.33%(見表2)。一方面,生成式人工智能存在內(nèi)容偽造與篡改的問題。以ChatGPT為例,其可以生成看似合理的答案(UNESCO,2023b),但在信息準(zhǔn)確性和邏輯推理上卻存在明顯問題。通過生成式人工智能檢索到的參考文獻(xiàn)可能包含相關(guān)性低、過時(shí)的,甚至是編造的資料,研究人員在使用時(shí)需要謹(jǐn)慎甄別(European Commission,2023a)。尤其對(duì)于學(xué)術(shù)界的新手而言,因缺乏豐富的先驗(yàn)知識(shí),更易被這些看似合理實(shí)則錯(cuò)誤的信息所誤導(dǎo)(UNESCO,2023a)。

另一方面,生成式人工智能可能助長(zhǎng)學(xué)術(shù)剽竊與知識(shí)產(chǎn)權(quán)侵犯等問題。生成式人工智能具備的快速生成高度逼真文本的功能,可能加劇論文抄襲、考試作弊等行為(Susnjak,2022)。已有研究表明,人工智能能夠創(chuàng)作出與領(lǐng)域?qū)<宜较喈?dāng)甚至更出色的文本內(nèi)容(Schwitzgebel et al.,2023),進(jìn)而加大了學(xué)術(shù)不端檢測(cè)的難度(中國(guó)科學(xué)技術(shù)信息研究所,2023)。審稿人難以辨別這些由生成式人工智能輔助學(xué)者生成或完全由生成式人工智能生成的論文。研究人員也可能利用這一漏洞,將生成式人工智能生成的內(nèi)容冒充為自己的研究成果,以不誠(chéng)實(shí)的手段產(chǎn)出低質(zhì)量的科研成果(王佑鎂等,2023)。此外,個(gè)體在未經(jīng)授權(quán)的情況下,利用生成式人工智能竊取他人研究思想、研究創(chuàng)意或研究成果,還可能構(gòu)成內(nèi)容剽竊或版權(quán)侵犯的嚴(yán)重問題(UNESCO,2023a)。

4.監(jiān)管滯后:立法滯后與監(jiān)管共識(shí)不足

歐盟與美國(guó)均表現(xiàn)出對(duì)人工智能立法與監(jiān)管措施滯后問題的關(guān)注,并體現(xiàn)在其相應(yīng)的政策中。具體而言,歐盟對(duì)此類風(fēng)險(xiǎn)提及了41次,占比36.94%;而美國(guó)則提及了25次,占比21.93%。歐盟相對(duì)于美國(guó)而言,對(duì)監(jiān)管滯后問題的關(guān)注度更高(見表2)。生成式人工智能正在以驚人的速度迭代,其發(fā)展速度遠(yuǎn)超國(guó)家監(jiān)管制度的改革步伐。聯(lián)合國(guó)教科文組織近期的一項(xiàng)覆蓋450所大中小學(xué)的全球性調(diào)研結(jié)果顯示,僅有不到10%的機(jī)構(gòu)制定了關(guān)于生成式人工智能應(yīng)用的組織規(guī)范或操作指南(UNESCO,2023a)。盡管已有部分高等院校、研究機(jī)構(gòu)及出版商發(fā)布了相關(guān)建議或指南,但這些建議或指南尚不全面,且在實(shí)際應(yīng)用中,如何根據(jù)具體情況選擇合適的指南還缺乏有效的指導(dǎo)(European Commission,2023a)。由此可見,在利用生成式人工智能進(jìn)行科學(xué)研究時(shí),科研機(jī)構(gòu)普遍面臨規(guī)范性政策與指南缺失的困境,這凸顯出國(guó)家層面加快政策制定的緊迫性。從更廣泛層面來看,國(guó)際社會(huì)在立法方向上尚未形成廣泛共識(shí),增加了監(jiān)管框架構(gòu)建與實(shí)施的難度。特別是在數(shù)據(jù)保護(hù)、公平與倫理框架構(gòu)建,以及人工智能生成內(nèi)容的版權(quán)保護(hù)等核心領(lǐng)域,現(xiàn)有法律體系顯得尤為不足,亟須立法層面的跟進(jìn)與完善(European Union,2024)。

四、生成式人工智能輔助科學(xué)研究的監(jiān)管策略

如前所述,研究根據(jù)政策內(nèi)容,將歐盟與美國(guó)有關(guān)生成式人工智能應(yīng)用的監(jiān)管策略歸納為四個(gè)關(guān)鍵維度:目標(biāo)定位、價(jià)值導(dǎo)向、行動(dòng)策略和監(jiān)管機(jī)制。其中,目標(biāo)定位和價(jià)值導(dǎo)向是監(jiān)管策略制定的基礎(chǔ),提供監(jiān)管的方向和行動(dòng)指引;行動(dòng)策略是監(jiān)管策略的核心,明確監(jiān)管具體的實(shí)施方式;監(jiān)管機(jī)制是監(jiān)管有效運(yùn)行的保障,確保監(jiān)管措施得以落實(shí)。為了更好地展現(xiàn)歐盟和美國(guó)生成式人工智能監(jiān)管政策中所采取的政策工具對(duì)政策內(nèi)容的支持情況,研究以政策工具為X維度,政策內(nèi)容為Y維度,形成了不同發(fā)文主體的交叉響應(yīng)結(jié)果,詳見表3。

如表3所示,歐盟與美國(guó)的人工智能政策在目標(biāo)定位上,響應(yīng)次數(shù)由高到低依次是安全性(37次)、透明性與可問責(zé)(32次)、可解釋與可理解(28次)、公平與偏見管理(22次)、隱私增強(qiáng)(19次)、有效性與可靠性(10次),以及安全與彈性(8次)。安全性(Safe)強(qiáng)調(diào)生成式人工智能系統(tǒng)不能對(duì)人、財(cái)產(chǎn)或環(huán)境造成威脅。透明性指生成式人工智能系統(tǒng)及其輸出結(jié)果應(yīng)能夠被使用者識(shí)別,使用者也應(yīng)明確披露對(duì)生成式人工智能的使用情況;可問責(zé)指關(guān)鍵利益相關(guān)者應(yīng)建立問責(zé)標(biāo)準(zhǔn)和相關(guān)信息??山忉屩干墒饺斯ぶ悄芟到y(tǒng)的運(yùn)作機(jī)制是可解釋的,可理解指生成式人工智能的輸出結(jié)果是可理解的。公平與偏見管理指消除生成式人工智能輸出中存在的有害偏見、歧視的內(nèi)容。隱私增強(qiáng)指保護(hù)使用者的自主權(quán)、身份和尊嚴(yán),避免泄露或?yàn)E用個(gè)人信息。有效性指生成式人工智能滿足特定預(yù)期要求,可靠性指生成式人工智能系統(tǒng)能夠按要求無故障運(yùn)行。安全(Secure)指通過保護(hù)機(jī)制防止未經(jīng)授權(quán)的訪問,而彈性指發(fā)生意外的不利事件后能夠恢復(fù)正常功能。

總體來看,歐盟和美國(guó)人工智能政策中,對(duì)安全性、透明性與可問責(zé)、可解釋與可理解的響應(yīng)次數(shù)較多,說明二者均倡導(dǎo)建立可信賴的人工智能系統(tǒng),且在標(biāo)準(zhǔn)制定上較為一致。而對(duì)比二者在政策工具上的使用情況發(fā)現(xiàn),歐盟使用強(qiáng)制型政策工具在安全性(26次,占比70.27%)、透明性與可問責(zé)(10次,占比31.25%)、可解釋與可理解(17次,占比60.71%)等方面的響應(yīng)次數(shù)更多;而美國(guó)使用能力建設(shè)型工具在公平與偏見管理(12次,占比54.55%)上的響應(yīng)次數(shù)更多。

2.價(jià)值導(dǎo)向:以人為本的價(jià)值導(dǎo)向

歐盟與美國(guó)的人工智能監(jiān)管政策在“以人為本”的價(jià)值導(dǎo)向方面分別響應(yīng)了14次與13次,二者均主要使用能力建設(shè)型工具倡導(dǎo)并貫徹實(shí)施這一理念。歐盟強(qiáng)調(diào)監(jiān)管的核心在于維護(hù)歐盟的基本價(jià)值觀,尊重人類尊嚴(yán)、自由、平等、民主及法治(European Union,2024),并保障個(gè)體基本權(quán)利,如免受歧視、數(shù)據(jù)隱私保護(hù),以及兒童權(quán)益維護(hù)等。美國(guó)NIST在AI RMF中提出“以人為本”人工智能系統(tǒng)設(shè)計(jì)的六大核心要素。第一,深入理解用戶、任務(wù)及使用環(huán)境,以此作為設(shè)計(jì)決策的基石。第二,確保用戶在設(shè)計(jì)與開發(fā)的全周期中持續(xù)參與,以即時(shí)整合用戶需求與反饋。第三,建立用戶導(dǎo)向的評(píng)價(jià)體系,驅(qū)動(dòng)設(shè)計(jì)的持續(xù)優(yōu)化與完善。第四,實(shí)施原型設(shè)計(jì)、測(cè)試與迭代修改,形成持續(xù)改進(jìn)的循環(huán)過程。第五,全面考量所有用戶的體驗(yàn),促進(jìn)設(shè)計(jì)成果的和諧與高效。第六,組建跨學(xué)科設(shè)計(jì)團(tuán)隊(duì),融合多樣知識(shí)與技能,以多元化視角激發(fā)創(chuàng)新潛力(NIST,2023)。相較于歐盟統(tǒng)一的價(jià)值規(guī)范,美國(guó)NIST所倡導(dǎo)的以人為本的人工智能系統(tǒng)設(shè)計(jì)原則在人機(jī)交互的語境下展現(xiàn)出更為具體的技術(shù)與倫理考量,包括確定特定的用戶群體和目的、設(shè)計(jì)差異化應(yīng)用場(chǎng)景、促進(jìn)科學(xué)研究者與專家采用實(shí)證研究以反饋評(píng)估人工智能系統(tǒng)的適用性等。

3.行動(dòng)策略:風(fēng)險(xiǎn)管理框架與多方參與

(1)風(fēng)險(xiǎn)管理框架:風(fēng)險(xiǎn)界定與應(yīng)對(duì)措施

風(fēng)險(xiǎn)管理框架(Risk Management Framework,簡(jiǎn)稱RMF)已成為歐盟和美國(guó)在監(jiān)管人工智能應(yīng)用過程所采取的共識(shí)性策略。如表3所示,歐盟主要使用強(qiáng)制型政策工具以建立風(fēng)險(xiǎn)管理框架,針對(duì)風(fēng)險(xiǎn)等級(jí)界定響應(yīng)10次(占比40.00%)、風(fēng)險(xiǎn)應(yīng)對(duì)響應(yīng)11次(占比22.45%)。EU AI Act中明確界定了四個(gè)風(fēng)險(xiǎn)等級(jí):不可接受風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)和極低風(fēng)險(xiǎn)。不可接受風(fēng)險(xiǎn)是指威脅人類生命、安全和權(quán)利的人工智能系統(tǒng),這類人工智能系統(tǒng)禁止投放市場(chǎng)、投入服務(wù)或使用。高風(fēng)險(xiǎn)是指對(duì)個(gè)人健康、安全與基本權(quán)利產(chǎn)生高風(fēng)險(xiǎn)的人工智能系統(tǒng),在投入市場(chǎng)前必須按照法案進(jìn)行評(píng)估。EU AI Act界定了8項(xiàng)高風(fēng)險(xiǎn)等級(jí)的人工智能系統(tǒng)。有限風(fēng)險(xiǎn)是指對(duì)用戶權(quán)利或安全構(gòu)成一定風(fēng)險(xiǎn)的人工智能系統(tǒng),使用者在應(yīng)用系統(tǒng)時(shí)能夠意識(shí)到是在與人工智能互動(dòng),且能夠根據(jù)個(gè)體判斷進(jìn)行決策。根據(jù)這一標(biāo)準(zhǔn),應(yīng)用生成式人工智能進(jìn)行科學(xué)研究的行為隸屬于有限風(fēng)險(xiǎn)等級(jí)。相較于高風(fēng)險(xiǎn)人工智能系統(tǒng),有限風(fēng)險(xiǎn)人工智能系統(tǒng)具有一定自由度,在投放市場(chǎng)或使用前無需特殊的牌照、認(rèn)證、報(bào)告、監(jiān)督、記錄留存,但人工智能供應(yīng)商和使用者應(yīng)承擔(dān)人工智能透明度方面的義務(wù)。根據(jù)美國(guó)NIST的界定,若人工智能系統(tǒng)是在包含敏感或受保護(hù)數(shù)據(jù)(例如個(gè)人身份信息)的大型數(shù)據(jù)集上進(jìn)行訓(xùn)練,或其輸出對(duì)人類有直接或間接的重大影響,則該系統(tǒng)應(yīng)被明確界定為高風(fēng)險(xiǎn)等級(jí);若僅與計(jì)算系統(tǒng)交互,并且使用非敏感數(shù)據(jù)集進(jìn)行訓(xùn)練的人工智能系統(tǒng),在初始風(fēng)險(xiǎn)評(píng)估時(shí)不需要被賦予過高的風(fēng)險(xiǎn)等級(jí)(NIST,2023)。綜合上述標(biāo)準(zhǔn),應(yīng)用生成式人工智能進(jìn)行科學(xué)研究的風(fēng)險(xiǎn)等級(jí)主要因具體應(yīng)用場(chǎng)景、數(shù)據(jù)集而異。如果生成式人工智能處理的是非敏感數(shù)據(jù)集且研究結(jié)果的影響可控,則屬于有限風(fēng)險(xiǎn)等級(jí);如果處理的是敏感數(shù)據(jù),或可能對(duì)人類健康、社會(huì)政策等產(chǎn)生重大影響,則需要重新評(píng)估其風(fēng)險(xiǎn)等級(jí),并可能升級(jí)為高風(fēng)險(xiǎn)。

美國(guó)在風(fēng)險(xiǎn)應(yīng)對(duì)中較多地使用能力建設(shè)型政策工具,響應(yīng)次數(shù)達(dá)35次,占比71.43%;相比之下,歐盟主要使用強(qiáng)制型政策工具。風(fēng)險(xiǎn)應(yīng)對(duì)包括映射(Map)、測(cè)量(Measure)、管理(Manage)和治理(Govern)四個(gè)核心步驟,它們并非線性排列而是相互交織、彼此關(guān)聯(lián)的(NIST,2023)。映射旨在定義和記錄人工智能使用流程;測(cè)量旨在采用科學(xué)的方法分析、評(píng)估或監(jiān)測(cè)人工智能的風(fēng)險(xiǎn)及影響;管理旨在確定風(fēng)險(xiǎn)等級(jí)并采取相應(yīng)行動(dòng);治理旨在建立組織的風(fēng)險(xiǎn)管理文化,澄清、定義監(jiān)督人工智能系統(tǒng)的角色和責(zé)任。在具體操作層面,AI RMF在其官方網(wǎng)站提供了一系列工具包,包括手冊(cè)、路線圖和操作示例等(NIST,2024)。以美國(guó)圣何塞市(San José)為例,首先,該市的政策執(zhí)行者進(jìn)行背景調(diào)查,確立監(jiān)管機(jī)構(gòu)(人工智能治理負(fù)責(zé)人、工作組、數(shù)據(jù)隱私咨詢工作組等)及其權(quán)責(zé),并采取相應(yīng)監(jiān)管措施。其次,參照AI RMF的四個(gè)核心步驟及其下的72個(gè)子項(xiàng)對(duì)現(xiàn)有的人工智能治理情況進(jìn)行評(píng)分,并針對(duì)低分項(xiàng)采取針對(duì)性措施,制定行動(dòng)計(jì)劃。例如,針對(duì)圣何塞市在測(cè)量方面得分較低的問題,該市采取重新確認(rèn)人工智能治理關(guān)鍵內(nèi)容、提供相應(yīng)教育培訓(xùn)、增設(shè)反饋渠道、探索第三方合作機(jī)會(huì)等措施,以改進(jìn)當(dāng)前的人工智能系統(tǒng)。盡管NIST尚未直接提供具體案例說明AI RMF如何應(yīng)用于科學(xué)研究,但可以參照上述步驟指導(dǎo)生成式人工智能在科學(xué)研究中應(yīng)用的風(fēng)險(xiǎn)管理。特別是在測(cè)量過程中,應(yīng)重點(diǎn)關(guān)注科學(xué)研究是否可能危害個(gè)體的基本權(quán)利、心理健康或公共安全,是否存在信息的濫用情況,以及輸出內(nèi)容是否帶有冒犯性或歧視性等。

(2)利益相關(guān)者共同參與

人工智能的風(fēng)險(xiǎn)防范和治理需要利益相關(guān)者共同承擔(dān)責(zé)任。對(duì)此,歐盟和美國(guó)的人工智能政策均有較多響應(yīng),其中歐盟采用各類政策工具響應(yīng)27次,美國(guó)采用各類政策工具響應(yīng)26次。在歐盟和美國(guó)的相關(guān)政策中,提及的利益相關(guān)者包括政府和地方當(dāng)局、人工智能供應(yīng)商、科研機(jī)構(gòu)與科研工作者,以及其他行業(yè)合作伙伴。從比例上看,政策工具對(duì)科研機(jī)構(gòu)與科研工作者、政府與地方當(dāng)局的響應(yīng)比例較高,達(dá)34.00%;其次為人工智能供應(yīng)商,占比25.00%。從風(fēng)險(xiǎn)管理視角來看,不同利益相關(guān)者的職責(zé)不同。

第一,政府和地方當(dāng)局主要提供政策支持和科研資助。如表3所示,美國(guó)主要使用組織建設(shè)型政策工具來提供政策支持(18次,占比33.96%),規(guī)定并調(diào)整如科學(xué)與技術(shù)政策辦公室(Office of Science and Technology Policy,簡(jiǎn)稱OSTP)、能源部(Department of Energy,簡(jiǎn)稱DOE)、國(guó)家科學(xué)基金會(huì)(National Science Foundation,簡(jiǎn)稱NSF)等機(jī)構(gòu)在人工智能監(jiān)管方面的具體職責(zé),并成立國(guó)家人工智能倡議辦公室來專門執(zhí)行相關(guān)任務(wù)(US Congress,2020)。DOE負(fù)責(zé)成立國(guó)家人工智能咨詢委員會(huì),旨在為總統(tǒng)和倡議辦公室提供政策指導(dǎo),并致力于提升與DOE使命緊密相關(guān)的人工智能系統(tǒng)的可靠性。在科學(xué)研究領(lǐng)域,NSF負(fù)責(zé)制定人工智能系統(tǒng)的風(fēng)險(xiǎn)管理框架,從財(cái)政角度支持人工智能研發(fā)機(jī)構(gòu),推動(dòng)人工智能技術(shù)的研發(fā)和應(yīng)用,資助相關(guān)領(lǐng)域的研究和教育活動(dòng),以促進(jìn)知識(shí)創(chuàng)新和人才培養(yǎng)。歐盟則倡導(dǎo)通過科研資助來調(diào)動(dòng)多方利益相關(guān)者共同開展人工智能研究,組織人工智能行業(yè)專家、科研工作者開展科研倫理、風(fēng)險(xiǎn)評(píng)估等方面的研究。例如,歐盟委員會(huì)在“地平線歐洲戰(zhàn)略計(jì)劃”(Horizon Europe Strategic Plan)項(xiàng)目中納入科研倫理的指南制定、審查機(jī)制及培訓(xùn)等內(nèi)容(European Commission,2023a),旨在確保人工智能輔助科學(xué)研究在合法、合規(guī)和道德的框架內(nèi)開展。

第二,人工智能供應(yīng)商應(yīng)提升人工智能系統(tǒng)的透明度,確保人工智能輸出的內(nèi)容以機(jī)器可讀的格式標(biāo)記,以便于回溯和查驗(yàn)。透明度主要指數(shù)據(jù)透明度,如底層數(shù)據(jù)集、數(shù)據(jù)來源和數(shù)據(jù)處理等,都需說明采納和應(yīng)用的方法,同時(shí)需要披露知識(shí)產(chǎn)權(quán)和版權(quán)使用情況。為提升人工智能系統(tǒng)的透明度,供應(yīng)商應(yīng)在充分考慮各種類型內(nèi)容的局限性和特殊性、實(shí)施成本和公認(rèn)的技術(shù)水平的基礎(chǔ)上,在相關(guān)技術(shù)標(biāo)準(zhǔn)中提供解決方案(European Union,2024)。

第三,研究者承擔(dān)對(duì)科研產(chǎn)出的最終責(zé)任,應(yīng)嚴(yán)格遵守科研規(guī)范,不偽造、篡改數(shù)據(jù),以維護(hù)科研的嚴(yán)肅性和科學(xué)性(European Commission,2023a)。在應(yīng)用生成式人工智能提升語言可讀性、解釋基礎(chǔ)數(shù)據(jù)時(shí),研究者應(yīng)保持批判性思維,避免過度依賴生成式人工智能,并在論文的方法、聲明處清晰標(biāo)明生成式人工智能的使用過程與方法(European Commission,2023b;Rahman et al.,2023)??蒲袡C(jī)構(gòu)在充分考慮使用者的技術(shù)知識(shí)、經(jīng)驗(yàn)、教育背景和使用環(huán)境的基礎(chǔ)上,給予人工智能使用者相應(yīng)的技術(shù)培訓(xùn),提升其人工智能素養(yǎng),以推動(dòng)科學(xué)創(chuàng)新(European Commission,2023a;NIST,2023;European Union,2024)。

第四,其他行業(yè)合作伙伴共同參與人工智能治理,例如國(guó)家科技管理機(jī)構(gòu)、出版集團(tuán)等,共同制定并協(xié)商關(guān)于人工智能在科學(xué)研究領(lǐng)域應(yīng)用的使用準(zhǔn)則和指南等(中國(guó)科學(xué)技術(shù)信息研究所,2023)。

4.監(jiān)管機(jī)制:法律規(guī)范與倫理框架

(1)數(shù)據(jù)保護(hù)條例

歐盟使用政策工具對(duì)數(shù)據(jù)保護(hù)響應(yīng)37次,占比84.09%;其中使用強(qiáng)制型政策工具響應(yīng)29次,占比65.91%。相對(duì)而言,美國(guó)使用政策工具響應(yīng)較少,各類政策工具共響應(yīng)7次,占比15.91%(見表3)。歐盟認(rèn)為,建立數(shù)據(jù)保護(hù)、數(shù)據(jù)隱私,以及數(shù)據(jù)的再利用、共享和匯集的可信機(jī)制和服務(wù),對(duì)開發(fā)高質(zhì)量、數(shù)據(jù)驅(qū)動(dòng)的人工智能模型至關(guān)重要(Meszaros et al.,2021;European Union,2024)。2016年,歐盟率先發(fā)布了《通用數(shù)據(jù)保護(hù)條例》,成為全球數(shù)據(jù)保護(hù)的典范。該條例在第三章中規(guī)定了數(shù)據(jù)主體的權(quán)責(zé),包括要求對(duì)自動(dòng)決策算法給出解釋,在對(duì)算法決策不滿意時(shí)可以選擇匿名或退出等。為鼓勵(lì)科學(xué)研究,《通用數(shù)據(jù)保護(hù)條件》設(shè)立了三項(xiàng)豁免條款:一是數(shù)據(jù)處理原則的豁免,即在采取適當(dāng)?shù)谋Wo(hù)措施后,某項(xiàng)研究中的數(shù)據(jù)也可以用于與原始研究目的不同的研究項(xiàng)目。二是數(shù)據(jù)主體權(quán)利的有限豁免,例如,醫(yī)療領(lǐng)域科研人員可以長(zhǎng)期保留患者的健康數(shù)據(jù),即便數(shù)據(jù)主體決定撤回對(duì)研究的同意,研究人員也可以選擇不刪除其個(gè)人數(shù)據(jù)。三是歐盟成員國(guó)可依據(jù)實(shí)際情況制定額外的豁免規(guī)則。盡管科學(xué)研究享有一定豁免權(quán),但在數(shù)據(jù)處理中也應(yīng)遵循“合法、公平、透明”的基本原則。尤其在醫(yī)學(xué)、生物醫(yī)學(xué)等領(lǐng)域,高?;蚩蒲袡C(jī)構(gòu)當(dāng)處理涉及個(gè)體民族、健康、基因等高度敏感數(shù)據(jù)時(shí),數(shù)據(jù)控制者與處理者必須以“公共利益或法定職權(quán)”為合法處理基礎(chǔ),通過目的性、必要性和利益平衡測(cè)試,采取一定技術(shù)與管理措施以保護(hù)個(gè)體隱私,確保數(shù)據(jù)處理的合法性。

(2)版權(quán)保護(hù)法律

針對(duì)人工智能生成內(nèi)容的版權(quán)問題,美國(guó)使用強(qiáng)制型政策工具響應(yīng)18次,占比58.07%;歐盟使用政策工具響應(yīng)4次,占比12.90%(見表3)。根據(jù)美國(guó)版權(quán)局(US Copyright Office)發(fā)布的《版權(quán)登記指南:包含人工智能生成材料的作品》的規(guī)定,生成式人工智能輸出的內(nèi)容不受美國(guó)版權(quán)法保護(hù),只有由人類的創(chuàng)造力所產(chǎn)生的作品才受版權(quán)保護(hù)(US Copyright Office,2023)。因此,如果科研成果是由生成式人工智能生成的,則不受美國(guó)版權(quán)法的保護(hù)。歐盟2020年發(fā)布的《人工智能的趨勢(shì)與發(fā)展:對(duì)知識(shí)產(chǎn)權(quán)框架的挑戰(zhàn)》(Trends and Developments in Artificial Intelligence:Challenges to the Intellectual Property Rights Framework)認(rèn)為,現(xiàn)有的版權(quán)法足以靈活應(yīng)對(duì)人工智能所帶來的挑戰(zhàn),因此無需大規(guī)模調(diào)整。盡管未有明確的新法規(guī),但EU AI Act中對(duì)人工智能供應(yīng)商提出了透明性要求,規(guī)定其需在構(gòu)建系統(tǒng)時(shí)披露所使用的受版權(quán)保護(hù)的材料。為實(shí)現(xiàn)這一目標(biāo),供應(yīng)商可以采用高科技手段,如水印技術(shù),來標(biāo)識(shí)這些受版權(quán)保護(hù)的內(nèi)容(European Union,2024)。不過,目前法律界仍在就一些具體情況進(jìn)行辯論。例如,當(dāng)人工智能生成的科研結(jié)果與受版權(quán)保護(hù)的作品存在相似之處,但并未構(gòu)成完全復(fù)制時(shí),這些結(jié)果是否應(yīng)受到版權(quán)法的保護(hù)(NIST,2023)。

(3)道德倫理框架

歐盟相較于美國(guó)更加重視建構(gòu)道德倫理框架,采用政策工具對(duì)此響應(yīng)40次,占比74.07%;而美國(guó)則響應(yīng)14次,占比25.93%(見表3)。歐盟發(fā)布了一系列規(guī)范道德倫理的框架指南,如《可信賴人工智能倫理指南》(2019年)、《算法的可問責(zé)和透明的治理框架》(A Governance Framework for Algorithmic Accountability and Transparency)(2019年)等,為全球范圍內(nèi)的人工智能倫理治理樹立了典范。上述指南和框架共同構(gòu)成了歐盟在人工智能技術(shù)和數(shù)據(jù)處理方面公平性法案的核心內(nèi)容,旨在通過推動(dòng)人工智能技術(shù)的公平、透明與可持續(xù)發(fā)展,消除信息獲取的不平等現(xiàn)象,確保個(gè)體能夠平等、普遍地獲得數(shù)據(jù)和技術(shù)資源,從而有效縮小信息鴻溝,促進(jìn)科學(xué)研究的公平性和多樣性。2020年,歐盟推出“可信賴人工智能系統(tǒng)評(píng)估清單”(Assessment List for Trustworthy AI,簡(jiǎn)稱ALTAI),將道德倫理框架轉(zhuǎn)化為易于訪問、動(dòng)態(tài)更新的自評(píng)工具,用以輔助科研人員自主核查在使用生成式人工智能過程中是否充分考慮了多樣性因素,如性別、殘疾狀況、社會(huì)與經(jīng)濟(jì)地位、種族及文化背景等。

五、結(jié)論與討論

針對(duì)生成式人工智能應(yīng)用于科學(xué)研究中存在的潛在風(fēng)險(xiǎn),歐盟與美國(guó)在構(gòu)建風(fēng)險(xiǎn)管理框架上形成了基本共識(shí),但也存在一定差異。歐盟在人工智能政策中明確提出了統(tǒng)一且規(guī)范的指導(dǎo)原則,《歐盟人工智能法案》與歐盟過往的法律與政策文件保持高度一致性,包括強(qiáng)調(diào)構(gòu)建可信賴人工智能系統(tǒng)、秉承以人為本的價(jià)值導(dǎo)向等。同時(shí),其也注重與現(xiàn)有二級(jí)立法體系的協(xié)同,在數(shù)據(jù)保護(hù)、不歧視原則及性別平等等關(guān)鍵領(lǐng)域保持了高度一致,包括重視數(shù)據(jù)保護(hù)、構(gòu)建公平性法案和道德倫理框架等。相比之下,美國(guó)NIST提供了更具操作性的生成式人工智能監(jiān)管框架。政策制定者可以在充分考量地區(qū)政治、經(jīng)濟(jì)和文化的基礎(chǔ)上,通過映射、測(cè)量、管理和治理等措施靈活應(yīng)對(duì)具體情境,識(shí)別監(jiān)管缺失并改進(jìn)。

當(dāng)前生成式人工智能的發(fā)展與應(yīng)用已經(jīng)超越國(guó)界,不同國(guó)家、地區(qū)間對(duì)人工智能的協(xié)同監(jiān)管將成為一種趨勢(shì)。2023年,國(guó)家網(wǎng)信辦、國(guó)家發(fā)展改革委、教育部等共同制定并發(fā)布了《生成式人工智能服務(wù)管理暫行辦法》(簡(jiǎn)稱《辦法》)?!掇k法》提出對(duì)生成式人工智能服務(wù)的風(fēng)險(xiǎn)進(jìn)行評(píng)判,并根據(jù)其服務(wù)適用的領(lǐng)域進(jìn)行行業(yè)部門監(jiān)管。同年,國(guó)務(wù)院辦公廳印發(fā)的《國(guó)務(wù)院2023年度立法工作計(jì)劃》(國(guó)辦發(fā)〔2023〕18號(hào)),將起草《人工智能法草案》列入國(guó)務(wù)院立法工作計(jì)劃等。隨后,中國(guó)簽署了《布萊切利宣言》(Bletchley Declaration),強(qiáng)調(diào)通過國(guó)際合作,建立人工智能應(yīng)用監(jiān)管方法。美國(guó)和歐盟的人工智能監(jiān)管政策,為我國(guó)生成式人工智能的發(fā)展帶來兩點(diǎn)重要啟示:第一,我國(guó)人工智能系統(tǒng)供應(yīng)商、科研機(jī)構(gòu)以及科研人員應(yīng)協(xié)同合作,共同構(gòu)建一套細(xì)致且適應(yīng)性強(qiáng)的監(jiān)管框架。該框架應(yīng)全面考量人工智能模型的應(yīng)用目的、科研應(yīng)用場(chǎng)景以及訓(xùn)練數(shù)據(jù)的敏感性等因素,據(jù)此制定詳盡的風(fēng)險(xiǎn)等級(jí)劃分標(biāo)準(zhǔn)與監(jiān)管措施;同時(shí)可參考美國(guó)NIST的AI RMF配套工具包以及歐盟的ALTAI自查工具等,為科研人員提供易于理解且操作性強(qiáng)的監(jiān)管工具,以確保其在科學(xué)研究過程中嚴(yán)格遵循道德倫理和法律規(guī)范。第二,我國(guó)在制定人工智能應(yīng)用于科學(xué)研究的法律法規(guī)與政策文本時(shí),應(yīng)充分考慮政策工具與現(xiàn)行政策體系的協(xié)調(diào)性,注重政策工具運(yùn)行的連貫與穩(wěn)定性。在此過程中,還應(yīng)著重關(guān)注人工智能應(yīng)用中所涉及的科研數(shù)據(jù)保護(hù)、版權(quán)歸屬等核心議題,完善相關(guān)法律規(guī)范。

參考文獻(xiàn):

[1][德]伍多·庫(kù)卡茨(2017).質(zhì)性文本分析:方法、實(shí)踐與軟件使用指南[M].朱志勇,范曉慧.重慶:重慶大學(xué)出版社:34-35.

[2]高奇琦(2023).GPT技術(shù)與人文社會(huì)科學(xué)知識(shí)生產(chǎn):智能時(shí)代的學(xué)者與學(xué)術(shù)研究[J].上海交通大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版),31(6):111-122.

[3]蘭國(guó)帥,杜水蓮,宋帆等(2023). 生成式人工智能教育:關(guān)鍵爭(zhēng)議、促進(jìn)方法與未來議題——UNESCO《生成式人工智能教育和研究應(yīng)用指南》報(bào)告要點(diǎn)與思考[J].開放教育研究,29(6):15-26.

[4]劉寶存,茍鳴瀚(2023). ChatGPT等新一代人工智能工具對(duì)教育科研的影響及對(duì)策[J].蘇州大學(xué)學(xué)報(bào)(教育科學(xué)版),11(3):54-62.

[5]王佑鎂,王旦,梁煒怡等(2023).“阿拉丁神燈”還是“潘多拉魔盒”:ChatGPT教育應(yīng)用的潛能與風(fēng)險(xiǎn)[J].現(xiàn)代遠(yuǎn)程教育研究,35(2):48-56.

[6]中國(guó)科學(xué)技術(shù)信息研究所(2023).學(xué)術(shù)出版中AIGC使用邊界指南[EB/OL].[2024-01-19].https://www.istic.ac.cn/ueditor/jsp/upload/file/20230922/1695373131354098301.pdf.

[7]中華人民共和國(guó)中央人民政府(2023).生成式人工智能服務(wù)管理暫行辦法[EB/OL].[2024-01-19].https://www.gov.cn/zhengce/zhengceku/202307/content_6891752.htm.

[8]Atlas, S. (2023). ChatGPT for Higher Education and Professional Development: A Guide to Conversational AI[EB/OL]. [2024-01-19]. https://digitalcommons.uri.edu/cgi/viewcontent.cgi?article=1547&context=cba_facpubs.

[9]Brown, T., Mann, B., & Ryder, N. et al. (2020). Language Models Are Few-Shot Learners[J]. Advances in Neural Information Processing Systems, 33:1877-1901.

[10]Chowdhury, H. A., & Bhattacharyya, D. K. (2018). Plagiarism: Taxonomy, Tools and Detection Techniques[EB/OL]. [2024-01-19]. https://arxiv.org/abs/1801.06323.

[11]Department of Education of Australian Government(2023). The Australian Framework for Generative Artificial Intelligence (AI) in Schools[EB/OL]. [2024-01-19]. https://www.education.gov.au/schooling/announcements/australian-framework-generative-artificial-intelligence-ai-schools.

[12]European Commission (2023a). AI in Science Harnessing the Power of AI to Accelerate Discovery and Foster Innovation[EB/OL]. [2024-01-19]. https://apre.it/wp-content/uploads/2023/12/ec_rtd_ai-in-science-pb.pdf.

[13]European Commission (2023b). Living Guidelines on the Responsible Use of Generative AI in Research[EB/OL]. [2024-01-19]. https://european-research-area.ec.europa.eu/news/living-guidelines-responsible-use-generative-ai-research-published.

[14]European Union (2024). EU AI Act[EB/OL]. [2024-07-19]. https://artificialintelligenceact.eu/the-act/.

[15]Kocoń, J., Cichecki, I., & Kaszyca, O. et al. (2023). ChatGPT: Jack of All Trades, Master of None[EB/OL]. [2024-01-19]. https://arxiv.org/abs/2302.10724.

[16]Lund, B. D., & Wang, T. (2023). Chatting About ChatGPT: How May AI and GPT Impact Academia and Libraries?[J]. Library Hi Tech News, 40(3):26-29.

[17]McDonnell, L. M., & Elmore, R. F. (1987). Getting the Job Done: Alternative Policy Instruments[J]. Educational Evaluation and Policy Analysis, 9(2):133-152.

[18]Meszaros, J., & Ho, C. H. (2021). AI Research and Data Protection: Can the Same Rules Apply for Commercial and Academic Research under the GDPR?[J]. Computer Law & Security Review, 41:105532.

[19]Miller, H. G., & Mork, P. (2013). From Data to Decisions: A Value Chain for Big Data[J]. IT Professional, 15(1):57-59.

[20]NIST (2022). Towards a Standard for Identifying and Managing Bias in Artificial Intelligence[EB/OL]. [2024-01-19].https://www.nist.gov/publications/towards-standard-identifying-and-managing-bias-artificial-intelligence.

[21]NIST (2023). Artificial Intelligence Risk Management Framework (AI RMF 1.0)[EB/OL]. [2024-01-19]. https://nvlpubs.nist.gov/nistpubs/ai/nist.ai.100-1.pdf.

[22]NIST (2024). Use Cases[EB/OL]. [2024-07-19]. https://airc.nist.gov/Usecases.

[23]Rahman, M. M., Terano, H. J., & Rahman, M. N. et al. (2023). ChatGPT and Academic Research: A Review and Recommendations Based on Practical Examples[J]. Journal of Education, Management and Development Studies, 3(1):1-12.

[24]Schwitzgebel, E., Schwitzgebel, D., & Strasser, A. (2023). Creating a Large Language Model of a Philosopher[EB/OL]. [2024-01-19]. https://arxiv.org/abs/2302.01339.

[25]Susnjak, T. (2022). ChatGPT: The End of Online Exam Integrity? [EB/OL]. [2024-01-19]. https://arxiv.org/abs/2212.09292.

[26]UNESCO (2023a). Guidance for Generative AI in Education and Research[EB/OL]. [2024-01-19]. https://www.unesco.org/en/articles/guidance-generative-ai-education-and-research.

[27]UNESCO (2023b). Generative AI and the Future of Education[EB/OL]. [2024-01-19]. https://unesdoc.unesco.org/ark:/48223/pf0000385877.

[28]US Congress (2020). National Artificial Intelligence Initiative Act of 2020[EB/OL]. [2024-01-19]. https://www.congress.gov/bill/116th-congress/house-bill/6216.

[29]US Copyright Office (2023). Copyright Registration Guidance: Works Containing Material Generated by Artificial Intelligence[EB/OL]. [2024-01-19]. https://www.copyright.gov/ai/ai_policy_guidance.pdf.

[30]Van Doorn, N. (2017). Platform Labor: On the Gendered and Racialized Exploitation of Low-Income Service Work in the“On-Demand”Economy[J].Information, Communication Society, 20(6):898-914.

[31]Van Noorden, R., & Perkel, J. M. (2023). AI and Science: What 1,600 Researchers Think[J]. Nature, 621(7980):672-675.

How to Regulate the Application of Generative Artificial Intelligence in Scientific Research:

Risks and Strategies

——Based on an Analysis of EU and U.S. AI Policies

Abstract: Generative artificial intelligence has garnered extensive attention in scientific research due to its rapid and powerful content generation capabilities, sparking discussions on how to effectively regulate its application in scientific research. In this regard, the European Union and the United States have taken the lead in initiating actions, formulating a series of AIGC policies to comprehensively regulate its research, deployment and use. Based on a two-dimensional analytical framework of policy tools and policy content, an analysis of recent EU and U.S. policies related to risk management reveals that the use of AIGC to assist scientific research may pose risks such as privacy and security concerns, dissemination of discrimination, integrity challenges and regulatory lags, etc. The EU and the U.S., while adhering to the goal oTiGCLl6/qxCReKZ/M/ta3g==f building trustworthy AI and a human-centered value orientation, have established comprehensive risk management frameworks that outline specific processes and methods for risk identification and response. They have clarified the respective rights and responsibilities of different stakeholders by promoting their participation and collaboration. Meanwhile, to ensure the implementation of regulation, the EU and the U.S. have improved the regulatory mechanism by establishing data protection regulations, copyright protection laws and ethical frameworks. In the future, China should unite different parties to construct a detailed and adaptable regulatory framework for AIGC application risks and corresponding policies and laws, ensuring that the use of AIGC in scientific research complies with ethical and legal norms.

Keywords: Generative Artificial Intelligence; Scientific Research; Risk Management Framework; Regulatory Strategies;Academic Ethics

湖南省| 陆良县| 渭源县| 武宁县| 黑河市| 长阳| 琼海市| 南平市| 家居| 枝江市| 昌黎县| 佛冈县| 行唐县| 霍林郭勒市| 昌都县| 恭城| 房产| 广灵县| 灵璧县| 泸溪县| 台北县| 泾川县| 尼勒克县| 江西省| 灵璧县| 沁水县| 资兴市| 镇雄县| 平乡县| 新竹市| 临城县| 涿州市| 甘肃省| 浠水县| 垦利县| 兰溪市| 互助| 蒙城县| 连州市| 福泉市| 东乡|