国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

中國生成式人工智能頂層設(shè)計(jì)的倫理視界

2023-11-17 06:03:06陳萬球
倫理學(xué)研究 2023年5期
關(guān)鍵詞:暫行辦法倫理人工智能

陳萬球

《麻省理工技術(shù)評論》(MIT Technology Review)將生成式人工智能(GAI)描述為過去10 年AI 領(lǐng)域最有前途的進(jìn)步之一,高德納咨詢公司(Gardner Consulting)則把其列為最有商業(yè)前景的AI 技術(shù)[1](1)。與此同時,生成式人工智能帶來的政治安全、虛假信息、算法歧視、侵害知識產(chǎn)權(quán)、侵害隱私和個人信息、虛假訓(xùn)練數(shù)據(jù)、數(shù)據(jù)標(biāo)注錯誤等挑戰(zhàn)層出不窮。作為對挑戰(zhàn)的回應(yīng),我國政府頒布了《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《暫行辦法》)。該辦法是我國生成式人工智能的頂層設(shè)計(jì),也是全球首部專門立法,它確立了發(fā)展與治理的原則與方法,對處理技術(shù)發(fā)展與技術(shù)治理之間的關(guān)系和推動生成式人工智能技術(shù)健康有序發(fā)展具有十分重要的意義。

一、問題提出:生成式人工智能凸顯了“科林格里奇困境”

根據(jù)《暫行辦法》的釋義,生成式人工智能是指“具有文本、圖片、音頻、視頻等內(nèi)容生成能力的模型及相關(guān)技術(shù)”?!跋嚓P(guān)技術(shù)”的主體主要指技術(shù)的提供者和使用者。作為一種正在崛起的新興技術(shù),其發(fā)展趨勢引發(fā)人們的反思和擔(dān)憂:如果一項(xiàng)新興技術(shù)因擔(dān)心其后果不良而過早對其實(shí)施控制,它就難以發(fā)展;反之,控制過晚則有可能走向失控。這就是技術(shù)發(fā)展中所謂的“科林格里奇困境”。

1.快與慢:技術(shù)發(fā)展的快速性與治理的滯后性之間的矛盾

世界經(jīng)濟(jì)論壇創(chuàng)始人克勞斯·施瓦布將技術(shù)進(jìn)步描述為革命,因?yàn)榧夹g(shù)進(jìn)步具有速度、范圍和系統(tǒng)的影響。在認(rèn)識與改造自然的過程中,人類祖先積淀了豐富的經(jīng)驗(yàn)與知識體系。技術(shù)作為“對象化的知識力量”[2](785),其發(fā)展往往是從慢到快。在農(nóng)耕文明時代,一次重大的技術(shù)革命要?dú)v時數(shù)百年甚至更長的時間;在工業(yè)文明時代,一次重大的技術(shù)革命往往也要經(jīng)歷數(shù)十年。在當(dāng)代,人們常常驚嘆于科技革命日新月異,摩爾定律就是明證。當(dāng)代技術(shù)發(fā)展的顯著特點(diǎn)是加速迭代。人工智能從20世紀(jì)50 年代誕生開始算起,發(fā)展至今已70 余年,從弱人工智能到強(qiáng)人工智能,呈現(xiàn)加速發(fā)展的趨勢。以ChatGPT 為代表的生成式人工智能為例,OpenAI 在2018 年首次開發(fā)應(yīng)用生成對話模型,此后不斷開發(fā)和改進(jìn)GPT 模型,5 年間完成了5 次迭代,推出的技術(shù)和產(chǎn)品不斷創(chuàng)新進(jìn)化(見表1)。

表1 GPT 的發(fā)展歷程

技術(shù)創(chuàng)新跑出的“加速度”讓人們始料未及,對其后果的失控警示人們暫時停下發(fā)展的腳步。2023 年3 月,包括馬斯克在內(nèi)的千余名科學(xué)家和工程師,簽署一封公開信,提議暫時停止研發(fā)巨型人工智能模型6 個月,因?yàn)閾?dān)心“開發(fā)和部署更強(qiáng)大數(shù)字思維的競賽失控”[3]。

技術(shù)發(fā)展的“加速度”與傳統(tǒng)技術(shù)治理的“滯后性”形成鮮明對比。技術(shù)是呈指數(shù)級增長的,但是社會、經(jīng)濟(jì)和法律系統(tǒng)只會緩慢增長。在以往技術(shù)治理中,治理主體面對快速迭代的技術(shù)及產(chǎn)生的社會問題和挑戰(zhàn),往往需要審慎妥當(dāng)?shù)姆椒ㄓ枰曰貞?yīng)和解決,而這個過程較為漫長。尤其是生成式人工智能借助5G 互聯(lián)網(wǎng)技術(shù)服務(wù)應(yīng)用落地提速,操作使用快捷方便,推廣應(yīng)用價值廣泛。因而生成式人工智能技術(shù)的快速發(fā)展亟須治理速度與之相匹配。

2.全局與局部:技術(shù)影響的全局性與治理的局部性之間的矛盾

技術(shù)影響的全局性有兩個維度:

從廣度上看,技術(shù)對社會影響的路徑是從局部走向全局。一項(xiàng)新技術(shù)的傳播范圍,受到地域、國別、文化、宗教等因素的限制,起初是在比較小的范圍內(nèi)傳播。技術(shù)的發(fā)展史表明,第一次技術(shù)革命時期,從瓦特根據(jù)科學(xué)原理于1769 年發(fā)明工業(yè)用蒸汽機(jī)到1868 年中國人自主研制的第一艘蒸汽輪船“黃鵠號”下水,技術(shù)傳播花了100 年左右的時間。從1804 年英國工程師德里維斯克制造出世界上第一臺蒸汽機(jī)車到1909 年詹天佑主持修建的我國第一條鐵路京張鐵路通車,技術(shù)傳播也花了100 年左右的時間。可見,在第一次技術(shù)革命時期技術(shù)傳播速度較慢,技術(shù)對社會的影響局限在一定時空范圍之內(nèi)。20 世紀(jì)以來,隨著信息技術(shù)、電子計(jì)算機(jī)的發(fā)明,特別是在互聯(lián)網(wǎng)技術(shù)的加持下,技術(shù)傳播以前所未有的速度推進(jìn),萬物互聯(lián)互通,技術(shù)從局部到全局,涵蓋政治、經(jīng)濟(jì)、文化、生態(tài)等領(lǐng)域。今天,生成式人工智能技術(shù)發(fā)起了新一輪影響人類社會的革命,其全局性影響領(lǐng)域可能包括:國家安全與意識形態(tài),科技、教育與文化發(fā)展,廣播電影電視產(chǎn)業(yè),商業(yè)模式和產(chǎn)業(yè)升級,社會發(fā)展與改革等。甚至有學(xué)者稱,生成式人工智能技術(shù)“有可能成為一種影響各行業(yè)的底座型技術(shù)”[4](3)。

從深度上看,技術(shù)對社會的影響是由淺入深。技術(shù)的當(dāng)代性不僅表現(xiàn)為技術(shù)呈指數(shù)級增長,而且其影響極為深遠(yuǎn)。進(jìn)入工業(yè)化時代以來,物理學(xué)、生物學(xué)、工程學(xué)、化學(xué)在近代得到了發(fā)展,技術(shù)應(yīng)用在資本主義社會獲得了巨大推動力?!豆伯a(chǎn)黨宣言》指出:“自然力的征服,機(jī)器的采用,化學(xué)在工業(yè)和農(nóng)業(yè)中的應(yīng)用,輪船的行駛,鐵路的通行,電報(bào)的使用,整個整個大陸的開墾,河川的通航,仿佛用法術(shù)從地下呼喚出來的大量人口——過去哪一個世紀(jì)料想到在社會勞動里蘊(yùn)藏有這樣的生產(chǎn)力呢?”[5](405)可見,自資產(chǎn)階級產(chǎn)生以來的幾百年時間里,技術(shù)對社會和人類自身的干預(yù)程度明顯加深?!叭斯ぶ悄苷诳焖侔l(fā)展和廣泛應(yīng)用,其強(qiáng)大的重塑力必然對生產(chǎn)方式、生活方式乃至人的自身烙下深深的印記?!保?](36)生成式人工智能的深度影響表現(xiàn)在:就社會而言,在一定程度上重構(gòu)人類社會的政治、經(jīng)濟(jì)、文化、社會、生態(tài)等;就個人而言,對人的干預(yù)從體外到體內(nèi),從身體到意識逐步加深。

生成式人工智能對社會影響的全局性客觀上要求技術(shù)治理的全球性和全方位性。如果生成式人工智能的社會治理視野不夠?qū)掗?、領(lǐng)域不夠廣泛、程度不夠深入,就會導(dǎo)致治理的“局部性”,無法與技術(shù)發(fā)展在廣度上相匹配。

3.無序與有序:技術(shù)發(fā)展的無序與治理追求的有序之間的矛盾

科技是發(fā)展的利器,也可能成為風(fēng)險的源頭。“人工智能、基因編輯、大數(shù)據(jù)、納米技術(shù)、合成生物學(xué)、異種移植等科技創(chuàng)新發(fā)展對人類社會提出諸多倫理挑戰(zhàn)?!保?](7)隨著新興技術(shù)成熟曲線從“觸發(fā)期”過渡到“期望膨脹期”,新興技術(shù)蘊(yùn)含的技術(shù)紅利和技術(shù)后坐力(風(fēng)險)逐漸顯現(xiàn)。生成式人工智能可能帶來社會風(fēng)險、倫理挑戰(zhàn)與規(guī)則沖突,造成社會的無序狀態(tài)。具體表現(xiàn)在:(1)偽造性。即技術(shù)生成的圖片、視頻和聲音造假。南京大學(xué)阮錦繡提出了“AI 幻覺”的新概念,認(rèn)為“AI 幻覺”的危險之處在于,模型輸出看起來正確,而實(shí)質(zhì)上錯誤[8](4)?!陡2妓埂冯s志認(rèn)為,生成式人工智能存在“深度造假”問題,侵蝕政治選舉,偽造的視頻、音頻令選民難辨真?zhèn)?,很多人?dān)憂AI 會毀了2024 年美國總統(tǒng)選舉[9](4)。美國國會山網(wǎng)站報(bào)道,人工智能的發(fā)展可能會引發(fā)兩大關(guān)鍵問題,一是虛假信息傳播;二是導(dǎo)致歧視與偏見[10](4)。(2)個人隱私與信息侵犯。人臉是公民最敏感的生物信息和核心隱私,如果被濫用、盜用,可能會成為詐騙、網(wǎng)絡(luò)色情等非法活動的素材來源。2023 年5 月24 日,中國互聯(lián)網(wǎng)協(xié)會發(fā)文提示“AI 換臉”新騙局,利用“AI 換臉”“AI 換聲”等生成虛假音視頻圖片,進(jìn)行詐騙、誹謗、色情等違法行為屢見不鮮?!犊萍既請?bào)》報(bào)道,有騙子通過AI 換臉和擬聲技術(shù)佯裝好友,對福州某科技公司法人代表實(shí)施詐騙,10 分鐘內(nèi)騙走430 萬元[11](5)。(3)高風(fēng)險性。生成式人工智能具有高風(fēng)險性,有學(xué)者稱之為“AI 巨風(fēng)險”[12](104)。實(shí)際上,生成式人工智能的倫理和社會風(fēng)險可以歸結(jié)為以下幾類:歧視、仇恨言論和排斥、信息危害、虛假信息傷害、惡意使用、人機(jī)交互危害以及環(huán)境和經(jīng)濟(jì)危害。歐盟《人工智能法案》對“高風(fēng)險”進(jìn)行了界定,高風(fēng)險是指這種情形,它可能“對人們的健康、安全、基本權(quán)利或環(huán)境造成重大損害”[13](4)?!犊萍既請?bào)》報(bào)道,意大利、德國、英國、加拿大、西班牙等國對ChatGPT及其開發(fā)者展開調(diào)查,可能將ChatGPT 等生成式人工智能列入高風(fēng)險人工智能清單[4](3)。高風(fēng)險性和不確定性,導(dǎo)致AI 可能“行善”,也有可能“作惡”,“一旦被濫用或誤用,迷惑性比以往的人工智能技術(shù)更強(qiáng)”[4](3)。技術(shù)治理追求的目標(biāo)是社會的有序性。如果生成式人工智能的社會治理針對性不強(qiáng)、效能不高,就不能夠很好地預(yù)防和治理風(fēng)險,就會形成治理的“無序性”,導(dǎo)致與治理的目標(biāo)相背離。

總之,生成式人工智能技術(shù)發(fā)展與治理之間的快與慢、全局與局部、無序和有序之間的矛盾,凸顯了“科林格里奇困境”,客觀上需要通過科學(xué)合理的頂層設(shè)計(jì)來破局。

二、頂層設(shè)計(jì):《暫行辦法》的破局之道

《暫行辦法》是我國關(guān)于生成式人工智能治理的頂層設(shè)計(jì),它確立了技術(shù)發(fā)展與治理雙輪驅(qū)動的原則與方法,嘗試在發(fā)展與治理之間尋找一種新的良方,凸顯了發(fā)展與治理如何平衡的破局之道。

1.確立發(fā)展與治理的倫理原則

生成式人工智能發(fā)展與治理的倫理原則,是立足我國新一代人工智能發(fā)展實(shí)際和客觀審視新技術(shù)的可能風(fēng)險而制定的。《暫行辦法》確立了相互依存的倫理三原則。

堅(jiān)持發(fā)展和安全并重,這是生成式人工智能發(fā)展與治理的首要原則。習(xí)近平總書記強(qiáng)調(diào)要“堅(jiān)持統(tǒng)籌發(fā)展和安全,堅(jiān)持發(fā)展和安全并重,實(shí)現(xiàn)高質(zhì)量發(fā)展和高水平安全的良性互動”。這已成為堅(jiān)持技術(shù)發(fā)展與安全的指導(dǎo)思想。技術(shù)的安全風(fēng)險涉及國家安全、社會安全和人民群眾生命財(cái)產(chǎn)安全。從技術(shù)全過程看,生成式人工智能的安全風(fēng)險包括全過程的風(fēng)險:準(zhǔn)備階段——“數(shù)據(jù)安全風(fēng)險”、運(yùn)算階段——“算法偏見風(fēng)險”、生成階段——“知識產(chǎn)權(quán)風(fēng)險”[14](30)。一方面,要通過發(fā)展生成式人工智能技術(shù)來提升安全實(shí)力和保障安全;另一方面,深入推進(jìn)安全理念、機(jī)制、措施創(chuàng)新,營造有利于智能技術(shù)發(fā)展的安全環(huán)境,確保生成式人工智能“安全可靠可控”。

促進(jìn)創(chuàng)新和依法治理相結(jié)合,這是生成式人工智能發(fā)展與治理的第二原則。創(chuàng)新強(qiáng)則國運(yùn)昌,創(chuàng)新弱則國運(yùn)殆。科技創(chuàng)新離不開依法治理。良好的法律治理,是技術(shù)創(chuàng)新的前提;沒有法律規(guī)范治理,科技創(chuàng)新就失去了壓艙石。促進(jìn)生成式人工智能技術(shù)創(chuàng)新和依法治理相結(jié)合,有一個依法治理的“合理度”問題,這種“合理度”體現(xiàn)在法律對技術(shù)創(chuàng)新的合理引導(dǎo)力和科學(xué)的規(guī)范力兩個方面。從前者看,《暫行辦法》中有大量的正向引導(dǎo)條款(見表2)。這些條款包括創(chuàng)新發(fā)展、創(chuàng)新應(yīng)用、自主創(chuàng)新等內(nèi)容,成為促進(jìn)生成式人工智能創(chuàng)新的重要法規(guī)依據(jù)。從后者看,《暫行辦法》包含禁止和責(zé)任條款,懲治生成式人工智能可能帶來的種種亂象,對提供者違反《暫行辦法》規(guī)定的,由有關(guān)主管部門依法處罰,以此營造良好的創(chuàng)新軟環(huán)境和硬環(huán)境。

表2 《暫行辦法》的正向引導(dǎo)條款

包容審慎與分類分級監(jiān)管并行,這是生成式人工智能發(fā)展與治理的第三原則。技術(shù)發(fā)展需要自由寬松的人文環(huán)境與社會環(huán)境,甚至允許出現(xiàn)錯誤??茖W(xué)是不斷試錯的研究,解決問題需要不斷地試錯。從某種意義上說,試錯是社會進(jìn)步的動力,寬容是社會進(jìn)步的基石。在歷史上,核心技術(shù)需要在試錯中發(fā)展,谷歌搜索引擎就是試錯的創(chuàng)新產(chǎn)物。蘋果公司的iPod 也是基于試錯法的創(chuàng)新產(chǎn)物。當(dāng)然,涉及食品安全、身體健康、基因編輯、克隆人等的技術(shù),是不允許試錯的。包容并不意味著放任不管,包容中蘊(yùn)含審慎的態(tài)度和理念。目前世界各國對推動生成式人工智能創(chuàng)新應(yīng)用都保持著相對謹(jǐn)慎的態(tài)度。此外,分類分級監(jiān)管是治理的一種常見方式?!稌盒修k法》對生成式人工智能技術(shù)應(yīng)用劃定分級監(jiān)管“紅線”,將審慎容錯納入監(jiān)管框架,旨在促進(jìn)人工智能技術(shù)的快速發(fā)展與實(shí)際應(yīng)用。

2.厘定發(fā)展與治理的倫理方法

建立健全生成式人工智能治理體系,需要創(chuàng)新倫理方法?!稌盒修k法》創(chuàng)設(shè)了發(fā)展與治理的倫理三方法。

第一,明晰倫理規(guī)范。倫理規(guī)范是技術(shù)治理的重要方法。目前我國技術(shù)法律法規(guī)中都有明確的倫理規(guī)范治理?xiàng)l款。例如,《中華人民共和國科學(xué)技術(shù)進(jìn)步法》第五十一條規(guī)定“建立和完善科研誠信、科技倫理管理制度”,第六十七條規(guī)定“在各類科學(xué)技術(shù)活動中遵守學(xué)術(shù)和倫理規(guī)范”?!吨腥A人民共和國基本醫(yī)療衛(wèi)生與健康促進(jìn)法》第五十四條規(guī)定“醫(yī)療衛(wèi)生人員應(yīng)當(dāng)遵循醫(yī)學(xué)科學(xué)規(guī)律,遵守有關(guān)臨床診療技術(shù)規(guī)范和各項(xiàng)操作規(guī)范以及醫(yī)學(xué)倫理規(guī)范”?!吨腥A人民共和國生物安全法》第三十四條規(guī)定“從事生物技術(shù)研究、開發(fā)與應(yīng)用活動,應(yīng)當(dāng)符合倫理原則”。此外,《中華人民共和國個人信息保護(hù)法》等都有明確的倫理規(guī)范治理的具體條款。《暫行辦法》明確規(guī)定了五大倫理規(guī)范:堅(jiān)持社會主義核心價值觀,維護(hù)政治安全;堅(jiān)持公平公正,防止產(chǎn)生歧視;尊重知識產(chǎn)權(quán),避免不正當(dāng)競爭;提倡善意使用,尊重他人合法權(quán)益;提升服務(wù)的透明度,提高生成內(nèi)容的準(zhǔn)確性和可靠性等。這些規(guī)范兼具倫理規(guī)范和法律規(guī)范兩重屬性。

第二,推動自由探索。自由探索就是不事先設(shè)定目標(biāo),自由探究事物的本質(zhì)和規(guī)律。亞里士多德認(rèn)為,科學(xué)和哲學(xué)起源于驚異。黨和國家一直鼓勵自由探索式研究和非共識創(chuàng)新研究。在新一輪科技革命與產(chǎn)業(yè)變革的醞釀演變期,新一代人工智能正在重建科學(xué)研究的范式,自由探索之火被點(diǎn)燃。2018 年印發(fā)的《國務(wù)院關(guān)于全面加強(qiáng)基礎(chǔ)科學(xué)研究的若干意見》指出,要“尊重科學(xué)研究靈感瞬間性、方式隨意性、路徑不確定性的特點(diǎn),營造有利于創(chuàng)新的環(huán)境和文化,鼓勵科學(xué)家自由暢想、大膽假設(shè)、認(rèn)真求證”,通過激發(fā)好奇心和求知欲,引導(dǎo)科研聚焦未知的問題,為人們提供一個充滿探索精神的人文環(huán)境?!稌盒修k法》提出,建立應(yīng)用生態(tài)體系,創(chuàng)新應(yīng)用不設(shè)立限制措施,為創(chuàng)新應(yīng)用提供制度保障。在生成式人工智能推廣應(yīng)用、算力資源的協(xié)同共享以及算力資源利用效能的提升等方面,《暫行辦法》鼓勵支持自由探索的力度很大。

第三,正確行權(quán)用權(quán)。為了預(yù)防預(yù)訓(xùn)練語料庫代表性不足導(dǎo)致價值觀偏差,標(biāo)注數(shù)據(jù)質(zhì)量參差不齊引發(fā)生成毒害內(nèi)容,數(shù)據(jù)集時效性偏差引發(fā)可信度危機(jī),《暫行辦法》提出,服務(wù)者與使用者應(yīng)正確行權(quán)用權(quán),并依據(jù)上位法對開展數(shù)據(jù)服務(wù)和應(yīng)用劃定“紅線”。其包括:(1)訓(xùn)練數(shù)據(jù)處理活動要合規(guī)。訓(xùn)練數(shù)據(jù)處理包括預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等活動,其數(shù)據(jù)和基礎(chǔ)模型來源要合法,不得侵害知識產(chǎn)權(quán),使用個人信息應(yīng)知情同意,確保訓(xùn)練數(shù)據(jù)的真實(shí)性、準(zhǔn)確性、客觀性、多樣性。(2)進(jìn)行數(shù)據(jù)標(biāo)注活動要合規(guī)。人工智能是大量數(shù)據(jù)教導(dǎo)訓(xùn)練而成的,數(shù)據(jù)標(biāo)注質(zhì)量決定機(jī)器智能化的水平。隨著AI 基礎(chǔ)數(shù)據(jù)服務(wù)市場的擴(kuò)大,數(shù)據(jù)標(biāo)注需求量將呈井噴式增長?!稌盒修k法》要求標(biāo)注者應(yīng)當(dāng)制定清晰、具體、可操作的標(biāo)注規(guī)則,積極開展數(shù)據(jù)標(biāo)注質(zhì)量評估(即抽樣核驗(yàn)標(biāo)注內(nèi)容的準(zhǔn)確性)。

3.《暫行辦法》可能存在的不足

2023 年5 月,七國集團(tuán)(G7)領(lǐng)導(dǎo)人峰會呼吁制定AI 國際技術(shù)標(biāo)準(zhǔn)。為確保這項(xiàng)強(qiáng)大技術(shù)的可靠性和可管理性,美國發(fā)布了41 種生成式人工智能算法清單,清單上的算法在廣泛使用之前必須獲得許可。歐盟也制定了《人工智能法案》,為人工智能應(yīng)用設(shè)置“護(hù)欄”。

作為世界上第一部規(guī)范生成式人工智能的單行法規(guī),《暫行辦法》及時跟上新技術(shù)發(fā)展的治理步伐,對克服“科林格里奇困境”進(jìn)行了有益的新探索。當(dāng)然,《暫行辦法》可能存在以下不足:一是缺乏專門預(yù)防算法偏見的具體規(guī)定,因此需要結(jié)合生成式人工智能運(yùn)行的現(xiàn)實(shí)需求進(jìn)行修改;二是對生成式人工智能應(yīng)用場景和使用范圍沒有作出明確的規(guī)定;三是對提供“具有輿論屬性或者社會動員能力的生成式人工智能服務(wù)”是一種概括性要求,未能作出具體的規(guī)定。技術(shù)發(fā)展既要立足現(xiàn)實(shí),也要著眼于未來。所以,《暫行辦法》只是“暫行”的,必要時可以進(jìn)行修改。

三、技術(shù)善治:生成式人工智能發(fā)展與治理的實(shí)踐邏輯

生成式人工智能的成長與應(yīng)用具有獨(dú)特規(guī)律,沒有現(xiàn)成的經(jīng)驗(yàn)可以借鑒,探索更加有效、務(wù)實(shí)的新一代人工智能治理路徑成為時代之需。生成式人工智能具有新穎性、連貫性、不確定性、模糊性與增長快速、影響重大等特點(diǎn)。我們認(rèn)為,當(dāng)前構(gòu)建生成式人工智能技術(shù)治理的實(shí)踐邏輯,要解決好“以社會主義核心價值觀為引領(lǐng)”“質(zhì)量度統(tǒng)一”“敏捷治理”等突出問題。

1.治理目標(biāo)要更加突出“以社會主義核心價值觀為引領(lǐng)”

(1)“安全偏好”的價值引領(lǐng)。社會主義核心價值觀在國家層面上首要強(qiáng)調(diào)“富強(qiáng)”。國家安全是國家富強(qiáng)的根基。生成式人工智能是影響和塑造國家安全的核心變量,它一方面給我們帶來巨大福利,另一方面也可能給國家安全帶來極大風(fēng)險,有效預(yù)防其風(fēng)險是確保安全的關(guān)鍵。鑒于國外技術(shù)治理經(jīng)驗(yàn)教訓(xùn),尤其是當(dāng)前大國之間博弈加劇,生成式人工智能技術(shù)治理應(yīng)當(dāng)從一開始就要受到高度重視?!鞍踩?,尤其是從國家安全與公共安全角度而言,應(yīng)該成為生成式人工智能發(fā)展與治理的首要關(guān)切。

(2)公平公正的價值訴求。社會主義核心價值觀在社會層面提出了“平等”和“公正”的要求。從實(shí)踐層面看,人工智能所生成的內(nèi)容可能帶有歧視性,如果不加以規(guī)范治理,將會導(dǎo)致其生成的歧視性內(nèi)容大范圍擴(kuò)散。AI 內(nèi)容上的偏見與歧視,在本質(zhì)上是訓(xùn)練數(shù)據(jù)的缺陷,即用來訓(xùn)練人工智能的數(shù)據(jù)本身存在偏見,導(dǎo)致產(chǎn)生偏見與歧視的結(jié)果,這就意味著必須對數(shù)據(jù)和算法加以規(guī)范?!稌盒修k法》針對生成式人工智能服務(wù)的全過程,包括訓(xùn)練數(shù)據(jù)的選擇、模型的生成和優(yōu)化,規(guī)定了防止產(chǎn)生歧視性的內(nèi)容,體現(xiàn)了社會主義核心價值觀“平等”和“公正”理念的引領(lǐng)作用。

(3)誠實(shí)信用的價值導(dǎo)向。社會主義核心價值觀在公民價值取向?qū)用嫣岢隽恕罢\信”要求。生成式AI 對“誠信”價值觀提出新挑戰(zhàn)。生成式人工智能的技術(shù)基礎(chǔ)缺乏透明度,生成的內(nèi)容缺乏對數(shù)據(jù)的引用,容易造成剽竊和知識產(chǎn)權(quán)糾紛;技術(shù)的非誠信使用,可能導(dǎo)致研發(fā)人員把生成的內(nèi)容簡單地當(dāng)作自己的研究成果,抑制了技術(shù)創(chuàng)新;生成的內(nèi)容無法產(chǎn)生創(chuàng)造性內(nèi)容,其真實(shí)性和可靠性使人質(zhì)疑;生成的數(shù)據(jù)、文本、圖像、代碼、視頻極易引發(fā)論文代寫、洗稿等學(xué)術(shù)不端行為。要加強(qiáng)誠信價值觀建設(shè),一方面,以識別和鑒定“AI生成內(nèi)容”為抓手和依據(jù),鼓勵研發(fā)“AI生成內(nèi)容”的檢測工具進(jìn)行真?zhèn)巫R別,如斯坦福大學(xué)開發(fā)了“DetectGPT”的論文檢測工具,普林斯頓大學(xué)研發(fā)了專門針對ChatGPT 生成內(nèi)容的檢測工具——“GPT 歸零”(GPTZero)。更為簡便的方法是給AI 內(nèi)容加水印。另一方面,以自律為根本,引導(dǎo)服務(wù)者和使用者合理使用“AI 生成內(nèi)容”。加強(qiáng)服務(wù)者和使用者的自律意識是根本。

2.治理架構(gòu)要更加凸顯“質(zhì)量度統(tǒng)一”

質(zhì)與量的統(tǒng)一就是度。技術(shù)治理的質(zhì)體現(xiàn)了一定的量,治理的量體現(xiàn)了一定的質(zhì)。推進(jìn)新一代人工智能的發(fā)展,走向技術(shù)善治,建立合理治理架構(gòu),必須實(shí)現(xiàn)技術(shù)治理過程中質(zhì)量度的高度統(tǒng)一。

深入把握技術(shù)治理的質(zhì)。判斷技術(shù)治理好壞的標(biāo)準(zhǔn)有生產(chǎn)力標(biāo)準(zhǔn)和倫理標(biāo)準(zhǔn)。從前者看,科學(xué)技術(shù)是第一生產(chǎn)力,判斷技術(shù)治理的質(zhì),要看技術(shù)治理是否真正引導(dǎo)和推動技術(shù)本身的健康發(fā)展,是否推進(jìn)了社會的進(jìn)步。如果是“正向”推進(jìn),這種技術(shù)治理就是善的。如果一種技術(shù)治理措施阻礙了技術(shù)進(jìn)步與生產(chǎn)力發(fā)展,這種治理是得不到倫理上的辯護(hù)的,就是技術(shù)“惡治”。從后者看,如果一種技術(shù)治理符合社會公認(rèn)的道德倫理價值準(zhǔn)則,堅(jiān)持科技以人為本,并兼顧了國家歷史文化、傳統(tǒng)習(xí)慣,那么這種技術(shù)治理就是善的,否則也是技術(shù)“惡治”。人工智能的極度復(fù)雜性和高度的不確定性客觀上要求優(yōu)化匹配的治理工具體系,以便提升治理的針對性和有效性。人工智能的治理工具有程序性工具、主體性工具、規(guī)則性工具三類。人工智能發(fā)展應(yīng)用的特殊規(guī)律,客觀上需要融合上述三種治理工具加以有效應(yīng)對。程序性工具需要事前對人工智能產(chǎn)品的性質(zhì)與功能提出準(zhǔn)入性要求,對應(yīng)用場景作出“負(fù)面清單”式要求;事中對人工智能產(chǎn)品正常功能運(yùn)作、潛在風(fēng)險的識別消除、人為干涉或終止措施等做好應(yīng)對與處理;事后圍繞責(zé)任界定、侵權(quán)行為、違規(guī)處置、救濟(jì)機(jī)制等展開。主體性工具需要明確界定政府、第三方機(jī)構(gòu)、企業(yè)以及社會等四類主體的治理權(quán)限與責(zé)任。就當(dāng)前而言,中央政府需要承擔(dān)頂層設(shè)計(jì)、試點(diǎn)安排、監(jiān)督指導(dǎo)以及國際對話等職責(zé),而地方政府則更多承擔(dān)屬地監(jiān)管、系統(tǒng)備案等操作性職責(zé)。規(guī)則性工具需要以數(shù)據(jù)、算法、應(yīng)用環(huán)境為切入點(diǎn)并提出相應(yīng)治理要求。新一代人工智能技術(shù)需要從數(shù)據(jù)生命周期視角,對數(shù)據(jù)采集與存儲、傳輸與使用、跨境流動等各個環(huán)節(jié)都提出監(jiān)管要求,需要對算法目標(biāo)、算法備案、算法應(yīng)用限制、應(yīng)急處理等方面的挑戰(zhàn)進(jìn)行應(yīng)對。就人工智能產(chǎn)品應(yīng)用環(huán)境而言,需要為人工智能產(chǎn)品設(shè)置適宜的硬件要求(如自動駕駛汽車行駛的道路環(huán)境),對系統(tǒng)使用者資質(zhì)能力的合理要求,以及對應(yīng)用軟件、網(wǎng)聯(lián)通信等配套保障的現(xiàn)實(shí)要求等。

精準(zhǔn)把握技術(shù)治理的量。技術(shù)治理過程中存在量的問題。技術(shù)治理的對象、手段與方法都是一個變量。從治理對象上看,新一代人工智能技術(shù)本身是發(fā)展變化的。隨著大數(shù)據(jù)、算法、算力等的迭代,人工智能的發(fā)展呈螺旋式上升,新興技術(shù)逐漸應(yīng)用到各個領(lǐng)域。因而,人工智能治理要以全數(shù)據(jù)治理理念促進(jìn)全范圍、全領(lǐng)域的治理,做到“一個都不能少”,大力拓展人工智能治理的范圍、領(lǐng)域等,使人工智能治理從關(guān)注部分對象轉(zhuǎn)變?yōu)殛P(guān)注全體對象。比如將人工智能技術(shù)涉獵范圍內(nèi)所有主體、所有相關(guān)對象、所有社會事務(wù)均納入治理視野之中,依托大數(shù)據(jù)技術(shù)進(jìn)行統(tǒng)籌、整合、調(diào)配,實(shí)現(xiàn)全域的有效治理。從治理手段方法上看,主要依靠政策、法律法規(guī)、倫理規(guī)范、行業(yè)標(biāo)準(zhǔn)等進(jìn)行治理。迄今為止有關(guān)新一代人工智能技術(shù)的治理規(guī)范(法律法規(guī)、政策)數(shù)量眾多(見表3)。目前地方性的關(guān)于新一代人工智能技術(shù)的規(guī)范已經(jīng)出臺或正在制定之中。

表3 新一代人工智能技術(shù)的治理規(guī)范

實(shí)現(xiàn)技術(shù)治理質(zhì)量度的統(tǒng)一。技術(shù)治理的關(guān)鍵是在不確定性中尋找“合理限度”的確定性。這種“合理限度”確定性一方面表現(xiàn)在:有關(guān)人工智能的具體法律法規(guī)、政策規(guī)定體現(xiàn)并服務(wù)于技術(shù)治理。如網(wǎng)絡(luò)安全法、數(shù)據(jù)安全法、個人信息保護(hù)法是全國人大常委會制定的,對人工智能治理而言是宏觀層面的一般性治理約束,缺乏有效的針對性。這就需要深度合成技術(shù)管理規(guī)定、互聯(lián)網(wǎng)信息服務(wù)管理辦法、新一代人工智能治理原則與倫理規(guī)范等來設(shè)定具體的治理標(biāo)準(zhǔn),精準(zhǔn)施策,對癥下藥。人工智能法律法規(guī)的一般性規(guī)定與特殊性約束相互配合,共同實(shí)現(xiàn)人工智能治理的質(zhì)量度的統(tǒng)一。另一方面,“合理限度”確定性還表現(xiàn)在合理的治理原則上,它是統(tǒng)籌質(zhì)和量的關(guān)鍵,比如:(1)適度原則。政策與立法要適度,即政策與立法要注重質(zhì),不是數(shù)量越多越好,越嚴(yán)越好,而是管用就行。(2)均衡原則。即治理過程要保持技術(shù)發(fā)展與技術(shù)治理的均衡,人工智能現(xiàn)有的法律法規(guī)、政策、標(biāo)準(zhǔn)等規(guī)范,以及規(guī)范之間的相互協(xié)調(diào)配合,既要有利于技術(shù)的健康發(fā)展,又要給技術(shù)創(chuàng)新適宜的空間,而不至于制約技術(shù)進(jìn)步。(3)適當(dāng)超前。將國家中長期計(jì)劃,尤其是建設(shè)科技強(qiáng)國遠(yuǎn)景規(guī)劃作為制定法律法規(guī)與政策的依據(jù),立足現(xiàn)實(shí)、服務(wù)長遠(yuǎn),推進(jìn)新一代人工智能服務(wù)國家戰(zhàn)略。

3.治理實(shí)踐要更加重視“敏捷治理”

生成式人工智能具有顛覆性和革命性,留給決策者和治理者理解其潛在用途和影響的時間大為縮短。傳統(tǒng)治理方式是一種外在的事后規(guī)范性治理,無法解決人工智能的不確定性[15](38)??茖W(xué)已造成的新的不確定性,我們根本無法借鑒以往的經(jīng)驗(yàn)來解決。因此,對生成式人工智能的治理,必須轉(zhuǎn)變觀念,采取更加“敏捷”的治理方法。

敏捷治理是治理的基本途徑[16](49)。它具有區(qū)別于傳統(tǒng)治理的全面性、適應(yīng)性、靈活性和包容性特征,能夠更好地避免傳統(tǒng)治理的“相對片面性”“弱適應(yīng)性”“滯后性”“弱包容性”的弱點(diǎn)(見表4),能有效彌合技術(shù)創(chuàng)新發(fā)展與治理能力提升之間的空隙。敏捷治理提供了一種更靈活、適應(yīng)性更強(qiáng)的方法來進(jìn)行實(shí)時學(xué)習(xí),將原則和政策結(jié)合,可以在特定情況下有效解決問題,而不會破壞潛在的創(chuàng)新。

表4 敏捷治理與傳統(tǒng)治理的區(qū)別

2018 年世界經(jīng)濟(jì)論壇白皮書提出了“敏捷治理”概念。目前,我國新一代人工智能敏捷治理已經(jīng)從理論走進(jìn)現(xiàn)實(shí)。2019 年我國《新一代人工智能治理原則——發(fā)展負(fù)責(zé)任的人工智能》把“敏捷治理”確立為治理的八大原則之一。2021 年《新一代人工智能倫理規(guī)范》提出“推動敏捷治理”。2022 年《關(guān)于加強(qiáng)科技倫理治理的意見》提出了“敏捷治理”的治理要求。當(dāng)前,生成式人工智能的治理,要秉持“敏捷治理”的要求,突出對生成式人工智能的風(fēng)險預(yù)警與跟蹤研判,及時動態(tài)調(diào)整治理方式和治理規(guī)范,快速靈活應(yīng)對倫理挑戰(zhàn)。在基本理念上,生成式人工智能技術(shù)治理應(yīng)避免一刀切式的、一蹴而就的治理方式,按照“急用先立、成熟先立”的原則,遵循包容審慎、敏捷靈活、鼓勵創(chuàng)新等治理理念,兼顧不同應(yīng)用場景可能存在的負(fù)面影響,大力采用敏捷治理方案。結(jié)合敏捷治理的四個特性,構(gòu)建我國生成式人工智能治理路徑,具體而言包括:基于敏捷治理的全面性,構(gòu)建“基礎(chǔ)模型—專業(yè)模型—服務(wù)應(yīng)用”的全面性治理格局;基于敏捷治理的適應(yīng)性,構(gòu)建事前預(yù)防與事后應(yīng)對相結(jié)合的適應(yīng)性治理機(jī)制;基于敏捷治理的靈活性,構(gòu)建“技術(shù)—法律”相結(jié)合的靈活性治理工具[17](141);基于敏捷治理的包容性,構(gòu)建“審慎—彈性”相結(jié)合的倫理治理工具。唯有如此,才能更好推動新一代人工智能向善向上發(fā)展。

猜你喜歡
暫行辦法倫理人工智能
《心之死》的趣味與倫理焦慮
護(hù)生眼中的倫理修養(yǎng)
活力(2019年19期)2020-01-06 07:37:00
零部件再制造管理暫行辦法開始征求意見,還有哪些問題需要調(diào)整?
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
人工智能與就業(yè)
外商投資企業(yè)設(shè)立及變更備案管理暫行辦法(2)
金橋(2017年1期)2017-11-23 12:07:19
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
關(guān)于PPP咨詢機(jī)構(gòu)庫管理暫行辦法的解讀
下一幕,人工智能!
醫(yī)改莫忘構(gòu)建倫理新機(jī)制
陇西县| 石棉县| 皋兰县| 南郑县| 平武县| 屏南县| 淳安县| 沾益县| 封丘县| 沿河| 合川市| 伊吾县| 淳安县| 腾冲县| 收藏| 南汇区| 资中县| 南宫市| 汾阳市| 莱芜市| 日照市| 南乐县| 丹江口市| 凤凰县| 平顶山市| 长沙市| 铁岭县| 桦南县| 棋牌| 宁乡县| 丰原市| 都兰县| 曲阳县| 麻栗坡县| 巩义市| 和田市| 桐柏县| 山阳县| 马公市| 石柱| 南郑县|