關(guān)鍵詞 人工智能 風(fēng)險(xiǎn) 創(chuàng)新友好監(jiān)管 可信人工智能 監(jiān)管實(shí)施體制
人工智能(AI)是第四次產(chǎn)業(yè)革命的關(guān)鍵驅(qū)動(dòng)力,它是一種破壞性技術(shù)進(jìn)步,正在對(duì)經(jīng)濟(jì)社會(huì)產(chǎn)生重大影響。人工智能應(yīng)用不僅極大地促進(jìn)了創(chuàng)新和經(jīng)濟(jì)高質(zhì)量增長(zhǎng),而且促進(jìn)了社會(huì)安全與社會(huì)和諧。但人工智能應(yīng)用也帶來(lái)算法偏見(jiàn)、隱私侵犯、信息操縱等風(fēng)險(xiǎn),引發(fā)了人們的廣泛擔(dān)憂,不信任成為影響人工智能創(chuàng)新發(fā)展的重要障礙。因此,實(shí)行有效的人工智能監(jiān)管成為應(yīng)對(duì)風(fēng)險(xiǎn)的重要政策應(yīng)對(duì),其目的是構(gòu)建可信任的人工智能發(fā)展環(huán)境。目前,歐盟、美國(guó)、中國(guó)等經(jīng)濟(jì)體都在進(jìn)行人工智能監(jiān)管政策探索,但如何構(gòu)建監(jiān)管與創(chuàng)新平衡的監(jiān)管體制這一難題仍未得到解決。一方面人工智能技術(shù)發(fā)展帶來(lái)的諸多風(fēng)險(xiǎn)影響深刻,需要有效應(yīng)對(duì);另一方面人工智能技術(shù)是新質(zhì)生產(chǎn)力發(fā)展的引擎,是國(guó)際科技競(jìng)爭(zhēng)的關(guān)鍵領(lǐng)域,需要維持強(qiáng)創(chuàng)新動(dòng)力。由此,人工智能監(jiān)管既要有效管控各種潛在的重大風(fēng)險(xiǎn),也要釋放創(chuàng)新潛能,更好地促進(jìn)創(chuàng)新發(fā)展,促進(jìn)人工智能以有利于人類(lèi)社會(huì)的方式創(chuàng)新發(fā)展。因此,如何構(gòu)建創(chuàng)新友好的監(jiān)管體制成為迫切需要解決的重大問(wèn)題。
一、人工智能開(kāi)發(fā)應(yīng)用的風(fēng)險(xiǎn)與最優(yōu)監(jiān)管路徑
1.人工智能開(kāi)發(fā)應(yīng)用引發(fā)的主要風(fēng)險(xiǎn)
近年來(lái),在大數(shù)據(jù)和算力技術(shù)快速發(fā)展的推動(dòng)下,人工智能技術(shù)獲得了快速發(fā)展和廣泛應(yīng)用,但同時(shí)也引發(fā)了各界對(duì)其潛在風(fēng)險(xiǎn)的擔(dān)憂??傮w來(lái)說(shuō),人工智能系統(tǒng)應(yīng)用可能帶來(lái)如下主要風(fēng)險(xiǎn):一是個(gè)人隱私侵犯風(fēng)險(xiǎn)。人工智能的發(fā)展使消費(fèi)者使用的各種設(shè)備和在線活動(dòng)面臨更高的隱私數(shù)據(jù)泄露風(fēng)險(xiǎn)。二是個(gè)人身體或心理?yè)p害風(fēng)險(xiǎn)。人工智能應(yīng)用者可能會(huì)利用其來(lái)強(qiáng)化對(duì)人的行為引導(dǎo)和心理暗示,如在線服務(wù)中的消費(fèi)上癮、算法勞動(dòng)者監(jiān)督等,這會(huì)對(duì)人的身體或心理健康產(chǎn)生損害。三是競(jìng)爭(zhēng)與創(chuàng)新?lián)p害風(fēng)險(xiǎn)。人工智能為企業(yè)實(shí)施算法合謀、算法個(gè)人化定價(jià)、算法自我優(yōu)待等壟斷行為提供了新的手段,從而會(huì)扭曲市場(chǎng)競(jìng)爭(zhēng)。同時(shí),生成式人工智能的發(fā)展會(huì)帶來(lái)知識(shí)產(chǎn)權(quán)侵權(quán)問(wèn)題,從而產(chǎn)生扼殺原始創(chuàng)新的風(fēng)險(xiǎn)。四是社會(huì)公平風(fēng)險(xiǎn)。人工智能在就業(yè)、招生、司法等領(lǐng)域的應(yīng)用可能會(huì)對(duì)特定群體產(chǎn)生嚴(yán)重的不公平風(fēng)險(xiǎn)。五是社會(huì)倫理價(jià)值風(fēng)險(xiǎn)。人工智能系統(tǒng)可能會(huì)不斷向個(gè)人推送其偏好的內(nèi)容而強(qiáng)化社會(huì)認(rèn)知偏見(jiàn),也有可能會(huì)大量推送非法有害內(nèi)容,而生成式人工智能可能會(huì)生成和傳播大量虛假信息或新聞,從而對(duì)社會(huì)輿論和倫理價(jià)值產(chǎn)生損害。六是公共安全風(fēng)險(xiǎn)。人工智能可以提升網(wǎng)絡(luò)攻擊頻率和強(qiáng)度,可能會(huì)加劇網(wǎng)絡(luò)安全風(fēng)險(xiǎn),同時(shí)人工智能的軍事化應(yīng)用會(huì)威脅國(guó)防安全。
2.現(xiàn)有人工智能風(fēng)險(xiǎn)治理路徑的缺陷
面對(duì)人工智能應(yīng)用帶來(lái)的各種風(fēng)險(xiǎn),政治學(xué)、經(jīng)濟(jì)學(xué)、社會(huì)學(xué)、法學(xué)等不同研究領(lǐng)域的學(xué)者對(duì)人工智能或算法監(jiān)管問(wèn)題提出了各種各樣的政策思路,總體可以概括為四種路徑。一是技術(shù)治理路徑。Guihot等、Taeihagh都認(rèn)為算法“黑箱”是導(dǎo)致人工智能應(yīng)用產(chǎn)生各種風(fēng)險(xiǎn)的主要原因。① Cogwill和Tucker認(rèn)為算法偏差是產(chǎn)生人工智能應(yīng)用偏差的根本原因。② 針對(duì)算法黑箱問(wèn)題,Butterworth和Tutt提出算法可解釋性監(jiān)管政策,認(rèn)為通過(guò)增強(qiáng)算法可解釋性可以有效緩解算法應(yīng)用風(fēng)險(xiǎn)。③ 二是事前監(jiān)管路徑。一些學(xué)者提出應(yīng)重點(diǎn)強(qiáng)化事前行政監(jiān)管,主要措施是對(duì)人工智能系統(tǒng)應(yīng)用實(shí)行影響評(píng)估和算法審計(jì)。④ Pasquale指出人工智能影響評(píng)估制度有助于將“黑箱社會(huì)”轉(zhuǎn)變?yōu)椤帮@見(jiàn)社會(huì)”,能從根本上建立算法信任。⑤ 三是行為治理路徑。Saurwein等認(rèn)為人工智能應(yīng)用風(fēng)險(xiǎn)來(lái)自數(shù)據(jù)本身存在的偏差和數(shù)據(jù)中包含的人的行為偏差。⑥ Chander進(jìn)一步指出,人工智能應(yīng)用風(fēng)險(xiǎn)的根本原因不在于算法黑箱而在于應(yīng)用者的行為偏差。⑦ 因此,監(jiān)管政策重在改變?nèi)斯ぶ悄芟到y(tǒng)應(yīng)用者以及社會(huì)成員的行為規(guī)則。Guihot等提出自我監(jiān)管為主的思路,倡議采用自愿的行為規(guī)則來(lái)指導(dǎo)人工智能設(shè)計(jì)與應(yīng)用,政府則需要事前明確政策預(yù)期。⑧ 四是綜合治理路徑。Leenes和Lucivero指出應(yīng)該采取社會(huì)、法律、倫理等多種手段來(lái)治理人工智能。① Gasser和Almeida提出應(yīng)采用技術(shù)—社會(huì)—倫理的三層治理框架。② Almeida等更是提出應(yīng)建立包括立法、行政、司法、社會(huì)、國(guó)際合作等的多元人工智能治理框架。③
總體來(lái)說(shuō),上述理論研究基本都是針對(duì)人工智能風(fēng)險(xiǎn)來(lái)尋求有效的治理措施,是以消除風(fēng)險(xiǎn)為單一目標(biāo)的監(jiān)管路徑,并沒(méi)有在防控風(fēng)險(xiǎn)和鼓勵(lì)創(chuàng)新的雙重目標(biāo)下尋求最佳的平衡性監(jiān)管。單一風(fēng)險(xiǎn)目標(biāo)的監(jiān)管路徑很可能在實(shí)現(xiàn)風(fēng)險(xiǎn)防控目標(biāo)的同時(shí)造成對(duì)創(chuàng)新發(fā)展的阻礙,并削弱長(zhǎng)期的安全保障。因?yàn)榭尚诺陌踩仨毥⒃诟哔|(zhì)量創(chuàng)新發(fā)展的基礎(chǔ)之上,缺乏創(chuàng)新發(fā)展的支撐將難以保障長(zhǎng)期的安全。因此,實(shí)現(xiàn)安全與創(chuàng)新是人工智能監(jiān)管無(wú)法回避的二維目標(biāo)。
3.創(chuàng)新友好人工智能監(jiān)管的合意性
人工智能技術(shù)創(chuàng)新是新質(zhì)生產(chǎn)力的核心驅(qū)動(dòng)力。新質(zhì)生產(chǎn)力是創(chuàng)新起主導(dǎo)作用的先進(jìn)生產(chǎn)力質(zhì)態(tài)。人工智能是一種對(duì)經(jīng)濟(jì)社會(huì)具有革命性影響的通用目的技術(shù),人工智能技術(shù)創(chuàng)新不僅會(huì)產(chǎn)生一大批高技術(shù)成果,還會(huì)帶動(dòng)一大批后續(xù)的應(yīng)用性創(chuàng)新成果出現(xiàn),不僅會(huì)催生一大批新產(chǎn)業(yè)的涌現(xiàn),而且還具有廣泛的行業(yè)融合性,會(huì)全面賦能傳統(tǒng)產(chǎn)業(yè)和實(shí)體經(jīng)濟(jì)實(shí)現(xiàn)高質(zhì)量發(fā)展,從而帶動(dòng)全要素生產(chǎn)率的大幅提升。人工智能技術(shù)推動(dòng)的新一輪產(chǎn)業(yè)革命也被稱(chēng)為智能化革命或第四次產(chǎn)業(yè)革命??梢哉f(shuō),誰(shuí)掌握了人工智能創(chuàng)新發(fā)展優(yōu)勢(shì)地位,誰(shuí)就主導(dǎo)了全球第四次產(chǎn)業(yè)革命。在此背景下,人工智能監(jiān)管應(yīng)順應(yīng)新一輪產(chǎn)業(yè)革命趨勢(shì),助力發(fā)展新質(zhì)生產(chǎn)力。
在全球高科技競(jìng)爭(zhēng)的背景下,人工智能是中國(guó)實(shí)現(xiàn)高水平科技自立自強(qiáng)的關(guān)鍵核心技術(shù)。目前,人工智能成為全球大國(guó)戰(zhàn)略競(jìng)爭(zhēng)的新賽道,它是中美兩國(guó)高科技競(jìng)爭(zhēng)的焦點(diǎn),人工智能創(chuàng)新發(fā)展很大程度上決定了中美高科技競(jìng)爭(zhēng)的走向。為了遏制中國(guó)人工智能創(chuàng)新發(fā)展,近年來(lái)美國(guó)先后出臺(tái)了涉及高端芯片、數(shù)據(jù)流動(dòng)、人才交流、風(fēng)險(xiǎn)資本等一攬子對(duì)華封鎖政策,并且美國(guó)政府還出臺(tái)了一系列確保美國(guó)人工智能全球領(lǐng)先的戰(zhàn)略規(guī)劃與支持政策;同時(shí)歐盟、英國(guó)等也都為爭(zhēng)奪人工智能全球領(lǐng)導(dǎo)地位而實(shí)施了一系列的支持政策。在人工智能全球戰(zhàn)略競(jìng)爭(zhēng)的背景下,人工智能監(jiān)管的科學(xué)性關(guān)乎中國(guó)人工智能創(chuàng)新發(fā)展和國(guó)際競(jìng)爭(zhēng)重大戰(zhàn)略目標(biāo)的實(shí)現(xiàn),要求人工智能監(jiān)管應(yīng)以促進(jìn)人工智能高質(zhì)量創(chuàng)新為根本原則,從而更好地服務(wù)于國(guó)家發(fā)展戰(zhàn)略。
人工智能監(jiān)管實(shí)際上是對(duì)處于快速發(fā)展中的創(chuàng)新進(jìn)行監(jiān)管,這內(nèi)在地要求建立與創(chuàng)新特性相匹配的監(jiān)管體制。人工智能技術(shù)創(chuàng)新的最根本特性是具有較高的不確定性,這也決定了人工智能風(fēng)險(xiǎn)的不確定性,并使監(jiān)管政策面對(duì)較大的不確定性。目前人工智能技術(shù)仍然處在快速創(chuàng)新和持續(xù)的迭代升級(jí)階段,其對(duì)經(jīng)濟(jì)社會(huì)的影響仍然具有非常大的不確定性。此時(shí),政府監(jiān)管面臨非常嚴(yán)重的信息不完全,監(jiān)管機(jī)構(gòu)也缺乏準(zhǔn)確預(yù)測(cè)風(fēng)險(xiǎn)和提前設(shè)計(jì)最優(yōu)監(jiān)管政策的能力,武斷的監(jiān)管會(huì)嚴(yán)重阻礙人工智能的創(chuàng)新發(fā)展。面對(duì)高度不確定性和復(fù)雜的人工智能技術(shù),人工智能監(jiān)管應(yīng)避免成為創(chuàng)新阻礙,從而喪失重大的發(fā)展機(jī)遇和創(chuàng)新收益。因此,人工智能監(jiān)管必須基于技術(shù)創(chuàng)新的不確定性和動(dòng)態(tài)發(fā)展性來(lái)進(jìn)行設(shè)計(jì),一方面要實(shí)行謙抑監(jiān)管,堅(jiān)持包容審慎的基本原則;另一方面要實(shí)行敏捷監(jiān)管,保持監(jiān)管制度供給的及時(shí)跟進(jìn)和良好制度回應(yīng),針對(duì)重大風(fēng)險(xiǎn)及時(shí)提供有效的監(jiān)管制度供給,確保人工智能創(chuàng)新發(fā)展并促進(jìn)人的福利全面提升。
創(chuàng)新友好監(jiān)管就是以促進(jìn)創(chuàng)新發(fā)展為根本原則,以最小化創(chuàng)新?lián)p害為監(jiān)管政策依據(jù),通過(guò)不斷完善和優(yōu)化監(jiān)管體制與治理體系,營(yíng)造有利于人工智能創(chuàng)新發(fā)展的生態(tài),從而實(shí)現(xiàn)監(jiān)管與創(chuàng)新的動(dòng)態(tài)匹配。創(chuàng)新友好監(jiān)管能夠很好地實(shí)現(xiàn)監(jiān)管與創(chuàng)新發(fā)展的平衡,促進(jìn)人工智能更好地創(chuàng)新發(fā)展并助力實(shí)現(xiàn)國(guó)家發(fā)展戰(zhàn)略,并最終全面提升人的福祉。因此,創(chuàng)新友好監(jiān)管體制應(yīng)成為人工智能監(jiān)管體制的基本模式選擇,監(jiān)管應(yīng)促進(jìn)安全可信基礎(chǔ)上的人工智能創(chuàng)新,通過(guò)監(jiān)管來(lái)營(yíng)造有利于創(chuàng)新發(fā)展的生態(tài)以最大化釋放人工智能促進(jìn)新質(zhì)生產(chǎn)力發(fā)展的巨大潛能,并促進(jìn)中國(guó)人工智能?chē)?guó)際競(jìng)爭(zhēng)力的提升,確保中國(guó)實(shí)現(xiàn)成為全球人工智能重要領(lǐng)導(dǎo)者的戰(zhàn)略目標(biāo)。
二、創(chuàng)新友好人工智能監(jiān)管的基本目標(biāo):可信人工智能
人工智能監(jiān)管主要是針對(duì)人工智能技術(shù)應(yīng)用所帶來(lái)的各種損害風(fēng)險(xiǎn)而采取有效的防控政策來(lái)最小化風(fēng)險(xiǎn),以最大化公共利益,實(shí)現(xiàn)技術(shù)創(chuàng)新發(fā)展與人的福利提升的協(xié)同。在技術(shù)快速變革的背景下,信任是人工智能創(chuàng)新發(fā)展的基石。可信人工智能監(jiān)管能很好地維護(hù)利益相關(guān)者的權(quán)益,并為人工智能的創(chuàng)新發(fā)展構(gòu)建信任的外部環(huán)境,從而為人工智能創(chuàng)新發(fā)展和商業(yè)應(yīng)用提供穩(wěn)定可預(yù)期的外部環(huán)境和豐富的應(yīng)用場(chǎng)景。為此,可信人工智能監(jiān)管應(yīng)包括四個(gè)核心要素:倫理的人工智能、可靠的人工智能、創(chuàng)新的人工智能、法治的人工智能。
1.倫理的人工智能
首先,人工智能系統(tǒng)應(yīng)用要保護(hù)人的基本權(quán)益。人工智能系統(tǒng)應(yīng)用要尊重和保護(hù)人的基本權(quán)利,不能限制和損害人的基本權(quán)利。人工智能系統(tǒng)開(kāi)發(fā)與應(yīng)用應(yīng)維護(hù)人的主體地位,不能損害人的基本權(quán)益,應(yīng)更好地促進(jìn)人的解放,為人的發(fā)展和福利提高創(chuàng)造更大的空間。人工智能技術(shù)不應(yīng)成為應(yīng)用者用來(lái)剝削消費(fèi)者、壓榨勞動(dòng)者、侵犯?jìng)€(gè)人隱私和損害個(gè)人尊嚴(yán)的工具。其次,人工智能系統(tǒng)應(yīng)尊重人的自決權(quán)。人始終是技術(shù)的主人而非技術(shù)的奴隸,人工智能系統(tǒng)必須始終是可控的,要確保人對(duì)人工智能系統(tǒng)應(yīng)用的決策能力和監(jiān)督能力。人工智能開(kāi)發(fā)應(yīng)用應(yīng)尊重人的自決權(quán),不能操縱信息和發(fā)布虛假信息、不能誤導(dǎo)人做出錯(cuò)誤的決策。再次,人工智能系統(tǒng)應(yīng)不損害公平正義。人工智能系統(tǒng)應(yīng)用應(yīng)確保公平和平等地分配成本與收益,確保弱勢(shì)群體免于人工智能應(yīng)用帶來(lái)的不公平對(duì)待和歧視性待遇。人工智能應(yīng)更好地促進(jìn)社會(huì)公平正義,使每個(gè)人平等地接受教育、獲得就業(yè)機(jī)會(huì)、享受公共服務(wù)。
2.可靠的人工智能
首先,人工智能系統(tǒng)應(yīng)用應(yīng)具有堅(jiān)實(shí)的技術(shù)保障。堅(jiān)實(shí)的技術(shù)保障要求人工智能系統(tǒng)在開(kāi)發(fā)時(shí)采用適當(dāng)預(yù)防風(fēng)險(xiǎn)的方法,以能夠可靠地預(yù)期行為的方式,將各種損害風(fēng)險(xiǎn)降至最低,并重點(diǎn)防止不可接受損害風(fēng)險(xiǎn)的出現(xiàn)。其次,人工智能系統(tǒng)應(yīng)用應(yīng)具有科學(xué)的風(fēng)險(xiǎn)管控措施。人工智能系統(tǒng)應(yīng)用安全不僅體現(xiàn)在技術(shù)保障上,而且也體現(xiàn)于系統(tǒng)應(yīng)用者的組織治理制度和政府監(jiān)管制度保障。為防范人工智能應(yīng)用風(fēng)險(xiǎn),需要建立全生命周期的風(fēng)險(xiǎn)防控機(jī)制,通過(guò)系統(tǒng)設(shè)計(jì)階段的風(fēng)險(xiǎn)防范設(shè)計(jì),安裝使用階段的風(fēng)險(xiǎn)評(píng)估、風(fēng)險(xiǎn)監(jiān)測(cè)、風(fēng)險(xiǎn)處置等來(lái)確保有效地防控風(fēng)險(xiǎn),消除高損害風(fēng)險(xiǎn)的發(fā)生,減少一般損害風(fēng)險(xiǎn)的發(fā)生。再次,人工智能系統(tǒng)應(yīng)用應(yīng)具有可問(wèn)責(zé)的治理制度。人工智能系統(tǒng)應(yīng)用者是確保人工智能應(yīng)用安全可信的第一責(zé)任人。為此,應(yīng)明確人工智能應(yīng)用者需要履行的基本安全義務(wù),建立包括人工智能審計(jì)、人工智能應(yīng)用評(píng)估報(bào)告、利益相關(guān)者參與及其法律行政責(zé)任等在內(nèi)的問(wèn)責(zé)制。
3.創(chuàng)新的人工智能
首先,政府監(jiān)管應(yīng)更好地促進(jìn)人工智能技術(shù)創(chuàng)新。在人工智能驅(qū)動(dòng)的新一輪產(chǎn)業(yè)革命背景下,創(chuàng)新是實(shí)現(xiàn)社會(huì)公共利益最大化的最主要因素。人工智能監(jiān)管不能犧牲和阻礙創(chuàng)新發(fā)展,而應(yīng)更好地促進(jìn)人工智能負(fù)責(zé)任地持續(xù)創(chuàng)新發(fā)展。其次,政府監(jiān)管應(yīng)有助于人工智能?chē)?guó)家戰(zhàn)略的實(shí)現(xiàn)。人工智能是高技術(shù)創(chuàng)新行業(yè),是全球高科技競(jìng)爭(zhēng)的重點(diǎn),是中國(guó)搶占國(guó)際高科技領(lǐng)先地位的重要技術(shù)關(guān)鍵點(diǎn)。人工智能監(jiān)管應(yīng)有助于中國(guó)人工智能的創(chuàng)新發(fā)展,有助于中國(guó)人工智能技術(shù)、產(chǎn)業(yè)和企業(yè)群體持續(xù)增強(qiáng)國(guó)際競(jìng)爭(zhēng)力,助力中國(guó)成為全球人工智能領(lǐng)導(dǎo)者。再次,政府監(jiān)管應(yīng)采用鼓勵(lì)創(chuàng)新的政策工具。政府監(jiān)管應(yīng)該為人工智能技術(shù)創(chuàng)新、商業(yè)化應(yīng)用和產(chǎn)業(yè)化發(fā)展提供有利的政策環(huán)境,保持比例相稱(chēng)的監(jiān)管強(qiáng)度,避免超前監(jiān)管、過(guò)度監(jiān)管和一刀切監(jiān)管,更多地采取促進(jìn)創(chuàng)新的試驗(yàn)性監(jiān)管以及具有彈性的軟監(jiān)管政策。
4.法治的人工智能
首先,人工智能應(yīng)用應(yīng)具有相對(duì)完備的法律規(guī)則體系。人工智能創(chuàng)新發(fā)展不能野蠻生長(zhǎng),應(yīng)在法治的框架內(nèi)進(jìn)行。為此,需要根據(jù)技術(shù)發(fā)展和特定場(chǎng)景中技術(shù)應(yīng)用出現(xiàn)的各種風(fēng)險(xiǎn)損害及時(shí)制定和完善法律法規(guī),明確人工智能技術(shù)發(fā)展和應(yīng)用應(yīng)遵守的基本原則,劃定人工智能技術(shù)應(yīng)用不能觸碰的紅線,明確人工智能系統(tǒng)應(yīng)用者的治理責(zé)任,確保系統(tǒng)應(yīng)用者的權(quán)責(zé)對(duì)等。其次,人工智能應(yīng)用要依法合規(guī)。人工智能系統(tǒng)應(yīng)用應(yīng)在法治的框架下進(jìn)行,使用人工智能的私人組織和公共機(jī)關(guān)要遵守人工智能監(jiān)管的有關(guān)法律,依法開(kāi)發(fā)、安裝、使用人工智能系統(tǒng),遵守法律規(guī)定的基本原則,履行法定的基本義務(wù),并為明顯違背法律規(guī)定的行為承擔(dān)相應(yīng)法律責(zé)任。再次,政府監(jiān)管要依法行政。政府監(jiān)管也要遵守法治原則,監(jiān)管機(jī)構(gòu)的監(jiān)管職權(quán)必須具有明確法律授權(quán),執(zhí)法行動(dòng)必須依法合規(guī),并充分尊重企業(yè)經(jīng)營(yíng)自主權(quán)。面對(duì)動(dòng)態(tài)的人工智能技術(shù)創(chuàng)新,監(jiān)管機(jī)構(gòu)應(yīng)建立穩(wěn)定一貫的監(jiān)管規(guī)則體系和富有彈性的政策體系,為創(chuàng)新發(fā)展提供穩(wěn)定可預(yù)期的政策環(huán)境。
三、創(chuàng)新友好人工智能監(jiān)管的基本導(dǎo)向:基于風(fēng)險(xiǎn)的監(jiān)管
創(chuàng)新友好人工智能監(jiān)管力求在最小化人工智能技術(shù)應(yīng)用風(fēng)險(xiǎn)的同時(shí)最大化釋放創(chuàng)新潛能。人工智能監(jiān)管是針對(duì)創(chuàng)新技術(shù)應(yīng)用所帶來(lái)的不確定性風(fēng)險(xiǎn)的監(jiān)管,而不是對(duì)研發(fā)創(chuàng)新的監(jiān)管。因此,創(chuàng)新友好人工智能監(jiān)管最科學(xué)的方式是實(shí)行基于風(fēng)險(xiǎn)的監(jiān)管,通過(guò)科學(xué)的風(fēng)險(xiǎn)評(píng)估來(lái)建立基于風(fēng)險(xiǎn)損害的分級(jí)分類(lèi)監(jiān)管,重點(diǎn)監(jiān)管不可接受風(fēng)險(xiǎn)和高風(fēng)險(xiǎn)人工智能應(yīng)用,對(duì)中風(fēng)險(xiǎn)人工智能應(yīng)用則采用低強(qiáng)度監(jiān)管,對(duì)低風(fēng)險(xiǎn)人工智能應(yīng)用則實(shí)行監(jiān)管豁免,①?gòu)亩鰪?qiáng)監(jiān)管的適時(shí)性、針對(duì)性、精準(zhǔn)性和比例性,避免一刀切監(jiān)管和過(guò)度監(jiān)管對(duì)創(chuàng)新的巨大損害,使人工智能創(chuàng)新主體和應(yīng)用主體能夠明確紅綠燈,形成穩(wěn)定預(yù)期,從而有激勵(lì)持續(xù)地增加創(chuàng)新投入和進(jìn)行商業(yè)化開(kāi)發(fā),實(shí)現(xiàn)風(fēng)險(xiǎn)管控與創(chuàng)新發(fā)展的平衡。
1.基于風(fēng)險(xiǎn)損害程度的分級(jí)監(jiān)管
人工智能監(jiān)管應(yīng)根據(jù)人工智能在特定環(huán)境下應(yīng)用可能對(duì)相關(guān)主體造成的風(fēng)險(xiǎn)損害程度,來(lái)設(shè)計(jì)與損害程度相稱(chēng)的監(jiān)管強(qiáng)度和政策手段。人工智能技術(shù)發(fā)展帶來(lái)的風(fēng)險(xiǎn)主要不是技術(shù)本身的風(fēng)險(xiǎn),而是人工智能應(yīng)用在特定場(chǎng)景中所產(chǎn)生的具有場(chǎng)景依賴(lài)的應(yīng)用風(fēng)險(xiǎn),因此基于風(fēng)險(xiǎn)的監(jiān)管重點(diǎn)是高風(fēng)險(xiǎn)的應(yīng)用場(chǎng)景。具體來(lái)說(shuō):一是基于人工智能系統(tǒng)應(yīng)用場(chǎng)景的風(fēng)險(xiǎn),對(duì)人工智能系統(tǒng)設(shè)定不同風(fēng)險(xiǎn)等級(jí)的標(biāo)準(zhǔn),針對(duì)不同風(fēng)險(xiǎn)等級(jí)的人工智能實(shí)行不同的監(jiān)管強(qiáng)度和監(jiān)管政策,政府監(jiān)管的重點(diǎn)是不可接受風(fēng)險(xiǎn)和高風(fēng)險(xiǎn)的人工智能系統(tǒng)應(yīng)用,特別是政府公共服務(wù)、司法系統(tǒng)、就業(yè)、招生等領(lǐng)域和對(duì)人身心健康帶來(lái)?yè)p害的人工智能應(yīng)重點(diǎn)監(jiān)管。二是基于人工智能應(yīng)用行業(yè)的風(fēng)險(xiǎn),根據(jù)不同行業(yè)的應(yīng)用風(fēng)險(xiǎn)損害程度,將關(guān)鍵信息基礎(chǔ)設(shè)施行業(yè)作為人工智能監(jiān)管的重點(diǎn)。關(guān)鍵信息基礎(chǔ)設(shè)施行業(yè)一般包括公共通信和信息服務(wù)、能源、交通、水利、金融、公共服務(wù)等重要行業(yè)和領(lǐng)域。三是基于人工智能系統(tǒng)影響的主體,重點(diǎn)強(qiáng)化對(duì)弱勢(shì)群體如兒童、殘疾人、老年人等的保護(hù)。
2.基于風(fēng)險(xiǎn)生成機(jī)制的分類(lèi)監(jiān)管
人工智能應(yīng)用監(jiān)管的重心是防止出現(xiàn)系統(tǒng)性偏差,由于人工智能風(fēng)險(xiǎn)是由多種因素造成的,監(jiān)管應(yīng)針對(duì)風(fēng)險(xiǎn)的不同成因精準(zhǔn)施策,長(zhǎng)短期措施有序安排,避免將人工智能技術(shù)作為罪魁禍?zhǔn)椎膯我痪S度監(jiān)管思維。首先是技術(shù)性偏差。技術(shù)性偏差是指人工智能系統(tǒng)程序設(shè)計(jì)、投入的數(shù)據(jù)質(zhì)量、系統(tǒng)運(yùn)行透明度低等因素造成的運(yùn)行結(jié)果偏差,其監(jiān)管政策是強(qiáng)化算法程序設(shè)計(jì)合規(guī)、加強(qiáng)數(shù)據(jù)治理、對(duì)人工智能系統(tǒng)的設(shè)計(jì)和安裝使用實(shí)施評(píng)估認(rèn)證制度。其次是人為性偏差。人為性偏差是指應(yīng)用者出于私人利益目標(biāo)而人為地操縱算法以謀取私利,典型的如數(shù)字企業(yè)有誤導(dǎo)性地推薦商品、發(fā)布虛假銷(xiāo)量數(shù)據(jù)、操縱用戶評(píng)價(jià)信息、刻意隱瞞隱私風(fēng)險(xiǎn)等。人為性偏差監(jiān)管政策的重點(diǎn)是強(qiáng)化人工智能系統(tǒng)應(yīng)用者的主體責(zé)任,增強(qiáng)人工智能系統(tǒng)應(yīng)用的透明度和可問(wèn)責(zé)性。再次是制度性偏差。人工智能應(yīng)用產(chǎn)生的偏差在某種程度上是社會(huì)價(jià)值觀念和運(yùn)行規(guī)則的偏差通過(guò)人工智能系統(tǒng)的放大反映。制度性偏差是指一個(gè)社會(huì)的法規(guī)、政策、制度體制、文化意識(shí)等所具有的歷史性局限,這種歷史形成的偏差或制度缺陷帶入人工智能系統(tǒng)會(huì)產(chǎn)生有偏差的運(yùn)行結(jié)果,從而限制個(gè)人權(quán)利,造成對(duì)特定群體的歧視,損害社會(huì)公平正義。解決制度性偏差的主要路徑是構(gòu)建利益相關(guān)者參與的多元治理體系,鼓勵(lì)利益相關(guān)者參與人工智能系統(tǒng)生命周期各個(gè)階段的治理,在多元主體良性互動(dòng)中消除制度性偏差。
3.基于風(fēng)險(xiǎn)階段差異的動(dòng)態(tài)監(jiān)管
動(dòng)態(tài)來(lái)看,人工智能風(fēng)險(xiǎn)的產(chǎn)生具有明顯的階段性分布特征,監(jiān)管需要針對(duì)人工智能技術(shù)發(fā)展不同階段的風(fēng)險(xiǎn)問(wèn)題來(lái)合理匹配監(jiān)管強(qiáng)度并科學(xué)選擇針對(duì)性政策。首先,在人工智能開(kāi)發(fā)設(shè)計(jì)階段,監(jiān)管主要是貫徹基于設(shè)計(jì)來(lái)確保合規(guī)的要求,在系統(tǒng)框架、算法運(yùn)行規(guī)則和數(shù)據(jù)投入設(shè)計(jì)中,避免將技術(shù)或人為的系統(tǒng)性偏見(jiàn)帶入,通過(guò)設(shè)計(jì)來(lái)確保合規(guī),實(shí)現(xiàn)設(shè)計(jì)的可信。其次,在模型測(cè)試驗(yàn)證階段,數(shù)據(jù)質(zhì)量是監(jiān)管的重點(diǎn),應(yīng)強(qiáng)化數(shù)據(jù)質(zhì)量標(biāo)準(zhǔn)和數(shù)據(jù)質(zhì)量管理體系,并建立有效的模型風(fēng)險(xiǎn)評(píng)估機(jī)制,提升風(fēng)險(xiǎn)防控措施的有效性。再次,在系統(tǒng)安裝階段,監(jiān)管主要是政府對(duì)較高風(fēng)險(xiǎn)的人工智能應(yīng)用進(jìn)行風(fēng)險(xiǎn)評(píng)估與算法審計(jì),防止高損害風(fēng)險(xiǎn)人工智能系統(tǒng)的安裝應(yīng)用。最后,在系統(tǒng)運(yùn)行階段,應(yīng)對(duì)人工智能系統(tǒng)的運(yùn)行實(shí)行動(dòng)態(tài)監(jiān)控和評(píng)估,應(yīng)用主體應(yīng)具有科學(xué)的風(fēng)險(xiǎn)管理措施保障,以確保功能正常運(yùn)行,確保系統(tǒng)應(yīng)用不會(huì)造成意想不到的危害。在動(dòng)態(tài)的全生命周期監(jiān)管中,人工智能應(yīng)用主體的自我治理始終是基礎(chǔ),監(jiān)管需要科學(xué)定位政府監(jiān)管機(jī)構(gòu)和人工智能應(yīng)用主體的權(quán)責(zé)關(guān)系,注重激勵(lì)應(yīng)用主體開(kāi)展自我治理,構(gòu)建合作監(jiān)管體制。
4.基于風(fēng)險(xiǎn)演化的綜合監(jiān)管治理
人工智能技術(shù)應(yīng)用產(chǎn)生的潛在風(fēng)險(xiǎn)具有廣泛的經(jīng)濟(jì)社會(huì)影響,既需要技術(shù)治理體系的完善,也需要經(jīng)濟(jì)社會(huì)做出相適應(yīng)的制度變革。人工智能監(jiān)管不能將監(jiān)管對(duì)象局限于人工智能技術(shù)本身,讓人工智能承擔(dān)不合理的責(zé)任,而應(yīng)從多個(gè)層面著手并在多元主體間配置治理責(zé)任。首先,人工智能不僅僅是一種技術(shù)性工具,也是一種重構(gòu)人與人、人與企業(yè)、企業(yè)與政府等各種關(guān)系的力量,是一種新的經(jīng)濟(jì)社會(huì)權(quán)力。人工智能應(yīng)用風(fēng)險(xiǎn)實(shí)際是技術(shù)創(chuàng)新對(duì)原有技術(shù)、經(jīng)濟(jì)、社會(huì)平衡關(guān)系的沖擊所帶來(lái)的。其次,由于人工智能應(yīng)用超越了單純的技術(shù)工具范疇,它必然會(huì)受到各種復(fù)雜的經(jīng)濟(jì)社會(huì)關(guān)系的影響,人工智能應(yīng)用產(chǎn)生的各種偏差結(jié)果及其引發(fā)的歧視性本質(zhì)上是經(jīng)濟(jì)社會(huì)運(yùn)行中痼疾的技術(shù)性映射或技術(shù)性系統(tǒng)強(qiáng)化。再次,人工智能的創(chuàng)新發(fā)展必須具有兼容的經(jīng)濟(jì)社會(huì)環(huán)境,包容、信任、鼓勵(lì)的創(chuàng)新生態(tài)對(duì)人工智能創(chuàng)新發(fā)展至關(guān)重要。綜上,在技術(shù)、經(jīng)濟(jì)、社會(huì)都處在動(dòng)態(tài)變化的情況下,政府監(jiān)管不再是一個(gè)靜態(tài)的制度實(shí)施過(guò)程,而是對(duì)技術(shù)、經(jīng)濟(jì)、社會(huì)動(dòng)態(tài)變化所引發(fā)的利益相關(guān)者之間復(fù)雜利益沖突做出的主動(dòng)性監(jiān)管制度回應(yīng)。因此,人工智能監(jiān)管必須采用“技術(shù)—經(jīng)濟(jì)—社會(huì)”綜合治理理念,促進(jìn)技術(shù)、經(jīng)濟(jì)、社會(huì)的整體協(xié)同演化,從而構(gòu)建可信人工智能持續(xù)優(yōu)化的治理生態(tài)。
四、創(chuàng)新友好人工智能監(jiān)管的實(shí)現(xiàn)基礎(chǔ):監(jiān)管實(shí)施體制
創(chuàng)新友好監(jiān)管目標(biāo)的實(shí)現(xiàn)關(guān)鍵在于能否建立好的監(jiān)管實(shí)施體制。政府監(jiān)管是一種行政行為,監(jiān)管實(shí)施體制從根本上決定了監(jiān)管績(jī)效。① 作為一種顛覆性技術(shù),人工智能創(chuàng)新發(fā)展需要?jiǎng)?chuàng)新監(jiān)管實(shí)施體制,實(shí)現(xiàn)監(jiān)管與創(chuàng)新的動(dòng)態(tài)匹配。因此,人工智能監(jiān)管迫切需要建立有利于創(chuàng)新的監(jiān)管實(shí)施體制,營(yíng)造有利于同步促進(jìn)安全可信和創(chuàng)新發(fā)展的生態(tài)。為此,創(chuàng)新友好目標(biāo)導(dǎo)向的政府監(jiān)管機(jī)構(gòu)需要發(fā)揮好兩種基本的角色:一是消極行動(dòng)者角色,即通過(guò)完善監(jiān)管行政制度確保政府監(jiān)管不會(huì)阻礙人工智能的創(chuàng)新發(fā)展;二是積極行動(dòng)者角色,即通過(guò)監(jiān)管為人工智能創(chuàng)新發(fā)展提供有力的要素供給和產(chǎn)業(yè)化應(yīng)用場(chǎng)景,并營(yíng)造有利于創(chuàng)新發(fā)展的制度環(huán)境,以最大化促進(jìn)人工智能創(chuàng)新發(fā)展。
1.創(chuàng)新友好人工智能監(jiān)管要確保監(jiān)管與創(chuàng)新的動(dòng)態(tài)匹配
從政府監(jiān)管與人工智能創(chuàng)新發(fā)展的關(guān)系來(lái)說(shuō),創(chuàng)新友好監(jiān)管體制關(guān)鍵是形成監(jiān)管與創(chuàng)新的動(dòng)態(tài)匹配。首先,創(chuàng)新友好人工智能監(jiān)管應(yīng)實(shí)現(xiàn)二者的協(xié)調(diào)。政府監(jiān)管與創(chuàng)新發(fā)展的協(xié)調(diào)體現(xiàn)在兩個(gè)方面:一是監(jiān)管有利于人工智能高質(zhì)量創(chuàng)新發(fā)展,科學(xué)的人工智能監(jiān)管能夠?yàn)槿斯ぶ悄軇?chuàng)新發(fā)展?fàn)I造安全可信的外部環(huán)境,既會(huì)增強(qiáng)消費(fèi)者的信心,從而擴(kuò)大人工智能的應(yīng)用場(chǎng)景,也會(huì)增進(jìn)研發(fā)者和投資者從事研發(fā)創(chuàng)新的積極性,從而總體上促進(jìn)人工智能創(chuàng)新發(fā)展;二是人工智能創(chuàng)新發(fā)展有利于高效能監(jiān)管,人工智能技術(shù)創(chuàng)新發(fā)展會(huì)不斷優(yōu)化技術(shù)設(shè)計(jì),消除技術(shù)性缺陷帶來(lái)的風(fēng)險(xiǎn),安全技術(shù)創(chuàng)新會(huì)為消除風(fēng)險(xiǎn)提供有效技術(shù)治理手段,同時(shí)人工智能技術(shù)創(chuàng)新也為實(shí)現(xiàn)政府監(jiān)管的智能化提供了技術(shù)支持。其次,創(chuàng)新友好人工智能監(jiān)管要避免二者的動(dòng)態(tài)失調(diào)。政府監(jiān)管與人工智能創(chuàng)新發(fā)展的失調(diào)主要體現(xiàn)在兩個(gè)方面:一是人工智能技術(shù)創(chuàng)新打破了原有監(jiān)管體制維持的均衡態(tài)勢(shì),新技術(shù)的出現(xiàn)導(dǎo)致原有監(jiān)管體制與政策工具失效,產(chǎn)生較大的監(jiān)管缺口,降低政府監(jiān)管整體效能,從而帶來(lái)較高的風(fēng)險(xiǎn)隱患;二是不科學(xué)的政府監(jiān)管?chē)?yán)重阻礙了人工智能創(chuàng)新發(fā)展,這主要體現(xiàn)為監(jiān)管不足與監(jiān)管過(guò)度:前者體現(xiàn)為面對(duì)人工智能快速的創(chuàng)新發(fā)展,政府監(jiān)管沒(méi)有提供及時(shí)有效的制度供給,導(dǎo)致人工智能創(chuàng)新發(fā)展產(chǎn)生風(fēng)險(xiǎn)損害,并使創(chuàng)新發(fā)展缺乏良好外部環(huán)境;后者體現(xiàn)為政府錯(cuò)誤的監(jiān)管決策、過(guò)于超前的監(jiān)管政策、不合理的高強(qiáng)度監(jiān)管、不科學(xué)的政策工具導(dǎo)致人工智能創(chuàng)新發(fā)展面臨過(guò)度的不合理限制和過(guò)高合規(guī)成本,嚴(yán)重打擊微觀主體創(chuàng)新積極性,或嚴(yán)重阻礙創(chuàng)新成果商業(yè)化應(yīng)用和產(chǎn)業(yè)化發(fā)展。因此,創(chuàng)新友好監(jiān)管體制要通過(guò)制度建設(shè)來(lái)避免監(jiān)管不足和監(jiān)管過(guò)度對(duì)創(chuàng)新的阻礙和對(duì)監(jiān)管效能的制約,確保政府監(jiān)管與技術(shù)創(chuàng)新的動(dòng)態(tài)最優(yōu)匹配(見(jiàn)圖1)。
2.創(chuàng)新友好人工智能監(jiān)管實(shí)施體制應(yīng)堅(jiān)持的原則
創(chuàng)新友好人工智能監(jiān)管應(yīng)堅(jiān)持如下的基本原則:一是法治化原則。政府應(yīng)確保監(jiān)管規(guī)則的明確性和一致性,避免削弱企業(yè)投資激勵(lì)和企業(yè)家創(chuàng)新創(chuàng)業(yè)的信心。二是突出原則監(jiān)管原則。對(duì)于不明確的風(fēng)險(xiǎn)或尚未大規(guī)模顯現(xiàn)的風(fēng)險(xiǎn)適用原則監(jiān)管,監(jiān)管機(jī)構(gòu)制定基本的行為原則,具體實(shí)施則由企業(yè)根據(jù)自身的實(shí)際情況來(lái)靈活決定;僅對(duì)大量事實(shí)已充分證明具有嚴(yán)重危害的人工智能開(kāi)發(fā)應(yīng)用風(fēng)險(xiǎn)才實(shí)行規(guī)則監(jiān)管,監(jiān)管機(jī)構(gòu)直接規(guī)定企業(yè)不可以實(shí)施的具體應(yīng)用或行為。三是增強(qiáng)公眾信任原則。監(jiān)管應(yīng)重在構(gòu)建公眾對(duì)人工智能開(kāi)發(fā)應(yīng)用的信任,監(jiān)管不僅要關(guān)注人工智能技術(shù)安全、治理制度安全和商業(yè)應(yīng)用安全來(lái)保護(hù)人的基本權(quán)益,也要通過(guò)增強(qiáng)透明度和安全宣傳等來(lái)提高公眾信任。四是風(fēng)險(xiǎn)敏感原則。政府監(jiān)管應(yīng)根據(jù)不同風(fēng)險(xiǎn)損害來(lái)實(shí)施相匹配的監(jiān)管強(qiáng)度與監(jiān)管政策,貫徹基于風(fēng)險(xiǎn)的監(jiān)管體制。五是最小化創(chuàng)新?lián)p害原則。監(jiān)管工具選擇應(yīng)追求最小化創(chuàng)新?lián)p害,通過(guò)科學(xué)的政策影響評(píng)估和政策優(yōu)化,采取創(chuàng)新?lián)p害最小的政策工具,并將促進(jìn)企業(yè)主動(dòng)合規(guī)和軟監(jiān)管措施作為優(yōu)先選項(xiàng)。
3.創(chuàng)新友好人工智能監(jiān)管的行政體制保障
在人工智能監(jiān)管中,政府始終是最為關(guān)鍵的監(jiān)管主體,尤其是在行政監(jiān)管主導(dǎo)的體制中,法治化的監(jiān)管行政體制是創(chuàng)新的重要保障。創(chuàng)新友好監(jiān)管行政體制建設(shè)重點(diǎn)為:一是構(gòu)建高效協(xié)同的監(jiān)管機(jī)構(gòu)體系。政府監(jiān)管層面,應(yīng)建立國(guó)家統(tǒng)一監(jiān)管與行業(yè)分散監(jiān)管相結(jié)合體制,國(guó)家統(tǒng)一立法,由國(guó)家專(zhuān)門(mén)監(jiān)管機(jī)構(gòu)負(fù)責(zé)統(tǒng)一執(zhí)法,各行業(yè)主管部門(mén)根據(jù)行業(yè)領(lǐng)域制定細(xì)則并負(fù)責(zé)本行業(yè)監(jiān)管。為了促進(jìn)各部門(mén)的協(xié)同監(jiān)管,應(yīng)根據(jù)權(quán)責(zé)對(duì)等原則來(lái)配置各部門(mén)的監(jiān)管職責(zé),完善部際協(xié)同監(jiān)管體制。二是建立體現(xiàn)程序正義的監(jiān)管行政程序。正當(dāng)?shù)男姓绦蚴欠乐剐姓O(jiān)管權(quán)濫用,避免監(jiān)管失誤與阻礙創(chuàng)新的重要制度保障。為此,應(yīng)重點(diǎn)強(qiáng)化監(jiān)管影響評(píng)估制度,監(jiān)管部門(mén)出臺(tái)監(jiān)管政策必須進(jìn)行成本與收益評(píng)估,尤其是重點(diǎn)評(píng)估其對(duì)創(chuàng)新發(fā)展帶來(lái)的影響,并比較各種替代性方案來(lái)選擇創(chuàng)新?lián)p害最小的政策方案。三是建立公私合作監(jiān)管新體制。人工智能監(jiān)管要構(gòu)建公私合作體制,政府監(jiān)管機(jī)構(gòu)與大型數(shù)字平臺(tái)企業(yè)、行業(yè)組織等建立合作監(jiān)管體制,并積極吸收利益相關(guān)者參與治理,構(gòu)建多元主體參與的監(jiān)管治理體制。
4.創(chuàng)新友好人工智能監(jiān)管的政策工具創(chuàng)新
第一,建立多種政策手段相機(jī)應(yīng)用的人工智能監(jiān)管工具箱。依據(jù)人工智能監(jiān)管強(qiáng)度,監(jiān)管政策工具包括五種:一是倫理治理。人工智能監(jiān)管應(yīng)堅(jiān)持倫理先行,建立并完善人工智能倫理準(zhǔn)則,通過(guò)完善制度確保落實(shí),將倫理融入人工智能全周期,使遵守倫理準(zhǔn)則成為相關(guān)主體的自覺(jué)行動(dòng),實(shí)現(xiàn)內(nèi)源性治理。二是系統(tǒng)應(yīng)用者的自我監(jiān)管。要充分發(fā)揮系統(tǒng)應(yīng)用者作為風(fēng)險(xiǎn)控制第一責(zé)任人的主體地位,激勵(lì)其主動(dòng)采取有效措施來(lái)降低各種風(fēng)險(xiǎn)。三是行業(yè)組織私人監(jiān)管。其措施包括行業(yè)組織制定行為規(guī)則、制定與推行行業(yè)管理或技術(shù)安全標(biāo)準(zhǔn)、開(kāi)展行業(yè)算法認(rèn)證等。四是政府監(jiān)管。政府監(jiān)管機(jī)構(gòu)應(yīng)多采用信息披露、安全標(biāo)準(zhǔn)、應(yīng)用指南、安全認(rèn)證等軟監(jiān)管方式。五是技術(shù)性解決方案。人工智能安全技術(shù)為人工智能監(jiān)管提供了新的治理手段,如隱私安全技術(shù)能實(shí)現(xiàn)“數(shù)據(jù)可用不可見(jiàn)”,充分保障隱私安全。綜上,人工智能監(jiān)管應(yīng)根據(jù)不同應(yīng)用場(chǎng)景來(lái)靈活選擇政策工具,注重不同政策工具的組合,并最小化命令—控制式監(jiān)管手段的應(yīng)用。
第二,實(shí)施規(guī)則透明、外部評(píng)估與內(nèi)部自評(píng)相結(jié)合的人工智能影響評(píng)估制度。人工智能影響評(píng)估重點(diǎn)是針對(duì)人工智能系統(tǒng)應(yīng)用的各種潛在影響進(jìn)行評(píng)估,影響評(píng)估包括人工智能系統(tǒng)應(yīng)用前的事前評(píng)估和人工智能系統(tǒng)應(yīng)用后的事后評(píng)估,影響評(píng)估的內(nèi)容重點(diǎn)是分析人工智能引發(fā)的潛在風(fēng)險(xiǎn)及其損害。影響評(píng)估制度是目前各國(guó)人工智能監(jiān)管的重要政策手段。2019年歐洲議會(huì)通過(guò)的《算法問(wèn)責(zé)與透明治理框架》、2022年3月美國(guó)國(guó)會(huì)通過(guò)的《2022年算法問(wèn)責(zé)法》都對(duì)達(dá)到適用標(biāo)準(zhǔn)的企業(yè)提出了進(jìn)行影響評(píng)估的要求。中國(guó)應(yīng)制定明確具體的政策,在高風(fēng)險(xiǎn)的重點(diǎn)領(lǐng)域推進(jìn)強(qiáng)制性人工智能應(yīng)用影響評(píng)估制度,明確影響評(píng)估的具體內(nèi)容和操作程序,并確保評(píng)估的透明。與此同時(shí),對(duì)于中低風(fēng)險(xiǎn)的領(lǐng)域則應(yīng)鼓勵(lì)企業(yè)基于自愿來(lái)開(kāi)展評(píng)估,并鼓勵(lì)主動(dòng)采取合規(guī)治理措施。
第三,采用鼓勵(lì)創(chuàng)新的人工智能監(jiān)管政策以最大化促進(jìn)創(chuàng)新。為鼓勵(lì)創(chuàng)新,人工智能監(jiān)管應(yīng)更多采用“監(jiān)管沙盒”等試驗(yàn)性監(jiān)管政策。對(duì)于一些具有較大原創(chuàng)性的人工智能技術(shù)研發(fā)或通用性人工智能技術(shù)研發(fā)可以設(shè)立安全區(qū),對(duì)研發(fā)階段的人工智能技術(shù)實(shí)行監(jiān)管責(zé)任豁免,并通過(guò)監(jiān)管為人工智能技術(shù)研發(fā)提供高質(zhì)量數(shù)據(jù)供給、統(tǒng)一調(diào)度的算力和開(kāi)放創(chuàng)新的生態(tài);對(duì)于已經(jīng)開(kāi)發(fā)成功并將進(jìn)行商業(yè)化應(yīng)用的人工智能,可在一定的可控范圍內(nèi)進(jìn)行試驗(yàn)性應(yīng)用,充分評(píng)估潛在的主要風(fēng)險(xiǎn),據(jù)此要求企業(yè)在技術(shù)應(yīng)用中來(lái)提升數(shù)據(jù)質(zhì)量、完善系統(tǒng)設(shè)計(jì)和完善風(fēng)險(xiǎn)管理措施,同時(shí)也要主動(dòng)優(yōu)化政府監(jiān)管體制和創(chuàng)新監(jiān)管政策,實(shí)現(xiàn)政府監(jiān)管與創(chuàng)新的匹配;對(duì)于暫時(shí)無(wú)法確定人工智能應(yīng)用風(fēng)險(xiǎn)的新技術(shù)產(chǎn)業(yè)化應(yīng)用,應(yīng)建立必要的容錯(cuò)機(jī)制,以鼓勵(lì)創(chuàng)新發(fā)展。為促進(jìn)人工智能商業(yè)化應(yīng)用和產(chǎn)業(yè)化發(fā)展,應(yīng)建立和完善人工智能監(jiān)管政策和創(chuàng)新發(fā)展政策的協(xié)同機(jī)制,通過(guò)政府監(jiān)管來(lái)消除阻礙人工智能創(chuàng)新發(fā)展的各種障礙,營(yíng)造有利于創(chuàng)新發(fā)展的要素供給、應(yīng)用場(chǎng)景、政策與制度環(huán)境,以全面促進(jìn)人工智能創(chuàng)新發(fā)展。
五、中國(guó)人工智能監(jiān)管體制完善的重點(diǎn)
面對(duì)人工智能應(yīng)用帶來(lái)的潛在風(fēng)險(xiǎn),強(qiáng)化風(fēng)險(xiǎn)管控是人工智能監(jiān)管的重要任務(wù)。2021年國(guó)家新一代人工智能治理專(zhuān)業(yè)委員會(huì)發(fā)布了《新一代人工智能倫理規(guī)范》,以網(wǎng)信辦為主的監(jiān)管機(jī)構(gòu)制定了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》和《生成式人工智能服務(wù)管理暫行辦法》等監(jiān)管法規(guī),并不斷強(qiáng)化監(jiān)管行政執(zhí)法。長(zhǎng)期以來(lái),中國(guó)政府監(jiān)管體制具有典型的強(qiáng)政府特征,同時(shí)監(jiān)管職權(quán)配置是明顯的條塊分割體制。在中國(guó)特色政府監(jiān)管體制下,如何防止不恰當(dāng)?shù)谋O(jiān)管實(shí)施體制損害人工智能創(chuàng)y2Rn18SgQ8CdBQvzzy5A8g==新發(fā)展,是一個(gè)亟待從根本上解決的重大問(wèn)題。未來(lái)中國(guó)人工智能監(jiān)管體制應(yīng)重點(diǎn)在如下方面予以完善:
第一,起草制定《人工智能法》,以強(qiáng)化監(jiān)管法治化。當(dāng)前,中國(guó)系統(tǒng)監(jiān)管人工智能的國(guó)家級(jí)法律依然處于缺失狀態(tài),分散的部門(mén)立法和多頭管理增加了人工智能創(chuàng)新發(fā)展的政策不確定性,迫切需要通過(guò)統(tǒng)一的國(guó)家層級(jí)立法來(lái)明確人工智能監(jiān)管的基礎(chǔ)性問(wèn)題,為人工智能創(chuàng)新發(fā)展提供穩(wěn)定可預(yù)期的制度保障。具體建議如下:一是確立以人為本的立法理念。人工智能監(jiān)管的基本理念應(yīng)堅(jiān)持以人為中心,增進(jìn)人類(lèi)福祉,促進(jìn)人的全面發(fā)展。二是明確人工智能監(jiān)管基本原則。人工智能開(kāi)發(fā)應(yīng)用應(yīng)遵循安全性原則、透明度原則、公平性原則和問(wèn)責(zé)性原則。三是明確政府監(jiān)管要遵守法治化原則。政府監(jiān)管要嚴(yán)格法治化,明確相關(guān)部門(mén)的職權(quán)權(quán)限和監(jiān)管責(zé)任,切實(shí)依法行政。四是明確基于風(fēng)險(xiǎn)的分級(jí)分類(lèi)監(jiān)管。依據(jù)人工智能風(fēng)險(xiǎn)評(píng)估和風(fēng)險(xiǎn)等級(jí)劃分,實(shí)行基于風(fēng)險(xiǎn)的分級(jí)分類(lèi)監(jiān)管,針對(duì)不同行業(yè)獨(dú)特應(yīng)用場(chǎng)景來(lái)建立分產(chǎn)業(yè)風(fēng)險(xiǎn)評(píng)估和監(jiān)管體系。五是促進(jìn)多元治理與開(kāi)放合作。要消除阻礙開(kāi)放創(chuàng)新的各種行政壁壘,促進(jìn)形成利益相關(guān)者合作治理體系,并鼓勵(lì)合作創(chuàng)新和開(kāi)源生態(tài)體系建設(shè),形成有利于創(chuàng)新的合作與開(kāi)放生態(tài)。六是人工智能監(jiān)管要堅(jiān)持國(guó)際化。人工智能監(jiān)管要遵守國(guó)際共識(shí)和共同原則,加強(qiáng)人工智能監(jiān)管政策的國(guó)際協(xié)調(diào),積極推動(dòng)人工智能創(chuàng)新的國(guó)際合作,為中國(guó)人工智能全球化創(chuàng)新發(fā)展提供有利的國(guó)際環(huán)境。
第二,著力改革完善監(jiān)管行政執(zhí)法體制,以提升監(jiān)管正當(dāng)化。一是政府監(jiān)管必須始終依法行政。政府監(jiān)管權(quán)的行使必須具有明確的法律授權(quán),不能隨意執(zhí)法和恣意妄為,根本消除過(guò)度監(jiān)管、不當(dāng)監(jiān)管對(duì)創(chuàng)新發(fā)展造成的嚴(yán)重?fù)p害,營(yíng)造有利于創(chuàng)新發(fā)展的政策環(huán)境。二是政府監(jiān)管必須確保政策合力。政府監(jiān)管體制要防止部門(mén)主義的冒進(jìn)執(zhí)法,要注重消除地方保護(hù)主義對(duì)形成人工智能創(chuàng)新開(kāi)放生態(tài)和全國(guó)統(tǒng)一大市場(chǎng)的各種阻礙,健全人工智能監(jiān)管機(jī)構(gòu)體系和部門(mén)協(xié)同體制,確保監(jiān)管政策的統(tǒng)一性,明確人工智能監(jiān)管必須服務(wù)于促進(jìn)人工智能創(chuàng)新發(fā)展的重大國(guó)家戰(zhàn)略。三是政府監(jiān)管必須具備公正程序。政府監(jiān)管政策制定必須有公眾意見(jiàn)征詢(xún)過(guò)程,必須進(jìn)行監(jiān)管政策成本—收益分析,監(jiān)管必須建立政策實(shí)施效果后評(píng)估制度,并實(shí)施相應(yīng)的事后問(wèn)責(zé)機(jī)制。四是監(jiān)管方式應(yīng)創(chuàng)新友好。政府監(jiān)管應(yīng)及時(shí)清理阻礙創(chuàng)新發(fā)展的監(jiān)管政策,并及時(shí)出臺(tái)與創(chuàng)新發(fā)展相適應(yīng)的監(jiān)管政策。監(jiān)管手段應(yīng)更多地采用標(biāo)準(zhǔn)化、指南、行為準(zhǔn)則等非約束性監(jiān)管政策,并強(qiáng)化監(jiān)管政策工具創(chuàng)新。應(yīng)推行數(shù)據(jù)質(zhì)量標(biāo)準(zhǔn)化,促進(jìn)高質(zhì)量數(shù)據(jù)供給;打破條塊分割體制,提升全國(guó)算力設(shè)施系統(tǒng)調(diào)度;建立鼓勵(lì)創(chuàng)新的新型知識(shí)產(chǎn)權(quán)保護(hù)制度;建立人工智能測(cè)試中心和商業(yè)化應(yīng)用試驗(yàn)區(qū),實(shí)施監(jiān)管沙盒制度;鼓勵(lì)安全技術(shù)開(kāi)發(fā)、應(yīng)用和產(chǎn)業(yè)化發(fā)展,增強(qiáng)安全技術(shù)保障;改革教育體制、科技體制和融資體制,培育數(shù)據(jù)要素市場(chǎng),促進(jìn)數(shù)據(jù)流動(dòng),消除阻礙人工智能創(chuàng)新發(fā)展的各種體制政策障礙,營(yíng)造促進(jìn)創(chuàng)新發(fā)展的外部環(huán)境。
第三,建立系統(tǒng)應(yīng)用者主動(dòng)治理的激勵(lì)制度,以增強(qiáng)監(jiān)管合規(guī)化。人工智能應(yīng)用者的自我治理是實(shí)現(xiàn)創(chuàng)新友好監(jiān)管的重要基礎(chǔ),要尊重企業(yè)自主經(jīng)營(yíng)權(quán),鼓勵(lì)企業(yè)根據(jù)自身情況來(lái)選擇最佳合規(guī)方案,從而最小化政府監(jiān)管的創(chuàng)新?lián)p害。一是依據(jù)比例原則合理確定人工智能系統(tǒng)應(yīng)用者的治理責(zé)任。人工智能系統(tǒng)的安全責(zé)任應(yīng)主要配置給人工智能系統(tǒng)應(yīng)用者,其應(yīng)承擔(dān)必要的注意義務(wù),應(yīng)建立科學(xué)、規(guī)范和系統(tǒng)的風(fēng)險(xiǎn)管理制度體系,充分履行相應(yīng)的安全保障責(zé)任。二是高風(fēng)險(xiǎn)人工智能應(yīng)用者應(yīng)充分履行透明度義務(wù),保障消費(fèi)者的基本權(quán)益,以增強(qiáng)公眾信任。人工智能系統(tǒng)應(yīng)確保具有透明度,使用戶能夠理解并正確使用系統(tǒng)輸出結(jié)果。人工智能采集利用消費(fèi)者數(shù)據(jù)要遵守“知情—同意”要求,基于人工智能的個(gè)人化定價(jià)、內(nèi)容推薦等必須事前明確告知消費(fèi)者,人工智能合成的內(nèi)容必須進(jìn)行明確的標(biāo)簽標(biāo)注,并賦予消費(fèi)者不同的應(yīng)用界面選項(xiàng)。三是強(qiáng)化對(duì)人工智能應(yīng)用者的問(wèn)責(zé)。人工智能系統(tǒng)應(yīng)用者需要對(duì)人工智能應(yīng)用風(fēng)險(xiǎn)承擔(dān)第一責(zé)任,并履行相應(yīng)的問(wèn)責(zé)義務(wù)要求。四是強(qiáng)化對(duì)企業(yè)主動(dòng)合規(guī)的激勵(lì)機(jī)制建設(shè),實(shí)施可信人工智能安全認(rèn)證與動(dòng)態(tài)的安全可信評(píng)估,讓安全成為企業(yè)競(jìng)爭(zhēng)的重要質(zhì)量維度,對(duì)于具有可信的安全保障能力的企業(yè)可以給予更多的治理自主權(quán)和一定的產(chǎn)業(yè)政策優(yōu)惠。
第四,實(shí)現(xiàn)倫理治理的全過(guò)程內(nèi)嵌,以突出監(jiān)管軟性化。倫理是實(shí)現(xiàn)人工智能創(chuàng)新發(fā)展與安全應(yīng)用相平衡的重要軟監(jiān)管方式。為有效發(fā)揮倫理的內(nèi)源性治理作用,需要進(jìn)一步完善相關(guān)制度。具體而言:一是進(jìn)一步明確人工智能倫理原則。人工智能治理的價(jià)值準(zhǔn)則是以人為中心,人工智能相關(guān)活動(dòng)過(guò)程應(yīng)遵守增進(jìn)人類(lèi)福祉、尊重和保護(hù)人的基本權(quán)利、堅(jiān)持公平公正、合理控制風(fēng)險(xiǎn)和保持公開(kāi)透明等原則,應(yīng)通過(guò)指南對(duì)上述原則做出明確界定。二是健全人工智能倫理治理體制。應(yīng)完善政府人工智能倫理管理體制,明確相關(guān)主體倫理治理責(zé)任,使倫理成為激勵(lì)和約束企業(yè)的重要內(nèi)源性治理機(jī)制。三是加強(qiáng)倫理治理制度保障。應(yīng)完善人工智能倫理規(guī)范和標(biāo)準(zhǔn),建立人工智能倫理評(píng)價(jià)制度,并及時(shí)將重要的倫理規(guī)范上升為法律法規(guī)。四是深入開(kāi)展人工智能倫理教育。要重視人工智能倫理教育,積極推動(dòng)人工智能倫理培訓(xùn),強(qiáng)化相關(guān)人員的倫理意識(shí)。