施娟萍
人工智能是新一輪產(chǎn)業(yè)變革的核心驅(qū)動(dòng)力。上海已將人工智能、生物醫(yī)藥、集成電路作為三大戰(zhàn)略性新興產(chǎn)業(yè)。人工智能在賦能發(fā)展的同時(shí),也帶來了諸多風(fēng)險(xiǎn)挑戰(zhàn),需要進(jìn)行防范和應(yīng)對(duì)。
一、人工智能治理的研究框架思考
我國國家和地方層面尚未出臺(tái)統(tǒng)一的人工智能立法,人工智能治理規(guī)則散見在部分法律及近年來系列政策文件中。
國家的法律涉及信息安全、隱私保護(hù)等領(lǐng)域,國家的政策文件既涉及人工智能相關(guān)行動(dòng)實(shí)施方案、發(fā)展規(guī)劃、治理原則等總攬性領(lǐng)域,也關(guān)注教育、環(huán)境、智能汽車等細(xì)分場景領(lǐng)域。上海的政策文件則主要集中于產(chǎn)業(yè)發(fā)展、細(xì)分場景及試驗(yàn)區(qū)建設(shè)等方面。
人工智能治理應(yīng)遵循兩條主線:堅(jiān)守底線和促進(jìn)創(chuàng)新。一方面保留足夠的彈性與包容度,防止對(duì)技術(shù)創(chuàng)新的不當(dāng)干預(yù);另一方面,在適度寬松的治理取向下嚴(yán)守監(jiān)管底線,有效預(yù)防風(fēng)險(xiǎn)。
二、人工智能治理的底線規(guī)則
(一)倫理底線
尊重倫理是人工智能技術(shù)研發(fā)和應(yīng)用的底線,應(yīng)將相關(guān)治理提前到算法設(shè)計(jì)階段,同時(shí)在人工智能產(chǎn)品適用階段施加良性規(guī)制,防止不符合人類倫理的人工智能產(chǎn)品的實(shí)際應(yīng)用。
(二)隱私權(quán)保護(hù)底線
知情同意、收集必要性已成為收集數(shù)據(jù)必須遵循的共識(shí)性原則,但仍需通過具體化的場景對(duì)技術(shù)和算法的應(yīng)用進(jìn)行規(guī)制比如,在數(shù)據(jù)收集階段設(shè)立隱私協(xié)議合規(guī)審查制度;在數(shù)據(jù)利用階段加強(qiáng)對(duì)影響殺熟程度較高的數(shù)據(jù)的管制等。
(三)信息安全底線
數(shù)據(jù)是人工智能的基本資料。在堅(jiān)守信息安全底線方面,需要從宏觀層面設(shè)立共通的安全標(biāo)準(zhǔn)以作為人機(jī)共存社會(huì)的治理底線,著重保障社會(huì)安全、社會(huì)公平和社會(huì)效率。
三、人工智能治理的場景規(guī)則
(一)人工智能體及其應(yīng)用場景研究
人工智能體治理要重視個(gè)性化的實(shí)證治理機(jī)制,實(shí)現(xiàn)人工智能體安全保障的協(xié)同治理。比如,在自動(dòng)駕駛汽車領(lǐng)域,要區(qū)分人工介入駕駛的程度,探討產(chǎn)品責(zé)任的適用情形,研發(fā)針對(duì)自動(dòng)駕駛的保險(xiǎn)產(chǎn)品、設(shè)計(jì)保險(xiǎn)理賠規(guī)則。
(二)人工智能算法及其應(yīng)用場景研究
算法是人工智能的重要基石。當(dāng)前,算法黑箱給監(jiān)管帶來困難。從治理角度來看,要從傳統(tǒng)的約束負(fù)外部性轉(zhuǎn)向?qū)λ惴ū旧淼闹萍s。比如,在算法設(shè)計(jì)階段,就要保留人工緊急干預(yù)和用戶自主選擇以防范算法缺陷機(jī)制;還可以明確算法的可解釋性要求,特定情形下允許借助第三方認(rèn)證來理解算法邏輯,判斷算法的合法性。
四、人工智能治理的模式思考
(一)綜合治理方案
人工智能治理涉及法律、技術(shù)、行政管理、技術(shù)規(guī)制多層次,以及政府、市場、研發(fā)者、消費(fèi)者多主體,必然是綜合治理。包括以下四個(gè)方面:一是主體維度的多元治理。構(gòu)建合理的商談機(jī)制和利益表達(dá)機(jī)制,實(shí)現(xiàn)政府主導(dǎo)、多方協(xié)同參與的人工智能治理格局。二是效率維度的敏捷治理。一旦發(fā)現(xiàn)負(fù)面情形,及時(shí)發(fā)出信號(hào)提醒所有相關(guān)主體注意,各有關(guān)部門立即介入對(duì)可能產(chǎn)生的風(fēng)險(xiǎn)和損失進(jìn)行綜合研判、干預(yù)防范,創(chuàng)建高效便捷的預(yù)警機(jī)制也是實(shí)現(xiàn)敏捷治理的內(nèi)在要求。三是方法維度的實(shí)證治理。強(qiáng)調(diào)人工智能風(fēng)險(xiǎn)決策所依據(jù)的證據(jù)必須從廣泛的科學(xué)研究和評(píng)估中獲得,同時(shí)注重人工智能風(fēng)險(xiǎn)決策的證據(jù)在政策制定中能夠被實(shí)踐者和專業(yè)人員充分有效使用。四是落實(shí)路徑的成長治理。比如,韓國將起源于英國金融領(lǐng)域的沙盒監(jiān)管的思路引入到人工智能領(lǐng)域,為發(fā)展創(chuàng)新性人工智能產(chǎn)品提供隔離空間,是一種具有一定包容性的監(jiān)管。
(二)綜合責(zé)任方案的設(shè)計(jì)
隨著人工智能技術(shù)的發(fā)展,由其帶來的侵權(quán)行為方式也越來越復(fù)雜,亟需構(gòu)建一種包括政府、企業(yè)、使用者三方在內(nèi)的科學(xué)與責(zé)任相結(jié)合的綜合責(zé)任方案。具體而言,責(zé)任主體方面要以實(shí)際控制作為認(rèn)定標(biāo)準(zhǔn);責(zé)任體系方面要構(gòu)建“聯(lián)合責(zé)任”體系;舉證責(zé)任方面要保護(hù)受害人;歸責(zé)原則方面要限制“嚴(yán)格責(zé)任”的適用領(lǐng)域;責(zé)任承擔(dān)方式方面引入懲罰性賠償制度并建立新型責(zé)任保險(xiǎn)等。
(作者單位:上海市立法研究所)