李彤
關(guān)鍵詞:區(qū)分規(guī)制 通用人工智能技術(shù) 技術(shù)應用風險 適度容忍 提供者義務 階梯式義務設定
一、問題的提出
被認為是人工智能高階質(zhì)變形態(tài)的通用人工智能技術(shù)正展現(xiàn)出具象曙光。人們驚訝地發(fā)現(xiàn),ChatGPT-4不僅在自然語言的處理能力上無與倫比,同時具有整合多學科知識解決復雜問題的實力,這正是通用人工智能技術(shù)應用能力的初階呈現(xiàn)。通用人工智能技術(shù)依賴于大模型的良性運轉(zhuǎn),具有一般場域的應用能效、通用任務的處理能力和持續(xù)學習的更新能力。通用人工智能技術(shù)的迭代速度和強大能力已引發(fā)深切擔憂,作為其發(fā)展前哨的生成式人工智能技術(shù)對前線行業(yè)造成了明顯沖擊,引發(fā)一些反對呼聲。比如好萊塢編劇和演員行業(yè)已展開了史上罕見的聯(lián)合罷工,他們希望自身的合法權(quán)益在人工智能時代能夠獲得基本保障。
2023年4月28日召開的中共中央政治局會議強調(diào)需重視通用人工智能的發(fā)展并關(guān)注其應用風險的防范。鑒于生成式人工智能技術(shù)是通用人工智能技術(shù)發(fā)展的初級階段,有效應對技術(shù)風險的切入要點可從對前者的監(jiān)管策略中尋求可靠思路。2023年4月11日,國家網(wǎng)信辦發(fā)布了《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《管理辦法》),主要通過設定生成式人工智能技術(shù)提供者(以下簡稱“提供者”)的義務來達到規(guī)范目標,但其中包含的義務標準總體較高。2023年7月13日,國家網(wǎng)信辦等七部門聯(lián)合公布《生成式人工智能服務管理暫行辦法》(以下簡稱《暫行辦法》)?!稌盒修k法》對《管理辦法》中的提供者義務進行了部分修正,但仍有呈現(xiàn)過高標準或欠缺合理性的義務設定。一是要求提供者在訓練環(huán)節(jié)承擔的數(shù)據(jù)審查義務過高。第7條規(guī)定,要求提供者增強訓練數(shù)據(jù)的真實性、準確性、客觀性、多樣性。這在數(shù)據(jù)確權(quán)和流通制度并不完善的狀態(tài)下存在實現(xiàn)障礙。二是要求提供者對網(wǎng)絡信息承擔過高義務。第9條規(guī)定,提供者應當依法承擔網(wǎng)絡信息內(nèi)容的生產(chǎn)者責任,履行保障網(wǎng)絡信息安全義務。這實際上要求提供者對網(wǎng)絡信息安全承擔無過錯責任。三是提供者對違法內(nèi)容的處置義務和用戶違法使用行為的監(jiān)管義務不合理。第14條第1款規(guī)定,一旦提供者發(fā)現(xiàn)違法內(nèi)容不論輕重,不論是否出于技術(shù)原因,一律要整改和報告,可能讓提供者疲于應付。第14條第2款規(guī)定,提供者發(fā)現(xiàn)用戶的違法活動,不僅要保存記錄,還要向主管部門報告。首先,用戶的違法行為可能不在提供者的服務平臺上發(fā)生,提供者保存記錄的難度較大。其次,如發(fā)現(xiàn)的違法內(nèi)容過多,需頻繁報告的要求會使提供者不堪重負。四是對提供者的主體范圍未從技術(shù)背景角度作明確限定。第22條第2款所界定的提供者是指利用生成式人工智能技術(shù)提供相關(guān)服務的組織、個人,這意味著可能完全不了解技術(shù)內(nèi)容的提供者會落入需要技術(shù)能力支持的義務主體范圍。
化解新技術(shù)的應用風險固然重要,但上述義務的設定方式是否適配當前所需是值得深入思考的問題。提供者處于該技術(shù)的運行前端,對其設定合理的義務框架將有助于該項技術(shù)在免受不當裹挾的狀態(tài)下得到良性運轉(zhuǎn)。是偏向安全還是更需效率,這是影響義務設定的價值傾向所在,需要謹慎作答。學界對人工智能的現(xiàn)有研究主要涉及:一是人工智能生成內(nèi)容的法律定位。學界對人工智能生成內(nèi)容能否落入法律保護的范圍存在一定爭議。比如對是否應對生成內(nèi)容進行著作權(quán)或?qū)@麢?quán)保護存在不同看法。二是人工智能與法律相關(guān)的普遍議題和理論架構(gòu)。三是人工智能對具體法律部門的挑戰(zhàn)及其應對方案。學界普遍認為人工智能對傳統(tǒng)法學理論和治理模式造成了明顯沖擊,需要結(jié)合技術(shù)特點進行有效的理論探討和系統(tǒng)的方案回應。上述研究成果對通用人工智能技術(shù)提供者義務這一具體問題尚未作出回應。為此,本文以區(qū)分規(guī)制為視角,在對提供者義務審視的基礎上,提出優(yōu)化路徑,以促進理論的發(fā)展,亦對實踐有所裨益。
二、智能技術(shù)的飛躍迭代與提供者義務區(qū)分規(guī)制的基本前提
通過技術(shù)革新實現(xiàn)快速發(fā)展的人類社會已進入風險社會時代。鑒于人類理性的有限性,對新技術(shù)的認知存在天然局限,這使新興技術(shù)的開發(fā)和應用常常附隨風險,而試圖化解上述風險的嘗試往往會面對“科林格里奇”困境。通過設定較重義務來降低風險固然可以達成實效,但也應考慮到在技術(shù)發(fā)展的現(xiàn)實需要下,適度容忍合理風險的必要性。一方面,風險到損害中間橫亙著或然性,這意味著風險未必會產(chǎn)生損害。因此,在這個需要同時擁抱人工智能與人類智慧的時代,兩者無法實質(zhì)共存的零和博弈思維應得到徹底扭轉(zhuǎn)。但另一方面,人工智能應用風險具有共生性、時代性和全球性,這也提示法律規(guī)制的方向不應是先發(fā)展再治理,也不應是強治理弱發(fā)展,而是應選擇邊發(fā)展邊治理的折中路線。
(一)適度容忍通用人工智能技術(shù)應用風險的現(xiàn)實理由
一是實現(xiàn)通用人工智能技術(shù)專利布局的迫切需要。專利技術(shù)自誕生以來就成為推動社會快速變革的潤滑劑,但獨占性的權(quán)利特征又讓其潤滑功能的發(fā)揮帶著人為阻力。雖然算法模型一般不屬于可專利的客體,但算法模型與應用的結(jié)合有可能會形成專利客體,如谷歌已獲得了一些關(guān)于深度學習的AI專利。這表明,為了防止形成跨國專利壁壘,我國在該領域的技術(shù)專利布局是存在現(xiàn)實需要的。專利布局以技術(shù)方案的迭代升級為前提,需要提供者盡可能展現(xiàn)聰明才智,而較寬松的制度環(huán)境能為這個殫精竭慮的過程不附加額外的束縛因素。
二是通過通用人工智能技術(shù)掌握國際話語權(quán)的現(xiàn)實需要。一方面,保障國內(nèi)通用人工智能技術(shù)快速發(fā)展是大勢所趨。當今世界多個國家均擬定了人工智能的長期發(fā)展戰(zhàn)略。2017年我國國務院印發(fā)了《新一代人工智能發(fā)展規(guī)劃的通知》,計劃到2030年,國內(nèi)人工智能在理論、技術(shù)與應用方面達到世界領先水平。另一方面,從保證國家安全,實現(xiàn)文化輸出,避免意識形態(tài)滲入的側(cè)面看,保障國內(nèi)相關(guān)技術(shù)的穩(wěn)定發(fā)展也是十分迫切的。當前用戶增長速度最快的通用人工智能技術(shù)前哨產(chǎn)品Chat-GPT是由美國人工智能公司OpenAI開發(fā)的,其使用的中文語料庫內(nèi)容有限,對其過度依賴會導致不符合中國現(xiàn)實和價值觀的生成內(nèi)容大幅上升。因此,我國亟須積極發(fā)展通用人工智能技術(shù),以掌握該技術(shù)的國際話語權(quán)。顯然,這對國內(nèi)相關(guān)技術(shù)研發(fā)的主動性和時效性提出了較高要求。
三是針對通用人工智能技術(shù)應用風險謹慎評估的客觀需要。通用人工智能技術(shù)不再僅僅具有針對海量數(shù)據(jù)的被動處理能力,還具有生成類人應對方案的能力。但總體來看,現(xiàn)階段的人工智能技術(shù)仍是工具性的,由此決定了其法律地位的非獨立性。而應用風險存在擴大解釋的可能性,需要進行必要限定,應避免《紅旗法案》的適用悲劇再次重演。《紅旗法案》是英國在1865年出臺的,該法規(guī)定,每輛上路的汽車必須有三位駕駛員,其中一位必須一直在車前50米搖動紅旗作為危險警示,車輛時速不得超過4英里。到1896年對車輛時速的限制才提高到14英里,1903年進一步提高到20英里,并取消了紅旗警示規(guī)則。然而幾十年間的強力限制已使英國錯失了行業(yè)發(fā)展的良機。這一歷史事例表明安全與效率始終相攜相伴,過于偏重一方所付出的代價既是不必要的又是昂貴的。
綜上可見,為實現(xiàn)專利優(yōu)化,促進科技創(chuàng)新,防止風險論擴大化,以儲備維護國家利益的戰(zhàn)略資源,我國對通用人工智能技術(shù)的支持力度應大于規(guī)制力度。理由是,雖然風險客觀存在,但過分地擔憂和遏制,會使我國在通用人工智能技術(shù)的發(fā)展過程中受到不當束縛,從而失去國際層面的領先優(yōu)勢。
(二)適度設定通用人工智能技術(shù)提供者義務的策略底線
不可否認, 通用人工智能在數(shù)據(jù)安全、信息保護、倫理價值維護等方面會存在一定濫用風險。2023年4月3日,斯坦福大學“以人為本”人工智能研究所(Stanford-HAI)發(fā)布《2023-年人工智能指數(shù)報告》,指出“諸如ChatGPT,7Stable-Diffusion,7Whisper,7和DALL-E72等這些模型已能適用于越來越廣泛的任務領域,包括文本處理分析、圖像生成和前所未有的,性能優(yōu)越的語言識別。這些系統(tǒng)在回答問題,文本、圖像和代碼生成領域展現(xiàn)出在十年前無法想象的能力,在很多方面都超過了現(xiàn)有的技術(shù)標準。但這些系統(tǒng)容易產(chǎn)生幻覺,經(jīng)常存在偏見,可能被用于邪惡目的,從而伴隨著技術(shù)發(fā)展帶來了復雜的道德挑戰(zhàn)”。因此,對具有廣泛應用場景和卓越處理能力的通用人工智能進行必要法律規(guī)制已形成廣泛共識,但規(guī)制時需要考量底線,把好規(guī)則設定的方向關(guān)。
一是面向通用人工智能技術(shù)的國際規(guī)制底線。歐盟已完成人工智能法草案,試圖對人工智能的技術(shù)風險進行有效規(guī)制,但其出臺過程并不順暢。這體現(xiàn)了妥善壓制風險和促進技術(shù)革新雙重目標下的規(guī)制困境。因此,在通用人工智能技術(shù)的國內(nèi)規(guī)制進路上,應充分考慮國際視域中的規(guī)制底線,依據(jù)國際慣例,力求從合規(guī)利用的角度化解應用風險。
二是判斷通用人工智能技術(shù)的運行底線。通用人工智能技術(shù)的效能發(fā)揮需要依賴一定的先決條件。該技術(shù)是基于數(shù)據(jù)的智能,在進入應用環(huán)節(jié)之前需要接受足夠的數(shù)據(jù)投喂和充分的數(shù)據(jù)訓練才能實現(xiàn)良性運轉(zhuǎn),如片面追求數(shù)據(jù)的絕對安全與完全授權(quán),那么在技術(shù)應用的前端就會構(gòu)成“卡脖子”的狀態(tài)。也就是說,對提供者在上述環(huán)節(jié)中的義務設定不能導致技術(shù)運行所需的必備數(shù)據(jù)要素被不當剝離,故相關(guān)義務內(nèi)容規(guī)則應結(jié)合數(shù)據(jù)審查的實際情況而設計。
三是衡量通用人工智能技術(shù)的邏輯底線。通用人工智能技術(shù)所對應的較強智能狀態(tài)的形成邏輯與人類智慧的生成過程截然不同。后者一般遵循從特殊到一般的體驗式過程,通過家庭、學校、社會的長期教育沁潤和主動思考學習,逐步形成多樣的知識體系,對日常問題可以作出相應的知識應對和與之匹配的價值判斷。而前者服從于貝葉斯定理,即先對應答內(nèi)容進行概率性的判定,而后通過模型運轉(zhuǎn)再驗證回答的可靠性。貝葉斯定理中對先驗概率的處理存在明顯不足。同時,技術(shù)生成過程中的文化屬性較弱,進而會直接影響價值判斷能力。這是技術(shù)自身存在的天然缺陷,畢竟現(xiàn)階段通過對人腦運行樣態(tài)的真實觀察與完美復制來促成類人智能尚有諸多技術(shù)難題。由此,可考慮從彌補技術(shù)缺陷的可行性角度出發(fā),合理設定優(yōu)化技術(shù)過程中的主體義務。
三、精準賦能風險管控與提供者義務區(qū)分規(guī)制的正當邏輯
對提供者義務進行粗放型的一體化設定,會忽略提供者與其他主體在應用風險治理上的互動關(guān)系,也讓提供者的有限力量分散在疲于應付當前難以完成的事務上。與之對應的區(qū)分規(guī)制是將提供者從可以被解除規(guī)制的場域中解放出來, 通過共治鏈條和集中革新來達成化解應用風險的目標,同時不會對行業(yè)發(fā)展造成阻礙。
(一)共治型精準管控驅(qū)動提供者義務的重整
化解技術(shù)應用風險并非片面加強提供者的單方義務即可達成,區(qū)分規(guī)制視角下的義務設定是擴展共治主體,降低管控成本和突出治理重點的必然要求。
一是風險共治渠道的社會化建構(gòu)。鑒于該技術(shù)應用效果的社會價值,提供者不應在化解應用風險和技術(shù)弊端上孤軍奮戰(zhàn)。通用人工智能的綜合治理應貫徹系統(tǒng)化思維,需要技術(shù)應用鏈條上的多主體實現(xiàn)通力配合。提供者義務的區(qū)分規(guī)制意味著該技術(shù)的部分治理責任應由政府、平臺、用戶等其他主體承擔。
二是風險管控策略的效率化應用。風險控制效率的提升仰賴于發(fā)現(xiàn)風險速度較快及有效應對方案的快速生成,而提供者義務的一體化設置不能匹配效率化的要求。其一,在生成內(nèi)容侵權(quán)信息的發(fā)現(xiàn)上,提供者并不在技術(shù)應用的用戶端,無法及時發(fā)現(xiàn)違法信息,其主動審查義務的設定不符合效率性的要求。其二,在該技術(shù)相關(guān)算法模型安全性評估的問題上,鑒于提供者較多關(guān)注應用獲利立場的局限性,有效方案的應對立場存在問題,外部專業(yè)力量的引入是提升效率的重要方法。其三,通用人工智能應用可能引發(fā)的風險損害類別是多樣的,應從風險產(chǎn)生的原因是否可歸責于提供者入手來對應差異化的義務設定。
三是風險規(guī)避行為的精確化規(guī)制。提供者在技術(shù)開發(fā)和應用環(huán)節(jié)面臨差異化的管控需求和風險后果,行為控制的具體內(nèi)容也應對照區(qū)分。比如開發(fā)時數(shù)據(jù)審查義務的要點應服務于保障數(shù)據(jù)安全,避免顯著違法虛假數(shù)據(jù)進入訓練環(huán)節(jié)的規(guī)制目標。同時還需要考慮在龐大數(shù)據(jù)庫中獲得所有權(quán)利方的授權(quán)是否是過于困難的行為規(guī)制方式,是否沒有精準考慮技術(shù)革新和發(fā)展的客觀需要。而在應用端對用戶權(quán)益的保護,應從用戶和提供者互動的可行渠道出發(fā)來實現(xiàn)私權(quán)保護的需要。另外還應結(jié)合具體場域的應用需求來匹配精準化的行為要求,比如因司法實踐領域中的知識結(jié)構(gòu)和語言表達存在專業(yè)性和復雜性,應用于其中的人工智能技術(shù)不能簡單平移,提供者有義務進行對應的技術(shù)革新,需向法律實務部門提前預警應用風險和提供對應技術(shù)參數(shù),了解法律實務工作的基礎原理以提升技術(shù)的適配度,為盡可能減少風險投入更多的技術(shù)力量支持。
(二)聚焦風險狀態(tài)的區(qū)分規(guī)制理念內(nèi)涵與提供者義務的重塑
一是依據(jù)風險的可容忍程度來區(qū)分底線義務與倡導行為。建立提供者義務設定的底線思維,依據(jù)已知風險和控制能力的實際狀態(tài)來劃定切實可行的行為紅線。如應用風險所對應的價值損害是社會運行中無法容忍的基礎部分,比如涉及國家安全,應不論效率成本,以安全優(yōu)先的原則來強化義務內(nèi)容。在強制實現(xiàn)存在一定現(xiàn)實障礙的規(guī)制領域,則可通過明確最佳傾向的方式引導提供者朝著存在更優(yōu)解的方向努力。
二是考量風險的損害情況來區(qū)分公共侵擾與私權(quán)受損。美國法上的公共侵擾一般涉及損害公共權(quán)利或損害大量人員利益的公共屬性,典型情形涉及因灰塵、煙霧、有害物質(zhì)泄露所造成的環(huán)境污染事件。在普通法司法實踐中對公共侵擾的認定標準總體較寬,不同州管轄范圍內(nèi)的認定要素存在差異。加利福尼亞州將公共侵擾界定為對整個社區(qū)、臨近地區(qū)或相當多的民眾造成損害,即便每個人身上所遭受的損害程度存在差異。上述較靈活的界定方式使依托公共侵擾理論來解釋通用人工智能技術(shù)可能造成的,帶有公共屬性的應用損害具有可行性。公共侵擾部分的行為規(guī)制顯然應采用強制性的較高標準,以有效避免社會動蕩和秩序混亂。同時風險損害也可能對應私權(quán)受損,具有損害內(nèi)向性和主體有限性,此時提供者對特定主體權(quán)益的主動保護義務標準不宜過高。
三是確認風險的來源方向來區(qū)分技術(shù)缺陷與系統(tǒng)問題。通用人工智能應用風險的來源之一是技術(shù)缺陷,因此督促提供者履行技術(shù)更新義務有助于消除應用風險。另外,通用人工智能的應用風險也來自多重因素的銜接錯位,如數(shù)據(jù)權(quán)利制度的不健全影響著數(shù)據(jù)訓練環(huán)節(jié)的合規(guī)性,龐大的用戶群體及其不可預控的使用行為可能讓技術(shù)應用的良善愿景落空。這些風險的徹底消弭受制于復雜的社會條件及其對應制度的構(gòu)建完善,是社會運行的系統(tǒng)性風險,很難通過簡單加重提供者義務來實現(xiàn)規(guī)制目標。
(三)區(qū)分規(guī)制理念賦能提供者義務的張力實效
一是強制要求與軟性引導的互通融合避免提供者義務的封閉性。提供者義務可能隨著技術(shù)的發(fā)展和應用場域的變動而產(chǎn)生一定的變化,僅有強制規(guī)范不利于迎合實際變化進行及時呼應,而軟性引導的柔化規(guī)范則為義務內(nèi)容的延展提供了可靠指引。強制要求以對違背義務導向法律責任的壓迫感來達到規(guī)制目標, 而通過軟性引導所實現(xiàn)的規(guī)制部分是不需要公權(quán)力強力介入的低成本規(guī)制方式,兩者的協(xié)同配合可顯著擴充主體責任的實然范疇。
二是可做到的行為納入與難做到的行為排除增強提供者義務的可實現(xiàn)性。在義務設定上充分考慮現(xiàn)階段的技術(shù)發(fā)展需要和提供者的實際能力范圍,在現(xiàn)實可行和能力可及的場域中設定較高的義務標準,從而使義務的實現(xiàn)預期得到充分釋放。針對當前技術(shù)狀態(tài)難以實現(xiàn)的部分,果斷免除或減輕提供者義務,換之以倡導性規(guī)范,讓其可在相對寬松的規(guī)制條件下,盡可能實現(xiàn)技術(shù)進步,這也有利于進一步消弭應用風險。
三是建立在多元共治基礎上的主體區(qū)分設定模式提升提供者義務的協(xié)同性。提供者義務是保障技術(shù)安全的關(guān)鍵,但并不是唯一側(cè)面。技術(shù)應用帶來社會效益的整體提升并附從社會化風險,在治理策略上建構(gòu)多主體參與的協(xié)同共治體系會增強治理效果。應用風險不僅來自技術(shù)本身的風險,還來自社會化應用場域的原有風險、用戶的違規(guī)行為和政府監(jiān)管能力的欠缺等多重因素。提供者享受到技術(shù)紅利,但并不是唯一的獲益方,用戶、政府、平臺等技術(shù)應用鏈條上的其他主體也應通過義務設定的方式參與治理鏈條。
四、應用風險層級的評估維度與提供者義務區(qū)分規(guī)制的標準設定
鑒于通用人工智能技術(shù)廣泛的應用場景和多主體的參與鏈條,考慮到危險和義務產(chǎn)生之間的基礎邏輯關(guān)系,當以應用風險層級的評估維度為標準設定導向,在區(qū)分規(guī)制的視野下設置階梯式的義務系統(tǒng),以便提升義務設定的實效性??韶瀼貏討B(tài)評估的思路,以固有維度為基本要素,以變量維度為浮動因子,對應用風險層級的高低進行綜合判定,而后根據(jù)風險度高低的當前判定結(jié)果來聯(lián)動提供者義務區(qū)分規(guī)制的強弱標準。
(一)應用風險層級的固有維度與提供者義務區(qū)分規(guī)制標準的協(xié)同
應用風險層級的固有維度涉及應用場景與技術(shù)結(jié)合后的風險情形,風險程度有差異化表現(xiàn),繼而會協(xié)同影響提供者義務區(qū)分規(guī)制的標準設定。
從傳播屬性上看,對帶有公共屬性的傳播模式需要硬性的嚴格規(guī)制。來自通用人工智能的虛假信息在具有私密性的聊天模式中影響范圍有限,而在公共傳播模式下將很可能產(chǎn)生大規(guī)模的認知錯位,影響正常的輿論生成,甚至成為引發(fā)社會動蕩的導火索。利用互聯(lián)網(wǎng)信息制造對立,誘導沖突,并服務于特定政治目標的做法并不罕見。根據(jù)2018年11月國家網(wǎng)信辦發(fā)布的《具有輿論屬性或社會動員能力的互聯(lián)網(wǎng)信息服務安全評估規(guī)定》,面向社會公眾應用、具備輿論影響能力的通用人工智能技術(shù)顯然也應落入安全評估的范疇。
從應用領域來看,對通用人工智能技術(shù)硬性限制的管控需要,一方面來自其服務內(nèi)容與某些應用領域的底線要求相悖。比如在受教育者利用該技術(shù)完成作業(yè)的過程中,該技術(shù)的運行促成了與教育活動的目標本質(zhì)背道而馳的消極效果。再如在學術(shù)科研領域內(nèi),利用通用人工智能完成學術(shù)論文,有違學術(shù)道德底線和科研自律要求,故應得到嚴厲禁止。另一方面,通用人工智能技術(shù)也對應著無法獲得主導性地位的領域,比如在涉及價值判斷的司法裁判領域,任何人工智能技術(shù)都只能作為輔助性的工具。究其原因,來自過去經(jīng)驗的數(shù)據(jù)訓練可能不適合當前裁判的需要,而完全不關(guān)注社會影響力的智能裁判過程也會影響司法審判的適用力。
對于違規(guī)應用的社會損害力而言,應從公私法分立的角度進行義務內(nèi)容的硬性區(qū)分。一方面,對存在違反國家強制標準和影響社會公共利益可能的應用風險情形,需加強提供者的審核義務。如涉及存在影響網(wǎng)絡安全,引發(fā)漏洞攻擊的惡意代碼,則需提供者確保安全,主動審核,防止為實施違法犯罪行為提供不當助力。另一方面,如牽涉文字作品框架內(nèi)容設定,翻譯文字、圖像或形象生成等方面,可能涉及人格權(quán)、知識產(chǎn)權(quán)等民事權(quán)利受損,對相關(guān)侵權(quán)信息的審查義務可考慮被動路線,并以司法為最終防線。
(二)應用風險層級的變量維度與提供者區(qū)分規(guī)制標準的呼應
應用風險層級的高低還會隨著提供者技術(shù)控制力、用戶鑒別力和外部監(jiān)管力的大小發(fā)生繼發(fā)變動,構(gòu)成了應用風險層級的變量維度,并對提供者區(qū)分規(guī)制標準的設定造成動態(tài)影響。
1.提供者的技術(shù)控制力與區(qū)分規(guī)制標準的對照
提供者較強的技術(shù)控制力可顯著降低應用風險層級。該技術(shù)中的算法模型具有專業(yè)化、黑箱化和多變化特征,這使對提供者的義務設定不能通過提升用戶方的注意義務來得到相應縮減,因為缺乏專業(yè)知識的用戶缺乏了解技術(shù)原理的有效通道,也無法進入數(shù)據(jù)訓練環(huán)節(jié)來提升技術(shù)算法的效能。不僅如此,現(xiàn)階段的通用人工智能仍缺乏實質(zhì)創(chuàng)造力,其整體驅(qū)動還會受制于人,這表明提供者的主導控制能力并沒有得到根本改變。由此可見,具備技術(shù)更新的專業(yè)能力、對影響生成結(jié)果數(shù)據(jù)訓練環(huán)節(jié)的管控能力和生成內(nèi)容仰賴技術(shù)程序的現(xiàn)狀是促成提供者義務生成的重要側(cè)面。另外,提供者從該技術(shù)應用中大量獲益,這為其技術(shù)研發(fā)和風險規(guī)避能力的提升提供了必要的經(jīng)濟基礎。
另一方面,雖然提供者需要對技術(shù)的應用風險負責,但此種負責狀態(tài)存在限度,如同無法要求無民事行為能力人理性控制行為一樣,對沒有技術(shù)控制能力的主體施加義務的做法因超出了必要的能力范圍,顯然會導致法律適用效果的落空。這表明提供者的義務履行應以技術(shù)控制力為必要條件。
需要注意的是,技術(shù)控制力存在彈性側(cè)面,這為區(qū)分規(guī)制軟性標準的適用提供了必要前提。提供者的技術(shù)控制力在具有一定的浮動空間。一方面,提供者在現(xiàn)階段尚無法全面管控和預測生成內(nèi)容,存在一定的控制弱點。另一方面,有些更優(yōu)應用狀態(tài)的達成仰賴進一步的技術(shù)研發(fā),比如深度人文內(nèi)化的技術(shù)方案在實現(xiàn)上仍存在障礙,由此在類似領域不宜設定較高的硬性規(guī)制標準,以便給技術(shù)成熟和方案養(yǎng)成提供必要時間。
2.用戶的鑒別力與區(qū)分規(guī)制標準的界定
與充斥大量魚龍混雜信息的互聯(lián)網(wǎng)中的狀態(tài)類似,通用人工智能所提供的快速而多樣的生成內(nèi)容也存在違規(guī)可能。就此問題的規(guī)制,可參照網(wǎng)絡服務提供者義務設定中的避風港原則。理由是通用人工智能產(chǎn)品的用戶眾多,生成內(nèi)容基于個性化的請求產(chǎn)生,具有海量特征,且在相對不公開的用戶界面生成,同時涉及隱私問題。提供者既不是違規(guī)信息生成的觸發(fā)主體,也無法全面快速獲知違規(guī)信息,因此一般情形下的主動審查義務應被排除。
對鑒別能力較強的用戶,即具有完全民事行為能力的人群,可考慮傾向形式審查的弱標準。通過明確用戶接入服務的資格審核來設定提供者義務,讓有足夠鑒別能力的用戶可以在發(fā)現(xiàn)違規(guī)失當信息時,不僅不會受到錯誤影響,甚至還可以通過適當對話糾正錯誤,引導正確內(nèi)容的生成。此時提供者通過保障生成內(nèi)容的可追溯性即可達到便于事后審查的要求,而不需隨時進行耗時耗力的全面徹底審查。
對鑒別能力較弱的用戶,如對老人、未成年人這類特殊人群,提供者的義務應適當增強,應該采取有效手段避免技術(shù)缺陷對上述人群的不利影響。但針對精神病人,提供者相關(guān)義務的履行不具有可行性,該類患者的生病狀況屬于個人隱私,其一般不會主動上傳公開。另外,提供者往往沒有醫(yī)學專業(yè)知識和疾病認定資質(zhì),故通過提供服務前的問卷方式來考察用戶的身心健康狀態(tài)并進行相應定性,存在偏見和失當可能。
3.監(jiān)管方的管控力與區(qū)分規(guī)制標準的劃定
鑒于通用人工智能技術(shù)應用風險可能是提供者并未發(fā)覺或難以自控的,該技術(shù)的合規(guī)運行還會受制于外部監(jiān)督的常態(tài)化和規(guī)則化, 故配套監(jiān)管機制的完善程度將直接影響技術(shù)的合規(guī)運行效果。就典型情景來看,一是若保障海量數(shù)據(jù)的安全性要求已超過提供者的能力范圍,則需借助外部力量為技術(shù)運行中數(shù)據(jù)合規(guī)使用劃定紅線。二是提供者對算法模型的開發(fā)和理解易陷入自娛自樂的境地,對適用風險和技術(shù)偏見往往視若不見。不僅如此,人工智能領域的技術(shù)黑箱相比以往有過之而無不及,因此進行公開、謹慎和中立的外部評估實屬必要。三是通用人工智能領域已成新興熱點投資領域,但在運行中耗費了大量的社會成本,耗能程度較高,一定程度也影響到經(jīng)濟秩序和環(huán)境安全,故也需要來自國家層面的監(jiān)控規(guī)制。
但需注意的是,外部監(jiān)管同樣面臨海量數(shù)據(jù)審查、算法模型評估的現(xiàn)實困境,同時受制于監(jiān)管力量配置、經(jīng)驗積累等方面存在能力波動空間。對不涉及公共利益,不會引發(fā)嚴重損害的應用環(huán)節(jié),應防止太多監(jiān)管介入影響到行業(yè)發(fā)展和服務提供的持續(xù)性。在監(jiān)管中,要求對代碼進行全面完整的備案甚至公開的可行性也不高?!按a層面的算法透明最顯而易見的阻力來自商業(yè)秘密,此外其他負面影響還包括增加公眾的認知負擔、侵犯國家機密等?!绷硗?,算法黑箱的破除還會受制于認知局限,因而無法通過完善監(jiān)管做到絕對透明化。
五、通用人工智能技術(shù)提供者義務區(qū)分規(guī)制的優(yōu)化重構(gòu)
提供者義務的區(qū)分規(guī)制應充分考慮適度容忍應用風險的基本前提,以應用風險精準管控的邏輯為導引,在對應用風險層級進行固有維度和變量維度的綜合動態(tài)研判的基礎上,結(jié)合技術(shù)發(fā)展的現(xiàn)實需要,合理優(yōu)化相關(guān)義務內(nèi)容。
(一)通用人工智能技術(shù)提供者數(shù)據(jù)審查義務的區(qū)分規(guī)制
數(shù)據(jù)對通用人工智能技術(shù)性能的發(fā)揮意義重大。不同類型的數(shù)據(jù)對該技術(shù)的合規(guī)利用會造成影響。通用人工智能技術(shù)的典型數(shù)據(jù)問題有,一是作為第五種生產(chǎn)要素的數(shù)據(jù)之上存在權(quán)利附著,提供者隨意使用會造成權(quán)益侵害。二是訓練數(shù)據(jù)本身是否存在違規(guī)信息,通用人工智能的表現(xiàn)狀態(tài)和其預先學習的數(shù)據(jù)內(nèi)容有直接關(guān)聯(lián)。
歐盟通用數(shù)據(jù)保護條例提出了“經(jīng)由設計的數(shù)據(jù)保護”。該《條例》第25條第1款規(guī)定:“考慮到行業(yè)最新水平、實施成本及處理的性質(zhì)、范圍、目的和內(nèi)容以及處理給自然人的權(quán)利與自由造成的影響,數(shù)據(jù)控制者應當在決定數(shù)據(jù)處理方式以及進行處理時,以有效的方式采取適當?shù)慕M織和技術(shù)措施?!边@表明將數(shù)據(jù)合規(guī)處理的義務施加在有能力處置數(shù)據(jù)的數(shù)據(jù)控制者之上,使其按照現(xiàn)實情形和實際能力來實施恰當?shù)奶幹么胧┚哂泻侠硇浴?/p>
一是在審查主體上,將該項義務局限在具有相關(guān)技術(shù)能力的提供者。如提供者僅是技術(shù)服務中介平臺,并不了解技術(shù)模型和數(shù)據(jù)訓練情況,則提供者的數(shù)據(jù)審查義務應轉(zhuǎn)化為在提供服務前備案,真正負責數(shù)據(jù)訓練和優(yōu)化主體信息,并在發(fā)現(xiàn)數(shù)據(jù)違規(guī)后對相關(guān)責任主體負有及時告知義務。
二是在審查內(nèi)容上,應集中于對數(shù)據(jù)來源合法性的確認,包括但不限于確認信息是否來自可信數(shù)據(jù)庫,是否排除明顯包含權(quán)利標記的數(shù)據(jù),是否排除未經(jīng)授權(quán)以網(wǎng)絡爬蟲等不當方式所獲得的可確權(quán)數(shù)據(jù)等。尊重其他企業(yè)對所獲數(shù)據(jù)的財產(chǎn)權(quán)益,也在我國司法實踐中得到了確認。但上述審查應以形式審查為表征,同時提供者不應對權(quán)利狀態(tài)模糊不明的相關(guān)數(shù)據(jù)的最終合法性負責。理由是在數(shù)據(jù)確權(quán)流通制度尚未完善的領域當中,數(shù)據(jù)權(quán)利的歸屬還不明確,后續(xù)流通利用環(huán)節(jié)的權(quán)利表征存在不甚明晰的可能,系統(tǒng)性社會風險問題的解決不應寄托于單方加重提供者的義務來達成目標。
三是在審核方式上,考慮到海量數(shù)據(jù)使用情景及數(shù)據(jù)多重流轉(zhuǎn)環(huán)節(jié)的復雜性,提供者不需對數(shù)據(jù)本身的合法性承擔主動逐個審核的高強度義務。如數(shù)據(jù)應用涉嫌侵犯人格權(quán)、知識產(chǎn)權(quán)、存在構(gòu)成不正當競爭等情形,權(quán)利方應可通過申請程序,要求提供者做出被動回應。
(二)通用人工智能提供者審核生成內(nèi)容義務的區(qū)分規(guī)制
應明確提供者對生成內(nèi)容進行主動審核的類型和方式。在審核領域上,主要針對風險度高、容錯度低的應用領域。在審核方式上,提供者可通過招聘提示工程師或其他適當方式定期模仿用戶群的使用習慣,結(jié)合當前社會關(guān)注要點,深度呈現(xiàn)生成內(nèi)容,對通過上述途徑知悉的違規(guī)信息的生成狀態(tài)進行有效糾錯。同時,提供者應通過提煉關(guān)鍵詞等方式定期總結(jié)用戶高頻互動領域內(nèi)的生成內(nèi)容,展開實質(zhì)審查。為了保障上述目標的達成,提供者依據(jù)必要性原則,合規(guī)存儲可識別用戶身份的輸入和使用信息,以便為審查義務的達成提供前提條件。另外,雖然當生成內(nèi)容構(gòu)成網(wǎng)絡信息時,會放大違規(guī)信息的風險度,但提供者的預先標記行為已可達到提示風險的目標,同時鑒于違規(guī)信息的產(chǎn)生源頭還有用戶,因此不宜由提供者承擔單純的生產(chǎn)者責任。
設定提供者對生成內(nèi)容進行被動審核的程序。提供者應設置審核專員和限時審核程序。對存在侵權(quán)嫌疑的生成內(nèi)容,提供者可基于用戶申請對生成內(nèi)容啟動審核,限期做出審核結(jié)果的反饋,并明確告知申請人。提供者應提示申請人如對審核結(jié)果存在異議,可向國家網(wǎng)信辦等相關(guān)部門投訴或向人民法院提起訴訟。相關(guān)管理部門應設有接受和反饋通用人工智能用戶投訴的受理機制,以便對提供者上述義務的不當履行情況進行及時糾正。在申請人為提起訴訟要求提供者向其披露用戶信息時,提供者應予以配合,否則應承擔連帶責任。
如發(fā)現(xiàn)違規(guī)生成內(nèi)容是因技術(shù)缺陷造成的,提供者應立刻采用屏蔽、刪除、過濾等必要措施進行內(nèi)容隔離并在合理時間內(nèi)通過優(yōu)化算法模型等方式避免違規(guī)內(nèi)容的再次生成。其中的合理時間應以行業(yè)內(nèi)相關(guān)技術(shù)完善所需的平均時間來確認,通過征集行業(yè)意見,形成判定時限的明確規(guī)則。但在違規(guī)生成內(nèi)容的產(chǎn)生原因不明的情形下,提供者應通過向主管部門和專業(yè)委員會報送情況的方式來尋求可能的解決方案。
(三)通用人工智能提供者監(jiān)管用戶行為義務的區(qū)分規(guī)制
提供者監(jiān)管用戶行為義務的實現(xiàn)應以其對用戶身份信息的識別義務為前提,即提供者可在用戶行為導致技術(shù)運行失控時追溯到相關(guān)用戶,并對低自控力和低鑒別能力的用戶進行有效保護。由此在用戶接入相關(guān)服務時,提供者應采集可以識別用戶身份的必要信息,包含姓名、身份證號、聯(lián)系方式等關(guān)鍵信息。
應設定提供者對用戶行為規(guī)制的底線義務。提供者應采用關(guān)鍵詞屏蔽、不當問題預警提示等相關(guān)合理方式避免用戶試圖通過不當提問獲取違背社會主義核心價值觀、有助于實施違法犯罪行為等不可容忍的違法生成內(nèi)容。
應明確提供者對鑒別能力較弱用戶群體的高強度義務。針對未成年人這類群體,可仿照未成年人保護法第75條,確立單獨的統(tǒng)一未成年人通用人工智能使用身份認證系統(tǒng),也可與現(xiàn)行的網(wǎng)絡游戲電子身份認證系統(tǒng)對接,強制要求實名制和人臉識別,避免未成年人借用身份信息注冊。提供者應結(jié)合未成年人的年齡特征和生理特點,建立互動內(nèi)容的負面清單,避免未成年人利用該技術(shù)獲得違規(guī)信息。同時,應對未成年人使用時間進行必要限制,可考慮其生長需要,對晚間的服務時間進行限縮。針對六十周歲以上的老人,提供者應在注冊時細化提示操作流程,提高老人使用程序的便利度,在運行環(huán)節(jié)可考慮采用頁面的彈窗強化應用風險的告知義務。
應當強調(diào)的是,提供者對實名用戶利用生成內(nèi)容的后續(xù)違法行為沒有主動監(jiān)管義務,這已明顯超出提供者的管控能力。另外,提供者就偶然發(fā)現(xiàn)的用戶輕微違法行為,也不具有固定證據(jù)和報告主管部門的義務,除非涉及侵犯國家利益、公共利益或涉嫌刑事犯罪等嚴重情形。
(四)通用人工智能技術(shù)提供者接受監(jiān)管義務的區(qū)分規(guī)制
一方面,通過強化外部監(jiān)管可達成避免該技術(shù)的無序野蠻增長。一是在高風險的應用領域,則應進行嚴格限制。如在自動武器裝備、教育教學、司法裁判、學術(shù)研究等敏感領域的適用需經(jīng)過全面細致的安全評估。對在上述領域的擴展應用應足夠謹慎。與國外保守傾向相比,我國法院對在司法實踐中應用人工智能技術(shù)抱有更樂觀的態(tài)度。我國地方政府如深圳在普通高校畢業(yè)生的落戶審批上已經(jīng)實踐無人自動秒批。這種寬松態(tài)度和實踐傾向放置在具有更高類人智能的通用人工智能之上會進一步放大應用風險。具體而言,該項技術(shù)依托智能算法給定生成內(nèi)容,可直接適用的特性更強,因此在高風險領域掌握決策能力的風險程度更高。對此,應明確設置禁止或限制應用的負面清單。在涉及限制進入的應用場域時,一是提供者應向監(jiān)管部門主動提供能夠充分確保技術(shù)安全的研發(fā)資料并詳細闡釋技術(shù)機理。二是提供者就所采用的算法模型應主動接受安全性評估,有效規(guī)避存在高上癮性、高錯誤率等顯著缺陷的相關(guān)技術(shù)進入應用環(huán)節(jié)。三是負責數(shù)據(jù)訓練的提供者應就相關(guān)能耗狀態(tài)接受監(jiān)管,主動向相關(guān)部門準確匯報真實的耗能情況。提供者為便利上述強監(jiān)管目標的實現(xiàn),應主動配合備案,提供完整資料和接受定期實質(zhì)審查。
另一方面,如通用人工智能技術(shù)適用場景具有目標用戶鑒別能力強、非依托公共平臺等低風險因素,則應免除提供者接受高頻率和高強度的管控義務,一般只需進行應用場景的備案即可。當為安全審查目的獲取類似源代碼等不宜公開的相關(guān)信息時,監(jiān)管機構(gòu)應有完善的保密機制。
(五)通用人工智能技術(shù)提供者技術(shù)倫理馴化義務的區(qū)分規(guī)制
科技倫理是新科技發(fā)展過程中需要特別關(guān)注的關(guān)鍵要素,是化解新技術(shù)風險的必備選項。2023年3月中共中央辦公廳、國務院辦公廳印發(fā)了《關(guān)于加強科技倫理治理的意見》,其中要求加強源頭治理,將科技倫理貫穿于科技活動的全流程和全環(huán)節(jié)。對人工智能的倫理化要求來自非技術(shù)中立的特征,故“人工智能的發(fā)展并不能以技術(shù)中立為由來回避它的商業(yè)偏好、善惡價值和社會風險”。通用人工智能應用風險的重要來源之一也可以歸結(jié)為技術(shù)本身的倫理失當狀態(tài),而智能狀態(tài)的提升與道德標準的要求存在同向關(guān)系,提供者就此應負有倫理馴化義務。該項義務主要涉及價值觀塑造和人文內(nèi)化,旨在使技術(shù)應用走出人文荒漠,避免價值脫韁,成為內(nèi)在向善的技術(shù)方案,但價值觀塑造和人文內(nèi)化兩方面對社會秩序和利益維系的效用以及實施難度上并不完全相同,由此應對應不同的行為規(guī)制層級。
強化提供者對技術(shù)符合核心價值觀、保障國家安全的馴化義務。在實現(xiàn)方式上,提供者應定期就上述目標的達成狀況展開自查自糾,在接受外部實質(zhì)審查時,應說明為了達到上述目標所采用的必要措施、測試方法及可信效果。這是技術(shù)應用的底線所在,也是提供者承擔社會責任的重要體現(xiàn)。
倡導提供者對技術(shù)實現(xiàn)人文內(nèi)化的馴化要求。通用人工智能具有類人化的智能表現(xiàn),但其不具有依賴持續(xù)經(jīng)驗累積和反饋式學習的文化內(nèi)在,此時可通過具有傾向性的數(shù)據(jù)訓練使技術(shù)內(nèi)容符合本國的人文特征。但在這一側(cè)面只倡導不強制的原因在于,一是人文內(nèi)化的內(nèi)容太多,常常掛一漏萬,未必可達到內(nèi)容全面馴化的目標。二是人文內(nèi)化過程中的價值判斷會涉及一些灰色地帶,很難用非黑即白的方式來進行馴化,比如類似電車難題的場景,無法從倫理角度得到顯性一致的答案。三是人文內(nèi)化的內(nèi)涵外延存在一定的模糊性,難以匹配需要明確行為界限的義務內(nèi)容??蓞⒖?021年9月國家新一代人工智能治理專業(yè)委員會發(fā)布的《新一代人工智能倫理規(guī)范》的要求來推動行業(yè)內(nèi)確認人文內(nèi)化的標準策略。
在常規(guī)實現(xiàn)渠道上,可要求相關(guān)企業(yè)內(nèi)置專門機構(gòu)來實現(xiàn)技術(shù)倫理馴化要求。國外科技公司已存在相關(guān)實踐。與此同時,國外相關(guān)科技公司對倫理部門進行裁撤的做法也在引發(fā)公眾對技術(shù)安全性的擔憂。由此,需從規(guī)則設定上保障相關(guān)義務實現(xiàn)的穩(wěn)定性,應使科技倫理審查部門成為AI開發(fā)者的標配,構(gòu)成保障通用人工智能技術(shù)安全的內(nèi)在力量。
余論
無論人類社會中的應對情緒是恐懼還是接受,通用人工智能的發(fā)展已勢不可擋,無所不知和有問必答是人類一直向往的智能狀態(tài),在與浩瀚宇宙和強大自然抗爭的過程中,人類對不受束縛的自由生活的向往始終存在。雖然風險始終存在,但收獲與代價同向而行實在過于常見。因此,風險不足以成為抗拒新變化的理由。
與此同時,審慎與理性的觀察又足夠重要,以往的技術(shù)運行都仰賴于占據(jù)智力高位的人類,但通用人工智能不僅能完成人類生活中的常規(guī)任務而且具有類人的創(chuàng)造力, 在持續(xù)學習中精進能力,這對人類社會的沖擊是前所未有的。沒有行動邊界的自由往往會引發(fā)顛覆性的失序狀態(tài),所以法律規(guī)制和倫理引導也需箭在弦上。為此,合理設定通用人工智能提供者的義務框架是從可能制造危險的源頭出發(fā),保障該項技術(shù)合規(guī)發(fā)展的鑰匙之一。