【摘要】當前,人工智能正在全球范圍內蓬勃發(fā)展,成為新一輪科技革命和產業(yè)變革的重要驅動力量。人工智能技術的突破式發(fā)展在帶來極大便利的同時,也導致新舊風險疊加,引發(fā)一系列問題,給現有經濟社會治理模式和治理規(guī)則帶來挑戰(zhàn)。人工智能治理法治化是確保人工智能安全有序發(fā)展的重要保障,也是目前人工智能發(fā)展領先國家和地區(qū)的普遍做法。我國在人工智能法治建設方面已具備良好基礎,考慮到相關技術產業(yè)在一些方面仍處于追趕階段,應充分發(fā)揮法治固根本、穩(wěn)預期、利長遠的保障作用,區(qū)分短期和中長期計劃,采取“漸進式”立法模式,有序推進相關立法工作,促進和保障我國人工智能高質量發(fā)展。
【關鍵詞】人工智能 法治化 漸進式 立法模式
【中圖分類號】D922/TP18 【文獻標識碼】A
【DOI】10.16619/j.cnki.rmltxsqy.2024.13.003
人工智能技術產業(yè)發(fā)展態(tài)勢與治理需求
習近平總書記強調:“人工智能是引領這一輪科技革命和產業(yè)變革的戰(zhàn)略性技術,具有溢出帶動性很強的‘頭雁’效應?!盵1]當前,人工智能技術快速發(fā)展,大模型不斷迭代突破,相關產業(yè)正在向多智能融合新階段發(fā)展。人工智能推動傳統實體經濟實現革命性升級與發(fā)展,催生智能經濟新形態(tài),成為發(fā)展新質生產力的重要引擎。我國人工智能前沿領域技術創(chuàng)新活躍,人工智能產業(yè)規(guī)模不斷提升,行業(yè)賦能逐步“走深向實”。
人工智能為經濟社會發(fā)展注入新動能。以ChatGPT為代表的大模型問世,改變了人工智能技術與應用的發(fā)展軌跡,是人工智能發(fā)展史上的新里程碑。大模型呈現學習能力強、通用泛化好、技術迭代快等特點,其感知與理解能力顯著增強,在上下文理解、多學科知識、數學推理等任務中接近人類水平,已具有一定的通用智能能力。近期,人工智能產業(yè)保持高速增長,大模型成為主要驅動力。從產業(yè)規(guī)模看,2023年,全球人工智能產業(yè)規(guī)模為5132億美元,同比增長20.7%。從投融資熱點看,2023年下半年,全球金額領域最大的十項投資事件中有七項與大模型相關,達到25.65億美元,其中三項流向基礎大模型企業(yè),四項流向專用大模型、大模型平臺等相關企業(yè)。從發(fā)展路線看,極限發(fā)揮“大模型+大數據+大算力”技術潛力成為未來3~5年發(fā)展主旋律。
我國高度重視人工智能發(fā)展,2024年《政府工作報告》明確提出,2024年將深化大數據、人工智能等研發(fā)應用,開展“人工智能+”行動,打造具有國際競爭力的數字產業(yè)集群。[2]目前,我國已成為人工智能領域超級大國之一,人工智能產業(yè)蓬勃發(fā)展,逐步邁入由技術突破、產業(yè)發(fā)展、應用創(chuàng)新三個維度牽引發(fā)展的新階段。主要表現為通用大模型、智能芯片、開發(fā)框架等創(chuàng)新成果不斷涌現,視覺、語言等應用技術水平全球領先,基礎算法二次創(chuàng)新能力突出。2023年,我國人工智能核心產業(yè)規(guī)模達5784億元,同比增長了13.9%,人工智能企業(yè)數量達4482家。我國人工智能產業(yè)鏈已覆蓋集成電路制造、框架、芯片、算法、數據、平臺、應用等上下游關鍵環(huán)節(jié),人工智能芯片企業(yè)加速布局,基礎模型快速迭代,大模型數量穩(wěn)居世界第一梯隊。
人工智能健康有序發(fā)展需要法治保障。構建合理適宜的法律制度是促進人工智能健康發(fā)展的重要基礎,法律通過明確權利和義務為人工智能的創(chuàng)新和規(guī)范提供確定性、激勵性和指導性。在創(chuàng)新層面,與數據、算法、算力、應用發(fā)展相關的合法利用問題和權利問題仍待解決。以數據為例,高質量數據是人工智能發(fā)展的根基,數據的匯集利用需要進一步明確合法處理個人信息數據、合法使用受著作權保護內容的數據、合理進行數據爬取等方面的法律要求。同時,探索確定人工智能生成物的權利歸屬也能對內容創(chuàng)新、技術創(chuàng)新形成激勵。在規(guī)范層面,發(fā)展創(chuàng)新與安全相統一的人工智能需要法律明確責任義務。法治在人工智能全生命周期治理中發(fā)揮著示明底線的作用,是保障個人權利和社會發(fā)展秩序最重要的治理手段之一。同時,法律通過明確人工智能研發(fā)和應用的要求,合理配置人工智能開發(fā)者、部署者、使用者等不同主體的責任與義務,進一步推動形成人工智能健康有序發(fā)展的社會生態(tài)。
國際社會人工智能立法趨勢與主要做法
隨著人工智能技術發(fā)展和應用普及,人工智能治理能力和治理體系滯后于技術發(fā)展的問題日漸顯現。多個國家和地區(qū)探索以法治思維與法治方式治理人工智能,在發(fā)展與監(jiān)管之間尋求平衡,促進人工智能“在發(fā)展中監(jiān)管,在監(jiān)管中發(fā)展”。通過出臺人工智能相關立法健全人工智能治理體系,有效監(jiān)管人工智能的開發(fā)和應用,防止技術濫用或不當使用,以法治思維和方式推動人工智能技術健康發(fā)展,成為多個國家和地區(qū)在人工智能治理中的首要選擇。從全球范圍看,人工智能發(fā)展領先的國家和地區(qū)高度重視法律制度構建,積極開展人工智能相關立法和治理活動,主要形成了以歐盟和美國為代表的兩種典型治理模式。
以歐盟為代表的風險規(guī)制模式。歐盟立法側重于對人工智能發(fā)展風險的控制,試圖延續(xù)其《通用數據保護條例》(GDPR)在數據保護領域所產生的“布魯塞爾效應”,起草了全球迄今為止最為全面系統的綜合性《人工智能法》,[3]并由歐洲理事會正式批準通過。歐盟在《人工智能法》中采取了一種基于風險控制的監(jiān)管方式,對人工智能技術在所有行業(yè)具體應用場景的風險進行分級,參考功能、用途和影響將人工智能系統分為絕對不可接受的風險、高風險、有限風險和低風險(無風險)四個風險級別,根據風險級別明確不同的管理要求和法律義務。
第一級是“絕對不可接受風險”人工智能?!度斯ぶ悄芊ā方埂扒秩胄浴焙汀捌缫曅浴钡染哂形:π缘娜斯ぶ悄芟到y的使用。包括利用有害的、操縱性的潛意識技術的人工智能;利用特定弱勢群體(身體或精神殘疾)的人工智能;為一般目的提供自然人社會評分,可能導致歧視性結果或對某類群體進行排除、限制使用的人工智能;在公眾可進入的空間使用實時、遠程生物識別的人工智能。第二級是“高風險”人工智能。具體包括兩種類型,一類是用于產品的安全組件或屬于歐盟健康和安全統一立法管轄范圍的人工智能;另一類是應用于生物識別、關鍵基礎設施的管理和運營、教育和職業(yè)培訓,執(zhí)法工作等8個領域的人工智能。《人工智能法》對“高風險”人工智能系統的不同主體提出了不同的法律義務。針對相關主體的一般義務包括:進行風險管理、建立數據管理制度、制定技術文件、留存相關記錄以及保障系統安全性和準確性。“高風險”人工智能提供者要承擔保障系統安全、標明相關信息、留存資料等義務;“高風險”人工智能進口者要承擔合格評估、信息披露等義務;“高風險”人工智能部署者要承擔適當使用、人為監(jiān)督、基本權利影響評估等義務。此外,《人工智能法》還要求基礎模型提供者要承擔確保人工智能滿足使用要求、數據處理要求以及備案等義務。第三級是需要滿足透明度義務的“有限風險”人工智能。例如聊天機器人、生物識別分類系統等風險有限的人工智能系統?!度斯ぶ悄芊ā芬?guī)定此類人工智能系統只需要遵守透明度義務。第四級是不需要承擔任何義務的低風險人工智能。即如果人工智能系統的風險極低,則可以直接在歐盟進行開發(fā)和使用,而不需要承擔任何法律義務。
歐盟在人工智能的監(jiān)管上采取了一種橫向的、全面的管理方式。在適用范圍上,歐盟《人工智能法》采取了與GDPR一樣的橫向立法模式,即適用于所有投放于歐盟市場或者在歐盟可使用的人工智能系統,覆蓋金融、醫(yī)療、教育、能源、運輸、司法等各個行業(yè)領域。在管理機制上,歐盟《人工智能法》采取了自上而下的雙重監(jiān)管機制,即在歐盟層級設立人工智能辦公室,監(jiān)督最先進人工智能模型標準與測試;在成員國層級,由各成員國的主管機構負責在本國內適用和實施《人工智能法》。在管理對象上,《人工智能法》覆蓋了人工智能產業(yè)全生態(tài),對“高風險”人工智能系統的提供者、進口者、部署者以及基礎模型提供者均提出了具體的規(guī)定。此外,在法律責任上,《人工智能法》設置了高額罰款,罰款最高可達3500萬歐元或全球年營業(yè)額的7%(以較高者為準),對企業(yè)具有極強威懾力。
以美國為代表的發(fā)展引領模式。與歐盟的“強監(jiān)管”不同,美國并未試圖制定統一的綜合性人工智能立法,而是以“軟治理”方式為主應對人工智能發(fā)展需求和風險挑戰(zhàn),為技術和行業(yè)友好型的非監(jiān)管措施和“軟法”治理留出更大空間。美國聯邦政府強調審慎監(jiān)管促進創(chuàng)新發(fā)展,更多通過行業(yè)自律、政策文件等“軟”性方法實現人工智能治理。美國政府多次聲明人工智能技術發(fā)展是“以透明、基于共識以及私營部門為主導的方法制定新興技術標準,幫助美國公司在公平的環(huán)境中競爭”。美國州層面通過區(qū)分行業(yè)領域的垂直立法,基于不同的技術應用場景出臺相關立法,立法集中在自動駕駛、算法推薦等產業(yè)發(fā)展和治理實踐較成熟的領域,如美國已有32個州允許測試或部署自動駕駛汽車,紐約市于2018年通過美國第一部算法問責法案《1696法案》等。
美國聯邦層面通過戰(zhàn)略規(guī)劃、政策文件等為人工智能發(fā)展掃清技術應用障礙、促進技術創(chuàng)新。一方面,美國政府以《人工智能權利法案藍圖》統領人工智能治理。2022年10月,美國白宮科技政策辦公室發(fā)布《人工智能權利法案藍圖》,該文件提出人工智能技術應用的五項原則及相關實踐,即建立安全有效的人工智能系統、建立算法歧視保護措施、保護數據隱私、強調通知和透明度的重要性以及鼓勵開發(fā)選擇退出機制。這一文件旨在幫助指導自動化系統的設計、使用和部署,以保護人工智能時代美國公眾的權利。另一方面,美國政府發(fā)布人工智能發(fā)展路線圖和戰(zhàn)略規(guī)劃,引領國家人工智能發(fā)展方向。2023年1月,由美國白宮科技政策辦公室和美國國家科學基金會聯合成立的國家人工智能研究資源特別工作組發(fā)布《國家人工智能研究資源的實施計劃》報告,旨在擴大獲得人工智能研究和發(fā)展必需資源的渠道,為人工智能研究人員提供更多的計算資源、高質量數據、教育工具等,推動人工智能創(chuàng)新。2023年5月,美國白宮科技政策辦公室發(fā)布《國家人工智能研發(fā)戰(zhàn)略計劃》,總體規(guī)劃了聯邦政府投資人工智能研發(fā)的關鍵優(yōu)先事項和目標。
美國通過發(fā)布權威標準、指引以及鼓勵企業(yè)加入自律承諾等方式“柔性”應對人工智能風險。一方面,美國政府科研機構發(fā)布人工智能風險管理框架。2023年1月,美國國家標準與技術研究院(NIST)發(fā)布《人工智能風險管理框架》,旨在更好管理與人工智能相關的個人與組織,降低開發(fā)和部署人工智能系統時的安全風險,避免產生偏見等負面影響,提高人工智能可信度。另一方面,美國政府以自愿性承諾的方式引導人工智能頭部企業(yè)開發(fā)安全、可信的人工智能。2023年7月,美國白宮召集亞馬遜、Anthropic、谷歌、Inflection、Meta、微軟和OpenAI七家人工智能企業(yè)作出一系列保護用戶的自愿承諾,包括同意進行安全測試、采用新的水印系統以告知用戶內容是人工智能生成等。2023年9月,包括Adobe、IBM、英偉達等在內的八家人工智能頭部企業(yè)也加入該自愿承諾,共同推動人工智能技術的安全、可靠和透明發(fā)展。
美國政府發(fā)布行政令以促進人工智能安全發(fā)展為主線,旨在提升美國在人工智能領域全球領導力。2023年10月,拜登簽署《關于安全、可靠和可信地開發(fā)和使用人工智能的行政令》,對美國未來人工智能發(fā)展和監(jiān)管作出全面部署,強調要促進創(chuàng)新和競爭,確保美國在人工智能領域的競爭優(yōu)勢和領先地位。該行政命令指示相關部門執(zhí)行八項行動,包括為人工智能安全和保障制定新標準,保護美國人的隱私,促進公平和公民權利,維護消費者和工人利益,促進創(chuàng)新和競爭,提升美國在全球的領導地位等。
我國人工智能法治建設的現狀與挑戰(zhàn)
我國人工智能法治已具備良好基礎。近年來,我國堅持統籌安全與發(fā)展,積極推進人工智能相關立法和治理工作,先后制定出臺了一系列法律法規(guī),在人工智能法治建設方面處于全球領先地位。
一是我國互聯網領域的綜合立法為人工智能等新技術新業(yè)態(tài)的共性問題提供了基礎法律框架。我國先后出臺了《中華人民共和國網絡安全法》、《中華人民共和國數據安全法》(以下簡稱《數據安全法》)、《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》)等,相關立法確立了網絡安全、數據安全、個人信息處理等方面的具體規(guī)則,為應對人工智能研發(fā)應用中網絡安全、數據安全、個人信息保護等相關問題提供了明確指引。
二是我國圍繞算法、深度合成、生成式人工智能等重點領域制定專門規(guī)則。相關部門先后出臺《互聯網信息服務算法推薦管理規(guī)定》《互聯網信息服務深度合成管理規(guī)定》《生成式人工智能服務管理暫行辦法》等相關規(guī)定。2023年7月,國家互聯網信息辦公室聯合工業(yè)和信息化部等多部門發(fā)布的《生成式人工智能服務管理暫行辦法》,被認為是全球首部針對生成式人工智能的專門立法,其中提出國家堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結合的原則,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,對生成式人工智能服務實行包容審慎和分類分級監(jiān)管,明確了提供和使用生成式人工智能服務總體要求。
三是我國有關地方政府結合本地人工智能產業(yè)發(fā)展實踐,通過地方立法探索創(chuàng)新人工智能治理,為人工智能規(guī)范發(fā)展提供制度保障。例如,2022年9月,深圳發(fā)布《深圳經濟特區(qū)人工智能產業(yè)促進條例》,明確了人工智能的概念界定和產業(yè)邊界,提出了創(chuàng)新產品準入等制度。同月,上海發(fā)布《上海市促進人工智能產業(yè)發(fā)展條例》,提出探索人工智能沙盒監(jiān)管模式,對高風險人工智能產品和服務實行清單式管理等激發(fā)各類主體創(chuàng)新活力的治理機制。
人工智能發(fā)展仍面臨若干挑戰(zhàn)。從實踐發(fā)展情況來看,目前我國人工智能處于快速發(fā)展期,在大模型開發(fā)應用中存在數據處理合法性不足、知識產權界定不清、數據質量缺乏保障等問題,對技術進步和產業(yè)發(fā)展產生了一定的制約影響。
一是大模型訓練中使用爬取數據存在違法風險。目前,大模型訓練中包含了來源多樣的訓練數據,主要包括公開數據集、企業(yè)內部數據、合作伙伴數據、購買第三方數據以及用戶生成內容。根據OpenAI官網的披露,ChatGPT的訓練數據既包括自身訓練數據庫中的數據,也包括與用戶交互過程中用戶的輸入數據,規(guī)模最大的訓練數據是第三方爬取的數據集。依據我國《數據安全法》相關規(guī)定,應當采取合法、正當的方式收集數據,不得竊取或者以其他非法方式獲取數據。生成式人工智能系統如果爬取我國未公開數據、出于非法目的爬取我國數據或者采取其他惡意手段爬取數據,該類行為將明顯超出正當性邊界,構成對語料庫數據的非法獲取。[4]此外,我國相關司法審判案例判決未經允許抓取非公開數據可能構成不正當競爭,也在一定程度上限制了大模型開發(fā)者以爬取數據對大模型進行訓練。
二是以個人信息作為訓練數據存在侵犯個人信息風險。人工智能大模型在訓練過程中使用來源多樣的海量數據,其中不可避免地存在個人數據?!秱€人信息保護法》《生成式人工智能服務管理暫行辦法》均規(guī)定,對個人信息的處理活動需取得個人同意或符合法律、行政法規(guī)規(guī)定的其他情形。但模型語料庫數據規(guī)模龐大,逐一獲得個人信息主體的同意極為繁瑣,缺乏可操作性。在大模型訓練中使用已公開的個人信息,是否屬于《個人信息保護法》第二十七條規(guī)定的“在合理的范圍內處理個人自行公開或者其他已經合法公開的個人信息”,仍存在不確定性。目前,由于對于個人信息的處理缺乏合法性依據,OpenAI已經受到多國數據保護監(jiān)管機構的審查,如西班牙、加拿大的數據監(jiān)管機構和歐洲數據保護委員會(EDPB)等均對OpenAI的數據保護展開調查。2023年3月,意大利的數據監(jiān)管部門以違法使用個人數據為由對ChatGPT發(fā)布禁令。在個人信息保護法律框架下合法擴大訓練數據庫,成為人工智能企業(yè)面臨的共同課題。
三是大模型訓練可能造成對他人知識產權侵權。近期,由于大模型訓練中使用了他人享有知識產權的數據作為訓練數據“喂養(yǎng)”大模型,在國內外引發(fā)多起訴訟案件。2023年9月,美國作家協會和十七名作家起訴OpenAI使用權利人享有版權的作品訓練大模型構成著作權侵權。2023年10月,環(huán)球音樂集團及其他兩家音樂公司對人工智能公司Anthropic提起侵權訴訟,認為Anthropic在歌曲的歌詞上侵犯了原告權利。2024年2月,我國廣州互聯網法院作出全球首例生成式人工智能侵犯著作權的生效判決。[5]目前,產業(yè)界、學術界就人工智能背景下解釋適用《著作權法》《專利法》等知識產權相關立法,以及對現有立法進行修訂等主題展開激烈討論。
四是數據質量對大模型性能產生重要影響。目前,大模型訓練中仍存在數據質量不高的問題。大模型訓練數據中大部分為開源數據,而開源訓練數據或多或少存在噪音問題,特別是爬蟲數據噪音問題更為嚴重,而數據質量對于生成內容的準確性、全面性等都產生重要影響。此外,大模型采用“人類反饋強化學習”訓練方法,開發(fā)主體從大模型中選取樣本,對其進行人工標注,并利用評分結果來訓練反饋模型。而反饋提供者的個人觀點可能會被模型所學習和加強,導致最終的文本生成結果缺乏客觀性和全面性。[6]數據的時效性、多樣性不足,也成為制約大模型訓練的重要因素。目前中文優(yōu)質數據集的存量現狀、發(fā)展水平和內容質量相對落后,在一定程度上制約了大模型的訓練效果。《生成式人工智能服務管理暫行辦法》中規(guī)定,在生成式人工智能技術研發(fā)過程中進行數據標注的,提供者應當制定清晰、具體、可操作的標注規(guī)則;開展數據標注質量評估,抽樣核驗標注內容的準確性;對標注人員進行必要培訓,提升其遵法守法意識,監(jiān)督指導標注人員規(guī)范開展標注工作。但提升數據質量的具體要求和標準、數據標注的具體規(guī)制和數據標注人員管理規(guī)則都仍需進一步細化完善。
推進我國人工智能立法的思路原則與建議
關于我國人工智能立法的思路原則。目前,我國人工智能大模型發(fā)展仍處于技術追趕階段。結合我國產業(yè)技術發(fā)展實踐,推進我國人工智能立法工作需要統籌處理好發(fā)展與安全、新法與舊法、國內與國際三對重要關系。
一是統籌發(fā)展與安全,明確立法定位。通用人工智能是新質生產力的典型代表,在通用人工智能技術尚未展現全貌前,如何合理地平衡發(fā)展和安全,將極大影響我國未來在全球智能化競爭格局中的地位。建議在劃好安全底線的前提下,更加突出立法對人工智能創(chuàng)新發(fā)展的“促進”作用,實現以發(fā)展促安全,以安全保發(fā)展。我國人工智能立法可構建“先行先試”的準入機制和寬松的創(chuàng)新環(huán)境,讓新技術更快地走向市場,給予萌芽階段的新技術新產品新應用以包容期,以實現立法監(jiān)管與技術創(chuàng)新的良性互動。
二是處理好新法與已有立法的關系。人工智能發(fā)展的很多問題都是傳統互聯網問題的延伸,如數據治理、個人信息保護等,對此,已有相關法律法規(guī)可以直接適用,或者針對人工智能發(fā)展特點通過立、改、廢、釋等立法手段調整后適用。要處理好不同法律之間的協調,做好新制度設計與已有規(guī)定的銜接。
三是統籌好國內與國際的關系。人工智能是人類發(fā)展的新領域,帶來了重大機遇,也伴隨著難以預知的風險挑戰(zhàn),需要國際社會共同應對。[7]在推進高水平對外開放的背景下,我國人工智能的法律制度應當成為一個立足國內、面向國際的新型規(guī)范模式,不僅要符合我國基本國情,也可以參考借鑒美歐人工智能風險分級管理、促進創(chuàng)新等有益經驗。
關于我國人工智能立法模式選擇的建議。在具體推進我國人工智能立法工作中,建議分階段“漸進式”推進。從整體看,目前人工智能發(fā)展仍處于通用人工智能發(fā)展的早期階段,很多問題尚未暴露,應在開展具體立法工作中區(qū)分短期和中長期的計劃,采取“漸進式”的立法模式,有序推進相關立法工作。
在短期內,建議做好《個人信息保護法》等已有法律的適用工作,適時由全國人民代表大會常務委員會發(fā)布人工智能相關決定。目前人工智能發(fā)展中出現的數據安全、個人信息保護等問題,基本都可以在現有法律框架內解決,對現有立法進行延伸適用是較為經濟高效的手段。此外,為更好發(fā)揮法律固根本、穩(wěn)預期、利長遠的保障作用,可以參照我國曾經在個人信息保護領域的經驗做法,由全國人民代表大會常務委員會起草發(fā)布關于促進和規(guī)范人工智能發(fā)展的決定。個人信息保護曾是全球互聯網發(fā)展中的關鍵問題,歐盟于1995年發(fā)布《數據保護指令》后引發(fā)了全球個人信息保護立法熱潮。我國當時并沒有急于制定一部個人信息保護綜合性立法,而是由全國人民代表大會常務委員會在2012年發(fā)布了《關于加強網絡信息保護的決定》,明確了個人信息保護的主要原則和基本規(guī)則,為產業(yè)發(fā)展留足了空間,推動我國互聯網行業(yè)發(fā)展迎來黃金時代。
中長期來看,建議研究制定綜合性基礎性人工智能立法,推動構建人工智能法律制度體系。人工智能法治化是一項系統性、復雜性工作,既涵蓋設計、研發(fā)、應用等多個發(fā)展階段,又包括研發(fā)者、提供者、使用者等多元主體,涉及數據、算法、模型等多方面問題,需要一部綜合性立法來統籌協調。以產業(yè)發(fā)展、權利保護、倫理考量為基本原則,用系統觀念和法治方法來推動人工智能技術產業(yè)在我國規(guī)范健康持續(xù)發(fā)展,促進其在“安全、可控、可解釋、可問責”的基本原則下創(chuàng)新發(fā)展。以算法、算力、數據為核心要素,在法治框架下盡快建立健全人工智能科技倫理監(jiān)督管理規(guī)范,完善相應的侵權責任規(guī)范體系。探索構建以不同領域開發(fā)使用人工智能的風險為劃分標準的規(guī)則體系,加強和改進人工智能領域數據安全保障制度,重視和強化算法管理,強化對高風險領域的管理,釋放低風險領域發(fā)展活力。探索構建多元主體創(chuàng)新治理路徑,研究探索“沙盒監(jiān)管”等創(chuàng)新監(jiān)管制度,秉持“在發(fā)展中規(guī)范”“在規(guī)范中發(fā)展”的基本制度取向,在新技術新應用治理中構建多領域、多主體、多制度、多工具協同聯動治理機制。
關于我國人工智能發(fā)展具體問題的建議。針對現階段人工智能技術產業(yè)發(fā)展中的突出問題,可通過出臺權威指引、實施細則或修訂相關立法的方式予以回應,為人工智能發(fā)展提供明確的規(guī)則指引和合法保障。
在解決爬取數據合法性不足方面,可通過修訂現行立法,放寬對第三方數據服務商數據抓取的限制。對于商業(yè)數據的爬取,可考慮采納2022年《中華人民共和國反不正當競爭法(修訂草案征求意見稿)》第十八條第一款第二項關于數據爬取的規(guī)定,僅對足以實質性替代其他經營者提供的相關產品或者服務的數據爬取行為進行規(guī)制。對公眾可以無償獲取的數據,可考慮采納2022年《中華人民共和國反不正當競爭法(修訂草案征求意見稿)》第十八條第三款關于獲取使用該類型數據不屬于不正當獲取的定性,為大模型開發(fā)者合法的數據爬取和使用留出制度空間。
在實現大模型訓練中個人信息合法使用方面,可考慮在《個人信息保護法》框架下,針對人工智能大模型訓練階段、生成階段、應用階段個人信息保護的具體問題出臺細則和指引,幫助相關企業(yè)合法地研發(fā)、部署、應用人工智能大模型。考慮出臺《個人信息保護法實施條例》,將人工智能大模型在研發(fā)階段對已公開個人信息的使用納入《個人信息保護法》規(guī)定的“在合理的范圍內處理個人已經合法公開的個人信息”。
在協調促進人工智能創(chuàng)新和著作權保護方面,通過具體規(guī)則、指引解決人工智能發(fā)展中的突出問題,為構建完善的人工智能制度體系奠定規(guī)則基礎??煽紤]在《著作權法》第四節(jié)“權利的限制”部分增加“文本與數據挖掘”條款,即“為研發(fā)大模型而采集作品數據進行訓練的,在著作權人未明確拒絕將其作品用于訓練時,可以不經著作權人許可,使用其作品進行模型訓練,但不得影響該作品的正常使用,也不得不合理地損害著作權人的合法權益”。允許企業(yè)出于發(fā)展人工智能的公共利益需要,在不侵害著作權人合法權益的基礎上,使用作品進行模型訓練。
在提升訓練數據質量方面,可通過發(fā)布實踐指引、行業(yè)標準的形式,明確對具體行業(yè)、具體類型數據質量的具體要求。圍繞數據標準化、數據合規(guī)化、數據完整性、數據一致性等要求,構建數據集質量評測基準體系,開發(fā)數據標注管理工具,為提升數據質量提供明確指引??商剿鳂嫿〝祿俗⑿袠I(yè)管理制度,完善數據標注規(guī)則,包括標注目標、標注格式、標注方法以及數據質量指標等。構建數據標注從業(yè)者的資格準入制度,針對數據標注、數據審核等不同職能明確不同的任職要求等。
注釋
[1]《加強領導做好規(guī)劃明確任務夯實基礎 推動我國新一代人工智能健康發(fā)展》,《人民日報》,2018年11月1日,第1版。
[2]《政府工作報告——2024年3月5日在第十四屆全國人民代表大會第二次會議上》,2024年3月12日,https://www.gov.cn/yaowen/liebiao/202403/content_6939153.htm。
[3]王融:《AI時代,歐盟會復制下一個GDPR嗎?》,2023年12月21日,https://www.tisi.org/27214。
[4]張欣:《生成式人工智能的數據風險與治理路徑》,《法律科學(西北政法大學學報)》,2023年第5期。
[5]《AI畫出奧特曼:中國法院作出全球首例生成式AI服務侵犯著作權的生效判決》,2024年2月26日,https://m.21jingji.com/article/20240226/herald/133a6c2f9c0b045899e4dea10c5778eb.html。
[6]鈄曉東:《論生成式人工智能的數據安全風險及回應型治理》,《東方法學》,2023年第5期。
[7]方興東:《告別人工智能治理“碎片化”》,《人民政協報》,2023年12月7日,第7版。
參考文獻
騰訊研究院、中國信息通信研究院互聯網法律研究中心,2017,《人工智能:國家人工智能戰(zhàn)略行動抓手》,北京:中國人民大學出版社。
楊延超,2019,《機器人法——構建人類未來新秩序》,北京:法律出版社。
伊格納斯·卡爾波卡斯,2022,《算法治理:后人類時代的政治與法律》,上海人民出版社。
劉艷紅,2023,《生成式人工智能的三大安全風險及法律規(guī)制——以ChatGPT為例》,《東方法學》,第4期。
劉金瑞,2021,《數據安全范式革新及其立法展開》,《環(huán)球法律評論》,第1期。
蘇宇,2023,《數字時代的技術性正當程序:理論檢視與制度構建》,《法學研究》,第1期。
責 編∕桂 琰 美 編∕梁麗琛