在人工智能時代,技術正悄然改變著我們的生活。
開車導航,可以定制個人專屬語音包;不想費眼看書,能讓AI生成有聲書;喜歡某位歌手,還可以使用他們的聲線重新演繹新的歌曲……
這些都是AI技術與“聲音”相關的使用場景。AI技術的發(fā)展提升了生活便利和趣味性,但使用這些AI生成的聲音,是否有法律風險呢?在大量用戶“嘗鮮”AI聲音的同時,又該如何讓“聲音”不被違法使用?在“耳聽為虛”的情況下,司法機關怎么應對技術發(fā)展帶來的挑戰(zhàn)?
2024年4月23日,北京互聯(lián)網(wǎng)法院宣判了全國首例AI生成聲音人格權侵權案。此案中,配音師殷女士的聲音被AI處理生成了一款文本轉語音產(chǎn)品,該產(chǎn)品的下載量高達32.6億次,這給以“聲音”為業(yè)的她帶來了很大的影響。
民法典規(guī)定,“對自然人聲音的保護,參照適用肖像權保護的有關規(guī)定”。
北京互聯(lián)網(wǎng)法院在殷女士案的判決中也明確認定,在具備可識別性的前提下,自然人聲音權益的保護范圍可及于AI生成聲音,并且利用人工智能合成的聲音,如果能使一般社會公眾或者相關領域的公眾根據(jù)其音色、語調(diào)和發(fā)音風格,關聯(lián)到該自然人,可以認定為具有可識別性。
大成律師事務所高級合伙人、北京市律師協(xié)會數(shù)字經(jīng)濟與人工智能領域法律專業(yè)委員會副主任肖颯認為,根據(jù)這一判決,可見我國司法實踐肯定了聲音權與肖像權一樣,是一種標表型人格權益,均具備可支配性、可商業(yè)利用性。在未經(jīng)許可的情況下使用他人的聲音制作AI生成的作品,系侵犯他人人格權、聲音權的行為。
使用AI生成聲音,是生成式人工智能的一種應用方式。生成式人工智能的核心在于利用計算機算法和大量數(shù)據(jù)來生成新的、具有實際價值的內(nèi)容。這種技術能夠模擬人類的創(chuàng)造力和想象力,從而生成文本、圖像、音頻和視頻等多種類型的數(shù)據(jù)。具體到音頻生成領域的實際應用里,包括了樂曲、歌曲生成和語音克隆等。
此前,“AI孫燕姿”翻唱《發(fā)如雪》等歌曲曾迅速走紅網(wǎng)絡,多平臺播放量破百萬,熱度居高不下。之后又出現(xiàn)一批“AI歌手”,其中不乏已故歌手。
“一般來說,AI歌手是通過學習歌手聲音而產(chǎn)生的人工智能聲音模型,雖然聽起來像歌手的聲音,但不是對歌手演唱原音的復制和傳播,而是類似于聲音‘模仿秀’。”中國音像與數(shù)字出版協(xié)會出版融合工作委員會副秘書長、京商傳媒執(zhí)行CEO王文峰介紹道。
北京航空航天大學法學院副教授、工信部工業(yè)和信息化法治戰(zhàn)略與管理重點實驗室副主任趙精武表示,對于AI歌手此類應用是否構成侵權存有爭議,但主流觀點還是傾向認定這類AI合成新歌曲構成對原歌手聲音權、著作權的侵害,使用歌手聲音進行AI合成之前應當獲得歌手的單獨同意。當然,如果AI合成歌曲僅用于個人欣賞不對外發(fā)布的話,則可能并不構成侵權行為。
王文峰介紹說,AI聲音的發(fā)展、迭代速度很快?!拔以趲啄昵奥犚恍┦褂萌斯ぶ悄芘湟舻囊纛l,會覺得比較機械,聽起來也很枯燥?,F(xiàn)在再來聽一些名人授權后生成的有聲讀物,已經(jīng)很難區(qū)分是真人還是AI生成了?!?/p>
王文峰也表示,現(xiàn)在這些技術的門檻大大降低,很多第三方插件工具越來越智能,在方便創(chuàng)作、使更多人能夠擁抱流媒體時代的同時,也有其消極影響,讓很多粗制濫造的內(nèi)容大規(guī)模地出現(xiàn),一些“魔改”視頻也容易出現(xiàn)版權糾紛。
“事實上,在影視、圖片、文學、動漫等領域,生成式人工智能應用引發(fā)的版權侵權糾紛并不少見,涉及的版權問題復雜多樣,妥善應對和解決這些風險,才能更好地利用這一先進技術進一步推進文化產(chǎn)業(yè)繁榮發(fā)展。”王文峰說道。
《方圓》記者調(diào)查發(fā)現(xiàn),目前市面上出現(xiàn)了多款AI聲音生成軟件,門檻低,部分軟件可以免費使用,相關教程也很多。哪怕完全是技術“小白”,不想自己花心思,也可以在購物平臺花錢找商家?guī)兔ι伞?/p>
這些軟件一方面可以滿足大家的“腦洞”,像是模仿不同人的聲音玩梗,給家里寵物配音等,另一方面也提高了帶貨主播、視頻博主等職業(yè)的工作效率。但與此同時,這些工具的違規(guī)使用也帶來了法律風險。
例如,近段時間,有不少視頻使用AI合成名人的聲音,有的利用名人背書來直播帶貨,有的則是曲解、捏造名人言論,博人眼球、騙取流量。而且,由于具有名人效應,這些音視頻往往傳播迅速,受眾更廣。這不僅可能對個人名譽造成損害,還可能造成社會信任危機,危害公共秩序。
趙精武表示,如果使用AI換聲,擅自歪曲、編造他人言論的,構成民事侵權責任,被侵權人可以要求行為人賠禮道歉、賠償損失等;情節(jié)嚴重,擾亂社會秩序的,則可能涉及侮辱誹謗、損害商業(yè)信譽等刑事犯罪,需要承擔相應的刑事責任。
清華大學人工智能研究院視覺智能研究中心主任鄧志東教授表示,AI換聲事件并不少見?!霸谌跞斯ぶ悄軙r代,就有DeepFake這樣的深度偽造技術出現(xiàn)。目前已進入大模型時代,技術上的挑戰(zhàn)更大,不僅逼真度越來越高,音頻、視頻、動作、表情與風格聯(lián)合,而且使用者需要的技術門檻也降低了。但有利的一面是,隨著技術的進步,我們也更有技術條件進行AI真?zhèn)舞b別和追蹤。”
鄧志東表示,基礎大模型作為生成式人工智能的操作系統(tǒng),需要事先利用超大規(guī)模的數(shù)據(jù)進行從頭開始的預訓練,其中的預訓練數(shù)據(jù)不僅采用了全人類已有的原始文本語料數(shù)據(jù),也包括了線上或線下圖像、視頻和音頻等,而這些多模態(tài)數(shù)據(jù)大部分是具有版權的,如代碼、論文和文學作品都有各自的著作權,多模態(tài)基礎模型也可能涉及人臉圖像、音視頻作品等。因此,生成式人工智能可能會帶來知識產(chǎn)權、隱私與合規(guī)性問題。目前大模型的預訓練數(shù)據(jù)基本上都沒有顧及這些問題,其發(fā)展還是相當粗放的。
AI技術的發(fā)展,讓其成為傳統(tǒng)犯罪升級的技術工具,而最常見的就是詐騙?!癆I技術可能會使得犯罪成本降低、成功率上升,現(xiàn)有的AI技術甚至能夠通過3秒的聲音進行‘克隆’。這幾年各地公安部門均有偵破利用AI技術仿冒視頻與被害人聯(lián)系的詐騙案件,讓被害人誤以為對方是自己熟悉的人,再加上如果通過網(wǎng)絡黑灰產(chǎn)獲取被害人個人信息,被害人更加難以辨別真?zhèn)巍!壁w精武說道。
在湖北省宜昌市,就出現(xiàn)了利用AI換聲實施詐騙的案例。案例中,受害者多為老年人,犯罪分子冒充他們的孫輩,以犯了罪被抓了需要保證金,或者打架了需要賠償醫(yī)療費等理由,讓長輩趕緊送錢。
而山東省濟南市的林小宇(化名)則是被AI生成的“哥哥”詐騙。林小宇和對方有過7秒的視頻連線,畫面里是熟悉的臉,聲音也是自己親哥哥的聲音。既然“哥哥”說急需一筆錢,林小宇便轉賬給對方指定的銀行卡里。在后續(xù)的調(diào)查中,警方還發(fā)現(xiàn),這起AI詐騙真正的源頭在境外。境內(nèi)的這伙人,是一個專門幫助境外詐騙分子進行洗錢的犯罪團隊,他們分工明確,買金、打款、對接上線等都由不同的人操作。
還有不少留學在外的學生反映,國內(nèi)的父母同樣接到了詐騙團伙的電話,聲音和自己的很相似,且設定了“綁架”這一場景,夾帶慘烈的哭聲,更能讓家人著急。
國外也有此類犯罪出現(xiàn),肖颯介紹稱,“外國某律師自曝,自己的父親接到了用AI制作的使用了他聲音的詐騙電話,稱自己因酒駕開車被捕,急需一筆錢保釋出獄。而在AI詐騙案發(fā)生前,這名律師剛剛上了電視,公開放出了一段包含其聲音的10多秒的視頻”。
除了詐騙近親屬,還存在假冒公司領導的詐騙案件。陜西西安一名財務人員,接到“老板”要求趕緊打款的視頻通話,聲音、臉都和本人高度相似;一家跨國公司香港分部的職員受邀參加總部首席財務官發(fā)起的“多人視頻會議”,多次轉賬轉走2億港元,事后才知道多人會議里,其他“參會人員”都經(jīng)過了“AI換臉”。
“使用AI換聲來實施詐騙,犯罪分子主要依靠的是一個時間差和信息差?!北本┦泻5韰^(qū)檢察院科技犯罪檢察團隊負責人李鵬向《方圓》記者介紹道,“所謂時間差,可能是留學在外的子女因為時差打不通電話,也可能是親屬因為上班未能及時回復消息。而信息差是指,公司員工未必很熟悉公司高層領導的長相和聲音,也不一定清楚公司的‘項目’,一旦‘領導’在月底季末要求打款,在不設防的情況下很有可能就被騙了。”
鄧志東介紹稱,“利用AI換聲、換臉實施各種犯罪行為,技術門檻并不高,網(wǎng)絡上已有各種工具集可以使用,技術難度并不大,而且換聲、換臉的逼真度會越來越好,普通用戶會愈來愈難以鑒別或區(qū)分”。
那么,犯罪分子利用AI換聲實施詐騙,他們聲音的“原材料”從何而來?
肖颯表示,大部分來自聲音主人自行拍攝并發(fā)送至各類視頻平臺、社交媒體上的視頻或音頻,也有一部分是公眾人物,或是如上述案件中提到的外國律師一樣,恰好被采集聲音素材后公開放出。當然,要獲取一個人的聲音其實非常容易,也可以通過與聲音主人打電話錄音等方式獲得素材。
此前,國家金融監(jiān)督管理總局金融消費者權益保護局發(fā)布防范新型電信網(wǎng)絡詐騙風險提示中介紹道,不法分子以“網(wǎng)店客服”“營銷推廣”“招聘兼職”“婚戀交友”等為借口,通過微信、電話等方式聯(lián)系消費者,采集發(fā)音、語句或面部信息,繼而利用“換臉”“擬聲”等技術實施詐騙。
辦理了利用AI換聲詐騙案的宜昌市西陵區(qū)檢察院檢察官鄭凱表示,據(jù)他了解,聲音的來源還可能是手機下載的應用?!鞍惭b部分應用時,可能需要授權使用手機麥克風,犯罪團伙有可能遠程利用這個權限收集手機使用者的聲紋。再者,受到詐騙的多為老年人,盡管AI生成的聲音未必真的能以假亂真,但在心情急迫、恐慌的情況下,很有可能來不及核實就上當受騙了。”鄭凱也提醒道,不要隨意點擊未知網(wǎng)址,下載來路不明的應用。
李鵬也表示,使用AI換聲實施詐騙,除了要獲取到“聲音”原始素材,還要掌握詐騙目標的個人情況,例如家庭背景、家庭財產(chǎn)情況、職業(yè)等。因此,李鵬建議,在互聯(lián)網(wǎng)上盡量減少個人信息公開,涉及個人聲音、影像的發(fā)布更要慎重?!叭粘I钪?,涉及資金往來的行為,最好是多渠道確認對方信息。例如,自己的母親打電話稱有急事需要錢,那么可以向家庭其他成員確認是否有這回事,等等,避免因為單一信息而盲目轉賬?!?/p>
肖颯也提醒,接聽到與金錢、財產(chǎn)相關的電話,無論聲音如何相似,都需要通過其他方式核實對方真實身份,核實身份的方式可以是詢問只有真實的聲音主人才知道的信息?!靶枰⒁獾氖牵_視頻并不能證明對方的身份信息真實,當前通過AI制作實時通話視頻的技術已經(jīng)較為成熟,眼見也不一定為實,反而有可能是詐騙行為人的局中局?!?/p>
事實上,使用AI技術實施犯罪的也不僅僅只有詐騙。
李鵬介紹稱,常涉及的罪名還有侵犯公民個人信息罪,非法侵入計算機信息系統(tǒng)罪,破壞計算機信息系統(tǒng)罪,幫助信息網(wǎng)絡犯罪活動罪,制作、販賣、傳播淫穢物品罪,侮辱、誹謗罪等。
使用AI工具實施犯罪,相關技術的研發(fā)人員或者機構需不需要為犯罪行為擔責呢?
趙精武稱,如果AI研發(fā)者是主動提供技術工具,具有共同的犯罪意圖,則需共同承擔刑事責任。若其對犯罪行為完全不知情,且也履行了必要的注意義務,那么僅由罪犯承擔相應刑事責任。AI研發(fā)者不對自己無法控制、無法預見的AI犯罪活動與罪犯共同承擔刑事責任。
如果想要預防犯罪分子利用AI實施犯罪,趙精武認為,需要監(jiān)管機構、服務提供者以及社會公眾共同參與。“監(jiān)管機構需要針對市面上常見的AI信息服務進行監(jiān)管備案,服務提供者需要持續(xù)優(yōu)化升級預防生成違法信息的內(nèi)部管理制度和技術措施,社會公眾應當樹立法治觀念,合理使用AI信息服務,監(jiān)管機構和服務提供者也需要積極鼓勵和支持社會公眾舉報違法信息服務。”
黨的二十屆三中全會通過的《中共中央關于進一步全面深化改革、推進中國式現(xiàn)代化的決定》中明確提到,“完善生成式人工智能發(fā)展和管理機制”“建立人工智能安全監(jiān)管制度”。
在人工智能領域,我國建立了以《中華人民共和國網(wǎng)絡安全法》《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》三部法律為基礎的監(jiān)管體系。
為進一步規(guī)范生成式人工智能服務,國家互聯(lián)網(wǎng)信息辦公室等部門發(fā)布了《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》,要求任何組織和個人不得利用深度合成服務制作、復制、發(fā)布、傳播法律、行政法規(guī)禁止的信息;可能導致公眾混淆或者誤認的,應當在生成或者編輯的信息內(nèi)容的合理位置、區(qū)域進行顯著標識。
2023年7月,國家網(wǎng)信辦等部門發(fā)布《生成式人工智能服務管理暫行辦法》,這是國內(nèi)首部對生成式人工智能提出監(jiān)管要求的法規(guī),對數(shù)據(jù)來源合規(guī)、保護知識產(chǎn)權和個人信息、提高數(shù)據(jù)質量等提出具體要求。
遇到AI侵權違規(guī)違法時該如何處理,此暫行辦法也有規(guī)定,“(生成式人工智能服務)提供者應當依法及時受理和處理個人關于查閱、復制、更正、補充、刪除其個人信息等的請求”“提供者發(fā)現(xiàn)違法內(nèi)容的,應當及時采取停止生成、停止傳輸、消除等處置措施”。
對此,鄧志東表示,這些規(guī)定是完全合理的,但在實際操作中可能會面臨各種困難。“例如,由大模型生成的內(nèi)容實際是由大模型預訓練后進行綜合的結果,并非完全是某個個體信息的直接拷貝,采用事后及時處置的措施是合理的、可操作的??傊?,需要在執(zhí)法實踐中發(fā)現(xiàn)問題、解決問題,不斷完善各種AI治理手段與措施。”
在近期,生成式人工智能服務規(guī)范也有了進一步的細化。
2024年9月,國家網(wǎng)信辦發(fā)布《人工智能生成合成內(nèi)容標識辦法(征求意見稿)》,進一步細化了AI合成內(nèi)容的標識辦法,要求AI生成合成的內(nèi)容要在顯著位置作出標識,包括顯式標識和隱式標識。顯式標識是指在生成合成內(nèi)容或者交互場景界面中添加的,以文字、聲音、圖形等方式呈現(xiàn)并可被用戶明顯感知到的標識。隱式標識是指采取技術措施在生成合成內(nèi)容文件數(shù)據(jù)中添加的,不易被用戶明顯感知到的標識。
以音頻為例,需在音頻的起始、末尾或中間適當位置添加語音提示或音頻節(jié)奏提示等標識,或在交互場景界面中添加顯著的提示標識。而且,服務提供者提供生成合成內(nèi)容下載、復制、導出等方式時,應當確保文件中含有滿足要求的顯式標識。
給人工智能生成的內(nèi)容打“水印”,鄧志東認為這是低成本且高效的方法?!皩τ谏墒饺斯ぶ悄芊仗峁┱叨裕夹g非常簡單,幾乎沒有成本,也不影響內(nèi)容輸出。日后有需要時,通過特殊辦法檢測隱式標識,也能迅速追蹤,確認內(nèi)容來源?!?/p>
《方圓》記者在多個互聯(lián)網(wǎng)內(nèi)容平臺均能發(fā)現(xiàn)平臺設置的AI提示,例如標記內(nèi)容“疑似使用了AI生成技術,請謹慎甄別”“疑似包含AI創(chuàng)作信息,請謹慎甄別”等。這些顯著的提示標識,并不影響使用者的體驗,但在一定程度上提醒使用者要明辨真假。
那么,如果一段音頻不打上“水印”,是否還有分辨真假的方法?
有學者曾介紹,AI生成的聲音有特殊的頻譜特征,例如高頻細節(jié)較少、自然噪聲不足等。AI語音的波形往往有較為平滑的過渡,真人語音的波峰和波谷則會更明顯。從直觀聽覺感受來說,AI語音可能存在斷句不合理、沒有明顯氣口等情況。
但是,鄧志東也表示:“隨著技術深入發(fā)展,以后模仿學習到無法分辨,是完全有可能出現(xiàn)的。從技術上講,要想規(guī)避這些前沿AI技術被非法利用,還是可能需要同步開發(fā)出鑒別數(shù)據(jù)真假的先進產(chǎn)品。類似于矛與盾的關系,一方面用更先進的AI技術工具去自動檢測出數(shù)據(jù)的真?zhèn)危龅健栏咭徽伞?;另一方面則是加大懲治犯罪的力度,增加違法成本與代價。我也相信,人類一定會找到更好的方法去迎接由通用人工智能的發(fā)展帶來的各種挑戰(zhàn)?!?/p>
“整體而言,對AI換聲、換臉等信息服務,現(xiàn)行立法較為充分,只不過在法律適用環(huán)節(jié)仍有部分問題需要明確?!壁w精武舉例稱,例如AI換聲形成的新歌曲是否構成著作權法意義上的“作品”、相應的著作權歸屬于何者等問題需要結合司法實踐進行個案裁判。
“司法機關可以通過個案裁判向產(chǎn)業(yè)界明確技術創(chuàng)新行為的合法性邊界,以案釋法,解決諸如訓練數(shù)據(jù)合理使用行為認定的法律爭議。檢察機關則需要從嚴打擊利用AI技術的犯罪活動,從技術源頭、技術使用等各個環(huán)節(jié)全面預防和懲治AI犯罪活動。此外,司法機關包括檢察機關也需要擁抱AI技術創(chuàng)新成果,利用AI技術進一步提升司法服務效率?!壁w精武說道。
在司法實踐中,檢察公益訴訟或許能發(fā)揮其獨特的作用。有專家認為,人工智能應用使得系統(tǒng)化、微小化損害成為常態(tài),這決定了個體損害救濟的式微。
李鵬也提到,海淀區(qū)檢察院近日針對一起“AI去衣”案,提起了刑事附帶民事公益訴訟。此案中犯罪嫌疑人將他人提供的承載人臉信息的不特定多數(shù)女性圖片,通過深度偽造技術、AI軟件制作成裸體圖片販賣牟利。海淀區(qū)檢察院認為,被告人的行為侵害了不特定多數(shù)公民的個人信息安全,損害了社會公眾利益,應該承擔民事侵權責任。目前,該案尚未判決。
“當今互聯(lián)網(wǎng)如此發(fā)達,很多侵害都是針對不特定多數(shù)人的侵害,數(shù)量很大,被侵害的主體可能都不知道自己受到侵害,而受到侵害的受害者也未必能找到侵權主體人。檢察機關提起公益訴訟,不僅能突破個體訴訟的局限,為大量受害者提供救濟,還能通過個案實踐,推動相關法律法規(guī)的完善,為人工智能應用風險治理提供法律依據(jù)。”李鵬說道。
提到人工智能發(fā)展的未來,“不確定性”是一個高頻詞。發(fā)展速度不確定,應用場景不確定,對就業(yè)的挑戰(zhàn)不確定,對社會倫理的影響不確定……
在諸多“不確定”中,鄧志東認為能“確定”的是,如果監(jiān)督缺失,會加大各種不確定性的風險,帶來長遠的不利影響。
對于生成式人工智能未來還會帶來什么風險,鄧志東也向《方圓》記者介紹了幾種可能的風險:全球性、全局性的話語欺騙;幻覺與認知偏見及倫理欺詐;非法內(nèi)容的導出;網(wǎng)絡攻擊、計算機病毒植入、網(wǎng)絡安全漏洞發(fā)現(xiàn)或更易高頻發(fā)生;幫助進行非法物品的制造;內(nèi)部數(shù)據(jù)的非法爬取等。
“特別是隨著通用人工智能的復雜邏輯推理能力或智商越來越高,完成任務的寬度越來越大,同時完成某些具有挑戰(zhàn)性任務的能力超過人類的最高水平,確實是有可能威脅到人類的文明與發(fā)展。”鄧志東說道。
人工智能發(fā)展的不確定性又會給檢察機關帶來什么挑戰(zhàn)?
李鵬認為,未來與人工智能相關的案件,辦案的挑戰(zhàn)是既要懂法,也要懂技術。“AI技術日新月異,每接觸一個個案,都要學習其涉及的原理、法律,還要能將‘技術原理’轉換成法庭上的‘法律語言’,向法官、向公眾說得明白?!睋?jù)了解,李鵬所在的科技犯罪檢察團隊,成員大部分都是復合型人才,具備一定的計算機技術背景,這也是為了更好地辦理高科技犯罪案件。
肖颯建議,AI領域的監(jiān)管需要更多地與行業(yè)從業(yè)者進行溝通,指引平臺向上發(fā)展?!澳壳埃斯ぶ悄艿陌l(fā)展已經(jīng)來到一個關鍵的時間節(jié)點,人工智能的水平正在不斷提升,但相關的法律規(guī)定依然具有一定的滯后性。因此,對行業(yè)進行更多的關注,將監(jiān)管規(guī)范與實踐相結合,盡快出臺適宜當前科技發(fā)展進步趨勢的立法,是當務之急?!?/p>
趙精武表示,對于AI領域未來發(fā)展,需要一種包容審慎、發(fā)展和安全并重的治理模式。無論是AI技術,還是其他信息技術,在創(chuàng)新過程中均會存在技術優(yōu)勢和安全風險。面對AI技術應用產(chǎn)生的各類安全風險,社會上存在“強化監(jiān)管、全面限制AI應用”等類似觀點。“客觀而言,這類觀點存在‘因噎廢食’的弊端,對于AI技術的不利影響,重要的是如何引導AI產(chǎn)業(yè)的良性發(fā)展,而不是限制技術應用。因為不發(fā)展才是最大的安全風險,所以需要以法律、技術、市場、倫理等多維度的治理工具促進AI技術創(chuàng)新,而AI創(chuàng)新的成果又能夠解決先前存在的技術弊端和安全風險?!?/p>
鄧志東表示,“作為新質生產(chǎn)力的典型代表,通用人工智能對我們國家而言,對于整個人類而言,都是一個前所未有的歷史新機遇、新挑戰(zhàn)。AI領域的長遠發(fā)展,必須依賴于法律的監(jiān)督與規(guī)范,必須制定技術研發(fā)的底線和紅線。但也要保持對AI新技術的包容與支持,支持AI原始創(chuàng)新、技術創(chuàng)新與產(chǎn)業(yè)落地應用,不致影響到AI創(chuàng)新活力與動力”。