潘奕揚,許靜文
(中國刑事警察學(xué)院,遼寧 沈陽 110035)
2022 年11 月,OpenAI 公司①OpenAI是一家成立于美國的人工智能研究公司,其主要目標(biāo)是致力于研究和實現(xiàn)安全可控的通用人工智能(AGI)技術(shù),以確保人工智能的發(fā)展和應(yīng)用符合人類的利益和福祉。正式推出了旗下的新型人工智能聊天模型ChatGPT。這款生成式AI 模型②生成式AI 是一種使用機器學(xué)習(xí)算法來生成新的、原始的、自然的數(shù)據(jù)的AI 模型。生成式AI模型不僅可以分析和理解現(xiàn)有數(shù)據(jù),還可以使用這些數(shù)據(jù)生成新的、類似于原始數(shù)據(jù)的內(nèi)容。以其出色的語言理解和生成能力,在推出后迅速在社交網(wǎng)絡(luò)上走紅——僅僅五天內(nèi),Chat-GPT 的用戶數(shù)量就突破了100 萬,而在兩個月內(nèi),這個數(shù)字更是輕松過億,一場人工智能技術(shù)革命開始在全球范圍內(nèi)席卷而來。
受新型生成式AI模型帶來的巨大市場潛力刺激,一些國內(nèi)外的互聯(lián)網(wǎng)公司紛紛調(diào)整發(fā)展戰(zhàn)略,致力于開發(fā)與之類似的產(chǎn)品或者促進已有的產(chǎn)品與ChatGPT 模型進行融合。2023 年3 月16 日,微軟宣布將OpenAI 公司的GPT-4 模型接入旗下的Office 產(chǎn)品,推出了一個具有全新AI 辦公協(xié)助功能的Copilot;2023 年3 月29 日,360 集團創(chuàng)始人周鴻祎在“2023 數(shù)字安全與發(fā)展高峰論壇”中,發(fā)布了360 版的ChatGPT;2023 年4 月11 日,阿里正式推出自研大語言模型“通義千問”,并邀請用戶參與測試……可以說,ChatGPT 模型的問世與使用,在全球范圍內(nèi)引發(fā)了一場新的AI 技術(shù)大爆炸。
雖然ChatGPT 模型在網(wǎng)絡(luò)空間中得到了廣泛應(yīng)用與迅速發(fā)展,然而我國的相關(guān)部門尚未對其迅速蔓延之勢做出切實有效的反饋,對于ChatGPT 模型在應(yīng)用過程中出現(xiàn)的風(fēng)險以及如何對其進行規(guī)制尚未形成明確的治理路線。因此,我們有必要從技術(shù)層面以及國家層面作為兩個切入點,深入研判治理的可行性,這有助于摸索出一條行之有效的網(wǎng)絡(luò)空間治理路徑。
隨著ChatGPT 模型的廣泛推廣和使用,大眾對這種新型人工智能模型的好奇心愈發(fā)強烈。經(jīng)過初步使用后人們驚奇地發(fā)現(xiàn),ChatGPT 模型的能力并不局限于簡單的聊天服務(wù),憑借著高效的靈活性和適應(yīng)性,它能夠在不同的領(lǐng)域和場景中發(fā)揮專業(yè)性和優(yōu)秀的人機交互性。例如,在旅游規(guī)劃領(lǐng)域,ChatGPT 可以根據(jù)用戶提供的信息和偏好,智能地推薦旅游線路和景點;在編寫代碼領(lǐng)域,ChatGPT 可以生成代碼片段或提供代碼調(diào)試的建議。簡而言之,作為一種具有強大自主學(xué)習(xí)能力的人工智能,ChatGPT 模型的應(yīng)用領(lǐng)域和發(fā)展?jié)摿υ诓粩鄶U展和深化。
新一代人工智能技術(shù)的出現(xiàn)儼然成為了一種發(fā)展趨勢。然而,在前沿科技更新迭代的同時,我們也有必要關(guān)注ChatGPT 模型在應(yīng)用過程中對網(wǎng)絡(luò)空間環(huán)境的安全帶來沖擊的風(fēng)險,以便及時探討對其進行規(guī)制的可行性。一項新技術(shù)取得變革性突破,并不必然帶來變革性的社會影響,尤其伴隨技術(shù)本身及其應(yīng)用存在的隱患,如果處理不當(dāng)勢必影響技術(shù)的發(fā)展與應(yīng)用。[1]本文主要從ChatGPT模型應(yīng)用于互聯(lián)網(wǎng)環(huán)境中可能產(chǎn)生的一系列安全隱患這個角度開展詳細(xì)論述。
在使用ChatGPT 模型過程中,一個很少被人們所討論、也容易被忽視的問題就是ChatGPT 模型帶給每個人的隱私風(fēng)險。根據(jù)《民法典》第一千零三十二條的規(guī)定:“隱私是自然人的私人生活安寧和不愿為他人知曉的私密空間、私密活動、私密信息?!庇纱丝梢?,我們在互聯(lián)網(wǎng)上所產(chǎn)生的數(shù)據(jù)隱私也從屬于我國民法界定的隱私的范疇。
近日,國外互聯(lián)網(wǎng)公司谷歌正式推出了自己的對話式人工智能Bard 作為與ChatGPT 對抗的產(chǎn)品。不難窺見,各互聯(lián)網(wǎng)公司在未來一段時間內(nèi)將會掀起跟風(fēng)狂潮,致力于人工智能研發(fā)的科技公司陷入了一場“軍備競賽”。
但是一個值得關(guān)注的問題是,這些科技公司的競爭正是由我們的個人數(shù)據(jù)推動的。換而言之,我們在互聯(lián)網(wǎng)上持續(xù)不斷產(chǎn)生的個人數(shù)據(jù)為ChatGPT 等新型人工智能模型的發(fā)展提供了活力。隨著互聯(lián)網(wǎng)的普及和社交媒體的盛行,人們在日常生活中不斷產(chǎn)生和留存包括搜索記錄、社交媒體信息在內(nèi)的大量個人信息。這些數(shù)據(jù)成為了科技公司在開發(fā)人工智能技術(shù)時的重要資源,進而用以進行模型訓(xùn)練與優(yōu)化,提高精確度和效率。然而,它們的獲取和利用方式也引發(fā)了大眾對于人工智能時代下個人數(shù)據(jù)隱私和數(shù)據(jù)安全的擔(dān)憂和反思。任何人,只要在互聯(lián)網(wǎng)上發(fā)表過自己的觀點或者文章,都很有可能在不知情的情況下被ChatGPT 拿來使用,作為對某個問題的回答輸出。
另一個風(fēng)險則是在人機交互問答過程中,我們要求ChatGPT回答問題或執(zhí)行任務(wù)時,當(dāng)用戶無意間輸入個人信息或商業(yè)秘密時,ChatGPT 會瞬間捕捉并收納入庫,并可能在他人的誘導(dǎo)性提問下全盤托出。[2]也就是說,用戶包含個人數(shù)據(jù)隱私信息的問答,很可能會被ChatGPT 收入囊中,變?yōu)樽约侯A(yù)訓(xùn)練語料庫中的一員,作為日后對他人提問的響應(yīng)。
一些犯罪分子也可能會看重ChatGPT 模型高效的自然語言處理能力,從而用以實施違法犯罪活動。例如,通過利用ChatGPT 模型,可以找出采集到的個人信息間的關(guān)聯(lián)性與潛在價值。比如從一個人的購物習(xí)慣、興趣愛好與交際圈,就能推測出其經(jīng)濟情況、職業(yè)和生活方式等等。ChatGPT 等人工智能模型的出現(xiàn)與普及,將我們原本已經(jīng)岌岌可危的數(shù)據(jù)隱私安全推入到更深的風(fēng)暴之中。
盡管能生成高質(zhì)量的輸出,但由于ChatGPT模型進行的是無監(jiān)督式預(yù)訓(xùn)練,學(xué)習(xí)過程不受人類監(jiān)督,事先獲取的信息也難以得到過濾與篩選,數(shù)據(jù)在源頭上就已有產(chǎn)生問題的風(fēng)險。這就會導(dǎo)致基于ChatGPT 模型生成的文章、回答會嵌入各種虛假信息,包括明顯不真實的事實、被誤導(dǎo)性描述的事實以及完全杜撰的明顯事實,這些虛假的信息通常被稱為AI幻覺。據(jù)OpenAI公司稱,ChatGPT模型的知識截止于2021 年9 月,這就意味著發(fā)生在這個時間點以后的信息都很有可能無法被該模型精確地反映出來,所以也會帶來輸出信息時效性的問題,這在用戶使用ChatGPT模型詢問法律法規(guī)以及查詢最新新聞時尤為明顯。而作為開發(fā)公司的OpenAI似乎并不回避這問題,它在官網(wǎng)寫道:“ChatGPT 有時會寫出看似合理但不正確或荒謬的答案?!闭缫恍┛茖W(xué)家所說,這種虛實相生的“幻覺”,在涉及法律以及醫(yī)療方面等問題時格外危險。
2016 年,Christian Szegedy 等人提出了對抗樣本的概念。他們指出,由于深度學(xué)習(xí)模型對輸入數(shù)據(jù)高度敏感,利用故意設(shè)計的、難以察覺的對抗噪聲,可以任意欺騙深度學(xué)習(xí)模型并影響最終預(yù)測結(jié)果。[3]Nature 雜志更是在2019 年發(fā)表的文章中指出了對抗樣本的普遍存在以及深度學(xué)習(xí)模型的脆弱性?;诖?,一旦對抗樣本被用于ChatGPT 模型中,便會從人為的角度導(dǎo)致虛假結(jié)果的輸出,嚴(yán)重威脅模型的可靠性和穩(wěn)定性。對抗樣本的概念演示如圖1 所示。
圖1 對抗樣本概念演示圖
根據(jù)圖1,可以將對抗樣本定義為如下公式①式中:為神經(jīng)網(wǎng)絡(luò);x 為原始數(shù)據(jù)樣本adv 為含有對抗噪聲的對抗樣本;y 為x 的類別標(biāo)簽;為x 與adv 之間的差別距離足夠小,但是? 對adv 進行了錯誤分類;為一個極小的衡量噪聲大小的數(shù)值。:
近日,特斯拉創(chuàng)始人埃隆·馬斯克以及數(shù)千名計算機科學(xué)家聯(lián)名呼吁暫停有關(guān)ChatGPT 模型的開發(fā)至少六個月以上。他們警告說,在近幾個月,人工智能研發(fā)者們?yōu)榱碎_發(fā)和部署更強大的AI模型,陷入了一場失控的競賽。[4]這些模型已經(jīng)變得無法被包括它們的創(chuàng)造者在內(nèi)的任何人所理解、預(yù)測或控制,生成的虛假信息極有可能給網(wǎng)絡(luò)生態(tài)環(huán)境帶來深遠的災(zāi)難。
現(xiàn)如今,我們已正式跨入新媒體時代,新媒體的出現(xiàn)不僅打破了傳統(tǒng)媒體的信息傳播模式,而且還形成了獨特的信息生產(chǎn)與傳播范式。新媒體時代除了專業(yè)媒體的信息生產(chǎn)外,更多的海量“微信息”產(chǎn)生在微博、微信、微視頻等網(wǎng)絡(luò)平臺,并以幾何速度向外發(fā)酵擴散。[5]這些信息憑借自身優(yōu)秀的靈活性可以方便地進行發(fā)布,再加上各個平臺之間自由的評論、轉(zhuǎn)發(fā)和分享機制,進一步推動了信息的分化、傳播和社會影響。在此背景下,一旦犯罪分子將ChatGPT 模型用于虛假信息的生成,那么影響將是空前的。眾多具有針對性的虛假信息在短時間內(nèi)能在互聯(lián)網(wǎng)上進行快速擴散,頃刻間便能充斥整個網(wǎng)絡(luò)。虛假信息帶有很強的操縱性和誤導(dǎo)性,可以輕易撼動公眾的主觀判斷與決策。當(dāng)不知情的網(wǎng)民看到那些符合他們主觀意愿的虛假信息后,加上個人情感的渲染與二次加工,會在不經(jīng)意間成為其傳播的幫兇,極易造成輿情異化,產(chǎn)生次生輿情。次生輿情在傳播的過程中,通常會將自己進行“包裝”,再加上在二次傳播過程中,伴隨著信息失真的現(xiàn)象,很容易讓網(wǎng)絡(luò)謠言滋生、蔓延。[6]
因而,使用ChatGPT 模型等新型生成式AI 模型時,我們需要謹(jǐn)慎對待結(jié)果,進行適當(dāng)?shù)男r灒源_保生成內(nèi)容的準(zhǔn)確性和可靠性。億萬富翁馬克·庫班在接受媒體采訪時表示,我們在使用Chat-GPT 等人工智能工具時要格外小心,并警告說很少有“護欄”可以幫助我們判斷事實與虛構(gòu)。[7]所以說,對使用類似于ChatGPT 的生成式AI 的用戶而言,始終保持對所生成內(nèi)容的懷疑心態(tài)將是每個人最好的財富。這樣做旨在幫助使用者以一種更加審慎的態(tài)度對待AI 生成的內(nèi)容,從而更好地規(guī)避可能出現(xiàn)的誤解或誤導(dǎo)。
國外著名網(wǎng)絡(luò)安全公司黑莓公司(Blackberry)于2 月初發(fā)布了一項針對1500 名信息技術(shù)專家的問卷調(diào)查,其中74%的人表示他們擔(dān)心ChatGPT 會助長網(wǎng)絡(luò)犯罪。[8]這種擔(dān)憂并不是空穴來潮。ChatGPT 模型因其出色的語言處理與文字生成能力,暴露出被不法分子濫用進而用于從事網(wǎng)絡(luò)犯罪的風(fēng)險,例如編寫釣魚郵件和惡意程序。相較于傳統(tǒng)的犯罪活動,這種新型互聯(lián)網(wǎng)犯罪的犯罪工具得到了顯著提升,使得犯罪活動更加隱匿,為未來互聯(lián)網(wǎng)的治理與監(jiān)管帶來前所未有的挑戰(zhàn)。
作為生成式AI,ChatGPT 可以利用其強大的文字生成能力,根據(jù)犯罪嫌疑人提供的關(guān)鍵字,在短時間內(nèi)生成具有指向性的惡意程序或者釣魚郵件,進而實施網(wǎng)絡(luò)攻擊。釣魚郵件是一種典型的社會工程學(xué)攻擊手段,區(qū)別于其他的網(wǎng)絡(luò)安全攻擊事件和手段,它通過偽造親朋好友、合作伙伴、同事領(lǐng)導(dǎo)等身份,向被攻擊方發(fā)送惡意郵件,誘導(dǎo)被攻擊方點擊郵件鏈接或者下載運行附件,從而完成病毒木馬的傳播或者進行間接網(wǎng)絡(luò)詐騙。[9]惡意程序通常指使用不正規(guī)攻擊法訪問計算設(shè)備入口,竊取個人信息或機密數(shù)據(jù)的程序,常常引發(fā)嚴(yán)重的網(wǎng)絡(luò)安全危機。[10]雖然這兩種傳統(tǒng)犯罪手段一直存在,但是ChatGPT 模型的出現(xiàn)無疑為它們提供了升級渠道。
以傳統(tǒng)的釣魚郵件為例,不難發(fā)現(xiàn),大部分釣魚郵件都存在著語法以及用詞不當(dāng)?shù)娜毕?,這極有可能是犯罪組織從事境外運作所造成的,組織中的犯罪分子不一定使用母語編寫電子郵件,因而導(dǎo)致了語句的生疏與不連貫性。但是隨著ChatGPT 模型的出現(xiàn),很可能意味著釣魚郵件的成功概率得到了提升。ChatGPT 能夠根據(jù)用戶的輸入提示生成高度真實的文本,犯罪分子與受害人之間的語言隔閡被成功打破,犯罪效率大大提升。例如,一些釣魚網(wǎng)站以及應(yīng)用程序利用ChatGPT 作為誘餌,模擬OpenAI 的官網(wǎng),仿造ChatGPT 推出免費的聊天機器人服務(wù),引誘用戶點擊鏈接或下載文件。這樣就可能會給使用者的個人信息、信用卡資料,甚至是手機的安全性帶來危險。更為關(guān)鍵的一點是,釣魚郵件的背景可以根據(jù)犯罪分子的不同需求進行輕松調(diào)整,從賬戶驗證到銀行通知再到商業(yè)機密泄露等等。這種多變的特性讓釣魚郵件成為了一種極具威脅的網(wǎng)絡(luò)安全攻擊方式。
有些犯罪分子可能會以一種繞過ChatGPT 限制的方式,生成惡意程序。比如能夠接受英文命令的反向shell①反向shell是一種常見的網(wǎng)絡(luò)攻擊技術(shù),用于通過遠程控制方式接管受攻擊計算機的控制權(quán),從而在未經(jīng)授權(quán)的情況下執(zhí)行惡意操作。或者能夠竊取用戶數(shù)據(jù)的信息竊取器。這些惡意程序可能會通過偽裝成合法的電子郵件、網(wǎng)站或者文件來傳播給目標(biāo)用戶。國外一家名為Check Point 的軟件公司的研究人員發(fā)現(xiàn),與同樣由OpenAI 開發(fā)的自然語言轉(zhuǎn)代碼系統(tǒng)Codex 結(jié)合起來,ChatGPT 模型就可以用來開發(fā)和注入惡意代碼。該公司的科研團隊已經(jīng)構(gòu)建出了一條由釣魚郵件到包含有惡意代碼的Excel 文件的完整鏈條,并且他們也可以將所有的惡意程序都編入成一個可執(zhí)行文件,最后在計算機上運行。[11]為了侵入用戶的在線賬戶,犯罪分子也可以利用ChatGPT,輸入事先獲得的用戶個人信息,進而生成眾多用戶名和密碼的組合,以此進行“撞庫”攻擊,這會給網(wǎng)絡(luò)空間安全帶來極大的安全隱患。
在現(xiàn)實生活中,以ChatGPT 模型為代表的新型生成式AI 日益興起,相關(guān)行業(yè)的發(fā)展正如火如荼。這是當(dāng)前人工智能技術(shù)發(fā)展的必然趨勢,也代表著新的生產(chǎn)力和發(fā)展方向。通過對ChatGPT模型底層邏輯的深入解析,我們不難發(fā)現(xiàn),該模型的功能實現(xiàn)離不開深度合成技術(shù)②深度合成技術(shù)是指利用深度學(xué)習(xí)、虛擬現(xiàn)實等生成合成類算法制作文本、圖像、音頻、視頻、虛擬場景等網(wǎng)絡(luò)信息的技術(shù)。的支持。在實際應(yīng)用中ChatGPT 所暴露出的問題,某種程度上可以歸因于該項技術(shù)的存在。因此,對深度合成技術(shù)進行深入了解并及時采取規(guī)制措施,有助于提前規(guī)避相關(guān)風(fēng)險,推動網(wǎng)絡(luò)生態(tài)環(huán)境向著綠色、健康的方向發(fā)展。
數(shù)據(jù)安全是保護數(shù)字信息在其整個生命周期內(nèi)不受未經(jīng)授權(quán)的訪問、損壞或盜竊的安全保護行為,包含信息安全的各個方面。[12]如何在數(shù)字化時代保證數(shù)據(jù)的安全成為了一個極具挑戰(zhàn)性的任務(wù)。這就有必要建立數(shù)據(jù)規(guī)范,制定相關(guān)標(biāo)準(zhǔn),并采取相應(yīng)的措施來保障數(shù)據(jù)的安全與可靠。同時還要根據(jù)數(shù)據(jù)類型及應(yīng)用場景,進行數(shù)據(jù)等級分類,確保敏感數(shù)據(jù)得到更為嚴(yán)格的保護。每當(dāng)一項新技術(shù)誕生之時,風(fēng)險與規(guī)制相生相隨,唯有建立一個涵蓋數(shù)據(jù)規(guī)范、責(zé)任導(dǎo)向、權(quán)利保障以及技術(shù)培育的完整體系,ChatGPT 的技術(shù)應(yīng)用才能被納入到一個安全可控的范圍之內(nèi)。[13]
當(dāng)前,隨著數(shù)據(jù)安全上升到國家主權(quán)安全層面,數(shù)據(jù)分類分級制度已經(jīng)成為國家數(shù)據(jù)治理的必然選擇。[14]數(shù)據(jù)分級分類制度是指將數(shù)據(jù)按照一定的標(biāo)準(zhǔn)進行分類、分級管理從而更好地保護數(shù)據(jù)安全,與此同時依照數(shù)據(jù)的敏感程度和價值程度,對不同等級的數(shù)據(jù)實施不同的管理和保護措施。究其本質(zhì),ChatGPT 模型作為一款基于深度合成技術(shù)的聊天機器人,它所處理的數(shù)據(jù)源自于各種不同的網(wǎng)絡(luò)平臺和應(yīng)用程序。這些數(shù)據(jù)在被用于ChatGPT 模型訓(xùn)練和文本生成時,可能產(chǎn)生諸多安全隱患。因此,通過建立數(shù)據(jù)分類分級制度可以有效規(guī)范ChatGPT 模型的應(yīng)用,從源頭上保障數(shù)據(jù)安全。
我國于2021 年頒布的《中華人民共和國數(shù)據(jù)安全法》(以下簡稱《數(shù)據(jù)安全法》)中已明確提出建立國家數(shù)據(jù)分類分級保護制度的初步構(gòu)想。根據(jù)第二十一條的相關(guān)規(guī)定,國家將根據(jù)數(shù)據(jù)的重要性和敏感程度,制定相應(yīng)的分級分類標(biāo)準(zhǔn)。因此為規(guī)避基于ChatGPT 模型的數(shù)據(jù)處理帶來的風(fēng)險,未來應(yīng)以《數(shù)據(jù)安全法》為指導(dǎo)準(zhǔn)則,以數(shù)據(jù)的類型、價值、敏感程度為依據(jù),在國家的宏觀指導(dǎo)之下對數(shù)據(jù)進行分級分類。在中央層面,應(yīng)該建立國家數(shù)據(jù)安全工作協(xié)調(diào)機制,將數(shù)據(jù)的安全保護與分級分類列為重點工作。在此基礎(chǔ)上,結(jié)合相關(guān)部門與專家的研究論證,形成一套完整的數(shù)據(jù)分類與分類的總體框架與目錄,并根據(jù)國家發(fā)展戰(zhàn)略與長期利益,保證協(xié)調(diào)機制的科學(xué)性與可操作性。與此同時,依據(jù)法律法規(guī)的規(guī)定以及技術(shù)的發(fā)展,強化對各級政府主管部門的指導(dǎo)與監(jiān)督,由地方各級政府對分級分類工作的具體實施加以細(xì)化與落實,確保工作的高效實施。
具體而言,可以將數(shù)據(jù)歸類為公開數(shù)據(jù)、內(nèi)部數(shù)據(jù)和敏感數(shù)據(jù)三個級別。公開數(shù)據(jù)是指可以公開發(fā)布和傳播的信息,如政府公開的文件、統(tǒng)計數(shù)據(jù)等;內(nèi)部數(shù)據(jù)是指企業(yè)或組織內(nèi)部使用的數(shù)據(jù),如人事信息、財務(wù)數(shù)據(jù)等;敏感數(shù)據(jù)是指具有商業(yè)、科技或國家安全價值的數(shù)據(jù),如商業(yè)秘密、技術(shù)資料等。首先,就公開數(shù)據(jù)而言,由于不涉及到個人隱私及國家安全,各級政府應(yīng)當(dāng)公開透明地進行管理,并加強數(shù)據(jù)質(zhì)量控制,也可以將數(shù)據(jù)交由ChatGPT 模型用于預(yù)訓(xùn)練,從而更好地發(fā)揮ChatGPT模型在各個領(lǐng)域的效能,為社會提供更精確、更智能的服務(wù)。其次對于內(nèi)部數(shù)據(jù),應(yīng)當(dāng)強化數(shù)據(jù)保護措施,加強外部訪問權(quán)限控制,防止數(shù)據(jù)泄露。在確保數(shù)據(jù)安全的前提下,政府可以經(jīng)過與數(shù)據(jù)所有者的協(xié)商和同意,向ChatGPT 模型開放適當(dāng)?shù)臄?shù)據(jù)。在行業(yè)內(nèi)部數(shù)據(jù)的支持下,ChatGPT 模型可以更加專業(yè)地回答專業(yè)領(lǐng)域的問題,提高應(yīng)答的效率和準(zhǔn)確性。最后,對于涉及到公民個人隱私與國家安全的敏感信息,需要采取更為嚴(yán)格的安全保護措施。我國于2022 年頒布的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》中指出在深度合成技術(shù)背景下需對數(shù)據(jù)與技術(shù)進行管理。其中,第十四條指明:“深度合成服務(wù)提供者和技術(shù)支持者應(yīng)當(dāng)加強訓(xùn)練數(shù)據(jù)管理,采取必要措施保障訓(xùn)練數(shù)據(jù)安全;訓(xùn)練數(shù)據(jù)包含個人信息的,應(yīng)當(dāng)遵守個人信息保護的有關(guān)規(guī)定?!睋?jù)此,我們應(yīng)指明類似于ChatGPT的新型生成式AI 模型無權(quán)干涉敏感數(shù)據(jù),政府可以通過采取諸如加密傳輸、限制訪問、實行數(shù)據(jù)備份等安全措施保障此類數(shù)據(jù)的絕對安全。通過建立安全審查機制,對申請使用敏感數(shù)據(jù)的機構(gòu)和個人進行審查,確保其使用的正當(dāng)性和保密措施的有效性。
需要注意的是,無論數(shù)據(jù)的等級和類別如何,ChatGPT 模型在數(shù)據(jù)采集、處理和應(yīng)用的各個階段,必須始終遵循相關(guān)法律法規(guī),這也是保障數(shù)據(jù)安全和使用合法性的必要條件。
網(wǎng)絡(luò)空間安全治理呼吁國家在場,網(wǎng)絡(luò)虛假信息已成為影響國家安全尤其是政治安全的重要因素。[15]深度合成技術(shù)的出現(xiàn)使得網(wǎng)絡(luò)虛假信息的制作達到了新的高度,在ChatGPT 模型的背景下,人們可以輕松生成虛假的文字、圖片、視頻等內(nèi)容,這些內(nèi)容往往帶有強烈的誤導(dǎo)性。習(xí)近平總書記在關(guān)于《中共中央關(guān)于全面深化改革若干重大問題的決定》說明中指出:“網(wǎng)絡(luò)和信息安全牽涉到國家安全和社會穩(wěn)定,是我們面臨的綜合性挑戰(zhàn)。”[16]因此如何對ChatGPT 模型的生成內(nèi)容進行管制,已成為擺在我國面前亟待解決的重要問題。
據(jù)2023 年4 月11 日國家互聯(lián)網(wǎng)信息辦公室關(guān)于《生成式人工智能服務(wù)管理辦法(征求意見稿)》中第七條的相關(guān)規(guī)定,生成式人工智能產(chǎn)品的服務(wù)者應(yīng)對其數(shù)據(jù)來源的合法性負(fù)責(zé)。據(jù)此,可以采取的一項措施是強化虛假內(nèi)容檢測技術(shù)。傳統(tǒng)的虛假信息檢測技術(shù)通常采取關(guān)鍵詞匹配和人工標(biāo)注等方式,但由于自身固有的局限性,很難對虛假信息進行精準(zhǔn)判定。相比之下,基于深度學(xué)習(xí)的虛假內(nèi)容檢測技術(shù)具有更高的準(zhǔn)確性和可靠性。第一種方法就是利用ChatGPT 模型的生成能力,生成一些虛假內(nèi)容,再將這些內(nèi)容與真實內(nèi)容進行對比,進而訓(xùn)練出更加準(zhǔn)確的虛假內(nèi)容檢測模型。這種方法既可以有效地檢測虛假內(nèi)容,同時還可以增加訓(xùn)練數(shù)據(jù)的多樣性,從而提高檢測模型的魯棒性。①魯棒性(Robustness)是指系統(tǒng)或算法在各種情況下都能夠保持良好的性能表現(xiàn),不受異?;蛞馔馇闆r的影響。在機器學(xué)習(xí)和人工智能領(lǐng)域,魯棒性通常用來描述模型或算法對于數(shù)據(jù)偏移、模型泛化、攻擊和噪聲等方面的穩(wěn)定性和健壯性。具體流程如下:首先準(zhǔn)備一個包含真實內(nèi)容與虛假內(nèi)容的數(shù)據(jù)集,此數(shù)據(jù)集可通過網(wǎng)絡(luò)爬蟲的方式從社交媒體等互聯(lián)網(wǎng)平臺獲取,并且人工標(biāo)注數(shù)據(jù)的真?zhèn)涡?;其次使用BERT②BERT(Bidirectional Encoder Representations from Transformers)是一種基于Transformers 的預(yù)訓(xùn)練語言模型,由Google 團隊在2018 年提出。BERT 通過訓(xùn)練大規(guī)模的無標(biāo)注文本數(shù)據(jù),可以學(xué)習(xí)到詞語之間的語義關(guān)系,從而能夠在各種NLP 任務(wù)中表現(xiàn)出色。、GPT③GPT (Generative Pre-trained Transformer) 模型是一種基于Transformer 的預(yù)訓(xùn)練語言模型,由OpenAI 團隊在2018 年提出。與BERT 模型不同,GPT 模型僅采用了單向Transformer,即只能根據(jù)前文生成后文,而不能考慮后文對前文的影響。等預(yù)訓(xùn)練模型對獲取到的數(shù)據(jù)集進行預(yù)訓(xùn)練,得到一個基礎(chǔ)的虛假內(nèi)容檢測模型;接下來,使用得到的模型對部分虛假內(nèi)容進行提取并添加到數(shù)據(jù)集中,擴大數(shù)據(jù)集的樣本容量;在此基礎(chǔ)上,利用已有的包含真實和虛假內(nèi)容的擴展數(shù)據(jù)集,對預(yù)訓(xùn)練模型進行二次訓(xùn)練,以提高該檢測模型的準(zhǔn)確性和可信性;再次,通過交叉驗證等方式評估虛假內(nèi)容檢測模型的準(zhǔn)確率、召回率等指標(biāo),以確保模型的性能;最后就是將訓(xùn)練好的模型投入到實際場景進行應(yīng)用。如圖2 所示。第二種方法是利用多模態(tài)學(xué)習(xí)的方法來識別虛假的信息。當(dāng)前,大量的虛假信息以圖片、視頻等多媒體的形式被廣泛傳播,利用多模態(tài)學(xué)習(xí)方法能夠?qū)μ摷傩畔⑦M行更為全面的識別。多模態(tài)學(xué)習(xí)是指利用多種不同的信息來源來學(xué)習(xí)一個模型。在虛假內(nèi)容的檢測過程中,我們可以使用大量的文本、圖像、視頻作為信息源用于模型的訓(xùn)練。比如,文字描述可以和圖像或者視頻內(nèi)容進行關(guān)聯(lián),從而更好地檢測虛假內(nèi)容。
圖2 虛假內(nèi)容檢測模型實現(xiàn)概念圖
在深度合成技術(shù)的支持下,網(wǎng)絡(luò)輿情的形成和傳播也面臨著新的挑戰(zhàn)。深度合成技術(shù)可以生成高質(zhì)量的虛假信息,從而干擾公眾對事件的判斷和評價。這直接威脅到了網(wǎng)絡(luò)生態(tài)環(huán)境的公正和健康發(fā)展。因此,對于深度合成技術(shù)的規(guī)制還應(yīng)當(dāng)從限制虛假內(nèi)容的傳播入手,在社交平臺建立虛假內(nèi)容檢測機制和處罰制度,對網(wǎng)絡(luò)輿情的形成和傳播進行嚴(yán)格的限制。在技術(shù)規(guī)制方面,可以通過技術(shù)手段如水印、數(shù)字簽名、可追溯性等方式,對深度合成技術(shù)生成的信息進行標(biāo)識和溯源,以增強信息的真實性和可信度。以具有高度敏感性與社會影響力的涉警輿情為例,警方宣發(fā)部門可以通過升級出稿機器,實現(xiàn)人機協(xié)同,根據(jù)涉警輿情事件的性質(zhì)、復(fù)雜程度、涉及領(lǐng)域等因素進行綜合判斷,對于簡單的涉警輿情信息由出稿機器完成即可。[17]對于機器產(chǎn)生的復(fù)雜輿情信息,需交由專人進行校對、修改后,方可發(fā)布。只有這樣,才能保證官方發(fā)布的信息既有價值判斷與人性化,同時又有真實性和有效性。
因此,規(guī)范ChatGPT 模型的生成內(nèi)容,有助于防止不實信息及不當(dāng)內(nèi)容的擴散,對保障社會及個體的合法權(quán)益具有重要意義。同時也有助于維護ChatGPT 模型自身的信譽,提高在社會中的應(yīng)用價值。
網(wǎng)絡(luò)犯罪已成為當(dāng)今網(wǎng)絡(luò)生態(tài)環(huán)境的一大難題。通過對深度學(xué)習(xí)模型的訓(xùn)練,深度合成技術(shù)可以實現(xiàn)對視覺、聽覺等信息的有效處理,從而構(gòu)建出具有真實感的虛擬世界。這項技術(shù)的出現(xiàn),使得諸如網(wǎng)絡(luò)詐騙、惡意代碼攻擊等網(wǎng)絡(luò)犯罪行為變得更為隱秘,這些行為都為網(wǎng)絡(luò)生態(tài)環(huán)境帶來了極大的危害??梢哉f,基于深度合成技術(shù)下的ChatGPT 模型的興起,為網(wǎng)絡(luò)生態(tài)環(huán)境的治理帶來了全新挑戰(zhàn)。
要想有效地應(yīng)對上述問題,公安機關(guān)就必須對網(wǎng)絡(luò)犯罪進行及時甄別,盡早地識別出可能存在的網(wǎng)絡(luò)犯罪,并采取適當(dāng)措施來防范和遏制犯罪行為。其中一個重要的方法是建立網(wǎng)絡(luò)犯罪行為識別系統(tǒng)。該系統(tǒng)利用機器學(xué)習(xí)、深度學(xué)習(xí)等技術(shù),在海量數(shù)據(jù)的基礎(chǔ)上,可以實現(xiàn)對網(wǎng)絡(luò)犯罪活動的有效識別與定位。此系統(tǒng)的建立需要經(jīng)過以下步驟:首先是收集包括釣魚郵件、木馬病毒、惡意程序在內(nèi)的大量網(wǎng)絡(luò)犯罪行為數(shù)據(jù)作為數(shù)據(jù)集;其次對采集到的數(shù)據(jù)進行清洗和標(biāo)注,從而確保數(shù)據(jù)的質(zhì)量與可用性;然后則是將收集到的數(shù)據(jù)轉(zhuǎn)化為可供機器識別的形式,提取出特征值;接下來使用深度學(xué)習(xí)算法對提取出的特征值進行訓(xùn)練和學(xué)習(xí),生成對應(yīng)的模型,用于網(wǎng)絡(luò)犯罪行為的識別與定位;最后將模型嵌入到網(wǎng)絡(luò)環(huán)境中,進而可以實現(xiàn)對網(wǎng)絡(luò)犯罪行為的實時識別與定位,提高網(wǎng)絡(luò)的安全性。(如圖3)此犯罪識別系統(tǒng)的構(gòu)建可以通過多種技術(shù)實現(xiàn),例如,使用TensorFlow①TensorFlow 是一個由Google 開源的深度學(xué)習(xí)框架,它支持各種機器學(xué)習(xí)算法,并提供了靈活的數(shù)據(jù)處理和模型構(gòu)建工具。通過TensorFlow,用戶可以輕松地搭建神經(jīng)網(wǎng)絡(luò)、訓(xùn)練模型、進行推理以及進行模型優(yōu)化等操作。、PyTorch②PyTorch 是一個基于Python 的開源機器學(xué)習(xí)庫,它提供了豐富的工具和接口,支持深度學(xué)習(xí)模型的構(gòu)建、訓(xùn)練和部署,廣泛應(yīng)用于學(xué)術(shù)界和工業(yè)界。之類的深度學(xué)習(xí)框架實現(xiàn)模型的訓(xùn)練和實現(xiàn);使用Spark③Spark 是一種開源分布式計算系統(tǒng),主要用于大數(shù)據(jù)處理和分析。它支持多種編程語言和數(shù)據(jù)源,并提供了快速、可擴展的數(shù)據(jù)處理能力。、Hadoop④Hadoop 是一個由Apache 基金會所開發(fā)的開源分布式計算平臺。等大數(shù)據(jù)處理技術(shù)實現(xiàn)數(shù)據(jù)的清洗、特征提取工作。同時,要注重對該系統(tǒng)的隱私性和安全性進行保護,以保證不被黑客攻擊或濫用。
圖3 網(wǎng)絡(luò)犯罪行為識別系統(tǒng)實現(xiàn)概念圖
在升級技術(shù)反制措施的同時,公安機關(guān)還可以對網(wǎng)絡(luò)犯罪的偵查模式、偵查手段進行創(chuàng)新升級并加以應(yīng)用,這有益于線索獲取和證據(jù)固定。在深度合成技術(shù)背景下,網(wǎng)絡(luò)犯罪案件的線索發(fā)現(xiàn)、深入挖掘和取證分析都面臨著較大的困難。因此有必要對線索進行全面研判,創(chuàng)新使用技戰(zhàn)法,如“按圖索驥”法,查找偵查線索和固定犯罪證據(jù),“圍點打援”法,擴大數(shù)據(jù)碰撞范圍、甄別犯罪可疑;“火力覆蓋”法,窮盡一切手段進行分析研判和摸底排隊。[18]
為有效應(yīng)對基于ChatGPT 模型的網(wǎng)絡(luò)犯罪,公安機關(guān)可以基于網(wǎng)絡(luò)開源信息提高警情預(yù)測能力。依靠網(wǎng)絡(luò)開源信息全面性、實時性的特點,通過大數(shù)據(jù)技術(shù)對各種信息進行關(guān)聯(lián)、碰撞分析就有可能發(fā)現(xiàn)潛在警情,從而及時布置警力主動出擊消除危險。[19]同時還可加強執(zhí)法人員的培訓(xùn)與能力提升。執(zhí)法辦案人員應(yīng)當(dāng)具備相關(guān)的技能和知識,能夠熟練掌握數(shù)字取證、網(wǎng)絡(luò)溯源等多種調(diào)查和取證技術(shù)。與此同時,還需掌握一定的深度合成技術(shù)的基本原理以及應(yīng)用場景,這樣才能更好地應(yīng)對和打擊網(wǎng)絡(luò)犯罪行為。
在信息全球化時代,人工智能的發(fā)展已經(jīng)成為推動社會經(jīng)濟提升的重要因素。在這種情況下,傳統(tǒng)的國家安全內(nèi)涵已不再適用,而國家安全也由軍事安全等單一領(lǐng)域,上升到了包括經(jīng)濟安全、社會安全等多個領(lǐng)域在內(nèi)的總體安全。所以,我們必須秉持總體國家安全觀的理念,用前瞻性和整體性的眼光來應(yīng)對科技發(fā)展帶來的挑戰(zhàn)。
總體國家安全觀提出了“國家安全是安邦定國的重要基石”這一基本原則,旨在保障國家安全和長期穩(wěn)定發(fā)展。同時強調(diào)了對包括科技安全、網(wǎng)絡(luò)安全在內(nèi)的非傳統(tǒng)安全的重視。因此,在探索ChatGPT模型治理路徑的過程中,我們需要從宏觀層面出發(fā),將總體國家安全觀與ChatGPT模型治理相結(jié)合,這有助于我們更好地理解ChatGPT 模型治理的重要性和必要性,從而為ChatGPT 模型的治理提供未來的展望。黨的二十大報告指出,必須更好地發(fā)揮法治固根本、穩(wěn)預(yù)期、利長遠的保障作用,加強重點領(lǐng)域、新興領(lǐng)域、涉外領(lǐng)域立法,加強重點行業(yè)、重點領(lǐng)域安全監(jiān)管。[20]針對ChatGPT模型帶來的已知或未知的各種現(xiàn)實問題,我們需要在國家安全觀的整體視野下,提前預(yù)判并制定相應(yīng)的規(guī)制措施,摸索出一條符合中國國情的治理路徑。
針對網(wǎng)絡(luò)安全問題,我們需要對現(xiàn)有相關(guān)的法律法規(guī)進行修訂和完善,以保障模型在開發(fā)、部署和維護等各個環(huán)節(jié)的安全性。這樣才能有效地預(yù)防黑客攻擊、數(shù)據(jù)泄露以及濫用等風(fēng)險。目前已經(jīng)頒布實施的《網(wǎng)絡(luò)安全法》、《國務(wù)院關(guān)于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》、《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等法律法規(guī)盡管可以擴展至ChatGPT模型,但是仍然不夠清晰,也不夠有針對性,在時間方面也存在著滯后性的問題。因此,有必要對現(xiàn)有的法律法規(guī)進行修訂與完善,增加相應(yīng)的條款與司法解釋,延伸制定有關(guān)網(wǎng)絡(luò)安全問題的特別條款,進一步明確規(guī)定ChatGPT模型為代表的新型生成式AI 模型從開發(fā)到應(yīng)用再到維護過程中相關(guān)參與者應(yīng)當(dāng)遵守的網(wǎng)絡(luò)安全責(zé)任,以及國家在此類模型中各項活動方面的法律管轄權(quán)。
其次是個人信息保護方面的問題。在2021 年,我國成功頒布并實施了《中華人民共和國個人信息保護法》(以下簡稱《個人信息保護法》),這項法律明確了個人信息的定義和范圍,以及侵犯個人信息的具體情形等內(nèi)容,在法律層面上為中國公民的個人信息提供了保護。但是從現(xiàn)實的角度來看,《個人信息保護法》仍以Web2.0 為基礎(chǔ),已不滿足當(dāng)下的Web3.0 時代,應(yīng)根據(jù)Web3.0 與ChatGPT等同類技術(shù)的發(fā)展特點對該法予以修訂,明確保護個人信息與隱私的基本原則。比如,要求AI 模型在收集、處理和存儲用戶的個人信息時,要對用戶的隱私進行嚴(yán)密的保護,并對AI 模型的數(shù)據(jù)處理作出明確的規(guī)定;對于涉及用戶隱私的處理過程的AI 模型,需要有充分的透明性和可解釋性,向用戶說明數(shù)據(jù)的收集、處理和使用方式;也可以通過增加與加強個人信息的脫敏和加密有關(guān)的規(guī)定,要求AI 模型在處理個人信息時使用先進的脫敏和加密技術(shù),降低數(shù)據(jù)泄露的風(fēng)險;此外,我國還可以積極吸收與學(xué)習(xí)一些國外涉及到的相關(guān)法律,例如,歐盟發(fā)布《人工智能法》,宣布對ChatGPT 等新型智能系統(tǒng)實施“前瞻性”治理條款,我國應(yīng)在此方面加快相關(guān)工作進度。
在社會生活中,道德起著舉足輕重的作用,道德作為基石,對于維護社會秩序、促進和諧共處和實現(xiàn)可持續(xù)發(fā)展具有深遠影響。ChatGPT 模型在道德上主要考慮的因素是訓(xùn)練數(shù)據(jù)中的偏見,由于此模型是基于大量的文本數(shù)據(jù)集,因此在數(shù)據(jù)集中存在的任何偏見與歧視最終都會在模型的輸出中呈現(xiàn),這樣就很有可能會導(dǎo)致結(jié)果的不公平性與不精確性。
在社會分工日趨細(xì)密的時代背景下,社會大眾對高新技術(shù)的認(rèn)識與評價嚴(yán)重滯后,難于發(fā)揮有效的社會監(jiān)督職能。[21]而作為開發(fā)者,他們可以說是第一個意識到ChatGPT 技術(shù)的作用、風(fēng)險以及負(fù)面影響的人,在道德上、法律上、歷史上都應(yīng)當(dāng)是第一責(zé)任人。因此,應(yīng)該積極倡導(dǎo)行業(yè)自律以及負(fù)責(zé)任研究與創(chuàng)新(Responsible Research and Innovation,簡稱RRI)理念,[22]通過發(fā)揮研發(fā)者的道德自律精神,為其提供基礎(chǔ)支撐并引導(dǎo)價值觀,從而實現(xiàn)研發(fā)產(chǎn)品的最大化效益。中共中央國務(wù)院于2017 年印發(fā)的《新一代人工智能發(fā)展規(guī)劃》也指出,“在大力發(fā)展人工智能的同時,必須高度重視其可能帶來的安全風(fēng)險挑戰(zhàn),加強前瞻預(yù)防與約束引導(dǎo),最大限度降低風(fēng)險,確保人工智能安全、可靠、可控發(fā)展?!?/p>
在目前的法律法規(guī)體系并不完善的情況下,研發(fā)人員的責(zé)任意識、道德意識和行業(yè)自律就顯得尤為重要,他們是ChatGPT 模型誕生之初,推動該類技術(shù)進步的核心力量,也是人類對抗技術(shù)風(fēng)險和負(fù)面影響,以及排除許多潛在危險的“第一道”道德防線。一門新技術(shù)產(chǎn)生時,出現(xiàn)一段時間的“灰色地帶”是在所難免的,在這個時候就需要研發(fā)機構(gòu)堅持行業(yè)自律與承擔(dān)道德責(zé)任,加強行業(yè)自律機制建設(shè),不斷提升自身的道德素養(yǎng),規(guī)范行業(yè)的發(fā)展與運營,確??蒲谢顒拥暮戏ㄐ?、正當(dāng)性與安全性,為科研行業(yè)的健康有序發(fā)展和社會進步貢獻力量。
ChatGPT 模型要實現(xiàn)持續(xù)發(fā)展與健康運行,技術(shù)才是第一生產(chǎn)力。中共中央總書記習(xí)近平在主持學(xué)習(xí)時強調(diào),人工智能是新一輪科技革命和產(chǎn)業(yè)變革的重要驅(qū)動力量,加快發(fā)展新一代人工智能是事關(guān)我國能否抓住新一輪科技革命和產(chǎn)業(yè)變革機遇的戰(zhàn)略問題。[23]因此,為了提高我國人工智能行業(yè)在國際上的話語權(quán)和競爭力,既要大力發(fā)展相關(guān)技術(shù),不斷突破技術(shù)瓶頸,持續(xù)為用戶帶來更好的數(shù)字化生存體驗,又要秉承“技術(shù)向善”原則,堅持統(tǒng)籌規(guī)劃,科學(xué)布局,確保技術(shù)的發(fā)展用之于民,[24]在遵守法律法規(guī)與秉持行業(yè)自律的精神下,將相關(guān)技術(shù)引導(dǎo)朝著維護人民安全的正確方向發(fā)展,以確保給社會帶來積極作用和貢獻,為實現(xiàn)高質(zhì)量發(fā)展提供有力支撐。
具體而言,作為語言模型,ChatGPT 模型的技術(shù)突破是通過對背后的深度學(xué)習(xí)算法進行不斷改進與優(yōu)化來實現(xiàn)的,以下是一些可能的技術(shù)突破路徑。首先,可以通過改善現(xiàn)有的模型體系結(jié)構(gòu),提高其精確度、效率和擴展性,例如,增加層數(shù)、改進正則化技術(shù)、優(yōu)化梯度下降算法等;其次,可以采用聯(lián)邦學(xué)習(xí)進行算法改進。這是一種分布式機器學(xué)習(xí)技術(shù),通過在多個設(shè)備或者機器間進行分布式模型訓(xùn)練,將本地的局部模型參數(shù)上載到中心服務(wù)器,對其進行聚合,以實現(xiàn)對整個模型的優(yōu)化。該方法可以最大限度地提高數(shù)據(jù)的安全性與隱私保護,并且能夠更好地應(yīng)對設(shè)備數(shù)量龐大、數(shù)據(jù)分散,且具有地理位置分布的情況;此外,還可以進行多模態(tài)學(xué)習(xí),通過將不同類型的數(shù)據(jù)(如圖像、語音、文本等)融合起來,使模型對復(fù)雜的真實世界有更好的了解,增加其適用范圍和準(zhǔn)確度。
ChatGPT 模型的誕生,正式開啟了新型人工智能時代的大門,作為一種自然語言處理模型,它具有極其廣泛的應(yīng)用前景,為我們的工作與生活帶來了便利。但與此同時,ChatGPT 模型在應(yīng)用過程中對社會造成了一些潛在的負(fù)面影響,暗中沖擊著現(xiàn)有的法律法規(guī)。針對可能會產(chǎn)生的一系列現(xiàn)實問題,我們應(yīng)積極采取規(guī)制措施,也要支持鼓勵技術(shù)進步,秉持包容的態(tài)度與“技術(shù)中立”原則,不能因為技術(shù)可能會帶來潛在風(fēng)險,就一味否定該項技術(shù),而是要讓技術(shù)在監(jiān)管下健康發(fā)展。
總而言之,作為一項新興的人工智能技術(shù),ChatGPT 模型在給人類社會提供諸多便利的同時,也伴隨著不少挑戰(zhàn)。為了保證該技術(shù)的可持續(xù)和健康發(fā)展,需要在各個層面上強化管制,建設(shè)一個更為安全、公正和透明的數(shù)字世界。在人工智能技術(shù)日益普及的今天,我們期待一個更加成熟、穩(wěn)定的發(fā)展態(tài)勢,為未來的創(chuàng)新和進步鋪平道路。