鄭 方
人工智能(artificial intelligence, AI)是研究、開發(fā)用于模擬、延伸和擴展人的智能的理論、方法、技術(shù)及應用系統(tǒng)的一門新的技術(shù)科學,其對人類進步的貢獻是有目共睹、毋庸置疑的.
然而,任何事物都有兩面性,有好的一面就有壞的一面,這兩面既相互排斥又相互依存,這就是矛盾的對立統(tǒng)一.本專題討論人工智能的安全風險問題,以便為防范安全風險做好準備.
人工智能的安全風險類型有很多,從其源頭看大致有如下幾個方面:
1) 訓練數(shù)據(jù).人工智能很多算法和模型依賴于訓練數(shù)據(jù),訓練數(shù)據(jù)往往又含有重要的信息,包括隱私信息.因而會有如下4類問題:①訓練數(shù)據(jù)被搜集者或管理者非法泄露,形成黑產(chǎn)灰產(chǎn);②訓練數(shù)據(jù)被他人非法竊取,形成黑產(chǎn)灰產(chǎn);③訓練數(shù)據(jù)或數(shù)據(jù)中所含信息,被他人利用基于該數(shù)據(jù)所訓練出來的模型或系統(tǒng)的漏洞(如利用Chat-GPT漏洞)誘導后流出,或通過模型反演獲得;④主觀意圖下的訓練數(shù)據(jù)選取帶來的偏見問題以及使用者的誤判,如大模型引起的意識形態(tài)誤導.
2) 算法黑箱.人工智能往往包括“感知-理解/推理-決策(動作)”這樣的過程.由于算法黑箱的不可解釋性,算法在處理超越其描述邊界的開集問題時往往會輸出不可預知的結(jié)果,從而產(chǎn)生有危害的決策(或動作),如黑盒的深度學習引發(fā)的決策錯誤.
3) 算法漏洞.人工智能算法本身存在漏洞,這些漏洞成為系統(tǒng)被攻擊的突破口,對系統(tǒng)產(chǎn)生危害.例如,對抗樣本可以輕易地騙過深度神經(jīng)網(wǎng)絡,讓其識別結(jié)果偏離實際.
4) 技術(shù)濫用.人工智能技術(shù)的濫用不僅會對人類社會帶來現(xiàn)實意義上的危害,也會帶來更嚴重的倫理問題,而降低使用門檻的生成式人工智能(AIGC)所產(chǎn)生的偽造音、視、文,加重了前述的危害和問題.
5) 技術(shù)依賴.人工智能技術(shù)還在路上,遠沒有達到完全安全可信的程度,但是人類對人工智能技術(shù)的依賴程度若是不斷加深,會在很多方面產(chǎn)生發(fā)散式的影響和危害.例如,人們對大模型輸出結(jié)果的過度依賴可能導致知識學習、文化教育、意識形態(tài)等方面出現(xiàn)混亂.
人工智能因其發(fā)展迅速,關(guān)注度高,已滲透到各個研究領(lǐng)域和各個應用場景,很難用幾篇文章覆蓋其安全風險的全部方面.本期專題文章針對上述風險類型從以下若干方面展開論述:
1) 同濟大學嚴馳的“生成式人工智能時代人工智能法的立法思考”從立法角度出發(fā),提出人工智能法應明確分類分級監(jiān)管,通過構(gòu)建更科學合理的頂層設計方案,推動科技向善.
2) 國家工業(yè)信息安全發(fā)展研究中心劉永東團隊的“人工智能算力基礎(chǔ)設施安全體系架構(gòu)研究”,為應對人工智能算力基礎(chǔ)設施在建設和運營過程中面臨的嚴峻的安全挑戰(zhàn),從強化自身安全、保障運行安全、助力安全合規(guī)3方面提出了人工智能算力基礎(chǔ)設施安全體系架構(gòu),提出發(fā)展建議,為人工智能產(chǎn)業(yè)健康、持續(xù)發(fā)展提供決策參考.
3) 中國人民公安大學李欣、曹藝萱的“我國算法風險及其治理研究綜述”針對算法風險,從法律司法、政治治理、信息傳播、商業(yè)經(jīng)濟4大領(lǐng)域剖析算法風險形成機理,并從算法黑箱、算法歧視以及權(quán)力異化3個維度提出算法風險治理框架,為推進我國算法風險治理理論研究與體系建設提供參考.
4) 清華大學北京信息科學與技術(shù)國家研究中心鄭方團隊的“生成式偽造語音安全問題與解決方案”,針對生成式人工智能(AIGC)算法問題,從技術(shù)角度對生成式偽造語音的生成算法和檢測算法進行總結(jié)與分類,分析了技術(shù)應用的挑戰(zhàn)點,并從技術(shù)應用、制度規(guī)范、公眾教育、國際合作4個方面闡述了如何預防和解決生成式偽造語音帶來的安全問題.
5) 陸軍工程大學指揮控制工程學院張雄偉團隊的“基于分治方法的聲紋識別系統(tǒng)模型反演”,在語音語譜圖上驗證了基于深度網(wǎng)絡的模型反演可以重構(gòu)說話人的隱私信息,這與通過誘導問話從Chat-GPT獲取用于模型訓練的原始信息很類似.該研究警醒研究者重視聲紋識別系統(tǒng)的隱私信息泄露問題,做到知己知彼,以進一步探索語音領(lǐng)域?qū)iT的隱私保護方法.
6) 北京大學、中國中醫(yī)科學院和博雅正鏈(北京)科技有限公司聯(lián)合研究團隊的“融入結(jié)構(gòu)先驗知識的隱私信息抽取算法”,在自然語言處理領(lǐng)域提出一種融入結(jié)構(gòu)先驗知識的隱私信息抽取算法,設計了一種隱私數(shù)據(jù)的結(jié)構(gòu)知識增強機制,賦予了模型對于句子語義結(jié)構(gòu)的判斷能力,緩解了隱私信息邊界的判斷不準確問題,為數(shù)據(jù)脫敏提供重要保障.
隨著人工智能應用的快速普及,人工智能的安全風險也日趨復雜,對其防范需要多層面展開,包括立法層面、管理層面、標準層面、技術(shù)層面,尤其是技術(shù)層面,需要加大用人工智能技術(shù)減少或阻止人工智能應用安全風險的研究力度和應用廣度,以保障人工智能技術(shù)的健康發(fā)展.