文/本刊記者 陳 杰
“AI的應(yīng)用落地在不斷提速,但在算法‘黑箱’下,AI的不可解釋性讓‘黑箱’很難釋明,進(jìn)而讓人們對(duì)AI的安全難言放心。”日前,在2022年科技向善創(chuàng)新周上,與會(huì)專家圍繞AI的透明和可解釋難題從技術(shù)角度直指產(chǎn)業(yè)痛點(diǎn)。
與此同時(shí),由騰訊研究院、優(yōu)圖實(shí)驗(yàn)室等多家機(jī)構(gòu)組成的跨學(xué)科研究團(tuán)隊(duì)歷時(shí)一年完成的《可解釋AI發(fā)展報(bào)告2022》也引發(fā)熱議。報(bào)告從可解釋AI的概念、監(jiān)管趨勢(shì)、行業(yè)實(shí)踐、發(fā)展建議等熱點(diǎn)問(wèn)題出發(fā),抽絲剝繭地呈現(xiàn)可解釋AI產(chǎn)業(yè)的現(xiàn)狀和發(fā)展趨勢(shì),以期能為產(chǎn)業(yè)解決AI“黑箱”釋明難題提供一份參考和借鑒。
目前,部分人工智能應(yīng)用已成為通用型的技術(shù),而人類對(duì)AI則一直有更高的期待。不少人堅(jiān)信,科幻電影《Her》中的AI機(jī)器人可對(duì)行為作出解釋,從而幫助人類作出決策,甚至與人類產(chǎn)生深度交流的一幕,遲早也會(huì)出現(xiàn)在人們的日常生活中。
雖然產(chǎn)業(yè)的發(fā)展已經(jīng)起步并快速成為行業(yè)熱點(diǎn),但這些過(guò)于理想化的場(chǎng)景目前還只能存在于科幻作品中,實(shí)踐中可解釋AI不論在技術(shù)上還是體驗(yàn)上都還沒(méi)達(dá)標(biāo)。
如今,金融機(jī)構(gòu)的貸款審批都是基于AI作出決策,如果這一復(fù)雜的算法風(fēng)控系統(tǒng)拒絕申請(qǐng),那么貸款人就沒(méi)辦法獲得貸款。這只是AI在眾多日常場(chǎng)景應(yīng)用中的一幕,只要是AI做出了決策,公眾就必須接受結(jié)果,至于什么原因,算法沒(méi)有也不可能給出解釋。
“有時(shí)候連開(kāi)發(fā)人員都不能很好地理解AI算法‘黑箱’運(yùn)作的具體細(xì)節(jié),這就導(dǎo)致了AI模型的透明度和可解釋性的問(wèn)題。”騰訊研究院秘書(shū)長(zhǎng)張欽坤表示,如果不解決這兩個(gè)問(wèn)題,不僅影響用戶對(duì)AI應(yīng)用的信任,而且也可能會(huì)帶來(lái)算法歧視、算法安全和算法責(zé)任等方面的相關(guān)問(wèn)題。
其實(shí),人工智能的可解釋以及科技倫理等問(wèn)題已經(jīng)成為AI領(lǐng)域的必選項(xiàng),2021年起始的“十四五”規(guī)劃里面也明確強(qiáng)調(diào)要健全科技倫理的體系。
廈門(mén)大學(xué)人文學(xué)院院長(zhǎng)朱菁認(rèn)為,AI可解釋性問(wèn)題之所以受到重視,主要因?yàn)锳I的發(fā)展雖然變得越來(lái)越強(qiáng)大,但也變得越來(lái)越“黑”,再者AI雖然變得越來(lái)越實(shí)用,其可靠性和應(yīng)用范圍也得到提高?!霸谝恍┲匾膽?yīng)用領(lǐng)域,對(duì)于AI可信任性、安全性等方面的要求也越來(lái)越高,可解釋性就是滿足上述要求的認(rèn)知基礎(chǔ)?!?/p>
目前來(lái)看,國(guó)內(nèi)企業(yè)在可解釋AI實(shí)踐方面還比較零碎,沒(méi)有達(dá)到系統(tǒng)化的程度,但就整體而言,產(chǎn)業(yè)一直都是朝著可解釋的方向發(fā)展。
AI快速深入日常生活,既帶來(lái)了興奮和期待,也帶來(lái)一些憂慮,甚至恐慌。AI到底是人類的好幫手,還是會(huì)成為人類強(qiáng)勁的對(duì)手?其實(shí)這很大程度上取決于人類對(duì)AI的理解。只有打開(kāi)了人工智能的黑箱,了解到AI背后的機(jī)制,并認(rèn)為它是可解釋、可理解的,人類在這種共識(shí)下才能真正達(dá)成對(duì)AI的信任。
然而,當(dāng)前的AI可解釋性及透明度與算法的高效率還是一個(gè)矛盾體。
微眾銀行首席人工智能官楊強(qiáng)認(rèn)為,AI算法高效率的同時(shí),可解釋性就很差。同樣,AI線性模型的準(zhǔn)確率沒(méi)有那么高,它的可解釋性相對(duì)就會(huì)強(qiáng)一些?!斑@就意味著我們要在可解釋和高效率兩個(gè)維度上做一個(gè)取舍,但目前并沒(méi)有兩個(gè)維度都高的AI算法。目前可解釋AI在各個(gè)行業(yè)都是一個(gè)起步,也都不可或缺,但如何做好AI可解釋的量化,才是當(dāng)前業(yè)界該考慮的重點(diǎn)?!?/p>
“不同人群、不同應(yīng)用場(chǎng)景對(duì)AI算法的可解釋性期待是不一樣的,不應(yīng)該搞一刀切?,F(xiàn)階段深度學(xué)習(xí)普遍缺乏可解釋性的情況下,AI透明度就尤其重要?!彬v訊天衍實(shí)驗(yàn)室負(fù)責(zé)人鄭冶楓表示,AI算法應(yīng)盡可能詳盡披露模型、訓(xùn)練數(shù)據(jù)分布等情況。
朱菁也認(rèn)為,目前來(lái)說(shuō),AI的可解釋性和預(yù)測(cè)的準(zhǔn)確性二者不可兼得,既提高預(yù)測(cè)準(zhǔn)確性,同時(shí)還要把可解釋性提高,要實(shí)現(xiàn)這件兩全其美的事情難度比較大。其次,解釋的多元化除了怎么都行的這種形態(tài)以外,還有孤島式的、互動(dòng)式的以及整合性的形態(tài)?!斑@些只是同一個(gè)整體的不同側(cè)面,AI能不能做到這些,現(xiàn)在其實(shí)并不是很清楚?!?/p>
可解釋是可信AI的重要組成部分,也是可信的前提條件之一,它有很強(qiáng)的獨(dú)特性。當(dāng)前可解釋AI研究思路很多,但并沒(méi)有一個(gè)明確的框架,畢竟解釋對(duì)象的不同,框架也難統(tǒng)一。
香港中文大學(xué)(深圳)吳保元副教授認(rèn)為,與其說(shuō)AI的可解釋性,還不如稱之為AI的可解釋力?!翱山忉屝钥赡軙?huì)讓人們誤認(rèn)為這是一種性質(zhì),而可解釋力就是一種可解釋的能力,就如同人們常說(shuō)的理解力、領(lǐng)導(dǎo)力,是一種手段,一種行為,一種操作的存在。”
《可解釋AI發(fā)展報(bào)告2022》從科技向善的角度出發(fā),認(rèn)為需要找到一個(gè)平衡的可解釋AI路徑來(lái)實(shí)現(xiàn)可信AI,確??萍枷蛏?。張欽坤解釋說(shuō),就是在設(shè)計(jì)可解釋性要求時(shí),需要充分考慮可解釋性要求和其他重要的倫理價(jià)值和目的,可解釋本身不是目的而是手段?!霸谠O(shè)計(jì)可解釋AI的時(shí)候,首先需要考慮實(shí)現(xiàn)什么樣的目標(biāo),其次才是思考在特定的情境下如何更好地匹配這些目標(biāo)。”
對(duì)于AI研究里的解釋性問(wèn)題的基本立場(chǎng),朱菁的建議是解釋的多元化:“針對(duì)不同的問(wèn)題,哪怕是在同一個(gè)領(lǐng)域里,也不能指望只有唯一的解釋方式或模式,要允許多種多樣的解釋模型存在。”