成功創(chuàng)造出高效的人工智能可能是人類文明史上最重大的事件,也可能是最糟糕的事件。除非我們知道如何準(zhǔn)備應(yīng)對(duì)和避免潛在風(fēng)險(xiǎn),否則人工智能就可能成為人類文明史上最糟糕的發(fā)明。
因此,想要人工智能能夠與人類和諧共處,我們需要警惕危險(xiǎn)的存在并找出危險(xiǎn),在實(shí)踐和管理方面盡可能做到最好,并事先做好充分準(zhǔn)備,應(yīng)對(duì)可能出現(xiàn)的任何結(jié)果。
安永與微軟歐洲近期聯(lián)合開展的一項(xiàng)調(diào)查顯示,71%%的受訪者將人工智能視為高管的一項(xiàng)重要考慮事項(xiàng),而只有4%的受訪者在多個(gè)流程中用到了人工智能并執(zhí)行高級(jí)任務(wù)。
“信任設(shè)計(jì)”(Trust by Design)能幫助企業(yè)將風(fēng)險(xiǎn)優(yōu)化的思維嵌入人工智能的整個(gè)生命周期,通過將風(fēng)險(xiǎn)職能從被動(dòng)的風(fēng)險(xiǎn)應(yīng)對(duì)升級(jí)為強(qiáng)大的、動(dòng)態(tài)的、面向未來的工具來建立信任。如果企業(yè)從一開始就將“信任設(shè)計(jì)”理念注入人工智能系統(tǒng),就能利用風(fēng)險(xiǎn)預(yù)測加速獲取人工智能洞察。
人工智能給技術(shù)、道德和社會(huì)領(lǐng)域帶來了風(fēng)險(xiǎn)和影響,已超出人工決策范疇,涉及技術(shù)發(fā)展。我們需要建立新的框架來識(shí)別、計(jì)量和應(yīng)對(duì)人工智能風(fēng)險(xiǎn)——該框架需以現(xiàn)有的治理和控制結(jié)構(gòu)為基礎(chǔ),同時(shí)加入新的機(jī)制以應(yīng)對(duì)人工智能特有風(fēng)險(xiǎn)。
欲使人工智能充分發(fā)揮潛力,企業(yè)需要有能力預(yù)測和衡量會(huì)放大風(fēng)險(xiǎn)和破壞信任的情況。如:
技術(shù)風(fēng)險(xiǎn)——評(píng)估基礎(chǔ)技術(shù)、技術(shù)操作環(huán)境和自主性水平;
利益相關(guān)方影響——考慮人工智能代理的目標(biāo)和目的,以及對(duì)外部和內(nèi)部用戶經(jīng)濟(jì)、情感和物理方面的影響,以及聲譽(yù)、監(jiān)管和法律風(fēng)險(xiǎn);
控制有效性——考慮是否存在降低人工智能風(fēng)險(xiǎn)的控制及其運(yùn)行有效性。
圖1 人工智能四大關(guān)鍵風(fēng)險(xiǎn)
圖2 人工智能代理剩余風(fēng)險(xiǎn)
圖3 人工智能風(fēng)險(xiǎn)應(yīng)對(duì)策略
圖4 人工智能可信任性來吸引更多用戶
憑借這三類評(píng)分的組合,安永Trusted AI Platform可以計(jì)算出人工智能系統(tǒng)設(shè)計(jì)的剩余風(fēng)險(xiǎn),計(jì)算公式如下:人工智能剩余風(fēng)險(xiǎn)=技術(shù)風(fēng)險(xiǎn)X利益相關(guān)方影響-控制有效性。
應(yīng)對(duì)人工智能的風(fēng)險(xiǎn)需要使用能夠跟上人工智能高速適應(yīng)性學(xué)習(xí)能力的創(chuàng)新控制方法。在決定如何應(yīng)對(duì)各項(xiàng)風(fēng)險(xiǎn)時(shí),企業(yè)可以采用以下四種策略。這些策略可以單獨(dú)部署,也可以結(jié)合使用。
為了有效地監(jiān)控人工智能,需建立持續(xù)的監(jiān)控機(jī)制以確定人工智能系統(tǒng)按預(yù)期運(yùn)行。人工監(jiān)督(如人在回路)是人工智能系統(tǒng)的一個(gè)重要的風(fēng)險(xiǎn)緩釋策略,人工操作最適合應(yīng)對(duì)需要對(duì)少量分散信息進(jìn)行高水平認(rèn)知分析的短期事件。但人類不善于長時(shí)間保持注意力集中,特別是在事故發(fā)生率較低的情況下,并且人類可隨時(shí)處理的信息量有限。而自動(dòng)化系統(tǒng),特別是那些人工智能支持的系統(tǒng),可以克服這些缺點(diǎn)。
人工智能已經(jīng)開始顛覆我們的工作和生活方式。欲在人工智能時(shí)代脫穎而出,企業(yè)必須優(yōu)化數(shù)據(jù)和信任反饋閉環(huán)以吸引更多用戶并加速人工智能部署。