《經(jīng)濟(jì)日?qǐng)?bào)》刊載佘惠敏文章
對(duì)人工智能大模型開(kāi)黑箱、對(duì)數(shù)據(jù)泄露上鎖、對(duì)虛假內(nèi)容做標(biāo)記、對(duì)網(wǎng)絡(luò)攻擊等危險(xiǎn)行為實(shí)施監(jiān)測(cè)防范,一方面需要從科研倫理規(guī)范上增加透明度,讓大模型研發(fā)、訓(xùn)練、生成、推理的鏈路變得更加透明;另一方面也需要使用好技術(shù)工具,用人工智能大模型來(lái)幫助人類理解和控制人工智能大模型。這話聽(tīng)起來(lái)繞口,實(shí)際已有成功案例。ChatGPT的締造者美國(guó)OpenAI公司近日發(fā)布一項(xiàng)成果,就是用GPT-4大模型來(lái)自動(dòng)解釋GPT-2大模型的行為,在人工智能可解釋性研究領(lǐng)域獲得重大突破。
眼見(jiàn)可為虛,耳聽(tīng)也不為實(shí)。人工智能大模型以其彪悍的信息造假能力,對(duì)社會(huì)信任帶來(lái)重大沖擊。從一些調(diào)查結(jié)果看,不少人贊同暫停超越GPT-4能力的大模型研究,先解決已知風(fēng)險(xiǎn)再按啟動(dòng)鍵。人工智能是國(guó)家戰(zhàn)略技術(shù),是未來(lái)引領(lǐng)經(jīng)濟(jì)發(fā)展的助推器。對(duì)中國(guó)人工智能產(chǎn)業(yè)而言,需要的不是暫停研究,而是吸取國(guó)外大模型發(fā)展的前車之鑒,讓大模型研發(fā)在合規(guī)下運(yùn)行。