殷越銘,樊小萌,邢貝貝
(南京郵電大學(xué),江蘇 南京 210023)
人工智能概述及展望
殷越銘,樊小萌,邢貝貝
(南京郵電大學(xué),江蘇 南京 210023)
從SIRI到自動(dòng)駕駛汽車,人工智能正在迅速發(fā)展。雖然科幻小說中常將人工智能描繪成具有類人特性的機(jī)器人,但人工智能可以涵蓋從谷歌的搜索算法、IBM沃森到自動(dòng)武器的任何科技。對(duì)于人工智能而言,狹義上指AI,因?yàn)樗辉O(shè)計(jì)來執(zhí)行的任務(wù)范圍比較狹窄。比如,其僅執(zhí)行面部識(shí)別或只進(jìn)行互聯(lián)網(wǎng)搜索、駕駛汽車。然而,許多研究人員的長(zhǎng)遠(yuǎn)目標(biāo)是創(chuàng)建廣義AI,即AGI。雖然AI能在其特定的任務(wù)上超越人類,比如下棋或解方程,但AGI將在幾乎所有認(rèn)知任務(wù)上超越人類,成為超級(jí)機(jī)器人。介紹了未來人工智能安全性問題,并解釋了AGI的誤傳現(xiàn)象。
人工智能;AI;超級(jí)機(jī)器人;有效性計(jì)算
在短期內(nèi),保障AI對(duì)社會(huì)有益的科研范疇可涵蓋諸多領(lǐng)域,比如經(jīng)濟(jì)學(xué)、法學(xué)、驗(yàn)證法、有效性計(jì)算、安全控制論等技術(shù)層面課題。如果AI系統(tǒng)能夠控制汽車、飛機(jī)、心臟起搏器、自動(dòng)交易系統(tǒng)或電網(wǎng),則我們必須保證該系統(tǒng)完全遵照我們的指令運(yùn)行,否則后果不堪設(shè)想。此外,短期內(nèi)的另一個(gè)問題是如何防止自主武器的毀滅性軍備競(jìng)賽。
從長(zhǎng)遠(yuǎn)來看,如果我們成功創(chuàng)造了能在所有認(rèn)知功能上超過人類的強(qiáng)AI,將會(huì)發(fā)生什么?比如約翰·古德在1965年所說的:“設(shè)計(jì)更有智慧的AI系統(tǒng)本身就是一個(gè)認(rèn)知任務(wù)。這樣的系統(tǒng)有潛力執(zhí)行遞歸式的自我完善,觸發(fā)智能爆炸,并遠(yuǎn)遠(yuǎn)地超越人類智力。通過發(fā)明革命性的新技術(shù),這樣的超級(jí)智慧可以幫助我們消除戰(zhàn)爭(zhēng)、疾病和貧困。因此,創(chuàng)造強(qiáng)AI可能是人類歷史上最重大的事件?!比欢恍<覔?dān)心人類的歷史也會(huì)隨著此類的超強(qiáng)大AI的誕生戛然而止,除非我們學(xué)會(huì)在AI成為超級(jí)智慧之前使其與我們同心所向。
有些人質(zhì)疑強(qiáng)AI是否會(huì)實(shí)現(xiàn),也有些人堅(jiān)信創(chuàng)建超智能AI對(duì)人類必定是有益的。
FLI承認(rèn)這2種情形皆有可能,但我們應(yīng)意識(shí)到人工智能系統(tǒng)具有有意或無意造成巨大危害的潛力。我們相信今天的研究的意義在于防患于未然,使未來人們受益于AI的同時(shí),規(guī)避潛在風(fēng)險(xiǎn)隱患。
大多數(shù)研究人員同意,一個(gè)超智能AI不可能產(chǎn)生人類的情感,比如愛或恨。他們也認(rèn)為人們沒有理由期望AI有意識(shí)地趨善向惡。當(dāng)考慮AI如何變?yōu)轱L(fēng)險(xiǎn)時(shí),專家認(rèn)為有2種情況最有可能發(fā)生,具體如下。
自驅(qū)動(dòng)武器(自主武器)是為殺而生的人工智能系統(tǒng)。如果落入不法分子手中,易造成大量人員傷亡。此外,AI軍備競(jìng)賽也可能無意中引發(fā)AI戰(zhàn)爭(zhēng)。為避免被敵對(duì)勢(shì)力從中阻撓,這些武器的“關(guān)閉”程式將被設(shè)計(jì)得極為復(fù)雜,但人們也可能難以控制這種問題。這種風(fēng)險(xiǎn)雖然也存在于狹義AI中,但隨著AI智能和自驅(qū)動(dòng)水平的提高,風(fēng)險(xiǎn)也會(huì)增大。
AI被開發(fā)進(jìn)行有益的任務(wù)的過程中,執(zhí)行過程可能是具有破壞性的,這可能發(fā)生在當(dāng)我們尚未完成人類和AI目標(biāo)的全方位映射的情況下,這并非易事。比如,當(dāng)人們呼叫一輛智能車以最快的速度將自己送至機(jī)場(chǎng),它可能不顧一切地遵從指令。超智能系統(tǒng)的任務(wù)是一個(gè)雄心勃勃的地球工程項(xiàng)目,但其可能對(duì)生態(tài)系統(tǒng)造成破壞,并把人類試圖阻止它的行為作為一個(gè)必須消除的威脅。
從這些例子來看,我們對(duì)AGI的擔(dān)憂并非在于其可能產(chǎn)生的惡意,而是它可能具有的能力。超智能AI(AGI)非常善于完成其目標(biāo),如果這些目標(biāo)與我們的目標(biāo)不一致,則可能造成不堪設(shè)想的后果。人工智能安全研究的一個(gè)關(guān)鍵目的就是要避免將人類置于危險(xiǎn)的情況中。
史蒂芬·霍金、伊隆·馬斯克、史蒂夫·沃茲尼亞克、比爾·蓋茨等許多科技大腕和許多領(lǐng)導(dǎo)AI的研究科學(xué)家隊(duì)最近通過媒體表示了他們對(duì)AI風(fēng)險(xiǎn)的關(guān)注。AGI的成功實(shí)現(xiàn)一直被人們認(rèn)為是天方夜譚,即使達(dá)成,最少也是幾千年以后的事情。然而,由于最近的突破性研究和許多AI里程碑的實(shí)現(xiàn),5年前被專家認(rèn)為是幾十年后才能達(dá)到的技術(shù)已經(jīng)實(shí)現(xiàn)。這讓許多專家認(rèn)真地考慮在我們整個(gè)人生中出現(xiàn)超級(jí)智能的可能性。雖然一些專家仍然猜測(cè)類人AI在幾個(gè)世紀(jì)以后才可能出現(xiàn),大多數(shù)AI研究員在2015年波多黎各會(huì)議中預(yù)測(cè)類人級(jí)別的AI可能在2060年之前產(chǎn)生。因?yàn)锳I安全研究可能耗費(fèi)十幾年才能完成,所以,我們應(yīng)該對(duì)這些方面進(jìn)行研究。由于AI有可能變得比人類更聰明,我們并沒有確定的方式來預(yù)測(cè)它的行為將會(huì)是如何。對(duì)于AI的發(fā)展可能衍生出什么后果,我們不能將以往的技術(shù)發(fā)展作為參考,因?yàn)槲覀儚膩頉]有創(chuàng)造出任何能夠在智慧上超越人類的科技。事實(shí)上,我們最能作為參考的依據(jù)便是人類本身的進(jìn)化史。人類之所以能在今天成為地球的萬物之靈,并不是因?yàn)槲覀冏顝?qiáng)、最快或體積最大,而是因?yàn)槲覀兪亲罹咧腔鄣?。如果有一天我們不再是世上最聰明的生物,我們還能夠自信地控制這個(gè)世界嗎?
FLI的立場(chǎng)是,只要我們管理科技的智慧比AI的力量更加強(qiáng)勁,我們的文明就會(huì)持續(xù)蓬勃發(fā)展。針對(duì)AI技術(shù),F(xiàn)LI的立場(chǎng)是,我們應(yīng)該在不阻礙AI發(fā)展的前提下,通過支持人工智能安全研究來提高對(duì)AI科技的管理能力。
目前,關(guān)于人工智能的未來以及它對(duì)人類意味著什么的討論正在進(jìn)行,AI技術(shù)有許多頂尖專家都無法達(dá)到共識(shí)的爭(zhēng)議,比如AI對(duì)就業(yè)市場(chǎng)未來的影響、類人級(jí)別的AI是否/何時(shí)會(huì)被開發(fā)、AI開發(fā)是否會(huì)導(dǎo)致智力爆炸。但在實(shí)際研究中,我們應(yīng)該把目光放在專家們無法達(dá)成一致的有趣爭(zhēng)議上,比如,我們是否應(yīng)該開發(fā)致命的自主武器,通過工作自動(dòng)化實(shí)現(xiàn)的結(jié)果,給目前的大學(xué)生的職業(yè)建議,是否能實(shí)現(xiàn)由機(jī)器創(chuàng)造財(cái)富的無業(yè)社會(huì)。在未來,我們創(chuàng)造出的超智能生命是否能傳播到宇宙中?我們是否能控制智能機(jī)器,還是由其控制我們?智能機(jī)器會(huì)取代我們,還是與我們共存?在人工智能的時(shí)代中,身為人類的意義是什么?在此,筆者期待與更多的人共同討論這些問題。
[1]呂澤宇.人工智能的歷史、現(xiàn)狀與未來[J].信息與電腦(理論版),2016(13).
[2]顧險(xiǎn)峰.人工智能的歷史回顧和發(fā)展現(xiàn)狀[J].自然雜志,2016(03).
TP18
A
10.15913/j.cnki.kjycx.2017.20.052
2095-6835(2017)20-0052-02
〔編輯:張思楠〕