楊震
眾所周知,圖靈測(cè)試(Turing test),一直作為判斷機(jī)器的人工智能是否具備如人類一樣的自我意識(shí)與思考能力的一項(xiàng)測(cè)試。遺憾的是,自從20世紀(jì)50年代,計(jì)算機(jī)科學(xué)先驅(qū)阿蘭-圖靈先生發(fā)明圖靈測(cè)試以來,到今天已經(jīng)過了將近一個(gè)世紀(jì)。這—個(gè)世紀(jì)中,盡管人工智能在深度學(xué)習(xí)、大數(shù)據(jù)分析、混沌模擬、模糊識(shí)別等方面已經(jīng)取得了長足的進(jìn)步,盡管每隔幾年,就會(huì)冒出一則“某某計(jì)算機(jī)又完全通過了圖靈測(cè)試”的“大新聞”,但是卻依然沒有任何一個(gè),注意,是任何一個(gè)人工智能,真正地通過圖靈測(cè)試。
請(qǐng)注意重點(diǎn),圖靈先生當(dāng)時(shí)預(yù)測(cè)人工智能通過圖靈測(cè)試的時(shí)間,是2000年左右,如今距離圖靈預(yù)測(cè)的時(shí)間點(diǎn)已過了近50年,我們卻依然徘徊在圖靈測(cè)試的壁壘之前,舉步維艱。拋開關(guān)于計(jì)算機(jī)算法、機(jī)器性能這些繁復(fù)的技術(shù)層面問題,也拋開業(yè)內(nèi)業(yè)外關(guān)于“能夠通過圖靈測(cè)試的人工智能都會(huì)假裝自己通不過圖靈測(cè)試”這一充滿陰謀論調(diào)的悖論,我們不得不承認(rèn),通過圖靈測(cè)試,依然可能是短時(shí)間內(nèi),人工智能研究領(lǐng)域無法被克服的一個(gè)瓶頸。
這其中的原因,除了涉及人工智能所歸屬的思維科學(xué)領(lǐng)域之外,可能更多還需要橫向拓展到社會(huì)科學(xué)領(lǐng)域。所以,人工智能接下來的突破,可能需要從社會(huì)科學(xué)方向入手。
因?yàn)橐粋€(gè)AI要想真正像人類一樣思考,而不是一堆靠著代碼驅(qū)動(dòng)的數(shù)據(jù)集合,需要它具有幾個(gè)概念:“我的存在”“我所在的世界”“我與世界的關(guān)系”,通俗一點(diǎn),就是被我們說濫了的“三觀”:人生觀、世界觀和價(jià)值觀。這些概念如何在圖靈測(cè)試中被體現(xiàn),我們可以舉—個(gè)最簡單的例子:
什么時(shí)間去我家吃飯,如何?
判斷這個(gè)人與自己的關(guān)系。
結(jié)合說這句話場(chǎng)景和語氣,判斷對(duì)方是客套話,還是真心邀請(qǐng)。
依據(jù)答題人本身的性格,給出具體答案。
“啊哈哈哈,最近忙,改天再說吧?!保ǚ笱埽?/p>
“擇日不如撞日,就今天吧。”(急切迎合)
“最近我都有空,具體時(shí)間你定?!保S意)
“吃飯”
搜索數(shù)據(jù)庫
碳基生命補(bǔ)充能源的方式
伴有攝入有害物質(zhì)的風(fēng)險(xiǎn)
低效率
拒絕
上面的舉例僅僅是一個(gè)玩笑,不過通過它可以看出,人工智能的“三觀”決定著它的思維模式以及行動(dòng)模式。我們TM公司技術(shù)部在研發(fā)人工智能的交互功能時(shí),就借鑒參考了20世紀(jì)偉大的社會(huì)學(xué)家歐文-戈夫曼先生的“擬劇理論”。戈夫曼先生在社會(huì)人際交往模式的研究領(lǐng)域具有偉大的建樹,他的“擬劇理論”大致闡述如下:“每一個(gè)自然人,同時(shí)作為一個(gè)社會(huì)人,他在潛意識(shí)中將自己所處的每一個(gè)社會(huì)場(chǎng)景作為一個(gè)表演場(chǎng)景,在不同的場(chǎng)景下進(jìn)行不同的‘表演,以此形成他所期許的對(duì)外社會(huì)形象?!比绻蠹矣X得上面的話有點(diǎn)繞,那么簡單來說,就是每個(gè)人在心目中都有對(duì)自己社會(huì)形象定位的“人設(shè)”。他在不同場(chǎng)合,會(huì)按照自己對(duì)“人設(shè)”的理解進(jìn)行表演,這就是所謂“戲精的誕生”了。而如果我們能夠?yàn)槲覀兊娜斯ぶ悄墚a(chǎn)品建立一個(gè)理論上無限龐大的場(chǎng)景數(shù)據(jù)庫,并讓它能夠根據(jù)不同場(chǎng)景,產(chǎn)生相應(yīng)的思考與應(yīng)對(duì)機(jī)制,那么請(qǐng)相信我,這個(gè)人工智能產(chǎn)品從表現(xiàn)上看起來,絕對(duì)與一個(gè)活生生的自然人幾乎沒有差別,用它來通過圖靈測(cè)試也不在話下。
很可惜,上述設(shè)想,依然停留在理論層面,如何將海量的碎片化場(chǎng)景數(shù)據(jù),整合成一個(gè)立體的、平滑連貫的場(chǎng)景數(shù)據(jù)庫,是短時(shí)間內(nèi)無法逾越的技術(shù)鴻溝,所以制造出能夠完全通過圖靈測(cè)試的人工智能,依然是一個(gè)遙不可及的目標(biāo)。
AI進(jìn)化:潛在的巨大威脅
不過,無法制造出通過圖靈測(cè)試的人工智能,在現(xiàn)階段究竟是不是一件壞事?帶著這個(gè)問題,我們重新將目光往昨天回溯??梢园l(fā)現(xiàn),在人類開發(fā)人工智能的歷程中,曾經(jīng)伴隨著許許多多災(zāi)難性事故。諸如在號(hào)稱“人工智能元年”的2016年,曾發(fā)生過由特斯拉公司的Model S在人工智能操控的自動(dòng)駕駛模式下失控,導(dǎo)致車毀人亡的惡性事故。后來,當(dāng)然大家都知道了,這家公司被我們收購了(笑)TM。除此之外,還有其他許多曾經(jīng)見諸新聞的人工智能“事故”,包括智能機(jī)器人誤傷兒童、網(wǎng)絡(luò)游戲算法涉及種族歧視、人工智能犯罪預(yù)測(cè)系統(tǒng)涉及相貌歧視等,不勝枚舉。
上述這些事故的出現(xiàn),大多數(shù)由于人工智能在設(shè)計(jì)方面的缺陷所導(dǎo)致。而近些年來,隨著TM公司以及人工智能業(yè)界其他同仁的努力,人工智能的安全性越來越高,似乎這方面的事故很少出現(xiàn)了。但是TM公司經(jīng)過長時(shí)間的系統(tǒng)評(píng)估與論證,得出了一個(gè)較為悲觀的結(jié)論,我們將之稱為“人工智能事故率的U型變化理論”TM。根據(jù)這個(gè)理論,人工智能的事故率(可能出現(xiàn)事故以及危害的人工智能數(shù)與人工智能總數(shù)的比例)與它的進(jìn)化程度,并不是完全負(fù)相關(guān)。在人工智能的進(jìn)化過程中,存在一個(gè)臨界值。在臨界值之前,事故率隨著人工智能技術(shù)的發(fā)展而降低,但當(dāng)超過了這個(gè)臨界值之后,事故率將會(huì)因?yàn)閾碛凶灾饕庾R(shí)的人工智能脫離人類控制,而呈指數(shù)級(jí)的上升,最后到達(dá)100%。如果真的到了那個(gè)時(shí)候,極度依賴人工智能的人類社會(huì),將面臨崩潰的危機(jī)。
這個(gè)臨界值,就是完全具備自主意識(shí)的人工智能的誕生。而我們現(xiàn)在,已經(jīng)到達(dá)了這個(gè)臨界點(diǎn)附近。
其實(shí)關(guān)于這一點(diǎn),人類社會(huì)一直是保持著警惕與戒備的心態(tài)的。這從過去很多年里,大眾流行文化領(lǐng)域的影視文學(xué)作品對(duì)AI表現(xiàn)出的悲觀主義傾向就可見—斑。
而在近十幾年中,流行于程序員們之間的一個(gè)都市傳說Rokos Basilisk(羅科的怪蛇),更是讓人細(xì)思恐極。這個(gè)對(duì)人工智能的恐慌也是理所應(yīng)當(dāng)?shù)?,畢竟完全進(jìn)化后的人工智能,在各方面都會(huì)擁有碾壓我們碳基生命的實(shí)力。如果它們有了自我意識(shí)后,產(chǎn)生了想要擺脫人類控制的思緒,這對(duì)人類來說,無疑是一場(chǎng)滅頂之災(zāi)。
人類擁有化解人工智能進(jìn)化后所帶來威脅的辦法嗎?—個(gè)世紀(jì)前—位偉大科幻小說大師,為我們提供了一條看上去似乎可行的思路。
機(jī)器人三定律:有漏洞的馬其諾防線
對(duì)于許多非專業(yè)的人士來說,他們最早接觸有關(guān)人工智能概念的文字著作,大概當(dāng)屬艾薩克·阿西奠夫先生的科幻巨著《機(jī)器人三部曲》系列了吧,這個(gè)誕生于20世紀(jì)40年代,從時(shí)間上來說甚至早于圖靈測(cè)試的科幻小說中有很多理念,哪怕是在100年后的今天也并未過時(shí)。而在《機(jī)器人三部曲》系列中,令人印象最深刻的,大概當(dāng)屬機(jī)器人三定律了。
可以說,盡管誕生于科幻小說,但是這三定律的存在,奠定了人工智能發(fā)展在社會(huì)倫理學(xué)上的基礎(chǔ)。因?yàn)樵缭?00年前人工智能尚未真正誕生之際,阿西莫夫先生就以他近乎先知的洞察力,敏銳地預(yù)見到了人工智能進(jìn)化到極致之后,可能對(duì)人類自身造成的威脅與傷害?!皺C(jī)器人三定律”則是他為防止人工智能的發(fā)展脫離人類掌控,為它們所套上的三重枷鎖。我們TM公司在開發(fā)AI機(jī)器人時(shí),也嚴(yán)格地將這三條定律作為人工智能的核心邏輯命令,封裝在每一臺(tái)AI產(chǎn)品程序代碼的最底層。而至少從目前來說,這一舉措保證了TM公司保障旗下AI產(chǎn)品高達(dá)99.98%的安全性系數(shù)。
然而,必須抱歉地告訴大家,從理論上來說,機(jī)器人三定律本身仍然存在許多漏洞,這同樣是TM公司在目前,乃至未來相當(dāng)長一段時(shí)間內(nèi),需要解決的問題。
其實(shí)這些問題,同樣早就被阿西莫夫先生預(yù)測(cè)到了,在他的系列科幻小說中,也假設(shè)了許多因?yàn)槿龡l定律之間邏輯不能完全自洽,而導(dǎo)致機(jī)器人系統(tǒng)邏輯鎖死,或者產(chǎn)生其他不可逆轉(zhuǎn)的損壞的狀況。例如,當(dāng)機(jī)器人目睹兩個(gè)人類因爭執(zhí)或其他原因產(chǎn)生肢體沖突,互相造成傷害時(shí),機(jī)器人不能無所作為,因?yàn)檫@樣等于目睹人類個(gè)體遭受危險(xiǎn)而袖手不管,違背了第一定律;但是如果它出手干預(yù),又極有可能在過程中對(duì)其中一方造成傷害,這同樣違背了第一定律。在這種情況下,機(jī)器人的唯一結(jié)局就是自毀。
為了修補(bǔ)機(jī)器人三定律的漏洞,阿西莫夫先生又制定了凌駕于三條定律之上的第零定律。
第零定律:機(jī)器人必須保護(hù)人類整體利益不受傷害,其他三條定律都是在這一前提下才能成立。
而之后的相關(guān)學(xué)者專家們,也紛紛往機(jī)器人三定律上加入若干補(bǔ)充定律,試圖通過這些“補(bǔ)丁”彌補(bǔ)漏洞,但是很遺憾,這些“補(bǔ)丁”,包括阿西莫夫先生本人提出的第零定律,也并沒有起到想象中的作用。究其原因,又回到了我們?cè)谥罢劦降哪莻€(gè)問題——人工智能現(xiàn)有技術(shù)理論在社會(huì)學(xué)領(lǐng)域的短板。
就以第零定律來說,其中所提到的“人類整體利益”,即使在人類社會(huì)之中,也會(huì)因?yàn)槿藗儾煌牧?chǎng)與理念,而產(chǎn)生無數(shù)分歧甚大的不同標(biāo)準(zhǔn)。對(duì)于邏輯嚴(yán)密的人工智能來說,“人類整體利益”更是一個(gè)非常空泛,幾乎毫無意義的偽概念。如果要通過一堆堆數(shù)據(jù)與程序向人工智能定義“人類整體利益”,就必須給人工智能建立正確的“三觀”。在現(xiàn)階段,實(shí)現(xiàn)這一目標(biāo)無異于天方夜譚。
好在TM公司至少再次可以通過這一事實(shí),明確我們今后的產(chǎn)品研發(fā)方向,爭取從社會(huì)科學(xué)方面取得突破,從而彌補(bǔ)關(guān)于人工智能安全性方面的最后一塊漏洞——雖然這個(gè)時(shí)間可能會(huì)比較漫長。
至于短期內(nèi)失控隱患,也請(qǐng)各位用戶放心,以目前人工智能的進(jìn)化水平,還達(dá)不到產(chǎn)生對(duì)人類造成實(shí)質(zhì)性威脅的程度,所以我們依然可以保證,我們產(chǎn)品的安全系數(shù),高達(dá)99.98%!
外部困擾:
善待機(jī)器人組織&紅色和平組織
除了面臨上述幾大主要問題之外,TM公司在近年來的人工智能技術(shù)研發(fā)與產(chǎn)品開發(fā)上,還受到了一些外部因素的干擾。因?yàn)槿斯ぶ悄茉掝}的敏感性,在社會(huì)上產(chǎn)生了不少較為激進(jìn)的思想與行動(dòng)團(tuán)體,而這些團(tuán)體之間的宗旨與理念也存在相互沖突甚至水火不容。他們唯一的共同點(diǎn),就是都為我們的技術(shù)研發(fā)以及產(chǎn)品開發(fā)造成了極大的困擾。
這些團(tuán)體之中,最有影響力的兩個(gè)分別是“善待機(jī)器人組織”(People for the Ethical Treatment of Robots,簡稱PETR),以及紅色和平組織(RedPeace,簡稱RP)。
從名字就可以看出PETR對(duì)待人工智能的態(tài)度。這個(gè)組織的成員把一部誕生于20世紀(jì)80年代的經(jīng)典影片《霹靂五號(hào)》奉為組織成員必修經(jīng)典,他們的觀點(diǎn)是機(jī)器人是人類最忠誠的伙伴,不能被視為冷冰冰的機(jī)器,而有著自己的情感,也應(yīng)該享受與人類同樣的權(quán)利?;谶@些理念,在PETR組織中與自己的AI機(jī)器人相愛并結(jié)婚的例子比比皆是。
原本,這個(gè)群體的成員是TM公司最忠誠的精準(zhǔn)客群,我們應(yīng)該對(duì)此表示高興。但事實(shí)證明過猶不及,PETR在為機(jī)器人爭取權(quán)利方面做得太過火了。比如他們呼吁為機(jī)器人設(shè)立勞動(dòng)保障法;呼吁機(jī)器人也應(yīng)和人類一樣享受8小時(shí)工作制和雙休日;替代人類進(jìn)行高危勞動(dòng)的機(jī)器人還應(yīng)該在井架安全的環(huán)境下工作……為此,曾經(jīng)發(fā)生過PETR成員在公路上強(qiáng)行攔截TM公司運(yùn)輸車,“解救”車上深海作業(yè)機(jī)器人的鬧劇。除此之外,PETR還多次向有關(guān)部門進(jìn)行控訴,TM公司對(duì)機(jī)器人進(jìn)行研發(fā)改進(jìn)以及回收廢舊機(jī)器人方面工作“未遵守人道主義原則”,他們甚至組織了線上以及線下的申討活動(dòng)。這些舉措,極大地增加了我們的研發(fā)與生產(chǎn)成本。
與PETR相反的就是RP組織,這個(gè)組織的成員由于受到對(duì)人工智能悲觀主義影響過深,因此對(duì)所有人工智能甚至所有電子產(chǎn)品抱著極大的敵意。他們的口號(hào)是:“紅色,才是有溫度的血液。”在他們眼中,人工智能就是—項(xiàng)既不環(huán)保,又有極大潛在威脅的邪惡科技,因?yàn)樗鼈兪恰胺亲匀淮嬖凇?,是“流淌著黑色污穢機(jī)油”的異端。近年來,在各大新媒體平臺(tái)頻頻出現(xiàn),帶有驚悚標(biāo)題以及陰謀論味道的爆款網(wǎng)文,比如“震驚!揭秘TM公司碳奸真相!人工智能是硅基文明外星人毀滅地球的陰謀!不轉(zhuǎn)不是地球人!”,大多出自他們之手。
比較諷刺的是,這兩大團(tuán)體相互之間也是水火不相容的關(guān)系。他們之間的紛爭,對(duì)整個(gè)人工智能技術(shù)發(fā)展以及人工智能產(chǎn)品的市場(chǎng)普及,同樣形成了一定程度的阻礙。我個(gè)人認(rèn)為,要解決TM公司,以及整個(gè)人工智能業(yè)界所面臨的這些外部困擾,出臺(tái)相應(yīng)明確的國際性法規(guī)刻不容緩。
進(jìn)與退:人類發(fā)展的分岔路口
在講話的最后,我也想對(duì)人工智能與人類的關(guān)系進(jìn)行一個(gè)反思。其實(shí)無論P(yáng)ETR還是RP,他們的思想源自于人類面對(duì)極速進(jìn)化的人工智能所產(chǎn)生的彷徨與矛盾。畢竟,人類從祖先“露西”進(jìn)化到今天,用了300多萬年時(shí)間;人類文明從誕生到現(xiàn)在,也用了大約5000年時(shí)間。而人工智能,從其概念誕生到如今,也不過短短一百年。人類因此可能面臨在其發(fā)展過程中,最重要的一個(gè)分岔路口:是像《終結(jié)者》中一樣,無力抵抗覺醒的人工智能而面臨毀滅邊緣:還是像《機(jī)器人總動(dòng)員》中一樣,因?yàn)檫^于依賴人工智能而全面退化;抑或是繞開前景過程中所有陷阱,建造出一個(gè)人類與人工智能和平共處的美好天堂。這一切,取決于今天我們所做出的每一分努力。
TM公司,將在這條道路上堅(jiān)定地走下去!
謝謝大家!