陳冰
在史蒂文·斯皮爾伯格導(dǎo)演的電影《人工智能》中,一對因車禍痛失愛子的夫妻收養(yǎng)了人工智能“大衛(wèi)”。在被人類養(yǎng)育的過程中,大衛(wèi)漸漸產(chǎn)生了“我到底是一個機器,還是一個人”的困惑。
這背后隱含了一個深刻的哲學(xué)問題——機器能夠思考嗎?
隨著ChatGPT的快速發(fā)展,許多人類自以為機器無法觸達(dá)的領(lǐng)域正在被機器“攻城略寨”,以至于國內(nèi)知名的軟件人發(fā)出了這樣的感慨——人不知疲倦地重復(fù)勞動,讓自己變成機器;而機器不斷地學(xué)習(xí)提升智能,讓自己變成人……
從2011年蘋果手機首次推出的Siri語音助手,到今年包攬奧斯卡七大獎項的電影《瞬息全宇宙》,生成式人工智能早已融入人類生活。當(dāng)下,ChatGPT類工具更是進(jìn)一步引爆全球人工智能熱潮,幾乎每一天,我們都會看到ChatGPT帶來的新震撼。
從5月19日開始,iOS美國地區(qū)用戶已經(jīng)可以在手機和iPad上免費下載和使用ChatGPT。未來幾周內(nèi)將擴展到其他國家/地區(qū)。這意味著ChatGPT對我們的影響力更進(jìn)一步。與此同時,美國頂級公立大學(xué)佛羅里達(dá)大學(xué)金融學(xué)院公布的一項研究表明,將ChatGPT融合在投資模型中,可以預(yù)測股市的走勢,其投資回報率甚至高達(dá)驚人的500%,堪稱AI界的“巴菲特”。
對于人工智能的發(fā)展,社會各界的觀點目前可大致分為樂觀論、悲觀論和泡沫論三類。支持“泡沫論”的華裔科學(xué)家、斯坦福大學(xué)教授李飛飛曾說,不要高估現(xiàn)在人工智能的發(fā)展水平,從物理學(xué)角度看人工智能,它目前還處于前伽利略階段。
不管ChatGPT目前處于何種階段,其狂飆突進(jìn)的技術(shù)演進(jìn),引發(fā)了人們深深的擔(dān)憂:它催生的是一個更便捷、更快速、徹底解放勞動力的時代?還是一個信息垃圾滔天,人類注意力迅速耗竭的時代?
目前,生成式人工智能還沒有統(tǒng)一的定義,一般可以理解為一種能夠根據(jù)提示生成文本、圖像或其他媒體信息的人工智能系統(tǒng)。
“這個技術(shù)不是像魔法一樣憑空出現(xiàn)的,而是有著悠久的歷史淵源?!闭憬髮W(xué)公共管理學(xué)院信息資源管理系研究員蔣卓人指出,在生成式人工智能90多年的發(fā)展歷程中,不乏人類智慧閃耀的時刻。
1932年,法國工程師Georges Artsrouni創(chuàng)造了裝置“mechanical brain”(機器大腦)。它通過查詢多功能詞典完成翻譯,輸入、輸出都是一條紙帶。蔣卓人認(rèn)為,雖然它和今天的機器翻譯不同,但它完全符合今天對生成式人工智能的定義,即人類輸入一段內(nèi)容,機器產(chǎn)生一段新的內(nèi)容。
1956年的夏天,美國達(dá)特茅斯學(xué)院( Dartmouth College )一群志同道合的學(xué)者驅(qū)車赴會,暢談如何利用剛剛問世不久的計算機來實現(xiàn)人類智能的問題。在會議的籌備時期,麥卡錫(John McCarthy))建議學(xué)界以后就用“人工智能”一詞來標(biāo)識這個新興的學(xué)術(shù)領(lǐng)域,與會者則附議。這應(yīng)該就是人工智能開始進(jìn)入計算機領(lǐng)域的一次“群英會”。畢竟,此次會議中有四人后來均獲得了計算機領(lǐng)域內(nèi)的最高學(xué)術(shù)獎勵圖靈獎。
在20世紀(jì)中,麻省理工學(xué)院創(chuàng)造了最早的生成式人工智能之一伊莉莎(Eliza),朱迪亞·珀爾(Judea Peal)引入了貝葉斯網(wǎng)絡(luò)因果分析概念,楊立昆(Yann Lecun)等展示了如何利用卷積神經(jīng)網(wǎng)絡(luò)來識別圖像……
2006年,華裔計算機科學(xué)家李飛飛著手構(gòu)建數(shù)據(jù)庫ImageNet。該數(shù)據(jù)庫中有超過1400萬張手工標(biāo)注的圖片,包含超過2萬個類別。正是有了這樣一個龐大數(shù)據(jù)庫的支撐,深度學(xué)習(xí)才能得以興起。
AI 教父辛頓表示,目前,每個工程師都更關(guān)注如何使AI 變得越來越厲害,而不是考慮它如何適應(yīng)社會和環(huán)境。他強調(diào)建立一個可信、公開和透明的機制的重要性,以確保AI 被正確監(jiān)管和控制,以發(fā)揮其潛力和減輕其負(fù)面影響。
1750億參數(shù)量,3000億訓(xùn)練單詞數(shù),這是ChatGPT的數(shù)據(jù)。2022年發(fā)布后,ChatGPT在短短兩個月內(nèi)吸引了超過1億的用戶,成為有史以來用戶增長最快的應(yīng)用。
要理解ChatGPT,就要理解它的關(guān)鍵技術(shù):大模型基礎(chǔ)訓(xùn)練、指令微調(diào)、人類反饋強化學(xué)習(xí)?!按竽P偷娜Q是大型語言模型。”蔣卓人講道,“它是一種概率模型,能告訴你一個詞出現(xiàn)的概率是多少?!?/p>
比如,在The students opened their這句英文后面,可以出現(xiàn)books、laptops、exams、minds等詞?!暗鼈兂霈F(xiàn)的概率是不一樣的。一個好的語言模型,能精準(zhǔn)地預(yù)測下一個詞是什么?!笔Y卓人說。
隨著語言模型的發(fā)展,它具備了良好的語言理解能力,但如何讓其與人類建立對話呢?
研究者們提出的辦法是指令微調(diào)。通過引入思維鏈以及代碼生成,大模型的推理能力得以提升。至此,大模型初步具備了回答人們提出的任何指令的可能,但回答的質(zhì)量卻參差不齊,如何讓大模型持續(xù)性地輸出高質(zhì)量回答呢?
研究者們又為此設(shè)計了一套基于人類反饋的強化學(xué)習(xí)方法,即通過大模型的微調(diào)、獎勵函數(shù)的訓(xùn)練以及大規(guī)模強化學(xué)習(xí)的優(yōu)化來確保高質(zhì)量回答的生成?!癘penAI就是使用這種方法,大幅度降低了數(shù)據(jù)集構(gòu)建成本?!笔Y卓人說。
在復(fù)旦大學(xué)哲學(xué)學(xué)院教授徐英瑾看來,理解ChatGPT的本質(zhì)并不困難。ChatGPT作為一種大型語言模型,是“傳統(tǒng)神經(jīng)元網(wǎng)絡(luò)技術(shù)+深度學(xué)習(xí)技術(shù)”的進(jìn)階版,通俗來說,就是通過數(shù)學(xué)建模建造出一個簡易的人工神經(jīng)元網(wǎng)絡(luò)結(jié)構(gòu)。
盡管ChatGPT的語言通順程度和機器翻譯水平令人贊嘆,但談到這種模型與人類的根本區(qū)別,徐英瑾指出,人工智能的進(jìn)步,實際上是統(tǒng)計學(xué)意義上的進(jìn)步,是通過不斷迭代的大規(guī)模數(shù)據(jù)集和人工語料訓(xùn)練后“野蠻投入”的結(jié)果,因此,縱使ChatGPT看到“路遙知馬力”能接上“日久見人心”,但它并不能真正理解中文詩詞的精妙內(nèi)涵。
這種人工智能系統(tǒng)訓(xùn)練方式將不得不把“常人”的意見加以建制化與機械化,由此使得社會意識形態(tài)的板結(jié)現(xiàn)象變得更為嚴(yán)重。換言之,從機器的視角看,一個正確的意見就是被大多數(shù)人所認(rèn)可的意見,因此,少數(shù)“異類”提出的“離經(jīng)叛道”之說在技術(shù)上就會被過濾掉。
“這需要我們的高度警惕,”徐英瑾強調(diào),“假若ChatGPT技術(shù)在托勒密的時代就出現(xiàn),哥白尼的‘日心說恐怕會永遠(yuǎn)被判定為錯誤答案?!?/p>
從時間樣態(tài)上看,“常人”的天然時間標(biāo)簽是“過去”,而“自由”的天然標(biāo)簽則是“未來”。而任何的深度學(xué)習(xí)機制都必然帶有“過去”的時間標(biāo)簽,因為大量的數(shù)據(jù)收集、喂入與訓(xùn)練都會消耗大量的時間,并由于這種消耗所造成的時間差而必然與“當(dāng)下”失之交臂,更不用說去擁抱未來了。ChatGPT依然沒有擺脫這一深度學(xué)習(xí)機制的宿命。實際上大家都知道,ChatGPT對2021年以后發(fā)生的新聞事件,比如2022年2月爆發(fā)的俄烏戰(zhàn)爭,都無法進(jìn)行有效的信息處理,而且也很難對未來的世界進(jìn)行具有創(chuàng)新力的預(yù)見,這就使得其在根本上無法擺脫“常人”意見的陰影。
還有一點值得注意的是,ChatGPT具有根據(jù)不同用戶的輸入習(xí)慣改變自身答案的能力。換言之,它能記住特定用戶的說話傾向,并投其所好地修改自己的輸出。從表面上來看,這貌似是此項技術(shù)尊重用戶個性的體現(xiàn),但看得更深一點,這種“尊重”本身乃是一種無原則的諂媚,而不是真正的自由精神所需要的質(zhì)疑與反思。因此這依然是一種對于“常人”態(tài)度的表露。
復(fù)旦大學(xué)哲學(xué)學(xué)院教授徐英瑾認(rèn)為, 過度依賴ChatGPT,可能會讓人喪失反思力與對未來的把握能力,陷入過度“自欺”的狀態(tài)。攝影/ 成釗
此外,別有用心的人也能利用ChatGPT的此項“諂媚”而借由“人海戰(zhàn)術(shù)”去系統(tǒng)改變ChatGPT的知識輸出方式,由此使其成為認(rèn)知戰(zhàn)中的一個環(huán)節(jié)。徐英瑾表示,一個長期依賴ChatGPT的人類用戶會因為習(xí)慣于該機制對于“常人”意見的不斷重復(fù),而進(jìn)一步喪失對于這些意見的反思力。因此,即使他隱約意識到了某個機器輸出的答案可能是有問題的,他也會自言自語地說,這畢竟是ChatGPT提供的答案,又怎么可能是錯的呢?過度依賴ChatGPT,可能會讓人喪失反思力與對未來的把握能力,陷入過度“自欺”的狀態(tài)。
作為與楊立昆、約書亞·本吉奧三人并稱為人工智能領(lǐng)域三位奠基人之一的“AI教父”杰弗里·辛頓(Geoffrey Hinton)也表達(dá)了類似的擔(dān)憂。美國當(dāng)?shù)貢r間5月1日,這位75歲的圖靈獎得主突然宣布從谷歌離職。他發(fā)推文稱,他離開谷歌是為了可以公開地談?wù)撊斯ぶ悄艿奈kU。他表示,對自己的畢生工作,感到非常后悔。
辛頓說:“相比大模型,人類在學(xué)習(xí)速度上并無優(yōu)勢。AI所制造的‘幻覺并不是缺陷,而是特性,編造也是人類記憶的一個特點,這些模型正在做類似于人類的事情,它們現(xiàn)在已經(jīng)非常接近人類了,將來會比我們聰明得多,我們將如何生存?”
面對生成式人工智能帶來的挑戰(zhàn),世界各國都曾出現(xiàn)過“AI威脅論”。馬斯克就是其中最為著名的一員。3月份時,一份名為《暫停大型人工智能研究》的公開信在未來生命研究所官網(wǎng)上發(fā)布,包括特斯拉CEO埃隆·馬斯克、蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克、Skype創(chuàng)始人埃馬德·莫斯塔克、Stability AI首席執(zhí)行官約書亞·本吉奧、圖靈獎獲得者斯圖拉特·拉塞爾、麻省理工學(xué)院物理學(xué)教授約翰·霍普菲爾德、《未來簡史》的作者尤瓦爾·赫拉利等人在內(nèi)的千名科學(xué)家、企業(yè)高管簽字呼吁暫緩GPT-4以上版本的研發(fā)。
目前AI 研究已經(jīng)發(fā)展到“大模型時代”,若是繼續(xù)不加管控,讓AI 按照預(yù)定軌跡發(fā)展下去的話可能對地球環(huán)境、人類生存、公民身心健康等方面造成威脅。
緊接著,5月初,AI領(lǐng)域知名投資人伊恩·霍加斯(Ian Hogarth)在外媒專欄中發(fā)表了一篇名為《我們必須放慢通往上帝一般的人工智能的速度(We must slow down the race to God-like AI)》的文章,警告AI公司的研究存在“一些潛在的風(fēng)險”。
霍加斯在文中指出,目前AI研究已經(jīng)發(fā)展到“大模型時代”,若是繼續(xù)不加管控,讓AI按照預(yù)定軌跡發(fā)展下去的話可能對地球環(huán)境、人類生存、公民身心健康等方面造成威脅。
復(fù)旦大學(xué)國家智能評價與治理實驗基地副主任、大數(shù)據(jù)研究院教授趙星在復(fù)旦建校118周年相輝校慶系列學(xué)術(shù)報告第十場講座“生成式人工智能的挑戰(zhàn)與治理”中指出,“科技界曾將人工智能的應(yīng)用比作煉金術(shù),人們將數(shù)據(jù)一股腦往模型里面扔,至于能否煉出有價值的東西,煉出的是什么,卻沒有明確的預(yù)期?!焙苊黠@,在技術(shù)層面上生成式人工智能存在內(nèi)生的不確定性。
面對生成式人工智能這個新對手,趙星教授認(rèn)為不能沿用傳統(tǒng)治理“被動回應(yīng)外在威脅”的方法。相反,他的團(tuán)隊正在著眼于借助復(fù)旦大學(xué)大數(shù)據(jù)研究院院長鄔江興院士提出的“內(nèi)生安全理論”,構(gòu)建生成式人工智能治理的新模型。
“當(dāng)我們準(zhǔn)備向全社會投放一種通用性工具,卻不能明確它的科學(xué)原理是什么,就一定會有內(nèi)生性的風(fēng)險?!比斯ぶ悄茱L(fēng)險中最核心的一點在于其結(jié)果的不可承受性。“我們很少在治理問題上處于如此無力的狀態(tài)。”趙星說。在應(yīng)用層面上,生成式人工智能產(chǎn)業(yè)發(fā)展的確定性與風(fēng)險治理的不確定性將長期存在。
而在社會方面,生成式人工智能不僅深陷知識產(chǎn)權(quán)與信息泄露問題,或也將塑造真正的信息繭房?!爱?dāng)生成式人工智能24小時都伴你身邊,潛移默化地,你會誤認(rèn)為一切都是你自己的決定?!壁w星警示,“我們面對的,是一個會在短時間內(nèi)崛起,或?qū)⒁饑?yán)重后果且后果未知的事物。”
面對生成式人工智能這個新對手,趙星認(rèn)為不能沿用傳統(tǒng)治理“被動回應(yīng)外在威脅”的方法。相反,他的團(tuán)隊正在著眼于借助復(fù)旦大學(xué)大數(shù)據(jù)研究院院長鄔江興院士提出的“內(nèi)生安全理論”,構(gòu)建生成式人工智能治理的新模型。
“我們能否在未知的風(fēng)險爆發(fā)之前找到抵抗它的辦法?這是生成式人工智能內(nèi)生安全治理要解決的問題?!壁w星說,“我們需要在人工智能風(fēng)險來臨前,給人類社會點亮一個新的技能樹:應(yīng)對人工智能非傳統(tǒng)安全問題的能力。”
生成式人工智能的治理模型涵蓋了三個層面。最外層是法律的監(jiān)督與規(guī)約,中間層是管理層的敏捷治理,尤為強調(diào)的最內(nèi)層是教育。在法律和政府治理之前,高等院校應(yīng)和所有的教育機構(gòu)一起,完成針對全人類的社會性融合人工智能的教育和訓(xùn)練。
“我們應(yīng)當(dāng)在每一位年輕人的成長過程中,讓他們學(xué)會如何與人工智能良好共處與規(guī)避‘信息繭房,以及如何去做一個智能社會中的‘好人。”
內(nèi)生安全治理模型的原理,是基于群體智能將個體“未知的未知”轉(zhuǎn)化為群體“已知的未知”,從而進(jìn)一步將其轉(zhuǎn)化為“已知的已知”。
“當(dāng)我們知道可能的風(fēng)險是什么、產(chǎn)生在何處,生成式人工智能治理便有機會轉(zhuǎn)化為常規(guī)性安全問題,我們就能嘗試尋求到治理閉環(huán)的實現(xiàn)?!壁w星說,“然而這仍需要理論、實踐上長期的探索。”
趙星團(tuán)隊也開始探索生成式人工智能在科學(xué)評價中的應(yīng)用,創(chuàng)新構(gòu)建了“客觀數(shù)據(jù)、智能算法、專家評議”三者和諧共生的“數(shù)智人”評價與治理新范式。近期團(tuán)隊也在開展利用類ChatGPT工具進(jìn)行智能評價系統(tǒng)構(gòu)建的探索實驗。
“初步結(jié)果顯示,雖然現(xiàn)階段的生成式人工智能遠(yuǎn)沒到能勝任學(xué)術(shù)評價這樣的嚴(yán)肅評價工作的程度,”趙星表示,“但生成式人工智能表現(xiàn)出的‘跨學(xué)科評價能力和‘涌現(xiàn)推斷預(yù)測潛力值得高度關(guān)注?!?/p>