金泰
楊立昆。圖/視覺中國
請大家平靜下來。對生成式人工智能技術進步的興奮已經(jīng)達到了狂熱的程度,隨之而來的是一系列極端的擔憂??謶稚⒉颊叻譃榱藘纱箨嚑I:要么認為人工智能很快就能創(chuàng)造一個巨大的反烏托邦未來,要么認為它即將對人類的生存構成威脅。
3月,包括埃隆·馬斯克(Elon Musk)和一些人工智能大師在內的一群科技業(yè)高管,呼吁暫停開發(fā)先進的人工智能系統(tǒng)六個月,以便該行業(yè)能夠建立針對有害結果的保障措施,這讓這場危機火上澆油。技術高管呼吁暫停創(chuàng)新既是前所未有的,也是毫無必要的。
《巴倫周刊》科技欄目最近就人工智能的現(xiàn)狀、ChatGPT的興起以及為什么要求暫停人工智能研究是錯誤的觀點,與Meta Platforms(META)首席人工智能科學家楊立昆(Yann LeCun)進行了交流。
楊立昆是人工智能行業(yè)最杰出的科學家之一,他一直直言不諱地批評那些夸大ChatGPT等人工智能聊天機器人所使用的基礎技術能力的人。
他是紐約大學(New York University)的教授,2013年加入了Facebook(現(xiàn)在改名為Meta)。與杰弗里·辛頓(Geoffrey Hinton)和約書亞·本吉奧(Yoshua Bengio)一起,楊立昆因圍繞深度學習技術的研究而獲得了2018年ACM圖靈獎——計算機領域的諾貝爾獎,這些技術已經(jīng)成為現(xiàn)代人工智能技術的基礎。
這三位科學家因其在人工智能領域中的工作而經(jīng)常被稱為“人工智能教父”。以下是我們與楊立昆經(jīng)過編輯后的談話摘錄。
《巴倫周刊》:請解釋一下ChatGPT和大型語言模型(LLM)背后的技術是如何工作的?
楊立昆:你可以把它想象成一個超級強大的預測鍵盤。大型語言模型首先要對大量的單詞進行訓練,我們向模型展示一個單詞窗口,并詢問它下一個單詞是什么,它將預測下一個單詞,填入這個單詞,然后問自己下一個單詞是什么。
《巴倫周刊》:這些模型擅長什么,又不擅長什么?
楊立昆:它們適用擔任寫作助手,可以幫助你用正確的語法風格來表述事情。但是對于回答事實類問題,它們干得并不是很好,因為這種模型要么是反芻存儲在其記憶中的內容,要么是反芻一些類似于它在訓練數(shù)據(jù)中讀取的各種內容的組合或者插值,這意味著它可能會發(fā)生事實上的錯誤,或者它只是在編造一些聽起來不錯的東西。
《巴倫周刊》:為什么人工智能聊天機器人有時在準確性方面存在這么大的問題??
楊立昆:當你擁有一個基本上是這樣一個字一個字地預測的系統(tǒng),你就很難進行控制或者操縱,因為它們會產(chǎn)生什么,完全取決于它們訓練的統(tǒng)計數(shù)據(jù)和給定的提示。
在數(shù)學上來說,它很有可能與正確答案的路徑呈現(xiàn)出指數(shù)性的偏離,它生成的答案越長,最終答案是徹頭徹尾的垃圾的可能性就越大。
《巴倫周刊》:你為什么如此反對要求人工智能開發(fā)中止六個月的信?
楊立昆:我同意人工智能是一項強大的技術,必須負責任和安全地部署和開發(fā)。但我不認為停止研究和開發(fā)六個月是正確的答案。這根本無濟于事,而且也非常天真,因為沒有人會這么做。
讓我們來看看在這封信上簽名的人的類別。第一類是最令人震驚的:真正的末日預言家。他們說我們正在制造的機器最終會像人類一樣聰明。而一旦發(fā)生這種情況,人類就完了。
我覺得這太愚蠢了。而且他們肯定搞錯了。這是基于人工智能系統(tǒng)不易控制、很難提出符合人類價值觀的目標的想法。但我們可以設計目標,以便它們能夠正確行事。
第二類是擔心直接傷害的人。有了大型語言模型,你可以產(chǎn)生無意義和錯誤的信息。一些人擔心互聯(lián)網(wǎng)將被機器生成的內容所淹沒,這些內容具有誤導性,用戶可能會被洗腦。我也不相信這種情況,因為它已經(jīng)存在了。人們的適應能力很強,他們已經(jīng)學會了如何應對新媒體。
第三類是擔心少數(shù)科技公司生產(chǎn)的人工智能產(chǎn)生的系統(tǒng)性社會影響。我還是不同意這種觀點。部分原因是因為我為Meta工作,我能從內部看到科技公司的動機是什么。
《巴倫周刊》:OpenAI的技術與Google、Meta和其他初創(chuàng)企業(yè)的AI技術相比如何?
楊立昆:OpenAI似乎有點走在了游戲的前面,因為它比其他人更早地開始訓練那些大型系統(tǒng),并根據(jù)用戶反饋進行微調。但是ChatGPT或GPT4并沒有什么令人驚訝或者秘不可宣的地方,除了它們可以公之于眾這一事實。
自然語言理解并不是一項新技術。這是相同的技術,transformer(機器學習模型)的整個想法來自谷歌。Meta、谷歌和一些初創(chuàng)公司的很多人已經(jīng)開始研究這項技術,有成百上千的科學家和工程師知道如何搭建這些東西。
你之所以沒有(更早)在谷歌和Meta上看到類似的系統(tǒng),是因為對于一家大公司來說,推出一個不完全可靠、可以發(fā)布無稽之談的系統(tǒng),會對其聲譽造成更大的危險。
《巴倫周刊》:當機器能夠自己學習和思考時,我們是否已經(jīng)接近通用人工智能(AGI)?
楊立昆:有人聲稱,通過擴展這些大型語言模型系統(tǒng),我們將達到人類的智力水平。我的觀點是,這是完全錯誤的。有很多事情我們不明白,比如我們還不知道如何用機器進行再生產(chǎn)——有些人稱之為AGI的東西。
我們不能使用像ChatGPT或GPT4這樣的技術來訓練機器人清理桌子或者填滿洗碗機,即使這對一個孩子來說是一件微不足道的任務,我們還是做不到。我們仍然沒有實現(xiàn)L5級(完全)自動駕駛。這需要一套完全不同的技能,你無法通過閱讀文本來進行學習。
《巴倫周刊》:什么時候有可能?
楊立昆:未來五年,我們將取得重大進展。但我不認為我們能達到人類的智力水平,這還需要很長時間。每次出現(xiàn)這種預測時,我們都低估了人類智力的復雜性。
《巴倫周刊》:謝謝你的時間,楊。
(《巴倫周刊》英文版2023年4月12日)