唐浩楠
編者按:
在今年的英偉達(dá)GTC大會上,李飛飛再次重申一個觀點: AI是一種工具,人類不僅是工具的制造者,同時也是如何使用工具的決策者。不要被人工智能里面的“人工”這個詞所誤導(dǎo)——它沒有任何包含人性之處。人工智能是由人類創(chuàng)造的,要按照人類的方式行事,并改善人類社會。
作為當(dāng)代人工智能領(lǐng)域的先驅(qū),李飛飛在對當(dāng)下技術(shù)發(fā)展速度感到震驚、興奮的同時,也在思考,這將對人類意味著什么。
2017 年,在擔(dān)任谷歌Cloud AI 首席科學(xué)家期間,李飛飛看到了人工智能與工業(yè)的迅速結(jié)合,從農(nóng)業(yè)種植到內(nèi)容生產(chǎn)再到上游制造,人工智能已經(jīng)開始重塑各個行業(yè)的傳統(tǒng)運作方式。
李飛飛意識到了人工智能正在產(chǎn)生的深遠(yuǎn)影響。2019年,她與哲學(xué)家約翰·埃切門迪共同成立了斯坦福大學(xué)以人為本人工智能研究院(HAI),旨在推動人工智能技術(shù)發(fā)展的同時,確保這些強大的工具能夠服務(wù)于提升人類福祉,而非僅僅追求生產(chǎn)力的提高。
2015年5月,雅虎圖片托管服務(wù)Flickr在描述56歲黑人男子威廉的肖像時,自動生成了一個標(biāo)簽“猿”。
雅虎的技術(shù)立刻引發(fā)了各方強烈憤慨。此后,這項技術(shù)接二連三地出現(xiàn)失誤:將達(dá)豪集中營大門的照片標(biāo)記為攀爬架,把一位臉上涂有彩色粉末的白人婦女也貼上了“猿”的標(biāo)簽。到了6月,谷歌也因其照片服務(wù)將兩個黑人青少年錯誤地標(biāo)記為“大猩猩”而陷入爭議。圖像分類本已是老生常談的成功技術(shù),卻在短短幾周內(nèi)變得非常復(fù)雜。
雖然事故并非惡意,但這并不能讓人感到寬慰。相反,無心之失所揭示的問題才更加令人不安。由于訓(xùn)練人工智能的數(shù)據(jù)集缺乏多樣性,導(dǎo)致了一系列意料之外的結(jié)果,未經(jīng)充分測試的算法和存疑的決策又進(jìn)一步加劇了負(fù)面影響。
有果必有因,正如記者兼評論員杰克·克拉克所言,問題的根源在于人工智能“男性之?!眴栴}:科技行業(yè)的代表性不足,導(dǎo)致算法無意中帶有偏見,在非白人、非男性用戶身上表現(xiàn)不佳。這是對人工智能倫理問題的最早一批討論之一。
事實上,直到今天,人工智能存在的偏見問題依然沒有被很好地解決。2023年底,《華盛頓郵報》發(fā)表了一篇詳盡的專題報道,深入探討了機器學(xué)習(xí)技術(shù)中潛在的偏見。當(dāng)前的 AI圖像生成模型,如Dall-E和Stable Diffusion,有時仍會反映出社會的刻板印象。例如,在生成“具有創(chuàng)造力的人”的圖像時,這些系統(tǒng)往往傾向于呈現(xiàn)白人形象;而在描繪“社會服務(wù)人員”時,則多數(shù)情況下展示的是有色人種的形象。
學(xué)術(shù)界早就意識到人工智能可能會帶來負(fù)面沖擊,然而,由于研究規(guī)模有限,風(fēng)險一直只存在于理論層面。更嚴(yán)峻的問題是,越來越多的學(xué)者、政策制定者意識到,訓(xùn)練人工智能的高昂成本正在將研究人員排除在該領(lǐng)域之外,從而損害了對這一新興技術(shù)的獨立研究。
面對Meta、谷歌和微軟對人工智能領(lǐng)域幾十億美元投資,即便是資源雄厚的美國頂尖大學(xué)也顯得力不從心。Meta 計劃采購35萬個專用GPU來推動其人工智能模型的發(fā)展,而斯坦福大學(xué)的自然語言處理團(tuán)隊僅有68個GPU來支撐其研究。
為了追求人工智能研究所需的高昂計算能力和數(shù)據(jù)資源,學(xué)術(shù)界往往不得不選擇與科技公司合作,這種不平衡的權(quán)力動態(tài)正在以微妙的方式塑造這個領(lǐng)域,促使人工智能學(xué)者調(diào)整他們的研究以用于商業(yè)用途。斯坦福大學(xué)的報告指出,2022年科技行業(yè)貢獻(xiàn)了32個關(guān)鍵的機器學(xué)習(xí)模型,而學(xué)術(shù)界僅有3個,這與2014年相比呈現(xiàn)出顯著的變化,當(dāng)時的多數(shù)人工智能創(chuàng)新都源自大學(xué)。
政策制定者正在采取一些措施來解決資金缺口問題。去年,美國國家科學(xué)基金會宣布投資1.4億美元,啟動7個由大學(xué)牽頭的國家人工智能研究所,研究人工智能如何減輕氣候變化的影響和改善教育等課題。
但學(xué)者們表示,資金的注入可能來得仍然不夠快。
隨著硅谷競相打造聊天機器人和圖像生成器,它正以高薪和研究有趣的人工智能問題的機會吸引著未來的計算機科學(xué)教授。根據(jù)2023年的一份報告,近70%的人工智能博士最終進(jìn)入了私營企業(yè),而二十年前只有21%的畢業(yè)生進(jìn)入私營企業(yè)。
人工智能正在成為一種特權(quán),一種排他性極強的特權(quán)。
李飛飛在英偉達(dá)GTC大會中表示:“今天的人工智能,基本上都是從好奇心驅(qū)動的學(xué)術(shù)研究課題開始的,這是我們社會不斷創(chuàng)新的入口。隨著像OpenAI 這樣的公司開始在人工智能的發(fā)展中占據(jù)主導(dǎo)地位,需要相關(guān)的法規(guī)去約束這些公司,以便讓公眾受益?!?/p>
硅谷的傲慢態(tài)度向來為外界所詬病,盡管公眾對潛在風(fēng)險的認(rèn)知不斷加深,但硅谷對人工智能技術(shù)的夸夸其談也上升到了新的高度。
硅谷不斷推出自動駕駛汽車,設(shè)計出高超精湛的腫瘤檢測算法,實現(xiàn)工廠端到端自動化。至于被先進(jìn)技術(shù)取代了工作的人(出租車司機、長途卡車司機、裝配線工人甚至放射科醫(yī)生)的命運,硅谷的態(tài)度似乎介于半心半意的“再培訓(xùn)”和幾乎不加掩飾的漠不關(guān)心之間。
里程碑接二連三地出現(xiàn),可怕的情景正在逼近。
一份ProPublica的獨立調(diào)查顯示,有偏見的人工智能被廣泛應(yīng)用于處理貸款申請,甚至協(xié)助法官作出假釋決定等方面。類似的報道還顯示,在某些招聘中,求職者會先經(jīng)過人工智能技術(shù)的篩選,然后才由真人面試官進(jìn)行面試。
此類做法往往會在無意中造成歧視性影響,這一點并不令人意外。這些更微妙、更機構(gòu)化的傷害幾乎不可能迅速得到糾正,相關(guān)問題幾乎是無聲無息的,影響范圍更廣,而監(jiān)管則少之又少。
人工智能不是現(xiàn)象,不是顛覆,不是難題,也不是特權(quán)。我們面對的是一種自然力量。它是如此宏偉,如此強大,如此反復(fù)無常,既能輕易激發(fā)靈感,也很容易摧毀一切。要讓人工智能值得信任,需要的遠(yuǎn)不止商業(yè)公司空洞的陳詞濫調(diào)。
誰能作為值得信賴的伙伴讓我們了解這項技術(shù)的安全性如何?技術(shù)的透明度有多少?數(shù)據(jù)是否存在偏差,我們?nèi)绾尾拍芄?、可信地使用這種人工智能提供給我們的信息?這些都是我們需要去解決的問題。
我們?nèi)陨硖幰粓鋈蝻L(fēng)暴之中。每天似乎都有新的頭條新聞報道自動化地對全球勞動者構(gòu)成威脅。
需要明確的是,大型語言模型,即使是多模態(tài)的大型語言模型,可能也并不具備真正意義上的“思考”能力。大型語言模型很容易出現(xiàn)荒謬的概念性失誤,也樂于編造聽起來合理但實際上毫無意義的胡言亂語。
了解這些事實有助于我們避免過分迷戀模型的能力。然而,隨著大型語言模型生成的文本、圖像、語音和視頻越來越復(fù)雜,真與假之間的界限愈加模糊。越來越多的評論家開始質(zhì)疑,為我們敲響警鐘:作為個人、機構(gòu),甚至社會,我們究竟有沒有能力區(qū)分真實和虛構(gòu)?當(dāng)人們意識到這一切還只是1.0版本時,這種發(fā)問尤其令人警醒。
科技不斷發(fā)展,算法語言表達(dá)的高級程度已逼近人類水平,機器人正在逐漸學(xué)會應(yīng)對真實的環(huán)境。視覺模型不僅可以通過照片進(jìn)行訓(xùn)練,還可以在全三維世界中進(jìn)行沉浸式實時訓(xùn)練。人工智能能夠像識別內(nèi)容一樣流暢地生成內(nèi)容。與此同時,倫理問題在我們周圍不斷涌現(xiàn),與人類經(jīng)濟(jì)社會發(fā)展的關(guān)聯(lián)也日益緊密,但這就是科學(xué)一直以來的樣子。
深度學(xué)習(xí)飛速發(fā)展,每一年都感覺像是要面對一個全新的領(lǐng)域,其應(yīng)用的深度和多樣性增長得如此之快,甚至全職研究生和博士后也很難跟上其步伐??赡苄詿o窮無盡,挑戰(zhàn)也永無止境。面對全球亟待解決的問題,面對具有歷史意義的機遇,面對可能需要幾代人的努力才能揭開謎底的未知,真正解決所有問題的答案遠(yuǎn)遠(yuǎn)不是公司戰(zhàn)略或?qū)W術(shù)課程所能提供的。
是什么讓硅谷的公司如此強大?不僅僅是它們幾十億美元的資金或幾十億用戶,也不僅僅是因為它們擁有驚人的計算能力和數(shù)據(jù)儲備,讓學(xué)術(shù)實驗室的資源相形見絀。它們之所以強大,是因為成千上萬個才華橫溢的人在同一個屋檐下共同努力。
但商業(yè)公司只能利用這些人才,而無法塑造他們。硅谷一次次地出現(xiàn)類似的情況:才華橫溢的技術(shù)專家?guī)缀蹩梢越ㄔ烊魏螙|西,但問及工作的倫理問題時,他們卻一臉茫然。
是時候重新評估人工智能教育的各個層面了。未來幾年,從業(yè)者需要的不僅是專業(yè)技術(shù)知識,他們還必須了解哲學(xué)、倫理學(xué),甚至法律。
想象空間是巨大的,但愿景需要一個重要的紐帶串聯(lián)起來,這個紐帶就是大學(xué)。早在有人利用人工智能謀取利益之前,人工智能就已經(jīng)在大學(xué)里起步了。在大學(xué)校園里,仍然最有可能感受到某些意想不到的研究突破帶來的火花。
我們要從根本上重新構(gòu)想人工智能,使其成為以人為本的實踐。人工智能一直以來都追求科學(xué)性,而現(xiàn)在,它也必須追求人性。人工智能應(yīng)該秉承最優(yōu)秀的學(xué)術(shù)傳統(tǒng),保持合作和敬畏,同時不懼怕直面現(xiàn)實世界。畢竟,星光是多樣的。一旦白色的光輝展開,各種顏色就會發(fā)出耀眼奪目的光芒。