李·溫塞爾
科技泡沫可能會(huì)給商業(yè)領(lǐng)袖帶來(lái)困擾:他們可能感到,必須盡早投資某項(xiàng)新技術(shù),才能搶占競(jìng)爭(zhēng)先機(jī),但又不想一頭栽進(jìn)虛假炒作的陷阱。隨著我們進(jìn)入一個(gè)經(jīng)濟(jì)不確定性變大、各行各業(yè)紛紛裁員的時(shí)代,對(duì)于哪些成本應(yīng)該削減、哪些投資應(yīng)當(dāng)增加,高管們正在苦苦尋覓解答。
迅猛發(fā)展的人工智能(AI)和機(jī)器學(xué)習(xí)領(lǐng)域,對(duì)企業(yè)決策者提出了特殊挑戰(zhàn)。越來(lái)越多人認(rèn)為穩(wěn)妥可靠的做法是投資那些經(jīng)過(guò)驗(yàn)證的預(yù)測(cè)模型,這預(yù)計(jì)將推動(dòng)人工智能方面的支出從2021年的330億美元增至2025年的640億美元。然而,在潮頭浪尖之處,生成式AI(Generative AI)正在激起大量虛假信息和投機(jī)行為。
生成式AI意指各種機(jī)器學(xué)習(xí)模型(例如,ChatGPT聊天機(jī)器人、必應(yīng)智能AI、DALLE圖像生成器,以及Midjourney繪畫(huà)工具),這類模型在海量文本圖像數(shù)據(jù)庫(kù)上進(jìn)行訓(xùn)練,從而根據(jù)提示語(yǔ)生成新文本和新圖像。類似“不可或缺的10條ChatGPT秘技”和“你的ChatGPT用錯(cuò)了!如何領(lǐng)先99%ChatGPT用戶”這樣的大標(biāo)題開(kāi)始大行其道。與此同時(shí),美國(guó)數(shù)字新聞網(wǎng)站Axios報(bào)道稱,資金正在大量涌入生成式AI領(lǐng)域,從2022年的6.13億美元增長(zhǎng)至2023年的23億美元,而資金的涌入只會(huì)助長(zhǎng)瘋狂炒作。
企業(yè)領(lǐng)導(dǎo)者如果既不愿錯(cuò)失大好機(jī)會(huì),又不想在名不副實(shí)的技術(shù)上浪費(fèi)時(shí)間和金錢(qián),那就最好把有關(guān)科技泡沫的一些基本事實(shí)記在心上。首先,正如商學(xué)院教授布倫特·戈德法布(Brent Goldfarb)和戴維·基爾希(David Kirsch)在2019年出版的《泡沫與崩潰:技術(shù)創(chuàng)新的繁榮與蕭條》(Bubbles and Crashes: The Boom and Bust of Technological Innovation)一書(shū)中所述,人們講述的各種關(guān)于新技術(shù)會(huì)如何發(fā)展并影響社會(huì)經(jīng)濟(jì)的故事,正在為這種炒作推波助瀾。不幸的是,圍繞新技術(shù)的早期故事幾乎總是謬誤百出。事實(shí)上,高估新系統(tǒng)的前景和潛力,正是泡沫問(wèn)題的核心所在。
就準(zhǔn)確預(yù)測(cè)技術(shù)發(fā)展的未來(lái)而言,商業(yè)預(yù)言家和分析師們的過(guò)往表現(xiàn)非常糟糕,因?yàn)闆](méi)有人能預(yù)見(jiàn)到,隨著時(shí)間推移,人類會(huì)怎樣別出心裁地選擇和應(yīng)用各種工具,抑或如何花樣百出地使用新工具利用和支配他人。或者說(shuō),正如未來(lái)主義者羅伊·阿瑪拉(Roy Amara)在后來(lái)廣為人知的“阿瑪拉定律”中所說(shuō)的那樣,“我們往往會(huì)高估一項(xiàng)技術(shù)的短期收益,而低估其長(zhǎng)期影響”。
吹大各種科技泡沫的夸大故事,也已經(jīng)出現(xiàn)在生成式AI領(lǐng)域。一些發(fā)燒友聲稱,ChatGPT距離通用人工智能只有幾步之遙,有望成為認(rèn)知能力堪比甚至超越人類的獨(dú)立實(shí)體。作為ChatGPT開(kāi)發(fā)者OpenAI公司的首席執(zhí)行官,薩姆·奧爾特曼(Sam Altman)在這個(gè)領(lǐng)域投入甚多,他聲稱人工智能“會(huì)讓農(nóng)業(yè)革命、工業(yè)革命和互聯(lián)網(wǎng)革命加在一起都黯然失色”。未來(lái)生命研究所(Future of Life Institute)也認(rèn)為大語(yǔ)言模型影響深遠(yuǎn),但其看法更加灰暗。該組織發(fā)表了一封公開(kāi)信,呼吁暫停訓(xùn)練比GPT-4(ChatGPT-Plus背后的大語(yǔ)言模型)更強(qiáng)大的AI系統(tǒng)至少6個(gè)月,因?yàn)樗鼈兺{到了整個(gè)人類。
這些支持者與批評(píng)者們雖然意見(jiàn)相左,卻是在共同推動(dòng)關(guān)于未來(lái)的狂熱想象,而這些想象脫離了企業(yè)運(yùn)用現(xiàn)有生成式AI工具有把握達(dá)成的現(xiàn)實(shí)。它們基本上無(wú)助于領(lǐng)導(dǎo)者理解這些技術(shù)的運(yùn)作方式,以及它們可能存在的風(fēng)險(xiǎn)和局限性,更不用說(shuō)幫助他們了解這些工具能否改善企業(yè)日常工作、提升企業(yè)贏利水平了。
新聞傳媒本身就是一個(gè)受“錯(cuò)失恐懼癥”(fear of missing out, FOMO)驅(qū)動(dòng)的行業(yè)。這個(gè)行業(yè)更是用言過(guò)其實(shí)的驚人報(bào)道,進(jìn)一步加劇了泡沫?!度A爾街日?qǐng)?bào)》(Wall Street Journal)最近發(fā)表了一篇題為《生成式AI已經(jīng)開(kāi)始改變白領(lǐng)工作》(Generative AI Is Already Changing White-Collar Work as We Know It)的文章,文中并未拿出白領(lǐng)工作發(fā)生變化的真憑實(shí)據(jù),而只是給出了商業(yè)領(lǐng)袖對(duì)這項(xiàng)技術(shù)潛在影響的猜測(cè)。與其他給職場(chǎng)人士敲響警鐘的報(bào)告一樣,它援引了OpenAI公司和賓夕法尼亞大學(xué)(University of Pennsylvania)研究人員合作撰寫(xiě)的一篇論文的摘要。這篇論文試圖預(yù)測(cè)有多少工作崗位會(huì)受到這些新軟件系統(tǒng)的影響。
事實(shí)上,這類預(yù)測(cè)一直有失準(zhǔn)確。在最近的一篇文章中,經(jīng)濟(jì)學(xué)教授加里·史密斯(Gary Smith)和退休教授兼技術(shù)顧問(wèn)杰弗里·芬克(Jeffrey Funk)指出,與2016年牛津大學(xué)(Oxford University)和德勤(Deloitte)的研究一樣,OpenAI和賓大的研究也使用了相同的美國(guó)勞工部數(shù)據(jù)庫(kù)。而2016年牛津大學(xué)和德勤的研究就聲稱,到2030年許多工作很可能會(huì)自動(dòng)消失。這兩項(xiàng)研究都試圖先計(jì)算以重復(fù)任務(wù)為主的工作占比,進(jìn)而預(yù)測(cè)其中有多少工作將因技術(shù)變革而流失。既然過(guò)去七年的趨勢(shì)似乎并未證實(shí)2016年研究的預(yù)測(cè),那么現(xiàn)在也沒(méi)有什么理由相信與此類似的預(yù)測(cè)能有多么準(zhǔn)確。
既然過(guò)往預(yù)測(cè)的表現(xiàn)不佳,高管們就必須謹(jǐn)慎行事,在圍繞科技未來(lái)影響的炒作面前,要冷靜思考。團(tuán)隊(duì)需要做到“有憑有據(jù)地懷疑”:不是不假思索、否定式地懷疑,而是嚴(yán)謹(jǐn)科學(xué)地評(píng)估和推理。對(duì)于新科技功效的各種說(shuō)法,要仔細(xì)考察并通過(guò)實(shí)踐來(lái)檢驗(yàn)。與其糾纏于“它會(huì)如何演變”或“它將產(chǎn)生怎樣的影響”之類引起猜測(cè)的問(wèn)題,倒不如從“我們知道什么”以及“有哪些證據(jù)”這種尋找事實(shí)依據(jù)的問(wèn)題入手。對(duì)于技術(shù)的工作原理、預(yù)測(cè)的可靠性如何,以及其他輸出的質(zhì)量,多問(wèn)一些具體的問(wèn)題。
如果信息來(lái)自已知的技術(shù)炒作主體(包括咨詢公司、供應(yīng)商和行業(yè)分析師),企業(yè)領(lǐng)導(dǎo)們必須特別有意識(shí)地進(jìn)行批判性思考。
雖然嘗試使用對(duì)公眾開(kāi)放的生成式AI工具可能既省錢(qián)又有益,企業(yè)還是必須仔細(xì)評(píng)估使用各種新技術(shù)的潛在風(fēng)險(xiǎn)。例如,眾所周知,ChatGPT會(huì)編造虛假信息,包括給正文羅列一堆根本不存在的參考文獻(xiàn)。對(duì)這項(xiàng)技術(shù)的使用有必要加以嚴(yán)格監(jiān)管,尤其是當(dāng)此類生成性AI系統(tǒng)的輸出將提供給客戶,可能導(dǎo)致企業(yè)聲譽(yù)受損時(shí)。如果是在不受監(jiān)管的情況下使用這類系統(tǒng),企業(yè)還面臨著因此造成知識(shí)產(chǎn)權(quán)或敏感信息失控的風(fēng)險(xiǎn)。例如,三星公司(Samsung)的員工就將企業(yè)敏感信息輸入ChatGPT(ChatGPT再使用所提交的信息,去深度訓(xùn)練系統(tǒng)中的模型),無(wú)意中造成了這些數(shù)據(jù)的外泄。我還了解到,有些藝術(shù)家、設(shè)計(jì)師和出版商會(huì)拒絕使用生成式AI,因?yàn)樗赡軗p害自己或客戶的知識(shí)產(chǎn)權(quán)。
考慮到這些潛在風(fēng)險(xiǎn),打算試水生成式AI的企業(yè),應(yīng)該制定基本使用規(guī)則。顯然第一步,就是要求所有在工作中使用這些技術(shù)的員工,對(duì)此做出公開(kāi)聲明。企業(yè)的技術(shù)使用政策也可以設(shè)定一些基本要求,例如要求生成式AI的使用不得違反現(xiàn)有的道德和法律規(guī)范。對(duì)于哪些類型的企業(yè)數(shù)據(jù)可以輸入生成式系統(tǒng),企業(yè)也應(yīng)當(dāng)考慮加以限定。美國(guó)人力資源管理協(xié)會(huì)(The Society for Human Resource Management, SHRM)以及其他一些團(tuán)體最近發(fā)布了職場(chǎng)生成式AI使用指南,企業(yè)領(lǐng)導(dǎo)最好緊跟這些新思潮。
企業(yè)還應(yīng)當(dāng)留意其他一些風(fēng)險(xiǎn)??萍荚u(píng)論人士一直認(rèn)為,企業(yè)部署生成式AI會(huì)導(dǎo)致員工生活質(zhì)量的降級(jí),使他們的人生越來(lái)越艱難。領(lǐng)導(dǎo)者最好確保這種情況不會(huì)發(fā)生,而且要通過(guò)推廣使用這些技術(shù),使員工的生活更輕松、壓力更小、更加人性化。
如果能讓管理者關(guān)注周圍的變化,“錯(cuò)失恐懼癥”和競(jìng)爭(zhēng)壓力也可以起到積極的作用,但管理者不應(yīng)該讓這類焦慮驅(qū)使自己做出非理性的輕率決策。如同尼古拉斯·卡爾(Nicholas Carr)在2004年出版的《IT不再重要》(Does IT Matter?)一書(shū)中描述的那樣,圍繞生成式AI的熱度很可能也會(huì)像對(duì)其他數(shù)字技術(shù)的熱情那樣消退。數(shù)字技術(shù)的采用往往會(huì)在一個(gè)行業(yè)內(nèi)產(chǎn)生短期優(yōu)勢(shì),但隨著這些技術(shù)變得司空見(jiàn)慣——就像文本編輯器、電子表格和客戶關(guān)系管理系統(tǒng)那樣,這些優(yōu)勢(shì)就會(huì)消失。
換句話說(shuō),目前并沒(méi)有證據(jù)表明,謀定后動(dòng)而非一頭扎進(jìn)生成式AI領(lǐng)域,會(huì)導(dǎo)致你們企業(yè)在戰(zhàn)略上落后于人,甚至被徹底顛覆。既然如此,領(lǐng)導(dǎo)者最好還是聚焦于自身業(yè)務(wù)的基本目標(biāo),反問(wèn)道:“這個(gè)系統(tǒng)能幫助我們達(dá)成目標(biāo)嗎?”如果有人說(shuō)會(huì),那就請(qǐng)他們來(lái)證明。
翻譯:徐廣彤