5月6日,“股神”巴菲特與搭檔芒格再次舉辦一年一度的伯克希爾-哈撒韋股東大會(huì)。這場(chǎng)大會(huì)創(chuàng)紀(jì)錄地持續(xù)了五個(gè)半小時(shí),其間巴菲特與芒格回答了大量當(dāng)下的熱門(mén)議題。以下是巴菲特關(guān)于銀行業(yè)危機(jī)、人工智能(AI)、中美關(guān)系的見(jiàn)解。
關(guān)于銀行危機(jī):“現(xiàn)在銀行的一些情況,在所有的銀行界其實(shí)都是這樣,非常類(lèi)似,好像還具有傳染性……美國(guó)錯(cuò)了,我們的國(guó)家常常幫這些銀行做一些相反的事情,所有的銀行家都想變富的話(huà),對(duì)我們來(lái)說(shuō)不是一個(gè)好事。銀行的這些人更應(yīng)該像工程師,他們不應(yīng)該只是受變富的想法驅(qū)使,這樣他們會(huì)不停地犯錯(cuò)?!?/p>
關(guān)于AI:“AI可以做非常多的事情,這讓我反而有一些擔(dān)憂(yōu),因?yàn)槲矣X(jué)得我們沒(méi)有辦法完全掌控它……當(dāng)你開(kāi)始一項(xiàng)新技術(shù)時(shí),之前愛(ài)因斯坦就提過(guò),它可能會(huì)改變?nèi)澜纭N乙蚕胝f(shuō),在人工智能的這個(gè)部分,它可以改變?nèi)虻拿婷?,卻改變不了人的思想和行為?!?/p>
關(guān)于中美關(guān)系:“我們現(xiàn)在需要把事情做對(duì),我們不能玩這種零和博弈的游戲……中國(guó)將會(huì)變成更好、更棒的國(guó)家,美國(guó)也可以如此。這兩個(gè)國(guó)家在以后的這么多年,不應(yīng)該繼續(xù)再有敵對(duì)的一些現(xiàn)象,兩國(guó)的一些領(lǐng)導(dǎo)的工作都非常重要,要了解彼此,而不要做彼此損傷和破壞的事情。”
這么說(shuō)吧,我們不需要每個(gè)市場(chǎng)都去發(fā)明自己的燈泡。
——麥當(dāng)勞CEO Chris Kempczinski在第一季度業(yè)績(jī)電話(huà)會(huì)上提出,麥當(dāng)勞要成為一個(gè)“創(chuàng)新的創(chuàng)業(yè)組織”,一旦系統(tǒng)的某個(gè)部分解決了一個(gè)問(wèn)題,或誕生了一個(gè)新穎的想法,那么其他地方就應(yīng)該停止,以避免重復(fù)勞動(dòng)。
我用一個(gè)正常的理由安慰自己:如果我沒(méi)做,也會(huì)有別人這么做的。我很難想象如何才能阻止作惡者用AI做壞事。
——5 月1日,《紐約時(shí)報(bào)》報(bào)道了Google前副總裁Geof frey Hinton離職的消息。Hinton是圖靈獎(jiǎng)得主,被稱(chēng)為AI之父。他告訴《紐約時(shí)報(bào)》,離職是為了“更自由地談?wù)撊斯ぶ悄艿娘L(fēng)險(xiǎn)”。
他在采訪中提到,擔(dān)心互聯(lián)網(wǎng)將被虛假照片、視頻和文本淹沒(méi),普通人無(wú)法辨別什么是真實(shí),AI還會(huì)顛覆就業(yè)市場(chǎng),甚至對(duì)人類(lèi)構(gòu)成威脅。
預(yù)計(jì)在未來(lái)幾個(gè)月將出現(xiàn)具有增溫效應(yīng)的厄爾尼諾現(xiàn)象,這將與人類(lèi)引發(fā)的氣候變化相結(jié)合,將全球溫度推向未知的領(lǐng)域,對(duì)衛(wèi)生健康、糧食安全、水資源管理和環(huán)境產(chǎn)生深遠(yuǎn)影響。我們需要做好準(zhǔn)備。
——語(yǔ)出自世界氣象組織(WMO)秘書(shū)長(zhǎng)佩特里·塔拉斯。5月17日,WMO發(fā)布的最新通報(bào)稱(chēng),在吸熱性溫室氣體和自然發(fā)生的厄爾尼諾現(xiàn)象的共同推動(dòng)下,未來(lái)5年全球溫度可能會(huì)飆升至創(chuàng)紀(jì)錄的水平?!斑@份報(bào)告并不是說(shuō)我們將永久超過(guò)《巴黎協(xié)定》規(guī)定的1.5℃水平,該協(xié)定是指多年的長(zhǎng)期變暖。然而,WMO在敲響警鐘,即我們將暫時(shí)突破1.5℃的水平,而且頻率越來(lái)越高?!彼拐f(shuō)。
OpenAI相信AI的監(jiān)管至關(guān)重要,我們迫切希望幫助政策制定者決定如何促進(jìn)平衡的激勵(lì)措施和安全監(jiān)管,同時(shí)確保人們能夠獲得技術(shù)帶來(lái)的好處。
——5月16日,OpenAI CEO薩姆·阿爾特曼出席了美國(guó)國(guó)會(huì)舉行的關(guān)于人工智能監(jiān)管的聽(tīng)證會(huì)。他提議,應(yīng)該由一個(gè)新的監(jiān)管機(jī)構(gòu)實(shí)施保障措施,以阻止可能“自我復(fù)制和自我出逃”的人工智能模型。