隨著科技的飛速發(fā)展,人工智能已經(jīng)深入到我們?nèi)粘I畹拿恳粋€(gè)角落。
從智能家居到自動(dòng)駕駛汽車,人工智能不僅改變了我們的生活方式,還對社會(huì)結(jié)構(gòu)和人類的角色產(chǎn)生了深遠(yuǎn)的影響。在這波技術(shù)浪潮中,我們看到了人工智能極大地提升了人類的生產(chǎn)力,但我們是否真正思考過人類與人工智能的關(guān)系?兩者之間的互動(dòng)是否真的是我們所期望的那樣?
為了尋找問題的答案,領(lǐng)英聯(lián)合創(chuàng)始人里德·霍夫曼做了一次有趣而大膽的嘗試,他與GPT-4進(jìn)行了重度而深入的互動(dòng),并且把兩者的互動(dòng)整理、記錄,最后編輯成了一本名為《GPT時(shí)代人類再騰飛》的書。
這本由人類和人工智能合作完成的書中,霍夫曼分享了自己與GPT-4的對話,包括他所輸入的提示、提出的問題、GPT-4的回應(yīng),以及由此引發(fā)的深入思考和獨(dú)到見解。
“這不是一本詳盡無遺的(介紹人工智能和GPT-4的)書,而更像是一篇游記,事關(guān)一趟非正式的勘探與發(fā)現(xiàn)之旅,”霍夫曼解釋道,“由我和GPT-4在諸多道路中做出選擇?!?/p>
他毫無保留地分享了自己對人工智能未來發(fā)展的愿景。作為技術(shù)界的重要影響者和風(fēng)險(xiǎn)投資家,霍夫曼對人工智能的未來的見解不僅令人啟發(fā),而且對于任何渴望了解人類社會(huì)未來數(shù)字化軌跡的人來說都是必不可少的。
隨著人工智能走進(jìn)我們的生活,一種“人工智能將取代人類大部分工作”的聲音逐漸出現(xiàn),電影和文學(xué)作品也經(jīng)常描繪出一個(gè)由機(jī)器人統(tǒng)治的未來。在ChatGPT發(fā)布后,這種說法似乎得到了進(jìn)一步印證。
不過霍夫曼并不認(rèn)可這種說法。他承認(rèn),雖然某些人類活動(dòng),如駕駛和客服,可能會(huì)因?yàn)榘踩托实脑蚨鼜V泛地自動(dòng)化,但在更多場景下,人工智能是人類的合作伙伴。
現(xiàn)在的商用飛機(jī)就是一個(gè)很好的例子。在飛行的大部分時(shí)間里,這些飛機(jī)都處在自動(dòng)駕駛模式中。但飛行員的角色并沒有因此而被取代,自動(dòng)駕駛軟件提高了飛機(jī)的安全性和效率,而飛行員作為人類的決策能力和隨機(jī)應(yīng)變同樣重要。
在霍夫曼看來,人工智能不是來“取代人類的”,而是像“副駕駛”和“機(jī)器伙伴”一樣輔助人類?!拔也幌雽⑷斯ぶ悄苓^度擬人化,”他表示,“但它將在幫助我們完成各種任務(wù)中發(fā)揮重要作用,從簡單的數(shù)據(jù)檢索到復(fù)雜的決策過程,我們可以通過提問的方式從它身上獲得更多的信息和價(jià)值,就像現(xiàn)在我們遇到不懂的事情,可以去咨詢朋友和同事一樣?!?/p>
這可以讓人類變得更強(qiáng)大,開辟新的前景。
人類進(jìn)化和技術(shù)進(jìn)步是深深地交織在一起的。從發(fā)明輪子到互聯(lián)網(wǎng)的誕生,每一個(gè)重大的技術(shù)飛躍都是人類聰明才智和適應(yīng)能力的結(jié)晶。汽車、火車、輪船,這些交通工具改變了我們與空間互動(dòng)的方式,拓展了人類的能力,而人工智能也將扮演類似的角色。
“人工智能就像是心智的蒸汽機(jī)(注:蒸汽機(jī)的發(fā)明開啟了第二輪工業(yè)革命,因此這句話的引申含義是,人工智能對于心智來說是革命性的),它將幫助我們更好地完成許多我們正在做的事情,人類的能力會(huì)被放大,”霍夫曼說道。
因此,人工智能的到來,可能會(huì)讓一些工作被取代,但更多的工作將轉(zhuǎn)型和增加。
霍夫曼認(rèn)為,被改變的工作將是那些涉及到“信息處理”和“信息生成”的工作。這里的“信息”不單單是文字信息或代碼,而是與“決策”有關(guān)的信息。例如,通過文字需求繪制圖片,根據(jù)癥狀開具處方等。
至于那些會(huì)被創(chuàng)造出來的新職業(yè),除了提示工程師(prompt engineer)之外,我們可能還要再等等才能看。但霍夫曼對此持樂觀態(tài)度。
我們看到了人工智能的好處,但也不能忽略它的應(yīng)用和普及所帶來的挑戰(zhàn)。
圍繞人工智能的最緊迫的關(guān)注點(diǎn)之一是偏見,它們主要來自于訓(xùn)練模型所用的數(shù)據(jù)。對此,霍夫曼提出了一個(gè)有趣的解決方案:使用人工智能來訓(xùn)練其他人工智能系統(tǒng)以減少偏見。通過設(shè)定特定的規(guī)則并使用人工智能來確保這些規(guī)則得到貫徹,或許可以更有效地減少模型中固有的偏見。這樣一來,對偏見的糾正就不僅僅停留在人為的干預(yù),而且人工智能可以花費(fèi)相當(dāng)于人類數(shù)百年的時(shí)間來確保偏見得到處理。
另一個(gè)挑戰(zhàn)是數(shù)據(jù)隱私?;舴蚵J(rèn)為,我們要區(qū)分?jǐn)?shù)據(jù)量和數(shù)據(jù)性質(zhì)之間的區(qū)別。盡管人工智能模型需要大量的數(shù)據(jù),但它不一定必須使用私人或敏感信息。他認(rèn)為,隨著用戶從人工智能中看到切實(shí)存在的好處,他們將更愿意分享數(shù)據(jù),前提是他們的隱私不會(huì)受到威脅。
ChatGPT和GPT-4只是生成式人工智能的用例之一,類似的還有Stable Diffusion和Midjourney等圖像生成工具,這些工具引發(fā)了關(guān)于知識產(chǎn)權(quán)問題的爭論。
在霍夫曼看來,這些來自藝術(shù)家和作家的主張更具挑戰(zhàn)性:關(guān)于他們的作品被用來訓(xùn)練人工智能模型的擔(dān)憂,本質(zhì)上是他們“可能誤解了模型的工作原理”。他指出,用于訓(xùn)練的數(shù)據(jù)量之大使得任何單一作品的貢獻(xiàn)都是微不足道的。
“GPT用了1.4萬億個(gè)單詞進(jìn)行訓(xùn)練,然后它抓取了我發(fā)在公開網(wǎng)絡(luò)上的10萬字,那我該按比例獲得補(bǔ)償嗎?”他解釋道,“我這10萬字對模型的貢獻(xiàn)不僅很小,更重要的是它難以量化。”
一個(gè)潛在的解決方案是,讓模型訓(xùn)練借鑒搜索引擎的數(shù)據(jù)抓取,創(chuàng)作者可以選擇是否將他們的作品包括在人工智能訓(xùn)練數(shù)據(jù)集中,比如打上不可收錄的版權(quán)標(biāo)簽。
最后一個(gè)要重視的挑戰(zhàn)是人工智能幻覺。這些幻覺本質(zhì)上是人工智能輸出的內(nèi)容存在事實(shí)性錯(cuò)誤。在霍夫曼著書的過程中,他也不止一次地遇到過這個(gè)問題。
“想用好GPT-4這類的工具,就要探索、試驗(yàn)和學(xué)習(xí),不斷地重復(fù)使用。如果答案不滿意,就改進(jìn)提示再試一次,”他表示。
霍夫曼對未來持樂觀態(tài)度。他相信,隨著人工智能模型的演變和進(jìn)化,它們的準(zhǔn)確性將得到提高。目前科技公司嘗試的辦法,比如整合搜索結(jié)果和其他數(shù)據(jù)來源,也可以進(jìn)一步增強(qiáng)人工智能生成內(nèi)容的可靠性。
霍夫曼強(qiáng)調(diào),包括人工智能在內(nèi)的技術(shù),從來就不是中立的,本質(zhì)上包含價(jià)值觀。開發(fā)者在塑造這些價(jià)值觀中起到了關(guān)鍵作用。為確保人工智能與人類的價(jià)值觀和福祉保持一致,霍夫曼建議采取多方面的方法。
首先是清晰的溝通,開發(fā)者應(yīng)明確闡述指導(dǎo)他們?nèi)斯ぶ悄芄ぞ叩膬r(jià)值觀和原則;其次是保證質(zhì)量,定期進(jìn)行測試,以確保這些價(jià)值觀得到一致的維護(hù);最后是建立反饋渠道,與用戶、企業(yè)和政府的開放溝通渠道可以提供寶貴的反饋,確保人工智能與社會(huì)需求保持一致。