胡泳
今天,在相當(dāng)多的情況下,判斷你是在與人類還是算法進行交互,正在變得越來越困難。決定誰值得信賴,獲取正確的信息,以及閱讀正確的“信任信號”,對人類來說已經(jīng)足夠困難了。但是當(dāng)我們開始將信任外包給算法時,我們?nèi)绾稳ハ嘈潘鼈兊囊鈭D?當(dāng)算法或機器人代表你做出你不同意的決定時,要是產(chǎn)生了意外后果,應(yīng)該責(zé)怪誰?
人工智能要想替人類完成很多讓大家放心的事情,有三個技術(shù)里程碑需要越過。
其一,如何處理有多少人工、就有多少智能的問題。傳統(tǒng)上,人工智能被娛樂業(yè)塑造出一個錯誤的形象,令我們以為它是在沒有人類輸入的情況下可以自如運作的技術(shù)。
現(xiàn)在我們號稱進入了大數(shù)據(jù)時代,然而數(shù)據(jù)多并不意味著質(zhì)量高,沒有標(biāo)注的數(shù)據(jù)可用性非常低。數(shù)據(jù)標(biāo)注是重復(fù)性的工作,但它是大多數(shù)人工智能應(yīng)用的起點。人工智能打著更好地把人從重復(fù)性的工作中解放出來的旗號,但現(xiàn)在存在一個悖論:要先通過人類的大量重復(fù)性工作才能讓機器實現(xiàn)智能。
盡管數(shù)據(jù)標(biāo)注一類的工作會逐漸為人工智能所接手,但放眼未來,人工智能將始終需要人類的投入和專業(yè)知識,從而以符合道德、負(fù)責(zé)和安全的方式充分發(fā)揮其潛力。例如,在社交媒體中,需要人類對算法的極端化予以糾正;在醫(yī)學(xué)上,人類和機器的共同努力將產(chǎn)生比任何一方單獨所能實現(xiàn)的更大效果;在自動駕駛等領(lǐng)域,人工智能的優(yōu)越性是訓(xùn)練的結(jié)果,然而一旦發(fā)生了人工智能未經(jīng)訓(xùn)練而不得不處理的事情,由人工智能驅(qū)動的優(yōu)勢就會被抹去。當(dāng)這種情況發(fā)生,人工智能的處理能力必須讓位于人類的創(chuàng)造力和適應(yīng)能力。
所以,人工智能必須處理好人工與智能的關(guān)系。最終,只要有新的應(yīng)用讓人工智能學(xué)習(xí),有新的任務(wù)讓它掌握,人工智能就始終需要人類的投入。
其二,人工智能必須學(xué)習(xí)如何學(xué)習(xí)。今天可用的大多數(shù)AI技術(shù),都是根據(jù)特定目標(biāo)學(xué)習(xí)或優(yōu)化其活動,因而只能按照所傳授的內(nèi)容進行操作。它們的能力反映了培訓(xùn)的數(shù)據(jù)及其質(zhì)量,以及AI流程的設(shè)計情況。如前所述,通常,仍需要人工處理異常情況。
這意味著AI目前的形勢很狹窄,專門用于特定的應(yīng)用程序,它所遵循的流程和程序是不可遷移的。但是,當(dāng)人工智能開始變得真正聰明并能夠?qū)W習(xí)未被教授的行為時,它會對人類認(rèn)知產(chǎn)生什么影響?在這個本質(zhì)上是加速選擇的過程中,倫理學(xué)的作用是什么?
其三,如何解決“不知之不知”的困局?!安恢恢保║nknown unknown)是前美國國防部長拉姆斯菲爾德在2002年2月回應(yīng)記者提問時的名言。2002年,美國以伊拉克政府擁有大殺傷力武器并支援恐怖分子為由,打算與其開戰(zhàn)。時任國防部部長拉姆斯菲爾德被問及有關(guān)的證據(jù)時,他這樣解釋:“據(jù)我們所知,有‘已知的已知,有些事,我們知道我們知道;我們也知道,有‘已知的未知,也就是說,有些事,我們現(xiàn)在知道我們不知道。但是,同樣存在‘未知的未知—有些事,我們不知道我們不知道?!?/p>
人工智能系統(tǒng)的內(nèi)部工作往往不透明,人類很難理解人工智能學(xué)習(xí)系統(tǒng)如何得出它們的結(jié)論。套用拉姆斯菲爾德的形容,這就是典型的“不知之不知”。所以,人工智能的一個必須克服的技術(shù)挑戰(zhàn)是與人類自己相比的理解差距。為了解決這個問題,設(shè)計者和觀察者已經(jīng)在討論在AI系統(tǒng)中需要一定程度的解釋邏輯,以便檢查錯誤并讓人類學(xué)習(xí)和理解。