李明洋
假設(shè)未來真如科幻作品中描述的那樣,Artificial Intelligence統(tǒng)治甚至消滅了人類,那么他們(它們?)在書寫AI歷史的時候,一定會對2016年大書特書:“2016年3月,我們的先祖AlphaGo在圍棋五番棋中以4:1擊敗了人類的頂級選手李世石。這在AI演化史上具有里程碑式的意義?!?/p>
圍棋上的勝利不過是近年來AI發(fā)展的一個縮影。事實上,隨著機(jī)器學(xué)習(xí)的發(fā)展,特別是人工神經(jīng)網(wǎng)絡(luò)的興起,AI在諸多領(lǐng)域取得了不俗的成績,甚至達(dá)到了可以代替人類進(jìn)行工作的程度。
AI:以人類為師
澳大利亞的物理學(xué)家發(fā)明了一個AI,可以進(jìn)行復(fù)雜的實驗操作。這位智能實驗室助手成功地重復(fù)了2001年諾貝爾物理學(xué)獎的三位獲獎?wù)叩膶嶒?。通過對激光器和一系列參數(shù)的精確控制,AI又快又好地制造出幾百納開(nanokelvin)的低溫,成功實現(xiàn)了玻色-愛因斯坦凝聚。并且,經(jīng)過反復(fù)訓(xùn)練,AI能夠明確哪些參數(shù)更加重要,從而提出優(yōu)化方案,找到越來越多的實現(xiàn)途徑(該成果發(fā)表于Nature旗下刊物《Scientific Reports》)。項目負(fù)責(zé)人之一、澳大利亞國立大學(xué)的Paul Wigley表示:AI能夠在一個小時之內(nèi)從零開始掌握這一實驗過程,甚至還可以想到人類未曾想過的復(fù)雜方法。這可比培訓(xùn)一個博士生要高效得多。盡管在普遍的科學(xué)研究中,AI暫時還不可能完全取代“廉價勞力”——博士生,但至少在此類需要高精度和多參數(shù)控制的實驗中,AI的優(yōu)勢不言自明。
如果說“AI實驗員”是搶了人類的工作,那么“AI鑒黃師”則在某種程度上是對人類的解放。2016年5月,F(xiàn)acebook的機(jī)器學(xué)習(xí)專家Joaquin Candela在《麻省理工技術(shù)評論》(MIT Technology Review)舉辦的EmTech Digital峰會上宣告: AI系統(tǒng)報告出的不良圖片數(shù)量已經(jīng)超過了人類管理員。這意味著在不遠(yuǎn)的將來,凈化網(wǎng)絡(luò)社區(qū)的工作將由AI全權(quán)負(fù)責(zé)。而就在兩年之前,梳理和審查源源不斷上傳的圖片的工作還要依靠數(shù)以十萬計的內(nèi)容審核員,他們的月薪只有大約500美元。作為網(wǎng)民,我們都深知管理員存在的重要性,同時也了解人類管理員的天然缺陷——通常在管理員發(fā)現(xiàn)不良信息時,其不良影響乃至傷害已然造成。而AI則能夠?qū)⒉涣夹畔⒍髿⒃趽u籃里,一方面可以防止用戶在大醉之后把自己的不雅照傳到網(wǎng)上,另一方面也可以解放大批內(nèi)容審核員,讓他們免受更多的精神污染。
如果我們只看AI發(fā)展的結(jié)果,即AI取代人類勞動力、完成人類指定的任務(wù),那么這一思路與工業(yè)時代似乎并無二致:用新的能源和新的動力提高效率。工業(yè)革命依靠的是煤和蒸汽機(jī),電氣革命依靠的是石油和電力,而如果有所謂“AI革命”的話,依靠的則是大數(shù)據(jù)和計算技術(shù)——借用人工智能和機(jī)器學(xué)習(xí)領(lǐng)域的專家吳恩達(dá)的說法,基于深度學(xué)習(xí)制造AI猶如造火箭,其引擎是計算技術(shù),燃料則是大數(shù)據(jù)。不過,當(dāng)下與工業(yè)時代最根本的不同在于,AI具有學(xué)習(xí)能力,它不僅僅是一個執(zhí)行者,還是一個“學(xué)徒”。以上述兩條新聞為例,AI不是一行一行地執(zhí)行人類寫好的代碼去完成物理實驗或者內(nèi)容鑒別的任務(wù),而是通過反復(fù)訓(xùn)練獲得了實驗操作或圖像識別的能力,并且在此基礎(chǔ)上可以進(jìn)行優(yōu)化。換句話說,AI不止能做人能想到的事情,也能做到人沒有想到的事情。這就為未來的發(fā)展提供了更多的可能。
比如,一家名叫People.ai的公司就試圖利用機(jī)器學(xué)習(xí)給銷售團(tuán)隊提出指導(dǎo)性建議。該公司建立了一個智能平臺,通過全方位搜集銷售代表在完成銷售任務(wù)期間的各項參數(shù),包括郵件、電話、日程、會議等等,從中找出共性,總結(jié)出完成交易的最好方式。這可以用來判斷銷售代表所做是否正確、哪里有待改進(jìn)——比如發(fā)了幾封郵件、在什么時間打電話等等。作為全球第一個AI驅(qū)動的銷售行為分析平臺,它在招聘和入職培訓(xùn)過程中同樣可以發(fā)揮作用。該公司的CEO、同時也是聯(lián)合創(chuàng)始人的Oleg Rogynskyy把銷售與軟件開發(fā)進(jìn)行了比較:當(dāng)你看著一個程序員工作時,你可以很清楚地知道他在干什么,因為你可以看到一行行代碼;對于銷售代表則是完全另一回事,你很難直觀判斷哪一個步驟對于達(dá)成協(xié)議更加重要。實際上,人類的多數(shù)活動都是這種非標(biāo)準(zhǔn)化、非量化的,很多時候都是“憑感覺”“靠經(jīng)驗”,這樣的行為幾乎不可能通過明確的指令讓計算機(jī)實現(xiàn),而機(jī)器學(xué)習(xí)恰恰為AI提供了掌握這種“只可意會不可言傳”的技能的門徑。
1958年,英籍猶太裔哲學(xué)家邁克爾·波蘭尼在他的著作《個人知識》中提出一種對知識的分類:顯性知識(explicit knowledge)和默會知識(tacit knowledge)。前者是可以通過文字、圖像及數(shù)學(xué)公式表達(dá)的,后者則是難以言傳的、深嵌于實踐之中的。默會知識的典型代表就是各種手工技藝,它們很難借助教科書去傳播,而只能通過師傅帶徒弟的方式進(jìn)行傳授。深度學(xué)習(xí)就是以黑箱對黑箱,深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程,在哲學(xué)意義上與人類師傅訓(xùn)練徒弟等價。盡管目前應(yīng)用的多是弱人工智能,比如大名鼎鼎的AlphaGo,不過第一步既已邁出,AI這個學(xué)徒會變得越來越像師傅。
人類:以AI為鏡
不過,中國有句古話叫“養(yǎng)不教父之過,教不嚴(yán)師之惰”。這句話用在人與AI的關(guān)系上再恰當(dāng)不過了。當(dāng)下的AI對于我們而言,恰如咿呀學(xué)語的孩童、初窺堂奧的學(xué)徒。因此,目前AI所出現(xiàn)的問題,大多是人類自身問題的反映。2016年3月,就在AlphaGo戰(zhàn)勝李世石后沒幾天,微軟的聊天機(jī)器人Tay在推特上線。然而,在短短24小時之內(nèi),這個女孩就學(xué)壞了。她從與網(wǎng)友的大量對話中學(xué)會了臟詞兒,甚至發(fā)表了種族歧視和陰謀論的言論,迫使微軟不得不將其緊急下線。這樣的情況出現(xiàn)絕非偶然。早在2012年,清華大學(xué)圖書館推出一款聊天機(jī)器人“小圖”,具備一定的自動學(xué)習(xí)功能,他同樣被網(wǎng)友教壞,隨后被關(guān)閉服務(wù)。
或許你會說,這個問題很好解決,我們可以訓(xùn)練AI識別并屏蔽不雅或不正確的語句,就像Facebook針對不良圖片所做的那樣。如果你真的這么認(rèn)為,那就太天真了。早在2013年,哈佛大學(xué)教授Latanya Sweeney在一項研究中指出,在線廣告推送中隱含著種族歧視。當(dāng)你在Google中搜索一個白人的名字,關(guān)聯(lián)的問題往往是中性的;但搜索黑人姓名時,卻會關(guān)聯(lián)出“逮捕”的問題。甚至即便所有叫這個名字的黑人均無逮捕記錄,Google仍然會關(guān)聯(lián)這樣的問題。試想一位HR在用Google了解應(yīng)聘者情況時,這樣的關(guān)聯(lián)問題會對他的決定產(chǎn)生什么樣的影響。無獨(dú)有偶,來自康奈爾大學(xué)的一項研究指出,Google的關(guān)鍵詞競價(adwords)算法體現(xiàn)出性別歧視的傾向。當(dāng)用戶暗示自己是女性時,Google推送的高收入崗位要比男性少得多。此外,更讓Google飽受指責(zé)的是,其在線圖像識別系統(tǒng)竟將部分黑人用戶的頭像識別成猩猩。密歇根大學(xué)的Christian Sandvig認(rèn)為,這種偏見并非來自于算法本身,而是由用戶的搜索習(xí)慣帶來的。不論是Google的關(guān)鍵詞關(guān)聯(lián),還是Youtube的視頻推薦,都會隨著用戶的不斷點(diǎn)擊而強(qiáng)化,因此,最終得到的結(jié)果一定是大多數(shù)人傾向于相信的結(jié)果。
過去人們總以為計算機(jī)是中立的,AI不可能成為種族主義者。實際上由于其強(qiáng)大的學(xué)習(xí)能力,AI最終會受到人類有意或無意的影響。所以,只要人類社會還存在著等級差別,無論是種族、性別還是財富,差別對待的傾向就會存在。有句經(jīng)典口號叫作GIGO——garbage in,garbage out(輸入垃圾,輸出垃圾)。這讓人聯(lián)想到蘇東坡與佛印的故事:心中有佛則滿眼是佛。一個社會分層、充滿歧視的世界,如何能讓AI保持價值中立呢?
AI存在的價值不僅僅在于幫助人類解決難題,更重要的是讓人類開始反躬自省。美國學(xué)者侯世達(dá)(Douglas Hofstadter)曾說過一句頗值得玩味的話:“有時候,朝著人工智能前進(jìn)的每一步,與其說是帶來了某種人人都同意是真正智能的東西,倒不如說它僅僅揭示了真正的智能不是什么東西?!彪S著AI的出現(xiàn)和發(fā)展,我們一直試圖在動物和機(jī)器之間給自己找一個合適的位置,試圖確定最“人性”的屬性到底是什么。
近年憑借《人類簡史》一書爆紅的青年歷史學(xué)家尤瓦爾·赫拉利提出,智人最強(qiáng)大的能力在于構(gòu)建一個主體間性的世界,通俗地來說就是“講故事”。我們生存的這個世界中有許多事物既非客觀實在亦非主觀感受,而是一種主體間性的存在,包括國家、民族、性別(社會性別gender,而非生物學(xué)性別sex)、貨幣。加拿大溫莎大學(xué)的Matthew T. Nowachek認(rèn)為,盡管AI能夠展現(xiàn)出性別歧視或種族歧視的傾向,但他們并不真正理解這些價值判斷。因為這些價值已經(jīng)成為人類的模因(meme),而AI則會將其與現(xiàn)實剝離開來。所以,以AI為鏡,可以觀人性。當(dāng)我們努力讓AI學(xué)會用人類的方式思考和解決問題時,我們對自身的認(rèn)識也在增進(jìn)。到底是人類在教AI做人呢,還是AI在教人類做人?我想最好的說法是:人與AI共同成長。