人工智能正在推動所有科學(xué)領(lǐng)域的進步。但四位前沿領(lǐng)域的科學(xué)家警告說,
要審慎使用人工智能。
人工智能(AI)的快速發(fā)展為科學(xué)進步提供了巨大潛力,但同時也引發(fā)了倫理問題。人工智能系統(tǒng)不僅可以分析龐大的數(shù)據(jù)集、檢測相關(guān)模式、優(yōu)化資源配置并生成假設(shè),可能還有助于人們應(yīng)對氣候變化、糧食安全和疾病等全球性挑戰(zhàn)。然而,人工智能的使用也引發(fā)了與公平、偏見、歧視、透明度、問責(zé)和隱私有關(guān)的問題。圖像生成式人工智能程序可能會延續(xù)并放大這種偏見,例如將“非洲”一詞與貧困聯(lián)系起來,或?qū)ⅰ柏毟F”與深膚色聯(lián)系起來。此外,一些科技巨頭未能披露他們系統(tǒng)中的一些重要信息,這妨礙了用戶在問責(zé)方面的努力。
來自不同國家的四位研究者就人工智能在科學(xué)研究中的重大前景和潛在陷阱發(fā)表了看法。他們討論了獲得準(zhǔn)確代表整個人群的數(shù)據(jù)集的必要性,以及理解人工智能工具局限性的重要性。非洲的專家警告說,人工智能系統(tǒng)應(yīng)該惠及所有人,而不是進一步加劇富裕國家和貧窮國家之間的不平等。
羅斯 · 金:善用人工智能,堅持高道德標(biāo)準(zhǔn)
自1983年以來,我就在人工智能領(lǐng)域工作,當(dāng)時我在榮譽學(xué)位論文項目中利用計算機模擬微生物生長。人工智能的潛力讓我深受鼓舞,因此我?guī)椭M織了“圖靈人工智能科學(xué)家大挑戰(zhàn)”,這是一項旨在開發(fā)出到2050年能夠產(chǎn)生諾貝爾獎級別研究成果的人工智能系統(tǒng)的倡議??萍歼M步給人類社會帶來巨大變革:如今數(shù)十億人在生活水平上都超過了歷史上的英國君主,享有更優(yōu)質(zhì)的食物和醫(yī)療服務(wù),以及更便捷的全球旅行和數(shù)字通信。但是,我們?nèi)匀幻媾R諸如氣候變化、流行病和極端貧困等重大問題。
在我的人工智能職業(yè)生涯中,我一直試圖讓科學(xué)變得更加高效。2009年,我和同事們制造了一個名為亞當(dāng)(Adam)的機器人科學(xué)家,它是第一個可以進行酵母基因組學(xué)自動化研究的機器人。2015年,我們推出了夏娃(Eve),它是亞當(dāng)?shù)母牧及?,實現(xiàn)了早期藥物設(shè)計的自動化,尤其關(guān)注被忽視的熱帶疾病。我們證明了人工智能技術(shù)能夠顯著降低開發(fā)成本,這種方法目前已在制藥行業(yè)得到廣泛應(yīng)用。夏娃發(fā)現(xiàn),三氯生(牙膏中的一種常見成分)是一種強效抗瘧疾藥物。
只是在最近幾年,才有人真正開始關(guān)注人工智能可能帶來的倫理后果。然而,這已經(jīng)有點為時過晚。如果“圖靈挑戰(zhàn)”取得成功,我們將擁有能夠改變科學(xué)但又具有潛在危險的智能體。這促使我們一群人在2023年的一次挑戰(zhàn)研討會上起草了《斯德哥爾摩人工智能科學(xué)宣言》。我們與其他簽署方共同承諾,會將人工智能用于造福人類的科學(xué)研究,并確認(rèn)人工智能應(yīng)有助于應(yīng)對全球氣候變化和糧食安全等重大挑戰(zhàn)。我們還認(rèn)識到,有必要進行嚴(yán)格的監(jiān)督和問責(zé),并建立安全防護措施,防范潛在的濫用行為。我們希望這份宣言能提高公眾對使用人工智能的隱患的認(rèn)識。例如,避免偏見和歧視至關(guān)重要。如果訓(xùn)練數(shù)據(jù)不能覆蓋整個人群,那么系統(tǒng)就無法做出準(zhǔn)確的普適性推斷。
同樣,我們應(yīng)當(dāng)警惕人工智能系統(tǒng)可能會得出錯誤結(jié)論。以美國監(jiān)獄中關(guān)押的人為例,歷史上黑人的監(jiān)禁率遠(yuǎn)高于白人,這與美國系統(tǒng)性的種族主義傳統(tǒng)有關(guān)。顯然,這種差異并非生物學(xué)因素所致,但一個僅基于監(jiān)禁統(tǒng)計數(shù)據(jù)集進行訓(xùn)練的人工智能系統(tǒng)可能會得出錯誤的推斷,認(rèn)為這與生物學(xué)有關(guān)。因此,我們要非常小心,不能輕信大型語言模型所說的一切,而應(yīng)審慎檢查其輸出結(jié)果。在科學(xué)研究中,你仍需為自己的工作負(fù)責(zé),不能簡單地推卸責(zé)任說,“人工智能告訴我這么做的”。
我認(rèn)為使用人工智能來處理數(shù)據(jù)、生成假設(shè)或提出實驗建議并沒有什么倫理上的問題。它只是一種工具。歸根結(jié)底,你的良知才是你的向?qū)А?/p>
蘇萊什 · 文卡塔蘇布拉曼尼安:了解人工智能工具的局限性
在2013年的一次休假中,我開始從宏觀角度思考人工智能,并問自己:“如果我們在全世界范圍內(nèi)使用機器學(xué)習(xí),會發(fā)生什么?我們?nèi)绾沃肋@些系統(tǒng)在做它們應(yīng)該做的事情?”現(xiàn)在,我專注于研究自動化決策系統(tǒng)對社會的影響,特別是在算法公平性方面。算法不公平是指決策算法根據(jù)我們認(rèn)為不應(yīng)起作用的特征作出決策的情況。例如,一家科技公司用于招聘決策的算法可能會傾向于選擇男性而非女性。
2021年,我應(yīng)邀擔(dān)任白宮科技政策辦公室負(fù)責(zé)科學(xué)與司法事務(wù)的助理主任,并參與起草了美國首個《人工智能權(quán)利法案》藍圖。這份文件提出了五個核心原則來保護個人權(quán)益,其中包括保護數(shù)據(jù)隱私和避免算法歧視。它與科學(xué)家息息相關(guān),特別是當(dāng)他們在研究中應(yīng)用人工智能影響公民權(quán)利時,可能會影響到個人發(fā)展或獲得服務(wù)的機會。例如,作為一名生物醫(yī)學(xué)研究者,您可能正在開發(fā)醫(yī)療設(shè)備或設(shè)計治療方案,這些都會影響人們的生活以及他們在社會中發(fā)揮作用的能力。
《人工智能權(quán)利法案》將為人工智能從業(yè)者提供更具體的建議。我們在人工智能工具的能力和局限性方面需要有更好的指導(dǎo)。要知道,所有工具都有局限性。除非你別無選擇,否則你不會用螺絲刀去釘釘子。
公眾關(guān)于人工智能的討論大多停留在較宏觀的層面上,這樣的討論并沒有實際幫助。研究者們需要更加明確地關(guān)注人的需求,否則就無法真正理解他們開發(fā)的工具對社會產(chǎn)生的廣泛影響。比如,開發(fā)一種復(fù)雜而公平的評估工具來預(yù)測哪些人最不可能按時出庭,然后特別關(guān)注這些人,這種做法可能還不如直接給每個人發(fā)開庭日提醒信息來得有效。
在布朗大學(xué),我領(lǐng)導(dǎo)著“技術(shù)責(zé)任中心”。我們思考的一件事便是如何讓廣大研究人員了解人工智能的能力邊界。
我們可以使用ChatGPT來為文章提供標(biāo)題創(chuàng)意嗎?當(dāng)然可以。我們能通過聊天機器人獲得問題的準(zhǔn)確答案嗎?目前還不行,但請繼續(xù)關(guān)注。我們能依賴人工智能制定改變?nèi)松闹卮鬀Q策嗎?幾乎可以肯定這是行不通的,至少在沒有重大保護措施的情況下是不行的。目前,我們正處于炒作人工智能的階段,很少有人討論這些工具的局限性。但重要的是,我們需要對此有一個全面的認(rèn)識,了解這些工具適合做什么、不適合做什么。
尼亞倫 · 穆羅西:高效且合乎道德的人工智能需要有代表性數(shù)據(jù)
2016年,我為南非科學(xué)與工業(yè)研究委員會做過一個數(shù)據(jù)科學(xué)項目——利用社交媒體數(shù)據(jù)來了解當(dāng)年地方選舉中的政治趨勢和情緒。很明顯,大部分討論都是由城市里的富裕選民主導(dǎo)的。我們沒有農(nóng)村居民的聲音,而且老年人以及低收入群體在其中的比例也不高。我們還意識到,我們可以獲取人們不一定愿意主動提供的信息,比如他們的位置或關(guān)于家庭和朋友的細(xì)節(jié)。這些關(guān)于公平和隱私的問題都暴露了出來。這讓我對數(shù)據(jù)的代表性產(chǎn)生了濃厚的興趣:也就是說,哪些人被包含在數(shù)據(jù)集中,以及他們是如何被呈現(xiàn)的。
在非洲,數(shù)據(jù)代表性真的很重要。在驅(qū)動人工智能聊天機器人的大型語言模型中,大多數(shù)非洲語言的資源非常少,所以這些模型在執(zhí)行諸如語言識別和翻譯等任務(wù)時表現(xiàn)不佳。一個典型的例子是在2024年國際計算語言學(xué)協(xié)會北美分會上發(fā)表的一篇論文。這篇論文顯示,當(dāng)用于在特定數(shù)據(jù)集中識別517種非洲語言時,ChatGPT的平均準(zhǔn)確率只有5%,但它卻能夠在77%的時間里識別出英語。人工智能需要靠歷史數(shù)據(jù)進行訓(xùn)練,但由于這些人工智能系統(tǒng)沒有非洲國家的數(shù)據(jù),因此并不適用于我們。開發(fā)者實際上還沒有“看到”我們。
當(dāng)非洲的人工智能開發(fā)者拿到這些性能不佳的系統(tǒng)時,我們會迅速進入我們的社區(qū),開始構(gòu)建數(shù)據(jù)集。我們與這些系統(tǒng)互動,并對其進行修正,系統(tǒng)也在不斷地學(xué)習(xí)。最理想的情況是,我們能讓這些系統(tǒng)為我們工作,但由于我們并不擁有這些系統(tǒng)背后的公司,所以我們實際上是在無償?shù)刈鲞@些工作。
因此,我們應(yīng)該將資源集中在本土的研究人員和開發(fā)者身上,這樣我們才能開發(fā)出自己的系統(tǒng)。然后,我們就能使用自己的正確性衡量標(biāo)準(zhǔn),并納入有意義的數(shù)據(jù)。Masakhane(祖魯語意為“我們共同建設(shè)”)是非洲最大的語言模型構(gòu)建社區(qū)之一,現(xiàn)在已經(jīng)構(gòu)建了多個基準(zhǔn)數(shù)據(jù)集,許多其他本地語言工具都是基于這些數(shù)據(jù)集開發(fā)的。
人工智能的另一個問題是,它可能會輸出社會無法接受的結(jié)果,比如谷歌照片應(yīng)用將兩個黑人標(biāo)記為大猩猩?,F(xiàn)在,谷歌通過從他們的數(shù)據(jù)集中刪除“大猩猩”這個標(biāo)簽,創(chuàng)建了永遠(yuǎn)不會再犯這種錯誤的系統(tǒng)。當(dāng)然,對于我們研究界來說,這可能并不是最佳解決方案,但它表明這種錯誤在美國是多么難以容忍。開發(fā)者和公司會將自己的身份、文化和政治觀點嵌入到他們的系統(tǒng)中。這就是為什么在當(dāng)?shù)貥?gòu)建人工智能系統(tǒng)很重要,因為我們知道自己對什么敏感,以及什么對我們的社區(qū)有意義。
我和我的人工智能開發(fā)者同事們認(rèn)為,作為非洲人,我們需要學(xué)習(xí)足夠的知識來為自己開發(fā)這些技術(shù)。于是,在2017年,我們成立了非營利組織“深度學(xué)習(xí)Indaba”,旨在加強非洲的機器學(xué)習(xí)和人工智能。起初,我們只是舉辦了一個暑期班,讓人們來學(xué)習(xí)機器學(xué)習(xí)的基礎(chǔ)知識。如今,這個組織做的事情要多得多。我們的目標(biāo)是讓非洲人不僅成為人工智能進步的觀察者和接受者,還要成為這些進步的積極塑造者和擁有者。我們了解我們的問題,并且擅長解決它們。
塞迪納 · 恩迪亞耶:防止非洲遭受人工智能驅(qū)動的殖民化
攻讀博士學(xué)位期間,我在法國圖盧茲的國家農(nóng)藝研究所工作,研究如何使用人工智能優(yōu)化冬小麥的種植。在非洲,人工智能可以發(fā)揮巨大的積極作用,特別是與聯(lián)合國的17個可持續(xù)發(fā)展目標(biāo)聯(lián)系起來考慮時尤為明顯。這些目標(biāo)要求我們共同努力解決貧困、饑餓、疾病和環(huán)境惡化等問題。人工智能在農(nóng)業(yè)、健康和教育等領(lǐng)域取得的進展意味著它已經(jīng)有可能應(yīng)用于解決非洲的許多常見問題。人工智能也為加強對非洲多樣性文化的認(rèn)同開辟了廣闊的前景。非洲人工智能界的人們已經(jīng)感受到了制作非洲特色內(nèi)容的熱情,這些內(nèi)容可以與世界其他地區(qū)分享。我們也看到了由非洲人主導(dǎo)的非洲語言人工智能系統(tǒng)。
獲得博士學(xué)位后,我聯(lián)系了以前在塞內(nèi)加爾大學(xué)的本科同學(xué)和教授,提出我們應(yīng)創(chuàng)辦信息技術(shù)公司的想法,來確保我們在這一領(lǐng)域的主權(quán),而不僅僅是進口產(chǎn)品的消費者。我們創(chuàng)建了幾家信息技術(shù)教育和軟件開發(fā)公司,包括SeySoo,該公司在塞內(nèi)加爾、加蓬、布基納法索和法國提供信息技術(shù)服務(wù)和培訓(xùn)。
在我職業(yè)生涯的起步階段,我對人工智能持有的是一種純粹積極的看法。然而在過去的15年里,人工智能的蓬勃發(fā)展更多地受到了經(jīng)濟利益的驅(qū)動,而非以解決人類面臨的問題為導(dǎo)向,這讓我開始重新審視自己的觀點。
我擔(dān)心非洲正在被該領(lǐng)域的大國當(dāng)作人工智能經(jīng)濟全球鏈中獲益最少的一環(huán)來管理,這是違背非洲意愿的。他們將非洲視為難以在其他地方獲得的健康數(shù)據(jù)的來源,或是尋找從事數(shù)據(jù)分類和標(biāo)注工作的低薪工作者的地方。我擔(dān)心這會讓非洲再次遭受殖民化。當(dāng)談?wù)摲侵薜闹趁窕瘯r,我們想到的是對自然資源和人力資源的嚴(yán)重剝削,但殖民化最負(fù)面的影響無疑是文化認(rèn)同和自主性的喪失,尤其是在技術(shù)創(chuàng)新方面。
人工智能的霸權(quán)之爭取決于三大支柱:計算能力、人才和數(shù)據(jù)。隨著國際競爭的加劇和全球需求的增長,這些資源變得越來越稀缺。北半球的發(fā)達國家和大型企業(yè)往往將目光投向南半球,尤其是非洲大陸,視其為人才和數(shù)據(jù)資源豐富的未開發(fā)之地。這種形勢下,非洲大陸面臨的風(fēng)險(實際上這種情況已經(jīng)發(fā)生)在于,其經(jīng)驗豐富的人才會因為移民潮而流失,而那些受雇為數(shù)據(jù)工作者的非洲人會在工作條件不佳、薪資低廉、工作保障不足的環(huán)境中被剝削利用。
在眾多國際研究項目中,我們經(jīng)??吹椒侵藓献骰锇楸挥脕硖峁?shù)據(jù)以構(gòu)建模型,或者為大規(guī)模實驗提供框架。這種做法加劇了殖民主義傾向。若非洲研究人員在人工智能科學(xué)進程中的貢獻得到充分認(rèn)可,我們便有望找到融合多元文化的創(chuàng)新解決方案。InstaDeep是一家由非洲人創(chuàng)立和運營的初創(chuàng)公司,在人工智能驅(qū)動的藥物發(fā)現(xiàn)、設(shè)計和研發(fā)方面取得了顯著進步,現(xiàn)已被生物技術(shù)公司BioNTech收購。
對于使用在非洲國家收集的數(shù)據(jù)的研究者而言,維護數(shù)據(jù)的保密性至關(guān)重要,尤其是涉及個人隱私的敏感信息,如健康數(shù)據(jù)。同樣重要的是,要確保那些為人工智能模型提供數(shù)據(jù)的非洲人能夠從這些系統(tǒng)中獲益。
如果我們期望發(fā)展由所有人共享、共創(chuàng)的負(fù)責(zé)任的人工智能技術(shù),就要確保非洲大陸不被拋在后面。這主要是非洲政策制定者的責(zé)任,他們需要將人工智能作為優(yōu)先事項,并為非洲研究人員和企業(yè)家提供創(chuàng)新所需的資源。國際研究界也可以提供幫助,包括將非洲的專業(yè)知識和經(jīng)驗納入項目中,并仔細(xì)考慮如何使用非洲數(shù)據(jù)。全球合作伙伴可以幫助非洲研究人員成為為非洲和世界提供令人驚嘆的人工智能解決方案的創(chuàng)造者。
資料來源 Nature