日前,無人駕駛出租車引發(fā)了人們對于人工智能的熱議。如今,各國政府和各大科技公司都致力于利用人工智能改變我們的生產(chǎn)和生活。強大的人工智能工具現(xiàn)在觸手可及。
但是,即便是在利用人工智能的所有善意舉措中,比如開展數(shù)據(jù)驅(qū)動決策、提高經(jīng)濟生產(chǎn)力和實現(xiàn)醫(yī)療自動化等,滋生負面后果的風險也在不斷增加。隨著技術(shù)邊界的縮小,我們面臨著越來越大的緊迫性,必須縮小治理差距,引導這項先進技術(shù)實現(xiàn)公平和可持續(xù)發(fā)展——換句話說,讓人工智能造福人類。
一個人工智能良好治理的框架離不開三點訴求。首先,我們必須將人工智能治理植根于合理、共同的價值觀,如透明度、真實性和隱私。透明度可促進利益相關(guān)者間的信任和問責,并使技術(shù)得到公平評估,以確保符合倫理和法律規(guī)定。這在交通出行和醫(yī)療保健等領域尤為重要,因為這些領域的公共安全取決于可預測和可靠的人工智能行為。
要創(chuàng)建準確、公正的人工智能系統(tǒng),防止科學、教育和媒體中的錯誤信息,加強社會信任,確保人工智能的良好應用,真實性至關(guān)重要。這種新型系統(tǒng)將日益依賴于所收集到的大量個人數(shù)據(jù),隱私也變得至關(guān)重要。價值觀訴求指向人工智能的集體利益。
其次,應根據(jù)這些價值觀展開分層次行動,并不一定都依靠自上而下的方法,而是多主體齊頭并進推動。這些行動影響著人工智能積極、向上的良性發(fā)展,并影響著管理人工智能的法律。例如,如果我們的目標是為訓練人工智能算法的數(shù)據(jù)制定全球隱私標準,那么我們就需要一個國際體系結(jié)構(gòu)來制定和審查這些標準。如果我們想促進準確的公共健康教育,那么我們還需要建立行動機制,以遏制錯誤信息的傳播。
現(xiàn)在有了像GPT-4一樣強大的開源模型,但基本上沒有任何保障措施可以阻止惡意行動者利用它傳播錯誤信息。偏見構(gòu)成另外一個令人擔憂的問題,因為訓練集可能存在偏差。醫(yī)療保健系統(tǒng)中固有的偏差被編入數(shù)據(jù)中,而人工智能又將其自動化并實現(xiàn)可操作化。由此,為了確保人工智能在醫(yī)療保健領域得到安全、負責任的應用,必須對人工智能模型嚴格評估,甚至由監(jiān)管部門將模型視同醫(yī)療設備一樣進行監(jiān)管。
最后,確定人工智能治理的最關(guān)鍵領域,優(yōu)先考慮技術(shù)開發(fā)和使用鏈條中的主要環(huán)節(jié)——數(shù)據(jù)、算法、計算和應用。數(shù)據(jù)治理可對數(shù)據(jù)收集、存儲、分析和跨境流動進行監(jiān)督,同時保護和防止濫用敏感數(shù)據(jù)。算法治理可確保人工智能的判斷不帶歧視和偏見,從而準確、安全地為銀行、執(zhí)法和醫(yī)療保健等部門的應用提供信息。
從云計算和重要基礎設施的安全性和互聯(lián)互通,到數(shù)據(jù)中心的高耗水量和對勞動力市場的影響,人工智能若實施不當,完全可能擾亂經(jīng)濟和生態(tài)系統(tǒng)。這要求我們對半導體芯片、邊緣計算、云計算、環(huán)境計算、量子計算、計算能源和計算用水進行管理。與此同時,有效的應用管理可防止濫用,減少不可預見的影響,并確保公平的利益分配。
薄弱的人工智能治理機制留下了治理赤字,原因是現(xiàn)有倡議不足、治理格局存在差距以及難以就更合適的機制達成一致。挑戰(zhàn)很大程度源于地緣政治,國際合作的程度因政策領域而異,并受到國家意圖的不確定性、信任程度和利益一致等因素影響。目前,開發(fā)和監(jiān)管人工智能的能力高度集中,這表明中國、歐盟和美國之間的多邊協(xié)議可能足以降低關(guān)鍵風險。不過,理論上雖有很大協(xié)議空間,但在必要的政策應對方面卻幾乎沒有共識。歐盟強調(diào)新法規(guī),美國采取更加自由放任的方法,而中國則依靠行業(yè)自律和有針對性立法來治理人工智能。
為人工智能建立一個全球治理機制聽起來似乎有些天方夜譚,但困難并非完全不可克服。一方面,需要積極協(xié)調(diào)眾多利益相關(guān)者,推動建立普遍參與的國際機制;另一方面,也不妨利用多中心秩序,鼓勵地方政府和私營公司采取多層次行動,制定適合其具體情況的創(chuàng)新政策。