馬克·埃斯波斯托 謝慈銘(Terence Tse) 約書亞·恩特斯明格 奧德麗·讓
過去幾年間,由麻省理工學院主辦的“道德機器”研究,調查了公眾對人工智能應用程序在各類設定中該如何表現(xiàn)的偏好。數(shù)據(jù)的一個結論是,當自動駕駛汽車遇到生死攸關的情景時,人們認為它該如何應對的觀點,在很大程度上會取決于此人來自何處,以及人們對事故所涉及的行人或乘客的了解。
例如,在自動駕駛版本的經(jīng)典“手推車難題”中,有些人可能更喜歡汽車在傷害他人之前撞到一個已被定罪的殺人兇手,或者撞到老年人而不是小孩。還有一些人可能認為,自動駕駛汽車應該簡單地擲骰子,以防止以數(shù)據(jù)為導向的歧視。
一般來說,此類窘境都是事后保留給警方或法官去調查和決斷的。但在自動駕駛的情況下,選擇將在幾毫秒內完成,意味著幾乎沒有足夠的時間來作出明智的決定。重要的不是我們所知道的,而是汽車所知道的。那么問題在于自動駕駛應該對周圍的人占有什么信息?企業(yè)是否應被允許去適用不同的道德體系,以追求競爭優(yōu)勢?
請考慮以下情況:一輛中國車與美國車有不同的工廠設定標準,但假設這輛中國車正在美國行駛,并即將與一輛美國車發(fā)生不可避免的碰撞。倘若中國汽車駕駛員的道德偏好不同于美國汽車駕駛員,那么哪個系統(tǒng)應該占上風?
除了基于文化的道德偏好差異外,還必須考慮各國數(shù)據(jù)法規(guī)的差異。例如中國制造的汽車可能會獲得社會評分數(shù)據(jù),從而使其決策算法能夠納入美國汽車制造商所無法獲取的額外輸入。更豐富的數(shù)據(jù)可以帶來更好、更一致的決策,但擁有這一優(yōu)勢是否就該允許一個系統(tǒng)去凌駕于另一個系統(tǒng)?
很顯然,在自動駕駛車輛大規(guī)模上路之前,我們需要確定算法決策的責任究竟落在哪里,是市政當局、國家政府還是多邊機構?更重要的是,我們需要新的框架來管理這個商業(yè)和國家的交叉點。
不難想象,所有自動駕駛車輛制造商都會簡單地宣傳自己那套系統(tǒng)會將駕駛員的生命置于首位,或是允許用戶切換自身的道德設置。為了防止這種“公地悲劇”,必須建立在自動駕駛車輛決策之間進行通信和協(xié)調的框架。但是,在不同文化背景下開發(fā)此類系統(tǒng)時,政策制定者和企業(yè)將必須面對不同的主權、隱私和個人自治的文化概念。
這將引發(fā)額外的挑戰(zhàn),因為人工智能系統(tǒng)無法容忍歧義。從頭開始設計人工智能應用程序需要非常明確;無論效果如何,這些系統(tǒng)只會按照你告訴它們的方式行事。這意味著企業(yè)、政府和其他提供商在編寫針對不同情況的響應規(guī)則時,需要做出明確的抉擇。
但在這一切發(fā)生之前,政策制定者們需要訂立算法問責制的范圍,以確定應該把哪些決策留給企業(yè)或個人(如有的話)。那些屬于國家職權范圍的責任,必須經(jīng)由辯論商討來決定。雖然無法拿出一個最終解決方案,但我們需要創(chuàng)建一些至少能促進自動駕駛車輛之間通信以及“裁決算法爭議和道路事故”的系統(tǒng)。
鑒于在設計決策算法時需要明確性,因此有必要建立一個國際機構來制定標準。這種算法問責制的標準,必須能被應用于管理許多領域。最終,我們必須決定的首要問題是,企業(yè)是否有權為算法決策設計另一套道德框架。在我們看來,它們是不應該有的。
在這個人工智能時代,全球價值鏈的某些組成部分最終會實現(xiàn)自動化,此時它們將不再被視為企業(yè)追求競爭優(yōu)勢的領域。確定和裁決算法問責制的過程,應該就處于這樣一個領域。無論以什么方式我們都將作出決定,而且最好是統(tǒng)一并盡可能民主地解決。
本文由Project Syndicate授權《南風窗》獨家刊發(fā)中文版。馬克·埃斯波斯托,霍特國際商學院和哈佛大學商業(yè)和經(jīng)濟學教授;謝慈銘,歐洲高等商學院倫敦分校教授;約書亞·恩特斯明格,Nexus FrontierTech研究員;奧德麗·讓,In Silico Veritas藥業(yè)公司創(chuàng)始人。