安德拉·哈爾達爾(Antara Haldar)
安德拉·哈爾達爾,是劍橋大學(xué)實證法律研究副教授、哈佛大學(xué)客座教授,也是歐洲研究委員會法律與認知項目首席研究員。本文已獲Project Syndicate授權(quán)。
如果說艾倫·圖靈關(guān)于“思考機器”的研究是我們現(xiàn)在所說的人工智能的前傳,那么已故心理學(xué)家丹尼爾·卡尼曼的暢銷書《思考,快與慢》可能就是續(xù)集,因為它洞察了我們自己是如何思考的。理解“我們”對于規(guī)范“他們”至關(guān)重要。
這一努力已迅速成為政策制定者的首要議程。去年11月,20多國簽署了歐盟的《人工智能法案》和《布萊切利人工智能安全宣言》。而在美國,拜登發(fā)布了一項行政命令,要求“安全、可靠地開發(fā)和使用”人工智能。
這些努力是對人工智能軍備競賽的回應(yīng)。這場競賽始于OpenAI在2022年底公開發(fā)布ChatGPT。最根本的擔憂是日益為人所知的“一致性問題”:AI的目標和追求目標的方式可能不尊重人類gqzOetcBwpWIAEAVTLk8gQ==的目標,甚至不兼容人類的目標。新的人工智能工具也有可能被不良行為者濫用,加深和擴大已有的歧視和偏見。不斷進化、能夠自學(xué)的人工智能還可能失控,決定制造一場金融危機、左右選舉,甚至制造一種生物武器。
在人工智能作為一種潛在的生存威脅的地位背后,有一個懸而未決的問題:這項技術(shù)應(yīng)該與人類的哪些價值觀保持一致?現(xiàn)實生活中辯論的焦點,包括微軟在2016年發(fā)布了一個種族主義、厭惡女性、超性感的聊天機器人,29U3w9v9yu4Z3akie1hwdA==以及必應(yīng)奇特的操縱欲和誘惑性(它試圖說服一名科技記者離開他的妻子);最近,谷歌的雙子座(Gemini)的“醒了”特性導(dǎo)致它產(chǎn)生了歷史上荒謬的結(jié)果,比如黑人納粹士兵的圖像。
幸運的是,現(xiàn)代社會已經(jīng)設(shè)計出一種機制,允許不同的道德部落共存:法治。法律作為一種制度,代表著合作的典范。幾個世紀以來,人類一直在努力解決自己的結(jié)盟問題:如何組織集體行動。在此之后,它的出現(xiàn)是一個深刻的突破。
在認知上,法律代表了一種激進的新技術(shù)。一旦內(nèi)化,它就會使個人行為與社區(qū)共識保持一致。法律被當作法律來遵守,而不考慮個人對任何規(guī)定的主觀判斷。幾位著名的哲學(xué)家都把注意力集中在這個獨有的特征上。20世紀的法律理論家H.L.A. 哈特,將法律描述為一種機制,它允許通過改變潛在的行為元規(guī)范來塑造規(guī)范。
最近,羅納德·德沃金用“完整性”來描述法律,因為它體現(xiàn)了整個社會的規(guī)范,而不是像一個“棋盤”。如果法律是拼湊而成的,它可能會更好地代表個人的信仰和觀點,但會犧牲連貫性。因此,法律作為一個凌駕于個人行為之上的按鈕,它吸收了關(guān)于道德和價值觀的復(fù)雜辯論,并將其磨成有約束力的規(guī)則。
目前關(guān)于人工智能和法律的大多數(shù)辯論,都集中在這項技術(shù)如何挑戰(zhàn)現(xiàn)行的監(jiān)管范式上。其中一個擔憂是“紅皇后效應(yīng)”,它描述了在快速發(fā)展的技術(shù)下保持監(jiān)管與時俱進的內(nèi)在困難。另一個問題是,在全國范圍內(nèi)監(jiān)管一項真正全球性的技術(shù)所面臨的挑戰(zhàn)。還有一個弗蘭肯斯坦式的怪物問題:一項新技術(shù)主要是由少數(shù)私營公司開發(fā)的,這些公司的優(yōu)先事項與公眾的不同。
重要的是,如果“思考機器”能夠?qū)W習(xí),它們能學(xué)會遵守法律嗎?隨著科技巨頭們爭先恐后地追求通用人工智能,人工智能的“黑匣子”問題依然存在。即使是這項技術(shù)的創(chuàng)造者也不知道它是如何工作的。由于給人工智能分配“目標功能”的努力可能會產(chǎn)生意想不到的后果,我們將需要一種更復(fù)雜的方法。
為此,我們應(yīng)該研究認知進化,它使人類社會能夠持續(xù)這么久。人類的法律是否可以作為設(shè)計約束,這是工程師的一個問題。但如果它能做到,它可能代表著我們的救贖。