□文/Michael Irving □編譯/陳亮
阿西洛馬23原則使AI更安全和道德
□文/Michael Irving □編譯/陳亮
“生命未來研究所”(Future of Life Institute,F(xiàn)LI)概括了“阿西洛馬人工智能原則”,列出了23條準(zhǔn)則,使未來人工智能的研究人員、科學(xué)家和立法者遵循,確保安全、倫理和有益。
人工智能將嚴(yán)重地破壞世界?人工智能對人類是否有益?我們該摧毀它嗎?這聽起來像拍科幻電影。但是隨著人工智能的快速發(fā)展,數(shù)百名人工智能和機(jī)器人領(lǐng)域的專家們聯(lián)合編制了“阿西洛馬人工智能原則”,列出了23條準(zhǔn)則,提出重點(diǎn)和注意事項(xiàng)來指導(dǎo)AI發(fā)展,共同保障人類未來倫理、利益和安全。
這23條準(zhǔn)則由“生命未來研究所”牽頭制定,旨在確保人類在新技術(shù)出現(xiàn)時(shí)能順利規(guī)避其潛在的風(fēng)險(xiǎn)。其突出核心成員有Stephen Hawking和Elon Musk。這個(gè)組織專注于由新技術(shù)和問題構(gòu)成的潛在威脅,如人工智能、生物技術(shù)、核武器和氣候變化等。
2017年1月,在美國加利福尼亞州阿西洛馬舉行的Beneficial AI會(huì)議上,該組織收集了來自大學(xué)和公司的人工智能研究人員,討論人工智能的未來及其應(yīng)如何監(jiān)管。在會(huì)議召開前,該組織讓參會(huì)者做了一份調(diào)查:在未來幾年,人工智能需要怎樣發(fā)展和監(jiān)管,并用這些參會(huì)者的反饋制定出一個(gè)前期的目標(biāo)。修改后的版本在會(huì)上做了討論研究,只有當(dāng)90%的研究人員同意,就可以最終列出一份原則列表。
「部分簽名的專家」
Demis Hassabis ,DeepMind創(chuàng)始人兼CEO
Ilya Sutskever ,OpenAI研究總監(jiān)、聯(lián)合創(chuàng)始人
Yann LeCun, Facebook AI 研究室總監(jiān),紐約大學(xué)教授
Yoshua Bengio ,蒙特利爾大學(xué)、蒙特利爾學(xué)習(xí)算法研究所所長
Stuart R ussell,加利福尼亞大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授,智能系統(tǒng)中心主任
Peter Norvig ,谷歌研究總監(jiān)
R ay Kurzweil ,谷歌研究總監(jiān);發(fā)明家、作家和未來學(xué)家,著有《奇點(diǎn)臨近》
Jeff Dean,Google Brain項(xiàng)目負(fù)責(zé)人,谷歌高級研究員,AAAI成員
Tom Gruber, 蘋果公司;Siri的共同創(chuàng)始人,Siri 項(xiàng)目CTO和設(shè)計(jì)副總裁
Nils J. Nilsson,AAAI前任主席,斯坦福大學(xué)Emeritus Kumagai工程教授
Francesca R ossi,IBM&Padova,計(jì)算機(jī)科學(xué)教授,IJCAI主席、AAAI委員會(huì)、AI與倫理問題影響委員會(huì)聯(lián)席主席,ACM成員
總共有808名AI /機(jī)器人研究人員簽名;
以及
Stephen Hawking ,劍橋大學(xué)
Elon Musk,特斯拉CEO
Jaan Tallinn ,Skype 聯(lián)合創(chuàng)始人
Sam Altman ,Y Combinator 總裁
Gill Pratt ,豐田研究院CEO
……
阿西洛馬人工智能原則是著名的阿西莫夫機(jī)器人三大法則的擴(kuò)展版本。阿西洛馬人工智能原則主要分為三大類:科研問題、倫理價(jià)值和長期問題。
科研問題主要涵蓋了科學(xué)家和研究人員對人工智能系統(tǒng)開放的職責(zé),以及在計(jì)算機(jī)科學(xué)、經(jīng)濟(jì)學(xué)、法律、倫理學(xué)和社會(huì)研究中可能產(chǎn)生的“棘手問題”。在這里要重點(diǎn)提出的是人工智能不能單純地為了利益而創(chuàng)造,而應(yīng)該為了在確保人類不被替代的情況下通過自動(dòng)化實(shí)現(xiàn)人類繁榮。保持一個(gè)開放、合作的人工智能研究文化也是一個(gè)優(yōu)先考慮的事情,以確保研究人員和政策制定者在彼此交換信息的同時(shí),不會(huì)以危害人類為手段與對手競爭。
在討論環(huán)節(jié)中最有意思和爭議的問題應(yīng)該是“AI應(yīng)該具有怎樣的價(jià)值觀,應(yīng)該具有何等法律和倫理地位?”一個(gè)擁有機(jī)器人的世界已經(jīng)足夠復(fù)雜,讓機(jī)器人擁有權(quán)力似乎離我們很遠(yuǎn),但是這些爭議已經(jīng)被歐盟開始關(guān)注了。我們越早考慮這些問題,將來就會(huì)越容易過渡。
圖1 :埃隆·馬斯克(左),斯蒂芬·威廉·霍金(右)
而問題是該賦予人工智能怎樣的權(quán)力?科學(xué)家認(rèn)為人工智能應(yīng)符合一般的“人的價(jià)值”之類的尊嚴(yán)、權(quán)利、自由和文化等多樣性。這意味著將人工智能應(yīng)用于個(gè)人數(shù)據(jù)不應(yīng)侵犯任何人的隱私、自由或安全。如果有什么問題,人們需要確定產(chǎn)生這些問題的原因和方式,設(shè)計(jì)師和制定者在使用或誤用系統(tǒng)中要承擔(dān)在一定的道德責(zé)任。
這些點(diǎn)都已經(jīng)在實(shí)踐中被考慮到了:科學(xué)家在谷歌DeepMind項(xiàng)目中討論如何實(shí)現(xiàn)用一個(gè)“大紅色按鈕”去干預(yù)一個(gè)已經(jīng)開始按行動(dòng)路徑執(zhí)行任務(wù)的機(jī)器人,并防止它抗干擾。
尤其讓人害怕的是要注意“致命的武器軍備競賽是應(yīng)該被禁止的”。“生命未來研究所”在過去一直強(qiáng)調(diào)這一點(diǎn),2015年其向聯(lián)合國提交了一封公開信,請求聯(lián)合國禁止軍用人工智能的發(fā)展。
科學(xué)家們列出了清單,著眼于潛在的長期問題,包括未來發(fā)展這一重要技術(shù)平衡資源分配,但要規(guī)劃和減輕人工智能系統(tǒng)可能會(huì)面對的風(fēng)險(xiǎn),特別是災(zāi)難性的或存在的風(fēng)險(xiǎn)。
為此,安全控制措施應(yīng)適用于AI,可以改善自身技術(shù),阻止劇本里世界末日的發(fā)生。而在一般情況下,“超智只應(yīng)服務(wù)于廣泛共享的倫理發(fā)展,并為全人類利益作出貢獻(xiàn),而不是一個(gè)國家或組織的利益。”
Asilomar AI Principles阿西洛馬人工智能原則
科研問題
1)研究目的:人工智能研究的目標(biāo),應(yīng)該是創(chuàng)造有益(于人類)而不是不受(人類)控制的智能。
2)研究經(jīng)費(fèi):投資人工智能應(yīng)該有部分經(jīng)費(fèi)用于研究如何確保有益地使用人工智能,包括計(jì)算機(jī)科學(xué)、經(jīng)濟(jì)學(xué)、法律、倫理以及社會(huì)研究中的棘手問題,比如:
·如何使未來的人工智能系統(tǒng)高度健全(“魯棒性”),讓系統(tǒng)按我們的要求運(yùn)行,而不會(huì)發(fā)生故障或遭黑客入侵?
·如何通過自動(dòng)化提升我們的繁榮程度,同時(shí)維持人類的資源和意志?
·如何改進(jìn)法制體系使其更公平和高效,能夠跟得上人工智能的發(fā)展速度,并且能夠控制人工智能帶來的風(fēng)險(xiǎn)?
·人工智能應(yīng)該歸屬于什么樣的價(jià)值體系?它該具有何種法律和倫理地位?
3)科學(xué)與政策的聯(lián)系:在人工智能研究者和政策制定者之間應(yīng)該有建設(shè)性的、有益的交流。
4) 科研文化:在人工智能研究者和開發(fā)者中應(yīng)該培養(yǎng)一種合作、信任與透明的人文文化。
5)避免競爭:人工智能系統(tǒng)開發(fā)團(tuán)隊(duì)之間應(yīng)該積極合作,以避免安全標(biāo)準(zhǔn)上的有機(jī)可乘。
倫理和價(jià)值
6) 安全性:人工智能系統(tǒng)在它們整個(gè)運(yùn)行過程中應(yīng)該是安全和可靠的,而且其可應(yīng)用性和可行性應(yīng)當(dāng)接受驗(yàn)證。
7) 故障透明性:如果一個(gè)人工智能系統(tǒng)造成了損害,那么造成損害的原因要能被確定。
8)司法透明性:任何自動(dòng)系統(tǒng)參與的司法判決都應(yīng)提供令人滿意的司法解釋以被相關(guān)領(lǐng)域的專家接受。
9)責(zé)任:高級人工智能系統(tǒng)的設(shè)計(jì)者和建造者,是人工智能使用、誤用和行為所產(chǎn)生的道德影響的參與者,有責(zé)任和機(jī)會(huì)去塑造那些道德影響。
10)價(jià)值歸屬:高度自主的人工智能系統(tǒng)設(shè)計(jì),應(yīng)該確保它們的目標(biāo)和行為在整個(gè)運(yùn)行中與人類的價(jià)值觀相一致。
11)人類價(jià)值觀:人工智能系統(tǒng)應(yīng)該被設(shè)計(jì)和操作,以使其和人類尊嚴(yán)、權(quán)力、自由和文化多樣性的理想相一致。
12)個(gè)人隱私:在給予人工智能系統(tǒng)以分析和使用數(shù)據(jù)的能力時(shí),人們應(yīng)該擁有權(quán)力去訪問、管理和控制他們產(chǎn)生的數(shù)據(jù)。
13)自由和隱私:人工智能在個(gè)人數(shù)據(jù)上的應(yīng)用不能允許無理由地剝奪人們真實(shí)的或人們能感受到的自由。
14)分享利益:人工智能科技應(yīng)該惠及和服務(wù)盡可能多的人。
15) 共同繁榮:由人工智能創(chuàng)造的經(jīng)濟(jì)繁榮應(yīng)該被廣泛地分享,惠及全人類。
16)人類控制:人類應(yīng)該來選擇如何決定是否讓人工智能系統(tǒng)去完成人類選擇的目標(biāo)。
17)非顛覆:高級人工智能被授予的權(quán)力應(yīng)該尊重和改進(jìn)健康的社會(huì)公民秩序,而不是顛覆。
18)人工智能軍備競賽:致命的自動(dòng)化武器裝備競賽應(yīng)該被避免。
更長期的問題
19)能力警惕:我們應(yīng)該避免關(guān)于未來人工智能能力上限的過高假設(shè),但這一點(diǎn)還沒有達(dá)成共識。
20)重要性:高級人工智能能夠代表地球生命歷史的一個(gè)深刻變化,人類應(yīng)該有相應(yīng)的關(guān)切和資源來進(jìn)行計(jì)劃和管理。
21)風(fēng)險(xiǎn):人工智能系統(tǒng)造成的風(fēng)險(xiǎn),特別是災(zāi)難性的或有關(guān)人類存亡的風(fēng)險(xiǎn),必須有針對性地計(jì)劃和努力減輕可預(yù)見的沖擊。
22)遞歸的自我提升:被設(shè)計(jì)成可以迅速提升質(zhì)量和數(shù)量的方式進(jìn)行遞歸自我升級或自我復(fù)制人工智能系統(tǒng),必須受制于嚴(yán)格的安全和控制標(biāo)準(zhǔn)。
23)公共利益:超級智能的開發(fā)是為了服務(wù)廣泛認(rèn)可的倫理觀念,并且是為了全人類的利益而不是一個(gè)國家和組織的利益。
手機(jī)掃碼閱讀