国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

阿西洛馬23原則使AI更安全和道德

2017-04-17 03:54MichaelIrving編譯陳亮
機(jī)器人產(chǎn)業(yè) 2017年2期
關(guān)鍵詞:洛馬阿西倫理

□文/Michael Irving □編譯/陳亮

阿西洛馬23原則使AI更安全和道德

□文/Michael Irving □編譯/陳亮

“生命未來研究所”(Future of Life Institute,F(xiàn)LI)概括了“阿西洛馬人工智能原則”,列出了23條準(zhǔn)則,使未來人工智能的研究人員、科學(xué)家和立法者遵循,確保安全、倫理和有益。

人工智能將嚴(yán)重地破壞世界?人工智能對人類是否有益?我們該摧毀它嗎?這聽起來像拍科幻電影。但是隨著人工智能的快速發(fā)展,數(shù)百名人工智能和機(jī)器人領(lǐng)域的專家們聯(lián)合編制了“阿西洛馬人工智能原則”,列出了23條準(zhǔn)則,提出重點(diǎn)和注意事項(xiàng)來指導(dǎo)AI發(fā)展,共同保障人類未來倫理、利益和安全。

這23條準(zhǔn)則由“生命未來研究所”牽頭制定,旨在確保人類在新技術(shù)出現(xiàn)時(shí)能順利規(guī)避其潛在的風(fēng)險(xiǎn)。其突出核心成員有Stephen Hawking和Elon Musk。這個(gè)組織專注于由新技術(shù)和問題構(gòu)成的潛在威脅,如人工智能、生物技術(shù)、核武器和氣候變化等。

2017年1月,在美國加利福尼亞州阿西洛馬舉行的Beneficial AI會(huì)議上,該組織收集了來自大學(xué)和公司的人工智能研究人員,討論人工智能的未來及其應(yīng)如何監(jiān)管。在會(huì)議召開前,該組織讓參會(huì)者做了一份調(diào)查:在未來幾年,人工智能需要怎樣發(fā)展和監(jiān)管,并用這些參會(huì)者的反饋制定出一個(gè)前期的目標(biāo)。修改后的版本在會(huì)上做了討論研究,只有當(dāng)90%的研究人員同意,就可以最終列出一份原則列表。

「部分簽名的專家」

Demis Hassabis ,DeepMind創(chuàng)始人兼CEO

Ilya Sutskever ,OpenAI研究總監(jiān)、聯(lián)合創(chuàng)始人

Yann LeCun, Facebook AI 研究室總監(jiān),紐約大學(xué)教授

Yoshua Bengio ,蒙特利爾大學(xué)、蒙特利爾學(xué)習(xí)算法研究所所長

Stuart R ussell,加利福尼亞大學(xué)伯克利分校計(jì)算機(jī)科學(xué)教授,智能系統(tǒng)中心主任

Peter Norvig ,谷歌研究總監(jiān)

R ay Kurzweil ,谷歌研究總監(jiān);發(fā)明家、作家和未來學(xué)家,著有《奇點(diǎn)臨近》

Jeff Dean,Google Brain項(xiàng)目負(fù)責(zé)人,谷歌高級研究員,AAAI成員

Tom Gruber, 蘋果公司;Siri的共同創(chuàng)始人,Siri 項(xiàng)目CTO和設(shè)計(jì)副總裁

Nils J. Nilsson,AAAI前任主席,斯坦福大學(xué)Emeritus Kumagai工程教授

Francesca R ossi,IBM&Padova,計(jì)算機(jī)科學(xué)教授,IJCAI主席、AAAI委員會(huì)、AI與倫理問題影響委員會(huì)聯(lián)席主席,ACM成員

總共有808名AI /機(jī)器人研究人員簽名;

以及

Stephen Hawking ,劍橋大學(xué)

Elon Musk,特斯拉CEO

Jaan Tallinn ,Skype 聯(lián)合創(chuàng)始人

Sam Altman ,Y Combinator 總裁

Gill Pratt ,豐田研究院CEO

……

阿西洛馬人工智能原則是著名的阿西莫夫機(jī)器人三大法則的擴(kuò)展版本。阿西洛馬人工智能原則主要分為三大類:科研問題、倫理價(jià)值和長期問題。

科研問題主要涵蓋了科學(xué)家和研究人員對人工智能系統(tǒng)開放的職責(zé),以及在計(jì)算機(jī)科學(xué)、經(jīng)濟(jì)學(xué)、法律、倫理學(xué)和社會(huì)研究中可能產(chǎn)生的“棘手問題”。在這里要重點(diǎn)提出的是人工智能不能單純地為了利益而創(chuàng)造,而應(yīng)該為了在確保人類不被替代的情況下通過自動(dòng)化實(shí)現(xiàn)人類繁榮。保持一個(gè)開放、合作的人工智能研究文化也是一個(gè)優(yōu)先考慮的事情,以確保研究人員和政策制定者在彼此交換信息的同時(shí),不會(huì)以危害人類為手段與對手競爭。

在討論環(huán)節(jié)中最有意思和爭議的問題應(yīng)該是“AI應(yīng)該具有怎樣的價(jià)值觀,應(yīng)該具有何等法律和倫理地位?”一個(gè)擁有機(jī)器人的世界已經(jīng)足夠復(fù)雜,讓機(jī)器人擁有權(quán)力似乎離我們很遠(yuǎn),但是這些爭議已經(jīng)被歐盟開始關(guān)注了。我們越早考慮這些問題,將來就會(huì)越容易過渡。

圖1 :埃隆·馬斯克(左),斯蒂芬·威廉·霍金(右)

而問題是該賦予人工智能怎樣的權(quán)力?科學(xué)家認(rèn)為人工智能應(yīng)符合一般的“人的價(jià)值”之類的尊嚴(yán)、權(quán)利、自由和文化等多樣性。這意味著將人工智能應(yīng)用于個(gè)人數(shù)據(jù)不應(yīng)侵犯任何人的隱私、自由或安全。如果有什么問題,人們需要確定產(chǎn)生這些問題的原因和方式,設(shè)計(jì)師和制定者在使用或誤用系統(tǒng)中要承擔(dān)在一定的道德責(zé)任。

這些點(diǎn)都已經(jīng)在實(shí)踐中被考慮到了:科學(xué)家在谷歌DeepMind項(xiàng)目中討論如何實(shí)現(xiàn)用一個(gè)“大紅色按鈕”去干預(yù)一個(gè)已經(jīng)開始按行動(dòng)路徑執(zhí)行任務(wù)的機(jī)器人,并防止它抗干擾。

尤其讓人害怕的是要注意“致命的武器軍備競賽是應(yīng)該被禁止的”。“生命未來研究所”在過去一直強(qiáng)調(diào)這一點(diǎn),2015年其向聯(lián)合國提交了一封公開信,請求聯(lián)合國禁止軍用人工智能的發(fā)展。

科學(xué)家們列出了清單,著眼于潛在的長期問題,包括未來發(fā)展這一重要技術(shù)平衡資源分配,但要規(guī)劃和減輕人工智能系統(tǒng)可能會(huì)面對的風(fēng)險(xiǎn),特別是災(zāi)難性的或存在的風(fēng)險(xiǎn)。

為此,安全控制措施應(yīng)適用于AI,可以改善自身技術(shù),阻止劇本里世界末日的發(fā)生。而在一般情況下,“超智只應(yīng)服務(wù)于廣泛共享的倫理發(fā)展,并為全人類利益作出貢獻(xiàn),而不是一個(gè)國家或組織的利益。”

Asilomar AI Principles阿西洛馬人工智能原則

科研問題

1)研究目的:人工智能研究的目標(biāo),應(yīng)該是創(chuàng)造有益(于人類)而不是不受(人類)控制的智能。

2)研究經(jīng)費(fèi):投資人工智能應(yīng)該有部分經(jīng)費(fèi)用于研究如何確保有益地使用人工智能,包括計(jì)算機(jī)科學(xué)、經(jīng)濟(jì)學(xué)、法律、倫理以及社會(huì)研究中的棘手問題,比如:

·如何使未來的人工智能系統(tǒng)高度健全(“魯棒性”),讓系統(tǒng)按我們的要求運(yùn)行,而不會(huì)發(fā)生故障或遭黑客入侵?

·如何通過自動(dòng)化提升我們的繁榮程度,同時(shí)維持人類的資源和意志?

·如何改進(jìn)法制體系使其更公平和高效,能夠跟得上人工智能的發(fā)展速度,并且能夠控制人工智能帶來的風(fēng)險(xiǎn)?

·人工智能應(yīng)該歸屬于什么樣的價(jià)值體系?它該具有何種法律和倫理地位?

3)科學(xué)與政策的聯(lián)系:在人工智能研究者和政策制定者之間應(yīng)該有建設(shè)性的、有益的交流。

4) 科研文化:在人工智能研究者和開發(fā)者中應(yīng)該培養(yǎng)一種合作、信任與透明的人文文化。

5)避免競爭:人工智能系統(tǒng)開發(fā)團(tuán)隊(duì)之間應(yīng)該積極合作,以避免安全標(biāo)準(zhǔn)上的有機(jī)可乘。

倫理和價(jià)值

6) 安全性:人工智能系統(tǒng)在它們整個(gè)運(yùn)行過程中應(yīng)該是安全和可靠的,而且其可應(yīng)用性和可行性應(yīng)當(dāng)接受驗(yàn)證。

7) 故障透明性:如果一個(gè)人工智能系統(tǒng)造成了損害,那么造成損害的原因要能被確定。

8)司法透明性:任何自動(dòng)系統(tǒng)參與的司法判決都應(yīng)提供令人滿意的司法解釋以被相關(guān)領(lǐng)域的專家接受。

9)責(zé)任:高級人工智能系統(tǒng)的設(shè)計(jì)者和建造者,是人工智能使用、誤用和行為所產(chǎn)生的道德影響的參與者,有責(zé)任和機(jī)會(huì)去塑造那些道德影響。

10)價(jià)值歸屬:高度自主的人工智能系統(tǒng)設(shè)計(jì),應(yīng)該確保它們的目標(biāo)和行為在整個(gè)運(yùn)行中與人類的價(jià)值觀相一致。

11)人類價(jià)值觀:人工智能系統(tǒng)應(yīng)該被設(shè)計(jì)和操作,以使其和人類尊嚴(yán)、權(quán)力、自由和文化多樣性的理想相一致。

12)個(gè)人隱私:在給予人工智能系統(tǒng)以分析和使用數(shù)據(jù)的能力時(shí),人們應(yīng)該擁有權(quán)力去訪問、管理和控制他們產(chǎn)生的數(shù)據(jù)。

13)自由和隱私:人工智能在個(gè)人數(shù)據(jù)上的應(yīng)用不能允許無理由地剝奪人們真實(shí)的或人們能感受到的自由。

14)分享利益:人工智能科技應(yīng)該惠及和服務(wù)盡可能多的人。

15) 共同繁榮:由人工智能創(chuàng)造的經(jīng)濟(jì)繁榮應(yīng)該被廣泛地分享,惠及全人類。

16)人類控制:人類應(yīng)該來選擇如何決定是否讓人工智能系統(tǒng)去完成人類選擇的目標(biāo)。

17)非顛覆:高級人工智能被授予的權(quán)力應(yīng)該尊重和改進(jìn)健康的社會(huì)公民秩序,而不是顛覆。

18)人工智能軍備競賽:致命的自動(dòng)化武器裝備競賽應(yīng)該被避免。

更長期的問題

19)能力警惕:我們應(yīng)該避免關(guān)于未來人工智能能力上限的過高假設(shè),但這一點(diǎn)還沒有達(dá)成共識。

20)重要性:高級人工智能能夠代表地球生命歷史的一個(gè)深刻變化,人類應(yīng)該有相應(yīng)的關(guān)切和資源來進(jìn)行計(jì)劃和管理。

21)風(fēng)險(xiǎn):人工智能系統(tǒng)造成的風(fēng)險(xiǎn),特別是災(zāi)難性的或有關(guān)人類存亡的風(fēng)險(xiǎn),必須有針對性地計(jì)劃和努力減輕可預(yù)見的沖擊。

22)遞歸的自我提升:被設(shè)計(jì)成可以迅速提升質(zhì)量和數(shù)量的方式進(jìn)行遞歸自我升級或自我復(fù)制人工智能系統(tǒng),必須受制于嚴(yán)格的安全和控制標(biāo)準(zhǔn)。

23)公共利益:超級智能的開發(fā)是為了服務(wù)廣泛認(rèn)可的倫理觀念,并且是為了全人類的利益而不是一個(gè)國家和組織的利益。

手機(jī)掃碼閱讀

猜你喜歡
洛馬阿西倫理
《心之死》的趣味與倫理焦慮
洛馬公司收購航空噴氣·洛克達(dá)因公司動(dòng)因分析
《白噪音》中后現(xiàn)代聲景的死亡倫理思考
On the Necessity and Teaching Method of English Education
倫理批評與文學(xué)倫理學(xué)
華語科幻電影中的“倫理性”想象
阿西是個(gè)防損員
草 戒
紙官
宝兴县| 华池县| 云林县| 昆山市| 郴州市| 哈巴河县| 杨浦区| 竹山县| 永登县| 绩溪县| 化州市| 洛南县| 东丽区| 县级市| 浙江省| 嘉祥县| 芒康县| 莎车县| 汾西县| 晋中市| 沧州市| 武山县| 宣威市| 新邵县| 邵东县| 汨罗市| 龙胜| 宜城市| 鄂伦春自治旗| 万载县| 永仁县| 漳浦县| 什邡市| 宁河县| 怀远县| 武鸣县| 法库县| 临泉县| 东丰县| 广汉市| 黄石市|