国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

解讀英國議會人工智能報告十大熱點

2018-06-11 09:32曹建峰
機(jī)器人產(chǎn)業(yè) 2018年3期
關(guān)鍵詞:英國議會倫理監(jiān)管

□文/曹建峰

2018年4月16日,英國議會下屬的人工智能特別委員會發(fā)布長達(dá)180頁的報告《英國人工智能發(fā)展的計劃、能力與志向》(AI in the UK:ready, willing and able?),認(rèn)為英國在發(fā)展人工智能方面有能力成為世界領(lǐng)導(dǎo)者。作者通讀報告,總結(jié)出了英國議會眼中的人工智能法律政策十大熱點問題及相關(guān)建議,希冀為國內(nèi)相關(guān)討論提供借鑒。

英國政府高度重視人工智能對經(jīng)濟(jì)和社會發(fā)展的巨大潛力。此前已發(fā)布五份針對或涉及人工智能的政府報告,搶抓機(jī)遇并應(yīng)對挑戰(zhàn)。

2018年4月16日,英國議會下屬的人工智能特別委員會發(fā)布長達(dá)180頁的報告《英國人工智能發(fā)展的計劃、能力與志向》(AI in the UK: ready, willing and able?),認(rèn)為英國在發(fā)展人工智能方面有能力成為世界領(lǐng)導(dǎo)者。

英國全球一流的人工智能公司,活躍的學(xué)術(shù)研究文化,生機(jī)勃勃的創(chuàng)業(yè)生態(tài)系統(tǒng)以及法律、倫理、金融和語言學(xué)等方面的能力匯聚,為其發(fā)展人工智能創(chuàng)造了獨一無二的的條件。報告旨在支持英國實現(xiàn)人工智能對社會和經(jīng)濟(jì)的巨大潛力,同時保護(hù)社會免受潛在威脅和危險。

報告幾乎涵蓋了人工智能的方方面面,從其概念、設(shè)計、研發(fā)和其對工作、生活、醫(yī)療等領(lǐng)域的影響,以及應(yīng)對人工智能威脅、塑造人工智能未來等層面進(jìn)行了有益探索。報告呼吁英國政府制定國家人工智能戰(zhàn)略。

對于輿論熱炒的人工智能監(jiān)管,報告認(rèn)為當(dāng)前不需要對人工智能進(jìn)行專門監(jiān)管,各個行業(yè)的監(jiān)管機(jī)構(gòu)完全可以根據(jù)實際情況對監(jiān)管做出適應(yīng)性調(diào)整。相反,報告呼吁英國政府制定國家層面的人工智能準(zhǔn)則(AI Code),為人工智能的研發(fā)和利用設(shè)定基本的倫理原則,并探索相關(guān)標(biāo)準(zhǔn)和最佳實踐等,以便實現(xiàn)行業(yè)自律。

作者通讀報告,總結(jié)出了英國議會眼中的人工智能法律政策十大熱點問題及相關(guān)建議,希冀為國內(nèi)相關(guān)討論提供借鑒。

促進(jìn)數(shù)據(jù)訪問和共享最大化公共數(shù)據(jù)的價值

數(shù)據(jù)對于人工智能進(jìn)步的重要性不言而喻。數(shù)據(jù)是機(jī)器學(xué)習(xí)的核心,有數(shù)據(jù),就有巨大優(yōu)勢。這意味著硅谷的科技巨頭在開發(fā)、應(yīng)用人工智能系統(tǒng)方面具有巨大優(yōu)勢。相反,中小企業(yè)和公共部門則毫無優(yōu)勢。在此背景下,數(shù)字技術(shù)和人工智能相關(guān)的數(shù)據(jù)爭議將持續(xù)復(fù)雜化。

首要的是區(qū)分?jǐn)?shù)據(jù)和個人數(shù)據(jù)。在數(shù)據(jù)的問題上,所有權(quán)的概念與數(shù)據(jù)不相容,以打電話數(shù)據(jù)為例,參與的各方都可能主張所有權(quán)。因此在法律規(guī)則層面使用數(shù)據(jù)保管和控制等概念更為明確。

在促進(jìn)數(shù)據(jù)訪問和共享方面,歐盟GDPR規(guī)定了數(shù)據(jù)可攜帶權(quán),企業(yè)必須向用戶免費提供其全部的個人數(shù)據(jù)的副本,這可以避免“鎖定”效應(yīng),方便用戶無縫切換到其他服務(wù),從而促進(jìn)競爭。此外,醫(yī)療、交通、科學(xué)、教育等領(lǐng)域存在大量公共數(shù)據(jù),自由、公開獲取公共數(shù)據(jù)對于最大化這些數(shù)據(jù)的價值是極為重要的。

在最大化利用數(shù)據(jù)的同時,必須最小化對隱私的侵犯。所以需要在數(shù)據(jù)開放和數(shù)據(jù)隱私之間尋得平衡。匿名化是有效的技術(shù)措施。雖然去識別化后很容易再識別(比如通過與其他數(shù)據(jù)集交叉引用),但英國數(shù)據(jù)保護(hù)法已將再識別規(guī)定為犯罪。

為了促進(jìn)數(shù)據(jù)訪問和共享,英國議會提出如下建議:

1.成立數(shù)據(jù)信托(data trusts),加強(qiáng)數(shù)據(jù)訪問和共享。

2.開放公共數(shù)據(jù),同時進(jìn)行匿名化處理,以維護(hù)安全和隱私;公共數(shù)據(jù)的開放可采取單點分享模式,政府AI辦公室和數(shù)據(jù)倫理和創(chuàng)新中心負(fù)責(zé)制定需要遵守的適當(dāng)條款和條件,保護(hù)隱私。

3.完善和加強(qiáng)個人控制數(shù)據(jù)的法律和技術(shù)機(jī)制,實現(xiàn)安全分享個人數(shù)據(jù),開放銀行數(shù)據(jù)機(jī)制(Open Banking,英國為了促進(jìn)銀行金融服務(wù)創(chuàng)新采取的一種金融數(shù)據(jù)分享機(jī)制,通過API工具允許用戶將其金融數(shù)據(jù)安全地分享給第三方)可資借鑒。

實現(xiàn)可理解、可信賴的人工智能避免在特定領(lǐng)域采用“黑盒”算法

讓人工智能可被開發(fā)者、用戶、監(jiān)管者等理解是重要的。然而深度學(xué)習(xí)系統(tǒng)也就是所謂的“黑盒”系統(tǒng)給理解人工智能提出了挑戰(zhàn)。在數(shù)據(jù)輸入和輸出的多個分層間,開發(fā)者也不清楚到底是哪個因素導(dǎo)致系統(tǒng)做出特定決策。

解決人工智能系統(tǒng)的不可理解性(intelligibility)的一種方案是增加系統(tǒng)的技術(shù)透明(technical transparency)。比如將人工智能系統(tǒng)的源代碼開放。透明包括事前的透明和事后的透明,不能一味追求事前的透明。

英國議會認(rèn)為,就如今特定類型的人工智能系統(tǒng)而言,完全實現(xiàn)技術(shù)透明是困難的,甚至是不可能的。然而,在安全攸關(guān)的特定場景中,技術(shù)透明是必須的。這些領(lǐng)域的監(jiān)管者必須強(qiáng)制要求使用更加透明的人工智能系統(tǒng),為此可以犧牲系統(tǒng)的能力和準(zhǔn)確性。

另一種方案是可解釋性,意味著人工智能系統(tǒng)可以解釋其決策背后的數(shù)據(jù)和邏輯。很多企業(yè)包括谷歌、微軟等都致力于開發(fā)可解釋的機(jī)器學(xué)習(xí)系統(tǒng)。歐盟GDPR第22條提出的“解釋權(quán)”某種程度上可以促進(jìn)解決可解釋的人工智能系統(tǒng)的問題。英國數(shù)據(jù)保護(hù)法吸收了“解釋權(quán)”并更進(jìn)一步地要求企業(yè)將自動化決策的結(jié)果告知用戶,而且用戶有權(quán)請求重新考慮該決策或不被算法決策。

英國議會認(rèn)為,如果人工智能想要成為人類社會中完整且可信賴的工具,研發(fā)可理解的人工智能系統(tǒng)就是根本性的。如果人工智能會對個人生活產(chǎn)生重大影響,除非其能夠為其決策提出令人滿意的解釋,否則就不應(yīng)采用此種系統(tǒng)。就深度神經(jīng)網(wǎng)絡(luò)而言,由于不可能實現(xiàn)可解釋性,故在找到替代性方案之前應(yīng)推遲將其用于特定重大領(lǐng)域。數(shù)據(jù)倫理和創(chuàng)新中心應(yīng)和相關(guān)機(jī)構(gòu)一道制定可理解的人工智能系統(tǒng)的要求指南,并指導(dǎo)企業(yè)貫徹指南和相關(guān)標(biāo)準(zhǔn)。

理解算法歧視,探索針對訓(xùn)練數(shù)據(jù)和算法的審查、測試機(jī)制

新一代人工智能的核心是機(jī)器學(xué)習(xí),體現(xiàn)為從大量的訓(xùn)練數(shù)據(jù)集中自動發(fā)現(xiàn)模式。如果數(shù)據(jù)的代表性不足或折射出歧視,則將來決策也可能代表性不足或具有歧視。歧視可能通過多種方式潛入系統(tǒng),比如可能來源于訓(xùn)練數(shù)據(jù)、處理的數(shù)據(jù)或創(chuàng)建算法的人和機(jī)構(gòu),也可能由于不準(zhǔn)確、不完整的數(shù)據(jù)或算法自身的偏差。如果數(shù)據(jù)庫不能準(zhǔn)確地反映現(xiàn)實,或準(zhǔn)確地反映社會中不公平的一面,同樣可能產(chǎn)生歧視。

英國議會建議,需要采取更多措施確保數(shù)據(jù)真正具有代表性,能夠代表多元化的人群,并且不會進(jìn)一步加劇或固化社會不公平。研發(fā)人員需要更加深入地理解算法歧視的問題。必須確保處理的數(shù)據(jù)盡可能平衡且有代表性,研發(fā)團(tuán)隊的人員構(gòu)成是多元化的,能夠代表不同社會群體。除了數(shù)據(jù)歧視的問題,研發(fā)人員還必須考慮他們自己有意或無意帶入系統(tǒng)的偏見——人類開發(fā)者為機(jī)器學(xué)習(xí)算法設(shè)置了參數(shù),他們做出的選擇不可避免地折射出他們的信念、假設(shè)和偏見。這就需要確保研發(fā)人員具有多元的性別、種族和社會經(jīng)濟(jì)背景并遵守倫理行為準(zhǔn)則。

英國議會還建議配置權(quán)威的工具和系統(tǒng),以便審查、測試訓(xùn)練數(shù)據(jù),從而確保其足以代表不同群體,確保當(dāng)被用來訓(xùn)練人工智能系統(tǒng)時,不會導(dǎo)致歧視性決定。

警惕數(shù)據(jù)壟斷更新倫理、數(shù)據(jù)保護(hù)和競爭框架

數(shù)據(jù)訪問和控制是現(xiàn)代人工智能進(jìn)步的關(guān)鍵要素。數(shù)據(jù)網(wǎng)絡(luò)效應(yīng)(data network effect)可導(dǎo)致特定企業(yè)創(chuàng)建私人所有的數(shù)據(jù)庫,占據(jù)市場優(yōu)勢。然而,對于數(shù)據(jù)壟斷,人們眾說紛紜,未有定論。國際智庫數(shù)據(jù)創(chuàng)新中心認(rèn)為不存在所謂的基于數(shù)據(jù)的壟斷,贏家也不可能通吃。

英國議會認(rèn)為,數(shù)據(jù)的壟斷表明需要更強(qiáng)健的倫理、數(shù)據(jù)保護(hù)和競爭框架。并督促政府和競爭執(zhí)法部門積極審查在英國的大型科技公司的數(shù)據(jù)使用及潛在的壟斷問題。

研究并應(yīng)對法律責(zé)任挑戰(zhàn)闡明責(zé)任規(guī)則及其適用

新技術(shù)尤其是人工智能的廣泛研發(fā)和使用,給既有法律和監(jiān)管框架提出了挑戰(zhàn)。比如可能挑戰(zhàn)現(xiàn)在的私法概念(合同或侵權(quán))下的法律義務(wù)的基礎(chǔ)。一個重大的問題是,誰應(yīng)當(dāng)為借助或由人工智能做出的決定負(fù)責(zé)。這可能涉及發(fā)放抵押貸款、診斷疾病或自動駕駛汽車做出的決定。最重要的問題可能還是涉及自主機(jī)器(autonomous machines)的事故的責(zé)任,因為按照既有責(zé)任規(guī)則,法律主體(自然人或公司)將最終承擔(dān)責(zé)任。

解決法律責(zé)任問題是重要的。因為想讓人工智能被廣泛采用,就必須首先跨越法律責(zé)任的障礙。而且法律責(zé)任框架和保險對于允許這些系統(tǒng)被實際使用是至關(guān)重要的。法律責(zé)任和保險的缺失將阻礙技術(shù)的采用。

然而,對于是否需要制定新的法律責(zé)任規(guī)則,各方眾說紛紜。有人認(rèn)為人工智能會給基于合理期待和可預(yù)測的責(zé)任規(guī)則提出重大挑戰(zhàn)。另有人認(rèn)為基于過錯的責(zé)任體系,依賴于因果鏈條,將難以適用,因為算法缺乏“合理的可預(yù)見性”。但也有人認(rèn)為法律只適用于人類及其使用技術(shù)的方式,所以肯定會有人使用算法,那么可以將責(zé)任分配給使用者。

在英國議會看來,可以肯定的是,人工智能系統(tǒng)可能出錯,造成損害。但不確定的是,是否需要新的法律責(zé)任機(jī)制,或者既有責(zé)任機(jī)制是否是充分的。所以需要進(jìn)一步研究。英國議會建議法律委員會考慮當(dāng)前立法在解決人工智能法律責(zé)任問題上的充分性,并闡明法律適用問題。并且應(yīng)當(dāng)提出關(guān)于可責(zé)性和可理解性的明確原則。

應(yīng)對人工智能和數(shù)據(jù)相關(guān)的新型網(wǎng)絡(luò)犯罪活動

人工智能可能成為傳統(tǒng)網(wǎng)絡(luò)攻擊的幫兇,導(dǎo)致更大規(guī)模的網(wǎng)絡(luò)攻擊。雖然人工智能系統(tǒng)越來越多地被用來增加網(wǎng)絡(luò)安全,但攻擊者可能欺騙人工智能驅(qū)動的網(wǎng)絡(luò)安全系統(tǒng),導(dǎo)致惡意軟件繞過防火墻。

現(xiàn)在關(guān)于“惡意人工智能”的研究正在增多,即研究人員如何來愚弄其他人工智能系統(tǒng)做出不準(zhǔn)確的歸類或決策。圖像識別系統(tǒng)最容易遭受此類攻擊,比如對圖片、三維模型和標(biāo)志作出細(xì)微調(diào)整就可以讓人工智能系統(tǒng)將其識別為完全不同的物體。在自動駕駛場景,這可能會造成汽車車禍。

英國議會認(rèn)為,初衷美好的人工智能研究可能被用來造成損害,這值得重視。研發(fā)人員必須積極考慮其工作的倫理影響,并采取措施防止人工智能濫用。

此外,由于數(shù)據(jù)成為訓(xùn)練人工智能系統(tǒng)的重要資源,將產(chǎn)生關(guān)于數(shù)據(jù)破壞的新型犯罪活動,比如摧毀數(shù)據(jù)、改變數(shù)據(jù)、注入大量欺騙性數(shù)據(jù)。因此,英國議會認(rèn)為應(yīng)采取措施確保數(shù)據(jù)的完整性和精確性不被損害,并為私營部門提供如何防止數(shù)據(jù)庫被惡意使用的建議。因此,需要加強(qiáng)研究防止數(shù)據(jù)破壞的方法,將來形成相關(guān)指南。

統(tǒng)一自主武器的國際概念就其開發(fā)和使用形成國際共識

人工智能研發(fā)最能刺激公眾神經(jīng)的莫過于將其用于軍事目的。將人工智能用于后勤、軍事戰(zhàn)略等非暴力軍事應(yīng)用無可厚非,各界爭議最大的主要是所謂的自主武器或者殺手機(jī)器人。對于自主武器可能在概念界定上存在困難。但問題的核心在于人類如何控制或監(jiān)督自主武器,尤其是完全的自主武器,意味著在沒有人類干預(yù)和指定攻擊目標(biāo)的情況下自主確定攻擊目標(biāo)。

2016年4月,聯(lián)合國召集94個國家討論致命自主武器系統(tǒng)(lethal autonomous weapons systems)的問題。討論是否應(yīng)當(dāng)依據(jù)《特定傳統(tǒng)武器公約》禁止或限制自主武器的開發(fā)和使用。

2017年11月,86個國家參加了關(guān)于武器公約的會議,現(xiàn)在已有22個國家禁止完全自主武器。

2017年9月,英國國防部表態(tài)稱英國當(dāng)前不擁有完全自主武器(fully autonomous weapon),也無意開發(fā)此類武器;并區(qū)分了自主武器和自動化武器(automated weapon),其他國家則未作區(qū)分。

英國議會認(rèn)為,英國政府將自主武器界定為“能夠理解高級別的意圖和指令”,這與其他國家的定義不符。這不利于國際社會就自主武器達(dá)成共識。因此,建議英國對自主武器的界定和世界其他國家保持一致。

成立新的人工智能機(jī)構(gòu)發(fā)揮全方位戰(zhàn)略、咨詢和領(lǐng)導(dǎo)作用

為了適應(yīng)、促進(jìn)人工智能的發(fā)展,英國政府已經(jīng)宣布成立幾個新的人工智能機(jī)構(gòu)。

AI委員會(AI Council)和政府AI辦公室(Government Office for AI)

工業(yè)戰(zhàn)略建議英國政府應(yīng)與行業(yè)和專家一道建立一個AI委員會,幫助協(xié)調(diào)人工智能在英國的發(fā)展。此外,成立一個新的政府AI辦公室(Government Office for AI)支持AI委員會。這兩個機(jī)構(gòu)的目的主要是促進(jìn)研究和創(chuàng)新,刺激需求并加速向整個經(jīng)濟(jì)部門滲透,推動AI勞動力更加多元,讓人們意識到高級數(shù)據(jù)分析技術(shù)的好處和優(yōu)勢。

數(shù)據(jù)倫理和創(chuàng)新中心(Centre for Data Ethics and Innovation )

這也是工業(yè)戰(zhàn)略宣布要成立的一個機(jī)構(gòu)。這是全球首個旨在就“符合倫理的、安全的、創(chuàng)新性的數(shù)據(jù)和人工智能使用”給政府提出建議的咨詢機(jī)構(gòu)。該中心將與行業(yè)一道建立數(shù)據(jù)信托(data trusts)。該中心不是監(jiān)管部門,將在塑造如何利用人工智能方面發(fā)揮領(lǐng)導(dǎo)作用。該中心主要職責(zé)包括:制定倫理框架、宣傳技術(shù)的好處、提出政策建議、推動數(shù)據(jù)信托(即促進(jìn)數(shù)據(jù)分享的機(jī)制)落地。

全國AI研究所(National AI Institute)

這一角色將由阿蘭圖靈研究所扮演。旨在借鑒加拿大、德國等國家的成功經(jīng)驗,形成全國人工智能研究的樞紐,引領(lǐng)未來技術(shù)發(fā)展。

英國議會敦促政府在人工智能領(lǐng)域提供戰(zhàn)略領(lǐng)導(dǎo)——制定一份明確的成功路線圖。此外,建議政府AI辦公室制定國家AI政策框架(即英國人工智能戰(zhàn)略),與工業(yè)戰(zhàn)略步伐一致。新的AI機(jī)構(gòu)的職權(quán)范圍必須明確。政府AI辦公室可以作為其他人工智能機(jī)構(gòu)的協(xié)調(diào)者。

當(dāng)前階段沒必要對人工智能采取統(tǒng)一的專門監(jiān)管

對于人工智能監(jiān)管,存在三種意見:

一是既有法律是足夠的,因為人工智能往往融入產(chǎn)品和系統(tǒng),這些產(chǎn)品和系統(tǒng)已經(jīng)很好地受到了監(jiān)管,所以不需要對人工智能進(jìn)行專門監(jiān)管(specific regulation)。

二是需要立即采取新的立法措施,旨在避免意想不到的后果,比如針對算法歧視、不公平等。

三是對人工智能監(jiān)管提出更審慎和分階段的路徑,因為糟糕的監(jiān)管可能阻礙人工智能發(fā)展、創(chuàng)新和競爭,因此可以采取事后監(jiān)管或者出臺倫理框架支持行業(yè)自律。此外,人工智能技術(shù)發(fā)展太快,成文的或?qū)iT的立法恐難跟上技術(shù)步伐,所以要避免嚴(yán)格、細(xì)致的法律要求。

英國議會認(rèn)為反對專門人工智能監(jiān)管的理由是讓人信服的。其一,企圖為所有人工智能應(yīng)用制定統(tǒng)一的監(jiān)管機(jī)制是不現(xiàn)實的。其二,由于技術(shù)發(fā)展太快,不可能通過立法進(jìn)行簡單粗暴的監(jiān)管,倒是可以采取標(biāo)準(zhǔn)、最佳實踐等方式。

因此,英國議會認(rèn)為,在當(dāng)前階段,對人工智能采取統(tǒng)一的專門監(jiān)管是不恰當(dāng)?shù)?。因為各個行業(yè)的專門監(jiān)管機(jī)構(gòu)最能評估人工智能對特定領(lǐng)域的影響并采取適宜的監(jiān)管措施。當(dāng)然,政府AI辦公室需要與數(shù)據(jù)倫理和創(chuàng)新中心一道確定潛在的監(jiān)管鴻溝。

制定國家人工智能準(zhǔn)則,推動形成人工智能研發(fā)和使用的全球共同倫理框架

可以肯定的是,人工智能將對社會、政治和經(jīng)濟(jì)都產(chǎn)生影響。如果發(fā)展不好,可能削弱公眾對人工智能的信任。因此必須讓公眾相信,人工智能的使用符合他們的利益,不會被用來剝削或操縱他們。

一些機(jī)構(gòu)和企業(yè)已經(jīng)提出了各自的人工智能倫理原則,如IBM提出了三條原則:AI輔助而非取代人類;AI必須透明;公民和勞動者需要為使用AI產(chǎn)品和服務(wù)獲得教育和培訓(xùn)。

Sage提出了五條,涉及多元化、透明性、可獲取性、可責(zé)性及輔助而非取代人類。此外,SAP、NVIDIA都有類似舉措。

DeepMind則成立了“人工智能倫理與社會部門”,理解人工智能的現(xiàn)實影響并幫助技術(shù)人員將倫理付諸實踐。在自我監(jiān)管的框架中,倫理委員會和倫理審查委員會是重要的工具。

此外,IEEE、美國人工智能聯(lián)盟(Partnership on AI)、英國標(biāo)準(zhǔn)組織(BSI)都在推動類似舉措。

但英國卻缺乏國家層面的人工智能準(zhǔn)則。雖然可以將這些原則涵蓋進(jìn)數(shù)字憲章(digital charter)或政府?dāng)?shù)據(jù)科學(xué)倫理框 架(Government’s Data Science Ethical Framework)中,但這些舉措進(jìn)展緩慢,而現(xiàn)在又迫切需要一個規(guī)范人工智能系統(tǒng)開發(fā)和使用的倫理框架。問題還包括,企業(yè)如何將這些原則轉(zhuǎn)變?yōu)閷嵺`,不遵守需要承擔(dān)多大的責(zé)任。這些都需要進(jìn)一步探討和研究。

英國議會為人工智能準(zhǔn)則(AI Code)的制定提出了五條初步的原則:

其一,開發(fā)人工智能應(yīng)當(dāng)為了共同利益和人類福祉。

其二,人工智能的運(yùn)行應(yīng)符合可理解原則和公平原則。

其三,不應(yīng)利用人工智能來削弱數(shù)據(jù)權(quán)利或隱私。

其四,所有公民都有權(quán)獲得教育,以便享有人工智能帶來的好處。

其五,傷害、毀滅或欺騙人類的自主權(quán)力絕不應(yīng)委托給人工智能。

此外,英國議會認(rèn)為,英國在人工智能領(lǐng)域多方面的優(yōu)勢,使英國有能力在國際舞臺上幫助塑造人工智能研發(fā)和使用的倫理框架。因此建議政府在2019年的時候,與感興趣的國家和政府、行業(yè)、學(xué)術(shù)界和民間團(tuán)體一道在平等的基礎(chǔ)上,在倫敦召開全球峰會。這次峰會的目的便是制定人工智能系統(tǒng)開發(fā)和使用的全球共同倫理框架。

最后,正如本文開頭所說,在人工智能的下一波發(fā)展浪潮中,英國具有獨一無二的硬實力和優(yōu)勢,有能力成為人工智能領(lǐng)域的全球領(lǐng)導(dǎo)者。如今,英國議會長達(dá)180頁的綜合性人工智能報告,則希望打造英國的人工智能軟實力。不僅對人工智能監(jiān)管等相關(guān)問題有著清晰的認(rèn)識,而且要將英國的人工智能軟實力輸出為國際規(guī)則,甚至主導(dǎo)國際規(guī)則的制定。

猜你喜歡
英國議會倫理監(jiān)管
《心之死》的趣味與倫理焦慮
數(shù)字監(jiān)管 既能“看病”也能“開方”
《白噪音》中后現(xiàn)代聲景的死亡倫理思考
綜合監(jiān)管=兜底的網(wǎng)?
倫理批評與文學(xué)倫理學(xué)
華語科幻電影中的“倫理性”想象
監(jiān)管交通
丹阳市| 东光县| 仁寿县| 高尔夫| 临潭县| 会东县| 东宁县| 甘德县| 珲春市| 乌拉特后旗| 台湾省| 汕头市| 环江| 育儿| 深泽县| 枣强县| 平潭县| 绥宁县| 许昌县| 寿宁县| 靖江市| 嵊州市| 抚松县| 宝坻区| 青神县| 寿宁县| 杭锦旗| 昌宁县| 老河口市| 七台河市| 曲靖市| 陈巴尔虎旗| 班玛县| 宜州市| 河北省| 富裕县| 襄樊市| 哈巴河县| 济阳县| 明水县| 江源县|