国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能如何“德才兼?zhèn)洹?/h1>
2018-05-14 12:06溫新紅
科學(xué)導(dǎo)報(bào) 2018年44期
關(guān)鍵詞:德才兼?zhèn)?/a>倫理機(jī)器

溫新紅

1956年夏季,當(dāng)一批年輕的科學(xué)家首次提出“人工智能”這一術(shù)語,想必他們是激動(dòng)的。在經(jīng)過了緩慢發(fā)展的一段時(shí)間后,得益于大數(shù)據(jù)驅(qū)動(dòng)、硬件技術(shù)的不斷發(fā)展、計(jì)算能力的提升、深度學(xué)習(xí)算法等帶來的數(shù)據(jù)智能和感知智能上的突破,才使得人工智能近些年快速發(fā)展。

“在人工智能的發(fā)展和應(yīng)用中,倫理必須占據(jù)中心地位?!苯衲?月,英國(guó)上議院出了一份長(zhǎng)達(dá)183頁的報(bào)告《人工智能在英國(guó):充分準(zhǔn)備、意愿積極、能力爆棚?》,不僅說了人工智能在英國(guó)的發(fā)展,更聚焦于倫理道德問題——那些AI可能為人類帶來的風(fēng)險(xiǎn)。

在機(jī)器人原則與倫理標(biāo)準(zhǔn)方面,日本、韓國(guó)、英國(guó)、歐洲和聯(lián)合國(guó)教科文組織等相繼推出了多項(xiàng)倫理原則、規(guī)范、指南和標(biāo)準(zhǔn)。

2016年,聯(lián)合國(guó)教科文組織發(fā)布了《機(jī)器人倫理報(bào)告初步草案》,該《草案》不僅探討了社會(huì)、醫(yī)療、健康、軍事、監(jiān)控、工作中的機(jī)器人倫理問題,最后還對(duì)運(yùn)用機(jī)器倫理制造道德機(jī)器進(jìn)行了討論。

2016~2017年,電氣電子工程師協(xié)會(huì)(IEEE)頒布了《人工智能設(shè)計(jì)的倫理準(zhǔn)則》的第一版和第二版。

目前,中國(guó)相關(guān)部門也正在積極地開展人工智能的標(biāo)準(zhǔn)研究。

無疑,人們?cè)谔接懭斯ぶ悄軒淼膫惱韱栴}的同時(shí),還在思考怎樣才能解決這些倫理問題,盡管離解決問題還有些距離。

機(jī)器有偏見

今年5月,滴滴順風(fēng)車司機(jī)殺害女乘客事件發(fā)生后,有網(wǎng)友爆出,滴滴順風(fēng)車司機(jī)通過平臺(tái)軟件,在接單前可以看到以前司機(jī)對(duì)乘客的全部評(píng)價(jià),而這些評(píng)價(jià)中就包括對(duì)女性乘客外貌的評(píng)價(jià)。這是因?yàn)槠脚_(tái)軟件上增加了社交功能。

今年2月,《紐約時(shí)報(bào)》英文網(wǎng)站發(fā)表了一篇文章,指出如今非常熱門的人工智能應(yīng)用人臉識(shí)別,針對(duì)不同種族的準(zhǔn)確率差異巨大。這讓人們意識(shí)到,人工智能系統(tǒng)確實(shí)可能存在偏見。

人工智能帶來的文化偏見的例子還有很多,如詞語“女性”“婦女”與藝術(shù)人文類職業(yè)以及家庭聯(lián)系更緊密,詞語“男性”“男人”則和數(shù)學(xué)、工程類職業(yè)更近。尤為危險(xiǎn)的是,AI還有強(qiáng)化所習(xí)得的偏見的潛能,它們不像人可以有意識(shí)地去抵制偏見。

不用說,當(dāng)下時(shí)不時(shí)就會(huì)看到人工智能的新聞,且多是對(duì)人們生活已造成或者可能造成負(fù)面影響的消息。又比如這兩天在國(guó)內(nèi)出現(xiàn)的手機(jī)任意調(diào)動(dòng)攝像頭事件,人們震驚于原來有的手機(jī)會(huì)自動(dòng)把攝像頭打開。

顯然,人工智能的倫理問題比以往技術(shù)帶給人類的更為復(fù)雜。

美國(guó)耶魯大學(xué)教授溫德爾·瓦拉赫表示,人工智能是一種認(rèn)知技術(shù),是區(qū)別于過去的技術(shù)發(fā)展。過去的技術(shù)發(fā)展確實(shí)能取代一部分人類的勞動(dòng),但通常不包括人類的精神活動(dòng)。而人工智能可能會(huì)在更廣泛的領(lǐng)域內(nèi)取代人類的工作。

技術(shù)帶來的倫理問題本質(zhì)上是相同的。但隨著新技術(shù)的發(fā)展,這些問題會(huì)以新的形式出現(xiàn)。這里不僅包括人工智能,也包括其他新興技術(shù)。“但不同的是,人工智能不僅僅是一個(gè)特定的應(yīng)用,或者一組應(yīng)用,它是一項(xiàng)幾乎可以應(yīng)用于生活的每一個(gè)方面的技術(shù)?!?/p>

倫理有缺位

“人工智能和包括機(jī)器人在內(nèi)的智能化自動(dòng)系統(tǒng)的普遍應(yīng)用,不僅僅是一場(chǎng)結(jié)果未知的開放性的科技創(chuàng)新,更將是人類文明史上影響至為深遠(yuǎn)的社會(huì)倫理試驗(yàn)?!敝袊?guó)社會(huì)科學(xué)院研究員段偉文近些年致力于人工智能的倫理研究,他表達(dá)了自己的擔(dān)憂。

對(duì)于前面提到滴滴順風(fēng)車司機(jī)殺害女乘客的事件,段偉文分析,作為共享交通平臺(tái),它的目標(biāo)是安全快捷地把乘客送達(dá)目的地,現(xiàn)在為了達(dá)到商業(yè)上的利益最大化,增加了社交軟件,卻沒有考慮到那些女乘客以及潛在受害者的利益。這就涉及到倫理問題?!巴ㄟ^對(duì)司機(jī)、乘客和平臺(tái)的利益分析和價(jià)值分析,發(fā)現(xiàn)其實(shí)包含了對(duì)各方的利害得失與價(jià)值沖突。”

如果說人工智能對(duì)人類的威脅是終極問題,如何解決還未可知,那么人工智能在當(dāng)下活動(dòng)中體現(xiàn)出來的倫理問題就亟待解決了。

段偉文認(rèn)為,應(yīng)當(dāng)從我們這些年研究科學(xué)技術(shù)前沿中的、科學(xué)技術(shù)應(yīng)用中遇到的實(shí)例,去探討人工智能的倫理問題。“從這個(gè)角度,我更愿意把它當(dāng)作未完成的倫理?!?/p>

與以往不同,人工智能倫理研究不再是一個(gè)高高在上的理論,也沒有一套適用全部情形的普遍原則體系,更多的是針對(duì)具體的人類活動(dòng)或者科技實(shí)踐的原則體系,比如說,陪護(hù)機(jī)器人就需要一些防止過度依賴機(jī)器人的原則。

“從里面找到一些價(jià)值沖突,需要作哪些倫理的決擇,讓我們發(fā)現(xiàn)問題、研究問題?!倍蝹ノ恼f。

另外,當(dāng)下的社會(huì)中,大數(shù)據(jù)讓人們享受了便捷,同時(shí)這些數(shù)據(jù)會(huì)受到不良的使用,或者是沒有必要的濫用。而由于大數(shù)據(jù)的挖掘?qū)е律虡I(yè)智能的運(yùn)用對(duì)人的權(quán)利的侵犯,這種侵犯最核心一點(diǎn)就是人的自主權(quán),包括隱私。

因此,歐盟數(shù)據(jù)保護(hù)條例中,針對(duì)保護(hù)個(gè)人數(shù)據(jù)的態(tài)度很強(qiáng)硬,只要能夠識(shí)別是個(gè)人的,就是個(gè)人數(shù)據(jù),而且個(gè)人能決定他的數(shù)據(jù)怎么使用、該不該使用,以及對(duì)有些數(shù)據(jù)要求被遺忘、數(shù)據(jù)可攜帶等。

“讓技術(shù)在社會(huì)上更好地運(yùn)行,就要從倫理上對(duì)它進(jìn)行設(shè)計(jì)。”段偉文說,比如現(xiàn)在經(jīng)常提到監(jiān)控裝置對(duì)人的隱私的傷害,將來可以讓使用者看到攝像頭的界面,讓人們?cè)谝欢ǔ潭壬狭私庾约旱臄?shù)據(jù)如何被追蹤和使用;這樣既可以促使數(shù)據(jù)追蹤者規(guī)范其行為,也有利于被追蹤對(duì)象適當(dāng)修正其行為方式?!斑@是數(shù)據(jù)時(shí)代、信息時(shí)代一個(gè)新的信息對(duì)稱的問題,讓不對(duì)稱變對(duì)稱一點(diǎn),尋求一種再平衡。”

道德機(jī)器是否可期

美國(guó)著名科幻作家阿西莫夫曾在他的小說中提到“機(jī)器人學(xué)三定律”。以往人們更關(guān)注其內(nèi)容,而忽視了“機(jī)器人學(xué)三定律”如何在實(shí)際操作中來規(guī)范機(jī)器人的行為。

其實(shí)阿西莫夫有很詳細(xì)的構(gòu)想,通過技術(shù)直接嵌入到機(jī)器人的控制軟件或智能編碼底層,令“機(jī)器人學(xué)三定律”不只是紙上法則,更可經(jīng)由技術(shù)強(qiáng)制執(zhí)行——通過內(nèi)置的“機(jī)器道德調(diào)節(jié)器”使機(jī)器人成為有道德的機(jī)器人。

如何解決人工智能的倫理問題,這是一個(gè)科學(xué)家、哲學(xué)家以及相關(guān)領(lǐng)域的研究者都不能忽視的問題。讓機(jī)器人有道德或許不是科幻呢?

溫德爾·瓦拉赫和認(rèn)知哲學(xué)家科林·艾倫在10年前共同完成了《道德機(jī)器:如何讓機(jī)器人明辨是非》一書。他們對(duì)能否讓機(jī)器有道德進(jìn)行了研究。溫德爾·瓦拉赫是耶魯大學(xué)生物倫理學(xué)跨學(xué)科研究中心主管,曾開過“機(jī)器人的道德和人的倫理”的課程。

科林·艾倫1999年涉足這個(gè)領(lǐng)域,他還曾任《斯坦福哲學(xué)百科全書》——全球最大的電子哲學(xué)詞典的技術(shù)總監(jiān),指導(dǎo)開發(fā)人員,使他同時(shí)在哲學(xué)和計(jì)算機(jī)這兩個(gè)領(lǐng)域皆有深刻的理解。

2002年,他們?cè)诘聡?guó)巴登巴登召開的一次會(huì)議上相識(shí),因共同的學(xué)術(shù)興趣,兩人開始研究人工道德智能體的技術(shù)層面的倫理問題。2008年2月完成了本書,2009年英文版出版。

兩位學(xué)者在書中提出要設(shè)計(jì)出符合人類道德規(guī)范的機(jī)器人。這個(gè)聽起來是不大可能實(shí)現(xiàn)的目標(biāo)。他們也認(rèn)為,完備的機(jī)器道德智能體還很遙遠(yuǎn),但是目前有必要,而且有可能開始建構(gòu)一種功能性道德,從而使人工道德智能體可以具有基本的道德敏感性。

例如,對(duì)于前面提到的語言上的偏見,艾倫認(rèn)為應(yīng)該考慮的是,“如何在設(shè)計(jì)理解語言的算法時(shí)既讓其消除偏見,又不喪失其對(duì)語言的解釋能力”。

兩位學(xué)者進(jìn)行了開創(chuàng)性的研究,并提出了解決方案的三條路徑:一是自上而下,就是把人類已經(jīng)成熟的倫理系統(tǒng)、道德理論體系灌輸進(jìn)去,即理論驅(qū)動(dòng)作決策;二是自下而上式的數(shù)據(jù)驅(qū)動(dòng)的學(xué)習(xí)和進(jìn)化的方式;三是混合進(jìn)路系統(tǒng),即將前兩種結(jié)合起來,使人工智能體在一定的普遍倫理準(zhǔn)則指引下、通過深度學(xué)習(xí)算法,在與人類的互動(dòng)中不斷完善其倫理系統(tǒng)。

西安交通大學(xué)計(jì)算哲學(xué)實(shí)驗(yàn)室中方主任、本書主譯王小紅介紹,《道德機(jī)器》的兩位作者的討論是基于哲學(xué)家、科學(xué)哲學(xué)家、技術(shù)倫理學(xué)家在交叉領(lǐng)域的深入思考和研究,沒有停留在形而上的討論上,而是提出了可行性方案讓這種自動(dòng)控制系統(tǒng)機(jī)器人有道德的能力?!疤貏e有預(yù)見性和超前意識(shí),在10年前就考慮從前端來解決問題。”

王小紅進(jìn)一步解釋,從前端將倫理算法嵌入機(jī)器,并不代表著其他的社會(huì)控制不需要,因?yàn)椴豢赡馨阉械膶?shí)際社會(huì)場(chǎng)景、生活難題都預(yù)測(cè)到,后來遇到了還可以通過其他規(guī)范去制約。所以,她認(rèn)為,前端嵌入和后端制約應(yīng)該是齊頭并進(jìn)的。

要走的路還很長(zhǎng)

像所有開放的和影響深遠(yuǎn)的人類活動(dòng)一樣,人工智能的不斷發(fā)展和加速進(jìn)步使人們很難明確界定其內(nèi)涵。同樣的,人工智能的倫理也沒有相對(duì)嚴(yán)格的定義和界限。

段偉文認(rèn)為,當(dāng)前,有關(guān)人工智能與機(jī)器人的倫理研究可大致分為四個(gè)進(jìn)路。

一是面向應(yīng)用場(chǎng)景的描述性研究;二是凸顯主體責(zé)任的責(zé)任倫理研究;三是基于主體權(quán)利的權(quán)利倫理研究;四是探討倫理嵌入的機(jī)器倫理研究。

段偉文解釋說,第四種相當(dāng)于溫德爾·瓦拉赫和科林·艾倫的探討,因此說,怎么讓機(jī)器有道德,是前瞻性的探討,也是現(xiàn)在討論的一部分。盡管此進(jìn)路已有一些探索,但在技術(shù)上存在極大困難,理論上也遭遇難以解決的道德困境。

“阿西莫夫所提出的機(jī)器人定律可能未必有實(shí)質(zhì)的意義,但其真正的價(jià)值可能更多地在于觀念上的超前與突破?!倍蝹ノ恼f,機(jī)器人三定律帶來的啟迪是:為了使人所創(chuàng)造的機(jī)器人和人工智能有益人類和免于失控,應(yīng)致力于從人類價(jià)值、利益、安全以及未來發(fā)展的角度對(duì)其加以價(jià)值校準(zhǔn)與倫理調(diào)適,以此消除人們對(duì)其終極創(chuàng)造物的疑慮。

人工智能的倫理問題要走的路還有很長(zhǎng)?!八鼘?shí)際上是一個(gè)改變歷史的轉(zhuǎn)折點(diǎn),而不僅僅是對(duì)過去問題的簡(jiǎn)單延續(xù)?!睖氐聽枴ね呃毡硎?,而且這項(xiàng)研究幾乎所有的學(xué)科都涵蓋在內(nèi),如神經(jīng)科學(xué)、經(jīng)濟(jì)學(xué)、心理學(xué)、哲學(xué)等?!靶枰紤]的是,哪些方面會(huì)影響人類進(jìn)行決策,以及它們是如何影響人類決策的?!?/p>

盡管人工智能的問題很多,但不能像限制直接對(duì)人類造成傷害的技術(shù)那樣限制人工智能的發(fā)展,因?yàn)闆]人會(huì)懷疑,如果現(xiàn)在限制了,未來的10年、30年或50年之后,人們又不得不回過頭來重新開始發(fā)展這些技術(shù)。

在溫德爾·瓦拉赫和科林·艾倫看來,解決終極的人工智能倫理問題還很遙遠(yuǎn),但需要朝著這個(gè)方向走,而且,他們有關(guān)“道德機(jī)器”的觀點(diǎn)依然非常領(lǐng)先,甚至更具現(xiàn)代化,可作為人們反思這些問題的基礎(chǔ)。

猜你喜歡
德才兼?zhèn)?/a>倫理機(jī)器
機(jī)器狗
機(jī)器狗
淺談我國(guó)社會(huì)工作倫理風(fēng)險(xiǎn)管理機(jī)制的構(gòu)建
親組織非倫理行為研究
親組織非倫理行為研究
未來英才(2016年3期)2016-12-26
大學(xué)生道德教育中的“周麗現(xiàn)象”研究
學(xué)生游戲的德育價(jià)值及游戲活動(dòng)研究
神奇的獨(dú)眼機(jī)器
非倫理領(lǐng)導(dǎo)對(duì)員工職場(chǎng)非倫理行為的作用機(jī)制研究