段文萱,石旭雯
(天津醫(yī)科大學(xué)醫(yī)學(xué)人文學(xué)院,天津 300070,dwx_1121@126.com)
人工智能就是讓機(jī)器或者是人所創(chuàng)造的其他的人工方法或系統(tǒng)來(lái)模擬人類智能。人工智能又分為強(qiáng)人工智能和弱人工智能,而我們目前所研究的領(lǐng)域及成果都屬于弱人工智能,即讓機(jī)器具有某種行為,處于模仿人類行為的階段。
20世紀(jì)50年代由圖靈初次提出了圖靈測(cè)試的觀點(diǎn),并且預(yù)言出了智能機(jī)器存在的可能性,引起了全世界范圍內(nèi)的普遍關(guān)注,為人工智能科學(xué)的發(fā)展奠定了基礎(chǔ)。從1956年,在達(dá)特茅斯會(huì)議上首次提出了“人工智能”一詞,直到現(xiàn)在經(jīng)過(guò)60多年的曲折發(fā)展,人工智能進(jìn)入了一個(gè)全新的飛速發(fā)展的時(shí)期。隨著互聯(lián)網(wǎng)、云計(jì)算、大數(shù)據(jù)等一系列新的信息技術(shù)的發(fā)展和應(yīng)用給部分產(chǎn)業(yè)帶來(lái)了巨大的沖擊,同時(shí)也給新興產(chǎn)業(yè)帶來(lái)了新的機(jī)遇。人工智能在我們生活中的各個(gè)領(lǐng)域發(fā)揮著重要的作用,為我們的生活提供了便利[1];但在飛速發(fā)展的同時(shí)也引發(fā)了一系列的探討,例如“人工智能是否會(huì)取代人類”“人工智能的快速發(fā)展是否會(huì)導(dǎo)致人類的滅亡”。人工智能的倫理問(wèn)題逐漸受到了重視。
針對(duì)“人工智能是否會(huì)征服人類”這一類問(wèn)題學(xué)界也有著不同的看法,但我們不能因?yàn)閾?dān)憂未來(lái)而阻止人工智能的發(fā)展,阻礙社會(huì)的進(jìn)步;同樣,我們也不能因?yàn)楝F(xiàn)階段人工智能并未超越人類而放松警惕,任其發(fā)展。
互聯(lián)網(wǎng)、物聯(lián)網(wǎng)技術(shù)的發(fā)展,為我們帶來(lái)了巨大便利的同時(shí)也增加了數(shù)據(jù)泄漏的風(fēng)險(xiǎn)[2]。我們?cè)谙硎芫W(wǎng)絡(luò)便利的同時(shí),手機(jī)也會(huì)記錄下我們的偏好,同時(shí)根據(jù)我們的搜索來(lái)推送適合我們的東西。而與這些常規(guī)數(shù)據(jù)相比,醫(yī)療數(shù)據(jù)的泄漏會(huì)造成更大的損失。例如,現(xiàn)如今的康復(fù)機(jī)器人就是要收集患者的數(shù)據(jù),患者的腦電波,從而幫助患者康復(fù)。這就使人工智能時(shí)代的到來(lái)面臨著一種尷尬的境地:①對(duì)于人工智能,數(shù)據(jù)是一切的基礎(chǔ),若想讓人工智能發(fā)展更好地服務(wù)于人類就必須讓其掌握一定的數(shù)據(jù);②當(dāng)人工智能掌握了大量的數(shù)據(jù)之后,我們的隱私又面臨著巨大的挑戰(zhàn)。那么在完全拋棄隱私和保護(hù)隱私兩個(gè)方面可否有一個(gè)平衡點(diǎn)[2],針對(duì)不同的數(shù)據(jù)具有不同的管理辦法,是我們目前發(fā)展應(yīng)解決的一個(gè)問(wèn)題。
人工智能應(yīng)用在各個(gè)領(lǐng)域中時(shí)與人類的公平待遇也存在一定的沖突,人工智能的目的是服務(wù)于人類,當(dāng)它的出現(xiàn)漸漸取代了一部分人工職業(yè)時(shí),會(huì)造成部分人失業(yè),如果忽視這個(gè)問(wèn)題,是對(duì)失業(yè)人員的一種不公平待遇。怎樣在這種模式的轉(zhuǎn)換中保證相對(duì)的穩(wěn)定和公平是目前需要解決的問(wèn)題。另外,在公司招聘時(shí)采用的自動(dòng)篩選系統(tǒng),系統(tǒng)通過(guò)輸入的條件自動(dòng)篩選符合條件的面試者,由于程序設(shè)置可能會(huì)自動(dòng)將女性應(yīng)聘者或者已婚應(yīng)聘者從名單中剔除,系統(tǒng)并不像人類靈活,無(wú)法對(duì)應(yīng)聘者作出客觀的評(píng)價(jià),從而造成了歧視,這是對(duì)應(yīng)聘者的不公平。在醫(yī)療領(lǐng)域,這種不公平待遇也會(huì)出現(xiàn),由于資源分配以及條件限制的原因,只有小部分患者可以享受人工智能醫(yī)療的服務(wù),那么如何在普及新型醫(yī)療的同時(shí),又能保證醫(yī)生護(hù)士不會(huì)因?yàn)檫^(guò)度依賴人工智能產(chǎn)品,而導(dǎo)致專業(yè)素養(yǎng)退化,這也是應(yīng)重視的問(wèn)題。在明確的人工智能的輔助地位后,此類的問(wèn)題也就迎刃而解了[3]。
責(zé)任倫理問(wèn)題主要指的是當(dāng)使用人工智能發(fā)生故障導(dǎo)致人類受傷或者造成損害時(shí),應(yīng)追究誰(shuí)的責(zé)任,是人工智能的設(shè)計(jì)者、制造者、編程者還是使用者,同時(shí)該不該追究人工智能本身的責(zé)任的問(wèn)題。在醫(yī)療領(lǐng)域,目前達(dá)芬奇手術(shù)機(jī)器人為醫(yī)學(xué)的發(fā)展注入了新的力量,新型手術(shù)機(jī)器人克服了醫(yī)生由于長(zhǎng)時(shí)間手術(shù)而產(chǎn)生的手部抖動(dòng)問(wèn)題,而且機(jī)械手臂僅有4毫米的直徑,超越人手極限,做到創(chuàng)傷小,更高效,出血少,恢復(fù)快,是人類醫(yī)療史上里程碑式的進(jìn)步。但是當(dāng)使用手術(shù)機(jī)器人過(guò)程中如果產(chǎn)生了意外,對(duì)患者造成了損傷,此時(shí),應(yīng)追究誰(shuí)的責(zé)任,或者術(shù)后患者出現(xiàn)了并發(fā)癥,那么誰(shuí)又該為此種情況負(fù)責(zé)呢?到底是研發(fā)機(jī)器人的公司還是操作機(jī)器人的醫(yī)生?機(jī)器人本身有沒(méi)有責(zé)任?這一系列的問(wèn)題都是亟待解決的。當(dāng)有了一套完備的責(zé)任分配體系,同時(shí)也是對(duì)每個(gè)環(huán)節(jié)的個(gè)人以及相應(yīng)機(jī)構(gòu)的明確約束,也可以保證人工智能的健康發(fā)展。
人工智能體——基于人工智能的智能體,是理解人工智能的核心概念。人工智能體在某種程度上顯示出一定的“主體性”,而這種“主體性”有何內(nèi)涵,人工智能體是否是獨(dú)立存在的道德個(gè)體?計(jì)算機(jī)倫理學(xué)創(chuàng)始人摩爾根據(jù)機(jī)器人可能具有的道德影響力,將其分為幾類,分別是:道德影響力智能體,是無(wú)論行為是否有意義但具有道德影響力的智能體;隱含的道德智能體,是具有道德的智能體隱含在其設(shè)計(jì)的考慮因素(通常指的是安全因素),可以對(duì)特定情況采用一些自動(dòng)的道德反映;明確的道德智能體,能夠識(shí)別和處理各種情況并對(duì)應(yīng)該做什么作出合理決定的智能體;完全的道德智能體,指的是像人一樣具有意識(shí)、意向性和自由意志等特征,并能對(duì)各種情況作出道德判斷[4]。理論上來(lái)說(shuō),人工智能體還是具有成為道德主體的可能的,假如我們把特定的倫理規(guī)范編程到人工智能體的系統(tǒng)中去,從而培養(yǎng)他們的道德判斷能力,這是否說(shuō)明人工智能體成為道德載體?如果我們可以把合乎道德的倫理規(guī)范編入人工智能中,是否也意味著可以把非道德的反倫理的體系編入其中?那么針對(duì)這一問(wèn)題,應(yīng)如何規(guī)范和約束人類的行為,防止把非道德體系編入人工智能系統(tǒng)中呢?那編入其中的道德是否屬于人的道德,是否與人的道德相同?機(jī)器人倫理是否應(yīng)該與人類的倫理區(qū)分開來(lái)?就目前的研究狀況來(lái)看,人工智能體要想作為獨(dú)立的道德個(gè)體而存在還有很長(zhǎng)的一段路要走;而我們只有切實(shí)地解決了一系列潛在問(wèn)題后,人工智能才有可能向前邁進(jìn)一步。
人工智能的倫理問(wèn)題引起了全世界范圍內(nèi)的關(guān)注,我們國(guó)家尚處在著手建立的階段。借鑒國(guó)際上已有的準(zhǔn)則,總結(jié)出幾點(diǎn)適合我國(guó)國(guó)情的人工智能倫理原則:
“不傷害”原則。由阿西莫夫提出的“機(jī)器人的三大定律”:①不傷害人類原則;②聽命于人類;③在保證前兩點(diǎn)的前提下,人工智能具有保障自己安全的權(quán)利。并以此為法則在“不傷害”前提下發(fā)展人工智能。
以人為本的原則。要明確規(guī)定人工智能產(chǎn)品是為人類服務(wù)的,不應(yīng)凌駕于人類之上而存在,而人類對(duì)于人工智能產(chǎn)品和技術(shù)有監(jiān)督管理權(quán)。
安全性原則。人工智能技術(shù)和人工智能產(chǎn)品本身都應(yīng)該是安全的,不易受到外界干擾的。在使用過(guò)程中應(yīng)是穩(wěn)定安全的,不可對(duì)使用者造成傷害;另外,一般的人工智能產(chǎn)品是服務(wù)于人類,聽命于人類的,不可輕易被人操縱用來(lái)攻擊傷害他人(用于軍事戰(zhàn)場(chǎng)的作戰(zhàn)型機(jī)器人除外)。人工智能產(chǎn)品收集到的數(shù)據(jù)也應(yīng)是安全的,不可隨意泄露,用戶也應(yīng)擁有隨時(shí)查看和刪除的權(quán)利,要充分保護(hù)用戶的隱私。
公平性原則。人工智能產(chǎn)品應(yīng)是服務(wù)于全人類的,不應(yīng)存在種族、年齡、性別等方面的歧視,其系統(tǒng)算法的編入也應(yīng)是公平公正的,不帶個(gè)人感情色彩的。
可持續(xù)性發(fā)展的原則。人工智能的產(chǎn)生和發(fā)展是一個(gè)時(shí)代的進(jìn)步,它應(yīng)當(dāng)是不斷前進(jìn)的,造福于人類的。所以人工智能的發(fā)展要符合可持續(xù)發(fā)展的原則,不應(yīng)破壞生態(tài)平衡,不應(yīng)破壞環(huán)境,真正做到人、機(jī)器、環(huán)境和諧相處,共同發(fā)展。
對(duì)于“人工智能是否會(huì)超越人類”這一問(wèn)題,必須要引起我們的高度重視。針對(duì)這一隱藏問(wèn)題,我們首先要對(duì)人工智能本身進(jìn)行限制,也就是限制其智能程度,控制權(quán)始終掌握在人類手中[2]。當(dāng)人工智能變成一個(gè)絕對(duì)安全可靠的工具時(shí),人們自然也不會(huì)擔(dān)心被取代的問(wèn)題。比如,當(dāng)人工智能應(yīng)用于醫(yī)療領(lǐng)域時(shí),我們便可以充分發(fā)揮其在醫(yī)學(xué)診斷領(lǐng)域的作用,對(duì)患者作最初步的診斷,為患者節(jié)省時(shí)間,患者在就醫(yī)前可先通過(guò)人工智能系統(tǒng)自行診斷,對(duì)于系統(tǒng)處理不了的問(wèn)題再由醫(yī)生治療,同時(shí)也為醫(yī)生減小了工作量。由人工智能先作預(yù)判,最終的診斷和治療還是掌握在醫(yī)生的手中。
另外,對(duì)人工智能的使用范圍也應(yīng)作一定的限制[2]。人工智能產(chǎn)品在領(lǐng)域方面有著明確的區(qū)分,比如AlphaGo的勝利說(shuō)明在棋類競(jìng)賽領(lǐng)域,人工智能確實(shí)超越了人類智能,AlpahGo采取了更高級(jí)的算法和學(xué)習(xí)的策略,它通過(guò)自身的學(xué)習(xí)而戰(zhàn)勝了人類,但也僅是在棋類領(lǐng)域,在其他領(lǐng)域里,人工智能還是無(wú)法超越人類本身的。人工智能的研究者莫拉維克(Hans Moravec)發(fā)現(xiàn),計(jì)算機(jī)在智力測(cè)驗(yàn)以及各種棋類游戲中表現(xiàn)超出人類的水平,然而它在視覺(jué)、知覺(jué)等領(lǐng)域卻連一歲小孩的程度都很難達(dá)到[5]。因此,把針對(duì)棋類競(jìng)賽、醫(yī)療衛(wèi)生、無(wú)人駕駛等專業(yè)的人工智能的應(yīng)用限制在自身領(lǐng)域范圍內(nèi)。一方面可以保證人工智能在此領(lǐng)域內(nèi)的絕對(duì)水平;另一方面也可以有效避免人工智能過(guò)于強(qiáng)大從而產(chǎn)生取代人類的危險(xiǎn)[3]。
人工智能科學(xué)家和設(shè)計(jì)師是人工智能的創(chuàng)造者,同時(shí)也是安全問(wèn)題的主體。人工智能體,機(jī)器人只是輔助人類生產(chǎn)生活的工具,無(wú)論它是否具有意識(shí),是否享有權(quán)利或者作為獨(dú)立的道德體所存在,它始終應(yīng)遵循“不傷害”原則[6]。人工智能產(chǎn)品在應(yīng)用時(shí)難免會(huì)出現(xiàn)一些問(wèn)題,由于涉及的人員和外界因素較為復(fù)雜,對(duì)于事故的責(zé)任劃分以及后續(xù)的賠償?shù)葐?wèn)題也變得十分復(fù)雜,目前尚沒(méi)有一個(gè)完整的責(zé)任劃分的標(biāo)準(zhǔn)。因此在“不傷害”原則的同時(shí),也應(yīng)推出“責(zé)任制”,制定一套系統(tǒng)的責(zé)任劃分標(biāo)準(zhǔn)以及賠償標(biāo)準(zhǔn)。責(zé)任制應(yīng)明確規(guī)定不同情況負(fù)責(zé)人承擔(dān)的相應(yīng)責(zé)任,首先,我們需要明確幾個(gè)概念:研發(fā)者——設(shè)計(jì)創(chuàng)造出人工智能產(chǎn)品的人;開發(fā)商——投資開發(fā)某種產(chǎn)品的公司或個(gè)人;使用者——人工智能產(chǎn)品上市后根據(jù)需要而消費(fèi)使用的個(gè)人。然后根據(jù)不同情況劃分責(zé)任,根據(jù)不同的情況采取不同的追究辦法,保證從產(chǎn)品的研發(fā)到應(yīng)用,每個(gè)環(huán)節(jié)的個(gè)人都能承擔(dān)起自己相應(yīng)的責(zé)任。當(dāng)產(chǎn)生消極影響時(shí)可以明確追溯到個(gè)人,而不是相互推脫,把責(zé)任推脫到不確定的技術(shù)因素上[7]。同時(shí),也能有效避免開發(fā)商或者科學(xué)家由于私心在設(shè)計(jì)過(guò)程中編入違反倫理原則的程序。
現(xiàn)代科學(xué)技術(shù)發(fā)展及應(yīng)用也是充滿著不確定性的,對(duì)于科學(xué)家而言,如何向大眾解釋產(chǎn)品的問(wèn)題也應(yīng)當(dāng)引起重視,雖然諸多學(xué)者持樂(lè)觀態(tài)度,但并不能完全消除我們心中的疑慮。此時(shí)就需要科學(xué)家向大眾作出解釋,倘若有了統(tǒng)一的倫理原則,就可以依據(jù)原則適當(dāng)?shù)墓家恍┘夹g(shù)的細(xì)節(jié)以及設(shè)計(jì)理念,引導(dǎo)大眾接受新產(chǎn)品、新技術(shù),促進(jìn)人們觀念的改變,使其相互信任。一般認(rèn)為,大眾的參與感越強(qiáng)其接受起來(lái)越容易,當(dāng)其真正適應(yīng)了這種轉(zhuǎn)變之后科學(xué)家們的研究也會(huì)越來(lái)越順利。此問(wèn)題的關(guān)鍵點(diǎn)在于——要對(duì)大眾作出正確的引導(dǎo)。當(dāng)科學(xué)家和研發(fā)人員對(duì)大眾作出引導(dǎo)的同時(shí),科學(xué)家們的價(jià)值觀也顯得尤為重要。首先,對(duì)于人工智能的開發(fā)科學(xué)家要樹立最基本的觀念:一是“以人為本”,任何人工智能產(chǎn)品的開發(fā)首先遵循的一點(diǎn)就是不傷害人類,科學(xué)家們?cè)谘邪l(fā)過(guò)程中要對(duì)產(chǎn)品的危險(xiǎn)系數(shù)作出預(yù)判,及時(shí)更改。二是“為人類服務(wù)”,科學(xué)家們要明確的一點(diǎn)就是人工智能技術(shù)是由于人類的需求而產(chǎn)生的,旨在增強(qiáng)人類智能,輔助人類的生產(chǎn)生活,從而促進(jìn)人類社會(huì)的發(fā)展。即真正的實(shí)現(xiàn)人機(jī)協(xié)作,人機(jī)之間的相互尊重,機(jī)器與自然的共同生長(zhǎng),需要人、機(jī)器以及自然三者之間的和諧共處,共同為人類文明的進(jìn)步而努力。明確這兩點(diǎn)后,對(duì)人工智能的發(fā)展和大眾的引導(dǎo)也具有積極的作用。
要確保人工智能的健康發(fā)展,對(duì)人工智能的監(jiān)管以及人工智能倫理原則的建立最終都要落實(shí)到法律法規(guī)上。因此,首先需要建立人工智能倫理委員會(huì),明確劃分各部門職責(zé),全面監(jiān)管和把控人工智能的發(fā)展,從產(chǎn)品研發(fā)到投入使用的各個(gè)環(huán)節(jié)都要層層把關(guān),任何產(chǎn)品的研發(fā)都要首先獲得倫理委員會(huì)的批準(zhǔn)方可投入生產(chǎn)。在投入使用之后,倫理委員會(huì)也要定期跟蹤獲得反饋結(jié)果,對(duì)于違背倫理原則的情況要第一時(shí)間掌握并及時(shí)作出補(bǔ)救措施,把風(fēng)險(xiǎn)降到最低。其次,要根據(jù)人工智能的倫理原則出臺(tái)相關(guān)的法律文件,明確規(guī)定事故責(zé)任的劃分。同時(shí),倫理委員會(huì)也應(yīng)強(qiáng)調(diào)專家的社會(huì)責(zé)任,指導(dǎo)和約束科學(xué)家合理地研究人工智能,對(duì)科學(xué)家本身的行為作出合理的規(guī)范和監(jiān)督[8]。國(guó)際應(yīng)該加強(qiáng)合作,早日出臺(tái)國(guó)際通用的法律法規(guī)。
隨著智能手機(jī)、電腦的普及,人工智能已經(jīng)完全融入我們的生活中,當(dāng)我們?cè)谙硎苤斯ぶ悄芩鶐?lái)的便利的同時(shí),也不可過(guò)于依賴人工智能產(chǎn)品。當(dāng)我們把全部都交予機(jī)器時(shí),這其實(shí)是人類自己在為自己的未來(lái)增加隱患。因此,我們得益于社會(huì)發(fā)展的同時(shí)也應(yīng)當(dāng)隨時(shí)保持警惕,避免由于過(guò)度依賴和過(guò)度使用而造成的后果。
人工智能在造福人類的同時(shí)也確實(shí)存在諸多的安全隱患,當(dāng)我們?cè)谌斯ぶ悄苄聲r(shí)代前行時(shí),人工智能的倫理道德問(wèn)題不可忽視,應(yīng)當(dāng)同科學(xué)技術(shù)一樣作為一門專門的學(xué)科進(jìn)行研究。目前,機(jī)器人和人工智能的飛速發(fā)展引起了社會(huì)的廣泛關(guān)注,其倫理影響也引起了社會(huì)各界的高度重視。各個(gè)國(guó)家和國(guó)際組織應(yīng)成立專門的機(jī)構(gòu)監(jiān)督人工智能的生產(chǎn)和發(fā)展。只有國(guó)際合作,才能促進(jìn)人工智能的健康發(fā)展。只有真正的解決了安全隱患問(wèn)題,人工智能才能促進(jìn)人類文明的前進(jìn)和發(fā)展。