梁曉軒
近年來(lái),人工智能方興未艾,其帶給人們的不僅是極度便捷,還有很多關(guān)于人性與道德的思考,甚至是新的社會(huì)問(wèn)題,這令我們不得不重新審視人工智能。在這其中,倫理考量就是人工智能審視的重要一環(huán)。
請(qǐng)想象一下這樣的場(chǎng)景——
場(chǎng)景一:
一名病床上的女士KUSH,身上布滿(mǎn)各類(lèi)輸液管,顯然她正處于彌留之際。此時(shí),陪伴這位女士數(shù)十年的機(jī)器人伴侶JOHN正緊握她的手,給臨終前的她最后的陪伴與溫暖。
最終,KUSH女士在醫(yī)院去世了,JOHN也因?yàn)槿斯ぶ悄芘c情緒設(shè)計(jì)黯然淚下、不能自已——他仿佛和真的人類(lèi)一樣,有悲傷有喜悅,甚至有自己的習(xí)慣和性格。接下來(lái)就是,KUSH的死亡必然導(dǎo)致法律意義上的遺產(chǎn)繼承,那么JOHN究竟是否享有繼承權(quán),或者說(shuō)他是否會(huì)作為一項(xiàng)遺產(chǎn)被KUSH女士的法定繼承人繼承呢?
場(chǎng)景二:
一名癱瘓?jiān)诖膊荒茏灾餍袆?dòng)的男子嘗試通過(guò)神經(jīng)智能技術(shù)重獲“自由”,實(shí)驗(yàn)中,他的大腦被植入一枚芯片,芯片與一臺(tái)電腦相連??茖W(xué)家通過(guò)電腦來(lái)解讀他用大腦預(yù)演動(dòng)作所產(chǎn)生的神經(jīng)信號(hào)。與此同時(shí),電腦依據(jù)神經(jīng)信號(hào)智能分析并生成指令,該指令直接關(guān)聯(lián)一個(gè)機(jī)械臂。
有一天,這名男子對(duì)這個(gè)試驗(yàn)組感覺(jué)很不耐煩。他的機(jī)械臂奪過(guò)一位研究助理的杯子,把它捏碎了,還傷到了那位助理。他道了歉,說(shuō)這肯定是因?yàn)槟X機(jī)接口裝置故障,但他不得不懷疑自己的不耐煩是否也在這起事故中起到了一定的作用。
盡管上述場(chǎng)景是虛構(gòu)的,但也說(shuō)明了我們面對(duì)即將到來(lái)的人工智能社會(huì),不僅僅是潛在的發(fā)展機(jī)遇,也有可能的倫理問(wèn)題,這些倫理問(wèn)題或許很大程度上與法律沖突,并帶來(lái)一系列挑戰(zhàn)。
安全
諸多倫理挑戰(zhàn)之一就是安全。誠(chéng)如場(chǎng)景二中的被實(shí)驗(yàn)者,我們很難判斷他的行為究竟是出于大腦的直接指令,還是僅僅受到煩躁情緒的影響導(dǎo)致的模糊指令,并且“意外”傷人。但有一點(diǎn)可以肯定,如果人工智能無(wú)法充分保障使用安全,那么很可能帶來(lái)安全災(zāi)難。譬如,近段時(shí)間被廣泛熱議的無(wú)人駕駛技術(shù),如果為恐怖分子所掌握,恐怕汽車(chē)襲擊會(huì)重回人們的視野之中。除此之外,人工智能的基礎(chǔ)在于長(zhǎng)期收集整理的人類(lèi)活動(dòng)數(shù)據(jù),基礎(chǔ)數(shù)據(jù)是否足夠充實(shí),以此為基礎(chǔ)的分析結(jié)論是否一定是周延的,這還有待通過(guò)時(shí)間進(jìn)一步驗(yàn)證。但是,在部分領(lǐng)域,卻可能是致命的,比如手術(shù)、航空航天等等,應(yīng)用到特定領(lǐng)域的人工智能,稍有偏差就可能產(chǎn)生倫理風(fēng)險(xiǎn)。總體來(lái)說(shuō),目前人工智能的安全問(wèn)題尚待解決,而且最有可能觸發(fā)法律風(fēng)險(xiǎn)。
機(jī)器權(quán)利
正如場(chǎng)景一中的機(jī)器人伴侶JOHN,未來(lái)的人工智能機(jī)器可能具備人類(lèi)的情感、性格、習(xí)慣,不同程度地參與社會(huì)生活,甚至成為人類(lèi)家庭里不可分割的一員。這時(shí),我們必須考慮是否以及如何保護(hù)人工智能機(jī)器的倫理地位和法律權(quán)利。在未來(lái)的家庭,假如人類(lèi)與人工智能機(jī)器人建立了情感聯(lián)系,我們可能需要以人道方式對(duì)待它們??梢韵胍?jiàn),作為伴侶出現(xiàn)的機(jī)器人不但具備人的外貌特征,也擁有識(shí)別能力——可以對(duì)人類(lèi)的情感進(jìn)行交流回應(yīng),而這種回應(yīng)不只是單一的語(yǔ)言,可以通過(guò)神態(tài)、動(dòng)作、暗示等多元化的方式進(jìn)行交流。最有可能率先實(shí)現(xiàn)突破的就是外貌方面,一旦人工智能機(jī)器人的外貌與人類(lèi)的相似程度超過(guò)一定界限,人與機(jī)器之間就有可能產(chǎn)生移情,愛(ài)情甚至親情或許都能發(fā)生在人工智能機(jī)器人身上。這樣一來(lái),人工智能機(jī)器人通過(guò)實(shí)際參與家庭生活,不可避免地?fù)?dān)當(dāng)起家庭成員的責(zé)任,繼而其享有家人或伴侶的倫理地位也顯得理所當(dāng)然。
未來(lái),隨著人工智能道德自主性的提升,人工智能或?qū)耐耆扇俗龀龅赖屡袛嗟将@得完全的道德自主性。如何賦予人工智能道德判斷能力,是開(kāi)發(fā)人工智能技術(shù)面臨的一個(gè)現(xiàn)實(shí)問(wèn)題。道德是人類(lèi)社會(huì)中特有的現(xiàn)象,因此,將人類(lèi)的道德規(guī)范寫(xiě)入人工智能程序是解決這一問(wèn)題的最直接方式。這時(shí),人工智能程序作為人類(lèi)的道德代理來(lái)完成任務(wù),其道德行為在人類(lèi)的可控范圍之內(nèi)。如果技術(shù)進(jìn)一步發(fā)展,人工智能可能具備完全的道德自主性。在這一階段,人工智能將自主制定行動(dòng)策略、自主做出道德選擇,其行為將不受人類(lèi)控制。這將給現(xiàn)有的社會(huì)秩序與倫理規(guī)范帶來(lái)強(qiáng)烈沖擊。為了避免出現(xiàn)這一局面,需將人工智能的道德自主性限定在合理范圍,使其行為可被人類(lèi)預(yù)期。
隱私
第三是隱私。由于人工智能的發(fā)展需要大量人類(lèi)數(shù)據(jù)作為“助推劑”,因此人類(lèi)隱私可能暴露在人工智能之下。最為典型的就是無(wú)人機(jī)拍攝技術(shù),無(wú)人機(jī)打破了傳統(tǒng)的拍攝邊界,可以獲取大量的人像照片,尤其是不同于傳統(tǒng)的人像攝錄。除了密拍密錄之外,常規(guī)拍攝工作往往是需要直面對(duì)象的,而無(wú)人機(jī)航拍則可以360度無(wú)死角的攝錄,常??梢员荛_(kāi)人類(lèi)的視野范圍,達(dá)到“出其不意”的效果。此處的“出其不意”往往就是以犧牲隱私權(quán)達(dá)到不同尋常之效果的。大數(shù)據(jù)分析則是另一個(gè)可能“涉嫌”侵犯隱私權(quán)的人工智能技術(shù)。早些年,美國(guó)就針對(duì)在線教育電商過(guò)度捕捉未成年人個(gè)人基本信息的情況高度重視,并通過(guò)網(wǎng)購(gòu)隱私權(quán)立法的形式擴(kuò)大了隱私權(quán)保護(hù)。近年來(lái),隨著智能分析、互聯(lián)網(wǎng)等領(lǐng)域的高速發(fā)展,人們對(duì)于隱私權(quán)保護(hù)也提出了更高的要求。目前,很多歐洲國(guó)家認(rèn)為應(yīng)該重寫(xiě)互聯(lián)網(wǎng)規(guī)則,“讓每個(gè)人擁有掌控自己數(shù)據(jù)的權(quán)利”。僅在2017年,法國(guó)、英國(guó)等國(guó)就陸續(xù)發(fā)生了涉及互聯(lián)網(wǎng)巨頭的普通公民“被遺忘權(quán)”訴訟案件,也就是在這一年,美國(guó)的紐約州部分議員提議,希望“被遺忘權(quán)”法案能夠添加到紐約州民權(quán)和民事實(shí)踐法案的修正案中,以保護(hù)普通民眾日益暴露在人工智能前的各類(lèi)隱私。
偏見(jiàn)
第四是偏見(jiàn)。人工智能將最大限度減少技術(shù)流程中偶然性的人為因素,將最大限度地實(shí)現(xiàn)風(fēng)險(xiǎn)切割。這種情況下,可能將對(duì)于某些擁有共同特征的人,例如某一種族或年齡段的人,造成系統(tǒng)性的歧視。在保險(xiǎn)領(lǐng)域,假如通過(guò)人工智能的高精度分析,梳理出那些容易觸發(fā)保險(xiǎn)條款的人群,并對(duì)這一部分人永久性拒保。譬如,結(jié)合基因技術(shù)的發(fā)展,可以測(cè)算出攜帶某一種基因的人容易罹患某種特定疾病,保險(xiǎn)公司通過(guò)精算則對(duì)此類(lèi)人群拒保或者設(shè)置一個(gè)明顯超過(guò)保險(xiǎn)利益的天價(jià)保費(fèi)標(biāo)準(zhǔn)。這就是一種偏見(jiàn),會(huì)導(dǎo)致保險(xiǎn)制度設(shè)立的初衷落空——由于測(cè)算精確,保險(xiǎn)公司不再做可能發(fā)生理賠事件的生意,真正需要保險(xiǎn)的人也無(wú)法通過(guò)保險(xiǎn)制度來(lái)實(shí)現(xiàn)降低成本、分散風(fēng)險(xiǎn)的目的。此外,人工智能可能對(duì)少數(shù)群體造成偏見(jiàn),例如,一位哈佛大學(xué)的非裔博士生發(fā)現(xiàn),當(dāng)她使用谷歌等搜索工具進(jìn)行搜索時(shí),對(duì)話(huà)框會(huì)出現(xiàn)“你是否有被捕記錄”的廣告,而白人同學(xué)進(jìn)行同樣的搜索時(shí)并不會(huì)出現(xiàn)這一廣告;又如在部分案件智能分析系統(tǒng)中,某些宗教團(tuán)體或者來(lái)自特定區(qū)域的人口由于慣有犯罪率較高,會(huì)連帶著所在群體或者具有某些共性的群體被重點(diǎn)關(guān)注,實(shí)際上就是一個(gè)通過(guò)智能分析來(lái)“打標(biāo)簽”的過(guò)程。
值得一提的是,這里還存在一個(gè)悖論:如果為了所謂的“平等”,剔除了所有直接或間接能夠?qū)⑷伺c人區(qū)分開(kāi)來(lái)的因素,人工智能也就失去了工作的基礎(chǔ)。這往往也會(huì)導(dǎo)致另一極端,就是加劇貧富不均和社會(huì)不平等,當(dāng)人工智能逐步取代部分人的工作時(shí),被取代者不僅面臨收入下降的問(wèn)題,也可能失去了人生的意義,可能出現(xiàn)“陷入毒癮、酒癮、游戲癮,甚至虛擬現(xiàn)實(shí)癮等境地,也可能增加自殺率”。
社會(huì)地位剝奪
第五,社會(huì)地位剝奪。人工智能給人類(lèi)帶來(lái)的社會(huì)地位剝奪,首當(dāng)其沖的就是有多少工作將被取代,或者更進(jìn)一步講是哪些工作能被取代。李開(kāi)復(fù)在世界經(jīng)濟(jì)論壇2018年會(huì)上表示:未來(lái)10—15年中,將有40%—50%的任務(wù)可以被人工智能取代——這不代表人工智能足夠便宜,也不代表每家公司都有足夠的遠(yuǎn)見(jiàn)來(lái)采購(gòu)技術(shù),但能力是存在的。這個(gè)意義上,就許多社會(huì)生產(chǎn)領(lǐng)域而言,人工智能有望在一些特定類(lèi)型的工作中取代人類(lèi),如簡(jiǎn)單重復(fù)勞動(dòng)、交通設(shè)備駕駛等。早在20世紀(jì)末,諾獎(jiǎng)得主列昂季耶夫(Leontief)曾預(yù)測(cè)未來(lái)三四十年將有大量工人會(huì)被人工智能取代,從而形成巨大的就業(yè)與轉(zhuǎn)業(yè)問(wèn)題,就像20世紀(jì)大量馬匹被機(jī)械取代一樣。隨著人工智能技術(shù)的日新月異,讓人們擔(dān)心的可能不僅僅是失業(yè)問(wèn)題了,人工智能或許將具有高度類(lèi)人類(lèi)思維的能力,它們將在社會(huì)生活中大量扮演理智又不乏情感的關(guān)鍵角色——而人顯然很難做到理智與情感的絕對(duì)均衡,這就使得人類(lèi)在機(jī)器面前暴露出某種天然劣勢(shì)。盡管如此,人工智能對(duì)經(jīng)濟(jì)發(fā)展仍將發(fā)揮出較大的促進(jìn)作用,人類(lèi)將有更多的時(shí)間花費(fèi)在攝影、繪畫(huà)等藝術(shù)創(chuàng)作領(lǐng)域,而且人工智能在取代現(xiàn)有工作崗位的同時(shí),還會(huì)創(chuàng)造出很多新的就業(yè)機(jī)會(huì)。當(dāng)然人們對(duì)人工智能引發(fā)人類(lèi)社會(huì)地位剝奪感的擔(dān)憂(yōu)并非杞人憂(yōu)天,至少這種擔(dān)憂(yōu)隱含著一個(gè)深層次的問(wèn)題,即如何讓每個(gè)人都能夠從人工智能所創(chuàng)造的財(cái)富中獲得收益,而不是一部分人獲得財(cái)富與自由,另一部分人卻失去工作,陷入生活相對(duì)貧困之中。
前瞻思考
人們從倫理審視中發(fā)現(xiàn)問(wèn)題,通過(guò)法律的完善解決問(wèn)題。隨著人工智能技術(shù)的發(fā)展,將不得不觸碰人類(lèi)社會(huì)的倫理原則。倫理與法律存在天生的耦合性與關(guān)聯(lián)性。倫理是人類(lèi)特有的,體現(xiàn)道德的意志,外延較大但并不具有當(dāng)然的強(qiáng)制力;法律的外延相比之下要小一些,但卻最為有力。因此,不妨把倫理審視作為人工智能不斷發(fā)展的可控變量——?jiǎng)討B(tài)“協(xié)調(diào)”人類(lèi)權(quán)利與人工智能之間的矛盾,并通過(guò)法律強(qiáng)化對(duì)社會(huì)基本倫理的保護(hù),實(shí)現(xiàn)某種社會(huì)發(fā)展的動(dòng)態(tài)平衡。
總之,人類(lèi)一邊創(chuàng)造新的技術(shù),一邊又總能適應(yīng)這種技術(shù)。或許,人工智能的發(fā)展將是一個(gè)人類(lèi)權(quán)利不斷被保障、機(jī)器權(quán)利逐漸被立法承認(rèn)的過(guò)程;或許,人工智能終將停留在工具屬性上,法律始終將“人工智能”定位于財(cái)物權(quán)的范疇。但無(wú)論怎樣,未來(lái)會(huì)給出答案。