【摘 要】 人工智能技術(shù)從20世紀(jì)中期開(kāi)始興起到現(xiàn)在只有僅僅幾十年的歷史,但研究、應(yīng)用領(lǐng)域卻十分廣闊,人工智能的發(fā)展速度、影響能力都讓我們大為驚訝。如醫(yī)療系統(tǒng)的人工智能、人臉模式識(shí)別、機(jī)器人學(xué)等的發(fā)展都給人類經(jīng)濟(jì)、文化、生產(chǎn)、生活等方面產(chǎn)生了深遠(yuǎn)影響。但同任何新技術(shù)一樣,人工智能技術(shù)在給人類帶來(lái)福利的同時(shí),也給人類帶來(lái)了很多值得深思的倫理問(wèn)題。本文主要通過(guò)對(duì)人工智能帶來(lái)的人權(quán)倫理問(wèn)題、責(zé)任倫理問(wèn)題、人情倫理問(wèn)題、道德倫理問(wèn)題四個(gè)方面來(lái)對(duì)現(xiàn)在的人工智能進(jìn)步所產(chǎn)生的倫理問(wèn)題進(jìn)行分析。以此來(lái)引起人們對(duì)于人工智能的關(guān)注。
【關(guān)鍵詞】 人工智能 倫理問(wèn)題 程序
人工智能在二十世紀(jì)五十年代伴隨著第三次科技革命的興起而興起,成為了二十一世紀(jì)人們直接關(guān)注的話題。而人工智能技術(shù)在今天也成為各個(gè)國(guó)家之間進(jìn)行競(jìng)爭(zhēng)的一個(gè)基點(diǎn),每個(gè)國(guó)家都在瘋狂的發(fā)展人工智能技術(shù),可以這樣說(shuō),誰(shuí)拿下了最先進(jìn)的人工智能技術(shù)誰(shuí)就擁有了最高的話語(yǔ)權(quán)。于是,從生活到生產(chǎn)再到國(guó)防軍事,無(wú)一不充斥著人工智能。當(dāng)然,人工智能也給人類帶來(lái)了前所未有的福利。人類可以足不出戶的去享受人工智能帶來(lái)的一切便利。但是伴隨著各種精密程序?qū)θ斯ぶ悄艿妮斎?,人工智能可以憑借著其精密的預(yù)算在某些方面超越人類。由于各個(gè)國(guó)家對(duì)人工智能資金的投入和科技巨頭的推動(dòng),人工智能正在朝向一個(gè)我們可以預(yù)料,但似乎又無(wú)法預(yù)知的高速迎面而來(lái)。第一產(chǎn)業(yè)、第二產(chǎn)業(yè)以及我們的整個(gè)生活都可以尋找到人工的影子。但是,伴隨著高速發(fā)展的人工智能技術(shù),一系列的問(wèn)題開(kāi)始出現(xiàn),其中最重要的便是倫理問(wèn)題,像人權(quán)倫理問(wèn)題、責(zé)任倫理問(wèn)題、人情倫理問(wèn)題、道德倫理問(wèn)題、環(huán)境倫理問(wèn)題等等。
一、人權(quán)倫理問(wèn)題分析
隨著人工智能技術(shù)的快速發(fā)展各種“人工生命”相繼問(wèn)世,這些人造生命的問(wèn)世開(kāi)始對(duì)現(xiàn)行的人權(quán)形成了沖擊。尤其是智能機(jī)器人的出現(xiàn),又讓學(xué)者們開(kāi)始對(duì)機(jī)器人是否應(yīng)該被給予“人權(quán)”這個(gè)問(wèn)題有了爭(zhēng)論。最初機(jī)器人的出現(xiàn),其主要目的是為了協(xié)助人類發(fā)展,可以說(shuō)是同普通機(jī)器一樣作為人類的奴隸的形式存在著,而人權(quán)問(wèn)題在這個(gè)時(shí)候似乎同他們也無(wú)關(guān)。而現(xiàn)在出現(xiàn)的高級(jí)機(jī)器人,人類可以通過(guò)對(duì)程序的控制來(lái)使得機(jī)器人有表情和行為。今年的7月20日,英國(guó)的外交大臣鮑里斯·約翰在對(duì)日本進(jìn)行國(guó)事訪問(wèn)的時(shí)候來(lái)到早稻田大學(xué)的科學(xué)和工程研究所來(lái)看機(jī)器人表演,機(jī)器人在工作人員的操作下可以和鮑里斯·約翰進(jìn)行互動(dòng),并且表情搞怪。機(jī)器人控制員通過(guò)輸入代碼的形式讓機(jī)器人有了人類的特征,而且伴隨著先進(jìn)電腦的出現(xiàn),由電腦武裝起來(lái)的機(jī)器人在某些方面已經(jīng)超過(guò)了人類。機(jī)器人可以比人類看得更遠(yuǎn),聽(tīng)得更清,更重要的是只要有源源不斷的動(dòng)力,機(jī)器人可以不停歇的進(jìn)行工作。
總之,人類和機(jī)器人開(kāi)始有更大的交集,從傾向上來(lái)看,機(jī)器人開(kāi)始對(duì)人類的人權(quán)的侵犯也已經(jīng)初見(jiàn)端倪。而對(duì)于是否應(yīng)該給機(jī)器人人權(quán)的討論也已經(jīng)變得日益激烈。主要有兩種不同的觀點(diǎn),其一就是反對(duì)給予機(jī)器人人權(quán)。這種觀點(diǎn)的持有者主要認(rèn)為如果放縱機(jī)器人,讓機(jī)器人擁有人權(quán)的話就是在危害人類。也違背機(jī)器人的“三大法則”。三大法則就是阿西莫夫在其科幻小說(shuō)《我、機(jī)器人》中提到的關(guān)于機(jī)器人的三大法則。第一法則:機(jī)器人不得傷害人類,或者坐視人類受到傷害。第二法則:除非違背第一法則,機(jī)器人必須服從命令。第三法則:在不違背第一法則和第二法則下,機(jī)器人必須保護(hù)自己。說(shuō)給予機(jī)器人人權(quán)會(huì)侵犯人類的利益只要是基于第一原則。可以說(shuō)是將本應(yīng)全部屬于人類的權(quán)利分有給了機(jī)器人。這對(duì)人類必然會(huì)有影響。持贊成給機(jī)器人人權(quán)的仍然是基于“人”。他們認(rèn)為如果機(jī)器人也有了同人類一樣的道德、一樣的良知,而且同人類相似的程度較高,這樣就應(yīng)該給予機(jī)器人像人一樣的權(quán)利。斯坦福大學(xué)教授克利福德·納斯便持這種觀點(diǎn),他指出:“生命是特別的,我們不應(yīng)該像破壞法律那樣去虐待那些機(jī)器、動(dòng)物等非人類生命,非人類生命也應(yīng)該有相應(yīng)的人權(quán)”。他們認(rèn)為人類不可以像對(duì)待奴隸那樣對(duì)待機(jī)器人,而是要尊重他們。(這段可以再豐富一點(diǎn),展開(kāi)說(shuō)明持有不同觀點(diǎn)的人如何看。)
二、責(zé)任倫理問(wèn)題分析
對(duì)于責(zé)任倫理問(wèn)題的思考。責(zé)任倫理的提出者是馬克思·韋伯,但是真正給予責(zé)任倫理下定義的則是德國(guó)學(xué)者漢斯·倫克。在他看來(lái)責(zé)任倫理就是在對(duì)責(zé)任主體行為的目的、后果、手段等因素進(jìn)行全面、系統(tǒng)的倫理考量的基礎(chǔ)上,對(duì)當(dāng)代社會(huì)的責(zé)任關(guān)系、責(zé)任歸因、責(zé)任原因及責(zé)任目標(biāo)等進(jìn)行整體倫理分析和研究的理論范疇。這個(gè)定義的提出讓人對(duì)人工智能開(kāi)始有了新的思量,誰(shuí)能為日后的人工智能所出現(xiàn)的問(wèn)題負(fù)責(zé)也值得我們?nèi)ド钏?。例如:由于米勒發(fā)明了劇毒有機(jī)氯殺蟲劑DDT,對(duì)于蚊子等傳播疾病的昆蟲有作用,因此獲得了1948年的諾貝爾生理學(xué)和醫(yī)學(xué)獎(jiǎng),但是伴隨著醫(yī)學(xué)的不斷進(jìn)步,在60年代時(shí)人們又發(fā)現(xiàn),DDT這種劇毒性殺蟲劑不容易降解并且會(huì)不斷地積累從而對(duì)人類的身體產(chǎn)生危害。(2002年DDT由于對(duì)疾病有預(yù)防作用又被重新提出,這里就不細(xì)談)。從48年到60年DDT可以說(shuō)是對(duì)自然環(huán)境和人的身體都造成了危害,那么誰(shuí)有可以對(duì)這件事情負(fù)責(zé)呢?是作為發(fā)明者的米勒,還是作為推動(dòng)者的諾獎(jiǎng)?lì)C獎(jiǎng)組呢?這便值得商榷,誰(shuí)對(duì)此負(fù)責(zé)這便是一個(gè)責(zé)任倫理問(wèn)題。同樣,在人工智能的運(yùn)用中也存在著類似的問(wèn)題,自五十年代第一個(gè)機(jī)器人問(wèn)世以來(lái)至今,機(jī)器人已經(jīng)變得高智能化。我們可以發(fā)現(xiàn)無(wú)論是在服務(wù)業(yè)、工業(yè)、農(nóng)業(yè)甚至是國(guó)防上面,我們都可以看到智能機(jī)器人的影子。在服務(wù)業(yè)上,機(jī)器人可以端盤子,搽地板充當(dāng)保姆的角色,它甚至可以做到和人類面對(duì)面的去聊天;在工業(yè)上,機(jī)器人不僅可以進(jìn)行不間斷的生產(chǎn),而且可以憑借程序使工藝變得更為精致;在農(nóng)業(yè)上,人工智能不僅可以做到控制澆水,而且可以做到根據(jù)植物的所需進(jìn)行判斷來(lái)進(jìn)行適量的澆水和施肥;國(guó)防上,機(jī)器人可以代替人進(jìn)行觀察和控制,無(wú)人機(jī)的使用便是其代表??傊煌I(lǐng)域的機(jī)器人有著不同的本事,正在充當(dāng)不同的角色來(lái)參與到社會(huì)生活中。
但是,機(jī)器人在給人類帶來(lái)便利的同時(shí)也讓人類感到十分糾結(jié),由于高智能機(jī)器人的廣泛使用和不斷的強(qiáng)化,現(xiàn)在的機(jī)器人在不斷地被使用中也能夠做到自我學(xué)習(xí)。就像alphago在同李世石進(jìn)行圍棋競(jìng)爭(zhēng)中,可以隨著棋局的開(kāi)展而變得越來(lái)越強(qiáng)。所以說(shuō)機(jī)器人在不斷地發(fā)展中也在發(fā)生變化而且能力越來(lái)越強(qiáng),慢慢的可能會(huì)脫離人的控制而自自作主張去進(jìn)行判斷,然后造成事故。就像近期比較熱的無(wú)人駕駛汽車一樣,之所以無(wú)人駕駛?cè)蕴幵谘芯侩A段不被投入使用其中的一個(gè)原因就是智能機(jī)器和人工還是存在著很大的差距的,就像在判斷力上面機(jī)器人按照程序便會(huì)以車內(nèi)乘客的安全為首要前提。這便出現(xiàn)一個(gè)問(wèn)題,當(dāng)汽車面對(duì)著一群人和一塊巨石的時(shí)候,且這場(chǎng)車禍無(wú)法避免時(shí),若撞到人車內(nèi)乘客可以平安,若撞到石頭車內(nèi)乘客會(huì)受傷甚至死亡。按照正常的倫理來(lái)講就得顧全更大多數(shù)人的利益,即使不這樣出于人的惻隱之心人也會(huì)進(jìn)行考慮應(yīng)該如何進(jìn)行判斷。但是這種情況要是人工智能機(jī)器所遇到則會(huì)出于對(duì)乘客的保護(hù)而選擇毫無(wú)顧忌的撞上人群。這便值得思量,還有就是雖然一系列的道路標(biāo)識(shí)還有法律法規(guī)都被以程序的形式寫入到機(jī)器當(dāng)中,但是,我們?cè)囅?,?dāng)遇到雨天、霧天、雪天時(shí)。道路標(biāo)識(shí)便會(huì)變得模糊不清,人工智能此時(shí)便不能進(jìn)行很好的識(shí)別而出現(xiàn)事故等等。
因此,伴隨著人工智能的不斷發(fā)展,一系列的社會(huì)問(wèn)題便開(kāi)始被人們所考慮。人們擔(dān)心:在生產(chǎn)上,如果人工智能被廣泛的運(yùn)用到工廠之中,那么必然會(huì)對(duì)現(xiàn)在所形成的工廠體系有所沖擊,使得大多數(shù)工人失業(yè),那么誰(shuí)又可以對(duì)這日益加重的失業(yè)率去負(fù)責(zé)?在醫(yī)療上,通過(guò)人工智能對(duì)疾病進(jìn)行診斷出現(xiàn)誤差,導(dǎo)致病人二次傷害甚至致死,誰(shuí)又能對(duì)此負(fù)責(zé)?還有機(jī)器人如果不受程序控制或者自己可以進(jìn)行程序的輸入而對(duì)人類造成傷害,誰(shuí)又能對(duì)此負(fù)責(zé)?總之,由于規(guī)范和改善人工智能技術(shù)倫理問(wèn)題相關(guān)方面的倫理規(guī)則與倫理原則的制定和更新還遠(yuǎn)遠(yuǎn)跟不上人工智能發(fā)展的速度。由于這樣的不平衡讓人類自身有了落差和不平衡感。就像spaceX公司的聯(lián)合創(chuàng)始人在去年年底便發(fā)出警告說(shuō)人工智能將會(huì)統(tǒng)治世界,那么如果人工智能真的統(tǒng)治了世界,那么誰(shuí)又可以對(duì)人類失去的東西進(jìn)行負(fù)責(zé)呢?所以,誰(shuí)能對(duì)人工智能所帶來(lái)的危機(jī)負(fù)責(zé)這個(gè)責(zé)任倫理便更值得我們?nèi)ニ伎肌?/p>
三、人情倫理問(wèn)題分析
人情倫理,倫理一般是指一系列指導(dǎo)行為的觀念,是從概念角度上對(duì)道德現(xiàn)象的哲學(xué)思考。它不僅包含著對(duì)人與人、人與社會(huì)和人與自然之間關(guān)系處理中的行為規(guī)范,而且也深刻地蘊(yùn)涵著依照一定原則來(lái)規(guī)范行為的深刻道理。而人情倫理則是通過(guò)情感處理人與人之間關(guān)系的行為規(guī)范。就現(xiàn)實(shí)而言,人類對(duì)人工智能的依賴程度增加,這便致使很多人只愿意自己獨(dú)處去玩手機(jī)、去玩電腦等等。而不愿意走出來(lái)同人進(jìn)行交流。傳統(tǒng)的家人、朋友之間的聚會(huì)已經(jīng)淪落為聊天工具上冰冷的文字。正是因?yàn)閷?duì)人工智能的長(zhǎng)期依賴。這也就使人對(duì)人工智能的關(guān)心超過(guò)對(duì)親人、朋友的關(guān)心。當(dāng)然也有人說(shuō)這是人工智能時(shí)代的一種新型的倫理關(guān)系的體現(xiàn),但是這種觀點(diǎn)并未得到認(rèn)可。還有就是人工智能的使用讓人變得更加的不真實(shí),不能夠真正的明確的認(rèn)識(shí)自己,在這個(gè)方面體現(xiàn)最為明顯的就是日益強(qiáng)大的手機(jī)拍照功能。人工智能的發(fā)展正在讓我們的手機(jī)攝像頭爆炸,尤其是前置攝像頭的增加,在配之以修圖軟件,讓人們?cè)谂恼盏倪^(guò)程中尋找到快感,找到自信。人們似乎只有在修改過(guò)的照片中,才能找到自己最真實(shí)的存在。這邊將自己客觀存在的身體給忽視掉了,一張張修過(guò)然后變美的圖片確實(shí)是誘惑,它讓人們學(xué)會(huì)了欺騙和自我欺騙,不再愿意回歸現(xiàn)實(shí)。就像一個(gè)大媽說(shuō)說(shuō)的,美圖軟件讓我找到了自己的青春,讓我隱約覺(jué)得自己還年輕。在這樣的影響下人們會(huì)格外的去關(guān)注手機(jī)像素,這種關(guān)注甚至強(qiáng)于自己對(duì)工作對(duì)家庭的關(guān)注。并且,這一切并未終結(jié)。各大手機(jī)廠商正在打手機(jī)拍照這張牌,他們?cè)诮g盡腦汁的去想如何讓攝像頭更符合人們的需求,這樣才能夠擴(kuò)大銷量。就像蘋果公司最新出的手機(jī)iPhone X的攝像頭便在結(jié)合新的感光元件外,然后又添加了相當(dāng)復(fù)雜的傳感系統(tǒng)。尤其是蘋果公司考慮到消費(fèi)者自拍的心理,在前置攝像頭上用“劉?!崩镌罡袛z像頭,這就實(shí)現(xiàn)了生物識(shí)別和動(dòng)態(tài)捕捉,達(dá)成了Animoji和人像光效等功能。還有就是面部識(shí)別的功能,這讓人工智能不僅僅限于受控拍照而且可以進(jìn)行“感知”。更為驚奇的是現(xiàn)在的手機(jī)攝像頭已經(jīng)可以做到可以通過(guò)對(duì)人拍照習(xí)慣的捕捉來(lái)進(jìn)行自我調(diào)整,以更好的滿足人類的需求。也許在將來(lái)的某一天,你便可以用手機(jī)在霧霾天中用手機(jī)拍攝出綠水青山。這樣便會(huì)導(dǎo)致一個(gè)結(jié)果,就是人工智能在適應(yīng)人類方面會(huì)比人類對(duì)適應(yīng)人類更為容易。在這個(gè)時(shí)候?qū)θ饲閭惱磉@個(gè)問(wèn)題的考慮便更為迫切。
四、道德倫理問(wèn)題分析
道德倫理,人工智能是否應(yīng)該有道德地位?伴隨著科學(xué)技術(shù)的日益進(jìn)步,人類社會(huì)已經(jīng)可以和科學(xué)形成有機(jī)的結(jié)合,人類所處的時(shí)代已經(jīng)是一個(gè)真正的“技術(shù)時(shí)代”。而人工智能便在這個(gè)時(shí)代里扮演著重要的角色,占有著重要的地位。正如人工智能帶給人類關(guān)于其人權(quán)問(wèn)題的思考一樣,對(duì)于人工智能給我們帶來(lái)的道德倫理問(wèn)題也同樣值得我們?nèi)ニ伎肌J欠駪?yīng)該給人工智能一個(gè)同人類相類似的基本的道德尊重呢?著名生態(tài)哲學(xué)家利奧波德便認(rèn)為:“整個(gè)生態(tài)系統(tǒng)都應(yīng)該具有道德地位,即擁有生存和發(fā)展下去的權(quán)利,但不是每一個(gè)生物都擁有這樣的神圣不可侵犯的權(quán)利。”從利奧波德的觀點(diǎn)中我們便可以發(fā)現(xiàn),他是贊成給予有著同人類一樣的情感、行為的人工智能以道德上的地位。對(duì)于有著道德地位的事物,我們則必須給予其同對(duì)人類一樣的道德上的尊重。而一件事物,如果其沒(méi)有擁有道德地位,我們便可以用自己所喜歡的任何方式去對(duì)待他們,也不需要去考慮什么。但事實(shí)上,我們?cè)谌粘I钪袑?duì)于人工智能的使用是非常的小心翼翼。這是出于對(duì)人工智能道德上的考慮嗎?還是處于我們?nèi)吮旧砭途哂械摹皭烹[之心”呢?我們捫心自問(wèn),會(huì)發(fā)現(xiàn)我們對(duì)那些人工智能的保護(hù)更多的是因?yàn)槠浔澈笏淼慕?jīng)濟(jì)價(jià)值,因?yàn)槠鋬r(jià)值高,我們不得不去考慮更換產(chǎn)品時(shí)所需付出的代價(jià)。但是如果機(jī)器人真的有道德地位,我們對(duì)它們的保護(hù)則更多的是出于道德尊重本身而非由于其背后的經(jīng)濟(jì)價(jià)值。還有就是如果人工只能被投入到生產(chǎn)當(dāng)中,我們會(huì)不會(huì)讓其進(jìn)行那些最危險(xiǎn)最骯張的事情呢?這便涉及到道德倫理,這也同樣值得我們?nèi)ニ伎肌?/p>
【參考文獻(xiàn)】
[1] 倪斌.人工智能的倫理與法律風(fēng)險(xiǎn)問(wèn)題研究[J].時(shí)代報(bào)告,2019,(24):88-89.
[2] 嚴(yán)衛(wèi),錢振江,周立凡, 等.人工智能大數(shù)據(jù)倫理問(wèn)題的研究[J].科技風(fēng),2019,(28):105-106.
[3] 吳愷.當(dāng)代人工智能技術(shù)發(fā)展中的倫理問(wèn)題研究[J].中共山西省委黨校學(xué)報(bào),2019,42(3):65-68.
作者簡(jiǎn)介:吳雨婷(1987-),女,漢族,湖南婁底,碩士,研究方向:科技哲學(xué)。