閆坤如
(華南理工大學(xué) 馬克思主義學(xué)院,廣東 廣州 510640)
人工智能經(jīng)過(guò)半個(gè)多世紀(jì)的發(fā)展,取得了眾多的理論和實(shí)踐成果。1997年,IBM的“深藍(lán)”計(jì)算機(jī)成功擊敗世界圍棋冠軍卡斯帕羅夫,2016年,阿爾法狗(AlphaGo)戰(zhàn)勝韓國(guó)職業(yè)圍棋名將李世石,2017年又戰(zhàn)勝世界職業(yè)圍棋第一人柯潔。2009年,谷歌啟動(dòng)無(wú)人駕駛汽車項(xiàng)目,各國(guó)紛紛開展無(wú)人駕駛汽車研究。人工智能產(chǎn)品突破實(shí)驗(yàn)室壁壘,紛紛走入尋常百姓家,人工智能的社會(huì)效應(yīng)越來(lái)越明顯,促進(jìn)了社會(huì)進(jìn)步和人類發(fā)展。除了人工智能的這些正面效應(yīng)外,人工智能的負(fù)面效應(yīng)也越來(lái)越明顯。雖然人工智能還處于發(fā)展的初期,但是已經(jīng)引發(fā)新的倫理思考,比如,人工智能產(chǎn)品可能引發(fā)信息安全風(fēng)險(xiǎn),可能影響社會(huì)的穩(wěn)定和社會(huì)公平,等等。本文通過(guò)梳理人工智能的發(fā)展歷程,挖掘人工智能可能引發(fā)的道德風(fēng)險(xiǎn),從倫理學(xué)層面尋找規(guī)避人工智能發(fā)展引發(fā)道德風(fēng)險(xiǎn)的解決路徑。
1956年,人工智能(Artificial Intelligence)的先驅(qū)明斯基(Marvin Minsky)、麥卡錫(John Mccarthy)、西蒙(Herbert Simon)和紐厄爾(Allen Newell)等人在美國(guó)達(dá)特茅斯召開“達(dá)特茅斯專題研討會(huì)”(Dartmouth Conference) ,宣告了人工智能的產(chǎn)生。
人工智能的具體含義眾說(shuō)紛紜,麻省理工學(xué)院的溫斯頓(Patrick H. Winston)教授認(rèn)為:“人工智能就是研究如何使計(jì)算機(jī)去做過(guò)去只有人才能做的智能工作?!盵1](P1-11)美國(guó)斯坦福大學(xué)的尼爾森(Nils J. Nilsson)把人工智能界定為關(guān)于知識(shí)的獲取和運(yùn)用的活動(dòng),“人工智能是關(guān)于知識(shí)的科學(xué),是知識(shí)的表示、知識(shí)的獲取以及知識(shí)的運(yùn)用”。[2](P1)人工智能是通過(guò)計(jì)算機(jī)的方式來(lái)模擬人的思維,從而完成只有人類才能完成的智能工作。技術(shù)性內(nèi)容包括機(jī)器學(xué)習(xí)、自然語(yǔ)言處理、圖像識(shí)別以及人機(jī)交互等方面。人工智能的外延范圍非常廣泛,包括智能機(jī)器人、無(wú)人駕駛汽車、機(jī)器翻譯、虛擬現(xiàn)實(shí),等等。
人工智能在一定程度上延伸了人類大腦的功能,以追求實(shí)現(xiàn)人腦勞動(dòng)的信息化。人工智能一般可以分為弱人工智能(Artificial Narrow Intelligence)和強(qiáng)人工智能(Artificial General Intelligence),有人從強(qiáng)人工智能中劃分出超人工智能(Artificial Super Intelligence)。弱人工智能指的是通過(guò)預(yù)先設(shè)計(jì)好的具體的、嚴(yán)格的程序來(lái)模擬生命體的思維運(yùn)行和基本判斷,從而表現(xiàn)出一定的智能行為。弱人工智能本身并沒(méi)有自主意識(shí),更不能主動(dòng)地學(xué)習(xí),是完全根據(jù)人類的命令做出相應(yīng)的反應(yīng)。強(qiáng)人工智能則是具有意識(shí)并且能夠思考的機(jī)器,“帶有正確程序的計(jì)算機(jī)確實(shí)可以被認(rèn)為具有理解和其他認(rèn)知狀態(tài),在這個(gè)意義上,恰當(dāng)?shù)木幊逃?jì)算機(jī)就是一個(gè)心靈”。[3](P83)
人工智能經(jīng)過(guò)半個(gè)多世紀(jì)的發(fā)展,取得了眾多的理論和實(shí)踐成果,人工智能產(chǎn)品也不斷地從實(shí)驗(yàn)室走入我們的日常生活。在日常生活中,人工智能產(chǎn)品的應(yīng)用主要可以分為硬件領(lǐng)域的運(yùn)用和軟件領(lǐng)域的運(yùn)用。在硬件領(lǐng)域,主要包括最新型的電子計(jì)算機(jī)、智能機(jī)器人、無(wú)人機(jī)、智能感應(yīng)穿戴設(shè)備、新型CT掃描儀和腫瘤診斷系統(tǒng),等等,而在軟件領(lǐng)域的運(yùn)用則是以語(yǔ)音助手、智能面部識(shí)別等代表的廣泛領(lǐng)域。
人工智能自成立以來(lái)經(jīng)歷了三次重大的跨越式發(fā)展過(guò)程:第一次跨越式發(fā)展是實(shí)現(xiàn)了問(wèn)題求解,實(shí)現(xiàn)了基本的邏輯推理功能,主要關(guān)注機(jī)器翻譯和數(shù)學(xué)理論、定理的證明、博弈等。在這一階段,紐厄爾和西蒙等人在理論和定理證明工作中取得了重大突破,開辟了計(jì)算機(jī)程序?qū)θ祟愃季S模擬的發(fā)展道路。這些重大的突破和進(jìn)展,一度使眾多的科研工作者認(rèn)為計(jì)算機(jī)技術(shù)很快就能夠?qū)θ祟惖乃季S方式進(jìn)行模擬,并掌握人類思維的規(guī)律。第二次跨越式發(fā)展是實(shí)現(xiàn)了能與外部環(huán)境進(jìn)行自動(dòng)交互的專家系統(tǒng),人工智能可以從陌生的環(huán)境中獲取有用信息從而進(jìn)行自主推理工作,并反映在實(shí)踐中去主動(dòng)地影響環(huán)境,如爆破機(jī)器人等。由于理論探索和計(jì)算機(jī)發(fā)展的高度緊密結(jié)合,人工智能在此階段開辟了在商業(yè)領(lǐng)域運(yùn)用的新天地,人工智能產(chǎn)品在這個(gè)階段開始走出實(shí)驗(yàn)室,走向市場(chǎng)。第三次跨越式發(fā)展是追求機(jī)品類人的思維和認(rèn)知能力。人工智能研發(fā)領(lǐng)域取得了一系列科研成果,如機(jī)器學(xué)習(xí)算法、機(jī)器翻譯、無(wú)人駕駛汽車、智能機(jī)器人,等等。進(jìn)入21世紀(jì),人工智能技術(shù)發(fā)展的深度和廣度不斷加深和擴(kuò)大,各行業(yè)和各領(lǐng)域的發(fā)展都可能與人工智能相關(guān),這表明人工智能擁有技術(shù)突破的無(wú)限可能,更體現(xiàn)出人工智能巨大的市場(chǎng)需求。
經(jīng)過(guò)半個(gè)多世紀(jì)的發(fā)展,人工智能在工程、教育、國(guó)防、醫(yī)學(xué)、生物學(xué)、哲學(xué)等領(lǐng)域均取得了顯著成果。人工智能在社會(huì)發(fā)展和人類生活中發(fā)揮著越來(lái)越重要的作用。人工智能已成為繼哥白尼革命、達(dá)爾文革命、神經(jīng)科學(xué)革命之后重大的革命性實(shí)踐。盧西亞諾·弗洛里迪(Luciano Floridi)在其著作《第四次革命——人工智能如何重塑人類現(xiàn)實(shí)》中,直接把“人工智能革命”稱為“第四次革命”。[4](P5)從科學(xué)技術(shù)對(duì)人類影響而言,人工智能業(yè)已成為繼蒸汽機(jī)發(fā)明、電力應(yīng)用、計(jì)算機(jī)應(yīng)用之后的第四次科技革命,人工智能的社會(huì)效應(yīng)越來(lái)越明顯。從宏觀和社會(huì)層面上來(lái)說(shuō),人工智能能夠提高國(guó)家的綜合國(guó)力和競(jìng)爭(zhēng)實(shí)力,促進(jìn)國(guó)家和區(qū)域各產(chǎn)業(yè)比例的合理調(diào)整,可以持續(xù)產(chǎn)生新的創(chuàng)業(yè)方向和形成新的商業(yè)運(yùn)行模式,有助于創(chuàng)造更多的工作崗位。人工智能的作用從微觀層面來(lái)講,提高了人類的生活質(zhì)量,使人們的生活更加方便快捷。
人工智能的研究涵蓋多個(gè)學(xué)科,它是包括信息技術(shù)、仿生學(xué)、控制論、神經(jīng)生理學(xué)、心理學(xué)、哲學(xué)、語(yǔ)言學(xué)、計(jì)算機(jī)科學(xué)、數(shù)學(xué)等眾多學(xué)科而建立起來(lái)的新的綜合集群性學(xué)科。根據(jù)研究的維度和視角,我們可以把人工智能的研究分為三種進(jìn)路:聯(lián)結(jié)主義(connectionism)、符號(hào)主義(symbolicism)和行為主義(actionism)。聯(lián)結(jié)主義來(lái)源于仿生學(xué),把人工智能當(dāng)作對(duì)人腦模型的研究,認(rèn)為神經(jīng)元是人類智能的基本構(gòu)成和傳遞單元,神經(jīng)元具有復(fù)雜的結(jié)構(gòu),并不是通過(guò)簡(jiǎn)單的符號(hào)就可以模擬的。聯(lián)結(jié)主義開始于MP模型。1943年,生理學(xué)家麥卡洛克(Warren McCulloch)和數(shù)理邏輯學(xué)家皮茨(Walter Pitts)創(chuàng)立了腦模型,即MP模型,用電子裝置模仿人腦結(jié)構(gòu)和功能。1986年,魯梅爾哈特(David Everett Rumelhart)等人提出多層網(wǎng)絡(luò)中的反向傳播(BP)算法。聯(lián)結(jié)主義進(jìn)路從模型到算法的發(fā)展歷程實(shí)現(xiàn)了聯(lián)結(jié)主義人工智能產(chǎn)品的工程化和市場(chǎng)化。聯(lián)結(jié)主義指出,人工智能的重要來(lái)源是人類大腦本身,核心議題是對(duì)人腦模型深入研究,聯(lián)結(jié)主義人工智能的研究進(jìn)路采取結(jié)構(gòu)模擬的思路;符號(hào)主義學(xué)派主要依靠計(jì)算機(jī)邏輯符號(hào)來(lái)模擬人的認(rèn)知過(guò)程,把人工智能的理論來(lái)源歸結(jié)為數(shù)理邏輯,其代表是專家系統(tǒng)的開發(fā)和應(yīng)用,采取功能模擬的思路,其主要代表人物為麥卡錫、西蒙、紐厄爾和明斯基等人;行為主義認(rèn)為人工智能來(lái)源于控制論(Control Theory),人工智能的研究特點(diǎn)在于,人工智能的技術(shù)產(chǎn)品根據(jù)搜集的外部數(shù)據(jù)調(diào)整自己的行為以主動(dòng)適應(yīng)外部環(huán)境,而不是依賴人類的算法和預(yù)先設(shè)定的程序?qū)ν饨缱龀龇磻?yīng),行為主義學(xué)派專注于智能控制與智能機(jī)器人系統(tǒng),采取的是行為模擬的思路,其人工智能機(jī)器具有具身性(embody),環(huán)境介入到認(rèn)知過(guò)程中,其代表人物是六足行走機(jī)器人的研發(fā)者布魯克斯(R. A. Brooks)。
人工智能在理論和實(shí)踐中不斷取得新的突破使之成為21世紀(jì)最有前景的新興技術(shù)之一,但是一些人工智能的產(chǎn)品在實(shí)際應(yīng)用過(guò)程中卻造成了許多意想不到的后果,帶來(lái)了許多挑戰(zhàn)。人工智能推動(dòng)了社會(huì)進(jìn)步和人類發(fā)展,在自動(dòng)駕駛、語(yǔ)音識(shí)別、Pokémon Go等方面取得了重大突破,但是也存在一些失敗案例。路易斯維爾大學(xué)網(wǎng)絡(luò)安全實(shí)驗(yàn)室的羅曼(Roman Yampolskiy)教授發(fā)表的《人工智能和網(wǎng)絡(luò)安全:人工智能的失敗》[5]列舉出發(fā)生在2016年的10項(xiàng)重大的人工智能失敗案例。比如,特斯拉自動(dòng)駕駛汽車造成人員傷亡、機(jī)器人傷人事件、保險(xiǎn)公司利用臉書數(shù)據(jù)預(yù)測(cè)事故發(fā)生率涉嫌存在偏見,等等。這些失敗案例可以歸結(jié)為人工智能系統(tǒng)在學(xué)習(xí)階段的錯(cuò)誤,也可以歸結(jié)為人工智能技術(shù)的不確定性所帶來(lái)的道德風(fēng)險(xiǎn)。人工智能技術(shù)的不確定性可以理解為人工智能技術(shù)后果的難以預(yù)見性以及難以量化評(píng)估性。人工智能的道德風(fēng)險(xiǎn)還可能是由于人類的有限理性所致??茖W(xué)技術(shù)的發(fā)展水平與人類歷史階段的生產(chǎn)力水平緊密相關(guān),人工智能產(chǎn)品不能違背自然界規(guī)律,F(xiàn)·拉普(F. Lapp)認(rèn)為:“人類所創(chuàng)造的和未來(lái)要?jiǎng)?chuàng)造的一切技術(shù)都必然是與自然法則相一致的。”[6](P102)隨著生產(chǎn)力的進(jìn)一步發(fā)展,人工智能科技會(huì)快速發(fā)展,但是人類自身的認(rèn)知能力在特定的歷史條件和階段總是受到限制的,這也是人類認(rèn)知?dú)v史發(fā)展的客觀規(guī)律之一,人類理性的有限性表現(xiàn)為人類對(duì)人工智能產(chǎn)品道德風(fēng)險(xiǎn)認(rèn)知的滯后性。人工智能產(chǎn)品除了符合自然規(guī)律這個(gè)物理性之外,還具有意向性。人工智能產(chǎn)品也會(huì)體現(xiàn)人類的意志和愿望。隨著技術(shù)的發(fā)展,技術(shù)改變社會(huì)的作用增強(qiáng),技術(shù)的發(fā)展可能會(huì)遠(yuǎn)離人類的最初目的和控制?!八粌H影響了我國(guó)公民之間、公民與國(guó)家之間的法律關(guān)系,還給國(guó)家治理、政治生態(tài)以及社會(huì)穩(wěn)定等宏觀法治秩序帶來(lái)了安全風(fēng)險(xiǎn)?!盵7]正確而全面地認(rèn)識(shí)人工智能的潛在道德風(fēng)險(xiǎn)并合理地對(duì)道德風(fēng)險(xiǎn)進(jìn)行規(guī)避顯得十分必要。著名物理學(xué)家霍金(Stephen William Hawking)、美國(guó)太空探索技術(shù)公司創(chuàng)始人馬斯克(Elon Musk)以及微軟首席執(zhí)行官比爾·蓋茨(Bill Gates)等人都考慮到人工智能的道德風(fēng)險(xiǎn),呼吁對(duì)人工智能開發(fā)、使用采取審慎的態(tài)度。
1.人工智能發(fā)展引發(fā)智能機(jī)器的道德主體地位的思考
人工智能離不開算法,算法是人類輸入的數(shù)據(jù),算法出現(xiàn)問(wèn)題究竟由誰(shuí)來(lái)負(fù)責(zé)呢?機(jī)器以及算法是否具備成為主體的條件和資格呢?人工智能能否具有道德主體地位呢?這是一個(gè)元倫理學(xué)問(wèn)題,涉及對(duì)于道德主體地位的溯源,還涉及人類的道德推理能力是先天賦予的還是后天學(xué)習(xí)的結(jié)果的討論。根據(jù)人工智能的現(xiàn)有發(fā)展速度和規(guī)模,人工智能或許在未來(lái)能夠發(fā)展出具有自我意識(shí)的智能產(chǎn)品,這些人類制造出來(lái)的智能機(jī)器是否也該被賦予與人類同等的權(quán)利和地位呢?當(dāng)這些高智能產(chǎn)品也具備了與人類高度相似的感知能力、情感水平的時(shí)候,是否會(huì)威脅到人類的自身利益呢?如果人工智能產(chǎn)品出現(xiàn)了傷害人類的情況,或者以造成人類傷亡為目的的人工智能產(chǎn)品出現(xiàn),責(zé)任主體是人還是機(jī)器呢?美國(guó)警方曾經(jīng)出動(dòng)殺人機(jī)器人擊斃犯罪嫌疑人,機(jī)器人是否有權(quán)剝奪人類生命呢?人工智能該有怎樣的道德地位、能有怎樣的道德地位呢?當(dāng)人工智能機(jī)器人能夠具有自我意識(shí)甚至能夠模仿人的感情以后,機(jī)器是否有自制能力呢?上述問(wèn)題涉及對(duì)人工智能產(chǎn)品的主體地位的思考,這些都是隨著人工智能的發(fā)展而引發(fā)倫理問(wèn)題。
2.人工智能發(fā)展引發(fā)新倫理問(wèn)題
人工智能正在以更快的發(fā)展速度和水平融入人類社會(huì)的方方面面,甚至可以說(shuō)半個(gè)多世紀(jì)的人工智能發(fā)展遠(yuǎn)遠(yuǎn)超過(guò)過(guò)去幾百年的科技發(fā)展水平,人工智能是否帶來(lái)了新的倫理問(wèn)題呢?人工智能產(chǎn)品給人類造成的傷亡如何歸責(zé)、追責(zé)呢?人工智能一旦獲得同人類相近的思維能力和推理能力,如何界定人工智能與人類的道德地位將面臨道德倫理挑戰(zhàn);人工智能的高效率和低失誤率在司法審判領(lǐng)域的使用,會(huì)給傳統(tǒng)司法審判帶來(lái)巨大的法律倫理挑戰(zhàn);人工智能手術(shù)機(jī)器人將給醫(yī)療衛(wèi)生領(lǐng)域帶來(lái)醫(yī)療倫理挑戰(zhàn);當(dāng)一個(gè)質(zhì)量有保證的機(jī)器人可以為人類服務(wù)十?dāng)?shù)年,甚至服務(wù)人類祖孫三代的時(shí)候,人工智能的代際倫理又成為新的倫理問(wèn)題。面對(duì)如此多的倫理挑戰(zhàn),我們將如何發(fā)展或者改進(jìn)現(xiàn)有的倫理理論體系,使之更好地適應(yīng)人工智能的發(fā)展,既要人工智能更好地服務(wù)于人類,又要限制其負(fù)面效應(yīng),這是人工智能發(fā)展面臨的巨大挑戰(zhàn)。人工智能的責(zé)任問(wèn)題是現(xiàn)代社會(huì)不可回避的重要議題,因?yàn)闆](méi)有一個(gè)算法和程序永遠(yuǎn)是完美無(wú)缺的。那么,通過(guò)人工智能以及新技術(shù)的發(fā)展是否會(huì)消解原來(lái)的倫理問(wèn)題呢?新技術(shù)能否成為解決新的倫理問(wèn)題的手段呢?這也是值得思考的一個(gè)問(wèn)題。
3.人工智能引發(fā)新的社會(huì)安全和公平正義問(wèn)題
人工智能的發(fā)展帶來(lái)信息安全風(fēng)險(xiǎn)。人工智能產(chǎn)品在很多領(lǐng)域已經(jīng)與人類形成了服務(wù)和被服務(wù)的關(guān)系,如手機(jī)語(yǔ)音助手、機(jī)動(dòng)車的軌道偏離糾正,等等,當(dāng)這些人工智能產(chǎn)品和人類進(jìn)行交互時(shí),如何保證使用者的信息安全,或者說(shuō)使用者的信息一旦被上傳到遠(yuǎn)程終端以后,又將如何保證信息安全這是一個(gè)倫理問(wèn)題。
人工智能產(chǎn)品運(yùn)用帶來(lái)的人類健康、生命安全風(fēng)險(xiǎn)。自1979年美國(guó)汽車工廠發(fā)生首起機(jī)器人傷害事件以來(lái),2015年谷歌研發(fā)的無(wú)人駕駛汽車傷人事件,2016年特斯拉自動(dòng)駕駛汽車車禍,世界上每天都有機(jī)器傷害人事件發(fā)生。如果是人工智能設(shè)計(jì)時(shí)的算法輸入導(dǎo)致這樣的問(wèn)題出現(xiàn)的,那么如何確保人工智能產(chǎn)品的安全運(yùn)用,保障人類健康、生命安全,也會(huì)成為一個(gè)倫理問(wèn)題。
人工智能可能導(dǎo)致工人失業(yè)、影響社會(huì)公平正義。人工智能機(jī)器人工作效率高、出錯(cuò)率低,維護(hù)成本少,能夠保證工作的連續(xù)性。機(jī)器翻譯可能取代人工翻譯、機(jī)器人可能取代工人勞動(dòng),人工智能在各領(lǐng)域的運(yùn)用會(huì)對(duì)社會(huì)穩(wěn)定造成沖擊。其中比較突出的是對(duì)人類就業(yè)的沖擊,許多人的工作安全和穩(wěn)定會(huì)直接受到人工智能發(fā)展的影響,特別是不需要專業(yè)技術(shù)與專業(yè)能力的工作,導(dǎo)致勞動(dòng)者失業(yè)和未就業(yè)人口總量提高,這些都不利于社會(huì)的穩(wěn)定和安全。當(dāng)有足夠多的無(wú)業(yè)人口時(shí),甚至有引發(fā)社會(huì)動(dòng)蕩、局部戰(zhàn)爭(zhēng)的風(fēng)險(xiǎn)。人工智能發(fā)展也存在一些影響社會(huì)公正的情況。例如,Northpointe 公司開發(fā)的預(yù)測(cè)罪犯二次犯罪幾率的人工智能系統(tǒng)的算法,因?yàn)楹谌说母怕蔬h(yuǎn)遠(yuǎn)高于其他人種而被指帶有種族偏見傾向。上海交通大學(xué)利用唇曲率、眼內(nèi)角距以及口鼻角度等的面部識(shí)別系統(tǒng)可以預(yù)測(cè)某些人具有犯罪傾向,但被質(zhì)疑存在偏見。在首屆2016年“國(guó)際人工智能選美大賽”上,基于“能準(zhǔn)確評(píng)估人類審美與健康標(biāo)準(zhǔn)”的算法的機(jī)器人專家組對(duì)人類面部進(jìn)行評(píng)判,由于未對(duì)人工智能提供多樣的訓(xùn)練集,比賽的獲勝者都是白人,機(jī)器人審美也存在人種歧視的現(xiàn)象。Pokémon Go 游戲發(fā)布后,因?yàn)樗惴òl(fā)明者沒(méi)有花費(fèi)時(shí)間在黑人社區(qū)上,Pokémon多出現(xiàn)在白人社區(qū),只有極少的 Pokémon 位于黑人社區(qū),這涉嫌對(duì)黑人的歧視,涉及社會(huì)公正問(wèn)題。社會(huì)公正是和諧社會(huì)的本質(zhì)和基石,因?yàn)樗惴ㄝ斎胝呋蛘呷斯ぶ悄茉O(shè)計(jì)者的問(wèn)題導(dǎo)致一些新的社會(huì)倫理問(wèn)題出現(xiàn)。人工智能導(dǎo)致的失業(yè)問(wèn)題、公平公正問(wèn)題,都可能帶來(lái)新的社會(huì)倫理挑戰(zhàn),需要制定適應(yīng)人工智能技術(shù)的法律和法規(guī),需要對(duì)人工智能引發(fā)的新倫理問(wèn)題進(jìn)行反思。
人工智能的社會(huì)影響越來(lái)越大,我們從來(lái)不否認(rèn)人工智能的作用,但人工智能的發(fā)展已經(jīng)導(dǎo)致一些倫理問(wèn)題出現(xiàn),并且可能引發(fā)新的倫理問(wèn)題,人工智能作為一種新的技術(shù),也會(huì)因?yàn)樾录夹g(shù)的不確定性潛藏著道德風(fēng)險(xiǎn)。因此,必須對(duì)人工智能的道德風(fēng)險(xiǎn)進(jìn)行規(guī)約,才能保障人工智能的順利發(fā)展。
1.規(guī)避人工智能道德風(fēng)險(xiǎn)需要“道德嵌入”
美國(guó)技術(shù)哲學(xué)家唐·伊德(Don Idle)提出技術(shù)中介理論(technological mediation),他把技術(shù)作為人與世界的中介。伊德認(rèn)為,人與技術(shù)、世界的關(guān)系,也就是說(shuō)“人-技術(shù)-世界”的關(guān)系結(jié)構(gòu)可以分為以下四種:人與技術(shù)的具身關(guān)系(embodiment relations)、詮釋學(xué)關(guān)系(hermeneutic relations)、他者關(guān)系(alterity relations)和背景關(guān)系(background relations)。四種技術(shù)情境下的人、技術(shù)與世界的互動(dòng)關(guān)系圖式,分別是:
具身關(guān)系:(人-技術(shù))→世界
詮釋學(xué)關(guān)系:人→(技術(shù)-世界)
它者關(guān)系:人→技術(shù)-(-世界)
背景關(guān)系:人(-技術(shù)/世界)[8](P72-112)
第一種“人-技術(shù)-世界”的關(guān)系結(jié)構(gòu)是具身關(guān)系,指的是技術(shù)與人融為一體, 比如,為了看得更清晰的近視眼鏡就屬于具身關(guān)系的存在,一旦人習(xí)慣了眼鏡的存在,人就與眼鏡融為一體,人往往忽略眼鏡的存在,人與技術(shù)人工物形成一個(gè)整體來(lái)經(jīng)驗(yàn)世界。這時(shí),技術(shù)具備知覺(jué)的透明性(perception transparency)。第二種“人-技術(shù)-世界”的關(guān)系結(jié)構(gòu)是詮釋學(xué)關(guān)系,比如溫度計(jì),人只要能夠讀懂溫度計(jì)上的數(shù)字就能經(jīng)驗(yàn)世界,無(wú)須親自感知室外溫度。溫度計(jì)上的數(shù)字就是外部世界的詮釋學(xué)表征。第三種“人-技術(shù)-世界”的關(guān)系結(jié)構(gòu)是他者關(guān)系。技術(shù)不是無(wú)意向性的對(duì)象,是僅次于他者的準(zhǔn)他者(quasi-other),作為準(zhǔn)他者的技術(shù)是一種中性的技術(shù)實(shí)體,準(zhǔn)他者技術(shù)作為世界的一部分與人類交互,像計(jì)算機(jī)、自動(dòng)機(jī)就屬于交互的技術(shù)。伊德把“人-技術(shù)-世界”的具身關(guān)系、詮釋學(xué)關(guān)系和他者關(guān)系中的技術(shù)稱作前景(foreground)中的技術(shù),相對(duì)于前景技術(shù)而言,他把“人-技術(shù)-世界”的第四種關(guān)系結(jié)構(gòu)稱為“背景關(guān)系”。如空調(diào)屬于伊德的背景關(guān)系,人在空調(diào)環(huán)境中很少感知到空調(diào)的存在,空調(diào)作為背景而存在,一旦空調(diào)停止運(yùn)轉(zhuǎn),人才能感知到空調(diào)的存在。
隨著人工智能的發(fā)展,“人-技術(shù)-世界”的關(guān)系結(jié)構(gòu)發(fā)生了改變,比如增強(qiáng)現(xiàn)實(shí)(augmented reality,簡(jiǎn)稱AR)技術(shù)就突破了伊德傳統(tǒng)意義上的“人-技術(shù)-世界”的關(guān)系結(jié)構(gòu)。不管是具身關(guān)系、詮釋學(xué)關(guān)系、他者關(guān)系還是背景關(guān)系,都不能準(zhǔn)確地刻畫技術(shù)在人與世界中的地位和作用。荷蘭后現(xiàn)象學(xué)技術(shù)哲學(xué)家維貝克(Peter Paul verbeek)提出“人-技術(shù)-世界”的賽博格關(guān)系(cyborg relation)和復(fù)合關(guān)系(composite relation)。賽博格關(guān)系表現(xiàn)為人與技術(shù)融合(merge)而非互動(dòng)(interact),如幫助人們緩解情緒的抗抑郁藥品、人工瓣膜和心臟起搏器等。
賽博格關(guān)系、復(fù)合關(guān)系及對(duì)應(yīng)的圖式是:
賽博格關(guān)系:(人/技術(shù))→世界
復(fù)合關(guān)系:人→(技術(shù)→世界)[9]
按照維貝克的觀點(diǎn),增強(qiáng)現(xiàn)實(shí)技術(shù)提供了兩種平行關(guān)系(parallel relations),技術(shù)除了構(gòu)造了人和世界的感知關(guān)系,同時(shí)提供了世界的表征。他用如下圖式表示:
(人-技術(shù))→世界和人→(技術(shù)-世界)[10]
“人-技術(shù)-世界”關(guān)系結(jié)構(gòu)的理論前提是關(guān)于技術(shù)認(rèn)識(shí)論研究,這涉及對(duì)技術(shù)是否負(fù)載人類價(jià)值的討論。一般來(lái)講,我們可以分為兩種形式:技術(shù)工具論與技術(shù)實(shí)體論。技術(shù)工具論認(rèn)為技術(shù)沒(méi)有負(fù)載人類價(jià)值,技術(shù)具有價(jià)值中立性(value-neutral of technology),技術(shù)僅僅是改造世界的手段。雅斯貝爾斯(Karl Theodor Jaspers)指出,“技術(shù)僅是一種手段,它本身并無(wú)善惡。一切取決于人從中造出什么,它為什么目的而服務(wù)于人,人將其置于什么條件之下”。[11](P142)梅賽恩(Emmanuel Mesrthene)也堅(jiān)持技術(shù)價(jià)值中立的觀點(diǎn),“有益的做法是將技術(shù)定義為一般意義上的工具,不但包括機(jī)器,還包括語(yǔ)言工具和智力工具以及現(xiàn)代分析方法和數(shù)學(xué)方法”。[12]有的技術(shù)哲學(xué)家堅(jiān)持技術(shù)價(jià)值負(fù)荷論(value load of technology),認(rèn)為技術(shù)負(fù)載了人類價(jià)值,技術(shù)本身蘊(yùn)含著人的價(jià)值取向,技術(shù)涉及主體的意圖和目的。如戈菲(Jean-Yves Goffi)認(rèn)為,“技術(shù)從來(lái)不是中性的,而總是一種個(gè)性的投射”。[13](P116)不管是技術(shù)價(jià)值中立論還是技術(shù)價(jià)值負(fù)荷論,都只考慮到人對(duì)技術(shù)的影響,而沒(méi)有把技術(shù)對(duì)人的影響考慮在內(nèi),都沒(méi)有考慮到技術(shù)在設(shè)計(jì)、開發(fā)、制造過(guò)程中的價(jià)值負(fù)載問(wèn)題。
技術(shù)實(shí)體論認(rèn)為技術(shù)與人一樣,是一種實(shí)體,技術(shù)具有獨(dú)立存在的價(jià)值和意義。埃呂爾(Jacques Ellul)就強(qiáng)調(diào)了技術(shù)的普遍性、自主性和決定性。一方面,技術(shù)被認(rèn)為具有與社會(huì)無(wú)關(guān)的自主性,獨(dú)立于社會(huì)。另一方面,技術(shù)能夠影響社會(huì)發(fā)展。在埃呂爾看來(lái),技術(shù)是既能夠影響社會(huì)發(fā)展又獨(dú)立于社會(huì)的自主力量?!凹夹g(shù)可以導(dǎo)致人類的勞動(dòng)價(jià)值喪失;也可導(dǎo)致個(gè)人的孤獨(dú)封閉和人際間的疏遠(yuǎn)冷漠等精神方面問(wèn)題。人的思維成為無(wú)必要的。技術(shù)就是一個(gè)摒棄人類能力的過(guò)程?!盵14](P95)喬治·巴薩拉(George Basalla)認(rèn)為:“技術(shù)和技術(shù)發(fā)展的中心不是科學(xué)知識(shí),也不是技術(shù)開發(fā)群體和社會(huì)經(jīng)濟(jì)因素,而是人造物本身?!盵15](P43)技術(shù)有時(shí)不受人的意志控制,具有獨(dú)立的存在價(jià)值。
隨著人工智能的發(fā)展,傳統(tǒng)的“人-技術(shù)-世界”的關(guān)系結(jié)構(gòu)也在發(fā)生轉(zhuǎn)變,在技術(shù)本質(zhì)問(wèn)題上,技術(shù)哲學(xué)的研究經(jīng)歷了從技術(shù)工具論到技術(shù)實(shí)體論的發(fā)展,但技術(shù)工具論和技術(shù)實(shí)體論都是在人與技術(shù)間具有明確邊界的語(yǔ)境下討論人與技術(shù)關(guān)系問(wèn)題的。人工智能產(chǎn)品一旦具有了意識(shí)和人類情感,會(huì)使人與技術(shù)的邊界逐漸消失,在這種意義上,我們需要重新思考人與技術(shù)的關(guān)系。技術(shù)不但在人與世界中起著“中介調(diào)節(jié)”(mediation)作用,還影響著人類的行為模式。
一般來(lái)講,堅(jiān)持“技術(shù)工具論”的學(xué)者往往認(rèn)為技術(shù)本身不具有倫理屬性,人工智能產(chǎn)品也不具有倫理屬性,人工智能的屬性由人的使用方式?jīng)Q定;堅(jiān)持技術(shù)實(shí)體論的學(xué)者認(rèn)為,人工智能可能具有自主意識(shí)和情感,因此,技術(shù)人工智能產(chǎn)品就具有了倫理意蘊(yùn),可以作為獨(dú)立的道德能動(dòng)者。還有一種道路,認(rèn)為人工智能產(chǎn)品的道德屬性源于人工智能設(shè)計(jì)者。伊德認(rèn)為:“越接近于技術(shù)所允許的隱形性和透明性,就越能擴(kuò)展人的身體感覺(jué),就越是好的技術(shù)。值得注意的是,設(shè)計(jì)的完善不僅僅與機(jī)器有關(guān),還與機(jī)器與人的組合有關(guān)。機(jī)器沿著一個(gè)身體的方向完善,并且是根據(jù)人的感知和行為塑造的?!盵8](P74)
維貝克出版了《將技術(shù)道德化——理解與設(shè)計(jì)物的道德》一書,在這本書中,維貝克把技術(shù)人工物和道德的關(guān)系劃分為兩個(gè)層面:第一個(gè)層面,技術(shù)帶來(lái)新的倫理問(wèn)題。第二個(gè)層面,通過(guò)技術(shù)設(shè)計(jì)改變?nèi)祟惖牡赖滦袨?。人工智能技術(shù),會(huì)帶來(lái)一些新的倫理問(wèn)題,但也可以通過(guò)新的人工智能設(shè)計(jì)改變?nèi)祟惖男袨?。人工智能的道德風(fēng)險(xiǎn)是預(yù)置的,是人類在設(shè)計(jì)人工智能之初就預(yù)先設(shè)置了的。人工智能設(shè)計(jì)具有意向性,嵌入了人類的目的,道德被“嵌入”(Moral Embeddedness)到產(chǎn)品中。就像拉圖爾(Bruno Latour)說(shuō)的“減速帶”設(shè)計(jì)一樣,如果不在減速帶前減緩車速,車就難以平穩(wěn)駕駛,在減速帶中就嵌入了需要人遵守的減速駕駛的道德規(guī)則。超市的投幣手推車也具有“道德嵌入”的功能,如果不把手推車歸還到指定區(qū)域,就不能退換硬幣,就會(huì)造成使用者的損失,這樣,久而久之,就提高了人的道德水平。顯然,這種設(shè)計(jì)的手推車也嵌入了人類道德。在“物”的設(shè)計(jì)中嵌入人類道德,使人不得不遵守倫理準(zhǔn)則,這種道德不僅僅在于人,而且還在于“物”的情形被拉圖爾稱為“將裝置道德化”,維貝克直接稱其為“道德物化”(Moral materialization)。道德規(guī)范對(duì)人的約束轉(zhuǎn)變?yōu)閷?duì)物的“道德嵌入”,人工智能在設(shè)計(jì)之初就應(yīng)該預(yù)測(cè)和評(píng)估人工智能產(chǎn)品可能引發(fā)的道德危險(xiǎn)。因?yàn)槿斯ぶ悄芫哂腥说耐评砟芰Γ虼藢?duì)人工智能的發(fā)展應(yīng)該從設(shè)計(jì)源頭進(jìn)行規(guī)約。技術(shù)設(shè)計(jì)是把道德理論、道德規(guī)范和倫理學(xué)原則現(xiàn)實(shí)化的載體,具有道德調(diào)節(jié)、道德重塑的作用。在具體的人工智能產(chǎn)品設(shè)計(jì)上就應(yīng)該進(jìn)行道德風(fēng)險(xiǎn)評(píng)估,對(duì)人工智能可能引起的道德風(fēng)險(xiǎn)有個(gè)準(zhǔn)確的把握。在人工智能的設(shè)計(jì)環(huán)節(jié)就應(yīng)該有道德風(fēng)險(xiǎn)意識(shí),這樣才能防范人工智能可能帶來(lái)的道德風(fēng)險(xiǎn)。
2.人工智能以不傷害人類為前提
康德的義務(wù)論和邊沁的功利主義是西方倫理學(xué)中的經(jīng)典理論。從義務(wù)論的角度看,一個(gè)行為的性質(zhì)的正確與錯(cuò)誤,并不是由這個(gè)行為的結(jié)果來(lái)決定的,而是由行為本身的性質(zhì)、特點(diǎn)來(lái)決定的,正確的行為可能導(dǎo)致錯(cuò)誤的結(jié)果,我們平時(shí)說(shuō)的“好心辦壞事”屬于義務(wù)論的行為。功利主義是奉行目的論的典型,一個(gè)行為的優(yōu)劣不在于行為的本意是否優(yōu)劣,而在于這個(gè)行為所帶來(lái)的結(jié)果是好的還是壞的。人工智能的設(shè)計(jì)不應(yīng)僅僅局限于某一種狀態(tài),從設(shè)計(jì)者的設(shè)計(jì)理念到人工智能產(chǎn)品都應(yīng)該規(guī)范與約束,才能保障人工智能發(fā)展不損害人類利益,不傷害人類。
美國(guó)科幻作家阿西莫夫(Isaac Asimov)的“機(jī)器人三定律”就是以不傷害人類為前提的。1942年,阿西莫夫在其文學(xué)作品《我,機(jī)器人》中提出了三條機(jī)器人定律:“第一條:機(jī)器人不得傷害人類個(gè)體,不能目睹人類受到傷害不干預(yù);第二條:機(jī)器人必須服從他的命令,命令與第一條沖突時(shí)除外;第三條:機(jī)器人在不違反第一、第二條的原則下,要保護(hù)自己的安全?!盵16](P1)電氣電子工程師學(xué)會(huì)(IEEE)在2017年12月12日發(fā)布的《人工智能設(shè)計(jì)的倫理準(zhǔn)則》(第2版)中提出,合乎倫理地設(shè)計(jì)、開發(fā)和應(yīng)用人工智能技術(shù)應(yīng)該遵循以下一般原則:人權(quán)——確保它們不侵犯國(guó)際公認(rèn)的人權(quán);福祉——在它們的設(shè)計(jì)和使用中優(yōu)先考慮人類福祉的指標(biāo);問(wèn)責(zé)——確保它們的設(shè)計(jì)者和操作者負(fù)責(zé)任且可問(wèn)責(zé);透明——確保它們以透明的方式運(yùn)行。
2017年1月,在美國(guó)加州的阿西洛馬召開了“阿西洛馬會(huì)議”,近千位人工智能領(lǐng)域的專家和學(xué)者表達(dá)了對(duì)人工智能快速發(fā)展所帶來(lái)的潛在問(wèn)題和隱患的關(guān)心。阿西洛馬人工智能原則(Asilomar AI Principles)旨在規(guī)范智能機(jī)器的發(fā)展,共同保障人類的命運(yùn)和未來(lái)。阿西洛馬人工智能原則是對(duì)人工智能和機(jī)器人發(fā)展所產(chǎn)生影響的長(zhǎng)期觀察比較集中和綜合的表達(dá)。這些原則包括三個(gè)主要方面,分別是研究主題(Research Issues)、倫理與價(jià)值(Ethics and values)和長(zhǎng)期議題(Longer-term Issues)。研究主題方面主要討論了人工智能的發(fā)展方向、發(fā)展主題等問(wèn)題,主要包括研究目的、經(jīng)費(fèi)來(lái)源、安全措施、文化建設(shè)、政策體系等方面的內(nèi)容。倫理與價(jià)值方面主要討論了隱私、價(jià)值觀、道德地位、價(jià)值歸屬、故障追責(zé)等問(wèn)題。長(zhǎng)期議題方面則是站在長(zhǎng)遠(yuǎn)角度,對(duì)人工智能發(fā)展可能出現(xiàn)的潛在危機(jī)和挑戰(zhàn)進(jìn)行了集中討論和統(tǒng)一規(guī)約,主要包括能力警惕、風(fēng)險(xiǎn)以及公共利益等核心主題。[17]
3.人工智能發(fā)展以利于社會(huì)公平正義為目標(biāo)
正義是一個(gè)社會(huì)健康發(fā)展的重要基石,是人類社會(huì)發(fā)展的價(jià)值追求。人工智能在設(shè)計(jì)、開發(fā)之初就應(yīng)該關(guān)注社會(huì)的公平和正義。
首先,機(jī)器人設(shè)計(jì)應(yīng)關(guān)注公平和正義。機(jī)器人不再是簡(jiǎn)單工具,在機(jī)器人的設(shè)計(jì)中應(yīng)該關(guān)注責(zé)任倫理,其中正義原則是機(jī)器人設(shè)計(jì)需要貫徹的一個(gè)重要原則。著名技術(shù)學(xué)家H·倫克(Hans Lenk)指出:“在歷史上人類從未像現(xiàn)在這樣掌握如此多的技術(shù)力量和物質(zhì)力量,技術(shù)不再是簡(jiǎn)單的工具,而是塑造世界、改造世界、創(chuàng)造世界的工具,在技術(shù)領(lǐng)域中出現(xiàn)的變化趨勢(shì)使責(zé)任倫理問(wèn)題突出出來(lái)。”[18]人工智能的設(shè)計(jì)要關(guān)注公平和正義,不應(yīng)擴(kuò)大主體間權(quán)力、地位的差距,導(dǎo)致實(shí)質(zhì)上的不公平和不正義。例如,無(wú)人機(jī)的技術(shù)設(shè)計(jì)、生產(chǎn)需要大量的成本,導(dǎo)致價(jià)格昂貴,并非所有人都能享受該項(xiàng)技術(shù)成果,這就會(huì)致使一些落后國(guó)家和地區(qū)無(wú)法研制和使用無(wú)人機(jī),導(dǎo)致地區(qū)間的不公平,造成公平性喪失;使用無(wú)人機(jī)送快遞等會(huì)造成現(xiàn)有快遞從業(yè)人員的失業(yè),導(dǎo)致技術(shù)結(jié)果的不公平。羅爾斯(John Bordley Rawls)在談到作為公正的正義時(shí)提出,“所有值得我們注意的倫理學(xué)理論都須在判斷正當(dāng)時(shí)考慮結(jié)果,不這樣做的倫理學(xué)理論是奇怪的和不可理喻的”。[19](P27)技術(shù)設(shè)計(jì)的倫理學(xué)也應(yīng)該追求技術(shù)結(jié)果的公平、正義,包括人工智能獲取途徑的公平、正義等。當(dāng)然人工智能使用后果具有不確定性,人工智能設(shè)計(jì)只能盡可能做到公平、正義。根據(jù)康德和邊沁的正義論,正義在這里可以理解為符合大多數(shù)人的利益,維護(hù)大多數(shù)人的權(quán)利。人工智能的設(shè)計(jì)中要確保其設(shè)計(jì)目的是為了人類的整體利益而不是某些個(gè)人或者集團(tuán)的利益;人工智能的使用中要有助于大部分人的利益而不是少數(shù)人的利益;人工智能的使用要立足于消除國(guó)與國(guó)以及人與人之間的不平等,而不是加大貧富差距或者人為構(gòu)建數(shù)字鴻溝。羅爾斯強(qiáng)調(diào)正義的制度健全,認(rèn)為完善的制度是實(shí)現(xiàn)社會(huì)正義的重要保證。在發(fā)展人工智能的設(shè)計(jì)倫理時(shí)我們也應(yīng)堅(jiān)持制度健全:人為機(jī)器立法,從具體的人工智能的行業(yè)規(guī)范到區(qū)域法律法規(guī),再到國(guó)家法律法規(guī),甚至全球性的有強(qiáng)制力的公約,這些法律和制度都要考慮以正義性為核心因素之一。此外,從具體人工智能的設(shè)計(jì)者角度而言,隨著智能機(jī)器人在人類日常生活和工作中的不斷融入,人工智能產(chǎn)品不再像過(guò)去一樣,僅僅被人類當(dāng)成工具來(lái)看待,更多的新角色和功能被賦予到高智能機(jī)器人身上,使得舊的人工智能倫理觀念受到?jīng)_擊和挑戰(zhàn),這也要求人工智能的設(shè)計(jì)者在一定程度上考慮到社會(huì)影響,才能更好地解決人工智能的設(shè)計(jì)問(wèn)題。
人工智能改變了傳統(tǒng)的人與技術(shù)的關(guān)系,因此,在人工智能的設(shè)計(jì)、監(jiān)控和管理等整個(gè)過(guò)程中都要秉承公平原則,把正義原則融入機(jī)器人的設(shè)計(jì)、研發(fā)、運(yùn)行和管理等各個(gè)階段,在機(jī)器人的設(shè)計(jì)和應(yīng)用過(guò)程中關(guān)注程序正義和結(jié)果正義,通過(guò)機(jī)器人的發(fā)展推動(dòng)社會(huì)公平,推動(dòng)整個(gè)社會(huì)良性有序進(jìn)行,規(guī)范和約束機(jī)器人發(fā)展,讓人工智能更好地為人類服務(wù)。
綜上所述,從技術(shù)倫理學(xué)視角來(lái)看,對(duì)人工智能風(fēng)險(xiǎn)應(yīng)該采取描述性研究與規(guī)范性研究相結(jié)合的研究范式,一方面需要對(duì)技術(shù)使用前的設(shè)計(jì)、開發(fā)、制造過(guò)程進(jìn)行伴隨技術(shù)的哲學(xué)、倫理學(xué)分析;另一方面堅(jiān)持對(duì)技術(shù)使用過(guò)程的倫理學(xué)分析,兩者有效結(jié)合,才能實(shí)現(xiàn)后現(xiàn)象學(xué)意義上的動(dòng)態(tài)分析與靜態(tài)分析的有效結(jié)合。關(guān)注人工智能技術(shù)過(guò)程中的倫理問(wèn)題,人工智能技術(shù)使技術(shù)安全性及隱私保護(hù)等方面的問(wèn)題變得更加重要且緊迫,因此需要內(nèi)化技術(shù)設(shè)計(jì)、決策主體的責(zé)任意識(shí);完善技術(shù)設(shè)計(jì)制度,并促成各類技術(shù)主體之間的合作。只有這樣,才能有效地規(guī)避人工智能道德風(fēng)險(xiǎn),才能更好地促進(jìn)人工智能的健康發(fā)展。
參考文獻(xiàn):
[1]Patrick H.Winston. Artificial Intelligence:A Perspective[A]//The AI Business: Commercial Uses of Artificial Intelligence[C]. Cambridge: MIT Press,1984.
[2]Nils J.Nilsson.人工智能(英文版)[M].北京:機(jī)械工業(yè)出版社,1999.
[3]瑪格麗特·A·博登.人工智能哲學(xué)[M].劉西瑞,王漢琦,譯.上海:上海譯文出版社,2001.
[4]盧西亞諾·弗洛里迪.第四次革命——人工智能如何重塑人類現(xiàn)實(shí)[M].王文革,譯.杭州:浙江人民出版社,2016.
[5]Yampolskiy R V, Spellchecker M S. Artificial Intelligence Safety and Cybersecurity: a Timeline of AI Failures[J]. Computer Science,2016,(10).
[6]F·拉普.技術(shù)哲學(xué)導(dǎo)論[M].陳凡,秦書生,譯. 沈陽(yáng):遼寧科學(xué)技術(shù)出版社,1986.
[7]張玉潔.論人工智能時(shí)代的機(jī)器人權(quán)利及其風(fēng)險(xiǎn)規(guī)制[J].東方法學(xué),2017,(6).
[8]Ihde D. Technology and the Lifeworld: From Garden to Earth[M]. Bloomington: Indiana University Press,1990.
[9]Verbeek P P. Cyborg Intentionality: Rethinking the Phenomenology of Human-Technology Relations[J]. Phenomenology and the Cognitive Sciences, 2008, 7(3).
[10] Verbeek P P. Designing the Public Sphere: Information Technologies and the Politics of Mediation[M/OL]//Floridi L. The Onlife Manifesto. Cham: Springer Open, 2015: 217-227[2016-9-7]. https://link.springer.com/book/10.1007%2F978-3-319-04093-6.
[11] 雅斯貝爾斯. 歷史的起源和目標(biāo)[M]. 魏楚雄,俞新天,譯. 北京: 華夏出版社, 1989.
[12] Mesthene E G. The Role of Technology in Society[J]. Technology and Culture, 1969, 10(4).
[13] 讓-伊夫·戈菲. 技術(shù)哲學(xué)[M]. 董茂永,譯. 北京:商務(wù)印書館, 2000.
[14] J.Ellul.The Technological System[M]. Grand Rapids: Wm. B. Eerdmans Publishing, 1990.
[15] Basalla G. The evolution of technology[M]. Cambridge: Cambridge University Press, 1988.
[16] 阿西莫夫.銀河帝國(guó)8:我,機(jī)器人[M].葉李華,譯.南京:江蘇文藝出版社,2012.
[17] 阿西洛馬人工智能原則——馬斯克、戴米斯·哈薩比斯等確認(rèn)的23個(gè)原則,將使AI更安全和道德[J]. 智能機(jī)器人,2017,(1).
[18] Lenk Hans.Introduction The General Situation of the philosophy of Technology and Atributeto the Tradition and GeniiLoci [C]//Han Lenk, Matthias Maringeds.Advance and Problems in the philosophy of Technology.Munster:LIT,2001.
[19] 約翰·羅爾斯.正義論[M].何懷宏,何包鋼,廖申白,譯.北京:中國(guó)社會(huì)科學(xué)出版社,1988.
上海師范大學(xué)學(xué)報(bào)(哲學(xué)社會(huì)科學(xué)版)2018年2期