国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能應(yīng)用“責(zé)任鴻溝”的造世倫理跨越
——以自動駕駛汽車為典型案例

2022-10-31 15:47王天恩
哲學(xué)分析 2022年1期
關(guān)鍵詞:智能算法鴻溝倫理

王天恩

人工智能日益普遍的應(yīng)用,將給人類帶來目前所能想象到的最大紅利,但這一巨大紅利的兌現(xiàn),同時伴隨著巨大挑戰(zhàn)。在這些挑戰(zhàn)中,最迫近也是最困擾人類的,就是人工智能應(yīng)用造成的“責(zé)任鴻溝”(responsibility gap)。由此帶來的歸責(zé)困境不解決,人工智能的應(yīng)用就會遇到難以突破的瓶頸,由人工智能應(yīng)用帶來的巨大紅利也難以順利兌 現(xiàn)。

一、人工智能應(yīng)用中的“責(zé)任鴻 溝”

隨著智能算法(smart algorithm)的不斷發(fā)展,人工智能應(yīng)用所涉及的問責(zé)困境越來越可能成為其難以跨越的障礙。人工智能應(yīng)用中的算法追責(zé)困難,不僅有透明度方面的挑戰(zhàn),而且由于“處于自動決策循環(huán)中的人類可能不具備識別問題和采取正確行動的能力”。這主要與發(fā)展到機(jī)器學(xué)習(xí)之后的人工智能算法有關(guān),機(jī)器學(xué)習(xí)開啟的智能算法自主性發(fā)展進(jìn)程,在人工智能應(yīng)用造成的相關(guān)問責(zé)上帶來了日益嚴(yán)峻的挑 戰(zhàn)。

算法透明性問題發(fā)展到一定層次,就涉及智能算法的發(fā)展和人類的關(guān)系。21世紀(jì)初,安德烈亞斯·馬蒂亞斯(Andreas Matthias)就注意到與此相關(guān)的歸責(zé)問題。他指出:“傳統(tǒng)上,機(jī)器的制造商/經(jīng)營者對其操作的后果負(fù)有(道義和法律上的)責(zé)任?;谏窠?jīng)網(wǎng)絡(luò)、遺傳算法和主動體(agent)體系結(jié)構(gòu)的自主學(xué)習(xí)機(jī)器開創(chuàng)了一種新的局面,即機(jī)器的制造商/操作者在原則上不再能夠預(yù)測未來的機(jī)器行為,因此不能在道德上承擔(dān)責(zé)任或?qū)ζ湄?fù)責(zé)。社會必須決定是不再使用這種機(jī)器(這不是一種現(xiàn)實(shí)的選擇),還是面臨‘責(zé)任鴻溝’,這是傳統(tǒng)的責(zé)任歸屬觀念無法彌補(bǔ)的?!?span id="syggg00" class="footnote_content" id="jz_2_18" style="display: none;"> Andreas Matthias, “The Responsibility Gap: Ascribing Responsibility for the Actions of Learning Automata”,, Vol. 6, No. 3, 2004, pp. 175—183.可想而知,隨著人工智能越來越普遍的應(yīng)用,問題就會越來越大,越來越嚴(yán)重。“我們面臨不斷擴(kuò)大的責(zé)任鴻溝,如果處理不當(dāng),對社會道德框架的一致性和法律責(zé)任概念的基礎(chǔ)都會構(gòu)成威脅?!痹诔醪较到y(tǒng)研究的基礎(chǔ)上,馬蒂亞斯作了以下總結(jié):目前正在發(fā)展或已在使用的機(jī)器,能夠決定一個行動過程并在不受人類干預(yù)的情況下采取行動。它們的行為規(guī)則不是在生產(chǎn)過程中固定,而是在機(jī)器運(yùn)行期間由機(jī)器自己改變的。這就是我們所說的機(jī)器學(xué)習(xí)。傳統(tǒng)上,我們要么要求機(jī)器的操作者/制造商對其操作的后果負(fù)責(zé),要么認(rèn)為“無人”(在無法識別個人失誤的情況下)負(fù)責(zé)?,F(xiàn)在可以看出,機(jī)器行為的種類越來越多,傳統(tǒng)的歸責(zé)方式與我們的正義感和社會的道德框架不再相容,因為沒有人能夠?qū)C(jī)器行為有足夠的控制,能夠為它們承擔(dān)責(zé)任。這些情況構(gòu)成了我們所說的“責(zé)任鴻溝”。隨著智能算法的發(fā)展,這一“責(zé)任鴻溝”正不斷凸顯和擴(kuò) 展。

如今,智能算法的發(fā)展已經(jīng)進(jìn)入自主編程階段。在自主編程的遺傳算法中,“遺傳算法本身扮演著程序員的角色”。因此,“具有學(xué)習(xí)能力的算法提出了特殊挑戰(zhàn),它挑戰(zhàn)了設(shè)計者責(zé)任這一傳統(tǒng)觀念。該模型要求系統(tǒng)定義明確、易于理解和可預(yù)測;復(fù)雜和流變系統(tǒng)(即一個有無數(shù)決策規(guī)則和代碼行的系統(tǒng))抑制整體決策途徑和監(jiān)督依賴關(guān)系。機(jī)器學(xué)習(xí)算法在這方面尤其具有挑戰(zhàn)性”。 “這一挑戰(zhàn)的核心是與機(jī)器學(xué)習(xí)中使用的特定技術(shù)相關(guān)的不透明性。機(jī)器學(xué)習(xí)算法的不透明性在更基礎(chǔ)層面提出挑戰(zhàn)?!谟?xùn)練數(shù)據(jù)的機(jī)器優(yōu)化并不自然地符合人類的語義解釋。手寫識別和垃圾郵件過濾的例子,有助于說明機(jī)器學(xué)習(xí)算法的工作原理是如何逃脫人類的完全理解和解釋的,即使對于那些受過專門訓(xùn)練的人甚至計算機(jī)科學(xué)家也是如此?!?span id="syggg00" class="footnote_content" id="jz_4_19" style="display: none;"> Jenna Burrell, “How the Machine ‘Thinks’: Understanding Opacity in Machine Learning Algorithms”, , Vol. 3, No. 1, 2016, pp. 1—12.在人工智能發(fā)展過程中,“責(zé)任鴻溝”是機(jī)器智能和人類智能融合進(jìn)化過渡階段特有的重要課題。在自動駕駛汽車越來越普遍的應(yīng)用中,這一課題研究的突破顯得尤其迫 切。

人工智能應(yīng)用所造成的“責(zé)任鴻溝”,在自動駕駛汽車發(fā)展中表現(xiàn)得最為典型和突出,影響也最為廣泛?!靶掳l(fā)展的自動駕駛車輛領(lǐng)域最近出現(xiàn)了一個現(xiàn)實(shí)世界的電車?yán)Ь?,由于在?shí)際遇到這種情況之前,車輛的編程必須用到一個決策程序,這是一個在發(fā)生之前迫切需要解決的問題。當(dāng)一輛自動駕駛汽車駛向另一輛車或一群行人,卻沒有足夠時間停車時,就會出現(xiàn)這種兩難局面。在這種情況下,車輛可以快速轉(zhuǎn)彎,使自己的乘客面臨受傷的危險,或者在繼續(xù)危險路線的同時盡可能放慢速度?!?span id="syggg00" class="footnote_content" id="jz_5_19" style="display: none;"> Derek Leben, “A Rawlsian Algorithm for Autonomous Vehicles”, , Vol. 19,No. 2, 2017, pp. 107—115.但由此發(fā)生的事故責(zé)任由誰承擔(dān)?由于自動駕駛汽車具有一定的自主性,很多情況下事故不能由算法設(shè)計者或使用者負(fù)責(zé);當(dāng)智能算法還不是道德主體時,責(zé)任也不可能由算法承擔(dān)。自動駕駛汽車應(yīng)用凸顯的這一責(zé)任鴻溝,將隨著自動駕駛汽車的推廣很快構(gòu)成發(fā)展瓶頸。深化對于責(zé)任鴻溝的理解,對于這一發(fā)展瓶頸的突破具有前提性意 義。

在人類設(shè)計的人工智能自主性不斷增強(qiáng)的過程中,人工智能的應(yīng)用必定經(jīng)歷一個責(zé)任主體的過渡銜接過程:由智能算法的人類設(shè)計和使用者到完全自主進(jìn)化的機(jī)器智能體。在討論“機(jī)器倫理”的必要性時,這一點(diǎn)得到認(rèn)同:“程序員將其對產(chǎn)品的部分控制轉(zhuǎn)移到操作環(huán)境。對于在最終操作環(huán)境中繼續(xù)學(xué)習(xí)和適應(yīng)的機(jī)器來說,尤其如此?!?span id="syggg00" class="footnote_content" id="jz_2_20" style="display: none;"> I. Smit, C. Allen, W. Wallach, “Why Machine Ethics?”,, Vol. 21, No. 4, 2006,pp. 12—17.在這樣的情況下,“設(shè)計師的控制和算法的行為之間創(chuàng)生了一條責(zé)任鴻溝,其中歸責(zé)可能會被同時指向幾個道德主體”。這是智能算法向自主進(jìn)化過程中,在從人類設(shè)計到機(jī)器智能體自主進(jìn)化過渡階段必定出現(xiàn)的問題?!瓣P(guān)于算法倫理的系統(tǒng)研究表明,算法可以用于將數(shù)據(jù)轉(zhuǎn)化為給定結(jié)果的證據(jù),從而得出結(jié)論;然后將這一結(jié)果用于觸發(fā)和激勵一種在倫理上可能不是中性的行動。這項以復(fù)雜和(半)自主方式進(jìn)行的工作使算法驅(qū)動的行為效果的歸責(zé)復(fù)雜化?!睆囊话闼惴òl(fā)展到智能算法,從智能算法到機(jī)器算法自主進(jìn)化,都屬于這樣一個過渡銜接階 段。

正是在這一過渡銜接階段,必定出現(xiàn)非單一責(zé)任主體的現(xiàn)象,而多個道德主體勢必導(dǎo)致復(fù)雜的責(zé)任關(guān)系。隨著責(zé)任關(guān)系的復(fù)雜化,在智能算法發(fā)展過程中,責(zé)任鴻溝是一個必定要出現(xiàn)的重要問題。正是在智能算法的這樣一個發(fā)展階段,會存在一個人工智能自身還不具有完全自主性,而人類又不可能通過把控智能算法具備完全責(zé)任人角色的環(huán)節(jié)。溫德爾·瓦拉赫和科林·艾倫從機(jī)制層次指出:“計算機(jī)系統(tǒng)的模塊化設(shè)計可能意味著,沒有一個人或小組能夠完全掌握系統(tǒng)與復(fù)雜的新輸入流相互作用或?qū)ζ渥鞒鲰憫?yīng)的方式?!?span id="syggg00" class="footnote_content" id="jz_5_20" style="display: none;"> Wendell Wallach, Colin Allen, , Oxford, New York: Oxford University Press, 2009, p. 39.在機(jī)制基礎(chǔ)上,關(guān)于人工智能算法應(yīng)用所涉及的責(zé)任鴻溝問題,隨著智能算法本身的發(fā)展越來越清晰。所謂責(zé)任鴻溝,實(shí)質(zhì)上是一種機(jī)器智能體在自主性不斷增強(qiáng)但又尚未獲得責(zé)任主體地位階段的責(zé)任無著落現(xiàn) 象。

人工智能應(yīng)用所帶來的“責(zé)任鴻溝”,與隨著人工智能發(fā)展呈現(xiàn)出的一種漸進(jìn)過渡密切相關(guān)——從主要是算法設(shè)計者和使用者的責(zé)任向自主進(jìn)化的機(jī)器智能體負(fù)責(zé)逐漸過渡。因此在智能算法還沒有發(fā)展到自主進(jìn)化之前,智能算法的設(shè)計、生產(chǎn)者和使用者的責(zé)任是清晰的。在這一發(fā)展階段,智能算法的可問責(zé)性原則至為重要。關(guān)于可問責(zé)問題,在微軟公司就人工智能開發(fā)應(yīng)用提出的六項倫理原則中有一個具體闡述?!叭绻菣C(jī)器代替人來進(jìn)行決策、采取行動出現(xiàn)了不好的結(jié)果,到底是誰來負(fù)責(zé)?我們的原則是要采取問責(zé)制,當(dāng)出現(xiàn)了不好的結(jié)果,不能讓機(jī)器或者人工智能系統(tǒng)當(dāng)替罪羊,人必須承擔(dān)責(zé)任?!?span id="syggg00" class="footnote_content" id="jz_1_21" style="display: none;"> Microsoft, , https://news.microsoft.com/uploads/2018/01/The-Future-Computed.pdf.責(zé)任人必須承擔(dān)責(zé)任,這是基本原則,但隨著智能算法的復(fù)雜化,傳統(tǒng)意義上的追責(zé)甚至存在技術(shù)上都難以克服的困難?!霸谟删€性編程轉(zhuǎn)向自編程算法的當(dāng)下,這種趨勢變得越來越明顯。由于可追溯的倫理評價總是要對傷害找出原因和確定責(zé)任,因此責(zé)任很可能會被分?jǐn)偟蕉鄠€參與者或主體,這使得歸責(zé)問題變得更加復(fù)雜?!庇嬎懔刻笤谝欢òl(fā)展階段是一個難以逾越的障礙,而算法評價則更是越來越復(fù)雜的環(huán) 節(jié)。

隨著人工智能的發(fā)展,特別是當(dāng)智能算法進(jìn)入自主進(jìn)化,算法評價就必須根據(jù)其執(zhí)行的效果;而效果又必須在盡可能高的整體層次評價,因此涉及關(guān)于目的和效果甚至動機(jī)和效果之間關(guān)系理解的深化。對黑箱不可能也似乎沒有必要進(jìn)行動機(jī)分析,只有最后輸出的結(jié)果才具有實(shí)際意義。最后輸出結(jié)果則隨著智能算法的發(fā)展而不斷改變,這就使問題變得越來越復(fù)雜。即使隨著技術(shù)的發(fā)展,一些問題可以得到解決,也仍然存在這樣的發(fā)展形勢——在智能算法發(fā)展的特殊階段,隨著智能算法發(fā)展而產(chǎn)生的倫理問題,不僅由于人類偏見變得更為復(fù)雜,而且傳統(tǒng)范式難以應(yīng)對這種形勢,進(jìn)而需要討論的便是人工智能社會應(yīng)用的可行 性。

智能算法的可問責(zé)性是其社會應(yīng)用的先決條件,智能算法的問責(zé)將是一個其性質(zhì)隨著人工智能的發(fā)展而不斷變化的過程?!白罱K,我們需要決策算法中的可問責(zé)性,這樣才能明確誰來承擔(dān)由其所作決策的責(zé)任或算法支持。透明度通常被認(rèn)為是促進(jìn)問責(zé)制的關(guān)鍵因素。然而,透明度和審計不一定足以承擔(dān)責(zé)任。事實(shí)上,……即便隱藏了一些信息,但這里采用了能夠提供可問責(zé)的計算方法。”為此,人們提出類似會計制度等問責(zé)方式,同時得出如下認(rèn)識:“可問責(zé)并不僅僅是一個會計問題?!蓡栘?zé)是可解釋的質(zhì)量或狀態(tài)。相應(yīng)地,可解釋的又被定義為:一方面有責(zé)任(就像給某人的行為)給出解釋,即是可回答的;另一方面定義可以解釋,即是可解釋的。在第一種情況下,可問責(zé)將是一個行為主體的屬性,或者至少是一個有自主意見的行動主體。在第二種情況下,可問責(zé)將是一種對象的質(zhì)量或狀態(tài),因此必須有外部意見才能進(jìn)行實(shí)際說明?!?span id="syggg00" class="footnote_content" id="jz_1_22" style="display: none;"> Sara Eriksén, , -,New York: ACM, 2002, pp. 177—186.但是在智能算法發(fā)展過程中,可問責(zé)性的問題將變得越來越復(fù)雜,其中就包括沒有自主意見的行動主體不僅可能造成嚴(yán)重事故,而且會造成明顯的責(zé)任鴻溝,使“‘責(zé)任倫理’因此聲名狼藉”。而且在當(dāng)前發(fā)展階段,一方面要確保智能算法設(shè)計和使用的可問責(zé)性,另一方面必須首先明確責(zé)任鴻溝的應(yīng)對困境及其形成的深層根 源。

二、智能算法“責(zé)任鴻溝”的應(yīng)對困境

在享用和期待人工智能帶來的巨大紅利的同時,迎接與其伴生的歸責(zé)困境的挑戰(zhàn),已是當(dāng)務(wù)之急。由于在人工智能自主性發(fā)展的特定階段,智能算法可以給人類帶來嚴(yán)重威脅,相應(yīng)責(zé)任問題的解決就越來越迫切。安德魯·圖特(Andrew Tutt)認(rèn)為:“至少在某些情況下,算法能夠造成異常嚴(yán)重的傷害。當(dāng)機(jī)器學(xué)習(xí)算法負(fù)責(zé)維持電網(wǎng)運(yùn)行、協(xié)助手術(shù)或駕駛汽車時,它會對人類健康和福利構(gòu)成直接而嚴(yán)重的威脅,這是許多其他產(chǎn)品所沒有的?!?span id="syggg00" class="footnote_content" id="jz_3_22" style="display: none;"> Andrew Tutt, “An FDA for Algorithms”, , Vol. 69, No. 1, 2017, pp. 83—123.應(yīng)對這種威脅,必須對智能算法的設(shè)計和使用進(jìn)行有效規(guī)制。鑒于智能算法的發(fā)展,這種規(guī)制涉及分層次的整體應(yīng) 對。

在適用通常法規(guī)的范圍內(nèi),人工智能應(yīng)用的相關(guān)法規(guī)治理不成問題,例如,限制其使用范圍:“算法可以有條件地獲得批準(zhǔn),但必須受使用限制——例如,一種用于巡航控制的自動駕駛汽車算法,只有在公路運(yùn)行的條件下才可以獲得批準(zhǔn)。一種算法超出范圍的使用,或者營銷一種未經(jīng)批準(zhǔn)的算法,可能會受到法律制裁”。無論就倫理還是風(fēng)險應(yīng)對來說,對智能算法使用范圍的限制都是必不可少的。但是,相關(guān)智能算法的法律治理遇到了新問題,例如:“即使算法編程特別注意明確的法律規(guī)范,也很難知道算法在任何給定的情況下是否根據(jù)法律規(guī)定行動?!睂τ谒惴ㄔO(shè)計和使用的規(guī)制,最根本的是責(zé)任追溯,而正是在這個根本環(huán)節(jié)中,存在著現(xiàn)有理論和實(shí)踐難以解決的算法歸責(zé)難題,這就構(gòu)成了責(zé)任鴻溝的應(yīng)對困 境。

關(guān)于算法責(zé)任,圖特在系統(tǒng)研究的基礎(chǔ)上概括出前所未有的挑戰(zhàn)。“機(jī)器學(xué)習(xí)算法的復(fù)雜性不斷提高,用途也越來越廣泛,這些算法在傷害到人們時,將帶來許多挑戰(zhàn)?!边@些挑戰(zhàn)與追責(zé)主要有三個相關(guān)方面:“第一,算法責(zé)任難以度量;第二,算法責(zé)任難以跟蹤;第三,人的責(zé)任難以歸屬?!比斯ぶ悄馨l(fā)展所帶來的這些追責(zé)困難,完全是新發(fā)展帶來的新問題。

智能算法的應(yīng)用極大地增加了衡量算法責(zé)任的難度:“這個問題是多方面的。算法很可能會在各種不同的情況下作出前所未有的決定,有些情況沒有人遇到過,甚至也不可能遇到。這種決定可能是‘漏洞’或‘特點(diǎn)’。一輛自動駕駛汽車也許會故意導(dǎo)致意外事故,以防止更具災(zāi)難性的車禍。股票交易算法可能會根據(jù)誠意信念(無論這對算法意味著什么)下一個壞賭注,認(rèn)為某一特定的有價證券應(yīng)該被購買或拋出。而問題在于:對于一個人的疏忽行為,或者相反——以在法律上應(yīng)受懲罰的方式行事,會有一個普遍可行的看法;但對于算法這樣做意味著什么,我們并沒有同樣明確的概念?!庇捎跈C(jī)器智能不同于人類智能的基本特性(最基本的比如速度),智能算法可以進(jìn)入人類不可能進(jìn)入的情境。在這種情境中,行動者的歸責(zé)就可能不像人類所經(jīng)歷或可能經(jīng)歷的情境那樣有成規(guī)可 依。

智能算法的應(yīng)用也極大地增加了跟蹤算法危害的難度,這多少與智能算法的人為操控觀念有關(guān)。如果根據(jù)行為結(jié)果跟蹤算法危害,那么問題就要簡單得多,只不過由于主動體(agent)的情況較復(fù)雜,還必須有一種更高層次的處理。如果智能算法處于專用人工智能水平,就按工具對待它;如果達(dá)到通用人工智能水平,那就跟對待人一樣,以其行為為根據(jù);但如果介于二者之間,由于從算法設(shè)計到具體使用情境的復(fù)雜關(guān)聯(lián),則會出現(xiàn)隱性的責(zé)任鴻溝及其應(yīng)對困境,這主要與確定人類責(zé)任的困難密切相 關(guān)。

智能算法應(yīng)用中的人類責(zé)任問題,源于智能算法特定發(fā)展階段的性質(zhì),即人機(jī)結(jié)合日益復(fù)雜化。在復(fù)雜的使用情境中,這種性質(zhì)甚至可以使歸責(zé)成為一個似乎無解的問題?!八惴梢杂迷S多其他產(chǎn)品都不具備的幾種方式被分割和切割。一家公司只能出售一個算法的代碼,甚至可以贈送它。然后,該算法可以被復(fù)制、修改、定制、重新使用,或在作者當(dāng)初從未想象過的各種應(yīng)用程序中使用。對于在未來一系列使用中造成的任何傷害,要確定最初的開發(fā)者應(yīng)當(dāng)承擔(dān)多少責(zé)任將是一個難題?!标P(guān)于智能算法歸責(zé),這是最具挑戰(zhàn)性的核心問題,實(shí)際上,正是這一問題構(gòu)成了人工智能應(yīng)用中責(zé)任鴻溝的應(yīng)對困 境。

責(zé)任鴻溝應(yīng)對困境的構(gòu)成,不僅涉及智能算法本身以及與人類關(guān)系的復(fù)雜因素,而且涉及更復(fù)雜的人為因素。這方面的研究表明:“人們已經(jīng)給予算法很大信任,在某些情況下,這會影響到人類行為者,產(chǎn)生去責(zé)任化或者‘躲在計算機(jī)后面’的傾向,并默認(rèn)自動化過程是正確的。將決策委托給算法可以將責(zé)任從人類決策者身上轉(zhuǎn)移開,正如關(guān)于官僚機(jī)構(gòu)的研究所表明的那樣。在人與信息系統(tǒng)的混合網(wǎng)絡(luò)中也可以觀察到類似的效應(yīng),其特征是個人責(zé)任感的降低和不合理行為的執(zhí)行。例如,涉及多學(xué)科利益相關(guān)者的算法可能會導(dǎo)致一方假定其他人將為算法的行為承擔(dān)道德責(zé)任。”誠然,類似情況以前在人類當(dāng)中也一直在發(fā)生,但在智能算法應(yīng)用條件下,情境有很大不同。“賦予人工智能體以道德主體地位,可以允許人類利益相關(guān)者將責(zé)任轉(zhuǎn)嫁給算法?!痹谝环N本來就非常復(fù)雜的關(guān)系中,再增加一個關(guān)鍵因素,問題的復(fù)雜性就會呈幾何級數(shù)增加,以致我們不能再于原有的倫理范式內(nèi)解決問題。隨著人工智能算法的發(fā)展,人工智能應(yīng)用中的歸責(zé)困境會越來越嚴(yán) 重。

毫無疑問,“歸責(zé)”困境處于人類和人工智能關(guān)系中倫理問題的核心。但是,對于這樣一個處于核心地位問題的研究,現(xiàn)在還沒有取得真正的進(jìn)展。一方面,對于如何重新實(shí)際定位被自動化取代的社會和倫理責(zé)任,人們還沒有取得共識;另一方面,“人們經(jīng)常在既定的程序中尋求庇護(hù),這些程序?qū)⒇?zé)任分配得如此廣泛,以至于無人可被認(rèn)定為造成災(zāi)難的罪魁禍?zhǔn)住?span id="syggg00" class="footnote_content" id="jz_3_24" style="display: none;"> S. J. Shackelford & A. H. Raymond, “Building the Virtual Courthouse: Ethical Considerations for Design,Implementation, and Regulation in the World of ODR”, , 2014, pp. 615—657.。目前,這方面的研究主要還處于探索階段。人們認(rèn)為,不論選擇何種設(shè)計哲學(xué),開發(fā)者有責(zé)任在不同道德框架支配下的不同語境中進(jìn)行設(shè)計。一些研究甚至涉及智能算法倫理問題研究的話語重建,認(rèn)為“可以在純粹認(rèn)知和倫理基礎(chǔ)上,用來原則性地組織當(dāng)前描述對算法倫理關(guān)注的學(xué)術(shù)話語”。無論語境還是話語,都可能關(guān)系到范式轉(zhuǎn)換,這就可能不僅涉及人工智能發(fā)展過程中人類在更高整體層次上的掌控,而且涉及人工智能發(fā)展的人類理解問 題。

正是智能算法的介入,使責(zé)任歸屬問題空前復(fù)雜,一種自然而然的想法應(yīng)運(yùn)而生——人工智能算法發(fā)展所帶來的責(zé)任歸屬難題,必須借助人工智能算法本身的發(fā)展來解決。最近有研究試圖從可預(yù)測性入手解決問題,從可驗證性走向可驗證的倫理機(jī)器人行為。由于認(rèn)識到“確保自主系統(tǒng)合乎倫理地運(yùn)作既復(fù)雜又困難,研究形成了由‘后果引擎’(consequence engine)組成的調(diào)控器,該引擎評估行動的未來可能結(jié)果,然后應(yīng)用安全/倫理邏輯來選擇行動”。關(guān)于這一嘗試,有進(jìn)一步的研究認(rèn)為:“擁有一個外加的‘管理者’來評估系統(tǒng)所擁有的選項,并對其進(jìn)行調(diào)整以選擇最符合道德的選項這一想法,既很好理解,也很吸引人,但不可能確定最合乎道德的選擇是否真的被采納”。鑒于這種批評的合理性,可預(yù)測性研究進(jìn)路又“將一種著名的代理驗證方法推廣到其結(jié)果引擎,使之能驗證其倫理決策的正確性”。設(shè)置“后果引擎”的設(shè)想表明,即使用人工智能的發(fā)展來解決責(zé)任鴻溝問題,也具有明顯的局限性,比如外加“管理者”的做法在專用人工智能初期發(fā)展階段應(yīng)當(dāng)是管用的,但隨著人工智能的通用化發(fā)展,“管理者”會漸失其作用和意義,并遲早會失 效。

隨著人工智能的發(fā)展和應(yīng)用的普及,人工智能介入所導(dǎo)致的責(zé)任主體模糊,引出了越來越多的責(zé)任和義務(wù)難題。這類難題目前最突出的表現(xiàn)就是自動駕駛汽車的事故責(zé)任。這一領(lǐng)域的歸責(zé)問題具有廣泛的社會滲透性,人工智能應(yīng)用中歸責(zé)困境的解決也就越來越迫切。在智能算法所引起的關(guān)于人工智能應(yīng)用的責(zé)任鴻溝應(yīng)對困境問題中,自動駕駛汽車不僅最為典型,而且由于應(yīng)用越來越普遍的發(fā)展形勢,解決方案的獲取也最為迫切。這個在人類語境中都頗顯棘手的問題,在涉及自動駕駛汽車的復(fù)雜道德抉擇中更是讓人一籌莫展?!吧婕白詣玉{駛車輛(AVs)的事故不僅凸顯了難以解決的倫理困境和法律問題,而且?guī)砹诵碌膫惱頉_擊。有人認(rèn)為,自動駕駛汽車應(yīng)該編程殺人,也就是說,當(dāng)損失不可避免時,它們應(yīng)該配備預(yù)先規(guī)劃好的方法來選擇要犧牲的生命?!?span id="syggg00" class="footnote_content" id="jz_2_25" style="display: none;"> Giuseppe Contissa, Francesca Lagioia, Giovanni Sartor, “The Ethical Knob: Ethically-customisable Automated Vehicles and the Law”, , Vol. 25, No. 3, 2017, pp. 365—378.正因為涉及這類前所未有而富有挑戰(zhàn)性的問題,在人工智能的應(yīng)用中,涉及歸責(zé)問題最突出也最普遍的,就是自動駕駛汽車領(lǐng) 域。

由于人工智能應(yīng)用發(fā)展的急迫需要,關(guān)于責(zé)任鴻溝問題,人們作出了很多解決嘗試,特別是在自動駕駛汽車領(lǐng)域,更是集中了關(guān)于如何走出算法應(yīng)用責(zé)任鴻溝的大量研究。自動駕駛汽車面臨的責(zé)任困境更典型地凸顯了“電車?yán)Ь场?,因此相關(guān)研究成了最理想的選 題。

關(guān)于自動駕駛汽車面臨的“電車?yán)Ь场?,德里克·萊本(Derek Leben)提出了“羅爾斯算法”,并以這種解決策略來作為功利主義解決方案的替代選擇。這一策略在羅爾斯理論的基礎(chǔ)上得到一個假設(shè),即“獲益最多程序是在原初立場的自利代理人所使用的”?!傲_爾斯算法的基本思想是:收集車輛在每一動作中對每個涉事者生存概率的估計,然后計算出如果一個自利人處于公平的初始約定地位,他或她會同意采取哪種行動?!薄傲_爾斯算法”基本上是傳統(tǒng)倫理范式在自動駕駛汽車責(zé)任鴻溝問題上的應(yīng)用,既有其局限,也有其特殊意義。“羅爾斯算法的主要優(yōu)點(diǎn)是平等地尊重人,不愿意為了某一個體的利益犧牲其他人的利益。當(dāng)然,這可能會產(chǎn)生令人驚訝的結(jié)果,但那是因為任何羅爾斯主義者都相信道德基礎(chǔ)是不可避免的?!薄傲_爾斯算法”著重關(guān)注的,主要是所有涉事者意愿的統(tǒng)計平均值,結(jié)果可能是所有涉事者都滿意,也可能都不滿意,更多的情況則是有的滿意,有的不滿意,因此不可能顧及所有人的利益和權(quán)利,更不可能考慮到大多數(shù)人的責(zé)任和義 務(wù)。

在自動駕駛汽車歸責(zé)困境研究中,人們考慮得更多的是車外的事故受害者,車內(nèi)涉事者則較少被考慮在內(nèi)。一旦涉及車內(nèi)涉事者,就會直接觸及智能算法設(shè)計者的責(zé)任關(guān)系問題。為了避免必要時自動駕駛汽車必須“編程殺人”的困境,朱塞佩·孔蒂薩(Giuseppe Contissa)等試圖探索“一種不同的方法,賦予用戶/乘客一個任務(wù),以決定自動駕駛車輛在不可避免的事故場景中應(yīng)該采取何種合乎道德的方式”。因此,他們設(shè)想給自動駕駛車輛配備一種“倫理旋鈕”,“一種使乘客能夠在道德上定制他們自動駕駛車輛的裝置,即在與不同道德方法或原則相對應(yīng)的不同環(huán)境中進(jìn)行選擇。因此,自動駕駛車輛將負(fù)責(zé)實(shí)現(xiàn)用戶的道德選擇,而制造商/程序員的任務(wù)則是使用戶能夠選擇,并確保自動駕駛車輛實(shí)施”。關(guān)于自動駕駛汽車的道德選擇,到底應(yīng)當(dāng)在智能算法中預(yù)先編程決定,還是僅僅讓智能算法提供乘客選擇的機(jī)會,由乘客來決定?這些問題都還是傳統(tǒng)倫理層次上的,而且由此致思也不能更合理地解決自動駕駛汽車的道德選擇問題。相對于車外的可能受害者來說,車內(nèi)人的選擇會面臨相同的問題,甚至還會有其他新的問題。在自動駕駛汽車智能算法設(shè)計中,到底是首先考慮用戶的安全還是行人的安全?智能算法決策怎樣協(xié)調(diào)車外人和車內(nèi)人的關(guān)系?無主事故責(zé)任由誰承擔(dān)?諸如此類問題的解決都已經(jīng)超出了已有理論的考慮范圍。自動駕駛汽車應(yīng)用中的責(zé)任鴻溝應(yīng)對困境表明,在傳統(tǒng)倫理范式中,不可能真正解決人工智能應(yīng)用中的責(zé)任鴻溝問題。問題得不到合理解決,人工智能的社會應(yīng)用就會給人類帶來嚴(yán)峻挑戰(zhàn),其結(jié)果必定是人工智能難以充分發(fā)展,人工智能的巨大紅利也就形同畫 餅。

人工智能應(yīng)用中責(zé)任鴻溝問題的應(yīng)對,必須有更高理論層次上的整體把握,為責(zé)任鴻溝的跨越提供基礎(chǔ),并尋獲可行的解決方 式。

三、自動駕駛汽車“責(zé)任鴻溝”的跨越

作為普遍出現(xiàn)在日常生活中的具體問題,人工智能應(yīng)用中的責(zé)任鴻溝不僅涉及人工智能引發(fā)的同類問題的實(shí)踐解決,以及現(xiàn)實(shí)事故的實(shí)際處理,而且涉及哲學(xué)等相關(guān)理論問題研究的深化;不僅廣泛涉及實(shí)際歸責(zé)迫切需要研究的大量現(xiàn)實(shí)問題,而且涉及機(jī)器智能主體地位等哲學(xué)理論問題??傊?,人工智能應(yīng)用中的責(zé)任鴻溝問題,根本上是一個理論和實(shí)踐一體化的問題,深入涉及哲學(xué)基礎(chǔ)理論。其中,自動駕駛汽車的責(zé)任鴻溝問題最為典型。一方面,自動駕駛汽車事故的倫理甚至法律責(zé)任問題,在傳統(tǒng)倫理和法律框架中不可能得到合理解決,暴露了責(zé)任鴻溝應(yīng)對的理論困境;另一方面,關(guān)于以自動駕駛汽車為典型領(lǐng)域的跨越人工智能應(yīng)用責(zé)任鴻溝研究,目前為止還沒有取得令人滿意的成果,這也在實(shí)踐領(lǐng)域表明該問題不可能用傳統(tǒng)方式處理。就當(dāng)前范式而言,“羅爾斯算法”和“倫理旋鈕”解決方案基本上考慮到了問題的基本方面,但仍然存在根本缺陷,由此可見,這類問題必須在更高層次上得到處 理。

在傳統(tǒng)倫理學(xué)的視野中,只有工程師和機(jī)修工才有必要知道汽車發(fā)動機(jī)如何運(yùn)作,但每位司機(jī)都必須明白轉(zhuǎn)動方向盤會改變汽車的方向、踩剎車會讓車停下。而在更高層次看,關(guān)于人工智能所帶來的歸責(zé)問題,智能算法的設(shè)計者和司機(jī)以及相關(guān)的更多要素都必須考慮在內(nèi)。在自動駕駛汽車情境中,困擾人的“電車?yán)Ь场眰惱韱栴},一方面因為更復(fù)雜而表現(xiàn)得更為棘手,另一方面又由于涉及人類創(chuàng)構(gòu)而可能帶來新的解決進(jìn)路。從創(chuàng)構(gòu)活動到造世活動,從工程倫理到造世倫理,倫理領(lǐng)域的相應(yīng)發(fā)展為自動駕駛汽車責(zé)任鴻溝問題的解決提供了新的理論基 礎(chǔ)。

自動駕駛汽車在目前發(fā)展階段還不具有真正意義上的自主性,賦予其道德能動性,顯然為時過早,沿著這一方向,也不能解決相關(guān)應(yīng)用中的責(zé)任鴻溝問題。目前的汽車沒有道德能動性,通常用于這些機(jī)器的“自主”一詞具有誤導(dǎo)性,并導(dǎo)致關(guān)于這些機(jī)器如何保持倫理的無效結(jié)論。人類幾千年來作出的道德選擇,可以解決人工智能裝備帶來的很大一部分挑戰(zhàn)。因此,即使從一開始就可以做到這一點(diǎn),也沒有必要給機(jī)器傳授倫理。將極端離奇的場景(如“電車?yán)Ь场保┳鳛楦拍罨?dāng)前道德問題的基礎(chǔ),是一個嚴(yán)重的錯誤。在目前條件下,道德能動性仍然只有人類才可能具有,只有當(dāng)智能算法的自主進(jìn)化到一定階段,機(jī)器智能體的道德能動性問題才會提上議事日程。由于智能算法意味著規(guī)則和規(guī)律一體化,機(jī)器智能體的道德能動性問題與人類道德能動性問題將有很大不同。對于機(jī)器智能體來說,倫理的確不是教會的,而是一件與建立關(guān)系從而獲得語境有關(guān)的事情;但無條件地認(rèn)為汽車沒有道德能動性,顯然沒有意識到自動駕駛汽車智能算法的自主發(fā)展,那會是一個從被動工具到充分自主的展開過 程。

當(dāng)自動駕駛汽車具有完全的自主性,其倫理地位與人相似,機(jī)器智能行為遵循人類倫理規(guī)范;而當(dāng)自動駕駛汽車還不具有完全的自主性時,人類既不可能完全通過外在規(guī)制,也不可能通過內(nèi)在規(guī)范防范和處理自動駕駛汽車的事故歸責(zé)問題。這時候,人類的責(zé)任主要集中于人工智能發(fā)展的前提性規(guī) 定。

隨著自主進(jìn)化的發(fā)展,智能算法對人類來說越來越成為黑箱,人們只能從其輸出結(jié)果對智能算法進(jìn)行評價,而最后輸出結(jié)果的可信性,則必須建立在規(guī)則和規(guī)律一體化的基礎(chǔ)之上。這樣一來,人類責(zé)任的權(quán)重越來越向智能算法的前提性預(yù)設(shè)傾斜。正是在這個意義上說,關(guān)于智能算法的責(zé)任問題,最深的根源在于創(chuàng)構(gòu)過程中作為前提性預(yù)設(shè)的規(guī)定層次。在人工智能的人類創(chuàng)構(gòu)中,越是涉及前提性規(guī)定,倫理后果關(guān)涉越長遠(yuǎn)而越難預(yù)測,因為在相關(guān)因素體系中,前提性規(guī)定的地位和作用隨著算法所在智能體的自主性而強(qiáng)化。關(guān)于算法倫理的一項綜合性研究表明:“由于種種原因,確定算法的潛在和實(shí)際倫理影響非常困難。識別人類主觀性在算法設(shè)計和配置中的影響,常常需要對長期、多用戶的開發(fā)過程進(jìn)行研究。即使有足夠的資源,在成問題的使用案例出現(xiàn)之前,問題和潛在價值通常也不會很明顯?!庇纱怂癸@的倫理風(fēng)險將是存在性層次的,智能算法的存在性倫理風(fēng)險可想而知,而因此越來越重要的則是人類對未來的把控能力。在人工智能的當(dāng)下發(fā)展中,由于智能算法仍然處于工具層次,人們從算法看到的更多是人工智能的工具性應(yīng)用風(fēng)險——特別是缺乏信任的人類應(yīng)用。只有從機(jī)器智能的自主進(jìn)化方面,才能看到通用人工智能可能給人類帶來的存在性風(fēng)險。正是在存在性層面,集中了人工智能給人類帶來的最基本也是最核心的問題,而可問責(zé)問題必須在這些最基本問題的基礎(chǔ)上得到理解和解決。由此可見,前提性規(guī)定的根本性和更深層次、更廣范圍擴(kuò)展,一方面前所未有地凸顯了目前人工智能發(fā)展的人類責(zé)任,另一方面啟發(fā)我們必須在更高層次上理解“責(zé)任鴻溝”。只有在更高的整體層次,才能實(shí)現(xiàn)對“責(zé)任鴻溝”的跨越。凸顯規(guī)則和規(guī)律一體化的造世倫理,就提供了這樣一個更高整體層次。在造世倫理層次,人們才可以更深刻地認(rèn)識到目前發(fā)展人工智能的責(zé)任,應(yīng)對人工智能應(yīng)用中的責(zé)任鴻溝等新問 題。

從造世倫理的更高整體層次,我們可以看到一個完全不同的更廣景觀。由于在越來越大范圍內(nèi)解放了人的體力和腦力,人工智能的發(fā)展,將給人類帶來雖然機(jī)會和風(fēng)險深度交織,但也是可能擁有的最大紅利。自動駕駛汽車就是最典型的例子,這方面的研究也最多。“人工智能所帶來的進(jìn)步將比以往任何時候都更加突出汽車未來的本質(zhì)。即使是自動駕駛,機(jī)器學(xué)習(xí)過程也是可能的——這是汽車工業(yè)的最大機(jī)遇?!?span id="syggg00" class="footnote_content" id="jz_1_29" style="display: none;"> A. Burkert, “Ethics and the Dangers of Artificial Intelligence”, , Vol. 119, No. 11, 2017, pp. 8—13.自動駕駛汽車首先凸顯了一個真正的危機(jī)和機(jī)遇深度交織的發(fā)展階段?!叭斯ぶ悄苷A(yù)示著下一波巨大的發(fā)展浪潮,……但對許多人來說也是危險的。……這種發(fā)展的后果可能非常嚴(yán)重——大約十年后,世界上最大的汽車制造商中有三到五家將不復(fù)存在。”自動駕駛汽車的發(fā)展動力,源自人類流動和物流的全自動化需要,其中最為重要的內(nèi)容,就是人類流動的自動化。在奧斯陸能源會議上,馬斯克曾不無根據(jù)地表示,特斯拉的自動巡航功能至少可降低50%交通事故發(fā)生率。有的估計甚至認(rèn)為,無人駕駛汽車的發(fā)展將能使交通事故率的降幅達(dá)到90%。在這方面,目前的任何具體估計可能都具有局限性,而隨著自動駕駛汽車應(yīng)用普及程度的提高,在事故率不斷降低的同時紅利不斷涌現(xiàn),則是有充分根據(jù)期待必定出現(xiàn)的效應(yīng)。雖然關(guān)于交通事故率的降幅存在不同結(jié)論,但自動駕駛汽車的普遍使用將帶來巨大紅利這一點(diǎn)顯而易見。這就富有啟示地意味著,必須在更高整體層次,才能看清人工智能應(yīng)用問題的性質(zhì)。也就是說,從整個人類或整個社會層次看,必須在更高整體層次,才可能進(jìn)一步厘清由人工智能應(yīng)用引發(fā)的責(zé)任和義務(wù),更合理、更到位地處理相關(guān)問 題。

正是在智能算法的歸責(zé)困境中,可以更清楚看到造世倫理層次處理的必要性。如果說人工智能發(fā)展中的有些倫理問題還具有傳統(tǒng)倫理和造世倫理之間的過渡性質(zhì),那么智能算法的責(zé)任鴻溝則純粹是一個造世倫理問題。機(jī)器智能體的責(zé)任涉及新的倫理和法律問題,其基礎(chǔ)涉及創(chuàng)構(gòu)過程中規(guī)則和規(guī)律的一體化,應(yīng)當(dāng)在造世倫理的層次理解和處理。在現(xiàn)有研究成果的基礎(chǔ)上,問題變得越來越清楚——在造世倫理層次,可以真正解決由人工智能算法帶來的自主性發(fā)展相關(guān)責(zé)任問題。由責(zé)任鴻溝造成的人工智能應(yīng)用歸責(zé)困境,甚至必須在造世倫理層次理解;智能算法責(zé)任鴻溝的跨越,必須有建立在造世倫理基礎(chǔ)上的更高層次方案。人工智能應(yīng)用中的責(zé)任鴻溝,可以在造世倫理層次真正跨 越。

人工智能應(yīng)用中責(zé)任鴻溝的跨越,涉及兩個基本方面:一是規(guī)則和規(guī)律一體化條件下的道德責(zé)任衡量標(biāo)準(zhǔn);二是人工智能應(yīng)用條件下倫理觀念本身的發(fā)展。兩方面都與造世倫理密切相關(guān),前者涉及功利主義道德理論的造世倫理重新審視,后者涉及從適世倫理到造世倫理的范式轉(zhuǎn) 換。

“造世”是相對于“適世”而言,因而“造世倫理”相對于“適世倫理”,兩者的性質(zhì)和特點(diǎn)有著重大差別。其中最基本的差別,就是造世倫理的整體性、類特性和共同性。造世倫理的整體性,意味著責(zé)任和義務(wù)的一體化。在人工智能應(yīng)用中,相關(guān)責(zé)任和義務(wù)主要涉及兩類:一是智能設(shè)備的設(shè)計和使用責(zé)任;二是受益方倫理義 務(wù)。受益方包括社會和自動駕駛汽車?yán)骊P(guān)聯(lián)各方。

智能設(shè)備的設(shè)計和使用責(zé)任,仍屬人工智能應(yīng)用中的傳統(tǒng)倫理責(zé)任。在自動駕駛汽車的具體案例中,相關(guān)智能設(shè)備包括自動駕駛汽車及其所有配套設(shè)施,設(shè)計責(zé)任則包括自動駕駛汽車制造和保養(yǎng)所有環(huán)節(jié)的合理性或缺陷。這方面,波音737 Max系列的兩起事故,就是具有借鑒意義的例子。使用責(zé)任包括在自動駕駛汽車使用過程中,使用人和汽車擁有者所涉及的所有導(dǎo)致事故的人為因素。如果事故主要由于設(shè)計缺陷或使用不當(dāng),那么責(zé)任主要由設(shè)計制造者或使用責(zé)任人承擔(dān),這與普通交通事故責(zé)任歸屬沒有原則不同。但是,在自動駕駛汽車的具體應(yīng)用中,責(zé)任鴻溝意味著可以出現(xiàn)責(zé)任歸屬困難,而且確實(shí)是無責(zé)任主體的情境。這種情境可以從完全無責(zé)任主體到部分非主體責(zé)任呈可量化分布。在人工智能發(fā)展過程中,由于自主性要素的復(fù)雜化,其應(yīng)用會造成從非主體責(zé)任到完全無主體責(zé)任的問題。這種無責(zé)任主體的問題是適世倫理情境中不存在的,因為這種問題源于造世過程,屬于造世活動產(chǎn)生的特有問 題。

正是從非主體責(zé)任到無責(zé)任主體的系列問題,決定了不可能完全按照有責(zé)任主體條件下的歸責(zé)處理方式,而必須在造世倫理的更高整體層次處理相關(guān)倫理問題。必須在更高層次的造世倫理理解中,這種全新的道德選擇問題才能得到更合理的解 決。

受益方倫理義務(wù)則屬于新的責(zé)任和義務(wù),涉及人工智能應(yīng)用中的造世倫理內(nèi)容。從造世倫理的層次看,不僅自動駕駛汽車的擁有人和使用者,相關(guān)類群甚至整個社會都是人工智能巨大紅利的享有方,因此,自動駕駛汽車的事故風(fēng)險,既與責(zé)任人又與相關(guān)義務(wù)方有關(guān)。因此,造世倫理遵循類群倫理原則,目的是實(shí)現(xiàn)類群利益最大化。這種類群倫理原則基礎(chǔ)上的利益最大化,與功利主義倫理觀念具有表觀上的相似性,但二者有根本區(qū)別。雖然都以實(shí)現(xiàn)利益群體最大化為目的,但類群倫理原則與功利主義倫理原則的根本不同在于:它在造世倫理維度達(dá)到了個體倫理和類群倫理的統(tǒng)一,而不像功利主義倫理原則那樣,由于個體倫理和群體倫理的分離甚至對立,應(yīng)用于個體會存在個體和群體之間的倫理沖突——因群體倫理考慮而造成對于個體的倫理不合理性。因此,即使在傳統(tǒng)倫理范式看來最棘手的問題,在造世倫理層次也可以得到合理解 決。

在造世倫理層次,也可以合理解決由自動駕駛汽車應(yīng)用責(zé)任鴻溝涉及復(fù)雜的人與人關(guān)系而出現(xiàn)的更復(fù)雜問題。在遇到剎車失靈等造成自動駕駛汽車是沖向人群還是用戶冒風(fēng)險避免人群更大范圍傷害的選擇時,按照最大利益原則,智能算法應(yīng)當(dāng)有選擇自動駕駛汽車損毀以避免更多人受傷害的設(shè)計。但如果智能算法這樣設(shè)計,這種自動駕駛汽車的銷售就可能遇到問題。在傳統(tǒng)倫理范式中,這個問題也是沒有辦法解決的。而在造世倫理層次,由于規(guī)則和規(guī)律的一體化,自動駕駛汽車算法按照群體最大利益這一更高層次原則設(shè)計,就不是具體個人可以選擇的,而必須有更高層次的整體性原則。因為在造世倫理層次,任何人都可能既是自動駕駛汽車的使用者,同樣也是其可能的傷害者,在一個具體局部事件中存在利益不對稱,而在更高整體層次,最大利益原則卻符合每個人的利 益。

現(xiàn)有自動駕駛汽車的決策設(shè)計已經(jīng)采用功利主義倫理觀念,所反映的正是造世倫理的整體性觀照?!霸谀承┣闆r下,自動駕駛汽車需要被編程來有意殺死人(行人或他們的乘員),以盡量減少整體傷害,從而實(shí)現(xiàn)功利主義道德。事故調(diào)查人員解構(gòu)未來的事故,可能想知道事故是道德功能的結(jié)果,還是一個嚴(yán)重的算法錯誤。自動駕駛汽車算法的可解釋性將是這一調(diào)查的關(guān)鍵?!倍詣玉{駛汽車算法設(shè)計要在“功效論”和“義務(wù)論”倫理價值觀間進(jìn)行選擇,正是造世倫理的一個低層次寫照。在人工智能算法設(shè)計中,這種造世倫理層次更為典型。由于達(dá)到了個體倫理和類群倫理統(tǒng)一的層次,造世倫理視域中的自動駕駛汽車事故責(zé)任問題,就能得到更合理的解 決。

如果自動駕駛汽車所發(fā)生的事故不是設(shè)計和使用責(zé)任,由于沒有人事行為責(zé)任主體,不存在事故責(zé)任,只存在受益者義務(wù)問題,相關(guān)損失應(yīng)由自動駕駛汽車受益方承擔(dān)。其法理根據(jù)是:自動駕駛汽車不僅使交通事故率和損失大大下降,而且使相關(guān)效益極大提升,從而給社會帶來巨大紅利;但自動駕駛汽車的應(yīng)用本身具有無責(zé)任主體風(fēng)險,由于自動駕駛汽車應(yīng)用所帶來的巨大社會紅利,無責(zé)任主體事故意味著受益方有承擔(dān)相關(guān)風(fēng)險的義務(wù)。因此非設(shè)計和使用導(dǎo)致的事故,責(zé)任應(yīng)由受益類群以義務(wù)的方式承擔(dān),這不僅是合理的,也是完全可能的,因為采用自動駕駛使類群交通安全和效率大大提升生成的紅利,只需拿出很小一部分用于承擔(dān)無責(zé)風(fēng)險義務(wù)。至于具體應(yīng)當(dāng)怎樣實(shí)現(xiàn),這只是一個技術(shù)操作問題。在解決自動駕駛汽車應(yīng)用責(zé)任問題的研究中,有人提出增設(shè)保險的方式解決自動駕駛汽車事故責(zé)任問題——雖然這類方案不可能在現(xiàn)有保險意義上實(shí)行。由于關(guān)系完全不同,購險關(guān)系不明確,只在原來范式中采用保險方式解決自動駕駛汽車帶來的責(zé)任鴻溝問題,沒有可行性。非自動駕駛汽車用戶不可能買這一險種,而由于自動駕駛汽車算法設(shè)計的受益義務(wù)原則,用戶也具有與非用戶同樣的地位,也沒有理由買這種保險。退一步說,即使用戶購買保險可以推行,但自動駕駛汽車發(fā)展在很長一段時間內(nèi),也積累不起提供這種保險的足夠資金保證。然而,在自動駕駛汽車事故責(zé)任的造世倫理層次解決基礎(chǔ)上,就可以看到跨越人工智能責(zé)任鴻溝的具體現(xiàn)實(shí)路徑。這樣不僅使自動駕駛汽車自身風(fēng)險有了保障,能夠解決事故責(zé)任等相關(guān)具體問題,而且可以確保人工智能本身的順利發(fā)展,從而為人類帶來更大的紅利,使人工智能的社會應(yīng)用進(jìn)入良性循環(huán)。這正是從造世倫理而不是適世倫理層次才能看到的更高層次問題及其解決方案,是在造世層次看到的更高層次倫理關(guān) 系。

在具有更高層次整體性的造世倫理中,自動駕駛汽車發(fā)生涉人傷害的交通事故,倫理和法律責(zé)任就不僅僅是自動駕駛汽車與事故受害者之間的關(guān)系了,而是涉及社會更高層次甚至最高層次的整體關(guān)聯(lián)。一方面,在造世倫理中,倫理和法律的一體化發(fā)展趨勢越來越明顯,在理論研究中,倫理義務(wù)和法律責(zé)任越來越不能分割;另一方面,在自動駕駛汽車事故處理中,個體責(zé)任和社會義務(wù)的一體化也越來越明顯,二者之相應(yīng)也越來越必須同時考慮。這正是人工智能應(yīng)用所涉及的倫理甚至法律責(zé)任問題,必須在造世倫理層次處理的基本根據(jù),也是造世倫理為處理人工智能應(yīng)用引發(fā)的倫理問題而打開的新視域,為相應(yīng)責(zé)任鴻溝所提供的跨越途 徑。

猜你喜歡
智能算法鴻溝倫理
淺析“老年數(shù)字鴻溝”的彌合路徑
鴻溝為何不可逾越
淺談我國社會工作倫理風(fēng)險管理機(jī)制的構(gòu)建
鴻溝為界
親組織非倫理行為研究
親組織非倫理行為研究
改進(jìn)的多目標(biāo)快速群搜索算法的應(yīng)用
煙草香級智能集成分類方法
基于Robocode的智能機(jī)器人的設(shè)計與實(shí)現(xiàn)
基于云模型的單路口交通信號智能控制系統(tǒng)研究
西平县| 崇义县| 师宗县| 奈曼旗| 西乌珠穆沁旗| 七台河市| 顺义区| 安顺市| 浦东新区| 永丰县| 巴中市| 星座| 新巴尔虎右旗| 赫章县| 满城县| 含山县| 天门市| 弥渡县| 旬阳县| 房山区| 宜君县| 凤冈县| 宜章县| 博乐市| 屏东县| 名山县| 兴化市| 策勒县| 习水县| 临澧县| 延寿县| 铜陵市| 土默特左旗| 任丘市| 山东省| 嘉黎县| 东海县| 潮安县| 水城县| 永平县| 江安县|