国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能的自主性與責任

2018-01-23 06:00
哲學分析 2018年4期
關鍵詞:決定論自主性使用者

鄔 桑

近年來,人工智能的發(fā)展進入了一個新的里程——從新銳的概念到真正進入公眾生活,例如,自動駕駛汽車、人工智能機器人,甚至人工智能武器。人工智能與現(xiàn)實生活的接軌引發(fā)了一個嚴峻的問題:人工智能的責任歸屬問題。這不僅僅是一個法律問題,也是一個道德問題,是對人類現(xiàn)有責任觀的挑戰(zhàn)。

事實上,對人工智能的種種擔憂與爭論并非是一個全新的哲學話題,早在人工智能誕生之初,圖靈與塞爾就分別通過“圖靈模型”與“中文屋論證”探尋過人工智能的標準與極限。但是,隨著大數(shù)據(jù)與深度學習支持的人工智能上線與應用,圖靈與塞爾的理論顯示出其短板——人工智能亟待解決的相關哲學問題不再是機器能否取代人類(這在許多領域已經(jīng)是不爭的事實),而是人工智能對人類法律與倫理的沖擊。人工智能是否獨立的責任者,又如何在與人類智能的接駁中各自或共同承擔責任,這是需要深入探討的問題。

一、簡化了的“人工智能自主性”

人工智能機器人通常也被稱為自主機器人,許多哲學研究認為,目前的人工智能可以稱得上是自主的能動者a參見 Christian List & Philip Pettit, Group Agency:The Possibility,Design,and Status of Corporate Agents. London:Oxford University Press,2011;以及 Sven Nyholm,“Collective Agency,Responsibility,and Corporate vs. Private Self-driving Cars:Who’s Doing the Driving?”,Collective Intentionality X Conference,2016。,甚至一些哲學家認為非人類的自主能動者本身就能夠承擔責任,而非由其設計者或使用者承擔責任bJaap Hage,“Theoretical Foundations for the Responsibility of Autonomous Agents”,Artificial Intelligence and Law,Vol.25,2017,pp.255—271.。筆者認為,“人工智能是自主的”這一觀點不夠嚴謹,隨之而來的“人工智能是獨立責任承擔者”的觀點值得商榷。這些觀點的背后缺少對自主概念的追問。

自主(autonomy)概念一般應用于人類,被理解為“個人根據(jù)自己的理智推斷和動機欲望主宰自己生活的能力,而這些理智推理和動機欲望都不是操控性和歪曲性的外部力量的產(chǎn)物”。自主的概念有兩層含義:一是自我管理,另外一個意思為自我立法。實際上,筆者認為,自我立法是自主中更為重要的部分。作為自主理論研究的源頭之一,康德認為,自主不僅僅意味著自由意志,同時也意味著自由意志服從于自己制定的道德法則。cI. Kant,Groundwork of the Metaphysic of Morals,New York:Harper and Row,1958,pp.57—58.目前主流的自主理論也繼承了康德的觀點,認為自主并非僅僅是“自己作出決定”,更重要的是作出決定的過程完全處于能動者的統(tǒng)御之下。決定、行動與能動者對自身的權威緊密相連,它們的關系決定了能動者是否自主。dSarah Buss & Andrea Westlund,“Personal Autonomy”,Stanford Encyclopedia of Philosophy ,2013,https://plato.stanford.edu/entries/personal-autonomy/.

對于人類來說,自主選擇所遵循的“權威”即“自我”。能動者必須認同他自己的決定,必須由他自己的決定而非其他權力促使他行動。一旦涉及自我認定,能動者就必須遵循一套完整的價值觀念,來區(qū)分什么是“我”想要的,這就意味著人的自主與道德判斷息息相關。一個人必須認定自己采取行動是根據(jù)對的判斷和決定。個人的行動如果不符合其價值體系,通常會被判定為非自主的。例如,一個癮君子在吸毒的同時深信吸毒是不好的,他不應該吸毒。但是,他無法抑制身體強烈的渴望,這驅(qū)使他吸食了毒品。顯然,他在這個過程中不是自主的。如果他遵從內(nèi)心的價值判斷,選擇不吸毒,那么,他才是自主的。在這個案例中,從信念到行動的轉(zhuǎn)化失敗了,能動者喪失了對自身的權威。

如果說人類的自主通常與道德相關,那么,自主概念實際上隱含了兩種層次:一種是行動自主,另一種是道德自主。行動自主僅僅指因果關系上,如果一個人的意圖成功地引發(fā)了他的行動,那么,他就是行動自主的;而道德自主探尋意圖的成因,追問能動者是否遵循自己的內(nèi)心。因此,道德自主是傳統(tǒng)責任觀的基礎,也是法律判定的基 礎。

一個行動自主的能動者應當符合BDI(belief-desire-intention)模型。自主是一個與行動相關的概念。能動者實踐自主的過程從一個信念開始,如果這個信念與世界不符合,那么想要使世界符合信念的想法就是欲望,通過欲望指向客體的就是意圖,從而成功地改變世界,這就是BDI模型。aChristian List & Philip Pettit, Group Agency:The Possibility,Design,and Status of Corporate Agents,London:Oxford University Press,2011,p.26.根據(jù)這一模型,一個自主的能動者需要滿足的條件包括:(1)具備一個如實描述了環(huán)境中的事物的表征狀態(tài);(2)具備一個驅(qū)動狀態(tài),明確描述了期望環(huán)境中的事物如何改變;

(3)具備實現(xiàn)它的表征狀態(tài)和驅(qū)動狀態(tài)的能力,當環(huán)境不能符合驅(qū)動狀態(tài)的描述時,去改變環(huán)境。bIbid.,p.20.

佩蒂特認為,任何成功執(zhí)行了這一模型的能動者都是自主的能動者,人工智能也不例外。cIbid.,p.26.由于大數(shù)據(jù)與深度學習的支持,第三代人工智能展現(xiàn)出了與人類智能相似的能力:能夠自我歸納,從數(shù)據(jù)中總結(jié)出某些規(guī)律;能夠自我學習,從而在遇到新情況、新問題時,根據(jù)經(jīng)驗和數(shù)據(jù)來靈活處理。這就意味著,人工智能在足夠的數(shù)據(jù)支持下,能夠獨立地根據(jù)情景形成自己的表征狀態(tài)、驅(qū)動狀態(tài)和改變情景的意圖,并且根據(jù)該意圖采取行動,順利實現(xiàn)BDI模型。從這個意義上講,人工智能是自主 的。

但是,這種“自主”指的是行動自主,僅僅等同于獨立。佩蒂特對自主能動者的論證只實現(xiàn)了自我管理的層面。這種論證實際上簡化了自主的概念,認為能夠作出決定即自主,將邏輯推理和計算能力等同于人類的理智,將人工智能的目標與執(zhí)行力等同于人類的欲望,從而認定人工智能是自主的。行動自主將自我立法的過程排除在外,僅僅考量了決策與行動的連貫性,是削減版的自主概念。

將“簡化的自主”概念加諸人工智能,直接導致了“人工智能是獨立責任承擔者”的觀點。哈格是這一觀點的支持者,并且他提出了看似完整有說服力的理論。他認為,人類能夠?qū)ψ陨硇袆迂撠熑蔚脑蚺c其說是因為人類真的具有意向性或自由意志,不如說是將能動性和責任作為一種屬性附加于行動之上。他如此論斷的原因在于,無論人類的大腦狀態(tài)如何,意圖和意愿在行動中都沒有對物理世界真正產(chǎn)生影響,產(chǎn)生影響的只有行動。那么,既然責任是行動的屬性,人工智能的行動也能夠具備這種屬性,只要人們接受將責任作為人工智能的屬性,人工智能就是能夠負責任的能動者,與人類無異。aJaap Hage,“Theoretical Foundations for the Responsibility of Autonomous Agents”,pp.267—269.哈格的這種論證并不是否定了意圖的存在價值,而是認為人工智能的決定與人的自由意志的選擇沒有差別——至少是在BDI模型中毫無區(qū)別。他顯然是贊同人工智能具備簡化了的自主性,才會得出這樣的結(jié)論。

然而,將自主簡化為行動自主,就不能完全支持能動者的責任認定。事實上,自主理論并非僅僅是要成功地實現(xiàn)從建立信念到行動的過程,更致力于排除在這一過程中威脅到自主的因素。這些因素在哲學描述中得到最多討論的包括:強迫、上癮和洗腦。一旦能動者被它們控制,能動者的行為后果就無需自己負責。值得注意的是,BDI模型排除了強迫和上癮,但沒有將被洗腦排除在自主的大門之外,就是說,一個成功實現(xiàn)BDI模型的能動者可能是被洗腦的,并不具備自主性,也不能對行動負責 任。

因此,哈格對意圖與世界關系的理解是有偏差的。即使意向性不影響真實世界這一點成立,何種因素削弱了意愿、意向與行動之間的聯(lián)系仍然非常重要,這些因素真實地改變了世界,它們改變了本可能在世界中實際出現(xiàn)的事件。

回到對人工智能的討論,即使人工智能具備了相當?shù)臎Q策能力,它們的決策程序仍然是由人類設定的。也就是說,人工智能的權威并非來自它自身,而是人類賦予的,它們是“被洗腦”的。一個以保護財產(chǎn)為目標的人工智能與另一個以保護人身安全為目標的人工智能在同樣的情境下,可能會作出完全不同的決策,并且,它們不可能作出另外的選擇。如果僅僅只有行動自主的支持,這兩個人工智能造成的相應結(jié)果的責任,似乎更應當追問程序的設定者,而非人工智能本身。因此,在簡化的自主下討論人工智能的責任是不嚴謹?shù)?,更談不上讓人工智能成為獨立的責任承?者。

因此,人工智能的自主性討論不能僅僅采用建構(gòu)模型的方式,BDI模型沒能一勞永逸地解釋自主性的問題,我們更需要將眼光放在使人工智能不自主的因素上,尋找人工智能自主性問題的實質(zhì)——畢竟,一只黑天鵝就能夠否定“所有天鵝都是白的”這一論斷。

二、人工智能自主性問題的實質(zhì)

人工智能是由大數(shù)據(jù)驅(qū)動的,大數(shù)據(jù)賦予了人工智能在變化中應對復雜局勢的能力,同時也奠定了人工智能作決策的基調(diào):人工智能有作決定的能力,但是,沒有在同一時間作出不同選擇的能力。

“人工智能的世界是由人的數(shù)字化行為構(gòu)成的數(shù)據(jù)世界?!眀成素梅:《智能化社會的十大哲學挑戰(zhàn)》,載《探索與爭鳴》2017年10期。人工智能目前之所以表現(xiàn)出了類似人類智能的能力,一方面是設計者放棄了讓人工智能像人類一樣思考,削弱了因果性思維在程序設計中的地位,轉(zhuǎn)而大量采用相關性思維的程序設計,使人工智能通過數(shù)據(jù)將兩個事件建立起聯(lián)系;另一方面,大數(shù)據(jù)技術的發(fā)展使得人工智能能夠獲得海量的數(shù)據(jù)支持,運用統(tǒng)計學精確地挖掘出有價值的信息,形成決策的資源。

人工智能的決策能力完全依賴數(shù)據(jù)和算法,它在給定世界的給定時間上只會給出同一個決定。數(shù)據(jù)決定了人工智能能夠達到的深度,算法決定了通過迭代計算可得的最優(yōu)解。這似乎給了人工智能無限的可能性,但是,對于給定的人工智能程序,它在給定的時間上所得的數(shù)據(jù)是固定的,它的設計算法也是固定的。因此,它能夠給出的決策也是固定的。這與人類不同,人類可能因為一念之差而在某個時間上作出不一樣的選擇,而人工智能并沒有另外的選擇。

因此,人工智能等同于一個決定論世界中的能動者。決定論,即在任何時刻只有一種可能的物理未來。aPeter van Inwagen,An Essay on Free Will,Oxford:Clarendon Press,1983,p.3.決定論不僅是一種對物理世界的認知立場,同時也是自由意志的支持者最為頭痛的對手。特別是,近年來腦神經(jīng)科學的研究進展支持決定論;量子力學雖然是統(tǒng)計決定論的,但根據(jù)現(xiàn)有的發(fā)展,也沒有為自由意志的存在留下空間。b成素梅:《量子糾纏證明了“意識是物質(zhì)的基礎”嗎?》,載《華東師范大學學報(社科版)》2018年第1期。這使得哲學家們無法再回避決定論,不得不為自由意志的存在另尋出路,發(fā)展自由意志與決定論之間的兼容論,即,認為決定論世界中的能動者也可以有自由意志。c持該觀點的學者包括李斯特(Christian List)、塞爾(John Searle)等。人工智能(公認的)不具備自由意志,無需討論它與決定論之間的兼容性,同時,它在任何時刻都只有一種可能的物理未來。在理論上,完全可以將人工智能看作決定論世界中的能動者,并在這一背景下討論人工智能的自主與責任。

人工智能自主性問題的實質(zhì)是在決定論世界中討論能動者能否自主,并且,該討論本身是有意義的。與兼容論相對的非兼容論認為,在決定論世界中,即使考慮到所有的事實與規(guī)則,也只能有一種物理未來,那么,人的所有的行動都是被世界控制的,能動者本身不可能具備自主性,對自主性的討論也沒有任何意義。但是,兼容論則認為,即使決定論真的否定了人在行動中具有自由意志,人們?nèi)匀挥邢胱瞿呈录嗀的欲望,在最起碼的程度上努力去做A,并且,在自己的理性支持下給出做A的理由。dAlfred R. Mele,Autonomous Agent:From Self-control to Autonomy,London:Oxford Press,2001,p.119.這意味著,如果我們將自主理解為“在任何時間上都能作出其他選擇”,那么,決定論世界中不存在自主的能動者。而如果將自主理解為“為自己的行為給出適度的理解,并具備潛在的選擇能力”,那么決定論世界中的能動者依然可以是自主的。對自主性不同的理解為決定論世界能兼容自主性打開了一扇窗,同時,也意味著人工智能有可能是自主的。

三、決定論下的自主性問題

自主理論與決定論能否兼容,決定了該理論能否為人工智能的自主性辯護。人工智能自主的可能性寄托于存在一種受到廣泛認可的自主理論,它與決定論相兼容。目前,占主導地位的自主理論有四種:自由意志論、融貫論、理性回應論和推理回應論。它們各自的簡要定義如下:

自由意志論:當一個人所作出的決定本可以被另外一種可能的決定替代的時候,那么他所作的決定是自主的。aJohn Searle,Minds,Brains,and Science,Cambridge,Mass:Harvard University Press,1984,p.3.

融貫論:當一個人的高階欲望與低階欲望相契合的時候,他是自主的。bHarry Frankfurt,“Alternate Possibilities and Moral Responsibility”,in Free will,edited Derk Pereboom,Dianapolis:Hackett,1997,pp.156—166.

理性回應論:當一個人能夠意識到理性,并有能力根據(jù)理性作出決定和行動的時候,他是自主的。cJohn Martin Fischer and Mark Ravizza,Responsibility and Control:A Theory of Moral Responsibility,Cambridge:Cambridge University Press,1998,pp.60—80.

推理回應論:當一個人能夠為自己的決定和行為給出合理的推理時,他是自我控制的。在此基礎上,如果他沒有被任何外部因素強迫,他是自主的。dAlfred R. Mele,Autonomous Agent:From Self-control to Autonomy,pp.112—115.

這四種自主理論各有側(cè)重,也略有重合。根據(jù)它們所支持的自主性與決定論能否兼容分為兩組,自由意志論與融貫論屬于非兼容論,理性回應論屬于兼容論,而推理回應論搖擺于兼容論和非兼容論之間。

根據(jù)定義,自由意志論認為,只有當人可以作出另外的選擇時,他才是自主的。這在決定論世界中是行不通的。即使有學者爭辯,自主性是能動性和意向性的結(jié)合,只要存在作出另外選擇的可能,即可認為自主性存在。eChristian List,“Free Will,Determinism,and the Possibility of Doing Otherwise”,NOU?S,Vol.48,No.1,2014,pp.156—178.但是,假設有一顆有意識的自由下落的石頭,它會認為它是完全自由的,認為它的下落是在它自己的愿望下發(fā)生的。然而,石頭完全受制于物理事實,并沒有它自己認為的自主性。因此,自由意志論屬于非兼容論,不能為人工智能的自主性辯護。

同樣,融貫論強調(diào)核心自我(central self)的欲望與行動欲望的層層遞進、相互契合。當人處于決定論世界時,他的核心自我的欲望與行動欲望都是被決定的,那么他不具備自主性。即使他的核心自我能夠形成欲望,他的行動欲望仍然是被物理世界限制的。要么,他的核心自我與行動相矛盾,只具備潛在的自主性而不具備行動自主;要么,他的所有欲望都是被決定的,連潛在的自主性也不具備。因此,融貫論也不能為人工智能的自主性辯護。

推理回應論比較特殊,它是否能夠支持決定論世界的能動者的自主性取決于決定論的強度。強的決定論認為,人類的大腦也是物理世界的一部分,也是被決定了的;而弱的決定論認為,人腦以外的物理世界是被決定的,人仍然有隨時改變想法的可能。推理回應論認為,自主性是一個人以所相信和渴望的為基礎來評估自身動機的能力,并且根據(jù)自身的(可能涉及價值的)評估來調(diào)整動機。aSusan R. Wolf,F(xiàn)reedom Within Reason,London:Oxford University Press,1993,pp.68—70.它強調(diào)的不是能夠按照“正確的”或者普適的價值觀作出反應,而是能夠通過推理的過程駕馭自己的動機。同時,它也強調(diào)必須由核心自我給出推理的過程,能動者不能處于“洗腦”狀態(tài)。當處于強決定論世界時,能動者所作出的決定是由物理大腦根據(jù)經(jīng)驗與自身特性決定的,推理過程是大腦在決定以后用來肯定自己的選擇的。能動者根本沒有核心自我,處于“洗腦”狀態(tài),因此,沒有自主性。然而,當處于較弱的決定論世界時,能動者即使在行動上受制于物理世界,依然可能為自己的行動給出有說服力的推理過程,那么,他可以是自主的。

然而,很遺憾,即便推理回應論有可能屬于兼容論,它依然不能為人工智能的自主性辯護。因為,對于人工智能來說,推理過程即算法的運行過程。算法是由設計者決定的,運行過程也是固定的。人工智能等同于一個在強決定論世界里的人,它的“大腦”是物理世界的一部分,它的理性來自世界。因此,按照推理回應論,人工智能雖然能給出完美的推理過程,卻不可能是自主的。

理性回應論是唯一有機會為人工智能的自主性辯護的理論。它強調(diào)能動者具備一個穩(wěn)定的理性決策方式,其中提到的理性是道德理性,并且,該決策方式能夠被具有相似價值和信念的第三方理解。決定論并不排除理性甚至道德理性的存在,這為自主性的存在留下了一線生機。當人可以采取理性來支持自己的決定時,他就是自主 的。

人工智能的決策方式能夠滿足理性回應論。首先,人工智能具備一個理性決策方式,即算法。目前,人工智能的算法都是通過數(shù)據(jù)間的聯(lián)系尋找最優(yōu)解,它符合人類從經(jīng)驗中總結(jié)規(guī)律的思考方式,是一種穩(wěn)定的理性決策方式,在邏輯理性上符合理性回應論的要求。同時,理性回應論要求決策方式的理性涉及道德理性,這一點對人工智能來說并不難。如果人工智能的決策完全不涉及道德,我們就無需為了人工智能如何承擔責任的問題煩惱了,只要根據(jù)哈格的論證,認定人工智能承擔全責即可。然而,人工智能的決策必然會涉及對錯,它必須“理解”人們想要的是什么,否則它就無法為人類服務,也無法與人類合作。例如,自主駕駛汽車必須在程序設計上考慮路人的安全與乘客的安全,而不僅僅是避免碰撞。其次,人工智能的決策方式可以被第三方理解。這里被選擇的第三方,正是人工智能的使用者。試想,如果使用者發(fā)現(xiàn)人工智能的選擇總是與自己想要的相左,或者使得自己的工作、生活更繁瑣而非更便利,他就不會繼續(xù)使用人工智能。人工智能的算法是設計者對使用者的理解,也是智能社會中全新的人與人的聯(lián)結(jié)橋梁。甚至,目前的人工智能已經(jīng)能夠根據(jù)算法來適應用戶習慣,提供更令用戶滿意的服務。這正是設計者為了讓使用者作為第三方理解人工智能而做出的努力。

因此,在理性回應論的支持下,人工智能可以是自主的——不僅僅是在行動上自主,同時也是在算法相關的道德理性上自主。在此基礎之上,才有可能進一步來討論人工智能的責任問題。

四、人工智能相關的責任歸屬

自主是責任的基礎。但是,即使論證了人工智能的自主性,人工智能的責任劃分仍然是一個難題。難點在于,自主并不直接地對應責任,責任本身也有不同的區(qū) 分。

一種較廣為人知的責任的分類來自哈特(Hart)。aH.L.A. Hart,Punishment and Responsibility(2nd ed.),London:Oxford University Press,2008,pp.210—237.哈特將責任區(qū)分為地位責任(role-responsibility)、因果責任(causal responsibility)、義務責任(liabilityresponsibility)和能力責任(capacity responsibility)。地位責任指的是某人在社會組織中具有特殊的地位或職位而被賦予的某些特殊職責。因果責任指的是根據(jù)因果關系對造成的后果負責任。義務責任則是指人根據(jù)法律、道德等規(guī)范應當付出的代價。能力責任是主張某些人具備一些能力,并因此應對其行為負責。

從四種責任的定義可以看出,哈特對責任的分類主要是為法律與刑罰提供參考。因此,從哲學的角度來看,四種責任的內(nèi)涵之間有所重合。地位責任與義務責任有所重合。地位本身就是由社會規(guī)范所賦予的,它所承擔的責任通常都與法律和道德有關,因此,地位責任能夠轉(zhuǎn)化為義務責任。因果責任與能力責任也有所重合。因果責任可以看作是能動者運用了自己的能力后,對造成的結(jié)果負責?;蛘撸瑥牧硪粋€角度,因果責任也可以看作是能動者本可以運用能力,但沒有這么做,由于因果關系而為疏忽負責??偠灾芰ω熑味际怯捎谝蚬P系改變了或未改變世界所形成的責任,因此,筆者認為能力責任能夠轉(zhuǎn)化為因果責 任。

人工智能的責任爭議主要指的是義務責任的爭議。由于因果責任是按照因果關系劃分的,人工智能所造成的結(jié)果理應由它本身承擔,這是毫無爭議的,就像地震應當為房屋倒塌負責一樣。人工智能的義務責任劃分卻不那么明確。這是因為,傳統(tǒng)的問責方式將人造物視為無法理解道德的,也就不能承擔道德或法律責任。這種觀點 “混淆了孤立的技術人造物和社會—技術—認識系統(tǒng)中能體現(xiàn)出智能的人造物之間的本質(zhì)差異”。a成素梅:《智能化社會的十大哲學挑戰(zhàn)》。

上文中已經(jīng)論證了人工智能能夠具備道德自主性,因此,有資格成為義務責任的承擔者。問題在于,義務責任能夠被賦予人造物嗎?筆者認為答案是肯定的。機器的意向性是人賦予的,丹尼特認為,意向性最適合解釋機器行為的時候,我們就認為機器具有意向性。bDaniel C. Dennett,“Intentional Systems”,in Brainstorms,edited Daniel Dennett,Brighton:The Harvester Press,1981,pp.3—22.所以,機器具有意圖是一種屬性論。如果說機器可以把意圖作為附加屬性,那么同樣可以把義務責任作為一種附加屬性。筆者雖然對哈克的意圖與世界關系論證有微詞,但認同哈克 “責任是一種屬性”的觀點。義務責任并非人類天然具備的,對人類來說,它也是一種附加屬性。既然義務責任是依據(jù)人類的理解,通過道德與法律規(guī)范附加在人類身上的,那么,人工智能通過算法具備了道德自主性,同樣可以被賦予義務責任。

人工智能所承擔的義務責任是一種聯(lián)合(joint)義務責任,而非傳統(tǒng)責任觀中一力承擔的責任。雖然人工智能可以“理解”道德理性,但是,它的道德理性是由設計者賦予的,它的行動是由使用者監(jiān)管的。這就形成了設計者、人工智能、使用者之間無形的聯(lián)結(jié)。在人工智能能夠完全理解身體與道德之間的關系、實現(xiàn)無監(jiān)管地行動而不違背任何倫理規(guī)范之前,這個聯(lián)結(jié)都不會斷裂。遺憾的是,目前來看,人工智能在相當長一段時間內(nèi)無法實現(xiàn)對于身體與道德關系的理解。c徐英瑾:《具身性、認知語言學與人工智能倫理學》,載《上海師范大學學報》2017年第6期。因此,人工智能的義務責任總是與人類相連的。那么,傳統(tǒng)的個人各自承擔責任的模式必然不適合人工智 能。

人類合作者之間的責任研究也許能夠給我們一些啟示。雖然,人類合作者之間的責任研究同樣充滿爭議和問題(例如,責任債務問題、過充分決定問題,等等),但是,或許可以從已有的研究中為人工智能的責任問題探尋一下出路。

首先,聯(lián)合義務責任可以有多種形式。隨著技術的發(fā)展,人工智能與人類的合作將會前所未有的復雜。第一,人工智能單獨采取行動(如果被允許的話),例如,無人駕駛汽車。由于人工智能可以是自主的,應當承擔全部責任。并且,基于人工智能與設計者的聯(lián)結(jié),設計者承擔連帶責任。第二,人工智能可能處于使用者的監(jiān)管之下。這種關系類似于工作中的上下級,那么,負責執(zhí)行的人工智能將承擔全部的因果責任和部分義務責任,而使用者因為處于監(jiān)管地位,承擔義務責任。第三,人工智能可能與人組成集體能動者。集體能動者能夠具備獨立于任何成員的欲望和意圖,在此基礎上,集體能動者承擔全部責任。d參見鄔桑、叢杭青:《集體行動者與能動性——集體本體論的兩個核心概念》,載《自然辯證法研究》2017年第2期。第四,第二種與第三種情況可能混合出現(xiàn),那么,可以將其視為升級版的集體能動者來承擔全部責任。

其次,由于設計者—人工智能—使用者之間的聯(lián)結(jié)與承擔義務責任有關,使用者對人工智能“內(nèi)部”的了解變得十分重要,放任人工智能的使用者要承擔“忽視的責任”。使用者需要明確自己的人工智能能夠做到的范圍,并且防患于未然。目前的人工智能已經(jīng)能夠根據(jù)用戶的喜好改進自己的行為,這就意味著,如果使用者不去了解他的人工智能能夠做什么,隨意地給人工智能灌輸不良的行為喜好,會使得人工智能成為糟糕的社會成員。這一點也是人工智能威脅論所擔憂的,人工智能可能通過學習對人類產(chǎn)生威脅。因此,在這種情況之下,使用者忽視了可能造成的后果,應該承擔相應的義務責任,也就是筆者所說的忽視的責任。

再次,非人工智能的使用者同樣要承擔一些義務責任。這一點是針對與人工智能—人的集體能動者對立的自然人而言的。目前的無人駕駛汽車已經(jīng)號稱超越了人類駕駛員的安全基準,能降低駕駛事故的概率,促進公共安全。假如這一論斷成立,就意味著不使用自動駕駛系統(tǒng)的駕駛員將成為馬路上的危險者,對他人的安全構(gòu)成威脅,他們應當承擔起相應的責任。如同智能手機普及以后仍然使用傳統(tǒng)手機的人,一旦因為手機的原因錯過了重要的工作或者生活消息,他們會遭到其他人的譴責。隨著人工智能越來越“聰明”,不使用人工智能的人遲早會迎來要承擔義務責任的一天,并且,這一天可能并不遙遠。

本文將人工智能的自主性問題轉(zhuǎn)化為決定論世界中能動者的自主性問題,并且,在理性回應論的支持下,得出了人工智能不僅僅是行動自主的,而且可以是道德自主的,因此,能夠承擔義務(道德)責任。這一結(jié)論也許不會得到全部人工智能研究者的認同,但是,它為亟待解決的人工智能的責任分配問題搭建了地基。人工智能的責任問題必然要擺脫傳統(tǒng)的單一問責機制,走向社會—技術—認識系統(tǒng)中的問責機制。只要將人工智能視為自主的道德能動者,它與人類的合作就能被視為集體行動者,人類合作者之間的責任分布研究就能夠為人工智能與人之間的責任分布指引方向。但是,這只是一小步,其結(jié)論也只是一個大致輪廓,人工智能的責任研究依然任重道遠。如若想使人工智能的責任圖景更為清晰,需要更深入地探討人工智能對倫理的具身化理解、深化人工智能與人之間合作方式的研究和認知結(jié)構(gòu)對比研究,這將會推進對于人工智能—人的集體能動者的理解,從而對人工智能的責任細分產(chǎn)生更為深遠的影響。

猜你喜歡
決定論自主性使用者
國家自主性與文在寅政府的對朝政策
游戲中的規(guī)則與幼兒游戲的自主性
新型拼插休閑椅,讓人與人的距離更近
國際政治中的決定論
在屈從中自敗的自由意志
決定論的黃昏:存在論現(xiàn)象學視角下的經(jīng)濟人假設
刑法中意志自由論之提倡
抓拍神器
英語學習的自主性及其教學應用
發(fā)展性教育督導與學校辦學自主性