国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

可信任:人工智能倫理未來圖景的一種有效描繪

2019-08-27 01:32閆宏秀
理論探索 2019年4期
關(guān)鍵詞:信任度倫理人工智能

〔摘要〕 可信任人工智能的構(gòu)建發(fā)端于人對(duì)技術(shù)倫理旨趣的審度,可信任的存在邏輯在于人工智能創(chuàng)建了基于任務(wù)和基于目標(biāo)信任得以產(chǎn)生的可能條件,并在與人類的交互之中呈現(xiàn)出某種關(guān)聯(lián)性的信任??尚湃稳斯ぶ悄軕?yīng)基于信任邊界厘清的前提下,兼顧技術(shù)倫理學(xué)的通用原則和人工智能自身的技術(shù)特性,在有效監(jiān)督和對(duì)技術(shù)動(dòng)態(tài)的發(fā)展與應(yīng)用的審慎批判中,確保人工智能向善。反觀歐盟的“可信任人工智能的倫理框架”,其所闡述的技術(shù)與非技術(shù)兩個(gè)方面的構(gòu)建路徑、判別標(biāo)準(zhǔn)為可信任人工智能實(shí)現(xiàn)提供了有效的實(shí)踐保障,但其對(duì)信任邊界問題的擱置或排除則使其有效性遭遇質(zhì)疑。

〔關(guān)鍵詞〕 信任度,人工智能,倫理

〔中圖分類號(hào)〕N1?? ?〔文獻(xiàn)標(biāo)識(shí)碼〕A〔文章編號(hào)〕1004-4175(2019)04-0038-05

人工智能倫理研究的本質(zhì)是對(duì)人與技術(shù)關(guān)系的再度厘清與辨析。在人工智能的背景下,人與技術(shù)的關(guān)系是基于某種信任而形成的一種新型深度融合。這種信任是人與人工智能關(guān)系存在的前提條件。但這種信任除了傳統(tǒng)意義上的人際信任之外,還涉及人對(duì)人工智能以及人工智能系統(tǒng)間的信任。關(guān)于這種信任的哲學(xué)考察,可以借助信任的表征——可信任來進(jìn)行。即通過可信任來解碼人與人工智能的關(guān)系,描繪人工智能倫理的未來圖景。但這種描繪是否有效呢?對(duì)此,本文將從倫理旨趣、存在邏輯、實(shí)現(xiàn)途徑三個(gè)方面,解析可信任人工智能何以可能,以推進(jìn)人工智能向善。

一、可信任人工智能的倫理旨趣

對(duì)人工智能未來發(fā)展圖景的倫理描繪是基于人工智能技術(shù)的發(fā)展目標(biāo)與倫理觀念的有機(jī)融合。因此,人工智能的倫理問題研究既應(yīng)包括對(duì)現(xiàn)有倫理問題的哲學(xué)反思,也應(yīng)涵蓋對(duì)技術(shù)未來發(fā)展的一種框定。這種反思與框定源自人類對(duì)技術(shù)倫理旨趣的審度。如,斯坦福大學(xué)“以人為中心的人工智能”(Human-Centered AI Initiative,簡稱HAI)研究計(jì)劃就是旨在通過多學(xué)科的攜手合作,導(dǎo)引人工智能造福人類,共筑人類美好未來 〔1 〕。易言之,該計(jì)劃的倫理目標(biāo)通過技術(shù)追求人類福祉。歐盟委員會(huì)在其所發(fā)布的“可信任人工智能的倫理框架”(Ethics Guidelines For Trustworthy AI) 〔2 〕中,以追求人性和善、謀求人類福祉和自由的目標(biāo)為導(dǎo)向,對(duì)人工智能信任機(jī)制建立的原則與路徑進(jìn)行了詳細(xì)闡述,進(jìn)而確??尚湃稳斯ぶ悄艿膶?shí)現(xiàn)。因此,該框架的出發(fā)點(diǎn)不是對(duì)人工智能的發(fā)展是否需要倫理進(jìn)行探討,而是指向人工智能需要以何種倫理為框架,以及如何實(shí)現(xiàn)其倫理目標(biāo)。

與“可信任人工智能的倫理框架草案”(Draft Ethics Guidelines For Trustworthy AI)相比,該框架關(guān)于可信任人工智能組成部分的界定由倫理和技術(shù)兩部分變?yōu)榉伞惱砗图夹g(shù)三部分,且每個(gè)部分自身均為實(shí)現(xiàn)人工智能信任度的必要但非充分條件。即可信任人工智能應(yīng)當(dāng)是合乎法律的、合乎倫理的、且技術(shù)方面是穩(wěn)健的。但鑒于法律部分在倫理和技術(shù)這兩個(gè)部分已經(jīng)有某種程度的體現(xiàn),且上述兩部分的全面實(shí)現(xiàn)也將超越現(xiàn)存的法律要求。因此,該框架的目標(biāo)主要是為促進(jìn)和確保人工智能的發(fā)展能合乎倫理,并為實(shí)現(xiàn)技術(shù)方面的穩(wěn)健性提供指南 〔2 〕。從中可見,可信任人工智能的核心所在是倫理和技術(shù),而倫理與技術(shù)并非是割裂開來的,技術(shù)具有反映與實(shí)現(xiàn)某種倫理旨趣的功能。如該框架所描述:其之所以可信任,是在于其“能通過產(chǎn)生新的財(cái)富、創(chuàng)造價(jià)值以及將福利最大化的方式來改善個(gè)體和群體的生活狀態(tài)。其能通過“促進(jìn)經(jīng)濟(jì)機(jī)會(huì)、社會(huì)機(jī)會(huì)以及政治機(jī)會(huì)的平等分布,來提升公民健康和福祉,進(jìn)而構(gòu)建公平的社會(huì)” 〔2 〕。

就可信任而言,吉登斯(Anthony Giddens)在其關(guān)于抽象體系中的信任解讀中,將可信任(trustworthiness)分為“建立在彼此熟悉的個(gè)人之見和基于很長時(shí)間了解,從而互相從對(duì)方的眼中看出可信度證據(jù)的個(gè)人之間” 〔3 〕73兩類。這兩類主要在于人與人之間,而“可信任人工智能的倫理框架”中所言的可信任已經(jīng)超出上述兩類,將可信任延伸到了技術(shù)之中。這種延伸一方面體現(xiàn)了基于主客體二元對(duì)立的視角,由作為主體的人對(duì)作為客體的技術(shù)所進(jìn)行的信任度預(yù)判;另一方面則體現(xiàn)了新技術(shù)所蘊(yùn)含的能動(dòng)性對(duì)傳統(tǒng)信任產(chǎn)生的條件、語境等的沖擊。依據(jù)弗洛里迪(Luciano Floridi)和桑德斯(Jeff W. Sanders)關(guān)于人工道德行動(dòng)者的判別標(biāo)準(zhǔn) ①,面對(duì)諸如自動(dòng)駕駛等對(duì)人類行為所產(chǎn)生的助推、導(dǎo)引、甚至規(guī)約與牽制等現(xiàn)象,人工智能已經(jīng)呈現(xiàn)出行動(dòng)者所應(yīng)具有的諸多特質(zhì),并和人一樣參與到道德的構(gòu)建之中。

反觀該框架所言的“可信任人工智能”,其包括人對(duì)技術(shù)的態(tài)度和技術(shù)本身的可信任兩個(gè)維度。其中,技術(shù)自身的可信任,即技術(shù)的穩(wěn)健性既是獲得人對(duì)其信任的技術(shù)保障,也是人對(duì)其發(fā)展目標(biāo)的預(yù)設(shè)。易言之,在人類對(duì)技術(shù)進(jìn)行信任度評(píng)判的同時(shí),技術(shù)也在進(jìn)行信任度的構(gòu)建。因此,可信任是人類對(duì)人工智能發(fā)展旨趣的倫理訴求,也是其本身所應(yīng)遵循的倫理原則。

毫無疑問,可信任人工智能的構(gòu)建發(fā)端于人對(duì)技術(shù)倫理旨趣的審度,但技術(shù)的能動(dòng)性又將人類的倫理旨趣與技術(shù)自身的發(fā)展邏輯關(guān)聯(lián)在一起。如果說卡普的器官投影說是將技術(shù)與人之間進(jìn)行了物化層面的關(guān)聯(lián),那么,伴隨新興技術(shù)的涌現(xiàn),這種關(guān)聯(lián)已經(jīng)不僅僅是將人的功能進(jìn)行了物質(zhì)性的外化,而是走向了技術(shù)對(duì)人的嵌入式內(nèi)化,并出現(xiàn)了主體客體化與客體主體化的跡象。如果說對(duì)技術(shù)價(jià)值中立說的質(zhì)疑揭示出了技術(shù)與倫理之間的內(nèi)在關(guān)聯(lián)性,那么,將技術(shù)道德化的嘗試則是基于技術(shù)能動(dòng)性而走向技術(shù)對(duì)倫理的塑型與構(gòu)建;倫理輔助性設(shè)計(jì)的出現(xiàn)則意味著人類的倫理觀念已經(jīng)被嵌入到具體的技術(shù)實(shí)踐之中。

當(dāng)下智能體、深度學(xué)習(xí)、人機(jī)融合等的發(fā)展,使得人類社會(huì)的泛智能化日趨普遍,人與技術(shù)的關(guān)聯(lián)也日趨內(nèi)化。這種內(nèi)化體現(xiàn)為技術(shù)越來越逼近人的本質(zhì)。也正是在這種內(nèi)化的過程中,人作為“技術(shù)性與價(jià)值性二重本質(zhì)的共在” 〔4 〕94。在人與技術(shù)共在的語境中人自身的本質(zhì)與技術(shù)的本質(zhì)進(jìn)行著倫理維度的構(gòu)連。這種構(gòu)連表現(xiàn)為人對(duì)技術(shù)的倫理審視與技術(shù)對(duì)人類倫理觀念的調(diào)節(jié)兩個(gè)方面。但無論是這種構(gòu)連的哪個(gè)方面,都涉及人對(duì)技術(shù)的信任度。然而,無條件的懷疑與無條件的信任一樣都不是人與技術(shù)共同應(yīng)有的合理方式。

雖然“對(duì)人工智能的倫理反思可以用于不同的目的。首先,能激發(fā)對(duì)個(gè)人和群體的最基本層級(jí)需求的反思;其次,有助于激發(fā)產(chǎn)生實(shí)現(xiàn)某種倫理價(jià)值觀的新型創(chuàng)新方式” 〔2 〕,但該框架重點(diǎn)在于上述第一個(gè)目的,即面對(duì)人工智能所蘊(yùn)含的巨大技術(shù)潛能及其對(duì)人類社會(huì)的深度影響,該框架以對(duì)人類需求的厘清為切入點(diǎn),基于以人為中心的視角,力圖規(guī)避與預(yù)防技術(shù)風(fēng)險(xiǎn),謀求技術(shù)為人類所能帶來的最大福祉,并確保其為人類服務(wù)的倫理旨趣來構(gòu)建可信任人工智能。

二、可信任人工智能的存在邏輯及其合理性

對(duì)可信任人工智能的存在邏輯及其合理性的解析,首先需要對(duì)人工智能信任的合理性展開探討。若對(duì)其信任是不合理的,則其可信任性也就無從談起,可信任人工智能倫理框架的構(gòu)建也將是無意義的。而對(duì)其信任是否合理的追問,則需要先對(duì)其何以產(chǎn)生進(jìn)行考察。因?yàn)槿绻麤]有產(chǎn)生信任人工智能的語境,對(duì)其信任的探討也就不存在。

(一)人工智能信任的語境。從產(chǎn)生的維度來看,傳統(tǒng)意義上的信任是委托者(人)與受托者(人)之間的某種關(guān)聯(lián),其“產(chǎn)生于心理系統(tǒng)和社會(huì)體系影響的交互之中” 〔5 〕7,是“減少復(fù)雜性的一種有效方式” 〔5 〕9。事實(shí)上,信任的產(chǎn)生可以是目標(biāo)導(dǎo)向性的,即A和B有一個(gè)共同的目標(biāo)C,但A和B之間本來無信任可言,但鑒于C目標(biāo),A和B產(chǎn)生了某種信任,但這種信任并非是A認(rèn)為B是值得信任的,或者B認(rèn)為A是值得信任的;信任的產(chǎn)生也可以是任務(wù)導(dǎo)向性的,如A需要完成任務(wù)C,而B有完成任務(wù)C的能力,進(jìn)而產(chǎn)生了A對(duì)B的某種信任,這種信任可以是A對(duì)B具有完成某種能力的信任,也可以是A對(duì)B的整體性信任。但無論是目標(biāo)導(dǎo)向性還是任務(wù)導(dǎo)向性,信任所表達(dá)的是“一種態(tài)度,相信某人的行為或周圍的秩序復(fù)合自己的愿望。它可以表現(xiàn)為三種期待:對(duì)自然與社會(huì)的秩序性、對(duì)合作伙伴承擔(dān)的義務(wù)、對(duì)某角色的技術(shù)能力” 〔6 〕14。

在智能革命的背景下,人類對(duì)人工智能有所期待,且這些期待伴隨人工智能的發(fā)展已經(jīng)在人類社會(huì)中逐步被現(xiàn)實(shí)化,并呈現(xiàn)出代替人類某些能力的趨勢(shì)。如基于人工智能系統(tǒng)的導(dǎo)航、自動(dòng)識(shí)別、安防等的研發(fā)與應(yīng)用。與此同時(shí),人工智能以人類合作伙伴的形式參與到人類事物中,與人類共同承擔(dān)某種義務(wù),完成某個(gè)任務(wù)。即人類對(duì)其承擔(dān)的義務(wù)有所期待。如基于人工智能系統(tǒng)的兒童看護(hù)、情感交流等的研發(fā)與應(yīng)用等。因此,人工智能與人的深度融合提供了產(chǎn)生信任的語境,但上述這些現(xiàn)象是否可以被稱作是信任呢?

(二)人工智能信任的出場方式及其存在的判別依據(jù)。一般而言,信任的出現(xiàn)需要滿足如下三個(gè)條件:“(1)行動(dòng)者(agent)之間的直接交互;(2)在交互環(huán)境中,有共同的規(guī)范和倫理價(jià)值觀;(3)參與交互的各個(gè)部分是可以識(shí)別的” 〔7 〕。但在新技術(shù)發(fā)展的背景下,非直接交互的信任出場,如電子信任。因此,應(yīng)當(dāng)重新審視信任存在的判別依據(jù)。塔迪歐(Mariarosaria Taddeo)在其關(guān)于電子信任的論述中,指出上述三個(gè)條件并不能成為數(shù)字環(huán)境中存在電子信任的障礙。因?yàn)樵跀?shù)字環(huán)境中,行動(dòng)者之間的交互雖然并非都是直接的物理接觸,但卻真實(shí)存在,并可識(shí)別;在數(shù)字環(huán)境中,共同的規(guī)范和倫理價(jià)值觀由來自不同區(qū)域的不同文化形成 〔7 〕。同樣地,依據(jù)上述三個(gè)條件以及對(duì)電子信任的判別,在人工智能的環(huán)境中,人與人工智能之間的交互與數(shù)據(jù)環(huán)境中一樣,真實(shí)存在卻并非完全直接的物理式,且可識(shí)別;就共同的規(guī)范和倫理價(jià)值觀而言,阿西洛馬人工智能原則( The Asilomar AI Principle)、負(fù)責(zé)任人工智能的蒙特利爾宣言(The Montreal Declaration for Responsible AI)、人工智能合作組織原則(The Tenets of the Partnership on AI)等都是對(duì)此的響應(yīng)。

因此,通過對(duì)信任出現(xiàn)條件的解析可得出:人工智能已經(jīng)呈現(xiàn)了基于任務(wù)導(dǎo)向和目標(biāo)導(dǎo)向的信任意蘊(yùn),雖然這與傳統(tǒng)意義上的信任以及電子信任的出現(xiàn)條件有所不同。但無論如何,當(dāng)人工智能以(準(zhǔn))智能體的形式展現(xiàn)出其完成任務(wù)、實(shí)現(xiàn)目標(biāo)的能力時(shí),毫無疑問,一種策略性信任也隨之而至。這種源自人類對(duì)人工智能的期望,以及人類與人工智能的交互之中所產(chǎn)生的某種信任,恰恰也就是吉登斯所言的與知識(shí)體系、專家系統(tǒng)、抽象系統(tǒng)打交道的過程中所產(chǎn)生的信任。這種信任被解讀為“一個(gè)人或一個(gè)系統(tǒng)之可依賴性所持有的信心,在一系列給定的后果或事件中,這種信心表達(dá)了對(duì)誠實(shí)和他人的愛的信念,或者對(duì)抽象原則(技術(shù)性知識(shí))之正確性的信念” 〔3 〕30。然而,這樣的信任是否是合理的呢?

(三)反思人工智能可信任存在的合理性。當(dāng)人工智能創(chuàng)建了信任得以產(chǎn)生的可能條件,并在與人類的交互中呈現(xiàn)出某種關(guān)聯(lián)性的信任時(shí),如果人類面對(duì)“在抽象體系的交匯口,連接非專業(yè)人士與信任關(guān)系的當(dāng)面承諾,通常表現(xiàn)出明白無誤的可信任性與誠實(shí)性,并伴隨著一種‘習(xí)以為?;蜴?zhèn)定自如的態(tài)度” 〔3 〕74時(shí),就意味著默認(rèn)了技術(shù)信任的合理性。但事實(shí)并非一直如此,哲學(xué)一直在對(duì)此展開反思。

伴隨基于技術(shù)啟蒙與技術(shù)理性的現(xiàn)代性,“外界對(duì)科學(xué)和技術(shù)知識(shí)的態(tài)度又具有某種心理。這種矛盾心理居于所有信任關(guān)系——無論是抽象體系還是對(duì)個(gè)人的信任關(guān)系——的核心” 〔3 〕78。這種矛盾心理源自人類對(duì)技術(shù)的依賴以及對(duì)這種依賴的反思。如,在米切姆(Carl Mictham)關(guān)于古代懷疑論(懷疑技術(shù))、啟蒙時(shí)代的樂觀主義(促進(jìn)技術(shù)發(fā)展)和浪漫主義的焦慮(對(duì)技術(shù)的矛盾心理) 〔8 〕406這三種人與技術(shù)共在關(guān)系的分析中,對(duì)技術(shù)活動(dòng)的不信任或不安的倫理方面 〔8 〕378一直貫穿其中;在海德格爾(Martin Heidegger)對(duì)技術(shù)與人類存在天命的鄉(xiāng)愁式解析中,人與世界的存在關(guān)系、人的存在語境均由技術(shù)來決定,所有的一切都變成了持存物,甚至人類連自身生命的本質(zhì)也被交付給技術(shù)。在這種交付中,由技術(shù)對(duì)人類席卷而產(chǎn)生的對(duì)技術(shù)的無奈式被迫信任、以及對(duì)這種信任的質(zhì)疑與破除均被裹挾其中;在伊德(Don Ihde)關(guān)于人、技術(shù)與世界四種關(guān)系的解讀中,如通過眼鏡、溫度計(jì)等對(duì)外部世界進(jìn)行感知時(shí),人與技術(shù)的融合或者世界與技術(shù)的融合是具身、詮釋、它異、背景等關(guān)系的前提條件。而這種融合需要基于人類對(duì)技術(shù)或技術(shù)產(chǎn)品予以某種信任才能形成,雖然信任度有所不同。

然而,從現(xiàn)實(shí)主義的視角來看,“自然賦予人類以無數(shù)的欲望和需要,而對(duì)于緩和這些需要,卻給了他以薄弱的手段” 〔9 〕521。因此,人必須依賴社會(huì)。社會(huì)以協(xié)作、分工、互助這三種方式對(duì)人的缺陷進(jìn)行了補(bǔ)救。在這種補(bǔ)救中,技術(shù)作為人類需要的一種表征進(jìn)入到對(duì)這些需要的緩和之中,并成為人類社會(huì)的一種必備品。因此,無論人類對(duì)技術(shù)的信任是否合理,技術(shù)已經(jīng)成為人類在世的方式,并參與到了人類的事務(wù)之中。與此同時(shí),對(duì)技術(shù)的某種信任也悄然而至。但這并不意味著技術(shù)必然是可信任的,也并不意味著對(duì)其的信任就是合理的,對(duì)其的哲學(xué)思考是徒然的。恰恰相反,對(duì)實(shí)然問題的思考是哲學(xué)的應(yīng)有之義,且對(duì)這種既有現(xiàn)實(shí)的思考是通向應(yīng)然性的一條有效進(jìn)路。但與以往技術(shù)不同的是,人工智能對(duì)人類事物的參與是以可植入的方式進(jìn)入到與人深度融合之中,其所呈現(xiàn)出的實(shí)然問題,與其說是亟需展開人類對(duì)技術(shù)信任問題反思,倒不如說是亟需展開人類對(duì)自身信任問題的反思。因?yàn)楫?dāng)我們說“可信任人工智能”包括人類對(duì)人工智能的信任和人類對(duì)自身的信任兩個(gè)方面時(shí),事實(shí)上,這兩個(gè)方面歸根到底是人類對(duì)自身所制造產(chǎn)物是否可以有效應(yīng)對(duì)的解答,即關(guān)于可信任人工智能實(shí)現(xiàn)途徑的探討。

三、可信任人工智能實(shí)現(xiàn)途徑的有效性與局限性

在歐盟的“可信任人工智能的倫理框架”中,信任視為人工智能發(fā)展的前提條件,但這種信任并不是機(jī)器的一種特性。事實(shí)上,信任不僅僅在于人工智能系統(tǒng)是合乎法律的、合乎倫理的和穩(wěn)健的,還在于信任可被歸因到與人工智能全生命周期中相關(guān)的每個(gè)人和每個(gè)過程 〔2 〕。因此,對(duì)人工智能信任的考察應(yīng)當(dāng)走出外在主義的立場與批判主義的情結(jié),走向倫理學(xué)的后思式批判功能與前思式導(dǎo)引功能有效整合,從內(nèi)在主義與外在主義的融合之中,展開對(duì)可信任人工智能實(shí)現(xiàn)途徑探討。

反觀歐盟“可信任人工智能的倫理框架”的探討,其預(yù)設(shè)了兩個(gè)條件。一是,將可信任定位為人工智能未來發(fā)展的一種圖景。關(guān)于人工智能的不信任應(yīng)當(dāng)或被懸置或被排除。顯然,該框架在力圖將這種不信任排除;二是,可信任應(yīng)當(dāng)是人工智能的一種應(yīng)有屬性,信任度的提升既是人工智能未來發(fā)展一個(gè)重要的技術(shù)考量,也是其未來發(fā)展的一個(gè)倫理考量。在此背景下,該框架展開關(guān)于如何確保人工智能是可信任的探討。事實(shí)上,這種探討也就是關(guān)于“可信任人工智能”的構(gòu)建邏輯與構(gòu)建方式有效性、以及如何正確地看待可信任的探討。

就該框架的構(gòu)建邏輯而言,其依據(jù)概念闡述、路徑解析、判別依據(jù)界定三者之間的遞進(jìn)層級(jí)關(guān)系,闡述可信任人工智能的實(shí)現(xiàn)途徑。其中,該框架關(guān)于可信任人工智能組成部分的厘清、其所需必要條件的闡釋為后續(xù)其構(gòu)建的展開框定了邊界。關(guān)于技術(shù)和非技術(shù)兩個(gè)方面的構(gòu)建路徑解析為如何走向可信任提供了實(shí)踐維度的保障。即通過技術(shù)維度的可信任與倫理維度的可信任來確??尚湃稳斯ぶ悄艿膶?shí)現(xiàn)。其中,技術(shù)維度的可信任是倫理維度可信任的基礎(chǔ)與保障,倫理維度的可信任是技術(shù)發(fā)展的主旨與目標(biāo);而關(guān)于可信任人工智能關(guān)鍵條件的解碼則為可信任的判定提供了可供參考的標(biāo)尺。

就該框架所提出的構(gòu)建路徑而言,其所提出的技術(shù)方法和非技術(shù)方法這兩個(gè)維度,與其關(guān)于可信任人工智能組成部分厘清的邏輯一致。上述方法旨在滿足可信任人工智能的七個(gè)必要條件。這七個(gè)必要條件是基于基本權(quán)而產(chǎn)生的人工智能系統(tǒng)倫理框架的倫理律令,即人類自治、不傷害、公平和可解釋性(explicability)為基礎(chǔ)而提出的。該倫理律令兼顧了通用倫理原則和人類智能倫理的特殊性兩方面。其中,前三項(xiàng)為技術(shù)倫理學(xué)的通用原則,而可解釋性則是直接指向人工智能倫理,并被視為構(gòu)建用戶對(duì)人工智能信任的關(guān)鍵所在。在這里,可解釋性意指人工智能系統(tǒng)過程的透明性、能力和目標(biāo)的公開性、決策的可說明性。在當(dāng)下,由人工智能系統(tǒng)的不可解釋性所帶來的不確定性而引發(fā)的焦慮與恐懼,是對(duì)其質(zhì)疑的核心所在。因此,人工智能倫理的構(gòu)建必須對(duì)不可解釋性進(jìn)行解碼。雖然人工智能系統(tǒng)中算法和模型黑箱使得基于其所作出決策的可信任(即信任度)遭遇質(zhì)疑,但這并不意味著其不可解釋。如通過人工智能架構(gòu)的設(shè)計(jì)、通過對(duì)參與決策因素的追溯與審計(jì)等技術(shù)方法來促進(jìn)其可解釋性,提升其信任度。

這種構(gòu)建路徑將可信任置于技術(shù)、設(shè)計(jì)與倫理的調(diào)節(jié)之中,通過設(shè)計(jì)走向倫理的構(gòu)建?!暗赖路▌t在我們的心中,但它也在我們的儀器中。在到達(dá)超我(Super-ego)的傳統(tǒng)之前,為了闡述我們行動(dòng)的正確性、信任度和延續(xù)性,我們可能要增加技術(shù)的隱我(under-ego)” 〔10 〕。這種“隱我”就是隱藏在技術(shù)背后的某種自我,其可以通過設(shè)計(jì)將倫理帶入,實(shí)現(xiàn)對(duì)技術(shù)的調(diào)節(jié)。但這種隱我背后的自我需要一個(gè)給定的理念。“可信任人工智能的倫理框架”將這個(gè)理念設(shè)定為可信任,將對(duì)其的構(gòu)建進(jìn)入到技術(shù)之中,這種方法是在借助技術(shù)來構(gòu)建人類對(duì)技術(shù)的信任,進(jìn)而構(gòu)筑對(duì)人類自身的信任。該框架通過倫理學(xué)通用規(guī)則與技術(shù)自身特性的結(jié)合來確保其實(shí)現(xiàn)的同時(shí),還借助監(jiān)管、問責(zé)、治理、倫理教育等非技術(shù)方法來推進(jìn)技術(shù)層面信任度的構(gòu)建,進(jìn)而確??尚湃稳斯ぶ悄艿膶?shí)現(xiàn)。但類似于甘貝特(Diego Gambetta)對(duì)我們能否信任的追問一樣,我們?cè)撊绾握_看待“可信任人工智能”中的可信任呢?若我們不能正確地看待可信任,則會(huì)降低該框架的實(shí)踐效用。因此,該框架雖然闡述了實(shí)現(xiàn)可信任人工智能的有效方式,但卻未指出看待可信任的正確方式。

在“可信任人工智能的倫理框架”中,信任被界定為“(1)由與仁慈、能力、誠信以及可預(yù)測性有關(guān)的特定信念組成的集合(信任信念);(2)在某個(gè)有風(fēng)險(xiǎn)的情景中,一方依賴另一方的意愿(信任意向);或者(3)這些要素的組合” 〔11 〕。因此,信任是人類基于相關(guān)倫理規(guī)則,對(duì)不確定性以及風(fēng)險(xiǎn)作出的主觀判斷,是一方對(duì)另一方的態(tài)度。就人工智能而言,這種判斷不是直接發(fā)生在人際之間,是在人與技術(shù)的交互之中。一般意義上,人與技術(shù)之間的信任可以還原為人與人之間的信任,但這種還原是基于人對(duì)技術(shù)有能力掌控的前提下。

可信任人工智能作為人類對(duì)其的一種倫理訴求,與其相對(duì)應(yīng)的是不可信任的人工智能。恰如奧妮爾(Onora O'Neill)所言“信任危機(jī)不能用盲目信任來克服” 〔12〕69,同樣地,可信任人工智能不是走向盲目的信任,也不是將不可信任盲目地遮蔽,而應(yīng)當(dāng)是:

1.基于有效監(jiān)督的可信任。雖然人際之間最理想的信任模式是受托人在委托人不監(jiān)督的情況下完成任務(wù),但人與人工智能之間的信任則恰恰需要有效監(jiān)督,以避免造成對(duì)人類基本權(quán)的傷害。雖然技術(shù)維度的透明性與可解釋性等有助于提升人工智能的信任度,但人類的有效監(jiān)督是人工智能之所以被視為可信任的根源所在,因?yàn)榭尚湃尉科浔举|(zhì)而言,是人類對(duì)其的一種價(jià)值評(píng)判。

2.基于動(dòng)態(tài)視角的可信任??尚湃问腔谌祟悓?duì)人工智能的倫理訴求而對(duì)技術(shù)未來發(fā)展作出的框定,關(guān)于其判別標(biāo)準(zhǔn)制定基于通用倫理原則的框架而制定的,但這些標(biāo)準(zhǔn)并非靜態(tài)的意義完全枚舉,而是動(dòng)態(tài)式的開放體系。因此,應(yīng)當(dāng)基于技術(shù)的發(fā)展與應(yīng)用來審視可信任的判別標(biāo)準(zhǔn)。

3.基于批判視角的可信任??尚湃伪旧砭褪菍?duì)不可信任、信任以及錯(cuò)誤信任等的批判性思考,進(jìn)而,對(duì)可信任本身也應(yīng)當(dāng)持有審慎的批判態(tài)度,而不是非此即彼式的斷然。特別在人工智能與人易交互和深融合情境中,不能因技術(shù)的強(qiáng)勢(shì)性、便利性而忽視其風(fēng)險(xiǎn)性以及人的主體性;也不能因其巨大潛能所蘊(yùn)含的不確定性而忽視其給人類社會(huì)所帶來的益處。因?yàn)榭尚湃伪旧砭桶谕?、焦慮、承諾與風(fēng)險(xiǎn)。

綜上可見,當(dāng)人工智能的擬人性、準(zhǔn)主體性、對(duì)人的深度內(nèi)在嵌入性等帶來了一種顛覆性的人與技術(shù)關(guān)系,即一種深度融合式的新型合作關(guān)系時(shí),信任問題也隨之而至。因?yàn)椤昂献鞒3P枰湃?,特別是相互信任。如果是完全不信任,那么,在自由行動(dòng)者之間的合作則將失敗。進(jìn)一步說,如果信任僅僅在單方面,合作也是無效的;如果信任是盲目的,則將誘發(fā)欺騙” 〔13 〕219。

在人工智能與人的合作中,諸如由人工智能對(duì)人類決策行為的多層級(jí)介入,出現(xiàn)了輔助性、導(dǎo)引性、甚至牽制性等多種合作模式,特別是導(dǎo)引性與牽制性的合作模式,帶來了新的信任問題與信任模式,并將信任的邊界不斷拓寬,而這種拓寬卻亟需人類為其設(shè)定邊界。因此,信任邊界的重新界定、以及人與技術(shù)之間信任的重新解析成為人工智能倫理構(gòu)建研究的新論域。

“可信任人工智能的倫理框架”將人工智能的能動(dòng)性納入到了對(duì)其倫理的考察之中,將關(guān)于信任的問題轉(zhuǎn)換為信任的一種表征即可信任,并將其作為人工智能未來圖景的一個(gè)倫理描繪。該框架將倫理觀念融入關(guān)于人工智能的評(píng)判標(biāo)尺之中,并提出了信任度的構(gòu)建路徑,但其所描述的可信任人工智能構(gòu)建,事實(shí)上是在將信任問題暫且懸置或排除的基礎(chǔ)上,借助一種反向的模式,而進(jìn)行的一種自下而上的倫理夯實(shí)??梢哉f,該框架將可信任作為一種人工智能未來圖景的倫理描繪,并為人工智能時(shí)代的人與技術(shù)深度融合提供了有效的倫理導(dǎo)引,但其所擱置或排除的問題恰恰是人工智能倫理構(gòu)建必須面對(duì)的終極問題。這表現(xiàn)為:當(dāng)該框架對(duì)信任的邊界進(jìn)行拓寬時(shí),信任邊界的設(shè)定問題即該框架的局限性也隨之而來。

因此,可信任作為人工智能未來發(fā)展圖景的一種有效描繪,應(yīng)當(dāng)是在厘清信任邊界的前提下,界定其概念的內(nèi)涵與外延,指出可行的構(gòu)建路徑,制定合理且有效的判斷標(biāo)準(zhǔn),并以理性的方式對(duì)待可信任來確??尚湃稳斯ぶ悄艿膶?shí)現(xiàn)。

注 釋:

①弗洛里迪和桑德斯基于行動(dòng)者的互動(dòng)關(guān)系標(biāo)準(zhǔn),將相互作用性(interactivity)、自主性(autonomy)和適應(yīng)性(adaptability)作為判別行動(dòng)者的標(biāo)準(zhǔn)。參見:Floridi, L. and Sanders, J.W. On the Morality of Artificial Agents 〔J〕.Minds and Machines,2004(14):357-358.

參考文獻(xiàn):

〔1〕Adams,A. Stanford University launches the Institute for Human-Centered Artificial Intelligence〔EB/OL〕. https://philosophy.stanford.edu/news/stanford-university-launches-institute-human-centered-artificial-intelligence.

〔2〕European Commission. Ethics Guidelines for Trustworthy AI 〔EB/OL〕. https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines.

〔3〕安東尼·吉登斯.現(xiàn)代性的后果〔M〕.田禾,譯.南京:譯林出版社,2007.

〔4〕閆宏秀.技術(shù)過程的價(jià)值選擇研究〔M〕.上海:上海世紀(jì)出版社集團(tuán),2015.

〔5〕Luhmann,N.Trust and Power〔M〕. Cambridge: Polity Press,2017.

〔6〕鄭也夫.信任論〔M〕.北京:中信出版社,2015.

〔7〕Taddeo,M. Defining Trust and E-Trust:From Old Theories to New Problems〔J〕.International Journal of Technology and Human Interaction,2009 (2):26.

〔8〕卡爾·米切姆.通過技術(shù)思考——工程與哲學(xué)之間的道路〔M〕.陳凡,朱春艷,等譯.沈陽:遼寧人民出版社,2008.

〔9〕大衛(wèi)·休謨.人性論〔M〕. 關(guān)文運(yùn),譯.北京:商務(wù)印書館,2016.

〔10〕Latour, B.Morality and Technology: The End of the Means〔J〕.VEENC.Theory, Culture & Society: Explorations in Critical Social Science,2002(19):254-255.

〔11〕Siau, K.andWeiyu,W.Building Trust in Artificial Intelligence Machine Learning and Robotics〔J〕.Cutter Business Technology Journal,2018(2):47.

〔12〕奧妮爾.信任的力量〔M〕.閆欣,譯.重慶:重慶出版社, 2017.

〔13〕Gambetta,D.Trust:Making and Breaking Cooperative Relations〔M〕.Oxford:Basil Blackwell,1988.

責(zé)任編輯 蘇玉娟

猜你喜歡
信任度倫理人工智能
淺談我國社會(huì)工作倫理風(fēng)險(xiǎn)管理機(jī)制的構(gòu)建
2019:人工智能
人工智能與就業(yè)
全球民調(diào):中國民眾對(duì)政府信任度最高
數(shù)讀人工智能
親組織非倫理行為研究
親組織非倫理行為研究
下一幕,人工智能!
非倫理領(lǐng)導(dǎo)對(duì)員工職場非倫理行為的作用機(jī)制研究
2014,如何獲得信任