王 天 恩
(上海大學(xué) 社會(huì)科學(xué)學(xué)部,上海 200444)
由于人工智能倫理不僅包括人工智能與人類的倫理關(guān)系,而且越來越涉及人工智能本身的倫理問題,更具整體性的探索必須深入到智能算法層次。在智能算法層次,倫理不再是涉及特定領(lǐng)域的問題,而是越來越呈現(xiàn)為一個(gè)貫穿整體的維度。在人工智能算法層次,倫理問題所涉及的已經(jīng)不是與智能體的理解能力甚至核心機(jī)制相分離的單純倫理領(lǐng)域,而是與人工智能算法包括核心機(jī)制及其進(jìn)化甚至機(jī)器智能體的存在性基礎(chǔ)一體化的倫理維度。
人工智能倫理維度的最深層次就是智能算法倫理。人工智能本身倫理問題的更深入討論必須切入智能算法層次,從人工智能倫理的算法根源開始。
人工智能發(fā)展所引發(fā)的倫理問題可以大致劃分為兩種基本類型:一是通用人工智能發(fā)展給人類帶來的存在性風(fēng)險(xiǎn)引發(fā)的倫理問題;二是專用人工智能引發(fā)的技術(shù)性倫理問題。專用人工智能引發(fā)的倫理問題又可以分為兩類:專用人工智能的算法設(shè)計(jì)和應(yīng)用倫理。算法的倫理問題作為人工智能的核心機(jī)制領(lǐng)域不僅貫穿專用人工智能倫理和通用人工智能倫理,而且隨著其發(fā)展而將倫理維度不斷引向深入,隨著其自主性的發(fā)育發(fā)展,算法發(fā)展到智能算法階段。
由于具有從單純的工具到逐漸出現(xiàn)自主行為的發(fā)展過程,作為以智能算法為核心的智能體,人工智能和開放環(huán)境之間的相互作用可能產(chǎn)生設(shè)計(jì)時(shí)不可能預(yù)料到的結(jié)果,這就會(huì)帶來兩方面的困難:一方面,即使程序員做對(duì)了每件事,人工智能的本域特定行為也可能是不可預(yù)測(cè)的;另一方面,系統(tǒng)安全性的驗(yàn)證成為更大的挑戰(zhàn),因?yàn)槲覀儽仨汄?yàn)證系統(tǒng)正在嘗試做什么,而不是能夠在所有操作語(yǔ)境中驗(yàn)證系統(tǒng)的安全行為[1]。隨著智能算法自主性的發(fā)展,這種情況會(huì)越來越突出。對(duì)人工智能行為預(yù)測(cè)和驗(yàn)證的兩方面困難越來越清楚地表明,必須深入到人工智能倫理的算法根源。
從新一代人工智能發(fā)展看,倫理的算法根源可以追溯到大數(shù)據(jù)處理。人工智能的倫理問題根源于從大數(shù)據(jù)處理到作為智能體自主行動(dòng)整個(gè)過程所涉及的智能算法。在相應(yīng)的大數(shù)據(jù)處理過程中,倫理問題主要出現(xiàn)在三個(gè)時(shí)間節(jié)點(diǎn):當(dāng)大數(shù)據(jù)移到一組選定的變量時(shí)、當(dāng)選定的數(shù)據(jù)移到由算法或倫理研究產(chǎn)生的結(jié)果時(shí)以及當(dāng)這些結(jié)果移到明確的行動(dòng)計(jì)劃時(shí)[2],而當(dāng)這三個(gè)節(jié)點(diǎn)的控制由算法執(zhí)行,算法設(shè)計(jì)便具有重要倫理意蘊(yùn)。
智能算法對(duì)大數(shù)據(jù)的處理是人工智能倫理問題產(chǎn)生的起點(diǎn),由此開始了智能算法倫理的發(fā)展進(jìn)程。從智能算法倫理的發(fā)展可以看到倫理的不同算法根源及其分布,從而有助于進(jìn)入算法倫理的系統(tǒng)和更深層次把握。
在智能算法自主性越來越強(qiáng)和算法倫理層次越來越復(fù)雜這一發(fā)展形勢(shì)下,最近一項(xiàng)關(guān)于算法倫理的綜合性研究——基于倫理算法根源——提出了一個(gè)“算法倫理圖譜”(ethics of algorithms map),為討論智能算法倫理提供了一個(gè)概念框架,在此基礎(chǔ)上可以更好診斷和應(yīng)對(duì)智能算法的倫理挑戰(zhàn)。從智能算法的層次看,這一概念框架正是主要關(guān)注(半)自主智能算法,涉及三種相互關(guān)聯(lián)的情況:圖譜將所涉及算法用于(a)將數(shù)據(jù)轉(zhuǎn)化為給定結(jié)果的證據(jù)(從而結(jié)論),然后將這一結(jié)果用于(b)觸發(fā)和激勵(lì)一種(就其本身而言,或當(dāng)與其他行動(dòng)相結(jié)合時(shí))在倫理上可能不是中性的行動(dòng),這項(xiàng)以復(fù)雜和(半)自主方式進(jìn)行的工作使(c)算法驅(qū)動(dòng)的行為效果的歸責(zé)復(fù)雜化。也就是說,智能算法發(fā)展到一定階段,可以具有自主性,因此能以自主或半自主的復(fù)雜方式觸發(fā)和激勵(lì)自主行動(dòng),從而產(chǎn)生倫理非中性而難以歸責(zé)的復(fù)雜行為。由此,這個(gè)概念框架從根源層次展開了算法的整個(gè)譜系,構(gòu)成了一個(gè)“算法倫理圖譜”,確定了產(chǎn)生于智能算法使用的五種倫理關(guān)切:三種“認(rèn)知關(guān)切”(epistemic concerns)和兩種“規(guī)范關(guān)切”(normative concerns)。在這五種倫理關(guān)切之外,再加上“可追蹤性”(traceability),實(shí)際上是從算法根源劃分人工智能倫理問題的六個(gè)方面。
在這個(gè)智能算法倫理圖譜中,三種“認(rèn)知關(guān)切”包括“非決定性證據(jù)”(inconclusive evidence)、“難以理解的證據(jù)”(inscrutable evidence)和“誤導(dǎo)性證據(jù)”(misguided evidence)?!胺菦Q定性證據(jù)”源自更與符號(hào)主義進(jìn)路相關(guān)的統(tǒng)計(jì)性;“難以理解的證據(jù)”主要源于解釋機(jī)器學(xué)習(xí)算法使用的內(nèi)在困難,這些困難存在于許多數(shù)據(jù)點(diǎn)中每一數(shù)據(jù)點(diǎn)所起作用上,包括導(dǎo)出結(jié)論、導(dǎo)致原則和實(shí)踐限制;“誤導(dǎo)性證據(jù)”則主要源于數(shù)據(jù)的關(guān)聯(lián)誤解,這種關(guān)聯(lián)發(fā)生在數(shù)據(jù)和其不能說明的問題之間,數(shù)據(jù)共享給這種誤導(dǎo)提供了條件?!耙?guī)范關(guān)切”包括“不公正結(jié)果”(unfair outcomes)和“轉(zhuǎn)化效應(yīng)”(transformative effects)?!安还Y(jié)果”來自算法的倫理評(píng)價(jià),“轉(zhuǎn)化效應(yīng)”所關(guān)注的則是智能算法結(jié)果的影響。算法可以影響我們?nèi)绾问故澜绺拍罨⒏淖兤渖鐣?huì)和政治組織。類如形塑過程的算法活動(dòng),通過以新的、意想不到的方式理解和概念化世界,并根據(jù)它所產(chǎn)生的直覺觸發(fā)和激勵(lì)行動(dòng)重新本體化世界[3]?!稗D(zhuǎn)化效應(yīng)”延伸到智能算法所導(dǎo)致倫理問題的后續(xù)效應(yīng),“可追蹤性”則追溯到智能算法執(zhí)行之前,這已經(jīng)完全導(dǎo)向智能算法層次的倫理問題性質(zhì),六個(gè)方面構(gòu)成了人工智能倫理問題的算法根源甚至是機(jī)制圖譜。
深入到算法根源的倫理圖譜,為更深入理解人工智能體發(fā)展的倫理維度提供了更直接的基礎(chǔ)。在智能算法自主性發(fā)展及其相應(yīng)倫理根源的基礎(chǔ)上,可以大大深化關(guān)于人工智能倫理算法根源的理解。
關(guān)于人工智能倫理的算法根源,算法歧視的產(chǎn)生最為典型。通過實(shí)際案例分析,普林斯頓大學(xué)的弗里德曼(Batya Friedman)和尼森鮑姆(Helen Nissenbaum)對(duì)計(jì)算機(jī)系統(tǒng)的偏見及其根源作了系統(tǒng)研究,認(rèn)為發(fā)展出了先前存在的偏見、技術(shù)的偏見和涌現(xiàn)的偏見三類:先前存在的偏見根源于社會(huì)制度、實(shí)踐和態(tài)度,技術(shù)的偏見源于技術(shù)上的限制或考慮,涌現(xiàn)的偏見產(chǎn)生于使用的語(yǔ)境[4]。埃里克·戈德曼(Eric Goldman)的研究表明,偏見可能產(chǎn)生于在技術(shù)產(chǎn)生的“社會(huì)制度、實(shí)踐和態(tài)度”中發(fā)現(xiàn)的預(yù)先存在的社會(huì)價(jià)值、技術(shù)限制以及使用語(yǔ)境涌現(xiàn)的方面。社會(huì)偏見可以被個(gè)別設(shè)計(jì)者有目的地嵌入到系統(tǒng)設(shè)計(jì)中,例如,可以在搜索引擎索引和排名標(biāo)準(zhǔn)的手動(dòng)調(diào)整中看到[5]。如果做一個(gè)大致概括,算法歧視不僅源自設(shè)計(jì)者和使用者的偏見,而且源自作為根據(jù)的算法邏輯,因此算法歧視有兩種基本類型:一是源自算法設(shè)計(jì)者成見的算法歧視;二是源自算法邏輯的算法歧視。
算法決策和數(shù)據(jù)權(quán)重設(shè)置導(dǎo)致的算法歧視一般都屬于源自算法邏輯的算法歧視,這方面的實(shí)例在應(yīng)用中越來越多。針對(duì)男同性戀約會(huì)應(yīng)用程序Grindr的GooglePlay商店頁(yè)面,被作為確定用戶是否生活在性行為罪犯附近的類似應(yīng)用程序推薦;Flickr的自動(dòng)照片標(biāo)記暗示非裔美國(guó)人的臉標(biāo)記為“猿”;搜索非裔美國(guó)人的名字更有可能出現(xiàn)暗示此人有被逮捕記錄的廣告[6]。這些都屬于無意產(chǎn)生的歧視,關(guān)于其根源,有研究做了系統(tǒng)總結(jié):算法歧視可以有不同來源。首先,在算法決策中輸入數(shù)據(jù)的權(quán)重可能很低,從而導(dǎo)致不同的影響。例如,作為一種間接歧視形式,預(yù)見性警務(wù)算法中過分強(qiáng)調(diào)郵政編碼可能會(huì)導(dǎo)致低收入的非裔美國(guó)人社區(qū)與犯罪地區(qū)相關(guān)聯(lián),并因此而采用基于群體成員身份的特定目標(biāo)。其次,使用算法本身的決定可以引發(fā)歧視。分類可以被視為直接歧視的一種形式,在這種情況下,算法被用于完全不同的處理。再次,算法可能因在不同情況下誤用某些模型而導(dǎo)致歧視。最后,在反饋循環(huán)形式中,有偏差的訓(xùn)練數(shù)據(jù)既可以作為算法使用的證據(jù),也可以用來證明算法的有效性[7]。由此可以看到的更深層次內(nèi)容則是:機(jī)器倫理的問題事實(shí)上與人工智能算法的發(fā)展、智能算法的進(jìn)化機(jī)制問題“合二為一”。作為這一點(diǎn)的表現(xiàn)就是從專用人工智能到通用人工智能的發(fā)展問題,在這里,不再存在傳統(tǒng)學(xué)科中單純的倫理領(lǐng)域,而是只能看到一個(gè)整體存在的倫理維度,這一點(diǎn),隨著智能算法自主性的發(fā)展越來越明顯。
作為倫理維度,算法的倫理問題隨著人工智能的應(yīng)用越來越普遍,而智能算法的根本倫理問題歸根結(jié)底是由其自主性引發(fā)的。現(xiàn)代人工智能和機(jī)器人系統(tǒng)的特點(diǎn)是高度自治和不斷提高的自主性,同時(shí),它們?cè)谧詣?dòng)駕駛、服務(wù)機(jī)器人和數(shù)字個(gè)人助理等領(lǐng)域的應(yīng)用也越來越接近人類。從這兩種發(fā)展的結(jié)合中產(chǎn)生了“人工智能倫理學(xué)”研究領(lǐng)域,在這一領(lǐng)域,人們認(rèn)識(shí)到自主機(jī)器的行為包含道德維度,并試圖回答我們?nèi)绾螛?gòu)建道德機(jī)器的問題[8]。道德機(jī)器概念的提出意味著智能機(jī)器與人類一樣是倫理主體,進(jìn)而其可以發(fā)展成為與人類倫理學(xué)一樣的學(xué)科,正是由此,人們提出了人工智能倫理學(xué)。
人工智能倫理學(xué)可以理解為研究人工智能倫理問題的學(xué)科,也可以理解為人工智能研究的倫理維度。前者是關(guān)于人工智能的傳統(tǒng)倫理學(xué)研究,而后者則屬于科學(xué)和哲學(xué)一體化的倫理維度研究,這絕不僅僅是關(guān)于人工智能倫理學(xué)的狹義和廣義理解,而是涉及科學(xué)和哲學(xué)甚至更廣范圍的重大范式轉(zhuǎn)換,涉及兩種層次不同的研究致思。隨著智能算法的發(fā)展,倫理維度的研究越來越重要,這不僅是因?yàn)閭惱硌芯筷P(guān)乎人工智能發(fā)展所導(dǎo)致的存在性危機(jī)及其人類應(yīng)對(duì),而且直接關(guān)系到通用人工智能的研究進(jìn)路,這也是為什么隨著人工智能的發(fā)展,相關(guān)倫理問題具有與以往完全不同性質(zhì)的原因。正是在智能算法的發(fā)展本身,可以看到人工智能倫理問題的算法源起和發(fā)展,從而為深入系統(tǒng)研究智能算法的倫理屬性奠定前提性基礎(chǔ)。
隨著算法的智能化發(fā)展,人工智能算法的倫理屬性將經(jīng)歷一個(gè)從人類投射到自身發(fā)育的過程。隨著本身智能程度的提升,算法會(huì)被賦予一定的任務(wù),從而表現(xiàn)出行為的目的性,這是人工智能算法的屬人倫理屬性。目前,公眾討論所關(guān)注的焦點(diǎn)是一類特定的決策算法,例如,在特定情況下采取最佳行動(dòng)、對(duì)數(shù)據(jù)的最佳解釋等,涉及數(shù)據(jù)和規(guī)則,增加或取代人類的分析和決策[3]。由此所涉及的主要還是人類倫理屬性的人工智能映射,而自身倫理屬性的獲得使智能算法倫理進(jìn)入了一個(gè)倫理發(fā)展的全新階段。只有具有自身需要的智能算法,才可能具有自身的目的性;而只有具有自身目的性的智能算法,才可能具有類人倫理屬性,因此人工智能算法的倫理屬性由人工智能設(shè)計(jì)中體現(xiàn)人類需要和目的的算法賦予,并最終與智能算法的發(fā)展特別是自主進(jìn)化密切相關(guān)。
早在人工智能研究之前,算法就已經(jīng)經(jīng)歷了一個(gè)漫長(zhǎng)的過程?!八惴ā币辉~源自公元9世紀(jì)撰寫《印度計(jì)算法》(Algoritmidenumeroindorum)一書的波斯數(shù)學(xué)家穆罕默德·穆薩·花拉子米,“花拉子米”(al-Khuwārizmī)一名就成了“算法”(algorithm)一詞的來源[9]。隨著人工智能的發(fā)展,算法發(fā)生了根本變化。在一開始,任何程序或決策過程,無論定義多么糟糕,都可以在媒體和公共話語(yǔ)中被稱為“算法”[10]。算法可以是解決數(shù)學(xué)問題的運(yùn)算步驟,甚至可以泛指解決問題的進(jìn)程,但自從與智能相聯(lián)系,就有了可以自己執(zhí)行的智能算法。一旦具有自己執(zhí)行的能力,智能算法的倫理屬性便隨即開始生成,而當(dāng)智能算法開始自主進(jìn)化并構(gòu)成一個(gè)類群,機(jī)器智能就將逐漸獲得自己的倫理屬性——智能算法本身的倫理屬性。
智能算法本身倫理屬性的逐漸獲得與人類構(gòu)成了復(fù)雜的倫理關(guān)系,這屬于一個(gè)新的研究領(lǐng)域——筆者稱之為“智能倫理”,限于篇幅只能另文展開,本文主要討論人為設(shè)計(jì)到自主進(jìn)化智能算法的倫理屬性。
在自主進(jìn)化之前,智能算法所具有的只是屬人倫理屬性,這是人類倫理屬性的人工智能映現(xiàn),因此,算法設(shè)計(jì)會(huì)是越來越價(jià)值敏感的,算法設(shè)計(jì)領(lǐng)域甚至已經(jīng)有了“價(jià)值敏感設(shè)計(jì)”(Value-Sensitive Design,VSD)的概念。
如果說,智能算法的價(jià)值負(fù)載開始都是無意識(shí)的,“價(jià)值敏感設(shè)計(jì)”則是有意識(shí)地納入價(jià)值因素。價(jià)值敏感設(shè)計(jì)方法可作為一種工程教育工具(包括但不限于計(jì)算機(jī)工程),以彌合技術(shù)設(shè)計(jì)考慮與通過人類價(jià)值表達(dá)的倫理關(guān)切之間的差距。價(jià)值敏感設(shè)計(jì)以道德認(rèn)識(shí)論為基礎(chǔ),通過一種考察概念、經(jīng)驗(yàn)和技術(shù)問題的迭代三方設(shè)計(jì)方法,說明設(shè)計(jì)過程中的人類價(jià)值[11]。算法創(chuàng)構(gòu)應(yīng)當(dāng)是價(jià)值敏感的,即對(duì)所創(chuàng)構(gòu)的算法具有清醒的價(jià)值意識(shí)。由于價(jià)值意識(shí)受著見識(shí)的極大影響,這又與道德想象力的未來把握密切相關(guān)。道德想象力是一種力量,它迫使我們將最高可能的現(xiàn)實(shí)和最大可想象的要求賦予一個(gè)不是我們自己的思想、行為或人,并且不以任何明顯的方式接近我們[12]。對(duì)于道德想象力來說,越來越關(guān)鍵的是把握未來的能力,即未來把握力,因?yàn)橐粋€(gè)行為是否符合道德,在越來越大程度上取決于對(duì)未來發(fā)展的預(yù)見,一種行為眼前看可能是道德的,但長(zhǎng)遠(yuǎn)看卻也許恰恰相反。如果說這一點(diǎn)在以往還不是那么引人注目,那么在智能算法設(shè)計(jì)中,倫理后果未來預(yù)見的重要性則達(dá)到了無以復(fù)加的程度,它以越來越大權(quán)重決定智能算法的倫理屬性。
關(guān)于人工智能算法的倫理屬性,可以通過算法歧視得到最具代表性的說明。目前所謂算法歧視,既有設(shè)計(jì)者無意導(dǎo)致,也有設(shè)計(jì)者或使用者有意為之;既可能產(chǎn)生于偏見,也可能產(chǎn)生于智能算法設(shè)計(jì)的合理性等因素。許多文獻(xiàn)討論到歧視是如何從有偏見的證據(jù)和決策中產(chǎn)生的,而一些社會(huì)偏見可能是無意的、更廣泛的文化或組織價(jià)值觀的微妙反映,例如,機(jī)器學(xué)習(xí)算法從人類標(biāo)記的數(shù)據(jù)中訓(xùn)練,不經(jīng)意地學(xué)會(huì)反映標(biāo)記者的偏見。幾乎在所有算法設(shè)計(jì)環(huán)節(jié)都可能導(dǎo)致無意歧視,分析可以無意中創(chuàng)建一個(gè)證據(jù)基礎(chǔ)導(dǎo)致歧視[3]。分析環(huán)節(jié)都可能這樣,由于具體條件抽離的根據(jù)和方式等,涉及概括的抽象描述可能更是如此。在智能算法中,無論用以訓(xùn)練的數(shù)據(jù)還是算法本身及其使用都可能造成偏差。一方面,算法組織系統(tǒng)中毫無疑問存在偏見;另一方面,算法反映了程序員和數(shù)據(jù)集的偏見。一方面,算法依賴的數(shù)據(jù)往往是有限的、不足的或不正確的[13];另一方面,偏差意味著不可靠,“垃圾進(jìn),垃圾出”(Garbage in-Garbage out)是對(duì)低質(zhì)量數(shù)據(jù)輸入導(dǎo)致數(shù)據(jù)輸出不可靠的通俗說法[14]。這充分說明在偏差導(dǎo)致歧視等算法倫理方面,智能算法與大數(shù)據(jù)基礎(chǔ)存在內(nèi)在關(guān)聯(lián),因此,對(duì)歧視的關(guān)切已開始在關(guān)于大數(shù)據(jù)倫理的討論中生根,這并不奇怪[15],而且,智能算法造成的偏差不是在數(shù)據(jù)造成的偏差基礎(chǔ)上的簡(jiǎn)單疊加,在智能算法設(shè)計(jì)的可能偏差基礎(chǔ)上,數(shù)據(jù)造成的偏差可能還會(huì)放大,產(chǎn)生不確定關(guān)系。人們?nèi)找嬲J(rèn)識(shí)到,用于促進(jìn)各種操作的算法可以再現(xiàn)或造成偏差,這可能是因?yàn)樗惴ǖ挠?xùn)練數(shù)據(jù)集本身在某種程度上有偏差,或者因?yàn)樗惴ū旧淼牟僮鳟a(chǎn)生了偏差。在涉及人工智能缺乏透明度的地方,這將是一個(gè)特別困難的問題[16]。由此可見大數(shù)據(jù)基礎(chǔ)上智能算法的復(fù)雜性,從而看到這種復(fù)雜性基礎(chǔ)上智能算法的倫理屬性。
從算法的發(fā)展看,所謂“算法歧視”在不同階段可以有不同性質(zhì)。在專用人工智能算法中,由于歧視主要源自設(shè)計(jì)者的無意疏忽或有意偏見,因而只是源于設(shè)計(jì)者,而不是算法本身的歧視,確切地說屬于算法產(chǎn)生的不公正現(xiàn)象,還不是真正意義上的歧視。只有當(dāng)發(fā)展到通用人工智能,智能算法開始具有自主進(jìn)化的能力,才會(huì)出現(xiàn)真正意義上的算法歧視。隨著智能算法自主性的發(fā)展,會(huì)出現(xiàn)智能算法自發(fā)形成的歧視。
智能算法自發(fā)出現(xiàn)的歧視最初是從人類學(xué)來的。研究表明,人工智能可以從人類語(yǔ)言數(shù)據(jù)中習(xí)得偏見,因此在智能算法設(shè)計(jì)中,作為智能算法前提性基礎(chǔ),數(shù)據(jù)等條件的長(zhǎng)遠(yuǎn)考慮具有越來越重要的地位,而其中最為根本的則是智能算法設(shè)計(jì)中的前提性預(yù)設(shè),這與智能算法的人類理解密切相關(guān)。
算法偏見還與算法輸出的人類理解和解釋有關(guān),算法的輸出也需要解釋(例如,一個(gè)人應(yīng)該根據(jù)算法的要求做什么),對(duì)于行為數(shù)據(jù),“客觀的”相關(guān)性可以反映解釋者的無意識(shí)的動(dòng)機(jī)、特定的情感、深思熟慮的選擇、社會(huì)經(jīng)濟(jì)決定、地理或人口影響。用這些術(shù)語(yǔ)中的任何一個(gè)來解釋相關(guān)關(guān)系都需要額外應(yīng)證——在統(tǒng)計(jì)模型中,意義并不是自明的。不同的度量標(biāo)準(zhǔn)使個(gè)體和群體的某些方面可見,而其他方面則感覺不到,因此,不能假定觀察者的解釋正確地反映了行為者的覺知,而不是解釋者的偏見[3]。這是人類偏見在專用人工智能算法中起作用的方式,而在通用人工智能算法中,人類的作用方式則主要集中在最為關(guān)鍵的前提性規(guī)定環(huán)節(jié)。具體到算法歧視問題,就是必須有前提性規(guī)定層次的算法公正整體觀照。
在智能算法層次,算法公正得到機(jī)制性凸顯。算法歧視應(yīng)當(dāng)是算法公正的負(fù)面反映,可以歸入更高層次的算法公正。智能算法的發(fā)展層次越高,越必須在更高層次考慮算法公正問題,由此所突出的,正是公正的層次性。智能算法的發(fā)展使算法公正越來越復(fù)雜,一方面,公正的層次性在智能算法中才得以真正呈現(xiàn);另一方面,公正層次決定了公正的性質(zhì),低層次的公正可以是高層次的不公。有典型案例表明:值得注意的是,算法是否公正有時(shí)候與人們的直覺并不一致,比如在男女配對(duì)的配置算法中,如果規(guī)定只能男性向女性求婚,女性只能同意或者拒絕,那么結(jié)果是有利于男性。應(yīng)該注意的是,這個(gè)算法有利于做提議的人(在這種情況下是男人)[17],這無疑是十分耐人尋味的,在婚配中,讓男性主動(dòng)女性被動(dòng)符合大多數(shù)文化中尊重女性的觀念,這看上去是公正的,但實(shí)際效果卻恰恰相反,“尊重”導(dǎo)致選擇的機(jī)會(huì)減少,選擇的機(jī)會(huì)少導(dǎo)致來自“尊重”的不公平,這一案例典型地表現(xiàn)了智能算法公正的層次性及其所帶來的復(fù)雜性,它意味著智能算法必須對(duì)數(shù)據(jù)等足夠敏感,因此在智能算法中,廣泛采取了一種稱為“敏感數(shù)據(jù)”的視域,敏感數(shù)據(jù)不僅包括那些明確命名的變量,而且包括與它們相關(guān)的任何變量[15]。由于隨著變量的增加和關(guān)系的復(fù)雜化,變量之間關(guān)系的把握會(huì)遇到“組合爆炸”,而“組合爆炸”意味著人類面臨不可能把握所有具體關(guān)系的形勢(shì)。智能算法設(shè)計(jì)之所以具有這么高度的價(jià)值敏感性,主要因?yàn)樗惴ú粌H非常敏感地涉及公正和歧視,而且涉及透明性和可解釋性,特別是責(zé)任鴻溝問題,從而涉及人工智能算法的倫理原則。
從長(zhǎng)遠(yuǎn)看,在當(dāng)代發(fā)展中,人工智能發(fā)展對(duì)人類的倫理挑戰(zhàn)不僅最為嚴(yán)峻而且最為系統(tǒng),系統(tǒng)研究人工智能的倫理原則,隨著智能算法的發(fā)展越來越迫切。
在指導(dǎo)人工智能的開發(fā)和使用方面,在集大成基礎(chǔ)上,微軟最近系統(tǒng)定義了六項(xiàng)倫理原則,以確保人工智能系統(tǒng)公平、可靠、保護(hù)隱私、包容、透明和負(fù)責(zé)等。2018年微軟發(fā)表的《未來計(jì)算》一書,認(rèn)為現(xiàn)在已經(jīng)有可能開始定義六項(xiàng)倫理原則,以指導(dǎo)人工智能的開發(fā)和應(yīng)用,這些原則應(yīng)確保人工智能系統(tǒng)是公平、可靠和安全的,保護(hù)隱私和有保障的,包容、透明和可問責(zé)的[18]?!段磥碛?jì)算》所涉及的歸根結(jié)底主要是智能算法,這是從智能算法發(fā)展長(zhǎng)遠(yuǎn)著眼的必然結(jié)果,其所系統(tǒng)化的六項(xiàng)原則也是對(duì)相關(guān)領(lǐng)域研究具有代表性的概括產(chǎn)物。
在這一人工智能開發(fā)和應(yīng)用的倫理原則系統(tǒng)中,可以大致看到三個(gè)層次:一是標(biāo)準(zhǔn),包括公平和包容;二是基礎(chǔ),包括可靠、安全、隱私保護(hù)和保障;三是前提,包括透明和可問責(zé)。
在標(biāo)準(zhǔn)層次,“公平”處于六項(xiàng)原則之首。為了確保公平,需要通過培訓(xùn),使人理解人工智能結(jié)果的含義和影響,彌補(bǔ)人工智能決策中的不足。公平問題源自人工智能具有某種程度的自主或設(shè)定選擇的能力或功能,與前提性規(guī)定的設(shè)置有關(guān)。公平和包容密切相關(guān),前提性預(yù)設(shè)同樣涉及包容問題,包容所涉及的仍然是規(guī)定設(shè)置的合理性。為了確??煽啃院桶踩?,需要協(xié)調(diào)好人類過度信賴機(jī)器以及機(jī)器與人類利益之間沖突的矛盾。
基礎(chǔ)層次的核心概念是可靠,沒有可靠性,安全、隱私和保障都失去基礎(chǔ)。在談到可靠性時(shí),伯朗格(Jérme Béranger)提出了可靠性的概念不直接屬于由新信息和通信技術(shù)產(chǎn)生的道德框架,但應(yīng)由三個(gè)定義明確的參數(shù)提供說明:可由培訓(xùn)期間使用的數(shù)據(jù)通過其組成或資格產(chǎn)生的偏見、算法運(yùn)行的有效性以及算法的幾率性及其不確定性質(zhì)和方面[2]。缺乏可靠性基礎(chǔ),安全性就談不上,同樣,隱私保護(hù)和保障必須建立在可靠性基礎(chǔ)之上??煽啃院桶踩缘炔皇侨斯ぶ悄芩赜械模皇窃绞菍哟胃叩淖詣?dòng)系統(tǒng),可靠性和安全性的問題越突出,而隱私等的保障則與智能化密切相關(guān),因而透明性和可責(zé)性是人工智能倫理的前提性原則。在目前的專用人工智能研究中,可靠性和安全性都以透明性為前提條件。
前提性層次更為復(fù)雜,研究也相應(yīng)更多。對(duì)于專用人工智能算法而言,以透明性為基本前提,因此在現(xiàn)階段,透明性一直是人工智能倫理的重要原則,以至提出了“智能透明”(smart transparency)[3]的概念。在一般算法設(shè)計(jì)中,要求算法透明不僅重要而且具有合理性。算法不透明,現(xiàn)有關(guān)于人工智能算法的其他倫理原則就失去了前提。問題在于智能算法進(jìn)入自主進(jìn)化之后,自主進(jìn)化的智能算法發(fā)展到一定程度,可解釋性就會(huì)越來越喪失,從而透明性也就越來越不再可能。
智能算法的發(fā)展必定走向不透明,但關(guān)鍵的問題在于:在算法不可能透明的情況下,怎么做到可問責(zé)。在智能算法的倫理原則中,最能表明造世倫理性質(zhì)的“可責(zé)性”不在造世倫理層次考慮問題,涉及人工智能的很多責(zé)任困境就不可能真正找到出路,特別是所謂“責(zé)任鴻溝”[19]困境,這也是因?yàn)槿斯ぶ悄艿目韶?zé)問題在更深層次涉及人工智能和人類作為一個(gè)整體的最重要關(guān)系。
機(jī)器學(xué)習(xí)開啟的智能算法自主性發(fā)展進(jìn)程帶來了問責(zé)的嚴(yán)峻挑戰(zhàn)。歸責(zé)可能同時(shí)指向幾個(gè)道德主體,這是在智能算法向自主進(jìn)化過程中必定出現(xiàn)的問題,在人類智能設(shè)計(jì)的人工智能自主性不斷增強(qiáng)的過程中,人工智能的應(yīng)用必定經(jīng)歷一個(gè)責(zé)任主體的過渡銜接過程:由智能算法的人類設(shè)計(jì)者和使用者到完全自主進(jìn)化的機(jī)器智能體。正是在這一過渡銜接階段,必定出現(xiàn)非單一責(zé)任主體的現(xiàn)象,而多個(gè)道德主體勢(shì)必導(dǎo)致復(fù)雜的責(zé)任關(guān)系,因此隨著責(zé)任關(guān)系的復(fù)雜化,在智能算法發(fā)展過程中,責(zé)任鴻溝是一個(gè)必定要出現(xiàn)的重要問題。
人工智能算法的透明性和可責(zé)性原則涉及更為復(fù)雜的內(nèi)容,必須另文討論。上述關(guān)于智能算法的倫理原則事實(shí)上都具有基礎(chǔ)性質(zhì)。除了這些基本原則,在智能算法倫理原則研究中還提出了一些操作性原則,這些倫理原則與人工智能算法的倫理規(guī)制更直接關(guān)聯(lián)在一起。
提出人工智能算法操作性倫理原則的典型代表,當(dāng)屬伯朗格。在系統(tǒng)研究基礎(chǔ)上,伯朗格提出了四項(xiàng)原則,包括“自治原則”“仁愛原則”“無惡意原則”“正義原則”,在這些操作性倫理原則中,又各自包含若干規(guī)則。伯朗格關(guān)于智能算法的四項(xiàng)原則,既是智能算法操作性倫理原則研究最具代表性的成果,也是這一領(lǐng)域的最新研究進(jìn)展。
在四項(xiàng)原則的基礎(chǔ)上,伯朗格建立起關(guān)于智能算法的十二個(gè)規(guī)則。倫理規(guī)則的目的是通過將命令強(qiáng)加于個(gè)人,在一個(gè)組織中建立秩序和社會(huì)結(jié)構(gòu),他們通過完善適當(dāng)?shù)膫惱矸此伎蚣軄矸乐篃o政府狀態(tài),它們的內(nèi)容是可調(diào)整的,可根據(jù)語(yǔ)境、環(huán)境、空間和時(shí)間加以修改。通過以往的歷史-社會(huì)-文化,每一個(gè)國(guó)家都有自己的倫理規(guī)則。通過給倫理原則以具體表達(dá),使其存在于一定的情境和語(yǔ)境中,這些倫理規(guī)則包括一個(gè)令人印象深刻的結(jié)構(gòu)內(nèi)涵,它們是道德方法的調(diào)整變量,以應(yīng)對(duì)特定的問題,特別是在數(shù)字世界[2]。自治原則包括兩條主要的道德準(zhǔn)則,即:尊重個(gè)人,將其視為充分參與決策或行動(dòng)的行動(dòng)者;自由意志,特別是與專業(yè)人員的專家自學(xué)制度結(jié)果有關(guān)及在不受外部影響和充分知情的情況下,自由和知情同意。仁愛原則與個(gè)別和(或)集體地為個(gè)人服務(wù)、為個(gè)人提供回報(bào)和額外利潤(rùn)、行為的效用和質(zhì)量聯(lián)系在一起。無惡意原則影響相稱性的道德規(guī)則(因?yàn)槲覀兛偸窃跊Q定優(yōu)劣或損益之間)、結(jié)果或行動(dòng)在中長(zhǎng)期的不確定性、預(yù)防和預(yù)期,特別是對(duì)一段時(shí)間行為的影響或后果的預(yù)期。正義原則與以社會(huì)團(tuán)結(jié)而不是個(gè)人間互助的方式、行為者的責(zé)任以及行動(dòng)的公平、平等和個(gè)人執(zhí)行它的手段聯(lián)系在一起[2]。智能算法的規(guī)制建立在人工智能算法倫理原則和規(guī)則基礎(chǔ)之上,伯朗格基于其智能算法四項(xiàng)原則制定的十二個(gè)規(guī)則,為進(jìn)入具體倫理規(guī)制奠定了系統(tǒng)基礎(chǔ),正是在這些原則及其所包含的規(guī)則基礎(chǔ)上,伯朗格展開了智能算法規(guī)制的研究。
探討人工智能算法的倫理原則及其所包含的倫理規(guī)則,旨在智能算法的倫理規(guī)制。伯朗格關(guān)于人工智能算法的四項(xiàng)操作性倫理原則,為制定相應(yīng)倫理規(guī)則提供了前提。
面對(duì)人工智能算法發(fā)展條件下新的倫理形勢(shì),伯朗格主要訴諸謹(jǐn)慎創(chuàng)新,他認(rèn)為:這就是為什么必須在創(chuàng)新和謹(jǐn)慎之間找到一種平衡,這些倫理規(guī)則就說明了這一點(diǎn),難道人們不能想象環(huán)境法模式下數(shù)字風(fēng)險(xiǎn)的責(zé)任原則?這一做法將使數(shù)字專業(yè)人員能夠在合法數(shù)據(jù)、個(gè)人保護(hù)和更廣泛的第三方數(shù)據(jù)權(quán)利范圍內(nèi)受益于這些使用。作為交換,如果他們沒有采取必要的預(yù)防措施來避免這種風(fēng)險(xiǎn),會(huì)使他們?cè)谑艿街卮髶p害的情況下承擔(dān)責(zé)任,這將導(dǎo)致一個(gè)基于賦予行動(dòng)者責(zé)任的雙贏體系,此責(zé)任原則意味著算法或其用戶考慮其過程和操作的影響[2]。創(chuàng)新和謹(jǐn)慎之間的平衡固然重要,但這還是表層考慮,當(dāng)考慮到算法倫理所涉及領(lǐng)域之廣泛時(shí),問題就更為突出。由于主要源于創(chuàng)構(gòu)活動(dòng),人工智能倫理問題的一個(gè)特點(diǎn)是涉及面廣,伯朗格也注意到了這一點(diǎn),這些算法系統(tǒng)的倫理規(guī)則包括所涉及的一系列領(lǐng)域,如個(gè)人數(shù)據(jù)保護(hù)和隱私保護(hù)、法律和監(jiān)管方面、數(shù)據(jù)開放和共享、利益相關(guān)者、數(shù)據(jù)來源和算法分析應(yīng)用以及規(guī)范和協(xié)議、技術(shù)發(fā)展、人機(jī)界面和接口、通信等。一種稱為“公平”的算法應(yīng)能考慮到其影響,并適當(dāng)了解所涉及部門的特點(diǎn)[2]。事實(shí)上,智能算法不僅僅是單純地涉及領(lǐng)域廣,而是涉及領(lǐng)域的擴(kuò)展表明了新的倫理特質(zhì),這種具有新特質(zhì)的倫理問題,需要有新的倫理范式處理。
伯朗格的四項(xiàng)原則不僅基本上是傳統(tǒng)倫理原則,而且主要是關(guān)于個(gè)體倫理的,這就決定了基于這些倫理原則和規(guī)則在為智能算法的倫理治理提供了理論基礎(chǔ)的同時(shí),又具有特定的局限。由于其傳統(tǒng)倫理致思,受范式局限,伯朗格的算法倫理規(guī)制研究還主要在算法的傳統(tǒng)倫理討論范圍,作為理論基礎(chǔ)的四項(xiàng)倫理原則,正是其傳統(tǒng)倫理致思的特定前提,但是,至少在算法倫理的定性探索中,伯朗格已經(jīng)達(dá)到了研究的前沿,只是隨著人工智能倫理問題的發(fā)展,算法根源的層次展開越來越清晰地表明研究范式轉(zhuǎn)換的必要性。
隨著人工智能越來越廣泛的應(yīng)用,在智能算法的倫理規(guī)制中,人們也意識(shí)到智能算法倫理的層次變化。由于智能算法在個(gè)人生活和社會(huì)領(lǐng)域越來越廣泛深入的滲透,智能算法倫理規(guī)制的研究在層次把握的基礎(chǔ)上,內(nèi)部進(jìn)路得到更好發(fā)展,越來越接近抓住問題的關(guān)鍵。
埃里克·鮑默(Eric PS Baumer)發(fā)現(xiàn),智能算法在日常生活和社會(huì)各個(gè)層面的普遍滲透使智能算法的倫理思考上升到了更高層次,他由此提出了一種以人為中心的算法設(shè)計(jì)方案,在基于算法的系統(tǒng)設(shè)計(jì)過程中引入了人和社會(huì)的解釋。以人為中心的算法包括三個(gè)具體策略:理論上的、參與性的和思辨性的。理論上的策略(theoretical strategy)揭示兩個(gè)重要方面:一方面,理論可以是規(guī)定性的,大多數(shù)數(shù)據(jù)集可能包含大量可能的特征;另一方面,理論可以是描述性的,給定一個(gè)算法產(chǎn)生的結(jié)果,它們意味著什么?理論可以幫助理清對(duì)這種系統(tǒng)結(jié)果的潛在解釋。參與性的策略(participatory strategy)最主要的特點(diǎn)是“不會(huì)將可能受系統(tǒng)影響的人員作為設(shè)計(jì)過程的參與者”,而思辨性的策略(speculative strategy)則可以提供一種手段,用以克服我們目前對(duì)基于算法系統(tǒng)的看法[6]。從人工智能倫理算法根源的發(fā)展所展開的層次,可以看到只有到實(shí)現(xiàn)和配置階段,算法才發(fā)展到智能算法階段,算法倫理才發(fā)展到智能算法倫理,人工智能倫理的算法根源深藏在前提性預(yù)設(shè)之中,而在智能算法進(jìn)入自主進(jìn)化之后,對(duì)于作為最初設(shè)計(jì)者的人類來說,倫理規(guī)制就是關(guān)于前提性預(yù)設(shè)的盡可能長(zhǎng)遠(yuǎn)考慮了——這就需要層次盡可能高的整體觀照。
算法不僅具有典型雙刃劍性質(zhì),而且越是涉及未來眼光越是如此。在伯朗格看來,算法自身具有相互矛盾的性質(zhì),它既是巨大希望來源(有用性、最優(yōu)化、科學(xué)發(fā)現(xiàn)、速度等),又是重大社會(huì)關(guān)切(分類、保密和隱私、特征分析以及非人性化等)。因而在人類和智能算法的關(guān)系中,這是一個(gè)基本事實(shí):關(guān)于建造和使用它們的方式,選擇屬于我們。這就是為什么在開發(fā)、實(shí)現(xiàn)和使用算法時(shí),似乎有必要強(qiáng)加倫理規(guī)則,然后讓開發(fā)人員和編程者們自己系統(tǒng)地考慮這些倫理規(guī)定[2]。當(dāng)倫理規(guī)定的選擇屬于我們,我們有充分的選擇權(quán),這時(shí)候問題主要在當(dāng)下的選擇;而當(dāng)智能算法進(jìn)入自主進(jìn)化,選擇權(quán)就不再屬于我們,這時(shí)候的關(guān)鍵則深化到了前提性預(yù)設(shè)。在這兩種情況下,都涉及眼光遠(yuǎn)近,歸根結(jié)底需要更高層次的整體觀照,即使在算法歧視這種相對(duì)不算嚴(yán)重問題的具體倫理規(guī)制中,也是這樣。
為了避免涉及性別、族裔和性向等“敏感屬性”(sensitive attributes)與中性特征無意關(guān)聯(lián)而觸碰紅線,羅梅(Andrea Romei)和魯格吉里(Salvatore Ruggieri)提出了觀察分析中防止歧視的四個(gè)重疊策略:①控制訓(xùn)練數(shù)據(jù)集的失真;②通過將其與反歧視標(biāo)準(zhǔn)相結(jié)合,修改分類學(xué)習(xí)算法;③提取分類模型后,對(duì)模型進(jìn)行后處理;④在應(yīng)用時(shí),對(duì)預(yù)測(cè)進(jìn)行更正,在受保護(hù)和不受保護(hù)的群體之間保持決策的相稱性[20]。這是隨著人類智能和機(jī)器智能在應(yīng)用領(lǐng)域的融合而出現(xiàn)的特殊問題,為了讓智能算法為人類謀福利而不是帶來災(zāi)難,這些問題必須在智能算法的發(fā)展中得到實(shí)質(zhì)性解決,這就進(jìn)一步凸顯了具體事物認(rèn)識(shí)中整體觀照的地位[21]。這一點(diǎn),當(dāng)智能算法設(shè)計(jì)前提性預(yù)設(shè)時(shí)更為根本,因?yàn)樗惴ㄔO(shè)計(jì)在根本上涉及前提性規(guī)定,包括價(jià)值和更基本的預(yù)設(shè),這是智能算法倫理研究中的深層次內(nèi)容。在這些方面,伯朗格做了很重要的工作。
在關(guān)于智能算法的倫理研究中,伯朗格概括出“為何、如何及多少”幾個(gè)層次的問題,并在此基礎(chǔ)上嘗試建立起智能算法的倫理規(guī)則,他意識(shí)到,在建立關(guān)于算法的規(guī)則和倫理框架之前,似乎必須提供關(guān)于信息價(jià)值的概述和規(guī)格,信息價(jià)值具體取決于其使用的“為何、如何及多少”,該算法由具有固有基值的數(shù)據(jù)或信息提供。當(dāng)它用于算法機(jī)制或處理的語(yǔ)境時(shí),這個(gè)值將被更多地表達(dá)出來,并增加和獲得它的全部潛力,這就把問題轉(zhuǎn)移到超出技術(shù)劃分范圍的倫理層面[2]。將價(jià)值和規(guī)則相聯(lián)系已經(jīng)是對(duì)價(jià)值和規(guī)定的深入思考,不僅涉及價(jià)值負(fù)載而且包括最基本的前提性規(guī)定,這種前提性規(guī)定也不僅涉及文化,而且還會(huì)隨著網(wǎng)絡(luò)的發(fā)展在面上擴(kuò)展。
在伯朗格那里,“為何”最為關(guān)鍵,它關(guān)系到目的,從而關(guān)系到需要及其發(fā)展,而對(duì)需要及其發(fā)展的把握則不僅涉及很多很復(fù)雜的因素,更重要的是涉及眼光,涉及對(duì)未來的把握,因此,“為何”必定導(dǎo)致對(duì)文化的質(zhì)疑。算法依靠新的歸納邏輯形式,使決策和預(yù)測(cè)的經(jīng)典模型受到質(zhì)疑。有了算法,參與者不再局限于所屬數(shù)據(jù),而是向公共和開放數(shù)據(jù)庫(kù)開放,特別是通過網(wǎng)絡(luò)。的確,作為算法的前提性規(guī)定,不僅廣及全球網(wǎng)絡(luò),甚至深及整個(gè)人類的社會(huì)潛意識(shí)?!叭绾巍眲t涉及達(dá)到目的的手段,涉及技術(shù)但絕不純屬技術(shù)問題,因?yàn)槿绾芜_(dá)到目的往往涉及合法性和潛在風(fēng)險(xiǎn)等,至于“如何”,更確切地說是關(guān)于日常組織的問題。實(shí)施是使大數(shù)據(jù)的使用成為可能的基礎(chǔ),一個(gè)企業(yè)應(yīng)該能夠重新配置和發(fā)展,這取決于這些數(shù)字?jǐn)?shù)據(jù)教給它什么,因此出現(xiàn)了一系列問題,諸如當(dāng)異常數(shù)據(jù)流形成(監(jiān)視)時(shí),我們的IT安全系統(tǒng)如何快速通知我?我如何跟蹤自己的數(shù)字?jǐn)?shù)據(jù)?如何預(yù)測(cè)圍繞我的數(shù)據(jù)生命周期而產(chǎn)生的負(fù)面影響、偏見和風(fēng)險(xiǎn)[2]?而“多少”則涉及隱私侵犯程度等。正是涉及前提性規(guī)定的“為何、如何和多少”,使智能算法的倫理規(guī)制可能深入到更基礎(chǔ)的層次,這與人工智能算法倫理規(guī)制研究發(fā)展的整體進(jìn)路密切相關(guān)。由于涉及前提性規(guī)定,伯朗格關(guān)于人工智能算法的倫理規(guī)制主要屬于內(nèi)部進(jìn)路。
根據(jù)近年來的研究,關(guān)于智能算法的倫理規(guī)制可以大致概括為內(nèi)部進(jìn)路和外部進(jìn)路兩種基本方式。
算法倫理問題解決的內(nèi)部進(jìn)路主要適用于解決工具性人工智能的算法倫理問題,在人工智能通用化發(fā)展層次,至少在某些階段,問題的解決必須上升到更高層次。人們意識(shí)到:我們感到迫切需要采取行動(dòng),讓來自不同領(lǐng)域的研究人員——包括法律、倫理學(xué)、政治哲學(xué)和機(jī)器學(xué)習(xí)——在現(xiàn)實(shí)世界中為不同任務(wù)設(shè)計(jì)、評(píng)估和驗(yàn)證其他公平標(biāo)準(zhǔn)[7]。與此相應(yīng),智能算法倫理問題解決的外部進(jìn)路只適于各類人工智能的算法倫理問題的治理,其標(biāo)志性特征是監(jiān)管算法。
在某種意義上,監(jiān)管算法進(jìn)路遵循通過人工智能本身的發(fā)展解決人工智能問題的原則。最近有研究試圖從可預(yù)測(cè)性入手解決問題,以此從“可預(yù)測(cè)性走向可驗(yàn)證的倫理機(jī)器人行為”。由于認(rèn)識(shí)到確保自主系統(tǒng)合乎倫理地運(yùn)作既復(fù)雜又困難,研究形成了由“后果引擎”組成的調(diào)控器,該引擎評(píng)估行動(dòng)的可能未來結(jié)果,然后應(yīng)用安全/倫理邏輯來選擇行動(dòng)。關(guān)于這一嘗試,進(jìn)一步的研究發(fā)現(xiàn)存在新的問題:擁有一個(gè)外加的“管理者”來評(píng)估系統(tǒng)所擁有的選項(xiàng),并對(duì)其進(jìn)行調(diào)整以選擇最符合道德的選項(xiàng)這一想法,既很好理解也很吸引人,但不可能確定最合乎道德的選擇是否真的被采納,因而,在此基礎(chǔ)上,他們又將一種著名的代理驗(yàn)證方法推廣到其結(jié)果引擎,使之能驗(yàn)證其倫理決策的正確性[22]。這種外加“管理者”的做法,在專用人工智能發(fā)展階段應(yīng)當(dāng)是管用的,但隨著人工智能的通用化發(fā)展,“管理者”會(huì)漸失其作用和意義,也就是遲早會(huì)失效。外部進(jìn)路只有在與內(nèi)部進(jìn)路構(gòu)成雙向循環(huán)的基礎(chǔ)上,才能充分發(fā)揮應(yīng)有的作用,人工智能的應(yīng)用越廣泛深入就越是如此。
關(guān)于人工智能倫理的算法根源、倫理屬性以及從倫理原則到規(guī)制的研究取得了很大進(jìn)展,只是人工智能發(fā)展所引起的越來越多倫理關(guān)注主要還是在傳統(tǒng)倫理意義上的。智能算法層次的倫理問題必須更自覺地作為一個(gè)貫穿存在和過程整體的維度,在造世倫理[23]層次研究。從智能算法的倫理維度加以系統(tǒng)考察,可以更清楚地看到現(xiàn)有研究提供了重要思想資源,為提升到一個(gè)更高層次理解和解決新的倫理難題創(chuàng)造了條件。
在專用人工智能算法的倫理問題中,一些難題在人工智能和人類智能構(gòu)成的更高層次視野中就可以看到新的出路,這一點(diǎn)在算法歧視問題的理解中最為明顯。由于本身還不具有歧視觀念,在專用人工智能中,還談不上真正意義上的智能算法歧視,而只是算法公平性即算法公正在人類觀念中的反映,因此,在專用人工智能發(fā)展水平的當(dāng)下,算法歧視問題應(yīng)當(dāng)在考慮常規(guī)倫理規(guī)制的同時(shí),更應(yīng)該在造世倫理層次中加以考慮。在專用人工智能發(fā)展階段,智能算法倫理問題的發(fā)生與到目前為止智能算法語(yǔ)境沒有得到發(fā)育有關(guān)。由于人工智能語(yǔ)境發(fā)展的局限,越是在專用人工智能發(fā)展階段,越可能發(fā)生類似歧視等倫理問題。只有人工智能語(yǔ)境得到相應(yīng)發(fā)展,并與人類語(yǔ)境相融通,才可能在根本上有效避免這些倫理問題的發(fā)生。面對(duì)人工智能算法自主性的發(fā)展,人類必須盡早在更高層次關(guān)注和研究智能算法的前提性規(guī)定,不是在智能算法自主進(jìn)化之后,而是現(xiàn)在,越早越主動(dòng)。
不同于傳統(tǒng)倫理問題,智能算法的倫理規(guī)制需要在新的倫理范式中進(jìn)行。在人工智能算法的倫理維度,必須在人工智能算法設(shè)計(jì)等規(guī)律性探索過程中,通過逐步完善智能算法語(yǔ)境,并從個(gè)體倫理上升到類群倫理,才能真正面對(duì)智能算法倫理問題。正是在這個(gè)意義上,人工智能算法的倫理維度必須在造世倫理的層次把握,而這是關(guān)于智能算法倫理的全新研究領(lǐng)域。
在人工智能算法層次,倫理問題正在形成一個(gè)具有整體性的維度。由專用人工智能向通用人工智能發(fā)展,倫理維度越來越復(fù)雜,從主要是算法設(shè)計(jì)和使用者的倫理問題向超越人類倫理的人機(jī)倫理發(fā)展,從工具性人工智能的倫理規(guī)制走向自主進(jìn)化人工智能存在性威脅的造世倫理應(yīng)對(duì),而在倫理維度的不斷擴(kuò)展中,則涉及越來越具有整體性的倫理問題。在專用人工智能發(fā)展中,透明性和可解釋性一直是智能算法的重要倫理原則。由人工智能算法倫理原則推出的倫理規(guī)則是智能算法倫理規(guī)制的基礎(chǔ),不僅對(duì)于保持算法公正、避免算法偏見和歧視以及保護(hù)隱私,而且對(duì)于跨越人工智能應(yīng)用的“責(zé)任鴻溝”至關(guān)重要?!柏?zé)任鴻溝”的跨越關(guān)系到人工智能應(yīng)用甚至人工智能本身的發(fā)展。在人工智能算法的倫理維度,個(gè)體倫理向類群倫理發(fā)展,傳統(tǒng)倫理的界線正在“熔化”,這種變化趨勢(shì)深及規(guī)則和規(guī)律的關(guān)系層次。在智能算法深處,規(guī)則和規(guī)律越來越呈現(xiàn)一體化發(fā)展趨勢(shì)。隨著智能算法的發(fā)展,智能機(jī)器的道德主體地位及引發(fā)的相應(yīng)倫理問題將構(gòu)成對(duì)現(xiàn)有倫理觀念越來越嚴(yán)峻的挑戰(zhàn),其應(yīng)對(duì)必須建立在更高層次的倫理觀念基礎(chǔ)之上。人工智能算法倫理維度的發(fā)生和發(fā)展,具有深刻造世倫理意蘊(yùn),智能算法的造世倫理意蘊(yùn)凸顯了造世倫理的理論和實(shí)踐一體化。規(guī)則和規(guī)律、理論和實(shí)踐的一體化意味著智能算法的倫理規(guī)制越來越必須在造世倫理層次展開。