国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

算法決策的認識論不公正及其矯正

2023-02-25 14:41:05劉永謀彭家鋒
關鍵詞:證詞解釋學認識論

劉永謀,彭家鋒

(中國人民大學 哲學院,北京 100872)

2021年,《連線》雜志在一篇名為《疼痛難以忍受:那么為什么醫(yī)生把她拒之門外?》的文章中講述了這樣一則事例[1]:一位名叫凱瑟琳的女士,因患有子宮內膜異位癥需要口服阿片類藥物來控制病情和緩解疼痛。但醫(yī)生拒絕為其使用該類藥物,理由僅僅是“相關算法系統(tǒng)中的某些評分過高”,幾乎未作任何其他解釋。兩周后,凱瑟琳又收到一封來自婦科醫(yī)生辦公室的信件,稱她的個人醫(yī)生要“終止”與其的治療關系。理由是因為“來自NarxCare數(shù)據庫的報告”。NarxCare是一個即時監(jiān)控阿片類藥物濫用風險的算法系統(tǒng),其基于對患者大量敏感數(shù)據的深度分析,自動為每位患者給出一個濫用風險評分,廣泛用于指導醫(yī)生臨床決策。面對陌生的算法系統(tǒng)和幾乎無從申訴的決策結果,凱瑟琳只得獨自承受疾病所帶來的巨大疼痛。

直覺告訴我們,凱瑟琳似乎受到了某種不公正的待遇,而且這種不公正體現(xiàn)在兩個方面。首先,在道德層面,算法所給出的風險評分直接導致凱瑟琳被迫出院,且藥房也拒絕為她提供服務,進而導致她失去了原本應有的醫(yī)療援助而飽受疼痛煎熬。這里暫且不論是否存在侵犯個人隱私的問題,僅就本應作為唯一受益者卻被完全排除在整個決策過程之外,使得個人訴求得不到表達的情況,就具有明顯的道德?lián)p害。其次,在認知層面,凱瑟琳作為一個認知者的身份也受到了傷害。決策過程很大程度上也是一個認知過程,需要不同認知主體的積極參與,不斷進行信息的輸入、分析、反饋和調整。在當前案例中,凱瑟琳原本可以憑借對自身身體狀況和治療經歷的了解,為臨床決策提供極具價值的認知貢獻,但卻遭到算法系統(tǒng)的結構性拒絕和忽視。她明明知道自己沒有對阿片類藥物上癮,也從未濫用過藥物,卻無法推翻算法給出的不利結論。也就是說,生成風險評分的算法系統(tǒng)的權威超越了凱瑟琳自身證詞的合法性,加之算法的黑箱性質,限制了其理解自身經歷和進一步反駁算法系統(tǒng)的不準確評估的可能性。事實上,這種不公正并非僅僅局限于醫(yī)療保健領域,而是普遍存在于算法決策應用的各個領域和場景中(如商業(yè)借貸領域的信用評級、司法活動中的累犯預測、職場應聘中的簡歷篩選等等)。值得注意的是,雖然 “算法”可以用來描述“任何程序或決策過程”[2],但本文主要關注那些基于大數(shù)據和機器學習技術開發(fā),被用于增強或取代人類分析和決策的自動化算法。

當然,對算法決策的倫理反思一直都是包括學界、政府和產業(yè)界在內的全社會關注的重點,比如批判性考察算法應用中的數(shù)據獲取和數(shù)據管理、算法的誤用或濫用,以及算法的設計、開發(fā)和使用的社會權力動態(tài)等等,目的是確保算法的“技術向善”,避免其對社會和個人造成嚴重傷害。但已有研究大都忽視了如凱瑟琳所遭遇這類獨特的認知傷害——威脅到人類作為認知者、解釋者和證據來源的尊嚴。如何概念化算法決策所帶來的這種獨特的不公正現(xiàn)象的實質將是一項富有挑戰(zhàn)性的任務。筆者認為弗里克(M.Fricker)提出的“認識論不公正(epistemic injustice)”概念框架大致可以勝任這一任務。因此,本文將借助弗里克的“認識論不公正”概念及其分類,揭示算法決策何以在認知上給我們帶來證詞不公正和解釋學不公正,進而嘗試提出若干解決問題的可能出路。

一、認識論不公正的性質、類型及傷害

作為認識論領域一個相對較新的概念,“認識論不公正”由弗里克在《認識論不公正:認知的權力和倫理》(2007)一書中正式提出。根據弗里克的定義,認識論不公正是“以認知者的身份對某人犯下的錯誤”[3]1。該術語揭示了一種獨特現(xiàn)象——由于社會偏見或刻板印象等原因導致某人的認知地位被不公正地削弱。更寬泛地講,它是指某類群體或個人的理性或認知能力受到社會或他人不公正的錯待。

認識論不公正本質上是一種偏見性不公正,區(qū)別于一般的分配性不公正。前者是因偏見性因素使得某人被排擠在認知活動之外或處于認識論的不利地位,比如病人通常被認為不值得相信。后者是指教育、信息等認知商品的獲取和分配方面存在的不公平現(xiàn)象,比如剝奪某人接受教育或進入圖書館的機會。雖然對后者的關注同樣重要,但弗里克認為“它并沒有明顯的認識論上的問題”,因為那些被定性為認知商品的東西在很大程度上是偶然的[3]1。所以,真正具有認識論意義的不公正應當是偏見性不公正。同時,這種偏見性不公正具有非蓄意性質。在這種認識論不公正中,聽者對說者的可信度做出的誤判,實際上是受偏見蒙蔽,以其看似合理的理由做出的“天真誤判”。這不同于任何故意將某人的真實或合理信念歪曲為虛假或沒有合理根據的行為,因而其發(fā)生更讓人難以察覺。

弗里克明確將認識論不公正分為證詞不公正(testimonial injustice)和解釋學不公正(hermeneutical injustice)。證詞不公正是指因種族、性別、階層、宗教等身份偏見導致的聽者對說者證詞可信度的貶低。比如白人警察因為種族歧視而不愿相信黑人的證詞,或者女人的證詞被認為不如男人的證詞可靠。這些偏見是系統(tǒng)性的,滲透于整個社會之中,證詞不公正便是其在認知上的反映。當集體解釋資源的差距影響了人對其社會經歷的理解和表達時,就會發(fā)生解釋學不公正。解釋學資源可以被定義為認知和語言資源,即我們用來理解世界和相互交流的概念和詞語,它們被廣泛共享于整個社會之中。當缺乏“集體解釋學資源”(即典型的語言類型和概念資源)來談論和理解某些經歷時,經歷的人就被剝奪了談論和理解自身經歷的機會。弗里克以“性騷擾”的概念為例:在沒有此概念的情況下,被騷擾者無法識別并談論這種騷擾經歷;即使被騷擾者試圖談論他們的經歷,聽眾也無法準確理解被騷擾者的經歷和不利境況。

證詞不公正與解釋學不公正之間具有相互伴隨、相互強化的復雜關系,其中一種類型的不公正的發(fā)生,往往會引起乃至強化另一種類型的不公正。在這種情況下,說者往往會遭遇雙重不公正:一次是由于共享解釋學資源中的結構性偏見,一次是由于聽者做出帶有身份偏見的可信度判斷。一方面,解釋學不公正會因遭遇系統(tǒng)性證詞交流失敗而持續(xù)并傳遞:由于試圖提供解釋的說者的證詞沒有被聽者接收到,產生新理解的早期嘗試被阻止或未得到回應,導致了交流雙方之間的解釋差距形成、維持和傳遞。另一方面,當因解釋學資源的缺乏使得某些聲音在相關問題上比其他聲音更難以理解(因此更不可信)時,證詞不公正幾乎不可避免,并且他們試圖闡明某些意義的嘗試會被系統(tǒng)地視為荒謬(因此令人難以置信)。由于表達和解釋某些事物的困難,人們的可信度可能會受到損害;但缺乏可信度也會讓人質疑其表述和解釋的可理解性。

認識論不公正具有認知和倫理層面的雙重傷害。首先,在認知層面,認識論不公正錯待特定認知者的認知能力或完全將其排除在知識的生產、獲取、傳遞和修正等認知過程之外,妨礙(個人或社會)認知目標的實現(xiàn)。例如壓制認知者的證詞或使認知者難以理解其自身經驗,會導致扭曲理解或阻礙探究等認知功能障礙,不利于從整體上增進知識和理解。具體而言,證詞不公正的主要傷害是由于聽者的身份偏見而被排除在認知活動之外,針對的是說者本人;解釋學不公正的主要傷害是由于集體解釋學資源中的結構性身份偏見而被排除在認知活動之外,針對的是說者想表達的內容。因此,兩種認識論不公正所涉及的傷害,具有一個共同的認識論意義——偏見性地將說者排除在知識生產和傳播之外。

其次,在倫理層面,由于通過言語溝通等方式向他人傳達知識,以及理解自身的社會經驗是人類個體的理性能力、身份認同、能動性和尊嚴等不可或缺的一部分,因此,損害證詞和解釋能力的不公正將會對人類個體造成倫理傷害。比如,一個理性的人類主體應當被認為是提供和傳遞知識的能動認知者,但系統(tǒng)性的認識論不公正剝奪了主體這種基本的能力和尊嚴,主體被排除在受信任的知識提供者共同體之外,這意味著他無法成為認知活動的積極參與者。因此,他從主動認知者的角色降級,并被限制在被動狀態(tài)的角色中,成為其他認知主體收集知識的對象。這就是認識論不公正對理性主體所造成的認知物化(epistemic objectification)的倫理傷害:當聽者否定說者作為知識提供者的身份時,說者就在認知上被物化了[3]133。由此還可能產生進一步的社會惡果,如因在職場或法庭等場合遭遇不公而導致的自信喪失以及對個體或群體社會生活軌跡的負面影響[4]。

二、算法決策的證詞不公正

隨著大數(shù)據、物聯(lián)網和人工智能等技術的快速發(fā)展,算法支持系統(tǒng)開始逐漸被引入教育、醫(yī)療、金融、就業(yè)等各個領域,并頻繁替代人類作出各種社會決策,成為各行各業(yè)專業(yè)決策的重要來源。其中,證詞不公正發(fā)生在算法輸出與人類證詞之間。雖然弗里克的證詞不公正被認為是發(fā)生在人類聽者和人類說者之間,但在作為聽者的人類與作為準證詞提供者的算法系統(tǒng)之間也存在類似狀況[5]。算法系統(tǒng)通過貶低人類證詞可信度而成為一種新的認知傷害的來源。對人類自身身份和行為數(shù)據的大量收集,導致算法和人類之間產生了一種新的認知權力的不對稱性:算法如今被認為比我們更了解自己,從而削弱了我們對于自身可信度的支持。比如,在基于深度學習算法和大數(shù)據分析的行為預測和基于人類證詞的行為預測之間,不少人傾向于認為前者更可靠,因為我們“偏見”地認為人類的記憶和判斷是主觀的和糟糕的,相比之下,來自算法系統(tǒng)的“證詞”更加準確和客觀。在此情況下,證詞不公正在整個社會層面被結構性地建立起來。

在一般證詞交流中,個人的證詞可信度很大程度上是由存在于社會集體想象中的刻板印象決定。雖然可信度包含著能力和誠意兩種基本要素,但除非對證詞提供者和證據本身擁有大量的個人知識,否則一個人很難對其能力和誠意做出準確判斷。因此,當人們衡量說者及其證詞的可信度時,更為常見的是依據一種啟發(fā)式方法和社會流行的刻板印象。這里的刻板印象是一個中性概念,它是整個社會經驗的普遍概括,其運用并不必然帶來證詞不公正??贪逵∠罂梢詭椭藗冊谌粘=涣髦凶园l(fā)和迅速地對他人證詞做出可信度判斷,從而提高知識傳遞的認知效率。如果沒有這種啟發(fā)式方法和刻板印象的幫助,人們或將無法順利實現(xiàn)日常證詞交流所需要的可信度判斷。但并非所有刻板印象都是積極和正面的,其中往往隱藏著大量身份偏見。比如人類歷史上的性別偏見和民族偏見,就體現(xiàn)出對有關社會群體的不可靠的經驗概括。當它們持續(xù)、系統(tǒng)地在知識傳遞過程中發(fā)生作用,貶低某類個體作為可靠證詞提供者的理性能力時,就會造成證詞不公正。

當算法越來越多地作為自主性系統(tǒng)參與社會決策時,它也在以知識提供者的身份同人類個體進行認知互動。在此過程中,算法逐漸被賦予精確性和客觀性的外衣;相較于人類提供的證詞與判斷,整個社會層面開始形成一種刻板印象:算法比人類更加可靠。這種刻板印象是一種結構性的偏見,主要源自于兩種原因。

其一,人們對算法抱有過度理想化的文化想象和承諾。身處算法時代,我們基本上接受了算法在線處理關于自身的各種數(shù)據并塑造我們大部分的認知活動這一事實,但我們基本上不知道具體操作過程是如何進行的,也幾乎不了解算法對我們生活的影響。我們自愿但不知情地同意各種算法在我們生活中運作,其中隱含地假設這些算法程序是良性的和無偏見的,只執(zhí)行理性計算。我們相信算法推薦或提供給我們的結果真實地反映了世界和我們的選擇。數(shù)據不會說謊,而算法只是處理數(shù)據,所以算法也不會說謊。這種算法文化之所以變得有意義和被接受,并不是因為它們是古典意義上的超然事物,而是因為它們以一種更新、更內在的方式發(fā)展了這種可接受性。而這種可接受性就是拉什(S.Lash)所謂的算法“通過性能合法化”而獲得的。[6]在實際運用過程中,算法隱含或明確地聲稱它們不僅具有成本效益,而且在認知和道德意義上都是客觀的:算法直接工作,提供各種問題的解決方案,中立和公正是其默認設置吉萊斯皮(T.Gillespie)也指出:“算法不僅是工具,還是信任的穩(wěn)定器、實用和象征性的保證,確保其評估是公平和準確的,沒有主觀性、偏見或錯誤?!盵7]因此,將算法的客觀性與其合法性等同起來,是對更高理性的追求,其中算法自主行動并超越人類能力,由此強化了算法文化的客觀性偏見。當算法系統(tǒng)被廣泛認為(或至少被視為)體現(xiàn)了一種特殊的、權威的可靠性或可信度時,任何反駁證詞證據的力量都會被削弱。

其二,自動化偏見也會加深算法決策中的相關刻板印象。弗里克強調了身份偏見在日常認知交流實踐中產生的不公正危害,比如針對有色人種,給予其證詞更低的可信度。在算法決策中,還存在另一種形式的偏見,即“自動化偏見(automation bias)”。我們可以簡單將其理解為人們傾向于降低自己獲取的信息的可信度,而更愿意依賴自動化算法系統(tǒng)提供的信息[8]。自動化偏見是影響人類與自動化算法系統(tǒng)交互的一個重要因素。當使用自動化算法作出決策時,人們很少會利用全部可用信息來仔細甄別和檢驗算法系統(tǒng)所給出的結果。對此可能的解釋是,由于自動化系統(tǒng)往往非常可靠,因此更多的使用經驗會強化這樣一種觀念,即其他提示是多余和不必要的;相反,與自動化系統(tǒng)完全不一致的線索可能會被大打折扣[9]。換言之,當自動化算法被引入決策時,決策者的注意力主要集中在算法及其提示的相關信息和線索上,其他信息不太可能被決策者接收到,進而難以影響決策結果。此外,“算法欣賞(algorithm appreciation)”也趨向于強化“算法比人類更加可靠”的刻板印象。哈佛大學肯尼迪學院的研究人員通過實驗研究發(fā)現(xiàn),在各種需要執(zhí)行評估和預測任務的決策條件下,人們實際上更喜歡來自算法的建議而不是來自人類的建議[10]。即使對算法的描述和了解很少,人們也會表現(xiàn)出對算法的欣賞。因此,當人們傾向于賦予算法更多“欣賞”(即更高可信度)時,來自人類自身的證詞可信度就會被相應地貶低,出現(xiàn)證詞不公正的現(xiàn)象。

算法決策所帶來的證詞不公正將會在以下三個方面對人類產生不利影響。首先,在某些重要的認知活動(比如知識生產、證據提供、理論驗證等)中,人類的參與能力和地位將會被削弱甚至被完全排擠出去,人類不再被認為是認知活動的合格參與者。同時,這種重視算法決策和忽視人類證詞的不利狀況,將使我們錯過向人類個體學習的機會。其次,由于算法決策被賦予比人類證詞更多的權重,人類可能會逐漸失去其作為認知主體的信心和尊嚴。人類在繼續(xù)擁有其認知能力的同時,因其證詞長期受到質疑和忽視,很可能會失去交流和理解自身經歷的動力,最終選擇保持沉默。最后,數(shù)據缺失問題將加劇對相關群體的證詞壓迫。缺乏關于特定社會事件或現(xiàn)象的數(shù)據并不意味著該類事件或現(xiàn)象實際上不存在。算法總是基于過去已有的數(shù)據對未來做出預測性判斷,這通常會有意無意地忽視某些未被數(shù)據化的關鍵因素或者強化已有偏見,從而對特定群體造成證詞壓迫。

三、算法決策的解釋學不公正

在算法決策中,還存在解釋學不公正問題。它主要是由算法的認知非透明性造成的?!罢J知非透明性(epistemic opacity)”是由漢弗萊斯(P.Humphreys)較早引入的概念,用于表征某些計算機系統(tǒng)的潛在過程和屬性的不可訪問性。他給出的定義是:一個過程在時間t相對于認知主體X在認知上是不透明的,當且僅當X不知道該過程的所有認知相關元素[11]。漢弗萊斯專注于計算模型和模擬,但該概念同樣適用于決策算法。由于運用了大量復雜的程序、方法和參數(shù),同時還摻雜著許多社會因素,使得算法具有明顯的認知非透明性特征。該特征主要源于兩個方面。

一方面,技術本身具有認知非透明的特征。當前的主流算法是機器學習算法,它與老式的基于規(guī)則的算法不同。從某種意義上說,老式算法在設計上是透明的,因為它是由人類程序員明確編碼的規(guī)則組成,其代碼和輸出均可得到檢查和驗證。即使用戶不了解程序的工作原理,其代碼是由人類編寫這一事實也意味著在原則上不存在透明性障礙。機器學習算法卻顛覆了這一特征。人類只提供數(shù)據,機器本身則可以自動生成一組規(guī)則或映射函數(shù),用于描述該數(shù)據集中的模式和相關性,目標是發(fā)現(xiàn)了潛在的模式并將其應用于對其他數(shù)據點的預測或建議。機器學習成功的關鍵在于系統(tǒng)本身能夠“自主學習”,不斷根據新的輸入修改這些類似規(guī)則的映射以提高其準確性。但這也使得其缺乏透明度。隨著這些規(guī)則不斷被修改,人類(包括技術開發(fā)人員)很快會失去理解算法內部運作的能力,最終整個算法成為一個技術“黑箱”。

另一方面,算法的保密性和專業(yè)性等外部因素也使其具有認知非透明性特征。保密性是指有目的地嘗試對分析事實保持無知。算法保密性可以分為對算法模型存在的保密和對算法操作過程的保密[12]。前者是指在諸如商業(yè)領域,存在大量消費者根本不知道的算法系統(tǒng),受影響者幾乎意識不到算法決策的存在。這主要是因為提供此類算法系統(tǒng)的公司是為其客戶企業(yè)服務而不是為消費者服務。后者是指已知存在算法決策,但其實際操作未知的情況。受影響者可能知道他們受制于某類算法系統(tǒng),但對決策過程的運作方式知之甚少。事實上,公司有時有相當?shù)膭訖C對算法模型及其操作過程進行保密。如果算法模型和決策過程具有財務和競爭價值,并且其開發(fā)需要大量投資或獨創(chuàng)性,公司可能會要求將其作為商業(yè)秘密進行保護。算法的專業(yè)性是指對算法的技術性理解需要一些基本的專業(yè)知識。比如確保對算法決策負責的一種常見做法是要求披露底層源代碼。雖然這樣的披露可能有助于弄清楚如何實現(xiàn)自動化決策,但理解所披露源代碼的能力取決于一個人的專業(yè)素養(yǎng)水平。閱讀代碼至少需要最低程度的計算機編程技術,普通公眾根本無法滿足這一要求。那么,在缺乏理解源代碼所需的專業(yè)知識的情況下,披露對受影響者和監(jiān)管機構的價值和意義不大。而且,有學者指出,公開算法的相關架構和代碼并不必然對普通的非技術用戶有利,反而可能會帶來惡意操縱或玩弄系統(tǒng)的風險[13]。

因此,算法可以被視為一個復雜的非透明性系統(tǒng),對其內部過程和輸出結果的理解遠遠超出單個人的認知資源和能力,對其經驗有效性也缺乏認知控制,由此導致人們(至少是非技術專家)在質疑其結果或理解其操作方面變得異常困難。尤其是當算法作為權威系統(tǒng)應用于社會決策領域并產生負面影響時,處于不利地位的群體明顯缺乏適當?shù)母拍钯Y源來表達、概括和理解自身所經受的傷害。這就在個體經驗與向他人傳遞解釋之間形成了一條解釋學鴻溝,導致各決策主體不平等地參與社會意義的生產實踐。

首先,算法的認知權威地位可能排斥人類個體的意義建構。雖然算法決策系統(tǒng)的開發(fā)者與使用者一再聲稱,該系統(tǒng)旨在輔助而不是替代人類決策,最終的決策權應當始終掌握在經驗豐富的專家手里,但現(xiàn)實中往往傾向于將其作為決策的權威來源,在決策過程中直接依賴并考慮其輸出。當相關算法系統(tǒng)被應用部署到社會之中(尤其是銀行、醫(yī)院、法院等機構)時,它往往就在行政或程序規(guī)范上成為合法的強制性系統(tǒng)。因此,即使在理論上,它們應該作為輔助決策的工具,但在實踐中卻強烈限制了決策者和相關利益方質疑其結果的可能性。這就導致算法決策容易忽略邊緣性群體的知識——他們的證詞、價值觀和生活經驗——在決策過程中可能具有的重要意義。此外,算法系統(tǒng)為決策提供合法知識的方式是單向的,使用者無法根據可能推翻它的相關信息修改其輸出結果。也就是說,使用者無法將有價值的信息反饋到系統(tǒng)中;他只能作為一個未知來源的知識的接受者,而不能成為一個積極影響知識生成和意義建構的生產者。最終,使用者難以對決策結果產生異議,加之算法系統(tǒng)強制嵌入決策過程,反過來進一步強化了算法決策的認知權威地位。

其次,算法的認知非透明性阻礙決策相關主體間的理解與溝通。如前所述,算法是一個非透明性系統(tǒng),它容易導致決策參與者或受其影響者缺乏準確理解其輸出所需的解釋性資源。因此,他們往往無法評估這些輸出結果是否合理,也不明白應該對其采取怎樣的合法行動,以及如何質疑它們。事實上,對于算法系統(tǒng)的一般使用者及其影響者而言,雙方均處于上述這種認知上的不利位置,都缺乏對相關結果的普遍理解,進而使得決策相關主體間難以產生富有成效的理解和溝通。以凱瑟琳的事件為例,當醫(yī)生告訴凱瑟琳無需再服用阿片類止痛藥時,他或許只是簡單接受了權威系統(tǒng)給出的結論,可能并不清楚結論背后真正的原因究竟是什么。這使得雙方的溝通和理解受到極大限制,進而破壞患者和醫(yī)生之間本應保持的良性互動,最終可能導致雙方采取以下兩種溝通方式。一是回避性的溝通方式。這意味著因算法系統(tǒng)的權威地位而完全切斷了患者和醫(yī)生之間的溝通,患者幾乎不理解為什么她被拒絕藥物治療,也沒有機會分享一些可能推翻結論的信息和個人狀態(tài),完全被排除在交流實踐之外。二是對抗性的溝通方式。這意味著醫(yī)患雙方處于一種不信任的關系之中,醫(yī)生將患者的異議視為對權威系統(tǒng)的挑戰(zhàn)和不誠實的表現(xiàn),由此傾向于降低患者證詞的可信度并削弱他們的認知地位。以上兩種不利的溝通方式均是由于算法決策系統(tǒng)的介入導致。

最后,解釋學資源上的差距可能導致技術專家權力過大。解釋學不公正不僅是由集體解釋學概念資源的缺乏或扭曲造成的,還可能由現(xiàn)有概念資源的不公平分配和應用所致[14]。在算法決策中,除了算法技術本身的認知非透明性造成的概念缺失之外,還存在許多集體可用的相關概念資源問題。其中大多是描述算法的技術性概念(比如模式匹配、子串、向量機、監(jiān)督學習等術語),但這些概念通常只由算法專家掌握,一般用戶及相關者基本沒有能力充分使用它們。這種解釋學資源上的差距往往會使算法決策的最終解釋權掌握在技術專家手中,因此,決策結果不可避免地會受到技術專家的價值觀念和利益等方面的影響。同時,由于專家的權力是被行政性賦予的,來源于其掌握的技術專長,這就容易導致他們的決定不易受到審查和追責。正如奧尼爾(C.O’Neil)在批判性分析再犯算法模型時指出:“一個再犯模型的運作完全是由算法獨立完成的,只有極少數(shù)專業(yè)人士能理解。”[15]一旦算法主導了大多數(shù)(重要)社會決策時,誰處于優(yōu)勢地位和誰處于劣勢地位的問題就出現(xiàn)了。算法將會以自己的方式,圍繞“誰能讀懂數(shù)字”產生新的等級結構[16]。這意味著,當算法專家掌握越來越多的解釋權和算法控制權后,對技術細節(jié)一無所知的利益相關者將更難理解和質疑算法決策的結果,進而因解釋學資源和能力上的劣勢導致其在整個經濟社會中處于不利位置。

四、矯正算法決策的認識論不公正

如果僅將算法應用于電影、音樂和美食推薦等一般領域,我們或許不會過多關注由此產生的認識論不公正問題,因為其影響似乎并不突出或重要。然而,一旦算法被用于預測或評估個人商業(yè)信用、工作績效考核、招聘、藥物成癮和累犯概率等重要的社會決策時,其產生的認識論不公正就會導致許多深層次的道德和社會后果。因此,我們迫切需要考慮如何矯正算法決策帶來的認識論不公正。

(一)算法層面:構建可抗辯性的算法決策系統(tǒng)

若要矯正算法決策中的認識論不公正,首先需要關注算法決策系統(tǒng)本身。如前所述,算法決策系統(tǒng)本身具有認知非透明性特征,它往往會導致人們很難理解和解釋其自身經歷,進而難以對決策結果提出反駁。常見的應對措施是提高算法的透明度。但是,即使拋開算法的保密性和專業(yè)性等外部因素不談,僅就技術本身的復雜程度和認知非透明性特征而言,想要設計完全透明的算法系統(tǒng)也是不切實際的。一個合理的替代方案是構建可抗辯性的算法決策系統(tǒng)。嚴格來說,可抗辯性并不要求透明度,因為人們不需要確切知道決策是如何做出的,就可以質疑它的是非對錯、公平與否。可抗辯性意味著參與而非被動,質疑而非默許[17]。構建可抗辯性的算法決策系統(tǒng),至少可以采取以下兩種方式:

一是采取一種“人在環(huán)路”(human-in-the-loop)的設計思路。在算法決策中,無論是證詞不公正還是解釋學不公正,均表現(xiàn)出利益相關者被偏見性地排除在決策相關的認知實踐之外,無法參與那些與自身利益息息相關的重要決策。“人在環(huán)路”是當前促進機器學習算法的重要方式,旨在通過整合人類知識和經驗,以最低的成本訓練準確的預測模型[18]。我們可以將此思路用于構建可抗辯性的算法決策系統(tǒng),將利益相關者納入技術設計和循環(huán)之中,賦予其對基于自動化決策提出異議的一般權利,最終使其免受算法決策帶來的認識論不公正傷害。

二是引入一種能夠提供反饋循環(huán)的強化學習機制。在使用強化學習的算法決策系統(tǒng)中,人們可以設計一種“獎勵”信號并設定系統(tǒng)的目標,以使其最大化,類似于行為心理學中的“操作性條件反射”。對系統(tǒng)輸出的質疑可以被視為錯誤信號,表明產生了有問題的輸出。因此,將有爭議的決策編碼為負反饋,以便系統(tǒng)可以更新其映射功能并避免將來出現(xiàn)類似的錯誤。目前,許多算法推薦系統(tǒng)使用了強化學習機制。當用戶提供具有“抗辯性”的建議反饋時,系統(tǒng)會對用戶的偏好有更深入的了解,并逐步改進其推薦。然而,在更具道德分量和社會意義的算法決策系統(tǒng)中,似乎沒有引入基于可抗辯性的反饋機制。正如前面凱瑟琳的遭遇所呈現(xiàn)的那樣,在面對NarxCare系統(tǒng)時,她根本沒有對決策結果提出異議的機會,故而反饋也就無從談起。因此,引入強化學習機制或能提高算法決策系統(tǒng)的可抗辯性,矯正其存在的認識論不公正。

(二)個人層面:培育決策者的認知正義美德

認識論不公正之所以發(fā)生,主要是由于在認知交流中聽者因身份偏見等因素,未能將說者當作一個合格的認知者來對待。說者無法運用自己的理性能力參與知識生產、傳播和修正,從而被完全排除在認知活動之外。弗里克針對證詞不公正和解釋學不公正兩種具體情況,建議以證詞正義和解釋學正義兩種美德對其加以矯正[3]。其中,證詞正義要求消除身份偏見對個體證詞的可信度的貶低,通過向上補償來提高其可信度,中和偏見的影響,進而達到與證據相匹配的理想程度。在某些可信度判斷不確定的情況下,我們可能需要完全暫停判斷,或者通過尋找進一步的證據來做出更負責任的判斷。解釋學正義要求聽者對說者在試圖提供解釋時可能遇到的困難保持警覺或敏感,要充分意識到其說法或觀點難以被理解,可能并不是因為它們是無稽之談或說者智力上存在問題,而是由于集體解釋學資源上的某種差距所致。為了減輕解釋學不公正并努力實現(xiàn)解釋學正義,我們需要培養(yǎng)良好傾聽、開放思維和自我批判的能力,這可以使我們更加關注解釋學相關的盲點、空白和解釋學失敗。

算法決策中的認識論不公正則表現(xiàn)為,在權威性的算法決策系統(tǒng)面前,整個人類尤其是部分受壓迫群體的理性能力受到系統(tǒng)性貶低,無法有效參與那些與自身利益極其相關的重要決策。這就需要決策者擁有認知正義美德,在算法決策過程中準確評估所有利益相關方的理性能力和可信度,使得各方獲得平等參與決策的機會,做出積極的認知貢獻。首先,決策者需要培養(yǎng)自身的證詞正義美德,對決策各方尤其是處于劣勢地位的一方所提供的證詞給予認真對待。決策者要更多地意識到自己對他人的可信度判斷容易受到客觀性算法文化和自動化等算法偏見的影響,避免在毫無根據的情況下貶低他人乃至整個人類的知識提供能力,剝奪其參與決策的權利。僅僅因為“算法比人類更加可靠”就在決策中先驗地排除人類個體的認知參與,這顯然是一種結構性的認識論不公正。其次,決策者還需培養(yǎng)自身的解釋學正義美德,對決策中處于不利地位的個體或群體保持解釋學敏感性。語言和概念是人類表達自身經歷和訴求的重要方式,當我們缺乏必要的概念和語言時,就難以把自身的經歷和訴求傳達給他人,并獲得他人的理解和關注。算法的認知非透明性特征使人們很難完全理解決策的具體過程,一般公眾更是缺乏相關概念來描述自身遭遇,這就容易導致決策者忽視或無法察覺處于不利地位者的利益和訴求。因此,決策者需要學會傾聽,積極回應他人訴求,知道何時暫停對可理解性的判斷,批判地看待自己或他人有限的表達習慣和解釋期望等。

(三)制度層面:回歸算法輔助決策的工具性地位

當然,培育決策者的個人美德并不足以完全矯正算法決策中的認識論不公正。鑒于算法日益取代人類成為社會決策的權威實體,我們需要重新審視算法應用于社會決策的合理性及其限度,使其回歸至輔助而非取代人類決策的工具性地位。

一方面,需要糾偏社會流行的客觀性算法文化,破除算法自動化偏見。算法文化的倡導者認為,算法可以消除決策過程中的人類偏見[19]。但算法也可能會復刻或強化社會已有的許多偏見,并在偽客觀性中“自然化”它們。算法的好壞取決于其所使用的數(shù)據,而數(shù)據經常是不完善的,這使得算法會繼承先前決策者的偏見或反映整個社會中普遍存在的偏見。不加批判地依賴算法決策可能會剝奪處于不利地位的群體對社會重要議題的充分參與。因此,需要理性客觀地看待算法的力量,把握其限度所在。我們需要面向公眾普及相關算法知識,提升公眾的算法素養(yǎng),從而在整個社會文化層面糾偏過于理想的算法文化。關于如何破除算法自動化偏見,一個可能的建議是增加對決策者的問責制(accountability)。社會心理學研究發(fā)現(xiàn),許多認知偏見可以通過實施問責制而得到改善[9]。問責制將使決策者對所有可用信息更加敏感,對他人證詞的評估更加謹慎,主動為其選擇提供令人信服的理由而非被動接受算法輸出。

另一方面,需要進一步完善落實相關的倫理規(guī)范和法律條例。目前,世界各國已經出臺了一系列涉及算法決策的相關倫理規(guī)范和法律條例。比如歐盟的《通用數(shù)據保護條例》第二十二條規(guī)定,在應用自動化決策時,數(shù)據主體有權反對那些具有法律影響或類似嚴重影響的決策,以及“數(shù)據控制者應當采取適當措施保障數(shù)據主體的權利、自由、正當利益,以及數(shù)據主體對控制者進行人工干涉,以便表達其觀點和對決策提出異議的基本權利”。我國《個人信息保護法》也包含了類似的規(guī)定。聯(lián)合國教科文組織的《人工智能倫理問題建議書》也明確要求,在將人工智能應用于醫(yī)療保健等領域時,需要“確保人工護理以及最終的診斷和治療決定一律由人類作出,同時認可人工智能系統(tǒng)也可以協(xié)助人類工作”。但算法決策的日常實踐往往與這些規(guī)范存在不小的差距:決策完全由算法作出,利益相關者無法對決策提出異議。算法逐漸脫離其輔助決策的工具性地位,而成為決策的權威來源,進而導致一系列包括認識論不公正等倫理和認知上的危害。因此,應進一步推動落實相關的倫理規(guī)范和法律條例,確保算法回歸至輔助決策的應有地位。

猜你喜歡
證詞解釋學認識論
馬克思意識形態(tài)批判闡釋的認識論困境及其終結
基于信息技術哲學的當代認識論研究
從《關于費爾巴哈的提綱》看馬克思認識論的變革
李永剛著《歷史主義與解釋學》推介
“生活轉向”的解釋學意圖
大偵探
藏傳佛教認識論評析
西藏研究(2016年3期)2016-06-13 05:37:44
伽達默爾解釋學中的內在話語
中國詮釋學(2016年0期)2016-05-17 06:12:16
朱熹《孟子》學的解釋學考察
證詞
石棉县| 昭觉县| 高台县| 天镇县| 萨迦县| 湘阴县| 三河市| 长宁县| 庄河市| 安吉县| 沅江市| 关岭| 临汾市| 大冶市| 濮阳市| 武胜县| 宁南县| 嵩明县| 通江县| 伊宁市| 浦江县| 辽阳县| 历史| 雷波县| 连平县| 含山县| 平泉县| 南投县| 兖州市| 朝阳市| 三原县| 蕉岭县| 科尔| 浦江县| 娱乐| 商丘市| 若羌县| 辽宁省| 廊坊市| 汽车| 明星|