李雁華,杜海濤
(1.華東師范大學(xué)哲學(xué)系,上海 201100; 2.青島大學(xué)馬克思主義學(xué)院,山東 青島 266100;3.西北師范大學(xué)哲學(xué)系,甘肅 蘭州 730000)
自20世紀(jì)70年代開始,風(fēng)險(xiǎn)研究已經(jīng)發(fā)展成為一個(gè)重要的跨學(xué)科研究領(lǐng)域。按照吉登斯的觀點(diǎn),風(fēng)險(xiǎn)是現(xiàn)代性研究中一個(gè)相當(dāng)重要的概念,他說:“在一個(gè)拋棄了舊有的、傳統(tǒng)的行事方式的社會(huì),以及在一個(gè)完全面臨充滿不確定因素的未來的社會(huì),風(fēng)險(xiǎn)便成為有著重大意義的核心概念?!盵1]104之所以如此,是因?yàn)楝F(xiàn)代社會(huì)完全拋棄了命運(yùn)、宿命等傳統(tǒng)決定論的理解工具,個(gè)體命運(yùn)的不確定性與社會(huì)開放性融為一體。風(fēng)險(xiǎn)之所以成為一個(gè)現(xiàn)代社會(huì)的凸顯特征,其思維的基底是人類理性化進(jìn)程中形成的對(duì)改造外在世界的自信。風(fēng)險(xiǎn)本體論與未來學(xué)思維主導(dǎo)現(xiàn)代風(fēng)險(xiǎn)評(píng)估的技術(shù)化,正是基于這種風(fēng)險(xiǎn)“懸臨”的意識(shí),導(dǎo)致現(xiàn)代對(duì)風(fēng)險(xiǎn)的認(rèn)知幾乎滲入到每個(gè)人的行動(dòng)中,這便有了吉登斯所謂的“對(duì)未來的殖民”的可能性,因?yàn)檫@種未來學(xué)思維下的風(fēng)險(xiǎn)意識(shí)已成為防控成本的一種投資。由此可見,社會(huì)風(fēng)險(xiǎn)領(lǐng)域的特征恰恰是人與人關(guān)系的不確定性導(dǎo)致的不可預(yù)計(jì)的概率事件增加。在一個(gè)相對(duì)固定的熟人社會(huì)中,風(fēng)險(xiǎn)不可能是核心特征,正是社會(huì)的脫域程度加劇所帶來的交往形式多元化,使得風(fēng)險(xiǎn)成為處理社會(huì)問題的一個(gè)重要視角,與之相關(guān)的風(fēng)險(xiǎn)評(píng)估與風(fēng)險(xiǎn)防控也成了現(xiàn)代社會(huì)的重要研究內(nèi)容。
風(fēng)控行為是風(fēng)險(xiǎn)社會(huì)的必然產(chǎn)物?,F(xiàn)代性的一大特點(diǎn)是風(fēng)險(xiǎn)類型從前現(xiàn)代的地震、洪澇、疾病等自然風(fēng)險(xiǎn)擴(kuò)大到金融、經(jīng)濟(jì)、市場、技術(shù)發(fā)展等人為風(fēng)險(xiǎn)。而由諸多人為風(fēng)險(xiǎn)促導(dǎo)的“未來學(xué)”思維,開始以技術(shù)化方式對(duì)抗運(yùn)氣依賴的不可控性,科學(xué)化與技術(shù)化的風(fēng)險(xiǎn)管理進(jìn)而成為規(guī)避運(yùn)氣的重要操作,如張康之所說:“由于技術(shù)、知識(shí)和謀略的進(jìn)化使得人們比歷史上的任何時(shí)候都有著更強(qiáng)的控制矛盾和解決問題的能力,似乎人們能夠在對(duì)各種各樣矛盾的解決中避免社會(huì)風(fēng)險(xiǎn)和降低社會(huì)風(fēng)險(xiǎn)?!盵2]一種培根式的技術(shù)樂觀主義也認(rèn)為:“科學(xué)技術(shù)且只有科學(xué)技術(shù)才降低或消除了人類活動(dòng)的風(fēng)險(xiǎn),使人能輕易做一些先前須付出一定代價(jià)才能完成的事情?!盵3]在資本主義市場經(jīng)濟(jì)中,關(guān)于金融市場投資和活動(dòng)的決定必須根據(jù)所涉風(fēng)險(xiǎn)的背景來理解。因此,注重技術(shù)化模型的現(xiàn)代經(jīng)濟(jì)理論必然需要建構(gòu)風(fēng)險(xiǎn)的技術(shù)化模型,風(fēng)控領(lǐng)域統(tǒng)計(jì)學(xué)意義上的技術(shù)化起步完成于20世紀(jì)50年代提出的標(biāo)準(zhǔn)差風(fēng)險(xiǎn)指數(shù)方法。
上述對(duì)風(fēng)險(xiǎn)的技術(shù)化控制認(rèn)知,為當(dāng)今人工智能發(fā)展成為新的風(fēng)控方式提供了背景。人工智能風(fēng)控的特點(diǎn)在于運(yùn)用大數(shù)據(jù)分析的方式防控風(fēng)險(xiǎn)的發(fā)生,現(xiàn)今社會(huì)管理、工程管理、醫(yī)院護(hù)理系統(tǒng)、網(wǎng)絡(luò)安全,以及金融信用系統(tǒng)等人工易出錯(cuò)的領(lǐng)域都已經(jīng)廣泛采用人工智能。人工智能風(fēng)控的特點(diǎn)是精準(zhǔn)性分析和“絕對(duì)命令式”的預(yù)制模式,這在很大程度上可以彌補(bǔ)傳統(tǒng)風(fēng)控的弱點(diǎn),如英美等國家提出的智能風(fēng)控構(gòu)想,即監(jiān)管部門的技術(shù)系統(tǒng)直接連接每個(gè)金融機(jī)構(gòu)的后臺(tái)系統(tǒng),實(shí)時(shí)獲取監(jiān)管數(shù)據(jù),運(yùn)用風(fēng)險(xiǎn)數(shù)據(jù)聚合、數(shù)據(jù)模型類型化分析與預(yù)測、監(jiān)控支付交易等。因此,智能風(fēng)控也成為現(xiàn)代技術(shù)化風(fēng)控的新路徑,是現(xiàn)代風(fēng)險(xiǎn)思維的必然產(chǎn)物。
社會(huì)信用體系或保險(xiǎn)行業(yè)的風(fēng)險(xiǎn)防控成為當(dāng)代風(fēng)控的重要形式。吉登斯認(rèn)為,保險(xiǎn)的未來學(xué)思維是對(duì)未來殖民的重要表現(xiàn),是一種對(duì)可能的風(fēng)險(xiǎn)和意外投資的預(yù)先防范。而金融業(yè)、銀行業(yè)風(fēng)控其實(shí)也已成為具有新的社會(huì)現(xiàn)象意義的風(fēng)控類型。信用卡或信貸都需要銀行提前承擔(dān)客戶失信的風(fēng)險(xiǎn),而為了應(yīng)對(duì)此種風(fēng)險(xiǎn),需要個(gè)人失信記錄的數(shù)據(jù)化統(tǒng)計(jì),也即是“黑名單”制度。這一風(fēng)險(xiǎn)防控的技術(shù)類型屬于數(shù)字資本主義下信用數(shù)據(jù)商品化。技術(shù)統(tǒng)計(jì)的意義在于減少銀行信貸的運(yùn)氣性成分,以信用數(shù)據(jù)作為參考,能夠防控一定程度的失信風(fēng)險(xiǎn)。但是,僅以失信數(shù)據(jù)作為參考對(duì)象是一種被動(dòng)防控,它是在失信行為發(fā)生之后進(jìn)行的防范行為,必然存在著風(fēng)控偏差。因而,出現(xiàn)了對(duì)客戶償還能力分析等技術(shù)化手段。
隨著互聯(lián)網(wǎng)科技與金融高度融合,互聯(lián)網(wǎng)科技這種輕資產(chǎn)、重服務(wù)的網(wǎng)絡(luò)模式正慢慢滲透到金融模型中,對(duì)傳統(tǒng)金融業(yè)務(wù)產(chǎn)生了鯰魚效應(yīng)和示范效應(yīng),推動(dòng)了金融機(jī)構(gòu)的變革。由于網(wǎng)絡(luò)虛擬環(huán)境的信息不對(duì)稱、交易過程透明度低、信息安全無法得到保障,金融機(jī)構(gòu)面臨的道德風(fēng)險(xiǎn)、市場風(fēng)險(xiǎn)、信用風(fēng)險(xiǎn)越來越突出。因此,在大數(shù)據(jù)時(shí)代,人工智能進(jìn)入風(fēng)控領(lǐng)域是一種技術(shù)化發(fā)展的必然趨勢。傳統(tǒng)金融機(jī)構(gòu)采用評(píng)分卡模型和規(guī)則引擎等“強(qiáng)特征”進(jìn)行風(fēng)險(xiǎn)評(píng)分,而智能風(fēng)控(robo risk control)根據(jù)履約記錄、社交行為、行為偏好、身份信息和設(shè)備安全等“弱特征”進(jìn)行用戶風(fēng)險(xiǎn)評(píng)估。兩種風(fēng)控方式從操作到場景都呈現(xiàn)出了明顯的區(qū)別化效應(yīng),如表1所示:
表1 兩種技術(shù)化風(fēng)控方式差異比較
人工智能在風(fēng)控領(lǐng)域的綜合運(yùn)用體現(xiàn)了一種思維形式的變革,它體現(xiàn)了數(shù)據(jù)時(shí)代人類對(duì)勞動(dòng)成本和勞動(dòng)效率的綜合把控能力。它不僅要對(duì)一般銀行信息進(jìn)行數(shù)據(jù)化分析,而且要在大數(shù)據(jù)庫中,把個(gè)人信息生活痕跡等作一綜合性考量,并將個(gè)人生活事件進(jìn)行風(fēng)險(xiǎn)等級(jí)判定,最終測算出個(gè)人除信用記錄、償還能力之外的失信可能性。由此可見,技術(shù)化進(jìn)步體現(xiàn)了人類未來學(xué)思維對(duì)社會(huì)變革的一次推進(jìn)。未來學(xué)思維是現(xiàn)代個(gè)人、企業(yè)、政府面臨風(fēng)險(xiǎn)社會(huì)不得不具有的一種思維形式。而技術(shù)發(fā)展主導(dǎo)了人類對(duì)未來風(fēng)險(xiǎn)控制的信心,一種依靠技術(shù)控制未來風(fēng)險(xiǎn)的情緒也成為極盛現(xiàn)代性的典型標(biāo)志。因而,“大數(shù)據(jù)規(guī)控風(fēng)險(xiǎn)”定然是風(fēng)控領(lǐng)域的必選嘗試。同時(shí),這也是人將“信任”能力進(jìn)一步交給機(jī)器的嘗試。
現(xiàn)代大數(shù)據(jù)智能風(fēng)控的本質(zhì)是技術(shù)如何“信任”人的問題,也可以說是人選擇將信任人的能力移交給技術(shù)。這種思路是現(xiàn)代性的一大特征,即數(shù)據(jù)的精確化要高于人的判定,它可以排除情感、好惡等主觀因素,代表了高度理性化的分析形勢。吉登斯說:“現(xiàn)如今,專家思維和公共話語的一個(gè)明顯構(gòu)成部分便是‘風(fēng)險(xiǎn)情形分析’(risk profiling)——在當(dāng)今知識(shí)狀態(tài)和當(dāng)前條件下,分析風(fēng)險(xiǎn)在給定場景中的分布情況?!盵1]111隨著現(xiàn)代性脫域機(jī)制的形成,人與人的直接信任遭到解構(gòu),因而,技術(shù)以及專家知識(shí)成了信任得以維持的手段。這些都體現(xiàn)出人對(duì)自身與風(fēng)險(xiǎn)防控能力的不自信,進(jìn)而將信任轉(zhuǎn)交給技術(shù)。吉登斯的話語背景是20世紀(jì),人工智能尚未興起,實(shí)際上技術(shù)的發(fā)展正印證了他所說的技術(shù)革命的速度比人類歷史上任何政治、經(jīng)濟(jì)和社會(huì)革命都快很多。現(xiàn)在人工智能越來越廣泛全面地應(yīng)用在風(fēng)險(xiǎn)控制上,這其實(shí)體現(xiàn)了一種新的“未來學(xué)”自信。它比現(xiàn)代人類對(duì)疾病風(fēng)險(xiǎn)、災(zāi)難風(fēng)險(xiǎn)的控制和評(píng)估都更為特殊,因?yàn)閷?duì)于疾病等風(fēng)險(xiǎn)僅能根據(jù)一種概率性直覺訴諸保險(xiǎn)等預(yù)防手段。而大數(shù)據(jù)時(shí)代則可以根據(jù)大量的數(shù)據(jù)實(shí)現(xiàn)精準(zhǔn)的風(fēng)險(xiǎn)管理。但問題是在這種以智能物對(duì)人懷疑為前提的算法操作中,技術(shù)該如何“信任”人?
大數(shù)據(jù)風(fēng)險(xiǎn)判斷的基礎(chǔ)是“數(shù)據(jù)痕跡”,與傳統(tǒng)征信活動(dòng)所不同的是,大數(shù)據(jù)不僅包括傳統(tǒng)的信貸數(shù)據(jù),同時(shí)也包括了與消費(fèi)者還款能力、還款意愿相關(guān)的一些描述性風(fēng)險(xiǎn)特征。利用大數(shù)據(jù)技術(shù),可以搜集許多數(shù)據(jù)維度來描述風(fēng)險(xiǎn),作為風(fēng)險(xiǎn)評(píng)估的重要依據(jù),這樣可以更大限度地解決銀行機(jī)構(gòu)與普通人之間的信息不對(duì)稱問題。傳統(tǒng)銀行無法獲取用戶的征信信息,人工智能通過技術(shù)、數(shù)據(jù)的手段可以構(gòu)建出一個(gè)信用分析模型。因此,對(duì)于銀行、風(fēng)投公司、保險(xiǎn)公司等企業(yè)而言,智能算法為風(fēng)險(xiǎn)評(píng)判提供了新的技術(shù)支持?!八惴Q策具有專業(yè)性、復(fù)雜性和動(dòng)態(tài)性特征。結(jié)合具體應(yīng)用,算法主要發(fā)揮著優(yōu)先級(jí)配置、分類、關(guān)聯(lián)及過濾四項(xiàng)功能?!盵4]因此,依靠算法可以滿足經(jīng)濟(jì)性、安全性、客觀性等要求。而銀行等企業(yè)對(duì)算法的信任與算法對(duì)人的“信任”構(gòu)成了風(fēng)控與風(fēng)評(píng)的核心環(huán)節(jié)。
一般而言,“信任”一個(gè)人需要依靠其過往信息的在場性[5],信任本身就是依靠信息的在場而取消懷疑的心理過程。同時(shí)由于現(xiàn)代社會(huì)的脫域性加劇,信任本身已經(jīng)成為關(guān)聯(lián)著巨大社會(huì)資源的心理要素(1)如吉登斯、福山等人都注意到現(xiàn)代社會(huì)風(fēng)險(xiǎn)與信任的同構(gòu)關(guān)系,信任不僅是構(gòu)成社會(huì)聯(lián)結(jié)的重要心理,而且獲得信任也成了社會(huì)資源凝聚的內(nèi)在動(dòng)因。參見弗朗西斯·福山《信任》一書。。對(duì)于人工智能領(lǐng)域而言,“人-機(jī)信任”已成為當(dāng)前最為重要的研究主題之一,它關(guān)涉智能技術(shù)良性發(fā)展的倫理基礎(chǔ)。如歐盟委員會(huì)就曾發(fā)布“可信任人工智能的倫理框架”(Ethics Guidelines for Trustworthy AI)[6],確立了人工智能可信任機(jī)制的基本原則與路徑。閆宏秀指出:“在人工智能的背景下,人與技術(shù)的關(guān)系是基于某種信任而形成的一種新型深度融合。這種信任是人與人工智能關(guān)系存在的前提條件。但這種信任除了傳統(tǒng)意義上的人際信任之外,還涉及人對(duì)人工智能以及人工智能系統(tǒng)間的信任?!盵7]而相關(guān)心理研究發(fā)現(xiàn)造成人機(jī)信任困難的是人工智能的非物理性存在形式,如斯特拉特認(rèn)為,面部的非言語暗示對(duì)于信任有促進(jìn)作用,如穩(wěn)定的面部特征,如吸引力、相似性和感知可信度是信任的重要影響因素[8]。但實(shí)際上,人-機(jī)間的信任困境不僅在于這種心理因素,而且還在于對(duì)算法不透明性的倫理質(zhì)疑。
在風(fēng)控領(lǐng)域,一個(gè)有趣的現(xiàn)象是,相關(guān)風(fēng)控企業(yè)機(jī)構(gòu)越來越偏向于信任智能物對(duì)人的“信任”,呈現(xiàn)出一種如圖1所示的信任方式。如果說公眾對(duì)于算法的合理質(zhì)疑是推動(dòng)人工智能倫理發(fā)展進(jìn)程的動(dòng)因,那么,企業(yè)對(duì)智能算法的過度信任也會(huì)成為智能物自我規(guī)約的阻礙,后者依然反映著傳統(tǒng)資本邏輯驅(qū)動(dòng)的典型正義問題。其實(shí),人工智能對(duì)人的信任,本質(zhì)上仍是人際信任在人機(jī)互動(dòng)上的反映,它也需要信息的“在場性”,如機(jī)器“信任”人需要大量信息在場的依據(jù),安全系統(tǒng)依賴于技術(shù)數(shù)據(jù)的記錄,以及對(duì)有前科的人的犯罪防控。大數(shù)據(jù)時(shí)代,消費(fèi)記錄、信用記錄都成為判別人“善惡”的依據(jù)。
圖1 大數(shù)據(jù)時(shí)代技術(shù)化風(fēng)控中的信任方式呈現(xiàn)
由此,數(shù)據(jù)記錄頻次已經(jīng)成為風(fēng)險(xiǎn)的重要依據(jù)。但問題是數(shù)據(jù)應(yīng)該如何成為風(fēng)險(xiǎn)判定的基本依據(jù)?在技術(shù)通過數(shù)據(jù)“信任”人的系統(tǒng)中,技術(shù)對(duì)人的信任成為人對(duì)人信任的直接證據(jù),從而弱化了人對(duì)人的信任。在該系統(tǒng)的運(yùn)作模式中,大數(shù)據(jù)與人工智能的信任能力是對(duì)信用積分的一種依賴,只不過它將信任判定的來源置于一個(gè)更廣的數(shù)據(jù)池中。但這種風(fēng)控模式仍需面對(duì)一個(gè)質(zhì)疑:技術(shù)對(duì)人的“信任”判斷是否真的具有正當(dāng)性?首先,因?yàn)樾刨J不僅是一個(gè)風(fēng)險(xiǎn)規(guī)避問題,而且也包含著“急人所需”的道德主張,所以,這種“正當(dāng)性”就是要對(duì)技術(shù)或算法做出某些道德性要求。再者,“人-機(jī)信任”要具有某種道德性含義,那么這種信任不能以企業(yè)對(duì)人工智能物的信任為依據(jù),而應(yīng)以公眾對(duì)于人工智能物的信任為依據(jù)。公眾對(duì)人工物的信任中顯然已經(jīng)蘊(yùn)含程序透明度、合法性等問題[9]。
技術(shù)的道德要求,也是社會(huì)對(duì)使用技術(shù)的企業(yè)的道德要求。比如銀行僅僅依靠人工智能的數(shù)據(jù)分析作為風(fēng)控的手段,是否會(huì)不公平地對(duì)待被判斷者?再者,技術(shù)判斷的數(shù)據(jù)依據(jù)究竟如何厘定?在數(shù)字經(jīng)濟(jì)發(fā)展中,銀行可能會(huì)將博士生不能按時(shí)畢業(yè)視為失信風(fēng)險(xiǎn)行為[10],其中包含著大量技術(shù)與正義的關(guān)系問題。將哪些事件視為失信標(biāo)準(zhǔn)是一個(gè)有關(guān)正義的問題。技術(shù)對(duì)人的“不信任”應(yīng)有符合正當(dāng)性原則的依據(jù),而不能直接被企業(yè)依據(jù)風(fēng)險(xiǎn)最小化原則處理?!帮L(fēng)險(xiǎn)最小化”有可能導(dǎo)致對(duì)用戶的不公平對(duì)待。
因此,應(yīng)用技術(shù)風(fēng)控的同時(shí),也必須警惕風(fēng)控技術(shù)本身導(dǎo)致的正義性風(fēng)險(xiǎn)。曹玉濤認(rèn)為:“社會(huì)財(cái)富和權(quán)力的分配要服從技術(shù)資本的‘絕對(duì)命令’,且長期漠視技術(shù)風(fēng)險(xiǎn)和代價(jià)與承擔(dān)者利益的存在,不斷消弭技術(shù)在解決貧困、疾病、饑餓和環(huán)境問題上的責(zé)任和義務(wù),從而將處于技術(shù)壟斷之外的人推向社會(huì)生活邊緣?!盵11]在技術(shù)脫域性時(shí)代,技術(shù)和專業(yè)知識(shí)終結(jié)了人與人之間的直接信任,這已經(jīng)成為社會(huì)關(guān)系的新常態(tài)。同時(shí)技術(shù)發(fā)展也在為社會(huì)造就新的不公正風(fēng)險(xiǎn)。在此,風(fēng)控這種以不信任與懷疑為前提的技術(shù)顯得尤為特殊。在人工智能營造的深度脫域性氛圍中,如何保證人在技術(shù)規(guī)控中得到公正對(duì)待,成為一個(gè)新的議題。
智能風(fēng)控的出場本身便是技術(shù)與倫理的互涉,現(xiàn)代人的基本生存境況正如艾呂爾所看到的那樣:“始終存在于技術(shù)的纏繞之中,對(duì)技術(shù)的使用使得人就處在技術(shù)之中”[12]。智能風(fēng)控以智能化算法滲入諸多倫理生活領(lǐng)域中,并以事實(shí)性數(shù)據(jù)的計(jì)算對(duì)現(xiàn)實(shí)生存的個(gè)體做出智能判定。這種智能判定形式,不僅使得“人處在技術(shù)之中”,同樣也以主體的形象出場,在有限的社會(huì)角色呈現(xiàn)中,對(duì)人作出信任與否的“責(zé)任”判定。由此,智能判定的主體能動(dòng)性程度及其深度社會(huì)參與所帶來的正義問題便躍然而出,這種看似理性的算法背后,其實(shí)潛藏著諸如算法黑箱、算法歧視等一系列問題。如網(wǎng)約車平臺(tái)根據(jù)手機(jī)價(jià)值去制造收費(fèi)偏差等“大數(shù)據(jù)殺熟”現(xiàn)象。而且,除人為設(shè)定算法的正義風(fēng)險(xiǎn)之外,在運(yùn)用算法的過程中,算法本身也會(huì)成為一種決策黑箱,其間可能形成的自主偏好,也會(huì)導(dǎo)致決策的非公正性,如算法會(huì)根據(jù)操作習(xí)慣,將偏好固定化為程序。
社會(huì)公正的基本要求是對(duì)人的尊重,而在當(dāng)今社會(huì)的算法化治理傾向中,“技術(shù)權(quán)力的共性在于依托大規(guī)模的集成數(shù)字化平臺(tái),靠全覆蓋的攝像頭、傳感器、分析中心和智能終端匯總社會(huì)個(gè)體和群體的生活形態(tài)和生活軌跡,將分散的價(jià)值與意識(shí)集中成公意,從而強(qiáng)制執(zhí)行?!盵13]因而,依托算法的廣泛應(yīng)用在某種意義上必然伴隨著馬加利特所謂的“羞辱”的風(fēng)險(xiǎn)[14],人在技術(shù)中被視為無差別的“可計(jì)算性”存在,“‘人格數(shù)據(jù)化’使人成為技術(shù)網(wǎng)絡(luò)的附屬品,成為算法運(yùn)行中的一個(gè)元素和節(jié)點(diǎn)。以技術(shù)理性作為社會(huì)價(jià)值的導(dǎo)向,壓抑了每個(gè)社會(huì)個(gè)體與生俱來的人格和尊嚴(yán)的訴求?!盵13]這也是人工智能時(shí)代必須要面對(duì)的一種正義問題。在智能時(shí)代的技術(shù)化風(fēng)險(xiǎn)控制的諸種嘗試中,正義仍是現(xiàn)代技術(shù)設(shè)定必須考量的倫理界限。在智能風(fēng)控中存在以下幾種非正義風(fēng)險(xiǎn):
第一,依據(jù)事件的數(shù)據(jù)判斷“應(yīng)得”。庫珀特在《作為恰當(dāng)性的正義》一書中曾指出,正義不僅意味著社會(huì)公共善的平等分配,而且應(yīng)體現(xiàn)在每一個(gè)人得到恰當(dāng)?shù)膶?duì)待[15]。但在風(fēng)控思維中,每一個(gè)人都被視為信用上可能犯錯(cuò)的人,那么,如何保證算法判斷符合“應(yīng)得”本身就是一個(gè)關(guān)乎正義的問題。技術(shù)化操作將個(gè)體人格以及人的應(yīng)得都置于一種量化中,將判別對(duì)象視為一個(gè)各種信息痕跡綜合構(gòu)成的拼合體,根據(jù)這些信息做出的風(fēng)險(xiǎn)判斷很可能并不符合其應(yīng)得。而且算法本身的不透明性也使得算法對(duì)待受眾的方式遭受質(zhì)疑。因而在這種大數(shù)據(jù)風(fēng)險(xiǎn)預(yù)判中,風(fēng)險(xiǎn)判斷效率可能會(huì)得到增強(qiáng),但判斷的正義性則是存疑的。
第二,事實(shí)與價(jià)值的難以對(duì)等問題。風(fēng)險(xiǎn)評(píng)估預(yù)設(shè)了一種懷疑性思維,這就導(dǎo)致預(yù)判以一種懷疑思維處理事實(shí),所有判斷的依據(jù)是事實(shí)條件的集合,然而風(fēng)險(xiǎn)評(píng)估卻要通過對(duì){a1,a2,…,an}等事實(shí)集合的分析去推論可能性結(jié)果。那么,對(duì)于失信判定的“原因”,仍舊是按照概率計(jì)算的。但這種模態(tài)邏輯關(guān)系,對(duì)于事實(shí)與價(jià)值的因果關(guān)系的判斷會(huì)造成一定的困難。而且,不同于通過水泥填充量、鋼筋直徑等諸多事實(shí)對(duì)橋梁風(fēng)險(xiǎn)性的判定,智能風(fēng)控依據(jù)個(gè)人哪些事實(shí)去推定一種具有正義價(jià)值的判定,需要進(jìn)一步論證。通過圖2兩種正義模型的對(duì)比可以更好地說明這個(gè)問題:
圖2 兩種正義模型對(duì)比
模型A是羅爾斯和哈貝馬斯意義上的正義模型,價(jià)值與事實(shí)的統(tǒng)一性體現(xiàn)在對(duì)事實(shí)的公共理性評(píng)價(jià)與約定共識(shí)的雙重并進(jìn)上。而就模型B而言,則體現(xiàn)了風(fēng)險(xiǎn)世界的一種預(yù)估性規(guī)劃,并且此種模型下的最終決策還試圖滿足人類的一般正義要求或正義直覺。但其起點(diǎn)在于一種否定性的“無風(fēng)險(xiǎn)”,這種目的性會(huì)導(dǎo)致一種后果論。基于這種后果主義,算法程序排除了價(jià)值生成過程,很難實(shí)現(xiàn)事實(shí)與正義價(jià)值的契合。
第三,正義的主理者問題。正義的主理者問題關(guān)涉的是誰應(yīng)為正義問題負(fù)責(zé)。一種常識(shí)觀點(diǎn)是企業(yè)技術(shù)行為可以不為社會(huì)正義負(fù)責(zé)。一項(xiàng)技術(shù)設(shè)計(jì)的初衷就是工具性使用,它適用于特定的人,可以不涉及權(quán)利平等的責(zé)任問題,權(quán)利與平等應(yīng)是政府治理行為的關(guān)注點(diǎn)。比如一項(xiàng)新藥技術(shù)的產(chǎn)生,可以不為可能帶來的貧困群體無法使用該藥的結(jié)果負(fù)責(zé)。該觀點(diǎn)是一種技術(shù)中立主義的立場,認(rèn)為技術(shù)本身與其可能的使用狀況是分離的。也就是說,技術(shù)的本質(zhì)在于其功能性,沒有義務(wù)去承擔(dān)其后的公平、正義等問題。另外,就算技術(shù)本身應(yīng)為其所帶來的正義問題負(fù)責(zé),那么,企業(yè)或技術(shù)的開發(fā)者與智能人工物本身,誰應(yīng)該切實(shí)承擔(dān)正義判定的主體地位也值得商榷,因?yàn)槿斯ぶ悄芪镆苍跐u漸產(chǎn)生某些不依賴于人的智能偏好等,因此它們也逐漸被視為一種承擔(dān)部分責(zé)任的主體。
綜上,智能風(fēng)控的應(yīng)用在邏輯上存在正義性的風(fēng)險(xiǎn)。這種風(fēng)險(xiǎn)源于風(fēng)險(xiǎn)防控的懷疑本性,在算法設(shè)定上以對(duì)人的懷疑為起點(diǎn),勢必導(dǎo)致智能風(fēng)控在算法與判斷上對(duì)風(fēng)險(xiǎn)的“超事實(shí)”衡量,這就會(huì)造成數(shù)據(jù)事實(shí)與其所附帶的正義價(jià)值的不一致性。而智能風(fēng)控要實(shí)現(xiàn)其可信任性,必須在正義性上保證其價(jià)值。正如奧妮爾所說:“信任危機(jī)不能用盲目信任來克服?!盵16]那么,人機(jī)之間的信任問題應(yīng)通過對(duì)算法正義的信任來克服,而非直接將技術(shù)效益作為信任的合理依據(jù)。
算法風(fēng)評(píng)以對(duì)人的懷疑為基本設(shè)定,只有“懷疑”程序被否定之后,才能產(chǎn)生“信任”判定。在風(fēng)險(xiǎn)的智能判定過程中,作為主體的機(jī)器如何通過既定數(shù)據(jù)使懷疑合乎倫理,并對(duì)人類事件做出能動(dòng)的責(zé)任判斷?這是當(dāng)前人工智能風(fēng)控的一項(xiàng)重大難題,也是當(dāng)前人工智能主體性研究的一個(gè)重要問題。麻省理工學(xué)院航天控制實(shí)驗(yàn)室(Aerospace Controls Laboratory)近期開發(fā)了一種新的深度學(xué)習(xí)算法以提升智能物的“合理懷疑”能力?!昂侠響岩伞笔侵黧w特有的能力,它也是一種智能物智能化程度的表征方式。本研究更關(guān)注如何令人工智能不加歧視地懷疑,即不以身份、出身、地域、種族等偏見對(duì)人懷疑,也就是合乎倫理的“合理懷疑”。這種“合理懷疑”對(duì)于當(dāng)前的人工智能技術(shù)而言是很難獨(dú)立完成的,現(xiàn)有的解決思路是通過設(shè)計(jì)者、從業(yè)者與智能體共同配合來保證決策的合理與公正。那么,這就帶來了一個(gè)問題,在這一過程中設(shè)計(jì)者、企業(yè)還有智能體,誰是實(shí)質(zhì)意義上的道德主體呢?誰又在該判斷中具備完全的能動(dòng)性呢?
主體能動(dòng)性問題在倫理學(xué)上意指:“具有意向性能力的人相應(yīng)地具有道德判斷和選擇能力”[17]。人工智能領(lǐng)域的研究者通常認(rèn)為:智能物只是算法,真正的能動(dòng)主體是算法的設(shè)定者,也即是企業(yè)或程序開發(fā)者。但隨著智能物的智能程度及其社會(huì)參與程度的提高,隨著現(xiàn)今人工智能的發(fā)展,人們開始期待人類與智能物的雙重主體性,正如 Hanson所指出,從智能體在深度社會(huì)參與中逐漸獲得社會(huì)角色的角度來看,“主體”與“能動(dòng)性”都顯示出高度的人機(jī)協(xié)作與重疊,即以“復(fù)合主體”(composite agent)與“復(fù)合能動(dòng)性”(composite agency)[18]的形式呈現(xiàn),在道德責(zé)任上“以復(fù)合能動(dòng)性的形式導(dǎo)向人類和非人類的協(xié)同”[18]。也就是說,主體判斷由傳統(tǒng)的專家、開發(fā)者等責(zé)任承擔(dān)形式,逐漸轉(zhuǎn)向復(fù)合雙主體責(zé)任形式。
但實(shí)際上這種復(fù)合主體的設(shè)想在銀行智能風(fēng)控行為中很難實(shí)現(xiàn)。首先,雖然智能物在技術(shù)上已經(jīng)可以實(shí)現(xiàn)智能算法的某些自主性,但是較之“事實(shí)能動(dòng)性”,實(shí)現(xiàn)智能物的“道德能動(dòng)性”更具難度。其次,因?yàn)殂y行風(fēng)控本質(zhì)上是逐利行為,為規(guī)避風(fēng)險(xiǎn)銀行不愿意過多考慮智能物的道德責(zé)任判斷算法。但在現(xiàn)代智能領(lǐng)域責(zé)任創(chuàng)新范式的要求中,已經(jīng)可以明顯地看到智能判定由最初的數(shù)據(jù)處理轉(zhuǎn)向了倫理社會(huì)的人機(jī)關(guān)系。正如Brundage提出的人工智能“責(zé)任式創(chuàng)新”(responsible innovation)模式,即是關(guān)注到人工智能技術(shù)與社會(huì)生活的深度融合,強(qiáng)調(diào)跳出以往僅從技術(shù)本身審思人工智能問題的思維方式,轉(zhuǎn)而在責(zé)任式創(chuàng)新模式中探索人工智能技術(shù)參與社會(huì)工作的有效性[19]?;诖耍椭悄茱L(fēng)控技術(shù)而言,智能計(jì)算存在大數(shù)據(jù)智能風(fēng)控與技術(shù)化信任的脫域性,并且由此產(chǎn)生社會(huì)正義審思由傳統(tǒng)正義模式向機(jī)器如何信任人的新型正義形式轉(zhuǎn)變的問題,這是一個(gè)我們?cè)谌藱C(jī)倫理關(guān)系的交往中必須慎重對(duì)待的問題。
從主體能動(dòng)性問題引出如何恰當(dāng)?shù)貙?duì)待人的正義問題,本質(zhì)上是智能風(fēng)險(xiǎn)評(píng)估如何體現(xiàn)出道德性的問題。以“技術(shù)中立主義”的觀點(diǎn)來看,技術(shù)應(yīng)與其后果分割開來,這種觀點(diǎn)不僅分隔了技術(shù)與其創(chuàng)造者的責(zé)任問題,也沒能看到智能技術(shù)本身在負(fù)責(zé)任能力上的特殊性。就目前銀行智能風(fēng)控系統(tǒng)來看,智能算法對(duì)事實(shí)性數(shù)據(jù)的加工處理,總是會(huì)導(dǎo)向?qū)栀J個(gè)體的現(xiàn)實(shí)利益的判定與影響,以致于判斷對(duì)象的許多生活痕跡被不加深究地作為失信的可能性依據(jù)。人工智能在這種智能風(fēng)控中處于“工具式地位”(instrumental position)。而負(fù)責(zé)任的智能風(fēng)控創(chuàng)新,應(yīng)從根本上考量人工智能技術(shù)在風(fēng)控行業(yè)發(fā)展的“能動(dòng)性地位”(agency position),以一種它能夠獨(dú)立作為能動(dòng)判定主體的樂觀態(tài)度,期待其在該行業(yè)的更好發(fā)展,并且能夠兼顧判斷準(zhǔn)確性與道德性。這種期待要求智能風(fēng)控技術(shù)不僅介入真實(shí)情境倫理判定的因果鏈條之中,而且以復(fù)合式主體的形式,從判定借貸方是否具備還款能力的角度,反映出智能機(jī)器對(duì)人的正義問題。
風(fēng)控領(lǐng)域?qū)Α扒‘?dāng)性正義”的需要?jiǎng)荼厥且詼p弱工具式的參與方式為前提的,雖然提升智能物參與的道德主體性仍是一個(gè)難題,但已成為一個(gè)趨勢,歐盟在“地平線2020”計(jì)劃中提出了責(zé)任式創(chuàng)新范式,將發(fā)展工具性的數(shù)據(jù)分析設(shè)備,轉(zhuǎn)向發(fā)展包含更多倫理道德考量與社會(huì)整體期待的人工智能。正如Latour所說:“道德法則在我們的心中,但它也在我們的儀器中。在到達(dá)超我 (super-ego)的傳統(tǒng)之前,為了闡述我們行動(dòng)的正確性、信任度和延續(xù)性,我們可能要增加技術(shù)的隱我 (under-ego)?!盵20]所謂“隱我”是指技術(shù)設(shè)計(jì)整體背景下某種倫理植入的“自我”。智能風(fēng)控作為切實(shí)關(guān)涉人的利益的領(lǐng)域,應(yīng)當(dāng)率先考慮這一趨勢,以一種人機(jī)復(fù)合主體性的形式深度參與實(shí)際倫理生活,從而一定程度上對(duì)社會(huì)正義等現(xiàn)實(shí)倫理實(shí)踐決策產(chǎn)生影響。
人工智能風(fēng)險(xiǎn)防控以對(duì)人的信用質(zhì)疑為出發(fā)點(diǎn),如果說風(fēng)險(xiǎn)防控的技術(shù)規(guī)劃是現(xiàn)代性的典型特征,那么,人工智能風(fēng)控將人的信任能力移交給機(jī)器或數(shù)據(jù)則體現(xiàn)了社會(huì)的進(jìn)一步脫域化。但人工智能風(fēng)控本身在技術(shù)層面上存在非正義風(fēng)險(xiǎn),它在數(shù)據(jù)事實(shí)和正義價(jià)值之間還不能建構(gòu)起某種倫理關(guān)系。因此,對(duì)人工智能風(fēng)控的倫理期待與對(duì)人工智能技術(shù)本身的倫理期待是一致的,在“復(fù)合主體”和“復(fù)合能動(dòng)性”的要求中,智能風(fēng)控技術(shù)需要建構(gòu)自身的“可信任”條件,而這種“可信任”恰恰體現(xiàn)在其“懷疑”能力的合理性上。