国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

治理算法化的證成與風(fēng)險:如何理解人工智能的治理屬性

2022-02-14 09:37朱婉菁
天津行政學(xué)院學(xué)報 2022年1期
關(guān)鍵詞:機器學(xué)習(xí)人工智能大數(shù)據(jù)

摘 要:人工智能對于治理領(lǐng)域產(chǎn)生的變革要求在理論上予以重構(gòu)與創(chuàng)新,將人工智能置于治理的內(nèi)部“理論證成”與外部“風(fēng)險識別”的二階結(jié)構(gòu)中提出并論證治理算法化這一分析框架,不失為一條在人工智能時代探討治理變革的有益進路。治理算法化成立的先決條件除了“可計算化”模塊的努力之外,更重要的是重塑治理的邊界。其源起既是治理信任補強之需,亦有個體化時代建構(gòu)集體行動之必要。治理算法化應(yīng)始終秉持以人為尺度的應(yīng)用邏輯。治理算法化存在“道”與“術(shù)”的異步困境,即存在商業(yè)邏輯優(yōu)先于治理邏輯、算法偏見內(nèi)化為公共理性、技術(shù)權(quán)力泛化為液態(tài)監(jiān)控以及擬態(tài)真實取代治理情境等風(fēng)險。因此,治理算法化仍須進一步促進技術(shù)與人的和諧關(guān)系。

關(guān)鍵詞:人工智能;治理算法化;大數(shù)據(jù);算法偏見;機器學(xué)習(xí)

中圖分類號:D035 文獻標(biāo)識碼:A 文章編號:1008-7168(2022)01-0013-12

算法,一個存在已久的技術(shù)術(shù)語,隨著人工智能和大數(shù)據(jù)的發(fā)展以迅猛的態(tài)勢深入人們的生活?!八惴ā北举|(zhì)上就是一些復(fù)雜的電腦代碼程式,但隨著人類在人工智能的道路上不斷開疆拓土,它的意義已經(jīng)遠超其原初單純的技術(shù)屬性而被附著眾多的意義和評價,其廣泛滲透于政治、經(jīng)濟、文化等各領(lǐng)域,作為技術(shù)要素影響、參與甚至引領(lǐng)革命性變革。在經(jīng)濟領(lǐng)域,算法表現(xiàn)為技術(shù)資本在數(shù)字經(jīng)濟市場中的利益追求工具;在文化領(lǐng)域,愈發(fā)形成并固化為技術(shù)特質(zhì)下精準高效、人群分化的文化傳播;而在政治領(lǐng)域,則化身為一種新的權(quán)力形態(tài),高度聚焦于政治決策的智能化、政治治理的精準性以及政治傳播的針對性。算法根據(jù)其運用領(lǐng)域和作用主體的不同,產(chǎn)生差異化的技術(shù)效益與治理效能。而在這個過程中,不僅該領(lǐng)域的系統(tǒng)本身被改革,貫穿其中的算法亦幾經(jīng)流轉(zhuǎn)而重新“粉墨登場”。這既是一種系統(tǒng)的思維,更是一種演進的視角。要討論一種社會中新出現(xiàn)的技術(shù),除了考慮它是被用來解決什么問題以及它所產(chǎn)生的各種效應(yīng)之外,在這個基礎(chǔ)上論證這樣的意圖以及效應(yīng)是如何產(chǎn)生的同樣重要。因此,在治理與算法的“聯(lián)姻”中,除了將治理作為一個待解釋變量,理解算法統(tǒng)攝下的技術(shù)變遷可能會使治理本身產(chǎn)生什么樣的轉(zhuǎn)型之外,亦需要關(guān)注以及論證這種轉(zhuǎn)型的合法性基礎(chǔ),以及治理的非技術(shù)因素與人工智能的算法因素之間將以何種方式互嵌互構(gòu)。

一、論證的基點:名正而后言順

(一)治理算法化:一個分析性框架

雖然算法近些年開始流行起來,但它并不是新生事物??v觀算法的發(fā)展史,有關(guān)它的概念釋義不僅多元而且發(fā)展迅速,如若粗略劃分,目前學(xué)界對于算法的闡釋主要基于自然科技史和技術(shù)社會學(xué)兩個視角。

從科技史的發(fā)展來看,早在中國商周時期,漢語中的“術(shù)”字就有推理、算術(shù)、邏輯之意。公元8世紀的波斯,著名數(shù)學(xué)家阿爾·花拉子米(AlKhowarizmi)將算法作為一個獨立概念提出,意指“能夠運行的系統(tǒng)性計算”①。公元1202年,意大利著名數(shù)學(xué)家斐波那契(Leonardo Fibonacci)的傳世之作《計算之術(shù)》問世,其后,算法的概念逐漸在歐洲流行,并在19世紀成為數(shù)學(xué)家們討論的重要概念。20世紀90年代中期電子計算機的問世,使得代碼與算法高度關(guān)聯(lián),在網(wǎng)絡(luò)世界中“代碼即法律”的信仰之下,算法成為邏輯和規(guī)則的代名詞。近年來,伴隨計算機智能化水平的不斷升級,算法開始指向更具預(yù)示性和模糊性的含義,任何涉及人類社會復(fù)雜的決策系統(tǒng)都與算法相關(guān)。相較于自然科學(xué),技術(shù)社會學(xué)的視角則更加關(guān)注算法在社會、文化和各種體系結(jié)構(gòu)下的嵌入路徑和影響。古典政治經(jīng)濟學(xué)創(chuàng)始人威廉·配第(William Petty)曾在《政治算術(shù)》中指出:“凡關(guān)于統(tǒng)治的事項,以及同君主的榮耀、人民的幸福和繁盛有極大關(guān)系的事項,都可以用算術(shù)的一般法則加以論證。”[1](pp.1-2)這一觀念使新興的概率論與統(tǒng)計學(xué)在經(jīng)濟社會和政治領(lǐng)域得到了廣泛應(yīng)用,人們開始以對各種社會問題的可量化和可測度作為科學(xué)客觀性的指標(biāo),予以承認和信賴,并將技術(shù)迭代視作文明演進的主要元素以及人性不可分割的部分。在這方面,已有不少學(xué)者就技術(shù)的社會化建構(gòu)問題進行了探討。如??拢∕ichel Foucault)以“圓形監(jiān)獄”作為比喻,探討了技術(shù)與規(guī)訓(xùn)之間的關(guān)系[2];麥克盧漢(Marshall McLuhan)則在泛媒介論的基礎(chǔ)上,提出了“媒介即訊息”的著名命題[3];基特勒(Fredirch Kittler)走得更遠,他認為,人體和機器的界限不再清晰,身體更可能淪為技術(shù)的客體[4];而阿甘本(Giorgio Agamben)則以“裝置”重申了??碌募夹g(shù)哲學(xué)思想[5]。技術(shù)的無遠弗屆和強大的滲透性,讓整個社會系統(tǒng)“改頭換面”。這一源遠流長的技術(shù)思想使我們不必受困于對算法烏托邦式的計算觀。當(dāng)然,伴隨當(dāng)下信息技術(shù)的演進,算法迭代日益加速,任何一種單一的學(xué)科視角都已經(jīng)無法全面涵蓋對算法的全部認識。一種歷史和互動的回顧,為我們理解當(dāng)下信息社會算法的多元面向和表征意義提供了新的可能和價值基準。

在我們的一貫認知中,高度的智能與發(fā)達的意識一向是兩個形影不離的概念,只有具有意識的個體,才能執(zhí)行需要高度智能的任務(wù),如下棋、開車、診治、提供法律意見,或者辨認出恐怖分子。然而,進入人工智能時代后,基于算法模式的“無意識智能”開始興起,并在解決人類社會的很多問題上表現(xiàn)優(yōu)越,這讓我們無法避免將面臨這樣一個問題,那些原來必須依靠人類意識才能完成的復(fù)雜治理任務(wù),能否由算法來實現(xiàn)?如果成立,這一模式是否適用于我們目前生活的公共領(lǐng)域?如果普遍適用,這種新的治理模式最大的特征是什么?討論至此,一個自然而然的概念呼之欲出,即治理算法化?;氐焦差I(lǐng)域的治理行為,顯然,對算法更為精確的定義或許是,它是從數(shù)字邏輯和數(shù)據(jù)形式內(nèi)外雙重維度塑造治理預(yù)設(shè)目標(biāo)并提供決策結(jié)果的行為主體,而不僅僅是治理手段或工具。在已有文獻中,基于治理的算法是一個顯而易見的現(xiàn)象,但治理算法化卻是一個偶有被提及但未被細化的概念框架。筆者認為,就治理算法化的概念和現(xiàn)象進行辨析和審視,不僅是必須的,也是緊迫的。一方面,治理算法化已經(jīng)不再是理論上的“空中樓閣”,而是超越了傳統(tǒng)治理技術(shù)范疇的實在現(xiàn)象。治理算法化不能被簡化為治理與算法結(jié)合的過程與結(jié)果,而應(yīng)被視為以人工智能為代表的數(shù)字技術(shù)治理內(nèi)在融合與對抗的一體兩面。換句話說,相較之下,治理算法化這一概念更為凸顯的是算法全面嵌入之下的科層治理與技術(shù)治理如何互動形成復(fù)雜的結(jié)構(gòu)體。不同于簡·E·芳?。↗ane E.Fountain)提出的技術(shù)執(zhí)行理論,在這里,算法不僅是被執(zhí)行的“技術(shù)對象”(technical object),亦是治理主體。另一方面,作為信息技術(shù)時代治理的演進模式,治理算法化在創(chuàng)造了新的控制方法時,也制造了新的問題,甚至控制這些新問題的難度要遠大于控制傳統(tǒng)治理問題的難度。因此,在凡事必提“智能”的話語風(fēng)靡時期,筆者并不愿意去跟隨贊樂的音符和節(jié)拍,而是試圖以一種中立、客觀、冷靜的視角和立場,嘗試展現(xiàn)智能系統(tǒng)與人類對于社會治理權(quán)“明爭暗奪”的背后隱匿了怎樣的運行邏輯,以及由此帶來的智能化的政治經(jīng)濟社會體系變革是一番怎樣的景象。本文作為一項理論研究,承接這一研究脈絡(luò),以超越算法的計算性和邏輯推理性之外的視角闡釋治理算法化的建構(gòu)意義,內(nèi)窺其中的風(fēng)險,最終評判治理算法化的價值,進而賦予治理算法化積極的實踐意義。

(二)治理算法化的先決條件:治理邊界的重塑

人類大腦對復(fù)雜選擇做出判斷時的意識與行動之間的微妙關(guān)系一直是學(xué)界的焦點議題之一,將此類復(fù)雜任務(wù)交由人工智能處理時,應(yīng)當(dāng)保證計算機可以模擬人類大腦的活動,從認識論的角度而言,這個基礎(chǔ)就是“認知可計算化”。當(dāng)前人工智能的幾大不同流派在對人工智能的認知基礎(chǔ)上形成的共識是,通過分析和處理真實人類世界的行為數(shù)據(jù)可以幫助機器來模擬人類的認知和決策[6],而這所有一切的基礎(chǔ)都是“有數(shù)可循”。2011年10月的美國佛羅里達州發(fā)生了一起惡性交通事故,事故原因是一名退休警察超速行駛。佛羅里達州《太陽哨兵報》的記者在查閱歷年的數(shù)據(jù)后發(fā)現(xiàn),這可能并不是一起偶然事件,因為開快車是警察的經(jīng)常性行為。為了取證,她根據(jù)美國的《信息自由法》向當(dāng)?shù)亟煌ü芾聿块T申請獲得了110萬條當(dāng)?shù)鼐囃ㄟ^不同高速路口收費站的原始記錄,最終利用數(shù)據(jù)分析證實了由于工作需要和警察的特權(quán)意識,開快車成了警察群體的普遍習(xí)慣??梢韵胂螅绻麤]有上百萬條充沛的數(shù)據(jù)記錄以及成熟的數(shù)據(jù)分析手段,類似于“警察群體普遍開快車”的社會問題可能永遠都無法在法庭上得到證實,這種知法犯法的特權(quán)行為,也永遠得不到有效的治理[7](p.274)。當(dāng)個體在真實世界中的任何活動都能被事無巨細地高頻記錄時,就為社會可計算化提供了豐富的數(shù)據(jù),讓治理行為“有數(shù)可循”。然而,這只是治理算法化的第一步。

治理為一個相對開放的系統(tǒng),有關(guān)治理理論或范式本身的形成亦經(jīng)歷了相當(dāng)長時間的實踐檢驗和理論分析加工,因此,將治理規(guī)則編寫成代碼的過程不是一個簡單的數(shù)據(jù)收集和機器學(xué)習(xí)過程。治理算法化有賴于治理主體將不同領(lǐng)域的治理目標(biāo)、價值選擇、專業(yè)知識等內(nèi)容“數(shù)據(jù)化”并轉(zhuǎn)化為“可計算化”模塊的前期努力。結(jié)論看似簡單,但存在一個難以跨越的鴻溝,就是人不可能約束自己不懂的東西。Facebook數(shù)據(jù)泄露后,作為創(chuàng)始人的扎克伯格多次接受美國國會的質(zhì)詢,但媒體捕捉到并呈現(xiàn)在大眾眼前更多的是,那些資深立法者和議員們在長達4~5個小時的質(zhì)詢中試圖想要了解的問題卻如此膚淺且空洞無物。正如有媒體指出的那樣,這些問題都能通過搜索找到答案,沒必要在聽證會上浪費好幾個小時。顯然,無論是立法者、治理者、監(jiān)管者抑或普通的消費者,對人工智能、大數(shù)據(jù)等技術(shù)所知的遠要比我們想象得少得多,這種認知鴻溝普遍存在,而且日益加深。在實踐中的具體分工是,治理者提出相關(guān)的治理目的與要求,“技術(shù)工程師”努力將這種要求轉(zhuǎn)化為一系列可以被算法解讀和操作的代碼。但技術(shù)的掌握者是否能夠準確理解治理者的真正意圖或者是否能夠依據(jù)不同的治理目的體系化和精確化地構(gòu)建單一或復(fù)合的算法模型并進行預(yù)測?這里就可能存在一個悖論,通俗而言,就是“懂技術(shù)的人不懂治理,而懂治理的人則不懂技術(shù)”。以司法為例,案情的最終確定取決于法官大腦里那個專業(yè)而復(fù)雜的人類思維過程——自由心證,而將自由心證轉(zhuǎn)換成計算機能“讀懂”的程序,就成了算法判案的前提條件。

有人認為人工智能的價值并不在于模仿或者替代了人類行為,而是其深度自主的學(xué)習(xí)能力[8]。正如作為第一個戰(zhàn)勝圍棋世界冠軍的人工智能機器人AlphaGo,其設(shè)計者卻并非圍棋頂尖大師,人工智能法官當(dāng)然也可以借此進行算法的“自由心證”。但事實上,算法判案是否可行最終并不取決于技術(shù)發(fā)展的程度,而是取決于我們?nèi)绾慰创?。從世俗—理性的角度出發(fā),法律不過是治理社會的一種工具而已,繁雜的各種制度也只不過是我們設(shè)計出的一部龐大復(fù)雜的機器,“人工智能+司法”只是加速了這部機器的運轉(zhuǎn)和理性計算的程度,那么人工智能法官顯然是最好的選擇。但問題在于一旦我們將法律徹底視為工具,這種工具性的法律是無法樹立它的權(quán)威以及喚起我們的認同感的,最后我們信賴和認同的將不是法律的公正與否,而是技術(shù)的高低。為了提高治理效率,對治理的邊界可以進行調(diào)整甚至模糊化處理,但須臾不可缺的是清晰可見的“紅線”。亦如法官的“自由心證”或者治理者手中的自由裁量權(quán),其更高的意義和價值在于當(dāng)法律體系有漏洞之時,他可以援引不同的判例,以不同的角度解讀并矯正正義,而這里的標(biāo)準是法律背后那個更高的人性存在,顯然,這是人工智能無法通過被“投喂”大量的案例數(shù)據(jù)從而學(xué)習(xí)獲得的。因此,治理算法化的前提條件除了“可計算化”模塊的努力之外,也許更重要的在于區(qū)分并真正實踐“上帝的歸上帝,凱撒的歸凱撒”。換言之,即重塑治理邊界,在社會上形成這樣的共識:“哪些是他們(算法)接觸我們(個人)的點?”

二、治理算法化的源起:外困內(nèi)交的選擇

(一)治理信任需要技術(shù)信任的補強

信任或如格奧爾格·齊美爾(Georg Simmel)所言的,是關(guān)于他人未來行為的假設(shè),介于“知”與“無知”之間[9]。而治理信任事實上則是基于對權(quán)力行為的一種可信賴預(yù)期,即作為一種行動類型的信任,更強調(diào)通過既往經(jīng)驗和對已有信息的判斷以及對未來的可救濟兩個層面增加對未知不確定性的保障。在治理實踐中,治理信任一方面可以促進以知情、增信為初衷的公共信息的公開,另一方面可以增加信任缺失的救濟渠道,如通過司法機關(guān)事后的法律救濟方式實現(xiàn)。在傳統(tǒng)社會,這兩種方式能夠相互補強,但進入互聯(lián)網(wǎng)時代后,雖然無論信息量還是信息流速都極大提升,但也引發(fā)了嚴重的信息不對稱與隱私侵害問題。網(wǎng)絡(luò)巨頭們?yōu)楂@利而嚴重地公開、暴露個體的信息隱私,相較于此,更為嚴重的后果可能是,作為個體的你可能毫不知情,即使知曉也沒有拒絕的余地。事實上,這也反映了信息公開在網(wǎng)絡(luò)空間的異化,結(jié)果是,信任的傾斜使用戶對“中心化”的控制主體產(chǎn)生“離心”以及“反向運動”。與此同時,正如2015年我國“Cookie隱私第一案”中所反映的救濟效果,反轉(zhuǎn)的“法律天平”離人們對算法侵權(quán)的規(guī)制期待遠未達一間??梢?,在這個全新的互聯(lián)網(wǎng)時代,單憑人類價值理性難以構(gòu)建起對權(quán)力運行的可信賴預(yù)期,而“以技治技”或許能實現(xiàn)新的平衡。正如哈貝馬斯(Jürgen Harbermas)所認為的那樣,當(dāng)發(fā)現(xiàn)并掌握技術(shù)、資源和控制之間的必然規(guī)律后,技術(shù)就能補強個人決策不合理之處,以適應(yīng)技術(shù)將國家轉(zhuǎn)變?yōu)椤昂侠淼男姓芾頇C構(gòu)”的新身份[10](p.99)?!凹夹g(shù)量化”所締造的信任關(guān)系能夠在權(quán)力的運行過程中構(gòu)建一種公開兼具加密的保護機制。

事實上,這種做法是有成效的。在抗擊新冠肺炎疫情的過程中,數(shù)字政府借助人工智能技術(shù)的各類算法治理,不僅消弭了疫情信息混沌、遲滯的困境,而且顯著提升了公眾對政府信息和治理能力的信任。如疫情期間誕生的健康碼,經(jīng)由智能技術(shù)聯(lián)結(jié)規(guī)則的算法,使整個社會共同體抵達系統(tǒng)狀態(tài)的“共享真實”,這將有效減少系統(tǒng)中每個參與者(包括作為行動者的政府)展開合作所需要的信任量,從而極大地提升了人際間信任與一般化的社會信任[11]??v觀人類社會的技術(shù)發(fā)展史,每一次技術(shù)的發(fā)展都伴生各種新的風(fēng)險和不確定性,導(dǎo)致公眾深陷技術(shù)治理的“迷思”之中。亦如在算法技術(shù)的發(fā)展中,機器決策的黑箱性廣受詬病,但目前已經(jīng)達成的共識就是通過增強技術(shù)的可靠性以及開拓技術(shù)周邊措施的方式創(chuàng)建可以提供穩(wěn)定預(yù)期和公眾信任的技術(shù)環(huán)境,增加公眾對算法的信任。典型的做法是利用數(shù)據(jù)挖掘技術(shù)高效識別特定算法應(yīng)用中的歧視性規(guī)定和內(nèi)容,最終實現(xiàn)技術(shù)信任對治理信任的補強,并使治理信任泛化為普遍的社會信任。例如,谷歌公司已經(jīng)就一系列人工智能增強技術(shù)展開研究,如其開發(fā)的概念激活向量測試(Testing with Concept Activation Vectors,TCAV)就具有理解信號可能表現(xiàn)出現(xiàn)偏差的能力。

(二)個體化時代集體行動困境的消解

早在20多年前,互聯(lián)網(wǎng)先驅(qū)尼葛洛龐帝(Nicholas Negroponte)就曾預(yù)言,數(shù)字化生存天然具有“賦權(quán)”的本質(zhì),這一特質(zhì)將引發(fā)積極的社會變遷,在數(shù)字化的未來,人們將找到新的希望與尊嚴[12](p.271)。自此,個體賦權(quán)成為主流論調(diào)。特別是當(dāng)信息技術(shù)日益上升為社會資源再分配的重要力量時,傳統(tǒng)權(quán)力格局、關(guān)系模式便呈現(xiàn)出迥異的特征。法國哲學(xué)家吉爾伯特·西蒙棟(Gilbert Simondon)在提出“個體化”這一概念時就指出,個體化是技術(shù)對象自身發(fā)展的規(guī)則,是朝向穩(wěn)定狀態(tài)發(fā)展的趨勢[13]。顯然,技術(shù)的進步亦伴隨著個體化的歷程。人類個體的價值,隨著技能門檻的拆除而迅速地、類性(generic)地上升[14]。在探討網(wǎng)絡(luò)規(guī)制時,勞倫斯·萊斯格(Lawrence Lessig)就曾明確提出“網(wǎng)絡(luò)需要各種選擇”的主張——有些選擇應(yīng)當(dāng)由個人決定,如作者是否要主張他的版權(quán)或者公眾通過何種方式保護自己的隱私,但當(dāng)所規(guī)制的事項關(guān)涉價值理念的選擇時就應(yīng)當(dāng)由集體決定[15](p.9)。從這個邏輯出發(fā),泛化互聯(lián)網(wǎng)時代的一個典型特征就是,主張個體權(quán)利和選擇的價值意義與集體行動之間的沖突。而要化解這種沖突和矛盾,根本的解決方法就是在個體選擇與集體行動之間嫁接一條柔性的轉(zhuǎn)化通道。

雖然Facebook的數(shù)據(jù)泄露和對選舉的操作作為一樁挑戰(zhàn)人類尊嚴的丑聞影響深遠,但也為我們展現(xiàn)了如何在智能時代實踐一條“串聯(lián)”個體意志、選擇和行為的通路。政治學(xué)者漢斯·科曼(Hans Keman)曾經(jīng)指出:“許多集體行為的問題只通過個人行為無法解決,但是由遙遠的國家調(diào)節(jié)或間接的正式民主程序也不容易解決。相反,社群的自我調(diào)節(jié),結(jié)合民主國家及其機構(gòu)的權(quán)威,倒可以使問題得到解決。”[16](pp.5-6)那么,如何將原子化的個體聯(lián)結(jié)為社群?如何在個體之間達成合作?從互聯(lián)網(wǎng)發(fā)展的歷程來看,經(jīng)由大數(shù)據(jù)和智能算法重構(gòu)的“人”,從以往統(tǒng)計學(xué)意義上抽象的“人”搖身一變,成為“群體畫像”中那個搖曳生姿的“人”,不僅能被多層次數(shù)據(jù)標(biāo)注和計算勾勒,而且可以被單獨量化以及高度解析,而這正是商業(yè)資本所樂見的,因為這使他們對每個人的“量身定價”成為可能。但伴隨個體“顆?;钡耐瑫r,關(guān)乎社會秩序穩(wěn)定的集體行動也在一定程度上落入到平臺資本的控制之中,正如當(dāng)年的Facebook丑聞。而事實上,真正對個體行為進行引導(dǎo)和實施操縱的正是裹挾著資本甚至政治動機的算法工具。談及這種關(guān)乎社會秩序穩(wěn)定的集體行動的重要性,一個尤為明顯的例子便是網(wǎng)絡(luò)空間中公眾合意的形成與發(fā)酵過程,“由誰決定哪些社會問題成為政策問題,對于政策制定過程來說是關(guān)鍵性的。決定哪些問題成為政策問題,甚至比決定這些問題的解決辦法更為重要”[17](p.28)。特別是在當(dāng)前全球范圍內(nèi)民粹主義思潮不斷抬頭的背景下,誰掌握了控制個體認知和聚集網(wǎng)民合意的能力,誰就具備了催化社會集體行動的可能。由此,算法及其相關(guān)問題的重要性便不只體現(xiàn)在個體層面的經(jīng)濟和倫理意義上,更因其在公共生活中可能產(chǎn)生難以預(yù)估的實際后果而具備了深刻的政治意涵。在這個意義上,智能算法以其日益強大的作用力逐漸滲透到現(xiàn)實生活的每一處,將個體的過去、現(xiàn)在和未來建立聯(lián)結(jié),這種技術(shù)上的“聯(lián)結(jié)”應(yīng)用到公共治理領(lǐng)域,不僅能夠集合分散的民意,更為重要的是在這個過程中,能對各方面制度和資源的進一步集聚發(fā)揮重要作用,使國家處于更有優(yōu)勢的地位[18]。

三、治理算法化的應(yīng)用場景:以人為尺度

所有算法類型盡管理念不同,但成功的關(guān)鍵都聚焦于算法和數(shù)據(jù)[8]。在“算法統(tǒng)治”時代,算法抉擇和運用成為人類主要的工作,我們應(yīng)該去考慮的是在什么場景下應(yīng)用哪一種算法,從而為人類的幸福帶來最大的增益。技術(shù)的發(fā)展不是最終目的,人的發(fā)展才是技術(shù)發(fā)展的本質(zhì)[19]。也就是說,在什么場景下應(yīng)用哪種算法關(guān)鍵取決于能否促進人的發(fā)展。這無疑是個宏大的命題和論證過程,但卻是我們推動技術(shù)極致化發(fā)展道路上不可或缺的“指明燈”。

2012年8月,中國國家發(fā)改委社會發(fā)展研究所楊宜勇所長發(fā)布了他的一項研究成果:2010年,中華民族復(fù)興指數(shù)為6274%,這表明中國的民族復(fù)興已經(jīng)完成了大概6274%,截至2012年底,這個數(shù)字由6274%增至653%[7](p.172)。該結(jié)論一出便引發(fā)了極大的爭議。批評者認為,楊先生的研究方法深刻反映了當(dāng)前社會治理理念與模式中“數(shù)據(jù)迷信”的盛行,更有批評者認為,類似民族復(fù)興這件事根本不能也不用量化。在這里我們無意評判民族復(fù)興是否可以量化,而是據(jù)此試圖厘清算法到底適用于哪些場景。對此,法國社會學(xué)家埃米爾·涂爾干(E.Durkheim)的理論具有啟示價值。他在《宗教生活的基本形式》一書中,將人類社會區(qū)分為“神圣”與“世俗”兩大領(lǐng)域[20]。所謂神圣領(lǐng)域,是指那些具有永恒的、完美的社會特征的領(lǐng)域,其中最典型的就是宗教信仰領(lǐng)域;而所謂世俗領(lǐng)域,則指那些與人們?nèi)粘I钕⑾⑾嚓P(guān)的方方面面[21]。在世俗領(lǐng)域,人們生活的指導(dǎo)原則是理性化原則,而算法在強化理性完成特定任務(wù)的績效方面顯然表現(xiàn)卓越。正如計算機科學(xué)泰斗高德納(David E.Knuth)所說的,算法與目的高度匹配的場景都是算法的“應(yīng)許之地”,而特定場景的目的決定適用哪種類型的算法[22]。單從這個角度而言,算法在世俗生活中只應(yīng)當(dāng)被區(qū)分而不應(yīng)當(dāng)被限制。但事實是,人類社會的諸多事務(wù)在很多時候沒有明顯區(qū)別世俗與神圣之間的界限。如人類的婚姻,作為其根基的愛情通常被認為是神圣的存在,但現(xiàn)實的婚姻生活卻始終圍繞著“柴米油鹽醬醋茶”。而人類社會之所以能夠存在,生活于其中的個體之所以能夠彼此團結(jié)起來而不至于一盤散沙,所依賴的絕不僅僅是一種理性的“利己主義”精神;相反,人們需要的是一種超越現(xiàn)實的“觀念真實”,這種“觀念真實”的存在無法用理性來衡量和辯論,甚至只可意會不可言傳,但也只有通過這種“觀念真實”,人們才能夠在彼此之間找到共同的社會屬性,進而結(jié)成一個具有團結(jié)性的有機社會。

人類社會活動所追求的目標(biāo)價值從來就充滿了悖論,而技術(shù)的發(fā)展不僅不會消除這種悖論反而會使這種沖突和矛盾空前凸顯。這也就意味著,即使當(dāng)人工智能進化到能滿足人類所有的物質(zhì)欲望,乃至在精神結(jié)構(gòu)上取代“神”的位置,人類作為一個社會共同體、命運共同體的精神本質(zhì)問題仍然不會消失。這也決定了區(qū)分算法在人類社會生活中的應(yīng)用場景也許并不是一個明智之舉,而更值得我們?nèi)プ龅目赡苁菆猿忠环N韋伯意義上的價值理性。雖然有研究指出,在未來可能賦予強人工智能以人類價值,但人類價值觀的積累過程是人類相關(guān)基因機理經(jīng)歷成千上萬年進化的結(jié)果,模仿并復(fù)現(xiàn)這一過程非常困難[23]。相比對未來強人工智能進行設(shè)計構(gòu)想,在實踐層面,各國已經(jīng)通過積極設(shè)計方案來應(yīng)對算法危機帶來的多重挑戰(zhàn)。如歐盟通過賦予數(shù)據(jù)主體反對權(quán)和解釋權(quán)等新型算法權(quán)利來對抗算法的“侵蝕”;美國則遵循技術(shù)正當(dāng)程序的思路,賦予公眾對公用事業(yè)領(lǐng)域算法應(yīng)用的知情、參與、異議和救濟等程序性權(quán)利,著力構(gòu)筑以算法問責(zé)為核心的外部治理框架[24]。無論是凸顯解釋權(quán)的核心地位,還是加強對算法的問責(zé),都旨在避免當(dāng)算法在社會治理過程中逐漸成為建構(gòu)人們生存環(huán)境的決定性力量時,人們可能日益淪為算法“附庸”的風(fēng)險。不同的算法治理路徑反映了迥異的治理傳統(tǒng)、制度基礎(chǔ)和治理效能,但須臾未曾偏離也不能偏離的價值核心是以人為尺度。

四、治理算法化的風(fēng)險:

“道”與“術(shù)”的異步困境

治理算法化旨在利用算法重塑一個更加客觀精準的現(xiàn)實世界,毋庸置疑,就技術(shù)層面而言,算法并無價值傾向,但改善問題的系統(tǒng)卻往往可能反過來使問題更為嚴重。算法的背后無可避免交織著的是資本的商業(yè)邏輯與智能官僚主義的濫觴。其大規(guī)模應(yīng)用更是引發(fā)了諸多質(zhì)疑和警惕,算法歧視、算法“黑箱”、“監(jiān)視資本主義”等概念的提出更為具體地揭示了算法應(yīng)用中的風(fēng)險形態(tài)。算法在給治理系統(tǒng)帶來便利與福利的同時,極易觸發(fā)意外未知風(fēng)險從而侵蝕社會的公平正義。而究其根本,則在于治理之“道”與治理之“術(shù)”的異步困境。

(一)商業(yè)邏輯優(yōu)先于治理邏輯

任何一項技術(shù)的研發(fā)和運用都意味著巨額資金的投入。顯而易見,只有雄厚的資本才能支撐算法的研發(fā)和持續(xù)優(yōu)化,而谷歌、微軟、蘋果等互聯(lián)網(wǎng)巨頭公司是算法的主要投資主體。但資本的介入,無疑賦予了算法天然的逐利性,成本—收益的商業(yè)邏輯被投資方奉為圭臬,因為“掌握了數(shù)據(jù)就意味著掌握了資本和財富,掌握了算法就意味著掌握了話語權(quán)和規(guī)制權(quán)”[25]。而與此同時,一群“算法影子官僚”②順勢而生,伴隨算法在公共領(lǐng)域的大規(guī)模運用,商業(yè)邏輯的盈利思維開始滲透進以公共價值為主導(dǎo)的治理領(lǐng)域。而算法技術(shù)的高度不對稱賦予了這群“算法影子官僚”更高的議價能力,從而使其能夠名正言順地汲取超額的公共財政資金。幾乎所有的算法技術(shù)公司都不斷地向政府兜售新的版本,而不管政府是否真的需要。事實上,即使沒有超級平臺的壟斷優(yōu)勢,基于緩解治理壓力的考量,公共部門也會日益依賴于算法技術(shù)進行日常管理和決策,而這很可能使人的主動意識、理性精神、自覺擔(dān)當(dāng)消失于無形[26]。相比于對公共財政資金的攫取,更為嚴重的后果是,算法邏輯在公共領(lǐng)域占據(jù)絕對權(quán)威,會導(dǎo)致公共權(quán)力屈服于技術(shù)公司及其開發(fā)人員的私人控制,而算法植入、算法俘獲以及算法支配等方式都使得這種私人控制更為隱蔽。以健康碼數(shù)據(jù)常態(tài)化應(yīng)用為例,健康碼在研發(fā)和使用過程中不可避免會引發(fā)“被動監(jiān)管俘獲”,具有國家壟斷權(quán)力的監(jiān)管者被市場壟斷者“俘獲”,實現(xiàn)壟斷權(quán)力和壟斷利潤的聯(lián)動和共謀,未來或?qū)⒊蔀榍址腹珯?quán)力和私權(quán)利的最主要方式[27]。政府雖基于限定目的使用健康碼數(shù)據(jù),但由于健康碼數(shù)據(jù)的精確性和動態(tài)性較強,經(jīng)處理后具有極高的商業(yè)利用價值,因此很容易成為醫(yī)藥公司、私立醫(yī)院、科技公司等市場主體“覬覦”的對象,而這也正是包括李彥宏在內(nèi)的諸多業(yè)內(nèi)人士建議健康碼必須在疫情之后予以取消,而刻寫其中的信息和數(shù)據(jù)須徹底予以銷毀的原因[28]。

面對日益復(fù)雜的治理任務(wù),公權(quán)力將數(shù)據(jù)的抓取、問題的界定、議程的設(shè)置、方案的設(shè)計與選擇甚至政策的執(zhí)行和評估等都一起打包給了算法,這使得政府公職人員更多地充當(dāng)著“屏幕官僚”的角色,而真正掌握或者制定規(guī)則的很可能是算法及其背后的資本力量。但任何權(quán)力的來源和目標(biāo)指向都應(yīng)當(dāng)具有公共性,即以公共秩序和公共資源配置的合理性和公平性加持治理邏輯,這也是技術(shù)治理下“以人為尺度”的一種體現(xiàn)。對此,恩格斯曾在《反杜林論》中就有所洞悉:社會伊始就存在著共同利益,維護這種利益的工作,雖然是在全社會的監(jiān)督下,但不能不由個別成員來擔(dān)當(dāng)[29](p.190)。當(dāng)算法技術(shù)掌握在少部分企業(yè)的手中時,就意味著個別的社會成員承擔(dān)了基于數(shù)據(jù)活動而產(chǎn)生的利益分配活動,不排除數(shù)據(jù)處理者基于正當(dāng)或不正當(dāng)?shù)睦碛山柚魇灸康难诓仄湔鎸嵞康闹赡躘30]。但與此同時,正如當(dāng)年“魏則西”事件反映了百度算法徹頭徹尾的“唯利是圖”,曾一度喚起民眾對于相關(guān)算法問題的關(guān)注,并掀起針對百度和涉事監(jiān)管部門的輿論攻勢,遺憾的是,公共輿論力量并沒有借此契機為規(guī)制算法構(gòu)建一條制度化的監(jiān)督路徑。

(二)算法偏見內(nèi)化為公共理性

算法偏見并不是一個新鮮詞,人們已經(jīng)觀察到算法在進入世俗社會時不可避免地繼承了設(shè)計者對于世界的認識,即人類社會無法根除的結(jié)構(gòu)型偏見。特別是數(shù)據(jù)選取、算法模型權(quán)重設(shè)定等環(huán)節(jié)是設(shè)計者嵌入自我價值傾向的“重災(zāi)區(qū)”,因為“數(shù)據(jù)分布本身就帶有一定的偏見性”[31]。在大數(shù)據(jù)的推薦算法中,人越來越依賴自己情感上有所偏好和習(xí)慣的領(lǐng)域,“我們只聽我們選擇的東西和愉悅我們的東西的通訊領(lǐng)域”[32](p.8)。

毫無疑問,絕大多數(shù)算法自誕生之日起就存在特定的利益傾向。而在當(dāng)前弱人工智能向強人工智能進化的階段,機器學(xué)習(xí)就類似一個生物體在進行基因重組,算法偏見決定了智能社會運行的基本規(guī)則,也即內(nèi)化為社會“基因”。而內(nèi)化為“基因”的算法偏見,一旦被廣泛應(yīng)用于公共領(lǐng)域,可能導(dǎo)致弱勢群體進一步普遍淪為算法社會的“囚徒”。雖然他們的社會成員資格并沒有被懸置,但算法統(tǒng)攝下的數(shù)據(jù)探勘技術(shù)卻可能將他們阻擋在正常社會生活的邊界之外,如在住房、教育、信貸、保險、就業(yè)等方面所遭遇的歧視。換言之,那些屢屢碰壁的人并非出于巧合或偶然的運氣不好,而是算法這只無形的“上帝之手”在“縱橫捭闔”,這將成為一個主要的政治與社會問題。而與其他諸如貧富差距、環(huán)境污染、種族歧視等問題不同,它隱秘且難以為公眾所理解,更難以被抗議。2019年4月5日,美國密歇根州4萬名居民對州政府提起了集體訴訟。事件的起因是密歇根州政府利用一款集成反欺詐算法的綜合數(shù)據(jù)化系統(tǒng)“米達思”(MIDAS)對該州失業(yè)補貼申請進行審核,做出申請者是否存在欺詐的判斷,并對欺詐者施以懲罰。但這個系統(tǒng)的出錯率高達93%,致使超過4萬申請人被標(biāo)簽化為“欺詐者”[33]。在美國人工智能的應(yīng)用史上,因為不合理的算法設(shè)計給公眾帶來極其嚴重損害的情況已不是第一次了。2018年,美國紐約州被迫終止了對旨在防止家庭暴力的兒童保護預(yù)測算法的使用,該算法曾一度導(dǎo)致上萬個家庭中父母同其子女的被迫分離,僅僅因為算法程序在數(shù)據(jù)分析后認為這些家長可能具有“嚴重的家暴傾向”[33]。肉眼可見的危害也許還能事后補救,更可怕的結(jié)果是,算法的偏見極有可能損害我們當(dāng)前公共理性的內(nèi)核,即什么樣的治理原則具有“可接受性”,公民是否還能就公平正義以及在此基礎(chǔ)上形成的公共政策問題進行自由論辯。缺少公共理性的治理,不僅在相當(dāng)程度上造成了治理人員的技術(shù)依賴,那些依托個人情感和自由意志的治理經(jīng)驗和嫻熟技能已經(jīng)不再重要,理性、自由意志和個人情緒亦變得沒有必要[34],而且它將不可避免地以人的“客體化”為代價,即人不再是享有自由并為生活賦予意義的主體,而淪為被支配的客體[35]。屆時,公共理性和政治技藝理性將進一步滑向“工具理性鐵籠”,導(dǎo)致治理的空心化和公信力下降。質(zhì)言之,當(dāng)基于理性設(shè)計的公平正義、自由平等等政治價值與社會規(guī)約被技術(shù)的標(biāo)準化和程序化簡單劃歸為數(shù)據(jù)準則下的“正常人”和“非正常人”之分時,每個人都被算法牢牢“鎖定”,而“人的政治”將不再保有不證自明的價值。

(三)技術(shù)權(quán)力泛化為液態(tài)監(jiān)控

與其將算法視為一項新技術(shù),毋寧將其看作是權(quán)力的新媒介。技術(shù)權(quán)力的共性在于依托大規(guī)模的集成數(shù)字化平臺,靠全覆蓋的攝像頭、傳感器、分析中心和智能終端匯總社會個體和群體的生活形態(tài)和生活軌跡,將分散的價值與意識集中成公意,從而強制執(zhí)行[36]。而最活躍且有效的機制,莫過于??滤f的“全景敞視結(jié)構(gòu)”的監(jiān)控,這也是技術(shù)時代人類“異化”和“化異”的產(chǎn)物之一。正如德國當(dāng)代技術(shù)哲學(xué)家弗里德里?!だ眨‵riedrich Rapp)所言,“同從前的時代相反,現(xiàn)代科學(xué)技術(shù)賦予人類的力量,需要人有一定程度的自我控制。而這完全超出了人類的能力,這就是現(xiàn)實讓人進退兩難的地方”[37]。然而,??略趯懽鳌兑?guī)訓(xùn)與懲罰》時,沒有預(yù)料到信息技術(shù)在當(dāng)代的迅猛發(fā)展,以及它為監(jiān)控所帶來的新變化。當(dāng)以數(shù)據(jù)搜集、處理和分析為基礎(chǔ)的算法嵌入國家權(quán)力體系中時,技術(shù)將以更隱秘和更具合法性的形式推動國家權(quán)力的多維時空滲透,形塑智能時代的“圓形監(jiān)獄”。正如馬爾庫塞強調(diào)的,“技術(shù)成了社會控制和社會團結(jié)的新的、更有效的、更令人愉快的形式”[38](p.6)。國家治理現(xiàn)代化將人工智能視為重要的推動力,被納入制度化體系的算法技術(shù)在其程序運行中內(nèi)嵌了公權(quán)力的政治意識形態(tài)與價值預(yù)設(shè),而具有意識形態(tài)化特性的算法技術(shù)一旦投入社會獨立運作就會在復(fù)雜的算法推薦過程中不斷影響公民的政治認知與價值取向,并迫使公民接受對算法廣泛運用的社會合理性。一旦這種合理性擁有了公民的“同意”基礎(chǔ),算法也變成了一個具有獨立性的控制體系。

這種控制不僅有著合法性基礎(chǔ),而且將利用算法的不透明以及流動性打造出更具柔韌度的網(wǎng)絡(luò),將所有人裹挾其中,并以潤物細無聲的方式悄然彌散開來,而在此過程中,作為算法“指涉/改造”的對象——權(quán)力,亦流變?yōu)橐环N全新的監(jiān)控模式。在當(dāng)代社會,借助科學(xué)技術(shù)手段,統(tǒng)治階級的意志和命令被內(nèi)化為一種社會及個人心理,技術(shù)已經(jīng)成為新的控制形式[39]。而這最終將不可避免地滑向“算法利維坦”,并進一步加劇政治與道德的分離,屆時,基于理性自治的官僚結(jié)構(gòu)將從“人的組織”轉(zhuǎn)向“算法的組織”,包括算法治理的人與治理算法的人都將不得不在算法測量、統(tǒng)計、計算中尋求生存。正如互聯(lián)網(wǎng)誕生之初人們熱烈地期盼進入一個全新的“烏托邦世界”,一個“利維坦”無法壓迫“美麗新世界”。但正如齊格蒙特·鮑曼(Zygmunt Bauman)所指出的,“這種景象的共同體,就像是一個置身汪洋恣肆充滿敵意的大海中舒適安逸的普通平靜小島”[40](p.300),互聯(lián)網(wǎng)所營造的極有可能是反抗強權(quán)以及逃避監(jiān)控的假象,聚合并不是能有效地推動政治改革的力量。亦如算法統(tǒng)攝的智能時代,算法構(gòu)筑的液態(tài)監(jiān)控覆蓋了空間與時間的各個維度,無所不至。正是在這種情況下,人們喪失了對監(jiān)控的敏感度。福柯曾經(jīng)在《必須保衛(wèi)社會》中指出:“在17和18世紀,出現(xiàn)了一個主要現(xiàn)象:出現(xiàn)了新的權(quán)力機制(應(yīng)當(dāng)說是發(fā)明),它有很特殊的程序,全新的工具,完全不同的機器……這種新的權(quán)力機器首先作用于人的肉體及其行動,超過其作用于土地及其產(chǎn)品。這種權(quán)力機制更是源自肉體、時間和工作而不是財物?!盵41](p.33)有學(xué)者曾以可穿戴設(shè)備為例,思考數(shù)字社會如何在促進跑者自我賦權(quán)的同時引發(fā)了一場自我量化的數(shù)字勞動,而在這個過程中,具有“后全景敞視結(jié)構(gòu)”特征的液態(tài)監(jiān)控則一直嵌入其中,進而形成被強制的自我追蹤[42],這在一定程度上也是人屈從于機器的一種表現(xiàn)。福柯曾經(jīng)生動而準確地指出,“可見性就是捕捉器”,當(dāng)“規(guī)訓(xùn)機制逐漸擴展,遍布了整個社會機體時”,肉體就無處遁形了。??抡J為以“規(guī)訓(xùn)社會”命名仍屬“姑且名之”,但實際上是恰切之極。事實上,類似于吉爾·德勒茲(Gilles Deleuze)提出的個體被信息技術(shù)消解而產(chǎn)生的“分格”,而基于算法的“分格”使得德勒茲口中的“管控社會”成為“液態(tài)社會”,但不同于鮑曼口中“流沙”般的現(xiàn)代社會,算法權(quán)力將個人“歸置”于由代碼組成的數(shù)字世界中——“它們不僅決定了人們能否獲得信息,并且使人置身于一種無處不在的、持續(xù)運轉(zhuǎn)的網(wǎng)絡(luò)之中,形同巨大的篩子上排列得錯落有致的篩孔”[43]。

(四)擬態(tài)真實取代治理情境

人工智能技術(shù)的崛起,在媒介信息傳播領(lǐng)域掀起了革命性浪潮,最顯著的作用是使內(nèi)容的自動生產(chǎn)成為可能。各類“新聞寫作機器人”已在國內(nèi)外相繼投入使用,如我國新華社的“快筆小新”,《南方都市報》的“小南”和美聯(lián)社的“小美”等[44]。機器人寫作、人機對話、算法分發(fā)等媒介制作和信息傳播方式的出現(xiàn),不僅極大地消除了信息傳輸過程中人為主觀因素造成的認知偏差,更為重要的是,依靠算法推薦機制形成的那些更為清晰甚至帶有預(yù)測功能的信息環(huán)境,成了在這個高度不確定性社會中人們的理想“伊甸園”。與此同時,一個看似“超真實”的全面擬真信息時代正在成為現(xiàn)實。這種“擬態(tài)真實”不僅成為受眾的日常生活情境,而且也日益取代傳統(tǒng)的治理情境。最典型莫過于近年來,隨著人工智能技術(shù)的突飛猛進,在司法領(lǐng)域,曾有人一度將人工智能視為“法律自動售貨機”,并將其視為未來的司法功能形態(tài),雖然這一觀點已經(jīng)被業(yè)界人士和專家學(xué)者們所批判,但向智能算法投喂大量數(shù)據(jù)以促使其“學(xué)習(xí)”和“進化”,找到隱藏的規(guī)律和范式進而自動執(zhí)行決策和操作已經(jīng)成為人工智能進階的必經(jīng)之路。但這條進化路徑卻在不斷深化型構(gòu)一個巨大的“陷阱”,那些看似更為精確的治理情境和治理數(shù)據(jù),事實上以一種高度擬真的景觀想象,消弭了人類主觀認識與客觀環(huán)境的邊界,并在社會不同階層的受眾之間持續(xù)強化認知鴻溝。未來的信息推薦算法或許不會總是將人們封閉在個人的小天地里,甚至可以期待它們會在促進公共傳播方面有所作為,但即使如此,被算法無時無刻“投喂”的人們,最終極有可能成為愚笨的信息“填鴨”。而算法構(gòu)建的擬態(tài)環(huán)境,類似由智能算法推薦的新聞、廣告等,不僅僅是試圖以信息“感染”個體,進而“操縱”個體的行為,更重要的是,它通過對大數(shù)據(jù)庫的實時分析,構(gòu)建起跨語言、深層次、全局性地認識事物、表征和預(yù)測現(xiàn)實的模型,突破了以往人們“腦海真實”的片面性和局部性,從而仿真出無限逼近于客觀真實的“符號真實”[45]。在公共管理領(lǐng)域,這種“符號真實”在很大程度上會成為治理者的決策依據(jù),但也使得治理主體戴上了“有色眼鏡”從而忽視治理情境中的許多“邊緣情況”。而當(dāng)公眾對于真實的理解長期處于這種算法的計算之下,就會形成一種斯蒂芬·科爾伯特所說的“真實效應(yīng)的幻覺”[46]。

長期脫離真實社會生活的社會和政治實踐,不僅會阻礙人格的正常形成,削弱人們參與政治的能力,也將進一步加劇人們識別自身的真正困境。如在扶貧領(lǐng)域,人工智能算法的應(yīng)用的確能夠助力精準扶貧,大幅降低當(dāng)前貧困認定的遺漏率和錯配率,但也可能導(dǎo)致特定貧困群體被算法故意“剔除”,而很多現(xiàn)實情境下的貧困認定工作,需要基層扶貧干部實現(xiàn)“強約束下的變通”[47]。事實上,基層治理中的大量實踐需要依賴所謂的“模糊性治理”(Ambiguous Governing),即指當(dāng)政府面對困境性的(如政策方案不成熟)、可爭議性的政策議題,或者面臨應(yīng)對價值或倫理上的兩難情形時,在治理機制、政策工具或行動策略上表現(xiàn)出來具有“詮釋靈活性”“模棱兩可”等特性的公共管理模式[48],這些都必須根植于現(xiàn)實的治理情境。而算法在公共管理領(lǐng)域的介入,以“擬態(tài)真實”取代真實的治理情境,也消除了困境性議題中模糊策略的施展空間,這也意味著在某種程度上權(quán)力“以退為進”之路被阻斷。

五、回歸正題:治理算法化的界定、

評價與啟示

聚焦當(dāng)下,由大量數(shù)據(jù)驅(qū)動的算法已經(jīng)成為一種全新的權(quán)力媒介,或?qū)θ藗兊男袨楹捅憩F(xiàn)進行預(yù)測,或?qū)Ω鞣N資源和福利分配進行排序。與其說治理算法化是一個新的概念,倒不如說它更像是一個不斷逼近的社會事實。諸如Facebook、微軟、百度、新浪、阿里巴巴等技術(shù)公司和相關(guān)組織通過算法權(quán)力分割政府的管理權(quán)限已經(jīng)成為不爭的事實,而積累了強大技術(shù)行政能力的行動者將進一步形塑治理算法化。正如尤瓦爾·赫拉利(Yuval Noah Harari)所預(yù)測的,算法會成為經(jīng)濟鏈的頂端,而不僅僅是效益決策的最大助推力。這些決策與各種平臺應(yīng)用有機結(jié)合,不斷顛覆并帶領(lǐng)人們快速邁向算法社會,構(gòu)成治理算法化的現(xiàn)實樣態(tài)。面對新的社會樣態(tài),既需要對具體研發(fā)、使用情景中的新一代人工智能技術(shù)及其嵌入公共領(lǐng)域的方式進行預(yù)制、校準以及倫理反思,亦需要遵循蘇格拉底“認識你自己”的古老教誨,對人的自身價值進行追問,并重塑智能社會下人的自我生活策略。無論是治理抑或算法,其越“先進”,就越會遠離人之初的“本自然”。因此,人必須成為算法的控制者,“一切劃時代的體系的真正的內(nèi)容都是由于產(chǎn)生這些體系的那個時期的需要而形成起來的”[49](p.554)。治理算法化并非是簡單的人工智能嵌入治理領(lǐng)域之后的產(chǎn)物,而是實踐先于理論而存在,亦是這個時代的社會需求。我們無疑已經(jīng)進入了對算法需求的“寒武紀大爆發(fā)”時代,現(xiàn)如今對算法和人工智能的理解,亦如18世紀的科學(xué)家亞歷山大·馮·洪堡(Alexander von Humboldt)第一次以“生命之網(wǎng)”的整體視角重塑人類對大自然的認識,需要經(jīng)歷一個“洪堡時刻”,其核心就是在智能系統(tǒng)中嵌入符合人類價值的基模,構(gòu)筑算法的底層運行規(guī)則[50]。而這個規(guī)則須臾不可偏離的基點即所有的技術(shù)發(fā)展本質(zhì)上都是為了實現(xiàn)人的發(fā)展,人是起點亦是終點。

當(dāng)然,任何一項技術(shù)的發(fā)展在帶來福音的同時都存在進一步撕裂當(dāng)下社會的風(fēng)險,我們除了審慎和理性地分析算法危機的根源和特征之外,更應(yīng)當(dāng)以包容客觀的心態(tài)給予算法技術(shù)足夠的創(chuàng)新空間,并有針對性地總結(jié)算法治理以及治理算法的經(jīng)驗,這樣做的目的不僅在于緩解算法焦慮,與“算法共存”,而且旨在于治理算法化的體系中進一步促進技術(shù)與人的和諧關(guān)系。當(dāng)然,算法技術(shù)本身的優(yōu)化和完善十分重要,但更需要在凝聚社會共識以及型構(gòu)異議空間的基礎(chǔ)上建立有效應(yīng)對“道”與“術(shù)”異步困境的治理機制,防范人工智能的技術(shù)性風(fēng)險。這不僅涉及強化法律規(guī)制的傳統(tǒng)制度改造,更要求建立以全面理性為基礎(chǔ)、以社會監(jiān)管為重要內(nèi)容的政策體系,甄別與抵制算法對“人的政治”的侵蝕。誠然,算法時代的“洪堡時刻”并沒有捷徑可走,或許只能通過諸如對“自動駕駛在面對‘電車難題’時做出的選擇是否比人類更合乎道德”“智能司法系統(tǒng)會不會比法官裁判更公正”等悖論的思辨與探討,才能從每一個具體的治理算法化情境中,不斷深化對人工智能治理屬性的再思考。

注釋:

①參見JeanLuc Chabert:“A History of Algorithm:From the Pebble to the Microchip”,Springer,1999.

②有學(xué)者指出,在商業(yè)邏輯的支配下,算法公司可能通過程序設(shè)定將算法植入公共部門,并將算法優(yōu)勢嵌入公共部門的投入、過程與產(chǎn)出等環(huán)節(jié),以期獲得更多的財政資金制造機會,進而充當(dāng)算法影子官僚,不斷擴大算法權(quán)力在公共領(lǐng)域的影響。參見鄭崇明:《警惕公共治理中算法影子官僚的風(fēng)險》,《探索與爭鳴》2021年第1期。

參考文獻:

[1][英]威廉·配第.政治算術(shù)[M].陳冬野.北京:商務(wù)印書館,2014.

[2][法]米歇爾·???規(guī)訓(xùn)與懲罰[M].劉北成,楊遠嬰.北京:生活·讀書·新知三聯(lián)書店,2012.

[3][加拿大]馬歇爾·麥克盧漢.理解媒介:論人的延伸[M].何道寬.南京:譯林出版社,2019.

[4]張昱辰.走向后人文主義的媒介技術(shù)論——弗里德里希·基特勒媒介思想解讀[J].現(xiàn)代傳播,2014,(9).

[5][意]吉奧喬·阿甘本.論友愛[M].劉耀輝,尉光吉.北京:北京大學(xué)出版社,2017.

[6]鄭戈.算法的法律與法律的算法[J].中國法律評論,2018,(2).

[7]徐子沛.數(shù)據(jù)之巔[M].北京:中信出版社,2018.

[8]賈開,蔣余浩.人工智能治理的三個基本問題——技術(shù)邏輯、風(fēng)險挑戰(zhàn)與公共政策選擇[J].中國行政管理,2017,(10).

[9][德]蓋奧爾格·西美爾.社會學(xué):關(guān)于社會化形式的研究[M].林榮遠.北京:華夏出版社,2002.

[10][德]尤爾根·哈貝馬斯.作為“意識形態(tài)”的技術(shù)與科學(xué)[M].李黎,郭官義.北京:學(xué)林出版社,1999.

[11]吳冠軍.信任的“狡計”——信任缺失時代重思信任[J].探索與爭鳴,2019,(12).

[12][美]尼葛洛龐帝.數(shù)字化生存[M].胡泳,等.海口:海南出版社,1997.

[13]夏逸舟.西蒙棟技術(shù)哲學(xué)淺析——從“個體化”概念入手[D].南京:南京大學(xué)學(xué)位論文,2017.

[14]吳冠軍.競速統(tǒng)治與后民主政治——人工智能時代的政治哲學(xué)反思[J].當(dāng)代世界與社會主義,2019,(6).

[15][美]勞倫斯·萊斯格.代碼2.0:網(wǎng)絡(luò)空間中的法律[M].李旭,沈偉偉.北京:清華大學(xué)出版社,2009.

[16]李惠斌,楊冬雪.社會資本與社會發(fā)展[M].北京:社會科學(xué)文獻出版社,2000.

[17][美]托馬斯·R·戴伊.理解公共政策(第十二版)[M].謝明.北京:中國人民大學(xué)出版社,2011.

[18]高奇琦.智能革命與國家治理現(xiàn)代化初探[J].中國社會科學(xué),2020,(7).

[19]張志安,劉杰.人工智能與新聞業(yè):技術(shù)驅(qū)動與價值反思[J].新聞與寫作,2017,(11).

[20][法]愛彌爾·涂爾干.宗教生活的基本形式[M].渠敬東,汲喆.北京:商務(wù)印書館,2011.

[21]胡安寧. 人心可以計算嗎?——人工智能與社會科學(xué)研究之關(guān)系[J].南國學(xué)術(shù),2017,(4).

[22][美]高德納.計算機程序設(shè)計藝術(shù)卷1:基本算法[M].李伯明,等.北京:人民郵電出版社,2016.

[23]劉宇擎,張玉槐,段沛奇,等.針對強人工智能安全風(fēng)險的技術(shù)應(yīng)對策略[J].中國工程科學(xué),2021,(3).

[24]張欣.從算法危機到算法信任:算法治理的多元方案和本土化路徑[J].華東政法大學(xué)學(xué)報,2019,(6).

[25]鄭智航.人工智能算法的倫理危機與法律規(guī)制[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2021,(1).

[26]任劍濤.人工智能與“人的政治”重生[J].探索,2020,(5).

[27]方興東,嚴峰.“健康碼”背后的數(shù)字社會治理挑戰(zhàn)研究[J].人民論壇·學(xué)術(shù)前沿,2020,(16).

[28]姚佳瑩.健康碼能否升級“全能碼”?[J].晚晴,2020,(7).

[29]恩格斯.反杜林論[M].中共中央馬克思恩格斯列寧斯大林著作編譯局.北京:人民出版社,2018.

[30]蔣紅珍.目的正當(dāng)性審查在比例原則中的定位[J].浙江工商大學(xué)學(xué)報,2019,(2).

[31]汝緒華.算法政治:風(fēng)險、發(fā)生邏輯與治理[J].廈門大學(xué)學(xué)報,2018,(6).

[32][美]凱斯·R.桑斯坦.信息烏托邦:眾人如何生產(chǎn)知識[M].畢競悅.北京:法律出版社,2008.

[33]唐林垚.算法應(yīng)用的公共妨害及其治理路徑[J].北方法學(xué),2020,(3).

[34]朱婉菁.算法維度下人工智能嵌入治理的風(fēng)險研判及政策因應(yīng)[J].天津行政學(xué)院學(xué)報,2020,(6).

[35]孫國東.“算法理性”的政治哲學(xué)檢視[J].廈門大學(xué)學(xué)報,2021,(2).

[36]張愛軍,李圓.人工智能時代的算法權(quán)力:邏輯、風(fēng)險及規(guī)制[J].河海大學(xué)學(xué)報,2019,(6).

[37]汪行福.“復(fù)雜現(xiàn)代性”論綱[J].天津社會科學(xué),2018,(1).

[38][美]赫伯特·馬爾庫塞.單向度的人[M].劉繼.上海:上海譯文出版社,2008.

[39]陳振明.走向一種科學(xué)技術(shù)政治學(xué)理論——評“西方馬克思主義”關(guān)于科學(xué)技術(shù)政治效應(yīng)的觀點[J].自然辨證法通訊,1997,(2).

[40][英]齊格蒙特·鮑曼.流動的現(xiàn)代性[M].歐陽景根.北京:中國人民大學(xué)出版社,2018.

[41][法]米歇爾·???必須保衛(wèi)社會[M].錢翰.上海:上海人民出版社,1999.

[42]王健.自我、權(quán)力與規(guī)訓(xùn):可穿戴設(shè)備的社會學(xué)解析——以青年跑者為例[J].中國青年研究,2019,(12).

[43]段偉文.面向人工智能時代的倫理策略[J].當(dāng)代美國評論,2019,(1).

[44]羅歡.智媒時代媒體的智能化發(fā)展與轉(zhuǎn)型研究[J].新聞愛好者,2019,(1).

[45]喻國明,韓婷.算法型信息分發(fā):技術(shù)原理、機制創(chuàng)新與未來發(fā)展[J].新聞愛好者,2018,(4).

[46]汝緒華.假新聞泛濫與西方民主的整體性危機[J].馬克思主義研究,2019,(5).

[47]劉建.標(biāo)準化、自由裁量權(quán)與街頭博弈:貧困治理情境轉(zhuǎn)換的路徑及邏輯[J].甘肅行政學(xué)院學(xué)報,2019,(4).

[48]孫志建.“模糊性治理”的理論系譜及其詮釋:一種嶄新的公共管理敘事[J].甘肅行政學(xué)院學(xué)報,2012,(3).

[49]馬克思恩格斯選集(第3卷)[M].北京:人民出版社,1995.

[50]喻國明,耿曉夢.智能算法推薦:工具理性與價值適切——從技術(shù)邏輯的人文反思到價值適切的優(yōu)化之道[J].全球傳媒學(xué)刊,2018,(4).

[責(zé)任編輯:張英秀]

Abstract: The transformation of artificial intelligence in the field of governance requires theoretical reconstruction and innovation. Putting artificial intelligence in the secondorder structure of internal “theoretical proof” and external “risk identification” of governance, proposing and demonstrating the analytical framework of governance algorithmization is a useful way to explore governance reform in the era of artificial intelligence. The prerequisite for the establishment of governance algorithmization is not only the efforts of the “calculable” module, but also the need to reshape the boundary of governance. It originates from both the need to strengthen governance trust and the need to construct collective action in the individualized era, and should always adhere to the application logic of human scale. Governance algorithmization has the asynchronous dilemma of “Tao” and “art”, that is, there are risks such as business logic taking precedence over governance logic, algorithm bias internalizing into public rationality, technology power generalization into liquid monitoring, and pseudo reality replacing governance situation. Therefore, the algorithmization of governance still needs to further promote the harmonious relationship between technology and people.

Key words: artificial intelligence, the algorithm of governance, big data, algorithm bias, machine learning

猜你喜歡
機器學(xué)習(xí)人工智能大數(shù)據(jù)
2019:人工智能
人工智能與就業(yè)
數(shù)讀人工智能
基于網(wǎng)絡(luò)搜索數(shù)據(jù)的平遙旅游客流量預(yù)測分析
前綴字母為特征在維吾爾語文本情感分類中的研究
基于支持向量機的金融數(shù)據(jù)分析研究
基于大數(shù)據(jù)背景下的智慧城市建設(shè)研究
下一幕,人工智能!
湘阴县| 茶陵县| 宣汉县| 吉水县| 遵化市| 麻城市| 轮台县| 甘南县| 嘉黎县| 高碑店市| 舒城县| 枝江市| 慈利县| 托里县| 梨树县| 湖北省| 天等县| 江北区| 双柏县| 江安县| 宜章县| 抚州市| 宁波市| 石林| 荥阳市| 榆中县| 五河县| 信宜市| 托克托县| 东兰县| 齐齐哈尔市| 勃利县| 阳新县| 灌阳县| 青海省| 阿合奇县| 武宁县| 潜山县| 鄱阳县| 武夷山市| 明光市|