摘? ? ? 要:人工智能技術(shù)承載著社會發(fā)展的愿景,但人臉識別技術(shù)一定程度上卻濫觴于相悖的結(jié)果?!爸袊四樧R別第一案”喚起社會對人工智能技術(shù)問題的反思,其實質(zhì)是技術(shù)擴張和社會保護“雙向運動”的較量。結(jié)合案例重構(gòu)“雙向運動”新模型可發(fā)現(xiàn):市場資本擴張邏輯裹挾人臉識別技術(shù)與社會撕裂是根源,市場資本生產(chǎn)與技術(shù)逐利分工導致社會被需求,市場資本流動催促技術(shù)轉(zhuǎn)化帶來社會風險,市場資本存續(xù)依賴技術(shù)決策引導社會“商品化”,市場資本競爭擴大技術(shù)競技致使社會“機械化”。社會轉(zhuǎn)型內(nèi)生的利益公平、不確定性降低、主體性決策和公共價值訴求催生了社會自發(fā)保護,層層倒逼政府介入。政社聯(lián)手構(gòu)筑的“反向運動”以“技術(shù)重嵌社會”來規(guī)范市場資本,在利益共契、權(quán)力制衡、決策重塑和秩序維系方面矯正人工智能技術(shù)是未來趨勢,亦有利于重歸技術(shù)初衷。
關(guān)? 鍵? 詞:雙向運動;人工智能;人臉識別技術(shù);技術(shù)擴張;社會保護
中圖分類號:D925.1? ? ? ? 文獻標識碼:A? ? ? ? 文章編號:1007-8207(2021)06-0095-14
收稿日期:2021-03-25
作者簡介:陳春潤,華南師范大學政治與公共管理學院碩士研究生,研究方向為城市治理、公共政策。
一、問題的提出
伴隨著大數(shù)據(jù)、5G、區(qū)塊鏈等新一代信息技術(shù)的逐漸成熟,人工智能將對全球格局產(chǎn)生巨大影響。2017年,人工智能首次被寫入政府工作報告,國務(wù)院印發(fā)的《新一代人工智能發(fā)展規(guī)劃》也提出了分三步走的戰(zhàn)略目標:“第一步,到2020年人工智能總體技術(shù)和應(yīng)用與世界先進水平同步;第二步,到2025年人工智能基礎(chǔ)理論實現(xiàn)重大突破,部分技術(shù)與應(yīng)用達到世界領(lǐng)先水平;第三步,到2030年人工智能理論、技術(shù)與應(yīng)用總體達到世界領(lǐng)先水平,成為世界主要人工智能創(chuàng)新中心,智能經(jīng)濟、智能社會取得明顯成效,為躋身創(chuàng)新型國家前列和經(jīng)濟強國奠定重要基礎(chǔ)”。隨著相應(yīng)政策的落實,作為人工智能的標志性技術(shù),生物識別技術(shù)大規(guī)模落地,人臉識別技術(shù)以無可比擬的優(yōu)勢成為社會轉(zhuǎn)型需求的重要選擇(見圖1、圖2)。人臉識別通過已儲備的人臉圖像數(shù)據(jù)庫對特定的靜動態(tài)圖像或視頻進行驗證和匹配已知身份,[1]正在為社會創(chuàng)造價值。如重慶江北機場安檢識別設(shè)備僅10分鐘便抓獲潛逃1380天的“北大弒母案”嫌疑人,使犯罪分子無處遁形;醫(yī)院借助算法對人臉數(shù)據(jù)分析檢測遺傳疾病,幫助盲人識別聊天對象表情;2020年新冠疫情爆發(fā),人臉識別門禁配合紅外線無接觸測溫、無人機等視覺交互場景被廣泛應(yīng)用。人臉識別對一系列問題的成功解決使其逐漸獲得社會前所未有的認可,數(shù)幾十年前出行需要介紹信,現(xiàn)今“刷臉”即可順利出行。
圖1 2019-2021年中國生物特征識別規(guī)模增速[2]
圖2 2015-2021年中國人臉識別規(guī)模增速[3]
人類社會創(chuàng)造人工智能承載著解決社會需求的目的,本質(zhì)是使社會發(fā)展得更好,[4]然而在實踐過程中,多有不盡人意之處。支付寶和微信的人臉識別推出、銀行APP和柜臺嵌入人臉識別、小區(qū)的人臉識別門禁、公司換上人臉打卡機,其無節(jié)制的擴張在帶來了空前的效率和財富同時,一定程度上背離了服務(wù)于社會的初衷。由于人臉識別是以人工智能算法為技術(shù)支持,以大數(shù)據(jù)分析為手段,人工智能算法容易異化為“賽維坦”,[5]大數(shù)據(jù)將異化為“數(shù)字利維坦”。[6]從人臉識別趨勢來看,人類難以操控之勢已顯現(xiàn):人臉照片被以5000張不足10元的價格交易,陌陌ZAO換臉軟件的“強盜協(xié)議”同意授予ZAO與其關(guān)聯(lián)公司以及ZAO用戶“在全球范圍內(nèi)免費、不可撤銷、永久、可轉(zhuǎn)授和可再許可”的權(quán)利,濟南看房者戴頭盔防刷臉揭開了黑暗利益的鏈條,等等?!度四樧R別應(yīng)用公眾調(diào)研報告(2020)》也分析了人臉識別技術(shù)濫用對人類造成的傷害和引起的擔憂。
技術(shù)本身并不存在惡意,但是人工智能對社會帶來的傷害難免令人擔憂, “中國人臉識別第一案”引起了社會對人工智能技術(shù)應(yīng)用的深思,郭兵與杭州野生動物世界(以下簡稱“動物世界”)的沖突是人工智能與個人權(quán)利保護產(chǎn)生了矛盾。2019年10月,杭州野生動物世界在“零公眾基礎(chǔ)”情況下更換了人臉識別入園方式,因擔憂隱私、人身和財產(chǎn)等權(quán)利被侵犯,協(xié)調(diào)無果后郭兵起訴了動物世界。自此,“中國人臉識別第一案”屢登網(wǎng)絡(luò)熱搜,就人臉識別技術(shù)問題和權(quán)利保護兩難抉擇激起輿論熱議,隨后“刷臉”事件、信息安全和其它人工智能問題被頻頻曝光,各地反抗技術(shù)以保護個人權(quán)利呼聲不斷,各地政府也叫停了一些“刷臉”場景,案件延續(xù)至2021年4月。期間,社會、政府、市場(技術(shù))均牽連其中。究其本質(zhì),這場抗爭是技術(shù)擴張與社會個體權(quán)利的較量,透露出人們對人工智能發(fā)展的矛盾態(tài)度。這一議題極具現(xiàn)實意義,但令人遺憾的是,迄今對人工智能的研究仍限于科學技術(shù)問題的鋪述,鮮涉社會層面的思考。為何人臉識別觸發(fā)了與社會發(fā)展初衷相悖的結(jié)果?社會保護何以發(fā)生?如何校正人工智能技術(shù)應(yīng)用行為?以“中國人臉識別第一案”為例深入分析,解開困惑,既是現(xiàn)實需要,更是推進人工智能治理現(xiàn)代化的中國探索。
二、理論分析框架
(一)既有文獻之爭
關(guān)于技術(shù)問題的爭論經(jīng)久不衰,智能時代背景下人工智能成為核心,圍繞市場決定論、社會影響論和政府監(jiān)管論層面鋪開。市場是技術(shù)擴張的引擎,國外學者們偏好技術(shù)自由主義,如亞當·斯密(英)信仰人天生傾向交易來尋求利益最大化,赫伯特·斯賓塞(英)、路德維?!ゑT·米塞斯(奧地利)和沃爾特·李普曼(美)等人重復著利益交換的市場理性經(jīng)濟人模型。深受影響的學者們也偏好技術(shù)“成本—收益”的市場論,其研究包括兩個方向:一是將人工智能視為滿足市場需求的新技術(shù)工具,提高生產(chǎn)效率而帶來經(jīng)濟增長。[7]許多研究者還認為人工智能進化取決于市場運行成本需求,習慣從技術(shù)事實探討市場收益對策。二是從市場資本增值角度思考技術(shù)的發(fā)展,但意見不一。一方面,秉承弗里德里?!W古斯特·馮·哈耶克(英)關(guān)于市場自發(fā)的理念,認為技術(shù)市場秩序能自我調(diào)節(jié)。人工智能技術(shù)需要市場資本來投資,即便是喬布斯的蘋果手機技術(shù)或馬云網(wǎng)購推廣技術(shù)也離不開雄厚的資本,而人工智能作為資本密集型技術(shù)[8]可以提高市場的投資回報。另一方面,也有人關(guān)注到市場資本攝取利潤導致技術(shù)異化和壟斷的問題,[9]對技術(shù)趕超有正面激勵效應(yīng),但也可能抑制技術(shù)創(chuàng)新。市場決定論認為技術(shù)是市場需求刺激與技術(shù)價值回報的結(jié)果,容易忽視技術(shù)的“市場資本”困局。
與將人工智能看作是市場決定的技術(shù)的視角不同,有學者主張融入社會維度的分析。如德國學者弗里德里?!だ钏固?、卡爾·歐根·杜林、斐迪南·滕尼斯等主張社會要有意設(shè)計經(jīng)濟市場和社會制度。如今,市場技術(shù)戰(zhàn)勝社會成為關(guān)鍵問題,馬克思曾認為機器將社會人排擠出生產(chǎn)領(lǐng)域,[10]《人類簡史》作者尤瓦爾·赫拉利(以色列)預測人工智能將造就社會“無用階層”,遠超出了米歇爾·??拢ǚǎ┧浮爸R序列崩潰”和哲學上的“人的抹去”,庫茲韋爾也預言人工智能可能超出“奇點”[11]改變?nèi)诵浴暮嗬せ粮瘢溃┑剿沟俜摇ねせ艚穑ㄓⅲ┑热硕紦鷳n智能力量會被用于不道德、非正義和有害的目的。技術(shù)的巨大利益鏈帶來信息失控、委瑣化和泡沫化世界,人類淪為信息奴隸,被信息的汪洋大海淹死。[12]正如我國學者高奇琦認為:隱私暴露的“透明人”和終結(jié)人類特性的“空心人”,[13]以致于技術(shù)與人類實現(xiàn)黑格爾意義的主體承認。為此,許多組織努力定義人工智能的社會倫理,技術(shù)不能控制人類社會、扭曲社會人的心理和行為,[14]只能成為社會依附者來發(fā)揮其作用。
一個無可辯駁的事實是,技術(shù)市場發(fā)展和社會觀念轉(zhuǎn)變時,政府作出了貢獻。與市場秩序選擇的增長現(xiàn)象不同,不受限制的市場調(diào)節(jié)是烏托邦,庇古(英)認為市場調(diào)節(jié)不符合帕累托最優(yōu)準則,無法調(diào)節(jié)外部效應(yīng),[15]不僅施穆勒(德)強調(diào)市場的歷史特性,弗里德里?!だ钏固兀ǖ拢┮步忉屃藝以谑袌鲋械暮诵淖饔?,他們提倡國家以制度框架重塑社會共同體。[16]技術(shù)市場聯(lián)合與國家分庭抗禮,人工智能侵犯社會的領(lǐng)域備受關(guān)注。盡管人工智能戰(zhàn)略意味著政府圍繞戰(zhàn)略目標和利益相關(guān)者作出調(diào)整的系列動機,但是技術(shù)監(jiān)控和社會用戶信息權(quán)利如何保護問題亟待解決。許多國家開始研究相關(guān)法規(guī)回應(yīng)人工智能和市場力量的問題,指向保護社會權(quán)利。國際社會對人工智能運用早有討論,2013年聯(lián)合國大會強調(diào)“數(shù)字時代的隱私權(quán)”,各國應(yīng)“設(shè)立或維護有效的國內(nèi)監(jiān)督”。各國禁止各類智能應(yīng)用的舉措引起了爭議,支持者呼喚人權(quán)保護,反對者提出以細致規(guī)范替代全面禁止。然而,問題在于政府監(jiān)管人工智能也容易陷入“一放就亂,一管就死”的境地。
既有文獻之爭為本研究奠定了一定的理論基礎(chǔ),但主體間關(guān)系似乎難以厘清。同時,技術(shù)服務(wù)于社會的本質(zhì)決定了技術(shù)離不開與社會關(guān)系的探討。目前,人工智能和社會關(guān)系的研究匱乏,價值判斷層面又使技術(shù)和社會互動過程成為“黑箱”,市場決定論、社會影響論抑或政府監(jiān)管論也難以預測未來。
(二)人工智能轉(zhuǎn)型:技術(shù)擴張的“雙向運動”
以往從三個角度看人工智能問題,現(xiàn)今還可以更透徹——從技術(shù)擴張和社會保護的“雙向運動”來解析其復雜過程??枴げㄌm尼(匈)在《大轉(zhuǎn)型:我們時代的政治與經(jīng)濟起源》提出“雙向運動”視角,[17]本文提煉其關(guān)鍵論點作為立論依據(jù)。命題1:自由放任的“市場社會”(市場經(jīng)濟所有要素均商品化,不是為了社會消費生產(chǎn),而是為了交換獲利生產(chǎn))脫嵌于社會,無法自我調(diào)節(jié)的市場扮演社會的唯一指導者將帶來社會災難;命題2:市場脫嵌于社會觸發(fā)反向的社會保護來矯正市場的脫軌,此雙重力量對抗導致社會結(jié)構(gòu)形成、崩潰和更替;命題3:市場和社會保護的“雙向運動”引發(fā)難以調(diào)和的沖突,以開放的維持方式通過國家、政府的干預來保衛(wèi)社會不受市場的侵害,政府干預之下“市場社會”回歸“社會市場”。命題4:自我調(diào)節(jié)市場的終結(jié)、社會保護和政府規(guī)制意味著市場的重生。
事實上,“大轉(zhuǎn)型”在當代中國人工智能發(fā)展中逐漸變成現(xiàn)實。人工智能與市場資本已然深度結(jié)合,技術(shù)和社會間深層次關(guān)系在于透視技術(shù)擴張背后市場資本的根本力量,受制于市場資本的技術(shù)擴張和社會保護互動包含雙重運動。一種是市場資本的技術(shù)擴張傾向,另一種是抗拒市場資本下技術(shù)擴張引起的社會保護。從經(jīng)歷著“技術(shù)”的“市場社會”到社會出現(xiàn)的“反向運動”,社會和技術(shù)分裂成對立面而無力擺脫時,需要國家、政府力量來緩和,引向“技術(shù)”的“社會市場”。由此看來,市場資本控制的人工智能技術(shù)擴張引起社會“反向運動”,“反向運動”是為了更好地調(diào)整和糾正市場資本行為。
學者們在“雙向運動”研究上各具特色,對人工智能技術(shù)和社會層面的分析極具價值,在現(xiàn)象解釋和危機預測上十分精準,但其指導實踐還需滿足以下條件:⑴分析脈絡(luò)兼容市場資本、人工智能技術(shù)和社會的邏輯性工具;⑵各主體間關(guān)系需明確且清晰;⑶理論為中國案例素材所驗證;⑷這一宏觀框架應(yīng)從微觀單位出發(fā)以“一斑窺全豹”。故此,將“雙向運動”置于人工智能擴張和社會保護的本質(zhì)規(guī)律中深入把握,需重構(gòu)新的“雙向運動”模型。
(三)人工智能之“雙向運動”邏輯
技術(shù)擴張與“反向運動”的“雙向運動”包含雙重原則,第一重原則是市場資本指導下的技術(shù)擴張運動,第二重原則是反抗技術(shù)擴張的“反向運動”,蘊含社會自發(fā)保護增能與政社聯(lián)手構(gòu)筑的反向運動兩大方面?!半p向運動”模型闡釋關(guān)于人工智能技術(shù)擴張與“反向運動”的關(guān)系(見圖3):
圖3 重構(gòu)的“雙向運動”模型
假設(shè)1:人工智能擴張的根源是市場資本運行的四重邏輯,市場資本以極端功利主義原則獲取其所需的技術(shù)擴張要素,把社會收入控制在手中。
人工智能與市場資本擴張邏輯共契,[18]人工智能包含智能分工、轉(zhuǎn)化、決策和競技要素,遵循市場資本發(fā)展的四重邏輯與資本相互作用,達到資本擴張的目的。[19]首先,市場資本生產(chǎn)。市場資本和人工智能在利益分配基礎(chǔ)上進行組織間分工合作,為后續(xù)運行奠定基礎(chǔ)。其次,市場資本流動。市場資本迫切運動和加速轉(zhuǎn)化才能獲得更多利潤,[20]其需要人工智能短時間內(nèi)實現(xiàn)由生產(chǎn)到市場的急速跨躍,傾向于短期的直接效果,忽視積累帶來的不確定性后果。再者,市場資本存續(xù)。為盡可能獲得最大收益,資本還要不停頓循環(huán)而存續(xù),資本存續(xù)依賴于人工智能對數(shù)據(jù)信息的獲取、分析和決策。最后,市場資本競爭。市場資本競爭依靠人工智能軟件或硬件的激烈競爭,大規(guī)模引入和擴大人工智能的應(yīng)用。
假設(shè)2:市場資本和技術(shù)合謀與社會的較量呈現(xiàn)非均衡性,帶來雙方無法調(diào)節(jié)的緊張性,社會轉(zhuǎn)型的內(nèi)生性訴求層層遞進催生社會自發(fā)保護。
市場資本操縱人工智能過快過急擴張,使不符合其運作邏輯的社會被邊緣化,社會自發(fā)啟動保護。社會的自我保護絕非憑空而生,而是轉(zhuǎn)型的內(nèi)在適應(yīng)性調(diào)整。上述資本張生產(chǎn)、流動、存續(xù)、競爭的四重擴張邏輯決定了市場資本顯著的非公共性、外部性、信息性和壟斷性特征,帶來了技術(shù)與社會的高度緊張。與之對應(yīng),社會本身蘊藏的結(jié)構(gòu)性、穩(wěn)定性、主體性和制度性訴求促發(fā)了社會保護,開啟了與市場資本、人工智能技術(shù)的較量。
假設(shè)3:技術(shù)與社會無法調(diào)解的緊張性倒逼政社聯(lián)手構(gòu)筑“技術(shù)嵌入社會”的“反向運動”,受制于市場資本而“脫鉤于”社會的技術(shù)重新與社會“掛鉤”,強化了社會保護的傳導動力,并抵消了技術(shù)自我毀滅機制和市場資本。
社會自發(fā)保護訴求與政府治理需求相契合,政府與社會聯(lián)手構(gòu)筑“反向運動”。社會自發(fā)保護訴求使得政府在處理人工智能和市場資本問題上有意識關(guān)切社會需求,就社會合法性抗爭,搭建起“技術(shù)嵌入社會”可替代通道,以滿足各方的需求。同時,技術(shù)嵌入社會的“反向運動”[22]也是技術(shù)利用率和市場收益率的長遠考量,其額外效應(yīng)使社會保護成為政治常規(guī)參與者,一旦社會保護在技術(shù)市場安家落戶,便成為社會持續(xù)保護的動力,[23]通過模式化促使社會考量如何接受其它人工智能。
回到人臉識別技術(shù)上,“中國人臉識別第一案”表明:人臉識別問題的本質(zhì)是市場資本裹挾技術(shù)擴張之下的社會問題。資本增殖和人臉識別技術(shù)發(fā)展依賴于社會,回歸社會邏輯的保護不只是防御行為,而是回應(yīng)市場資本依托人臉識別破壞社會秩序的紊亂狀態(tài)。現(xiàn)實案例也表明社會保護初現(xiàn)端倪,市場主體非但不排斥“反向運動”,實際要求反向社會保護,但關(guān)鍵在于是否利于技術(shù)和資本持續(xù)發(fā)展。鑒于此,須從修正具體的“雙向運動”模型來解析人臉識別案例引發(fā)的雙向較量過程并進行深入檢驗。
三、資本裹挾下人臉識別技術(shù)擴張與社會緊張之痛
(一)市場資本生產(chǎn):技術(shù)分工逐利導致社會“被需求”
人臉識別作為技術(shù)手段服務(wù)于社會需求,但由于市場資本的生產(chǎn)具有逐利性,因而社會逐漸“被需求化”。市場資本的本性是追求最大利潤,技術(shù)因其具有操作性、精確性和有效性而成為資本追求最大利潤的合作伙伴。在市場資本“招募”下,技術(shù)組織紛紛加入其中,二者優(yōu)化分工組合,其中的利益關(guān)系極其復雜。對于動物世界等商家來說,人臉識別設(shè)備并非一種簡單工具,它還可以獲得許多收益,技術(shù)研發(fā)企業(yè)正是核心利益合作者。一方面,一臺人臉識別設(shè)備相當于多人同時工作。傳統(tǒng)的人工核驗方式效率低且人工成本高,平均每人通行約5-10秒,而使用人臉識別系統(tǒng)僅需3秒左右,在效率提高的同時經(jīng)營成本大幅縮減。另一方面,人臉識別系統(tǒng)也是引流入口。不同于刷卡和二維碼支付,人臉具有惟一性,利于準確判斷和對用戶進行精準畫像,從而制定個性化營銷策略,提高用戶黏性。技術(shù)資本雙方共謀利益,人臉識別技術(shù)容易淪為市場資本的奴隸,往往創(chuàng)造出需求來獲利而并非考慮社會本身的需求、價值旨歸和公共利益。市場資本表象掩蓋下的人工智能技術(shù)“進步”無法契合社會發(fā)展“需求”,商家變“你需要”為“我要你需要”,再通過宣傳人工智能“為你服務(wù)”而推出產(chǎn)品。動物世界在與人臉識別技術(shù)企業(yè)結(jié)合的過程中技術(shù)即淪為商家獲利的工具。市場資本和技術(shù)分工合作逐利無可厚非,人臉識別技術(shù)本是為滿足社會公眾需求而開發(fā),現(xiàn)在反倒是社會公眾的需求被市場資本“創(chuàng)造”出來滿足技術(shù)消費。
(二)市場資本流動:技術(shù)轉(zhuǎn)化急劇隱伏社會“風險”
從人臉識別技術(shù)生產(chǎn)到市場應(yīng)用是“變現(xiàn)”的轉(zhuǎn)化過程,市場資本流動的沖動壓縮了其轉(zhuǎn)化過程,增加了其中的不確定性并帶來社會風險。技術(shù)轉(zhuǎn)化加快了市場資本流動,但目前人臉識別技術(shù)忽視了人臉識別應(yīng)用過程的風險隱憂。在人臉識別技術(shù)轉(zhuǎn)化“變現(xiàn)”過程中,一方面,技術(shù)開發(fā)者由于自身局限對技術(shù)的風險感知存在主觀判斷,對人臉識別技術(shù)風險可控的自信和誤判容易帶來技術(shù)風險。在實地調(diào)研中,大多數(shù)技術(shù)開發(fā)者承認其風險,卻更相信自己的技術(shù)判斷。另一方面,一些大型企業(yè)擁有定義風險的權(quán)力,他們選擇自己愿意看到的結(jié)果,技術(shù)精英可能用智能算法來論證有意選擇的正當性。由于需求選擇的成本限制,眾多社會訴求將無法進入到技術(shù)和市場資本的決策視野中來。用戶的聲音很難被技術(shù)開發(fā)者了解到,動物世界的人臉識別系統(tǒng)也是在“零公眾基礎(chǔ)”上快速推進的,未能對用戶進行充分的知情同意調(diào)查,更不用說市場上各組織低價開發(fā)人臉識別系統(tǒng)或者通過相應(yīng)渠道采購廉價的人臉識別系統(tǒng),公眾的訴求和建議被排除于市場資本的決策之外。事實上,人臉識別系統(tǒng)真正安全轉(zhuǎn)化是需要高昂成本的,公眾更愿意相信政府部門的人臉識別系統(tǒng),在對相關(guān)政府部門和項目跟蹤后發(fā)現(xiàn),其采用一套高安全性的人臉識別系統(tǒng)需要數(shù)百萬的高昂投入和維護。然而,在市場資本催促下,各大應(yīng)用商和技術(shù)開發(fā)企業(yè)也只能考慮成本和收益問題,機器更新迅速、投入的低成本和未能建立數(shù)據(jù)后臺的專業(yè)能力必然隱藏算法、隱私泄露和其它侵權(quán)風險。技術(shù)快速更新?lián)Q代顛覆了社會公眾的認知,人類高度依賴人臉識別技術(shù),資本流動又強迫技術(shù)繼續(xù)轉(zhuǎn)化,這種惡性循環(huán)擴張疊加了層層風險。這一驚人轉(zhuǎn)化不僅無法保證信息安全,還會面臨來自智能系統(tǒng)的威脅,如硬件和軟件漏洞、訓練數(shù)據(jù)污染、惡意對抗技術(shù)學習的樣本生成等,甚至導致系統(tǒng)混亂變成攻擊工具。但由于這一過程存在灰色的責任空間,風險一旦發(fā)生,用戶將難以追責。
(三)市場資本存續(xù):依賴數(shù)據(jù)決策引導社會“商品化”
生活在大數(shù)據(jù)時代,市場資本賦予了人工智能駕馭社會的地位,人們逐漸成為數(shù)據(jù)商品卻不知其危害?;跈C器學習的人工智能背后是海量的數(shù)據(jù)核心資源,數(shù)據(jù)背后則是社會權(quán)利被侵害,“一切智能的背后,都是監(jiān)控與控制”。[24]市場資本通過數(shù)據(jù)攫取甚至壟斷獲取更大權(quán)力和影響力——利用智能系統(tǒng)獲取大數(shù)據(jù),掌握資源和產(chǎn)品的市場現(xiàn)狀,從中尋找規(guī)律來提升決策能力,并且利用算法進行精準的“個性喂食”。事實上,市場資本依托技術(shù)收集的數(shù)據(jù)信息得以存續(xù),但是控制技術(shù)背后的市場主體獲得了掌控社會的決策權(quán)。個人的數(shù)據(jù)離決策越近,附加值越高,通過人臉識別設(shè)備收集后就會成為一種在市場上交易的數(shù)據(jù)商品。即人臉識別系統(tǒng)采集到人臉數(shù)據(jù)、身份信息等數(shù)據(jù)成為市場上各大商家界定結(jié)構(gòu)性社會的利器,被劃分為不同層次的信息數(shù)據(jù)作為“客體”被販賣。人臉識別采集到的相關(guān)信息尤其是人臉這類敏感信息是市場資本邏輯的必然結(jié)果和社會效應(yīng)。人臉識別設(shè)備并不關(guān)心用戶是否真的方便,不在乎用戶的擔憂,“人臉”數(shù)據(jù)被誰采集便歸誰,成為市場獲利的附屬品,社會人異化為人工智能的附件,失去主體性蛻化為“機奴”。
(四)市場資本競爭:技術(shù)競技盛行致使社會“機械化”
人臉識別技術(shù)應(yīng)用的無節(jié)制擴張是資本“砸錢”和技術(shù)“聯(lián)姻”賺錢的方式,市場資本不僅不停頓地循環(huán),還須不斷擴大投資規(guī)模來競爭,帶來機械的技術(shù)官僚主義。市場以資本增殖為基礎(chǔ), 資本能否依靠技術(shù)應(yīng)用不斷擴大來實現(xiàn)利潤最大化事關(guān)資本的成敗。市場主體不惜代價使用能夠幫助自身在激烈市場競爭中獲利的人工智能技術(shù)如人臉識別設(shè)備加速向社會滲透,“高大上、智慧趨勢、滿足客戶”等噱頭成為市場資本“跟風”人臉識別技術(shù)的理由,強迫公眾“刷臉”,社會失去能動性,變得“機械化”。人臉識別技術(shù)的使用應(yīng)必要、正當、合法,如公園的公共衛(wèi)生間,可采用其他方式而非機械的人臉識別方式來限時限量獲取紙張。但現(xiàn)實是,人臉識別技術(shù)在某種程度上成為市場謀利空間的“兇器”,忽略了人工智能存在使用限度的另一番景象。人臉識別在減輕工作壓力的同時也創(chuàng)造了機械官僚主義,出現(xiàn)“內(nèi)卷化”現(xiàn)象:“刷臉”不僅不能帶來便捷,反而提高使用門檻,帶來更復雜的程序。人臉識別引發(fā)的尷尬畫面歷歷在目,如許多人在“刷臉神器”前不夠高、光線不足、化妝、發(fā)型等有時候甚至不如人工服務(wù)便利。然而,人臉識別應(yīng)用的“非可選擇性”和“非替代性”掩蓋了社會真實訴求,社會只是零部件,一切變得“機械化”。
四、社會保護的內(nèi)在邏輯
(一)紓解利益沖突,避免彼此間利益分化加劇
市場資本和社會存在結(jié)構(gòu)性利益矛盾,市場資本牟利以犧牲社會個體利益為代價,使得彼此間利益分化和加劇。由市場資本進行投資的人工智能具有“非公共性”和逐利的利益性,在人臉識別技術(shù)擴張過程中,系統(tǒng)并不僅僅是識別人臉,而是經(jīng)由識別人臉可以追蹤身份信息、財產(chǎn)、行動軌跡、社交圈子和親屬關(guān)系等,社會主體得到的便利和市場組織獲得的收益相比微不足道,這是一項非公平的利益交換。個體脫離了集體化組織約束后,其獨立性、分散性彰顯,但由于技術(shù)知識、舉證能力、資金等處于劣勢而難以捍衛(wèi)個人權(quán)益。在起訴動物世界前,郭某也曾因蘋果手機自動扣費問題而與蘋果公司對抗,但是以失敗告終,在反對動物世界強迫“刷臉”的歷程中也遭遇了重重波折,耗費了巨大成本。相較于普通人,郭某的教授身份、專業(yè)背景經(jīng)歷、法律朋友幫助、媒體曝光已經(jīng)為其對抗商家和技術(shù)提供了基礎(chǔ)資源,若換作他人恐早已因無奈而妥協(xié)。市場資本和技術(shù)開發(fā)企業(yè)存在復雜的利益糾葛,雙方共有的先天優(yōu)勢遠強于個體或較小規(guī)模的社會組織。當社會個體意識到這種不公平帶來的相對剝奪感后,社會自我保護便以一種新的、組織化的方式產(chǎn)生。當然,人們也清楚認識到,如果失去市場資本,技術(shù)將難以為繼,但問題在于技術(shù)并不能只遵從市場資本“理性經(jīng)濟”的利益邏輯而忽視社會個體的權(quán)益。為紓解三方利益沖突,社會權(quán)益的維護呼吁社會保護來抵抗人工智能技術(shù)背后強大的市場資本勢力。
(二)降低潛在的不確定性風險
人臉識別應(yīng)用快速落地,使市場資本轉(zhuǎn)化營造出了“安全假象”,隱藏著極大的不確定性。技術(shù)具有復雜性和難以預測性,因社會認知能力有限,難以防止風險侵害。人工智能本身的算法決策和學習復雜性超過了傳統(tǒng)程序,甚至連開發(fā)算法的技術(shù)人員也可能難以洞悉遷移學習和算法演化的過程。大多數(shù)人在迫切使用人臉識別技術(shù)時都“同意商家單方面提出的協(xié)議”讓渡權(quán)益,選擇短期收益而忽略長期風險,這是非理性的“冒險主義”和“僥幸主義”。不過值得注意的是,很多用戶在“刷臉”時希望人臉識別技術(shù)的不確定性風險是可預測的和可控的。事實上,即使是政府部門采集公眾的臉部數(shù)據(jù),也有93.8%的人希望告知臉部數(shù)據(jù)的用途。[25]當然,“大篩選”理論意味著不是所有技術(shù)都有好的結(jié)局,何況人臉識別已化風險為實然。基于前述判斷,在前所未有的人工智能時代,人工智能帶來的風險不斷提升,而現(xiàn)有風險治理都供給不足。如果不啟動新型防范機制如社會保護提高抗風險能力,遏制不確定性,反抗技術(shù)霸權(quán),那么人臉識別終將會衍生一系列“負外部性”危機。
(三)獲得主體性決策參與權(quán)
決策參與權(quán)是利益調(diào)整和再分配的權(quán)利,市場資本聯(lián)合人工智能掌握著單一的決策權(quán),與社會形成決策主體和決策客體關(guān)系。一直以來,市場資本和人工智能的決策具有信息隱蔽性——技術(shù)獲取海量數(shù)據(jù)儲存和應(yīng)用存在透明度爭議,用于獲取競爭優(yōu)勢的算法工具又被作為核心商業(yè)機密對公眾隔離。當算法作出錯誤決策甚至侵犯社會權(quán)利時,“刷臉”后數(shù)據(jù)留存于設(shè)備終端、企業(yè)云端、子公司、集團部門還是流轉(zhuǎn)至公共部門都模糊不清。由于缺乏決策參與權(quán),社會局限于技術(shù)空間拓展以實現(xiàn)市場資本為目的的思維,許多人持有“反正沒有錢,不怕盜我臉”“沒人對我這種小人物感興趣”“我哪能決定別人做什么”的心態(tài)。由此技術(shù)決策理性吞噬了社會主體性,實現(xiàn)了社會從主體向客體的置換,[26]導致決策失調(diào),正如案件中動物世界評價用戶的價值只是去看他買了多久年卡、消費特征等可用來決策的數(shù)據(jù),即“人的物化”,而不是將用戶當作決策主體。由于對人工智能產(chǎn)生了黏性和路徑依賴,社會群體有決策意識的人格消逝,無意識的人格得勢,[27]群體喪失了批判性,其暗示作用轉(zhuǎn)向同意人臉識別技術(shù)的應(yīng)用,如局外人難以理解郭某的抗爭所為,動物世界認為識“時務(wù)”才明智。社會保護主張個體在使用人工智能時擁有決策自主權(quán),不是只作為“數(shù)據(jù)”被市場資本和技術(shù)決策,而是要將社會主體從邊緣位置帶回決策的中心位置,重塑社會主體地位。郭某和少數(shù)個體所做的抗爭努力是為了不被市場資本裹挾的技術(shù)所控制,這些舉動是為了獲得主體性決策參與權(quán)。
(四)回歸公共利益的價值關(guān)懷
市場資本密集的技術(shù)競爭具有壟斷性,在法律制度不健全的情況下,技術(shù)擴張往往不會遵循公共準則,有“溫度”的技術(shù)擴張才是社會的渴望,也是技術(shù)持續(xù)擴張的合法性工具。將改造社會的重任交付給技術(shù)官僚必定伴隨智能機器對社會生活的滲透,市場資本具有“無止境的欲望”,大量本無需應(yīng)用人臉識別的地方都采取了該應(yīng)用。一方面, “個人數(shù)據(jù)”成為技術(shù)控制社會的鑰匙,技術(shù)機器的節(jié)奏和規(guī)則擠壓人的情感和個性。另一方面,人工智能甚至成為商家對社會控制的工具。通過系統(tǒng)引導價值、建構(gòu)制度、改造生活達到市場資本獲益的效果,使社會思維和方式程序化、標準化,弱化人的判斷力。倘若市場資本對人臉識別技術(shù)唯利競爭,終將帶來技術(shù)的“個體代價”,不符合我國倡導的人民至上的價值觀念。郭兵案件以來,人臉侵權(quán)事件頻頻曝光,信息泄露事件屢登微博熱搜,使公眾逐漸意識到充滿關(guān)懷的技術(shù)價值消逝,盡管公眾對人臉識別技術(shù)存在分歧,但一致認定人工智能應(yīng)尊重個體、回歸人性關(guān)懷和凝聚公共利益。時下,對社會自身關(guān)注的現(xiàn)實抗爭與技術(shù)可能的侵害相對立,技術(shù)服務(wù)于社會公共價值既具備法理性和制度正義,也賦予了社會保護的標注功能和意義建構(gòu)?!爸袊四樧R別第一案”并非只是郭某維護自身權(quán)利,更是對人工智能亂象進行制度變革的先行先試。同時,社會保護旨在引起公共價值關(guān)懷的制度呼聲,技術(shù)的“冰冷”需要政府治理的“溫度”保障。
五、政社聯(lián)手以“技術(shù)重嵌社會”反向矯正市場資本
社會保護如何矯正市場資本行為?人工智能運轉(zhuǎn)依賴的是強大卻有限的資本,社會讓渡于國家的資本顯然更大:權(quán)力、技術(shù)、信息、制度。為此,政府有能力在不妨礙市場資本準入和人工智能發(fā)展的前提下實施治理。然而,一方面是人工智能更新迭代、智能系統(tǒng)復雜、智能應(yīng)用深入生活呈現(xiàn)原子化,另一方面則是政府治理滯后、監(jiān)管和規(guī)則不明以及政府層級特點的天然缺陷。故此,人工智能的治理成效并不明顯甚至失去效力,直至社會自發(fā)保護與技術(shù)抗爭的明確訴求層層倒逼政府。
社會自發(fā)保護訴求與政府治理需求相契合,使政府議程打開機會之窗,政社聯(lián)手構(gòu)筑“反向運動”規(guī)范市場資本,“技術(shù)嵌入社會”為矯正人臉識別技術(shù)失范行為指明了方向。“嵌入”并非市場資本一元主導技術(shù),而是經(jīng)政府引導,社會選擇和改造衍生的社會化產(chǎn)物,技術(shù)擴張利用反向保護力量修復存在的問題,使技術(shù)扎根于社會,技術(shù)良性擴張和社會保護耦合推動社會發(fā)展。依據(jù)相關(guān)理論和經(jīng)驗,“反向運動”可從四大現(xiàn)實趨勢中透視。
(一)利益共契:“算法推演+人工判斷+民本基因”界定邊界
簡單地將市場資本和人工智能合作的個人利益凌駕于社會正義和發(fā)展之上將釀成技術(shù)悲劇,如何使市場資本回歸社會責任,在技術(shù)趨于進步、市場追逐利益、社會期待權(quán)利保護的情況下,“算法推演+人工價值判斷+民本基因”三重利益原則嵌入的架構(gòu)界定了利益邊界,形成了互惠互利的共同體。算法推演是人臉識別技術(shù)的優(yōu)勢,勢必要取其長處加以利用并投入一定成本使其更科學、準確和安全,高成本的投入也意味著長遠的邊際報酬。然而,只參考算法推導出來的選擇容易被市場資本牽制,算法的“賽維坦”風險也將導致對人臉識別技術(shù)的誤判,不去審查數(shù)據(jù)反映是否是假象,作出背離實際狀況的決策。[28]因此,技術(shù)程序正當性和尊重個體十分重要,對于人臉識別技術(shù)需要人工價值判斷。一方面,現(xiàn)代社會不能只依靠人工智能追求效率和利潤,還要依靠精度和溫度,即采取人臉識別技術(shù)有無必要、設(shè)備算法是否可靠嗎、可能產(chǎn)生什么風險等價值判斷。另一方面,純粹參考人臉識別算法的邏輯結(jié)論可能因算法歧視和數(shù)據(jù)內(nèi)涵偏見導致結(jié)果不公正,學習世界通行的人工審核補充——人工對算法結(jié)果的價值判斷確保糾正偏差的機器決策,是市場資本的長遠收益考量。更重要的是,人工智能理應(yīng)增添“民本基因”,這是政府引導技術(shù)和市場的責任。人民利益和社會需求是人工智能技術(shù)的首要考慮,踐行習近平總書記強調(diào)的“主動適應(yīng)人民的期待和需求”,而非盯著“老百姓的錢袋子”,減少類似高度敏感信息的智能應(yīng)用、選擇替代方案兼容公眾習慣和人性化方式將利于共贏。增添“民本基因”還要求社會需求的認同和共識,激發(fā)為實現(xiàn)社會公共利益的技術(shù)努力。因此,依照三個原則組合并內(nèi)化,可以在互惠互利框架中通過一般行為準則來約束市場資本動機,從而界定邊界和確保人臉識別技術(shù)為社會有序生產(chǎn)服務(wù)。
(二)權(quán)力制衡:“技術(shù)實質(zhì)權(quán)力制衡”抵御風險隱患
傾向于市場事后處理的既有思路難免失靈,忽視了讓科學技術(shù)進入“權(quán)力”的場域。能否通過原有技術(shù)水平的提高和增加反風險技術(shù)來更好保護社會?這種方式在人臉識別技術(shù)應(yīng)用中依然適用,亦即技術(shù)對技術(shù)的實質(zhì)性權(quán)力制衡。技術(shù)對技術(shù)的制衡更能產(chǎn)生實質(zhì)性作用,創(chuàng)新技術(shù)投入、反風險技術(shù)和區(qū)塊鏈技術(shù),表明技術(shù)權(quán)力相互制衡時代已經(jīng)來臨:其一,市場資本開始注重對技術(shù)創(chuàng)新的投入。為了預防刷臉實際應(yīng)用帶來的風險,加大研發(fā)投入、提升技術(shù)安全性和高度關(guān)注相關(guān)新技術(shù)的發(fā)展。其二,反風險技術(shù)已誕生了新的商業(yè)機會。有“黑客”自然要有“紅客”“白客”,同樣,在數(shù)據(jù)采集端產(chǎn)生的新式傳感器應(yīng)用、在數(shù)據(jù)產(chǎn)生到利用的各個環(huán)節(jié),密碼學技術(shù)、智能化物聯(lián)網(wǎng)設(shè)備嵌入加密芯片,“隱私計算”這類信息安全需求大大提升。其三,區(qū)塊鏈技術(shù)成為人臉識別技術(shù)隱私保護的希望。區(qū)塊鏈存在去中心化、不可篡改數(shù)據(jù)和匿名性的特點,當用戶把數(shù)據(jù)放到區(qū)塊鏈上鏈時,他們的私密信息會加密并且只能由用戶解開,對數(shù)據(jù)的私密性、公開性更有話語權(quán)。[29]同時區(qū)塊鏈的數(shù)據(jù)多方持有,隱私最強的數(shù)據(jù)通過區(qū)塊鏈建立互信共享機制,規(guī)范市場行為??傊四樧R別的數(shù)據(jù)隱私保護從來不是“臨門一腳”,技術(shù)的突破性顛覆才能夠重新洗牌,人臉識別技術(shù)才能走向成熟。一旦市場資本違背了社會意志,就可以通過技術(shù)權(quán)力的預防、監(jiān)督和糾正來遏制技術(shù)不當行為,降低技術(shù)侵害社會的風險。進一步而言,在以技術(shù)之手制衡技術(shù)、規(guī)范數(shù)據(jù)采集和使用渠道來保證社會權(quán)利的同時,也能使生活便捷,還能助力人工智能產(chǎn)業(yè)發(fā)展。
(三)決策重塑:“賦權(quán)社會合作治理”健全信息共治
受限于技術(shù)算法和市場資本的復雜性和非透明性,多方合作治理是行之有效的寶貴經(jīng)驗,“共治嵌入”為“反向運動”借鑒??枴げㄌm尼(匈)認為資本主義是不民主的,形勢經(jīng)濟權(quán)力是無政府的,并不關(guān)注決策產(chǎn)生的“負外部性”,取代市場資本和技術(shù)濫觴的替代性方案是經(jīng)濟領(lǐng)域民主。[30]當前技術(shù)問題高度復雜和原子化,無論是采集公眾意見還是政府治理都需要高昂的交易成本,而構(gòu)建一種將技術(shù)與社會銜接的合作治理信息決策機制,發(fā)揮各主體優(yōu)勢參與技術(shù)建設(shè)能夠降低治理成本。其主要呈現(xiàn)兩大特征:第一,異質(zhì)化的治理主體分享信息。人臉識別受復雜因素制約,在后續(xù)身份驗證、追蹤、分析畫像方面可能有失偏頗,亟待多主體合作。合作治理強調(diào)技術(shù)問題解決的責任不應(yīng)全部交給政府、市場亦或是社會,主張各優(yōu)勢主體跨界信息共享、共同合作解決問題,重點明確彼此的職責、義務(wù)及權(quán)利。政府做好“剛性賦權(quán)”,賦予監(jiān)管委員會權(quán)力,[31]為公眾普及技術(shù)風險相關(guān)知識、提供監(jiān)督渠道和制度保障;企業(yè)做好風險評估、深入調(diào)研,對意圖、算法、數(shù)據(jù)、質(zhì)量、細則等說明并告知用戶跟蹤信息,遵循形式合法性與正當性義務(wù);行業(yè)協(xié)會和權(quán)威機構(gòu)應(yīng)參與通用技術(shù)標準的制定,聯(lián)手督促企業(yè)遵守原則;個體要提升技術(shù)風險意識,利用組織化利益表達和權(quán)益維護來化解技術(shù)擴張與社會的矛盾。第二,目標利益的彼此磋商。合作治理是政府、市場、社會組織和個人等主體之間的溝通、對話和協(xié)商機制,能夠聚合多主體利益,改變決策孤島狀態(tài),使多方合作互嵌具有可能性,而非市場資本單邊利益,也能夠防止技術(shù)霸權(quán)。
(四)秩序維系:“規(guī)管規(guī)范齊驅(qū)”消弭不當唯利行為
政府干預手段使市場資本不超出應(yīng)該運作的范圍,保護性立法和其他干預手段是矯正技術(shù)惡性競爭并異化的重要特征。人臉識別不同于非技術(shù)引發(fā)的問題,“規(guī)管”理念更符合人工智能技術(shù)特點,同時還須納入“規(guī)范”。技術(shù)與法律融合的“規(guī)管”理念旨在應(yīng)對技術(shù)更新的挑戰(zhàn),[32]尋求改變市場濫用技術(shù)的個體和團體行為。[33]“規(guī)管”包含兩重含義:第一,有效的法律法規(guī)可以打消資本的不正當行為念頭,提高制度確定性和技術(shù)效益、效率,“規(guī)管”依靠法律法規(guī)來保護社會,防止市場資本欲望將技術(shù)引入歧途。其一,完善法律法規(guī)。當前人臉識別涉及的合法性、正當性、必要性原則不夠,使原則法治化、程序化,在重新認識數(shù)字社會隱私基礎(chǔ)上建立產(chǎn)權(quán)清晰的制度,市場才能合法收集和利用數(shù)據(jù),社會權(quán)利訴求才具備治理基礎(chǔ)。同時,盡快出臺全國性人工智能管理流程、信息保護法,關(guān)于隱私權(quán)規(guī)定要單獨立法并系統(tǒng)化和可操作化,尤其是有效問責必須跟上。2020年公布的《中華人民共和國個人信息保護法(草案)》和2021年實施的《中華人民共和國民法典》邁出了重要一步。其二,以“禁止性規(guī)制”為主。人工智能技術(shù)具有特殊性,從應(yīng)用端出發(fā)限定人臉識別使用范圍,唯有具體問題具體分析才不會以偏概全。同時,對該技術(shù)使用的目的、手段、范圍以及設(shè)備進行“負面清單”類規(guī)制成為企業(yè)呼聲。其三,對風險進行分級分類治理。為避免人臉識別風險危害,政府可以結(jié)合行業(yè)特點和依據(jù)場景判定風險并進行分類治理。其四,明確技術(shù)開發(fā)者、使用商、用戶和政府部門職責。第二,“規(guī)管”需要政府將市場資本過度自利行為引向公共利益。相關(guān)部門要主動作為,如各地方政府可采取對人臉識別亂象約談、教育和整改等舉措。同時,還要打擊犯罪的市場主體,控制未經(jīng)授權(quán)、伺機開展非法活動的市場行為。需注意的是,政府并非無限責任,依托市場內(nèi)部規(guī)范和影響也格外重要。因此,同步建立起各行業(yè)和企業(yè)利用人臉識別技術(shù)的行業(yè)標準,加強行業(yè)自律,發(fā)揮監(jiān)督和倡導功能,能夠增強市場競爭力以達到“良幣驅(qū)逐劣幣”的目的。
結(jié)? 語
自我調(diào)節(jié)的市場帶來社會災難與社會保護的反彈開創(chuàng)了雙向運動的分析,對今日市場、社會和政府的關(guān)系研究中仍啟發(fā)深刻。即便如此,卡爾·波蘭尼并未對市場災難引發(fā)的社會保護的內(nèi)在邏輯作出詳細分析,也未提出政府具體的解決路徑。社會保護何以發(fā)生?政府介入社會與市場資本的較量中如何能夠加強社會保護從而矯正市場資本?只有借助具體的分析才能解答,呈現(xiàn)出清晰過程,拓展雙向運動機制。為對上述問題作出理論關(guān)切的回應(yīng),引入當下人工智能的分析,將卡爾·波蘭尼“市場—社會”關(guān)系轉(zhuǎn)變?yōu)橐浴笆袌鲑Y本—技術(shù)—社會—政府”關(guān)系構(gòu)建的“技術(shù)擴張運動—反向保護運動”“雙向運動”模型,不失為一種新做法,并選取“中國人臉識別第一案”實例進行深入解讀。為對抗市場資本裹挾人工智能技術(shù)擴張帶來的社會被需求、風險、商品化和機械化困境,社會轉(zhuǎn)型中內(nèi)生的結(jié)構(gòu)性、穩(wěn)定性、主體性和制度性訴求觸發(fā)了社會保護,其自發(fā)且層層遞進的保護訴諸政府,倒逼政社聯(lián)手構(gòu)筑“技術(shù)嵌入社會”指導下利益共契、權(quán)力制衡、決策再造、秩序維系的“反向運動”,促使人臉識別技術(shù)回歸社會初衷。這一邏輯為深入理解人工智能時代的技術(shù)擴張現(xiàn)象提供了完整的理論解釋。
我國緊跟全球人工智能步伐,以人臉識別技術(shù)為代表的人工智能催生出“雙向運動”的社會保護,為人工智能發(fā)展指明了方向。這就要求在實踐探索中應(yīng)意識到市場屬性決定了人工智能負效應(yīng)的必然性,社會屬性也表明人工智能的可控性和人為性。一方面,政社聯(lián)手的“反向運動”是雙重賦權(quán),同時提升政府治理能力和社會自主能力,“技術(shù)嵌入社會”回應(yīng)了市場經(jīng)濟秩序和技術(shù)治理壓力,但社會自發(fā)保護在鏈接技術(shù)和市場資本的同時還要訴衷政府合作,方能實現(xiàn)“雙向運動”的運行。未來需要積極創(chuàng)造適宜的社會保護條件,發(fā)揮社會力量,使技術(shù)高質(zhì)量發(fā)展。另一方面,“雙向運動”是社會保護的可持續(xù)機制。社會保護是復雜的系統(tǒng)工程,“雙向運動”機制重構(gòu)了政府、市場(技術(shù))和社會的關(guān)系,釋放了社會自主性,其產(chǎn)生的社會建構(gòu)支撐著智能社會發(fā)展和智能市場發(fā)展,是增強科技百年未有之大變革的重要機制。
【參考文獻】
[1]Zhao W,Chellappa R,Phillips P J,et al.Face recognition:A literature surve[J].Acm Computing Surveys,2003,35,(4):399-458.
[2][3]東方財富證券研究所,中商產(chǎn)業(yè)研究院.生物識別技術(shù)產(chǎn)業(yè)發(fā)展深度報告:指紋與人臉識別[EB/OL].未來智庫,https://www.vzkoo.com/doc/13328.html,2020-06-11.
[4](美)布萊恩·阿瑟.技術(shù)的本質(zhì)[M].曹東溟,王健譯.杭州:浙江人民出版社,2014:26.
[5][13]高奇琦.人工智能:馴服賽維坦[M].上海:上海交通大學出版社,2018:279-281.
[6]鄖彥輝.數(shù)字利維坦:信息社會的新型危機[J].中共中央黨校學報,2015,(3):46-51.
[7]陳永偉.人工智能與經(jīng)濟學:近期文獻的一個綜述[J].東北財經(jīng)大學學報,2018,(3):6-21.
[8]郭凱明.人工智能發(fā)展、產(chǎn)業(yè)結(jié)構(gòu)轉(zhuǎn)型升級與勞動收入份額變動[J].管理世界,2019,(7):60-77+202-203.
[9]喬曉楠,郗艷萍.數(shù)字經(jīng)濟與資本主義生產(chǎn)方式的重塑——一個政治經(jīng)濟學的視角[J].當代經(jīng)濟研究,2019,(5):5-15.
[10]馬克思.資本論(第一卷)[M].北京:人民出版社,2004:448-450.
[11](美)雷·庫茲韋爾.奇點臨近[M].董振華,李慶誠譯.北京:機械工業(yè)出版社,2011.
[12](美)尼爾·波斯曼.技術(shù)壟斷:文化向技術(shù)投降[M].何道寬譯.北京:北京大學出版社,2007:7.
[14]任劍濤.人工智能與“人的政治”重生[J].探索,2020,(5):52-65.
[15]胡時光.西方經(jīng)濟學說的演變及其影響[M].北京:北京大學出版社,1998:454.
[16][30](英)加雷斯·戴爾.市場的限度[M].焦兵譯.北京:中國社會科學出版社,2016:17,263.
[17](匈)卡爾·波蘭尼.大轉(zhuǎn)型:我們時代的政治與經(jīng)濟起源[M].馮鋼,劉陽譯.北京:社會科學文獻出版社,2007.
[18]盛春輝,鄭文范.技術(shù)與資本互動的邏輯共契[J].東北大學學報(社會科學版),2012,(4):295-299.
[19]張爽.大衛(wèi)·哈維對現(xiàn)代技術(shù)的反思與批判[N].中國社會科學報,2020-08-18(002).
[20](英)大衛(wèi)·哈維,陳國戰(zhàn).資本的空間與時間[N].中華讀書報,2016-07-06(013).
[21](美)薩繆爾·P·亨廷頓.變化社會中的政治秩序[M].王冠華等譯.上海:上海人民出版社,2008:1.
[22][33]王紹光.波蘭尼《大轉(zhuǎn)型》與中國的大轉(zhuǎn)型[M].北京:生活·讀書·新知三聯(lián)書店,2012:38,65.
[23](美)查爾斯·蒂利.社會運動:1768-2004[M].胡位鈞譯.上海:上海世紀出版集團,2005:52.
[24]Jathan Sadowski,Too Smart: How?Digital Capitalism is Extracting Data,Controlling Our Lives,and Taking Over theWorld,Cambridge Massachusetts,London,England:The MIT Press,2020.
[25]北京智源人工智能研究院,中國科學院自動化研究所.人臉識別與公共衛(wèi)生調(diào)研報告[EB/OL].中國科學院網(wǎng)站,http://www.cas.cn/cm/202005/t20200519_4746673.shtml.
[26](匈)盧卡奇.歷史與階級意識——關(guān)于馬克思主義辯證法的研究[M].杜章智譯.北京:商務(wù)印書館,1992:150.
[27](法)古斯塔夫·勒龐.烏合之眾——大眾心理研究[M].馮克利譯.北京:中央編譯出版社,2000:9-11.
[28]孫保學.人工智能算法倫理及其風險[J].哲學動態(tài),2019,(10):93-99.
[29]章寧,鐘珊.基于區(qū)塊鏈的個人隱私保護機制[J].計算機應(yīng)用,2017,(10):2787-2793.
[31]汪亞菲,張春莉.人工智能治理主體的責任體系構(gòu)建[J].學習與探索,2020,(12):83-88.
[32]袁俊.論人臉識別技術(shù)的應(yīng)用風險及法律規(guī)制路徑[J].信息安全研究,2020,(12):1118-1126.
(責任編輯:董博宇)
On Technology Expansion and Social Protection
in the Age of Artificial Intelligence
——Take “the First Case of Face Recognition in China” as an Example
Chen Chunrun
Abstract:Artificial intelligence technology carries the vision of social development,but face recognition technology to some extent originates from the contrary results.The first case of face recognition in China arouses the social reflection on the problems of artificial intelligence technology,which is essentially the competition between technology expansion and social protection “two-way movement”.Combining with the case study,the new model of “two-way movement” can be found:the logic of market capital expansion hinders the technology and social tear of face recognition,and the division of market capital production and technology profit by profit results in the demand of society,the market capital flow promotes technology transformation to bring social risks,and market capital survival relies on technical decision-making to guide the society to “commercialize”,The market capital competition expands the technical competition,which leads to the society 'mechanization'.The benefits equity,uncertainty reduction,subjective decision-making and public value appeal in social transformation have led to the spontaneous protection of society,which forces the government to intervene at all levels.The reverse movement,which is jointly constructed by the government and society,regulates market capital by “technology re embedding society”.It is also beneficial to return to the original intention of technology to correct AI technology in terms of mutual interest,power balance,decision-making and order maintenance.
Key words:bidirectional motion;Artificial intelligence;face recognition;technology expansion;social protection