田思路,鄭辰煜
數(shù)字時代勞動者的主體性危機與社會法回應(yīng)
田思路,鄭辰煜
(華東政法大學(xué)經(jīng)濟法學(xué)院,上海,201620)
資本從誕生起便具有削弱勞動者主體性的利益邏輯。從工場手工業(yè)時代到機器工業(yè)時代,技術(shù)成為資本物化勞動者、奪取勞動過程控制權(quán)的巨大推力。至數(shù)字時代,隨著算法等數(shù)字技術(shù)在勞動領(lǐng)域特別是平臺用工領(lǐng)域的結(jié)構(gòu)性嵌入與常態(tài)化應(yīng)用,對工具理性的信賴帶來了勞動者創(chuàng)造性與批判性思維的消減,導(dǎo)致勞動者主體性危機進一步深化,并表現(xiàn)為數(shù)據(jù)侵權(quán)、用工歧視、過度勞動三個典型方面。有必要在社會法視閾下,以算法勞動管理的專門立法規(guī)范雇主算法運用,矯正勞資技術(shù)勢差;以算法勞動監(jiān)察強化雇主管理責(zé)任;以多元化的智力勞動標(biāo)準(zhǔn)和持續(xù)性的知識培訓(xùn)保存、培育勞動者的創(chuàng)造力,從而實現(xiàn)對勞動者主體性危機的防范和化解。
勞動者主體性;勞動過程控制權(quán);大數(shù)據(jù)算法;勞動數(shù)字化;算法勞動管理
人類對算法、算力、數(shù)據(jù)三大技術(shù)制高點的接連攻克奠定了人工智能向社會文明全面滲透的技術(shù)基礎(chǔ)。自2016年起,全球已有40余個國家和地區(qū)將人工智能培育上升至國家戰(zhàn)略高度[1]。作為人工智能底層技術(shù),算法兼具創(chuàng)造與顛覆的巨大潛能,在勞動領(lǐng)域尤為顯著。以智能監(jiān)控的侵入式覆蓋為引,勞動者的一舉一動被轉(zhuǎn)化為相應(yīng)數(shù)據(jù)納入算法運算,并成為雇主管理決策的事實基礎(chǔ)。但囿于勞動關(guān)系的從屬性與勞動合同的繼續(xù)性特征,勞資之間天然的結(jié)構(gòu)性不平等使勞動者幾無可能拒絕雇主的數(shù)據(jù)收集要求。于是,源源不斷的勞動者個人數(shù)據(jù)“喂養(yǎng)”了算法,算法又通過分析數(shù)據(jù)并將數(shù)據(jù)結(jié)果反作用于勞動者,不斷蠶食其自主意志。特別是隨著數(shù)字經(jīng)濟的方興未艾,在以信息技術(shù)驅(qū)動密集型勞動力提供消費服務(wù)為顯著特征的平臺用工中[2],算法幾乎扮演著“決策者”的角色。其通過日益強化的超視距監(jiān)視與標(biāo)準(zhǔn)化管理,從言語表述、肢體行為、時間、空間、數(shù)量等各個維度不斷提升動態(tài)化管理的精準(zhǔn)性,使得技術(shù)理性最終操控人的情感,并以此實現(xiàn)勞動價值的最大化[3]。顯而易見,算法已經(jīng)在隱私保護、工作分配、報酬給付、休息休假、職業(yè)安全等涉及勞動者隱私權(quán)、平等就業(yè)權(quán)、公平對待權(quán)、休息權(quán)、健康權(quán)等切身利益的重要事項上施加影響,并逐漸深化應(yīng)用效果。而這種深度侵入也正在觸及一種根源性危機—— 勞動者主體性危機。算法的背后潛藏著控制其設(shè)計與研發(fā)的資本的權(quán)力[4]。為了預(yù)防資本操縱下的技術(shù)失控、“算法作惡”,本文欲立足于勞動者主體性的內(nèi)涵與理論緣起、危機的演變與誘因,并結(jié)合算法技術(shù)特性,探討數(shù)字時代勞動者主體性危機深化之異質(zhì)性與規(guī)制必要性,并尋找化解危機、引導(dǎo)技術(shù)與勞動者協(xié)同發(fā)展的社會法對策。為免混淆,本文中的“勞動者”泛指雇傭語境下提供勞動力換取必要消費資料的勞務(wù)給付者,包括新業(yè)態(tài)從業(yè)人員和其他靈活就業(yè)人員,并視情境選擇是否獨立使用“平臺從業(yè)者”的指稱,以與“勞動者”范疇內(nèi)的傳統(tǒng)勞動者相區(qū)別。
勞動是以人類自身為主體改造整個世界并創(chuàng)造人化世界的自覺活動。從廣義來說,勞動者的主體性可以理解為人作為社會存在所具備的能動性、創(chuàng)造性、主導(dǎo)性、意識性在勞動過程中的表現(xiàn)[5],集中體現(xiàn)為勞動者對勞動過程的控制,也即勞動是勞動者主導(dǎo)下的有意識有目的的活動,而不是機器的客觀生產(chǎn)過程,勞動者也并非機器性能的延伸或資本的生產(chǎn)工具。關(guān)于勞動者主體性的討論,可以追溯到馬克思的勞動異化理論與勞動過程理論。馬克思在《1844年經(jīng)濟學(xué)哲學(xué)手稿》中提出,資本主義生產(chǎn)方式下的異化勞動包括:勞動者同自己的勞動產(chǎn)品、生產(chǎn)活動乃至同人的類本質(zhì)相異化,以及人與人相異化。勞動者同勞動產(chǎn)品的異化體現(xiàn)為勞動者生產(chǎn)的產(chǎn)品為資本所占有;同生產(chǎn)活動的異化體現(xiàn)為勞動者的勞動為資本所強制;同“自覺自由的活動”這一人的類本質(zhì)的異化則體現(xiàn)為在資本殘酷的剝削與奴役下,勞動者的勞動變成了一種不自由的謀生手段[6]。三者的異化共同導(dǎo)致了人與人的異化,當(dāng)人同自身對立時,亦與他人對立,如勞動者與他生產(chǎn)出的資本家。僅從概念出發(fā),人的類本質(zhì)可以簡單等同于一種自覺性、意識性,它在勞動領(lǐng)域的投射就是勞動者的主體性。勞動者同人的類本質(zhì)的異化,也即勞動者在勞動過程中思想與行為、心與手的對立的不自由狀態(tài)。馬克思在《資本論》第三篇關(guān)于“絕對剩余價值的生產(chǎn)”中,也較多地討論了勞動過程的問題。馬克思指出,勞動首先是人與自然之間的過程,人使用自身的自然力—— 臂、腿、手和頭,作用于身外的自然并改造自然。而人類勞動與動物勞動之間的區(qū)別在于前者有目的的意志性。例如,與蜜蜂筑巢的本能相比,人類工程師在使用蜂蠟建筑蜂巢之前便已在頭腦中將其建成。也即在勞動過程開始之前,勞動過程結(jié)束的產(chǎn)物已經(jīng)在勞動者的腦海中觀念地存在著。勞動者不僅使自然物的形式發(fā)生變化,還在自然物的變化中實現(xiàn)自己的目的。而隨著勞動資料的創(chuàng)造和加入,勞動過程進一步表現(xiàn)為人借助勞動資料使勞動對象發(fā)生預(yù)定的變化[7](179?180)。無論是原始勞動的目的性,還是生產(chǎn)勞動所實現(xiàn)的“預(yù)定的變化”,都表明人類勞動過程是充分體現(xiàn)勞動者主體意志、為勞動者所控制的過程。勞動者的主體性及其意志性,與勞動過程控制權(quán)始終相連,消解勞動者的主體性,便等同于蠶食其勞動的自主意志,轉(zhuǎn)移勞動過程控制權(quán)。
雇主是資本持有者在雇傭關(guān)系語境下的另一重身份表述,是資本利益的代表者。傳統(tǒng)雇傭勞動中,勞動力作為商品被雇主購入,在雇主的監(jiān)視下工作,其勞動屬于雇主,生產(chǎn)的產(chǎn)品亦歸雇主所有。作為勞動過程中的主觀因素,勞動力存在剩余價值產(chǎn)出的不確定性,因此對于雇主來說,將勞動過程的控制權(quán)從勞動者轉(zhuǎn)移到自己手里就成為一個十分必要的選擇[8](26)。雇主對勞動過程控制權(quán)的奪取正是勞動者主體性危機的緣起,也是消解勞動者主體性的目的指向。更深入地說,資本削弱勞動者主體性的動機就潛藏于對剩余價值最大化的無限追逐中,而技術(shù)則是資本奪取勞動過程控制權(quán)的工具途徑[9](34)。
從工場手工業(yè)到機器工業(yè)時代,機器的誕生使雇主對勞動過程的控制達(dá)到了前所未有的深度。在手工工場時期,手藝工人借助對生產(chǎn)工藝知識的壟斷性占有而居于勞動過程的控制地位,這種控制權(quán)或主導(dǎo)性直接表現(xiàn)為勞動者在控制勞動強度、勞動進度、勞動時間方面的自主權(quán)。工藝知識的專有性形成了一種技術(shù)壁壘,使雇主對勞動力的控制無法深入生產(chǎn)過程層面,因而資本最初“只是在形式上使它從屬于自己,絲毫也不改變它在工藝上的規(guī)定性”[10]。即使雇主現(xiàn)場監(jiān)督,工人仍可借助對勞動的控制來保有其部分剩余價值。對于這種特殊的知識,霍克西將其闡釋為工人從傳統(tǒng)和經(jīng)驗中得到的關(guān)于這項手藝及相關(guān)操作方法的詳盡知識,以及工人設(shè)法克服由于生產(chǎn)資料以及工作條件不斷變化而產(chǎn)生的困難的知識等兩個部分[11]。也即,既包括工人從既往經(jīng)驗中習(xí)得的內(nèi)容,也包括其處理生產(chǎn)過程中新情況新變化的反應(yīng)能力,概括為工人的主體性經(jīng)驗與創(chuàng)造性智力兩個方面。而工業(yè)機器的發(fā)明主要以復(fù)刻前者為突破,攻克了這種以工人技能為基礎(chǔ)的勞動過程壁壘[12]。不像工具為勞動者所控,機器系統(tǒng)客觀自為,以自然力取代勞動者的體力,以勞動過程中抽象和分離出來的先驗性方法取代勞動者的主體經(jīng)驗。于是在機器對工具的更替中,最先被否定掉的是生產(chǎn)過程中體力勞動的主體在場性。資本與技術(shù)的結(jié)合則使價值中立的機器異化為一種操控工具,作為“支配和吮吸活勞動力的死勞動”[7](463)而同工人相對立。歷史證明,在資本主義生產(chǎn)方式下,本應(yīng)縮短勞動時間的機器轟鳴不休,本應(yīng)減輕勞動強度的機器不斷提高勞動強度,加大對工人剩余價值的榨取。特別是在工業(yè)時代早期,各項工廠立法尚不完善,雇主管理采取種種苛刻而專橫的方式。任何在大型廠房里進行的生產(chǎn)都是同監(jiān)獄、教養(yǎng)院、孤兒院聯(lián)系在一起的[13]。惡劣的工作條件、極度匱乏的休息時間以及勞動成果的嚴(yán)重分配不均,使勞動者的尊嚴(yán)和人格價值受到了嚴(yán)重的侵犯。因此,在當(dāng)時的社會環(huán)境下,勞動者主體性危機往往與人格尊嚴(yán)、自由以及以休息權(quán)、健康權(quán)為典型權(quán)利的基本生存權(quán)利相聯(lián)系。
從深層來說,資本將勞動者驅(qū)逐出生產(chǎn)中心的企圖,不是僅僅通過兩者物理上的分離便能輕易實現(xiàn)的。即使受到了非人的對待,勞動者的批評能力、才力和構(gòu)思能力仍是對抗資本消解其主體意志的有力武器。因此,資本通過機器化奪取勞動過程控制權(quán)時,往往還伴隨著勞動者的去知識化和去技能化。為了催化兩者,資本引入了專業(yè)化分工的概念,即將原本由一個工人便可完成的產(chǎn)品生產(chǎn)拆解為重重工序,并招募、培訓(xùn)、固化出一批批以局部勞動為全部生產(chǎn)過程的專業(yè)工人。例如在螺絲的生產(chǎn)車間中,有人生產(chǎn)螺帽,有人生產(chǎn)釘頭,資本或作為其代理的管理部門則掌握著生產(chǎn)一枚螺絲的完整知識。因此在工業(yè)時代,生產(chǎn)過程遠(yuǎn)比過去更加復(fù)雜,但是工人的工藝水平卻降低到生產(chǎn)過程的水平以下。布萊特通過大量自動化工廠的實例證明了這一點:自動化降低了在職勞動力的技藝條件,有時還降低了包括維修組織在內(nèi)的整個工廠人力的技藝條件[14]。專業(yè)化分工與自動化生產(chǎn)所帶來的勞動技能單一化、簡單化,使一個原本有能力完成全部勞動生產(chǎn)的“全能工人”,被局部化為生產(chǎn)程序上的一個工具,不僅失去了對知識的控制,更被資本極大地抑制了智力的發(fā)展,淪為機器的附庸,最終喪失對勞動過程的控制。因此在工業(yè)革命后期,勞動者主體性危機幾乎可以與勞動者的工具化、客體化畫等號。
歷史地看,隨著人權(quán)保護運動的蓬勃發(fā)展,以及勞動者權(quán)利意識的發(fā)育,為了消減勞動者在“被控制”心態(tài)下可能出現(xiàn)的怠工、罷工行為,后世的管理者也開始注重滿足勞動者在勞動過程中一定的心理和精神需求,以維持勞動力的穩(wěn)定產(chǎn)出。現(xiàn)代管理學(xué)對泰勒工廠的相關(guān)研究也表明,控制程度越高不絕對等于管理效率的提升,后福特主義體制下的雇主對勞動者自主權(quán)的部分恢復(fù)并成功提高效率的實踐正是其側(cè)面證明。客觀而言,盡管以勞動標(biāo)準(zhǔn)化和行為控制為核心的科學(xué)管理理論存在一定的時代局限,但在資本的逐利本能、雇主對效率的極致追求,以及經(jīng)濟社會資源有限的現(xiàn)實條件等多重因素的影響下,效率邏輯下以控制為核心的管理思想仍無法遠(yuǎn)離勞動生產(chǎn)。資本對勞動過程的不斷吸納,體現(xiàn)為雇主勞動管理權(quán)的逐步擴張。而步入數(shù)字時代后,雇主以算法為媒介對勞動管理權(quán)的過度行使,特別是在新業(yè)態(tài)中對平臺從業(yè)者貫穿勞動全周期的技術(shù)控制,帶來了對勞動者主體性的新挑戰(zhàn)。
立足于個體性利益,維護勞動者主體性蘊含著維護人的主體性的價值目的。有學(xué)者將人的尊嚴(yán)定性為人的不可侵犯性,以及附屬于該屬性的輔助性價值內(nèi)涵和限制因素[15],這意味著人不可以被當(dāng)作客體,被物化,甚至是遭受非人的對待。勞動者的主體性危機無疑映射出資本對勞動者的基本權(quán)利及其作為人的價值的漠視,其所暗含的物化色彩正是資本對勞動者人格尊嚴(yán)的侵犯。從價值功能來看,人的尊嚴(yán)是確定人擁有自由和權(quán)利的根據(jù),也是塑造人與人之間平等的關(guān)系尺度,因而構(gòu)成了憲法的最高價值與現(xiàn)代法律的基礎(chǔ)規(guī)范。而尊嚴(yán)原則的價值內(nèi)核在于強調(diào)人本身就是目的,其價值目的在于保障人的主體性地位[16]。憲法正是從人的不可替代性出發(fā),才在國家與人的關(guān)系上,確立了公民的人格尊嚴(yán)[17]。尊嚴(yán)原則統(tǒng)攝著基本法價值秩序,國際勞工組織所倡導(dǎo)的“體面勞動”理念也包含著勞動者在自由、公平、安全和人格尊嚴(yán)的條件下從事生產(chǎn)性工作的指導(dǎo)原則[18]。維護勞動者的主體性,既是保障每個勞動者應(yīng)受尊重的權(quán)利,也是維護尊嚴(yán)原則所指向的人的主體性的應(yīng)有之義。更直白地說,“人是社會關(guān)系的產(chǎn)物”[19]。作為人類生存所必備的重要社會關(guān)系,勞動關(guān)系中資本對勞動者主體性的消解必然危及人的主體性地位,維護勞動者的主體性既是對人的尊嚴(yán)的價值皈依,也是維護人的主體性的價值要求。
立足于社會性利益,維護勞動者主體性有利于保障勞動者的生存權(quán)與發(fā)展自由。在資本主義生產(chǎn)方式下,勞動者的主體性消解往往伴隨著勞動的勻質(zhì)化與低水平化,并導(dǎo)致勞動力價值的持續(xù)貶損。那么,在勞動技術(shù)門檻不斷降低的情況下,資本為追求零邊際成本,必然將本應(yīng)承擔(dān)的雇傭成本剝離,例如將原本具有一致性專業(yè)要求的勞動過程分解為大量簡單勞動,并以分包的形式和市場發(fā)生關(guān)系,使以往需要維持的人的因素變成可以通過最大范圍的社會化替換的因素,也即引發(fā)“勞動社會化”[20](12)。時興的平臺用工正是其雛形—— 借助數(shù)字技術(shù),平臺企業(yè)將生產(chǎn)服務(wù)鏈條中的勞動內(nèi)容細(xì)化、簡化、標(biāo)準(zhǔn)化為相對獨立的任務(wù)模塊,用工以網(wǎng)絡(luò)化、碎片化、模塊化的勞動任務(wù)而非就業(yè)崗位為主導(dǎo),與平臺從業(yè)者按單聚散[21](39)。勞動組織形式松散化所帶來的雇傭關(guān)系淡化,已然導(dǎo)致從業(yè)者脫離既有勞動法制下的種種權(quán)益與福利保障,陷入經(jīng)濟上的不穩(wěn)定狀態(tài)。而當(dāng)“勞動社會化”完全實現(xiàn),勞動再生產(chǎn)的條件和機會成本也將被轉(zhuǎn)移至勞動者,由其在社會范圍內(nèi)予以解決。因此,勞動者所必需的生活消費資料的獲取將充滿不確定性,最終影響其基本生存權(quán)利。除此以外,長期從事低技能水
平的勞動也將磨滅勞動者的創(chuàng)造熱情,壓縮勞動者智力發(fā)展的空間。當(dāng)勞動者本應(yīng)保有的基本生存資料被轉(zhuǎn)化為資本的超量價值獲取,社會利益和資源配置日益呈現(xiàn)出“貧者愈貧、富者愈富”的馬太效應(yīng)時,收入差距所帶來的社會公平問題將是影響“橄欖型”社會穩(wěn)定性的重要因素。
無論是工業(yè)經(jīng)濟時代,還是數(shù)字經(jīng)濟時代,資本邏輯的作用和影響都不可忽視,勞資博弈與利益平衡始終是調(diào)整勞動關(guān)系的重要課題。尼爾·波茲曼在《技術(shù)壟斷》一書中將文明分為三類,即工具運用文明、技術(shù)統(tǒng)治文明與技術(shù)壟斷文明。在這一語境下,技術(shù)成為人類文明不可分割且居于核心位置的一部分[22]。從工具到工業(yè)機器到人工智能機器,機器的進化形態(tài)與功能日益復(fù)雜,但資本對技術(shù)話語權(quán)的壟斷保證了生產(chǎn)技術(shù)迭代始終不背離促進資本積累的利益指向。在奪取勞動過程控制權(quán)方面,舊工業(yè)時代的雇主因技術(shù)能力有限而無法將勞動者作為生產(chǎn)資料量化,但在數(shù)字時代,借助可穿戴設(shè)備的普及、數(shù)據(jù)挖掘技術(shù)的精進,勞動者具備了客體化的可行性,即工人不再作為具體的活生生的人存在,而是被抽象化為產(chǎn)業(yè)勞動過程中可以被衡量被計算的一組數(shù)據(jù)[23]。工廠流水線式的傳統(tǒng)勞動正在被數(shù)字技術(shù)重新架構(gòu),逐漸演變?yōu)楹A繑?shù)據(jù)與算法結(jié)構(gòu)整合起來的各種人類活動的總體,即所謂的“勞動數(shù)字化”[24](44)。通過對勞動者個人數(shù)據(jù)的解析與對勞動過程的精細(xì)化控制,數(shù)字時代的雇主和平地完成了對勞動者外在行為監(jiān)控至內(nèi)在思維引導(dǎo)的操控升級,將管理控制與勞動者的自我價值實現(xiàn)需求相融合,鈍化了勞動者對于其經(jīng)濟權(quán)益乃至人身權(quán)利的保護意識。從本質(zhì)來說,數(shù)字時代的勞動者主體性危機仍然等同于勞動者工具化,但有所區(qū)別的是,隨著數(shù)字技術(shù)在勞動領(lǐng)域尤其是平臺用工領(lǐng)域的結(jié)構(gòu)性嵌入,這種工具化進一步體現(xiàn)為勞動者數(shù)據(jù)化,工業(yè)機器對勞動者主體性經(jīng)驗的復(fù)刻亦升級為智能機器對勞動者創(chuàng)造性智力的取代。
在數(shù)字經(jīng)濟背景下,借助算法與數(shù)字孿生技術(shù)的結(jié)合,即使是經(jīng)驗較淺的“藍(lán)領(lǐng)”工人,也可以有效完成對產(chǎn)品生產(chǎn)問題的分析與預(yù)測。因為在車間級的動態(tài)仿真模型中,物理實體的一切數(shù)據(jù)通過信息傳感器輸入并形塑虛擬樣機,工人可通過模擬各類生產(chǎn)條件進行預(yù)演,利用算法進行結(jié)果預(yù)測,包括對虛擬生產(chǎn)過程中設(shè)定的加工精度、所應(yīng)受力等因素進行記錄、比較,形成加工質(zhì)量分析并即時反饋至實體制造系統(tǒng),以實現(xiàn)產(chǎn)品全生命周期的透視化監(jiān)測與故障預(yù)警,大幅提高生產(chǎn)效率[25]。由此不難想象,隨著算法等數(shù)字技術(shù)在工業(yè)領(lǐng)域的應(yīng)用常態(tài)化,未來“智能社會”難免出現(xiàn)馬爾庫塞所說的“技術(shù)拜物教”傾向,即對工具理性的推崇甚至膜拜湮滅了人的否定性的批判和思考能力,就算是高級工人,也可能因為對算法計算結(jié)果的盲目信任而在相關(guān)問題上放棄基于自身經(jīng)驗的判斷。數(shù)字技術(shù)雖然使勞動者擺脫了對固定機器的依賴,走向充分發(fā)揮創(chuàng)造力的階段,但在權(quán)衡算法計算的精確性與人類的有限理性后,對工具理性的信任亦使勞動者傾向于將問題交由算法解決,并因此陷入對固定的、可計算的抽象物的崇拜。只不過這個崇拜物不再是有形的機器,而是以算法為代表的無形的智能機器[26]。
而在智力創(chuàng)造的場合,腦力勞動很大部分的“原料”是以數(shù)字形式出現(xiàn)的,因此勞動過程本身可以按照數(shù)學(xué)法則進行組織,在各個要點上都可以用數(shù)學(xué)控制辦法加以檢驗[8](135?136)。當(dāng)下算法技術(shù)已普遍滲入企業(yè)日常管理,最常見的便是使用辦公自動化系統(tǒng)完成對勞動者考勤與工作的實時監(jiān)控。在算法統(tǒng)籌下,“白領(lǐng)”工人的工作日程被依照時間節(jié)點劃分為流程清晰的若干子任務(wù),勞動者只需聽從系統(tǒng)指令按部就班地完成,任何發(fā)揮創(chuàng)造性想象力的行為反而可能因為違反程序和秩序遭到懲罰。類似情形也發(fā)生在平臺用工領(lǐng)域。如為了優(yōu)化服務(wù)水平,平臺算法會結(jié)合騎手的年齡和身高測算其相應(yīng)的步長和速度,并實時監(jiān)測其是否達(dá)到最佳效率標(biāo)準(zhǔn)。而違反算法指令者所遭遇的風(fēng)險和代價將遠(yuǎn)超其順應(yīng)算法帶來的利益。換言之,一旦從業(yè)者開始執(zhí)行平臺派發(fā)的任務(wù),其就不存在勞動時間、勞動方式與勞動強度的控制權(quán)。在算法管理下,平臺勞動的每一個環(huán)節(jié)都被嚴(yán)格控制以符合算法精確計算的標(biāo)準(zhǔn)尺度,從而實現(xiàn)勞動力與勞動的最大程度轉(zhuǎn)化[20](15)。除了長時間從事低水平勞動外,平臺用工中雇傭關(guān)系的模糊化還導(dǎo)致從業(yè)者無法參與企業(yè)組織的職業(yè)培訓(xùn),因此在各方面削弱了其提升專業(yè)技能水平與勞動創(chuàng)造力的可能性。
與以往不同的是,今時對勞動者智力的壓制還伴隨著勞動者被制造出的“同意”。通過對勞動者數(shù)據(jù)痕跡的深入分析與數(shù)字形象的精準(zhǔn)描繪,算法能夠透視其心理、預(yù)測其動機并根據(jù)其興趣偏好推送個性化內(nèi)容,進而潛在地引導(dǎo)勞動者的行為和思考。尤其是通過控制內(nèi)容型產(chǎn)品的推送,資本構(gòu)筑起勞動領(lǐng)域的“信息繭房”。算法可將資本的增殖欲望巧妙地嵌入勞動者自我價值需求的實現(xiàn)之中,在意識層面完成對勞動者的馴化[24](46?49)。資本逐利邏輯下的勞動數(shù)字化,隱含著算法將勞動者集體視為可以被分解、改變、交易、消費的數(shù)據(jù)庫[27](60),也即從可被計算、預(yù)測、控制的客體的角度來看待勞動者[28](17)。概言之,以智力為核心的數(shù)字技術(shù)的迅速發(fā)展將工業(yè)革命以來勞動領(lǐng)域的主體客體化危機以新的方式呈現(xiàn)出來。數(shù)字時代的勞動者主體性危機,實質(zhì)上是雇主對勞動者從實體控制到技術(shù)控制、從體力操控到腦力操控的“嫁接”,使勞動者陷入一種“自由中的不自由”,并進一步誘發(fā)其批判性與創(chuàng)造性思維的自我消減[29]。
立足于勞動發(fā)展史,資本始終具有物化勞動者—控制勞動過程—實現(xiàn)剩余價值最大化的利益傾向。因此,勞動者的主體性危機只有隨著資本消亡才能得到真正化解。這是一個社會生產(chǎn)力發(fā)展的漫長過程,遠(yuǎn)非當(dāng)下可及,我們需要承認(rèn)危機存在的客觀性,但也要采取積極行動防止其深化與實害化。由上可知,無論是傳統(tǒng)勞動,還是平臺用工,在勞動數(shù)字化進程中,算法的迭代和優(yōu)化在許多時候都產(chǎn)生了技術(shù)脫離社會的消極后果,并加速勞動者主體性危機向縱深發(fā)展。對此的批判分析必須強調(diào)算法與之前其他技術(shù)因素的異質(zhì)性,才能準(zhǔn)確把握危機在數(shù)字時代的邏輯起點。
首先,算法與傳統(tǒng)機器的區(qū)別主要在于“智能化”與“自動化”的差異。資本消弭勞動者自主性的本能始終存在,在手工工場時代以及工業(yè)時代早期,勞動者的“知識壁壘”尚未被打破,且工廠立法尚未施行,這種物化邏輯體現(xiàn)為雇主強迫勞動者盡可能地固定在勞動場所,以延長勞動時間、提高勞動強度,加大對勞動者絕對剩余價值的獲取。勞動者的主體性抗?fàn)巹t體現(xiàn)為這一時期大規(guī)模集體罷工事件的頻發(fā)。在機器大工業(yè)時代,雇主進一步借助技術(shù)與勞動分工破壞了勞動者對生產(chǎn)性知識的占有,并將勞動者邊緣化為流水線上的“局部工人”,但工人的勞動主體意識仍然較為強烈,對機器的敵對心理與被代替的危機意識也是其主體意識的側(cè)面反映。這一時期也伴隨著工人權(quán)利意識的蘇醒,在長期而艱苦的斗爭實踐中,工人發(fā)現(xiàn)集體行動能更好地維護自身利益,從而紛紛結(jié)成各種利益團體,并演化為協(xié)調(diào)有力的工會組織,通過展開集體協(xié)商,切實改善了工人的勞動環(huán)境與福利待遇。簡言之,在數(shù)字時代以前,資本消解勞動者主體性的技術(shù)路徑是“用機器取代勞動者”?!白詣踊笔菣C器對勞動者力量與經(jīng)驗的一比一復(fù)制,由于這種高度替代性,人機之間是一種不相容的排斥關(guān)系或競爭關(guān)系,又因機器具有效率和管理方面的優(yōu)勢,生產(chǎn)迭代往往以勞動者被機器驅(qū)逐出具體勞動而告終。但進入數(shù)字時代,當(dāng)算法作為智能機器與勞動過程相結(jié)合時,雇主對勞動者的控制也實現(xiàn)了從行為控制到生產(chǎn)性知識掠奪再到情感操縱的深層突破?!爸悄芑贝碇鴻C器對人類思維的模擬,并具備了對現(xiàn)象進行描述、抽象、總結(jié)、分類、解釋等認(rèn)知方面的功能[30]。例如算法通過對勞動者數(shù)字痕跡的深度解析從而掌握其個性、心理與偏好,并在此基礎(chǔ)上投放定制化內(nèi)容以引導(dǎo)其思維走向。在算法構(gòu)建的全景敞視式控制體系下,時刻被監(jiān)控的緊張狀態(tài)與恐懼心理也推動著勞動者自覺服從雇主的勞動管理與安排[24](47)。因此,人工智能技術(shù)的突破性進展反向推動資本將對勞動者主體性的消解策略轉(zhuǎn)變?yōu)椤鞍褎趧诱咦優(yōu)闄C器”,或者說把勞動者視為智能機器的實體延伸。這種“人機共存、機主人輔”的勞動狀態(tài)極易使勞動者對自身的主體地位產(chǎn)生混淆與動搖,進而模糊其勞動主體意識。
其次,對于智能機器與傳統(tǒng)機器共有的行為控制功能,前者呈現(xiàn)出精細(xì)化發(fā)展趨勢,并將導(dǎo)致更具輻射力與破壞性的社會影響結(jié)果。準(zhǔn)確來說,工業(yè)機器與勞動者的交互是外在的、有限的,其于勞動者的行為控制必須引入勞動規(guī)章與現(xiàn)場監(jiān)視的配合聯(lián)動,但這種控制更多是針對效率容易量化的簡單勞動,對于需要一定技術(shù)專長的復(fù)雜勞動則顯得力不從心。即便是在簡單勞動的范疇,在確定的時間定額下,勞動者對于具體生產(chǎn)活動仍有自由度量的空間,因為以往對生產(chǎn)單位產(chǎn)品或完成一項工作所必需消耗的工時的衡量,是一種建立在時間階段上的平均計量方式。雇主無法干預(yù)勞動者生產(chǎn)一樣具體商品的時長與效率,只能保證商品生產(chǎn)的平均效率。而算法不僅實現(xiàn)了三者功能的統(tǒng)合與優(yōu)化,更通過追蹤技術(shù)將時間階段的產(chǎn)出要求精細(xì)化為時間節(jié)點的行為規(guī)定,并結(jié)合質(zhì)量控制指標(biāo),使原本難以監(jiān)管的勞動過程變得易于監(jiān)管。例如在車間生產(chǎn)中,控制系統(tǒng)會通過攝像頭畫面識別工人動作,監(jiān)測其用時是否超過規(guī)定的加工時長,并將評估結(jié)果體現(xiàn)在月末對該名工人的績效考核中。對于復(fù)雜勞動,算法則將其拆分為不同的勞動單元并附以操作指引、時間期限以及標(biāo)準(zhǔn)規(guī)定,從而實現(xiàn)了精準(zhǔn)管理的目標(biāo)。顯而易見,算法是數(shù)字時代雇主控制勞動過程的結(jié)構(gòu)性核心,它將泰勒制和福特制以來的專業(yè)化分工推向極致,形成了勞動細(xì)節(jié)的碎片化和均質(zhì)化,哪怕是局部勞動也不再被視為一個整體性的創(chuàng)造[20](13)。無怪乎有學(xué)者將其稱為新的“看不見的手”[31](119)。不可否認(rèn),這種精細(xì)化分工模式對勞動生產(chǎn)存在效率、完成度、準(zhǔn)確度等方面的正向反饋,但對標(biāo)準(zhǔn)化的極端追求也意味著對勞動者創(chuàng)造性智力與批判性思維的絕對壓制。需要質(zhì)疑的是,作為建立在數(shù)據(jù)之上的經(jīng)驗投射,算法對勞動結(jié)果的評判是否就是唯一的客觀標(biāo)準(zhǔn)?特別是在復(fù)雜勞動中,當(dāng)勞動者提交的勞動成果不符合算法預(yù)設(shè),卻存在優(yōu)于既定標(biāo)準(zhǔn)的真實效益時,算法管理的權(quán)威性是否否定了智力勞動的巨大價值?又是否將抹殺作為人類本質(zhì)的勞動創(chuàng)造性?從運用結(jié)果來看,傳統(tǒng)機器對勞動的影響存在行業(yè)局限性,其所淘汰的幾乎是從事低端制造產(chǎn)業(yè)的體力勞動者,這部分勞動者可以通過行業(yè)的轉(zhuǎn)換完成自力救濟。而算法管理的影響將是全局性的,意味著其對勞動者主體性的削弱不是以行業(yè)為限的,而是以勞動者集體為規(guī)模的社會現(xiàn)象。若放任算法對勞動者自主性的侵害、對勞動標(biāo)準(zhǔn)的壟斷,勞動技能專業(yè)性與創(chuàng)造性的不斷降低最終將導(dǎo)致勞動不再和具體的勞動者相關(guān),而是被普遍化為一種抽象概念,最終導(dǎo)致社會法對弱者的保護理念和功能無從實現(xiàn)。
最后,從平臺應(yīng)用算法的實踐可知,算法管理獨創(chuàng)了“算法最優(yōu)勞動時間”的概念。在傳統(tǒng)勞動領(lǐng)域中,決定勞動消耗能否得到全部補償以及決定其盈利水平的始終是“社會必要勞動時間”①。它切實而凝練地反映了現(xiàn)實生產(chǎn)力與生產(chǎn)關(guān)系,是一種沒有扭曲的對社會現(xiàn)實的抽象概括。而“算法最優(yōu)勞動時間”是算法在歷史數(shù)據(jù)基礎(chǔ)上計算得出的勞動過程每一環(huán)節(jié)的時間標(biāo)準(zhǔn),它只是在工具理性的范圍內(nèi)提出希望勞動者達(dá)到的最佳效率要求,而不是對社會生產(chǎn)關(guān)系的真實映射。因此,它不可避免地帶有“機器控制主義”的色彩,這也是算法管理與傳統(tǒng)工廠勞動模式的本質(zhì)區(qū)別[20](15)。在勞動數(shù)字化過程中,以后者取代前者的弊病是顯而易見的,不合理的生產(chǎn)效率要求在加速剩余價值生產(chǎn)的同時,引發(fā)了勞動力的“未老先衰和過早死亡”[32],勞動法卻難以深入代碼層面予以規(guī)制。這種嚴(yán)密而隱形的管理控制將勞動進程完全交由算法統(tǒng)籌,極大地阻礙了勞動者主體意識的發(fā)育與勞動者自由全面發(fā)展的可能。
在數(shù)字時代,雇主以算法技術(shù)為基礎(chǔ)對勞動過程發(fā)出指令,對勞動結(jié)果進行考核,對勞動自主性加以約束,雇主的算法管理已然構(gòu)成新型勞動管理方式。既有文獻(xiàn)對于“算法管理”的認(rèn)識基本可以概括為“決策主義”與“控制主義”,前者強調(diào)算法如何輔助管理者進行理性決策,后者更強調(diào)算法對于勞動者行為的規(guī)范和限制。由于本文以探討雇主如何借助算法加深勞動過程控制及其對勞動者造成的不利影響為出發(fā)點,因此兼采兩種觀點,認(rèn)為算法管理,或者說算法勞動管理,是算法在雇主授意下對勞動者個人數(shù)據(jù)進行自動處理,從而自動或者半自動地生成各種人事性或內(nèi)容性管理決策的過程,是雇主勞動管理權(quán)在勞動關(guān)系領(lǐng)域向更廣泛、更隱蔽空間的技術(shù)延伸[33]。即使是在算法設(shè)計者與應(yīng)用者分離的情況下,算法設(shè)計者亦能按照雇主的需求編寫或修改算法,將雇主的利益取向作為算法自動化決策的價值引領(lǐng)。而對于平臺用工這一新型勞動,筆者以為,即使平臺企業(yè)通過種種人事結(jié)構(gòu)設(shè)計實現(xiàn)了法律層面的“去勞動關(guān)系化”,也無法否認(rèn)其借助算法實質(zhì)取得了雇主專有的絕大部分勞動管理權(quán),并掌控著平臺從業(yè)者的價值創(chuàng)造過程。因此,本文從勞動力組織的角度能將平臺企業(yè)納入廣義上的雇主范疇展開討論。為了收束算法背后的資本權(quán)力邊界,對算法本身予以技術(shù)規(guī)制的必要性無須多言,但在此之前,了解算法的技術(shù)特性,探明雇主算法管理下勞動者主體性危機的外在表現(xiàn),方能使前者言之有物。
雇主以算法為代理,算法以數(shù)據(jù)為源泉,數(shù)據(jù)化便成為數(shù)字時代勞動者主體性危機深化 的開端。而如何獲取數(shù)據(jù)以及收集數(shù)據(jù)的范圍、數(shù)量、種類、處理方式、目的、存儲期限等事 項,則關(guān)涉算法應(yīng)用對象的個人數(shù)據(jù)(信息)權(quán)益并間接影響其隱私權(quán)益,兩者的共同陷落是數(shù)字資本消解勞動者主體性邁出的第一步,也是必然的一步。
當(dāng)下雇主收集勞動者個人數(shù)據(jù)的技術(shù)手段主要是:監(jiān)控軟件植入與可穿戴設(shè)備配置[34]。前者指雇主通過在雇員的計算機或移動設(shè)備上安裝監(jiān)控軟件以記錄和監(jiān)視雇員在這些信息設(shè)備上的操作行為,包括雇員瀏覽的網(wǎng)站地址、收發(fā)的文檔郵件、網(wǎng)絡(luò)聊天內(nèi)容、社交媒體動態(tài)等。在相關(guān)司法案例中,已經(jīng)存在雇主以維護商業(yè)秘密為由,要求勞動者將其私人社交賬號與“工作手機”相綁定,并接受全面監(jiān)控與分析的管理實踐②,甚至出現(xiàn)未經(jīng)勞動者同意擅自查閱其郵件往來③、打印其網(wǎng)絡(luò)聊天記錄等不當(dāng)行徑④。后者則指雇主利用智能設(shè)備上的傳感器收集雇員的地理位置、生物特征與運動狀態(tài)等個人數(shù)據(jù)。已經(jīng)投入應(yīng)用的可穿戴設(shè)備包括收集雇員定位信息以判斷其是否遲到早退、是否脫離工作區(qū)域的“智能手環(huán)”,監(jiān)測雇員身體健康數(shù)據(jù)以考察其是否在工作中精神懈怠的“智能坐墊”等。在數(shù)據(jù)的巨大挖掘價值面前,雇主顯然存在過度收集與濫用勞動者個人數(shù)據(jù)的利益傾向。更加特殊的是,平臺勞動以數(shù)字技術(shù)為基礎(chǔ),以智能化、精準(zhǔn)化為特征的勞動特性,決定了其與作為核心生產(chǎn)資料的數(shù)據(jù)的緊密聯(lián)系?;谶@種依賴關(guān)系,賦予平臺個人數(shù)據(jù)使用許可成了從業(yè)者獲取勞動機會的根本前提,故其面臨著比傳統(tǒng)勞動者更為深重的數(shù)據(jù)侵權(quán)危機。而我國《個人信息保護法》第13條“知情同意”原則的虛化與“為人力資源管理所必需”這一平衡條款的邊界不明,則易使勞動者個人數(shù)據(jù)保護落入形式主義的窠臼。數(shù)據(jù)侵權(quán)危機又將連環(huán)引發(fā)隱私泄漏危機。隨著數(shù)據(jù)挖掘技術(shù)的深化,算法可以推斷勞動者從未向任何網(wǎng)絡(luò)平臺披露過的個人隱私,如性取向、犯罪前科、新冠肺炎陽性病史,由此造成的不利后果之一是在后續(xù)關(guān)于勞動條件的協(xié)商中,勞動者利用私密信息進行談判的能力將大幅降低[35]。
勞動者主體性危機的內(nèi)涵包括將勞動者視為生產(chǎn)過程中可被計算被控制的客觀因素。在算法強大的數(shù)據(jù)挖掘與分析能力面前,勞動者無法選擇性地披露信息以塑造“他人眼中的自己”。雇主力求將勞動力成本控制在合理水平的最下限,且需維持應(yīng)有的產(chǎn)出水平。在投入與產(chǎn)出的雙重限制下,具備某類契合雇主對勞動力市場“經(jīng)濟性”“適用性”定義之特質(zhì)的勞動者自然成為其優(yōu)先選。而在這種特質(zhì)與工作崗位、工作內(nèi)容無實質(zhì)聯(lián)系之時,雇主不合理的用工偏好必然與用工歧視相掛鉤,因此,勞動者的主體性危機亦伴生用工歧視的危機。2019年“意大利戶戶送算法歧視案”便澄明了算法管理與用工歧視的關(guān)聯(lián)性。該案涉及的是平臺算法對騎手進行榮譽排名而導(dǎo)致的歧視結(jié)果問題。這種智能排名系統(tǒng)所選擇的變量被指責(zé)充滿了設(shè)計者的偏見,從而導(dǎo)致對某部分騎手產(chǎn)生就業(yè)上的不利影響。2020年12月31日,博洛尼亞法院判決確認(rèn)戶戶送平臺所使用的算法構(gòu)成間接歧視,首次宣布了算法具有歧視性⑤,而非資本長久以來聲稱的“價值中立”。算法作為數(shù)字生產(chǎn)資料,對資本的從屬決定了它的工具性特質(zhì),因而自然成為勞動者主體性危機的另一重呈現(xiàn)—— 用工歧視危機的技術(shù)載體。
詳言之,用工歧視包括用工篩選階段的就業(yè)歧視與用工管理階段的狹義用工歧視,其潛入算法的渠道更為多樣。首先是在問題建構(gòu)環(huán)節(jié),算法控制者將所欲解決的問題或所欲達(dá)成的目標(biāo)需求轉(zhuǎn)譯為計算機可理解、可衡量、可觀測的標(biāo)準(zhǔn),這一具象標(biāo)準(zhǔn)稱為效果變量或結(jié)果變量。例如在招聘環(huán)節(jié),雇主希望借助算法從海量簡歷中篩選出潛在的“優(yōu)質(zhì)”員工,首先就需要將“優(yōu)質(zhì)”員工這一目標(biāo)需求轉(zhuǎn)譯為年齡、健康條件、學(xué)歷、從業(yè)經(jīng)驗等相關(guān)性較強且可測量的標(biāo)準(zhǔn),那么雇主所欲達(dá)成的目標(biāo)便轉(zhuǎn)換為篩選出身體健康、具備一定教育經(jīng)歷與從業(yè)經(jīng)驗的青壯年求職者。由此可見,問題建構(gòu)是人類思考、判斷、選擇的思維產(chǎn)物[36](132)。目標(biāo)需求的設(shè)定、結(jié)果變量的選擇以及兩者間相關(guān)關(guān)系的考量,無不依賴于算法控制者的認(rèn)知水平與邏輯思維能力。而作為存在主觀認(rèn)知局限的個體,算法控制者在編程時難免將自身偏見、社會風(fēng)氣、文化差異等非理性因素轉(zhuǎn)譯為歧視性的替代變量,隨后在機器學(xué)習(xí)的強化鞏固下輸出歧視性結(jié)果。即使雇主完全公開算法源代碼,被決策的勞動者也會因技術(shù)能力有限而無法理解輸出結(jié)果背后的計算邏輯與考量因素,更無從提出合理性質(zhì)疑。更加模糊視線的是,對違法成本敏感的雇主往往能通過某些身份化的“中立”變量實現(xiàn)同樣的歧視性目的。例如在具有“住房隔離”傳統(tǒng)的美國,“郵政編碼”就成了“種族”這一敏感個人數(shù)據(jù)的“代理數(shù)據(jù)”,此時形式上與用工歧視的脫鉤并不能有效阻止就業(yè)市場內(nèi)種族歧視的發(fā)生[37]。其次,數(shù)據(jù)是歧視危機潛入算法決策的另一條途徑。數(shù)據(jù)處理包括數(shù)據(jù)收集、清洗、類型轉(zhuǎn)化、分區(qū)等具體步驟,分區(qū)即把收集到的數(shù)據(jù)劃分為“訓(xùn)練集”和用于驗證的“測試集”。算法訓(xùn)練便是將訓(xùn)練集數(shù)據(jù)輸入選定的初步模型,繼而在訓(xùn)練過程中不斷調(diào)試參數(shù)及權(quán)重以優(yōu)化完善 模型。算法由數(shù)據(jù)驅(qū)動,若訓(xùn)練集數(shù)據(jù)存在遺漏、偏見、錯誤且未得到修正,那么最終形成的算法模型必然會進一步放大這種歧視,再將數(shù)據(jù)的不準(zhǔn)確性復(fù)現(xiàn)為現(xiàn)實世界對特定群體的不公正待遇[38](110)。具體而言,當(dāng)特定群體的數(shù)據(jù)在訓(xùn)練集中分布過于稀疏而缺乏代表性時,人工智能只能從中提取該群體的零星特征,算法模型無法精準(zhǔn)匹配,便會在應(yīng)用層面產(chǎn)生厚此薄彼的歧視效果[36](134)。如我國信息業(yè)中女性勞動者占比始終偏低。調(diào)查顯示,在互聯(lián)網(wǎng)龍頭企業(yè)中,男性員工的總體數(shù)量約為女性員工的1.3倍至3.4倍,女性占比與崗位層級間明顯呈逆相關(guān)關(guān)系,男性化成了我國互聯(lián)網(wǎng)企業(yè)雇員基礎(chǔ)畫像的主要構(gòu)成要素[39]。因結(jié)果變量亦可通過機器學(xué)習(xí)自動選擇,若算法設(shè)計者將互聯(lián)網(wǎng)企業(yè)同質(zhì)化的員工數(shù)據(jù)庫作為算法訓(xùn)練與測試的素材,那么即使不強調(diào)“性別”變量,在此基礎(chǔ)上形成的算法也將在“男性勞動者”與“合格求職者”“優(yōu)秀員工”之間建立相關(guān)性,并在實際投入運用后展現(xiàn)對男性勞動者的青睞而形成對女性勞動者的用工歧視。最后,數(shù)據(jù)代表性不足的反面是代表性過度,或稱為標(biāo)簽化效應(yīng)。在機器學(xué)習(xí)算法中,一旦某個個體或群體具有了污名化的算法身份,就會一直被帶入下一輪運算而不斷強化對該群體的負(fù)面成見[28](20),致使該群體在后續(xù)用工中被限制或排除某些勞動權(quán)利或機會。特別是在分配工作任務(wù)的場合中,算法會優(yōu)先將任務(wù)分配給符合完美勞動者畫像的員工。工作資源的傾斜性意味著被污名化的某類勞動者無形中喪失了應(yīng)得的勞動機會與可期待收入,自然有損其公平對待權(quán)。而比起勞動者基于勞動法主體身份所享有的相對完善的權(quán)利束,平臺從業(yè)者的身份屬性不明則使其權(quán)利的法律保障呈現(xiàn)不可預(yù)測性。
以消耗生命力為代價的長時間過度勞動是數(shù)字時代勞動者主體性危機的又一體現(xiàn)。借助以算法為底層架構(gòu)的智能管理系統(tǒng),雇主將管理的觸角由工人的勞動時間延伸至休息時間,由勞動場所擴張至家庭住所,由實體場景深入至虛擬空間,不斷拓寬其控制的時空邊界。只不過借助算法等數(shù)字技術(shù)手段,這種管理和控制變得更加隱蔽,更難以追責(zé)。
綜上所述,數(shù)字時代的勞動者主體性危機仍延續(xù)了主體客體化的內(nèi)核,但借由算法系統(tǒng)在勞動領(lǐng)域的廣泛應(yīng)用,以勞動數(shù)字化、勞動者數(shù)據(jù)化為深化之開端,由此引發(fā)勞動者的數(shù)據(jù)侵權(quán)危機,以及對數(shù)據(jù)過度挖掘產(chǎn)生的隱私泄露危機。勞動者無法在雇主面前保留可能影響勞動關(guān)系成立或履行的個人信息,或影響勞動者平等就業(yè)權(quán)、公平對待權(quán)等勞動權(quán)利的實現(xiàn)。這通常表現(xiàn)為雇主在招聘階段挑選具有“經(jīng)濟適用性”的“工具人”,或在用工階段將工作資源傾斜于其所認(rèn)為的完美“工具人”,由此引發(fā)用工歧視之危機。而資本的逐利性始終具有最大化的利益傾向,過勞危機則是勞動者主體性危機的固有表現(xiàn)。因此在勞動數(shù)字化轉(zhuǎn)型過程中,從對勞動者數(shù)據(jù)隱私的侵害到對其生命健康的威脅,既是資本借助算法不斷強化勞動控制的直接后果,也是對勞動者主體性危機這一最深層風(fēng)險的警示。
在承認(rèn)技術(shù)進步意義的同時,立法者也需要及時發(fā)覺其負(fù)外部性,并構(gòu)思相應(yīng)治理對策,方能防止技術(shù)異化為其背后控制力量的宰制工具,保證技術(shù)始終不偏離社會與人類的發(fā)展利益。雇主的算法管理誠然帶來了勞動的規(guī)范化與高效化,并極大地推動社會生產(chǎn)力向前發(fā)展。但與預(yù)期相反的是,數(shù)字技術(shù)與生產(chǎn)管理的結(jié)合既未提高勞動者的勞動待遇,也未將勞動者從流程化的勞動作業(yè)中解放出來,反而打破了穩(wěn)定的勞動組織形式,加劇了勞動者生活資料獲取的不確定性,特別是在低技能勞動力之間形成“逐底競爭”。從危機的表面來看,借助信息網(wǎng)絡(luò)的社會化覆蓋,雇主可以超越勞動空間而在勞動者生活的方方面面制造出其對管理控制的“認(rèn)同”。算法強加于勞動者之上的,是一種無處不在卻不見其形的社會化規(guī)訓(xùn),是一種微觀的控制機制。它不以實體的形式出現(xiàn),因此無法制裁,也不以權(quán)威的形式出現(xiàn),因此無法反抗[40]。從危機的深層來說,勞動者主體意識的弱化不再純粹是資本外力強制的結(jié)果,而開始伴隨著勞動者無抵抗的接受與放任。智能機器雖未實現(xiàn)對人類創(chuàng)造性智力的超越,但在即時計算、穩(wěn)定儲存、信息關(guān)聯(lián)推導(dǎo)等多個方面存在優(yōu)于人腦的性能,從而區(qū)別于自動化機器主要是對人類經(jīng)驗與體力的復(fù)刻與強化。基于這種身體力量向思維力量的效仿突破,比起對于“競爭者”工業(yè)機器的排斥與敵對,勞動者對以“引導(dǎo)者”角色登場的智能機器更多展現(xiàn)出對工具理性的認(rèn)可與服從,甚至是信任與崇拜。勞動過程標(biāo)準(zhǔn)化向勞動細(xì)節(jié)標(biāo)準(zhǔn)化的升級,無疑呈現(xiàn)出勞動過程控制權(quán)進一步轉(zhuǎn)移的態(tài)勢。當(dāng)勞動者越來越依賴于算法把控勞動進程,將算法勞動標(biāo)準(zhǔn)作為衡量自身勞動給付的唯一依據(jù),毫無疑義地認(rèn)可算法評估結(jié)果時,資本對勞動過程控制權(quán)的謀取也將被合理化為勞動者出于自身勞動能力不足或勞動能力不自信的自愿讓與,最終使得勞動者主體性危機發(fā)生了由外在削弱向自發(fā)削弱的深化與質(zhì)變。
長此以往,勞動者的主體性將被完全消解,并降格為勞動過程中的客觀因素。而當(dāng)勞動過程的一切都可以被清晰精準(zhǔn)地計算和解釋時,人類社會也將走向平庸的未來[41]。無論是工業(yè)機器還是智能機器,機器的運行機理都在于其抽離并整合了勞動者的力量、技巧和經(jīng)驗,勞動者的才智才是機器生產(chǎn)的動力源泉。當(dāng)勞動者停止創(chuàng)造,既有的技術(shù)也將停止更新,最終使社會發(fā)展陷入巨大的停滯。質(zhì)言之,數(shù)字時代勞動者主體性危機的關(guān)鍵是勞動者創(chuàng)造力的消減,因此,化解數(shù)字時代勞動者主體性危機的立足點是對勞動者創(chuàng)造力的保存與培育。而從立法層面來說,社會法應(yīng)直面社會個體的不平等,承認(rèn)勞動者對于雇主的結(jié)構(gòu)性弱勢地位并給予保護[42]。為了延續(xù)維護勞動者權(quán)益的歷史使命,未來社會法必須對作為危機技術(shù)誘因的算法管理,以及對作為危機內(nèi)核的勞動者創(chuàng)造力消退兩個方面作出有力回應(yīng)。
2022年3月1日《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》的施行,標(biāo)志著我國算法規(guī)制的基本要求正式確立。隨后,《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》和《最高人民法院關(guān)于規(guī)范和加強人工智能司法應(yīng)用的意見》等針對特殊行業(yè)或領(lǐng)域的算法規(guī)制也相繼出臺。筆者認(rèn)為勞動領(lǐng)域內(nèi)的算法治理應(yīng)當(dāng)順勢而為,由勞動與社會保障部門制定并頒布建立在算法技術(shù)邏輯之上、結(jié)合勞動場景特殊性的算法勞動管理規(guī)則,并將適用范圍拓展至平臺用工領(lǐng)域。其設(shè)計要點如下:
1.算法解釋:面向工會的系統(tǒng)功能解釋與面向勞動者的特定決策解釋
無論“算法黑箱”如何運作,法律真正要確保的是輸出結(jié)果與輸入數(shù)據(jù)之間呈現(xiàn)合理的相關(guān)關(guān)系[43]。這便需要借助算法解釋之功用,由算法應(yīng)用者對相關(guān)性作出解釋性說明,而由被決策對象自行判斷合理與否。作為規(guī)范算法勞動管理的重要基點,為了保證算法解釋的制度設(shè)計可以有效矯正勞資技術(shù)勢差,應(yīng)扶助性地賦予勞動者作為弱勢利益相關(guān)者的技術(shù)話語權(quán),以制度性凸顯其勞動主體地位。未來社會保障部門在制定實施規(guī)則時,可以考慮賦權(quán)與賦責(zé)雙軌并行,對算法解釋原則作出細(xì)化。
為了保障被決策勞動者獲得完整意義上的有效解釋,算法解釋需區(qū)分為事前的系統(tǒng)功能解釋與事后的特定決策解釋[44],由雇主以通俗易懂的自然語言作出。系統(tǒng)功能解釋面向算法的一般功能化信息,包括但不限于預(yù)定義模型、設(shè)計原理、運行邏輯、主要參數(shù)及大致權(quán)重、潛在風(fēng)險等非技術(shù)細(xì)節(jié)的關(guān)鍵信息。如美國伊利諾伊州2020年實施的《人工智能視頻面試法案》第5條第2款便規(guī)定,雇主使用人工智能技術(shù)對求職者的面試錄像進行分析,必須事先向每位求職者解釋該項技術(shù)的運行原理及其用于評估求職者的何種一般性特征[45]??紤]到算法的技術(shù)復(fù)雜性,在解釋主體方面,若雇主向獨立第三方采購算法系統(tǒng),可要求算法設(shè)計者就上述功能性特點的解答予以專業(yè)輔助,確保解釋內(nèi)容的全面性與準(zhǔn)確性。在解釋方式上,書面闡釋顯然不如口頭交流明朗生動,但若因此要求雇主對勞動者逐一解釋則不切實際。算法自動化決策本質(zhì)上是將勞動規(guī)章代碼化[27](56)。故在接受解釋的對象方面,筆者認(rèn)為可將算法技術(shù)方案視為我國《勞動合同法》第4條規(guī)定的“涉及勞動者切身利益的規(guī)章制度或重大事項”,然后由單位工會或職工代表聽取雇主關(guān)于系統(tǒng)運行邏輯、功能的詳細(xì)解釋,并提出質(zhì)詢,就具體方案隱含風(fēng)險與雇主展開集體協(xié)商。僅披露算法模型的基本邏輯和主要參數(shù)而保留具體的參數(shù)和權(quán)重,既不會對雇主的商業(yè)秘密保護造成困擾,也不會過分增加雇主的技術(shù)合規(guī)成本,實為兩全之策。
對于平臺從業(yè)者的權(quán)益保護,當(dāng)前許多學(xué)者都致力于論證其勞動法上的主體適格性。但筆者以為,法律修訂具有較高的制度成本,且時效較慢,更切實的做法應(yīng)當(dāng)是考慮如何向其提供適當(dāng)?shù)谋Wo與支持機制,而非強行將其納入現(xiàn)行勞動法的調(diào)整范圍。因此,對于暫時無法加入企業(yè)工會的平臺從業(yè)者,或可大力推行行業(yè)性工會建設(shè)。2021年,中華全國總工會出臺的《關(guān)于切實維護新就業(yè)形態(tài)勞動者勞動保障權(quán)益的意見》(以下簡稱《意見》)提出,“最大限度吸引新就業(yè)形態(tài)勞動者加入工會”。在《意見》精神的指引下,未來我國應(yīng)加大對網(wǎng)約車、餐飲配送、物流服務(wù)等新經(jīng)濟領(lǐng)域行業(yè)工會的建設(shè)支持,發(fā)揮總工會的上級指導(dǎo)作用,保證行業(yè)工會在新業(yè)態(tài)中繼續(xù)發(fā)揮工會組織對勞動者的支持性功能。
特定決策解釋則面向某項對勞動者個人權(quán)益構(gòu)成重大影響的自動化或半自動化決策。解釋內(nèi)容包括數(shù)據(jù)采集或使用范圍、目標(biāo)需求、設(shè)定的參數(shù)及權(quán)重、輸入數(shù)據(jù)與輸出結(jié)果的指向性等,特定情形下還需雇主對前述系統(tǒng)功能進行補充說明。2018年歐洲委員會修訂的《第108號公約》第9條規(guī)定,“在數(shù)據(jù)處理結(jié)果作用于數(shù)據(jù)主體本人時,數(shù)據(jù)主體有權(quán)獲得數(shù)據(jù)處理背后的推理知識”[46]。事后階段的解釋有利于縮小勞資之間的信息勢差,保障勞動者知情權(quán),這也是勞動者行使立法者先前賦予的各類數(shù)據(jù)權(quán)利,以抵御雇主算法操控,彰顯其勞動主體性的前提和基礎(chǔ)。換言之,理解算法運作機理是被決策對象行使技術(shù)性救濟權(quán)利的先決條件。只有知曉不利算法決策是因數(shù)據(jù)錯誤所致,勞動者才能行使數(shù)據(jù)更正權(quán)或刪除權(quán),若侵害結(jié)果是在問題建構(gòu)階段埋下的伏筆,勞動者可要求雇主修正算法或拒絕受此決策的影響[47]。
2. 算法審查:立足于勞動場景的共性與特殊類型
無論是面向工會還是面向勞動者的算法解釋,本質(zhì)上皆是作為非技術(shù)控制方的勞動者從權(quán)益維護與道德倫理角度對已成形算法進行的整體檢視與漏洞填補,也都存在介入時點滯后、介入深度有限的不足。且不可否認(rèn)的是,有時候算法風(fēng)險就隱藏在某項構(gòu)成商業(yè)秘密保護的具體參數(shù)及權(quán)重之中[48],雇主也可能串通算法設(shè)計者對工會及勞動者作出誤導(dǎo)性甚至是虛假陳述。因此,單純的算法解釋并非規(guī)范算法勞動管理的萬全之策,引入專業(yè)化、系統(tǒng)化的算法審查制度則成為一個合理且必要的制度安排。
概言之,為實現(xiàn)對危機的全面管控,算法審查應(yīng)貫穿算法的設(shè)計、部署、應(yīng)用等各個環(huán)節(jié),按介入時點分為使用前審批與定期審查,以事前預(yù)防性審查為重點。在審查主體上,審查機構(gòu)將主要由行業(yè)工會、企業(yè)協(xié)會以及勞動監(jiān)察部門組成。為了增強評估的準(zhǔn)確性,可從國內(nèi)一流大學(xué)、權(quán)威科研機構(gòu)、計算機協(xié)會選任合作專家學(xué)者作為技術(shù)顧問,并要求參與者簽訂保密協(xié)議。
首先,在審查內(nèi)容上,比起寬泛的總體性或綜合性審查,勞動領(lǐng)域的算法審查將發(fā)揮專業(yè)優(yōu)勢,進一步聚焦于區(qū)分算法應(yīng)用風(fēng)險所涉及的勞動者具體權(quán)益,如潛在危險程度是否合比例,勞動者是否切實享有參與權(quán)、異議權(quán)與拒絕權(quán),雇主是否采取相關(guān)技術(shù)防范措施,以及是否制定各類突發(fā)狀況的應(yīng)急預(yù)案等貫穿各類勞動場景的算法管理細(xì)節(jié)。
其次,在具體設(shè)計上,筆者認(rèn)為可以借鑒域外將風(fēng)險分級以精準(zhǔn)管控的治理思路。例如,德國數(shù)據(jù)倫理委員會曾呼吁建立一個以風(fēng)險為基礎(chǔ)的五級監(jiān)管系統(tǒng),從對最無害的人工智能系統(tǒng)無監(jiān)管到對危險的人工智能系統(tǒng)的全面禁止。歐盟在2020年發(fā)布的《人工智能白皮書》中亦對“高風(fēng)險”應(yīng)用確立了評判標(biāo)準(zhǔn)以及相應(yīng)的風(fēng)險防治義務(wù)[49]。我國社保部門也可就算法管理的場景類型與特殊需求設(shè)定審查強度的不同梯級。例如,對于平臺用工中的導(dǎo)航算法、調(diào)度算法等涉及勞動者休息權(quán)、健康權(quán)等與生存相關(guān)的重要人身權(quán)利的算法系統(tǒng),無論是在實際部署前還是投入應(yīng)用后,都需要對算法數(shù)據(jù)收集、變量選擇、初始模型、邏輯構(gòu)造、輸出結(jié)果等各個環(huán)節(jié)嚴(yán)加審核。對于招聘算法、匹配算法、評級算法等主要涉及勞動者平等就業(yè)權(quán)、公平對待權(quán)等勞動權(quán)利的算法系統(tǒng),則可按照中等強度予以檢視,主要考察輸入數(shù)據(jù)與輸出結(jié)果之間的相關(guān)性以及輸出結(jié)果是否將對特定群體造成不合比例的歧視性對待。對于人事考勤之類的簡單算法,則只需審查其是否存在基于性別、民族、種族、宗教信仰等集體身份區(qū)別對待的風(fēng)險即可。而出于必要性與效益方面的考慮,技術(shù)應(yīng)用規(guī)模未達(dá)到要求的中小微企業(yè)與個體工商戶可以免除上述審查。
最后,參考2018年紐約市自動化決策工作小組針對“某一系統(tǒng)或智能工具是否屬于自動化決策系統(tǒng)”制定自檢清單的做法[50],審查機構(gòu)亦可出臺關(guān)于算法評估指標(biāo)的自檢清單,以詳細(xì)問卷的形式對數(shù)據(jù)處理、敏感程度、結(jié)果變量、相關(guān)關(guān)系等技術(shù)概念作出引導(dǎo)式規(guī)定,并設(shè)定一定數(shù)量的與算法管理流程、設(shè)計邏輯和數(shù)據(jù)采集相關(guān)的問題。雇主通過依次回答所列問題,根據(jù)分值得出初始評估結(jié)論,便可在提交申請前就分值較低項構(gòu)思改良方案,高效矯正系統(tǒng)瑕疵,提高審查效率[51]。
1. 強化雇主數(shù)據(jù)合規(guī)義務(wù)
勞動者數(shù)據(jù)化是數(shù)字時代勞動者主體性危機深化的根源,故確保雇主對勞動者個人數(shù)據(jù)開發(fā)利用的規(guī)范性,是危機深化治理的基礎(chǔ),也是算法勞動監(jiān)察的要點。與此相應(yīng),算法勞動管理規(guī)則需要明確雇主在數(shù)據(jù)收集處理方面的告知義務(wù)、說明義務(wù)、注意義務(wù)、審計義務(wù)、保密義務(wù)等,并作為勞動監(jiān)察的實施依據(jù)。值得強調(diào)的是,我國《民法典》第1035條及《個人信息保護法》第13條均以數(shù)據(jù)主體之同意作為數(shù)據(jù)處理的首要合法性基礎(chǔ)。但在用工實際中,勞動關(guān)系的從屬性始終抑制著勞動者同意的自主性,也即難以達(dá)成“真意表示”這一法條隱含的效力前提?!案嬷?同意”合法表象的輕易形成往往成為雇主脫責(zé)的法定抗辯事由?;趧趧雨P(guān)系的特殊性,規(guī)則與配套的勞動監(jiān)察必須對這一通行原則作符合勞動者利益的具體詮釋。以他山之石為鑒,德國《聯(lián)邦數(shù)據(jù)法》第26條第2款將勞動者同意的效力要件細(xì)化為:當(dāng)雇員可以獲得法律或經(jīng)濟上的好處或者與雇主的利益訴求一致時,雇員作出的同意表示方為有效[52]。考慮到我國勞動力市場發(fā)展的不均衡性,可以將效力性標(biāo)準(zhǔn)放寬到同意僅對勞動者造成不顯著的負(fù)面影響時,便認(rèn)可其作為雇主數(shù)據(jù)處理的合法基礎(chǔ)。另外,在數(shù)據(jù)管理儲存方面,規(guī)則除了需要賦予雇主期限義務(wù)、記錄義務(wù)、安全預(yù)警義務(wù)等作為個人信息處理者的常規(guī)義務(wù),還要特別規(guī)定對數(shù)據(jù)的分級分類保存義務(wù),以避免雇主濫用算法,通過數(shù)據(jù)挖掘與關(guān)聯(lián)影響形成透視勞動者身心的“數(shù)字畫像”。而為強化算法勞動監(jiān)察的力度和公信力,還可以要求雇主定期向外公布數(shù)據(jù)合規(guī)報告,引入社會化監(jiān)管以形成監(jiān)管合力,并對報告造假者、未達(dá)標(biāo)者予以較高金額的行政處罰,增強警示意義。
2. 強化雇主算法管理責(zé)任
寬嚴(yán)相濟的責(zé)任制度是收束算法權(quán)力邊界、防范資本無序擴張的有力武器與最后防線。算法問責(zé)的根本目的便是刺破“算法黑箱”的面紗,讓算法背后的控制主體承擔(dān)責(zé)任[53]。就勞動領(lǐng)域算法問責(zé)制度的系統(tǒng)構(gòu)建而言,筆者以為規(guī)則還可就雇主算法管理的責(zé)任內(nèi)容、歸責(zé)原則、責(zé)任承擔(dān)方式等進行具體規(guī)定。
第一,在責(zé)任內(nèi)容方面,考慮到可能存在算法設(shè)計者與應(yīng)用者分離的情況,應(yīng)當(dāng)對兩者賦以與其控制能力相符的行為責(zé)任。相比于設(shè)計者,算法應(yīng)用者與應(yīng)用對象之間的聯(lián)系更加密切,其意志更容易通過算法運算作用于后者,故而必須對應(yīng)用者課以更為嚴(yán)苛細(xì)致的管理責(zé)任,包括實施實質(zhì)性的算法評估、算法解釋、善意使用、技術(shù)性風(fēng)險防治等。當(dāng)雇主兼為兩者時,其還需為所設(shè)計的算法承擔(dān)類似《產(chǎn)品質(zhì)量法》規(guī)定的生產(chǎn)者責(zé)任。若算法系統(tǒng)瑕疵導(dǎo)致輸出的決策結(jié)果威脅勞動者的健康權(quán)、生命權(quán),則視為產(chǎn)品存在“危及人身、財產(chǎn)安全的不合理的危險”。第二,在歸責(zé)原則方面,立足于現(xiàn)有的立法資源,應(yīng)當(dāng)確立雇主算法勞動管理的過錯責(zé)任原則,同時鼓勵雇主購買一定份額的保險或設(shè)立基金以分?jǐn)傦L(fēng)險[28](26)?;谒惴ǖ募夹g(shù)特性,在算法決策與侵權(quán)結(jié)果之間,應(yīng)當(dāng)以變量之間的相關(guān)性判斷取代對因果關(guān)系的認(rèn)定,即唯有當(dāng)變量之間存在較強的相關(guān)性時,才能確認(rèn)算法模型設(shè)計乃至算法決策結(jié)果具有合理性,這通常表現(xiàn)為變量之間的相關(guān)系數(shù)達(dá)到一定數(shù)值以上[38](116)。第三,在責(zé)任承擔(dān)方式上,雇主應(yīng)當(dāng)對勞動者所受損害包括精神損害承擔(dān)經(jīng)濟賠償責(zé)任并及時修復(fù)或更換相關(guān)算法系統(tǒng)。對因算法決策錯誤而遭受名譽損害的勞動者,雇主還應(yīng)當(dāng)賠禮道歉,幫助其恢復(fù)名譽并消除不良影響。而為增強監(jiān)管的有效性與專業(yè)性,勞動監(jiān)察部門應(yīng)當(dāng)強化數(shù)字技術(shù)知識學(xué)習(xí),或引入針對算法檢測的數(shù)字監(jiān)管技術(shù),并在已出臺監(jiān)察條例的范圍內(nèi)增設(shè)與算法管理相關(guān)的監(jiān)察事項。同時,應(yīng)當(dāng)允許監(jiān)察部門向?qū)彶闄C構(gòu)申請調(diào)閱更為詳細(xì)的審查檔案,或申請相關(guān)技術(shù)協(xié)助,以實現(xiàn)算法監(jiān)管的連續(xù)性與全面性。
綜上所述,在立法層面,社會法對數(shù)字時代的勞動者主體性危機可以從三個方面進行回應(yīng):一是落實以縮小勞資信息勢差為目的的雇主算法解釋義務(wù);二是將算法風(fēng)險審查與算法勞動監(jiān)察進行內(nèi)外聯(lián)動,對算法本身與算法控制者予以嚴(yán)格的合規(guī)審查;三是對勞動者同意效力的再確認(rèn)。三者分別對應(yīng)勞動者認(rèn)識和理解算法、勞動者通過傳統(tǒng)利益“斡旋者”(即政府)防范算法風(fēng)險以及勞動者自我防范和拒絕承受算法風(fēng)險的基本需求,體現(xiàn)了勞動者在雇主算法管理帶來的表層風(fēng)險與深層危機面前,積極博弈或?qū)で笸饬葷院葱l(wèi)其作為勞動主體的合法權(quán)益并試圖擺脫資本控制的主體意識覺醒與抗?fàn)?,足以成為?shù)字時代勞動領(lǐng)域算法規(guī)制的基點。
為實現(xiàn)勞動者創(chuàng)造力的保存與培育,一方面,雇主必須在生產(chǎn)管理中堅持勞動標(biāo)準(zhǔn)的多元化。詳言之,在以智力創(chuàng)造為主導(dǎo)的勞動場合中,雇主在借助算法進行勞動流程劃分、勞動進度把控以及勞動成果評估時,必須在程序設(shè)計上保留人工處理的申請通道,保證高技能水平勞動者的勞動創(chuàng)造成果可以得到應(yīng)有的展示空間與公正評價。并且,當(dāng)這種勞動標(biāo)準(zhǔn)上的率先突破存在優(yōu)于算法原有設(shè)定的效益時,應(yīng)當(dāng)給予勞動者相應(yīng)物質(zhì)獎勵與精神褒揚,以激發(fā)勞動者的創(chuàng)造熱情,并及時對該勞動成果進行采納與技術(shù)轉(zhuǎn)化,以補充優(yōu)化既有算法勞動標(biāo)準(zhǔn),使勞動者創(chuàng)造力的培育與技術(shù)發(fā)展相輔相成、同頻共進。另一方面,數(shù)字時代應(yīng)當(dāng)重視并發(fā)揮工會的教育職能,由工會定期組織開展人工智能專題的知識培訓(xùn),以彌補勞動者技術(shù)能力上的不足。對于平臺從業(yè)者的發(fā)展權(quán)益支持,行業(yè)工會可以借助現(xiàn)代網(wǎng)絡(luò)技術(shù),推行網(wǎng)上入會的方式,簡化入會流程,為同行業(yè)勞動者提供有效的溝通機制,以形成整體性利益共識,并為其知識學(xué)習(xí)與技能培訓(xùn)提供便利渠道。
從長遠(yuǎn)來說,在社會經(jīng)濟條件允許的情況下,還應(yīng)當(dāng)將這種知識培訓(xùn)向前擴展至職業(yè)教育環(huán)節(jié)。在數(shù)字技術(shù)帶來的勞動者主體性挑戰(zhàn)下,職業(yè)教育的培養(yǎng)目標(biāo)也應(yīng)該突破工業(yè)時代的知識傳承,轉(zhuǎn)變?yōu)閿?shù)字時代的知識創(chuàng)造,并從頂層設(shè)計、資源建設(shè)和教育創(chuàng)新等不同層面全盤推進職業(yè)教育的數(shù)字化轉(zhuǎn)型[54]。當(dāng)勞動者主動走近并了解數(shù)字世界,而非被動裹挾進勞動數(shù)字化進程時,技術(shù)知識的積累不僅能夠使勞動者以更加平等的姿態(tài)面對雇主的算法管理,包括自主判斷雇主算法解釋的合理性與充分性、對雇主的數(shù)據(jù)合規(guī)報告提出質(zhì)疑等,也能夠使其更加深刻地認(rèn)識到資本的技術(shù)控制邏輯,牢固樹立勞動主體意識,進而積極展開勞資的利益博弈,最終使資本意欲將勞動者物化為客觀生產(chǎn)要素的目的徹底落空。
數(shù)字時代,資本的算法控制日益滲透到有形或無形的工作場所中,悄無聲息地影響著無數(shù)勞動者的切身利益。當(dāng)個體成了一堆可解析數(shù)據(jù)的集合體時,人的主體性便受到了挑戰(zhàn)。但危險的是,絕大部分勞動者尚未察覺到自己正在被計算、被預(yù)測、被控制。心理引誘和軟性影響取代了傳統(tǒng)的硬性命令,雇主以算法為工具,在浩瀚的數(shù)據(jù)流動中完成了精確而深刻的勞動者個體畫像,不斷強化勞動過程控制,進一步消解了勞動者的主體性,并呈現(xiàn)為數(shù)據(jù)侵權(quán)、用工歧視、過度勞動等三類危機。防范數(shù)字時代勞動者主體性危機深化之策略,則拆解為對資本控制工具的技術(shù)性規(guī)制,以及對資本所致力消減之目標(biāo)的勞動者創(chuàng)造力的保存與培育。而以保護弱勢群體權(quán)利為價值追求的社會法必須對此作出積極回應(yīng),包括厘清并堅持涵蓋平臺從業(yè)者在內(nèi)的勞動者的主體地位,給予其應(yīng)對技術(shù)沖擊的制度性扶助,鼓勵其從技術(shù)應(yīng)用中開辟智力發(fā)展的新空間等,以推動技術(shù)與勞動者形成良性而長遠(yuǎn)的互利合作關(guān)系,最終在技術(shù)進步中實現(xiàn)勞動者主體性的回正與人類勞動的真正解放。
① 社會必要勞動時間是指:“在現(xiàn)有的社會正常生產(chǎn)條件下,在社會平均的勞動熟練程度和勞動強度下制造某種使用價值所需要的勞動時間。”參見馬克思《資本論(第一卷)》,人民出版社2004年版第52頁。
② 參見上海市浦東新區(qū)人民法院(2020)滬0115民初77734號民事判決書。
③ 參見北京市朝陽區(qū)人民法院(2020)京0105民初58699號民事判決書。
④ 參見北京市海淀區(qū)人民法院(2020)京0108民初14101號民事判決書。
⑤ Tribunale di Bologna, sez. Lavoro., ord. 31/12/2020., 詳見http://www.soluzionilavoro.it/2021/01/07/giurisprudenza?tribunale-di-bologna-ordinanza-31-dicembre-2020/, 2022年8月27日訪問。
⑥ 參見上海市靜安區(qū)人民法院(2021)滬0106民初12325號民事判決書、上海市浦東新區(qū)人民法院(2021)滬0115民初6878號民事判決書、四川省成都市青羊區(qū)人民法院(2021)川0105民初5537號民事判決書、北京市東城區(qū)人民法院(2020)京0101民初4714號民事判決書、北京市西城區(qū)人民法院(2020)京0102民初15221號民事判決書、安徽省合肥市蜀山區(qū)人民法院(2020)皖0104民初15461號民事判決書、上海市浦東新區(qū)人民法院(2020)滬0115民初83705號民事判決書、上海市浦東新區(qū)人民法院(2020)滬0115民初82582號民事判決書等。
⑦ 參見山東省威海經(jīng)濟技術(shù)開發(fā)區(qū)人民法院(2022)魯1092民初2184號民事判決書。
⑧ 參見上海市楊浦區(qū)人民法院(2019)滬0110民初22372號民事判決書。
⑨ 參見上海市閔行區(qū)人民法院(2020)滬0112民初17565號民事判決書、上海市浦東新區(qū)人民法院(2019)滬0115民初100424號民事判決書。
⑩ 參見上海市黃浦區(qū)人民法院(2020)滬0101民初902號民事判決書。
[1] 中國信通院. 人工智能白皮書(2022)[EB/OL].(2022?04?18)[2022?08?07]. http://scdsjzx.cn/scdsjzx/ziliaoxiazai/2022/4/18/d03a2d33b67d4c398ddfca504cf410ab/files/43b00b8feccd423ea2e2a4014e9d672a.pdf.
[2] 趙紅梅.平臺從業(yè)者收入相關(guān)權(quán)益的法律保護[J].上海財經(jīng)大學(xué)學(xué)報,2021, 23(5):123?138.
[3] 孫萍.“算法邏輯”下的數(shù)字勞動:一項對平臺經(jīng)濟下外賣送餐員的研究[J].思想戰(zhàn)線,2019, 45(6):50?57.
[4] 陳鵬. 算法的權(quán)力:應(yīng)用與規(guī)制[J].浙江社會科學(xué),2019(4):52?58, 157.
[5] 楊偉國,邱子童.人工智能應(yīng)用中的勞動者發(fā)展機制與政策變革[J].中國人口科學(xué),2020(5):2?13, 126.
[6] 馬克思.1844年經(jīng)濟學(xué)哲學(xué)手稿[M].北京:人民出版社,2018:3.
[7] 馬克思. 資本論: 第1卷[M]. 北京: 人民出版社,2018:179?180,463.
[8] 布雷夫曼.勞動與壟斷資本—— 二十世紀(jì)中勞動的退化[M].方生,等譯.北京:商務(wù)印書館,1974:26,135?136.
[9] 徐景一. 算法機器與資本控制:勞動過程理論視域下的平臺勞資關(guān)系與資本積累[J]. 社會主義研究,2022(3):32?39.
[10] 馬克思恩格斯文集:第32卷[M].北京:人民出版社,1998:105.
[11] HOXIER F. Scientific management and labor[M]. New York: Appleton?Century?Crofts, 1918: 131?132.
[12] 王星.技術(shù)的政治經(jīng)濟學(xué)—— 基于馬克思主義勞動過程理論的思考[J].社會,2011, 31(1):200?222.
[13] POLLARD SIDNEY. The genesis of modern management: A study of the industrial revolution in Great Britain[M]. Cambridge:Harvard University Press,1965: 163.
[14] BRIGHT J R.Technology and the American economy[M]. Washington:U.S. Government Printing Office,1966: 208.
[15] 鄭玉雙.人的尊嚴(yán)的價值證成與法理構(gòu)造[J].比較法研究,2019(5):170?185.
[16] 洪丹娜.算法歧視的憲法價值調(diào)適:基于人的尊嚴(yán)[J].政治與法律,2020(8):27?37.
[17] 劉志剛. 人格尊嚴(yán)的憲法意義[J].中國法學(xué),2007(1):37?44.
[18] 田思路,李帛霖.雇主算法權(quán)力:法理構(gòu)造、內(nèi)涵特征與規(guī)制路徑[J].社會科學(xué),2023(1):169?180.
[19] 馬克思恩格斯文集:第4卷[M].北京:人民出版社,1998:374.
[20] 吳靜.平臺模式下零工勞動的政治經(jīng)濟學(xué)解讀[J].蘇州大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2022(3):10?18.
[21] 胡磊.平臺經(jīng)濟下勞動過程控制權(quán)和勞動從屬性的演化與制度因應(yīng)[J].經(jīng)濟縱橫,2020(2):36?44.
[22] 尼爾·波茲曼.技術(shù)壟斷:文明向技術(shù)投降[M].蔡金棟,梁薇,譯.北京:機械工業(yè)出版社,2013:19.
[23] 藍(lán)江.當(dāng)代西方數(shù)字資本主義下的異化勞動批判——從《1844年經(jīng)濟學(xué)哲學(xué)手稿》看當(dāng)代數(shù)字勞動問題[J].廣西師范大學(xué)學(xué)報(哲學(xué)社會科學(xué)版),2022, 58(5):1?10.
[24] 閆方潔,劉國強.論平臺經(jīng)濟時代資本控制的內(nèi)在邏輯與數(shù)字勞工的生存困境[J].河南社會科學(xué),2022, 30(3):43?50.
[25] 褚樂陽, 陳衛(wèi)車, 譚悅, 等.虛實共生:數(shù)字孿生(DT)技術(shù)及其教育應(yīng)用前瞻—— 兼論泛在智慧學(xué)習(xí)空間的重構(gòu)[J].遠(yuǎn)程教育雜志,2019, 37(5):3?12.
[26] 程曉.數(shù)字勞動者的主體性悖論[J].思想理論教育,2022(5):26?32.
[27] 張凌寒.算法自動化決策中的女性勞動者權(quán)益保障[J].婦女研究論叢,2022(1):52?61.
[28] 鄭智航.人工智能算法的倫理危機與法律規(guī)制[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2021, 39(1):14?26.
[29] 譚天.數(shù)字勞動異化的出場邏輯、在場表征與回歸理路—— 以《1844年經(jīng)濟學(xué)哲學(xué)手稿》為線索[J].理論導(dǎo)刊,2022(7):91?97.
[30] 陳姿含.人工智能算法中的法律主體性危機[J].法律科學(xué)(西北政法大學(xué)學(xué)報),2019, 37(4):40?47.
[31] 吳靜.總體吸納:平臺資本主義剝削的新特征[J].國外理論動態(tài),2022(1):116?124.
[32] 馬克思恩格斯文集:第5卷[M].北京:人民出版社,2009:307.
[33] 田思路.技術(shù)從屬性下雇主的算法權(quán)力與法律規(guī)制[J].法學(xué)研究,2022,44(6):132?150.
[34] 羅畢·瓦林, 鄧肯·麥肯, 姚建華, 等.數(shù)字經(jīng)濟中的權(quán)力和責(zé)任:數(shù)據(jù)、算法與勞動監(jiān)控[J].國外社會科學(xué)前沿,2021(9):77?84.
[35] 田思路.智能化勞動管理與勞動者隱私權(quán)的法律保護[J].湖湘論壇,2019, 32(2):16?27, 2.
[36] 李成. 人工智能歧視的法律治理[J].中國法學(xué),2021(2):127?147.
[37] 湯曉瑩.算法技術(shù)帶來的勞動者隱私風(fēng)險及制度因應(yīng)[J].中國人力資源開發(fā),2021, 38(8):65?81.
[38] 孫建麗.算法自動化決策風(fēng)險的法律規(guī)制研究[J].法治研究,2019(4):108?117.
[39] 朱文利,趙曉芳,盧宇彤.關(guān)注IT女性是每個人的責(zé)任[J].中國計算機學(xué)會通訊,2017(2):52?56.
[40] 吳靜.算法吸納視域下數(shù)字時代勞動新探[J].華中科技大學(xué)學(xué)報(社會科學(xué)版),2022, 36(4):8?15.
[41] 郭哲.反思算法權(quán)力[J].法學(xué)評論,2020, 38(6):33?41.
[42] 吳文芳,劉潔.新技術(shù)變革時代“人”的變遷與社會法回應(yīng)[J].學(xué)術(shù)月刊,2021, 53(8):106?122.
[43] 鄒開亮,王霞.大數(shù)據(jù)算法背景下就業(yè)歧視規(guī)制初探[J].價格理論與實踐,2020(6):37?42.
[44] 張欣. 算法解釋權(quán)與算法治理路徑研究[J].中外法學(xué),2019, 31(6):1425?1445.
[45] the Lllinois Compiled Statutes (ILCS).Artificial Intelligence Video Interview Act[EB/OL].(2020?01?01)[2022?09?01]. https://www.ilga.gov/legislation/ilcs/ilcs3.asp?ActID=4015&ChapterID=68820.
[46] Council of Europe. Protocol Amending the Council of Europe Convention for the Protection of Individuals with regard to Automatic Processing of Personal Data[EB/OL].(2018?05?06)[2022?09?01].https://rm.coe.int/16808ac918.
[47] 解正山.算法決策規(guī)制—— 以算法“解釋權(quán)”為中心[J].現(xiàn)代法學(xué),2020, 42(1):179?193.
[48] 呂炳斌.論個人信息處理者的算法說明義務(wù)[J].現(xiàn)代法學(xué),2021, 43(4):89?101.
[49] European Commission.White paper on artificial intelligence?an European approach to excellence and trust[EB/OL].(2020?02?19)[2022?09?01].https://commission.europa.eu/publications/white?paper?artificial?intelligence?european?approach?excellence?and?trust_en.
[50] the State of New York.Checklist for determining whether a tool or system is an ADS/Agency ADS as defined by local law 49[EB/OL]. (2018?01?01)[2022?09?01]. https://www.nyc.gov/assets/adstaskforce/downloads/pdf/ADS-TF-Checklist-for-Determining-ADS?Agency.pdf.
[51] 張欣.算法影響評估制度的構(gòu)建機理與中國方案[J].法商研究,2021, 38(2):102?115.
[52] 王倩. 作為勞動基準(zhǔn)的個人信息保護[J].中外法學(xué),2022, 34(1):183?201.
[53] 張凌寒.算法評估制度如何在平臺問責(zé)中發(fā)揮作用[J].上海政法學(xué)院學(xué)報(法治論叢),2021, 36(3):45?57.
[54] 張慕文,祝士明.職業(yè)教育數(shù)字化轉(zhuǎn)型的內(nèi)涵、邏輯與策略[J].現(xiàn)代教育管理,2023(3):120?128.
Crisis of laborers' subjectivity in the digital age and social law response
TIAN Silu, ZHENG Chenyu
(School of Economic Law,East China University of Politics and Law,Shanghai 201620,China)
From its inception, capital has had a logic of interest in weakening the subjectivity of laborers. From the era of workshop craftsmanship to the era of machine industry, technology became a huge driving force for capital to objectify workers and seize control of the laboring process. Up to the digital era, with the structural embedding and normal application of algorithms and other digital technologies in the field of labor, especially in the field of platform employment, the reliance on instrumental rationality has brought about the erosion of workers' creativity and the belittling of their critical thinking, and led to the further deepening of the crisis of workers' subjectivity, which is manifested in three typical aspects: data infringement, employment discrimination and excessive labor. It is necessary to regulate employers' algorithms with special legislation on algorithmic labor management and correct labor-management technical differences, to strengthen employers' management responsibilities with algorithmic labor inspection, and to preserve and cultivate workers' creativity with diversified intellectual labor standards and continuous knowledge training, so as to prevent and solve the crisis of laborers' subjectivity.
laborers’ subjectivity; control of laboring process; big data algorithms; digitization of labor; algorithmic labor management
10.11817/j.issn. 1672-3104. 2023.05.008
D922.5
A
1672-3104(2023)05?0079?16
2022?12?17;
2023?05?31
國家社科基金重點項目“養(yǎng)老服務(wù)體系建設(shè)的立法研究”(22AFX022)
田思路,男,天津人,法學(xué)博士,華東政法大學(xué)經(jīng)濟法學(xué)院教授、博士生導(dǎo)師,主要研究方向:勞動與社會保障法;鄭辰煜,女,福建福州人,華東政法大學(xué)經(jīng)濟法學(xué)院碩士研究生,主要研究方向:勞動與社會保障法,聯(lián)系郵箱:zcy15316123193@163.com
[編輯: 蘇慧]