国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能時(shí)代的社會(huì)公正風(fēng)險(xiǎn):何種社會(huì)?哪些風(fēng)險(xiǎn)?

2023-06-10 23:41:25李猛
治理研究 2023年3期
關(guān)鍵詞:人工智能

作者簡(jiǎn)介:李猛,政治學(xué)博士,北京外國(guó)語(yǔ)大學(xué)國(guó)際關(guān)系學(xué)院副教授。

基金項(xiàng)目:國(guó)家社科基金重大項(xiàng)目“人工智能倫理風(fēng)險(xiǎn)防范研究”(編號(hào):20&ZD041)。

摘要:人工智能導(dǎo)致的社會(huì)風(fēng)險(xiǎn)根源于人工智能社會(huì)的不公正。為了更加全面認(rèn)知人工智能的社會(huì)公正風(fēng)險(xiǎn),需要結(jié)合馬克思主義分析人工智能時(shí)代的社會(huì)形態(tài):從“生產(chǎn)公正”角度看,人工智能社會(huì)是深度自動(dòng)化生產(chǎn)的社會(huì),這可能導(dǎo)致勞動(dòng)向下聚集、勞動(dòng)能力弱化、勞動(dòng)“分體化”等生產(chǎn)公正風(fēng)險(xiǎn);從“分配公正”角度看,人工智能社會(huì)是物質(zhì)極大豐富但個(gè)體性、空間性、時(shí)間性分配嚴(yán)重不均的社會(huì);從“認(rèn)知公正”角度看,人工智能社會(huì)是虛擬與現(xiàn)實(shí)結(jié)合的社會(huì),可能導(dǎo)致理性認(rèn)知?jiǎng)儕Z、自控能力剝奪、自主選擇剝奪的認(rèn)知公正風(fēng)險(xiǎn);從“發(fā)展公正”角度看,人工智能與人類社會(huì)之間的矛盾與張力,可能導(dǎo)致能量爭(zhēng)奪、權(quán)責(zé)失衡和消極反抗等發(fā)展公正問(wèn)題,進(jìn)而弱化社會(huì)追求公正的動(dòng)力。導(dǎo)致人工智能社會(huì)公正風(fēng)險(xiǎn)的根本原因在于世界資源有限性與人類和人工智能需求無(wú)限性之間的矛盾、核心誘因在于人類社會(huì)固有的不公正問(wèn)題、最大障礙在于現(xiàn)有治理手段難以直接作用于人工智能領(lǐng)域的責(zé)任主體。對(duì)此,需要合理劃定人工智能發(fā)展的能耗標(biāo)準(zhǔn)和比例、著力解決傳統(tǒng)社會(huì)中的不公正問(wèn)題、以人的發(fā)展為目的穿透人工智能的“責(zé)任黑箱”。

關(guān)鍵詞:人工智能;生產(chǎn)公正;分配公正;認(rèn)知公正;發(fā)展公正

中圖分類號(hào):TP18;D616 文獻(xiàn)標(biāo)志碼:A 文章編號(hào):1007-9092(2023)03-0118-012

一、引言

人工智能對(duì)社會(huì)的改變不僅在于其為人類提供了更加強(qiáng)有力的工具,而且在于其深刻改變了人類社會(huì)的基本結(jié)構(gòu):在人類活動(dòng)的物理空間(Physical Space)和社會(huì)空間(Social Space)二元空間之外,真正地構(gòu)建了“第三元”的賽博空間(Cyberspace)。①三元空間結(jié)構(gòu)的形成改變了之前的人與人、人與自然簡(jiǎn)單關(guān)系,促成了人與人、人與自然、人與人工智能、人工智能與人工智能、人工智能與自然等更多維度的復(fù)雜關(guān)系。人工智能時(shí)代給人類帶來(lái)無(wú)限發(fā)展可能性的同時(shí),也必然會(huì)重塑傳統(tǒng)的社會(huì)秩序。

對(duì)于人工智能可能導(dǎo)致的社會(huì)風(fēng)險(xiǎn),相關(guān)研究有以下幾種主流觀點(diǎn):一是“失業(yè)陷阱”。人工智能大規(guī)模的應(yīng)用必然會(huì)取代大量的傳統(tǒng)制造業(yè)和服務(wù)業(yè)的工作崗位,只有少量最需要人文關(guān)懷能力、創(chuàng)造力或者管理能力的崗位才能保留下來(lái)。這種局面使得“所有的一切均對(duì)資本極為有利……勞動(dòng)者的處境非常糟糕”大衛(wèi)·巴恩西澤、丹尼爾·巴恩西澤:《人工智能的另一面:AI時(shí)代的社會(huì)挑戰(zhàn)與解決方案》,郝英好譯,電子工業(yè)出版社2020年版,第52頁(yè)。。二是“無(wú)隱私社會(huì)”。特定主體可以利用人工智能輕松地觀察、記錄、分析甚至是操控人類的私人或者公共行為,這可能使人類徹底失去隱私和自主的權(quán)利。Stahl B.C. and David W.,“Ethics and Privacy in AI and Big Data: Implementing Responsible Research and Innovation”,IEEE Security & Privacy, vol.16,no.3(2018),pp.26-33.三是“算法黑箱”。人工智能與傳統(tǒng)的具有“價(jià)值透明”的工具不同,其存在、運(yùn)行和應(yīng)用的全過(guò)程都存在著“黑箱”:復(fù)雜算法編寫過(guò)程的“解釋黑箱”、深度學(xué)習(xí)過(guò)程不可避免的“技術(shù)黑箱”和利益相關(guān)者使用人工智能時(shí)的“組織黑箱”。浮婷:《算法“黑箱”與算法責(zé)任機(jī)制研究》,中國(guó)社會(huì)科學(xué)院研究生院2020年博士學(xué)位論文,第25-55頁(yè)。四是“魯棒性鴻溝”。現(xiàn)有人工智能還主要應(yīng)用于具有較高容錯(cuò)能力、規(guī)則明確的具體問(wèn)題領(lǐng)域,當(dāng)人工智能拓展到無(wú)人駕駛、醫(yī)療診斷、老人照顧、利益分配甚至是政府決策等與人類生命或根本利益密切相關(guān)的領(lǐng)域時(shí),魯棒性的問(wèn)題就變得極其重要。貿(mào)然將人工智能廣泛應(yīng)用到人類社會(huì)必然會(huì)帶來(lái)更多不可預(yù)見(jiàn)的問(wèn)題與風(fēng)險(xiǎn)。歐內(nèi)斯特·戴維斯、蓋瑞·馬庫(kù)斯:《如何創(chuàng)造可信的AI》,龍志勇譯,浙江教育出版社2020年版,第23-25頁(yè)。

歷次工業(yè)革命的進(jìn)程表明,任何革命性技術(shù)變革都會(huì)帶來(lái)正反兩方面的效果。只有對(duì)新技術(shù)的風(fēng)險(xiǎn)進(jìn)行充分預(yù)判,才能更好地引導(dǎo)和推動(dòng)新技術(shù)向著造福人類的方向發(fā)展。雖然學(xué)者們從多個(gè)角度對(duì)于人工智能的社會(huì)風(fēng)險(xiǎn)進(jìn)行了深入剖析,但大多數(shù)討論都是從技術(shù)角度出發(fā)的,這導(dǎo)致對(duì)于風(fēng)險(xiǎn)的研判呈現(xiàn)碎片化。相關(guān)研究成果中不同風(fēng)險(xiǎn)之間的技術(shù)和邏輯關(guān)系并不清晰,難以透視人工智能社會(huì)產(chǎn)生風(fēng)險(xiǎn)問(wèn)題的深層次機(jī)理。在非技術(shù)性角度,相關(guān)論述中頻率出現(xiàn)較高的詞匯是“平等”“公平”“公正”等,如分析人工智能的社會(huì)風(fēng)險(xiǎn)時(shí)認(rèn)為“(人工智能)反過(guò)來(lái)又加大了世界的不公正……它對(duì)社會(huì)結(jié)構(gòu)的打擊也是毀滅性的”Stephen H.,“This Is the Most Dangerous Time for Our Planet”,December 1, 2016, https://www.theguardian.com/commentisfree/2016/dec/01/stephen-hawking-dangerous-time-planet-inequality.。人工智能的社會(huì)風(fēng)險(xiǎn)不僅僅是技術(shù)導(dǎo)致的,而是與社會(huì)結(jié)構(gòu)共振而產(chǎn)生的,人工智能加劇了社會(huì)不公正并進(jìn)而誘發(fā)了一系列社會(huì)風(fēng)險(xiǎn)。因此,探究人工智能的社會(huì)風(fēng)險(xiǎn),首先需要探究人工智能會(huì)塑造何種社會(huì)?這種社會(huì)又如何產(chǎn)生社會(huì)公正風(fēng)險(xiǎn)?社會(huì)公正風(fēng)險(xiǎn)如何與技術(shù)風(fēng)險(xiǎn)疊加?這正是本文要研究的核心問(wèn)題。

圍繞上述問(wèn)題,本文進(jìn)行了以下研究設(shè)計(jì)。關(guān)于理論框架,由于人工智能社會(huì)極其復(fù)雜且處于動(dòng)態(tài)發(fā)展過(guò)程中,分析該問(wèn)題需要運(yùn)用能夠被歷史證明的具有跨時(shí)空分析能力的理論框架,在所有的理論體系中,馬克思主義無(wú)疑是最具歷史生命力和未來(lái)預(yù)見(jiàn)力的范式,“從世界社會(huì)主義500年的大視野來(lái)看,我們依然處在馬克思主義所指明的歷史時(shí)代”習(xí)近平:《堅(jiān)持用馬克思主義及其中國(guó)化創(chuàng)新理論武裝全黨》,《求是》,2021年第22期。。本研究將運(yùn)用馬克思主義辯證唯物主義和歷史唯物主義基本原理,探討人工智能對(duì)人類社會(huì)的塑造以及潛在的社會(huì)公正風(fēng)險(xiǎn)。關(guān)于核心概念,為了更深入分析人工智能導(dǎo)致的社會(huì)公正風(fēng)險(xiǎn),本文在使用馬克思主義“剝削”概念的同時(shí),引入維托里奧·布法切描述社會(huì)非正義時(shí)使用的“剝奪”(包括分配不均、排他性和去權(quán)力化)概念,維托里奧·布法切:《社會(huì)非正義》,洪燕妮譯,江蘇人民出版社2020年版,第12頁(yè)。以此來(lái)探討人工智能社會(huì)可能導(dǎo)致的經(jīng)濟(jì)剝削、分配不公、利益排斥、認(rèn)知障礙以及受害者無(wú)力改變現(xiàn)狀等多重社會(huì)公正風(fēng)險(xiǎn)。關(guān)于論證結(jié)構(gòu),為了探討人類、自然、人工智能之間的多維關(guān)系,本文從四個(gè)角度對(duì)人工智能社會(huì)公正問(wèn)題進(jìn)行討論:在改造自然過(guò)程中由人類與人工智能關(guān)系而產(chǎn)生的“生產(chǎn)公正”問(wèn)題、在成果分配過(guò)程中人類與人工智能關(guān)系而產(chǎn)生的“分配公正”問(wèn)題、在社會(huì)認(rèn)知過(guò)程中人類與人工智能之間關(guān)系構(gòu)成的“認(rèn)知公正”問(wèn)題、在發(fā)展過(guò)程中人類社會(huì)和虛擬社會(huì)之間關(guān)系構(gòu)成的“發(fā)展公正”問(wèn)題。關(guān)于論證策略,由于人工智能技術(shù)專業(yè)性強(qiáng)且復(fù)雜多變,相關(guān)社會(huì)公正風(fēng)險(xiǎn)涉及人類生活的方方面面,很難用單一的實(shí)證方法和單一渠道的實(shí)證資料予以證明,而單純使用規(guī)范性研究方法又難以避免論證的空泛與說(shuō)服力的匱乏,因此本文在對(duì)相關(guān)問(wèn)題進(jìn)行規(guī)范性論證的基礎(chǔ)上,盡可能地應(yīng)用最新的案例、數(shù)據(jù)以及各個(gè)領(lǐng)域權(quán)威性實(shí)證研究成果予以佐證。

二、生產(chǎn)公正風(fēng)險(xiǎn):深度自動(dòng)生產(chǎn)的社會(huì)與“勞動(dòng)排斥”

社會(huì)生產(chǎn)的公正性問(wèn)題是馬克思主義公正理論的起點(diǎn)和最大特點(diǎn)。由生產(chǎn)力和生產(chǎn)關(guān)系構(gòu)成的社會(huì)生產(chǎn)方式是決定社會(huì)形態(tài)的根本性因素,也決定著公正的內(nèi)容和實(shí)質(zhì)。在社會(huì)生產(chǎn)過(guò)程中,從事實(shí)踐活動(dòng)的勞動(dòng)者無(wú)疑居于主體與核心地位?!耙粋€(gè)很明顯的而以前完全被人忽略的事實(shí),即人們首先必須吃、喝、住、穿,就是說(shuō)首先必須勞動(dòng),然后才能爭(zhēng)取統(tǒng)治,從事政治、宗教和哲學(xué)等等?!薄恶R克思恩格斯文集》第3卷,人民出版社2009年版,第459頁(yè)。勞動(dòng)作為人類的本質(zhì)活動(dòng),不僅塑造人本身,而且構(gòu)成社會(huì)基本矛盾的核心節(jié)點(diǎn),決定著社會(huì)基本形態(tài)的中心要素。各種錯(cuò)綜復(fù)雜的社會(huì)矛盾和社會(huì)風(fēng)險(xiǎn)都可以從勞動(dòng)的數(shù)量、結(jié)構(gòu)和類型中找到答案。

在人工智能大規(guī)模應(yīng)用之前的傳統(tǒng)社會(huì),人是勞動(dòng)的主體。雖然人類創(chuàng)造和使用先進(jìn)工具并極大提升了社會(huì)生產(chǎn)力,但這些工具仍然屬于勞動(dòng)資料的范疇,并不具有人類所獨(dú)有的能動(dòng)性和創(chuàng)造性。然而,人工智能具有很強(qiáng)的自主決策能力,一定程度上具備勞動(dòng)主體和勞動(dòng)資料雙重屬性。換言之,人工智能不僅僅是工具,而且是勞動(dòng)者,甚至在很多領(lǐng)域是超越人類的“超級(jí)”勞動(dòng)者。以人工智能發(fā)展水平走在前列的美國(guó)為例,從事人工智能相關(guān)工作的人員約占全部就業(yè)人口的07%,但是被人工智能直接取代的勞動(dòng)者數(shù)量占全部勞動(dòng)人口的15%,按照這種趨勢(shì)未來(lái)高達(dá)50%的工作量會(huì)被人工智能和機(jī)器代替。James M. et al., “Jobs Lost, Jobs Gained: What the Future of Work will Mean for Jobs, Skills, and Wages”, November 28, 2017, https://www.mckinsey.com/featured-insights/future-of-work/jobs-lost-jobs-gained-what-the-future-of-work-will-mean-for-jobs-skills-and-wages.人工智能深度運(yùn)用的勞動(dòng)場(chǎng)域不需要太多的人類勞動(dòng)者就可以創(chuàng)造較高的生產(chǎn)價(jià)值。甚至,某種程度上人工智能可以“自主”地拓展新的勞動(dòng)對(duì)象和勞動(dòng)領(lǐng)域,而不需要人類勞動(dòng)者的參與。除對(duì)勞動(dòng)者工作機(jī)會(huì)的剝奪外,人工智能社會(huì)的生產(chǎn)公正風(fēng)險(xiǎn)更多表現(xiàn)為對(duì)于中高端工作的結(jié)構(gòu)性替代,使勞動(dòng)者的工作機(jī)會(huì)向下聚集,并進(jìn)一步導(dǎo)致勞動(dòng)能力的弱化和剝削的固化。

第一個(gè)層次的社會(huì)生產(chǎn)公正風(fēng)險(xiǎn)是“勞動(dòng)機(jī)會(huì)向下聚集”。與傳統(tǒng)機(jī)器“向下”替代人工,但仍然創(chuàng)造較多制造、管理、協(xié)調(diào)等高技術(shù)崗位不同,人工智能對(duì)勞動(dòng)者就業(yè)選擇的替代是“向上”的。除了少數(shù)“金字塔”頂端的開(kāi)創(chuàng)性工作,“中端的工作因?yàn)樽詣?dòng)化和外包不斷流失,而高端工作的增長(zhǎng)趨勢(shì)也加速放緩”David R.,“How Technology is Destroying Jobs”,MIT Technology Review,vol.16,no.4(2013),pp.28-35.。世界經(jīng)濟(jì)論壇發(fā)布的《未來(lái)就業(yè)報(bào)告(The Future of Jobs Report)》顯示,從2018年到2022年,機(jī)器的工作時(shí)長(zhǎng)占比在多個(gè)工作領(lǐng)域都有了明顯增長(zhǎng),在搜尋與接收工作相關(guān)信息方面占比超過(guò)50%,信息與數(shù)據(jù)處理領(lǐng)域的機(jī)器工作占比已經(jīng)達(dá)到62%。即使在人類勞動(dòng)者占據(jù)獨(dú)特優(yōu)勢(shì)的復(fù)雜技術(shù)性勞動(dòng)、溝通交流、推理決策等領(lǐng)域,人工智能和機(jī)器的工作時(shí)長(zhǎng)占比都增長(zhǎng)了10%左右。Centre for the New Economy and Society, The Future of Jobs Report 2018, New York:World Economic Forum Press, 2018, p.11.這種“向上”替代趨勢(shì)使許多創(chuàng)意創(chuàng)新類行業(yè)感受到極大威脅,尤其是ChatGPT和Midjourney等最新人工智能工具的開(kāi)發(fā)和使用,極大加快了人類工作“向下聚集”的趨勢(shì),比如從事對(duì)語(yǔ)音、語(yǔ)義、圖像等數(shù)據(jù)進(jìn)行標(biāo)注以協(xié)助人工智能進(jìn)行訓(xùn)練的工作。

工作機(jī)會(huì)的“向下”聚集,會(huì)引發(fā)第二層次的社會(huì)生產(chǎn)公正風(fēng)險(xiǎn),即“勞動(dòng)能力弱化”。勞動(dòng)創(chuàng)造了人本身,靈巧的肢體、復(fù)雜的語(yǔ)言以及創(chuàng)造性的意識(shí)都是在復(fù)雜勞動(dòng)過(guò)程中逐步發(fā)展演化的。當(dāng)人類的勞動(dòng)被局限在簡(jiǎn)單、重復(fù)的輔助性勞動(dòng)之中時(shí),人類勞動(dòng)就失去了挑戰(zhàn)新領(lǐng)域、鍛煉新技能、發(fā)展新能力的機(jī)會(huì)。而在人工智能廣泛應(yīng)用的社會(huì)之中,可以預(yù)見(jiàn)大多數(shù)人類勞動(dòng)者是處于“輔助”地位的。勞動(dòng)的“目的”不是為了自身的發(fā)展,而是為了人工智能的發(fā)展和演化“投喂”數(shù)據(jù)。這是歷史上從未大規(guī)模出現(xiàn)過(guò)的現(xiàn)象,這可能會(huì)從根本上削弱人的主體性和全面性?!皞€(gè)人的全面性不是想象的或設(shè)想的全面性,而是他的現(xiàn)實(shí)聯(lián)系和觀念聯(lián)系的全面性?!薄恶R克思恩格斯文集》第8卷,人民出版社2009年版,第172頁(yè)。無(wú)法主動(dòng)、全面地聯(lián)系現(xiàn)實(shí),只能塑造出片面的和異化的勞動(dòng)者,只能制造出永遠(yuǎn)處于從屬地位和以“剝削”為合理秩序的勞動(dòng)者。

前兩個(gè)風(fēng)險(xiǎn)的疊加易引發(fā)第三層社會(huì)生產(chǎn)公正風(fēng)險(xiǎn),即“勞動(dòng)分體化”。人工智能時(shí)代除了勞動(dòng)機(jī)會(huì)和勞動(dòng)結(jié)構(gòu)的劇烈變化,勞動(dòng)方式也發(fā)生重大變化。傳統(tǒng)工業(yè)社會(huì)的大規(guī)模的、真實(shí)的、由人類控制的勞動(dòng)協(xié)作變得“虛無(wú)縹緲”,生產(chǎn)協(xié)作開(kāi)始被平臺(tái)和算法接管。人類的勞動(dòng)出現(xiàn)“分體化”(Dividuum)的趨勢(shì)。Raunig G., Dividuum: Machinic Capitalism and Molecular Revolution, Cambridge:MIT Press,2016,pp.11-24.與“碎片化”或者“原子化”的概念不同,“分體化”指的是勞動(dòng)具有分散性和流動(dòng)性雙重特征。人類的勞動(dòng)不需要有固定的職業(yè)、固定的場(chǎng)所、固定的關(guān)系,分散的個(gè)體可以在不同職業(yè)和場(chǎng)域中“自由”流動(dòng)。表面上看,將勞動(dòng)者從封閉的空間和協(xié)作關(guān)系中“解構(gòu)”是人類自由的極大拓展,但從深層次講,勞動(dòng)的“分體化”使得背后掌控的資本不僅不用負(fù)擔(dān)傳統(tǒng)勞動(dòng)所需要支付的社會(huì)保障、辦公場(chǎng)所、組織建設(shè)、員工培訓(xùn)等費(fèi)用,而且可以利用工作機(jī)會(huì)減少和向下聚集的態(tài)勢(shì),通過(guò)競(jìng)賽算法和激勵(lì)算法使勞動(dòng)者為了獲得少量的勞動(dòng)機(jī)會(huì)和“超額”的勞動(dòng)報(bào)酬而進(jìn)行“探底競(jìng)爭(zhēng)”。勞動(dòng)者的工作時(shí)長(zhǎng)不斷增加,而勞動(dòng)者的勞動(dòng)技能和組織能力則會(huì)不斷削弱,而最終的后果就是對(duì)于勞動(dòng)價(jià)值更加徹底的壓榨和剝削。

三、分配公正風(fēng)險(xiǎn):物質(zhì)極大豐富的社會(huì)與“分配不均”

分配公正問(wèn)題是公正理論的核心議題。馬克思主義分配理論明確指出,生產(chǎn)方式的變革和生產(chǎn)關(guān)系的調(diào)整決定著分配公正的內(nèi)容和實(shí)質(zhì)。從學(xué)術(shù)史看,歷次生產(chǎn)力的重大變革都帶來(lái)了分配公正問(wèn)題討論的高峰。和歷次產(chǎn)業(yè)革命一樣,人工智能的普及和應(yīng)用必然會(huì)極大提升社會(huì)的生產(chǎn)效率和生產(chǎn)力水平。大部分學(xué)者都認(rèn)可未來(lái)的社會(huì)將是一個(gè)物質(zhì)總量極大豐富的社會(huì)。但與人工智能社會(huì)快速的生產(chǎn)力調(diào)整相比,生產(chǎn)資料所有關(guān)系、產(chǎn)品的分配關(guān)系等生產(chǎn)關(guān)系構(gòu)成要素卻呈現(xiàn)出滯后的發(fā)展趨勢(shì)。這導(dǎo)致未來(lái)社會(huì)的物質(zhì)雖然極大豐富,但是產(chǎn)品的占有和分配卻可能呈現(xiàn)出更加不公正的態(tài)勢(shì)?!皵?shù)量稀缺的高技能人才正日益為特殊利益階層帶來(lái)利益,尤其是資本所有者和控制者,大多數(shù)群體則被排除在人工智能/機(jī)器人技術(shù)所產(chǎn)生的經(jīng)濟(jì)利益和財(cái)富之外?!贝笮l(wèi)·巴恩西澤、丹尼爾·巴恩西澤:《人工智能的另一面:AI時(shí)代的社會(huì)挑戰(zhàn)與解決方案》,郝英好譯,電子工業(yè)出版社2020年版,第10頁(yè)。并且,經(jīng)濟(jì)成果的“分配不均”還不能完全概括人工智能社會(huì)在社會(huì)分配方面的公正風(fēng)險(xiǎn)。與傳統(tǒng)社會(huì)中的土地、廠房、機(jī)器和設(shè)備等物質(zhì)形態(tài)的生產(chǎn)資料相比,互聯(lián)網(wǎng)數(shù)據(jù)、圖文、人的動(dòng)作、圖書館的書籍、大自然的變化等所有可以數(shù)據(jù)化的事物都是人工智能社會(huì)重要的生產(chǎn)資料,而這些生產(chǎn)資料的歸屬權(quán)和收益權(quán)并沒(méi)有明確的規(guī)定。在觀念和制度的真空中蘊(yùn)藏巨大的利益,這就導(dǎo)致人工智能時(shí)代存在諸多隱性的“分配不均”風(fēng)險(xiǎn)。

第一類社會(huì)分配公正風(fēng)險(xiǎn)是“個(gè)體性分配不均”。在人工智能時(shí)代,人類個(gè)體作為生產(chǎn)者、生產(chǎn)資料占有者、消費(fèi)者的身份邊界日益模糊,三重身份的重疊制造了大量的模糊地帶,這為新類型的剝削創(chuàng)造了巨大空間。首先,“個(gè)體分配不均”表現(xiàn)為對(duì)數(shù)字生產(chǎn)者的剝削。因低廉的生產(chǎn)成本和海量的受眾,數(shù)字雇員創(chuàng)造的數(shù)字類產(chǎn)品剩余價(jià)值遠(yuǎn)超傳統(tǒng)工業(yè)時(shí)代勞動(dòng)者的勞動(dòng)剩余價(jià)值,其受到剝削的程度也遠(yuǎn)高于傳統(tǒng)資本主義社會(huì)。雖然數(shù)字生產(chǎn)者表面上享有超過(guò)社會(huì)平均工資的薪資水平,但是較高的薪資和激烈的競(jìng)爭(zhēng)也使得勞動(dòng)者更加難以意識(shí)到剝削的存在。以數(shù)字類工作最為集中的美國(guó)硅谷為例,雖然2021年全美貧富差距縮小了約3%,但硅谷地區(qū)的貧富差距卻擴(kuò)大了5%;硅谷8位富豪的財(cái)富超過(guò)了硅谷底層50%家庭財(cái)富的總和。Joint Venture Silicon Valley, Silicon Valley Index 2022, San Jose: Silicon Valley Institute for Regional Studies,2022,pp.8-32.其次,“個(gè)體性分配不均”表現(xiàn)為對(duì)數(shù)據(jù)資料所有者的剝削。理論上,每個(gè)人都對(duì)自己生產(chǎn)的數(shù)據(jù)擁有所有權(quán)。但在現(xiàn)實(shí)中,許多互聯(lián)網(wǎng)平臺(tái)和人工智能公司占有并使用了這些生產(chǎn)資料卻沒(méi)有對(duì)所有者付費(fèi)。作為數(shù)據(jù)所有者的個(gè)人往往也沒(méi)有意識(shí)和能力主張數(shù)據(jù)的所有權(quán)。莫里齊奧·費(fèi)拉里斯(Maurizio Ferraris)分析了其中的原因:“現(xiàn)在我們不知道該如何使用這些文檔,如果沒(méi)有大型互聯(lián)網(wǎng)公司的話,這些文檔根本不會(huì)被收集起來(lái)。但是,如果沒(méi)有我們,這些文檔確實(shí)也不會(huì)存在?!蹦稞R奧·費(fèi)拉里斯:《文檔媒介資本》,沈天乙譯,《國(guó)外理論動(dòng)態(tài)》,2020年第1期。正是這種對(duì)于個(gè)體生產(chǎn)資料占有權(quán)的剝奪和無(wú)償占有使得數(shù)字資本獲得遠(yuǎn)超傳統(tǒng)工業(yè)資本和金融資本的高額利潤(rùn)。最后,“個(gè)體性分配不均”表現(xiàn)為對(duì)數(shù)據(jù)消費(fèi)者的剝削。信息時(shí)代的壟斷效應(yīng)使得互聯(lián)網(wǎng)平臺(tái)往往以寡頭的形式存在,消費(fèi)者長(zhǎng)期使用固定的互聯(lián)網(wǎng)平臺(tái),使個(gè)人信息、社交網(wǎng)絡(luò)、交易行為、工作交流、休閑娛樂(lè)等更多的數(shù)據(jù)被平臺(tái)無(wú)償使用,最終形成精確的用戶畫像。個(gè)體產(chǎn)生的數(shù)據(jù)在被轉(zhuǎn)化之后又以高于市場(chǎng)的價(jià)格售賣給消費(fèi)者。

第二類社會(huì)分配公正風(fēng)險(xiǎn)是“空間性分配不均”。表面上看,人工智能時(shí)代的特征是“去中心化”,但是現(xiàn)實(shí)中的算法、算力和算據(jù)都是高度集中的。以人工智能發(fā)展所必需的數(shù)據(jù)中心為例,美國(guó)以2701家處于絕對(duì)領(lǐng)先的地位,超過(guò)了之后8個(gè)國(guó)家的總和;世界上80%以上的數(shù)據(jù)中心位于G7國(guó)家;數(shù)據(jù)中心相對(duì)獨(dú)立的發(fā)展中國(guó)家只有中國(guó)與俄羅斯。Petroc T., “Number of Data Centers Worldwide 2022”,F(xiàn)ebruary 10,2023, https://www.statista.com/statistics/1228433/data-centers-worldwide-by-country/.當(dāng)今世界的人工智能往往聚集在個(gè)別發(fā)達(dá)國(guó)家、個(gè)別城市和個(gè)別大型科技公司,而其他絕大部分空間都會(huì)被排除在人工智能發(fā)展的紅利之外。少數(shù)人工智能“高地”所依賴的數(shù)據(jù)、使用的能源以及需要的人才是大多數(shù)地區(qū)的分散主體創(chuàng)造的,這就形成了算法、算力、算據(jù)高度集中與數(shù)據(jù)、能源、人才的相對(duì)分散之間的空間性矛盾,并可能制造巨大的社會(huì)不公正風(fēng)險(xiǎn)。首先,是數(shù)據(jù)的“空間性分配不均”。正如生產(chǎn)數(shù)據(jù)的個(gè)體并不享有數(shù)據(jù)的所有權(quán)和收益權(quán),生產(chǎn)數(shù)據(jù)的絕大多數(shù)空間亦不能從中獲得稅收或者財(cái)政收入。數(shù)據(jù)資源的價(jià)值被持續(xù)性“掠奪”必然會(huì)限制人工智能相對(duì)落后區(qū)域的發(fā)展?jié)摿桶l(fā)展機(jī)會(huì)。其次,是能源的“空間性分配不均”。人工智能的運(yùn)算和散熱需要巨大的外部能量來(lái)維持。雖然區(qū)域之間的能量是以市場(chǎng)價(jià)格進(jìn)行交易的,但是作為初級(jí)產(chǎn)品的能源和作為高級(jí)產(chǎn)品的人工智能服務(wù)之間必然形成巨大的“剪刀差”。尤其是在可再生能源無(wú)法在能源結(jié)構(gòu)中占據(jù)核心地位的當(dāng)下,能源的開(kāi)發(fā)和使用不可避免產(chǎn)生相應(yīng)的污染物。能源交易價(jià)格中往往不包含環(huán)境治理所需要的巨大成本,這些有害物質(zhì)更多是聚集在人工智能不發(fā)達(dá)的空間,這也將進(jìn)一步導(dǎo)致災(zāi)害、疾病、死亡的不公平性空間聚集。最后,是人才的“空間性分配不均”。人才是人工智能社會(huì)最重要的戰(zhàn)略資源。人才的培養(yǎng)是一個(gè)長(zhǎng)期的過(guò)程,成本往往是由人口流出地承擔(dān),人口流入地并不會(huì)對(duì)這部分支出付費(fèi)。此種局面長(zhǎng)期發(fā)展下去就會(huì)導(dǎo)致人工智能落后區(qū)域不僅人才不斷流失,而且無(wú)法可持續(xù)地培養(yǎng)本區(qū)域發(fā)展所需要的人才。一旦上述空間不均衡的態(tài)勢(shì)固化,就會(huì)使破壞性力量在劣勢(shì)空間聚集,不僅“摧毀了先前的制度框架和力量(甚至挑戰(zhàn)了傳統(tǒng)的國(guó)家主權(quán)形式),而且摧毀了勞動(dòng)分工、社會(huì)關(guān)系、福利供給、技術(shù)混合、生活方式和思考方式、再生產(chǎn)活動(dòng)、土地歸屬和情感習(xí)性”大衛(wèi)·哈維:《新自由主義簡(jiǎn)史》,王欽譯,上海譯文出版社2010 年版,第3頁(yè)。。

第三類社會(huì)分配公正風(fēng)險(xiǎn)是“時(shí)間性分配不均”。人工智能的快速發(fā)展是在低成本甚至零成本的前提下,盡可能壓榨有限的時(shí)間資源。與其他資源的相對(duì)無(wú)限性而言,對(duì)人類而言所擁有時(shí)間資源的約束是剛性的。從個(gè)體角度看,人工智能對(duì)于時(shí)間的壓榨是具有隱蔽性和成癮性的。根據(jù)We Are Social和Hootsuite合作發(fā)布的2022年全球數(shù)字報(bào)告,We are social & hootsuite,“DIGITAL 2022:

ANOTHER YEAR OF BUMPER GROWTH”,January 26,2022, https://wearesocial.com/us/blog/2022/01/digital-2022-another-year-of-bumper-growth-2/.互聯(lián)網(wǎng)用戶每日平均使用時(shí)長(zhǎng)為6小時(shí)58分,其中視頻瀏覽3小時(shí)20分,社交媒體使用時(shí)間2小時(shí)27分。上述數(shù)據(jù)每年都在增長(zhǎng)。個(gè)體時(shí)間大量消耗在網(wǎng)絡(luò)數(shù)據(jù)平臺(tái),這種無(wú)意識(shí)的時(shí)間貢獻(xiàn)不利于個(gè)體的發(fā)展乃至群體的進(jìn)步。從人類歷史長(zhǎng)河來(lái)看,人工智能的快速發(fā)展離不開(kāi)其對(duì)人類文明積累的大量數(shù)據(jù)財(cái)富的無(wú)償使用。比如,谷歌翻譯系統(tǒng)為了訓(xùn)練人工智能,它會(huì)尋找人類歷史上已經(jīng)翻譯的各種書籍和文件,而谷歌公司并沒(méi)有對(duì)這些歷史性資源支付費(fèi)用。人工智能對(duì)人類歷史資源的無(wú)限度開(kāi)發(fā)產(chǎn)生的所有利益更多是被人工智能平臺(tái)所占據(jù),這對(duì)于歷史資源的創(chuàng)造主體而言顯然是不公正的。最終對(duì)歷史時(shí)間的掠奪和對(duì)當(dāng)前時(shí)間的壓榨不斷促成對(duì)未來(lái)社會(huì)發(fā)展分配的不公正。

四、認(rèn)知公正風(fēng)險(xiǎn):虛擬與現(xiàn)實(shí)結(jié)合的社會(huì)與“認(rèn)知?jiǎng)儕Z”

作為人類主體性的基礎(chǔ),理性認(rèn)知一直與公正問(wèn)題密切關(guān)聯(lián)。“認(rèn)知活動(dòng)是人類社會(huì)生活的重要內(nèi)容,人類社會(huì)的發(fā)展以及實(shí)踐活動(dòng)的進(jìn)行很大程度上依靠知識(shí)的創(chuàng)造、傳遞與積累?!卑谆萑?、高宇航:《認(rèn)知非正義的概念邊界》,《自然辯證法研究》,2022年第5期。而“認(rèn)知不公正(Epistemic Injustice)”是指在某種認(rèn)知壓迫下,特定群體被排斥在認(rèn)知活動(dòng)之外,成為認(rèn)知弱勢(shì)群體,甚至認(rèn)知身份被剝奪。Fricker M., Epistemic Injustice: Power and the Ethics of Knowing, Oxford: Oxford University Press,2007,p.4.在傳統(tǒng)社會(huì),認(rèn)知不公正的演化是緩慢的、間接的,往往經(jīng)由長(zhǎng)時(shí)間差異化的教育、文化、群體認(rèn)知、社會(huì)交往等形成。人工智能的發(fā)展加速了認(rèn)知不公正的發(fā)展。當(dāng)前,人們的認(rèn)知越來(lái)越依賴互聯(lián)網(wǎng)絡(luò),廣泛進(jìn)行數(shù)字化的“虛擬”生產(chǎn)、生活和社會(huì)交往。傳統(tǒng)真實(shí)的、完整的、親密的認(rèn)知模式被數(shù)字技術(shù)解構(gòu)與重構(gòu),虛擬的、碎片的、疏離的數(shù)字化認(rèn)知開(kāi)始成為人類認(rèn)知的組成部分。虛擬化的加速發(fā)展打破了人類認(rèn)知中的理性和自主性,人與環(huán)境的失調(diào)導(dǎo)致新型社會(huì)不公正的滋生。

其一,“理性認(rèn)知?jiǎng)儕Z”的社會(huì)認(rèn)知公正風(fēng)險(xiǎn)。在人工智能技術(shù)的幫助下,海量的文字、圖片、視頻被制造出來(lái),人們可以以一種“低耗能”的新的數(shù)字化的腦回路掃描、搜索、快速滾動(dòng)、上下滑動(dòng)等方式快速地瀏覽信息。這種替代性的閱讀方式正在與傳統(tǒng)深度閱讀過(guò)程中的腦回路展開(kāi)競(jìng)爭(zhēng),人類越來(lái)越習(xí)慣于碎片化、直覺(jué)化、即時(shí)化的思考和認(rèn)知方式,尤其是成長(zhǎng)發(fā)育期的青少年。脫離現(xiàn)實(shí)社交的網(wǎng)絡(luò)虛擬社交通過(guò)基于用戶喜好的算法為青少年大量“投喂”不受自己控制的虛擬社交關(guān)系,使其在極端快樂(lè)和沮喪的情緒中不斷切換,并導(dǎo)致焦慮、抑郁、孤獨(dú)、注意力缺陷、多動(dòng)障礙等癥狀,極大傷害青少年的理性思考和正確認(rèn)知。Dubicka B., Martin J. and Firth J.,“Screen Time, Social Media and Developing Brains: A Cause for Good or Corrupting Young Minds?”, Child and Adolescent Mental Health, vol.24,no.3(2019), pp.203-204. 如果不加以科學(xué)合理的規(guī)制,長(zhǎng)此以往,深度和理性的思考將屬于少數(shù)人,越來(lái)越多的人會(huì)淪為認(rèn)知弱勢(shì)群體。

其二,“自控能力剝奪”的社會(huì)認(rèn)知公正風(fēng)險(xiǎn)。對(duì)人類認(rèn)知最直接、破壞力最強(qiáng)的剝奪形式是“成癮”。有研究發(fā)現(xiàn)基于人工智能創(chuàng)造的電子產(chǎn)品具有類似毒品的效果,Berthon P., Pitt L. and Campbell C.,“Addictive Devices: A Public Policy Analysis of Sources and Solutions to Digital Addiction”,Journal of Public Policy & Marketing, vol.38,no.4 (2019),pp.451-468.如很多軟件中設(shè)置的“向下滑動(dòng)”功能與拉動(dòng)老虎機(jī)杠桿的動(dòng)作十分類似,其模擬了老虎機(jī)上的間歇性獎(jiǎng)勵(lì)模式,而以老虎機(jī)為代表的賭博是《精神疾病診斷與統(tǒng)計(jì)手冊(cè)(第五版)》(DSM-5)目前唯一確認(rèn)到的行為成癮。當(dāng)前,虛擬現(xiàn)實(shí)(VR)和增強(qiáng)現(xiàn)實(shí)(AR)等技術(shù)的發(fā)展,為完全虛擬的“元宇宙”的發(fā)展創(chuàng)造了技術(shù)基礎(chǔ)。人工智能技術(shù)與“元宇宙”技術(shù)相結(jié)合,可以利用快速反饋、未知驚喜、視覺(jué)占據(jù)等方式向特定主體定向“投喂”其希望接受的信息,以此對(duì)大腦神經(jīng)進(jìn)行不間斷的刺激,構(gòu)建多巴胺回路的反饋機(jī)制,使人們享受體內(nèi)激素帶來(lái)的愉悅而無(wú)法自控。當(dāng)人類視覺(jué)、聽(tīng)覺(jué)、味覺(jué)、觸覺(jué)等感官都被電子設(shè)備占據(jù),任何現(xiàn)實(shí)世界中無(wú)法實(shí)現(xiàn)的夢(mèng)想都可以在虛擬世界輕易滿足時(shí),很少有人能夠自我控制,抗拒這種精心針對(duì)人類認(rèn)知設(shè)計(jì)的“毒品”。尤其是當(dāng)人工智能技術(shù)帶來(lái)上文述及的大規(guī)模失業(yè)問(wèn)題時(shí),成癮性問(wèn)題將會(huì)更加難以控制。

其三,“自主選擇剝奪”的社會(huì)認(rèn)知公正風(fēng)險(xiǎn)。人工智能可以基于大數(shù)據(jù)分析在特定情境下做出最優(yōu)決策。這種人工智能技術(shù)下的決策選擇在很多領(lǐng)域和場(chǎng)景中削弱了人類基于傳統(tǒng)經(jīng)驗(yàn)或范式形成的自主選擇權(quán)。更有甚者,不當(dāng)?shù)娜斯ぶ悄芗夹g(shù)可以編造虛假信息,并通過(guò)虛假引用和反復(fù)引用等方式嵌入到人類的認(rèn)知體系,進(jìn)而干擾人類的自主選擇。有研究指出,以ChatGPT為代表的大型通用語(yǔ)言模型在法律、政策、財(cái)經(jīng)甚至醫(yī)療等專業(yè)領(lǐng)域的回答中大量編造并不存在的參考文獻(xiàn),并提供拼接的虛假信息。Thorp H. H., “ChatGPT is Fun, But Not an Author”, Science, vol.379, no.6630 (2023), p.313.這些形真實(shí)假的信息對(duì)于非專業(yè)人士而言很難辨認(rèn),并有很大概率被當(dāng)成正確信息嵌入至人類認(rèn)知中?!白灾鬟x擇權(quán)剝奪”的影響也會(huì)進(jìn)一步蔓延至事關(guān)公共利益的政治選擇,如著名的“劍橋分析”丑聞。Hu M., “Cambridge Analyticas Black Box”, Big Data & Society, ?vol.7, no.2(2020),pp.1-6. 另外,“自主選擇權(quán)剝奪”還表現(xiàn)為占據(jù)“公共理性”。《自然·通信》雜志發(fā)表的一篇基于跨越數(shù)十年的多領(lǐng)域的縱向數(shù)據(jù)集表明:針對(duì)公眾認(rèn)知,特定主體可以利用人工智能技術(shù)在短時(shí)間內(nèi)制造大量的特定內(nèi)容,通過(guò)無(wú)差別覆蓋的方式填滿公眾的認(rèn)知過(guò)程,導(dǎo)致單個(gè)主題的社會(huì)關(guān)注時(shí)間持續(xù)縮短。Lorenz-Spreen P. et al., “Accelerating Dynamics of Collective Attention”, Nature communications, vol.10, no.1(2019), pp.1-9.在這種人工塑造的加速節(jié)奏中,公眾無(wú)法選擇議題,也無(wú)法就任何重要公共議題進(jìn)行長(zhǎng)時(shí)間、有效的討論。占社會(huì)大多數(shù)的公眾作為一個(gè)整體被排斥在認(rèn)知活動(dòng)之外,公共理性也因此被消解。

五、發(fā)展公正風(fēng)險(xiǎn):矛盾主體虛化的社會(huì)與“公正停滯”

傳統(tǒng)的發(fā)展公正問(wèn)題默認(rèn)探討的場(chǎng)域是在人類社會(huì)內(nèi)部個(gè)體或者群體圍繞某種“資源”的平等或者公平問(wèn)題展開(kāi)。人工智能的發(fā)展使得“獨(dú)立”于人類現(xiàn)實(shí)社會(huì)的“虛擬社會(huì)”加速形成,從結(jié)構(gòu)上改變了公正探討的場(chǎng)域。人類社會(huì)希望依靠“虛擬社會(huì)”提升生產(chǎn)效率和拓展生存方式;而人工智能社會(huì)需要來(lái)自現(xiàn)實(shí)社會(huì)的能源、數(shù)據(jù)和其他資源。在當(dāng)前有限能源的約束下,虛擬社會(huì)對(duì)于能源以及由此衍生出的其他資源的占用,必然會(huì)擠占現(xiàn)實(shí)社會(huì)發(fā)展所需要的資源。尤其是當(dāng)虛擬社會(huì)無(wú)法兌現(xiàn)對(duì)于現(xiàn)實(shí)社會(huì)的發(fā)展承諾時(shí),兩者之間的“發(fā)展公正”風(fēng)險(xiǎn)便成為人類必須直面的問(wèn)題。

首先,是人工智能與人類社會(huì)“能量爭(zhēng)奪”導(dǎo)致的發(fā)展不公正風(fēng)險(xiǎn)。迄今為止人類文明所有的發(fā)展都基于對(duì)能量的開(kāi)發(fā)和利用。瓦茨拉夫·斯米爾:《能量與文明》,李竹譯,九州出版社2021年版,第2頁(yè)。從采集植物和狩獵動(dòng)物獲得能量的原始社會(huì),到種植作物和利用畜力獲得能量的農(nóng)業(yè)革命,再到大規(guī)模開(kāi)采利用化石燃料獲得能量的工業(yè)革命,人類文明的每一次飛躍都與能量開(kāi)發(fā)規(guī)模與效率的大幅提升密切相關(guān)。在可控核聚變還難以實(shí)現(xiàn)的背景下,以人工智能為代表的新工業(yè)革命并沒(méi)有實(shí)現(xiàn)能量利用方式的革命性發(fā)展。由太陽(yáng)能量長(zhǎng)期貯存而形成的化石能源和太陽(yáng)能量斷續(xù)收集而形成的“新能源”仍然是人工智能社會(huì)的主要能量來(lái)源。而人工智能是典型的能量密集型的產(chǎn)業(yè),其訓(xùn)練、推理、存儲(chǔ)、演化以及附屬的物聯(lián)網(wǎng)和其他硬件的運(yùn)行均需要消耗巨大的能量。由于現(xiàn)階段的人工智能主要建立在不斷增加變量的“暴力計(jì)算”基礎(chǔ)之上,加之計(jì)算機(jī)硬件逐漸逼近摩爾定律的極限,人工智能的能耗在未來(lái)可能會(huì)呈現(xiàn)出幾何級(jí)增長(zhǎng),而人類社會(huì)能量的總量又不會(huì)在短時(shí)間內(nèi)大幅增加。這種矛盾化的發(fā)展局面可能導(dǎo)致人工智能與人類社會(huì)競(jìng)爭(zhēng)能源的情況:人工智能的發(fā)展速度越快,其所占有的能量比例就越高,而人類現(xiàn)實(shí)社會(huì)占用的比例就越少。人工智能與人類社會(huì)“能量爭(zhēng)奪”又會(huì)傳導(dǎo)至人類社會(huì)內(nèi)部,激化本來(lái)就已經(jīng)存在的發(fā)達(dá)國(guó)家和發(fā)展中國(guó)家、城市與鄉(xiāng)村、富人與窮人以及不同行業(yè)之間的能量分配不公正問(wèn)題。

其次,是人工智能與人類社會(huì)“權(quán)責(zé)失衡”導(dǎo)致的發(fā)展不公正風(fēng)險(xiǎn)。雖然不同文明在不同歷史階段闡釋和實(shí)踐的權(quán)責(zé)體系并不相同,但是人類文明的基本共識(shí)是:如果特定社會(huì)主體享有的權(quán)利大于其承擔(dān)的責(zé)任,那么這種社會(huì)類型則被認(rèn)為是不公正的和需要進(jìn)行改造的。張賢明:《政治責(zé)任的邏輯與實(shí)現(xiàn)》,《政治學(xué)研究》,2003年第4期。在傳統(tǒng)的人類社會(huì),權(quán)責(zé)體系中的漏洞和缺陷往往是具象的、可感知的,因此對(duì)其批判和改造亦有明確的訴求和目標(biāo)。隨著人工智能社會(huì)的加速形成,傳統(tǒng)的權(quán)責(zé)體系開(kāi)始被解構(gòu)。在人工智能社會(huì),權(quán)責(zé)體系是虛擬的、流動(dòng)的,難以被清晰地感知、量化和判定,不僅人工智能的擁有者、操控者、使用者等身份很難清晰地界定,而且人工智能本身是否應(yīng)該以及如何承擔(dān)主體責(zé)任也是棘手難題。人工智能在占有大量資源的同時(shí)難以讓其承擔(dān)與之對(duì)等的責(zé)任,甚至被作為免除責(zé)任或者推諉責(zé)任的工具。例如,針對(duì)人工智能領(lǐng)域的侵權(quán)、傷害和其他責(zé)任案件頻發(fā),歐盟計(jì)劃于2023年3月底通過(guò)《人工智能法案》。從現(xiàn)在的情況看,這一法案的出臺(tái)仍然遙遙無(wú)期。注:截至2023年4月22日,該法案仍未出臺(tái)。當(dāng)下對(duì)于人工智能的定義就有50多種,更遑論“高風(fēng)險(xiǎn)” 的定義、合規(guī)責(zé)任的分擔(dān)、監(jiān)督權(quán)力的分配、實(shí)施機(jī)構(gòu)的設(shè)置等一系列無(wú)法調(diào)和的難題。金玲:《全球首部人工智能立法:創(chuàng)新和規(guī)范之間的艱難平衡》,《人民論壇》,2022年第4期。何況,即使通過(guò)了對(duì)于人工智能的立法,這些法律也無(wú)法真正穿透虛擬與現(xiàn)實(shí)之間的模糊但又難以逾越的界限。

最后,是人類社會(huì)對(duì)人工智能的“消極反抗”導(dǎo)致的發(fā)展不公正風(fēng)險(xiǎn)。面對(duì)社會(huì)不公正問(wèn)題,除了漸進(jìn)的改良和改革,革命是實(shí)現(xiàn)社會(huì)公正的決定性環(huán)節(jié),“是被壓迫者和被剝削者的盛大節(jié)日”《列寧選集》第1卷,人民出版社2012年版,第616頁(yè)。。根據(jù)馬克思主義基本理論,革命的發(fā)生需要具備三個(gè)重要條件:一是生存困境;二是人民群眾的革命覺(jué)悟;三是革命組織和革命理論。《列寧選集》第4卷,人民出版社2012年版,第193頁(yè)。人工智能社會(huì)在很大程度上削弱了革命發(fā)生的所有條件:人工智能社會(huì)是高度不平等但相對(duì)富裕的社會(huì),大部分人不會(huì)面臨傳統(tǒng)社會(huì)因?yàn)轲囸I或者寒冷導(dǎo)致的生存困境;人工智能作為虛擬與現(xiàn)實(shí)結(jié)合的社會(huì),大量沉迷于虛擬世界的民眾并沒(méi)有堅(jiān)定的革命意識(shí)和犧牲精神;責(zé)任主體虛擬化的社會(huì)使得社會(huì)性批判和改革缺乏有效的目標(biāo)和工具。當(dāng)然,沒(méi)有革命并不意味著沒(méi)有反抗,人工智能社會(huì)已經(jīng)呈現(xiàn)出“消極化”的趨勢(shì),其最典型的方式就是“躺平”。大量的群體出現(xiàn)不工作、不消費(fèi)、不納稅、不遠(yuǎn)行、不交往、不生育、不沖突、不抗?fàn)幍认麡O行為,如日本的“低欲望社會(huì)”、美國(guó)的“歸巢族”(Boomerang Kids)、英國(guó)的“尼特族”(NEET,Not in Education,Employment or Training)。這種消極現(xiàn)象在全球范圍內(nèi)迅速蔓延,這一群體在歐盟15-29歲人群中平均占比超過(guò)13%,而意大利的比例則高達(dá)231%。Eurostat,“Statistics on Young People Neither in Employment Nor in Education or Training”,May 26, 2022,https://ec.europa.eu/eurostat/statistics-explained/index.php?title=Statistics_on_young_people_neither_in_employment_nor_in_education_or_training.人工智能帶來(lái)的很可能是一個(gè)“無(wú)革命”的社會(huì),不公正的社會(huì)關(guān)系難以被摧毀,這可能是人工智能社會(huì)存在的最大公正風(fēng)險(xiǎn)。

六、結(jié)論與討論

人工智能導(dǎo)致的“失業(yè)陷阱”“無(wú)隱私社會(huì)”“算法黑箱”“魯棒性鴻溝”等社會(huì)風(fēng)險(xiǎn)都根源于人工智能社會(huì)的不公正。概括來(lái)看,未來(lái)人工智能的社會(huì)公正風(fēng)險(xiǎn)可能主要包括:從“生產(chǎn)公正”角度看,勞動(dòng)者從歷史的主體地位退化為從屬地位并永久固化。從“分配公正”角度看,人工智能社會(huì)物質(zhì)產(chǎn)品總量會(huì)更加豐富,但分配差距很可能達(dá)到歷史的頂點(diǎn)。從“認(rèn)知公正”角度看,人工智能社會(huì)的虛擬空間深刻嵌入物理空間,可能會(huì)使大部分群體被排除在理性認(rèn)知之外。從“發(fā)展公正”角度看,人工智能社會(huì)可能會(huì)過(guò)度汲取人類社會(huì)資源而不承擔(dān)相應(yīng)責(zé)任,并進(jìn)一步導(dǎo)致人類社會(huì)追求公正的動(dòng)力逐步弱化。通過(guò)初窺人工智能社會(huì)公正風(fēng)險(xiǎn)的一角,可以發(fā)現(xiàn)其癥結(jié)所在,并為風(fēng)險(xiǎn)防范提供了基本思路。

其一,導(dǎo)致人工智能社會(huì)“公正風(fēng)險(xiǎn)”的核心矛盾在于當(dāng)今世界資源有限性與人類和人工智能需求無(wú)限性之間的矛盾??陀^而言,與約一萬(wàn)年前的農(nóng)業(yè)革命以及二百多年前的工業(yè)革命相比,以人工智能技術(shù)為代表的“第四次工業(yè)革命”并沒(méi)有實(shí)現(xiàn)能源利用、生產(chǎn)方式和生存場(chǎng)域的實(shí)質(zhì)性拓展。在資源總量有限性的約束下,很可能導(dǎo)致文中提及的人工智能與人類爭(zhēng)奪勞動(dòng)機(jī)會(huì)、生產(chǎn)成果、認(rèn)知資源和發(fā)展機(jī)會(huì)等的“公正風(fēng)險(xiǎn)”。因此,化解人工智能社會(huì)公正風(fēng)險(xiǎn)的關(guān)鍵在于以下幾點(diǎn):首先,大力推進(jìn)在能量探測(cè)、開(kāi)發(fā)、收集、存儲(chǔ)、轉(zhuǎn)換等領(lǐng)域的人工智能技術(shù),增加能源的總量和能源的使用效率,提升人工智能時(shí)代能源約束的上限;其次,主動(dòng)利用人工智能技術(shù)拓展人類生產(chǎn)和生活的場(chǎng)域,比如對(duì)荒漠、海洋、太空等空間的大規(guī)模開(kāi)發(fā)和利用,通過(guò)外向型發(fā)展避免人工智能社會(huì)的“內(nèi)卷”;再次,將能效作為人工智能技術(shù)發(fā)展的重要約束,避免單方面追求模型規(guī)模和精度導(dǎo)致的能量過(guò)度消耗;最后,在通過(guò)人工智能技術(shù)降低人類社會(huì)能耗的同時(shí),合理劃定人工智能消耗能量占全部能量的比重,保證人類社會(huì)發(fā)展所需要的基本能量。

其二,激發(fā)人工智能社會(huì)“公正風(fēng)險(xiǎn)”的核心誘因在于人類社會(huì)本身固有的社會(huì)不公正問(wèn)題。在強(qiáng)人工智能尚未出現(xiàn)的當(dāng)下,弱人工智能的工具性大于其自主性。人工智能導(dǎo)致的社會(huì)公正風(fēng)險(xiǎn)更多是對(duì)現(xiàn)有社會(huì)公正問(wèn)題的映射和放大。因此,化解人工智能社會(huì)“公正風(fēng)險(xiǎn)”的關(guān)鍵在于解決傳統(tǒng)社會(huì)中的不公正問(wèn)題,尤其要解決在生產(chǎn)資料占有、生產(chǎn)成果分配、認(rèn)知能力發(fā)展等方面在時(shí)間、空間和數(shù)量上的不公正。具體而言:從生產(chǎn)公正角度看,應(yīng)該利用人工智能的發(fā)展成果不斷提升勞動(dòng)者的素質(zhì)和能力,使勞動(dòng)者能夠主動(dòng)駕馭人工智能技術(shù),實(shí)現(xiàn)人工智能與人類勞動(dòng)者的共同成長(zhǎng);從分配公正角度看,應(yīng)該明確人類個(gè)體和集體產(chǎn)生數(shù)據(jù)的生產(chǎn)資料屬性,使行為數(shù)據(jù)、情感數(shù)據(jù)、歷史數(shù)據(jù)、空間數(shù)據(jù)等參與到分配過(guò)程之中,通過(guò)數(shù)據(jù)“轉(zhuǎn)移支付”的方式對(duì)于人工智能社會(huì)的弱勢(shì)主體和空間進(jìn)行補(bǔ)償;從認(rèn)知公正角度看,應(yīng)該通過(guò)教育方式提升個(gè)體的理性認(rèn)知水平,同時(shí)加強(qiáng)對(duì)人工智能技術(shù)在宣傳、傳播、科研、娛樂(lè)等領(lǐng)域應(yīng)用的監(jiān)管,及時(shí)化解人工智能對(duì)于理性認(rèn)知的破壞隱患,及時(shí)清理虛假和錯(cuò)誤的信息,及時(shí)制止部分主體利用人工智能技術(shù)誤導(dǎo)公共認(rèn)知的不法行為;從發(fā)展公正角度看,應(yīng)該強(qiáng)化人工智能的公共屬性,推動(dòng)不同類別人工智能成為其發(fā)揮作用領(lǐng)域的公共產(chǎn)品,避免復(fù)雜利益結(jié)構(gòu)導(dǎo)致的權(quán)責(zé)失衡。

其三,降低人工智能社會(huì)“公正風(fēng)險(xiǎn)”的核心障礙在于現(xiàn)有治理手段難以直接作用于人工智能領(lǐng)域的責(zé)任主體。人工智能技術(shù)與傳統(tǒng)技術(shù)的區(qū)別在于,其運(yùn)行過(guò)程中存在難以穿透的算法黑箱、過(guò)程黑箱和決策黑箱。受益者可以躲在人工智能技術(shù)的黑箱中,以“技術(shù)中立”“技術(shù)責(zé)任”的名義在享有超額收益的同時(shí)規(guī)避應(yīng)當(dāng)承擔(dān)的公共責(zé)任和法律責(zé)任。其實(shí),相對(duì)于人工智能不斷利用算法增加變量的邏輯,人類獨(dú)有的能力是對(duì)紛繁復(fù)雜關(guān)系的簡(jiǎn)化。穿透人工智能的責(zé)任黑箱,一方面需要應(yīng)用最新的技術(shù)手段,另一方面更應(yīng)該回到人類社會(huì)的主體和發(fā)展目的,即人的發(fā)展。人工智能社會(huì)的公正需要尊重人的主體地位,以人民的各項(xiàng)權(quán)利界定人工智能及其開(kāi)發(fā)者和應(yīng)用者的責(zé)任,以人的全面發(fā)展劃定人工智能發(fā)展的邊界,以人的全面自由解放確立人工智能技術(shù)的發(fā)展方向。

(責(zé)任編輯:游 姣)

猜你喜歡
人工智能
我校新增“人工智能”本科專業(yè)
用“小AI”解決人工智能的“大”煩惱
汽車零部件(2020年3期)2020-03-27 05:30:20
當(dāng)人工智能遇見(jiàn)再制造
2019:人工智能
商界(2019年12期)2019-01-03 06:59:05
AI人工智能解疑答問(wèn)
人工智能與就業(yè)
基于人工智能的電力系統(tǒng)自動(dòng)化控制
人工智能,來(lái)了
數(shù)讀人工智能
小康(2017年16期)2017-06-07 09:00:59
人工智能來(lái)了
松滋市| 阜康市| 广宗县| 昌宁县| 肇庆市| 柳林县| 久治县| 新泰市| 手机| 遂平县| 军事| 讷河市| 北海市| 安岳县| 麦盖提县| 平湖市| 汉川市| 怀远县| 繁昌县| 邯郸市| 马关县| 咸宁市| 铁岭市| 临洮县| 胶州市| 马边| 翁源县| 兰西县| 怀安县| 贵定县| 攀枝花市| 灵川县| 肥乡县| 夹江县| 边坝县| 嘉兴市| 开平市| 高州市| 商丘市| 井研县| 西华县|