国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能與社會控制

2020-02-27 03:36任劍濤
人文雜志 2020年1期
關鍵詞:人工智能

任劍濤

內容提要 人工智能,已經廣泛運用于技術領域的人力替代工作,同時開始運用于社會控制。社會是一個復雜系統(tǒng),社會成員對社會體制存在順從或反抗的選擇。因此,社會是需要控制的。人工智能為有效的社會控制提供了強有力的技術手段。人工智能對日常社會信息的收集、甄別、篩選與使用,為常態(tài)下的社會控制提供了人類智能所不及的便利,保障了社會控制的高效率。但人工智能并不能保證社會控制無條件奏效。基于常態(tài)的社會控制,人工智能可以發(fā)揮重要作用。但在社會控制失效、社會動蕩和社會暴亂等社會失常的情況下,人工智能也對社會控制無能為力。對持續(xù)有效的社會控制而言,保證社會常態(tài),杜絕社會失常,建構良序社會,是人類智能與人工智能交互作用,發(fā)揮社會控制效用的首要前提。

關鍵詞 人工智能 社會控制 社會失常

〔中圖分類號〕 TP18 〔文獻標識碼〕A 〔文章編號〕0447-662X(2020)01-0033-12

人類對人工智能( AI)的強烈期待,一方面是將人類從繁重的體力勞動中解放出來,另一方面是解決人類智能的不及而對人的發(fā)展發(fā)揮助力作用。但這些期待落實于社會進程中的時候,總是與社會控制( social

controls)緊密聯(lián)系在一起的。因為迅速發(fā)展的先進技術,一旦與既定社會秩序不相吻合,必然會造成兩種不合預期的后果:要么社會利用相關技術,維護社會秩序,讓技術成為社會重構的工具;要么運用技術失當,技術顛覆社會秩序,而讓社會陷入紊亂狀態(tài)。如何使人工智能這樣的技術與社會發(fā)展、適當的社會控制吻合起來,便成為人們思考迅猛演進的人工智能與社會發(fā)展關系的一個重要切口。當下的社會控制,愈來愈依賴人工智能。但社會控制不能單純仰賴人工智能。社會控制的有效性依賴于社會成員與社會機制的積極互動,也就是人類智能與人工智能的恰切互動。一旦社會控制超出社會的承受程度,再怎么先進的人工智能也無法對一個失常社會加以管控。唯有成功建構一個良序社會,才能保證人工智能在社會控制中發(fā)揮人類預期的作用。

一、社會控制及其智能化

社會的構成是復雜的,因此,為了保證社會的基本秩序,社會需要進行控制。人們習慣于在從簡單到復雜的演進線索上看待社會的構成狀態(tài),這樣的看法并不是針對社會構成復雜性的古今一致性而言的,而是針對復雜性程度高低而言的。相對于單個人、原初組織形態(tài)家庭,社會的構成本身一直就是復雜的。尤其是政治社會或國家出現以后,社會構成的復雜程度陡然升高??梢哉f,社會構成就其存在形態(tài)來講,歷來就是復雜的;但社會構成在認知上的復雜性程度,則具有很大差異。尤其是在古今維度上看,更是如此。在古代社會中,人們對社會作為復雜存在的感知與認識,明顯是有限的。這與古代社會存在大量尚待展開的社會因素有關,也與人們認知社會的理論積累薄弱相聯(lián)系。隨著社會要素自身內涵的漸次展開,以及人類自我認知的理論積累的逐漸厚實,社會復雜性的認知也就達到一個相應的高度。

社會的復雜性,以及建立在復雜性基礎上的社會穩(wěn)定性,從三個方面直接表現出來:一是需要建構良好的社會價值基礎。價值偏好是人各相異的,群體之間的價值立場也有很大差異。因此,當社會需要建構良好價值基礎的時候,如何協(xié)調個人、群體與社會之間的價值關系,就成為一項困擾人類的恒久事務。二是需要建構有序運作的社會制度體系。這一體系包含政治、經濟、法律、文化、教育、技術等等內容,這些社會要素相互間的制度安排及其適配性如何,決定了社會是否能夠順暢運轉。三是需要建構社會日常生活世界的秩序。人的日常生活,一般不外油鹽醬醋、衣食住行。但試圖滿足社會成員對此的日常需要,則不是一件容易的事情。它既需要成員之間的自發(fā)協(xié)調,也需要日常社會建制意義上的良風美俗,這是一個社會在日常生活世界長期磨合才能生長出來的底層秩序。如果一個社會確立了適宜的價值基礎、建構了有效維護秩序的種種社會制度、確立了日常生活世界的良好秩序,那么,這個社會就是一個實現了善治的社會。反之,就是一個讓人處在驚恐不安、無以安心生活,更不可能追求卓越的失序和無序狀態(tài)之中的社會。面對這兩種判然有別的社會狀態(tài),人們當然需要去精心設想、努力建構和全力維護一種有利于社會善治的秩序機制。這就使一種值得期待的社會控制機制成為必須。失去有效的社會控制,社會就會滑入失序或無序狀態(tài),這不能不讓人警醒。

可見,社會控制是與社會的結構特征內在聯(lián)系在一起的。由于社會成員之間在生存與發(fā)展上實際存在著巨大差異,為了獲得各自所需要的資源而展開的爭奪勢不可免。建構必要的社會、政治、法律秩序,有助于將這類爭奪引導到一個有序而為的狀態(tài)。否則,全無秩序的資源爭奪,必然對一個社會建制的存續(xù)發(fā)生顛覆性作用。就此而言,社會控制就是一個建構與維護秩序、破壞與顛覆秩序的邊際界限的駕馭問題。“社會系統(tǒng)不能認為是完善整合的和自動自我調節(jié)的。在任何社會系統(tǒng)中,都將會有相互沖突的社會力量的操作,并呈現辯證的發(fā)展。不同的行動者和階級以不同程度和不同性質的方式關聯(lián)于不協(xié)調的發(fā)展。這些由于制度設置的發(fā)展和操作影響產生的敵對行動者可能社會地表達他們的不利條件和被剝奪性,例如利用福利或平等(或其他的思想根據)的規(guī)范和價值觀念。他們也可能被組織(或能夠主動地組織,特別在民主社會)和動員起來采取社會行動改變制度設置或者至少其中(從他們的觀點看)不合理的性質。這些活動常常把他們引進同那些利益和職責關聯(lián)于系統(tǒng)再生產的人們的沖突之中。即沖突的發(fā)生涉及制度的維持(再生產)與制度的重建和可能的改革要求的對抗。因此這樣的沖突能夠干擾或阻止再生產過程,肇始社會改革的階段?!边@是基于社會是一個宏大系統(tǒng),因此必須對構成這一宏大系統(tǒng)的各個子系統(tǒng)加以調節(jié)和適當控制,否則社會這個宏大系統(tǒng)就難以順暢運轉,就有陷入混亂狀態(tài)的危險。

社會控制的直接目的是為了維護既定的社會系統(tǒng)。但既定的社會系統(tǒng),肯定會將社會成員區(qū)隔為這一系統(tǒng)的明顯受益者,相對收益者、明顯受損者與相對受損者兩大部分,這兩部分人群在認同既定社會系統(tǒng)或社會秩序的自我感覺與行為決斷上具有顯著差異:前者是維護既定社會系統(tǒng)的力量,尤其是明顯受益者構成現存社會系統(tǒng)的堅定維護者;后者是不滿既定社會系統(tǒng)的集群,尤其是明顯受損者構成了現存社會系統(tǒng)的堅定破壞與顛覆者?;诖耍鐣W給出一種基于防范破壞既定社會規(guī)則人群的狹義社會控制理念。破壞既定社會規(guī)則,也就是破壞既定的社會控制秩序。按照程度來分,輕者成為人們眼中的越軌者,重者便成為觸犯法律的犯罪分子。顯然,為了維護社會秩序、社會規(guī)則,必須對這兩類人進行有效的社會控制。針對越軌和犯罪的狹義社會控制,具有兩種基本形式:一是內在社會控制( in-temal social controls),二是外在社會控制(extemal social controls)。就前者言,它寄望于個人對群體或社會規(guī)范的認同。一旦社會規(guī)范內化成功,一個人就會在有人或無人監(jiān)視的情況下自覺自愿并且持續(xù)不斷地守規(guī)。這對社會控制來講,自然是最值得期待的結果。內在社會控制主要依賴于價值觀念的塑造和內化。它對社會大多數人來講,是觀念與行動受控的主要途徑;對越軌的防止和犯罪的改造來講,也是最為深沉的內化動力。就后者論,主要依賴于社會制裁手段。這些制裁可以分為非正式的社會控制機制與正式的社會控制機制兩類。前一方面主要呈現為個人所在群體的不贊成到群體的拒絕,以及身體懲罰;后一方面則主要呈現為專司社會控制之責的組織與職位的控制方式。如警官、法官、監(jiān)獄看守、律師,以及立法官、社會工作者、教師、神職人員、精神病醫(yī)師和醫(yī)生,就是實施這類控制權的人格載體。這主要是針對越軌者、犯法人士與犯罪分子設計的社會控制機制。這類社會控制的目的,“旨在防止越軌并鼓勵遵從”。

在既定的整體社會系統(tǒng)中,國家權力體系是維護這一系統(tǒng)、旨在捍衛(wèi)現存社會秩序的核心力量。在社會控制系統(tǒng)中,國家權力總是想方設法讓社會中維護既定系統(tǒng)的力量受到鼓勵,而全力使社會中破壞與顛覆既定系統(tǒng)的力量受到強力抑制。同時,國家權力也致力激活社會中那些樂意或愿意維護既定系統(tǒng)的各種能量,讓社會成員和社會組織一起來同心合力延續(xù)既定社會系統(tǒng)。因此,國家會傾力設計行之有效的廣義的社會控制系統(tǒng),同時也會耗費不菲資源設計并實施狹義的社會控制體系,以期在社會宏觀結構與實際運行建制上構造出有利維護社會秩序的社會控制機制。

在國家控制社會、社會自我控制的進程中,逐漸形成了社會控制的實際體系。在構成形態(tài)上,社會控制體系長期呈現為主要依賴人類智能,引入控制技術手段的受限形式。這是技術革命爆發(fā)以前的基本狀態(tài)。但對技術手段的設計與借重,一直是社會控制系統(tǒng)的顯著特點。相關的技術手段呈現出從粗糙、稀少到精細、繁多的發(fā)展趨勢。在古代社會,社會控制基本上依賴人類智能的完成,這是受政治社會或國家建構能夠得到的技術支持手段與技術發(fā)展水平決定的情形。當其時,政治社會的運行受宗教、政治、軍事、法律等手段的支持,即可有效運行。但社會控制中對技術的低度引入是必須的。因為即便是古代社會的控制體系,也不可能完全依靠人力來完成,利用足以延伸人力強度與技巧的技術方式,就成為有效控制社會的必然。譬如通訊上驛站的設置、軍事上烽火的引入、社會上密諜的設立等等。隨著技術在現代社會的迅猛發(fā)展,技術被廣泛引入社會活動領域,社會控制的技術水平明顯提高。在機械技術時代,社會控制領域大量借助機械制造物以改善人力不及的、處理繁重管理事務的技藝。在自動化技術時代,社會控制領域更是普遍借助各種自動化技術手段處置社會控制事宜。如今人類邁進人工智能技術突飛猛進發(fā)展的時代,社會控制借助種種人工智能技術,進入一個人類智能似乎有所不及的新階段。

社會控制的智能化,是社會控制與技術系統(tǒng)緊密結合的必然結果。所謂社會控制智能化,一方面是指社會控制設計與運作過程中對人工智能的引入。譬如交通控制智能化水平的大為提高,大大緩解了人類智能直接設計交通控制系統(tǒng)時交通繁忙情況與控制能力低下的矛盾。在電腦模擬設計交通控制系統(tǒng)的條件下,交通疏導的效果得到顯著改善。而人臉識別的啟用,將長期得不到偵破的刑事案件一舉破獲,人所周知的北大學生弒母案主角、作案后消失三年之久的吳謝宇,就是機場人臉識別系統(tǒng)捕捉到他的行蹤的。數起殺人搶劫嫌疑犯、作案后逃亡達20年之久的勞榮枝則是經由大數據分析現形的。另一方面,社會控制智能化則是指人工智能系統(tǒng)直接作為社會控制系統(tǒng)發(fā)揮作用,一般不再需要借助人類智能與人類體能發(fā)揮直接控制作用、維持社會秩序。譬如當今中國較具規(guī)模的城市社會中,日益發(fā)揮重要的社會控制效用的天眼系統(tǒng)?!啊煅蹟底诌h程監(jiān)控系統(tǒng)通過企業(yè)內部互聯(lián)網(intranet)和國際互聯(lián)網(internet)實現遠程視頻監(jiān)控,主要適合于連鎖店、幼兒園、家居、工廠、公安消防、銀行、軍事設施、高速公路、商場、酒店、旅游景點、小區(qū)、醫(yī)院、監(jiān)獄、碼頭港口等地?!雹谶B通幾乎所有公私場所的“天眼”,就其直接的數據收集而言,勿需人力資源,就可以對這些場所的社會秩序發(fā)揮保障功能??梢姡斯ぶ悄芟到y(tǒng)在社會控制的各個領域已經開始發(fā)揮廣泛而直接的作用。

二、社會控制前提與智能化致效

社會控制盡管已經發(fā)展到智能化的階段,但社會控制如何真正奏效,還是一個需要深入探析的問題。一方面,需要理性確認的一點是,社會控制并不是封閉自足的事務,它依賴于種種先設條件。這些條件包括:社會的建構是否公正,社會資源的占有與分配是否公平,社會活動主體之間的關系是否相對融洽,社會變革的渠道是否暢通,社會控制的目的是否是為了保護成員權利等等。另一方面,社會控制總是在社會既定系統(tǒng)足以自我維持的情況下,才有希望實現維護既定社會體系的目標。社會控制的效用需要扼住兩個端點——一是社會的僵死局面,一是社會的結構崩潰——進而在兩端之間展開社會愿意接受的控制過程,并在這一基點上使用可加利用的各種價值引導、制度安排和技術手段。再一方面,社會控制不是國家權力單方面的強加,而是構成廣義上的國家各個方面的力量,如國家權力方面、市場組織方面與社會公眾方面共同展開的控制互動。構成一個社會的諸要素之間,必須就此處在一個相對均衡的態(tài)勢中,任何一方都不能占據絕對控制優(yōu)勢,以至于對其他各個方面實施一種控制威懾,并據此獨占社會受到有效控制情況下的一切好處——如政治穩(wěn)定情況下的權力、市場順暢運轉情形下的獲利、社會井然有序情況下的禮贊等等。

僅從控制的直接視角看,社會控制得以實施的前提是“社會”接受控制。這不是同義反復的說辭?!吧鐣苯邮芸刂疲枰獜膬蓚€視角得到理解:一個視角就是加上引號的那個具有特殊含義的“社會”。這個“社會”是與國家相對而言的建制,是一個公民個體將加入政治共同體必須交付的權力給予國家以后,保留下來的特殊空間。生命、財產與自由是“社會”中活動著的公民個體不可褫奪的基本人權,他們的隱私不受侵犯,他們享受憲法和國家賦予的一切合法權利,他們保有國家提供生存發(fā)展資源并享有公平對待的兜底福利。就此而言,私權的公共維護與公權的私人限制相對而在,不可偏廢。與國家權力的以法治理相比較,“社會”的依法自治是其特點。在國家權力發(fā)揮社會控制作用的時候,其控制的目的旨在保護“社會”,讓一個受到保護、因此保有理性精神且秩序良好的“社會”與國家權力積極互動,從而有力維護現存社會系統(tǒng)??梢?,國家的社會控制目的不是扼制、擠壓或扼殺“社會”,恰其是培育、激活和扶持“社會”。

另一個視角則是“控制”。這里的“控制”,是一個中性詞,而不是貶義詞。作為中性詞的控制,是指因勢利導,讓社會在一些管控舉措下生成自生自發(fā)秩序,并由此形成更有利于社會安寧和諧與持續(xù)發(fā)展的擴展秩序。作為貶義詞的控制,則是指國家權力以高壓手段約束和強控社會,讓社會全無抵抗能力、博弈能力與自治能力,只能臣服于權力的強制方式。就此而言,中性化的社會控制,便是能夠發(fā)揮良好的社會作用的控制機制:一方面是因為社會意識到相應的控制機制對社會是有利的,即有利于維護社會秩序,有利于保障社會成員的安全,有助于社會成員尋求發(fā)展,讓社會處于一個安寧有序、未來可期的狀態(tài)。因此,“社會”愿意接受“控制”。另一方面是因為社會意識到相應的控制機制是人們可以忍耐的。社會控制無疑會觸及社會成員的隱私,當人們認為被觸及的隱私不影響正常生活的時候,他們對之是可以接受的;一旦人們認為自己的生活曝光于天下,自己成為一個全無秘密的行為體的時候,他們的忍耐程度就會下降,并且在心中郁積不滿。假如社會出現一定程度的動蕩,這種不滿就會讓人付諸行為,促成顛覆社會秩序的從眾行動——其循序呈現為守規(guī)的社會運動到破壞性的社會運動多種形式。因此,控制“社會”必須嚴格把握可控的范圍,而不至于越界而為,觸發(fā)與社會控制初衷相反的、破壞與顛覆社會秩序的結果。

人工智能廣泛用于社會控制,是社會控制技術飛躍性發(fā)展的結果。社會控制的智能化,會收到人們此前意想不到的控制效果。在社會控制可能發(fā)揮作用的三個領域,即價值引導、制度建構與生活塑造三個領域中,其一,在價值世界里,軟性的價值引導、也即是對人們的內在心靈世界的引導,僅從目前人工智能技術來講,還顯得有些無能為力。因為,人工智能還無法對人的內心世界發(fā)揮管控作用,除非人腦神經科學有了全面和實質的突破,人工智能才可能在這一領域發(fā)揮作用。但硬性的價值引導,人工智能已經能夠發(fā)揮人類智能難以發(fā)揮的作用。所謂硬性的價值引導,指的是經過全面的技術監(jiān)控,讓人信守規(guī)矩、不耽于胡思亂想,從而在社會主流價值體系面前循規(guī)蹈矩。這就是前述的社會內化控制方式可能達到的效果。這對社會秩序的維持來說,已經凸顯了一個不同于人力控制的、采取人工智能控制的完全不同往昔的結果。

其二,在社會制度設置及其守持上,人工智能已經發(fā)揮出重要的作用。僅就前述“天眼”所及的領域來看,它在維護社會基本秩序上的作用,已經大大彌補了人類智能與體能的不足,而發(fā)揮出全天候、不停歇、無傷害、無失誤的守護規(guī)則、維護秩序的作用。再如連鎖店的監(jiān)控明顯強化了顧客的守規(guī),大大減少了偷盜行為。幼兒園的監(jiān)控明顯有助于杜絕教師的不合規(guī)行為,保護了兒童受到周全照顧的權益。家居中的監(jiān)控對財產、人身安全發(fā)揮了積極作用,降低了人室偷竊或其他不合規(guī)則行為的幾率。工廠的監(jiān)控不僅監(jiān)督偷懶工人,促使工人合規(guī)工作,懲戒不合規(guī)行為的員工,而且有利于保護合規(guī)或積極工作的工人的權益。公安消防監(jiān)控有利于防火安全、消防滅火。銀行監(jiān)控有助于保護客戶利益、保證雇員合規(guī)作業(yè)。軍事設施監(jiān)控有利于保證提高軍事安全水平、保障國家安全。高速公路監(jiān)控促使人們合規(guī)駕駛、減少交通事故,提升交通事故處置速率。余此類推??梢越Y論性地講,人工智能引入社會控制,確實可以發(fā)揮維護社會秩序的正面作用。至于在懲罰違法犯罪上發(fā)揮的積極作用,近期案例前已論及,不再贅述。

其三,在生活世界的秩序制定與維護上,人工智能也已經發(fā)揮了有力維護日常秩序的作用。由于人工智能監(jiān)控體系的運作,在日常生活的公共空間中,人們深知自己的一言一行都受到監(jiān)督,因此會對公共空間的規(guī)則保有高度的警覺。在這種情況下,人們會在全方位、高技術的“他律”環(huán)境中,謹言慎行,從而形成一種至少在形式上合規(guī)、以至于秩序井然的公共空間行為態(tài)勢。相對于沒有監(jiān)控的公共空間而言,人們處在于一種自然、放松的狀態(tài)中,可能在生活細節(jié)上更自我縱容,容易逾越公共規(guī)則的邊界,帶給他人以不便,造成公共規(guī)則的松弛,帶來一些雖無重大傷害但卻無益良風美俗的不利后果。

盡管人工智能對社會控制發(fā)揮了相當積極的作用,但它并不能直接保證社會受到全面、有效的控制——既維護社會秩序,同時也保有社會活力。原因在于,社會控制的“社會”接受狀態(tài),對社會控制效果發(fā)揮著決定性的影響。一個接受控制的“社會”,大致可以區(qū)分為三種社會存在情形:一是社會處在常態(tài)之下,公眾接受社會控制的程度最為正常。這種常態(tài)可以簡單描述為,社會處在既定社會系統(tǒng)自我維持的正常情形,沒有遭遇社會風險與危機,而且社會控制出自理性設計,旨在維護公眾利益、社會秩序和公平正義,因此公眾心悅誠服地接受一般意義上的控制,并自覺踐行相關控制規(guī)則。以此為前提,就會讓社會控制處在國家權力、社會公眾各方都滿意的狀態(tài)。可以說,社會常態(tài)是社會控制的先設條件。這是社會控制設計,也是人工智能引入社會控制的原初預期——社會常態(tài),既是社會控制的起點,也是社會控制過程的著力點,更是社會控制的目的性所在。

二是社會處在一定失序情境中,公眾接受社會控制的程度有所降低。這種情況可以區(qū)分為兩大類:一者,少數地區(qū)、一些領域,因為一些事件,導致抗拒或反對社會控制的情緒浮現。二者,不同地區(qū)、不少領域,因為相類事件,引發(fā)社會騷動,讓社會控制處于廢弛狀態(tài),并可能誘導社會公眾抵制或顛覆社會控制。部分地區(qū)與領域的社會失序不是社會無序。但由于這些地區(qū)與領域無法保持社會常態(tài),社會控制的效果會明顯下降。在這種情況下,即便是高效的人工智能控制系統(tǒng),所發(fā)揮的作用也會明顯下降,甚至在失序的部分地區(qū)與領域,顯得無效??梢哉f,失序社會讓人工智能也難有作為。譬如常態(tài)下商店的電子眼可以有效約束顧客的偷竊欲望,但在失序狀態(tài)下,不僅無法防止偷盜,甚至對公開的搶掠也無可奈何,只能聽之任之。除非國家暴力介入,除暴安良,才能恢復社會秩序。

三是社會處在嚴重失序情況下,社會拒絕接受任何控制,控制基本失效。一個社會只要不受全方位、高強度的持續(xù)擠壓,以至于無法維持常態(tài)秩序,社會是不會拒絕接受控制的。如果社會控制長期處在高壓控制之下,社會無法自我維持,失序無法自我修復,改革無法從容展開,那么,社會就會滑向一個逐漸失常、失控并最終喪失秩序的軌道。在社會動蕩、暴亂或者革命的狀態(tài)下,人們已經陷入了反對、拒斥、破壞和顛覆現存秩序的狂熱之中,既定秩序會喪失它曾經發(fā)揮的社會整合能力,曾經循途守轍的人們此時滿心期盼的是新的社會秩序。在社會動亂的情況下,技術監(jiān)控體系完全無法發(fā)揮常態(tài)下的作用,并且國家權力方面會擔憂這一體系被反抗活動的組織者與行為者所利用,甚至會關閉監(jiān)控體系,直至下重手關閉互聯(lián)網。人工智能的社會控制系統(tǒng)就此喪失它的社會效用。

可見,在社會控制的智能化時代,并不見得就降低了社會控制的難度。相反,因應于社會運轉、社會變遷與社會周期調整社會控制,做到張弛有度、理性有效,才有希望保證社會控制智能化的滿意效果。

三、駕馭風險

與所有社會控制手段一樣,人工智能的社會控制方式,是著眼于人們普遍守法狀態(tài)下的管控績效而設計出的社會控制系統(tǒng)。這樣的社會控制本身,需要經過預效性和實效性的檢驗,才能成為真正有利于維護社會秩序,激發(fā)社會活力的社會控制機制。對社會控制的人工智能機制來講,其預效性、即預期的有效性,依賴于兩個先設的條件:一是技術的有效性,二是社會接受人工智能控制的自愿性。就前者言,技術的有效性是與社會控制的適宜性內在聯(lián)系在一起的。這一適宜性,指的是與社會當下的控制需求比較一致的人工智能系統(tǒng),它在技術上足以解決人力所不及的控制需要,并且不存在明顯的技術風險,能夠保證收到人力控制所不及的預期效果。就后者論,社會自愿接受人工智能的監(jiān)控機制,是指讓社會公眾感受到這一控制機制帶給人們的好處或便利,其所必然存在的侵犯個人隱私的風險不至于赤裸表露并引起人們的普遍反感,因此愿意接受無處不在、無時不有的人工智能監(jiān)控。

就社會控制的人工智能技術來看,它有一個不斷進步的技術發(fā)展過程。換言之,一個階段上使用的人工智能控制技術,總是存在著便利性與缺陷性相形而在的特點。因此,當監(jiān)控對象適應了這一控制技術并且發(fā)現其缺陷,或者社會公眾活動方式發(fā)生了明顯的重構,那么人工智能技術就必須在相應的技術進步條件下做出改進。否則,人工智能監(jiān)控技術的有效性就會明顯下降,以至于在技術上完全失效。這不是在社會發(fā)生動蕩、失序與革命的情況下出現的技術風險,而是技術本身的發(fā)展風險。加之一種社會控制的人工智能技術本身,就存在反向的技術模仿,從而化解技術監(jiān)控的控制力道,因此不僅降低技術監(jiān)控的有效性,而且讓一項技術成為反監(jiān)控手段,甚至成為反向謀取利益的技術手段。銀行支付系統(tǒng)中使用的人臉識別,就已經被人臉的仿真制造所突破,失去了完整保證法律意義上的真實支付者利益的屏障作用,這項技術就此可能異化為侵害本應保護的合法網絡支付者利益的違法犯罪手段。

就社會控制的人工智能引入所關聯(lián)的社會公眾自愿性來講,試圖保證他們對這種無處不在、無時不有的高技術監(jiān)控心存的自愿心理,也是一個非常微妙、復雜的事情。社會心理并不是一個高度穩(wěn)態(tài)的存在。相反,社會心理的變化速率之快,常常出乎人們的意料。尤其是在一個社會心理比較敏感的現實環(huán)境中,一個牽動社會公眾的小事件,就很可能引發(fā)十分意外的社會震動、社會動蕩,乃至于引發(fā)大規(guī)模的社會暴亂。先撇開人工智能因素來看這樣的社會心態(tài)變化,就很容易為人們所理解。突尼斯2010年爆發(fā)的“茉莉花革命”,就是因為一個大學畢業(yè)生找不到工作而失業(yè),他只好上街擺水果攤,但因警察認定他無照經營,并且沒收了他的貨物,他憤而自焚。結果引發(fā)了民眾大規(guī)模的抗議,最后導致政府解體、總統(tǒng)流亡。而引人人工智能因素來看,突尼斯民眾對社交媒體推特、臉書的利用,可以說是反向利用人工智能技術的一個例證??梢姡鐣欠褡栽附邮芸刂撇⒉皇且粋€定數,而是一個變數。這個變數從接受控制的數量上的變化,可以迅速演變?yōu)榫芙^接受控制的實質性變化。因此,智能化的社會控制所依托的社會資源,是一個需要小心謹慎應對的問題。

社會的智能化控制,存在著種種需要認真面對的交錯風險。譬如運用日益廣泛的人臉識別系統(tǒng),由于并不僅僅是識別人臉,而是經由識別人臉,可以追蹤人的身份信息、行動蹤跡、人與財產、親屬匹配、社交圈子等等。由于人臉識別系統(tǒng)并不由國家統(tǒng)一監(jiān)控,各種商業(yè)機構、社會組織都廣泛使用這一系統(tǒng),公民個人信息被分散掌握在這些人與機構的手中,他們如何使用如此龐大的公民數據,就成為一個隨己所愿的事情。這樣的使用定勢,其中包含的巨大風險,不言而喻。在人臉識別系統(tǒng)的實際推廣中,安防與資本是兩大推手,政府受便捷控制個人信息的吸引,成為激勵兩大推手勇于作為的最直接且有力的推動力量。這種三手相連的局面,讓人臉識別系統(tǒng)在缺乏安全保障的情況下得到疾速推廣。其間所存在的民事與刑事風險之大,應當引起人們的高度重視。這還是在人臉識別這種人工智能社會控制技術處在國家有效掌控秩序的條件下的風險,如果國家陷入某種失序和動蕩的境地,這些智能控制得到的天量數據用于什么目的,便更是讓人驚懼了。

為了防止社會常態(tài)下的人工智能控制風險,刑法學家勞東燕明確指出,商業(yè)機構所使用的人臉識別,必須符合四個基本要求?!暗谝唬占奖仨毦拖嚓P信息與風險做明確而充分的告知,并事先征得被收集人的同意。未經被收集人的明示同意,不得將個人數據以任何形式提供給第三方(包括政府部門),或者讓第三方使用相應的數據。在涉及犯罪偵查或國家安全的場合,可例外地予以允許,但需要嚴格限定適用條件與程序。第二,收集程序應當公開,并確保所收集的數據范圍合乎應用場景的目的,未超出合理的范圍。收集方不允許超范圍地收集個人的面部數據,收集的范圍應當符合相應適用場景的目的,并以合理與必要為原則。第三,收集方在收集個人的面部生物數據之后,應當盡好保管義務。收集方應盡合理的努力,對所收集的數據妥善保管;違反保管義務,應當承擔相應的法律責任。同時,如果被收集人撤回同意,或者明確要求刪除自己的數據,收集方應當對相應數據予以刪除。第四,對人臉識別技術的應用場景,必須確保合法與合理,并避免侵入性過強的舉措。收集方在特定場景中所收集的數據,原則上不允許運用于其他的場景,除非該場景是在合理的預見范圍之內。如果擅自擴大或者改變數據的應用場景,收集方應當承擔相應的法律責任?!边@是從社會常態(tài)情境出發(fā),針對商業(yè)機構使用人臉識別技術所具風險的一種較為周全的預防設想——只要商業(yè)部門遵紀守法,只要政府管控部門循法而治,只要社會還具有正常的施壓機制,商業(yè)機構大面積違規(guī)使用人臉識別數據的可能性是不大的。即便商業(yè)機構因為主觀故意或管理不善,導致人臉識別數據的違規(guī)違法使用,那也是屬于可以有效懲治的風險。

商業(yè)機構的人臉識別之用于社會控制,其風險問題可以依賴立法機構、政府部門和社會組織的管控、干預和施壓,也許是可以成功解決的人工智能社會控制風險問題。不過,正如社會失序常常是因為旨在維護社會秩序、卻失去控制方略的國家權力方面導致的一樣,人臉識別這種社會控制手段,遠超商業(yè)機構使用風險的恰恰是國家權力部門對之的使用。對一個現代的龐大政府體制而言,政府設計時預定的對內保護、對外御敵的雙重功能,常常讓政府生發(fā)一種無處不在、無時不有、無所不能的全智全能意欲。在面對一個更為龐大且遠為復雜的“社會”時,政府的管控積極性便呈現為一種對社會領域的全面侵入性,認為只有掌握關于社會的一切信息,政府才能發(fā)揮其統(tǒng)治與治理能力,從而實現建構政府的原初目的。

政府使用人臉識別技術的風險就潛藏在這樣的積極作為理念之中。猶如前述,由于社會控制中引人人工智能,大大提高了社會管控的常態(tài)水準,因此,對激勵管控者強化這樣的管制手段,發(fā)揮了明顯的刺激作用。猶如普通人對他人的一切具有好奇心一樣,政府也對每個個體與群體的信息具有一種好奇心。因此,在公私場合安裝的種種智能型的電子設備,便成為政府傾力收集它所感興趣的一切信息的便利手段。它會利用法律賦予的權力,征用由商業(yè)機構采集的公民信息,結合政府自己用人工智能技術征集的信息,政府所擁有的公民信息,遠非一般商業(yè)公司可以比擬。一般而言,在社會常態(tài)情形中,政府部門只會在這些天量的數據中甄別對自己有用的東西,而不是將之作為全方位、高強度控制公眾的手段。政府之所以這樣做,不是因為缺乏全面甄別信息的愿望,而是因為其他幾個原因無以實施:一是因為沒有必要,二是由于成本高企,三是源于效果不彰。一旦社會有任何政府認定難以把控的風吹草動,那么政府就會提升控制社會的廣度與強度,相應對自己收集到的數據可能發(fā)揮的管控作用發(fā)生自覺。由此,政府對日常狀態(tài)下的信息智能收集和非常情形下的信息智能利用,就具有了直接貫通的動力。

因此,有效控制人臉識別之類的智能技術風險,必須重視政府行為的合法化、規(guī)范化和合理性。一方面,在政府無法有效保證人臉識別之類的社會控制技術的安全性的情況下,政府不能冒險廣泛使用和推廣相關技術。否則政府就逾越了政治共同體建構政府的底線,既不能有效保護公民權利,而且可能侵害他們在成立政府時從未交付國家行使的三類基本權利(生命、財產、自由)。倘若政府一意孤行,不顧安全地監(jiān)控公眾信息,政府事實上就等于將自己置于社會的對立面,進而將自己安置在了一個對抗社會的危險地位上。另一方面,即使政府為了公眾利益而合法、規(guī)范且合理地使用社會控制的人工智能技術,政府也必須將使用的范圍、地點、方式、手段、目的等等,明白無誤地交代給公眾。政府不能以“釣魚執(zhí)法”為目的,對公眾信息進行收集。再一方面,政府在懲治公民個體與社會組織的違法犯罪行為時,必須合法使用諸如人臉識別系統(tǒng)獲得的有關信息,而不能隨意將犯罪嫌疑人或有關證人的信息曝露出來,置證人于有害安全的危險境地,置罪犯于無法合法申辯的險境。最后,政府在使用人工智能的社會控制技術的時候,必須承諾國家與社會的邊際界限、承諾國家與公民個人之間的邊界、承諾公私領域的結構性差異,從而只是在公共授權的公共領域中使用相關監(jiān)控技術。進而從根本上保證人工智能監(jiān)控手段是一種具有嚴格限制的社會控制手段,而不是一種無孔不入的、窒息社會生機的高壓統(tǒng)治方式。

從現代社會視角看,當政府合法、合規(guī)、合理行使權力時,社會也就會處在一個安寧有序的狀態(tài)。但政府總會受內外部困境影響,間歇性出現權力痙攣,因此無法一直保持一種高效、廉潔、有序、認同的狀態(tài)。社會也會因此無法長久保持寧靜、理性、守規(guī)、積極的狀態(tài)。這就讓人們意識到,社會運行是有周期的。社會周期呈現為制定規(guī)則、權力推行、績效顯現、效用衰變、抵制出現、抗拒加劇、規(guī)則失效、社會動蕩、重構規(guī)則的不斷繼起、連續(xù)循環(huán)。當政府運行周期與社會運轉周期在良性一端疊合的時候,國家便進入人們通稱的黃金時期;當兩個周期在惡性一端疊合的時候,國家便陷入危急狀態(tài),甚至掉進崩潰陷阱。社會控制必須避免墮入后一個極端。

需要明確指出的是,人工智能確實大大提高了社會控制的績效。但愈是有效的社會控制對“社會”所具有的壓抑性,總是會讓社會必須的分享喜悅與分擔憂愁的情感受到顯著抑制。分享喜悅與分擔憂愁,是社會運行所必須的張弛結構。所謂“一張一弛之謂道”,對建構適當的社會控制機制,是極富教益的。一般而言,在社會控制的常態(tài)下,適度壓抑社會不會導致令人擔憂的負面后果。不過,社會受控長久,尤其是受人工智能的高強度控制太過持久,一直讓社會的喜怒哀樂無處發(fā)泄,讓社會情緒無法舒張,因此不斷累積著社會的緊張,這種緊張就會按照一定的周期律釋放或爆發(fā)。如果說按照周期律釋放與爆發(fā)的社會緊張,還不至于一下子導致社會失序、社會動蕩或社會暴亂的話,那么另一種社會危險就必須高度警惕,才能預防或控制:這就是對社會的高強度控制,可能并不一定按照周期爆發(fā),而是不知道在哪個時間、哪個地點、哪個事件上引爆社會危機。面對這樣的社會危機、國家危難,基于機器設計的人工智能是完全無能為力的。就此而言,防止長期的高強度管控,與防止偶然爆發(fā)的社會危機與國家危難,具有同等的重要性。

在社會常態(tài)下預防偶發(fā)性的社會危機與國家危難,需要理性設定應對社會問題的大思路:對一個國家高壓管控具有較強適應性的社會來講,人們一般都會對社會變遷節(jié)律失去敏感性。這樣的社會,好似運行在一個波瀾不驚的水平面上。人們會習慣性認定,除開少數鋌而走險的人士或人群外,社會公眾與國家權力都不必去想象其他形式的社會危機。其實,無論是國家與社會明確分流的現代機制,還是國家塑造社會而使兩者打上明顯的國家烙印的體制,都沒有避開社會周期的可能。因為社會在主體與制度的構成上,具有明顯的個體差異性、組織區(qū)隔性、制度不均衡性,它總是會出現程度不同的起伏與波動。為社會預留一個可以化解緊張、舒張壓力的空間,是讓社會周期不至于陷于危機狀態(tài)的必須。就社會能夠承受的角度看,一定要給出一個循規(guī)蹈矩的社會運動空間,而不能將社會運動看作是一頭怪獸而唯恐出現、全力撲滅。社會運動是一種高級形式的社會控制機制,給出社會運動的制度機制,既有利于釋放社會緊張,又有利于在維護既定社會機制的基礎上重整社會秩序。合法合規(guī)的社會運動與超越法規(guī)的社會動蕩是不同的。社會運動可以完全處在法律約束范圍,也可能溢出法律界限偶發(fā)地出現違法行為,但不會出現普遍的顛覆國家與社會的行為。一旦社會陷入“法不責眾”的亂局,那社會的失控就是必然出現的現象。當這種情況出現的時候,基于管控的人工智能之社會控制設計就會陷于失控狀態(tài)。面對群情洶涌的社會動亂,就是再怎么先進的人工智能社會控制系統(tǒng),對維護社會秩序也愛莫能助。

四、為良序社會整合人類智能與人工智能

社會狀態(tài)總是在常態(tài)與非常態(tài)之間運行的,社會運行的周期性由此呈現給人們:兩種狀態(tài)總會因為某些機緣出現交替,而不會一直停留在一種狀態(tài)上不出現任何變化。在人類采取種種舉措致力維護常態(tài)社會秩序的情況下,人工智能的引入,為提高維護既定社會秩序的成功率發(fā)揮了令人矚目的推進作用。但取決于人工智能總是人類智能設計出來的結構性特征,人工智能并不能代替人類智能單獨發(fā)揮有效的社會控制作用。

從目前情況來看,在總體上講,人工智能乃是明確受限的技術。它之所以受到限制,一方面是技術的原因。人工智能是仿照人類智能的技術再造,它可以在機械重復的勞動上取代人類,這從廣泛應用于工業(yè)生產活動中的智能機器手得到印證;也可以在某些智力游戲上勝過人類,這可以從Alpha Go戰(zhàn)勝人類頂尖圍棋手上得到證實;還可以在某些情感如尊重需要上表現出不弱于人類的反應,這從機器人索菲亞在人類對她顯出不尊重的時候表示不滿上得到坐實。但從總體上講,智能機器裝置的這些能力,都是遵守人類設計的既定程序做出的反應,并不是人類那樣通過大腦做出的自主反應。即便未來智能機器人可能實現高度的人機融合,機器能夠表現出某些自主反應環(huán)境的能力,展現機器自我生機的前景,其取人類而代之的可能性也不大。原因在于,人腦科學很難促成人腦復制的技術,這就是機器人終究只能是機器人,即是接受人類指令的“物”,而不是“人”的終極理由。人腦的鏡像神經元測定,可以最大限度地為人工智能的發(fā)展提供支持。但人的大腦做出反應的情感與社會機制是無法仿造的。因此也注定了高級智能機器人無法成為超越人類、并反過來控制人類的存在物。即便人工智能專家對大規(guī)模的智能殺傷性武器憂心忡忡,因此擔憂人類會不會成為人工智能的奴隸。但可以樂觀預測,這些武器也是人操作而致,最終還需要人類出手解決彼此糾紛、戰(zhàn)爭危機與生命安頓問題。

另一方面限制人工智能的是社會原因。人工智能確實在諸多領域中取人類而代之,其來勢兇猛,以至于讓人膽戰(zhàn)心驚地設想人工智能控制人類社會的可怕前景。謹慎地看,由于人工智能的發(fā)展正在急速展開,我們沒有理由貿然宣布這些擔憂屬于杞人憂天。但這種危險具有某種社會抵抗的天生可能。人類社會的組成,并不僅僅是表面上的諸種制度的捏合體,背后存在繁多而微妙的社會精微結構,并且一直在交錯發(fā)揮作用,據此支撐起人類社會的廣廈。一者,人工智能很難獨立構成社會,因此它只能成為人類社會的依附者而存在并發(fā)揮作用。二者,即便在很多領域中人工智能似乎在擠出活生生的人類社會機能,譬如最復雜微妙的男歡女愛已經可以用充氣娃娃臨時替代。但是,人工智能與人的“男”歡“女”愛畢竟是人機合作的產物,機器可以滿足人的生理需要,但很難滿足人的心理需要。至于人體的男歡女愛催生的微妙心理過程,就更是人工智能機器人所難以惟妙惟肖給予與之交歡的男女個體的。正是因為如此,專業(yè)醫(yī)生才會警告那些使用充氣娃娃的人士,其行為既不利于身體健康,也不利于心理健康。這背后讓人可以進一步探問的是,以人工智能替代男歡女愛,它對社會倫常秩序會發(fā)生何種影響?從倫理學的視角對之的思考,增加了對類似人工智能產品的社會警覺性。更為重要的是,人類社會的進取機制可以增強人類智能勝過人工智能的信心?!叭祟惖膭?chuàng)造力是無限的,如果我們的基本需求被機器人和人工智能滿足,那么我們將找出娛樂、教育和照料他人的新方式。”這種人類社會的自我突破.起碼是目前人工智能發(fā)展水平上,還難以設想的人工智能的社會控制事宜。

再一方面限制人工智能的是政治原因。無疑,就目前世界先進國家來看,各國政府是明確鼓勵發(fā)展人工智能技術的,而且在人工智能用于社會控制上,也邁出了極大的步伐。但在人工智能用于社會控制會引發(fā)某種不可預知的危機意識引導下,即便是人工智能專家,也在呼吁政府加強對人工智能技術的監(jiān)管。而政府方面也聞聲而動,展開了以行政舉措駕馭人工智能的嘗試。人工智能發(fā)展極快的美國,便有不少城市禁止使用人臉識別系統(tǒng)。理由有二:一是技術的不成熟。美國的人臉識別,由于膚色差異,對白種人和黑種人的識別成功率差別很大(據報道,針對黑人女性的錯誤率高達21%~35%,針對白人男性的錯誤率則低于1%),并且出現將國會議員識別為犯罪分子的荒唐事情。二則與一個國家的人文傳統(tǒng)相關。在那些具有反對政府權力過于集中,對商業(yè)(科技)巨頭壟斷保有警覺的文化傳統(tǒng)中,抵制人工智能的社會控制應用是自覺而強烈的;在那些各黨派間政治和選戰(zhàn)博弈的政治社會中,各種復雜的因素牽扯其中,政客(通過選舉獲得權力的人群)與官僚(經由文官制度在政府部門供職的人士),都會不約而同對人工智能的社會控制機制抱有警惕。因此城市當局拒絕使用人臉識別這種社會控制技術,就是可以理解的事情。

就這兩者在全球范圍的普遍反映情況看,一方面,技術永遠都不會成熟到對人類不帶來任何負面影響的地步,這既是技術進步的動力,也是人類必須規(guī)范技術發(fā)展的緣由。有必要對任何技術、哪怕是極為先進的技術保持警覺,對之的使用進行全過程的技術設防。因為越是先進的技術,越是具有潛在的更大風險。尤其是模仿人類智能的人工智能,又是用于社會控制的目的,對之失去警惕,很有可能對人類自身造成難以估量的負面影響。另一方面,從人文傳統(tǒng)上講,即便一個社會有對權力和利益的社會紛爭保持警惕的傳統(tǒng),而另一個社會則沒有,但對兩種社會來講,沒有任何理由對權力和技術無條件繳械投降。在現代社會,權力總是在不同執(zhí)掌者之間轉移的。因此,對今天的執(zhí)掌者有利的社會控制技術,可能對后來的執(zhí)掌者就會顯得不利;對這個執(zhí)掌者有利的社會控制技術,對另一個執(zhí)掌者可能就會是不利的。因此,即便站在權力方面設想,也不能過于貪圖一種技術的便利,而喪失對技術進行適當控制的意愿。尤其是像天眼監(jiān)控系統(tǒng),讓人人曝露在監(jiān)控體系之下,這對執(zhí)掌權力的人來說,也絕對是一柄雙刃劍。至于在利益的社會政治紛爭中,不同個體與群體之間相互善意或惡意利用監(jiān)控數據來維護自身利益、或明或暗攻擊對手,那也是超越不同政體形式的普遍現象。念及于此,對可能失控的監(jiān)控技術,大家也就可以達成必須加以規(guī)范和約束的共識。

在STS(science/technology/society)即“科學、技術與社會”的研究傳統(tǒng)中,研究者一向很看重科學研究、技術創(chuàng)新與社會發(fā)展之間的關聯(lián)性,并且在三者的相關性中審查科技成果及其應用對社會可能造成的影響。無疑,人工智能技術構成當下STS的重大主題。而當人工智能技術應用于社會控制的時候,就更是必須在科學、技術與社會的邊際關系上嚴格審查這一技術對社會帶來的巨大影響,以及由此可能產生的種種社會與倫理風險。從一般意義上講,“科技無遠弗屆的影響力與重要性,使得一般人在生活中不只時時接受其影響,有時也需要面對特定科技所帶來的社會后果、經濟代價與倫理抉擇,而必須在深思熟慮后采取立場?!睆娜斯ぶ悄艿慕嵌瓤?,由于這一技術的迅猛發(fā)展,以及由此負載的人類對這一技術的強烈期待,今日世界已經形成了關于人工智能的技術樂觀主義氛圍。為此,需要在STS的視角,強化人們對技術風險和社會責任的認知,從而提升該技術的社會應用可靠性。從人工智能應用于社會控制的特定視角看,天眼監(jiān)控體系之類的社會控制方式的人工智能化,給政府部門帶來管控社會以極大的便利。因此,權力部門僅看當下便利的特性讓他們很難慮及其社會風險,很可能因此在滅罪行動中制造一些冤案,讓公民個人的隱私毫無保障,讓國家治理被提供人工智能監(jiān)控服務的商業(yè)公司操控。這對國家治理明顯是不利的。因此也需要在科學、技術的社會責任角度加以嚴格審查,并設計和實施相關的社會政治、法律規(guī)則的約束機制。

在STS的視野中,三個緊密關聯(lián)的視角給人們以重要提示:一是科學研究與技術創(chuàng)新本身的專家研究及其責任意識問題,必須避免專家傲慢帶來的科技風險;二是科學技術的社會應用必須慮及社會風險,并對社會風險進行有效管控,從而讓科學技術造福社會,盡最大可能避免對社會造成傷害;三是對急于利用科技便利的社會進行理性引導,避免急功近利地將不成熟的技術推向社會公眾,并因此給社會帶來不可預估的負面影響。就此三者而言,從分別的角度看,做到已屬不易;在關聯(lián)的角度看,做起來就更為困難。就前一種情況而言,三方面都具有失控的風險——人臉識別的犯錯,已經構成這一系統(tǒng)明顯的技術缺陷;而應用人臉識別系統(tǒng)的商業(yè)機構與政府部門,對之有很高的期待,因此不遺余力地加以推廣,結果賦予它很難承受的社會政治功能;社會公眾對之的可有可無,對之侵害隱私的擔憂,對無處不在、無時不有的監(jiān)控的反感所存在的抵觸心理與破壞情緒,沒有得到應有重視,因之而構成難以預估的社會風險。尤其值得重視的是社會公眾對技術的反應機制。因為從總體上講,社會失常的偶然性,不是基于社會常態(tài)設計的人工智能管控機制所可以預期的。假設人工智能的技術是完善的,但對這一技術監(jiān)控的社會來講,則是動態(tài)運行的。因此不可能是完善的、甚至可能是不能預期的。譬如2019年智利大動蕩的直接肇因,僅是因為公共交通上調四美分價格。這是一個微不足道的價格變化,但卻引起了智利的普遍暴亂,社會陷入嚴重的失序狀態(tài)。從深入分析的角度看,智利暴亂確實有其前因后果。但人們很難設想四美分會引發(fā)如此巨大規(guī)模的社會暴亂。這是社會情況的復雜多變、難以把握的一個典型反映。

從三者關聯(lián)的視角看,像人臉識別這樣的社會控制技術體系,存在著交錯而在的風險性:既包含人臉識別的技術精準度問題,也包含技術應用的社會政治意圖上的無所不能期待,更包含社會公眾對這項技術監(jiān)控的接受與反感的微妙心理變化。因此,當人工智能用于整個社會的監(jiān)控時,三者之間關系能否順暢開合,會對它發(fā)揮的社會控制效果發(fā)生決定性影響。而其中令社會控制的國家主體難以把握的,不是技術問題,而是社會問題。當社會風險增高,社會出現諸如智利、伊朗、委內瑞拉、玻利維亞等國的動蕩和暴亂時,人工智能不僅完全無法發(fā)揮社會控制作用,而且因為掌權者擔憂人工智能被抗議者、反叛者反向利用,甚至會關閉整個網絡。這時,即便具有最先進、最可靠、最有效的人工智能社會控制技術,也無法發(fā)揮任何期待中的控制社會的實際作用。

從這個特定的角度講,社會控制絕對不能單純依賴人工智能技術。不寧唯是,何時、何地以何種方式引入人工智能社會控制技術,在何種期待下、以多大范圍和強度使用人工智能的控制技術,都需要人類智能來決定。因為在社會控制方面,只有人類智能才能夠準確把握戰(zhàn)略布局、時勢針對、舉措調適、因勢利導、因果關系、接受程度、危機處置、開關系統(tǒng)等等關乎社會控制的重大決策。以誘導社會、激活社會為共在目的的社會控制,更多依賴的是人類智能,而不是人工智能。為此,以良序社會(well-or-dered society)的建構為目標,有效整合人類智能與人工智能,讓社會控制進入一個良性軌道,便成為處置人工智能與社會控制關系的基本指南。

良序社會,是一個建立在公平正義基礎上的社會。“一個社會,當它不僅旨在推進它的成員的利益,而且也有效地受著一種公共的正義觀調節(jié)時,它就是一個良序(well-ordered)的社會。亦即,它是一個這樣的社會,在那里:(1)每個人都接受、也知道別人接受同樣的正義原則;(2)基本的社會制度普遍地滿足、也普遍為人所知地滿足這些原則。在這種情況下,盡管人們可能相互提出過分的要求,他們總還承認一種共同的觀點,他們的要求可以按這種觀點來裁定。如果說人們對自己利益的愛好使他們必然相互提防,那么他們共同的正義感又使牢固的合作成為可能。在目標互異的個人中間,一種共有的正義觀建立起公民友誼紐帶,對正義的普遍欲望限制著對其它目標的追逐。我們可以認為,一種公共的正義觀構成了一個良序的人類聯(lián)合體的基本憲章。”簡而言之,良序社會是值得期待的現實社會形態(tài),它建立在差異性合作的基礎上,穩(wěn)定在共同正義觀的基石上,受到公民友誼紐帶的強有力維系。這樣的社會,顯然不是任何受程序指引的人工智能所能夠直接設計出來并加以有效維護的社會形式。這樣的社會,只有依靠人類智能才能建構,也只有依賴人類智能才能維續(xù)。但人工智能提供的某些技術性支撐,可以在具體事務上極大優(yōu)化人類對社會控制實際事務的處置。人工智能對人類智能的補充作用值得重視,對人類體能的有效替代值得禮贊。就此而言,以良序社會建構為目的,整合人類智能與人工智能,便成為高階的社會控制的一個上佳出路。

責任編輯:王曉潔

猜你喜歡
人工智能
人工智能AI
人工智能
人工智能之父
2019:人工智能
人工智能
人工智能與就業(yè)
China’s Artificial Intelligence Revolution
數讀人工智能
人工智能時代,就業(yè)何去何從
下一幕,人工智能!
民和| 鞍山市| 额敏县| 黔南| 新疆| 凯里市| 通江县| 即墨市| 迁西县| 宁阳县| 房山区| 晋江市| 封丘县| 美姑县| 延边| 蒙自县| 墨竹工卡县| 六安市| 龙游县| 榆树市| 鄂伦春自治旗| 随州市| 郸城县| 通州市| 鸡西市| 河北省| 教育| 库车县| 开封县| 祁连县| 清丰县| 昆明市| 乌兰浩特市| 若尔盖县| 平阳县| 安岳县| 介休市| 汶上县| 巧家县| 兴文县| 珠海市|