馬克·麥卡錫
大約在公元前1200年,中國(guó)商朝就已經(jīng)有工廠系統(tǒng)制造成千上萬件青銅器用于日常和祭祀用途。在這個(gè)早期大生產(chǎn)的例子中,青銅鑄造工藝需要錯(cuò)綜復(fù)雜的規(guī)劃和大批工人間的協(xié)調(diào),這些工人以精準(zhǔn)的順序,各自完成單獨(dú)的任務(wù)。
一千年后,類似的復(fù)雜工藝也被用于制造著名的秦始皇兵馬俑,這些雕像“用奠定大生產(chǎn)和商業(yè)基礎(chǔ)的流水線生產(chǎn)系統(tǒng)制造”。
一些學(xué)者猜測(cè),這些早期規(guī)范工作(prescriptive-work)技術(shù)的形式對(duì)中國(guó)社會(huì)的形成起到了非常重要的作用。它們與其他因素一起,讓人們接受了強(qiáng)調(diào)層級(jí)的官僚制度社會(huì)哲學(xué),也讓人們相信凡事都有簡(jiǎn)單的正確方法。
當(dāng)工業(yè)化工廠在十九世紀(jì)的歐洲誕生時(shí),就連恩格爾這樣的資本主義的堅(jiān)定批評(píng)者也承認(rèn),不管經(jīng)濟(jì)制度是資本主義還是社會(huì)主義,大生產(chǎn)是中央集權(quán)的必要條件。在二十世紀(jì),蘭登·維納(Langdon Winner)等理論家將這一思路延伸到技術(shù)中。他認(rèn)為,(比如)原子彈應(yīng)該被視為“固有政治產(chǎn)物”,因?yàn)樗摹爸旅鼘傩砸笏鼞?yīng)由集中化的剛性命令層級(jí)鏈來控制。”
如今,我們可以將這一思路延伸到更遠(yuǎn)??紤]一下機(jī)器學(xué)習(xí)算法—這是當(dāng)今所運(yùn)用的最重要的通用技術(shù)。
機(jī)器學(xué)習(xí)算法的一個(gè)關(guān)鍵特征是它們的表現(xiàn)會(huì)隨著數(shù)據(jù)的增加而改進(jìn)。因此,使用這些算法就形成了一種技術(shù)動(dòng)力,將關(guān)于人的信息處理為可記錄、可調(diào)用的數(shù)據(jù)。就像大生產(chǎn)系統(tǒng)一樣,它們具有“固有政治性”(inherently political),因?yàn)樗鼈兊暮诵墓δ芤竽承┥鐣?huì)行為、阻礙其他社會(huì)行為。特別是,機(jī)器學(xué)習(xí)散發(fā)與個(gè)體的隱私渴望直接對(duì)立。
一個(gè)基于關(guān)于個(gè)別社會(huì)成員信息的公開易得性的系統(tǒng)似乎契合社會(huì)學(xué)家阿米泰·艾奇奧尼(Amitai Etzioni)等社會(huì)主義者(communitarians),他們認(rèn)為對(duì)隱私的限制是執(zhí)行社會(huì)規(guī)范的手段。但和社會(huì)主義者不同,算法不關(guān)心社會(huì)規(guī)范。它們只關(guān)注更好地做出預(yù)測(cè),而這可以通過將越來越多的人類生活領(lǐng)域轉(zhuǎn)化為可挖掘的數(shù)據(jù)集來實(shí)現(xiàn)。
算法評(píng)估并非新鮮事。奧斯卡·甘迪(Oscar H. Gandy)等學(xué)者就警告說,我們正在轉(zhuǎn)變?yōu)橐粋€(gè)記錄和排名的社會(huì),并要求更多問責(zé)以矯正技術(shù)導(dǎo)致的錯(cuò)誤。但和現(xiàn)代機(jī)器學(xué)習(xí)算法不同,舊的評(píng)估工具可以理解得相當(dāng)透徹。它們基于相關(guān)的規(guī)范性和實(shí)證性因子做出決定。比如,背負(fù)許多信用卡債務(wù)有損一個(gè)人的信譽(yù),這早已不是什么秘密。
相反,新機(jī)器學(xué)習(xí)技術(shù)深挖大型數(shù)據(jù)集,能尋找到那些可預(yù)測(cè)的但沒有被充分理解的事物之間的關(guān)聯(lián)性。在職場(chǎng)中,算法能夠跟蹤員工的對(duì)話、他們?cè)谀睦锍晕顼?、在電腦、電話或會(huì)議上上花了多少時(shí)間等。有了這些數(shù)據(jù),算法就能開發(fā)遠(yuǎn)遠(yuǎn)超過我們常識(shí)直覺的復(fù)雜的生產(chǎn)率模型。在一個(gè)算法精英體系中,模型要求什么,什么就成為出色的標(biāo)準(zhǔn)。
盡管如此,技術(shù)并非宿命。我們?cè)诩夹g(shù)決定我們之前決定技術(shù)。商業(yè)領(lǐng)袖和決策者可以根據(jù)他們的機(jī)構(gòu)需要開發(fā)和部署技術(shù)。我們有能力在人類生活的敏感區(qū)域周圍布置一張隱私網(wǎng),保護(hù)人們免受傷害性數(shù)據(jù)用途的影響,并要求算法在預(yù)測(cè)的準(zhǔn)確性和公平、問責(zé)和透明度等價(jià)值觀之間進(jìn)行平衡。
但在我們遵循自然算法邏輯流之前,更精英化是不可避免的。這一變化將深遠(yuǎn)影響到我們的民主制度和政治結(jié)構(gòu)。如果當(dāng)前的商業(yè)和消費(fèi)者文化持續(xù)下去,我們很快就會(huì)有更多與賢能政治和社會(huì)主義傳統(tǒng)相似之處,而不是我們自身的個(gè)人主義和自由民主傳統(tǒng)相近的東西。如果我們想要改變趨勢(shì),就必須將我們自身的政治責(zé)任置于技術(shù)之前。