我們正生活在一個“普通”勞動者技能與前沿科技所需的各項能力之間鴻溝不斷拉大的世界里?!凹寄懿罹唷奔觿×私?jīng)濟不平等狀況以及人們的不安全感,最終導致了政治上的兩極分化—三者都是我們這個時代的標志性問題。
傳統(tǒng)的應對方式,是提供更多更好的教育。然而,這是一種令人感覺有點不對勁的單方面補救措施。邏輯上消除個人技能與科技之間鴻溝的方式有兩種:要么透過增加教育以適應新技術(shù)的需求,要么讓創(chuàng)新朝著可以匹配當前(以及未來)勞動者技能的方向重新定向。
第二種策略在眾多政策討論中幾乎鮮有提及,但卻是更明確也可能更有效的。正如我的哈佛同事里卡多·豪斯曼指出的那樣,需要我們?yōu)橹畡?chuàng)造就業(yè)機會的是現(xiàn)有的勞動者,而不是我們腦中希望擁有的勞動者。
而這一盲點的出現(xiàn),其實是某種科技拜物教的產(chǎn)物。這種觀點將創(chuàng)新視為一種遵循其自身規(guī)律行事的外在性力量,而忽視了創(chuàng)新其實在很大程度上被價值觀(通常是未闡明的)和激勵機制驅(qū)動。
一方面,政府在塑造技術(shù)格局的過程中幾乎無處不在。發(fā)達經(jīng)濟體所使用的策略包括研發(fā)補貼、基礎(chǔ)科學研究基金、專利規(guī)則、貸款擔保,集群發(fā)展政策以及政府對前沿技術(shù)的直接支持。所有這些政策,都令競爭環(huán)境出現(xiàn)了某種傾斜并最終決定了會出現(xiàn)哪類創(chuàng)新。
以自動駕駛汽車背后的技術(shù)為例:在美國,國防部下屬的國防高等研究計劃局在2000年代發(fā)起了面向創(chuàng)新者的系列競賽,并以此推動了這一領(lǐng)域的創(chuàng)新。其目的本身是軍事性的,就是設法減少戰(zhàn)場上的人員傷亡。
而其他政策也會無意間對技術(shù)變革的方向產(chǎn)生影響。正如麻省理工學院教授達倫·阿斯莫格魯所言,稅收政策通常會通過鼓勵自動化來扭曲創(chuàng)新激勵措施,使之走向勞動者的對立面。企業(yè)在部署機器人時可以獲得稅收減免,但在創(chuàng)造額外體面就業(yè)時卻一無所得,實際上創(chuàng)造就業(yè)還要被收稅,用機器反而還能拿補貼。
與其使用機器去代替那些半熟練或非熟練工種,社會可以推動創(chuàng)新去專門增加普通工人能夠執(zhí)行的任務。這可以通過多種新技術(shù)去實現(xiàn):要么令勞動者可以完成從前必須由更多技術(shù)人員執(zhí)行的工作,要么使現(xiàn)有員工隊伍能夠提供更專業(yè)的定制化服務。
第一類技術(shù)的例子,是使護士能夠執(zhí)行醫(yī)生的診治流程或由工匠來承擔工程師任務的人工智能系統(tǒng)。后一種類型的案例,則是使教師能夠根據(jù)不同學生學習能力和需求量身定制課程的技術(shù)。
而社會對那些有益于普通民眾的創(chuàng)新投資不足的根本原因,則與權(quán)力的分配有關(guān)??茖W和技術(shù)旨在提供答案和解決問題,但是哪些問題會被提出和解決,其實取決于誰更有發(fā)言權(quán)。
例如,推廣上述醫(yī)療技術(shù)所遭遇的某些限制,正是源自醫(yī)生將資質(zhì)較低的醫(yī)務人員排除在高難度任務之外的權(quán)力。而當一些谷歌員工開始抱怨并團結(jié)起來反對開發(fā)一些他們認為不道德的人工智能系統(tǒng)(專門用于移民控制或間諜活動)時,該公司采取了壓制手段并解雇了一些在企業(yè)內(nèi)部帶頭抗議的人。
在追求創(chuàng)新的過程中,應當體現(xiàn)一定的價值觀。比如,國內(nèi)法規(guī)通常限制在動物和人類身上進行實驗。那么,為何不將其擴展到技術(shù)對勞動力市場的影響上呢?通過監(jiān)管或其他方式,我們的創(chuàng)新體系必須顧及新技術(shù)對就業(yè)質(zhì)量和數(shù)量的影響。
技術(shù)變革并不存在一個所謂的自身方向,而是由道德框架、激勵機制和權(quán)力所塑造。如果我們能更多地考慮如何引導創(chuàng)新為社會服務,那就可以更少地憂慮該如何適應它。
本文由Project Syndicate授權(quán)《南風窗》獨家刊發(fā)中文版。丹尼·羅德里克,哈佛大學肯尼迪政府學院國際政治經(jīng)濟學教授,著有《貿(mào)易直言:對健全世界經(jīng)濟的思考》。