賈開 薛瀾
哈佛大學(xué)法學(xué)院教授勞倫斯·萊辛格在1999年和2006年連續(xù)出版兩本以“代碼(Code)”為名的專著,并提出了“代碼即法律(Code is Law)”的著名論斷。萊辛格的核心觀點(diǎn)是,“代碼”構(gòu)成了網(wǎng)絡(luò)空間的新“規(guī)則”,但不同于物理空間,此時(shí)的規(guī)則制定權(quán)卻從立法者手中轉(zhuǎn)移到了商業(yè)公司。萊辛格擔(dān)憂,商業(yè)公司的逐利性可能影響“代碼”作為網(wǎng)絡(luò)空間規(guī)則的公共性,并因此要求政府約束商業(yè)公司行為,對(duì)代碼的設(shè)計(jì)、部署、應(yīng)用過程及結(jié)果施加影響。
萊辛格的主張可被視為21世紀(jì)初“算法治理”的典型代表,但從隨后的歷史發(fā)展進(jìn)程來看,此種主張并未成為主流。彼時(shí)各國(guó)為促進(jìn)互聯(lián)網(wǎng)新興產(chǎn)業(yè)的發(fā)展,主要采取了自由寬松的規(guī)制態(tài)度,并沒有過多干涉技術(shù)創(chuàng)新和應(yīng)用。相比之下,“算法治理”在當(dāng)前卻獲得了包括政府、商業(yè)公司、社會(huì)公眾在內(nèi)的各類主體的普遍重視,針對(duì)算法歧視、算法“黑箱”、算法責(zé)任、算法“繭房”等諸多問題的治理規(guī)則也在各個(gè)國(guó)家得到了不同程度的落實(shí)。算法治理不再局限于學(xué)者提出的理念,而正在轉(zhuǎn)變?yōu)榫唧w的法律政策或倫理原則。
在這短短二十余年里,人們對(duì)于“算法治理”態(tài)度的轉(zhuǎn)變,一方面可被理解為技術(shù)發(fā)展與應(yīng)用深化的自然結(jié)果,是互聯(lián)網(wǎng)由早期弱小產(chǎn)業(yè)逐漸成長(zhǎng)為網(wǎng)絡(luò)空間龐大生態(tài)后人類社會(huì)的必然應(yīng)對(duì)。另一方面,第四次工業(yè)革命推動(dòng)下的算法應(yīng)用,真正體現(xiàn)了其作為影響人類生產(chǎn)、生活重要“規(guī)則”的變革性,從而使得算法治理具有了不同于歷史上任何一次技術(shù)革命的新特點(diǎn)。
歷史上的三次工業(yè)革命都是以標(biāo)志性技術(shù)突破為代表,并被視為推動(dòng)人類社會(huì)組織、經(jīng)濟(jì)、政治形態(tài)變革的重要力量。例如瑞士日內(nèi)瓦高級(jí)國(guó)際關(guān)系及發(fā)展研究院教授鮑德溫即認(rèn)為:蒸汽機(jī)革命降低了產(chǎn)品流通成本,從而促進(jìn)了貨物貿(mào)易的全球化;信息通信技術(shù)革命降低了知識(shí)流通的成本,從而促進(jìn)了生產(chǎn)網(wǎng)絡(luò)的全球化。相比于前三次工業(yè)革命,第四次工業(yè)革命的核心特征并不在于單個(gè)技術(shù)的突破,而在于人工智能、生物技術(shù)、可再生能源、量子技術(shù)、3D打印等一系列技術(shù)的跨界融合,并在此過程中迭代演化、迅速擴(kuò)散并引發(fā)連鎖反應(yīng)。
催生第四次工業(yè)革命到來的重要原因,可被歸結(jié)為人類社會(huì)數(shù)字化轉(zhuǎn)型進(jìn)程的深入,使得“數(shù)據(jù)驅(qū)動(dòng)”開始成為新范式,并在不同領(lǐng)域得到應(yīng)用。藥物研發(fā)、可再生能源管理、智能制造的生產(chǎn)調(diào)度,都是在不同領(lǐng)域、針對(duì)不同數(shù)據(jù)進(jìn)行收集、存儲(chǔ)、分析的人類活動(dòng)。伴隨此過程,算法作為挖掘數(shù)據(jù)價(jià)值的基本方法,其重要性也與日俱增。但第四次工業(yè)革命背景下,算法的變革性影響還不止于此。
英國(guó)著名學(xué)者邁克爾·波蘭尼曾指出,“人類知道的,遠(yuǎn)比其能表達(dá)的更多(Humans Know More than He Can Speak)”。傳統(tǒng)信息技術(shù)下,算法可被視為人類知識(shí)的表達(dá),只有能夠清楚界定的需求,才能通過算法以數(shù)字化的形式實(shí)現(xiàn)出來。第四次工業(yè)革命背景下,人工智能技術(shù)突破了波蘭尼論斷的限制,算法實(shí)現(xiàn)過程不再依賴人類知識(shí)的表達(dá)?;诖罅繑?shù)據(jù)或案例,算法可以通過自我學(xué)習(xí)自動(dòng)抽取出特定規(guī)則。由此,第四次工業(yè)革命進(jìn)一步擴(kuò)大了算法的應(yīng)用范圍,加速了人類社會(huì)數(shù)字化轉(zhuǎn)型的進(jìn)程,并凸顯了算法作為人類社會(huì)數(shù)字環(huán)境新規(guī)則的重要性。
以人臉識(shí)別算法為例。波蘭尼論斷揭示的基本現(xiàn)實(shí)是,人們往往能很輕易地識(shí)別朋友的臉龐,但并不能解釋該臉龐具有何種特征以致于我們一眼便能“識(shí)別”。正因?yàn)檫@種表達(dá)能力的限制,長(zhǎng)久以來,算法對(duì)圖像的識(shí)別正確率遠(yuǎn)遠(yuǎn)低于人類,這也使得安防、認(rèn)證等諸多場(chǎng)景的數(shù)字化轉(zhuǎn)型進(jìn)程停滯不前。但人工智能技術(shù)的發(fā)展,使得算法可以基于大量圖片進(jìn)行自我學(xué)習(xí),并抽取出相關(guān)特征,從而打破了人類表達(dá)能力的限制,實(shí)現(xiàn)了與人類相當(dāng)甚至更精準(zhǔn)的識(shí)別效果。在此基礎(chǔ)上,機(jī)場(chǎng)車站對(duì)于“黑名單”人員的篩查、金融服務(wù)過程中對(duì)于身份的認(rèn)證,這些傳統(tǒng)上均是由人來完成的工作,當(dāng)前都可通過人臉識(shí)別算法來實(shí)現(xiàn),其在加速相關(guān)場(chǎng)景數(shù)字化轉(zhuǎn)型進(jìn)程的同時(shí),也自然成為影響人類生產(chǎn)、生活活動(dòng)的重要規(guī)則。
這一變革固然將帶來諸多益處,但圍繞規(guī)則合法性、合理性、正當(dāng)性、平等性的爭(zhēng)論,也同時(shí)意味著變革風(fēng)險(xiǎn)的必然存在——而這也正是“算法治理”所要關(guān)注的要點(diǎn)。
算法治理要回應(yīng)的,是算法變革所帶來的治理風(fēng)險(xiǎn)?!八惴ㄗ鳛橐?guī)則”的獨(dú)特性決定了第四次工業(yè)革命背景下,算法所引發(fā)治理風(fēng)險(xiǎn)的挑戰(zhàn)性。具體而言,相關(guān)風(fēng)險(xiǎn)可被概括為三個(gè)方面。
歧視性風(fēng)險(xiǎn)
讓我們先從一個(gè)實(shí)例說起。亞馬遜公司曾經(jīng)在2014年開發(fā)了一套“算法篩選系統(tǒng)”來幫助亞馬遜在招聘時(shí)篩選簡(jiǎn)歷。開發(fā)小組開發(fā)出了500個(gè)模型,同時(shí)教算法識(shí)別50000個(gè)曾經(jīng)在簡(jiǎn)歷中出現(xiàn)的術(shù)語,以讓算法學(xué)習(xí)在不同能力間分配權(quán)重。但是久而久之,開發(fā)團(tuán)隊(duì)發(fā)現(xiàn)算法對(duì)男性應(yīng)聘者有著明顯的偏好,當(dāng)算法識(shí)別出“女性”相關(guān)詞匯的時(shí)候,便會(huì)給簡(jiǎn)歷相對(duì)較低的分?jǐn)?shù)。最終亞馬遜公司停止了該算法的開發(fā)和使用。但是為什么看似中立的算法會(huì)對(duì)女性產(chǎn)生歧視呢?原來,亞馬遜公司的整體員工構(gòu)成以男性為主,亞馬遜用來訓(xùn)練算法的“老師(即簡(jiǎn)歷數(shù)據(jù))”本身就帶有很強(qiáng)的性別偏差,而年幼無知的算法則只能“邯鄲學(xué)步”,從以往的簡(jiǎn)歷數(shù)據(jù)學(xué)習(xí),自然而然就學(xué)到了這個(gè)偏差。這個(gè)例子就是一個(gè)典型的算法歧視案例。
從概念上講,算法歧視的基本內(nèi)涵是指:當(dāng)將算法應(yīng)用于決策領(lǐng)域時(shí),基于群體身份特征,算法將形成具有系統(tǒng)性偏差的決策結(jié)果。典型案例比如在犯罪風(fēng)險(xiǎn)評(píng)估算法中,黑人的犯罪風(fēng)險(xiǎn)會(huì)系統(tǒng)性地高于白人;在招聘機(jī)會(huì)推薦算法中,男性獲得高薪資工作的推薦幾率顯著高于女性等。在貸款申請(qǐng)、廣告推薦、公共服務(wù)等各個(gè)領(lǐng)域,自動(dòng)化算法決策結(jié)果都可能存在對(duì)特定群體的系統(tǒng)性偏差。
造成算法歧視性風(fēng)險(xiǎn)的原因,固然有技術(shù)缺陷或人為主觀意圖的影響,但更復(fù)雜的因素還在于算法與其應(yīng)用環(huán)境相互影響的結(jié)果。以搜索引擎的排序算法為例,2013年針對(duì)谷歌的一項(xiàng)研究表明,搜索黑人名字時(shí),排在前面的搜索結(jié)果會(huì)更多地與犯罪記錄聯(lián)系在一起,而搜索白人名字時(shí)則不會(huì)出現(xiàn)這種情況(由于歷史文化傳統(tǒng)的不同,相當(dāng)數(shù)量的英文名字事實(shí)上體現(xiàn)了種族特征。例如Latanya更多對(duì)應(yīng)黑人名字,而Kristen則更多對(duì)應(yīng)白人名字)。造成排序算法這種系統(tǒng)性偏差的原因,并非源于谷歌程序員主觀性地加入了種族因素,而是因?yàn)榕判蛩惴ǖ脑瓌t是將用戶有更大幾率點(diǎn)擊的內(nèi)容排在前面;但用戶在搜索黑人名字時(shí),更想了解其是否與犯罪記錄相關(guān),從而導(dǎo)致排序算法在持久的用戶結(jié)果反饋過程中,形成了上述偏差。該研究揭示了,算法結(jié)果的偏差事實(shí)上反映了人類社會(huì)本身的內(nèi)在分化,算法在應(yīng)用于人類社會(huì)環(huán)境,并不斷接受環(huán)境反饋而動(dòng)態(tài)調(diào)整的過程中,又進(jìn)一步體現(xiàn)、放大了人類社會(huì)的既有分化。
責(zé)任性風(fēng)險(xiǎn)
算法責(zé)任是又一個(gè)被頻繁提及的治理風(fēng)險(xiǎn),其主要內(nèi)涵是指:當(dāng)算法決策或應(yīng)用結(jié)果損害特定主體權(quán)利時(shí),由于歸責(zé)原則不清晰而導(dǎo)致利益救濟(jì)不到位的風(fēng)險(xiǎn)問題。技術(shù)治理傳統(tǒng)視角下,技術(shù)或產(chǎn)品僅被視為工具,其背后的設(shè)計(jì)者或應(yīng)用者才是承擔(dān)民事責(zé)任的主體。但第四次工業(yè)革命背景下,算法責(zé)任性風(fēng)險(xiǎn)的新挑戰(zhàn)主要體現(xiàn)在兩個(gè)方面。
一方面,人工智能技術(shù)推動(dòng)下,算法具備了一定程度的主體性。人工智能算法的變革意義在于突破了人類表達(dá)能力的限制,基于大量數(shù)據(jù)或案例的自我學(xué)習(xí)過程,事實(shí)上意味著算法應(yīng)用結(jié)果與人類行為之間,并不一定存在必然且直接的因果聯(lián)系,由此導(dǎo)致傳統(tǒng)歸責(zé)原則失效。例如,如果人工智能算法“生產(chǎn)”的文學(xué)或音樂作品侵犯了他人著作權(quán)或版權(quán),我們并不能完全歸咎于該算法的設(shè)計(jì)者或應(yīng)用者,因?yàn)樗麄儾]有直接決定算法的產(chǎn)出,甚至不能預(yù)期算法究竟會(huì)形成何種產(chǎn)出。
另一方面,算法責(zé)任的新挑戰(zhàn)還在于算法的“黑箱性”。也就是說,我們對(duì)算法形成特定結(jié)果的內(nèi)在機(jī)制和因果聯(lián)系看不清楚、說不明白。這種情況將影響責(zé)任溯源的過程,以及相關(guān)責(zé)任的界定。雖然我們不能完全排除商業(yè)平臺(tái)刻意隱瞞算法運(yùn)行原理的情況,但導(dǎo)致算法“黑箱性”的根本原因,還在于算法基于大量案例的自我學(xué)習(xí)過程本身的不可解釋性。例如,算法雖然能夠在短時(shí)間內(nèi)閱讀所有《人民日?qǐng)?bào)》文章,并判斷哪一篇文章可能在社交媒體上得到最多人的分享,但其卻不能給出人們?cè)敢夥窒碓撐恼碌木唧w理由;類似的,算法能夠?yàn)橛脩敉扑]最匹配的資訊內(nèi)容,但卻不能給出用戶喜歡該資訊內(nèi)容的具體原因。在上述例子中,如果算法應(yīng)用結(jié)果給用戶造成權(quán)益損失時(shí),因?yàn)殡y以確定導(dǎo)致?lián)p失的原因,傳統(tǒng)歸責(zé)體系也就難以確定應(yīng)該由誰、用何種方式對(duì)用戶給予合理的賠償。
誤用及濫用性風(fēng)險(xiǎn)
算法雖然能夠以更高效率處理大量數(shù)據(jù),但其仍然存在諸多局限性。如果忽略這些局限性,將算法應(yīng)用在不當(dāng)環(huán)境之中,便可能引發(fā)誤用及濫用的風(fēng)險(xiǎn),這又具體體現(xiàn)在三個(gè)方面。
首先,算法往往是“死板”的:雖然算法可以基于大量數(shù)據(jù)或案例實(shí)現(xiàn)自我學(xué)習(xí),但學(xué)習(xí)的目標(biāo)卻需要具體而明確地人為設(shè)定,但現(xiàn)實(shí)生活的復(fù)雜性并不一定總是能滿足這一要求。其次,算法往往是“短視”的:算法往往要求實(shí)時(shí)反饋結(jié)果以評(píng)估決策效果,這也導(dǎo)致其能更好滿足“短期目標(biāo)”,但在應(yīng)對(duì)“長(zhǎng)期目標(biāo)”方面可能力不從心。最后,算法往往是“僵化”的:基于大量數(shù)據(jù)或案例的機(jī)器學(xué)習(xí)算法,在客觀上要求輸入大數(shù)據(jù)集與其應(yīng)用環(huán)境具有概率上的分布一致性,但動(dòng)態(tài)變化的應(yīng)用環(huán)境往往使得基于特定數(shù)據(jù)集的算法決策很快過時(shí),并因而難以用于指導(dǎo)當(dāng)前及未來的預(yù)測(cè)或分析。
以資訊推薦算法為例。首先,資訊推薦算法的目的在于為用戶提供最匹配且有質(zhì)量的內(nèi)容,但算法并不理解何為“匹配”或“有質(zhì)量”,因而設(shè)計(jì)者不得不將這一模糊目標(biāo)轉(zhuǎn)化為“用戶點(diǎn)擊率最高”這一具體的替代目標(biāo)。但很明顯地,替代目標(biāo)與真實(shí)目標(biāo)并不完全一致,“點(diǎn)擊率最高”并不意味著“有質(zhì)量”,算法的“死板”可能帶來額外風(fēng)險(xiǎn)。其次,“用戶點(diǎn)擊率”更多體現(xiàn)為當(dāng)前的“短期目標(biāo)”,但過多重視點(diǎn)擊率卻可能導(dǎo)致低俗內(nèi)容盛行,從而不利于平臺(tái)可持續(xù)發(fā)展這一長(zhǎng)期目標(biāo),但算法卻無法將后者納入考慮范圍,由此帶來“短視”風(fēng)險(xiǎn)。最后,資訊推薦算法往往需要根據(jù)用戶歷史閱讀數(shù)據(jù)來預(yù)測(cè)用戶偏好,但其卻往往難以捕捉用戶所在環(huán)境的具體需求(例如在課堂或醫(yī)院等特殊場(chǎng)合),進(jìn)而可能推送不合時(shí)宜內(nèi)容,并因此體現(xiàn)其“僵化”風(fēng)險(xiǎn)。
基于上述風(fēng)險(xiǎn)的梳理不難看出,不同于傳統(tǒng)意義上的技術(shù)治理,第四次工業(yè)革命背景下的算法治理,并不局限于技術(shù)或產(chǎn)品本身,而更多體現(xiàn)了算法與人類社會(huì)交互影響而形成的新挑戰(zhàn)。正因?yàn)榇耍惴ㄖ卫聿粌H要求算法設(shè)計(jì)者關(guān)注功能的完備性和魯棒性,更要求算法應(yīng)用者和用戶深度參與治理進(jìn)程,為算法的動(dòng)態(tài)演化及其影響結(jié)果提供實(shí)時(shí)反饋,而這也相應(yīng)要求治理理念、體系、機(jī)制的革新。
第四次工業(yè)革命背景下,算法治理的新挑戰(zhàn)在于,算法的生產(chǎn)與應(yīng)用過程已經(jīng)深度嵌入人類社會(huì)之中,其作為規(guī)則的普遍性、可執(zhí)行性與動(dòng)態(tài)性,都使得我們需要更新治理理念,并創(chuàng)新治理體系和治理機(jī)制。
治理理念的回歸與豐富:以人為本
在傳統(tǒng)的技術(shù)治理視野下,“以人為本”更多是指技術(shù)創(chuàng)新應(yīng)服務(wù)于人類社會(huì)發(fā)展,而不能“作惡”。但對(duì)于第四次工業(yè)革命背景下的算法治理而言,“以人為本”的內(nèi)涵還不僅如此,其同時(shí)要求技術(shù)研發(fā)與應(yīng)用的價(jià)值應(yīng)體現(xiàn)為“賦能于人”,而非“人的替代”。算法治理理念需要回歸并豐富“以人為本”的基本內(nèi)涵,有兩方面原因。
第一,在第四次工業(yè)革命背景下,算法已經(jīng)開始作為獨(dú)立的行為主體參與人類生產(chǎn)、生活,并以“規(guī)則”的形式體現(xiàn)其對(duì)于人類行為的深度影響。由此引發(fā)的重要問題在于,原先由“人”來承擔(dān)的行為責(zé)任能否、且如何向“機(jī)器”轉(zhuǎn)移。在沒有對(duì)此問題作出很好回答之前,將重要規(guī)則的決策權(quán)歸還于“人”,仍然可能是短期內(nèi)我們的次優(yōu)選擇。例如,資訊推送算法背后并沒有一個(gè)控制者,其能夠決定每個(gè)人所能看到的資訊內(nèi)容,是算法在分析每個(gè)用戶的偏好后,自主決策形成了推薦內(nèi)容,基于此所創(chuàng)造的信息環(huán)境將最終影響用戶的觀點(diǎn)與行為;但算法可能推送與法律、倫理相悖內(nèi)容的風(fēng)險(xiǎn),使得我們?nèi)匀徊荒苋斡伤惴▉頉Q定所有內(nèi)容,人為的干涉與影響不僅是重要的,也是必不可少的。
第二,算法所體現(xiàn)出的自動(dòng)化、智能化特征,可能誘導(dǎo)技術(shù)研發(fā)者和應(yīng)用者,在提高效率、降低成本的引導(dǎo)下,更多追求控制乃至替代人類行為的自主性,進(jìn)而忽略了算法輔助并賦能于人的可能性。舉例而言,“犯罪風(fēng)險(xiǎn)評(píng)估”司法機(jī)制的設(shè)計(jì)初衷,是為了更好促進(jìn)并創(chuàng)造個(gè)體向善的動(dòng)機(jī)與環(huán)境,而非片面減少人為判斷的主觀性以提升決策效率。特別的,如果我們意識(shí)到算法還存在“死板”、“短視”、“僵化”的弱點(diǎn),在忽略人類社會(huì)復(fù)雜性的前提下,片面追求效率導(dǎo)向,以在不同場(chǎng)景下“替代”人類決策的技術(shù)研發(fā)和應(yīng)用思路,將可能造成更大風(fēng)險(xiǎn)。
治理體系和治理機(jī)制的延伸與重構(gòu)
技術(shù)治理的傳統(tǒng)體系是典型的“命令-控制”結(jié)構(gòu),針對(duì)確定的治理風(fēng)險(xiǎn)(例如汽車事故),政府作為監(jiān)管者預(yù)先制定標(biāo)準(zhǔn)(例如汽車產(chǎn)品質(zhì)量標(biāo)準(zhǔn))與規(guī)范(例如駕駛者的行為規(guī)范),并要求相關(guān)主體遵照?qǐng)?zhí)行。但第四次工業(yè)革命背景下,算法更多作為“規(guī)則”,而非“產(chǎn)品”,被應(yīng)用于人類社會(huì)并產(chǎn)生影響,由此也使得算法治理風(fēng)險(xiǎn)體現(xiàn)出多元化、動(dòng)態(tài)性、不確定等特征。在搜索引擎排序算法的例子中,程序員以“最大化用戶點(diǎn)擊率”作為算法設(shè)計(jì)原則,本身并無太大爭(zhēng)議,但當(dāng)應(yīng)用于具體環(huán)境并體現(xiàn)出特定社會(huì)心理傾向之后,歧視性風(fēng)險(xiǎn)最終產(chǎn)生。面對(duì)這種情況,監(jiān)管者既難以提前預(yù)設(shè)規(guī)制標(biāo)準(zhǔn)(因風(fēng)險(xiǎn)難以提前預(yù)知),也難以針對(duì)明確的被監(jiān)管者制定行為規(guī)范(因并非特定主體的特定行為直接導(dǎo)致風(fēng)險(xiǎn)),傳統(tǒng)的“命令-控制”結(jié)構(gòu)難以為繼。因此,治理體系的延伸成為必然選擇。技術(shù)研發(fā)者、設(shè)計(jì)制造者、部署應(yīng)用者乃至用戶都應(yīng)當(dāng)加入治理體系,與政府監(jiān)管部門共同構(gòu)成推進(jìn)算法治理的利益相關(guān)方。在遵循各自行為規(guī)范的基礎(chǔ)上,利益相關(guān)方還應(yīng)建立風(fēng)險(xiǎn)共享與應(yīng)對(duì)機(jī)制,以及時(shí)發(fā)現(xiàn)治理風(fēng)險(xiǎn),約束相關(guān)方修正技術(shù)發(fā)展和應(yīng)用路徑。
另一方面,將利益相關(guān)方納入治理體系,并不意味著必然就會(huì)帶來良好的治理績(jī)效。算法治理的新挑戰(zhàn)要求利益相關(guān)方共同探索新的、有效的治理機(jī)制,以發(fā)揮不同主體優(yōu)勢(shì)、整合治理資源。就此而言,以“敏捷治理”引領(lǐng)算法治理機(jī)制創(chuàng)新,可能是值得探索的希望路徑之一。“敏捷治理”是世界經(jīng)濟(jì)論壇2018年提出的新概念,其意味著“一套具有柔韌性、流動(dòng)性、靈活性或適應(yīng)性的行動(dòng)或方法,是一種自適應(yīng)且具有包容性和可持續(xù)的決策過程”。敏捷治理在廣泛納入利益相關(guān)者的同時(shí),要求以更快速度識(shí)別變化中的風(fēng)險(xiǎn),監(jiān)管者與被監(jiān)管者的清晰邊界被打破,進(jìn)而共同探索應(yīng)對(duì)風(fēng)險(xiǎn)的漸進(jìn)式策略。對(duì)于算法治理而言,其嵌入社會(huì)的規(guī)則屬性恰好需要“敏捷治理”式的機(jī)制創(chuàng)新:一方面,算法本身的動(dòng)態(tài)變化,以及應(yīng)用過程中才浮現(xiàn)的治理風(fēng)險(xiǎn),在客觀上要求快速的治理應(yīng)對(duì);另一方面,算法治理風(fēng)險(xiǎn)類型與程度的不確定,反過來要求利益相關(guān)方在探索中表達(dá)治理訴求、形成治理方案。
歷次技術(shù)革命都會(huì)帶來新的治理需求并引發(fā)治理變革,但不同于過往技術(shù)革命,第四次工業(yè)革命背景下,算法的普及與應(yīng)用引致的治理挑戰(zhàn),并不局限于技術(shù)本身,甚至也不局限于因技術(shù)發(fā)展而形成的新興業(yè)態(tài),而是體現(xiàn)為算法在利益相關(guān)方的部署下,與特定應(yīng)用環(huán)境相互影響的產(chǎn)物。導(dǎo)致風(fēng)險(xiǎn)產(chǎn)生的原因,既有算法本身的技術(shù)特性,也有人類環(huán)境本身的復(fù)雜因素。面對(duì)新挑戰(zhàn),我們需要回歸到“以人為本”的價(jià)值導(dǎo)向,在綜合考慮技術(shù)、應(yīng)用者、應(yīng)用環(huán)境三方面治理結(jié)構(gòu)的基礎(chǔ)上,踐行敏捷治理的原則和機(jī)制。