■郭銳
人臉識別是人工智能技術(shù)的典型應(yīng)用。通過個人信息的廣泛收集和運用算法對這些信息進(jìn)行處理,人工智能技術(shù)讓精準(zhǔn)、高效的“區(qū)別對待” 成為可能。但是,為人們“量身定做” 的差別化待遇意味著什么? 基于用戶畫像生成的新型“身份”,可能對社會產(chǎn)生何種影響? 這些問題,是本文討論人臉識別的法律和倫理風(fēng)險問題時所關(guān)注的核心內(nèi)容。
將人臉識別應(yīng)用于地鐵安檢,是因為它能將乘客分類,而這種分類被認(rèn)為可以大大提升安檢的效率。分類背后的原理大致如此:在識別某一乘客的面部特征后,系統(tǒng)將基于已經(jīng)收集的個人信息來將其打上多個不同的標(biāo)簽,再根據(jù)某一種標(biāo)簽或者多種標(biāo)簽的組合給出針對這名乘客的處理決定。
但是,設(shè)想如下情形:若有一位乘客在安檢時總是被特別關(guān)照,地鐵安檢員每次都會對其反復(fù)安檢確保無安全隱患才得以放行。乘客不勝其煩,追問原因。答曰:無可奉告。倘若如此,是否有倫理或者法律上的問題?
這正是我們在人工智能倫理討論中所言的算法歧視問題。在看似中立的算法中,由于算法的設(shè)計者的認(rèn)知存在某種偏見,或者訓(xùn)練算法使用了有問題的數(shù)據(jù)集等原因,可能讓人工智能系統(tǒng)決策出現(xiàn)有歧視性的結(jié)果。這類事例媒體時有報道,例如,在金融領(lǐng)域“降低弱勢群體的信貸得分”“拒絕向’ 有色人種’ 貸款”“廣告商更傾向于將高息貸款信息向低收入群體展示” 等。
當(dāng)公共服務(wù)或者政府決策中使用人工智能時,就更需要警惕算法歧視問題。就地鐵這一場景,我們已知的是,通過人臉識別進(jìn)行的分類安檢將基于分類標(biāo)準(zhǔn)和“白名單” 制度之上。但我們無從得知,識別系統(tǒng)是基于怎么樣的標(biāo)準(zhǔn)對乘客進(jìn)行分類,以及這些標(biāo)準(zhǔn)是否具有正當(dāng)性。
與個人相關(guān)的標(biāo)簽——乘客的戶籍地、犯罪記錄、家庭情況、工作單位、征信記錄等——是否可以用于人工智能決策?這些標(biāo)準(zhǔn)背后的邏輯何在?是否征信記錄較差的乘客需通過更嚴(yán)格的安檢?為什么他們一定比其他乘客更有在地鐵犯罪的可能性?諸如此類的問題如果尚且不能給出明確的答案,恐將給恣意行政大開方便之門。
不論人臉識別有多么精準(zhǔn)、對地鐵通行效率的改善有多么顯著,政府在采用人工智能技術(shù)時首要的責(zé)任是實現(xiàn)平等保護(hù)。平等保護(hù)意味著分類背后的標(biāo)準(zhǔn)應(yīng)公開,且這些標(biāo)準(zhǔn)與所欲達(dá)成目標(biāo)之間的合理關(guān)聯(lián)得到論證;因人工智能技術(shù)使用者的主觀偏見、數(shù)據(jù)樣本污染、人臉技術(shù)本身不成熟等因素帶來的歧視,應(yīng)一一排除。唯其如此,方能通過平等保護(hù)的合法性檢驗。
在確保人工智能技術(shù)的應(yīng)用不違反平等保護(hù)原則的基礎(chǔ)上,我們還應(yīng)警惕:在大數(shù)據(jù)的技術(shù)支撐下,基于人臉識別和多種個人數(shù)據(jù)形成的用戶畫像越發(fā)成為個人在數(shù)據(jù)時代的身份表征。
人工智能技術(shù)之所以飽受青睞,原因之一便在于算法能針對具體問題給出針對性解決方案。但從技術(shù)上講,任何效率的提升必然涉及對公民的分類,而分類直接或者間接地關(guān)乎公民的基本權(quán)利。受限于技術(shù)發(fā)展、原始數(shù)據(jù)的偏差、算法設(shè)計者的偏見,算法歧視時常發(fā)生。使用人臉識別算法的標(biāo)簽化判斷方式增加了作出歧視性決策的風(fēng)險,而這些風(fēng)險絕大程度上將由本身已處于相對劣勢地位的人群承擔(dān)。
在缺乏監(jiān)管、有效保障措施、透明度和問責(zé)機制的情形下,人臉識別算法的運用將加劇不平等現(xiàn)象。而令人擔(dān)憂的是,算法復(fù)雜晦澀的“黑箱” 特性,往往使歧視以一種不易察覺的方式進(jìn)行。
英國法律史學(xué)家梅因曾提出社會現(xiàn)代化轉(zhuǎn)型的最大特征是“從身份到契約”。在“身份社會” 中,身份意味著特權(quán)。有身份的人,享有特權(quán),身份越高,特權(quán)越大。
而什么決定了身份本身?托克維爾在 《論美國的民主》 中批評了將家庭出身、財產(chǎn)與職業(yè)將所有的人劃分為不同的身份等級,因為身份將人劃分為三六九等,并且導(dǎo)致社會上不同身份的人之間交往嚴(yán)格,唯恐“有失身份”。
身份在法律上的表現(xiàn)為,不同的人有不同的法:有身份的人可以利用這種身份特權(quán)去抵消自己的罪行,去謀求罪行的減免,而沒有身份的人則不享有此等特權(quán)。身份是人治的淵藪,是法治的天敵。
當(dāng)社會從身份社會轉(zhuǎn)型至契約社會時,身份的作用逐漸淡化。契約社會“不以出身論英雄”“王子犯法與庶民同罪”。在契約社會,“人人生而平等”“法律面前人人平等” 的觀念占據(jù)主流。在平等的基礎(chǔ)上,個人不因家庭出身、財產(chǎn)、職業(yè)等標(biāo)準(zhǔn)被分類,人們根據(jù)契約而非身份設(shè)定權(quán)利義務(wù)的范圍。契約社會為個體注入了更大的可流動性,讓個人得以通過自身努力改變現(xiàn)狀。
今天,當(dāng)個人信息的收集和利用越來越廣泛時,我們應(yīng)警惕身份的回歸。以標(biāo)簽化、用戶畫像的名義,人臉識別不僅把過往行為數(shù)據(jù)與個人相關(guān)聯(lián),傳統(tǒng)的家庭出身、性別、財產(chǎn)、職業(yè)都悄無聲息地被納入人工智能技術(shù)的決策體系中。
為了通過既往行為模式判斷未來行為模式,人臉識別將在認(rèn)證表面信息的同時,也在后臺關(guān)聯(lián)與個體的過往行為相關(guān)的標(biāo)簽或用戶畫像。但是,個體的過往行為很多時候與個體的身份特征有較大關(guān)系,比如出生在貧窮家庭的個體由于資源的匱乏,受教育率偏低,且相對于出生在富裕地區(qū)的個體而言犯罪率相對較高。上述關(guān)聯(lián)不免與傳統(tǒng)“身份社會” 的運行方式殊途同歸。
在《足夠智能的城市》 一書中,作者本·格林指出,“今天城市所使用的技術(shù)將在確定未來社會契約方面發(fā)揮重要作用”。
或許有人認(rèn)為,既然人臉識別的廣泛應(yīng)用已越發(fā)成為大數(shù)據(jù)時代的必由之路,我們也應(yīng)更新對傳統(tǒng)社會管理方式的認(rèn)知??梢韵胂?,在一個對技術(shù)不加管制的世界里,人臉識別的運用將迅速且深刻地改變社會管控的效率和方式,甚至具備著重塑契約社會內(nèi)涵的可能——人們將人臉識別技術(shù)視為維持社會運作的必要一環(huán),并普遍默許對它的應(yīng)用。但這是否是我們所欲追求的世界?
隨著歷史的車輪向前而建立社會普遍尊重的契約,該過程離不開公眾的參與。公眾有權(quán)利決定讓渡哪些,以及在何種程度上讓渡屬于自己的權(quán)利,尤其是和個人自由、隱私相關(guān)的權(quán)利。
在契約社會中,重要的是主體能夠平等自由地表達(dá)自己的意志,達(dá)成契約。人臉識別技術(shù)本身并不會阻礙社會主體表達(dá)自己的自由意志。但是人臉識別技術(shù)可能與個體身份信息緊緊相關(guān),而隨著技術(shù)的發(fā)展,在主體身份信息完全可由數(shù)據(jù)追蹤后,主體可能會對表達(dá)自由意志存在顧慮,也會進(jìn)一步影響主體在訂立契約的過程中正常全面的表達(dá)出自己的訴求。這可能也會造成身份社會和契約社會的界限模糊,存在有悖于契約社會意思自治和平等的初衷。
不論人臉識別技術(shù)最后將如何滲透到我們生活的方方面面,社會都需要時刻警醒:我們愿意為有效的社會控制和公共效率犧牲多少隱私和個人空間,這種犧牲的邊界何在? 忽視倫理風(fēng)險、輕率地推廣人工智能技術(shù),必然帶來層出不窮的對平等權(quán)利的踐踏。
應(yīng)對以人臉識別為代表的人工智能技術(shù)應(yīng)用帶來的風(fēng)險,當(dāng)務(wù)之急是要求公共行政中應(yīng)用人工智能技術(shù)必須通過倫理委員會的審查和公開聽證。否則,類似人臉識別的人工智能技術(shù)應(yīng)用帶來的擔(dān)憂恐怕難以消失?!?/p>