丹尼爾·托馬斯
人臉識(shí)別技術(shù)正在變得越發(fā)成熟。一些公司聲稱,這一技術(shù)甚至能夠解讀我們的情緒并監(jiān)測到可疑行為。不過,這對(duì)隱私和公民自由會(huì)產(chǎn)生何種影響?
人臉識(shí)別技術(shù)已經(jīng)存在了超過10年,不過科技專家表示,近年來,隨著數(shù)碼視像和人工智能(AI)的進(jìn)步,這種技術(shù)正在飛躍式發(fā)展。
現(xiàn)在,人臉識(shí)別技術(shù)正被用于鎖定過境人群,解鎖智能手機(jī),偵測犯罪人士,以及授權(quán)銀行轉(zhuǎn)賬等等。
但是一些公司卻聲稱,這種技術(shù)同樣可以監(jiān)測我們的情緒狀態(tài)。
從20世紀(jì)70年代起,就有心理學(xué)家聲稱,他們能夠通過照片和視頻中人臉的“微表情”來探測其背后隱藏的情感。
科技公司表示,現(xiàn)今的運(yùn)算法和高清攝像頭同樣可以準(zhǔn)確甚至更快速地完成這一過程。
“我們看到,人臉識(shí)別技術(shù)正被用作商業(yè)用途。”數(shù)據(jù)公司埃士信的視像監(jiān)控專家奧立弗·菲利波說。
“這種技術(shù)可能被用于超市走廊貨架,不是為了鎖定人,而是用來分析顧客的年齡和性別構(gòu)成,以及他們的大體情緒。這能夠幫助超市制定對(duì)應(yīng)的營銷策略和產(chǎn)品投放?!?/p>
市場調(diào)研機(jī)構(gòu)明略行公司正在使用由美國初創(chuàng)公司Affectiva開發(fā)的技術(shù),評(píng)估消費(fèi)者對(duì)電視廣告的反應(yīng)。
Affectiva會(huì)在經(jīng)允許的情況下錄下人們的臉,然后用代碼逐幀記錄他們的表情,從而評(píng)估他們的情緒。
明略行公司的創(chuàng)新部門管理總監(jiān)格拉姆·佩吉說:“我們會(huì)采訪一些人,但是通過監(jiān)察他們的表情,我們能得到更豐富的細(xì)微信息。你能準(zhǔn)確地看到廣告的哪一部分是奏效的,以及勾起了什么樣的情緒反應(yīng)。”
而更具有爭議性的是,一些初創(chuàng)企業(yè)正以安保為目的提供“情緒偵察”。
比如,英國公司W(wǎng)eSee就聲稱,他們的AT技術(shù)能夠通過解讀一些未經(jīng)訓(xùn)練的肉眼看不出來的面部信息,來發(fā)現(xiàn)可疑行為。
比如,懷疑或者憤怒之類的情緒可能會(huì)隱藏在表情之下,并且和一個(gè)人當(dāng)時(shí)所說的話不一致。
WeSee指,他們正在與一家“知名度高”的執(zhí)法機(jī)構(gòu)合作,對(duì)被問話的人進(jìn)行分析。
該公司首席執(zhí)行官大衛(wèi)·富爾頓表示:“哪怕只有低清晰度的視頻,我們的技術(shù)也能夠通過表情、姿勢和動(dòng)作來確定一個(gè)人的情緒狀態(tài)或者行為意圖?!?p>
蘋果iPhone X通過人臉識(shí)別系統(tǒng)解鎖屏幕
情緒監(jiān)控系統(tǒng)能否準(zhǔn)確找到人群可能制造麻煩的人
“在未來,地鐵站臺(tái)上的攝像頭可能會(huì)使用我們的技術(shù)來探測可疑行為,并將潛在的恐怖主義威脅報(bào)告給當(dāng)局?!?/p>
“同樣的措施也可能用在像足球比賽或者政治游行之類的大型集會(huì)當(dāng)中?!?/p>
不過,菲利波對(duì)于情緒偵測技術(shù)的準(zhǔn)確性有所懷疑?!熬退阒皇侨四樧R(shí)別,都仍然有相當(dāng)程度的誤差——最好的公司聲稱自己認(rèn)人的準(zhǔn)確率是90-92%。當(dāng)你試圖去評(píng)估情緒的時(shí)候,誤差會(huì)更大?!?/p>
呼吁保護(hù)隱私權(quán)的活動(dòng)人士對(duì)此感到擔(dān)憂,他們害怕人臉識(shí)別技術(shù)會(huì)出錯(cuò),或者導(dǎo)致偏見。
國際隱私組織的弗雷德里克·卡爾圖納說:“雖然我能想象,會(huì)有一些確實(shí)行之有效的使用方式,但是情緒監(jiān)控、人臉識(shí)別以及人臉檔案收集所帶來的隱私問題是前所未有的?!?/p>
單是人臉識(shí)別本身就足夠有爭議性了。
今年五月,在斯旺西參加周末音樂節(jié)的狂歡人群當(dāng)中,很多人都不知道自己的臉被掃描識(shí)別。那是南威爾士警方的大規(guī)模監(jiān)控措施之一。
警方使用了自動(dòng)人臉識(shí)別系統(tǒng)(AFR),通過閉路電視攝像頭以及一套NEC軟件來識(shí)別“值得關(guān)注的人”,將他們的臉與一個(gè)記錄受拘留人士的數(shù)據(jù)庫作對(duì)比。
南威爾士警方的AFR項(xiàng)目主管斯科特·羅伊德表示,一個(gè)警方正在搜捕的男子在“10分鐘內(nèi)”就被識(shí)別出來并拘捕。
不過,英國人權(quán)組織“自由”指出,在其他的場合,比如去年在卡的夫進(jìn)行的歐洲冠軍聯(lián)賽決賽上,就有過大量的錯(cuò)誤配對(duì)。
7月,卡的夫居民艾德·布里吉斯(EdBridges)由“自由”組織代表,開始了對(duì)警方的法律行動(dòng)。原告認(rèn)為,AFR侵犯了人們的隱私權(quán),并且缺乏適當(dāng)?shù)谋O(jiān)督。案件將進(jìn)入英國高等法院審理。
但是,開展人臉識(shí)別研究的美國聯(lián)邦機(jī)構(gòu)國家標(biāo)準(zhǔn)技術(shù)研究所的生物識(shí)別項(xiàng)目主管帕特里克·格羅瑟表示,相關(guān)技術(shù)正在變得越來越可靠。
他將近期這方面的技術(shù)進(jìn)步歸因于“卷積神經(jīng)網(wǎng)絡(luò)”的發(fā)展——那是一種機(jī)器學(xué)習(xí)的高級(jí)形式,能帶來比過去高得多的準(zhǔn)確度。
他說:“這些運(yùn)算法讓電腦能夠在不同的規(guī)模和角度上進(jìn)行影像分析?!?/p>
“哪怕臉部可能被太陽眼鏡或者圍巾等物件部分遮蓋,你都能夠更準(zhǔn)確地識(shí)別人臉。從2014年到現(xiàn)在,錯(cuò)誤率已經(jīng)縮小了10倍,不過沒有一種運(yùn)算法是完美的?!?/p>
WeSee的富爾頓表示,他的技術(shù)只不過是一種工具,幫助人們更智能地分析既有影像。
他還表示,WeSee對(duì)于面部情感的識(shí)別能力和人的肉眼是一樣有效的——“準(zhǔn)確率在60%~70%左右”。
“目前,我們能夠通過偵測可疑的行為來避免一些壞事發(fā)生,但不能識(shí)別意圖。不過我認(rèn)為,這正是我們要前進(jìn)的方向,而我們已經(jīng)在這方面進(jìn)行測試了?!?/p>
聽起來,這距離科幻電影《少數(shù)派報(bào)告》(Minority Report,另譯《關(guān)鍵報(bào)告》)里的“犯罪預(yù)知”概念又近了一步。在電影中,潛在的罪犯在他們犯罪之前就已經(jīng)被捕。這是否又是民權(quán)機(jī)構(gòu)應(yīng)該擔(dān)心的進(jìn)一步問題?
國際隱私組織的卡爾圖納說:“我們總是問自己一個(gè)關(guān)鍵問題:這項(xiàng)技術(shù)是誰創(chuàng)建的,目的又是什么?它是用來幫助我們,還是審判、評(píng)估和控制我們?”(摘自英國廣播公司新聞網(wǎng))(編輯/華生)