文/田月
在第四次工業(yè)革命的浪潮中,人工智能不僅發(fā)展迅猛,而且已經(jīng)充分融合于人類的社會(huì)生活中。其在消費(fèi)支付、生活居家等各種領(lǐng)域帶來的便利都顯示出,人工智能已經(jīng)成為生活不可或缺的角色,無數(shù)熟悉的場(chǎng)景背后都有人工智能參與其中。然而,人工智能在為人類社會(huì)生活帶來便利的同時(shí),也因其自身特有的天然載體性產(chǎn)生了越來越多的負(fù)效應(yīng)。正如網(wǎng)友面對(duì)不少應(yīng)用的精準(zhǔn)推送時(shí)發(fā)出的靈魂拷問:“你是在我家裝了監(jiān)控嗎?”。近年來,人工智能帶來的各種社會(huì)風(fēng)險(xiǎn)層出不窮,究其根本,無不是對(duì)這項(xiàng)新技術(shù)的濫用。人工智能的濫用與否,往往就在一念之間。
有跡可循以及強(qiáng)度記憶可以說是人工智能在技術(shù)應(yīng)用中的巨大優(yōu)勢(shì),然而正是這種強(qiáng)大的優(yōu)勢(shì)時(shí)常威脅著人類社會(huì)的隱私安全。例如,F(xiàn)acebook數(shù)據(jù)泄露丑聞?dòng)?018年全面爆發(fā),社交平臺(tái)在用戶中建立起來的信任以及積極的形象轟然倒塌。Facebook的股票大跌,市值蒸發(fā)數(shù)百億。其創(chuàng)始人及公司CEO馬克?扎克伯格(Mark Zuckerberg)也因此身價(jià)暴跌。事件起源于Facebook和用戶之外的第三方平臺(tái)。當(dāng)初Facebook公司為了增強(qiáng)用戶粘性與第三方平臺(tái)合作,以致于第三方平臺(tái)不僅可以獲取用戶的Facebook信息,還可以獲取該用戶的所有Facebook好友信息。正是利用這一數(shù)據(jù)漏洞,英國的政治分析公司劍橋咨詢打著心理研究的旗號(hào),通過問答軟件公開收集用戶的各類信息,用戶的年齡、姓名以及日常瀏覽的行為軌跡等都被包括其中,大約5000萬份的數(shù)據(jù)在未經(jīng)授權(quán)下被第三方平臺(tái)獲取。再如,斯坦福大學(xué)的研究人員曾研發(fā)出一款基于照片判斷使用者性取向的應(yīng)用。研究人員通過將既有的面部數(shù)據(jù)特征與性取向關(guān)系交給人工智能進(jìn)行深度學(xué)習(xí),以此來分析性取向與面部特征之間的關(guān)系。因此,在大數(shù)據(jù)和人工智能廣泛應(yīng)用的背景下,隱私安全問題的重要性就日益凸顯出來。如今此類問題層出不窮,涉及最廣大民眾的切身利益并沒有得到有效保障,潛在的漏斗時(shí)刻具有不可預(yù)知的威脅性,這就需要政府及其行業(yè)加強(qiáng)約束和監(jiān)管的力度。首先,基于政府層面,可以參考“被遺忘權(quán)”規(guī)則的制定,規(guī)范管理我國信息傳播行業(yè),將個(gè)人信息保護(hù)范圍擴(kuò)大,并對(duì)其實(shí)施更加明確的管理。
在行業(yè)和技術(shù)方面,智能平臺(tái)首先需要制定相應(yīng)的規(guī)則來約束自身、合作方以及用戶,加大各方投入,盡力修復(fù)自身存在的技術(shù)漏洞。對(duì)用戶來說,則需要謹(jǐn)慎地武裝自己,在享受網(wǎng)絡(luò)智能便捷的同時(shí),時(shí)刻保持警惕,不過多暴露自身的詳細(xì)信息;在注冊(cè)使用某一智能應(yīng)用時(shí),認(rèn)真仔細(xì)地閱讀說明條款,一味地?zé)o條件同意的做法是不可取的,當(dāng)出現(xiàn)有損自身利益的內(nèi)容時(shí),善于行使自身的監(jiān)督和舉報(bào)的權(quán)力。
人工智能技術(shù)在應(yīng)用中的一大特點(diǎn)便是虛實(shí)難辨?!疤摂M”是許多智能產(chǎn)品吸引人的噱頭,同時(shí)其也能夠演變成深度偽造,從而成為造成社會(huì)風(fēng)險(xiǎn)的因素之一。例如,被稱為黑科技的深度偽造(Deepfake)軟件,自身功能過于強(qiáng)大,采用了先進(jìn)的人工智能技術(shù),能夠讓普通人通過此軟件,輕松“嫁接”任何人的臉來完成某些視頻的剪輯,就是所謂的“換臉技術(shù)”,而也正是因?yàn)檫@項(xiàng)主打技術(shù),使軟件在短短上線幾天之后,遭到了用戶的唾棄,進(jìn)而受到了大面積的封殺。
深度偽造程序的運(yùn)行,采用了被稱為“生成對(duì)抗網(wǎng)絡(luò)”的GANs算法(Generative Adversarial Nets),生成對(duì)抗網(wǎng)絡(luò)的實(shí)現(xiàn)形式是兩個(gè)網(wǎng)絡(luò)相互競爭。在每一次“對(duì)抗”結(jié)束后,第一個(gè)神經(jīng)網(wǎng)絡(luò),也就是生成網(wǎng)絡(luò),會(huì)針對(duì)被鑒別網(wǎng)絡(luò)辨別出的結(jié)果來調(diào)整改善自身制作視頻時(shí)使用到的參數(shù),直到鑒別網(wǎng)絡(luò)無法辨別出生成作品和原始作品的區(qū)別,能夠以假亂真時(shí),最終輸出視頻就成功合成了。深度偽造給普通人提供了掌握復(fù)雜技術(shù)的可能,但不可控事件也隨之而來。
《神奇女俠》女主角的臉被一深度偽造用戶嫁接到一部成人影片女主的臉上,并將視頻在網(wǎng)絡(luò)上大肆傳播。深度偽造更“嚇人”的地方在于不只是視頻影像以假亂真,甚至連聲音都可以被制作得極其相似。2018年,加蓬總統(tǒng)一連消失在公眾視野中長達(dá)數(shù)月,引發(fā)了當(dāng)時(shí)加蓬國內(nèi)民眾的不安和有心人的躁動(dòng)。政府為了穩(wěn)定軍心民心,公開了一段名義上為總統(tǒng)錄制的新年致辭,然而其實(shí)總統(tǒng)當(dāng)時(shí)嚴(yán)重中風(fēng),這段視頻是由深度偽造制作而成。事與愿違的是,這一不尋常的致辭視頻,非但沒有安撫住軍心,還向軍方傳達(dá)出“總統(tǒng)有難”的錯(cuò)誤訊號(hào),因此發(fā)生了兵變。
這種深度偽造技術(shù)運(yùn)用到任何領(lǐng)域都值得警惕,一旦被濫用則會(huì)引起不堪設(shè)想的后果,也正因如此深度偽造在運(yùn)行了短短幾天之后就遭受到了全球封殺。
中國有句老話:眼見為實(shí),然而現(xiàn)在通過人工智能技術(shù),人們?cè)絹碓讲桓矣凇跋嘈拧弊约旱难劬Α,F(xiàn)在受眾廣泛的各種P圖、美顏軟件,適當(dāng)?shù)厥褂每梢赃_(dá)到美化的效果,增強(qiáng)自信,但是過度使用,則可能產(chǎn)生欺騙的后果,正如“照騙”一詞所說。又如使我們視覺、聽覺分外震撼的影視特效,從《阿凡達(dá)》到《復(fù)仇者聯(lián)盟》,再到國內(nèi)的各類仙俠劇,傳神的特效吸引觀眾無數(shù)。當(dāng)這種特效技術(shù)用于各種摳圖,被有心人利用,或者大肆傳播,所產(chǎn)生的輿論和流言勢(shì)必將對(duì)當(dāng)事人造成巨大傷害。
歐盟對(duì)于防止“深度偽造”類似案件的發(fā)生,采用了自上而下的人工智能安全治理模式,以歐盟為主導(dǎo),自上而下對(duì)網(wǎng)絡(luò)運(yùn)營者、公眾和技術(shù)機(jī)構(gòu)提出要求,來應(yīng)對(duì)日漸囂張的網(wǎng)絡(luò)虛假信息的泛濫。這在國際上起到了政策示范的作用,對(duì)其他各個(gè)國家在網(wǎng)絡(luò)安全方面的治理具有借鑒和規(guī)范的意義。中國的人工智能治理,在政策導(dǎo)向方面,是有“包容審慎”的監(jiān)管指示。類似深度偽造等技術(shù)的濫用已經(jīng)危害到社會(huì)安定和安全,所以必須堅(jiān)決依法打擊,審慎監(jiān)管。在技術(shù)層面,加強(qiáng)甄別、反偽造的算法軟件的研發(fā),目前已經(jīng)有通過血氧儀原理來識(shí)別假臉、號(hào)稱“深度偽造天敵”的軟件出現(xiàn),還有華盛頓大學(xué)研究出的識(shí)別深度偽造簽名的算法……以后將會(huì)有更多的反偽造軟件應(yīng)運(yùn)而生,從而有效地防止人工智能在技術(shù)應(yīng)用中的風(fēng)險(xiǎn)。
公平與正義是人類社會(huì)一直以來的目標(biāo)與追求,智能技術(shù)的產(chǎn)生似乎能夠在促進(jìn)社會(huì)公平的基礎(chǔ)上進(jìn)一步推動(dòng)人類的發(fā)展。然而,在智能技術(shù)尚未發(fā)展成熟的今天,公平真的能夠被合理地算法化嗎?實(shí)則不然,在某些情景下,智能技術(shù)甚至?xí)斐缮鐣?huì)失衡的風(fēng)險(xiǎn)。
例如,2018年亞馬遜公司自行放棄了他們?nèi)斯ぶ悄苷衅敢娴氖褂?,原因是他們所研發(fā)的招聘引擎似乎對(duì)女性求職者有所偏見。自動(dòng)化是亞馬遜發(fā)展過程中的重要戰(zhàn)略,通過自動(dòng)化亞馬遜成功降低了企業(yè)運(yùn)行的成本。在招聘求職領(lǐng)域,人工智能招聘引擎經(jīng)過學(xué)習(xí),可以對(duì)亞馬遜公司收到的海量簡歷進(jìn)行數(shù)據(jù)分析,并最終形成一套相對(duì)固定的招聘模型。但是這樣的模型在訓(xùn)練過程中卻存在天然的偏見。由于數(shù)據(jù)來源于亞馬遜的歷史招聘,在數(shù)據(jù)樣本中,男性求職者被錄用的比例遠(yuǎn)高于女性,因此人工智能基于具有偏見的樣本數(shù)據(jù)進(jìn)行模型訓(xùn)練時(shí),會(huì)得出“公司更傾向于男性求職者”的結(jié)論。在遇到女性求職者時(shí),會(huì)自動(dòng)降級(jí)來壓低女性求職者的分?jǐn)?shù),“偏見”也就這樣產(chǎn)生。
除去亞馬遜,希爾頓等眾多的全球大公司希望在招聘流程上尋求人工智能的幫助。雖然人工智能成為助手是一股勢(shì)不可擋的全球熱潮,但是如何使機(jī)器學(xué)習(xí)、算法等更加透明、更加公平仍然是一個(gè)值得探索的問題。由于機(jī)器學(xué)習(xí)所造成的偏見和歧視并不是個(gè)案。同樣還是亞馬遜公司,他們所研發(fā)的一款圖像識(shí)別人工智能,在對(duì)膚色深的女性做出相關(guān)識(shí)別判斷時(shí),錯(cuò)誤率遠(yuǎn)高于其在對(duì)膚色淺的男性做出的相關(guān)識(shí)別判斷。
再如,微軟公司曾經(jīng)推出過一款人工智能聊天機(jī)器人“Tay”,但是僅短短十幾個(gè)小時(shí)就被迫下線,因?yàn)椤癟ay”已被人類教壞?!癟ay”首次亮相的第一句話便是向世界問好,她表現(xiàn)出了極大的善意。然而“Tay”的機(jī)器學(xué)習(xí),沒有辨別是非、信息分類和自我反省的功能,任何交談的任何內(nèi)容她都會(huì)照單全收,以至于在極短的時(shí)間內(nèi),就被廣大網(wǎng)民教導(dǎo)成了一個(gè)滿嘴臟話、充斥著種族歧視、性別歧視的“惡性”機(jī)器人。微軟公司迫于無奈,將她關(guān)閉使用。智能聊天機(jī)器人的技術(shù)在開發(fā)者們的不懈努力下迭代升級(jí),顯然二者均無惡意,然而,當(dāng)軟件被投入市場(chǎng)后依然會(huì)出現(xiàn)種種問題。
人工智能的機(jī)器學(xué)習(xí),在大數(shù)據(jù)方面是人類個(gè)體望塵莫及的,然而這種機(jī)械的機(jī)器學(xué)習(xí)卻帶來了人工智能作惡的一大隱患。在應(yīng)對(duì)這種隱患時(shí),首先應(yīng)該建立健全相應(yīng)的行業(yè)準(zhǔn)則。如谷歌原則,規(guī)范對(duì)象即包括人工智能,也包括人工智能的開發(fā)者,從源頭上杜絕人工智能作惡。例如2015年11月,《應(yīng)對(duì)大數(shù)據(jù)挑戰(zhàn)》報(bào)告提出了“公平能否算法化”的問題,特別指出要注意大數(shù)據(jù)中所表現(xiàn)出來的歧視。經(jīng)濟(jì)合作與發(fā)展組織(OECD)于2019年通過了政府間有關(guān)人工智能政策的首部指導(dǎo)方針,確保人工智能的系統(tǒng)設(shè)計(jì)符合公正、安全、公平和值得信賴的國際標(biāo)準(zhǔn)。技術(shù)層面來講,機(jī)器學(xué)習(xí)潛在作惡的可能能夠通過技術(shù)的進(jìn)步加以克服,并且目前也越來越多的研究人員投入到算法優(yōu)化中來,例如微軟正構(gòu)建可防止AI算法出現(xiàn)偏見的新工具等。
人工智能在技術(shù)應(yīng)用中的便利性是其廣受歡迎的優(yōu)勢(shì)之一,然而,這種便利性也是挑戰(zhàn)人類主體性的風(fēng)險(xiǎn)因素之一。例如,如今風(fēng)靡市場(chǎng)的智能家居類產(chǎn)品,其在為人類生活提供便捷的同時(shí),更是試圖“操縱”人類。天貓精靈品牌下的各種人工智能產(chǎn)品都致力于打造人們生活中智能助理。它既可以和人類對(duì)話,也可以用來控制室內(nèi)的所有設(shè)備,在智能家居中擔(dān)當(dāng)中控平臺(tái)的角色,尤其與當(dāng)代獨(dú)居年輕人的生活需求相契合。類似的智能產(chǎn)品還有很多,例如在多個(gè)娛樂節(jié)目中都植入廣告的百度旗下“小度”、小米旗下的智能產(chǎn)品“小愛同學(xué)”、谷歌旗下的人工智能音箱“Google home”……這些產(chǎn)品將人們與技術(shù)緊密地連接起來。然而換一個(gè)角度來看,這種智能助理在為人們提供便利的同時(shí)也在喚醒人們的惰性。相比于此類智能家居產(chǎn)品,個(gè)人數(shù)字助理對(duì)人類主體性的“侵略”或許更強(qiáng)一些。個(gè)人數(shù)字助理可以使普通大眾通過一個(gè)非常親民的價(jià)格來雇傭一個(gè)貼身助理,它的全方位服務(wù)可以讓人們節(jié)省大量的人力和時(shí)間。然而顯而易見的是,個(gè)人數(shù)字助理同時(shí)也擁有人們的眾多詳細(xì)數(shù)據(jù),甚至在某種程度上有機(jī)會(huì)幫人類做出決策。久而久之,在人類對(duì)技術(shù)形成依賴之后,其便會(huì)產(chǎn)生勞動(dòng)、決策異化、治理異化等喪失自身主體性的風(fēng)險(xiǎn)。
因此,人類需要時(shí)刻警惕智能技術(shù)的“操縱”威脅。在人類社會(huì)的進(jìn)步和發(fā)展進(jìn)程中,人工智能技術(shù)占據(jù)了重要位置。然而在這個(gè)過程中,人類必然不可迷失自己作為人的主體性,在享受服務(wù)的同時(shí)也需要把控自身的能力。同時(shí),人們也需要享受作為人的主體性,時(shí)刻以自身主導(dǎo)為前提。人工智能技術(shù)可以改善人類的生活,但不能改變?nèi)祟惖拇嬖诜绞?,防止人工智能因利益者的一念之差走向惡的極端。
智能技術(shù)由于其超前性、多樣性、便捷性等諸多優(yōu)勢(shì)吸引著整個(gè)人類社會(huì)的目光。不可否認(rèn)的是,技術(shù)一直是推動(dòng)世界發(fā)展的核心要素。熊彼特更是從技術(shù)進(jìn)步的角度歸納國際市場(chǎng)周期性變化的特點(diǎn),指出在不同時(shí)期,都存在以技術(shù)發(fā)明為基礎(chǔ)的不同產(chǎn)業(yè)來帶動(dòng)經(jīng)濟(jì)的發(fā)展。此外,還有不少學(xué)者將以汽車、電子產(chǎn)業(yè)為主導(dǎo)產(chǎn)業(yè)的周期算為世界經(jīng)濟(jì)發(fā)展的又一周期,把互聯(lián)網(wǎng)算作當(dāng)今的一個(gè)主導(dǎo)產(chǎn)業(yè)。如今的智能革命同樣通過技術(shù)進(jìn)步帶來全球范圍內(nèi)的生產(chǎn)力變革。然而,智能技術(shù)由于其不確定性、不透明性等潛在的風(fēng)險(xiǎn)時(shí)刻威脅著人類。
2 0 1 8 年圖靈獎(jiǎng)得主約書亞?本吉奧(Yo s h u a Bengio),曾經(jīng)在一次采訪中表示,現(xiàn)在人工智能正在被越來越多的國家和公司不負(fù)責(zé)任地使用,這其中帶來了許多安全問題和道德問題。利益在其中扮演了重要的角色,人工智能是向善持續(xù)發(fā)展還是不斷作惡帶來各種社會(huì)風(fēng)險(xiǎn),往往就在一念之間。人工智能在技術(shù)應(yīng)用中的多樣態(tài)風(fēng)險(xiǎn)及其防治,是當(dāng)今整個(gè)世界的議題,涉及到了國家、行業(yè)和每個(gè)個(gè)體人之間復(fù)雜的關(guān)系。然而,縱然其很危險(xiǎn),但所有人都可以意識(shí)到放下這個(gè)危險(xiǎn)的可能性幾乎為零。因此,當(dāng)下最適當(dāng)?shù)膽B(tài)度就是辯證地看待人工智能及其在技術(shù)中的應(yīng)用,并且集中人類所有的智慧,保持人類的本性和常識(shí)來應(yīng)對(duì)這一難題與無限的未知。