国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能時代亦需“反人工智能”

2019-06-25 02:31李雅琪馮曉輝
中國計算機報 2019年19期
關(guān)鍵詞:機器人工智能研究

李雅琪 馮曉輝

2018年12月,歐盟人工智能高級專家組發(fā)布《可信賴的人工智能道德準則草案》。該準則草案提出了實現(xiàn)“可信賴人工智能”的兩個核心要素——道德目的、技術(shù)可靠。在此之前,學(xué)術(shù)界已開始從技術(shù)角度探索防范人工智能潛在風(fēng)險的“反人工智能”技術(shù)。2018年8月,加拿大學(xué)者公布了關(guān)于人臉檢測動態(tài)擾亂系統(tǒng)的研究成果,該技術(shù)能將人臉檢測準確率從接近100%大幅降低至0.5%。當(dāng)前,人工智能尚處于“弱人工智能”階段,反人工智能的出現(xiàn),既凸顯出人類對人工智能的潛在憂慮,也從技術(shù)角度提供了一條確保人工智能不會危及人類自身的新思路。因此,有必要梳理反人工智能技術(shù)的發(fā)展現(xiàn)狀與前景,并統(tǒng)籌考慮人工智能與反人工智能的協(xié)同發(fā)展,確保人工智能可控、可靠、可信地造福人類。

人工智能高速發(fā)展引發(fā)

風(fēng)險擔(dān)憂

人工智能引發(fā)的憂慮日漸增多。人臉檢測是當(dāng)前人工智能領(lǐng)域最為成熟的技術(shù)之一,已經(jīng)開始在多個領(lǐng)域應(yīng)用推廣。但也有不少人認為,人臉檢測等人工智能技術(shù)雖然能夠提供極大便利,但也隨之帶來了數(shù)據(jù)隱私泄露等安全隱患,有必要從多個角度開展防范策略研究,以防止用戶數(shù)據(jù)隱私泄露。事實上,在人工智能蓬勃發(fā)展的光環(huán)之下,其所引發(fā)的憂慮遠遠不止隱私數(shù)據(jù)泄露。當(dāng)前,雖然各國大力倡導(dǎo)人工智能的應(yīng)用推廣,但現(xiàn)階段的“弱人工智能”與真正的人腦智慧相差甚遠,缺乏自主認知意識與學(xué)習(xí)能力,十分依賴海量數(shù)據(jù)訓(xùn)練,并且還無法學(xué)習(xí)形成人類的道德倫理觀念,這就意味著“弱人工智能”應(yīng)用過程中存在著大量令人擔(dān)憂的隱患環(huán)節(jié)。

人工智能高速發(fā)展?jié)摬貎纱箫L(fēng)險。對人工智能的憂慮,主要源自人工智能的自身技術(shù)缺陷和技術(shù)潛在濫用兩個方面。在自身技術(shù)缺陷方面,其體現(xiàn)主要集中于兩點。第一,當(dāng)前的機器學(xué)習(xí)本質(zhì)上是一項黑盒技術(shù),其訓(xùn)練過程具有難以解釋、不可控制的特點,且隨著人工智能的應(yīng)用復(fù)雜度、數(shù)據(jù)需求量的指數(shù)式增長,機器學(xué)習(xí)尤其是基于多層神經(jīng)網(wǎng)絡(luò)的深度學(xué)習(xí),其復(fù)雜程度愈發(fā)超出人類理解和控制的范疇,在快速進化過程中極易偏離人類為其預(yù)設(shè)的軌跡。例如,微軟發(fā)布的人工智能推特Tay,在與網(wǎng)友聊天過程中很快就學(xué)會臟話,甚至學(xué)會了種族歧視的言論,導(dǎo)致微軟被迫緊急下線該產(chǎn)品。第二,機器學(xué)習(xí)模型訓(xùn)練過程完全依賴于海量數(shù)據(jù),數(shù)據(jù)的好壞將直接決定人工智能技術(shù)效能,訓(xùn)練數(shù)據(jù)的任何偏差都將在人工智能應(yīng)用中如實反映。例如,亞馬遜的智能簡歷篩選系統(tǒng),由于用于模型訓(xùn)練的簡歷具有男多女少的特點,因此學(xué)會了性別歧視,一旦抓取到簡歷中“女”這一關(guān)鍵詞,便會降低應(yīng)聘者的考核分數(shù)。

在技術(shù)濫用方面,隨著人工智能應(yīng)用領(lǐng)域的快速延伸,人工智能技術(shù)觸及人類道德倫理底線,乃至威脅人類自身安全的事件不斷出現(xiàn)。例如,斯坦福大學(xué)的研究人員2017年發(fā)布了一種依靠面部圖像識別來判斷性取向的算法,該算法判斷男同性戀和女同性戀的準確率分別高達91%和83%。因此,該應(yīng)用只需提取人類上傳在社交網(wǎng)絡(luò)的照片即可判斷其性取向,這無疑是嚴重侵犯個人隱私的行為。此外,人工智能在黑客網(wǎng)絡(luò)攻擊,甚至大規(guī)模殺傷性武器等方面可能的濫用行為,更將引發(fā)難以估量的嚴重后果。事實上,美國軍方已經(jīng)在人工智能軍事化、殺手機器人等領(lǐng)域布局良久,投入了巨資。 防范人工智能風(fēng)險已經(jīng)“在路上”。

伴隨著“AlphaGo戰(zhàn)勝李世石”等標志性事件接連出現(xiàn),人工智能引發(fā)的憂慮也隨之加深,人類開始從法律法規(guī)、道德準則、技術(shù)等多個角度,探索防范人工智能潛在風(fēng)險的手段。在法律法規(guī)方面,2017年,歐美等國家和地區(qū)提出要積極開展人工智能相關(guān)立法研究。例如,英、美分別在《人工智能:未來決策制定的機遇與影響》《人工智能未來法案》中強調(diào),要密切關(guān)注人工智能可能的負面影響,并提出要確保人工智能威脅的最小化。在道德準則方面,2018年3月,谷歌因參與軍方人工智能項目而引發(fā)內(nèi)部員工強烈反對,最終被迫發(fā)布了11條運用人工智能技術(shù)的“不作惡”準則。2018年12月,歐盟發(fā)布人工智能道德指南草案,提出了規(guī)范人工智能應(yīng)用的幾大問題。

此外,在技術(shù)方面,加拿大學(xué)者2018年8月公布的人臉檢測動態(tài)擾亂系統(tǒng)也并非反人工智能的首次技術(shù)嘗試。此前,美國MIT的研究人員就曾嘗試通過構(gòu)建3D對抗樣本來欺騙圖像識別系統(tǒng)。此外,生成對抗網(wǎng)絡(luò)(GANs)的創(chuàng)造者伊恩·古德費洛曾在2017年牽頭組織對抗攻擊防御競賽,引導(dǎo)研究人員開展人工智能算法的攻防比拼,以期引起各方對反人工智能技術(shù)的關(guān)注和研究。

從某種意義上講,當(dāng)人類出于自身福祉考慮開發(fā)出的人工智能令人擔(dān)憂,而相關(guān)法律法規(guī)和技術(shù)倫理又大為滯后時,相比于法律道德的“防君子不防小人”,在技術(shù)層面實實在在地開發(fā)人工智能對抗技術(shù)顯然更能讓人心安。因此,雖然現(xiàn)在的人工智能技術(shù)還很弱,但反人工智能的出現(xiàn)也是必然的。

反人工智能仍處于

起步探索階段

反人工智能歷經(jīng)兩大階段。截至目前,反人工智能技術(shù)的發(fā)展大致經(jīng)歷了兩個階段。早期,反人工智能技術(shù)主要聚焦于通過污染訓(xùn)練數(shù)據(jù)來攻擊機器學(xué)習(xí)模型。這是一種簡單直接的反制方法。但由于機器學(xué)習(xí)模型一般都在封閉環(huán)境中開展訓(xùn)練,很難受到外部干擾,因此這類技術(shù)并未獲得進一步發(fā)展。2014年,伊恩·古德費洛提出的生成對抗網(wǎng)絡(luò)為反人工智能技術(shù)開辟了第二條技術(shù)路徑,研究人員可基于生成對抗網(wǎng)絡(luò)對源數(shù)據(jù)施加微擾,從而構(gòu)造動態(tài)對抗數(shù)據(jù),這一微擾難以被用戶感知,但卻能使機器學(xué)習(xí)模型在檢測識別時做出錯誤判斷。該方法與人工智能技術(shù)相同,都屬于機器學(xué)習(xí)算法。

反人工智能技術(shù)效能仍然較低。與人工智能尚處于初級階段相比,反人工智能在技術(shù)效能和應(yīng)用領(lǐng)域等方面處于更加早期的階段。從技術(shù)效能看,構(gòu)造對抗數(shù)據(jù)的方法易于被有效防御。只要在人工智能模型訓(xùn)練初期利用已知的對抗性數(shù)據(jù)進行訓(xùn)練,就能提升模型辨別良性、惡性數(shù)據(jù)的能力,進而抵御對抗性數(shù)據(jù)對模型系統(tǒng)的壓制。從應(yīng)用領(lǐng)域看,由于反人工智能技術(shù)亦基于機器學(xué)習(xí),因此與人工智能技術(shù)在圖像和語音識別領(lǐng)域發(fā)展最成熟類似,反人工智能技術(shù)也集中在這兩個領(lǐng)域。在自然語言處理、認知推理等其它人工智能應(yīng)用領(lǐng)域,尚無可行的反人工智能解決方案。此外,此類方法只能在人工智能模型系統(tǒng)的推斷環(huán)節(jié)實施干擾,無法在訓(xùn)練環(huán)節(jié)發(fā)揮作用。

反人工智能也須“三思而后用”。反人工智能技術(shù)的出現(xiàn),反映了人類對人工智能發(fā)展的憂慮,但該技術(shù)的發(fā)展與應(yīng)用一樣需要審慎。本質(zhì)上,人工智能和反人工智能都是基于機器學(xué)習(xí)算法的技術(shù),只是在技術(shù)效能上構(gòu)成相互對抗的關(guān)系,即以人工智能對抗人工智能。因此,反人工智能在某種程度上與人工智能同樣具有不可靠性,也同樣面臨著不可控、被濫用的風(fēng)險。例如,自動駕駛高度依賴人工智能的圖像識別技術(shù),倘若反人工智能技術(shù)被非法運用在自動駕駛領(lǐng)域,就可能導(dǎo)致自動駕駛汽車無法有效識別道路信息,從而引發(fā)災(zāi)難性后果。因此,在人工智能演進路徑尚不清晰的情況下,要審慎思考人工智能與反人工智能的關(guān)系,發(fā)展和運用人工智能與反人工智能技術(shù)的同時注重綜合性和互補性,以最大程度確保人工智能在造福人類時可控、可靠、可信。

對策建議

前瞻布局反人工智能技術(shù)研究。圍繞確保人工智能技術(shù)可控、可靠、可信的總體目標,加快推進反人工智能的基礎(chǔ)理論研究和應(yīng)用技術(shù)研發(fā),爭取掌握未來技術(shù)發(fā)展的主動權(quán)。一是支持開展基于生成對抗網(wǎng)絡(luò)的反人工智能技術(shù)研發(fā),提升反人工智能技術(shù)的抗干擾能力和實用性,防止其被人工智能技術(shù)“反對抗”。二是在開展圖像識別、語音識別領(lǐng)域反人工智能技術(shù)研發(fā)的同時,積極探索在自然語言處理、認知推理等領(lǐng)域的反人工智能技術(shù)研究。三是支持開展針對人工智能機器學(xué)習(xí)模型訓(xùn)練環(huán)節(jié)的反人工智能技術(shù)的理論研究和技術(shù)開發(fā)。四是前瞻布局適用于反人工智能技術(shù)研發(fā)的基礎(chǔ)理論,探索機器學(xué)習(xí)以外的革新性技術(shù)路徑。

探索反人工智能應(yīng)用場景。面向人工智能應(yīng)用過程中潛在風(fēng)險防控的現(xiàn)實需求,推動反人工智能技術(shù)的落地應(yīng)用,積極探索人工智能與反人工智能的協(xié)同發(fā)展路徑。一是圍繞智能終端、云端軟件系統(tǒng)等各類人工智能應(yīng)用模式,支持將反人工智能技術(shù)作為風(fēng)險防控模塊嵌入現(xiàn)有的人工智能產(chǎn)品服務(wù),提升其可靠和可控度。二是針對用戶隱私保護、敏感系統(tǒng)防護等特定場景,將反人工智能技術(shù)作為獨立產(chǎn)品,探索信息安全防護產(chǎn)品服務(wù)的開發(fā)與應(yīng)用。三是積極推動現(xiàn)有圖像識別對抗系統(tǒng)、語音識別對抗系統(tǒng)等反人工智能成熟技術(shù)的商業(yè)化落地。

深化人工智能與反人工智能理論研究。從確保人工智能健康發(fā)展、造福人類的根本立場出發(fā),在理論、倫理等層面加強對人工智能、反人工智能的綜合性研究。一是前瞻布局腦科學(xué)、計算機科學(xué)、哲學(xué)等領(lǐng)域的跨領(lǐng)域基礎(chǔ)理論研究,探索人工智能發(fā)展的客觀規(guī)律和根本目標。二是積極開展人工智能的系統(tǒng)研究,提高對人工智能與反人工智能兩者之間關(guān)系及本質(zhì)的認識,明確人工智能與反人工智能的研發(fā)標準、認證體系、應(yīng)用范圍。三是積極參與國際合作,共同開展人工智能道德倫理準則研究,推進相關(guān)法律法規(guī)的研究制定,加快完善人工智能和反人工智能的管理規(guī)范和監(jiān)管手段。

猜你喜歡
機器人工智能研究
機器狗
FMS與YBT相關(guān)性的實證研究
機器狗
遼代千人邑研究述論
視錯覺在平面設(shè)計中的應(yīng)用與研究
EMA伺服控制系統(tǒng)研究
人工智能與就業(yè)
未來機器城