劉舒暢 劉太銀 劉林沖
摘要
文章首先對人工智能的核心技術(shù)進(jìn)行簡要闡述,在此基礎(chǔ)上對人工智能安全問題及其解決方式進(jìn)行論述。期望通過本文的研究能夠?qū)Υ龠M(jìn)人工智能的發(fā)展有所幫助。
【關(guān)鍵詞】人工智能 安全 威脅
1 人工智能的核心技術(shù)
人工智能簡稱AI,這是一門新的技術(shù)科學(xué),主要是研發(fā)用于模擬人的智能方法和技術(shù)。人工智能歸屬于計算機(jī)科學(xué)的范疇,其自誕生以來,便得到領(lǐng)域內(nèi)專家學(xué)者的關(guān)注,由此使得人工智能的相關(guān)理論和技術(shù)在研究中得以不斷完善,在這一前提下,人工智能的應(yīng)用領(lǐng)域逐步擴(kuò)大。人工智能的核心技術(shù)如圖1所示。
模式識別技術(shù)是信息處理和描述分析的過程;機(jī)器學(xué)習(xí)則是一個不斷完善自身性能的過程;數(shù)據(jù)挖掘技術(shù)是利用相關(guān)算法對知識中有價值的信息進(jìn)行挖掘;智能算法是能夠解決某些特定模式的算法,如最短路徑等等。
2 人工智能的安全問題及解決方式
人工智能是新時代的產(chǎn)物,在對它的不斷研究中發(fā)現(xiàn),一旦人工智能具備了自己思考的能力,則可能引起無法想象的安全性問題。
2.1 人工智能的安全隱患分析
人工智能的安全問題不容忽視,隨著人工智能的應(yīng)用領(lǐng)域越來越廣,其影響范圍也不斷擴(kuò)大,具體體現(xiàn)在如下幾個方面:
2.1.1 對國家安全的威脅
現(xiàn)階段,在我國的國防等重要領(lǐng)域中,人工智能得到一定的應(yīng)用,由此極有可能對國家安全造成威脅。相關(guān)研究報告指出,在未來人工智能技術(shù)會像核武器、生物技術(shù),給整個國家的安全造成影響。
2.1.2 對社會安全的危害
隨著人工智能技術(shù)的不斷完善,其在機(jī)械設(shè)備智能化和自動化中的應(yīng)用越來越多,由此使得很多行業(yè)的勞動者面臨著失業(yè)的風(fēng)險,一旦人工智能全面取代勞動者,必將會對社會的安全、穩(wěn)定造成影響?,F(xiàn)如今,人工智能在各個生產(chǎn)領(lǐng)域中的應(yīng)用,對藍(lán)領(lǐng)的就業(yè)構(gòu)成了威脅,有專家指出,未來,人工智能極有可能威脅到白領(lǐng)的就業(yè)。
2.1.3 對人身安全的影響
目前,人工智能技術(shù)已經(jīng)融入到了物聯(lián)網(wǎng)當(dāng)中,各種智能型產(chǎn)品,在人們的工作和生活中得到越來越廣泛的應(yīng)用,一旦智能產(chǎn)品遭受到惡意的網(wǎng)絡(luò)入侵,如無人汽車、智能醫(yī)療設(shè)備等等,既有可能對人們的生命安全造成威脅。
2.2 解決途徑
人工智能在促進(jìn)社會發(fā)展中的作用是有目共睹的,但是由此所產(chǎn)生的安全隱患問題也同樣不容忽視。通過研究分析發(fā)現(xiàn),人工智能的安全問題,主要是由技術(shù)本身造成的,故此,在對此類問題進(jìn)行解決時,應(yīng)當(dāng)從技術(shù)層面入手,以此來達(dá)到化解安全問題的目的。
優(yōu)化設(shè)計:
導(dǎo)致人工智能產(chǎn)品安全性問題的根本原因是:在對產(chǎn)品進(jìn)行研發(fā)設(shè)計的過程中,對可能產(chǎn)生的安全問題考慮的不夠周全,致使設(shè)計出來的產(chǎn)品存在嚴(yán)重的安全隱患,所以,筆者認(rèn)為,想要根本上解決人工智能產(chǎn)品的安全問題,就必須對設(shè)計進(jìn)行不斷地優(yōu)化改進(jìn)。在優(yōu)化設(shè)計的過程中,可以引起倫理設(shè)計,通過這種設(shè)計方法可以使人工智能產(chǎn)品具備與人類相近似的行為判斷能力,在這一前提下,人工智能產(chǎn)品會在思考是否正確的情況下,做出相應(yīng)的行為舉動,而這個行為與人們預(yù)先設(shè)定好的道德標(biāo)準(zhǔn)是相符的,由此可使人工資智能產(chǎn)品只做正確的事情,進(jìn)而可防止對其進(jìn)行不當(dāng)使用或是濫用的情況發(fā)生,相應(yīng)的安全性問題也就不會出現(xiàn),隨著安全隱患的消失,人工智能產(chǎn)品的作用也將得到更加充分地發(fā)揮。業(yè)內(nèi)的一些專業(yè)學(xué)者經(jīng)過不斷地研究后得出這樣一個結(jié)論:在未來一段時期,新一代的人工智能產(chǎn)品將會脫離人類的監(jiān)管范疇,它們會自主地做出各種決定,為使這種決定不違背人類的道德準(zhǔn)則,可在設(shè)計時加入倫理設(shè)計,以此來設(shè)計出具有道德選擇的人工智能產(chǎn)品。在此需要著重闡明的一點是,目前國內(nèi)外的倫理設(shè)計都處于理論的研究層面,在實踐中的應(yīng)用也都是試驗,具體的效果如何,還有待進(jìn)一步觀察。故此,筆者建議加大對倫理設(shè)計的研究力度,盡快使理論轉(zhuǎn)化為實踐應(yīng)用,開發(fā)出擁有道德和行為判斷能力的人工智能產(chǎn)品,以此來解決安全問題。
2.2 采用安全評估技術(shù)
人工智能的發(fā)展速度越來越快,應(yīng)用領(lǐng)域也不斷拓寬,為降低人工智能的安全威脅,可在人工智能產(chǎn)品設(shè)計研發(fā)的過程中,引入安全評估技術(shù),依據(jù)評估結(jié)果判斷產(chǎn)品的安全性,如果發(fā)現(xiàn)存在安全隱患,則應(yīng)對設(shè)計進(jìn)行優(yōu)化改進(jìn),對于無法改進(jìn)的產(chǎn)品,應(yīng)停止研發(fā),以免投入市場后,引起安全問題。通過對人工智能產(chǎn)品進(jìn)行安全性評估,能夠使技術(shù)人員在研發(fā)時,充分認(rèn)識到產(chǎn)品潛在的安全隱患,進(jìn)而采取相應(yīng)的處理措施,確保設(shè)計出來的產(chǎn)品達(dá)到安全性的使用要求。安全評估作為一項工程技術(shù),其能夠有效預(yù)防各種安全事故的發(fā)生,由此,在人工智能安全問題的解決中,采用安全評估是非常有必要的。只有憑借各種有效的技術(shù)方法,才能使人工智能產(chǎn)品的安全問題得以消除,而這也將是未來人工智能研究的重點內(nèi)容。除了安全評估之外,還應(yīng)對人工智能產(chǎn)品進(jìn)行安全管理,可采用動態(tài)管理的方法,以此來提高人工智能產(chǎn)品的安全性。在對人工智能產(chǎn)品進(jìn)行動態(tài)安全管理時,并不需要以人為的方式來進(jìn)行管理,而是可以采用相關(guān)的管理系統(tǒng)來完成此項工作,通過帶有監(jiān)控危險能力的管理系統(tǒng),可在人工智能產(chǎn)品出現(xiàn)安全問題時,進(jìn)行解決處理,而該系統(tǒng)可與人工智能的主系統(tǒng)同時運行,這樣能夠達(dá)到有效管理和控制的目的。
4 結(jié)論
綜上所述,人工智能現(xiàn)己滲透到社會生產(chǎn)和人們的生活當(dāng)中,其在發(fā)揮著自身作用的同時,也都帶來了一定的安全性問題。為此,應(yīng)當(dāng)采取合理可行的技術(shù)措施,解決人工智能的安全問題,以此來促進(jìn)人工質(zhì)量的持續(xù)發(fā)展,使其在推動社會進(jìn)度方面的作用得以最大限度地發(fā)揮。
參考文獻(xiàn)
[1]杜嚴(yán)勇.人工智能安全問題及其解決進(jìn)路[J].哲學(xué)動態(tài),2016(09):99-104.
[2]林思遠(yuǎn),王洪宇.人工智能安全問題及其解決思路[J].中外交流,2018(10).
[3]方梁,劉點兵,侯天樞,潘艷陽.人工智能在銀行的應(yīng)用與分析[J].信息安全研究,2017(12):1125-1128.
[4]劉芬.人工智能與新媒體的進(jìn)化路徑[J].中國傳媒科技,2016(10).