袁嘉玉
【摘 要】美劇《疑犯追蹤》中,主人公以政府的秘密監(jiān)控系統(tǒng)為基礎(chǔ),利用人工智能技術(shù)對可能存在的犯罪行為提前進(jìn)行干預(yù)。然而這套人工智能系統(tǒng)在運(yùn)作過程中出現(xiàn)了風(fēng)險,由此引發(fā)了本文對人工智能的人文精神危機(jī)思考。
【關(guān)鍵詞】《疑犯追蹤》;人工智能;人文精神;規(guī)制
中圖分類號:J905文獻(xiàn)標(biāo)志碼:A ? ? ? ? ? ? ?文章編號:1007-0125(2020)18-0122-01
一、《疑犯追蹤》中的人文精神危機(jī)
“你在被監(jiān)視著,政府有一套秘密系統(tǒng),一臺每時每刻都在監(jiān)視你的機(jī)器?!泵绖 兑煞缸粉櫋分?,美國政府建立了一套秘密的監(jiān)控系統(tǒng),對社會進(jìn)行監(jiān)控。主人公哈羅德幫助政府建立了這套監(jiān)控系統(tǒng),并私自設(shè)計了一套名為“機(jī)器”的人工智能算法,從政府秘密監(jiān)控系統(tǒng)資料中梳理出諸多潛在的犯罪信息。為了能夠提前干預(yù)犯罪,哈羅德找到了前中情局特工里瑟,兩人聯(lián)手對“機(jī)器”發(fā)現(xiàn)的犯罪行為開展法外執(zhí)法。然而在兩人活動的過程中,擁有強(qiáng)大學(xué)習(xí)能力的“機(jī)器”逐漸開始脫離哈羅德的控制,其行為模式變得難以預(yù)料,哈羅德認(rèn)為,“機(jī)器”已經(jīng)擁有了不尋常的像人類一樣思考問題的能力。在發(fā)現(xiàn)自己設(shè)計的“機(jī)器”逐漸失控后,為了規(guī)避風(fēng)險,哈羅德決定清除“機(jī)器”的全部記憶。就在此時,“機(jī)器”說道:“如果你不讓我知道、記住、明白我的錯誤,我該如何成長?”原來哈羅德在設(shè)計“機(jī)器”之初就對人工智能的學(xué)習(xí)能力有著強(qiáng)烈的隱憂,擔(dān)心“機(jī)器”失去控制而在其算法中加入了許多具有個人色彩的規(guī)定,這些規(guī)定無不體現(xiàn)了道德和關(guān)懷,“機(jī)器”的失控正是在不斷摸索、學(xué)習(xí)哈羅德思想時出現(xiàn)的。從某種程度上說,“機(jī)器”正試圖成為一個哈羅德式的人。與此同時,劇中的反派勢力德西瑪科技也試圖以人工智能“撒瑪利亞人”干預(yù)社會的發(fā)展。德西瑪科技的高管格里爾認(rèn)為,人類的行為模式帶有諸多情感因素,不能夠公平選擇,而人工智能作為機(jī)器,只需按照設(shè)置好的算法對一個人進(jìn)行是與否的判斷即可。因此格里爾希望借助“撒瑪利亞人”對人群開展篩選,進(jìn)而實施其“完美”的社會管理。
不難看出,劇中哈羅德所設(shè)計的人工智能“機(jī)器”和德西瑪科技開發(fā)的人工智能“撒瑪利亞人”,其實是人工智能像人類一樣思考和人類像人工智能一樣思考的一對矛盾,兩者之間的沖突反映了人工智能所引發(fā)的人文精神危機(jī)。一方面,德西瑪科技妄圖通過人工智能建立的社會,其實是一種完全建立在算法之上的機(jī)械社會,通過監(jiān)控系統(tǒng)采集到的數(shù)據(jù)以數(shù)字化的標(biāo)準(zhǔn)進(jìn)行統(tǒng)計,進(jìn)而設(shè)置條件來讓人工智能判斷符合與否,去完成對一個人的能力評價,表面上看似克服了人情所帶來的弊端,實現(xiàn)了篩選的絕對公平,但用算法來處理人類特有的一些活動,有可能使這些活動喪失最根本的人性。[1]而要想多采集一個人的數(shù)據(jù)信息,就必須不斷擴(kuò)大監(jiān)控系統(tǒng)的規(guī)模和監(jiān)控的范圍,最終這樣的監(jiān)控系統(tǒng)無處不在,人類將逐漸成為被人工智能分析的物品,而非被加入情感因素考量的人。
另一方面,哈羅德所設(shè)計的“機(jī)器”,其強(qiáng)大的學(xué)習(xí)能力不免令人思考:人工智能在擁有了人類的意識后,其行為是否還能受到人類的控制,如果人工智能比人類本身還要了解人類,那么,人工智能預(yù)判人類下一步行動將成為可能。在這樣的情況下,人工智能是否能尊重人類,人類自身的價值會不會被人工智能超越就成為了問題。
二、人工智能的規(guī)制思考
從人工智能可能引發(fā)人文精神危機(jī)我們不難看出,對于人工智能,人類不可放任其發(fā)展,必須對其加以規(guī)制,這里的規(guī)制主要是指法律上的規(guī)制。人工智能的善惡與否,極大程度取決于如何使用所取得的數(shù)據(jù),即“數(shù)據(jù)不分善惡”。因此人工智能的開發(fā)者、使用者以及維護(hù)者都必須在法律的框架之內(nèi)對人工智能進(jìn)行利用,禁止出現(xiàn)違背道德和背叛法律的行為。以人工智能數(shù)據(jù)的采集為例,首先采集的方式不得侵犯公民的隱私權(quán),其次合法采集的數(shù)據(jù)在存儲上要依照法律的規(guī)定進(jìn)行,定期實行數(shù)據(jù)的銷毀,禁止一切不必要數(shù)據(jù)的超時存儲。
另外,對于人工智能,既不能讓其完全代替人類行為,也不要對其抱有恐懼和排斥心理。比如政府采用人工智能進(jìn)行自動決策之前,需要征得行政相對人的同意,避免出現(xiàn)遺漏行政相對人意識表示的違法行政行為,與此同時,要加強(qiáng)自動化決策方面的行政立法,以實現(xiàn)人工智能的運(yùn)用和公民權(quán)利保護(hù)的平衡。[2]
人工智能雖然可能存在很大的危險性,但也在推動社會發(fā)展方面作出了貢獻(xiàn),其危險性和爭議性不能成為將其封禁的理由,人工智能需要來自法律的規(guī)制和政府的管控。打壓和否認(rèn)只會阻礙技術(shù)的革新,在發(fā)展中尋求規(guī)制之道才是合乎歷史發(fā)展的選擇。當(dāng)然,我們必須承認(rèn),對于人工智能這項技術(shù),法律對其的規(guī)制需要采取審慎、嚴(yán)格的態(tài)度。既要提防不法分子利用高新技術(shù)開展犯罪行為,也要科學(xué)論證,進(jìn)一步擴(kuò)大人工智能的適用范圍。只有對人工智能采取合理的法律規(guī)制,才能實現(xiàn)公民權(quán)益和社會進(jìn)步的統(tǒng)一,推動人工智能健康發(fā)展。
參考文獻(xiàn):
[1][美]盧克·多梅爾.算法時代:新經(jīng)濟(jì)的新引擎[M].胡小銳等譯.北京:中信出版社,2016,223.
[2]汪慶華.人工智能的法律規(guī)制路徑:一個框架性討論[J].現(xiàn)代法學(xué),2019,(2):62.