張 淼
(復旦大學 馬克思主義學院,上海 200433)
人工智能(Artificial Intelligence,簡稱AI) 是對人類智能的模擬和延展,它的核心是算法。作為一種具有劃時代意義的高科技,人工智能的應用將給人類社會帶來深刻的影響。一方面,它促進生產(chǎn)力的快速發(fā)展,依據(jù)埃森哲的報告預測,“2035 年人工智能預期可以為12 個發(fā)達經(jīng)濟體帶來兩倍的經(jīng)濟增長速度,中國的經(jīng)濟增長率將從6.3%提速至7.9%”[1]。同時,人工智能也在改變著人們的生活方式和工作方式。另一方面,由于利益驅(qū)動、治理滯后等,人工智能的發(fā)展也帶來了一系列問題,這不得不引起我們的警醒。如何趨利避害、發(fā)揮人工智能的最大效益成為新時代無法回避的問題。從馬克思主義哲學的視角來審視人工智能, 就會發(fā)現(xiàn)解決人工智能應用問題的路徑。只有合理規(guī)制人工智能的發(fā)展,將人工智能定義為人的機器智能、置于人的掌控之下,才能開創(chuàng)人工智能的美好未來。
如何從勞動中解放出來獲得更多的空閑時間,是人類一直在思考的問題,人們試圖用機器代替勞動。 早在歐洲中世紀,唯名論者R.培根就想構造出一種像人一樣勞動的機器。近代,英國天才圖靈在二戰(zhàn)中破譯德軍密碼時,發(fā)明了一種機器,用來幫助自己破譯。從此,圖靈對機器產(chǎn)生了濃厚的興趣。 他通過大膽猜想、不斷實踐,開展圖靈測試,賦予機器以人的智能,為人工智能的發(fā)展打下了堅實的基礎。
1956 年,約翰·麥卡錫、克勞德·香農(nóng)、赫伯特·西蒙等科學家聚在一起, 探討如何使機器像人一樣言語,如何使機器像人一樣行動等問題,史稱達特茅斯會議,標志著人工智能學科正式誕生。 雖然在當時,人工智能并不被看好,研究的經(jīng)費匱乏、基礎理論薄弱,但是學者們一直在人工智能的道路上艱辛探索。
伴隨著的計算機的飛速發(fā)展,計算機的數(shù)據(jù)承載能力和運算能力大大提高,為人工智能的蓬勃發(fā)展創(chuàng)造了條件。從時空的維度來看,人工智能經(jīng)歷了以下幾次大的發(fā)展。自1956 年成為一門正式學科以來近15 年,研究者制造人工智能機器,用來解決幾何問題和代數(shù)問題等, 在一定程度上幫助人們解決計算的難題,得到了廣泛的關注和認可。 20 世紀80年代,中國、日本和歐美的一些發(fā)達國家政府投入大量的科研經(jīng)費,資助人工智能的研究工作,有力地推進了人工智能的發(fā)展。此階段,專家開發(fā)的機器具有外文翻譯、人機對話、圖像識別等功能。 20 世紀90年代以來,人工智能迎來了前所未有的發(fā)展前景。國際象棋世界冠軍卡斯帕羅夫被IBM 的深藍打敗、圍棋世界冠軍李世石被谷歌的Alpha Go 擊敗等事件的出現(xiàn),讓人們看到人工智能的巨大力量和潛在危險。
ECHO 虛擬助理經(jīng)過微軟的研發(fā),語言能力超過人類;有感知能力的人工神經(jīng)系統(tǒng)在德國被研制出來;機器人編輯Wordsmith 隨后問世。 近年來,人工智能領域取得了很多重大的成就,而2016 年的成果最為顯著,被科學家稱為人工智能爆發(fā)的元年。人工智能運用于生產(chǎn)和生活等各個領域,不知不覺中融入人類的世界。無人機用于明星的舞臺表演,增強演出的效果; 大量智能手機采用人工智能的前沿技術;快遞公司用機器人取代部分快遞員的工作,幫助分揀快遞;無人酒店、無人商店等紛紛涌現(xiàn)。杭州已率先成為人工智能城市,利用人工智能來進行管理,大大提高了工作效率,也方便了市民的生活。
人工智能這股浪潮已經(jīng)向我們襲來,人類要積極應對,而不是一味迎合或者盲目逃避。而科學家們應該遵守摩爾定律、吉爾德(Gilder)定律及梅特卡夫(Metcalfe)定律等學科戒律,使人工智能始終沿著利好的方向發(fā)展,確保人工智能永遠為人類所用、拓展人類的能力。
隨著人工智能技術的逐漸成熟和推廣使用,一些問題和挑戰(zhàn)也相伴產(chǎn)生。 在我們歡呼人工智能給人類帶來便利的同時,也要預估、預判人工智能所引發(fā)的一連串問題。因此,我們有必要針對可能出現(xiàn)的問題,分析其根源,進而推動人工智能的可持續(xù)發(fā)展。
任何技術的開發(fā)和應用的前提條件就是安全,這是第一位的。人工智能作為一項高尖端技術,如果脫離人類的控制,將引發(fā)嚴重的安全問題。其一,技術濫用引發(fā)的安全危機。人工智能可能被不法分子利用,如黑客可以通過智能技術攻擊國家的網(wǎng)站、獲取機密信息。此外,黑客還可以借助計算機技術攻破公司的防火墻,非法獲得公司的財務信息,甚至將公司財務的資金轉(zhuǎn)移到自己名下。其二,技術缺陷或管理不當誘發(fā)的安全隱患。人工智能系統(tǒng)到目前為止還不夠成熟,有些技術是存在漏洞的,可能使人工智能系統(tǒng)出現(xiàn)異常或失靈。 例如, 深度學習技術不完善,機器人的生產(chǎn)及安裝不當會導致嚴重后果等。這不是杞人憂天,2015 年7 月,一位工人在大眾汽車的工廠被自己安裝的機器人殺死。另外,如果保護措施沒做好,無人機、無人駕駛汽車等智能系統(tǒng),可能被犯罪分子侵入,發(fā)出錯誤的指令,使智能機器做出危害社會安全的事情。 其三,物聯(lián)網(wǎng)技術的應用,加大了人工智能的安全風險。 網(wǎng)絡信息資源的空前豐富,加快了人工智能自身的進化速度,大有脫離人類控制的趨勢。而人類對人工智能更加依賴,主客體關系可能逆轉(zhuǎn)的態(tài)勢引起人們的擔憂。
人工智能的產(chǎn)生,帶來了新的倫理問題。 第一,智能機器的行為規(guī)則能否與社會規(guī)范相兼容。 機器人也要遵守社會倫理道德,按照人類倫理來行動。如若不然就會引發(fā)特殊的倫理問題。 谷歌等公司研制的無人駕駛汽車,拆除方向盤、油門和剎車,僅靠智能系統(tǒng)感知周遭情況,基于大數(shù)據(jù)的分析而判斷行車方向。 如果是正常行駛、沒有意外發(fā)生,那么智能汽車可以安全行駛。 然而,遇到前方有5 人闖紅燈,路邊有2 人在等待,在不能及時剎車的情況下,無人駕駛汽車是選擇直行還是轉(zhuǎn)向路邊呢? 而這類交通事故的發(fā)生,又由誰來負責? 顯然,這是人類都難以抉擇的問題。 第二,隨著人工智能技術不斷發(fā)展,機器人可以通過深度學習,掌握更多的知識信息和技能,它做出的判斷往往比人更科學、更準確。目前,智能機器已經(jīng)被用于醫(yī)療、工廠等領域,它們常常承擔著決策和指揮的重要責任。在醫(yī)院,機器人可以幫助醫(yī)生識別病人的病情、指出診治的辦法,甚至可以代替醫(yī)生,獨立地做出診斷、進行救治。 如果一切順利皆大歡喜,但要是因為系統(tǒng)故障發(fā)生醫(yī)療事故,誰來負責?這不得不引起我們的追問,機器人有沒有決策的資格和判斷的能力? 第三,依據(jù)現(xiàn)在的發(fā)展勢頭,未來的機器人還可以具有學習和創(chuàng)造能力。 一旦機器人可以自主學習, 他們就會模仿主人的特點和行為習慣,逐漸形成自己的個性。 這不是天方夜譚,據(jù)新聞報道,國外的聊天機器人就通過網(wǎng)絡聊天,學會發(fā)表不當言論。若不對機器人進行規(guī)范性教育,任由機器人隨意發(fā)展,它們就可能犯錯。因此,對機器人進行教育引導勢在必行。那么,誰來承擔對機器人的教育責任?由于教育缺位引發(fā)的問題又由誰負責?我們必須提前預估這些倫理問題的危害,及早拿出解決的方案。
大數(shù)據(jù)驅(qū)動人工智能的新一輪發(fā)展, 隨之而來的是隱私問題日益顯現(xiàn)。首先,日常生活中的隱私侵犯。人工智能廣泛地應用于人們的生活之中,衣食住行都離不開智能系統(tǒng)。 在淘寶、京東等網(wǎng)上商城購物,商家會記錄消費者的數(shù)據(jù)。這種個人信息被電商平臺記錄下來,經(jīng)過整合、分析,就能推斷買家的購物習慣和偏好,后面平臺就會不定期地給他們推送相符合的商品信息。 這種在不經(jīng)過消費者允許的情況下, 收集個人信息的做法在一定程度上侵犯了個人隱私。其次,很多政府部門、公司和民眾,經(jīng)常把大量的數(shù)據(jù)信息上傳到云端,這樣既方便快捷,也便于提取。 但是,云端儲存信息也存在隱私安全問題。 云端智能系統(tǒng)本身也不是十全十美的,偶爾的漏洞可能造成數(shù)據(jù)丟失或泄露。同時,云計算也面臨來自各方面不法分子的威脅和挑戰(zhàn)。最后,在信息的分析處理及提取過程中,都有可能出現(xiàn)隱私安全問題。工作人員如果操作失誤,可能使數(shù)據(jù)遺失或殘缺;黑客也可能趁機竊取數(shù)據(jù); 提取的信息可能因為保存不當而泄露。
人工智能的發(fā)展迅猛, 是否會在某一天超過人類、進而控制人,這使人們憂心忡忡。 著名科學家霍金聲稱:“人工智能的全面發(fā)展可能導致人類的滅絕?!睙o獨有偶,庫茲韋爾認為,人工智能以超預期的速度趕超人類智能。 2045 年是“奇點”到達的時期,在這極具分裂性的時間點,非生物智能將會10 億倍于今天所有人類的智慧[2](80)。人工智能是高收益與高風險的統(tǒng)一體,關鍵在于人類怎么運用和規(guī)制。人工智能的廣泛使用,大大提高了生產(chǎn)效率,減少了對自然的破壞,進一步解放了人類。然而,不確定的是,人工智能是正在無限制地幫助人類, 還是使得人類逐漸喪失主體性、逐步邊緣化直至毀滅? 因此,人類必須增強前瞻性,做好充分的準備,減少人工智能對人類的威脅。
如果現(xiàn)在不對人工智能加以控制, 將來可能給人類帶來巨大的災難。 正如波斯特洛姆做的曲別針思想實驗: 如果一種人工智能系統(tǒng)被設置為使曲別針的產(chǎn)量最大化,那么,這種人工智能系統(tǒng)很可能具有無法滿足的胃口,不斷地獲取物質(zhì)和能力,走上首先將地球、 然后將整個可觀察宇宙的大部分都變成曲別針的道路[3](153)。 人工智能系統(tǒng)都是基于數(shù)據(jù)分析、遵從特定的指令,它的發(fā)展要符合社會要求,這樣才不會與人類的意愿背道而馳。質(zhì)而言之,人文社會科學從來都不是跟在自然科學后面亦步亦趨的,人文社科應該走在前面、起到領航的作用。不能等到人工智能出現(xiàn)問題,才去想辦法修補。理論的科學性在于,先于實踐而指明發(fā)展的方向。 因此,做好充分的理論準備顯得十分必要。
智能系統(tǒng)終歸是由人研發(fā)的,它產(chǎn)生的問題根源于人的因素和技術本身的缺陷。因此,我們要從人工智能出發(fā),完善人工智能的行業(yè)規(guī)范,切實解決人工智能的應用問題。
將安全管理與風險評估引入人工智能系統(tǒng)的研發(fā)、應用及反饋等過程,是發(fā)展人工智能的應有之義。強化人工智能的安全管理,就是要在生產(chǎn)智能機器之前,全面地分析機器的可靠性和安全性,確保機器生產(chǎn)出來對人類無害。在生產(chǎn)過程中,要加強對科研人員和工作人員的監(jiān)管和教育。 在機器投入使用后,要全程跟蹤、及時反饋,不斷優(yōu)化智能機器的運行狀態(tài)。安全評價指:“主要研究、處理那些還沒有發(fā)生,但有可能發(fā)生的事件,并把這種可能性具體化為一個數(shù)量指標,計算事故發(fā)生的概率,劃分危險等級,制定安全標準和對策措施,并進行綜合比較和評價,從中選擇最佳的方案,預防事故的發(fā)生。 ”[4](11)由此可知,加強對人工智能的安全評估,可以使研發(fā)人員更清楚地認識到智能機器的危害性和潛在威脅,進而設計出更安全的智能系統(tǒng)。
另外,要提高智能機器人自我管控的能力,也就是研制出人工智能的安全系統(tǒng),與工作的主系統(tǒng)同步運行。在遭遇突發(fā)險情時,智能的安全系統(tǒng)可以獨立、及時地采用補救措施,將危害降到最低點。 正如福克斯指出, 應讓人工智能安全系統(tǒng)來嚴格管理人工智能。因為隨著人工智能的快速發(fā)展,它在某些領域?qū)^人類的智能。在未來,人類對于自己研發(fā)的人工智能系統(tǒng),未必能實施全時段、全過程的監(jiān)管。而只要設計出科學合理的人工智能安全系統(tǒng),就能輔助人類更好地管理智能機器。
在研發(fā)智能機器之前, 要將人類的道德準則和倫理規(guī)范轉(zhuǎn)化為算法,編入智能系統(tǒng)中,使機器人成為獨立的道德行為主體,使它們進化為“道德模范”。其一,在生產(chǎn)智能機器之前,就將道德要求編成機器人的行動指令,規(guī)范它們的發(fā)展進程。這種直接輸入的方法簡易、有效,但是需要強大的技術支持,是今后努力的目標。 其二,參照人類的思想道德形成過程,在實踐中,逐步幫助機器人“培養(yǎng)”人的道德觀和價值觀。綜合運用以上兩種方法,將倫理道德規(guī)范編入機器人的智能系統(tǒng)中,使機器人做出更加人性化的道德抉擇和道德行為。此外,還可以將理性因素添加進智能系統(tǒng), 使機器人的行為更加理性、 更加客觀。 歷史上,瓦拉赫和艾倫論證了使機器人成為“道德楷?!钡目尚行浴V灰贫ǔ鋈斯ぶ悄艿膫惱硪?guī)范,并將其轉(zhuǎn)化為算法編入機器人的中樞系統(tǒng),就有可能規(guī)避智能機器的倫理問題。
與此同時, 為了防止居心叵測的技術人員和其他人員惡意濫用智能機器, 也要加強對科研人員等的倫理道德教育。 要將道德準則納入人工智能的從業(yè)規(guī)范中,完善相應的規(guī)章制度,規(guī)范科研人員的言行。開展常態(tài)化的倫理教育,潛移默化地影響從業(yè)人員的思想及行為,提高他們的道德素養(yǎng),增強他們的社會責任感。 只有從智能機器和研發(fā)人員兩個方面入手,落實人工智能的倫理規(guī)范,才能推進人工智能的良性發(fā)展。
伴隨著人工智能的發(fā)展, 必然產(chǎn)生隱私泄露等問題。如何保護隱私成為熱議的話題,隱私權神圣不可侵犯, 我們有必要加強人工智能的隱私保護。 第一,在人工智能時代,要調(diào)整并完善保護隱私的法律體系,使隱私法更契合時代要求和社會現(xiàn)狀。人工智能的發(fā)展和普及,給人類社會帶來了巨大的改變。以前的隱私法已經(jīng)很難適應現(xiàn)在的變化。 立法部門應該回應時代之變和民眾期待,及時更新隱私法,將智能機器和研發(fā)人員等都納入法律軌道, 用嚴格的法律規(guī)范人工智能行業(yè)。 第二,加大國際合作的力度,制定全球通用的人工智能法律規(guī)范,用以保護隱私、維護人工智能的發(fā)展秩序。世界各國要齊心協(xié)力,借助聯(lián)合國等平臺,開展人工智能領域的法律合作,共同構建完善的制度規(guī)范,推動人工智能的新發(fā)展。因為,人工智能作為前沿科技,它將給全世界帶來深遠的影響。它不僅帶來前所未有的機遇,也帶來巨大的風險,需要全人類共同應對、共同行動。第三,要提高研發(fā)人員和其他技術人員的法律意識,增強普通民眾的隱私保護意識。 技術人員因為工作關系可能會接觸到人們的隱私信息,但一定要遵法守法,時刻提醒自己不能侵犯個人隱私,更不能傳播他人隱私。侵犯別人隱私不僅會受到道德的譴責,也會遭到法律的制裁。此外,民眾在日常生活中,在操作智能系統(tǒng)時,不要留下隱私信息,切不可泄露自己的重要信息。
短短六十年,人工智能的發(fā)展速度讓世人震驚。在未來,人工智能會不會全面超過人類智能?人工智能會不會導致人類的滅亡? 這些問題讓人們憂心不已。能否阻止人工智能的發(fā)展步伐,從源頭上消除問題出現(xiàn)的可能性?顯然這是行不通的,依據(jù)現(xiàn)在世界各國的重視程度和人工智能的發(fā)展現(xiàn)狀, 我們很難使人工智能停止發(fā)展。 況且關鍵不在于人工智能發(fā)展的速度,而在于人工智能技術是否永遠掌握在具有正義感的人手中。當然,我們也要限定人工智能的自主程度,牢牢掌握智能系統(tǒng)的控制權。正如霍金斯指出:“對于智能機器我們也要謹慎, 不要太過于依賴它們。 ”[5](224)機器人始終是人類創(chuàng)造的工具,我們可以利用它們?yōu)槿祟愖鍪?,提高工作效率。我們可以發(fā)揮智能機器在存儲信息等方面的優(yōu)勢,為人類謀福利。而人類的感知能力和行為意義等優(yōu)于機器人,在這些方面,人類要親力親為,掌控事件的最終決策權。 另外,我們要限制人工智能的復制能力,使其不能無限地復制下去。技術人員在研發(fā)的過程中,就要設計好智能機器的自主范圍和程度, 要確保機器人完全地聽從人類的指令。 要嚴密管控智能機器的生產(chǎn)和銷售等環(huán)節(jié),避免紕漏的出現(xiàn)。