鐘偉
此次事件,之所有引起人們的高度關(guān)注,并被缺乏理性地無限放大,主要原因還是在于人們對于自己將來是否會被人工智能所“終結(jié)”的擔憂而導(dǎo)致的
7月1日,德國汽車制造商大眾稱,該公司位于德國的一家工廠內(nèi),一個機器人“殺死”了一名外包員工。
大眾發(fā)言人??恕は柧S格表示,這名員工于6月29日在保納塔爾的工廠內(nèi)喪生。希爾維格說,死者今年22歲,在安裝靜止的機器人時,被機器人抓住,擠向了一塊金屬板。檢察官已經(jīng)對事故進行了調(diào)查。在西方工廠,發(fā)生與機器人有關(guān)的死亡事故非常罕見,因為機器人和人之間有安全網(wǎng)籠,防止機器人與人有意外的身體接觸。
這位發(fā)言人說:“我們初步的結(jié)論是人為失誤,而不是機器人出了問題。機器人一般是按照輸入的程序完成組裝過程中的不同任務(wù),而且是在封閉管制區(qū)域內(nèi)抓取汽車零件進行操作。”據(jù)他描述,該名22歲的合同工人當時正在平時用來隔離工作人員和機器人的安全籠內(nèi)設(shè)置機器人的操作程序,事故發(fā)生時另一名工人也在場,但因為身處安全籠外而安然無恙。
是“謀殺”還是安全事故
當英國《金融時報》一名記者將這則新聞發(fā)布在社交網(wǎng)絡(luò)后,立即得到了多次轉(zhuǎn)發(fā),還引發(fā)某些網(wǎng)友對事件不太友好的議論和嘲弄。有人發(fā)現(xiàn)這名女記者與電影《終結(jié)者》中女主角Sarah Connor(人類反抗機器人領(lǐng)袖的母親)名字非常相似,因而認為此事詭異。與此同時,“機器人殺人案”也似乎成了不謀而合的定論。
機器人“殺死”人無疑是一個令人震撼的消息,似乎意味著《終結(jié)者》所預(yù)言的機器人開始崛起并與人類為敵進而戰(zhàn)勝人類的故事將成為現(xiàn)實。然而,在事件真相尚未完全調(diào)查清楚之前,斷言機器人“殺人”似乎言之過早。機器人殺人,是否意味著“終結(jié)者”已經(jīng)出現(xiàn)?對工業(yè)機器人有所了解的人,估計都會給出否定的回答,因為目前最先進的工業(yè)機器人也不具備“蓄意殺人”的智能,這只是一次工業(yè)事故,將此事件定位為“機器人殺人”,更多的只是“標題黨”博出位的一種行為而已。
而且,涉及機器人的人類死亡事件,其實并不是什么新鮮事。自動化裝備導(dǎo)致的工廠致命事件可追溯至幾十年前,早在20世紀70年代就發(fā)生過自動化組裝生產(chǎn)線傷人的事故。
大眾汽車機器人“殺人”事件其實與1981年日本工人發(fā)生的意外事故如出一轍。然而34年過去了,“機器人殺人”、“殺手機器人”這樣的描述卻仍未消失。
人工智能vs機器人
此次事件,之所有引起人們的高度關(guān)注,并被缺乏理性地無限放大,主要原因還是在于人們對于自己將來是否會被人工智能所“終結(jié)”的擔憂而導(dǎo)致的。
已有很多人提出并表達過這樣的憂慮,英國理論物理學家霍金就表示,未來100年內(nèi),人工智能將比人類更為聰明,機器人將控制人類。2013年,霍金還與特斯拉CEO伊隆·馬斯克(Elon Musk)共同發(fā)表公開信,認為人工智能的發(fā)展應(yīng)受到控制。如果智能機器無法保障安全,人類可能陷入黑暗的未來。
具體而言,人工智能和機器人有什么區(qū)別呢?人工智能(Artificial Intelligence,簡稱AI)是研究使計算機來模擬人的某些思維過程和智能行為(如學習、推理、思考、規(guī)劃等)的學科,主要包括計算機實現(xiàn)智能的原理、制造類似于人腦智能的計算機,使計算機能實現(xiàn)更高層次的應(yīng)用。
“機器人”(捷克語Robota)原意是用人手制造的工人。該詞源于捷克作家卡列爾·查培于1920年創(chuàng)作的一部名叫《洛桑萬能機器人公司》的幻想劇中。機器人是自動執(zhí)行工作的機器裝置。它既可以接受人類指揮,又可以運行預(yù)先編排的程序,也可以根據(jù)以人工智能技術(shù)制定的原則綱領(lǐng)行動。它的任務(wù)是協(xié)助或取代人類工作的工作,例如生產(chǎn)業(yè)、建筑業(yè),或是危險的工作。
因此,人工智能其實就是對人的意識、思維的信息過程的模擬,而人工智能機器人就是像人類一樣具有自我意識的機器人。
機器人“殺人論”
不過,目前工業(yè)環(huán)境下的機器人和科幻電影中的擬人機器人還是差別巨大的。這種根據(jù)專業(yè)性功能需要設(shè)計出來的工業(yè)機器人,沒法和根據(jù)美術(shù)設(shè)計的“恐怖谷定律”設(shè)計出來的擬人機器人比親和力。(恐怖谷理論是一個關(guān)于人類對機器人和非人類物體的感覺的假設(shè),它在1970年被提出。當機器人與人類相像超過一定程度的時候,他們的反應(yīng)便會突然變得極為反感。哪怕它與人類有一點點的差別,都會顯得非常顯眼刺目,讓整個機器人顯得非常僵硬恐怖,讓人有面對行尸走肉的感覺。)
此次德國大眾公司出事的這臺機器設(shè)備,應(yīng)該就是工業(yè)機器人。該機器設(shè)備依賴于特定編程程序指令的控制,而非人工智能的自我控制。在此事件中,更大的可能性是技術(shù)員在安裝調(diào)試過程中,意外觸碰或啟動了某些工作程序,致使機器人在指令的驅(qū)動下,發(fā)出一些動作,而這些動作恰巧又撞到并勾起正在范圍內(nèi)工作的技術(shù)人員,由此對其造成了致命的傷害。
在所有關(guān)于“機器人殺人”的言論中,我們不難發(fā)現(xiàn):大家都在或有意或無意地將因機械故障導(dǎo)致的安全事故與有意識行為的“殺人”事件混為一談。所謂安全事故,是指生產(chǎn)制造的過程中突然發(fā)生的,傷害人身安全和健康的意外事件;而殺人事件則是有意識的,在主觀行為驅(qū)動下導(dǎo)致的事故,兩者之間有著本質(zhì)區(qū)別。
如果因此非要給這臺機器設(shè)備定個殺人的“罪名”,那估計只能以“陰謀論者”的邏輯,生產(chǎn)這臺機器設(shè)備的廠家,在制造的過程中便植入了“殺人”的指令。否則,僅憑當前人類在人工智能方面的技術(shù)發(fā)展,是很難支撐起“機器人殺人”論調(diào)的。
其實,但凡有點生活經(jīng)歷或經(jīng)驗的人都知道,機器設(shè)備的操作是有風險的。而且,在我們的日常工作和生活中,因人員的操作不當或失誤導(dǎo)致的“機器人殺人”事件時有發(fā)生。
“終結(jié)者”現(xiàn)階段不存在
若工業(yè)機器人是一種工具,一定程度上解放了工人的雙手,那人工智能則是另一種工具,它在一定程度上替代部分腦力勞動,創(chuàng)造更高效的服務(wù)業(yè)經(jīng)濟。接下來,人工智能的商業(yè)化發(fā)展將會引起服務(wù)業(yè)的重點關(guān)注,工業(yè)機器人替代人類完成了很多重復(fù)勞動、體力勞動、危險勞動等工作,而人工智能的市場價值不只是“替代”關(guān)系那么簡單,它除了可以取代一部分基礎(chǔ)工作外,還能為高端工作提供“智力”輔助,其產(chǎn)生的價值和影響都將更為深遠。
但這種影響有大到像諸多電影演繹的那樣,可以超越甚至控制人類的程度嗎?其實,這種發(fā)展遠比我們幻想的要慢。
致力于人工智能機器人研究的科學家認為,沒有必要大驚小怪。人工智能領(lǐng)域的學者、中國科學院院士譚鐵牛說過,當前的人工智能有智能沒智慧、有智商沒情商、會計算不會算計。要想造出超越人類智能的機器人,人類在科學研究上還有不小的距離。在看得見的未來,人工智能的整體水平還難以超越人類智能,不足以威脅人類的生存。
2014年,研究人員對世界上53個搜索引擎(人工智能)的智商與人的智商進行了測定比較,結(jié)果發(fā)現(xiàn),美國的谷歌搜索智商最高,達到26.5,中國的百度智商次之,為23.5,智商最低的是新西蘭的搜索引擎SearchNZ,為6。但人的智商是,18歲為97,12歲為84.5,6歲為55.5。因此,即便谷歌的高智商也只能相當人類的幼兒,在智商上,智能機器(人)是難以與人為敵并殺死人類的。
未來人工智能機器人是否會“蓄意殺人”,或是奴役人類?業(yè)內(nèi)至少有兩派觀點。一派認為計算機程序無法具備人的理解能力,因此擔心用集成電路、軟件程序等實現(xiàn)的人工智能威脅人類,是杞人憂天。例如,美國哲學家塞爾提出了“漢字屋論證”(也稱“中文房間思想實驗”),試圖證明計算機程序盡管能對各類問題輸出正確的答案,但它并不“理解”這些問題。另一派觀點與之針鋒相對,稱為“強人工智能”,認為計算機程序與人腦思維沒有本質(zhì)區(qū)別,人工智能發(fā)展到一定階段后,就具有推理、學習和解決問題的能力,并將擁有自我意識。
一旦擁有了自我意識,智能機器就可能反叛人類?;艚?、蓋茨、馬斯克等科技界名人對人工智能的擔憂,正基于此。人造機器真的會如美國奇點大學校長庫茲韋爾預(yù)測,在本世紀中葉前超越人類,“進化”成高等智能生命?
如果只是出于這種可能性,就放緩人工智能技術(shù)的研發(fā),那便是因噎廢食了。事實上,盡管蓋茨加入了反人工智能陣營,但微軟正在這一極具商業(yè)前景的領(lǐng)域投入重金。
“人工智能的冬天”?
因此,與其鼓吹“機器人殺人論”,不如關(guān)注一下這次事故后的具體問題以及解讀方式。這類事件以前發(fā)生過,以后也還會再發(fā)生。盡管安全標準持續(xù)提高、人機交互中發(fā)生事故的可能性在下降,這種事件也還是會越來越頻繁,因為機器人的數(shù)量在不斷增加。
這意味著,對這類事故做適當?shù)慕庾x是十分重要的。而要做到“適當”,關(guān)鍵是要用準確和恰當?shù)恼Z言來描述它們。雖然我們感覺,把德國大眾汽車工廠事故稱為“機器人殺死工人”是合理的——大多數(shù)報道也的確這樣做了,但是這樣做卻是在誤導(dǎo),甚至近乎不負責任。相比之下,把表述改成“員工在機器事故中喪生”要好得多。
誠然,把報道標題改成上面這樣就沒那么抓人眼球了,但這正是問題的關(guān)鍵。事實是,不管人們從科幻小說看到并相信的機器人形象可能是什么樣子,也不管機器人在遙遠的將來可能做些什么,我們認識中的“真實意圖”、“情感”和“目的”,現(xiàn)在的機器人還通通沒有。而與最近那些危言聳聽的說法相反,它們在近期也不會獲得這些能力。
汽車工廠中的機器臂,目前并不具備目的、意圖或情感這樣的東西,在短期內(nèi)也不會有。這些機器人只能以颶風(或者汽車和手槍)“殺”人的方式去置人死地。它們無法像某些動物那樣殺人,更別提人類意義上的“謀殺”了。然而,大多數(shù)人看到“機器人殺死工人”時,首先涌入他們腦海的,卻偏偏就是“謀殺”。
堅持要使用正確的表述并不是在咬文嚼字。“機器人殺人”這樣的說法冒著很高的風險。一方面,對機器人毫無根據(jù)的恐懼感,可能會導(dǎo)致另一個毫無必要的“人工智能的冬天”出現(xiàn)——技術(shù)的開發(fā)將不再獲得研究經(jīng)費。這將會延遲或拒絕掉機器人所能帶給工業(yè)和社會的大量好處。
但即使你對機器人帶來的益處不太樂觀,你也仍然應(yīng)該正視這個議題。因為機器人并沒有責任感,人類才應(yīng)該為機器人做的事情負責。然而,隨著機器人越來越普遍,人們會越來越覺得它們真的具備自主性和意圖,因為它們看起來似乎有能力并且應(yīng)該為自己負責。
然而機器人并沒有責任,也沒有負責任的能力。
雖然可能有一天,這些看上去理所應(yīng)當?shù)氖陆K將成為現(xiàn)實,但在很長很長的一段時間內(nèi),這些“看起來是”的觀點還是錯的?,F(xiàn)在,我們甚至已經(jīng)試圖把人機交互分成我們負責的部分和它們負責的部分,這不但引發(fā)了讓機器人當替罪羊的危險,而且放過了那些本應(yīng)負全責的人類設(shè)計者、配置人員和用戶。
在大眾汽車的事故中,一位公司發(fā)言人稱:“最初結(jié)論表明,人為錯誤才是罪魁禍首,而不是機器人的問題?!痹谄渌麍蟮乐?,則說稱是人為錯誤而非機器人的“過失”或“責任”。這樣的語言其實在暗示,在其他情況下,機器人可能會被認為該為事故負責。
如果是機器人存在問題,那么不管問題是錯誤的材料、失靈的電路板、糟糕的程序還是安裝或操作協(xié)議上的不良設(shè)計,這個問題仍然會是人為的錯誤。暗示機器人存在“過失”,實際上是在免除真正與需要為機器人事故負責的人類的責任。
機器人的法律問題
除此之外,這起悲劇更多引發(fā)的是人們對機器人相關(guān)的法律問題的關(guān)注。德國檢察官已經(jīng)對事件展開進一步調(diào)查。檢察官也在考慮是否應(yīng)提出控訴,如果提出,起訴的對象又會是誰。
此外,對大眾工廠出現(xiàn)的這一事件,機器人技術(shù)專家們也傾向于與機器人無關(guān)。
英國薩塞克斯大學計算機科學與人工智能專業(yè)講師布萊·惠特比(Blay Whitby)博士這樣認為:“在當今科技水平下,我們必須明白機器人不應(yīng)當被‘責怪’,它們尚未擁有相當?shù)臎Q策能力。這次不幸的事故從技術(shù)層面和道德層面來說,遇難的機器操作者難免其責,因為事發(fā)時他沒有使用安全防護措施。而事故中更復(fù)雜的關(guān)鍵點在于‘安全防護’是由電腦軟件提供的,那名工人正在設(shè)置的過程中,因此機器人出錯也更加情有可原?!彼€說:“當今世界自動化程度日益提高,我們將越來越多的決定權(quán)交給了各種各樣的機器。記者們應(yīng)當多關(guān)注這類事件,以提高公眾對科技的認知,以及公眾對道德事件的監(jiān)督。”
英國謝菲爾德大學人工智能和機器人技術(shù)專業(yè)名譽教授諾埃爾·沙克(Noel Sharkey)則認為:“機器人并不按照自己的意愿行事,除非被輸入了程序,否則不會襲擊人類。工業(yè)用機器人有可能非常強大,通常有安全性設(shè)計。但是,在操作或編程中肯定也會出現(xiàn)人為錯誤,或者機器失靈,導(dǎo)致發(fā)生事故。當機器人技術(shù)不斷革新,我們可能會看到更多類似的事情發(fā)生?!?/p>
顯然,專家們的觀點多傾向于機器人是無辜的。畢竟,目前現(xiàn)實中的機器人的智能程度尚未能完全擺脫人類的操控,那樣的畫面還僅限于電影作品中的遐想。
一方面,智能機器的設(shè)計和研發(fā)應(yīng)當更加注重安全性能,防止意外發(fā)生,以及盡可能地降低造成人身傷害或財產(chǎn)損壞的風險;另一方面,隨著智能機器的迅速發(fā)展和應(yīng)用,或許我們從未面臨的法律問題將不斷出現(xiàn),判定相關(guān)法律責任的標準和依據(jù)需要重新審視和探討。