將影響并改變未來戰(zhàn)場
去年,在日內(nèi)瓦舉辦的聯(lián)合國特定常規(guī)武器公約會議上,一段可怕的視頻公諸于眾:視頻中,一群神似機器殺人蜂的小型機器人,通過人臉定位瞬間殺死了正在上課的一眾學(xué)生,場面血腥。
小型機器人擁有完全基于人工智能的先進(jìn)技術(shù),并且蘊含可怕的黑科技:廣角攝像頭、傳感器、面部識別,在其中部還有3克炸藥。
在視頻結(jié)尾,伯克利大學(xué)教授、資深A(yù)I研究者斯圖爾特發(fā)出警告,盡管這段視頻和其中的殺人機器人并非真實,但視頻中的科技目前已經(jīng)存在。
在墨爾本舉行的2017國際人工智能聯(lián)合大會上,116位機器人和人工智能公司創(chuàng)始人發(fā)表公開信,呼吁聯(lián)合國在國際范圍內(nèi)禁止“致命性自主武器系統(tǒng)”的使用。
公開信指出,致命性自主武器系統(tǒng)足以構(gòu)成第三次武器革命的威脅——前兩次革命分別是火藥和核武器。這種技術(shù)一旦開發(fā)成功,將有可能把戰(zhàn)爭沖突升級至從未有過的規(guī)模,而且會達(dá)到人類難以控制的速度。
西安政治學(xué)院軍事法學(xué)系教授宋新平分析,致命性自主武器的運用,意味著自然人在武裝沖突中直接發(fā)揮的作用越來越小,武器所發(fā)揮的作用則越來越大,將影響并改變未來戰(zhàn)場的戰(zhàn)斗員構(gòu)成與戰(zhàn)斗能力的變化,特別是這種武器的集群式運用,對未來作戰(zhàn)的指揮體制、力量運用、供給保障等方面將產(chǎn)生革命性影響。
但是,隨著致命性自主武器系統(tǒng)的發(fā)展,它所帶來的爭議也越來越強烈。
首先,有人擔(dān)憂,機器打仗使得人員傷亡大大減少,反過來又會降低戰(zhàn)爭發(fā)動的門檻,武裝沖突發(fā)生的機會會增加。
其次,在倫理方面,致命性自主武器運用于未來的武裝沖突中,這意味著將剝奪自然人生命的權(quán)利交給非自然人。有學(xué)者認(rèn)為,這是將人的生命和人格尊嚴(yán)交給機器來判定,不具有平等性,也是對人類生命權(quán)以及人格尊嚴(yán)的侮辱。
或落入壞人之手用于達(dá)成邪惡目的
并且,只要是軟件,就一定會出錯。
美軍在這方面有真實案例。2007年10月,美軍第3機步師下屬部隊攜帶3臺“利劍”機器人進(jìn)攻一個反美武裝據(jù)點。由于沒有及時更新軟件,其中1臺“利劍”竟把槍口對準(zhǔn)美軍操作人員。
美國《國家利益》雜志網(wǎng)站2016年11月4日刊發(fā)文章指出:“無論計算處理技術(shù)取得多大進(jìn)步,如果沒有人類監(jiān)督和控制,完全自主化的武器系統(tǒng)必將犯錯?!币坏┫到y(tǒng)出錯,可能喪失辨別敵友與平民的能力,導(dǎo)致暴行發(fā)生。而基于智能軟件的自主殺人機器可能在同一時間內(nèi)集體出錯,造成的破壞更大。
支持發(fā)展智能武器的人們認(rèn)為,人工智能作為一種工具,不受情感、態(tài)度等主觀因素的影響,具有客觀公正的優(yōu)勢。但實際上,人工智能建立在算法和大數(shù)據(jù)的基礎(chǔ)上,而算法難免會反映出設(shè)計者本身的喜好,“臟數(shù)據(jù)”則會導(dǎo)致人工智能產(chǎn)生偏見。
不難想象,一旦將存在認(rèn)知偏見的智能化武器投入未來戰(zhàn)場,很可能會對某一類人群濫用武力。
與核武器不同,自主殺人武器不需要昂貴的稀缺材料,其核心能力來自智能軟件,因此比較容易獲得,因此隨著人工智能技術(shù)日益平民化,犯罪分子、恐怖分子、叛亂分子等邪惡勢力在黑市上獲得自主殺人武器只是時間問題。
一旦自主殺人武器落入壞人之手,將成為實施殺戮、制造動蕩的工具,后果不堪設(shè)想。
人類戰(zhàn)爭史表明,一旦某種武器能夠帶來非對稱性優(yōu)勢,必將由于國家、部族或群體之間的猜疑、野心和安全感缺失而逐漸擴散,自主殺人武器也不例外。
會使得人類作戰(zhàn)意圖得到更精確的貫徹?
但也有人認(rèn)為,在未來,致命性自主武器系統(tǒng)如果應(yīng)用于戰(zhàn)爭,在軍事方面會起到許多正面作用。例如,降低己方士兵的風(fēng)險,降低人與人之間近距離戰(zhàn)爭的代價。此外,自主武器系統(tǒng)也省去了軍人的薪水、住房、養(yǎng)老、醫(yī)療等開銷,又在速度、準(zhǔn)確性上高于人類,而且不用休息。
還有人認(rèn)為,以上反對意見作為禁用致命性自主武器的理由站不住腳。研究人工智能哲學(xué)的復(fù)旦大學(xué)教授徐英瑾表示,人工智能技術(shù)運用于軍事,會使得人類作戰(zhàn)意圖得到更精確的貫徹,可使得正義戰(zhàn)爭快速結(jié)束。
人工智能公司、國際組織紛紛呼吁禁止致命性自主武器系統(tǒng),但現(xiàn)狀是,至今國際社會仍然沒有就致命性自主武器系統(tǒng)問題達(dá)成統(tǒng)一認(rèn)識,甚至還沒有統(tǒng)一的定義。
(《中國國防報》2018.3.15、《重慶晨報》2017.11.21等)