識(shí)界該不該賦予機(jī)器人殺ISIS的權(quán)力?
想象一下這樣的未來(lái)場(chǎng)景:以美國(guó)為首的聯(lián)軍正在逼近敘利亞的拉卡(Raqqa),決心消滅ISIS。多國(guó)部隊(duì)出動(dòng)一批致命的自主機(jī)器人,圍著城市四處飛行,追蹤敵人。利用面部識(shí)別技術(shù),這些機(jī)器人識(shí)別和殺死ISIS的指揮官,斬落了這個(gè)組織的頭目。在聯(lián)軍和平民傷亡最少的情況下,瓦解了不知所措、士氣低落的ISIS部隊(duì)。
這聽(tīng)起來(lái)大快人心,好像是很好地運(yùn)用了技術(shù)優(yōu)勢(shì)。事實(shí)上,有很多人不這么認(rèn)為,包括人工智能領(lǐng)域的很多專(zhuān)家。
去年7月,眾多人工智能研究人員發(fā)表了一封公開(kāi)信,警告稱(chēng)這種技術(shù)已經(jīng)發(fā)展到一定程度,幾年以后——而無(wú)需幾十年——就有可能部署“致命自主武器系統(tǒng)”(Lethal Autonomous Weapons Systems,它還有一個(gè)不相稱(chēng)的簡(jiǎn)稱(chēng),Laws,意為“法律”)。不像核武器,這類(lèi)系統(tǒng)能以低廉成本大規(guī)模生產(chǎn),成為“明天的AK-47”。
“它們?cè)缤頃?huì)出現(xiàn)在黑市上,落入恐怖分子、希望更好地控制民眾的獨(dú)裁者和想要進(jìn)行種族清洗的軍閥的手中,”他們表示,“在軍用人工智能領(lǐng)域開(kāi)啟一場(chǎng)軍備競(jìng)賽是一個(gè)壞主意,應(yīng)該對(duì)超出人類(lèi)有效控制的攻擊性自主武器施加禁令,以防止這樣的軍備競(jìng)賽?!?/p>
美國(guó)大體上已承諾放棄使用攻擊性自主武器。本月早些時(shí)候,聯(lián)合國(guó)在日內(nèi)瓦舉行了有94個(gè)軍事強(qiáng)國(guó)參加的新一輪談判,旨在擬定一項(xiàng)限制此類(lèi)武器使用的國(guó)際協(xié)定。
主要論據(jù)是道德層面上的:賦予機(jī)器人殺人的代理權(quán),將越過(guò)一條永遠(yuǎn)不應(yīng)被越過(guò)的紅線。
因?yàn)殚_(kāi)展反對(duì)地雷的運(yùn)動(dòng)而獲得諾貝爾和平獎(jiǎng)的喬迪·威廉斯(Jody Williams)是“阻止殺手機(jī)器人運(yùn)動(dòng)”(Campaign To Stop Killer Robots)的發(fā)言人,他表示自主武器比核武器更可怕?!叭绻恍┤苏J(rèn)為把人類(lèi)的生殺大權(quán)交給一臺(tái)機(jī)器是可以的,人性又何以處之?”
除了純粹的道德問(wèn)題以外,還有其他令人擔(dān)憂(yōu)的問(wèn)題。殺手機(jī)器人會(huì)降低戰(zhàn)爭(zhēng)中的人員成本,爆發(fā)沖突的可能性是否會(huì)因此提高?如何阻止這類(lèi)系統(tǒng)的擴(kuò)散?當(dāng)它們出問(wèn)題的時(shí)候誰(shuí)來(lái)負(fù)責(zé)?
在一個(gè)哲學(xué)研討會(huì)上,反對(duì)殺手機(jī)器人的道德理由已是足夠明顯。問(wèn)題在于,你越是近距離觀察它們?cè)趹?zhàn)爭(zhēng)硝煙中可能的用處,就越難分辨出道德的界限。(有限自主的)機(jī)器人已經(jīng)被用于戰(zhàn)場(chǎng)上,應(yīng)用在拆彈、排雷和反導(dǎo)系統(tǒng)等。它們的應(yīng)用范圍還將大為擴(kuò)大。
軍工界用其最?lèi)?ài)使用的置身事外的論調(diào),對(duì)機(jī)器人不同的自主等級(jí)進(jìn)行了區(qū)分。第一類(lèi)被稱(chēng)為“人在環(huán)中”(humans-in-the-loop),包括被美軍和其他軍隊(duì)廣泛使用的“捕食者”無(wú)人機(jī)。第二類(lèi)是“人在環(huán)中系統(tǒng)”(humans-in-the-loop system),人對(duì)機(jī)器人武器系統(tǒng)進(jìn)行監(jiān)督,包括防空炮。但現(xiàn)代戰(zhàn)爭(zhēng)的速度和強(qiáng)度讓人懷疑這種人類(lèi)的監(jiān)督能否形成有效控制。第三類(lèi)是“人在環(huán)外系統(tǒng)”(humans-out-of-the-loop system),比如完全自主的無(wú)人機(jī),這種可能是最致命的,但也很可能是最容易禁止的。
人工智能研究人員通過(guò)發(fā)表公開(kāi)信,引起人們對(duì)戰(zhàn)爭(zhēng)、武器以及和平的思考。