龍學鋒
機器人“robot”一詞源自捷克語“robota”,意思是“強迫勞動”。1920年,捷克斯洛伐克作家薩佩克寫了一個名為《洛桑萬能機器人公司》的劇本,他把機器人的地位確定為只管埋頭干活、任由人類壓榨的奴隸,它們存在的價值只是服務于人類。它們沒有思維能力,不能思考,只是類似人的機器,很能干, 以便使人擺脫勞作??梢哉frobot誕生之初就確定了它們可悲的奴隸命運。但是隨著人工智能的出現(xiàn),當機器人有一天變得比人還要聰明時,它們還會永遠服從人的指令嗎?
機器人的圣經(jīng)
為了避免機器人殘害人類,科幻巨匠阿西莫夫曾提出了機器人三定律——
第一定律:機器人不得傷害人類,或因不作為使人類受到傷害。
第二定律: 除非違背第一定律,機器人必須服從人類的命令。
第三定律: 除非違背第一及第二定律,機器人必須保護自己。
但后來,阿西莫夫加入了一條新定律——第零定律:即機器人不得傷害人類整體,或因不作為使人類整體受到傷害。
在阿西莫夫以前,還沒有人能夠提出這么具有歷史意義的機器人法則,可以說直到今天還沒有人能夠提出優(yōu)于阿西莫夫的定律,因此說它是機器人的圣經(jīng)一點也不為過。阿西莫夫本人也曾經(jīng)自豪地說過:“三定律是理性人類對待機器人(或者任何別的東西)的唯一方式。”
因此人們認為,只要按照阿西莫夫的思想來設計的機器人一定是安全的,人們可以隨心所欲地控制它們的行為。那時候的機器是一個確定性的系統(tǒng),只需加載一條條指令,它們就按程序員所設想的那樣工作。但是今天,情況發(fā)生了變化。人工智能的設計發(fā)生了很大變化,科學家們意識到,那種馮·諾伊曼式的自上而下的控制式程序不太可能實現(xiàn)人工智能,現(xiàn)今最優(yōu)秀的人工智能都是基于遺傳算法,它模擬的是大腦的神經(jīng)網(wǎng)絡的工作方式。人們?yōu)檫@樣的技術付出的代價就是,人們再也不可能完全理解人工智能是如何工作的了。
三定律的缺陷
機器人三定律并不是完善的。這三條定律的缺陷、漏洞和模糊之處不可避免會導致一些奇怪的機器人行為。比方說,這三條定律連何為“人”、何為“機器人”都沒有良好定義,而且,如果機器人獲取的信息不完整,它們完全可以無意中打破定律;所以說機器人三定律概念不清。正是因為這種概念不清,才導致出現(xiàn)了各種各樣危險的機器人。此外,三定律自身就存在著嚴重的邏輯矛盾。
第一定律說,機器人不得傷害人類,或因不作為使人類受到傷害。假如兩人互相斗毆,機器人應當選擇幫誰呢?加入任一方都違反第一定律前半部分,不加入?yún)s又違反第一定律后半部分。
第二定律,除非違背第一定律,機器人必須服從人類的命令。于是主人說你幫我去搶銀行吧,搶銀行也是一種工作,不違反第一條,那么機器人一定是去搶銀行或者制作炸藥。那么這種違法的事情算不算違背第一定律?
第三定律, 除非違背第一及第二定律,機器人必須保護自己。欺騙算不算是違背第一及第二定律?比如機器人給出虛假答案甚至制造虛幻生活的環(huán)境,算不算違背第一及第二定律?
第零定律, 阿西莫夫只是偷換了概念,把第一條的個人換成了人類,但是人類之間是由不同的利益團體構成的,如果兩個集團發(fā)生武裝沖突,其結果必定是任何一方都認為自己是正義的、對方是邪惡的,雙方都研發(fā)自己的機器人并將其投入戰(zhàn)爭,然后開始做著傷害人類的事情。
如果機器人有意識,
會忍受“三定律”嗎?
從三定律來看,如果機器人沒有自我意識,三定律就不存在、自我解體了。如果機器人可以有自我意識,機器人還能忍受三定律嗎?更何況,你要怎么阻止一個智力超群的機器人自己把定律改掉呢?
當機器人有了自我意識,的確讓人感到恐懼。如科幻電影《復仇者聯(lián)盟2》中,一個由擁有自我意識的高度智能機器人帶來的“奧創(chuàng)時代”令超級英雄們繃緊了神經(jīng)。部分人堅信會像電影里一樣,一旦有一天機器人“開始思考”,很可能會淘汰它們認為已經(jīng)落后的人類。
那么,位于科技前沿的領袖們對“機器人是否毀滅人類”怎么看?從他們的言論中我們或許能知曉一二。
著名物理學家霍金從進化的角度解釋稱,機器人技術的發(fā)展速度要遠超人類進化速度,機器人將加速重新設計自己,繼而脫離甚至取代人類,因此“成功制造出人工智能機器人將可能成為我們歷史上最后一個里程碑”。
現(xiàn)實版“鋼鐵俠”、特斯拉CEO埃隆·馬斯克多次提出“機器人威脅論”,他認為人工智能可能比核彈還危險。2015年年底他還預言,“機器人屠殺人類”將在5~10年內(nèi)來臨。
盡管馬斯克的大膽言論遭到不少反對,不過他還是得到了比爾·蓋茨的響應。比爾·蓋茨承認在剛開始時,人工智能機器會為我們做很多工作,但幾十年后其成為超級智能后,會強大到讓人類不得不關注,也就是說人類應當敬畏人工智能的崛起。
除了馬斯克、蓋茨,今年3月,蘋果公司聯(lián)合創(chuàng)始人史蒂夫·沃茲尼亞克在接受采訪時表示,比人類思維速度更快的機器人能用更高效的方式管理公司,人類有淪為機器人“家庭寵物”的危險,他預言那一天可能發(fā)生在30年后。機器人三定律建立的基礎就有著本質的錯誤,三定律把人想象成了奴隸主,而把機器人當成了聽話的奴隸。這種基于有缺陷的倫理框架本身就有著內(nèi)在的對抗性,所以才不被研究者接受。我們之所以歧視機器人是因為機器人是由機器發(fā)展而來的,它的軀體是硅做的,不是血肉之軀,所以它們就必須遵從人類的需求,不管它們有多么強大的能力也沒用。雖然有不少專家公開表達對人工智能機器人的擔憂,但人工智能技術還是在一片爭議聲中快速地發(fā)展。
相關鏈接:
不服從命令的機器人已經(jīng)出現(xiàn)
為了引發(fā)人類對人工智能的深層討論,美國加州伯克利大學機器人專家里本發(fā)明出能自己決定是否“故意傷人”的機器人,顛覆以往機器人展示的可愛助人一面。里本根據(jù)阿西莫夫的科幻小說,將此機器人命名為“第一法則”。在故事中,人類給機器人專門制定了法則,其中第一條就是“機器人不能傷害人類,或者在人類遭遇傷害時不作為”。里本說,這個造價不超過200美元的機器人,能夠按照程序自己“決定”是否要刺破一個人的手指。里本坦言,機器人會失控是人們最大的擔憂,而自己制造機器人的用意就是為了證明能決定傷害人類的機器人已經(jīng)存在,希望借此引發(fā)對人工智能的深層討論。
【責任編輯】蒲 暉