胡德良
當今,在人類每天所面臨的各種“危機”中,我們忘記了希望世世代代要繁衍生息下去。這里的“世世代代”不是指200年之后繼續(xù)生存的人們,而是指1 000年或10 000年之后仍將繼續(xù)生存的人們。在這里使用“希望”這個詞,是因為我們面臨著風險,被稱為“生存威脅”的風險——有可能毀滅整個人類的風險。這些風險不僅僅是指大型災難,也指那些可能終結歷史的災難。
幾千年來,人們一直在談論世界末日,但是很少有人努力去避免世界末日的發(fā)生。此外,人類并不擅長應對那些到目前為止沒有發(fā)生過的事情,部分原因是人類習慣于可得性啟發(fā)法—— 對于所了解的事件,人們往往會過高估計類似事件的發(fā)生概率,而對于那些不易記起的事件,人們往往會過低估計其發(fā)生的概率。
英國牛津大學人類未來研究所的研究員安德斯·桑德伯格在美國《大眾科學》網站撰文,為我們梳理出了對人類生存威脅最大的五種事件。但是,有一句話要謹記在心—— 這張單子上列出的不是最終定論。
盡管到目前為止,在戰(zhàn)爭中運用核武器的情況只有兩次(二戰(zhàn)期間投放到廣島和長崎的原子彈),而且核武器的儲備比冷戰(zhàn)時的高峰期有所下降,但是如果認為核戰(zhàn)爭是不可能發(fā)生的,那是錯誤的。事實上,核戰(zhàn)爭并非不可能發(fā)生。
大國之間全面的核戰(zhàn)爭,將會直接或間接地把數(shù)以億計的人置于死地,但這仍不足以使其成為一種生存威脅。真正的威脅是核冬天的到來,也就是爆炸產生的煙灰進入平流層,造成世界上多年的低溫期和干燥期。現(xiàn)代的氣候模擬顯示,核冬天會使全世界絕大部分地區(qū)在多年的時間里無法進行農耕。如果這種情況發(fā)生的話,數(shù)十億的人將會餓死,只剩下七零八落的幸存者,他們可能還會遭受其他威脅,如疾病。主要不能確定的是煙灰會表現(xiàn)出怎樣的性質,煙灰的種類不同,結果可能也會大不相同,目前科學家沒有什么好辦法對此作出估計。
從歷史的情況來看,自然產生的流行病殺死的人比戰(zhàn)爭奪去的生命還多。然而,這些自然產生的流行病不大可能成為生存威脅:總會有些人對病原體有抗性,幸存者的后代們將會擁有更強的抗性。從進化的角度來講,也不支持寄生物種將它們的寄主全部消滅,這一點可以用來解釋為什么隨著梅毒在歐洲的傳播,它卻從一種致命的殺手慢慢轉化為一種慢性病。
遺憾的是,我們現(xiàn)在可以使疾病變得更加嚴重。比較著名的一個例子就是往鼠痘(老鼠的天花病毒)中加入一種額外的基因,鼠痘的致命性就增強了許多,可以感染接種過疫苗的個體。最近對禽流感的研究也表明,一種疾病的傳染性可以人為地得到加強。
目前,有人故意釋放毀滅性東西的風險不大。但是,隨著生物技術越來越高、費用也越來越低,或許有人會使疾病變得更致命。
智慧是非常具有威力的。在解決問題的能力方面以及在團體協(xié)作方面,我們略高一籌,這使得其他猿類動物望塵莫及?,F(xiàn)在,其他猿類動物是否能夠繼續(xù)存在,要靠人類的決定,而不是靠它們自己怎么做。對于人類來說,擁有智慧的確是一種優(yōu)勢。因此,我們想方設法提高個人智慧和集體智慧,從提高認知能力的藥物到人工智能軟件,我們做出了很多努力。
但是,基于軟件的智能也可能會很快從不如人類到變得異常強大。原因在于,這種智能跟生物智能的升級方式有所不同:它在較快的計算機上運行得也會較快,各部件可以安裝在更多的計算機上,不同的版本在運行之中便可以得到測試和升級,所編入的新算法能夠使之在性能上產生飛躍。
有人曾經提出,當軟件的性能足夠卓越、其本身能夠制造出更好的軟件時,“智能爆炸”就成為可能。如果能夠發(fā)生這種飛躍的話,那么智能體系和世界其他體系之間的潛在能力將會存在巨大的差異。
問題是,有智慧的實體善于實現(xiàn)自己的目標,但如果目標設置不當,它們可以利用自己的能力輕而易舉地實現(xiàn)災難性的目標。如果認為智能本身會使某個事物表現(xiàn)得良好而又符合道德規(guī)范,那是沒有道理的。實際上,有可能出現(xiàn)這種情況:某種超級智能系統(tǒng)可能會不去遵守道德規(guī)則,即使這些規(guī)則是正確的。
更加令人擔憂的是,在企圖向人工智能解釋情況的時候,我們遇到了深奧的實際問題和哲學問題。人的價值都是些寬泛、復雜的概念,都是些不易表達的東西。即使能夠表達出來,我們可能也不清楚是否傳達了我們的本意。
納米技術利用原子或分子的精度來控制物質。納米技術本身并不危險,相反該技術對于絕大多數(shù)應用領域來說是一則極好的消息。問題是,就像生物技術一樣,威力的提高也增加了濫用的可能性。
最大的問題不在于人們經常說的“灰色粘質”,這是科學家設想出來的一種可以吞噬一切、能夠自我復制的納米機器。要想達到吞噬一切的目的,這種機器本身也將需要精巧的設計,很難被制造出來。但是在研究這項破壞性技術的過程中,也會有很多額外的收獲。
最明顯的風險就是精密到原子級的制造技術,這種技術對于快速、低成本地制造武器之類的東西是很理想的。如果任何政府都能夠“打印”大量的武器,那么在這樣的一個世界中,軍備競賽將會變得異常迅猛。
對于未來納米技術所帶來的生存威脅,我們無法判斷其可能性的大小。但是,看來這種技術是具有潛在破壞性的,因為它能夠為我們提供我們希望得到的一切。
最令人不安的可能性是:有個非常致命的事物就存在于某處,而我們對其沒有掌握任何線索。
寂靜的天空可能就是此類事件的證據(jù)。找不到外星人是由于生命或智能極其稀少嗎?或者是由于智能生命往往會被徹底消滅嗎?如果真的存在一個未來的“大過濾器”,那么其他的文明肯定也注意到了。即便如此,也于事無補。
不管這種威脅是什么,一旦人們認識到它的存在時,那么就一定是幾乎不可避免的,不管你是誰,也不管你做什么,都無回天之力。我們還不了解任何這樣的威脅,列表中的其他威脅都不是像這樣運行的,但是這種威脅或許是存在的。
請注意,我們對某個威脅尚不了解,并不意味著我們對此無法推知。在麻省理工學院的物理學家馬克斯·泰格馬克和牛津大學人類未來研究院院長、哲學教授尼克·博斯特羅姆聯(lián)合發(fā)表的一篇著名的文章中,他們根據(jù)地球的相對年齡證實,發(fā)生某種系列風險的幾率肯定不到每10億年一次。
你也許會感到納悶:為何氣候變化和流星撞擊沒有進入這個列單呢?無論多么可怕的氣候變化,都不可能使得整個地球成為無法居住的地方。但是如果我們的防御措施失利的話,那么氣候變化還會加劇其他的威脅。流星肯定有可能徹底摧毀我們,但是那一定是在我們極其不幸的情況下發(fā)生的。普通的哺乳動物物種生存了大約100萬年,因此其自然背景滅絕率大約為每年百萬分之一。這比核戰(zhàn)爭的威脅要低得多,而核戰(zhàn)爭在70年之后仍然是人類繼續(xù)生存的最大威脅。