儀欣妍
【摘 要】被譽(yù)為中國首部硬科幻作品《流浪地球》在2019年春節(jié)上映后,口碑票房雙豐收,在這部科幻電影中展現(xiàn)了超強(qiáng)的人工智能時代,貫穿電影《流浪地球》中的人工智能Moss,更是在很多細(xì)節(jié)中透視著人工智能未來發(fā)展的新趨勢,引發(fā)了人們對人工智能的思考,人工智能的倫理意識是人類對人工智能的研究發(fā)展面臨的最嚴(yán)峻問題。本文結(jié)合科幻電影《流浪地球》簡要探析人工智能的倫理意識。
【關(guān)鍵詞】科幻電影;人工智能;倫理意識;人類文明
中圖分類號:J905? 文獻(xiàn)標(biāo)志碼:A? ? ? ? ? ? ? 文章編號:1007-0125(2019)29-0093-02
科幻電影《流浪地球》中的人工智能,叫Moss,它是在影片背景下未來世界全球聯(lián)合政府研究出的超級人工智能,也算是當(dāng)世最高級別的人工智能。但是人工智能仍有缺陷,即過于理性。以電影《流浪地球》中的人工智能Moss來說,它的所有判斷都基于計(jì)算的結(jié)果和預(yù)設(shè)的程序,包括在電影情節(jié)中切斷通話、放棄地球,都是人們預(yù)設(shè)的程序,要求這個程序完成任務(wù)。所以,即使影片最后Moss沒有叛變?nèi)祟?,它也存在過分理智的問題。
在電影《流浪地球》中,人工智能Moss作為整個領(lǐng)航員空間站的中樞控制系統(tǒng),它的權(quán)限非常大,作為空間站的一部分,不僅控制著整個空間站的運(yùn)作及其中的宇航員,甚至擁有空間站之外的權(quán)限,包括向全球發(fā)布廣播、主動聯(lián)系地球上的人員、聯(lián)系世界聯(lián)合政府,等等。可以說,是Moss在主導(dǎo)著“流浪地球計(jì)劃”的進(jìn)行,甚至當(dāng)?shù)厍驘o可挽回時,它還背負(fù)著一個連空間站的宇航員這些真正的人類都不知道的用以延續(xù)人類文明的“火種計(jì)劃”。Moss基于“使人類文明得以存續(xù)”的任務(wù)目標(biāo),在“地球最后的時刻”作出了選擇,它選擇放棄為地球領(lǐng)航,獨(dú)自離開地球,將預(yù)先儲存在空間站內(nèi)的受精卵、動植物DNA、人類文明的影像、圖片、文字等帶去目標(biāo)星系,這是它的“火種計(jì)劃”,為人類文明留下最后的火種。而當(dāng)聯(lián)合政府和劉培強(qiáng)中校決定孤注一擲去拯救地球時,Moss相信自己的數(shù)據(jù)分析,以計(jì)算機(jī)的邏輯思考,努力阻止人類用毀滅“火種”的方式試圖拯救地球,但都無濟(jì)于事。Moss或許沒有背叛人類,當(dāng)然也沒有分析錯誤,從它絕對理性的角度來看,保護(hù)空間站上所有生物、數(shù)據(jù)、資料,要比保護(hù)地球更容易,在當(dāng)時的環(huán)境下也的確是更好、成功率更高的選擇。但它終究還是過于理性,不能理解人類謂之為“希望”的東西,也不能理解人類哪怕孤注一擲也要奮力一搏與家園共進(jìn)退的決心。人工智能沒有情感,不相信希望,更不相信奇跡,因?yàn)槌绦虻乃季S方式和它的計(jì)算中沒有奇跡。同時,人工智能也缺乏很多人性中難能可貴的閃光點(diǎn),包括無私奉獻(xiàn)、舍己為人等,它們可能缺乏好奇心,缺乏取舍和判斷,甚至有一些倫理問題連人類都尚未得出答案。而人類之所以存活到現(xiàn)在,都存在著奇跡與希望,人類的潛力是不可估量的,所以劉培強(qiáng)中校選擇了毀滅Moss,放手一搏。也許Moss到最后也不明白,這種叫“希望”的東西,才是人類文明中,隱藏最深的“火種”。
人類謂之為“情感”的東西,使人類區(qū)別于人工智能和電腦,情感使人類不會時刻保持理性地去計(jì)算一切得失和可能,不會因?yàn)榭赡苄詷O低而放棄嘗試,這使得人類相信“奇跡”而去完成許多“不可能的任務(wù)”。但這種在人工智能邏輯中極低概率的星星之火,給了人類名為“希望”的寶藏,人類為了希望會去冒險(xiǎn),會去創(chuàng)新,會去不斷努力,哪怕前路渺茫,這讓人類最終成為了改變世界的種族。這是固守僵化邏輯的人工智能無法獲得的能力,也是它們無法企及的高度。
有一點(diǎn)需要人們警醒,太多的人類正在不知不覺放棄情感。電影《機(jī)械姬》中就警示了這一點(diǎn),人工智能沒有情感,卻又能利用人類的情感,是很可怕的一件事情。人類雖然擔(dān)憂人工智能超智能的發(fā)展會導(dǎo)致“奇跡”湮滅,但生物趨利避害的本能使人類的社會規(guī)范走向了利己主義。也許只有當(dāng)全人類站在一起,面對一個危害全人類的饕餮巨獸時,人類最原始的情感和“希望之火”才能重新被點(diǎn)燃。
“隨著人工智能飛速發(fā)展,倫理問題也許會成為制約人工智能造福人類社會的巨大障礙,正確處理好人工智能應(yīng)用中的倫理問題是人工智能治理的重大課題?!盵1]霍金也曾說過,“未來人工智能可能會以生化戰(zhàn)爭或核子戰(zhàn)爭的方式摧毀人類?!逼鋵?shí)在現(xiàn)在許多科幻題材的電影作品中,人類被其他人工智能或機(jī)器圈養(yǎng)甚至滅絕的話題屢見不鮮,比如電影《復(fù)仇者聯(lián)盟》的奧創(chuàng),原本鋼鐵俠想用這個高級的人工智能維護(hù)和平,但是這個高級的人工智能錯誤理解了和平的意義,認(rèn)為世界如果沒有人類也就沒有了戰(zhàn)爭。人工智能即使能思考,但其價(jià)值觀念和道德體系也不可能和人類的思維一樣,也有可能作出不利于人類的引導(dǎo)。“一個超級聰明的人工智能可以非常好地實(shí)現(xiàn)它的目標(biāo),如果這些目標(biāo)沒有與我們?nèi)祟愐恢?,我們?nèi)祟惥吐闊┝?。”[2]人工智能如果發(fā)達(dá)到一定程度,一旦意識到自己和人類是不同的物種,它就會產(chǎn)生利己心,到那時就是人工智能和人類的斗爭了,像科幻電影《2001天空漫游》《機(jī)械公敵》《機(jī)械姬》《黑客帝國》等都體現(xiàn)了人工智能智慧的問題,它一旦足夠聰明,就有了野心,有了野心就是隱患。
人工智能在許多方面優(yōu)于人類,無論是機(jī)械強(qiáng)度還是邏輯速度都是人類不可企及的,但是當(dāng)未來人工智能為人類文明提供的服務(wù)越來越多,越來越全面時,人類自己去完成的工作就會越來越少,這對人類來說并非是好事。因?yàn)槿祟悤聊缬诳萍紟淼南硎芎褪孢m中,進(jìn)化論決定了人類一旦不需要勞動將會逐步將身體進(jìn)化為另一種更適應(yīng)思考而非勞動的狀態(tài),即“頭腦發(fā)達(dá),四肢簡單”。動畫片《哆啦A夢》劇場版有一集劇情中,人類被人工智能所取代,人類只能生活在氧氣車?yán)铩6溲娜斯ぶ悄懿⒉粫谝馄渌锓N的生死,這就很容易成為催化暴力和戰(zhàn)爭的存在。
綜上所述,“未來人工智能技術(shù)會發(fā)展成何種境況還很難預(yù)測,但是想象天馬行空的科幻電影給了我們一個很好的討論視域和平臺?!盵3]如今,人工智能可以幫助人類去計(jì)算、去分析,幫助人類作出更理性、更有邏輯的決定,但作為人工智能,它始終區(qū)別人類的一點(diǎn)是,無法擁有人類的感性和血性,人類有感情,有喜怒哀樂,這是人類作為有血有肉的碳基生命區(qū)別于冰冷機(jī)器的所在。人工智能永遠(yuǎn)無法理解的一種情況,即人類在面對重大危難時,從人性深處迸發(fā)出的團(tuán)結(jié)精神、犧牲精神,以及對希望的向往是獨(dú)有的。而人類對人類文明的傳承,也是必須身體力行的,就像電影《流浪地球》中提到的,沒有人類的人類文明不能叫人類文明。除了人類已經(jīng)創(chuàng)造出的能夠留下痕跡的文明之外,作為人類這個生命體本身還擁有珍貴的感情,擁有希望與信念,擁有對未來的無所畏懼,以及為了希望放手一搏,這些被人工智能認(rèn)為是人類不理智表現(xiàn)的“情緒化”行為,才是人類文明中真正發(fā)光的東西。
參考文獻(xiàn):
[1]聶磊.人工智能如何才能“健康發(fā)展”[J].上觀新聞,2018.
[2]史蒂芬·霍金.對大問題的簡明回答 [M].Bantam出版社,2018.
[3]馬珊珊.焦明甲.欲望、理性與真實(shí):科幻電影中的人工智能倫理問題[J].視聽,2018.