(中原工學院馬克思主義學院 河南 鄭州 450000)
道德是人類世界永恒的話題,它是人類世界走向文明的標志。表示著人類理性的萌芽,千百年來,道德的進步也伴隨著人類的進步而進步,但是近半個世紀依賴,道德進步的腳步似乎已經(jīng)跟不上社會前進的步伐,這顯然會造成很大的隱患。與此同時,人工智能作為引領(lǐng)新一次技術(shù)革命浪潮的新技術(shù)被全世界所關(guān)注。人工智能技術(shù)是一項高新的高新技術(shù),對它的研究也涉及倫理學、心理學、計算機技術(shù)等等。人工智能技術(shù)的核心其實是試圖用計算機語言解碼出人類思維并進行對人類智能的模擬。在對人類智能模擬的過程中我們當然會對道德進行的審視,這無疑會加速道德的進步。對人工智能倫理問題的研究有很多路徑,其中筆者認為機器倫理是實現(xiàn)道德進步的最佳路徑。
道德進步是一個老生常談的問題。一個孩子可能認為把捕捉到的蒼蠅的翅膀扯下來,看著它們掙扎著四處走動是一件很有趣的事,但當一個成年人看到這種行為是殘忍的,因此是不道德的。隨著我們的正誤意識的增長,我們越來越善于識別和避免甚至是微妙的形式的謊言、欺騙、虐待、忽視和所有這些有害的行為。我們甚至能更好地做出正確的判斷。例如,父母可能會采取欺騙的手段帶他或她的孩子去醫(yī)生,即使知道孩子因為會害怕去到醫(yī)院而傷心地哭泣。此外,人們可以更好地理解一些道德問題所帶來的困難,并理解為什么最終解決這些問題是困難的。墮胎是不道德的嗎?殺了人,騙了人,傷害了人,這樣做合適嗎?如果合適,什么時候合適?
不僅個人可以變得更有道德,整個文化、社會和國家也可以。那些曾經(jīng)完全公開擁護奴隸制的國家會發(fā)現(xiàn)奴隸制是錯誤的。事實上,在過去,強烈的種族和性別歧視曾是司空見慣的事情,但現(xiàn)在,這兩種歧視都被廣泛認為是錯誤的。更重要的是,這種道德成長背后的情感似乎是普遍的:就像其他人不僅僅是我們使用和濫用的工具一樣,我們的自然環(huán)境也不僅僅是我們使用的工具。因此,那些主要利用自然資源的社會現(xiàn)在至少部分地開始保護自然資源。
一個人怎樣才能變得更有道德?很明顯,要通過學些,但學習通常是很復雜的,但究竟什么才是真正的學習呢?學習在一開始通常建立在對別人的模仿,在模仿的過程中,他開始知道別人是真實的存在,就像自己一樣。這意味著他們和自己一樣有恐懼、希望和欲望。他們能感受到痛苦、快樂和絕望。下一步是困難的部分。一般來說,因為別人和自己很像,因為自己很重要,所以別人也很重要。他們的恐懼、希望和欲望很重要;他們的痛苦、快樂和絕望至關(guān)重要。一般來說,我們都會在某個時刻覺得別人和自己很像,因為自己很重要,所以別人也很重要。他們的恐懼、希望和欲望很重要;他們的痛苦、快樂和絕望至關(guān)重要。一個人在明白了他人的重要性時,就獲得了一種激勵因素:知道他人的重要性會以某種方式導致一個人的行為,這是一種激勵。要在道德上成長,一個人必須看到別人的糾纏把責任(責任、要求)放在自己身上:別人的繁榮成為對自己有意義的新事物。尊重這種新事物的行為是合乎道德的。
整個社會的道德進步是一種復雜的相互作用,包括哥白尼個體轉(zhuǎn)向的自下而上的總和,以及對個體的自上而下的社會影響。這種復雜的相互作用所產(chǎn)生的不愉快的、當然也是最重要的結(jié)果是,整個社會以及個人的道德成長將是漫長的。舉個例子:奴隸制度在古代很普遍。但是,即使在150年前,奴隸制仍然被很多西方國家認為是整個社會行為的一種完美的體面方式。此外,盡管它現(xiàn)在在地球上的每個國家都是非法的,但它仍然被廣泛使用。
重要的是,我們在道德上被要求變得更好。正如我們所看到的,道德是關(guān)于他人的行為。它顯然以程度來衡量,我們可以而且確實在道德方面做得更好。然而,我們還沒有達到完全的道德標準(或者至少是非常道德的標準),我們還沒有達到這樣的道德標準,這意味著我們?nèi)匀幻刻鞂Ρ舜撕推渌麆游镒隹膳碌氖虑椤H欢?,這些可怕的事情不應(yīng)該做。為了不這樣做,我們必須提高我們目前的道德水平。請注意這種情況與其他人類能力有多么不同。我們不需要提高數(shù)學成績。在過去的幾千年里,我們變得更好了,而且我們還在繼續(xù)這樣做,在數(shù)學方面變得更好是一個巨大的恩惠;但無論是道德上還是數(shù)學上,我們都不需要在數(shù)學上做得更好。我們不會因為智商不高,能力不強而受人詰問,但是我們卻會因為不夠道德而遭人訓斥。當然道德不是人生來就有的,在人們的成長過程中我們都會有各種各樣的惡的思想,而道德則是約束我們走向惡還轉(zhuǎn)向善的指明燈。但是人類是理智與情感并存的生物,理智提醒我們要遵守它,但事實上更多數(shù)時間我們則是收到情感的支配而做出不道德的行為,這充分說明了在道德上我們是存在閾值的。因此如果存在一個我們的替身,它可以剔除掉我們存在的缺點(沖動、欲望、貪婪等等),而保留下我們的優(yōu)點理性、善良等,那我們的道德閾值將被無限的增大。構(gòu)建我們的替代者涉及兩個問題:(1)構(gòu)建具有人類智能水平的機器,(2)構(gòu)建道德機器。建立前者會給我們帶來后者。然而,正如之前提到的,道德機器不應(yīng)該被創(chuàng)造為是過渡理智的,對他人的關(guān)心是必須的,而這并不是來自純粹的理性、人類層面的智能——這是顯而易見的,因為有很多聰明的壞人。第一個問題是每天都要處理的,因為各種各樣的人工智能研究人員都在努力發(fā)現(xiàn)并實現(xiàn)算法,以說明我們?nèi)祟愂悄壳盀橹沟厍蛏献盥斆鞯膭游?。誠然,從我們當前的智能構(gòu)建技術(shù)到具有人類智能的機器,這是一個巨大的飛躍。然而,在人工智能方面,我們才剛剛起步,我們完全有理由保持樂觀——至少,現(xiàn)在沒有理由悲觀。首先,我們可能有正確的基本理論:計算主義。如果是這樣,那么我們找出控制人類思維的算法只是時間問題。
實現(xiàn)道德機器是為智能機器增加對他人的關(guān)心和同情。同情是一種感覺的情感。因此它涉及到意識。我們對產(chǎn)生意識的機制一無所知,就我們所知,二元論可能是正確的。然而,這并不是絕望的理由。我們也是有意識的。因此,幾乎可以肯定的是,制造具有人類智能水平的機器就是制造有意識的機器一旦我們實現(xiàn)了道德機器。他們將立即成為我們的道德上級(由此推論,它們不會殺死我們)。他們不會花上幾千年的時間來計算出出奴隸制是錯誤的,而是在他們考慮奴隸制的概念的那一刻就知道它是錯誤的。
機器倫理,又稱為計算倫理,它脫胎于計算機倫理,最早由M.安德森在《Towards Machine Ethics: Implementing Two Action-Based Ethical Theories 》提出,其核心思想是給機器添加一個倫理維度,使機器的行為合乎當前社會的倫理規(guī)則。由此來看,機器是構(gòu)建我們替代者的最佳通途。其主要研究領(lǐng)域在于倫理理論嵌入的方法論即給智能機器嵌入何種倫理理論才是最好的。那么在維度上展開討論無疑會使得我們對道德進行重新審視。另外對于在機器上添加倫理維度學界也有不同的聲音。有的人立志于建立一臺完全的道德代理人,他具有和人一樣的道德主體地位,另外還有一種聲音是建立一種道德輔助機器,它只是幫助人們解決道德爭端,不涉及主體地位的本體論之爭,這種聲音也被視為最有可能實現(xiàn)的。
人類的不道德行為通??梢宰匪莸轿覀冃袨橹械奈宸N傾向:(1)我們?nèi)菀妆磺榫w沖昏頭腦,這可能導致我們的行為不理性。(2)我們傾向于只考慮自己的欲望和目標,也就是說,我們傾向于表現(xiàn)得自私自利。(3)我們往往會不假思索地接受周圍人的價值觀。(4)我們沒有好的榜樣.當我們看到我們的英雄行為不道德時,這給了我們一個不努力使自己更有道德的借口。(5)我們追求即時的滿足,道德行為不僅不太可能帶來即時的回報,而且可能不會在我們的一生中帶來來自外部的滿足。
機器倫理研究有助于抵消人類行為中往往導致我們做出不道德行為的傾向。在前面提到的前三個傾向——被情感沖昏頭腦,以自我為中心行事,不加反省地接受周圍人的價值觀——很可能是我們作為一個物種進化歷史的結(jié)果。有強烈的情緒反應(yīng),特殊情況下,例如,允許我們采取行動比花時間更快的使用我們的理性來確定最佳的行動方針,因此它可能是對我們有利的生存變得情緒化的人可以引起迅速采取行動。在最好的情況下,我們發(fā)現(xiàn)自己所處情況下的情緒反應(yīng)與通過理想推理得出的正確行為決定是同步的。然而,我們知道情況并非總是如此。強烈的情緒導致人們犯下了在道德上無法被證明是正確的暴行。
這種以自我為中心的行為傾向,無疑源于確保我們生存和繁衍的進化需要。如果我們不把自己放在第一位,至少在某種程度上,我們將不會繼續(xù)存在。我們必須確保有足夠的食物、住所等;因為未來是不確定的,我們可能習慣于確保在任何時候我們擁有的都比我們需要的要多,以防我們一直依賴的東西被奪走。此外,一個人擁有的個人財產(chǎn)、社會地位等越多,他就越有權(quán)力,這就更有可能確保他的生存。因此,作為不得不與他人競爭生存的生物實體,我們傾向于把自己放在第一位是很自然的。然而,從道德的角度來看,我們至少要考慮所有人類(或許還有其他動物)的福祉,同時也要平等考慮。
此外,我們傾向于接受周圍人的價值觀這一事實也可以從進化的角度來看是有利的。一群人團結(jié)在一起,共同行動,被相似的價值觀所激勵,他們比那些獨自對抗世界的人有更好的生存機會。這是創(chuàng)造社會的動力,也是我們作為社會人進化的原因。然而,研究表明,那些自己可能不會做出令人發(fā)指的行為的人,更有可能作為一個群體的成員做出這種行為。因此,就倫理學家而言,不加思考地采納他人的價值觀存在潛在的危險。
在創(chuàng)造有道德的機器人時,我們不會傾向于將這些人類進化進化的行為納入機器;而且,幸運的是,從零開始創(chuàng)建的機器不會受到進化壓力的影響。我們不希望機器有條件反射的情緒來支配它們的行為。相反,讓機器行為由推理和使用徹底審查的道德原則來指導,肯定是更好的選擇。以今天計算機的速度,在做決定時不會有任何延遲,就像人類一樣。
我們當然不希望機器像人類一樣,在決定如何應(yīng)對道德困境時總是偏袒自己。事實上,想象一個自私的機器似乎很奇怪(除了在科幻小說中),因為很難想象一個有感情的機器。機器設(shè)計者在道德的部分肯定會把重點放在人類的福利上,他們可能會接觸到機器,只是增加了保護裝置,以防止機器不能做它的工作。
機器倫理學家在決定將人類的價值觀納入機器時,不應(yīng)該不加思考地采納人類在其特定社會中的價值觀。除了理論原因外,還有實踐原因。除非它們自己社會中存在的價值觀是一致的,否則它們無法在機器中被實例化;除非這些價值觀被普遍接受,否則這些被編程的機器在全球經(jīng)濟中就沒有競爭力。
我們當然希望,被創(chuàng)造出來的機器將比大多數(shù)人類表現(xiàn)得更合乎道德,并可能成為我們的良好榜樣,而不像人類的“英雄”,他們往往是有缺點的。與道德機器互動應(yīng)該對人類行為產(chǎn)生積極影響。我們將不能再為我們的道德缺陷找借口,說我們沒有好的榜樣來告訴我們應(yīng)該如何行事。特別是兒童,他們應(yīng)該享受與敏感的道德機器人互動,他們的行為是可塑的。這可能需要一段時間,但我們有充分的理由相信,人類的行為將隨著這些互動而改善。也許我們能為人類的福祉做出貢獻的最重要的事情,作為個人和人類的一員,就是提出一個人應(yīng)該如何與他人互動的愿景。機器倫理學家可以在這個有價值的事業(yè)中發(fā)揮領(lǐng)導作用,通過創(chuàng)造理想的榜樣來激勵人類更合乎道德地行事。它們可以創(chuàng)造道德機器——一種不具威脅性的機器,它不僅在許多方面幫助我們,還可以向我們展示,如果我們要作為一個物種生存下去,我們需要如何表現(xiàn)。