胡章榮
西華師范大學-教育信息技術中心 四川 南充 637001
機器人已經(jīng)在教育、醫(yī)療、軍事、家庭生活等多個領域廣泛應用。隨著技術的發(fā)展與進步,幾乎可以肯定的是,將來機器人的應用會更加廣泛,且在很多地方會與人類越來越類似,甚至非常接近于人類。因而,由此引發(fā)的倫理問題也更加尖銳,自2004年1月,正式提出了“機器人倫理學”這個術語后,很多學者就對機器與人的關系進行過研究,并發(fā)表了自己的意見。20世紀70年代,德雷福斯曾在《煉金術與人工智能》以及《計算機不能做什么》中,從生物、心理學的層次得出了人工智能必將失敗的結(jié)論;《走向機器倫理》一文的作者之一安德森表示,隨著機器的越來越智能化,其也應當承擔一些社會責任,并具有倫理觀念,這樣可以更好進行智能決策;無獨有偶,2008年英國計算機專家諾埃爾·夏基教授就曾經(jīng)呼吁人類應該盡快制定機器(人)相關方面的道德倫理準則。目前,對人工智能倫理道德的研究主要集中在國外,如2005年歐洲機器人研究網(wǎng)絡(EURON)的《機器人倫理學路線圖》、韓國工商能源部頒布的《機器人倫理憲章》、NASA 對“機器人倫理學”所進行的資助等[6]。國內(nèi)研究相對較晚,相關文獻也不齊,但最近幾年越來越多的學者也開始關注該領域的研究。
倫理是哲學的分支,是研究社會道德現(xiàn)象及其規(guī)律的科學,對其研究是很必要的,因為倫理不但可以建立起一種人與人之間的關系,并且可以通過一種潛在的價值觀來對人的行為產(chǎn)生制約與影響。如果沒有倫理道德,我們的社會會有什么人倫與秩序可言[1]。人工智能倫理學是機器人及其他人為智能生物技術倫理學的一部分。通常劃分成機器人倫理和機器倫理,機器人倫理關注人類設計,制造,使用,對待人為創(chuàng)造出來的智能生物時候的道德行為,機器倫理則關注于人工智能產(chǎn)物本身的道德行為[2]。像人倫道德一樣,智能機器人也應該受到人工智能倫理道德的約束。
微軟副總裁沈向洋曾經(jīng)這樣談到人工智能:人類的智能主要體現(xiàn)在感知和認知兩方面,隨著計算機語音和計算機視覺技術的發(fā)展,人工智能在感知方面的到了很大的發(fā)展,但受限于腦科學的發(fā)展,計算機在認知方面遠遠沒有達到和人類相比的水。人工智能在創(chuàng)造新的機會的同時也給人來帶來了很多憂慮,如果人工智能技術應用出現(xiàn)偏差將會給人類帶來很多災難,包括AI武器化、算法偏見、缺乏透明度、通過AI操縱人類行為、工作流失以及數(shù)據(jù)所有權(quán)等。
3.1 沖擊就業(yè) 人工智能不僅在重復性的工作中取代了人類工作,也逐漸在很多復雜性的工作中取代了人類勞動力,如,人工智能正在智慧城市,智能翻譯,智能譜曲,智能管控等這些過去需要成千上萬的勞動力完成的工作中逐漸取代著人類的工作。在不久的將來勢必會得到更廣泛的應用,取代更多的勞動力,造成大批人員失業(yè)。
3.2 財富分配問題 經(jīng)濟體系是以對經(jīng)濟貢獻的補償為基礎的,通常用每小時工資來評估。當涉及到產(chǎn)品和服務,大多數(shù)公司仍然依賴于每小時的工作。但是,通過使用人工智能,一家公司可以大幅減少依賴人力勞動,這意味著利潤可能被分配到更少的人手里。因此,慢慢地,那些以人工智能為主要勞動力的公司將會擁賺到所有的錢,貧富差距日益擴大。
3.3 犯錯不可避免 智能機器人來源于學習,在學習初期都有一個訓練的過程,在這個過程中通過不斷的修正才能得到較高的正確率。顯然,培訓階段不能涵蓋系統(tǒng)在現(xiàn)實世界中可能處理的所有可能的例子,這些系統(tǒng)在某些情況下會被愚弄,而人類不會。如果我們依靠人工智能將我們帶入一個新的勞動、安全和效率的世界,我們就需要確保機器按計劃執(zhí)行,而且人們不能干擾它,以此來為自己的目的而使用它。
3.4 AI遭受攻擊導致災難 技術越強大,它就越能被用于邪惡的或者善意的目的。這不僅適用于生產(chǎn)來取代人類士兵的機器人,或自主武器,而且適用于惡意設計以帶來損害的AI系統(tǒng)。如果AI受到具有惡意目的的人的控制,必將導致不可估量的災難。
隨著人工智能在人們生活中應用越來越廣泛,也有越來越多的人對這些問題開始思考和制定規(guī)則。在過去的兩年時間里,有大量的AI研究人員開啟對AI倫理的思索[5]。2016年12月,由全球100多名人工智能、倫理學及相關領域的思想領袖和專家共同制定并發(fā)布了第一版《合乎倫理的設計:將人類福祉與人工智能和自主系統(tǒng)優(yōu)先考慮的愿景》;2017 年,人類未來研究所發(fā)布的《阿西洛馬人工智能原則》,旨在確保AI為人類利益服務,呼吁全世界的人工智能領域在發(fā)展AI的同時嚴格遵守這些原則,共同保障人類未來的利益和安全[7];以行動為導向的2018年峰會重點討論了能夠產(chǎn)生長期效益,并幫助實現(xiàn)聯(lián)合國可持續(xù)發(fā)展目標的有影響力的AI解決方案。為了制定一套可作為建立全球標準和立法行動基礎的道德準則,EGE 提出了一套基于《歐盟條約》和《歐盟基本權(quán)利憲章》的基本原則和民主先決條件。在條約中指明了人工智能倫理道德建設應遵循的原則和方向,包括人類尊嚴、正義、平等和團結(jié)、自由、民主、法治和問責制、安全保障、身心完整、數(shù)據(jù)保護和隱私、可持續(xù)發(fā)展九個方面。
人工智能正被逐漸應用到各領域,取代人們的工作,各行業(yè)對人工智能的依賴性也在不斷增加,然而人工智能在認知方面的滯后使得它不能像人類那樣去靈活處理所遇到的問題,會給人類帶來一定的隱患。因此,在推動人工智能技術發(fā)展的同時,也需要加強對機器認知方面的研究,指定統(tǒng)一的人工智能法律法規(guī)和相關道德準則。