王 瑞,陳曉英
(渤海大學(xué) 馬克思主義學(xué)院,遼寧 錦州 121013)
人工智能是研究如何利用計算機技術(shù)去模擬人類邏輯思維和智能行為的一門高新科學(xué)技術(shù),這種技術(shù)有助于更加飛快地完成使用者的各種要求和目標(biāo)[1]。實際上,人類不斷發(fā)展人工智能技術(shù),主要是希望能夠應(yīng)用人工智能技術(shù)來完成一些靠人類自身能力無法完成的艱巨工作和任務(wù)。
人工智能歷經(jīng)數(shù)十年的發(fā)展和不斷創(chuàng)新,逐漸走進(jìn)我們的生活,已經(jīng)廣泛應(yīng)用在很多領(lǐng)域之內(nèi),人工智能主要的應(yīng)用領(lǐng)域包括:無人駕駛汽車、面部識別、機器翻譯、聲紋識別、客服智能機器人、智能外呼機器人、智能音箱、個性化推薦、醫(yī)學(xué)圖像領(lǐng)域以及圖像搜索等等。人工智能在各行業(yè)的應(yīng)用不僅給許多行業(yè)帶來巨大經(jīng)濟效益,也為我們的生活帶來很多便利和變化,對社會產(chǎn)生著巨大影響,例如:使人類社會更加智能化、改變?nèi)祟惖纳罘绞?、改變生產(chǎn)關(guān)系結(jié)構(gòu)、提高社會經(jīng)濟效益等。
倫理困境是指社會工作者在社會實踐過程中遇到的一種在道德上難以取舍的模糊和難以找到滿意方案的境地,也即把一些極端錯誤的變態(tài)思想和行為,甚至是反科學(xué)、反道德、反法律、反人類的思想和行為,通過所謂的“人性化”“人本主義”模糊化和邊緣化。社會工作倫理困境的處理原則應(yīng)包括:保護(hù)生命原則、差別平等原則、自由自主原則、最小傷害原則、隱私保密原則。
人工智能是當(dāng)今社會一種新的戰(zhàn)略性技術(shù),它已經(jīng)使科技和產(chǎn)業(yè)發(fā)生了巨大變革,人工智能不僅使人類的體力勞動得到解放,同時也逐漸替代人類的腦力勞動[2]。人工智能可以獨立進(jìn)行算法學(xué)習(xí),實現(xiàn)一步一步進(jìn)化,然后自主完成那些高技術(shù)、高難度、高風(fēng)險的任務(wù)。但是,人類在與人工智能的交互過程中,也正是由于人工智能的顛覆性、復(fù)雜性和關(guān)聯(lián)性等特性,越來越多的倫理問題逐漸凸顯,必須引起大家的重視。
人工智能不斷向強人工智能方向發(fā)展,它不但在外貌上和人類越來越像,而且具備了像人類一樣的感知能力和情感特征。智能機器人作為人類的智能產(chǎn)品,又反過來影響著一個家庭的倫理關(guān)系以及社會中人與人之間的關(guān)系,甚至我們?nèi)祟愖约旱闹黧w地位也遭到巨大挑戰(zhàn),引發(fā)一系列人權(quán)倫理問題。我們應(yīng)不應(yīng)該將機器人納入家庭成員之中或社會人際關(guān)系中?我們應(yīng)不應(yīng)該賦予機器人像人類一樣的基本權(quán)利?我們應(yīng)不應(yīng)該重新構(gòu)建人際關(guān)系價值準(zhǔn)則?我們的一些基本權(quán)利和主體地位可能會受到一定的挑戰(zhàn)[3]。這些問題似乎看著很遙遠(yuǎn),短期內(nèi)與我們個人并沒有多大關(guān)系,但它確實已經(jīng)發(fā)生在我們身邊了。2017 年10 月26 日,一臺名叫Sophia(索菲亞)的機器人被沙特阿拉伯授予國籍,自此索菲亞就成為了世界歷史上第一個具有公民身份的機器人,這件事也因此引起了廣泛議論。
人工智能有一個非常讓人類擔(dān)憂的問題,那就是如果人工智能被不當(dāng)利用或在應(yīng)用中失控危害人類而產(chǎn)生一些糾紛問題,那么到底誰應(yīng)該為這些不確定性的事故買單,是人工智能本身還是研發(fā)者或應(yīng)用者,其所引發(fā)的責(zé)任歸屬問題一直困擾著人類,一時難以解決。例如,工業(yè)自動化時代,誰應(yīng)該對那些失業(yè)的工人負(fù)責(zé)?無人駕駛汽車出現(xiàn)后,誰應(yīng)該為汽車事故買單?人工智能代替醫(yī)生進(jìn)行醫(yī)學(xué)診斷時,如果出現(xiàn)診斷失誤,誰應(yīng)該為這些醫(yī)療事故承擔(dān)責(zé)任?如果這些責(zé)任事先沒有明確劃分,那么當(dāng)人工智能在應(yīng)用中出現(xiàn)事故時,潛在責(zé)任方就會相互推卸責(zé)任,長期下去這些責(zé)任倫理爭論將會頻頻出現(xiàn),最終會擾亂社會秩序,不利于社會的長期穩(wěn)定。
人工智能技術(shù)主要是對大量的用戶信息和數(shù)據(jù)進(jìn)行有效分析,因此,其應(yīng)用離不開廣泛的信息和數(shù)據(jù)收集。然而,這些信息和數(shù)據(jù)在收集中和使用后往往得不到有效管理,造成個人隱私嚴(yán)重泄露,帶來一系列信息安全問題,給人們的生活帶來許多不便。因此,隱私問題仍然是人工智能亟待解決的一個關(guān)鍵問題。在我們的生活中到處都有人工智能的影子,比如:移動支付、人臉識別、網(wǎng)絡(luò)購物、衛(wèi)星導(dǎo)航以及社交通信等;此外,這些智能軟件對用戶信息的采集還是多維度的,包括性別、喜好、住址、職業(yè)、財富、行蹤以及健康等,這使得信息采集者獲取的用戶信息也更加全面。一些政府機構(gòu)和企業(yè)利用業(yè)務(wù)需要在獲取用戶信息后,往往模糊用戶信息的歸屬權(quán),這些私人數(shù)據(jù)給誰用、用來做什么以及使用后如何處理等,最終都由數(shù)據(jù)的采集方?jīng)Q定和控制。這些數(shù)據(jù)是否完全服務(wù)于原始目的,是否被數(shù)據(jù)平臺很好的保護(hù),是否會泄露用戶的隱私,是否會被非法利用,始終令人擔(dān)憂。
人工智能具有智能化、高效化的獨特優(yōu)點,它可以完成許多人類目前所不能完成的復(fù)雜的、高難度的工作,其工作效率和精確度也是人力勞動所不能比擬的。在當(dāng)今高速運轉(zhuǎn)的時代下,各行業(yè)為了追求高效率、低成本,實現(xiàn)利益最大化,紛紛引進(jìn)大批量人工智能代替人力勞動,不但造成了結(jié)構(gòu)性失業(yè),也影響了社會公平。例如:有數(shù)據(jù)顯示,富士康的生產(chǎn)線可以24 小時自動化作業(yè),僅昆山工廠就已經(jīng)有6 萬員工被裁掉。麻省理工學(xué)院有報告稱,在過去20 年,機器人已經(jīng)奪取美國大約360 000—370 000 的崗位,在接下來的十年內(nèi),人工智能將會取代大約3 500 000 個工作崗位[4]。此外,人工智能對科學(xué)技術(shù)型人才要求很高,而傳統(tǒng)勞動力只會一些簡單的機械性工作,已經(jīng)不能滿足人工智能時代的工作需求,所以那些處于社會底層的勞動力被逐漸淘汰,主要由知識分子和科研人員所掌控,這將會進(jìn)一步拉大貧富差距,加劇社會矛盾。
人工智能技術(shù)本來就具有兩面性,發(fā)展中潛藏的倫理風(fēng)險是無法避免的,但我們不能因為潛存?zhèn)惱硖魬?zhàn)就禁止發(fā)展人工智能技術(shù),也不能忽略這些倫理問題,任由其隨意滋生,我們應(yīng)該既要看到人工智能的積極影響,也要看到人工智能潛在的倫理問題,及時采取一定的措施和對策,使人工智能在規(guī)范的基礎(chǔ)上更好地發(fā)展。
一方面,建立健全涉及人工智能的法律法規(guī)??档抡f過,“法律是道德標(biāo)準(zhǔn)的底線”。道德準(zhǔn)則的最低標(biāo)準(zhǔn)是法律,能夠最大效度地規(guī)范人工智能技術(shù)的發(fā)展。因此,人工智能的法律規(guī)范必須不斷完善。首先,在人工智能廣泛應(yīng)用但法律法規(guī)仍然空白的領(lǐng)域,相關(guān)部門應(yīng)積極啟動立法工作;對于已經(jīng)存在的人工智能法律法規(guī),要不斷完善。例如:法律應(yīng)該明文規(guī)定人工智能技術(shù)哪些領(lǐng)域可以研究和應(yīng)用,哪些領(lǐng)域不可涉及;還應(yīng)明確界定人工智能主體的權(quán)利、義務(wù)和責(zé)任,規(guī)定事故發(fā)生后到底誰應(yīng)該承擔(dān)責(zé)任以及承擔(dān)什么責(zé)任,避免因責(zé)任認(rèn)定不清而危害到人類的權(quán)利和利益。另一方面,建立健全涉及人工智能的倫理規(guī)范。必須建立基本的準(zhǔn)則和秩序,對人工智能數(shù)據(jù)的收集、應(yīng)用和保護(hù)進(jìn)行相應(yīng)的規(guī)范;對于人工智能技術(shù)的應(yīng)用還要建立明確的獎懲制度和安全標(biāo)準(zhǔn),嚴(yán)厲打擊那些違背人工智能技術(shù)安全應(yīng)用標(biāo)準(zhǔn)的不法分子,確保數(shù)據(jù)的應(yīng)用符合信息安全標(biāo)準(zhǔn)。
人工智能所引發(fā)的結(jié)構(gòu)性失業(yè)問題,主要是由于伴隨人工智能出現(xiàn)的新職位屬于知識密集型崗位,僅僅簡單的勞動力無法完成,需要高技術(shù)型人才操作,而大多數(shù)員工受教育程度不夠,缺乏科學(xué)知識,無法勝任。要想有效解決人工智能所帶來的這個問題,首先,政府部門應(yīng)貫徹落實科教興國、人才強國戰(zhàn)略。政府部門應(yīng)把教育擺在優(yōu)先地位,增加科技教育投入??萍冀逃龖?yīng)從小學(xué)生抓起,督促學(xué)校和相關(guān)教育機構(gòu)定期對學(xué)生進(jìn)行科技教育,加強教育創(chuàng)新,培養(yǎng)學(xué)生的科技創(chuàng)新意識,為我國培養(yǎng)出高素質(zhì)的科技人才隊伍,滿足科技時代迅猛發(fā)展的需求。其次,企業(yè)應(yīng)積極承擔(dān)起一定的社會責(zé)任。企業(yè)在追求效益的同時,還應(yīng)認(rèn)識到自身的社會責(zé)任,盡可能多地提供工作崗位,緩解社會就業(yè)壓力,定期對在崗人員進(jìn)行人工智能相關(guān)知識的培訓(xùn),在平時舉辦一些科技知識競賽活動,對表現(xiàn)優(yōu)秀的員工給予獎勵,使其能夠更好地勝任人工智能的相關(guān)工作。再次,要增強科研人員的責(zé)任意識??茖W(xué)家不但承擔(dān)著研發(fā)責(zé)任,還應(yīng)承擔(dān)科學(xué)技術(shù)普及責(zé)任,應(yīng)積極向大眾普及科學(xué)知識、科學(xué)技術(shù)的應(yīng)用、科學(xué)方法和科學(xué)精神等內(nèi)容,增強科學(xué)普及的深度、高度和廣度,提高人民大眾普遍的科學(xué)水平,使人民大眾對科技智能產(chǎn)品的操作和應(yīng)用更加熟練和規(guī)范。
人工智能在對用戶的數(shù)據(jù)進(jìn)行采集和應(yīng)用后,容易因管理不當(dāng)造成隱私泄露問題,侵犯客戶的隱私權(quán)。而每個人的隱私權(quán)是神圣不可侵犯的,在使用人工智能的過程中如何保護(hù)隱私成為了大家普遍關(guān)注的熱門話題。一方面,應(yīng)不斷出臺新的有關(guān)人工智能隱私保護(hù)的法律法規(guī)。由于人工智能技術(shù)發(fā)展迅速,過去的隱私保護(hù)法已經(jīng)不能滿足當(dāng)今人工智能發(fā)展的需要,所以必須緊跟人工智能技術(shù)更新的步伐,針對人工智能技術(shù)發(fā)展過程中出現(xiàn)的新問題,及時制定出新的人工智能隱私保護(hù)法,確保人工智能的隱私保護(hù)法符合當(dāng)今時代人工智能的發(fā)展需求,避免出現(xiàn)因人工智能隱私保護(hù)法的落后和不完善而阻礙人工智能發(fā)展的狀況。另一方面,針對人工智能數(shù)據(jù)的收集、應(yīng)用和保護(hù)工作,務(wù)必要加強監(jiān)督和管理。禁止一些無關(guān)企業(yè)和機構(gòu)利用職務(wù)之便隨意采集用戶信息,數(shù)據(jù)的采集和應(yīng)用堅持由專門部門或?qū)B毠ぷ魅藛T負(fù)責(zé),采集后的數(shù)據(jù)嚴(yán)禁讓無關(guān)人員接觸,這樣一旦出現(xiàn)信息泄露問題,比較容易找到責(zé)任人;此外,相關(guān)部門應(yīng)用完數(shù)據(jù)后,務(wù)必要做好對所收集數(shù)據(jù)的保護(hù)工作,合理處理這些數(shù)據(jù);還要加強對數(shù)據(jù)采集、應(yīng)用和后期保護(hù)的監(jiān)管力度,在這一過程中,如若出現(xiàn)不合理操作,違背了隱私保護(hù)法,必須嚴(yán)格懲治,絕不能姑息。
人工智能的發(fā)展離不開有效的監(jiān)管,建立健全人工智能的監(jiān)管體系,政府相關(guān)部門一定要積極發(fā)揮其自身職能優(yōu)勢,根據(jù)不同行業(yè)的現(xiàn)實情況,既要引導(dǎo)各行業(yè)成立專門的人工智能倫理監(jiān)督機構(gòu),還要制定不同的監(jiān)管體系和監(jiān)管標(biāo)準(zhǔn),從智能產(chǎn)品的設(shè)計研發(fā)開始,對人工智能進(jìn)行全方位的監(jiān)督管理。一方面,對于那些已經(jīng)開發(fā)出來的人工智能應(yīng)用軟件,在投入市場應(yīng)用之前,政府部門要及時對其進(jìn)行相關(guān)的技術(shù)檢測,一旦發(fā)現(xiàn)有違規(guī)軟件存在,必須立刻進(jìn)行整改,甚至嚴(yán)格禁止該違規(guī)軟件的推廣使用,使其永遠(yuǎn)退出市場。另一方面,對于在市場上已經(jīng)投入使用的人工智能系統(tǒng),相關(guān)政府部門應(yīng)加強對人工智能應(yīng)用的監(jiān)管力度,以防人工智能被一些追求私利的人非法不當(dāng)使用,使其偏離正常運行,危害人類。為此,政府部門要定期對人工智能的應(yīng)用進(jìn)行審查,看其是否符合倫理道德標(biāo)準(zhǔn),一旦出現(xiàn)問題,要立馬采取措施去阻止,并且嚴(yán)懲那些不法分子。只有以懲戒為主,加強外部的約束和監(jiān)督力量,才能有利于人工智能技術(shù)健康、有序發(fā)展。
綜上所述,人工智能發(fā)展所帶來的倫理風(fēng)險和倫理問題嚴(yán)重影響著人類生活和社會發(fā)展。因此,伴隨著人工智能技術(shù)高速發(fā)展所出現(xiàn)的一系列倫理挑戰(zhàn),一定不能忽略,必須引起廣泛重視。學(xué)術(shù)界和各個領(lǐng)域要與時俱進(jìn),緊跟時代步伐,時時研究人工智能不同發(fā)展階段出現(xiàn)的倫理問題,揭示人工智能在發(fā)展過程中所面臨的瓶頸,制定符合當(dāng)今時代科學(xué)技術(shù)發(fā)展的倫理道德規(guī)范,從而為人工智能發(fā)展道路掃清障礙,同時也為人工智能的發(fā)展提供正確的指引方向。