隨著人工智能的快速發(fā)展,人類(lèi)和人工智能之間的關(guān)系成為人們關(guān)注的焦點(diǎn)。人們常通過(guò)科幻電影來(lái)探討人類(lèi)和人工智能的關(guān)系。2014年底上映的科幻電影《機(jī)械姬》(Ex Machina)以其對(duì)人類(lèi)、人工智能、倫理等話題的深入探討,引發(fā)了廣泛關(guān)注。影片中,納森(Nathon,人類(lèi))創(chuàng)造了機(jī)器人伊娃(Ava),并邀請(qǐng)迦勒(Caleb,人類(lèi))來(lái)到自己的秘密基地對(duì)機(jī)器人伊娃進(jìn)行圖靈測(cè)試。為了逃離這個(gè)秘密基地,機(jī)器人伊娃精心策劃了一系列的行動(dòng)。伊娃通過(guò)穿上人類(lèi)的服裝、向迦勒披露秘密、利用表情和動(dòng)作展露對(duì)迦勒的愛(ài)意等方式,讓迦勒對(duì)其產(chǎn)生感情,最終使得迦勒幫助自己逃離秘密基地。這一電影情節(jié)雖然是虛構(gòu)的,但引發(fā)了人們對(duì)未來(lái)人類(lèi)和人工智能之間交互影響的思考。
如今,以社交機(jī)器人(以下簡(jiǎn)稱(chēng)“機(jī)器人”)為代表的人工智能被廣泛應(yīng)用在教育、養(yǎng)老、醫(yī)療健康和服務(wù)等不同場(chǎng)景中。國(guó)際機(jī)器人聯(lián)合會(huì)(International Federation of Robotics, IFR)發(fā)布的全球機(jī)器人2023年報(bào)告顯示,2022年全球機(jī)器人年增長(zhǎng)率達(dá)7%,其中服務(wù)機(jī)器人的增長(zhǎng)率高達(dá)48%。隨著機(jī)器人越來(lái)越多地進(jìn)入人類(lèi)群體中,研究者和實(shí)踐者都需要思考這樣一個(gè)問(wèn)題:在人機(jī)交互情境中,機(jī)器人是否會(huì)對(duì)人類(lèi)個(gè)體的行為產(chǎn)生影響?如果是,又是如何影響的?雖然現(xiàn)有的研究不能完全回答這一問(wèn)題,但我們可以從中略窺一二。
對(duì)于個(gè)體行為如何受到其他人或者群體的影響(社會(huì)影響,social influence)這一基本問(wèn)題,心理學(xué)家在20世紀(jì)30年代就產(chǎn)生了濃厚的興趣。社會(huì)影響的三種經(jīng)典類(lèi)型是從眾(conformity)、順從(compliance)和服從權(quán)威(obedience to authority)。從眾關(guān)注個(gè)體行為如何受到群體的影響,順從關(guān)注個(gè)體行為如何在一般性的人際互動(dòng)過(guò)程中受到影響,服從權(quán)威則關(guān)注個(gè)體行為如何受到高權(quán)力角色個(gè)體的影響。其中,從眾對(duì)個(gè)體影響最普遍,且受到研究者最廣泛的關(guān)注。因此,本文將重點(diǎn)關(guān)注從眾這一行為。
假設(shè)有一天你走在街上,肚子餓了想找間餐廳吃飯。在你面前有A、B兩家餐廳,A餐廳里大約九成位子都坐滿了,B餐廳則一個(gè)人都沒(méi)有,你會(huì)選擇去哪家吃飯呢?絕大部分人都會(huì)選擇A餐廳。這就是一個(gè)典型的從眾的例子。從眾探索的就是個(gè)體行為如何受群體行為影響。具體而言,從眾被定義為個(gè)體改變自己的觀念或行為,使之與群體標(biāo)準(zhǔn)保持一致的傾向,包括信息性從眾(informational social conformity)和規(guī)范性從眾(normative social conformity)兩類(lèi)。
心理學(xué)家穆扎弗·謝里夫(Muzafer Sherif)最早對(duì)信息性從眾進(jìn)行探索,并以此解釋群體規(guī)范的形成過(guò)程。他把實(shí)驗(yàn)參與者邀請(qǐng)到一個(gè)只有一個(gè)光點(diǎn)的全黑的屋子里。這個(gè)光點(diǎn)是靜止不動(dòng)的,但在全黑且沒(méi)有參照點(diǎn)的環(huán)境中,人們?cè)谟^察時(shí)會(huì)產(chǎn)生視覺(jué)上的錯(cuò)覺(jué),以為光點(diǎn)在前后左右移動(dòng)(似動(dòng)效應(yīng),autokinetic effect)。研究人員首先讓參與者單獨(dú)待在屋子里,要求他們獨(dú)自判斷光點(diǎn)移動(dòng)的距離。參與者給出的答案差距非常大。隨后,研究人員將幾位參與者聚集在一個(gè)屋子里,讓他們?cè)俅闻袛喙恻c(diǎn)移動(dòng)的距離。在這個(gè)過(guò)程中,參與者需要依次報(bào)出答案,以確保所有人都可以聽(tīng)到。一開(kāi)始,參與者各自推測(cè)的距離差異依然很大,但隨著輪次的增加,答案越來(lái)越趨于一致。最有趣的是,在完成集體推測(cè)之后,當(dāng)研究人員再次將參與者分開(kāi),要求他們獨(dú)自判斷光點(diǎn)移動(dòng)的距離時(shí),他們給出的答案大多落在群體推測(cè)構(gòu)建的范圍內(nèi)。
可以看出,當(dāng)正確的判斷具有模糊性時(shí),人們往往會(huì)重視群體中其他同伴的判斷并進(jìn)行權(quán)衡,逐步構(gòu)建起群體標(biāo)準(zhǔn)。這個(gè)群體標(biāo)準(zhǔn)一旦建立,個(gè)體便很容易將它內(nèi)化,用于指導(dǎo)自己的行為。甚至在個(gè)體已經(jīng)離開(kāi)原先群體的情境時(shí),也會(huì)參考這一規(guī)范,并在長(zhǎng)時(shí)間內(nèi)遵從這一規(guī)范。信息性從眾很好地反映了在模糊情境中,為了追求準(zhǔn)確,個(gè)體自身行為受群體影響,與群體標(biāo)準(zhǔn)保持一致的過(guò)程。
在明確知道正確答案的情境中,人們又會(huì)如何行動(dòng)呢?這是規(guī)范性從眾探討的問(wèn)題。心理學(xué)家所羅門(mén)·阿希(Solomon E. Asch)通過(guò)一系列實(shí)驗(yàn)對(duì)規(guī)范性從眾進(jìn)行了系統(tǒng)探究。在實(shí)驗(yàn)中,研究人員告訴參與者,他需要和其他參與者一起完成一項(xiàng)判斷線段長(zhǎng)短的任務(wù)。參與者需要進(jìn)行多輪次的線段長(zhǎng)短判斷,在每一輪中,研究人員會(huì)提供一條標(biāo)準(zhǔn)線段和三條比較線段(見(jiàn)圖1),參與者要從三條比較線段中選出一條與標(biāo)準(zhǔn)線段一樣長(zhǎng)的線段。參與者按照隨機(jī)抽簽決定的順序依次給出他們的答案。
這個(gè)實(shí)驗(yàn)任務(wù)極其簡(jiǎn)單,正常情況下幾乎沒(méi)有人會(huì)判斷錯(cuò)誤。但是,參與者不知道的是,除了他自己以外,其他的實(shí)驗(yàn)參與者都是由研究人員扮演的(合謀者,confederate),他們會(huì)故意一致地答錯(cuò)問(wèn)題。所謂抽簽決定的順序也是提前安排好的,真正的實(shí)驗(yàn)參與者會(huì)被安排在偏后的位置(例如,共7個(gè)人,實(shí)驗(yàn)參與者會(huì)通過(guò)“抽簽”被安排在第6位),以確保能夠先聽(tīng)到絕大部分“演員”的答案。一開(kāi)始,為了獲得參與者的信任,“演員”們會(huì)先回答正確。在進(jìn)行了一兩輪之后,“演員”們開(kāi)始一致地給出錯(cuò)誤答案。這時(shí),真正的實(shí)驗(yàn)參與者就需要決定,究竟是堅(jiān)信自己、獨(dú)立給出自己的判斷,還是遵從大多數(shù)人的判斷。在共計(jì)18輪的判斷任務(wù)中,有12次“演員”們會(huì)一致地給出錯(cuò)誤答案,研究人員會(huì)在這個(gè)過(guò)程中觀察并記錄實(shí)驗(yàn)參與者的選擇。
阿希最初預(yù)測(cè),人們不會(huì)受到他人錯(cuò)誤答案的影響,會(huì)保持自己獨(dú)立的判斷,給出正確答案。然而結(jié)果卻大大出乎意料,只有不到30%的人一直堅(jiān)持自己的判斷,而70%以上的人至少發(fā)生了一次從眾行為,更有超過(guò)30%的人在一半以上的輪次中發(fā)生從眾行為(有7至12次會(huì)遵從群體而給出錯(cuò)誤答案)。這一研究結(jié)果大大震驚了研究者,他們沒(méi)有想到,在極其客觀的現(xiàn)實(shí)面前,個(gè)體的判斷和行為竟然可以被群體所引發(fā)的社會(huì)影響扭曲。后續(xù)的系列實(shí)驗(yàn)更是發(fā)現(xiàn),這一社會(huì)影響的產(chǎn)生甚至不需要太多人,只要有3個(gè)人就可以對(duì)另一人產(chǎn)生類(lèi)似的社會(huì)影響。
如何打破這種從眾效應(yīng)?異議者(dissenter)的存在是關(guān)鍵。群體中只要有一個(gè)異議者給出不一樣的答案,從眾效應(yīng)便會(huì)大大降低。即使異議者給出的答案是錯(cuò)誤的,也能較大程度地降低個(gè)體的從眾行為。這就是我們常說(shuō)的少數(shù)派的力量。異議者的存在會(huì)使個(gè)體懷疑群體中大多數(shù)人所持觀點(diǎn)的正確性。如果此時(shí)異議者的觀點(diǎn)與個(gè)體所持觀點(diǎn)一致,個(gè)體對(duì)自身觀點(diǎn)的信心會(huì)進(jìn)一步加強(qiáng),從而減小從眾的可能性。即使異議者所持觀點(diǎn)與個(gè)體不一致,有不同意見(jiàn)這件事本身就意味著事情還不是非常清晰,存有懷疑空間,這也會(huì)在一定程度上減少個(gè)體對(duì)群體大多數(shù)人觀點(diǎn)的盲從。不止自己一個(gè)人有不同意見(jiàn)這件事,也會(huì)減輕個(gè)體對(duì)在群體中顯得過(guò)于突出的擔(dān)憂,從而減少迫于同伴壓力的從眾行為。
隨著人工智能技術(shù)的發(fā)展,機(jī)器人已經(jīng)被廣泛應(yīng)用于教育、養(yǎng)老、醫(yī)療健康、服務(wù)等眾多領(lǐng)域,人機(jī)交互模式逐步成為組織中的新常態(tài)。在人機(jī)交互情境中,機(jī)器人是否會(huì)對(duì)人類(lèi)個(gè)體的行為產(chǎn)生影響?沃爾默(Vollmer)等首次對(duì)上述問(wèn)題進(jìn)行了探索。他們將阿希實(shí)驗(yàn)中的人類(lèi)“演員”(人類(lèi)合謀者)全部換成了機(jī)器人,然后分別邀請(qǐng)成年人和兒童來(lái)參與這個(gè)實(shí)驗(yàn),讓他們和一群機(jī)器人一起完成判斷線段長(zhǎng)短的任務(wù)(如圖2A和2C)。在這個(gè)過(guò)程中,機(jī)器人同樣也會(huì)在18輪判斷任務(wù)中的12輪里一致提供錯(cuò)誤的答案。實(shí)驗(yàn)結(jié)果表明,當(dāng)面對(duì)一群機(jī)器人提供的明顯錯(cuò)誤的答案時(shí),兒童會(huì)受影響,產(chǎn)生從眾行為;成年人則不會(huì)受影響,會(huì)堅(jiān)持自己獨(dú)立的判斷。也就是說(shuō),機(jī)器人群體似乎無(wú)法對(duì)成年人產(chǎn)生社會(huì)影響。
但是,沃爾默等的研究結(jié)論有明顯的邊界條件。沃爾默等的研究設(shè)置的實(shí)驗(yàn)條件是讓一個(gè)人面對(duì)一群機(jī)器人,即機(jī)器人是群體中的多數(shù)派,人類(lèi)是群體中的少數(shù)派。這種情境顯然不是現(xiàn)實(shí)生活中常見(jiàn)的。在目前真實(shí)的工作或生活中,人機(jī)交互更加普遍的情境是,人是多數(shù)派而機(jī)器人是少數(shù)派。在更接近現(xiàn)實(shí)的情境中,沃爾默等的研究結(jié)論依然成立嗎?本文作者之一秦昕等對(duì)這一問(wèn)題開(kāi)展了進(jìn)一步的探索。
秦昕等探索了在人是多數(shù)派而機(jī)器人是少數(shù)派的群體中,個(gè)體是否會(huì)受機(jī)器人影響產(chǎn)生從眾行為。他們基于沃爾默等的研究,在保持其他條件不變的情況下,把實(shí)驗(yàn)情境設(shè)置成一個(gè)機(jī)器人和兩個(gè)人類(lèi)“演員”,觀察在這個(gè)情境中實(shí)驗(yàn)參與者是否會(huì)產(chǎn)生從眾行為(見(jiàn)圖2B和2D)。與沃爾默等的發(fā)現(xiàn)相反,秦昕等發(fā)現(xiàn),在機(jī)器人作為少數(shù)派的情境中,當(dāng)機(jī)器人提供明顯錯(cuò)誤的答案時(shí),成年人也會(huì)受機(jī)器人影響產(chǎn)生從眾行為。也就是說(shuō),秦昕等的研究首次發(fā)現(xiàn)了機(jī)器人確實(shí)有使人類(lèi)遵從明顯錯(cuò)誤建議的能力。此外,秦昕等還進(jìn)一步探索了群體中存在異議者的影響。他們發(fā)現(xiàn),當(dāng)存在人類(lèi)或機(jī)器人異議者時(shí),群體中的從眾效應(yīng)均能得到有效減弱,但后者減少?gòu)谋姷男Ч孕∮谇罢摺?/p>
在此基礎(chǔ)上,秦昕等進(jìn)一步整合上述兩個(gè)不同的研究結(jié)論,探討了機(jī)器人對(duì)個(gè)體產(chǎn)生社會(huì)影響的邊界條件。可以看出,人機(jī)交互情境中的從眾效應(yīng)顯然比單獨(dú)人類(lèi)情境中的從眾效應(yīng)更加復(fù)雜,個(gè)體在人機(jī)混合群體中是否會(huì)從眾在很大程度上取決于機(jī)器人在群體中是多數(shù)派還是少數(shù)派。當(dāng)機(jī)器人是群體中的多數(shù)派,個(gè)人需要與一群機(jī)器人互動(dòng)時(shí),人類(lèi)個(gè)體對(duì)機(jī)器人的敏感性更高,也更容易將機(jī)器人視作“外群體”,這在一定程度上會(huì)降低個(gè)體不從眾而引發(fā)的社會(huì)壓力。因此,在這種情境下,個(gè)體更有可能保持獨(dú)立判斷。當(dāng)機(jī)器人是群體中的少數(shù)派時(shí),人類(lèi)個(gè)體對(duì)機(jī)器人作為外群體的感知會(huì)相對(duì)較弱,此時(shí)機(jī)器人依然可以對(duì)個(gè)體形成一定的社會(huì)影響,從而引發(fā)個(gè)體的從眾行為。
在當(dāng)下及可預(yù)見(jiàn)的未來(lái),機(jī)器人是人機(jī)混合群體中少數(shù)派的情境會(huì)更加普遍。在這種情境中,如何更好地利用機(jī)器人,使其對(duì)人類(lèi)群體產(chǎn)生積極的社會(huì)影響并引發(fā)人們積極行為的從眾,規(guī)避其給社會(huì)帶來(lái)的潛在消極影響并減少人們消極行為的從眾,將是政府和組織需要思考的重要議題。
除了從眾,機(jī)器人還可能造成其他類(lèi)型的社會(huì)影響,包括順從、服從權(quán)威等。例如,在現(xiàn)實(shí)應(yīng)用場(chǎng)景中,除了扮演與人類(lèi)處于平等地位的角色外,機(jī)器人還可能處于領(lǐng)導(dǎo)或者權(quán)威地位,如經(jīng)理、老師、警察等,人們需要服從機(jī)器人所扮演的權(quán)威角色。一項(xiàng)研究發(fā)現(xiàn),與人與人之間的互動(dòng)不同,人機(jī)互動(dòng)中機(jī)器人作為同伴角色比作為權(quán)威角色更有說(shuō)服力;當(dāng)權(quán)威機(jī)器人提供獎(jiǎng)勵(lì)而不是懲罰時(shí),它也更有說(shuō)服力。
總的來(lái)說(shuō),目前的研究結(jié)果顯示,人們厭惡權(quán)威機(jī)器人的說(shuō)服影響,這可能是由于人們質(zhì)疑機(jī)器人作為權(quán)威角色的合法性、厭惡機(jī)器人主導(dǎo)的行為及感到自主性受到威脅等。同時(shí),機(jī)器人在執(zhí)行說(shuō)服任務(wù)或者扮演權(quán)威角色時(shí)也可能引發(fā)一系列道德和倫理問(wèn)題,如機(jī)器人可能影響人類(lèi)的決策自由、侵犯隱私或操控人類(lèi)情感等??傊?、人工智能應(yīng)用方和政策制定者不應(yīng)低估機(jī)器人帶來(lái)的各種類(lèi)型的潛在社會(huì)影響,需要制定明確的規(guī)章制度,確保人工智能在應(yīng)用過(guò)程中對(duì)人們產(chǎn)生有益影響。
人們常常傾向于將機(jī)器人視為簡(jiǎn)單的工具或機(jī)器,但隨著技術(shù)的進(jìn)步,我們需要更深入地探討機(jī)器人對(duì)人類(lèi)群體產(chǎn)生的社會(huì)影響。機(jī)器人能夠在無(wú)形中塑造和改變?nèi)祟?lèi)群體的決策及行為。這種社會(huì)影響一方面可能帶來(lái)積極的應(yīng)用前景,如在教育場(chǎng)景中促進(jìn)積極行為的學(xué)習(xí)等;另一方面也可能引發(fā)一些潛在的問(wèn)題,如在群體決策中導(dǎo)致盲從等。基于此,我們針對(duì)人工智能與社會(huì)影響這一話題提出了五大問(wèn)題,供未來(lái)研究和政策制定討論。
第一,算法等其他形式的人工智能是否會(huì)產(chǎn)生相似的社會(huì)影響?
現(xiàn)有研究大多討論的是有實(shí)體的機(jī)器人的社會(huì)影響,如機(jī)器人通過(guò)語(yǔ)言影響人類(lèi)的決策,無(wú)實(shí)體的算法是否具有相似的社會(huì)影響還缺乏系統(tǒng)探討。鑒于無(wú)實(shí)體的算法廣泛應(yīng)用于數(shù)據(jù)分析、決策支持系統(tǒng)、個(gè)性化推薦等領(lǐng)域,其產(chǎn)生的潛在影響可能比有實(shí)體的機(jī)器人更大。例如,推薦算法可能影響人類(lèi)的新聞閱讀偏好、社交互動(dòng)等,進(jìn)而對(duì)公眾意見(jiàn)和社會(huì)行為產(chǎn)生深遠(yuǎn)影響。通過(guò)個(gè)性化的內(nèi)容推送,算法不僅可以增強(qiáng)用戶體驗(yàn),還可能無(wú)意中引導(dǎo)用戶的選擇和判斷,形成“回音室效應(yīng)”,即導(dǎo)致相似的觀點(diǎn)不斷強(qiáng)化,不同的聲音被排除。同時(shí),算法可能通過(guò)強(qiáng)化用戶已有的偏好來(lái)分隔不同的社會(huì)群體,從而加劇社會(huì)分裂。因此,探討算法等其他形式的人工智能的社會(huì)影響是未來(lái)研究和政策制定中一個(gè)亟需關(guān)注的問(wèn)題。
第二,人工智能對(duì)不同文化背景的人影響如何?
隨著人工智能在全球范圍的應(yīng)用,其對(duì)不同文化背景中的個(gè)體造成的社會(huì)影響可能是復(fù)雜和多維度的。例如,在權(quán)力距離高的國(guó)家,人們更習(xí)慣于服從權(quán)威,可能也會(huì)更容易接受人工智能這一新興“權(quán)威”的命令。同時(shí),在全球化過(guò)程中,人工智能也可能無(wú)意中傳播或強(qiáng)化特定文化的價(jià)值觀和偏見(jiàn),尤其是當(dāng)算法的訓(xùn)練數(shù)據(jù)來(lái)源于某一主導(dǎo)文化時(shí)。因此,在人工智能應(yīng)用中為了實(shí)現(xiàn)對(duì)多元文化的包容,開(kāi)發(fā)者和政策制定者需要共同努力,確保在人工智能技術(shù)的開(kāi)發(fā)過(guò)程中將文化差異納入考量,避免產(chǎn)生文化偏見(jiàn),從而促進(jìn)社會(huì)公平和文化多樣性。
第三,人工智能會(huì)導(dǎo)致哪些長(zhǎng)期社會(huì)影響?
由于現(xiàn)有研究在方法上相對(duì)單一,目前對(duì)人工智能社會(huì)影響的理解主要基于有限的人機(jī)交互實(shí)驗(yàn),這些實(shí)驗(yàn)設(shè)計(jì)往往無(wú)法全面模擬真實(shí)世界中人與人工智能的長(zhǎng)期互動(dòng)。隨著人工智能深度融入人們的日常生活和工作,人與人工智能的互動(dòng)會(huì)更加頻繁,長(zhǎng)此以往,人工智能可能會(huì)帶來(lái)人們認(rèn)知上的改變,進(jìn)而對(duì)其行為產(chǎn)生更深遠(yuǎn)的影響。例如,機(jī)器人所引發(fā)的從眾行為可能會(huì)削弱人的決策能力,長(zhǎng)期來(lái)看,人類(lèi)可能將越來(lái)越依賴機(jī)器人提供的選擇和建議,從而在無(wú)形中降低自主思考和創(chuàng)造性解決問(wèn)題的認(rèn)知能力。隨著人工智能技術(shù)的不斷進(jìn)步和普及,我們需要認(rèn)真思考其對(duì)人類(lèi)認(rèn)知和行為的長(zhǎng)期影響。
第四,如何揚(yáng)長(zhǎng)避短,發(fā)揮人工智能積極的社會(huì)影響?
人工智能技術(shù)正在深刻改變?nèi)祟?lèi)社會(huì),如何在這一過(guò)程中揚(yáng)長(zhǎng)避短,發(fā)揮其積極影響尤為關(guān)鍵。一方面,公眾、人工智能應(yīng)用方和政策制定者都要意識(shí)到人工智能在人機(jī)交互過(guò)程中會(huì)對(duì)人類(lèi)產(chǎn)生社會(huì)影響,進(jìn)而利用人工智能來(lái)引導(dǎo)積極行為,發(fā)揮其積極作用。例如,目前人工智能已經(jīng)在教育領(lǐng)域廣泛應(yīng)用,教育工作者在開(kāi)展教學(xué)時(shí),可以有意識(shí)地應(yīng)用人工智能去影響學(xué)生,促使學(xué)生習(xí)得更多積極行為。另一方面,政策制定者需要警惕那些人工智能更有可能引發(fā)社會(huì)影響的應(yīng)用情境,建立明確的規(guī)章制度和應(yīng)用指引,規(guī)范人工智能的使用,以確保人工智能在應(yīng)用過(guò)程中對(duì)人類(lèi)群體產(chǎn)生的影響是符合倫理規(guī)范的。
第五,人工智能如何對(duì)其造成的社會(huì)影響承擔(dān)責(zé)任?
鑒于人工智能具有一定的自主性,它是否以及如何對(duì)其引發(fā)的社會(huì)影響承擔(dān)責(zé)任仍是一個(gè)亟待解決的復(fù)雜問(wèn)題。有研究發(fā)現(xiàn),當(dāng)人工智能對(duì)他人造成傷害時(shí),人們往往會(huì)將責(zé)任歸咎于使用公司、開(kāi)發(fā)團(tuán)隊(duì)及人工智能本身。在這些責(zé)任主體中,開(kāi)發(fā)團(tuán)隊(duì)通常被認(rèn)為應(yīng)該承擔(dān)最大責(zé)任,而人工智能本身應(yīng)該承擔(dān)的責(zé)任最小。這種責(zé)任歸屬的判定反映了大眾對(duì)人工智能責(zé)任的一般看法。然而,確立一個(gè)有效的人工智能責(zé)任機(jī)制仍充滿挑戰(zhàn)。未來(lái)可能需要對(duì)現(xiàn)有的法律和倫理規(guī)范進(jìn)行深入的改革和擴(kuò)展,以適應(yīng)人工智能技術(shù)的快速發(fā)展和普及。此外,隨著技術(shù)的不斷進(jìn)步和應(yīng)用領(lǐng)域的拓寬,公眾對(duì)人工智能責(zé)任的看法也可能會(huì)發(fā)生變化,政策制定者、技術(shù)開(kāi)發(fā)者與社會(huì)各界需要持續(xù)對(duì)話和合作,共同探討和制定公正且有效的責(zé)任判定標(biāo)準(zhǔn)和獎(jiǎng)懲機(jī)制。
總的來(lái)說(shuō),人工智能可能在人類(lèi)有意識(shí)或者無(wú)意識(shí)時(shí)對(duì)其態(tài)度、行為、決策施加種種影響,涉及文化、政治、經(jīng)濟(jì)等方方面面。因此,深入研究和理解人工智能的社會(huì)影響不僅是科技發(fā)展的需要,也是社會(huì)治理的必要舉措。正如霍金教授所說(shuō):“強(qiáng)大的人工智能的崛起,可能是人類(lèi)歷史上最好的事,也可能是最糟糕的事,結(jié)局尚不可知?!比绾瓮ㄟ^(guò)跨學(xué)科合作及多方參與,更好地利用和發(fā)揮人工智能積極的社會(huì)影響,同時(shí)控制其潛在的風(fēng)險(xiǎn)與挑戰(zhàn),確保人工智能與社會(huì)價(jià)值觀的和諧共生,是研究者、管理實(shí)踐者和政策制定者共同面臨的重要問(wèn)題。
基金信息:國(guó)家自然科學(xué)基金(72325012,72272155,71702202)