隨著人工智能(AI)在自動化系統(tǒng)和決策過程中的作用越來越大,AI會如何影響人類自身能動性不再是所謂的理論問題,而是擺到了現(xiàn)實(shí)面前。毫無意外,在“相信AI!”的大力推薦下,越來越多的企業(yè)采用AI,人類經(jīng)常聽從自動化的決策建議。然而,有越來越多的證據(jù)表明,AI削弱了使用者對這些決策后果的責(zé)任感。
而在目前關(guān)于負(fù)責(zé)任的AI的討論中,這個(gè)問題在很大程度上被忽視了。在現(xiàn)實(shí)中,這種做法的本意是管理法律和聲譽(yù)風(fēng)險(xiǎn)。而按照德國哲學(xué)家漢斯·約納斯(Hans Jonas)的概念,這種責(zé)任觀是有限的。他定義了三種責(zé)任,但AI實(shí)踐似乎只涉及其中兩種。第一種是法律責(zé)任,即在一般情況下,個(gè)人或企業(yè)依據(jù)民法承擔(dān)的修復(fù)損害或賠償損失的責(zé)任;第二種是道德責(zé)任,即通過懲罰(例如刑法)追究個(gè)人的責(zé)任。
在這里我們最關(guān)心的是第三種責(zé)任,也就是約納斯所說的責(zé)任感。當(dāng)我們贊賞某人“做事負(fù)責(zé)任”時(shí),指的就是這種責(zé)任感。它要求一個(gè)人對自身行為的目的和可能給自己或他人造成的后果進(jìn)行批判性思考和預(yù)測性反思。AI和自動化系統(tǒng)可以改變的正是這種責(zé)任感。
為了深入了解AI如何影響用戶對自身責(zé)任和能動性的認(rèn)知,我們進(jìn)行了一些研究。其中兩項(xiàng)研究探討的是在啟動自動駕駛系統(tǒng)后,有哪些因素會影響駕駛員決定是否需要由自己來重新控制車輛。在第一項(xiàng)研究中,我們發(fā)現(xiàn),越是信任自動駕駛系統(tǒng)的人,越不可能保持態(tài)勢感知,從而在出現(xiàn)問題或事故時(shí)重新控制車輛。盡管受訪者總體上表示他們在駕駛自動駕駛模式的汽車時(shí)愿意承擔(dān)責(zé)任,但在發(fā)生問題或事故時(shí)他們的主觀能動性并沒有對重新控制汽車的意愿有很大影響。根據(jù)這些調(diào)查結(jié)果,我們可能會發(fā)現(xiàn),在有自動駕駛系統(tǒng)的時(shí)候,有相當(dāng)一部分用戶會感到逃避干預(yù)車輛駕駛的責(zé)任是被鼓勵(lì)的行為。
第二項(xiàng)研究是與魁北克汽車保險(xiǎn)公司(Soci t de l’Assurance Automobile du Qu bec,管理該省公共汽車保險(xiǎn)項(xiàng)目的政府機(jī)構(gòu))合作進(jìn)行的,我們能夠進(jìn)行更精細(xì)的分析。我們調(diào)查了1,897名駕駛員(大部分是有一定自動駕駛功能的特斯拉和梅賽德斯汽車的駕駛員),分別研究了每種責(zé)任對駕駛員重新控制車輛的意愿的影響,結(jié)果發(fā)現(xiàn)只有責(zé)任感有顯著影響。與第一項(xiàng)研究一樣,受訪者對自動駕駛系統(tǒng)的信任度越高,他們重新控制方向盤的意愿就越低。尤其值得注意的是,只有積極主動的、個(gè)人的責(zé)任感才會促使受訪者采取行動,這表明法律責(zé)任的威脅不足以阻止AI造成傷害。
第三項(xiàng)研究旨在了解風(fēng)險(xiǎn)預(yù)測算法在美國刑事司法實(shí)踐中的使用情況。在32名受訪者中,有相當(dāng)一部分過度依賴智能工具做出決定。我們根據(jù)受訪者自述是否使用智能工具來決定刑期或刑罰輕rgjw5q455uwWYIFl0p2RUwG0QNDVGuKx5z1nTU7V+GE=重的情況、他們是否會嚴(yán)格遵守工具得出的結(jié)果,以及他們是否會理所當(dāng)然地接受工具提供的結(jié)果,來判定他們是否過度依賴工具。這一研究結(jié)果除了對此類自動化司法判決的公正性、公平性和透明度提出了根本的法律和倫理問題外,還表明人們偏愛算法,放棄了個(gè)人責(zé)任。
總之,這些初步的研究結(jié)果證實(shí)了在類似情況下觀察到的結(jié)果,即在智能系統(tǒng)面前,個(gè)人往往會失去能動性。當(dāng)個(gè)人感覺到自己的控制力減弱,或感覺到有其他東西在代為控制時(shí),他們的責(zé)任感也同樣會減弱。
有鑒于此,我們必須要問:“人機(jī)回圈”(Human in the Loop)*這種越來越多地被認(rèn)為是負(fù)責(zé)任地使用AI的最佳做法,是否還能提供充分的保障?甚至我們還要問:該如何鼓勵(lì)大家接受人類是有主動責(zé)任的而且應(yīng)當(dāng)履行責(zé)任?
正如本文開頭所指出的,管理者往往會通過鼓勵(lì)員工信任AI來提高AI的采用率,從而使問題更加嚴(yán)重。這樣做時(shí),通常會詆毀人類的認(rèn)知和決策與AI的建議相比是有局限和有偏見的——盡管所有AI系統(tǒng)都必然會在數(shù)據(jù)選擇、數(shù)據(jù)規(guī)格等方面反映出人類的偏見。這種觀點(diǎn)認(rèn)為AI的每一個(gè)決策都是正確的,都優(yōu)于人類的決策,并鼓勵(lì)人類做甩手掌柜而采用AI的決策。
為了對抗這種趨勢,我們建議將員工溝通的重點(diǎn)從信任AI轉(zhuǎn)移到了解AI上,從而在人類知情的情況下有條件地信任AI系統(tǒng)和流程的產(chǎn)出。管理者需要教育用戶了解AI的自動化流程、決策點(diǎn)以及可能出現(xiàn)的錯(cuò)誤或危害。同樣至關(guān)重要的是,用戶要意識到AI系統(tǒng)可能會陷入困境,并理解自動化決策失誤風(fēng)險(xiǎn)最大的邊緣情況。
管理者還需要給員工賦權(quán),讓他們?yōu)閾?dān)當(dāng)主人翁、履行責(zé)任感做好準(zhǔn)備。豐田公司(Toyota)就是這方面的典范,它授權(quán)工廠里的任何人在發(fā)現(xiàn)問題時(shí)都能叫停生產(chǎn)線。這將鼓勵(lì)員工合理質(zhì)疑AI系統(tǒng)和流程,從而保持他們的能動性,避免給企業(yè)帶來有害的后果。
歸根結(jié)底,負(fù)責(zé)任的文化(而不是逃避罪責(zé)的文化)能打造更健康、更有道德操守的組織。在AI時(shí)代,為人類智慧留下明確的可能性空間,從而培養(yǎng)負(fù)責(zé)任的文化變得尤為重要。
否則,羅德里克·塞登貝格(Roderick Seidenberg)對那些威力遠(yuǎn)不如當(dāng)前AI的技術(shù)的預(yù)言就可能成為現(xiàn)實(shí):
在自動化日益增強(qiáng)的輔助下,盡管并非出于惡意,系統(tǒng)的運(yùn)作已經(jīng)成為了智能的渠道,工程師、發(fā)明家和科學(xué)家們的智慧聚沙成塔,最終創(chuàng)造出了一個(gè)人類個(gè)體難以匹敵的知識和程序?qū)殠?。因此,人類似乎已?jīng)超越了自己,從某種意義上說也確實(shí)如此。但矛盾的是,就整個(gè)系統(tǒng)而言,每個(gè)個(gè)體都被迫成為對系統(tǒng)結(jié)果不加思考的受益者——社會既定環(huán)境的無意識接受者。因此,可以不無道理地說,這是一種按鍵式文明——一種由智能設(shè)計(jì)出來的逐步消滅智慧的系統(tǒng)!
翻譯:李君