国产日韩欧美一区二区三区三州_亚洲少妇熟女av_久久久久亚洲av国产精品_波多野结衣网站一区二区_亚洲欧美色片在线91_国产亚洲精品精品国产优播av_日本一区二区三区波多野结衣 _久久国产av不卡

?

人工智能對組織決策的影響、挑戰(zhàn)與展望

2020-12-09 08:03張廣勝楊春荻
山東社會科學(xué) 2020年9期
關(guān)鍵詞:決策人工智能算法

張廣勝 楊春荻

(遼寧大學(xué) 商學(xué)院,遼寧 沈陽 110036)

自20世紀(jì)計(jì)算機(jī)問世以來,技術(shù)對企業(yè)組織和管理產(chǎn)生的影響越來越大,組織的設(shè)計(jì)、情報(bào)、管理方式和決策方式也都發(fā)生了相應(yīng)的改變:視頻會議等現(xiàn)代組織管理技術(shù)減少了面對面會議的頻率,使得組織的決策效率得到了顯著的提高并為組織決策節(jié)約了大量的成本;信息化系統(tǒng)提升了企業(yè)的管理能力,使企業(yè)可以運(yùn)用信息化技術(shù)開展組織管理。因而,有建設(shè)性的技術(shù)會對組織和個人產(chǎn)生積極的影響。(1)Bravo, E. R., & Ostos, J. (2017).“ Performance in computer-mediated work: the moderating role of level of automation”. Cognition, Technology & Work, 19(2-3), 529-541.

人類技術(shù)活動的一個重要特點(diǎn),就是技術(shù)活動具有明確而具體的目標(biāo),從計(jì)算機(jī)、互聯(lián)網(wǎng)到今天的大數(shù)據(jù)再到機(jī)器學(xué)習(xí)、人工智能和機(jī)器人,技術(shù)對組織影響的深刻程度是前所未有的。人工智能(AI),特別是以數(shù)據(jù)為引領(lǐng)的機(jī)器學(xué)習(xí)技術(shù),已經(jīng)嵌入到組織的各個角落并成為組織運(yùn)行不可或缺的一部分。谷歌深度思維的首席執(zhí)行官曾表示:開發(fā)人工智能的終極目標(biāo)就是讓其應(yīng)對大挑戰(zhàn),解決更多的社會問題,并且把這項(xiàng)技術(shù)應(yīng)用在各類工作中,使這個世界變得更加美好。特斯拉汽車創(chuàng)始人埃隆·馬斯克開發(fā)成立的非盈利人工智能公司的目標(biāo)也在于提升人工智能技術(shù),使其造福于全人類。

為了深入探討人工智能對組織決策的影響,我們在《World of Science》(《科學(xué)世界》)上檢索“Artificial Intelligence”“Machine Iearning”“Decision-making”“Organization”等關(guān)鍵詞,檢索到1993-2020年期間“Artificial Intelligence in Human Resources Management: Challenges and a Path Forward”“Attributions of Ethical Responsibility by Artificial Intelligence”等文獻(xiàn)共計(jì)80篇。在此基礎(chǔ)上,我們擬從九個方面對人工智能與組織決策的關(guān)系展開研究。

一、人工智能的定義、分類、技術(shù)發(fā)展現(xiàn)狀

人工智能是能夠正確解讀外部數(shù)據(jù)、能從數(shù)據(jù)中學(xué)習(xí)并通過靈活的適應(yīng)性以達(dá)到特定目標(biāo)和任務(wù)的系統(tǒng);它是可以扮演認(rèn)知角色的機(jī)器,這些認(rèn)知包括了感知、推理、學(xué)習(xí)和互動。(2)Rai, A., Constantinides, P., and Sarker, S.2019 “Editor’s Comments: Next-Generation Digital Platforms: Toward Human-AI Hybrids,” MIS Quarterly (43:1) pp. iii-ix.

人工智能的發(fā)展涉及計(jì)算機(jī)科學(xué)、語言學(xué)、心理學(xué)等諸多學(xué)科,其目標(biāo)是發(fā)展智能機(jī)器,而這項(xiàng)技術(shù)涵蓋一系列子領(lǐng)域:機(jī)器學(xué)習(xí),其功能是使人工智能能從數(shù)據(jù)中學(xué)習(xí);強(qiáng)化學(xué)習(xí),使人工智能能在試錯中提升;深度學(xué)習(xí),其主旨在于模擬人腦,從海量的數(shù)據(jù)中進(jìn)行探索,并從中獲益。

基于科學(xué)技術(shù)理論的角度,人工智能可以分為兩大流派:一派是主流的認(rèn)知主義者,支持這派觀點(diǎn)的學(xué)者和技術(shù)人員試圖使計(jì)算機(jī)模擬人類思維,令其具備從一種算法過渡到另外一種算法的能力;另一派是非主流的新連接主義者,這派學(xué)者和研究人員認(rèn)為人類大腦的思考方式并非是線性的,這也是他們反對主流認(rèn)知流派的主要緣由,同時(shí)新連接主義者希望能夠運(yùn)用“神經(jīng)網(wǎng)絡(luò)”來解決“并行處理”這一技術(shù)局限,并通過試錯來提高機(jī)器的學(xué)習(xí)能力。

技術(shù)演進(jìn)的歷史大致可分為三階段:第一階段,人類對機(jī)器的使用主要是利用人類的智力、技巧和體能等人類自有的能力;第二階段,人的技藝已經(jīng)在機(jī)器中展現(xiàn)了對象化的效果;第三階段,類似人類的智慧力量轉(zhuǎn)移到機(jī)器中,諸多人類的目標(biāo)憑借智能化的機(jī)器得到了實(shí)現(xiàn)?,F(xiàn)階段,人工智能對人類社會的影響已經(jīng)發(fā)展到了技術(shù)歷史的第三階段。

人工智能技術(shù)的蓬勃發(fā)展主要基于三大原因:其一,宏觀經(jīng)濟(jì)的蓬勃發(fā)展推動了當(dāng)代以智能制造為特征的技術(shù)進(jìn)步,具體表現(xiàn)在企業(yè)等組織為了提升其核心競爭力,運(yùn)用人工智能技術(shù)為其生產(chǎn)、服務(wù)、銷售等活動服務(wù);其二,來自于社會需求方面,人工智能替代了工業(yè)生產(chǎn)、服務(wù)等諸多領(lǐng)域中的重復(fù)性工作,給人類帶來了諸多便利,這進(jìn)一步促進(jìn)了人類對人工智能技術(shù)的開發(fā);其三,來自于技術(shù)本身的發(fā)展,任何技術(shù)發(fā)展總會伴隨若干附加的技術(shù)發(fā)明或技術(shù)改造,人工智能技術(shù)在濃度和廣度上的不斷發(fā)展,也解鎖了其應(yīng)用的諸多領(lǐng)域,組織決策領(lǐng)域便是其運(yùn)用于實(shí)踐的好例子。

二、人工智能與組織決策

(一)人工智能與組織的聯(lián)系

每一輪技術(shù)的進(jìn)步都會對組織產(chǎn)生深遠(yuǎn)影響,如從蒸汽技術(shù)、電氣技術(shù)再到信息技術(shù),都對組織結(jié)構(gòu)、組織文化、組織績效等方面產(chǎn)生了深遠(yuǎn)影響。技術(shù)目的反映的是一段時(shí)期內(nèi),人類在技術(shù)領(lǐng)域的發(fā)展方向,反映出作為技術(shù)主體的人對客體技術(shù)的影響的范圍和方向;技術(shù)的目的與社會需求聯(lián)系緊密,而社會的需求,是人類研發(fā)技術(shù)、提升技術(shù)能力、開展技術(shù)發(fā)明與革新的原動力。在人工智能與組織的研究中,具體表現(xiàn)為人類社會的需求促使人工智能與組織聯(lián)系的遞進(jìn)式和跨越式發(fā)展。

人工智能會改變組織決策的方法和組織與內(nèi)部、外部利益相關(guān)者(如顧客、員工)的關(guān)系。Turing(2009)的研究指出,人工智能可以模仿人類進(jìn)行思考,其成功應(yīng)用需要特定的組織能力,因?yàn)榻M織只有與新技術(shù)相匹配才能獲得最佳的應(yīng)用效果。Jürgen(2019)通過大規(guī)模的調(diào)研,對比了應(yīng)用人工智能水平高的企業(yè)和應(yīng)用人工智能水平低的企業(yè)間管理效果的差異,探討了企業(yè)應(yīng)在多大程度上采用人工智能技術(shù),以及強(qiáng)調(diào)人工智能技術(shù)嵌入組織對組織靈活性和高層管理者承諾的重要意義。目前,人工智能系統(tǒng)已廣泛地應(yīng)用在組織的智能服務(wù)、辦公自動化、管理支持領(lǐng)域、生產(chǎn)自動化、決策支持和知識管理領(lǐng)域中。

(二)人工智能與組織決策的聯(lián)系

直到上世紀(jì)末,人工智能與決策領(lǐng)域才開始有了關(guān)聯(lián),在此之前,人工智能和決策是毫不相關(guān)的。在人工智能萌芽階段,這個領(lǐng)域的研究和應(yīng)用大體上局限在實(shí)驗(yàn)室中。20世紀(jì)80年代,以知識為基礎(chǔ)的智能系統(tǒng)得到了快速發(fā)展和應(yīng)用,人工智能孤立在實(shí)驗(yàn)室中的研究狀況才被打破。Izhar Matzkevich(1995)的研究發(fā)現(xiàn),用人工智能進(jìn)行決策的流程是人類把某一個領(lǐng)域中的特定信息進(jìn)行編碼,錄入到特定系統(tǒng)里,用系統(tǒng)生成的結(jié)果去解決實(shí)際的問題,這就是人工智能用于決策領(lǐng)域的雛形。與此同時(shí),決策理論也開始影響人工智能的技術(shù)發(fā)展。從人工智能技術(shù)與決策的關(guān)系來看,技術(shù)目的能否得到重新設(shè)定并得到新應(yīng)用,主要依靠社會需求,而新技術(shù)量變是科學(xué)技術(shù)原理、科學(xué)經(jīng)驗(yàn)和傳統(tǒng)技術(shù)共同作用下的結(jié)果。想要推動新技術(shù)的發(fā)展,還要根據(jù)社會的現(xiàn)實(shí)需要不斷革新,使得新技術(shù)不斷地進(jìn)入量變和質(zhì)變的交替階段。

技術(shù)是人類從事生產(chǎn)生活實(shí)踐的手段,更是人類從事技術(shù)認(rèn)知與實(shí)踐的結(jié)果。在這一過程中,技術(shù)作為一種手段,服務(wù)于技術(shù)的目的,但技術(shù)的目的又受限于技術(shù)的發(fā)展階段。當(dāng)一項(xiàng)新的技術(shù)被實(shí)驗(yàn)室研發(fā)成功之后,這些技術(shù)將根據(jù)現(xiàn)實(shí)社會的需要開始服務(wù)生產(chǎn)生活,同時(shí)人類社會實(shí)踐也會為技術(shù)的發(fā)展創(chuàng)造出更多的發(fā)展方向和前進(jìn)動力。人工智能和組織決策在技術(shù)發(fā)展的最初階段無甚關(guān)聯(lián),這是因?yàn)槿祟惖男枨罂偸菑暮唵蔚綇?fù)雜、從低級到高級,是人類在組織中的需求促使了人工智能技術(shù)與組織融合,更是組織決策對技術(shù)要求的不斷提高促進(jìn)了人工智能技術(shù)的突飛猛進(jìn),這體現(xiàn)出技術(shù)目的和手段的對立統(tǒng)一。

(三)人工智能是否適合進(jìn)行組織決策分析

圍繞人類和人工智能的各自專長和能力優(yōu)勢,學(xué)者們在上世紀(jì)中期即已展開過研究。1951年,費(fèi)茲(Fitts)就針對機(jī)器和人類各自的優(yōu)勢進(jìn)行過比較研究,他認(rèn)為人類在探測、感知、即興創(chuàng)作、長期存儲信息、檢索信息、歸納推理和判斷能力等方面超越了當(dāng)時(shí)的機(jī)器,而機(jī)器在行動的速度和效率、復(fù)制信息能力、短期存儲和推斷以及同時(shí)操作兩件或多件不同的工作等方面都超過了人類。

近幾十年,圍繞人工智能與人類的關(guān)系學(xué)者們有了更加系統(tǒng)的研究。Sonnentag等(2005)認(rèn)為,很多人類社會的任務(wù)都與機(jī)器技術(shù)緊密相連;Frohm等(2008)則從分工的角度論述了人類和技術(shù)之間的關(guān)系,指出很多任務(wù)可以由人類全權(quán)負(fù)責(zé)完成,有些任務(wù)則可以由機(jī)器全權(quán)負(fù)責(zé);Brock等(2019)的研究則指出,人工智能只有在可以把信息整合、智能團(tuán)隊(duì)、組織靈敏度和領(lǐng)導(dǎo)力結(jié)合起來的情境下才適合進(jìn)行組織決策。

圍繞人工智能決策優(yōu)勢學(xué)者們也取得了許多研究成果。如Chamorro(2016)指出,人工智能決策的原理是神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的算法,支撐算法運(yùn)作的條件是海量的數(shù)據(jù);Parry(2016)認(rèn)為,人工智能技術(shù)的發(fā)展水平已經(jīng)可以將其應(yīng)用到組織決策領(lǐng)域了。人工智能技術(shù)在決策過程中具有決策速度快、準(zhǔn)確性高、決策成本低廉、具備無偏處理零散數(shù)據(jù)的能力、無倦怠感、決策不出于一己私利、做決策不情緒化的優(yōu)點(diǎn)。與此形成對比的是,人類在決策的時(shí)候易受到認(rèn)知能力的限制,也容易被個人利益、地位等主觀因素所影響。神經(jīng)科學(xué)研究表明,當(dāng)人類面臨復(fù)雜的狀況,思維捷徑會讓人類采納迅速而有效的決定,而人類情感中的恐慌、喜悅等情感會影響人類決策的正確性。也就是說,當(dāng)人類面臨決策選擇的時(shí)候,情感會對決策產(chǎn)生重大影響。對比之下,人工智能或許更適合廣泛地應(yīng)用于組織決策領(lǐng)域。

也有研究認(rèn)為,人工智能并不適合組織決策。如Kleinberg等(2006)從算法本身對決策的缺陷展開了研究,研究表明由于人工智能根據(jù)已經(jīng)生成的數(shù)據(jù)通過算法進(jìn)行決策,因而決策結(jié)果在未提供數(shù)據(jù)更新的情況下是一成不變的,這就降低了組織對動態(tài)環(huán)境的適應(yīng)性;Premuzic(2003)從創(chuàng)新的視角反對應(yīng)用人工智能進(jìn)行組織決策,他認(rèn)為由于人工智能是基于現(xiàn)有的數(shù)據(jù)展開相關(guān)的分析,因而其做出的決策缺乏創(chuàng)造性;Fischer等(2018)利用訪談法進(jìn)行的研究發(fā)現(xiàn),79%的受訪者認(rèn)為機(jī)器不能考慮到個性化因素,因而對智能機(jī)器做出的決策會感到不信任;Weizenbaum等(2010)從人工智能和人類能力角度進(jìn)行的研究發(fā)現(xiàn),由于決策需要利用的核心能力是判斷力,而判斷能力是人類的特質(zhì),因而決策這類工作人工智能是不能勝任的;Kaczmarek等(2017)認(rèn)為,由于組織的目標(biāo)有長期目標(biāo)和短期目標(biāo)等分類,而人工智能沒有辦法像人類一樣兼顧長期和短期目標(biāo),并且算法中的閉環(huán)會強(qiáng)化一旦做出的錯誤決策;Thomas Bolander等(2019)發(fā)現(xiàn),在社會技能和語言技能兩方面,人工智能的能力水平遠(yuǎn)遠(yuǎn)落后于人類,而這兩種技能是組織決策中必備的關(guān)鍵能力,因而決策不能完全依賴人工智能。

(四)人工智能和人類在決策中扮演的角色和分工

Berente等(2019)的研究發(fā)現(xiàn),人工智能承擔(dān)了一些管理者的角色,這些角色有些是人工智能獨(dú)立承擔(dān)的,有些是與人類管理者共同承擔(dān)的。在科技哲學(xué)理論中,技術(shù)工具理論是一種被廣泛接受的技術(shù)觀,因而人與技術(shù)的關(guān)系應(yīng)該是技術(shù)只是人類從事生產(chǎn)生活活動中的工具。Daniel等(2019)認(rèn)為,人工智能的角色僅僅是人類的工具:由于人工智能沒有社會權(quán)力,更多地會被當(dāng)成工具而不是團(tuán)隊(duì)中的成員,即技術(shù)應(yīng)是以人類為中心的,操控者(人類)應(yīng)自始自終處于主導(dǎo)地位。也有研究者認(rèn)為,人工智能可以被賦予一些社會角色。Wesche等(2019)的研究發(fā)現(xiàn),機(jī)器可以代替人類做很多工作,如人機(jī)交互(HCI)理論應(yīng)用在組織中,機(jī)器的角色就從“工具”演變成了人類的“伙伴”。Jamieson等(2018)的研究則認(rèn)為,機(jī)器被當(dāng)作“工具”的時(shí)代,在當(dāng)今人機(jī)交互工作越來越盛行的情況下,已經(jīng)變得不合時(shí)宜了,應(yīng)當(dāng)倡導(dǎo)把機(jī)器當(dāng)作“隊(duì)友”,將人工智能貼上富有情感的標(biāo)簽,而這類情感可以讓人工智能扮演特定的角色并參與近似人類的社會活動。由此可見,隨著人類和人工智能角色和地位的不斷轉(zhuǎn)變,人類與人工智能如何在組織中分享信息和參與組織學(xué)習(xí)是人類需要考慮的問題。埃隆·馬斯克從人工智能的功能角度進(jìn)一步梳理了人工智能與人類的關(guān)系,即人工智能的功能應(yīng)該應(yīng)用于如何協(xié)助人類工作,而不是與人類展開對抗。

還有研究者對人工智能和人類在組織決策中的分工問題展開研究。如Andreas等(2019)的研究就專注于人工智能在什么情境下可以做相應(yīng)的決策,什么情境下只能由人類單獨(dú)做出決策,人工智能和人類在什么情境下需要共同決策,是當(dāng)今全球組織需要考慮的問題。Hancock等(2014)的研究提出,人類和智能機(jī)器分工的原則是一切能被自動智能化的都應(yīng)該被自動智能化,人類應(yīng)該承擔(dān)那些不能被自動化、智能化的工作,而且終有一天,人工智能會跟人類一樣聰明,但人工智能和人類的智力各有各的優(yōu)勢,因而不能就智力水平把人類和人工智能作簡單的比較。Thomas Bolander等(2019)的研究則指出,人工智能擅長解決邊界清晰、具有良好結(jié)構(gòu)性的問題,因而其提出的解決方案也具有標(biāo)準(zhǔn)化的特征,盡管各類研究機(jī)構(gòu)都在從技術(shù)角度提升人工智能的能力,但其抽象思維和界定問題的能力依然不如人類,因而應(yīng)適當(dāng)?shù)囊笕斯ぶ悄芎腿祟愒跊Q策中進(jìn)行分工。

(五)人工智能在組織決策中的具體應(yīng)用

從科技哲學(xué)的角度看,技術(shù)結(jié)構(gòu)與技術(shù)功能的關(guān)系是技術(shù)結(jié)構(gòu)決定技術(shù)功能,技術(shù)結(jié)構(gòu)和技術(shù)功能處于對立統(tǒng)一的關(guān)系中。隨著人類對技術(shù)結(jié)構(gòu)提出了新需求,技術(shù)功能也會相應(yīng)地跟著發(fā)生變化,這一過程交替進(jìn)行,技術(shù)結(jié)構(gòu)由簡單到復(fù)雜、由低級向高級發(fā)展,相應(yīng)的,技術(shù)功能也越來越復(fù)雜,從而不斷地滿足人類的生產(chǎn)生活,人工智能技術(shù)結(jié)構(gòu)的變化同樣會賦予人工智能更多功能。

目前,人工智能在組織決策的具體應(yīng)用較多體現(xiàn)在人工智能的組織招聘。Burke等(2006)的研究指出,技術(shù)在組織中扮演著越來越多的角色,組織中的許多工作與技術(shù)結(jié)合的越來越緊密了。如技術(shù)改變了招聘員工的方式,以人工智能為代表的技術(shù)改變了組織選拔人才的方式,其主要的招聘技術(shù)手段是依靠算法自動識別組織內(nèi)和組織外多個求職者的信息,針對求職者技能、人格屬性與崗位要求進(jìn)行匹配。人工智能在組織招聘中的優(yōu)勢主要體現(xiàn)在招聘決策公正性、隱私以及人工智能和人類在招聘決策中的分工等三個方面。盡管人工智能系統(tǒng)本身是客觀且不存在偏見的,但由于算法工作要依賴人類所提供的數(shù)據(jù)。因此,如果數(shù)據(jù)本身對特定群體存在偏見,那么就很難保證招聘結(jié)果是絕對公正的。Prasanna Tambe(2019)認(rèn)為,應(yīng)用人工智能對應(yīng)聘者的信息進(jìn)行篩選將面臨個人隱私問題。不過,Keller等(2019)的研究卻發(fā)現(xiàn),多方參與信息保護(hù)、相關(guān)法律法規(guī)的實(shí)施以及分配給人工智能決策權(quán)的權(quán)重或可能緩解人工智能在招聘決策領(lǐng)域帶來的隱私隱患。

(六)人工智能和人類決策順序

研究表明人工智能的決策順序可分為三步:一是全權(quán)由人工智能進(jìn)行決策;二是先人類后人工智能或者先人工智能再人類的決策順序;三是聚合的人類人工智能決策方案。對此,Yash Raj(2019)分別對決策領(lǐng)域的特殊性、決策過程和結(jié)果的可解釋性、可備選的決策范圍、決策速度和決策結(jié)果的可復(fù)制性等五個方面進(jìn)行了決策效果分析。他發(fā)現(xiàn)這三步?jīng)Q策順序各有各的優(yōu)勢:先人工智能再人類決策為順序的決策方案會涉及到可行的替代方案被遺棄的風(fēng)險(xiǎn),因?yàn)檫@種決策方法降低了決策的速度和方案對于其它情境的可復(fù)制性;先人類決策再用人工智能篩選評估的決策方法可以充分利用人工智能系統(tǒng)中算法的預(yù)測功能,從而在人類備選出的小范圍預(yù)選方案中選出最優(yōu)的決策方案,因而這類方案要求決策事項(xiàng)具有較高的特殊性;聚合的人類人工智能決策方案是分別發(fā)揮人類和人工智能在決策領(lǐng)域的各自優(yōu)勢,再以加權(quán)等方法對兩者的決策方案進(jìn)行分析,這類決策方法常因決策結(jié)果的解釋性欠佳等因素,使組織的透明度和可靠性受到挑戰(zhàn)。(3)Shrestha, Y. R., Ben-Menahem, S. M., & Von Krogh, G. (2019). “Organizational Decision-Making Structures in the Age of Artificial Intelligence”. California Management Review, 61(4), 66-83.Davenport等(2010)研究認(rèn)為,決策情境也是選擇決策順序需要考慮的因素,對情境比較穩(wěn)定的決策環(huán)境,人工智能可以進(jìn)行重復(fù)性決策,當(dāng)有意外情況發(fā)生的時(shí)候,人類再進(jìn)行決策。

(七)人類和人工智能誰應(yīng)該承擔(dān)決策責(zé)任

人工智能越加智能化,其使用者就越難以明白其得出決策結(jié)論的過程。對于強(qiáng)AI來說,算法本身就是“黑箱”。當(dāng)人工智能越來越多地參與組織決策時(shí),人工智能當(dāng)然也應(yīng)該對自己的所作所為(包括決策)負(fù)責(zé),其中倫理道德問題與機(jī)器自動化密切相關(guān),而在人工智能決策過程中,這種“黑箱”又表現(xiàn)出“道德倫理黑箱”。因而清楚這種黑箱的工作過程,有利于判斷出人工智能做出特定決策的原因。(4)Winfield, A. F., & Jirotka, M. (2017, July). “The case for an ethical black box”. In Annual Conference Towards Autonomous Robotic Systems (pp. 262-273).但是,也有研究者反對讓人工智能承擔(dān)決策責(zé)任。如Malle等(2016)從道德應(yīng)用的適宜度角度認(rèn)為,人類決策所遵守的道德準(zhǔn)則不適合拓展到機(jī)器人等人工智能上;Bertram等(2019)通過實(shí)驗(yàn)發(fā)現(xiàn),30%-50%參與實(shí)驗(yàn)的受訪者質(zhì)疑人工智能是否有資格成為決策失誤道德譴責(zé)的對象;Shank等(2019)則從人工智能和人類在社會生活中的角色展開研究并強(qiáng)調(diào),由于人類還沒有把人工智能納入到社會結(jié)構(gòu)中去,因而出現(xiàn)決策過失,人工智能不應(yīng)該承擔(dān)和人類相同的責(zé)任。

Renda等(2019)認(rèn)為,為了更好地讓人工智能融入組織決策領(lǐng)域,規(guī)范人工智能的規(guī)章制度和道德標(biāo)準(zhǔn)應(yīng)該在其參與組織決策之前被制定出來,以防止有偏見的算法和數(shù)據(jù)妨礙了正常的決策程序和決策結(jié)果,讓組織承受高昂的代價(jià)。Anderson等(2004)認(rèn)為,在人工智能將給組織帶來諸多益處的同時(shí),相應(yīng)的人工智能使用規(guī)范需要提前介入,以確保組織從以人類智力為核心的決策主體,順利過渡到以人工智能為決策核心的組織中。同時(shí),基于倫理道德的文化性特征,人工智能的倫理道德標(biāo)準(zhǔn)要優(yōu)于人類。首先,機(jī)器傾向于基于數(shù)據(jù)做出精確的決策方案,而人類的決策只是基于人類的判斷,相比數(shù)據(jù)的決策,人類的決策不夠客觀;其次,人類做決策不會考慮所有的備選方案,可能會對某些特定備選方案有所偏袒,而機(jī)器會基于數(shù)據(jù)對所有備選方案進(jìn)行評估,因而做出的決策是相對客觀的;再次,機(jī)器是沒有情感的,而人類的情感在某些情況下,是做出錯誤決策的重要原因。Daniel等(2019)采用實(shí)驗(yàn)法,研究了運(yùn)用人工智能決策的道德問題,他們分別對完全由人工智能或是人類來決策,人類和人工智能聯(lián)合決策(人類監(jiān)督人工智能或是人工智能監(jiān)督人類)的四個決策情境進(jìn)行分析,得出決策結(jié)構(gòu)對人工智能決策的道德沒有顯著影響的結(jié)論。但是,比起全權(quán)由人類決策,或是人類接受人工智能的建議,再進(jìn)行決策的兩種情況,人類監(jiān)督人工智能決策這種情境,在面臨決策道德問題時(shí),受到的指責(zé)會相對較?。槐绕饐为?dú)由人類做出的決策、人類和人工智能聯(lián)合所做出的決策等三種情境,全權(quán)依靠人工智能做決策,當(dāng)決策有失誤時(shí),會得到更多的道德寬恕。Young等(2019)實(shí)施的三組實(shí)驗(yàn)結(jié)果顯示,人類和人工智能到底誰對決策負(fù)責(zé)任應(yīng)取決于具體的情境。除此之外,讓人工智能在決策時(shí)遵循人類倫理道德的難點(diǎn)在于道德標(biāo)準(zhǔn)本身是隨著社會發(fā)展而不斷變化的。Bostrom等(2014)的研究發(fā)現(xiàn),在同一時(shí)期,不同的國家和地區(qū)的道德標(biāo)準(zhǔn)也不同,因而很難找到讓人工智能遵循的統(tǒng)一道德標(biāo)準(zhǔn)。以上研究表明,隨著人工智能技術(shù)的不斷進(jìn)步,人工智能已漸漸地能與人類開展交流和思考。對此,人類應(yīng)盡可能多的理解人工智能的思想與意圖,與人工智能建立情感聯(lián)系并賦予其一定的責(zé)任。

(八)人工智能決策質(zhì)量的影響因素

1.數(shù)據(jù)質(zhì)量。Thomas Bolander等(2019)的研究表明,人工智能決策和人類決策同樣存在質(zhì)量問題,通過對人工智能和人類決策質(zhì)量的比較,發(fā)現(xiàn)人工智能決策依然存在許多缺點(diǎn)和不足,現(xiàn)有的人工智能技術(shù)條件還不能夠保證決策的正確和可解釋性。因而,找到現(xiàn)階段影響組織決策質(zhì)量的主要因素是保證組織最終得到優(yōu)質(zhì)決策的關(guān)鍵。盡管人類針對人工智能的技術(shù)研究,已經(jīng)在最大努力地提升人工智能的決策能力,但這個提升過程還是略顯緩慢。短期內(nèi)提升人工智能的決策質(zhì)量還是要從數(shù)據(jù)質(zhì)量入手。(5)M. Janssen, H. van der Voort, A. Wahyudi,“ Factors influencing big data decision-making quality”, J. Bus. Res. 70 (2017) 338-345.Kitchin等(2014)列出了數(shù)據(jù)管理的具體方法,即剔除錯誤信息數(shù)據(jù)、把數(shù)據(jù)錄入機(jī)器可以識別的數(shù)據(jù)類型、把相關(guān)的數(shù)據(jù)整合起來。案例法被用于研究人工智能決策面臨的數(shù)據(jù)問題,數(shù)據(jù)中可能存在著少量的缺失數(shù)據(jù)、大量的缺失數(shù)據(jù)、有偏誤的數(shù)據(jù)。因?yàn)?,?shù)據(jù)的質(zhì)量直接決定了人工智能進(jìn)行決策的質(zhì)量,而有問題的數(shù)據(jù)不能保證決策的透明性、公平性和解釋性。(6)Bolander, T. (2020).“ Correction to: What do we lose when machines take the decisions?”. Journal of Management and Governance, 1-1.最新針對數(shù)據(jù)與決策質(zhì)量的研究發(fā)現(xiàn),進(jìn)一步提高數(shù)據(jù)的質(zhì)量,對于現(xiàn)階段人工智能的組織決策質(zhì)量具有決定性的影響。(7)Shamim, S., Zeng, J., Shariq, S. M., & Khan, Z. (2019). “Role of big data management in enhancing big data decision-making capability and quality among Chinese firms: A dynamic capabilities view”. Information & Management, 56(6), 103135.在人工智能和人類共同決策的情境下,通過計(jì)算人工智能和人類在決策意見所占權(quán)重并提高數(shù)據(jù)的質(zhì)量,是提高整體人工智能決策質(zhì)量上的有效方法。(8)Luis Alessandri PérezArellano·Ernesto León-Castro·Ezequiel Avilés-Ochoa·José M. Merigó “Prioritized induced probabilistic operator and its application in group decision making” Int. J. Mach. Learn. & Cyber. (2019) 10:451-462Perri(2001)對人工智能和人類決策質(zhì)量進(jìn)行了比較,指出盡管人工智能具有更理性、更智能、信息存儲量比人類大等諸多優(yōu)勢,但依然不能得出人工智能做出的決策比人類要好的結(jié)論。人工智能在數(shù)據(jù)量不足的情境下,其決策質(zhì)量必然差于人類的決策質(zhì)量。

2.算法。組織可以在數(shù)據(jù)不豐富的時(shí)候,研發(fā)算法以提升決策能力。(9)Masegosa ASR, Feelders AJ, Van der Gaag LC (2016) “Learning from scarce data in bayesian networks with qualitative influences“Int J Approx Reason 69(C):18-34.特定的某種算法是某一決策情境下對組織決策有積極作用的方法,算法本身確實(shí)會影響人工智能對組織的決策質(zhì)量。(10)Zhan, J., Malik, H. M., & Akram, M. (2019). “Novel decision-making algorithms based on intuitionistic fuzzy rough environment“. International Journal of Machine Learning and Cybernetics, 10(6), 1459-1485.當(dāng)算法過度簡單(忽視了決策環(huán)境的復(fù)雜性)、算法的模型存在維度的缺失(這些維度是做出正確決策所需要的)、把兩個或者多個因素的相關(guān)關(guān)系識別成了因果關(guān)系;算法能否識別組織本身環(huán)境和周圍環(huán)境,在決策環(huán)境復(fù)雜或不確定、信息缺乏或質(zhì)量低的情況下,通過提高算法本身能力來提高組織的決策,同樣是提升組織決策質(zhì)量的有利途徑。(11)Yao You· Jie Li·Lincheng Shen “An effective Bayesian network parameters learning algorithm for autonomous mission decision-making under scarce data“Int. J. Mach. Learn. & Cyber. (2019) 10:549-561.與人類的學(xué)習(xí)速度相比,人工智能的學(xué)習(xí)速度相對緩慢,在這種受限的情況下,人工智能很難做出比人類更準(zhǔn)確的決策,因而通過開發(fā)與人腦的工作原理相似的算法來提高決策質(zhì)量,即當(dāng)可供算法學(xué)習(xí)的數(shù)據(jù)較少,人工智能與環(huán)境的交互作用又很有限的情況下,應(yīng)把神經(jīng)科學(xué)與人工智能的算法研究結(jié)合起來。(12)Sang Wan Lee and Ben “Seymour Decision-making in brains and robots — the case for an interdisciplinary approach“Current Opinion in Behavioral Sciences 2019, 26:137-14533、Sverchkov等(2017)的研究則認(rèn)為,通過提高人工智能在新情境環(huán)境中的決策能力,降低人工智能在決策中對受限制環(huán)境的依賴,會相應(yīng)的提高決策質(zhì)量。

(九)不同觀點(diǎn)對人工智能決策的看法

技術(shù)具有二重性,樂觀主義認(rèn)為人工智能可以替代人類去做乏味、枯燥、重復(fù)性的工作,解放人類。因而,技術(shù)樂觀主義對技術(shù)實(shí)踐的社會價(jià)值發(fā)展持肯定或樂觀態(tài)度。技術(shù)樂觀主義者認(rèn)為,人類只要掌握了人工智能技術(shù),就可以把握自己命運(yùn)并決定人類自身的發(fā)展,解決社會問題并創(chuàng)造美好的未來。技術(shù)悲觀主義認(rèn)為,人工智能會造成人類社會的失業(yè),并造成對人類隱私的侵害,造成過渡監(jiān)管、控制等問題。Perri(2010)的研究發(fā)現(xiàn),等級制度擔(dān)心技術(shù)會超出管理系統(tǒng)的控制,并要求更多的監(jiān)管來約束它們。個人主義擔(dān)心大規(guī)模的新技術(shù),例如人工智能對勞動力有一定的替代作用,因而人工智能技術(shù)的發(fā)展會破壞個人的創(chuàng)業(yè)能力,并呼吁放松管制和以市場為基礎(chǔ)的手段來控制風(fēng)險(xiǎn);平等主義擔(dān)心冷技術(shù)將主導(dǎo)或破壞溫暖的道德社區(qū),使原本由于組織團(tuán)隊(duì)協(xié)作而溫馨的氛圍被打破,并呼吁從技術(shù)發(fā)展中解放出神圣空間。相比之下,宿命論者則認(rèn)為人工智能技術(shù)會隨機(jī)失效,從而只會加劇已經(jīng)是流浪漢式社會生活的任意性、隨機(jī)性和噪音,而技術(shù)失效的時(shí)段可能恰恰是組織做出決策的決定性時(shí)期。機(jī)器人、神經(jīng)網(wǎng)絡(luò)和數(shù)字代理在這個永恒的社會恐懼系統(tǒng)中占據(jù)了它們的位置,在這個系統(tǒng)中,社會組織的競爭形式試圖讓人、技術(shù)和系統(tǒng)對它們的各種基本價(jià)值觀負(fù)責(zé)。

三、研究展望

科技本身是協(xié)調(diào)當(dāng)前對未來展望的一個過程,也是“科技管理”的重要任務(wù)。技術(shù)發(fā)展的一個顯著的特點(diǎn)是其動態(tài)性,技術(shù)發(fā)展的另一個特征則是其優(yōu)化性,這些特性會讓特定的技術(shù)在其技術(shù)體系中的不同層次、級別、類型的技術(shù)產(chǎn)生包容、關(guān)聯(lián)和連鎖的反應(yīng)。Suzuki(2020)的研究認(rèn)為,人工智能仍有許多懸而未決的問題亟待解決,隨著人工智能技術(shù)在量變和質(zhì)變中的不斷發(fā)展進(jìn)步,這項(xiàng)技術(shù)可能還會與其它技術(shù)相結(jié)合,終究會為組織決策領(lǐng)域,甚至為整個組織系統(tǒng)造福?;谌斯ぶ悄軐M織決策的現(xiàn)實(shí)影響,我們的思考:人工智能協(xié)助甚至替代決策者進(jìn)行決策,那么決策者應(yīng)該在組織中扮演一個什么類型的角色?人工智能一定會做出超乎人類意料的決策,如何管理由于人工智能引起的意想之外的決策?社會對技術(shù)具有一定的建構(gòu)作用,特定的技術(shù)是否適用于特定的組織是由技術(shù)能否適應(yīng)組織結(jié)構(gòu)決定的,應(yīng)用人工智能技術(shù)進(jìn)行有效組織決策需要什么類型的組織結(jié)構(gòu)?技術(shù)進(jìn)步對組織氛圍、組織結(jié)構(gòu)的變化和組織內(nèi)部成員關(guān)系有顯著的影響,人工智能已經(jīng)以一種特殊身份介入了組織的管理決策領(lǐng)域,人工智能對組織中人與人以及人與人工智能的關(guān)系會產(chǎn)生什么樣的影響?隨著人工智能技術(shù)的不斷進(jìn)步并廣泛應(yīng)用到組織的各個方面,有一種觀點(diǎn)認(rèn)為,終將有一天,人工智能的智慧會超越人類。(22)Spatola, N., & Normand, A. (2020). “Human vs. machine: the psychological and behavioral consequences of being compared to an outperforming artificial agent“. PsychologicalResearch, 1-11.因而,人工智能終將會對組織中部分的決策角色產(chǎn)生互補(bǔ)甚至完全替代,對此,未來的相關(guān)研究應(yīng)關(guān)注人工智能參與決策對組織領(lǐng)導(dǎo)者和員工心理層面的影響研究,此其一。人工智能的不合理使用可能會引發(fā)公共危機(jī),(23)Scherer, M. U. (2015). “Regulating artificial intelligence systems: Risks, challenges, competencies, and strategies“. Harv. JL & Tech., 29, 353.對此,未來的相關(guān)研究應(yīng)當(dāng)聚焦于適合人工智能決策的法律情境,此其二。另外,現(xiàn)有人工智能對組織決策的影響研究多集中于用案例分析、訪談交流等,未來的相關(guān)研究應(yīng)更多的關(guān)注應(yīng)用研究,并借助科技哲學(xué)、認(rèn)知學(xué)等相關(guān)理論展開更深入的研究。

猜你喜歡
決策人工智能算法
哪種算法簡便
為可持續(xù)決策提供依據(jù)
Travellng thg World Full—time for Rree
2019:人工智能
決策大數(shù)據(jù)
進(jìn)位加法的兩種算法
根據(jù)問題 確定算法
決策大數(shù)據(jù)
人工智能與就業(yè)
諸葛亮隆中決策
阿坝县| 闽清县| 根河市| 基隆市| 娄底市| 小金县| 阳城县| 青田县| 汤阴县| 涪陵区| 民丰县| 南和县| 泗洪县| 京山县| 于都县| 曲阳县| 日土县| 邵阳县| 修水县| 瑞金市| 彰武县| 汉沽区| 汝城县| 南投市| 抚州市| 军事| 霍山县| 富民县| 海城市| 濮阳县| 开远市| 当雄县| 大同市| 新干县| 夹江县| 边坝县| 南投市| 香港| 丘北县| 察雅县| 乐业县|