尹 萌 牛雄鷹
與AI“共舞”:系統(tǒng)化視角下的AI?員工協(xié)作*
尹 萌 牛雄鷹
(對外經(jīng)濟貿(mào)易大學國際商學院, 北京 100029)
AI?員工協(xié)作是一個以高效完成任務為目標, 由“AI?人?組織”構成的交互系統(tǒng)。促進AI?員工協(xié)作對于推動AI與實體經(jīng)濟的深度融合, 以及員工在數(shù)字化時代的心理健康與職業(yè)發(fā)展至關重要。AI與員工的交互關系錯綜復雜, 現(xiàn)有研究呈現(xiàn)碎片化特點, 缺乏對AI?員工協(xié)作的整體認識。因此, 有必要在厘清相關概念的基礎上, 對AI?員工協(xié)作的相關研究進行系統(tǒng)地梳理。通過對相關研究的系統(tǒng)性回顧, 本文厘清了AI和AI?員工協(xié)作的內(nèi)涵, 梳理了AI?員工協(xié)作系統(tǒng)的構成要素, 分析了構成要素的作用和影響, 并進一步基于系統(tǒng)化的視角構建了一個研究框架。最后, 基于AI?員工協(xié)作的研究框架提出未來研究展望。
人工智能, AI?員工協(xié)作, 系統(tǒng)化視角, 研究框架, I-P-O
AI作為推動科技跨越發(fā)展、產(chǎn)業(yè)優(yōu)化升級、生產(chǎn)力整體躍升的重要驅動力量, 基礎性、關鍵性作用日益凸顯。但如何推動各類AI技術的落地應用, 促進AI和實體經(jīng)濟融合, 成為AI產(chǎn)業(yè)發(fā)展亟需解決的難題。微觀層面, 大量組織在積極擁抱AI時, 也在眼花繚亂的技術浪潮中遭遇了數(shù)智化轉型的失敗(Canhoto & Clear, 2020)。許多企業(yè)在AI上投入大量的資源, 但卻未能獲得預期收益, 甚至還造成了一系列負面的后果(Fountaine et al., 2019)。德勤在針對152項AI項目的調查中發(fā)現(xiàn), 47%的項目存在AI與員工協(xié)作困難的問題; 《中國數(shù)字經(jīng)濟發(fā)展觀察報告》的調查結果也顯示, 盡管64%的高管推動AI項目, 但僅有12%的AI與員工有效合作。究其原因, 主要在于AI帶來的結構性改變與員工認知、情感和行為反應之間張力, 反映在AI與員工之間未能形成持久、穩(wěn)定的協(xié)作關系(謝小云等, 2021)。因此, 揭示AI?員工協(xié)作的內(nèi)在機制, 幫助組織在優(yōu)化AI?員工協(xié)作時有的放矢, 對于促進AI產(chǎn)業(yè)的發(fā)展以及提升AI的組織有效性有重要意義。
在此背景下, 組織中的AI研究也如火如荼地展開。AI作為底層技術在組織中的應用方式較為豐富, 不同應用情境下的研究關注焦點也不盡相同。AI可以完全獨立地完成工作(如, AI驅動的自動化系統(tǒng)), 也可以扮演管理者的角色(如, AI算法管理), 履行計劃、執(zhí)行、控制、績效反饋等管理職能(Tong et al., 2021); 也可以扮演同事或助手的角色, 與員工協(xié)作完成任務(Jia et al., 2023)。不足的是, 尚未有文獻在對AI不同應用方式做出區(qū)分的基礎上, 對AI和AI?員工協(xié)作的概念內(nèi)涵進行系統(tǒng)闡述, 這導致了組織中AI含義的模糊以及不同AI應用方式的概念間的混淆。此外, AI?員工協(xié)作的研究具有跨學科的碎片化和復雜性, 整體呈現(xiàn)研究范式不統(tǒng)一、理論不清晰和機制未厘清的特點。盡管已有綜述類文獻關注AI?員工協(xié)作的相關議題(如: Seeber et al., 2020; Tsai et al., 2023), 但尚未有文獻對已有研究進行系統(tǒng)梳理并構建AI?員工協(xié)作的研究框架, 厘清AI?員工協(xié)作的構成要素、內(nèi)在機制, 這也導致缺乏對AI?員工協(xié)作研究現(xiàn)狀和未來發(fā)展走向的整體把握。
鑒于此, 本文對AI?員工協(xié)作的相關文獻進行了全面檢索(檢索流程和規(guī)則如表1所示)。根據(jù)Webster和Watso (2002)的建議, 對文獻的發(fā)表信息、理論基礎、核心研究結論等內(nèi)容進行了編碼, 深入閱讀文獻后, 基于系統(tǒng)性綜述的方法組織文章內(nèi)容并構建研究框架。本文首先闡述了工作場所AI和AI?員工協(xié)作的概念、內(nèi)涵、維度; 其次, 基于AI?員工協(xié)作的系統(tǒng)化分析視角, 梳理了AI?員工協(xié)作系統(tǒng)的輸入項、過程項和輸出項, 并在此基礎上構建了一個研究框架?;诒疚奶岢龅难芯靠蚣芎同F(xiàn)有研究的不足, 提出未來研究展望。通過上述研究, 有助于我們更深刻、系統(tǒng)地理解AI?員工協(xié)作, 推動組織中AI研究的深化, 進而更好地幫助組織在實踐中優(yōu)化AI?員工協(xié)作, 提升AI的組織有效性。
表1 檢索流程和規(guī)則
隨著AI在工作場所的廣泛應用, “人工智能”、“機器人”、“算法”等與AI相關的概念層出不窮, AI在工作中擔任的職能或扮演的角色也多種多樣。為此, 本文首先厘清工作場所AI的概念、內(nèi)涵和維度, 并對本研究關注的AI?員工協(xié)作進行詳細地闡述。
AI是指能夠執(zhí)行通常與人類思維相關的認知功能的機器, 如學習、互動和解決問題(Nilsson, 1971)。在心理學和組織管理領域, AI的功能主要包括從外部(包括自然語言)或其它計算機系統(tǒng)收集信息, 解釋信息、預測模式、推導規(guī)則或預測事件, 生成結果、回答問題或向其它系統(tǒng)提供指示, 評估其行動的結果并改善其決策系統(tǒng)以實現(xiàn)特定目標(Ferràas-Hernáandez, 2018)。在對未來技術的設想中, AI是能夠和人類一樣, 甚至能夠比人類更好地執(zhí)行所有任務的通用智能。但受限于技術發(fā)展水平, 具有通用智能的超級AI或強AI目前尚未成熟。本研究主要關注的是目前在組織中被廣泛使用的弱AI或狹義AI, 即能夠實現(xiàn)對人類智能的片段進行模擬的各種AI驅動的智能技術, 比如人臉識別、聲音識別和理解、智能推薦算法、聊天機器人等(Charlwood & Guenole, 2022)。
AI在現(xiàn)實中的表現(xiàn)形式包括機器人AI、虛擬AI和嵌入型AI (Glikson & Woolley, 2020)。機器人AI是指由AI技術驅動的具備實體形態(tài)的機器人。其中, 最受組織管理研究者關注的是AI驅動的社交機器人(Yam et al., 2022), 例如Pepper機器人。除了AI驅動的社交機器人外, 常見的機器人還包括工業(yè)機器人。根據(jù)國際機器人聯(lián)合會的定義, 社交機器人是為人類或設備執(zhí)行有用任務的實體, 而工業(yè)機器人是自動控制的、可再編程的多用途操作臂(IFR, 2022)。前者由AI驅動, 而后者是預先編程設計的(Yam et al., 2022)。虛擬AI是指由AI驅動的虛擬主體, 這種AI不具備實體形態(tài), 例如ChatGPT、AlphaGo、Siri等。其中, 由于機器人AI和虛擬AI都是應用AI理論與技術制造的AI機器, 能自主活動的軟件或者硬件主體, 因而又被統(tǒng)稱為智能體AI或智能體(龔群, 2023)。最后, 嵌入型AI沒有視覺表現(xiàn)或特別的身份, 它嵌入到不同類型的應用程序中, 比如搜索引擎和GPS地圖, 嵌入型AI對于使用者而言是“隱形”的, 而用戶可能并不知道它的存在(Glikson & Woolley, 2020)。
在探究技術與工作關系的研究中, 傳統(tǒng)的分析視角傾向于將技術視為工具或媒介:工具視角關注員工如何利用技術工具提升績效表現(xiàn)(Nelson & Irwin, 2014); 媒介視角關注員工如何利用技術促進團隊溝通(Bechky, 2003)。但這兩種視角局限于人主體性的領導地位, 而忽視了AI的主體性。為克服這一不足, Anthony等(2023)通過整合分布式認知理論和行動者網(wǎng)絡理論, 提出了AI?員工協(xié)作的系統(tǒng)化分析視角(以下簡稱“系統(tǒng)化視角”)。該視角將AI視作與用戶、組織等利益相關者具有等同性的行動主體, 認為AI、用戶、組織共同推動了AI的設計、實施和使用。系統(tǒng)化視角下, AI?員工協(xié)作是一個以高效完成任務為目標, 由“AI?人?組織”構成的交互系統(tǒng)(Anthony et al., 2023)。據(jù)此, 本文采用系統(tǒng)研究常用的I-P-O范式(Ilgen et al., 2005), 從系統(tǒng)的輸入(Input)、過程(Process)和輸出(Output)三個方面構建AI?員工協(xié)作系統(tǒng)的研究框架:輸入層面, 由AI、員工、組織三方行動主體構成; 過程層面, 包含AI?員工協(xié)作的任務構型; 輸出層面, 包含AI、員工、組織受到的影響。
在AI?員工協(xié)作的系統(tǒng)中, AI是指人工智能技術驅動的, 能夠協(xié)助或與人類合作執(zhí)行任務的軟件和硬件的統(tǒng)稱(Moussawi et al., 2020)。此類AI區(qū)別于AI驅動的自動化系統(tǒng)和AI驅動的算法管理, 它們通常在工作中扮演助手、同事的角色, 與員工協(xié)作完成任務, 因而也有研究將其稱之為AI助手(Jia et al., 2023)、AI同事(Savela et al., 2021)、AI團隊成員(Seeber et al., 2019)等, 下文均以AI代稱。本研究除了涉及常見的智能體AI外, 還涉及嵌入型AI驅動的軟件系統(tǒng), 這類AI雖然不具備智能體的實體或虛擬形態(tài), 但同樣可以與員工進行協(xié)作。例如, 為在線客服配備的AI助理(Jia et al., 2023), 具備簡單問答, 收集客戶信息、生成客戶畫像, 對消費意向做出初步判斷等功能。
系統(tǒng)化視角下, “AI?人?組織”共同構成了交互系統(tǒng), 它們圍繞目標任務推動AI的設計、實施和使用(Anthony et al., 2023)。這意味著, AI、員工和組織構成了AI?員工協(xié)作系統(tǒng)的輸入端, 它們之間相互獨立, 共同決定最終的輸出結果; 而任務特征是過程項, 體現(xiàn)了輸入如何轉化成結果。據(jù)此, 本文基于現(xiàn)有文獻, 從AI的技術特征因素、員工個體因素、組織情境因素和任務構型四個方面進行回顧。
隨著機器智能的日益強大, AI與人之間出現(xiàn)相互滲透的趨勢。在系統(tǒng)化視角下, AI的主體性得到重視, AI的技術特征成為協(xié)作系統(tǒng)的主要驅動因素之一(Anthony et al., 2023)。例如, Seeber等(2020)在對65名科學家的采訪中發(fā)現(xiàn), 建構AI與員工的團隊應首先關注機器的外觀、可視性、可靠性等技術特征; Yoon和Lee (2019)指出, 要實現(xiàn)成功的人機交互, 設計AI時應把握好用戶友好、準確性、可靠性等十個技術特征。本文在對現(xiàn)有文獻歸納總結的基礎上, 借鑒Glikson和Woolley (2020)中對AI特征的維度劃分, 從物理屬性、心智屬性和倫理屬性三個維度刻畫AI的技術特征。
3.1.1 AI的物理屬性
AI的物理屬性主要從有形性和擬人性兩個角度進行刻畫。
有形性是指AI的虛擬或實體形態(tài)(Glikson & Woolley, 2020), 擬人性是指AI的外觀、聲音、表情、性別等物理特質的擬人化程度(Alabed et al., 2022)。關于AI有形性和擬人性的研究已較為豐富, 并得出了較為成熟的結論。研究發(fā)現(xiàn), 相比于虛擬形態(tài)的AI, 具有實體形態(tài)的AI (如機器人AI)更能獲取人的信任和好感 (Alabed et al., 2022; Glikson & Woolley, 2020); 相比于不具備類人型外觀的工業(yè)型智能體, 個體更容易對擬人化程度更高的智能體產(chǎn)生情感認同, 更能容忍AI出現(xiàn)執(zhí)行任務失敗或技術故障, 對于其社會價值和功能價值的評估水平也更高(Belanche et al., 2021; Yam et al., 2021; 張儀, 王永貴, 2022)。而AI的女性性別、交互語音自然程度、類似于人的年齡、昵稱等, 都會被認為具有溫暖、含蓄、微妙的人性尺度, 減少AI作為“人造物”的不自然痕跡, 更容易被使用者接受(Borau et al., 2021; Guha et al., 2023)。
盡管智能體適度的類人型可以激發(fā)人的移情作用, 增加人機交互時的好感, 但外型的過度人格化則會造成“恐怖谷”效應, 造成使用者的心理不適(Glikson & Woolley, 2020; Stein et al., 2020)。所謂“恐怖谷”效應, 是指智能體的外觀和行為跟人類越是接近, 人們越容易產(chǎn)生積極情緒; 但當正面情緒到達一個峰值之后, 隨著相似度的提高, 人們會對智能體產(chǎn)生恐怖的感覺(Mori, 2012)。綜上所述, 優(yōu)化AI?員工的協(xié)作系統(tǒng), 要在工業(yè)設計上賦予AI適度的人格特征, 如外觀、表情、聲音、性別等, 有助于增強員工對AI的信任和好感, 提升員工的接受度和使用意愿。
3.1.2 AI的心智屬性
個體通常從情感和機能兩個角度形成對其他實體心智水平的感知(Gray et al., 2007)。因此, AI的心智屬性主要從情感性和機能性兩個角度進行刻畫。情感性是指AI進行溝通交流、情感感知、提供情感支持的能力。隨著技術的進步, 具備共情智能和多感官交互的AI開始能夠準確識別、理解、應對甚至影響人類的情緒(Huang & Rust, 2018; Lv et al., 2022)。研究發(fā)現(xiàn), AI與用戶之間存在情緒傳染效應(Chuah & Yu, 2021; Han et al., 2022), 高情感性的AI能將積極情緒傳遞給用戶, 拉近AI與用戶間的心理距離, 幫助AI與用戶建立親密、穩(wěn)定的關系(Lee et al., 2022; Song et al., 2022), 增強用戶對AI的滿意度(Gelbrich et al., 2021; Lee et al., 2022)。Dutta等(2022)研究發(fā)現(xiàn), AI與員工之間的溝通交流營造了信任的氛圍, 增強了員工的工作投入。有趣的是, 對于情感性低的AI, 雖然它們無法為員工提供情感支持, 但正是由于其非人性化的特征, 因而也會提升員工的適應性。例如, 隨著情感性低的AI引入工作團隊, 員工增強了對人類身份的認同感, 緩解了對外部群體(如不同種族、宗教信仰、移民、性取向)的排斥, 有助于減少群體間的偏見和緊張關系(Jackson et al., 2020); 在人機互動過程中, 由于低情感性的AI不具備同理心、道德感和社會評判能力(Giroux et al., 2022; Lanz et al., 2023), 人面對AI時不會感覺到尷尬、羞恥等負面情緒(Holth?wer & van Doorn, 2023; Pitardi et al., 2022); 由于對AI缺乏人性化的感知, 當員工面對AI扮演的咨詢師時, 會減少對評估者天然的抵觸和厭惡情緒(Desideri et al., 2019)。
機能性是指AI理性地思考、計劃和行動的能力(Yam et al., 2021)。高機能的AI有較強的問題診斷和解決能力、響應速度快、易用性高(Yoon & Lee, 2019), 能增強用戶對AI的認同感和使用傾向(Belanche et al., 2021; Pantano & Scarpi, 2022)。例如, Guha等(2023)研究發(fā)現(xiàn), AI能夠執(zhí)行任務的數(shù)量和敏捷性的提高能增加用戶對AI機能性的感知, 進而導致用戶的積極評價。Glikson和Woolley (2020) 指出, 員工對AI的信任會隨著交互的深入不斷增強, 但AI的機能性會調節(jié)信任的發(fā)展過程, 高機能性的AI通常會更快地發(fā)展高水平的信任。但高機能的AI對員工也存在負面影響。當與AI合作時, 員工會與AI進行社會比較, 高機能的AI會打擊員工的自尊心, 導致員工的自卑和工作不安全感, 引發(fā)挫折、憤怒等消極情緒, 甚至會導致工作場所不文明行為、反生產(chǎn)行為的發(fā)生(Seeber et al., 2020; Spatola & Normand, 2020; 王才等, 2019; Yam et al., 2023)。對于低機能的AI, 由于容易出現(xiàn)技術故障或未按照程序設定的規(guī)則運行, 會直接和間接導致用戶的不滿(Filieri et al., 2022)。例如, 隨著智能自主服務系統(tǒng)在服務行業(yè)的廣泛應用, 隨之而來的是頻發(fā)的技術故障, 以及由此導致的服務失敗和顧客投訴(呂興洋等, 2021)。當服務員工與智能系統(tǒng)協(xié)作時, 不得不面對更多生氣與失望的顧客, 這加劇了員工的情緒勞動和心理資源耗竭, 進而滋生對系統(tǒng)的抵觸情緒(Groth et al., 2019; Johnson et al., 2020)。
通過上述分析可見, AI的情感性和機能性的影響并非單一或線性的, 具備較強的情境性特征。在AI?員工協(xié)作的系統(tǒng)化分析視角下, AI的設計和實施過程中要充分考慮用戶和組織的特點。
3.1.3 AI的倫理屬性
AI倫理屬性主要從透明度和可靠性兩個角度進行刻畫。
科技部在《新一代人工智能倫理規(guī)范》中明確指出, 在AI的研發(fā)過程中, 要在“設計、實現(xiàn)、應用等環(huán)節(jié), 提升透明性、可靠性等”; 馬斯克等AI領域的企業(yè)家和科學家呼吁在明確AI的倫理風險和治理機制前暫停大模型的開發(fā)和訓練; 意大利也宣布禁用ChatGPT, 原因是它侵犯了用戶的隱私。可見, AI的透明度和可靠性至關重要。透明度是技術的底層操作規(guī)則和內(nèi)部邏輯對用戶的可見程度(Glikson & Woolley, 2020)。AI的設計不是“完美”的, 實際應用中難免出現(xiàn)故障和問題, 高透明度的AI有助于政府和企業(yè)澄清和追溯是機器、設計師還是其他利益相關者的權利、責任和義務, 建立可定義的監(jiān)管標準, 也有助于員工理解AI所做出的決策和建議, 使人類能夠對AI進行“反哺”, 通過監(jiān)督學習提升AI的智能水平(Seeber et al., 2020)。AI的透明度還涉及安全和隱私問題, 許多AI的運行首先需要數(shù)據(jù)的輸入, 包括姓名、家庭關系、工作和家庭位置等私人信息, 進而制定個性化的響應模式(Moussawi et al., 2020)。當封閉的AI系統(tǒng)威脅到員工的安全和隱私時, 員工使用AI可能會面臨法律、道德等倫理問題, 員工會感到緊張、降低信任, 由此會削弱對AI的使用意愿(Pillai & Sivathanu, 2020)。AI的透明度還關系到對算法中偏見的控制。AI的算法中可能存在設計師、工程師、公司的偏見, 這種偏見不僅會影響用戶的信任和決策質量, 還有可能在更高層面和更高風險的情境中導致不良后果(Anthony et al., 2023)。盡管有持反對意見的人認為AI是“黑箱”, 實現(xiàn)AI對員工完全透明是不切實際的, 但仍有一些較為復雜的方法可以幫助員工理解“黑箱”的內(nèi)在機理(Charlwood & Guenole, 2022)。例如, 目前已發(fā)展出一些評估指標(如: sharp values; Sundararajan & Najmi, 2020) 增強了模型的可解釋性。綜上所述, 優(yōu)化AI?員工的協(xié)作, 要從技術和制度設計兩個角度增強AI的透明度, 幫助員工不需要掌握專門知識或了解其內(nèi)部結構, 就能理解AI的功能和輸出結果。
可靠性是指AI功能和行為表現(xiàn)的準確性、一致性和穩(wěn)定性, 以及能夠真正落地使用(Glikson & Woolley, 2020)。根據(jù)《智能軟件可靠性的研究進展與趨勢》, AI的可靠性包含了數(shù)據(jù)可靠性、模型可靠性和平臺可靠性三個維度。隨著商業(yè)用途的AI系統(tǒng)復雜性提升, 需要大量獲取數(shù)據(jù)資源、商業(yè)機密、員工隱私等信息, 因而工作場所AI的可靠性至關重要。員工是否會在工作中接受、使用和信任一個經(jīng)常犯錯和“反復無?!钡腁I呢?答案顯然是否定的。甚至, 盡管AI和人類同事一樣都會犯錯, 但我們對AI犯錯的容忍度遠遠小于人類自己犯錯。Esterwood和Robert (2023)研究發(fā)現(xiàn), 在AI?員工協(xié)作中, 當AI 出錯達到三次, 員工對AI的信任通過任何策略都無法彌補。Robinette等(2017)研究發(fā)現(xiàn), 在高風險的情境中參與者會對可靠性低的AI失去信任。在一些研究中還發(fā)現(xiàn), AI行為表現(xiàn)的一致性和穩(wěn)定性的下降比準確性的下降更能影響員工的信任(Desai et al., 2013)。Wang等(2022)研究發(fā)現(xiàn), 員工對AI能力的評估還取決于AI的可靠性, 當AI可靠性低時員工傾向于認為AI也是能力低下的。因此, 優(yōu)化AI與員工的協(xié)作, 應重視AI的可靠性測試、評估及提升工作, 為員工提供穩(wěn)定安全可靠的AI系統(tǒng)。
系統(tǒng)化視角下, AI盡管被視為理性的行動者, 但仍無法抹去人類行動者的角色, 系統(tǒng)根植于人機互動, 歸根結底需要人的參與, 在多數(shù)“弱AI”應用中人仍占據(jù)主導地位(Anthony et al., 2023)。因此, AI?員工協(xié)作會受到員工個體特征的影響。根據(jù)對現(xiàn)有文獻的梳理, 本文從員工的態(tài)度、知識、技巧和能力(knowledge, skills, abilities, 簡稱KSAs)、性格和人口統(tǒng)計學特征四個方面進行討論。
3.2.1 態(tài)度
當員工以變革創(chuàng)新的意愿和積極的態(tài)度去接納和使用AI時, 能與AI形成良好的協(xié)作關系, 強化自身的認同感和幸福感, 提升AI的組織有效性(Savela et al., 2021; 趙宜萱等, 2020)。有學者提出了STARA (smart technology, artificial intelligence, robotics, algorithms)意識的概念, 即員工對智能技術、人工智能、機器人、算法如何影響職業(yè)前景的看法(Brougham & Haar, 2018), 也有研究稱之為AI意識(AI awareness) (Kong et al., 2021)。高STARA意識意味著對技術較低的包容度和對職業(yè)前景更悲觀的估計, 會降低員工對AI的接受度, 對員工與AI的協(xié)作關系以及員工自身造成負面影響(Li et al., 2019)。例如, Brougham和Haar (2018)研究發(fā)現(xiàn), STARA意識會削弱員工的組織承諾和職業(yè)滿意度, 導致員工的離職傾向以及憤世嫉俗和抑郁情緒; Lingmont和Alexiou (2020)研究發(fā)現(xiàn), STARA意識會導致員工的不安全感; Kong等(2021)研究發(fā)現(xiàn), AI意識會導致員工的工作倦怠。隨著對STARA意識和AI意識研究的深入, 最新的研究揭示了它們的“光明面”。以酒店業(yè)員工為樣本的研究發(fā)現(xiàn), 對STARA意識和AI意識的挑戰(zhàn)性評估可以激發(fā)員工的內(nèi)部動機和工作投入, 對于員工生產(chǎn)力和創(chuàng)造力的提升有促進作用(Ding, 2021; Liang et al., 2022)。
3.2.2 KSAs
工作場所AI的引入對員工應具備的KSAs提出了新的要求, 員工只有不斷學習和完善順應時代的KSAs, 才能促進員工對AI技術的適應和掌握?,F(xiàn)有研究一方面關注與AI相關的KSAs, 如AI使用經(jīng)歷、對AI的熟悉程度、對AI的敏感性、AI專業(yè)素養(yǎng)等(Kim et al., 2022; Parker & Grote, 2022)。Jaiswal等(2021) 通過案例研究發(fā)現(xiàn), 數(shù)智化時代員工必備的五項技能, 分別是數(shù)據(jù)分析、數(shù)字工具使用、復雜認知、決策制定和持續(xù)學習技能。Wilson和Daugherty (2018)指出, 在與AI的合作中, 員工需要掌握如何訓練AI完成特定任務、如何對AI的工作進行解釋說明、如何保證AI的安全與可靠等能力。另一方面, 關注一般意義上的個體能力和素質, 如工作能力、職業(yè)生涯建構能力、溝通交流能力等(Basu et al., 2023; Guha et al., 2023; 王才等, 2019)。Jia等(2023)研究發(fā)現(xiàn), 只有具備高工作技能的員工才能在和AI的協(xié)作中收益, 提升創(chuàng)造力。Huang和Rust (2018)還認為, 隨著AI技術的發(fā)展和對人類工作領域的滲透, 情感作為智能技術尚難以有效模仿和替代的人類能力, 是人類與AI形成優(yōu)勢互補的關鍵。因此, 管理者應將招聘重點從分析能力轉移到人際交往能力, 員工和教育工作者也應該注重培養(yǎng)情緒智力與人際交往能力, 學習如何與AI進行協(xié)作(Huang et al., 2019)。
3.2.3 性格
員工天生多樣化的個性特征被證明會影響AI與員工的交互(Kim et al., 2022; Parker & Grote, 2022; 王振源, 姚明輝, 2022)。例如, Oksanen等(2020)研究發(fā)現(xiàn), 員工的大五人格中開放性強的個體顯然更容易接受AI的應用。Tang, Koopman, McClean等(2022)也關注了大五人格的作用, 發(fā)現(xiàn)由于AI與員工之間的互補性, AI能幫助責任心低的員工增強角色寬度自我效能、降低角色模糊, 進而促進工作績效, 但責任心、有序性高的員工卻難以從與AI的協(xié)作中獲益; Tang, Koopman, Yam等(2022)揭示了核心自我評價的作用, 研究發(fā)現(xiàn)對AI的過度依賴會損傷員工的自尊心, 進而威脅其工作績效, 但核心自我評價高的員工能保持對工作的動力, 減少對AI過度依賴的負面影響。
3.2.4 人口統(tǒng)計學特征
年齡、性別、社會階層、學歷等人口統(tǒng)計學特征也會影響AI與員工的交互。年齡方面, Dutta等(2022)研究發(fā)現(xiàn), 年長的員工必然伴隨著認知能力的下降, 他們對新技術的熟悉和掌握程度較低, 難以從與AI的協(xié)作中獲益。但年輕員工精通技術知識, 對新興技術工具的使用意愿更強, 更容易從與AI的協(xié)作中獲益(Guha et al., 2023)。類似的, 社會階層和學歷水平較低的個體對于新技術的熟悉和掌握程度低、學習速度慢(Oksanen et al., 2020; 王林輝等, 2022; 張儀, 王永貴, 2022), 這類員工同樣難以適應與AI的協(xié)作。
系統(tǒng)化視角下, AI與員工的互動嵌入在社會技術系統(tǒng)中, AI?員工協(xié)作的演化和發(fā)展受到組織中廣泛的利益相關者的影響(Anthony et al., 2023)。Wilson和Daugherty (2018)指出, 實現(xiàn)AI與員工的協(xié)作, 需要組織在AI應用的全生命周期的深度參與。據(jù)此, 組織情境因素在AI?員工協(xié)作中扮演了重要角色, 根據(jù)對現(xiàn)有文獻的梳理, 本文從組織準備、組織支持、組織氛圍和文化三個方面進行討論。
3.3.1 組織準備
組織準備(organizational readiness)是指組織采用某項技術所需組織資源的準備程度和可用性(Hossain et al., 2017)。結合不同的技術類型, 組織準備可以用來反映組織在特定技術上的準備程度。例如, van de Weerd等(2016)在探究影響SaaS采用的組織因素時, 將組織準備定義為組織采用SaaS所需組織資源的準備程度和可用性。因此, 在AI使用的組織情境中, 組織準備反映了組織采用AI所需資源的準備程度和可用性(Prikshat et al., 2021)。組織準備包括技術成熟度、資金準備程度、技術專家準備程度以及高層管理者的支持等內(nèi)容(Hossain et al., 2017)。對于組織準備高的組織, 對AI相關技術的應用較為成熟, 有充足的資金引進和維護AI技術, 有足夠的專業(yè)技術人員對AI進行植入和維護, 高層管理者也調配了充足的資金和人力資源(Prikshat et al., 2021)。在組織準備高的組織中, 員工能更快速地評估、準備和集成AI系統(tǒng), 對于AI有更強的心理適應性, 更有動力利用AI提供的信息采取行動, 組織也有更強的意愿和能力利用AI開發(fā)新的產(chǎn)品和服務(Makarius et al., 2020)。
3.3.2 組織支持
組織支持首先要求管理者對AI有一定的熟悉和了解程度, 對AI技術持包容和接納的態(tài)度, 傾向于推動組織實現(xiàn)智能化轉型(Basu et al., 2023)。反之, 若管理者不信任AI技術對組織的幫助, 對AI技術充滿焦慮時, 提供組織支持也無從談起(Suseno et al., 2021)。具體的, 管理者要表達對于引入AI技術的承諾和支持, 給予員工信心(李燕萍, 陶娜娜, 2022; Prikshat et al., 2021; 王振源, 姚明輝, 2022), 主動為員工提供數(shù)字技能、知識的教育與培訓(Li et al., 2019; Vrontis et al., 2022)。此外, 由于雇主在社會和經(jīng)濟體系中的相對權力, 技術往往更有利于雇主而非雇員, 因而組織還應該考慮通過內(nèi)部的政策和規(guī)定來幫助確保安全、健康和有意義的工作設計, 例如圍繞技術、不穩(wěn)定工作、監(jiān)視等的政策(Parker & Grote, 2022)。組織還應著手建立和完善技術應用相關的安全保障和倫理規(guī)范(Kim, 2022), 并通過相關的法規(guī)對技術應用過程中利益相關者的責任和義務進行澄清(Seeber et al., 2020)。
3.3.3 組織氛圍和文化
根據(jù)技術接受和使用統(tǒng)一理論, 個人對是否采取某項特定行為感受到的社會壓力是影響個體采納新技術的關鍵因素(Venkatesh et al., 2003)。員工在組織中常常會關注同伴的想法, 通過與群體保持一致增強歸屬感, 特別當員工沒有足夠的信息做出理性的決策時, 所在群體對其行為的影響更大。因此, 用戶對于AI的接納和使用會受到社會規(guī)范和榜樣模范的社會影響(Basu et al., 2023; Gursoy et al., 2019; 李燕萍, 陶娜娜, 2022)。此外, 組織對于員工使用AI的包容、支持、鼓勵的氛圍也有助于AI與員工的協(xié)作。研究發(fā)現(xiàn), 包容型組織氛圍(裴嘉良等, 2021)、鼓勵創(chuàng)新的組織文化(Malik et al., 2020)、包容失敗和支持進步的組織文化(Webber et al., 2019)、競爭性的心理氛圍(Li et al., 2019)會促進員工對AI的接受和使用, 因而有助于改善AI?員工協(xié)作。
系統(tǒng)的組件及其功能服務于執(zhí)行特定的任務, AI、員工和組織圍繞工作任務進行運轉, 它們通過執(zhí)行任務影響輸出結果(Anthony et al., 2023)。過程環(huán)節(jié)描述了系統(tǒng)的輸入如何轉換成結果(Ilgen et al., 2005), 具體內(nèi)容就包括明確目標和相互協(xié)調(Marks et al., 2001), 因而任務構型是AI?員工協(xié)作系統(tǒng)中的過程項。任務構型包含“干什么” (任務目標)和“怎么干” (交互方式)兩個維度, 任務目標刻畫了協(xié)作從事任務的性質, 交互方式則刻畫了AI與員工在任務中的角色定位、任務量和資源的分配情況(Kim, 2022; Seeber et al., 2020)。優(yōu)化AI?員工協(xié)作, 需要考慮雙方的交互方式與任務目標, 只有技術與任務的高度匹配才能最大化協(xié)作效能(Lee, 2018; Wang et al., 2020; 趙宜萱等, 2020)。
3.4.1 交互方式
Makarius等(2020)根據(jù)AI在工作中應用的范圍以及AI的新穎性、智能性水平, 發(fā)展出了8種交互方式, 分別是仿真(如: 超級人工智能)、自治(如: 自動駕駛汽車)、增強(如: 手術機器人)、共生(如: 深度學習)、自動化(如: 流水線機器人)、放大(如: 預測AI)。此外, 還有研究根據(jù)交互雙方的身份(人或AI)的不同構建了交互方式矩陣, 例如:Robinson等(2020)根據(jù)員工與顧客是人或AI構建了四種交互方式, 分別為人內(nèi)關系、AI員工與人類顧客的種間關系、AI顧客與人類員工的種間關系、AI內(nèi)關系?,F(xiàn)有研究討論較多的是自動化與增強兩種交互方式(Raisch & Krakowski, 2021)。
自動化意味著機器接管人工任務, 優(yōu)點在于員工只需很少甚至不需要任何參與就可以將任務交付給AI來完成, 通過將人類從系統(tǒng)中抽離以實現(xiàn)更全面、合理和高效的任務處理(Davenport & Kirby, 2016)。但這同時也帶來諸多負面影響, 對自動化的依賴會造成員工的去技能化、管理者去中介化, 威脅員工和管理者長遠的成長發(fā)展與價值實現(xiàn), 并可能造成嚴重的失業(yè)和社會不平等問題(Raisch & Krakowski, 2021)。而增強的應用方式則意味著人與AI之間持續(xù)的緊密交互, 用人類的獨特能力(如情感、直覺)來作為AI的補充(Wilson & Daugherty, 2018)。增強的應用方式旨在增強員工的工作能力、改善組織結構、加強溝通和表達, 意味著員工通過使用AI來深化工作的深度和廣度(Hunter, 2019)。但增強模式需要人的持續(xù)參與和試驗, 受到人的情緒和其他主觀因素的影響, 技術成果無法復制, 單一的增強模式則意味著人類的偏見持續(xù)存在, 技術成果難以實現(xiàn)穩(wěn)定、可靠和持久(Amershi et al., 2014)。
3.4.2 任務目標
盡管AI可以顯著提升員工的勞動生產(chǎn)率, 但組織在引入AI的同時需要考慮適配的任務目標, 否則會適得其反?,F(xiàn)有研究根據(jù)任務中情感?社會成分和認知?分析成分的差異將任務區(qū)分為認知?分析型任務和情感?社會型任務(Glikson & Woolley, 2020; Lee, 2018; Wirtz et al., 2018)。情感社會型任務對于情緒智力、情感溝通能力、人際交往能力、組織協(xié)調能力有較高的要求, 需要消耗大量的情緒資源; 認知分析型任務對于處理復雜信息的能力、數(shù)據(jù)分析計算能力有較高的要求, 需要消耗大量的認知資源(Huang et al., 2018; Huang & Rust, 2018; Wirtz et al., 2018)。根據(jù)Glikson和Woolley (2020)總結, 相比于情感?社會型任務, 員工對于從事認知?分析型任務的AI更為信任, 類似的Lee (2018)也在研究中發(fā)現(xiàn), 相比于人工任務, 員工對于從事分析計算任務的AI更為信任。
對于情感?社會型任務, 如具有復雜情感和社會屬性的服務工作, AI只能以較高的水平模擬情緒的表面扮演, 員工的深層扮演、創(chuàng)新思維和具有社會復雜性的真實情感卻難以被AI輕易模仿和替代(Wirtz et al., 2018)。王林輝等(2022)應用機器學習模型測算了AI的職業(yè)可替代率, 發(fā)現(xiàn)非程式化且對思維能力和社交能力要求高的任務, 難以被AI所取代。例如, 在服務失敗情境下或是情緒激烈的服務工作中(醫(yī)學測試、喪葬服務、婚禮策劃), 需要一線服務員工對遭遇失望、侮辱、冒犯的客戶表示尊重、同情或其它特定情緒, AI難以滿足客戶的同理心需求(Delcourt et al., 2017; Rafaeli et al., 2017)。而AI通常被認為情感表達虛假、做作, 實際服務效果并不理想(Robinson et al., 2020)。一些具有關系動機的客戶更看重服務中的社交元素, 更希望體驗員工的情感表達, 通過非語言線索來消除服務中的模糊性、提高舒適性、建立信任(Lim et al., 2017)。但由于AI缺乏豐富的情感性線索, 尚難以滿足此類客戶的需求(Robinson et al., 2020)。因此, 在情感?社會型任務中, 不宜讓AI完全取代員工執(zhí)行任務, 應充分發(fā)揮員工在情感溝通能力、人際交往能力上的優(yōu)勢。
然而, 在認知?分析任務中采用機器主導的協(xié)作模式, 意味著耗費大量體力資源和認知資源的機械式任務和分析式任務更多地由AI完成(Huang & Rust, 2018), 員工被要求以輔助或監(jiān)督者的身份去維護AI系統(tǒng)的正常和安全運行(Wilson & Daugherty, 2018)。這種人與AI的分工協(xié)作不僅能實現(xiàn)更理性和高效的任務處理(Davenport & Kirby, 2016), 還能將人類從重復性、規(guī)則性、機械性和需要耗費大量認知資源的工作中解放, 員工擁有更多的工作自主性去從事與判斷、創(chuàng)造力、價值創(chuàng)造等相關的新工作角色。例如, 智能制造技術的廣泛應用引導工人由傳統(tǒng)的重復性生產(chǎn)裝配工作, 向工業(yè)現(xiàn)場的異常性診斷與分析工作轉型, 極大程度地提升了工人的工作意義感。反之, 在認知?分析任務中若存在人的過度參與, 在人類主觀因素的干預下, 生產(chǎn)結果不具備完全理性, 難以實現(xiàn)生產(chǎn)力的躍升(Huang et al., 2012; Raisch & Krakowski, 2021)。同時, 員工受困于重復性、機械性的任務中, 自身的創(chuàng)造力和新的價值難以被激發(fā)。
3.4.3 交互方式與任務目標的匹配
根據(jù)上述分析, AI與員工的交互方式呈現(xiàn)出“雙刃劍”效應, 而不同的任務目標也應該適配不同的交互方式。因此, 在情感?社會型任務中, 適宜采用以員工為主導的增強交互方式, 重視和發(fā)揮員工的情感溝通能力、直覺判斷能力; 在認知?分析型任務中, 適宜采用AI為主導的自動化模式, 提升效率的同時實現(xiàn)員工個性和價值的解放。例如, Jia等(2023)進行了一項工作設計, 由AI承擔程序性和重復性的銷售工作(如, 撥打電話、收集顧客基本信息), 在確定顧客具備一定的購買意向后, 由人工客服去承擔更為深入的溝通交流工作, 落實顧客的購買行為。實地實驗發(fā)現(xiàn), 這樣的工作設計能顯著提升人工客服的創(chuàng)造力。類似的, Jarrahi (2018)分析了決策過程中的任務構型, 鑒于人在感性、直覺上的優(yōu)勢以及AI在分析能力上的優(yōu)勢, 當面對高度復雜的問題時, 人類決定數(shù)據(jù)收集和處理的方向, AI進行高速、大量的數(shù)據(jù)處理; 面對具有不確定性的問題時, 缺乏足夠的信息輔助進行決策, 此時就需要發(fā)揮人的直覺優(yōu)勢; 處理模糊性較強的問題時, 人類負責協(xié)商、平衡多方利益, AI輔以多樣化的信息解讀處理(Jarrahi, 2018)。
此外, 隨著AI代替人完成單一技能要求的任務, 社會對個體職業(yè)技能寬度和綜合能力提出了更高的要求(王林輝等, 2022)。越來越多的員工被要求完成更為復雜的任務, 任務的性質既包括情感?社會型成分也包括認知?分析型成分。此時, 最佳的任務構型應是構建自動化模式與增強模式的良性循環(huán), 形成人類智能與機器智能相互補充、相互推動的共生關系(Raisch & Krakowski, 2021)。例如, IBM研發(fā)的AI調香助手將香料配方與銷售地區(qū)、顧客的大數(shù)據(jù)相匹配, 生成符合目標顧客喜好的香水, 調香師在AI生成香水配方的基礎上, 創(chuàng)造能觸發(fā)人類的情感和記憶的產(chǎn)品故事。AI與員工相互補充、相互推動的共生關系, 不僅可以最大化企業(yè)的競爭優(yōu)勢(Makarius et al., 2020), 也會讓員工有更強的勝任感和工作旺盛感(朱曉妹等, 2021)。綜上所述, 優(yōu)化AI?員工的協(xié)作需要注意交互方式與任務目標的匹配, 但隨著工作的豐富與深化, 應構建任務目標與交互方式動態(tài)匹配的協(xié)作構型, AI與員工之間形成相互補充、相互推動的共生關系。
系統(tǒng)化視角下, AI?員工協(xié)作的系統(tǒng)會對各方行動主體造成廣泛的影響(Anthony et al., 2023), 而系統(tǒng)中各行動主體間的相互影響和塑造關系也是AI與員工協(xié)作研究關注的焦點(謝小云等, 2021)。據(jù)此, 在AI?員工協(xié)作系統(tǒng)的輸出項, 本文基于上文的分析, 歸納了員工、AI和組織三個行動主體受到的影響和做出的變化, 并進一步將AI?員工協(xié)作系統(tǒng)的輸入項、過程項和輸出項整合, 構建了AI?員工協(xié)作的系統(tǒng)性研究框架, 如圖1所示。
通過對現(xiàn)有文獻的回顧, 本文清晰界定了工作場所AI和AI?員工協(xié)作的概念內(nèi)涵, 這有助于推動學術對話的統(tǒng)一, 為開展AI?員工協(xié)作的后續(xù)研究奠定基礎。隨后, 本文基于Anthony等(2023)提出了AI?員工協(xié)作的系統(tǒng)化視角, 采用I-P-O范式構建了AI?員工協(xié)作的研究框架。Anthony等(2023)聚焦于對抽象理論的辨析和討論, 本文的研究框架則實現(xiàn)了對系統(tǒng)化視角的具象化, 對系統(tǒng)的構成要素和內(nèi)在機制進行了顯性描述。還通過對實證研究的整理和歸納, 為系統(tǒng)化視角提供了更多經(jīng)驗支持??傮w而言, 本文豐富了AI?員工協(xié)作系統(tǒng)化視角的文獻, 是對系統(tǒng)化視角的一次重要應用。同時, 本文也有助于深化對AI?員工協(xié)作的認識, 為后續(xù)開展更為深入的研究提供基本的理論框架指導。盡管如此, 無論是工作場所的AI研究, 還是AI?員工協(xié)作的系統(tǒng)化視角都處于萌芽階段?;诒疚奶岢龅难芯靠蚣芎同F(xiàn)有研究的不足, 總結了以下未來研究方向。
盡管諸多研究強調了澄清和解決倫理問題在AI?員工協(xié)作中的重要意義, 但現(xiàn)有研究更多進行了理論探討, 相關命題缺乏足夠的經(jīng)驗證據(jù), 未來研究應注重實驗研究設計, 以克服AI研究中樣本獲取渠道受限、AI應用方式差異化較大等難題。此外生成式AI (例如: ChatGPT、NovelAI)的發(fā)展激發(fā)了更多關于AI倫理問題的討論, AI算法中存在的偏見、歧視, 以及虛假和誤導性信息, 生成內(nèi)容的合法性、版權等問題尚未得到組織管理研究的足夠重視(Paul et al., 2023)。未來研究應探索不斷涌現(xiàn)的倫理問題對員工和組織的潛在消極影響, 例如:由于AIGC的內(nèi)容來源于對已有知識的深度模仿和偽造, 當員工長期依賴于AIGC的輔助時, 可能會削弱他們的道德判斷, 進而導致工作場所非倫理行為的產(chǎn)生, 威脅組織的安全氛圍, 造成內(nèi)部的信任危機; 系統(tǒng)化視角下, AI算法中存在的歧視、偏見問題會逆向塑造員工的認知(Anthony et al., 2023), 導致員工的認知偏差和非理性行為, 可能會對員工和組織的工作績效、社會責任、組織合法性造成消極影響。
關于AI?員工協(xié)作中組織后果的實證研究較為匱乏, 未來研究應加強對組織后果的研究。例如, 戰(zhàn)略核心理論認為擔任核心角色的成員占據(jù)工作流程的中心位置, 對群體社會交換過程有最強的影響力, 個體的態(tài)度、行為會對整個組織造成影響(Grijalva et al., 2020)。因此, 個體的AI使用行為可能會自下而上塑造組織AI文化和氛圍, 未來研究可以揭示組織的AI文化和氛圍是如何被領導、員工影響和塑造的。此外, 組織引入AI的根本目的是提升績效并獲得競爭性優(yōu)勢, 如何將AI驅動的績效與廣義的績效指標區(qū)分, 客觀地衡量AI?員工協(xié)作帶來的績效表現(xiàn)提升, 是未來開展組織后果研究的重點。例如, 社會技術資本(sociotechnical capital)是指將社會資本與數(shù)字技術結合所帶來的生產(chǎn)力, 它可以通過各種方式不斷積累, 是有價值的、難以模仿的、組織所特有的, 可以用來構建可持續(xù)的競爭優(yōu)勢(Makarius et al., 2020), 因而社會技術資本可能是探索AI?員工協(xié)作效能在組織層面具體表現(xiàn)的指標之一。
對于員工而言, 協(xié)作系統(tǒng)中的個體特征是自身相對容易改變或控制的因素, 拓展個體特征因素有助于員工主動適應協(xié)作系統(tǒng)。首先, AI的機器學習過程需要人工對數(shù)據(jù)進行標注, 對訓練過程進行引導, 不僅能更順利地產(chǎn)出結果, 還有助于AI的功能實現(xiàn)、性能改進(Raisch & Krakowski, 2021)。因此, 實際應用中, 員工在AI?員工協(xié)作系統(tǒng)中的地位或許更重。例如, 包括AIGC只能基于人類已知的知識庫和明確的問題描述生成答案, 能否提出有想象力和有價值的問題已經(jīng)成為AI時代的一項重要技能, 對于釋放AI的潛能至關重要。高度職業(yè)化的提示詞工程師(prompt engineer), 更是成為近年來招聘圈的熱門。因此, 未來研究可以進一步發(fā)掘與AI?員工交互相關個體特征因素, 例如與AI對話能力, 開發(fā)相關變量的量表并進行實證檢驗其對AI?員工協(xié)作的影響。其次, 技術全球化面臨著高度的地域差異, 相同的AI系統(tǒng)在不同文化背景下的設計模式和應用效果卻截然不同(Chi et al., 2023)。然而, 現(xiàn)有研究卻忽視了文化價值觀在AI?員工協(xié)作中的作用, 不利于研究結論的應用和普及。因此, 未來研究應關注跨文化情境下的AI?員工協(xié)作研究。
圖1 AI?員工協(xié)作的系統(tǒng)性研究框架
系統(tǒng)化視角下AI?員工協(xié)作強調了情境化特征, 只有結合任務環(huán)境的協(xié)作設計才能最大化AI的效能(Anthony et al., 2023)。然而, 關于任務構型的研究多局限于理論層面的討論, 僅有少數(shù)研究提供了經(jīng)驗證據(jù)(Jia et al., 2013; Lee et al., 2018), 本文呼吁未來研究采用情境實驗或現(xiàn)場實驗的方法檢驗任務構型的影響。此外, 本文重點分析了認知?分析型任務、情感?社會型任務, 以及自動化、增強兩種交互方式, 未來研究應對AI?員工協(xié)作的任務構型進行更為細致的刻畫。例如, 任務目標方面, 可以將任務目標進一步細分為機械任務、分析任務、直覺任務和共情任務(Huang & Rust, 2018); 交互方式方面, 還可以基于空間和流程的視角, 發(fā)展出獨立、順序、同步、支持等四種人機交互方式(El Zaatari et al., 2019), 該視角的研究設計也具有更強的可操作性(Jia et al., 2023)。
本文采用I-P-O范式構建了AI?員工協(xié)作的研究框架, 實現(xiàn)對系統(tǒng)化理論視角的具象化。推動AI?員工協(xié)作系統(tǒng)化理論的發(fā)展, 還需要對研究框架進行補充與完善。Marks等(2001)將過程項的維度進一步拓展, 除了包括本研究關注的明確目標和相互協(xié)調外, 還包括任務分析、制定策略、監(jiān)控、沖突管理等內(nèi)容; Ilgen等(2005)則將I-P-O范式進一步拓展成I-M-O-I, 提出了輸出結果逆向影響輸入和過程的反饋回路。未來研究可以在研究框架的基礎上進一步拓展過程項、增加反饋回路, 深入揭示AI?員工協(xié)作系統(tǒng)的內(nèi)在機制。例如, 對于過程項, 未來研究可以關注AI相關的監(jiān)管手段、監(jiān)管政策, AI?員工協(xié)作失敗的容錯機制, AI?員工“排異”的協(xié)調機制在協(xié)作系統(tǒng)中的作用; 對于反饋回路, 盡管高度擬人化的AI可以提高個體對AI的情感認同, 但當它們表現(xiàn)出消極敵意的行為時, 高度的情感認同反而會放大用戶的負面體驗(Sullivan & Wamba, 2022; Yam et al., 2022), 最終影響員工對于AI的態(tài)度, 即可能存在AI (輸入)?員工感知(輸出)?員工態(tài)度(輸入)的反饋回路。最后, Anthony等(2023)指出AI?員工協(xié)作系統(tǒng)的行動主體還包括更廣泛的利益相關者, 如政府、監(jiān)管機構、生產(chǎn)與開發(fā)商、設計師、工程師等, 他們制定的政策以及行為偏好會對系統(tǒng)造成深刻的影響(Parker & Grote, 2022)。遺憾的是, 關于這部分的實證研究還較為匱乏, 我們呼吁未來研究能彌補這一領域的不足。
龔群. (2023). 論弱人工智能體的道德性考察.(3), 37?45.
李燕萍, 陶娜娜. (2022). 員工人工智能技術采納多層動態(tài)影響模型: 一個文獻綜述.(1), 35?56.
呂興洋, 楊玉帆, 許雙玉, 劉小燕. (2021). 以情補智: 人工智能共情回復的補救效果研究.(8), 86?100.
裴嘉良, 劉善仕, 鐘楚燕, 諶一璠. (2021). AI算法決策能提高員工的程序公平感知嗎?(11), 41?55.
王才, 周文斌, 趙素芳. (2019). 機器人規(guī)模應用與工作不安全感——基于員工職業(yè)能力調節(jié)的研究.(4), 111?126.
王林輝, 胡晟明, 董直慶. (2022). 人工智能技術、任務屬性與職業(yè)可替代風險: 來自微觀層面的經(jīng)驗證據(jù)., (7), 60?78.
王振源, 姚明輝. (2022). 工作場所人機協(xié)作對員工影響的研究述評.(9), 86?102.
謝小云, 左玉涵, 胡瓊晶. (2021). 數(shù)字化時代的人力資源管理: 基于人與技術交互的視角., (1), 200?216.
張儀, 王永貴. (2022). 服務機器人擬人化對消費者使用意愿的影響機理研究——社會階層的調節(jié)作用.(3), 3?18.
趙宜萱, 趙曙明, 欒佳銳. (2020). 基于人工智能的人力資源管理: 理論模型與研究展望., 36? 43.
朱曉妹, 王森, 何勤. (2021). 人工智能嵌入視域下崗位技能要求對員工工作旺盛感的影響研究.(11), 15?25.
Alabed, A., Javornik, A., & Gregory-Smith, D. (2022). AI anthropomorphism and its effect on users’ self-congruence and self-AI integration: A theoretical framework and research agenda., 121786.
Amershi, S., Cakmak, M., Knox, W. B., & Kulesza, T. (2014). Power to the people: The role of humans in interactive machine learning.(4), 105?120.
Anthony, C., Bechky, B. A., & Fayard, A. L. (2023). “Collaborating” with AI: Taking a system view to explore the future of work., Advance online publication. https://doi.org/10.1287/orsc.2022.1651
Basu, S., Majumdar, B., Mukherjee, K., Munjal, S., & Palaksha, C. (2023). Artificial intelligence-HRM interactions and outcomes: A systematic review and causal configurational explanation.,(1), Article 100893.
Bechky, B. A. (2003). Sharing meaning across occupational communities: The transformation of understanding on a production floor.(3), 312?330.
Belanche, D., Casaló, L. V., Flavián, C., & Schepers, J. (2021). Examining the effects of robots’ physical appearance, warmth, and competence in frontline services: The humanness-value-loyalty model.(12), 1024?1052.
Borau, S., Otterbring, T., Laporte, S., & Wamba, S. F. (2021). The most human bot: Female gendering increases humanness perceptions of bots and acceptance of AI.(7), 1052?1068.
Brougham, D., & Haar, J. (2018). Smart technology, artificialintelligence, robotics, and algorithms (STARA): Employees’ perceptions of our future workplace.(2), 239?257.
Canhoto, A. I., & Clear, F. (2020). Artificial intelligence and machine learning as business tools: A framework for diagnosing value destruction potential.(2), 183?193.
Charlwood, A., & Guenole, N. (2022). Can HR adapt to the paradoxes of artificial intelligence?(4), 729?742.
Chi, O. H., Chi, C. G., Gursoy, D., & Nunkoo, R. (2023). Customers’ acceptance of artificially intelligent service robots: The influence of trust and culture., Article 102623.
Chuah, H. W., & Yu, J. (2021). The future of service: The power of emotion in human-robot interaction.(3), Article 102551.
Davenport, T. H., & Kirby, J. (2016).. New York: Harper Business.
Delcourt, C., Gremler, D. D., de Zanet, F., & van Riel, A. C. (2017). An analysis of the interaction effect between employee technical and emotional competencies in emotionally charged service encounters.(1), 85?106.
Desai, M., Kaniarasu, P., Medvedev, M., Steinfeld, A., & Yanco, H. (2013, March).. 8th ACM/IEEE International Conference on Human-Robot Interaction, Tokyo, Japan.
Desideri, L., Ottaviani, C., Malavasi, M., di Marzio, R., & Bonifacci, P. (2019). Emotional processes in human-robot interaction during brief cognitive testing., 331?342.
Ding, L. (2021). Employees’ challenge-hindrance appraisals toward STARA awareness and competitive productivity: A micro-level case.(9), 2950?2969.
Dutta, D., Mishra, S. K., & Tyagi, D. (2022). Augmented employee voice and employee engagement using artificial intelligence-enabled chatbots: A field study.,(12), 2451? 2480.
El Zaatari, S., Marei, M., Li, W., & Usman, Z. (2019). Cobot programming for collaborative industrial tasks: An overview., 162?180.
Esterwood, C., & Robert, L. P. (2023). Three Strikes and you are out!: The impacts of multiple human-robot trust violations and repairs on robot trustworthiness., Article 107658.
Ferràs-Hernández, X. (2018). The future of management in a world of electronic brains.(2), 260?263.
Filieri, R., Lin, Z. B., Lu, X. Q., & Yang, X. W. (2022). Customer emotions in service robot encounters: A hybrid machine-human intelligence approach.,(4), 614?629.
Fountaine, T., McCarthy, B., & Saleh, T. (2019). Building the AI-powered organization., (7-8), 62?73.
Gelbrich, K., Hagel, J., & Orsingher, C. (2021). Emotional support from a digital assistant in technology-mediated services: Effects on customer satisfaction and behavioral persistence.(1), 176?193.
Giroux, M., Kim, J., Lee, J. C., & Park, J. (2022). Artificial intelligence and declined guilt: Retailing morality comparison between human and AI.(4), 1027?1041.
Glikson, E., & Woolley, A. W. (2020). Human trust in artificial intelligence: Review of empirical research.(2), 627?660.
Gray, H. M., Gray, K., & Wegner, D. M. (2007). Dimensions of mind perception.(5812), 619.
Groth, M., Wu, Y., Nguyen, H., & Johnson, A. (2019). The moment of truth: A review, synthesis, and research agenda for the customer service experience., 89?113.
Grijalva, E., Maynes, T. D., Badura, K. L., & Whiting, S. W. (2020). Examining the “I” in team: A longitudinal investigation of the influence of team narcissism composition on team outcomes in the NBA.(1), 7?33.
Guha, A., Bressgott, T., Grewal, D., Mahr, D., Wetzels, M., & Schweiger, E. (2023). How artificiality and intelligence affect voice assistant evaluations., 843?886.
Gursoy, D., Chi, O. H., Lu, L., & Nunkoo, R. (2019). Consumers acceptance of artificially intelligent (AI) device use in service delivery., 157?169.
Han, E., Yin, D., & Zhang, H. (2022). Bots with feelings: Should AI agents express positive emotion in customer service?., Advance online publication. https://doi.org/10.1287/isre.2022.1179
Holth?wer, J., & van Doorn, J. (2023). Robots do not judge: Service robots can alleviate embarrassment in service encounters.,, 767?784.
Hossain, M. A., Standing, C., & Chan, C. (2017). The development and validation of a two-staged adoption model of RFID technology in livestock businesses.(4), 785?808.
Huang, H. H., Hsu, J. S. C., & Ku, C. Y. (2012). Understanding the role of computer-mediated counter-argument in countering confirmation bias.(3), 438?447.
Huang, M., & Rust, R. T. (2018). Artificial intelligence in service.(2), 155?172.
Huang, M. H., Rust, R., & Maksimovic, V. (2019). The feeling economy: Managing in the next generation of artificial intelligence (AI).(4), 43?65.
Hunter, G. K. (2019). On conceptualizing, measuring, and managing augmented technology use in business-to- business sales contexts., 201?213.
IFR. (2022).. https://ifr.org/
Ilgen, D. R., Hollenbeck, J. R., Johnson, M., & Jundt, D. (2005). Teams in organizations: From input-process-output models to IMOI models., 517?543.
Jackson, J. C., Castelo, N., & Gray, K. (2020). Could a rising robot workforce make humans less prejudiced?(7), 969?982.
Jaiswal, A., Arun, C. J., & Varm, A. (2021). Rebooting employees: Upskilling for artificial intelligence in multinational corporations.,(6), 1179?1208.
Jarrahi, M. H. (2018). Artificial intelligence and the future of work: Human-AI symbiosis in organizational decision making.(4), 577?586.
Jia, N., Luo, X. M., Fang, Z., & Liao, C. C. (2023). When and how artificial intelligence augments employee creativity., Advance online publication. https://doi.org/10.5465/amj.2022.0426
Johnson, A., Dey, S., Nguyen, H., Groth, M., Joyce, S., Tan, L., … Harvey, S. B. (2020). A review and agenda for examining how technology-driven changes at work will impact workplace mental health and employee well-being.(3), 402?424.
Kim, H., So, K. K. F., & Wirtz, J. (2022). Service robots: Applying social exchange theory to better understand human-robot interactions., 104537.
Kim, S. (2022). Working with robots: Human resource development considerations in human-robot interaction.(1), 48?74.
Kong, H. Y., Yuan, Y., Baruch, Y., Bu, N., Jiang, X., & Wang, K. (2021). Influences of artificial intelligence (AI) awareness on career competency and job burnout.(2), 717?734.
Lanz, L., Briker, R., & Gerpott, F. H. (2023). Employees adhere more to unethical instructions from human than ai supervisors: Complementing experimental evidence with machine learning., Advance online publication. https://doi.org/10.1007/s10551-023- 05393-1
Lee, C. T., Pan, L.Y., & Hsieh, S. H. (2022). Artificial intelligent chatbots as brand promoters: A two-stage structural equation modeling artificial neural network approach.(4), 1329?1356.
Lee, M. K. (2018). Understanding perception of algorithmic decisions: Fairness, trust, and emotion in response to algorithmic management.(1), 1?16.
Li, J., Bonn, M. A., & Ye, B. H. (2019). Hotel employee’s artificial intelligence and robotics awareness and its impact on turnover intention: The moderating roles of perceived organizational support and competitive psychological climate., 172?181.
Liang, X., Guo, G., Shu, L., Gong, Q., & Luo, P. (2022). Investigating the double-edged sword effect of AI awareness on employee’s service innovative behavior., Article 104564.
Lim, E. A. C., Lee, Y. H., & Foo, M. D. (2017). Frontline employees’ nonverbal cues in service encounters: A double-edged sword.(5), 657?676.
Lingmont, D. N. J., & Alexiou, A. (2020). The contingent effect of job automating technology awareness on perceived job insecurity: Exploring the moderating role of organizational culture., Article 120302.
Lv, X. Y., Yang, Y. F., Qin, D. Z., Cao, X. P., & Xu, H. (2022). Artificial intelligence service recovery: The role of empathic response in hospitality customers’ continuous usage intention., Article 106993.
Makarius, E. E., Mukherjee, D., Fox, J. D., & Fox, A. K. (2020). Rising with the machines: A sociotechnical framework for bringing artificial intelligence into the organization., 262?273.
Malik, A., Budhwar, P., Patel, C., & Srikanth, N. R. (2020). May the bots be with you! Delivering HR cost-effectiveness and individualised employee experiences in an MNE.(6), 1148?1178.
Marks, M. A., Mathieu, J. E., & Zaccaro, S. J. (2001). A temporally based framework and taxonomy of team processes.(3), 356?376.
Mori, M. (2012). The uncanny valley (Translated by Karl MacDorman and Norri Kageki).(2), 98?100.
Moussawi, S., Koufaris, M., & Benbunan-Fich, R. (2020). How perceptions of intelligence and anthropomorphism affect adoption of personal intelligent agents.(2), 343?364.
Nelson, A. J., & Irwin, J. (2014). “Defining what we do-all over again”: Occupational identity, technological change, and the librarian/Internet-search relationship.(3), 892?928.
Nilsson, N. J. (1971).. New York: McGraw-Hill.
Oksanen, A., Savela, N., Latikka, R., & Koivula, A. (2020). Trust toward robots and artificial intelligence: An experimental approach to human-technology interactions Online., Article 568256.
Pantano, E., & Scarpi, D. (2022). I, robot, you, consumer: Measuring artificial intelligence types and their effect on consumers emotions in service.(4), 583?600.
Parker, S. K., & Grote, G. (2022). Automation, algorithms, and beyond: Why work design matters more than ever in a digital world.(4), 1171?1204.
Paul, J., Ueno, A., & Dennis, C. (2023). ChatGPT and consumers: Benefits, pitfalls and future research agenda.,(4), 1213?1225.
Pillai, R., & Sivathanu, B. (2020). Adoption of artificial intelligence (AI) for talent acquisition in IT/ITeS organizations.(9), 2599?2629.
Pitardi, V., Wirtz, J., Paluch, S., & Kunz, W. H. (2022). Service robots, agency and embarrassing service encounters.(2), 389?414.
Prikshat, V., Malik, A., & Budhwar, P. (2021). AI-augmented HRM: Antecedents, assimilation and multilevel consequences.,(1), Article 100860.
Rafaeli, A., Altman, D., Gremler, D. D., Huang, M. H., Grewal, D., Iyer, B., … de Ruyter, K. (2017). The future of frontline research: Invited commentaries.(1), 91?99.
Raisch, S., & Krakowski, S. (2021). Artificial intelligence and management: The automation-augmentation paradox.(1), 192?210.
Robinette, P., Howard, A. M., & Wagner, A. R. (2017). Effect of robot performance on human-robot trust in time- critical situations.(4), 425?436.
Robinson, S., Orsingher, C., Alkire, L., de Keyser, A., Giebelhausen, M., Papamichail, K. N., … Temerak, M. S. (2020). Frontline encounters of the AI kind: An evolved service encounter framework., 366?376.
Savela, N., Kaakinen, M., Ellonen, N., & Oksanen, A. (2021). Sharing a work team with robots: The negative effect of robot co-workers on in-group identification with the work team., Article 106585.
Seeber, I., Bittner, E., Briggs, R. O., de Vreede, T., de Vreede, G., Elkins, A., … S?llner, M. (2020). Machines as teammates: A research agenda on AI in team collaboration.(2), Article 103174.
Song, X., Xu, B., & Zhao, Z. Z. (2022). Can people experience romantic love for artificial intelligence? An empirical study of intelligent assistants., Article 103595.
Suseno, Y., Chang, C. C., Hudik, M., & Fang, E. S. (2021). Beliefs, anxiety and change readiness for artificial intelligenceadoption among human resource managers: The moderating role of high-performance work systems.,(6), 1209?1236.
Spatola, N., & Normand, A. (2020). Human vs. machine: The psychological and behavioral consequences of being compared to an outperforming artificial agent.(3), 915?925.
Stein, J. P., Appel, M., Jost, A., & Ohler, P. (2020). Matter over mind? How the acceptance of digital entities depends on their appearance, mental prowess, and the interaction between both., Article 102463.
Sullivan, Y. W., & Wamba, S. F. (2022). Moral judgments in the age of artificial intelligence.(4), 917?943.
Sundararajan, M., & Najmi, A. (2020, July).. ICML’20: Proceedings of the 37th International Conference on Machine Learning, Vienna, Austria.
Tang, P. M., Koopman, J., McClean, S. T., Zhang, J. H., Li, C. H., de Cremer, D., … Ng, C. T. S. (2022). When conscientious employees meet intelligent machines: An integrative approach inspired by complementarity theory and role theory.(3), 1019?1054.
Tang, P. M., Koopman, J., Yam, K. C., de Cremer, D., Zhang, J. H., & Reynders, P. (2022). The self-regulatory consequences of dependence on intelligent machines at work: Evidence from field and experimental studies., Advance online publication. https://doi.org/10.1002/hrm.22154
Tong, S., Jia, N., Luo, X., & Fang, Z. (2021). The Janus face of artificial intelligence feedback: Deployment versus disclosure effects on employee performance.(9), 1600?1631.
Tsai, C. Y., Marshall, J. D., Choudhury, A., Serban, A., Hou, Y. T. Y., Jung, M. F., … Yammarino, F. J. (2022). Human-robot collaboration: A multilevel and integrated leadership framework.(1), Article 101594.
van de Weerd, I., Mangula, I. S., & Brinkkemper, S. (2016). Adoption of software as a service in Indonesia: Examining the influence of organizational factors.(7), 915?928.
Venkatesh, V., Morris, M. G., Davis, G. B., & Davis, F. D. (2003). User acceptance of information technology: Toward a unified view.(3), 425?478.
Vrontis, D., Christofi, M., Pereira, V., Tarba, S., Makrides, A., & Trichina, E. (2022). Artificial intelligence, robotics, advanced technologies and human resource management: A systematic review.(6), 1237?1266.
Wang, B., Liu, Y., & Parker, S. K. (2020). How does the use of information communication technology affect individuals? A work design perspective.(2), 695?725.
Wang, J. W., Omar, A. H., Alotaibi, F. M., Daradkeh, Y. I., & Althubiti, S. A. (2022). Business intelligence ability to enhance organizational performance and performance evaluation capabilities by improving data mining systems for competitive advantage.,(6), Article 103075.
Webber, S. S., Detjen, J., MacLean, T. L., & Thomas, D. (2019). Team challenges: Is artificial intelligence the solution?(6), 741?750.
Webster, J., & Watson, R. T. (2002). Analyzing the past to prepare for the future: Writing a literature review.(2), 9?20.
Wilson, J., & Daugherty, P. (2018). Collaborative intelligence: Humans and AI are joining forces.(4), 114?124.
Wirtz, J., Patterson G. P., Kunz H. W., Gruber, T., Lu, V. N., Paluch, S., & Martins, A. (2018). Brave new world: Service robots in the frontline.(5), 907?931.
Yam, K. C., Bigman, Y. E., Tang, P. M., Ilies, R., Cremer, D. D., Soh, H., & Gray, K. (2021). Robots at work: People prefer-and forgive-service robots with perceived feelings.(10), 1557?1572.
Yam, K. C., Goh, E. Y., Fehr, R., Lee, R., Soh, H., & Gray, K. (2022). When your boss is a robot: Workers are more spiteful to robot supervisors that seem more human., Article 104360.
Yam, K. C., Tang, P. M., Jackson, J. C., Su, R., & Gray, K. (2023). The rise of robots increases job insecurity and maladaptive workplace behaviors: Multimethod evidence.(5), 850?870.
Yoon, S. N., & Lee, D. (2019). Artificial intelligence and robots in healthcare: What are the success factors for technology-based service encounters?(3), 218?225.
Dancing with AI: AI-employee collaboration in the systemic view
YIN Meng, NIU Xiongying
(Business School, University of International Business and Economics, Beijing 100029, China)
AI-employee collaboration is an interactive system composed of “AI-human-organization” with the goal of completing tasks efficiently. Promoting AI-employee collaboration is crucial for driving the deep integration of AI and the real economy, as well as the mental health and career development of employees in the digital era. AI-employee interactions are intricate and complex. Existing studies are fragmented and lack of a comprehensive understanding of AI-employee collaboration. Therefore, it is necessary to systematically sort out the relevant studies on AI-employee collaboration on the basis of clarifying relevant concepts. Through a systematic review of relevant studies, this paper clarifies the connotation of AI and AI-employee collaboration, sorts out the components of AI-employee collaboration system, analyses the influences of the components, and further constructs an integrated research framework from the perspective of systemic view. Finally, based on the research framework of AI-employee collaboration, future research directions are proposed.
artificial intelligence, AI-employee collaboration, systemic view, research framework, I-P-O
B849: C93
2023-03-28
* 對外經(jīng)濟貿(mào)易大學研究生科研創(chuàng)新項目(202221)。
尹萌, E-mail: yinmeng1231@qq.com