摘要: 随着互联网和经济环境的变化,智能机器作为一种新兴产业得到了快速发展,成为企业发展的重要推动力,组织和员工的发展也受到了很大影响。然而,智能机器时代也存在着复杂且不确定的影响模式,组织员工个体行为、群体行为以及组织行为(Organizational Behavior,OB)在智能机器背景下的研究相对滞后,人的心理和行为变化较为模糊。鉴于此,本文梳理了已有以人工智能(AI)、算法、机器人为主的智能机器背景下的组织行为研究现状,并指出未来研究可以进一步拓展的地方,以期推动组织行为领域在智能机器背景下的相关研究,并为企业中与智能机器协同工作的员工管理提供一定的实践启示。
关键词: 数智化;组织行为;文献综述;未来展望
作者简介: 李明月(1999—),河南开封人,西北大学经济管理学院2021级企业管理专业硕士研究生。
随着大数据时代的到来,IT产业得到快速发展,并推动全球的自动化和信息化,使智能机器成为发展的可能,如AI、融合机器人、算法等。在这种智能机器背景下,企业中人的生产方式和活动方式发生了改变,如技术、流程以及产业结构这些硬件设施的改变。智能机器的出现作为一种革命性、颠覆性的前沿科学技术,它的研发会给企业带来很大的不确定性,企业需要适应环境的变化,推动人与智能机器的协同发展,进而寻求自身更好的发展。如果想要让员工在智能机器背景下适应外部环境的变化,就需要研究智能机器背景下的OB,从个体行为、群体行为和OB三个方面来探究员工在智能机器背景下的变化。鉴于此,探讨智能机器背景下组织行为领域的研究进展对于推进该学科的发展以及提升组织管理效率都有着较为重要的意义。
然而,尽管智能机器这些新技术可以应用在管理层面,但组织行为学也只是刚刚开始在这一领域进行研究。正如罗文豪等(2022)指出的,“尽管AI越来越多地应用于组织实践中,但相应的学术研究却越发滞后”。虽然已有研究针对智能机器背景下的组织行为进行了相关综述,但只是针对特定的组织行为进行了梳理,如AI背景下的信任(Glikson and Woolley,2020)和公平感知(蒋路远等,2022)等,并没有从组织行为学整体视角来探索智能机器背景下对人的心理与行为产生的影响。为此,本文对组织行为学在智能机器背景下进行进一步的分析,从而推动组织行为学的相关研究。
鉴于此,本文在Google学术、EBSCO、Web of Science、中国知网(CNKI)等网站进行题目、摘要和关键词检索,对初步搜索到的文献进行筛选,剔除了与AI、机器人技术(robotics)和算法(algorithms)三种数智化工具(Brougham and Haar,2018)组织行为相关性不强的文献,最终得到近五年相关中英文实证研究54篇,涵盖了个体行为、群体行为和个体-组织匹配相关研究,用于进一步分析和梳理。首先,本文对已有的文献进行基本分析,以更好地了解这些研究关注的焦点;其次,梳理了组织行为在智能机器背景下的已有研究,并构建了一个对应的整合分析框架;最后,从人机交互协作、群体行为、领导力研究和管理伦理问题等方面对未来研究方向进行展望。
通过对近五年智能机器背景下组织行为研究进行归纳总结和评述,本文探究了组织行为学在智能情景下的最新研究,为组织行为学的研究提供了新的思路。未来研究可以在此整合框架的基础上继续丰富组织行为的研究,进一步地研究智能化变革对组织行为学的影响,从而为智能机器背景下组织行为的发展提供理论参考。本文对组织行为在智能化机器背景下的综述可以为企业管理者提供实践启示,从而提高组织管理效率。
在组织实践中,越来越多的企业将智能机器(人工智能、机器人技术和算法)融入日常运营活动,并作为团队成员一起工作,如阿里巴巴定位时尚博主“AYAYI”、创壹科技的虚拟美妆达人“柳夜熙”、字节跳动的“李未可”、万科的AI员工“崔筱盼”。那么,当员工与这些智能机器一起工作,并将其作为团队成员时(Landers and Marin,2021;Larson and Dechurch,2020),他们的行为是否会受到影响呢?如果受影响,又会发生什么样的变化呢?
接下来,本文首先剖析了智能机器背景下关注较多的个体产出,其次分析了数字化情景下影响个体行为的因素,再次揭示了影响因素对个体产出发挥效果的中介机制,最后总结了影响个体产出的调节机制。
(1)不安全感。
当员工与智能机器一起工作时,可能既会感知到不安全,也会感知到“自信心爆棚”。例如,机器人员工的增加会促进职场物化现象(objectification),即员工在工作场所将人视为物的过程和倾向,如“工具人”“打工人”等感知(许丽颖等,2022)。
当员工与自动化技术一起工作时,他们的工作不安全感(Brougham and Haar,2020)或认知型工作不安全感(个人对失业概率的评估)(Dengler and Gundert,2021)会更高,但当员工拥有更多的工作选择(Brougham and Haar,2020)或组织拥有较低的权威文化(Lingmont and Alexiou,2020)时,员工则可以更好地应对自动化技术知觉导致的负面影响。类似地,有研究发现智能机器也会让员工产生被威胁感。例如,Yogeeswaran等(2016)证实在给参与者观看一段视频后,他们认为机器人会对人类产生威胁,视频中该机器人据称可以在各种体力和脑力任务上胜过人类,而类人机器人(humanoidrobot)也可以做到这一点。然而,当参与者没有被告知机器人相对于人类能力的信息时,在接触机器人或类人机器人后,他们在感知威胁方面没有显著差异。同样地,在看到机器人相对于类人机器人的表现优于人类时,他们对机器人的支持也减少了。然而,当不提供关于机器人相对于人类能力的信息时,相比于机器人,参与者在接触类人机器人后,对机器人研究的支持程度略有下降。
Zlotowski等(2017)则发现,当参与者观看了一段机器人执行各种任务的视频后(视频中,这些机器人要么是自主的,能够无视人类的命令;要么是非自主的,只能执行人类的命令),观看自主型机器人视频的参与者普遍认为机器人对人类的威胁要大得多(包括现实和身份威胁)。此外,与接触非自主机器人相比,接触自主机器人唤起了人们对机器人总体上更强烈的负面态度和对机器人研究的更多反对,现实和身份威胁中介了对机器人的负面态度及对机器人研究的反对之间的关系,前者的中介作用更强。
为什么员工与这些智能机器一起工作时会产生工作不安全感或被威胁感呢?Mori(1970)指出,当员工与类人机器人一起工作时会产生一种“恐怖谷”(uncanny valley)的心理现象,即一种人们对类人机器人的情感反应。最初,随着与人类相似度的提高,机器人可以唤起人类更多的积极情绪;然而,当机器人有一个超越人类相似性的点,人们便认为机器人是可怕的,因此降低了他们与机器人互动倾向,也增加了其工作不安全感。例如,Yam等(2021)发现“非人性化”(dehumanizing)的类人机器人(剥夺机器人明显的感觉能力)可以显著减少“恐怖谷”效应,且当个体的去人性化特质较高时,他们的怪异感较低,因为他们感知到的情感较低。
除了主观不安全感外,智能机器的应用也会对员工的工作产生客观替代效应,且潜在替代风险高、中、低的占比分别为52.80%、25.72%和21.48%;受到AI潜在替代风险最低的职业大类是企业、事业单位负责人,最高的是生产、运输设备操作人员及有关人员。此外,质量型不安全感(如缺少升职空间)会正向影响职业能力发展,且当AI潜在替代风险越高时,质量型不安全感对职业能力发展的正向影响越小;数量型不安全感(如未来可能会丧失工作)与职业能力发展之间呈U形关系,且当AI潜在替代风险越高时,数量型不安全感对职业能力发展的U形效应越强(陈文晶等,2022)。Paolillo等(2022)通过将有关机器人能力的科学和技术文献与就业及工资统计相结合,计算在将来现有工作被机器执行的可能性,发现“物理学家”是被机器取代风险最低的工作,而“屠宰工人和肉类包装工”则面临最高的被替代风险,食品加工、建筑、维护和开采行业的工作似乎风险更高。此外,他们还设计了一种方法,为高风险职业过渡到风险较低且需要最少再培训的工作提供建议。
(2)工作胜任感。
除了不安全感外,当个体与智能机器一起工作时,可能还会感知到“自信心爆棚”。例如,朱晓妹等(2021)发现AI引发的岗位技能会通过员工的工作胜任感正向影响工作旺盛感(thriving),即个体在工作中同时体验到“活力”和“学习”的心理状态(Porath等,2012),且当人机共生关系越好,如使用AI设备的工作时长增加、对AI设备的喜爱程度提高以及将AI设备视为工作伙伴等时,AI岗位技能要求对员工工作胜任感的影响越显著,从而会激发个体更强的工作旺盛感。
(3)消极情绪/工作倦怠。
AI技术应用可能还会通过工作要求和技能要求使员工产生消极情绪(朱晓妹、任晶晶、何勤,2020),或者通过组织承诺诱发员工的工作倦怠感(Kong et al.,2021)。Dang和Liu(2021)则发现具有高(相对于低)心理能力的机器人引发了员工更多的矛盾态度,且美国参与者对机器人的矛盾态度比中国参与者更多。
(4)服从/抗拒行为。
当员工与智能机器一起工作时既会感知到不安全和不公平(Yam,Bigman et al.,2021;裴嘉良等,2021),也会感知到工作旺盛感(朱晓妹、王森、何勤,2021),那么他们是否愿意与智能机器合作呢?例如,Ågnes(2022)发现员工对机器人同事的反应绝大多数是建设性的和积极的,会将它们视为新的数字化同事,并与它们建立关系。Lebovitz等(2022)证实当医生与AI一起工作时,它们提供的结果经常偏离他们的最初判断,且没有提供潜在的推理。这种不透明性导致医生产生越来越多的不确定性,从而导致医生可能采纳AI的结果(敬业增强)或不采纳AI的结果(不参与增强)。
(5)工作绩效/合作。
当员工那些被认为是提升绩效的重要特征与智能机器相互碰撞时,又会对员工行为产生什么影响?Tang等(2020)研究发现,智能机器使用会通过影响角色宽度自我效能感来影响员工工作绩效;Allen和Choudhury(2022)则证实,算法增强的绩效将首先随着员工领域经验的增加而上升,然后下降,即只有具有中等领域经验的员工使用算法比手动解决票据表现得更好。此外,尽管经验丰富的员工有最大的能力补充算法工具,但他们拒绝了算法建议,因为他们觉得接受算法建议可能会产生意想不到的后果并负有更大的责任。
Tong等(2021)研究发现,反馈主体的不同会对工作绩效产生不同影响。一方面,通过AI反馈质量的中介作用正向影响员工工作绩效(12.9%),因为强大的AI数据分析可以提高反馈的质量,提高员工生产力(部署效应)(deployment);另一方面,通过员工较低的信任和较高工作替代风险感知的中介作用负向影响工作绩效(5.4%),因为员工对AI反馈缺乏信任,担心被其取代,从而损害他们的生产力(披露效应)(disclosure)。
(6)离职意愿/敬业度。
有研究指出,企业AI的使用也会增加员工的离职意愿。例如,Verma和Singh(2022)发现,AI支持的任务特征(工作自主性和技能多样性)和知识特征(工作复杂性、专业化和信息加工)会正向影响员工的创新行为,且当感知替代危机越高时,上述关系越显著。此外,员工的智能机器意识(如我认为我的工作有向自动化屈服的高风险,将被AI取代)(Li,Bonn and Ye,2019;Brougham and Haar,2018)、对AI操作和认知能力的感知(Chiu,Zhu and Corbett,2021)、AI带来的工作不安全感(Koo,Curtis and Ryan,2021)均与员工离职倾向显著相关,且这些关系分别会以对AI的情感和认知态度(Chiu et al.,2021)、工作投入(Koo,Curtis and Ryan,2021)为中介来传递,而当员工有较高的组织支持和较低的竞争心理氛围感知时,员工的智能机器意识对其离职意愿的影响较弱(Li,Bonn and Ye,2019)。Prentice等(2020)则发现,AI会正向调节情绪智力与员工绩效和留任之间的关系,即当人机进行合作时,员工的绩效和留任率最高。
(7)组织支持/公平感。
在面对算法进行决策时,员工既会因其更加客观性提升他们的感知公平感(Schlicker et al.,2021),也会因其更加非人性化而降低他们的公平感(Lee,2018;Newman,Fast and Harmon,2020),所以算法决策对员工公平感的影响结论并不一致(蒋路远等,2022)。例如,Höddinghaus等(2021)发现,被试认为自动化领导者在诚信和透明度方面比人类领导者更高,而人类领导者则被认为更有适应能力和更仁慈,且被试对人类领导者感知到的可信度会促进其对他们的信任。
(8)对AI的信任/态度。
Glikson和Woolley(2020)基于文献回顾确定了AI表征(机器人、虚拟、嵌入式)和AI的机器智能水平(其能力)是信任的重要前提。对于机器人AI,信任轨迹类似人际关系中的信任发展——它从低水平开始,随着直接的实践体验而增加。然而,对于虚拟和嵌入式AI,高初始信任度由于经验而下降,即机器智能的水平可以缓和信任的发展,高水平的机器智能会由于经验而导致更低的信任。对于机器人AI来说,高水平的机器智能通常会导致高水平信任的快速发展,这可以是弹性的,即使是在低可靠性的情况下。对于虚拟和嵌入式AI,高机器智能提供了维持最初的高水平信任(通过满足高期望)或最大限度地减少信任的可能性。
(9)职业角色身份。
Strich等(2021)以银行为案例,比较了在使用AI系统前后,对员工工作、职业角色身份的影响。结果显示,尽管员工无法直接与AI系统互动,但员工可以通过责任转移、保证、咨询的说明机制来加强保护自己的职业角色身份。
(1)影响个体产出的因素。
①非人性化/AI拟人化。
Yam等(2021)发现,“非人性化”的类人机器人(剥夺机器人明显的感觉能力)可以显著减少“恐怖谷”现象(即一种人们对类人机器人的情感反应。最初机器与人类相似时,人类会产生积极情绪,但是当机器人有超越人类的相似点时,人类则会产生不安全感,并减少与类机器人的互动),个体对机器感知情感能力降低,怪异感就会降低。
Li等(2019)研究发现,AI拟人化倾向(anthropomorphism,一种普遍的思维方式,是指将人类特征、情感和意图归因于非人类实体的倾向)的参与者对AI助手有积极作用。由于机器人被认为比人类更缺乏头脑(Grayetal,2007),拟人化机器人和AI使它们看起来更像人的思维,人与拟人化机器人互动会更多,会对人类产生积极影响。Glikson和Woolley(2020)指出,智能机器的拟人化特征(anthropomorphism)会让员工产生较高的情感信任。例如,Hu和Lu(2020)发现,一旦AI的语言理解能力被认为很差,将AI的声音人性化处理会降低个体对其能力相关的信任。
②AI反馈。
越来越多的公司使用AI来向员工提供绩效反馈,通过跟踪员工在工作中的行为来进行自动化绩效评估,并提出工作改进建议。然而,AI的这种应用却引发了很多争论。一方面,强大的AI数据分析提高了反馈的质量,这可能会提高员工的生产力(部署效应)。另一方面,一旦AI反馈被披露,员工可能会对其产生负面看法,从而损害他们的生产力(披露效应)(Tong et al.,2021)。该研究证明了AI能显著提高信息收集的准确性,AI的这些优势有助于提升员工的工作表现,从而为公司创造价值;同时,由于员工对AI部署的负面看法,会导致员工披露使用AI的负面信息。因此,为了减轻对价值造成破坏的披露效应,建议公司更积极主动地与员工就AI应用的目标、利益和范围进行沟通,以减轻他们的担忧。
③决策主体(算法决策/人工决策)。
魏昕等(2021)研究发现,算法决策会通过影响员工的公平感进而影响员工的组织偏差行为和社会偏差行为,同时,算法决策与人工决策也存在一些差异,人工决策在处理一些不可以被算法量化的质化信息或者主观判断能力时具有优势,可以对员工公平感产生积极作用。同时,由于人工决策具有主观性和一定偏差,不可避免地会让员工感受到不公平感,相比之下,员工可能会更信任算法决策。Schlicker等(2021)发现,人工决策会加强人类对信息公正的感知能力,如果决策不能被解释,人类就会质疑人工决策的公平性,在程序公正方面,自动化代理被认为更客观,而人类代理则仅被认为在决策中会提供更多的发言权。Bankins等(2022)发现,当AI进行积极决策而非消极决策时,人类的信任和互动公平感会增加。裴嘉良等(2021)证实,领导(人工)决策比算法决策会使员工感知到更高的信息透明度,产生更高的程序公平感。Lee(2018)发现在不同任务环境下,算法决策和人工决策引起的情绪不同,在机器技能任务环境下,个体对算法决策和人工决策感知到的公平感与信任感相同;但相同感知的原因是不同的,人工决策更加侧重管理权威,而算法决策更加注重效率和客观性。
④自动化技术知觉。
Lingmont和Alexiou(2020)实证分析了STARA意识(工作自动化技术意识:智能技术、AI机器人和算法)对预期面临高度自动化的行业员工的工作不安全感的偶然效应。该研究结果表明,工作自动化技术意识与感知到的工作不安全感之间存在正相关关系,此外,当组织拥有较低的权威文化,工作自动化技术意识与感知到的工作不安全感之间的关系就会减弱。Brougham和Haar(2020)研究指出,员工的工作自动化技术意识会影响他们对工作不安全感的看法,即如果员工认为他们的工作可能受到技术的威胁,他们可能会离开其工作/组织。同时,工作流动性(寻找新工作的能力)也会对离职意愿产生影响,一般拥有更多工作选择的人可能会更有针对性地做出反应,以应对激进技术变革带来的工作威胁。
⑤AI引发的岗位技能要求。
朱晓妹等(2021)认为在AI场景下,对岗位技能要求更高时,复杂、繁重的工作就会被AI代替,员工可以获得更高水平的工作技能,进而提高员工工作的积极性。研究结果显示,AI引发的岗位技能要求可以提升员工的胜任感,并且当智能机器与员工高度配合工作时,员工本身的技能要求会改变员工的心理状态,体会到更强的胜任感,工作积极性也会提高。
(2)影响人机合作的因素。
①员工特征。
Logg等(2019)发现,当员工认为建议来自算法而不是人的时候,他们会更坚持接受算法建议,即算法欣赏(algorithm appreciation)。然而,当人们在算法的估计和他们自己的估计之间进行选择时,他们的算法欣赏能力会下降,且与那些非专业人士相比,定期进行预测的人会更少地依赖算法建议,因为其损害了他们的准确性判断。
②智能机器特征。
Ghazali等(2018)检验了计算机(屏幕)、具有最少社会线索的社会机器人(带有语音输出和眨眼的类人脸)和具有增强社会线索的社会机器人(带有头部运动的类人脸、面部表情、语音输出的情感语调)分别表达说服能力时个体的抗拒和依从反应,并发现当社交机器人呈现越多的社交线索时,个体抗拒行为等级越高。然而,有研究却发现,当机器人的非语言行为(触摸和微笑)越高时,个体的心理距离越低,依从性和合作意愿越高。Parvez等(2022)发现,机器人的有用性和易用性会提升员工使用它们的行为意向,机器人的优点和缺点会激发员工对机器人的意识,从而促进人机协作。Ciardo等(2022)证实当个体与机器人互动时,与机械故障相比(重复循环来回点击),当错误与人类类似时(记忆错误),参与者绩效变动不大;反之,当个体与算法互动时,结果正好相反。此外,只有当伴侣是机器人时,参与者对它们的社会包容才会受到与人相似特征的影响。
③智能机器的解释水平。
Kim和Duhachek(2020)发现,当来自AI的说服性信息具有低解释水平(具体的、表面的)而不是高解释水平(抽象的、本质的)的特征时,人们会感觉到更合适、匹配,说服力更强。改变AI的感知特征会减弱甚至逆转人们对其低解释水平的感知,即当AI具有学习能力时,其可以通过经验进行学习,从而削弱人们对AI解释水平的感知,进而导致低解释水平信息描述的说服效果减弱,高解释水平信息描述的说服效果提升。
④人机伙伴关系。
De Cremer和Mcguire(2022)发现当自主算法主导决策时,人类认为与自主算法合作是不公平的,甚至会导致财务成本高。然而,人类并不想完全排除算法,但似乎更喜欢40%~60%的人类-算法伙伴关系。Haesevoets等(2021)发现,在人与AI进行决策过程中,机器决策的接受率稳步上升,直到在管理决策中,人类占70%左右,机器占30%左右。在这一点之后,曲线变平,意味着更多的人类参与不再增加接受度。换言之,人类管理者并不希望将机器完全排除在管理决策外,而是更喜欢由人类拥有多数投票权的伙伴关系。
此外,Jussupow等(2021)研究考察了人类与AI一起合作时人类的决策过程。他们基于出声思维报告 、访谈和问卷调查的定性数据,得出了五种决策模式,并开发了一个带有AI建议的医疗诊断决策增强过程模型。该研究发现,在评估AI建议时,医生使用二级认知过程(元认知)来监控他们的推理,这些元认知决定了医生能否充分利用AI。具体来说,错误的诊断决策往往是由于决策者自身推理(自我监控)的元认知和基于AI系统(系统监控)的元认知利用不足造成的。因此,医生们倾向基于信念而不是实际数据做出决定。
(1)公平感知。
Newman等(2020)研究发现,员工公平感知在算法决策和个体组织承诺之间起到中介作用,算法决策通过公平感知的中介作用会对个体组织承诺产生消极影响。
(2)胜任需求。
朱晓妹等(2021)研究发现,胜任需求会在岗位技能要求和员工工作旺盛度之间起到中介作用。当企业引进AI技术时,员工为了适应岗位技能要求,会不断地进行探索学习,不断适应外部环境以及工作本身的变化。当员工通过自身学习体验到了新技能的挑战以及成就时,员工的胜任感就会增强,在工作中就会更加集中注意力来解决问题,此外,乐观积极的心态也可以让员工为工作投入更多的时间、精力,进而提高工作旺盛感。
(3)工作和技能要求。
朱晓妹等(2020)研究发现,工作要求和技能要求会在AI技术应用与员工情绪之间起到中介作用,AI技术的快速发展会由于工作要求和技能要求的提高而使员工产生消极情绪,但同时,企业的工作和技能要求提高,员工会为了胜任工作而不断学习,提升自己的工作技能,从而提高工作胜任感。Lee(2018)研究发现,不同工作技能要求(机器/人类)会影响决策主体与员工公平性、信任和情感反应之间的关系。当采用机器技能时,算法决策和人工决策对于员工的公平公正感知相同,会产生类似情绪。
(4)角色宽度自我效能。
Tang等(2020)发现,角色宽度自我效能(role breadth self-efficacy)在使用智能机器和任务表现之间起到中介作用。角色宽度自我效能感反映了对员工在工作场所“承担更多的职责”的能力的信心(Parker,1998),这种在组织中执行扩展角色的信心超出了对执行规定角色的基本要求的信心。智能机器可以通过自动承担与员工角色相关的日常任务来减轻员工负担,提高员工重视所提供的资源和信息的可能性。在这种状态下,员工觉得他们可以承担主要职责,从而提高任务表现力。
(5)工作替代风险感知。
陈文晶等(2022)研究发现,在AI时代工作替代风险会影响员工不安全感与员工职业发展能力之间的关系。工作替代风险可以反映出一个职业的发展前景,会影响个人对于工作和所处行业的理解与认知,工作替代风险在一定程度上会影响员工自身不安全感,进而影响员工自身发展能力。工作替代风险感知可以使员工在产生不安全感时提前为外部挑战做好准备,在面对技术变革的外部环境中可以产生自我成长的动力,通过提升职业发展能力来适应外部环境的变化。
(6)心理距离。
Li和Sung(2021)研究发现,心理距离(某事或某人接近自我或远离自我,此时此地的主观体验)会在AI拟人化与AI助手评价之间起到中介作用。先前的研究表明,人们更愿意帮助与社会关系密切的人(Rachlin and Jones,2008),他们更喜欢内群体而不是外群体(Brewer,1979)。此外,消费者还被发现与那些似乎具有群体内成员特征的品牌形成了更强的自我品牌联系(Escalas and Bettman,2005)。如果人们彼此之间居住的距离很近,那么不同种族和年龄的人之间就会建立起友谊。如果人们普遍对心理封闭的态度积极,那么心理距离的减少可能是拟人化对AI互动积极影响的一个潜在机制。因此,人们通常会对拟人化的AI助手有积极的态度,因为他们之间的心理距离减少了。
(7)AI反馈质量。
Tong等(2021)研究发现,人工反馈质量在AI数据分析和员工生产力之间起到中介作用。AI可以通过更准确地处理每个员工的独特情况和在工作中面临的挑战,从而为每个员工提供有效反馈,这种反馈可以更准确地捕捉到员工的独特差异,更有可能被员工接受和学习。即与人类管理者建议相比,员工从AI产生的建议中学到的东西更多,反馈质量更高,相关性更好;然而,对于任务结构良好的工作,向员工披露绩效反馈是由AI提供时,会对员工的工作绩效产生负面影响。此外,员工对于AI反馈质量的信任也会影响员工学习,进而影响员工绩效。
(8)对AI的信任。
Glikson(2021)研究发现,对于机器人AI,信任轨迹类似人际关系中的信任发展——它从低水平开始,随着直接的实践体验而增加。机器智能的水平可以缓和信任的发展,高水平的机器智能会由于经验而导致更高的信任。对于机器人AI来说,高水平的机器智能通常会导致高水平信任的快速发展;对于虚拟和嵌入式AI来说,高机器智能提供了维持最初的高水平信任(通过满足高期望)或最大限度地减少信任的可能性。员工对于AI的信任会影响员工与AI合作的期望,进一步影响员工感知到的公平感以及安全感。
(1)决策特征(解释程度、有利性、效价)。
Schlicker等(2021)发现,决策解释程度会影响算法决策与员工不公平感知之间的关系。当决策主体是人类时,被试者对人际公正的感知更强;没有解释只会降低人类对信息公正的感知,而不会影响自动化代理的作用效果。此外,在程序公正方面,自动化代理被认为更客观,而人类代理则仅被认为在决策中会有更多的发言权。魏昕等(2021)证实,决策有利/不利于员工会调节决策者类型对员工的整体公平感以及组织和社会偏差行为的作用效果。当决策不利于员工时,算法决策比领导决策会有更高的整体公平感,进而减少其偏差行为;当决策有利于员工时,决策者类型对员工整体公平感及偏差行为的影响没有显著差异。Bankins(2022)发现,决策效价会影响决策主体与员工信任感知和互动公平之间的关系,当AI做出决策时,人们更缺乏信任和人性化感知,体验到的互动公平感也更少。然而,当AI做出积极决策(与做出消极决策的AI或人类相比)时,人们会获得更高信任感,体验到更多的互动公平感。
(2)包容氛围。
裴嘉良等(2021)证实,算法决策比领导决策会使员工感知到更低的信息透明度,进而导致更低的程序公平感,且当员工感知到较低的包容氛围时,算法决策对程序公平感知的负面影响更加明显;当员工感知到较高的包容氛围时,不同决策主体对员工程序公平感的影响没有显著差异。
(3)任务特征。
Lee(2018)发现,任务特征会影响决策主体与员工公平性、信任和情感反应之间的关系。在需要机械技能的任务中,个体对算法决策和人工决策感知到的公平感与信任感相同,且两种决策引起的情绪类似。但感知相同的原因是不同的,在人工决策中,参与者将公平和信任归因于管理权威;在算法决策中,算法的公平与可信归因于他们感知的效率和客观性。在需要人类技能的任务中,算法决策的可信度和公平性低于人工决策,且会引起更多的消极情绪,因为其缺乏人类的直觉,无法识别好的员工或评估员工的表现,只测量可量化的指标,不能评估社会互动或处理异常。
(4)人机关系。
Newman等(2020)发现,算法与人类的伙伴关系(algorithm-human partnership)会影响决策主体与员工公平感知和组织承诺之间的关系,与人类决策相比,个体会认为算法驱动的决策更不公平,且算法的简化感知(reductionistic)(如量化和去语境化)会中介算法决策对个体感知公平的影响。此外,与人类决策相比,算法决策将会通过公平感知的中介作用导致个体的组织承诺较低;最后,算法决策对个体感知公平的负面影响将被算法与人类的伙伴关系所缓解,但只有当人类(而不是算法)是默认的决策者时才会如此。
(5)组织权威文化。
Gupta等(2021)探讨了员工对算法决策的公平感知的影响因素,并发现那些拥有集体主义、男性化和不确定性规避相关的国家文化价值观的人更有可能质疑AI的建议,或强调不平等医疗结果反而会增加人们对算法决策的偏好(Bigman et al.,2021)。Ötting和Maier(2018)则考察了决策主体的调节作用,并认为当决策主体是人类团队领导者时,程序公正对员工行为和态度的影响最强;当决策主体是类人机器人时,这种关系居中;当代理是一个计算机系统时,影响是最弱的。然而,该结果仅验证了程序公正对员工行为和态度的积极影响,并未验证上述交互作用。
(6)算法拟人化/个体拟人化。
当员工感知到算法带来的不公平时,可能还会诱发其产生道德惩罚欲。许丽颖等(2022)比较了不同类型歧视情境下人们对算法歧视和人类歧视的道德惩罚欲,并探讨了潜在的作用机制和边界条件。结果显示,相对于人类歧视,人们对算法歧视的道德惩罚欲更少,因为人们认为相比于人类,算法更缺乏自由意志。此外,当个体的拟人化倾向越强或者算法越拟人化时,人们对算法的道德惩罚欲越强。
(7)员工尽责性。
Tang等(2020)发现,员工尽责性会调节智能机器使用与其角色宽度自我效能感之间的关系,当尽责性越低时,两者之间的关系越积极,从而会正向影响工作绩效;员工尽责性会调节智能机器使用与员工角色模糊性之间的关系,当尽责性越高时,两者之间的关系越积极,从而能会负向影响工作绩效。
(8)员工任职时间。
Tong等(2021)考察了员工任职时间对反馈主体与工作绩效之间关系的影响。员工会因为不信任AI反馈,担心被其取代,从而损害他们的生产力(披露效应),员工任职时间可以减弱这种不利的披露效应,员工任职时间越长,越相信AI反馈,从而能提高生产力。
从众(conformity)是指成员希望自己的行为与群体保持一致的倾向。当员工与智能机器一起工作时,其行为决策是否会受到影响,从而诱发从众行为结论并不一致(Qin et al.,2021)。例如,Vollmer等(2018)发现,在一群机器人的情境中(人-机混合群体中机器人为多数派),儿童会受到社交机器人(social robots)的影响产生从众行为,但成年人则不会。相反,Qin等(2022)则证实在某些情境中(人-机混合群体中机器人为少数派)成年人也会受到机器人影响产生从众行为。在机器人作为少数派的情境中,当机器人提供明显错误的答案时,成年参与者的回答准确率比控制组(独自作答)的参与者低12%,即机器人也能引发成年人的从众行为。另外,在有机器人同伴的条件下,成年参与者的回答准确率与在全部人类同伴条件下的参与者近似,说明一名机器人引起的从众效应与一名人类同伴相当。因为“相比于机器人为少数派的情境,当一个人与一群机器人互动时,个体可能对机器人的敏感性更高,这会在一定程度上减少从众的压力”。此外,Qin等(2022)发现当群体中存在人类或机器人异议者(dissenters)时,群体中的从众效应均能得到有效减弱,但后者减弱从众的效应稍次于前者。
当员工与AI一起工作时,受到其影响究竟会变得更加自主还是更像“半机器人”(borgs)呢?Fügener等(2021)分析了来自AI的建议如何影响人类和AI之间的互补性(人类拥有而人工智能缺乏的“独特的人类知识”)。研究发现,人类选择的相似性会提高个体的准确性。然而,随着人类群体的整体、个体准确性的提高,个体独特的人类知识也会下降。该研究指出,基于AI建议决策的人类失去其独特知识(互补性),可能对长期的决策表现、持续改进和创新极其不利。当人类通过失去自己的独特知识而失去这种互补性时,每个人的决定就会开始模仿其他人类和AI的决定。因此,人类的行为开始变得更像机器或半机器人。此外,该研究基于实验数据,还发现这种人与AI合作对“群众智慧”的有害影响,即与没有AI帮助的人类群体相比,与AI互动的人类群体的效率要低得多。
以往一些研究表明,机器人会导致更多的群体偏见,因为它会增加群体之间对资源的竞争。但Jackson等(2020)认为,机器人也可以通过强调人类之间的共性(commonalities)来减少群体偏见,因为随着机器人员工的增加,群体间差异(种族和宗教差异)似乎不那么重要,反而会促进对人类共同身份的感知(泛人文主义)(panhumanism)。该研究发现,员工对机器人使用的担忧会减少对人类外群体的担忧,机器人劳动力会减少员工对外群体的偏见,使人们更愿意接受外群体成员作为领导者和家庭成员,并促使内群体和外群体之间的工资平等,且这一效应会通过泛人文主义的中介作用来传递,表明员工对一个共同的人类群体感知可以在很大程度上减少人类群体偏见。
Nash等(2018)考察了机器人对人类员工的排斥及其带来的影响。在与真人大小的机器人玩游戏后,机器人告诉参与者希望再次见到他们(接受)、不希望再次见到他们(拒绝),或者对未来的互动没有任何告知(控制)。该结果表明,与没有收到反馈和被社会接受相比,被机器人拒绝会显著降低自尊(后两者并没有区别)。然而,被机器人拒绝对日常生活中使用机器人的消极态度和反对没有影响。
Fügener等(2021)发现,人类和AI合作时的绩效高于单独由人类或者单独由AI组成的团队。然而,只有当AI将工作委托给人类时,整体绩效才会提高;而当人类将工作委托给AI时则不会。即使将任务委派给表现较差的对象,AI的委派绩效也有所提高;相比之下,人类不能很好地委派任务,也不能从委派给AI任务中受益。然而,由于缺乏元知识,人类的绩效受到了影响,即人类不能正确地评估自己的能力,这反过来导致糟糕的委托决策以及较低的合作绩效。与不愿使用AI相比,缺乏元知识是一种无意识的特征,从根本上限制了人类决策者与AI和其他算法合作的能力。
Braganza等(2021)考察了AI对员工心理契约与敬业度和信任的影响。该结果显示,心理契约会正向影响员工工作投入和信任,但随着AI的采用,心理契约对两者的积极影响大幅下降。Tomprou和Lee(2022)探究了组织代理主体(算法vs.人)如何影响个体的心理契约,以及组织提供诱因类型(交易和关系)的调节作用。该研究在两个雇佣阶段调查了员工的心理契约,一是早期阶段(如招募和入职阶段),该阶段代理人会向雇员解释组织提供的诱因;二是雇佣阶段,该阶段代理人可能未按承诺兑现为员工提供诱因。该结果表明,在招募阶段和低诱因提供情况下,代理类型不会影响员工交易型心理契约,但会影响关系型心理契约;在雇佣阶段,相比于人类,使用算法代理意味着雇主对员工关系诱因的较低承诺。当组织提供的关系诱因较低时,使用人类代理会给员工带来更大的心理契约违背。最后,不论是哪种类型的诱因,与算法代理相比,当人类提供较低的诱因时,员工的离职意愿都比较高。
近五年智能机器技术的发展给企业带来了重大变化,组织行为方面的实证研究不断涌现,然而并没有关于智能机器背景下针对组织行为领域的文献综述。通过对上述五年文献进行梳理可以看出,已有研究还是更多聚焦于技术或一种工具变量,来剖析其对组织行为的影响,但是对于技术设计在智能机器背景下提高组织效率方面的研究较少。在组织行为方面,尤其是个体和群体行为,在虚拟办公、领导者与机器人的领导力关系等情景下组织中人的行为发生了很大转变;在技术工具方面,拟人化、算法控制优化、人机合作策略等新型工具的出现也是智能机器背景下的重大变化。事实上,人的心理和行为与智能化工具应该糅合为一体,共同完成任务。为此,要想提高组织效率,提升员工工作的满意度,就要对人和智能机器进行双向构建,使人机协同、人机和谐,促进人和智能机器的协同发展。本文从以下五个方面提出了未来可以继续拓展的研究方向。
以往文献虽然涵盖了智能化背景下的组织行为研究现状,但这些研究有的是以智能化为背景,探讨了传统组织行为是否会有变化;有的则考察了这些智能化技术本身对组织行为的影响;还有的将技术纳入了研究设计中,以观察组织行为在智能机器背景下如何改变。根据Landers和Marin(2021)提出的技术在组织心理/组织行为领域的应用进程的四种范式,包括技术作为情景(technology-as-context)、技术作为因果(technology-as-causal)、技术作为工具(technology-as-instrumental)和技术作为设计(technology-as-designed),如表1所示,本文又进一步将收集的54篇文献进行了数字化程度分析,以更好地了解不同智能机器背景下技术在组织行为研究中的应用程度,如表2所示。
表1 技术在组织心理/组织行为领域的应用进程的四种范式
资料来源:Landers和Marin(2021)。
表2 组织行为智能技术应用程度分析
其中,技术作为工具是考察在智能化背景下其对组织行为的影响最多的一种范式,即智能机器中的AI、算法、机器人等会影响组织行为。技术作为设计也可以更好地考察组织对人的行为影响,而技术作为情景和技术作为因果的应用则较少。
由于员工与智能机器一起工作时,既会让其感觉到不安全(Yam,Bigman and Gray,2021;陈文晶等,2022)和不公平(Schlicker et al.,2021,裴嘉良等,2021;魏昕、黄鸣鹏、李欣悦,2021),并且对新事物和新技术产生抗拒等负面情绪(谢小云等,2021),但同时也会让其充满活力和动力而主动工作(朱晓妹、王森、何勤,2021),那么,管理者在运用智能机器时,应该注意使用的适度性,要让员工主动地接受。正如Raisch和Krakowski(2021)指出的,智能机器在管理中的运用往往存在着自动化(automation)-增强(augmentation)悖论,自动化是指机器接管人工任务,增强则强调人类与机器密切合作来执行任务。一方面,如果管理者选择自动化,人类将任务移交给机器,而很少或不需要进一步参与,其目的是将人类排除在外,以允许更全面、理性和高效地处理;另一方面,增强意味着人与机器之间持续的密切互动。这种方法允许将机器的能力与人类的独特能力相补充,如他们的直觉和常识推理。此外,由于员工本身的特征可能会与智能机器重叠或相矛盾,如尽责性(Tang et al.,2021)、领域经验(Allen and Choudhury,2022)等被看作员工最突出的特征,但随着AI、机器人和算法进入员工的工作,不像传统的技术,这些新机器配备了决策自主能力,会与员工的这些特征产生重叠,那么员工在使用智能机器的过程中又会对其产生什么影响呢?为此,如何处理好自动化-增强悖论,使其既能提升组织效率,又能让员工感知到自身更高的价值,是未来管理者需要进一步思考的问题。
在智能机器情境下的OB研究,以个体行为为主,而较少关注群体行为,但群体行为可能会表现在不同的地方。例如,在虚拟办公情景下,与面对面群体相比,群体过程发展的时间更长,非正式交流被忽视(Blanchard,2021)。那么,群体的心理与行为又会发生哪些变化,如何培养更高效的工作群体,未来研究可以继续深入探讨。此外,如何更好地做到人机互动,将智能技术引入团队中来提升团队效率也是未来值得思考的地方。Larson和Dechurch(2020)提出了四种团队管理技术视角,分别为①技术作为团队情境,强调技术特性决定了重要方面领导的情况;②技术作为社会物质的团队实践,强调技术的物质特征与行为意图共同创建领导和合作的场所团队;③技术作为创造媒介,强调数字工具和平台使领导过程得以实施;④技术作为团队成员,强调领导者需要促进人与合成的团队成员之间的关系。未来研究可以分别针对不同情景对群体行为进行研究。
同样地,关于智能机器背景下领导力的研究相对较少。不同领导者代理和领导对象之间的领导力,领导者-员工关系可能会体现为人领导机器人(human-robot)和机器人领导人(robot-human)这两种情况(Tsai et al.,2022)。其中,前者主要关注人类作为一个领导者如何领导机器人实现任务和一个机器人如何作为一个追随者检测/识别一个人的行为与教学输入(如信号检测和机器学习)。在此情境下,不但要关注智能化技术给员工带来的环境变化,同时也要关注员工对新技术的态度和应对策略,未来可以观察在智能机器背景下员工招聘、绩效评估以及离职等方面员工的反应,如是采纳还是抗拒,从而探究员工对于智能技术的公平感和认同感;后者则主要关注作为领导者的机器人如何向人类发送任务指令,以及作为追随者的人类如何感知和响应机器人的指令教学投入。因此,当人类是一个追随者时,人类的心理机制可以在人对机器人的感知和理解中发挥很大的作用。
由于员工对决策理解存在差异,易引起他们内心不满的焦虑情绪,也会引起管理者之间的冲突,那么对于AI所安排的岗位和工作的变化将会遭到员工的抵触,从而影响企业变革的效率。在这种情况下,如何减少人类员工对机器人领导者的抗拒并增加两者之间的沟通效率变得更加重要。Gloor等(2020)指出,当机器成为领导者之后,可能既会减少偏差,又会带来被操作感。未来研究可以考虑当AI领导具有什么样的特征以及应该如何与员工进行互动时,其领导效率才会更高?另外,正如上文所述,已有智能化背景下的OB研究更多的是以技术为背景,来探讨传统领导行为的作用效果,而较少地关注领导行为在该背景下内涵的变化。未来研究可以进一步围绕数智化背景,来探究对传统行为内涵的影响。
企业在进行智能化变革的过程中应该注意在既能保证提升组织行为效度的同时,又能保证其温度,并把握好尺度,这也是未来研究应进一步思考的地方(郑磊,2021)。AI技术下的人才应用会对员工的情绪产生影响,进而导致员工的行为异常,有可能会导致人的“物化”,甚至“奴化”(罗文豪等,2022)。智能机器背景下太过科学化管理,如果缺乏了伦理考量,就会让员工感到压力和失去尊严。当AI收集数据进行整理分析时,员工个人的隐私是否会受到侵犯?应该如何进行保护?汤晓莹(2021)提出从数据主体赋权、开发行为规范、外部监督、劳资共治四个方面对员工隐私进行法律保护,而对于法律具有一定滞后性,员工个人隐私的泄露可能会影响其个人情绪和行为,从而会对企业中员工的人际关系造成不利影响。因此,企业在智能机器背景时代进行管理的过程中,必须在保证管理科学性和艺术性的同时,关注其伦理和法律层面的问题。
总之,在组织进行智能化转型的过程中,管理者在使用技术工具的过程中不应该仅仅狭隘地关注控制人工成本,或者如何让技术来替代员工或控制员工,还应该关注员工的感受。本文的研究也更加关注在智能机器背景下,如何利用高新技术来为员工工作提供便利,建构人与智能机器共用演化、协同成长的生态系统,来提升员工工作的幸福感。
[1]徐鹏,徐向艺.人工智能时代企业管理变革的逻辑与分析框架[J].管理世界,2020,36(1):122-129+238.
[2]罗文豪,霍伟伟,赵宜萱,等.人工智能驱动的组织与人力资源管理变革:实践洞察与研究方向[J].中国人力资源开发,2022,39(1):4-16.
[3]蒋路远,曹李梅,秦昕,等.人工智能决策的公平感知[J/OL].心理科学进展,2022,DOI:http://kns.cnki.net/kcms/detail/11.4766.R.20220323.1718.002.html.
[4]谢小云,左玉涵,胡琼晶.数字化时代的人力资源管理:基于人与技术交互的视角[J].管理世界,2021,37(1):200-216+13.
[5]陈文晶,康彩璐,杨玥,等.人工智能潜在替代风险与员工职业能力发展:基于员工不安全感视角[J].中国人力资源开发,2022,39(1):84-97.
[6]唐小飞,孙炳,张恩忠,等.类人智能机器人社会价值替代与风险态度研究[J].南开管理评论,2021,24(6):4-15.
[7]魏昕,黄鸣鹏,李欣悦.算法决策、员工公平感与偏差行为:决策有利性的调节作用[J].外国经济与管理,2021,43(11):56-69.
[8]裴嘉良,刘善仕,钟楚燕,等.AI算法决策能提高员工的程序公平感知吗?[J].外国经济与管理,2021,43(11):41-55.
[9]许丽颖,喻丰,彭凯平,等.算法歧视比人类歧视引起更少道德惩罚欲[J].心理学报,2022,54(9):1-17.
[10]朱晓妹,王森,何勤.人工智能嵌入视域下岗位技能要求对员工工作旺盛感的影响研究[J].外国经济与管理,2021,43(11):15-25.
[11]许丽颖,喻丰,彭凯平.智慧时代的螺丝钉:机器人凸显对职场物化的影响[J/OL].心理科学进展,2022,DOI:https://doi.org/10.3724/SP.J.1042.2022.001.
[12]朱晓妹,任晶晶,何勤.人工智能技术应用会引发员工的消极情绪吗?——基于资源保存理论的视角[J].中国临床心理学杂志,2020,28(6):1285-1288.
[13]郝旭光,张嘉祺,雷卓群,等.平台型领导:多维度结构、测量与创新行为影响验证[J].管理世界,2021,37(1):186-199+216+12.
[14]辛杰,孔茗,谢荣贝.平台型领导:概念、维度与测量[J].科学学研究,2020,38(8):1481-1488.
[15]郑磊.数字治理的效度、温度和尺度[J].治理研究,2021,37(2):5-16+2.
[16]张敏,赵宜萱.机器学习在人力资源管理领域中的应用研究[J/OL].中国人力资源开发,2022,DOI:http://10.16471/j.cnki.11-2822/c.2022.1.005.
[17]罗文豪,霍伟伟,赵宜萱,等.人工智能驱动的组织与人力资源管理变革:实践洞察与研究方向[J/OL].中国人力资源开发,2022,DOI:http://10.16471/j.cnki.11-2822/c.2022.1.001.
[18]汤晓莹.算法技术带来的劳动者隐私风险及制度因应[J].中国人力资源开发,2021,38(8):65-81.
[19]TAMBE P,CAPPELLI P,YAKUBOVICH V.Artificial intelligence in human resources management:Challenges and a path forward[J].California management review,2019,61(4):15-42.
[20]SHRESTHA Y R,BEN-MENAHEM S M,VON KROGH G.Organizational decision-making structures in the age of artificial intelligence[J].California management review,2019,61(4):66-83.
[21]GLIKSON E,WOOLLEY A W.Human trust in artificial intelligence:Review of empirical research[J].Academy of management annals,2020,14(2):627-660.
[22]LANDERS R N,MARIN S.Theory and technology in organizational psychology:A review of technology integration paradigms and their effects on the validity of theory[J].Annual review of organizational psychology and organizational behavior,2021(8):235-258.
[23]CALIGIURI P,DE CIERI H,MINBAEVA D,et al.International HRM insights for navigating the COVID-19 pandemic:Implications for future research and practice[J].Journal of international business studies,2020,51(5):697-713.
[24]BROUGHAM D,HAAR J.Smart technology,artificial intelligence,robotics,and algorithms(STARA):Employees'perceptions of our future workplace[J].Journal of management & organization,2018,24(2):239-257.
[25]LARSON L,DECHURCH L A.Leading teams in the digital age:Four perspectives on technology and what they mean for leading teams[J].The leadership quarterly,2020,31(1):101-377.
[26]BROUGHAM D,HAAR J.Technological disruption and employment:The influence on job insecurity and turnover intentions:A multi-country study[J].Technological forecasting and social change,2020,161(C):120-276.
[27]DENGLER K,GUNDERT S.Digital transformation and subjective job insecurity in Germany[J].European sociological review,2021,37(5):799-817.
[28]LINGMONT D N J,ALEXIOU A.The contingent effect of job automating technology awareness on perceived job insecurity:Exploring the moderating role of organizational culture[J].Technological forecasting and social change,2020,161(C).
[29]YOGEESWARAN K,ZłOTOWSKI J,LIVINGSTONE M,ISHIGURO,H,et al.The interactive effects of robot anthropomorphism and robot ability on perceived threat and support for robotics research[J].Journal of human-robot interaction,2016,5(2):29-47.
[30]ZłOTOWSKI J,YOGEESWARAN K,BARTNECK C.Can we control it?Autonomous robots threaten human identity,uniqueness,safety,and resources[J].International journal of human-computer studies,2017:48-54.
[31]MORI M.The Uncanny Valley[J].Energy,1970,7(2):33-35.
[32]YAM K C,BIGMAN Y,GRAY K.Reducing the uncanny valley by dehumanizing humanoid robots[J].Computers in human behavior,2021(125):106-945.
[33]HU P,LU Y.Dual humanness and trust in conversational AI:A personcentered approach[J].Computers in human behavior,2021:106-727.
[34]GILLATH O,AI T,BRANICKY M S,et al.Attachment and trust in artificial intelligence[J].Computers in human behavior,2021,115(2):106-607.
[35]PAOLILLO A,COLELLA F,NOSENGO N,et al.How to compete with robots by assessing job automation risks and resilient alternatives[J].Science robotics,2022,7(65):55-61.
[36]SCHLICKER N,LANGER M,ÖTTING S K,et al.What to expect from opening up“Black Boxes”?Comparing perceptions of justice between human and automated agents[J].Computers in human behavior,2021,122(9):106-837.
[37]LEE M K.Understanding perception of algorithmic decisions:Fairness,trust,and emotion in response to algorithmic management[J].Big data &society,2018,5(1):1-16.
[38]NEWMAN D T,FAST N J,HARMON D J.When eliminating bias isn't fair:Algorithmic reductionism and procedural justice in human resource decisions[J].Organizational behavior and human decision processes,2020,160(9):149-167.
[39]HÖDDINGHAUS M,SONDERN D,HERTEL G.The automation of leadership functions:Would people trust decision algorithms?[J].Computers in human behavior,2021,116:106-635.
[40]BANKINS S,FORMOSA P,GRIEP Y,et al.AI decision making with dignity?Contrasting workers'justice perceptions of human and AI decision making in a human resource management context[J/OL].Information systems frontiers,2022,DOI:https://doi.org/10.1007/s10796-021-10223-8.
[41]GUPTA M,PARRA C M,DENNEHY D.Questioning racial and gender bias in AI-based recommendations:Do espoused national cultural values matter?[J].Information systems frontiers,2021,24(5):1-17.
[42]BIGMAN Y E,YAM K C,MARCIANO D,et al.Threat of racial and economic inequality increases preference for algorithm decision-making[J].Computers in human behavior,2021,122(9):106-859.
[43]ÖTTING S K,MAIER G W.The importance of procedural justice in human-machine interactions:Intelligent systems as new decision agents in organizations[J].Computers in human behavior,2018,89(12):27-39.
[44]PORATH C,SPERITZER G,Garnett F G,et al.Thriving at work:Toward its measurement,construct validation,and theoretical refinement[J].Journal of organizational behavior,2012,33(2):250-275.
[45]KONG H,YUAN Y,BARUCH Y,et al.Influences of artificial intelligence(AI)awareness on career competency and job burnout[J].International journal of contemporary hospitality management,2021,33(2):717-734.
[46]DANG J,LIU L.Robots are friends as well as foes:Ambivalent attitudes toward mindful and mindless AI robots in the United States and China[J].Computers in human behavior,2021,115(2):106-612.
[47]STRICH F,MAYER A S,FIEDLER M.What do I do in a world of artificial intelligence?Investigating the impact of substitutive decision-making AI systems on employees'professional role identity[J].Journal of the association for information systems,2021,22(2):304-324.
[48]ÅGNES J S.Gaining and training a digital colleague:Employee responses to robotization[J].The journal of applied behavioral science,2022,58(1):29-64.
[49]LEBOVITZ S,LIFSHITZ-ASSAF H,LEVINA N.To engage or not to engage with AI for critical judgments:How professionals deal with opacity when using AI for medical diagnosis[J].Organization science,2022,33(1):126-148.
[50]LOGG J M,MINSON J A,MOORE D A.Algorithm appreciation:People prefer algorithmic to human judgment[J].Organizational behavior and human decision processes,2019,151(C):90-103.
[51]GHAZALI A S,HAM J,BARAKOVA E,et al.The influence of social cues in persuasive social robots on psychological reactance and compliance[J].Computers in human behavior,2018,87(10):58-65.
[52]HARJUNEN V J,SPAPÉM,AHMED I,et al.Persuaded by the machine:The effect of virtual nonverbal cues and individual differences on compliance in economic bargaining[J].Computers in human behavior,2018,87(10):384-394.
[53]LI X,SUNG Y.Anthropomorphism brings us closer:The mediating role of psychological distance in User-AI assistant interactions[J].Computers in human behavior,2021,118:106-680.
[54]PARVEZ M O,ARASLI H,OZTUREN A,LODHI R N.Antecedents of human-robot collaboration:Theoretical extension of the technology acceptance model[J/OL].Journal of hospitality and tourism technology,2022,DOI:https://doi.org/10.1108/JHTT-09-2021-0267.
[55]CIARDO F,DE TOMMASO D,WYKOWSKA A.Joint action with artificial agents:Human-likeness in behaviour and morphology affects sensorimotor signaling and social inclusion[J].Computers in human behavior,2022,132(7):107-237.
[56]KIM T W,DUHACHEK A.Artificial Intelligence and persuasion:A construal-level account[J].Psychological science,2020,31(4):363-380.
[57]DE CREMER D,MCGUIRE J.Human-algorithm collaboration works best if humans lead(because it is fair!)[J].Social justice research,2022,35(1):33-55.
[58]HAESEVOETS T,DE CREMER D,DIERCKX K,et al.Human-machine collaboration in managerial decision making[J].Computers in human behavior,2021,119(6):106-730.
[59]JUSSUPOW E,SPPHRER K,HEINZL A,et al.Augmenting medical diagnosis decisions?An investigation into physicians'decision-making process with artificial intelligence[J].Information systems research,2021,32(3):713-735.
[60]TANG P M,KOOPMAN J,MCCLEAN S T,et al.When conscientious employees meet intelligent machines:An integrative approach inspired by complementarity theory and role theory[J/OL].Academy of management journal,2021,DOI:https://doi.org/10.5465/amj.2020.1516.
[61]ALLEN R,CHOUDHURY P.Algorithm-augmented work and domain experience:The countervailing forces of ability and aversion[J].Organization science,2022,33(1):149-169.
[62]TONG S,JIA N,LUO X,et al.The Janus face of artificial intelligence feedback:Deployment versus disclosure effects on employee performance[J].Strategic Management journal,2021,42(9):1600-1631.
[63]VERMA S,SINGH V.Impact of artificial intelligence-enabled job characteristics and perceived substitution crisis on innovative work behavior of employees from high-tech firms[J].Computers in human behavior,2022,131(6):107215.
[64]LI J J,BONN M A,YE B H.Hotel employee's artificial intelligence and robotics awareness and its impact on turnover intention:The moderating roles of perceived organizational support and competitive psychological climate[J].Tourism management,2019,73(8):172-181.
[65]CHIU Y T,ZHU Y Q,CORBETT J.In the hearts and minds of employees:A model of pre-adoptive appraisal toward artificial intelligence in organizations[J].International journal of information management,2021,60(10):102-379.
[66]KOO B,CURTIS C,RYAN B.Examining the impact of artificial intelligence on hotel employees through job insecurity perspectives[J].International journal of hospitality management,2021,95(5):102-763.
[67]PRENTICE C,DOMINIQUE LOPES S,WANG X.Emotional intelligence or artificial intelligence-an employee perspective[J].Journal of hospitality marketing & management,2020,29(4):377-403.
[68]QIN X,YAM K C,CHEN C,et al.Revisiting social robots and their impacts on conformity:Practical and ethical considerations[J].Science robotics(eLetters),2021.
[69]VOLLMER A L,READ R,TRIPPAS D,et al.Children conform,adults resist:A robot group induced peer pressure on normative social conformity[J].Science robotics,2018,3(21):7111.
[70]QIN X,CHEN C,YAM K C,et al.Adults still can't resist:A social robot can induce normative conformity[J].Computers in human behavior,2022,127(2):107-141.
[71]JACKSON J C,CASTELO N,GRAY K.Could a rising robot workforce make humans less prejudiced?[J].American psychologist,2020,75(7):969-982.
[72]NASH K,LEA J M,DAVIES T,et al.The bionic blues:Robot rejection lowers self-esteem[J].Computers in human behavior,2018,78(1):59-63.
[73]FÜGENER A,GRAHL J,GUPTA A,et al.Cognitive challenges in human-artificial intelligence collaboration:Investigating the path toward productive delegation[J/OL].Information systems research,2021,DOI:https://doi.org/10.1287/isre.2021.1079.
[74]FÜGENER A,GRAHL J,GUPTA A,et al.Will humans-in-theloop become borgs?Merits and pitfalls of working with AI[J].Management information systems quarterly(MISQ)-Vol,2021(45).
[75]BRAGANZA A,CHEN W,CANHOTO A,et al.Productive employment and decent work:The impact of AI adoption on psychological contracts,job engagement and employee trust[J].Journal of business research,2021,131(7):485-494.
[76]TOMPROU M,LEE M K.Employment relationships in algorithmic management:A psychological contract perspective[J].Computers in human behavior,2022,126(1):106-997.
[77]RAISCH S,KRAKOWSKI S.Artificial intelligence and management:The automation-augmentation paradox[J].Academy of management review,2021,46(1):192-210.
[78]BLANCHARD A L.The effects of COVID-19 on virtual working within online groups[J].Group processes & intergroup relations,2021,24(2):290-296.
[79]TSAI C Y,MMARSHALL J D,CHOUDHURY A,et al.Human-robot collaboration:A multilevel and integrated leadership framework[J].The leadership quarterly,2022,33(1):101-594.
[80]GLOOR J L,HOWE L,DE CREMER D,et al.The funny thing about robot leadership[J/OL].European business law review,2020,https://doi.org/10.5167/uzh-199114.
[81]LITCHFIELD R C,HIRST G,VAN KNIPPENBERG D.Professional network identification:Searching for stability in transient knowledge work[J].Academy of management review,2021,46(2):320-340.