人工智能与管理:自动化-增强悖论
作者:Sebastian Raisch and Sebastian Krakowski
来源:Academy of Management Review
使用更全面的悖论理论视角,我们认为,在管理领域,增强不能与自动化完全分开。这些双重AI应用在时间和空间上是相互依赖的,创造了一种矛盾的张力。过度强调增强或自动化会加剧强化循环,并带来负面的组织和社会结果。然而,如果组织采用包括自动化和增强的更广泛的视角,他们可以处理紧张关系并实现对业务和社会有利的互补。根据我们的见解,我们得出结论,管理学者需要参与到组织中人工智能使用的研究中来。我们还认为,为了发展有意义的理论并为实践提供合理的建议,目前人工智能研究的进行方式需要进行实质性的改变。
组织长期以来一直使用基于人工智能的解决方案来自动化运营和物流中的日常任务。计算能力的最新进步、数据的指数级增长和新的机器学习技术现在允许组织也使用基于人工智能的解决方案来完成管理任务。在管理领域,增强不能与自动化完全分开。这些双重人工智能应用在时间和空间上是相互依赖的,这就产生了一种矛盾的张力。过度强调增强或自动化会加剧强化循环,这不仅会损害组织的绩效,还会产生负面的社会影响。然而,采用包括自动化和增强的更广泛的视角的组织不仅能够处理紧张关系,而且还能够实现对业务和社会有益的互补。基于人工智能的解决方案的出现以及人类与它们之间日益增加的互动创造了一种新的管理紧张关系,需要关注研究。因此,管理学者应该在人工智能辩论中发挥更积极的作用,回顾管理实践的处方,并发展更全面的观点。他们可以通过改变目前进行研究的方式来做到这一点,以便准确地分析和描述人工智能对管理实践的影响。现有的观点将自动化和增强之间的关系描述为一种权衡决策:试图使用人工智能的组织可以选择自动化任务或使用增强方法。如果他们选择自动化,人类将任务交给机器,很少或根本没有进一步的参与。目标是将人类排除在外,以实现更全面、合理和高效的处理。相比之下,增强意味着人与机器之间持续密切的互动。这种方法允许用人类的独特能力来补充机器的能力,比如他们的直觉和常识推理。任务的性质决定了组织是选择一种方法还是另一种方法。相对常规和结构良好的任务可以自动化,而更复杂和模糊的任务不能自动化,但可以通过增强来解决。然而,悖论理论认为这种狭隘的权衡观点并不能充分代表现实(Smith & Lewis, 2011)。悖论视角可以帮助提高分析的规模或水平,以获得更系统的视角(Schad & Bansal, 2018),这使组织不仅可以感知矛盾,还可以感知自动化和增强之间的相互依赖关系。一个更全面的悖论视角取代了传统的权衡视角(非此即彼)。自动化和增强是相互矛盾的,因为组织在特定的时间点上选择其中一种方法来处理给定的任务。这种选择创造了一种张力,因为这些AI方法依赖于不同组织的竞争逻辑。一、增加时间尺度悖论的过程观揭示了对立力量之间的周期性关系。与紧张局势的一方接触可能为另一方的存在奠定基础,甚至创造必要的条件;此外,随着时间的推移,对立力量之间往往存在相互影响,从一方摇摆到另一方(Poole & van de Ven, 1989)。将时间尺度从一个时间点提升到随时间推移的过程,可以探索自动化和增强之间的周期性关系。在管理任务中使用人工智能的过程始于在自动化和增强之间做出选择。处理结构良好的日常任务(如填写发票或费用报销)的组织可以选择自动化。他们可以通过利用编纂的领域专业知识,以算法的形式将规则编程到系统中,指定条件(“如果”)和结果(“然后”)之间的关系(Gillespie, 2014)。这种基于规则的自动化需要明确声明的领域模型,以优化所选择的效用函数,有了明确的规则,管理者就可以把任务交给机器。因此,增强是一个共同进化的过程,在这个过程中,人类向机器学习,机器也向人类学习。在这个迭代过程中,管理人员和机器相互作用,学习新的规则或创建模型,并随着时间的推移改进它们。人类参与的类型和程度因具体的机器学习解决方案而异。随着时间的推移,这种与机器的密切合作有时允许管理人员识别规则和/或模型,这些规则和/或模型要么优化效用函数,要么足够接近于实际有用的最佳解决方案如果这些模型足够健壮,就可以随后使用它们来自动执行任务。管理人员被“排除在循环之外”,这使他们能够专注于要求更高、更有价值的任务。因此,增强学习旨在提高自动化水平,用提高准确性、效率和/或有效性的自动化过程取代耗时的人类活动。因此,随着时间的推移,增强可以实现向自动化的过渡。二、增加空间尺度悖论理论不仅探讨了时间上的紧张关系,还探讨了空间上的紧张关系。矛盾的张力嵌套并交织在多个层次的分析中(Andriopoulos & Lewis, 2009)。因此,在一个分析层面上解决紧张局势可能只是在另一个层面上再现紧张局势(Smith & Lewis, 2011)。将我们的注意力集中在使用一种(即自动化)或另一种(即增强)解决方案上,为特定任务设置人工边界,培养区别,并助长对立(Smith & Tracey, 2016)。然而,在实践中,管理任务很少是孤立发生的,而通常是嵌入在一个管理过程中。构成这一过程的各种任务之间存在相互依赖关系。这些相互依赖关系导致在一个任务中的管理干预在整个过程中产生连锁反应。如果组织将迄今为止为人类保留的任务自动化,这种变化可能会影响其他密切相关的人工任务,并导致管理人员开始与机器交互。这种交互通常是迭代的,导致相邻任务的增加。三、紧张的持续悖论是指相互依赖的元素之间的紧张关系,但这种紧张关系只有在持续一段时间后才被认为是矛盾的(Schad et al, 2016)。我们认为,相互依赖的自动化和增强任务的共存将持续存在于管理领域。有时,由机器学习应用驱动的高度可见的进步被误解和推断为我们正处于向人工通用智能迈进的门槛上。然而,我们实际上离机器完全超越人类智能还很远。技术和社会的限制使复杂的管理过程在可预见的将来不可能完全自动化。因此,管理人员将继续参与这些过程,并在广泛的任务中与机器互动。管理任务的扩大可能使其后续自动化。这种自动化反过来又会进一步增加密切相关的管理任务。虽然这些动态可能促进越来越多的扩充和自动化,但技术和社会限制阻碍了组织管理任务的完全自动化。对于以高度模糊性、复杂性和罕见事件为特征的管理任务环境尤其如此,这限制了确定性方法的适用性(Davis & Marcus, 2015)。在这样的上下文中,自动化和增强提供了不同的、部分冲突的、但也是互补的逻辑和组织所需的功能。
最近的技术进步使人工智能的紧张关系对组织来说变得突出。面对这种突出的紧张关系的组织倾向于应用管理策略来解决它。根据悖论理论,这些组织反应推动了强化循环,可以是消极的,也可以是积极的(Smith & Lewis, 2011)。如果组织没有意识到紧张关系的矛盾本质,他们可能会采取片面的策略,从而导致恶性循环,加剧紧张关系。相反,接受矛盾的紧张关系并关注其竞争需求的组织可以实现良性循环(Schad et al, 2016)。一、恶性循环组织可能会优先考虑自动化,因为它承诺短期成本效率。这种策略迫使组织的竞争对手也追求自动化,以保持成本竞争力。因此,整个行业可能“进入(…)一场朝着零利润商品化工作现实的竞赛”。随着时间的推移,这些组织失去了改变其流程所需的人力技能(Endsley & Kiris, 1995)。专业知识和锁定效应共同推动了一个强化循环,这使得组织实施此类搜索活动变得越来越困难。相反,专注于增强。与自动化相反,增强技术需要持续的人类参与和实验(Amershi et al, 2014)。由于情绪和其他主观因素影响人类,增强是很难甚至不可能复制的,这意味着每一次增强举措都是一次新的学习努力(Holzinger, 2016)。由于其固有的复杂性和不确定性,增强努力经常失败。此外,人类的持续参与意味着人类偏见的持续存在,这意味着增强结果永远不会完全一致、可靠或持久(Huang, Hsu, & Ku, 2012)。为了使他们的大规模扩增投资合法化,经历失败的组织可能会进一步加强他们的扩增努力,这可能会使他们的承诺升级(Sabherwal & Jeyaraj, 2015;Staw, 1981),失败导致持续的扩张,进而导致持续的失败。二、良性循环悖论理论通过设想一个良性循环,为紧张局势提供了一个更具建设性的回应,组织克服了他们的防御,接受了这些紧张局势,并将其视为一个机会,找到容纳和超越对立两极的协同作用(Schad et al, 2016)。过渡到更包容的悖论视角需要认知和行为的复杂性。激发具有不同视角的组织参与者(如数据科学家和业务经理)之间的交流,可能会对这一现象产生更复杂的理解。一旦参与者接受自动化和增强可以并且应该共存,他们就可以谨慎地探索它们之间的动态关系,这可能是他们组织关于在管理中使用AI的愿景或指导原则的一部分。差异化允许组织认识和欣赏自动化和增强的独特好处,并分别利用它们。组织可以有目的地在不同的自动化和增强任务之间进行迭代,允许与这两种力量长期接触。虽然这种差异化允许参与自动化和增强,但整合能够找到超越两极的联系。通过切换,机器的独立输出可以用来挑战人类的直觉和判断,人类的反馈可以进行进一步的机器分析(Hoc, 2001)。在这些过渡点上,自动化和增强变得相互支持。这两种人工智能方法的并并列刺激了学习并培养了适应性,允许(机器)理性和(人类)直觉的结合,从而实现更全面的信息处理和更好的决策。通过集成,自动化和增强可以共同生成任何应用程序都无法单独实现的结果。悖论理论表明,通过接受和解决的动态策略来管理紧张关系可以促进可持续性(Smith & Lewis, 2011)。通过管理悖论,组织可以促进学习和创造力,促进灵活性和依赖性,并释放人的潜力。然而,悖论学者也承认,组织对紧张关系的一个极点的狭隘关注可能会引发意想不到的组织和社会后果(Schad & Bansal, 2018)。因此,我们通过评估其组织和社会结果来总结我们对自动化增强悖论的分析。一、组织的结果互补的人和机器技能的结合将提高组织学习的质量、速度和程度。专注于自动化或增强都可能导致强化周期,从而损害长期绩效。我们建议,如果组织能够区分并集成自动化和增强,那么它们将从中受益。差异化使组织能够从人工智能应用程序的独特优势中受益。自动化使组织能够提高成本效率,建立更快的过程,并确保更大的信息处理合理性和一致性。如前所述,增强提供了由人类和机器技能的相互增强而产生的互补效益。自动化和增强的集成可以从这些相互依赖的活动之间的协同作用中获得额外的好处。自动化可以为扩展释放稀缺的资源,这反过来又可以帮助确定启用自动化的规则和/或模型。二、社会的结果悖论嵌入在开放系统中,其影响超出了单个组织的边界。因此,采用更系统的悖论视角是很重要的,它不仅考虑了组织结果,还考虑了紧张关系及其管理的更大、全系统或社会影响(Schad & Bansal, 2018)。首先,片面关注自动化可能会导致大量失业,并导致将任务交给机器的管理人员的技能下降,这可能会导致失业率上升和社会不平等的进一步风险。相反,片面的增强可能会造成另一种“数字鸿沟”(Norris, 2001),目前拥有增强能力和资源的少数人与不具备增强能力和资源的人之间会产生社会紧张关系。然而,平衡自动化和人工智能可以实现选择性去技能化(即,人类卸下能力不如机器的任务)和战略性再认证(即,人类在核心能力上领先于机器)的良性循环,从而逐步提高人类和机器的能力。这种良性循环可以帮助组织减少数字化转型对员工和劳动力市场的负面影响。其次,在管理中使用人工智能也可能对社会平等和公平产生影响。自动化让人类“脱离了循环”,减少了人类的偏见,反过来,承诺了更大的平等和公平。然而,现实世界的应用表明,由嘈杂的数据、统计错误和/或社会烦恼的预测者引起的机器偏差通常会导致新的、甚至更系统的歧视。
来源:AMR
作者:Sebastian Raisch and Sebastian Krakowski