用 AI 来打绩效能解决公平问题吗?
临近年底,各家公司又在评年度绩效了。
一个用研群里的同行在抱怨自己被打了低绩效,觉得领导不公平,自己干的活儿最多,结果绩效最低。
由上级来评绩效,难免出现公平性的问题。所以现在很多公司都使用 360 度评估来综合评价一个人的绩效。对于 leader 来说,需要接受上级和下级的共同评估。而对于一线同学来说,则要接受同级同事的评估。
但在笔者待过的公司而言,这些360度评估,也基本沦为形式。最明显的,360度评估的结果在多大程度上会影响你的绩效就没有定论,很多时候评了就是评了,并不会影响最后的结果。
什么手段更加公平呢?
自然是让机器来评更公平。至少被评价的员工自己会这么认为。
一篇最近发表(2023年12月11日)在管理学顶刊《Journal of Management Information Systems》上的论文发现,员工认为AI在评估他们的绩效方面比一般的人类经理更公平、更准确。
面对AI的竞争,人类管理者在对待员工时更加公平以及与员工建立积极的人际关系变得尤为重要。
研究者们在一家名为 Delta Corp 的金融科技公司进行了实验,该公司有 654 名员工负责通过电话向个人借款人收取逾期的 P2P 贷款。实验分为三个阶段:
1. 实验前的准备阶段:
• 196 名员工被随机分配给AI进行绩效评估,而剩下的员工则被随机分配给公司的五名人类管理者。
• 所有员工被告知实验内容和他们的分组情况。
• 进行了简短的调查,询问员工对即将进行的评估的准确性和公正性的预期。
2. 实验实施阶段:
• 在 AI 实施的第一个月,员工的电话被随机抽样并传递给他们分配的管理者或AI进行绩效评估和反馈。
• 为了确保每个员工的电话被均匀抽样,一个月被分为十个三日窗口,每个窗口内每个员工的10个电话被抽样。
• AI 使用音频分析技术对电话进行评估,而管理者则需要亲自听取每个电话并提供反馈。
• 每天,员工会收到前一天三日窗口内电话的评估反馈。
3.实验后的调查阶段:
• 实验结束后,对所有员工进行了简短的调查,询问他们对评估的准确性和公正性的感受。
• 同时,收集了所有员工在实验期间的电话录音,以便分析AI和人类管理者评估的差异。
研究结果表明:
• 员工对AI和人类管理者的感知:员工认为AI的评估比人类管理者更准确(H1a)和更公平(H2a)。
• 绩效比较:
• 被AI评估的员工的日均收款金额高于被人类管理者评估的员工,这一差异在统计上是显著的(H1b)。
• 员工对人类管理者评估的准确性和公正性的感知影响了他们的绩效。特别是,员工认为管理者更公正时,他们的绩效更接近于被AI评估的员工(H2b)。
• 公正性与准确性的相对重要性:员工对人类管理者公正性的感知在缩小与AI评估员工绩效差距方面比评估的准确性更重要(H3)。
• 公正性作为调节变量:员工对人类管理者评估的准确性的影响仅在管理者被认为具有高度公正性时才显著(H4)。
此外,研究还探讨了AI和人类管理者评估对员工行为的影响机制。通过全中介分析,研究者发现AI和人类管理者在反馈内容上的差异(广度和深度)影响了员工对反馈的感知,进而影响了员工的工作行为和生产力。研究还发现,被AI评估的员工在电话中犯的错误更少,这表明他们的生产力得到了提高。
虽然这个实验中的任务可能过于简单或者结构化,跟大部分知识型员工的工作不一样,但在理论上他证明了员工会认为 AI 评绩效会更加公平。
在一些公司的一些岗位,员工的工作成果都是具体可查的,虽然不能像计件工资那样量化,但也都是有形的文档、报告、成果等,基于一定的标准,AI 都可以进行分析。这些都保证了 AI 评估的可能性。
但另一方面,组织在引入AI技术时,也要考虑到员工对公正性的期望。确保AI系统的透明度和可解释性可以帮助员工理解和接受AI的评估结果,从而减少对新技术的抵触情绪。
从这个研究也可以看出,公正性在组织文化中基本处于核心地位。组织可以通过强化公正的价值观,来提高员工的满意度和忠诚度,同时促进AI技术的顺利融入。
AI 在组织中的应用,不仅在于提高员工的工作效率,增强工作成果,还能在工作效果的评估上发挥作用。真到了那一天,不知道人类和 AI 的关系又会发展到什么程度。