AI界面并非越“傻瓜”越好,人机协作走向“新常态”
Sora横空出世、ChatGPT不断迭代、世界上第一位AI程序员诞生……人类与AI的协作正在成为学术界关注的重点。面对人工智能,我们所期待的“智”究竟是什么?其与人类的“智”如何合作?
本期“智见AI”,小管邀请信息管理与商业智能系卢向华老师针对AI系统的拟人化发展、AI信息披露对人机协作的影响等问题,探讨AI界面设计在适应人机协作进入常态化后的未来发展新模式。
卢向华
信息管理与商业智能系教授、博士生导师
研究方向:互联网创新运营、大数据分析、企业信息化等
1
“AI提建议,人类做判断”
是更常态的协作模式?
随着AI能力不断提升,我们人类与之共同完成的任务也越来越多。例如,我们严重依赖导航系统进行智能路线规划;快递打包人员依赖AI选择最优的纸箱尺寸;金融机构需要AI评估申请人的潜在风险以降低坏账率;同时,AI还协助医生读取医学CT影像,帮助发现人类可能忽视的问题。
在这种协作模式中,AI提供建议,但最终任务的完成仍需要人类介入。这种互补模式已成为当前人机协同的“常态”。
然而在这一“常态化”过程中,也出现一系列复杂的、“非常态”的管理挑战。
以AI辅助影像读片系统为例。上图两种AI界面,你认为哪种更好?
乍一看,似乎左侧的AI界面更好,它直接标志出高危、低危,让医生判断更轻松,减少犯错的可能性。相比之下,右侧的界面只提供了各种检查结果和数据,需要医生根据经验再进行判断。
然而,左侧的界面也引发了一些问题。医生可能会更依赖系统提出的结论,而不再投入足够的精力去研究、分析和判断每个片子,可能导致医生的专业能力下降。同时,医生也可能受AI系统建议的影响,作出不正确的判断。
因此,虽然左侧的界面能提高执行效率,但也伴随着误导性风险,不见得一定能提高人机协作的效果。
这种新问题在人机协作中屡见不鲜。
随着人与AI的协作进入常态化阶段,我们需要重新思考和研究提升二者协作效果的新方法。
2
哪种AI界面设计是更优解?
从AI系统本身的交互界面设计出发,我们人类更偏好何种样式的AI系统进行协作?什么样的AI界面设计,人机协作效果更好?
AI系统从类型上可分为服务助力型、分析预测型、决策支持型、整合管理型,以及目前流行的AIGC生成创造型。这些系统对人类的价值不同,有的作为服务工具,如各类智能服务机器人;有的则是作为竞争对手,例如基于AI图像识别的质检系统,几乎完全替代了质检人员;还有一些是合作伙伴,比如刚刚提到的AI智能读片系统。此外,还有一种AI作为管理者来指挥监督人类的应用,例如AI排班派单系统和AI绩效考核系统。
不同类型的AI应用在与人类的协作方式上可能存在差异,但无论哪种AI应用,它们的交互界面设计都会在很大程度上影响人与它们协作的倾向。
我将从AI系统最常被研究的三类交互设计入手进行讨论,分别是拟人化、AI系统的信息披露程度以及AI系统界面设计的易用性,讨论AI交互界面设计因素如何影响用户的协作态度,进而影响整体协作效果。
首先,关于AI拟人化的程度。
我们都知道,AI在一定程度上是对人类智能的模拟和延伸,因此,我们在设计AI系统时本能地在外形、情感表达和社交能力等方面努力提高其与人类的相似程度,借此希望用户更喜欢、更接受AI系统。
这种期望建立在“相似吸引理论”基础上,该理论认为用户对和自己相似的人印象更好。因此,如果AI系统的拟人化程度越高,用户感知的相似度就会越高,从而对AI的接受度也会更高。
然而,另外两个理论却得出不同的结论。其中著名的“恐怖谷”效应认为,随着AI拟人化程度的提高,用户对AI的好感度会呈现一个先上升、后下降的趋势。
就像图中所示,在AI与人的相似度超过70%、80%之后,人类可能会产生一种恐怖心理,从而对AI产生抵制。另外一个“期望确认”理论也表明,AI拟人化程度越高,用户的期望会越高,也越容易失望。因此,从这个角度来看,并不一定是拟人化程度越高,人机合作的效果就越好。
曾有一项研究对电商聊天机器人的拟人化程度进行分析,以探讨不同程度的拟人化对电商销售转换率,以及用户对报价敏感度的影响。该研究发现,当客服机器人表现得更像人类,例如在沟通过程中讲个笑话,消费者会更愿意与机器人互动,从而提高了购买意愿。然而,与此同时,消费者也会感到AI不再那么客观公正,担心AI可能像人一样表现出机会主义行为,例如为不同的消费者提供不同的折扣。
在这种情况下,机器人提供促销信息或折扣信息时,人类对于这些信息可能不再那么敏感。这个例子表明,AI的拟人化设计不必过于追求完美,因为过于完美的AI反而可能削弱用户的合作意愿。
3
AI信息披露需适度“透明”
除了拟人化程度外,另一个备受关注的方面是AI系统的信息披露程度设计。
通常认为,增加AI系统的透明度有助于用户理解AI的工作规则,降低用户对AI的不信任感,减少因AI算法黑箱而带来的负面影响。学术界因此提出了“可解释的AI”等新的技术要求,即要求AI以回顾性方式提供有关系统行动、建议的逻辑过程因素或推理信息等,以提高人类对AI的信任度。
然而,AI的信息披露程度也不是越高越好。一项研究发现,如果向候选人透露AI对其的评分,那些被AI打了低分的员工可能会产生一种“锚定”效应,即一种“破罐子破摔”的情绪,认为既然AI给了我这么低的分,就不用再继续努力了。而当管理者忽视算法打的低分,仍然给予候选人晋升机会时,候选人可能会投机地认为,管理者对AI评分也没有那么看重,因此也会继续放弃努力,导致绩效无法提升。
作者将这种现象称之为“道德避难式”效应,即人们会觉得是AI引导他们这么做,而不是他们自己选择这么做。从这个角度看,过度实施可解释性或透明度也可能带来一些负面效果。
最近我们团队进行了一项关于智能审计信息披露的研究,发现通过审计案例、审计材料的发放以及审计规则的披露等方式,增加员工对审计算法透明度的感知,可以明显降低员工在应对智能审计时的不安全感,提高他们的工作创新意愿。
然而,过于透明的审计规则也会引发员工的防御倾向。好的一方面是,防御倾向的增强增强了员工的合规意识,但不好的一方面是,员工了解的审计规则太多,与之前的“不知者不罪”相比,他们不敢轻易尝试新的做法,从而减少了主动创新的意愿。因此,透明度的增加需要适度,不能过于广泛或不加区别,过高的信息披露可能导致员工产生推卸责任的负面效果。
4
AI界面并非越“傻瓜”越好
除拟人化和信息披露程度外,AI系统界面设计的易用性也是我们团队最近关注的方向之一,我们想要回答一个问题,即AI系统界面是否越简单易用越好。
我们的研究场景选择了金融系统中的AI风险评估系统。在这个场景中,AI评估系统首先对贷款申请人进行打分,然后信审员基于AI打分,再结合自己对资料的审核,最终作出是否批准贷款的决策。该金融机构原先对贷款申请人采用一到五分的等级评分制。系统优化后,在界面上加入了“最好”和“最差”两段文字提示,让AI结果的导向更明确。
这种信息明确性的增加在理论上会带来两种效应。好的一面是,这种方式降低了用户的认知负担,并减少了错误理解的可能性,从而加快决策速度,减少决策误差。然而,当信息导向过于明确时,用户可能会不假思索地接受AI的建议,而不愿意主动思考。这将影响用户在整个评审过程中贡献应有的智慧,从而对最终决策结果的可靠性产生负面影响。
我们搜集了数据,对系统界面变化前后信审员的行为进行分析。结果显示,系统确实达到了企业期望的效果,信审员批准了更多高质量的申请人,拒绝了更多低质量的申请人,并且表中的红色部分显示他们的还款绩效有所改善,这是积极的方面。然而,在中间的黄色部分,即最需要评审员主动思考的中等质量申请人方面,信审员与对待高质量申请人一样,也批准了更多的贷款。
然而,仔细观察绩效数据发现,这部分中等质量申请人的还款绩效明显下降。这表明界面变化后,信审员出现了过于依赖AI的情况,没有在需要认真思考的贷款申请中投入足够的精力,导致这部分申请的决策失误增加。
因此,AI的界面设计并非越“傻瓜”越好。曾经有一个AI产品在广告中宣传自己用户友好,简单易用,快速上手。实际上,这种方向并不应被误导。如果AI系统过于简单易用、快速上手,往往也意味着在人和AI协作的过程中,人很容易成为AI的“傀儡”,失去了人应该贡献的价值。因此,企业需要通过引入适当的外部刺激,增加用户投入的独立思考,降低在人和AI协作过程中,人过于依从AI建议的现象。
关于AI将如何影响人类社会经济发展,小管推出“智见AI”专题系列,将继续邀请商务智能、平台创新、信息技术商业价值等领域的专家学者和业内资深人士,从产业应用、教育、科研等多角度、多领域分享前沿视角。
推荐阅读 Sora成为AI界新顶流,“U-AIGC”新概念或将出现当Sora让人类幻想更“真实”,未来的科幻会怎样大小模型协同,拥抱“千行百业”的应用场景
拥抱AIGC,“量体裁衣”驱动企业智能数字化
AIGC等新技术如何改变消费的场景与形式?AI赋能,每一个人都会成为“超级个体”
ChatGPT狂飙背后的危与机
众声喧哗时,我们看到了不一样的ChatGPT观察
整理 | 黄慧珠 傅文婧
编辑 | 徐玉茹
责编 | 仲蕊