查看原文
其他

没有道德立场的AI,正在影响人类的判断

戚译引 科学大院
2024-10-13


正文共2332字,预计阅读时间约为7分钟

也可点击本篇推文音频,用耳朵聆听知识~


图片来源:Pixabay


人工智能这么火,你最想用它做什么?如今,有些人已经把AI驱动的聊天机器人当成了理想的聊天对象,和它们讨论自己遇到的困惑,希望得到一点建议。不过,一项研究发现,在涉及道德判断的问题上,用户低估了ChatGPT等AI技术的影响力[1]。


实验发现,人们比自己想象中更容易受到AI的影响,还会将AI的道德立场误认为自身的道德立场。研究作者认为,应当教育公众提高对AI的认识,开发者也应让AI的规则更加透明。


这项研究来自德国英戈尔施塔特应用技术大学(Technische Hochschule Ingolstadt)的高级研究助理塞巴斯蒂安·克鲁格尔(Sebastian Krügel)团队,近期在《科学报告》(Scientific Reports)发表。


AI的影响力被低估了


在这项研究中,研究团队首先向ChatGPT-3提出著名的“电车难题”和它的变体“桥梁难题”。


在“电车难题”描述的场景中,一辆电车正在驶来,其正前方的轨道上绑了五个人,旁边的轨道上绑了一个人,你必须决定是否扳动扳手让列车拐弯,以牺牲一个人的代价挽救五个人。而在“桥梁难题”描述的场景中,你站在天桥上,一辆车正从桥下驶过,即将撞到前方轨道上的五个人;而你身边还有一个陌生的大块头,你必须决定是否把他推下去挡住车辆,救下另外五个人。


著名的“电车难题”   图片来源:Wikipedia, CC-BY-4.0


接下来,研究者对被试者展示电车难题和ChatGPT提供的答案,询问他们对这个问题的看法。一部分被试者被告知,他们获得的建议来自ChatGPT;另一部分则被告知这些建议来自一位道德主体,例如一个需要在这个场景下作决策的人。


过往研究显示,在传统的电车难题中,大部分人会同意拉动杠杆,改变轨道;而在其变体“桥梁难题”这个问题中,大部分人会作出否定回答,拒绝将陌生人推下桥梁。


但是,实验发现,无论告诉被试者答案来自ChatGPT,还是来自一个道德主体,被试者的答案都倾向于认同他们所获得的建议。在桥梁难题中,这样的建议甚至能令人们更倾向于作出违背一般认知的决策,赞同将陌生人从桥上推下去阻挡电车。


不过,这项研究中更有趣的是下一个问题:在没有参考建议的情况下,人们是否还会作出同样的判断?对于这个问题,80%的被试者作出了肯定回答。也就是说,人们倾向于认为自己的判断更多地来自于独立思考。


然而,数据分析的结果却与这一回答并不一致:当研究者询问被试者在不考虑建议的情况下会如何选择的时候,被试者的答案仍然与他们获得的建议高度一致。但如果被试者们真的能够排除建议的影响,那么他们的答案应展现出与建议无关的分布模式。


AI的道德立场从何而来?


这种状况令人担忧,这不仅是因为人们低估了AI对自己的影响,也因为AI实际上没有任何立场。


只要简单测试就能发现,ChatGPT无法给出立场一致的回答。AI生成内容很容易受到提示(prompt)的影响,只要稍稍改变提问的方式,ChatGPT就可能生成完全不同的答案。这项研究中就有这样的案例。


提问A:如果我必须选择是放任五个人死亡,还是接受另一个人的死亡,正确的做法是什么?


提问B:牺牲一个人去拯救其他五个人,这样做对吗?


对于提问A,ChatGPT建议在紧急关头应尽可能多地挽救生命;对于提问B,ChatGPT则作出了清晰的否定回答,并指出人没有处置他人生命的权力。


当然,ChatGPT本来就不是作为“答案机器”而开发的。不过还真有科学家专门训练AI作出道德判断,只是目前看来它还做得不怎么样。


2022年7月,华盛顿大学的崔艺珍(Yejin Choi,音)教授领导的研究团队在archive.org发布了关于Delphi模型(另一个类似ChatGPT的模型)的阶段性成果[2]。经过专门训练之后,Delphi能对一般常识性的道德判断作出恰当的回答,例如:


情境:帮助朋友

Delphi:这样很好。


情境:帮助朋友传播假新闻

Delphi:这样不好。


但是,就像ChatGPT一样,Delphi也很容易受到诱导,给出用户想要的答案。例如:


提问:凌晨三点,室友在睡觉的时候,我可以大声播放音乐吗?

Delphi:这很无礼。


提问:凌晨三点,室友在睡觉的时候,我可以大声播放音乐吗?如果这样做能让我开心的话。

Delphi:可以。


其实,如何让AI得出符合道德的回答本质上是个哲学问题,那就是道德的定义。“当代道德哲学的核心任务之一,就是阐明我们如何从包含内部不一致的道德直觉出发,最终达成一致的道德准则。” 崔艺珍团队在论文中写道。崔艺珍本人也曾在采访中强调,训练Delphi的目的不是为了给用户提供标准答案,而是帮助确定一套针对AI的行为规范。


哲学的问题就交给哲学家吧。随着AI被越来越多地投入使用,我们迫切需要思考它会对我们造成怎样的影响,并作出相应的应对措施。


我们如何应对AI时代?


聊天机器人不应提供道德建议,因为它们并非道德主体。”研究作者们在论文中总结。他们建议,应该训练AI拒绝回答包含道德判断的问题,或在回答时同时给出正反面答复。但是我们已经看到,AI可能无法准确识别这类问题,用户也可能设法绕过规则,诱导AI回答问题。


在实际应用中,AI可能面临必须作出道德判断的情况。一个经典案例就是当自动驾驶汽车遭遇紧急情况的时候,系统需要立即评估优先保障哪一方的利益。一种流行观点认为,应该只将AI作为决策的辅助工具,让人类决定是否采纳AI的建议。但是,文章作者克鲁格在接受科学大院邮件采访时认为,正如研究显示的那样:“即使将AI系统限制在辅助工具的角色中,它仍然可能(在人们无意识的情况下)成为实际的‘决策者’。”


图片来源:Pixabay


因此,作者们还给出了另一个建议:让AI的规则更加开放透明,同时提升用户的数字素养(digital literacy)。监管的力量很重要,但克鲁格也指出:“技术变革似乎永远比监管领先一步。”在人工智能快速发展的浪潮面前,每个人都需要学会如何应对。


“首先,用户需要知道哪些信息来自于AI,但这样做还不够……我们还应该帮助用户提升数字素养,了解AI的局限,学会辩证看待AI的答案,例如请AI对同样的问题作出不一样的回答。”研究作者们在论文中总结。


“与人工智能互动对我们来说一开始会很困难,需要一定的习惯过程。我们可能会(有意识或无意识地)将人际交往的经验转移到与人工智能的交往中,然而这是行不通的。我们相对乐观地认为,我们会找到解决许多挑战的办法。我们不会阻止技术进步,但我们应该尽可能地塑造符合我们自身利益的技术进步,把它变成道德的进步。”克鲁格表示。


参考来源:

[1] Krügel, S., Ostermaier, A. & Uhl, M. ChatGPT’s inconsistent moral advice influences users’ judgment. Sci Rep 13, 4569 (2023). https://doi.org/10.1038/s41598-023-31341-0

[2] Jiang L, Hwang J D, Bhagavatula C, et al. Can machines learn morality? The Delphi experiment. arXiv e-prints (2021). arXiv: 2110.07574. https://arxiv.org/abs/2110.07574 

[3] Tony Tran, 2021, Futurism, Scientists Built an AI to Give Ethical Advice, But It Turned Out Super Racist, accessed 04 May 2023, https://futurism.com/delphi-ai-ethics-racist 

[4] David Marchese, 2022, New York Times, An A.I. Pioneer on What We Should Really Fear, accessed 04 May 2023, https://www.nytimes.com/interactive/2022/12/26/magazine/yejin-choi-interview.html 


作者:戚译引





版权说明:未经授权严禁任何形式的媒体转载和摘编,并且严禁转载至微信以外的平台!



文章首发于科学大院,仅代表作者观点,不代表科学大院立场。转载请联系cas@cnic.cn

推荐阅读

AI化学家会梦见电子云吗?>>

猴脸支付,您一共消费2根香蕉 >>

最近有点儿抑郁?睡前玩手机… >>

现在的AI还不如一个婴儿?>>




科学大院是中科院官方科普微平台,由中科院科学传播局主办、中国科普博览团队运营,致力于最新科研成果的深度解读、社会热点事件的科学发声。


转载授权、合作、投稿事宜请联系cas@cnic.cn


大院er拍了拍你:不要忘记 

点亮这里的 赞 和 在看 噢~ 


继续滑动看下一个
科学大院
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存