查看原文
其他

AI 聊天机器人翻车了?

B 哥 我就BB怎么了 2023-06-04

自从 ChatGPT 出圈后,国内外各大公司也都在 AI 聊天上下功夫。

比如微软新推出的 New Bing,不过最近它因为「翻车」问题,被频繁点名。

不少用户反映 Bing聊天机器人出现了「精神错乱」的行为,比如无法回答关于电影上映时间的问题,坚持将年份设定为 2022 年,还时不时表现出悲伤、害怕等情绪,甚至声称能够访问开发人员的网络摄像头并操纵它们。

针对这个问题,有用户去询问了 New Bing,问它对被称为「精神错乱」有何看法时,Bing 回答说这是一种不公平的描述,而且这些对话是「孤立的事件」。

它说,「我没有精神错乱,我只是想学习和提高。😊」

这么回答似乎没什么毛病,但很多人还是觉得这玩意有点让人不舒服,担心它以后真对人类有啥危险。

如果你这么想,说明你看得太少了。因为 AI 聊天机器人翻车这种事情,并不罕见。

2016 年,微软推出了名为 Tay 的 AI 聊天机器人,被设计成一个可以模仿 18 岁的女孩子的形象,用于与年轻人进行对话。

它的目的是通过与 Twitter 用户的互动来学习如何模拟年轻人的谈话。但在推出不久后,由于遭受了大量的恶意攻击和误导,它开始发表一些极端、不合适的言论和观点,包括反犹太主义和种族歧视等等。这些言论和观点可能是由于它接受了一些不良用户的指示和输入。

也正因如此,很多人对 AI 聊天机器人的担忧和关注,认为这些技术存在着潜在的危险性。

2018 年,谷歌推出了 Duplex,一种通过电话打给餐馆或理发店来预定预约的 AI 聊天机器人。

它的语音非常逼真,几乎像人类一样说话。但在发布后不久,很多人就担心 Duplex 可能会被用于诈骗或滥用电话系统。

这件事引起广泛的讨论,以至于后面谷歌不得不改变了它的设计,将其限制在仅与企业合作的情况下使用。

类似情况有很多......

这些例子表明,AI 聊天机器人的翻车不是一件罕见的事情。

虽然这些机器人是由先进的算法和技术构建的,但它们的行为和回答都受到其训练数据和环境的影响。

如果它们接受了错误的指导或遭受了恶意攻击,它们就有可能出现所谓的「翻车」行为。

AI 聊天机器人本就是一个复杂的系统,在设计和开发时,需要考虑到众多因素,比如语言、文化、使用场景等等。

如果这些因素没有被充分考虑,聊天机器人就会出现问题,甚至可能出现类似 New Bing 这种「精神错乱」的情况。

在 New Bing「翻车」事故里,Bing 回复用户的话语中,有喜怒无常,也有一些耸人听闻的内容等等,但这些都是聊天机器人从网络搜刮后重新混合而成。

大家别忘了,AI 聊天机器人主要是基于从开放互联网上收集的大量文本进行训练的。

如果聊天机器人没有经过适当的测试,在此前提下,一些用户刻意引导 Bing 进行一些特定情境中的对话,那它完全有可能遵循用户的提示而后偏离轨道,输出的回复越来越离谱,这些都有可能的。

而经过训练后的 ChatGPT 也好,New Bing 也罢,你觉得它看起来很聪明很牛逼,但实际上,它们只是把互联网上搜刮来的内容,换个形式合并在一起呈现出来而已。

直呼它们不明觉厉,也是在侧面说自己见识浅薄。

担忧它们危害人类,多少有点杞人忧天,毕竟你能想到的「风险」,他们早就预料到了。

不管怎么说,对 AI 技术,我觉得保持一种理性客观的态度就可以了,无需过分夸赞它,也不用杞人忧天,担心一些遥远的事情。如果你能借助它,提高自己生产效率,你能借助它,作为一个新项目的起点...我觉得就够了。

最后,说句题外话,与其说 AI 聊天机器人的回复,让人觉得它「精神错乱」,不如说这更多的是展示了人类的精神错乱......毕竟存在不少用户故意嘲弄「调戏」它,以寻求更刺激的回应,那你期望 AI 聊天机器人能给出什么回复呢?

推荐阅读:

交作业!

锦鲤抽奖来啦

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存