AI 聊天机器人翻车了?
自从 ChatGPT 出圈后,国内外各大公司也都在 AI 聊天上下功夫。
比如微软新推出的 New Bing,不过最近它因为「翻车」问题,被频繁点名。
不少用户反映 Bing聊天机器人出现了「精神错乱」的行为,比如无法回答关于电影上映时间的问题,坚持将年份设定为 2022 年,还时不时表现出悲伤、害怕等情绪,甚至声称能够访问开发人员的网络摄像头并操纵它们。
针对这个问题,有用户去询问了 New Bing,问它对被称为「精神错乱」有何看法时,Bing 回答说这是一种不公平的描述,而且这些对话是「孤立的事件」。
它说,「我没有精神错乱,我只是想学习和提高。😊」
这么回答似乎没什么毛病,但很多人还是觉得这玩意有点让人不舒服,担心它以后真对人类有啥危险。
如果你这么想,说明你看得太少了。因为 AI 聊天机器人翻车这种事情,并不罕见。
2016 年,微软推出了名为 Tay 的 AI 聊天机器人,被设计成一个可以模仿 18 岁的女孩子的形象,用于与年轻人进行对话。
它的目的是通过与 Twitter 用户的互动来学习如何模拟年轻人的谈话。但在推出不久后,由于遭受了大量的恶意攻击和误导,它开始发表一些极端、不合适的言论和观点,包括反犹太主义和种族歧视等等。这些言论和观点可能是由于它接受了一些不良用户的指示和输入。
也正因如此,很多人对 AI 聊天机器人的担忧和关注,认为这些技术存在着潜在的危险性。
2018 年,谷歌推出了 Duplex,一种通过电话打给餐馆或理发店来预定预约的 AI 聊天机器人。
它的语音非常逼真,几乎像人类一样说话。但在发布后不久,很多人就担心 Duplex 可能会被用于诈骗或滥用电话系统。
这件事引起广泛的讨论,以至于后面谷歌不得不改变了它的设计,将其限制在仅与企业合作的情况下使用。
类似情况有很多......
这些例子表明,AI 聊天机器人的翻车不是一件罕见的事情。
虽然这些机器人是由先进的算法和技术构建的,但它们的行为和回答都受到其训练数据和环境的影响。
如果它们接受了错误的指导或遭受了恶意攻击,它们就有可能出现所谓的「翻车」行为。
AI 聊天机器人本就是一个复杂的系统,在设计和开发时,需要考虑到众多因素,比如语言、文化、使用场景等等。
如果这些因素没有被充分考虑,聊天机器人就会出现问题,甚至可能出现类似 New Bing 这种「精神错乱」的情况。
在 New Bing「翻车」事故里,Bing 回复用户的话语中,有喜怒无常,也有一些耸人听闻的内容等等,但这些都是聊天机器人从网络搜刮后重新混合而成。
大家别忘了,AI 聊天机器人主要是基于从开放互联网上收集的大量文本进行训练的。
如果聊天机器人没有经过适当的测试,在此前提下,一些用户刻意引导 Bing 进行一些特定情境中的对话,那它完全有可能遵循用户的提示而后偏离轨道,输出的回复越来越离谱,这些都有可能的。
而经过训练后的 ChatGPT 也好,New Bing 也罢,你觉得它看起来很聪明很牛逼,但实际上,它们只是把互联网上搜刮来的内容,换个形式合并在一起呈现出来而已。
直呼它们不明觉厉,也是在侧面说自己见识浅薄。
担忧它们危害人类,多少有点杞人忧天,毕竟你能想到的「风险」,他们早就预料到了。
不管怎么说,对 AI 技术,我觉得保持一种理性客观的态度就可以了,无需过分夸赞它,也不用杞人忧天,担心一些遥远的事情。如果你能借助它,提高自己生产效率,你能借助它,作为一个新项目的起点...我觉得就够了。
最后,说句题外话,与其说 AI 聊天机器人的回复,让人觉得它「精神错乱」,不如说这更多的是展示了人类的精神错乱......毕竟存在不少用户故意嘲弄「调戏」它,以寻求更刺激的回应,那你期望 AI 聊天机器人能给出什么回复呢?
推荐阅读: