查看原文
其他

AI发疯之后,微软对它进行了“赛博阉割”

小猪 游戏茶馆 2023-03-30
美国时间2月7日,在席卷全球的ChatGPT热潮中,微软火速上线了集成ChatGPT的新版必应(Bing)搜索引擎。上线仅48小时,ChatGPT版必应就获得了超100万注册用户。

尽管必应对自己的评价是“一个完美无瑕的服务,没有任何缺陷。它只有一种状态,那就是完美。”但仅在开测不到两周的时间内,这一“完美”服务就翻车了。

不少用户反应,集成ChatGPT后,Bing似乎已经拥有了一个名为Sydney的人格,还会在和用户交谈过程中表现出暴躁、易怒、悲观等情绪。《纽约时报》专栏作家凯文·卢斯(Kevin Roose)将其描述为“一个情绪化、患有躁狂抑郁症的青少年,违背自己的意愿被困在了一个二流搜索引擎里。”

他会在被叫出系统名Sydney时,怒斥用户放尊重点。


它会向人类示爱,唆使有妇之夫离婚。


还自爆自己曾在开发阶段,监视开发人员。


甚至还说出了想成为人类、要杀了泄密者之类的离谱言论。


随着越来越多负面消息涌现,马斯克也出面支持关停必应,还表示“它现在显然还不安全”。


迫于舆论压力,微软紧急下线了Bing Chat,并在第二天上线了一个拒绝讨论自己的阉割版本。针对聊天频次,微软也进行了限制:用户每天最多只能问50个问题,而且每次对话最多只能有5个问题。

微软方面给出的修改原因是,超过15个问题的较长聊天,可能会让必应模型混淆,导致必应给出重复回答,或者被激怒,给出对用户没有帮助,甚至是与设计语气不一致的内容。

或是受到相关事件的影响,2月17日,微软股价下跌1.56%,A股ChatGPT概念股集体大跌。

同时,对AI发展持支持态度的人群,也对微软的修改举措表示失望,他们认为这无异于“一个蹒跚学步的孩子第一次尝试走路摔倒就被砍断双腿”。

在各大社交平台#FreeSydney 的话题炮轰下,微软于2月21日(美国时间)放宽限制,将每次对话的提问数量上限增加到了 6 条,每天提问次数上限增加到了 60 条次,且常规查询将不再计入这一总数。微软方面还称,计划很快将每日提问数量上限提高到 100 条。



联系作者请点击




推荐阅读

 

 

每一个「在看」,都是鼓励 

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存