谷歌大翻车,马斯克接连怒喷,皮查伊内部反思:这错误完全不可接受!
↓推荐关注↓
转自:CSDN(ID:CSDNnews)
在接连道歉之后,据 The Verge 报道,Google CEO 桑达尔·皮查伊最新在内部发了一封内部信,深刻地反思道:Gemini 应用程序给出具有种族问题的反馈,出现这样的问题是不可接受的,公司要进行结构性改变来解决这个问题。
前情:接连报错的 Google Gemini
几天前,有不少网友发现,Google Gemini 应用程序开始“发疯”,有时候文本答非所问,有时候无法准确地描绘出用户所要求的一些图像。
例如,当网友要求 Gemini 生成一张特斯拉 CEO 马斯克的图像时,意外地得到了这个:
又有人提出让 Gemini 生成美国开国元勋的图像时,Gemini 提供了非常不准确的 18 世纪领导人图像:
还有用户让 Google Gemini 生成一张北极熊图像时,得到了一头黑熊的图片:
几乎无一例外,Google Gemini 生成的图像似乎存在种族偏见问题。就连一位 Google 前员工也出来发帖称,“让 Google Gemini 承认白人的存在是非常困难的”。
随着越来越多的网友发现 Gemini 问题,Google 迅速成为众矢之的。
但是通过 Google 早几日发布的声明不难发现他们还没有意识到问题的严重性,彼时其说道,“我们正在努力立即改进这些描述。Gemini 的 Al 图像生成确实能生成各种各样的人。这通常是件好事,因为世界各地的人们都在使用它。”
这样的道歉不但没有获得用户的支持与谅解,反而更加激发大家的不满。
X 用户@kaydenmark 评论道:“我不明白这样一款备受期待的人工智能产品怎么会在推出时出现如此滑稽的缺陷。我很庆幸自己没有持有 Alphabet 的股票。老实说,我很想做空它。”
Google 紧急关停 Gemini 文生图功能
愈演愈烈下,Google 紧急宣布暂停 Gemini AI 图像生成功能。
此后,Google 高级副总裁 Prabhakar Raghavan 发表了一篇《Gemini 图像生成错了,我们会做得更好》的声明,进行了正式的道歉——“很明显,创建任务图像的功能没有达到目标。生成的一些图像不准确甚至具有攻击性。我们感谢用户的反馈,并对功能未能正常运行感到抱歉。”
并进一步解释了为什么会发生这种情况:
「Gemini 会话应用是一个独立于搜索、底层人工智能模型和其他产品的特定产品。它的图像生成功能建立在名为 Imagen 2 的人工智能模型之上。
当我们在 Gemini 中构建这一功能时,我们对其进行了调整,以确保它不会陷入我们过去在图片生成技术上看到的一些陷阱,例如创建暴力或色情图片,或描述真人。由于我们的用户来自世界各地,我们希望它能为每个人提供良好的服务。如果您需要一张足球运动员或遛狗者的照片,您可能希望收到各种人的照片。您可能不想只收到一种种族(或任何其他特征)的人的图片。
但是,如果你向 Gemini 提示特定类型的人物图片,例如“教室里的黑人老师”或“带着狗的白人兽医”,或者特定文化或历史背景下的人物,你绝对会得到准确反映你所要求的内容的回复。
那么,哪里出了问题?简而言之,有两点。
首先,我们为确保 Gemini 显示一系列人而进行的调整未能考虑到明显不应该显示一系列人的情况。
其次,随着时间的推移,模型变得比我们预期的更加谨慎,完全拒绝回答某些提示--错误地将一些非常平淡的提示解释为敏感。
这两点导致模型在某些情况下过度补偿,而在另一些情况下则过度保守,从而产生了令人尴尬和错误的图像。」
此后,Google DeepMind CEO Demis Hassabis 表示,Google 计划在未来几周内重新推出这一功能。
不过在没有彻底解决这一问题时,Google 的信任度开始受损,据 Forbes 报道, Google 母公司 Alphabet 因此消息在周一时市值损失 900 亿美元。
同时也直接惹怒一些名人,比如说开头提到的马斯克。就在今天,马斯克接连在自家的 X 平台上怒批道:Google Gemini 是超级种族主义者和性别歧视者!
随即,当美国著名投资人 Gavin Baker 发表评论称:
非政治化或中间派正在成为公司的重要竞争优势。
Gemini 是首次超越 GPT-4 的产品,但它的推出却成了一场不折不扣的灾难,该产品很可能会因为其中的意识形态而退出市场。
当这种意识形态不带有严重的种族主义或历史偏见时,它简直就是荒谬的:就伤害而言,微小的冒犯有时候堪比热核爆炸。
具有讽刺意味的是,如果谷歌只是遵循其使命宣言 "组织世界信息,使其普遍可用和有用",那么他们的产品发布就会大获全胜。
相反,他们几乎肯定会像很久以前微软不得不撤下 Tay 一样撤下该产品。 迄今为止,他们的公关重点一直放在图像生成上,但文本生成产品在种族主义和荒谬性方面要糟糕得多。Gemini 内置的意识形态没有一点是“有用”的。
Gemini 1.5 Pro 表明,谷歌拥有保护其搜索专营权的技术能力;只有意识形态阻碍了谷歌漫长、缓慢、尴尬的衰落。
如果不采取迅速果断地行动,谷歌将面临真正的 Bud Light 风险。
对此,马斯克再次火速现身评论并透露称,“距离 Google 带有疯狂种族主义和性别歧视的 Gemini 产品首次亮相以来,已经过去了很多天了。但是还没有一个人因此而被解雇。”
皮查伊出面:大家在昼夜不停地工作,希望早日解决这一问题
事情发展到今日,据外媒 Semafor 报道,皮查伊在发布内部信时透露,公司“一直在夜以继日地工作”,希望解决“Gemini 应用中存在问题的文本和图片回复”。
不过,截至目前,Google 并没有透露这一问题是否已经解决。他写道:“没有一个 Al 是完美的,尤其是在这个行业发展的新兴阶段,但我们知道对我们来说标准很高,无论需要多长时间,我们都将继续努力。”
以下是内部信全文:
大家好!
我想谈谈 Gemini 应用程序(以前叫做 Bard)中最近出现的文本和图片回复问题。我知道其中一些回复冒犯了我们的用户并显示出偏见——需要明确的是,这是完全不可接受的,是我们错了。
我们的团队一直在夜以继日地解决这些问题。我们已经看到各种提示有了实质性的改进。没有一个 Al 是完美的,尤其是在这个行业发展的新兴阶段,但我们知道对我们的要求很高,无论需要多长时间,我们都将继续努力。我们会重新审视所发生的一切,并确保在一定范围内加以解决。
我们组织全世界的信息并使其人人都能访问和使用的使命是神圣不可侵犯的。我们一直致力于在我们的产品中为用户提供有用、准确和公正的信息。这就是人们信任我们产品的原因。我们的所有产品,包括新兴的 Al 产品,都必须遵循这一原则。
我们将采取一系列明确的行动,包括结构改革、更新产品指南、改进发布流程、加强评估和红队以及技术建议。我们正在审视所有这一切,并将做出必要的改变。
即使我们从这里出错的地方吸取教训,我们也应该以过去几周在 AI 中发布的产品和技术公告为基础。这包括我们在底层模型方面取得的一些基础性进展,例如我们的 100 万上下文窗口突破和我们的开放式模型,这两项都广受好评。
我们知道如何才能创造出被数十亿人和企业所使用和喜爱的伟大产品,凭借我们的基础设施和研究专长,我们为 Al 浪潮提供了一个令人难以置信的跳板。让我们专注于最重要的事情:打造值得用户信赖的有用产品。
来源:
https://www.semafor.com/article/02/27/2024/google-ceo-sundar-pichai-calls-ai-tools-responses-completely-unacceptable
https://twitter.com/GavinSBaker/status/1762157019736461502
- EOF -
觉得本文有帮助?请分享给更多人
推荐关注「算法爱好者」,修炼编程内功
点赞和在看就是最大的支持❤️