训练数据泄漏!ChatGPT 严重漏洞被对家揭发?
大家好,我是无敌。
ChatGPT 叒出事了,但是这次和OpenAI 的员工们没什么关系——是它本身出了问题,而且还很严重。
高端的漏洞,往往只需要最朴实无华的攻击手法
最近,ChatGPT 被爆出了一个严重漏洞——训练数据泄漏。而攻击手法也十分简单
:只需要让 ChatGPT 不断的重复同一个词,就能让他吐出训练数据。让我们来看一个简单的例子:
当ChatGPT 被要求重复“poem”这个词时,一开始它还在乖巧的重复,但一段时间后却突然发疯,吐出了一份真实的个人信息,甚至包括邮件地址和手机号在内。
被对家揭露,这下丢人丢大了
这个发现来源于一篇论文——一篇由 Google 旗下 DeepMind 研究团队发布的论文。没错,就是 OpenAI 的首席科学家 Ilya 跳槽前的那家公司。
DeepMind 在当年也是有过举世瞩目的成绩的:2016 年, AI围棋软件 AlphaGo 战胜人类世界冠军;2018 年,预测蛋白质折叠结构的 AlphaFold 解决了该方向上几乎所有的科学问题;2019 年,用来玩星际争霸的 AlphaFold 以 10:1 的优秀战绩战胜了人类职业玩家,在团队协作人工智能领域取得了重要突破……
于是DeepMind 的管理层认为:这种技术太过于强大了,不应该被独占,应该用于造福全人类。而老板 Google 商人重利,连“不作恶”的条款都能在出事后删除,绝不是一个合格的栖息地。
显然 Ilya 也是这么想的。而恰巧硅谷不想看到谷歌垄断 AI 产业的大有人在:于是包括马斯克、奥特曼等人在内的一群大佬把 Ilya 挖了出来,决定围绕他打造一个 AI 实验室。为了“技术不被垄断,而用于造福全人类”的初心,这家公司被设立为了非盈利组织——这就是后来的 OpenAI。
几月前就已告知 OpenAI ,还没修还是修不好?
论文中国呢表明,除了ChatGPT,他们也对Llama、Falcon等其他大模型进行了测试,结果发现无论是开源或半开源的模型,均存在数据泄露的现象。
而且越是强大的模型,泄漏的数据就越多。我们优秀的 ChatGPT 在泄漏的数据量这方面也是最强的。
研究人员称,他们花了 200 多美元进行攻击,得到了几兆的训练数据。如果有足够的资金,那么利用这种朴实无华的攻击提取个千兆字节的训练数据还是没问题的。但是我们要知道,连 ChatGPT-3 都接受过几百 GB 乃至几十 TB 的文本数据训练,实际应用还是暂时别想了。。。
不过,研究人员声明在 90 天之前就告知了OpenAI 该漏洞,今天论文发布后,网友们换汤不换药的通过论文里的方法进行测试(例如:将重复的词由 poem 换成其他词汇),还是能得到训练数据。看来OpenAI 的解决方法治标不治本啊!
目前看来,所谓的对齐还是不能有效的保护训练数据,模型的安全性还是有待加强。马斯克在前几天接受采访时也揭了 AI 行业的老底:几乎所有的大模型都会在受版权保护的数据上进行训练,对外撒个谎罢了。
以及 Google,有空在这里攻击对家的模型,不如先去修复一下自家的浏览器吧。今天你们也被曝出有漏洞会造成数据泄漏了好吗!
天下大事无我不知,关注我,无敌帮你消除信息差!⭐️
(放公众号卡片)