ChatGPT 以及类似的机器人如何传播恶意软件
人工智能领域已经开始非常非常快地发展:Midjourney和ChatGPT等面向消费者的工具现在能够根据自然语言提示在几秒钟内生成令人难以置信的图像和文本结果,看到它们被部署到从网络搜索到儿童书籍的任何地方。
然而,这些人工智能应用程序正被用于更邪恶的用途,包括传播恶意软件。以传统的诈骗电子邮件为例:它的语法和拼写通常充斥着明显的错误——正如欧洲刑警组织最近的一份咨询报告所指出的那样,最新的一组人工智能模型不会犯这些错误。
想想看许多网络钓鱼攻击和其他安全威胁依赖于社会工程,欺骗用户泄露密码、财务信息或其他敏感数据。这些骗局所需的有说服力、听起来很真实的文本现在可以很容易地抽出来,不需要人工努力,并且可以针对特定受众进行无休止的调整和完善。
就 ChatGPT 而言,首先需要注意的是,开发人员 OpenAI 已经在其中内置了保护措施。让它“编写恶意软件”或“网络钓鱼电子邮件”,它会告诉你它“被编程为遵循严格的道德准则,禁止我从事任何恶意活动,包括编写或协助创建恶意软件。
但是,这些保护措施并不难解决:ChatGPT当然可以编码,当然可以撰写电子邮件。即使它不知道自己在编写恶意软件,也可以提示它生成类似的东西。已经有迹象表明,网络犯罪分子正在努力绕过已经实施的安全措施。
在这里并不是特别挑剔 ChatGPT,而是指出一旦像它这样的大型语言模型 (LLM) 被用于更险恶的目的,会发生什么。事实上,不难想象犯罪组织开发自己的LLM和类似工具,以使他们的骗局听起来更有说服力。这不仅仅是文本,音频和视频更难伪造。
当你的老板紧急要求报告,或者公司技术支持告诉你安装安全补丁,或者你的银行通知你需要回应一个问题时——所有这些潜在的骗局都依赖于建立信任和听起来真实,而这正是人工智能机器人做得很好的事情。他们可以制作听起来自然且针对特定受众量身定制的文本、音频和视频,并且可以快速、持续地按需完成。
那么,在这些人工智能威胁的浪潮中,我们人类还有希望吗?放弃并接受我们的命运是唯一的选择吗?仍然有一些方法可以最大限度地减少被最新技术欺骗的机会,而且它们与您应该已经考虑的预防措施没有太大区别。
如何防范人工智能驱动的骗局
需要考虑两种类型的与 AI 相关的安全威胁。第一个涉及诸如ChatGPT或Midjourney之类的工具,用于让安装不应该安装的东西,例如浏览器插件。可能会在不需要的时候被欺骗为服务付费,或者使用看起来很官方但实际上并非如此的工具。
为避免落入这些陷阱,请确保您了解我们提到的AI服务的最新情况,并始终首先转到原始来源。以ChatGPT为例,没有官方批准的移动应用程序,该工具仅限网络。使用这些应用程序及其衍生产品时,标准规则适用:检查其历史记录,与之相关的评论以及其背后的公司,就像安装任何新软件一样。
第二种类型的威胁可能更危险:用于创建听起来令人信服的真实文本、音频或视频的人工智能。输出甚至可能被用来模仿你认识的人——比如据称来自首席执行官要求紧急释放资金的录音。
虽然技术可能已经发展,但同样的技术仍然被用来试图让你做一些感觉有点不寻常的事情。尽可能使用不同的方法并注意危险信号,要求你做的事情的时间限制或者不寻常的任务。
关注不希望从文本和电子邮件中获得的链接通常不是一个好主意,尤其是当被要求在某个地方登录时。例如,如果您的银行显然已经联系了一条消息,请直接在浏览器中访问银行网站登录,而不是点击任何嵌入式链接。
必须让操作系统、应用程序和浏览器保持最新状态。最新的浏览器将保护您免受大量网络钓鱼和诈骗攻击,无论旨在欺骗的提示是否由 AI 生成。
目前没有万无一失的工具可以检测AI文本,音频或视频的存在,但有一些迹象需要注意:想想图片中的模糊和不一致,或者听起来通用和模糊的文本。虽然诈骗者可能已经从某个地方抓取了有关生活或工作场所的详细信息。
简而言之,要谨慎并质疑一切,在这些新的人工智能服务出现之前,这是正确的,现在也是如此。
往期推荐