作者:Pierluigi Paganini
翻译:360代码卫士团队
作者:Pierluigi Paganini
翻译:360代码卫士团队
在DEF CON会议上,安全专家演示了如何利用名为”OpenAI Gym” 的机器学习系统创建能躲避检测的恶意软件。
我们之前已多次讨论过关于人工智能对威胁整体情况的影响。从防御角度来京,新工具能提早检测到跟威胁相关联的恶意模式;从攻击角度来讲,机器学习工具可被利用创建打败现有反病毒软件的自定义恶意软件。
在近期举行的DEFCON会议上,安全公司Endgame的技术主管Hyrum Anderson演示了如何利用机器学习系统创建能够躲避安全解决方案检测的恶意代码。
Anderson利用Elon Musk的OpenAI框架创建恶意软件,而原则非常简单因为他创建的系统仅仅对看似合法的代码做出了一些改变就能将它们转变为恶意代码。一些修改能够欺骗杀毒软件引擎,专家们创建的系统名为OpenAIGym。
Anderson及其团队创建了一个能对合法代码进行微调的系统并将其提交给一个安全检查器,结果显示研究人员能够做出很多微调,从而改进恶意软件躲避检测的能力。
这些专家创建的机器学习系统能够在15小时的训练时间内在不知名的安全引擎中运行超过10万个样本。结果令人担忧,60%的恶意软件样本都能绕过安全系统的防御措施。目前OpenAIGym的代码已公布在Github上(https://github.com/endgameinc/gym-malware/blob/master/README.md)。
本文由360代码卫士编译,不代表360观点,转载请注明“转自360代码卫士www.codesafe.cn”。