人工智能双刃剑:可协助安全专家,也可带来挑战
人工智能(AI)的兴起引发了许多行业对于失业的担忧,网络安全专家也有了许多新的东西需要他们去担心。
一份最近的研究报告显示超过91%的网络安全人员担心他们很快就要面对人工智能网络攻击。
网络安全公司Webroot进行了一项调查,调查收集了来自美国和日本的四百多名,在超过百人的公司就职的IT安全专家的意见。其中,87%的人称他们的公司已经在使用AI来保护他们的数据,这就是为什么他们认为那些网络罪犯最终会利用AI技术来实现罪犯们非法牟利的目的。
从某种意义上来说,这是一场在IT安全主管们与网络犯罪分子之间虚拟的军备竞赛,看谁能更快、更有效的使用那些强大的工具,比如机器学习、自然语言处理等等。
TechRepublic指出,从现在到2021年间,绝大多数公司——97%——将增加他们在AI技术上的花费,仅有1%的人表示他们将AI作为加强他们的整体IT安全的重要举措。四分之三的人表示,如果他们不掌握这项技术,很快他们就将失去保护自己数据的能力。
这项变革与IT管理中的任何重大变革一样,但这不仅仅是购买技术的问题,还需要懂得选择如何使用它,以及在哪里使用它。
就像BetaNews上的一个报道所指出的,Webroot所调查的人群特别感兴趣的是看到AI可以提高他们的安全分析的准确性或提供网络攻击预警。
但网络犯罪分子所发起人工智能网络攻击的可能性可能会局限于他们的想象力。
例如,Digital Journal报道称,那些接受调查的人担心AI可能会被用来开发更复杂的恶意软件。这是一种AI在某些情况下“学习”像人类一样的技术,因此在网络钓鱼诈骗和社工方面非常有用,这些技术可以诱骗员工交出密码或其他形式的访问权限。
我们都知道AI非常聪明,一旦犯罪分子参与其中,IT安全专家可能需要有比AI更强大的智谋来取得这场军备竞赛的胜利。
来源:securityintelligence
本文由看雪翻译小组 山有木 编译
往期热门内容推荐
更多安全资讯,戳左下角“阅读原文”查看!