行为分析:被误解的人工智能带来的安全风险
如果你相信炒作,那人工智能(AI)和机器学习(ML)已经在保护现代IT基础设施安全方面发挥了重大作用。但真相是,这两种技术是强大却常被误解的工具,某些情况下,如果未能正确实现,甚至还会破坏公司的数据安全。
很多实例表明,“AI”是个过度使用的营销行话,无法准确描述这项与真正的人工智能相去甚远的现有技术。所谓的“AI平台”可能会让首席信息官们挠头,想知道到底是怎么能从庞大且不断增长的客户数据库中了解每位客户的行为的,或者平台到底有没有基于算法做出有根据的猜测。区分真正的AI和标准固定逻辑太难了。
对于Microsoft Teams、SharePoint、Microsoft 365、Google Drive等云应用,有权定义谁能访问文件和文件夹的是最终用户而非管理员。这种做法尽管对最终用户来说非常方便,却导致几乎无法以遵从策略的标准方式来控制公司的数据访问:因为每个人都可以修改许可。真正解决这一问题的唯一方法可能是某种形式的自动化解决方案,或者将访问权限审查外包出去。
大多数企业的环境中流转着大量数据,因而很多企业试图将AI用作自动化解决方案来查找和审核敏感数据的访问权限。这些解决方案仅显示应控制访问权限的文件子集(可能仍有成千上万),可避免用户被与其权限相关的数百万份文件的审查工作狂轰滥炸。看起来很明智,对吧?但实际上,这种方式忽略了不遵循算法所查找模式的数据,还常常引发误报。
用AI执行行为分析的三个问题
当前行为分析市场上没有真正的AI解决方案。真正的AI创建随机生成的算法,并用大量“正确”答案测试这些算法,再从中挑出最有效的。这就给使用AI进行行为分析带来了三个重大问题。
云和远程办公增添挑战
从安全的角度来看,采用云会带来各种各样的数据挑战,员工在家办公还会增加这样的挑战。居家办公的员工代表着不断壮大的最终用户群体,而且还是突然之间获得大量数据访问权的最终用户。
大多数没有经过专门培训的员工并不清楚云从哪里开始和结束,给非故意违反公司安全策略留下了空间。这正成为公司非常常见的内部安全威胁,尤其是在数据库被编程为用AI来削减数据访问时。只要使用不当,此类访问常会存在严重的安全漏洞。
很多公司宣称使用AI监测和改善其数据访问。许多人认为AI可以排序或分发数据,但实际上,AI通常不用来处理这样的事务。AI最常规的用法是实现数据库访问控制。
盲目信任AI很危险
数据治理和保护一直都很重要,尤其是在远程办公和混合办公趋势延续的情况下。尽管AI和ML是功能强大的工具,公司仍需了解自己利用的是真正的技术,还是无法胜任安全任务的绣花枕头。
这些技术不可能在真空中实现,企业需采取果断措施缓解关键安全风险,比如设置员工培训和实现受监管的访问来确保数据安全。最终,AI与你搬运数据的任何其他计算机程序无异,都是“坏数据进坏数据出”。客户数据库如此庞大,员工非故意安全违规如此常见,设置人工过程检查这些结果真的很重要,因为风险就存在于盲目信任AI上。
参考阅读