查看原文
其他

EP06 AI如何颠覆网络安全讨论会纪要

科技小熊猫 共识粉碎机 2024-01-18

详细的讨论会分享背景请见我们上一篇文章《AI如何颠覆软件:你能为AI打工吗?》

我们尽量每周都会组织不同领域的AI讨论会,覆盖软件行业的所有细分。为了保持一个活跃的讨论环境,对参与人群会有限制。

考虑到已做完6期讨论会,我们在本文末对未来6期讨论的方向发起了投票,希望读者能一起帮助我们确定方向,感谢您的支持!


本期讨论会参与者:

葛岱斌,亿格云CEO,SASE和零信任产品方向创业者,前阿里巴巴、Fireeye资深安全专家。

其他讨论嘉宾包括,中国资深安全业务负责人,美国安全大厂业务负责人,安全行业一级投资者。


1 AI将催生庞大AI安全运维市场


安全人员的工作非常依靠经验:
  • 安全运营和安全分析自动化没出来前,大量的工作(告警等)都需要安全人员手动处理。

  • 当安全人员做分析时,在接收到告警(Alerts)提示后,会通过一些线索(某IP/Hash值/域名/代码),在海量数据中找关联性。

  • 会使用图数据库,构建数据之间的关联,延伸到有哪些其他的线索,串联成事件,然后再通过事件去提炼出情报等。

  • 整体看非常依靠分析人员的经验,处理过的事件越多,就越知道该怎么整理这些数据,或者从哪些地方去找一些有价值的线索

  • 如果类比的话,就类似于破案,有些环节是缺失的,需要有经验的人去把缺失这部分通过过往的经验/工具弥补上,串联成一个完整的时间线。


工具在过去提高了安全人员的工作效率:

  • Virustotal是革命性的产品,之前所有厂商的数据都是自己收集的,例如Symantec/360都干了十几、二十年。新安全公司数据能力较弱,做好安全分析需要迈过比较高的门槛。有了Virustotal后,很多数据开放出来,就可以补全自己的能力结构。

  • 在Virsustotal初步解决数据问题后,后面才是人的能力,安全人才培养才稍微快一点。

  • 但总体来看,安全人才一直紧缺,分析工作很枯燥,而且与正道相比,黑客的收益可能更高(不考虑违法成本和风险)。

AI会进一步提高安全人员的安全分析效率:

  • 之前已经提到安全分析人员的工作大量靠人的经验和积累,LLM对人的一些相对没有特别复杂但是重复的工作可以替代,类似于对程序员、数据分析师的提效。

  • 告警的研判、调查、和响应,这些工作流程对应的工具/服务都会有明显的效率提升。

  • AI降低了使用门槛,LLM插件可以告诉安全分析师相应措施和步骤,对于Junior分析师的帮助长期可能是巨大的。

  • 上下文数据过去需要经验判断,现在LLM插件也可以帮助自动化收集上下文并且较为全面的展现出来,从而进一步映射到相应的处理措施。

  • 目前看短期主要是对效率的提升,没有看到整个安全流程的变化,是否会对流程变化影响还有待观察。

  • 从威胁检测角度,大模型现在还在处于尝试构建规则引擎的过程中,即从攻击的各种信号里去提取特征,然后通过引擎进行判断,这部分工作长期可以看是否被LLM去判断(取决于准确度,性价比等)。



2 AI可以提高代码检测效率


AI可以提高代码安全能力

  • 尤其在白盒/灰盒测试中,因为现在能拿到大量GitHub里的代码,LLM能力也有明显增强。

  • 代码安全有两个重要场景,一个是实时提示/修复,另一个是自动化修复。很多新的尝试在后者,因为LLM看过足够多的代码,比起过去推出修复策略效率能大幅提升。

  • 现在LLM修复代码上还在提高精准率的过程,需要不断打标和给反馈。

3 AI对防火墙/WAF的影响


LLM有可能替代目前的检测模型(依赖于预先制定好的规则和策略进行滤过):

  • LLM未来可能自己就是一个引擎,喂给他原始数据,直接分析异常的流量和行为,自动形成滤过规则,进行通过和拦截的判断。

  • 现有的规则模型打个比方:有很多检测小脑(垂直安全产品),小脑独立判断,小脑之间不联动。趋势是小脑的数据更多吐给大脑。

  • 到了LLM时代:理论上可以靠一个大脑把全部事情都干了,在异常行为、流量判断上会有机会比现在的工作模式更好。


但目前还不好说LLM作为检测模型的性价比:

  • 机器学习应用到网络安全领域已经有7-8年了,整体的不管从效果还是投入回报,都在比较均衡的水平。

  • 广义机器学习最擅长的就是分类,这在检测领域非常好用,只要有足够多的样本,这些模型和算法都是非常成熟的,结果也是可以预测的,相当于在可控的成本范围内,可以有确定性的输入输出预期。

  • 在LLM时代,优点在于:输入的可以是不确定的,有机会举一反三。

  • 但是LLM的缺点是:输出也可能是不确定的,很难量化准确率。另外成本很高,性价比目前来看还不划算。

  • 目前看LLM短期还无法很快直接用到检测和防御领域,因为准确率和成本都非常敏感。客户侧的使用,因为输出的不稳定可能较难依赖于这个产品做决策。包括说为什么目前黑客用得少,也有成本不划算的原因。


4 数据质量高的企业更有能力进入AI市场


安全厂商最重要的是数据丰富度和质量:

  • 客户很少能够帮助调安全大模型的,所以主要依靠安全厂商自身的数据来做前期训练。

  • SaaS公司会有优势,数据多数都会汇总在安全厂商侧。

  • 产品丰富的公司也会有优势,例如微软和Palo Alto Networks,因为能够接触到的安全数据种类多。

MSS也会因为AI增长的更快

(MSS指安全托管业务):

  • 有了AI能力后,因为有数据和能力的集中优势,厂商的安全能力会较客户自身更加突出,通过AI能力也可以给产品带来溢价。

  • 也可以将平台开放出来,给第三方公司来做具体的服务。数据/工具在厂商这里,其他关于人的需求交给第三方伙伴来做,能力输出利润更高。

从Palo AltoNetworks的角度来看数据优势的话:

  • 网络侧很多日志数据可以帮助集中化做自动分析管控。

  • 终端也收购了几家公司,终端产品也是SaaS化的。

  • 有云业务相关的安全数据,虽然体量没有微软大,但数据的丰富维度很好。同时可因为其多云中立,也可以采集到多个云的安全数据。

  • 同时公司很有前瞻性眼光,有了这些数据资产后,帮客户做托管是很容易的。

从CrowdStrike来看数据优势的话:

  • 虽然没有微软这么多的数据,但终端的体量仍然使其具有一定优势。

  • 作为SaaS EPP的先行者,积累了大量企业客户和终端上的海量上下文信息。

数据量非常重要,从历史来看量变引起质变:

  • 微软2010年进入Gartner EPP魔力象限,2012年进入挑战者,2019年进入领导者,2022年和CrowdStrike已经远远甩开其他对手。微软不缺AI专家,但行业顶尖大牛相对少,产品力感觉不显山不漏水,但借助数据提高的非常快。

  • Palo Alto 2010年没进EPP魔力象限,2022年离领导者一步之遥,中间几度进入和退出。如果有数据的话,也有能力弯道超车。

  • 技术非常透明,不存在你有我没有的情况,人才流动很快。但数据非常独家,谁也带不走。


5 微软Security Copilot的优缺点


Security Copilot目前聚焦于SOC相关:

  • 微软的数据源主要还是Defender和其他垂直安全产品传给Sentinel的数据,聚焦在告警的分析、调查、上下文/APT溯源等。

  • 也是目前LLM应用最快能落脚的地方,可以提高整个安全运营的效率,降低运营人员成本。

但同时也能看到Security Copilot的短板:

  • Security Copilot不是从头开始做的LLM,还是基于GPT4的,等GPT5更新后,会有模型更新的问题。

  • 微软有Defender和其他汇集到Sentinel的数据,但整体来看基础设施很碎片化

    ,跨越了不同的网络设施架构和系统(PC等零售终端比较分散,云主要是基于Azure云的,微软在网关数据也比较少-没有防火墙的产品)。

  • MSS安全托管成本很高,毛利很低,数据需要从其他产品/厂商汇聚到平台,储存成本高。


6 针对大模型的安全


大模型数据交互所产生的安全需求及处理办法:

  • 与公有云的大模型的数据交互所带来的数据安全问题:

    通过数据分级分类,确定哪些数据喂给云平台,哪些不能,哪些必须经过处理。不能上云的数据对于模型效果来说可能是个影响;联邦计算和多方计算:数据可用不可见,可以做到所有人都能贡献数据,但是没有违反隐私要求。

  • 通过私有云部署大模型让数据不出公司:但目前私有化场景的模型效果和准确度都还有待验证。


同时隐私计算在LLM上效果也有待验证

,主要出于两点:

  • 对数据本身是有损处理,数据在提炼的过程可能产生偏差,而且比较难定位偏差的原因,不易修复。

  • 隐私计算体系本身也有安全问题,可以通过结果倒推出原始数据,想解决一个问题但带来一个新问题。

针对LLM的攻击方式:

  • 传统机器学习可以"投毒",带偏结构,但需要有一定量才有效果。

  • LLM可能存在同样的可能性,但要把模型带偏,可能不止是外部,还需要黑客找到内部入口。

  • 目前很少看到黑客基于LLM做攻击,黑客对没有获利模式的东西不感兴趣,换句话说黑客产业链还没形成。更多还是学术界的关注,所以还没有针对性的应对策略。

  • LLM现在处于Pre-commercial的状态,真到了商业化运作的时候,各类安全缺口可能会很快被堵上。


7 LLM Native安全公司出现了吗


目前是原有公司演进,AI Native公司非常难:

  • 现在的落地主要是老公司找落地场景,相对风险低,短期能看到ROI。

  • AI Native非常难,不可能完全依靠LLM,湾区很多声称AI Native的公司,也有很多人工后台操作,修正、辅助、叠加等,

    最主要的还是机器学习和深度学习引擎,LLM只是辅助

  • AI新技术运营一般都是先在价值最大化的行业,比如机器学习先应用在推荐算法和AB Testing,到了成本降下来后,才应用到安全行业。


亿格云简介


杭州亿格云科技有限公司(以下简称“亿格云”),成立于2021年7月,总部位于杭州,在杭州和深圳设有研发中心,在北京、上海、深圳等地设有分公司。

亿格云是SASE安全服务商,通过自主研发的SASE服务平台—亿格云枢,以SaaS化产品提供零信任网络访问(ZTNA)、数据防泄漏(XDLP)、威胁检测响应(XDR)、防病毒(EPP)、上网行为管理(SWG)和统一端点管理(UEM)等功能,帮助企业以更低成本、更高效率建设更加安全、更好体验的下一代办公场景的安全体系,从而解决企业数字化转型过程中遇到的混合和分支办公安全、数据安全、终端安全等问题。

亿格云核心团队人员来自阿里云安全的产品和研发骨干,打造过多个服务超过10万家企业、营收破亿级的安全产品,拥有丰富的安全从业经验和极强的技术研发实力。

目前,亿格云已服务超过100家上市公司和独角兽企业等在内的行业客户,包括吉利控股、金地集团、传音控股、零跑汽车、爱茉莉太平洋、广联达、怪兽充电等多领域头部企业,并在智能制造、金融、游戏、泛互联网等行业得到客户广泛认可。

联系方式:

电话:19157687621

邮箱:marketing@eaglecloud.com

或添加如下企业微信,扫描二维码即可



【讨论会】

我们已经组织了六期“AI颠覆软件讨论会”,前面六期分别是数据库、游戏软件、生成式广告、办公协同CRM、AI与产品经理、网络安全,分别邀请了行业里面最资深的从业者、创业者朋友。

第一期纪要请见《EP01:AI如何颠覆数据库讨论纪要》

第二期纪要请见《EP02:AI如何颠覆游戏讨论纪要》

第三期纪要请见《EP03:生成式广告讨论纪要》

第四期纪要请见《EP04:AI如何颠覆办公与CRM讨论纪要》

第五期纪要请见《EP05:AI时代产品经理的新要求讨论纪要》

所有的讨论纪要,请关注公众号“共识粉碎机”,在功能界面“芋圆子”→“讨论纪要”。

感兴趣加入后续讨论会活动的,请私信后台“微信号”、“工作单位”、“擅长什么AI方向的讨论”。

AI颠覆软件讨论会按照先前的计划,已经完成了一半的话题,剩下的话题希望大家能一起帮忙讨论和提出您的建议,请参与的朋友多选6个选项



【AI如何颠覆软件:你能为AI打工吗】


【C3.AI:AI时代的埃森哲】
【GPU IaaS:拉开云加速序幕】

继续滑动看下一个

EP06 AI如何颠覆网络安全讨论会纪要

科技小熊猫 共识粉碎机
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存