我去参加了一场安全行业的闭门会议。茶歇时,我听到身边几位 CISO 在聊一个有点反常的话题。他们不是在抱怨预算不够,也不是在吐槽某个新曝光的漏洞有多棘手,而是在兴奋地讨论自己团队最近怎么用 AI 写查询语句、怎么把那些没人愿意碰的陈旧 runbook 变成能自动跑起来的脚本。其中一个从深圳来的安全总监跟我说,他手下有个干了快十年的分析师,以前最烦写事件总结报告,现在居然主动要求多分配几个告警给自己,因为 AI 帮他省掉了百分之八十的案头工作,“那哥们现在每天能准点下班接孩子了。”这个场景让我印象很深。过去两年多,我们听过太多关于 AI 的宏大叙事,也看过不少厂商拿“AI 驱动”当营销标签。但在真正干活的人那里,事情往往更复杂。
前两天,我听了一期访谈,主持人是 Alexander Culafi,两位嘉宾分别是 Reddit 的 CISO Frederick Lee 和 Omdia 的首席分析师 Dave Gruber。三个人聊了一个多小时,话题围绕一个核心问题:安全领域的 AI 落地,到底是炒作,还是真的在改变什么?
这篇文章会基于那场对话,结合我自己观察到的一些行业现象,试着把这个问题讲透。我不会给你一个“AI 万能”的结论,也不会劝你“赶紧上车否则就晚了”。我想做的,是还原几位一线实践者的真实思考过程:他们看到了什么价值,踩过哪些坑,以及如果要动手,应该从哪儿开始。
从“又一个大饼”到“这玩意儿真能干活”
Frederick Lee 在 Reddit 负责整个安全团队,每天接触的技术方案多到数不清。他在访谈里说了一句让我印象很深的话:这是少有的几次,一项新技术刚出来,安全团队不是先想着“我怎么防它”,而是主动说“这好像能帮我干活”。
放在两三年前,这几乎不可想象。回想一下,云计算刚兴起的时候,安全团队的普遍反应是什么?“影子 IT”、“数据泄露风险”、“合规问题”。容器和 K8s 火起来的时候呢?“配置太复杂”、“权限模型搞不定”。每次技术浪潮,安全团队基本都是那个踩刹车的角色,至少一开始是这样。
但 AI 这一波不一样。Dave·格鲁伯在访谈里分享了一个很有意思的观察。他过去一年每季度都会做一次行业调研,跟踪安全团队对 AI 的态度变化。一年前,安全主管们很兴奋,但一线分析师普遍紧张甚至抗拒。他们担心 AI 会取代自己的工作,更担心 AI 给出的结果不可靠,自己却要为后果负责。到了最近这一期调研,情况完全反转了。不仅主管们兴奋,一线的人也兴奋起来了。
这种心态转变是怎么发生的?Frederick Lee 给出了一个很务实的解释。他觉得关键在于,AI 解决了一个困扰安全团队很多年的老问题:自动化太难了。
以前你要做自动化,要么得有专门的工程师写脚本、搭流程,要么就得买一套笨重的 SOAR 平台,然后花几个月时间配置、调试、维护。门槛高、周期长、回报不确定。很多安全团队不是不想自动化,是真的搞不定。大语言模型,特别是把这件事的门槛降到了几乎为零。一个分析师可以直接对着系统说“帮我把过去 24 小时所有跟这个 IP 有关的告警找出来,按严重程度排个序”,系统就能听懂、能执行。这在以前需要写一行行的查询语句,不是每个人都会。
Frederick Lee 举了一个具体的例子。有个叫 Tines 的自动化平台,原本已经很成熟了,但 AI 加入之后,用户可以用自然语言跟它对话,告诉它“如果收到这种类型的告警,就去查一下这几个数据源,然后把结果汇总发到我们这个群里”。以前这些逻辑都需要手动配置,现在说句话就行。这不是什么颠覆性的创新,但它让那些本来不擅长自动化的安全分析师突然有了一个趁手的工具。
Dave 补充了另一个视角。他观察到,目前 AI 在安全领域创造价值的方式大致分两类。一类是横向通用的,比如事件总结。一个分析师处理完一个告警,本来要花十到十五分钟写一份内部报告,描述发生了什么、怎么处理的、还有什么遗留问题。现在 AI 可以在几秒钟内生成一份像模像样的草稿,分析师只需要核对关键细节,做少量修改就行。这听起来不是什么高大上的能力,但对每天要处理几十个告警的一线人员来说,节省下来的时间是非常真实的。
另一类是垂直专用的,比如威胁情报分析。Dave 说了一个很实在的观点:威胁情报的价值不在于你拥有多少,而在于你多快能用上。很多企业的安全团队会订阅各种威胁情报源,每天收到海量的 IOC(威胁指标)和 TTP(战术、技术与过程)信息。但这些信息如果不经过筛选、关联、优先级排序,基本就是一堆噪音。AI 可以帮助团队快速过滤掉跟自己环境无关的情报,把真正重要的东西提炼出来,甚至直接推送到防火墙、EDR 这些防护系统里。原来可能需要一个分析师花半天才能做完的事,现在几分钟就能搞定。
那种少见的兴奋感
Frederick Lee 在访谈里提到一个细节,我觉得特别能说明问题。他说自己算是个“老炮”了,在这个行业干了很多年,见过太多号称要改变世界的技术最后不了了之。但 AI 这一次,连他这种见惯不惊的人都觉得有点不一样。
这种兴奋感来自一个很朴素的判断:AI 不是在给安全团队增加负担,而是在帮他们减负。过去十年,安全团队的职责范围一直在扩大。从最初的防病毒、防入侵,到后来的数据防泄漏、身份管理、云安全、供应链安全,再到现在的 AI 自身安全。每一个新领域都意味着新的工具、新的告警、新的流程。但团队人数不可能无限扩张。一个中等规模企业的 SOC 可能就五六个人,他们要面对的是每天几百上千条告警,真正值得追的可能不到百分之五。剩下百分之九十五的时间都花在海量噪音里。
AI 改变的恰恰是这个比例。它不能替代人的判断,但可以帮人把噪音滤掉,把真正需要关注的东西拎出来。用 Frederick Lee 的话说,这就像是给每个分析师配了一个不知疲倦的实习生,二十四小时帮你盯着那些重复性的事情。
Dave 把这个过程总结成几个阶段:先害怕,再试探边界,然后发现能干什么,最后开始大规模使用。只不过这一次,整个周期被压缩到了极短的时间内。他说自己做了二十多年行业分析,从没见过一项技术在这么短的时间里完成从质疑到大规模采用的跨越。
风险是真的,但没想象中那么可怕
当然,AI 不是没有风险。访谈里专门花了一段聊这个话题,两位嘉宾给出了一个很有意思的分析框架。
Dave 把风险分成两类,硬风险和软风险。硬风险很好理解,就是 AI 直接导致了安全问题。比如 AI 生成的代码里带了漏洞。他提到一个数据,有研究显示某些 AI 模型在处理特定类型的漏洞时表现确实不理想。但 Frederick Lee 对这个结论持保留态度。他觉得关键不在于 AI 本身有没有漏洞,而在于你怎么用它。如果 AI 学到的样本本身就是有漏洞的代码,那它当然会生成有漏洞的代码。但如果团队在提示词里明确写了“使用这个安全库来过滤用户输入”,或者把公司的安全编码规范作为上下文喂给 AI,生成结果的质量会完全不同。
他举了一个很生动的例子。现在很多开发团队在用一种叫 agents.md 的文件来给 AI 助手设定行为规范。这个文件里可以写清楚公司要求的安全实践,比如“所有来自用户的输入都必须经过消毒”、“必须使用公司标准的加密库,不要自己造轮子”。AI 在生成代码的时候会严格遵守这些规则。换句话说,安全团队终于有了一个不需要直接干预开发过程、就能影响最终产出的方式。这在以前是很难实现的。
软风险则更微妙。Dave 说,很多团队一开始不信任 AI,不是因为它真的犯了错,而是因为他们还没搞懂 AI 的能力边界在哪里。不知道什么时候该信,什么时候不该信,所以干脆都不信。这种不信任本身就会带来风险,因为你可能错过真正有价值的输出。
Frederick Lee 补充了一个我特别认同的观点。他说 AI 正在倒逼企业解决那些早就存在的、但一直被忽视的问题。举一个最简单的例子,权限管理。很多企业的文档权限设置其实一塌糊涂。该看的人看不到,不该看的人反而能看到。以前因为查资料麻烦,这个问题不容易被发现。现在有了 AI 搜索助手,员工随便一问,系统就能把散落在各个角落的信息汇聚起来。那些权限配置不当的文档,一下子全都暴露了。AI 不是问题的根源,它只是让问题变得更明显了。
还有一个容易被忽略的风险是凭证管理。现在越来越多的 AI 应用会调用各种外部工具和 API,这背后涉及到大量的密钥和凭证。如果管理不当,一个普通员工的查询请求可能意外触发了一个拥有高权限的 AI 代理。Frederick Lee 提醒说,团队需要建立类似 MCP(模型上下文协议)网关这样的控制层,对 AI 的所有外部调用做统一的身份验证、授权和审计。这不是一个可选项,而是基础架构的一部分。
从哪儿开始?写给准备动手的人
如果你是一个安全团队的负责人,听完这些分析之后,可能会有一个很实际的问题:我该从哪儿开始?
两位嘉宾都给出了非常具体的建议。
Dave 的建议是,先搞清楚自己团队处在什么位置。不是所有企业都有能力自己搭模型、自己训练。如果你的团队只有三四个人,预算也不宽裕,找一个靠谱的 MSSP(托管安全服务提供商)可能是最快的启动方式。这些服务商已经在 AI 上投入了不少资源,你不需要从零开始摸索,直接买他们的服务就行。如果你的团队有一定规模,也有工程能力,可以考虑在现有工具的基础上做定制。大部分主流的安全厂商都已经在自家产品里集成了 AI 功能,而且很多并不额外收费。先把手头工具的能力用足,再看看还有什么缺口需要自己补。
Frederick Lee 的建议更偏架构层面。他建议每个安全团队都开始思考一个问题:你的 AI 栈长什么样?这包括一个 LLM 网关,用来管理团队在用哪些模型、控制成本、做请求的审计日志;一个 MCP 注册中心和网关,用来管理 AI 能调用哪些外部工具、谁有权限调用;还有一个面向内部用户的交互层,也就是大家每天真正在用的那个界面。把这些基础设施搭好,后面的事情会顺很多。
他还特别强调了一个思路:从你已有的东西开始,而不是去买新的。很多团队已经有了一套写得很详细的 runbook,记录了各种场景下的处理流程。这些 runbook 本身就是绝佳的 AI 训练素材。把它们喂给 AI,让它学会按照同样的逻辑去处理新的告警。Frederick Lee 说他自己见过好几个团队,第一波 AI 的快速见效就是这么来的。不需要花一分钱买新工具,只是把已有的资产重新利用了而已。
Dave 补充了一个视角。他说很多人在问 AI 的投资回报率怎么算,但现实是,目前绝大多数企业根本没在算细账。不是因为算不清,而是因为他们已经看到,不用的代价远远大于用的风险。预算正在从其他领域向 AI 转移,这不是一个短期现象。
那些被忽略的人的因素
访谈快结束的时候,主持人问了一个很尖锐的问题。他说自己经常跟一线的安全分析师聊天,发现一个普遍存在的情绪:公司强推 AI 工具,但工具本身并不好用,价格还很贵,大家用得很不情愿。这种张力怎么解决?
Frederick Lee 的回答很坦诚。他说他自己也犯过这个错误。有一段时间,他看到 AI 很火,就跟团队说“大家都用起来”。结果是大家为了完成任务而用,AI 被硬塞进那些根本不需要它的流程里,不但没提高效率,反而增加了工作量。
真正正确的做法是反过来。先搞清楚团队每天最头疼的问题是什么,然后看 AI 能不能帮上忙。如果某个流程已经跑得很顺,不需要 AI 介入,那就别硬塞。如果某个问题特别适合 AI 解决,比如需要处理大量非结构化数据、需要频繁做重复性查询,那 AI 就能发挥很大作用。关键是要让团队感觉到,AI 是在帮他们解决实际问题,而不是在给领导交差。
Dave 补充了一点。他说那些在 AI 上走得比较快的企业,往往都有一个共同特点:他们允许团队试错。不是要求每个人第一次用 AI 就百分之百正确,而是鼓励大家去探索、去理解边界在哪里。先在小范围、低风险的场景里用起来,积累经验之后再慢慢扩大。这种文化上的调整,有时候比技术选型更重要。
一个比价格更值得关注的问题
在讨论成本和定价的时候,Frederick Lee 说了一句让我很受触动的话。他说,如果一个安全工具的价格相当于一个安全分析师的年薪,但能提供二十四小时不间断的覆盖,那其实是非常划算的。一个分析师一天工作八小时,但攻击者可以在另外十六个小时发起攻击。你需要三个分析师轮班才能实现全天候覆盖。如果一个 AI 工具能做到同样的事,价格还跟一个人的年薪差不多,那这笔账怎么算都是划算的。
Dave 补充说,现在 AI 安全工具的定价正在快速下降。一开始因为技术领先,早期入场的厂商确实可以定高价。但随着竞争加剧,价格会迅速回归理性。他经常收到厂商的咨询,问自己的 AI 产品应该怎么定价才不会被市场淘汰。这说明价格战已经开始了,对买方来说是好消息。
一种新的协作模式正在形成
访谈里有一个片段让我觉得特别有意思。主持人问 Frederick Lee,安全团队和开发团队在 AI 时代的协作模式会不会发生变化。Frederick Lee 的回答是,AI 正在让这两个原本经常对立的团队走得更近。
原因在于,AI 给了安全团队一个全新的影响开发过程的方式。以前,安全团队要推行安全编码规范,要么靠培训,要么靠代码审计,要么靠上线前的扫描。这些方式多多少少都带有“事后检查”的味道,而且容易引发开发人员的反感。现在,安全团队可以把规范写成 agents.md 这样的指导文件,直接嵌入到开发人员日常使用的 AI 编程助手里面。AI 在生成代码的时候会自动遵守这些规则。开发人员甚至不需要意识到安全团队的存在,就能写出更安全的代码。
这种“嵌入式”的协作模式,比任何流程管控都要高效。Frederick Lee 说自己跟其他 CISO 交流的时候发现,很多开发团队的负责人现在会主动邀请安全团队来写这些指导文件,因为他们自己也意识到,这能减少后期返工的成本。一个原本充满摩擦的关系,因为 AI 的介入,变成了一种正向的协作。
我们正处在一个什么样的节点上
听完整场访谈,我有一个很强烈的感受。安全领域的 AI 应用,既不像某些厂商吹嘘的那样无所不能,也不像某些悲观者担心的那样充满风险。它正在以一种很务实的方式,一点一点改变着安全团队的工作方式。
Dave 在访谈里用了一个比喻,我觉得很贴切。他说水位在上涨,所有人都在同一条船上。厂商在往前跑,服务商在往前跑,安全团队也在往前跑。没有人能停下来,但也没有人需要独自游完全程。关键是找到合适的伙伴,不管是厂商、服务商还是开源社区,一起往前走。
Frederick Lee 最后说了一句话,可以作为这篇文章的收尾。他说,AI 不是魔法,它不会替你解决那些你本来就解决不了的问题。但如果你已经有了一套还算靠谱的流程、还算清晰的数据、还算明确的规则,AI 可以帮你把这些东西放大、加速、延伸到那些以前你根本够不着的地方。这是一个工具,一个很好用的工具,但也仅仅是工具。真正起决定作用的,永远是用工具的人。
回到文章开头那个茶歇时的场景。那位安全总监跟我说,他手下那个以前天天加班的分析师,现在每天下午五点准时关机走人。问他怎么做到的,他说也没什么秘诀,就是 AI 帮他把那些最烦人的重复劳动都干了,他只需要做最需要人做的那部分判断就行。这不正是我们一直想要的东西吗?不是取代人,而是把人从琐碎里解放出来,让他们去做真正有价值的事情。
从这个角度看,安全主管们集体押注 AI,与其说是一种技术选择,不如说是一种对人性的尊重。没人应该把时间浪费在那些机器能做得更好的事情上。