就在昨天,Anthropic 发布了 Project Glasswing,联合 AWS、Apple、Google、Microsoft、NVIDIA、CrowdStrike、Palo Alto Networks 等十二家公司,目标是用 AI 保护全球关键基础设施的软件安全。
促成这件事的直接原因,是 Anthropic 内部训练的一个模型——Claude Mythos Preview。这个模型在 OpenBSD 中发现了一个存在 27 年的远程漏洞,在 FFmpeg 中找到了一个被自动化工具命中 500 万次却从未触发的 16 年老洞,还在 Linux 内核中自主串联多个漏洞构造了完整的提权利用链。CyberGym 漏洞复现测试得分 83.1%,SWE-bench Verified 达到 93.9%。
这些数字本身已经说明了足够多的事情。我更想聊的是,看到这些之后,安全从业者应该怎么想这个问题。
01 执行层的技能,注定会被拿下
漏洞挖掘、逆向工程、渗透测试、告警研判、攻击溯源——安全行业通常把这些称为“底层技能”或“核心硬功夫”。很多人的职业自信就建立在这些能力上。
但这些任务有一个共同特征:成功与否有非常明确的判定标准。漏洞挖掘要么触发崩溃拿到代码执行,要么没有;渗透测试要么拿下 shell 完成提权,要么没有;告警研判最终会确认是真是假。这种“做没做到一目了然”的特性,恰恰是 AI 最容易攻克的任务类型。Mythos 不是终点,而是起点——下一代会更强,没有悬念。
所以我们不需要再讨论“AI 能不能替代这些技能”——它能,而且会越来越彻底。值得讨论的是下一个问题:如果这些技能被接管了,安全从业者的价值锚点应该挪到哪里?
02 从“做事的人”到“决定做什么事的人”
执行层被接管之后,你的角色只有一个方向可以走:站在更高的角度去思考。
举一个具体的例子。假设你是一个逆向工程师,日常就是拆二进制、分析样本。这些事情 AI 正在接管。但你并不需要转行——你需要的是开始用上级的视角来工作。
你的上级可能很少自己亲自逆向。他想的是:团队的方向该怎么定?这批样本里哪些优先级最高?组内的任务怎么分配?产出质量怎么评估?现在你手里有了五个 AI agent,产能可能是以前的好几倍。你事实上就是一个带着五个 agent 的组长——你要决定哪些事情值得做,按什么优先级做,以及怎么确保 agent 的执行结果是有效的。你对所有事情的思考高度,都要往上提一级。
当你站到上级的位置上之后,你会看到另一层东西。上级手里一直攥着很多他知道该做、但资源不够只能妥协掉的事。比如团队里做渗透的同学长期需要免杀能力,理想情况下应该把杀软的检测逻辑逆清楚,而不是靠大量样本黑盒测试碰运气。但以前逆向的人力全排满了,这个需求只能往后放。现在你有了 agent,执行力翻了好几倍,这种以前被迫妥协的事重新回到了牌桌上——你可以让 agent 去逆杀软的检测引擎,直接帮渗透的同学把免杀问题从根上解决。
同样的逻辑适用于每一个层级。组长要站在安全总监的视角去想跨组协同和预算分配,总监要站在 CISO 的视角去想公司级的安全战略。每升一级,需要综合的上下文、需要平衡的利益方、需要做的取舍都多一层。
而且,AI 把执行效率拉高之后,以前每一层领导手里那堆“知道该做但没资源做”的方向,现在全部解锁了,需要有人去填。此外,当攻击者拥有了AI 军团级别的火力——0day 不再稀缺,渗透可以 7×24 小时不间断,传统防御体系的假设被整个掀翻,新的架构、新的策略、新的判断全得有人来做。两个角度看,事情都变多了。企业不会淘汰升维成功的人,反而对他们的需求会越来越大。真正会被淘汰的,是那些拒绝升维、死守“我就只会手动拆样本”的人。
03 一个所有层级都绕不开的基本功
不管你在哪一层,有一件事是通用的:你必须学会驾驭 AI agent。
前面说的一切——站在上级视角思考、发现新的方向——都建立在一个前提上:你能有效地指挥 agent 帮你执行。否则思考层次再高,落不了地也是空谈。
AI agent 不是一个工具,它更像一个员工——一个可以无限复制、要多少有多少、不眠不休的员工。但“员工多”不等于“活干得好”。任何带过团队的人都知道,一堆乌合之众的聪明人并不等于高效能的团队。你要根据每个人的特质,磨合出最好的协作方案。Agent 也一样。
你需要搞清楚的是:怎么给 agent 拆任务它的完成度最高?哪些薄弱环节需要用 Skill 去强化?Agent 的执行流程和运行环境怎么设计?怎么让多个 agent 并行跑且不互相冲突?这些问题没有开箱即用的标准答案,取决于你的具体工作任务、场景,以及你对 agent 能力边界的理解。本质上,你是在和一种全新的协作对象磨合,找到最高效的配合方式。
一个熟练驾驭 agent 的逆向工程师,产出可能抵得上过去一个组,能做的事情无论是广度还是深度都会上一大台阶——这就是杠杆。谁先拉起杠杆,谁就能成为新的超级个体。
04 为什么越高层的判断越难被替代
有人可能会问:AI 越来越强,我们“提高一层”的思维是不是迟早也会被淘汰?
有可能。但层次越高,这个过程大概率就越漫长。这里要回到一个关于 AI 能力的底层逻辑。
AI 之所以能快速攻克漏洞挖掘、渗透测试这些执行层任务,根本原因是这些任务的奖励信号非常清晰——做没做到一目了然,反馈闭环短,模型可以在海量尝试中快速迭代。这是强化学习最擅长的场景。
但当你沿着安全行业的层级往上看,会发现这些条件在逐层瓦解。
安全总监的日常是这样的:手里有二十个待修复漏洞,业务线在催上线,合规审计下个月到期,预算只剩这么多——先做哪个?每一个决定都牵涉多方利益的平衡:安全团队想全修,业务线想快上线,财务想控制成本,法务关心合规风险。他需要综合的上下文比工程师多了一个量级,做完决定之后对不对可能要几个月才看得出来。反馈周期已经不是分钟级,而是以季度计。
到了 CISO 这一层,抽象程度又上了一个台阶。他面对的是董事会、监管机构、业务线、技术团队之间的多方博弈,要基于不完整的信息做出影响深远的战略选择——今年的安全投入是侧重供应链安全还是 AI 安全?出了安全事件,什么时候披露、怎么披露、跟谁先沟通?安全团队要扩张还是用 AI 缩编后把预算投到别处?这些决策的反馈周期可能是一两年甚至更久,而且即使事后回头看,你也很难把结果精确归因到当初的某一个决定上——也许是执行不到位,也许是外部威胁形态变了,也许只是运气。
规律是清晰的:越往上,需要综合的上下文越多,判断就越抽象,越偏向在相互矛盾的目标之间寻找平衡,而不是在明确的标准下寻找最优解。
从 AI 训练的角度看,这意味着越往上,构造有效的训练信号就越困难。反馈周期以年为单位,强化学习无法有效迭代;因果关系高度模糊,出了事也无法归因;最致命的是,这些决策根本不存在“正确答案”,只有“在当时特定的约束条件和利益格局下相对合理的选择”——你没办法标注一个训练集告诉模型“这个决定得 +1 分,那个决定得 -1 分”。
目前,大模型厂商的主要探索方向是:用有明确奖励信号的场景(比如编码)来训练模型的通用推理能力,再期望这种能力泛化到那些没有明确奖励信号的任务上(比如高层次的判断和决策)。一旦这条路线走通,AGI 可能就真的要来了。但在走通之前,我们完全可以做出这样的判断:AI 可以在几小时内找到一个 27 年没人发现的漏洞,但它没法告诉你,考虑到你公司目前的业务阶段、合规压力、团队士气和资源约束,下一个关键的投入方向应该是什么。这类判断需要的不是更强的技术能力,而是对人、对组织、对利益格局的综合理解。
05 结尾
Project Glasswing 里有一个细节值得回味:Anthropic 手里有可能是目前最强的自动化漏洞挖掘引擎,它完全可以自己闷头用。但它选择拉上 12 家公司、40 多个组织,承诺 1 亿美元使用额度,给开源社区捐了 400 万。
因为发现漏洞从来不是最难的部分。修复、协调、披露、合规、推动修复落地——这些需要人与人之间的协调、组织间的信任、标准的制定。这些事情,目前没有任何 AI 能做。
AI 越强,人类在判断、协调和治理层面的价值就越大。但这个价值只属于那些愿意抬起头来重新看全局的人。