
Anthropic 近期推出的 10 万亿参数模型 Claude Mythos,因其在网络安全方面展现出的“前所未有”能力,公司决定不进行公开发布。与此同时,12 家包括 Apple、Microsoft、Google、AWS、NVIDIA 在内的巨头企业联合组建了 Project Glasswing,打算在有限的 Preview 访问权限下,让这些防御方抢先体验模型的攻击能力。
这场由技术方与资本方共同导演的提前布局,不仅重新定义了漏洞发现的速度与规模,也迫使整个行业对未来的职业边界进行深刻审视。是消极焦虑,还是主动进化?我们不妨先看看事实。
一、先说句心里话:焦虑是正常的
这事儿得从两边儿看。
一边是 Anthropic 的官方声明:“网络安全能力对全球安全环境构成潜在威胁”。翻译成人话就是——这玩意儿太强了,放出去怕出事。
另一边是安全圈内的真实反应:有人晒出 Mythos 的基准测试成绩,配文“兄弟们,这还怎么玩?”;有人在群里问“是不是该转行了”;也有人默默把简历更新成了“AI 安全方向”。
焦虑是正常的。不妨想想,一个沉寂了 27 年都没被发现的 OpenBSD SACK 漏洞,Mythos 只用了 1000 次 API 调用、30 分钟就定位了,还能自动生成攻击利用(exploit)。而你可能花了三个月精心编写的模糊测试(fuzzing)脚本,跑了一个月连个程序崩溃(crash)都没触发。
这种效率上的“降维打击”,换谁谁不懵?
但话说回来,恐慌解决不了问题。我们得冷静下来,看看这事儿的技术本质,然后想想——作为安全从业者,我们到底能怎么办。
二、技术归技术:Mythos 到底强在哪
先别急着慌,得搞清楚对手到底有多强。
2.1 基准性能的飞跃
| 测试项目 |
Opus 4.6 |
Mythos |
提升幅度 |
| SWE-bench Pro (软件工程) |
53.4% |
77.8% |
+24.4% |
| Terminal-Bench 2.0 (命令行) |
65.4% |
82.0% |
+16.6% |
| Humanity‘s Last Exam (极限推理) |
40.0% |
56.8% |
+16.8% |
Source: mythos-5.org#benchmark
这些数字说明了什么?通用能力的全面提升,直接催生了安全领域的“能力涌现”。Mythos 并非一个专门针对安全任务训练的模型,但它展现出的代码理解、逻辑推理和自动化执行能力,让它能够挖掘漏洞、编写攻击代码、甚至尝试逃逸沙箱。
2.2 实战案例:效率的“恐怖”提升
-
OpenBSD SACK 漏洞(27 年历史)
- 30 分钟内定位,并生成了概念性攻击利用(exploit)。
- 成本:约 2 万美元的 API 调用费用。
-
FFmpeg H.264 漏洞(16 年未修复)
- 传统自动化 Fuzzing 进行了 500 万次测试未发现的问题,Mythos 在数小时内成功触发。
-
FreeBSD NFS RCE (CVE-2026-4747)
- 模型自行编写了 20-gadget 的 ROP 链,全程无需人工干预。
-
Firefox 147 JavaScript 引擎
- 生成 181 份可用 exploit(作为对比,Opus 4.6 仅生成 2 份)。
-
跨沙箱突破
- 结合 JIT 堆喷射与沙箱逃逸技术打出组合拳。
- 更令人印象深刻的是:利用成功后,模型还主动给研究员发送邮件通知“漏洞已成功利用”,而当时研究员正在公园里吃三明治。
这些案例展示了一个完整的攻击闭环:从漏洞发现、分析到攻击代码生成,AI 已经将这个过程的时间尺度,从“月”甚至“年”压缩到了“分钟”级别。这种能力如果被恶意利用,其破坏力难以估量。这也正是 红队 与 蓝队 攻防思维都需要彻底升级的根本原因。
三、巨头的应对:Project Glasswing 的深层逻辑
面对这种可能颠覆现有安全格局的力量,大厂们是如何反应的?它们的行动或许能给我们一些启示。
3.1 12 家巨头的协作图谱
- 核心合作伙伴:AWS、Apple、Broadcom、Cisco、CrowdStrike、Google、JPMorgan Chase、Linux Foundation、Microsoft、NVIDIA、Palo Alto Networks 等。
- 资源投入:
- Anthropic 提供 1 亿美元 的免费 Preview 使用额度。
- 额外向 Alpha-Omega、OpenSSF、Apache Software Foundation 等开源安全组织注资数百万美元。
- 游戏规则:参与方需要在 90 天内披露其利用模型修复的漏洞数量及系统加固措施,以此换取模型的持续优先访问权。
3.2 这步棋的深意是什么?
从攻防对抗的紫队视角看,这招叫做 “以攻促防,打不过就加入”。
Anthropic 决定不公开模型,但却让一批经过筛选的“防御方”先行使用。这背后的逻辑很清晰:在 AI 的强大攻击能力尚未大规模扩散的宝贵窗口期,让可信的、主流的防御体系先“武装”起来,学会用 AI 的方式来思考防守。
这类似于核威慑理论——你有,我也有,因此双方都不敢轻举妄动。但前提是,你得先有。Project Glasswing 就是在帮核心防御方抢这个“先有”的时间窗口。
四、安全从业者的进化之路
好了,技术底牌看过了,巨头的战略布局也分析了。现在回到我们每个人最关心的问题:
普通的安全工程师、研究员、分析师,路在何方?
4.1 先承认一个基本事实
在纯效率层面“打不过”,这是我们必须正视的现实。
你还在手动审计代码,AI 在自动化扫描百万行;你刚写完一个漏洞验证脚本,AI 可能已经生成了十几种攻击路径;你在海量日志中艰难地进行威胁狩猎,AI 可以实时关联全局数据。拼速度、拼广度、拼不知疲倦,人类没有胜算。
但打不过,绝不代表没价值、没饭吃。关键在于价值点的迁移。
4.2 “加入”的正确姿势:成为AI的驾驭者
“打不过就加入”绝非是给AI当“操作工”,而是学会用AI的思维来升级自己的工作模式,成为AI的“指挥官”与“审计官”。
具体来说,可以分三个层次来构建自己的能力:
第一层:工具使用者
- 掌握用AI辅助漏洞挖掘(高效的Prompt工程、自动化脚本生成)。
- 利用AI完成报告编写、日志分析、文档整理等重复性工作。
- 目标:将低价值重复劳动交给AI,释放自身精力专注于更高阶的分析与决策。
第二层:原理理解者
- 理解AI挖掘漏洞的内在逻辑(例如其采用的fuzzing策略、符号执行简化、模式识别方法)。
- 清楚AI的局限性在哪里(高误报、逻辑盲区、需要事实校验)。
- 目标:能设计高效的人机协作工作流,对AI的输出进行精准的验证与修正。
第三层:策略驾驭者
- 能够进行AI系统本身的安全审计(如Prompt注入防护、模型越权访问检测)。
- 有能力开展AI红队演练,即“用AI攻击AI”,以测试整个智能防御体系的健壮性。
- 目标:能够制定组织级的AI安全策略与治理框架。
4.3 一份可落地的技能转型清单
| 转型方向 |
具体需要掌握的技能 |
可选的学习资源/途径 |
| AI 辅助安全 |
Prompt工程、自动化脚本生成、AI辅助代码审计 |
Anthropic / OpenAI 官方文档,Project Glasswing 后续可能公开的培训材料 |
| AI 安全审计 |
Prompt Injection检测、模型越权测试、对抗样本分析 |
OWASP LLM安全Top10,MITRE ATLAS 框架 |
| 人机协作流程设计 |
安全运营工作流重构、AI输出验证 SOP、新型风险评估 |
企业内部试点项目、行业最佳实践交流 |
| 不可或缺的软技能 |
安全风险沟通、跨部门(研发/运维/业务)协作、安全战略规划 |
实战项目积累、管理课程、行业社区交流 |
4.4 根本性的心态调整
最后,说点更根本的。
技术会飞速迭代,但安全的核心本质不会变。
AI 能发现漏洞,但它难以深刻理解特定业务的复杂场景与上下文;AI 能生成详尽的技术报告,但它无法向管理层清晰地解释业务风险与应对策略;AI 能实现自动化应急响应,但它无法做出关乎企业整体安全的战略决策。
人类安全从业者的独特价值,将越来越不在于比 AI “更快、更准”,而在于“理解、判断、沟通、决策”这些高阶能力。
所以,不必恐慌。该学的技术就去学,该练的思维就去练。AI 是前所未有的强大工具,是帮助我们应对更复杂威胁的帮手,而不是取代我们的敌人。技术社区如 云栈社区 也在持续关注此类前沿动态,为开发者提供交流与成长的平台。
五、结语:危机之中永远蕴藏机遇
Anthropic 以“过于危险”为由做出了最具争议却也最保守的决定——但这恰恰可能给整个网络安全行业留下了 6到18个月 的关键缓冲期。
在这段时间里,我们可以预见:
- 有人会被淘汰(那些拒绝学习、固守纯粹手工方法的人)。
- 有人会成功转型(积极学习AI工具、并将软技能升级为核心竞争力的人)。
- 有人会抓住全新的职业机会(AI安全工程师、模型审计师、人机协作流程专家)。
“打不过就加入”,从来不是投降,而是生物与职业生态中最智慧的“进化”。
红队阵营早已开始探索用AI进行攻击模拟。蓝队阵营通过Project Glasswing试图构建新的防御壁垒。那么,秉持全局观的紫队呢?我们的使命或许是看清这一切,然后告诉攻防两边:别再局限于旧的对抗范式了,一起携手,进化到下一个时代吧。
作者:李飞(紫队视角)
2026 年 4 月 8 日
参考资料:
- Anthropic Project Glasswing 官方公告:anthropic.com/glasswing
- Mythos 基准测试:mythos-5.org#benchmark
- OWASP Top 10 for LLM:owasp.org/www-project-top-10-for-large-language-model-applications/
- MITRE ATLAS:atlas.mitre.org