找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

3241

积分

0

好友

415

主题
发表于 前天 04:49 | 查看: 12| 回复: 0

CTEM for AI Threat 架构图

示意图:AI驱动的攻击如何压缩安全响应时间,以及CTEM(持续威胁暴露管理)框架在AI威胁下的应用。

那些我们早已司空见惯的操作风险,如今正成为悬在头顶的达摩克利斯之剑。当开发人员为赶进度,给新部署的云工作负载授予过度宽松的权限;当工程师生成“临时”API密钥用于测试后却忘记撤销……这些过去被视作可以“逐步修复”的技术债务,在AI时代,其风险性质已发生根本性转变。

2026年展望:“逐步修复”已成奢望

想象一下这样的场景:如今,一个由AI驱动的攻击系统能在数分钟内发现这些过度授权的负载,精准地映射其身份关联图谱,并实时计算出通往核心关键资产的最短攻击路径。安全团队的成员可能还在喝早上的第一杯咖啡,但AI攻击代理(Agent)已经模拟了数千次攻击序列,并开始执行真正的入侵。

本质上,AI将侦察、漏洞模拟和攻击路径优先级排序这些原本耗时耗力的环节,压缩成了一个高度自动化的流水线进程。你的安全团队甚至还没用完午餐,你今天早上制造的那个微不足道的安全暴露点,就可能已经被攻击方的AI建模验证,并整合进了一条切实可行的攻击路径中。

利用时间窗口的全面坍塌

在网络安全的历史上,漏洞的“利用时间窗口”曾更偏向于防御方。典型的流程是:一个漏洞被披露(CVE发布),防御团队评估自身系统的暴露面,随后按照一个相对可预测的补丁周期进行修复。然而,AI的介入彻底打破了这个线性的时间线。

有数据显示,到2025年,超过32%的漏洞在CVE发布的当天甚至之前就已经遭到了实际利用。支撑这一惊人现象的是背后规模庞大的AI自动化扫描基础设施,据称其每秒可以执行高达36,000次扫描。

但问题的关键不仅在于攻击速度的量变,更在于AI带来的质变——对攻击上下文的深度理解。据统计,在所有被安全工具识别出来的安全问题中,仅有大约0.47%是实际可被利用的。当防御团队还在耗费大量精力审查那99.5%的“噪音”警报时,攻击方的AI正在精准地锁定那0.5%的有效目标,筛选出那些能够被串联起来、最终触及关键资产的少数几个关键暴露点。

要全面理解这种新型威胁,我们必须从两个相辅相成的视角来审视:

  1. AI如何作为攻击加速器,颠覆对传统基础设施的攻击模式。
  2. AI基础设施与应用本身如何成为新的攻击面,带来前所未有的安全挑战。

场景一:AI作为攻击加速器

AI攻击者未必总是使用最新的、未被发现的“0day”漏洞。他们利用的往往还是那些已知的CVE漏洞和常见的配置错误,但其攻击的实施达到了机器的速度和规模。

  • 自动化漏洞串联:攻击者不再需要一个“严重”级别的漏洞就能突破防线。AI能够将多个“低危”和“中危”问题像拼图一样串联起来——这里是一个陈旧的凭证,那里是一个配置错误的S3存储桶访问权限。AI代理可以快速解析复杂的身份图谱和系统遥测数据,在几秒钟内发现这些暴露点的汇聚路径,完成过去需要安全分析师耗时数周才能完成的攻击路径绘制工作。

  • 身份蔓延作为武器:在现代IT环境中,机器身份(服务账号、API密钥等)的数量已经达到人类员工的数十倍。这形成了一个由密钥、令牌和服务账户构成的、极其复杂的信任网络。AI工具尤其擅长进行“身份跳转”,能够从一个低安全性的开发容器开始,映射出通过令牌交换、服务账户模拟等路径,经由一个自动备份脚本,最终抵达高价值生产数据库的完整攻击链。

  • 规模化社会工程:网络钓鱼攻击在过去一年激增了超过1265%,核心原因在于AI能够完美地模仿特定企业内部的沟通语气、行文习惯和运营“氛围”。这些不再是广撒网的通用垃圾邮件,而是能精准规避员工安全意识培训的情境感知型定制消息,欺骗性极强。

场景二:AI作为新型攻击面

当攻击者利用AI加速攻击传统系统时,企业自身建设和应用的AI系统也在制造全新的、难以防范的漏洞。攻击者不仅使用AI,更将AI系统本身作为攻击目标。

  • 模型越权与代理滥用:当企业将内部AI代理连接到公司数据源时,可能会无意中使其成为一个可被利用的“困惑代理人”。通过巧妙的提示词注入(Prompt Injection),攻击者可以诱使一个面向公众的客服支持Agent,去查询它本无权访问的内部数据库。敏感数据通过本应提供保护的系统泄露出去,而整个过程的日志却显示为“合法”的AI代理活动。

  • 数据投毒:这类攻击的影响远超一次性的利用瞬间。通过向AI代理的长期记忆(如向量知识库)中注入虚假或恶意数据,攻击者可以创建一种潜伏的“逻辑炸弹”。AI代理在吸收这些被污染的信息后,会在后续交互中持续向内部用户提供错误的决策建议或信息。终端安全检测工具看到的只是AI正常的推理活动,而AI系统本身已经转变为了一个持续的、隐形的内部威胁源。

  • 供应链幻觉攻击:攻击者甚至无需直接接触目标系统就能实施攻击。他们利用大语言模型(LLM)来预测AI编程助手(如GitHub Copilot)会向开发者推荐哪些流行的代码库或包名(这些可能是模型“幻觉”产生的、尚不存在的包)。通过抢先注册这些恶意的“占位”包名,攻击者确保开发者在无意识间将后门直接引入企业的CI/CD流水线。

如何夺回响应窗口?

传统的被动防御模式已经无法匹配AI驱动的攻击速度,因为旧的衡量标准本身已然失效。许多团队仍在统计处理的警报数量和部署的补丁数量,将“处理量”视为安全进展,而攻击者正在利用这些“噪音”积累的间隙,悄无声息地完成实质性的突破。

在AI时代保持防御优势,我们必须将焦点从一个宽泛的问题,转向一个更精准的关键问题:当攻击者试图在系统内进行横向移动时,哪些暴露点是真正具有串联利用价值的关键节点?

为此,组织需要从被动的、基于漏洞清单的修补模式,转向主动的、持续的威胁暴露管理(CTEM)。这是一种运营理念的转型,旨在将无穷尽的安全“暴露点”与实际业务风险进行对齐。

AI攻击者从不关心孤立的发现。他们的策略是将多个暴露点像串联电路一样,组合成通往关键资产的可行路径。因此,我们的修复策略也需要遵循同样的逻辑:聚焦于那些多个攻击路径的交汇处、关键的身份跳转点,用一个精准的修复动作(例如,修改一个关键IAM策略),来同时阻断数十条潜在的攻击路线。

你团队在今天早上的一个常规操作决策,可能在午餐前就已被AI建模为一条可行的攻击路径。防御的唯一出路,是比AI计算这些路径的速度更快地关闭它们。我们必须用自动化的、持续的风险验证和暴露面收敛,来对抗攻击方自动化的漏洞发现与串联。只有这样,我们才能在这场与时间的赛跑中,重新夺回正在坍塌的安全响应窗口。

参考来源:From Exposure to Exploitation: How AI Collapses Your Response Window
https://thehackernews.com/2026/02/from-exposure-to-exploitation-how-ai.html


本文由云栈社区进行技术性梳理与优化,旨在为开发者提供更具可读性与参考价值的网络安全深度分析。欢迎在社区交流更多关于AI安全与防御策略的见解。




上一篇:LPDDR6技术解析:带宽翻倍如何冲击GDDR7显卡市场?
下一篇:MCP服务器安全风险分析:协议漏洞或致代码执行与数据泄露
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-2-23 12:58 , Processed in 0.597107 second(s), 41 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表