找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

2525

积分

0

好友

335

主题
发表于 3 小时前 | 查看: 1| 回复: 0

AI breaking Traditional Security

当AI将运营假设转化为压力会发生什么

传统企业安全运营遵循着一种近乎标准的固定周期:定期扫描发现问题,安全团队对结果进行分类,再通过工单流程推动修复。这种模式虽有一套责任机制,但它往往是隐含且碎片化的。修复工作需要在不同的工具、团队和交接环节之间流转,而不是内置于系统本身。结果呢?产品早已上线,安全团队发出警报后便转向下一个重大风险,而修复工作却持续滞后,事件响应团队也疲于应付大量中低严重性的事件。

这种模式之所以能维持,是因为修复决策的速度时常需要为“快速失败、快速颠覆”的创新理念让步。在软件交付节奏尚属可控的时代,依靠针对承诺交付代码的手动审查、定期扫描报告的归类以及可以延迟的优先级排序,这种覆盖结构似乎就已足够。

人工智能原生产品开发的兴起,彻底打破了这种平衡。采用基于LLM的AI辅助安全分类,可以大幅加速漏洞的发现、检测、分类和优先级排序过程,从而消除问题识别与决策之间的延迟。扫描结果不再是缺乏元数据的队列输出,而是附带了完整的上下文信息:可利用性指标(既包括外部通用指标,也包括应用或平台特定的指标)、所有权元数据以及业务影响信号。

这种转变不仅提升了分类速度,更迫使团队从根本上重新思考漏洞的所有权归属、修复决策的主体以及决策的时效性。现有的运营模型难以应对这种挑战——它们本就不是为处理那些需要立即行动的、上下文完整的安全发现而设计的。

责任机制从隐性到显性

传统的漏洞管理严重依赖抽象化处理。扫描器将发现输入仪表板,生成积压的工单。团队将工作流本身视为所有权的分配,但从未在系统中明确定义过负责的团队或具体角色。

在实践中,这常常导致混乱。当某个漏洞依赖项出现在多个服务中,或其严重性随着新情报而变化时,“谁负责?”这个问题往往需要通过流程演练来解决,而不是系统中的一个已知项。

AI驱动平台改变了这一动态。通过关联从发现到修复的全生命周期数据,它们在检测阶段就能明确所有权。当漏洞能够被直接映射到特定的代码库、流水线和责任团队时,责任制便不再依赖于工单的流转,而是内置于系统架构本身。

曾经的协调问题由此转变为治理问题:既然在检测的瞬间就能明确所有权,那么谁应该对后续的行动负责?

AI分类重构安全团队职能

随着AI系统能够以高置信度对漏洞进行分类,安全团队正面临微妙但重大的责任转变。

现在,人们已不再争论AI能否有效降噪——事实证明它可以。更难的问题是:当分类工作实现自动化之后,哪些职责仍然需要安全团队来承担?是处理具体的发现、确保模型的准确性,还是管理整个决策系统本身?

在实践中,有效的方案正在形成一种混合模式:AI负责处理常规告警并标记高风险项,而安全分析师则负责调查异常信号、调整决策规则并审批例外情况。衡量团队表现的指标也随之变化:团队不再仅仅统计缺陷数量,而是转而追踪误报率、覆盖置信度以及模型性能的演变趋势。

这种转变改变了安全专业知识的应用方式。团队减少了手动分类的时间,将更多精力用于保障整个系统决策的质量。

规模化场景下“人在回路”的价值

虽然全自动的安全测试常被视为终极目标,但实践中这可能会引发新的责任空白。当系统在没有人工检查点的情况下自行做出决策时,责任归属会变得模糊——尤其是当决策影响到生产环境时。

最有效的AI驱动安全项目,往往会刻意保留一些人工决策点。这些点不是瓶颈,而是责任的检查点。自动化负责加速检测与信息丰富化,而人类则保留对高风险结果的最终裁决权。

谷歌的“Big Sleep”项目证明:AI能够在攻击者之前发现可利用的漏洞,但仍然需要人工来验证这些发现并采取行动。企业安全领域也是同理——自动化可以扩展我们的洞察力,但人类必须掌控后果。

AI特性催生新型责任边界

当组织将生成式AI融入其产品时,新型的安全问题也随之产生:提示注入、训练数据泄露和模型操纵等风险,都不适用于现有的安全分类框架。

这实际上形成了一种新的责任边界。产品安全团队必须与AI/ML工程团队紧密协作,明确代码安全、模型行为以及防滥用机制等方面的责任归属。

将AI特性视为一级风险面(而不仅仅是现有风险的延伸),能够强制各方厘清责任。现在就把责任人明确下来,才能在风险演变为实际安全事件或审计发现之前,有效地识别和管理它们。

AI不仅加速了安全流程,更暴露出那些从未被明确定义过责任、所有权和决策机制的环节。那些仅仅将AI视为效率工具、而不去重构底层运营模型的组织,可能会行动得更快,但未必会更安全。成功的团队将会在后果最关键的环节,为显式的所有权、受治理的决策和明确的人类责任,重新设计其运作机制。

参考来源:

AI is breaking traditional security models — Here’s where they fail first
https://www.csoonline.com/article/4149411/ai-is-breaking-traditional-security-models-heres-where-they-fail-first.html

对AI在企业安全运营中的变革有更多想法或实践?欢迎到云栈社区安全/渗透/逆向 板块,与更多同行一起探讨。




上一篇:职教本科为啥被力捧?背后藏着国家人才战略的大棋局
下一篇:CISA紧急警告:F5 BIG-IP高危漏洞CVE-2025-53521正遭攻击者积极利用
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-3-31 08:03 , Processed in 0.861245 second(s), 41 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表