
谷歌威胁情报小组发布的最新报告发出警示:网络攻击的形态正在发生关键演变。威胁行为者已不再满足于对人工智能进行小范围的实验,而是开始将其深度整合到实际的实时攻击工作流程中,以增强攻击的隐蔽性和适应性。
这份报告特别聚焦于针对谷歌自身Gemini模型的滥用与攻击案例,揭示了生成式AI系统正日益成为恶意工具的目标——它们不仅被用来测试和探测,更在某些情况下被直接“征用”为攻击链上的关键一环。
Gemini模型遭恶意代码直接调用
研究人员发现,部分活跃的恶意软件家族在执行过程中会直接向Gemini等模型的API发起调用。一个值得警惕的趋势是,这些恶意软件的变种不再将所有功能“写死”在代码里,而是会动态地向模型发出提示(prompt),请求其生成执行特定任务所需的源代码。
例如,一个被追踪为“HONESTCUE”的恶意软件家族,就通过精心设计的提示词从模型中获取C#代码,并将生成的代码作为攻击链中的一个环节来执行。这种“按需生成”的技术使攻击者能将核心恶意逻辑转移到静态的二进制文件之外,这极有可能绕过那些依赖特征码或预定义行为模式的传统安全检测方法。
模型提取攻击持续涌现
报告还记录了一种持续进行的攻击类型:模型提取攻击,也称为模型蒸馏攻击。威胁行为者通过向云端模型发送海量、结构化的查询,试图系统地推断出模型的内部行为模式、响应逻辑甚至底层知识。
这种攻击的本质,是攻击者希望通过分析模型的输出,在不承担高昂研发成本的情况下,近似复现出专有模型的能力,并以此训练自己的替代系统。谷歌表示,他们已经识别并成功阻断了多起针对Gemini模型知识库的高频提示词提取活动。
AI渗透网络攻击全生命周期
报告的其他发现表明,具有国家背景的组织和以金融犯罪为目的的团体,正在将AI工具整合进网络攻击的各个阶段。这涵盖了从初期侦察、漏洞研究,到恶意脚本开发和钓鱼内容生成的全过程。
生成式AI模型已被证实能够协助制作高可信度的社交工程诱饵、优化恶意的代码片段,并显著加速针对特定技术栈或目标的研究工作。报告同时指出,攻击者正在积极探索具备“智能体”(Agentic)能力的AI系统——这类系统能够以最少的人工干预执行复杂的多步骤任务。
这预示着未来的恶意软件可能集成更自主的决策与执行模块。不过,谷歌评估认为,目前绝大多数案例仍属于利用AI来增强人类攻击者的能力,尚未有证据表明具备完全自主性的Agentic AI被广泛部署于网络攻击中。
业界专家质疑报告动机
对于这份报告的发布,也有安全专家提出了不同的看法。ImmuniWeb SA的首席执行官Ilia Kolochenko通过邮件向媒体表示:“这看起来像是谷歌在投资者对生成式AI的兴趣开始降温、市场出现失望情绪时,精心策划的一次公关宣传。”
他提出了两点反驳:首先,即便高级持续性威胁(APT)组织在攻击中使用了生成式AI,也并不代表这项技术已经能够独立创建复杂的恶意软件或完成完整的攻击链。其次,如果谷歌明知其AI技术被国家级团体或网络恐怖分子滥用,却未采取足够措施,那么它可能需要为相关攻击造成的损失承担法律责任。
Kolochenko强调:“构建有效的防护栏和实施客户尽职调查的成本并不算高昂,本可以预防报告中提到的许多滥用情况。问题的核心在于责任归属——面对受害者,谷歌恐怕很难给出一个令人完全信服的答案。”
参考来源:
Google warns attackers are wiring AI directly into live cyberattacks
https://siliconangle.com/2026/02/12/google-warns-attackers-wiring-ai-directly-live-cyberattacks/
随着AI与安全的攻防对抗进入新阶段,了解最新的威胁动态至关重要。你可以在云栈社区的人工智能和安全/渗透/逆向等板块,找到更多关于AI安全、漏洞研究的前沿讨论与深度分析。
|