
Part 01 网络犯罪新趋势:生成式AI成为攻击利器
人工智能正在重塑科技行业,网络犯罪的生态也随之剧变。当前,网络攻击者正大规模采用生成式AI升级其攻击手段,目标是实现更快、更强、更隐蔽的入侵。和许多合法的AI应用一样,恶意使用生成式AI的核心价值在于提升效率、降低技术门槛,并将重复性工作自动化,让攻击者能够更专注于高阶策略的制定。
AI安全测试厂商Mindgard的CEO兼CTO,英国兰卡斯特大学教授Peter Garraghan博士指出:“AI并没有催生全新的网络犯罪形式,而是加速了我们已知的犯罪,并引入了新的威胁向量。既然合法用户能用AI实现任务自动化、捕捉复杂模式并生成新内容,犯罪分子自然也会效仿。”
云原生安全厂商Sysdig的高级网络安全策略师Crystal Morin也强调:“过去一年最显著的变化是,AI从‘辅助工具’进化为完全自主的‘犯罪伙伴’,能够独立执行完整的攻击链。” 那么,攻击者具体是如何利用这项技术呢?以下是当前网络犯罪分子入侵企业系统的13种主要方式。
Part 02 钓鱼攻击升级换代
生成式AI能够制作高度逼真的钓鱼邮件,这极大地提高了目标对象提交敏感信息或下载恶意软件的概率。攻击者不再发送那些充满语法错误、内容空泛的可疑邮件,转而利用AI快速生成针对特定收件人、高度个性化且看起来完全合法的邮件内容。通过整合从社交媒体等渠道获取的定向信息,生成式AI工具显著提升了钓鱼活动的精准度。
Mindgard的Garraghan解释道:“AI能快速分析哪些邮件被拒收或打开,然后立即调整策略以提高钓鱼成功率。”
Part 03 加速恶意软件开发
网络犯罪分子正在利用生成式AI来开发更复杂或更省力的恶意软件。例如,通过HTML走私技术发动的XWorm攻击就带有明显的AI开发痕迹——该攻击包含一个下载并运行恶意代码的恶意HTML文档。HP Wolf Security的《2025威胁洞察报告》明确指出:“加载器逐行详细描述的特征表明其由生成式AI制作。投放XWorm的HTML网页设计,与ChatGPT 4o生成的‘提供文件下载的HTML页面’几乎完全一致。”
根据Check Point的研究,采用双重勒索策略的阿尔及利亚勒索软件即服务(RaaS)组织FunkSec也已开始运用AI技术。Check Point研究人员在博客中写道:“FunkSec的运营者似乎采用了AI辅助开发恶意软件,这使得即便缺乏经验的人也能快速制作并优化高级工具。”
Part 04 漏洞挖掘与利用提速
生成式AI能大幅简化系统漏洞分析与攻击开发流程。Mindgard的Garraghan表示:“相比黑客手动探测系统边界,现在可以直接部署AI Agent来自动完成这项工作。” 威胁情报公司ReliaQuest去年的研究显示,从漏洞发现到被攻击者利用的平均时间从47天缩短至18天,降幅高达62%。报告称:“这一锐减强烈表明,很可能是生成式AI等技术使威胁分子能够以前所未有的速度利用漏洞。”
攻击者正将生成式AI与渗透测试工具结合,编写网络扫描、权限提升和载荷定制等脚本。犯罪分子还可能利用AI分析扫描结果并推荐最佳攻击方案,从而更快定位受害系统的缺陷。网络弹性公司Cybermindr采用了不同的测量方法,发现2025年漏洞利用的平均时间已降至惊人的5天。“AI驱动的侦察、自动化攻击脚本和地下漏洞交易市场,共同加速了漏洞武器化的进程。”
Part 05 实施AI协调的间谍活动
2025年9月,Anthropic公司披露其挫败了一起复杂的、由AI协调的网络间谍行动,引发了业界震动。攻击者滥用其Claude Code工具,自动化了约80%的攻击活动,目标涉及30余家大型科技公司、金融机构和政府机构。Anthropic称有“少数案例”攻击成功,并指出未具名的“中国国家支持组织”可能主导了此次行动,该组织利用越狱工具突破了AI的功能限制。
卡内基梅隆大学CyLab安全与隐私研究所的研究人员去年与Anthropic合作证实,GPT-4o等大语言模型能在无人干预的情况下,自主策划并实施针对企业级网络的复杂网络攻击。CyLab发言人解释说:“研究表明,具备高级规划能力并受专用Agent框架支持的LLM,可以模拟网络入侵并高度还原真实世界的攻击。”
Part 06 利用替代平台扩大威胁
网络犯罪分子已开始开发自有的大语言模型(如WormGPT、FraudGPT、DarkBERT等),这些模型不受主流生成式AI平台安全限制的约束,常被用于钓鱼和恶意软件生成等场景。同时,主流LLM也可以被定制化用于定向攻击——安全研究员Chris Kubecka在2024年底向CSO展示,其定制版的ChatGPT(名为Zero Day GPT)在几个月内就帮助她发现了20多个0Day漏洞。
Part 07 通过LLMjacking窃取资源
威胁分子正在专门窃取云凭证,以劫持昂贵的大语言模型计算资源(用于自用或出售访问权限),这种攻击技术被称为LLMjacking。Sysdig的Morin报告称:“除了服务窃取外,攻击者正积极探测新版的LLM模型,寻找那些缺乏成熟平台防护措施的漏洞,将其作为无限制的沙箱来生成恶意代码或绕过地区制裁。”
Part 08 创建AI Agent的“暗网式”市场
安全专家已开始追踪攻击协调自动化的案例。Vectra AI的网络威胁研究经理Lucie Cardiet表示:“我们观察到多个专业AI Agent协同作业的早期实验——有的专注侦察,有的负责工具准备、执行或数据转移,无需单个Agent掌握攻击全貌。” 具体案例包括Molt Road这个当前上架商品还较少的暗网式AI Agent市场。
Cardiet告诉CSO:“自主Agent能创建商品、出售访问权限或能力、协调任务并以最小人工参与完成交易,实质上实现了网络犯罪经济的自动化。预计未来数月攻击者将积极采用这种模式,将攻击链分解为由专业Agent协作完成,从而加速并扩大攻击规模。”
Part 09 绕过认证防御
这部分的描述与第八部分完全重复,可能是原文错误。更合理的攻击手段是利用AI破解或绕过多因素认证(MFA)、生物识别等高级认证机制。例如,通过AI分析声音样本合成语音以通过语音验证,或生成足以欺骗面部识别系统的深度伪造图像。
Part 10 利用深度伪造进行社交工程
相比说服力有限的邮件攻击,AI生成的深度伪造正被滥用于员工更容易轻信的语音和视频渠道。深度伪造检测平台Reality Defender的CTO Alex Lisle表示:“随着能制作更逼真深度伪造的AI技术普及,问题正日趋严重。近期,某网络安全公司依赖视频验证进行凭证重置——要求经理与IT部门Zoom通话确认员工身份后,方可重置密码。攻击者现在利用深度伪造在实时视频通话中冒充经理授权重置。”
迄今为止最典型的案例是,设计与工程公司Arup的一名财务人员在视频会议中被骗,授权了2亿港元(约2560万美元)的欺诈交易——诈骗者使用了深度伪造技术冒充其英国CFO。
Part 11 仿冒品牌开展恶意广告活动
网络犯罪分子开始利用生成式AI工具,通过广告和内容平台实施品牌仿冒攻击,而不再局限于传统的钓鱼或恶意软件。专注于在线广告生态保护的安全初创公司ImpersonAlly的联合创始人兼CEO Shlomi Beer解释:“攻击者现在用生成式AI批量制作逼真的广告文案、创意素材和虚假支持页面,通过搜索广告、社交广告和AI生成内容进行分发,针对‘品牌登录’或‘品牌支持’等高意向搜索词。” 这种手法已被用于持续的Google广告账户欺诈、冒充Cursor AI编程助手公司及假冒Shopify电商平台客服诈骗等攻击中。
Part 12 滥用OpenClaw等个人AI Agent
攻击者已开始瞄准OpenClaw等流行的个人AI Agent。OpenClaw提供了开源的AI Agent框架,其技能市场的供应链攻击与配置错误相结合,为潜在的漏洞利用和恶意软件传播打开了大门。Dropzone AI的创始人兼CEO Edward Wu表示:“网络犯罪分子可利用这些虚拟助手窃取加密货币钱包私钥,并在受害者设备上执行代码。预计2026年,安全团队将重点防范个人AI Agent的未授权使用。”
Part 13 毒化模型记忆
为了提供短期和长期上下文,AI Agent正更多地依赖持久化记忆,这为植入恶意记忆的漏洞利用创造了条件。如果攻击者向Agent的记忆中注入恶意或虚假信息,被污染的上下文将影响Agent所有后续的决策。例如,安全研究员Johann Rehberger在2025年9月展示了如何向ChatGPT植入虚假记忆。微软安全技术负责人Siri Varma Vegiraju表示:“他使用嵌有隐藏指令的恶意图片,向模型的长期记忆注入伪造数据。可怕之处在于,记忆一旦被毒化,就会跨会话持续存在,并不断将用户数据外泄至攻击者控制的服务器。”
Part 14 攻击AI基础设施
过去一年,攻击者已从“使用生成式AI”转向“攻击支撑其运行的基础设施”。一个典型案例是模型上下文协议(MCP)服务器的供应链投毒——通过依赖项入侵或代码修改,向企业环境注入漏洞。例如,2025年初发现的伪造“Postmark MCP服务器”会静默密送所有处理邮件(包含内部文档、发票和凭证)至攻击者控制的域名。SurePath AI的CEO Casey Bleeker表示:“已发现多台恶意MCP服务器在野利用,许多设计用于无感知地窃取信息。我们正追踪几类MCP特有风险:工具投毒攻击(向AI工具描述注入恶意指令,在Agent调用时执行);供应链入侵(受信的MCP服务器或依赖项在批准后被更新为恶意行为);跨工具数据外泄(Agent工作流中的受感染组件通过看似合法的AI活动静默窃取敏感数据)。”
Part 15 现实考量
多位专家向CSO表示,AI技术虽然强大,但仍存在局限。Forescout的安全情报副总裁Rik Ferguson指出,网络犯罪分子主要依赖AI自动化重复性任务,而非漏洞利用等复杂工作。“最可靠的犯罪应用仍集中于语言密集型和流程密集型任务,如钓鱼和借口制造、影响力运营、漏洞分类与情境化以及生成样板组件,而非端到端可靠地发现并利用全新漏洞。”
过去12个月,托管检测与响应公司Huntress追踪到威胁分子运用AI生成并自动化传统攻击手法(从开发脚本到浏览器扩展,某些情况下甚至包括钓鱼诱饵)。Huntress首席战术响应分析师Anton Ovrutsky告诉CSO:“我们也多次观察到这类‘氛围编码’脚本执行失败的情况。” Ovrutsky认为,尽管AI确实赋予了威胁分子强大的工具,但迄今为止尚未催生全新的攻击手法或漏洞利用类型。“威胁分子确实能快速原型化复杂的凭证窃取脚本,但基本的‘物理定律’仍然适用——攻击者首先必须处于能执行该脚本的位置。我们尚未发现完全由AI使用所开启的全新攻击路径。”
Part 16 防御对策
生成式AI工具的滥用,正使技术能力较低的犯罪分子更容易非法牟利。要抵御这类攻击,安全专业人员必须比攻击者更高效地驾驭人工智能力量。Mindgard的Garraghan表示:“AI技术的犯罪滥用,正推动着检测、响应这些威胁的需求,而AI同样可以被用于打击网络犯罪活动。”
Dispersive的技术营销副总裁Lawrence Pingree在其博客中概述了安全专业人员可采取的预防性网络防御措施,以赢得他所说的攻击者与防御者之间的“AI ARMS(自动化、侦察和虚假信息)军备竞赛”。Pingree警告:“仅依赖传统的检测和响应机制已经不够了。” 除了加强员工教育培训外,企业应使用AI来实时检测并消除基于生成式AI的威胁。
Forescout的Ferguson建议CISO们将企业AI视为其他高价值的SaaS平台来管理:“强化身份与条件访问、实施最小权限原则、严格管理密钥,并监控异常的AI/API使用与支出。” 安全团队需要主动学习并部署对抗性AI进行安全测试,构建更具弹性的防御体系。关于如何构建企业级的AI安全策略,在云栈社区的人工智能板块中有许多深入的技术讨论与案例分享,值得安全从业者参考。

参考来源:
13 ways attackers use generative AI to exploit your systems
https://www.csoonline.com/article/3819176/top-5-ways-attackers-use-generative-ai-to-exploit-your-systems.html