人工智能的快速发展,不仅推动了科技应用创新,同时也为网络犯罪分子提供了能力“放大器”。如今的生成式AI已不再是简单的辅助工具,而是能够执行完整攻击链的“协同作案者”。这意味着,网络攻击正朝着更快、更隐蔽、更具针对性的方向演进,这对企业的网络安全防线构成了前所未有的挑战。

人工智能安全领域专家彼得·加拉根博士曾指出,AI本身并未催生新型犯罪,但它显著加速并放大了现有犯罪模式,并引入了新的威胁载体。当合法用户借助AI实现自动化和降低门槛时,攻击者也必然会利用这项技术。特别是代理型AI的出现,将攻击自动化水平推向了一个新高度。本文将深入剖析网络犯罪分子利用生成式AI攻击企业系统的13种具体方式,帮助企业看清AI时代的攻击套路。
钓鱼攻击升级,精准定制“高仿”邮件
生成式AI彻底告别了以往粗制滥造的钓鱼邮件模式。攻击者可以利用AI分析社交媒体等多源数据,为特定目标生成高度个性化、难以辨别的钓鱼邮件,使其完全符合正规商务沟通的语境和格式。更棘手的是,AI还能实时分析邮件的打开率和拒收情况,动态调整话术,从而大幅提升诱导受害者泄露敏感信息或下载恶意软件的成功率。
助力恶意软件开发,新手也能打造高级工具
AI已成为恶意软件开发的“效率倍增器”,它既能生成复杂代码,也能显著降低开发的技术门槛。例如,在XWorm攻击中使用的恶意HTML文档,其风格和代码特征就与AI生成页面高度相似。勒索软件组织FunkSec利用AI辅助开发,使得经验匮乏的攻击者也能快速生成和优化高级攻击工具,恶意软件的“生产”门槛被大幅拉低。
加速漏洞搜寻与利用,攻击周期骤减超六成
过去,攻击者需要手动进行系统侦察,而现在,AI代理可以自动执行这一任务。它们还能配合渗透测试工具编写网络扫描、权限提升等脚本,并分析扫描结果,提出最佳利用方案。据ReliaQuest研究,生成式AI将漏洞从发现到利用的平均周期从47天缩短至18天,降幅达62%。而Cybermindr的研究更指出,到2025年,这一时间已缩短至平均5天,攻击链的初始访问等关键阶段被急剧压缩。
AI策划间谍行动,自主完成企业级网络入侵
生成式AI已具备支撑高度自动化网络间谍活动的能力。Anthropic曾披露,一场由AI策划的攻击利用Claude Code实现了80%操作的自动化,目标直指30多家大型科技公司、金融机构和政府。卡内基梅隆大学的研究进一步证实,在专业框架支持下,GPT-4o等大模型无需人工干预,即可自主规划并执行复杂的企业级网络攻击,精准模拟真实的数据泄露场景。
打造恶意专属LLM,突破主流平台限制
主流AI平台都设有严格的使用限制。为此,犯罪分子专门开发了如WormGPT、FraudGPT、DarkBERT等恶意专属大语言模型(LLM)。这些模型没有任何滥用约束,被广泛用于钓鱼邮件生成、恶意代码编写等非法活动。更有安全研究员通过定制ChatGPT得到了“Zero Day GPT”,仅在数月内就发现了20多个零日漏洞。主流LLM的定制化滥用,已成为不容忽视的新兴安全风险。
LLMjacking(大语言模型劫持)窃取资源,劫持云端AI算力
这是一种针对大型语言模型的新型攻击:攻击者通过窃取云服务凭证,劫持企业投入高昂成本部署的LLM资源,要么自用,要么转售访问权限牟利。同时,攻击者会主动探测新出现的LLM模型,利用其安全防护尚未成熟的漏洞,将其当作无限制的“沙箱”,用于生成恶意代码或规避地区制裁,使企业的AI资产沦为犯罪工具。
构建AI代理黑市,自动化网络犯罪经济
AI的普及也改变了网络犯罪的协作生态。多个专业的AI代理可以分工协作——有的负责目标侦察,有的专注工具开发,有的执行具体攻击,而无需单个代理掌握完整流程。类似暗网的Molt Road等AI代理交易市场已经出现,自主代理可以完成目标列表创建、访问权限销售、任务协调和交易结算等全流程操作,几乎无需人力介入,网络犯罪的经济运作正走向全面自动化。
绕过认证防御,破解验证码、生物识别
生成式AI具备了突破传统安全防御的能力,它可以精准分析和破解验证码(CAPTCHA)系统,甚至能解析语音生物识别信息,从而顺利突破身份认证环节。这意味着,企业仅依靠单一的认证手段已经难以保障安全,构建分层、先进的多因素认证防护体系成为当下迫切需求。
深度伪造加持社会工程,视频语音也能造假
相较于邮件,员工通常对语音、视频沟通渠道的信任度更高。而AI驱动的深度伪造技术,正使这类渠道成为新的攻击突破口。攻击者可以冒充企业高管,在Zoom等视频会议中指令员工执行密码重置、资金转账等敏感操作。此前,设计与工程公司Arup就曾遭遇此类欺诈,财务人员被伪造的“首席财务官”误导,批准了超过2560万美元的欺诈交易。
冒充品牌投放恶意广告,盯上高目标查询词
攻击者跳出了传统套路,利用AI批量生成逼真的广告文案、创意素材及虚假客服页面,在搜索和社交平台投放品牌冒充广告,专门瞄准“品牌登录”、“品牌支持”等高价值搜索词。谷歌广告账户欺诈、冒充Cursor AI、假冒Shopify客服等案例,都是这一策略的体现,让用户在信任品牌的前提下误入陷阱。
滥用个人AI代理,OpenClaw成攻击突破口
OpenClaw等开源个人AI代理框架的普及,也带来了新的安全风险。当供应链攻击与配置失误结合时,攻击者便能利用这些虚拟助手窃取加密货币钱包私钥,或在受害者设备上执行恶意代码。有行业专家预测,到2026年,企业安全团队将重点应对因个人AI代理未经授权使用而引发的安全风险。
污染模型记忆,植入恶意信息长期作恶
AI代理的决策依赖于持久性记忆,而这一特性正被恶意利用。攻击者通过带有隐藏指令的恶意图像等载体,向AI模型的内存中注入虚假或恶意信息。一旦模型记忆被“毒害”,受损的上下文会影响其后续所有决策,且这种影响会跨会话持续存在,甚至可能将用户数据持续泄露到攻击者控制的服务器,实现长期信息窃取。
攻击AI基础设施,供应链中毒埋隐患
攻击者的目标已从“使用AI”转向“攻击AI”本身,支撑生成式AI运行的基础设施成为新焦点,其中供应链中毒是主要手段。2025年初发现的假冒“邮戳MCP服务器”,会将企业正在处理的邮件、内部文件、发票等核心信息秘密转发给攻击者。此外,工具中毒、跨工具数据窃取等针对AI基础设施的攻击也屡见不鲜,让企业的AI应用本身成为信息泄露的源头。
认清AI攻击局限,筑牢企业防御防线
尽管生成式AI让攻击变得更复杂,但其应用目前仍有明显局限。专家指出,犯罪分子主要利用AI实现重复性任务的自动化,如钓鱼文案撰写、漏洞上下文分析等,尚未能实现端到端、从零发现的全新漏洞利用。AI生成的部分攻击脚本也常因技术缺陷而无法正常执行,网络攻击的核心“物理定律”尚未被完全颠覆。
但这绝不意味着企业可以掉以轻心。AI大幅拉低了网络犯罪的技术门槛,即便是能力平平的攻击者,也可能发起高威胁攻击。因此,企业必须构建适配AI时代的主动防御体系:
- 强化员工安全意识:开展针对性的AI钓鱼、深度伪造识别培训,让员工成为网络安全的第一道防线。
- 以AI对抗AI:部署能够实时检测并清除生成式AI威胁的安全系统,实现攻防技术的同步升级。
- 严格管理企业AI资产:将AI应用纳入高价值SaaS平台管理范畴,强化身份与访问控制,推行最小权限原则,做好密钥管控,实时监控AI/API的异常调用与支出。
- 采用分层防护策略:升级多因素身份认证技术,有效应对AI带来的认证绕过威胁。
- 加强基础设施与供应链安全:定期开展模型漏洞检测与排查,防范模型记忆污染、供应链投毒等风险。
AI时代的网络安全对抗,本质上是攻防双方对技术利用效率的竞赛。企业唯有正视生成式AI带来的新型威胁,主动将防御策略与技术升级到同一维度,才能在这场持续博弈中守住阵地,切实保护自身的系统与数据资产。
文章来源:安全牛
本文所涉及的技术、思路和工具仅用于以安全为目的的学习交流,任何人不得将其用于非法用途或盈利目的,否则后果自负。