找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

4364

积分

1

好友

603

主题
发表于 3 小时前 | 查看: 3| 回复: 0

人工智能的快速发展,不仅推动了科技应用创新,同时也为网络犯罪分子提供了能力“放大器”。如今的生成式AI已不再是简单的辅助工具,而是能够执行完整攻击链的“协同作案者”。这意味着,网络攻击正朝着更快、更隐蔽、更具针对性的方向演进,这对企业的网络安全防线构成了前所未有的挑战。

生成式AI攻击与防御策略示意图

人工智能安全领域专家彼得·加拉根博士曾指出,AI本身并未催生新型犯罪,但它显著加速并放大了现有犯罪模式,并引入了新的威胁载体。当合法用户借助AI实现自动化和降低门槛时,攻击者也必然会利用这项技术。特别是代理型AI的出现,将攻击自动化水平推向了一个新高度。本文将深入剖析网络犯罪分子利用生成式AI攻击企业系统的13种具体方式,帮助企业看清AI时代的攻击套路。

钓鱼攻击升级,精准定制“高仿”邮件

生成式AI彻底告别了以往粗制滥造的钓鱼邮件模式。攻击者可以利用AI分析社交媒体等多源数据,为特定目标生成高度个性化、难以辨别的钓鱼邮件,使其完全符合正规商务沟通的语境和格式。更棘手的是,AI还能实时分析邮件的打开率和拒收情况,动态调整话术,从而大幅提升诱导受害者泄露敏感信息或下载恶意软件的成功率。

助力恶意软件开发,新手也能打造高级工具

AI已成为恶意软件开发的“效率倍增器”,它既能生成复杂代码,也能显著降低开发的技术门槛。例如,在XWorm攻击中使用的恶意HTML文档,其风格和代码特征就与AI生成页面高度相似。勒索软件组织FunkSec利用AI辅助开发,使得经验匮乏的攻击者也能快速生成和优化高级攻击工具,恶意软件的“生产”门槛被大幅拉低。

加速漏洞搜寻与利用,攻击周期骤减超六成

过去,攻击者需要手动进行系统侦察,而现在,AI代理可以自动执行这一任务。它们还能配合渗透测试工具编写网络扫描、权限提升等脚本,并分析扫描结果,提出最佳利用方案。据ReliaQuest研究,生成式AI将漏洞从发现到利用的平均周期从47天缩短至18天,降幅达62%。而Cybermindr的研究更指出,到2025年,这一时间已缩短至平均5天,攻击链的初始访问等关键阶段被急剧压缩。

AI策划间谍行动,自主完成企业级网络入侵

生成式AI已具备支撑高度自动化网络间谍活动的能力。Anthropic曾披露,一场由AI策划的攻击利用Claude Code实现了80%操作的自动化,目标直指30多家大型科技公司、金融机构和政府。卡内基梅隆大学的研究进一步证实,在专业框架支持下,GPT-4o等大模型无需人工干预,即可自主规划并执行复杂的企业级网络攻击,精准模拟真实的数据泄露场景。

打造恶意专属LLM,突破主流平台限制

主流AI平台都设有严格的使用限制。为此,犯罪分子专门开发了如WormGPT、FraudGPT、DarkBERT等恶意专属大语言模型(LLM)。这些模型没有任何滥用约束,被广泛用于钓鱼邮件生成、恶意代码编写等非法活动。更有安全研究员通过定制ChatGPT得到了“Zero Day GPT”,仅在数月内就发现了20多个零日漏洞。主流LLM的定制化滥用,已成为不容忽视的新兴安全风险。

LLMjacking(大语言模型劫持)窃取资源,劫持云端AI算力

这是一种针对大型语言模型的新型攻击:攻击者通过窃取云服务凭证,劫持企业投入高昂成本部署的LLM资源,要么自用,要么转售访问权限牟利。同时,攻击者会主动探测新出现的LLM模型,利用其安全防护尚未成熟的漏洞,将其当作无限制的“沙箱”,用于生成恶意代码或规避地区制裁,使企业的AI资产沦为犯罪工具。

构建AI代理黑市,自动化网络犯罪经济

AI的普及也改变了网络犯罪的协作生态。多个专业的AI代理可以分工协作——有的负责目标侦察,有的专注工具开发,有的执行具体攻击,而无需单个代理掌握完整流程。类似暗网的Molt Road等AI代理交易市场已经出现,自主代理可以完成目标列表创建、访问权限销售、任务协调和交易结算等全流程操作,几乎无需人力介入,网络犯罪的经济运作正走向全面自动化。

绕过认证防御,破解验证码、生物识别

生成式AI具备了突破传统安全防御的能力,它可以精准分析和破解验证码(CAPTCHA)系统,甚至能解析语音生物识别信息,从而顺利突破身份认证环节。这意味着,企业仅依靠单一的认证手段已经难以保障安全,构建分层、先进的多因素认证防护体系成为当下迫切需求。

深度伪造加持社会工程,视频语音也能造假

相较于邮件,员工通常对语音、视频沟通渠道的信任度更高。而AI驱动的深度伪造技术,正使这类渠道成为新的攻击突破口。攻击者可以冒充企业高管,在Zoom等视频会议中指令员工执行密码重置、资金转账等敏感操作。此前,设计与工程公司Arup就曾遭遇此类欺诈,财务人员被伪造的“首席财务官”误导,批准了超过2560万美元的欺诈交易。

冒充品牌投放恶意广告,盯上高目标查询词

攻击者跳出了传统套路,利用AI批量生成逼真的广告文案、创意素材及虚假客服页面,在搜索和社交平台投放品牌冒充广告,专门瞄准“品牌登录”、“品牌支持”等高价值搜索词。谷歌广告账户欺诈、冒充Cursor AI、假冒Shopify客服等案例,都是这一策略的体现,让用户在信任品牌的前提下误入陷阱。

滥用个人AI代理,OpenClaw成攻击突破口

OpenClaw等开源个人AI代理框架的普及,也带来了新的安全风险。当供应链攻击与配置失误结合时,攻击者便能利用这些虚拟助手窃取加密货币钱包私钥,或在受害者设备上执行恶意代码。有行业专家预测,到2026年,企业安全团队将重点应对因个人AI代理未经授权使用而引发的安全风险。

污染模型记忆,植入恶意信息长期作恶

AI代理的决策依赖于持久性记忆,而这一特性正被恶意利用。攻击者通过带有隐藏指令的恶意图像等载体,向AI模型的内存中注入虚假或恶意信息。一旦模型记忆被“毒害”,受损的上下文会影响其后续所有决策,且这种影响会跨会话持续存在,甚至可能将用户数据持续泄露到攻击者控制的服务器,实现长期信息窃取。

攻击AI基础设施,供应链中毒埋隐患

攻击者的目标已从“使用AI”转向“攻击AI”本身,支撑生成式AI运行的基础设施成为新焦点,其中供应链中毒是主要手段。2025年初发现的假冒“邮戳MCP服务器”,会将企业正在处理的邮件、内部文件、发票等核心信息秘密转发给攻击者。此外,工具中毒、跨工具数据窃取等针对AI基础设施的攻击也屡见不鲜,让企业的AI应用本身成为信息泄露的源头。

认清AI攻击局限,筑牢企业防御防线

尽管生成式AI让攻击变得更复杂,但其应用目前仍有明显局限。专家指出,犯罪分子主要利用AI实现重复性任务的自动化,如钓鱼文案撰写、漏洞上下文分析等,尚未能实现端到端、从零发现的全新漏洞利用。AI生成的部分攻击脚本也常因技术缺陷而无法正常执行,网络攻击的核心“物理定律”尚未被完全颠覆。

但这绝不意味着企业可以掉以轻心。AI大幅拉低了网络犯罪的技术门槛,即便是能力平平的攻击者,也可能发起高威胁攻击。因此,企业必须构建适配AI时代的主动防御体系:

  • 强化员工安全意识:开展针对性的AI钓鱼、深度伪造识别培训,让员工成为网络安全的第一道防线。
  • 以AI对抗AI:部署能够实时检测并清除生成式AI威胁的安全系统,实现攻防技术的同步升级。
  • 严格管理企业AI资产:将AI应用纳入高价值SaaS平台管理范畴,强化身份与访问控制,推行最小权限原则,做好密钥管控,实时监控AI/API的异常调用与支出。
  • 采用分层防护策略:升级多因素身份认证技术,有效应对AI带来的认证绕过威胁。
  • 加强基础设施与供应链安全:定期开展模型漏洞检测与排查,防范模型记忆污染、供应链投毒等风险。

AI时代的网络安全对抗,本质上是攻防双方对技术利用效率的竞赛。企业唯有正视生成式AI带来的新型威胁,主动将防御策略与技术升级到同一维度,才能在这场持续博弈中守住阵地,切实保护自身的系统与数据资产。

文章来源:安全牛

本文所涉及的技术、思路和工具仅用于以安全为目的的学习交流,任何人不得将其用于非法用途或盈利目的,否则后果自负。




上一篇:旧设备安全修复:苹果紧急更新iOS 15.8.7/16.7.15,修复被Coruna漏洞包利用的WebKit高危漏洞
下一篇:AI提示词注入:防御逆向工程的新前线与C/C++实战
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-3-14 08:27 , Processed in 0.437167 second(s), 42 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表