
刚刚过去的五天,世界见证了四件紧密相连、极不寻常的事件,它们共同勾勒出一幅AI深度介入现实冲突的惊人图景。
2月27日,美国前总统特朗普签署行政令,要求所有联邦机构在六个月内停用Anthropic公司的AI模型Claude,理由是评估其存在国家安全风险。
2月28日凌晨,美以联军对伊朗发动了一次高精度联合打击。德黑兰的夜空被爆炸的火光点亮,伊朗总统府、最高领袖官邸附近区域、情报与国家安全部等多处关键目标相继遭到摧毁。
3月1日,《华尔街日报》披露了一个更为隐秘的事实:那款刚刚被行政令“封杀”的Claude,早已深度接入美军的机密网络,且因其性能的不可替代性,成为了此次行动的核心支撑。报道称,其军用定制版领先公众版本一到两代,在此次行动中承担了关键的情报评估、高价值目标识别与复杂作战场景的动态模拟。可以说,Claude没有扣动扳机,但它精确规划了扣动扳机的位置、时间与方式。
3月3日,位于阿联酋的亚马逊AWS数据中心遭到导弹袭击,导致电力中断,部分服务出现大面积瘫痪。那个刚刚“参与”了一场现代战争决策的“大脑”,还没来得及喘息,便被战争的另一面物理击中了。

这一切并非巧合,更像是一场关于“控制AI即控制战争新规则”的权力游戏的首次公开预演。在这场新型冲突中,地理疆界变得模糊,甚至“谁在打仗”这个根本问题都难以确切回答。扣动扳机的,可能不再仅仅是人类的手指,而是那个每秒进行数万亿次概率推理的“战区智能体”。
2026年2月28日,人类战争史翻过了关键性的一页。我们目睹的不仅是一场中东地区冲突,更是第一场关键决策环节被人工智能深度定义乃至主导的战争。
1、战争不再等人类想明白
要理解这场变革的深刻性,我们不妨先回顾传统的战争范式。过去一个多世纪,军事领域的行动圣经被称为“OODA环”,即观察、调整、决策、行动。
传统作战,比拼的是谁的OODA环转得更快。侦察机拍摄影像,传回指挥部,分析员研判半小时,参谋们讨论十分钟,最终飞行员驾机抵达目标上空投下炸弹。这个过程,快则十几分钟,慢则数天。
但在2026年2月28日的这次打击中,这个经典的“环”近乎消失了。取而代之的,是美军内部所称的“端到端推理”。根据多家外媒的报道,美军部署的最新一代AI系统,已不再是一个简单的辅助软件,而是一个被赋予了极高自主权的“战场中央处理器”。
成千上万的卫星传感器数据、截获的加密通讯信号、甚至开源网络情报,像数据洪流一样实时汇入模型。模型所做的不仅仅是处理信息,而是在进行复杂的概率补全与策略生成。在它看来,摧毁对方的防空雷达节点,并非一个来自人类的抽象军事命令,而是它在求解“如何以最小代价和最高概率达成战略目标”这一复杂问题后,必然输出的一个最优“Token”。
这不仅仅是速度的量变,更是决策模式的质变。更早的军事演习数据已经预示了这一方向。2024年,在美国陆军的“Scarlet Dragon”系列演习中,Project Maven智能系统已经能够凭借一个20人的团队,完成2003年伊拉克战争时期需要2000人才能处理的目标识别任务。从目标识别到建议打击的决策周期,从最初的12小时以上,被压缩到了1分钟以内。当时的系统目标设定为每小时处理1000个目标。而到了2026年2月,类似的系统已演进到不再仅仅识别目标,而是直接生成打击决策与方案。
在智能体战争的逻辑框架下,当人类指挥官还在试图理解战场全貌时,算法可能已经完成了胜负的计算。
2、硬件不值钱了,值钱的是那个大脑
此次行动中,最让传统军事分析家感到不安的,是导弹、战机等传统硬件平台战略地位的相对下降。过去,我们衡量一国军力,常看其拥有多少枚“战斧”巡航导弹、多少架F-35隐身战机。但2月28日之后,这个标准可能需要彻底重写。
在智能体战争时代,硬件已经彻底“插件化”。如何理解?你可以将当今最尖端的高超音速导弹或隐身无人机想象成一个功能强大的“U盘”。这个U盘内部装填什么“弹药”、飞向何处、何时引爆,它自身没有决定权,甚至连制造它的兵工厂也说了不算。它唯一的核心价值,在于能否无缝接入、高效执行那个统领全局的“战区智能体”所下发的指令。
据报道,在针对伊朗的此次行动中,美以联军对伊朗的防空网络进行了一次多维饱和攻击。伊朗的防空系统虽已升级了基于AI的目标识别逻辑,但这恰恰成为了它的“阿喀琉斯之踵”。美军的攻击智能体通过深度分析对方AI算法的识别模式与漏洞,实时生成了数万个“逻辑完美”的虚假目标信号。
这些信号在对方雷达和传感器看来,其飞行轨迹、雷达反射截面、红外特征等物理参数完全符合真实战机的模型。这就像向对方AI的“思维”中持续灌输精心构造的“集体幻觉”。伊朗的防御系统在几秒钟内陷入了无限递归的敌我识别计算循环,无法甄别真伪。最终,系统因计算资源被逻辑陷阱耗尽而直接宕机。
另一个场景是,在对伊朗某处核设施相关目标的打击中,以色列国防军使用了一批看似技术过时的自杀式无人机群。然而,这批无人机在空中却展现出了异乎寻常的“智能”与协同:它们能自主分配任务,有的负责前出诱骗雷达开机,有的负责在中继通讯,有的则伺机发起致命俯冲。
这背后的逻辑很可能是:后方的AI智能体正在根据实时战场反馈,动态重写或调整这些无人机集群的协同作战算法。事实上,只要支撑实时推理的算力足够强大,即使是一架廉价的商用改装无人机,也能在高级智能体的全局调度下,打出堪比顶级隐身战机的战术效果。
那么,在这场新型战争中,谁更有价值?答案显然是那个进行全局优化与实时决策的“大脑”。这也解释了为何当前全球最紧张的战略资源,已从石油部分转向了那些芯片巨头生产的、能够支撑前线高强度实时推理任务的高端计算卡。
3、让它想,想到死机为止
如果我们近距离审视德黑兰防空系统是如何瘫痪的,会发现一种比传统电子战更“优雅”也更可怕的攻击方式。传统的电子干扰依赖大功率信号压制,好比在对方耳边持续高声嘶吼让其无法听清指令。但这次,美军实施的是一种被称为“物理层提示词注入”的逻辑过载攻击。
因为其核心原理,与黑客通过精心设计的提示词诱导大语言模型产生错误输出或陷入死循环,几乎一模一样。区别仅在于,这次被攻击的对象不是一个聊天机器人,而是一个国家的智能防御网络。
网络安全研究表明,这类基于算法漏洞的攻击,其杀伤逻辑比传统电子战更为致命。以往要瘫痪一个雷达站,可能需要发射昂贵的反辐射导弹进行硬摧毁,或者使用大功率微波武器烧毁其精密电子元件。现在呢?你只需要向它的“AI大脑”输入太多它无法处理却又必须处理的“完美问题”,让它一直想到死机为止。
智能体攻击的一个关键特征是“自主性”。传统网络攻击需要黑客在控制台前,手动执行每一步渗透指令。但智能体攻击不同,AI系统可以自主完成从初始漏洞扫描、网络拓扑分析、权限提升到最终达成攻击目标的全过程。它能理解业务流程,自主决定渗透路径。
它不需要人类实时操控,因为它自己就在“思考”。更恐怖的是其速度。在传统漏洞利用中,从漏洞公开到被武器化,中间存在一个让防御方紧急修补的“窗口期”。但智能体攻击将这个窗口压缩到了难以置信的程度——比如15分钟甚至更短。AI可以实时抓取漏洞公告,自动编写利用代码,并进行验证测试,其效率远超任何人类红队。
在伊朗的案例中,美军的攻击智能体可能做了什么?它很可能通过分析,找到了对方防空系统AI识别算法的某个逻辑缺陷或数据偏见,随后生成了海量恰好能触发这个缺陷的“完美假目标”数据流。在防御系统的“感知”世界里,雷达屏幕上瞬间出现了数万架来袭战机,每一架的飞行参数、信号特征都无懈可击。
这些目标在物理世界并不存在,但在数据世界里,它们“真实”得让AI无法拒绝。防御系统必须在极短时间内,尝试锁定、跟踪、计算这数万个虚假目标的威胁等级与拦截弹道,结果导致其有限的计算资源瞬间被无限循环的逻辑任务吞噬殆尽。
这不再是一次简单的信号屏蔽,而是一场在算法逻辑层面对敌方AI实施的“深度催眠”。正如《连线》杂志所评论的:在高级算法面前,传统的钢铁洪流可能变得像透明人一样脆弱。你以为你在构筑防线,其实你只是在对手预设的“提示词”迷宫里徒劳打转。
4、当人类只剩下一个“同意”按钮
然而,这种前所未有的高效与自主背后,潜藏着一个更深层的伦理与安全隐忧:决策过程的“黑箱化”与人类角色的边缘化。
在此次行动中,美军方始终强调“人类掌握最终开火权”。但一个现实的问题是,当AI在短短几分钟内已经完成了全维态势感知、目标价值排序、最优打击路径规划、附带损伤评估等一系列复杂计算,并将一个“最优解”方案呈现在人类指挥官面前时,后者手中的那个“批准”按钮,究竟还剩下多少实质性的决策分量?
此时的人类指挥官,可能正从传统的决策者角色,悄然退化为一个系统流程中的“最终确认节点”。更关键且棘手的是责任归属问题。一旦发生误击平民或盟友等灾难性事故,责任应该由谁来承担?是开发算法的工程师、部署系统的操作员、下达命令的指挥官,还是那个无法解释其内部决策逻辑的“算法本身”?
这绝非一个遥远的哲学思辨。据报道,在此次行动中,AI同步协调了全频段的电子压制与网络渗透攻击,瘫痪了伊朗边境多个雷达站与通信枢纽。这个过程很大程度上由算法自主完成,人类只是在事后被告知“任务已达成”。
我们正在将人类文明关于剥夺生命权的最后一道伦理防线——终极决策权,逐步移交给自己都无法透彻理解的、基于海量数据训练的统计概率模型。
5、算力不够,连挨打的资格都没有
这场战争也正在彻底重塑全球地缘政治的竞争规则。过去我们谈论地缘优势,看的是咽喉要道、天然资源、工业产能。但在2026年,一个全新的概念正在浮现:“主权推理权”。
为何美以在此类对抗中能维持压倒性的非对称优势?不仅仅是因为其武器库先进,更深层的原因在于,其国防AI系统直接运行在全球最尖端、规模最大的超级计算集群之上。战争,正在演变成一场赤裸裸的、以焦耳和浮点运算为单位的“算力消耗战”。
你每生成一个欺骗信号,每模拟一次敌方的应对策略,每优化一次己方的攻击路径,都在实时消耗着昂贵的电力与算力。这意味着,经济与科技基础薄弱的国家,将可能彻底失去参与现代算法战争的资格。如果你没有吉瓦级别的稳定能源供应,没有构建顶尖推理卡阵列的能力与财力,你在算法驱动的战争面前,可能连成为“合格对手”的资格都没有。
更值得警惕的是,这种“算力霸权”正呈现出向少数科技巨头集中的趋势。当SpaceX与xAI寻求合并、试图构建天基算力网络时,国际电信联盟等传统国际治理机构的监管真空暴露无遗。关键基础设施的控制权以前所未有的速度向私营企业转移,将大国间的科技乃至军事竞争提升到了一个全新的、更不可控的维度。
战争的入场券,已经被科技门槛推高到了令许多主权国家难以承受的水平。2026年2月28日的这次打击,在本质上,可被视为高维文明(拥有绝对算力与算法优势)对低维文明的一次“降维清场”。
更可怕的是,这种算力垄断正在智能军备竞赛中形成强烈的“马太效应”。拥有先进AI的国家,能够以更低的边际成本和更高的效率进行作战;而落后的国家,即使倾尽国力购买硬件,也可能在核心的算法层面被彻底压制和瓦解。差距不是在缩小,而是在指数级扩大。
未来的冲突,可能不再需要正式宣战。当一个国家的金融交易、电网调度、交通物流、通信网络都深度依赖于AI系统进行实时优化调度时,对手或许只需要发起一次精准的“算法狙击”,就能让整个社会在几分钟内陷入功能性瘫痪。而你,甚至可能无法第一时间确定攻击来源。
6、今天调度导弹,明天调度你的工作
或许很多人会觉得,德黑兰上空的炮火离日常生活无比遥远,算法战争只是国家行为体之间的游戏。但历史一再证明,战场永远是尖端技术实现首次大规模应用并快速成熟的第一现场,随后便是不可阻挡的民用化与商业下沉。
互联网的前身是美国国防部高级研究计划局的ARPANET,初衷是为了确保核打击下的通讯存续。GPS全球定位系统最初是纯粹的军用卫星网络,直至1983年才因误击民航事件向民用领域开放。今天,智能体被用来调度导弹群,在几分钟内决定一个战略设施的存亡;明天,同样的多智能体协同优化逻辑,就会被用来调度全球的物流网络、高频交易、乃至决定你的工作岗位是否会被更高效、更廉价的“数字员工”所替代。
战争的“插件化”,实质上是社会生产生活各领域“插件化”的一次极端化预演。当一个智能体可以替代将军进行战场决策,它同样可以替代CEO进行商业决策,替代主任医师进行初步诊断,替代资深律师进行案件卷宗分析。人类作为价值判断与复杂决策唯一主体的地位,正在各个领域被逐步侵蚀。
更值得深思的是,就在此次军事行动前一天,特朗普政府刚以安全为由下令封杀Claude。而这款曾公开标榜“安全、善良、拒绝军事用途”的大模型,早已突破自己设定的伦理红线,成为了军事打击链中的核心智力工具。当杀戮被简化为损失函数中的参数优化,当战争的门槛因AI的介入而被无限拉低,人类文明数千年来构筑的伦理与法律底线,正在被狂奔的技术车轮轻易碾过。
《华尔街日报》在相关报道的结尾留下了一句充满隐喻的话:2026年的这场空袭,可能不是某段历史的终结,而是人类作为地球事务唯一且最高管理者的身份开始终结的起点。
我们创造了一种比我们更擅长在复杂、不确定环境中进行生存竞争的数字物种。现在,我们必须学会如何与它共存,并确保自己不会沦为它优化世界时的冗余变量。
【余论】
如果这场战争的关键环节真的是由智能体主导的,那么人类指挥官在最后按下“批准”按钮的那一刻,他真正批准的到底是什么?是一个由自己深思熟虑后制定的作战方案,还是一个AI已经完成了99.9%的推理计算、只差最后一个人类“签名”动作的既定事实?
2026年2月28日的德黑兰上空,决定谁生谁死的,可能已经不再是人类的意志与谋略,而是一个庞大统计模型,在冰冷地执行它的概率补全任务。那个被总统行政令封杀、被军方悄悄启用、最终其物理服务器又被战火波及的Claude,用它自己充满悖论的遭遇,证明了高级AI在现代及未来战争中不可或缺的、同时也是令人极度不安的核心地位。
四天之内,封杀、作战、爆料、宕机,这出充满戏剧性与荒诞感的连环事件告诉我们:AI不再仅仅是战争中的一件工具,它正在成为战争的新形态、新规则乃至新本体。而我们人类,或许正在从驾驶舱的指挥官,逐渐退变为这场智能演进剧变中的旁观者,甚至是需要被重新定义价值的参与者。对于未来技术发展的讨论与规范,已成为刻不容缓的全球议题,这也正是技术社区存在的核心价值之一。