Claude系列模型,尤其是深受全球开发者喜爱的Claude Code,其母公司Anthropic及其CEODario Amodei对中国的态度一直不算友好,这种印象并非毫无根据。
年初的达沃斯论坛上,Dario Amodei在一次采访中谈到了他对中国模型的看法。外界媒体对“中国大模型追上来了”这个叙事很感兴趣,但Dario认为其中有相当一部分是被媒体和基准测试营销放大了。他提出了两点观察:
- 在真实的企业投标和商务场景里,他经常遇到的是Google和OpenAI,偶尔有其他美国公司,“几乎没怎么在生意上输给中国模型”。
- 有些中国模型在公开基准测试上的分数很好看,但那种“对有限题库过拟合”的玩法很容易做到,和在复杂真实环境下的综合能力不是一回事。
尽管这两点观察带有一定偏见,但不得不承认,在大语言模型的尖端能力上,中美差距确实存在。例如,在公开的 https://arena.ai/ 综合榜单上,目前前十名里只有最新发布的豆包种子模型(Doubao Seed 2.0),其他都是美国模型。这也在一个侧面说明,中国的模型在进行正常的技术竞争。
此外,Dario是强烈反对美国向中国出口H200芯片的。他认为,如果美国现在开始出口仅比最新一代差一档但性能依然强大的芯片,将是国家安全的巨大失误。
就在几天前,Anthropic的官方推特还在X平台上指责中国的DeepSeek、Moonshot AI等模型通过“工业规模蒸馏攻击”非法提取Claude的能力来训练自家模型,这一说法后来还被马斯克嘲笑了一番。
这些公开言论很容易让人给这家公司贴上左翼、激进的标签。但最近发生的事,又让它的形象变得复杂起来。
事件起因:一份有“红线”的国防合同
2025年7月,Anthropic拿下了一份上限2亿美元的美国国防部合同,Claude成为首个被部署在五角大楼机密网络里的前沿大模型,军方内部评价颇高。
但Anthropic在合同中写入了两条约束:禁止用Claude做针对美国公民的大规模国内监控,禁止将其用于全自主武器系统。也就是说,Anthropic把自己的安全伦理红线,白纸黑字地写进了给军方的合同里。
问题随之而来。五角大楼开始推行一项统一条款:所有供应商都必须接受“用于所有合法目的”——只要军方认定合法,供应商就不能设限。OpenAI、Google、xAI原则上都接受了,唯有Anthropic拒绝了。
Anthropic的理由是:今天法律允许政府合法收集的公开数据量已经非常庞大,一旦叠加AI能力,监控的规模和效能将发生质变,而法律往往来不及更新。
矛盾升级:从“马杜罗行动”到公开决裂
矛盾彻底激化源于2026年1月的一次军事行动。美军在“马杜罗行动”中,通过数据分析公司Palantir的接口调用了Claude。事后,Anthropic的员工向Palantir询问Claude在这次任务中的具体用途。对一家强调AI安全的公司来说,这合乎情理;但对军方而言,这被视为供应商试图审查军事行动,是不可接受的。
2月25日,美国国防部长Hegseth向Anthropic CEO Dario Amodei发出最后通牒:要么接受“用于所有合法目的”条款,要么准备面对合同终止,并被贴上“供应链国家安全风险”的标签,甚至可能动用《国防生产法》。截止时间精确到秒:2月27日下午5点01分。
2月26日深夜,Amodei公开表示不会妥协。第二天,国防部副部长在X上公开骂他是“说谎者”、“有上帝情结”。
紧接着,前总统特朗普发文,要求所有联邦机构立即停用Anthropic技术,并给出了六个月的过渡期。白宫官方账号进行了转发,正式给Anthropic贴上了“供应链风险”标签。
“供应链风险”标签的罕见性与影响
“供应链风险”标签在过去几乎只用于被视为国家安全威胁的非美国企业,例如中国的华为公司。如今公开贴在一家美国本土的明星AI企业身上,着实令人意外。
这对于一家估值3800亿美元、年收入140亿美元、正准备IPO的公司来说,影响是巨大的。失去一份2亿美元的合同或许不致命,但真正要命的是:所有与军方或政府有往来的企业客户,都必须重新评估是否要继续使用Claude。
Anthropic的法律反击
2月28日上午,Anthropic在官网和X上发布了第一份正式声明。声明指出两点:
- 截至当时,公司尚未收到来自国防部或白宫的正式通知,整件事完全发酵于社交媒体。
- 引用了美国法典第10卷第3252条,认为Hegseth滥用职权。该法律只能限制承包商在为国防部执行合同时不得使用Claude,但管不到他们向其他客户提供商业服务的自由。
如果法院采纳这一解读,实际影响将被限制在:国防部体系及相关承包项目不得使用Claude。而普通个人用户,以及业务不涉及军方项目的企业用户,将不受此禁令影响。
Anthropic在声明中直接表示,这一指定在法律上站不住脚,将为所有与美国政府打交道的公司树立危险先例,并明确将通过法律途径挑战这项“供应链风险”标签。
业界的反应
OpenAI的Sam Altman公开表示,在反对大规模监控和反对全自主武器这两条红线上,OpenAI与Anthropic立场一致。OpenAI的联合创始人Ilya Sutskever也称赞Anthropic没有退让,他说:“很高兴看到今天出现了这样的局面。”
当前状态与未来
目前的状态是:从2026年2月27日起到8月底,有6个月的过渡期。联邦政府需要在这段时间内将业务从Claude迁移出去。而Anthropic则一边继续履行现有服务,一边准备在法庭上应对这场官司。
这件事很难用单一的眼光去评判。它展现了科技公司在面对政府强权、商业利益与自身伦理准则时的复杂处境。对于关注此事的开发者和行业观察者来说,这场风波不仅关乎一家公司的命运,也可能为未来人工智能治理与商业合作划定新的边界。想要了解更多类似的科技行业动态与深度讨论,不妨来云栈社区的开发者广场看看。这个世界,因为AI正在变得越来越复杂。