找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

3774

积分

0

好友

500

主题
发表于 1 小时前 | 查看: 3| 回复: 0

一边游说美国政府收紧对华 AI 芯片出口,一边自己豪掷千金狂囤算力,转身却对开发者频繁“动刀”涨价。Anthropic 近期的操作,彻底点燃了开发者积压已久的不满。

当地时间 5 月 14 日,Anthropic 以中美 AI 竞争为由发布长文,呼吁进一步收紧芯片出口限制。在 Anthropic 的叙事逻辑里,训练前沿 AI 模型最关键的资源是先进芯片,即算力。如果不进一步收紧管制,美国在 2028 年前可能会失去主导权。

同一天稍早时候,路透社报道称,美国已批准约 10 家中国公司购买英伟达专为中国市场定制的 H200 芯片,涉及阿里、腾讯、字节、京东等企业。不过,这批许可尚未转化为实际交付。Anthropic 甚至直接引用了数据,称华为在 2026 年的算力产出仅相当于英伟达的 4%,到 2027 年更是降至 2%。

在 Anthropic 的框架里,中美 AI 竞争被拆解为:智能(谁开发出最强模型)、国内采用(谁更有效整合 AI)、全球分发(谁能部署全球 AI 技术栈)以及韧性(谁能在转型中维持稳定)。其中,模型智能被认为是最重要的一环,而这恰恰是 Anthropic 收入的核心基石。

又又又调价,开发者气疯了

在算力持续紧张的背景下,Anthropic 再一次调整了定价策略。

近日,Anthropic 宣布,从 6 月 15 日起,将把程序化 Claude 使用量与标准聊天订阅额度拆分开来。这意味着,开发者通过 Agent SDK、GitHub Actions,以及 OpenClaw 等第三方智能体框架调用 Claude 时,将进入一个独立的月度积分系统,按类似 API 的方式计费。

过去,开发者用 Claude Pro 或 Max 套餐就能低成本运行自动化任务、智能体脚本与 AI 编程 流水线。如今,这种“一个订阅覆盖多种用途”的模式被打破。程序化使用的月度积分将与订阅档位挂钩:Pro 用户每月获 20 美元积分,Max 5x 用户为 100 美元,Max 20x 用户为 200 美元。

但 Anthropic 早在今年 4 月就已释放信号,称 Claude 订阅将“不再覆盖 OpenClaw 等第三方工具的使用量”,理由是算力容量受限。新政策落地后,开发者要么购买额外用量包,要么转向直接 API 计费。

有趣的是,Anthropic 首席财务官 Krishna Rao 在采访中强调“定价一直比较稳定”,并解释此前 Opus 4.5 降价是“杰文斯悖论”的体现。但现实是,用户对价格极其敏感,频繁的变相涨价引发了强烈抵触。

高级数据科学家 Yadesh Salvi 在 X 上批评,Anthropic 提供的月度额度“连一天的认真工作都撑不过去”。claude -p 这类高频核心功能被限制,却包装成订阅福利。

开发者怒斥订阅新规为垃圾,直言独立开发者不得不迁移至 Codex

Broadcom 高级站点可靠性工程师 Advait Patel 也指出,重度智能体用户消耗的算力远超固定订阅能支撑的范围。运行大模型本就昂贵,无限固定价格的套餐很难长期持续。这笔账很好算:同样的钱,能跑的自动化任务变少了,保持原有强度就得加钱。

影响甚至波及到了巨头。据外媒报道,微软已开始逐步取消数千名内部开发者的 Claude Code 授权,尽管该工具广受欢迎,但财务压力迫使微软将重心收缩至自家的 GitHub Copilot CLI。

独立开发者吐槽 SDK 失效,坦言 200 美元订阅费仅够支撑数小时编程,被迫转向 Codex

对个人开发者而言,新的独立积分池给了些许试验空间,但一旦智能体需要频繁运行,几乎必然滑入按量计费模式。而对于企业,麻烦更大。积分按用户分配、无法团队共享,失控的智能体或糟糕的提示词顷刻间就能烧光额度,导致任务中断或产生额外费用,预算预测的不确定性急剧上升。

“算力是我们整个业务的生命线”

Anthropic 的解药很简单:囤积更多算力。

Krishna 近期直言:“我们采购的算力,就是整个业务的生命线。”事实上,Anthropic 近期在算力市场的扫货堪称疯狂:独家租用 SpaceX Colossus 1 超算中心;与 AWS 签订 10 年超 1000 亿美元协议,锁定 5GW Trainium 算力;签约 Google 与 Broadcom 的下一代 TPU 长单,3.5GW 算力将从 2027 年起交付。此外还有 500 亿美元自建 AI 基础设施的计划。

Krishna 明确提到,公司内部并未看到 深度学习 中 scaling laws 放缓的迹象。在内部,他们会观察不同训练阶段的模型表现,并将客户反馈的痛点转为训练目标。只要 scaling laws 未达天花板,Anthropic 就有极强的动力持续砸钱。

克制采购、大量异构算力终于可以快速消化

“算力买多了会被成本拖垮,买少了又没法服务客户。这两个结果都很危险。”Krishna 坦言,这大概是他即便到今天,仍需花费 30% 到 40% 时间在算力上的原因。

Anthropic 的核心解法在于“灵活性”。公司不把鸡蛋放一个篮子里,同时使用 Amazon Trainium、Google TPU 以及 Nvidia GPU 三类芯片,并搭建了一套编排层来灵活调度不同代际的算力。Krishna 称,所有前沿实验室里,Anthropic 可能是最高效的算力使用者之一。

他们甚至会贴近底层硬件做优化,与 Amazon 的 Annapurna Labs 团队深度合作,参与芯片路线图的制定。

性价比很重要,要把算力拆得非常细

在评估算力时,Anthropic 会把账算到骨头里。

Krishna 将算力来源形容为层层叠加的“算力蛋糕”。公司会动态比较近期、中期、长期算力,核心标准异常务实:能不能有效部署?性价比如何?能用多久?

评估落地时,他们会严密拆解每 token 成本、吞吐量、速度与芯片代际之间的差异。因为对于某些场景,速度与成本同等重要。Krishna 强调,算力怎么用,取决于每种芯片最适合做什么,以及公司什么时候能拿到它。

模型开发有算力保底,内部员工的也得给

有了算力后如何分配?Anthropic 的底线非常清晰。

首先,模型开发有明确的算力下限。哪怕会让服务客户变难,公司也必须持续投入 大模型训练。因为前沿智能的回报极高。其次,内部员工也必须分走一部分算力。Krishna 抛出一个惊人的事实:如果对内部员工断供模型,省下的算力可支撑数十亿美元收入。但现实是,公司内部 90% 以上的代码由 Claude Code 生成,模型正在加速构建下一代模型,这个飞轮不能停。

Krishna 强调,Anthropic 的核心仍是研究实验室,顶尖人才设定方向,模型则作为“放大器”强化这些人才的能力。

算力,不是 Anthropic 的某一项具体成本

Krishna 指出,公司不会孤立地看某一笔 GPU 花费。算力池同时支撑着推理、模型研发与内部提效,在不同时间维度上拉动收入增长。

谈及生态,Krishna 自豪地表示,Anthropic 是唯一同时出现在三大云上,且唯一同时使用三种芯片平台的语言模型实验室。与 Amazon、Google 等伙伴的关系远不止采购,更是从芯片开发到服务交付的深度绑定。

这无疑形成了一个闭环:Anthropic 以保持前沿为由疯狂融资、游说封锁、采购算力;巨大的成本压力使其不得不向开发者“开刀”涨价;而涨出的收入,又将反哺进更庞大的算力竞备之中。只是在这场狂欢里,那句“我们的定价一直比较稳定”,在开发者听来,显得格外刺耳。

参考链接:
https://www.anthropic.com/research/2028-ai-leadership
https://www.reuters.com/business/retail-consumer/us-clears-h200-chip-sales-10-china-firms-nvidia-ceo-looks-breakthrough-2026-05-14/
https://www.infoworld.com/article/4171274/anthropic-puts-claude-agents-on-a-meter-across-its-subscriptions.html
https://www.theverge.com/tech/930447/microsoft-claude-code-discontinued-notepad




上一篇:网络安全工程师必备:11类常用Linux命令速查手册
下一篇:Bun主线合并Rust重写,Zyx ML与Scena 3D同日亮相
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-5-16 22:07 , Processed in 0.717499 second(s), 39 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表