
最近,Anthropic 的操作真是让人直呼“会玩”。
他们给自家的顶级大模型 Claude Opus 4.6 推出了一种“Fast模式”。初闻此讯,我的第一反应是:这怕不是和 Gemini 的 Flash 模式一样,主打一个牺牲智商换速度?
结果仔细一看,发现完全不是那么回事。这个 Fast 模式声称能做到“只提速,不降智”,响应速度最高能提升到原来的 2.5 倍。对于追求效率的用户来说,这无疑是个好消息。
不过,硬币的另一面也随之显现:推理速度加快了 2.5 倍,也就意味着 API 调用费用的消耗速度也同步飙升了 2.5 倍。这简直就是个妥妥的“氪金”专用通道。如果说普通的模型调用是“花钱如流水”,那开启这个 Fast 模式,恐怕就是“花钱如瀑布”了。
对于成本敏感的个人开发者或预算有限的项目来说,是否要启用这个“涡轮增压”模式,恐怕得好好掂量一下钱包的深度了。想了解更多关于大模型技术的前沿讨论,可以来我们云栈社区的 AI 技术板块逛逛。
|