DeepSeek两天连续两次降价!
输入输出2.5折的基础上,命中缓存的输入折上折再打1折。
划重点:输入缓存的折扣没有规定时限——DeepSeek研究员陈德里也确认,输入缓存是永久降价,还打上了 #AGIforEveryone 标签。
有学者甚至表示,这将彻底改变人们处理AI记忆的方式。
原来V4发布时所说的“迈入百万上下文普惠时代”,原来是这个意思?
那么打折后到底省了多少钱?只能说,比表面看起来还要更多。
实测编程整体节省83%
首先,在Agent编程任务场景下,输入的比例远高于输出。而且DeepSeek的缓存优化本来就做得好,V4‑Pro的输入缓存命中率约95%,V4‑Flash约91%。也就是说,真实花费的绝大部分token,都是按输入(缓存命中)计算的。在这一点上,V4‑Pro每百万token只比V4‑Flash贵了0.5分钱。
此前量子位的一次测试消耗约3500万token,花费31.73元。我们把用量数据喂给DeepSeek让它自己算一遍,结果与真实花费几乎一致。但是!按照打折后的新价格计算,同样的用量只需要花5.34元——整体节省约83%,仅花了原价17%的成本就能获得相同产出。
后续实际测试中,打折后消耗了1300万V4‑Pro token,缓存命中率还稍有提升至约96%,输出token的占比也差不多,最终实际花费2.36元,也基本符合计算预期。
价格屠夫回来了
降价引发行业震动?DeepSeek可不是第一次这么干了。这种激进的商业策略与其技术理念高度一致:通过底层架构和算法持续创新来压低模型推理成本,并迅速转化为市场竞争力。
回顾一下:2024年8月,DeepSeek就给V3降价,引发阿里云、字节等大厂跟进,掀起了第一轮token价格战。随后R1发布,又通过夜间空闲时段额外打折,让战况进一步升温。而这次V4再度开启价格战,对海外用户的心理冲击更大——换成美元标价,小数点后几位都快数不清了。
有网友总结,学生和AI初学者、小型企业都将从中受益匪浅。
最后,别忘了那行小字。当前Pro版的原价如下(即便只比表面数字,也高得令人咋舌):
| API 访问模型名 |
输入(缓存命中) |
输入(缓存未命中) |
输出 |
上下文长度 |
| deepseek-v4-pro |
1 元/百万tokens |
12 元/百万tokens |
24 元/百万tokens |
1M |
| deepseek-v4-flash |
0.2 元/百万tokens |
1 元/百万tokens |
2 元/百万tokens |
- |
*受限于高端算力,目前Pro的服务吞吐十分有限,预计下半年异腾950超节点批量上市后,Pro的价格会大幅下调。
期待下半年DeepSeek大规模部署华为算力后,价格还能带来什么惊喜。在云栈社区,一线开发者们正围绕模型选型与成本优化展开深入交流,欢迎你的加入。
参考链接:
[1] https://x.com/deepseek_ai/status/2048440764368347611
[2] https://x.com/victor207755822/status/2048442362800804159

|