先说结论:个人认为,这可能是目前开源模型里最能打的一个。但有些细节比这更有意思。
第一,Agent 能力卷到离谱。听说内部已经在用 V4‑Pro 当日常 AI 程序员了。试了下,部分场景感觉体验优于 Sonnet 4.5,交付质量也接近 Opus 4.6 非思考模式。不过,距“思考模式”还是有点差距,但那是 Opus 4.6 那个级别的深度推理,普通人日常也用不上。
第二,“百万上下文”变成标配了。不是 Pro 独享,不是付费解锁,是官网直接给的。我之前还在吐槽百万上下文动不动就崩,要么付费才能解锁,现在 DeepSeek 直接搞成人人可入手。
第三,也是我觉得最震撼的——V4 已经跑到华为昇腾芯片上了。代码直接从 CUDA 生态整个重写到了 CANN 架构。听说这款昇腾 950PR 芯片推理速度比初期版本提升了 35 倍,性能实测能干翻 H20。说实话,这比模型本身厉害多少更有意思:国产算力链 真的走通了。
然后有两个版本:Flash 和 Pro。
先说功能——这次把开发者常用的几样都补齐了:
- JSON 模式(结构化输出很稳)
- 函数调用
- 对话前缀续写
- FIM 代码补全
基本上工程落地需要的都有了。
价格说人话:Flash 版输入 1 块钱/百万 token,Pro 版 12 块钱。百万上下文场景下输出价格翻倍。还能接受,不是劝退价。
完整定价表和调用方式,去他们官方 API 文档看就行:
https://api-docs.deepseek.com/zh-cn/quick_start/pricing
简单总结:Flash 适合高频低成本场景,Pro 适合需要更强推理的任务。这次没有大吹大擂,但规格给得挺实在。
大概就这么回事。这波能追。更多讨论可以到 云栈社区 聊聊。
|