今天,DeepSeek 正式发布了 DeepSeek-V4 预览版。这个新模型系列带来了百万字超长上下文能力,在 Agent 能力、世界知识和推理性能上都实现了国内与开源领域的领先。

模型分为两个版本:DeepSeek-V4-Pro 和 DeepSeek-V4-Flash。V4-Pro 拥有 1.6T 参数、49B 激活层神经元,预训练数据量达到 33T;V4-Flash 则为 284B 参数、13B 激活层,预训练数据 32T。两者都支持 1M 上下文长度,即日起可在官网 chat.deepseek.com 或官方 App 使用。
性能表现:比肩顶级闭源模型
在 Agent 能力方面,V4-Pro 表现突出。据官方评测,在 Agentic Coding 测试中已达到当前开源模型最佳水平,公司内部员工使用体验优于 Anthropic 的 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式。

世界知识测评中,V4-Pro 大幅领先其他开源模型,仅稍逊于 Gemini-Pro-3.1。在数学、STEM、竞赛型代码等推理任务上,V4-Pro 超越所有已公开评测的开源模型,成绩比肩世界顶级闭源模型。
技术突破:注意力机制创新
DeepSeek-V4 开创了全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力。相比传统方法,这种创新大幅降低了对计算和显存的需求。

从现在开始,1M 上下文将成为 DeepSeek 所有官方服务的标配。
经济选择:V4-Flash 版本
对于需要更快捷、经济服务的用户,V4-Flash 提供了不错的替代方案。虽然在世界知识储备方面稍逊于 V4-Pro,但推理能力接近,在简单 Agent 任务上表现相当。

API 服务与开源
DeepSeek API 已同步上线 V4-Pro 与 V4-Flash,支持 OpenAI ChatCompletions 接口与 Anthropic 接口。访问新模型时,base_url 不变,model 参数需要改为 deepseek-v4-pro 或 deepseek-v4-flash。
两个版本均支持非思考模式与思考模式,思考模式支持 reasoning_effort 参数设置思考强度(high/max)。对于复杂 Agent 场景建议使用思考模式并设置强度为 max。

模型权重已在 Hugging Face 和 ModelScope 开源,技术报告也已发布。旧有 API 接口的 deepseek-chat 与 deepseek-reasoner 模型名将在三个月后(2026-07-24)停止使用,当前阶段这两个模型名分别指向 V4-Flash 的非思考模式与思考模式。
4.24 真是个大日子,两大王者回归,新一轮开始...
|