找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

4890

积分

0

好友

639

主题
发表于 3 小时前 | 查看: 9| 回复: 0

今天,DeepSeek 正式发布了 DeepSeek-V4 预览版。这个新模型系列带来了百万字超长上下文能力,在 Agent 能力、世界知识和推理性能上都实现了国内与开源领域的领先。

DeepSeek V4 Pro与Flash模型参数对比表格

模型分为两个版本:DeepSeek-V4-ProDeepSeek-V4-Flash。V4-Pro 拥有 1.6T 参数、49B 激活层神经元,预训练数据量达到 33T;V4-Flash 则为 284B 参数、13B 激活层,预训练数据 32T。两者都支持 1M 上下文长度,即日起可在官网 chat.deepseek.com 或官方 App 使用。

性能表现:比肩顶级闭源模型

Agent 能力方面,V4-Pro 表现突出。据官方评测,在 Agentic Coding 测试中已达到当前开源模型最佳水平,公司内部员工使用体验优于 Anthropic 的 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式。

DeepSeek V4与其他模型基准测试性能对比柱状图

世界知识测评中,V4-Pro 大幅领先其他开源模型,仅稍逊于 Gemini-Pro-3.1。在数学、STEM、竞赛型代码等推理任务上,V4-Pro 超越所有已公开评测的开源模型,成绩比肩世界顶级闭源模型。

技术突破:注意力机制创新

DeepSeek-V4 开创了全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力(DeepSeek Sparse Attention),实现了全球领先的长上下文能力。相比传统方法,这种创新大幅降低了对计算和显存的需求。

计算效率与KV缓存对比折线图

从现在开始,1M 上下文将成为 DeepSeek 所有官方服务的标配。

经济选择:V4-Flash 版本

对于需要更快捷、经济服务的用户,V4-Flash 提供了不错的替代方案。虽然在世界知识储备方面稍逊于 V4-Pro,但推理能力接近,在简单 Agent 任务上表现相当。

多个大模型在各基准测试上的详细得分表

API 服务与开源

DeepSeek API 已同步上线 V4-Pro 与 V4-Flash,支持 OpenAI ChatCompletions 接口与 Anthropic 接口。访问新模型时,base_url 不变,model 参数需要改为 deepseek-v4-prodeepseek-v4-flash

两个版本均支持非思考模式与思考模式,思考模式支持 reasoning_effort 参数设置思考强度(high/max)。对于复杂 Agent 场景建议使用思考模式并设置强度为 max。

DeepSeek V4 API调用价格表

模型权重已在 Hugging Face 和 ModelScope 开源,技术报告也已发布。旧有 API 接口的 deepseek-chatdeepseek-reasoner 模型名将在三个月后(2026-07-24)停止使用,当前阶段这两个模型名分别指向 V4-Flash 的非思考模式与思考模式。

4.24 真是个大日子,两大王者回归,新一轮开始...




上一篇:DeepSeek V4悄然发布:Agentic Coding首超Claude Sonnet 4.5
下一篇:解析AI Agent自改代码操控浏览器:800行Python新开源项目Browser Harness
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-4-24 22:02 , Processed in 0.809134 second(s), 41 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表