找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

5414

积分

1

好友

743

主题
发表于 2 小时前 | 查看: 4| 回复: 0

DeepSeek 正式开放了新一代 DeepSeek-V4 系列模型,本次发布的旗舰版 DeepSeek-V4-Pro 与轻量版 DeepSeek-V4-Flash 均支持百万 token 的超长上下文,并以完全免费的方式提供给开发者和普通用户。

DeepSeek V4 品牌标识与社交入口

此前,DeepSeek-V4 预览版:迈入百万上下文普惠时代 已经点明了这次更新的方向。现在正式版本终于落地,两款模型的核心规格如下:

DeepSeek-V4 Pro 与 Flash 模型参数对比

从上表可以看到,Pro 版本拥有 1.6T 总参、49B 激活参数,而 Flash 版也有 284B 总参、13B 激活,两块模型均基于超过 32T tokens 的 预训练数据 训练,上下文窗口直接拉满到 1M,且均已开源并开放 API 服务。

体验方式:

  • 访问官网 chat.deepseek.com 或下载官方 App 即可直接使用。
  • API 已同步更新,将 model_name 更改为 deepseek-v4-prodeepseek-v4-flash 即可调用。

迁移提醒:
旧版接口中的 deepseek-chatdeepseek-reasoner 将在 2026 年 7 月 24 日(三个月后)停止服务。当前过渡期内,这两个旧模型名会分别指向 deepseek-v4-flash非思考模式思考模式>,建议尽早切换至新模型名。

DeepSeek V4 模型自我介绍截图

更多关于 DeepSeek-V4 的技术细节与开发者讨论,欢迎来 云栈社区 交流。




上一篇:用语音输入写AI提示词,真的比精心设计更高效吗?
下一篇:DeepSeek V4预览版开源:百万上下文、Agent原生适配与MoE架构深度解读
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-4-24 23:46 , Processed in 0.929943 second(s), 41 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表