找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

5013

积分

0

好友

685

主题
发表于 2 小时前 | 查看: 3| 回复: 0

先说结论:个人认为,这可能是目前开源模型里最能打的一个。但有些细节比这更有意思。

第一,Agent 能力卷到离谱。听说内部已经在用 V4‑Pro 当日常 AI 程序员了。试了下,部分场景感觉体验优于 Sonnet 4.5,交付质量也接近 Opus 4.6 非思考模式。不过,距“思考模式”还是有点差距,但那是 Opus 4.6 那个级别的深度推理,普通人日常也用不上。

第二,“百万上下文”变成标配了。不是 Pro 独享,不是付费解锁,是官网直接给的。我之前还在吐槽百万上下文动不动就崩,要么付费才能解锁,现在 DeepSeek 直接搞成人人可入手。

第三,也是我觉得最震撼的——V4 已经跑到华为昇腾芯片上了。代码直接从 CUDA 生态整个重写到了 CANN 架构。听说这款昇腾 950PR 芯片推理速度比初期版本提升了 35 倍,性能实测能干翻 H20。说实话,这比模型本身厉害多少更有意思:国产算力链 真的走通了。

然后有两个版本:Flash 和 Pro。

先说功能——这次把开发者常用的几样都补齐了:

  • JSON 模式(结构化输出很稳)
  • 函数调用
  • 对话前缀续写
  • FIM 代码补全

基本上工程落地需要的都有了。

价格说人话:Flash 版输入 1 块钱/百万 token,Pro 版 12 块钱。百万上下文场景下输出价格翻倍。还能接受,不是劝退价。

完整定价表和调用方式,去他们官方 API 文档看就行:
https://api-docs.deepseek.com/zh-cn/quick_start/pricing

简单总结:Flash 适合高频低成本场景,Pro 适合需要更强推理的任务。这次没有大吹大擂,但规格给得挺实在。

大概就这么回事。这波能追。更多讨论可以到 云栈社区 聊聊。




上一篇:高并发系统为什么总选Kafka?它究竟在扛什么压力?
下一篇:DeepSeek V4 首发华为昇腾芯片,国产 AI 加速摆脱英伟达依赖
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-4-24 23:47 , Processed in 0.941092 second(s), 41 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表