找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

4225

积分

0

好友

570

主题
发表于 4 小时前 | 查看: 3| 回复: 0

20 petaflops。

2018年,全球第一的超级计算机Summit占地两个篮球场,运算速度是它的十倍。

现代办公桌下的隐藏式AI主机

2026年,这台机器就摆在你显示器旁边,插在普通的墙插上。

NVIDIA在刚刚结束的GTC 2026大会上投下了一颗重磅炸弹:DGX Station,一台桌面超级计算机。它的宣传重点是能跑万亿参数模型——也就是GPT-4那个量级——而且全程离线,不需要碰任何一朵

起售价六位数美元。

老实讲,我第一反应是:这玩意儿谁会买?但看完发布会和首批客户名单,我发现事情远不止是一台新电脑那么简单。它更像是一张通往“AI主权”时代的门票。

748GB内存背后,一道残酷的算术题

科幻风格的透明AI主机

先从硬件规格说起。

DGX Station搭载了全新的GB300 Grace Blackwell Ultra Desktop Superchip。它由一颗72核的Grace CPU和一颗Blackwell Ultra GPU组成,通过NVLink-C2C技术互联,带宽高达1.8TB/s——这是PCIe Gen 6标准的七倍。

20 petaflops的算力放在今天是什么水平?把它塞进一个比普通机箱大不了多少的盒子里,就达到了2018年世界第一超算Summit十分之一的性能。但真正让这台机器能“跑起来”的关键数字,是 748GB

我们来算一笔账。一个万亿参数级别的模型,如果以FP8精度存储,一个参数大约占1字节。那么光是模型权重本身就需要大约1TB的空间。但这远远不够,模型在推理时还需要加载KV缓存、存储中间计算结果……没有足够的内存,再强的算力也无用武之地。

748GB的统一内存意味着什么?它意味着这台机器确实具备了本地运行GPT-4级别模型的能力,而且数据完全不需要离开你的办公室。NVIDIA的这套设计思路非常明确:他们不止是在堆砌算力,更是在弥合“能算”和“算得动”之间的那道鸿沟。

云计算的隐形痛点,被桌面超算精准命中

为什么现在推出桌面超级计算机?因为当前的AI行业正经历一次深刻的范式转移。

在传统的云计算模式下,企业将数据送上云端,通过API调用模型,看似方便快捷。然而,几个问题正日益凸显:数据出向流量(egress)费用高昂得吓人;敏感数据外发面临严峻的合规与安全风险;网络延迟制约了实时应用的体验;最关键的是,你始终是在租用别人的计算资源。

DGX Station瞄准的正是这些痛点。它的核心应用场景并非训练一个全新的万亿参数基础模型——那仍然需要数据中心级别的庞大算力集群。它的真正用武之地在于:微调、推理、以及复杂的AI代理工作流

具体来说,你拿到一个开源的万亿参数模型,想用自己公司的私有数据进行微调。传统流程是:上传数据到云,租赁GPU算力,训练完成后再将模型下载回来。而现在,整个过程都可以在你桌下这台插着电的机器里完成。

更重要的是,NVIDIA此次配套发布了NemoClaw,一个包含了Nemotron模型和OpenShell安全运行时的开源软件堆栈。黄仁勋在发布会上将其称为“个人AI的操作系统”,其定位直指当年的Mac和Windows。这释放出一个强烈信号:NVIDIA正在押注一个趋势——人工智能正在从一种“云端提供的服务”,转变为一种“本地部署的基础设施”。

四台Spark相连,打造“桌面数据中心”

DGX Station并非孤军奋战。NVIDIA同时还为另一款产品DGX Spark推出了集群功能。只需四台Spark连接在一起,就能实现接近线性的性能扩展。这套组合放在会议桌上,就构成了一个“部门级AI平台”,无需申请机柜空间,也绕过了繁琐的IT审批流程。

这套产品组合拳相当精妙:小团队可以用Spark试水,中型团队组建Spark集群,而Solo开发者或大型企业的特定部门则可以直接上马DGX Station。从几千到十几万美元的价位,覆盖了不同阶段开发者的需求。

这里有一个关键优势:架构连续性。你在DGX Station上开发和调试的代码,无需任何修改就能无缝迁移到采用GB300 NVL72的数据中心系统上。NVIDIA销售的不仅是硬件,更是一整套从桌面到数据中心的平滑开发与部署管线。

我认为这一点至关重要。AI开发中最大的隐性成本,往往并非算力本身,而是适配不同硬件架构所耗费的工程时间。NVIDIA此举,相当于直接为开发者砍掉了这部分成本。

从首批买家名单,窥见行业风向

那么,究竟是谁在第一批下单?

连接桌面主机与服务器机房的未来科技插画

名单颇具启发性:Snowflake用它来本地测试开源的Arctic训练框架;电力研究机构EPRI用它进行AI天气预报,以提升电网可靠性;Medivis将其带入手术室,集成视觉语言模型辅助诊疗;微软研究院和康奈尔大学则将其用于AI教学培训。

这个名单很有意思。抢先下手的并非我们想象中的科技巨头,而是医疗、电力、企业数据平台等对“数据主权”有着近乎执念的垂直行业。他们正在将这台桌面超算视为实实在在的生产力工具。

它所支持的模型列表也传递出明确信号:包括OpenAI的gpt-oss-120b、Google Gemma 3、阿里的Qwen3、Mistral Large 3、深度求索的DeepSeek V3.2,以及NVIDIA自家的Nemotron。NVIDIA特意强调了“模型中立”——无论你青睐何种模型,这台机器都能为你本地运行。

某种程度上,这是硬件厂商对软件生态的一次“不站队”表态,旨在构建更广泛的兼容性和吸引力。

战略拼图:NVIDIA要的是整个AI计算版图

将DGX Station置于GTC 2026的全局发布中审视,你会发现它只是宏大拼图中的一块。

NVIDIA同期还发布了Vera Rubin平台,宣布七款新芯片量产,包含72颗GPU的NVL72机柜性能达到Blackstone的10倍。更有甚者,Vera Rubin太空计算模块计划将AI计算送入太空轨道,号称具备25倍于H100的太空推理能力。

其合作伙伴网络横跨多个领域:Adobe的创意AI、比亚迪和日产的L4自动驾驶、与Mistral AI等八家顶级实验室共建开源前沿模型,以及被AWS、Azure、Google Cloud等主流云服务商采用的开源推理操作系统Dynamo 1.0。

我的观察是,NVIDIA正在推行一种“全方位覆盖”战略。从太空到数据中心,从云端到桌面,每一个计算层级都有其对应的芯片和软件栈。DGX Station补全的正是那个“中间层”——介于个人电脑与庞大机房之间,那些企业或个人开发者急需、但传统云计算模式又不太适用的计算场景。

它并非要取代云,而是巧妙地填补了云留下的市场缝隙。对开发者而言,这无疑增加了一个有价值的新选项。

云计算垄断的围墙,正在出现裂痕

说DGX Station会颠覆整个云计算,那无疑是夸大其词。NVIDIA数据中心业务的体量远超其桌面业务,并且仍在高速增长。

但DGX Station确实创造了一个此前不存在的选项。训练一个全新的基础大模型?那依然需要数千张GPU在数据中心里轰鸣。但如果是用私有数据微调一个万亿参数模型、内部推理涉及敏感商业信息、或者先进行原型验证再决定是否上云——那么,一台放在桌下的超级计算机突然就变得非常合理。

这才是NVIDIA战略的精明之处:它并不直接抢夺云的业务,而是开拓一个全新的增量市场。同时,这个新市场反过来能让其云业务更具黏性——因为你在DGX Station上开发的一切,都可以无缝迁移到NVIDIA架构的云服务上。

这不是一场“云”与“桌下”的零和博弈,而是“云+桌下”的协同生态,而NVIDIA在两边都是赢家。

永不关机的AI代理,与桌上的超算

四十年前,个人电脑革命的口号是“让每个桌上都有一台电脑”。

如今,NVIDIA悄然升级了这个命题:让每个桌上都有一台超级计算机,并且上面运行着一个永不休眠的AI代理。

DGX Station提供澎湃的本地算力,NemoClaw则负责驱动AI代理。它可以24小时不间断运转,编写代码、调用工具、处理任务——在你休息时,它仍在工作。

这个未来是让人兴奋还是让人不安?答案可能因人而异。但有一点已无争议:运行前沿AI所需的基础设施,其形态和位置正在发生根本性变化,它正从遥远的数据中心机房,一步步搬到你的桌下。

而那个几乎为所有AI芯片提供核心动力的公司,刚刚决定,把承载这台新引擎的“桌子”也一并卖给你。

参考链接:
https://venturebeat.com/infrastructure/nvidias-dgx-station-is-a-desktop-supercomputer-that-runs-trillion-parameter




上一篇:创想三维更新招股书拟港交所上市,消费级3D打印竞争白热化
下一篇:UI设计与设计系统解析:2026年12大科技公司趋势与团队实战指南
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-3-21 11:05 , Processed in 0.511724 second(s), 41 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表