找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

3580

积分

0

好友

464

主题
发表于 2026-2-15 19:37:10 | 查看: 28| 回复: 0

2026年2月3日,英特尔在Connection Japan 2026活动上,联合软银旗下的SAIMEMORY公司,公开展示了名为Z-Angle Memory(简称ZAM)的新型内存原型。这不仅仅是又一次技术演示,更被视为英特尔退出主流DRAM市场数十年后,以颠覆性架构重返高性能内存领域的一次战略宣言。ZAM通过“Z角交错互连”重新设计3D堆叠逻辑,旨在解决当前高带宽内存(HBM)在散热、功耗和容量扩展方面面临的严峻挑战,或将重塑AI计算时代的内存技术格局。

48小时极速亮相,彰显战略决心

此次公开活动节奏迅猛。英特尔于2月2日刚刚宣布与SAIMEMORY达成合作,次日便在活动现场展示了ZAM实体原型,其推进速度远超行业预期。SAIMEMORY是软银集团于2024年底联合英特尔和东京大学共同创立的公司,其成立的核心理念是“为AI超级周期创造下一代内存范式”,致力于重新定义AI内存,打破功耗与热障壁垒,实现更低的功耗、更高的容量和更宽的带宽。

根据其宣传资料,SAIMEMORY的运营已于2025年7月开始,总部位于日本东京都港区,由软银集团100%控股。此次活动展示了英特尔与日本资本、产业及科研力量(软银、东京大学)形成的技术闭环,旨在共同应对AI数据中心在扩展性上面临的功耗、散热和成本挑战,以及内存技术本身的热管理、性能和供应链(成本)问题。

Z-Angle架构:一场互连拓扑与热管理的革命

ZAM的核心创新并非单纯增加堆叠层数,而是从底层互连拓扑结构出发,彻底摒弃了当前HBM所依赖的硅通孔技术范式。

告别垂直TSV,采用Z角铜互连

传统的HBM及主流3D堆叠技术采用TSV(硅通孔)实现垂直互连。其标准制造流程包括:硅刻蚀、TSV铜填充、后端金属化、正面凸点形成与回流焊,以及后续的载体脱附、芯片堆叠、模塑、背面凸点形成和临时载体键合与背面研磨等复杂步骤。TSV技术存在固有瓶颈:信号和热量沿垂直路径传输,随着堆叠层数增加,寄生参数效应加剧,散热路径不畅,业界普遍认为其物理堆叠上限在20层左右。

ZAM则引入了全新的“Z-Angle Copper Interconnects”(Z角铜互连)。其架构示意图显示,该结构包含顶部的硅片、堆叠的DRAM层、逻辑基底芯片和封装基板。关键区别在于,其铜互连线并非垂直贯穿,而是在堆叠的裸片之间以倾斜的“Z”字形路径进行连接。这种设计避免了垂直打孔,据称能显著降低信号传输损耗,同时为热量提供了全新的疏导通道。

从“热堵点”到“均匀散热”的根本性解决

热管理是制约高密度内存性能与可靠性的终极瓶颈。

  • 传统堆叠问题:热量在垂直堆叠中自上而下聚集,底层的芯片往往成为“热孤岛”,导致芯片过热并被迫降频运行。
  • ZAM架构方案:通过Z角互连和位于堆叠体中央的散热柱设计,热量可以沿着倾斜的互连路径更均匀地向上传导和散发,理论上能够实现整个堆叠体无局部热点,从物理层面解决了高堆叠下的热瓶颈问题。

ZAM预期性能与市场定位

根据公布的对比数据,ZAM在几个关键指标上展现了相对于当前主流HBM的显著优势:

指标 当前主流HBM ZAM预期 核心价值
功耗 受IO与热限制约 降低40%~50% 数据中心TCO大幅下降,机架密度有望翻倍
单芯容量 最高128~256GB 可达512GB 直接适配千亿参数大模型的训练与推理需求
制造成本 TSV工艺复杂、良率敏感 约为HBM的60% 有望打破现有供应商的价格垄断
堆叠层数 物理上限约20层 理论上无上限 为长期容量迭代提供可持续路径

这些数据表明,ZAM并非HBM的简单优化版本,而是面向下一代大规模AI计算需求的原生内存架构。其设计驱动力直接来自对功耗和热约束的考量,目标是实现可扩展的每瓦性能。

英特尔的AI全栈战略与产业联盟

英特尔此次行动并非意图回归传统的DRAM芯片制造与销售,而是为了补全其在AI计算生态中的关键一环。

  • 构建自主生态:目前,NVIDIA凭借其GPU与HBM的强绑定形成了相对封闭的生态优势。英特尔则希望通过其Xeon CPU、Gaudi AI加速器,再结合ZAM内存,打造从算力、内存到软件平台的全栈可控解决方案,减少对单一HBM供应链的依赖。
  • 轻资产创新模式:英特尔并未计划大规模投资建设新的DRAM晶圆厂,而是采取“战略投资+核心技术(如新一代DRAM键合技术NGDB)+生态定义”的轻资产模式,将制造与封测环节交给合作伙伴,力图通过架构创新来获取市场价值。
  • 联盟化标准卡位:通过与软银(资本与生态)、东京大学(研发)的合作,组成“Z-Angle Memory Alliance”,旨在绕过三星、SK海力士等现有巨头的专利壁垒,尝试定义下一代AI内存的行业标准。

根据联盟路线图,其关键时间节点包括:2027年推出工程原型,2030年实现商业化量产。该联盟概述的ZAM优势是容量可达HBM的2-3倍,功耗降低50%且成本相近或更低。合作伙伴包括英特尔的Sandia国家实验室(通过先进内存技术项目)以及软银关联的富士通和日本理化学研究所。此举被外界视为英特尔在AI浪潮中重归DRAM领域的机会,其低功耗、差异化设计主要瞄准边缘和中型AI服务器市场。

ZAM是HBM的替代者还是新赛道开创者?

一个常见的行业误区是将ZAM直接视为“HBM杀手”。更准确的判断可能是:ZAM并非要完全取代HBM,而是开辟了一个新的高性能内存细分战场

  • HBM的核心优势在于极致的带宽,非常适合对算力密度要求极高、数据吞吐量巨大的AI训练场景。
  • ZAM的潜在优势在于更大的单芯片容量、更低的功耗和更具竞争力的成本。这使其更适合大规模AI推理、云数据中心和超算集群等对容量和能效比更为敏感的场景,而这正是AI技术规模化落地所亟需的。
  • 根本性壁垒:热管理是AI内存无法回避的终极瓶颈。HBM通过工艺迭代优化散热存在物理天花板,而ZAM从架构底层重构了热传导路径,这被认为是一种“代际差异”优势。

当然,ZAM走向成熟并实现其承诺仍需克服现实挑战:

  1. 量产良率:Z角交错互连所依赖的先进封装工艺尚未经过大规模生产的验证。
  2. 生态适配:需要获得GPU、AI加速器、主板乃至操作系统和软件栈的全面支持,构建完整生态周期较长。
  3. 市场竞争:现有的HBM主导者(三星、SK海力士)必将加速HBM4、HBM5等迭代技术的研发与降价,以巩固市场地位。

结语:AI内存进入架构创新深水区

ZAM原型的首次公开亮相,标志着AI高性能内存的竞争已从依靠制程工艺的“微创新”阶段,迈入了比拼底层架构设计的“大革命”时期。

英特尔通过一场48小时的快速技术展示,宣告其不再是内存赛道边缘的旁观者。当困扰行业的散热、功耗和容量扩展这三座大山有望被全新的Z角架构撼动时,定义AI计算下一个黄金时代的,或许将是一套全新的内存标准。HBM的垄断格局正在出现裂痕,围绕AI硬件的权力博弈与技术创新,已然进入了一个更加精彩和不确定的新阶段。

对于希望深入理解此类底层硬件原理与系统架构的开发者,可以参考 yunpan.plus/f/36-1 上的相关资料。

参考资料

[1] 内存新架构ZAM能否挑战HBM?, 微信公众号:mp.weixin.qq.com/s/uZLrX7hFkfBfqHCLBhSwMQ

版权声明:本文由 云栈社区 整理发布,版权归原作者所有。




上一篇:谷歌高管预警:AI驱动的自动化网络攻击工具包正加速演进
下一篇:Gemini 3.1 Pro 亮相,谷歌整合 AI Studio 与 Antigravity 实现从原型到生产
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-2-23 11:44 , Processed in 0.986031 second(s), 40 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表