关键词:NPU、NPU 设计、架构权衡、恰适规模、软(算法)硬件协同优化
NPU 的设计,本质上是在当下硅片的物理极限与未来智能算法的未知疆域之间,架设一座既要坚固耐用又要能灵活延伸的桥梁;是在极致约束下的系统级艺术,其核心不在于追求单一的峰值算力,而在于深刻理解目标应用场景,实现“恰适规模”的精准适配,以及跨领域、全流程的协同优化。
这其中没有标准答案,只有针对特定场景、经过精密计算的系列权衡——从硬核与可编程的架构抉择,到 PPAA 的四维度平衡,再到训练、量化与硬件的协同,每一步都考验着行业的智慧。
随着 AI 浪潮持续汹涌,这些权衡与协同将变得更加关键,也更为艰难。它要求整个行业不仅要在工具和方法论上创新,更要在人才培养和协作模式上打破藩篱,让硬件与软件的智慧更深地融合,让跨领域的协作成为常态。
不久前,Semiconductor Engineering 组织了一次专家圆桌会议,聚焦 AI/ML 技术推动下,神经网络处理器(NPU)设计活动的爆发式增长这一核心议题。当前,从数据中心到 PC、智能手机等各类边缘终端,NPU 设计需求与研发节奏都在急剧提升,会议围绕这一趋势展开深度探讨。
参会嘉宾有:Jason Lawley@Cadence 公司 AI IP 产品营销总监、Sharad Chole@Expedera 首席科学家、联合创始人、Steve Roddy@Quadric 首席营销官、Steven Woo@Rambus 院士、杰出发明家、Russell Klein@西门子 EDA 高级综合事业部项目总监、Gordon Cooper@新思科技首席产品经理。
NPU 的设计绝非简单的性能堆砌,而是一场在相互制约的硬性条件、充满变数的未来需求与全流程协同之间,进行的精密系统级工程实践,其中既包含多维度的权衡艺术,也强调“恰适规模”的精准适配,更离不开跨领域的协同优化。
近日,多位来自半导体 IP、EDA 及芯片设计领域的专家齐聚一堂,深入剖析了 NPU 设计中的关键挑战、核心抉择与未来趋势。
本文目录
- 一、架构核心抉择:硬核与可编程的永恒博弈
- 二、恰适规模:场景定义边界,平衡贯穿始终
- 三、协同优化:跨越全流程,打破领域鸿沟
- 3.1 训练与量化的共生关系
- 3.2 准确性的重新定义与验证挑战
- 3.3 硬件架构与工具链的协同支撑
- 3.4 跨领域协作与人才培养困境
- 四、工作负载表征与行业基准:锚定设计方向
- 五、未来展望:边缘化、融合与系统级挑战
- 六、结语

一、架构核心抉择:硬核与可编程的永恒博弈
NPU 设计的起点,便面临一个根本性抉择:应将多少功能硬连线(Hardwired)以实现极致能效,又应保留多少可编程性(Programmability)以应对未来未知的算法迭代?这一矛盾贯穿架构设计的全过程,也决定了 NPU 的通用性与定制化走向。
Synopsys 的 Gordon Cooper 以激活函数设计为例,道出了其中的两难:为 ReLU、Swish 等已知函数设计专用硬件电路固然面积高效,但无人能预知下一篇学术论文会提出何种新函数。因此,一个看似更“浪费”面积的查找表(LUT)方案,反而可能因长远灵活性而成为更优解。他总结道,完全像 ASIC 一样针对单一算法进行极致优化已越来越罕见,某种程度的灵活性已成为必需品,而 NPU 存在的根本价值,就在于其相较于 GPU 需实现能效和面积效率的数量级提升。
Quadric 的 Steve Roddy 将这一矛盾置于时间维度上进一步审视:一颗复杂 SoC 的设计周期可能长达 24 至 36 个月,而最前沿的 AI 模型却在以月为单位迭代。这意味着,架构师今天锁定的硅片方案,必须在三年后能够流畅运行彼时尚未诞生的 AI 工作负载。
- 只有那些功能绝对封闭、无需新算法的“黑盒”设备,才可能完全采用固定功能的加速器;
- 对于绝大多数设计,一个通用、可编程的 NPU 正成为明确需求。
这种可编程性不仅有助于基于当前负载进行规模规划,更是应对未来 AI 工作负载突变的“未来验证”关键。
由此,NPU 架构呈现出从通用到高度定制化的完整光谱。Siemens EDA 的 Russell Klein 阐述了定制化路径的巨大潜力:通过高层次综合(HLS)技术,可以为特定算法创建“量身定制”的硬件实现,例如精确缩小乘法器的位宽以满足实际需求,而非保留宽泛的余量。由于面积和功耗大致与操作数位宽的平方成正比,缩小算子能带来显著的二次方效益,从而实现远超通用 NPU 的能效与性能。但这种极致优化是以牺牲未来适用性为代价的,“一旦固化,无法回头”,除非重流片或重新编程 FPGA,因此权衡点在于:是否值得为已知的、不变的工作负载,牺牲所有的灵活性。
Cadence 的 Jason Lawley 则从 IP 提供商的角度补充,关键在于在 IP 生成阶段提供足够的“调节旋钮”,以适配从低功耗音频到高端生成式 AI 等截然不同的产品空间需求。
二、恰适规模:场景定义边界,平衡贯穿始终
不同的应用领域,为 NPU 设计划定了截然不同的权衡边界,而“恰适规模”(Right-Sizing)的设计,已不再是可选项,而是决定产品成败的关键——即在有限的功耗、性能与面积(PPA)预算内,精准满足目标应用的精度与延迟需求。
在生死攸关的汽车电子领域,Expedera 的 Sharad Chole 指出,确定性(Determinism)和延迟保证是压倒一切的考量。例如,一个自动驾驶的感知请求必须在 10 毫秒内得到响应,否则系统可能失效。这要求 NPU 本身、内存带宽、乃至整个系统运行时,都必须提供确定性的服务保障。复杂的任务上下文切换、优先级管理以及通过虚拟化实现硬件资源隔离等功能,正使汽车 NPU 向服务器级复杂度演进。
从系统级视角来看,“恰适规模”远不止是优化处理核心的 PPA,更关乎如何高效地为这颗“数据饥渴”的处理器供应数据。Rambus 的 Steven Woo 揭示了内存层次结构带来的压力:NPU 高度并行的特性要求与之匹配的数据供给能力,但作为理想缓存的 SRAM 缩放速度不及预期,这迫使设计压力传导至 DRAM 层级。Expedera 的 Sharad Chole 进一步补充,NPU 所执行的理论操作数量比 SoC 中的其他单元高出数个数量级,随着扩散模型、大语言模型等新架构涌现,NPU 所需访问的内存带宽也呈现指数级增长,无论是片内还是片外内存,其需求都可能达到其他应用的十倍以上。
当深入 NPU 微架构时,这种“恰适规模”的权衡变得更为精细和多元。Cadence 的 Jason Lawley 提到,需要在标量/向量计算单元与核心的矩阵计算资源之间找到黄金分割点,过多会造成面积浪费,过少则导致性能瓶颈;类似地,MAC 数量、专用内存大小、接口带宽等,每一个参数都是一个需要“量身定制”的决策。Russell Klein 则进一步强调,设计需在计算与通信能力之间取得微妙的平衡:过多的乘法器可能因数据无法及时供给而闲置,而过大的数据通道或缓存则会浪费宝贵的芯片面积和功耗。Steven Woo 提到的“屋顶线模型”,正是帮助架构师分析特定神经网络应用在特定架构下,究竟是受计算力限制还是受内存带宽限制,从而指引架构调整方向的关键工具。
值得注意的是,传统的 PPA 权衡已升级为 PPAA(性能、功耗、面积、准确度)的四维度平衡。
Sharad Chole 提出,对于应用而言,准确度(Accuracy)已成为与 PPA 同等重要的第四大核心指标,设计决策需在这四个维度上综合权衡。这意味着架构师不能仅基于孤立的算子(内核)进行优化,而必须基于具有代表性的完整工作负载来获取在延迟、功耗、精度等方面的综合权衡数据。
三、协同优化:跨越全流程,打破领域鸿沟
NPU 的设计已不再是单纯的硬件竞赛,而是一场需要算法研究员、数据科学家、硬件架构师和工具开发者紧密协作的复杂工程,其核心在于优化从训练数据集到硬件晶体管之间整个链条上的每一个环节,尤其是训练、量化与硬件集成的协同。
3.1 训练与量化的共生关系
模型的起点在于训练,而其终点是硬件上的高效推理,二者的协同程度直接决定了硬件优化的空间。
Siemens EDA 的 Russell Klein 指出,一个训练充分、避免过拟合的模型,能为量化(如从 32 位浮点降至 8 位定点)和网络结构简化(减少层数或通道数)提供更大余裕,从而显著降低推理所需的计算量与能耗。但这要求数据科学家具备一定的硬件思维——Klein 曾分享,他询问数据科学家能否将数据精度降低几位时,对方感到困惑,直到解释这是为了在边缘设备上节省时间和能量,才达成共识,这种跨领域的理解至关重要。
当前普遍的流程是硬件团队接收已训练好的模型并使其运行,鲜少回溯优化训练本身。但 Gordon Cooper 补充,更理想的状态是硬件与训练团队的早期协作。值得庆幸的是,正如 Sharad Chole 所述,行业在卷积神经网络和视觉 Transformer 等领域已趋于成熟,量化感知训练已成为数据科学家工具箱中的标准部分。然而,大语言模型(LLM)的兴起打破了这一平衡,其量化方法多达数十种,且评估准确性本身(例如通过困惑度指标)极为复杂,这为 NPU 设计带来了新的不确定性。
3.2 准确性的重新定义与验证挑战
在 CNN 时代,INT8 量化的准确性是相对明确的追求目标,但进入 Transformer 和 LLM 时代后,情况变得复杂。
Gordon Cooper 强调,准确性如今比单纯的每秒帧数或算力指标更为重要,却也更加难以衡量——模型可能混合使用 FP16、INT8 甚至 INT4 等多样化的数据类型,如何公平地评估不同硬件方案的有效性成为难题。
Sharad Chole 直言,对于 LLM,精确的准确性测量“几乎疯狂”,通常需要人工检查或依赖客户自身的评估。因此,拥有一个能够快速进行比特级精度验证的硬件仿真平台(如 FPGA 原型)变得极为关键,其速度可比软件仿真快上百倍。Steven Woo 则从互连技术的视角指出,过去十年推理性能的千倍提升,很大程度上源于数据表示格式的优化(如使用更短的数值),这本质上是带宽利用与准确性之间的权衡,而“可接受的准确性”标准因应用而异,取决于开发者如何平衡资源效率与性能需求。
3.3 硬件架构与工具链的协同支撑
面对训练、量化与准确性的多重挑战,设计团队依赖先进的工具链进行早期探索与验证,这也是软硬件协同优化的核心支撑。
Russell Klein 提到,高层次综合工具允许在抽象的 C/C++层面进行比特级精确的算法建模和快速仿真,而 FPGA 原型则对于运行海量推理以验证实际架构的准确性不可或缺。
- Sharad Chole 将工具需求分为性能与准确性两大维度:在架构探索阶段,一个确定性的、事务级的速度仿真模型对于理解系统级瓶颈(如总线、DDR 带宽压力、片上缓冲占用)至关重要。
- Gordon Cooper 则进一步将工具划分为处理器/NPU 级和系统/SoC 级:前者包括快速原型设计工具、编译器和仿真/硬件加速平台;后者如虚拟原型,能让软件在硅芯片到位前就启动开发,这对汽车等长周期行业尤为重要。
Steven Woo 总结道,鉴于硬件开发的高成本,复杂的软硬件协同优化必须在流片前完成。仿真和建模平台为算法开发者与硬件架构师提供了一个“沙盒”,让他们能够共同探索硬件设计与算法映射的最佳组合,从而在硅片落地前建立高度信心。
3.4 跨领域协作与人才培养困境
面对 NPU 设计的多维权衡与全流程协同需求,单个工程师甚至单一团队的知识已远远不够,成功的 NPU 设计依赖于前所未有的跨领域深度协作。
Sharad Chole 描述了一个需要上百人持续合作的图景:从客户的数据科学团队、软件部署团队,到 NPU 设计方的架构、硬件、编译器团队,这种协作从设计启动一直持续到流片后。模型训练者通常专注于数据中心场景的精度突破,而边缘部署专家则需思考如何将其“瘦身”、蒸馏,以满足苛刻的功耗、面积和成本预算,并最终实现每秒 60 帧的实时运行,这被他称为“惊人的壮举”。
Russell Klein 分享的一个案例生动说明了跨界思维的力量:在一次 HLS 设计竞赛中,获胜者并未单纯优化硬件,而是回头改进了神经网络训练方法,提升了模型精度。凭借更高的精度,他得以在硬件中使用更少的乘法器和通道,最终以一半的能耗实现了目标。他同时具备了硬件设计和神经网络优化的能力,这种复合型技能使他脱颖而出。
然而,培养这样的复合型人才正面临严峻挑战。Steven Woo 指出,软件和模型层面因开源文化而日益普及,但硬件和物理实现方面,由于流片成本飙升、先进封装等技术复杂度极高,形成了巨大的专业鸿沟。来自软件背景的 Sharad Chole 坦言,若无先进工具和方法论的支持,并直接向领域专家学习,他根本无法理解现代高性能芯片设计的复杂性。
四、工作负载表征与行业基准:锚定设计方向
“恰适规模”的设计与全流程协同优化,都离不开对目标工作负载的精准捕获与表征——这是 NPU 设计的重要前提,也是行业内进行公平比较的基础。
Steve Roddy 指出,客户评估通常始于开源基准模型,但很快便会转向其私有的“真实模型”。这对 NPU 供应商的工具链提出了极高要求:必须能够支持来自 PyTorch、ONNX、TensorFlow 等多种框架的模型,甚至兼容其中的纯 Python 或 CUDA 代码。
Sharad Chole 补充道,真实应用往往是由多个模型构成的端到端流水线,如视觉语言模型中的编码器、LLM、解码器等,每个子模型又对内存、性能和精度的要求各异。因此,NPU 的各个基础构建模块(如计算单元、内存接口)必须在精度(INT16、INT8、INT4 等)和内存压缩方案上具备高度可配置性,最终的配置将由整体工作负载特性,而非单一算子决定。
行业也正通过标准化努力为比较提供基础。Steven Woo 和 Gordon Cooper 都提到了 MLPerf 等基准测试套件的作用,它们试图通过定义更完整的应用场景和测试规则,提供“苹果对苹果”的比较基准,尽管其更新速度有时会滞后于前沿模型的发展。这些基准按边缘、微小 AI、数据中心等不同用例类别进行划分,也反映了 NPU 市场的多元化格局。
五、未来展望:边缘化、融合与系统级挑战
展望未来,边缘 AI 的持续发展、硬件边界的模糊、算法与硬件的深度协同,将推动 NPU 设计向更复杂的系统级挑战演进,专家们描绘出一幅充满活力但挑战并存的技术图景。
| 趋势方向 |
核心观点 |
关键人物 & 观点细节 |
| 边缘推理持续增长 |
边缘侧 AI 推理需求持续攀升,推理负载向边缘转移,Agentic AI 更主流 |
Cadence:Jason Lawley 预测边缘 AI 推理需求持续攀升;Quadric:Steve Roddy、Woo 认为更多推理负载向边缘转移,Agentic AI 将成主流 |
| 硬件界限模糊 |
推理型 GPU 与 NPU 功能边界日益融合 |
Lawley:专注推理的 GPU 更接近 NPU,NPU 将增加 FP16/BF16 等数据类型支持 |
| 算法与硬件深度协同 |
大模型向边缘迁移需算法精简优化,并行算法适配定制化硬件 |
Cooper:LLM 向边缘迁移会经历算法精简优化,催生高效边缘定制模型;Klein:计算负载持续飙升,算法高并行性利于定制硬件,但会牺牲通用性与可编程性 |
| 量化流程演进 |
量化将深度嵌入训练过程,而非事后处理 |
Lawley:量化会更深嵌入训练环节,使用完整数据集量化效果更优 |
| 系统级瓶颈凸显 |
边缘算力向 PetaOP 发展,瓶颈从 NPU 核心转向系统层面 |
Chole:边缘算力迈向 PetaOP 以实现端到端模型控制;瓶颈转向芯片粒、带宽、工具链、高成本尖端模型民主化等系统级问题 |
显然,NPU 的设计已不再是单纯的硬件竞赛,它已演变为一场需要算法研究员、数据科学家、硬件架构师和工具开发者紧密协作的复杂交响。成功的密钥,在于深刻理解并优化从训练数据集到硬件晶体管之间整个链条上的每一个环节。
六、结语
NPU 的设计,本质上是在当下硅片的物理极限与未来智能算法的未知疆域之间,架设一座既要坚固耐用又要能灵活延伸的桥梁;是在极致约束下的系统级艺术,其核心不在于追求单一的峰值算力,而在于深刻理解目标应用场景,实现“恰适规模”的精准适配,以及跨领域、全流程的协同优化。
这其中没有标准答案,只有针对特定场景、经过精密计算的系列权衡——从硬核与可编程的架构抉择,到 PPAA 的四维度平衡,再到训练、量化与硬件的协同,每一步都考验着行业的智慧。
随着 AI 浪潮持续汹涌,这些权衡与协同将变得更加关键,也更为艰难。它要求整个行业不仅要在工具和方法论上创新,更要在人才培养和协作模式上打破藩篱,让硬件与软件的智慧更深地融合,让跨领域的协作成为常态。
唯有如此,才能释放出边缘智能的全部潜力,驾驭这场复杂度空前的技术冒险,让每一份硅面积和每一毫瓦功耗,都能最有效地转化为终端智能体验,迎接下一个 AI 浪潮的挑战。
技术演进的路上总是充满权衡与取舍。对于NPU这类系统级工程而言,理论与实践的鸿沟尤为明显。纸上谈兵的设计终需接受市场与场景的检验,其中的精妙之处,或许只有在云栈社区这样的开发者聚集地,经过广泛的实践、碰撞与复盘,才能被深刻理解和掌握。欢迎对底层硬件与系统优化感兴趣的开发者一起交流探讨,共同推进技术的边界。