找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

4027

积分

0

好友

553

主题
发表于 1 小时前 | 查看: 1| 回复: 0

过去很多年,RISC-V在芯片行业里的位置确实有些尴尬。

它经常被提起,也总被看好,可真到了商业落地的关键时刻,总觉得差了那么一口气。

与x86、Arm这些早已在PC、手机和服务器领域建立起庞大生态的成熟体系相比,RISC-V长期扮演着一个“有潜力的后来者”角色。开源、开放、可扩展,这些词听起来都很美好,但一进入产业深水区,大家最关心的依然是那几个现实问题:性能够不够用?软件生态能不能跟上?在复杂的系统中,安全和认证又如何保证?

然而,随着人工智能技术,特别是具身智能产业的爆发,风向似乎正在转变。过去,市场更看重谁的单核性能更强,谁的通用生态更成熟。但现在,核心问题变成了:当AI从一个屏幕后的问答工具,转变为能够感知、决策并控制实体设备在现实世界中行动的系统时,什么样的芯片架构底座,才是下一代机器人、边缘设备、智能家居和工业终端的更优选择?

这也是在近日由湾芯展/深芯盟主办的“RISC-V+AI赋能具身智能新纪元”产业论坛上被反复探讨的主题——AI硬件的竞争,正在从“比拼单颗芯片的算力”,转向争夺“系统级底座”的定义权。

从政策层面看,2025年具身智能首次被写入政府工作报告,到2026年再次被明确提及,并与量子科技、脑机接口等并列为未来产业。产业层面,银河通用等企业获得大额融资并亮相央视春晚,一系列信号叠加表明:具身智能已不再是实验室里的概念,而是进入了由政策、资本和产业链共同推动的快速发展新阶段。

当具身智能开始升温,底层芯片架构的选择就成了绕不开的问题。它与纯大语言模型不同,聊天机器人反应慢一点,用户尚可等待;但对于一个机器人或工业控制系统,感知、决策、执行这条链路上的任何延迟,代价可能远不止体验下降,而是误操作、碰撞甚至现实风险。因此,本次论坛将RISC-V与AI的融合,视作破解具身智能“功耗墙”“算力墙”“生态墙”的关键钥匙之一。

当旧的规则开始松动,新的架构自然就拥有了被重新估值的可能性。

硬实时性成关键,具身智能为何把RISC-V重新推上牌桌

具身智能,正是将RISC-V重新推向牌桌的那只手。

蓝芯算力(深圳)科技有限公司方案架构师王睿明认为,具身智能并非单纯的软件或模型,而是“拥有感知系统加决策系统,同时能够控制和执行”的设备,其核心是在真实物理世界中完成具体操作。他认为,具身智能近年的升温,本质上仍由大模型技术驱动。当模型规模大到一定程度,其输出结果变得极其复杂和不可预测时,具身智能才真正找到了新的技术突破点。

王睿明举了一个形象的例子:一支激光笔掉落,不到一秒就会落地,如果系统需要用一秒钟去感知、分析和决策,那么现实世界不会停下来等待计算结果。对于聊天机器人,慢一点只是等待时间问题;但对于具身智能系统,感知、决策、执行链路中的任何迟滞,都可能直接转化为跌落、误操作甚至碰撞风险。因此,在他看来,“硬实时性”在CPU控制单元中“至关重要”,这也是RISC-V在具身智能语境下最值得被重估的价值所在。

具身智能对主芯片的双重挑战:实时性与算力

王睿明在会上将RISC-V与x86、Arm进行了比较。他的核心观点是,RISC-V在控制链路的硬实时性上具备先天优势,更适合需要快速响应的嵌入式控制环节。他认为,x86架构“天生不是做这种嵌入式”的;而Arm虽属RISC体系,但用户对其乱序执行等机制带来的实时性问题可优化空间有限。相比之下,RISC-V可以从固件启动阶段就对相关机制进行精细化控制,例如关闭乱序执行,以换取更直接、更可预测的系统响应。

这看似只是“几个微秒”的差异,但对具身系统而言,最可怕的从来不是平均性能稍差,而是最坏情况下的响应时间不可控。谁能给出更明确、更稳定的响应时间边界,谁就更有资格成为机器人的“小脑”和控制底座。

蓝芯算力致力于打造的,正是一整套面向具身智能的底层底座。王睿明介绍了该公司的高性能RISC-V CPU,该芯片采用异构设计,包含32个高频性能核、16个高能效核,并集成了AI专用加速引擎,可提供高达75 TOPS的AI算力,同时支持CXL 2.0协议。他将这些能力分别映射到具身智能的几大痛点:用RISC-V的可控性和硬实时能力应对精确控制问题;用异构计算与AI加速支撑大模型推理;用CXL 2.0应对模型膨胀带来的内存压力;再用国密和可信计算能力构筑安全底座。

蓝芯算力发布全球首款高性能RISC-V服务器芯片

据介绍,蓝芯算力并非仅仅交付一颗裸芯片,而是连同开发板、服务器、机柜级OS适配,以及麒麟、统信、欧拉等操作系统的基础适配一同推进,同时也对编译工具、开源库和中间件进行了优化。王睿明提到,其主芯片、加速芯片和内存控制器被集成在同一颗SoC内,目的正是为了减少大数据搬运过程和内存拷贝次数,从而显著提升大模型推理速度。

澎湃AI算力:端侧大模型的强大引擎

从GPU、CPU到DSP,RISC-V的AI突破口

隼瞻科技(广州)有限公司NPU事业部高级VP Kevin Xu指出,到2026年,大语言模型推理的主力仍将是GPU,并非因为GPU是理论上最优的架构,而是因为它仍是目前“最完整”的通用实现路径。Kevin Xu提到,AI模型种类极其繁杂,公开论文中出现过的AI算子多达两千多种。当模型类型和算子组合高度多样化时,通用架构首先要解决的是“能不能全部支持”,其次才是功耗或效率的最优化。这也是为何今天虽然各种“新架构”口号不断,但真正落地时,GPU依然是最稳妥的选择。

Kevin Xu还认为,大模型时代的真正瓶颈,越来越不像“算力不足”,而更像是“数据流动管不好”。以Transformer算法为例,其难点往往不在于单个算子的计算,而在于海量参数和中间数据在不同时间、不同顺序下如何高效流动、复用和调度。当前GPU之所以还能胜任,很大程度上是依靠其高带宽存储来兜底,再通过运行时调度解决问题。用他的话说,GPU比拼的“不是某个单一优点,而是架构的完整性”。

换言之,未来不会有一颗芯片、一个架构、一套软件栈能通吃所有场景。无论是面向通用推理、边缘部署,还是针对特定模型做深度定制,本质上都是在做权衡取舍。必须明确:谁解决什么问题?为此放弃了什么能力?最终服务于什么场景?

“RISC-V更现实的突破口,可能不在通用CPU市场,而在DSP(数字信号处理器)领域。”芯昇科技有限公司市场总监魏伟认为,RISC-V的优势在于“自由和开放”,但在通用计算主战场上,与传统主流架构相比,“无论是在现有性能还是生态成熟度上”都仍有差距。真正更有希望形成比较优势的,恰恰是DSP这类专用领域。过去两年,行业注意力几乎都被GPU、NPU和大模型芯片吸引,但很多人忽略了,在真实的系统中,仍有大量任务并不适合完全交给通用计算单元来处理。

音视频VDSP M1实战:音频VDSP指令集定制

作为“中国移动集团旗下唯一的芯片设计公司”,芯昇科技自成立之初就将RISC-V确定为核心架构,用以搭建国产化芯片科创体系。魏伟认为,在高定制化、强场景化、对功耗和面积敏感的环节,恰恰是RISC-V芯片的切入点。为此,团队提出了“RISC-V+AI双擎驱动”的核心方案,旨在通过专用矢量DSP架构切入高性能信号处理和边缘AI计算。他指出,现阶段RISC-V在高性能实时信号处理领域,仍缺乏成熟且高性能的方案,现有方案配置能力和扩展性有限,较难满足5G、6G、高端音视频和端侧AI需求,因此团队试图用一套专用架构去“填补这个空白”。

魏伟将AI和DSP放在同一条技术演进路径中考虑。他表示,这套架构定位为超低功耗、高性能的专用矢量加速器内核,希望用一套架构覆盖从微瓦级到数十瓦级的全算力需求,打破传统IP按场景切割的壁垒。

他在会上举了多个具体例子。例如在通信领域,面向5G场景的DSP产品,其矢量计算宽度为1024比特,在28纳米工艺下工程面积约0.35平方毫米,功耗在15到20毫瓦;相比传统方案,性能可提升至六倍,代码量减少60%到80%。在音频处理方向,其方案支持高效定点指令集,纯定点架构能将MAC(乘加)利用率从60%提升至90%。在光模块方向,他更是直接指出,光模块市场增长迅速,其核心DSP成本“占到60%”,而这部分市场“基本上被国外垄断”,因此国产替代空间巨大。

开源不等于安全,RISC-V迎来真正的挑战

值得注意的是,RISC-V能否进入产业深水区,安全是无法绕开的硬门槛。

“开源并不一定代表自主可控,也并不代表更安全。” 深圳市纽创信安科技开发有限公司副总经理胡逸众指出,RISC-V作为开源指令集,确实让上层规范更透明,但真正的芯片实现层,依然会涉及来自不同渠道的实现代码、第三方IP以及潜在的安全隐患。决定芯片可信与否的关键,并非指令集是否开放,而是实现细节、IP构成、安全边界设计、生命周期管理以及能否通过相关认证。尤其在关键基础设施领域,芯片一旦部署,往往要运行多年,因此不仅要考虑传统网络安全,还必须将物理攻击和逻辑漏洞的防范纳入考量,且这些问题都需在芯片设计阶段就进行规划。

eHSM vs TEE vs SE:安全方案对比

胡逸众回顾道,过去安全多以独立小芯片的形式存在,如银行卡、U盾等,核心需求是密钥存储和密码运算。但现在,CPU、GPU、SSD以及通信与控制类芯片,在设计时就必须将系统软件、核心环境、远程升级和安全特性作为一个整体来考虑。安全已经不再只是“外加一个模块”,而是整个SoC架构设计中的有机组成部分。

他列举了两个直观的安全风险:一是侧信道分析,攻击者可以通过分析芯片的功耗、电磁辐射等物理信号变化来反推密钥信息;二是故障注入,攻击可能让芯片跳过安全启动环节,从而控制后续加载的软件。更为关键的是,这类硬件层面的安全问题,如果等到芯片流片生产出来后才被发现,“软件层面也无法进行修补”。因此,他提出的最佳实践是,在芯片设计阶段就建立清晰的“安全边界”,即嵌入式硬件安全模块(eHSM),将其做成SoC内部的“安全保险柜”,承担不可篡改的信任根、密钥生命周期管理、数据隔离和高速密码运算等核心职责。

说到底,如果RISC-V志在进入AI、车规、服务器、具身智能这些高价值领域,那么安全就不再是“加分项”,而是不可或缺的“入场券”。

纽创信安业务线:硬件安全实验室

“小龙虾”落地RISC-V:谁在补齐软件生态短板?

广州星鸿起源科技有限公司总经理兼CEO连志安在会议上提供了一个典型的产业视角。

过去行业谈论RISC-V,最喜欢强调“免授权费”和“自主可控”;但在AI和具身智能时代,它真正吸引人的地方,反而在于其“灵活性”。因为机器人、边缘AI、智能家居、工业控制这些场景需求极其碎片化,功耗、面积、实时性、连接性、推理能力、控制精度,几乎每个项目的需求组合都不同。这时,一套可以按需裁剪、灵活扩展、并能围绕具体场景快速调整的架构,其价值自然凸显。

RISC-V物联网芯片:海思Hi3863支持WiFi、星闪与开源鸿蒙

连志安特别强调了RISC-V在低延迟响应、精确中断处理、原子操作和确定性执行方面的优势,认为它能满足航空航天、汽车电子等对实时性要求极高的场景,并提到其架构允许在单芯片上同时运行关键安全任务和非关键任务。

全球生态共建:开源社区、产业链整合与人才培养

如果只看架构层面,RISC-V的优势故事已被讲述多遍。但真正决定它能否进入AI主战场的,恰恰不是架构本身,而是软件生态。AI时代的软件生态门槛,远比许多人想象得要高。没有成熟的发行版、没有稳定的编译工具链、没有完备的依赖库、没有主流AI框架的适配,芯片性能再好,也往往只能停留在实验室阶段。

红帽首席软件工程师傅炜提到,红帽团队正以“完全开源”的方式持续推进开发工作,包括持续编译Fedora发行版、维护系统镜像,并为市面上主流的RISC-V开发板进行适配。部分开发者预览版和仓库内容已经可以下载,现阶段可以运行在特定的开发板上,团队今年还会继续推进更完整版本的编译与系统适配工作。

技术演示现场:Fedora on RISC-V运行OpenClaw

傅炜说了一句非常关键的话:“不管是AI还是端侧应用,都依赖服务器级别的软件生态”,“你需要先把底层的软件栈都完整编译准备好了,才能够在上面顺利运行‘小龙虾’这样的大模型应用”。据介绍,红帽团队从去年开始持续将AI软件栈向RISC-V架构迁移,并在既有基础上移植了部分开源AI软件框架。早期推动的一些AI软件栈组件已被成功移植到RISC-V环境中,部分工具和应用实现了初步运行;近期备受关注的“小龙虾”大模型3.8版本,也已经可以直接运行在基于RISC-V的Fedora发行版之上。

总结:RISC-V能否借AI重回牌桌?

通过上述业界专家的分析与案例,我们大致可以归纳出在AI与具身智能时代,RISC-V面临的变化与趋势:

第一,AI硬件的竞争正从“芯片能力竞争”转向“系统定义竞争”。
未来的关键问题,不再是比拼谁有一颗更强的通用处理器,而是看谁能把CPU、NPU、DSP、安全模块、软件栈和开发工具链围绕具体应用场景进行高效、深度的整合。

第二,RISC-V真正的机会,不在于旧赛道里与巨头硬碰硬,而在于新赛道里争夺定义权。
它未必会先在通用CPU市场取得胜利,却极有可能先在DSP、边缘AI、具身智能控制单元、低功耗系统以及安全可信链路这些新兴或高定制化领域建立起差异化优势。

第三,决定RISC-V能走多远的,最终不是指令集本身,而是庞大的生态工程。
软件发行版、编译工具链、主流AI框架的适配、代码的上游(upstream)能力、丰富的开发板与参考设计、活跃的开源社区、系统级安全方案、行业认证体系、以及紧密的产业链协同,这些要素缺一不可。

因此,回到最初的问题:在AI+具身智能的时代,RISC-V要“翻身”了吗?

或许更准确的答案是:AI和具身智能的兴起,确实给了RISC-V一次重新坐上产业牌桌的重要机会。但若说它已经赢得胜利,显然为时尚早。因为对于RISC-V而言,这场融入主流、定义未来的战役,才刚刚拉开序幕。对于关注底层技术和产业发展的开发者而言,这无疑是一个值得持续观察和参与的领域。更多关于人工智能嵌入式系统和芯片架构的深度讨论,欢迎在云栈社区交流。





上一篇:Java逻辑控制现代写法:告别箭头代码与重构实战
下一篇:伊朗将29处西方科技设施列为袭击目标,英伟达、谷歌等巨头中招
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-3-14 10:24 , Processed in 0.449075 second(s), 41 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表