找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

1851

积分

0

好友

251

主题
发表于 昨天 01:55 | 查看: 4| 回复: 0

AI是否过热?这个问题的讨论似乎从未停歇。

宣布新一轮融资不到一个月,美国AI芯片超级独角兽Cerebras再次被传出IPO计划。据外媒报道,该公司一直在与潜在投资者会面,上市最早可能在今年4月进行。

今年2月初,Cerebras通过一轮私募融资筹集了约10亿美元,投后估值达到230亿美元。按此计算,Cerebras已经超过不久前被英伟达以200亿美元收购的竞争对手Groq。

成立不到三年的AGI投资基金3C AGI Partners(以下简称“3C”),是少数同时押注Cerebras与Groq的机构之一。创始人王康曼认为,从数字上看,市场确实在讨论Cerebras的IPO估值可能高于Groq被收购的大致水平,但两者逻辑不同。Groq更像被并入GPU帝国的“关键模块”,Cerebras则更像一家具备完整系统与商业闭环的“独立基础设施平台”,其估值反映的是长期自由现金流与平台溢价,而非简单的横向对比。

在最新一轮融资消息传出前,OpenAI已同意购买Cerebras到2028年的750兆瓦计算能力,价值约100亿美元。此前,Cerebras的客户订单主要依赖阿布扎比的AI公司G42,还曾因此遭到美国联邦政府审查,导致其之前的IPO计划停滞。至2025年底,Cerebras已剥离G42投资者身份,成功解除监管障碍。

当下,全球AI军备竞赛持续升温,算力之争不断抬高对AI基础设施资产的估值。围绕“是否存在泡沫”的讨论,也一再被推至台前。王康曼将这一问题拆分为两个维度:第一,泡沫集中在哪;第二,谁有能力穿越泡沫。

四个月估值翻三倍

无论国内还是海外,加速布局自主AI基础设施已成为行业共识,芯片及相关算力基础设施企业的估值因此持续走高。

去年,寒武纪、摩尔线程与沐曦股份相继登陆资本市场,带来可观的账面回报。进入2026年,海外AI公司同样加快融资节奏。不久前,OpenAI宣布完成了1100亿美元的新一轮融资。Sam Altman强调,他的大部分精力都放在努力获取更大规模的AI算力基础设施上,以满足天量级别的需求。

Cerebras在2月份完成10亿美元融资之前,最近一轮融资是2025年9月底的G轮,投后估值为81亿美元。短短约四个月时间,该企业的估值翻了将近3倍。

类似的跃迁在之前Groq被英伟达收购的案例中就已出现过。当时,英伟达给出的200亿美元现金价格,较Groq上一轮融资也翻了约3倍。分析认为,英伟达出高价的焦点在于对其GPU竞争护城河的巩固。随着AI大模型重心从训练转向推理和Agentic AI,传统GPU在延迟和能效上的短板日益凸显。

这一逻辑同样体现在王康曼对Cerebras的投资判断中。她表示,投资Cerebras,既不是跟风,也不是简单地押注一家公司,而是押注一条从“AI1.0”到“AI3.0”的算力演进路径:当模型规模和推理负载指数级上升时,传统GPU架构必然会在内存带宽、通信和能效上遇到天花板,这恰好是Cerebras系统级创新的切入点。

王康曼回忆八年前第一次见Cerebras创始人Andrew Feldman时,对方能把从Transformer到基础模型,再到未来原生AI应用的算力需求演进,讲得极其清晰,并且反推回去,解释了为什么需要一块“违背常识”的巨型单片晶圆级引擎(WSE),而不是多卡堆叠的传统路线。

对于Cerebras的投资,王康曼更愿称之为一次基于一线工程实践的“反共识创新”,而非单纯的“反对主流”。原因是Cerebras在每一代WSE上都给出了非常硬的实测指标,这些指标与它的物理架构是一一对应的,而非单纯依赖软件调参。

“我们花了很长时间测试他们的架构,包括在片上放下上百倍于GPU的SRAM、怎样在单芯片上形成近似‘数据中心级’的互联拓扑,这些都是超出常规半导体项目的技术尽调深度。”她说。

挑战英伟达

在IPO前夕,Cerebras与OpenAI达成的750兆瓦算力合作协议,价值超过100亿美元。这被外界视为OpenAI首次如此大规模地在推理层尝试“去英伟达化”。

从王康曼理解的技术逻辑来看,OpenAI选择在如此大规模上引入Cerebras,有几个硬核动机:

第一,端到端推理性能与总拥有成本(TCO):对于长上下文、长输出的大模型应用,传统多卡GPU集群在通信、内存和能效上的损耗非常可观。Cerebras将计算、存储和互联集中在一块WSE-3芯片上,可以在整体系统TCO上展现出明显优势,这已在多个模型的实测数据中得到验证。

第二,体系多样性与供应安全:OpenAI不可能将自身命运完全押注在单一GPU供应商和架构上。引入Cerebras这样的异构算力,是构建长期算力弹性、降低地缘和供应链风险的重要一环。

第三,为下一代原生应用预留空间:Cerebras的架构尤其擅长实时、高带宽的长输出推理,这恰好对应OpenAI在Agent、复杂工具调用和多模态交互上的中长期方向,需要一个在“实时性”与“规模化”之间找到更好平衡的新平台。

至于英伟达是否掉队,王康曼判断这是AI计算进入多元基础设施时代的自然结果。英伟达仍然会在通用GPU计算、现有CUDA生态和大量训练任务上扮演绝对核心角色;同时,像Cerebras这样的非共识架构,将在特定高价值场景里提供数量级差异的体验和经济性,成为超级平台的第二增长曲线。

过去很长一段时间,Cerebras的客户订单高度依赖G42。如今与OpenAI的合作,在一定程度上可被视为这家初创公司正经历“从单一大客户走向多元客户”的过程,是对早期集中度风险的主动对冲。

不过,Cerebras依然面临挑战。其晶圆级芯片制造工艺复杂,良品率和产能扩展难度大,供应链管理和成本控制压力显著。同时,英伟达作为市场绝对领导者,依靠成熟的CUDA生态系统积累了广泛的客户基础,Cerebras要实现规模化竞争尚需时间和资源。

电子马还是汽车?

为信仰充值?AI时代是否存在泡沫,几乎已成为资本市场的固定议题。尤其是在OpenAI、Anthropic等公司估值持续抬升、一级市场融资屡创新高的背景下,“AI是否过热”不断被反复讨论。

在王康曼看来,真正的泡沫更多聚集在应用层,而且具有很强的结构性。如今,几乎任何团队都可以贴上“AI公司”的标签,但不少项目仍停留在相对有限、甚至偏旧的人类工具思维上——让AI写邮件、做客服、生成图片,更多是在既有流程中做效率叠加,而非重构流程本身。却很少有人严肃思考:当AI能力持续跃迁后,最大的用户是否会变成AI本身?当AI开始为AI生成任务、制定协议、形成新的协作网络,应用形态是否还会沿用今天的人机交互逻辑?

她认为,当前应用侧的泡沫,至少体现在三个方向:
第一类,是那些产品本身所依托的组织结构和工作方式就会被AI时代淘汰的业务,很可能会被更智能、更端到端的系统直接重写。
第二类,是以过程计费而非结果计费的服务型公司。在强大模型和智能体的加持下,真正具有竞争力的模式,必然会越来越向按效果和价值付费迁移。
第三类是将AI标签贴在弱自动化产品上,仅嵌入现有模型优化部分功能的所谓“AI原生应用”。它们仍在模仿人类智能,而非设计面向AI的未来世界,更像加了AI滤镜。

为此,她用了一个比喻:现在很多应用公司做的是在工业革命之初设计“更快更漂亮的电子马”,而真正改变世界的,将是那一代完全不按“马”的逻辑设计的汽车。眼下应用侧的大量产品,本质上还是在给旧世界贴上“AI皮”,而不是为一个“AI–AI交互”的新世界设计原生形态,自然会积累大量泡沫。

相比之下,那些在物理层、架构层、编译器和系统软件层重写算力栈的公司,包括Cerebras、Groq这一类,虽然在账面估值上看起来不便宜,但它们试图解决的是,在一个由AI自主协同、彼此调用的世界里,算力如何在极端吞吐、长上下文和更高能效下运行。这决定的是未来几十年的“数字底座”,而非某一个短期应用热点。

因此,王康曼更倾向于将2026年的AI周期定义为一种“结构性泡沫”。应用端的“电子马公司”数量庞大、估值密度极高;而真正为“汽车时代”铺路、造引擎的基础设施玩家反而稀缺。

“有没有泡沫?”作为投资人,王康曼的答案是“一定有”。但她认为,关键问题不在此,而是要判断你是在给一辆电子马车付钱,还是在提前买一张通往真正汽车时代的船票。在她看来,Cerebras更接近后者。

这场围绕算力基础设施的竞争与估值游戏,或许才刚刚拉开序幕。想了解关于AI芯片、算力架构与产业投资的更多深度剖析,可以关注云栈社区的智能与数据板块,那里汇聚了更多一线从业者的观点与讨论。




上一篇:从Kinect到无声语音:计算机视觉先驱如何两次被苹果高价收购
下一篇:星辰天合冲刺港股:AI存储解决方案商的F+轮融资与IPO之路
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-3-7 09:03 , Processed in 0.406278 second(s), 42 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表