找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

5588

积分

0

好友

768

主题
发表于 前天 23:33 | 查看: 1| 回复: 0

科技感电路板与城市建筑融合的数字艺术图

Meta正在将目光投向亚马逊的3纳米Graviton芯片,用上192个核心来驱动新一代人工智能负载。

Meta 正借助数千万颗亚马逊Graviton处理器核心,全面扩容其人工智能基础设施。作为全球科技行业的头部玩家之一,Meta在社交平台运营、虚拟现实与人工智能研发等多个领域长期承受着巨大的算力压力。此次大规模部署Graviton芯片,被业内普遍解读为其强化AI基础设施布局的关键一步。

亚马逊第五代Graviton芯片,能够为Meta持续增长的AI业务线带来最高25%的运行性能提升。这种提升会直接转化为各类AI应用的响应速度优化与处理效率增进,给全球数十亿用户带来更加顺畅的体验。

事实上,Meta已达成协议,将部署数千万颗亚马逊云Graviton处理器核心,用以搭建支撑下一代人工智能体系的算力底座。在AI技术极速演进的当下,算力作为核心生产要素,其供给能力直接划定了企业AI研发与应用的上限。Meta此次大手笔的投入,正是为了抢占技术竞争的制高点。

尽管GPU仍然是大模型训练的核心硬件——它在并行计算与浮点运算上的优势,使其能高效消化模型训练中那些天文数字般的计算任务——但如今各大企业正在大幅度加码CPU算力,用于AI推理、实时逻辑运算、搜索服务、代码工具以及多智能体AI任务。这一趋势的背后,是AI应用场景的持续外延,从传统的模型训练延伸到了实时交互与复杂任务执行。CPU在任务调度、逻辑判断、低延迟处理等方面的特性,恰好填补了这些场景的需求缺口。

亚马逊方面表示,本次将率先落地数千万颗Graviton芯片核心,并可以根据Meta后续的AI算力需求持续扩容。这种弹性的部署方案,既能快速满足Meta眼下的算力缺口,又为其AI业务的规模化扩张预留出了充足的伸缩空间。

这批芯片将为Meta全系平台、数十亿用户日常接触的各类AI服务提供算力支撑,涵盖社交平台的智能推荐算法、虚拟现实产品的实时渲染、智能客服的语音交互以及内容审核的AI识别等多个核心场景。

如此大规模的部署,也反映出整个行业对定制化自研芯片的需求在持续攀升——这类芯片能够在超大规模算力场景下,同时兼顾性能输出、成本控制与节能降耗。随着全球对AI投入的连年加码,算力需求已呈爆发性增长,通用芯片在能效比和成本上的短板逐渐显现。相比之下,定制化自研芯片凭借针对性的设计,能够更精准地适配特定业务场景,正成为行业发展的重要航标。

CPU算力竞赛正式开启

亚马逊云Graviton芯片,是基于ARM架构自研的服务器处理器。ARM架构以其低功耗、高性价比的特性,早就在移动设备和嵌入式系统领域站稳了脚跟。亚马逊将其引入服务器芯片领域,并通过深度打磨,打造出了兼具性能与能效优势的Graviton系列。

相较传统服务器芯片,它能以更低的功耗和成本,更快地运行云端各类业务负载。最新的第五代Graviton芯片采用3纳米制程工艺,单颗即搭载192个核心。3纳米作为当前半导体行业的先进工艺,相较于更成熟的5纳米、7纳米制程,在芯片集成度、性能与功耗控制上有着显著跃升——更小的制程意味着能在同样大小的芯片内集成更多的晶体管,从而提升运算能力,同时拉低单位运算的能耗。

亚马逊称,其综合性能较上一代提升最高25%;缓存容量更是前代的五倍,核心间的数据交互延迟最高降低33%。缓存的扩容与延迟的骤降,对于AI系统的运行效率至关重要,它能大幅减少数据在核心间传输的等待时间,让多核心协同工作更为高效。

对于需要同步处理海量数据、并发调度多任务的AI系统而言,这一优势堪称关键。以Meta的智能推荐系统为例,它需要实时分析数十亿用户的行为数据,快速生成个性化的推荐内容。Graviton芯片的高性能与低延迟特性,恰好能确保推荐系统在大规模数据处理中依然保持丝滑的响应。

Graviton处理器还搭载了亚马逊自研的Nitro软硬件系统,全面强化了安全防护、网络传输与综合运行性能。Nitro系统通过硬件加速与隔离技术,能有效提升服务器的安全性,防止数据泄露与恶意攻击,同时优化网络传输效率,减少云端数据传输的损耗。该处理器同时支持弹性结构适配器技术,可实现大规模服务器集群间的低延迟通信。在超大规模算力集群中,服务器之间的通信效率直接左右整体算力的发挥,弹性结构适配器技术能够打破通信壁垒,实现算力资源的高效调度与协同,为Meta这类坐拥海量用户的企业,提供稳定且高效的云端算力支撑。

人工智能需求格局迎来转变

随着AI产品的不断迭代,行业发展的重心早已不再局限于模型训练,而是将触角伸向了更广阔的应用领域。早期的AI竞赛主要聚焦在大模型的研发与训练上,通过海量数据驯化出具备强大认知能力的模型。而如今,技术正从实验室快速走向实际战场,新一代智能体 AI系统需要实时完成任务规划、代码编写、逻辑推理与指令执行,这使得CPU与GPU形成了某种意义上的“算力互补”,CPU的需求由此大幅激增。CPU负责统筹调度与逻辑判断等核心任务,GPU则专注于并行计算这些高强度工作,二者协同配合,能够充分发挥各自优势,提升AI系统的整体运行效率。

亚马逊副总裁、首席工程师纳菲亚·布沙拉对此评价道:“这不止是硬件芯片的升级,更是为客户搭建完整的基础设施底座,配套数据服务与推理能力,助力打造可理解用户需求、预判场景、服务全球数十亿人的规模化AI体系。”亚马逊云的全套AI技术栈涵盖了数据存储、算力调度、算法框架与模型部署等多个环节,与Graviton芯片形成了软硬件协同的生态体系,为企业提供端到端的AI解决方案。

Meta自己也坦言,在AI业务规模化扩张的当下,拓宽算力供给渠道已经成为核心战略目标。随着AI投入的不断加大,其对算力的需求呈指数级增长,单一的供给渠道已难以满足业务发展的胃口。多元化的算力来源能够降低供应链风险,确保供给的稳定性与可持续性。

这份合作协议也凸显出一个关键点:能效,正在成为AI算力建设的核心考量指标。在算力需求爆发式增长的背景下,芯片能效直接决定了企业运营成本、电力供给能力与可持续发展目标的落地程度。对于Meta这类拥有超大规模算力需求的企业而言,每提升1%的能效比,都能带来巨额的成本节约与碳排放的减少。放眼全球科技行业,能效的提升同样是推动AI技术走向可持续的关键一环——它能够有效缓解算力增长带来的能源压力。

在云栈社区,我们持续追踪芯片、云原生与人工智能的前沿动态,欢迎一同探讨下一代基础设施的演进方向。




上一篇:DeepSeek V4发布:不止模型升级,更是地缘政治驱动的算力体系重构信号
下一篇:Bifrost Code Mode:用MCP网关终结Agent上下文膨胀,Token成本降低92%
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-4-29 19:56 , Processed in 0.635307 second(s), 42 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表