找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

3596

积分

0

好友

478

主题
发表于 4 小时前 | 查看: 4| 回复: 0

前情回顾一下,人工智能行业可以看作三层结构:上游提供“鸡蛋”等原材料,中游是“厨师和饭店”,下游则是把“西红柿炒鸡蛋”端上桌的人。而在上游最核心的要素,就是算力,算力的心脏则是芯片

今天我们就把目光聚焦在芯片这件事上。

芯片究竟是什么?

手机、空调、汽车、AI 服务器、甚至是小小的遥控器里,都藏着一个被称为芯片的小玩意儿。它是设备的“大脑”兼“神经中枢”,全权负责记忆、计算与控制。

你可能会觉得这很高级,但它的原材料却普通到令人惊讶——就是从沙子里提纯出的硅。硅被制成薄薄的圆片,再经过极其精密的加工雕刻,就成了芯片的底板。

那么,芯片是如何实现计算等功能的呢?

其核心原理,是在芯片底片上,按照既定逻辑“焊接”上数十亿甚至上百亿个微型开关,也就是晶体管。通过控制通电与断电:通电代表开关开,记为 1;断电代表开关关,记为 0。你所看到的逻辑计算、指令控制与数据存储,底层都是由这无数的 0 和 1 来完成的。

一句话总结,就是用海量开关高速通电、断电,机械性地完成亿万次条件判断和数据计算。

芯片为何如此至关重要?

我们可以把训练一个大模型理解为“让机器学会一项技能”。比如,你想让它学会识别猫,就得给它“看”一亿张猫的图片,经过这个规模的训练,它才能比较准确地认出猫。

而“看一亿张图片”这个过程,背后需要极其强大的计算能力。这种计算,正是芯片提供的。芯片越强,完成同样任务所花的时间就越短,投入的成本也越低。所以,谁的芯片更好,谁在模型训练这场竞赛中就天然具有优势。

说个题外话,中国每年进口芯片要花掉 3000 多亿美元,成本超过了石油,稳稳占据第一大进口商品的位置。这背后的战略意义不言而喻。

AI 芯片:各有各的绝活

1. GPU:万金油型的并行计算专家

代表:英伟达(NVIDIA)

GPU 这种芯片,最初是为游戏而生的,目标是让游戏画面更流畅。后来,业界发现它极其擅长“大量简单计算的并行处理”,这个特性恰好完美契合了训练大模型的需求。

举个直观的例子:如果要数一亿颗豆子。

  • CPU 的做法是:一颗一颗地数,一颗一颗地比较,速度慢,但非常精确。
  • GPU 的做法是:把一亿颗豆子铺满一地,同时数。速度快,效率惊人。

这就是为什么全球都在争抢 GPU,尤其是英伟达的 H100 加速卡。一块卡价格高达二十多万人民币,还时常一卡难求。

优点:通用性强,什么都能干,且软件生态非常完善。
缺点:价格昂贵,功耗巨大。

2. ASIC:从出生就只为干好一件事的专精者

代表:华为昇腾、寒武纪等

ASIC 是“专用集成电路”的缩写。顾名思义,这种芯片从设计之初,就只为了高效完成某一项特定任务。比如,某款为人脸识别专门设计的 ASIC 芯片,其内部所有电路都围绕着这个任务进行极致优化,能效极高,但如果你让它去干别的,它就无能为力了。

优点:效率高、功耗低,大规模量产之后成本极低。
缺点:灵活性极差,一旦任务变了,就得重新流片设计。

可以这么理解:GPU 就像一把瑞士军刀,功能繁多;而 ASIC 则是一把电动螺丝刀,只负责拧螺丝,但拧得最快、最省力。

3. FPGA:可反复拼搭的“乐高”芯片

代表:AMD(赛灵思)

FPGA 是一种“可以现场重新编程”的芯片。你把它买回来后,可以根据自己的独特需求,将它配置成任何你想要的功能,就像搭乐高积木一样,搭建出自己专属的功能性芯片。

这听起来非常美好,但现实是:它的开发难度很大,需要专业的硬件工程师掌握硬件描述语言;同时,单颗芯片的成本很高。

它的核心优势在于低延迟。信号可以直接通过物理线路直达中枢,无需排队等待计算,特别适用于工业控制、金融加速等对实时性要求极为苛刻的场景。

优点:高度灵活,可编程,延迟极低。
缺点:开发门槛高,量产成本压不下来。

4. NPU:端侧 AI 的专属加速器

代表:高通、华为昇腾、寒武纪、地平线、平头哥(阿里)

NPU 是专门为人工智能计算量身定做的专用芯片。出厂时功能就已固化,天生只擅长 AI 推理运算,比如人脸识别、图像修图、语音翻译等,对通用计算任务则无能为力。

虽然功能看上去单一,但好处显而易见:专为 AI 算法优化,体积小巧、极度省电、反应极快。这使其完美适配手机、车载系统、智能摄像头等终端设备。短板也很明显:通用性极差,没法拿来运行复杂的操作系统或大型软件,当 AI 算法发生颠覆性改变时,硬件适配的难度也很大。

举个例子,手机里的人脸解锁、AI 美颜、实时语音转文字,这些任务现在全都是由 NPU 独立处理的,不劳烦 CPU 和 GPU 动手,专芯专用,效能最大化。

四种芯片,如何做出明智之选?

原则很简单:只选最对的,不买最贵的。

场景 芯片类型 选择原因
大模型训练 GPU 通用性强,软件配套成熟,能扛住海量的并行计算任务。
推理部署(云端) GPU 或 ASIC 如果业务模型频繁更新迭代,选 GPU;如果模型固定、长期不变,追求极致的省电省钱,则选 ASIC。
推理部署(边缘端) NPU 功耗、延迟和成本都极低,且体积小,正对终端设备胃口。
工业控制 FPGA 提供微秒级的低延迟和高可靠性,可根据具体的工业场景进行深度定制。

中国的情况

目前,高端 GPU 受到出口限制,买不到最顶级的货,但这反而为国产芯片的发展撕开了一道口子。

华为的昇腾系列,是当下最成熟的国产 AI 芯片,其性能大概能达到英伟达同档次产品的 60% - 80%,但在软件生态和开发工具链上仍存在差距。

这是一个长期的博弈过程。搞芯片,不是简单砸钱就能瞬间追平的,它需要时间、耐性与经验的积累。但我们也可以确信,没有人会被永远卡住脖子。

一句话总结:GPU 是万能的瑞士军刀,ASIC 是专精的电动螺丝刀,FPGA 是可编程的乐高积木,NPU 是轻巧的随身工具。至于选哪个,全看你的任务是什么。




上一篇:TPU是如何用十年时间,从“偏科生”成长为AI超算一极的?
下一篇:GPU服务器硬件构成与拆解:销售必读的全局掌握之道
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-5-5 22:49 , Processed in 0.624428 second(s), 41 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表