前情回顾一下,人工智能行业可以看作三层结构:上游提供“鸡蛋”等原材料,中游是“厨师和饭店”,下游则是把“西红柿炒鸡蛋”端上桌的人。而在上游最核心的要素,就是算力,算力的心脏则是芯片。
今天我们就把目光聚焦在芯片这件事上。
芯片究竟是什么?
手机、空调、汽车、AI 服务器、甚至是小小的遥控器里,都藏着一个被称为芯片的小玩意儿。它是设备的“大脑”兼“神经中枢”,全权负责记忆、计算与控制。
你可能会觉得这很高级,但它的原材料却普通到令人惊讶——就是从沙子里提纯出的硅。硅被制成薄薄的圆片,再经过极其精密的加工雕刻,就成了芯片的底板。
那么,芯片是如何实现计算等功能的呢?
其核心原理,是在芯片底片上,按照既定逻辑“焊接”上数十亿甚至上百亿个微型开关,也就是晶体管。通过控制通电与断电:通电代表开关开,记为 1;断电代表开关关,记为 0。你所看到的逻辑计算、指令控制与数据存储,底层都是由这无数的 0 和 1 来完成的。
一句话总结,就是用海量开关高速通电、断电,机械性地完成亿万次条件判断和数据计算。
芯片为何如此至关重要?
我们可以把训练一个大模型理解为“让机器学会一项技能”。比如,你想让它学会识别猫,就得给它“看”一亿张猫的图片,经过这个规模的训练,它才能比较准确地认出猫。
而“看一亿张图片”这个过程,背后需要极其强大的计算能力。这种计算,正是芯片提供的。芯片越强,完成同样任务所花的时间就越短,投入的成本也越低。所以,谁的芯片更好,谁在模型训练这场竞赛中就天然具有优势。
说个题外话,中国每年进口芯片要花掉 3000 多亿美元,成本超过了石油,稳稳占据第一大进口商品的位置。这背后的战略意义不言而喻。
AI 芯片:各有各的绝活
1. GPU:万金油型的并行计算专家
代表:英伟达(NVIDIA)
GPU 这种芯片,最初是为游戏而生的,目标是让游戏画面更流畅。后来,业界发现它极其擅长“大量简单计算的并行处理”,这个特性恰好完美契合了训练大模型的需求。
举个直观的例子:如果要数一亿颗豆子。
- CPU 的做法是:一颗一颗地数,一颗一颗地比较,速度慢,但非常精确。
- GPU 的做法是:把一亿颗豆子铺满一地,同时数。速度快,效率惊人。
这就是为什么全球都在争抢 GPU,尤其是英伟达的 H100 加速卡。一块卡价格高达二十多万人民币,还时常一卡难求。
优点:通用性强,什么都能干,且软件生态非常完善。
缺点:价格昂贵,功耗巨大。
2. ASIC:从出生就只为干好一件事的专精者
代表:华为昇腾、寒武纪等
ASIC 是“专用集成电路”的缩写。顾名思义,这种芯片从设计之初,就只为了高效完成某一项特定任务。比如,某款为人脸识别专门设计的 ASIC 芯片,其内部所有电路都围绕着这个任务进行极致优化,能效极高,但如果你让它去干别的,它就无能为力了。
优点:效率高、功耗低,大规模量产之后成本极低。
缺点:灵活性极差,一旦任务变了,就得重新流片设计。
可以这么理解:GPU 就像一把瑞士军刀,功能繁多;而 ASIC 则是一把电动螺丝刀,只负责拧螺丝,但拧得最快、最省力。
3. FPGA:可反复拼搭的“乐高”芯片
代表:AMD(赛灵思)
FPGA 是一种“可以现场重新编程”的芯片。你把它买回来后,可以根据自己的独特需求,将它配置成任何你想要的功能,就像搭乐高积木一样,搭建出自己专属的功能性芯片。
这听起来非常美好,但现实是:它的开发难度很大,需要专业的硬件工程师掌握硬件描述语言;同时,单颗芯片的成本很高。
它的核心优势在于低延迟。信号可以直接通过物理线路直达中枢,无需排队等待计算,特别适用于工业控制、金融加速等对实时性要求极为苛刻的场景。
优点:高度灵活,可编程,延迟极低。
缺点:开发门槛高,量产成本压不下来。
4. NPU:端侧 AI 的专属加速器
代表:高通、华为昇腾、寒武纪、地平线、平头哥(阿里)
NPU 是专门为人工智能计算量身定做的专用芯片。出厂时功能就已固化,天生只擅长 AI 推理运算,比如人脸识别、图像修图、语音翻译等,对通用计算任务则无能为力。
虽然功能看上去单一,但好处显而易见:专为 AI 算法优化,体积小巧、极度省电、反应极快。这使其完美适配手机、车载系统、智能摄像头等终端设备。短板也很明显:通用性极差,没法拿来运行复杂的操作系统或大型软件,当 AI 算法发生颠覆性改变时,硬件适配的难度也很大。
举个例子,手机里的人脸解锁、AI 美颜、实时语音转文字,这些任务现在全都是由 NPU 独立处理的,不劳烦 CPU 和 GPU 动手,专芯专用,效能最大化。
四种芯片,如何做出明智之选?
原则很简单:只选最对的,不买最贵的。
| 场景 |
芯片类型 |
选择原因 |
| 大模型训练 |
GPU |
通用性强,软件配套成熟,能扛住海量的并行计算任务。 |
| 推理部署(云端) |
GPU 或 ASIC |
如果业务模型频繁更新迭代,选 GPU;如果模型固定、长期不变,追求极致的省电省钱,则选 ASIC。 |
| 推理部署(边缘端) |
NPU |
功耗、延迟和成本都极低,且体积小,正对终端设备胃口。 |
| 工业控制 |
FPGA |
提供微秒级的低延迟和高可靠性,可根据具体的工业场景进行深度定制。 |
中国的情况
目前,高端 GPU 受到出口限制,买不到最顶级的货,但这反而为国产芯片的发展撕开了一道口子。
华为的昇腾系列,是当下最成熟的国产 AI 芯片,其性能大概能达到英伟达同档次产品的 60% - 80%,但在软件生态和开发工具链上仍存在差距。
这是一个长期的博弈过程。搞芯片,不是简单砸钱就能瞬间追平的,它需要时间、耐性与经验的积累。但我们也可以确信,没有人会被永远卡住脖子。
一句话总结:GPU 是万能的瑞士军刀,ASIC 是专精的电动螺丝刀,FPGA 是可编程的乐高积木,NPU 是轻巧的随身工具。至于选哪个,全看你的任务是什么。