找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

4970

积分

0

好友

688

主题
发表于 4 小时前 | 查看: 4| 回复: 0

Guido van Rossum与Andrej Karpathy关于LLM与Agent的对话截图

计算领域的基础单位正在经历一场深刻的变革。当Python之父Guido van Rossum在社交平台上探讨何为智能体时,Andrej Karpathy的回复不仅精辟,更指出了一个关键细节:LLM处理的数据单位不是字节,是token,并且其运行机制是统计性而非确定性的。

这并非简单的技术升级,而是一种底层计算的范式转移。

确定性字节 vs. 统计性Token

过去六十年,我们的数字世界坚实地构筑在“字节”之上。一个字符8个比特,精确、确定、绝不出错。你存入一个“1”,读取时必然得到“1”。整个互联网、所有软件与数据库,都依赖于这种绝对的确定性。

然而,大语言模型的到来打破了这一基石。它的基本单位是token——一个语义片段,可能是单词的一部分,也可能是一个完整的词。token是模糊的,同一个词在不同上下文中可能被拆分为不同数量的token。更重要的是,LLM的输出是概率性的,相同的输入运行两次,结果可能截然不同。

这仿佛是从经典牛顿力学踏入了量子力学的领域:精确让位于概率,确定让位于统计。

新计算架构的类比:LLM即CPU,Agent即OS内核

Karpathy将LLM比作CPU,将Agent比作操作系统内核,这个类比极具启发性。如果顺着这个思路推演:

  • 传统计算机:CPU处理字节 → 内核调度进程 → 操作系统服务用户
  • AI时代:LLM处理token → Agent编排任务 → AI OS服务用户

底层数据单位的改变,将引发上层建筑的全面重构。这意味着,为确定性字节世界设计的操作系统需要重写,运行其上的软件需要重做,甚至人与计算机的交互方式也需要重新设计。这并非迭代,而是一次彻底的轨道切换。

衡量标准的变迁:从DAU到TPM

从字节时代到token时代的范式转移概念插画

在字节主导的时代,竞争优势往往体现为对数据(字节)的占有量。而在token主导的AI时代,核心竞争力则转向了对token的处理能力与效率。行业衡量标准也在悄然变化,从关注“日活跃用户数”转向关注“每分钟处理的token数”。

从BYTE ERA到TOKEN ERA,我们正站在一个新时代的起点。对于开发者而言,理解并适应这种从确定性到统计性的根本转变,是把握下一次技术浪潮的关键。如果你想深入探讨更多AI与基础计算的前沿话题,欢迎来云栈社区交流分享。




上一篇:2500题里程碑:数学优化与哈希表去重的算法实战复盘
下一篇:华海清科CMP装备达成千台出货,国产半导体设备在先进制程实现新突破
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-4-9 09:51 , Processed in 0.722986 second(s), 40 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表