当一个快80岁的投资大师,开始让AI帮他写教程,并坦诚地说“我被震住了”,你或许应该停下刷短视频的手,认真听听他想说什么。
橡树资本的联合创始人霍华德·马克斯,已年近八十。按照常理,这个年纪的人或许会对AI这种“年轻人的热闹”一笑而过,继续专注于他的财报与利率曲线。
但他没有。
他找了几位三四十岁的技术从业者,一点一点地追问,把不懂的地方彻底搞清楚。三个月后,他又回去做跟进。当有人建议他用Claude制作一套AI教程时,他照做了。随后,他将这段心路历程写成了一份万字备忘录,题为《AI奔涌向前》(AI Hurtles Ahead)。
读完整篇,我的第一反应并非“这老头真厉害”,而是——如果一个依靠深度判断力吃饭的人,都在认真把AI当作“必修课”来啃,那我们这些同样靠脑力谋生的普通人,凭什么还能装作视而不见?
今天,我们把这份备忘录中最具启发性的洞察拆解出来。不聊源码,不讲算法,只探讨它对你我究竟意味着什么。
01 “它不是在搜索,是在思考”:AI的三层进化,你在哪一层?
很多人使用AI的方式,仍然停留在“提出一个问题,获取一个答案”的层面。
霍华德·马克斯最初也这么认为。但在他与Claude深入“对话”后,意识到了一个关键点:AI不是搜索引擎,它是一个正在持续成长的“大脑”。
Claude为他制作了一份教程,将AI的能力划分为三个层级:
第一层:聊天式AI
你提问,它回答。节省的是你研究和思考的时间。2023年左右的AI大多停留在这个层面。
第二层:会使用工具的AI
你让它完成一项任务,它会自主去搜索信息、进行分析、执行操作。节省的是“执行时间”。2024年的AI开始进入这个领域。
第三层:自主代理(Agent)
你只给出目标,不提供具体步骤。它会自己规划、执行、检查、修改,直到成品交付给你。
这不再是辅助,而是替代。
霍华德在备忘录中引用了OthersideAI CEO马特·舒默的亲身经历:
“我跟AI说:我想做一个这样的app,它应该实现哪些功能,大概长什么样,用户流程、设计,全都你来想。然后它就真的做了。它会写出数万行代码。接着,它会自己打开这个app,点按钮,测试功能,像一个真实的人一样去使用。如果它觉得某个地方不对,它会自己回去改,自己迭代,直到满意。只有当它自己判断达到了标准,它才会回来跟我说:可以了,你来测试吧。”
这段话令人后背发凉。
原因不在于AI能写代码——而在于它在进行“自主判断”。它开始有了自己的“品味”。它会在你没有明确指示的环节,做出让你认可的选择。
霍华德自己的总结克制而深刻:
“第二层和第三层的区别,决定了AI到底是一个生产力工具,还是一个劳动力替代品。这也把一个500亿美元的市场,和一个数万亿美元的市场区分开来。”
这对你意味着什么?
如果你今天使用AI仍停留在“帮我写个文案”或“帮我查个资料”,那么你尚处于第一层。你只是为自己找了一个更高效的助手。
但若你的老板(或竞争对手)已经用上了第三层,他就不再需要“找一个文案”。他只需下达指令:“把这批产品上架,写好文案、配好图、测好链接、发布出去”,然后离开电脑,四小时后回来验收成果。
你并非在与AI本身竞争,而是在与“善用AI的人”竞争。而后者,正以你十倍的速度向前狂奔。
02 它真的在“思考”吗?这个问题不重要,重要的是它把活干了
关于AI是否具备“真正思考”能力,争论从未停止。
霍华德也向Claude提出了这个问题。Claude的回答既巧妙又诚实:
“霍华德,你关于投资知道的一切,也都来自别人。格雷厄姆教你安全边际。巴菲特教你质量。芒格教你跨学科的思维模型。你读了成千上万本书、备忘录、案例研究。你获得的每一个输入,都是别人的思考。你把不同学科的框架拿来,用在新的情境里,产出了真正新的东西。原材料来自别人,综合与锻造是你自己的。所以当有人说‘Claude只是把训练数据里的模式重新排列’,我会反问:这在结构上跟任何一个受过教育的大脑有什么本质区别?”
这段反驳,霍华德接受了。
“我年轻时作为投资者摄入数据,也学习前人如何看待这些数据、得出怎样的结论。我研究他们的思考路径,然后发展出自己的方法。这就是人类大脑扩展能力的方式。那么,AI的成长、学习与‘思考’,真的和我们有本质区别吗?”
随后,Claude补充了一句更为现实的论断:
“即便你把怀疑者的观点全部让出来——即便你在哲学层面接受我做的只是‘模式匹配’而非‘真正思考’——经济层面的含义也完全一样。如果我能产出一个年薪20万美元的研究助理级别的分析结果,那么付钱的人根本不在乎我是在‘真的思考’,还是在只是模式匹配。他在乎的是,这份工作成果是否足够可靠、足够有用。”
这句话,值得你停下来读两遍。
我们耗费数十年在学校里训练自己“如何思考”。但职场对“思考”的定价,从来不是因为这个过程叫思考,而是因为它能产出有价值的结果。
如果AI产出的结果,比大部分人的“思考成果”更好、更快、更稳定,那么市场就会用脚投票,选择“替代”,而非陷入无休止的“争论”。
这对你意味着什么?
别再纠结于“AI有没有意识”或“AI会不会取代人类”这类宏大而空洞的问题。你更应该问的是:
我所在岗位交付的成果中,有多大比例属于“模式识别+结构化输出”?
如果你的答案是“80%以上”,那么AI替代你的时间点,可能并非“十年后”,而是“现在”。
03 “AI帮助构建了它自己”:我们正在经历什么速度的变革?
霍华德在备忘录中做了一个耐人寻味的对比:
第一台计算机ENIAC于1945年建成。据传(无论是否属实),IBM的托马斯·沃森当时曾说:“我认为全球市场大概只需要五台电脑。”这反映了当时的普遍认知。
二十年后的1965年,计算机依然非常原始,普通人完全接触不到。
又过了十年,个人电脑才以套件形式出现。
直到1980年代初——ENIAC诞生将近40年后——IBM才开始向普通家庭销售个人电脑。
现在,让我们看看AI的发展时间轴:
2022年,AI还无法稳定地进行基础算术,它会很自信地告诉你 7×8 = 54。
2023年,它能通过律师资格考试。
2024年,它能写出可以运行的软件,并能解释研究生层级的科学问题。
2025年底,顶尖工程师表示已将大部分编码工作交给人工智能。
2026年2月5日,OpenAI发布了GPT-5.3 Codex。其技术文档中包含这样一句话:
“GPT-5.3-Codex是我们第一个在某种意义上参与了自身创建的模型。Codex团队使用早期版本来调试自身训练流程、管理自身部署,并诊断测试结果与评估。”
请再读一遍:AI帮助构建了它自己。
这不是对未来可能性的预测,而是已经发生的事实。
Anthropic的CEO达里奥·阿莫代伊表示,现在公司里“很多代码”都由AI编写,当前这一代AI与下一代AI之间的反馈回路正“以每月的速度加速积累”。他认为,我们可能“距离一个节点只剩1到2年”,届时这一代AI将能自主构建下一代。
这对你意味着什么?
如果你仍以传统的“线性技术发展速度”来规划自己的职业生涯,心想“我先干着,等AI真的能替代我的时候再说”——那你可能根本没有理解“指数级增长”的含义。
指数级的意思是:起初你完全看不见它,然后它突然出现,紧接着它就全面超越了你。
04 “一个工具如果能让你的分析师效率提高20%,它的价值是那个分析师薪酬的20%。但如果它能从头到尾完成分析师的全部工作,那它的价值就等于那位分析师的全部薪酬。”
这句话,是Claude告诉霍华德的。霍华德将其原封不动地写入了备忘录。
随后,他举了两个例子:
“我儿媳的一位朋友负责一家电商公司的广告文案部门。她告诉我,AI可以替代她团队里80%的员工。”
“驾驶是美国最大的职业之一。Waymo在旧金山已经承担了大约五分之一的出租车行程。等那些需要驾驶的车辆真正变成无人驾驶,原本靠开车谋生的人去哪里找工作?”
霍华德并没有给出乐观的答案。他说:
“我无法想象,软件公司未来还需要像过去那样多的人,去‘指挥Claude写软件’,而过去这么多年,一直是这些人在写软件。”
他承认,科技行业的乐观派会指出:历史上的每一次重大技术创新,从农业机械化到工业革命,都曾被预言将导致大规模失业,但每一次新的工作岗位都会出现,整体就业并未中断。
但霍华德的回应是:
“第一,我承认,从历史出发做这样的外推并非没有道理。第二,世界上也不存在‘证明某件事不会发生’的方法。第三,我既没有足够的未来学想象力去设想新工作会是什么,也没有足够的乐观去确信它们一定会出现。当然,这并不意味着它们不会出现。”
他补充了一句略带心酸的“乐观”:
“最近有位朋友写信给我,说他宁愿做个乐观者而最终证明自己错了,也不愿做个悲观者但最后证明自己是对的。我也是。我真希望我这些担忧最后都只是杞人忧天。”
这对你意味着什么?
这不是在贩卖焦虑,而是在陈述一个事实:不要等待社会给你一个完美的解决方案,因为你可能等不起。
当AI能够替代一个部门80%的员工时,那个部门不会“平稳转型”,而更可能会“结构性缩减”。剩下的20%员工并非永远的幸存者,他们只是“暂时还需要的协调者”。一旦AI连协调工作也能自主完成,那20%的位置也将消失。
你不能仅仅指望“新工作自然会出现”。新工作当然会出现,但它未必恰好出现在你所在的城市,也未必恰好匹配你现有的技能组合。你需要主动去寻找,主动去学习,主动在变化中抢占先机。
05 对投资者(和每一个做决策的人)意味着什么?
霍华德作为投资大师,自然要从投资角度发问:AI将如何影响我们这个行业?
他的结论值得每一个依靠判断力生存的人仔细聆听。
AI的优势显而易见:
- 吸收的数据处理量远超任何人类。
- 记忆更持久、更精确。
- 更擅长识别历史模式与规律。
- 没有恐惧、贪婪、偏见等情绪干扰。
但AI的弱点同样明确:
“伟大的投资者远不止是快速、冷静的数据处理专家,他们必须在Claude承认AI可能最薄弱的地方表现得很强:应对缺乏足够经验积累可靠模式的新兴领域,仍然要能做出高质量判断。他们还必须对定性因素做主观判断,具备品味和鉴别力。”
霍华德举了一个例子:在橡树资本的成功中,选择正确的合作方发挥了至关重要的作用。AI如何进行这类涉及信任、价值观和长期默契的判断?
另一点在于:AI没有切身利益。它不会真正承受集中持仓带来的心理压力,也无法感受资本亏损所带来的切肤之痛。其承担风险的意愿,不会像人类那样受到天性中风险厌恶本能的约束。
然而,霍华德也说了一句非常现实的话:
“如今,唾手可得的量化信息不可能成为获得超额收益的关键,因为每个人都有。在此基础上,AI处理这些信息的能力可能比所有人都强。如果这些信息并非关键,那么投资优势就必须体现在:正确判断这些信息的重要性和影响;评估管理效能和产品创新等定性因素;预测公司的未来发展。很少有人能出色地完成这些任务——简而言之,很少有人拥有卓越的洞察力。”
这对你意味着什么?
如果你从事的是以“处理信息”为核心的工作——例如分析师、研究员、策划、运营等——那么你的“可替代性”正在急剧上升。因为AI在处理信息的速度、广度和一致性上,已经超越了个体人类。
若想保持竞争力,你必须向“判断”和“洞察”的领域迁移。工作重点不应再是“收集数据并告诉我发生了什么”,而应是“在数据不完整、历史模式不清晰的情况下,做出具有高概率正确性的决策”。
这很难。但正因为其困难,才构成了真正的价值壁垒。
06 回到那个最初的问题:这是泡沫吗?
霍华德在去年12月的备忘录中就曾提出这个问题。三个月后,他的答案没有根本改变,但思考更为完整。
他指出,判断是否存在泡沫,需要从几个层面审视:
技术本身是不是一阵风?
非常肯定:不是。它是真实存在且具有巨大潜力的技术,有潜力深刻改变商业和生活的方方面面。
落地应用是不是还很遥远?
不是。目前已经存在真实需求,并且正在大规模应用。
建设基础设施的人是不是在做不理性的事?
“在每一次席卷式的技术创新中,那种不顾一切地抢建基础设施的狂奔,确实极大加速了新技术的采用,但也导致大量资本被错配并最终被毁掉。这一次没有理由认为会例外。”
市场给AI相关资产的估值是否非理性?
“微软、亚马逊、谷歌这类利润极其丰厚的公司,今天的价格不太可能最终被证明是‘高到毁灭性’的离谱。”
霍华德的最终建议,非常“中庸”,但也异常清醒:
“既然没人能断言这是不是泡沫,我建议任何人都不要不计后果地全仓押上,同时还假装自己不面对‘事情变坏时可能被毁灭’的风险。但反过来,任何人也不该完全置身事外,从而错过一次伟大的技术跃迁。最好的做法似乎是:保持适度的仓位,同时做到精选与审慎。”
这对你意味着什么?
这不是建议你去购买AI股票。
而是告诉你一个普适的原则:不要ALL IN,但也不要完全置身事外。
ALL IN的人,是在赌运气,赌输了可能满盘皆输。
置身事外的人,是在赌“变化不会影响到我”,但历史反复证明,这种赌注的赔率往往最差。
所谓“适度仓位”,在个人层面的映射就是:投入适当的时间与精力,去使用、去试验、去犯错。不要等到身边所有人都在熟练运用AI提升效率时,你还在茫然地问“这东西到底有什么用”。
写在最后
霍华德·马克斯在备忘录的结尾说了一段令人深思的话:
“我无法想象AI带来的变化速度不会远远超过社会的适应能力。想想当年制造业外包对美国和其他发达国家制造业岗位造成的冲击;AI影响的岗位会更多,速度会更快。”
但他最终仍然选择做一个乐观者。
“我真希望我这些担忧最后都只是杞人忧天。”
我的立场或许更为简单直接:
我并非意在恐吓,而是希望揭示一个事实:AI正在替代某些工作,但它不会发出正式通知。
它不会发邮件告诉你“你的岗位已被优化”。它会悄无声息地让那位善用AI的同事,产出比你多三倍的工作成果,然后你的绩效排名自然下滑,最终你可能在不知不觉中被“优化”掉。
你或许并没有做错什么。你只是变得太慢了。
因此,我的建议只有一个:
从今天开始,将AI作为你的“第二大脑”来系统性训练。 不是偶尔咨询,而是将其深度嵌入你的日常工作流。让它撰写初稿,你来修改润色;让它搭建框架,你来填充精髓;让它运行数据分析,你来做出最终判断。
你不需要成为AI算法专家。你只需要成为“善于利用AI的技术从业者”中的一员。
因为在这场前所未有的技术变革中,最大的风险或许并非AI过于强大,而是你的适应速度过于迟缓。想了解更多前沿技术趋势与深度讨论,欢迎来云栈社区交流。