找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

2545

积分

0

好友

369

主题
发表于 前天 02:51 | 查看: 8| 回复: 0

四位行业重量级人物——Anthropic联合创始人Jack Clark、Dwarkesh播客创始人Dwarkesh Patel、软件创业者Patrick McKenzie以及知名前对冲基金经理Michael Burry——近期进行了一次深度对谈,透露了许多反直觉的行业洞见和数据。

例如,AI工具到底有没有提升生产力?多数人直觉认为有,但Jack Clark指出,现有数据是矛盾且稀缺的。

METR的研究显示,对于熟悉代码库的开发者,使用AI工具反而使PR(拉取请求)合并速度下降了约20%。然而,Anthropic内部的开发者调查却显示,有60%的Claude使用者自报生产力提升了50%。这组矛盾数据表明,自我感知的生产力可能与真实生产力存在高度背离。

再比如,AI能否加速整体软件开发速度?你可能会觉得能。但Jack Clark指出了其中的“木桶原理”:系统的整体速度取决于最慢的环节。如果你写代码的速度快了10倍,但代码审查的速度只提升了2倍,那么整体效率并不会出现爆炸式增长。

此外,像维修工、水管工这类常被认为“AI免疫”的技工职业,其实也未必安全。Michael Burry透露,他如今可以通过“拍照+AI指导”的方式,自己完成许多电工和家居维修工作。如果面对一次800美元的上门服务费,很多人可能会选择先用Claude试试看。

Jack Clark还回顾了自2017年《Attention Is All You Need》发表以来的技术路径演变。他指出,早期主流路线是“白板假设”,试图在特定环境中从头训练智能体。但真正胜出的是 Transformer架构与规模定律(Scaling Law)的结合,这条路径通过对海量数据的预训练,催生了通用能力。

颇具讽刺意味的是,现在事情似乎“绕了一圈回来”:人们又开始构建智能体了,但这一次,智能体是建立在强大的预训练模型之上的,例如DeepMind的SIMA 2和Claude Code。

关于AI开发效率的争议

Dwarkesh Patel 提出了那个价值百万美元的问题:METR的研究与Anthropic的调查结果相悖,到底哪个更接近真相?他个人直觉更倾向于METR的结论,因为编码工作缺乏良好的反馈验证闭环,且评价标准(如可维护性、代码品味)高度主观。

Jack Clark 同意这是一个核心问题,并坦言需要更好的工具来测量“真实生产力”。他透露,Anthropic正在认真考虑如何进行更好的“仪表化”研究,以区分主观感受与客观现实,并希望能在2026年拿出相关成果。

Dwarkesh补充道,METR的研究恰恰预测了这种现象:自我感知的生产力可能与真实生产力高度背离,甚至方向相反。

AI的能力边界与市场影响

Dwarkesh Patel 认为,一个令人惊讶的事实是,自动化“人类的工作”远比想象中复杂。AI已经跨越了无数曾被视为AGI门槛的挑战(如图灵测试、解决复杂数学问题),但其对劳动力市场的实际影响却微弱到需要“显微镜”才能看见。

Jack Clark 指出,人工智能社区有一个老规律:我们不断设计出看似能“真正考验智能”的任务,然后模型轻松跨越。最终你得到的,是一个表面极其强大、但仍会犯一些人类觉得荒谬错误的系统。例如,大语言模型在某些认知测试上已达“超人类”水平,但却可能无法在犯错后进行有效的自我纠正。

Michael Burry 从经济学角度提出质疑:AI必须被某人买单,构成GDP的一部分。整个软件行业规模约一万亿美元,而目前Nvidia已卖出约4000亿美元的芯片,但终端AI产品的收入可能还不到1000亿美元。AI必须真正提高生产力,或创造出不挤占现有支出的新需求,而这非常困难。

什么情况会令人震惊?

当被问及什么情况会彻底改变他们对AI进展的判断时,几位参与者给出了不同的答案:

  • Michael Burry:一是看到自主AI智能体在大型公司中取代数百万个工作岗位;二是AI应用层收入达到或超过5000亿美元,这意味着出现了大量真正的“杀手级应用”。
  • Dwarkesh Patel:一是AI实验室的累计收入大幅偏离预期(低于400亿或高于1000亿美元);二是持续学习被真正解决,模型能像熟练员工一样在上下文中持续进步。
  • Jack Clark:如果 “规模化撞上了墙”(Scaling Law失效) ,那将极其令人震惊,因为当前巨额的基建投资都押注于相反的预期。另一件会让他震惊的事,是分布式训练在效率上出现重大突破,使得无需单一巨型组织也能训练出前沿模型,这将彻底改变AI的政治经济结构。

当前不存在真正的递归自我改进AI

在谈及AI风险时,Jack Clark 表示,他最担心的是能否成功构建出 “能够构建AI的AI” ,即彻底闭合AI研发的循环(递归式自我改进)。

但他明确强调:“我几乎可以肯定,在2026年1月,地球上还不存在真正的递归自我改进AI。” 不过,早期迹象已经出现,AI正越来越擅长完成AI研究中的某些环节。如果这种趋势持续,最终将带来发展速度的急剧提升和重大的政策挑战。

他建议政策制定者应要求AI公司在此方面保持高度透明,并确保有可信的第三方机构能独立测试系统是否具备这种特性。

Michael Burry 则对末日级担忧不太焦虑,他更关注基础设施。他建议政策制定者应大手笔投资建设新一代电网和小型核反应堆,确保能源不成为创新的瓶颈。Jack Clark 对此深表认同,认为AI要在经济中发挥实质作用,根本依赖于低成本、高效率的底层基础设施。

他们如何使用AI?

最后,几位也分享了他们个人最重要的LLM使用场景:

  • Michael Burry:用Claude制作所有专业图表和表格,并寻找非主流的资料来源。
  • Patrick McKenzie:指出过去金融等行业花了无数金钱让顶尖人才成为PPT/Excel专家,而如今用LLM生成图表已变得稀松平常。
  • Dwarkesh Patel:将LLM作为一对一私人导师,其低延迟和随时响应提供了超越真人导师的体验。
  • Michael Burry(补充):驳斥了“技工职业AI免疫”的观点,他亲自使用Claude指导完成了许多家居维修工作。

这次对谈揭示了AI浪潮中复杂的现实:技术进步显著,但转化为经济生产力和市场价值的路径依然充满不确定性。对于关心智能与数据云未来发展的从业者而言,这些来自一线的冷静观察值得深思。

参考链接:
https://earmark.fm/id/4beae92f-ed45-429e-a633-faa48407fd4f




上一篇:十大鉴权方案深度对比:从Session到SSO,前端与后端如何选择?
下一篇:从某节10-10工作制跑路,到二叉树“最大层内元素和”题解
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-1-14 20:09 , Processed in 0.217995 second(s), 39 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2025 云栈社区.

快速回复 返回顶部 返回列表