找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

606

积分

0

好友

84

主题
发表于 昨天 05:01 | 查看: 0| 回复: 0

在距离ChatGPT诞生仅仅三年后的今天,我们已经很难再用“新技术”来定义AI。它像一股潮水,快速渗透进工作、产品与社会结构,而它未来的真正形态与影响却始终难以捉摸。我们正站在一个既熟悉又陌生的路口:技术前沿在加速狂奔,但商业落地依然挑战重重;关于AI革命的宏大叙事不断升温,而普通人的日常生活似乎并未发生根本性的转变。

《麻省理工科技评论》近期的一期特刊中,高级编辑Will Douglas Heaven与《金融时报》全球科技记者Tim Bradshaw进行了一场关于“2030年的AI世界”的深度对话。对话揭示了两种极端观点:一方认为“AI将在五年内带来超越工业革命的变革”,另一方则坚信“技术扩散必然缓慢”。Will和Tim本人均不属于任何一派,他们对AI的中短期影响持审慎态度,认为真正的变革将受到算力、成本、制度与人类行为的复杂制约。

Will Douglas Heaven写道:
每当被问及未来,我总想引用Luke Haines的一句歌词:“别问我未来如何,我可不是占卜师。”但即便如此,我们还是来谈谈2030年。我的答案是:世界会似曾相识,却又截然不同。

在预测生成式AI对近期未来的影响时,观点存在巨大分歧。其中一个阵营是AI Futures Project,这是一个由前OpenAI研究员Daniel Kokotajlo领导、依靠捐赠的小型研究机构。今年4月,他们发布的《AI 2027》引发了广泛讨论,这是一篇推想两年后世界如何变化的文章。

这篇文章构想了一家名为OpenBrain的AI公司技术失控发展的故事,最终导向繁荣或灾难的结局。Kokotajlo及其合著者毫不避讳地表达了核心观点:在未来十年,AI的影响将超过持续150年、至今仍在塑造世界的工业革命。

另一端则是“正常科技派”,以普林斯顿的研究者Arvind Narayanan与Sayash Kapoor为代表,他们是《AI Snake Oil》的联合作者。两人不仅反驳了《AI 2027》中的多数预测,更重要的是,他们挑战了其背后的技术演进观。他们认为,现实中的技术并非如此运作。

前沿技术的发展或许迅猛,但整个经济体系与社会的适应,遵循的仍是人类自身的速度。新技术的大规模采用往往缓慢,社会接受更需要时间。AI也不会例外。

那么,在这些极端观点之间,我们该如何判断?

ChatGPT发布至今刚满三年,但即便是最新一代的大语言模型,能否真正取代律师、软件开发者或记者,仍然没有定论。而且,新模型的更新已不再带来当初那种质的飞跃感。然而,这项技术毕竟还很新,过早否定其潜力显然为时过早。想想看:我们甚至还不完全了解其内部工作机制,更不清楚它的终极用途究竟是什么。

随着核心模型技术迭代速度的放缓,AI公司的竞争焦点正转向应用层。与此同时,高端模型的运行成本正在下降,获取也更为便利。预计未来的大部分创新都将发生在这个层面:对现有模型的新颖用法将不断涌现,吸引着那些期待下一次重大突破的人们。

同时,AI的进步并不局限于大语言模型。例如强化学习,它是2016年AlphaGo战胜围棋世界冠军的核心技术;另一类备受关注的是“世界模型”,这类生成式AI在理解物理世界结构方面,似乎比现有LLM展现出更强的潜力。

归根结底,我认同“正常科技派”的观点,技术层面的快速突破并不会立即转化为经济或社会层面的广泛变革,这中间存在着太多复杂的人类与社会因素。

Tim Bradshaw回应:
Will,我比你更确信,2030年的世界将明显不同。未来五年,AI革命将持续推进,但谁能从中获益,将导致“AI拥有者”与“AI无产者”之间的深刻分化。

AI领域的泡沫在本十年结束前破裂几乎是不可避免的。无论风险投资的热潮在六个月后还是两年后消退,大批AI应用开发者都会在一夜之间消失。其中一些团队的成果会被他们所依赖的基础模型公司直接吸收;另一些则会痛苦地发现,在没有持续风投输血的情况下,无法维持“花1美元、收入50美分”的商业模式。

基础模型公司最终能存活几家则更难预测。但目前来看,OpenAI在硅谷生态系统中的相互依赖链条,使其已“大到不能倒”。然而,资金压力最终将迫使其大幅提高服务价格。

OpenAI在2015年成立时,曾承诺以最有益于全人类的方式推进数字智能。如今,这一愿景愈发显得难以为继。以数千亿美元估值入场的投资者迟早会要求回报,那些庞大的[数据中心不可能仅靠理想运转。届时,许多企业和个人将已深度依赖ChatGPT或其他AI服务来完成日常工作。有能力支付的人将持续享受生产力红利,并吸收过剩的算力;而无力承担者将被排除在外。

多层叠加使用AI服务所带来的“复利效应”将更加明显。我最近在旧金山听到一个例子:修复“氛围编程”中的代码瑕疵,只需对同一问题反复调用几次模型,然后再运行几组AI代理来查找漏洞与安全问题。听起来很便利,但背后是极其昂贵的GPU消耗。若要真正兑现AI所承诺的生产力提升,客户未来的使用成本必然远高于今天。

实体世界的AI同样如此。我完全相信,到本十年末,机器人出租车将在主要城市普及,甚至许多家庭会拥有家用机器人。尽管Waymo在旧金山的网约车价格,以及中国优必选、宇树等公司推出的低价机器人给人以即将全民普及的错觉,但要让这些系统真正好用且普及,背后所需的算力成本,几乎注定了它们在相当长时期内将是富裕阶层的专属。

与此同时,其余的大众将停留在一个充斥着低质量合成内容的互联网中,却无力负担真正高效可用的AI工具。

或许未来会出现某种突破性的计算效率革新,从而改变这一轨迹。但在当前的AI繁荣期,硅谷公司缺乏足够动力去研发更轻量的模型,或尝试颠覆性的芯片架构。这反而提高了下一波AI创新从美国之外涌现的概率,无论是来自中国、印度,还是世界其他地方。

硅谷的AI繁荣必将在2030年前迎来终结,但围绕技术发展主导权的全球竞争,以及利益如何分配的政治争论,将持续到下一个十年。

Will Douglas Heaven最后补充:
我同意你关于成本将创造一个“AI可用”与“AI不可用”世界的观点。即便在今天,每月支付20美元以上使用ChatGPT Plus或Gemini Advanced的用户,其体验已远超免费用户。随着模型公司寻求回收高昂的研发与运营成本,这种能力差距必然会进一步扩大。

全球范围内的不平等将更为显著。全球北方地区的AI采用率已呈爆炸式增长。由微软支持的研究机构近期报告称,AI是人类历史上传播最快的技术:“不到三年,已有超过12亿人使用过AI工具,其普及速度超过了互联网、个人电脑乃至智能手机。”然而,没有稳定的电力与高速网络,AI根本无法运行,而世界上仍有大片区域缺乏这些基础设施。

我依然怀疑我们能在2030年前看到业内人士所承诺的那种全面革命。微软报告中的“采用”,本质上统计的是尝鲜用户,而非真正的、深度的技术扩散——后者需要漫长的时间。而尝鲜用户可能会感到厌倦,然后转向其他新事物。




上一篇:自动驾驶大模型泛化能力深度解析:核心挑战与关键实现路径
下一篇:人工智能导论学习指南:核心概念与历史发展知识要点梳理
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2025-12-12 08:34 , Processed in 0.082056 second(s), 41 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2025 云栈社区.

快速回复 返回顶部 返回列表