
如果几年前有人跟我说,你会看到科技公司CEO用“人类生存成本”来为AI的能耗辩护,我大概会觉得这是科幻小说里的情节。但这个看似荒诞的场景,真的发生了。
不久前在印度的一场人工智能峰会上,当被问及AI巨大的能源消耗问题时,Sam Altman给出了一个出人意料的回应。他辩称:“训练一个人需要20年的生命和这期间吃掉的所有食物,相比之下,讨论AI的能源使用是‘不公平’的。”
这听起来不像是单纯的辩解,更像是一种全新的叙事策略——当你的产品被指控太耗能时,不妨算算竞争对手(也就是人类)的“训练成本”。
「人肉成本」的精妙算计
Altman的逻辑表面上看很简单:一个人类从出生到具备生产力的成年,需要消耗20年的食物、住房、教育资源。而训练一个强大的AI模型,可能只需要耗费几个月的电力和算力。
单从“投入产出比”的账面数字来看,AI似乎确实更“划算”。
但这个比较的背后,隐藏着一个巧妙的概念偷换。人类的成长过程,从来不是一场纯粹的“训练”,而是生命本身。一个20岁的人,不仅具备了工作能力,还拥有情感、创造力、道德判断力,以及无法被量化的人生体验。而AI模型无论多么强大,目前本质上仍是在特定任务上表现出色的工具。
不过,Altman的切入点确实触及了一个有趣的角度。如果我们非要把人类社会看作一个庞大的“人才培养系统”,那么培养一名合格程序员的总成本,细算下来确实惊人:20年的基础教育、4年大学、若干年的工作经验积累,再加上背后整个社会基础设施的持续投入。
有开发者在社交平台上调侃道:“按这个逻辑,我是不是该感谢公司还没直接用AI把我替换掉?毕竟我的‘训练成本’看起来确实不菲。”
从万亿承诺到六千亿现实
Altman选择在这个时间点抛出“人肉成本论”,背景颇为微妙。
就在几天前,OpenAI刚刚大幅调整了其财务预期——原本宣称未来可能需要高达1.4万亿美元的基础设施投入,现在已悄悄调整至6000亿美元。这个调整释放了一个明确的信号:即使是行业领头羊OpenAI,也开始正视AI模型训练带来的巨大成本压力。当初雄心勃勃的万亿级计划,在现实能源账单和经济考量面前,也不得不变得谨慎务实。
与此同时,OpenAI的商业化步伐正在全面加速。从考虑在ChatGPT中引入广告,到与印度塔塔集团达成战略合作,再到发布新模型,每一步都在探索更高效的盈利模式,以平衡背后天价的训练与推理成本。
因此,Altman这番关于能源消耗的辩论,更像是为这种商业化的战略转向提供一种理论上的支撑。如果能够论证AI训练比培养一个人类更“环保”、更高效,那么为AI投入巨量资源就获得了道德上的正当性。如果AI模型的能效比远超人类,那么用AI增强乃至替代部分人工,就不只是出于商业利益的考量,还可能被包装成一种“环保责任”。
这场辩论的大背景,其实是整个科技行业对AI环境影响的集体焦虑。数据中心的耗电量正以惊人速度增长,训练一个大语言模型的碳排放量可能相当于数百次跨大西洋航班。当全球主要经济体都在制定碳中和目标时,高歌猛进的AI公司们正面临着前所未有的监管与舆论压力。
Altman的“人肉成本论”,本质上是一种防御性的叙事策略——与其被动地解释AI为什么如此耗能,不如主动出击,重新定义“什么才是合理的能源消耗标准”。
这让人联想到他在同一次峰会上另一个表态:世界可能需要一个类似“国际原子能机构”的组织来监管AI。表面上是呼吁加强监管,实则是在为AI的“核能”级影响力与重要性做铺垫。潜台词是:既然AI像核能一样,拥有改变世界格局的力量,那么为其消耗相应规模的能源,就是一种“必要代价”。
但这种叙事面临一个根本性的问题:AI与人类,并非一场你死我活的零和游戏。
被忽视的第三种可能
Altman的比较预设了一个前提:AI和人类是纯粹的竞争与替代关系,我们必须在“效率”的天平上做出非此即彼的选择。
但现实远比这种简单的二元对立复杂。AI的核心价值,恐怕不在于替代人类,而在于增强人类的能力。一位经验丰富的程序员,在得力AI编程助手的配合下,其产出效率和创新可能性,很可能远超单纯的AI或单纯的人类。
从这个角度看,真正值得探讨的问题或许不是“AI是否比人类更环保”,而是“如何确保AI消耗的每一度电,都能产生最大的社会与经济价值”。
一位能源政策研究者曾指出:“关键不在于AI用了多少电,而在于这些电力是否用对了地方。如果AI技术能够被用于优化电网调度、提升工业能效、减少全社会的能源浪费,那么前期的训练成本,就是一笔极其划算的战略投资。”
OpenAI近期为其模型增加的一系列安全功能和风险分类标签,某种程度上也是在回应这个问题——通过更精准、更负责任的应用导向,让投入的每一分算力都更具意义。
Altman的“人肉成本论”虽然初听有些荒诞,但它确实揭示了一个更深层次的、属于算法时代的哲学问题:在智能可以规模化“生产”的时代,我们究竟该如何重新衡量“价值”与“成本”?
当AI能够在两小时内学会人类需要二十年积累的某项技能,传统的成本效益分析框架是否已经过时?当机器学习的边际成本持续下降并趋近于零,人类劳动与创造力的独特价值又该如何被定义和捍卫?
这些问题没有标准答案,但绝对无法回避。从印度峰会上Altman与Anthropic CEO之间那场引人瞩目的“拒绝握手”,到业内关于AI广告模式的争论,再到眼前的能源消耗辩论——每一次争议的背后,都是人们对AI未来社会形态的不同想象与期待。
Altman选择用计算“人肉成本”的方式为AI辩护,实质上是在试图重新划定“效率”的边界。但我们必须清醒地认识到,效率从来不是唯一的评判标准。公平、可持续性、人的尊严,以及我们究竟希望生活在一个怎样的世界里,这些同样是至关重要的维度。
当科技巨头们开始认真地计算人类的“训练成本”时,也许我们真正该问的,不是这笔账算得精不精准,而是:我们是否愿意生活在一个将人类价值简单量化为“低效AI”的世界里?

对于AI发展引发的能耗、伦理与价值讨论,相信每一位身处技术浪潮中的开发者都有话想说。欢迎在云栈社区分享你的见解,与技术同好们一起,碰撞出更多关于未来的思考。