Sam Altman在X平台上用不到20个字宣告了一个时代的终结:“我们要和Sora说再见了。” 这款曾让好莱坞彻夜难眠的AI视频生成工具,从登顶App Store到全面关停,生命周期仅约半年。
更具讽刺意味的是,就在三个月前,OpenAI还与迪士尼签署了价值10亿美元的三年合作协议,计划让用户生成包含漫威、皮克斯角色的AI视频。从10亿合约到全面弃子,OpenAI正在经历一场从“技术理想主义”到“商业现实主义”的剧烈阵痛。
一、Sora之死:算力ROI的残酷公式
Sora的关停并非偶然,而是一个可被精确计算的商业决策。
根据第三方数据机构Appfigures统计,Sora应用在2025年11月达到330万次下载峰值后,短短三个月内暴跌至110万次,降幅高达66%。更致命的是收入数据——这款产品的终身应用内购买收入仅约210万美元,而单次15秒视频生成的成本就高达7美元。
我们可以构建一个简化的价值密度模型:
价值密度 = (收入 × 留存率) / (计算成本 + 存储成本 + 推理成本)
对于Sora而言,视频生成所需的计算成本是文本生成的数十甚至上百倍,而企业级用户的付费意愿和留存率却相对较低。这导致其“价值密度”极低,在83.3%的烧钱率压力下,继续维持Sora已变成OpenAI无法承受的“奢侈品”。
相比之下,ChatGPT和Codex的价值密度则完全不同:计算成本相对可控,且直接嵌入企业工作流(客服、编程、文档),用户留存率和付费意愿极高。
Sora之死揭示的不仅是一个产品的失败,而是生成式AI目前的最大痛点:推理成本依然过高,无法支撑高算力消耗的非刚需应用大规模商业化。
二、ChatGPT之生:企业级市场的“信任护城河”
OpenAI将资源集中于ChatGPT和Codex,实质是在争夺企业级数字入口的主导权。
Codex的战略地位尤为关键。 代码是目前AI最精准、容错率最低、价值最高的应用场景。一旦企业的代码库被AI接管,迁移成本将极高——这正是OpenAI构建护城河的核心逻辑。数据显示,Codex的周活用户从年初至今翻了两番,上月底已达到200万。
相比之下,Sora在企业级市场面临三重困境:
- 算力成本过高:视频生成是计算密集型任务,边际成本不会随规模扩大而降低
- 合规风险巨大:涉及版权、Deepfake等“雷区”,在金融、医疗、制造等核心行业难以落地
- 刚需属性不足:更多是娱乐或营销素材,而非企业高频刚需
OpenAI CFO Sarah Friar在接受CNBC采访时明确表示,公司需要“为成为上市公司做好准备”。在IPO前夕,砍掉亏损业务、聚焦“更安全”的生产力工具,是降低合规风险、提升财务健康度的必然选择。
三、财务悬崖:250亿美元亏损与“2027危机”
Sora的关停只是OpenAI财务压力的一个缩影。
根据内部财务文件,OpenAI正陷入持续亏损的泥潭:2025年营收131亿美元,亏损却达80亿美元;2026年亏损预计飙升至250亿美元,烧钱率高达83.3%。这意味着每收入1美元,就要烧掉0.83美元。
按此计算,OpenAI每日烧钱约3800万美元,累计现金消耗到2029年将达到1430亿美元。内部预测要到2030年代才能实现盈利。
更严峻的是市场份额的流失:ChatGPT的市场占比从2025年初的86.7%跌至2026年初的64.5%,Anthropic、谷歌等对手正在快速崛起。
“2027危机”正在逼近。 分析师预测,如果OpenAI无法获得新一轮大规模融资,其现金储备可能在2027年中期耗尽。这解释了为何公司近期完成1100亿美元融资,估值高达7300亿美元,并计划在2026年下半年IPO。
四、战略收缩背后的“圆形融资”逻辑
OpenAI的融资模式正在重塑AI行业的资本结构。
这1100亿美元融资并非单纯的财务支持,而是一个精心设计的“圆形融资”闭环:
- 英伟达既是投资者,又是GPU供应商
- 亚马逊和微软既投资OpenAI,又向其出售云计算服务
- 软银是星门计划的合作伙伴
OpenAI承诺未来8年在亚马逊云消费1000亿美元,在英伟达Vera Rubin系统部署5GW算力。这种“投资-采购”循环本质上是科技巨头通过资本绑定锁定长期商业合作,而OpenAI则获得维持运营的现金流。
AI不再只是软件,它变成了重工业。 核心资源不再是算法工程师,而是芯片、电力、数据中心、冷却系统。这不再是一场代码竞赛,这是一场基建竞赛。
五、从“大模型崇拜”到“小数据实践”
OpenAI的战略转向给正在使用或计划使用AI的企业带来了巨大的不确定性。以下是基于行业观察的务实建议:
1. 构建“模型路由”架构,避免供应商锁定
不要把鸡蛋放在一个篮子里。企业应设计智能路由层,根据任务类型和成本预算动态切换模型:
- 高复杂度/核心任务:路由至GPT-4.1/Codex(追求质量)
- 简单重复性任务:路由至开源Llama 3或Mistral(部署在自有云环境,追求低成本)
- 多媒体任务:接入Stable Diffusion等开源视频生态,避免单一依赖
2. 私有化部署与RAG技术,保障数据合规
对于核心IP(如源代码、配方、客户名单),绝对不要直接调用公有云API。建议利用开源模型(如Qwen、DeepSeek)在企业私有云内部署,结合RAG(检索增强生成)技术,既能利用AI能力,又能保证数据不出域。
3. 建立“人机协同”的沙箱机制
在Codex或ChatGPT的高强度使用中,模型可能生成看似正确但逻辑错误的代码。建议:
- AI生成的代码必须经过自动化测试沙箱
- 引入“AI生成的代码必须经过Code Review”的硬性流程
- 不要把AI当作工程师,要把AI当作“效率极高的实习生”
4. 从“大模型”回归“小数据”
过去三年,大家都在卷“模型参数”和“算力”。但OpenAI的亏损证明,通用大模型的边际效益正在递减。
企业AI落地的核心,不是拥有最强的模型,而是拥有最干净的结构化数据。
六、行业趋势前瞻
结合OpenAI的战略转向和行业动态,以下趋势将成为主流:
1. MaaS(Model as a Service)的分层化
云厂商将把模型分为“旗舰级”(昂贵、精准)和“经济级”(便宜、够用)。企业架构师必须学会精打细算,像管理EC2实例一样管理Token消耗。
2. Edge AI的复苏
为了规避云端推理的高成本,更多AI推理将下沉到边缘端(笔记本、手机、工控机)。这对于数据敏感型行业尤为重要。
3. AI基础设施的“卖水人”崛起
OpenAI亏损越大,NVIDIA(芯片)、Vertiv(散热)等基础设施厂商赚得越多。投资AI基础设施比投资AI应用目前更稳健。
4. 开源模型的战略价值凸显
随着OpenAI等闭源厂商面临盈利压力,价格上调和服务收缩将成为常态。开源模型(如DeepSeek、Llama、Qwen)为企业提供了“Plan B”,降低了供应商锁定风险。
理性战胜狂热
OpenAI关停Sora聚焦ChatGPT,是理性战胜狂热的体现。对于企业客户而言,这意味着需要更务实的AI战略:不再追求“最酷”的功能,而是追求“最稳”的流程和“最低”的算力成本。
Sora之死不是AI视频生成技术的终结,而是一个警示——技术惊艳不等于商业成功,技术嵌入才是生存之道。
如果你正在规划企业的AI转型,建议优先审查数据资产质量,建立多云模型策略,以应对未来可能出现的AI服务商价格战或服务关停潮。在这个算力即货币的时代,数据治理比模型选择更重要,成本控制比功能炫技更紧迫。 技术团队可以关注云栈社区上的深度讨论和最佳实践分享,以获取更多务实的实施思路。
本文综合公开资料整理,仅代表分析观点,不构成投资建议。