过去我们总在称赞厂商为老机型更新新功能的做法,但这一次,我觉得有必要提出一些质疑了。
近日,三星在其官方社区发布公告,明确表示正在推进系统更新,计划将 Galaxy S26 系列搭载的多项 AI功能,逐步下放至 Galaxy S25 系列等老款旗舰机型中。

乍看之下,这似乎是三星“不忘老用户”的暖心操作。它既延续了老机型的生命周期,也让暂时未更换新机的用户能体验到最新的AI特性。
但如果你是关注手机底层技术,特别是 AI 运行逻辑的消费者,看到这个消息后,或许会忍不住皱起眉头。因为这场看似普惠的功能下放,反而可能揭开了当下“AI手机”在硬件规格与软件体验之间存在的深层矛盾。
云端还是端侧?这是手机AI功能的老问题
首先我们需要厘清,目前手机上的AI功能基本可以分为两类。
一类是纯粹基于云端算力实现的AI功能,比如很多机型都有的AI长焦增强、AI修图、智能文案帮写等。这些功能无需依赖手机本地的 AI硬件(NPU),只要连接网络、调用云端服务器的算力就能完成。

对于这类AI功能,其实无所谓“下不下放”。毕竟,即便是一款最入门、没有任何本地AI算力的手机,只要能联网也能使用。这也是不少中低端机型敢于自称“AI手机”的核心底气所在。
但对于另一类基于手机本地算力、由 端侧大模型 实现的“AI功能”来说,情况就完全不同了。这类功能的流畅度、处理精度和响应速度,完全依赖于手机SoC中 NPU(神经网络处理单元) 的算力来支撑。

例如,三星Galaxy S26系列宣传的实时视频AI降噪,以及S25系列已有的实时语音翻译等功能,都需要NPU提供充足的算力,才能驱动安装在系统中的端侧模型执行操作。如果这类强依赖硬件的AI功能能够被轻易“下放”,事情反而可能没那么简单。
当硬件进步太大,“功能下放”就反而令人生疑
为什么这么说?回顾历史不难发现,确实有一些旗舰SoC在换代时,NPU的性能并未出现显著增长。比如骁龙888与骁龙8 Gen1,前者的NPU算力约为26TOPS,后者为32TOPS,区别不大。再如骁龙8 Gen2与骁龙8 Gen3,一个48TOPS一个45TOPS,峰值算力甚至略有回落。
在这种情况下,厂商将新机的本地AI功能下放给老机型,技术上确实没太大难度,操作上也合情合理。
但Galaxy S26与S25系列所搭载的SoC,显然不符合这一规律。根据官方数据,为Galaxy定制的第五代骁龙8至尊版移动平台,其NPU算力高达100TOPS,支持INT2与FP8多精度计算,端侧大模型推理速度可达220Tokens/秒。

相比之下,前代机型S25系列搭载的骁龙8至尊版,其NPU峰值算力为80TOPS。看似只慢了20%,但关键在于它不支持INT2精度。因此在两者都“充分优化”的前提下,实际推理速度的差距会被显著拉开。这还没考虑两款SoC在片上缓存、内存带宽等其他方面的差异。
这样一来,如果Galaxy S26系列里那些依赖高算力的本地AI功能(例如支持毫秒级响应的端侧大模型交互、4K视频实时AI修复等),可以被“下放”给NPU规格明显差了一截的前代机型,就不免让人产生疑问。

这背后到底是哪种情况?是三星在Galaxy S26系列上,对新一代 SoC的NPU 硬件潜力开发不足,AI功能并未完全“吃满”算力,导致算力较低的旧平台也能勉强运行?还是说,在下放过程中,相关的端侧AI模型会被大幅精简?例如通过量化压缩、裁剪模型参数等方式来降低算力需求,看似是“同款功能”,实际体验和处理精度却大打折扣,根本不是真正意义上的功能复刻?
“端侧AI”是核心竞争力,厂商理应更加谨慎
要知道,对于如今的消费者而言,云端AI潜在的隐私和数据安全问题,早已不是“传言”,而是摆在眼前的现实顾虑。在这种背景下,优化得当、能充分挖掘硬件潜力的“端侧AI”,才是真正能体现各厂商技术实力的关键所在,也是构建健康 移动AI生态 的基础。

既然如此,当那些看似“专属”于新硬件的端侧AI功能,却能被轻易“下放”时,就不仅可能让购买了新机的消费者感到价值被稀释,甚至也可能让人对厂商宣称的技术领先性产生怀疑。
从结果来看,这次看似普惠的功能下放,究竟是厂商基于强大技术实力的诚意之举,还是一场兼顾市场口碑与研发成本的营销话术?或许,只有当相关功能正式推送到老机型上,我们才能从实际体验的细节中找到答案。
这场关于技术真实性的讨论,也正契合了 云栈社区 开发者们一贯关注的核心:在纷繁复杂的市场宣传中,如何拨开迷雾,看清技术的本质与产品的真实价值。