找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

4558

积分

0

好友

628

主题
发表于 6 小时前 | 查看: 4| 回复: 0

最近我在iPhone上尝试了一个名为 Google AI Edge Gallery 的新工具,它的App就叫 Edge Gallery。这本质上是一个“本地AI应用商店”兼模型演示平台,而最大的亮点是,你可以让它以完全离线的形式运行谷歌最新发布的开源模型 Gemma 4,全程只调用你iPhone自身的GPU算力。

Google AI Edge Gallery应用界面,展示了Gemma 4模型的聊天、图像问答等功能

今年四月初,谷歌发布了新一代开源模型家族 Gemma 4。发布当天,其31B版本就在备受关注的 Arena 开源模型榜单上冲到了第三名。它的表现很有意思,在数学、编程和科学推理等多个基准测试中,甚至超越了参数量是自己十几倍的对手,实力已经和国内的顶级开源模型站在了同一梯队。

Gemma 4 31B模型在Arena开源模型榜单上排名第三

Google AI Edge Gallery 就是谷歌用来展示其端侧(On-Device)AI生态的一个窗口。对于开发者而言,它就像是一个“试验场”,让我们能在手机、平板等真实设备上直观感受 Gemma 4 的性能。更重要的是,这次谷歌将模型和权重都采用了商业友好的 Apache 2.0 开源协议。这意味着,开发者可以真正地将这些高质量模型集成到自己的 App 中,探索端侧AI的商业化路径。随着移动设备硬件能力的持续增强,强大的模型未必非要部署在云端,手机本身完全有潜力成为一个可靠的本地推理平台。

这正是让我对 Gemma 4 系列感到兴奋的原因之一。

Gemma 4 家族目前包含四个不同规格的模型,以满足不同的硬件和性能需求:

Gemma 4各型号规格与适用场景对比表

我本人在 iPhone 15 Pro Max 上安装并运行的是 E4B 型号,体验相当流畅。Apache 2.0 许可证是谷歌首次真正意义上下放商业使用权,没有任何使用限制,也不强制要求开源衍生品。你可以自由地将其用于商业App并闭源分发,这在以往是比较少见的。

别因为是本地模型就小看它的性能。Gemma 4 的旗舰型号 31B 版本表现相当强悍,这意味着一款消费级 GPU 就能运行的模型,已经在某些实际任务中可以与参数量大得多的闭源模型一较高下。对于追求更强推理能力的用户,可以尝试在高性能工作站上运行 31B 模型。它还能支持 Skill Agent 功能,只需将你编写好的 Skill(技能)URL 提供给模型即可调用。不过需要注意的是,目前其 Agent 功能暂不支持 Python,使用 JavaScript 编写的技能应该可以正常运行。

Gemma 4的Agent技能管理界面,展示自定义技能示例

最让人意外的是 E2B 型号。它仅有 2.3B 参数,却在多项任务上的表现追平了上一代 Gemma 3 的 27B 模型。参数量相差12倍,效果却接近,这似乎预示着手机端本地AI的效能拐点正在到来。

此外,Gemma 4 支持长达 25.6 万 token(约20万汉字)的上下文窗口,覆盖超过140种语言,并原生针对 Agent 工作流进行了优化——多步骤规划、工具调用、记忆保持等过去只有云端大模型才具备的能力,如今在你的口袋里也能实现了。试想一下,用这样的能力去增强 iOS 的 Siri,体验会不会更上一层楼?

如何在 iPhone 上离线运行 Gemma 4?

步骤非常简单:

  1. 下载应用:在 App Store 中搜索 “Google AI Edge Gallery” 并下载安装。
  2. 选择并下载模型:打开 App,任选一个功能入口(如 AI Chat、Ask Image),然后选择下载 “Gemma 4 E2B” 或 “Gemma 4 E4B” 模型(个人推荐先试试 E4B)。每个模型大小约为 2-4 GB,下载完成后即可完全离线使用,支持对话、推理、文本生成等多种任务。

支持的设备包括

  • iPhone 15 Pro 及以上机型(推荐)
  • iPhone 14 Pro 可运行 E2B 型号
  • iPad 同样支持

安卓用户需要前往 Google Play 商店进行安装。

可以用来做什么? 日常问答、写作辅助、代码审查、学习辅导、离线场景(如飞机上、地下室)下的使用,以及长文档摘要与分析等,它都能胜任。

为了方便大家根据自身情况选择,我整理了一个简单的模型选择参考表:

Gemma 4不同使用场景下的型号与硬件要求推荐表

进入2026年以来,MiniMax M2.7、Kimi K2.5、GLM 5、Qwen 3.6 等模型相继亮相,竞争异常激烈。Gemma 4 在这场角逐中算是一个令人惊喜的选手,尤其是考虑到谷歌此前将大量精力都放在了 Gemini 系列上。此次 Gemma 4 所展现出的效能与开放性,确实让人刮目相看。

对普通用户来说,这意味着手机里可以有一个永不离线的 AI 助手,无网络可用、隐私要求高的场景下它都能派上用场。对开发者而言,Apache 2.0 协议扫清了法律风险,使得将此类先进的 开源模型 集成到商业产品中变得切实可行。对于整个行业,端侧AI 的时代步伐,可能比我们预想的要快得多。

这无疑为整个开源 AI 生态注入了新的活力,也值得所有技术爱好者到 云栈社区 这样的 开发者社区 中深入探讨其未来的可能性。




上一篇:HDD在AI数据中心的复兴:成本优势与技术演进解析
下一篇:具身智能世界模型训练遇阻:探讨数据采集的挑战与创新方案
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-4-9 08:24 , Processed in 0.811362 second(s), 41 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表