4月3日,谷歌DeepMind正式发布了新一代开源大模型Gemma 4,这不仅是一次简单的版本迭代,更以全新的开源策略和升级的性能,直接搅动了全球的开源AI格局。
作为Gemma系列的最新成员,Gemma 4与谷歌自家的旗舰闭源模型Gemini 3共享了底层技术。本次发布,谷歌一次性推出了E2B、E4B、26B MoE以及31B Dense四款不同规格的模型,覆盖了从边缘设备到高性能服务器的全场景需求。其中,轻量化版本甚至能在安卓手机、树莓派这类硬件上离线运行,并且兼顾了多模态理解与语音能力,这无疑让本地AI应用的部署门槛大幅降低,为边缘计算和移动端人工智能打开了新的想象空间。
不过,本次更新最引人注目的亮点,当属其全面改用 Apache 2.0 开源协议。这意味着,所有版本的Gemma 4都支持无限制的商用、修改与分发,彻底放开了商业使用上的限制。相比前代协议,这一改动让企业和开发者无需再为潜在的授权风险而顾虑,直接将其推向了与Llama、通义千问等主流开源实战模型同台竞争的位置。Apache 2.0协议的采用,可以被看作是谷歌向开发者社区展示的最大诚意。
那么,具体来说有哪些亮点呢?性能方面,31B参数的稠密版模型提供了高达256K的上下文窗口,其推理能力据称已逼近超大规模的闭源模型;而MoE(混合专家)架构的模型,则能以更低的算力消耗实现高效的推理运算,普通消费级显卡就能完成部署。此外,全系模型都优化了多语言能力,对中文的支持有了显著提升,并且原生就适配了函数调用与智能体(Agent)等高级应用场景。
Gemma 4的发布,清晰地标志着谷歌正在加码投入开源AI赛道。凭借Apache 2.0这一宽松的协议和其在端侧部署上的技术优势,Gemma 4有望重塑当前开源大模型的竞争格局,也可能推动本地AI应用迎来新一轮的普及浪潮。对于开发者而言,这意味着又多了一个值得深入研究和尝试的强力工具。
对于这类前沿技术的动态和实践经验,欢迎到云栈社区交流讨论。
|