找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

3604

积分

0

好友

496

主题
发表于 14 小时前 | 查看: 4| 回复: 0

3月3日,阿里巴巴一口气开源了千问(Qwen)3.5系列的四款全新小尺寸模型。这四款模型分别是 Qwen3.5-0.8B、Qwen3.5-2B、Qwen3.5-4B 和 Qwen3.5-9B。

最小的 0.8B 和 2B 版本,模型体积极小,推理速度非常快,非常适合移动设备、IoT 边缘设备部署,以及对延迟要求极高的实时交互场景。

而 4B 版本则是一款性能强劲的轻量级模型,适合作为轻量级 Agent 的核心大脑,在性能与资源消耗之间取得了不错的平衡。

9B 版本更是拥有媲美 GPT-OSS-120B 等更大模型的性能,适合那些需要较高智力水平但显存资源有限的服务器端部署场景,堪称性价比极高的通用模型选择。

Qwen官方推文及模型性能对比截图

这四款新发布的 Qwen3.5 模型虽然尺寸小巧,但都继承了该系列的原生多模态能力,在极小的参数量下实现了显著的性能跃升。这一动态在 AI社区 迅速引发了广泛关注,连埃隆·马斯克(Elon Musk)也很快在社交媒体上点赞并评论,称阿里千问模型拥有“令人印象深刻的智能密度(Impressive intelligence density)”。

千问(Qwen)是目前公认的世界最强开源模型之一,其版本已经迭代至 3.5 系列。就在刚刚过去的除夕,千问开源了 3.5 系列的首款模型 Qwen3.5-397-A17B,其参数量虽不到4000亿,但性能已超越万亿参数的 Qwen3-Max 模型,且部署成本大幅下降。

上周,千问又开源了 3.5 系列的中型尺寸模型,包括 Qwen3.5-122B-A10B、Qwen3.5-35B-A3B 和 Qwen3.5-27B,这些模型的性能可媲美 GPT-5,并且能在消费级显卡上运行。而这次新开源的 4 款小尺寸模型,则延续了“以小胜大”的策略,凭借精巧的尺寸实现了卓越的智能水平。

至此,千问 3.5 家族已累计开源了 8 款模型。它们均以更少的参数实现了“跨级”的性能超越:小尺寸模型能媲美中型模型的性能,而中型尺寸的模型则拥有接近顶级模型的智能水平。这正是马斯克所提及的“智能密度”的直观体现。

整个千问家族迄今已开源超过 400 款大模型。每个系列不仅包含不同尺寸的语言模型,还涵盖了编程、数学、语音、视觉理解、图像生成等多种类型的模型。这种“全尺寸”+“全模态”的开源策略,深受全球开发者欢迎。无论是个人开发者还是企业用户,都能根据自身需求和具体场景,找到一款适配的千问大模型。

不久前开源的千问 3.5 大型及中型系列模型,已经成功包揽了 HuggingFace 全球开源模型榜单的前四名。千问正在成为越来越多企业的 AI 基座。这股“千问旋风”也早已席卷硅谷,除了马斯克,包括英伟达 CEO 黄仁勋、谷歌前 CEO 埃里克·施密特、Airbnb CEO 布莱恩·切斯基以及 Perplexity CEO 阿拉温德·斯里尼瓦斯等科技领袖,都曾在不同场合公开称赞过千问模型的表现。

从庞大的基础模型到极致轻量的小模型,千问的开源图谱日益完善,为不同场景的 AI 应用提供了丰富的选择。对于开发者而言,这无疑是个好消息。如果你想了解更多关于前沿 AI 技术和开源项目的深度讨论,欢迎来云栈社区交流分享。




上一篇:前同事跳槽涨薪50%遭竞业协议威胁索赔60万,这事你怎么看?
下一篇:模力方舟Moark Skills开源:标准化技能协议让OpenClaw轻松实现图像生成、OCR与文档提取
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-3-4 20:13 , Processed in 0.382796 second(s), 42 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表