找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

1595

积分

0

好友

202

主题
发表于 2025-12-18 18:47:00 | 查看: 41| 回复: 0

Hugging Face 公布了 Transformers v5 的首个 RC(Release Candidate)。距离 v4 发布已过去约 5 年,Transformers 从“模型工具箱”演进为 AI 开发的关键基础设施:目前每天安装量超过 300 万次,累计安装量已超过 12 亿。

与其说 v5 有一个“头条功能”,不如说它是一轮面向长期可持续性的结构性升级。核心目标是互操作性(interoperability):让模型定义、训练流程、推理引擎与部署目标之间的协作更顺畅,尽量减少摩擦成本。

有社区成员总结:v5 更像是 Hugging Face 承认 Transformers 已成为事实上的开放模型注册中心,并开始清理与规范这一角色。

1. 更“轻”的核心:模块化与统一抽象

Transformers v5 的主线之一是“做减法”。Hugging Face 继续推进模块化架构,减少不同模型实现之间的重复代码,并对注意力等通用组件进行标准化。

其中一个重要变化是引入统一的抽象(例如统一的 AttentionInterface)。这类抽象允许不同注意力实现并存,而不必把复杂逻辑塞进每个模型文件里,从而:

  • 降低新增架构的接入成本  
  • 提升现有模型的可维护性  
  • 避免核心库因“兼容一切”而膨胀  

这对需要频繁适配新结构、做定制化改造的 LLM 工程团队尤其关键:模型代码更清晰,组件替换更可控。

2. 后端收敛:PyTorch 成为主战场

Transformers v5 明确收敛后端重心:PyTorch 成为主要框架,TensorFlow 与 Flax 支持逐步退出(sunset),以换取更深度的优化与更清晰的维护边界。

同时,Hugging Face 也在与 JAX 生态更紧密协作,但策略是通过合作伙伴库实现兼容,而不是在 Transformers 内部重复造轮子。对于以 PyTorch 为主的训练/推理栈,这种聚焦有助于减少分支成本与行为差异。

3. 训练侧增强:面向大规模预训练的整合

在训练方向,v5 强化了对大规模预训练的支持:模型初始化与并行能力被重新梳理,以便更干净地接入 Megatron、Nanotron、TorchTitan 等工具链。

同时,它仍保持对主流微调框架的兼容性,例如 Unsloth、Axolotl、TRL、LlamaFactory 等,便于团队在“预训练—对齐/微调—上线”链路中复用同一套模型定义与权重处理逻辑。

4. 推理与部署:更顺滑的 API 与“transformers serve”

Transformers v5 在推理体验上做了多项工程化增强,包括:

  • 更精简的推理 API
  • continuous batching(持续批处理)
  • paged attention(分页注意力)

此外,v5 引入了 “transformers serve” 组件,用于通过 OpenAI 兼容 API 方式部署模型。它的定位并非与 vLLM、SGLang 等专用推理引擎正面竞争,而是提供一个可靠的参考后端,并能与这些引擎更好地集成。

5. 量化成为一等公民:低精度权重加载更自然

另一个重要变化是把量化(quantization)提升为一等概念。v5 重新设计了权重加载机制,使其更自然地支持低精度格式。

这也反映了现实趋势:越来越多的 SOTA 模型会同时提供 8-bit/4-bit 等版本,并部署在对低精度更友好的硬件与推理链路上。

6. 总结:从“功能库”到“生态粘合剂”

总体来看,Transformers v5 并非堆叠新功能,而是在强化其作为共享基础设施的角色:通过标准化模型定义、对齐训练/推理/部署工具链,让 Transformers 更像下一阶段开放 AI 生态的“粘合剂(ecosystem glue)”。

更完整的技术细节可参考:

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-1-11 20:37 , Processed in 0.177339 second(s), 39 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2025 云栈社区.

快速回复 返回顶部 返回列表