找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

862

积分

0

好友

108

主题
发表于 3 天前 | 查看: 9| 回复: 0

图片

Kubernetes 近期在 GPU 资源管理方面取得了突破性进展,通过动态资源分配(DRA)解决了长期存在的 GPU 请求痛点,并结合全新的工作负载抽象实现了对 AI 任务的智能调度。这些基础性功能将深刻影响未来十年企业在 Kubernetes 上部署和运行 AI 工作负载的方式。

正如 Nvidia 杰出工程师 Kevin Klues 所言:“底层系统工程师的工作若做得出色,往往无人察觉;但一旦出错,便会引发广泛关注。”这恰当地解释了 Kubernetes 开源社区为何持续投入,默默构建这些将重塑基础设施的核心抽象。

在近期的一次技术讨论中,专家们重点探讨了两项关键进展:已在 Kubernetes 1.34 中正式可用的动态资源分配(DRA),以及一项即将推出的、可能彻底改变多节点 AI 部署范式的工作负载抽象

DRA:为 GPU 资源引入类存储的管理模型

动态资源分配(DRA)彻底改变了在 Kubernetes 中请求 GPU 等专用硬件资源的方式。过去,用户只能简单地请求 GPU 的数量,无法指定 GPU 的类型或获得资源后的具体配置。DRA 借鉴了持久卷(PV)和持久卷声明(PVC)这一存储领域成熟的概念模型,将其优雅地扩展到了通用硬件资源管理。

AWS 首席产品经理 Jesse Butler 赞誉 DRA 为“最优雅的设计之一”。其核心在于允许第三方设备供应商以标准化的方式将自定义硬件驱动程序集成到 Kubernetes 中,使得 GPU 等设备能够像存储卷一样被动态申请、分配和回收。这为 AI 训练、推理等复杂工作负载 提供了更精细、更灵活的底层资源支撑。

面向复杂场景的全新工作负载抽象

然而,仅有精细的资源分配还不足以应对复杂的分布式 AI 场景。例如,在多节点训练任务中,用户可能需要所有相关 Pod 同时就绪才能启动,否则宁愿一个都不启动。现有的 Kubernetes 原语无法很好地表达这种强依赖的协同调度需求。

为此,社区正在推进一项新的“工作负载抽象”。其基础版本计划随 Kubernetes 1.35 发布,它将允许用户定义一组具有共同调度约束和拓扑要求的 Pod。这类似于一个功能增强版的节点选择器,能够声明诸如“全部或全无”的 Pod 启动策略。

Kevin Klues 强调,这项抽象虽然初期实现较为基础,但其意义深远,将“塑造未来十年 Kubernetes 的运作方式”。目前,相关设计正在 Kubernetes 设备管理工作组中积极演进,并热烈欢迎社区贡献。

这些底层功能的持续增强,标志着 Kubernetes 正稳步提升其对算力密集型应用,特别是大规模 AI 工作负载的原生支持能力。




上一篇:戴尔Precision T3620二手工作站评测:150元高性价比与NAS、虚拟机改造实战
下一篇:Kubernetes部署的未来:开放平台如何克服专有、DIY与公有云的挑战
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2025-12-17 16:13 , Processed in 0.142535 second(s), 37 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2025 云栈社区.

快速回复 返回顶部 返回列表