找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

334

积分

1

好友

34

主题
发表于 前天 04:54 | 查看: 10| 回复: 0

在QCon旧金山2025大会上,LinkedIn工程经理Nishant Lakshmikanth深度解析了如何系统拆解传统批处理推荐架构,实现实时个性化推荐的同时显著提升运营效率。

原有架构负责"可能认识的人"和"关注的人"等核心产品功能,存在三大瓶颈:数据新鲜度低、延迟高、计算成本高。旧系统中,推荐结果会为全体用户预计算,不论用户是否登录,这导致大量计算资源浪费和静态过时的推荐结果。一次流水线事故可能造成数天的更新延迟,直接影响核心业务指标。

LinkedIn将这次重大迁移规划为循序渐进的四个架构阶段:

离线评分:起点是重型批处理计算,高延迟且需要海量预计算存储
近线评分:中间过渡阶段,提供小时级或天级数据新鲜度
在线评分:关键转折点,模型推理根据用户当前会话和意图实时执行
远程评分:最终目标,将重型模型评分迁移到高性能云环境,通常利用GPU加速推理

这一框架支持两条并行迁移路径:离线到在线评分、近线到在线新鲜度,将重心从预计算转向动态执行。

成功关键在于架构层面的根本性解耦:将候选生成流水线与在线评分服务分离。

动态候选生成:候选生成不再依赖静态列表,转而使用实时搜索索引查询、基于嵌入的检索解决新用户和内容冷启动问题,并结合即时用户上下文动态获取相关候选集。

智能评分:在线评分服务使用上下文丰富的特征存储,支持现代模型如图神经网络和Transformer模型进行精确排序。团队特别实施了双向建模技术,从发送者和接收者双视角评估连接关系,获得更优结果。

关于大语言模型的应用,Lakshmikanth明确了成本性能权衡:由于计算开销较高,LLM主要应用于候选生成和后排序流程,在不过度影响延迟敏感型实时核心排序循环的前提下发挥价值。

实时架构的转型已带来可量化的成果:

成本优化:清理批处理依赖使离线计算和存储成本降低超90%,部分核心流程总计算成本降低达68%
会话级新鲜度:系统实现会话级数据更新,即时响应用户点击、搜索和资料浏览行为,显著提升用户参与度和连接率
平台灵活性:模块化设计简化了系统维护,支持更快速的模型实验,实现前沿模型快速部署和无缝回滚

这些架构原则现已应用于其他关键业务场景,包括LinkedIn职位推荐(更好解析职业意图)和视频推荐(内容新鲜度至关重要)。

您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区(YunPan.Plus) ( 苏ICP备2022046150号-2 )

GMT+8, 2025-12-1 12:48 , Processed in 0.067233 second(s), 36 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2025 CloudStack.

快速回复 返回顶部 返回列表