过去的2025年,是检索增强生成(RAG)技术经历深刻反思、激烈辩论与实质性演进的关键一年。
尽管围绕其“过渡性”与“被替代性”的讨论从未停歇,但纵观全年发展,RAG非但没有黯然退场,反而在企业级AI落地的深水区中,愈发彰显出其作为关键数据基础设施的不可替代价值。
回顾全年,RAG的发展态势呈现复杂图景:一方面,其实际应用效果面临诸多调优挑战;另一方面,其舆论关注度似乎也被年度焦点——AI Agents所分流。然而,一个值得关注的现象是,真正致力于构建AI核心能力的企业,尤其是中大型组织,对RAG的投入反而更为深入和系统化。RAG在企业AI架构中的核心地位不仅没有动摇,反而愈加稳固。
因此,我们需要超越表面争议,深入审视RAG技术本身的生命力:它究竟是过渡方案,还是具备持续演进潜力的下一代AI应用基石?要回答这个问题,必须系统盘点其技术改进、架构演进及其在Agent时代扮演的新角色。
RAG还能改进么?长上下文之争的实质
进入2025年,企业对RAG“既离不开,又不满意”的心态已成共识。RAG降低了接入私有知识的门槛,但其效果的稳定性和准确性(尤其面对复杂查询时)往往需要大量精细调优,使得总拥有成本评估变得复杂。
2024年热议的“长上下文能否取代RAG”命题,在2025年进入了实践检验阶段。部分对延迟和成本相对不敏感、且查询模式固定的场景,开始尝试直接利用长上下文窗口,将大量文档一次性输入模型,以期绕过RAG检索可能带来的信息丢失问题。
然而,研究早已给出清晰图景:在LLM上下文窗口中机械填充过长文本,是一种“暴力堆料”策略,必然导致模型注意力分散,引发“中间迷失”效应,且伴随着高昂的非线性增长计算成本。
对企业而言,有价值的思考并非纠结于口号式辩论,而是回归本质:如何将最相关、最有效的信息,以最高性价比的方式纳入模型的上下文处理体系。这一命题,恰恰是RAG技术设计的初衷。长上下文能力的提升,非但没有宣告RAG的终结,反而促使我们思考两者如何协同。例如,在RAG系统中利用长上下文窗口容纳更完整的检索结果块,或用于多步检索的中间结果汇总。这种“检索前置,长上下文容纳”的协同模式,正是“上下文工程”这一新兴领域兴起的重要源头。
当前,向LLM提供外部知识的输入范式主要有四种:
- 单纯依赖LLM的长上下文能力。
- 借助于KV Cache。
- 利用Grep等简易搜索手段。
- 采用完整的RAG架构。
从成本角度看,方案1与方案4之间存在2个数量级的差距。方案2即将所有文档数据预处理为张量存入KV Cache系统,其成本相比RAG仍高出至少一个数量级。即便升级为数据库与推理一体化引擎,在技术层面仍存在多重根本性限制:
- 大数据量与检索性能的矛盾:若预处理后的张量数据总量远超GPU显存,系统必须引入二级存储和检索机制,导致推理变为“边生成边搜索”,对I/O延迟要求苛刻,极大牺牲架构灵活性。
- 场景局限性:主要适用于相对静态的事实性知识问答,难以灵活结合复杂多变的业务规则和实时知识。
- 技术融合趋势:该方法未来若走向实用,也极可能被RAG技术体系所吸纳,成为其架构中的一个优化组件。
方案3(无索引RAG)因Claude Code为其代码助手引入而受到关注。那么,简单的字符串匹配能否取代复杂的RAG架构?对于组织良好、格式纯粹的代码库或高度结构化文本,基于规则的Grep或许能以极低成本获得不错效果。但对于绝大多数企业环境中的多模态、非结构化数据,此方法则完全失效。
事实上,即使是代码搜索,领先产品也未采用简单Grep,而是专门微调了适用于代码语义的Embedding模型。原因在于,为代码助手提供有效上下文,不仅需要精确的字符串匹配,更需要语义近似的代码片段、相关API文档及依赖关系。至于企业级应用所必需的多样化自然语言查询、高并发、低延迟响应及结合业务元数据的过滤排序等需求,更非Grep所能覆盖。
因此,RAG及其前身——企业搜索引擎,始终是面向复杂企业级需求的综合性技术与架构解决方案,其价值在于提供系统化、可扩展、可治理的知识接入与管理能力。
RAG对话效果的优化路径:解耦搜索与检索
回归技术本质,RAG回答不准确、不稳定的常见根源,在于传统“分块-嵌入-检索”流水线中存在一个结构性矛盾:使用单一粒度、固定大小的文本块同时承担两项存在内在冲突的任务:
- 语义匹配(召回):为了在语义空间中进行高精度召回,需要文本块较小,使其语义焦点明确。
- 上下文理解(利用):为了向LLM提供足够完整、连贯的上下文以生成优质回答,需要文本块较大,以保证逻辑完整性和背景信息充足。
这导致系统设计者不得不在“精准但碎片化”与“完整但模糊”之间艰难权衡。因此,一个根本性的改进思路是将RAG流程从“一步走”解耦为两个逻辑阶段,并允许它们采用不同的文本粒度:
- 搜索:核心目标是快速、精准地从海量数据中找出所有可能相关的“线索点”。此阶段应使用较小的、语义纯净的文本单元,以实现高召回率与高精度。
- 检索:核心目标是为LLM组装出用于生成答案的“阅读材料”。此阶段应基于搜索阶段得到的线索,动态地聚合、拼接或扩展出更大、更完整、更连贯的上下文片段。
RAGFlow提出的TreeRAG技术,正是这一思想的实践。它借助LLM在离线阶段自动化分析文档,构建层次化的树状目录摘要结构,从而桥接“小粒度搜索”与“大粒度阅读”之间的鸿沟。其核心工作流体现了“先精准定位,再展开阅读”的智慧:
- 离线处理(知识结构化):文档切分后,送入LLM分析,生成对应的多级树状目录摘要,并为节点衍生出摘要、关键词、实体等丰富的语义增强信息。研究表明,在离线处理阶段,对原始切片的精细度要求可适当放宽,简单且重叠的切片策略往往更有效。
- 在线检索(动态Context组装):用户查询到来时,首先使用最细粒度的“小片段”进行相似度搜索,实现快速精准的初步召回。然后,利用离线构建的“树状目录”导航图,根据召回的切片节点,迅速定位其所在的父节点、兄弟节点等,将这些语义相关的片段自动组合成一个逻辑完整的“大片段”提供给LLM。这种方法有效解决了因固定粒度切片导致的上下文碎片化问题。
类似的工作还有PageIndex,它更侧重于解析和利用文档本身固有的物理或逻辑目录结构。这种方法在文档结构清晰时非常高效,但其局限性在于高度依赖源文档质量。
TreeRAG及其同类技术有效缓解了因切片不当导致的痛点。然而,对于某些更为复杂的查询,例如答案分散在数十个互不相邻的切片中、或需要综合多个独立文档信息进行推理的情况,仅靠树状结构可能仍无法全面覆盖。此时,业界很自然地将目光投向另一条技术路径:GraphRAG。它通过从文档中抽取实体及关系构建知识图谱,利用图查询与推理来发现间接关联的信息片段。
然而,GraphRAG自诞生以来,同样让许多尝试者处于“爱恨交加”的境地,主要挑战源于:
- Token消耗巨大:实体抽取、去重、社区摘要等步骤会导致数倍乃至数十倍于原文的Token消耗。
- 实体抽取质量落差:自动抽取的实体和关系常包含大量噪声、冗余或错误,若以可视化知识图谱的标准去审视,常陷入“图表美观但实用性不强”的尴尬。
- 知识碎片化:基于图算法发现的关联社区摘要仍是离散的“知识片段”集合,基于此生成最终答案对LLM的整合能力要求极高,容易缺乏逻辑主线。
由此可见,结合TreeRAG与GraphRAG的优势,有望进一步缓解痛点:TreeRAG擅长解决因物理切片导致的局部语义断裂问题;GraphRAG则能基于实体关系网络,发现语义相关但物理距离较远、甚至跨文档的内容片段。
因此,无论是TreeRAG、GraphRAG,还是两者融合的混合架构,其共同核心范式都是在传统RAG流水线基础上,引入了额外的语义增强与结构构建层:在数据写入阶段,利用LLM进行深度语义理解与结构提取;在检索阶段,结合基于预定义结构的导航、关联查询和动态组装能力。
RAG技术的改进方向正日益清晰:借助LLM本身的能力,在数据生命周期的早期阶段就尽力弥合原始数据与最终问答之间的语义鸿沟。通过在写入阶段使用多轮次、多角度的提示词分析文本,提取丰富、多层次的语义信息作为“导航图”,在检索阶段智能地完成上下文的筛选、聚合与填充。这才是解决复杂、开放域问答挑战的更可靠之道。现代RAG系统的设计哲学是:充分协同“强大检索与推理能力”与“有限但宝贵的LLM上下文窗口”,通过智能的预处理与动态组装,在效果、性能与成本之间寻求最优平衡。
从知识库到数据底座:Ingestion Pipeline的工业化
我们常强调RAG是一种架构范式,但不可否认,知识库是其最直观和成功的应用形态。随着AI Agent开发的兴起,一个显著趋势是:Agent的复杂任务执行越来越离不开对海量、多样化企业数据的实时访问与理解。因此,企业级RAG产品开始超越“问答知识库”的单一定位,向更底层、更通用的Agent数据基座演进。
为此,一个健壮、可扩展和可配置的数据注入管道已成为现代RAG引擎不可或缺的核心功能模块。它承担着“接管”企业内部纷繁复杂的非结构化数据,并将其“消化”成RAG引擎可索引、可检索的标准格式的全过程。
如果说ETL/ELT是现代数据栈中处理结构化数据的工业化标准管线,那么,面向非结构化数据的Ingestion pipeline就是其在AI时代对等的关键基础设施。两者在架构定位与处理哲学上高度相似,但在具体技术手段上因数据特质不同而有所区分。
具体来看各个环节的异同:
- Extract与Parsing:传统ETL的“Extract”主要从结构化源中抽取数据。而Ingestion pipeline强化了“Parsing”环节,需要综合利用各种解析器,将多模态、多格式的原始文档转化为纯净、结构化的文本表示,并尽可能保留原始逻辑结构和元信息。
- Transform:这是两者差异最大的环节。传统ETL的“Transform”侧重于基于SQL进行数据清洗、业务逻辑计算等。而Ingestion pipeline的“Transform”阶段,则是以LLM为核心的一系列语义理解与增强算子,负责把Parser输出的原始文本流,转变成检索阶段所需的各种高级“素材”,如树状结构生成、知识图谱抽取、摘要生成等。这个阶段是注入“智能”的关键。
- Load与Indexing:传统ETL将处理后的数据加载到目标数据仓库。而RAG引擎则通过“Indexing”模块,将Transform阶段产出的丰富内容构建成适合多种检索方式的高效索引,以支持高并发、低延迟的检索服务。
无论是ETL还是PTI,中间的“转换”步骤都是价值创造的核心环节。对于PTI,由于必须与最终的检索需求端到端协同设计,因此需要根据上层应用对精度、速度、成本的不同要求,来决定Transform阶段应采用何种策略。
因此,构建优秀RAG系统的关键点,在于对整个“数据注入 -> 语义增强 -> 索引构建 -> 检索服务”链路的协同设计与持续调优。当RAG系统具备了强大、灵活且智能的Ingestion pipeline,它就真正从一个“问答系统”升级为企业级非结构化数据的统一处理与访问平台,为企业所有的AI应用提供唯一可信、实时更新的知识来源。这也是为何今天,当企业构建统一的AI能力中台时,其核心与基石必然是以RAG引擎为核心的、具备强大数据处理能力的数据底座。
从RAG到Context:检索作为上下文引擎的核心
2025年LLM应用侧最火热的是各式各样的AI Agent。从Agent框架视角看,它可以视RAG为一个提供外部知识访问能力的工具。这种工具化视角,加之“Agentic RAG”概念的兴起,使得“RAG将被更通用的Agent取代”的论调盛行。
然而,这种观点可能过于简化,甚至误解了RAG在Agent生态中的根本价值。它忽视了RAG架构的本质——其核心能力与价值基石在于检索。正是“高效、准确、可扩展地从海量私有数据中检索相关信息”这一核心能力,使得RAG有潜力成为Agent最不可或缺、最基础的数据底座。
因为无论多么智能的Agent,其决策与行动的质量,根本上都取决于它所获得的上下文的质量与相关性。如何为不同的任务、在不同的时刻,动态地、智能地组装出最有效的上下文,成为了2025年下半年最热门的实践原则,这就是上下文工程。
让我们深入剖析Context Engineering所涉及的主要数据类型和技术,来理解为何“检索”处于其绝对核心:
Context Engineering成为一个独立工程领域,正是因为实践反复证明:简单粗暴地将所有可能相关的数据都塞进LLM上下文窗口,不仅成本无法承受,更会因信息过载而严重损害LLM能力。因此,智能地筛选、排序、拼接上下文成为必须。
一个典型的Agent上下文通常需要精心组装三类数据:
- 领域知识数据:对于作为核心工具的知识库(即RAG系统)来说,检索结果的质量直接决定答案成败。RAG本身就可以被视作最早的、针对领域知识的上下文工程实践。
- 工具数据:对于通过Model Context Protocol等标准封装的大量工具,其描述信息也是上下文的一部分。在企业级场景下,可用工具可能达到数百上千个,每次对话都由人工指定调用哪几个工具是不现实的。这个“工具选择”难题直到2025年底才被部分用户深刻感知。实际上,问题症结在于将所有工具描述不加区分地堆进上下文,导致LLM“选择困难症”爆发。那么,这个决策责任应该由谁承担?这正是当前多数Agent框架缺失的关键一环。答案依然是检索。我们需要通过对所有工具描述信息进行语义搜索,并结合对过往工具使用历史中形成的“技巧”、“操作手册”进行检索,才能动态地、精准地为当前任务筛选出最相关的工具子集。
- 会话和状态数据:除了静态知识和工具,上下文还需要包含动态数据,如会话历史、用户个性化信息、Agent内部状态。这类数据的管理常被称为“记忆”,但其核心能力——对历史交互信息的存储、索引与检索——与RAG并无本质区别,可以看作是针对特定数据源和特定使用模式的检索系统特化版。
通过对上下文组成的解构,我们可以清晰地看到,Context Engineering的核心任务,仍然是基于Agent所需三大类数据源的检索:
- 针对企业私有化、非结构化的领域文档数据的检索——即RAG。
- 针对Agent交互过程中产生的会话历史与状态数据的检索——即记忆。
- 针对企业服务与API封装而成的工具描述及使用指南数据的检索——可称之为工具检索。
由此可见,RAG技术在AI Agent时代将升级,它不再仅仅是“检索增强生成”中的一个环节,而是以“检索”为核心能力,扩展其数据范畴,演进为支撑所有上下文组装需求的上下文引擎,真正成为服务于LLM应用的、统一的上下文层与数据底座。
Agent所需的检索 vs 传统搜索
理解这种演进,需要对比传统搜索时代与Agent时代检索范式的根本差异:
- 传统搜索时代:检索的发起者、执行者和结果消费者都是人。用户提出问题,搜索引擎返回文档链接,用户需要自己阅读、综合信息。这是一个“人机协同、人工主导”的循环。
- Agent时代:检索的发起者和初级消费者是Agent。其典型工作流是:LLM首先对用户复杂问题进行理解与拆解,然后自动发起检索请求,接着对检索返回的结果进行理解、核验与提炼,最后将加工后的信息拼接成最终生成答案的上下文。整个闭环由Agent自动完成。
因此,Agent所需的检索系统面临着前所未有的新要求:请求频率极高、查询类型多样化、延迟要求苛刻、需要与Agent的推理流程紧密耦合。这远非一个独立的搜索引擎或向量数据库所能满足。它需要在存储与索引层之上,构建一个智能的中间服务层,该层理解Agent意图,能根据上下文组装策略,动态协调对不同数据源的检索请求,并对结果进行融合、排序与格式化。这种使用模式,意味着Agent开发中最为繁琐的“上下文工程”部分,有望从高度手工的状态走向声明式配置甚至自动化。
工具也是需要搜索的
工具的多样性直接决定了Agent能够解决问题的广度和深度。在简单演示中,常见做法是将所有可用工具的描述一次性全部嵌入Agent提示词。然而,当工具数量增长到几十、几百个时,这种做法的弊端将暴露无遗:占用大量宝贵上下文Token,并给LLM的工具选择逻辑带来巨大负担。
特别是在企业级场景中,工具数量可能达到惊人规模。MCP等协议致力于解决“如何调用”的协议问题,而不是“应该调用哪个”的决策问题。因此,工具检索在2025年底开始受到前沿关注。其核心思想是:为所有工具建立一个专门的描述信息索引库。当Agent需要调用工具时,先根据当前上下文生成一个“查询”,去索引库中进行快速检索,只召回最相关的少数几个工具描述,动态插入当前上下文供LLM选择调用。研究表明,即使是简单的BM25关键词检索算法,在这个任务上也能作为很强的基线方法。
除了工具描述,在Agent开发、测试和使用过程中,还会沉淀出关于“如何正确使用工具”的元知识,如“操作手册”或“攻略”。这类文本是比工具描述更丰富、更具指导性的上下文素材,同样应该被纳入可检索的体系。早期的探索如Dspy框架中的GEPA优化器,更系统的工作如ACE框架,开始体系化研究如何生成、管理和利用这类指导性上下文。这代表了Context Engineering向深度发展的重要方向,而这类工作产生的结果,必然需要被纳入到检索需要涵盖的体系之中。
Memory值得成为单独的Infra么?
“记忆”在2025年的技术讨论中获得了高度关注,常被列为Agent基础设施层的核心组件。那么,记忆究竟是什么?层出不穷的开源记忆项目与RAG系统在底层上有何区别与联系?
简而言之,记忆系统最初是为了满足对Agent历史交互信息进行有效管理和再利用的需求。其基本使用模式与RAG如出一辙:根据当前查询,从存储的历史会话记录中检索出相关的过往对话片段,将其作为上下文的一部分提交给LLM。因此,从功能接口和核心技术(检索)上看,记忆与RAG共享同一内核。
它们的核心区别在于数据来源与管理目标:
- RAG:处理的数据主要是预先存在的、相对静态的企业私有知识资产。其目标是提供领域事实和背景知识。
- 记忆:处理的数据主要是Agent在运行过程中动态产生的交互日志与派生数据。其目标是维持会话连续性、实现个性化、以及从历史经验中学习。
随着研究深入,记忆系统内部数据组织也出现更精细划分,如工作记忆、情景记忆、语义记忆等。记忆系统的复杂性不仅在于存储和检索,更在于记忆的管理逻辑:新对话何时、以何种方式被写入记忆?何时触发LLM进行摘要?这些“记忆的流转、加工与生命周期管理”功能,其地位完全等价于RAG系统中的Ingestion pipeline,只不过它处理的是动态产生的流式数据。
如果我们把视野放大,在记忆系统中专门划分区域来存储和检索工具使用指南,那么,一个支撑AI Agent的完整数据基座的蓝图就清晰浮现了。这个蓝图表明:记忆与RAG在技术上同源,在功能上互补,共同构成了AI Agents赖以生存的完整数据基座。所有Agent对数据的访问需求,都可以被统一规划、治理和接入到一个一体化的平台中。这个平台,正是像RAGFlow这样的系统正在演进的方向:上下文引擎或上下文平台。
从上下文工程到上下文平台
“Context Platform”这一前瞻性提法,可能最早由投资机构Theory Ventures系统阐述。时至今日,如何将技术视角的Retrieval Engine升级为Context Engine,正在成为决定AI Agent能否在企业中规模化落地的关键。
从前文分析可见,许多所谓“Agent智能”要解决的问题,本质仍然是在正确的时间,为LLM找到并呈现正确的信息。如果Agent能拥有一个强大的“外脑”(Context Engine),帮助它高效地查找、筛选、验证和梳理所有相关数据,那么最终体验将远超仅依靠庞大参数的“裸”模型。
从Context Engineering到Context Engine / Platform,这标志着上下文的创建、管理与交付,正从一项高度依赖专家经验的手工艺术,向高度自动化、产品化和可运维的平台科学演进。
当前企业在开发定制Agent时,往往需要投入大量工程师手工编写复杂提示词模板,精心设计上下文拼接逻辑。这种方式难以维护、无法规模化。未来的上下文平台将致力于改变这一现状:
- 上下文的创建:通过与数据源的深度集成自动完成,并持续同步更新。
- 上下文的交付:根据每次对话的实时意图,通过平台统一的检索与编排层,动态地从各类数据源中检索、组装而成。
- 上下文的维护:从供应商主导的手动服务,转变为客户可自主管理、可视化配置的自动化流程。
这带来的范式转变是巨大的:企业AI落地的核心价值,正从追求“最智能的模型”回归到构建“最丰富、最准确、最易用的上下文”。上下文的质量、实时性、动态组装能力和产品化水平,将直接决定下一代企业AI应用的竞争力。上下文的产品化,将是解锁AI大规模应用的最后一道关键枷锁,标志着企业AI正式迈入“平台化、可扩展、可持续运营”的工业化时代。
多模态RAG进展:从理论优势到工程化挑战
在2024年年终回顾中,我们曾预测以“延迟交互”为基座的多模态RAG将成为2025年的技术关键词。然而,这一预测并未完全成为现实。这是否意味着多模态RAG缺乏实际意义?
答案显然是否定的。以专门针对医疗文献设计的基准数据集M3Retrieve的测试结果为例,多模态RAG的价值与定位已得到清晰印证:
- 在图文结合任务中表现卓越,能够综合利用文本与视觉信息,显著优于纯文本方案。
- 在文本主导任务中优势不显,成熟的单模态RAG凭借高效与精准,依然占据优势。
由此可见,产品级的多模态RAG并非简单拼接图像与文本模型,其核心需求在于实现真正高效的跨模态检索与理解。从技术演进脉络看,多模态RAG无疑是RAG体系覆盖更广泛数据类型的必然方向。
当前,处理图文等多模态文档主要存在两种技术路径:
- 模态转换路径:借助OCR或视觉语言模型,将图像、表格等内容转化为纯文本描述,从而将多模态问题降维为单模态文本检索问题。这种方法兼容现有文本RAG架构,但可能丢失原始视觉布局等关键信息。
- 原生多模态路径:将图像直接进行视觉分词,与文本Token一同输入统一的多模态编码器,生成融合的多向量表示。在检索排序阶段,则借助延迟交互模型进行精细化的相似度计算。
Google DeepMind在2025年9月发表的理论指导文章明确指出,基于单一的全局向量进行检索存在固有的语义损失,而使用多向量表示能够更完整地保留文档的细粒度语义信息。
既然理论优势明确,为何在2025年仍未涌现出成熟的、产品化的多模态RAG解决方案?根本原因在于从技术原型到稳定产品的工程化挑战尚未被完全攻克。
工程化跨模态检索的首要挑战是确定召回单元与检索策略。以文档“页”为召回单元是常见做法,具体实施方案包括:
- 混合索引方案:为文本内容同时建立全文索引和张量索引,为图片建立独立的张量索引。检索时,对三种索引进行混合搜索与结果融合。
- 文本为主、张量重排方案:仅利用PDF解析出的文本建立全文和单向量索引进行初步召回,然后利用将整页作为图像生成的张量表示,对初筛结果进行精细化重排。
- 纯张量检索方案:完全依赖张量索引。
尽管上述方案在技术上均可行,但它们共同面临一个棘手的工程化瓶颈:因Token数量爆炸导致的张量数据存储与计算开销激增。假设使用类似ColPali的模型,每页图像输出1024个Token,每个向量维度128,采用float32精度存储,那么仅一页图像对应的张量数据就需占用约512KB空间。对于一个百万页级别的文档库,其索引体积将膨胀至TB级别,对存储成本、内存加载和检索延迟都是巨大挑战。
要推动多模态RAG走向工程实用化,目前主要有两条技术路径:
- 张量量化压缩:对张量中的向量进行二值化或低比特量化,可将存储压缩至原来的1/32甚至更低,代价是引入精度损失。
- Token剪枝:显著减少每页图像生成的Token数量。具体方法包括:随机投影、Token聚类、模型端Token剪枝。
因此,多模态RAG的成熟不仅要求底层检索引擎具备对张量索引和张量重排器的原生高效支持,更有赖于整个AI社区涌现出更多对量化友好、支持自适应Token剪枝的下一代多模态Embedding模型。这两者的发展相辅相成。展望2026年,随着AI基础设施层对张量计算与存储的支持日益完善,我们有望看到更多为工程化量身定制的优秀多模态模型问世,从而真正解锁跨模态RAG的实用潜力。而它的工程化落地,将自然而然地催生多模态上下文的普遍需求。
展望2026:上下文引擎成为AI基础设施核心
迈入2026年,企业对LLM应用的关注点,必将从概念验证转向规模化落地与投资回报的务实阶段。在这一进程中,作为整个AI应用数据基座层的RAG技术,将迎来更为坚实、体系化的建设浪潮。
一个明显的趋势是:许多企业已率先启动以“AI中台”或“智能数据底座”为核心的能力建设,而其枢纽正是以RAG引擎为基座的非结构化数据处理与供给平台。相比之下,上层Agent的具体构建与引入,反而可以基于这一稳固底座,以更灵活、循序渐进的节奏展开。
若要用一句话概括从2025到2026年RAG技术的演进轨迹与未来展望,那便是:RAG将完成其自身的深刻蜕变,从“检索增强生成”的特定模式,升维为以“智能检索”为核心能力的“上下文引擎”。这一演进趋势已不可逆转,并必将从技术后台走向战略前台,成为企业构建下一代智能化基础设施时不可或缺的核心组件。