找回密码
立即注册
搜索
热搜: Java Python Linux Go
发回帖 发新帖

4109

积分

0

好友

571

主题
发表于 3 小时前 | 查看: 4| 回复: 0

AI相关的名词概念层出不穷,你是否也感到有些困惑,分不清它们之间的区别与联系?今天,我们就按照“基础概念 → 架构工具 → 流程框架 → 产品工具”这四个层次,来系统地梳理一下这些核心名词。其演进逻辑可以概括为:基础概念是底层能力 → 架构工具是核心技术 → 流程框架是编排方式 → 产品工具是落地载体

大模型技术核心概念图谱

一、基础核心概念(4 个)

基础概念构成了AI的底层能力,后续的所有技术演进都围绕这一部分展开。

1)大语言模型(LLM / 大模型)

  • 是什么:基于 Transformer 架构、在海量文本数据上预训练的超大规模语言理解与生成模型。
  • 出现背景:算力飞跃、Transformer诞生、互联网语料爆发,传统小模型无法理解复杂语义。
  • 解决问题:让机器从关键词匹配升级到理解语义、逻辑推理、生成内容
  • 作用:AI系统的“大脑”,负责理解、推理、生成、对话、总结。
  • 技术本质:通过海量语料学习语言规律、知识关联与概率分布,用自回归/掩码预测生成文本。
  • 应用场景:聊天对话、内容创作、代码编写、翻译、问答、摘要。

Transformer是2017年谷歌提出的一种神经网络架构,是当前所有大模型(LLM、多模态、文生图)的底层基础。

2)Prompt(提示词)

  • 是什么:用户向LLM输入的指令、问题、示例、约束等所有信息。
  • 出现背景:大模型能力强但意图不明确,需要精准指令引导输出。
  • 解决问题:消除歧义,让模型精准理解任务目标与输出要求
  • 作用:控制输出风格、格式、角度、长度、逻辑,提升结果质量。
  • 技术本质:通过自然语言构造任务范式 + 示例 + 约束,激活模型对应能力。
  • 应用场景:对话、生成、改写、代码、角色扮演、信息提取。

3)Context(上下文)

  • 是什么:当前对话/任务中,模型可读取的历史交互信息
  • 出现背景:人类交流是连贯多轮的,单轮输入无法保持逻辑。
  • 解决问题:让模型记住前文,实现连贯、有上下文的交互。
  • 作用:维持对话连贯性、多轮理解、长文本关联推理。
  • 技术本质:将历史对话拼接到当前输入,一起送入模型,利用注意力机制关联信息。
  • 应用场景:多轮聊天、长文档处理、连续调试、复杂对话。

4)Memory(记忆)

  • 是什么:模型长期持久化存储的用户/任务信息,不随对话结束丢失。
  • 出现背景:上下文是短期、有限、易丢失,无法满足长期个性化需求。
  • 解决问题:让AI拥有长期记忆,记住偏好、历史、专属知识。
  • 作用:个性化服务、持续迭代任务、长期状态管理。
  • 技术本质:将关键信息存入外部存储(数据库/文件),交互时主动读取注入上下文。
  • 应用场景:个人助手、专属客服、长期项目助手、个性化推荐。

总结

LLM是大脑,Prompt是交互入口,Context是短期记忆,Memory是长期记忆。

  • LLM是核心引擎;
  • Prompt用来指挥它;
  • Context保证当前对话连贯;
  • Memory实现长期个性化。

四者构成AI最底层的基础能力。

二、架构 / 工具核心概念(5 个)

架构工具是构建AI应用的核心技术。

1)Agent(智能体)

  • 是什么:具备自主思考、规划、执行、复盘能力的高级AI主体。
  • 出现背景:传统LLM只能被动问答,无法独立完成复杂闭环任务。
  • 解决问题:让AI从“工具”变成能自主干活的执行者
  • 作用:自主拆任务、做计划、调用工具、纠错、完成闭环。
  • 技术本质:LLM做决策中枢 + 工具调用 + 记忆 + 反思机制,循环执行。
  • 应用场景:自动办公、数据分析、运维、任务规划、自动化流程。

Agent理解:

Agent的英文意思是“代理人”。从广义概念理解,它是指一个能够代表用户执行特定任务的实体;其核心工作流在于接收指令、自主处理复杂过程,并最终向用户交付结果,而无需用户干预中间细节。

如果以程序员的视角,Agent本质上是一套具备自主决策能力的代码系统。它通过封装复杂的业务逻辑与算法,将大模型的推理能力与外部工具(如,在线搜索、代码执行、API调用)相结合,从而被赋予了类似人类的“技能”。这使得Agent不仅能被动响应,更能主动规划并解决一系列复杂问题。

一句话总结:Agent是用来减少与LLM进行沟通的次数的。

2)RAG(检索增强生成)

  • 是什么:先从外部库检索相关知识,再将结果喂给模型生成答案。
  • 出现背景:LLM存在知识过时、幻觉、不懂私有数据问题。
  • 解决问题:用真实、最新、可溯源的外部知识保证回答准确。
  • 作用:减少幻觉、提升准确性、接入私有/实时知识。
  • 技术本质:文本向量化 → 向量库检索 → 召回相关片段 → 拼入Prompt生成。
  • 应用场景:企业知识库、文档问答、法律/医疗/技术咨询。

3)Function calling(函数调用)

  • 是什么:LLM按规则生成结构化参数,主动调用外部工具/接口的能力。
  • 出现背景:大模型只能生成文本,无法联网、查库、操作系统。
  • 解决问题:打通AI与现实世界、业务系统、工具软件的连接。
  • 作用:查数据、发请求、执行命令、操作软件、获取实时信息。
  • 技术本质:模型输出标准化函数名 + 参数 → 系统解析执行 → 结果返回模型。
  • 应用场景:查天气、查订单、读数据库、发邮件、触发流程。

Function calling: 是Agent与LLM之间调用的约定规范,类似于协议。

4)MCP(模型上下文协议)

  • 是什么:统一模型/智能体/工具之间传递上下文信息的规范标准。
  • 出现背景:多模型、多智能体协同时,上下文格式不互通、无法共享。
  • 解决问题:实现跨组件、跨模型上下文标准化流转
  • 作用:降低集成成本、提升协同效率、信息互通。
  • 技术本质:定义统一数据结构(角色、内容、时间、类型),实现格式兼容。
  • 应用场景:多模型调度、多Agent系统、AI中台、复杂AI应用。

MCP就是Agent调用各个工具的一个协议。

5)Sub-agent(子智能体)

  • 是什么:由主Agent调度、负责单一专业任务的细分智能体。
  • 出现背景:单一Agent处理多领域任务,效率低、专业性差。
  • 解决问题:任务分工、专业拆解,主脑统筹 + 子体执行。
  • 作用:并行处理、专业化更强、复杂任务更稳定。
  • 技术本质:主Agent做任务拆分与分发,Sub-agent专注单任务执行与结果返回。
  • 应用场景:复杂项目协作、多领域并行任务、AI团队作业。

总结

以Agent为中枢,用RAG补知识,用Function calling连工具,用MCP通信息,用Sub-agent做分工。

  • Agent是总指挥;
  • RAG解决知识准确问题;
  • Function calling连接现实世界;
  • MCP让所有模块互通;
  • Sub-agent实现专业化分工。

五者构成AI系统的核心技术架构。

三、流程 / 框架类概念(3 个)

流程框架是AI能力的编排方式,旨在固化流程,确保每次执行结果基本一致。

1)Linchang(列式编程框架)

  • 是什么:以列/步骤为单元,可视化编排AI流程的低代码框架。
  • 出现背景:普通用户不会代码,却需要快速搭建Agent/Workflow。
  • 解决问题:低门槛、可视化搭建AI应用,降低开发难度。
  • 作用:快速搭建、可视化调试、流程可复用、无需复杂编码。
  • 技术本质:将AI能力封装为节点,按列/顺序拖拽编排,自动转执行逻辑。
  • 应用场景:AI自动化、智能体搭建、流程应用、低代码AI开发。

2)Workflow(工作流)

  • 是什么:将复杂任务拆分为固定步骤、顺序、条件、分支的执行流程。
  • 出现背景:复杂任务需要标准化、可复现、可监控的执行逻辑。
  • 解决问题:让AI按稳定流程执行,避免混乱、保证结果一致。
  • 作用:标准化、自动化、可复用、可监控、可回溯。
  • 技术本质:节点 + 连线 + 条件判断,按预设逻辑依次触发执行。
  • 应用场景:数据处理、报告生成、审核流程、自动化pipeline。

3)Skill(技能)

  • 是什么:封装好的、可独立完成单一专业任务的AI能力模块。
  • 出现背景:通用AI太泛,需要可插拔、可复用的专业能力。
  • 解决问题:能力模块化,方便组合、复用、升级、管理。
  • 作用:专业聚焦、即插即用、可独立迭代。
  • 技术本质:将Prompt、工具、流程、模型封装为独立可调用单元。
  • 应用场景:客服技能、代码技能、运营技能、数据分析技能。

总结

用Linchang低代码搭建,用Workflow编排步骤,用Skill提供专业能力。

  • Skill是最小能力单元;
  • Workflow是流程组织方式;
  • Linchang是可视化搭建框架。

三者是AI能力的编排与落地框架。

四、相关产品 / 工具类名词(4 个)

产品工具是上述技术概念的最终落地载体。

1)OpenClaw(CloudBot)

  • 是什么:云端部署、托管、运行的AI机器人/智能体平台。
  • 出现背景:企业/个人不想自建服务器,需要直接上线管理AI Bot。(不准确,不过可以理解为管理AI Bot)
  • 解决问题:快速创建、部署、运维、管理AI机器人。
  • 作用:云端运行、多机器人管理、开放接入、弹性扩缩容。
  • 技术本质:云端容器化部署 + Bot管理后台 + 开放接口 + 多实例调度。
  • 应用场景:企业客服、云端助手、多Bot协同、AI应用上线。

2)Cloudcode

  • 是什么:云端在线编写、运行、存储、协作的AI辅助编程工具。
  • 出现背景:本地环境配置繁琐,需要随时随地编码 + AI辅助。
  • 解决问题:零配置、跨设备、在线开发与运行代码。
  • 作用:在线编程、AI补全、云端运行、分享协作。
  • 技术本质:浏览器端IDE + 云端计算资源 + AI代码模型集成。
  • 应用场景:脚本编写、算法验证、教学演示、协作开发。

3)Codexmanage

  • 是什么:AI资产(代码、模型、技能、流程)统一管理平台。
  • 出现背景:AI代码、技能、资产零散,难以复用、版本管理。
  • 解决问题:AI资产中心化、可追溯、可复用、可共享。
  • 作用:资产管理、版本控制、权限管理、发布上架。
  • 技术本质:资产库存储 + 版本管理系统 + 权限引擎 + 发布通道。
  • 应用场景:企业AI资产库、团队协作、技能市场。

4)向量数据库(RAG核心支撑)

  • 是什么:专门存储与检索向量嵌入(Embedding) 的高性能数据库。
  • 出现背景:传统数据库无法高效做语义相似度检索
  • 解决问题:快速、精准找到语义最相近的文本/数据。
  • 作用:支撑RAG实现高效、高精度语义检索。
  • 技术本质:将文本转为向量 → 构建索引 → 高维向量近似最近邻搜索(ANN)。
  • 应用场景:RAG知识库、推荐系统、相似文本匹配、语义检索。

检索增强生成:给LLM装一个外置知识库,让它查资料再回答,不瞎编。

总结

从底层的LLM、Prompt,到核心的Agent、RAG,再到上层的Workflow、Skill,最后落地为具体的云Bot、代码工具和向量数据库,AI的技术栈正在迅速体系化。理解这些概念及其关联,有助于我们更好地把握技术趋势,并构建更强大、更可靠的AI应用。希望这份梳理能对你有所帮助。如果你想进一步探讨这些技术,或寻找相关资源,欢迎来 云栈社区 交流。




上一篇:RTK工具:为Claude Code压缩终端输出,节省80% token
下一篇:Linux内核modprobe_path覆盖技术原理分析与CTF例题ram_snoop解析
您需要登录后才可以回帖 登录 | 立即注册

手机版|小黑屋|网站地图|云栈社区 ( 苏ICP备2022046150号-2 )

GMT+8, 2026-3-11 03:31 , Processed in 0.419177 second(s), 39 queries , Gzip On.

Powered by Discuz! X3.5

© 2025-2026 云栈社区.

快速回复 返回顶部 返回列表