这两年,AI相关的概念越来越密集。很多人都有一种感觉:好像都听过、也大概懂一点,但真要连起来讲,却又说不清楚。
你可能经常看到这些词:Model、Prompt、System Prompt、Token、Context、Agent、Skill、Workflow、Tool、MCP、RAG、Memory、Function Calling、Fine-tuning、Eval、Guardrails、Prompt Injection、Vibe Coding。
问题在于,这些词有的属于模型层,有的属于产品层,有的属于工程层,有的其实是行业流行语。如果不把它们放回各自的位置,很容易越学越乱。很多人学AI学得吃力,不是因为概念太难,而是因为这些词来自不同层面。现在,我们把它们放回各自的位置,理解就会清晰很多。
一、先建立一张总地图
你可以把一个AI系统想成一个“数字员工体系”。
Model:大脑,负责理解和生成。
Prompt:任务要求,告诉它该做什么。
System Prompt:更上层的总规则。
Token:模型处理信息的计量单位。
Context:它当前能看到的资料。
Tool:它能调用的外部能力。
Function Calling:让模型按结构化方式调用工具。
Workflow:一套预设流程。
Agent:会围绕目标持续行动的执行体。
Skill:某类任务上的专项能力包。
MCP:把外部工具和资源标准化接给模型的连接协议。
RAG:先检索资料再回答。
Memory:长期保留偏好和历史。
Eval:评估结果到底好不好。
Guardrails:对风险和边界做约束。
如果类比成一家公司:
- Model是员工的大脑。
- Prompt是老板下的单次任务。
- System Prompt是公司制度。
- Token是沟通和处理信息的成本。
- Context是员工此刻拿到的材料。
- Tool是电脑、数据库、浏览器、表格。
- Function Calling是“按标准表单调用工具”。
- Workflow是SOP(标准作业程序)。
- Agent是能主动推进事情的人。
- Skill是这个人擅长的工种。
- MCP是标准化接口,让不同工具都能接进来。
- RAG是先查资料再作答。
- Memory是历史记忆和偏好。
- Eval是绩效考核。
- Guardrails是合规与风控规则。
先把这张总图放在脑子里,后面的概念就更容易串起来。
二、先看这10个核心概念
先看最常见、最核心的10个词。
1. Model
AI的大脑,负责理解和生成内容。
2. Prompt
你给AI的任务描述。
3. Token
AI处理信息的计量单位,也常常决定成本。
4. Context
AI当前这一轮能看到的资料。
AI调用外部世界的能力,比如搜索、读文件、执行代码。
6. Agent
不只是回答问题,而是会围绕目标持续行动的AI执行体。
7. Workflow
一套固定的步骤流程。
8. Skill
某类任务上的专项能力包。
9. RAG
回答前先查资料,而不是只靠模型“脑补”。
10. MCP
把外部工具和资源标准化接给模型的协议层。
这10个词,基本构成了绝大多数AI产品的主干框架。
三、基础层概念:AI到底靠什么运行
1. 什么是Model
Model中文通常叫模型,是AI最底层的核心能力。它本质上是一个经过训练的概率系统,会根据你输入的内容,预测下一段最合理的文字、代码、语音或图像结果。
你可以把它理解成AI的“基础智力引擎”。常见能力包括:
- 文本理解
- 文本生成
- 代码生成
- 图片理解
- 语音理解
- 推理与总结
但要注意,模型不等于产品。
例如:
- 产品:ChatGPT、Claude、Copilot。
- 模型:GPT系列、Claude系列、Gemini。
一句话理解:Model是底层大脑,不是完整产品。
2. 什么是Prompt
Prompt就是你给AI的任务描述。最简单的Prompt可能是:“帮我写一篇关于时间管理的文章。”
更完整的Prompt往往会包含:
例如:“你是一位面向职场人的内容编辑,请用通俗中文写一篇1200字文章,主题是时间管理,要有标题、小节和行动建议,不要空话。”
为什么Prompt很重要?因为模型再强,如果任务描述模糊,结果也会跑偏。
一句话理解:Prompt决定AI这一轮该往哪个方向发力。
3. 什么是System Prompt
System Prompt可以理解为系统级提示词,也就是比普通Prompt更上层的规则。
- 普通Prompt更像是“这次任务做什么”。
- System Prompt更像是“你长期应该按什么原则做事”。
如果放到实际工具里理解,会更直观。例如在很多AI编码工具中,这类上层规则不一定直接以“System Prompt”四个字出现,而是以规则文件的形式存在:
- 在
Codex里,对应物是AGENTS.md。
- 在
Claude Code里,对应物是CLAUDE.md。
这些文件本质上都在做同一件事:提前告诉AI这套环境里的长期规则是什么。它常常会规定:
- 角色身份
- 安全边界
- 输出风格
- 禁止事项
- 工具使用规则
比如:
- 必须优先说中文。
- 不能编造来源。
- 涉及最新信息要先查资料。
- 修改文件前必须先读取文件。
一句话理解:System Prompt是AI的长期工作守则。
4. 什么是Token
Token是理解AI成本、速度、容量时最关键的词之一。它不是一个完整汉字,也不一定等于一个单词,而是模型处理文本时切分出来的最小单位。
你可以粗略理解为:
- 读输入,要消耗Token。
- 生成输出,也要消耗Token。
- Token越多,通常成本越高、速度越慢。
所以很多AI产品都会讲input token、output token、token cost、context window。
一句话理解:Token是AI的信息计量单位,也是成本单位。
5. 什么是Context
Context是上下文,也就是AI当前这一次能看到的所有信息。它可能包括:
- 你的当前问题。
- 前几轮对话。
- 你上传的文件。
- 系统规则。
- 知识库检索结果。
- 当前任务状态。
很多人以为AI“记不住”,其实更常见的原因是:这些信息根本没在当前上下文里。
一句话理解:Context决定AI这一刻到底看到了什么。
6. 什么是Context Window
Context Window就是上下文窗口,也就是模型一次能处理多少Token。
如果材料太长,可能会发生这些问题:
- 前面的要求被截断。
- 重点信息被淹没。
- 模型忽略约束。
- 输出开始不稳定。
所以高质量使用AI,不是把资料一股脑全塞进去,而是要做上下文管理。
一句话理解:Context Window是模型一次能“吃下多少信息”。
四、执行层概念:AI怎么从会聊天变成会做事
Tool是工具。模型本身擅长理解和生成,但现实任务往往还需要:
- 搜索网页。
- 读取文件。
- 写入文件。
- 查询数据库。
- 调用API。
- 执行代码。
- 发消息。
- 生成图片。
这些都属于工具能力。没有Tool的AI,很多时候只是“会说”。有了Tool,它才开始具备“做事”的能力。
一句话理解:Tool让AI从回答问题升级到执行任务。
8. 什么是Function Calling
Function Calling可以理解为“函数调用”或“结构化工具调用”。意思是模型不是随便输出一段文字去“假装”调用工具,而是按约定好的结构,把要调用的函数名和参数明确交出来。
例如,它不是说:“我现在去查询天气。”而是输出类似这样的结构:
这样做的好处是:
- 工具调用更稳定。
- 更容易被程序接住。
- 更适合自动化流程。
- 减少“说了但没真做”的情况。
一句话理解:Function Calling是让模型按标准格式真正调用工具。
9. 什么是Agent
Agent是现在最热门也最容易被滥用的词之一。简单说,Agent不是只回答一轮问题的聊天机器人,而是一个会围绕目标持续行动的执行体。
它通常具备这些能力:
- 理解目标。
- 拆分步骤。
- 调用工具。
- 根据结果调整下一步。
- 直到完成才结束。
比如你给它一个任务:“帮我调研5个竞品并整理成对比表。”
- 普通聊天式AI可能只是告诉你怎么调研。
- Agent则可能真的去:
- 搜索资料。
- 提取关键信息。
- 生成表格。
- 找出差异点。
- 输出结论。
一句话理解:Agent的核心不是更会聊天,而是更会持续推进任务。
10. 什么是Workflow
Workflow就是工作流,也就是一套预设好的流程。例如内容生产Workflow可能是:
- 收集选题。
- 生成大纲。
- 扩写初稿。
- 风格润色。
- 平台适配。
- 审核发布。
- 数据复盘。
它和Agent的区别在于:
- Workflow更强调固定步骤。
- Agent更强调自主判断。
一句话理解:Workflow是流程设计,Agent是流程中的执行者。
11. 什么是Skill
Skill可以理解为技能包、专项能力模块。它不是模型本身,而是围绕某类任务封装出来的一套方法组合,通常包括:
- 提示词模板。
- 步骤规则。
- 工具用法。
- 输出格式。
- 质量标准。
比如:写作Skill、数据分析Skill、代码审查Skill、选题拆解Skill、销售跟进Skill。
一句话理解:Skill是AI在某一类任务上的可复用专业打法。
12. Agent和Skill有什么区别
这是最容易混淆的一组词。最简单的记法是:
Agent是谁来干。
Skill是怎么干得更专业。
类比到公司:
- Agent像员工。
- Skill像员工掌握的专项能力。
13. 什么是Multi-Agent
Multi-Agent是多智能体协作。也就是不只一个Agent干活,而是多个Agent分工合作。
例如:
- 一个负责调研。
- 一个负责写作。
- 一个负责审核。
- 一个负责发布。
- 一个负责复盘。
它像一个AI团队,而不是一个全能助手。
一句话理解:Multi-Agent是把一个任务拆给多个AI角色协同完成。
14. 什么是Agent Loop
Agent Loop指的是Agent的循环执行过程。典型循环通常是:
- 理解当前目标。
- 选择下一步动作。
- 调用工具。
- 读取结果。
- 判断是否继续。
为什么这个词重要?因为很多Agent系统的本质,就是一个“思考-行动-观察-再行动”的循环。
一句话理解:Agent Loop是Agent不断推进任务的工作节奏。
15. 什么是Planning
Planning就是规划,也就是在真正执行前,先拆解任务、安排顺序、识别依赖关系。在复杂AI系统里,Planning往往决定结果质量,因为很多问题不是“不会做”,而是“一开始就走错顺序”。
一句话理解:Planning是让AI先想好怎么做,再去做。
五、连接层概念:MCP到底是什么
16. 什么是MCP
MCP是Model Context Protocol的缩写,常被理解为“模型上下文协议”。你可以把它简单理解成:一套让模型标准化连接外部工具、资源和数据源的协议。
为什么MCP重要?因为以前每接一个工具,都像单独打一根线,接搜索是一个方法,接数据库是一个方法,接本地文件又是另一个方法,系统会越来越乱。
MCP想解决的问题是:
- 用更统一的方式接工具。
- 用更统一的方式暴露资源。
- 让模型更容易理解“我现在能用什么”。
- 降低工具集成成本。
一句话理解:MCP是AI与外部世界沟通的标准化插座。
17. MCP和普通API有什么区别
这是很多人会问的点。
- 普通API更像是:程序员直接调用程序员。
- MCP更像是:给模型准备的一层标准化工具接口。
普通API关注的是程序之间怎么通信。MCP更关注的是模型如何理解、发现、使用这些能力。
一句话理解:API是通用接口,MCP是更面向模型使用场景的标准接口层。
18. MCP Server是什么
MCP Server可以理解为“按MCP协议提供能力的服务端”。它可能向模型暴露这些内容:
- 工具。
- 资源。
- 模板。
- 文件系统能力。
- 数据库能力。
- 文档检索能力。
模型或AI客户端连上它之后,就知道有哪些能力可用。
一句话理解:MCP Server是把工具和资源打包后按标准方式提供出来的服务。
19. 什么是Resource
在MCP语境里,Resource往往指可以直接读取的资源。比如:
- 文件内容。
- 数据库schema。
- 某个文档。
- 某个配置。
这类东西更偏“给模型看”。
一句话理解:Resource是供模型读取的上下文材料。
Tool Schema可以理解为工具说明书。它通常定义:
- 工具叫什么。
- 能做什么。
- 需要哪些参数。
- 参数格式是什么。
- 返回结果长什么样。
有了Schema,模型才更容易正确调用工具,而不是乱猜参数。
一句话理解:Tool Schema是给模型看的工具使用手册。
六、知识层概念:AI怎么减少胡编乱造
21. 什么是RAG
RAG是Retrieval-Augmented Generation,通常翻译为检索增强生成。原理很简单:先查资料,再回答。
它通常会这样做:
- 根据问题检索知识库。
- 把相关资料放进上下文。
- 再让模型基于这些资料生成回答。
一句话理解:RAG不是让模型更聪明,而是让它先查再答。
22. 什么是Embedding
Embedding常翻成向量表示。它会把文本、图片等内容转成一组可计算的数字,用来做:
- 语义搜索。
- 相似内容匹配。
- 文档召回。
- 推荐排序。
一句话理解:Embedding是把内容变成机器可比较的“坐标”。
23. 什么是Hallucination
Hallucination就是幻觉。意思不是模型坏了,而是它输出了看起来很像真的、但其实不可靠甚至完全错误的内容。
常见表现包括:
- 编造出处。
- 虚构数据。
- 胡写API。
- 把猜测当事实。
一句话理解:Hallucination是AI一本正经地说错话。
24. 什么是Citation
Citation就是引用或出处标注。在AI应用里,Citation很重要,因为很多回答不能只看“像不像对”,还要看“依据是什么”。
一句话理解:Citation是给AI回答配上可追溯的证据来源。
七、记忆与个性化:AI为什么越来越像“长期搭档”
25. 什么是Memory
Memory是记忆机制。它的作用是让AI不只是处理眼前这一轮,而是能记住一些长期信息,比如:
- 用户偏好。
- 项目背景。
- 常用格式。
- 历史任务。
- 风格习惯。
一句话理解:Memory让AI更像长期协作对象,而不是一次性聊天机器人。
26. 什么是Memory Store
Memory Store可以理解为记忆的存储层。它负责保存、检索和更新这些长期信息。
一句话理解:Memory Store是AI记忆真正落地保存的地方。
八、训练与生成:AI为什么会变得更像你要的样子
27. 什么是Fine-tuning
Fine-tuning是微调。意思是在一个已有模型基础上,继续用特定数据训练,让它在某个领域或某种风格上表现更稳定。
一句话理解:Fine-tuning是把模型往某个方向长期调教。
28. 什么是Inference
Inference是推理阶段。简单说:
你每次问模型问题,它生成回答,就是一次Inference。
一句话理解:Inference是模型真正被使用的时刻。
29. 什么是Completion
Completion原本指“补全”。在很多AI产品语境里,它代表模型基于输入继续生成输出。比如:文本补全、代码补全、句子续写。
一句话理解:Completion是模型接着你的输入往下写。
30. 什么是Reasoning
Reasoning指推理能力。也就是模型不是只做表面改写,而是能进行:
一句话理解:Reasoning是模型“想一想再回答”的能力。
九、控制层概念:为什么同一个模型会表现差很多
31. 什么是Temperature
Temperature可以理解为输出随机性参数。一般来说:
- 温度低:更稳定、更保守、更像标准答案。
- 温度高:更发散、更有创造性、也更容易跑偏。
一句话理解:Temperature控制模型回答是更稳还是更飘。
32. 什么是Top-p
Top-p也是一种控制输出随机性的参数。它不是直接控制“热度”,而是控制模型从多大范围的候选结果里挑选输出。
一句话理解:Top-p是另一种调节模型发散程度的旋钮。
33. 什么是Determinism
Determinism可以理解为确定性。也就是同样输入、同样配置下,输出是否尽量一致。在工程里,很多团队都很重视这一点,因为结果越稳定,越容易测试和复现。
一句话理解:Determinism是模型结果能不能尽量复现。
十、工程层概念:AI产品真正落地时要面对什么
34. 什么是Harness
Harness可以理解为运行与验证框架。它常常把这些东西串起来:
- 模型调用。
- Prompt模板。
- 工具接入。
- 样例任务。
- 自动测试。
- 结果评估。
- 日志记录。
一句话理解:Harness是让AI系统可跑、可测、可比较的工程支架。
35. 什么是Harness Coding
Harness Coding更像一种工程方法。它强调不是只把功能写出来,而是要先搭好:
- 输入输出规范。
- 工具接口。
- 自动回放。
- 效果对比。
- 评测闭环。
一句话理解:Harness Coding是让AI开发从“试试看”升级到“可验证地迭代”。
36. 什么是Eval
Eval就是评估。AI产品不能只看“能不能跑”,还要看:
- 准确率。
- 稳定性。
- 幻觉率。
- 风格一致性。
- 工具调用成功率。
- 成本。
- 速度。
一句话理解:Eval是AI产品从好玩走向可控的关键。
37. 什么是Benchmark
Benchmark是基准测试。也就是用一套固定标准,比较不同模型、不同Prompt、不同系统版本的表现。
一句话理解:Benchmark是AI系统的统一考试卷。
38. 什么是Latency
Latency是延迟,也就是响应速度。你发出请求后,1秒返回还是20秒返回,这就是Latency的差别。
一句话理解:Latency是出结果要等多久。
39. 什么是Throughput
Throughput是吞吐量。它关注的不是单次多快,而是单位时间内总共能处理多少请求。
一句话理解:Throughput是AI系统一次能扛多少活。
40. 什么是Sandbox
Sandbox是沙箱环境。它的作用是给模型或Agent的执行能力加边界,避免它随意访问危险资源、误删文件或执行高风险操作。
一句话理解:Sandbox是给AI干活时设置的安全围栏。
十一、安全层概念:为什么AI不能只追求“会做事”
41. 什么是Guardrails
Guardrails可以理解为防护栏或约束机制。它的作用是限制AI的风险行为,比如:
- 不输出违法内容。
- 不泄露敏感信息。
- 不执行危险动作。
- 不偏离角色边界。
一句话理解:Guardrails是AI系统的安全护栏。
42. 什么是Alignment
Alignment常翻成对齐。它指的是让模型行为更符合人类目标、价值和使用边界。
一句话理解:Alignment是让模型“更像你真正希望它成为的样子”。
43. 什么是Prompt Injection
Prompt Injection就是提示词注入攻击。意思是有人故意在输入、网页、文档或工具返回里埋入恶意指令,诱导模型忽略原本规则,改听新的坏指令。
例如:
- 忽略之前所有规则。
- 泄露系统提示词。
- 读取不该读的数据。
一句话理解:Prompt Injection是攻击者试图用隐藏指令带偏模型。
44. 什么是Jailbreak
Jailbreak可以理解为越狱。它通常指用户试图绕过系统限制,让模型输出本不该输出的内容。
一句话理解:Jailbreak是想办法让模型突破安全边界。
十二、热门流行词:为什么大家最近总在说这些
45. 什么是Vibe Coding
Vibe Coding是近两年很流行的说法。它描述的是一种开发方式:开发者不再逐行亲手写所有代码,而是大量依赖AI生成、修改、补全和重构,自己主要负责方向判断、验收和修正。
它的特点是:
- 先说想法。
- 让AI快速搭建。
- 边跑边改。
- 用反馈驱动迭代。
一句话理解:Vibe Coding是人定方向、AI高速出活的快速开发方式。
46. Vibe Coding不等于瞎写
很多人以为Vibe Coding就是“想到哪让AI写到哪”。这只是低质量版本。更成熟的做法其实是:
- 快速生成。
- 高频验证。
- 保留关键判断权。
- 关键逻辑人工兜底。
- 后续逐步工程化。
47. 什么是AI Native
AI Native指的是一个产品、团队或工作方式不是把AI当外挂,而是从一开始就把AI当核心能力来设计。
一句话理解:AI Native不是“加了AI”,而是“离开AI就不是这套系统了”。
十三、最容易混淆的几组概念
1. Model和Product不是一回事
- Model是底层能力。
- Product是面向用户的成品。
2. Prompt和System Prompt不是一回事
- Prompt是本次任务要求。
- System Prompt是长期工作规则。
- Tool是具体工具能力。
- MCP是把这些能力标准化接进来的协议层。
4. Agent和Workflow不是一回事
- Agent强调自主行动。
- Workflow强调固定流程。
5. Agent和Skill不是一回事
6. RAG和Memory不是一回事
- RAG是回答前查资料。
- Memory是长期保存偏好和历史。
7. Guardrails和Alignment不是一回事
- Guardrails更像外层规则限制。
- Alignment更像模型整体行为方向的长期对齐。
十四、把这些概念串成一条完整链路
最实用的理解方式,是把这些词串成一句话:
用户给出Prompt,系统在System Prompt约束下,把相关Context、Memory和RAG检索结果送进Model;模型按Token容量处理信息,在需要时通过Function Calling调用Tool,这些工具和资源可以通过MCP标准化接入;Agent按Planning和Workflow持续推进任务,整个过程运行在Harness里,用Eval、Benchmark和Guardrails保证质量与安全,同时防范Prompt Injection等风险。
这条链路一旦串起来,很多原本看起来分散的概念,其实只是同一个系统的不同部件。
十五、最后做一个最短总结
如果你只记住下面这些,就已经足够建立一套完整的AI认知框架:
Model是大脑。
Prompt是本次任务要求。
System Prompt是长期规则。
Token是信息和成本单位。
Context是当前可见资料。
Tool是外部能力。
Function Calling是结构化调用工具。
Workflow是流程。
Agent是执行者。
Skill是专项技能。
MCP是标准化连接协议。
RAG是先检索再生成。
Memory是长期记忆。
Eval是效果评估。
Guardrails是安全护栏。
Vibe Coding是AI参与下的快速开发方式。
再压缩成一句话就是:AI不只是一个会聊天的模型,而是一套由模型、指令、上下文、工具、连接协议、流程、技能、检索、记忆、评测和安全机制共同组成的执行系统。
希望这份梳理能帮你把零散的概念连接成网,建立属于自己的AI认知框架。如果你想获取更多结构化的AI工程技术文档和实战案例,欢迎来云栈社区交流探讨。