你的代码里是不是还在手写几十个API适配器,每个Agent调用时都要塞几万Token的上下文,每次云服务API一升级就通宵改适配器?
上面这个场景,是所有在谷歌云上构建AI Agent的开发者过去半年的真实写照。
但现在,这一切要彻底变了。
2026年4月22日,Google Cloud Next '26大会第一天,谷歌正式推出了官方Agent Skills仓库。云、库、引擎、AI,全面打通。消息一出,Reddit上的谷歌生态开发者直接高呼加班终结。
你遇到的问题,谷歌看到了
先说说你正在经历什么。
你辛辛苦苦为BigQuery写了一个查询适配器,把API调用封装成Agent可用的function。AI会用还行,但一旦底层服务API改版——所有适配器都要手动重写。这是最典型的技术债。谷歌自己也承认,这种适配器维护是重复劳动,而且是最容易被人忽略的隐性技术债。
谷歌其实早就出了一个东西——Model Context Protocol(MCP)服务器,让Agent能直接抓取最新的技术文档。听起来很美?结果带来了一个新坑:上下文膨胀。
什么意思?
当你把MCP接入Agent,它会把大量文档一股脑地塞进模型的上下文窗口里。后果有两个。
其一:信息过载让模型直接混乱。有团队实测发现,Agent每次调用要加载1.5万个Token的指令,留给真正任务的空间几乎没有。
其二:Token成本炸锅。每次填充都是真金白银,调用量一大,开销曲线直接起飞,上不封顶。
所以这时候,Agent Skill上车了——精确、按需、高效。
Agent Skill到底是什么?
官方定义很克制:“一种简单开放的格式,用于赋予智能体新的能力和专业知识。”
翻译成人话,就是:一本给AI看的产品极简说明书+操作手册。
手册用Markdown编写,里面装着参考文档、代码片段和其他说明。AI只在需要执行某个任务时,才把对应手册加载进来,用完即弃,绝不占用多余Token。这就是按需加载的核心价值。
这句话可能还不过瘾,我跟你说它的定位有多刁钻:
Skill > Prompt > Fine-tuning > RAG + Tools?
这么说吧——Skill在传统提示词(Prompt)之上,因为它可复用、持久化存储;比微调更轻,因为能随业务逻辑变化而快速迭代;比RAG更主动,因为不是被动检索而像师傅手把手教操作;比普通工具更丰富,因为它不止教会Agent“做什么”,还教会“怎么做”和“为什么这么做”。
这套设计哲学,在我看来,就是把企业级AI Agent从“会用工具”升级到了“会懂业务”。
官方提供的超级工具箱
现在Skill开源仓库里有哪些技能?
一共13项核心技能(后续据传会扩展到50+),覆盖了谷歌云最核心的服务链条:
AlloyDB:AI Agent学会数据库操作
BigQuery:数据分析查询能力
Cloud Run、Cloud SQL:云计算和数据库管理
Firebase:支持全栈应用
Gemini API:调用谷歌核心大模型能力
Google Kubernetes Engine(GKE):容器编排神器
这还只是冰山一角。谷歌同时发布了三大架构支柱技能,它们才是真正的“工程方法论”:
安全性:Agent直接学会云安全最佳实践——身份与访问管理、数据加密、威胁防护一条龙
可靠性:包含高可用架构设计、容错机制、灾难恢复策略
成本优化:教AI在做架构决策时考虑资源效率和成本控制
说真的,一套AI Agent能帮你把云成本省一部分,这点已经够你开心一整天了。
进阶玩法:渐进式披露原理
谷歌官方博客里给了更深度的技术讲解——这个原理叫渐进式披露(Progressive Disclosure)。
什么叫渐进式披露?见名知意:信息分层注入。三层结构:
L1元数据(每个Skill约100个Token)。每启动一次,所有Skill只加载这个层——名字和简单描述。Agent就像看菜单一样,一眼就知道有哪些能力可用。
L2指令体(不超过5000个Token)。只有当Agent明确知道“我需要调这个Skill”了,才通过API加载它的具体指令。
L3资源文件(风格指南、API规范等外部引用)。指令中需要的时候才调,深度按需加载。
这套机制的落地效果极狠。假设你给Agent装了20个技能:
无Skill:每次调用等于往系统Prompt塞20000个Token上下的信息量——无论需不需要。
用Skills+L1:每次初始就加载约1000个Token—— 省了至少90%的基线上下文。
数字说话。成本降90%,效率翻再翻,这不比再做一套适配器香?
此外,SkillToolset(Google Agent Development Kit的工具)直接帮你封装好三个函数: list_skills(L1)、 load_skill(L2)、 load_skill_resource(L3),你只要按需调就完了。
5种设计模式,决定你怎么写SKILL.md
Skill不是一个“不用动脑插进去就完事”的功能。它需要你好好设计内容结构。
谷歌Cloud Tech官方近期整理了5种Agent Skill设计模式,给你一套可复用可组合的模块化架构。具体拆开看:
① Tool Wrapper(工具包装器) :把某服务/SDK/Framework的使用规范包装一个独立Skill,AI在真正需要调用那个服务时才加载。
举例:FastAPI开发最佳实践和规范。
场景适配:当你需要集成第三方API,但不想把所有API说明塞进系统提示词。
SKILL.md里写清楚三件事:触发条件、引用文件、最高执行优先级。
② Generator(生成器) :固定输出结构,防止每次生成格式不一致。
场景适配:数据报告生成、代码规范化。
核心技术:定义模板,让Agent照着填空,而不是自由发挥。
③ Reviewer:代码审计和质量检查。
Agent加载技能后开始反向检阅:根据规则核对代码,违反?告诉你怎么修。
⑤ + ⑤ 后面两种模式:Orchestrator(编排器)、Self-Improving(自进化) 篇幅太长,先说一个定论:这些模式直接决定了你的AI产品能否走向Agentic Enterprise(代理式企业)。
更大的棋:Agentic Data Cloud + A2A协议,真正的万Agent互联
Agent Skill只是开头。在Cloud Next 2026,谷歌CEO Thomas Kurian直接定调:“The Agentic Cloud” ——这是“从芯片到收件箱”全面贯通的时代。
这意味着什么呢?Vertex AI正式更名为Gemini Enterprise Agent Platform(统一Agent平台),从训练、构建、编排到管控全包,被定位为Agent的“Mission Control”(任务控制台)。
而真正让Agent全生态协作的是A2A(Agent-to-Agent)协议。谷歌去年4月就开放发布了它,这是史上第一个专为AI Agents之间通信而设计的开放标准协议。目前已经有超过150家组织在生产环境中部署A2A。
更炸裂的是——谷歌同步上线了Agentic Data Cloud(代理式数据云):模型、分析、操作数据库全打通,构成一个统一的AI原生系统。
换句话说,现在Agent不仅能互相对话,还能直接理解操作企业数据,做到“准实时行动”,又不会烧穿成本。
我翻译一下:你开发的所有Agent,可以共享数据认知,并在不同业务编排里协作。这不就是智能化企业操作系统?
野心 vs 竞争:谷歌想赢在哪?
对手紧逼。OpenAI发布GPT-5.5,Anthropic深耕Claude企业工具,其MCP协议每月SDK下载量达到9700万次,生态相对成熟。
那么凭什么说谷歌能杀出来?

三大差异:
1. 全栈优势:没有其他厂商能同时拥有模型、云平台、芯片(第八代TPU)和企业工作流入口(Google Workspace)。对手只有零部件,谷歌给整车。
2. 现成生态:Skill官方仓库直接配套GKE、BigQuery、Firebase,你今天就能写Google Assistant一样的业务流程。不用等第三方厂商适配。
3. 企业级落地速度:Google Cloud在2025年Q4以50%的年同比增长率领跑三大云厂商——基数虽较小但增速说明企业买单。
你细品,“代理式企业”转型不再空中楼阁,而是你可以今天用Skill干的第一件事:让AI帮你读BigQuery报表、检查云安全架构、优化你的K8s配置。 这些任务每一件都足以节省你每天1-2小时。
最后,聊聊我自己的立场
我搞AI开发这么久,最难的问题从来不是模型的“智商”够不够,而是怎么让AI真正理解业务环境、企业数据和API生态,还能高效率、迭代快、不下岗。
谷歌Skill横空出世,本质上顺应了“AI Agent从问答题变成应用题” 的大趋势——大模型内卷智商,搞来搞去都是参数量游戏;但Skill和SkillToolset搭建的是应用层“工程体系”。你的业务代码、云架构、安全合规标准,可以像积木一样模块化注入AI。
所以对开发者来说,现在最重要的问题是:你怎么为你现有业务场景编写第一份SKILL.md?
或者说,你是打算继续手动维护上百个API适配器和“万Token提示词”,还是花8小时设计5个高价值Skill从此一劳永逸?
别等谷歌把全套Skill拓展到你这个行业。今晚做第一个Skill,明早让Agent替你干活。记住:2026年是Skill能力的元年——下一个一年,你所有的AI应用都会被Skill重构。
也许到那天,你下班前跟老板说的不是“我刚写完Bug”,而是“我刚设计完第8个Skill,AI已经开始干了”。
本文部分素材源自Google Cloud官方博客及Cloud Next '26大会公开信息,经重新梳理与解读。技术落地与业务场景分析可到 云栈社区 与一线开发者交流探讨。