最近翻了不少6G白皮书,几乎每家的封面或者第一章都印着同一个词——AI-Native。再往下翻,通常会看到一张架构图,从基站一路连到云,中间冒出“大模型”、“智能体”、“自治网络”这些字眼,有的厂商甚至直接画了一个LLM蹲在核心网里调度业务。
听着很热闹。但如果你真去把3GPP RAN和SA几个工作组在R19、R20里通过的条款一条条捋一遍——尤其是3月刚frozen的R19,以及现在正在跑的R20——会发现一件略尴尬的事:3GPP标准里的“AI-Native”,跟那些白皮书PPT里讲的,基本不是同一件事。
不是说PPT全在吹,也不是说3GPP太保守。是这两件事压根儿就在两个轨道上。
01 标准里的“AI-Native”到底指什么
讲一个最简单的事实:3GPP不打算去标准化AI模型本身。这事不是我说的,是Juan Montojo说的——他是高通在3GPP的资深代表,也是空口AI工作项的报告人。他在今年2月ETSI那个AI大会上讲得很直白,3GPP的AI/ML项目主要是用来改进特定领域的效率,目前没有规范模型本身的计划。
意思就是,标准要做的事是:协议层面把AI当成一等公民——有标准化的数据采集接口、有标准化的模型生命周期管理、有标准化的端到端协作机制。至于跑在这套机制上的是个50万参数的小CNN,还是个70亿参数的Transformer,标准基本不管。
这跟厂商PPT上的“AI-Native”完全不是一回事。PPT上画的多半是结果——用户用自然语言对网络下指令、AI agent自动协调带宽、大模型预测流量、智能体编排业务。这些事不是不会发生,但它们大多在标准化范围之外,属于厂商自己的产品空间。
3GPP干的更像是修高速路。修好之后,谁开什么车走在上面,运营商和设备商自己定。
02 这件事走到哪一步了
时间线大致是这样:R18(2024年中冻结)做了空口AI的study item——这是3GPP第一次正经地把AI引进空口层,RAN1主导,输出物是TR 38.843,把CSI反馈、波束管理、定位三个用例的可行性、性能增益、协议影响都摸了一遍。这份文档现在是行业里所有讨论的起点。
R19在今年3月的TSG全会上正式frozen,从这之后这个版本只允许做错误修正和测试发现的问题修复,功能不再加了。AI这一块,R19做了三件具体的事:RAN1把CSI预测(UE侧单边模型)、波束管理、定位这几个用例做了normative work——也就是正式写进协议;RAN2启动了AI/ML移动性管理的研究,主要看网络触发的L3切换怎么用AI优化;RAN3的工作集中在AI/ML辅助网络切片和AI/ML辅助覆盖与容量优化(CCO)。
R20现在是正在跑的版本,也是个混合体——一半是5G-Advanced继续往前走,一半是6G的study item起步。截至今年3月的工作计划文件SP-260360,光是5G-A这边在R20里就挂了126个Work Item、74个Study Item在并行做。6G这边,SA1的TR 22.870(6G用例和服务需求)已经在3月通过,RAN那份TR 38.914(6G场景和需求)做到了60%,SA2的6G系统架构报告做到了20%,里面拆出了24个关键议题。
R20在AI上最值钱的一件事是RAN全会(2025年6月,布拉格)通过的那个Work Item,编号RP-251870,叫NR_AIML_air_Ph2——也就是空口AI的第二阶段。它干的是双边模型的CSI压缩,具体到“Case-0”:UE侧跑encoder,gNB侧跑decoder,先只压当前slot的空频域CSI,暂不涉及时域。
听着抽象。但你要知道这件事在工程上的难度——两个不同厂商的设备,UE来自OPPO或者三星,基站来自爱立信或者华为,各跑半个模型,怎么配对、怎么协同训练、版本不一致怎么fallback、模型更新怎么OTA、KPI异常时怎么回滚——所有这些都得在协议层标清楚。这是空口AI真正第一次涉及多厂商协作的硬骨头。
剩下一条线,是SA5和SA2主导的网络管理AI。这条线起步最早,R16就把NWDAF引进了5G核心网,R17、R18一直在加分析能力。R18在SA5那边出了TS 28.105,把AI模型在网管侧的生命周期管理标进了规范——onboarding、deployment、KPI监控、告警。R19通过TR 28.908补完了闭环LCM框架,从训练、验证、部署、推理、监控到再训练。R20这边在搞核心网对AI/ML的增强支持,SA2在做架构层面的工作。
R21——也就是6G的第一个normative版本——具体时间线还没定,要等到今年6月的plenary才会拍。ASN.1冻结最早不会早于2029年3月,商用窗口在2030年左右。这是3GPP自己讲的节奏。
03 那些具体的AI条款,在解什么问题
把R18起步、R19做完、R20在跑的这些用例排在一起看,会发现一个共同点:它们都是PHY层或者MAC层的具体功能增强,跟“大模型”几乎没有关系。
CSI反馈这块最热闹。Massive MIMO场景下,几十到上百个天线端口,UE把信道状态量化反馈给基站的开销大到压不住。R18给出的方向是两条:UE侧单边模型做CSI预测,把信道老化造成的延迟补回来;两侧各跑一半模型做CSI压缩,把反馈量级降下来。R19把CSI预测做成了正式规范——单边相对简单,工程上能落。两侧CSI压缩的难点不在模型,在于双方厂商得有匹配的版本、训练数据要对齐、不匹配的时候得有降级方案。R20那份RP-251870就是冲这件事去的。
波束管理走得相对顺。毫米波场景下波束又窄又多,穷举搜索代价高、时延也高。R18研究、R19规范化干了两件事:空间维度上拿一部分波束的测量结果预测整个集合的最优解;时间维度上拿历史数据预测下一时刻的最优波束。仿真结果是top beam pair的预测准确率能做到50%–90%,top-2能到65%以上。对设备商来说这是有商业价值的数字——直接关系到毫米波部署能不能用起来。
定位是第三个PHY层用例,重点在NLOS(非视距)环境下的精度增强。两条路并行——直接AI定位(类似指纹法)、AI辅助定位(把模型输出当作新的测量量或者对现有测量量的增强)。这块对工业互联网、室内导航、车路协同的价值最直接,也是R20在继续推进的方向之一。
RAN3那条线低调但扎实。R17启动、R18完成规范、R19在扩展,围绕负载均衡、移动性优化、网络节能、网络切片这些场景把AI嵌进NG-RAN。这部分工作的输出是TR 37.817那个RAN智能化框架——Data Collection、Model Training、Model Inference、Actor这几块功能怎么连——R19在这个框架基础上把网络切片和CCO两个新用例加进了Work Item。
把所有这些列下来,有个细节值得注意:这些模型的尺寸,普遍是百万到千万参数级别。不是几十亿,更不是几百亿。原因很简单——空口的处理预算是几十毫秒级,基站的baseband是有限的硬件资源,你没法在PHY层塞一个Transformer进去做实时推理。
04 跟“大模型上6G”差在哪儿
讲到这儿,前面那个核心问题就比较清楚了。
最关键的一条,是R20 6G研究范围里那句话:设计将确保有不依赖AI的回退操作。也就是任何AI增强都必须有一个非AI的兜底通路。这条原则一旦写进基线,就把“网络的核心调度逻辑跑在大模型上”这种激进设计提前否掉了——你不能把网络的兜底交给一个可能崩、可能漂、还得持续训练的东西。
第二个跟PPT派最大的分歧,是互操作性。3GPP的存在意义就是让不同厂商的设备能互通。任何进标准的AI机制,都必须是厂商中立的——模型可以差异化,但模型怎么部署、怎么交互、怎么监控,得有大家都遵守的协议。这就是为什么R20的双边CSI压缩WI要单拎出来——不是因为模型本身难,而是两个厂商的模型要能在空口上配对工作,这件事在工程上极难。
但3GPP不标模型这件事,并不意味着厂商不能搞自家大模型。这是个灰色地带。运营商完全可以在自家OSS/BSS里部署一个LLM agent,通过标准化的NWDAF接口拿网络数据、调网管能力——这件事完全成立,标准管不着。所以你会看到爱立信、诺基亚、中兴、华为这些公司一边在3GPP投票,一边在自家平台上做“网络大模型”产品。两条线不冲突,只是不该混着讲。
提一下SA1那份TR 22.870——3月刚通过的那份6G服务需求报告。里面确实出现了“能解释用户意图并动态编排服务的network AI agent”这类描述,听起来跟PPT派讲的几乎一样。但SA1的需求报告是目标层——它告诉系统架构组、RAN组,6G系统未来需要支撑哪些场景。怎么实现、用什么模型、跑在哪一层,是后面SA2、RAN1/2/3在R20 study、R21 normative阶段慢慢往下铺的事。中间隔着大概三年半的实际工作,以及6月份要定的R21整体时间线。
05 “AI-Native 6G”到底算不算真命题
按3GPP的口径,算。按市场部的口径,不算。
如果你把“AI-Native”定义成“AI是协议的一等公民,有标准化的数据通路和生命周期管理,PHY层关键功能由AI模型承担”——这件事6G是AI-Native的,而且从R20立项开始已经在认真往前推。
如果你把“AI-Native”定义成“大模型驻网、智能体调度一切、自然语言开通业务”——这件事在3GPP标准里目前没有,可见的未来里也不会有。不是它不重要,是它属于厂商创新的空间,不属于通用标准的范畴。
接下来这一两年值得看的事其实不多,但分量都不轻。
一个是6月的plenary——R21的时间线会在那次会议上定。它会决定6G第一个normative版本到底什么时候出、IMT-2030的提交窗口怎么排。
另一个是双边模型的互操作能不能真跑通。R20那个Case-0听着只是CSI压缩,但它实际上是行业第一次试验“不同厂商各跑半个AI模型,通过标准协议互通”。这件事如果跑成了,后续波束管理、定位、移动性管理都可以照搬这套范式;跑不成,空口AI这条线就得退回到单边模型的舒适区。
第三个是LCM Profile会不会被广泛采纳。模型格式、热切换、回滚机制如果真在R20末期被标准化,未来AI模型在网络里就更像一个“可调度的网元”,而不是各家闭门造车。这件事对运营商是好事,对设备商的差异化空间是一种挤压——这种张力会在R21 normative阶段被持续放大。
最后顺手说一句给做边缘的同行听的:3GPP把AI模型生命周期管理标准化这件事,对边缘AI平台的接口设计是有间接影响的——模型在gNB、UE、MEC节点之间怎么部署、怎么协作、怎么回退,这套机制一旦在6G里跑通,未来边缘AI平台的架构很可能要往这套范式上靠。还不到需要紧张的程度,但值得心里有根弦。
至于“6G AI-Native”这四个字到底是不是PPT,我自己的判断大概是这样:它在被认真做,但做的不是PPT上画的那件事。真正在标的事更琐碎、更工程化、更不性感——而这种“琐碎而工程化”的东西,往往才是这个行业最后真正定型的样子。
以上分析源自对3GPP文档的梳理,更多技术探讨欢迎来云栈社区。